Amor, muerte y robots: viendo las historias de Asimov a través de los ojos de un desarrollador





En honor al Día del Programador, decidimos relajarnos un poco y releer las historias favoritas de Isaac Asimov. Y luego nos esperaba un descubrimiento: resulta que el escritor de ciencia ficción hace más de medio siglo describió muchas de las realidades del desarrollo moderno con suficiente precisión. ¿Cómo es esto posible, preguntas? Vamos a resolverlo juntos. 



De las muchas historias del famoso escritor de ciencia ficción, la serie sobre la empresa “Yu. S. Robots ”y sus empleados. Varias historias cuentan sobre la vida cotidiana de los probadores Powell y Donovan, una especie de probadores de robots, otros, sobre el principal psicólogo de robots, el Dr. Calvin. La gama de problemas que enfrentan es amplia y familiar para muchos de sus colegas contemporáneos hasta el día de hoy.



Uno de estos problemas comunes es una declaración de trabajo formulada de manera inexacta en una tarea. Azimov tiene este tema más de una vez, y no es sorprendente: sus robots son mucho más inteligentes y "más humanos" que las máquinas modernas, y las personas que trabajan con ellos olvidan fácilmente que el robot piensa de manera diferente. Como resultado, un escenario descuidado del problema puede convertirse en un desastre, como sucedió en el cuento "Danza redonda" .



Y todo empezó, como les pareció a los probadores, bastante bien. Para poner en orden una base abandonada en Mercury, basta un kilogramo de selenio para reparar las fotocélulas. Y habrá electricidad, y con ella, el enfriamiento de la base, sin el cual no hay forma de sobrevivir en Mercurio. Selena está llena en el barrio, lagos enteros ... Sólo el robot enviado al más cercano está loco y corre en círculos, peor que eso: lleva delirio de borrachos, aunque los robots no beben. Durante la excursión al aire libre con riesgo de freír, los héroes descubren que el robot se ha topado con condiciones peligrosas para sí mismo en el camino hacia el lago. Pero hay un orden directo, ¿qué pasa?



- Dije ... Espera ... dije: 'Velocidad, necesitamos selenio. Lo encontrarás allí y allá. Ve y consíguelo. " Eso es todo. ¿Qué más debería haber dicho?

- ¿No dijiste que es muy importante, urgente?

- ¿Para qué? El asunto es sencillo.


Esta "sencillez" llevó a un dilema en el programa del robot: la prioridad de realizar una tarea "sin importancia" era menor que el sentido de autoconservación (la Tercera Ley, que prescribe evitar daños). Como resultado, el robot se obsesionó con la elección, cumplir la orden o sobrevivir, y los probadores tuvieron que corregir su error tomando acciones arriesgadas, recurriendo a la Primera Ley, que tiene la máxima prioridad. En pocas palabras, poniéndose en peligro y obligando al robot a posponer otras tareas y apresurarse a salvar a los propietarios. Después de tal experiencia, los evaluadores abordaron los términos de referencia con más cuidado, y todo fue como un reloj:



- Lo envié a otro lago de selenio, esta vez con la orden de obtener selenio a toda costa. Lo trajo en cuarenta y dos minutos y tres segundos; lo cronometré.


Después de Mercurio, la nueva asignación no les parece tan peligrosa a los héroes (en la estación interplanetaria, donde se desarrolla la historia "Logic" , es mucho más fresca, solo "doscientos setenta y tres grados bajo cero"), pero tendrán que enfrentar un problema que los desarrolladores solo pueden ver en pesadillas. Al menos ningún programa ha dicho todavía a sus creadores que seres tan imperfectos no podrían escribirlo.



Sin embargo, el robot de Cutie, un nuevo desarrollo para el mantenimiento de un convertidor de energía, no creía en la participación de las personas en su creación. Bueno, realmente, ¿cómo pueden estas débiles criaturas crear algo más perfecto que ellos mismos? Esto es ilógico. Tiene una versión más plausible:



- El maestro creó por primera vez a las personas, la especie más sencilla, que es la más fácil de producir. Poco a poco, los reemplazó con robots. Fue un paso adelante. Finalmente, me creó para ocupar el lugar de las personas restantes. ¡De ahora en adelante sirvo al Señor!


Los héroes están tratando de convencer al robot, apelando tanto a los libros como a los hechos (como ellos piensan), probando la existencia de la Tierra. Incluso montar un nuevo robot en presencia de Cutie no funciona, no estaban convencidos. Quizás esto se deba a la falta de postulados sobre su origen y metas cosidas en el cerebro positrónico. Este error arquitectónico es fácil de explicar: los desarrolladores apenas esperaban que el robot dudaría de los argumentos de la gente. Pero una falla que no jugó un papel en generaciones anteriores del producto, en la nueva llevó a la creación de una cadena de postulados diferente en el cerebro de la máquina: 



"No lo creo", asintió Powell con tristeza. - ¡Es un robot razonador, maldita sea! Sólo cree en la lógica, y ese es el punto ...

- ¿Qué?

- El razonamiento estrictamente lógico puede probar cualquier cosa, según los postulados iniciales que se acepten. Los tenemos, y Cutie tiene el suyo.


Sin embargo, a pesar de que el robot percibe su tarea a través de otras variables, cumple plenamente sus funciones. Simplemente lo hace no porque la gente se lo haya ordenado, sino porque esa es la voluntad del Señor.



Y la gente se enfrenta a un dilema clásico: ¿vale la pena arreglar algo si funciona? Así que los héroes, reflexionando, llegaron a la conclusión, no valía la pena:



– , - . , .

– ?

– ! , ?

– ?

– , …

– !


La tercera historia sobre los probadores, "Atrapando un conejo" , muestra bien lo que sucede cuando un producto no ha sido sometido a pruebas de estrés antes de su lanzamiento. La historia describe las pruebas de campo del robot minero de Dave, con un nuevo diseño, uno compuesto (un comandante de robot controla otros seis robots, como una mano, dedos). Pero tan pronto como el robot se deja desatendido, deja de funcionar. Además, comienza a marchar con todo el equipo, una actividad muy sospechosa para un minero. 



El problema de los probadores se describe mejor con una cita de la propia historia:



– . – ! – . – : . : «. . » , . : . : , «. . » . : , , .


Bajo la amenaza de perder un buen trabajo, un evaluador es capaz de muchas cosas, un hecho. Los héroes de la historia se acercaron y rechazaron muchas opciones de verificación, desde las pruebas unitarias en el sitio (se podrían desarmar y probar por separado, pero solo hay 10 días y aún no se sabe si esto dará algo) a un entorno de prueba especial (que es, pero en una Tierra distante y pesa 10 toneladas). ¿Lo que queda? Simule las condiciones en las que aparece un error y busque la causa. Esta, por desgracia, es la parte de muchos probadores modernos. Es cierto que fueron más afortunados: a diferencia de los héroes de la historia, los especialistas de hoy al menos no tienen que volar deliberadamente la mina junto con ellos. Pero bajo los escombros de las piedras, una persona piensa de manera mucho más eficiente, y es bueno que los desarrolladores aún no hayan adoptado esta técnica.



Un accidente amañado ayudó no solo a causar un error, sino también a adivinar su causa, e incluso de manera extrema, al volar uno de los "dedos" del robot, a reducir la carga y eliminar el problema:



- De eso estoy hablando. ¡Comandos enviados simultáneamente en seis canales! En condiciones normales, uno o más "dedos" realizan un trabajo sencillo que no requiere una vigilancia estrecha. Bueno, al igual que nuestros movimientos habituales de caminar. Y en circunstancias extremas, los seis deben ponerse en acción de forma inmediata y simultánea. Y aquí algo se rinde. El resto es sencillo. Cualquier disminución en la iniciativa requerida de él, por ejemplo, la apariencia de una persona, lo trae a sí mismo. Destruí uno de los robots y Dave solo tuvo que comandar cinco, la iniciativa disminuyó y se volvió normal.


Sin embargo, no solo los probadores, los "probadores" obtienen las tareas difíciles en las historias de Azimov. En la historia "Cómo se perdió el robot", la psicóloga de robots en jefe Susan Calvin tiene que buscar no un mal funcionamiento, sino todo el robot. No, no desapareció sin dejar rastro, se escondió entre otros del mismo tipo y fingió ser uno de ellos. Solo de los 63 robots, 62 dicen la verdad y uno miente, y este es un error grave.



La razón de la falla se encuentra rápidamente: el cliente realizó cambios en el programa del robot. Y no en algún lugar, sino en su parte clave: en la formulación de la Primera Ley. El nuevo robot ya no está obligado a proteger a una persona (para no subir a los rayos gamma para los científicos y estropearlo). Pero, como suele ser el caso en la vida real, estos cambios inconsistentes, realizados sin el conocimiento del experto principal, están plagados de consecuencias nefastas. En este caso, la interferencia violó la lógica previamente clara de las leyes, y el sistema, una vez depurado, se volvió inestable. Entonces, la orden emocional “vete y no te muestres para que no te vuelva a ver” le da al robot una escapatoria, obedece y hace todo lo posible para cumplir la orden.

Tenemos que desarrollar una serie de pruebas para verificar el cumplimiento de la Primera Ley y configurar una trampa basada en otro error de cambios en el programa del robot, una sensación de superioridad que no es característica de las máquinas comunes:



– . , -, . , . -10 . , . - , -2 , . , . , . , , , , , -10 , . - , , … .


Los héroes se ven obligados a buscar errores en la historia "Riesgo" . Un barco con un hiperimpulsor está sujeto a verificación, que por alguna razón no saltó durante las pruebas. Tales saltos son peligrosos para las personas, por lo que la nave fue pilotada por un robot. Ahora debería enviar a alguien al barco para averiguar la causa del fallo.



Esta historia ha planteado varios problemas de programación. En primer lugar, las pruebas: automatizadas (en este caso, por un robot) o manuales (científicos). A primera vista, un robot parece ser una opción más adecuada: una máquina es más rápida y confiable que un especialista humano. Pero el robopsicólogo insiste en un control humano. Más tarde aclara su posición de la siguiente manera:



–  , , . : . , , . . . , , .



,  , . , . , . , , , , ? « » – , . , , .


En parte, estos principios siguen siendo relevantes hoy en día, aunque las pruebas automatizadas se utilizan cada vez más y tienen muchas ventajas, en algunas situaciones, las pruebas manuales todavía tienen sentido y le permiten identificar problemas que, debido a su especificidad, son difíciles de encontrar utilizando máquinas. En la historia, es imposible que el robot prepare un escenario completo para encontrar un error, ya que no se comprende qué podría haber sucedido exactamente en la nave, y simplemente no notará ningún problema no contabilizado. Pero una persona ya puede navegar en el lugar, basándose en lo que vio y confiando en sus propias conclusiones.



En segundo lugar, la historia vuelve a plantear la cuestión de los términos de referencia correctos. Fue en él donde radicaba el motivo del error: el algoritmo para arrancar el motor del robot se registró sin tener en cuenta sus diferencias con una persona. Como resultado, siguiendo un comando formulado incorrectamente, lo exageró y rompió el gatillo:



–  , . , «. . » . , . ! , , . . : , .

–  …

–  , , . , . , … 


Hay muchas historias similares, en parte aparentemente desactualizadas, pero en muchos sentidos anticipándose a los eventos del futuro, tanto en Azimov como en otros escritores. Es una pena que todavía no tengamos robots tan desarrollados, y los problemas y los plazos siempre están con nosotros, señaló correctamente el gran escritor de ciencia ficción.



All Articles