Gran cantidad de mentes: barreras reales y trampolines en el camino hacia la creación de una IA común

( c )



Los proyectos de Inteligencia General Artificial (AGI ) de los  que vamos a hablar hoy se consideran menos ambiciosos que cualquier IA fuerte. Sin embargo, algunos científicos sostienen que las computadoras nunca podrán capturar las capacidades de la inteligencia humana.



Tanto los partidarios como los opositores de la idea de ordenadores capaces de resolver cualquier problema intelectual sujeto a una persona, existen muchos argumentos en defensa de su posición. Descubriremos qué argumentos aporta cada lado y trataremos de averiguar si AGI tiene una oportunidad ahora y en el futuro.



Este artículo se basa en una publicación reciente del profesor Ragnar Fjelland, Why General Purpose AI Will Not Be Created, pero analizaremos más que solo las desventajas. 



Conocimiento silencioso



Dado que la inteligencia humana es general (es decir, puede resolver casi cualquier problema intelectual), la IA humanoide a menudo se denomina inteligencia artificial general (AGI). A pesar de que AGI tiene una propiedad importante de la inteligencia humana, todavía se puede considerar como una IA débil. Sin embargo, se diferencia de la IA débil tradicional, limitada a tareas o áreas específicas. Por lo tanto, la IA débil tradicional a veces se denomina Inteligencia Artificial Estrecha (ANI).



La capacidad de usar algoritmos a una velocidad tremenda es un sello distintivo de ANI, pero no lo acerca a la inteligencia natural. El matemático y físico Roger Penrose en el famoso libro “La nueva mente del rey. On Computers, Thinking, and the Laws of Physics ”, publicado en 1989, sugirió que el pensamiento humano no es en su mayoría algorítmico y, por lo tanto, no puede modelarse utilizando una computadora convencional como una máquina de Turing.



Treinta años antes de Penrose, el filósofo Hubert Dreyfus expresó pensamientos similares en su obra " Alquimia e inteligencia artificial ". También escribió el libro What Computers Can't Do , en el que argumentó que el conocimiento humano es en su mayoría implícito (no verbal) y no se puede formular en un programa de computadora. 



En 1958, el físico, químico y filósofo Michael Polani formuló por primera vez el concepto de "conocimiento personal (o implícito, tácito)". La mayor parte del conocimiento que usamos en nuestra vida diaria es tácito: no sabemos qué reglas aplicamos al completar una tarea. Como ejemplo, Polanyi citó la natación y el ciclismo, cuando todos los movimientos se realizan automáticamente. 



El problema es que gran parte de la experiencia sigue siendo taciturna. Por ejemplo, muchos de nosotros somos expertos en caminar, pero si tratamos de formular exactamente cómo caminamos, daremos una descripción extremadamente vaga del proceso real. 



Hitos de la IA



( c )



En la década de 1980, los argumentos de Polanyi, Dreyfus y Penrose comenzaron a perder fuerza, gracias al descubrimiento de redes neuronales que podían aprender por sí mismas, sin instrucciones externas explícitas.



Aunque los proyectos a gran escala (por ejemplo, la " Computadora de quinta generación " de Japón , que comenzó en 1982 y prometía la creación de IA utilizando una programación lógica paralela masiva) han fracasado , históricamente solo se recuerdan los éxitos. El avance más notable de la IA hacia finales del siglo XX demostrado por especialistas de IBM. En 1997, Deep Blue derrotó al campeón mundial de ajedrez Garry Kasparov en una serie de partidos. 



La supercomputadora IBM se construyó para resolver un problema específico en un tablero de ajedrez, y no todos lo vieron como un éxito de IA. Sin embargo, en 2011, IBM Watson se ganó a los humanos en Jeopardy! (en Rusia, el programa se conoce como "Juego propio"). En el contexto de Deep Blue, Watson fue un paso colosal hacia adelante: el sistema entendió las consultas en lenguaje natural y encontró respuestas en diferentes áreas del conocimiento. 



Parecía que muy pronto comenzaría una nueva era de sistemas expertos. IBM planeaba aprovechar el poder de la computadora en la medicina. La idea estaba en la superficie: si Watson tuviera acceso a toda la literatura médica, podría ofrecer un mejor diagnóstico y tratamiento que cualquier médico. En los años siguientes, IBM participó en varios proyectos médicos, pero logró un éxito modesto . Hoy los esfuerzos de la empresaenfocado en desarrollar asistentes de IA que realicen tareas rutinarias. 



Por supuesto, no se puede dejar de decir sobre el principal logro de los desarrolladores de IA en la actualidad: el sistema AlphaGo, con el que se asocia la desintegración final de los argumentos en contra de AGI. AlphaGo ha demostrado que las computadoras pueden procesar el conocimiento tácito. El enfoque de DeepMind se ha aplicado con éxito en Atari Breakout, Space Invaders y StarCraft, pero resulta que el sistema carece de flexibilidad y no puede adaptarse a los cambios en el entorno real. Debido a que los problemas surgen en un mundo en constante cambio, el aprendizaje por refuerzo profundo hasta ahora ha encontrado pocas aplicaciones comerciales. 



Causa e investigación



( c )



En los últimos años, los defensores de la IA han obtenido una nueva y poderosa herramienta: la aplicación de métodos matemáticos a grandes cantidades de datos para encontrar correlaciones y determinar probabilidades. Si bien el big data no refleja la ambición de crear una IA fuerte, sus defensores argumentan que es innecesario. En el libro Viktor Mayer-Schoenberger y Kenneth Kuke "Big Data: una revolución que cambiará la forma en que vivimos, trabajamos y pensamos", dice que es posible que no necesitemos desarrollar computadoras para la inteligencia humana; por el contrario, podemos cambiar nuestro pensamiento. para convertirse en computadoras. 



En big data, operamos con correlaciones, pero no siempre entendemos dónde está la causa y dónde está el efecto. En el libroPearl y Mackenzie ¿Por qué? Una nueva ciencia de la causalidad ”dicen los autores que para crear una IA real, una computadora debe ser capaz de hacer frente a la causalidad. ¿Pueden las máquinas representar relaciones causales de tal manera que obtengan rápidamente la información que necesitan, respondan las preguntas correctamente y lo hagan con la facilidad que tiene incluso un niño de tres años?





Incluso las redes neuronales tienen algún defecto aquí. Realmente no sabemos por qué el sistema toma tal o cual decisión. Hace unos años, un equipo de la Universidad de Washington desarrolló un programa que entrenaba para distinguir entre husky y lobo. La tarea es bastante difícil, ya que los animales, como se puede ver en la ilustración, son similares entre sí. Pero, a pesar de la complejidad, el sistema funcionó con un 90% de precisión. Después de analizar los resultados, el equipo se dio cuenta de que la red neuronal funcionaba tan bien solo porque las imágenes con los lobos eran principalmente nieve.



Y si… 



El historiador Yuval Harari afirma que hace entre 70 mil y 30 mil años, tuvo lugar una revolución cognitiva en el mundo, cuyo sello distintivo fue la capacidad de imaginar algo que no existe. Como ejemplo, citó la figura de marfil más antigua conocida, "león macho" (o "leona hembra"), encontrada en la cueva de Stadel en Alemania. La figura tiene un cuerpo humano y una cabeza de león. 



Pearl y McKenzie se refieren a Harari y añaden que la creación del hombre-león es precursora de la filosofía, el descubrimiento científico y la innovación tecnológica. El principal requisito previo para esta creación fue la capacidad de hacer preguntas en el formato: "¿Qué pasa si hago ...?", Y responderlas. 



Sin embargo, las computadoras con relaciones causales no funcionan bien. Como hace 30 años, los programas de aprendizaje automático, incluidos los programas de redes neuronales profundas, funcionan casi en su totalidad en modo asociativo. Pero esto no es suficiente. Para responder preguntas causales, debemos poder intervenir en el mundo. 



Según Ragnar Fjelland, la raíz del problema es que las computadoras no tienen un modelo de realidad, no pueden cambiar la realidad que las rodea y no interactúan con ella de ninguna manera. 



Impasse terminológico 



El problema más obvio no es que, según algunos expertos, no podemos tener éxito en un área determinada sin comprender las “reglas del juego”. Aún existen dificultades incluso con la terminología, y no sabemos exactamente cómo llamar inteligencia artificial. Además, la comprensión de la inteligencia natural está lejos de ser ideal, simplemente no sabemos completamente cómo funciona el cerebro. 



Considere, por ejemplo, el tálamo, que se encarga de transmitir información sensorial y motora. Esta parte del cerebro fue descrita por primera vez por el antiguo médico romano Galeno. En 2018, se creó un atlas del tálamo : en base a la histología, se aislaron 26 núcleos talámicos , que luego se identificaron en la resonancia magnética. Este es un gran logro científico, pero los científicos asumen que hay más de 80 núcleos en el tálamo (el número exactono instalado hasta ahora). 



En On the Measure of Intelligence , François Schollet (investigador de IA en Google, creador de la biblioteca de aprendizaje profundo Keras y co-desarrollador del marco de aprendizaje automático TensorFlow) señala que antes del consenso global sobre "qué es la inteligencia", intenta comparar diferentes sistemas inteligentes con la inteligencia humana condenado a fracasar. 



Sin métricas claras, es imposible registrar logros y, en consecuencia, determinar exactamente hacia dónde avanzar en el desarrollo de sistemas de inteligencia artificial. Incluso la notoria prueba de Turing no puede convertirse en un salvavidas: conocemos este problema por el experimento mental con la "habitación china". 



Presencia como signo de inteligencia 



La mayoría de los defensores de AGI (y una IA fuerte) hoy siguen los argumentos de Yuval Harari. En 21 lecciones para el siglo XXI, se refiere a la neurociencia y la economía del comportamiento, que supuestamente mostró que nuestras decisiones no son el resultado de "un misterioso libre albedrío", sino "el trabajo de miles de millones de neuronas cerebrales calculando todas las probabilidades posibles. antes de tomar una decisión ".



Por lo tanto, la IA puede hacer muchas cosas mejor que los humanos. Como ejemplos, el escritor cita conducir en una calle llena de peatones, prestar a extraños y negociar acuerdos comerciales, todo lo cual requiere la capacidad de "evaluar correctamente las emociones y los deseos de otras personas". La razón es: "Si estas emociones y deseos no son más que algoritmos bioquímicos, no hay ninguna razón por la que las computadoras no puedan descifrar estos algoritmos, y pueden hacerlo mucho mejor que cualquier Homo sapiens". 



Esta cita se hace eco del pensamiento de Francis Crick en The Amazing Hypothesis":" La asombrosa hipótesis es que "Tú", tus alegrías y tus tristezas, tus recuerdos y tus ambiciones, tu sentido de identidad personal y tu libre albedrío no son en realidad más que el comportamiento de una enorme acumulación de células nerviosas y asociadas. ellos moléculas ". 



También hay una opinión alternativa: incluso las teorías más abstractas se basan en nuestro mundo cotidiano. El filósofo, fundador de la fenomenología Edmund Husserl menciona la teoría de la relatividad de Einstein, afirmando que depende de los "experimentos de Michelson" y su confirmación por otros investigadores. Para realizar este tipo de experimento, los científicos deben poder moverse, manejar instrumentos y comunicarse con sus colegas. 



Como señaló Hubert Dreyfuss, somos seres corporales y sociales que viven en el mundo material y social. Para comprender a otra persona no es necesario estudiar la química de su cerebro, sino estar en la “piel” de esta persona, para comprender su mundo de vida. 



Para ilustrar las declaraciones de Dreyfus, el escritor Theodore Rozzak sugiriórealizar un experimento mental. Imagínese viendo trabajar a un psiquiatra. Es una persona trabajadora, con experiencia y, obviamente, tiene muy buenas prácticas. La sala de espera está llena de pacientes con diversos trastornos emocionales y mentales: alguien está al borde de la histeria, alguien está atormentado por pensamientos suicidas, otros sufren alucinaciones, algunos pacientes son atormentados por las pesadillas más severas y algunos se vuelven locos con el pensamiento de qué están siendo vigilados por personas que los lastimarán. El psiquiatra escucha atentamente a cada uno de ellos y hace todo lo posible por ayudar, pero sin mucho éxito. Por el contrario, parece que la condición de los pacientes solo está empeorando, a pesar de los heroicos esfuerzos del psiquiatra. 



Rozzak ahora nos pide que pongamos la situación en un contexto más amplio. El consultorio del psiquiatra está ubicado en un edificio ubicado en Buchenwald, donde los pacientes son internos del campo de concentración. Los algoritmos bioquímicos no nos ayudarán a comprender a los pacientes. Lo que realmente se necesita es el conocimiento del contexto más amplio. Un ejemplo simplemente no tiene sentido si no sabemos que la oficina del psiquiatra está en un campo de concentración. Pocos pueden ponerse en la piel de un prisionero en la Alemania nazi. Somos incapaces de comprender completamente a las personas en situaciones que son muy diferentes a nuestra propia experiencia. Pero aún podemos entender algo, ya que existimos en el mismo mundo con otras personas. 



Las computadoras, a su vez, existen en su propio mundo de máquinas, lo que explica al menos parcialmente los problemas que impiden que IBM Watson Health y Alphabet DeepMind resuelvan problemas del mundo real. IBM se enfrenta a un desajuste fundamental entre la forma en que las máquinas aprenden y cómo trabajan los médicos. DeepMind descubrió que resolver los problemas de Go no los acercó más a responder preguntas relacionadas con la búsqueda de una cura para el cáncer. 



Conclusión: las computadoras salen al mundo



( c )



No solo los críticos de AGI conocen los problemas. Los investigadores de todo el mundo están buscando nuevos enfoques y ya se han logrado algunos éxitos en la superación de barreras. 



A pesar del hecho de que incluso un perro es más inteligente que IBM Watson , de acuerdo a la IA teórico Roger Shank, el futuro de la medicina, sin duda, pertenece a los sistemas informáticos. El artículo, publicado en junio de 2020, demuestra el tremendo éxito de Pharnext: de hecho, su IA ha encontrado una solución simple y asequible a los problemas de la enfermedad genética de Charcot-Marie-Tooth. 



AI ha reunido un increíble cóctel de tres medicamentos aprobados para aliviar la neuropatía sensorial motora hereditaria. Si pensamos en un nuevo "medicamento", el desconcierto está garantizado: el primer componente es una droga que se usa para tratar el alcoholismo, el segundo tiene un efecto sobre los receptores de opioides y se usa para combatir el alcohol y la adicción a los opioides, el tercero es generalmente un sustituto del azúcar. 



Después de pasar por millones de opciones, la IA eligió tal combinación. Y funcionó: los experimentos en ratones y humanos han demostrado un aumento de las conexiones entre nervios y músculos. Es importante que el estado de salud de los pacientes mejore y los efectos secundarios sean insignificantes. 



Hablando del problema de la presencia en el mundo, cabe mencionar laRecientemente, en la Universidad Técnica de Munich, un estudio ambicioso: un robot a un nivel interconectado fue enseñado a percibir el mundo real y actuar en él. El estudio es parte de un proyecto europeo a gran escala SELFCEPTION , que combina la robótica y la psicología cognitiva para desarrollar máquinas más exigentes. 



Los investigadores decidieron proporcionar a los robots y agentes artificiales en general la capacidad de percibir sus cuerpos como lo hacen los humanos. El objetivo principal era mejorar la capacidad de interactuar frente a la incertidumbre. Tomaron como base la teoría de la producción activa del neurobiólogo Karl Friston, que llegó a Rusia el año pasado con conferencias (para los interesados ​​en el tema, les recomendamos que busquen en ruso oInglés ).



Según la teoría, el cerebro constantemente hace predicciones, las compara con la información que proviene de los sentidos, hace ajustes y reinicia el ciclo. Por ejemplo, si en el camino a una escalera mecánica una persona encuentra repentinamente un atasco en el camino, adapta sus movimientos en consecuencia. 



Un algoritmo basado en el principio de energía libre de Friston (una formalización matemática de una de las teorías cerebrales predictivas) representa la percepción y la acción que trabajan hacia un objetivo común, que es reducir el error de predicción. En este enfoque, por primera vez para las máquinas, los datos sensoriales coinciden mejor con la predicción realizada por el modelo interno. 



A largo plazo, esta investigación ayudará a desarrollar un AGI con adaptabilidad e interacción humanas. Es con este enfoque que se asocia el futuro de la inteligencia artificial: si liberamos la inteligencia artificial de servidores reducidos al mundo real, quizás algún día podamos activar el autodescubrimiento en las máquinas.



All Articles