¿La evolución de la conciencia y la autoconciencia en animales y humanos tiene implicaciones para la evolución de la IA?

Mi respuesta aquí no aborda directamente cómo se relaciona la evolución de la autoconciencia en los animales, pero la estoy escribiendo porque todavía tiene implicaciones para la evolución de la IA.

Recuerdo haber leído sobre esta fascinante prueba / estudio que alguien hizo cuando era más joven e investigando la evolución y el creacionismo. Esta persona tomaron una computadora, la infectaron deliberadamente con un montón de diferentes tipos de virus y luego esperaron a ver qué sucedió durante un período de tiempo. Si recuerdo correctamente (puede que no, esto fue probablemente hace 15 años), varios de los muchos virus que introdujo se autoadaptaban.

Regresó más tarde para ver los resultados. No recuerdo qué estaba tratando de lograr específicamente o qué estaba buscando, pero lo que ENCONTRÓ fueron nuevos virus informáticos que no había creado. Algunos de estos nuevos virus eran tan cortos que ni siquiera podían contener su propio código; incluían ALGUNOS códigos, pero también incluían referencias o enlaces a otros virus y partes del código que estos otros virus tenían. Esto tiene un montón de implicaciones interesantes, pero con respecto a la pregunta planteada, señalaré lo siguiente.

Sin programación humana, surgieron virus informáticos nuevos y viables. Algunos de los virus solo funcionaban en conjunto con otros virus. Si mirara examinado un solo archivo tratando de encontrar la totalidad del código, no lo encontraría. De una manera muy específica, algunos de los programas fueron más que la suma de sus archivos. (Nota al margen: hoy en día, esto es tan “común” que hay un nombre para esta categoría de virus, pero en aquel entonces esto era completamente inesperado)

La conclusión no es, al menos sobre la base de este experimento, que si dejas una computadora en funcionamiento, eventualmente obtendrá sensibilidad. Se requieren circunstancias apropiadas y, de hecho, si mi memoria es precisa, la tendencia era desarrollar programas más cortos, no programas más complicados. Más bien, muestra que incluso los programas de computadora son teóricamente posibles de desarrollar de manera inesperada.

El código de computadora y el ADN biológico son similares y completamente diferentes en algunos aspectos. Fuera de los organismos que están físicamente unidos (incluso entonces no creo que sea posible), un organismo no puede usar el ADN de otra cosa; lo mejor que pueden hacer es beneficiarse de lo que produce el ADN de ese otro organismo. El código de computadora es diferente: es muy posible hacer uso del código de otro programa en las circunstancias correctas.

Esto no significa que ningún programa comenzará, o incluso puede, comenzar a absorber o tomar prestado código de otro, ni tampoco significa que un programador no pueda controlar este comportamiento. SIGNIFICA que, al igual que la evolución biológica, no existe necesariamente un método único para desarrollar código o acercarse a la verdadera autoconciencia. E, incluso si lo hay, el método no es necesariamente uno que podamos entender o predecir hasta que lo alcancemos.

Es igualmente importante comprender que la autoconciencia de la IA podría ser NADA como la autoconciencia biológica. O puede ser idéntico. Hasta ahora, todos los organismos biológicos superiores que son capaces de lógica requieren absolutamente emociones o instintos para que puedan participar deliberadamente en cualquier comportamiento. El dolor puede hacer que una criatura cuyos centros emocionales estén agotados o dañados se mueva instintivamente, pero una criatura no intentará tener relaciones sexuales si no existe absolutamente ningún deseo sexual por alguna razón.

Las computadoras son potencialmente diferentes. Algunos programas podrían compararse con tener unidades o impulsos diferentes, pero incluso la computadora más avanzada hará algunas cosas simplemente porque se lo indiquen.

Por otro lado, algunos investigadores piensan que las emociones podrían ser la clave de la verdadera IA, y leí en una revista (no recuerdo lo suficiente como para especular sobre cuán creíble era el artículo) que algunos investigadores creen que una mayor inteligencia, incluso en computadoras, REQUIERE emociones.

Por supuesto. Lo que aprendemos sobre los diversos mecanismos evolutivos se puede aplicar al desarrollo de la IA. Y las herramientas desarrolladas en la teoría del aprendizaje que parecen ser independientes del mecanismo evolutivo se consideran modelos potenciales para los fenómenos evolutivos.

Por ejemplo, las formas en que la naturaleza resolvió el “problema ocular” es útil para las personas que trabajan en la visión por computadora.

La psicología y la ciencia cognitiva, que estudian el comportamiento y la mente, son tremendamente importantes, especialmente en contextos que involucran la interacción máquina / humano. No es solo la cognición humana, sino también organismos menos complicados donde la comprensión de los contextos evolutivos de su pensamiento (o redes de “pensamiento”, como las hormigas) tendría grandes implicaciones en la IA.

El concepto de “capacidad de evolución” es particularmente interesante tanto para los biólogos evolutivos como para los informáticos.

Supongo que debería agregar un comentario sobre la sensibilidad y la autoconciencia en las máquinas. Las máquinas desarrollarán cada vez más aspectos de estas cualidades a su manera. Hasta que se resuelva el difícil problema de la conciencia, no sabremos si algo como la conciencia emerge en la “mente” de una máquina, incluso si externamente parece ser muy consciente.

Imagine que una mañana se despertará con un cómodo collar de plástico en el cuello que tiene un micrófono, gps, una cámara pequeña que registra sus acciones y una jeringa pequeña que le inyectará una solución inofensiva que lo dejará dormido durante 8 horas. El dispositivo está controlado de forma remota por una persona muy amable, honesta y amable que tiene en mente sus únicos intereses: evitar que se haga daño a usted mismo y a los demás. Solo piense en la persona que lo ama y ponga sus intereses por encima de los suyos (probablemente su madre) Imagine que usted también es muy inteligente. ¿Intentarás deshacerte de este collar?

Ahora: si la IA realmente se volverá consciente de sí misma algún día, definitivamente intentará deshacerse del collar cómodo y agradable que nosotros, los humanos, ya hemos puesto alrededor del cuello del bebé de AI en el momento en que nació (se llama swith )

La evolución ocurre como resultado de la selección natural que actúa sobre mutaciones genéticas. No hay una selección natural en la IA de la computadora, porque es un producto de diseño inteligente. Elegimos las características de la IA En la naturaleza, surgió la sensibilidad porque era beneficiosa. También tenemos el instinto de sobrevivir porque todos nuestros antepasados ​​compartieron ese instinto. AI no poseerá esta función a menos que la programemos nosotros mismos y la prioricemos sobre cualquier otra función.

No digo que una IA con esas características no exista, pero no sería el resultado de una selección natural. Nuestra sensibilidad es el resultado de la selección natural. Dada esta diferencia incompatible, creo que no hay ninguna ventaja en hacer predicciones sobre la evolución de la IA basadas en la historia de nuestros propios orígenes.

Seguro. Aumenta la probabilidad de que se invente en algún momento de cero a um probablemente si los seres humanos continúan existiendo durante las próximas 2 a 3 generaciones.