InicioInfoRobots con cerebros artificiales aprenden a engañar robots

Robots con cerebros artificiales aprenden a engañar robots

Info2/14/2010
Acá una noticia novedosa de los avances de la Inteligencia Artificial



Esta noticia de hoy es un excelente ejemplo para los que opinan que un cerebro artificial nunca evolucionará para representar el gran rango de sutilezas emocionales que poseemos los humanos, pues en un experimento realizado por científicos suizos unos robots aprendieron el arte de "engañar" a otros robots.

Para entender todo el proceso, iniciemos describiendo el experimento: Un grupo de robots fue colocado en un salón en donde en un lugar había una luz intensa y en otro lugar había una luz oscura. El primer objetivo de estos robots era permanecer lo mas cerca posible de la luz intensa que representaba "comida" o "energía", y el segundo objetivo era permanecer lo mas alejados posibles de una segunda luz muy débil que representaba "veneno".

Estos robots no son guiados a control remoto, sino que son totalmente autónomos, cada uno poseyendo un cerebro artificial compuesto de una "red neuronal", que no es mas que un circuito especial que se adapta automáticamente a los patrones que recibe de su entorno, muy similar a como funciona el cerebro humano, pero a una escala muchísimo menor, aunque lo suficientemente compleja como para dotar a estos robots de una inteligencia lo suficientemente primitiva como para sobrevivir en el escenario en que fueron puestos en este experimento.

Aparte de eso, estos robots cada cierto tiempo son encuestados para ver cuáles son los que han cumplido mejor el objetivo (es decir, cuáles son los que sobrevivirán en la cadena evolutiva), y aquellos que hicieron el mejor trabajo permanecen en el experimento, y aquellos que no se les copia "la mente" de los otros, pero con algunas alteraciones aleatorias para simular "un hijo que no es idéntico al padre".

Aparte de eso cada robot tenía en su cuerpo una luz intensa, que puede ser captada por los otros robots, y que inicialmente se prende y apaga aleatoriamente, pero que si es captada por otros robots esos la pueden confundir como la señal de comida.

Pues bien, dado todo ese escenario, esto fue lo que ocurrió...

En las primeras generaciones de robots, algunos se adaptaron rápidamente a buscar la comida, y otros no, pero después de unas cuantas generaciones mas casi todos los robots eran capaces de buscar la comida.

Mientras estos estaban cerca de la comida, y de manera estacionaria, la luz que emitían hacía que otros robots vinieran y se acercaran también a la fuente de comida.

Sin embargo, he aquí algo curioso del caso: El área de luz intensa (es decir, la fuente de comida) es lo suficientemente grande para acomodar a solo unos cuantos robots, por lo que si muchos se amontonan alrededor de la luz, muchos de ellos no comerán, y es posible que los que estuvieran comiendo ahora sean empujados y ya no puedan comer mas.

Pero eso no es lo verdaderamente curioso: Después de aproximadamente 50 generaciones de mutaciones en el cerebro de estos robots, algunos robots aprendieron a nunca iluminar su luz interna cuando estaban junto a la comida, pero sí cuando estaban lejos de ella. Es decir, los robots aprendieron por experiencia a engañar a los otros robots, haciéndoles creer que había comida cuando en realidad no había, y apagando sus luces en señal de que no había comida para evitar que los otros robots se acercaran y les quitaran la comida. Tan curioso como eso es que para la generación 100, ya casi todos los robots se habían aprendido este truco.

Como ven, este es un excelente ejemplo de la Evolución en acción, en específico del concepto de "supervivencia del mas apto".

Esto además debe ponernos a pensar qué sucedería si creamos una super Inteligencia Artificial (IA), y esta tomara consciencia y viera amenazada su existencia (un tema recurrente en muchas películas de Hollywood), pues obviamente esta posiblemente recurra a tácticas de engaño tal cual lo hicieron estos robots, con la gran diferencia que dado el potencialmente mas alto coeficiente intelectual de esa IA, que nosotros seamos tan fácilmente engañados como lo es para nosotros engañar a un niño de 3 años.

Fuente de la noticia:
http://www.eliax.com/index.php?/categories/19-Robots
Datos archivados del Taringa! original
0puntos
512visitas
0comentarios
Actividad nueva en Posteamelo
0puntos
0visitas
0comentarios
Dar puntos:

Dejá tu comentario

0/2000

No hay comentarios nuevos todavía

Autor del Post

L
LuisMaster🇦🇷
Usuario
Puntos0
Posts12
Ver perfil →
PosteameloArchivo Histórico de Taringa! (2004-2017). Preservando la inteligencia colectiva de la internet hispanohablante.

CONTACTO

18 de Septiembre 455, Casilla 52

Chillán, Región de Ñuble, Chile

Solo correo postal

© 2026 Posteamelo.com. No afiliado con Taringa! ni sus sucesores.

Contenido preservado con fines históricos y culturales.