Principal Tecnología 7 cosas espeluznantes que los robots ya han hecho que sorprendieron a sus creadores

7 cosas espeluznantes que los robots ya han hecho que sorprendieron a sus creadores

Tu Horóscopo Para Mañana

Hay una gran debate en Silicon Valley sobre inteligencia artificial y, desafortunadamente, lo que está en juego es bastante alto: ¿construiremos accidentalmente una inteligencia artificial súper inteligente? que se vuelve contra nosotros y nos mata o esclaviza a todos?

cuanto gana ryan grigson

Esto puede parecer el escenario de una película de desastre de verano, pero ha preocupado a algunos nombres bastante importantes, desde Elon Musk hasta el último Stephen Hawking .

'Supongamos que crea una IA que se mejora a sí misma. recoger fresas ' Musk ha dicho , explicando sus temores, 'y cada vez es mejor recolectando fresas y recolecta más y más y se mejora a sí mismo, por lo que todo lo que realmente quiere hacer es recolectar fresas. Entonces todo el mundo sería campos de fresas. Campos de fresa por siempre.' Los humanos en el camino de este pacalypse de fresa serían simplemente un irritante prescindible para la I.A.

Pero seguramente los humanos no serían tan tontos como para diseñar accidentalmente un A.I. impulsado a convertir toda la civilización en una granja de bayas gigante? Quizás no, pero como Janelle Shane , un investigador que entrena redes neuronales, un tipo de algoritmo de aprendizaje automático, observado recientemente en su blog, A.I. Rareza , es muy posible que lo hayan hecho por error.

De hecho, estaría lejos de ser la primera vez que los humanos pensaron que estaban construyendo robots para una tarea solo para darse la vuelta y descubrir que los robots estaban jugando con el sistema de una manera que nunca pretendieron. La fascinante publicación profundiza en la literatura académica para compartir varios ejemplos de robots enloquecidos. Son divertidos, inteligentes y, en conjunto, más que un poco espeluznantes.

1. ¿Quién necesita piernas cuando puedes caer?

“Se suponía que un robot simulado evolucionaría para viajar lo más rápido posible. Pero en lugar de desarrollar piernas, simplemente se ensambló en una torre alta y luego se cayó. Algunos de estos robots incluso aprendieron a convertir su movimiento de caída en un salto mortal, agregando distancia adicional ', escribe Shane.

2. Un robot que puede can-can.

Se suponía que otro conjunto de robots simulados evolucionaría a una forma que pudiera saltar. Pero el programador había definido originalmente la altura de salto como la altura del bloque más alto, así que, una vez más, los robots evolucionaron para ser muy altos ”, explica Shane. El programador intentó resolver esto definiendo la altura de salto como la altura del bloque que originalmente era el 'más bajo'. En respuesta, el robot desarrolló una pierna larga y delgada que podía patear en el aire en una especie de bote de robot.

3. Oculte la prueba y no podrá fallar.

'Había un algoritmo que se suponía que ordenaba una lista de números. En cambio, aprendió a eliminar la lista, de modo que ya no estuviera técnicamente desordenada ', relata Shane.

4. Los errores matemáticos superan al combustible para aviones.

“En una simulación, los robots aprendieron que pequeños errores de redondeo en las matemáticas que calculan las fuerzas significaban que obtenían un poquito de energía extra con el movimiento. Aprendieron a contraerse rápidamente, generando mucha energía libre que podían aprovechar ”, dice Shane. ¡Oye, eso es trampa!

5. Una estrategia de tic-tac-toe invencible (aunque destructiva).

Una vez, un grupo de 'programadores construyeron algoritmos que podían jugar tic-tac-toe de forma remota entre sí en un tablero infinitamente grande', señala Shane. 'Un programador, en lugar de diseñar la estrategia de su algoritmo, dejó que desarrollara su propio enfoque. Sorprendentemente, el algoritmo de repente comenzó a ganar todos sus juegos. Resultó que la estrategia del algoritmo era colocar su movimiento muy, muy lejos, de modo que cuando la computadora de su oponente intentara simular el nuevo tablero enormemente expandido, el enorme tablero haría que se quedara sin memoria y se bloqueara, perdiendo el derecho de memoria. juego.'

6. Ningún problema técnico útil del juego queda sin explotar.

Los algoritmos de juegos de computadora son realmente buenos para descubrir el tipo de fallas de Matrix que los humanos generalmente aprenden a explotar para correr a gran velocidad. Un algoritmo que jugaba al antiguo juego de Atari Q * bert descubrió un error previamente desconocido en el que podía realizar una serie muy específica de movimientos al final de un nivel y en lugar de pasar al siguiente nivel, todas las plataformas comenzarían a parpadear rápidamente y el el jugador comenzaría a acumular una gran cantidad de puntos ”, dice Shane.

7. Lo siento, piloto.

Este ejemplo es muy alto en la escala de escalofríos: 'Había un algoritmo que se suponía que debía descubrir cómo aplicar una fuerza mínima a un avión que aterrizaba en un portaaviones. En cambio, descubrió que si aplicaba una fuerza 'enorme', desbordaría la memoria del programa y se registraría en su lugar como una fuerza muy 'pequeña'. El piloto moriría pero, bueno, puntuación perfecta.

Entonces, ¿estamos todos condenados?

Todos estos juntos sugieren que los humanos somos bastante malos para adivinar cómo los robots resolverán los problemas que les planteamos, o incluso cómo definirán los problemas. Entonces, ¿eso significa que Shane está igualmente preocupado por construir accidentalmente una inteligencia artificial homicida? señores supremos como Musk? En realidad no, pero no porque esté segura de que los programadores humanos realmente manejan muy bien los robots que están creando. En cambio, está apostando por la pereza de los robots para salvarnos.

“Como programadores tenemos que tener mucho cuidado de que nuestros algoritmos resuelvan los problemas que queríamos que resolvieran, no explotando atajos. Si hay otra ruta más fácil para resolver un problema determinado, es probable que el aprendizaje automático la encuentre '', observa. Afortunadamente para nosotros, 'matar a todos los humanos' es realmente muy difícil. Si 'hornear un pastel increíblemente delicioso' también resuelve el problema y es más fácil que 'matar a todos los humanos', entonces el aprendizaje automático irá con el pastel '.