Principal Vanguardia 16 preguntas incómodas que todos deben hacer sobre la inteligencia artificial

16 preguntas incómodas que todos deben hacer sobre la inteligencia artificial

Tu Horóscopo Para Mañana

Solo nueve empresas tecnológicas gigantes en los EE. UU. Y China están detrás de la gran mayoría de los avances en inteligencia artificial en todo el mundo. En su nuevo libro, Los nueve grandes: cómo los titanes de la tecnología y sus máquinas pensantes podrían deformar a la humanidad (Asuntos Públicos, 5 de marzo), Amy Webb imagina tres futuros posibles, que van del optimista al apocalíptico, que podrían resultar de las acciones que tomamos, o no tomamos, para controlar el desarrollo de A.I. y dar forma a su impacto global. En este extracto, plantea una serie de difíciles cuestiones éticas que los humanos que construyen A.I. los sistemas deben utilizar para guiar su trabajo.

Las reglas - el algoritmo - por el cual cada cultura, sociedad y nación vive y ha vivido siempre fueron creadas por unas pocas personas. Democracia, comunismo, socialismo, religión, veganismo, nativismo, colonialismo: estos son conceptos que hemos desarrollado a lo largo de la historia para ayudar a guiar nuestras decisiones. Incluso en los mejores casos, no están preparados para el futuro. Las fuerzas tecnológicas, sociales y económicas siempre intervienen y hacen que nos adaptemos.

Los Diez Mandamientos conforman un algoritmo destinado a crear una sociedad mejor para los humanos vivos hace más de 5.000 años. Uno de los mandamientos es descansar un día completo a la semana y no hacer ningún trabajo ese día. En los tiempos modernos, la mayoría de la gente no trabaja exactamente los mismos días u horas de una semana a otra, por lo que sería imposible no romper la regla. Como resultado, las personas que siguen los Diez Mandamientos como principio rector son flexibles en su interpretación, dadas las realidades de jornadas laborales más largas, práctica de fútbol y correo electrónico. Adaptarse está bien, funciona muy bien para nosotros y para nuestras sociedades, lo que nos permite mantener el rumbo. Acordar un conjunto básico de pautas nos permite optimizar por nosotros mismos.

cuanto mide eric braeden

No habría forma de crear un conjunto de mandamientos para A.I. No pudimos escribir todas las reglas para optimizar correctamente para la humanidad, y eso se debe a que, si bien las máquinas pensantes pueden ser rápidas y poderosas, carecen de flexibilidad. No hay una manera fácil de simular excepciones o de intentar pensar en cada contingencia de antemano. Cualesquiera que sean las reglas que se escriban, siempre habrá una circunstancia en el futuro en la que algunas personas querrán interpretar las reglas de manera diferente, o ignorarlas por completo, o crear enmiendas para manejar una circunstancia imprevista.

Sabiendo que no podemos escribir un conjunto de mandamientos estrictos a seguir, ¿deberíamos, en cambio, centrar nuestra atención en los humanos que construyen los sistemas? Estas personas, las tribus de A.I., deberían hacerse preguntas incómodas, comenzando con:

cuando nacio shemar moore
  • ¿Cuál es nuestra motivación para la IA? ¿Está alineado con los mejores intereses a largo plazo de la humanidad?
  • ¿Cuáles son nuestros propios prejuicios? ¿Qué ideas, experiencias y valores no hemos podido incluir en nuestra tribu? ¿A quién hemos pasado por alto?
  • ¿Hemos incluido a personas distintas a nosotros con el propósito de hacer que el futuro de A.I. mejor, o simplemente hemos incluido diversidad en nuestro equipo para cumplir con ciertas cuotas?
  • ¿Cómo podemos asegurarnos de que nuestro comportamiento sea inclusivo?
  • ¿Cómo son las implicaciones tecnológicas, económicas y sociales de la I.A. entendido por los involucrados en su creación?
  • ¿Qué derechos fundamentales deberíamos tener para interrogar los conjuntos de datos, algoritmos y procesos que se utilizan para tomar decisiones en nuestro nombre?
  • ¿Quién puede definir el valor de la vida humana? ¿Contra qué se sopesa ese valor?
  • ¿Cuándo y por qué los miembros de las tribus de la IA sienten que es su responsabilidad abordar las implicaciones sociales de la IA?
  • ¿El liderazgo de nuestra organización y nuestra A.I. las tribus reflejan muchos tipos diferentes de personas?
  • ¿Qué papel juegan los que comercializan A.I. jugar al abordar las implicaciones sociales de la IA?
  • ¿Deberíamos continuar comparando A.I. al pensamiento humano, o es mejor para nosotros categorizarlo como algo diferente?
  • ¿Está bien construir A.I. que reconoce y responde a la emoción humana?
  • ¿Está bien hacer que A.I. sistemas capaces de imitar la emoción humana, especialmente si está aprendiendo de nosotros en tiempo real?
  • ¿Cuál es el punto aceptable en el que todos estamos bien con la IA? evolucionando sin los humanos directamente en el circuito?
  • ¿En qué circunstancias podría un A.I. simular y experimentar emociones humanas comunes? ¿Qué pasa con el dolor, la pérdida y la soledad? ¿Estamos bien causando ese sufrimiento?
  • ¿Estamos desarrollando A.I. para buscar una comprensión más profunda de nosotros mismos? ¿Podemos usar A.I. para ayudar a la humanidad a vivir una vida más examinada?

Hay nueve grandes empresas tecnológicas, seis estadounidenses y tres chinas, que son abrumadoramente responsables del futuro de la inteligencia artificial. En Estados Unidos, son Google, Microsoft, Amazon, Facebook, IBM y Apple ('G-MAFIA'). En China, es el BAT: Baidu, Alibaba y Tencent.

La G-MAFIA ha comenzado a abordar el problema de los principios rectores a través de varios grupos de investigación y estudio. Dentro de Microsoft hay un equipo llamado FATE - para la equidad, la responsabilidad, la transparencia y la ética en A.I. A raíz del escándalo de Cambridge Analytica, Facebook lanzó un equipo de ética que estaba desarrollando software para asegurarse de que su A.I. los sistemas evitaron el sesgo. (En particular, Facebook no llegó tan lejos como para crear una junta de ética centrada en la inteligencia artificial) DeepMind creó un equipo de ética y sociedad. IBM publica regularmente sobre ética y A.I. A raíz de un escándalo en Baidu, el motor de búsqueda priorizó las afirmaciones médicas engañosas de un hospital dirigido por militares, donde un tratamiento resultó en la muerte de un estudiante de 21 años, el director ejecutivo de Baidu, Robin Li, admitió que los empleados habían hecho compromisos por el bien del crecimiento de las ganancias de Baidu y prometió centrarse en la ética en el futuro.

lo que le pasó a alex mcarthur

The Big Nine produce estudios de ética y documentos técnicos, convoca a expertos para discutir la ética y organiza paneles sobre ética, pero ese esfuerzo no está lo suficientemente entrelazado con las operaciones diarias de los diversos equipos que trabajan en A.I.

La inteligencia artificial de los nueve grandes Los sistemas acceden cada vez más a nuestros datos del mundo real para crear productos que muestren valor comercial. Los ciclos de desarrollo se están acelerando para seguir el ritmo de las expectativas de los inversores. Hemos estado dispuestos, aunque sin saberlo, a participar en un futuro que se está creando apresuradamente y sin antes responder a todas esas preguntas. Como A.I. los sistemas avanzan y más de la vida cotidiana se automatiza, menos control tenemos sobre las decisiones que se toman sobre nosotros y para nosotros.

Amy Webb aparecerá en el Inc. Casa de los fundadores en Austin el 11 de marzo.