"No creo que sea necesario entrar en pánico, pero ... las personas que dicen" no nos preocupemos en absoluto ", no estoy de acuerdo con eso". - Bill Gates
"El ritmo de progreso en inteligencia artificial (no me refiero a la inteligencia artificial limitada) es increíblemente rápido. A menos que tenga una exposición directa a grupos como DeepMind, no tiene idea de qué tan rápido, está creciendo a un ritmo cercano a lo exponencial. El riesgo de que ocurra algo gravemente peligroso se encuentra en el plazo de cinco años. Diez años como máximo. "- Elon Musk
“El desarrollo de la inteligencia artificial completa podría significar el fin de la raza humana ... Despegaría por sí solo y se rediseñaría a un ritmo cada vez mayor. Los humanos, que están limitados por la lenta evolución biológica, no podrían competir y serían reemplazados ". - Stephen Hawking

Hemos sido advertidos

Bill Gates, Elon Musk, Stephen Hawking: cuando esos brillantes visionarios comparten una opinión sobre algo, probablemente sea mejor escuchar. Y antes de ridiculizar esto como reclamos de solo tres hombres entre muchos líderes tecnológicos, considere esto: muchos expertos no creían que la inteligencia artificial derrotaría a los mejores jugadores humanos de Go durante otros 10 años, pero sucedió en 2016. Vale la pena enfatizar: personas He dedicado toda su vida a trabajar en inteligencia artificial. No creía que esto pudiera suceder durante al menos 10 años. Por lo tanto, debemos prestar atención cuando algunos expertos cuestionan la amenaza de la IA y su ritmo de desarrollo.

Pero basta con el pesimismo; El sol volverá a salir mañana. El reloj aún no ha dado la medianoche, pero está corriendo. ¿Que podemos preparar? Necesitamos establecer estándares preventivos, grupos de reflexión, regulaciones y asociaciones público-privadas.

Estado actual de protección contra la IA

Ha habido múltiples respuestas a la amenaza potencial de IA avanzada por parte de líderes académicos y empresariales. Dos grupos notables que vigilan de cerca son el Partnership on AI y el Future of Life Institute. Este último cuenta con más de 3.000 destacados investigadores de IA y líderes empresariales suscritos para sus Principios de Asilomar AI. Esta promesa destaca las consideraciones éticas necesarias para avanzar en la IA de manera responsable. Mientras tanto, la Alianza sobre IA, que cuenta entre sus socios fundadores Google, Amazon, Apple, Facebook, Microsoft e IBM, ha centrado sus objetivos en el liderazgo de pensamiento y la participación en la comunidad de IA. El trabajo que realizan grupos como estos es un buen comienzo, pero parece que carecen de fuerza ejecutiva detrás de sus promesas.

Las empresas individuales también están contribuyendo. DeepMind, posiblemente el líder mundial en investigación de IA, permitió a Google adquirirlo en 2014 bajo la condición de que Google estableciera un comité de ética independiente para supervisar sus actividades. (Tres años después, sin embargo, se sabe poco acerca de esta placa). Además, DeepMind confirmó en julio de 2017 que la compañía está trabajando para agregar "imaginación" a su IA para que pueda planificar mejor evitar situaciones malas imaginando lo bueno y lo malo. malos resultados De la misma manera que los padres y los maestros les dicen a los niños que "piensen antes de actuar", AI consideraría las consecuencias y elegiría contra una determinada acción si pudiera causar daño, por ejemplo.

De acuerdo, se han dado algunos pasos en la dirección correcta, pero en todos estos casos la falta de transparencia es preocupante. El problema con los grupos anteriores es que siempre hay un motivo de ganancia que crea una mala estructura de incentivos para el desarrollo de IA. Esencialmente, es una carrera armamentista. Ninguna empresa quiere ser dejada atrás por un rival, y con razón.

Reconociendo esto, en 2015, los veteranos de la industria tecnológica fundaron OpenAI, un grupo de expertos financiado por $ 1 mil millones. El objetivo expreso de esta organización es investigar la IA sin un objetivo comercial con el fin de garantizar que se desarrolle de una manera que sea beneficiosa para la humanidad. En resumen, la fundación de OpenAI reconoce que la ética no se ha mantenido al día con el progreso tecnológico. Y la ética es necesaria en el núcleo de la inteligencia artificial en el futuro para garantizar que los programas más dañinos que Tay se eviten antes de que comiencen. Pero esto todavía no es suficiente: los ciudadanos privados controlan "solo" miles de millones de dólares, pero los gobiernos controlan billones de dólares y sistemas legales. Como tal, debe haber supervisión gubernamental para garantizar que se administre la precaución adecuada.

Una amenaza muy real

Una razón similar llevó a los CEO de tecnología como Elon Musk a solicitar a los líderes del gobierno de los EE. UU. Que salgan al frente y regulen. En una cumbre de gobernadores de julio de 2017, Musk expresó sus preocupaciones:

"Sigo haciendo sonar la alarma, pero hasta que la gente vea que los robots que caen por la calle matan gente, no saben cómo reaccionar, porque parece muy etéreo".

Y ese es el problema. Hacer que las personas se preocupen por la ética, y mucho menos la ética en la IA, es difícil. Es difícil para la mayoría de nosotros comprender la idea de un programa de computadora que causa estragos sin una presencia física. Musk continuó compartiendo este escenario hipotético sobre el avión de Malasia que fue derribado sobre Ucrania en 2014:

“Si tuvieras una IA en la que el objetivo de la IA fuera maximizar el valor de una cartera de acciones, una de las formas de maximizar el valor sería ir mucho en defensa, corto en consumo, comenzar una guerra ... piratear las líneas aéreas de Malasia servidor de enrutamiento de aeronaves, enrutarlo sobre una zona de guerra, luego enviar un aviso anónimo de que un avión enemigo está volando por encima en este momento ".

Hace que la amenaza de la IA parezca muy real y muy simple, ¿no? Y eso es con una IA hipotética que tenía intenciones aparentemente benignas. Imagine si las intenciones nefastas se programaran deliberadamente. Es por eso que ahora es el momento para que los líderes gubernamentales trabajen con líderes de la industria y académicos en los campos de la IA y la ética para establecer regulaciones y asociaciones adecuadas para prepararse para el riesgo existencial que es la IA.

Respuesta del gobierno: presente y futuro

Las organizaciones privadas no son las únicas que comienzan a prestar atención a la IA. Tanto la administración Obama, con su informe "Preparándose para el futuro de la inteligencia artificial", como el gobierno chino, que recientemente propuso convertirse en el líder mundial en inteligencia artificial para 2030, enviaron señales claras de que este es un problema que puede " No ser ignorado. Sin embargo, es importante tener en cuenta que en ambos casos, la atención se centra principalmente en los resultados económicos. Esto tiene sentido porque la responsabilidad del gobierno es con su gente, y a las personas les importa si aún podrán mantener a sus familias con IA que amenaza muchas ocupaciones. La legislación sobre el impacto económico es importante, pero por ahora la amenaza de la IA en sí misma parece ser una ocurrencia tardía. Esto tiene sentido porque los políticos están acostumbrados a promulgar regulaciones después de que surgen problemas con la tecnología. Después de todo, es difícil predecir los efectos negativos de cada nueva tecnología; Sin embargo, esto no será suficiente con AI. Una vez que los efectos negativos se vuelven abundantemente claros, puede ser demasiado tarde para la intervención del gobierno.

Es por eso que los políticos necesitan trabajar con expertos en tecnología para ser preventivos con la regulación en esta área. Como beneficio adicional, esto permitirá a los encargados de formular políticas comprender mejor la naturaleza de la IA desde un nivel fundamental, lo que les ayudará con los cambios económicos que la IA puede causar.

Entonces, ¿qué significa todo esto para la persona común que no trabaja en el campo de la inteligencia artificial, la ética o la política? Bueno, tenemos dos opciones. Siéntese, espere y cruce los dedos para que todo funcione, o eduque a nosotros mismos, concientice a nuestras comunidades y solicite a nuestros representantes que regulen adecuadamente el desarrollo de la IA. Y si has llegado al final de esta publicación (y serie), entonces sabes más sobre el desarrollo de IA que el 95 por ciento de la población. Ese conocimiento es poder. Ahora depende de usted si asumirá la responsabilidad que conlleva ese poder y ayudará a desempeñar un papel pequeño para asegurarse de que nuestro futuro de IA sea bueno.