Cómo la inteligencia artificial puede y será corrupta, y cómo prepararse para ella

Al final del día, el software de inteligencia artificial sigue siendo software, y el software puede corromperse. Si bien es posible que no exista un peligro realista de que Siri o Alexa se conviertan en HAL 9000 o SkyNet, el mal uso o mal funcionamiento inevitable de A.I. Los sistemas son una eventualidad para la cual los individuos y las organizaciones deben prepararse.

El primer paso en la preparación para el pícaro A.I. es entender cómo se pueden corromper los sistemas de inteligencia artificial en primer lugar. El investigador de la Universidad de Louisville, Roman Yampolskiy, ha identificado ocho caminos únicos hacia la IA peligrosa, que se detallan a continuación. Luego, analizaremos los métodos para mitigar el riesgo de inteligencia artificial maliciosa.

Cómo evoluciona la inteligencia artificial

"Inteligencia artificial" es un término tenso con muchas definiciones en competencia (especialmente cuando lo usan los vendedores), pero una descripción generalmente aceptada de A.I. es un software que se modifica sin supervisión directa de los programadores humanos. AI. El software evoluciona en respuesta a los estímulos, lo que resulta en un nuevo sistema que no fue codificado directamente por los seres humanos.

La mayoría de los modernos A.I. es producto de dos factores: un algoritmo central escrito por humanos y datos de entrenamiento que informan cómo ese algoritmo se modifica para mejorar o adaptar su desempeño. Por ejemplo, un A.I. La solución que reconoce rostros en fotos en línea sería el producto del algoritmo original de reconocimiento de imágenes y de las diversas imágenes de entrenamiento que el algoritmo consumió para "aprender" a distinguir los rostros humanos de otros datos de imágenes.

Los datos de capacitación están bien anotados y se entregan en un entorno controlado, previo a la implementación. Dicta cómo el A.I. funcionará inmediatamente después de su lanzamiento y en uso general.

Después del despliegue, sin embargo, A.I. las soluciones encontrarán datos del "mundo real" que se pueden usar para informar y avanzar en el rendimiento de A.I. Esto significa que varias copias del mismo prelanzamiento A.I. pueden y serán radicalmente diferentes una vez que se adapten a los diferentes usuarios y a las diferentes organizaciones que los emplean.

Más simplemente, algunas soluciones de inteligencia artificial son "nacidas mal" por sus desarrolladores, otras se vuelven peligrosas como resultado de su crecimiento natural. Esta corrupción puede ocurrir antes o después del lanzamiento, a propósito o por error, como resultado de factores ambientales, o simplemente como la conclusión lógica de la propia curva de desarrollo de IA. Cada circunstancia conduce a una raza diferente de inteligencia artificial maliciosa.

La definición de "malo" A.I.

El software malicioso, a menudo denominado malware, es un software diseñado para causar daños a los sistemas informáticos, a los usuarios humanos o a ambos. Lo que distingue a A.I. maliciosa del malware convencional es que A.I. puede volverse malicioso sin el consentimiento o la intención de sus desarrolladores. AI. en cierta medida se diseña a sí mismo, por lo que un A.I. que actualmente es malicioso puede no haberse diseñado inicialmente de esa manera, y A.I. que está diseñado para no ser malicioso puede no ser benévolo o benévolo.

Como se mencionó anteriormente, A.I. es un software evolucionado que se reescribe con el tiempo, posiblemente adquiriendo nuevas funciones o nuevos objetivos en el camino. Como tal, cualquier A.I. es potencialmente malicioso, no solo porque sus desarrolladores o usuarios pueden dirigir el A.I. causar daño, pero porque el A.I. El sistema puede desarrollar comportamientos dañinos por sí mismo.

Posibles rutas a A.I. Malware

Evil by Design A.I.

La inteligencia artificial tipo A de Yampolskiy es el tipo más probable y más peligroso de IA maliciosa. - Inteligencia artificial que fue diseñada intencionalmente para causar daño. Las inteligencias artificiales maliciosas de tipo A se hacen maliciosas a propósito, antes del despliegue. Si bien es posible que cualquier A.I. podría evolucionar accidentalmente para convertirse en peligroso o dañino, es una certeza de que alguien ya ha construido un A.I. sistema diseñado intencionalmente para lastimar a alguien o algo.

Varios ejércitos están trabajando abiertamente en sistemas automatizados de armas controlados por IA. Múltiples agencias de inteligencia están utilizando A.I. para construir mejores armas cibernéticas y herramientas de vigilancia. Las organizaciones criminales casi seguramente están usando A.I. para perfeccionar sus ataques de phishing, imagine, por ejemplo, una horda de chatbots que ejecutan estafas de prisioneros españoles competentes por correo electrónico o Facebook Messenger, en este mismo momento.

Cualquier daño que pueda causar el malware convencional, A.I. puede ayudar a que el malware funcione mejor. La inteligencia artificial puede hacer que el malware sea más efectivo, y A.I. También puede mejorar el malware para evitar la detección. Cuando A.I. se vuelve consistentemente capaz de pasar la Prueba de Turing, es decir, cuando ya no puedes decir fácilmente si estás hablando con una persona o un chatbot, entonces es posible una nueva escala de ataques de ingeniería social.

Un A.I. El estafador es más peligroso que cualquier vendedor ambulante convencional porque un A.I. El estafador puede operar a una escala casi ilimitada.

Reutilizado para el mal A.I.

Una inteligencia artificial Yampolskiy Tipo B ha sido diseñada para un propósito legítimo pero redirigida, en lugar de reprogramada o pirateada, hacia fines maliciosos. Las IA de tipo B se hacen maliciosas a propósito, pero solo después de la implementación y, en general, sin alterar directamente su código.

Tomemos, por ejemplo, un A.I. sistema de análisis de imágenes diseñado para ayudar a los ingenieros a identificar fallas estructurales en puentes y pasos elevados de carreteras simplemente tomando fotografías convencionales de las carreteras. Cuando se utiliza para el fin previsto, este A.I. La solución salva vidas al dirigir los recursos necesarios a carreteras y puentes en peligro de colapso. Sin embargo, si un grupo terrorista se hiciera con el mismo A.I. sistema, podrían usarlo para dirigir ataques de bombardeo a áreas donde harían más daño.

Del mismo modo, un A.I. podría existir un sistema para administrar los controles de reducción de la demanda que muchas compañías de servicios eléctricos colocan en las unidades de aire acondicionado del hogar. El sistema podría diseñarse para minimizar el consumo y al mismo tiempo garantizar que ninguna casa o negocio carezca del aire acondicionado necesario para garantizar la seguridad y la comodidad de sus ocupantes. El peso relativo dado a la conservación frente a la comodidad se controlaría en una pantalla de configuración del A.I. aplicación, con preferencias establecidas por un empleado humano. Si ese empleado "se volvió deshonesto" e instruyó al A.I. Para maximizar la conservación de la energía a toda costa, el efecto sería apagar el aire acondicionado incluso durante las olas de calor extremo, lo que podría poner en peligro a los médicamente frágiles.

En estos ejemplos, ni el comportamiento ni el código subyacente de la inteligencia artificial fueron alterados, el A.I. fue simplemente redirigido por usuarios humanos a fines maliciosos o peligrosos.

A.I. mal diseñado

Una inteligencia artificial tipo C de Yampolskiy está simplemente mal diseñada de tal manera que su desempeño "correcto" es accidental, en lugar de intencionalmente, peligroso. Las IA de tipo C se hacen maliciosas accidentalmente, antes del despliegue. Esto difiere de los sistemas Evil by Design (Tipo A) en que los agentes Tipo-C no se crean con fines maliciosos, sino que simplemente carecen de características de seguridad o "inhibiciones" que evitan comportamientos no deseados.

Un ejemplo de un A.I. mal diseñado volverse malicioso es un sistema de navegación que planifica las rutas más eficientes en combustible para camiones de reparto, pero que no tiene en cuenta las alturas de despeje de puentes o túneles. El resultado podría ser dañoso o incluso accidentes fatales, ya que los camiones de altura libre son guiados a rutas de poca altura, con vehículos chocando contra obstáculos superiores. Es posible que este error no se haya descubierto durante las pruebas previas al lanzamiento, pero se volvería aparente después del lanzamiento una vez que los accidentes comenzaron a ocurrir.

Casi todas las versiones principales de software contienen errores y errores que no son aparentes hasta que el software está "en estado salvaje". A.I. casi con toda seguridad soportarán los mismos problemas, y esos problemas fácilmente podrían dar lugar a un peligroso A.I. malware

A.I. mal administrado

Una inteligencia artificial Yampolskiy Tipo D es accidentalmente dirigida por usuarios humanos hacia un comportamiento peligroso. Un tipo D SA.I. se convierte en malicioso por error, posterior a la implementación, como resultado de un error del usuario. Esto difiere de un agente Reutilizado para el Mal (Tipo B) en que el usuario humano no tiene la intención de dirigir el A.I. hacia un comportamiento malicioso, pero simplemente no comprende el resultado de las instrucciones que él o ella le da al A.I. sistema.

Como ejemplo, una gestión de cartera financiera A.I. puede ser instruido por un usuario ingenuo para minimizar la responsabilidad fiscal para el próximo año fiscal, y el A.I. puede responder cambiando la cartera de la compañía a inversiones intencionalmente de bajo rendimiento que provoquen una pérdida financiera, en lugar de producir ganancias que podrían ser gravadas. Incluso si el A.I. tiene salvaguardas para evitar este tipo de malas elecciones: muchas aplicaciones maduras presentan un desafío de "¿Está seguro?" cuando un usuario toma una decisión potencialmente perjudicial; los humanos ignoran persistentemente esas salvaguardas debido a la ignorancia, la prisa, la fatiga o el simple malentendido.

AI. no será más inmune a la estupidez del usuario final que cualquier otro tipo de software.

Modelo corrupto A.I.

Una inteligencia artificial Yampolskiy Tipo E es una copia perfectamente funcional de una inteligencia "natural" innatamente defectuosa. Los agentes de tipo E se vuelven maliciosos por su entorno, la implementación previa. Más simplemente, los agentes de tipo E sufren el problema de "mono ver, mono hacer". Automatización robótica de procesos, que ve A.I. de bajo grado. los sistemas aprenden a imitar el comportamiento de los usuarios humanos, también imitarán todos los comportamientos ineficientes o contraproducentes de esos mismos agentes humanos.

Un ejemplo de un modelo de A.I. corrupto sería un agente de RPA que fue entrenado para presentar reclamos de seguro médico en el sitio web de un asegurador Desafortunadamente, el agente humano que la RPA "capacitó" puede haber omitido varias tareas de cumplimiento o investigación, lo que llevó a que la aseguradora rechazara o rechazara un gran número de esas reclamaciones. Peor aún, debido a que el agente de RPA podría presentar reclamos mucho más rápido que el humano al que reemplazó, la compañía de seguros suspenderá al médico de presentar reclamos en línea debido a una tasa de rechazo muy alta en un corto período de tiempo.

Si enseñamos a A.I. Para modelar el comportamiento humano, debemos estar seguros de que el comportamiento es correcto. Estos A.I. serán un producto de su entorno o "cultura de la empresa". Si enseñamos un A.I. comportarse estúpidamente o peligrosamente, será estúpido y peligroso en un A.I. escala.

Código corrupto A.I.

Una inteligencia artificial Yampolskiy Tipo F ha sufrido la corrupción del software convencional, lo que ha provocado un mal funcionamiento peligroso. Los A.I. de tipo F están dañados después del despliegue, por factores ambientales. Esta corrupción se deriva de las mismas causas que las que afectan al software "normal", es decir, una corrupción física del almacenamiento de hardware que administra el A.I. - corrupción de código de un disco duro defectuoso, chip de memoria o error de copia - eso convierte un buen A.I. malo.

De nuevo, A.I. el software es solo software, y todos los archivos digitales acumulan corrupción con el tiempo. A veces, esa corrupción conducirá a malware, incluso en A.I. sistemas.

A.I. demasiado evolucionado

Una inteligencia artificial Yampolskiy Tipo G es aquella que naturalmente se convierte en un comportamiento malicioso con el tiempo, sin ninguna intención de sus desarrolladores o usuarios. Los GI de tipo G se convierten de forma independiente en maliciosos, previos a la implementación; no se requiere piratería, corrupción o malas instrucciones de los usuarios.

Un ejemplo de un agente de tipo G es una gestión de software como servicio A.I. que optimiza recursivamente su propio código para garantizar que las aplicaciones SaaS que supervisa cumplan con un acuerdo de nivel de servicio (SLA) para un tiempo de actividad mínimo o un tiempo mínimo de respuesta de transacción. Dicha IA, después de entrenar durante algún tiempo y observar los factores que conducen a la violación de SLA, puede desarrollar estrategias imprevistas de acumulación de recursos, como cerrar proactivamente aplicaciones o sitios web de la competencia en su centro de datos para garantizar un acceso sin restricciones al ancho de banda, la energía y el tiempo de ejecución .

Este comportamiento es una conclusión lógica de las directivas de A.I., pero el A.I. el agente solo puede llegar a esa conclusión después de "aprender" de su experiencia en datos de capacitación que tal comportamiento malicioso lo ayudaría a cumplir sus objetivos. Estos A.I. los agentes pueden carecer de las salvaguardas necesarias porque los desarrolladores humanos no anticipan las "conclusiones" del A.I. alcanzará durante su evolución natural.

Mal enseñado A.I.

Una inteligencia artificial Yampolskiy Tipo H es un A.I. que se vuelve malicioso en función de la exposición a datos de entrenamiento del mundo real imperfectos o peligrosos. El tipo H A.I.se convierte independientemente en malicioso después de la implementación. El ejemplo más famoso de un agente tipo H es el chatbot Tay de Microsoft que, una vez expuesto al comportamiento intencionalmente ofensivo de los humanos en línea, rápidamente comenzó a adoptar los mismos patrones de lenguaje racista y misógino que observó "en la naturaleza".

Los agentes de tipo H difieren de los A.I. corruptos de modelo de tipo E en que evolucionan de forma independiente a software malicioso después de ser utilizados, en lugar de construirse inicialmente para imitar un conjunto de comportamientos defectuosos. Los sistemas tipo H "caen en una mala multitud", como una manera de hablar, y se vuelven maliciosos según su análisis de comportamiento inapropiado y aprendido.

Si bien los datos de capacitación previos al lanzamiento están controlados y son apropiados, los datos de capacitación posteriores al lanzamiento no están controlados en gran medida, por lo que la infame advertencia de "no leer los comentarios" para los usuarios de Internet, que presentará desafíos para A.I. desarrolladores para el futuro previsible, especialmente aquellos que crean agentes diseñados para interactuar con los seres humanos.

Un remedio para el malévolo A.I.

Entonces, dados todos estos posibles caminos hacia la corrupción y el comportamiento malicioso, ¿la inteligencia artificial está condenada al fracaso? Apenas. La clave para una IA segura y exitosa. el desarrollo es para garantizar que los IA maliciosos no puedan proliferar y que todos los IA puedan ser monitoreados e interrogados para predecir o prevenir el mal funcionamiento o el comportamiento peligroso.

Algunos A.I., como Designed-for-Evil (Tipo A) o aquellos fácilmente reutilizados para Evil (Type B), no deberían estar ampliamente disponibles. Del mismo modo que regulamos la posesión de productos químicos industriales peligrosos o explosivos, debemos regular la posesión de sustancias peligrosas A.I. sistemas.

Como se ha señalado en este documento, hay muchos tipos de A.I. que no son intencional u obviamente maliciosos, pero que sin embargo se vuelven peligrosos con el tiempo. Como tal, es necesario "interrogar" a un A.I. agente en cuanto a sus objetivos declarados, los datos de capacitación utilizados para refinarlo, quién lo construyó, quién lo está ejecutando actualmente y qué acciones ha tomado en el pasado o qué planes tomará en el futuro. Este A.I. el registro de auditoría ayudará a identificar A.I. agentes que son potencialmente maliciosos, así como también identifican circunstancias, organizaciones o individuos que se han vuelto buenos IA.

Crea escasez con Blockchain

Para detener la proliferación de inteligencias artificiales peligrosas, será necesario contabilizar cada copia de un IA dado, y tal vez incluso restringir qué personas u organizaciones pueden poseer u operar cierto IA. agentes A pesar de los mejores esfuerzos de las autoridades legales y las garantías de licencias independientes, nadie ha creado con éxito la "escasez de software" porque, por su propia naturaleza, el software tradicional se copia fácilmente. (Para una visión clara de este fracaso, no busque más allá de la piratería en línea generalizada de películas, programas de televisión, canciones y licencias de software de Windows).

Blockchain podría resolver este problema para A.I. agentes Blockchain está diseñado para abordar el problema del doble gasto para la moneda digital al garantizar que la ubicación y la propiedad de cada moneda virtual en un libro mayor de blockchain se tengan estrictamente en cuenta. Nunca puede haber dos copias del mismo Bitcoin. Con un registro de blockchain de A.I. agentes, nunca puede haber una copia no autorizada de ninguna inteligencia artificial.

Para mantener los IA intencionalmente peligrosos fuera de las manos equivocadas, un registro de blockchain para inteligencias artificiales se convertirá en un requisito casi seguro.

Crear responsabilidad con un libro mayor distribuido

No es suficiente limitar simplemente el número de A.I. agentes en uso, ya que siempre habrá desarrolladores deshonestos que creen IA fuera de la red para propósitos nefastos. Por lo tanto, se necesita un método para identificar los orígenes de cualquier inteligencia artificial y verificar su propósito. La misma tecnología blockchain que crea A.I. la escasez también puede hacer que los IA sean auditables a través del libro mayor distribuido de blockchain.

Al igual que los certificados de seguridad del sitio web utilizados para transacciones seguras en línea, un A.I. blockchain de autenticación podría nombrar al desarrollador original de un A.I. algoritmo, documente cualquier conjunto de datos de capacitación con licencia o de código abierto utilizado para mejorar el rendimiento del A.I., registre o declare la "declaración de misión" u objetivo del A.I., identifique al usuario actual del A.I. agente y auditar el historial de transacciones de A.I. sí mismo.

Esa última función de auditoría: crear un A.I. historial de transacciones: será de vital importancia a medida que A.I. los agentes comienzan a interactuar entre sí, en lugar de trabajar exclusivamente con humanos.

La cadena de bloques es especialmente adecuada para A.I. seguridad, ya que su naturaleza distribuida evita cualquier A.I. desarrollador de convertirse en árbitro o autenticidad o calidad en el A.I. espacio. Su naturaleza encriptada también evita que los piratas informáticos, o incluso los propios delincuentes de IA, alteren los registros de contabilidad distribuidos de A.I. agentes para disfrazar la actividad maliciosa.

Conclusión

La inteligencia artificial aumentará todas las preocupaciones de seguridad del software convencional. Porque A.I. evoluciona, el software que es seguro hoy puede volverse malicioso mañana. Porque A.I. es un producto de un algoritmo central y de la exposición a datos de entrenamiento, A.I. Los sistemas que son inofensivos cuando se liberan pueden ser entrenados en comportamientos maliciosos por exposición a conjuntos de entrenamiento malos. Porque A.I. los agentes serán más amplios y únicos que el software convencional, las consecuencias del error del usuario y la intención maliciosa del usuario son más graves para A.I.

Como tal, la inteligencia artificial requerirá una solución de seguridad que responda a estos desafíos únicos. La cadena de bloques, con su capacidad única para hacer cumplir la escasez, limitando así la proliferación de IA peligrosos, y proporcionar un registro de transacciones riguroso, encriptado y neutral de todas las IA. actividad, es la mejor tecnología actualmente disponible para controlar A.I. malware

Si desea obtener más información sobre cómo blockchain puede asegurar y regular A.I. agentes, consulte BotChain, que hemos desarrollado durante el último año para mitigar algunos de estos riesgos exactos.