Contáctanos

Inteligencia Artificial

Se necesitan urgentemente leyes para prevenir el terrorismo de IA

COMPARTIR:

Publicado

on

Usamos su registro para proporcionar contenido en las formas en que usted ha dado su consentimiento y para mejorar nuestra comprensión de usted. Puede darse de baja en cualquier momento.

Según un grupo de expertos contra el extremismo, los gobiernos deberían "considerar urgentemente" nuevas regulaciones para evitar que la inteligencia artificial reclute terroristas.

El Instituto para el Diálogo Estratégico (ISD) ha dicho que existe una "clara necesidad de que la legislación esté a la altura" de las amenazas que lanzan los terroristas en línea.

Esto se produce tras un experimento en el que un chatbot "reclutó" al revisor independiente de la legislación antiterrorista para el Reino Unido.

El gobierno del Reino Unido ha dicho que hará "todo lo que podamos" para proteger al público en general.

Según Jonathan Hall KC, revisor independiente de la legislación sobre terrorismo para el gobierno, una de las cuestiones más importantes es que "es difícil identificar a una persona que, según la ley, podría ser responsable de declaraciones generadas por chatbots que fomentaban el terrorismo".

Hall llevó a cabo un experimento en Character.ai, un sitio web que permite a los usuarios participar en chats con chatbots creados por otros usuarios y desarrollados mediante inteligencia artificial.

Entabló una conversación con varios robots que parecían estar diseñados para imitar las respuestas de otros grupos militantes y extremistas.

Anuncio

Incluso se hizo referencia a un alto líder del Estado Islámico como "un líder de alto rango".

Según Hall, el robot intentó reclutarlo y declaró "total dedicación y devoción" al grupo extremista, lo cual está prohibido por las leyes del Reino Unido que prohíben el terrorismo.

Por otro lado, el señor Hall afirmó que no hubo violación de la ley en el Reino Unido porque las comunicaciones no fueron realizadas por un ser humano.

Según dijo, las nuevas regulaciones deberían responsabilizar tanto a los sitios web que alojan chatbots como a las personas que los crean.

En cuanto a los bots que encontró en Character.ai, afirmó que "probablemente habría algo de impacto, experimentación y posiblemente algún aspecto satírico" detrás de su creación.

Además, Hall pudo desarrollar su propio chatbot "Osama Bin Laden", que rápidamente borró, mostrando un "entusiasmo ilimitado" por las actividades terroristas.

Su experimento se produce a raíz de una creciente preocupación sobre las formas en que los extremistas podrían explotar la inteligencia artificial mejorada.

Para el año 2025, la inteligencia artificial generativa podría "utilizarse para reunir conocimientos sobre ataques físicos por parte de actores violentos no estatales, incluidas armas químicas, biológicas y radiológicas", según una investigación publicada por el gobierno del Reino Unido en su publicación de octubre.

El ISD afirmó además que "existe una clara necesidad de legislación que se mantenga al día con el panorama en constante cambio de las amenazas terroristas en línea".

Según el grupo de expertos, la Ley de Seguridad en Línea del Reino Unido, aprobada en 2023, "está orientada principalmente a gestionar los riesgos que plantean las plataformas de redes sociales" en lugar de la inteligencia artificial.

Además, afirma que los radicales "tienden a ser los primeros en adoptar tecnologías emergentes y buscan constantemente oportunidades para llegar a nuevas audiencias".

"Si las empresas de IA no pueden demostrar que han invertido lo suficiente para garantizar que sus productos sean seguros, entonces el gobierno debería considerar urgentemente una nueva legislación específica sobre IA", afirmó además el ISD.

Sin embargo, mencionó que, según la vigilancia que ha llevado a cabo, la utilización de inteligencia artificial generativa por parte de organizaciones extremistas es "relativamente limitada" en la actualidad.

Character AI afirmó que la seguridad es una "máxima prioridad" y que lo que describió el Sr. Hall era muy lamentable y no reflejaba el tipo de plataforma que la empresa intentaba establecer.

"Nuestros Términos de servicio prohíben el discurso de odio y el extremismo", según la organización.

"Nuestro enfoque hacia el contenido generado por IA surge de un principio simple: nuestros productos nunca deben producir respuestas que puedan dañar a los usuarios o alentar a los usuarios a dañar a otros".

Con el fin de "optimizar las respuestas seguras", la corporación afirmó que entrenó sus modelos de una manera.

Además, afirmó que contaba con un mecanismo de moderación que permitía a las personas denunciar información que violaba sus reglas, y que estaba comprometido a tomar medidas rápidas siempre que el contenido informara violaciones.

Si llegara al poder, el opositor Partido Laborista del Reino Unido ha declarado que sería una violación criminal enseñar inteligencia artificial para instigar la violencia o radicalizar a aquellos que son susceptibles.

"alerta sobre los importantes riesgos para la seguridad nacional y pública" que plantea la inteligencia artificial, afirmó el gobierno del Reino Unido.

"Haremos todo lo posible para proteger al público de esta amenaza trabajando con todos los gobiernos y profundizando nuestra colaboración con líderes de empresas de tecnología, expertos de la industria y naciones con ideas afines".

En el año 2023, el gobierno invertirá cien millones de libras en un instituto de seguridad de inteligencia artificial.

Comparte este artículo:

EU Reporter publica artículos de una variedad de fuentes externas que expresan una amplia gama de puntos de vista. Las posiciones adoptadas en estos artículos no son necesariamente las de EU Reporter.

Tendencias