El Economista - 70 años
Versión digital

mar 19 Mar

BUE 22°C
Chatbots

Europol advierte que ChatGPT ya está ayudando a la gente a cometer delitos

Los usuarios pueden pedirle a ChatGPT que aprenda cómo cometer delitos y pedirle orientación paso a paso.

Europol advierte que ChatGPT ya está ayudando a la gente a cometer delitos
28 marzo de 2023

Los delincuentes ya están utilizando ChatGPT para cometer delitos, dijo Europol en un informe que detalla cómo los modelos de lenguaje de IA pueden impulsar el fraude, el ciberdelito y el terrorismo.

Creado por OpenAI, ChatGPT se lanzó en noviembre de 2022 y rápidamente se convirtió en una sensación en Internet a medida que los usuarios acudían en masa al sitio para que el chatbot generara ensayos, memes, correos electrónicos, código de programación y todo tipo de texto.

Ahora, la agencia de aplicación de la ley de la Unión Europea, Europol, ha detallado cómo el modelo puede usarse indebidamente para propósitos más nefastos. De hecho, la gente ya lo está utilizando para llevar a cabo actividades ilegales, afirma la policía.

"Ya se puede anticipar el impacto que este tipo de modelos podrían tener en el trabajo de las fuerzas del orden", declaró Europol en su informe [PDF]. "Por lo general, los delincuentes explotan rápidamente las nuevas tecnologías y se los vio rápidamente con explotaciones criminales concretas, lo que brindó los primeros ejemplos prácticos apenas unas semanas después del lanzamiento público de ChatGPT".

Aunque ChatGPT es mejor para negarse a cumplir con las solicitudes de entrada que son potencialmente dañinas, los usuarios han encontrado formas de evitar el sistema de filtro de contenido de OpenAI. Algunos lo han hecho escupir instrucciones sobre cómo crear una bomba casera o crack de cocaína, por ejemplo. 

  • Los usuarios pueden pedirle a ChatGPT que aprenda cómo cometer delitos y pedirle orientación paso a paso.

"Si un delincuente potencial no sabe nada sobre un área delictiva en particular, ChatGPT puede acelerar significativamente el proceso de investigación al ofrecer información clave que luego se puede explorar más en pasos posteriores. Como tal, ChatGPT se puede usar para aprender sobre una gran cantidad de posibles áreas criminales sin conocimiento previo, que van desde cómo entrar a una casa, hasta terrorismo, cibercrimen y abuso sexual infantil", advirtió Europol.

La agencia admitió que toda esta información ya está disponible públicamente en Internet, pero el modelo facilita encontrar y comprender cómo llevar a cabo delitos específicos. 

  • Europol también destacó que el modelo podría explotarse para hacerse pasar por objetivos, facilitar el fraude y el phishing, o producir propaganda y desinformación para apoyar el terrorismo. 

La capacidad de ChatGPT para generar código, incluso código malicioso, aumenta el riesgo de ciberdelincuencia al reducir las habilidades técnicas necesarias para crear malware.

"Para un delincuente potencial con poco conocimiento técnico, este es un recurso invaluable. Al mismo tiempo, un usuario más avanzado puede explotar estas capacidades mejoradas para refinar aún más o incluso automatizar sofisticados modus operandi ciberdelincuentes", dice el informe.

Los modelos de lenguaje extenso (LLM) no son sofisticados y aún están en su infancia, pero están mejorando rápidamente a medida que las empresas de tecnología invierten recursos en el desarrollo de la tecnología. OpenAI ya lanzó GPT-4, un sistema más potente, y estos modelos se están integrando cada vez más en los productos. 

  • Microsoft y Google han lanzado chatbots de búsqueda web impulsados por IA en sus motores de búsqueda desde el lanzamiento de ChatGPT.

Europol dijo que a medida que más empresas implementen funciones y servicios de IA, se abrirán nuevas formas de utilizar la tecnología para actividades ilegales. "Sistemas de inteligencia artificial multimodal, que combinan chatbots conversacionales con sistemas que pueden producir medios sintéticos, como falsificaciones profundas altamente convincentes, o incluyen habilidades sensoriales, como ver y oír", sugirió el informe de la organización de aplicación de la ley.

  • Las versiones clandestinas de modelos de lenguaje sin filtros de contenido y entrenados en datos dañinos podrían alojarse en la deep web, por ejemplo, según señala el informe.

"Finalmente, existen incertidumbres con respecto a cómo los servicios de LLM pueden procesar los datos de los usuarios en el futuro: ¿se almacenarán las conversaciones y se expondrá potencialmente la información personal confidencial a terceros no autorizados? Y si los usuarios generan contenido dañino, ¿debería informarse a las autoridades policiales? , preguntó Europol.

Seguí leyendo

Enterate primero

Economía + las noticias de Argentina y del mundo en tu correo

Indica tus temas de interés