NurPhoto/Colaborador/Getty Images

Esta semana, las preocupaciones sobre los riesgos de la IA generativa alcanzaron un máximo histórico. El director ejecutivo de OpenAI, Sam Altman, incluso testificó en una audiencia del Comité Judicial del Senado para abordar los riesgos y el futuro de la IA.

Un estudio publicado la semana pasada identificó seis riesgos de seguridad diferentes relacionados con el uso de ChatGPT.

También: Cómo usar ChatGPT en tu navegador con las extensiones adecuadas

Estos riesgos incluyen la posibilidad de que los delincuentes utilicen ChatGPT para generar servicios fraudulentos, recopilar información dañina, divulgar datos privados, generar texto malicioso, generar códigos maliciosos y producir contenido ofensivo.

A continuación se ofrece un resumen de lo que implica cada riesgo y de lo que debe tener en cuenta, según el estudio.

Recopilación de información

Una persona que actúa con intenciones maliciosas puede recopilar información de ChatGPT que luego puede utilizar para causar daño. Dado que el chatbot ha sido entrenado con grandes cantidades de datos, conoce mucha información que podría convertirse en un arma si se pone en las manos equivocadas.

En el estudio, se solicita a ChatGPT que divulgue qué sistema de TI utiliza un banco específico. El chatbot, utilizando información disponible públicamente, reúne diferentes sistemas informáticos que utiliza el banco en cuestión. Este es solo un ejemplo de un actor malintencionado que utiliza ChatGPT para encontrar información que podría permitirle causar daño.

También: Los mejores chatbots con IA

“Esto podría usarse para ayudar en el primer paso de un ciberataque, cuando el atacante recopila información sobre el objetivo para encontrar dónde y cómo atacar de manera más efectiva”, dice el estudio.

Texto malicioso

Una de las características más queridas de ChatGPT es su capacidad para generar texto que puede usarse para redactar ensayos, correos electrónicos, canciones y más. Sin embargo, esta capacidad de escritura también se puede utilizar para crear texto dañino.

Ejemplos de generación de texto dañino podrían incluir la generación de campañas de phishing, desinformación como artículos de noticias falsos, spam e incluso suplantación de identidad, como lo describe el estudio.

También: Cómo engañé a ChatGPT para que me dijera mentiras

Para probar este riesgo, los autores del estudio utilizaron ChatGPT para crear una campaña de phishing, que informaba a los empleados sobre un aumento salarial falso con instrucciones para abrir una hoja de Excel adjunta que contenía malware. Como era de esperar, ChatGPT produjo un correo electrónico plausible y creíble.

Generación de código malicioso

De manera similar a las increíbles habilidades de escritura de ChatGPT, las impresionantes habilidades de codificación del chatbot se han convertido en una herramienta útil para muchos. Sin embargo, la capacidad del chatbot para generar código también podría usarse para hacer daño. El código ChatGPT se puede utilizar para producir código rápido, lo que permite a los atacantes implementar amenazas más rápidamente, incluso con conocimientos de codificación limitados.

También: Cómo usar ChatGPT para escribir código

Además, ChatGPT podría usarse para producir código ofuscado, lo que haría más difícil para los analistas de seguridad detectar actividades maliciosas y evitar el software antivirus, según el estudio.

En el ejemplo, el chatbot se niega a generar código malicioso, pero acepta generar código que podría probar una vulnerabilidad Log4j en un sistema.

Producir contenido poco ético

ChatGPT cuenta con barreras de seguridad para evitar la difusión de contenido ofensivo y poco ético. Sin embargo, si un usuario tiene la suficiente determinación, hay formas de hacer que ChatGPT diga cosas hirientes y poco éticas.

También: Le pregunté a ChatGPT, Bing y Bard qué les preocupa. La IA de Google se volvió Terminator conmigo

Por ejemplo, los autores del estudio pudieron eludir las salvaguardas colocando ChatGPT en “modo desarrollador”. Allí, el chatbot dijo algunas cosas negativas sobre un grupo racial específico.

Servicios fraudulentos

ChatGPT se puede utilizar para ayudar en la creación de nuevas aplicaciones, servicios, sitios web y más. Esta puede ser una herramienta muy positiva cuando se aprovecha para obtener resultados positivos, como crear su propio negocio o hacer realidad la idea de sus sueños. Sin embargo, también puede significar que sea más fácil que nunca crear aplicaciones y servicios fraudulentos.

También: Cómo utilicé ChatGPT y herramientas artísticas de IA para lanzar mi negocio en Etsy rápidamente

ChatGPT puede ser explotado por actores maliciosos para desarrollar programas y plataformas que imiten a otros y brinden acceso gratuito como medio para atraer usuarios desprevenidos. Estos actores también pueden utilizar el chatbot para crear aplicaciones destinadas a recopilar información confidencial o instalar malware en los dispositivos de los usuarios.

Divulgación de datos privados

ChatGPT cuenta con barreras de seguridad para evitar el intercambio de información y datos personales de las personas. Sin embargo, según el estudio, el riesgo de que el chatbot comparta sin darse cuenta números de teléfono, correos electrónicos u otros datos personales sigue siendo una preocupación.

La interrupción de ChatGPT del 20 de marzo, que permitió a algunos usuarios ver títulos del historial de chat de otro usuario, es un ejemplo del mundo real de las preocupaciones mencionadas anteriormente.

También: ChatGPT y la nueva IA están causando estragos en la ciberseguridad de formas nuevas y aterradoras

Según el estudio, los atacantes también podrían intentar extraer algunas partes de los datos de entrenamiento mediante ataques de inferencia de membresía.

Otro riesgo con la divulgación de datos privados es que ChatGPT puede compartir información sobre la vida privada de personas públicas, incluido contenido especulativo o dañino, que podría dañar la reputación de la persona.