En los servicios de atención al cliente online de muchas empresas, en los comercios electrónicos de algunas marcas, en las páginas web de las universidades… Nada más entrar en esos portales nos saluda muy solícito un chatbot, un programa informático que simula una conversación humana a través de texto o voz. Estos chats conversacionales no siempre utilizan la inteligencia artificial (IA) para contestar a nuestras preguntas, pero con la explosión de la IA Generativa las dudas en torno al uso de estas tecnologías son cada vez más frecuentes. Por eso, tanto si ya te has comunicado con uno de estos chatbots como si aún no, lee este artículo para saber los riesgos que entrañan.

 

Tres reglas de oro para el uso seguro de chatbots

Los usuarios deben ser conscientes de los riesgos asociados a los chatbots, tener cuidado con la información que proporcionan y estar atentos a cualquier signo de comportamiento sospechoso y denunciarlo.

  • 1. Privacidad. Hay que tener cuidado con la información que les proporcionas. No des información personal o confidencial.
  • 2. Espíritu crítico. Sé consciente de los sesgos potenciales, ya que pueden reflejar los que estaban presentes en los datos con los que se han entrenado. Por eso, hay que verificar todas las respuestas.
  • 3. Reportar y denunciar. Denuncia cualquier comportamiento sospechoso de la herramienta a los desarrolladores que la han creado, a tu proveedor de servicios de Internet o a las autoridades competentes en materia de ciberseguridad.

Qué tener en cuenta antes de hablar con un chatbot

Las capacidades que les otorga la inteligencia artificial hace que se haya abierto un nuevo debate ético y legal sobre los chatbots, presentando una serie de desafíos y consideraciones para los desarrolladores que los crean, los usuarios que los utilizan y los reguladores que tienen que velar por su uso responsable:

Desinformación

No están exentos de la posibilidad de generar información no precisa y, de hecho, si se entrenan con datos inadecuados pueden ser utilizados para difundir información falsa o engañosa. Esto puede ser especialmente problemático en el contexto de noticias o información política.

Prejuicios

Un chatbot pueden reflejar los prejuicios de los datos con los que se han entrenado. Esto puede llevar a que generen respuestas discriminatorias dado que si, por ejemplo, ha sido entrenado con datos que contiene sesgos de género o raza, podría ser más propenso a generar respuestas sexistas o racistas.

Acoso

El uso que se hace de ellos puede hacerlos armas para acosar o intimidar a los usuarios. Por ejemplo, podrían ser utilizado para enviar mensajes de odio o para generar contenido sexualmente explícito.

Recopilación de datos personales

Los chatbots pueden recopilar datos personales de los usuarios. Estos datos pueden ser utilizados para fines no autorizados, como el marketing o la vigilancia o estar expuestos a ataques externos.

 

Fuente: David Gómez Bolaños

 

? Recopilación de datos personales

Los chatbots pueden recopilar datos personales de los usuarios. Estos datos pueden ser utilizados para fines no autorizados, como el marketing o la vigilancia o estar expuestos a ataques externos.

Prejuicios

Un chatbot pueden reflejar los prejuicios de los datos con los que se han entrenado. Esto puede llevar a que generen respuestas discriminatorias dado que si, por ejemplo, ha sido entrenado con datos que contiene sesgos de género o raza, podría ser más propenso a generar respuestas sexistas o racistas.

? Acoso

El uso que se hace de ellos puede hacerlos armas para acosar o intimidar a los usuarios. Por ejemplo, podrían ser utilizado para enviar mensajes de odio o para generar contenido sexualmente explícito.

? Recopilación de datos personales

Los chatbots pueden recopilar datos personales de los usuarios. Estos datos pueden ser utilizados para fines no autorizados, como el marketing o la vigilancia o estar expuestos a ataques externos.

Newsletters

Súscribete a nuestra Newsletter y recibe información de interés y promociones