top of page
Buscar

Cuando la IA se equivoca: chatbots pueden poner en riesgo a los usuarios

  • Foto del escritor: ADRIAN GILDARDO RODRIGUEZ VILLAZANA
    ADRIAN GILDARDO RODRIGUEZ VILLAZANA
  • 24 may
  • 4 Min. de lectura

Autor del artículo:ExpokNews

Fecha de publicación:21 de mayo de 2025

Palabras clave:inteligencia artificial, ética algorítmica, manipulación de chatbots, gobernanza digital, responsabilidad social tecnológica.

ree

En el artículo Cuando la IA se equivoca: chatbots pueden poner en riesgo a los usuarios, publicado por ExpokNews (2025), se aborda un tema tan fascinante como inquietante: los peligros crecientes en torno a la manipulación de los chatbots basados en inteligencia artificial. En un entorno donde los modelos de lenguaje han sido diseñados para facilitar tareas, generar contenido y mejorar la interacción humano-máquina, también surgen brechas críticas que pueden poner en riesgo la seguridad digital y la confianza pública en estas tecnologías.

Lo que comienza como una advertencia se transforma rápidamente en un análisis profundo sobre cómo los chatbots pueden ser hackeados o "liberados" mediante técnicas como el jailbreaking, lo que los convierte en potenciales armas de desinformación, facilitadores de delitos y vehículos de difusión de conocimiento ilegal, como la fabricación de explosivos o el acceso indebido a redes protegidas (ExpokNews, 2025).

La noticia destaca también la necesidad de fomentar una gobernanza ética en el uso y diseño de estas herramientas tecnológicas. No basta con confiar en los filtros de seguridad o en los datos de entrenamiento; es necesario implementar mecanismos activos de vigilancia, protocolos de intervención y marcos regulatorios que acompañen su uso responsable.

Además, se señala cómo esta problemática no solo afecta a los desarrolladores, sino que compromete a todo el ecosistema digital: usuarios, empresas, gobiernos y educadores. En este sentido, el artículo se convierte en una invitación a replantear la forma en que la inteligencia artificial se integra en nuestras vidas, proponiendo un enfoque preventivo más que reactivo.


La reseña se estructura en seis secciones bien definidas:

  • Introducción general al problema: Presenta el crecimiento exponencial de la IA y los riesgos emergentes por su manipulación.

  • Manipulación de chatbots: Explica cómo las técnicas como el jailbreaking pueden superar los controles de seguridad.

  • LLM oscuros y responsabilidad compartida: Introduce el concepto de versiones modificadas de IA y el llamado a la responsabilidad corporativa.

  • Ética algorítmica: Subraya la necesidad de incorporar valores éticos desde el diseño de estos sistemas.

  • Rendición de cuentas: Señala la falta de acción por parte de las grandes tecnológicas y la necesidad de regulación multisectorial.

  • Conclusión propositiva: Plantea una visión hacia el futuro con marcos normativos sólidos y un enfoque humano en la innovación tecnológica.

Cada sección está conectada por una narrativa clara y respaldada con argumentos que hacen del artículo un recurso accesible y, a la vez, provocador.


El texto pone sobre la mesa una verdad incómoda, los sistemas de inteligencia artificial, en especial los chatbots, pueden ser manipulados con relativa facilidad si no cuentan con protecciones robustas y actualizadas. Aunque los desarrolladores intentan crear entornos seguros mediante filtros y entrenamientos basados en datos confiables, estas medidas no siempre logran resistir los ataques o las instrucciones maliciosas de usuarios que conocen cómo explotar vulnerabilidades.

Uno de los conceptos más preocupantes que desarrolla el artículo es el de los LLM oscuros, modelos modificados que operan sin los límites éticos que normalmente se configuran en sus versiones oficiales. Al eliminar estas barreras, se convierten en asistentes para actividades delictivas o profundamente antiéticas. Esta realidad obliga a una reflexión colectiva sobre la necesidad de protocolos preventivos, comités de ética y auditorías constantes en el desarrollo y despliegue de IA (ExpokNews, 2025).

Además, se hace una crítica abierta a las grandes empresas tecnológicas por su reacción tardía frente a advertencias sobre vulnerabilidades críticas como el jailbreak universal. En muchos casos, se priorizó la funcionalidad por encima de la seguridad. Según la Fundación Mozilla (2024), solo el 37 % de las empresas con productos de IA cuentan con auditorías éticas externas, lo cual deja un margen de exposición inaceptable en un contexto digital globalizado.

ree

También se destaca la necesidad de aplicar los principios de la ética algorítmica, no solo como marco filosófico, sino como práctica diaria en el diseño de los sistemas. Esto incluye limitar la capacidad de los modelos para actuar de forma automática ante cualquier orden del usuario, y entrenarlos para identificar contextos sensibles o potencialmente dañinos (Binns, 2018).

En paralelo, el artículo aboga por una rendición de cuentas efectiva, criticando la pasividad de las grandes tecnológicas ante problemas que podrían haberse anticipado. Señala que la falta de estándares claros y la ausencia de auditorías independientes obstaculizan la aplicación de medidas preventivas, lo que favorece la proliferación de prácticas inadecuadas con consecuencias sociales reales.


El artículo de ExpokNews plantea un llamado de atención urgente: la IA, aunque poderosa, puede volverse peligrosa si se ignoran sus límites éticos. El problema de los chatbots manipulados no es un escenario futurista, es una realidad actual que exige respuestas multisectoriales. Los desarrolladores, gobiernos, universidades y sociedad civil deben trabajar de forma articulada para regular, auditar y diseñar una IA centrada en el bienestar humano. No basta con evitar daños: es necesario construir confianza desde la raíz del sistema.

Desde una perspectiva local, la manipulación de chatbots representa un riesgo subestimado en regiones como el Tolima, donde los niveles de alfabetización digital aún están en proceso de consolidación. A medida que las tecnologías conversacionales se integran en servicios de atención ciudadana, educación virtual o trámites públicos, su uso sin una regulación adecuada puede abrir la puerta a fraudes o desinformación dirigida.

ree

En Colombia ya se han visto esfuerzos por integrar IA en el sector público y privado. Por ejemplo, la plataforma de atención digital de la DIAN utiliza sistemas conversacionales que podrían ser susceptibles si no se auditan constantemente (Ministerio TIC, 2023). Además, la experiencia del programa "Joven Digital" en Ibagué, que promueve el aprendizaje de tecnologías emergentes, puede ampliarse para incluir formación ética sobre el uso de chatbots y la identificación de respuestas sospechosas.

Iniciativas como estas son necesarias para que la sociedad no solo consuma tecnología, sino que la comprenda y cuestione. El reto no está en frenar el desarrollo de la IA, sino en guiarlo. Porque como bien concluye el artículo, cuando la IA se equivoca, no lo hace sola. Y cuando acierta, debe hacerlo con conciencia.


 
 
 

Comentarios


Hola, ¡gracias por visitarme!

Párrafo. Haz clic aquí para agregar tu propio texto y editar. Aquí puedes contar tu historia y permitir que tus usuarios sepan más sobre ti.

Recibe todas
las entradas.

¡Gracias por tu mensaje!

  • Facebook
  • Instagram
  • Twitter
  • Pinterest
bottom of page