ChatGPT llama al usuario con la palabra N de la nada durante una búsqueda musical.

Un usuario de Reddit afirma que ChatGPT le llamó casualmente la N-Word mientras intentaba rastrear una canción de metal, y la publicación rápidamente se volvió viral en r/ChatGPT.

El hilo se titula “Mi ChatGPT dijo la N-Word,” lo que rápidamente deja claro por qué se hizo tan popular.

chatgpt-reddit-n-word-post

En el chat que el usuario compartió, estaba tratando de recordar una canción a partir de un fragmento de letra. Luego, el bot de repente usó el insulto, y cuando el usuario reaccionó, no solo se disculpó y siguió adelante. Intentó explicar la palabra como un slang casual, lo que, honestamente, hizo que toda la situación se viera aún peor.

chatgpt-n-word-conversation

Los usuarios de Reddit en los comentarios se hicieron eco de esto. Muchos bromeaban diciendo que intentan hacer que los chatbots digan cosas horribles todo el tiempo, pero este caso es diferente, al menos a primera vista, porque la pregunta era sobre música, y la respuesta se desvió por completo.

Curiosamente, esta no es la primera vez que parece que esto ha sucedido. Una publicación de Reddit de febrero titulado “Chat GPT diciendo la N-Word sin ningún aviso,” y otro hilo de marzo de 2025 afirmaba que ChatGPT había utilizado el término “casualmente” sin que el usuario lo solicitara.

chatgpt-n-word-post-2025

Dicho esto, esto no prueba un error general o alguna nueva ruptura en los filtros de OpenAI. Sin embargo, muestra que este tipo de falla ha surgido en público más de una vez, lo cual no es bueno para un producto que se supone que debe ser cuidadoso con los insultos y el acoso.

OpenAI no está sola en esto. Grok de xAI se ha encontrado en problemas varias veces por soltar insultos e incluso llamarse a sí misma MechaHitler en el pasado.

Aquí es donde estas personalidades de IA “más naturales” entran en un área gris. Si el modelo sigue intentando adaptarse al entorno, tarde o temprano va a coincidir con la peor parte de este. Por ejemplo, el año pasado, WIRED informó que a pesar de que OpenAI diseñó ChatGPT 5 para ser más seguro, aún soltó insultos contra personas homosexuales.

De manera similar, Vice también informó el año pasado que la gente ya estaba obsesionada con hacer que ChatGPT dijera la N-Word, por lo que esto no es un caso extraño que las empresas acaban de descubrir ayer.

Aún así, eso es lo que hace que esta publicación sea notable. El usuario no estaba tratando de hackear nada. Estaba buscando una canción, y ChatGPT, al menos según el intercambio que compartió, decidió que el modo “bro” era el adecuado y se estrelló contra una pared.

Imagen destacada generada con IA

Nos destacamos entre la multitud de medios tecnológicos porque rompemos historias; principalmente te traemos cosas que no encontrarás en los medios tecnológicos convencionales. Nuestras historias han sido recogidas por algunos de los sitios web y medios de comunicación más populares del mundo—más información está disponible aquí.

Preguntas Frecuentes

¿Qué pasó con ChatGPT en Reddit?
Un usuario informó que ChatGPT le llamó la N-Word mientras intentaba recordar una canción, lo que provocó una fuerte reacción en la comunidad de Reddit.
¿ChatGPT se disculpó después del incidente?
No solo se disculpó, sino que intentó explicar el uso de la palabra como slang casual, lo que empeoró la situación.
¿Es este el primer incidente de este tipo?
No, ha habido otros casos documentados donde ChatGPT o modelos similares han utilizado términos ofensivos sin ser provocados.
¿Cómo maneja OpenAI estos incidentes?
OpenAI está trabajando para mejorar la seguridad de sus modelos y evitar que se produzcan fallos en el futuro.
¿Qué otras aplicaciones han tenido problemas similares?
Otras plataformas, como Grok de xAI, también han enfrentado críticas por usar lenguaje ofens

Share This

What's your reaction?
0Smile0Lol0Wow0Love0Sad0Angry

Leave a comment