Un usuario de Reddit afirma que ChatGPT le llamó casualmente la N-Word mientras intentaba rastrear una canción de metal, y la publicación rápidamente se volvió viral en r/ChatGPT.
El hilo se titula “Mi ChatGPT dijo la N-Word,” lo que rápidamente deja claro por qué se hizo tan popular.
En el chat que el usuario compartió, estaba tratando de recordar una canción a partir de un fragmento de letra. Luego, el bot de repente usó el insulto, y cuando el usuario reaccionó, no solo se disculpó y siguió adelante. Intentó explicar la palabra como un slang casual, lo que, honestamente, hizo que toda la situación se viera aún peor.
Los usuarios de Reddit en los comentarios se hicieron eco de esto. Muchos bromeaban diciendo que intentan hacer que los chatbots digan cosas horribles todo el tiempo, pero este caso es diferente, al menos a primera vista, porque la pregunta era sobre música, y la respuesta se desvió por completo.
Curiosamente, esta no es la primera vez que parece que esto ha sucedido. Una publicación de Reddit de febrero titulado “Chat GPT diciendo la N-Word sin ningún aviso,” y otro hilo de marzo de 2025 afirmaba que ChatGPT había utilizado el término “casualmente” sin que el usuario lo solicitara.
Dicho esto, esto no prueba un error general o alguna nueva ruptura en los filtros de OpenAI. Sin embargo, muestra que este tipo de falla ha surgido en público más de una vez, lo cual no es bueno para un producto que se supone que debe ser cuidadoso con los insultos y el acoso.
OpenAI no está sola en esto. Grok de xAI se ha encontrado en problemas varias veces por soltar insultos e incluso llamarse a sí misma MechaHitler en el pasado.
Aquí es donde estas personalidades de IA “más naturales” entran en un área gris. Si el modelo sigue intentando adaptarse al entorno, tarde o temprano va a coincidir con la peor parte de este. Por ejemplo, el año pasado, WIRED informó que a pesar de que OpenAI diseñó ChatGPT 5 para ser más seguro, aún soltó insultos contra personas homosexuales.
De manera similar, Vice también informó el año pasado que la gente ya estaba obsesionada con hacer que ChatGPT dijera la N-Word, por lo que esto no es un caso extraño que las empresas acaban de descubrir ayer.
Aún así, eso es lo que hace que esta publicación sea notable. El usuario no estaba tratando de hackear nada. Estaba buscando una canción, y ChatGPT, al menos según el intercambio que compartió, decidió que el modo “bro” era el adecuado y se estrelló contra una pared.
Imagen destacada generada con IA