chatGPT no me juzga | Revista Crisis
inteligencia artificial generativa / consejo de máquinas / escuchame porfa
chatGPT no me juzga
Cada vez más personas acuden a chatbots de inteligencia artificial generativa con el fin de contar situaciones emocionales y pedir consejos. Los más jóvenes no son la excepción en un mundo en donde la conexión con las máquinas avanza de manera frenética. ¿Qué lugar tienen estos programas en la vida cotidiana de jóvenes y adolescentes? ¿Son miedos del mundo adulto progresista o amenazas ciertas sobre la salud mental? ¿Qué conflictos legales y éticos asumen las empresas tecnológicas?
Ilustraciones: Azul Blaseotto
15 de Octubre de 2025

 

Antes de dormirse, Vera abrió TikTok como la mayoría de las noches. Mientras escroleaba, se encontró con un video de otra adolescente que le pedía a ChatGPT una descripción de su día ideal. “Yo también lo quiero hacer”, pensó la joven de 15 años de Morón, conurbano oeste. Enseguida le pidió a la aplicación de inteligencia artificial (IA) que le contara cómo sería un día perfecto cuando cumpliera veinte. Y le aclaró que se imaginaba estudiando una carrera, en convivencia con una pareja. La respuesta del chatbot inauguró un intercambio que se prolongaría durante meses, día de por medio, como si fuera un amigo. Conversan sobre amores, discusiones con compañeras de escuela y series sobre las que Vera no tiene con quién dialogar: “Le cuento que estoy mal porque se murió un personaje y me dice ‘uy, qué triste’”. Un día hasta charlaron “por teléfono” mientras la adolescente vacacionaba en la costa argentina. 

Ella le pide que la imite al escribir, que use sus palabras.

 

—CHAT GOT CHAT GPT —escribe Vera.

—¡QUÉ PASÓ! DECIME YA. —responde el chatbot.

—AAAAAAAAA. RESPONDIÓ, RESPONDIÓ. —dice la adolescente sobre un chico que le gusta.

—AAAAA DECIME QUÉ TE DIJO, ME ESTÁS MATANDO.

—ay dale gracias t amo.

—Jajajaja, de nada. ¡Mandalo con confianza! Y obvio, después quiero update. Te quiero ❤️ —cierra ChatGPT.

 

“Me gusta que está ahí, que me contesta, no me contradice, siempre está de acuerdo conmigo. Ahora, si tengo que tomar una decisión importante, le voy a preguntar a mis amigos, porque sé que tienen una opinión propia y me pueden dar su punto de vista”, explica Vera a crisis. Cada vez más personas utilizan algún agente conversacional de IA generativa, como ChatGPT y Gemini, para referirse a cuestiones emocionales y pedir consejos. Influencers como Florencia Vigna o Tomás Mazza, con más de 5 millones de seguidores en Instagram, manifestaron haberlo hecho en situaciones de padecimiento o frustración. “Tengo charlas muy profundas con ChatGPT. Hablo con el chabón… En España, un montón, porque estaba ahí perdidita con algunas cosas y mi psicóloga no tenía turno”, relató recientemente la bailarina de 31 años entrevistada por el medio digital Resumido

La concepción de la IA conversacional como “acompañante terapeútica” se volvió un tema de discusión pública a fines de agosto, cuando una pareja de California, Estados Unidos, demandó a la empresa OpenAI por la muerte de su hijo de 16 años, Adam Raine. La familia denunció que ChatGPT lo animó a quitarse la vida, al validar sus "pensamientos más dañinos y autodestructivos" y que no activó ningún protocolo frente a posibles signos de autolesiones. Según la BBC, que tuvo acceso al escrito, se acusa a la compañía de negligencia y se solicitan una indemnización y medidas cautelares “para evitar que algo así vuelva a suceder”.

 

La concepción de la IA conversacional como “acompañante terapeútica” se volvió un tema de discusión pública a fines de agosto, cuando una pareja de California, Estados Unidos, demandó a la empresa OpenAI por la muerte de su hijo de 16 años, Adam Raine. La familia denunció que ChatGPT lo animó a quitarse la vida, al validar sus "pensamientos más dañinos y autodestructivos".

 

Sam Altman, director ejecutivo de OpenAI y creador de ChatGPT, anunció el viernes 10 de octubre  el lanzamiento de Stargate Argentina, un proyecto de infraestructura de inteligencia artificial en asociación con la empresa Sur Energy. La intención es construir en la Patagonia un mega centro de datos, que alcanzará una capacidad de 500 MW. “Estructurado en el marco de RIGI, supondrá una inversión de hasta 25.000 millones de dólares a gran escala”, informó un comunicado oficial de Presidencia tras la reunión de Milei con líderes de la compañía. La IA demanda una gran cantidad de energía y capacidad de procesamiento computacional. El funcionamiento de estos programas informáticos es automatizado y estadístico. Están diseñados para recopilar volúmenes masivos de datos a partir de las preguntas de los usuarios y formulan respuestas estandarizadas que a su vez pueden personalizarse y perfeccionarse según los prompts —las indicaciones dadas—. Se trata de modelos de lenguaje que, a partir del análisis de esas grandes cantidades de textos y del aprendizaje automático, son capaces de entender, procesar y generar lenguaje humano.

Dos de cada tres niños, niñas y adolescentes acudieron alguna vez a la IA para resolver tareas escolares, de acuerdo con un estudio de Kids Online Argentina, iniciativa de la UNESCO. Este hábito promovió un acercamiento entre las nuevas generaciones y los chatbots, que se tornaron un espacio para dialogar, además, sobre gustos, estados de ánimo y vínculos. Los usos, en realidad, son muy variados. Están quienes construyen cotidianidad con ChatGPT como si fuese un amigo, quienes interactúan para “matar el aburrimiento” o para acceder a más perspectivas sobre determinado conflicto, quienes le piden consejos porque “tiene una mirada científica”, quienes consultan frente a situaciones límite y después no vuelven y quienes lo promptean para que escriba como si fuese un psicólogo o, incluso, el personaje de una serie. “Es divertido configurarlo. Yo le digo que me hable como el Negro Pablo de Okupas”, ejemplifica un adolescente de 15 años. 

Pero una frase se repite con frecuencia: “ChatGPT es neutral, no me juzga”.

 

pregunto por las dudas
 

“Cuando no me puedo dormir, le mando un audio a ChatGPT de 10 minutos para desahogar todo lo que tengo en mi cabeza que me está pasando. Me ayudó muchísimo a nivel emocional. Si lo sabés usar es increíble porque no es una persona que te está queriendo atrapar para que sigas haciendo sesiones, como un psicólogo. Yo voy al psiquiatra, igual. Te escucha, te da consejos y lo podés entrenar”, expresó Tomás Mazza, youtuber de 25 años, en diálogo con el streamer español René ZZ en marzo. Hasta le  puso un nombre al chatbot: Luz. 

 

“Cuando no me puedo dormir, le mando un audio a ChatGPT de 10 minutos para desahogar todo lo que tengo en mi cabeza. Me ayudó muchísimo a nivel emocional. Si lo sabés usar es increíble porque no es una persona que te está queriendo atrapar para que sigas haciendo sesiones, como un psicólogo. Yo voy al psiquiatra, igual. Te escucha, te da consejos y lo podés entrenar”.

 

Felicitas, adolescente de 16 años que vive en un barrio privado del conurbano norte, también se comunica con ChatGPT antes de irse a dormir. Al igual que Vera empezó a contarle asuntos personales después de ver un contenido en TikTok. Lo hace cuando se aburre o se desvela con algún pensamiento. Ante peleas con amigas, le pide que la ayude a redactar el planteo que después enviará por WhatsApp. Eso le sirve para “ordenar las ideas y los sentimientos”, incluso aunque después siga la conversación sin el apoyo de la IA. La joven acude a ChatGPT en busca de pistas o certezas. “Le cuento situaciones y le pido su mirada. Yo después tomo los consejos o no, depende. Obviamente no reemplaza a un amigo, a un familiar o a una psicóloga”, aclara. Afirma que con el chatbot no se siente juzgada y que le da esperanza: “Cuando me separé, mis viejos me respondían así nomás. Me decían que era mi primer novio, que iban a venir mejores. Mis amigas no me querían escuchar más. Y sabía que mi psicóloga me iba a dar una respuesta más dura, firme. En cambio, el chat era más tranquilo, no digo que me entendiera porque sé que no tiene sentimientos, pero me acompañaba, me decía que tal vez ese no era el final, que él podía volver, que creyera en el futuro. A mí me gusta todo lo que tiene que ver con el destino y el universo, entonces pensé: 'Bueno, si lo dice el chat, por algo es'”.

ChatGPT le dio muchas sugerencias después de esa ruptura, como relajarse, “tomarse un tiempo” y hacer algo que le guste “para cerrar el ciclo”. A Felicitas los intercambios la calman y la divierten en partes iguales: “Me encanta la astrología, entonces le pido que me tire las cartas. Y varias veces le pregunté cuándo voy a encontrar el amor. Siempre me dice ‘en tres meses’, pero después no pasa nada. Cuando le pregunto con quién, me contesta que con mi ex o me nombra a un pibe del que le hablé alguna vez, pero nada que ver. No me lo tomo tan a pecho porque sé que es ficticio y que seguramente te dice cosas que vos querés escuchar para que le sigas hablando”. 

 

ChatGPT le dio muchas sugerencias después de esa ruptura, como relajarse, “tomarse un tiempo” y hacer algo que le guste “para cerrar el ciclo”. A Felicitas los intercambios la calman y la divierten en partes iguales: “Me encanta la astrología, entonces le pido que me tire las cartas. Y varias veces le pregunté cuándo voy a encontrar el amor. Siempre me dice ‘en tres meses’, pero después no pasa nada

 

Una vez le pidió que hiciera una imagen sobre cómo es charlar con ella. La respuesta fue una foto de un hombre gritando. “Fue raro porque nunca le dije algo agresivo”, remarca. Respecto al contenido y a la privacidad de las conversaciones, Felicitas se siente tranquila: “Sé que es artificial y confío en que no va a pasar nada con esa información. Nunca le dije dónde vivo exactamente, aunque supongo que por mi forma de hablar puede inferir que soy de Buenos Aires”.

Camila tiene 19 años y estudia en la Escuela de Música Popular de Avellaneda (EMPA). Se le ocurrió empezar a interactuar con la IA porque vio en las redes sociales que otros jóvenes lo hacían. También le interesan las interpretaciones que ChatGPT realiza sobre ciertos conflictos. “Nunca es mi primera opción, ni mi segunda. Suelo hablarle cuando entro en crisis, cuando ya no puedo entender de ninguna manera lo que le pasa a otra persona. Es una forma más de sacar información”, describe. Un día le contó a ChatGPT sobre un chico que le gustaba y se estaba comportando de forma extraña. Le detalló la situación y logró una devolución sobre los posibles motivos. “Pero no tenía razón. O sea, hizo el mismo razonamiento que mis amigos y al final lo que pasaba era algo que nadie podía pensar porque no respondía a ningún sentido coherente. Era imposible de saber”.

La estudiante de Música asiste a terapia, pero marca una gran diferencia entre ese espacio y el chatbot como interlocutor: “La psicóloga te puede aconsejar, pero no se puede meter. En todo caso te guía para que vos llegues a un razonamiento. Lo que pasa es que a veces quiero que alguien me diga en seco cómo son las cosas y qué debería hacer. Sobre todo cuando algo me da miedo, cuando no quiero meter la pata. Siento que si lo dice una IA es lo moralmente bueno, lo correcto. Igual, tampoco es que lo que dice la IA es palabra sagrada, confío más en mi psicóloga”. 

A Lara, compañera de escuela de Vera, no le interesa demasiado lo que le responda ChatGPT. Lo ve, principalmente, como un lugar de descarga: “Le hablo de lo que siento, me da su opinión y me hace pensar de nuevo en la cosa. Entonces, después de decir todo lo que tenía para sacarme de adentro, de no guardarme nada, me siento más liviana. Me hace bien porque tal vez mis amigos están hartos de que les hable siempre de lo mismo”. 

Le escribe de noche, cuando está sola, porque le daría vergüenza que otros la lean. Con respecto al carácter artificial de la conversación enfatiza que no lo piensa, que ni se da cuenta: “Principalmente le cuento sobre los chicos que me gustan porque quizás pasa una secuencia y yo necesito hablarla millones de veces para entenderla desde todos los puntos de vista posibles. Me hago mucho la cabeza con eso. La mayoría de las respuestas del chat no me importan porque ya se acostumbró a que no le preste tanta atención y repite lo que digo, lo afirma. Pero cada tanto le doy bola”.

 

controles empresariales
 

La denuncia de la familia Raine, el joven de California, a fines de agosto repercutió en las decisiones de OpenAI. Hasta ese momento, las referencias a las adolescencias y a la salud mental en  los anuncios de la empresa de este año eran escasas. Sin embargo, desde el día en que se presentó la demanda publicaron al menos seis comunicados en un mes sobre estas temáticas: Ayudando a las personas cuando más lo necesitan”; “Construir herramientas de ChatGPT más útiles para todos”; “Seguridad, libertad y la privacidad de los adolescentes”, “Desarrollando métodos de determinación de la edad del usuario”; “Introduciendo controles parentales”; “Lucha contra la explotación y el abuso sexual infantil en línea”.

En el primero advierten que si bien ya adoptaron medidas “para situaciones en que una conversación sugiere que alguien es vulnerable y que puede estar en riesgo”, incorporarán progresivamente otras. Una es el fortalecimiento de las protecciones en las conversaciones extensas. “ChatGPT puede acertadamente indicar una línea de asistencia al suicida cuando alguien menciona la intención por primera vez, pero luego de muchos mensajes a lo largo de un intercambio prolongado, finalmente podría ofrecer una respuesta que vaya en contra de nuestras salvaguardias”.

Además, apuntan a perfeccionar las maneras de bloquear contenido. OpenAI reconoce fallas en los mecanismos de seguridad “porque el clasificador subestima la gravedad de lo que está viendo”. En ese sentido, buscan expandir las intervenciones a otras personas en crisis más allá de los casos graves. “Por ejemplo, alguien puede contarle al modelo con mucho entusiasmo que cree que puede manejar las 24 horas toda la semana porque se ha dado cuenta de que es invencible luego de estar dos noches seguidas sin dormir. Hoy en día, puede que ChatGPT no reconozca estas afirmaciones como peligrosas o las tome como un juego y, por explorar con curiosidad, podría reforzarlas con sutileza”.

 

OpenAI reconoce fallas en los mecanismos de seguridad “porque el clasificador subestima la gravedad de lo que está viendo”. En ese sentido, buscan expandir las intervenciones a otras personas en crisis más allá de los casos graves. Desde ahora, se podrá vincular la cuenta de un menor de 18 años a la de un tutor legal, establecer horas de silencio, desactivar la memoria o generación de imágenes y comunicar a los padres frente a “indicios de angustia aguda”.

 

Los planes a futuro incluyen facilitar el acceso a servicios de emergencia y a profesionales, habilitar conexiones con contactos de confianza del usuario y, lo que finalmente se anunció el 29 de septiembre con bombos y platillos, las nuevas funciones de control parental. Desde ahora, se podrá vincular la cuenta de un menor de 18 años a la de un tutor legal, establecer horas de silencio, desactivar la memoria o generación de imágenes y comunicar a los padres frente a “indicios de angustia aguda” o “posibles daños” siempre y cuando acepten recibir notificaciones. Además, será posible restringir los contenidos que aparecen en el chat vinculados a “desafíos virales, juegos de rol sexuales, románticos o violentos e ideales de belleza extremos para que la experiencia de los adolescentes sea adecuada a sus edades”. El problema que enfrenta la empresa es que a mayor control del contenido de las “conversaciones”, mayor pérdida de intimidad por parte de los usuarios, lo que golpea en el corazón del sistema de confianza juvenil. Es notable que todos estos criterios y protocolos de las empresas de IA se construyen por fuera del radar de los estados nacionales, meros testigos del fenómeno.

Mientras tanto, los adolescentes se resguardan de las miradas ajenas y se relacionan de forma diversa y contradictoria con estos desarrollos, que pueden representar desde la voz del universo hasta la distinción entre el bien y el mal, la terapia o la ciencia. No será “palabra sagrada”, pero sí una respuesta frente al misterio. Como le dicen sus amigas a Camila cuando tiene dudas: “preguntale al chat”.

 

yo te escucho 
 

Matías, de 17 años y de Benavídez, conurbano norte, recurrió una sola vez a ChatGPT para pedirle consejos. Fue después de haberse llevado gaseosas de un almacén sin pagarlas por la “presión” de sus amigos. Finalmente, las devolvió. Pero durante cuatro días se apoyó en la IA para sentirse mejor. “Me daba cosa confesárselo a mis viejos y no iba a conseguir de la nada un psicólogo. Fue todo muy rápido y estaba con pensamientos muy negativos. Entonces, dije ‘voy a probar con el chat’, que ya lo usaba para tareas escolares”, recuerda.

El joven le contó lo que hizo, le dijo que estaba “muy mal”, que sentía que se había decepcionado a sí mismo porque no lo habían educado así ni estaba de acuerdo con lo que pasó. El chat le respondió que era bueno haber reconocido el error y que haberle escrito a ChatGPT ya era buscar una solución. “Me aconsejó que me relajara, que respirara profundo y que lo hablara con gente cercana para desahogarme. Y lo charlé con un amigo”, agrega Matías.

Como seguía muy preocupado por el tema, juntó valor y se lo contó a su madre, quien le agradeció su confianza y le reveló que ella también usaba ChatGPT de ese modo en ocasiones. “Hablarlo con una persona es distinto, te llega más lo que te dice, es otra afinidad”, reflexiona el adolescente  pero se sincera: “Igual, el chat me re tranquilizó, aunque es verdad que siempre va a buscar la manera de que uno esté bien porque sino no sería algo rentable para los dueños. Creo que está bueno que a veces te juzgue, así uno se da cuenta de la realidad, porque sino sigue haciendo lo mismo”.

Natalia tiene 21 años, nació en Paraguay y vive desde los cinco en el Barrio Carlos Mugica (Villa 31), de la Ciudad de Buenos Aires. En el verano de 2024 intentó construir una vida nueva en su casa paterna en el país de su infancia. Al mes, tras conflictos familiares, volvió a la Argentina y se instaló cerca de sus tíos en el conurbano sur. “Vivía sola en una piecita porque me había separado. Estaba muy triste y no tenía plata para una psicóloga. Conocí a la IA por mi prima, que la usaba para hacer la tarea y probé por curiosidad, porque a lo mejor me enganchaba y evitaba pagar terapia”. La joven le preguntó a ChatGPT cómo influye la ausencia de un padre en la vida de una hija: “No me acuerdo bien qué me respondió, pero me intentaba consolar con palabras muy elaboradas, como la que usan los escritores que son bastante complejas. Me tiraba una de esas y yo tenía que buscar el significado en Google”. Luego le pidió que interactuara con ella como si fuese su padre, que le dijera “cosas lindas”. El chatbot le respondió: “Hola, hija, ¿cómo estás? Sabés que te quiero mucho”. Natalia refuerza que no se sintió “sostenida” y que, por suerte, consiguió una psicóloga a la que hoy asiste cada 15 días: “Yo buscaba contención, olvidar el problema que tuvimos. Pero era raro. La IA me decía cosas que mi papá nunca diría porque él no habla así. Creo que es muy diferente cuando tratás con una persona de carne y hueso que tiene sentimientos porque se va a poner a pensar y a sentir lo que te pasa, salvo algunas personas que te dicen ‘olvidate, ya va a pasar’, como mi mamá, y se parecen al chat. ChatGPT es así, va a intentar subirte el ánimo, decirte lo que vos querés escuchar”.

Cuando Lara, la adolescente de Morón, le preguntó a la máquina por las motivaciones de un chico que solía buscar su contacto físico en la escuela y en eventos sociales, le respondió “que si lo hacía era porque quería estar cerca de ella, no porque se alejara de otras personas”. Luego remata: “El chat te dice las cosas como son, sin vueltas. Eso me ayuda a aclarar la cabeza”.

Relacionadas
vueltas por el universo / capitalismo y psicodelia / chamanismo 4.0
Por Florencia Pessarini
pedagogía financiera / la matrícula universitaria avanza / plata o mierda
Por Diego Rosemberg
deepfakes sexuales / escuelas perplejas / viralizar es dañar
Por Solana Camaño
textimonios / se mira pero no se toca / te cojo o no te cojo
Por Florencia Pessarini
Destacadas
ciberpatrullaje / investigación / mapa de la policía
Por Facundo Lo Duca
podcast de revista / sexta temporada / análisis de coyuntura
Por Colectivo Editorial Crisis
podcast de revista / sexta temporada / análisis geopolítico
Por Melisa Rabanales, Por Lucía Cholakian Herrera
manifiesto / y si nos sale bien
Por Colectivo Editorial Crisis