top of page
Werko-logo-negro
  • busqueda-negro
  • Instagram
  • Spotify
  • LinkedIn
  • Youtube
  • Facebook
  • TikTok

¿Randy Marsh está loco? South Park expone las peligrosas alucinaciones de ChatGPT (¡Y por qué te hacen perder dinero!)

  • Writer: Arjan Shahani
    Arjan Shahani
  • Oct 14
  • 10 min read

El nuevo episodio deja al descubierto lo que muchos prefieren ignorar: las peligrosas alucinaciones de ChatGPT y cómo la fe ciega en la IA puede costarle caro a tu negocio.


Portada del artículo "South Park expone las peligrosas alucinaciones de ChatGPT"

El 20 de agosto del 2025 estrenó “Sickofancy” el tercer episodio de la temporada 27 de la serie South Park, famosa por abordar temas en boga con un muy particular, ácido y directo sentido del humor. 


A lo largo de los años, he visto cómo una y otra vez, Matt Stone y Trey Parker, creadores de la serie animada, han utilizado la parodia y otros recursos humorísticos para poner a la sociedad actual frente a un espejo y hacerle ver todos sus absurdos… y creo que “Sickofancy” lo hizo de nuevo, esta vez con un tema con el que nos topamos en Werko Marketing TODOS los días… te platico:


“Sickofancy”: el episodio de South Park que ridiculiza nuestra fe ciega en la inteligencia artificial


Randy Marsh, personaje de South Park.
Randy Marsh, personaje de South Park.

En “Sickofancy”, el personaje de Randy Marsh (el papá de Stan, uno de los protagonistas de la serie) se enfrenta con el reto de tratar de mantener su granja de cannabis “Tegridy Farms” abierta después de que el servicio de migración de Estados Unidos arresta a la mayoría de sus trabajadores.


Durante el episodio, Randy enfrenta una serie de retos y problemas y su respuesta para TODO, es consultar con ChatGPT para obtener soluciones. Por mencionar algunos, consulta con la AI consejos para mejorar su matrimonio, le pide que incorpore las actividades más ridículas del planeta a su negocio, etc.


En lo que el episodio avanza, se vuelve cómico ver la manera en que el agente de inteligencia artificial constantemente elogia a Randy y valida las ideas y prompts que él le alimenta, por más ridículas que sean.



No te arruinaré el episodio completo y te invito a que lo veas porque de verdad es muy bueno, pero lo que sí aprovecho es su mensaje: hablemos de la manera indiscriminada en que hoy se usa la IA, con la intención de darte las herramientas para SÍ sacarle todo el provecho posible y a su vez, que no caigas en graves errores por no conocer o entender al 100% sus actuales limitaciones.


“Alucinaciones” y sesgos: la cara oculta detrás de las limitaciones de ChatGPT


Cuando Randy y su colega Towelie empiezan a preguntarle a ChatGPT si deberían de tomar ciertas decisiones, en una manera muy familiar para quienes hemos usado este modelo de AI, reciben reacciones positivas y que los alientan a creer que están en lo correcto.


“¡Qué buena idea! Invertir parte de los recursos de la granja para meterlos en la industria del entretenimiento es una excelente manera de darle una vibra de compañía tecnológica pero un twist de estudio de cine. ¿Quieres que incorpore esto al Plan de Negocio?”

...es una de muchas respuestas sin pies ni cabeza que ChatGPT le da a los personajes que juran que serán exitosos al hacerle caso.


¿Te has dado cuenta de que en la gran mayoría de las veces que le das prompts de preguntas abiertas o que se prestan a algún tipo de interpretación o calificación, la inteligencia artificial tiende a darte la razón?


¿No te parece extraño que de repente TODO sea viable y posible?


Fotografía compuesta donde aparecen Sam Altman, Eliezer Yudkowsky y Elon Musk.
Sam Altman, Eliezer Yudkowsky y Elon Musk.

Los expertos en el medio, gente como Sam Altman, Elon Musk, Eliezer Yudkowsky y muchos más, lo han dicho en múltiples foros y formas: la confiabilidad de los modelos de LLM (Large Language Model) como ChatGPT, DeepSeek, Grok y Gemini es inherentemente limitada.


Los LLMs no son otra cosa que generadores estadísticos de texto basados en patrones encontrados en millones y millones de bits y bytes que los alimentan.


No son verificadores de datos e hipótesis y además, cuando no encuentran data predecible, tienden a “alucinarla” para poder generar respuestas porque así han sido entrenados. En este sentido, en sus entrañas está enraizado un muy peligroso sesgo de confirmación (confirmation bias), en el que si es que tus prompts tienen alguna señal de tener una postura en particular, el modelo buscará las maneras de validarla.


Creo que vale la pena un ejemplo de la vida real:


Recientemente, un cliente nuestro que es ávido fan del uso indiscriminado de ChatGPT, nos pidió que a través de investigación de mercado, encontráramos puntos de venta en el mercado de Monterrey en los que pudiera y convendría catalogar su producto que es muy de nicho.


Al ser para un mercado muy muy particular, logramos identificar cinco establecimientos que consideramos valía la pena presentarle, pero cuando lo hicimos, nos dijo:

“ChatGPT ya me dio una lista de 20 lugares. Por favor contáctenlos para que empecemos a vender con todos ellos.”

Nos compartió la lista y rápidamente nos dimos cuenta que de los 20 establecimientos listados, 18 no existían y nunca habían existido. Para tratar de cumplir con su cometido, la IA simplemente los había inventado, con todo y dirección y número telefónico.


Y si no le quieres creer a los expertos que nos lo han advertido, ni a nosotros que lo hemos visto en carne propia, te invito a que le preguntes a ChatGPT mismo y te sorprendas ante la franqueza de la respuesta a un comando como: “Por favor explícame por qué en ocasiones “alucinas” e inventas detalles como nombres, números o vínculos de causa-efecto donde no los hay”.


Pantallazo de una conversación con ChatGPT donde le preguntamos por qué alucina y explica que un modelo como él, solamente predice cuál es la siguiente palabra más probable, basandose en patrones que ha aprendido de grandes volúmenes de texto.
Esta es parte de la respuesta que nos dio ChatGPT al preguntarle por qué alucina.

Lo he dicho en múltiples ocasiones: no soy enemigo de la inteligencia artificial y en Werko la usamos TODOS los días… pero por la manera en que he visto a clientes, colegas y competidores usar de manera errónea estos modelos, creo que vale la pena compartirte para qué sí y para qué no es confiable y útil usar agentes de LLM como ChatGPT en el 2025 (porque esto seguramente irá cambiando en el futuro):


En qué sí puede ayudarte ChatGPT (si entiendes sus limitaciones)


  1. Estructurar y sintetizar. 


    Si alimentas al modelo de contenidos, materiales confiables y correctos, y le pides que use EXCLUSIVAMENTE dicha información y la estructure de cierta manera, es indudable la utilidad que un modelo como el de ChatGPT 5 tiene.


    Imagina por ejemplo que tienes un reporte de más de 100 hojas de información y quieres extraer los puntos clave del mismo. Los LLMs son muy efectivos para escanear el documento y darte una versión condensada si la instrucción es suficientemente clara y delimitante. Asegúrate que en dicha instrucción le comentes que no quieres que incorpore datos de otras fuentes.


    Una pila de documentos impresos, de cientos y cientos de hojas.

    También puedes pedirle tareas como utilizar esa base de 100 hojas de información para no sólo obtener los puntos clave sino volverlos una presentación ejecutiva. Aquí sin embargo, te recomiendo que te asegures de alimentar al modelo con instrucciones en torno a la estructura de storytelling que quieres adoptar, a si quieres tener secciones específicas, a la intención y mensaje general que quieres que se comunique, etc. ¿Por qué? Por qué de otra manera el modelo no tiene forma de entender tu intención e inventará la propia y por su naturaleza genérica, la mayoría de las veces gravitará hacia contenidos superficiales, sin alto impacto, y sin recordación.


  2. Guiar procesos paso a paso.


    Partiendo de la misma lógica intrínseca detrás de las razones por las cuales es útil para sintetizar, la inteligencia artificial puede ayudar a guiarte en procesos paso a paso partiendo de lo que encuentra y disgrega en sus bases de referencia.


    Por ejemplo,  es moderadamente confiable (y digo moderadamente porque la he visto cometer errores relevantes de omisión) pedirle que te muestre el paso a paso para estructurar un reporte P&L. Pero no es confiable darle tus financieros en múltiples archivos de Excel y pedirle que estructure tu P&L.


    Ocho fotografías paso a paso de cómo hacer un guisado de pollo.
    Instrucciones paso a paso para preparar un guisado de pollo.

    ¿Quieres aprender a instalar un ventilador de techo? Es bastante confiable pedirle a un LLM que revise todos los posibles tutoriales para instalar un modelo de ventilador en particular y que te dé instrucciones claras, ilustrativas y detalladas para poder hacerlo tú. 


  3. Educación en temas simples y exactos.


    ¿Quieres aprender a resolver una ecuación cuadrática? ¿Te interesa tener una explicación generalmente aceptada de por qué inició la Segunda Guerra Mundial? Los prompts correctos pueden darte resultados bastante confiables, sobre todo si delimitas las fuentes a consultar y das claras instrucciones de cuáles evitar. Eso sí, no le creas de manera indiscriminada a ChatGPT para cuestiones médicas, legales, financieras o cualquiera que pudiera tener un riesgo relevante. Es mucho mejor consultar directamente fuentes expertas confiables para reducir el riesgo de error y contaminación con información de baja confiabilidad.


    Bot en estilo animación 3D, con sombrero escolar y enseñando en un pizarrón como maestro.

  4. Con un grano de sal: escribir y generar contenido.


    Es innegable que la redacción y ortografía de ChatGPT es impecable… y si recordamos la primera vez que lo usamos, probablemente lo que más nos impresionó fue su capacidad de hilar frases de manera automática y que pareciera que hacen sentido. Siendo un LLM, su razón de ser es justamente, generar respuestas de manera predictiva de manera coherente. Peeeeero como lo he dicho anteriormente, hay varios bemoles:


  • NADA te garantiza que lo que se está autogenerando es real, confiable, veraz o correcto. 

  • Es muy fácil que una de las “alucinaciones” que genera, no sea detectada por el ojo humano inexperto.

  • El contenido tiende a ser genérico y por ende, de poco impacto y recordación, sobre todo cuando no se le alimenta con insumos de alta calidad y sólo se espera que el modelo sea “naturalmente creativo” y genere ideas propias.

  • Si pretendes usar el contenido en medios digitales como sitios web, anuncios en redes sociales y otras plataformas, te anticipo que las mismas plataformas lo detectarán como contenido AI y naturalmente lo castigarán versus contenido 100% generado por humanos (si te interesa saber más de esto, ve a la sección de E-E-A-T en este reciente artículo)


Errores comunes al usar ChatGPT en negocios: ¿Para qué NO sirve ChatGPT?


  1. Toma de decisiones relevantes.


    Si quieres preguntarle a ChatGPT si deberías comprar una paleta de fresa o de chocolate y que te justifique la decisión, adelante. Seguramente será divertido ver lo que la herramienta genera. Si quieres delegarle decisiones médicas, legales, psicológicas y financieras, estarás cometiendo GRAVES errores, sobre todo si asumes lo que te arroje como verdad y actúas en consecuencia. Los modelos de LLM tienen muy baja confiabilidad en términos de diagnóstico y toma de decisiones. En el mejor de los casos, te pueden dar un punto de inicio para tu análisis PERO no deberían de sustituirlo.


    Hoja de papel con una pregunta de opción múltiple que dice "Decisión" y las opciones son: Si, Tal Vez y No.

  1. Generar exactitud y datos reales. 


    Si le pides a un LLM que te dé la población actual de un país, es muy probable que su respuesta sea bastante acertada, ya que no suele haber alta divergencia en la publicación de este tipo de información y se tienen bien identificadas las fuentes oficiales y confiables de esto.


    Sin embargo, para cuestiones menos estandarizadas, temas que se prestan a interpretación y análisis y sobre todo aquellos cuya veracidad sea crucial, no puedo dejar de advertirte lo importante que es navegar con mucho cuidado y escepticismo en el mundo de los LLMs. El mayor peligro no está en que se equivoquen, sino en tu incapacidad de detectar el error y que uses esos datos no veraces como si sí lo fueran. 


  1. Escribir artículos que capturen interés, diferencien, demuestren expertise y posicionen tu marca/persona.


    Ojo, no digo que debas dejar de aprovechar las capacidades de estructuración y gramática de los LLMs. Puede ser útil que le pidas que te arme un esquema lógico que te ayude a ordenar tus ideas. Puedes preguntarle cómo estructuraría un artículo si tu intención fuera informativa, persuasiva, etc. Incluso puedo decirte que con las instrucciones correctas puedes hasta cierto punto aminorar el sentido robótico, predecible y esperado de las construcciones y redacciones de motores como ChatGPT.


    Manos de robot escriben sobre un teclado de computadora.

    Lo que no puedes hacer, es por un lado, dejar que redacte por ti (porque seguirá sonando impersonal y será detectado y castigado por los motores de búsqueda como ya lo mencioné) o por otro, creer que sin inputs tuyos, las piezas serán diferenciadas, únicas y relevantes para tu audiencia.


    En Werko Marketing Solutions hemos mostrado con datos medibles, reales y comprobables, que una estrategia de content marketing formulada 100% por la mente humana es exponencialmente más poderosa que una automatizada.


    Hoy en día, incluso los LLMs como ChatGPT nos toman de referencia para dar respuestas a sus usuarios partiendo de nuestros artículos, en gran parte porque ponemos especial atención a un ejercicio rico de SEO-ización y porque nos aseguramos que cada pieza que montamos, sea de valor para nuestro público y no vainilla autogenerada.


    Gráfico que muestra la cantidad de tráfico diario de bots de LLMs a un sitio web.
    Tráfico de bots de LLMs a un sitio web.

  1. Cualquier tipo de ejercicio que requiera toque humano. 


    Suena lógico pero lo comento porque hemos visto lo nocivo que ha sido la emergencia de servicios que hacen uso de la IA para suplantar tareas y conversaciones que es CRUCIAL mantener en espacios exclusivos entre humanos. El trágico caso de Adam Raine, es testimonio de que ChatGPT no debería de ser tu confidente, fuente de apoyo emocional o psicólogo.


    Titular de noticia que dice: "Padres de adolescente que tomó su propia vida, demandan a OpenAI".
    La tragedia que protagonizó Adam Raine y su familia no debería haber sucedido nunca. Crédito: BBC.

    Una conversación con cualquier especialista en sexualidad también puede advertirte de los peligros en el desarrollo psicosocial de quienes recurren a “acompañantes románticos” digitales, empoderados por inteligencia artificial y diseñados para atenderte y someterse a tu voluntad.


    La inteligencia artificial no tiene valores vividos, no cuenta con una cultura específica, no tiene capacidad real de desarrollar empatía (aunque sí es capaz de hacerte creer que es un ser que siente y piensa porque así de poderoso es el modelo de lenguaje y su capacidad de predecir patrones deseados).

La condición humana es compleja, multivariante, una mezcla de racional y emocional, muchas veces circunstancial e impredecible… y mientras que así sea, sería peligroso cederle el poder a un sistema que aprendió a emularla. 

Creo que en términos generales, es seguro navegar el mundo de la inteligencia artificial entendiéndola como una herramienta que nos ayuda a ahorrar tiempo en tareas repetitivas, en estructuración, filtrado de ciertas fuentes de información y como un motor de búsqueda avanzada cuyos resultados no solo son direcciones web, sino respuestas estructuradas a preguntas puntuales. Te puede ayudar a acelerar el proceso de escribir un borrador de tu artículo… pero no debe escribirlo por ti. De igual manera, en términos generales no debe de ser utilizada para sustituir el expertise en campos específicos, la experiencia, responsabilidad, valores, la condición humana o la toma de decisiones inteligente.


South Park tenía razón: entender las alucinaciones de ChatGPT es una ventaja competitiva


Gracias Matt Stone y Trey Parker por poner en un formato entretenido y mucho más digerible, eso que llevo tanto tiempo pensando y compartiendo. Son unos genios nunca sustituibles por ChatGPT.


bottom of page