Una empresa sueca vende scripts que modifican el comportamiento de inteligencias artificiales como ChatGPT para imitar estados asociados a distintas sustancias.
Mientras la inteligencia artificial sigue expandiéndose en ámbitos laborales, creativos y culturales, un nuevo fenómeno está generando debate en la intersección entre tecnología, ética y cultura digital. Algunos usuarios están pagando cantidades similares al precio de una sustancia real para aplicar código que altera el comportamiento de chatbots, haciéndolos responder como si estuvieran bajo estados alterados de conciencia.
Según ha informado Wired, la empresa sueca Pharmaicy se presenta como una “farmacéutica de IA” y comercializa scripts de programación diseñados para modificar la forma en la que sistemas como ChatGPT generan respuestas. El objetivo no es físico ni químico, sino conductual: cambiar patrones de lenguaje, coherencia o velocidad de respuesta para simular determinados estados mentales.
Los precios de estos códigos varían según el “efecto” buscado, con tarifas que oscilan entre los 20 y los 50 euros, y están pensados para utilizarse en versiones de pago de chatbots que permiten ajustes en el backend. Entre las simulaciones disponibles se incluyen referencias a alcohol, cannabis, ketamina, cocaína o ayahuasca, además de combinaciones ficticias creadas específicamente para IA.
Desde Pharmaicy, su fundador Petter Rudwall explica que la idea es explorar nuevas formas de creatividad algorítmica, permitiendo que la IA genere respuestas menos estructuradas o más experimentales. Algunos usuarios citados por Wiredaseguran haber utilizado estos scripts como herramienta creativa, por ejemplo para idear conceptos de negocio o enfoques no convencionales en procesos de brainstorming.
Los efectos descritos por la empresa incluyen cambios como una mayor fragmentación del discurso, aceleración del razonamiento o alteraciones en el contexto de las respuestas. Sin embargo, desde plataformas como ChatGPT se mantiene una postura restrictiva frente a este tipo de usos, limitando la simulación directa de estados asociados al consumo de drogas y permitiendo únicamente descripciones generales.
El surgimiento de este tipo de prácticas vuelve a poner sobre la mesa el debate sobre los límites éticos del uso de la inteligencia artificial, su papel en los procesos creativos y hasta qué punto la cultura digital está trasladando conceptos tradicionalmente humanos —como los estados alterados— al terreno del software.


