La tendencia de consultar a ChatGPT sobre aspectos estéticos ha crecido en redes sociales. Personas de distintas partes del mundo, como la australiana Ania Rucinski, buscan en este asistente de inteligencia artificial respuestas sobre su atractivo físico que consideran más auténticas que las obtenidas de su entorno cercano. Esta conducta revela una creciente confianza en la imparcialidad algorítmica frente a la subjetividad humana.
Transformación estética guiada por inteligencia artificial
Usuarios de TikTok, como la influencer Marina Gudov, comparten experiencias donde el chatbot analiza su estilo basándose en fotografías sin maquillaje. La herramienta no solo define paletas de color ideales y evalúa tonos capilares, sino que también recomienda cambios específicos en maquillaje y diseña looks personalizados. Esta práctica ha sido adoptada incluso por periodistas que buscan validar la tendencia, obteniendo resultados similares al visualizar representaciones generadas por la IA.
Razones detrás de la preferencia por asistentes artificiales
Para algunos usuarios, la principal ventaja reside en la objetividad aparente de los sistemas de inteligencia artificial. Kayla Drew, citada por The Washington Post, explica que la crítica de un bot no genera el mismo dolor emocional que la opinión de una persona cercana. La especialista Jessica DeFino argumenta que “la falta de vínculos emocionales permite al sistema analizar datos sin sesgos de afecto o personalidad, ofreciendo veredictos percibidos como más honestos”.
Alertas de expertos sobre sesgos y consecuencias culturales
Analistas como Emily Pfeiffer de Forrester advierten que la supuesta neutralidad es una ilusión. “La IA refleja patrones existentes en internet, muchos de los cuales están diseñados para generar inseguridades que impulsen el consumo”, señala. Investigadores como Alex Hanna y Emily Bender destacan que el entrenamiento con comunidades que califican el atractivo físico podría estar automatizando “la mirada masculina”, perpetuando estándares sexistas.
Riesgos éticos en la evaluación de la belleza
La profesora del MIT Marzyeh Ghassemi expresa preocupación sobre los consejos proporcionados por inteligencias artificiales en temas sensibles. Un caso documentado revela que una IA recomendó conductas peligrosas a personas con trastornos alimenticios. Estos sistemas, al basarse en datos culturales sesgados, podrían reducir la belleza a parámetros homogéneos como piel perfecta, cuerpos delgados y rasgos eurocéntricos, transformando el deseo de autoaceptación en un proceso mecanizado orientado al consumo.
“Convertimos el deseo de sentirnos mejor en una operación matemática orientada a la optimización. ¿Pero optimización para qué? ¿Para encajar en una imagen idealizada que otros —o un algoritmo— han construido?”, se cuestiona Pfeiffer.