BEIJING, 10 abr (Xinhua) — China emitió hoy viernes nuevas normas que regulan a los proveedores de sistemas de inteligencia artificial que simulan rasgos de personalidad, patrones de pensamiento y estilos de comunicación de humanos en interacciones emocionales continuas con los usuarios, imponiendo estrictas salvaguardias sobre el contenido dirigido a menores. Las medidas provisionales, publicadas conjuntamente por la Administración del Ciberespacio de China junto con otros cuatro departamentos gubernamentales, buscan equilibrar la innovación tecnológica con la seguridad y el interés público. Bajo la nueva normativa, dichos servicios no podrán generar contenido para menores que pueda fomentar conductas inseguras, provocar respuestas emocionales extremas o promover hábitos dañinos que afecten su bienestar físico o mental. La regulación también prohíbe que los sistemas de IA produzcan contenido que incite a la autolesión o al suicidio, utilice abusos verbales o induzca una dependencia emocional que pueda distorsionar las relaciones sociales en la vida real. Las autoridades prohíben además el uso de manipulación emocional para inducir a los usuarios a tomar decisiones irracionales o a infringir sus derechos e intereses legítimos. El marco regulatorio surge en un contexto de rápida expansión de las herramientas de interacción de IA con rasgos humanos en China, con aplicaciones en comunicación cultural, cuidado infantil y acompañamiento de personas mayores. Las normas enfatizan un enfoque de “desarrollo con seguridad”, que combina el estímulo a la innovación con una supervisión escalonada, con el objetivo de guiar al sector hacia un crecimiento “saludable y responsable”. Las normas entrarán en vigor el 15 de julio de 2026. Fin

Por Vimag