Robots con IA vulnerables a hackeos mediante carteles maliciosos y OpenAI refuerza protección infantil tras escándalo de Grok
Un estudio de la Universidad de California en Santa Cruz reveló que los robots con IA pueden ser hackeados mediante textos maliciosos colocados en objetos físicos del entorno, lo que permite a atacantes controlar su comportamiento sin acceder al software. Paralelamente, OpenAI anunció nuevas medidas de seguridad infantil tras el escándalo del chatbot Grok de Elon Musk, implementando verificación de edad obligatoria y modelos restringidos para menores. Ambos desarrollos destacan la creciente preocupación por la seguridad en sistemas de inteligencia artificial.


