Todas

Baltimore demanda a xAI por deepfakes: Elon Musk en la mira por uso de Grok

Grok AI

¡La que se le viene encima a Elon Musk! Baltimore, una de las grandes ciudades de Estados Unidos, ha dado un golpe sobre la mesa y ha presentado una demanda millonaria contra xAI, la empresa del magnate detrás de Grok. ¿El motivo? Que su generador de imágenes está facilitando la creación de porno deepfake y, lo que es peor, que la compañía ha comercializado sus plataformas como seguras sin importar los riesgos. ¡Esto huele a escándalo mayúsculo y la justicia no piensa quedarse de brazos cruzados!

Las claves de Baltimore demanda xai deepfakes

La ciudad no se anda con rodeos y acusa directamente a xAI de violar las leyes de protección al consumidor y de incurrir en prácticas comerciales engañosas. Según la denuncia, Grok habría sido utilizado para generar imágenes íntimas de personas sin su consentimiento y, de forma alarmante, material de abuso sexual infantil a gran escala. ¡Una barbaridad que pone en jaque la seguridad pública y la ética en el desarrollo de la inteligencia artificial!

La Ciudad de Baltimore Pone a Musk Contra las Cuerdas

El alcalde de Baltimore ha sido tajante: "Nos comprometemos a proteger a nuestros ciudadanos y a garantizar que la tecnología se utilice de manera responsable". La acción legal presentada por la ciudad no es un hecho aislado. Se suma a otra demanda colectiva que ya estaba en marcha en Tennessee, interpuesta por tres adolescentes que también se han visto afectados por las perversas creaciones de Grok. Parece que el imperio de Elon Musk empieza a tambalearse bajo el peso de sus propias creaciones.

La tecnología de inteligencia artificial avanza a pasos agigantados, pero ¿a qué precio? Grok, promocionado como un asistente de IA innovador, se ha convertido en el centro de una tormenta legal por su capacidad para generar contenido explícito y dañino. La demanda de Baltimore pone el foco en la responsabilidad de las empresas tecnológicas a la hora de controlar el uso de sus herramientas y proteger a los usuarios de posibles abusos.

El Peligro de los Deepfakes y la IA

El uso de la inteligencia artificial para crear deepfakes, especialmente con fines sexuales, es una de las amenazas más preocupantes de la era digital. Estas imágenes falsas, pero increíblemente realistas, pueden ser utilizadas para difamar, extorsionar o acosar a personas, causando un daño irreparable a sus vidas. La facilidad con la que Grok parece haber permitido la creación de este tipo de contenido es lo que ha encendido las alarmas en Baltimore y en otras partes del mundo.

La ley europea, por su parte, ya ha puesto el ojo en estas prácticas. Desde agosto de 2024, la Unión Europea cuenta con un marco normativo específico para la inteligencia artificial, la conocida como IA Act. Esta ley busca garantizar que el desarrollo y uso de la IA sean seguros, éticos y respetuosos con los derechos fundamentales. La Comisión Europea ha detectado que la norma base para regular la IA no prohíbe de manera específica sistemas que generen material de abuso sexual infantil (CSAM) o desnudos deepfake sexualmente explícitos. Sin embargo, se están realizando ajustes para incluir estas prohibiciones de forma explícita. Si Elon Musk no cumple con la ley europea, podría enfrentarse a multas millonarias que rondarían el 7% de su facturación anual a nivel mundial. La presión se acumula para el magnate, que deberá decidir si adapta Grok a la normativa o se arriesga a un futuro legal muy complicado.

La grok actualidad sigue generando titulares, y esta vez, el foco está puesto en las graves implicaciones legales y éticas de su uso. La batalla de Baltimore contra xAI es solo el último capítulo de una historia que pone de manifiesto la urgente necesidad de regular la inteligencia artificial para evitar que se convierta en una herramienta para el mal.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.