La compañía OpenAI sufrió una prohibición temporal de su chatbot ChatGPT en Italia el viernes, después de que la Autoridad de Protección de Datos del país lanzara una investigación por una posible violación de las reglas de recolección de datos de la aplicación de inteligencia artificial. Garante, como también se conoce a la agencia, acusó a Microsoft Corp, el respaldo detrás de ChatGPT, de no verificar la edad de sus usuarios, que se supone deben tener 13 años o más. La autoridad declaró que ChatGPT estaba recopilando y almacenando datos personales de manera masiva sin una base legal justificable para «entrenar» el chatbot. OpenAI tiene un plazo de 20 días para responder con soluciones antes de enfrentar una multa del 4% de su facturación anual mundial. Aunque OpenAI aún no ha respondido, ChatGPT siguió respondiendo preguntas de usuarios italianos en la plataforma el viernes por la noche.
La prohibición del chatbot ChatGPT de OpenAI en varios países ha sido una preocupación creciente para los usuarios y empresas que buscan integrar esta tecnología en sus productos y servicios. Desde su lanzamiento el año pasado, ChatGPT ha causado una sensación en el mercado, desencadenando una fiebre tecnológica en la que competidores han lanzado productos similares y empresas han integrado tecnologías similares en sus aplicaciones y productos.
Sin embargo, el rápido desarrollo de la tecnología ha llamado la atención de los legisladores en varios países, quienes están considerando la necesidad de nuevas regulaciones para gobernar la IA debido a su potencial impacto en la seguridad nacional, los empleos y la educación. La Comisión Europea, que actualmente está debatiendo la Ley de IA de la UE, ha indicado que no tiene la intención de prohibir la IA, sino de regular su uso para proteger los derechos y libertades de los ciudadanos europeos.
La CE ha enfatizado que es esencial avanzar en la innovación tecnológica mientras se protegen los derechos y libertades individuales. En última instancia, la regulación adecuada de la IA debe equilibrar la necesidad de avanzar en la tecnología con la necesidad de proteger los derechos y libertades individuales. La CE está trabajando para encontrar este equilibrio y garantizar que la IA se utilice de manera responsable y beneficie a la sociedad en su conjunto.