¿Mi IA es un peligro para los menores: investigación sobre Snap?
hace 2 días
La Comisión Federal de Comercio de EE.UU. (FCC) ha remitido un caso relacionado con el servicio al Departamento de Justicia mi IA integrado en la aplicación Snapchat. Según la comisión, el chatbot representa una peligro para usuarios más jóvenes. En el Reino Unido se había iniciado una investigación similar sobre la posible violación de la privacidad.
¿Investigación sobre Mi IA en EE.UU.?
mi IA Inicialmente estuvo disponible para los suscriptores de Snapchat+. Posteriormente el acceso se amplió a todos los usuarios. El chatbot responde preguntas utilizando modelos GPT Abierto AIpero a menudo proporcionaban respuestas que no eran adecuadas para menores. Snap ha mejorado los filtros a lo largo de los meses y, desde finales de 2024, también utiliza el modelo Gemini de Google para capacidades multimodales.
La FCC había iniciado un procedimiento contra Snap para evaluar si había violado la ley. Según la Comisión, Mi IA no es adecuado a los usuarios más jóvenes. La investigación debería ser iniciada por el Departamento de Justicia, pero no se sabe qué pasará con la nueva administración (también se desconoce el resultado de las investigaciones iniciadas sobre los acuerdos entre las Big Tech y las startups de IA).
Uno de los dos comisarios que no participó en la votación es Andres Fergusonelegido por Trump como nuevo presidente de la FCC, en sustitución de Lina Khan. Ferguson tiene testado que una queja entra en conflicto con la Primera Enmienda. Un portavoz de Snap dijo que la FCC no tiene pruebas concretas.
La Oficina del Comisionado de Información (ICO) del Reino Unido inició una investigación en junio de 2023 sobre violaciones de la privacidad de usuarios de entre 13 y 17 años. Snap no había llevado a cabo una evaluación de riesgos adecuada. El procedimiento fue cerrado en mayo de 2024 porque la empresa californiana ha implementado las medidas correctoras necesarias.
Deja una respuesta