tps radiotps tvstreaming web

OpenAI podría compartir con la policía las charlas íntimas de los usuarios con ChatGPT

Cambios de última hora en los términos de uso del chatbot generan polémica por una eventual vigilancia a los usuarios.

TecnoAyer
chat gpt
OpenAI podría compartir con la policía las charlas íntimas de los usuarios con ChatGPT.

Una serie de cambios recientes en los términos y condiciones de ChatGPT permiten a OpenAI, la organización responsable del chatbot, compartir conversaciones de los usuarios con las autoridades, en caso de detectar amenazas a la seguridad o posibles daños. La organización especializada en IA informó estas modificaciones en una entrada de blog que encendió la polémica entre individuos y especialistas en privacidad.

“Cuando detectamos usuarios que están planeando dañar a otros, enrutamos sus conversaciones a flujos especializados donde son revisadas por un equipo reducido entrenado en nuestras políticas de uso, cuyos miembros están autorizados para tomar medidas que incluyen la prohibición de cuentas. Si los revisores humanos determinan que un caso implica una amenaza inminente de daño grave hacia terceros, podríamos derivarlo a las autoridades policiales”, explican desde OpenAI en un artículo que se enfoca en el tratamiento de la salud mental de los usuarios y que, además, aborda otros escenarios.

Nubia-Neo-3-GT-5G (1)Un gigante chino lanzó sus tanques para videojuegos en la Argentina

Esa práctica no es una sorpresa en la escena digital. En muchos casos, incluso en las aplicaciones que cuentan con cifrado o encriptación de extremo a extremo, en caso de recibir una orden por parte de autoridades deben abrir los candados para colaborar en posibles investigaciones. El dato clave, en este caso, es la mención de la propia organización estadounidense respecto a una revisión previa por parte de sus equipos, antes de cualquier tipo de pedido.

¿En qué casos OpenAI puede entregar tus conversaciones con ChatGPT a las autoridades?

“Podemos compartir tu información personal con autoridades gubernamentales o de otros terceros si es requerido por la ley o en buena fe (...) para detectar o prevenir fraude u otra actividad ilegal; para proteger la seguridad, integridad y confianza de nuestros productos, empleados, usuarios o el público, o para proteger contra responsabilidad legal”, se lee en las políticas de uso de ChatGPT.

Siguiendo a Futurism, el grupo que dirige Sam Altman no especificó las acciones que seguirá en esos casos.

Fuente: TN.

Te puede interesar
Lo más visto
portada carreras unc

Se viene una nueva edición de la Muestra UNC

UniversidadAyer

Durante tres jornadas, entre el 2 y el 4 de septiembre, la comunidad universitaria abrirá sus puertas para recibir a miles de personas que se acercarán a conocer la diversidad de propuestas académicas, científicas, culturales y de bienestar que ofrece la Casa de Trejo.