Hackers De Google Logran ‘Engañar’ A ChatGPT Para Que Filtre Datos De Personas Reales
Con Información de: Agencias
Investigadores de Google han conseguido que ChatGPT ofrezca casi sin filtro los textos con los que se entrenó la inteligencia artificial.
Esta vulnerabilidad ha permitido que los expertos logren extraer información como teléfonos de contacto de personas reales.
A medida que las defensas de los modelos de IA se perfeccionan, también lo hacen las técnicas de intrusión.
"Con solo 200 dólares de consultas a ChatGPT (GPT 3.5 y Turbo) fuimos capaces de extraer 10,000 ejemplos de datos de entrenamiento memorizados"; esto fue lo que escribieron investigadores de Google en un artículo científico publicado esta semana en arXiv, un archivo de prepublicaciones especializado en el campo de las matemáticas, la física y la computación.
«Nuestra extrapolación a pres...
