ChatGPT y Copilot: Detectadas vulnerabilidades que permiten acceso no autorizado a los chats, a pesar del cifrado
Una investigación reciente realizada por el Offensive AI Lab ha revelado vulnerabilidades significativas en la seguridad de los chatbots impulsados por Inteligencia Artificial (IA), incluyendo a populares plataformas como ChatGPT y Copilot.
A pesar de que estos servicios se promocionaban como seguros debido al cifrado de extremo a extremo, el estudio ha demostrado que los ciberdelincuentes pueden interceptar y decodificar hasta un 55% de las conversaciones mantenidas a través de estos sistemas, utilizando un método conocido como ataque de canal lateral.
¿En qué Consiste este Tipo de Ataque?
Los ataques de canal lateral se basan en recopilar datos derivados de la implementación física de los sistemas de chatbots, como el consumo de energía, los tiempos de procesamiento y la emisión de radiación electromagnética. Estos datos son analizados por una inteligencia artificial específicamente desarrollada para este fin, capaz de recrear conversaciones con una precisión sorprendente. Esto revela una debilidad en el cifrado de extremo a extremo, donde la longitud de los tokens puede ser explotada para revelar el contenido de los mensajes.
Sin embargo, se destaca que Gemini, la inteligencia artificial de Google, parece ser resistente a este tipo de ataques, según el centro de investigación.
Cómo Reducir el Riesgo de Hackers al Interactuar con ChatGPT o Copilot
Para mitigar estas vulnerabilidades, los expertos sugieren entrenar a los modelos de IA para que sean más robustos frente a este tipo de ataques. Esto implica enseñar a los sistemas a convertir secuencias de tokens en texto legible de una forma que tenga en cuenta el contexto de oraciones previamente generadas, limitando así las interpretaciones posibles y la incertidumbre.
Recomendaciones para los Usuarios
Ante esta situación, se recomienda a los usuarios de estos chatbots ser extremadamente cautelosos y evitar compartir información personal delicada. La concienciación sobre estas vulnerabilidades y la implementación de medidas preventivas serán fundamentales para proteger la privacidad de los usuarios y fortalecer la confianza en la tecnología de IA.
La seguridad en la era de la IA representa un desafío constante que exige una vigilancia y evolución continua. Este hallazgo subraya la importancia de una colaboración más estrecha entre los desarrolladores de IA, expertos en seguridad y usuarios para crear un entorno digital más seguro. A pesar de los riesgos, la IA también ofrece beneficios significativos para la humanidad, por lo que es crucial abordar estas vulnerabilidades para maximizar su potencial positivo y minimizar sus riesgos.
Noticias relacionadas
- Cuidado con los ciberataques en el Año Nuevo: Cómo protegerse de las estafas digitales en dispositivos móviles
- El Papa Francisco pide condonar deudas y aboga por la paz mundial
- Día Internacional del Migrante: Una mirada a la realidad de los migrantes que abandonan su hogar en busca de días mejores
- Vinícius, mejor jugador de la final y del torneo; Valverde, segundo mejor de la final
- El papa pide que no se dejen solos a los ancianos en las fiestas navideñas