Lo último |

La Paz |

Santa Cruz

 28 Marzo

Imagen modal
https://www.facebook.com/sportline.bol
https://bit.ly/ElCedroVallecito




ChatGPT y Copilot: Detectadas vulnerabilidades que permiten acceso no autorizado a los chats, a pesar del cifrado

ChatGPT y Copilot: Detectadas vulnerabilidades que permiten acceso no autorizado a los chats, a pesar del cifrado

24 de Marzo de 2024 09:50 am

Una investigación reciente realizada por el Offensive AI Lab ha revelado vulnerabilidades significativas en la seguridad de los chatbots impulsados por Inteligencia Artificial (IA), incluyendo a populares plataformas como ChatGPT y Copilot.

A pesar de que estos servicios se promocionaban como seguros debido al cifrado de extremo a extremo, el estudio ha demostrado que los ciberdelincuentes pueden interceptar y decodificar hasta un 55% de las conversaciones mantenidas a través de estos sistemas, utilizando un método conocido como ataque de canal lateral.

¿En qué Consiste este Tipo de Ataque?

Los ataques de canal lateral se basan en recopilar datos derivados de la implementación física de los sistemas de chatbots, como el consumo de energía, los tiempos de procesamiento y la emisión de radiación electromagnética. Estos datos son analizados por una inteligencia artificial específicamente desarrollada para este fin, capaz de recrear conversaciones con una precisión sorprendente. Esto revela una debilidad en el cifrado de extremo a extremo, donde la longitud de los tokens puede ser explotada para revelar el contenido de los mensajes.

Sin embargo, se destaca que Gemini, la inteligencia artificial de Google, parece ser resistente a este tipo de ataques, según el centro de investigación.

Cómo Reducir el Riesgo de Hackers al Interactuar con ChatGPT o Copilot

Para mitigar estas vulnerabilidades, los expertos sugieren entrenar a los modelos de IA para que sean más robustos frente a este tipo de ataques. Esto implica enseñar a los sistemas a convertir secuencias de tokens en texto legible de una forma que tenga en cuenta el contexto de oraciones previamente generadas, limitando así las interpretaciones posibles y la incertidumbre.

Recomendaciones para los Usuarios

Ante esta situación, se recomienda a los usuarios de estos chatbots ser extremadamente cautelosos y evitar compartir información personal delicada. La concienciación sobre estas vulnerabilidades y la implementación de medidas preventivas serán fundamentales para proteger la privacidad de los usuarios y fortalecer la confianza en la tecnología de IA.

La seguridad en la era de la IA representa un desafío constante que exige una vigilancia y evolución continua. Este hallazgo subraya la importancia de una colaboración más estrecha entre los desarrolladores de IA, expertos en seguridad y usuarios para crear un entorno digital más seguro. A pesar de los riesgos, la IA también ofrece beneficios significativos para la humanidad, por lo que es crucial abordar estas vulnerabilidades para maximizar su potencial positivo y minimizar sus riesgos.

Mundo    
Tecnología    
Compartir: