Hackers de Rusia, China e Irán utilizaron ChatGPT: ahora, Microsoft y OpenAI refuerzan su seguridad

Comparte esta noticia

OpenAI y Microsoft se han mostrado visiblemente alarmadas al comprobar que su software de IA está siendo utilizado por los hackers de gobiernos rivales al de los Estados Unidos para crear distintos hacks. Como vimos la semana pasada distintos hackers gubernamentales estarían redirigiendo sus esfuerzos a perfeccionar los ataques cibernéticos utilizando la IA como principal apoyo. Ahora, también han explicado las medidas que van a tomar para detener a estos malos actores antes de que empiecen a extenderse.

Ofensiva contra los hackers por parte de OpenAI y Microsoft

En un artículo en su blog, OpenAI ha informado de cómo los hackers asociados a distintos Gobiernos han tratado de entrar en su plataforma para hacer un uso intensivo de la misma. Generalmente con objetivos diversos, pero en principio para hacer usos bastante normales con el objetivo de mejorar notablemente su productividad. Lo primero que ha hecho OpenAI para frenarles ha sido cancelar sus cuentas, pero la cuestión no se ha detenido ahí.

El equipo ha señalado que para tratar de detener este tipo de actividades son necesarias distintas medidas que puedan salvaguardar a la aplicación de ser usada peligrosamente. La primera de ellas pivota sobre un eje muy claro: la monitorización de este tipo de actores maliciosos como ellos los llaman.Manteniendo a estos usuarios identificados se podrá tomar medidas pertinentes contra ellos. De hecho, esto tiene mucho que ver con la investigación que han llevado a cabo para evitar estas malas prácticas.Para poder detener estas prácticas y perfeccionar la seguridad de la plataforma es estrictamente necesario aprender de los malos usos que hacen este tipo de personas. Es necesario llevar a situaciones complicadas a la IA para entender cómo mitigar estos fallos de seguridad y tratar de perfeccionarlos.Para ello también es necesario trabajar con otras empresas que usan el ecosistema IA para perfeccionar estos problemas y, sobre todo, localizarlos.Sin embargo, el punto más importante es el de la transparencia. OpenAI y Microsoft llevan a cabo estudios constantes que publican en abierto para que se pueda entender cuáles son las maneras que tienen de trabajar y de hacer frente a estos problemas. De hecho, recientemente hicieron un estudio para ver si era posible fabricar armas biológicas con ChatGPT.

Las principales preocupaciones acerca de la IA confirmadas

Pese a que pueda parecer un tema baladí para los usuarios medios, lo cierto es que la IA es un riesgo para las democracias en 2024, el año con más elecciones democráticas de la historia, también es uno en el que se consolida un nuevo actor que se ha convertido en el protagonista de la mayoría de titulares: la IA.Esto ha llevado a que algunas figuras públicas importantes, como el nieto de Oppenheimer se hagan eco público del peligro que puede suponer seguir desarrollando este tipo de tecnologías antes de comprobar los efectos que puede causar en la sociedad. Pero no es el único, ya que Bill Gates comparó a la IA con la bomba atómica precisamente en el aspecto relevante en el que se puede usar para crear armas, tanto digitales como tangibles.En resumen:

  • Distintos equipos de hackers que trabajan para países como Rusia, China o Irán han estado utilizando a ChatGPT para la creación de sus ciberataques
  • Es la primera vez que se documenta como hackers afiliados a distintos Gobiernos del mundo están usando la IA para sus ataques.
  • Al fin y al cabo, están implementando la IA como todas las personas, en sus trabajos y su día a día.
  • Los hackers utilizan la IA para tareas diarias, no para generar los ataques, algo que habla bien de la seguridad de la IA.
  • Es necesario monitorizar las actividades de ChatGPT, así como trabajar con otras empresas de la industria para mitigar los problemas de seguridad.
  • La transparencia juega un papel clave en todo esto.
  • Una de las mayores preocupaciones que genera la IA es, precisamente, que caiga en malas manos.
  • Los grupos utilizaban estas tecnologías para campañas de phishing o para traducir artículos científicos que podrían ser útiles para los ataques.
  • Las cuentas de estos usuarios han sido terminantemente canceladas.

El artículo Hackers de Rusia, China e Irán utilizaron ChatGPT: ahora, Microsoft y OpenAI refuerzan su seguridad fue publicado originalmente en Andro4all.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Soportescreen tag