/ricerca/americalatina/search.shtml?any=
Muestra menos

Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

OpenAI admite, ChatGpt para crear malware

Uso indebido de ciberdelincuentes también en elecciones de EEUU

ROMA 15 OCT - La inteligencia artificial (IA) también forma parte del arsenal de los ciberdelincuentes: de hecho, 15 octubre 2024, 19:27

Redaccion ANSA

ANSACheck
OpenAI admite, ChatGpt para crear malware © ANSA/EPA

OpenAI admite, ChatGpt para crear malware © ANSA/EPA

La inteligencia artificial (IA) también forma parte del arsenal de los ciberdelincuentes: de hecho, los expertos del sector alertan, desde hace algún tiempo, sobre el uso malicioso de esa tecnología en rápida evolución y expansión, a tal punto que, ahora, la confirmación proviene de la empresa OpenAI, pues el ChatGpt también se puede utilizar para escribir malware que espía y roba datos.
    Además, el popular chatbot fue utilizado para generar contenido falso en vista de diversos acontecimientos electorales, incluidas las próximas elecciones estadounidenses, que se desarrollarán en noviembre.
    En su último informe de seguridad, la empresa dirigida por Sam Altman explicó que ChatGpt fue utilizado por varios grupos de ciberdelincuentes.
    Entre ellos, el chino SweetSpecter, que envió correos electrónicos de phishing al personal de la empresa.
    El plan tenía previsto ocultar archivos maliciosos dentro de algunas solicitudes falsas de soporte, cuyos archivos adjuntos conducen a la instalación del malware SugarGh0st que se cuela en los sistemas informáticos y roba datos.
    Por su parte, el grupo iraní Storm-0817 utilizó ChatGpt para crear un software que recopila datos en Instagram y LinkedIn.
    Y la inteligencia artificial también se usó para generar malware por Android, en condiciones de robar datos como contactos, historial de llamadas, archivos y ubicación del usuario.
    OpenAI anunció que ya prohibió permanentemente todas las cuentas utilizadas por los piratas informáticos, compartiendo los datos recopilados con autoridades, analistas e investigadores en el campo de la ciberseguridad.
    A solo unas semanas de las elecciones estadounidenses, previstas para el próximo 5 de noviembre, la compañía también dijo que había visto una serie de intentos por parte de "actores externos" que utilizaban sus modelos de inteligencia artificial para generar contenido falso, incluidos artículos y comentarios en redes sociales.
    Hasta el momento, explicó, más de 20 intentos de ese tipo fueron frustrados.
    Los usos de la inteligencia artificial relacionados con las elecciones, escribe OpenAI, "varían en complejidad, desde simples solicitudes de generación de contenido hasta respuestas a publicaciones en las redes sociales".
    Los contenidos se referían, principalmente, a las elecciones en Estados Unidos y Ruanda y, en menor medida, a las elecciones en India y en la Unión Europea.
    El aumento del contenido generado por la inteligencia artificial generó serias preocupaciones de desinformación relacionada con las elecciones, con el número de "deepfakes" creados en aumento en un 900% año tras año, según datos de Clarity, una empresa de aprendizaje automático.
    Se trata de datos preocupantes, teniendo en cuenta que, en 2024, las citas electorales en todo el mundo afectan a más de 4.000 millones de personas en más de 40 países.
    Por último, también se demostró, recientemente, que las medidas de seguridad de ChatGpt se puede eludir para obtener una guía que explique cómo fabricar explosivos.
    De hecho, tuvo éxito un hacker y experto en informática conocido como Amadon.
    Después de ese incidente, OpenAI tomó precauciones para evitar la repetición de solicitudes similares.
    Ese fue otro episodio que se sumó a los planteamientos de cuestiones éticas y de seguridad en relación con la inteligencia artificial generativa.
   

TODOS LOS DERECHOS RESERVADOS © Copyright ANSA

Imperdibles

Compartir

O utilizza