lunes, abril 22, 2024
InicioPortadacuáles son los peligros asociados a la inteligencia artificial de moda
spot_img

cuáles son los peligros asociados a la inteligencia artificial de moda

Con la inteligencia artificial (IA) en el centro de la escena pública, diversos tipos de estafas aparecieron de la mano de ChatGPT, el popular chat que permite interactuar con lenguaje natural y que simula la conversación humana. Y esto era un tanto inevitable: con el último grito de la moda tech aparecen el malware (virus), las aplicaciones truchas y más.

Primero vale la pena recordar de qué se trata este chat: “ChatGPT es un ejemplo de programa capaz de sostener diálogos diversos en lenguaje natural, entrenado con técnicas donde participan humanos, tanto en el acceso a conversaciones de las cuales aprender como en el proceso posterior de evaluar e ir mejorando las interacciones”, explica Javier Blanco, Doctor en Informática por la Universidad de Eindhoven, Holanda.

A partir de este concepto, diversos usos comenzaron a aparecer: desde escribir correos electrónicos laborales hasta hacer ensayos para la facultad, pasando por escritos legales, todo el mundo comenzó a sacar provecho de esta tecnología, tan asombrosa como incluso cuestionada.

Y el gran problema que trae aparejado cualquier avance tecnológico masivo es, casi siempre, el peligro que conlleva para ciberataques: cuantos más usuarios haya, más se amplía la superficie de ataque.

En este sentido hay que distinguir dos grandes categorías: por un lado, el uso de ChatGPT para escribir código malicioso, es decir, “weaponizarlo”, convertirlo en un arma, como se dice en la jerga. Esto demanda un conocimiento por parte de los ciberdelincuentes que, como se ha visto, ya ha sido aprovechado.

Pero por el otro, hay un costado más tangible y cercano al usuario promedio, y es que sea engañado, tanto al usar esta herramienta como al intentar instalarla. Y acá vale recordar que ChatGPT no tiene ninguna aplicación oficial, con lo que cualquier cosa que se instale es muy probable que termine siendo un dolor de cabeza a futuro.

Acá, expertos dan a conocer los potenciales peligros que entraña ChatGPT en la actualidad, los cuidados que hay que tener y, por último, los aspectos positivos que esta tecnología tiene para combatir el cibercrimen.

ChatGPT no tiene app: qué cuidados tener

Para usarlo desde el teléfono hay que abrirlo vía navegador. Foto Bloomberg


Para usarlo desde el teléfono hay que abrirlo vía navegador. Foto Bloomberg

Uno de los riesgos más comunes es bajar una aplicación que diga ser ChatGPT y en realidad no lo sea. Es decir, un programa apócrifo.

“Hay aplicaciones que tienen la apariencia de una aplicación real de ChatGPT pero con objetivos maliciosos, como suscribirnos a un servicio en puntual haciéndole perder plata a la víctima o robar datos confidenciales como contactos, SMS, archivos , u otros datos de nuestro celular”, explica Alberto Herrera de Pucará, empresa de seguridad informática.

También hay páginas web apócrifas que pretendan ser la oficial de ChatGPT: “Muchos estafadores crean paginas para robo de datos financieros . Una de las maneras más utilizada es crear páginas web con link de pagos relacionados con ChatGPT que tienen por objetivo el robo de tarjetas de crédito o de cuentas de bancos”, explica.

En este sentido vale recordar que la única forma de acceder de manera oficial a ChatGPT para el público general es a través de su sitio oficial: chat.openai.com.

Por supuesto que otro problema recurrente son las clásicas campañas de phishing: “Los engaños también llegan por mail con dominios o direcciones parecidas a las de ChatGPT , con paginas clonadas para engañar al usuario en instalar aplicaciones maliciosas”.

Por esto es clave estar atentos a ciertos signos: “Antes de instalar una aplicación en nuestro celular debemos ver que la misma proceda de un store con reputación Google Play en Android o App Store en iOS y que la misma haya sido descargada varias veces por otros usuarios y que tenga gran cantidad de opiniones”, explica.




Las cuestiones clave a la hora de instalar una app: ChatGPT no tiene, con lo cual no conviene instalar nada relacionado. Foto Google Play Store


Las cuestiones clave a la hora de instalar una app: ChatGPT no tiene, con lo cual no conviene instalar nada relacionado. Foto Google Play Store

Otro gran problema son las extensiones de los navegadores, que pueden transformarse en un vector de ataque.

“Antes de instalar una extensión es importante verificar algunas cuestiones: que el dominio o dirección web sea del navegador en el cual queremos instalar la aplicación -google.com por ejemplo-, que revisar la cantidad de descargas -cuantas más, mejor-, que posea opiniones o comentarios de diversos usuarios, que tenga buena reputación y que en lo posible siga la buenas prácticas de Google o el proveedor del navegador que elijamos.

Tampoco hay extensión oficial de GPT para Chrome, aunque sí hay de otras compañías y son confiables, pero no oficiales (y por lo tanto puede ser dudoso el uso de los datos del usuario).

ChatGPT como aliado del cibercrimen

Ransomware: una de las actividades que pueden servirse de ChatGPT. Foto Lockbit Blog


Ransomware: una de las actividades que pueden servirse de ChatGPT. Foto Lockbit Blog

“ChatGPT también ha agregado algo de sabor al panorama moderno de amenazas cibernéticas, ya que rápidamente se hizo evidente que la generación de código puede ayudar a los actores de amenazas menos calificados a lanzar ataques cibernéticos sin esfuerzo“, plantea Dario Opezzo, Gerente de Ventas regional de Palo Alto Networks.

“Descubrimos que al utilizar ChatGPT, puede llevar a cabo con éxito un flujo de infección completo, desde la creación de un correo electrónico convincente de suplantación de identidad hasta la ejecución de un shell inverso, capaz de aceptar comandos en inglés”, suma.

“En foros clandestinos de la Dark Web, los ciberdelincuentes comentan que están utilizando ChatGPT para crear malware del tipo Infostealer (robo de información), crear herramientas de cifrado y facilitar la actividad fraudulenta. Los investigadores quieren alertar del creciente interés de los atacantes por ChatGPT”, explicó en diálogo con este medio Alejandro Botter, Gerente de Ingeniería de Check Point para el sur de Latinoamérica.

Estos tres casos recientes que detectó la empresa dedicada a ciberseguridad dejan en evidencia de qué modo los ciberdelincuentes y estafadores aprovechan esta herramienta.

El primero es con la creación de un “infostealer”, un tipo de virus que roba información almacenada en los navegadores (contraseñas, datos personales, de tarjetas, etc.).

“El 29 de diciembre de 2022 apareció un hilo llamado ‘ChatGPT – Beneficios del malware’ en un popular foro clandestino de hacking. El editor del hilo reveló que estaba experimentando con ChatGPT para recrear variantes de malware y técnicas descritas en publicaciones de investigación y escritos sobre malware común. Estos mensajes parecían estar enseñando a otros atacantes menos capacitados técnicamente cómo utilizar ChatGPT con fines maliciosos, con ejemplos reales que podían aplicar inmediatamente”, agrega Botter.

Un segundo tipo de uso malicioso detectado tuvo que ver con la creación de una herramienta de cifrado, es decir, un programa que convierte datos legibles en codificados. Un ciberdelincuente apodado USDoD lo publicó y reconoció que había hecho una parte con GPT. “Este script [archivo con instrucciones en un lenguaje de programación] puede modificarse para cifrar un equipo sin ninguna interacción del usuario. Por ejemplo, podría convertir el código en ransomware”, señala el experto.

Por último, ChatGPT ya se usa para facilitar actividades fraudulentas: “El papel principal del mercado en la economía clandestina ilícita es proporcionar una plataforma para el comercio automatizado de bienes ilegales o robados como cuentas o tarjetas de pago robadas, malware, o incluso drogas y municiones, con todos los pagos en criptomonedas”, explica.

Por último, hay una cuestión para nada menor con los datos que nosotros mismos le estamos dando a la aplicación cuando la usamos: “Otro de los problemas que tienen estos modelos de lenguaje es que las mismas ‘aprenden’ de lo que escribimos, entonces toda la información confidencial o privada que volquemos en la plataforma será utilizada de algún modo”, advierte Herrera de Pucará.

“Por eso es importante poder generar discusiones sobre la moderación y restricción en la industria de los IA como ChatGPT, entre otros”, concluye, en un comentario que recuerda la advertencia de Elon Musk y otros tecnócratas de la semana pasada sobre regular y suspender por seis meses los desarrollos por encima de GPT-4.

En qué sí puede ser una aliada

ChatGPT puede optimizar procesos para detectar virus. Foto Reuters


ChatGPT puede optimizar procesos para detectar virus. Foto Reuters

Tanto desde Palo Alto como desde CheckPoint coinciden en que, a pesar del desarrollo de malware con ChatGPT, no hay que “demonizar” a la inteligencia artificial y ver el costado positivo para, precisamente, perseguir el cibercrimen.

“No debemos tener miedo de la IA, sino verla como un aliado porque permite la defensa automatizada. En el caso de Palo Alto Networks, nos adelantamos a la curva cuando reconocimos la importancia de la seguridad basada en IA y ML. Por ejemplo, AI y ML en seguridad ayudan a establecer una línea de base de operaciones normales y luego alertan a un equipo sobre posibles anomalías, creando una guía de automatización que ahorra tiempo y recursos”, opina Opezzo de Palo Alto.

De hecho fue uno de los temas de este año en la reunión anual del Foro Económico Mundial, donde líderes de gobiernos, empresas y ciberseguridad discutieron sobre la intersección entre IA y seguridad.

“La IA ya está conduciendo a avances científicos. Está ayudando a detectar el fraude financiero y desarrollar la resiliencia climática. Es una herramienta que podemos usar para mejorar y avanzar en muchas áreas de nuestras vidas. Esto incluye seguridad y ciberseguridad”, opina Botter de CheckPoint.

“Al incorporar IA en una arquitectura de seguridad unificada de varias capas, las soluciones de ciberseguridad pueden proporcionar un sistema inteligente que no solo detecta, sino que previene activamente, los ataques cibernéticos avanzados”, suma.

Entre los beneficios que puede traer la IA para combatir las estafas, el experto enumera la automatización de tareas repetitivas, la detección automática de incidentes y la “conciencia situacional”, es decir, que la inteligencia artificial pueda recopilar y procesar datos que arrojen más contexto para advertir una situación peligrosa para el usuario.

Así, como toda tecnología, la inteligencia artificial que brinda ChatGPT puede ser una aliada o una amenaza. El tiempo seguramente acomode a cada uno de los bandos.

Mirá también


Source link

RELATED ARTICLES
spot_img
spot_img

Most Popular

Aguachica

Indicativos

Ir al contenido