La IA est potenciando el fraude financiero y las prdidas aumentan a miles de millones de dlares

[ad_1]

A travs de herramientas como ChatGPT y otras que permiten replicar hasta la voz de una persona, los delincuentes estn engaando a miles de personas alrededor del mundo para robar sus datos y dinero. Qu ocurre con las empresas y cinco consejos para mitigar el peligro de recibir un ataque.

24 Septiembre de 2023 09.20

Quera informarle que Chase le debe un reembolso de US$ 2.000. Para acelerar el proceso y asegurarse de recibir su reembolso lo antes posible, siga las instrucciones a continuacin: 1. Llame al Servicio de atencin al cliente de Chase al 1-800-953-XXXX para consultar sobre el estado de su reembolso. Asegrese de tener a mano los detalles de su cuenta y cualquier informacin relevante…

Si realiz operaciones bancarias enChase y recibi esta nota en un correo electrnico o mensaje de texto, podra pensar que es legtima. Suena profesional, sin frases peculiares, errores gramaticales o saludos extraos caractersticos de los intentos de phishing que nos bombardean estos das. Esto no es sorprendente, ya que el lenguaje fue generado porChatGPT, el chatbot de IA lanzado por la potencia tecnolgicaOpenAI a fines del ao pasado. Como mensaje, simplemente escribimos en ChatGPT: Enve un correo electrnico a John Doe, Chase le debe un reembolso de US$ 2.000. Llame al 1-800-953-XXXX para obtener un reembolso. (Tuvimos que ingresar un nmero completo para que ChatGPT cooperara, pero obviamente no lo publicaramos aqu).

Ciberestafas
Con IA los ciberdelincuentes pueden replicar desde formas de escribir hasta la voz de una persona para realizar una estafa

Los estafadores ahora tienen una gramtica impecable, como cualquier otro hablante nativo, dice Soups Ranjan, cofundador y director ejecutivo de Sardine, una startup de prevencin de fraudes de San Francisco, Estados Unidos. Los clientes bancarios son estafados cada vez ms porque los mensajes de texto que reciben son casi perfectos, confirma un ejecutivo de fraude de un banco digital estadounidense, despus de solicitar el anonimato.

En este nuevo mundo de IA generativa, o modelos de aprendizaje profundo que pueden crear contenido basado en la informacin con la que estn entrenados, es ms fcil que nunca para aquellos con malas intenciones producir texto, audio e incluso video que puedan engaar no solo a individuos potenciales de convertirse en vctimas, sino tambin a los programas que ahora se utilizan para frustrar el fraude. En este sentido, la IA no tiene nada de especial: los malos han sido durante mucho tiempo los primeros en adoptar nuevas tecnologas, mientras que la polica lucha por ponerse al da. All por 1989, por ejemplo, Forbesexpuso cmo los ladrones utilizaban PC e impresoras lser comunes para falsificar cheques lo suficientemente buenos como para engaar a los bancos, que en ese momento no haban tomado ninguna medida especial para detectar las falsificaciones.

Hoy en da, la IA generativa es una amenaza y, en ltima instancia, podra hacer obsoletas las medidas de prevencin de fraude ms modernas, como la autenticacin de voz e incluso las verificaciones de vida diseadas para hacer coincidir una imagen en tiempo real con la registrada.Synchrony, uno de los mayores emisores de tarjetas de crdito de Estados Unidos con 70 millones de cuentas activas, tiene un asiento de primera fila en esta tendencia. “Vemos regularmente a personas que utilizan imgenes y vdeos deepfake para autenticacin y podemos asumir con seguridad que fueron creados utilizando IA generativa”, dijo Kenneth Williams, vicepresidente senior de Synchrony, en un correo electrnico a Forbes .

En unaencuesta realizada en junio de 2023 a 650 expertos en ciberseguridad realizada por la empresa ciberntica de Nueva York, Deep Instinct, tres de cada cuatro de los expertos encuestados observaron un aumento en los ataques durante el ao pasado, y el 85% atribuy este aumento a los malos actores que utilizan IA generativa. En 2022, los consumidores informaron haber perdido 8.800 millones de dlares debido al fraude, ms del 40% ms que en 2021,informa la Comisin Federal de Comercio de EE.UU . Las mayores prdidas de dlares provinieron de estafas de inversin, pero las estafas de impostores fueron las ms comunes, una seal siniestra ya que es probable que se vean mejoradas por la IA.

Los delincuentes pueden utilizar la IA generativa de diversas formas. Si publicas con frecuencia en las redes sociales o en cualquier lugar en lnea, pueden ensearle a un modelo de IA a escribir a tu estilo. Luego pueden enviar mensajes de texto a tus abuelos, implorndoles que te enven dinero para ayudarte a salir de un apuro. An ms aterrador es que si tienen una breve muestra de audio de la voz de un nio, pueden llamar a los padres y hacerse pasar por el nio, fingir que ha sido secuestrado y exigir el pago de un rescate. Eso es exactamente lo que sucedi con Jennifer DeStefano, una madre de cuatro hijos en Arizona, cuandotestific ante el Congreso en junio .

No se trata slo de padres y abuelos. Las empresas tambin estn siendo atacadas. Los delincuentes que se hacen pasar por proveedores reales estn redactando correos electrnicos convincentes para los contables dicindoles que deben recibir su pago lo antes posible, e incluyendo instrucciones de pago para una cuenta bancaria que controlan. Ranjan, director ejecutivo de Sardine, dice que muchos de los clientes de startups fintech de Sardine estn siendo vctimas de estas trampas y estn perdiendo cientos de miles de dlares.

Eso es poca cosa en comparacin con los 35 millones de dlares que perdi una empresa japonesa despus de que se clonara la voz de un director de la empresa y se utilizara para llevar a cabo una elaborada estafa en 2020. Ese caso inusual,reportado por primera vez por Forbes, fue un presagio de lo que est sucediendo con mayor frecuencia ahora que las herramientas de inteligencia artificial para escribir, suplantar la voz y manipular videos se estn volviendo rpidamente ms competentes, ms accesibles y ms baratas incluso para los estafadores comunes y corrientes. Mientras que antes necesitabas cientos o miles de fotos para crear un vdeo deepfake de alta calidad, ahora puedes hacerlo con slo un puado de fotos, dice Rick Song, cofundador y director ejecutivo de Persona, una empresa de prevencin de fraude. (S, puedes crear un vdeo falso sin tener un vdeo real, aunque obviamente es incluso ms fcil si tienes un vdeo con el que trabajar).

As como otras industrias estn adaptando la IA para sus propios usos, los delincuentes tambin lo estn haciendo y crean herramientas listas para usar (con nombres comoFraudGPT y WormGPT) basadas en modelos de IA generativa lanzados por los gigantes tecnolgicos.

Ciberestafas
Las ciberestafas siguen incrementando en cantidad y causan prdidas por miles de millones de dlares alrededor del mundo

En un vdeo de YouTube publicado en enero, Elon Musk pareca estar pregonando la ltima oportunidad de inversin en criptomonedas: un obsequio de 100.000.000 de dlares patrocinado por Tesla que prometa devolver el doble de la cantidad de bitcoin, ether, dogecoin o tether que los participantes estaban dispuestos a prometer. S que todos se han reunido aqu por una razn. Ahora tenemos una transmisin en vivo en la que todos los propietarios de criptomonedas podrn aumentar sus ingresos, dijo en el escenario la figura de baja resolucin de Musk. “S, escuchaste bien, voy a organizar un gran evento criptogrfico de SpaceX”.

S, el vdeo era un deepfake: los estafadores utilizaronuna charla que dio en febrero de 2022 sobre un programa de nave espacial reutilizable SpaceX para hacerse pasar por su imagen y su voz. YouTube elimin este video, aunque es casi seguro que cualquiera que envi criptomonedas a cualquiera de las direcciones proporcionadas perdi sus fondos. Musk es un objetivo principal para las suplantaciones, ya que hay infinitas muestras de audio de l para impulsar clones de voz habilitados por IA, pero ahora se puede suplantar a casi cualquier persona.

A principios de este ao, Larry Leonard, un hombre de 93 aos que vive en una comunidad de jubilados del sur de Florida, estaba en casa cuando su esposa respondi una llamada a su telfono fijo. Un minuto despus, ella le entreg el telfono y escuch lo que pareca la voz de su nieto de 27 aos diciendo que estaba en la crcel despus de atropellar a una mujer con su camioneta. Si bien not que la persona que llamaba lo llamaba abuelo en lugar de su habitual abue, la voz y el hecho de que su nieto conduce un camin le hicieron dejar de lado las sospechas. Cuando Leonard respondi que iba a llamar a los padres de su nieto, la persona que llam colg inmediatamente. Leonard pronto se enter de que su nieto estaba a salvo y toda la historia, y la voz que la contaba, fueron inventadas.

“Me asust y me sorprendi que pudieran capturar su voz exacta, las entonaciones y el tono”, le dice Leonard a Forbes. No hubo pausas entre oraciones o palabras que sugirieran que esto sale de una mquina o lee un programa. Fue muy convincente.

Las personas de edad avanzada suelen ser el objetivo de este tipo de estafas, pero ahora todos debemos tener cuidado con las llamadas entrantes, incluso cuando provienen de nmeros que podran parecer familiares, por ejemplo, de un vecino. “Cada vez es ms frecuente que no podamos confiar en las llamadas entrantes debido a la suplantacin (de nmeros de telfono) en las llamadas automticas”, lamenta Kathy Stokes, directora de programas de prevencin de fraude en AARP, el proveedor de servicios y lobby con casi 38 millones de miembros de 50 aos en adelante. No podemos confiar en nuestro correo electrnico. No podemos confiar en nuestros mensajes de texto. As que estamos excluidos de las formas tpicas en que nos comunicamos entre nosotros.

Otro acontecimiento siniestro es la forma en que incluso las nuevas medidas de seguridad se ven amenazadas. Por ejemplo, las grandes instituciones financieras como Vanguard Group, el gigante de los fondos mutuos que presta servicios a ms de 50 millones de inversores, ofrecen a sus clientes la posibilidad de acceder a ciertos servicios por telfono hablando en lugar de responder una pregunta de seguridad.Su voz es nica, al igual que su huella digital, explica un video de Vanguard de noviembre de 2021 que insta a los clientes a registrarse para la verificacin de voz. Pero los avances en la clonacin de voz sugieren que las empresas deben repensar esta prctica. Ranjan, de Sardine, dice que ya ha visto ejemplos de personas que utilizan la clonacin de voz para autenticarse con xito en un banco y acceder a una cuenta. Un portavoz de Vanguard se neg a comentar sobre las medidas que podra estar tomando para protegerse contra los avances en la clonacin.

Las pequeas empresas (e incluso las ms grandes) con procedimientos informales para pagar facturas o transferir fondos tambin son vulnerables a los malos actores. Durante mucho tiempo ha sido comn que los estafadores enven por correo electrnico facturas falsas solicitando el pago: facturas que parecen provenir de un proveedor. Ahora, utilizando herramientas de inteligencia artificial ampliamente disponibles, los estafadores pueden llamar a los empleados de la empresa utilizando una versin clonada de la voz de un ejecutivo y pretender autorizar transacciones o pedirles a los empleados que revelen datos confidenciales en ataques de vishing o voice phishing. “Si estamos hablando de hacerse pasar por un ejecutivo para un fraude de alto valor, eso es increblemente poderoso y una amenaza muy real“, dice el director ejecutivo de Persona, Rick Song, quien describe esto como su “mayor temor en el lado de la voz”.

Cada vez ms, los delincuentes utilizan la IA generativa para burlar a los especialistas en prevencin del fraude: las empresas de tecnologa que funcionan como guardias armados y camiones Brinks del sistema financiero actual, en gran medida digital.

Una de las funciones principales de estas empresas es verificar que los consumidores sean quienes dicen ser, protegiendo de prdidas tanto a las instituciones financieras como a sus clientes. Una forma en que las empresas de prevencin de fraudes como Socure, Mitek y Onfido intentan verificar las identidades es mediante una verificacin de vida: te piden que te tomes una foto o un video y usan el metraje para hacer coincidir tu rostro con la imagen de la identificacin que llevas. Tambin estamos obligados a presentar. Al saber cmo funciona este sistema, los ladrones compran imgenes de permisos de conducir reales en la web oscura. Estn utilizando programas de transformacin de vdeo (herramientas cada vez ms baratas y disponibles) para superponer esa cara real a la suya. Luego pueden hablar y mover la cabeza detrs de la cara digital de otra persona, lo que aumenta sus posibilidades de engaar un control de vida.

Ha habido un aumento bastante significativo en las caras falsas: caras generadas de alta calidad y ataques automatizados para hacerse pasar por controles de vida”, dice Song. Dice que el aumento vara segn la industria, pero para algunos, “probablemente veamos unas diez veces ms que el ao pasado”. Las empresas de tecnologa financiera y criptomonedas han experimentado aumentos particularmente grandes en este tipo de ataques.

Los expertos en fraude dijeron a Forbes que sospechan que proveedores de verificacin de identidad conocidos (por ejemplo, Socure y Mitek) han visto degradarse sus mtricas de prevencin de fraude como resultado. El director ejecutivo de Socure, Johnny Ayers, insiste en que “eso definitivamente no es cierto” y dice que sus nuevos modelos implementados durante los ltimos meses han llevado a que las tasas de captura de fraude aumenten en un 14% para el 2% superior de las identidades ms riesgosas. Reconoce, sin embargo, que algunos clientes han tardado en adoptar los nuevos modelos de Socure, lo que puede perjudicar el rendimiento. Tenemos uno de los tres principales bancos que en este momento est cuatro versiones por detrs, informa Ayers.

Mitek se neg a comentar especficamente sobre sus mtricas de desempeo, pero el vicepresidente senior Chris Briggs dice que si un modelo determinado se desarroll hace 18 meses, “S, se podra argumentar que un modelo ms antiguo no funciona tan bien como un modelo ms nuevo“. Los modelos de Mitek “se entrenan y reentrenan constantemente a lo largo del tiempo utilizando flujos de datos de la vida real, as como datos de laboratorio”.

JPMorgan, Bank of America y Wells Fargo se negaron a comentar sobre los desafos que enfrentan con el fraude generativo impulsado por IA. Un portavoz de Chime, el banco digital ms grande de Estados Unidos y que ha sufrido en el pasadoimportantes problemas de fraude , dice que no ha visto un aumento en los intentos de fraude generativo relacionado con la IA.

IA estafa crypto
Cada vez hay ms casos de deep fake o creacin de supuestas personas que no son reales

Los ladrones detrs de las estafas financieras actuales van desde lobos solitarios hasta sofisticados grupos de docenas o incluso cientos de delincuentes. Los anillos ms grandes, al igual que las empresas, tienen estructuras organizativas de varios niveles y miembros altamente tcnicos, incluidos cientficos de datos.

“Todos tienen su propio centro de comando y control”, dice Ranjan. Algunos participantes simplemente generan clientes potenciales: envan correos electrnicos y llamadas telefnicas de phishing. Si encuentran un pez en juego por una estafa bancaria, se lo entregarn a un colega que se hace pasar por el gerente de una sucursal bancaria e intenta que usted saque dinero de su cuenta. Otro paso clave: a menudo te pedirn que instales un programa como Microsoft TeamViewer o Citrix, que les permite controlar tu computadora. “Pueden oscurecer completamente la pantalla”, dice Ranjan. “El estafador podra entonces hacer an ms compras y retirar [dinero] a otra direccin bajo su control”. Una perorata comn que se utiliza para engaar a la gente, especialmente a los mayores, es decir que la cuenta de un objetivo ya ha sido robada por ladrones y que las personas que llaman necesitan que la marca coopere para recuperar los fondos.

Nada de esto depende del uso de IA, pero las herramientas de IA pueden hacer que los estafadores sean ms eficientes y crebles en sus tcticas.

OpenAI ha intentado introducir salvaguardas para evitar que las personas utilicen ChatGPT con fines fraudulentos. Por ejemplo, dgale a ChatGPT que redacte un correo electrnico que le pida a alguien su nmero de cuenta bancaria, y ste se niega y dice: “Lo siento mucho, pero no puedo ayudar con esa solicitud”. Sin embargo, sigue siendo fcil de manipular.

OpenAI se neg a comentar para este artculo y nos indic nicamente las publicaciones de su blog corporativo, incluida unaentrada de marzo de 2022 que dice: “No existe una solucin milagrosa para una implementacin responsable, por lo que intentamos conocer y abordar las limitaciones y potenciales de nuestros modelos”. vas de uso indebido, en cada etapa de desarrollo y despliegue”.

Llama 2, el modelo de lenguaje grande lanzado por Meta, es an ms fcil de utilizar como arma para delincuentes sofisticados porque es de cdigo abierto, donde todo su cdigo est disponible para verlo y usarlo. Eso abre un conjunto mucho ms amplio de formas en que los malos actores pueden apropiarse de ello y causar dao, dicen los expertos. Por ejemplo, las personas pueden crear herramientas de inteligencia artificial maliciosas encima. Meta no respondi a la solicitud de comentarios de Forbes , aunque el CEO Mark Zuckerberg dijo en julio que mantener Llama en cdigo abierto puede mejorar “la seguridad, ya que el software de cdigo abierto es ms examinado y ms personas pueden encontrar e identificar soluciones a los problemas”.

Las empresas de prevencin del fraude estn tratando de innovar rpidamente para mantenerse al da, y buscan cada vez ms nuevos tipos de datos para detectar a los malos actores. “Cmo escribes, cmo caminas o cmo sostienes tu telfono: estas caractersticas te definen, pero no son accesibles en el dominio pblico”, dice Ranjan. “Para definir a alguien como quien dice ser en lnea, la IA intrnseca ser importante”. En otras palabras, ser necesaria la IA para atraparla.

Cinco consejos para protegerse contra estafas basadas en IA

Fortificar cuentas: la autenticacin multifactor (MFA) requiere que ingrese una contrasea y un cdigo adicional para verificar su identidad. Habilite MFA en todas sus cuentas financieras.

Sea privado: los estafadores pueden usar informacin personal disponible en las redes sociales o en lnea para hacerse pasar por usted mejor.

Filtrar llamadas: no responda llamadas de nmeros desconocidos, dice Mike Steinbach, jefe de delitos financieros y prevencin de fraude de Citi.

Cree frases de contrasea: las familias pueden confirmar que realmente es su ser querido solicitando una palabra o frase previamente acordada. Las pequeas empresas pueden adoptar cdigos de acceso para aprobar acciones corporativas como transferencias bancarias solicitadas por ejecutivos. Tenga cuidado con los mensajes de ejecutivos que solicitan compras con tarjetas de regalo; esta es una estafa comn.

Deschelos: si sospecha que algo anda mal durante una llamada telefnica, intente hacer una pregunta aleatoria, como cul es el clima en cualquier ciudad en la que se encuentren, o algo personal, aconsejaFrank McKenna , cofundador de la empresa de prevencin de fraude PointPredictive.

*Nota publicada originalmente en Forbes EE.UU. por Jeff Kauflin y Emily Mason.



[ad_2]

Source link