Pilas Con ChatGPT y otras IA, crecen riesgos de caer en llamadas millonarias


Según expertos, se necesitan solo 30 segundos de audio para clonar una voz.

Crecen alertas por uso de inteligencia artificial para estafar y suplantar a personas. ¿Qué hacer?.

La imagen de Donald Trump siendo arrestado y del papa Francisco con una gran abrigo blanco a la moda le dieron la vuelta al mundo la semana pasada. Lo impresionante: el realismo de las mismas, logrando confundir a más de uno.

A esto se suma la increíble capacidad de responder como un humano que tienen modelos de lenguaje como el empleado por ChatGPT y que se ha explorado cada miércoles en este espacio de EL TIEMPO titulado 'Chatlas con ChatGPT'.


Estas los 'fotos' del papa Francisco luciendo un abrigo blanco tipo 'puffer'.

Imágenes creadas con Inteligencia Artificial.

Y aunque mucho se ha hablado del uso de estas herramientas en el terreno creativo, del ocio y el empresarial, un informe de la Europol, la Policía europea, ha caído como un 'baldado de agua fría' (y con justa razón), dejando claro que hay que tener los ojos y los oídos bien abiertos para no ser víctima de los criminales.

El 'lado oscuro' de herramientas de inteligencia artificial como ChatGPT.


Son crecientes las denuncias por fraude bancario en Colombia.

Los programas de inteligencia artificial como ChatGPT tienen también un "lado oscuro" a ojos de la Policía europea, Europol, que ha advertido que las redes criminales pueden aprovecharse de este tipo de herramientas para su propio beneficio.

El informe 'ChatGPT, el impacto de los modelos de lenguaje amplio en la aplicación de la ley', pretende arrojar luz sobre posibles efectos indeseados de unas herramientas encaminadas a procesar, manipular y generar textos y con acceso a un amplio abanico de datos.

Europol ha identificado varios ámbitos de "preocupación" sobre estos programas, cuya capacidad para producir textos "muy realistas" podría hacerlos atractivos a la hora de plantear tácticas de 'phishing' para engañar a potenciales víctimas, haciéndose pasar por empresas o individuos.

La institución teme también los efectos en materia de "desinformación", ya que permite a los usuarios generar textos con una narrativa muy específica y sin apenas esfuerzos, lo que permite que "el modelo sea ideal para fines de propaganda".

Por otra parte, ha alertado de que el hecho de que ChatGPT sea también capaz de producir códigos de programación puede llevar a que delincuentes "con pocos conocimientos técnicos" puedan acceder sin apenas esfuerzo a sistemas "maliciosos".

Europol ha destacado que este informe pretende generar conciencia sobre los desafíos de la inteligencia artificial, dar pie a un nuevo diálogo con las empresas y contribuir a que éstas se impliquen también en el desarrollo de sistemas "seguros y fiables". De hecho, la institución ha puesto a disposición de las fuerzas de seguridad un estudio más amplio al que ha hecho público.

¿Qué opina ChatGPT del informe de la Europol?.

Luego de leer el informe de la Europol, ¿qué puede decir al respecto?.

Como modelo de lenguaje, mi función es procesar y generar texto a partir de un conjunto de datos y patrones de lenguaje previamente aprendidos. Es cierto que la inteligencia artificial, incluyendo a modelos como ChatGPT, tiene el potencial de ser utilizada para fines maliciosos por parte de delincuentes y redes criminales.

Es importante tener en cuenta que el uso de tecnología, incluyendo la inteligencia artificial, debe ser abordado desde una perspectiva ética y responsable. Es necesario considerar los posibles efectos secundarios y mitigar los riesgos asociados al desarrollo y uso de estas herramientas.

En este sentido, es alentador ver que Europol está tomando medidas para generar conciencia y fomentar el diálogo sobre estos desafíos. Es importante que las empresas y desarrolladores trabajen en colaboración con las fuerzas de seguridad y las instituciones reguladoras para garantizar que la tecnología se desarrolle de una manera segura y responsable, y se utilice para beneficio de la sociedad en general.

¿Pero qué podría hacer una persona del común para identificar que un mensaje o texto fue hecho con un modelo como el de ChatGPT?.

En general, es difícil para una persona del común identificar si un texto fue generado por un modelo de lenguaje como ChatGPT o escrito por una persona. Los modelos de lenguaje cada vez son más sofisticados y pueden generar textos muy similares a los escritos por humanos.

Sin embargo, hay algunas características que pueden ser indicativas de que un texto fue generado por un modelo de lenguaje. Por ejemplo, es posible que los textos generados por modelos de lenguaje contengan errores gramaticales o de puntuación inusuales, o que presenten patrones de repetición o estructuras sintácticas no comunes. Además, los textos generados por modelos de lenguaje pueden tener una falta de coherencia o sentido en el contexto general del mensaje.

En cualquier caso, es importante tener en cuenta que la tecnología sigue evolucionando y que los modelos de lenguaje cada vez son más avanzados, lo que puede dificultar la identificación de textos generados por inteligencia artificial.

Por lo tanto, es importante estar alerta y verificar la fuente y la veracidad de los mensajes recibidos, especialmente si se trata de información importante o que pueda afectar la seguridad y privacidad personal.

¿Qué seguros o barreras tiene ChatGPT para evitar que sea usado en actividades criminales?.

ChatGPT es una herramienta de procesamiento de lenguaje natural desarrollada por OpenAI que tiene como objetivo proporcionar una plataforma para la creación de chatbots y otros sistemas de procesamiento de lenguaje natural. Sin embargo, como cualquier herramienta tecnológica, puede ser utilizada para fines malintencionados por parte de personas con malas intenciones.

OpenAI toma medidas para prevenir el uso malintencionado de sus herramientas de IA, incluyendo ChatGPT. Por ejemplo, tienen políticas de uso responsable y ético, que establecen que sus herramientas de IA no deben ser utilizadas para fines ilegales, dañinos o engañosos. Además, OpenAI ha implementado medidas de seguridad en sus plataformas, como la autenticación de usuarios y el monitoreo de actividades sospechosas.


Un mundo lleno de nuevos avances al alcance del celular.

Además, existen regulaciones legales y políticas gubernamentales que buscan prevenir el uso malintencionado de herramientas de IA, como ChatGPT. Por ejemplo, en la Unión Europea, la Comisión Europea ha presentado un conjunto de regulaciones de IA que buscan establecer estándares éticos y de seguridad para el uso de la tecnología de inteligencia artificial en la UE. Estas regulaciones podrían tener implicaciones para el uso de herramientas de IA como ChatGPT en actividades criminales.

En general, es importante que los desarrolladores de herramientas de IA como ChatGPT y las autoridades tomen medidas para prevenir el uso malintencionado de la tecnología. Los usuarios también deben ser conscientes de los riesgos y tomar medidas para protegerse contra el uso malintencionado de estas herramientas.

¿Por qué dudar, incluso si le muestran la foto o video de un familiar?.

No son solo los mensajes de textos que parecen hechos por humanos. La inteligencia artificial está al alcance de todos, incluso sin la necesidad de tener equipos o dispositivos avanzados, permitiendo falsear la realidad con relativa facilidad.

Para la muestra, la gran cantidad de filtros que se han popularizado en redes, como Snapchat o TikTok, que son capaces de cambiar la edad y el rostro de las personas en cuestión minutos.

Y es que más allá de convertirse en una tendencia 'jocosa', también tiene el potecial de destruir la vida de alguien en cuestión de segundos. Es el caso de centenares de personas, principalmente mujeres, cuyo rostro ha sido usado en videos pornográficos para ser distribuidos entre sus círculos cercanos.

Un escándalo reciente que pone en evidencia esta problemática es el caso de Brandon Ewing en febrero de este año.

Atrioc, como es conocido este popular 'streamer' de Twitch, mostró en vivo su navegador web. Gracias al ojo agudo de alguno de sus usuarios, quedó en evidencia que estaba usando una página porno que, con inteligencia artificial, creaba fotos de personalidades famosas, entre ellas sus propias amigas y compañeras de Twitch.

Otro caso, es el del jefe de comunicaciones de Binance, Patrick Hillman, quien anunció en agosto de 2022 haber sido víctima de la técnica de suplantación de identidad con tecnología 'deepfake' para perpetrar estafas en nombre de la plataforma de criptomonedas.

Según se conoció, delincuentes habrían utilizado fragmentos de diversas entrevistas y apariciones en directo de Hillman para crear una falsificación, en sus palabras, "lo suficiente refinada como para engañar a varios miembros de la criptocomunidad altamente inteligentes".

No solo imágenes y videos, también la voz.

A inicios de marzo, el diario 'The Washington Post' publicó la dramática historia de Ruth Card, una abuela que creyó estar hablando con su nieto y que por poco pierde cerca 2.200 dólares.

Según reporta el diario estadounidense, la mujer de 73 años recibió una llamada de auxilio por parte de, supuestamente, su nieto. En realidad se trataba de un estafador que había clonado la voz del joven por medio de inteligencia artificial para pedir una fuerte suma de dinero con el fin de "pagar una fianza".

Card se apresuró a sacar el dinero de su cuenta bancaria. Sin embargo, al dirigirse a una segunda sucursal para saltarse el monto máximo diario de retiro, el gerente del banco le alcanzó a advertir de la situación y evitar el robo.

Según explicó Hany Farid, profesor de ciencia forense digital en la Universidad de California, a 'The Washington Post', actualmente se necesita tan solo 30 segundos de audio para clonar una voz.

En un contexto en el que nuestras fotos y videos pueden circular sin mayor protección en internet y que pueden ser descargados fácilmente, los riesgos de ser víctimas de 'deepfake' y 'deep voice' maliciosas son reales.

Recomendaciones de ChatGPT para protegerse de suplantaciones con IA.

Para protegerse de este tipo de estafas, ChatGPT recomienda seguir estas precauciones:

- Verificar la identidad: Si recibes una llamada o mensaje sospechoso, asegúrate de verificar la identidad de la persona que te contacta. Puedes pedirles que proporcionen información personal específica que solo el verdadero remitente conocería.

- No compartir información personal: Nunca compartas información personal, financiera o confidencial por teléfono o correo electrónico, a menos que estés seguro de la identidad del remitente.

- Desconfiar de solicitudes urgentes de dinero: Si recibes una solicitud urgente de dinero, tómate el tiempo para verificar la información y asegurarte de que es legítima.

- Utilizar herramientas de seguridad: Utiliza herramientas de seguridad, como filtros de correo electrónico y aplicaciones de seguridad móvil, para detectar y prevenir el phishing y otros intentos de fraude.

- Reportar actividades sospechosas: Si recibes una solicitud sospechosa, repórtala inmediatamente a las autoridades o a la empresa que se hace pasar por la víctima.

TODO EN UNO.NET

Queremos darle a conocer nuestra EMPRESA creada en 1995. Todo En Uno.Net S.A.S es fundadora de la Organización Empresarial Todo En Uno.NET. Todo En Uno.Net S.A.S. es una empresa especializada en brindar CONSULTORIAS Y COMPAÑAMIENTO en el área tecnológica y administrativa basándonos en la última información tecnológica y de servicios del mercado, además prestamos una consultoría integral en varias áreas como son: CONSULTORIAS TECNOLOGICAS, CONSULTORIAS EMPRESARIALES, CONSULTORIA MERCADEO TECNOLÓGICO, CONSULTORIA EN TRATAMIENTO DE DATOS PERSONALES, Y con todos nuestros aliados en la organización TODO EN UNO.NET

Publicar un comentario

Esperamos sus comentarios

Artículo Anterior Artículo Siguiente