
Descargá la App de Fmcerrito y llévanos siempre a todos lados con vos.
Los ciberdelincuentes emplean esta tecnología para crear voces sintéticas que imitan a la perfección a familiares o entidades bancarias.
Sociedad24 de julio de 2024La llegada y avance de la inteligencia artificial (IA) ha dado lugar a la proliferación de audios falsos cada vez más sofisticados. Estas grabaciones pueden ser utilizadas con fines fraudulentos, propagando información falsa o engañando para que usuarios decidan compartir datos confidenciales o sumas de dinero.
Los estafadores emplean estas tecnologías para crear voces sintéticas que imitan a la perfección a personas reales, ya sea familiares, amigos o incluso figuras de autoridades. Esto también, puede socavar la confianza pública en las comunicaciones digitales.
Identificar estas estafas puede ser complicado, pero existen algunas señales que pueden servir de alerta. Aquí presentamos cinco indicadores clave para reconocer un audio falso creado con inteligencia artificial.
Cómo suena un audio hecho con Inteligencia Artificial
Un audio hecho con IA presenta una baja calidad de audio. Aunque las herramientas de inteligencia artificial están mejorando constantemente, aún es común notar incoherencias en la calidad de la grabación.
Hay que escuchar con atención los cambios en el tono, el volumen o la claridad de la voz. Las fluctuaciones repentinas pueden ser una señal de que el audio ha sido manipulado o generado artificialmente.
Cómo es la voz hecha por la inteligencia artificial
Las voces generadas por inteligencia artificial todavía tienen dificultades para replicar con precisión la gama de emociones humanas. Si el discurso suena monótono o carente de la emotividad natural que esperarías en una conversación auténtica, podría tratarse de un audio falso.
Es importante prestar atención a la entonación y a las pausas inusuales en la conversación, debido a que estas pueden ser indicativas de que la voz ha sido generada por una máquina.
Cuáles son las de un audio hecho con inteligencia artificial
Las respuestas de audios hechos con IA suelen tener inconsistencias o respuestas que no tengan sentido en el contexto de la conversación.
Las herramientas de inteligencia artificial, si bien avanzadas, pueden producir errores lógicos que un humano no cometería. Es común que los audios falsos contengan afirmaciones absurdas o incoherentes que pueden indicar un intento de fraude.
Quién está detrás de la llamada
Si se recibe un audio sospechoso, siempre es buena idea verificar la fuente. Hay que corroborar una confirmación adicional utilizando otros medios de comunicación, como videollamadas o redes sociales oficiales.
Las entidades legítimas generalmente disponen de múltiples formas de contacto y estarán dispuestas a confirmar la veracidad del mensaje. La falta de disponibilidad o negación a proporcionar otras formas de verificación debería levantar una señal de alarma.
Qué solicitan los audios hechos con IA
Una táctica común de los estafadores que usan audios hechos con IA es pedir información sensible, contraseñas o pagos inmediatos a sus víctimas.
Por esta razón se debe tener siempre precaución ante cualquier mensaje que solicite datos personales o financieros, especialmente si viene acompañado de una presión para actuar rápidamente.
Los audios fraudulentos a menudo intentan crear una sensación de urgencia para disminuir tu capacidad de pensar críticamente. Nunca compartir información personal o financiera solo con escuchar un audio.
Paso a paso para evitar ser víctima de audios falsos
Cómo la inteligencia artificial puede afectar la ciberseguridad
El uso de tecnologías de inteligencia artificial para crear audios falsos plantea desafíos significativos en el ámbito de la seguridad y la privacidad. La capacidad de falsificar voces con gran precisión puede ser explotada no solo en estafas individuales, sino también, para desinformación a gran escala.
Las organizaciones y los individuos deben estar preparados para enfrentar estas amenazas mediante la educación y el uso de herramientas tecnológicas avanzadas.
Por su parte, las empresas de tecnología y ciberseguridad están desarrollando constantemente nuevas herramientas para detectar audios falsos. Sin embargo, la responsabilidad también recae en los usuarios para mantenerse informados.
Estas señales y consejos pueden ayudar a proteger de los engaños basados en audios generados por inteligencia artificial. La clave está en ser precavido y crítico ante cualquier mensaje sospechoso que pueda llegar al celular.
Fuente: Infobae
Descargá la App de Fmcerrito y llévanos siempre a todos lados con vos.
El festejo por el Día del Niño había sufrido modificaciones este año y se había anunciado para el segundo domingo de agosto, pero se dio marcha atrás con esa fecha y se definió una nueva para celebrar a los peques.
Desde la Municipalidad de Barranqueras continúa interviniendo en calle Tatané, donde se avanza con el plan de bacheo y mejora de infraestructura vial financiado con recursos propios del Municipio.
Se trata de una alianza estratégica entre el sector público y privado para dinamizar el acceso a la vivienda y desarrollar el mercado inmobiliario en el Chaco.
La Unión de Trabajadores de la Informática del Chaco (UTICH) denunció el despido de dos empleados de planta del área de Compras de la empresa estatal ECOM Chaco, en un hecho que el gremio califica como persecución sindical.
En total, fueron allanadas siete propiedades de Resistencia una de ellas, una reconocida concesionaria y en dos domicilios de la capital correntina.
Desde la Municipalidad de Barranqueras continúa interviniendo en calle Tatané, donde se avanza con el plan de bacheo y mejora de infraestructura vial financiado con recursos propios del Municipio.
Según trascendió, se buscó evitar el gasto de casi $1.000 millones que hubiera implicado su realización.