Continuamos con nuestra serie sobre estafas criptográficas y amenazas financieras modernas. La última vez hablamos del pig-butchering. Se trata de un método despiadado en el que el estafador «desuella» emocionalmente a su víctima y le roba sus ahorros. Hoy veremos algo que es igualmente manipulador. Se trata de las estafas deepfake y las estafas de IA. Estas cosas están hoy en día por todas partes. Casi cualquiera que tenga acceso a las herramientas adecuadas puede crear un vídeo o una voz realistas con inteligencia artificial. Y a menudo no es fácil distinguir entre lo que es verdad y lo que es falso.
Contenido del artículo:
- Las estafas de IA son una nueva tendencia: ¿hacia dónde nos lleva todo esto?
- Centrados en Europa: estamos en medio de una guerra híbrida de IA
- Prueba de que debemos tenerlo en cuenta y aprender a protegernos.
- ¿Quién cae en las estafas de IA? ¿Y cómo protegerse de ellas?
- Veámoslo desde el otro lado: ganemos dinero con la detección de IA
- ¿Un negocio que puede generar ganancias y, al mismo tiempo, proteger a Europa?
- ¿Qué podemos sacar de todo esto? ¿Y cuál es el futuro de la protección contra los fraudes de IA?
Las estafas de IA son una nueva tendencia: ¿hacia dónde nos lleva todo esto?
El mundo entero está siendo testigo del crecimiento explosivo de estas estafas. Según Elliptic, su número ha aumentado un 3000 % interanual. Son cifras realmente impactantes. Lo más habitual son vídeos con famosos, políticos o inversores conocidos que supuestamente recomiendan diversas criptomonedas y proyectos de inversión. Pero estas personas no tienen nada que ver con ello. Tanto el vídeo como la voz son creados exclusivamente por IA.
Centrados en Europa: estamos en medio de una guerra híbrida de IA
Europa no es una excepción. Alemania, Francia, Italia… En todas partes aparecen casos similares. Es como una plaga. Se abusa de personalidades conocidas para promocionar inversiones falsas. Se afirma que las estafas deepfake representan el 6,5 % de todas las estafas y que desde 2022 han aumentado más de un 2000 %. Y esas son cifras realmente terribles. Y es
Te puede interesar: Desmontamos mitos
Prueba de que debemos tenerlo en cuenta y aprender a protegernos.
La República Checa se encuentra en una situación similar. En marzo de 2025 apareció en las redes sociales un vídeo en el que el senador Pavel Fischer recomendaba invertir en criptomonedas. El vídeo era falso. En julio apareció otro vídeo con el ex primer ministro Andrej Babiš. La policía y los expertos en cibernética confirmaron que también se trataba de un deepfake. Estos ejemplos muestran lo fácil que es abusar de una persona pública y lo rápido que se propagan los fraudes.
¿Quién cae en las estafas de IA? ¿Y cómo protegerse de ellas?
¿Quién suele caer en estas estafas? Las estadísticas muestran que las personas que confían en rostros conocidos, buscan ganancias rápidas y no tienen experiencia en seguridad en línea son las más vulnerables. Basta con un vídeo con una persona popular para que la gente pierda su sentido crítico. Los deepfakes están tan bien hechos que es difícil distinguir entre una voz o una imagen real y una falsa.
Verificar las fuentes es fundamental. Cuando veas un vídeo con una celebridad, consulta su cuenta oficial o su página web. No te fíes de los mensajes que parecen demasiado atractivos. Los asesores reales no se ponen en contacto contigo sin que lo solicites. Nunca facilite datos personales ni acceso a sus cuentas si no está seguro de la autenticidad del material. Y si, a pesar de todo, se encuentra con un fraude, póngase en contacto inmediatamente con la policía y con su proveedor de servicios financieros. Cuanto antes, mejor.
No se lo pierda: FX Junction
Veámoslo desde el otro lado: ganemos dinero con la detección de IA
El creciente riesgo de las estafas deepfake también ofrece oportunidades. Las tecnologías capaces de detectar las estafas de IA están cada vez más solicitadas. Este es un buen momento para invertir. Las empresas y los ETF centrados en la ciberseguridad y la detección de IA están creciendo, ya que la demanda de estos servicios se está disparando.
Si quieres ganar dinero con proyectos relacionados con la detección de IA, te ofrecemos tres ETF principales. El primero es Amplify Cybersecurity ETF (HACK). Este ETF se centra en empresas dedicadas a la ciberseguridad. También desarrollan tecnologías para la detección de fraudes de IA. Si te interesa apoyar a este sector, parece bastante prometedor. En 2025, HACK registró un rendimiento interanual del 21,62 % y otros valores también son favorables.
El segundo candidato es First Trust NASDAQ Cybersecurity ETF (CIBR). Este fondo invierte en empresas que se dedican a la ciberseguridad. También ofrecen herramientas para la detección de amenazas de IA. En 2025, este fondo alcanzó un rendimiento del 23,06 %.
Y el último y tercer ejemplo es QRAFT ETF (QRFT). Utiliza la inteligencia artificial para seleccionar acciones que pertenecen a empresas centradas en la IA y la ciberseguridad. Por lo tanto, da prioridad automáticamente a las que nos protegen. Solo en el último año, QRAFT tuvo un rendimiento del 21 %.
¿Un negocio que puede generar ganancias y, al mismo tiempo, proteger a Europa?
Invertir en estos ETF puede ser interesante, sobre todo debido a la situación actual. Debido a los tiempos peligrosos en los que vivimos. Las falsificaciones de IA están prácticamente en todas partes. Y esto permite a los inversores beneficiarse de la creciente demanda de tecnologías de detección de IA. Estas nos protegen de los fraudes deepfake y otras amenazas cibernéticas. Es una oportunidad para aprovechar la tendencia al alza del sector sin tener que entrar directamente en las empresas individuales. Y, al mismo tiempo, se apoya la capacidad de defensa de Europa contra la desinformación.
¿Qué podemos sacar de todo esto? ¿Y cuál es el futuro de la protección contra los fraudes de IA?
Y, por último, es bueno tener en cuenta una cosa: cuanto más se extienden las tecnologías de detección de IA y deepfakes, menos espacio hay para los fraudes. Las personas y las empresas ya no serán tan fáciles de manipular. A medida que mejoren los algoritmos de red, las plataformas y el software de verificación de identidad, los fraudes de IA serán menos eficaces.
Esto significa que, aunque ahora debemos ser cautelosos y estar atentos, el futuro parece un poco más seguro. La tecnología que hoy protege contra el fraude puede impedir mañana toda una oleada de vídeos y mensajes de voz falsos. Y es precisamente por eso que invertir en estos mecanismos de protección tiene sentido, no solo por el rendimiento, sino también por un mundo digital más seguro.
