Tecnología
Cómo identificar apps falsas: 7 señales para detectar aplicaciones móviles maliciosas antes de descargarlas
Las aplicaciones móviles falsas representan un riesgo creciente para los usuarios de smartphones. Estas apps pueden ocultar malware, robar datos personales o generar cargos no autorizados.
Especialistas de la empresa de ciberseguridad ESET advierten que los ciberdelincuentes distribuyen apps maliciosas que imitan servicios populares para engañar a los usuarios.
Por ello, recomiendan prestar atención a varias señales antes de descargar una aplicación desde cualquier tienda digital.
Por qué las apps falsas representan un riesgo
Los teléfonos inteligentes almacenan información sensible. Por ejemplo, datos bancarios, contraseñas, correos electrónicos y redes sociales.
Esta información convierte a los dispositivos móviles en objetivos frecuentes de ciberdelincuentes.
Según el especialista en seguridad informática Mario Micucci, muchas aplicaciones falsas aprovechan la confianza que generan servicios conocidos.
Los atacantes imitan aplicaciones populares para inducir a los usuarios a instalar software malicioso.
- Revisar la cantidad de descargas de la aplicación
El número de descargas puede ofrecer una primera señal de alerta.
Una app muy conocida suele tener miles o millones de descargas. Si aparece con muy pocos usuarios, podría tratarse de una aplicación falsa.
Por eso conviene verificar si la popularidad de la app coincide con su nivel de descargas.
- Leer las reseñas y valoraciones de usuarios
Las opiniones de otros usuarios también ayudan a identificar apps sospechosas.
Por ejemplo, muchas reseñas negativas pueden indicar problemas de seguridad o mal funcionamiento.
Asimismo, comentarios repetidos o muy similares pueden revelar reseñas falsas creadas por bots.
- Analizar el diseño, el logo y la apariencia
Las aplicaciones fraudulentas suelen copiar el diseño de apps legítimas.
Sin embargo, con frecuencia presentan diferencias pequeñas en el logo, los colores o la interfaz.
Ante cualquier duda, se recomienda comparar el diseño con el sitio web oficial del servicio.
- Verificar si realmente existe una app oficial
No todos los servicios digitales cuentan con aplicaciones móviles oficiales.
Por lo tanto, conviene revisar primero el sitio web de la empresa para confirmar si la app existe.
Además, es recomendable descargar la aplicación desde enlaces oficiales.
- Revisar el nombre y la descripción de la app
Los desarrolladores legítimos suelen cuidar la calidad de sus publicaciones.
Errores de ortografía, descripciones confusas o información incompleta pueden indicar una aplicación fraudulenta.
Por ello, revisar el texto y la presentación puede ayudar a detectar irregularidades.
- Investigar al desarrollador de la aplicación
Otra señal importante es verificar quién desarrolló la app.
Los desarrolladores confiables suelen tener otras aplicaciones publicadas y un historial visible.
En cambio, un desarrollador desconocido o sin trayectoria puede generar sospechas.
- Revisar los permisos que solicita la aplicación
Antes de instalar una app, es importante revisar los permisos que solicita.
Una aplicación de linterna, por ejemplo, no debería pedir acceso a contactos o mensajes.
Si los permisos no coinciden con la función de la app, podría tratarse de software malicioso.
Señales de que una app instalada puede ser maliciosa
Incluso después de instalar una aplicación, pueden aparecer señales de alerta.
Por ejemplo, cuando la app se abre o se cierra sola, funciona mal o muestra publicidad invasiva.
También pueden surgir cargos inesperados en la tarjeta de crédito o en la factura telefónica.
Otros indicadores incluyen consumo excesivo de batería, aumento del uso de datos o envío de mensajes desconocidos.
Qué hacer si detectas una aplicación sospechosa
Si un usuario sospecha que instaló una app falsa o maliciosa, debe eliminarla inmediatamente.
Luego, conviene analizar el dispositivo con una herramienta de seguridad.
Además, los especialistas recomiendan descargar aplicaciones solo desde tiendas oficiales, evitar enlaces enviados por correo o redes sociales y mantener el sistema operativo actualizado.
Estas medidas ayudan a reducir el riesgo de instalar aplicaciones falsas, proteger la información personal y mejorar la seguridad digital en dispositivos móviles.
Tecnología
Estafas con inteligencia artificial crecen: especialistas advierten sobre fraudes con clonación de voz
Las estafas con inteligencia artificial crecen y ya afectan a empresas en todo el mundo. Especialistas advierten que las llamadas falsas con deepfake de voz permiten suplantar ejecutivos y provocar fraudes financieros.
La empresa de ciberseguridad ESET informó que la IA generativa facilita crear audios falsos en pocos segundos. Como resultado, los atacantes pueden imitar voces reales para engañar a empleados y solicitar transferencias de dinero.
Según la compañía, este tipo de fraude representa una amenaza creciente para la seguridad empresarial y la protección de cuentas corporativas.
La inteligencia artificial facilita la suplantación de voz
La IA generativa (GenAI) democratizó la creación de audios y videos falsos. Hoy es posible producir clips manipulados con solo unos clics.
Estos contenidos, conocidos como deepfakes, permiten a los ciberdelincuentes suplantar la identidad de directivos, proveedores o colaboradores.
El problema va más allá de simples bromas digitales. Los expertos advierten que estas herramientas ya se usan para fraudes financieros, transferencias bancarias fraudulentas y secuestro de cuentas corporativas.
Además, el Gobierno del Reino Unido reportó que en 2024 circularon hasta ocho millones de clips falsos, frente a los 500 mil detectados el año anterior.
Cómo funciona un ataque con deepfake de voz
Investigadores de ESET explican que un ataque de clonación de voz sigue varios pasos.
Primero, el atacante elige a la persona que desea suplantar. Con frecuencia se trata de un director ejecutivo o un responsable financiero.
Luego busca una grabación breve en internet. Puede encontrarla en redes sociales, entrevistas o presentaciones públicas.
Después identifica a la víctima dentro de la empresa. Muchas veces analiza perfiles profesionales en plataformas laborales.
Finalmente, realiza una llamada utilizando audio deepfake generado con inteligencia artificial. En esa comunicación solicita una transferencia urgente o el acceso a sistemas corporativos.
El fraude puede causar pérdidas millonarias
Los expertos advierten que los ataques se vuelven cada vez más convincentes. Algunas herramientas incluso agregan pausas, ruido ambiental o tartamudeos para simular una conversación real.
“El ataque es cada vez más barato, sencillo y convincente”, explicó Macio Micucci, investigador de seguridad informática de ESET Latinoamérica.
Según el especialista, las fallas de la inteligencia artificial resultan más difíciles de detectar en llamadas telefónicas.
Un caso similar ocurrió en 2020. Un empleado en Emiratos Árabes Unidos transfirió 35 millones de dólares tras recibir una llamada falsa que imitaba la voz de su director.
Señales para detectar una llamada falsa con IA
Aunque los deepfakes mejoran cada año, todavía existen señales que pueden alertar a los usuarios.
ESET recomienda prestar atención a varios indicios. Entre ellos destacan el ritmo extraño del discurso o un tono emocional demasiado plano.
También pueden aparecer pausas inusuales, respiración artificial o frases sin respiración.
En otros casos, el audio puede sonar robótico o carecer de ruido ambiental natural.
Por ello, los expertos aconsejan verificar cualquier solicitud urgente mediante canales alternativos.
Empresas deben reforzar capacitación y controles
Las organizaciones pueden reducir el riesgo con medidas simples. ESET recomienda fortalecer la formación en ciberseguridad para empleados.
Estos programas deben incluir simulaciones de ataques con audio deepfake. Así, el personal aprende a reconocer intentos de fraude.
También aconseja aplicar controles adicionales en transferencias financieras importantes.
Entre las medidas más efectivas destacan la verificación independiente de llamadas y la autorización doble para pagos.
Micucci concluyó que la prevención requiere una estrategia basada en personas, procesos y tecnología.
“El nuevo panorama del ciberfraude exige una atención constante”, afirmó el investigador de ESET.
Tecnología
Especialistas advierten riesgos de seguridad y filtración de datos en conversaciones con chatbots de IA
La empresa de ciberseguridad ESET alertó sobre los riesgos de compartir información personal en chatbots de inteligencia artificial. La compañía explicó cómo pueden filtrarse datos sensibles y qué impacto tendría una exposición.
La advertencia incluye posibles casos de robo de identidad, extorsión y espionaje corporativo. Además, ESET compartió recomendaciones para reducir el riesgo al usar estas herramientas digitales.
Qué datos se comparten en chatbots como ChatGPT y Gemini
La interacción con asistentes de IA se volvió cotidiana. Usuarios conversan con plataformas como ChatGPT, Gemini, Copilot, Claude y Perplexity.
Según ESET, muchas personas tratan estos espacios como privados. Sin embargo, las plataformas pueden almacenar y analizar conversaciones para mejorar el servicio.
La empresa explicó que los usuarios suelen compartir datos personales. Entre ellos figuran nombre, edad, ciudad, rutinas y composición familiar.
Además, muchos comparten información laboral. Esto incluye contratos, informes internos, estrategias comerciales, datos de clientes y hasta código fuente.
También se registran consultas médicas, psicológicas y emocionales. Algunos usuarios describen síntomas, diagnósticos o conflictos personales.
Por otra parte, se comparten opiniones políticas, religiosas y posturas sensibles. Esta información, fuera de contexto, puede causar daños reputacionales.
Cómo pueden filtrarse las conversaciones con IA
ESET indicó que la principal vía de exposición es el acceso no autorizado a la cuenta. Esto ocurre cuando un atacante obtiene la contraseña o mediante ataques de phishing.
Asimismo, el uso de la misma clave en varios servicios aumenta el riesgo. Un fallo en otra plataforma puede comprometer la cuenta del chatbot.
La compañía también alertó sobre posibles brechas de seguridad. Un error técnico podría dejar expuestas conversaciones e historiales.
Además, extensiones o aplicaciones externas pueden representar un peligro. Si un complemento es vulnerable o malicioso, la información puede salir del control del proveedor.
Cinco riesgos tras una filtración de datos
ESET identificó cinco riesgos principales ante una exposición de conversaciones con chatbots de IA.
Primero, el robo de identidad y la ingeniería social. Los atacantes pueden usar datos reales para crear estafas más creíbles.
Segundo, el espionaje corporativo. Información interna puede generar ventajas competitivas para terceros.
Tercero, el daño reputacional. Opiniones privadas o dudas profesionales pueden afectar la credibilidad.
Cuarto, la exposición de datos sensibles. Esto incluye información médica, emocional o ideológica.
Quinto, la extorsión. Un atacante puede usar datos privados para ejercer presión económica.
Recomendaciones de ESET para reducir riesgos
ESET recomendó no compartir datos personales como documentos de identidad o números telefónicos. También sugirió anonimizar casos reales antes de consultarlos.
La empresa aconsejó no adjuntar documentos confidenciales ni credenciales. Además, pidió revisar la configuración de privacidad de cada plataforma.
Otra medida clave es usar contraseñas robustas y activar la autenticación en dos pasos. Asimismo, recomendó separar cuentas personales y laborales.
Finalmente, ESET planteó una pregunta práctica antes de compartir información: pensar si se diría lo mismo en voz alta frente a desconocidos.
La compañía concluyó que los chatbots son herramientas útiles. Sin embargo, no deben considerarse espacios confidenciales ni bóvedas de información sensible.
Tecnología
OpenAI capta $110.000 millones en histórica ronda y consolida liderazgo global en inteligencia artificial
La empresa de inteligencia artificial OpenAI aseguró una de las mayores rondas privadas de la historia tecnológica. La operación suma $110.000 millones y eleva su valoración a $730.000 millones antes de la financiación.
La inversión la lideran Amazon, SoftBank y Nvidia. El acuerdo refuerza la carrera global por el liderazgo en inteligencia artificial y acelera la integración entre nube, chips y modelos avanzados.
Cómo se distribuye la inversión en OpenAI
Según lo informado por la compañía, Amazon aportará $50.000 millones. SoftBank invertirá $30.000 millones y Nvidia contribuirá con otros $30.000 millones.
Además, OpenAI prevé sumar nuevos inversores financieros en las próximas semanas. Con esta ronda, la firma consolida su posición entre las tecnológicas privadas más valiosas del mundo.
La compañía es responsable de ChatGPT, uno de los sistemas de IA generativa más utilizados a nivel global.
Alianza estratégica con Amazon Web Services
El acuerdo fortalece la relación con Amazon Web Services (AWS). Amazon realizará un desembolso inicial de $15.000 millones. Luego completará $35.000 millones adicionales sujetos a metas específicas.
Ambas empresas desarrollarán un “Stateful Runtime Environment”. Este entorno permitirá crear aplicaciones con memoria y contexto persistente. El servicio estará disponible a través de Amazon Bedrock.
AWS también se convertirá en proveedor exclusivo de nube de terceros para “OpenAI Frontier”. Esta plataforma gestionará agentes de IA en entornos empresariales.
OpenAI adoptará además los chips Trainium de Amazon. Según la empresa, estos procesadores ofrecen entre 30 % y 40 % mejor relación precio-rendimiento frente a GPUs similares.
Nvidia aporta potencia de cómputo a gran escala
Más allá del capital, Nvidia suministrará infraestructura crítica. El acuerdo incluye 3 gigavatios de capacidad de inferencia y 2 gigavatios para entrenamiento de modelos.
La infraestructura utilizará sistemas Vera Rubin, junto con arquitecturas Hopper y Blackwell. La escala energética muestra que la inteligencia artificial exige grandes centros de datos y alto consumo eléctrico.
Este componente industrial confirma que la IA ya opera como una industria intensiva en hardware y energía.
SoftBank refuerza su apuesta en inteligencia artificial
Para SoftBank, la operación consolida su estrategia de largo plazo en tecnología disruptiva. La firma japonesa amplía su exposición al núcleo de la IA generativa con esta inversión.
El movimiento también refleja una concentración de capital en actores capaces de escalar servicios globales. La convergencia entre nube, semiconductores y modelos fundacionales marca un nuevo equilibrio competitivo.
Crecimiento de usuarios y expansión global
OpenAI informó que ChatGPT supera los 900 millones de usuarios activos semanales. La plataforma cuenta con más de 50 millones de suscriptores de pago y 9 millones de usuarios empresariales.
En paralelo, Codex, su herramienta para desarrolladores, alcanzó 1,6 millones de usuarios semanales. La base se triplicó desde comienzos de año.
El director ejecutivo, Sam Altman, afirmó que la IA transformará la economía global y requerirá gran capacidad de cómputo colectivo.
América Latina en el mapa
La consolidación de AWS como socio clave puede acelerar la disponibilidad regional de servicios avanzados de inteligencia artificial. Empresas de banca, comercio, energía y telecomunicaciones podrían integrar agentes inteligentes con mayor facilidad.
Con esta ronda histórica, OpenAI fortalece su capacidad financiera y tecnológica. La operación confirma que la inteligencia artificial se posiciona como infraestructura estratégica para la economía digital global.
Tecnología
Hackearon mi cuenta: guía práctica para actuar en los primeros 15 minutos y evitar más daños
Un hackeo puede afectar WhatsApp, Instagram, Facebook, LinkedIn, correo electrónico o incluso cuentas bancarias. Sin embargo, reaccionar rápido reduce el impacto. Los primeros 15 minutos son clave para proteger datos personales, dinero y contactos.
Expertos en ciberseguridad advierten que la mayoría de ataques comienzan con contraseñas robadas, correos de phishing o dispositivos infectados con malware. Por eso, saber qué hacer paso a paso marca la diferencia entre un susto y un problema mayor.
A continuación, una guía clara y directa para enfrentar un hackeo de cuenta, con información proporcionada por la reconocida firma de ciberseguridad ESET.
Minuto 0 al 2: corta el acceso de inmediato
Primero, desconecta el dispositivo de Internet. Apaga el Wi-Fi y los datos móviles. Esto puede frenar la actividad del atacante.
Luego, si aún tienes acceso a la cuenta vulnerada, cierra sesión en todos los dispositivos. Muchas plataformas permiten hacerlo desde la configuración de seguridad.
Eso sí, no borres correos, mensajes ni registros todavía. Esa información puede servir para entender cómo ocurrió el ataque.
Minuto 3 al 6: cambia la contraseña y activa el 2FA
Después, cambia la contraseña desde un dispositivo seguro. Idealmente, usa otro equipo que no esté comprometido.
Crea una clave fuerte, única y diferente a las anteriores. Evita fechas de nacimiento o combinaciones simples como “123456”.
Además, activa la autenticación en dos pasos (2FA). Este sistema solicita un código adicional y bloquea el acceso incluso si alguien conoce tu contraseña.
Si la plataforma lo permite, revoca accesos de aplicaciones conectadas y cierra todas las sesiones activas.
Minuto 7 al 10: revisa si el ataque se extendió
Muchos usuarios reutilizan la misma contraseña en varias cuentas. Por eso, revisa otros servicios como redes sociales, banca en línea y plataformas de streaming.
Cambia las claves repetidas de inmediato.
También verifica si el atacante modificó datos de contacto, envió mensajes sospechosos o realizó compras no autorizadas. Revisa el historial de inicios de sesión y la actividad reciente.
Atención especial al correo electrónico. El email suele ser la puerta de recuperación de otras cuentas. Si el ciberdelincuente controla tu correo, puede restablecer contraseñas en otros servicios.
Minuto 11 al 13: analiza el dispositivo
Luego, realiza un análisis de seguridad completo. Usa un antivirus o una solución de protección confiable.
Elimina programas, extensiones o aplicaciones que no reconozcas. Después, actualiza el sistema operativo y todas las apps instaladas.
Las actualizaciones corrigen vulnerabilidades que los atacantes aprovechan para ingresar.
Minuto 14 al 15: alerta y reporta
Finalmente, informa a tus contactos. El atacante pudo enviar mensajes para pedir dinero o difundir enlaces maliciosos.
Además, reporta el incidente a la plataforma afectada. Si el hackeo involucra servicios financieros, contacta de inmediato al banco para bloquear operaciones y monitorear movimientos.
Cuanto antes informes, menor será el riesgo de fraude.
Cómo prevenir un nuevo hackeo
Superada la emergencia, adopta medidas de protección permanentes:
- Usa contraseñas únicas y robustas
Cada cuenta debe tener una clave diferente. Un gestor de contraseñas puede ayudarte a crearlas y almacenarlas de forma segura.
- Activa siempre el doble factor de autenticación
El 2FA es una de las barreras más efectivas contra el acceso no autorizado.
- Mantén todo actualizado
Sistema operativo, navegador y aplicaciones deben estar al día. Las actualizaciones corrigen fallos de seguridad.
- Detecta correos de phishing
Desconfía de mensajes urgentes con errores ortográficos o remitentes extraños. Nunca ingrese…
Tecnología
CEO de Google destaca alianza con El Salvador para fortalecer diagnósticos médicos con inteligencia artificial
El director ejecutivo de Google, Sundar Pichai, resaltó la colaboración con El Salvador para desarrollar soluciones de salud apoyadas en inteligencia artificial (IA). El anuncio refuerza la apuesta del país por integrar tecnología avanzada en el sistema público.
Horas después, el presidente Nayib Bukele dijo en redes sociales que este es “solo el primer paso. Actualmente estamos construyendo el mejor sistema de salud pública del mundo”.
Las declaraciones del CEO se difundieron en un video publicado en la red social X por Stacy Herbert, directora de la Oficina Nacional del Bitcoin.
IA aplicada a la salud pública
Durante su intervención, Pichai explicó que la inteligencia artificial puede convertirse en un aliado del método científico. Señaló que la tecnología permite catalogar enfermedades, analizar datos clínicos y crear agentes digitales de apoyo.
“Debemos ser igualmente audaces al abordar los problemas en regiones que han carecido de acceso a la tecnología”, afirmó.
El ejecutivo puso como ejemplo el caso salvadoreño. Indicó que Google trabaja con el Gobierno para ofrecer diagnósticos y tratamientos médicos asequibles basados en IA.
Según Pichai, la iniciativa busca beneficiar a miles de personas que no pueden costear una consulta médica tradicional.
DoctorSV y la modernización digital
La colaboración incluye el desarrollo de la aplicación DoctorSV, presentada en noviembre de 2025. La herramienta digital forma parte del proceso de transformación tecnológica del Estado.
En el lanzamiento, Guy Nae, director de Google Cloud para el sector público en Latinoamérica, aseguró que la IA puede asistir a los médicos con una efectividad superior al 90 % en diagnósticos preliminares.
El proyecto se enmarca en la Ley para la Modernización Digital del Estado, aprobada en 2023. La normativa autoriza a instituciones públicas a contratar servicios y acuerdos individuales con Google por hasta 500 millones de dólares.
Visión estratégica del Gobierno
Stacy Herbert interpretó las declaraciones del CEO como un respaldo a la estrategia tecnológica del país. En su publicación, afirmó que El Salvador se posiciona como pionero en la implementación global de inteligencia artificial.
Además, señaló que el país apuesta por construir soluciones propias sin depender de tecnología obsoleta.
Con esta alianza, Google y El Salvador avanzan en la integración de inteligencia artificial en el sector salud. El objetivo es ampliar el acceso a servicios médicos y fortalecer la capacidad diagnóstica mediante herramientas digitales.
-
Legalhace 7 díasCorte Suprema de Justicia de El Salvador pone en línea nuevas leyes y reformas del Diario Oficial para la comunidad jurídica e interesados
-
Economíahace 6 díasPrecio del petróleo sube por conflicto en Medio Oriente y podría impactar combustibles en El Salvador
-
Legalhace 2 díasAbogados y notarios son capacitados en prevención de lavado de dinero y elaboración de reportes de operaciones sospechosas
-
Articuloshace 6 díasEl Salvador como destino estratégico de nearshoring: oportunidades y desafíos
-
Noticiashace 6 díasCongreso de Guatemala elige magistrados de la Corte de Constitucionalidad tras maratónica sesión marcada por confrontaciones
-
Legalhace 3 díasCorte Suprema alerta sobre mensajes fraudulentos que solicitan códigos de verificación a usuarios del Sistema de Notificación Electrónica
-
Politicahace 2 díasAsamblea Legislativa haría reformas para sancionar retrasos del Estado en pagos a micro y pequeñas empresas
-
Articuloshace 3 díasRegímenes especiales y nearshoring en El Salvador: marco legal aplicable a la inversión


