Tecnología
La inteligencia artificial transforma la práctica legal: estas son las herramientas que ya están marcando la diferencia
La transformación digital del sector jurídico avanza con fuerza, impulsada en gran parte por el desarrollo de herramientas basadas en inteligencia artificial (IA). Lejos de ser una promesa futurista, la IA ya está presente en los despachos, potenciando la eficiencia, mejorando la precisión y redefiniendo los procesos tradicionales de la abogacía.
Si bien no existe una única herramienta “mejor” para todos los abogados, algunas plataformas han demostrado tener un impacto real y comprobable, adaptándose a diversas necesidades profesionales, desde la investigación legal hasta el análisis predictivo.
Sof-IA: el asistente legal de Tirant lo Blanch
Desarrollada por la editorial jurídica Tirant lo Blanch, Sof-IA se ha posicionado como una de las propuestas más innovadoras en el ámbito hispanohablante. Este asistente jurídico inteligente combina IA generativa con una vasta base de datos legal, permitiendo redactar documentos, corregir textos, generar resúmenes y construir esquemas jurídicos de forma automatizada. Su facilidad de uso y enfoque en el lenguaje jurídico la convierten en una herramienta de referencia para juristas y académicos.
Lex Machina: análisis predictivo para litigios
Especializada en litigación, Lex Machina ofrece análisis basados en datos reales extraídos de miles de casos judiciales. Esta herramienta, utilizada principalmente en EE. UU., permite identificar patrones en decisiones de jueces, evaluar el comportamiento de las partes contrarias y estimar las probabilidades de éxito en un proceso. Es especialmente útil para firmas que operan en entornos altamente competitivos y necesitan diseñar estrategias con base en datos empíricos.
Casetext, Bloomberg Law, LexisNexis y Westlaw: pilares de la investigación legal
Estas plataformas consolidadas siguen siendo indispensables en la práctica legal. Casetext integra IA para facilitar la búsqueda de jurisprudencia relevante, mientras que Bloomberg Law combina noticias jurídicas, análisis y herramientas de investigación. Por su parte, LexisNexis y Westlaw continúan liderando el acceso a información legal a través de motores de búsqueda avanzados, con miles de documentos, sentencias y recursos doctrinales disponibles en tiempo real.
La elección depende de la necesidad
Antes de adoptar una herramienta de IA, los abogados deben evaluar con precisión cuáles son sus objetivos: ¿buscan redactar con mayor agilidad? ¿automatizar contratos? ¿o analizar posibles resultados en litigios? La respuesta a estas preguntas determinará cuál plataforma se ajusta mejor a su práctica profesional.
Además de la funcionalidad específica, factores como la integración con otras herramientas, la usabilidad y el grado de personalización también juegan un papel clave en la elección tecnológica.
La inteligencia artificial está dejando una huella profunda en el derecho. Herramientas como Sof-IA, Lex Machina, Casetext o LexisNexis demuestran que es posible mejorar la calidad del trabajo jurídico sin sacrificar el rigor ni la seguridad. Lejos de sustituir al abogado, la IA se presenta como un apoyo estratégico, capaz de liberar tiempo, reducir errores y potenciar el análisis legal. El reto ahora es saber cómo, cuándo y con qué propósito integrarla en el día a día profesional.
Tecnología
Estafas con inteligencia artificial crecen: especialistas advierten sobre fraudes con clonación de voz
Las estafas con inteligencia artificial crecen y ya afectan a empresas en todo el mundo. Especialistas advierten que las llamadas falsas con deepfake de voz permiten suplantar ejecutivos y provocar fraudes financieros.
La empresa de ciberseguridad ESET informó que la IA generativa facilita crear audios falsos en pocos segundos. Como resultado, los atacantes pueden imitar voces reales para engañar a empleados y solicitar transferencias de dinero.
Según la compañía, este tipo de fraude representa una amenaza creciente para la seguridad empresarial y la protección de cuentas corporativas.
La inteligencia artificial facilita la suplantación de voz
La IA generativa (GenAI) democratizó la creación de audios y videos falsos. Hoy es posible producir clips manipulados con solo unos clics.
Estos contenidos, conocidos como deepfakes, permiten a los ciberdelincuentes suplantar la identidad de directivos, proveedores o colaboradores.
El problema va más allá de simples bromas digitales. Los expertos advierten que estas herramientas ya se usan para fraudes financieros, transferencias bancarias fraudulentas y secuestro de cuentas corporativas.
Además, el Gobierno del Reino Unido reportó que en 2024 circularon hasta ocho millones de clips falsos, frente a los 500 mil detectados el año anterior.
Cómo funciona un ataque con deepfake de voz
Investigadores de ESET explican que un ataque de clonación de voz sigue varios pasos.
Primero, el atacante elige a la persona que desea suplantar. Con frecuencia se trata de un director ejecutivo o un responsable financiero.
Luego busca una grabación breve en internet. Puede encontrarla en redes sociales, entrevistas o presentaciones públicas.
Después identifica a la víctima dentro de la empresa. Muchas veces analiza perfiles profesionales en plataformas laborales.
Finalmente, realiza una llamada utilizando audio deepfake generado con inteligencia artificial. En esa comunicación solicita una transferencia urgente o el acceso a sistemas corporativos.
El fraude puede causar pérdidas millonarias
Los expertos advierten que los ataques se vuelven cada vez más convincentes. Algunas herramientas incluso agregan pausas, ruido ambiental o tartamudeos para simular una conversación real.
“El ataque es cada vez más barato, sencillo y convincente”, explicó Macio Micucci, investigador de seguridad informática de ESET Latinoamérica.
Según el especialista, las fallas de la inteligencia artificial resultan más difíciles de detectar en llamadas telefónicas.
Un caso similar ocurrió en 2020. Un empleado en Emiratos Árabes Unidos transfirió 35 millones de dólares tras recibir una llamada falsa que imitaba la voz de su director.
Señales para detectar una llamada falsa con IA
Aunque los deepfakes mejoran cada año, todavía existen señales que pueden alertar a los usuarios.
ESET recomienda prestar atención a varios indicios. Entre ellos destacan el ritmo extraño del discurso o un tono emocional demasiado plano.
También pueden aparecer pausas inusuales, respiración artificial o frases sin respiración.
En otros casos, el audio puede sonar robótico o carecer de ruido ambiental natural.
Por ello, los expertos aconsejan verificar cualquier solicitud urgente mediante canales alternativos.
Empresas deben reforzar capacitación y controles
Las organizaciones pueden reducir el riesgo con medidas simples. ESET recomienda fortalecer la formación en ciberseguridad para empleados.
Estos programas deben incluir simulaciones de ataques con audio deepfake. Así, el personal aprende a reconocer intentos de fraude.
También aconseja aplicar controles adicionales en transferencias financieras importantes.
Entre las medidas más efectivas destacan la verificación independiente de llamadas y la autorización doble para pagos.
Micucci concluyó que la prevención requiere una estrategia basada en personas, procesos y tecnología.
“El nuevo panorama del ciberfraude exige una atención constante”, afirmó el investigador de ESET.
Tecnología
Especialistas advierten riesgos de seguridad y filtración de datos en conversaciones con chatbots de IA
La empresa de ciberseguridad ESET alertó sobre los riesgos de compartir información personal en chatbots de inteligencia artificial. La compañía explicó cómo pueden filtrarse datos sensibles y qué impacto tendría una exposición.
La advertencia incluye posibles casos de robo de identidad, extorsión y espionaje corporativo. Además, ESET compartió recomendaciones para reducir el riesgo al usar estas herramientas digitales.
Qué datos se comparten en chatbots como ChatGPT y Gemini
La interacción con asistentes de IA se volvió cotidiana. Usuarios conversan con plataformas como ChatGPT, Gemini, Copilot, Claude y Perplexity.
Según ESET, muchas personas tratan estos espacios como privados. Sin embargo, las plataformas pueden almacenar y analizar conversaciones para mejorar el servicio.
La empresa explicó que los usuarios suelen compartir datos personales. Entre ellos figuran nombre, edad, ciudad, rutinas y composición familiar.
Además, muchos comparten información laboral. Esto incluye contratos, informes internos, estrategias comerciales, datos de clientes y hasta código fuente.
También se registran consultas médicas, psicológicas y emocionales. Algunos usuarios describen síntomas, diagnósticos o conflictos personales.
Por otra parte, se comparten opiniones políticas, religiosas y posturas sensibles. Esta información, fuera de contexto, puede causar daños reputacionales.
Cómo pueden filtrarse las conversaciones con IA
ESET indicó que la principal vía de exposición es el acceso no autorizado a la cuenta. Esto ocurre cuando un atacante obtiene la contraseña o mediante ataques de phishing.
Asimismo, el uso de la misma clave en varios servicios aumenta el riesgo. Un fallo en otra plataforma puede comprometer la cuenta del chatbot.
La compañía también alertó sobre posibles brechas de seguridad. Un error técnico podría dejar expuestas conversaciones e historiales.
Además, extensiones o aplicaciones externas pueden representar un peligro. Si un complemento es vulnerable o malicioso, la información puede salir del control del proveedor.
Cinco riesgos tras una filtración de datos
ESET identificó cinco riesgos principales ante una exposición de conversaciones con chatbots de IA.
Primero, el robo de identidad y la ingeniería social. Los atacantes pueden usar datos reales para crear estafas más creíbles.
Segundo, el espionaje corporativo. Información interna puede generar ventajas competitivas para terceros.
Tercero, el daño reputacional. Opiniones privadas o dudas profesionales pueden afectar la credibilidad.
Cuarto, la exposición de datos sensibles. Esto incluye información médica, emocional o ideológica.
Quinto, la extorsión. Un atacante puede usar datos privados para ejercer presión económica.
Recomendaciones de ESET para reducir riesgos
ESET recomendó no compartir datos personales como documentos de identidad o números telefónicos. También sugirió anonimizar casos reales antes de consultarlos.
La empresa aconsejó no adjuntar documentos confidenciales ni credenciales. Además, pidió revisar la configuración de privacidad de cada plataforma.
Otra medida clave es usar contraseñas robustas y activar la autenticación en dos pasos. Asimismo, recomendó separar cuentas personales y laborales.
Finalmente, ESET planteó una pregunta práctica antes de compartir información: pensar si se diría lo mismo en voz alta frente a desconocidos.
La compañía concluyó que los chatbots son herramientas útiles. Sin embargo, no deben considerarse espacios confidenciales ni bóvedas de información sensible.
Tecnología
OpenAI capta $110.000 millones en histórica ronda y consolida liderazgo global en inteligencia artificial
La empresa de inteligencia artificial OpenAI aseguró una de las mayores rondas privadas de la historia tecnológica. La operación suma $110.000 millones y eleva su valoración a $730.000 millones antes de la financiación.
La inversión la lideran Amazon, SoftBank y Nvidia. El acuerdo refuerza la carrera global por el liderazgo en inteligencia artificial y acelera la integración entre nube, chips y modelos avanzados.
Cómo se distribuye la inversión en OpenAI
Según lo informado por la compañía, Amazon aportará $50.000 millones. SoftBank invertirá $30.000 millones y Nvidia contribuirá con otros $30.000 millones.
Además, OpenAI prevé sumar nuevos inversores financieros en las próximas semanas. Con esta ronda, la firma consolida su posición entre las tecnológicas privadas más valiosas del mundo.
La compañía es responsable de ChatGPT, uno de los sistemas de IA generativa más utilizados a nivel global.
Alianza estratégica con Amazon Web Services
El acuerdo fortalece la relación con Amazon Web Services (AWS). Amazon realizará un desembolso inicial de $15.000 millones. Luego completará $35.000 millones adicionales sujetos a metas específicas.
Ambas empresas desarrollarán un “Stateful Runtime Environment”. Este entorno permitirá crear aplicaciones con memoria y contexto persistente. El servicio estará disponible a través de Amazon Bedrock.
AWS también se convertirá en proveedor exclusivo de nube de terceros para “OpenAI Frontier”. Esta plataforma gestionará agentes de IA en entornos empresariales.
OpenAI adoptará además los chips Trainium de Amazon. Según la empresa, estos procesadores ofrecen entre 30 % y 40 % mejor relación precio-rendimiento frente a GPUs similares.
Nvidia aporta potencia de cómputo a gran escala
Más allá del capital, Nvidia suministrará infraestructura crítica. El acuerdo incluye 3 gigavatios de capacidad de inferencia y 2 gigavatios para entrenamiento de modelos.
La infraestructura utilizará sistemas Vera Rubin, junto con arquitecturas Hopper y Blackwell. La escala energética muestra que la inteligencia artificial exige grandes centros de datos y alto consumo eléctrico.
Este componente industrial confirma que la IA ya opera como una industria intensiva en hardware y energía.
SoftBank refuerza su apuesta en inteligencia artificial
Para SoftBank, la operación consolida su estrategia de largo plazo en tecnología disruptiva. La firma japonesa amplía su exposición al núcleo de la IA generativa con esta inversión.
El movimiento también refleja una concentración de capital en actores capaces de escalar servicios globales. La convergencia entre nube, semiconductores y modelos fundacionales marca un nuevo equilibrio competitivo.
Crecimiento de usuarios y expansión global
OpenAI informó que ChatGPT supera los 900 millones de usuarios activos semanales. La plataforma cuenta con más de 50 millones de suscriptores de pago y 9 millones de usuarios empresariales.
En paralelo, Codex, su herramienta para desarrolladores, alcanzó 1,6 millones de usuarios semanales. La base se triplicó desde comienzos de año.
El director ejecutivo, Sam Altman, afirmó que la IA transformará la economía global y requerirá gran capacidad de cómputo colectivo.
América Latina en el mapa
La consolidación de AWS como socio clave puede acelerar la disponibilidad regional de servicios avanzados de inteligencia artificial. Empresas de banca, comercio, energía y telecomunicaciones podrían integrar agentes inteligentes con mayor facilidad.
Con esta ronda histórica, OpenAI fortalece su capacidad financiera y tecnológica. La operación confirma que la inteligencia artificial se posiciona como infraestructura estratégica para la economía digital global.
Tecnología
Hackearon mi cuenta: guía práctica para actuar en los primeros 15 minutos y evitar más daños
Un hackeo puede afectar WhatsApp, Instagram, Facebook, LinkedIn, correo electrónico o incluso cuentas bancarias. Sin embargo, reaccionar rápido reduce el impacto. Los primeros 15 minutos son clave para proteger datos personales, dinero y contactos.
Expertos en ciberseguridad advierten que la mayoría de ataques comienzan con contraseñas robadas, correos de phishing o dispositivos infectados con malware. Por eso, saber qué hacer paso a paso marca la diferencia entre un susto y un problema mayor.
A continuación, una guía clara y directa para enfrentar un hackeo de cuenta, con información proporcionada por la reconocida firma de ciberseguridad ESET.
Minuto 0 al 2: corta el acceso de inmediato
Primero, desconecta el dispositivo de Internet. Apaga el Wi-Fi y los datos móviles. Esto puede frenar la actividad del atacante.
Luego, si aún tienes acceso a la cuenta vulnerada, cierra sesión en todos los dispositivos. Muchas plataformas permiten hacerlo desde la configuración de seguridad.
Eso sí, no borres correos, mensajes ni registros todavía. Esa información puede servir para entender cómo ocurrió el ataque.
Minuto 3 al 6: cambia la contraseña y activa el 2FA
Después, cambia la contraseña desde un dispositivo seguro. Idealmente, usa otro equipo que no esté comprometido.
Crea una clave fuerte, única y diferente a las anteriores. Evita fechas de nacimiento o combinaciones simples como “123456”.
Además, activa la autenticación en dos pasos (2FA). Este sistema solicita un código adicional y bloquea el acceso incluso si alguien conoce tu contraseña.
Si la plataforma lo permite, revoca accesos de aplicaciones conectadas y cierra todas las sesiones activas.
Minuto 7 al 10: revisa si el ataque se extendió
Muchos usuarios reutilizan la misma contraseña en varias cuentas. Por eso, revisa otros servicios como redes sociales, banca en línea y plataformas de streaming.
Cambia las claves repetidas de inmediato.
También verifica si el atacante modificó datos de contacto, envió mensajes sospechosos o realizó compras no autorizadas. Revisa el historial de inicios de sesión y la actividad reciente.
Atención especial al correo electrónico. El email suele ser la puerta de recuperación de otras cuentas. Si el ciberdelincuente controla tu correo, puede restablecer contraseñas en otros servicios.
Minuto 11 al 13: analiza el dispositivo
Luego, realiza un análisis de seguridad completo. Usa un antivirus o una solución de protección confiable.
Elimina programas, extensiones o aplicaciones que no reconozcas. Después, actualiza el sistema operativo y todas las apps instaladas.
Las actualizaciones corrigen vulnerabilidades que los atacantes aprovechan para ingresar.
Minuto 14 al 15: alerta y reporta
Finalmente, informa a tus contactos. El atacante pudo enviar mensajes para pedir dinero o difundir enlaces maliciosos.
Además, reporta el incidente a la plataforma afectada. Si el hackeo involucra servicios financieros, contacta de inmediato al banco para bloquear operaciones y monitorear movimientos.
Cuanto antes informes, menor será el riesgo de fraude.
Cómo prevenir un nuevo hackeo
Superada la emergencia, adopta medidas de protección permanentes:
- Usa contraseñas únicas y robustas
Cada cuenta debe tener una clave diferente. Un gestor de contraseñas puede ayudarte a crearlas y almacenarlas de forma segura.
- Activa siempre el doble factor de autenticación
El 2FA es una de las barreras más efectivas contra el acceso no autorizado.
- Mantén todo actualizado
Sistema operativo, navegador y aplicaciones deben estar al día. Las actualizaciones corrigen fallos de seguridad.
- Detecta correos de phishing
Desconfía de mensajes urgentes con errores ortográficos o remitentes extraños. Nunca ingrese…
Tecnología
CEO de Google destaca alianza con El Salvador para fortalecer diagnósticos médicos con inteligencia artificial
El director ejecutivo de Google, Sundar Pichai, resaltó la colaboración con El Salvador para desarrollar soluciones de salud apoyadas en inteligencia artificial (IA). El anuncio refuerza la apuesta del país por integrar tecnología avanzada en el sistema público.
Horas después, el presidente Nayib Bukele dijo en redes sociales que este es “solo el primer paso. Actualmente estamos construyendo el mejor sistema de salud pública del mundo”.
Las declaraciones del CEO se difundieron en un video publicado en la red social X por Stacy Herbert, directora de la Oficina Nacional del Bitcoin.
IA aplicada a la salud pública
Durante su intervención, Pichai explicó que la inteligencia artificial puede convertirse en un aliado del método científico. Señaló que la tecnología permite catalogar enfermedades, analizar datos clínicos y crear agentes digitales de apoyo.
“Debemos ser igualmente audaces al abordar los problemas en regiones que han carecido de acceso a la tecnología”, afirmó.
El ejecutivo puso como ejemplo el caso salvadoreño. Indicó que Google trabaja con el Gobierno para ofrecer diagnósticos y tratamientos médicos asequibles basados en IA.
Según Pichai, la iniciativa busca beneficiar a miles de personas que no pueden costear una consulta médica tradicional.
DoctorSV y la modernización digital
La colaboración incluye el desarrollo de la aplicación DoctorSV, presentada en noviembre de 2025. La herramienta digital forma parte del proceso de transformación tecnológica del Estado.
En el lanzamiento, Guy Nae, director de Google Cloud para el sector público en Latinoamérica, aseguró que la IA puede asistir a los médicos con una efectividad superior al 90 % en diagnósticos preliminares.
El proyecto se enmarca en la Ley para la Modernización Digital del Estado, aprobada en 2023. La normativa autoriza a instituciones públicas a contratar servicios y acuerdos individuales con Google por hasta 500 millones de dólares.
Visión estratégica del Gobierno
Stacy Herbert interpretó las declaraciones del CEO como un respaldo a la estrategia tecnológica del país. En su publicación, afirmó que El Salvador se posiciona como pionero en la implementación global de inteligencia artificial.
Además, señaló que el país apuesta por construir soluciones propias sin depender de tecnología obsoleta.
Con esta alianza, Google y El Salvador avanzan en la integración de inteligencia artificial en el sector salud. El objetivo es ampliar el acceso a servicios médicos y fortalecer la capacidad diagnóstica mediante herramientas digitales.
-
Sin categoríahace 4 díasRevista Derecho y Negocios entra en la recta final de “Los 45 de 45” y notifica a más del 50 % de seleccionados
-
Legalhace 4 díasÓrgano Judicial de El Salvador fortalece la transparencia con certificación internacional ISO 37001
-
Economíahace 5 díasProductos Alimenticios DIANA recibe certificación Invest y activa plan de inversión de $34 millones
-
Legalhace 5 díasCorte Suprema de Justicia juramenta a 125 abogados en febrero
-
Politicahace 5 díasComisión de Hacienda avala reforma que obligará a importadores a declarar que no usan trabajo infantil en mercancías
-
Economíahace 4 díasConstrucción en El Salvador proyecta inversión de hasta $4,000 millones en 2026 y crecimiento sostenido
-
Politicahace 4 díasAsamblea Legislativa deroga artículo 10 de la Ley de Bancos y elimina requisito del 51 % de acciones salvadoreñas
-
Tecnologíahace 4 díasEspecialistas advierten riesgos de seguridad y filtración de datos en conversaciones con chatbots de IA


