En la era digital actual, la inteligencia artificial (IA) ha tomado un papel fundamental en la interacción diaria de millones de personas, tomando decisiones críticas de forma imperceptible para el usuario. La relación entre la ciberseguridad, la IA y la experiencia del usuario se ha convertido en un aspecto estratégico crucial para la confianza y lealtad de las marcas.
### Empresas consultadas
iProfesional consultó a ejecutivos de siete empresas argentinas para comprender mejor esta transformación:
– Baufest: Empresa internacional de desarrollo de productos digitales y servicios de software.
– Modo: Billetera digital de los principales bancos argentinos.
– LUC: Plataforma que utiliza IA para agilizar el análisis crediticio.
– Grupo San Cristóbal: Conglomerado asegurador y financiero.
– Supervielle: Entidad financiera privada con enfoque en la transformación digital.
– SIISA: Empresa especializada en servicios de información crediticia.
– Schneider Electric: Multinacional francesa con presencia local en tecnología eléctrica y automatización industrial.
### Transformación cultural
Según Esteban Gabriel, director de seguridad de la información de Modo, la tecnología ya no es solo un área de soporte, sino un acelerador estratégico que moldea productos, experiencias y decisiones comerciales. Esta transformación cultural redefine el papel de los equipos de ciberseguridad y experiencia del cliente.
### Métricas de confianza
El éxito de una herramienta digital ya no se mide solo en eficiencia, sino en la confianza sostenida que genera. Matías Szmulewiez, jefe de práctica de ciberseguridad en Baufest, propone tres ejes para medir esta confianza: la confianza explícita, la confianza implícita y el “tiempo hasta la confianza”.
La confianza explícita se refleja en el consentimiento de los usuarios para utilizar funciones impulsadas por IA, como asistentes y recomendaciones. La confianza implícita se observa en el comportamiento de los usuarios, prefiriendo canales asistidos por IA y reduciendo el abandono en procesos críticos.
El “tiempo hasta la confianza” mide cuántas interacciones necesita un usuario antes de elegir el canal automatizado por decisión propia. En Modo, la adopción masiva de la billetera digital por más de 7 millones de usuarios mensuales es un indicador de transacciones seguras y sin fricción, demostrando que la IA bien aplicada fortalece la confianza del cliente.
En conclusión, la integración estratégica de la inteligencia artificial en la ciberseguridad y la experiencia del usuario es fundamental para construir confianza y lealtad en las marcas en la era digital actual. La confianza sostenida se convierte en el nuevo termómetro de éxito, donde la eficiencia se combina con la satisfacción del usuario y la percepción de seguridad en momentos críticos.
Optimización de la confianza en la inteligencia artificial en el sector financiero
En el sector financiero, la confianza en la inteligencia artificial (IA) se ha convertido en un indicador clave de desempeño. Empresas como LUC, Supervielle, SIISA y Schneider Electric han implementado estrategias para fortalecer la confianza de los usuarios en sus sistemas automatizados.
LUC: Tasa de aciertos y transparencia
En LUC, la métrica principal es la tasa de aciertos de la IA en la lectura de balances y su conversión de PDF a datos estructurados. Pablo Castellano, cofundador y director de tecnología de LUC, destaca que los usuarios pueden revisar y corregir los resultados, lo que permite una lectura detallada de la precisión del sistema. Cuando la tasa de aciertos es alta, los usuarios confían más en el proceso automatizado, delegando tareas sin perder transparencia.
Supervielle: Satisfacción del cliente y derivación a humano
En Supervielle, se enfocan en dos métricas clave: el Top Two Box del CSAT en interacciones con IA y la tasa de derivación a humano. Agustín Carpaneto, jefe de IA de Supervielle, explica que un alto Top Two Box indica satisfacción genuina, mientras que una baja derivación a agentes humanos sugiere confianza en los modelos. Cualquier aumento en la derivación es una señal de posible fricción en el sistema automatizado.
SIISA: Experimentación con IA generativa
SIISA propone una lectura experimental de la confianza, comparando grupos que interactúan con IA generativa con aquellos que no lo hacen. Marina Mero, directora de marketing de SIISA, destaca que el enfoque no solo se centra en la eficiencia, sino en la capacidad de la IA para aumentar la lealtad y reducir el abandono en los procesos sensibles.
Schneider Electric: Señales operativas de confianza
En Schneider Electric, Noelia Miranda, directora de Secure Power APU, se enfoca en señales operativas de confianza, como la resolución en primer contacto, la satisfacción asociada a esa resolución y la disminución de incidentes sensibles. Cuando estas variables mejoran simultáneamente, la IA se convierte en un puente de confianza entre usuario y marca.
Blindar la inteligencia: seguridad desde el dato hasta el modelo
La ciberseguridad se vuelve fundamental en cualquier estrategia de IA. Baufest propone integrar la seguridad en toda la cadena de valor para evitar riesgos como el envenenamiento de datos o la fuga de información. Grupo San Cristóbal adopta un modelo de confianza cero aplicado a la IA, con estrictas medidas de seguridad y gobernanza de proveedores.
Supervielle implementa un marco de trabajo de gobierno de IA con guardrails inspirados en prácticas de seguridad para evitar amenazas como el envenenamiento de datos. SIISA propone una estrategia multicapa que incluye seguridad de datos, protección de API y robustez del modelo para mitigar riesgos.
En resumen, la confianza en la inteligencia artificial en el sector financiero se basa en métricas de satisfacción del cliente, transparencia en los procesos automatizados y robustas medidas de seguridad. La integración de la ciberseguridad en todas las etapas de la cadena de valor es esencial para garantizar la confianza de los usuarios en los sistemas automatizados.
En el mundo actual, la inteligencia artificial (IA) se ha convertido en una herramienta fundamental en diversas industrias. Sin embargo, su uso plantea desafíos en términos de seguridad, gobernanza, ética y transparencia. En este sentido, empresas como Schneider Electric, Baufest, Modo, Grupo San Cristóbal y SIISA están trabajando activamente para abordar estos desafíos y garantizar un uso responsable de la IA.
## Seguridad de la IA: protegiendo los modelos
Schneider Electric, por ejemplo, se enfoca en la seguridad de la IA desde la infraestructura física hacia arriba. La integridad energética, térmica y de red es parte del perímetro de protección del modelo. Cualquier desviación en ese “pipeline” puede convertirse en un vector de manipulación o extracción de información. Por ello, la compañía trabaja con trazabilidad estricta del flujo de datos, entornos de entrenamiento aislados y monitoreo predictivo de infraestructura crítica.
## Gobernanza, ética y transparencia: explicando las decisiones de la máquina
El avance regulatorio, desde GDPR y HIPAA hasta las leyes locales de protección de datos en América Latina, ha puesto en primer plano la importancia de la trazabilidad y la explicabilidad de las decisiones automatizadas. En Baufest, identifican tres desafíos centrales: visibilidad sobre qué datos usa la IA y con qué criterio decide, prevención de sesgos y capacidad de auditoría sobre inputs, outputs y versiones de los modelos.
Modo aborda la gobernanza con un enfoque en el que la IA debe ser parte integral de la forma de trabajar, pero sin perder de vista la mirada humana. Para ello, han creado un marco ético y un equipo de gobierno de IA que exige la participación de un especialista en el ciclo de toma de decisiones, especialmente en casos de alto impacto.
En Grupo San Cristóbal, se enfrentan a desafíos únicos con su despliegue de “Speech Analytics”. El principal desafío de gobernanza se vincula con la trazabilidad y la calidad del dato no estructurado. La introducción de sesgos puede derivar en decisiones injustas sobre agentes o clientes.
## Retos adicionales en la gobernanza de la IA
En SIISA, los desafíos de gobernanza y ética en IA aplicada al comportamiento del cliente tienen que ver con la privacidad, el sesgo algorítmico, la falta de transparencia y la concentración de poder en pocas plataformas. Para abordar estos desafíos, apuntan a marcos regulatorios, auditorías independientes, trazabilidad de modelos y técnicas de explicabilidad que eviten la “caja negra”.
En Schneider Electric, organizan su aproximación a la ética en tres ejes: calidad y representatividad del dataset, trazabilidad de decisiones y explicabilidad, y minimización y anonimización de datos sensibles. La revisión periódica de datasets, el monitoreo de métricas de sesgo y la posibilidad de reconstruir parámetros y versiones del modelo son condiciones necesarias para sostener la confianza en contextos donde las decisiones de la IA pueden afectar tanto al negocio como a la seguridad física de infraestructuras críticas.
En conclusión, la seguridad, gobernanza, ética y transparencia son aspectos fundamentales a considerar en el desarrollo y aplicación de la inteligencia artificial. Las empresas mencionadas están trabajando activamente para abordar estos desafíos y garantizar un uso responsable de la IA en beneficio de la sociedad y las organizaciones.
Experiencia del cliente y ciberseguridad: equilibrando velocidad y control
La convergencia entre la experiencia del cliente (CX) y la ciberseguridad plantea una tensión compleja en el mundo digital. Por un lado, existe la presión del front-end para ofrecer rapidez, personalización y cero fricción, mientras que, por otro lado, el back-end exige asegurar el control, el cumplimiento y la resiliencia.
Desafíos en la industria
En Baufest, se identificaron dos desafíos principales: equilibrar la velocidad e innovación con la seguridad, para que la protección no frene los lanzamientos, y mantener experiencias fluidas sin aumentar el riesgo, especialmente en procesos críticos como el onboarding, los pagos o la biometría.
La propuesta es “industrializar” los guardrails, es decir, crear componentes, API y patrones seguros desde el inicio, para que los equipos de CX puedan utilizarlos sin necesidad de solicitar permiso en cada ocasión. De esta manera, la ciberseguridad se convierte en un habilitador que proporciona velocidad sin perder el control, evitando que la inteligencia artificial se despliegue sin trazabilidad ni gobernanza.
Prácticas efectivas
En Grupo San Cristóbal, se enfrentan al desafío de ofrecer una experiencia ágil, simple y digital sin comprometer la seguridad de la información. Para lograrlo, integran la tecnología con supervisión humana y traducen los riesgos técnicos al impacto en la experiencia del cliente, priorizando iniciativas que mejoren tanto la seguridad como la confianza del cliente.
En Supervielle, la convergencia se refleja en la organización del trabajo, con equipos multidisciplinarios que combinan especialistas en IA, ciberseguridad, experiencia de usuario (UX) y negocio. Bajo el enfoque “security-by-design”, cada producto nace con conceptos de seguridad incorporados desde el diseño y la arquitectura, acelerando la adopción de nuevas tecnologías y convirtiendo la seguridad en un motor de innovación.
Estrategias efectivas
En LUC, se enfrentan al desafío de equilibrar front-ends más seguros con la velocidad y comodidad que exige la plataforma. Su estrategia se basa en aplicar controles “invisibles” al usuario, utilizando herramientas modernas que garanticen la seguridad sin añadir latencias perceptibles ni fricción innecesaria, con un enfoque especial en la privacidad de la información.
En Schneider Electric, la colaboración temprana entre CX y ciberseguridad permite mitigar conflictos antes de la producción, reduciendo la fricción sin sacrificar la protección. En SIISA, se destaca la importancia de equilibrar la personalización con la privacidad y la fluidez con controles fuertes, integrando la seguridad desde el diseño para acompañar el flujo de innovación.
Talento, IA y defensa adaptativa: hacia un modelo predictivo y autónomo
En un contexto donde la IA automatizará tareas repetitivas de ciberseguridad y parte de la toma de decisiones operativas, los equipos migrarán hacia funciones de mayor valor, como la investigación, el diseño de arquitecturas complejas y la respuesta a incidentes sofisticados.
Formación continua y adaptación
La formación continua se vuelve crítica, ya que el talento debe dominar tanto los fundamentos de ciberseguridad como los riesgos de la IA para poder innovar con criterio. En Supervielle, se proyecta un escenario donde los equipos enfrenten ciberataques sintéticos y se apoyen en soluciones agénticas para liberar tiempo y gestionar incidentes complejos.
La colaboración entre humanos y agentes digitales será clave en el futuro, permitiendo desarrollar agentes autónomos de seguridad y abrir un nuevo paradigma en la defensa adaptativa. La anticipación de amenazas emergentes y la construcción de una postura resiliente serán fundamentales en este escenario.
Conclusiones
La convergencia entre la experiencia del cliente y la ciberseguridad plantea desafíos y oportunidades para las organizaciones. Equilibrar la velocidad y la innovación con la seguridad, así como integrar la tecnología con la supervisión humana, son estrategias clave para garantizar experiencias fluidas y seguras para los clientes. La formación continua y la colaboración entre humanos y agentes digitales serán fundamentales para enfrentar los desafíos futuros en ciberseguridad.
La importancia de la inteligencia artificial en ciberseguridad
La ciberseguridad es un tema cada vez más relevante en el mundo actual, donde la tecnología avanza a pasos agigantados y las amenazas cibernéticas se vuelven cada vez más sofisticadas. En este contexto, la inteligencia artificial (IA) se ha convertido en una herramienta fundamental para proteger los sistemas y datos de las organizaciones.
Red teams automatizados y enfoque “AI First”
Los red teams automatizados, que buscan vulnerar la propia infraestructura para encontrar fallas antes que los atacantes, refuerzan la visión de una defensa proactiva en ciberseguridad. Empresas como Modo ya operan bajo un enfoque “AI First”, donde la inteligencia artificial es la primera opción para resolver cualquier desafío. Inversiones concretas en plataformas como Jarvis permiten compartir agentes personalizados entre equipos, mejorando la eficiencia, seguridad y gobernanza de datos.
Noelia Miranda, de SIISA, advierte sobre la evolución de las amenazas y defensas en ciberseguridad, donde surgirán nuevos problemas como el phishing hiper personalizado o el malware polimórfico. La IA obligará a los equipos de seguridad a pasar de un rol reactivo a uno proactivo y autónomo, con inversiones prioritarias en automatización inteligente, detección en tiempo real, formación en inteligencia artificial y colaboración multidisciplinaria.
Especialistas en entornos híbridos OT/IT y roles predictivos
En empresas como Schneider Electric se proyecta una creciente demanda de especialistas en entornos híbridos OT/IT, donde la IA llevará a los equipos hacia roles más predictivos. Estos especialistas serán capaces de anticipar fallas combinando datos energéticos, térmicos, de red y patrones de comportamiento, mientras automatizan tareas rutinarias. Las inversiones críticas estarán en gobernanza de datos, comprensión profunda de modelos y seguridad aplicada a infraestructura crítica, con un fuerte componente ético.
Conclusión
En resumen, la inteligencia artificial está transformando la ciberseguridad, permitiendo a las organizaciones ser más proactivas y autónomas en la protección de sus sistemas y datos. La IA no reemplaza a los equipos de ciberseguridad ni a los diseñadores de experiencia de usuario, sino que los redefine, cambiando las tareas que realizan, las habilidades que necesitan y la forma en que se organiza el trabajo entre humanos y agentes digitales. En este nuevo ecosistema, la confianza se convierte en el centro de la estrategia de ciberseguridad.
