Minuto a Minuto

Nacional Ramírez Cuevas, crimen sin castigo (II)
            La historia de Jesús Ramírez Cuevas no puede leerse solo desde López Obrador, la intriga y la perversión, sino, ahora, desde la corrupción política, según la denuncia de Julio Scherer, el más poderoso consejero jurídico presidencial, en el libro de Jorge Fernández Menéndez, Ni Venganza ni Perdón
Internacional El Super Bowl LX promedia 124.9 millones de espectadores en EE.UU., menos que en 2025
Super Bowl LX fue el segundo más visto de la historia en Estados Unidos, detrás del récord absoluto de 127.7 millones de espectadores
Entretenimiento Bad Bunny “resignificó” el ‘God Bless América’ para México ante el “odio” de Trump
Expertos señalaron que Bad Bunny logró, con un “baile inolvidable”, conectar con heridas sociales como el racismo y el colonialismo
Internacional El bloqueo del puente Gordie Howe favorecería a un multimillonario vinculado con Trump
La apertura del puente Gordie restará el 70 % del tráfico del puente Ambassador, propiedad de un multimillonario vinculado con Trump
Nacional Constructores piden aumentar inversiones para aprovechar nuevo ciclo industrial
México necesita más inversión en infraestructura y desarrollo para fortalecer su posición en Norteamérica, señalaron constructores industriales
Crean manual sobre IA para su uso con transparencia en salud, finanzas o temas legales
Archivo. EFE/EPA/Robert Ghement

Un equipo internacional elaboró un manual sobre inteligencia artificial (IA) diseñado para mejorar la transparencia y la confianza en esta tecnología disruptiva, especialmente cuando se aplica a campos como la salud, las finanzas y el ámbito legal.

Este recurso, que coordinó la Universidad española de Granada (UGR), ofrece una forma de verificar y certificar los resultados de modelos complejos y contribuye al desarrollo de sistemas de IA que no solo sean efectivos, sino también comprensibles y justos.

En los últimos años, el uso de sistemas automáticos de apoyo a la toma de decisiones, como las Redes Neuronales Profundas (DNNs), ha crecido de manera significativa por su capacidad de predicción, pero su naturaleza opaca dificulta la interpretación detallada de su comportamiento y plantea riesgos éticos y de legitimidad.

Para abordar esta problemática, un equipo coordinado por la UGR presentó un manual exhaustivo de técnicas de inteligencia artificial explicable (XAI).

Este recurso pretende convertirse en una guía esencial para profesionales de la informática que busquen comprender y explicar los resultados de modelos de Machine Learning.

Cada capítulo describe técnicas de IA aplicables en situaciones cotidianas, con ejemplos y cuadernos de trabajo, además de un manual de ayuda a los usuarios para conocer los requisitos necesarios para cada técnica y los beneficios de esta tecnología.

La directora de esta guía es la profesora del Departamento de Ciencias de la Computación e Inteligencia Artificial de la UGR Natalia Díaz Rodríguez, y una de las integrantes del Instituto Andaluz Interuniversitario en Ciencia de Datos e Inteligencia Computacional (Instituto DaSCI).

“Es importante que seamos conscientes de las capacidades y limitaciones, tanto de los modelos avanzados de IA como de las técnicas de explicabilidad que tratan de argumentar y validar. En ocasiones, las explicaciones no son satisfactorias o fácilmente validables”, dijo Díaz.

El trabajo fue realizado durante la estancia de la profesora Díaz en el Instituto Politécnico de París y es una colaboración internacional con expertos del Reino Unido, Francia y Austria, entre otros países.

Con información de EFE