Innovación con integridad: Luzán 5 implementa un código ético en el uso de la inteligencia artificial

12.07.2023 01:07 PM By Cris

Nuestra apuesta por  . Prueba de ello es que en los últimos meses hemos desarrollado varias iniciativas relacionadas con la inteligencia artificial (IA), entre ellas, el curso IA para profesionales sanitarios: herramientas prácticas para el día a día  . En una encuesta que realizamos recientemente entre más de 700 especialistas, el 85% manifestó tener interés en formarse en esta herramienta para poder utilizarla en su práctica diaria.

En este mismo sondeo, los profesionales revelaron que realizarían tareas de carácter no asistencial como buscar y leer información científica, escribir artículos, hacer presentaciones, difundir contenidos en redes sociales y crear documentos para otros médicos o pacientes son con ayuda de inteligencia artificial.

En este contexto, también hemos desarrollado guIA, una aplicación de inteligencia artificial conversacional, basada en la red neuronal de Chat GPT, creada para facilitar la consulta de guías de práctica clínica. “GuIA funciona haciendo uso de las técnicas de aprendizaje automático (deep learning) para interactuar con los usuarios de forma fluida, natural y cercana; en un entorno seguro y controlado”, explica Víctor González, director de nuestra Unidad de Tech&Data y responsable del proyecto.

Sin embargo, somos conscientes de que todo desarrollo tecnológico debe implementarse desde el rigor y la seguridad, especialmente en un ámbito como el de la salud en el que se maneja información sensible.

“Queremos estar a la vanguardia, pero no podemos olvidar que trabajamos en un sector en el que prima el rigor científico”, subraya nuestro CEO, Antonio Franco. “Por este motivo, hemos creído conveniente redactar un decálogo ético que guiará el desarrollo de nuestros proyectos. Y es que muchos ven en la IA una oportunidad, pero otros se fijan más en los riesgos y sesgos que pueden presentar este tipo de herramientas”.

Tal y como explica Antonio Franco, “con este código ético dejamos claro, tanto a clientes como a profesionales sanitarios, nuestro compromiso con el uso responsable y transparente de la IA, mostrando ese esfuerzo por garantizar en todo momento que nuestras soluciones tengan una base científica y respeten la privacidad y los derechos de los usuarios”. 

Los 10 puntos que configuran nuestro decálogo sobre el uso responsable de la inteligencia artificial son los siguientes:

1.Validación de los algoritmos: Es esencial que los algoritmos utilizados en la inteligencia artificial estén validados de manera rigurosa y hayan sido sometidos a pruebas clínicas rigurosas para demostrar su eficacia y seguridad en entornos clínicos reales.

2. Transparencia y explicabilidad: Los médicos necesitan entender cómo funcionan los algoritmos de inteligencia artificial y cómo se llegan a las conclusiones que se proporcionan, para poder evaluar la fiabilidad y relevancia de los resultados.

3. Interoperabilidad: La capacidad de los sistemas de inteligencia artificial para interoperar con los sistemas de información de los pacientes y los sistemas de registro clínico es fundamental para garantizar que la información generada por la IA pueda integrarse adecuadamente en la toma de decisiones clínicas.

4. Protección de datos: La privacidad y la protección de los datos del paciente son críticos para garantizar que los sistemas de IA se utilicen de manera ética y segura.

5. Desarrollo conjunto: La colaboración entre médicos y desarrolladores de inteligencia artificial es fundamental para garantizar que los algoritmos y sistemas se desarrollen de acuerdo con las necesidades y requisitos de la práctica clínica real.

6. Validación de datos: La calidad y validez de los datos utilizados para entrenar y validar los algoritmos son fundamentales para garantizar la precisión y fiabilidad de los resultados generados por la IA.

7. Evaluación continua: Los algoritmos y sistemas de IA deben ser evaluados de manera continua para garantizar que sigan siendo precisos y relevantes a medida que cambian las condiciones y los datos de entrada.

8. Accesibilidad: Los sistemas de inteligencia artificial deben ser accesibles y fáciles de usar para los médicos, independientemente de su nivel de habilidad técnica.

9. Mejora continua: La mejora continua de los sistemas de IA debe ser una prioridad, y los desarrolladores deben estar dispuestos a incorporar retroalimentación y comentarios de los médicos para mejorar la eficacia y relevancia de los sistemas.

10. Complementariedad: La inteligencia artificial debe ser vista como una herramienta complementaria para la práctica clínica, no como un sustituto de la experiencia y el juicio clínico de los médicos. Los médicos deben ser los responsables finales de tomar decisiones clínicas basadas en la información proporcionada por los pacientes.

En resumen, en Luzán 5 entendemos que la implementación de tecnologías como la inteligencia artificial en el ámbito de la salud requiere un enfoque cuidadoso y responsable. Si bien valoramos las oportunidades que ofrece la IA, también somos conscientes de los posibles riesgos y sesgos asociados. Este código ético refuerza nuestro compromiso con el uso responsable y transparente de la IA, asegurando que nuestras soluciones se basen en la rigurosidad científica y respeten la privacidad y los derechos de los usuarios. Estamos comprometidos en seguir avanzando en la innovación tecnológica de la mano de los valores éticos que rigen nuestra empresa, en beneficio de la salud y el bienestar de las personas.

 

Cris