
Dr. José María Simón Castellví
José María Simón Castellví, miembro de la Sociedad Española de Oftalmología, académico correspondiente por premio de la Real Academia de Medicina de Cataluña, presidente de honor de la Federación Mundial de Sociedades Médicas Católicas (FIAMC) y académico numerario del Instituto Médico Farmacéutico de Cataluña y de la Real Academia Europea de Doctores (RAED), aborda los desafíos epistemológicos fundamentales de las herramientas basadas en la inteligencia artificial generativa, especialmente en su aplicación a ámbitos sensibles como la medicina y la religión, en el artículo «Un punto no resuelto en inteligencia artificial», publicado en los medios de la FIAMC.
Para el académico, uno de los problemas centrales de esta tecnología disruptiva es su incapacidad para distinguir de manera inherente entre hechos verificables y opiniones o creencias, dado que los sistemas se entrenan a partir de grandes conjuntos de datos que mezclan información empírica con interpretaciones subjetivas. En el ámbito médico, explica el autor, esta limitación puede conducir a sesgos o errores si un modelo procesa indistintamente datos clínicos objetivos, como resultados de pruebas, y notas subjetivas de profesionales, lo que puede afectar diagnósticos o recomendaciones de tratamiento cuando se confunde una inferencia clínica con un hecho biológico.
Por otra parte, en cualquier referencia religiosa, donde la inteligencia artificial debe confrontar nociones que no se ajustan a criterios científicos, como revelaciones o doctrinas de fe, no puede distinguir entre textos considerados canónicos y análisis teológicos secundarios. Eso implica que estas herramientas generen respuestas que fusionan doctrinas con interpretaciones especulativas sin respetar la jerarquía conceptual propia de estos ámbitos, ya que la inteligencia artificial opera como un sistema de correlación estadística de patrones, no como una inteligencia que comprenda contextos complejos o valores jerárquicos de conocimiento.
Para Simón Castellví, hoy por hoy solo la inteligencia humana integra comprensión consciente, emocional y juicio normativo, capacidades que la inteligencia artificial generativa actual no tiene la capacidad de desarrollar. El experto concluye en que, pese a los evidentes y constantes avances técnicos, la confianza en estas herramientas, especialmente en dominios que implican juicios éticos, médicos o religiosos, debe ir acompañada de supervisión humana. «Como conclusión, podemos afirmar que la confianza en la IA en los dominios de los que hablamos exige una continua supervisión humana que aporte el contexto, la sabiduría y el discernimiento moral y empírico para separar lo que es irrefutablemente cierto o altamente probable, de lo que es meramente una perspectiva o una creencia. Este es el límite de la razón algorítmica frente a la complejidad de la apasionante experiencia humana», finaliza el académico.