Estilo de vida, Medicina

¿Podemos confiar en los médicos con IA?

javier joaquin lopez casarin

El aprendizaje automático está tomando por asalto el diagnóstico médico. Desde enfermedades oculares, cáncer de mama y otros cánceres, hasta trastornos neurológicos más amorfos, la IA está igualando rutinariamente el desempeño del médico, si no lo supera por completo.

Sin embargo, ¿cuánto podemos tomar esos resultados al pie de la letra? Cuando se trata de decisiones de vida o muerte, ¿cuándo podemos confiar plenamente en algoritmos enigmáticos, “cajas negras” que ni siquiera sus creadores pueden explicar o comprender por completo? El problema se vuelve más complejo a medida que la IA médica atraviesa múltiples disciplinas y desarrolladores, incluidas potencias tanto académicas como de la industria como Google, Amazon o Apple, con incentivos dispares.

Un estudio explosivo de Google Health para la detección del cáncer de mama afirmó haber desarrollado un sistema de inteligencia artificial que superó ampliamente a los radiólogos en el diagnóstico de cáncer de mama y puede generalizarse a poblaciones más allá de las que se utilizan para el entrenamiento, una especie de santo grial que es increíblemente difícil debido a la falta de grandes conjuntos de datos de imágenes médicas. El estudio causó sensación en el panorama de los medios de comunicación y generó un gran revuelo en la esfera pública para la “mayoría de edad” de la IA médica.

El problema, argumentaron los académicos, es que el estudio carecía de suficientes descripciones del código y el modelo para que otros lo replicaran. En otras palabras, solo podemos confiar en el estudio en su palabra, algo que simplemente no se hace en la investigación científica. Google Health, a su vez, redactó una refutación cortés, matizada pero asertiva, argumentando su necesidad de proteger la información del paciente y evitar que la IA de ataques maliciosos.

Discursos académicos como estos forman la sede de la ciencia y pueden parecer increíblemente nerds y obsoletos, especialmente porque en lugar de canales en línea, las dos partes recurrieron a una discusión de papel y lápiz de siglos de antigüedad. Sin embargo, al hacerlo, elevaron un debate necesario a una amplia audiencia mundial, y cada lado lanzó golpes sólidos que, a su vez, podrían sentar las bases de un marco de confianza y transparencia en la IA médica, en beneficio de todos. Ahora, si tan solo pudieran rapear sus argumentos en la línea de las batallas del gabinete de Hamilton y Jefferson en Hamilton.

Es fácil ver de dónde provienen los argumentos académicos. La ciencia a menudo se pinta como un esfuerzo sagrado que encarna la objetividad y la verdad. Pero como cualquier disciplina tocada por la gente, es propensa a errores, diseños deficientes, sesgos no intencionales o, en cantidades muy pequeñas, manipulación consciente para sesgar los resultados. Debido a esto, al publicar los resultados, los científicos describen cuidadosamente su metodología para que otros puedan replicar los hallazgos. Si una conclusión, digamos una vacuna que protege contra Covid-19, ocurre en casi todos los laboratorios, independientemente del científico, el material o los sujetos, entonces tenemos pruebas más sólidas de que la vacuna realmente funciona. De lo contrario, significa que el estudio inicial puede estar equivocado, y los científicos pueden delinear por qué y seguir adelante. La replicación es fundamental para una evolución científica saludable.

Previous ArticleNext Article

Leave a Reply

Your email address will not be published. Required fields are marked *