Por Robin Blades, 28 de octubre de 2021
La IA genera hipótesis en las que los científicos humanos no han pensado
Los vehículos eléctricos tienen el potencial de reducir sustancialmente las emisiones de carbono, pero las empresas de automóviles se están quedando sin materiales para fabricar baterías. Se prevé que un componente crucial, el níquel, provocará escasez de suministro a finales de este año.
Los científicos descubrieron recientemente cuatro materiales nuevos que podrían ayudar potencialmente, y lo que puede ser aún más intrigante es cómo encontraron estos materiales: los investigadores confiaron en la inteligencia artificial para seleccionar sustancias químicas útiles de una lista de más de 300 opciones.
Y no son los únicos humanos que recurren a la IA en busca de inspiración científica. La creación de hipótesis ha sido durante mucho tiempo un dominio puramente humano. Ahora, sin embargo, los científicos están comenzando a pedirle al aprendizaje automático que produzca conocimientos originales. Están diseñando redes neuronales (un tipo de configuración de aprendizaje automático con una estructura inspirada en el cerebro humano) que sugieren nuevas hipótesis basadas en patrones que las redes encuentran en los datos en lugar de depender de suposiciones humanas.
Muchos campos pueden recurrir pronto a la musa del aprendizaje automático en un intento por acelerar el proceso científico y reducir los sesgos humanos. En el caso de los nuevos materiales para baterías, los científicos que realizan estas tareas generalmente se han basado en herramientas de búsqueda de bases de datos, modelos y su propia intuición sobre los productos químicos para seleccionar compuestos útiles. En cambio, un equipo de la Universidad de Liverpool en Inglaterra utilizó el aprendizaje automático para agilizar el proceso creativo.
Los investigadores desarrollaron una red neuronal que clasificaba las combinaciones químicas según la probabilidad de que resultaran en un nuevo material útil. Luego, los científicos utilizaron estas clasificaciones para guiar sus experimentos en el laboratorio. Identificaron cuatro candidatos prometedores para materiales de batería sin tener que probar todo en su lista, lo que les ahorró meses de prueba y error. "Es una gran herramienta", dice Andrij Vasylenko, investigador asociado de la Universidad de Liverpool y coautor del estudio sobre la búsqueda de materiales para baterías, que se publicó en Nature Communications el mes pasado.
El proceso de IA ayuda a identificar las combinaciones químicas que vale la pena analizar, agrega, para que "podamos cubrir mucho más espacio químico con mayor rapidez".
El descubrimiento de nuevos materiales no es la única área en la que el aprendizaje automático podría contribuir a la ciencia. Los investigadores también están aplicando redes neuronales a cuestiones técnicas y teóricas más amplias. Renato Renner, físico del Instituto de Física Teórica de Zúrich, espera algún día utilizar el aprendizaje automático para desarrollar una teoría unificada de cómo funciona el universo.
Pero antes de que la IA pueda descubrir la verdadera naturaleza de la realidad, los investigadores deben abordar la cuestión notoriamente difícil de cómo las redes neuronales toman sus decisiones.
Entrar en la mente del aprendizaje automático
En los últimos 10 años, el aprendizaje automático se ha convertido en una herramienta extremadamente popular para clasificar big data y hacer predicciones. Sin embargo, explicar la base lógica de sus decisiones puede resultar muy difícil. Las redes neuronales se construyen a partir de nodos interconectados, modelados a partir de las neuronas del cerebro, con una estructura que cambia a medida que la información fluye a través de ella. Si bien este modelo adaptativo es capaz de resolver problemas complejos, a menudo también es imposible para los humanos decodificar la lógica involucrada.
Esta falta de transparencia ha sido apodada “el problema de la caja negra” porque nadie puede ver dentro de la red para explicar su proceso de “pensamiento”. Esta opacidad no solo socava la confianza en los resultados, sino que también limita cuánto pueden contribuir las redes neuronales a la comprensión científica del mundo por parte de los humanos. Algunos científicos están tratando de hacer que la caja negra sea transparente mediante el desarrollo de "técnicas de interpretabilidad “, que intentan ofrecer una explicación paso a paso de cómo una red llega a sus respuestas.
Puede que no sea posible obtener un alto nivel de detalle a partir de modelos complejos de aprendizaje automático. Pero los investigadores a menudo pueden identificar tendencias más importantes en la forma en que una red procesa los datos, lo que a veces conduce a descubrimientos sorprendentes, como quién tiene más probabilidades de desarrollar cáncer.
Hace varios años, Anant Madabhushi, profesor de ingeniería biomédica en la Universidad Case Western Reserve, utilizó técnicas de interpretación para comprender por qué algunos pacientes tienen más probabilidades que otros de tener una recurrencia del cáncer de mama o de próstata. Introdujo los escáneres de pacientes a una red neuronal, y la red identificó a aquellos con un mayor riesgo de recurrencia del cáncer. Luego, Madabhushi analizó la red para encontrar la característica más importante para determinar la probabilidad de que un paciente vuelva a desarrollar cáncer. Los resultados sugirieron que cuán apretadas están las estructuras interiores de las glándulas es el factor que predice con mayor precisión la probabilidad de que un cáncer regrese. "Esa no era una hipótesis. No lo sabíamos", dice Madabhushi. “Usamos una metodología para descubrir un atributo de la enfermedad que resultó ser importante”. Fue solo después de que la IA llegó a su conclusión que su equipo descubrió que el resultado también se alinea con la literatura científica actual sobre patología. La red neuronal aún no puede explicar por qué la densidad de la estructura de las glándulas contribuye al cáncer, pero ayudó a Madabhushi y sus colegas a comprender mejor cómo progresa el crecimiento tumoral, lo que lleva a nuevas direcciones para futuras investigaciones.
Cuando la IA golpea una pared
Aunque mirar dentro de la caja negra puede ayudar a los humanos a construir hipótesis científicas novedosas, "todavía tenemos un largo camino por recorrer", dice Soumik Sarkar, profesor asociado de ingeniería mecánica en la Universidad Estatal de Iowa. Las técnicas de interpretabilidad pueden insinuar correlaciones que surgen en el proceso de aprendizaje automático, pero no pueden probar la causalidad ni ofrecer explicaciones. Todavía dependen de los expertos en la materia para obtener el significado de la red.
Enlace
Medicina e Inteligencia Artificial: FUTURIBLES 2030