lunes, 11 diciembre 2023

¿Poder curar el cáncer desde la pantalla de tu ordenador?

Al azar

Javier García Játiva »

Sí, has leído bien. ¿Te imaginas lo que sería estar en el ordenador mientras miras el correo o le echas un vistazo a Twitter, y a la vez, encontrar la cura del cáncer o incluso de enfermedades a día de hoy sin cura conocida como es el Alzheimer?

La verdad es que es algo demasiado pretencioso y difícil de imaginar, pero no está muy lejos de la realidad. Con solo descargar un cliente podrías estar contribuyendo más de lo que uno cree y sin costar nada.

Por si después de estas líneas, todavía no sabes de qué te estoy hablando, hablo de la computación científica, una herramienta con la que todos los que se dedican a esto de las ciencias (y los que nos dedicaremos en un futuro) vamos a empezar a estar cada vez más acostumbrados.

¿No te gustaría poder ayudarle a tener una vejez más digna? ¿Quién sabe? Incluso podrías ser tú.

Como es sabido, la ciencia siempre se ha basado en el empirismo para corroborar sus hipótesis, aun cuando teóricamente algunos sucesos se hubieran predicho sin pruebas experimentales posteriores, ¿pero qué sucede cuando queremos investigar por ejemplo un fármaco que sea eficaz contra el cáncer como hemos dicho anteriormente? La única solución posible sería intentar pensar en nuevas fórmulas químicas y probarlas una a una, siendo un gasto económico y de tiempo inmenso, y de además poca seguridad para encontrar una adecuada solución. Serían unos pocos fármacos en un gran paso del tiempo, haciéndolo poco rentable y eficaz.

Pero, ¿qué pasaría si fuéramos capaces de cotejar miles de compuestos con el cáncer para encontrar el más eficaz y una posible solución? Pues de eso se trata la computación científica, en este caso la química computacional, del desarrollo de programas que, con fórmulas y resultados de la ciencia teórica y/o experimental, puedan simular y calcular miles de posibilidades, aumentando la eficacia y optimizando el tiempo de las pruebas experimentales, evitando experimentos innecesarios.

Por lo tanto, es un gran método de predicción de sucesos y de comportamientos de sistemas aplicable a incontables ámbitos, desde la química hasta la meteorología, pasando por la física, medicina… (la lista de los ámbitos se encuentra en la bibliografía marcada).

Colaboración de ciencia teórica, computacional y experimental.

Los principales problemas de este tipo de investigación residen en que, por un lado, no son perfectos y debido a la gran dificultad (prácticamente imposible) para calcular exactamente cada proceso (muchas aproximaciones que se necesitan dar como exactas) no siempre se ajustan totalmente a la realidad ni presentan los efectos esperados; y por otro lado, se necesita un enorme de poder de computación para realizar todos esos cálculos necesarios para esa simulación.

El primero es un mal “menor” ya que con la química teórica básica sería imposible conseguir los resultados tan precisos que se han llegado a conseguir con la computacional. Además uno de sus objetivos es reducir el margen de error al mínimo y poder realizar cálculos que antes no se podía a un coste computacional mucho más asequible (manualmente la ecuación de Schrödinger solo se puede calcular de forma precisa en átomos de un solo electrón, mientras que con el uso de estos programas se puede calcular de forma precisa en átomos de hasta diez electrones; de más electrones se considera que se calcula de forma aproximada, mientras que para muchos más electrones se consideran datos semiempíricos).

Debido al inmenso poder de computación necesario, para el segundo problema se utilizan los llamados superordenadores, los cuáles son ordenadores muy costosos pero que tienen una potencia de cálculo muy elevada (son llamados ordenadores de alto desempeño, de alto rendimiento y alta eficacia) y que se utilizan en muchas investigaciones de todo el mundo. Por ejemplo, el superordenador más potente actual es el Tianhe-2 chino que tiene un rendimiento de 33.86 petaFLOPS (operaciones de coma flotante por segundo que sirven como medida de rendimiento de cálculos procesados por ordenador, un ordenador actual normal tiene un rendimiento de gigaFLOPS, un millón de veces más lento que el superordenador más rápido); el europeo, el suizo Piz Daint con 6.27 petaFLOPS; y el español, el MareNostrum III con 1.1 petaFLOPS, el cual fue actualizado el mes pasado y se encuentra en Barcelona (la lista de los superordenadores se encuentra en la bibliografía marcada).

Como es un recurso demasiado caro y no demasiado accesible, otra de las soluciones es el uso de la computación distribuida. Cómo su nombre indica, se basa en la distribución en paralelo de los cálculos por varios ordenadores que realizan cada cálculo independientemente, y juntan los resultados al finalizar.

Pueden utilizarse muchos métodos como por ejemplo un clúster (grupo de ordenadores de bajo coste independientes unidos de área local) o ir escalando en número de ordenadores utilizados. Un ejemplo de un clúster sería INTERNET, que en su día (Proyecto ARPANET) fue solo un grupo de ordenadores de área local, y que poco a poco ha ido escalando y se ha convertido en lo que hoy en día conocemos como un masivo grupo de ordenadores a escala global.

Gracias a esto, se ha desarrollado durante estos últimos 20 años una plataforma llamada BOINC (Berkeley Open Infrastructure for Network Computing) de código libre y que en principio se usó para un programa en búsqueda de vida extraterrestre (SETI@home) pero que actualmente se usa en los ámbitos anteriormente mencionados. Se basa en “conseguir una capacidad de computación enorme utilizando computadores personales voluntarios alrededor del mundo” (promedio de procesamiento de 5.549 petaFLOPS a marzo de 2011).

Es aquí donde entramos en acción la población en general. Descargando el cliente de BOINC podemos inscribirnos en cualquier proyecto que esté metido dentro de la plataforma y colaborar con él, poniendo parte de nuestro procesador que no se usa a servicio del cliente (computación de ciclos redundantes).

Cliente del primer proyecto (SETI@Home) para el que se formó la plataforma BOINC.

Cada ámbito tiene su propio software programado con sus propias constantes y variables. En el caso de la química computacional, todo está basado en el trabajo de tres hombres: Martin Karplus (Austria 1930), Michael Levitt (Sudáfrica 1947) y Arieh Warshel (Israel 1940) que en la década de los 70 “sentaron las bases de los potentes programas que se utilizan para comprender y predecir los procesos químicos”, destacando además que “los modelos de ordenador que imitan la vida real son cruciales para la mayoría de los avances de la química actual”.

Fotografía de Martin Karplus, Michael Levitt y Arieh Warshel, ganadores del Premio Nobel de Química 2013 por su labor a la Química Computacional.

Esas son las palabras que dedicó la Real Academia Sueca de Ciencias, al darles el premio Nobel de Químico en 2013 por su labor a la Química Computacional. Según las palabras del experto español Fernando Martín (profesor de la Universidad Autónoma de Madrid, estos programas se ha convertido en “herramientas que permiten predecir la realidad, si una reacción va a ocurrir o no… incluso se utilizan para inventar materiales, o fármacos con propiedades nuevas” .

Simulación por ordenador de la resistencia a los fármacos del virus del VIH.

El mérito de estos hombres fue lograr el funcionamiento conjunto de la física cuántica y de la física clásica, convirtiéndose en una forma muy precisa de conseguir resultados de sistemas muy pequeños, y una forma con poco margen de error en sistemas macroscópicos.

Gracias a estos programas, es posible observar las reacciones químicas en fracciones de milisegundo, con cada pequeño salto con una calidad y detalle impensable; algo realmente imposible mediante la observación experimental normal, y todo con un costo computacional moderado.

Es posible la modelización completa del virus del VIH, la representación del plegamiento de proteínas, o el modelado de una zona anatómica corporal para investigar, entre otras muchas cosas.

Como por ejemplo, el propio superordenador español MareNostrum III está involucrado en un macroproyecto europeo llamado Human Brain Project, que busca conocer todo el cerebro mediante 6 plataformas de investigación durante 10 años. Estas plataformas son:

  • Plataforma Neuroinformática para recabar información de neurocientíficos, estando a disposición de la comunidad científica.
  • Plataforma de Simulación del Cerebro para identificar datos que faltan con experimentos in silico (en el ordenador).
  • Plataforma Computación de Alto Rendimiento para el modelado y simulación de datos.
  • Plataforma Informática Médica para proporcionar datos clínicos de todo el mundo para los investigadores.
  • Plataforma Neuromórfica para testear los descubrimientos.
  • Plataforma Neurorobótica para experimentar con robots virtuales controlados por modelos cerebrales desarrollados en el propio proyecto.
Fotografía del superordenador MareNostrum en el año 2009.
El objetivo del Human Brain Project consiste en descubrir todo lo posible sobre la estructura y funcionamiento del cerebro que aún está por conocer.

Otro ejemplo, aunque esta vez de computación distribuida mediante ordenadores voluntarios (aunque todavía no usa la plataforma BOINC) es el proyecto llamado Folding@home, actualmente el mayor proyecto de este estilo del mundo galardonado con el premio Guiness.

Fue lanzado en octubre del 2000 por la Universidad de Stanford para realizar simulaciones de plegamiento proteico relevantes en enfermedades y otros procesos moleculares. Busca la estructura final de la proteína y todo su recorrido, incluso, utilizando solo la secuencia de aminoácidos inicial.

Esto es algo muy útil para la búsqueda de curas para enfermedades como el Alzheimer, la Fibrosis Quística, la enfermedad de las vacas locas (encefalopatía espongiforme bovina) o incluso el cáncer. Se ha logrado simular el plegamiento en un rango de 2-10 microsegundos y sus conclusiones han sido usadas en muchos artículos de investigación, y replicadas en experimentos obteniendo en muchos casos unos resultados muy esperanzadores. Todo esto con tan solo descargar un cliente de su página web oficial.

Cliente de Folding@home en una PS3 mostrando el plegamiento de proteínas correspondiente a la unidad de trabajo personal.

Esto puede poner fin, o al menos freno, a varias de las enfermedades qué más difíciles eran de atacar y de las que había poco conocimiento, y todo gracias a la ayuda de gente desinteresada que con un pequeño granito de arena, han ido colaborando y ayudando a que ese día este cada vez más cerca.

Y ahora dime, ¿te imaginas poder curar el cáncer solo desde la pantalla de tu ordenador?


Bibliografía

Páginas de Wikipedia:

  • Química computacional
  • Proyecto cerebro humano
  • Folding@home
  • Supercomputadora
  • Distributed computing
  • Computación distribuida
  • Computación científica
  • Cluster de computadores
  • BOINC
  • Tianhe-2
  • FLOPS
  • Proyectos que usan BOINC
  • TOP500

Las imágenes se han tomado de caos.uab.es, http://www.segundarealidad.com, actualidad.orange.es, http://www.rpp.com.pe, http://www.iterfan.org, http://www.wastedtalent.com.ar

Relacionados

Dejar un comentario

Suscripción a Triplenlace

Últimos artículos