POR:Hugo Arce Barrueta|ILUSTRACIÓN:Oldemar
Las nuevas tecnologías pueden crear modelos predictivos para un futuro más limpio.

Supercómputo y big data son términos que nacieron casi al mismo tiempo, mientras se desarrollaban las computadoras personales y se comenzaban a recabar datos de manera digital. Las primeras supercomputadoras nacieron en los años 70, diseñadas por el ingeniero y matemático estadounidense Seymour Cray. El modelo Cray-1 fue instalado en el Laboratorio Nacional de Los Álamos en 1976, y tenía 3 GB de memoria, que, en aquella época, era todo un mundo de almacenamiento. Hoy, un smartphone de gama media tiene 16 GB de memoria, y modelos como el iPhone 7 Plus llegan a los 256 GB.

La máquina Cray se utilizó para ganar las primeras competencias mundiales de ajedrez en los años 80. Después llegó la famosa supercomputadora Deep Blue, que podía analizar 200 millones de jugadas por segundo, y que le ganó un partido de ajedrez a Garri Kasparov en 1997, cuando aquél era el mejor jugador (humano) del planeta.

La Dirección General de Cómputo y de Tecnologías de Información y Comunicación (DGTIC) de la UNAM define al supercómputo como varias computadoras unidas para trabajar en conjunto. Este alto nivel de procesamiento les permite ser miles de veces más poderosas que una computadora común, por lo que se utilizan para realizar millones de cálculos aplicados a la ciencia, como mecánica cuántica, operaciones matemáticas complejas, estudio del universo, simulación de desastres naturales y (algo que es esencial para el campo de las energías renovables) integración, análisis y predicción de volúmenes extraordinarios de información meteorológica o ayuda en la creación de nuevos materiales y tecnologías para la producción de energía eléctrica mediante fuentes limpias.

La potencia de procesamiento

Para tener una forma de medir el poder de procesamiento de las supercomputadoras se usan los Floating Point Operations per Second (FLOPS, Operaciones de Punto Flotante por Segundo), una unidad que determina el número de operaciones científicas por segundo que son capaces de desarrollar esos equipos.

Para darnos una idea de estas cantidades gigantescas, los smartphones actuales tienen procesadores que pueden realizar tareas a una velocidad de Gigaflops (1 Gigaflops es igual a 1,000 millones de operaciones por segundo). La supercomputadora Deep Blue de los años 90 tenía un poder de 11.38 Gigaflops, pero hoy un smartphone modelo Galaxy S5 cuenta con 142 Gigaflops.

En México, instituciones como la UNAM, laUAM y el Cinvestav cuentan con supercomputadoras con poderes de procesamiento en Teraflops (1 Teraflop es un billón de operaciones por segundo). El modelo ABACUS, del Cinvestav, es la de mayor potencia en México, con 400 Teraflops, y actualmente trabaja en el análisis masivo de datos para la obtención de patrones; modelado del cerebro humano en 3D; desarrollo de nuevos fármacos; simulación de terremotos, inundaciones y tsunamis; diseño de aeronaves, y estudio de procesos subatómicos, astrofísicos y cosmológicos; entre muchos otros proyectos.

Sin embargo, ya existen otros aparatos capaces de correr a una velocidad de Petaflops (1 Petaflops son 1,000 billones de operaciones por segundo). En este año, se dio a conocer que Japón está construyendo la supercomputadora más poderosa del mundo, llamada AI Bridging Cloud Infrastructure (ABCI), que ofrece un rendimiento de 130 Petaflops por segundo. Se desarrolla en el Instituto Nacional de Ciencias y Tecnologías Industriales Avanzadas de Japón y los investigadores afirman que una computadora personal común tardaría 3,000 años en realizar el número de operaciones que ABCI ejecuta tan sólo en un día. Esta máquina servirá para la construcción de motores aeronáuticos, diseñar medicinas y proyectar sistemas de alerta de tsunamis con una alta precisión.

El valor de los datos en las energías limpias

Ahora bien, un aspecto fundamental en las supercomputadoras son los datos. Los grandes volúmenes de datos pueden ayudar a esas súper máquinas a desarrollar grandes proyectos. “Al manejo de una gran cantidad de volúmenes de información se le llama big data”, explica en entrevista el doctor Gustavo Arroyo Figueroa, gerente de TI del Instituto Nacional de Electricidad y Energías Limpias (INEEL). El doctor Arroyo dice que, para hablar estrictamente de este concepto, se deben cumplir con las tres “V”: volumen de datos (estamos hablando de Terabytes de datos), variabilidad (datos estructurados, semi-estructurados y no estructurados) y velocidad (adquirir datos con diferente granularidad de tiempo). Y agrega que, en el ámbito del sector de la energía, se incorpora la veracidad (los datos deben ser correctos y aportar valor). El uso del big data, a través de las supercomputadoras, puede aportar grandes avances en cualquier campo, incluyendo el de las energías renovables.

“Indudablemente, el uso de estas tecnologías es de gran beneficio en la toma de decisiones estratégicas en las energías renovables. La generación de electricidad a partir de fuentes limpias produce grandes volúmenes de datos, los cuales deben ser procesados para crear información de gran valor para la toma de decisiones, tanto de investigadores como de empresarios y funcionarios públicos. Para el caso de la supercomputación, se estima que es necesario desarrollar grandes modelos que permitan el pronóstico, con cierto periodo de tiempo, de la generación de energías renovables para reducir la incertidumbre y apoyar su integración al mercado eléctrico”, señala el directivo del INEEL.

En una encuesta de la empresa Big Data México, se encontró que 92% de los empresarios mexicanos asegura que big data los llevará a tomar mejores decisiones y el 69% cree que este concepto será un factor clave en la determinación de los ganadores y los perdedores en su industria. Además, de acuerdo con la curva de adopción de tecnologías en México de la consultora Gartner, el big data se encuentra en la etapa de consolidación; y en el resto del mundo las tendencias son similares.

Arroyo Figueroa, quien es también doctor en Ciencias Computacionales, con especialidad en Inteligencia Artificial, por el Tecnológico de Monterrey, afirma que el big data debe ser impulsado por el uso de analíticas empresariales, las cuales son de tres tipos: descriptivas, que procesan los datos y los muestran de una manera útil para el tomador de decisiones; predictivas, que procesan los datos para hacer un diagnóstico, predicción o pronóstico de eventos o escenarios de acuerdo con las condiciones actuales; y prescriptivas, pues no sólo nos dicen el estado actual y la predicción de escenarios posibles, sino que indican cuál es el escenario óptimo y cuáles son las acciones a tomar basadas en el contexto, para alcanzarlo. A este conjunto de analíticas se le denomina big data analytics.

“El big data analytics y la supercomputación serán vitales para la adecuada y oportuna integración de las energías renovables al mercado eléctrico mayorista. Ambos conceptos son relevantes también para el diseño de granjas eólicas y parques solares”.

Los proyectos en progreso

El uso del big data puede crear modelos para predecir y planear el diseño de sistemas de energías renovables, al determinar la intensidad solar o la velocidad del viento en determinada región. Un ejemplo de esto es la herramienta Global Atlas 3.0, desarrollada por la International Renewable Energy Agency (Irena). Se trata de mapas de todo el mundo que pueden consultarse en internet de manera gratuita y que exponen datos sobre la cantidad de radiación solar, velocidad del viento, cantidad de energía geotérmica de una zona o producción de biomasa de cualquier parte del planeta.

Conoce el potencial de energía solar que tiene tu ciudad… Leer más.

Los datos se obtuvieron en centros de investigación, empresas privadas, bancos de desarrollo y gobiernos de todo el mundo. Y tiene la virtud de alimentarse todos los días. “La nueva actualización del Global Atlas, realizada este año, trae grandes mejoras para los desarrolladores, analistas de mercado, planificadores de energía y responsables de la formulación de políticas. Esto conducirá a más proyectos de energía renovable y nuevos mercados para las inversiones en estas fuentes”, dijo, en un comunicado, Henning Wuester, director del Centro de Conocimiento, Políticas y Finanzas, de Irena.

En 2016, el doctor Miguel Robles Pérez, investigador del Instituto de Energías Renovables (IER), de la UNAM, dijo a Proyecto FSE que, con esta enorme base de datos, se podría saber qué poblaciones del mundo tienen planeado invertir en energía solar este año, en cuáles funcionan mejor las granjas eólicas, qué nuevas tecnologías se están desarrollando en Europa o América Latina o qué tipo de energía renovable buscan más las personas en internet; es decir, se tendría una visión panorámica de lo que sucede en el mundo en tiempo real y de las demandas o necesidades de usuarios, poblaciones y países.

El big data y el supercómputo son la mancuerna perfecta para esto. Por ejemplo, científicos del Centro de Computación Avanzada de Texas (TACC, por sus siglas en inglés) utilizaron una supercomputadora para simular la formación de la primera galaxia. Imaginemos lo que podría crear para el campo de las energías renovables.

Un gran paso para lo anterior se está dando en México: en 2015 nuestro país firmó la iniciativa Misión Innovación, en la que participan 22 naciones con el fin de acelerar el desarrollo de tecnologías al servicio de las energías limpias. México participa como líder del reto encargado de crear nuevos materiales de alto rendimiento para el sector de fuentes renovables.

El doctor Carlos Amador, profesor e investigador de la UNAM y uno de los líderes del reto en materiales de Misión Innovación, dijo a Proyecto FSE, en febrero de 2017, que uno de los objetivos es acelerar la obtención de moléculas útiles para crear nuevos materiales, pero que el espacio químico es muy grande como para encontrar fácilmente moléculas útiles. Un equipo de científicos tardaría 10 años en encontrar, sintetizar y probar una nueva molécula. Sin embargo, gracias al uso del supercómputo y big data, el trabajo se podría reducir de 10 años a un año o, incluso, más que eso.

Los alcances futuros

El doctor Gilberto Lorenzo Martínez Luna, profesor investigador del Centro de Investigación en Computación (CIC), del IPN, indica en entrevista que, aproximadamente en 10 años, el uso de supercomputadoras y big data serán más de uso común entre empresas y dependencias gubernamentales que ayuden a resolver incluso problemas sociales: “Por ejemplo, las Secretarías de Seguridad Pública y los organismos de protección civil harán uso del big data para disminuir la delincuencia en las ciudades mediante la información que cada segundo o minuto generen cámaras de vigilancia, sensores de seguridad, celulares de los ciudadanos, mensajes en redes sociales, llamadas al 911, etcétera, de tal manera que la policía pueda actuar más rápido o se pueda prestar auxilio de una manera más eficiente”.

Llega “Aristóteles” para gestionar granjas solares y eólicas… Leer más

El mismo modelo anterior se utilizaría en prácticamente todos los sectores. El doctor Gustavo Arroyo, del INEEL comenta que se espera que, para el año 2027, una supercomputadora ayudará en el procesamiento de escenarios eléctricos: “Gracias al poder del supercómputo y el big data, esos sistemas podrán realizar la planeación de un nuevo sistema eléctrico nacional, quitando todas las barreras y las restricciones que los megaproyectos conllevan, para hacerlos en menor tiempo y con datos de gran valor, que nos ayudarán a tomar mejores decisiones”.

Señala que el sector de las energías renovables tiene alto potencial para usar el big data analytics, ya que todo el tiempo se genera información meteorológica, se registra la velocidad del viento, lo que produce un aerogenerador o una celda solar en un día o un año. “Las nuevas tecnologías nos ayudarán a predecir cuánta producción generará una granja eólica o solar en un mes o un año, y su viabilidad para conectarla a la red eléctrica federal en determinadas zonas sin que exista inestabilidad ni pérdida de costos y energía”.

Tanto el académico del IPN como el directivo del INEEL coinciden en que, si en 10 años una empresa, una industria o un gobierno no cuentan con soluciones de supercómputo y big data, no podrán hacer buen uso de su información y, por tanto, se tomarán malas decisiones.

No Hay Más Artículos