Representación artística de la escala del cerebro humano es el objetivo de una nueva supercomputadora. Crédito de la imagen: CoolWallpapers / Wallhere
Investigadores australianos predicen que una supercomputadora, que comenzará a funcionar en abril de 2024, podría superar la tasa de operaciones del cerebro humano. La DeepSouth es una máquina con la capacidad de realizar 228 billones de operaciones por segundo.
Se trata del primer superordenador en la historia que puede imitar las redes de neuronas y las sinapsis (estructuras biológicas fundamentales que componen nuestro sistema nervioso) a la escala del cerebro humano.
DeepSouth forma parte a un enfoque conocido como un sistema neuromórfico, el cual tiene como objetivo replicar los procesos biológicos del cerebro humano. El Centro Internacional de Sistemas Neuromórficos de la Universidad Western Sydney será donde se realicen sus pruebas.
La máquina informática más asombrosa que conocemos es nuestro cerebro. El cerebro puede competir con las supercomputadoras más poderosas del mundo, al distribuir su poder de ejecución de datos a miles de millones de pequeñas unidades (neuronas) que interactúan a través de billones de conexiones (sinapsis).
Por otro lado, las supercomputadoras generalmente requieren mucho espacio y electricidad para funcionar. La supercomputadora más poderosa del mundo, Hewlett Packard Enterprise Frontier, tiene la capacidad de realizar poco más de un trillón de operaciones por segundo. Tiene una superficie de 680 metros cuadrados (7300 pies cuadrados) y necesita 22,7 megavatios para funcionar.
Con solo 20 vatios de potencia y un peso de 1,3 a 1,4 kilogramos, nuestro cerebro puede realizar el mismo número de operaciones por segundo. El objetivo de la computación neuromórfica, entre otras cosas, es descubrir los secretos de esta asombrosa eficiencia.
Transistores, siempre transistores
El físico y matemático John Von Neumann describió el diseño de una nueva máquina llamada Computadora Electrónica Automática Variable Discreta (Edvac) el 30 de junio de 1945. Esto fue una definición precisa de la computadora electrónica moderna.
Hace casi ochenta años, Von Neumann descubrió una estructura fundamental que comparten mi teléfono inteligente, la computadora portátil que estoy usando para escribir este artículo y la supercomputadora más poderosa del mundo. Todos estos tienen unidades de memoria y procesamiento diferentes, donde el procesador calcula los datos y las para luego almacenarlos en la memoria.
Durante décadas, el número de transistores en un microchip se duplicó aproximadamente cada dos años, una observación conocida como Ley de Moore. Esto nos permitió tener ordenadores más pequeños y baratos.
No obstante, los tamaños de los transistores están llegando a la escala atómica. La generación de calor excesivo es un problema en estos tamaños tan pequeños, al igual que un fenómeno conocido como túnel cuántico, que interfiere con el funcionamiento de los transistores. Esto está disminuyendo y eventualmente detendrá el desarrollo de los transistores de pequeña escala.
Los científicos están investigando nuevas técnicas de informática para abordar este problema, comenzando por el poderoso computadora que todos tenemos: el cerebro humano. El modelo de ordenador creado por John von Neumann demostró que nuestro cerebro no funciona correctamente. No tienen áreas de memoria y cómputos separados.
Por el contrario, el cerebro, funciona mediante la conexión de miles de millones de células nerviosas que transmiten información mediante impulsos eléctricos. Esta unión conocida como sinapsis, permite que la información fluya de una neurona a la siguiente. La organización de la sinapsis y las neuronas del cerebro es eficiente, escalable y adaptable.
Por lo tanto, las mismas neuronas y sinapsis controlan la memoria y los cómputos en el cerebro (y a diferencia de una computadora). Los científicos han estado investigando este modelo desde finales de los años 80s con la intención de aplicarlo a la informática.
Imitar el funcionamiento del cerebro
Las computadoras neuromórficas se basan en redes complejas de procesadores elementales simples. La ventaja principal de esto es que estas máquinas son naturalmente «paralelas».
Esto significa que prácticamente todos los procesadores de una computadora pueden comunicarse en conjunto y funcionar simultáneamente, al igual que las neuronas y las sinapsis.
Además, el consumo de energía es significativamente menor porque los cálculos realizados por neuronas y sinapsis individuales son muy simples, en comparación con los ordenadores convencionales. Las neuronas son unidades de procesamiento y las sinapsis son unidades de memoria, pero ambas hacen contribuciones al procesamiento y al almacenamiento. En otras palabras, los datos ya están en el lugar requerido para el cálculo.
Debido a que no hay separación entre la memoria y el procesador, esto acelera el procesamiento de datos del cerebro en general, lo que provoca una desaceleración en las máquinas clásicas (von Neumann). Pero también consume mucha energía y evita la necesidad de realizar una tarea específica de acceso a datos desde un componente de la memoria principal, como ocurre en los sistemas informáticos convencionales.
La fuente principal de inspiración de DeepSouth son los principios que acabamos de mencionar. Actualmente hay muchos sistemas neuromórficos activos. Es importante mencionar el Proyecto Cerebro Humano (HBP), el cual está financiado por la Unión Europea. Del 2013 al 2023, HBP funcionó y dio lugar a BrainScaleS, una máquina hecha en Heidelberg, Alemania, que imita cómo funcionan las neuronas y las sinapsis.
BrainScaleS puede simular cómo un impulso eléctrico viaja a lo largo de una neurona en nuestro cerebro. BrainScaleS sería un candidato ideal para investigar los procesos cognitivos y los mecanismos subyacentes a enfermedades neurológicas y neurodegenerativas graves en el futuro.
Las computadoras neuromórficas podrían ser un punto de inflexión porque están diseñadas para imitar los cerebros reales. Son una plataforma ideal para una variedad de aplicaciones porque ofrecen potencia informática sostenible y asequible y permiten a los investigadores evaluar modelos de sistemas neurológicos. Es posible que mejoren nuestra comprensión del cerebro y brinden nuevas perspectivas sobre la inteligencia artificial.
REFERENCIAS
World first supercomputer capable of brain-scale simulation being built at Western Sydney University: https://www.westernsydney.edu.au/newscentre/news_centre/more_news_stories/world_first_supercomputer_capable_of_brain-scale_simulation_being_built_at_western_sydney_university
Frontier named one of TIME’s 2023 Best Inventions: https://www.hpe.com/uk/en/compute/hpc/cray/oak-ridge-national-laboratory.html
The origins, uses, and fate of the EDVAC: https://ieeexplore.ieee.org/document/194089
Moore’s law: past, present and future: https://ieeexplore.ieee.org/abstract/document/591665
Electronics are about to reach their limit in processing power—but there’s a solution: https://qz.com/852770/theres-a-limit-to-how-small-we-can-make-transistors-but-the-solution-is-photonic-chips#:%7E:text=They’re%20made%20of%20silicon,we%20can%20make%20a%20transistor
Human Brain Project: https://www.humanbrainproject.eu/en/
Publicaciones Relacionadas:
Publicaciones no Relacionadas.