Disponible la nueva versión "donationware" 7.3 de OrganiZATOR
Descubre un nuevo concepto en el manejo de la información.
La mejor ayuda para sobrevivir en la moderna jungla de datos la tienes aquí.

Notas sobre Internet

[Home]  [Inicio]  [Índice]


N 20:  El "Cerebro electrónico" y el humano


§1  ¿Almas de metal?

El martes 19 de Noviembre del 2002, en una conferencia sobre supercomputación celebrada en Baltimore, Spencer Abraham, Secretario del Departamento de Energía del Gobierno USA ( www.energy.gov ), anunciaba  que IBM había conseguido un contrato para la construcción de un par de supercomputadoras, ASCI Purple, que estarían terminadas en el 2003.  Serían los primeros ordenadores capaces de alcanzar los 100 Teraflops (1014 flops - Operaciones con números fraccionarios por segundo-), lo que rápidamente fue comparado por los especialistas con la capacidad de proceso del cerebro humano.

Nota:  se trata del primer ejemplar, de lo que se supone será una saga, enmarcada en el programa ASCI ("Advanced Simulation and Computing"). Un proyecto conjunto entre el Departamento de Energía del Gobierno USA, DOE ("Department Of Energy") y la NSSA ("National Nuclear Security Administration"). 


Las citas de agencia hacían mención a Hans Moravek [1], y establecían una serie de datos comparativos, anunciando que aunque hasta entonces, los "cerebros electrónicos" habían sido tremendamente inferiores al humano en capacidad de cómputo, por primera vez podrían equiparársele en algunos aspectos.

ASCI Purple

Las comparaciones se basan en una obra de Moravek:  "Mind Children, The future of Robot and Human Intelligence", publicada en 1990 [2].  En ella exponía una serie de consideraciones sobre la capacidad de proceso del cerebro humano, comparándolo con las máquinas disponibles. Así como la capacidad de cómputo que ha podido adquirirse por un Dólar a lo largo de la historia Informática.

Basándose en consideraciones sobre las células nerviosas del ojo humano (en realidad una porción del cerebro fuera del craneo), y extrapolándolas según los datos conocidos sobre anatomía cerebral [3], estableció que una máquina capaz de ejecutar 10 billones* de ops (operaciones por segundo) sería lo suficientemente potente como para albergar una mente parecida a la humana [4].  También que esta máquina debería tener una memoria de 1015 bits para ser capaz de almacenar la información contenida en las 1014 sinapsis del cerebro humano [7].  En la referida obra predijo que antes del 2010 se podría adquirir una máquina de 10 Teraops por 10 Millones de Dólares USA.


La singularidad de estas afirmaciones merece una somera síntesis del razonamiento utilizado: la información procesada por las células de la retina del ojo, son transportadas al cerebro por el nervio óptico, que dispone para este menester de un millón de fibras, cada una de las cuales transporta información sobre un aspecto de la luz recibida por las fotocélulas que tapizan el fondo del ojo.  En concreto, el conjunto de células de la fóvea, una pequeña zona del centro de la retina donde la agudeza visual es máxima, aunque ocupa menos del 1 por ciento del campo visual (un ángulo esférico de 5o), genera una información que ocupa una cuarta parte de las fibras del nervio óptico. Su resolución máxima es del orden de 500 x 500 puntos, con lo que podría compararse con una cámara que tuviese 500 x 500 píxels, pero su velocidad de proceso de imágenes es relativamente lenta, del orden de 10 fotogramas por segundo.

Basándose en la capacidad de proceso utilizada por los programas de detección de movimiento y reconocimiento de imágenes existentes (comparables a la visión humana en algunos aspectos), que para el análisis de imágenes de este tamaño (500 x 500 píxels) necesitan unas 25 millones de operaciones de ordenador (unos 100 cálculos por píxel), Moravek establece que el conjunto de células de ganglio (cuyas prolongaciones constituyen el nervio óptico) informan al cerebro del equivalente a 100 cálculos por décima de segundo, lo que para el millón de células del nervio óptico supone una capacidad de mil millones de cálculos por segundo (109 ops).

Por su parte el cerebro tiene 1.000 veces más neuronas que la retina, y aunque su tamaño no guarda comparación (es 100.000 veces mayor [5]), su complejidad es también mucho mayor.  Moravek establece que esta complejidad puede ser del orden de 10.000 veces la de aquella, por lo que extrapola la capacidad de proceso del cerebro multiplicando la de la retina por 10.000 (en vez de por 1.000).  Estos cálculos conducen a que la capacidad de cómputo del cerebro (si es que puede establecerse esta equivalencia) debe ser del orden de 1013 ops (10 Teraops).


Respecto a la memoria, Moravek vuelve a apoyarse en experimentos biológicos realizados con animales simples, en los que se ha comprobado que el aprendizaje se concreta en cambios químicos duraderos en ciertas sinapsis (puntos de conexión entre neuronas) que alteran la capacidad de conexión entre estas [6]. Suponiendo que esta capacidad de cambio es limitada,  la capacidad de "memoria" de cada sinapsis podría ser equivalente a una palabra de 10 bits, capaz de representar una magnitud con una precisión de tres dígitos (210 = 1024  N.1).  Estos datos conducirían a que un ordenador con una memoria de 1015 bits tendría una capacidad equivalente a las 1014 sinapsis del cerebro humano. Esto supone una capacidad de 1,25 1014 Bytes (125 Terabytes).  La memoria de ASCI Purple será de 50 Terabytes. 


Por ahora, las posibles comparaciones terminan aquí.  ASCI Purple será en realidad un conjunto de 196 ordenadores interconectados, cada uno del tamaño de un refrigerador.  Ocupará una superficie de 827 m2 (casi el tamaño de dos canchas de basket) con un peso total de 197 Toneladas.  Por su parte, el cerebro humano medio apenas ocupa unos 900 cm3, con un peso de 1.5 Kg.  Aparte de su movilidad, otras ventajas, tales como su habilidad para "pensar" y "crear" además de la mera capacidad de proceso, son cuestiones largamente debatidas por los partidarios y detractores de la Inteligencia Artificial.

En cualquier caso, lanzando una mirada retrospectiva a ENIAC ( N.2), un "ASCI Purple" de su tiempo, y considerando su equivalencia actual (la máquina comparable es del tamaño de una uña), podemos especular lo que nos deparará el futuro en caso de mantenerse la Ley de Moore ( H1).  En cualquier caso, al proyecto le han seguido otros. Por ejemplo, el proyecto Red Storm, un supercomputador de los laboratorios Sandia en Albuquerque (Nuevo Mexico).

  Inicio.


[1]  Hans Moravec es uno de los investigadores USA más conocidos en el campo de la robótica.  En 1990 dirigía el Mobile Robot Laboratory de la universidad de Carnegie Mellon ( www.ri.cmu.edu/).

[2]  Un libro ciertamente apasionante que ha sido publicado en español con el título "El Hombre Mecánico (El futuro de la Robótica y la Inteligencia Humana)".  Ediciones Temas de Hoy. Madrid, 1990  ISBN 84-7880-039-5.

[3]  Moravek se basa en datos tomados de tratados de medicina: "The Retina", de John Dowling, y "From Neuron to Brain", de Stephen Kuffler y Jhon Nichols.

[4]  En la citada obra comparaba la capacidad de los ordenadores de la época (1990) con la del cerebro de los insectos. La versión española del libro menciona ops (operaciones por segundo), sin embargo, del contexto parece deducirse que el autor se refiere a flops (operaciones aritméticas de números fraccionarios por segundo). Probablemente esta simplificación se debe a que es un libro de divulgación destinado a todos los públicos.

[5]  Hablando en términos informáticos podríamos decir que el sistema neuronal del ojo es la parte del cerebro de mayor escala de integración.

[6]  Las neuronas, células que constituyen el sistema nervioso, se unen unas a otras formando redes muy complejas mediante ciertas prolongaciones especializadas de las que existen dos clases: dendritas y axón (este último está ramificado en su extremo).  Las ramificaciones del extremo del axón conectan con las dendritas de la siguiente célula de la cadena a la que transmiten los impulsos eléctricos. Por su parte, la neurona recibe señales a través de sus dendritas.  Los puntos de conexión se denominan sinapsis.

[7]  Con anterioridad, en 1950, Turing había realizado una aproximación al tema utilizando el mismo criterio de capacidad neuronal del cerebro.  A. M. Turing "Computing machinery and intelligence" Mind 50: 433-460.  "Estimates of the storage capacity of the brain vary from 1010 to 1015 binary digits.  I incline to the lower values and believe that only a very small fraction is used for the higher types of thinking. Most of it is probably used for the retention of visual impressions, I should be surprised if more than 109 was required for satisfactory playing of the imitation game, at any rate against a blind man. (Note: The capacity of the Encyclopaedia Britannica, 11th edition, is 2 X 109) A storage capacity of 107, would be a very practicable possibility even by present techniques".