Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.
La portada de mañana
Acceder
Una denuncia de la extrema derecha lleva al límite al Gobierno de Sánchez
Crónica - El día que Sánchez se declaró humano. Por Esther Palomera
Opinión - El presidente Sánchez no puede ceder

Qué son las redes neuronales y por qué vamos a oír hablar cada vez más sobre ellas

Una representación de un cerebro humano formado por circuitos electrónicos

David Sarabia

Llamamos a un experto para que nos ayude a explicar qué es una red neuronal, de manera sencilla y breve. “Normalmente tardo 10 horas en hacer una introducción a las redes neuronales artificiales”, nos dice. Lo intentaremos en menos tiempo.

Las redes neuronales artificiales son sistemas de cálculo o algoritmos inspirados en el funcionamiento del cerebro humano. Cuando hablamos de 'red neuronal' estamos usando por tanto una metáfora, porque esos modelos computacionales funcionan como lo haría una neurona llevando información hasta otra a través de la sinapsis. Se trata básicamente de imitar lo que ocurre en el cerebro humano pero dentro de un ordenador.

El experto que encontrábamos al otro lado del teléfono es Raúl Arrabales, cofundador de Serendeepia, una empresa de Inteligencia Artificial aplicada a los negocios. “Una red de neuronas es un grafo donde hay nodos y aristas”, comienza. “Los nodos serían las unidades de proceso, que son neuronas; y entre ellas, lo que hay es sinapsis”, prosigue el investigador. La forma más sencilla que se nos ocurrió a los humanos para crear estos modelos fue la de imitar el cerebro humano.

Aprendiendo a pensar como un humano

Cuando hablamos de que una red neuronal artificial aprende a identificar caras, a reconocer objetos o a mover bloques, en realidad lo que está haciendo es regular pesos, es decir, darle más o menos importancia a una información y a partir de ahí marcar una reacción. Los neurotransmisores inexistentes de las redes neuronales artificiales han de ser creados por los investigadores mediante esos pesos. Esto lo que hace es inhibir o excitar las conexiones entre los nodos (que representarían a las neuronas humanas).

“Aprender es encontrar la matriz de pesos tal que dada una entrada, la red genere la salida esperada”, cita casi de memoria Arrabales, que lo expresa con un ejemplo: “De la neurona A a la neurona B hay una rayita, y esa rayita puede estar a 0, que significa que la salida se multiplica por 0 y por tanto se inhibe. A la neurona B llega 0 activación independientemente de lo que diga la A. Pero si multiplicas por 2, doblas”.

De nuevo, pone un ejemplo para que tratemos de entenderlo: “Un bebé nace y los 90.000 millones de neuronas están ahí ya pero las conexiones entre ellas están sin definir del todo. Durante su vida, a fuerza de prueba y error y de que los papás le digan 'esto sí, esto no', el niño va aprendiendo y ese aprendizaje es que cambian físicamente esas conexiones en las neuronas”, dice el investigador. “Esto es mucho más complejo y está explicado muy rápido”, recalca el cofundador de Serendeepia.

Cada día aparecen nuevas Inteligencias Artificiales firmadas por investigadores de prestigiosas universidades del mundo o institutos tecnológicos. Por ejemplo, en enero varios científicos del Technion (Israel) desarrollaron una IA capaz de reconstruir los fragmentos inconexos las obras arqueológicas y de arte. O el caso del algoritmo que predice mejor que los médicos qué pacientes saldrán del coma y cuales no. En ocasiones son grandes multinacionales las que se lanzan a investigar, como en el caso de AlphaGo (la máquina que derrotó al mejor jugador de Go de todos los tiempos y que construyó Google) o las múltiples creaciones de Nvidia, que crean paisajes fotográficos desde bocetos o generan mundos virtuales a partir de vídeos del mundo real.

Etiquetas
stats