El cerebro humano contiene 100.000 millones de neuronas que, a su vez, están conectadas entre sí mediante más de un billón de conexiones. Mediante estas conexiones, las neuronas transmiten impulsos eléctricos entre otras neuronas conectadas a la misma red mediante los impulsos nerviosos.
Este funcionamiento del cerebro, basado en conexiones entre distintas neuronas, se ha trasladado al campo de la Ingeniería mediante el paradigma de las Redes Neuronales, un paradigma de la inteligencia artificial que versa sobre el auto-aprendizaje de un sistema mediante la aplicación de ciertos impulsos de entrada.
Los mejores algoritmos de
inteligencia artificial ya cuentan con una programación que simula el cerebro,
las llamadas redes neuronales simuladas, que se basan en un procesamiento
paralelo para reconocer patrones en los datos, incluyendo objetos dentro en
imágenes y palabras concretas en discursos.
La ley de
Moore
La ley de Moore expresa que
aproximadamente cada dos años se duplica el número de transistores en un microprocesador.
Fue ideada por el cofundador de Intel, Gordon E. Moore en abril de 1965.
A pesar de que
la ley originalmente fue formulada para establecer que la duplicación se
realizaría cada año, posteriormente Moore redefinió su ley y amplió el periodo
a dos años.
Actualmente
esta ley se aplica a ordenadores personales y teléfonos móviles o celulares.
Sin embargo, cuando se formuló no existían los microprocesadores, inventados en
1971, los ordenadores personales, popularizados en los años ochenta y la
telefonía celular o móvil apenas estaba en fase de experimentación.
Además de
proyectar cómo aumenta la complejidad de los chips (medida por transistores
contenidos en un chip de computador), la ley de Moore sugiere también una
disminución de los costos. Los microprocesadores de hoy se encuentran en todas
partes, desde juguetes hasta semáforos para el tránsito.
Lo que hizo
posible esta explosión dramática en la complejidad del circuito fue el tamaño cada vez menor de los transistores durante
décadas. Las características de transistor que miden menos de un micrón se
alcanzaron durante la década de 1980, cuando los chips dinámicos de memoria de
acceso aleatorio (DRAM) comenzaron a ofrecer capacidades de almacenamiento de
megabytes.
En los albores del siglo XXI, estas características se acercaron a 0,1 micrones de ancho, lo que permitió la fabricación de chips de memoria gigabyte y microprocesadores que funcionan a frecuencias de giga hertz. La Ley de Moore continuó en la segunda década del siglo XXI con la introducción de transistores tridimensionales de decenas de nanómetros.
La ley de
Moore no es una ley en el sentido científico, sino más bien una observación, y
ha sentado las bases de grandes saltos de progreso. Esta sencilla regla ha
impulsado todos los avances en la revolución tecnológica durante más de medio
siglo y sigue definiendo los límites cada vez mayores de la tecnología actual,
permitiéndonos tomar conceptos como la inteligencia
artificial y los vehículos autónomos, y hacerlos realidad.
Debido a que
la Ley de Moore sugiere un crecimiento exponencial, es poco probable que
continúe indefinidamente. Algunos estudios han demostrado que las limitaciones
físicas podrían alcanzarse en 2018.
Aprendizaje profundo
Este tipo de
aprendizaje automático está detrás de la tecnología "inteligente" y
abarca desde el software de reconocimiento de voz e imagen hasta los coches
auto conducidos. Los avances obtenidos en el aprendizaje profundo y la robótica
pronto llevarán a la creación de tecnología de tratamiento de imágenes médicas
capaces de crear diagnósticos fiables, drones que se pilotan solos y maquinaria
e infraestructuras de todo tipo que siguen un mantenimiento automático.
Los principios
matemáticos que forman la base del aprendizaje profundo son relativamente
sencillos, pero cuando se combinan con enormes cantidades de datos de
aprendizaje y sistemas informáticos que ejecutan múltiples operaciones en
paralelo, la técnica ha dado paso a
grandes avances en los últimos años, sobre todo en los campos de
reconocimiento de voz e imágenes.
*
* *
Científicos construyen un
simulador del cerebro con procesadores ARM
Un equipo de científicos
de la Universidad de Manchester empezaron a trabajar, en julio 2011, en un modelo de cerebro humano, basándose en el paradigma de las redes
neuronales, que les permita a expertos de otras disciplinas comprender
mejor el funcionamiento del cerebro y, además, sirva como banco de pruebas de
trabajos relacionados con la inteligencia artificial.
Con tal fin, construyeron
un modelo a escala (que representa al 1% del cerebro) mediante procesadores ARM – que harían las veces de neuronas – y que
se conectarían entre sí emulando las conexiones de las neuronas del cerebro y
formando lo que se denomina el Spiking Neural Network architecture o
SpiNNaker.
Este modelo a escala está formado por un millón de procesadores
ARM, a modo de neuronas, como unidades "simples" de procesamiento,
pero, donde realmente reside la potencia de este sistema de computación es, precisamente,
en las conexiones que se realizan entre estas neuronas, donde a cada conexión
se asigna un peso que sirve para amplificar la excitación recibida desde dicha
conexión.
La mayor complejidad de
las redes neuronales está en las conexiones, por tanto, aumentar la capacidad de proceso de la neurona permite que este modelo a escala y reducido
sea mucho más potente y, además, simplifica
bastante el número de conexiones a implementar entre el millón de procesadores.
SpiNNaker aspira a crear
un modelo del sistema inteligente definitivo, el cerebro humano. No saben cómo
funciona el cerebro como sistema de procesamiento de información, algo que
necesitan conocer. Esperan que su máquina permita un significativo avance hacia
la consecución de este objetivo. En última instancia, este sistema podría ser
de gran ayuda para personas que hayan presentado problemas con la lectura tras
sufrir algún golpe o lesión cerebral. En el campo de la psicología ya se han
utilizado redes neuronales para reproducir patologías clínicas.
Hacen falta más de 80.000
procesadores para simular 1 segundo de actividad cerebral humana
El Instituto Tecnológico
de la Universidad de Okinawa conjuntamente con el equipo alemán del Centro Forschungs
Jülich han efectuado, en agosto 2013, una prueba en la que han simulado el funcionamiento del cerebro humano
durante un segundo, y han necesitado un ordenador de una potencia
increíble, tanta como para tener
funcionando 82.944 procesadores durante 40 minutos, incluyendo el
ordenador K, el cuarto super computador más potente del mundo ubicado en
Kobe (Japón).
Esta simulación ha sido
posible gracias al software de código abierto NEST que ha permitido crear una red neuronal artificial de 1.730 millones de
células conectadas por 10.400 millones de sinápsis, que aunque nos
puedan parecer cifras impresionantes no representan más que una mínima fracción
de las neuronas que contiene un cerebro
humano, donde se estima que existen entre 80 y 100.000 millones de células
nerviosas, lo que es tanto como todas las estrellas que hay en la Vía
láctea.
Esto explica la
imposibilidad de simular el funcionamiento del cerebro humano en tiempo real y
la necesidad de esos 40 minutos de procesado por parte de 82.944 procesadores,
que necesitaron un petabyte de memoria para modelar cada sinapsis
individualmente.
Circuito basado en el
cerebro es 9.000 veces más rápido que un PC – Neurogrid
Bio-ingenieros de la Universidad de Stanford diseñaron un conjunto
de procesadores en abril 2014, cuya arquitectura está
inspirada en la del cerebro humano. Neurogrid es alrededor de 9.000 veces más
rápido que un PC convencional y mucho más eficiente desde el punto de vista
energético.
No es la primera vez que
científicos tratan de recrear el funcionamiento del cerebro humano mediante componentes
electrónicos. Hasta el cerebro de un simple ratón está dotado de mayor
capacidad de procesamiento que los ordenadores que manejamos cada día.
En el caso de este nuevo
chip, el equipo de Stanford ha diseñado una placa base con 16 neurochips
especialmente diseñados que es capaz de emular un millón de neuronas y miles de
millones de conexiones sinápticas. El sistema es 100.000 veces más eficiente
desde el punto de vista de consumo energético que un ordenador haciendo correr
una simulación de un millón de neuronas basada en software.
El conjunto es muy
difícil de programar. Es necesario saber cómo funciona el cerebro para poder
programar el dispositivo. El próximo objetivo es, precisamente, crear un
neurocompilador que permita a un programador trabajar con un código más
convencional sin tener que saber sobre sinapsis y neuronas.
La arquitectura que
simula el cerebro de Neurogrid no es casual. Su primer objetivo es convertirse
en el controlador de una nueva generación de implantes robóticos para personas
que sufren de parálisis. En el futuro, sin embargo, podría servir para
aplicaciones más convencionales.
Cada uno de los 16
núcleos que simula 65.536 neuronas ha sido fabricado de manera casi artesanal,
y con métodos de producción de hace 15 años. Aplicar las actuales técnicas de
producción de procesadores permitiría recortar unas 100 veces los costes de
producción.
TrueNorth – procesador de IBM simula una red de un
millón de neuronas
El nuevo chip de IBM creado
en agosto 2014 da un paso más hacia el objetivo de crear un procesador capaz de
simular el funcionamiento del cerebro humano. Tiene el tamaño de un sello de
correos, pero en su interior esconde el equivalente a un millón de neuronas con
256 millones de conexiones sinápticas programables. TrueNorth es un salto
cuantitativo impresionante respecto a la primera versión, de un único núcleo
neurosináptico, este proyecto ha pasado a 4.096 núcleos.
Con todo, las cifras son
irrisorias en comparación con las de un cerebro humano. Solo en la corteza
cerebral tenemos entre 15.000 y 33.000 millones de neuronas. Cada milímetro
cúbico de córtex cerebral contiene aproximadamente 1.000 millones de sinapsis.
IBM probó su chip en una
nueva computadora llamada NS16e a principios del año 2014, que sigue el
modelo del cerebro y pudo comprobar como el equipo podía ser utilizado
para el reconocimiento del habla y
patrones gracias a la red neuronal de unidades de procesamiento. El chip
podría identificar y reconocer los patrones de las imágenes generadas por casi
un centenar de cámaras a 24 frames por segundo desde un teléfono móvil sin
necesidad de recargar la batería durante días.
El reto de la computación
cognitiva sigue estando lejos, pero eso no le quita mérito a TrueNorth y, de
hecho, demuestra la potencia que tiene esta arquitectura de cara al futuro. Será
especialmente útil para desarrollar dispositivos en los que es importante un
funcionamiento similar al del cerebro humano. TrueNorth puede ser el cerebro de
toda una futura generación de dispositivos wearables, móviles o
implantes robóticos.
Intel consigue incrustar
una red neuronal en un chip de silicio
La compañía ha presentado
un chip neuromórfico, en enero 2018, que simula el funcionamiento del cerebro
humano utilizando una menor potencia computacional que la que se necesita para
poner en marcha un ordenador.
El chip es capaz de
aprender a reconocer objetos en imágenes capturadas por una webcam. Este hecho
no tiene nada de especial, salvo porque usa alrededor de una milésima de la potencia que necesita un procesador
convencional.
El dispositivo, llamado
Loihi, puesto a prueba en el Consumer Electronics Show (CES) en Las Vegas,
simula de forma simplificada el
funcionamiento de las neuronas y la sinapsis del cerebro.
Los chips neuromórficos graban el funcionamiento de las redes
neuronales en silicio. Son procesadores menos flexibles y potentes que
los destinados a otros usos, pero al estar especializados en esta tarea, son más
eficientes energéticamente e ideales para dispositivos móviles,
vehículos y equipamiento industrial.
La idea de los chips
neuromórficos ha existido desde hace décadas, pero hasta ahora no estaba
preparada para encontrar su nicho comercial. En toda la industria de la
tecnología, el progreso en inteligencia artificial ha inspirado nuevas
investigaciones en hardware para utilizar algoritmos de aprendizaje
automático de una manera más eficiente. El mayor reto de los chips neuromórficos en el pasado era lograr transformarlos
a una mayor escala.
Este chip es una parte
del intento de Intel de reinventarse. La compañía ya no puede confiar en
entregar procesadores cada vez más rápidos cuando la Ley de Moore ha chocado de
lleno con la ley de la física.
La compañía anunció
también durante el CES que ha construido un nuevo chip de computación cuántica
más grande, un dispositivo que explota las extrañas y maravillosas reglas de la
física cuántica para hacer ciertos tipos de cálculos con una velocidad
increíble. Intel solo ha revelado que se
llama Tangle Lake y que contiene 49 cúbits, pero no ha dicho nada sobre cuán
fiable o estable es. A pesar de estos avances, aún no está claro cómo se
podrían usar estos procesadores cuánticos, más allá de algunas aplicaciones
como descifrar códigos y el modelado automatizado. El cúbit es el análogo
cuántico del bit en informática.
IBM anuncia un ordenador
cuántico de 50 cúbits pero no dice cómo funciona
IBM anunció en noviembre
2017 un ordenador cuántico capaz de
manejar 50 bits cuánticos, o cúbits. La compañía también está trabajando
en un sistema de 20 cúbits que ofrecerá a través de su plataforma de
computación en la nube. El sistema sería el más avanzado de su clase, pero la
compañía no ha publicado ningún detalle sobre su funcionamiento.
Gracias a la capacidad de
estas máquinas de aprovecharse de la naturaleza y las exóticas propiedades de
la física cuántica, son capaces de procesar la información de una manera
totalmente diferente a los ordenadores tradicionales.
Pero el anuncio no
significa que la computación cuántica esté lista para usarse de forma masiva.
El nuevo sistema de IBM todavía es extremadamente delicado y su uso es todo un
desafío. En los ordenadores cuánticos de 50 cúbits y 20 cúbits, el estado cuántico sólo se mantiene durante
90 microsegundos. Aunque la cifra es un récord para la industria, es un
tiempo extremadamente breve como para hacer algo útil.
Aún así, la combinación
de los 50 cúbits supone un paso importante en el camino hacia
los ordenadores cuánticos prácticos. Una máquina de 50 cúbits puede hacer cosas que son extremadamente
difíciles de simular sin una tecnología cuántica.
Mientras que los
ordenadores tradicionales almacenan la información en forma de unos y ceros, los ordenadores cuánticos explotan dos
fenómenos cuánticos para procesar información de manera diferente: el
entrelazamiento y la superposición.
Hace poco, el equipo de
IBM sugirió que los sistemas cuánticos más allá de 50 cúbits pueden ser
simulados en ordenadores convencionales mediante algunos ingeniosos trucos
matemáticos. Eso significaría que la supremacía cuántica es un objetivo en
movimiento, al menos por ahora. Pero no cambia el hecho de que los ordenadores cuánticos se acercan cada
día más a estar listos para llegar al gran público.
Los cúbits
superconductores de Google podrían estar a punto de lograr la supremacía
cuántica
Los investigadores de la Universidad de California Santa Barbara Charles Neill y el de Google Pedram Roushan, afirman que saben cómo lograr la supremacía cuántica, y han demostrado con éxito por primera vez una prueba de concepto de la máquina. Su trabajo plantea la posibilidad de que sólo falten unos meses para la primera demostración de la supremacía cuántica.
La nueva investigación de Google (octubre 2017) demuestra un sistema estable de nueve cúbits con superposición cuántica por superconducción cuyos errores no aumentan exponencialmente. Si consiguen escalarlo a 49 cúbits, habrán logrado la supremacía del ordenador cuántico.
La nueva investigación de Google (octubre 2017) demuestra un sistema estable de nueve cúbits con superposición cuántica por superconducción cuyos errores no aumentan exponencialmente. Si consiguen escalarlo a 49 cúbits, habrán logrado la supremacía del ordenador cuántico.
La gran promesa de la
computación cuántica es la posibilidad de realizar cálculos de una complejidad
tal que no puede ser asumida por los ordenadores convencionales. Los físicos
saben desde hace tiempo que un
ordenador cuántico de sólo 50 cúbits podría derrotar incluso a las
supercomputadoras más poderosas del mundo.
Pero superar los límites
de la computación convencional, lograr la supremacía cuántica, como lo llaman
los físicos, está siendo ser más
difícil de lo esperado. Los estados cuánticos son muy delicados: un
estornudo y desaparecen. Por este motivo los físicos se han visto empantanados
ante las dificultades prácticas de aislar del mundo exterior a los ordenadores
cuánticos y su maquinaria de procesamiento.
Pero puede haber otra
manera de demostrar la supremacía cuántica que no requiera un ordenador
cuántico general para ejecutar varios algoritmos cuánticos. En su lugar, los físicos han empezado a jugar con sistemas
cuánticos centrados en una única tarea. Si pueden demostrar que esta
tarea supera la capacidad de cualquier computadora convencional, entonces
habrán demostrado la supremacía cuántica por primera vez. Lo que no está claro
es cómo hacerlo.
La gran ventaja de los
cúbits sobre los bits ordinarios es que pueden existir en una superposición de
estados. Así, mientras que un bit ordinario puede ser un 1 o un 0, un cúbit
puede ser un 1 y 0 al mismo tiempo. Esto significa que dos cúbits pueden
representar cuatro números al mismo tiempo, tres cúbits pueden representar ocho
números, y, nueve cúbits, 512 números simultáneamente. En otras palabras, su capacidad aumenta exponencialmente.
Por eso no hacen falta
muchos cúbits para superar a los ordenadores convencionales. Con sólo 50 cúbits se pueden representar
10.000.000.000.000.000 números. Una computadora clásica requeriría del
orden de un petabyte de memoria para almacenar ese número.
Así que una manera de
alcanzar la supremacía cuántica es crear un sistema que pueda soportar 49
cúbits en una superposición de estados. Este sistema no necesita realizar
cálculos complejos, solo tiene que ser capaz de explorar de manera fiable el
espacio completo de una superposición de 49 cúbits.
Los cúbits son objetos
cuánticos que pueden existir en dos estados al mismo tiempo, y hay muchas
maneras de hacerlos. Por ejemplo: los fotones pueden ser polarizados tanto
vertical como horizontalmente al mismo tiempo; los núcleos atómicos pueden girar
con su eje hacia arriba y hacia abajo al mismo tiempo; los electrones pueden
viajar a lo largo de dos trayectorias al mismo tiempo. Los físicos están
experimentando con todos estos sistemas para la computación cuántica.
Neill y Roushan han
elegido otra ruta. Su sistema cuántico
se basa en un cúbit superconductor. En esencia se trata de un bucle de
metal enfriado a baja temperatura. Si se establece una corriente que fluya a
través de este bucle, fluirá para siempre; un fenómeno cuántico conocido como
superconductividad.
Esta naturaleza cuántica
permite un pequeño truco: la corriente
puede fluir en una dirección y en la otra al mismo tiempo. Y esto es lo
que le permite actuar como un cúbit que puede representar simultáneamente un 0
y un 1.
La gran ventaja de los cúbits superconductores es que son
relativamente fáciles de controlar y medir. También se pueden vincular
entre ellos si se colocan varios bucles uno al lado del otro en un chip. Esta
vinculación entre los vecinos es más difícil y requiere de otro truco. El flujo
de corriente en una dirección u otra es sólo una configuración de baja energía.
Pero es posible añadir más energía y otros estados. Son estos estados de
energía superior los que pueden interactuar entre sí, creando superposiciones
mayores. De esta manera, los bucles vecinos pueden compartir un mismo estado
mucho más complejo.
El experimento de prueba
de concepto que Neill, Roushan y sus colaboradores han logrado consiste en
hacer un chip con nueve lazos vecinos y
mostrar que los cúbits superconductores que soportan pueden representar 512
números simultáneamente. No es ni de cerca el número de cúbits
necesarios para la supremacía cuántica, pero el experimento parece sugerir que
será posible.
El gran temor entre los
físicos es que no son sólo los números,
sino también los errores, los que aumentan exponencialmente en estos
sistemas cuánticos. Si los errores aumentan con demasiada rapidez, inundarán el
sistema, haciendo imposible la supremacía cuántica. El resultado clave de este
experimento es mostrar que los errores no escalan rápidamente en estos chips
superconductores. En cambio, la
investigación demuestra que los errores aumentan lentamente, de una
manera que debería permitir la superposición significativa de hasta 60 cúbits.
Es un trabajo
interesante. Se sugiere claramente que
la supremacía cuántica debería ser posible con un chip que tenga 50 bucles
superconductores en lugar de sólo nueve. Un chip de 50 cúbits solo será
posible si los errores continúan escalando tal y como demuestra la
investigación. Y eso plantea una pregunta importante. El equipo afirma que los
errores escalan a medida que el número de cúbits aumenta de cinco a nueve.
Pero, ¿escalarán de la misma manera los
errores según aumenten los cúbits de nueve a 50?
Si no lo hacen, la
supremacía cuántica está aún muy lejos. Pero si lo logran, este equipo espera proclamar la supremacía cuántica en los
próximos meses. Así que Neill, Roushan y su equipo estarán ahora mismo
trabajando duro para responder esa pregunta.
* *
*
La inteligencia
artificial debe explicar cómo funciona
Por muy buenas que sean
las predicciones del aprendizaje profundo, nadie sabe cómo llega a sus
conclusiones. Este hecho está empezando a generar un problema de confianza y
las herramientas para resolverlo no están ayudando demasiado. Pero tal vez así
es la propia naturaleza de la inteligencia.
La tecnología de IA conocida
como aprendizaje profundo ha tenido mucho éxito resolviendo problemas en los
últimos años, y cada vez se usa más en labores como generar subtítulos,
reconocer la voz y traducir idiomas. Estas mismas técnicas podrían llegar a ser
capaces de diagnosticar enfermedades
mortales, tomar decisiones bursátiles multimillonarias y transformar industrias
al completo.
Pero esto no
sucederá (o no debería) a menos que consigamos que las técnicas como el
aprendizaje profundo resulten más
comprensibles para sus creadores y rindan cuentas ante los usuarios. En
caso contrario, resultará difícil predecir cuándo se podrían producir fallos,
los cuales son inevitables.
Ya hay argumentos que
defienden que la capacidad de interrogar a un sistema de inteligencia
artificial sobre cómo llegó a sus conclusiones representa un derecho legal básico. A partir del
verano de 2018, la Unión Europea podría obligar a las empresas a que ofrezcan
una respuesta a sus usuarios sobre las decisiones a las que llegan los sistemas
automatizados. Esto podría resultar
imposible, incluso para sistemas aparentemente sencillos, como las apps
y páginas web que emplean el aprendizaje profundo para mostrar anuncios y
recomendar canciones. Los ordenadores que ejecutan esos servicios se han auto
programado y ni siquiera sabemos cómo. Incluso los ingenieros que desarrollan
estas apps son incapaces de explicar totalmente su comportamiento.
La inteligencia
artificial no siempre ha sido así. Desde un principio, ha habido dos escuelas
de pensamiento respecto a lo entendible, o explicable, que debería ser. Muchos
creían que tenía sentido desarrollar máquinas que razonaran de acuerdo a reglas
y lógica, lo que volvería transparente su funcionamiento interno para
cualquiera que quisiera examinar el código. Otros sentían que la inteligencia
avanzaría más si las máquinas se inspiraran en la biología, y aprendieran
mediante la observación y la experiencia. Esto significaba invertir la
programación informática. En lugar de que un programador escribiera los
comandos para resolver un problema, el programa genera su propio algoritmo en base
a datos de ejemplo y el resultado deseado. Las técnicas de aprendizaje
automático que evolucionaron para convertirse en los sistemas de IA más potentes de la actualidad siguieron el segundo
camino: básicamente, la máquina se auto programa.
Al principio, este
enfoque no tenía demasiadas aplicaciones, y durante las décadas de 1960 y 1970
seguía ocupando la periferia del campo. Entonces la informatización de muchas industrias y la llegada del big data
renovaron el interés. Eso inspiró el desarrollo de técnicas de
aprendizaje automático más potentes, especialmente nuevas versiones de una
técnica conocida como red neuronal artificial. Para finales de la década de
1990, las redes neuronales podían digitalizar automáticamente caracteres
escritos a mano.
Pero no fue hasta
principios de esta década, tras varios ingeniosos ajustes y refinamientos,
cuando las redes neuronales muy grandes, o "profundas", empezaron a
ofrecer drásticas mejoras en la percepción automatizada. El aprendizaje profundo es responsable de la explosión actual de la IA.
Ha dotado los ordenadores de poderes extraordinarios, como la capacidad de
reconocer las palabras habladas casi igual de bien que cualquier persona, algo
demasiado complejo para ser codificado a mano. El aprendizaje profundo ha
transformado la visión de máquinas y mejorado muchísimo la traducción
automatizada. Ya contribuye en la toma de todo tipo de decisiones claves en la
medicina, las finanzas, la fabricación y mucho más.
El funcionamiento de
cualquier tecnología de aprendizaje automático es inherentemente más opaco que
un sistema codificado a mano, incluso para los informáticos. Esto no quiere
decir que todas las futuras técnicas de IA vayan a resultar igual de imposibles
de entender. Pero, por su naturaleza, el aprendizaje profundo es una caja negra
especialmente oscura.
Simplemente no es posible
adentrarse en las entrañas de una red neuronal profunda para comprobar cómo
funciona. Su razonamiento está
arraigado en el comportamiento de miles de neuronas simuladas,
dispuestas en docenas o incluso cientos de capas intricadamente
interconectadas. Las neuronas de la primera capa reciben informaciones, como la
intensidad de un píxel dentro de una imagen, y después realizan un cálculo
antes de emitir una nueva señal. Estas señales alimentan las neuronas de la
próxima capa de una compleja red, y así sucesivamente hasta generar un
resultado final. Además, hay un proceso conocido como propagación hacia atrás
que ajusta los cálculos de neuronas individuales para que la red aprenda a
producir un resultado deseado.
Las múltiples capas de
una red profunda la habilitan para reconocer
cosas a muchos niveles distintos de abstracción. En un sistema diseñado
para reconocer perros, por ejemplo, las primeras capas reconocen elementos muy
básicos como contornos y colores; las siguientes capas reconocen cosas más
complejas como el pelo o los ojos; y las capas superiores objetos al completo,
como un perro. El mismo enfoque puede aplicarse a otras áreas que permiten que
las máquinas se enseñen a sí mismas: los sonidos que componen las palabras
dentro del habla, las letras y palabras que generan frases dentro de un texto o
los movimientos de volante requeridos para la conducción.
Pero no podemos conformarnos con una visión
aproximada de cómo funciona la inteligencia artificial, y parece que no
hay soluciones fáciles. Lo que resulta crucial para reconocer patrones y tomar
decisiones complejas de nivel superior es la interacción de cálculos dentro de
una red neuronal profunda. Pero esos cálculos son una ciénaga de funciones y
variables matemáticas. Aún estamos muy
lejos de disponer de una IA verdaderamente interpretable.
Conocer el razonamiento
de la IA también será imprescindible si la tecnología aspira a formar parte de
la vida diaria de las personas.
Al igual que muchos
aspectos del comportamiento humano resultan imposibles de explicar en detalle,
tal vez no será posible que la inteligencia artificial llegue a explicar todo
lo que hace.
En tal caso, tal vez
llegue un momento en el que debamos decidir si confiamos ciegamente en la IA o
desechamos su uso. Igualmente, esa misma decisión tendrá que incorporar
inteligencia social. Al igual que la sociedad se construye sobre una base de
comportamientos aceptables,
necesitaremos diseñar los sistemas de IA para respetar y encajar con nuestras
normas sociales.
Fuente : MIT Technology
Review
Ver también…
No hay comentarios.:
Publicar un comentario