junio 30, 2018

Chips Inspirados en el Cerebro Humano






El cerebro humano contiene 100.000 millones de neuronas que, a su vez, están conectadas entre sí mediante más de un billón de conexiones. Mediante estas conexiones, las neuronas transmiten impulsos eléctricos entre otras neuronas conectadas a la misma red mediante los impulsos nerviosos.


Este funcionamiento del cerebro, basado en conexiones entre distintas neuronas, se ha trasladado al campo de la Ingeniería mediante el paradigma de las Redes Neuronales, un paradigma de la inteligencia artificial que versa sobre el auto-aprendizaje de un sistema mediante la aplicación de ciertos impulsos de entrada.

Los mejores algoritmos de inteligencia artificial ya cuentan con una programación que simula el cerebro, las llamadas redes neuronales simuladas, que se basan en un procesamiento paralelo para reconocer patrones en los datos, incluyendo objetos dentro en imágenes y palabras concretas en discursos.

La ley de Moore

La ley de Moore expresa que aproximadamente cada dos años se duplica el número de transistores en un microprocesador. Fue ideada por el cofundador de Intel, Gordon E. Moore en abril de 1965.

A pesar de que la ley originalmente fue formulada para establecer que la duplicación se realizaría cada año, posteriormente Moore redefinió su ley y amplió el periodo a dos años.

Actualmente esta ley se aplica a ordenadores personales y teléfonos móviles o celulares. Sin embargo, cuando se formuló no existían los microprocesadores, inventados en 1971, los ordenadores personales, popularizados en los años ochenta y la telefonía celular o móvil apenas estaba en fase de experimentación.

Además de proyectar cómo aumenta la complejidad de los chips (medida por transistores contenidos en un chip de computador), la ley de Moore sugiere también una disminución de los costos. Los microprocesadores de hoy se encuentran en todas partes, desde juguetes hasta semáforos para el tránsito.

Lo que hizo posible esta explosión dramática en la complejidad del circuito fue el tamaño cada vez menor de los transistores durante décadas. Las características de transistor que miden menos de un micrón se alcanzaron durante la década de 1980, cuando los chips dinámicos de memoria de acceso aleatorio (DRAM) comenzaron a ofrecer capacidades de almacenamiento de megabytes.


En los albores del siglo XXI, estas características se acercaron a 0,1 micrones de ancho, lo que permitió la fabricación de chips de memoria gigabyte y microprocesadores que funcionan a frecuencias de giga hertz. La Ley de Moore continuó en la segunda década del siglo XXI con la introducción de transistores tridimensionales de decenas de nanómetros.

La ley de Moore no es una ley en el sentido científico, sino más bien una observación, y ha sentado las bases de grandes saltos de progreso. Esta sencilla regla ha impulsado todos los avances en la revolución tecnológica durante más de medio siglo y sigue definiendo los límites cada vez mayores de la tecnología actual, permitiéndonos tomar conceptos como la inteligencia artificial y los vehículos autónomos, y hacerlos realidad.

Debido a que la Ley de Moore sugiere un crecimiento exponencial, es poco probable que continúe indefinidamente. Algunos estudios han demostrado que las limitaciones físicas podrían alcanzarse en 2018.

Aprendizaje profundo

Este tipo de aprendizaje automático está detrás de la tecnología "inteligente" y abarca desde el software de reconocimiento de voz e imagen hasta los coches auto conducidos. Los avances obtenidos en el aprendizaje profundo y la robótica pronto llevarán a la creación de tecnología de tratamiento de imágenes médicas capaces de crear diagnósticos fiables, drones que se pilotan solos y maquinaria e infraestructuras de todo tipo que siguen un mantenimiento automático.

Los principios matemáticos que forman la base del aprendizaje profundo son relativamente sencillos, pero cuando se combinan con enormes cantidades de datos de aprendizaje y sistemas informáticos que ejecutan múltiples operaciones en paralelo, la técnica ha dado paso a grandes avances en los últimos años, sobre todo en los campos de reconocimiento de voz e imágenes.


*
*     *

Científicos construyen un simulador del cerebro con procesadores ARM

Un equipo de científicos de la Universidad de Manchester empezaron a trabajar, en julio 2011, en un modelo de cerebro humano, basándose en el paradigma de las redes neuronales, que les permita a expertos de otras disciplinas comprender mejor el funcionamiento del cerebro y, además, sirva como banco de pruebas de trabajos relacionados con la inteligencia artificial.

Con tal fin, construyeron un modelo a escala (que representa al 1% del cerebro) mediante procesadores ARM  que harían las veces de neuronas  y que se conectarían entre sí emulando las conexiones de las neuronas del cerebro y formando lo que se denomina el Spiking Neural Network architecture o SpiNNaker.

Este modelo a escala está formado por un millón de procesadores ARM, a modo de neuronas, como unidades "simples" de procesamiento, pero, donde realmente reside la potencia de este sistema de computación es, precisamente, en las conexiones que se realizan entre estas neuronas, donde a cada conexión se asigna un peso que sirve para amplificar la excitación recibida desde dicha conexión.

La mayor complejidad de las redes neuronales está en las conexiones, por tanto, aumentar la capacidad de proceso de la neurona  permite que este modelo a escala y reducido sea mucho más potente y, además, simplifica bastante el número de conexiones a implementar entre el millón de procesadores.

SpiNNaker aspira a crear un modelo del sistema inteligente definitivo, el cerebro humano. No saben cómo funciona el cerebro como sistema de procesamiento de información, algo que necesitan conocer. Esperan que su máquina permita un significativo avance hacia la consecución de este objetivo. En última instancia, este sistema podría ser de gran ayuda para personas que hayan presentado problemas con la lectura tras sufrir algún golpe o lesión cerebral. En el campo de la psicología ya se han utilizado redes neuronales para reproducir patologías clínicas.


Hacen falta más de 80.000 procesadores para simular 1 segundo de actividad cerebral humana

El Instituto Tecnológico de la Universidad de Okinawa conjuntamente con el equipo alemán del Centro Forschungs Jülich han efectuado, en agosto 2013, una prueba en la que han simulado el funcionamiento del cerebro humano durante un segundo, y han necesitado un ordenador de una potencia increíble, tanta como para tener funcionando 82.944 procesadores durante 40 minutos, incluyendo el ordenador K, el cuarto super computador  más potente del mundo ubicado en Kobe (Japón).

Esta simulación ha sido posible gracias al software de código abierto NEST que ha permitido crear una red neuronal artificial de 1.730 millones de células conectadas por 10.400 millones de sinápsis, que aunque nos puedan parecer cifras impresionantes no representan más que una mínima fracción de las neuronas que contiene un cerebro humano, donde se estima que existen entre 80 y 100.000 millones de células nerviosas, lo que es tanto como todas las estrellas que hay en la Vía láctea.

Esto explica la imposibilidad de simular el funcionamiento del cerebro humano en tiempo real y la necesidad de esos 40 minutos de procesado por parte de 82.944 procesadores, que necesitaron un petabyte de memoria para modelar cada sinapsis individualmente.


Circuito basado en el cerebro es 9.000 veces más rápido que un PC – Neurogrid

Bio-ingenieros de la Universidad de Stanford diseñaron un conjunto de procesadores en abril 2014, cuya arquitectura está inspirada en la del cerebro humano. Neurogrid es alrededor de 9.000 veces más rápido que un PC convencional y mucho más eficiente desde el punto de vista energético.

No es la primera vez que científicos tratan de recrear el funcionamiento del cerebro humano mediante componentes electrónicos. Hasta el cerebro de un simple ratón está dotado de mayor capacidad de procesamiento que los ordenadores que manejamos cada día.

En el caso de este nuevo chip, el equipo de Stanford ha diseñado una placa base con 16 neurochips especialmente diseñados que es capaz de emular un millón de neuronas y miles de millones de conexiones sinápticas. El sistema es 100.000 veces más eficiente desde el punto de vista de consumo energético que un ordenador haciendo correr una simulación de un millón de neuronas basada en software.

El conjunto es muy difícil de programar. Es necesario saber cómo funciona el cerebro para poder programar el dispositivo. El próximo objetivo es, precisamente, crear un neurocompilador que permita a un programador trabajar con un código más convencional sin tener que saber sobre sinapsis y neuronas.

La arquitectura que simula el cerebro de Neurogrid no es casual. Su primer objetivo es convertirse en el controlador de una nueva generación de implantes robóticos para personas que sufren de parálisis. En el futuro, sin embargo, podría servir para aplicaciones más convencionales.

Cada uno de los 16 núcleos que simula 65.536 neuronas ha sido fabricado de manera casi artesanal, y con métodos de producción de hace 15 años. Aplicar las actuales técnicas de producción de procesadores permitiría recortar unas 100 veces los costes de producción.


TrueNorth  procesador de IBM simula una red de un millón de neuronas

El nuevo chip de IBM creado en agosto 2014 da un paso más hacia el objetivo de crear un procesador capaz de simular el funcionamiento del cerebro humano. Tiene el tamaño de un sello de correos, pero en su interior esconde el equivalente a un millón de neuronas con 256 millones de conexiones sinápticas programables. TrueNorth es un salto cuantitativo impresionante respecto a la primera versión, de un único núcleo neurosináptico, este proyecto ha pasado a 4.096 núcleos.

Con todo, las cifras son irrisorias en comparación con las de un cerebro humano. Solo en la corteza cerebral tenemos entre 15.000 y 33.000 millones de neuronas. Cada milímetro cúbico de córtex cerebral contiene aproximadamente 1.000 millones de sinapsis.

IBM probó su chip en una nueva computadora llamada NS16e a principios del año 2014, que sigue el modelo del cerebro  y pudo comprobar como el equipo podía ser utilizado para el reconocimiento del habla y patrones gracias a la red neuronal de unidades de procesamiento. El chip podría identificar y reconocer los patrones de las imágenes generadas por casi un centenar de cámaras a 24 frames por segundo desde un teléfono móvil sin necesidad de recargar la batería durante días.

El reto de la computación cognitiva sigue estando lejos, pero eso no le quita mérito a TrueNorth y, de hecho, demuestra la potencia que tiene esta arquitectura de cara al futuro. Será especialmente útil para desarrollar dispositivos en los que es importante un funcionamiento similar al del cerebro humano. TrueNorth puede ser el cerebro de toda una futura generación de dispositivos wearables, móviles o implantes robóticos.


Intel consigue incrustar una red neuronal en un chip de silicio

La compañía ha presentado un chip neuromórfico, en enero 2018, que simula el funcionamiento del cerebro humano utilizando una menor potencia computacional que la que se necesita para poner en marcha un ordenador.

El chip es capaz de aprender a reconocer objetos en imágenes capturadas por una webcam. Este hecho no tiene nada de especial, salvo porque usa alrededor de una milésima de la potencia que necesita un procesador convencional.

El dispositivo, llamado Loihi, puesto a prueba en el Consumer Electronics Show (CES) en Las Vegas, simula de forma simplificada el funcionamiento de las neuronas y la sinapsis del cerebro.

Los chips neuromórficos graban el funcionamiento de las redes neuronales en silicio. Son procesadores menos flexibles y potentes que los destinados a otros usos, pero al estar especializados en esta tarea, son más eficientes energéticamente e ideales para dispositivos móviles, vehículos y equipamiento industrial.

La idea de los chips neuromórficos ha existido desde hace décadas, pero hasta ahora no estaba preparada para encontrar su nicho comercial. En toda la industria de la tecnología, el progreso en inteligencia artificial ha inspirado nuevas investigaciones en hardware para utilizar algoritmos de aprendizaje automático de una manera más eficiente. El mayor reto de los chips neuromórficos en el pasado era lograr transformarlos a una mayor escala.

Este chip es una parte del intento de Intel de reinventarse. La compañía ya no puede confiar en entregar procesadores cada vez más rápidos cuando la Ley de Moore ha chocado de lleno con la ley de la física.

La compañía anunció también durante el CES que ha construido un nuevo chip de computación cuántica más grande, un dispositivo que explota las extrañas y maravillosas reglas de la física cuántica para hacer ciertos tipos de cálculos con una velocidad increíble. Intel solo ha revelado que se llama Tangle Lake y que contiene 49 cúbits, pero no ha dicho nada sobre cuán fiable o estable es. A pesar de estos avances, aún no está claro cómo se podrían usar estos procesadores cuánticos, más allá de algunas aplicaciones como descifrar códigos y el modelado automatizado. El cúbit es el análogo cuántico del bit en informática.


IBM anuncia un ordenador cuántico de 50 cúbits pero no dice cómo funciona

IBM anunció en noviembre 2017 un ordenador cuántico capaz de manejar 50 bits cuánticos, o cúbits. La compañía también está trabajando en un sistema de 20 cúbits que ofrecerá a través de su plataforma de computación en la nube. El sistema sería el más avanzado de su clase, pero la compañía no ha publicado ningún detalle sobre su funcionamiento.

Gracias a la capacidad de estas máquinas de aprovecharse de la naturaleza y las exóticas propiedades de la física cuántica, son capaces de procesar la información de una manera totalmente diferente a los ordenadores tradicionales.

Pero el anuncio no significa que la computación cuántica esté lista para usarse de forma masiva. El nuevo sistema de IBM todavía es extremadamente delicado y su uso es todo un desafío. En los ordenadores cuánticos de 50 cúbits y 20 cúbits, el estado cuántico sólo se mantiene durante 90 microsegundos. Aunque la cifra es un récord para la industria, es un tiempo extremadamente breve como para hacer algo útil.

Aún así, la combinación de los 50 cúbits supone un paso importante en el camino hacia los ordenadores cuánticos prácticos. Una máquina de 50 cúbits puede hacer cosas que son extremadamente difíciles de simular sin una tecnología cuántica.

Mientras que los ordenadores tradicionales almacenan la información en forma de unos y ceros, los ordenadores cuánticos explotan dos fenómenos cuánticos para procesar información de manera diferente: el entrelazamiento y la superposición.

Hace poco, el equipo de IBM sugirió que los sistemas cuánticos más allá de 50 cúbits pueden ser simulados en ordenadores convencionales mediante algunos ingeniosos trucos matemáticos. Eso significaría que la supremacía cuántica es un objetivo en movimiento, al menos por ahora. Pero no cambia el hecho de que los ordenadores cuánticos se acercan cada día más a estar listos para llegar al gran público.


Los cúbits superconductores de Google podrían estar a punto de lograr la supremacía cuántica

Los investigadores de la Universidad de California Santa Barbara Charles Neill y el de Google Pedram Roushan, afirman que saben cómo lograr la supremacía cuántica, y han demostrado con éxito por primera vez una prueba de concepto de la máquina. Su trabajo plantea la posibilidad de que sólo falten unos meses para la primera demostración de la supremacía cuántica.

La nueva investigación de Google (octubre 2017) demuestra un sistema estable de nueve cúbits con superposición cuántica por superconducción cuyos errores no aumentan exponencialmente. Si consiguen escalarlo a 49 cúbits, habrán logrado la supremacía del ordenador cuántico.

La gran promesa de la computación cuántica es la posibilidad de realizar cálculos de una complejidad tal que no puede ser asumida por los ordenadores convencionales. Los físicos saben desde hace tiempo que un ordenador cuántico de sólo 50 cúbits podría derrotar incluso a las supercomputadoras más poderosas del mundo.

Pero superar los límites de la computación convencional, lograr la supremacía cuántica, como lo llaman los físicos, está siendo ser más difícil de lo esperado. Los estados cuánticos son muy delicados: un estornudo y desaparecen. Por este motivo los físicos se han visto empantanados ante las dificultades prácticas de aislar del mundo exterior a los ordenadores cuánticos y su maquinaria de procesamiento.

Pero puede haber otra manera de demostrar la supremacía cuántica que no requiera un ordenador cuántico general para ejecutar varios algoritmos cuánticos. En su lugar, los físicos han empezado a jugar con sistemas cuánticos centrados en una única tarea. Si pueden demostrar que esta tarea supera la capacidad de cualquier computadora convencional, entonces habrán demostrado la supremacía cuántica por primera vez. Lo que no está claro es cómo hacerlo.

La gran ventaja de los cúbits sobre los bits ordinarios es que pueden existir en una superposición de estados. Así, mientras que un bit ordinario puede ser un 1 o un 0, un cúbit puede ser un 1 y 0 al mismo tiempo. Esto significa que dos cúbits pueden representar cuatro números al mismo tiempo, tres cúbits pueden representar ocho números, y, nueve cúbits, 512 números simultáneamente. En otras palabras, su capacidad aumenta exponencialmente.

Por eso no hacen falta muchos cúbits para superar a los ordenadores convencionales. Con sólo 50 cúbits se pueden representar 10.000.000.000.000.000 números. Una computadora clásica requeriría del orden de un petabyte de memoria para almacenar ese número.

Así que una manera de alcanzar la supremacía cuántica es crear un sistema que pueda soportar 49 cúbits en una superposición de estados. Este sistema no necesita realizar cálculos complejos, solo tiene que ser capaz de explorar de manera fiable el espacio completo de una superposición de 49 cúbits.

Los cúbits son objetos cuánticos que pueden existir en dos estados al mismo tiempo, y hay muchas maneras de hacerlos. Por ejemplo: los fotones pueden ser polarizados tanto vertical como horizontalmente al mismo tiempo; los núcleos atómicos pueden girar con su eje hacia arriba y hacia abajo al mismo tiempo; los electrones pueden viajar a lo largo de dos trayectorias al mismo tiempo. Los físicos están experimentando con todos estos sistemas para la computación cuántica.

Neill y Roushan han elegido otra ruta. Su sistema cuántico se basa en un cúbit superconductor. En esencia se trata de un bucle de metal enfriado a baja temperatura. Si se establece una corriente que fluya a través de este bucle, fluirá para siempre; un fenómeno cuántico conocido como superconductividad.

Esta naturaleza cuántica permite un pequeño truco: la corriente puede fluir en una dirección y en la otra al mismo tiempo. Y esto es lo que le permite actuar como un cúbit que puede representar simultáneamente un 0 y un 1.

La gran ventaja de los cúbits superconductores es que son relativamente fáciles de controlar y medir. También se pueden vincular entre ellos si se colocan varios bucles uno al lado del otro en un chip. Esta vinculación entre los vecinos es más difícil y requiere de otro truco. El flujo de corriente en una dirección u otra es sólo una configuración de baja energía. Pero es posible añadir más energía y otros estados. Son estos estados de energía superior los que pueden interactuar entre sí, creando superposiciones mayores. De esta manera, los bucles vecinos pueden compartir un mismo estado mucho más complejo.

El experimento de prueba de concepto que Neill, Roushan y sus colaboradores han logrado consiste en hacer un chip con nueve lazos vecinos y mostrar que los cúbits superconductores que soportan pueden representar 512 números simultáneamente. No es ni de cerca el número de cúbits necesarios para la supremacía cuántica, pero el experimento parece sugerir que será posible.

El gran temor entre los físicos es que no son sólo los números, sino también los errores, los que aumentan exponencialmente en estos sistemas cuánticos. Si los errores aumentan con demasiada rapidez, inundarán el sistema, haciendo imposible la supremacía cuántica. El resultado clave de este experimento es mostrar que los errores no escalan rápidamente en estos chips superconductores. En cambio, la investigación demuestra que los errores aumentan lentamente, de una manera que debería permitir la superposición significativa de hasta 60 cúbits.

Es un trabajo interesante. Se sugiere claramente que la supremacía cuántica debería ser posible con un chip que tenga 50 bucles superconductores en lugar de sólo nueve. Un chip de 50 cúbits solo será posible si los errores continúan escalando tal y como demuestra la investigación. Y eso plantea una pregunta importante. El equipo afirma que los errores escalan a medida que el número de cúbits aumenta de cinco a nueve. Pero, ¿escalarán de la misma manera los errores según aumenten los cúbits de nueve a 50?

Si no lo hacen, la supremacía cuántica está aún muy lejos. Pero si lo logran, este equipo espera proclamar la supremacía cuántica en los próximos meses. Así que Neill, Roushan y su equipo estarán ahora mismo trabajando duro para responder esa pregunta.


*     *
*

La inteligencia artificial debe explicar cómo funciona

Por muy buenas que sean las predicciones del aprendizaje profundo, nadie sabe cómo llega a sus conclusiones. Este hecho está empezando a generar un problema de confianza y las herramientas para resolverlo no están ayudando demasiado. Pero tal vez así es la propia naturaleza de la inteligencia.

La tecnología de IA conocida como aprendizaje profundo ha tenido mucho éxito resolviendo problemas en los últimos años, y cada vez se usa más en labores como generar subtítulos, reconocer la voz y traducir idiomas. Estas mismas técnicas podrían llegar a ser capaces de diagnosticar enfermedades mortales, tomar decisiones bursátiles multimillonarias y transformar industrias al completo.

Pero esto no sucederá  (o no debería) a menos que consigamos que las técnicas como el aprendizaje profundo resulten más comprensibles para sus creadores y rindan cuentas ante los usuarios. En caso contrario, resultará difícil predecir cuándo se podrían producir fallos, los cuales son inevitables.

Ya hay argumentos que defienden que la capacidad de interrogar a un sistema de inteligencia artificial sobre cómo llegó a sus conclusiones representa un derecho legal básico. A partir del verano de 2018, la Unión Europea podría obligar a las empresas a que ofrezcan una respuesta a sus usuarios sobre las decisiones a las que llegan los sistemas automatizados. Esto podría resultar imposible, incluso para sistemas aparentemente sencillos, como las apps y páginas web que emplean el aprendizaje profundo para mostrar anuncios y recomendar canciones. Los ordenadores que ejecutan esos servicios se han auto programado y ni siquiera sabemos cómo. Incluso los ingenieros que desarrollan estas apps son incapaces de explicar totalmente su comportamiento.

La inteligencia artificial no siempre ha sido así. Desde un principio, ha habido dos escuelas de pensamiento respecto a lo entendible, o explicable, que debería ser. Muchos creían que tenía sentido desarrollar máquinas que razonaran de acuerdo a reglas y lógica, lo que volvería transparente su funcionamiento interno para cualquiera que quisiera examinar el código. Otros sentían que la inteligencia avanzaría más si las máquinas se inspiraran en la biología, y aprendieran mediante la observación y la experiencia. Esto significaba invertir la programación informática. En lugar de que un programador escribiera los comandos para resolver un problema, el programa genera su propio algoritmo en base a datos de ejemplo y el resultado deseado. Las técnicas de aprendizaje automático que evolucionaron para convertirse en los sistemas de IA más potentes de la actualidad siguieron el segundo camino: básicamente, la máquina se auto programa.

Al principio, este enfoque no tenía demasiadas aplicaciones, y durante las décadas de 1960 y 1970 seguía ocupando la periferia del campo. Entonces la informatización de muchas industrias y la llegada del big data renovaron el interés. Eso inspiró el desarrollo de técnicas de aprendizaje automático más potentes, especialmente nuevas versiones de una técnica conocida como red neuronal artificial. Para finales de la década de 1990, las redes neuronales podían digitalizar automáticamente caracteres escritos a mano.

Pero no fue hasta principios de esta década, tras varios ingeniosos ajustes y refinamientos, cuando las redes neuronales muy grandes, o "profundas", empezaron a ofrecer drásticas mejoras en la percepción automatizada. El aprendizaje profundo es responsable de la explosión actual de la IA. Ha dotado los ordenadores de poderes extraordinarios, como la capacidad de reconocer las palabras habladas casi igual de bien que cualquier persona, algo demasiado complejo para ser codificado a mano. El aprendizaje profundo ha transformado la visión de máquinas y mejorado muchísimo la traducción automatizada. Ya contribuye en la toma de todo tipo de decisiones claves en la medicina, las finanzas, la fabricación y mucho más.

El funcionamiento de cualquier tecnología de aprendizaje automático es inherentemente más opaco que un sistema codificado a mano, incluso para los informáticos. Esto no quiere decir que todas las futuras técnicas de IA vayan a resultar igual de imposibles de entender. Pero, por su naturaleza, el aprendizaje profundo es una caja negra especialmente oscura.

Simplemente no es posible adentrarse en las entrañas de una red neuronal profunda para comprobar cómo funciona. Su razonamiento está arraigado en el comportamiento de miles de neuronas simuladas, dispuestas en docenas o incluso cientos de capas intricadamente interconectadas. Las neuronas de la primera capa reciben informaciones, como la intensidad de un píxel dentro de una imagen, y después realizan un cálculo antes de emitir una nueva señal. Estas señales alimentan las neuronas de la próxima capa de una compleja red, y así sucesivamente hasta generar un resultado final. Además, hay un proceso conocido como propagación hacia atrás que ajusta los cálculos de neuronas individuales para que la red aprenda a producir un resultado deseado.

Las múltiples capas de una red profunda la habilitan para reconocer cosas a muchos niveles distintos de abstracción. En un sistema diseñado para reconocer perros, por ejemplo, las primeras capas reconocen elementos muy básicos como contornos y colores; las siguientes capas reconocen cosas más complejas como el pelo o los ojos; y las capas superiores objetos al completo, como un perro. El mismo enfoque puede aplicarse a otras áreas que permiten que las máquinas se enseñen a sí mismas: los sonidos que componen las palabras dentro del habla, las letras y palabras que generan frases dentro de un texto o los movimientos de volante requeridos para la conducción.

Pero no podemos conformarnos con una visión aproximada de cómo funciona la inteligencia artificial, y parece que no hay soluciones fáciles. Lo que resulta crucial para reconocer patrones y tomar decisiones complejas de nivel superior es la interacción de cálculos dentro de una red neuronal profunda. Pero esos cálculos son una ciénaga de funciones y variables matemáticas. Aún estamos muy lejos de disponer de una IA verdaderamente interpretable.

Conocer el razonamiento de la IA también será imprescindible si la tecnología aspira a formar parte de la vida diaria de las personas.

Al igual que muchos aspectos del comportamiento humano resultan imposibles de explicar en detalle, tal vez no será posible que la inteligencia artificial llegue a explicar todo lo que hace.

En tal caso, tal vez llegue un momento en el que debamos decidir si confiamos ciegamente en la IA o desechamos su uso. Igualmente, esa misma decisión tendrá que incorporar inteligencia social. Al igual que la sociedad se construye sobre una base de comportamientos aceptables, necesitaremos diseñar los sistemas de IA para respetar y encajar con nuestras normas sociales.

Fuente : MIT Technology Review


Ver también…


No hay comentarios.:

Publicar un comentario