La Inteligencia Artificial (IA) es probablemente una de las ramas de las Ciencias de la Computación que más crecimiento está teniendo en la actualidad. Pese a haber nacido hace más de 70 años, se encuentra en el periodo de su historia en el que mayor interés ha generado debido a la revolución que está provocando en el mercado actual. Por este motivo, y porque la Inteligencia Artificial está suscitando muchas cuestiones e interés entre nuestros clientes, desde Xeridia vamos a publicar una serie de artículos en nuestro blog, comenzando con una introducción que sirva para poner en contexto el concepto de Inteligencia Artificial.
Evolución de la Inteligencia Artificial
Hasta hace poco, existía una limitación de capacidad de cómputo que hacía que la Inteligencia Artificial proporcionara resultados muy pobres en los problemas en los que se aplicaba, lo que produjo varios periodos históricos de descontento en la industria y una considerable reducción tanto del interés en esta disciplina como del número de investigadores dedicados.
Sin embargo, en los últimos años la Inteligencia Artificial está cogiendo gran impulso, al ser capaz de resolver problemas con ordenadores que antes no se consideraba posible, llegando a niveles a los que nunca antes se había llegado. Incluso los dispositivos móviles se benefician de investigaciones en este campo, por ejemplo, a través del texto predictivo del teclado, del desbloqueo de pantalla con huella dactilar o de la detección de rostros en los fotogramas captados por la cámara. Se podrían enumerar varias razones que han servido de motor de despegue de la IA, pero destaca con especial énfasis la democratización de la capacidad de cómputo, en especial a partir del año 2009 con la publicación del primer artículo científico sobre la paralelización masiva de cómputo de IA usando GPUs[1] y otro en 2010[2], por la demostración de su uso en el reconocimiento automático de dígitos escritos a mano, superando por primera vez la capacidad humana en esta tarea. De esta forma, la Inteligencia Artificial adquiere su nombre debido a la capacidad que tiene un dispositivo electrónico de resolver problemas para los que se requiere inteligencia y que, de forma tradicional (programando), no podría resolverse en un ordenador.
Orígen de la Inteligencia Artificial
Volviendo la vista atrás, el nacimiento de la Inteligencia Artificial se produjo hace más de 70 años, a manos de Alan Turing, considerado como el padre de esta disciplina. En 1936 ideó un modelo computacional, consistente en un cabezal sobre una cinta infinitamente larga que puede leer, escribir y desplazarse sobre ella. Este modelo computacional se denominó máquina de Turing, y permite representar cualquier operación computacional, en otras palabras, cualquier computación puede reducirse y representarse con una Máquina de Turing. Esto suscitó la siguiente pregunta: En el caso de que un cerebro ejerza operaciones computacionales, ¿podría ser reducido y representado mediante una Máquina de Turing? De ser esto posible, significaría que operaciones que consideramos inteligentes podrían ser automatizadas, como por ejemplo la detección de objetos en imágenes, la clasificación de sonidos o incluso el propio funcionamiento de la consciencia de un cerebro. No podemos afirmar que esto último pueda llegar a ocurrir, sin embargo, existen avances en cuanto a simular o aproximar comportamientos inteligentes, razón por la cual han aparecido subcampos en el ámbito de la Inteligencia Artificial como la Visión por Computador (Computer Vision, CV), el Aprendizaje Automático (Machine Learning, ML) y el Procesamiento del Lenguaje Natural (Natural Language Processing, NLP). A lo largo de las entradas que iremos publicando sobre este tema, nos adentraremos gradualmente en cada disciplina con el objetivo de demostrar que la Inteligencia Artificial comienza a tener madurez para ser aplicada en la resolución de problemas que hasta hace muy pocos años se consideraban irresolubles por las máquinas.
La Inteligencia Artificial y la Neurociencia
Curiosamente, existe una fuerte relación entre la neurociencia y la Inteligencia Artificial, haciendo que incluso aportaciones en un campo sirvan de base para aportaciones en el otro. Uno de los casos más llamativos es el de Geoffrey Hinton, considerado el padrino del Aprendizaje Profundo, una subrama del Aprendizaje Automático y de la cual hablaremos en un futuro en este blog. Este científico estudió y dedicó gran parte de su vida a la psicología cognitiva sin descuidar las Ciencias de la Computación, adquiriendo el nivel de Doctor en Inteligencia Artificial. Este hecho le permitió proponer ideas usadas en psicología cognitiva como base para algoritmos de Inteligencia Artificial, convirtiéndose en uno de los referentes en el campo de la IA a nivel mundial. El hecho de combinar ambas disciplinas en conocimiento permite estudiarlas desde diferentes puntos de vista: la neurociencia a través de la ingeniería inversa de lo ya existente y la Inteligencia Artificial desde la creación de algoritmos partiendo desde el desconocimiento. Es posible que, en un futuro, ambas disciplinas converjan lo suficiente como para unificarse.
Iván de Paz Centeno es Científico de datos, ingeniero de I+D en Xeridia
[1] Raina, R., Madhavan, A., & Ng, A. Y. (2009, June). Large-scale deep unsupervised learning using graphics processors. In Proceedings of the 26th annual international conference on machine learning (pp. 873-880). ACM.
[2] Cireşan, D. C., Meier, U., Gambardella, L. M., & Schmidhuber, J. (2010). Deep, big, simple neural nets for handwritten digit recognition. Neural computation, 22(12), 3207-3220.