Inteligencia artificial y transdisciplinariedad

Una de las grandes ventajas de trabajar en la universidad es formar parte de una red que abarca distintas áreas de conocimiento.

Y aunque la estructura de departamentos no facilita el contacto, siempre he procurado estar al tanto de lo que otros compañeros hacen para ampliar los límites de la ciencia. En enero de 2012 una de nuestras investigadoras más reconocidas, Eva Martín Del Valle, dio la lección inaugural en la fiesta de Santo Tomás de Aquino. Y lo hizo a partir de una pregunta: ¿Del reduccionismo al holismo en la ciencia actual? En su conclusión, la profesora Martín Del Valle decía que “son las conexiones entre disciplinas, las fronteras, las interfaces, las heterogeneidades, las zonas de fuerte gradiente donde se puede generar mucha entropía, y es en este contexto donde aumentan la probabilidad de generación  de nuevo y valioso conocimiento”.

Los proyectos transdisciplinares, en los que colaboran investigadores de ámbitos que aparentemente no se tocan en el esquema tradicional de la ciencia, suelen ser los más fructíferos. De hecho, muchas convocatorias de financiación favorecen este tipo de sinergias para crear equipos transversales donde la suma de distintos conocimientos, visiones y formas de trabajar multiplican las posibilidades de obtener nuevos y valiosos avances.

Si vamos al ámbito de la computación, tradicionalmente asociada a las matemáticas, esa relación interdisciplinar se hace muy visible y necesaria. El desarrollo de la inteligencia artificial (IA), además de abrir la puerta a una nueva forma de entender, crear y relacionarse con las máquinas, se basa en las aportaciones que otras áreas de conocimiento hacen para sustentar un nuevo modelo de relaciones entre personas y sistemas artificiales.

Desde que Alan Turing presentara su famoso test para discernir entre la inteligencia humana y la artificial, esta última se ha desarrollado no solo a partir de ecuaciones y modelos matemáticos, sino de las aportaciones de la filosofía y la psicología. La base y posterior desarrollo de la cuestión planteada por el inglés creó los cimientos de la inteligencia artificial, que rompía con el modelo basado en axiomas y deducciones para llevar a cabo los procesos de cálculo previos a los ordenadores, abriendo una apasionante discusión en la que se debate sobre la propia esencia del ser humano.

El austriaco Heinz von Foerster, cuyas Semillas de la cibernética se ha convertido en un clásico que estoy releyendo, analiza cómo la realidad es procesada por el cerebro humano, para después centrarse en los denominados sistemas auto organizadores, su relación con el ambiente que los rodea y el fenómeno de la entropía. Y resulta llamativo comprobar cómo en los estudios sobre la cibernética de primer o segundo orden tiene un uso compartido en distintas disciplinas como la física, biología, epistemología, lógica, filosofía, sociología y antropología, entre otras, influyéndose recíprocamente.

Una de las cosas que más me han llamado la atención de este libro es el debate que se abre sobre las distintas denominaciones que hemos dado a algunos elementos y funciones de los ordenadores. Por ejemplo, llamamos memoria al dispositivo donde se almacenan los datos, pero ese es un término pensado para los seres vivos capaces de codificaralmacenar y recuperar la información que se ha conocido previamente. Los ordenadores no memorizan nada, compilan datos que se convierten en información cuando son procesados. Es una metáfora antropomórfica que invita a analizar la inteligencia artificial desde la perspectiva del lenguaje.

Todo esto me lleva a pensar en cómo los informáticos desarrollamos proyectos de investigación que cristalizan en el uso de algoritmos que utilizan las denominadas máquinas sociales. Google, Facebook y Amazon son grandes negocios que basan una parte importante de su éxito en conocer los comportamientos de sus usuarios. Más allá del desafío científico y del desarrollo tecnológico, la aplicación de la inteligencia artificial destapa necesidades en el terreno del derecho, de la seguridad y no digamos del marketing que deben ser resueltas por otros investigadores.

Otro gran debate al que es preciso asomarse desde una perspectiva multidisciplinar es la industria 4.0 y la robotización del trabajo. ¿Cómo no abordar este tipo de cuestiones a partir de las ciencias sociales?

Ante la avalancha de cambios que experimentamos a través del progreso, de su incidencia en todos los órdenes de la vida, y de la necesidad de redefinir el papel de los seres humanos con las máquinas y los sistemas autónomos ¿Quién se atreve a dudar de la importancia de los estudios clásicos, del Trivium que sostiene el pensamiento crítico?

Es importante ser conscientes de la importancia de la investigación transdisciplinar, de ese planteamiento holístico que ponen en práctica algunos de nuestros compañeros, y que no suele ser fácil. Tenemos que darle el valor que se merece al trabajo en equipo, a la colaboración fuera de nuestro entorno más directo, y ser capaces de hacernos más fuertes sumando el potencial propio al de quienes forman parte de nuestra universidad. Nos va el futuro en ello.


Juan Manuel Corchado

Catedrático, Área de Ciencias de la Computación e Inteligencia Artificial, Departamento de Informática y Automática de la Universidad de Salamanca.


REDES SOCIALES:

Contenidos: Noixion.TVWDiarium.com – e4YOU – Másteres – CyberCamp

Únete a otros 19K suscriptores

Descubre más desde Juan M. Corchado

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo