Inteligencia Artificial y Análisis inteligente de Datos: ¡¡estadística y matemáticas, no magia!!

Inteligencia Artificial y Análisis inteligente de Datos: ¡¡estadística y matemáticas, no magia!!

Inteligencia Artificial, Machine Learning, Deep Learning, Dispositivos Inteligentes…,- términos con los que constantemente nos bombardean en los medios de comunicación haciéndonos creer que estas tecnologías son capaces de hacer cualquier cosa y resolver cualquier problema al que nos enfrentemos. ¡¡Nada más lejos de la realidad!!

Según la Comisión Europea1, «los sistemas de inteligencia artificial (IA) son sistemas de software (y en algunos casos también de hardware) diseñados por seres humanos que, dado un objetivo complejo, actúan en la dimensión física o digital mediante la percepción de su entorno a través de la obtención de datos, la interpretación de los datos estructurados o no estructurados que recopilan, el razonamiento sobre el conocimiento o el procesamiento de la información derivados de esos datos, y decidiendo la acción o acciones óptimas que deben llevar a cabo para lograr el objetivo establecido»

La IA engloba múltiples enfoques y técnicas entre las que se encuentran el aprendizaje automático, el razonamiento automático y la robótica. Dentro de ellas centraremos nuestra reflexión en el aprendizaje automático a partir de datos, y más concretamente en el Análisis Inteligente de los Datos orientado a extraer información y conocimiento que nos ayude a tomar decisiones. Se trata de esos datos (históricos o en continuo) que son almacenados por las empresas a lo largo del tiempo y que muchas veces no son puestos en valor. Esos datos que reflejan la realidad de una actividad en concreto y que nos van a permitir crear modelos estadísticos y matemáticos (en forma de reglas y/o algoritmos) que contienen información acerca de cómo es la realidad, de cómo son las cosas tal y como ocurren en la actualidad. ¿Cuáles son entonces los actores principales que intervienen en cómo «cocinar» los datos para obtener información relevante? Los datos, que serán nuestros «ingredientes»; los algoritmos, capaces de procesar esos datos, que serán nuestras «recetas»; los informáticos y matemáticos, que serán los «jefes de cocina» capaces de mezclar correctamente los datos y los algoritmos; y los expertos de dominio, que serán nuestros «catadores» particulares y cuyo cometido será validar los resultados obtenidos.

En primer lugar los datos, esos datos a partir de los cuales queremos extraer información con la que generar modelos o hacer predicciones. Mediante un proceso de aprendizaje continuo de prueba y error, basado en analizar cómo fueron las cosas en el pasado, que tendencias había, que patrones se repetían, etc. se pueden generar modelos y realizar predicciones que serán tan «buenas» como lo son los datos. No es cuestión de cantidad de datos, sino de su calidad. ¿Qué significa eso exactamente? Significa que si a un sistema de IA le enseñamos a multiplicar (dándole ejemplos de multiplicaciones correctas) sabrá hacer esa tarea (multiplicar) pero nunca sabrá restar o dividir. Y que si le damos ejemplos ‘incorrectos’ (3*2=9 en lugar de 3*2=6) aprenderá a multiplicar, pero de forma errónea. Necesitamos por tanto que los datos, ingredientes fundamentales de nuestra receta, estén bien organizados, sean de calidad y podamos confiar en ellos (deben ser relevantes).

Por otro lado están los algoritmos de IA, nuestras «recetas» que nos dicen cómo mezclar correctamente los «ingredientes», como utilizar los datos disponibles para intentar resolver nuestro problema. Son algoritmos que nos permiten construir sistemas informáticos que emulan la inteligencia humana a la hora de automatizar tareas. Sin embargo no todos los algoritmos sirven para resolver cualquier tipo de problema. ¿Qué hay entonces en el «interior» de estos algoritmos? Se trata principalmente de fórmulas matemáticas y estadísticas propuestas hace décadas y cuyas bases han avanzado poco en los últimos años, pero que son ahora más efectivos gracias, no solo al aumento en la cantidad de datos que pueden analizar, sino también al aumento en la potencia de cálculo de los ordenadores, que está permitiendo realizar cálculos mucho más complejos, en menos tiempo y a bajo coste. Sin embargo, aptitudes como la intuición, la creatividad o la consciencia son habilidades humanas que (de momento) no hemos conseguido transferir a una máquina de forma efectiva. Serán, por tanto, – nuestros «jefes de cocina» y nuestros «catadores» los encargados de aportar esos factores humanos en nuestra particular «cocina».

Es por ello que no todos los problemas se pueden resolver utilizando IA ¿Por qué? Porque ni los datos son capaces de «hablar» por si solos, ni son «portadores» de la verdad absoluta, ni los algoritmos son «videntes» capaces de adivinar lo impredecible. Lo que realmente saben hacer los datos y los algoritmos es contestar a las preguntas que les planteamos tomando como base el pasado, siempre y cuando las preguntas planteadas sean las adecuadas. Tras el fallo de una máquina, ¿ cómo se relacionan matemáticamente los datos proporcionados por los sensores que monitorizan la máquina con el fallo producido? Cuando se analiza una imagen, ¿ cómo de parecida es a las imágenes que se han analizado previamente? Cuando se le hace una pregunta a un asistente virtual, ¿ qué respuesta se ha dado más habitualmente en el pasado a esa misma pregunta? Se trata, por tanto, de interrogar a los datos de la forma correcta para que nos revelen la información que queremos.

A lo largo del último siglo la IA ha logrado sobrevivir a varios ‘inventos’ tecnológicos con escasez de financiación e investigación, provocados principalmente por el entusiasmo descontrolado que se puso en la tecnología los años previos2. Ha llegado al momento de «aprender» de nuestros datos históricos y no volver a cometer los mismos erros. Reconozcámosle a la IA las capacidades que realmente tiene y dejemos a los magos de su capacidad de hacer realidad lo imposible. Solo de esta forma la IA entrará en una primavera perpetua.


1 https://op.europa.eu/en/publication-detail/-/publication/d3988569-0434-11ea-8c1f-01aa75ed71a1

2 https://link.springer.com/chapter/10.1007/978-3-030-22493-6_2

La ciberseguridad en entornos industriales ¿estamos preparados? La defensa que toca…

La ciberseguridad en entornos industriales ¿estamos preparados? La defensa que toca…

Como ya comentamos en nuestro anterior post, las redes OT (Operation Technology) de las empresas no están exentas de sufrir ataques informáticos. Hasta hoy son múltiples los ataques sufridos por empresas industriales desde que se produjera en 2010 el primer ciberataque que tuviera repercusión directa en el mundo físico1, incidentes de seguridad que afectan a un amplio abanico de entidades que abarca desde grandes tecnológicas hasta proveedoras de productos finales2. Todas las infraestructuras industriales, y no solo las infraestructuras críticas, están en el punto de mira de los ciberdelincuentes o crackers, en los que el sector OT es en cierta forma «negligente», ya que casi el 90%de las vulnerabilidades y vectores de ataques presentes en un sistema industrial son identificables y explotables utilizando estrategias ampliamente conocidas por los atacantes, siendo el 71% de riesgo alto o crítico al poder paralizar parcial o totalmente la actividad de la empresa3.

Ante el panorama esbozado cabe hacerse una serie de preguntas ¿existen herramientas apropiadas y adaptadas a estos entornos OT? ¿pueden los expertos en ciberseguridad proteger el ámbito OT de la industria? La detección de las vulnerabilidades que afectan a los recursos asociados a las redes OT, elementos clave en la automatización de las plantas industriales, se presenta como una etapa de obligada presencia en cualquier test de penetración. Una vez que las vulnerabilidades han sido identificadas será posible tomar las medidas preventivas necesarias, adaptando las soluciones ya existentes y las buenas prácticas bien conocidas del entorno IT al mundo OT, y no realizando un traslado directo de las mismas.

Algunos intentos de adaptación a nivel de estándares son la IEC 62443, basada en el estándar ISA 99 y que establece el marco de referencia internacional de ciberseguridad en sistemas industriales, o la ISO/IEC 27019:2013, que proporciona principios rectores para la gestión de seguridad de la información aplicada a sistemas de control de procesos. En cuanto a herramientas concretas encontramos, entre otras, la plataforma ControlThings que es una distribución Linux específica para encontrar vulnerabilidades en sistemas de control industrial, sin olvidarnos de herramientas como las de inventariado de activos, diseñadas para poder ser aplicadas en entornos OT4 y entre las que se pueden citar IND de Cisco, eyesight de ForeScout (éstas últimas de pago) o GRASSMARLIN que, siendo open source, mapea de forma masiva la red y muestra visualmente la topología de los SCI/SCADA presentes en ésta. Aspectos susceptibles de ser atacados en un entorno OT de manera específica se pueden encontrar en bases de datos como la de MITTRE-ATT&CK.

Sin embargo, estos intentos de estandarización no son suficientes y se hace imprescindible seguir avanzando en distintos frentes apoyando iniciativas como las siguientes;

  • Permitir que los expertos del entorno OT tomen la iniciativa y aprendan a protegerse. Formarles en la forma correcta de configurar los dispositivos propios de estas redes, haciendo dicha configuración más simple para no expertos en IT y evitando así la posibilidad de realizar configuraciones erróneas por desconocimiento (simplificar la seguridad).
  • Mejorar la adaptación de las soluciones SIEM (Security Information and Event Management) a las redes OT, para que sean menos intrusivas que las actuales y aprendan a identificar patrones propios de las redes industriales, permitiendo una identificación temprana de situaciones anómalas .
  • Poner en prácticas nuevas formas de ciber proteger los sistemas industriales, no centradas en la actualización continua del software y/o la realización periódica de inversiones6.

Hasta no hace mucho, los sistemas OT han vivido desconectados del mundo exterior y por ello, con una falsa sensación de seguridad. Sin embargo la protección de estos entornos OT debe ser priorizada, así como la creación de nuevos perfiles profesionales en ciberseguridad capaces de entender las necesidades y particularidades de los entornos OT.


Autores del Post

Daniel Gómez (dangom@cartif.es)

Javier Román (javrom@cartif.es)

Marta Galende (margal@cartif.es)


1 https://www.businessinsider.es/10-anos-stuxnet-primer-ciberataque-mundo-fisico-657755

2 https://www.incibe-cert.es/alerta-temprana/bitacora-ciberseguridad

3 https://security.claroty.com/1H-vulnerability-report-2021

4 https://www.incibe-cert.es/guias-y-estudios/guias/guia-gestion-inventario-activos-sistemas-control-industrial

5 https://www.incibe-cert.es/blog/diseno-y-configuracion-ips-ids-y-siem-sistemas-control-industrial

La ciberseguridad en entornos industriales, ¿estamos preparados? Los ataques que vienen…

La ciberseguridad en entornos industriales, ¿estamos preparados? Los ataques que vienen…

Robos de identidad y datos de usuario, ransomware, phising, pharming o ataques de denegación de servicio, son términos que escuchamos cada vez más en los medios de comunicación1,2,3,4. El mundo hiperconectado en el que vivimos hace que las empresas como entidades productivas estén cada vez más expuestas a ser objeto de un delito cibernético5,6,7. Las campañas existentes para concienciar en ciberseguridad son muy diversas pero, ¿ cómo pueden las empresas blindarse ante todas estas amenazas sin llegar a comprometer sus objetivos finales de negocio?

Tradicionalmente la orquestación de la ciberseguridad en entornos industriales ha sido delegada casi en exclusiva al departamento IT de las empresas, que han centrado su trabajo en proteger las redes ofimáticas, aplicando estándares y normativas bien conocidas como: ISO/IEC 27001, ISO/IEC 15408, o la ISO/IEC 19790. Para estos equipos expertos en ciberseguridad, «no hay mejor defensa que un buen ataque». Esta frase del general chino Sun Tzu (autor de la obra «El Arte de la Guerra», considerada una obra maestra sobre la estrategia) subyace en el fondo de los conocidos como test de penetración (o pentesting). Los test de penetración son básicamente un conjunto de ataques simulados dirigidos a un sistema informático con la única finalidad de detectar posibles debilidades o vulnerabilidades para que sean corregidas y no puedan ser explotadas 8. ¿Y por qué son tan importantes estos test? Porque diversos estudios muestran que la mayoría de los ataques aprovechan vulnerabilidades ya conocidas y recogidas en bases de datos como las de CVE, OWASP o NIST que por diversas razones no son corregidas 9,10.

Dentro del sector IT algunas de las metodologías y marcos de auditorías de seguridad más conocidos para hacer pentesting son: Open Source Security Testing Methodology Manual (OSSTMM), Information Systems Security Assessment Framework (ISSAF), Open Web Application Security Project (OWASP), y Penetration Testing Execution Standard (PTES). Cada una de estas metodologías adopta una estrategia diferente para las pruebas de penetración en función del tipo de aplicativo a auditar (móvil nativo, web, infraestructura, …), siendo en este sentido complementarias.

ciberseguridad

A nivel más práctico, los equipos de IT disponen de una gran cantidad de herramientas para realizar estos test, tanto gratuitas y/o de código abierto como comerciales. Algunas de las más conocidas son: Metasploit, Community Edition, Nessus, Edición personal, Saint, Nmap, Netcat, Burp Suite, John the Ripper o Wireshark. La mayor parte de estas herramientas viene ya pre-instaladas en distribuciones específicas para realizar test de penetración como son Kali Linux, BlackArch Linux o Parrot Security.

Sin embargo, las redes ofimáticas a cargo del departamento IT no son las únicas existentes en una empresa industrial. Hoy en día cada vez son más los recursos utilizados en la producción (PLC, SCADA, …), normalmente interconectados por buses de campo compatibles con el protocolo TCP/IP de Internet, como por ejemplo PROFIENT o MODBUS TCP. Desde ellos, gracias a la función de enrutado disponible en PLC´ s de diversas marcas, es posible acceder mediante pasarelas (gateways) a segmentos de otros buses de campo a los que anteriormente no se podía acceder desde el exterior, como, por ejemplo, PROFIBUS11 . Esta interconexión entre las redes IT (Information Technology) y OT (Operation Technology), tan necesaria al hablar de Industria 4.0, aumenta las posibilidades que tiene la industria de ser objeto de ciberataque.

En la próxima entrega, hablaremos de cómo podemos defendernos de tal amenaza…


Autores del Post

Daniel Gómez (dangom@cartif.es)

Javier Román (javrom@cartif.es)

Marta Galende (margal@cartif.es)


1 https://elpais.com/economia/2021-11-11/un-ataque-informatico-obliga-a-paralizar-la-principal-planta-de-la-cervecera-damm.html

2 https://www.lavanguardia.com/tecnologia/20211108/7847465/ciberataque-mediamarkt.html

3 https://www.elespanol.com/omicrono/tecnologia/20211025/supermercado-tesco-hackeo-clientes-sin-pedidos-varios/622188010_0.html

4 https://www.elmundo.es/economia/2021/03/09/6047578dfc6c83411b8b4795.html

5 https://cincodias.elpais.com/cincodias/2021/07/21/companias/1626821663_803769.html

6 https://directivosygerentes.es/innovación/54-por-ciento-retailers-espanoles-sufrido-ciberataque

7 https://www.fortinet.com/lat/corporate/about-us/newsroom/press-releases/2021/fortinet-reporta-ataques-ransomware-multiplicado-diez-ultimo-ano

8 https://www.incibe.es/protege-tu-empresa/blog/el-pentesting-auditando-seguridad-tus-sistemas

9 https://owasp.org/Top10/

10 https://www.muycomputerpro.com/2021/11/11/ransomware-ataques-vulnerabilidades-empresas

11 https://support.industry.siemens.com/cs/document/584459/%C2%BFqu%C3%A9-m%C3%B3dulos-permiten-trabajar-con-la-funci%C3%B3n-s7-routing-en-subredes-s7-?dti=0&lc=es-ES

El siglo del fotón

El siglo del fotón

Lo más seguro es que la palabra fotónica no forme parte de tu vocabulario habitual, pero las tecnologías desarrolladas en este campo son cada vez más usadas en el discurrir diario de nuestras vidas.

Albert Einstein

Si atendemos a la definición que da la RAE de la fotónica: «Perteneciente o relativo a los fotones» lo más seguro es que esto no os diga nada, a no ser que conozcáis trabajos de investigación como los del gran físico Albert Einstein. Concretamente su explicación del fenómeno fotoeléctrico descubierto por Hertz en 1887 y por el que, curiosidades de la vida, Einstein recibió hace exactamente 100 años (1921), el premio Nobel y no por su famosa teoría de la relatividad.

La fotónica se entiende mejor si usamos otras definiciones, como la formulada por la plataforma española fotónica21 de la que CARTIF forma parte:

«La Fotónica es la ciencia del aprovechamiento de la luz, cubriendo la generación, detección, gestión del guiado, manipulación de la luz y, lo que es más importante, su utilización en beneficio de la humanidad»

Por tanto, la luz es el centro de la fotónica. Fenómeno físico cuya explicación ha necesitado de cientos de años y de grandes genios para su comprensión sino en su totalidad al menos en un alto grado. Desde las escuelas griegas con Aristóteles y Euclides como ejemplos destacados, numerosos científicos, como Al Haytham, Newton, Young, Maxwell o el propio Einstein dedicaron parte de su vida a dar respuesta a la pregunta ¿Qué es la luz?.

Si resumimos algunas de las conclusiones de estos padres de la fotónica, podemos decir que la luz se define tanto por una onda como por una partícula, lo que se ha denominado la dualidad onda-partícula de la luz. Esta dualidad fue fuente de enconadas discusiones como la llevada a cabo entre Huygens y Newton en el siglo XVII, Huygens defendía la naturaleza ondulatoria de la luz, mientras que Newton solo entendía la luz como un conjunto de corpúsculos luminosos. En el siglo XIX fueron Young con su famoso experimento de la doble rendija y Maxwell con su tratado del electromagnetismo los que confirmaron la naturaleza ondulatoria de la luz, mientras que a principios del siglo XX, Plank y Einstein demostraron la necesidad de cuantificar la luz en forma de paquetes discretos de energía para poder explicar la radiación de un cuerpo negro y el ya mencionado efecto fotoeléctrico. En 1926, Gilbert Lewis denominó fotón a este «quantum» de energía.

Dualidad onda-partícula de la luz Fuente: https://www.youtube.com/c/inanutshell

Por otra parte, la luz no es solo la radiación que podemos ver con nuestros ojos, lo que se conoce como el espectro visible, sino que también se asocia a la radiación infrarroja, la ultravioleta, los microoondas, las ondas de radio y a los rayos X y gamma ya que dichas radiaciones son de la misma naturaleza como demostró Maxwell. De hecho, la International Society of Photonics and Optics (SPIE) en su informe anual del 2020 establece que la fotónica cubre todo el rango del espectro electromagnético, desde los rayos gama hasta las ondas de radio.

fotónica espectro electromagnético
Espectro electromagnético

Podríamos decir, de forma simplificada que:

«La luz está formada por un conjunto de partículas, llamadas fotones, que se propagan en forma de ondas electromagnéticas con un amplio rango de frecuencias.»

Donde los fotones son partículas de luz que interaccionan con la materia a nivel subatómico. De forma que si estas partículas tienen el valor adecuado de energía, definido por la frecuencia de la onda, provocarán que los electrones de los átomos absorban su energía y se posicionen en niveles superiores de energía. Del mismo modo, estas partículas de luz son liberadas en los átomos cuando los electrones regresan de forma espontánea o estimulada a niveles de energía menores o más estables.

Interacción de los fotones con la materia Fuente: https://www.clpu.es/

Pues bien, estos fenómenos que ocurren a nivel subatómico son la base para el desarrollo de dispositivos como los LED o los LASER sin los cuales no podríamos, entre otros usos, mejorar la eficiencia energética de nuestras casas o tener cada vez mayores anchos de banda en las comunicaciones por fibra óptica. Estas son una pequeña parte de las aplicaciones de la fotónica, pero da una idea de la magnitud de su importancia ya que está presente en un sinfín de sectores de aplicación.

Por lo que cuando enciendas las luces, oigas las noticias en la radio o las veas en la televisión, te conectes por internet mediante fibra óptica o a través de wireless con tu tablet o smartphone para ver tu serie favorita, actives los sensores de la alarma de tu casa, te hagas fotos, calientes tu desayuno en el microondas e infinidad de acciones más del día a día, piensa como la fotónica ha cambiado nuestras vidas. No es de extrañar que el siglo XXI se haya definido como el siglo del fotón del mismo modo que el siglo XX fue el del electrón y que la fotónica sea una de las tecnologías claves para que la humanidad siga su desarrollo y supere muchos de los complicados retos a los que se enfrenta actualmente y a los futuros.

Desde el 2020 CARTIF forma parte de PhotonHub Europe una plataforma formada por más de 30 centros de referencia en fotónica de 15 países europeos en el que más de 500 expertos en fotónica ofrecen su apoyo a empresas (principalmente PYMES) para ayudarlas a mejorar sus procesos productivos y productos a través del uso de la fotónica. Para ello se han articulado hasta el año 2024 acciones formativas, de desarrollo de proyectos y de asesoramiento a nivel técnico y financiero. Por otro lado, para estar al tanto de lo que ocurre en el mundo de la fotónica os animamos a formar parte de la comunidad creada en PhotoHub Europe. En esta comunidad podéis estar al tanto de las actividades de la plataforma como de noticias y eventos relacionados con la fotónica.

La consciencia no es computable, es cuántica

La consciencia no es computable, es cuántica

Mucho del nuevo bombo alrededor de la Inteligencia Artificial (IA) está directamente relacionada con la potencialidad para imitar o superar las capacidades del cerebro humano (en cuanto a volumen de datos manejados y velocidad de procesamiento) mediante el uso de los ordenadores. El neurocientífico Henry Markram en 2009 anunció un proyecto que pretendía simular el cerebro humano en una super-computadora con diferentes objetivos como «comprender la percepción o la realidad y tal vez incluso comprender también la realidad física».

La denominada «singularidad tecnológica» establece como la IA y la robótica nos sobrepasará a los humanos. Hay diferentes predicciones sobre cuándo ocurrirá este apocalipsis. Elon Musk coloca esta singularidad en 2025, el millonario ruso Dmitri Itskov en 2045, por citar varios ejemplos. El continuo avance de las capacidades de los microprocesadores también alimenta, erróneamente, este bombo de la IA. Si uno compara únicamente el número de neuronas (unos 86.000 millones) con el número de transistores del último chip M1 de Apple (16.000 millones) puede estar tentado de asegurar que la «capacidad de computación» del ser humano es fácilmente superable. Lo sé, las comparaciones son odiosas, y en este caso , muy atrevidas.

Hasta hace poco yo también me encontraba entre los expectantes de tales predicciones, pero con un grado de escepticismo razonable. Todo esto cambió para mí en lo más crudo del confinamiento del 2020. Andaba yo deambulando por YouTube en búsqueda de vídeos interesantes relacionados con la IA y llegue a uno muy curiosos y que da título a este post, y que atrajo mi curiosidad: 1la consciencia no es computable. En este vídeo, un más que lúcido Sir Roger Penrose, físico, matemático y filósofo, es entrevistado por el vlogger Lex Fridman, experto en IA y conducción autónoma.

He de decir que, aunque el nivel científico de lo expuesto en el vídeo es muy alto, la lucidez, detalle y afabilidad demostradas por Penrose, me atrapó y logró mantenerme atento durante toda la entrevista. Especialmente, hay una parte que me pega a la silla y me hace rebobinar varias veces para tratar de comprender con el mayor detalle posible. La entrevista empieza directamente con esta tesis demoledora (la mantengo en inglés por ser más fiel): «I´ m trying to say that whatever consciuosness is, it´s not a computation…it´s not a physical process which can be described by computation».

Durante la entrevista, Penrose explicó cómo su curiosidad por la neurofisiología le llevó a explorar los principios básicos de la física, la cosmología, las matemáticas y la filosofía en su libro de 1989 «The Emperor´ s New Mind» para proponer que el pensamiento humano nunca podría ser emulado por una máquina, en contra de las tesis «mainstream» de entonces acerca de cómo las computadoras usando «inteligencia artificial» pronto podrían hacer todo lo que un humano puede hacer.

¿Qué le lleva a asegurar de forma tan tajante la imposibilidad de emular la consciencia humana mediante un ordenador? ¿No se supone que juntando muchos chips de nuestros ordenadores podemos superar el número de neuronas de nuestro cerebro y su capacidad de computación ( si me permitís esa burda comparación)?. Igual que la vida no es un conjunto de células agrupadas en órganos, la «emulación» de las capacidades del cerebro no es una cuestión de agrupar un alto número de transistores y sus impulsos eléctricos. Todos recordamos las explicaciones de cómo las neuronas transportan la información a través de impulsos eléctricos. En su análisis de la fisiología del cerebro, Penrose, ni siquiera al final de su libro pudo llegar a explicar completamente como era posible que las señales nerviosas pudiesen transmitirse mediante impulsos eléctricos de forma coherente por el cerebro. Algo no le cuadraba o le faltaba en su teoría. Pero parece que, a un lector de su libro, el anestesiólogo Stuart Hameroff, fue al único que le cuadró. «Creo que te has olvidado de algo, ¿ no sabes lo que son los microtúbulos?» le dijo a Penrose. «Es lo que te falta para que funcione tu teoría». Los microtúbulos podrían ser la respuesta a la búsqueda de Penrose sobre una fuente no computable en la consciencia humana, desde un punto de vista fisiológico.

¿Pero qué demonios son los microtúbulos? Que me perdonen los biólogos moleculares, pero parece ser que son unas estructuras moleculares de forma tubular que encontramos en las diferentes células de nuestro cuerpo, desde los glóbulos rojos hasta las neuronas. Estas estructuras que «habitan» las interconexiones de nuestras células grises, tienen la propiedad de conservar de una manera muy efectiva su estado (estado de tipo cuántico, pero esto lo dejamos para otro post) y permiten que de alguna forma volvamos a ser los mismos que éramos tras una pérdida de consciencia, por ejemplo, después de una anestesia. Podríamos decir que estos microtúbulos son la unidad almacenamiento (cuántico) básico de nuestro cerebro. Algunos científicos los llaman «el cerebro de la neurona«.

Otra de las razones para poder aspirar a emular el cerebro ha sido poder replicar el número de conexiones que existen entre nuestras neuronas. Es un número bastante grande en realidad. Se estima que cada neurona posee un promedio de 1.000 conexiones. Con 86.000 millones de neuronas esto nos daría unos 86 billones de conexiones. Aunque los números dan vértigo, para algunos expertos parecen conseguibles con la capacidad de cálculo actual en operaciones por segundo (FLOP) de los procesadores. Volviendo al M1 de Apple, este procesador declara ser capaz de efectuar 2.6 TFLOP, 2.6 billones de operaciones por segundo (10 elevado a la 12 ceros). Otra vez, un número aparentemente «cercano» a nuestras conexiones si juntamos un montón de chips trabajando a la vez. Con la aparición fulgurante de chatGPT el debate está más candente que nunca. Sus capacidades ya son casi humanas y sus 175 mil millones de parámetros nos proporcionan una ilusión de comprensión. Pero parece que la consciencia es algo más que conexiones o parámetros de modelo matemático ¿no?

Si nos centramos únicamente en la cuestión cuantitativa y volvemos a los microtúbulos que habitan nuestras neuronas, ¿cuántos de ellos podemos tener? La neurobiología dice que algo más de 1.000 microtúbulos por cada una de nuestras 86 mil millones de neuronas, o sea, 86.000.000.000.0000 microtúbulos (86 billones, similar a las conexiones neuronales) que «almacenan la información cuántica» en la que algunos científicos afirman, reside nuestra consciencia. Podríamos decir en realidad que nuestro cerebro es un ordenador cuántico, ¿no os parece?. Vaya, siento caer de nuevo en una analogía computacional. Volvamos de nuevo a la tecnología para finalizar este post. IBM, promete un ordenador cuántico de 1.000 qubits para 2023. Bastante inferior a los 86 billones de microtúbulos de nuestra cabecita. En mi humilde opinión, y comparando solo aspectos cuantitativos de capacidades de computación actuales y futuras, la denominada singularidad tecnológica informática actual e inteligencia artificial se encuentra aún muy lejos o parece casi inalcanzable. No sé vosotros, pero yo todavía veo un poco lejos la singularidad tecnológica, ¿no os parece?


1 Capacidad del ser humano de reconocer la realidad circundante y de relacionarse con ella

Industria 5.0: ¿en serio?

Industria 5.0: ¿en serio?

Parece mentira, pero ya han pasado 5 años desde que en CARTIF inauguramos nuestro blog con el post sobre la Industria 4.0 en el que analicé algunas de las claves de la llamada “cuarta revolución industrial” y como podría afectar a la industria de nuestro país. Siempre me ha parecido arriesgado tratar de definir esta revolución desde dentro. Supongo que el tiempo y la perspectiva histórica nos dejara más claro si de verdad ha sido una revolución o simplemente un mantra tecnológico. Abróchense los cinturones porque, si aún no hemos asimilado esta revolución, ahora nos “amenazan” con la siguiente, Industria 5.0 la llaman. Original, ¿verdad?

Si la cuarta prometía interconectar los medios productivos de toda la cadena de valor para hacer una transición a la industria inteligente o Smart Industry (todo tiene que ser Smart como cuando hace muchos años cualquier electrodoméstico que se preciase necesitaba llevar “fuzzy logic”), la quinta revolución industrial, trata de humanizar el concepto más allá de solo producir bienes y servicios con fines de lucro económicos. El reto de esta revolución pretende incluir en su propósito consideraciones sociales y ambientales. Las palabras clave de esta revolución, según la definición de la Comisión Europea, deben ser: enfoque centrado en el ser humano, sostenibilidad y resiliencia.

Al desarrollar tecnologías innovadoras con un enfoque centrado en el ser humano, la Industria 5.0 puede apoyar y empoderar a los trabajadores, en lugar de reemplazarlos; asimismo, otros enfoques complementan esta visión desde el punto de vista del consumidor de tal forma que pueda tener acceso a productos lo más personalizados posibles o adaptados a sus posibilidades, de tal forma que conceptos como alimentación personalizada o ropa hecha a medida se apliquen virtualmente a cualquier producto de consumo.

La sostenibilidad en el desarrollo de la industria necesita compatibilizar los objetivos de progreso económico y ambiental. Para conseguir los objetivos ambientales comunes es necesario incorporar nuevas tecnologías e integrar las existentes repensando los procesos de fabricación introduciendo los impactos ambientales en su diseño y operación. La industria debe ser un ejemplo en la transición verde.

La resiliencia de la industria implica desarrollar un mayor grado de robustez en su producción, preparándola contra interrupciones y asegurando que pueda responder en tiempos de crisis como la pandemia de la COVID-19. El enfoque actual de producción globalizada ha demostrado una gran fragilidad durante la pandemia que nos asola. Las cadenas de suministro deben ser también suficientemente resilientes, con capacidad de producción adaptable y flexible, especialmente en aquellos aspectos productos que satisfacen necesidades humanas básicas, como la atención médica o la seguridad.

Al igual que la cuarta necesitaba de unos habilitadores digitales, esta nueva revolución necesita aspectos tecnológicos que la ayuden a materializarse. Desde un punto de vista práctico podemos decir que los habilitadores que revisamos hace un tiempo son de plena actualidad para la Industria 5.0. Podríamos incluir algunos adicionales como la computación cuántica o el block-chain, incipientes hace 4 o 5 años. Si los habilitadores son similares, ¿por qué estamos hablando de una nueva revolución? Es cuestión de prioridades. Si en la cuarta se habla de una hiper-conectividad de procesos al mundo digital a través de sistemas ciberfísicos o el IoT, en la quinta se busca una cooperación entre el humano y la tecnología digital, ya sea en forma de robots industriales colaborativos, robots sociales o sistemas de inteligencia artificial que complementen o ayuden en cualquier tarea relacionada con la producción, desde instalar una puerta en un coche o decidir cómo organizar el siguiente turno de trabajo para cumplir con el objetivo de productividad de la planta de fabricación.