Transformación digital de aquí a la Luna

Transformación digital de aquí a la Luna

20 de julio de 1969, son las 20:18:04 UTC y después de 102 horas, 45 minutos y 39.9 segundos de viaje, “el águila ha aterrizado” y Neil está a punto de descender por la escalera y tocar una superficie desconocida por primera vez: “Un pequeño paso para el hombre, un gran paso para la Humanidad”. Aquel 1969, Neil Armstrong, Michael Collins y «Buzz» Aldrin cambiaron la historia a bordo del mayor cohete construido con destino a la luna.

transformación de la industria

Muchos lo habrán olvidado, otros como yo ni siquiera habíamos nacido, pero la carrera espacial sufrió una transformación digital similar a la que perseguimos para transformar la industria. El programa Apolo fue la culminación de aquella primera revolución digital en la exploración del espacio.

El alunizaje fue conseguido en parte gracias a la electrónica a bordo del módulo lunar, el ordenador de navegación del Apolo (AGC, del inglés Apollo Guidance Computer). El ordenador AGC fue uno de los primeros ordenadores basados en circuitos integrados digitales. Con “apenas” 32 kgs de peso y unos 55W de consumo, esta maravilla técnica era capaz de coordinar y controlar muchas tareas de la misión espacial, desde calcular la dirección y los ángulos de navegación de la nave, hasta comandar los controles de posición por reacción y orientar la nave en la dirección deseada. Asimismo, el ordenador incluía una de las primeras demostraciones de control «fly-by-wire con los cuales el piloto no comandaba directamente los motores de la nave sino a través de unos algoritmos de control programados en el ordenador de vuelo. De hecho, el ordenador AGC fue la base para los siguientes controles “fly-by-wire” del transbordador espacial, así como de aviones militares y comerciales.

Pero como pasa con este tipo de innovaciones, no suceden de un día para otro sino a partir de innovaciones incrementales previas.

Apollo Guidance Computer_Castellano

Durante los años 50, el MIT Instrumentation Laboratory (MIT IL) desarrolló el sistema de guiado de los misiles Polaris. Este sistema fue construido inicialmente con circuitos analógicos, pero decidieron empezar a usar circuitos digitales para garantizar la precisión requerida para calcular las trayectorias de los misiles y sus algoritmos de control.

Antes de que el presidente Kennedy fijase el ambicioso objetivo de “… viajar a la Luna en esta década …” siete años antes del primer alunizaje, y después de la puesta en órbita del Sputnik en 1957, el MIT IL comenzó un estudio de exploración de Marte mediante una sonda. El diseño de esta sonda sentó las bases del futuro sistema de guiado del Apolo e incluía varios giróscopos para orientar la sonda, un ordenador digital y un telescopio para orientar la sonda en relación a la Luna y las estrellas.

El lanzamiento del Sputnik avivó la ambición de los EEUU por ser el primer país en poner un hombre en el espacio, pero creó el debate público acerca del rol más adecuado para los pilotos en la carrera espacial. Una discusión similar a la actual respecto del rol del trabajador en las fábricas. ¿El astronauta debería ser otra “carga” más a bordo de la nave o tomar el control completo de la misma? Una vez que los pilotos de pruebas se ganaron la responsabilidad de tomar el control de las naves, numerosos test mostraron que era prácticamente imposible controlar todos los aspectos de las misiones debido a la las rápidas reacciones y la gran cantidad de mandos de control. Por lo tanto, los pilotos necesitarían algún tipo de ayuda automática y fiable, y esa fue una de las principales funcionalidades del ordenador AGC.

La fiabilidad se convirtió entonces en una de las principales preocupaciones de la misión. El programa Polaris tardó cuatro años en diseñar el control de guiado para un arma que debía permanecer en el aire durante varios minutos. La apuesta de Kennedy de poner un hombre en la luna en menos de siete años significaba desarrollar otro sistema de guiado y control para una nave espacial que debería funcionar sin fallos en un viaje de más de una semana de duración. Los niveles requeridos de fiabilidad eran, por lo tanto, más de dos niveles de magnitud superiores. Si un misil Polaris fallaba, se podría disparar otro. Un fallo en la nave espacial podría matar a un astronauta.

huella hombre luna

Mucha de la fiabilidad del viaje a la Luna estaría soportada por el ordenador AGC y en cierto momento del programa Apolo había demasiadas tareas planificadas (e.g. maniobras complejas) como para ser controladas con circuitos digitales independientes. Para llevar a cabo estas tareas hacía falta un software. Aunque este concepto apenas se tuvo en cuenta en el principio del programa Apolo, significó la diferencia entre el fracaso o el éxito de todo el proyecto. El ordenador AGC se convirtió en el interfaz entre el astronauta y la nave, que finalmente significaría que el ordenador “controlaba” la nave, una revolución para la época. Hoy en día, el software está en todas partes, pero en los años 60, el software era considerado como un conjunto de instrucciones en tarjetas perforadas. Los programas del ordenador AGC (fijados entre tres y cuatro meses antes de cada lanzamiento) estaban “cableados” mediante ferritas y cables en una memoria permanente (y muy fiable) pero ahorraron mucho tiempo, esfuerzo y presupuesto. De hecho, puede decirse que el software del Apolo era más un “firmware” utilizando la terminología actual.

El reto actual de revolucionar la industria a través de la transformación digital no puede ocurrir sin la ayuda de los denominados habilitadores digitales. Hace 48 años, los primeros circuitos digitales integrados y los primeros programas fueron los habilitadores que permitieron conseguir aquel  “pequeño paso para el hombre”. Hoy, el típico “la transformación digital no es una opción”, puede sonar a cliché o eslogan comercial, pero echando una mirada hacia atrás en la historia, la transformación digital del programa Apolo significó la diferencia entre poner o no poner la primera huella humana en la Luna.

La Guerra de las Eficiencias (Episodio V) – El payback contraataca

La Guerra de las Eficiencias (Episodio V) – El payback contraataca

Cuidado, no acabe costando más el collar que el galgo.

En mi anterior entrada hablé de lo recomendable que podría ser para una fábrica desagregar (por medida directa y no por estimación basada en valores nominales), los consumos energéticos de la fábrica entre las distintas líneas, maquinarias y sistemas que la componen. Bromas Jedi aparte, lo cierto es que dicha desagregación es un ejemplo de la conocida regla “medir para conocer, conocer para controlar, y controlar para mejorar”. Entonces, si descendemos a un enfoque más práctico, la disponibilidad y estudio de dicha información permitirá:

  • elaborar un mapeo de los consumos energéticos de la fábrica.
  • visualizar, a través de un simple gráfico de sectores, las contribuciones energéticas de los distintos elementos.
  • establecer prioridades sobre qué zonas o máquinas deben ser modificadas o reemplazadas por su baja eficiencia energética.
  • comparar entre sí la eficiencia energética de las distintas líneas.
  • comparar el coste energético de los distintos productos fabricados en una misma línea.
  • detectar consumos inapropiados  por  mal  funcionamiento  de  los  aparatos,  o protocolos de trabajo sub-óptimos

De acuerdo. Ya hemos convencido a los directivos de la fábrica de la conveniencia de medir para mejorar y hacerlo a través de la desagregación de consumos. ¿Cómo se pone en marcha?

El planteamiento más obvio sería monitorizar el consumo energético de cada aparato con su correspondiente sensor o medidor. Para el consumo eléctrico, se requerirá la instalación de un analizador de redes en el armario eléctrico donde se encuentran las protecciones eléctricas asociadas a dicho equipo. El proceso, siempre y cuando haya espacio disponible en dicho armario, suele requerir el corte del suministro eléctrico a la máquina durante un periodo de tiempo de escasos minutos. En el caso de maquinaria cuyo consumo energético sea gas natural, el proceso se complica y encarece. Aquí será necesario seccionar la tubería de suministro del gas para instalar el nuevo contador. Los requisitos de seguridad y revisión de las nuevas soldaduras requerirán una interrupción del suministro de entre 24 y 48 horas.

desagregación de consumos energéticos

Adicionalmente, puede haber máquinas o equipos que requieran un consumo importante de aire comprimido o energía térmica de calefacción (o refrigeración) en forma de agua caliente (o fría). En estos casos, los contadores específicos deberán ser instalados en las tuberías de suministro de los correspondientes servicios.

En todos los casos, antiguamente, los medidores disponían de un mecanismo mecánico (o electrónico) de conteo y acumulación. Periódicamente, un empleado se encargaba de anotar sus lecturas en el libro de registro correspondiente, cuyas lecturas serían después introducidas manualmente en el sistema informático de gestión de costes. Sin embargo, hoy en día, este planteamiento está obsoleto puesto que, como todo proceso manual de toma de datos, es costoso, ineficiente e induce a múltiples errores. Por tanto, no solo habrá que instalar los medidores de consumo, sino que dichos modelos deberán estar equipados (todos los modelos industriales lo están) con un módulo de comunicaciones que permita enviar los datos medidos a un sistema informático de almacenamiento en base de datos. También será necesario desplegar una nueva red de comunicaciones (o ampliar la existente si fuera el caso) para comunicar todos los nuevos sensores instalados con el sistema informático, que periódicamente grabará los datos de los consumos energéticos.

guerra_de_las_eficiencias

Este tipo de monitorización de consumos se conoce como  Intrusive  Load Monitoring  (ILM).  Su ventaja es la precisión de los resultados, pero su gran desventaja reside en los altos gastos que conlleva. En fábricas donde los consumos estén altamente distribuidos entre multitud de máquinas, el coste en equipos e instalación de un sistema ILM puede suponer una gran inversión frente al coste anual del consumo energético de la fábrica.

No se debe olvidar que la finalidad de un sistema de desagregación de consumos como el considerado es ayudar a reducir el consumo energético y por tanto el coste asociado a dichos consumos. Obviamente, no se puede predecir con exactitud los ahorros económicos que la desagregación de consumos producirá, por lo que se suelen usar rangos basados en experiencias previas, con los valores más y menos desfavorables. Por muy amplia que sea la horquilla de ahorros posibles, si la inversión inicial es desmesuradamente alta, las correspondientes tasas de retorno de Inversión o ROI, estarán por encima de cualquier umbral aceptable por parte del correspondiente director financiero.

Continuará…

La Guerra de las Eficiencias (Episodio IV) – Una nueva esperanza

La Guerra de las Eficiencias (Episodio IV) – Una nueva esperanza

¿Desagregación de consumos? ¿Por qué? Para no caer en el lado oscuro

Dentro del mundo de la gestión, el aforismo “lo que no se mide no se puede mejorar” es frecuentemente atribuido al filósofo austriaco del siglo XX Peter Drucker, considerado el mayor filósofo de la administración (también conocida como management) de la centuria.

Cualquiera con unos conocimientos mínimos de gestión de calidad habrá oído hablar del “Ciclo de Deming” o también llamado “Ciclo PDCA de Mejora Continua”. Así, la medición es imprescindible en la gestión, forma parte del proceso administrativo y es fundamental en la aplicación del ciclo PDCA de mejora continua.

agregacion_consumos_energeticos

Sin embargo, todos los físicos sabemos que el verdadero origen de dicha frase no está en la gestión empresarial sino en la termodinámica experimental. Fue el matemático y físico británico del siglo XIX William Thomson Kelvin (Lord Kelvin) quien la enunció de la siguiente forma: “Lo que no se define no se puede medir. Lo que no se mide, no se puede mejorar. Lo que no se mejora, se degrada siempre.” Por cierto, William Thomson Kelvin se convirtió en Lord Kelvin – y con ello, en el primer científico británico en ser admitido en la Cámara de los Lores–, como reconocimiento a su trabajo en termodinámica y electricidad. Fue enterrado en la Abadía de Westminster, al lado de Isaac Newton.

Una vez defendido el honor de la física frente al management, la idea de medir para mejorar sigue siendo una de las reglas básicas más importantes del green manufacturing.

Uno de los problemas encontrados en el proyecto REEMAIN al iniciar el proceso de mejora de la eficiencia energética de un proceso productivo, fue la agregación de consumos energéticos. Es decir, no se conoce de forma precisa el consumo energético individual de las principales máquinas o etapas del proceso productivo. Sólo se conoce el consumo energético total de la fábrica.

En el mejor de los casos, cuando se trate de grandes fábricas constructivamente organizadas en talleres interconectados, se dispondrá de los consumos energéticos totalizados por meses de los distintos talleres. Esto se debe a que la fábrica habrá instalado contadores de electricidad, gas e incluso energía térmica o aire comprimido en los puntos de conexión de dichos talleres a las redes generales de distribución energética de la fábrica. Sin embargo, este “esfuerzo” –inversión económica– en medidores de energía no tiene nada que ver con la preocupación por la eficiencia energética, sino con evitar discusiones en el reparto de gastos generales correspondientes a suministros energéticos y servicios auxiliares entre los distintos talleres o departamentos.

Guerra de la Eficiencia- episodio IV [agregación de consumos]

Los gastos generales han de ser siempre repartidos y, puesto que desde el punto de vista contable la fábrica (o empresa) es un sistema cerrado, los distintos departamentos o talleres intentarán que se use aquel criterio que les beneficia a ellos –obviamente a costa de perjudicar a los otros–. Por ejemplo, los costes de electricidad o gas natural son a veces distribuidos entre los distintos departamentos en función del número de trabajadores, los metros cúbicos del taller, las unidades producidas, las horas trabajadas, la potencia nominal de las instalaciones o incluso una mezcla ponderada de todos los parámetros anteriores. Como se puede imaginar, si los costes energéticos totales alcanzan cifras de magnitud de seis ceros, modificar las ponderaciones hacia un criterio u otro puede suponer cientos de miles de euros sumados o restados en los balances económicos correspondientes.

En cualquier caso, o bien dentro del taller o en la fábrica globalmente, el reto consiste en determinar (mediante la monitorización y registro temporal detallado) las contribuciones de las distintas líneas, máquinas o sistemas al consumo energético de la fábrica. ¿Y por qué es útil? Pues es útil por muchos motivos, que contaremos en la próxima entrada. Pero en términos generales y, parafraseando al maestro Yoda, podríamos decir (ahora que se cumplen 40 años de su estreno), que “la agregación de consumos es el camino hacia el lado oscuro (de la ineficiencia energética). La agregación lleva al desconocimiento, el desconocimiento lleva al descontrol, el descontrol lleva la imposibilidad de mejora”.

Continuará…

¿Qué puede hacer la simulación mecánica por las empresas?

¿Qué puede hacer la simulación mecánica por las empresas?

El uso de entornos informáticos en el ámbito de la ingeniería mecánica ha crecido significativamente en las últimas décadas. La mayoría de las empresas del sector conocen las ventajas de los sistemas de diseño (CAD) e ingeniería (CAE) asistidos por ordenador. Las tareas tradicionales asociadas al proyecto de elementos de máquinas, estructuras y procesos de fabricación se pueden ver muy simplificadas. El mayor partido se obtiene cuando equipos interdisciplinares comparten modelos de manera que proyectistas, analistas y proveedores puedan evaluar diversas alternativas, comprender decisiones de diseño y colaborar para cumplir los requerimientos de funcionalidad, calidad y coste. Esta interacción requiere sistemas de gestión consensuados, entornos multiplataforma y capacidades de almacenamiento y cálculo local y en la nube para aprovechar al máximo su potencial.

simulación placa fotovoltáica

Los entornos de simulación ofrecen nuevas capacidades para resolver problemas más complejos. La mayor ventaja del análisis por elementos finitos es que puede manejar ecuaciones acopladas capaces de describir diversos problemas físicos de interés en la industria. A los tradicionales cálculos para determinar trayectorias, tensiones y deformaciones en estructuras, mecanismos y ensamblajes mecánicos, se añaden ahora cálculos de interacción de esos sistemas con los fluidos que les rodean, permitiendo abordar problemas de combustión en calderas de biomasa, de socavamiento en pilas de viaductos o de vibraciones en estructuras esbeltas debidas al desprendimiento de torbellinos.

El uso eficiente de estas herramientas permite a las empresas acelerar la innovación, evaluando en poco tiempo las distintas alternativas de diseño, realizar experimentos sobre los prototipos, conocer el rendimiento real del producto, calibrar el modelo virtual, simularlo ante otras condiciones no ensayadas y proceder a la optimización antes de su salida al mercado. Sin embargo, algunas empresas no son capaces de asimilar todo el potencial de sus inversiones en software, ya que en ocasiones la simulación continúa desconectada de la línea de producción y no se completa el ciclo metodológico comentado anteriormente. Pensando en ellas, en CARTIF ofrecemos servicios tecnológicos de diseño, simulación, prototipado y ensayo, abarcando desde el diseño conceptual hasta la supervisión de su fabricación y rodaje, aplicado a los sectores de automoción, energías renovables, químico, edificación, infraestructuras y maquinaria industrial y agrícola.

Blockchain. Una oportunidad para los clientes del sector eléctrico

Blockchain. Una oportunidad para los clientes del sector eléctrico

En una entrada anterior intenté explicar qué es y cómo funciona Blockchain o cadena de bloques. En esta entrada voy explicar cómo podrían beneficiarse los clientes de las compañías eléctricas.

cadena de bloques sector energetico

Uno de las aplicaciones más interesantes de la cadena de bloques son los contratos inteligentes (smart contracts). Mientras que un contrato tradicional se limita a recoger el acuerdo entre las partes, un contrato inteligente va un paso más allá y hace que se cumpla lo acordado ejecutando él mismo los pagos, reembolsos o transferencia de bienes acordados. Para ello, el contrato se convierte en un programa de ordenador que de manera automática verifica el cumplimiento de las condiciones del contrato y automáticamente ejecuta lo que se haya estipulado. Los contratos inteligentes suelen estar limitados a acuerdos muy específicos y concretos y la tecnología de cadenas de bloques asegura su cumplimiento sin que haya confusiones ni oportunidad para posteriores litigios. Los contratos inteligentes abaratan los costes al no necesitar de intermediarios supervisores (notarios o abogados), agilizan el proceso y permiten una auditoria inmediata. Una plataforma de cadenas de bloques que permite la gestión de contratos inteligentes es Ethereum.

Los contratos inteligentes aplicados a la distribución de energía podrían desempeñar las funciones de los algoritmos de control que se encargan, por ejemplo, de desviar el exceso de energía hacia los recursos de almacenamiento o de tomar energía de ellos cuando haya necesidad. Una primera aproximación a los contratos inteligentes en el ámbito energético es POWR de la start-up Oneup. Se trata de un prototipo que funciona en un vecindario cuyas casas disponen de paneles fotovoltaicos. La energía que no es consumida en la propia casa se ofrece a los vecinos y es facturada mediante un sistema basado en la cadena de bloques. El contador de cada casa está conectado a un pequeño ordenador (un Rasperry Pi) con acceso a la red de datos. Cada Rasperry Pi alberga una copia del contrato inteligente que continuamente comprueba si se dan las condiciones estipuladas en el contrato. En cuanto se cumplen, bien sea para suministrar energía, bien sea para recibir energía, el contrato inicia la transferencia de energía de manera automática y realiza los pagos o cobros correspondientes en su propia criptomoneda.

brooklyn microgrid project 4

Otro ejemplo lo encontramos en Nueva York. El proyecto Brooklyn Microgrid consiste en crear una microrred entre vecinos del barrio. Estos instalan paneles solares en sus tejados con la intención de autoabastecerse de energía y asegurarse el suministro en caso de apagón. Sin embargo, también pueden vender a sus vecinos la que les sobra o comprarles a ellos su excedente en caso de necesidad. Este mercado entre pares es posible gracias a la tecnología de TransActive Grid, un proyecto de LO3 Energy y ConsenSys basado en Blockchain, concretamente en Ethereum. El proyecto estudia cómo podría llegar a ser una red de distribución gestionada autónomamente por una comunidad de usuarios. En el futuro podría llegar a ser una cooperativa formada por los vecinos y que fuera la dueña de la microrred.

participante instalando sharge en su casa

Pero mientras los contratos inteligentes en la distribución de energía se hacen realidad, ya hay en marcha proyectos demostrativos de las posibilidades de la cadena de bloques en el sector energético. El primer ejemplo lo encontramos en Sharge. Se trata de facilitar la recarga de un coche eléctrico en cualquier enchufe particular, de manera que podamos recargar nuestro coche en una casa ajena. Las personas en la red instalan en su casa un pequeño aparato llamado Sharger al que se enchufa el coche. Este aparato contiene la electrónica que ejecuta Blockchain. Una idea muy similar se está desarrollando en el marco del proyecto BlockCharge, que involucra a las empresas Slock.it y RWE. En ambos casos el objetivo es desarrollar un sistema de pagos para la recarga de vehículos eléctricos que incluye una moneda virtual, no necesita contrato y tampoco intermediarios.

También hay iniciativas que utilizan una criptomoneda para recompensar a los productores de energía solar, como “solarcoin”. Otras iniciativas se acercan al Internet de las Cosas al facilitar el intercambio de energía entre máquinas, como es el caso de Solether.

Blockchain es una tecnología que podría beneficiar a los usuarios de energía eléctrica y podría fomentar el uso de las energías renovables. También daría más importancia al consumidor en el sistema eléctrico. A la vez que la tecnología se prueba y desarrolla, habría que ir pensado en las normas legales que frenarían la adopción de esta tecnología y que deberían ser modificadas.

¿Sabes qué es ‘Blockchain’?

¿Sabes qué es ‘Blockchain’?

“Blockchain” o cadena de bloques es la tecnología que está detrás de Bitcoin, la criptomoneda virtual que se ha hecho famosa por ser la primera de su clase y porque se ha relacionado con asuntos turbios. También es la tecnología que está detrás de Ethereum, que además de servir como base para una criptomoneda permite la realización de contratos inteligentes (smart contracts). La cadena de bloques está atrayendo la atención de muchos sectores porque promete cambios radicales que podrían beneficiar a los usuarios de la banca o del mercado eléctrico, entre otros sectores. En esta entrada del blog intentaré explicar qué es y cómo funciona la cadena de bloques y en otra entrada posterior hablaré sobre su posible uso en el sector eléctrico.

cadena de bloques

Una cadena de bloques es un libro de registro en el que se anotan transacciones entre dos partes, como por ejemplo “el 3 de abril Juan vendió 3 kilos de patatas a Antonio por 1,05 euros”. La misma naturaleza de la cadena de bloques impide que los registros contenidos en ella puedan ser alterados de manera maliciosa. Una de las características de la cadena de bloques es que esta seguridad no proviene de un supervisor externo que certifique la autenticidad de los registros, sino que surge del consenso entre todos los participantes de la cadena de bloques. Esto tiene consecuencias importantes. Por ejemplo, cuando la cadena de bloques se aplica a un medio de pago como es Bitcoin, deja de ser necesario un banco que intermedie en la transacción y que verifique su cumplimiento correcto. También deja de ser necesaria una moneda tal como la conocemos.

cajero bitcoin

Una cadena de bloques es una aplicación descentralizada que funciona sobre la base de un protocolo P2P (peer-to-peer, al igual que el popular BitTorrent), que implica que todos los nodos participantes en la cadena de bloques están conectados entre sí. El libro de registro se almacena en todos los nodos, de manera que en todos ellos se puede encontrar una copia íntegra de él. El último elemento necesario para tener una cadena de bloques es un sistema que valide los datos mediante un mecanismo de verificación descentralizado.

El último elemento es el más importante en una cadena de bloques porque es el que asegura que no se hagan cambios en el libro de registro. Se basa en el consenso entre todos los nodos y hay varias maneras de llevarlo a cabo. Las más populares son la prueba de trabajo (proof-of-work) y la prueba de participación (proof-of-stake).

La prueba de trabajo es el mecanismo de consenso más habitual y se basa en resolver un problema que requiere cierto esfuerzo de computación. El problema consiste en obtener un código llamado hash a partir del contenido de un bloque (un bloque es un conjunto de anotaciones recientes en el libro de registros). El hash es único para cada bloque y no puede ser igual para bloques diferentes. La manera de certificar que las transacciones son auténticas es el consenso sobre el valor del hash que deber ser alcanzado entre todos los participantes de la cadena de bloques. Si la mayoría encontrara que el valor del hash no es el que debería ser entonces no se darían por válidas las transacciones contenidas en el bloque.

Las aplicaciones basadas en Blockchain se pueden dividir en tres categorías según su estado de desarrollo. La categoría “Blockchain 1.0” comprende las monedas virtuales como Bitcoin, que puede usarse como una alternativa a las monedas reales. El siguiente estado de desarrollo es “Blockchain 2.0”, que corresponde a los contratos inteligentes. Un contrato inteligente es un conjunto de cláusulas acordadas entre las partes que de manera automática se verifican cuando se dan las condiciones estipuladas. Esto se hace sin la necesidad de un tercero que verifique que ninguna de las partes cambia las cláusulas o elude sus obligaciones. Y, finalmente, “Blockchain 3.0” corresponde a un contrato inteligente más avanzado en el que unidades distribuidas y autónomas funcionan según sus propias leyes con una alto grado de autonomía. Por el momento esto sólo es una idea que no se ha desarrollado.

En una próxima entrada del blog comentaré algunos usos de los contratos inteligentes en el sector eléctrico.