Volver al blog

Sólo un vistazo al caso “Amazon”

El caso de Amazon es enormemente complejo aunque se podría decir que se resume en un sola palabra: “ganar”.


Ganar relevancia, influencia, cuota de mercado en “todo” y ganar dinero por supuesto. Como parece que reina en Hollywood, “no es nada personal. Es sólo business”.


Es verdad que en el plan de negocio de Amazon estaba previsto ganar dinero pero sólo después del tiempo necesario para hacerse hueco en el mercado digital, de ganar “masa crítica” o de consolidar aquellas ventajas tecnológicas que hiciesen posible comprar, más tarde comprar “en un solo click” y comprar cualquier producto que se nos pueda ocurrir. El beneficio se sacrificó, al comienzo, para hacer posible la ambición de ser un “todo” y, con un poco de tiempo más, deshacerse de “casi todos” (los competidores) para hacerse el único proveedor de “todos” (los consumidores).


El tamaño de su ambición es sólo comparable al que evoca su propio nombre.


Al principio, como seguro que sabéis, vendía libros desde un garaje privado (el del propio matrimonio Bezos), después amplió (y sigue ampliando continuamente) un portfolio de productos y servicios que parece no tener fin ni sector de desarrollo que no pretenda.


Ofrece de todo y ahora no sólo obtiene beneficios (monetización) vendiendo productos de otros sino que, aprovechando la enorme cantidad de información relevante que tiene de todos nosotros, ya los produce directamente (con lo hace más corta la cadena. Sólo tiene 2 eslabones desde la fabricación hasta la venta y son propios). 


Puede hacer (y hace constantemente) estudios de todo tipo para ver cómo reaccionamos como clientes: promociones en precio, posicionamiento de sus distintas marcas para saber cual es nuestra sensibilidad, cómo presenta las ofertas en cada búsqueda, qué llama nuestra atención en la oferta formal de cada producto modificando colores, formas, fotos, presentación de otros productos para favorecer la venta cruzada (otros clientes compraron este producto junto a xxx por xxx €), etc.  


Durante la fase de desarrollo de un producto, Amazon sabe las necesidades no satisfechas del mercado frente a la mayoría de los minoristas que sólo pueden “adivinarlo”.


Fabrica/ vende con marca propia desde electrónica de consumo, toallas de papel y papel higiénico, camisetas y shorts para niños hasta comida para perros (se llama Wag, y está hecha por Amazon. Se estima en más de 200 marcas propias, según TJI Research que rastrea el crecimiento de Amazon. Marcas como Presto!, SpottedZebra, True Angel, IndigoSociety, Crafted Collar, Rivet and Stone & Beam, Mama Bear, Solimo, Core 10, PeakVelocity, Goodthreads, Paris Sunday, Mae, etc. además de las marcas que produce Amazon con su propio nombre, como Amazon Basics o Amazon Essentials…


Esta estrategia de crecimiento de marcas propias se está acelerando, según un estudio de Evan Neufeld y Cooper Smith: de la empresa de investigación Gartner L2. Según datos de la propia compañía en una entrevista a CNN, “el crecimiento de su marca propia fue notable en categorías como productos de papel, pañales, cápsulas de café y vitaminas y suplementos.


Sólo por poner algún ejemplo publicado (ya que no es tan fácil encontrar este tipo de información por razones obvias) las ventas de marcas propias de Amazon en 2018 se estimó que alcanzarían los 7.500 millones de dólares y, entonces, los analistas de SunTrust Robinson sostenían que para el próximo año, 2022, alcanzarían los 25.000 millones de dólares. Cifra que  seguro ya habrán superado como consecuencia de la crisis COVID que aún sufrimos y que disparó el consumo on-line como nunca antes se pudo prever.


Además, y aplicando al pie de la letra los principios básicos del marketing ocupa todos lo mercados posibles (y no los más baratos como publicita en sus spots) según un informe reciente del grupo de reflexión sobre el minorista CoresightResearch. Amazon vende cerca de 5.000 de sus propios artículos de ropa (referencias) y lo interesante desde el punto de vista del marketing es que Coresight descubrió que el “valor promedio” de prendas de marca propia en Amazon cuesta 38 $, es decir, que no está como “category killer” sino que se posiciona como un vendedor del mercado medio (competencia de otros “players” como Macy's o Kohl's en el mercado EEUU) pero sin descuidar la gama de precios más baja. Ofrece sus marcas hacia arriba y hacia abajo en la escala de ingresos. “Funcionan en todos los extremos del mercado” porque atiende a todos los perfiles de compradores (tiene vestidos para vosotras de más de 120$ de Social Graces y una sudadera de 8$ para niñas bajo la marca Scout + Ro).


El dilema aparece o lo encuentras frente a ti, si te preguntas si Amazon es un “Marketplace neutral” para vender productos y hacer más fácil nuestra vida como consumidores o va más allá para obtener beneficios, generar lealtad/ fidelidad en sus compradores, conseguir una posición más fuerte cuando negocia con sus proveedores u otros oferentes (otras marcas).


¿Es conveniente para nosotros como consumidores que una opción de consumo se convierta en una de las pocas opciones en el universo de consumo posible?  


No debemos olvidar la presencia de Amazon en el mundo de la producción audiovisual, como proveedor en plataformas de streaming, de música, de libros o los servicios que ofrece a través de AWS como el almacenamiento en la nube, gestión de instancias, imágenes virtuales, desarrollo de aplicaciones móviles, etc.


Parecía difícil llegar a los 10 millones de suscripciones en EEUU y hoy Amazon Prime cuenta con más de 100 millones de suscriptores en ese mercado. Cuando apareció a finales de 2004, Amazon estaba valorada en 18.000 millones de dólares y su principal rival, Ebay, tenía un músculo de capitalización bursátil de 33.000 millones. Hoy Ebay sigue igual mientras que Amazon está alrededor del billón de dólares.


No hay que desestimar (y mucho menos infravalorar) que cuentan con enormes recursos, toda la información posible y el mejor equipo de profesionales multidisciplinares (desde matemáticos, ingenieros de casi cualquier campo de especialización, expertos en IT, AI, estadísticos, en consumo y un largo etcétera) pudiendo saber, en cualquier momento, qué productos están teniendo más éxito, para fabricarlos, escalar su producción (si ya los fabrica) o aumentar su visibilidad al anunciarlos (según el informe de Ojastro Todd, analista de marketing de One ClickRetail).


De nuevo, y sólo por poner otro ejemplo, el hecho de contar con la "elección de Amazon" es responder a una recomendación determinada por un algoritmo propio. Lo mismo sucede con Alexa cuando se le pide “buscar” algo: toma “por defecto” una decisión basada en nuestras compras anteriores de Amazon (claro sesgo respecto a la toma de decisiones: costumbre vs relevancia u oportunidad) y si nunca has pedido eso Alexa recomendará uno o dos productos a través de un algoritmo propio. Todo esto se explica en un informe de la empresa L2.


Amazon responde no sólo a una estrategia sino a un conjunto de todas las estrategias posibles sobre las 4P´s del marketing...


Artículo realizado por Javier Espina Hellín CEO QLC SLP, doctor en Ingeniería de Sistemas de Información, MBA, ADE nº colegiado 11.534 y Licenciado en Gestión Comercial y Marketing

Las 8 tecnologías claves para hacer posible el cambio de modelo: de la maximización del retorno al de valor compartido descentralizado.

¿Recuerdan la película de Woody Allen, memorias de un seductor, cuando el personaje de Mia Farrow le dice a Woody Allen que “no soporta ser una espectadora de la vida, que quiere vivir y no simplemente ver como los demás viven”?


Esa es la decisión: resolver si queremos ser simples espectadores de cuanto sucede (que es mucho y a gran velocidad) o actores principales en ese nuevo escenario de vida, porque nunca, antes, hemos tenido la posibilidad consciente de vivir un momento como éste en nuestra propia historia evolutiva. Todo sucedía en una escala de tiempo que sobrepasaba nuestra esperanza media de vida.


Por tanto, abundar en la idea de que el momento que vivimos es uno de los más apasionantes y retadores, nada tiene de nuevo porque estamos inmersos en la cuarta revolución industrial y, lo que para muchos, es el comienzo de lo posthumano (Homo Deus, Yuval Harari, ed. Debate, 2015), (https://youtu.be/p-4WY5rP_TI), (https://youtu.be/hxuKo_VdM9o).


La puesta de largo de todas las tecnologías que vamos a repasar aquí será en poco menos de 2 años. La primera meta es Japón 2020 y en un escaparate tan global como los Juegos Olímpicos, y serán todo un despliegue de tecnología: Panasonic con su silla de ruedas autónoma o su megáfono traductor, Sony y sus transmisiones en 8K, Toyota con su coche autónomo recorriendo las calles de Tokio y un largo etcétera…


Pero en los siguientes años el impacto transformador para todos nosotros, el mundo de los negocios y la administración será tan intenso como todo lo experimentado hasta la fecha. Imaginar un salto de más de 100.000 años puede resultar inabarcable...


Quizá la principal novedad, la esencial desde mi punto de vista, es que la disrupción entra a formar parte de nuestras expectativas.


Ahora, la innovación disruptiva es un término en nuestra ecuación vital.


Y está dentro porque sin ella nuestro presente y, menos aún, nuestro futuro más inmediato nunca hubiese sido posible.


Recuerdo la primera vez que me hablaron de innovación disruptiva. Fue hace casi 20 años cuando estaba cursando un MBA en EEUU. Se acababa de publicar “The Innovator’s Dilemma: When New Technologies Cause Great Firms to Fail” de Clayton Christensen, uno de los profesores de Harvard más influyentes y que lleva años liderando la lista Thinkers 50.


Una nueva tecnología nace para atender una necesidad, muy específica, en la parte baja de un mercado concreto. Y lo hace mucho más eficientemente que aquellas que a las que sustituye. El resultado es sencillo de adivinar: compite en estrategia de nicho, en margen y precio, porque sus competidores le dejan operar en una parte del mercado que para ellos no es tan interesante.


En poco tiempo, se encuentran que aquél que dejaron entrar va consiguiendo un volumen que le permite encontrar sus propias economías de escala, crecer y competir en otros segmentos. El paso final es el “cambio/ la disrupción” de las reglas de juego en ese mercado, y lo que estaba pensado para una categoría se convierte en un estándar. (Un ejemplo clásico es el del transporte aéreo).  


Pero, lo que hace creíble a Christensen es que cuando se refería a la tecnología y su funcionamiento “disruptivo”, lo hacía reinterpretando el modelo “evolutivo” que Malcolm McNair (“Trends in Large-scale Retailing,” Harvard Business Review, 10, 1931), en la década de los 30, utilizó para describir como se incorporan, desde abajo, los “nuevos jugadores” en un mercado retail y que denominó la “Rueda del Retail”. (Recomiendo la lectura de:“The only way is up: retail formatsaturation and the demise of the American five and dime store, 1914-1941.  Publisher: Cambridge University Press, 2017: http://dx.doi.org/10.1017/S000768051700054X)


Una particularidad que le añade “consistencia” porque, así, también se explican éxitos como los de D. Amancio Ortega en el sector de la moda con el grupo Inditex, con Zara a la cabeza, (y que ya está viendo como Primark se incorpora desde abajo) o en el de alimentación con operadores como Lidl, Aldi e, incluso, Mercadona en sus inicios, que iban sumándose a un mercado que dominaban grandes “players” como Carrefour.


Es decir, que no sólo se refería a la tecnología si no que puede ser aplicado a modelos de negocio.


El mercado, y no olvidemos que es un eufemismo detrás del cual estamos todos nosotros como consumidores, sólo está dispuesto a pagar más por productos o servicios claramente distintos, diferentes y/o genuinos, porque en caso contrario, sólo acepta (queremos como consumidores) el producto/ servicio que contenga el “binomio del milagro”, es decir, lo más barato posible y con una calidad suficiente (porque lo convierte en un “commodity market”).


A pesar, de las controversias que tanto Christensen como la propia teoría de innovación disruptiva ha venido suscitando, y especialmente, la del artículo publicado en 2015 por los profesores King y Baatartogtokh en la MIT Sloan Management Review, (How Useful Is the Theory of Disruptive Innovation?, Magazine: Fall 2015, Research Feature           September 15, 2015, Andrew A. King, Baljir Baatartogtokh) donde advertían que el respaldo empírico de la teoría era cuestionable, personalmente, creo que por diferentes razones sociológicas, por el actual crecimiento exponencial de nuevas empresas con base tecnológica (Startups) y la confluencia de distintas tecnologías, pronto maduras y disponibles, estamos en el umbral que marcará un antes y un después en cómo un cambio tecnológico nos permitirá hacer posible algo que, poco antes, era, simplemente, imposible.


Y aquí, me acuerdo de las palabras de Carlos Barrabés, cuando decía que estamos bajo la “tormenta tecnológica perfecta”.


Si una tormenta necesita la coexistencia de dos masas de aire de diferentes temperaturas y presiones para desatar una enorme actividad cuando un centro de baja presión se genera dentro de un sistema de alta presión, imaginemos el contraste “térmico y la interacción de las masas de aire” que pueden generan 8 tecnologías diferentes operando en un mismo entorno global,  interconectado en tiempo real y embebido en 5G: vientos, lluvias e incluso descargas eléctricas que supondrán un cambio mucho más acelerado, profundo y radical que cambiará nuestro mundo para siempre, y con consecuencias difíciles de imaginar.


La ecuación podría ser:

La Nube + IoT (el Internet de las Cosas) + Big Data + AI (Inteligencia Artificial) + 5G + VR (Realidad Virtual) + Seguridad + Blockchain = Modelo de Valor Compartido.

Donde:

La Nube = tecnología de la globalización

IoT = el desarrollo del sistema nervioso de internet y un humano potenciado

Big Data = tecnología de la personalización

AI (Machine Learning + Deep Learning) = tecnología de la automatización

5G = la omnipresencia para el envío masivo de datos: alta velocidad (1 Gbps), baja potencia y baja latencia (1ms o menos) que hará realidad el IoT masivo, el Internet táctil y la robótica.

VR = tecnología de la experiencia

Blockchain = tecnología de la identidad. Un “notario virtual” que registra transacciones digitales y que va más allá del Bitcoin

Seguridad = factor crucial. Si hoy hay unos 6,4 mil millones de dispositivos conectados a internet, con el 5G la cifra aumentará a 20,8 mil millones.

 

Como decía, 8 tecnologías que en un sinfín de combinaciones nos cambiarán para siempre a nosotros y la sociedad que ahora conocemos. De hecho, una de las ideas más reveladoras del discurso del señor Barrabés, a propósito de lo que aquí exponemos, es la de la sustitución del actual modelo de maximización del retorno por la de valor compartido de Porter.


Me he tomado la licencia de incluir el esquema que él mismo presentó en una de sus conferencias, y que nace de la premisa (para algunos demasiado naif) que “todo lo anterior tiene sentido si se pone al ser humano en el centro y se construye futuro creando experiencias compartidas… “


Lo cierto, es que la creación de experiencias memorables para nuestro cliente, el compartir valores, la co-creación de esa experiencia o el engagement encajan como un guante con las últimas tendencias en marketing, marketing sensorial, neuromarketing o estrategias de branding.  


Pero, la enorme complejidad de los nuevos modelos de negocios, la velocidad en el desarrollo y aplicación de las tecnologías y su impacto en los mercados obligarán a las empresas a trabajar en nuevo ecosistema productivo, en red, donde el objetivo esencial será poder identificar quien o quienes te podrán ayudar a hacerlo mejor, más rápido, más atrayente, aunque, quizás, no más barato (porque para nuestros clientes será un producto genuino y diferente).


Y éste es uno de los puntos más controvertidos del nuevo modelo de valor compartido porque no se buscará tanto el beneficio como la cooperación, la colaboración o la reciprocidad. Michael Porter propone la posibilidad de retornar a la sociedad parte de los beneficios que recibe de ella en la búsqueda de sus objetivos empresariales para fortalecer el sistema económico y los mercados en los que opera en el corto y largo plazo con el fin de ser sostenibles en el tiempo por generar más negocio y mejores condiciones empresariales. (TED, 2013, Michael Porter: Why business can be good at solving social problems. Scotland. Recuperado a partir de https://www.youtube.com/watch?v=0iIh5YYDR2o.)


Una manera de entender la colaboración que empresas como Google, GE, Johnson & Johnson, Coca-Cola Brasil, Natura Brasil, Wal-Mart, Unilever, IBM e Intel o Nestlé con su proyecto Desarrollo Rural, ya están poniendo en marcha (Escudero & Lama, 2014; Porter & Kramer, 2011).


La primera derivada es casi intuitiva.


La organización del trabajo, el concepto de liderazgo y la centralidad también cambiarán.


Necesitarán una orientación más abierta, más inclusiva, más colaborativa, descentralizada y responderán a un planteamiento real de ganar- ganar (win-win) y de aprender a crear soluciones en asociación.

El cambio será horizontal y no jerárquico o no será; buscando la solución a través del valor compartido y no la maximización del beneficio.


Y, además y como resultado más inmediato de la AI, por primera vez, estamos en la antesala de otro fenómeno completamente desconocido: la eliminación del capital humano como factor de la ecuación de productividad y la generación de riqueza. (Teoría económica clásica – donde Smith, Ricardo, J.S. Mill y especialmente Yoram Ben Porath son sus principales referentes). Yoram Ben Porath es considerado como uno de los "hacedores" de la teoría del capital humano por su aporte sobre la producción del capital humano y por la vinculación efectuada entre éste y el crecimiento económico. Su modelo se fundamenta, metodológicamente, en encontrar el punto óptimo de inversión en capital humano durante el ciclo de vida de los individuos. ("The production of Human Capital and the life-Cycle of Earnings." Journal of Political Economy. Ben Yoram Porath, 1970).


¿Es la evolución de un modelo capitalista? y ¿podemos decir que se trata de un modelo de valor compartido o de una estrategia de negocio socialmente responsable?


Existen voces autorizadas que inciden que este tipo de proyecciones pueden ser consideradas como utópicas o naif, porque el altruismo o el beneficio mutuo nunca, en nuestra historia evolutiva, se han impuesto a nuestros más arraigados impulsos atávicos de poder, concentración de riqueza y pertenencia a una élite por exclusión de los otros.


De nuevo, en un punto de inflexión que dibuja dos escenarios excluyentes por la caracterización de un nuevo dilema: la distopia de la tecnocracia vs utopía de una sociedad mejor.


Un planteamiento que puede parecernos muy nuevo pero que, hace 503 años, Tomás Moro con su isla Utopía ya transformó en un cliché. (Recomiendo tanto su lectura como de los que podemos llamar las 5 grandes distopias contemporáneas: 1. Un mundo feliz de Aldous Huxley, 1932, donde el placer es la principal herramienta de control social y el hedonismo y la trivialidad contrarrestan nuestra reacción. 2. 1984 George Orwell, 1949, o una reinterpretación de los movimientos totalitarios de los años 40, la Policía del Pensamiento, la videovigilada y la “corrección política” y el uso de un “neolenguaje” que esconde su real significado detrás de bonitas palabras. 3. Congreso de futurología de Stanislaw Lem, 1971, donde un astronauta, Igor Tichy, es reanimado en 2039 cuando la humanidad ha llegado a la “felicidad” por la psiquímica. 4. Bienvenidos a Metro-Centre de J. G. Ballard, 2006, cuando la construcción de un gran centro comercial en las afueras de una ciudad lleva al surgimiento de un nuevo tipo de fascismo consumista e inspira un nacionalismo “hooligan” y, por último, el 5 o El círculo de Dave Eggers, 2013, donde un Google-panóptico (de la teoría del panóptico de Michel Foucault) y global quiere hacer desaparecer el mal a través de la hipervisibilidad. A los disidentes de ese modelo les mueve el deseo de desaparecer. Existen muchas otras como Rebelión en la granja, Fahrenheit 451, etc…)


En el segundo de los volúmenes, breves, de Utopía, Moro nos enfrenta a nuestro yo más íntimo: el deseo, la avaricia, el ansia de posesión ya sea de riquezas, poder o tierras y como estos atributos, que “adornan” nuestra existencia como especie, son fuente de todos los males y desgracias para la sociedad que conformamos, que él define como república, y para nosotros mismos.


Pero, la gran diferencia de nuestro futuro más inmediato respecto del escenario que se nos presentaba en Utopía, es que allí el poder residía en sus habitantes, es cierto, que aislados en una isla, pero con la inteligencia artificial (AI) todo cambiará...


Sólo por incluir un orden de magnitud, pondré el ejemplo de OpenAI.


Una compañía de muy reciente fundación, en 2015, Musk y Altman con su equipo de “bots” fueron capaces de ganar a un equipo formado por 5 humanos en partidas de un juego llamado Dota 2.


Con un método de aprendizaje de prueba y error muy común, en machine learning, han logrado acumular, aproximadamente 180 años de aprendizaje humano por cada día de entrenamiento. Y esto lo hicieron durante varios meses.


En una partida, cada bot tiene que optar entre 1000 posibilidades de actuar en menos de un segundo. Una partida de Dota 2 dura aproximadamente 45 minutos.


Si estas cifras son increíbles, sopesen la siguiente relación: uno de nosotros tiene que invertir entre 10.000 y 20.000 horas de estudio y esfuerzo, por término medio, en una disciplina para convertirse en experto. Un “bot” puede aprender en sólo 1 día lo que un humano necesitaría hacer en 100 vidas con sus días y sus noches (porque por "diseño" también necesitamos dormir).


La siguiente pregunta es casi redundante: ¿existe alguna barrera para la simulación de un problema, con AI (Machine Learning + Deep Learning) si podemos afrontarla en una escala lo suficientemente grande?


Y, en ese futuro tan cercano de nueva sociedad ¿qué tipo de trabajos no podrían desempeñar “bots”, “robots” u otro tipo de dispositivos “inteligentes”?


Para terminar, resaltaré que la pregunta es en sentido negativo, es decir, cuáles no podrán desempeñar porque los que sí que podrán serán los que actualmente hacemos profesionales de todo tipo y nivel educativo: economistas, ingenieros, médicos, transportistas, almaceneros, conductores profesionales, pilotos aéreos, abogados, notarios, bancarios, etc.


Quizás, todo esto merecería un blog propio. Será el tema de un próximo artículo…

 

Artículo realizado por Javier Espina Hellín CEO en QLC SLP, doctor en Ingeniería de Sistemas de Información, MBA y ADE nº colegiado 11.534 y Licenciado en Gestión Comercial y Marketing

Inteligencia Artificial y Red Neural Recursiva (RNN)


Hace muy pocos días se ha dado un paso más en el mundo de la inteligencia artificial (AI) con la creación de una red neural recursiva.


Dicho así no parece que sea gran cosa, pero si lo referenciamos al hecho que ha sido capaz de resolver con una eficacia del 96% una de las máquinas más complejas jamás desarrollada para cifrar mensajes y que necesitó de las mejores mentes del pasado S. XX para ser descifrada, es probable que adivinemos su real importancia y el papel que puede tener en el denominado aprendizaje profundo (deep learning).


Me estoy refiriendo a la máquina “enigma” que desarrolló el Servicio de Inteligencia de la Alemania nazi para proteger sus mensajes cifrados de las fuerzas aliadas en la Segunda Guerra Mundial. (https://youtu.be/G2_Q9FoD-oQ)


Lo cierto es que el trabajo que, entonces, llevaron a cabo un puñado de hombres y mujeres de ciencia (matemáticos, criptólogos, estadísticos y especialistas en lingüística) fue tan intenso y complejo como desconocido e ingrato para sus partícipes. De hecho, la única excepción fue la de Turing, que con sólo con el tiempo y la ayuda de Hollywood su nombre nos es más familiar, a pesar de ser considerado el padre de la informática. (The imitation game. Morten Tyldum, 2014, Benedict Cumberbatch, Keira Knightley), (https://youtu.be/zXKHGaRxQaE)


Sin embargo, para la enorme mayoría de nosotros nombres como Marian Rejewski, Harold Keen o el matemático Gordon Welchman siguen en el olvido.


¿Cómo ser capaces de descifrar un código cuando se desconoce absolutamente todo?


Tuvieron que construir una máquina enorme de rotores móviles, según apreciamos en la fotografía del inicio, e invertir una enorme cantidad de horas para comprender el funcionamiento.


Pero, ¿por qué les cuento todo esto?


Porque según demuestra Sam Greydanus, un físico investigador del aprendizaje profundo y neurociencia, no es necesario conocer cómo funciona la máquina enigma para poder descifrar sus códigos de salida.


En su lugar crea una red neuronal recursiva (RNN) que descifra los mensajes cifrados por la famosa máquina Enigma.


En “Decoding the Enigma with Recurrent Neural Networks” explica que solamente es necesario aplicar la regla criptográfica y con ella una simulación puede obtener los mismos datos de salida para los mismos datos de entrada.


Lo llamativo, es que en una primera fase ni siquiera es necesario que esto funcione siempre (el 100%) porque para “afinar” el modelo solamente tiene que empezar a funcionar.


Primero, se generan los textos de prueba (con un simulador de Enigma) con los que se alimentan la red neuronal recursiva (RNN) con las equivalencias del tipo texto cifrado de salida.


La RNN empieza sus iteraciones (con una GPU k40) y mostró resultados, con una eficacia del 96%, llegando hasta un millón de pasos con 3.000 unidades de LSTM («gran memoria de corto plazo»).


El modelo es capaz de aprender por sí solo a partir de datos de entrada y de salida sin necesitar saber cómo funcionaba la máquina original internamente, en clara contradicción al trabajo llevado a cabo por los criptógrafos de entonces porque no precisa que los textos sean reales o tengan sentido. La razón es que no se buscan patrones ni frecuencias en los textos.


Todo lo que necesitamos es una forma de aproximar la función fEnigma para que pueda “mapear” de texto claro a texto cifrado:

Ciphertext = fEnigma (clave, texto sin formato)

Las RNN nos ayudan a buscar y para ello lo parametrizado, por pesos θ, para empezar a entrenar con pendiente de gradiente. En otras palabras, intentaremos:

Ciphertext = fEnigma (clave, texto claro) ≈fRNN (θ, clave, texto claro)


Pero para aplicar el aprendizaje profundo (para el criptoanálisis) necesitamos “enmarcar” el problema. Elegimos un modelo de mapeo 1: 1 (entre el texto plano y el texto cifrado) y pensando en un texto sin formato (que en este caso era el inglés) y el texto cifrado como un lenguaje extraño, el objetivo de “entrenamiento” de RNN (utilizando una larga memoria a corto plazo o LSTM) se asemejaría mucho a un proceso de traducción automática.


Estos modelos son capaces de capturar complejos patrones secuenciales donde eventos que sucedieron muchos pasos de tiempo atrás pueden determinar el siguiente símbolo.


Como estamos hablando de aprendizaje, es importante dar primero un paso más corto pero que nos ayude después. Por eso, debemos centrarnos primero en algo más sencillo, reajustar el modelo y, sólo después, abordar un problema realmente difícil como era el Enigma.


Como no es el objetivo de este blog el detalle del mapeo y aprendizaje recursivo, para aquellos que quieran conocer el detalle, el código está en Github: crypto-rnn.

  

Como ejercicio práctico, el descifrado de la máquina Enigma es todo un logro porque nos enseña cómo usar una red neural recursiva y cómo utilizar el aprendizaje profundo para descifrar varias cifras, polialfabéticas, mediante una función que asigna el texto cifrado al texto plano.


El mundo de la inteligencia artificial (AI) con el Deep Reinforcement Learning ha hecho posible una impresionante serie de avances en los últimos años que nos acerca a un futuro impensable no hace tanto.


Tareas de enorme complejidad como la comprensión automatizada de textos o la conducción autónoma ya son “casi” una realidad y sitúan, por ejemplo, a la industria de la automoción como uno de los sectores industriales más disruptivos.


Y, para colmo, se romperá el paradigma de hombre y máquina porque la conducción será autónoma…


Y quién sabe, igual dentro de pocos años nos anuncian que se descifra “la máquina Enigma de nuestros días”, el algoritmo RSA. El que permitiría el acceso a contenidos cifrados que hacen posible que nos comunicamos por Internet, de forma segura, y para las transacciones y el comercio electrónico.


Y digo que sería un auténtico reto porque el RSA se sirve de complejas operaciones matemáticas diseñadas para ser muy difíciles de resolver. Estamos hablando de que las RNN u otros sistemas de inteligencia artificial llegaran a identificar, por ejemplo, la necesidad de factorizar números pseudoprimos muy grandes para acceder a esa información cifrada…


Somos conscientes que es algo muy difícil y que ha escapado del análisis de los matemáticos durante décadas pero que, con un poder de computación creciente y la potencial aparición en escena de los tan discutidos ordenadores cuánticos, igual es posible…

 

Artículo realizado por Javier Espina Hellín CEO QLC SLP y doctor en Ingeniería de Sistemas de Información

La toma de decisiones colectivas racionales: un “pequeño” milagro del que aprender.

Hace muy poco tuve la oportunidad de leer un estudio (http://neofronteras.com/?p=5560) que me llamó especialmente la atención y que me gustaría compartir a través de este blog de QLC. Incluso me llevó a buscar el “paper” original y consultar otros que se publicaron antes por la aplicación que pueden tener sus conclusiones en modelos de Inteligencia Artificial.


El primero, fue publicado el pasado 2 de abril en “The Royal Society” y sus autores son dos científicos japoneses, Tatsuhiro Yamamoto y Eisuke Hasegawa (http://rsos.royalsocietypublishing.org/content/4/4/170097)


Abordan un fenómeno que se denomina “propiedades emergentes” y que nos subraya el hecho que en la naturaleza se observan constantemente y en cualquier nivel. Son aquellas propiedades que no se encuentran en los miembros o las unidades que componen un colectivo o estructura pero que si aparecen cuando interaccionan entre sí y lo conforman.


Es un fenómeno conocido, pero extremadamente complejo de explicar y aplica al tema de fondo que abordamos: la toma de decisiones colectivas racionales, o lo que es lo mismo, cómo a partir de la inteligencia binaria (si/ no) de cada uno de las unidades o individuos que pertenece a una determinada estructura o sociedad (los estudios se han hecho con insectos sociales) ésta es capaz de tomar la decisión que más le beneficia.


En el trabajo publicado, los investigadores japoneses, aplicando un modelo animal, comprobaron que cuando un número mayor de individuos responde "sí" a la mejor opción disponible, el “tomador de decisiones colectivo” hace lo mismo. Y lo hace usando sólo el mecanismo binario de sí / no (es decir, sin aplicar “decisiones de calidad”). De tal manera que la mejor opción siempre se adopta como una decisión de la mayoría (pero sin la determinación de un quórum previo).


Los resultados que obtuvieron con colonias de una especie de hormiga (Myrmica kotokui) fueron contundentes. Prefirieron la mejor opción posible en un experimento de elección binaria y su rango de aplicación potencial, como apuntaba en el primer párrafo, es tan amplio que abarcan campos tan diversos como la robótica “de enjambre”, las sociedades humanas o las neuronas que componen cada uno de nuestros cerebros. No olvidemos que una de nuestras neuronas puede estar activada o inactivada, pero que la suma de muchas neuronas tiene como resultado un comportamiento intelectual mucho más complejo que el de una sola.


Parece claro que una regla universal para tomar decisiones colectivas es la decisión por mayoría: tomar una decisión como consecuencia de la formación de un quórum.


Existen varias hipótesis para explicar la racionalidad colectiva: la retroalimentación positiva por un reclutamiento más fuerte o un reclutamiento más rápido a la mejor opción de “n posibles” y, después de efectuar las comparaciones oportunas (retroalimentación positiva / latencia de contratación).


Sin embargo, en el caso de los insectos sociales estudiados, la aplicación de la hipótesis del reclutamiento más efectivo para la mejor opción (y la configuración del quórum) no es posible.


La explicación se podría resumir en que un comportamiento así descrito tendría como resultado un aumento en el número de “individuos itinerantes” que elegirían la mejor opción, sólo después de probar todas las opciones disponibles.


Un comportamiento que necesitaría mucho tiempo y habría hecho imposible que en el experimento sólo se necesitasen poco más de 15 minutos para determinar la preferencia por determinada disolución de azúcar. Lo mejor de “n posibilidades” necesita que cada uno de los individuos evalúe todas las opciones (retroalimentación positiva) para después, reclutar a los otros compañeros de nido que hubiesen llegado a la misma decisión y conformar así el quórum.


Toda esta secuencia y las diferentes interacciones se conoce como una decisión de calidad (por la necesidad de clasificar opciones de respuesta) y es incompatible con la naturaleza de un colectivo donde cualquier miembro sólo tiene un umbral de respuesta simple, sí ó no.  


Es decir, no puede explicar la racionalidad colectiva cuando los individuos operan de forma binaria, por lo que el verdadero mecanismo de la racionalidad colectiva queda entonces por explicar.


Con tal intención, los autores trabajaron con 6 hormigueros con 56 hormigas cada uno, marcadas de manera singular (única en cada hormiga) con una pintura especial para poder tener su trazabilidad completa (es decir, se sabe el movimiento de cada una de las hormigas).


Como se pretendía buscar una respuesta binaria se las privó de alimento durante 3 días y luego, cuando estaban hambrientas, se les ofreció una disolución de azúcar en dos concentraciones diferentes: 3,5% y 4%.


El experimento se completó con 3 iteraciones a intervalos de 3 días entre medias cada vez.


Descubrieron que cada hormiga individual tenía una preferencia consistente y fija, aunque no existía un único patrón. Unas se alimentaban con las dos, otras preferían la más concentrada o la menos dulces y las más resistentes al hambre ninguna de las dos.


Con todo, las variedades de las decisiones de las hormigas representan los distintos umbrales de respuesta respecto a la concentración de azúcar que se expresan binariamente: sí (me alimento) /no (me alimento) con la disolución. A las que les da igual, diremos que su umbral es bajo, las que ayunan representan el umbral alto y las que eligen una disolución específica tendrían un umbral intermedio.


El siguiente paso que dieron los investigadores fue que cada una de las colonias eligiesen entre el 3,5% y 4% de azúcar y comprobaron que todas las colonias eligieron la disolución del 4%. La solución óptima, la racional, ya que al ser más concentrada obtienen más calorías por Ud. de tiempo.


En la práctica, esto constituía que además de optimizar la decisión ignoraban las preferencias de parte de las hormigas del hormiguero. Solamente las hormigas del umbral intermedio influían en la toma de decisión y el resto de las hormigas (con bajo y alto umbral) simplemente no eran tomadas en cuenta.


Demostraba, empíricamente, que una decisión simple (sí ó no) tomada individualmente da lugar a una decisión colectiva y racional (habiendo diversidad de umbrales de respuesta en la población y sin necesidad de usar respuestas graduales).


Pero este comportamiento no es único en las hormigas estudiadas. Ya en los años 90 (Collective decision-making in honey bees: how colonies choose among nectar sources, Seeley, T.D., Camazine, S. & Sneyd, J. Behav Ecol Sociobiol (1991) 28: 277. doi:10.1007/BF00175101.https://link.springer.com/article/10.1007%2FBF00175101) se estudió este comportamiento con idénticos resultados. Según demostraban, una colonia de abejas de miel sabe elegir colectiva y hábilmente entre las fuentes de néctar disponibles en su territorio. Pero, entonces se explicó como la expresión o resultado de una selección natural.


Todo parece indicar que el nuevo enfoque que el equipo japonés propone es aplicable, también, a las abejas, aunque sin dejar de admitir que el mecanismo binario no es mutuamente excluyente con los mecanismos entonces propuestos. Existe la posibilidad que la decisión adoptada por el colectivo (la colmena) pueda ser mejorada o corregida por otros mecanismos naturales.

 

Los hechos son significativos y coincidentes: la colonia explora selectivamente la fuente de néctar más rentable y cambia, rápidamente, sus esfuerzos de “explotación” hacia aquélla en detrimento de otras más pobres que incluso abandonan.


Cada trabajadora “alada” modula su comportamiento en relación con la rentabilidad de la fuente del néctar: ​​a medida que aumenta la rentabilidad, aumenta el ritmo de recolección y de intensidad del “baile” que hace cuando se dispone a libar.


Además, y de igual manera que en el caso de las hormigas, las abejas no hacen comparaciones entre las diferentes fuentes de néctar disponible. Cada una sólo conoce su fuente particular de néctar, operando con información extremadamente limitada, y calcula independientemente la rentabilidad absoluta de su fuente, siendo la colonia quien genera una única respuesta: se explotan “intensivamente” las fuentes de néctar más ricas y las más pobres se abandonan.


El comprender el mecanismo que permite que estos animalitos sociales sean capaces de tomar este tipo de decisiones racionales, a partir, de una toma de decisión individual, simple y descentralizada puede ser una de las “claves de bóveda” para los modelos de aprendizaje de la inteligencia artificial, o incluso, para entender cómo funcionan nuestros propios cerebros, donde 100.000 millones de unidades (neuronas) agrupadas en 2.500.000 de columnas neocorticales  nos permiten elaborar los más complejos pensamientos a una velocidad de 400 km/h. Pensemos que la distancia entre “pensar” que voy a hacer algo y hacerlo es de sólo 400 milésimas de segundo y, todo, con un “motor eléctrico” que consume aproximadamente la energía equivalente al 20%  de nuestra ingesta diaria. Poco más de 60W…


Una maravilla que todavía no comprendemos y, que según parece, gracias a estudios como el que acabo de comentar y a estos pequeños insectos ahora estamos más cerca de entender.


 

Artículo realizado por Javier Espina Hellín CEO QLC SLP y doctor en Ingeniería de Sistemas de Información

¿Como abordar la transicion digital? Hacia la Transformacion Digital con confianza, privacidad y seguridad

A la hora de abordar la “transformación digital”, teniendo en cuenta mi propia experiencia como soporte en la transición digital para empresas, creo que es importante hacerlo desde una doble perspectiva:


1.     Concienciar, a quienes me preguntan, sobre lo que significa la Transformación Digital


2.     Transmitir confianza con transparencia y con medidas de seguridad suficientes que garanticen tanto nuestra privacidad, por ejemplo Cloud, como la capacidad de recuperar el control si fuese necesario, por ejemplo con la inteligencia artificial (AI), pero que , a grandes rasgos, es sólo un paso más en los habituales controles de los que ya disponen todas las compañías en otros “ámbitos seguros” como puede ser el pago con tarjetas de crédito, las operaciones de Comercio Internacional, Confirming (pólizas de crédito para pago de proveedores), etc. Esto no significa ser “optimista” ni reactivo en temas de seguridad. (Lo explicaré más adelante)


El primer punto, es esencial. Casi me atrevería a decir que si no se entiende el verdadero significado de la transformación digital de nada sirve lo demás.


La “Transformación Digital” es mucho más que una “transformación”. Es una revolución tan profunda y disruptiva como lo fueron todas las 3 anteriores (1.vapor-carbón, ferrocarril/ 2.petróleo, electricidad, química, automóvil/3. Nuclear, tecnología, móvil, internet/ 4. Energías alternativas, redes sociales, transformación digital, dato (BIG DATA), ???).


Lo que a muchas personas les despista es el adjetivo que se utiliza en su nomenclatura. “Digital”.


Esta revolución trasciende lo digital y la tecnología que se asocia a ella. Lo verdaderamente nuclear es que es un cambio en la forma de pensar, en el modelo de negocio de las empresas y hasta en nosotros mismos como actores del cambio como consecuencia de esa nueva tecnología.


Desde un punto de vista empresarial, representa un cambio en el modelo de negocio y en la forma en la que la compañía interactúa con su entorno. Lo que los anglosajones llaman “stakeholders” y que podríamos definir como “parte interesada” y que bajo su paraguas encontramos a todas aquellas personas u organizaciones afectadas por nuestras actividades y decisiones como empresa (proveedores, clientes, competidores, etc.).


¿Qué sucedió cuando nació Spotify?


Supuso un cambio en la manera de relacionarse con la música. Gracias a la tecnología.


Pero significó mucho más que eso. Representó un cambio radical en el modelo de negocio. El cliente no compraba música sino que consumía servicios. La transición consistió en pasar de comprar música a consumir música mediante el acceso a la “librería” de canciones más grande del planeta… Por cierto, ese modelo ha sido adoptado por otras muchas empresas y sectores. Movistar (con sus productos Fusión, Fusión +), Uber, Facebook, Airbnb, Amazon o Netflix que ha pasado a ser el mayor proveedor de contenidos de video del mundo. (Por cierto, gracias, además de a la tecnología mencionada, al marketing. Un único precio fijo mensual que evita el “dolor” que antes producía el pago por cada película).


Resistirse al cambio o querer mirar hacia otra parte, no sirve de nada porque acabará afectándote sin importar tu tamaño. Gigantes como Kodak o Blockbuster (por aprovechar el ejemplo anterior del pago por cada película alquilada) nos lo recuerdan día a día.


El sector de “despachos profesionales” que agrupan profesionales en economía, derecho, ingeniería, etc. o el sector de asesorías/ gestorías no son una excepción. El cambio en el modelo de negocio es igualmente profundo. ¿Alguien puede seguir pensando que el valor entregado por una "gestoría tradicional" como ayuda al cliente en el cumplimiento de sus obligaciones administrativas es suficiente?, ¿representa una amenaza la nueva pasarela de la Agencia Estatal de Administración Tributaria (AEAT)?


El canal digital, online, es estratégico para la AEAT. Ha sido pionera en el uso de la administración electrónica (que hace posible que cada uno de nosotros como ciudadanos/contribuyentes podamos realizar de forma integral la tramitación de cualquiera de los procedimientos gestionados por la AEAT) y evita desplazamientos, facilita la presentación del servicio y permite dedicar el personal de la AEAT a otras cuestiones que agreguen mayor valor a la sociedad (confío que entre ellos esté, como prioridad por razones evidentes a tenor de las noticias que a diario nos escandalizan, en  la lucha contra el fraude).


Me consta que la AEAT es una organización que apuesta por las TICs desde hace muchos años.  En estos momentos, tienen muy avanzados proyectos de BigData, de Business Intelligence y de captura de información en fuentes abiertas (Internet).


Por tanto, la “transformación Digital” es un reordenamiento de nuestros procesos y de las relaciones que mantenemos como empresa con nuestros “Stakeholders”. La tecnología sólo nos despeja de la ecuación de supervivencia empresarial, “el cómo”.


Siguiendo el caso de la AEAT, desde finales del 2013 están llevando a cabo un cambio de arquitectura tecnológica que consiste en trasladar los servicios ejecutados en Mainframe, hacia arquitecturas abiertas de menor coste y que permitan atender las nuevas necesidades de almacenamiento (con crecimientos en torno a un 45% anual), sin pérdidas en sus niveles de funcionalidad y disponibilidad.


La nueva arquitectura se basa en el uso de ordenadores basados en múltiples procesadores x86 o clusteres (hacia donde convergen, por su escalabilidad, todos los grandes fabricantes como HP, Dell, Cisco, Fujitsu, Lenovo, Huawei, etc.) y que hace posible que los costes dedicados al Mainframe y productos relacionados se reduzcan en 2017 en no menos de 15 millones de euros con respecto al coste soportado en 2013.


Por tanto, la pregunta ya no es si nos afectará o no. La pregunta es cuándo queremos hacerle frente, con qué tecnología y con qué “otros” jugadores vamos a seguir contando.


Es ahora, cuando podemos abordar el segundo punto que avanzaba al comienzo. La confianza, seguridad y privacidad Cloud.


Decía que sólo representa un paso más allá. Más profundo y de mayor alcance, si cabe, por la accesibilidad, sofisticación y persistencia de las amenazas en materia de seguridad, pero íntimamente relacionado con ese cambio de paradigma que, por su grado de afectación en lo tecnológico, eleva los antiguos estándares respecto a la velocidad de innovación, el grado de amenaza (ya no es sólo local porque podemos sufrir un ataque desde una dirección IP en China) y la obsolescencia de la "protección comprada".


Ahora el proveedor de soluciones Cloud, en la nube, se convierte en "socio" porque nuestra seguridad dependerá de los controles que éste incorpore en sus soluciones.


La seguridad tiene que estar incorporada por defecto (mapeos de usuarios, entornos de cero confianza, sin permisos, una administración centralizada y reportes continuos, etc.), por lo que el reto, es elegir bien a tu proveedor.


¿Qué sentido tiene discutir sobre la sofisticación y persistencia de las amenazas, el riesgo asociado con el IoT (el Internet de las cosas), los dispositivos móviles, la necesidad de la prevención o el valor de la seguridad?


Déjenme ponerles un ejemplo muy reciente. De menos de un mes.


¿Han escuchado el agujero de seguridad de nuestros móviles tanto en plataformas Android como iOS del pasado día 11 de abril?


El sistema operativo móvil, iOS 10.3.1, tiene un fallo de seguridad grave en el módulo del Wi-Fi  que también afecta a de Android. Ha sido detectado por Gal Beniamini, un experto en seguridad del grupo Project Zero de Google, en un chip inalámbrico (fabricado por Broadcom) y que ha obligado a los desarrolladores de Apple a lanzar un parche de seguridad.  


1.     ¿Qué consecuencias tiene ese fallo para los usuarios?


Muy profundas ya que puede ejecutar un código de forma remota, muy fácilmente, que permitiría a un atacante conectado a la misma red Wi-Fi el acceso completo al dispositivo “víctima” (smartphones, iphones y iPads) sin que el usuario tenga la más mínima constancia de ello. Esto se debe a que, por defecto, se dan permisos de lectura, escritura y ejecución a toda la memoria a la que pueden acceder estos chips.


2.     ¿Qué grado de influencia/capacidad de acción tenemos cada uno de nosotros sobre ese agujero en la seguridad de nuestros sistemas operativos móviles?


Ninguno. Son las empresas involucradas las únicas con capacidad para ello. De hecho, su relación en la solución es la de “socios”.


Broadcom ha trabajado con Google para dar una solución estable a este problema y evitar amenazas futuras. Las últimas versiones del firmware para los chips Wi-Fi ARM Cortex R4 ya incorporan medidas de seguridad que impiden esa ejecución remota de código. La vulnerabilidad ha sido registrada el pasado 4 de abril como CVE-2017-6975 y el parche es de 27 MB. El tiempo de respuesta de Apple ha sido excelente y continua trabajando en el próximo parche que llegará a sus dispositivos en el iOS 10.3.2. (https://www.redeszone.net/2017/04/04/ios-vulnerabilidad-wi-fi-iphone-ipad/#sthash.1X07rCR7.dpuf.)


La única respuesta posible para ganar confianza es darle “alguna” ventaja a la seguridad y evitar que nuestra primera reacción ante este tipo de “incidentes” sea la de un sentimiento de fragilidad, de desconfianza y hasta de impotencia.


Y lo primero que debemos saber es que simplicidad es sinónimo de seguridad (como lo es el riesgo al beneficio en el ámbito financiero).


Así podremos explicar que no por incrementar el nº de controles tendremos más seguridad, al contrario. Somos más vulnerables. En su lugar, los controles tienen que ser parte del desarrollo de los productos o servicios que nos ofrecen como empresas.


La activación de la seguridad tiene que venir configurada por defecto, ser parte del ADN del desarrollo y esa simplicidad disminuirá los costes de auditoría, de conformidad y creará confianza.


Eso sí, una nueva confianza. Una confianza vigilante que será posible gracias a los mapeos de usuarios, controles en aplicaciones, desarrollos a medida para la empresa y entornos de “cero” confianza sin “permisos”.


Antes, hacía referencia al nuevo papel de “socio” que deben adquirir y protagonizar tanto fabricantes como proveedores de servicios tecnológicos. En el caso de servicios en la nube es “socio” porque:


·       te acompañará a migrar a sus propios “ecosistemas virtuales” de servicios en la nube tus datos.


·       te ayuda a no tener que invertir en una costosa infraestructura física de proceso de datos, almacenamiento, mantenimiento (con costes asociados del personal que lo administra) y de recambio o sustitución de los equipos obsoletos.


·       vigila por ti la seguridad e integridad de tus datos alojados y hace frente a los elevados costes que le suponen tanto la ciberseguridad y defensa como el conjunto de contramedidas que necesitará frente a un ataque, y de las que tú pagarás sólo la parte que te asigne en su “reparto” (entre todos sus clientes) y que te integra en concepto de servicio.


Bajo este modelo, las responsabilidades de seguridad de cada uno se reparten: la empresa cliente sólo es responsable de la seguridad en su nivel de operaciones (aplicaciones) y el “socio Cloud”, o proveedor de servicios en la nube, es responsable de todo cuanto sucede “allí arriba”, es decir, es el encargado de cuidar la infraestructura y su seguridad física y lógica.


Es un modelo que ofrece a empresas de todos los tamaños el acceso a infraestructuras tecnológicas bajo demanda, que son seguras por diseño y que están “certificadas” bajo estándares mundiales muy estrictos (ISO 27001, ISO 27017, SOC 1, 2 y 3 y PCI DSS Nivel 1).


Hacer frente a esos costes de manera individual, como empresa, sólo está al alcance de grandes corporaciones e, incluso, algunos de ellos han renunciado no sólo por los costes evidentes sino por el ritmo trepidante en la incorporación y adaptación de innovaciones tecnológicas.


Empresas muy grandes de sectores tan diversos como los servicios financieros, aseguradoras o portales de venta han optado por estos modelos de seguridad.


Pero el concepto de seguridad también tiene que estar unida al análisis de la información. El análisis del dato, la transformación del dato en información con valor, es una mina de oro aún no explotada por muchas compañías tanto en conocimiento del cliente, en 360º, como en la maximización de procesos. Por ejemplo, existen desarrollos muy interesantes en el campo del “metering” y la energía como fórmula de ahorro de costes en infraestructuras complejas y detección del fraude (con eficacia del 99%), la monitorización de pérdidas o el desarrollo de sistemas de mantenimiento predictivo (que consiguen ahorros de hasta el 47% en aerogeneradores).


La tecnología y las nuevas capacidades que nos ofrece el tratamiento “inteligente” de los datos nos ayudan en la toma de decisiones y a tener un control mayor que se traduce en ahorros directos de explotación, y, lo más valioso e increíble es que se produce en tiempo real, en la mayoría de los casos.


Y aquí, podemos tener la tentación de pensar que sólo estamos hablamos del Big Data para el análisis inteligente de esos datos.


Bien, pero sólo en parte.


En el caso de la AEAT, de las eléctricas y de las empresas de metering, por supuesto, por el ingente volumen de datos, sea en número de contribuyentes, 19,3 millones, sea por el número de mediciones (2 (años) x 365(días)x24(horas)x nº cups1)), pero no tenemos en cuenta lo que puede suponer, el poder del dato, sin llegar al Big Data, con la implantación de un ERP en una PYME.


Este puede ser un primer paso para identificar un nuevo servicio de valor que podemos transmitir a nuestros “Stakeholders”.


La tecnología es una potente palanca de cambio y las TICs no representan un coste sino un elemento catalizador que nos ayudará a reorganizar nuestros procesos y las relaciones que mantenemos como empresa con nuestros “Stakeholders”, y, por tanto, a mejorar los resultados de nuestra organización.

 

En definitiva, de cómo abordemos esta transición digital dependerán las consecuencias que traen consigo la transformación digital, la implantación de la tecnología que lleva asociada y nuestra reacción como sociedad ante todo esto.


Todo dependerá de cómo elijamos desarrollarla. Si las empresas se centran, solamente, en aumentar la eficiencia y la optimización de los procesos internos, perderemos las oportunidades de aumentar el valor que entregamos a nuestros clientes, de crear nuevos puestos de trabajo o nuevas maneras de trabajar (el teletrabajo por ejemplo), mejorando la vida de las personas y la conciliación de trabajo y vida personal.


El foco de las empresas tiene que estar en cómo pueden dar solución a esas nuevas necesidades identificadas o por identificar y no satisfechas de clientes, proveedores o stakeholders en su conjunto, y en la entrega de ese nuevo valor tangible con el que poder crear nuevos servicios y mercados “valiosos”, que podrían dar lugar a nuevas oportunidades de empleo y crecimiento ( que dicho sea de paso, constituiría una manera de hacer frente a uno de los miedos más generalizados y de mayor peso que percibe la sociedad ante la disrupción que provoca la transformación digital).


Entonces, ¿cómo hacemos frente a esta transición digital y a las “fricciones” que puede generar?

La única manera posible es construyendo confianza con transparencia, con medidas de seguridad suficientes que nos permitan velar tanto por nuestra propia privacidad como por la capacidad última para recuperar el control, por ejemplo en AI (Inteligencia Artificial), si fuese necesario.


La respuesta está en nosotros. La tecnología que se está desarrollando, ahora mismo, tiene que estar concebida desde nuestros valores como humanos, con empatía y de manera inclusiva, situando al individuo en el centro de todo.


Satya Nadella, CEO de Microsoft, en una de sus últimas intervenciones se preguntaba: "¿Cómo creamos AI para aumentar las capacidades humanas y mejorar la experiencia humana?, ¿qué acciones debemos hacer para que el bienestar humano sea el centro de atención?


Pero, esto será objeto de un nuevo Blog….


 

1 CUPS= Código Universal del Punto de Suministro. Es un código único que identifica el punto de suministro de energía. Se estima que hay 27.000.000 en España

 

Artículo realizado por Javier Espina Hellín CEO QLC SLP y doctor en Ingeniería de Sistemas de Información


Esto es un párrafo. Puedes cambiarlo y poner tu propio texto, editar el formato y añadir enlaces o imágenes.