Volver al blog

Las 8 tecnologías claves para hacer posible el cambio de modelo: de la maximización del retorno al de valor compartido descentralizado.

¿Recuerdan la película de Woody Allen, memorias de un seductor, cuando el personaje de Mia Farrow le dice a Woody Allen que “no soporta ser una espectadora de la vida, que quiere vivir y no simplemente ver como los demás viven”?


Esa es la decisión: resolver si queremos ser simples espectadores de cuanto sucede (que es mucho y a gran velocidad) o actores principales en ese nuevo escenario de vida, porque nunca, antes, hemos tenido la posibilidad consciente de vivir un momento como éste en nuestra propia historia evolutiva. Todo sucedía en una escala de tiempo que sobrepasaba nuestra esperanza media de vida.


Por tanto, abundar en la idea de que el momento que vivimos es uno de los más apasionantes y retadores, nada tiene de nuevo porque estamos inmersos en la cuarta revolución industrial y, lo que para muchos, es el comienzo de lo posthumano (Homo Deus, Yuval Harari, ed. Debate, 2015), (https://youtu.be/p-4WY5rP_TI), (https://youtu.be/hxuKo_VdM9o).


La puesta de largo de todas las tecnologías que vamos a repasar aquí será en poco menos de 2 años. La primera meta es Japón 2020 y en un escaparate tan global como los Juegos Olímpicos, y serán todo un despliegue de tecnología: Panasonic con su silla de ruedas autónoma o su megáfono traductor, Sony y sus transmisiones en 8K, Toyota con su coche autónomo recorriendo las calles de Tokio y un largo etcétera…


Pero en los siguientes años el impacto transformador para todos nosotros, el mundo de los negocios y la administración será tan intenso como todo lo experimentado hasta la fecha. Imaginar un salto de más de 100.000 años puede resultar inabarcable...


Quizá la principal novedad, la esencial desde mi punto de vista, es que la disrupción entra a formar parte de nuestras expectativas.


Ahora, la innovación disruptiva es un término en nuestra ecuación vital.


Y está dentro porque sin ella nuestro presente y, menos aún, nuestro futuro más inmediato nunca hubiese sido posible.


Recuerdo la primera vez que me hablaron de innovación disruptiva. Fue hace casi 20 años cuando estaba cursando un MBA en EEUU. Se acababa de publicar “The Innovator’s Dilemma: When New Technologies Cause Great Firms to Fail” de Clayton Christensen, uno de los profesores de Harvard más influyentes y que lleva años liderando la lista Thinkers 50.


Una nueva tecnología nace para atender una necesidad, muy específica, en la parte baja de un mercado concreto. Y lo hace mucho más eficientemente que aquellas que a las que sustituye. El resultado es sencillo de adivinar: compite en estrategia de nicho, en margen y precio, porque sus competidores le dejan operar en una parte del mercado que para ellos no es tan interesante.


En poco tiempo, se encuentran que aquél que dejaron entrar va consiguiendo un volumen que le permite encontrar sus propias economías de escala, crecer y competir en otros segmentos. El paso final es el “cambio/ la disrupción” de las reglas de juego en ese mercado, y lo que estaba pensado para una categoría se convierte en un estándar. (Un ejemplo clásico es el del transporte aéreo).  


Pero, lo que hace creíble a Christensen es que cuando se refería a la tecnología y su funcionamiento “disruptivo”, lo hacía reinterpretando el modelo “evolutivo” que Malcolm McNair (“Trends in Large-scale Retailing,” Harvard Business Review, 10, 1931), en la década de los 30, utilizó para describir como se incorporan, desde abajo, los “nuevos jugadores” en un mercado retail y que denominó la “Rueda del Retail”. (Recomiendo la lectura de:“The only way is up: retail formatsaturation and the demise of the American five and dime store, 1914-1941.  Publisher: Cambridge University Press, 2017: http://dx.doi.org/10.1017/S000768051700054X)


Una particularidad que le añade “consistencia” porque, así, también se explican éxitos como los de D. Amancio Ortega en el sector de la moda con el grupo Inditex, con Zara a la cabeza, (y que ya está viendo como Primark se incorpora desde abajo) o en el de alimentación con operadores como Lidl, Aldi e, incluso, Mercadona en sus inicios, que iban sumándose a un mercado que dominaban grandes “players” como Carrefour.


Es decir, que no sólo se refería a la tecnología si no que puede ser aplicado a modelos de negocio.


El mercado, y no olvidemos que es un eufemismo detrás del cual estamos todos nosotros como consumidores, sólo está dispuesto a pagar más por productos o servicios claramente distintos, diferentes y/o genuinos, porque en caso contrario, sólo acepta (queremos como consumidores) el producto/ servicio que contenga el “binomio del milagro”, es decir, lo más barato posible y con una calidad suficiente (porque lo convierte en un “commodity market”).


A pesar, de las controversias que tanto Christensen como la propia teoría de innovación disruptiva ha venido suscitando, y especialmente, la del artículo publicado en 2015 por los profesores King y Baatartogtokh en la MIT Sloan Management Review, (How Useful Is the Theory of Disruptive Innovation?, Magazine: Fall 2015, Research Feature           September 15, 2015, Andrew A. King, Baljir Baatartogtokh) donde advertían que el respaldo empírico de la teoría era cuestionable, personalmente, creo que por diferentes razones sociológicas, por el actual crecimiento exponencial de nuevas empresas con base tecnológica (Startups) y la confluencia de distintas tecnologías, pronto maduras y disponibles, estamos en el umbral que marcará un antes y un después en cómo un cambio tecnológico nos permitirá hacer posible algo que, poco antes, era, simplemente, imposible.


Y aquí, me acuerdo de las palabras de Carlos Barrabés, cuando decía que estamos bajo la “tormenta tecnológica perfecta”.


Si una tormenta necesita la coexistencia de dos masas de aire de diferentes temperaturas y presiones para desatar una enorme actividad cuando un centro de baja presión se genera dentro de un sistema de alta presión, imaginemos el contraste “térmico y la interacción de las masas de aire” que pueden generan 8 tecnologías diferentes operando en un mismo entorno global,  interconectado en tiempo real y embebido en 5G: vientos, lluvias e incluso descargas eléctricas que supondrán un cambio mucho más acelerado, profundo y radical que cambiará nuestro mundo para siempre, y con consecuencias difíciles de imaginar.


La ecuación podría ser:

La Nube + IoT (el Internet de las Cosas) + Big Data + AI (Inteligencia Artificial) + 5G + VR (Realidad Virtual) + Seguridad + Blockchain = Modelo de Valor Compartido.

Donde:

La Nube = tecnología de la globalización

IoT = el desarrollo del sistema nervioso de internet y un humano potenciado

Big Data = tecnología de la personalización

AI (Machine Learning + Deep Learning) = tecnología de la automatización

5G = la omnipresencia para el envío masivo de datos: alta velocidad (1 Gbps), baja potencia y baja latencia (1ms o menos) que hará realidad el IoT masivo, el Internet táctil y la robótica.

VR = tecnología de la experiencia

Blockchain = tecnología de la identidad. Un “notario virtual” que registra transacciones digitales y que va más allá del Bitcoin

Seguridad = factor crucial. Si hoy hay unos 6,4 mil millones de dispositivos conectados a internet, con el 5G la cifra aumentará a 20,8 mil millones.

 

Como decía, 8 tecnologías que en un sinfín de combinaciones nos cambiarán para siempre a nosotros y la sociedad que ahora conocemos. De hecho, una de las ideas más reveladoras del discurso del señor Barrabés, a propósito de lo que aquí exponemos, es la de la sustitución del actual modelo de maximización del retorno por la de valor compartido de Porter.


Me he tomado la licencia de incluir el esquema que él mismo presentó en una de sus conferencias, y que nace de la premisa (para algunos demasiado naif) que “todo lo anterior tiene sentido si se pone al ser humano en el centro y se construye futuro creando experiencias compartidas… “


Lo cierto, es que la creación de experiencias memorables para nuestro cliente, el compartir valores, la co-creación de esa experiencia o el engagement encajan como un guante con las últimas tendencias en marketing, marketing sensorial, neuromarketing o estrategias de branding.  


Pero, la enorme complejidad de los nuevos modelos de negocios, la velocidad en el desarrollo y aplicación de las tecnologías y su impacto en los mercados obligarán a las empresas a trabajar en nuevo ecosistema productivo, en red, donde el objetivo esencial será poder identificar quien o quienes te podrán ayudar a hacerlo mejor, más rápido, más atrayente, aunque, quizás, no más barato (porque para nuestros clientes será un producto genuino y diferente).


Y éste es uno de los puntos más controvertidos del nuevo modelo de valor compartido porque no se buscará tanto el beneficio como la cooperación, la colaboración o la reciprocidad. Michael Porter propone la posibilidad de retornar a la sociedad parte de los beneficios que recibe de ella en la búsqueda de sus objetivos empresariales para fortalecer el sistema económico y los mercados en los que opera en el corto y largo plazo con el fin de ser sostenibles en el tiempo por generar más negocio y mejores condiciones empresariales. (TED, 2013, Michael Porter: Why business can be good at solving social problems. Scotland. Recuperado a partir de https://www.youtube.com/watch?v=0iIh5YYDR2o.)


Una manera de entender la colaboración que empresas como Google, GE, Johnson & Johnson, Coca-Cola Brasil, Natura Brasil, Wal-Mart, Unilever, IBM e Intel o Nestlé con su proyecto Desarrollo Rural, ya están poniendo en marcha (Escudero & Lama, 2014; Porter & Kramer, 2011).


La primera derivada es casi intuitiva.


La organización del trabajo, el concepto de liderazgo y la centralidad también cambiarán.


Necesitarán una orientación más abierta, más inclusiva, más colaborativa, descentralizada y responderán a un planteamiento real de ganar- ganar (win-win) y de aprender a crear soluciones en asociación.

El cambio será horizontal y no jerárquico o no será; buscando la solución a través del valor compartido y no la maximización del beneficio.


Y, además y como resultado más inmediato de la AI, por primera vez, estamos en la antesala de otro fenómeno completamente desconocido: la eliminación del capital humano como factor de la ecuación de productividad y la generación de riqueza. (Teoría económica clásica – donde Smith, Ricardo, J.S. Mill y especialmente Yoram Ben Porath son sus principales referentes). Yoram Ben Porath es considerado como uno de los "hacedores" de la teoría del capital humano por su aporte sobre la producción del capital humano y por la vinculación efectuada entre éste y el crecimiento económico. Su modelo se fundamenta, metodológicamente, en encontrar el punto óptimo de inversión en capital humano durante el ciclo de vida de los individuos. ("The production of Human Capital and the life-Cycle of Earnings." Journal of Political Economy. Ben Yoram Porath, 1970).


¿Es la evolución de un modelo capitalista? y ¿podemos decir que se trata de un modelo de valor compartido o de una estrategia de negocio socialmente responsable?


Existen voces autorizadas que inciden que este tipo de proyecciones pueden ser consideradas como utópicas o naif, porque el altruismo o el beneficio mutuo nunca, en nuestra historia evolutiva, se han impuesto a nuestros más arraigados impulsos atávicos de poder, concentración de riqueza y pertenencia a una élite por exclusión de los otros.


De nuevo, en un punto de inflexión que dibuja dos escenarios excluyentes por la caracterización de un nuevo dilema: la distopia de la tecnocracia vs utopía de una sociedad mejor.


Un planteamiento que puede parecernos muy nuevo pero que, hace 503 años, Tomás Moro con su isla Utopía ya transformó en un cliché. (Recomiendo tanto su lectura como de los que podemos llamar las 5 grandes distopias contemporáneas: 1. Un mundo feliz de Aldous Huxley, 1932, donde el placer es la principal herramienta de control social y el hedonismo y la trivialidad contrarrestan nuestra reacción. 2. 1984 George Orwell, 1949, o una reinterpretación de los movimientos totalitarios de los años 40, la Policía del Pensamiento, la videovigilada y la “corrección política” y el uso de un “neolenguaje” que esconde su real significado detrás de bonitas palabras. 3. Congreso de futurología de Stanislaw Lem, 1971, donde un astronauta, Igor Tichy, es reanimado en 2039 cuando la humanidad ha llegado a la “felicidad” por la psiquímica. 4. Bienvenidos a Metro-Centre de J. G. Ballard, 2006, cuando la construcción de un gran centro comercial en las afueras de una ciudad lleva al surgimiento de un nuevo tipo de fascismo consumista e inspira un nacionalismo “hooligan” y, por último, el 5 o El círculo de Dave Eggers, 2013, donde un Google-panóptico (de la teoría del panóptico de Michel Foucault) y global quiere hacer desaparecer el mal a través de la hipervisibilidad. A los disidentes de ese modelo les mueve el deseo de desaparecer. Existen muchas otras como Rebelión en la granja, Fahrenheit 451, etc…)


En el segundo de los volúmenes, breves, de Utopía, Moro nos enfrenta a nuestro yo más íntimo: el deseo, la avaricia, el ansia de posesión ya sea de riquezas, poder o tierras y como estos atributos, que “adornan” nuestra existencia como especie, son fuente de todos los males y desgracias para la sociedad que conformamos, que él define como república, y para nosotros mismos.


Pero, la gran diferencia de nuestro futuro más inmediato respecto del escenario que se nos presentaba en Utopía, es que allí el poder residía en sus habitantes, es cierto, que aislados en una isla, pero con la inteligencia artificial (AI) todo cambiará...


Sólo por incluir un orden de magnitud, pondré el ejemplo de OpenAI.


Una compañía de muy reciente fundación, en 2015, Musk y Altman con su equipo de “bots” fueron capaces de ganar a un equipo formado por 5 humanos en partidas de un juego llamado Dota 2.


Con un método de aprendizaje de prueba y error muy común, en machine learning, han logrado acumular, aproximadamente 180 años de aprendizaje humano por cada día de entrenamiento. Y esto lo hicieron durante varios meses.


En una partida, cada bot tiene que optar entre 1000 posibilidades de actuar en menos de un segundo. Una partida de Dota 2 dura aproximadamente 45 minutos.


Si estas cifras son increíbles, sopesen la siguiente relación: uno de nosotros tiene que invertir entre 10.000 y 20.000 horas de estudio y esfuerzo, por término medio, en una disciplina para convertirse en experto. Un “bot” puede aprender en sólo 1 día lo que un humano necesitaría hacer en 100 vidas con sus días y sus noches (porque por "diseño" también necesitamos dormir).


La siguiente pregunta es casi redundante: ¿existe alguna barrera para la simulación de un problema, con AI (Machine Learning + Deep Learning) si podemos afrontarla en una escala lo suficientemente grande?


Y, en ese futuro tan cercano de nueva sociedad ¿qué tipo de trabajos no podrían desempeñar “bots”, “robots” u otro tipo de dispositivos “inteligentes”?


Para terminar, resaltaré que la pregunta es en sentido negativo, es decir, cuáles no podrán desempeñar porque los que sí que podrán serán los que actualmente hacemos profesionales de todo tipo y nivel educativo: economistas, ingenieros, médicos, transportistas, almaceneros, conductores profesionales, pilotos aéreos, abogados, notarios, bancarios, etc.


Quizás, todo esto merecería un blog propio. Será el tema de un próximo artículo…

 

Artículo realizado por Javier Espina Hellín CEO en QLC SLP, doctor en Ingeniería de Sistemas de Información, MBA y ADE nº colegiado 11.534 y Licenciado en Gestión Comercial y Marketing

La toma de decisiones colectivas racionales: un “pequeño” milagro del que aprender.

Hace muy poco tuve la oportunidad de leer un estudio (http://neofronteras.com/?p=5560) que me llamó especialmente la atención y que me gustaría compartir a través de este blog de QLC. Incluso me llevó a buscar el “paper” original y consultar otros que se publicaron antes por la aplicación que pueden tener sus conclusiones en modelos de Inteligencia Artificial.


El primero, fue publicado el pasado 2 de abril en “The Royal Society” y sus autores son dos científicos japoneses, Tatsuhiro Yamamoto y Eisuke Hasegawa (http://rsos.royalsocietypublishing.org/content/4/4/170097)


Abordan un fenómeno que se denomina “propiedades emergentes” y que nos subraya el hecho que en la naturaleza se observan constantemente y en cualquier nivel. Son aquellas propiedades que no se encuentran en los miembros o las unidades que componen un colectivo o estructura pero que si aparecen cuando interaccionan entre sí y lo conforman.


Es un fenómeno conocido, pero extremadamente complejo de explicar y aplica al tema de fondo que abordamos: la toma de decisiones colectivas racionales, o lo que es lo mismo, cómo a partir de la inteligencia binaria (si/ no) de cada uno de las unidades o individuos que pertenece a una determinada estructura o sociedad (los estudios se han hecho con insectos sociales) ésta es capaz de tomar la decisión que más le beneficia.


En el trabajo publicado, los investigadores japoneses, aplicando un modelo animal, comprobaron que cuando un número mayor de individuos responde "sí" a la mejor opción disponible, el “tomador de decisiones colectivo” hace lo mismo. Y lo hace usando sólo el mecanismo binario de sí / no (es decir, sin aplicar “decisiones de calidad”). De tal manera que la mejor opción siempre se adopta como una decisión de la mayoría (pero sin la determinación de un quórum previo).


Los resultados que obtuvieron con colonias de una especie de hormiga (Myrmica kotokui) fueron contundentes. Prefirieron la mejor opción posible en un experimento de elección binaria y su rango de aplicación potencial, como apuntaba en el primer párrafo, es tan amplio que abarcan campos tan diversos como la robótica “de enjambre”, las sociedades humanas o las neuronas que componen cada uno de nuestros cerebros. No olvidemos que una de nuestras neuronas puede estar activada o inactivada, pero que la suma de muchas neuronas tiene como resultado un comportamiento intelectual mucho más complejo que el de una sola.


Parece claro que una regla universal para tomar decisiones colectivas es la decisión por mayoría: tomar una decisión como consecuencia de la formación de un quórum.


Existen varias hipótesis para explicar la racionalidad colectiva: la retroalimentación positiva por un reclutamiento más fuerte o un reclutamiento más rápido a la mejor opción de “n posibles” y, después de efectuar las comparaciones oportunas (retroalimentación positiva / latencia de contratación).


Sin embargo, en el caso de los insectos sociales estudiados, la aplicación de la hipótesis del reclutamiento más efectivo para la mejor opción (y la configuración del quórum) no es posible.


La explicación se podría resumir en que un comportamiento así descrito tendría como resultado un aumento en el número de “individuos itinerantes” que elegirían la mejor opción, sólo después de probar todas las opciones disponibles.


Un comportamiento que necesitaría mucho tiempo y habría hecho imposible que en el experimento sólo se necesitasen poco más de 15 minutos para determinar la preferencia por determinada disolución de azúcar. Lo mejor de “n posibilidades” necesita que cada uno de los individuos evalúe todas las opciones (retroalimentación positiva) para después, reclutar a los otros compañeros de nido que hubiesen llegado a la misma decisión y conformar así el quórum.


Toda esta secuencia y las diferentes interacciones se conoce como una decisión de calidad (por la necesidad de clasificar opciones de respuesta) y es incompatible con la naturaleza de un colectivo donde cualquier miembro sólo tiene un umbral de respuesta simple, sí ó no.  


Es decir, no puede explicar la racionalidad colectiva cuando los individuos operan de forma binaria, por lo que el verdadero mecanismo de la racionalidad colectiva queda entonces por explicar.


Con tal intención, los autores trabajaron con 6 hormigueros con 56 hormigas cada uno, marcadas de manera singular (única en cada hormiga) con una pintura especial para poder tener su trazabilidad completa (es decir, se sabe el movimiento de cada una de las hormigas).


Como se pretendía buscar una respuesta binaria se las privó de alimento durante 3 días y luego, cuando estaban hambrientas, se les ofreció una disolución de azúcar en dos concentraciones diferentes: 3,5% y 4%.


El experimento se completó con 3 iteraciones a intervalos de 3 días entre medias cada vez.


Descubrieron que cada hormiga individual tenía una preferencia consistente y fija, aunque no existía un único patrón. Unas se alimentaban con las dos, otras preferían la más concentrada o la menos dulces y las más resistentes al hambre ninguna de las dos.


Con todo, las variedades de las decisiones de las hormigas representan los distintos umbrales de respuesta respecto a la concentración de azúcar que se expresan binariamente: sí (me alimento) /no (me alimento) con la disolución. A las que les da igual, diremos que su umbral es bajo, las que ayunan representan el umbral alto y las que eligen una disolución específica tendrían un umbral intermedio.


El siguiente paso que dieron los investigadores fue que cada una de las colonias eligiesen entre el 3,5% y 4% de azúcar y comprobaron que todas las colonias eligieron la disolución del 4%. La solución óptima, la racional, ya que al ser más concentrada obtienen más calorías por Ud. de tiempo.


En la práctica, esto constituía que además de optimizar la decisión ignoraban las preferencias de parte de las hormigas del hormiguero. Solamente las hormigas del umbral intermedio influían en la toma de decisión y el resto de las hormigas (con bajo y alto umbral) simplemente no eran tomadas en cuenta.


Demostraba, empíricamente, que una decisión simple (sí ó no) tomada individualmente da lugar a una decisión colectiva y racional (habiendo diversidad de umbrales de respuesta en la población y sin necesidad de usar respuestas graduales).


Pero este comportamiento no es único en las hormigas estudiadas. Ya en los años 90 (Collective decision-making in honey bees: how colonies choose among nectar sources, Seeley, T.D., Camazine, S. & Sneyd, J. Behav Ecol Sociobiol (1991) 28: 277. doi:10.1007/BF00175101.https://link.springer.com/article/10.1007%2FBF00175101) se estudió este comportamiento con idénticos resultados. Según demostraban, una colonia de abejas de miel sabe elegir colectiva y hábilmente entre las fuentes de néctar disponibles en su territorio. Pero, entonces se explicó como la expresión o resultado de una selección natural.


Todo parece indicar que el nuevo enfoque que el equipo japonés propone es aplicable, también, a las abejas, aunque sin dejar de admitir que el mecanismo binario no es mutuamente excluyente con los mecanismos entonces propuestos. Existe la posibilidad que la decisión adoptada por el colectivo (la colmena) pueda ser mejorada o corregida por otros mecanismos naturales.

 

Los hechos son significativos y coincidentes: la colonia explora selectivamente la fuente de néctar más rentable y cambia, rápidamente, sus esfuerzos de “explotación” hacia aquélla en detrimento de otras más pobres que incluso abandonan.


Cada trabajadora “alada” modula su comportamiento en relación con la rentabilidad de la fuente del néctar: ​​a medida que aumenta la rentabilidad, aumenta el ritmo de recolección y de intensidad del “baile” que hace cuando se dispone a libar.


Además, y de igual manera que en el caso de las hormigas, las abejas no hacen comparaciones entre las diferentes fuentes de néctar disponible. Cada una sólo conoce su fuente particular de néctar, operando con información extremadamente limitada, y calcula independientemente la rentabilidad absoluta de su fuente, siendo la colonia quien genera una única respuesta: se explotan “intensivamente” las fuentes de néctar más ricas y las más pobres se abandonan.


El comprender el mecanismo que permite que estos animalitos sociales sean capaces de tomar este tipo de decisiones racionales, a partir, de una toma de decisión individual, simple y descentralizada puede ser una de las “claves de bóveda” para los modelos de aprendizaje de la inteligencia artificial, o incluso, para entender cómo funcionan nuestros propios cerebros, donde 100.000 millones de unidades (neuronas) agrupadas en 2.500.000 de columnas neocorticales  nos permiten elaborar los más complejos pensamientos a una velocidad de 400 km/h. Pensemos que la distancia entre “pensar” que voy a hacer algo y hacerlo es de sólo 400 milésimas de segundo y, todo, con un “motor eléctrico” que consume aproximadamente la energía equivalente al 20%  de nuestra ingesta diaria. Poco más de 60W…


Una maravilla que todavía no comprendemos y, que según parece, gracias a estudios como el que acabo de comentar y a estos pequeños insectos ahora estamos más cerca de entender.


 

Artículo realizado por Javier Espina Hellín CEO QLC SLP y doctor en Ingeniería de Sistemas de Información

¿Como abordar la transicion digital? Hacia la Transformacion Digital con confianza, privacidad y seguridad

A la hora de abordar la “transformación digital”, teniendo en cuenta mi propia experiencia como soporte en la transición digital para empresas, creo que es importante hacerlo desde una doble perspectiva:


1.     Concienciar, a quienes me preguntan, sobre lo que significa la Transformación Digital


2.     Transmitir confianza con transparencia y con medidas de seguridad suficientes que garanticen tanto nuestra privacidad, por ejemplo Cloud, como la capacidad de recuperar el control si fuese necesario, por ejemplo con la inteligencia artificial (AI), pero que , a grandes rasgos, es sólo un paso más en los habituales controles de los que ya disponen todas las compañías en otros “ámbitos seguros” como puede ser el pago con tarjetas de crédito, las operaciones de Comercio Internacional, Confirming (pólizas de crédito para pago de proveedores), etc. Esto no significa ser “optimista” ni reactivo en temas de seguridad. (Lo explicaré más adelante)


El primer punto, es esencial. Casi me atrevería a decir que si no se entiende el verdadero significado de la transformación digital de nada sirve lo demás.


La “Transformación Digital” es mucho más que una “transformación”. Es una revolución tan profunda y disruptiva como lo fueron todas las 3 anteriores (1.vapor-carbón, ferrocarril/ 2.petróleo, electricidad, química, automóvil/3. Nuclear, tecnología, móvil, internet/ 4. Energías alternativas, redes sociales, transformación digital, dato (BIG DATA), ???).


Lo que a muchas personas les despista es el adjetivo que se utiliza en su nomenclatura. “Digital”.


Esta revolución trasciende lo digital y la tecnología que se asocia a ella. Lo verdaderamente nuclear es que es un cambio en la forma de pensar, en el modelo de negocio de las empresas y hasta en nosotros mismos como actores del cambio como consecuencia de esa nueva tecnología.


Desde un punto de vista empresarial, representa un cambio en el modelo de negocio y en la forma en la que la compañía interactúa con su entorno. Lo que los anglosajones llaman “stakeholders” y que podríamos definir como “parte interesada” y que bajo su paraguas encontramos a todas aquellas personas u organizaciones afectadas por nuestras actividades y decisiones como empresa (proveedores, clientes, competidores, etc.).


¿Qué sucedió cuando nació Spotify?


Supuso un cambio en la manera de relacionarse con la música. Gracias a la tecnología.


Pero significó mucho más que eso. Representó un cambio radical en el modelo de negocio. El cliente no compraba música sino que consumía servicios. La transición consistió en pasar de comprar música a consumir música mediante el acceso a la “librería” de canciones más grande del planeta… Por cierto, ese modelo ha sido adoptado por otras muchas empresas y sectores. Movistar (con sus productos Fusión, Fusión +), Uber, Facebook, Airbnb, Amazon o Netflix que ha pasado a ser el mayor proveedor de contenidos de video del mundo. (Por cierto, gracias, además de a la tecnología mencionada, al marketing. Un único precio fijo mensual que evita el “dolor” que antes producía el pago por cada película).


Resistirse al cambio o querer mirar hacia otra parte, no sirve de nada porque acabará afectándote sin importar tu tamaño. Gigantes como Kodak o Blockbuster (por aprovechar el ejemplo anterior del pago por cada película alquilada) nos lo recuerdan día a día.


El sector de “despachos profesionales” que agrupan profesionales en economía, derecho, ingeniería, etc. o el sector de asesorías/ gestorías no son una excepción. El cambio en el modelo de negocio es igualmente profundo. ¿Alguien puede seguir pensando que el valor entregado por una "gestoría tradicional" como ayuda al cliente en el cumplimiento de sus obligaciones administrativas es suficiente?, ¿representa una amenaza la nueva pasarela de la Agencia Estatal de Administración Tributaria (AEAT)?


El canal digital, online, es estratégico para la AEAT. Ha sido pionera en el uso de la administración electrónica (que hace posible que cada uno de nosotros como ciudadanos/contribuyentes podamos realizar de forma integral la tramitación de cualquiera de los procedimientos gestionados por la AEAT) y evita desplazamientos, facilita la presentación del servicio y permite dedicar el personal de la AEAT a otras cuestiones que agreguen mayor valor a la sociedad (confío que entre ellos esté, como prioridad por razones evidentes a tenor de las noticias que a diario nos escandalizan, en  la lucha contra el fraude).


Me consta que la AEAT es una organización que apuesta por las TICs desde hace muchos años.  En estos momentos, tienen muy avanzados proyectos de BigData, de Business Intelligence y de captura de información en fuentes abiertas (Internet).


Por tanto, la “transformación Digital” es un reordenamiento de nuestros procesos y de las relaciones que mantenemos como empresa con nuestros “Stakeholders”. La tecnología sólo nos despeja de la ecuación de supervivencia empresarial, “el cómo”.


Siguiendo el caso de la AEAT, desde finales del 2013 están llevando a cabo un cambio de arquitectura tecnológica que consiste en trasladar los servicios ejecutados en Mainframe, hacia arquitecturas abiertas de menor coste y que permitan atender las nuevas necesidades de almacenamiento (con crecimientos en torno a un 45% anual), sin pérdidas en sus niveles de funcionalidad y disponibilidad.


La nueva arquitectura se basa en el uso de ordenadores basados en múltiples procesadores x86 o clusteres (hacia donde convergen, por su escalabilidad, todos los grandes fabricantes como HP, Dell, Cisco, Fujitsu, Lenovo, Huawei, etc.) y que hace posible que los costes dedicados al Mainframe y productos relacionados se reduzcan en 2017 en no menos de 15 millones de euros con respecto al coste soportado en 2013.


Por tanto, la pregunta ya no es si nos afectará o no. La pregunta es cuándo queremos hacerle frente, con qué tecnología y con qué “otros” jugadores vamos a seguir contando.


Es ahora, cuando podemos abordar el segundo punto que avanzaba al comienzo. La confianza, seguridad y privacidad Cloud.


Decía que sólo representa un paso más allá. Más profundo y de mayor alcance, si cabe, por la accesibilidad, sofisticación y persistencia de las amenazas en materia de seguridad, pero íntimamente relacionado con ese cambio de paradigma que, por su grado de afectación en lo tecnológico, eleva los antiguos estándares respecto a la velocidad de innovación, el grado de amenaza (ya no es sólo local porque podemos sufrir un ataque desde una dirección IP en China) y la obsolescencia de la "protección comprada".


Ahora el proveedor de soluciones Cloud, en la nube, se convierte en "socio" porque nuestra seguridad dependerá de los controles que éste incorpore en sus soluciones.


La seguridad tiene que estar incorporada por defecto (mapeos de usuarios, entornos de cero confianza, sin permisos, una administración centralizada y reportes continuos, etc.), por lo que el reto, es elegir bien a tu proveedor.


¿Qué sentido tiene discutir sobre la sofisticación y persistencia de las amenazas, el riesgo asociado con el IoT (el Internet de las cosas), los dispositivos móviles, la necesidad de la prevención o el valor de la seguridad?


Déjenme ponerles un ejemplo muy reciente. De menos de un mes.


¿Han escuchado el agujero de seguridad de nuestros móviles tanto en plataformas Android como iOS del pasado día 11 de abril?


El sistema operativo móvil, iOS 10.3.1, tiene un fallo de seguridad grave en el módulo del Wi-Fi  que también afecta a de Android. Ha sido detectado por Gal Beniamini, un experto en seguridad del grupo Project Zero de Google, en un chip inalámbrico (fabricado por Broadcom) y que ha obligado a los desarrolladores de Apple a lanzar un parche de seguridad.  


1.     ¿Qué consecuencias tiene ese fallo para los usuarios?


Muy profundas ya que puede ejecutar un código de forma remota, muy fácilmente, que permitiría a un atacante conectado a la misma red Wi-Fi el acceso completo al dispositivo “víctima” (smartphones, iphones y iPads) sin que el usuario tenga la más mínima constancia de ello. Esto se debe a que, por defecto, se dan permisos de lectura, escritura y ejecución a toda la memoria a la que pueden acceder estos chips.


2.     ¿Qué grado de influencia/capacidad de acción tenemos cada uno de nosotros sobre ese agujero en la seguridad de nuestros sistemas operativos móviles?


Ninguno. Son las empresas involucradas las únicas con capacidad para ello. De hecho, su relación en la solución es la de “socios”.


Broadcom ha trabajado con Google para dar una solución estable a este problema y evitar amenazas futuras. Las últimas versiones del firmware para los chips Wi-Fi ARM Cortex R4 ya incorporan medidas de seguridad que impiden esa ejecución remota de código. La vulnerabilidad ha sido registrada el pasado 4 de abril como CVE-2017-6975 y el parche es de 27 MB. El tiempo de respuesta de Apple ha sido excelente y continua trabajando en el próximo parche que llegará a sus dispositivos en el iOS 10.3.2. (https://www.redeszone.net/2017/04/04/ios-vulnerabilidad-wi-fi-iphone-ipad/#sthash.1X07rCR7.dpuf.)


La única respuesta posible para ganar confianza es darle “alguna” ventaja a la seguridad y evitar que nuestra primera reacción ante este tipo de “incidentes” sea la de un sentimiento de fragilidad, de desconfianza y hasta de impotencia.


Y lo primero que debemos saber es que simplicidad es sinónimo de seguridad (como lo es el riesgo al beneficio en el ámbito financiero).


Así podremos explicar que no por incrementar el nº de controles tendremos más seguridad, al contrario. Somos más vulnerables. En su lugar, los controles tienen que ser parte del desarrollo de los productos o servicios que nos ofrecen como empresas.


La activación de la seguridad tiene que venir configurada por defecto, ser parte del ADN del desarrollo y esa simplicidad disminuirá los costes de auditoría, de conformidad y creará confianza.


Eso sí, una nueva confianza. Una confianza vigilante que será posible gracias a los mapeos de usuarios, controles en aplicaciones, desarrollos a medida para la empresa y entornos de “cero” confianza sin “permisos”.


Antes, hacía referencia al nuevo papel de “socio” que deben adquirir y protagonizar tanto fabricantes como proveedores de servicios tecnológicos. En el caso de servicios en la nube es “socio” porque:


·       te acompañará a migrar a sus propios “ecosistemas virtuales” de servicios en la nube tus datos.


·       te ayuda a no tener que invertir en una costosa infraestructura física de proceso de datos, almacenamiento, mantenimiento (con costes asociados del personal que lo administra) y de recambio o sustitución de los equipos obsoletos.


·       vigila por ti la seguridad e integridad de tus datos alojados y hace frente a los elevados costes que le suponen tanto la ciberseguridad y defensa como el conjunto de contramedidas que necesitará frente a un ataque, y de las que tú pagarás sólo la parte que te asigne en su “reparto” (entre todos sus clientes) y que te integra en concepto de servicio.


Bajo este modelo, las responsabilidades de seguridad de cada uno se reparten: la empresa cliente sólo es responsable de la seguridad en su nivel de operaciones (aplicaciones) y el “socio Cloud”, o proveedor de servicios en la nube, es responsable de todo cuanto sucede “allí arriba”, es decir, es el encargado de cuidar la infraestructura y su seguridad física y lógica.


Es un modelo que ofrece a empresas de todos los tamaños el acceso a infraestructuras tecnológicas bajo demanda, que son seguras por diseño y que están “certificadas” bajo estándares mundiales muy estrictos (ISO 27001, ISO 27017, SOC 1, 2 y 3 y PCI DSS Nivel 1).


Hacer frente a esos costes de manera individual, como empresa, sólo está al alcance de grandes corporaciones e, incluso, algunos de ellos han renunciado no sólo por los costes evidentes sino por el ritmo trepidante en la incorporación y adaptación de innovaciones tecnológicas.


Empresas muy grandes de sectores tan diversos como los servicios financieros, aseguradoras o portales de venta han optado por estos modelos de seguridad.


Pero el concepto de seguridad también tiene que estar unida al análisis de la información. El análisis del dato, la transformación del dato en información con valor, es una mina de oro aún no explotada por muchas compañías tanto en conocimiento del cliente, en 360º, como en la maximización de procesos. Por ejemplo, existen desarrollos muy interesantes en el campo del “metering” y la energía como fórmula de ahorro de costes en infraestructuras complejas y detección del fraude (con eficacia del 99%), la monitorización de pérdidas o el desarrollo de sistemas de mantenimiento predictivo (que consiguen ahorros de hasta el 47% en aerogeneradores).


La tecnología y las nuevas capacidades que nos ofrece el tratamiento “inteligente” de los datos nos ayudan en la toma de decisiones y a tener un control mayor que se traduce en ahorros directos de explotación, y, lo más valioso e increíble es que se produce en tiempo real, en la mayoría de los casos.


Y aquí, podemos tener la tentación de pensar que sólo estamos hablamos del Big Data para el análisis inteligente de esos datos.


Bien, pero sólo en parte.


En el caso de la AEAT, de las eléctricas y de las empresas de metering, por supuesto, por el ingente volumen de datos, sea en número de contribuyentes, 19,3 millones, sea por el número de mediciones (2 (años) x 365(días)x24(horas)x nº cups1)), pero no tenemos en cuenta lo que puede suponer, el poder del dato, sin llegar al Big Data, con la implantación de un ERP en una PYME.


Este puede ser un primer paso para identificar un nuevo servicio de valor que podemos transmitir a nuestros “Stakeholders”.


La tecnología es una potente palanca de cambio y las TICs no representan un coste sino un elemento catalizador que nos ayudará a reorganizar nuestros procesos y las relaciones que mantenemos como empresa con nuestros “Stakeholders”, y, por tanto, a mejorar los resultados de nuestra organización.

 

En definitiva, de cómo abordemos esta transición digital dependerán las consecuencias que traen consigo la transformación digital, la implantación de la tecnología que lleva asociada y nuestra reacción como sociedad ante todo esto.


Todo dependerá de cómo elijamos desarrollarla. Si las empresas se centran, solamente, en aumentar la eficiencia y la optimización de los procesos internos, perderemos las oportunidades de aumentar el valor que entregamos a nuestros clientes, de crear nuevos puestos de trabajo o nuevas maneras de trabajar (el teletrabajo por ejemplo), mejorando la vida de las personas y la conciliación de trabajo y vida personal.


El foco de las empresas tiene que estar en cómo pueden dar solución a esas nuevas necesidades identificadas o por identificar y no satisfechas de clientes, proveedores o stakeholders en su conjunto, y en la entrega de ese nuevo valor tangible con el que poder crear nuevos servicios y mercados “valiosos”, que podrían dar lugar a nuevas oportunidades de empleo y crecimiento ( que dicho sea de paso, constituiría una manera de hacer frente a uno de los miedos más generalizados y de mayor peso que percibe la sociedad ante la disrupción que provoca la transformación digital).


Entonces, ¿cómo hacemos frente a esta transición digital y a las “fricciones” que puede generar?

La única manera posible es construyendo confianza con transparencia, con medidas de seguridad suficientes que nos permitan velar tanto por nuestra propia privacidad como por la capacidad última para recuperar el control, por ejemplo en AI (Inteligencia Artificial), si fuese necesario.


La respuesta está en nosotros. La tecnología que se está desarrollando, ahora mismo, tiene que estar concebida desde nuestros valores como humanos, con empatía y de manera inclusiva, situando al individuo en el centro de todo.


Satya Nadella, CEO de Microsoft, en una de sus últimas intervenciones se preguntaba: "¿Cómo creamos AI para aumentar las capacidades humanas y mejorar la experiencia humana?, ¿qué acciones debemos hacer para que el bienestar humano sea el centro de atención?


Pero, esto será objeto de un nuevo Blog….


 

1 CUPS= Código Universal del Punto de Suministro. Es un código único que identifica el punto de suministro de energía. Se estima que hay 27.000.000 en España

 

Artículo realizado por Javier Espina Hellín CEO QLC SLP y doctor en Ingeniería de Sistemas de Información


Bixby, la nueva estrella de la inteligencia artificial del S8. Los algoritmos para la libre elección

Con la llegada de la inteligencia artificial y la progresiva e imparable preferencia por las pantallas de nuestros Smartphones frente a otros dispositivos con los que trabajamos en el día a día, ordenadores, tabletas, navegadores, etc. nuestra capacidad de libre elección está cada vez más cuestionada.

Hace muy pocos días, compartía con estudiantes de postgrado de una conocida Escuela de Negocios, lo que ya profetizaba McLuhan a nuestros padres. “El fin de la galaxia Gutenberg para establecernos en la galaxia Marconi”. En definitiva, algo que para nosotros es casi una evidencia y que podríamos resumir como el fin de la cultura escrita en favor de la cultura visual.

Pero, ahora, es casi más acertado decir que vivimos en la galaxia Berners-Lee, donde Internet es el macromedio total. Un nuevo medio que no pretende establecer una competencia con el resto de los medios, ni persigue su eliminación. No los elimina sino que los asimila para integrarlos en su propio medio y ponerlos a gravitar a su alrededor.

Es cierto que la superioridad de lo visual no es una novedad. Incluso, la inteligencia artificial tampoco lo es. Las nuevas estrellas digitales son ya conocidas por su nombre por todos nosotros: Cortana de Microsoft, Siri de Apple, Alexa de Amazon y Assistant de Google. A todas ellas, tendremos que añadirle una más, que mañana mismo 29 de marzo, Samsung nos anunciará. Será su asistente estrella artificial y su nombre es Bixby.

Pero, ¿qué nos avanza, con muy poco disimulo por cierto, este nuevo firmamento de estrellas digitales y de inteligencia artificial?

Pues que parece claro que el inminente futuro quiere dejar atrás la época táctil y adoptar la tecnología de voz para, que a través de ella e imitando nuestra propia forma de comunicación más antigua, inaugurar la nueva era que nos espera y lo que se ha bautizado como EL INTERNER DE LAS COSAS, que sólo será posible por la, cada vez más estrecha, relación con nuestros dispositivos móviles, tabletas, ordenadores y wearables.

El objetivo final es continuar con la integración, que antes comentaba, de todo nuestro entorno “multiconectado” desde un interface mucho más ambicioso, fácil y natural.  

Samsung, convencido que el futuro pasa por la inteligencia artificial, lo apuesta todo, con su nuevo S8 más la versión Plus.

No sabría decir si después o como consecuencia de un enorme fracaso mundial, a hombros de las baterías “poco fiables” de su último terminal, la marca surcoreana lanza mañana, 29 de marzo de 2017, su nuevo Smartphone S8 y S8 Plus que pondrá a disposición de todos una nueva “innovación aceleradora” con el que quiere forjar un “nuevo escenario disruptivo” y que pretende ayudar a consolidar una de las llamadas “tecnologías fundacionales” más prometedoras del panorama tecnológico actual: el análisis del Big Data.  

Y todo esto, con un punto de dramatización en la venta. Esa innovación aceleradora de Samsung nace como consecuencia de la decisión estratégica de “matar” a su primera criatura de inteligencia artificial, el S Voice de 2012, que lanzó al mercado con su S3.

El factor verdaderamente innovador del lanzamiento mundial de Samsumg, para mañana, es que Bixby no sólo será un buscador avanzado de información sino que nace con la ambición de “aprender de nuestras rutinas”, en llamadas, búsquedas de información, de envíos de documentos adjuntos, en definitiva, de hacernos más sencillo, rápido e intuitivo el uso del terminal mediante la “predicción de nuestro propio comportamiento”. Y esto, además de “customizar” primero, nuestro móvil hasta el punto de hacerlo único, para después extenderse a cualquier dispositivo con micrófono y conexión a internet (en palabras del Injong Rhee, director de I+D del área de software de la marca), puede convertirse en la piedra angular de toda la industria.

Para poder hacerlo realidad, una de las claves es que nuestro dispositivo móvil se asegure que nosotros somos quienes decimos que somos.

La tarea inicial será la determinación del “usuario principal”. Nosotros mismos podremos parametrizarlo mediante alguna de las variables biométricas que los dispositivos integrados en el S8 puedan identificar. Será nuestro patrón de voz, de imagen facial, huella dactilar o cualquier nuevo y exótico despliegue tecnológico con el que nos sorprenda Samsung.

Pero, lo nuclear aquí es la función para la que nace ese nuevo asistente Bixby y la potencia, rapidez y alcance del universo que sea capaz de construir a su alrededor, incluso a costa de uno de sus competidores más conocidos.

Por ello, Samsung ya ha compartido Bixby con los más importantes desarrolladores de Apps (incluidas las que puedan operar en dispositivos de Apple), para que pueda comenzar esa nueva era de omniconexión con electrodomésticos de todo tipo, y aquí no se si incluir, con un poco de maldad, al coche eléctrico a quien podremos ordenar que inicie su ciclo de recarga de baterías desde nuestro móvil, con dispositivos domóticos o, por ejemplo, con gigantes del comercio electrónico que, amable y diligentemente, nos sugieran “regalos” para amigos, pareja o “nosotros mismos”, en tiempo real y de acuerdo a nuestros patrones de compra, listas de deseos, preferencias personales o últimas compras.

Un gigantesco nuevo reto al que deberemos hacer frente no sólo desde nuestro rol de consumidores o profesionales del marketing, que nos obligará a desarrollar nuevas estrategias de marketing y comunicación entre marcas y consumidores, sino al resto de actores sociales.

Tendremos que alumbrar nuevos entornos normativos y de competencia. Sólo por citar el primero que se me viene a la cabeza, fuera de mi ámbito profesional…

Pero, para terminar, me gustaría compartir una de las reflexiones que leí a Yuval Noah Harari en uno de sus últimos libros, Homo Deus, respecto a la inteligencia artificial. Nos plantea el dilema que puede traer consigo la convivencia de ese nuevo “asistente artificial” con cualquier otro “ayudante o consejero” de nuestra propia especie (padre, madre, esposa, amigos o aquel profesor que te descubrió ese mundo al que ahora perteneces).

Si el índice de acierto, de coincidencia, de veracidad o de solvencia, en definitiva de ayuda, es mayor y más consistente (por factores estadísticas, de la accesibilidad de la que hablaban Kahnneman/ Tversky o de concurrencia) que el ofrecido por uno de nosotros ¿por quién nos dejaremos “aconsejar” en nuestro devenir futuro? Y, contando ya, con nuestra entera confianza por su competencia demostrada en saber cómo somos y qué queremos en muchas y diversas circunstancias a lo largo del tiempo en el que nos ha estudiado y averiguado nuestras preferencias, ¿lo haremos sólo para elegir un regalo, una tienda, un restaurante o un determinado proveedor virtual o también para elegir la compañera/o de vida, la inversión más importante de nuestra vida económica (nuestra casa), el alcalde de nuestra ciudad o el presidente de nuestro país?

 

Artículo realizado por Javier Espina Hellín CEO QLC SLP

Esto es un párrafo. Puedes cambiarlo y poner tu propio texto, editar el formato y añadir enlaces o imágenes.