Volver al blog

Las 8 tecnologías claves para hacer posible el cambio de modelo: de la maximización del retorno al de valor compartido descentralizado.

¿Recuerdan la película de Woody Allen, memorias de un seductor, cuando el personaje de Mia Farrow le dice a Woody Allen que “no soporta ser una espectadora de la vida, que quiere vivir y no simplemente ver como los demás viven”?


Esa es la decisión: resolver si queremos ser simples espectadores de cuanto sucede (que es mucho y a gran velocidad) o actores principales en ese nuevo escenario de vida, porque nunca, antes, hemos tenido la posibilidad consciente de vivir un momento como éste en nuestra propia historia evolutiva. Todo sucedía en una escala de tiempo que sobrepasaba nuestra esperanza media de vida.


Por tanto, abundar en la idea de que el momento que vivimos es uno de los más apasionantes y retadores, nada tiene de nuevo porque estamos inmersos en la cuarta revolución industrial y, lo que para muchos, es el comienzo de lo posthumano (Homo Deus, Yuval Harari, ed. Debate, 2015), (https://youtu.be/p-4WY5rP_TI), (https://youtu.be/hxuKo_VdM9o).


La puesta de largo de todas las tecnologías que vamos a repasar aquí será en poco menos de 2 años. La primera meta es Japón 2020 y en un escaparate tan global como los Juegos Olímpicos, y serán todo un despliegue de tecnología: Panasonic con su silla de ruedas autónoma o su megáfono traductor, Sony y sus transmisiones en 8K, Toyota con su coche autónomo recorriendo las calles de Tokio y un largo etcétera…


Pero en los siguientes años el impacto transformador para todos nosotros, el mundo de los negocios y la administración será tan intenso como todo lo experimentado hasta la fecha. Imaginar un salto de más de 100.000 años puede resultar inabarcable...


Quizá la principal novedad, la esencial desde mi punto de vista, es que la disrupción entra a formar parte de nuestras expectativas.


Ahora, la innovación disruptiva es un término en nuestra ecuación vital.


Y está dentro porque sin ella nuestro presente y, menos aún, nuestro futuro más inmediato nunca hubiese sido posible.


Recuerdo la primera vez que me hablaron de innovación disruptiva. Fue hace casi 20 años cuando estaba cursando un MBA en EEUU. Se acababa de publicar “The Innovator’s Dilemma: When New Technologies Cause Great Firms to Fail” de Clayton Christensen, uno de los profesores de Harvard más influyentes y que lleva años liderando la lista Thinkers 50.


Una nueva tecnología nace para atender una necesidad, muy específica, en la parte baja de un mercado concreto. Y lo hace mucho más eficientemente que aquellas que a las que sustituye. El resultado es sencillo de adivinar: compite en estrategia de nicho, en margen y precio, porque sus competidores le dejan operar en una parte del mercado que para ellos no es tan interesante.


En poco tiempo, se encuentran que aquél que dejaron entrar va consiguiendo un volumen que le permite encontrar sus propias economías de escala, crecer y competir en otros segmentos. El paso final es el “cambio/ la disrupción” de las reglas de juego en ese mercado, y lo que estaba pensado para una categoría se convierte en un estándar. (Un ejemplo clásico es el del transporte aéreo).  


Pero, lo que hace creíble a Christensen es que cuando se refería a la tecnología y su funcionamiento “disruptivo”, lo hacía reinterpretando el modelo “evolutivo” que Malcolm McNair (“Trends in Large-scale Retailing,” Harvard Business Review, 10, 1931), en la década de los 30, utilizó para describir como se incorporan, desde abajo, los “nuevos jugadores” en un mercado retail y que denominó la “Rueda del Retail”. (Recomiendo la lectura de:“The only way is up: retail formatsaturation and the demise of the American five and dime store, 1914-1941.  Publisher: Cambridge University Press, 2017: http://dx.doi.org/10.1017/S000768051700054X)


Una particularidad que le añade “consistencia” porque, así, también se explican éxitos como los de D. Amancio Ortega en el sector de la moda con el grupo Inditex, con Zara a la cabeza, (y que ya está viendo como Primark se incorpora desde abajo) o en el de alimentación con operadores como Lidl, Aldi e, incluso, Mercadona en sus inicios, que iban sumándose a un mercado que dominaban grandes “players” como Carrefour.


Es decir, que no sólo se refería a la tecnología si no que puede ser aplicado a modelos de negocio.


El mercado, y no olvidemos que es un eufemismo detrás del cual estamos todos nosotros como consumidores, sólo está dispuesto a pagar más por productos o servicios claramente distintos, diferentes y/o genuinos, porque en caso contrario, sólo acepta (queremos como consumidores) el producto/ servicio que contenga el “binomio del milagro”, es decir, lo más barato posible y con una calidad suficiente (porque lo convierte en un “commodity market”).


A pesar, de las controversias que tanto Christensen como la propia teoría de innovación disruptiva ha venido suscitando, y especialmente, la del artículo publicado en 2015 por los profesores King y Baatartogtokh en la MIT Sloan Management Review, (How Useful Is the Theory of Disruptive Innovation?, Magazine: Fall 2015, Research Feature           September 15, 2015, Andrew A. King, Baljir Baatartogtokh) donde advertían que el respaldo empírico de la teoría era cuestionable, personalmente, creo que por diferentes razones sociológicas, por el actual crecimiento exponencial de nuevas empresas con base tecnológica (Startups) y la confluencia de distintas tecnologías, pronto maduras y disponibles, estamos en el umbral que marcará un antes y un después en cómo un cambio tecnológico nos permitirá hacer posible algo que, poco antes, era, simplemente, imposible.


Y aquí, me acuerdo de las palabras de Carlos Barrabés, cuando decía que estamos bajo la “tormenta tecnológica perfecta”.


Si una tormenta necesita la coexistencia de dos masas de aire de diferentes temperaturas y presiones para desatar una enorme actividad cuando un centro de baja presión se genera dentro de un sistema de alta presión, imaginemos el contraste “térmico y la interacción de las masas de aire” que pueden generan 8 tecnologías diferentes operando en un mismo entorno global,  interconectado en tiempo real y embebido en 5G: vientos, lluvias e incluso descargas eléctricas que supondrán un cambio mucho más acelerado, profundo y radical que cambiará nuestro mundo para siempre, y con consecuencias difíciles de imaginar.


La ecuación podría ser:

La Nube + IoT (el Internet de las Cosas) + Big Data + AI (Inteligencia Artificial) + 5G + VR (Realidad Virtual) + Seguridad + Blockchain = Modelo de Valor Compartido.

Donde:

La Nube = tecnología de la globalización

IoT = el desarrollo del sistema nervioso de internet y un humano potenciado

Big Data = tecnología de la personalización

AI (Machine Learning + Deep Learning) = tecnología de la automatización

5G = la omnipresencia para el envío masivo de datos: alta velocidad (1 Gbps), baja potencia y baja latencia (1ms o menos) que hará realidad el IoT masivo, el Internet táctil y la robótica.

VR = tecnología de la experiencia

Blockchain = tecnología de la identidad. Un “notario virtual” que registra transacciones digitales y que va más allá del Bitcoin

Seguridad = factor crucial. Si hoy hay unos 6,4 mil millones de dispositivos conectados a internet, con el 5G la cifra aumentará a 20,8 mil millones.

 

Como decía, 8 tecnologías que en un sinfín de combinaciones nos cambiarán para siempre a nosotros y la sociedad que ahora conocemos. De hecho, una de las ideas más reveladoras del discurso del señor Barrabés, a propósito de lo que aquí exponemos, es la de la sustitución del actual modelo de maximización del retorno por la de valor compartido de Porter.


Me he tomado la licencia de incluir el esquema que él mismo presentó en una de sus conferencias, y que nace de la premisa (para algunos demasiado naif) que “todo lo anterior tiene sentido si se pone al ser humano en el centro y se construye futuro creando experiencias compartidas… “


Lo cierto, es que la creación de experiencias memorables para nuestro cliente, el compartir valores, la co-creación de esa experiencia o el engagement encajan como un guante con las últimas tendencias en marketing, marketing sensorial, neuromarketing o estrategias de branding.  


Pero, la enorme complejidad de los nuevos modelos de negocios, la velocidad en el desarrollo y aplicación de las tecnologías y su impacto en los mercados obligarán a las empresas a trabajar en nuevo ecosistema productivo, en red, donde el objetivo esencial será poder identificar quien o quienes te podrán ayudar a hacerlo mejor, más rápido, más atrayente, aunque, quizás, no más barato (porque para nuestros clientes será un producto genuino y diferente).


Y éste es uno de los puntos más controvertidos del nuevo modelo de valor compartido porque no se buscará tanto el beneficio como la cooperación, la colaboración o la reciprocidad. Michael Porter propone la posibilidad de retornar a la sociedad parte de los beneficios que recibe de ella en la búsqueda de sus objetivos empresariales para fortalecer el sistema económico y los mercados en los que opera en el corto y largo plazo con el fin de ser sostenibles en el tiempo por generar más negocio y mejores condiciones empresariales. (TED, 2013, Michael Porter: Why business can be good at solving social problems. Scotland. Recuperado a partir de https://www.youtube.com/watch?v=0iIh5YYDR2o.)


Una manera de entender la colaboración que empresas como Google, GE, Johnson & Johnson, Coca-Cola Brasil, Natura Brasil, Wal-Mart, Unilever, IBM e Intel o Nestlé con su proyecto Desarrollo Rural, ya están poniendo en marcha (Escudero & Lama, 2014; Porter & Kramer, 2011).


La primera derivada es casi intuitiva.


La organización del trabajo, el concepto de liderazgo y la centralidad también cambiarán.


Necesitarán una orientación más abierta, más inclusiva, más colaborativa, descentralizada y responderán a un planteamiento real de ganar- ganar (win-win) y de aprender a crear soluciones en asociación.

El cambio será horizontal y no jerárquico o no será; buscando la solución a través del valor compartido y no la maximización del beneficio.


Y, además y como resultado más inmediato de la AI, por primera vez, estamos en la antesala de otro fenómeno completamente desconocido: la eliminación del capital humano como factor de la ecuación de productividad y la generación de riqueza. (Teoría económica clásica – donde Smith, Ricardo, J.S. Mill y especialmente Yoram Ben Porath son sus principales referentes). Yoram Ben Porath es considerado como uno de los "hacedores" de la teoría del capital humano por su aporte sobre la producción del capital humano y por la vinculación efectuada entre éste y el crecimiento económico. Su modelo se fundamenta, metodológicamente, en encontrar el punto óptimo de inversión en capital humano durante el ciclo de vida de los individuos. ("The production of Human Capital and the life-Cycle of Earnings." Journal of Political Economy. Ben Yoram Porath, 1970).


¿Es la evolución de un modelo capitalista? y ¿podemos decir que se trata de un modelo de valor compartido o de una estrategia de negocio socialmente responsable?


Existen voces autorizadas que inciden que este tipo de proyecciones pueden ser consideradas como utópicas o naif, porque el altruismo o el beneficio mutuo nunca, en nuestra historia evolutiva, se han impuesto a nuestros más arraigados impulsos atávicos de poder, concentración de riqueza y pertenencia a una élite por exclusión de los otros.


De nuevo, en un punto de inflexión que dibuja dos escenarios excluyentes por la caracterización de un nuevo dilema: la distopia de la tecnocracia vs utopía de una sociedad mejor.


Un planteamiento que puede parecernos muy nuevo pero que, hace 503 años, Tomás Moro con su isla Utopía ya transformó en un cliché. (Recomiendo tanto su lectura como de los que podemos llamar las 5 grandes distopias contemporáneas: 1. Un mundo feliz de Aldous Huxley, 1932, donde el placer es la principal herramienta de control social y el hedonismo y la trivialidad contrarrestan nuestra reacción. 2. 1984 George Orwell, 1949, o una reinterpretación de los movimientos totalitarios de los años 40, la Policía del Pensamiento, la videovigilada y la “corrección política” y el uso de un “neolenguaje” que esconde su real significado detrás de bonitas palabras. 3. Congreso de futurología de Stanislaw Lem, 1971, donde un astronauta, Igor Tichy, es reanimado en 2039 cuando la humanidad ha llegado a la “felicidad” por la psiquímica. 4. Bienvenidos a Metro-Centre de J. G. Ballard, 2006, cuando la construcción de un gran centro comercial en las afueras de una ciudad lleva al surgimiento de un nuevo tipo de fascismo consumista e inspira un nacionalismo “hooligan” y, por último, el 5 o El círculo de Dave Eggers, 2013, donde un Google-panóptico (de la teoría del panóptico de Michel Foucault) y global quiere hacer desaparecer el mal a través de la hipervisibilidad. A los disidentes de ese modelo les mueve el deseo de desaparecer. Existen muchas otras como Rebelión en la granja, Fahrenheit 451, etc…)


En el segundo de los volúmenes, breves, de Utopía, Moro nos enfrenta a nuestro yo más íntimo: el deseo, la avaricia, el ansia de posesión ya sea de riquezas, poder o tierras y como estos atributos, que “adornan” nuestra existencia como especie, son fuente de todos los males y desgracias para la sociedad que conformamos, que él define como república, y para nosotros mismos.


Pero, la gran diferencia de nuestro futuro más inmediato respecto del escenario que se nos presentaba en Utopía, es que allí el poder residía en sus habitantes, es cierto, que aislados en una isla, pero con la inteligencia artificial (AI) todo cambiará...


Sólo por incluir un orden de magnitud, pondré el ejemplo de OpenAI.


Una compañía de muy reciente fundación, en 2015, Musk y Altman con su equipo de “bots” fueron capaces de ganar a un equipo formado por 5 humanos en partidas de un juego llamado Dota 2.


Con un método de aprendizaje de prueba y error muy común, en machine learning, han logrado acumular, aproximadamente 180 años de aprendizaje humano por cada día de entrenamiento. Y esto lo hicieron durante varios meses.


En una partida, cada bot tiene que optar entre 1000 posibilidades de actuar en menos de un segundo. Una partida de Dota 2 dura aproximadamente 45 minutos.


Si estas cifras son increíbles, sopesen la siguiente relación: uno de nosotros tiene que invertir entre 10.000 y 20.000 horas de estudio y esfuerzo, por término medio, en una disciplina para convertirse en experto. Un “bot” puede aprender en sólo 1 día lo que un humano necesitaría hacer en 100 vidas con sus días y sus noches (porque por "diseño" también necesitamos dormir).


La siguiente pregunta es casi redundante: ¿existe alguna barrera para la simulación de un problema, con AI (Machine Learning + Deep Learning) si podemos afrontarla en una escala lo suficientemente grande?


Y, en ese futuro tan cercano de nueva sociedad ¿qué tipo de trabajos no podrían desempeñar “bots”, “robots” u otro tipo de dispositivos “inteligentes”?


Para terminar, resaltaré que la pregunta es en sentido negativo, es decir, cuáles no podrán desempeñar porque los que sí que podrán serán los que actualmente hacemos profesionales de todo tipo y nivel educativo: economistas, ingenieros, médicos, transportistas, almaceneros, conductores profesionales, pilotos aéreos, abogados, notarios, bancarios, etc.


Quizás, todo esto merecería un blog propio. Será el tema de un próximo artículo…

 

Artículo realizado por Javier Espina Hellín CEO en QLC SLP, doctor en Ingeniería de Sistemas de Información, MBA y ADE nº colegiado 11.534 y Licenciado en Gestión Comercial y Marketing

Qué precio tiene hacernos cambiar de opinión: cybors, bots, enjambres, ovejas y Cambridge Analytica...


La influencia social o “conformidad” es un fenómeno bien conocido en psicología y particularmente estudiando por Asch (1951) o Kelman (1971) que distingue tres formas de influencia:


  1. Sumisión: cuando mostramos acuerdo, por miedo al rechazo o al castigo, con el origen de la influencia.

  2. Identificación: cuando por el deseo de sentirse miembro del grupo de influencia mostramos acuerdo

  3. Interiorización: mostrar acuerdo por entender que el origen de la influencia es justo.


Lo que parece claro es que, independientemente de nuestro nivel educativo, social o intelectual, somos susceptibles de que influyan en nosotros, incluso siendo conscientes que existe esa presión, porque no podemos actuar como si los demás no existiesen; representa un coste elevado para nosotros. Tan elevado que somos capaces de mentir para evitar el conflicto que nos plantea el actuar de manera distinta a la norma del grupo (establecida por los “otros”). Eso puede significar quedarnos solos por la exclusión del grupo…


¿Recuerda cómo se sintió la última vez que le ignoraron en una reunión social, profesional o evento público?


Somos “animales sociales” y necesitamos de la interacción con nuestros pares. Está incrustado en nuestro ADN y, recientemente, se han descubierto que las neuronas espejo son, en parte, las responsables porque son capaces de recrear patrones mentales de quienes nos rodean. Sin ellas, simplemente, no podrimos ir al cine y creernos la historia que nos cuentan.


Por eso, los demás nos importan, su comportamiento nos influye y la publicidad que viene acompañada de un rostro famoso y familiar sigue funcionando. What else? (Nespresso)


Pero, ¿hasta qué punto somos influenciables?, ¿nos dejamos influenciar por una mayoría desconocida o somos dueños completos de nuestras decisiones?


Los experimentos sobre la influencia que tiene el grupo en cada uno de nosotros (o de conformidad) de Solomon Asch, y que se llevaron a cabo en 1952, demostraron que ésta es “significativa”. Es decir, que el poder de la conformidad en los grupos es mucho más grande e intensa de lo que cada uno de nosotros podemos imaginar.


En el más conocido, un estudiante se enfrentaba a una sencilla “prueba de visión” en donde solamente él era capaz de ver lo que el resto de sus compañeros de clase no veían (porque eran cómplices en el experimento). Sin embargo, al cabo de pocos intentos sucesivos, se acababa uniendo a sus compañeros, y esto es lo importante, aun siendo consciente de que el grupo estaba equivocado. Es reveladora la actitud del estudiante durante el experimento. (https://youtu.be/wt9i7ZiMed8; https://youtu.be/tAivP2xzrng)


El objetivo explícito de Asch era mostrar cómo se puede inducir a alguien a someterse a las presiones de grupo cuando, incluso, son contrarias a la realidad objetiva y de la que, además, eres plenamente consciente.


En otro experimento más reciente, en este caso para el programa de “zoo humano” de la BBC (https://youtu.be/duynsLoHhyw)  el sujeto del experimento espera 20 minutos antes de salir de una habitación en las que hay suficientes indicios (simulados, pero para los participantes del experimento reales) de incendio porque el resto del grupo permanece indiferente al suceso.


En las siguientes iteraciones de la prueba, nadie tomó la decisión de abandonar la habitación y el tiempo promedio fue de 13 minutos de permanencia vigilante a las reacciones del grupo. Probablemente suficientes, si el incendio hubiese sido real, como para morir por pasividad e inacción.


Una de las primeras conclusiones es que “ante la presión grupal, todos nosotros tendemos a adoptar una postura de conformidad”, por contraste de cuando el mismo experimento se repite con el sujeto solo; en esa circunstancia siempre toma la decisión de salir del recinto ante la primera alerta de fuego.


Pero, lo que personalmente me resulta más asombroso sobre nuestra capacidad de ser influenciados por el grupo, es lo que Irving Janis nos presenta con sus trabajos sobre lo que denomina “groupthink” o pensamiento grupal, en un libro que se publicó hace casi 50 años y los de Elisabeth Noelle-Neumann sobre “la espiral del silencio”.


Janis demuestra que para causar tensión en la persona (con la intención que cambie de decisión) ni siquiera es necesaria la presencia directa de un grupo. La influencia o conformidad en esa persona se consigue por el hecho de que crea que existe una mayoría que opina de un cierto modo.


Esa sensación de mayoría se puede conseguir con la difusión de determinados mensajes dominantes, que esa supuesta mayoría eleva a la categoría de norma, y que hace que sean interiorizados por muchas otras personas que lo asumen por miedo a quedar fuera de la sociedad (“…si todos lo dicen, será verdad “).


“Si el individuo encuentra que su opinión es predominante, entonces, la expresa libremente en público; si por el contrario, percibe que cuenta con pocos partidarios, entonces se vuelve temeroso, oculta sus convicciones en público, y se mantiene en silencio.” (E. Noelle-Neumann (1981). “Mass media and social change in developed societies, Ibáñez, Tomás (2003) (Coord.) Introducción a la psicología social. Barcelona: Editorial UOC)


Son fenómenos que, encontrando soporte en mecanismos sociales muy sutiles de nuestro comportamiento más primitivo, fomentan la tendencia a favorecer los discursos dominantes y a aumentar la dificultad de que aparezcan puntos de vista alternativos o de discrepancia.


El tercer apoyo con el que terminar de dibujar este boceto sobre nuestro comportamiento en grupo es el llamado “paradigma de los nuevos movimientos sociales”, donde se asegura que en sociedades como la actual, posindustriales y “líquidas” (en palabras de Z. Bauman), los ejes de conflicto son culturales y simbólicos muy lejos de los clásicos conflictos económicos o sociales.


Melucci nos dice que, cada vez, es más necesario el sentimiento de pertenencia a grupos sociales significados, desde donde poder construir una identidad personal con los valores simbólicos del grupo de pertenencia y con los que poder autodefinirse. Surge así, una intensa retroalimentación entre el grupo y el individuo, donde la “tribu” aporta identidad, seguridad normativa y confort y la suma de individuos, dimensión, relevancia y poder al colectivo de pertenencia. (Melucci, Challenging codes, collective action in the information age, 1996, Cambridge University).


Pero, lo que resulta paradójico e incluso chocante es que esos movimientos sociales nacen como fuerza generadora de nuevos códigos culturales contrarios a las presiones de uniformidad dominantes, pero al tiempo y con el fin de preservar la cohesión interna de ese movimiento alternativo, los sistemas de control interno del colectivo donde se construyen los significados, los símbolos y las identidades individuales son muy férreos y uniformadores.


Pero, ¿cómo podríamos formular nuestra ecuación de toma de decisiones con factores como la influencia social, conformidad, presión del grupo, sentimiento de pertenencia a un colectivo y la capacidad de autodefinición dentro del mismo o el valor de los símbolos?

Parece difícil, ¿verdad? De hecho, todavía no lo hemos logrado. Ni siquiera con las últimas herramientas de neuromarketing. Pero, lo que si podemos concluir es que no somos tan libres como pensamos y que la “cantidad” importa y nos impone.


Cantidad o el número de personas que “piensan” como yo (o que yo creo que piensan como yo), que visten como yo, que comen como yo, que se sienten mal como yo, etc… un “yo” que permanece en el centro y un “número indeterminado de iguales” que tengo que percibir como suficiente para insertarme en él y seguir construyendo mi autodefinición haciendo míos los valores, símbolos y significados del colectivo al que ahora pertenezco.

¿Cuál es la cantidad mínima de personas necesarias para que el fenómeno de influencia tenga lugar?


Es claro que la “masa crítica” es el factor determinante en la ecuación de influencia o de conformidad grupal.

 

¿87 millones de usuarios de una red social es suficiente muestra sobre la que poder trabajar y sacar conclusiones?


Según Moscivici (1999), “los individuos subestiman la influencia que puede ejercer la socialización sobre sus actitudes y conductas” y que dicha influencia puede ser ejercida de forma implícita e inconsciente, porque la adhesión se desarrolla a través de presión física o simbólica.


¿Qué valor económico tienen los billones de datos personales, aislados y que dejamos como miguitas de pan cuando navegamos por internet, compramos en un Marketplace, consultamos saldos en el banco, marcamos como “me gusta” o intercambiamos comentarios con nuestros amigos virtuales sobre fotografías, chistes, twitts o los goles marcados por nuestro equipo?


¿Para qué pueden ser usados esos datos?, ¿cómo esas terceras personas, organizaciones comerciales o entidades “anónimas” pueden influir en nuestra “propias” decisiones?,¿a partir de cuantos miembros el grupo ejerce su influencia?, ¿por qué es importante contar con más de 100.000 seguidores en una red social?

Es curioso comprobar cómo, incluso, la elección de algunos términos es mucho menos inocente de lo que podríamos pensar.


No les suena la palabra “influencer”…


Hace muy pocos días, dos investigadores de la Universidad de Stanford, J. Ugander y K. Altenburger han hecho público un estudio sobre cómo es cada vez más fácil saber más de todos los que usamos Internet sin preguntar nada.


Demuestran que basta, solamante, con “inferir” determinadas características de aquéllos que elegimos como amigos o con quien nos relacionamos (Monophily in social networks introduces similarity among friends-of-friends, Nature Human Behaviour, 15 febrero 2018), (http://neofronteras.com)


Ambos querían entender qué inferencias estadísticas podían terminaban revelando aquellos rasgos personales que normalmente tratamos de ocultar. Para ello, usaron bases de datos, disponibles específicamente para la investigación científica, que contienen el tipo de información que los sitios web venden a terceros como anunciantes.


Existen inferencias directas. Por ejemplo, si alguien compra pañales en Internet es muy probable que haya sido padre o madre recientemente.


Pero son las indirectas las más reveladoras porque a través de quiénes son tus amigos virtuales en redes sociales se puede saber quién eres, que edad tienes, tu inclinación política y un sin fin de datos que tú nunca has facilitado o no quieres que se sepan.


Es posible, por algo tan natural como frecuente y que, incluso, nos define como especie.

 

Se trata, simplemente, del hecho que tendemos a “hacer amigos” de nuestro mismo rango de edad, de la misma raza y de la misma creencia política. Todo lo que somos puede ser inferido desde nuestros amigos por dos tipos de estudios: de homologías u homofilias y de monofilia o preferencia extrema por un rasgo determinado.


Así, se puede “construir” un mapa de la red de relaciones que tenemos y con el conjunto/s de datos usados podemos inferir, a través de nuestros amigos y de los amigos de nuestros amigos, toda la información no declarada de cada perfil.


Entonces, si es posible averiguarlo casi todo de nosotros a través de nuestra red de relaciones y se estudian hasta el 2ª y 3ª niveles, ¿cómo protegemos nuestro derecho a la intimidad?, ¿para conservar esa intimidad cuantos niveles se necesitarán incluir para que la información contenida en las relaciones de los amigos de nuestros amigos, además de la nuestra, quedase protegida?


No es ninguna novedad decir que en el dato está el poder y en la capacidad de encontrar patrones, correspondencias y significado en la cantidad de información que generamos cada día, en cada consulta a Google, en cada pregunta a Siri, en cada itinerario que recorremos con Google Maps, en cada “me gusta” o en “cada like” de nuestro teléfono móvil, nuevo apéndice corporal tecnológico, con la que vamos dejando una huella digital de nuestra más profunda identidad...


A eso me refiero con “masa crítica”, a esa gigantesca cantidad de datos que con tecnología informática (incluida la inteligencia artificial), mucha estadística y un poco de competencia profesional, hace posible que podamos saber todo de cualquiera o podamos influir en la dirección que sea más conveniente para quien sea el dueño de esa información.


Mientras estoy dando forma a este particularmente extenso blog, el CEO de Facebook declara y pide perdón ante la cámara de representantes de EEUU por haber permitido que Cambridge Analytica, consultora política que ha sido vinculada con la campaña presidencial de Donald Trump en 2016 o con la del brexit en el mismo año, se hiciese con una base de datos que terminaría por incluir decenas de millones de perfiles de esa red social.


No en vano, y esto sí que es “masa crítica”, casi un tercio de la población mundial tiene una cuenta en la compañía de Mark Zuckerberg.


La calidad de la información a la que han tenido acceso y sobre la que han trabajado, es muy alta porque el cuestionario, que se utilizaba para recolectar datos, contenía decenas de preguntas formuladas por psicólogos e investigadores para evaluar la personalidad. Eran encuestas en línea que gestionaba otra empresa llamada Qualtrics.


Facebook entra en el juego cuando los encuestados autorizan y dan acceso a sus perfiles, en la red social, porque la aplicación de la consultora británica toma los datos de cada perfil y la de sus amigos.


Se asegura que en esa operación se hicieron, además, con las actualizaciones de estado, "me gusta" y hasta mensajes privados de más del 15% de la población de EE. UU, es decir, de casi 49 millones de ciudadanos estadounidenses. Pero, hay fuentes que van mucho más lejos y aseguran que la materia prima con la que alimentaban sus aplicaciones informáticas contenía a 220 millones de adultos norteamericanos con 5.000 rasgos diferentes de cada uno de ellos (recordemos que la población de EEUU es de aproximadamente 325,7 millones de personas).


Esto sí que es masa crítica. Es Big Data…


¿Qué hizó Cambridge Analytica con esa ingente colección de datos de gran calidad?


Tipificar e identificar las personalidades de los electores estadounidenses con el fin de “influir” en su toma de decisiones y comportamiento mediante el empleo de técnicas de Big Data y marketing ultrapersonalizado para la campaña de Trump en 2016 y, previamente, para inclinar el resultado hacia el Brexit en 2 campañas simultáneas: @vote_leave y @LeaveEUOfficial.


Si se cuenta con un perfil psicológico personalizado de los votantes se pueden “calibrar y ajustar” los mensajes de una determinada campaña hacia intereses y gustos particulares, no sólo para satisfacer a ese colectivo concreto sino para construir una mayoría que pueda influir en aquellos indecisos, decisivos para lograr que se inclinen hacia el margen clave y procure la victoria de quien les paga.


El perfil de clasificación psicológica de personalidades de cada votante se basa en el conocido Modelo OCEAN y así, Cambridge Analytica, pudo saber cuál tenía que ser el contenido, el tema y el tono de cada mensaje dirigido para cambiar la manera de pensar de los votantes de forma casi individualizada.


El objetivo era segmentar a la población para ofrecerles mensajes con temas “gancho” usando un lenguaje y unas imágenes que les removiesen, que les importasen, porque no podían quedar indiferentes… necesitaban involucrarles emocionalmente.


Es un hecho declarado por la propia consultora, que lo más importante de los servicios que ofrece Cambridge Analytica es el que se refiere a las “perspectivas de la psicología del comportamiento”.


La estrategia es clara y doble: convencer a los indecisos y desanimar a los rivales del candidato a quien se apoya.

Pero, los mensajes personalizados no es lo único que hacían para influir.


Otra de las herramientas preferidas son los “fake news” o noticias falsas que, no por casualidad, eran difundidas vía Facebook porque modificaban el estado de opinión con temas de debate que favorecían las posiciones del candidato apoyado.


En este escenario, entra en escena lo que ahora se denomina posverdad o “distorsión deliberada de una realidad, que manipula creencias y emociones con el fin de influir en la opinión pública y en actitudes sociales” (Real Academia Española, 2018)


¿Qué se consigue si cuando navegas empiezas a leer un blog por aquí o un portal de noticias por allá, mezclado con opiniones de ciudadanos como tú, de los que nunca has sabido nada pero que ofrecen historias consistentes y verosímiles, pero que no aparecen en los medios tradicionales?


Lo más probable, es que empieces a cuestionarte el por qué no están en los medios y si puede deberse a la existencia de un sesgo interesado de ese medio, o un plan de ocultación deliberado de noticias relevantes…


Y, sin ser consciente, te están ayudando a construir tu propia historia de conspiración y, lo más importante, van inoculando una cierta susceptibilidad en los medios tradicionales, en los que antes confiabas para construir tu opinión, o en las propias instituciones por la pasividad, que ya consideras interesada, para terminar, imponiendo un nuevo status quo o sistemas de referencias que pretende influir en la gente para que cambie su decisión.


¿Cuánto vale hacer ganar una elección?


No sé contestar a esta pregunta. Aunque supongo que la cifra sería tan abultada como obscena, simplemente, por lo que representa el coste de oportunidad.


Pensemos, un momento en cuál ha sido el coste económico del Brexit hasta ahora y cuanto puede representar un Brexit sin acuerdo.


Además, de la salida de instituciones europeas de la “city” o de las fluctuaciones cambiarias de la libra desde el anuncio del Brexit, el romper con la UE sin un acuerdo, según un estudio del Rabobank, podría tener un coste estimado de 450.000 millones de euros, que es equivalente al 18% del PIB británico en la próxima década, la entrada en recesión del Reino Unido durante un período mínimo de dos años, un aumento del paro de entre el 4,6% al 6,2% y cada trabajador sería unos 13.000 € al año más pobre al cabo de 10 años...


Lo que si sabemos que es (o ha sido) necesario para llevar a cabo este tipo de operaciones es contar con una estructura, de relativa importancia, estable, multidisciplinar, profesional, ultraconfidencial y tener los servicios de una agencia o el “Spin Doctor” que dirija la campaña y se encargue de gestionar a recursos en red como los “Trolls Farm” y las herramientas especializadas en Big Data, marketing personalizado y microsegmentación por perfiles en plataformas sociales como Facebook y Twitter.


Y lo que también sabemos es lo que hizo recapacitar a Zuckerberg.


Sólo en 24 horas el valor de Facebook cayó US$37.000 millones por el escándalo de Cambridge Analytica, las acusaciones de robo de datos, de interferencia política, los chantajes con prostitutas, sórdidos espías y con potenciales implicaciones en Argentina, Brasil, Colombia y México donde la consultora ha participado en más de 100 campañas electorales.


Aunque la razón oficial de la comparecencia, en dos días distintos, del CEO de Facebook son los aspectos morales sobre el mal uso de información no autorizada, la privacidad de datos, las noticias falsas, el discurso del odio de los mensajes distribuidos o la catalogación de “producto” de los millones de usuarios de su red social.


No somos conscientes que el “producto” somos nosotros mismos, que puede ser usado contra nosotros mismos y que no podemos controlar nada de tan elaborado proceso de influencia: ni la verosimilitud, ni la naturaleza de la información ni la intención de quienes la usan. (https://youtu.be/n8Dd5aVXLCc)


Fuera del aspecto formal de la comparecencia de Zuckerberg, los aspectos que han precipitado su presencia son la rápida erosión en el valor de compañía en el mercado y su impacto en sus accionistas porque preguntas como ¿para qué o quién?, ¿con qué fin?, ¿en manos de quien dejamos esa valiosísima información? o ¿qué tipo de medidas se van a implantar?, ¿cuándo, ¿cómo y con qué resultado esperado?  pueden esperar… de hecho, Facebook después de haber “pedido perdón” ya está recuperando su valor bursátil.


Por cierto, no han reparado en que la imagen del fundador de Facebook ha cambiado, radicalmente, para la “puesta en escena del perdón” y de la “aflicción”.


Del aspecto algo naif de tímido retador en jeans y camiseta gris clara ha pasado a la de un adulto maduro, discreto, humilde y corporativo dispuesto a pedir perdón y tomar medidas para que nada así vuelva a suceder. Con decisión y seriedad, se ciñe a un discurso medido y de control de daños.


En la puesta en escena, nada queda al azar: un nuevo corte de pelo más convencional que desenfadado y un sobrio traje azul oscuro, camisa blanca y corbata “azul Facebook” cierran un marco visual tan neutro y estático que obliga a centrar toda la atención en el propio CEO.


Forma parte del mismo juego de influencia. En este caso, la influencia que él quiere ejercer en aquellos a quienes tiene que dar explicaciones y respecto a toda la opinión pública que censura tan grosera monetización de su privacidad.

 

Aunque, quizá sus asesores le tendrían que haber advertido, también, sobre el poder de su lenguaje no verbal o prepararle ante preguntas tan previsibles como molestas por la cantidad de información (negativa) que puede ofrecer una sonrisa en tensión (https://youtu.be/Cfv09WA4em4), la interacción casi robótica con sus interlocutores, el desajuste gestual con la argumentación verbal y el entorno físico o la manera de beber agua durante ambas sesiones…


Pero, por debajo de la audiencia pública de Mark Zuckerberg, quedan preguntas sin responder sobre el propio escándalo de la consultora Cambridge Analytica  ¿cómo funcionan los sistemas que buscan influir en la relevancia una app, un determinado personaje público, un producto de consumo o hasta un concursante de un Talent Show?


Se trata de los “bots” (robots) de Twitter o cuentas automatizadas que realizan tareas mecánicas (distribuir spam, retuitear mensajes con determinadas palabras o repetir el mismo mensaje desde distintas cuentas cuando aparecen ciertos hashtags) y de las también llamadas “Click Farm”, o granjas donde se comercia con la manipulación interesada de los “me gusta”. Tampoco me quiero olvidar de las “Trolls Farm” o variantes de “Call Centers” donde “operadores físicos” crean, manejan y monitorizan cientos de miles de cuentas Cyborg.


Los primeros, son lugares cerrados y aislados repletos de estantes metálicos con miles de smartphones conectados y donde se emplea mano de obra humana para que todo pueda funcionar según los intereses del cliente que compra esos “likes”, o mejores posiciones en un ranking para lo que, por ejemplo, el humano descarga una app o un juego que instala y después desinstala tantas veces y en tantos equipos como contemple el trato cerrado.


Los segundos son mucho más profesionales. Necesitan grandes instalaciones por el volumen de trabajadores, que, dicho sea de paso, no necesitan ser programadores (pueden ser universitarios o sin estudios y con un bajo salario) y por el tamaño de la infraestructura informática.


Pero el grado de sofisticación en el “engaño” puede ser creciente, ya que, desde cualquier lugar del globo, se pueden crear y organizar cientos o miles de perfiles falsos en distintas redes sociales con el fin de “influir” (de nuevo) en los usuarios o ciudadanos diana. Una técnica muy utilizada y que se conoce como “sockpuppeting”.


Y, toda esta infraestructura social y virtual de cuentas falsas no se limita sólo a redes sociales como Facebook sino que también es utilizada toda una red de bots para Twitter.


El mecanismo de actuación en el ámbito político es muy familiar.


Una campaña de anuncios interesados que se acompaña de perfiles falsos que comparten noticias sesgadas, donde se filtran datos sensibles (verdaderos o falsos), sobre un candidato y se refuerzan, simultáneamente, enviando mensajes o hashtags concretos que inclinen o movilicen la opinión en la dirección convenida. Miles de usuarios que comparten un mismo mensaje, con un hashtag, tienen posibilidades reales de llegar a ser “trending topic” y el objetivo se ha cumplido.


Por ejemplo, durante las pasadas elecciones en EEUU, un mismo mensaje se twitteó una y otra vez con pocos segundos de diferencia y, el día de las elecciones un grupo de bots enviaron el hashtag #WarAgainstDemocrats más de 1.700 veces.


En ocasiones, alguno de esos mensajes compartidos por bots (desde cuentas falsas o reales, pero “hurtadas” a sus legítimos usuarios por falta de uso) en redes sociales, no conseguían la repercusión que se estimaba. Esto obligaba a una nueva tanda de mensajes y la aplicación del método de prueba-error; porque el coste operacional es muy bajo.


Y, por cierto, tampoco es imprescindible utilizar cuentas falsas o cuentas robadas ya que los grupos de hackers, que están detrás de estas operaciones, pueden acudir al mercado (negro por supuesto) y comprar varios miles de cuentas. Aunque pueda parecer imposible, hay sitios web al por mayor de compraventa de cuentas.


No hay que olvidar que, cada bot, ha llegado a recibir hasta 5 retuits de cuentas reales como media. Lo que significa que hay humanos que deciden compartir el contenido generado por un robot creado para contaminar o difamar.


Pero, también encuentra aplicación en el ámbito comercial y empresarial.


Si la empresa cliente quiere generar interés en torno a su nuevo producto, “el enjambre” identifica espacios de interés y pone en circulación cientos de comentarios positivos en medios, foros, e incluso en marketplaces.


Si, por el contrario, se trata de “guerra sucia” y el objetivo es eliminar o debilitar a la competencia, el enjambre sigue el mismo patrón, pero, esta vez, para difamar.


Recibe el nombre gráfico de enjambre porque su manera de actuar es siempre en grupo como las abejas, avispas u hormigas: los perfiles falsos/robados/reales se enlazan y se retroalimentan dándose la razón, apoyándose unos a otros y recurren a todo tipo de estratagemas de guerra como abusos verbales, provocaciones, etc.


Las claves de su éxito y proliferación es que son relativamente baratos, fáciles de crear, cosechan datos, y pueden dar servicio a distintos clientes al mismo tiempo.


Estas redes operan en 3 niveles con el “rebaño digital”:


  1. Pastores: cuentas muy influyentes que definen y marcan la conversación

  2. Perros pastores: cuya labor es amplificar el mensaje y defender al “amo” y atacar a los enemigos

  3. Las ovejas: que son los miles de cuentas automatizadas que van donde las lleven, según convenga y quien sea el cliente, pero que tienen una importancia capital y central en la estrategia porque son las responsables de generar la falsa, pero muy convincente sensación de mayoría social.


Y detrás, en el “backstage” un enorme negocio con campañas de contaminación, distorsión de la realidad, “redirección” de opiniones y cambios de voluntades en individuos y ciudadanos que no se percatan de la manipulación de la que están siendo objeto


Según algunos autores, al menos 30 países sufren la manipulación e intoxicación, de bots y trolls, en el escenario del debate público con perfiles fraudulentos en las redes sociales.


Quizá, es hora de recordar lo que nos decía J. Lanier hace casi una década en su libro “contra el rebaño digital” (You're not a gadget: A manifestó, Jaron Lanier, Editorial Debate. Barcelona, 2011), “el totalitarismo digital es la nueva amenaza para el orden social, como lo fueron el fascismo y el comunismo anteriormente”.


Su posición no está junto a tecnófobos y frente a la tecnología.


Por el contrario, apuesta por una visión humanista del uso de la tecnología y aborda el debate de la redefinición de Internet y de sus aplicaciones donde cada uno de nosotros esté por encima de las máquinas que usa, donde la utilidad sea más importante que la rentabilidad y el progreso sostenible sea un objetivo superior al resultado inmediato.

El Big Data, ¿sabemos como funciona?

El Big Data o "datos masivos" es un término que hace referencia a la “gestión” de una ingente cantidad de datos que supera la capacidad del software convencional para ser capturados, administrados y procesados en un tiempo razonable con la intención de aprovechar la información que se derive de su manipulación masiva. Lo novedoso es que se puede utilizar para saber posibles, estadísticamente hablando, comportamientos futuros mediante el uso de la minería de datos masiva y los modelos predictivos. Los campos de aplicación son innumerables pero en el ámbito empresarial podemos citar el análisis de negocio, publicitarios, los departamentos de recursos humanos, consumo y ventas cruzadas, etc.

¿Cómo se generan esos datos y de dónde provienen?

Lo cierto es que todos nosotros los generamos, habitualmente sin conciencia, y cada segundo. Podemos distinguirlos según su procedencia:

·     Generados por nosotros: cuando enviamos un correo electrónico, utilizamos nuestras redes sociales, utilizamos un ERP, incluimos registros en una base de datos o introducimos datos en un EXCEL se crean nuevos datos y metadatos susceptibles de análisis que pueden ser analizados.

·      Transacciones de datos: las llamadas o la transacción entre cuentas generan nuevos datos relevantes. Un ingreso de una cantidad de euros se traduce en un movimiento en determinada fecha, hora y lugar concreto, entre unos usuarios registrados de una o más entidades bancarias. Más metadatos.

·       E-marketing y web: al navegamos por internet dejamos un profundo rastro y gran cantidad de datos por nuestra interacción con el sitio. Se utilizan una gran variedad de herramientas de tracking con fines de marketing y análisis de negocio. Por ejemplo, los simples movimientos de nuestro ratón quedan almacenados en mapas de calor, además del tiempo que estamos en esa página, el nºde clics, los abandonos de la página, etc. Basta sólo con analizar la información contenida en un informe de Adwords por ejemplo.

·    Machine to Machine (M2M): o tecnologías que comparten datos con otros dispositivos: medidores, sensores de todo tipo (temperatura, luz, altura, de presión, de sonido, GPS, etc.) que transforman en datos las magnitudes recogidas por la máquina de registro. La irrupción de las comunicaciones inalámbricas (Wi-Fi, Bluetooth, RFID…) ha supuesto un aumento exponencial de los datos susceptibles de análisis.

·       Biométrica: o datos generados por lectores biométricos como escáneres de retina, de huellas digitales o lectores de ADN. Su uso es en seguridad, defensa y servicios de inteligencia.

Respecto al análisis de los datos y teniendo en cuenta las diferentes tecnologías de almacenamiento necesitaremos acudir, también, a distintas técnicas de análisis de datos, por citar las más conocidas:

·      Asociación: buscamos relaciones entre variables. Con la premisa de causalidad pretendemos avanzar una predicción en el comportamiento de otras variables dependientes. Un ejemplo de esta clase de relaciones son los sistemas de ventas cruzadas del e-commerce.

·     Data Mining o minería de datos: es el conjunto de técnicas que combina los métodos estadísticos, de “machine learning” y almacenamiento en bases de datos. El objetivo vuelve a ser predecir comportamientos. Por su naturaleza, tiene una relación muy estrecha con los modelos que se utilizan en la construcción de patrones.

·    Clustering o agrupación: partiendo del “data mining”, el “clustering” segmenta grandes grupos de individuos en otros de menor tamaño, encontrando similitudes “ocultas” entre estos grupos porque no sabíamos de su existencia antes del análisis. El propósito final es descubrir qué tipo de “similitud” que los define y relaciona entre sí. Con una metodología apropiada, técnicas y algoritmos de clustering, encontraremos relaciones entre resultados y procederemos a una evaluación preliminar de la estructura de esos datos.

·      Text Analytics o análisis de texto: como la mayor parte de los datos que cada uno de nosotros generamos son de texto, e-mails, búsquedas web, contenidos, etc., necesitamos una metodología que nos ayude a extraer información de estos datos y agruparlos por temas, por asuntos y extraer patrones, modelos, ser capaces de predecir palabras, completar frases, hacer búsquedas conceptuales, etc.

 

Artículo realizado por: Javier Espina Hellín CEO QLC SLP

Infotecnologia o el cambio de paradigma

La infotecnología, rompe paradigmas e impone nuevas forma de hacer negocios con sus propios métodos y procesos. Por citar algunos ejemplos citaremos:

1.       e-Business: adaptación y transformación de procesos clave de negocio con tecnologías de internet. El comercio por la red, con estrategias innovadoras, clientes globales, nuevos sistemas de búsqueda, de pago, etc.

2.       e- Commerce: conjunto de actividades relacionadas con la compra-venta de productos, servicios e información en la red. Es una parte del e- Business que obliga a crear valor utilizando toda la tecnología de la información disponible.

3.       e- Procurement/ Purchasing: es una nueva forma de gestionar las compras de una empresa generendo ventajas competitivas asentadas en el ahorro de recursos, mayor integración con el cliente y el proveedor, un mayor nivel de información de los gestores, aumentar el control del gasto, reducir el ciclo de tiempo en la compra y concentrar compras con proveedores para conseguir descuentos por volumen y mejor servicio.

4.       ERP (Enterprise Resource Planning): o sistema de gestión de la información estructurado para la empresa que le permita gestionar más eficaz y fácilmente su negocio. Las soluciones ERP son modulares, parten de una estandarización que puede ser “customizable” o definida parcialmente por el cliente/empresa, y son interfaces con otras aplicaciones. Necesitan una alimentación constante de datos que son consecuencia de flujos internos y multinivel de información y relaciones comerciales externas. Un ERP, como SAP o SAGE, persigue la mejora de la productividad, servicio al cliente, reducción de costes, calidad, etc.

5.       CRM: o herramientas de gestión de relaciones con clientes (Customer Relationship Management) necesarias para desarrollar el marketing relacional. Son sistemas informáticos de apoyo a la gestión de las relaciones con los clientes y orientados tanto a la gestión de la venta y los clientes de la empresa: automatización y promoción de ventas, tecnologías data warehouse (almacén de datos) para agregar la información transaccional y proporcionar capa de reporting, dashboards e indicadores claves de negocio como al marketing. Incluye funciones para gestionar las ventas, funcionalidades para seguimiento de campañas de marketing y gestión de oportunidades de negocio, capacidades predictivas y de proyección de ventas. Según Peppers y Rogers T. "una empresa que se vuelca a sus clientes es una empresa que utiliza la información para obtener una ventaja competitiva y alcanzar el crecimiento y la rentabilidad. En su forma más generalizada, CRM puede ser considerado un conjunto de prácticas diseñadas, simplemente, para poner a una empresa en un contacto mucho más cercano con sus clientes. De este modo, aprender más acerca de cada uno, con el objetivo más amplio de que cada uno sea más valioso incrementando el valor de la empresa.” Los sistemas CRM cuentan con distintos módulos y categorías de programación desde Javascript, para programaciones del lado cliente, Plugins que funcionan de manera sincrónica realizando acciones durante la pre y post creación y actualización de registros y workflow que realiza tareas de manera asincrónica.

6.       SCM (Supply Chain Management): o la administración de redes de suministro es el proceso de planificación, puesta en ejecución y control de las operaciones de la red de suministro con el propósito de satisfacer las necesidades del cliente con tanta eficacia como sea posible. La gestión de la cadena de suministro es transversal en todo el movimiento y almacenaje de materias primas, el inventario, y las mercancías acabadas desde el punto de origen al punto de consumo. El SCM contempla todo los acontecimientos y factores posibles que puedan causar una interrupción dentro de la misma compañía o entre distintas empresas, la red de suministro y la logística.

7.       Big Data: o Datos Masivos es un término que hace referencia a la “gestión” de una ingente cantidad de datos que supera la capacidad del software convencional para ser capturados, administrados y procesados en un tiempo razonable con la intención de aprovechar la información que se derive de su manipulación masiva. Lo novedoso es que se puede utilizar para saber posibles, estadísticamente hablando, comportamientos futuros mediante el uso de la minería de datos masiva y los modelos predictivos. Los campos de aplicación son innumerables pero en el ámbito empresarial podemos citar el análisis de negocio, publicitarios, los departamentos de recursos humanos, consumo y ventas cruzadas, etc.


Artículo realizado por: Javier Espina Hellín CEO QLC SLP

Esto es un párrafo. Puedes cambiarlo y poner tu propio texto, editar el formato y añadir enlaces o imágenes.