Volver al blog

Sólo un vistazo al caso “Amazon”

El caso de Amazon es enormemente complejo aunque se podría decir que se resume en un sola palabra: “ganar”.


Ganar relevancia, influencia, cuota de mercado en “todo” y ganar dinero por supuesto. Como parece que reina en Hollywood, “no es nada personal. Es sólo business”.


Es verdad que en el plan de negocio de Amazon estaba previsto ganar dinero pero sólo después del tiempo necesario para hacerse hueco en el mercado digital, de ganar “masa crítica” o de consolidar aquellas ventajas tecnológicas que hiciesen posible comprar, más tarde comprar “en un solo click” y comprar cualquier producto que se nos pueda ocurrir. El beneficio se sacrificó, al comienzo, para hacer posible la ambición de ser un “todo” y, con un poco de tiempo más, deshacerse de “casi todos” (los competidores) para hacerse el único proveedor de “todos” (los consumidores).


El tamaño de su ambición es sólo comparable al que evoca su propio nombre.


Al principio, como seguro que sabéis, vendía libros desde un garaje privado (el del propio matrimonio Bezos), después amplió (y sigue ampliando continuamente) un portfolio de productos y servicios que parece no tener fin ni sector de desarrollo que no pretenda.


Ofrece de todo y ahora no sólo obtiene beneficios (monetización) vendiendo productos de otros sino que, aprovechando la enorme cantidad de información relevante que tiene de todos nosotros, ya los produce directamente (con lo hace más corta la cadena. Sólo tiene 2 eslabones desde la fabricación hasta la venta y son propios). 


Puede hacer (y hace constantemente) estudios de todo tipo para ver cómo reaccionamos como clientes: promociones en precio, posicionamiento de sus distintas marcas para saber cual es nuestra sensibilidad, cómo presenta las ofertas en cada búsqueda, qué llama nuestra atención en la oferta formal de cada producto modificando colores, formas, fotos, presentación de otros productos para favorecer la venta cruzada (otros clientes compraron este producto junto a xxx por xxx €), etc.  


Durante la fase de desarrollo de un producto, Amazon sabe las necesidades no satisfechas del mercado frente a la mayoría de los minoristas que sólo pueden “adivinarlo”.


Fabrica/ vende con marca propia desde electrónica de consumo, toallas de papel y papel higiénico, camisetas y shorts para niños hasta comida para perros (se llama Wag, y está hecha por Amazon. Se estima en más de 200 marcas propias, según TJI Research que rastrea el crecimiento de Amazon. Marcas como Presto!, SpottedZebra, True Angel, IndigoSociety, Crafted Collar, Rivet and Stone & Beam, Mama Bear, Solimo, Core 10, PeakVelocity, Goodthreads, Paris Sunday, Mae, etc. además de las marcas que produce Amazon con su propio nombre, como Amazon Basics o Amazon Essentials…


Esta estrategia de crecimiento de marcas propias se está acelerando, según un estudio de Evan Neufeld y Cooper Smith: de la empresa de investigación Gartner L2. Según datos de la propia compañía en una entrevista a CNN, “el crecimiento de su marca propia fue notable en categorías como productos de papel, pañales, cápsulas de café y vitaminas y suplementos.


Sólo por poner algún ejemplo publicado (ya que no es tan fácil encontrar este tipo de información por razones obvias) las ventas de marcas propias de Amazon en 2018 se estimó que alcanzarían los 7.500 millones de dólares y, entonces, los analistas de SunTrust Robinson sostenían que para el próximo año, 2022, alcanzarían los 25.000 millones de dólares. Cifra que  seguro ya habrán superado como consecuencia de la crisis COVID que aún sufrimos y que disparó el consumo on-line como nunca antes se pudo prever.


Además, y aplicando al pie de la letra los principios básicos del marketing ocupa todos lo mercados posibles (y no los más baratos como publicita en sus spots) según un informe reciente del grupo de reflexión sobre el minorista CoresightResearch. Amazon vende cerca de 5.000 de sus propios artículos de ropa (referencias) y lo interesante desde el punto de vista del marketing es que Coresight descubrió que el “valor promedio” de prendas de marca propia en Amazon cuesta 38 $, es decir, que no está como “category killer” sino que se posiciona como un vendedor del mercado medio (competencia de otros “players” como Macy's o Kohl's en el mercado EEUU) pero sin descuidar la gama de precios más baja. Ofrece sus marcas hacia arriba y hacia abajo en la escala de ingresos. “Funcionan en todos los extremos del mercado” porque atiende a todos los perfiles de compradores (tiene vestidos para vosotras de más de 120$ de Social Graces y una sudadera de 8$ para niñas bajo la marca Scout + Ro).


El dilema aparece o lo encuentras frente a ti, si te preguntas si Amazon es un “Marketplace neutral” para vender productos y hacer más fácil nuestra vida como consumidores o va más allá para obtener beneficios, generar lealtad/ fidelidad en sus compradores, conseguir una posición más fuerte cuando negocia con sus proveedores u otros oferentes (otras marcas).


¿Es conveniente para nosotros como consumidores que una opción de consumo se convierta en una de las pocas opciones en el universo de consumo posible?  


No debemos olvidar la presencia de Amazon en el mundo de la producción audiovisual, como proveedor en plataformas de streaming, de música, de libros o los servicios que ofrece a través de AWS como el almacenamiento en la nube, gestión de instancias, imágenes virtuales, desarrollo de aplicaciones móviles, etc.


Parecía difícil llegar a los 10 millones de suscripciones en EEUU y hoy Amazon Prime cuenta con más de 100 millones de suscriptores en ese mercado. Cuando apareció a finales de 2004, Amazon estaba valorada en 18.000 millones de dólares y su principal rival, Ebay, tenía un músculo de capitalización bursátil de 33.000 millones. Hoy Ebay sigue igual mientras que Amazon está alrededor del billón de dólares.


No hay que desestimar (y mucho menos infravalorar) que cuentan con enormes recursos, toda la información posible y el mejor equipo de profesionales multidisciplinares (desde matemáticos, ingenieros de casi cualquier campo de especialización, expertos en IT, AI, estadísticos, en consumo y un largo etcétera) pudiendo saber, en cualquier momento, qué productos están teniendo más éxito, para fabricarlos, escalar su producción (si ya los fabrica) o aumentar su visibilidad al anunciarlos (según el informe de Ojastro Todd, analista de marketing de One ClickRetail).


De nuevo, y sólo por poner otro ejemplo, el hecho de contar con la "elección de Amazon" es responder a una recomendación determinada por un algoritmo propio. Lo mismo sucede con Alexa cuando se le pide “buscar” algo: toma “por defecto” una decisión basada en nuestras compras anteriores de Amazon (claro sesgo respecto a la toma de decisiones: costumbre vs relevancia u oportunidad) y si nunca has pedido eso Alexa recomendará uno o dos productos a través de un algoritmo propio. Todo esto se explica en un informe de la empresa L2.


Amazon responde no sólo a una estrategia sino a un conjunto de todas las estrategias posibles sobre las 4P´s del marketing...


Artículo realizado por Javier Espina Hellín CEO QLC SLP, doctor en Ingeniería de Sistemas de Información, MBA, ADE nº colegiado 11.534 y Licenciado en Gestión Comercial y Marketing

Plan de marketing: un enfoque más actual

El plan de marketing es una herramienta “esencial” para la gestión de cualquier empresa que sitúe como centro de su estrategia al cliente y, por tanto, sienta que debe estar orientada al mercado, ser competitiva y, como consecuencia, aspire a perdurar en el tiempo.


Debe ser entendido de manera tan amplia, precisa y ambiciosa como ya nos avanza su propio nombre: plan.


El plan de marketing, además, es un documento dinámico, porque tiene que ser actualizado al menos 1 vez al año, donde no sólo se incorporan los diferentes estudios de mercado que se hayan podido hacer en ese periodo sino donde se explicitan tanto los objetivos de marketing a conseguir en el nuevo ejercicio (consecuencia del plan estratégico de la compañía), como las estrategias a implementar y la planificación necesaria para hacerlas realidad.


Se puede decir que “traza la hoja de ruta para toda la empresa durante ese año con la justificación de todas las acciones a realizar para conseguir los objetivos marcados, además de incorporar un plan de contingencias donde se expresen las posibles desviaciones en cada uno de los objetivos y las soluciones previstas a cada una de ellas”.


Los objetivos tienen que ser: específicos, medibles, alcanzables, relevantes y definidos en el tiempo. Recuérdalos como (SMART).


El marketing, a diferencia de lo que habitualmente se pueda pensar, tiene que medir, seguir y analizar, constantemente, las desviaciones detectadas. Tiene que definir los KPI que la empresa debe incluir en su “dashboard” o panel de control”.


Mi intención, por la concreción que nos impone nuestro propio blog, es sólo mostrar lo que podríamos denominar “la estructura básica” que debería observar un plan de marketing, y como también es propósito que sirva para cualquier sector, me extiendo brevemente en algunos de sus apartados que serán:


1.     Marketing analítico: donde se incorporar toda la investigación sobre la propia empresa (análisis interno, socioeconómico, de nuestros consumidores) y sus productos/ servicios (estudios de precio, notoriedad, atributos, ciclos de vida, proceso de compra y análisis de los canales de distribución), del mercado (o mercados) en los que opere y la competencia en cada caso. En esta parte se utiliza la famosa matriz DAFO (también conocida como FODA ó SWOT = debilidades, amenazas, fortalezas y oportunidades) como herramienta con la que saber cómo diferenciarnos…


2.     Marketing estratégico: que define la estrategia que hace posible la consecución de los objetivos previstos (¿qué ventaja competitiva tiene la empresa?, ¿cuál será la opción estratégica de crecimiento? (p.e. de diferenciación, penetración del mercado, lanzamiento de un producto, etc.), ¿Cómo vamos a segmentar nuestro target ó público objetivo?  ¿sabes qué/quién es tu “buyer persona”? (aconsejo que investiguéis este concepto), ¿Cuál es tu estrategia de posicionamiento?


3.     Marketing operativo: donde se detallarán las acciones a desarrollar, la programación en el tiempo y su viabilidad económica. Es en este punto donde, entre otros, se estudian las 4 P del marketing (producto, precio, distribución y comunicación). ¿Cuáles serán las políticas asociadas a las 4P?, una parte muy importante es la política de ventas y organización comercial: Fijación pormenorizada de los objetivos de ventas a corto y medio plazo, dimensión y estructura de ventas, creación del argumentario de ventas y de los elementos de apoyo a las ventas (PLV, ofertas, promociones, etc.), el cálculo del coste de las ventas. En la parte de comunicación son importantes el “Copy Strategy” y su “Reason Why”  el beneficio que promete tu marca es la base principal para argumentar los motivos de compra y la exposición de las características del producto eje sobre el que construir las campañas publicitaria y creativa en el L/P y además, desarrollar ESTRATEGIAS Y ACCIONES DE MARKETING TRADICIONAL (definición de canales y acciones de comunicación, promoción de ventas, merchandising) y ESTRATEGIAS DE MARKETING DIGITAL (marketing web, SEM, SEO, Inbound Marketing, Social Media y Mobile).

 

Sin el rumbo de un adecuado plan de marketing y el control tanto de sus objetivos, la manera en la que queremos ponerlo en marcha como, lo más importante, el control de sus resultados nunca sabremos cómo hemos llegado a dónde estamos y por qué hemos llegado hasta allí.


Por mi experiencia, me atrevería a decir que sólo se empleaba en empresas de determinado tamaño y facturación anual. Ahora, cada vez son más las PYMES las que entienden que es una herramienta de indudable valor y que incorporarla en su gestión es mucho más que una necesidad.

 

 

Artículo realizado por Javier Espina Hellín CEO QLC SLP, doctor en Ingeniería de Sistemas de Información, MBA, ADE nº colegiado 11.534 y Licenciado en Gestión Comercial y Marketing

Qué precio tiene hacernos cambiar de opinión: cybors, bots, enjambres, ovejas y Cambridge Analytica...


La influencia social o “conformidad” es un fenómeno bien conocido en psicología y particularmente estudiando por Asch (1951) o Kelman (1971) que distingue tres formas de influencia:


  1. Sumisión: cuando mostramos acuerdo, por miedo al rechazo o al castigo, con el origen de la influencia.

  2. Identificación: cuando por el deseo de sentirse miembro del grupo de influencia mostramos acuerdo

  3. Interiorización: mostrar acuerdo por entender que el origen de la influencia es justo.


Lo que parece claro es que, independientemente de nuestro nivel educativo, social o intelectual, somos susceptibles de que influyan en nosotros, incluso siendo conscientes que existe esa presión, porque no podemos actuar como si los demás no existiesen; representa un coste elevado para nosotros. Tan elevado que somos capaces de mentir para evitar el conflicto que nos plantea el actuar de manera distinta a la norma del grupo (establecida por los “otros”). Eso puede significar quedarnos solos por la exclusión del grupo…


¿Recuerda cómo se sintió la última vez que le ignoraron en una reunión social, profesional o evento público?


Somos “animales sociales” y necesitamos de la interacción con nuestros pares. Está incrustado en nuestro ADN y, recientemente, se han descubierto que las neuronas espejo son, en parte, las responsables porque son capaces de recrear patrones mentales de quienes nos rodean. Sin ellas, simplemente, no podrimos ir al cine y creernos la historia que nos cuentan.


Por eso, los demás nos importan, su comportamiento nos influye y la publicidad que viene acompañada de un rostro famoso y familiar sigue funcionando. What else? (Nespresso)


Pero, ¿hasta qué punto somos influenciables?, ¿nos dejamos influenciar por una mayoría desconocida o somos dueños completos de nuestras decisiones?


Los experimentos sobre la influencia que tiene el grupo en cada uno de nosotros (o de conformidad) de Solomon Asch, y que se llevaron a cabo en 1952, demostraron que ésta es “significativa”. Es decir, que el poder de la conformidad en los grupos es mucho más grande e intensa de lo que cada uno de nosotros podemos imaginar.


En el más conocido, un estudiante se enfrentaba a una sencilla “prueba de visión” en donde solamente él era capaz de ver lo que el resto de sus compañeros de clase no veían (porque eran cómplices en el experimento). Sin embargo, al cabo de pocos intentos sucesivos, se acababa uniendo a sus compañeros, y esto es lo importante, aun siendo consciente de que el grupo estaba equivocado. Es reveladora la actitud del estudiante durante el experimento. (https://youtu.be/wt9i7ZiMed8; https://youtu.be/tAivP2xzrng)


El objetivo explícito de Asch era mostrar cómo se puede inducir a alguien a someterse a las presiones de grupo cuando, incluso, son contrarias a la realidad objetiva y de la que, además, eres plenamente consciente.


En otro experimento más reciente, en este caso para el programa de “zoo humano” de la BBC (https://youtu.be/duynsLoHhyw)  el sujeto del experimento espera 20 minutos antes de salir de una habitación en las que hay suficientes indicios (simulados, pero para los participantes del experimento reales) de incendio porque el resto del grupo permanece indiferente al suceso.


En las siguientes iteraciones de la prueba, nadie tomó la decisión de abandonar la habitación y el tiempo promedio fue de 13 minutos de permanencia vigilante a las reacciones del grupo. Probablemente suficientes, si el incendio hubiese sido real, como para morir por pasividad e inacción.


Una de las primeras conclusiones es que “ante la presión grupal, todos nosotros tendemos a adoptar una postura de conformidad”, por contraste de cuando el mismo experimento se repite con el sujeto solo; en esa circunstancia siempre toma la decisión de salir del recinto ante la primera alerta de fuego.


Pero, lo que personalmente me resulta más asombroso sobre nuestra capacidad de ser influenciados por el grupo, es lo que Irving Janis nos presenta con sus trabajos sobre lo que denomina “groupthink” o pensamiento grupal, en un libro que se publicó hace casi 50 años y los de Elisabeth Noelle-Neumann sobre “la espiral del silencio”.


Janis demuestra que para causar tensión en la persona (con la intención que cambie de decisión) ni siquiera es necesaria la presencia directa de un grupo. La influencia o conformidad en esa persona se consigue por el hecho de que crea que existe una mayoría que opina de un cierto modo.


Esa sensación de mayoría se puede conseguir con la difusión de determinados mensajes dominantes, que esa supuesta mayoría eleva a la categoría de norma, y que hace que sean interiorizados por muchas otras personas que lo asumen por miedo a quedar fuera de la sociedad (“…si todos lo dicen, será verdad “).


“Si el individuo encuentra que su opinión es predominante, entonces, la expresa libremente en público; si por el contrario, percibe que cuenta con pocos partidarios, entonces se vuelve temeroso, oculta sus convicciones en público, y se mantiene en silencio.” (E. Noelle-Neumann (1981). “Mass media and social change in developed societies, Ibáñez, Tomás (2003) (Coord.) Introducción a la psicología social. Barcelona: Editorial UOC)


Son fenómenos que, encontrando soporte en mecanismos sociales muy sutiles de nuestro comportamiento más primitivo, fomentan la tendencia a favorecer los discursos dominantes y a aumentar la dificultad de que aparezcan puntos de vista alternativos o de discrepancia.


El tercer apoyo con el que terminar de dibujar este boceto sobre nuestro comportamiento en grupo es el llamado “paradigma de los nuevos movimientos sociales”, donde se asegura que en sociedades como la actual, posindustriales y “líquidas” (en palabras de Z. Bauman), los ejes de conflicto son culturales y simbólicos muy lejos de los clásicos conflictos económicos o sociales.


Melucci nos dice que, cada vez, es más necesario el sentimiento de pertenencia a grupos sociales significados, desde donde poder construir una identidad personal con los valores simbólicos del grupo de pertenencia y con los que poder autodefinirse. Surge así, una intensa retroalimentación entre el grupo y el individuo, donde la “tribu” aporta identidad, seguridad normativa y confort y la suma de individuos, dimensión, relevancia y poder al colectivo de pertenencia. (Melucci, Challenging codes, collective action in the information age, 1996, Cambridge University).


Pero, lo que resulta paradójico e incluso chocante es que esos movimientos sociales nacen como fuerza generadora de nuevos códigos culturales contrarios a las presiones de uniformidad dominantes, pero al tiempo y con el fin de preservar la cohesión interna de ese movimiento alternativo, los sistemas de control interno del colectivo donde se construyen los significados, los símbolos y las identidades individuales son muy férreos y uniformadores.


Pero, ¿cómo podríamos formular nuestra ecuación de toma de decisiones con factores como la influencia social, conformidad, presión del grupo, sentimiento de pertenencia a un colectivo y la capacidad de autodefinición dentro del mismo o el valor de los símbolos?

Parece difícil, ¿verdad? De hecho, todavía no lo hemos logrado. Ni siquiera con las últimas herramientas de neuromarketing. Pero, lo que si podemos concluir es que no somos tan libres como pensamos y que la “cantidad” importa y nos impone.


Cantidad o el número de personas que “piensan” como yo (o que yo creo que piensan como yo), que visten como yo, que comen como yo, que se sienten mal como yo, etc… un “yo” que permanece en el centro y un “número indeterminado de iguales” que tengo que percibir como suficiente para insertarme en él y seguir construyendo mi autodefinición haciendo míos los valores, símbolos y significados del colectivo al que ahora pertenezco.

¿Cuál es la cantidad mínima de personas necesarias para que el fenómeno de influencia tenga lugar?


Es claro que la “masa crítica” es el factor determinante en la ecuación de influencia o de conformidad grupal.

 

¿87 millones de usuarios de una red social es suficiente muestra sobre la que poder trabajar y sacar conclusiones?


Según Moscivici (1999), “los individuos subestiman la influencia que puede ejercer la socialización sobre sus actitudes y conductas” y que dicha influencia puede ser ejercida de forma implícita e inconsciente, porque la adhesión se desarrolla a través de presión física o simbólica.


¿Qué valor económico tienen los billones de datos personales, aislados y que dejamos como miguitas de pan cuando navegamos por internet, compramos en un Marketplace, consultamos saldos en el banco, marcamos como “me gusta” o intercambiamos comentarios con nuestros amigos virtuales sobre fotografías, chistes, twitts o los goles marcados por nuestro equipo?


¿Para qué pueden ser usados esos datos?, ¿cómo esas terceras personas, organizaciones comerciales o entidades “anónimas” pueden influir en nuestra “propias” decisiones?,¿a partir de cuantos miembros el grupo ejerce su influencia?, ¿por qué es importante contar con más de 100.000 seguidores en una red social?

Es curioso comprobar cómo, incluso, la elección de algunos términos es mucho menos inocente de lo que podríamos pensar.


No les suena la palabra “influencer”…


Hace muy pocos días, dos investigadores de la Universidad de Stanford, J. Ugander y K. Altenburger han hecho público un estudio sobre cómo es cada vez más fácil saber más de todos los que usamos Internet sin preguntar nada.


Demuestran que basta, solamante, con “inferir” determinadas características de aquéllos que elegimos como amigos o con quien nos relacionamos (Monophily in social networks introduces similarity among friends-of-friends, Nature Human Behaviour, 15 febrero 2018), (http://neofronteras.com)


Ambos querían entender qué inferencias estadísticas podían terminaban revelando aquellos rasgos personales que normalmente tratamos de ocultar. Para ello, usaron bases de datos, disponibles específicamente para la investigación científica, que contienen el tipo de información que los sitios web venden a terceros como anunciantes.


Existen inferencias directas. Por ejemplo, si alguien compra pañales en Internet es muy probable que haya sido padre o madre recientemente.


Pero son las indirectas las más reveladoras porque a través de quiénes son tus amigos virtuales en redes sociales se puede saber quién eres, que edad tienes, tu inclinación política y un sin fin de datos que tú nunca has facilitado o no quieres que se sepan.


Es posible, por algo tan natural como frecuente y que, incluso, nos define como especie.

 

Se trata, simplemente, del hecho que tendemos a “hacer amigos” de nuestro mismo rango de edad, de la misma raza y de la misma creencia política. Todo lo que somos puede ser inferido desde nuestros amigos por dos tipos de estudios: de homologías u homofilias y de monofilia o preferencia extrema por un rasgo determinado.


Así, se puede “construir” un mapa de la red de relaciones que tenemos y con el conjunto/s de datos usados podemos inferir, a través de nuestros amigos y de los amigos de nuestros amigos, toda la información no declarada de cada perfil.


Entonces, si es posible averiguarlo casi todo de nosotros a través de nuestra red de relaciones y se estudian hasta el 2ª y 3ª niveles, ¿cómo protegemos nuestro derecho a la intimidad?, ¿para conservar esa intimidad cuantos niveles se necesitarán incluir para que la información contenida en las relaciones de los amigos de nuestros amigos, además de la nuestra, quedase protegida?


No es ninguna novedad decir que en el dato está el poder y en la capacidad de encontrar patrones, correspondencias y significado en la cantidad de información que generamos cada día, en cada consulta a Google, en cada pregunta a Siri, en cada itinerario que recorremos con Google Maps, en cada “me gusta” o en “cada like” de nuestro teléfono móvil, nuevo apéndice corporal tecnológico, con la que vamos dejando una huella digital de nuestra más profunda identidad...


A eso me refiero con “masa crítica”, a esa gigantesca cantidad de datos que con tecnología informática (incluida la inteligencia artificial), mucha estadística y un poco de competencia profesional, hace posible que podamos saber todo de cualquiera o podamos influir en la dirección que sea más conveniente para quien sea el dueño de esa información.


Mientras estoy dando forma a este particularmente extenso blog, el CEO de Facebook declara y pide perdón ante la cámara de representantes de EEUU por haber permitido que Cambridge Analytica, consultora política que ha sido vinculada con la campaña presidencial de Donald Trump en 2016 o con la del brexit en el mismo año, se hiciese con una base de datos que terminaría por incluir decenas de millones de perfiles de esa red social.


No en vano, y esto sí que es “masa crítica”, casi un tercio de la población mundial tiene una cuenta en la compañía de Mark Zuckerberg.


La calidad de la información a la que han tenido acceso y sobre la que han trabajado, es muy alta porque el cuestionario, que se utilizaba para recolectar datos, contenía decenas de preguntas formuladas por psicólogos e investigadores para evaluar la personalidad. Eran encuestas en línea que gestionaba otra empresa llamada Qualtrics.


Facebook entra en el juego cuando los encuestados autorizan y dan acceso a sus perfiles, en la red social, porque la aplicación de la consultora británica toma los datos de cada perfil y la de sus amigos.


Se asegura que en esa operación se hicieron, además, con las actualizaciones de estado, "me gusta" y hasta mensajes privados de más del 15% de la población de EE. UU, es decir, de casi 49 millones de ciudadanos estadounidenses. Pero, hay fuentes que van mucho más lejos y aseguran que la materia prima con la que alimentaban sus aplicaciones informáticas contenía a 220 millones de adultos norteamericanos con 5.000 rasgos diferentes de cada uno de ellos (recordemos que la población de EEUU es de aproximadamente 325,7 millones de personas).


Esto sí que es masa crítica. Es Big Data…


¿Qué hizó Cambridge Analytica con esa ingente colección de datos de gran calidad?


Tipificar e identificar las personalidades de los electores estadounidenses con el fin de “influir” en su toma de decisiones y comportamiento mediante el empleo de técnicas de Big Data y marketing ultrapersonalizado para la campaña de Trump en 2016 y, previamente, para inclinar el resultado hacia el Brexit en 2 campañas simultáneas: @vote_leave y @LeaveEUOfficial.


Si se cuenta con un perfil psicológico personalizado de los votantes se pueden “calibrar y ajustar” los mensajes de una determinada campaña hacia intereses y gustos particulares, no sólo para satisfacer a ese colectivo concreto sino para construir una mayoría que pueda influir en aquellos indecisos, decisivos para lograr que se inclinen hacia el margen clave y procure la victoria de quien les paga.


El perfil de clasificación psicológica de personalidades de cada votante se basa en el conocido Modelo OCEAN y así, Cambridge Analytica, pudo saber cuál tenía que ser el contenido, el tema y el tono de cada mensaje dirigido para cambiar la manera de pensar de los votantes de forma casi individualizada.


El objetivo era segmentar a la población para ofrecerles mensajes con temas “gancho” usando un lenguaje y unas imágenes que les removiesen, que les importasen, porque no podían quedar indiferentes… necesitaban involucrarles emocionalmente.


Es un hecho declarado por la propia consultora, que lo más importante de los servicios que ofrece Cambridge Analytica es el que se refiere a las “perspectivas de la psicología del comportamiento”.


La estrategia es clara y doble: convencer a los indecisos y desanimar a los rivales del candidato a quien se apoya.

Pero, los mensajes personalizados no es lo único que hacían para influir.


Otra de las herramientas preferidas son los “fake news” o noticias falsas que, no por casualidad, eran difundidas vía Facebook porque modificaban el estado de opinión con temas de debate que favorecían las posiciones del candidato apoyado.


En este escenario, entra en escena lo que ahora se denomina posverdad o “distorsión deliberada de una realidad, que manipula creencias y emociones con el fin de influir en la opinión pública y en actitudes sociales” (Real Academia Española, 2018)


¿Qué se consigue si cuando navegas empiezas a leer un blog por aquí o un portal de noticias por allá, mezclado con opiniones de ciudadanos como tú, de los que nunca has sabido nada pero que ofrecen historias consistentes y verosímiles, pero que no aparecen en los medios tradicionales?


Lo más probable, es que empieces a cuestionarte el por qué no están en los medios y si puede deberse a la existencia de un sesgo interesado de ese medio, o un plan de ocultación deliberado de noticias relevantes…


Y, sin ser consciente, te están ayudando a construir tu propia historia de conspiración y, lo más importante, van inoculando una cierta susceptibilidad en los medios tradicionales, en los que antes confiabas para construir tu opinión, o en las propias instituciones por la pasividad, que ya consideras interesada, para terminar, imponiendo un nuevo status quo o sistemas de referencias que pretende influir en la gente para que cambie su decisión.


¿Cuánto vale hacer ganar una elección?


No sé contestar a esta pregunta. Aunque supongo que la cifra sería tan abultada como obscena, simplemente, por lo que representa el coste de oportunidad.


Pensemos, un momento en cuál ha sido el coste económico del Brexit hasta ahora y cuanto puede representar un Brexit sin acuerdo.


Además, de la salida de instituciones europeas de la “city” o de las fluctuaciones cambiarias de la libra desde el anuncio del Brexit, el romper con la UE sin un acuerdo, según un estudio del Rabobank, podría tener un coste estimado de 450.000 millones de euros, que es equivalente al 18% del PIB británico en la próxima década, la entrada en recesión del Reino Unido durante un período mínimo de dos años, un aumento del paro de entre el 4,6% al 6,2% y cada trabajador sería unos 13.000 € al año más pobre al cabo de 10 años...


Lo que si sabemos que es (o ha sido) necesario para llevar a cabo este tipo de operaciones es contar con una estructura, de relativa importancia, estable, multidisciplinar, profesional, ultraconfidencial y tener los servicios de una agencia o el “Spin Doctor” que dirija la campaña y se encargue de gestionar a recursos en red como los “Trolls Farm” y las herramientas especializadas en Big Data, marketing personalizado y microsegmentación por perfiles en plataformas sociales como Facebook y Twitter.


Y lo que también sabemos es lo que hizo recapacitar a Zuckerberg.


Sólo en 24 horas el valor de Facebook cayó US$37.000 millones por el escándalo de Cambridge Analytica, las acusaciones de robo de datos, de interferencia política, los chantajes con prostitutas, sórdidos espías y con potenciales implicaciones en Argentina, Brasil, Colombia y México donde la consultora ha participado en más de 100 campañas electorales.


Aunque la razón oficial de la comparecencia, en dos días distintos, del CEO de Facebook son los aspectos morales sobre el mal uso de información no autorizada, la privacidad de datos, las noticias falsas, el discurso del odio de los mensajes distribuidos o la catalogación de “producto” de los millones de usuarios de su red social.


No somos conscientes que el “producto” somos nosotros mismos, que puede ser usado contra nosotros mismos y que no podemos controlar nada de tan elaborado proceso de influencia: ni la verosimilitud, ni la naturaleza de la información ni la intención de quienes la usan. (https://youtu.be/n8Dd5aVXLCc)


Fuera del aspecto formal de la comparecencia de Zuckerberg, los aspectos que han precipitado su presencia son la rápida erosión en el valor de compañía en el mercado y su impacto en sus accionistas porque preguntas como ¿para qué o quién?, ¿con qué fin?, ¿en manos de quien dejamos esa valiosísima información? o ¿qué tipo de medidas se van a implantar?, ¿cuándo, ¿cómo y con qué resultado esperado?  pueden esperar… de hecho, Facebook después de haber “pedido perdón” ya está recuperando su valor bursátil.


Por cierto, no han reparado en que la imagen del fundador de Facebook ha cambiado, radicalmente, para la “puesta en escena del perdón” y de la “aflicción”.


Del aspecto algo naif de tímido retador en jeans y camiseta gris clara ha pasado a la de un adulto maduro, discreto, humilde y corporativo dispuesto a pedir perdón y tomar medidas para que nada así vuelva a suceder. Con decisión y seriedad, se ciñe a un discurso medido y de control de daños.


En la puesta en escena, nada queda al azar: un nuevo corte de pelo más convencional que desenfadado y un sobrio traje azul oscuro, camisa blanca y corbata “azul Facebook” cierran un marco visual tan neutro y estático que obliga a centrar toda la atención en el propio CEO.


Forma parte del mismo juego de influencia. En este caso, la influencia que él quiere ejercer en aquellos a quienes tiene que dar explicaciones y respecto a toda la opinión pública que censura tan grosera monetización de su privacidad.

 

Aunque, quizá sus asesores le tendrían que haber advertido, también, sobre el poder de su lenguaje no verbal o prepararle ante preguntas tan previsibles como molestas por la cantidad de información (negativa) que puede ofrecer una sonrisa en tensión (https://youtu.be/Cfv09WA4em4), la interacción casi robótica con sus interlocutores, el desajuste gestual con la argumentación verbal y el entorno físico o la manera de beber agua durante ambas sesiones…


Pero, por debajo de la audiencia pública de Mark Zuckerberg, quedan preguntas sin responder sobre el propio escándalo de la consultora Cambridge Analytica  ¿cómo funcionan los sistemas que buscan influir en la relevancia una app, un determinado personaje público, un producto de consumo o hasta un concursante de un Talent Show?


Se trata de los “bots” (robots) de Twitter o cuentas automatizadas que realizan tareas mecánicas (distribuir spam, retuitear mensajes con determinadas palabras o repetir el mismo mensaje desde distintas cuentas cuando aparecen ciertos hashtags) y de las también llamadas “Click Farm”, o granjas donde se comercia con la manipulación interesada de los “me gusta”. Tampoco me quiero olvidar de las “Trolls Farm” o variantes de “Call Centers” donde “operadores físicos” crean, manejan y monitorizan cientos de miles de cuentas Cyborg.


Los primeros, son lugares cerrados y aislados repletos de estantes metálicos con miles de smartphones conectados y donde se emplea mano de obra humana para que todo pueda funcionar según los intereses del cliente que compra esos “likes”, o mejores posiciones en un ranking para lo que, por ejemplo, el humano descarga una app o un juego que instala y después desinstala tantas veces y en tantos equipos como contemple el trato cerrado.


Los segundos son mucho más profesionales. Necesitan grandes instalaciones por el volumen de trabajadores, que, dicho sea de paso, no necesitan ser programadores (pueden ser universitarios o sin estudios y con un bajo salario) y por el tamaño de la infraestructura informática.


Pero el grado de sofisticación en el “engaño” puede ser creciente, ya que, desde cualquier lugar del globo, se pueden crear y organizar cientos o miles de perfiles falsos en distintas redes sociales con el fin de “influir” (de nuevo) en los usuarios o ciudadanos diana. Una técnica muy utilizada y que se conoce como “sockpuppeting”.


Y, toda esta infraestructura social y virtual de cuentas falsas no se limita sólo a redes sociales como Facebook sino que también es utilizada toda una red de bots para Twitter.


El mecanismo de actuación en el ámbito político es muy familiar.


Una campaña de anuncios interesados que se acompaña de perfiles falsos que comparten noticias sesgadas, donde se filtran datos sensibles (verdaderos o falsos), sobre un candidato y se refuerzan, simultáneamente, enviando mensajes o hashtags concretos que inclinen o movilicen la opinión en la dirección convenida. Miles de usuarios que comparten un mismo mensaje, con un hashtag, tienen posibilidades reales de llegar a ser “trending topic” y el objetivo se ha cumplido.


Por ejemplo, durante las pasadas elecciones en EEUU, un mismo mensaje se twitteó una y otra vez con pocos segundos de diferencia y, el día de las elecciones un grupo de bots enviaron el hashtag #WarAgainstDemocrats más de 1.700 veces.


En ocasiones, alguno de esos mensajes compartidos por bots (desde cuentas falsas o reales, pero “hurtadas” a sus legítimos usuarios por falta de uso) en redes sociales, no conseguían la repercusión que se estimaba. Esto obligaba a una nueva tanda de mensajes y la aplicación del método de prueba-error; porque el coste operacional es muy bajo.


Y, por cierto, tampoco es imprescindible utilizar cuentas falsas o cuentas robadas ya que los grupos de hackers, que están detrás de estas operaciones, pueden acudir al mercado (negro por supuesto) y comprar varios miles de cuentas. Aunque pueda parecer imposible, hay sitios web al por mayor de compraventa de cuentas.


No hay que olvidar que, cada bot, ha llegado a recibir hasta 5 retuits de cuentas reales como media. Lo que significa que hay humanos que deciden compartir el contenido generado por un robot creado para contaminar o difamar.


Pero, también encuentra aplicación en el ámbito comercial y empresarial.


Si la empresa cliente quiere generar interés en torno a su nuevo producto, “el enjambre” identifica espacios de interés y pone en circulación cientos de comentarios positivos en medios, foros, e incluso en marketplaces.


Si, por el contrario, se trata de “guerra sucia” y el objetivo es eliminar o debilitar a la competencia, el enjambre sigue el mismo patrón, pero, esta vez, para difamar.


Recibe el nombre gráfico de enjambre porque su manera de actuar es siempre en grupo como las abejas, avispas u hormigas: los perfiles falsos/robados/reales se enlazan y se retroalimentan dándose la razón, apoyándose unos a otros y recurren a todo tipo de estratagemas de guerra como abusos verbales, provocaciones, etc.


Las claves de su éxito y proliferación es que son relativamente baratos, fáciles de crear, cosechan datos, y pueden dar servicio a distintos clientes al mismo tiempo.


Estas redes operan en 3 niveles con el “rebaño digital”:


  1. Pastores: cuentas muy influyentes que definen y marcan la conversación

  2. Perros pastores: cuya labor es amplificar el mensaje y defender al “amo” y atacar a los enemigos

  3. Las ovejas: que son los miles de cuentas automatizadas que van donde las lleven, según convenga y quien sea el cliente, pero que tienen una importancia capital y central en la estrategia porque son las responsables de generar la falsa, pero muy convincente sensación de mayoría social.


Y detrás, en el “backstage” un enorme negocio con campañas de contaminación, distorsión de la realidad, “redirección” de opiniones y cambios de voluntades en individuos y ciudadanos que no se percatan de la manipulación de la que están siendo objeto


Según algunos autores, al menos 30 países sufren la manipulación e intoxicación, de bots y trolls, en el escenario del debate público con perfiles fraudulentos en las redes sociales.


Quizá, es hora de recordar lo que nos decía J. Lanier hace casi una década en su libro “contra el rebaño digital” (You're not a gadget: A manifestó, Jaron Lanier, Editorial Debate. Barcelona, 2011), “el totalitarismo digital es la nueva amenaza para el orden social, como lo fueron el fascismo y el comunismo anteriormente”.


Su posición no está junto a tecnófobos y frente a la tecnología.


Por el contrario, apuesta por una visión humanista del uso de la tecnología y aborda el debate de la redefinición de Internet y de sus aplicaciones donde cada uno de nosotros esté por encima de las máquinas que usa, donde la utilidad sea más importante que la rentabilidad y el progreso sostenible sea un objetivo superior al resultado inmediato.

Naming y Propuesta Única Valor (PUV)


No hace falta recordar que los entornos competitivos en los que operamos la mayor cantidad de las empresas son cada vez más homogéneos, globales y digitales por lo que la “improvisación”, el “azar” o la “suerte”, simplemente no tienen cabida.


No voy a negar que exista la posibilidad de contar con el viento a favor que pueda proporcionarnos determinado golpe de suerte, pero lo que resulta clave en la empresa es saber hacia dónde ir y cómo llegar hasta allí, es decir, contar con una estrategia clara, un plan operativo y de control bien estructurado, por programas, que nos permitan conseguir aquellas metas que hemos identificado como diana.


Probablemente no de manera inmediata, pero con la ayuda de distintos indicadores podremos saber si vamos según lo previsto…


Esto cada vez tiene más importancia porque, por ejemplo, el saber detectar las necesidades cambiantes de tus clientes, cada vez más exigentes, es algo que, además de muy complejo, es bastante costoso porque necesitas buenos equipos multidisciplinares de profesionales y buenas herramientas para medir, seguir y analizar un montón de datos…


El Naming y la Propuesta de Única de Valor es sólo una pieza más en el complejo engranaje de la puesta en marcha de nuestro plan de marketing, pero que contribuye de manera importante en la aportación de valor real.


Es el comienzo de todo. La generación de un nombre (de marca o compañía) es mucho más complejo de lo que podemos suponer. Es consecuencia de un proceso creativo con una enorme carga de contenido técnico y de análisis multivariable.


Un nombre (por ejemplo, de una compañía) tiene que condensar en una sola palabra seguida de una corta frase, toda la capacidad tecnológica, de producción o de servicio, su “know how”, la identificación con su sector de actividad y los valores, atributos, emociones y experiencias que la hacen única y diferente de la competencia.


Es todo un “milagro” (si se me permite la expresión) y una combinación extraña de emociones consecuencia del duro trabajo que es necesario invertir en su nacimiento.


Podemos decir que hay 4 características mínimas (CACO) en la construcción del nombre de marca y es que sea: Claro, Atractivo, Creativo y Original.


Y todos ellos tienen que ser el reflejo de la identidad de la marca, de sus valores, atributos, experiencias y emociones que la marca quiere transmitir a sus clientes en su primera impresión.


Proceso de creativo

Existen diferentes métodos y formas. Particularmente diré que prefiero el método Business Model On Canvas como paso previo y fórmula complementaria al “diseño de la Propuesta de Valor”. Pero todo puede empezar definiendo en pocas palabras cuales son:

  • La identidad de la marca

  • Los valores que las sustentan

  • Los atributos que pueden ser asociados o evocados por ella

  • Las experiencias que deseamos generar a nuestros “stakeholders”

  • Y las emociones que queremos que tengan de nuestros productos/ servicios


Con todo ello, tenemos que empezar a “jugar” libremente, en la que todos los integrantes de ese equipo “creativo” busquen asociaciones entre ellas, construyendo nombres compuestos, palabras relacionadas, etc. Eso es lo que técnicamente se denomina “Brainstorming” o tormenta de ideas.


Algo que resulta imprescindible es que sea libre y que no se censure nada de lo que se diga entre las cuatro paredes en las que estemos “encerrados”.


En el siguiente paso de este proceso creativo tenemos que definir el segmento de mercado al que está dirigida la marca.


Esto nos ayudará a conseguir “coherencia y consistencia” de marca ya que tiene que no sólo tiene que ser compatible con sus atributos, valores y experiencias, sino que tienen que funcionar como potenciadores o impulsores de todo aquello que se identifica con la marca.


El último toque del proceso es que se cumpla la regla PFCD (Positivo, Fácil, Corto y Duradero en la mente del potencial cliente)

 

Desde el nacimiento o de mayor…

La aplicación del Naming puede ser, como ya hemos avanzado, desde el nacimiento de la idea de negocio o una vez que esta ya tiene un recorrido en el mercado. Si ya existe y tiene cierta relevancia entonces, lo que hacemos es “desarrollar la marca”.


Desarrollo de tu marca:

Es muy importante, si la empresa o marca cuenta con un recorrido previo, porque entonces es esencial analizar la imagen que ya existe de la marca/empresa para poder señalar aquellos aspectos “core” (nucleares, esenciales y por la que es conocida la marca) de los que no lo son tanto, y podemos considerarlos accesorios para afrontar el “restyling” o reformulación de la marca o nombre.


El objetivo finalista del proceso de reformulación es que la nueva imagen se ajuste adecuadamente a la nueva formulación estratégica y cumpla con su función, que no es otra, que resulte utilizable, práctica, diferenciadora y evocadora
.


Implantación

Una vez que concluye la fase más importante que es la de creación del “símbolo”, recordemos que lo máximo a lo que podemos aspirar es que se convierta en icono (Nike, Apple y tantos otros ejemplos) lo siguiente que tiene que ocuparnos es la implantamos del nombre o marca dentro de la organización.


Puede parecer algo menor, pero no lo es en absoluto.


Si aceptamos que el verdadero posicionamiento es el que sucede en la cabeza de nuestros clientes, el poder contar con una herramienta de evocación tan potente como un buen nombre de marca potenciado por una frase corta que subraye aquello que nos hace diferentes o mejores, respecto de nuestra competencia (Propuesta de Única de Valor o PUV), no es algo de lo que podamos permitirnos prescindir.


La Propuesta de Única de Valor (PUV), según Neil Patel, tiene que constar de los siguientes elementos:

  • Un título, que resuma el beneficio que ofrecemos al cliente.

  • Un subtítulo, donde detallamos (brevemente) nuestra oferta (a quién y por qué)

  • Tres puntos donde enumeramos los beneficios/ características diferenciales del producto/servicio

  • Un elemento visual (vídeo o imagen), que amplíe tu mensaje.


Podemos decir que los “imprescindibles” son los dos primeros,
pero en términos de comunicación digital (por ejemplo, en nuestra landing page) el elemento visual cobra especial relevancia. Es mucho más natural de consumir, más fácil de compartir, más efectivo para conseguir relevancia e, incluso, puede llegar a ser viral…


La propuesta de valor es el “primer ladrillo” sobre el que construir nuestra estrategia de marketing y sin una propuesta de valor (clara) perdemos la posibilidad de guiar a nuestro target hacia nosotros y reducir su incertidumbre/dudas a la hora de tomar la decisión de comprarnos.


Desde el momento en el que se apruebe el diseño, la marca y el PUV serán un solo elemento. Una única forma en la que se presente nuestra empresa o producto.


Por tanto, el trabajo de integración y difusión de ambos elementos es imprescindible dentro del proceso de construcción y desarrollo de marca.


La decoración del local de trabajo, la oficina, el envase, los diferentes soportes de comunicación corporativa, las tarjetas de visita, la papelería, el diseño del sitio web, las acciones en redes sociales, los distintos soportes para la publicidad y acciones de marketing, etc. todo tiene que ser adaptado para que su resultado final frente a nuestros Stakeholders siempre sea complementario entre sí, potenciador e, incluso, evocador de experiencias y emociones que nosotros queramos transmitir a nuestro “target”.


Subrayar, que si este proceso no es desde el momento de inicio de la actividad o desde el nacimiento (por seguir con la terminología que estamos utilizando aquí) y estamos hablando de un “restyling “la adaptación tiene que ser progresiva.


Desde la utilización de la anterior imagen y la nueva en un mismo entorno donde es presentada la nueva, pasearemos a una convivencia diseñada para morir en el corto plazo con la imagen antigua a la sola utilización de la nueva para ir construyendo por “sedimentación” su nueva imagen.


Será necesario contar con un plan de seguimiento y evolución de la marca/ nombre donde poder evaluar tanto el impacto, la aceptación como la construcción de esos nuevos atributos, valores, beneficios o experiencias por los que seremos identificados por aquellos que queramos que sean nuestros clientes.

 

Artículo realizado por Javier Espina Hellín CEO QLC SLP, doctor en Ingeniería de Sistemas de Información, ADE nº colegiado 11.534 y Licenciado en Gestión Comercial y Marketing 

La industria del automóvil en metamorfosis industrial: el automovil disruptivo y el modelo 4.0

Pensemos que lo que considerábamos como una industria madura ha pasado a ser punta de lanza en innovación tecnológica (que denominan ya como automoción 4.0) y afecta a toda la cadena de valor y es una transformación de ciclo completo, desde el diseño hasta las operaciones pasando por el propio concepto de movilidad (en propiedad o alquiler).


Se estima que el 86% de los accesorios y complementos del automóvil del futuro cambiarán muy rápido y se podría acortar hasta en 3 veces el tiempo de lanzamiento de un modelo al mercado.


Dejaran de utilizar combustibles fósiles adoptando tecnologías híbridas, donde la electricidad será compañera tándem de pila de combustible de hidrógeno y las células de las baterías serán de grafeno.

Se calcula en 180.000 millones de euros las inversiones necesarias para el desarrollo del automóvil eléctrico. Las economías de escala cobraran aún más importancia y obligará a una nueva ronda de concentración en el sector.


Quizá la pregunta sea: ¿cuándo los motores de combustión fósil darán paso a motores eléctrico?, o incluso mejor, ¿cuándo tendremos vehículos eléctricos baratos?


Las últimas estimaciones “out the record” en la industria nos dicen que aún necesitaremos unos 15 años para que la oferta global de vehículo eléctrico iguale a la de vehículos de combustión fósil. De momento, la tecnología eléctrica es demasiado cara para ser competitiva en precio respecto a vehículos de gasolina.


De hecho, sólo hace falta hacer muy pocos números para demostrarlo empíricamente. Un Nissan LEAF o un BMW i3 son mucho más caros que sus equivalentes en gasolina. Ahora, necesitamos en torno a los 30.000€ para hacernos con un casi-utilitario eléctrico con 300 km de autonomía.


Y, para colmo, se romperá el paradigma de hombre y máquina porque la conducción será autónoma…


Pero, ¿sabemos qué opinan de todo esto los clientes finales o usuarios y los “dealers”. ¿Es compatible la opción “verde” con lo que quieren los clientes?


Ahora, recuerdo un golpe de efecto cómico en una escena de una reciente comedia estadounidense, en la que un abogado durante la asistencia legal a su cliente (detenido por exceso de velocidad en una comisaría de un lugar en medio de ninguna parte) y mientras rutinariamente va completando el procedimiento, al llegar a la pregunta del modelo de coche que conducía cuando se produjo la infracción, hay un silencio pronunciado de diálogo después del cual, levanta lentamente la mirada del papel fijando sus ojos en los del detenido con indisimulada desconfianza para romper en una abierta y sonora risa cuando éste le contesta que un Prius…


¿Velocidad e híbrido?, ¿potencia y electricidad?, ¿concepto “verde” e infracción de la norma?, ¿libertad y poder frente a autonomía limitada?


Estas son las “barreras mentales” que conforman la rotura del paradigma del coche en nuestra cultura postindustrial. Todos los atributos que han sido lentamente grabados por millones de metros de celuloide, cientos de horas de publicidad y una lista interminable de “chicos duros con encanto” a lo Steve Mc Queen a las que se enfrenta la industria y unos “dealers” no tan convencidos en algunas zonas de enorme consumo en nuestro planeta.


Por eso el “gag” del Prius funciona…


Basta con haberse dado una vuelta por el último NAIAS en Detroit (North American International Auto Show), escaparate mundial de los llamados “Muscle Cars” y “Booth Babes”, para confirmar que esos atributos siguen siendo utilizados para posicionar a determinadas marcas y modelos en un mercado muy concreto. La presentación de los nuevos modelos 4x4 de Ford, el F150 (la versión 2017 V6 de 3,5 litros, Raptor), el nuevo Bronco (midsize 4x4 para el 2020 que se fabricará en Michigan), el Pick Up Ranger o el nuevo Mustang ante los medios especializados hablan por sí solos y, dejan muy claro que por el momento, y en ese mercado, existe una clara correlación entre caballos de potencia, grandes motores en V, litros de gasolina y elevados niveles de deportividad, deseo y testosterona… es decir, siguen construyendo el mismo mensaje de siempre.


Un mercado tan grande como el estadounidense que parece dar la espalda “reinterpretando” las iniciativas “verdes”, “sostenibles” o como lo queramos denominar aquí en Europa. Llamo especialmente la atención de cómo la propia marca, Ford, entiende las ciudades del fututo. (https://www.at.ford.com/en/homepage/news-and-clipsheet/news/2017/1/COT.html.


Nos venden tecnología, coches más inteligentes, más potentes, Pre-Collision Assist con detección de peatones, Adaptive Cruise Control con Stop-and-Go, módem 4G LTE incorporado, SYNC 3 y B & O PLAY audio, pero ni rastro de menos emisiones, sistemas eléctricos 100% o híbridos…


Todo parece indicar que muchos aún no saben que la industria ya cuenta con marcas y modelos de tecnología eléctrica e híbrida que ofrecen sensaciones comparables a los de motor de combustión puro y en distintos segmentos.


¿Conocen los RC300h y LC500h de Lexus? (https://youtu.be/Kh4qNN8bdNo), (https://youtu.be/XwTzA1hbwrU),(https://youtu.be/h_iktzXK4K0), (https://youtu.be/JSfwxOdHO68) (https://youtu.be/XwTzA1hbwrU) y el ¿i8 de BMW ( https://youtu.be/DyQGrE9jFQ4), (https://youtu.be/s9DYTeD63Io) o el modelo S de Tesla? (https://youtu.be/Qrj0oAt0Kfg)


La tecnología es la gran apuesta. La gran revolución. Tesla nos ha demostrado que el coche eléctrico es viable, quizá por eso en abril de este mismo año tenía un valor de mercado de 47.000 millones de dólares frente a los 45.000 millones de GM.


De hecho, ya están probando las nuevas baterías con celdas de grafeno. Prometen mejores tiempos de carga rápida y más autonomía (el verdadero caballo de batalla).


Es el “Big Bang” según nos decía el protagonista de uno de los spots que he incluido un poco más arriba.


La pregunta está en saber por qué la industria y los “dealers” siguen apostando por los motores de combustión, especialmente en el país de Trump o por qué China se dibuja como el laboratorio ideal para el coche eléctrico… (creo que sólo este punto justificaría una nueva entrada en este blog). 

 

Un Big Bang que también viene en forma de “Big Data” y con multitud de modelos predictivos de fallos o mantenimiento que prometen ser uno de los pilares fundamentales del modelo 4.0.


Con el crecimiento exponencial previsto del IoT, o internet de las cosas, y en la medida que los coches tengan conectividad a Internet, se podrán hacer mantenimientos predictivos relacionados con el uso y los km. hechos como la presión y desgaste de los neumáticos, niveles de aceite, pastillas de freno, estado de los airbags y un largo etcétera relacionado con la seguridad pasiva. (Que dicho sea de paso ya se aplican en el ámbito de la generación de energía en los aerogeneradores)


El informe Connected Mobility Global Forecast 2016, de Ptolemus, avanza que en 2020 habrá más de 400 millones de vehículos conectados en todo el mundo.


Y todo, gracias a multitud de sensores, etiquetas inteligentes RFID, pasivas, activas o mixtas, marcados o etiquetas Datamatrix (similar a los ya masificados códigos QR) que nos ofrecen la recogida, tratamiento de datos integral y masivo que permitirá una nueva revolución en la fabricación, logística o industria de mantenimiento (por la completa trazabilidad de piezas y componentes).


Pero, también nos espera otra revolución no menor y es la que transita desde la compra del producto (el automóvil) a su consideración como un servicio de movilidad y el impacto en nuestra manera de entender la sociedad


Es ya un hecho que los jóvenes compran menos coches (¿cómo consecuencia de una crisis económica, por un cambio en patrones de consumo o de prioridades?) y se inclinan a su utilización como alternativa de movilidad urbana.


Dentro de ese concepto aparece el “car sharing” (que ya vemos en las grandes ciudades europeas) y su papel clave como pivote de las políticas de movilidad.


Se piensa que, en 2050, 1 de cada 3 vehículos será un “car sharing”.


Y de nuevo, ante un panorama tan poliédrico y cambiante es muy difícil dejar de hacerse preguntas como:


¿Será sostenible un modelo de “car sharing”?
¿Cómo será rentable una industria que prevé inversiones tan intensivas en tecnología y dinero?
¿Qué dimensión deberán tener esas economías de escala?
¿Cuántos operadores (fabricas) quedaran en el mercado global?
¿Esto disminuirá la capacidad de elección del consumidor?
¿Quién estará preparado para no querer sentir cientos de CV bajo su pie derecho y dejar “las llaves” a un ordenador central que te lleve a casa?

Quizá demasiado por ahora, pero seguiremos reflexionando...

Artículo realizado por: Javier Espina Hellín CEO QLC SLP y doctor en Ingeniería de Sistemas de Información 







Cambios en los habitos de compras y el lento adios de las catedrales del S. XXI: los centros comerciales

Hace no tanto tiempo, nadie podía imaginar que las “nuevas catedrales del SXXI”, y uno de los modelos de consumo y de desarrollo económico más exitoso desde la segunda guerra mundial, podía tener los días contados.


Y menos aún, que uno de los factores desencadenantes serían los cambios profundos en los patrones de consumo y compra que, derivados de la disrupción digital, protagonizarían los Millennials, o todos los nacidos entre 1981 y 1995, mucho más tecnológicos y con diferentes valores que nuestras generaciones anteriores.


Me estoy refiriendo a los centros comerciales y a las compañías de “ventas por departamento”.


El modelo es bien conocido. En sus inicios, esas grandes tiendas minoristas por departamentos se encontraban en lugares muy céntricos de las ciudades y su oferta era irresistible. El valor para el cliente se podía resumir en que podías realizar todas tus compras de todas las categorías en un solo lugar y, bajo un mismo techo de lujo “moderado” (que lo colocaba en tu mente como “aspiracional”) y con un glamour especial.


A medida que los nuevos clientes se movían centrífugamente desde el centro a las afueras de las ciudades, las tiendas por departamento les seguían, pero ahora, dentro de centros comerciales planificados y edificados a tal efecto.


Era una reinterpretación del modelo primitivo. Un centro comercial que dentro de sus instalaciones tiene a una o varias (según su tamaño) cadenas de venta por departamento (Macy´s, JCPenney, Sears, Dillard’s,  en EEUU o el Corte Inglés en nuestro país) que hacían las veces de “faro” localizador de “nuevas experiencias de compra”, atrayendo con su luz al consumidor que entendía como nueva ventaja añadida, el confortable y seguro nuevo universo de compras y ocio que le esperaba dentro de sus límites y que le seguía ofreciendo su gran tienda por departamentos preferida, otras comercios más pequeños y los cines, boleras y la oferta gastronómica que ampliaría, notablemente, su tiempo promedio dentro del establecimiento. Todo estaba al alcance de unos pasos, alguna escalera mecánica y unos ascensores.


El modelo era el paradigma de desarrollo económico local y modificaba el régimen de propiedad de esos comercios minoristas. Aprovechando este potente reclamo, decenas de tiendas, más pequeñas y especializadas, completaban la lista de inquilinos (que no propietarios) de ese centro comercial. Un modelo muy efectivo y replicado por todas partes del mundo capitalista. Baste un dato: sólo en EEUU se construyeron 1.500 centros comerciales en 50 años (1956-2005)


En un informe del 2009 de Consumer Reports Magazine, que ahora nos parece del siglo pasado, se decía que los compradores gastaron, ese año, 405.000 millones de dólares solamente Walmart, la tienda minorista más grande del mundo por entoces.


Hace pocos meses, en diciembre del 2016, se hacía público en EEUU un nuevo informe de la mano del mayor banco estadounidense, JP Morgan Chase, donde después de comparar 284.000 fotografías de aparcamientos de centros comerciales y de grandes tiendas emblemáticas (Apple o Zara en la 5º avenida de Nueva York), hechas por satélites y durante los 3 últimos años, que afirmaba que existían signos de una debilidad creciente en la actividad de ventas minoristas en el país.


Pero en el estudio no sólo estaban las grandes cadenas de ventas por departamentos, también se estudiaron otras tiendas minoristas de electrónica como Radioshack, BestBuy y Conns, supermercados, de toda la vida, como el antes mencionado Wal-Mart, Target o Costco, otras cadenas de supermercados de un target distinto como las de comida orgánica de Whole Foods y un largo etcétera, pero con idéntica conclusión.


Además, se estudiaron periodos concretos y especialmente significativos por su volumen de ventas concentradas en pocos días, como Thanksgiving Day (Día de Acción de Gracias) o el muy popular, también en España desde hace un par de años, el Black Friday.


La conclusión de nuevo era la misma.


¿Cómo explicarlo?


Podíamos construir una hipótesis poco verosímil.


H1: ¡Había menos coches, en las fotos tomadas por satélite, porque habían decidido compartirlo con vecinos o amigos para reducir su huella de carbono!


Aunque deseable por su impacto medioambiental, nuestra hipótesis 1 estaba lejos de explicar el fenómeno.


Lo que este informe dejaba claro es que los patrones de consumo y compra habían cambiado mucho en poco tiempo (recordemos que el periodo estudiado era 3 años).


Nada nuevo. Es un fenómeno muy estudiado por nuestra disciplina, el marketing, pero lo que realmente es significativo es la velocidad a la que se produce.


Estamos asistiendo a un trasvase del volumen de compra, como nunca antes, de un canal tradicional a otro digital.


Y, seguro que habrán acertado en el nombre del nuevo “oferente”. Amazon.


En la campaña del Black Friday del 2016 alcanzó una cifra histórica. Vendió más de 940.000 productos en 1 día completo (24 horas). Una media de casi 11 artículos por segundo.  (http://www.20minutos.es/noticia/2898566/0/black-friday-2016-amazon-record-ventas/#xtor=AD-15&xts=467263)


Las consecuencias son tan predecibles como inquietantes.


Hagamos un repaso cronológico. El 9 de diciembre de 2016 se publica el informe al que estoy haciendo referencia, 3 meses y 1 día después, el 10 de marzo de 2017, la mayor tienda de productos electrónicos del mundo y presente en todos los centros comerciales de EEUU, Radioshack, presenta suspensión de pagos después de haber restructurado su deuda y, el 21 de ese mismo mes de marzo, se publica que Sears, símbolo nacional, tenía "dudas considerables de continuar siendo un negocio viable" a un año vista.


La previsión es que, de los 1.100 centros comerciales, o “malls” como se conocen allí, que están en activo, a fecha de hoy, sólo queden alrededor de 800 en los próximos 10 años.


Y aquí, es donde se empieza a explicar el fenómeno de los Millennials y la modificación de los hábitos de compra, porque el perfil de los consumidores que todavía siguen visitando los centros comerciales, y comprando allí, son aquellos que tienen más edad. Cuanto más mayores más fieles…


Los nuevos consumidores, la generación norteamericana más joven, es más urbana, más digital, no compra coches y se está “europeizando”, si a uno de los efectos colaterales de la globalización se le puede llamar así: viajan con más frecuencia, utilizan hoteles u otras alternativas de alojamiento en sus destinos y, valoran cada vez más, comer mejor y en un entorno más sofisticado.


Si alguna vez han estado en un mall, la oferta gastronómica predominante no se puede considerar como “sofisticada”. De manera, que ni siquiera para comer el centro comercial se constituye en alternativa para este colectivo.


El cambio de modelo o el fin de una forma de comprar, parece claro, que está ante nuestros ojos y aunque algunos puedan argumentar que, en el caso de EEUU, la ratio de superficie de centros comerciales por habitante es 7 veces mayor que el de Italia o 10 veces mayor que en Alemania, no parece suficiente para negar la evidencia de su agotamiento, incluso, con las adaptaciones que se están incorporando en algunos países en desarrollo.


Posiblemente, será más tarde porque su incorporación ha sido más reciente, pero me resulta difícil pensar que no se producirá.


Me viene a la cabeza el caso de Lima, en la América Latina. Sus centros comerciales, aunque siguen el modelo, explicitado anteriormente, están incorporando nuevas herramientas de fidelización y de retención de sus clientes nuevos que merecen ser mencionadas.


Su oferta gastronómica, posiblemente como consecuencia del boom nacional del sector, y de ocio dentro del centro comercial, es mucho más elaborada, sofisticada y “cool” fruto de un buen trabajo de microsegmentación orientada al segmento con mayores índices de crecimiento en el país, que casualmente es el más joven, y al que, además de conexión WI FI, se le ofrecen espacios abiertos de colaboración, convivencia y experiencia colectiva que les llevan a una socialización memorable.


Los signos del agotamiento del modelo, también, los encontramos entre nosotros y de igual manera en España llevamos años cerrando centros comerciales y soportando pérdidas económicas, bien sea por la falta de afluencia o por el descenso del ticket medio de compra.


Algunos de ellos, paradigmáticos como el “Centro Comercial Opción”, propiedad de Metrovacesa y en el que se incluía una completa y diferenciada oferta de ocio dentro del municipio de Alcorcón de Madrid, cerró sus puertas en el año 2009. Sólo 7 años después de su apertura, o el propio Corte Inglés, nuestro símbolo nacional de cadena de ventas por departamento, con 21 instalaciones deficitarias a lo largo y ancho de nuestro territorio, de los 100 centros que posee, y al que habría que añadir otros 7 cuya situación, sin ser deficitaria, apenas supera el “break-even” o punto muerto. Muchos de ellos abiertos a partir del año 2000 e, incluso, después del estallido de la última crisis económica.


Sus cifras, constantes de pérdidas, hacen necesarias acciones para que la influencia negativa en el balance general del grupo desaparezca lo antes posible, porque pueden poner en peligro la propia viabilidad del grupo.


Parece que la solución elegida y que adoptará la compañía, es que estos centros deficitarios se conviertan en “centros outlet” donde ofrecer al consumidor una segunda oportunidad de compra a menor precio y, así, extender el ciclo del producto apalancándose en el valor de su marca.


Pero, sin entrar en otras disquisiciones como la necesidad de singularidad del entorno outlet como factor experiencial de compra, reclamo muy utilizado en zonas outlet y de muy difícil implantación en un mismo edificio (véase el caso de Sawgrassmills, www.simon.com/mall/sawgrass-mills, el de Las Rozas Village, www.lasrozasvillage.com en Madrid, o la Roca Village, www.larocavillage.com, en España), esta redefinición de centros ¿tendrá influencia en el perfil de sus consumidores habituales?, ¿en sus hábitos de compra?, ¿hará que vayan a comprar a sus centros consumidores más jóvenes? o ¿busca ampliar su base de clientes?


Ojalá consiga, al menos, esto último. Pero, incluso alcanzándolo sólo logrará retrasar lo que parece inevitable.


Lo más probable es que no consiga respuestas favorables al resto de las preguntas antes formuladas, porque con esta medida no se atiende a la razón que explica tanto el descenso de compradores físicos en tienda como la bajada en la compra media o el envejecimiento progresivo de su cliente tipo (atrapado en la brecha digital).


Se trata de una verdadera revolución en los hábitos de compra y en la manera de comprar, que están aquí para quedarse y que no pueden revertirse con medidas bienintencionadas, pero de efectos cosméticos en el caso que funcionen.


Déjenme compartir algunas cifras que nos invitan a la reflexión:


·       Las ventas de Amazon en todo el mundo han aumentado un 31,1% en solo un año.

·       857 millones de dólares son el beneficio neto reportado por Amazon en el último trimestre, frente a los 92 reportados en el mismo trimestre del año pasado

·       El precio de las acciones, en un año, ha experimentado un incremento del 43%

·       2.900 millones de dólares son los ingresos trimestrales acumulados por la compañía de servicios en la nube Amazon Web Services

·       Un 52% de los compradores de Amazon son miembros de Amazon Prime. Un servicio de pago anual que incluye envío gratuito en 48 horas en la mayor parte de las compras que realiza el propio Amazon y que incluyen productos frescos (la próxima e inminente revolución del consumo doméstico)

·       Cuenta con 63 millones de suscriptores Prime sólo en EEUU, a junio de 2016, frente a los 10 millones que tenía hace solo 3 años

·       En el e-commerce, y sólo el 12 de julio, tuvo el 74% de la cuota de mercado.

 

Acabo, con una noticia muy reciente y que confirma que se trata de un fenómeno profundo, global y acelerado, íntimamente relacionado con la tecnología móvil y los cambios de conducta comentados en la manera de vivir la experiencia de compra.


Al otro lado del Atlántico, está sucediendo lo mismo. Compañías del mismo sector y de éxito indiscutible, en otro tiempo, se están enfrentando al mismo problema que tiene El Corte inglés aquí. Es el caso de Macy's.


Según el anuncio que hizo en enero de este 2017, ya se conoce la ubicación concreta de 68 de las 100 sucursales que pretende cerrar, en este ejercicio de un total de 730 tiendas para quedarse sólo con los establecimientos con los que puede ganar dinero.


El efecto más inmediato y directo será entre sus empleados ya que supone la pérdida de 6.200 puestos de trabajo y la recolocación de otros 3.900 trabajadores.


En el caso del Corte Inglés, se estima que el número de empleos por centro es de 1000. De manera, que el impacto de una medida similar es trágicamente fácil de calcular, pero lo peor, siendo ya muy malo, es que cuando nos empeñamos en mirar para otro lado porque no nos gusta lo que vemos, aquello que queremos evitar no sólo nos alcanza, sino que nos pasa por encima…


¿Se acuerdan aún de Blockbuster?


 

Artículo realizado por Dr. Javier Espina Hellín, CEO en QLC SLP

Bixby, la nueva estrella de la inteligencia artificial del S8. Los algoritmos para la libre elección

Con la llegada de la inteligencia artificial y la progresiva e imparable preferencia por las pantallas de nuestros Smartphones frente a otros dispositivos con los que trabajamos en el día a día, ordenadores, tabletas, navegadores, etc. nuestra capacidad de libre elección está cada vez más cuestionada.

Hace muy pocos días, compartía con estudiantes de postgrado de una conocida Escuela de Negocios, lo que ya profetizaba McLuhan a nuestros padres. “El fin de la galaxia Gutenberg para establecernos en la galaxia Marconi”. En definitiva, algo que para nosotros es casi una evidencia y que podríamos resumir como el fin de la cultura escrita en favor de la cultura visual.

Pero, ahora, es casi más acertado decir que vivimos en la galaxia Berners-Lee, donde Internet es el macromedio total. Un nuevo medio que no pretende establecer una competencia con el resto de los medios, ni persigue su eliminación. No los elimina sino que los asimila para integrarlos en su propio medio y ponerlos a gravitar a su alrededor.

Es cierto que la superioridad de lo visual no es una novedad. Incluso, la inteligencia artificial tampoco lo es. Las nuevas estrellas digitales son ya conocidas por su nombre por todos nosotros: Cortana de Microsoft, Siri de Apple, Alexa de Amazon y Assistant de Google. A todas ellas, tendremos que añadirle una más, que mañana mismo 29 de marzo, Samsung nos anunciará. Será su asistente estrella artificial y su nombre es Bixby.

Pero, ¿qué nos avanza, con muy poco disimulo por cierto, este nuevo firmamento de estrellas digitales y de inteligencia artificial?

Pues que parece claro que el inminente futuro quiere dejar atrás la época táctil y adoptar la tecnología de voz para, que a través de ella e imitando nuestra propia forma de comunicación más antigua, inaugurar la nueva era que nos espera y lo que se ha bautizado como EL INTERNER DE LAS COSAS, que sólo será posible por la, cada vez más estrecha, relación con nuestros dispositivos móviles, tabletas, ordenadores y wearables.

El objetivo final es continuar con la integración, que antes comentaba, de todo nuestro entorno “multiconectado” desde un interface mucho más ambicioso, fácil y natural.  

Samsung, convencido que el futuro pasa por la inteligencia artificial, lo apuesta todo, con su nuevo S8 más la versión Plus.

No sabría decir si después o como consecuencia de un enorme fracaso mundial, a hombros de las baterías “poco fiables” de su último terminal, la marca surcoreana lanza mañana, 29 de marzo de 2017, su nuevo Smartphone S8 y S8 Plus que pondrá a disposición de todos una nueva “innovación aceleradora” con el que quiere forjar un “nuevo escenario disruptivo” y que pretende ayudar a consolidar una de las llamadas “tecnologías fundacionales” más prometedoras del panorama tecnológico actual: el análisis del Big Data.  

Y todo esto, con un punto de dramatización en la venta. Esa innovación aceleradora de Samsung nace como consecuencia de la decisión estratégica de “matar” a su primera criatura de inteligencia artificial, el S Voice de 2012, que lanzó al mercado con su S3.

El factor verdaderamente innovador del lanzamiento mundial de Samsumg, para mañana, es que Bixby no sólo será un buscador avanzado de información sino que nace con la ambición de “aprender de nuestras rutinas”, en llamadas, búsquedas de información, de envíos de documentos adjuntos, en definitiva, de hacernos más sencillo, rápido e intuitivo el uso del terminal mediante la “predicción de nuestro propio comportamiento”. Y esto, además de “customizar” primero, nuestro móvil hasta el punto de hacerlo único, para después extenderse a cualquier dispositivo con micrófono y conexión a internet (en palabras del Injong Rhee, director de I+D del área de software de la marca), puede convertirse en la piedra angular de toda la industria.

Para poder hacerlo realidad, una de las claves es que nuestro dispositivo móvil se asegure que nosotros somos quienes decimos que somos.

La tarea inicial será la determinación del “usuario principal”. Nosotros mismos podremos parametrizarlo mediante alguna de las variables biométricas que los dispositivos integrados en el S8 puedan identificar. Será nuestro patrón de voz, de imagen facial, huella dactilar o cualquier nuevo y exótico despliegue tecnológico con el que nos sorprenda Samsung.

Pero, lo nuclear aquí es la función para la que nace ese nuevo asistente Bixby y la potencia, rapidez y alcance del universo que sea capaz de construir a su alrededor, incluso a costa de uno de sus competidores más conocidos.

Por ello, Samsung ya ha compartido Bixby con los más importantes desarrolladores de Apps (incluidas las que puedan operar en dispositivos de Apple), para que pueda comenzar esa nueva era de omniconexión con electrodomésticos de todo tipo, y aquí no se si incluir, con un poco de maldad, al coche eléctrico a quien podremos ordenar que inicie su ciclo de recarga de baterías desde nuestro móvil, con dispositivos domóticos o, por ejemplo, con gigantes del comercio electrónico que, amable y diligentemente, nos sugieran “regalos” para amigos, pareja o “nosotros mismos”, en tiempo real y de acuerdo a nuestros patrones de compra, listas de deseos, preferencias personales o últimas compras.

Un gigantesco nuevo reto al que deberemos hacer frente no sólo desde nuestro rol de consumidores o profesionales del marketing, que nos obligará a desarrollar nuevas estrategias de marketing y comunicación entre marcas y consumidores, sino al resto de actores sociales.

Tendremos que alumbrar nuevos entornos normativos y de competencia. Sólo por citar el primero que se me viene a la cabeza, fuera de mi ámbito profesional…

Pero, para terminar, me gustaría compartir una de las reflexiones que leí a Yuval Noah Harari en uno de sus últimos libros, Homo Deus, respecto a la inteligencia artificial. Nos plantea el dilema que puede traer consigo la convivencia de ese nuevo “asistente artificial” con cualquier otro “ayudante o consejero” de nuestra propia especie (padre, madre, esposa, amigos o aquel profesor que te descubrió ese mundo al que ahora perteneces).

Si el índice de acierto, de coincidencia, de veracidad o de solvencia, en definitiva de ayuda, es mayor y más consistente (por factores estadísticas, de la accesibilidad de la que hablaban Kahnneman/ Tversky o de concurrencia) que el ofrecido por uno de nosotros ¿por quién nos dejaremos “aconsejar” en nuestro devenir futuro? Y, contando ya, con nuestra entera confianza por su competencia demostrada en saber cómo somos y qué queremos en muchas y diversas circunstancias a lo largo del tiempo en el que nos ha estudiado y averiguado nuestras preferencias, ¿lo haremos sólo para elegir un regalo, una tienda, un restaurante o un determinado proveedor virtual o también para elegir la compañera/o de vida, la inversión más importante de nuestra vida económica (nuestra casa), el alcalde de nuestra ciudad o el presidente de nuestro país?

 

Artículo realizado por Javier Espina Hellín CEO QLC SLP

El nanomarketing. ¿es la ultima frontera del neuromarketing?

No es nada nuevo afirmar que vivimos, en palabras de Bauman, un tiempo “líquido” donde las innovaciones tecnológicas son continuas con un ritmo, casi de vértigo, en su aparición, adaptación o sustitución y, en la que con frecuencia cada vez mayor se construyen nuevos paradigmas con una esperanza de vida más corta.


Todos sabemos que la única certidumbre predecible es la continua transformación de todo cuanto nos rodea. Es paradójico que, cerca de 2500 años después, comprobemos empíricamente lo que ya nos adelantaba entonces Heráclito de Éfeso.


El mundo del marketing no es una excepción.


Cuando todavía estamos celebrando y descubriendo nuevas aplicaciones de nuestra disciplina “punta de lanza” en innovación y tecnología, el neuromarketing, que por lo que representa, en términos científicos en el mundo del marketing, es la superación de la subjetividad del individuo en la construcción del propio discurso al ser preguntados sobre sus preferencias o gustos en la investigación de mercados, diseño de productos o packaging, entonces, adivinamos una nueva frontera, el nanomarketing.


Aprovechando, una vez más, las sinergias del trabajo multidisciplinar de distintos profesionales y los avances en otro campo de la ciencia, la nanotecnología, y la posibilidad que ésta nos ofrece para trabajar en nanoescala, es decir, en un rango de dimensión de entre 1 a 100 nanómetros, podemos desarrollar herramientas de medición, aplicadas al neuromarketing, cada vez más complejas y alojadas en dispositivos cada vez más pequeños por la sola manipulación de la materia que hará que el nanomarketing sea una realidad antes de que nos demos cuenta.


Imaginemos la posibilidad de integrar estos dispositivos muy pequeños, no intrusivos, e inalámbricos que nos acompañen, de manera mucho menos invasiva, en todos aquellos experimentos centrados en saber qué hacemos o cómo nos sentimos frente a determinado estímulo cuando caminamos entre los lineales de un hipermercado, en nuestro rol de consumidores cotidianos. Cómo interactuamos con una acción de merchandising  o nos situamos frente a un envase, producto, marca o, incluso, podamos medir la reacción emocional ante la presencia o mensaje de un personaje público que busca nuestro apoyo y voto, si nuestro estudio se concentrase en el ámbito del marketing político.


Los neurocientíficos, investigadores y “neuromarketinianos” estamos siempre interesados en aprender, tanto como podamos, sobre los mecanismos que se desencadenan en nuestros cerebros cuando enfrentamos situaciones que exigen iniciar un proceso de decisión y compra.


Entender qué sucede cuando compramos, cuando nos sobre-exponemos a todo tipo de impactos publicitarios o cuando interactuamos con el universo de marcas que nos rodean, es nuestro último objetivo.


La investigación del neuromarketing tradicional necesita siempre de un conjunto de herramientas, aparatos y equipos humanos de enorme complejidad, muy sofisticados y, casi siempre, después de haber pagado una bonita factura (porque son tremendamente caros).


Como bien es sabido, una de las técnicas de imagen más utilizadas es la resonancia magnética funcional (IRMf) y su empleo nos ha reportado un número enorme de indicios y evidencias sobre el papel que tienen tanto las emociones, como las respuestas subconscientes en la percepción, por ejemplo, de un producto y en la toma de decisiones asociada y posterior que como consumidores experimentamos. Ambos factores se han revelado como determinantes en cualquier proceso de evaluación y compra.


No obstante, y como resultado del proceso de investigación, sabemos que nos enfrentamos con ciertas limitaciones que son inherentes al neuromarketing tradicional (Mileti, Guido & Prete, 2016)* y que podemos agrupar en los siguientes cuatro apartados:


Una tecnología muy cara que condiciona el propio diseño de los experimentos ya que al ser, necesariamente cortos en el tiempo (por disponibilidad y coste) su extensión muestral también lo es. Es decir, que siempre son muestras pequeñas y esto condiciona el grado de consistencia de la información obtenida por razones estadísticas.


Condicionamiento espacial. Los experimentos sólo pueden llevarse a cabo en laboratorios u hospitales por razones obvias. Un resonador magnético pesa en torno a los 4.500 Kg (el modelo Philips Achieva 1.5 T) por lo que es imposible imitar las diferentes perturbaciones externas de la vida real y que pueden influir, no sabemos en qué o cómo, en los resultados finales obtenidos. Y todo, sin contar con los posibles efectos cruzados de la interacción del movimiento de nuestro propio cuerpo y su efecto respecto a los demás.


Es fácil adivinar el grado de condicionamiento que esto supone y cómo puede poner en cuestión la validez científica de los resultados experimentales si queremos hacer cualquier inferencia al mundo real.


Falta de complementariedad en el uso de la tecnología. Sólo se puede utilizar una tecnología de neuroimagen, como la fMRI o una EEG (electroencefalografía) al tiempo, lo que puede llevar a una  comprensión “no completa” o parcial de las relaciones entre los procesos fisiológicos y el comportamiento humano, tanto por la limitación espacial (profundidad cortical) como por la propia de la tecnología aplicada.


Factores éticos y deontológicos. Nada nuevo. Desde el mismo nacimiento del neuromarketing este ha sido un factor enormemente controvertido. La sola posibilidad de la identificación de algún mecanismo relacionado con el propio proceso de compra ha despertado todo tipo de críticas. El miedo a la manipulación siempre está presente como factor limitante del libre albedrio individual.


Por eso, la nanotecnología y su potencial proceso de miniaturización puede atenuar, mejorar y hasta eliminar algunas de las limitaciones que acabamos de plantear y, con ello, el nanomarketing puede representar esa última frontera del neuromarketing por ayudar a fortalecer la cuestionada validez estadística, derivada del trabajo con pequeñas muestras y trabajos aislados y no necesariamente conectados.


Con dispositivos de medición pequeños, inalámbricos y baratos es posible diseñar trabajos de investigación masivos y todo lo que esto representa: la añorada ampliación muestral experimental y la incorporación de la multivarialibilidad del entorno real en los experimentos.


Así, el nanomarketing superaría con creces, por robustez estadística, la actual capacidad para probar la eficacia de determinada publicidad, la viralidad de un spot, la conveniencia de adoptar determinados cambios en un envase, o incrementar el atractivo de un producto frente a sus competidores en el propio lineal.  


Aunque, todavía, no hemos llegado al nivel molecular que permite el trabajo y la manipulación de estructuras moleculares y sus átomos que nos podría conducir a la fabricación de diferentes sensores, si podemos citar algunos ejemplos de tecnología de neuromarketing en dispositivos más pequeños. Ya contamos con gafas ligeras para medir el movimiento ocular, auriculares EEG y dispositivos "Galvanic Skin Response", que miden la excitación emocional y el estrés desde nuestra muñeca.


También, se está trabajando en la adaptación de la tecnología “wearable” en dispositivos portátiles para medir todo tipo de parámetros fisiológicos (como expresión emocional) y, mediante ese monitoreo remoto, recogerlos en tiempo real y en situaciones y lugares cotidianos.


Por ejemplo, aunque en una fase muy temprana, ya existe una tecnología que nos permite identificar la ansiedad, el ritmo cardiaco, el nivel de estrés, los estados de ánimo y emociones “ocultas” a nuestra vista como la mentira.


El doctor Kang Lee ha desarrollado una nueva tecnología de imagen que denomina “imagen óptica transdérmica”.


“Sabemos que debajo de nuestra piel facial hay una rica red de vasos sanguíneos. Cuando experimentamos diferentes emociones, nuestro flujo sanguíneo facial cambia sutilmente. Estos cambios son regulados por el sistema autónomo que está más allá de nuestro control consciente. Por lo cual, al observar los cambios en el flujo sanguíneo facial, podemos revelar las emociones ocultas de las personas...” (https://www.ted.com/talks/kang_lee_can_you_really_tell_if_a_kid_is_lying/transcript?language=es)


Gracias a la combinación del uso de algoritmos y tecnología de procesamiento de imagen, cuenta con una tecnología de bajo coste, inalámbrica, no invasiva y remota que puede, por ejemplo, detectar cuando mentimos con una precisión del 85%. Cuando mentimos el flujo sanguíneo disminuye en las mejillas y aumenta en la nariz.


Algunos autores que ya están proponiendo estos desarrollos, nos ayudan a concretar las oportunidades que nos ofrecerá el nanomarketing:


Una experimentación más accesible y multifuncional. Al ser significativamente menos costosa y poder medir al mismo tiempo diferentes señales, nos permitirá recolectar muchos más datos y, por tanto, la fiabilidad, validez y consistencia de los resultados aumentarán considerablemente.


Más real. O directamente real. Ya que si los dispositivos de Nanomarketing son más portátiles serán más discretos y podrán ser usados de manera cotidiana y no invasiva, en la vida real y durante tiempos de exposición mucho más amplios.


Análisis multivariable. Múltiples señales neurológicas, biológicas y fisiológicas pueden ser  medidas sincrónicamente lo que redundará en una comprensión más profunda de los estados emocionales y su relación con el comportamiento del consumidor.


El futuro Neuromarketing parece que será desde la plataforma del Nanomarketing que podría revolucionar la comprensión del comportamiento del consumidor y los principios fundamentales de nuestra área de conocimiento, el marketing, tales como actitudes, intención de compra, respuesta publicitaria, satisfacción del consumidor y un largo etcétera muy difícil de predecir en el momento que estoy escribiendo este artículo.


Pero, no quisiera terminar sin incluir una breve transcripción de la charla TED que ofreció el doctor Lee el pasado mes de mayo y dejarlo a su consideración:


… “con la ayuda de imágenes televisadas podemos detectar el ritmo cardíaco de los políticos, su estado de ánimo y el estrés, y quizás en el futuro, si nos están mintiendo o no. También podemos usarla en la comercialización de la investigación, por ejemplo, para averiguar si a la gente le gusta o no determinados productos de consumo. Incluso podemos usarla en las citas. Así, por ejemplo, si su cita le sonríe, esta tecnología puede ayudar a determinar si le cae bien de verdad o si solo está tratando de ser amable con Ud. Y en este caso, es solo una muestra de amabilidad…”


 

Artículo realizado por Javier Espina Hellín CEO QLC SLP

*Mileti, A., Guido, G. & Prete, M. I. (2016). Nanomarketing: A New Frontier for Neuromarketing. Psychology and Marketing, 33 (8), p. 664–674.

Captacion de nuevos clientes vs retencion de clientes actuales: analogia leaky bucket

El cubo con fugas es una analogía muy utilizada, sobre todo en el ámbito anglosajón, para describir cómo las entradas y salidas funcionan en una amplia variedad de sistemas empresariales, de gestión o tecnológicos.

La analogía se refiere a un cubo físico con un agujero en el fondo y en sus paredes.

El cubo puede contener el agua hasta su capacidad máxima y pierde el agua en una escala o a una velocidad que viene determinada por el tamaño del agujero.

Veamos algunos ejemplos donde aplicar la analogía de la cubeta que gotea por varios agujeros:

Las inversiones efectuadas en el entrenamiento sobre “la conciencia de la seguridad” de los empleados pueden producir una mejora inmediata en las prácticas de seguridad. Sin embargo, el cubo no permanece lleno durante mucho tiempo. Con el tiempo, la conciencia se va relajando, y se producen filtraciones y pérdida de esa agua contenida.

La moraleja o lección es que las inversiones en entrenamiento, en este caso en seguridad, deben ser periódicamente puestas en marcha para mantenerse en un nivel óptimo y que la tasa de pérdida se mantenga baja.

Otro ejemplo es CRM en una compañía, la gestión de la relación con el cliente o para explicar el modelo de retención de los empleados vs abandono.

Aquí la analogía del cubo de agua con fugas se utiliza para describir la tasa de rotación: la captación de nuevos clientes vs retención de los existentes.

El agua que se incorpora al cubo serían los nuevos clientes y el agua que fluye fuera del cubo representa aquellos clientes que está perdiendo la compañía. La cantidad de agua contenida en el cubo, según aparece en el gráfico, representa la base total y actual de clientes de la compañía en el momento de la observación, porque como sugiere la analogía, esta es una situación dinámica, ya que hay un flujo constante de nuevos clientes y una pérdida constante de los clientes existentes.

De esa manera, el tamaño de la base total de clientes varía constantemente - a veces hacia arriba y a veces en sentido contrario- dependiendo del flujo de agua en el cubo y el número de agujeros por los que el agua puede salir.

La analogía está diseñada para llamarnos la atención sobre que la empresa tiene dos enfoques potenciales para maximizar la cantidad de agua en el cubo (en este caso, es el tamaño de la base de clientes).

·       El primer enfoque, es aumentar el flujo de agua en el cubo vs aumentar el número de nuevos clientes.

·     El segundo enfoque consistiría en tapar algunos de los agujeros en el cubo para reducir la pérdida de agua vs concentrarse en la retención de los actuales clientes.

Esta es una de las clásicas tensiones de gestión comercial en una empresa: la determinación de la proporción de sus gastos y actividades de comercialización que se deben centrar en adquirir nuevos clientes frente a las acciones destinadas a conservar los clientes ya existentes.

Aunque es muy intuitivo porque parece bastante lógico, no fue hasta la década de 1980 que las empresas comenzaron a darse cuenta de la importancia de la retención de sus clientes y a desarrollar programas que buscan potenciar su lealtad. Hasta entonces, la mayoría de las acciones de marketing se centraban en la adquisición de nuevos clientes.

Este es un tema de enorme importancia porque según las últimas estimaciones en el mercado de gran consumo, las marcas ganan y pierden clientes hasta un 50% en promedio cada año. Es decir, cada año nos dejan de comprar la mitad de nuestros clientes y conseguimos otro 50% de nuevos clientes y, esto siempre que mantengamos la misma penetración en el mercado.

La conclusión parece evidente. Para incrementar mi penetración de mercado tengo que “taponar” con urgencia esos agujeros por los que pierdo clientes y, al tiempo, me aseguro que el caudal de agua que entra en el cubo se mantiene constante (sigo consiguiendo clientes nuevos). Pero, ¿en qué tarea es más rentable que destine los, siempre escasos, recursos de los que dispongo?

Lo que nos dice el marketing es que es más eficiente, en términos de beneficio, retener que conseguir nuevos clientes. En uno de los textos analizados, Reichheld  nos dice que un incremento de un 5% en la tasa retención puedo obtener un incremento de entre el 25% y el 100% de beneficio (Reichheld, 1996).

Sin embargo, y según los explica César Valencoso en su último trabajo, los datos empíricos (reales) de diferentes marcas, en el mercado FMCG o de gran consumo y alta rotación, apuntan a todo lo contrario. Existen patrones de abandono de clientes que se repiten en marcas grandes y pequeñas, con presupuestos orientados a la retención y fidelización y otras marcas que no tienen presupuesto, por lo que si queremos mantener o incrementar la penetración de nuestra marca el único camino existente es conseguir atraer a nuevos clientes.

Un planteamiento que además de provocador es completamente nuevo, por estar apoyado en un conjunto de datos reales que superan estadísticamente las, tradicionalmente pequeñas, muestras representativas con las que se presentan algunos estudios en el mundo del marketing, pero que nos debería hacer pensar sobre la necesidad de que seamos “consistentes” en la aplicación de cualquier medida en nuestras compañías, siempre con el respaldo de los datos, en lugar de la aceptación ciega de lo que se consideran verdades absolutas.

Para concluir, y sólo por curiosidad, esta analogía también  se aplica a algoritmos. El algoritmo “leaky bucket” es un método que se utiliza para almacenar, temporalmente, un número variable de solicitudes y organizarlas de acuerdo con una salida, a velocidad establecida, de paquetes en una red de modo de transferencia asíncrono (ATM).

Artículo realizado por Javier Espina Hellín CEO QLC SLP


Centros comerciales: las nuevas catedrales del siglo XXI

No será la primera vez que lo haya escuchado. No es un concepto que percibamos como nuevo. Es algo que todos intuimos como cierto, cotidianamente cierto aunque no seamos conscientes de hasta qué punto modula nuestro comportamiento social.

Se han hecho multitud de estudios empíricos en los que autores como Fiske, Brummett, Morris, Taylor, Bauer, Galbraith, Miller y Rifkin, apoyados en muy diversos y numerosos experimentos realizados en Norteamérica (Estados Unidos y México), América Latina y Europa, nos ayudan a entender uno de los fenómenos contemporáneos más extendidos pero en el que, quizás, por su acentuada cotidianidad menos tiempo le dedicamos.

El centro comercial, según Fiske, admite dos metáforas, la religión y la guerra, que lo relacionan directamente con las catedrales por el papel que en aquellas sociedades medievales tenían como lugar de protección, ante una eventual acción hostil del enemigo, o como centro de encuentro social y espiritual.

Durante cientos de años el espacio público, por excelencia, era la plaza pública en donde tenían lugar la vida real de la población. Se integraba como un “must” en el diseño de la ciudad. Era un lugar de encuentro, de celebración y de cultura en su dimensión más global. Ceremonias de todo tipo, encuentros deportivos, desfiles militares y entretenimiento popular e incluso culto, expresadas en corridas de toros o representaciones teatrales, hacían converger en un solo punto a todas las escalas sociales. Es cierto que también tenían lugar en la plaza transacciones comerciales, muchas veces de mercado de abastos en instalaciones, más o menos permanentes, que se apoyaban sobre los muros de la catedral, pero siempre fueron consideradas como una función derivada.

Y todo en un ámbito libre, abierto y relativamente democrático, por la convivencia natural de las distintas escalas sociales, en un tiempo donde la movilidad social aunque posible, la gran parte de las veces por las armas, era limitada.

Ahora, digamos que poco antes del comienzo de la primera guerra mundial y como respuesta al impacto científico del taylorismo en las técnicas de producción y del nacimiento de la publicidad moderna, en un intento de buscar un momento de nacimiento histórico, y exportado a todo el planeta desde Estados Unidos, esas distintas actividades que tenían lugar en la abierta plaza pública se han confinado a un espacio cerrado. El centro comercial. Icono de modernidad en el consumo y perfecta relación entre producción en masa y consumo masivo.

Aunque con la apariencia de lugar público, de antigua plaza de ciudad, se trata de un inmueble de propiedad privada, gestionado desde una sociedad unipersonal o por un grupo de inversores.

Por tanto, el único de los criterios enunciados que se mantiene, desde entonces, es que sigue siendo "relativamente" democrático.

Ese conjunto de expresiones sociales y actividades culturales (de ocio en nuestra terminología contemporánea) se han convertido en una “mercancía a la venta donde la cultura existe en forma de experiencias mercantilizadas” (Rifkin).

A cada uno de nosotros se nos ofrecen, previo pago, diferentes opciones o accesos a distintas experiencias de consumo.

Espectáculos, exposiciones, conciertos, electrodomésticos, payasos o piscinas con bolas de colores, siempre en recintos cerrados, para que nuestros hijos no interfieran en nuestro acceso, a medida, al modelo de recompensa diferida o inmediata, en donde teléfonos móviles, una deliciosa lasaña que compartir con nuestra pareja o grupo de amigos, una noche de hotel, un desfile de moda, un diamante que recuerde “para siempre” un momento especial, una revisión médica, un sofá de masajes para nuestro salón o un tratamiento de blanqueo dental nos hagan sentir mejores, diferentes o admirados.

Según nos apunta Morris, esta diversidad encierra una cualidad dual del centro comercial: la estrategia del encanto y de la seducción trufada, hábilmente, de sorpresa y confusión, familiaridad y armonía. Un abanico de posibilidades tan extenso como disperso pero convenientemente categorizado y que simplifica nuestro perfil de consumo en alguna de las cuatro opciones siguientes:

  • “Conseguidores” o consumidores tradicionales de alto nivel educativo, materialistas, que se esfuerzan en su ámbito laboral y que sentirán la poderosa y distinguida llamada de exclusivos productos de marcas de lujo…
  • “Emuladores”, individuos conspicuos, jóvenes, sabedores de su actual estatus marcados por un consumo aspiracional.
  • “Socios”: consumidores de clase media, con ingresos medios y conservadores en sus decisiones de compra.
  • “Sufridores”, condenados a un consumo de supervivencia.

En este contexto experiencial, el “ir de compras” (el hacer shopping) trasciende la mera transacción de compra-venta para ser mucho más. Brummett, nos dice, que es una actividad en sí misma que forma parte de una visión postmoderna del ocio asociada al hedonismo y al narcisismo. Una especie de placer fetichista y voyeur que nos ofrece el centro comercial convertido en lugar de placer en sí mismo. Un lugar que nos permite ver y ser visto. Tener acceso a un círculo social distinto al natural de pertenencia y, donde lo importante no son los bienes adquiridos sino la transferencia de identidad, única, que sentimos que nos aporta.

El consumismo se encarna en nueva religión contemporánea y el centro comercial es su nuevo templo que, a diferencia de las catedrales que pretendían evocar un mundo espiritual e interior, el centro comercial se esfuerza en replicar elementos que nos unan a un mundo exterior idealizado y mucho más trivial. Encontraremos fuentes, árboles, palmeras, cielos estrellados de leds, grandes rocas volcánicas y un número cada vez mayor de símbolos, mucho más explícitos, simples e inmediatos que los dejados por las logias masónicas en los sillares de piedra de las catedrales. Sólo comprensibles por aquellos que las sabían interpretar. Hay tres símbolos que la masonería toma como esenciales: el martillo simboliza “la fuerza necesaria para realizar la obra”, el cincel “la inteligencia sin la cual la fuerza sola no seria útil y gracias a la cual la forma deseada aparecerá de la piedra bruta” y la regla con la que podrá “dividir su tiempo en tres proporciones, una para el trabajo, otra para el estudio y la última para el descanso”

Los símbolos contemporáneos a los que me refiero y que se concentran en nuestras nuevas catedrales son las “marcas” que todos sabemos interpretar sin dificultad, gracias a la publicidad, y que nos dan seguridad, estatus o pertenencia a un grupo social y que nos invitan a experimentar el placer de consumirlas con elaborados y sutiles mensajes que nos prometen otra vida en este mundo terrenal.

Una vida plena, envidiada por todos y sólo accesible a unos pocos elegidos, ya no por su cuna sino por su bolsa, pues ese estado de satisfacción y plenitud se consigue por acumulación de bienes, todos ellos imprescindibles pero sustituibles por nuevas versiones futuras más completas o más “fashion”. Ningún valor es estable en el tiempo y todo es susceptible de cambio. Todo es relativo y permutable.

Cualquier cosa que se desee se puede conseguir si tienes dinero para pagarlo. En los centros comerciales de cualquier parte del mundo se respira competencia entre los diferentes oferentes y el éxito viene definido por la posibilidad de acceso a esa oferta casi ilimitada de consumo.

Como me repite uno de mis amigos: “ Javier hay otra vida, pero es más cara…”

 

Artículo realizado por Javier Espina Hellín CEO QLC SLP

Esto es un párrafo. Puedes cambiarlo y poner tu propio texto, editar el formato y añadir enlaces o imágenes.