Funciones del delegado de protección de datos (DPD)

Es muy importante saber qué funciones tiene el Delegado de Protección de Datos (DPD) porque el Reglamento General de Protección de Datos (RGPD) convierte al DPD en el eje clave del modelo. Es quien hace posible el cumplimiento de la normativa de protección de datos en las organizaciones y empresas.


El RGPD, en su artículo 37, establece cuando un responsable o encargado debe proceder a su designación, teniendo en cuenta que el propio reglamento no exige que quien desempeñe este papel tenga que ser, necesariamente, jurista, aunque deberá contar con conocimientos especializados en protección de datos y que la figura del DPD podrá ser interno o externo de la empresa u organización y persona física o persona jurídica especializada en esta materia.


Por tanto, en este breve artículo repasaremos las funciones del DPD, su código ético y los compromisos que adquiere la empresa que decida externalizar este servicio.


El DPD tendrá las siguientes funciones:


  • Informar y asesorar a la empresa cliente y a todos los miembros de sus distintos equipos que se ocupen del tratamiento, de las obligaciones que les incumben en virtud de la legislación de protección de datos.
  • Supervisar el cumplimiento de lo dispuesto en la legislación de protección de datos y de las políticas de la empresa cliente, incluida la asignación de responsabilidades, concienciación y formación del personal, y las auditorías correspondientes.
  • Ofrecer asesoramiento acerca de la Evaluación de Impacto (EIPD) relativa a la protección de datos y supervisar su aplicación de conformidad con la normativa.
  • Cooperar con la autoridad de control.
  • Actuar como punto de contacto de la Autoridad de Control para cuestiones relativas al tratamiento, incluida la consulta previa, y realizar consultas, en su caso, sobre cualquier otro asunto.

 

CÓDIGO ÉTICO DEL DELEGADO DE PROTECCIÓN DE DATOS (DPD)


Todas las funciones y tareas desempeñadas por el DPD estarán sujetas a los siguientes principios:


  • Legalidad e integridad, cumpliendo estrictamente con la legalidad vigente, en particular la referida a la prestación del servicio, al objeto de evitar que se lleve a cabo cualquier actividad ilícita.
  • Profesionalidad, desarrollando sus funciones con la debida diligencia y rigor profesional, y manteniendo permanentemente actualizada su capacidad profesional y su formación personal; debiendo comportarse ante las personas, empresas, entidades y clientes de modo escrupulosamente leal e independiente de las limitaciones de cualquiera naturaleza que pueda influir su propia labor y la del personal del que, eventualmente, sea responsable.
  • Responsabilidad en el desarrollo de su actividad profesional y personal, asumiendo sólo aquellas actividades que razonablemente esperen completar con las habilidades, conocimiento y competencias necesarias.
  • Imparcialidad, actuando con objetividad sin aceptar la influencia de conflictos de interés u otras circunstancias que pudieran cuestionar la integridad profesional y la de la propia organización a la que pertenece.
  • Transparencia, informando a todas las partes interesadas de forma clara, precisa y suficiente de todos los aspectos que confluyen en el ejercicio profesional, siempre y cuando los mismos no estén sujetos al régimen de confidencialidad, en cuyo caso tendrán carácter reservado y no podrán ser divulgados.
  • Confidencialidad, respetando y guardando la necesaria protección y reserva de la información a la que pudiera tener acceso por razón de actividad profesional, salvaguardando los derechos de todas las partes interesadas a su intimidad. Dicha información no debe ser utilizada para beneficio personal ni revelada a partes inapropiadas.


COMPROMISOS DE LA EMPRESA U ORGANIZACIÓN CLIENTE


El responsable de tratamiento se obliga expresamente a los siguientes deberes en aras a facilitar el trabajo y desempeño del DPD.  


  • Se garantizará que el DPD participe de forma adecuada y en tiempo oportuno en todas las cuestiones relativas a la protección de datos personales.
  • Se invitará al DPD a participar con regularidad en reuniones con los cuadros directivos altos y medios cuando en estas reuniones se toman decisiones con implicaciones para la protección de datos. Toda la información pertinente debe transmitirse al DPD a su debido tiempo con el fin de que pueda prestar un asesoramiento adecuado.
  • La opinión del DPD se tendrá siempre debidamente en cuenta. En caso de desacuerdo, se documentarán los motivos por los que no se sigue el consejo del DPD.
  • Se consultará al DPD con la mayor prontitud posible, una vez que se haya producido una violación de la seguridad de los datos o cualquier otro incidente.
  • Se deberán facilitar los recursos necesarios para el desempeño de las funciones y el acceso a los datos personales y a las operaciones de tratamiento, y para el mantenimiento de sus conocimientos especializados.
  • Se comunicará oficialmente la designación del DPD a todo el personal para garantizar que su existencia y función se conozcan dentro de la organización.
  • Se facilitará el acceso necesario a otros servicios, como recursos humanos, departamento jurídico, TI, seguridad, etc., de modo que los DPD puedan recibir apoyo esencial, aportaciones e información de dichos servicios.
  • Se garantiza la independencia del DPD, no recibiendo ninguna instrucción en lo que respecta al desempeño de sus funciones que pueda influir en dicha independencia. No será destituido ni sancionado por el responsable o el encargado por desempeñar sus funciones

Las funciones y cometidos del DPD no pueden dar lugar a conflicto de intereses, en caso de recibir instrucciones o funciones ajenas a las propias de DPD.

 

 

Artículo realizado por Javier Espina Hellín CEO QLC SLP, doctor en Ingeniería de Sistemas de Información, MBA, ADE nº colegiado 11.534 y Licenciado en Gestión Comercial y Marketing

Sólo un vistazo al caso “Amazon”

El caso de Amazon es enormemente complejo aunque se podría decir que se resume en un sola palabra: “ganar”.


Ganar relevancia, influencia, cuota de mercado en “todo” y ganar dinero por supuesto. Como parece que reina en Hollywood, “no es nada personal. Es sólo business”.


Es verdad que en el plan de negocio de Amazon estaba previsto ganar dinero pero sólo después del tiempo necesario para hacerse hueco en el mercado digital, de ganar “masa crítica” o de consolidar aquellas ventajas tecnológicas que hiciesen posible comprar, más tarde comprar “en un solo click” y comprar cualquier producto que se nos pueda ocurrir. El beneficio se sacrificó, al comienzo, para hacer posible la ambición de ser un “todo” y, con un poco de tiempo más, deshacerse de “casi todos” (los competidores) para hacerse el único proveedor de “todos” (los consumidores).


El tamaño de su ambición es sólo comparable al que evoca su propio nombre.


Al principio, como seguro que sabéis, vendía libros desde un garaje privado (el del propio matrimonio Bezos), después amplió (y sigue ampliando continuamente) un portfolio de productos y servicios que parece no tener fin ni sector de desarrollo que no pretenda.


Ofrece de todo y ahora no sólo obtiene beneficios (monetización) vendiendo productos de otros sino que, aprovechando la enorme cantidad de información relevante que tiene de todos nosotros, ya los produce directamente (con lo hace más corta la cadena. Sólo tiene 2 eslabones desde la fabricación hasta la venta y son propios). 


Puede hacer (y hace constantemente) estudios de todo tipo para ver cómo reaccionamos como clientes: promociones en precio, posicionamiento de sus distintas marcas para saber cual es nuestra sensibilidad, cómo presenta las ofertas en cada búsqueda, qué llama nuestra atención en la oferta formal de cada producto modificando colores, formas, fotos, presentación de otros productos para favorecer la venta cruzada (otros clientes compraron este producto junto a xxx por xxx €), etc.  


Durante la fase de desarrollo de un producto, Amazon sabe las necesidades no satisfechas del mercado frente a la mayoría de los minoristas que sólo pueden “adivinarlo”.


Fabrica/ vende con marca propia desde electrónica de consumo, toallas de papel y papel higiénico, camisetas y shorts para niños hasta comida para perros (se llama Wag, y está hecha por Amazon. Se estima en más de 200 marcas propias, según TJI Research que rastrea el crecimiento de Amazon. Marcas como Presto!, SpottedZebra, True Angel, IndigoSociety, Crafted Collar, Rivet and Stone & Beam, Mama Bear, Solimo, Core 10, PeakVelocity, Goodthreads, Paris Sunday, Mae, etc. además de las marcas que produce Amazon con su propio nombre, como Amazon Basics o Amazon Essentials…


Esta estrategia de crecimiento de marcas propias se está acelerando, según un estudio de Evan Neufeld y Cooper Smith: de la empresa de investigación Gartner L2. Según datos de la propia compañía en una entrevista a CNN, “el crecimiento de su marca propia fue notable en categorías como productos de papel, pañales, cápsulas de café y vitaminas y suplementos.


Sólo por poner algún ejemplo publicado (ya que no es tan fácil encontrar este tipo de información por razones obvias) las ventas de marcas propias de Amazon en 2018 se estimó que alcanzarían los 7.500 millones de dólares y, entonces, los analistas de SunTrust Robinson sostenían que para el próximo año, 2022, alcanzarían los 25.000 millones de dólares. Cifra que  seguro ya habrán superado como consecuencia de la crisis COVID que aún sufrimos y que disparó el consumo on-line como nunca antes se pudo prever.


Además, y aplicando al pie de la letra los principios básicos del marketing ocupa todos lo mercados posibles (y no los más baratos como publicita en sus spots) según un informe reciente del grupo de reflexión sobre el minorista CoresightResearch. Amazon vende cerca de 5.000 de sus propios artículos de ropa (referencias) y lo interesante desde el punto de vista del marketing es que Coresight descubrió que el “valor promedio” de prendas de marca propia en Amazon cuesta 38 $, es decir, que no está como “category killer” sino que se posiciona como un vendedor del mercado medio (competencia de otros “players” como Macy's o Kohl's en el mercado EEUU) pero sin descuidar la gama de precios más baja. Ofrece sus marcas hacia arriba y hacia abajo en la escala de ingresos. “Funcionan en todos los extremos del mercado” porque atiende a todos los perfiles de compradores (tiene vestidos para vosotras de más de 120$ de Social Graces y una sudadera de 8$ para niñas bajo la marca Scout + Ro).


El dilema aparece o lo encuentras frente a ti, si te preguntas si Amazon es un “Marketplace neutral” para vender productos y hacer más fácil nuestra vida como consumidores o va más allá para obtener beneficios, generar lealtad/ fidelidad en sus compradores, conseguir una posición más fuerte cuando negocia con sus proveedores u otros oferentes (otras marcas).


¿Es conveniente para nosotros como consumidores que una opción de consumo se convierta en una de las pocas opciones en el universo de consumo posible?  


No debemos olvidar la presencia de Amazon en el mundo de la producción audiovisual, como proveedor en plataformas de streaming, de música, de libros o los servicios que ofrece a través de AWS como el almacenamiento en la nube, gestión de instancias, imágenes virtuales, desarrollo de aplicaciones móviles, etc.


Parecía difícil llegar a los 10 millones de suscripciones en EEUU y hoy Amazon Prime cuenta con más de 100 millones de suscriptores en ese mercado. Cuando apareció a finales de 2004, Amazon estaba valorada en 18.000 millones de dólares y su principal rival, Ebay, tenía un músculo de capitalización bursátil de 33.000 millones. Hoy Ebay sigue igual mientras que Amazon está alrededor del billón de dólares.


No hay que desestimar (y mucho menos infravalorar) que cuentan con enormes recursos, toda la información posible y el mejor equipo de profesionales multidisciplinares (desde matemáticos, ingenieros de casi cualquier campo de especialización, expertos en IT, AI, estadísticos, en consumo y un largo etcétera) pudiendo saber, en cualquier momento, qué productos están teniendo más éxito, para fabricarlos, escalar su producción (si ya los fabrica) o aumentar su visibilidad al anunciarlos (según el informe de Ojastro Todd, analista de marketing de One ClickRetail).


De nuevo, y sólo por poner otro ejemplo, el hecho de contar con la "elección de Amazon" es responder a una recomendación determinada por un algoritmo propio. Lo mismo sucede con Alexa cuando se le pide “buscar” algo: toma “por defecto” una decisión basada en nuestras compras anteriores de Amazon (claro sesgo respecto a la toma de decisiones: costumbre vs relevancia u oportunidad) y si nunca has pedido eso Alexa recomendará uno o dos productos a través de un algoritmo propio. Todo esto se explica en un informe de la empresa L2.


Amazon responde no sólo a una estrategia sino a un conjunto de todas las estrategias posibles sobre las 4P´s del marketing...


Artículo realizado por Javier Espina Hellín CEO QLC SLP, doctor en Ingeniería de Sistemas de Información, MBA, ADE nº colegiado 11.534 y Licenciado en Gestión Comercial y Marketing

Obligación de un registro salarial de toda la plantilla de la empresa

Las acciones que se están impulsando desde la Administración para que las empresas, incluidas las PYMES, aumenten su transparencia, por ejemplo en su gestión interna, para garantizar la igualdad retributiva son, más que un hecho, una obligación normativa.


Desde el 14 de abril todas las empresas están obligadas a llevar “un registro retributivo de toda su plantilla incluidos sus directivos y altos cargos”, por la entrada en vigor del nuevo Real Decreto de Igualdad Retributiva (902/2020, de 13 de octubre), que pretende acabar con la brecha salarial entre hombres y mujeres en trabajos de igual valor.


El motivo de esta obligación hay que buscarla en la aprobación de la norma sobre igualdad salarial del mes octubre del año pasado


Este nuevo registro salarial tiene que incluir los valores medios de los salarios, desagregados por sexo, así como los complementos salariales y las percepciones extrasalariales de toda la plantilla que compone la empresa


Además, tiene que incorporar estadísticos concretos como la media aritmética y la mediana (tomando el valor global de lo percibido) por cada grupo profesional, categoría profesional, nivel, puesto o cualquiera otro sistema de clasificación por periodo temporal definido, que será el año natural con carácter general, aunque puede modificarse según necesidades concretas de la empresa en cuestión.


La norma señala que deberán ser consultados, al menos con 10 días de antelación a la confección del registro, los representantes sindicales de la empresa que ya tenga representación sindical especificando, al tiempo, que los trabajadores tendrán acceso al mismo a través de ella y que podrán conocer todo su contenido íntegro.


Si la empresa no cuenta con representación sindical, deberá igualmente facilitar las diferencias porcentuales que puedan existir entre las retribuciones ya promediadas de hombres y mujeres.


Sin embargo, si en la empresa obligada, la media aritmética o la mediana de las retribuciones totales de los trabajadores de un sexo son superiores a las del otro en un 25%, el registro debe incorporar la justificación del porqué de la diferencia y explicar que no se debe a motivos derivados del sexo de los trabajadores.


De tal manera, la obligación de tener un plan de igualdad se extiende a todas aquellas empresas que cuenten con plantillas de más de 100 trabajadores. Obligación que se extenderá desde el próximo 8 de marzo del próximo año (2022) a las empresas de entre 50 y 100 trabajadores.


Por tanto, las auditorias retributivas o salariales son obligatorias por estar incluidas en el plan de igualdad (teniendo su misma vigencia) y son la herramienta necesaria para obtener la información que nos asegure que cumplimos, de manera efectiva, el principio de igualdad entre mujeres y hombres en materia de retribución.


Por todo lo anterior, en la práctica de aplicación de la norma supone que se establezca un punto de inicio o de diagnóstico de la situación actual retributiva en la empresa y, sólo en el supuesto que existan diferencias, deberemos organizar un plan de actuación orientado a la corrección de aquellas desigualdades salariales identificadas: determinación de objetivos, actuaciones concretas asociadas, establecimiento de un cronograma de actuación, además de la identificación de las personas responsables para su implantación, en primer lugar, y su  seguimiento y cumplimiento final.


No quisiéramos terminar sin mencionar que, para la norma, los trabajadores a tiempo parcial tienen los mismos derechos que los trabajadores a tiempo completo y que será el principio de proporcionalidad el que determine sus retribuciones cuando lo exijan la finalidad o naturaleza de éstas y así se establezca por disposición legal, reglamentaria o por el convenio colectivo al que pertenezcan.


Con esta información retributiva, en el caso de existir brecha salarial y no tener previsto un plan de actuación para eliminarla o, simplemente, por la ausencia de esta, la Administración se reserva la posibilidad de llevar a cabo procedimientos de oficio y acciones administrativas y judiciales, incluyendo sanciones por discriminación.

 

¿Tu empresa necesita una Auditoría Salarial?


Lo primero que debes saber es que todas las empresas, con independencia de su tamaño, tienen que tener el registro retributivo, anteriormente hemos comentado, que explicite y desglose por sexo los datos promedios de los sueldos reales percibidos por tus trabajadores.


Y si además tu empresa cuenta con más de 50 trabajadores tienes que ir incluir en tus Planes de Igualdad una Auditoría Retributiva para asegurar y garantizar la igualdad retributiva entre tus trabajadores de ambos sexos. (con medias aritméticas y medianas salariales por posiciones de trabajo de igual valor).


Si aún no tienes un registro retributivo o contando con más de 50 trabajadores no has hecho una auditoria retributiva o salarial podemos ayudarte en QLC. Te ofrecemos un completo análisis, por grupos/categorías profesionales y puestos de trabajo, de los salarios de tus trabajadores para, primero, saber si hay brecha salarial y si existe, entonces, hacer un plan de acción que la corrija…


Artículo realizado por el Departamento Jurídico de QLC SLP.


Plan de marketing: un enfoque más actual

El plan de marketing es una herramienta “esencial” para la gestión de cualquier empresa que sitúe como centro de su estrategia al cliente y, por tanto, sienta que debe estar orientada al mercado, ser competitiva y, como consecuencia, aspire a perdurar en el tiempo.


Debe ser entendido de manera tan amplia, precisa y ambiciosa como ya nos avanza su propio nombre: plan.


El plan de marketing, además, es un documento dinámico, porque tiene que ser actualizado al menos 1 vez al año, donde no sólo se incorporan los diferentes estudios de mercado que se hayan podido hacer en ese periodo sino donde se explicitan tanto los objetivos de marketing a conseguir en el nuevo ejercicio (consecuencia del plan estratégico de la compañía), como las estrategias a implementar y la planificación necesaria para hacerlas realidad.


Se puede decir que “traza la hoja de ruta para toda la empresa durante ese año con la justificación de todas las acciones a realizar para conseguir los objetivos marcados, además de incorporar un plan de contingencias donde se expresen las posibles desviaciones en cada uno de los objetivos y las soluciones previstas a cada una de ellas”.


Los objetivos tienen que ser: específicos, medibles, alcanzables, relevantes y definidos en el tiempo. Recuérdalos como (SMART).


El marketing, a diferencia de lo que habitualmente se pueda pensar, tiene que medir, seguir y analizar, constantemente, las desviaciones detectadas. Tiene que definir los KPI que la empresa debe incluir en su “dashboard” o panel de control”.


Mi intención, por la concreción que nos impone nuestro propio blog, es sólo mostrar lo que podríamos denominar “la estructura básica” que debería observar un plan de marketing, y como también es propósito que sirva para cualquier sector, me extiendo brevemente en algunos de sus apartados que serán:


1.     Marketing analítico: donde se incorporar toda la investigación sobre la propia empresa (análisis interno, socioeconómico, de nuestros consumidores) y sus productos/ servicios (estudios de precio, notoriedad, atributos, ciclos de vida, proceso de compra y análisis de los canales de distribución), del mercado (o mercados) en los que opere y la competencia en cada caso. En esta parte se utiliza la famosa matriz DAFO (también conocida como FODA ó SWOT = debilidades, amenazas, fortalezas y oportunidades) como herramienta con la que saber cómo diferenciarnos…


2.     Marketing estratégico: que define la estrategia que hace posible la consecución de los objetivos previstos (¿qué ventaja competitiva tiene la empresa?, ¿cuál será la opción estratégica de crecimiento? (p.e. de diferenciación, penetración del mercado, lanzamiento de un producto, etc.), ¿Cómo vamos a segmentar nuestro target ó público objetivo?  ¿sabes qué/quién es tu “buyer persona”? (aconsejo que investiguéis este concepto), ¿Cuál es tu estrategia de posicionamiento?


3.     Marketing operativo: donde se detallarán las acciones a desarrollar, la programación en el tiempo y su viabilidad económica. Es en este punto donde, entre otros, se estudian las 4 P del marketing (producto, precio, distribución y comunicación). ¿Cuáles serán las políticas asociadas a las 4P?, una parte muy importante es la política de ventas y organización comercial: Fijación pormenorizada de los objetivos de ventas a corto y medio plazo, dimensión y estructura de ventas, creación del argumentario de ventas y de los elementos de apoyo a las ventas (PLV, ofertas, promociones, etc.), el cálculo del coste de las ventas. En la parte de comunicación son importantes el “Copy Strategy” y su “Reason Why”  el beneficio que promete tu marca es la base principal para argumentar los motivos de compra y la exposición de las características del producto eje sobre el que construir las campañas publicitaria y creativa en el L/P y además, desarrollar ESTRATEGIAS Y ACCIONES DE MARKETING TRADICIONAL (definición de canales y acciones de comunicación, promoción de ventas, merchandising) y ESTRATEGIAS DE MARKETING DIGITAL (marketing web, SEM, SEO, Inbound Marketing, Social Media y Mobile).

 

Sin el rumbo de un adecuado plan de marketing y el control tanto de sus objetivos, la manera en la que queremos ponerlo en marcha como, lo más importante, el control de sus resultados nunca sabremos cómo hemos llegado a dónde estamos y por qué hemos llegado hasta allí.


Por mi experiencia, me atrevería a decir que sólo se empleaba en empresas de determinado tamaño y facturación anual. Ahora, cada vez son más las PYMES las que entienden que es una herramienta de indudable valor y que incorporarla en su gestión es mucho más que una necesidad.

 

 

Artículo realizado por Javier Espina Hellín CEO QLC SLP, doctor en Ingeniería de Sistemas de Información, MBA, ADE nº colegiado 11.534 y Licenciado en Gestión Comercial y Marketing

Business Intelligence (BI), Business Analytics (BA) y Artificial Intelligence (AI): cómo rentabilizar los datos con el Big Data en el post Covid 19.

Con la transformación digital y la democratización de las nuevas tecnologías el volumen de datos que genera y gestiona la empresa, a través de todos sus canales, se ha multiplicado hasta alcanzar cantidades nunca imaginables hace muy poco tiempo.

Intuitivamente, aquellos que dirigen las organizaciones, son conscientes de las ventajas que el Big Data, la inteligencia de datos e incluso la Inteligencia Artificial significan para la empresa en términos de productividad, eficiencia, oportunidades de crecimiento con menor coste, mayor productividad y mejora cualitativa en la toma de decisiones.

Y todo esto tiene un nuevo significado en el actual panorama competitivo multicanal definido por una completa revisión y reestructuración de procesos y operaciones fruto del obligado “test de estrés” COVID 19.

Saber, por ejemplo, cuáles son las preferencias o poder predecir el comportamiento de compra de nuestros potenciales o actuales clientes en nuestra web es vital.

Las tecnologías asociadas al procesamiento Big Data, con técnicas de ciencia de datos que hacen posible tanto la exploración inteligente de la información como la obtención de todo su valor nos permite saberlo, con un conocimiento más consistente, y actuar ofreciéndole productos o servicios a medida de sus gustos y necesidades, es decir, un mejor servicio a nuestro cliente.

Por tanto, es cada vez más necesario incorporar a la empresa herramientas de procesamiento de datos e implementar una adecuada “estrategia de análisis y de predicción” que hagan posible la toma de decisiones en aspectos clave.


¿Cuál es el proceso de trabajo?

Siempre el primer paso, en Business Intelligence, es recoger los datos en bruto (Raw Data) para después, una vez almacenados, podamos usar las herramientas de ETL (Extraer, Transformar y Cargar) que nos permitan manipular, transformar y clasificar los datos en una base de datos estructurada, habitualmente llamada, Data Warehouse.

En este punto intervienen “los analistas de negocio” que, incorporando distintas técnicas de visualización de datos, exploran la información almacenada en las bases de datos estructuradas generando así paneles visuales (Dashboards). El objetivo es hacer esa información “más digerible”, más accesible y entendible para poder analizar y entender los resultados obtenidos en el pasado de la compañía pero que servirán para definir la estrategia futura que mejore aquellos indicadores que hemos definido como indicadores clave de nuestro negocio (KPI).

Con el Machine Learning, además, se detectan “patrones” en millones de datos, una importante característica respecto al BI tradicional, que nos brinda la potencia del análisis predictivo. En otras palabras, no solo tenemos la valoración de lo ya acontecido sino que podemos hacer predicciones individualizadas de comportamientos futuros.

Uno de los mayores potenciales del Machine Learning es que los Dashboards son sustituidos por aplicaciones predictivas y modelos que, alimentados por algoritmos que aprenden automáticamente de los datos, se pueden “reentrenar”, periódicamente, para que continúen aprendiendo de nuevos datos (aprendizaje continuo).

Sólo por poner un ejemplo real quisiera compartir una experiencia de investigación, con financiación europea y de tres años de duración, en el ámbito de la sanidad.

Se trata del desarrollo de una aplicación (App) para el seguimiento de pacientes oncológicos en tratamiento, con herramientas de Big Data e Inteligencia Artificial, en el que participa el servicio de oncología del Hospital Gregorio Marañón con el fin de “mejorar la calidad de vida y la atención a estos pacientes durante su enfermedad" detectando, precozmente, alteraciones de salud como la depresión.

Entre los diferentes datos y parámetros que se analizan se encuentran la calidad del sueño, la nutrición, el apetito, el estado anímico del paciente o la evolución en el ejercicio físico.

El coordinador del proyecto es WATERFORD INSTITUTE OF TECHNOLOGY, en Irlanda, y los datos se almacenarán en los dispositivos portátiles que lleven los pacientes en cada uno de sus hospitales de referencia y en todos los países participantes de estudio: España, Italia, Irlanda, Portugal, Grecia y Chipre.

El concepto del proyecto se basa en el aprendizaje automático. Los dispositivos de cada paciente individual ejecutarán sus modelos de IA personalizados que, más tarde, se agregarán a un modelo de IA global. El modelo de IA analizará los marcadores de depresión que predicen tendencias negativas y que permitirán la intervención oportuna del equipo médico. (Proyecto FAITH, Federated Artificial Intelligence Solution for Monitoring Mental Health Status after Cancer Treatment, https://cordis.europa.eu/project/id/875358/es).


Gestión de Riesgos en la Empresa

La reciente crisis financiera internacional ha puesto de manifiesto la existencia de deficiencias en los sistemas de control y supervisión de muchas empresas que han lastrado importantes sectores de actividad.

La respuesta de las instituciones de gobernanza financiera internacional ha sido un endurecimiento, en la práctica, de los mecanismos de cumplimiento normativo y de la responsabilidad penal de las empresas y sus directivos.

Por el impacto directo que, ambos factores, pueden llegar a tener tanto en la Cuenta de Resultados de la compañía como en la propia supervivencia en su mercado, la GESTIÓN DE RIESGOS SE HA CONVERTIDO EN UN ÁREA CLAVE.

La gestión de Riesgos puede definirse como el proceso de planificación, organización, dirección y control de los recursos humanos y materiales de la empresa, con el fin de reducir al mínimo “aceptable” los riesgos e incertidumbres a los que se enfrenta la organización y mejorar su capacidad de generar valor.

Un valor se maximiza cuando se alcanza el equilibrio entre los objetivos de crecimiento, la rentabilidad de la inversión y el nivel de seguridad necesaria para controlar los riesgos asociados.

En este caso nos ocupamos de la Gestión de Riesgos derivados de los siguientes 4 factores: Compliance Penal, D&O, RC profesional y Ciberseguridad.

1.       Corporate Compliance: contar con un Plan de Cumplimiento Normativo, es disponer de un conjunto de herramientas “preventivas”, cuyo objeto es garantizar la propia actividad empresarial a largo plazo.

2.       D&O: protege a propietarios, directivos y administradores de una empresa de los actos incorrectos (propios o de sus equipos de trabajo) durante el ejercicio de sus cargos frente a potenciales reclamaciones de terceros que pueden poner en peligro, incluso, su propio patrimonio, conyugales o de la pareja de hecho.

3.       RC Profesional: que blinda al profesional liberal ante la responsabilidad civil derivada de su propia actividad y que no está cubierta con la RC de la empresa.

4.       Ciberseguridad: salvaguarda a la compañía ante las consecuencias de un ataque, infección por virus o Dd2 y las distintas acciones ilegales en el universo cibernético. Se estima que el coste anual del cibercrimen alcanzará los 5,4 billones de euros desde 2019 al 2021.


¿Cómo les ayudamos desde QLC?

1.       Identificar riesgos, analizar el impacto de los cambios normativos y determinar las medidas de prevención y correctivas frente a potenciales acciones de corrupción, fraude o constitutivas de delito: determinación del GAP y elaborar el MAPA DE RIESGOS de la compañía.

2.       Elaborar + desarrollar + implementar aquellos “protocolos internos” para el correcto desempeño de sus tareas, así como los planes de prevención que contribuyan a eximir de posibles responsabilidades penales.

3.       Salvaguardar la reputación corporativa y ser los interlocutores de referencia con reguladores y supervisores para gestionar los conflictos internos en la empresa y desarrollar los cauces internos de denuncia.

4.       Además, de ayudar a la Compañía a luchar contra el blanqueo de capitales, el cibercrimen y por una adecuada protección de datos de carácter personal (RGPD).

Mystery Shopping o cómo evaluar y medir la calidad en la atención al cliente: los 6 mínimos del grupo INDITEX

Lo primero que nos puede venir a la cabeza es preguntarnos por qué asociamos el “Shopping”, un término anglosajón ya incrustado en nuestra cultura popular global, con “Mystery” que aun no sabiendo ingles podemos interpretar por su similitud fonética con el español.


El “Mystery Shopping” como técnica y el “Mystery Shopper”, (comprador/ cliente misterioso) en su rol de actor principal, es un profesional del marketing y/o investigación (de mercados) que comenzó con su trabajo ya en la década de los 40, del siglo pasado, aunque su inicial ámbito de aplicación consistía en medir la integridad de los empleados de la compañía que estudiaban.


Fue más adelante, cuando las empresas que lo encargaban descubrieron que, además, podía ser muy útil para obtener información específica sobre el nivel de servicio, que ellas mismas proporcionan, a sus clientes en sus distintos puntos de venta.


En definitiva, y en el ámbito que nos interesa, a través de sus actuaciones la organización cliente recibe un completo y detallado informe sobre la experiencia de compra que tienen sus clientes reales en sus diferentes puntos de venta.


Ese es el “feedback” que entregamos a nuestro cliente: el compuesto por las experiencias reales de un equipo de “Mystery Shoppers” que adoptan el rol de “clientes” cuando realizan una compra o consumen determinado servicio e, incluso contener el “mapa” del proceso completo de todas las fases por las que transita un sujeto desde que identifica su necesidad hasta que compra el producto o servicio que la satisface (Costumer Journey).


Un “transito” que puede ser tan corto como el de una compra por impulso o disfrutar de una cena en determinado restaurante o tan largo en el tiempo como la compra de un coche o la contratación de un gestor empresarial que nos puede llevar meses. Es una herramienta muy interesante del denominado “Design Thinking”.


El hecho de hacerse pasar por un cliente es para conocer, de primera mano, la calidad del servicio que la organización que nos contrata a nosotros presta en su día a día o para averiguar el comportamiento que tiene la competencia y poder saber qué puede funcionar mejor y qué no funciona.


El foco está en medir y evaluar la calidad en la atención al cliente.


Es importante señalar que es una de las técnicas más eficaces, más poderosa y más objetivas (en el trabajo de campo) de las que disponemos. Siempre se hace “de incógnito”, sin avisar y bajo unos parámetros controlados y homogéneos en todos los lugares sujetos a investigación.


Los resultados obtenidos no se pueden conseguir con ninguna otra herramienta y, además, puede ser combinada con otras técnicas.


Es esencial ser muy rigurosos y sistemáticos en las diferentes iteraciones.


¿Por qué debemos incorporar la variable de las iteraciones?


Para obtener resultados concluyentes el “Mystery Shopper” tiene que visitar la misma tienda en diferentes ocasiones, en distintos momentos de la jornada de venta para medir la respuesta de los empleados, por ejemplo, variando uno de los condicionantes externos:

·    la mayor o menos densidad (afluencia) de clientes

·   “representando” distintos perfiles de cliente (cliente preguntón, cliente racional, cliente exigente, cliente irascible, cliente maleducado que se queja por todo, etc.) para testar qué respuesta recibe en cada caso.


Por sectores podemos decir que los que más utilizan el “Mystery Shopping” son:

·       retail (por ejemplo, cadenas de tiendas)

·       automoción

·       hostelería (restaurantes)

·       distribuidoras de cines

·     sanidad (hospitales, centros de salud, consultas médicas, clínicas dentales, oftalmológicas, etc.

·       Web-Ecommerce, etc.


Por lo que podríamos denominar a los distintos investigadores con nombres como:

·       Mystery Shopper

·       Mystery Guest

·       Mystery Dinner

·       Mystery Market

·       Mystery Web-Ecommerce

·       Mystery Calling

·       Mystery Patient, etc…


¿Cómo se hace?


Los diferentes “Mystery Shopper” tienen que codificar (expresando cada tema en una escala numérica) la experiencia que han tenido agrupada por conceptos como:

·Atención al Cliente: ¿Cuánto tiempo esperaste para ser atendido?, ¿Grado de amabilidad? ¿Le acompañó a la entrada y salida? ¿Cómo de rápido fue el proceso de compra/ asesoramiento/ información? (Nombre del empleado)

·Formación del producto: (nombre del producto) ¿grado de claridad en la explicación? ¿le resultó útil para comprar el producto? ¿Le ofrecieron información postventa/instalación/ reparaciones, etc?

·Venta cruzada: ¿Le ofrecieron otros productos complementarios por el que se mostró interesado/a?, ¿Le resultó útil?

·Cierre de venta: ¿Finalizó el empleado la venta?,¿Le invitó a volver a visitar la tienda?

·Organización de personal: ¿Cuántos empleados hay en la tienda? ¿Van uniformados? ¿Visten adecuadamente el uniforme?

·Orden y limpieza: ¿la tienda estaba limpia?, ¿el lineal/estantería estaba ordenado? ¿olía bien? ¿Nivel del sonido musical? ¿Nivel de temperatura dentro de la tienda?, ¿Nivel de temperatura dentro de los probadores?


Con todos los resultados agrupados por áreas de estudio se elabora un informe en el que se expresan:

·       los resultados obtenidos en el trabajo de campo

·       se identifican áreas de mejora identificadas


se incorporan las recomendaciones que corrijan esas desviaciones y sirvan para incrementar el grado de satisfacción durante el proceso de compra y se traduzca en una subida de las ventas de la empresa cliente.


Valor añadido y supervivencia


En QLC sabemos que en un mercado cada vez más homogéneo, la necesidad de diferenciación es vital para la supervivencia de la empresa.


Incorporar ese valor es lo que marca esa diferencia, respecto a nuestros competidores, y es la llave que nos puede garantizar un lugar en el futuro más inmediato.


Conocer qué sensaciones tiene nuestro cliente en su “Customer Journey” es esencial para poder diseñar nuestro propio “journey” (negativas, positivas y aquellas que se puedan mejorar)


Casi, por mantener la prudencia, en cualquier ámbito donde el binomio producto/ servicio -precio es relevante, y tanto en el on-line como en el off line, el servicio de atención al cliente es un factor clave para la cifra de ventas y la rentabilidad de la compañía


No quisiera terminar este breve blog sin recordar lo que Covadonga O´Shea, en su libro “Así es Amancio Ortega”, nos apunta sobre la filosofía que el hombre que creó el “imperio Zara” supo transmitir al estilo comercial que, todavía hoy, sigue funcionando en todas las tiendas que bajo sus distintos 8 nombres comerciales (Zara, Pull&Bear, Massimo Dutti, Bershka, Stradivarius, Oysho, Zara Home y Uterqüe) dan servicio diario a millones de clientes satisfechos, demostrando que la casualidad no es la razón de su merecido éxito.


Les dejo reflexionando sobre los “6 mínimos” del Grupo Inditex:

1.     Siempre, una mirada amable

2.     En la caja, una sonrisa

3.     El bolígrafo en la mano

4.     La encargada es la persona que más tiene que atender

5.     Los probadores son un punto de venta importante

6.     En toda la tienda, “paciencia”

Artículo realizado por Javier Espina CEO en QLC SLP

 

Compliance Penal, exposición al delito en la empresa y el canal de denuncias

Si el término Compliance podemos definirlo como la observación del cumplimiento normativo o el conjunto de herramientas preventivas que persiguen garantizar que tanto la actividad de la empresa como quienes la hacen posible observando, siempre, cuantas normas legales, políticas internas, códigos éticos, buenas prácticas y otras disposiciones que hayan decidido cumplir de forma voluntaria o de manera obligatoria, el Compliance Penal, incorpora a esas herramientas, la prevención ante infracciones de carácter penal y evitar, en consecuencia, potenciales sanciones que puedan afectar a la empresa como persona jurídica y a sus gestores u órganos de gestión como personas físicas.


Es por esa responsabilidad por la que, quizá, una de las primeras preguntas que el CEO de una empresa española debería hacerse es: ¿tenemos un “plan de prevención” o un PLAN COMPLIANCE con el que hacer frente a los potenciales riesgos penales que tenemos como empresa?, ¿estoy protegido como CEO?, ¿lo están los demás miembros del consejo?


El contar con un COMPLIANCE PLAN dentro de la empresa es una garantía doble


Además de saber cómo se opera internamente en la organización y se toman las decisiones de negocio se pueden detectar fraudes, incidencias en la gestión operativa y/o comercial con lo que aumentamos el control sobre los potenciales riesgos legales y reputacionales a los que estamos expuestos.


En definitiva, un COMPLIANCE PLAN es un sistema de gestión que le permitirá a la empresa una mayor visibilidad en su funcionamiento, más transparencia en sus procesos, un mayor control de sus riesgos y demostrar ante terceros, autoridades u otras empresas o instituciones un grado de cumplimiento conforme a un estándar que certifican el compromiso, de la empresa y de sus órganos de gestión, con la legalidad y las mejores prácticas del sector en el que desarrollan su actividad.


Un tema de gran importancia y trascendencia ya que este tipo de garantías son exigidas, cada vez con más frecuencia, por clientes finales o por instituciones en sus procesos de contrataciones públicas como fórmula de lucha contra la corrupción y el blanqueo de capitales.


Pero, no quisiera olvidarme de tres aspectos esenciales: la implicación de la alta dirección, el canal de denuncias y la protección de los denunciantes.


En la observancia del cumplimiento normativo, es capital incorporar lo que en el mundo anglosajón se denomina la cultura del “Tone at the Top” o poder contar con la implicación de la dirección en ese compromiso de cumplimiento, así como con la formación trasversal y la sensibilización continuas, ya que son mejores herramientas para su implantación efectiva.


Por otro lado, tenemos el canal de denuncias y la protección de los denunciantes que se recogen en la “Propuesta de Directiva”, aprobada por el Parlamento Europeo el 23 de abril pasado.


En el COMPLIANCE PENAL el canal (interno/externo) de denuncias es un elemento clave porque puede ser una herramienta más que fiable para medir la eficacia de un programa de prevención de delitos en la empresa, ya que se constituye como el “medio para que los Stakeholders” de la empresa u organización (empleados, clientes, proveedores, etc.) puedan denunciar cualquier tipo de irregularidad o delito en su ámbito de relación.


Gracias a este canal la empresa obtiene información de gran valor sobre la exposición que tiene ante “los posibles ilícitos penales” y que le permitirá adoptar medidas y/o procedimientos.


Por eso, es necesario proteger a aquellos que quieran denunciar alguna actividad ilegal relacionada con:

·       contratación pública

·       servicios financieros

·       banqueo de capitales y/o financiamiento del terrorismo

·       seguridad del producto

·       seguridad del transporte

·       protección del medio ambiente

·       seguridad nuclear

·       seguridad de alimentos y piensos, salud y bienestar animal

·       salud pública

·       protección del consumidor

·       protección de la privacidad y de los datos personales

·       seguridad de las redes y los sistemas de información


¿De qué forma?

Garantizando la absoluta confidencialidad de los denunciantes


¿Cómo?

Estableciendo “canales de denuncia y procedimientos internos” que así lo aseguren.


De hecho, la Directiva obliga a empresas y organizaciones de más de 50 empleados o con un volumen de negocios anual superior a 10 millones de euros o más a que tengan estas medidas implantadas.


Por tanto, es esencial contar con un sistema integral, seguro y anónimo, que cierre el círculo virtuoso del canal de denuncias:

·       recepción

·       gestión

·       investigación

·       resolución de denuncias


¿El porqué de tener en la empresa un canal externo de denuncias?


Las razones se pueden agrupar en torno a dos ejes que son el propio denunciante como sujeto y el ahorro de costes que supone su adopción porque:

·       disminuye sustancialmente la barrera psicológica de la represalia ante la acción de la denuncia porque…

·       garantiza la confidencialidad y protección al denunciante es expresa ya que todo se gestiona con medios humanos y técnicos externos y no dependientes de la propia empresa cliente.

·       ofrece una primera vía (propia, aunque sea delegada externamente) para solventar problemas que de otra manera acabaría en los Tribunales y/o los medios de comunicación.

·       prueba de manera eficaz “la debida diligencia” de la empresa en su responsabilidad penal.

·       supone un ahorro de costes al no tener que utilizar medios propios para todo el procedimiento que implica la recepción y trámite de la denuncia.


Qualitas Lex Consulting es una consultora especializada en COMPLIANCE y COMPLIANCE PENAL , que te acompaña desde el diseño hasta la implementación de los planes de prevención de responsabilidad penal y la gestión de un canal de denuncias externo.

 

 

Artículo realizado por Javier Espina CEO en QLC SLP


RGPD y Modelo de Cumplimiento QLC

El Reglamento General de Protección de Datos (RGPD) implica a cualquier organización que opere en la Unión Europea y las que, aun no teniendo su domicilio físico en la Unión, utilicen datos de ciudadanos europeos. Sustituye a la LOPD que sólo tenía efecto en el territorio español.


Pretende hacer frente a un nuevo reto legal que plantea la captación, el tratamiento de datos de carácter personal por parte de empresas y nuevos operadores, de la nueva sociedad digital, garantizando la protección de los usuarios en materia de privacidad y seguridad de su información personal.


Comienza con la novedosa definición de lo que es un dato personal como “cualquier información que permita identificar de forma unívoca a un usuario, incluso de manera indirecta”.


Algunos ejemplos serian una IP, un código de usuario o una localización física temporal.


Además, la RGPD obliga a que el consentimiento sea explícito, con una base jurídica explicada de forma concisa y nunca sobreentendida por lo que, en la práctica, si no contamos con el consentimiento, este no existe.


El nuevo RGPD propone una metodología operativa de cumplimiento para las empresas, que incluye la necesidad de hacer un análisis de impacto y de riesgo, certificaciones, registros de tratamiento de la información, protocolos de comunicación a las autoridades en caso de violaciones de seguridad y, la obligación a que sean auditadas periódicamente.


Contempla, también, cuantiosas sanciones y multas en caso de infracción que pueden alcanzar los 20 millones de euros o el 4% de la facturación de una empresa, siendo siempre la mayor de las dos posibilidades.


¿Qué supone el RGPD para las empresas?

La implementación y adecuación de la normativa implica un plan de transformación y actuaciones en la estructura organizativa, los procesos internos, la gestión de los datos estructurados/ desestructurados, análisis de los canales donde se captan esos datos, y por supuesto, protocolos de seguridad y comunicación de los eventos de ruptura.


En definitiva, gestionar el cambio (testing y formación), proyectos específicos de consultoría (internos y/o externos) que permitan diseñar las políticas y los procesos necesarios (por ejemplo, aumenta los niveles de comunicación previa con los clientes/usuarios y sus permisos) para garantizar el cumplimiento, y un “roadmap” como guía hacia una implantación exitosa del nuevo RGPD.


En ese camino hacia la transformación digital, la RGPD hace posible que las empresas, mediante una correcta explotación de los datos, puedan obtener cuantos “insights” necesiten para conocer, e incluso, predecir las tendencias y patrones de comportamiento de sus clientes (a través de herramientas tecnológicas para enmascaramiento de datos, almacenamiento agregado, anonimización y la explotación de vectores de información) pero respetando la protección personal de los usuarios sin vulnerar la ley.


3 novedades del RGPD

1.     Proactividad de la empresa o “medidas de responsabilidad proactiva” que son:

·       Análisis de riesgo.

·       Registro de actividades del tratamiento.

·       Protección de datos desde el diseño y por defecto.

·       Adopción de medidas de seguridad.

·       Notificaciones de “violaciones de seguridad de los datos”

·       Evaluaciones de impacto sobre la protección de datos.

·       Nombramiento del Delegado de Protección de Datos.

2.   Consentimiento expreso e “inequívoco”

·       Pedir los datos imprescindibles (mayor compromiso de las organizaciones, públicas o privadas, con la protección de datos).

·       Puede ser para uno o varios fines.

·       Debe ser prestado de forma libre.

·       Revocable.

·       El responsable debe poder probar en todo momento que ha obtenido el consentimiento.

·       Utilizar un lenguaje claro y sencillo

3.     Los clientes o usuarios están legitimados a ejercer sus derechos ARCO+2 (derechos de acceso, rectificación, supresión o “derecho al olvido”, oposición, portabilidad, limitación del tratamiento, y derecho de oposición a las decisiones automatizadas (incluyendo la elaboración de perfiles). Estos derechos se ejercitarán ante el responsable del tratamiento

 

Nuestro trabajo, con todo el equipo de Qualitas Lex Consulting, consiste en la adaptación e implantación del Reglamento General de Protección de Datos (RGPD) en su empresa.


Analizamos tanto los procesos internos de trabajo, por actividad de tratamiento, como los diferentes documentos que se utilizan en la gestión diaria de la empresa, por área funcional, teniendo en cuenta que existen 2 dimensiones en los riesgos (modulados por probabilidad y gravedad) para los derechos y libertades de las personas físicas:

·       riesgos asociados a la protección de la información (enfocados en la integridad, disponibilidad y confidencialidad)

·       riesgos asociados al cumplimiento con la regulación relacionado con los derechos y libertades de los interesados


Es muy importante señalar la necesidad de mantener documentados todos los procesos para poder acreditar la diligencia en el cumplimiento del RGPD y demostrar la proactividad en el cumplimiento normativo


Para ello, se contemplan una serie de actuaciones expresadas en lo que denominamos Modelo de Cumplimiento QLC, desarrollado en 5 fases, cuyo objetivo final es asegurar la observación, adecuación, revisión, actualización y cumplimiento conforme a la nueva normativa vigente desde el pasado 25 de mayo de 2018.


Dentro de las actuaciones previstas, hacemos una mención especial a la sesión formativa que extenderemos a todo el equipo de la empresa y en sus instalaciones.


Finalmente, incluimos en nuestra propuesta la posibilidad opcional de un asesoramiento permanente y exclusivo con el fin de mantener actualizada a la empresa en el cumplimiento de la normativa, y la construcción de una Política de Protección de Datos Personales.

 

 

Artículo realizado por Javier Espina CEO en QLC SLP

Plan de Igualdad en una empresa: ¿Qué es y para qué sirve?, ¿Es obligatorio?, ¿Qué sanciones tiene su incumplimiento?

La igualdad entre hombres y mujeres es un principio jurídico universal reconocido en el ámbito internacional, europeo y nacional.


Por circunscribirlo en nuestro espacio más natural, diremos que en la UE es principio fundamental desde el Tratado de Ámsterdam, 1 de mayo de 1997, y objetivo trasversal en todas las políticas y acciones de sus Estados miembros, y en el caso de España ya se incluye en nuestra Constitución en los artículos 14 y el 9.2.


Sin embargo, hasta el artículo 46 de la Ley Orgánica 3/2007, de 22 de marzo, no se hace un reconocimiento formal de la igualdad efectiva de mujeres y hombres mediante un Plan de Igualdad que lo define como “un conjunto ordenado de medidas, adoptadas después de realizar un diagnóstico de situación, tendentes a alcanzar en la empresa la igualdad de trato y de oportunidades entre mujeres y hombres y a eliminar la discriminación por razón de sexo”.


Por tanto, puede ser considerado como un conjunto de medidas de igualdad y acciones positivas, que persigue integrar el principio de igualdad entre mujeres y hombres en la empresa, así como como un elemento prioritario dentro del Plan Estratégico de la empresa ya que tiene que incorporar en las empresas formas nuevas de gestión para mejorar su eficacia organizativa.


Además, contribuye a la construcción de una imagen positiva de la entidad porque se consigue que la política de igualdad sea uno de los ejes de la cultura empresarial que, incorporada de forma permanente en la gestión del capital humano, garantizará de manera efectiva, que tanto las mujeres como los hombres cuenten con las mismas oportunidades en el acceso, participación y permanencia en todos los ámbitos de gestión.


Los Planes de Igualdad, por tanto, son el instrumento para la incorporación de la igualdad entre mujeres y hombres en el funcionamiento y gestión diaria de la empresa, y mediante ellos se fijarán los objetivos de igualdad a alcanzar, las estrategias necesarias y aquellas prácticas que necesariamente se deberán adoptar para su consecución efectiva.


Para ejemplificar las características que deben regir un Plan de Igualdad hemos elegido el Plan de Igualdad de Inditex (para muchos mejor conocido por la marca Zara) que denominan “EL LA” y que son las siguientes:

·       “Está diseñado para el conjunto de la plantilla y no solamente para las mujeres”.

·       “Adopta la transversalidad de género como uno de sus principios rectores y una estrategia para hacer efectiva la igualdad entre mujeres y hombres. Ello implica incorporar la perspectiva de género en la gestión de la empresa en todas sus políticas y a todos los niveles”.

·       “Considera como uno de sus principios básicos la participación a través del diálogo y cooperación de las partes (dirección de la empresa, parte social y conjunto de la plantilla)

·       Es preventivo, eliminando cualquier posibilidad de discriminación futura por razón de sexo”.

·       “Tiene coherencia interna, es dinámico y abierto a los cambios, en función de las necesidades que vayan surgiendo a partir de su seguimiento y evaluación”.

·       “Parte de un compromiso de la empresa, que garantiza los recursos humanos y materiales necesarios para su implantación, seguimiento y evaluación”.


Con carácter general, la aprobación de un Plan de Igualdad tiene por objeto:

  • Eliminar los desequilibrios en el acceso y participación de mujeres y hombres en la organización.
  • Asegurar que los procesos de gestión de recursos humanos (selección, clasificación profesional, promoción y formación, retribuciones) respetan el principio de igualdad de trato y oportunidades.
  • Favorecer, en términos de igualdad entre mujeres y hombres, la conciliación laboral, personal y familiar.
  • Prevenir el acoso sexual y del acoso por razón de sexo.

Con todo, la primera pregunta que respondemos en QLC a nuestros clientes es: ¿qué empresas están obligadas a elaborar y aplicar un Plan de Igualdad en estos momentos?


La respuesta necesita ser contestada teniendo en cuenta lo siguiente:

  • Las de más 250 personas en plantilla
  • Las obligadas por convenio colectivo
  • Aquellas en las que la autoridad laboral lo hubiera acordado en un procedimiento sancionador, donde se especificase la sustitución de las sanciones accesorias, por la elaboración de un Plan de Igualdad.


Sanciones previstas por incumplimiento

Las empresas pueden ser sancionadas si no cumplen con la obligación de contar con un Plan de Igualdad o por no respetar las medidas incluidas en su plan de igualdad con:

  1. Multas (desde 60€ hasta 187.515€) en función de la gravedad de la infracción cometida.
  2. Pérdida inmediata de cuantas ayudas económicas, bonificaciones o beneficios derivados de la aplicación de un Plan de Igualdad.
  3. Eliminación de los beneficios de los programas de empleo (de 6 meses a 2 años).
  4. No poder contratar con entidades del sector público (Ley de Contratos públicos 9/2017)


Para terminar, con una buena noticia, queremos comentar que se puede solicitar el “Distintivo de Igualdad de la Empresa”, marca o distintivo que reconoce, por un periodo de 3 años prorrogables, el esfuerzo de las empresas en la aplicación de políticas de igualdad.


Pero, esto será objeto, probablemente, de un nuevo blog desde QLC y mientras tanto, quedamos a vuestra disposición para el diagnóstico y la implantación de un Plan de Igualdad en vuestras empresas…

 

Artículo realizado por Javier Espina CEO en QLC SLP


Las 8 tecnologías claves para hacer posible el cambio de modelo: de la maximización del retorno al de valor compartido descentralizado.

¿Recuerdan la película de Woody Allen, memorias de un seductor, cuando el personaje de Mia Farrow le dice a Woody Allen que “no soporta ser una espectadora de la vida, que quiere vivir y no simplemente ver como los demás viven”?


Esa es la decisión: resolver si queremos ser simples espectadores de cuanto sucede (que es mucho y a gran velocidad) o actores principales en ese nuevo escenario de vida, porque nunca, antes, hemos tenido la posibilidad consciente de vivir un momento como éste en nuestra propia historia evolutiva. Todo sucedía en una escala de tiempo que sobrepasaba nuestra esperanza media de vida.


Por tanto, abundar en la idea de que el momento que vivimos es uno de los más apasionantes y retadores, nada tiene de nuevo porque estamos inmersos en la cuarta revolución industrial y, lo que para muchos, es el comienzo de lo posthumano (Homo Deus, Yuval Harari, ed. Debate, 2015), (https://youtu.be/p-4WY5rP_TI), (https://youtu.be/hxuKo_VdM9o).


La puesta de largo de todas las tecnologías que vamos a repasar aquí será en poco menos de 2 años. La primera meta es Japón 2020 y en un escaparate tan global como los Juegos Olímpicos, y serán todo un despliegue de tecnología: Panasonic con su silla de ruedas autónoma o su megáfono traductor, Sony y sus transmisiones en 8K, Toyota con su coche autónomo recorriendo las calles de Tokio y un largo etcétera…


Pero en los siguientes años el impacto transformador para todos nosotros, el mundo de los negocios y la administración será tan intenso como todo lo experimentado hasta la fecha. Imaginar un salto de más de 100.000 años puede resultar inabarcable...


Quizá la principal novedad, la esencial desde mi punto de vista, es que la disrupción entra a formar parte de nuestras expectativas.


Ahora, la innovación disruptiva es un término en nuestra ecuación vital.


Y está dentro porque sin ella nuestro presente y, menos aún, nuestro futuro más inmediato nunca hubiese sido posible.


Recuerdo la primera vez que me hablaron de innovación disruptiva. Fue hace casi 20 años cuando estaba cursando un MBA en EEUU. Se acababa de publicar “The Innovator’s Dilemma: When New Technologies Cause Great Firms to Fail” de Clayton Christensen, uno de los profesores de Harvard más influyentes y que lleva años liderando la lista Thinkers 50.


Una nueva tecnología nace para atender una necesidad, muy específica, en la parte baja de un mercado concreto. Y lo hace mucho más eficientemente que aquellas que a las que sustituye. El resultado es sencillo de adivinar: compite en estrategia de nicho, en margen y precio, porque sus competidores le dejan operar en una parte del mercado que para ellos no es tan interesante.


En poco tiempo, se encuentran que aquél que dejaron entrar va consiguiendo un volumen que le permite encontrar sus propias economías de escala, crecer y competir en otros segmentos. El paso final es el “cambio/ la disrupción” de las reglas de juego en ese mercado, y lo que estaba pensado para una categoría se convierte en un estándar. (Un ejemplo clásico es el del transporte aéreo).  


Pero, lo que hace creíble a Christensen es que cuando se refería a la tecnología y su funcionamiento “disruptivo”, lo hacía reinterpretando el modelo “evolutivo” que Malcolm McNair (“Trends in Large-scale Retailing,” Harvard Business Review, 10, 1931), en la década de los 30, utilizó para describir como se incorporan, desde abajo, los “nuevos jugadores” en un mercado retail y que denominó la “Rueda del Retail”. (Recomiendo la lectura de:“The only way is up: retail formatsaturation and the demise of the American five and dime store, 1914-1941.  Publisher: Cambridge University Press, 2017: http://dx.doi.org/10.1017/S000768051700054X)


Una particularidad que le añade “consistencia” porque, así, también se explican éxitos como los de D. Amancio Ortega en el sector de la moda con el grupo Inditex, con Zara a la cabeza, (y que ya está viendo como Primark se incorpora desde abajo) o en el de alimentación con operadores como Lidl, Aldi e, incluso, Mercadona en sus inicios, que iban sumándose a un mercado que dominaban grandes “players” como Carrefour.


Es decir, que no sólo se refería a la tecnología si no que puede ser aplicado a modelos de negocio.


El mercado, y no olvidemos que es un eufemismo detrás del cual estamos todos nosotros como consumidores, sólo está dispuesto a pagar más por productos o servicios claramente distintos, diferentes y/o genuinos, porque en caso contrario, sólo acepta (queremos como consumidores) el producto/ servicio que contenga el “binomio del milagro”, es decir, lo más barato posible y con una calidad suficiente (porque lo convierte en un “commodity market”).


A pesar, de las controversias que tanto Christensen como la propia teoría de innovación disruptiva ha venido suscitando, y especialmente, la del artículo publicado en 2015 por los profesores King y Baatartogtokh en la MIT Sloan Management Review, (How Useful Is the Theory of Disruptive Innovation?, Magazine: Fall 2015, Research Feature           September 15, 2015, Andrew A. King, Baljir Baatartogtokh) donde advertían que el respaldo empírico de la teoría era cuestionable, personalmente, creo que por diferentes razones sociológicas, por el actual crecimiento exponencial de nuevas empresas con base tecnológica (Startups) y la confluencia de distintas tecnologías, pronto maduras y disponibles, estamos en el umbral que marcará un antes y un después en cómo un cambio tecnológico nos permitirá hacer posible algo que, poco antes, era, simplemente, imposible.


Y aquí, me acuerdo de las palabras de Carlos Barrabés, cuando decía que estamos bajo la “tormenta tecnológica perfecta”.


Si una tormenta necesita la coexistencia de dos masas de aire de diferentes temperaturas y presiones para desatar una enorme actividad cuando un centro de baja presión se genera dentro de un sistema de alta presión, imaginemos el contraste “térmico y la interacción de las masas de aire” que pueden generan 8 tecnologías diferentes operando en un mismo entorno global,  interconectado en tiempo real y embebido en 5G: vientos, lluvias e incluso descargas eléctricas que supondrán un cambio mucho más acelerado, profundo y radical que cambiará nuestro mundo para siempre, y con consecuencias difíciles de imaginar.


La ecuación podría ser:

La Nube + IoT (el Internet de las Cosas) + Big Data + AI (Inteligencia Artificial) + 5G + VR (Realidad Virtual) + Seguridad + Blockchain = Modelo de Valor Compartido.

Donde:

La Nube = tecnología de la globalización

IoT = el desarrollo del sistema nervioso de internet y un humano potenciado

Big Data = tecnología de la personalización

AI (Machine Learning + Deep Learning) = tecnología de la automatización

5G = la omnipresencia para el envío masivo de datos: alta velocidad (1 Gbps), baja potencia y baja latencia (1ms o menos) que hará realidad el IoT masivo, el Internet táctil y la robótica.

VR = tecnología de la experiencia

Blockchain = tecnología de la identidad. Un “notario virtual” que registra transacciones digitales y que va más allá del Bitcoin

Seguridad = factor crucial. Si hoy hay unos 6,4 mil millones de dispositivos conectados a internet, con el 5G la cifra aumentará a 20,8 mil millones.

 

Como decía, 8 tecnologías que en un sinfín de combinaciones nos cambiarán para siempre a nosotros y la sociedad que ahora conocemos. De hecho, una de las ideas más reveladoras del discurso del señor Barrabés, a propósito de lo que aquí exponemos, es la de la sustitución del actual modelo de maximización del retorno por la de valor compartido de Porter.


Me he tomado la licencia de incluir el esquema que él mismo presentó en una de sus conferencias, y que nace de la premisa (para algunos demasiado naif) que “todo lo anterior tiene sentido si se pone al ser humano en el centro y se construye futuro creando experiencias compartidas… “


Lo cierto, es que la creación de experiencias memorables para nuestro cliente, el compartir valores, la co-creación de esa experiencia o el engagement encajan como un guante con las últimas tendencias en marketing, marketing sensorial, neuromarketing o estrategias de branding.  


Pero, la enorme complejidad de los nuevos modelos de negocios, la velocidad en el desarrollo y aplicación de las tecnologías y su impacto en los mercados obligarán a las empresas a trabajar en nuevo ecosistema productivo, en red, donde el objetivo esencial será poder identificar quien o quienes te podrán ayudar a hacerlo mejor, más rápido, más atrayente, aunque, quizás, no más barato (porque para nuestros clientes será un producto genuino y diferente).


Y éste es uno de los puntos más controvertidos del nuevo modelo de valor compartido porque no se buscará tanto el beneficio como la cooperación, la colaboración o la reciprocidad. Michael Porter propone la posibilidad de retornar a la sociedad parte de los beneficios que recibe de ella en la búsqueda de sus objetivos empresariales para fortalecer el sistema económico y los mercados en los que opera en el corto y largo plazo con el fin de ser sostenibles en el tiempo por generar más negocio y mejores condiciones empresariales. (TED, 2013, Michael Porter: Why business can be good at solving social problems. Scotland. Recuperado a partir de https://www.youtube.com/watch?v=0iIh5YYDR2o.)


Una manera de entender la colaboración que empresas como Google, GE, Johnson & Johnson, Coca-Cola Brasil, Natura Brasil, Wal-Mart, Unilever, IBM e Intel o Nestlé con su proyecto Desarrollo Rural, ya están poniendo en marcha (Escudero & Lama, 2014; Porter & Kramer, 2011).


La primera derivada es casi intuitiva.


La organización del trabajo, el concepto de liderazgo y la centralidad también cambiarán.


Necesitarán una orientación más abierta, más inclusiva, más colaborativa, descentralizada y responderán a un planteamiento real de ganar- ganar (win-win) y de aprender a crear soluciones en asociación.

El cambio será horizontal y no jerárquico o no será; buscando la solución a través del valor compartido y no la maximización del beneficio.


Y, además y como resultado más inmediato de la AI, por primera vez, estamos en la antesala de otro fenómeno completamente desconocido: la eliminación del capital humano como factor de la ecuación de productividad y la generación de riqueza. (Teoría económica clásica – donde Smith, Ricardo, J.S. Mill y especialmente Yoram Ben Porath son sus principales referentes). Yoram Ben Porath es considerado como uno de los "hacedores" de la teoría del capital humano por su aporte sobre la producción del capital humano y por la vinculación efectuada entre éste y el crecimiento económico. Su modelo se fundamenta, metodológicamente, en encontrar el punto óptimo de inversión en capital humano durante el ciclo de vida de los individuos. ("The production of Human Capital and the life-Cycle of Earnings." Journal of Political Economy. Ben Yoram Porath, 1970).


¿Es la evolución de un modelo capitalista? y ¿podemos decir que se trata de un modelo de valor compartido o de una estrategia de negocio socialmente responsable?


Existen voces autorizadas que inciden que este tipo de proyecciones pueden ser consideradas como utópicas o naif, porque el altruismo o el beneficio mutuo nunca, en nuestra historia evolutiva, se han impuesto a nuestros más arraigados impulsos atávicos de poder, concentración de riqueza y pertenencia a una élite por exclusión de los otros.


De nuevo, en un punto de inflexión que dibuja dos escenarios excluyentes por la caracterización de un nuevo dilema: la distopia de la tecnocracia vs utopía de una sociedad mejor.


Un planteamiento que puede parecernos muy nuevo pero que, hace 503 años, Tomás Moro con su isla Utopía ya transformó en un cliché. (Recomiendo tanto su lectura como de los que podemos llamar las 5 grandes distopias contemporáneas: 1. Un mundo feliz de Aldous Huxley, 1932, donde el placer es la principal herramienta de control social y el hedonismo y la trivialidad contrarrestan nuestra reacción. 2. 1984 George Orwell, 1949, o una reinterpretación de los movimientos totalitarios de los años 40, la Policía del Pensamiento, la videovigilada y la “corrección política” y el uso de un “neolenguaje” que esconde su real significado detrás de bonitas palabras. 3. Congreso de futurología de Stanislaw Lem, 1971, donde un astronauta, Igor Tichy, es reanimado en 2039 cuando la humanidad ha llegado a la “felicidad” por la psiquímica. 4. Bienvenidos a Metro-Centre de J. G. Ballard, 2006, cuando la construcción de un gran centro comercial en las afueras de una ciudad lleva al surgimiento de un nuevo tipo de fascismo consumista e inspira un nacionalismo “hooligan” y, por último, el 5 o El círculo de Dave Eggers, 2013, donde un Google-panóptico (de la teoría del panóptico de Michel Foucault) y global quiere hacer desaparecer el mal a través de la hipervisibilidad. A los disidentes de ese modelo les mueve el deseo de desaparecer. Existen muchas otras como Rebelión en la granja, Fahrenheit 451, etc…)


En el segundo de los volúmenes, breves, de Utopía, Moro nos enfrenta a nuestro yo más íntimo: el deseo, la avaricia, el ansia de posesión ya sea de riquezas, poder o tierras y como estos atributos, que “adornan” nuestra existencia como especie, son fuente de todos los males y desgracias para la sociedad que conformamos, que él define como república, y para nosotros mismos.


Pero, la gran diferencia de nuestro futuro más inmediato respecto del escenario que se nos presentaba en Utopía, es que allí el poder residía en sus habitantes, es cierto, que aislados en una isla, pero con la inteligencia artificial (AI) todo cambiará...


Sólo por incluir un orden de magnitud, pondré el ejemplo de OpenAI.


Una compañía de muy reciente fundación, en 2015, Musk y Altman con su equipo de “bots” fueron capaces de ganar a un equipo formado por 5 humanos en partidas de un juego llamado Dota 2.


Con un método de aprendizaje de prueba y error muy común, en machine learning, han logrado acumular, aproximadamente 180 años de aprendizaje humano por cada día de entrenamiento. Y esto lo hicieron durante varios meses.


En una partida, cada bot tiene que optar entre 1000 posibilidades de actuar en menos de un segundo. Una partida de Dota 2 dura aproximadamente 45 minutos.


Si estas cifras son increíbles, sopesen la siguiente relación: uno de nosotros tiene que invertir entre 10.000 y 20.000 horas de estudio y esfuerzo, por término medio, en una disciplina para convertirse en experto. Un “bot” puede aprender en sólo 1 día lo que un humano necesitaría hacer en 100 vidas con sus días y sus noches (porque por "diseño" también necesitamos dormir).


La siguiente pregunta es casi redundante: ¿existe alguna barrera para la simulación de un problema, con AI (Machine Learning + Deep Learning) si podemos afrontarla en una escala lo suficientemente grande?


Y, en ese futuro tan cercano de nueva sociedad ¿qué tipo de trabajos no podrían desempeñar “bots”, “robots” u otro tipo de dispositivos “inteligentes”?


Para terminar, resaltaré que la pregunta es en sentido negativo, es decir, cuáles no podrán desempeñar porque los que sí que podrán serán los que actualmente hacemos profesionales de todo tipo y nivel educativo: economistas, ingenieros, médicos, transportistas, almaceneros, conductores profesionales, pilotos aéreos, abogados, notarios, bancarios, etc.


Quizás, todo esto merecería un blog propio. Será el tema de un próximo artículo…

 

Artículo realizado por Javier Espina Hellín CEO en QLC SLP, doctor en Ingeniería de Sistemas de Información, MBA y ADE nº colegiado 11.534 y Licenciado en Gestión Comercial y Marketing

LAS 15 CLAVES DEL NUEVO RGPD


1. Análisis de riesgos (risk assessment). Las organizaciones, las empresas, los profesionales y los autónomos en general, desde la entrada en vigor del nuevo Reglamento General de Protección de Datos (RGPD) el día 25 de mayo de 2018, deben realizar análisis periódicos de los riesgos derivados del tratamiento de datos personales durante todos sus procesos y trámites.

2. Evaluaciones del impacto en privacidad (privacy impact assessments). Si los análisis arrojan un nivel alto de riesgo, se deben realizar auditorías o evaluaciones de impacto de todos los procesos en relación con las potenciales situaciones o escenarios en los que los datos personales pudiesen quedar comprometidos. Se trata de adoptar las medidas técnicas y de seguridad adecuadas para así tener bajo control y mitigados los riesgos detectados.

3. Registro de actividades de tratamiento (en formato electrónico). Las organizaciones con más de 250 trabajadores o que traten datos sensibles o que puedan generar riesgos cualificados para los interesados, deben llevar un registro de actividades de tratamiento y tenerlo a disposición de la Agencia Española de Protección de Datos (AEPD).

4. Ha desaparecido la obligación de inscribir los ficheros en el registro de la AEPD.

5. El principio de responsabilidad activa de los responsables y de los encargados (art. 24 RGPD). El RGPD describe este principio como la necesidad de que el responsable del tratamiento aplique medidas técnicas y organizativas apropiadas a fin de garantizar y poder demostrar que el tratamiento es conforme con el Reglamento.

6. Es obligada la formación al personal que intervenga en el tratamiento de datos de carácter personal.

7. Se deben cumplir con los principios relativos al tratamiento de datos personales (art. 5 RGPD):

  • Licitud, lealtad y transparencia en el tratamiento de los datos personales.

  • Limitación de la finalidad: los datos se recogen por unos fines determinados, explícitos y legítimos.

  • Minimización de datos: los datos deben ser adecuados, pertinentes y limitados.

  • Exactitud de los datos: los datos deben ser exactos y actualizados.

  • Limitación del plazo de conservación: no se puede superar el tiempo necesario para los fines del tratamiento de los datos personales.

8. Cuando los datos personales se consiguen de los propios interesados, el responsable del tratamiento debe recabar el consentimiento libre, específico, informado, explícito e inequívoco del propio interesado. El consentimiento tácito ya no es válido.

9. Las organizaciones y las empresas deben contar con protocolos que hagan efectivos los derechos reconocidos de los interesados como son: el derecho de acceso, de portabilidad (obliga al responsable a facilitar una copia completa de los datos en soporte electrónico y en formato compatible), de rectificación o supresión de los datos personales y de la limitación y oposición al tratamiento, inclusive el novedoso derecho al olvido.

10. En determinados casos es obligatorio el nombramiento de un Delegado de Protección de Datos Personales (data protection officer DPO) según establece el art. 37 RGPD. Esta persona que goza de plena libertad, autonomía e independencia en el ejercicio de su función, disponiendo de conocimientos suficientes en Derecho y práctica en materia de protección de datos, es quien asesora al responsable del tratamiento, coordina y evalúa los sistemas de cumplimiento de la norma y de evaluación de los riesgos de incumplimiento, y encauza las comunicaciones de la AEPD y los interesados con la empresa.

11. Las empresas como responsables deben demostrar que seleccionan, controlan y hacen seguimiento de sus proveedores, suministradores, subcontratistas, asesores y en general cualquier prestador de servicios, en materia de cumplimiento de protección de datos.

12. Los encargados del tratamiento por su parte deben soportar auditorías periódicas de los responsables.

13. Las relaciones entre responsables y encargados deben documentarse en un contrato que puede generarse en formato electrónico. Estos contratos deben tener un contenido mínimo para que se establezca el objeto, la duración, la naturaleza y la finalidad del tratamiento, el tipo de datos personales y categorías de interesados, y las obligaciones y derechos del responsable.

14. Los fallos de seguridad, en particular los que tengan como consecuencia una fuga de datos, deben comunicarse a la AEPD en un plazo máximo de 72 horas y a los interesados. El diseño de un protocolo en este ámbito requiere que en caso de ciberataques que constituyan un ilícito penal, se denuncien bien a la Fiscalía, bien a las Fuerzas y Cuerpos de Seguridad del Estado y al  CERTSI, a fin de controlar y mitigar las consecuencias negativas del riesgo.

15. El uso de algoritmos predictivos basados en BIG DATA para crear perfiles personales, debe estar bajo constante supervisión para así evitar situaciones discriminatorias, controlar la intervención humana en partes del proceso, garantizar la transparencia y la audiencia del interesado. El uso de las técnicas de pseudonimización y anonimación en los tratamientos masivos debe igualmente regularse, ordenarse y controlarse.

 Para más info, pulse este link.



By Sergio Gayoso Merino
14.05.2018

Qué precio tiene hacernos cambiar de opinión: cybors, bots, enjambres, ovejas y Cambridge Analytica...


La influencia social o “conformidad” es un fenómeno bien conocido en psicología y particularmente estudiando por Asch (1951) o Kelman (1971) que distingue tres formas de influencia:


  1. Sumisión: cuando mostramos acuerdo, por miedo al rechazo o al castigo, con el origen de la influencia.

  2. Identificación: cuando por el deseo de sentirse miembro del grupo de influencia mostramos acuerdo

  3. Interiorización: mostrar acuerdo por entender que el origen de la influencia es justo.


Lo que parece claro es que, independientemente de nuestro nivel educativo, social o intelectual, somos susceptibles de que influyan en nosotros, incluso siendo conscientes que existe esa presión, porque no podemos actuar como si los demás no existiesen; representa un coste elevado para nosotros. Tan elevado que somos capaces de mentir para evitar el conflicto que nos plantea el actuar de manera distinta a la norma del grupo (establecida por los “otros”). Eso puede significar quedarnos solos por la exclusión del grupo…


¿Recuerda cómo se sintió la última vez que le ignoraron en una reunión social, profesional o evento público?


Somos “animales sociales” y necesitamos de la interacción con nuestros pares. Está incrustado en nuestro ADN y, recientemente, se han descubierto que las neuronas espejo son, en parte, las responsables porque son capaces de recrear patrones mentales de quienes nos rodean. Sin ellas, simplemente, no podrimos ir al cine y creernos la historia que nos cuentan.


Por eso, los demás nos importan, su comportamiento nos influye y la publicidad que viene acompañada de un rostro famoso y familiar sigue funcionando. What else? (Nespresso)


Pero, ¿hasta qué punto somos influenciables?, ¿nos dejamos influenciar por una mayoría desconocida o somos dueños completos de nuestras decisiones?


Los experimentos sobre la influencia que tiene el grupo en cada uno de nosotros (o de conformidad) de Solomon Asch, y que se llevaron a cabo en 1952, demostraron que ésta es “significativa”. Es decir, que el poder de la conformidad en los grupos es mucho más grande e intensa de lo que cada uno de nosotros podemos imaginar.


En el más conocido, un estudiante se enfrentaba a una sencilla “prueba de visión” en donde solamente él era capaz de ver lo que el resto de sus compañeros de clase no veían (porque eran cómplices en el experimento). Sin embargo, al cabo de pocos intentos sucesivos, se acababa uniendo a sus compañeros, y esto es lo importante, aun siendo consciente de que el grupo estaba equivocado. Es reveladora la actitud del estudiante durante el experimento. (https://youtu.be/wt9i7ZiMed8; https://youtu.be/tAivP2xzrng)


El objetivo explícito de Asch era mostrar cómo se puede inducir a alguien a someterse a las presiones de grupo cuando, incluso, son contrarias a la realidad objetiva y de la que, además, eres plenamente consciente.


En otro experimento más reciente, en este caso para el programa de “zoo humano” de la BBC (https://youtu.be/duynsLoHhyw)  el sujeto del experimento espera 20 minutos antes de salir de una habitación en las que hay suficientes indicios (simulados, pero para los participantes del experimento reales) de incendio porque el resto del grupo permanece indiferente al suceso.


En las siguientes iteraciones de la prueba, nadie tomó la decisión de abandonar la habitación y el tiempo promedio fue de 13 minutos de permanencia vigilante a las reacciones del grupo. Probablemente suficientes, si el incendio hubiese sido real, como para morir por pasividad e inacción.


Una de las primeras conclusiones es que “ante la presión grupal, todos nosotros tendemos a adoptar una postura de conformidad”, por contraste de cuando el mismo experimento se repite con el sujeto solo; en esa circunstancia siempre toma la decisión de salir del recinto ante la primera alerta de fuego.


Pero, lo que personalmente me resulta más asombroso sobre nuestra capacidad de ser influenciados por el grupo, es lo que Irving Janis nos presenta con sus trabajos sobre lo que denomina “groupthink” o pensamiento grupal, en un libro que se publicó hace casi 50 años y los de Elisabeth Noelle-Neumann sobre “la espiral del silencio”.


Janis demuestra que para causar tensión en la persona (con la intención que cambie de decisión) ni siquiera es necesaria la presencia directa de un grupo. La influencia o conformidad en esa persona se consigue por el hecho de que crea que existe una mayoría que opina de un cierto modo.


Esa sensación de mayoría se puede conseguir con la difusión de determinados mensajes dominantes, que esa supuesta mayoría eleva a la categoría de norma, y que hace que sean interiorizados por muchas otras personas que lo asumen por miedo a quedar fuera de la sociedad (“…si todos lo dicen, será verdad “).


“Si el individuo encuentra que su opinión es predominante, entonces, la expresa libremente en público; si por el contrario, percibe que cuenta con pocos partidarios, entonces se vuelve temeroso, oculta sus convicciones en público, y se mantiene en silencio.” (E. Noelle-Neumann (1981). “Mass media and social change in developed societies, Ibáñez, Tomás (2003) (Coord.) Introducción a la psicología social. Barcelona: Editorial UOC)


Son fenómenos que, encontrando soporte en mecanismos sociales muy sutiles de nuestro comportamiento más primitivo, fomentan la tendencia a favorecer los discursos dominantes y a aumentar la dificultad de que aparezcan puntos de vista alternativos o de discrepancia.


El tercer apoyo con el que terminar de dibujar este boceto sobre nuestro comportamiento en grupo es el llamado “paradigma de los nuevos movimientos sociales”, donde se asegura que en sociedades como la actual, posindustriales y “líquidas” (en palabras de Z. Bauman), los ejes de conflicto son culturales y simbólicos muy lejos de los clásicos conflictos económicos o sociales.


Melucci nos dice que, cada vez, es más necesario el sentimiento de pertenencia a grupos sociales significados, desde donde poder construir una identidad personal con los valores simbólicos del grupo de pertenencia y con los que poder autodefinirse. Surge así, una intensa retroalimentación entre el grupo y el individuo, donde la “tribu” aporta identidad, seguridad normativa y confort y la suma de individuos, dimensión, relevancia y poder al colectivo de pertenencia. (Melucci, Challenging codes, collective action in the information age, 1996, Cambridge University).


Pero, lo que resulta paradójico e incluso chocante es que esos movimientos sociales nacen como fuerza generadora de nuevos códigos culturales contrarios a las presiones de uniformidad dominantes, pero al tiempo y con el fin de preservar la cohesión interna de ese movimiento alternativo, los sistemas de control interno del colectivo donde se construyen los significados, los símbolos y las identidades individuales son muy férreos y uniformadores.


Pero, ¿cómo podríamos formular nuestra ecuación de toma de decisiones con factores como la influencia social, conformidad, presión del grupo, sentimiento de pertenencia a un colectivo y la capacidad de autodefinición dentro del mismo o el valor de los símbolos?

Parece difícil, ¿verdad? De hecho, todavía no lo hemos logrado. Ni siquiera con las últimas herramientas de neuromarketing. Pero, lo que si podemos concluir es que no somos tan libres como pensamos y que la “cantidad” importa y nos impone.


Cantidad o el número de personas que “piensan” como yo (o que yo creo que piensan como yo), que visten como yo, que comen como yo, que se sienten mal como yo, etc… un “yo” que permanece en el centro y un “número indeterminado de iguales” que tengo que percibir como suficiente para insertarme en él y seguir construyendo mi autodefinición haciendo míos los valores, símbolos y significados del colectivo al que ahora pertenezco.

¿Cuál es la cantidad mínima de personas necesarias para que el fenómeno de influencia tenga lugar?


Es claro que la “masa crítica” es el factor determinante en la ecuación de influencia o de conformidad grupal.

 

¿87 millones de usuarios de una red social es suficiente muestra sobre la que poder trabajar y sacar conclusiones?


Según Moscivici (1999), “los individuos subestiman la influencia que puede ejercer la socialización sobre sus actitudes y conductas” y que dicha influencia puede ser ejercida de forma implícita e inconsciente, porque la adhesión se desarrolla a través de presión física o simbólica.


¿Qué valor económico tienen los billones de datos personales, aislados y que dejamos como miguitas de pan cuando navegamos por internet, compramos en un Marketplace, consultamos saldos en el banco, marcamos como “me gusta” o intercambiamos comentarios con nuestros amigos virtuales sobre fotografías, chistes, twitts o los goles marcados por nuestro equipo?


¿Para qué pueden ser usados esos datos?, ¿cómo esas terceras personas, organizaciones comerciales o entidades “anónimas” pueden influir en nuestra “propias” decisiones?,¿a partir de cuantos miembros el grupo ejerce su influencia?, ¿por qué es importante contar con más de 100.000 seguidores en una red social?

Es curioso comprobar cómo, incluso, la elección de algunos términos es mucho menos inocente de lo que podríamos pensar.


No les suena la palabra “influencer”…


Hace muy pocos días, dos investigadores de la Universidad de Stanford, J. Ugander y K. Altenburger han hecho público un estudio sobre cómo es cada vez más fácil saber más de todos los que usamos Internet sin preguntar nada.


Demuestran que basta, solamante, con “inferir” determinadas características de aquéllos que elegimos como amigos o con quien nos relacionamos (Monophily in social networks introduces similarity among friends-of-friends, Nature Human Behaviour, 15 febrero 2018), (http://neofronteras.com)


Ambos querían entender qué inferencias estadísticas podían terminaban revelando aquellos rasgos personales que normalmente tratamos de ocultar. Para ello, usaron bases de datos, disponibles específicamente para la investigación científica, que contienen el tipo de información que los sitios web venden a terceros como anunciantes.


Existen inferencias directas. Por ejemplo, si alguien compra pañales en Internet es muy probable que haya sido padre o madre recientemente.


Pero son las indirectas las más reveladoras porque a través de quiénes son tus amigos virtuales en redes sociales se puede saber quién eres, que edad tienes, tu inclinación política y un sin fin de datos que tú nunca has facilitado o no quieres que se sepan.


Es posible, por algo tan natural como frecuente y que, incluso, nos define como especie.

 

Se trata, simplemente, del hecho que tendemos a “hacer amigos” de nuestro mismo rango de edad, de la misma raza y de la misma creencia política. Todo lo que somos puede ser inferido desde nuestros amigos por dos tipos de estudios: de homologías u homofilias y de monofilia o preferencia extrema por un rasgo determinado.


Así, se puede “construir” un mapa de la red de relaciones que tenemos y con el conjunto/s de datos usados podemos inferir, a través de nuestros amigos y de los amigos de nuestros amigos, toda la información no declarada de cada perfil.


Entonces, si es posible averiguarlo casi todo de nosotros a través de nuestra red de relaciones y se estudian hasta el 2ª y 3ª niveles, ¿cómo protegemos nuestro derecho a la intimidad?, ¿para conservar esa intimidad cuantos niveles se necesitarán incluir para que la información contenida en las relaciones de los amigos de nuestros amigos, además de la nuestra, quedase protegida?


No es ninguna novedad decir que en el dato está el poder y en la capacidad de encontrar patrones, correspondencias y significado en la cantidad de información que generamos cada día, en cada consulta a Google, en cada pregunta a Siri, en cada itinerario que recorremos con Google Maps, en cada “me gusta” o en “cada like” de nuestro teléfono móvil, nuevo apéndice corporal tecnológico, con la que vamos dejando una huella digital de nuestra más profunda identidad...


A eso me refiero con “masa crítica”, a esa gigantesca cantidad de datos que con tecnología informática (incluida la inteligencia artificial), mucha estadística y un poco de competencia profesional, hace posible que podamos saber todo de cualquiera o podamos influir en la dirección que sea más conveniente para quien sea el dueño de esa información.


Mientras estoy dando forma a este particularmente extenso blog, el CEO de Facebook declara y pide perdón ante la cámara de representantes de EEUU por haber permitido que Cambridge Analytica, consultora política que ha sido vinculada con la campaña presidencial de Donald Trump en 2016 o con la del brexit en el mismo año, se hiciese con una base de datos que terminaría por incluir decenas de millones de perfiles de esa red social.


No en vano, y esto sí que es “masa crítica”, casi un tercio de la población mundial tiene una cuenta en la compañía de Mark Zuckerberg.


La calidad de la información a la que han tenido acceso y sobre la que han trabajado, es muy alta porque el cuestionario, que se utilizaba para recolectar datos, contenía decenas de preguntas formuladas por psicólogos e investigadores para evaluar la personalidad. Eran encuestas en línea que gestionaba otra empresa llamada Qualtrics.


Facebook entra en el juego cuando los encuestados autorizan y dan acceso a sus perfiles, en la red social, porque la aplicación de la consultora británica toma los datos de cada perfil y la de sus amigos.


Se asegura que en esa operación se hicieron, además, con las actualizaciones de estado, "me gusta" y hasta mensajes privados de más del 15% de la población de EE. UU, es decir, de casi 49 millones de ciudadanos estadounidenses. Pero, hay fuentes que van mucho más lejos y aseguran que la materia prima con la que alimentaban sus aplicaciones informáticas contenía a 220 millones de adultos norteamericanos con 5.000 rasgos diferentes de cada uno de ellos (recordemos que la población de EEUU es de aproximadamente 325,7 millones de personas).


Esto sí que es masa crítica. Es Big Data…


¿Qué hizó Cambridge Analytica con esa ingente colección de datos de gran calidad?


Tipificar e identificar las personalidades de los electores estadounidenses con el fin de “influir” en su toma de decisiones y comportamiento mediante el empleo de técnicas de Big Data y marketing ultrapersonalizado para la campaña de Trump en 2016 y, previamente, para inclinar el resultado hacia el Brexit en 2 campañas simultáneas: @vote_leave y @LeaveEUOfficial.


Si se cuenta con un perfil psicológico personalizado de los votantes se pueden “calibrar y ajustar” los mensajes de una determinada campaña hacia intereses y gustos particulares, no sólo para satisfacer a ese colectivo concreto sino para construir una mayoría que pueda influir en aquellos indecisos, decisivos para lograr que se inclinen hacia el margen clave y procure la victoria de quien les paga.


El perfil de clasificación psicológica de personalidades de cada votante se basa en el conocido Modelo OCEAN y así, Cambridge Analytica, pudo saber cuál tenía que ser el contenido, el tema y el tono de cada mensaje dirigido para cambiar la manera de pensar de los votantes de forma casi individualizada.


El objetivo era segmentar a la población para ofrecerles mensajes con temas “gancho” usando un lenguaje y unas imágenes que les removiesen, que les importasen, porque no podían quedar indiferentes… necesitaban involucrarles emocionalmente.


Es un hecho declarado por la propia consultora, que lo más importante de los servicios que ofrece Cambridge Analytica es el que se refiere a las “perspectivas de la psicología del comportamiento”.


La estrategia es clara y doble: convencer a los indecisos y desanimar a los rivales del candidato a quien se apoya.

Pero, los mensajes personalizados no es lo único que hacían para influir.


Otra de las herramientas preferidas son los “fake news” o noticias falsas que, no por casualidad, eran difundidas vía Facebook porque modificaban el estado de opinión con temas de debate que favorecían las posiciones del candidato apoyado.


En este escenario, entra en escena lo que ahora se denomina posverdad o “distorsión deliberada de una realidad, que manipula creencias y emociones con el fin de influir en la opinión pública y en actitudes sociales” (Real Academia Española, 2018)


¿Qué se consigue si cuando navegas empiezas a leer un blog por aquí o un portal de noticias por allá, mezclado con opiniones de ciudadanos como tú, de los que nunca has sabido nada pero que ofrecen historias consistentes y verosímiles, pero que no aparecen en los medios tradicionales?


Lo más probable, es que empieces a cuestionarte el por qué no están en los medios y si puede deberse a la existencia de un sesgo interesado de ese medio, o un plan de ocultación deliberado de noticias relevantes…


Y, sin ser consciente, te están ayudando a construir tu propia historia de conspiración y, lo más importante, van inoculando una cierta susceptibilidad en los medios tradicionales, en los que antes confiabas para construir tu opinión, o en las propias instituciones por la pasividad, que ya consideras interesada, para terminar, imponiendo un nuevo status quo o sistemas de referencias que pretende influir en la gente para que cambie su decisión.


¿Cuánto vale hacer ganar una elección?


No sé contestar a esta pregunta. Aunque supongo que la cifra sería tan abultada como obscena, simplemente, por lo que representa el coste de oportunidad.


Pensemos, un momento en cuál ha sido el coste económico del Brexit hasta ahora y cuanto puede representar un Brexit sin acuerdo.


Además, de la salida de instituciones europeas de la “city” o de las fluctuaciones cambiarias de la libra desde el anuncio del Brexit, el romper con la UE sin un acuerdo, según un estudio del Rabobank, podría tener un coste estimado de 450.000 millones de euros, que es equivalente al 18% del PIB británico en la próxima década, la entrada en recesión del Reino Unido durante un período mínimo de dos años, un aumento del paro de entre el 4,6% al 6,2% y cada trabajador sería unos 13.000 € al año más pobre al cabo de 10 años...


Lo que si sabemos que es (o ha sido) necesario para llevar a cabo este tipo de operaciones es contar con una estructura, de relativa importancia, estable, multidisciplinar, profesional, ultraconfidencial y tener los servicios de una agencia o el “Spin Doctor” que dirija la campaña y se encargue de gestionar a recursos en red como los “Trolls Farm” y las herramientas especializadas en Big Data, marketing personalizado y microsegmentación por perfiles en plataformas sociales como Facebook y Twitter.


Y lo que también sabemos es lo que hizo recapacitar a Zuckerberg.


Sólo en 24 horas el valor de Facebook cayó US$37.000 millones por el escándalo de Cambridge Analytica, las acusaciones de robo de datos, de interferencia política, los chantajes con prostitutas, sórdidos espías y con potenciales implicaciones en Argentina, Brasil, Colombia y México donde la consultora ha participado en más de 100 campañas electorales.


Aunque la razón oficial de la comparecencia, en dos días distintos, del CEO de Facebook son los aspectos morales sobre el mal uso de información no autorizada, la privacidad de datos, las noticias falsas, el discurso del odio de los mensajes distribuidos o la catalogación de “producto” de los millones de usuarios de su red social.


No somos conscientes que el “producto” somos nosotros mismos, que puede ser usado contra nosotros mismos y que no podemos controlar nada de tan elaborado proceso de influencia: ni la verosimilitud, ni la naturaleza de la información ni la intención de quienes la usan. (https://youtu.be/n8Dd5aVXLCc)


Fuera del aspecto formal de la comparecencia de Zuckerberg, los aspectos que han precipitado su presencia son la rápida erosión en el valor de compañía en el mercado y su impacto en sus accionistas porque preguntas como ¿para qué o quién?, ¿con qué fin?, ¿en manos de quien dejamos esa valiosísima información? o ¿qué tipo de medidas se van a implantar?, ¿cuándo, ¿cómo y con qué resultado esperado?  pueden esperar… de hecho, Facebook después de haber “pedido perdón” ya está recuperando su valor bursátil.


Por cierto, no han reparado en que la imagen del fundador de Facebook ha cambiado, radicalmente, para la “puesta en escena del perdón” y de la “aflicción”.


Del aspecto algo naif de tímido retador en jeans y camiseta gris clara ha pasado a la de un adulto maduro, discreto, humilde y corporativo dispuesto a pedir perdón y tomar medidas para que nada así vuelva a suceder. Con decisión y seriedad, se ciñe a un discurso medido y de control de daños.


En la puesta en escena, nada queda al azar: un nuevo corte de pelo más convencional que desenfadado y un sobrio traje azul oscuro, camisa blanca y corbata “azul Facebook” cierran un marco visual tan neutro y estático que obliga a centrar toda la atención en el propio CEO.


Forma parte del mismo juego de influencia. En este caso, la influencia que él quiere ejercer en aquellos a quienes tiene que dar explicaciones y respecto a toda la opinión pública que censura tan grosera monetización de su privacidad.

 

Aunque, quizá sus asesores le tendrían que haber advertido, también, sobre el poder de su lenguaje no verbal o prepararle ante preguntas tan previsibles como molestas por la cantidad de información (negativa) que puede ofrecer una sonrisa en tensión (https://youtu.be/Cfv09WA4em4), la interacción casi robótica con sus interlocutores, el desajuste gestual con la argumentación verbal y el entorno físico o la manera de beber agua durante ambas sesiones…


Pero, por debajo de la audiencia pública de Mark Zuckerberg, quedan preguntas sin responder sobre el propio escándalo de la consultora Cambridge Analytica  ¿cómo funcionan los sistemas que buscan influir en la relevancia una app, un determinado personaje público, un producto de consumo o hasta un concursante de un Talent Show?


Se trata de los “bots” (robots) de Twitter o cuentas automatizadas que realizan tareas mecánicas (distribuir spam, retuitear mensajes con determinadas palabras o repetir el mismo mensaje desde distintas cuentas cuando aparecen ciertos hashtags) y de las también llamadas “Click Farm”, o granjas donde se comercia con la manipulación interesada de los “me gusta”. Tampoco me quiero olvidar de las “Trolls Farm” o variantes de “Call Centers” donde “operadores físicos” crean, manejan y monitorizan cientos de miles de cuentas Cyborg.


Los primeros, son lugares cerrados y aislados repletos de estantes metálicos con miles de smartphones conectados y donde se emplea mano de obra humana para que todo pueda funcionar según los intereses del cliente que compra esos “likes”, o mejores posiciones en un ranking para lo que, por ejemplo, el humano descarga una app o un juego que instala y después desinstala tantas veces y en tantos equipos como contemple el trato cerrado.


Los segundos son mucho más profesionales. Necesitan grandes instalaciones por el volumen de trabajadores, que, dicho sea de paso, no necesitan ser programadores (pueden ser universitarios o sin estudios y con un bajo salario) y por el tamaño de la infraestructura informática.


Pero el grado de sofisticación en el “engaño” puede ser creciente, ya que, desde cualquier lugar del globo, se pueden crear y organizar cientos o miles de perfiles falsos en distintas redes sociales con el fin de “influir” (de nuevo) en los usuarios o ciudadanos diana. Una técnica muy utilizada y que se conoce como “sockpuppeting”.


Y, toda esta infraestructura social y virtual de cuentas falsas no se limita sólo a redes sociales como Facebook sino que también es utilizada toda una red de bots para Twitter.


El mecanismo de actuación en el ámbito político es muy familiar.


Una campaña de anuncios interesados que se acompaña de perfiles falsos que comparten noticias sesgadas, donde se filtran datos sensibles (verdaderos o falsos), sobre un candidato y se refuerzan, simultáneamente, enviando mensajes o hashtags concretos que inclinen o movilicen la opinión en la dirección convenida. Miles de usuarios que comparten un mismo mensaje, con un hashtag, tienen posibilidades reales de llegar a ser “trending topic” y el objetivo se ha cumplido.


Por ejemplo, durante las pasadas elecciones en EEUU, un mismo mensaje se twitteó una y otra vez con pocos segundos de diferencia y, el día de las elecciones un grupo de bots enviaron el hashtag #WarAgainstDemocrats más de 1.700 veces.


En ocasiones, alguno de esos mensajes compartidos por bots (desde cuentas falsas o reales, pero “hurtadas” a sus legítimos usuarios por falta de uso) en redes sociales, no conseguían la repercusión que se estimaba. Esto obligaba a una nueva tanda de mensajes y la aplicación del método de prueba-error; porque el coste operacional es muy bajo.


Y, por cierto, tampoco es imprescindible utilizar cuentas falsas o cuentas robadas ya que los grupos de hackers, que están detrás de estas operaciones, pueden acudir al mercado (negro por supuesto) y comprar varios miles de cuentas. Aunque pueda parecer imposible, hay sitios web al por mayor de compraventa de cuentas.


No hay que olvidar que, cada bot, ha llegado a recibir hasta 5 retuits de cuentas reales como media. Lo que significa que hay humanos que deciden compartir el contenido generado por un robot creado para contaminar o difamar.


Pero, también encuentra aplicación en el ámbito comercial y empresarial.


Si la empresa cliente quiere generar interés en torno a su nuevo producto, “el enjambre” identifica espacios de interés y pone en circulación cientos de comentarios positivos en medios, foros, e incluso en marketplaces.


Si, por el contrario, se trata de “guerra sucia” y el objetivo es eliminar o debilitar a la competencia, el enjambre sigue el mismo patrón, pero, esta vez, para difamar.


Recibe el nombre gráfico de enjambre porque su manera de actuar es siempre en grupo como las abejas, avispas u hormigas: los perfiles falsos/robados/reales se enlazan y se retroalimentan dándose la razón, apoyándose unos a otros y recurren a todo tipo de estratagemas de guerra como abusos verbales, provocaciones, etc.


Las claves de su éxito y proliferación es que son relativamente baratos, fáciles de crear, cosechan datos, y pueden dar servicio a distintos clientes al mismo tiempo.


Estas redes operan en 3 niveles con el “rebaño digital”:


  1. Pastores: cuentas muy influyentes que definen y marcan la conversación

  2. Perros pastores: cuya labor es amplificar el mensaje y defender al “amo” y atacar a los enemigos

  3. Las ovejas: que son los miles de cuentas automatizadas que van donde las lleven, según convenga y quien sea el cliente, pero que tienen una importancia capital y central en la estrategia porque son las responsables de generar la falsa, pero muy convincente sensación de mayoría social.


Y detrás, en el “backstage” un enorme negocio con campañas de contaminación, distorsión de la realidad, “redirección” de opiniones y cambios de voluntades en individuos y ciudadanos que no se percatan de la manipulación de la que están siendo objeto


Según algunos autores, al menos 30 países sufren la manipulación e intoxicación, de bots y trolls, en el escenario del debate público con perfiles fraudulentos en las redes sociales.


Quizá, es hora de recordar lo que nos decía J. Lanier hace casi una década en su libro “contra el rebaño digital” (You're not a gadget: A manifestó, Jaron Lanier, Editorial Debate. Barcelona, 2011), “el totalitarismo digital es la nueva amenaza para el orden social, como lo fueron el fascismo y el comunismo anteriormente”.


Su posición no está junto a tecnófobos y frente a la tecnología.


Por el contrario, apuesta por una visión humanista del uso de la tecnología y aborda el debate de la redefinición de Internet y de sus aplicaciones donde cada uno de nosotros esté por encima de las máquinas que usa, donde la utilidad sea más importante que la rentabilidad y el progreso sostenible sea un objetivo superior al resultado inmediato.

La Comisión de Apertura: otra posible cláusula abusiva cuestionada por los Tribunales.

Traemos en este post como continuación a nuestra serie de artículos de actualidad sobre cláusulas abusivas bancarias, un tema de gran interés como es la posible abusividad de las cláusulas sobre comisiones de apertura incluidas en las escrituras de préstamos hipotecarios.

En nuestro precedente artículo sobre reclamación de los gastos hipotecarios que publicamos el 28 de agosto de 2018 (link), informamos a nuestros lectores y seguidores de las diferencias de interpretación que tenían las Audiencias Provinciales, a la hora de afrontar la posible abusividad de las cláusulas de distribución de los gastos de la hipoteca y, particularmente, todo lo referente al pago del Impuesto de Actos Jurídicos Documentados cuya cuantía podía representar hasta el 1% del importe total del préstamo. Esta cuestión es la que recientemente ha sido aclarada por una Sentencia dictada por el Tribunal Supremo, que indica que la obligación de pago del mencionado impuesto es del prestatario, es decir, del solicitante del préstamo (link).

Hoy, con el propósito de seguir informando a nuestros lectores y seguidores, contribuimos a este debate, trayendo una Sentencia dictada por la Audiencia Provincial de León de fecha 1 de febrero de 2018, que indica que la cláusula que prevé la comisión de apertura no es una cláusula abusiva dando la razón a la entidad bancaria.

Apuntamos algunos de los extractos más relevantes de la citada Sentencia:


SENTENCIA Nº 31/2018, de 1 de febrero de 2018. Recurso de apelación nº 579/2017:

“El coste de apertura no es un acto vinculado a la formalización del contrato de préstamo; se sustenta en el coste de gestiones y servicios financieros previos a él, y, aunque tenga como finalidad principal suscribirlo, la comisión de apertura no se vincula con el acto de formalización del contrato, porque el servicio financiero del que se deriva la comisión de apertura no tiene como finalidad dar forma al contrato y validarlo con su inscripción u otros actos precisos para su eficacia jurídica.

Los costes de apertura tampoco remuneran gastos de tramitación vinculados a la formalización, como lo podrían ser los precisos para la inscripción en el Registro de la Propiedad, y ni siquiera se refieren a pagos a terceros para la formalización y tramitación, como ocurre, por ejemplo, con los gastos notariales, registrales y/o impuestos. La comisión de apertura se gira para retribuir los servicios financieros y los costes de gestión previos a la concesión del préstamo; no por gastos de formalización u otros vinculados al perfeccionamiento y eficacia jurídica del contrato.”

“La comisión de apertura retribuye un servicio financiero: gestiones previas que se llevan a cabo desde que se solicita el préstamo hasta que se resuelve sobre su autorización, y las precisas para la preparación del contrato.”

“Por lo tanto, la cláusula de apertura no tiene encaje en el supuesto legal de abusividad previsto en el apartado 22 de la disposición adicional primera de la Ley 26/1984 (ni en el artículo 89.3 del Real Decreto Legislativo 1/2007).”

“En definitiva, el cobro de una comisión de una sola vez en el momento del contrato, llámese apertura o de cualquier otro modo, es una posibilidad contemplada en normas legales y del Derecho de la Unión Europea.”


Para un mejor entendimiento de este tema, pueden acceder al texto completo de la Sentencia través de este link.


By Sergio Gayoso Merino
14.03.2018

Lean Thinking o el pensamiento Lean: qué es, en qué consiste y cuáles son sus beneficios


Seguro que al leer el título de este artículo se le vienen a la mente diferentes expresiones que en alguno de sus términos contiene la palabra LEAN y que han escuchado en su entorno profesional: Lean Manufacturing, Lean Construction, Lean Startup, Lean Management, Lean Logistics, ErgoLean o Lean Thinking que es el que nos ocupa.


Pero ¿qué significado tiene?, ¿están relacionadas?, ¿responden a algún concepto clave?


Si nos aproximamos al término desde el inglés por su traducción, nos encontramos que “lean” es carne sin grasa. Lean Thinking significaría “el pensamiento esbelto”.

La grasa, en procesos de empresa, podemos asociarlo con la ineficiencia, de manera que si eliminamos grasa sistemáticamente (parte no aprovechable = desperdicio) ganamos eficiencia.


El pensamiento esbelto consiste en eso: la filosofía de la eliminación del desperdicio que nos hace mejores…

Si tuviésemos que definir, por tanto, en una frase que es el “Lean Thinking” podríamos decir que es toda una metodología que tiene como único objetivo la mejora continua, reduciendo costes, elevando la productividad, la eficiencia e incrementando la calidad final.


Un objetivo que es entendido como “recursivo”, es decir, que siempre está en modo “encendido”. Cada ciclo iterativo busca la mejora del anterior.


De manera, que el planteamiento es sencillo: observar, obtener datos de forma continua y medir para corregir y eliminar aquellos procesos o tareas que no aportan valor al producto final o al cliente final.  


Como método tiene su propio lenguaje, sus palabras clave y una terminología que ayuda a entender la filosofía por la que nació y que encierran sus principios.


Eliminar pérdidas por demoras, ineficiencias, fallos en los equipos o en el proceso de trabajo, interrupciones, movimiento excesivo, pérdida de productividad y un largo etcétera de situaciones que persiguen la excelencia, la calidad y la creación de valor para nuestro cliente, que se sitúa dentro del modelo como lugar central desde el que analizarlo todo.


Es la “eliminación del desperdicio” o la suma de ellos. Una “muda” que tenemos que hacer desaparecer y con ello ganar valor para el cliente siendo mejores en nuestro trabajo.


El concepto de desperdicio puede hacer referencia a 8 distintos ámbitos. Pueden existir desperdicios relacionados con la información, con los procesos, con el entorno físico, con el equipo humano, etc. (“Muda” Transporte, Inventario, Movimiento, Esperas, Sobre-producción, Sobre-proceso, Defectos y Mal uso de las competencias)


¿Cuál es el coste de una mala comunicación interna o de unos departamentos “estanco” que no se comunican entre sí?, ¿con qué datos “útiles” tenemos que trabajar y con cuántos trabajamos que no necesitamos?, ¿cuántas personas tienen que aprobar una decisión o supervisar una tarea determinada?, ¿la responsabilidad de éstos es clara o está difusa?, ¿dónde tenemos “cuellos de botella” por este tipo de situaciones?


Sin embargo, y manteniendo presentes las preguntas que acabamos de formular, lo realmente innovador del pensamiento Lean es que no sólo es una reingeniería de procesos dentro de la compañía con la que se pretende llegar a una determinada escala o magnitud que se establece como objetivo y al que el equipo humano debe supeditarse. Es mucho más, porque el motor de mejora surge desde el equipo humano y el objetivo de mejora se entiende como un escalón al que se consigue llegar, y desde el que nos impulsaremos hasta el siguiente nivel de mejora o próximo escalón de una escalera sin fin dentro de nuestra casa LEAN.


Las figuras de la escalera y la de la casa, que aparece en la fotografía de inicio, nos ayuda a entender visualmente en qué consiste el modelo LEAN THINKING.


La casa LEAN se construye gracias a los cimientos de trabajo en equipo, retos y “Kaizen/ Kaikaku” sobre el que podemos ya sustentar las dos columnas o pilares que soportan la cubierta del LEAN THINKING (y que consiguen aumentar la productividad, mejorar la calidad de productos o servicios y garantizar la estabilidad de los procesos):

  1. La mejora continua/ y radical (concepto LEAN y sus herramientas)

  2. las personas (y lo importe de su desarrollo)


Además, podemos decir que el pensamiento LEAN se expresa en sus 5 principios básicos:

  1. Definir valor desde la perspectiva del cliente (IDENTIFY VALUE)

  2. Identificar flujo de valor (IDENTIFY VALUE STREAM)

  3. Optimizar el flujo (FLOW)

  4. Extraer valor y producir por el “tirón” del cliente (PULL)

  5. Buscar permanentemente la perfección (PERFECTION) mediante los “talleres de mejora” en equipo o “Kaizen Events” donde se observa y analiza el proceso creando el “Mapa de Flujo de Valor” actual. Después de diseña el “Mapa Futuro” que permitirá implementar los cambios acordados para medir el “GAP” de resultados obtenidos y que se presentarán a la dirección.


Es ahora, por primera vez, cuando podemos hablar de que “creación de valor” y de la “estabilidad de los procesos”.


Tenemos que entender que las actividades aportaran valor sólo cuando:

  • El cliente está dispuesto a pagar por ellas

  • La actividad transforma un producto o un servicio

  • Se han de realizar a la primera (correctamente).


Con respecto a “la estabilidad de los procesos” decir que aparece en escena, porque sin ella no es posible entender otro de los conceptos centrales del pensamiento LEAN, que es el “FLOW” o flujo y que tiene por objetivo reducir el “lead-time” o tiempo total del proceso de una pieza, documento o servicio, y que permite descubrir problemas relacionados con la calidad.


Es posible que hayan oído hablar del “ONE PIECE FLOW” o flujo de una sola pieza. Otro concepto esencial para entender el LEAN MANUFACTURING y que, para no dejarlo huérfano de explicación, diré que se basa en los principios de “just in time” o “pull system”.


Se produce sólo lo que el cliente demanda y donde cada área de trabajo se especializa en una actividad en particular y provee las piezas
, de una en una dentro de un esquema de producción lineal y continúa.


La teoría se desarrolla a partir de la búsqueda de mejora de la producción por lotes, y se constata que reduciendo el número de piezas de lotes a 1 solamente, las piezas fluyen de manera constante en todas las áreas de producción porque la pieza individual nunca se detiene durante el tiempo de transformación.


Por eso, el flujo ideal es el de “una sola pieza” (no el comentado por lotes) que se procesa sin interrupciones, sin transportes, ni colas ni esperas, y al ritmo (“Takt Time”) que exige la demanda (“Pull”).


Por tanto, los principios de funcionamiento cuando se produce siguiendo el método ONE PIECE FLOW son:

  • La producción y su ritmo (Takt Time) es definido por la demanda de nuestro cliente y se mantiene constante gracias al flujo de línea de producción. Sólo se produce si el cliente lo demanda. Si no hay demanda no hay producción.

  • No hay un pedido mínimo. Se produce la cantidad pedida por el cliente.

  • Cada etapa del proceso tiene que ser capaz de hacer las 3 siguientes actividades como parte de su ciclo normal de trabajo:

    1. Inspección de entrada el producto para asegurar que sea perfecto (desde la estación anterior).

    2. Fabricación siguiendo las especificaciones del cliente

    3. Inspección de salida o entrega

  • Una etapa del proceso “entrega” material sólo cuando las etapas siguientes (que se entienden como el cliente) lo demandan (sistema Pull) a través del sistema de reabastecimiento “Kanban” o señal de control de stock.


Pero regresemos al concepto LEAN THINKING, porque aún no hemos hablado nada ni de las herramientas ni de los beneficios.


Para afrontar con éxito en una organización la adopción y aplicación de la metodología LEAN son necesarias, además de la colaboración plena del equipo humano, un conjunto de herramientas (alguna de las cuales ya hemos nombrado) que enumeramos a continuación:

  • “5S” (según se nombran en japonés)

  • Mapa de flujo de valor o “Value Stream Map”

  • “Kanban” o señal de control de stock

  • Trabajo estandarizado

  • Gestión visual

  • “Jidoka” o auto-calidad

  • “Poka-Yoke” o sistemas de prueba-error

  • Cambio rápido de tareas (SMED)

  • “Heijunka” o nivelación de la demanda

  • Gestión de la capacidad

  • “Spaguetti Diagram”

  • “Service Transction Box”

  • Gestión de colas

  • Formato estandarizado de resolución de problemas “A3”


Con respecto a los beneficios, tenemos que señalar que se obtienen tanto en el ámbito de las operaciones porque no se tiene un exceso de inventario, expediciones innecesarias o demasiadas inspecciones visuales en cada proceso, como en el de las personas, ya que se mejora la participación del equipo humano (que están constantemente buscando mejoras) y en su seguridad en el trabajo.


Y, con ello
como última derivada (de ser más eficientes, de reducir costes originados por la "no calidad", por tener menos inventarios o mayor satisfacción del cliente) se consigue un resultado económico cuantificable en euros que contribuye al éxito a largo plazo y en el crecimiento de la empresa.


Muy recientemente, en noviembre del pasado año, Siemens hizo públicos los resultados tangibles de la adopción de su proyecto LEAN THINKING y los beneficios que ha conseguido la organización en los últimos 3 años.


Sólo citaré tres de los más significativos por su concordancia con los ámbitos aquí comentados como son el de operaciones, el equipo humano y el de resultado económico:

  1. En el primero, gracias a esta metodología, ha conseguido una reducción del “lead time” (tiempo desde que se inicia el proceso hasta que se finaliza) de 16 días en apenas un año (de 31 a 15 días desde principio del 2015 a finales de 2016)

  2. Respecto del equipo humano, el grado de satisfacción de los delegados creció 25 puntos en el mismo periodo (2015-2016) aumentado del 52% al 77%.

  3. Han conseguido un ahorro de más de 180.000 euros en el periodo de referencia.


Lean Thinking es
, por tanto, un modelo probado y de enorme éxito que desarrolló, en Japón, el ingeniero Kaoru Ishikawa después de estudiar la experiencia de Toyota y que es aplicado a entornos tan diversos como la fabricación de coches, trenes, aviones, la construcción o la industria de viajes, que exige a la empresa que lo aplica un cambio de paradigma por:

  • No esconder los problemas

  • Identificar y solucionar esos problemas donde se generan (favoreciendo la mejora continua)

  • La delegación de tareas y el acotamiento de las responsabilidades en cada nivel de la estructura se imponen a la cultura del clásico “ordeno y mando”

  • Poner el foco en el “Flow” del proceso (reduciendo el “lead-time”) y no sólo en los resultados

  • Trabajo en equipo

  • Gestión visual


Para profundizar y ganar en detalle, por su complejidad, recomiendo el libro “Lean Thinking: Cómo utilizar el pensamiento Lean para eliminar los despilfarros y crear valor en la empresa”, (Daniel T. Jones y James P. Womack) y si les interesa, pero no disponen del tiempo necesario para leerlo, les adjunto un video sobre los 4 principios del LEAN MANAGEMENT. Encontraran en sus poco más de 2 minutos ideas que poner en práctica… (https://youtu.be/wfsRAZUnonI).


¡Qué lo disfruten!

 


Artículo realizado por Javier Espina Hellín CEO en QLC SLP, doctor en Ingeniería de Sistemas de Información, MBA y ADE nº colegiado 11.534

Naming y Propuesta Única Valor (PUV)


No hace falta recordar que los entornos competitivos en los que operamos la mayor cantidad de las empresas son cada vez más homogéneos, globales y digitales por lo que la “improvisación”, el “azar” o la “suerte”, simplemente no tienen cabida.


No voy a negar que exista la posibilidad de contar con el viento a favor que pueda proporcionarnos determinado golpe de suerte, pero lo que resulta clave en la empresa es saber hacia dónde ir y cómo llegar hasta allí, es decir, contar con una estrategia clara, un plan operativo y de control bien estructurado, por programas, que nos permitan conseguir aquellas metas que hemos identificado como diana.


Probablemente no de manera inmediata, pero con la ayuda de distintos indicadores podremos saber si vamos según lo previsto…


Esto cada vez tiene más importancia porque, por ejemplo, el saber detectar las necesidades cambiantes de tus clientes, cada vez más exigentes, es algo que, además de muy complejo, es bastante costoso porque necesitas buenos equipos multidisciplinares de profesionales y buenas herramientas para medir, seguir y analizar un montón de datos…


El Naming y la Propuesta de Única de Valor es sólo una pieza más en el complejo engranaje de la puesta en marcha de nuestro plan de marketing, pero que contribuye de manera importante en la aportación de valor real.


Es el comienzo de todo. La generación de un nombre (de marca o compañía) es mucho más complejo de lo que podemos suponer. Es consecuencia de un proceso creativo con una enorme carga de contenido técnico y de análisis multivariable.


Un nombre (por ejemplo, de una compañía) tiene que condensar en una sola palabra seguida de una corta frase, toda la capacidad tecnológica, de producción o de servicio, su “know how”, la identificación con su sector de actividad y los valores, atributos, emociones y experiencias que la hacen única y diferente de la competencia.


Es todo un “milagro” (si se me permite la expresión) y una combinación extraña de emociones consecuencia del duro trabajo que es necesario invertir en su nacimiento.


Podemos decir que hay 4 características mínimas (CACO) en la construcción del nombre de marca y es que sea: Claro, Atractivo, Creativo y Original.


Y todos ellos tienen que ser el reflejo de la identidad de la marca, de sus valores, atributos, experiencias y emociones que la marca quiere transmitir a sus clientes en su primera impresión.


Proceso de creativo

Existen diferentes métodos y formas. Particularmente diré que prefiero el método Business Model On Canvas como paso previo y fórmula complementaria al “diseño de la Propuesta de Valor”. Pero todo puede empezar definiendo en pocas palabras cuales son:

  • La identidad de la marca

  • Los valores que las sustentan

  • Los atributos que pueden ser asociados o evocados por ella

  • Las experiencias que deseamos generar a nuestros “stakeholders”

  • Y las emociones que queremos que tengan de nuestros productos/ servicios


Con todo ello, tenemos que empezar a “jugar” libremente, en la que todos los integrantes de ese equipo “creativo” busquen asociaciones entre ellas, construyendo nombres compuestos, palabras relacionadas, etc. Eso es lo que técnicamente se denomina “Brainstorming” o tormenta de ideas.


Algo que resulta imprescindible es que sea libre y que no se censure nada de lo que se diga entre las cuatro paredes en las que estemos “encerrados”.


En el siguiente paso de este proceso creativo tenemos que definir el segmento de mercado al que está dirigida la marca.


Esto nos ayudará a conseguir “coherencia y consistencia” de marca ya que tiene que no sólo tiene que ser compatible con sus atributos, valores y experiencias, sino que tienen que funcionar como potenciadores o impulsores de todo aquello que se identifica con la marca.


El último toque del proceso es que se cumpla la regla PFCD (Positivo, Fácil, Corto y Duradero en la mente del potencial cliente)

 

Desde el nacimiento o de mayor…

La aplicación del Naming puede ser, como ya hemos avanzado, desde el nacimiento de la idea de negocio o una vez que esta ya tiene un recorrido en el mercado. Si ya existe y tiene cierta relevancia entonces, lo que hacemos es “desarrollar la marca”.


Desarrollo de tu marca:

Es muy importante, si la empresa o marca cuenta con un recorrido previo, porque entonces es esencial analizar la imagen que ya existe de la marca/empresa para poder señalar aquellos aspectos “core” (nucleares, esenciales y por la que es conocida la marca) de los que no lo son tanto, y podemos considerarlos accesorios para afrontar el “restyling” o reformulación de la marca o nombre.


El objetivo finalista del proceso de reformulación es que la nueva imagen se ajuste adecuadamente a la nueva formulación estratégica y cumpla con su función, que no es otra, que resulte utilizable, práctica, diferenciadora y evocadora
.


Implantación

Una vez que concluye la fase más importante que es la de creación del “símbolo”, recordemos que lo máximo a lo que podemos aspirar es que se convierta en icono (Nike, Apple y tantos otros ejemplos) lo siguiente que tiene que ocuparnos es la implantamos del nombre o marca dentro de la organización.


Puede parecer algo menor, pero no lo es en absoluto.


Si aceptamos que el verdadero posicionamiento es el que sucede en la cabeza de nuestros clientes, el poder contar con una herramienta de evocación tan potente como un buen nombre de marca potenciado por una frase corta que subraye aquello que nos hace diferentes o mejores, respecto de nuestra competencia (Propuesta de Única de Valor o PUV), no es algo de lo que podamos permitirnos prescindir.


La Propuesta de Única de Valor (PUV), según Neil Patel, tiene que constar de los siguientes elementos:

  • Un título, que resuma el beneficio que ofrecemos al cliente.

  • Un subtítulo, donde detallamos (brevemente) nuestra oferta (a quién y por qué)

  • Tres puntos donde enumeramos los beneficios/ características diferenciales del producto/servicio

  • Un elemento visual (vídeo o imagen), que amplíe tu mensaje.


Podemos decir que los “imprescindibles” son los dos primeros,
pero en términos de comunicación digital (por ejemplo, en nuestra landing page) el elemento visual cobra especial relevancia. Es mucho más natural de consumir, más fácil de compartir, más efectivo para conseguir relevancia e, incluso, puede llegar a ser viral…


La propuesta de valor es el “primer ladrillo” sobre el que construir nuestra estrategia de marketing y sin una propuesta de valor (clara) perdemos la posibilidad de guiar a nuestro target hacia nosotros y reducir su incertidumbre/dudas a la hora de tomar la decisión de comprarnos.


Desde el momento en el que se apruebe el diseño, la marca y el PUV serán un solo elemento. Una única forma en la que se presente nuestra empresa o producto.


Por tanto, el trabajo de integración y difusión de ambos elementos es imprescindible dentro del proceso de construcción y desarrollo de marca.


La decoración del local de trabajo, la oficina, el envase, los diferentes soportes de comunicación corporativa, las tarjetas de visita, la papelería, el diseño del sitio web, las acciones en redes sociales, los distintos soportes para la publicidad y acciones de marketing, etc. todo tiene que ser adaptado para que su resultado final frente a nuestros Stakeholders siempre sea complementario entre sí, potenciador e, incluso, evocador de experiencias y emociones que nosotros queramos transmitir a nuestro “target”.


Subrayar, que si este proceso no es desde el momento de inicio de la actividad o desde el nacimiento (por seguir con la terminología que estamos utilizando aquí) y estamos hablando de un “restyling “la adaptación tiene que ser progresiva.


Desde la utilización de la anterior imagen y la nueva en un mismo entorno donde es presentada la nueva, pasearemos a una convivencia diseñada para morir en el corto plazo con la imagen antigua a la sola utilización de la nueva para ir construyendo por “sedimentación” su nueva imagen.


Será necesario contar con un plan de seguimiento y evolución de la marca/ nombre donde poder evaluar tanto el impacto, la aceptación como la construcción de esos nuevos atributos, valores, beneficios o experiencias por los que seremos identificados por aquellos que queramos que sean nuestros clientes.

 

Artículo realizado por Javier Espina Hellín CEO QLC SLP, doctor en Ingeniería de Sistemas de Información, ADE nº colegiado 11.534 y Licenciado en Gestión Comercial y Marketing 

Los futuribles de Jeff Bezos, Rasmus Hougaard, Jacqueline Carter y Vince Brewerton

Estaciones de tránsito con pasillos interminables. Paciencia infinita a la espera del tren de alta velocidad. Equipos aparcados en salas de espera interminables. Mientras sentimos la velocidad de vértigo impactando en el suelo del andén. Nuestras empresas muchas veces son así. Queremos viajar deprisa, pero nuestra cultura corporativa nos sienta a contemplar la velocidad del cambio de otros: más diligentes, más atrevidos, más dinámicos, más flexibles, más visionarios, más impetuosos que nosotros.


Nos preguntamos por qué algunas veces nos quedamos atrapados en estos atolladeros, aunque estemos empeñados en el cambio, la innovación y la sostenibilidad. ¿Qué harían visionarios como Jeff Bezos, el CEO de Amazon, en nuestro caso? ¿Cuáles son los futuribles de Bezos?


El fenómeno de la velocidad del cambio que impulsa la innovación constante de la tecnología, además de dejarnos casi siempre con el pie cambiado, llega tarde a tomar consciencia de la profundidad que tales transformaciones van adquiriendo para toda la sociedad.


Esto se aprecia, frecuentemente, en la falta de capacidad de reacción de la clase política, que siempre parece que va a rebufo de los acontecimientos; son pocas las veces las que diseñan nuestro futuro  común como lo hacen los grandes líderes: anticipándose al devenir.


Este futuro es en realidad nuestro presente por su forma exponencial de tirarnos a la cara los avances sociales, científicos, tecnológicos y culturales. Y hacen que nuestra conducta esté con voluntad de progreso al mismo tiempo que nos invadan los temores sobre las consecuencias del cambio en nuestras vidas.

Situación que no se puede permitir un líder efectivo que presuma de anticiparse al cambio, o al menos, de saber gestionarlo para sacar lo bueno de él o neutralizando aquellos aspectos que sean negativos para personas y organizaciones.


1º) “Una empresa no debería volverse adicta a ser brillante, porque la excelencia no dura”. (Jeff Bezos)


Jeff Bezos, es el CEO de Amazon.com, conocido por su visionaria percepción de la realidad, que ha convertido una idea sobre el comercio electrónico que muchos no entendieron hace 20 años en la empresa más admirada del mundo, con un valor de mercado que ronda los 175.000 millones de dólares.


El alcance de lo que Bezos quiere significar va mucho más allá de la primera impresión que causan sus palabras. Puede interpretarse en planos distintos, como cierta inercia en el cuidado de la excelencia en todas sus acciones que llevan a cualquier organización a bajar la guardia. En una gran cantidad de ocasiones, sucede que al haber llegado cualquier empresa a liderar o a ser una de las referencias claras del mercado, se relaja esa fuerza e impulso para mantenerse altamente competitiva y no dejar que nadie se aproxime.


Otra interpretación, más próxima a la propia estructura empresarial, es no haber cuidado como se debía al personal, lo que por más excelencia a la que haya llegado, cuando las personas no son consideradas como contribuidores decisivos en la medida de lo que se considera excelente, ven flojear su propio compromiso con la organización, al mismo tiempo también, que perciben que el proyecto se va quedando obsoleto, o que se ha perdido esa chispa que la había posicionado en lugar preferente.


La visión de Bezos está realmente definida por sus objetivos de transformar la forma en que las personas compran productos, no simplemente como una actividad de venta de libros online.


Tiene una facilidad natural para re-imaginar nuevas maneras de hacer las cosas, porque se anticipa a lo que los consumidores van a hacer en un futuro tanto a corto como a medio plazo. Interpreta mejor que nadie la comunicación humana, que se expresa también a través de qué cosas preferimos y compramos.


En un mundo cada vez con mayores dosis de volatilidad e incertidumbre, sus líderes deben tener el valor de controlar y administrar el riesgo y el miedo que genera el cambio, al mismo tiempo que diseñan el futuro.


En definitiva, el éxito es un proceso en el que durante su travesía ha habido que vencer incertidumbre, volatilidad y por supuesto, el miedo que adquiere diversas formas de presentarse. Sin neutralizarlos no puede haber futuro posible. Aunque parezca una paradoja, sin miedo tampoco hay futuro.


Las personas y los equipos están sometidos a mucha presión en el ejercicio de sus tareas y responsabilidades, para seguir siendo eficaces sin dejar de perder ni ellos ni la organización, ese valor humano.


¿Qué enseñanza podemos sacar de los “ingenieros del futuro” como Bezos?


Bezos representa la figura del líder efectivo. Una mente preclara que pone como valor a las personas, a las que quiere interpretar en sus gustos, preferencias, debilidades, tendencias, etc., siendo él, en gran parte, responsable de los cambios que la sociedad va introduciendo.


En términos de otro gran líder como Richard Branson: “en qué podemos facilitar la vida de las personas”, que se ha convertido en el leit motiv del imperio empresarial que preside.


Uno de los pensamientos que más satisfacciones le ha dado a Bezos es sin duda cuando dice “nuestro objetivo es ser la compañía del mundo más centrada en el cliente.


El lugar donde las personas puedan encontrar y descubrir cualquier cosa que quieran comprar en línea
“. Llegó a convertir en realidad ese sueño, que era un visión anticipada del futuro.


Cuando se habla de visión a veces no se concreta, pero Bezos tuvo la fuerza y la capacidad práctica de seguir convirtiendo futuros en realidades, por ejemplo, cuando revolucionó no sólo la forma en que las personas compraban libros, sino que también la manera de leerlos, ya que en durante 2007, la compañía Amazon puso a la venta un novedoso dispositivo electrónico denominado Kindle, cuya particularidad residía en haber sido especialmente diseñado para leer libros digitales.


2º) La vision de Rasmus Hougaard, Jacqueline Carter y Vince Brewerton


Rasmus Hougaard es el fundador y director general de ‘Potential Project’, una firma de liderazgo global y desarrollo organizacional que da servicios a empresas como Microsoft, Accenture, Cisco, entre otras. Su segundo libro de próxima aparición ‘The Mind of the Leader – How to Lead Yourself, Your People and Your Organization for Extraordinary Results (HBR Press, a publicarse en marzo 2018) (La mente del líder: cómo liderarse a sí mismo, su personal y su organización para obtener resultados extraordinarios).


Jacqueline Carter y Vince Brewerton

Jacqueline Carter es socia y directora para Estados Unidos de ‘Potential Project y coautora con Hougaard de ‘La mente del líder’ ya referido.


Brewerton es un especialista en estrategia organizacional y es director para Canadá de ‘Potencial Project’. Ayuda a los líderes y sus equipos a mejorar el rendimiento y el bienestar mediante el entrenamiento de la mente.


Después de muchísimas horas de análisis y experimentación de la conducta humana en las organizaciones, Hougaard, Carter y Brewerton nos ilustran con una posición muy interesante que deben de tener en cuenta los líderes responsables de la toma de decisiones, así como todas las personas que están compartiendo proyecto, anhelos y colaboracionismo profesional.


De ahí que sostienen que cuando queremos saber si nuestras acciones y formas de hacer las cosas nos van a dar buenos resultados, la prueba del algodón irrefutable es saber qué piensan las personas de la empresa sobre la cultura corporativa impuesta, las políticas empresariales tomadas, los proyectos  o la planificación en curso.


Claro está, que así descritas, son como una especie de software que funciona de manera abstracta y que compone el mecanismo operativo diario de cualquier organización. Pero detrás de todas esas acciones, existe personas que las toman y muchas otras –todo el personal- que forma parte de las mismas y contribuye en su cuota parte a que los resultados finalmente sean los perseguidos. Estos investigadores priorizan la interacción y el compartir objetivos, no sólo tareas.


En una encuesta de participación de Gallup 2016, encontramos que el 82% de los empleados consideraba que sus líderes son poco "inspiradores".


En otros estudios e investigaciones de psicología organizacional, se llega a la conclusión que el buen liderazgo pasa necesariamente por satisfacer las ambiciones, esperanzas, desarrollo de carreras personales y profesionales.


El compromiso y credibilidad que las personas tengan en sus jefes y/o en el máximo responsable de una organización, es cuando existe la reciprocidad expresada también en compromiso, palabra dada, favorecer el clima de trabajo, preocupación por la capacitación y la formación, así como la convicción de que priman las personas por sobre cualquier otra consideración.


Esto lleva a que personal, responsables de la dirección y mandos intermedios, puedan estar en el camino de la excelencia externa en cuanto a lo que de la empresa se dice y reconoce en el mercado, porque previo a ello hay un proceso operativo que además de ser mecanicista y funcional, tiene una profundidad mucho mayor sustentada en asumir como principal activo el factor humano, de cuya eficacia saldrá hacia el exterior el valor de marca y la reputación corporativa (excelencia).


Hougaard, Carter y Brewerton aciertan de pleno en que los líderes que entienden aquellas necesidades básicas de lo que significa para cualquier persona, el buen trato, la proximidad, nivel de satisfacción y felicidad razonable por estar compartiendo un ambiente de trabajo sano, etc., dispara la voluntad y entrega de hacer todo lo necesario para que el trabajo compartido, la cohesión de equipos, la comunicación abierta, etc., formen parte de ese patrimonio que la cultura corporativa más moderna y humana exige.


Cuando el líder comprende estos sentimientos de las personas (pero especialmente los percibe porque tiene esa sensibilidad para comprender las motivaciones que cada una tiene en su interior), tiene el mayor poder que se le puede otorgar a un directivo con responsabilidad de dirigir a personas y equipos: gestionar con ecuanimidad ese compromiso, dedicación, lealtad, etc., que cada empleado ha entregado a la empresa y sus jefes.


El líder al actuar de esta manera ejerce liderazgo más que gerencia. Gestionar lo pueden hacer la mayoría, pero liderar sólo unos pocos.


Hougaard, Carter y Brewerton afirman que se está produciendo un movimiento global en el nivel ejecutivo de miles organizaciones que pueden ser consideradas progresistas, como Accenture, Marriott, Starbucks, Microsoft y LinkedIn. Llegaron a la conclusión, que los líderes de estas organizaciones se preguntan a sí mismos: “¿cómo podemos crear más liderazgo humano y culturas centradas en las personas donde los empleados y los líderes están más satisfechos y comprometidos?


Entonces, la meta de un líder (lo decimos nosotros) en cuanto a cualquier decisión que tome y acción que emprenda, pasa a formar parte de un “dominio emocional” (término que ellos emplean y compartimos), de manera tal de asegurarse que su posición jerárquica y poder no le haga perder esa sensibilidad y percepción real de las cosas que suceden a su alrededor, especialmente con sus empleados.


Ellos lo dicen de manera directa y clara: “ponte en sus zapatos e imagina que son familiares o amigos”. Lo que se pretende es al menos intentarlo y convertirlo en un buen hábito de liderazgo.


El buen líder es consciente de sí mismo

Hougaard, Carter y Brewerton ejemplifican que un CEO mejoró enormemente el compromiso y el rendimiento de los equipos del banco que dirigía, al hacerse más consciente de sí mismo. ¿Podemos compartirlo?


Es importante que el líder comience con una de sus prioridades fundamentales en las relaciones interpersonales con todos sus equipos y/o departamentos, que es ejercer el entendimiento y la comprensión de los demás; pero a partir de comprenderse más a sí mismo. O sea, tener plena consciencia de quién es, qué hace y cuál es su responsabilidad hacia los demás, porque todo ello hace que cualquier forma de egocentrismo que aún anide en ese líder, quedará perfectamente neutralizada.


Estos investigadores dicen que cuando se empatiza con las personas a las que se lidera, se produce una “motivación intrínseca”.


Entendemos esta postura intelectual en la práctica, como el abierto compromiso que se establece de manera tácita entre empleados, jefes y organización. Afirman que el liderazgo comienza con la autoconciencia y ésta puede mejorarse mucho mediante la práctica de la atención plena”.


Es evidente que el liderazgo trata de las personas y la organización que tú lideras.



Artículo publicado el 1/02/2018 en el FORO ECOFIN (https://ecofin.es/gestion-de-personas/liderazgo/los-futuribles-de-jeff-bezos-amazon-y-otros-lideres/). Coordinado por José Luis Zunni en colaboración con Salvador Molina, Javier Espina Hellín y  Ximo Salas 


Concentración de riqueza y creciente desigualdad: insoportable tensión social y estado de colapso


Casi en Navidad, me viene el recuerdo de uno de mis últimos viajes al siempre querido México, a Teotihuacan y sus pirámides. “El lugar de los poseedores de los dioses”, según traducción del náhuatl.


Una ciudad que ocupa 21 km2 , que contiene un conjunto de monumentos arqueológicos impresionantes, situada a unos 40 km. de México DF y que desde finales de los años 80 está considerado Patrimonio de la Humanidad por la UNESCO.


Pero lo que llamó mi atención, además de sus dimensiones (contiene la tercera pirámide más grande del mundo y su apabullante belleza arqueológica), es que “Teotihuacan” habiendo sido el centro urbano con mayor densidad poblacional durante su periodo de esplendor precolombino en Mesoamérica, de pronto, la ciudad quedó completamente abandonada y toda su cultura, su compleja escritura, sus conocimientos astronómicos se perdieron. Todos los esfuerzos y logros de generaciones se desvanecieron en el tiempo…


Sabemos que fenómenos meteorológicos tan actuales como “el niño” y “la niña” marcaron profundamente su presente. Los periodos de sequía y lluvias se sucedían y los “chamanes” se esforzaban por encontrar un ciclo adivinatorio que les ayudase a prever siembras y cosechas. Volúmenes de grano y control de excedentes. En definitiva, ser capaces de mantener un nivel de población en continuo crecimiento y atender sus necesidades crecientes porque su verdadero tesoro era la obsidiana. Un vidrio volcánico con una composición similar al granito, de color negro, verde muy oscuro e incluso rojo. Su propiedad más apreciada, en el pasado, era su precisión para el corte y la perforación.


Por el comercio de la obsidiana, y a sus pingües beneficios, surgió una élite de ricos comerciantes que, desde la Ciudadela, gobernaban la ciudad y controlaban al resto de una población compuesta por una ingente mano de obra, muy barata, que, por efecto de la migración desde el interior, no dejaba de llegar a este próspero centro urbano…


Una historia que, hasta este punto, por repetida, nos resulta mucho más que familiar.


Si cambiamos la obsidiana por el carbón, el petróleo, el oro, el caucho o cualquier otra materia prima apreciada, en determinado momento histórico, y relativamente escasa (aunque con volúmenes de extracción estables) podríamos cambiar el nombre de la ciudad mexicana por otro cualquiera en ese mismo continente o en otro y, los guarismos de su fecha por otros de la historia contemporánea, moderna o antigua.  


Sólo resta un factor adicional: el canje de vidas por prosperidad o riqueza (buenas cosechas) y la creencia en unos dioses “contables” que a cambio de un apunte en su “haber” exigían un “debe” de juventud, sangre y pureza.


Una práctica común en ese tiempo y de enorme crueldad, visto desde nuestra perspectiva histórica de sociedad postmoderna desarrollada.


La avenida principal de la ciudad o “la Calzada de los Muertos” es donde se sucedían todo tipo de ceremonias y actividades sociales. Un camino de más de 2 km de recorrido desde el recinto de la pirámide de la Luna hasta la Ciudadela. A ambos lados palacios y templos. Las pirámides del Sol y la Luna, el Palacio de Quetzalcoátl o el templo de la serpiente emplumada y el Palacio de los Jaguares.


Las últimas investigaciones arqueológicas apuntan que el ocaso de esa civilización, y el posterior abandono de cuanto fue y significó durante más de 700 años, se debió a una tensión social insoportable, solamente explicada por la enorme desigualdad social existente entre la élite y quienes sostenían esa sociedad.


Una revuelta social incontrolable fue la que acabó con el status quo y la estructura de poder, revelada por los signos de hollín y fuego que se repiten en todas las sofisticadas casas, que hoy se encuentran en las ruinas de la delicada Ciudadela, bellamente ornamentada y con frescos florales en sus fachadas. 

 

Entonces, ¿la desigualdad social conduce siempre a una tensión social insoportable que hace saltar por los aires la convivencia conocida hasta esos momentos?


Un reciente estudio, publicado el pasado mes de noviembre en la prestigiosa revista Nature, llevada a cabo por investigadores de 14 instituciones muestra la evolución de la desigualdad a lo largo de la historia posneolítica en Eurasia y América ayudándose del coeficiente de Gini.


Este coeficiente viene determinado por un número entre 0 y 1, que a veces se multiplica por 100, y que nos dice que el 1 es la desigualdad perfecta (una persona tiene todos los ingresos/ riqueza y los demás ninguno). Analizar lo que se desprende de este coeficiente por países nos hace más que pensar…


Pongamos el ejemplo de los países más desiguales: EEUU muestra un valor creciente desde el 0,8 hasta el 0,85 (según la fuente y el año) y China tiene un Gini de 0,73 (en comparación con España que tiene un 0,58).


Otros países como Grecia presentan un 0,56, Islandia un 0,38 y Noruega un 0,41.


Si tomamos Europa y EEUU, podemos decir que menos en Francia, hay un aumento de la desigualdad en todos los países. Destaca, como hemos visto, Estados Unidos, paradigma de economía poco regulada, donde la desigualdad es muy alta y continuadamente creciente.


En el caso de España, y a pesar de contar en la década de los 80 una desigualdad muy similar a la francesa, en el periodo que transcurre desde 1990 al 2011 nuestro Gini se sitúa en niveles comparables con el Reino Unido, en plena subida del índice como consecuencia de las medidas económicas adoptadas por Thatcher, es decir, la diferencia entre dos hogares tomados al azar creció un 20% de la renta media.

 

¿Son consistentes estos datos con la percepción que tenemos de esos países en términos de desigualdad?


Parece que existe una cierta correlación “intuitiva” por territorio. Asociamos una mayor igualdad en sociedades del centro y norte de Europa y una menor en lugares como EEUU y China.


Según Kohler, de la Washington State University e investigador principal del estudio mencionado junto a sus colaboradores (Greater post-Neolithic wealth disparities in Eurasia than in North America and Mesoamerica, Nature nº551, 619–622, November 2017), "la desigualdad altera de manera importante la sociedad que la provoca e incluso, puede llevarla al colapso" (como parece que fue el caso de Teotihuacan).


Además, “la desigualdad tiene un montón de efectos perniciosos sutiles sobre las sociedades”, dice Kohler después de haber estudiado 63 yacimientos arqueológicos en América del Norte, Europa, Asia y África en un rango de antigüedad que llega a los 11.000 años.


Entonces, ¿cuánta desigualdad podemos soportar?, ¿Cuánta soportaron nuestros antepasados?


Resulta curioso comprobar como la población humana cuando era cazadora y recolectora era mucho más igualitaria que ahora, con un índice Gini cercano a 0 (0,17) y la desigualdad entre pobres y ricos fue aumentando casi en la misma medida que las sociedades agrícolas y ganaderas iban evolucionando (desde 0,27 a 0,35).


Además, el estudio arrojaba otra conclusión preliminar, “las poblaciones mayores, con sistemas políticos más complejos (como Estados) y regímenes más autoritarios también resultaron estar más asociados con un mayor grado de desigualdad”.


Los valores más altos de desigualdad en la antigüedad, identificados en el estudio, se muestran en el periodo desde el 6.000 antes de Cristo y en el siglo I después de Cristo. Los valores del coeficiente Gini oscilan entre 0,48 y 0,60. En concreto, en nuestro “viejo mundo” la desigualdad descrita por un Gini era de 0,59.


Sorpresivamente muy similares a los valores ya comentados de nuestro mundo contemporáneo, España en particular (0,58) pero, significativamente inferiores a los, también mencionados, de China (0,73) y EE.UU (0,80-0,85).


No por casualidad, es en este último país donde se acuña un nuevo término: “billionaire” para denominar el club donde se concentran los que cuentan con una fortuna superior a los mil millones de dólares.


Son muchos colegas economistas los que asocian la implantación del neoliberalismo y el relajo regulador a una mayor desigualdad. Otros factores agregados como la globalización y e-commerce hacen que determinadas economías de escala alcancen valores nunca vistos antes (hace muy pocos días, el dueño de Amazon superaba a Bill Gates en la lista Forbes).


El gran problema, es que las sociedades donde la desigualdad es alta, la movilidad social para los individuos que la componen es baja. Hace mucho más difícil que por mérito, formación y trabajo se pueda “ascender” en la escala social. De manera, que los contenidos en cada estrato social de dicha escala tienden a perpetuarse y que cada escala se separe un poco más de la anterior y de la siguiente. Se conforman, entonces, “escalas estanco”.


Kohler nos indica que la tasa de movilidad ha caído más de 40 puntos porcentuales en solo 4 décadas. Desde un 90% para los nacidos en 1940 a un 50% para los que lo hicieron en los años ochenta.


Pero siendo, este dato suficientemente descriptivo, otros estudios han encontrado que las sociedades con desigualdad tienden a tener peor salud y sus habitantes son menos proclives a confiar los unos en los otros y están menos dispuestos a ayudarse entre sí, es decir, la solidaridad social tiende a ser menor.


“La gente necesita ser consciente de que la desigualdad puede tener efectos deletéreos en la salud, la movilidad, el grado de confianza o sobre la solidaridad social”, nos dice Kohler.


Es muy interesante, detenerse un instante en el adjetivo que utiliza, el autor del estudio, para describir los efectos de la desigualdad. Deletéreo significa “destructor”. El término hace referencia a aquello que es venenoso o mortífero. Que causa o puede causar la muerte por envenenamiento.


Hace referencia, pues, a una potencial muerte de nuestras sociedades contemporáneas por la desigualdad. “No nos estamos ayudando a nosotros mismos siendo tan desiguales”, añade.


Y es en este punto donde se conectan las dos historias de este artículo. La historia de Teotihuacan y la historia de la desigualdad.


Walter Scheidel, en su libro “The Great Leveler”, nos dice que la disminución de la desigualdad es extremadamente difícil de conseguir en una sociedad mediante procedimientos incruentos porque “usualmente viene acompañada de revoluciones, plagas o un estado de colapso”.


Si aceptamos que la desigualdad social actual es el resultado conjunto de diferentes factores interrelacionados, podremos actuar sobre ellos para mitigar o, incluso, revertir sus efectos “deletéreos”. A continuación, señalo algunos de ellos:  


  • la reducción de los precios del capital productivo que provoca una caída de la participación del trabajo en la renta

  • el nuevo paradigma tecnológico que sesga la demanda en favor del trabajo cualificado

  • la globalización y los cambios que ha provocado en el sistema tributario de muchos países reduciendo la carga fiscal sobre las rentas más altas

  • la influencia de una nueva corriente de pensamiento neoliberal en las políticas económicas

  •  y coyunturalmente, por efecto de la última crisis económica, los efectos negativos y crecientes, a este lado del Atlántico, en el Estado del Bienestar (incluidas las últimas reformas laborales)


El aumento en los índices de violencia, de conflictividad social y laboral son claros indicadores de ese malestar social asociado a la desigualdad.


Personalmente, no creo que sea el momento de “verdades ideológicas únicas” si no el de “un pragmatismo crítico” que, con la ayuda de la historia, nos ayude a identificar los errores que cometimos en el pasado para no repetirlos en una suerte de amnesia colectiva y global.


La precariedad laboral que existe en nuestro país y en otros países de nuestro entorno no es un hecho del que estar orgullosos y, menos aún, cuando lo comparamos, por ejemplo, con el aumento retributivo de quienes conforman los consejos de dirección y altos ejecutivos del IBEX 35.


Según un estudio publicado por PWC, su retribución mínima subió en el pasado 2016 un 6% hasta los 121.734 euros mientras que la máxima creció un 11% hasta los 218.838 euros.


Mientras tanto, el salario medio en España subió un 1,1% en 2015, situándose en 23.106 euros, y donde el propio INE señala que el salario más repetido, no la media, fue de 16.500 euros anuales. Es decir, 6.000 euros menos que su valor medio.  


Si nos centramos en el sueldo de los más jóvenes, el valor empeora notablemente y no llega a los 10.000 euros al año.


Pero, siendo dos realidades objetivas que nos perfilan los límites de la realidad salarial en cada extremo opuesto, es innegable que estamos asistiendo a un intenso proceso de devaluación salarial que comenzó en 2009 y que ha afectado más directamente a los trabajadores y mandos intermedios que a las posiciones de dirección.


Así concluye el informe Evolución Salarial 2007-2015, elaborado por el grupo ICSA y la escuela de negocios EADA, en donde han tenido en cuenta 80.000 datos de remuneraciones de empresas públicas y privadas.


 “Deberíamos de estar muy preocupados si en los EEUU el coeficiente de Gini alcanza un valor alto, porque podríamos estar invitando a una revolución o facilitando un estado de colapso. Sólo hay unas pocas cosas capaces de disminuir nuestro Gini dramáticamente”, nos adelanta Kohler.

 

Artículo realizado por Javier Espina Hellín CEO QLC SLP, doctor en Ingeniería de Sistemas de Información y titulado en empresariales con nº colegiado 11.534

 

Fuentes y referencias: http://www.historiayarqueologia.com/2017/11/caballos-de-guerra-y-cerdos-el-origen.html, http://neofronteras.com/?p=5834

El Código Compliance en las empresas ante el delito fiscal

El artículo 305.1 del Código Penal sanciona a quien por acción u omisión, defraude a la Hacienda Pública estatal, autonómica, foral o local, eludiendo el pago de tributos, cantidades retenidas o que se hubieran debido retener o ingresos a cuenta, obteniendo indebidamente devoluciones o disfrutando beneficios fiscales de la misma forma, siempre que la cuantía de la cuota defraudada, el importe no ingresado de las retenciones o ingresos a cuenta o de las devoluciones o beneficios fiscales indebidamente obtenidos o disfrutados exceda de ciento veinte mil (120.000 €) Euros, salvo que hubiere regularizado su situación tributaria en los términos del apartado 4 del presente artículo.

Para la consumación de este ilícito penal se exige que la defraudación a la Hacienda Pública se cometa en una cantidad superior ciento veinte mil (120.000 €) Euros, y que la conducta del infractor tanto activa como omisiva, se realice mediando dolo, lo que significa que el delito se debe cometer voluntariamente y a sabiendas de su ilicitud.

Para determinar la cantidad defraudada se debe estar a la cuantía en cada período impositivo o de declaración.

Por lo que se refiere a la pena prevista en el tipo básico del delito fiscal, cabe distinguir entre si el sujeto infractor es una persona física o si es una persona jurídica (como por ejemplo una sociedad mercantil o empresa), de manera que:

  •  Si el infractor es una persona física la pena a imponer será la de prisión de 1 a 5 años, multa desde el 100% hasta el 600% de la cantidad defraudada, y la pérdida de la posibilidad de obtener subvenciones o ayudas públicas y del derecho a gozar de los beneficios o incentivos fiscales o de la Seguridad Social durante el período de tres a seis años.

  • Pero si el sujeto infractor es una persona jurídica (como por ejemplo una sociedad mercantil o empresa) la pena a imponer según el artículo 310 bis del Código Penal, será de multa desde el 100% hasta el 200% de la cantidad defraudada, la pérdida de la posibilidad de obtener subvenciones o ayudas públicas y del derecho a gozar de los beneficios o incentivos fiscales o de la Seguridad Social durante el período de tres a seis años, e incluso otras penas como:

 o   Disolución de la persona jurídica (como por ejemplo una sociedad mercantil o empresa).

o   Suspensión de sus actividades por un plazo de hasta cinco años.

o   Clausura de sus locales y establecimientos por un plazo de hasta cinco años.

o   Prohibición de realizar en el futuro las actividades en cuyo ejercicio se haya cometido, favorecido o encubierto el delito.

o   Intervención judicial para salvaguardar los derechos de los acreedores por el tiempo que se estime necesario.

Asimismo, hay que subrayar que el tipo básico del delito fiscal prescribe a los cinco (5) años desde la fecha de su consumación, es decir, desde el día siguiente de la fecha de finalización del período voluntario de declaración y/o de pago.

En Qualitas Lex Consulting nos ponemos a tu disposición para diseñar y ayudarte a implementar con eficacia tu propio Código de Compliance, que atienda a los riesgos reales de tu actividad y a las distintas áreas de negocio de tu empresa inclusive el área fiscal y tributario.

By Sergio Gayoso Merino

10.12.2017

El Código Compliance en las empresas ante el delito de blanqueo de capitales


La responsabilidad penal de las personas jurídicas: el delito de blanqueo de capitales.

Los elementos necesarios para que surja la responsabilidad penal de una persona jurídica se contienen en el vigente artículo 31 bis del Código Penal y se resumen en:

a)       La comisión de una concreta actuación delictiva por parte de los administradores y/o los directivos de la persona jurídica, o bien por aquellas personas autorizadas para tomar decisiones en nombre de la persona jurídica o que ostenten facultades de organización y control dentro de la misma. Este es el llamado sistema de atribución de responsabilidad vicarial, por transferencia o por representación.

Igualmente, la comisión de determinados delitos por parte de personas físicas integrantes de la organización de la persona jurídica, indebidamente controladas por sus administradores, por sus directivos y/o por los representantes de la propia persona jurídica.  Este otro es el denominado sistema de atribución de responsabilidad penal basada en la culpa por defectos en la organización.

b)     Que la conducta delictiva se encuadre dentro de aquellos tipos del Código Penal que prevén la imposición de penas para las personas jurídicas. Tal es el caso, por ejemplo, del delito de blanqueo de capitales previsto y penado en el artículo 301.1 del Código Penal.

c)       Que concurra un innegable provecho o beneficio directo para la persona jurídica.

 d)     Que la persona jurídica carezca de un sistema efectivo de control implementado para anular o, al menos, disminuir eficazmente el riesgo de comisión en el seno de la empresa de ese delito. La persona jurídica puede exonerarse de responsabilidad total o parcialmente -por los delitos cometidos por otros- si logra probar la existencia, la implantación y la eficacia para detectar y prevenir el delito, de un programa de cumplimiento normativo o Código de Compliance.

En el ámbito de la responsabilidad penal de las personas jurídicas tiene especial relevancia el delito de blanqueo de capitales, tanto por la amplitud y como por la extensión en que está configurado objetivamente el tipo penal, que prevé actos como “el que adquiera, posea, utilice, convierta, transmita o realice cualquier otro acto para ocultar o encubrir el origen ilícito de bienes procedentes de una actividad delictiva...”.

Pero es que incluso, el artículo 301.3 del Código Penal prevé la modalidad de comisión culposa cuando dice “si los hechos se realizaran por imprudencia grave “.

Todo esto se traduce en que las personas jurídicas pueden resultar penalmente responsables de un delito de blanqueo de capitales cometido “por otros”, si en virtud de lo que se conoce como diligencia debida, está llamada a implementar y a ejecutar eficazmente modelos y planes de detección y prevención del blanqueo de capitales en su propia organización y en sus procesos, y con total y absoluta inobservancia de sus deberes de control y supervisión, no hace nada al respecto.

En Qualitas Lex Consulting nos ponemos a tu disposición para diseñar y ayudarte a implementar con eficacia tu propio Código de Compliance, que atienda a los riesgos reales de tu actividad y a las distintas áreas de negocio de tu empresa.

By Sergio Gayoso Merino
02.11.2017

Transformación Digital: sus claves y sus ahorros


Hay dos frases que cuando hablamos de Transformación Digital siempre me vienen a la cabeza porque nos sitúa, de manera intuitiva, ante los dos ejes disruptivos del fenómeno: el poder de los datos y la filosofía de trabajo que, bajo el uso intensivo de tecnología y sus herramientas, nos debe guiar:


  1. “Sin datos, usted no es más que otra persona con opinión” Dr. Deming (Four Days with Dr. Deming)

  2. “Cuando cambiamos la forma de mirar las cosas, las cosas que miramos cambian” Dr. Wayne Dyer (Tus zonas erróneas/ psicología cognitiva)


Todos nosotros somos testigos y actores involuntarios (o no) de la “transformación silenciosa” más importante nunca antes vivida y que acontece en tiempo real y de manera imparable: la 4ª revolución industrial.


Una revolución “de bolsillo” porque es través del “smartphone” que llevamos encima en todo momento, a diferencia de la Tablet o del ordenador/PC que utilizamos en el trabajo o en casa, desde donde todo sucede. Es uno de los elementos del principio y el fin más popular del proceso. El lugar desde donde se originan miles de inputs y a donde llegan miles de propuestas “personalizadas”.


Nos hemos acostumbrado a su uso intensivo. Para todo. Para comprar, para “cotillear”, para interactuar en nuestro entorno digital, para ampliar nuestro propio yo ideal, para consultar nuestro email, para llegar a un lugar o para buscar desde un trabajo a nuestra “media naranja”. Es nuestro dispositivo “omnipresente” y, paradójicamente, a quien más echamos de menos si no está con nosotros (recuerdan lo que es la “nomofobia”).


Y, ¿por qué?


Pues porque es fácil, intuitivo, moderadamente pequeño, a “todo” color y porque nos permite hacer consultas en tiempos inferiores a 5 segundos, que recibamos notificaciones en tiempo real (con información personalizada) y porque nos inserta en el mundo en un solo  “click”.


En término medio, interactuamos con nuestro terminal de última generación, en 4G, más de 150 veces cada día.


Por eso es una transformación tan silenciosa como cotidiana. Tan recurrente como imparable y que es posible por la concurrencia de 2 factores:


  • la altísima tasa de penetración de los smartphones, que en España, es de un 84% (superando 11 puntos que la media UE)

  • que las Tecnologías de la Información (IT) duplican anualmente su capacidad y mejoran su relación calidad/ precio siguiendo, e incluso superando, lo que nos adelantaba la famosa Ley de Moore.




Una verdadera revolución tecnológica de impacto exponencial y que ya nos permite hablar del Big Data, no como algo abstracto de gran valor sino como de una tecnología de uso común y que ya se aplica, con enorme éxito predictivo y de ahorro, en muy diferentes sectores e industrias.


Un sinfín de dispositivos se encargan de la recogida de información (cada Click en Amazon, compra pagada con la tarjeta, lecturas de contadores de electricidad o gas marcan digitalmente nuestro consumo, opiniones, imágenes, compras online, uso de apps, billetes de avión, mensajería, el GPS, el sistema domótico, medicinas, nuestra nómina, el pago de la hipoteca, etc.)


No olvidemos que hay más de 30 millones de sensores interconectados en distintos sectores. Y creciendo a un ritmo de un 30% anual.


El poder del Big Data se basa, pues, en la información y en la explotación de datos (simples en su recogida y muy complejos en su explotación, que permite al mundo corporativo un conocimiento mucho más ajustado sobre nuestros patrones de consumo, preferencias, comportamientos de compra, medios de pago y un sinfín más de aplicaciones prácticas.


Esto es posible porque el Big Data combina un conjunto de modelos predictivos, estadísticas, inteligencia artificial, procesamiento en lenguaje natural, redes neuronales, patern matching, y demás técnicas algorítmicas, mucho más complejas que las técnicas habituales de las bases de datos transaccionales, que son capaces de encontrar tendencias globales y conclusiones fruto de un “tremendo y muy complejo” análisis de conjunto.


“Extrae” inteligencia de los datos y les da valor (para la empresa y para nosotros) http://todobi.blogspot.com.es/2017/01/big-data-casos-tecnologias-y.html)


Pero seguro que también habrán oído el término, “Business Intelligence”.


En este caso, consiste, esencialmente, en encontrar detalles significativos en datos simples identificando “una correlación concreta” dentro de la masa de datos.


Según IBM es “una tendencia tecnológica para entender y tomar decisiones […] aplicable a toda aquella información improcesable con herramientas tradicionales”. ¿Recuerdan Minority Report y las predicciones que anunciaban un “precrimen”?


El objetivo final es la extrema personalización de contenidos, la identificación de microtargets rentables (marketing biométrico, aplicaciones en mk. político, recomendaciones en Amazon, etc.) y conseguir la plena satisfacción de nuestros clientes (https://youtu.be/7bXJ_obaiYQ) (https://youtu.be/PJqbivkm0Ms), (https://youtu.be/XhFs2jJmOnY)


Porque estamos hablando de cómo llegar a nuestros potenciales clientes desde el comienzo.


Se han preguntado ¿cómo sus clientes?, ¿Cómo y en qué están cambiando?, ¿por qué me eligen a mí y no a mis competidores?


El cambio en el comportamiento, preferencias y decisiones de “nuestro” cliente es, también, muy profundo. Veamos algunos detalles:

  • Existencia de una brecha digital (Millenials, generación Z y anteriores)

  • Perfil más exigente, con mayor experiencia de consumo, menos fiel y con una capacidad de actuación e influencia creciente y en “tiempo real” (uso de redes sociales)

  • Mercados cada vez más homogéneos y maduros

  • Irrupción de nuevos competidores con modelos de negocio que alteran el “status quo” del sector


Además, nos enfrentamos a un entorno normativo mucho más intrusivo y exigente que nunca por la irrupción de regulaciones “globales” en términos de gobierno corporativo, protección al consumidor, observancia obligatoria de información y reporte ante la Administración.


Los datos del último informe OBS sobre Big Data y Business Intelligence son reveladores.

  • El 65% de las empresas saben que corren el riesgo de convertirse en irrelevantes o no competitivas si no adoptan herramientas de Business Intelligence y/o Big Data

  • El tráfico de datos móviles ha crecido 4.000 veces en los últimos 10 años y casi 400 millones de veces en los últimos 15 años

  • En los próximos 2 años, hasta el 75% de las empresas invertirá en Big Data/ herramientas de Business Intelligence (tecnologías OPEN SOURCE, DATA LAKE, etc.).

  • Wi-Fi: los puntos de acceso públicos se multiplicarán por 7. De 64,2 millones (2015) a más de 432 millones en 2020.

  • Volumen de descargas: aumento de un 51% hasta el 2020.

  • En 2020, se estima que habrá 601 millones de dispositivos portátiles en el mundo. Se multiplicará por 5 el dato actual (97 millones)


Ante esta situación, parece clero que la Transformación Digital es inevitable y llega a nosotros para quedarse porque “ninguna compañía puede confiar en que su cadena de valor va a permanecer inalterable” (España 4.0 El reto de la información digital de la economía, 2016, Siemens/ Roland Berger)


Pero, ¿cómo lo hacemos?, ¿cómo deben afrontar las empresas la Transformación Digital?


Tenemos que tener en cuenta las 4 claves de la Transformación Digital para llevar a cabo este proceso y que implica un cambio profundo en la manera de pensar y gestionar nuestra organización, según comentaba al comienzo de este artículo a propósito de las dos frases con las que comenzaba:


  • “El cliente está en el centro y es el principio y fin”. La transformación digital sitúa al cliente en el centro de todo”.

Un cliente nuevo que demanda atención personalizada, más calidad de servicio y “proactividad” del quien elige como “proveedor”. La utilización intensiva de datos de cliente basado en Big Data es fundamental.

Un indicador fundamental es el seguimiento de los clientes insatisfechos.

¿Por qué se van?, ¿qué necesidades no estamos cubriendo?, ¿qué es lo que realmente valoran de nuestra oferta, y qué no?


  • “El e-inclusion como parte de la redefinición del modelo”

En nuestro equipo humano está la fuerza del cambio. Nuevas fórmulas de trabajo que aporten flexibilidad, autonomía y acceso transparente y permanente a la información.

 

  • “La empresa como parte de un ecosistema”

La transformación digital hace posible que nuestro entorno (Stakeholders) se transforme en un aliado.

La analítica avanzada ha revolucionado la toma de decisiones en un negocio, que ya es global, y en donde cada día surgen nuevas formas de interactuar y relacionarse con sus “Stakeholders” (recuerden, todas las personas, organizaciones y empresas que tienen interés en nuestra empresa. Es decir, empleados, clientes, proveedores de bienes, servicios y de capital, la comunidad, y la sociedad en su conjunto). 

 

  • Tenemos que permanecer abiertos a un entorno colaborativo que nos ofrece oportunidades de crecimiento y desarrollo.

Representa un cambio profundo en la manera de gestionar la empresa: “La transformación digital tiene que estar dentro de nuestros planes estratégicos”. Un ejemplo puede ser las startups que naciendo como potenciales competidores pueden integrarse y llegar a ser parte de nuestra empresa….


La transformación digital o la digitalización de las empresas abre puertas a nuevas oportunidades de negocio y, a la vez, a una racionalización de los procesos que se traducen en los ahorros de costes que aparecen en la imagen incluida junto al título…

 

Artículo realizado por Javier Espina Hellín CEO QLC SLP, doctor en Ingeniería de Sistemas de Información y especialista en marketing

Inteligencia Artificial y Red Neural Recursiva (RNN)


Hace muy pocos días se ha dado un paso más en el mundo de la inteligencia artificial (AI) con la creación de una red neural recursiva.


Dicho así no parece que sea gran cosa, pero si lo referenciamos al hecho que ha sido capaz de resolver con una eficacia del 96% una de las máquinas más complejas jamás desarrollada para cifrar mensajes y que necesitó de las mejores mentes del pasado S. XX para ser descifrada, es probable que adivinemos su real importancia y el papel que puede tener en el denominado aprendizaje profundo (deep learning).


Me estoy refiriendo a la máquina “enigma” que desarrolló el Servicio de Inteligencia de la Alemania nazi para proteger sus mensajes cifrados de las fuerzas aliadas en la Segunda Guerra Mundial. (https://youtu.be/G2_Q9FoD-oQ)


Lo cierto es que el trabajo que, entonces, llevaron a cabo un puñado de hombres y mujeres de ciencia (matemáticos, criptólogos, estadísticos y especialistas en lingüística) fue tan intenso y complejo como desconocido e ingrato para sus partícipes. De hecho, la única excepción fue la de Turing, que con sólo con el tiempo y la ayuda de Hollywood su nombre nos es más familiar, a pesar de ser considerado el padre de la informática. (The imitation game. Morten Tyldum, 2014, Benedict Cumberbatch, Keira Knightley), (https://youtu.be/zXKHGaRxQaE)


Sin embargo, para la enorme mayoría de nosotros nombres como Marian Rejewski, Harold Keen o el matemático Gordon Welchman siguen en el olvido.


¿Cómo ser capaces de descifrar un código cuando se desconoce absolutamente todo?


Tuvieron que construir una máquina enorme de rotores móviles, según apreciamos en la fotografía del inicio, e invertir una enorme cantidad de horas para comprender el funcionamiento.


Pero, ¿por qué les cuento todo esto?


Porque según demuestra Sam Greydanus, un físico investigador del aprendizaje profundo y neurociencia, no es necesario conocer cómo funciona la máquina enigma para poder descifrar sus códigos de salida.


En su lugar crea una red neuronal recursiva (RNN) que descifra los mensajes cifrados por la famosa máquina Enigma.


En “Decoding the Enigma with Recurrent Neural Networks” explica que solamente es necesario aplicar la regla criptográfica y con ella una simulación puede obtener los mismos datos de salida para los mismos datos de entrada.


Lo llamativo, es que en una primera fase ni siquiera es necesario que esto funcione siempre (el 100%) porque para “afinar” el modelo solamente tiene que empezar a funcionar.


Primero, se generan los textos de prueba (con un simulador de Enigma) con los que se alimentan la red neuronal recursiva (RNN) con las equivalencias del tipo texto cifrado de salida.


La RNN empieza sus iteraciones (con una GPU k40) y mostró resultados, con una eficacia del 96%, llegando hasta un millón de pasos con 3.000 unidades de LSTM («gran memoria de corto plazo»).


El modelo es capaz de aprender por sí solo a partir de datos de entrada y de salida sin necesitar saber cómo funcionaba la máquina original internamente, en clara contradicción al trabajo llevado a cabo por los criptógrafos de entonces porque no precisa que los textos sean reales o tengan sentido. La razón es que no se buscan patrones ni frecuencias en los textos.


Todo lo que necesitamos es una forma de aproximar la función fEnigma para que pueda “mapear” de texto claro a texto cifrado:

Ciphertext = fEnigma (clave, texto sin formato)

Las RNN nos ayudan a buscar y para ello lo parametrizado, por pesos θ, para empezar a entrenar con pendiente de gradiente. En otras palabras, intentaremos:

Ciphertext = fEnigma (clave, texto claro) ≈fRNN (θ, clave, texto claro)


Pero para aplicar el aprendizaje profundo (para el criptoanálisis) necesitamos “enmarcar” el problema. Elegimos un modelo de mapeo 1: 1 (entre el texto plano y el texto cifrado) y pensando en un texto sin formato (que en este caso era el inglés) y el texto cifrado como un lenguaje extraño, el objetivo de “entrenamiento” de RNN (utilizando una larga memoria a corto plazo o LSTM) se asemejaría mucho a un proceso de traducción automática.


Estos modelos son capaces de capturar complejos patrones secuenciales donde eventos que sucedieron muchos pasos de tiempo atrás pueden determinar el siguiente símbolo.


Como estamos hablando de aprendizaje, es importante dar primero un paso más corto pero que nos ayude después. Por eso, debemos centrarnos primero en algo más sencillo, reajustar el modelo y, sólo después, abordar un problema realmente difícil como era el Enigma.


Como no es el objetivo de este blog el detalle del mapeo y aprendizaje recursivo, para aquellos que quieran conocer el detalle, el código está en Github: crypto-rnn.

  

Como ejercicio práctico, el descifrado de la máquina Enigma es todo un logro porque nos enseña cómo usar una red neural recursiva y cómo utilizar el aprendizaje profundo para descifrar varias cifras, polialfabéticas, mediante una función que asigna el texto cifrado al texto plano.


El mundo de la inteligencia artificial (AI) con el Deep Reinforcement Learning ha hecho posible una impresionante serie de avances en los últimos años que nos acerca a un futuro impensable no hace tanto.


Tareas de enorme complejidad como la comprensión automatizada de textos o la conducción autónoma ya son “casi” una realidad y sitúan, por ejemplo, a la industria de la automoción como uno de los sectores industriales más disruptivos.


Y, para colmo, se romperá el paradigma de hombre y máquina porque la conducción será autónoma…


Y quién sabe, igual dentro de pocos años nos anuncian que se descifra “la máquina Enigma de nuestros días”, el algoritmo RSA. El que permitiría el acceso a contenidos cifrados que hacen posible que nos comunicamos por Internet, de forma segura, y para las transacciones y el comercio electrónico.


Y digo que sería un auténtico reto porque el RSA se sirve de complejas operaciones matemáticas diseñadas para ser muy difíciles de resolver. Estamos hablando de que las RNN u otros sistemas de inteligencia artificial llegaran a identificar, por ejemplo, la necesidad de factorizar números pseudoprimos muy grandes para acceder a esa información cifrada…


Somos conscientes que es algo muy difícil y que ha escapado del análisis de los matemáticos durante décadas pero que, con un poder de computación creciente y la potencial aparición en escena de los tan discutidos ordenadores cuánticos, igual es posible…

 

Artículo realizado por Javier Espina Hellín CEO QLC SLP y doctor en Ingeniería de Sistemas de Información

Protección de Datos Personales. Preguntas Frecuentes. El Delegado de Protección de Datos DPD


¿Qué es un DPD delegado de protección de datos?

Un DPO (en inglés, Data Protection Officer) es una figura de nueva creación prevista en el Reglamento UE 2016/679 de 27 de abril de 2016 de Protección de Datos Personales (que entrará en vigor el próximo 25 de mayo de 2018), en el marco de las medidas de responsabilidad activa que se imponen al responsable del fichero o tratamiento de datos personales (como lo son las empresas) y en ocasiones, también a los encargados de tratamiento (quien trata los datos personales por cuenta del responsable del fichero o del tratamiento).

 

¿Cuándo debe nombrarse a un delegado de protección de datos?

Resulta obligada la designación, particularmente, en empresas y grupos de empresas que tengan entre sus actividades principales las operaciones de tratamiento que requieran una observación habitual y sistemática de interesados a gran escala, o que tengan entre sus actividades principales el tratamiento a gran escala de datos sensibles.

 

¿Quién puede ser delegado de protección de datos?

Una persona física o jurídica con conocimientos en Derecho y, particularmente, con experiencia amplia y demostrable en materia de protección de datos personales.  

El DPD puede formar parte de la plantilla del responsable o del encargado del tratamiento o desempeñar sus funciones en el marco de un contrato de servicios (servicio externalizado).

La designación del DPD y sus datos de contacto deben hacerse públicos por los responsables y encargados y deberán ser comunicados a las autoridades de supervisión competentes. Cabe la posibilidad de nombrar un solo DPD para un mismo grupo empresarial.

 

¿Qué estatus debe tener un delegado de protección de datos?

Debe participar de forma adecuada y en tiempo oportuno en todas las cuestiones relativas a la protección de datos personales. Es por lo que debe relacionarse directamente con el nivel superior de la dirección de la empresa, pero sin que tenga que recibir instrucciones en el ejercicio de su cargo (debe estar en condiciones de desempeñar sus funciones y cometidos de manera independiente).

Asimismo, el DPD debe disponer de los recursos necesarios para el desempeño de sus funciones y responsabilidades, y debe poder acceder a los datos personales y a todas las operaciones de tratamiento de los mismos.

El delegado de protección de datos puede desempeñar sus funciones a tiempo completo o parcial, pero eso sí, en actividades que no den lugar a conflicto de intereses.

 

¿Qué funciones tiene un DPD delegado de protección de datos?

Las principales responsabilidades de un DPD son:

  •  Informar y asesorar al responsable o al encargado del tratamiento y a los empleados que se ocupen del tratamiento de los datos personales.
  • Atender a los interesados que le contacten.
  • Supervisar el cumplimiento de las disposiciones de protección de datos, la asignación de responsabilidades, la concienciación y formación del personal que participa en las operaciones de tratamiento, y las auditorías correspondientes.
  • Ofrecer el asesoramiento que se le solicite acerca de la evaluación de impacto relativa a protección de datos.
  • Y, cooperar con la autoridad de control.

 
Para más información sobre esta materia, y si cree que necesita los servicios de un DPD delegado de protección de datos, contacte con el Área Legal de QLC y nuestro equipo de abogados le ofrecerá el asesoramiento legal adecuado dándole la cobertura que Vd. necesita.


By Sergio Gayoso Merino
30.08.2017

Separación y Divorcio. Preguntas Frecuentes. La duracion de la pension compensatoria


El artículo 97 del Código Civil es el precepto legal que dispone la generación de una pensión compensatoria a favor de aquel cónyuge que la separación o el divorcio le ocasione un perjuicio económico en relación con la situación del otro cónyuge.

Según la Jurisprudencia del Tribunal Supremo, el Juez de Primera Instancia debe decidir sobre tres cuestiones fundamentales en el momento de plantearse el establecimiento de una pensión compensatoria en un proceso de separación o de divorcio:  

 

1) Si la separación o el divorcio va a provocar un desequilibrio económico entre los cónyuges, teniendo presente lo que ha ocurrido durante la vida matrimonial y básicamente, la dedicación a la familia y la colaboración con las actividades del otro cónyuge.

2) Si se advierte el citado desequilibrio económico, se debería entrar a determinar la cuantía de la pensión compensatoria.

3) Y, por último, es necesario abordar el carácter definitivo o temporal de la pensión compensatoria.

 

La fijación de un límite temporal de la pensión compensatoria hoy en día es posible, tanto legal como jurisprudencialmente. Esto es así en virtud del actual artículo 97 del Código Civil (según la redacción dada por la Ley 15/2005, de 8 de julio) pero también por las reiteradas sentencias dictadas por el Tribunal Supremo declarando y admitiendo la temporalidad de la pensión compensatoria (véase la STS de 27 de junio de 2017 Id Cendoj: 28079110012017100399, recurso nº 1642/2016).

Sin embargo, el plazo de duración de la pensión compensatoria tiene que estar en consonancia con la previsión de superación del desequilibrio económico que realice el Juez de Instancia, a través de un juicio prospectivo y según sus máximas de experiencia.

Hay múltiples circunstancias a valorar tanto para establecer la duración como la cuantía de la pensión compensatoria. Aunque se podría citar a modo de ejemplo los siguientes factores por su relevancia práctica:

 

1)   La titulación académica y la cualificación y trayectoria profesional de ambos cónyuges.

2)   La edad, el estado de salud y las probabilidades de acceso a un empleo de los cónyuges.

3)   La coyuntura económica actual y, particularmente el nivel de desempleo, asociado a las personas con menor formación académica y con menor cualificación profesional.

4)   La dedicación pasada y futura a la familia de cada cónyuge considerando la duración efectiva del matrimonio.

5)   El caudal y los medios económicos y las necesidades de uno y otro cónyuge.

6)   Cualquier otra circunstancia relevante.  

 

Otro aspecto para tener muy presente en cuanto a la duración de la pensión compensatoria es que la misma puede extinguirse incluso si se acordó inicialmente como definitiva.

La extinción de la pensión se producirá si se llegase a superar la situación de desequilibrio económico entre los ex cónyuges advertida en el momento de la ruptura.

Un supuesto muy habitual de extinción o de reducción de la pensión compensatoria se da cuando el cónyuge beneficiario de la misma consigue un empleo estable o bien una nueva fuente regular de ingresos.

Y otro supuesto frecuente ocurre cuando el cónyuge que presta la pensión ve reducidos sus ingresos o bien incrementados sus gastos. 

Para más información sobre este tema, puede contactar con el Área Legal de QLC y nuestro equipo de abogados le prestará un asesoramiento técnico ajustado a su situación personal además de ofrecerle la defensa legal más completa en favor de sus legítimos derechos e intereses.

 
By Sergio Gayoso Merino
28.08.2017

La industria del automóvil en metamorfosis industrial: el automovil disruptivo y el modelo 4.0

Pensemos que lo que considerábamos como una industria madura ha pasado a ser punta de lanza en innovación tecnológica (que denominan ya como automoción 4.0) y afecta a toda la cadena de valor y es una transformación de ciclo completo, desde el diseño hasta las operaciones pasando por el propio concepto de movilidad (en propiedad o alquiler).


Se estima que el 86% de los accesorios y complementos del automóvil del futuro cambiarán muy rápido y se podría acortar hasta en 3 veces el tiempo de lanzamiento de un modelo al mercado.


Dejaran de utilizar combustibles fósiles adoptando tecnologías híbridas, donde la electricidad será compañera tándem de pila de combustible de hidrógeno y las células de las baterías serán de grafeno.

Se calcula en 180.000 millones de euros las inversiones necesarias para el desarrollo del automóvil eléctrico. Las economías de escala cobraran aún más importancia y obligará a una nueva ronda de concentración en el sector.


Quizá la pregunta sea: ¿cuándo los motores de combustión fósil darán paso a motores eléctrico?, o incluso mejor, ¿cuándo tendremos vehículos eléctricos baratos?


Las últimas estimaciones “out the record” en la industria nos dicen que aún necesitaremos unos 15 años para que la oferta global de vehículo eléctrico iguale a la de vehículos de combustión fósil. De momento, la tecnología eléctrica es demasiado cara para ser competitiva en precio respecto a vehículos de gasolina.


De hecho, sólo hace falta hacer muy pocos números para demostrarlo empíricamente. Un Nissan LEAF o un BMW i3 son mucho más caros que sus equivalentes en gasolina. Ahora, necesitamos en torno a los 30.000€ para hacernos con un casi-utilitario eléctrico con 300 km de autonomía.


Y, para colmo, se romperá el paradigma de hombre y máquina porque la conducción será autónoma…


Pero, ¿sabemos qué opinan de todo esto los clientes finales o usuarios y los “dealers”. ¿Es compatible la opción “verde” con lo que quieren los clientes?


Ahora, recuerdo un golpe de efecto cómico en una escena de una reciente comedia estadounidense, en la que un abogado durante la asistencia legal a su cliente (detenido por exceso de velocidad en una comisaría de un lugar en medio de ninguna parte) y mientras rutinariamente va completando el procedimiento, al llegar a la pregunta del modelo de coche que conducía cuando se produjo la infracción, hay un silencio pronunciado de diálogo después del cual, levanta lentamente la mirada del papel fijando sus ojos en los del detenido con indisimulada desconfianza para romper en una abierta y sonora risa cuando éste le contesta que un Prius…


¿Velocidad e híbrido?, ¿potencia y electricidad?, ¿concepto “verde” e infracción de la norma?, ¿libertad y poder frente a autonomía limitada?


Estas son las “barreras mentales” que conforman la rotura del paradigma del coche en nuestra cultura postindustrial. Todos los atributos que han sido lentamente grabados por millones de metros de celuloide, cientos de horas de publicidad y una lista interminable de “chicos duros con encanto” a lo Steve Mc Queen a las que se enfrenta la industria y unos “dealers” no tan convencidos en algunas zonas de enorme consumo en nuestro planeta.


Por eso el “gag” del Prius funciona…


Basta con haberse dado una vuelta por el último NAIAS en Detroit (North American International Auto Show), escaparate mundial de los llamados “Muscle Cars” y “Booth Babes”, para confirmar que esos atributos siguen siendo utilizados para posicionar a determinadas marcas y modelos en un mercado muy concreto. La presentación de los nuevos modelos 4x4 de Ford, el F150 (la versión 2017 V6 de 3,5 litros, Raptor), el nuevo Bronco (midsize 4x4 para el 2020 que se fabricará en Michigan), el Pick Up Ranger o el nuevo Mustang ante los medios especializados hablan por sí solos y, dejan muy claro que por el momento, y en ese mercado, existe una clara correlación entre caballos de potencia, grandes motores en V, litros de gasolina y elevados niveles de deportividad, deseo y testosterona… es decir, siguen construyendo el mismo mensaje de siempre.


Un mercado tan grande como el estadounidense que parece dar la espalda “reinterpretando” las iniciativas “verdes”, “sostenibles” o como lo queramos denominar aquí en Europa. Llamo especialmente la atención de cómo la propia marca, Ford, entiende las ciudades del fututo. (https://www.at.ford.com/en/homepage/news-and-clipsheet/news/2017/1/COT.html.


Nos venden tecnología, coches más inteligentes, más potentes, Pre-Collision Assist con detección de peatones, Adaptive Cruise Control con Stop-and-Go, módem 4G LTE incorporado, SYNC 3 y B & O PLAY audio, pero ni rastro de menos emisiones, sistemas eléctricos 100% o híbridos…


Todo parece indicar que muchos aún no saben que la industria ya cuenta con marcas y modelos de tecnología eléctrica e híbrida que ofrecen sensaciones comparables a los de motor de combustión puro y en distintos segmentos.


¿Conocen los RC300h y LC500h de Lexus? (https://youtu.be/Kh4qNN8bdNo), (https://youtu.be/XwTzA1hbwrU),(https://youtu.be/h_iktzXK4K0), (https://youtu.be/JSfwxOdHO68) (https://youtu.be/XwTzA1hbwrU) y el ¿i8 de BMW ( https://youtu.be/DyQGrE9jFQ4), (https://youtu.be/s9DYTeD63Io) o el modelo S de Tesla? (https://youtu.be/Qrj0oAt0Kfg)


La tecnología es la gran apuesta. La gran revolución. Tesla nos ha demostrado que el coche eléctrico es viable, quizá por eso en abril de este mismo año tenía un valor de mercado de 47.000 millones de dólares frente a los 45.000 millones de GM.


De hecho, ya están probando las nuevas baterías con celdas de grafeno. Prometen mejores tiempos de carga rápida y más autonomía (el verdadero caballo de batalla).


Es el “Big Bang” según nos decía el protagonista de uno de los spots que he incluido un poco más arriba.


La pregunta está en saber por qué la industria y los “dealers” siguen apostando por los motores de combustión, especialmente en el país de Trump o por qué China se dibuja como el laboratorio ideal para el coche eléctrico… (creo que sólo este punto justificaría una nueva entrada en este blog). 

 

Un Big Bang que también viene en forma de “Big Data” y con multitud de modelos predictivos de fallos o mantenimiento que prometen ser uno de los pilares fundamentales del modelo 4.0.


Con el crecimiento exponencial previsto del IoT, o internet de las cosas, y en la medida que los coches tengan conectividad a Internet, se podrán hacer mantenimientos predictivos relacionados con el uso y los km. hechos como la presión y desgaste de los neumáticos, niveles de aceite, pastillas de freno, estado de los airbags y un largo etcétera relacionado con la seguridad pasiva. (Que dicho sea de paso ya se aplican en el ámbito de la generación de energía en los aerogeneradores)


El informe Connected Mobility Global Forecast 2016, de Ptolemus, avanza que en 2020 habrá más de 400 millones de vehículos conectados en todo el mundo.


Y todo, gracias a multitud de sensores, etiquetas inteligentes RFID, pasivas, activas o mixtas, marcados o etiquetas Datamatrix (similar a los ya masificados códigos QR) que nos ofrecen la recogida, tratamiento de datos integral y masivo que permitirá una nueva revolución en la fabricación, logística o industria de mantenimiento (por la completa trazabilidad de piezas y componentes).


Pero, también nos espera otra revolución no menor y es la que transita desde la compra del producto (el automóvil) a su consideración como un servicio de movilidad y el impacto en nuestra manera de entender la sociedad


Es ya un hecho que los jóvenes compran menos coches (¿cómo consecuencia de una crisis económica, por un cambio en patrones de consumo o de prioridades?) y se inclinan a su utilización como alternativa de movilidad urbana.


Dentro de ese concepto aparece el “car sharing” (que ya vemos en las grandes ciudades europeas) y su papel clave como pivote de las políticas de movilidad.


Se piensa que, en 2050, 1 de cada 3 vehículos será un “car sharing”.


Y de nuevo, ante un panorama tan poliédrico y cambiante es muy difícil dejar de hacerse preguntas como:


¿Será sostenible un modelo de “car sharing”?
¿Cómo será rentable una industria que prevé inversiones tan intensivas en tecnología y dinero?
¿Qué dimensión deberán tener esas economías de escala?
¿Cuántos operadores (fabricas) quedaran en el mercado global?
¿Esto disminuirá la capacidad de elección del consumidor?
¿Quién estará preparado para no querer sentir cientos de CV bajo su pie derecho y dejar “las llaves” a un ordenador central que te lleve a casa?

Quizá demasiado por ahora, pero seguiremos reflexionando...

Artículo realizado por: Javier Espina Hellín CEO QLC SLP y doctor en Ingeniería de Sistemas de Información 







La guarda y custodia compartida: preguntas frecuentes

La tendencia actual de los Tribunales de Justicia en el ámbito de la guarda y custodia de los hijos menores, desde la reforma en el año 2005 del artículo 92 de Código Civil mediante la redacción dada por la Ley 15/2005, de 8 de julio, es favorecer la aplicación de la guarda y custodia compartida.

Según el Tribunal Supremo, el régimen de guarda y custodia compartida puede ser el más favorable para preservar el interés superior del menor porque permite que se desarrolle en mejores condiciones y de forma más satisfactoria, la relación del hijo menor con sus padres (porque permite la participación en igualdad de condiciones de ambos progenitores en el desarrollo y crecimiento de sus hijos) superando en gran parte las carencias observadas entre los progenitores no custodios y sus hijos.

Es evidente que la guarda y custodia compartida es más adecuada cuando los hijos tienen un vínculo afectivo normalizado y positivo con sus progenitores, y cuando no hay impedimentos graves que desaconsejen esta modalidad de guarda y custodia, como por ejemplo, en supuestos de amenazas en el ámbito familiar, de violencia de género y/o de maltrato infantil.

Dicho esto, cabría preguntarse en buena lógica si constituye un impedimento para la guarda y custodia compartida que los padres residan en diferentes localidades y que disten entre sí, algunas decenas de kilómetros, lo que necesariamente implicaría constantes cambios de domicilio del hijo menor en períodos cortos de tiempo: cada semana o bien cada quincena.

La respuesta de los Tribunales a esta cuestión no es siempre uniforme porque se ha de estar a cada una de las circunstancias concurrentes de cada caso, pero existe cierto consenso en que se deben de evitar los desplazamientos perjudiciales para el menor.

Con el fin de ilustrar al lector y acercarle a este tema de muy reciente actualidad, citamos el caso tratado en la Sentencia nº 748 del Tribunal Supremo dictada el 21 de diciembre de 2016, donde se determinó que es desaconsejable la guarda y custodia compartida cuando el hijo está escolarizado en un centro próximo a la residencia de uno de los progenitores y, el domicilio del otro progenitor está a una distancia de unos cincuenta (50) kilómetros.

Sin embargo, sí es perfectamente viable la guarda y custodia compartida en el supuesto en el que, habiendo una distancia de unos cuarenta y dos (42) kilómetros entre los domicilios respectivos de los progenitores, el centro escolar está ubicado a una distancia equidistante entre ambos domicilios. Esta es la decisión adoptada en la reciente Sentencia nº 370 del Tribunal Supremo dictada el 9 de junio de 2017, que sostiene que, bajo estas circunstancias, resulta igualmente gravoso para el menor el traslado al colegio desde una u otra localidad y que, en el caso planteado, esta dificultad parece estar superada.

Para más información sobre este tema, puede contactar con el Área Legal de QLC y nuestro equipo de abogados le prestará un asesoramiento técnico ajustado a su situación personal además de ofrecerle la defensa legal más completa en favor de sus legítimos derechos e intereses.


By Sergio Gayoso Merino
13.07.2017

Bill Gates o Harry Potter: la calidad de los datos o el poder de las predicciones

Ayer mismo, me sorprendió el artículo que, publicaba el “Business Insider Australia” (https://www.businessinsider.com.au/bill-gates-15-predictions-in-1999-come-true-2017-6 con respecto a la sorprendentemente precisa capacidad predictiva de Bill Gates sobre lo que nos depararía el futuro, hace casi 20 años, en una industria de cambios tan profundos, acelerados y de sustitución de paradigmas como es la informática, el software o Internet.  


Al terminar de leer lo que Biz Carson publicaba y, estando cada vez más seguro, que las coincidencias no existen y que el azar es poco más que un concepto estadísticamente relevante, me surgieron las primeras preguntas:  


·       ¿Bill Gates contaba en 1999, como supongo ahora, con una información de tan alta calidad que las 15 predicciones que anticipó eran sólo el final de un camino previsible en un continuo de desarrollo lógico?

·       o utilizando el término acuñado por el sociólogo R.K. Merton ¿se trata de una “profecía autocumplida”?


Dicho de otra manera, es posible suponer que siendo uno de los grandes gurús de esta industria, sus intuiciones acaban siendo una realidad concreta, años después, porque determinan su propia conducta y las líneas de investigación y desarrollo que impulsa (desde su posición de dominio y privilegio) y, que más tarde, acabaran convirtiéndose en los “estándares” que definen la expectativa general de la sociedad que las consume y del mundo que él mismo contribuye a dar la forma y que el resto de nosotros, después, conocemos…

La verdad es que aún no tengo la respuesta, pero, mientras tanto, si me gustaría compartir las 15 predicciones a las que hago referencia siguiendo el esquema que el autor del artículo utiliza (predicción vs realidad 2017) y, que Bill Gates recogía en un libro titulado “Business @ the Speed of Thought.”(Negocios @ la velocidad del pensamiento) que publicó en él, ya comentado año, 1999.


1: Sitios web de comparación de precios.

Gates escribía: "se desarrollarán servicios automatizados de comparación de precios, que permitirán a la gente ver los precios en varios sitios web, por lo que será más fácil encontrar el producto más barato para todas las industrias".


Nuestra realidad cotidiana en internet es esa. Buscamos, fácilmente un producto o servicio (un libro, película, camisa, seguros, viajes y un largo etcétera en buscadores como Google o integrados en “marketplaces” como Amazon.


2: Dispositivos móviles.

La predicción de Gates: "La gente llevará consigo pequeños dispositivos que les permitan estar constantemente en contacto y hacer negocios electrónicos desde dondequiera que estén. Podrán ver las noticias, ver los vuelos que han reservado, obtener información de los mercados financieros, y hacer casi cualquier otra cosa en estos dispositivos ".


Poco puedo añadir. Los Smartphones, y “wearables” son una realidad.


El trimestre vacacional de 2016, el Q4 terminó con 428,5 millones de smartphones distribuidos frente a los 400,7 millones del trimestre equivalente de 2015. Un crecimiento de un 6,9 %.


En total, durante 2016 se vendieron 1.470 millones, una cifra récord.


Entre enero y marzo de 2017 se vendieron un total de 347,4 millones de teléfonos inteligentes, lo que marca un crecimiento del 4,3% sólo en esos meses.


3: Pagos instantáneos, financiamiento en línea y mejor atención médica a través de la web.

Gates: "La gente pagará sus cuentas, se encargará de sus finanzas y se comunicará con sus médicos a través de Internet".


Los pagos seguros en sitios web, mediante tarjeta de crédito/ PayPal ya no son una novedad, pedir dinero prestado on-line a través de diferentes sitios web o el despegue consolidado de las Fintech, parece que tampoco.


Fintech es el producto de la unión de “financial y technology” y hace referencia a un sector de empresas de base tecnológica, normalmente al margen de las compañías tradicionales, que ofrecen servicios financieros.


Un ejemplo de la importancia de fintech en España es la reciente creación de la Asociación Española de Fintech e Insurtech, que cuenta ya con el apoyo de más de 50 compañías que representan a la gran mayoría del sector.


Sin embargo, no se puede decir lo mismo de la salud porque su utilización, implantación y desarrollo no es comparable, por ejemplo, a lo que Uber o Cabify han supuesto en el sector del transporte.  


4: Asistentes personales y el IoT o Internet de las cosas.

"Se desarrollarán compañeros personales. Conectarán y sincronizarán todos sus dispositivos de una manera fácil y “elegante”, si están en el país o en la oficina, y permitirán intercambiar datos. El dispositivo comprobará su correo electrónico o notificaciones y presentará la información que necesita. Cuando vayas a una tienda, podrás decirle qué recetas quieres preparar, y generará una lista de ingredientes que necesitas comprar. Se informará a todos los dispositivos que utilizas de tus compras y el calendario, lo que les permite adaptarse automáticamente a lo que está haciendo”.


Sobre los asistentes que nos ofrece la “inteligencia artificial” (AI) poco que decir: Siri de Apple, Braina, Google Assistant, Google Now, Amazon Echo, Microsoft Cortana, S Voice y, ahora en su S8, Bixby de Samsung (sobre el que ya escribí en este blog), Voice Mate, Silvia o Hidi de HTC. Mientras tanto, los dispositivos inteligentes como Nest recopilan datos sobre nuestras rutinas diarias…


En cuanto a recetas y cocina, Google Home lee tu correo electrónico y te guía a través de recetas mientras cocinas...


5: Monitoreo en el hogar on line.

"Los canales de video constantes de tu casa se harán comunes que te informarán cuando alguien visita mientras no estás en casa".


Google compró por 555 millones de dólares Dropcam (en 2014), un fabricante de cámara de vigilancia. Pero eso fue sólo el comienzo:

·       Ring fabrica una cámara de timbre inteligente que te permite ver quién está en su puerta.

·       PetCube controla un láser para que puedas jugar con tus mascotas mientras estás fuera.


6: Medios de comunicación social.

"Los sitios privados para sus amigos y familiares serán comunes, lo que le permitirá conversar y planear eventos".


Hoy, redes sociales como Facebook cuenta con 2000 mil millones de usuarios. Pero hay otras muchas como Snapchat, Instagram, WhatsApp, Messenger y una explosión de otras redes sociales más pequeñas…


En España, se ha publicado hace pocos días el último IAB estudio al respecto. (https://fatimamartinez.es/2017/04/23/estudio-anual-de-redes-sociales-en-espana-2017-iab/)


·       La cifra de usuarios de Redes Sociales en España se eleva a 19, 2 millones (16 a 65 años)

·       La penetración de las Redes Sociales alcanza el 86%

·       En cuanto al perfil del usuario de Redes Sociales, prácticamente se iguala el número de hombres y mujeres.

·       La edad media se sitúa, en torno, a los 39 años (si bien la mayor concentración estaría entre los 31 y los 45 años)

·       Facebook y Twitter siguen siendo las primeras redes mencionadas, muy por delante de todas las demás.

·       Instagram aumentado su notoriedad situándose como la tercera red y Linkedin la cuarta más recordada

·       Casi la mitad de los usuarios poseen estudios universitarios

·       El 66% trabaja en la actualidad


7: Ofertas promocionales automatizadas.

"El Software que sabe cuándo has reservado un viaje y usa esa información para sugerir actividades en el destino local. Sugiere actividades, descuentos, ofertas y precios más baratos para todas las cosas en las que quieras participar. "


¿No os pasado que habéis consultado el precio de un vuelo a Singapur y, minutos más tarde, en todas las siguientes búsquedas aparecen “anuncios” de vuelos a ese lugar?


Sitios web como Expedia y Kayak ofrecen ofertas basadas en los datos de compra anteriores de un usuario. Google y Facebook pueden ofrecer anuncios promocionales basados en la ubicación e intereses del usuario. Airbnb, comenzó a ofrecer viajes especializados hace ya mucho…


8: Sitios de discusión de deportes en vivo.

"Mientras ve una competición deportiva en televisión, podrá discutir lo que está pasando en vivo e, incluso, participar en un concurso sobre quién cree que va a ganar".


Existen un montón de sitios que permiten esto. Twitter es el líder indiscutible y podemos dejar comentarios, en tiempo real, en webs deportivos como ESPN.


9: Publicidad inteligente.

"Los dispositivos tendrán publicidad inteligente. Conocerán sus tendencias de compra y mostrarán anuncios que se ajustarán a sus preferencias ".

 

Aquí siempre me acuerdo de los anuncios que ofrecían, por su nombre, a Tom Cruise de GAP, Guinness, American Express, etc. en un mundo de cámaras omnipresentes y que ya aparecían en la película de Minory Report. Os adjunto el video en Youtube. (https://youtu.be/XhFs2jJmOnY)

Aquello se nos vendía como una predicción posible en un entorno de ciencia-ficción, pero ahora podemos “disfrutar” de los anuncios/ comerciales en en Facebook o Google.


Con el big data analysis data mining, la mayoría de los servicios de publicidad on line responden a una microsegmentación basada en nuestro historial de clics, intereses o patrones de compra.


10: Enlaces a sitios durante la TV en vivo.

"La emisión de televisión incluirá enlaces a sitios web relevantes y contenidos que complementen lo que está viendo".


En la actualidad no es exactamente así porque muchos spots “invitan” al espectador a iniciar, completar “una historia” o “el final de la misma” desde el sitio web del anunciante. Otra opción menos popular es la de escáner un código QR, habitualmente en soportes escritos para iniciar un spot, complementar una información o para añadirlo, por ejemplo, en Snapchat. Confesaré que en las tarjetas de visita de nuestra consultora QLC, decidimos incorporar un QR que abre nuestro sitio web…


Como tengo un “indisimulado sesgo marketiniano”, os adjunto distingos ejemplos en España desde 2012 hasta ahora y de diferentes sectores: (https://youtu.be/AZDzGgFR2_0), (https://youtu.be/bmI7apQWoqM), (https://youtu.be/46atp3IagQw), (https://youtu.be/pwWLAC539dw), (https://youtu.be/6jlQiwcsV9Q)



11: Tableros de discusión en línea.

"Los residentes de las ciudades y países podrán tener discusiones basadas en Internet sobre temas que les afectan, como la política local, la planificación urbana o la seguridad".


Discusiones no tanto. Al menos que mantengan el modelo dialéctico clásico.


La mayoría de los sitios de noticias tienen secciones de comentarios donde se puede tener discusiones en vivo o contribuir a la construcción de un foro. Twitter y Facebook han sido plataformas “esenciales” en movimientos y revoluciones políticas, muy recientes, en Libia, Egipto y Túnez o el movimiento Black Lives Matter en Estados Unidos.


Pero quisiera detenerme sólo un instante en el destacado papel de Twitter en esto. Incluso la manera en la que es usada por el “emisor” del mensaje.


Sólo un ejemplo: Trump, el actual presidente de EEUU, donde premeditadamente “evita o puentea” al tradicional intermediario y accede directamente al ciudadano/ votante/ resto del mundo en 140 caracteres. Una “revolución” en el ámbito de la comunicación y que desplaza, a periodistas y medios de comunicación del protagonismo de antaño al de actores secundarios, obligándoles a la respuesta “reactiva” cuando responden al “pie” del actor estrella. ¿supondrá esto una alteración del “status quo” y del “poder” de ese cuarto? (esto daría para mucho más que hablar).


12: Sitios en línea basados en intereses.

“Las comunidades en línea no estarán influenciadas por tu ubicación, sino más bien por tu interés”.


Existen todo tipo de sitios de noticias y comunidades en línea que se “especializan” en temas únicos. Reddit es un gran ejemplo de un sitio web que se divide en subgrupos, o "subreddits".


13: Software de gestión de proyectos.

"Los directores de proyecto que buscan unir a un equipo podrán ponerse en línea, describir el proyecto y recibir recomendaciones para las personas disponibles que se ajusten a sus necesidades".

Es difícil nombrar a alguno de ellos porque existen cientos de opciones de software que permiten el trabajo superando los límites físicos de la empresa y de su almacenamiento (soluciones Cloud)


14: Reclutamiento/ contratación on line.

"Del mismo modo, las personas que buscan trabajo podrán encontrar oportunidades de empleo en línea declarando su interés, necesidades y habilidades especializadas".


Redes como LinkedIn nos permite, además de compartir “contenidos” como este, cargar o subir CV , encontrar trabajos basados en intereses/ necesidades y a los reclutadores buscar por habilidades concretas.


15: Software de la comunidad empresarial.

"Las empresas podrán pujar por los empleos, ya sea que busquen un proyecto de construcción, una producción cinematográfica o una campaña publicitaria. Esto será eficiente tanto para las grandes empresas que quieren externalizar el trabajo como para empresas que buscan nuevos clientes o que no tienen un proveedor para determinado servicio ".


Mucho del software de empresa disponible se centra en los aspectos sociales, por lo que los usuarios pueden llegar a otras empresas y comenzar una conversación que podría conducir a proyectos más grandes. La llamada “economía gig”, con sitios como Upwork, permite a las grandes empresas conectarse, fácil y directamente, trabajadores independientes/ autónomos como diseñadores, escritores o ingenieros para hacer un trabajo concreto que buscan externalizar.

 

Como habéis visto son 15 aciertos sobre 15 predicciones.


¿Tenéis vosotros una respuesta sobre el secreto de tal exactitud?...

 

 

Artículo realizado por Javier Espina Hellín CEO QLC SLP y doctor en Ingeniería de Sistemas de Información

El principio de Peter y Procusto, el posadero que todos conocemos en la empresa

Aprovechando que ya muchos están de vacaciones y otros muchos más pensando que el mes de agosto está cada día más cerca, puede ser el momento de reflexionar sobre uno de los fenómenos que más negativamente afectan a las relaciones humanas, laborales y al resultado económico de las empresas.


En el ámbito de la psicología se conoce como el síndrome de Procusto.


Un nombre no tan sencillo de recordar y que, probablemente, sin más información no nos permita saber de qué estamos hablando. Pero si abro comillas, e intento definirlo como “el miedo a ser superado (profesionalmente) por un subordinado, por un miembro de mi equipo de trabajo o de uno de mis pares en el órgano de gobierno de la compañía”, seguro que no sólo comprendo con exactitud a qué hace referencia el síndrome de Procusto sino que, inmediatamente, acudirán a nuestra cabeza los nombres de insignes “procustos” que hemos conocido a lo largo de nuestra carrera o que tenemos el “desafortunado gusto” de sufrir en la actualidad.  


Como en tantas otras ocasiones los mitos griegos nos ayudan a caracterizar comportamientos tan humanos como antiguos y que, a pesar, de ser tantos los años de experiencia y vida transcurridos desde entonces, no dejan de replicarse.


La historia del mito se podría resumir en una frase: “a quien sobresalga hay que cortarle los pies y la cabeza”.


Nuestro protagonista se llamaba Damastes, también conocido como Procusto, uno de los hijos del dios Poseidón que regentaba una posada en las colinas de Ática. Tenía por costumbre acoger en su casa a viajeros y caminantes a los que dispensaba de trato amable, dispuesto y con una gran hospitalidad.


Sin embargo, apenas conciliaban el sueño en la primera noche que éstos pasaban en lugar tan afable, Procusto los amordazaba primero y, después, comprobando que su tamaño era distinto al de la cama de hierro donde dormían, les cortaba aquellas partes del cuerpo que sobresaliesen.


Pero no sólo los altos sufrían tan brutal “normalización” sino que los más pequeños o menos corpulentos también eran obligados a enfrentarse a las “ideales” medidas del camastro, rompiéndoles los huesos con un mazo para estirar sus miembros hasta sus bordes.


Como en toda historia mitológica, este macabro ritual se repetiría una vez tras otra hasta la llegada del héroe. Esta vez se trata de Teseo, quien hábilmente y sirviéndose de una mañosa estrategia, haría que el propio Procusto se sometiese a las medidas de su metálico canon normalizador y, comprobando que él tampoco se ajustaba, procedió de la misma manera que su anfitrión lo hacía con sus anónimos invitados. Le cortó la cabeza y le mató.


¿Qué nos quiere decir esta historia?


Que nadie queda fuera de “la presión de la normalización o de la uniformidad”, factor característico del síndrome, con el nombre del posadero, que la mayor parte de las veces y solo al comienzo, el que ejerce el poder trasviste de afecto, compañerismo u hospitalidad, según el nivel jerárquico del “invitado”, en su interacción con él o ella, sin que exista, supuestamente, ningún tipo de malestar o conflicto.


Es la imposición de un estándar arbitrario y propio para el que se fuerza una conformidad exacta. Interpretará, deformará y forzará los datos para que se confirme su hipótesis de partida. Es necesario que se refuerce su particular manera de ver determinada realidad o afrontar tal problema.


Pero lo que de verdad esconde el sujeto que sufre de tan “florido” síndrome, es de una muy baja autoestima, sentimiento de inferioridad y miedo. Mucho miedo a que le quiten o pierda, por competencia, el lugar o puesto que ocupa dentro de la academia, la empresa, el partido político, etc.


Las consecuencias para el “caminante/ viajero/ miembro del equipo o par”, como podemos esperar por el contexto mitológico y la experiencia vital de quienes ya contamos con más años, son siempre desastrosas, ya que no será incorporado a tal proyecto o tarea por miedo a que brille, se le evaluará negativamente en los controles internos por alguna razón o se le exigirá un grado de cumplimiento y dedicación superlativo pero, en lo que pocas veces reparamos, es que también será desastrosa para la propia organización a la que ambos pertenecen y a la que, supuestamente, deberían aportar lo mejor de ellos.


La organización en su conjunto sufre no sólo por la falta de esas nuevas ideas, iniciativas o retos a los que enfrentarse propuestos por ese “incómodo” subordinado, compañero o par sino que el coste de oportunidad o, incluso, la pérdida de la misma puede llegar a ser inasumible porque pone en peligro la propia viabilidad futura de una organización débil y endogámica que, en el mejor de los casos, continuará avanzando durante un tiempo hasta su definitiva parada sólo por la inercia o el volumen de sus operaciones.


Todos podríamos enunciar casos de grandes empresas que han acabado, en relativamente poco tiempo, siendo compradas o absorbidas por antiguos competidores o simplemente en nada y desapareciendo entre el asombro y la duda de quienes, perplejos, son testigos de su caída.


Pero ¿porqué quien sobresale por su conocimiento, competencias o habilidades es perseguido o está mal considerado en la empresa, en la academia/universidad o en la política?, ¿por qué está tan extendido? y ¿cómo debemos enfrentarnos a las personas que sufren de este síndrome?


Las causas son diversas y sus efectos los podemos observar desde la infancia. Son frecuentes los niños que, sabiéndose con especiales capacidades o superdotación, se esfuerzan por ser como el conjunto al que quieren pertenecer, limitando su energía para obtener calificaciones medias (cuando son conscientes que su factor diferencial es su potencial intelectual), suspendiendo para evitar la pertenencia al estereotipo de “empollón”, “sabelotodo”, “sabiondo”, etc. o incluso uniéndose al grupo más revoltoso y gamberro de la clase…


Este tipo de situaciones de búsqueda de pertenencia, aceptación y conformidad con el grupo se han estudiado profundamente. Personalmente, recomiendo el vídeo, que todavía se puede ver en Youtube, del experimento universitario que se llevó a cabo en los años 70 y que se conoce como “experimento de Asch”, para comprender la complejidad psicológica del mecanismo que subyace tras estos comportamientos. (https://youtu.be/wt9i7ZiMed8


Es, tristemente, común la crítica y la humillación pública cuando el que ejerce la posición de poder ve en peligro su prestigio o posición. Esto puede suceder, incluso, en la relación profesor-alumno cuando el primero tiene una baja autoestima y el segundo una especial dotación o inteligencia.


El objetivo último es la minusvaloración del que se identifica como amenaza.


Pero en el ámbito profesional y laboral el mecanismo de actuación es triple:


1.     Por un lado, la “apropiación” de la idea, innovación, estrategia o iniciativa es imperativa ante los demás.


2.     Al tiempo, es sometido a un excesivo nivel de control con el fin de “buscar” el fallo procedimental o la falta de respuesta al estrés del sujeto, y conseguir el argumento necesario.


3.     Para, finalmente, construir “el relato del descrédito personal” o tercera fase de actuación. Nada mejor que acudir a uno de nuestros mecanismos más antiguos de evolución: el “chisme” interesado o la explotación del estereotipo.


El estereotipo en sí mismo funciona muy bien porque es natural para nuestro cerebro. Recoge sintéticamente aquellos aspectos que nos ayudan a clasificar. Si, por ejemplo, la persona atacada tiene mucha formación académica (tiene varios grados universitarios y diferentes másteres) con extender un “bienintencionado” comentario que haga referencia a los muchos años que ha tenido que estar estudiando para conseguir tal colección de títulos, conseguimos que se le encasille como un “ratón de biblioteca”, “mucha teoría y poca práctica”, “sólo sirve para estudiar”, “no hay tanto mérito si sólo te dedicas a eso”, y un largo etcétera de “fotos rápidas pero muy concretas” cuyo único propósito es la “normalización/ estandarización” de la excelencia y la asociación de atributos relacionados con aspectos negativos en el ámbito profesional: “tímido”, “apocado”, “débil” o “ensimismado”.


Es tan dañino y perjudicial porque al primar la visión del “procusto” se dificulta o anula el trabajo en equipo, se tensiona el ambiente de trabajo hasta forzar la coincidencia, desaparecen las relaciones win-win porque no existe equilibrio y, por supuesto, no permite la potenciación de las capacidades y de los recursos con los que podría contar la organización empresarial, académica o de partido si no fuese por su intervención tóxica.


En definitiva, es una grave “afección” tanto para la salud de las personas como para la salud de las organizaciones a las que pertenecen.


Por eso el síndrome de Procusto, es tan generalizado y trasversal porque su presencia puede llegar hasta al ámbito personal. En relaciones de pareja, los que sufran este síndrome evitarán personas más atractivas, más inteligentes o más preparadas que ellas…


En palabras de Juan Carlos Valda, “el gran problema de muchas empresas es que tienen empleados en puestos de responsabilidad que han decidido (consciente o inconscientemente) que sus obligaciones no son las que les ha asignado la empresa, sino que su trabajo consiste en mantener su trabajo”.


Es por eso, por lo que, si no se opera de manera decidida desde la dirección general o la presidencia, el decanato o la rectoría a través de los mandos intermedios contra estas prácticas surgidas del miedo irracional, toda la organización quedará presa de la mediocridad y de la tiranía de aquéllos que preferirán al más dominable frente al más eficiente/competente por la sola egoísta bondad de que suponen una menor amenaza al ser más controlables y fieles.


Tenemos que identificar a aquellos directivos que se encuentran frente al “Principio de Peter o de incompetencia” y deciden convertirse en tóxicos porque son una amenaza cierta para toda la organización.


Las empresas, la academia y las organizaciones en su conjunto tienen que incorporar la diversidad, la innovación y la excelencia.


Steve Jobs nos decía que “no tiene sentido contratar personas inteligentes y después decirles lo que tienen que hacer. Nosotros contratamos personas inteligentes que nos digan qué tenemos que hacer”.


El reto está en saber gestionar el talento de aquellos que te harán mejor como directivo no en contar con personas dentro de tu equipo, de valía, que sepan más que tú en determinadas áreas.


Desde el ámbito personal, la única forma de contrarrestar las acciones de estas personas “tóxicas” es no cejar en el intento, ser firmes (recuerdo ahora, la conversación con una colega muy querida y la expresión surgida durante la conversación que mantuvimos recién llegado a su país: “mano de hierro con guante de seda”) y siempre desde la ética personal y la profesionalidad. (https://youtu.be/Q7kBpPfAzr8)


Me viene a la cabeza el lema celiano, la frase que siempre repetía uno de nuestros premios Nobel más recientes y Premio Príncipe de Asturias, D. Camilo José Cela: “el que resiste gana”, y que probablemente recogió de la antigüedad clásica (vincit quis resistit).


La escribió por primera vez en “Caminos inciertos. Historia incompleta de unas páginas zarandeadas” a propósito de su libro más famoso, La Colmena, y del papel de la censura de entonces “que no admitía ni el diálogo, ayudó no poco a mi desmoralización, de la que salí a pulso y pensando en dos cosas: que, “en España, el que resiste gana” y que “no me quedaba otra solución que sacar fuerzas de flaqueza para seguir resistiendo”.


Siempre tenemos que dar lo mejor de nosotros mismos, por un compromiso personal y deontológico, y cuando después de intentarlo, sin descanso, lleguemos al convencimiento de que la organización se ha convertido en endogámica y tóxica, de manera elegante, buscar la salida. Seremos mucho más útiles en otro lugar. El tiempo se encargará del resto...  


 

Artículo realizado por Javier Espina Hellín CEO QLC SLP y doctor en Ingeniería de Sistemas de Información


La toma de decisiones colectivas racionales: un “pequeño” milagro del que aprender.

Hace muy poco tuve la oportunidad de leer un estudio (http://neofronteras.com/?p=5560) que me llamó especialmente la atención y que me gustaría compartir a través de este blog de QLC. Incluso me llevó a buscar el “paper” original y consultar otros que se publicaron antes por la aplicación que pueden tener sus conclusiones en modelos de Inteligencia Artificial.


El primero, fue publicado el pasado 2 de abril en “The Royal Society” y sus autores son dos científicos japoneses, Tatsuhiro Yamamoto y Eisuke Hasegawa (http://rsos.royalsocietypublishing.org/content/4/4/170097)


Abordan un fenómeno que se denomina “propiedades emergentes” y que nos subraya el hecho que en la naturaleza se observan constantemente y en cualquier nivel. Son aquellas propiedades que no se encuentran en los miembros o las unidades que componen un colectivo o estructura pero que si aparecen cuando interaccionan entre sí y lo conforman.


Es un fenómeno conocido, pero extremadamente complejo de explicar y aplica al tema de fondo que abordamos: la toma de decisiones colectivas racionales, o lo que es lo mismo, cómo a partir de la inteligencia binaria (si/ no) de cada uno de las unidades o individuos que pertenece a una determinada estructura o sociedad (los estudios se han hecho con insectos sociales) ésta es capaz de tomar la decisión que más le beneficia.


En el trabajo publicado, los investigadores japoneses, aplicando un modelo animal, comprobaron que cuando un número mayor de individuos responde "sí" a la mejor opción disponible, el “tomador de decisiones colectivo” hace lo mismo. Y lo hace usando sólo el mecanismo binario de sí / no (es decir, sin aplicar “decisiones de calidad”). De tal manera que la mejor opción siempre se adopta como una decisión de la mayoría (pero sin la determinación de un quórum previo).


Los resultados que obtuvieron con colonias de una especie de hormiga (Myrmica kotokui) fueron contundentes. Prefirieron la mejor opción posible en un experimento de elección binaria y su rango de aplicación potencial, como apuntaba en el primer párrafo, es tan amplio que abarcan campos tan diversos como la robótica “de enjambre”, las sociedades humanas o las neuronas que componen cada uno de nuestros cerebros. No olvidemos que una de nuestras neuronas puede estar activada o inactivada, pero que la suma de muchas neuronas tiene como resultado un comportamiento intelectual mucho más complejo que el de una sola.


Parece claro que una regla universal para tomar decisiones colectivas es la decisión por mayoría: tomar una decisión como consecuencia de la formación de un quórum.


Existen varias hipótesis para explicar la racionalidad colectiva: la retroalimentación positiva por un reclutamiento más fuerte o un reclutamiento más rápido a la mejor opción de “n posibles” y, después de efectuar las comparaciones oportunas (retroalimentación positiva / latencia de contratación).


Sin embargo, en el caso de los insectos sociales estudiados, la aplicación de la hipótesis del reclutamiento más efectivo para la mejor opción (y la configuración del quórum) no es posible.


La explicación se podría resumir en que un comportamiento así descrito tendría como resultado un aumento en el número de “individuos itinerantes” que elegirían la mejor opción, sólo después de probar todas las opciones disponibles.


Un comportamiento que necesitaría mucho tiempo y habría hecho imposible que en el experimento sólo se necesitasen poco más de 15 minutos para determinar la preferencia por determinada disolución de azúcar. Lo mejor de “n posibilidades” necesita que cada uno de los individuos evalúe todas las opciones (retroalimentación positiva) para después, reclutar a los otros compañeros de nido que hubiesen llegado a la misma decisión y conformar así el quórum.


Toda esta secuencia y las diferentes interacciones se conoce como una decisión de calidad (por la necesidad de clasificar opciones de respuesta) y es incompatible con la naturaleza de un colectivo donde cualquier miembro sólo tiene un umbral de respuesta simple, sí ó no.  


Es decir, no puede explicar la racionalidad colectiva cuando los individuos operan de forma binaria, por lo que el verdadero mecanismo de la racionalidad colectiva queda entonces por explicar.


Con tal intención, los autores trabajaron con 6 hormigueros con 56 hormigas cada uno, marcadas de manera singular (única en cada hormiga) con una pintura especial para poder tener su trazabilidad completa (es decir, se sabe el movimiento de cada una de las hormigas).


Como se pretendía buscar una respuesta binaria se las privó de alimento durante 3 días y luego, cuando estaban hambrientas, se les ofreció una disolución de azúcar en dos concentraciones diferentes: 3,5% y 4%.


El experimento se completó con 3 iteraciones a intervalos de 3 días entre medias cada vez.


Descubrieron que cada hormiga individual tenía una preferencia consistente y fija, aunque no existía un único patrón. Unas se alimentaban con las dos, otras preferían la más concentrada o la menos dulces y las más resistentes al hambre ninguna de las dos.


Con todo, las variedades de las decisiones de las hormigas representan los distintos umbrales de respuesta respecto a la concentración de azúcar que se expresan binariamente: sí (me alimento) /no (me alimento) con la disolución. A las que les da igual, diremos que su umbral es bajo, las que ayunan representan el umbral alto y las que eligen una disolución específica tendrían un umbral intermedio.


El siguiente paso que dieron los investigadores fue que cada una de las colonias eligiesen entre el 3,5% y 4% de azúcar y comprobaron que todas las colonias eligieron la disolución del 4%. La solución óptima, la racional, ya que al ser más concentrada obtienen más calorías por Ud. de tiempo.


En la práctica, esto constituía que además de optimizar la decisión ignoraban las preferencias de parte de las hormigas del hormiguero. Solamente las hormigas del umbral intermedio influían en la toma de decisión y el resto de las hormigas (con bajo y alto umbral) simplemente no eran tomadas en cuenta.


Demostraba, empíricamente, que una decisión simple (sí ó no) tomada individualmente da lugar a una decisión colectiva y racional (habiendo diversidad de umbrales de respuesta en la población y sin necesidad de usar respuestas graduales).


Pero este comportamiento no es único en las hormigas estudiadas. Ya en los años 90 (Collective decision-making in honey bees: how colonies choose among nectar sources, Seeley, T.D., Camazine, S. & Sneyd, J. Behav Ecol Sociobiol (1991) 28: 277. doi:10.1007/BF00175101.https://link.springer.com/article/10.1007%2FBF00175101) se estudió este comportamiento con idénticos resultados. Según demostraban, una colonia de abejas de miel sabe elegir colectiva y hábilmente entre las fuentes de néctar disponibles en su territorio. Pero, entonces se explicó como la expresión o resultado de una selección natural.


Todo parece indicar que el nuevo enfoque que el equipo japonés propone es aplicable, también, a las abejas, aunque sin dejar de admitir que el mecanismo binario no es mutuamente excluyente con los mecanismos entonces propuestos. Existe la posibilidad que la decisión adoptada por el colectivo (la colmena) pueda ser mejorada o corregida por otros mecanismos naturales.

 

Los hechos son significativos y coincidentes: la colonia explora selectivamente la fuente de néctar más rentable y cambia, rápidamente, sus esfuerzos de “explotación” hacia aquélla en detrimento de otras más pobres que incluso abandonan.


Cada trabajadora “alada” modula su comportamiento en relación con la rentabilidad de la fuente del néctar: ​​a medida que aumenta la rentabilidad, aumenta el ritmo de recolección y de intensidad del “baile” que hace cuando se dispone a libar.


Además, y de igual manera que en el caso de las hormigas, las abejas no hacen comparaciones entre las diferentes fuentes de néctar disponible. Cada una sólo conoce su fuente particular de néctar, operando con información extremadamente limitada, y calcula independientemente la rentabilidad absoluta de su fuente, siendo la colonia quien genera una única respuesta: se explotan “intensivamente” las fuentes de néctar más ricas y las más pobres se abandonan.


El comprender el mecanismo que permite que estos animalitos sociales sean capaces de tomar este tipo de decisiones racionales, a partir, de una toma de decisión individual, simple y descentralizada puede ser una de las “claves de bóveda” para los modelos de aprendizaje de la inteligencia artificial, o incluso, para entender cómo funcionan nuestros propios cerebros, donde 100.000 millones de unidades (neuronas) agrupadas en 2.500.000 de columnas neocorticales  nos permiten elaborar los más complejos pensamientos a una velocidad de 400 km/h. Pensemos que la distancia entre “pensar” que voy a hacer algo y hacerlo es de sólo 400 milésimas de segundo y, todo, con un “motor eléctrico” que consume aproximadamente la energía equivalente al 20%  de nuestra ingesta diaria. Poco más de 60W…


Una maravilla que todavía no comprendemos y, que según parece, gracias a estudios como el que acabo de comentar y a estos pequeños insectos ahora estamos más cerca de entender.


 

Artículo realizado por Javier Espina Hellín CEO QLC SLP y doctor en Ingeniería de Sistemas de Información

Efectos prácticos de la nulidad de la cláusula sobre gastos de hipoteca

Una reciente sentencia de la Excma. Audiencia Provincial de Pontevedra ha condenado a un banco a devolver a un matrimonio 150,56 Euros por una demanda sobre gastos de hipoteca.

Los demandantes que son un matrimonio, en su condición de consumidores, reclamaron la totalidad de los gastos notariales, registrales e impuestos derivados de la formalización e inscripción de un préstamo hipotecario, en base a la doctrina dimanante de la sentencia del Tribunal Supremo de 23 de diciembre de 2015.

Los demandantes consiguieron no ser condenados en costas porque las declaraciones de nulidad sí llegaron a producirse y al serles reconocido el derecho al reembolso de 150,56 Euros.

Pero, ¿por qué la Audiencia Provincial de Pontevedra sólo ha acordado la devolución de 150,56 Euros?


 Nosotros te damos las respuestas…

 La Audiencia Provincial de Pontevedra en su sentencia nº 152/2017 de 28 de marzo de 2017, ha considerado que una cláusula inserta en un préstamo hipotecario que, por su generalidad, no asegure una mínima reciprocidad entre los gastos producidos como consecuencia de la intervención notarial y registral, que haga recaer su práctica totalidad sobre el cliente consumidor, le ocasiona un desequilibrio relevante que no hubiera aceptado en el marco de una negociación individualizada. Por lo que una cláusula así, debe ser declarada nula.

Sin embargo, el Tribunal ha indicado que se debe analizar la atribución del gasto en cada caso concreto, llegándose a pronunciar sobre las consecuencias de la nulidad de estas cláusulas abusivas.

En cuanto al reembolso de la cuota del Impuesto de Actos Jurídicos Documentados, la Audiencia Provincial de Pontevedra ha concluido que una vez expulsada la cláusula nula del contrato se ha de estar a la norma que rige el impuesto y que es imperativa.

Y, en este punto, de la aplicación tanto de la sentencia de la Sala Tercera del Tribunal Supremo de 31 de octubre de 2016 como de la legislación tributaria específica (ej. el artículo 68 del Real Decreto 828/1995 de 29 de mayo), ha concluido que no procede el reembolso cuando el que pagó la cuota del impuesto es quien debía según la Ley, es decir, en estos casos el prestatario.

Respecto a los gastos de notaría, de declararse nula la cláusula general que prevé su distribución en el caso concreto, el Tribunal ha estimado que debe aplicarse la norma 6ª del Anexo II del Real Decreto 1426/1989 de 17 de noviembre, por el que se aprueba el Arancel de los Notarios, del que se deduce que corresponde el pago del arancel al prestatario por ser éste, el obligado al pago del impuesto derivado de la escritura de préstamo hipotecario.

Por lo que se refiere a los gastos derivados de la inscripción en el registro, la Audiencia Provincial de Pontevedra ha estimado que,  de ser nula la cláusula sobre distribución de los gastos de la hipoteca en el caso concreto, las consecuencias de la nulidad se deben extraer de la aplicación del Real Decreto 1427/1989 de 17 de noviembre, por el que se aprueba el Arancel de los Registradores de la Propiedad.

La consecuencia de la aplicación de esta norma es que, el banco es quien debería asumir el pago del arancel del registrador en tanto en cuanto, es al banco a quien le interesa principalmente la inscripción de la garantía hipotecaria en el registro de la propiedad.

Con base en estos argumentos y en otros más, desarrollados por el Tribunal en su citada sentencia, se ha condenado al banco a reembolsar al matrimonio demandante 150,56 Euros en concepto de gastos de registro de la propiedad.

Para más información sobre este tema, puede contactar con el Área Legal de QLC y nuestro equipo de abogados le prestará un asesoramiento técnico ajustado a su situación personal además de ofrecerle la defensa legal más completa en favor de sus legítimos derechos e intereses.


By Sergio Gayoso Merino
7.06.2017

La “fuerza de trabajo liquido” y la transformacion digital: el riesgo del “Opting Out”.

Cuando nos referimos al término acuñado por Accenture de “fuerza de trabajo líquido”, es probable que no sepamos que tal denominación hace referencia a una de las más atinadas y lúcidas caracterizaciones de la modernidad que nos ha tocado vivir. En palabras de Zygmunt Bauman, “surfeamos en las olas de una sociedad líquida siempre cambiante -incierta- y cada vez más impredecible”


Sin querer entrar en el aspecto más profundo y sociológico del adjetivo que tan hábilmente utilizó el autor polaco para construir su tesis más conocida y respetada (aunque recomiendo vívidamente la lectura de “la vida líquida” o “ tiempos líquidos” ), Accenture une bajo un mismo sintagma, compuesto de tres palabras, a dos pensadores de siglos y realidades sociales tan distintas como Marx y Bauman para unir, en un todo continuo, el pasado, el presente y el futuro más probable en la organización del trabajo de las empresas que ya se asoman al vórtice del mundo digital.


Una nueva denominación que incorpora y se beneficia de los atributos de la “marca líquida” de Bauman, para conceptualizar una realidad digital marcada por unos tiempos de respuesta y adaptación cada vez más cortos y donde tanto el conocimiento como la tecnología, junto a las 3 T´s que predica el Sr. Roig, fundador de Mercadona, (Trabajo, Trabajo y Trabajo) se muestran como los ingredientes imprescindibles de la receta del éxito.


La empresa que pretenda vender productos, servicios o ideas tiene ante sí una compleja ecuación que le enfrenta al paradigma digital.


El “Opting Out” (el negar o querer quedarse fuera) de la revolución digital no es una opción. Como me decían a veces de pequeño, la respuesta es sí o sí.  Y esto lo cambia todo en el mundo empresarial, las estrategias, los modelos de negocio, los procesos internos, la relación con los “stakeholders” y la fuerza de trabajo.


Las organizaciones empresariales demandan profesionales de altas capacidades, rápida adaptación a un entorno en continuo cambio, gran capacidad de aprendizaje de sus equipos humanos multidisciplinares, herramientas de gestión y análisis cada vez más sofisticadas y sistemas de información capaces de explotar grandes volúmenes de datos desestructurados…


Es decir, además de tecnología y mucho trabajo necesitamos equipos que sean capaces de mantenerse al día, en cada una de sus disciplinas, porque esto en sí mismo se convierte en una ventaja competitiva respecto a aquéllas que no reaccionen a la nueva realidad.


¿Pero cómo podemos hacer que los equipos actuales de las empresas se enfrenten a esta realidad y se mantengan encima de la “ola” que tienen que surfear?


Personalmente creo, que la clave está en ofrecer a nuestro cliente y, desde fuera de su organización, soporte técnico, formación y el asesoramiento adecuado, de manera proactiva y programada, que ayuden a sus actuales equipos de personas a adaptarse, con rapidez y solvencia, a las continuas demandas de un entorno ferozmente competitivo y en perpetuo cambio.


Significa, ser capaces de incorporar nuevas estrategias en la “fuerza de trabajo” que incorporen a las empresas capacidad de reacción ante la nueva demanda (atender nuevas necesidades de sus clientes), capacitación, experiencia e innovación en 3 ámbitos concretos: desarrollo de habilidades, planificación de proyectos y estructura organizativa.


·       Habilidades: la capacidad de aprendizaje continuo se convierte en una competencia básica para la propia organización empresarial, por la necesidad continua de adaptación y de incorporación de nuevas “habilidades” (re-skills), que no serán solamente técnicas sino también sociales y de creatividad, que le ayuden a un desempeño que las “máquinas” no pueden hacer.  Los equipos necesitan “re-aprender” por la incorporación, por ejemplo, de herramientas para mejorar la toma de decisiones y mejor conocimiento del cliente (inteligencia artificial y la ciencia de datos como la ingeniería de sistemas de información y de decisión).


·       Proyectos: por la complejidad de las soluciones que las empresas, de la era digital, tienen que ofrecer a sus clientes es necesario redefinir los conceptos de “fuerza de trabajo” y de colaboración (con sus stakeholders), tanto por razones técnicas, operativas como económicas y de viabilidad empresarial. Las empresas no pueden redimensionar continuamente y por proyecto a sus equipos humanos sólo con recursos internos. Deberán pensar cómo redimensionarlos y re-equilibrarlos con recursos internos (sus actuales equipos), profesionales independientes (autónomos/ freelancers), socios estratégicos (otras empresas que asuman el rol de socio temporal) y la tecnología (soluciones en la nube de gestión, almacenamiento y colaboración desde cualquier lugar 7/24/365) necesaria para ser eficaces en la implantación o venta de esas nuevas soluciones que les demanda el mercado, pero manteniendo el control del proyecto.


·       Organización: todo lo que acabamos de comentar implica necesariamente cambios profundos en la estructura organizativa de la empresa y sus estilos de liderazgo. La primera derivada es que se “aplanaran” los organigramas y serán mucho más flexibles. Se necesitarán personas capaces de liderar equipos de trabajo multidisciplinares, de edades, expectativas y valores diversos donde las expectativas se expresen en términos claros, el “feedback” sea continuo, el trabajo colaborativo y la toma de decisiones sea mucho más rápida y cercana a la información obtenida en tiempo real.


Al contrario de lo que inicialmente se puede pensar de la empresa de la era digital, la tecnología no es el pilar central sobre el que pivota el valor diferencial de la organización. La tecnología, como siempre ha sucedido es una herramienta, una potente herramienta, pero lo nuclear son las personas.


Las personas deben ocupar ese centro en la revolución digital como factor diferenciador, estratégico para la compañía y polo de innovación


Por mi experiencia como CEO en QLC, las empresas advierten la velocidad de los cambios a los que tienen que hacer frente, que les afecta con independencia de su tamaño y su preocupación es acertar en el cómo.


Valoran mucho que seamos capaces de entender su realidad empresarial para ayudarles a redimensionar tanto su fuerza de trabajo como el espacio físico donde seguir “peleando” para seguir siendo competitivos, por ejemplo al reducir sus costes fijos (muchos “pocos” hacen un mucho menos) o a transformar parte de ellos en variables, acompañándoles en su transición digital, reforzando su seguridad y protección de datos u ofreciéndoles la posibilidad de externalizar áreas como la financiera o la legal de su estructura interna.  


No olvidemos que para dentro de muy poco, el 2020, se estima que más del 40% de los empleados de las empresas estadounidenses sean “freelance”. Una tendencia de fuerte crecimiento ya que era sólo un 10% hace un par de años.


Respecto a la composición de esa “fuerza de trabajo” (o de las plantillas), de nuevo, la diversidad y la convivencia de diferentes perfiles de trabajadores “internos y externos” será una realidad. Los consultores trabajando dentro del cliente son 7% más que hace un año, y son el corazón de los servicios profesionales y en tan solo 10 años los “millennials” conformarán el grueso de la fuerza de trabajo en las compañías (algunas previsiones lo cifran en el 75%).


El gran riesgo de quedarse fuera es la pérdida de la posición competitiva.


Los cambios son tan rápidos y relevantes que quien no esté “en movimiento” no tendrá la posibilidad de recuperar la posición que tenía en su mercado de referencia porque los esfuerzos que debería hacer para recuperarlo serán, simplemente, inasumibles…

 

Artículo realizado por Javier Espina Hellín CEO QLC SLP y doctor en Ingeniería de Sistemas de Información

 

Cambios en los habitos de compras y el lento adios de las catedrales del S. XXI: los centros comerciales

Hace no tanto tiempo, nadie podía imaginar que las “nuevas catedrales del SXXI”, y uno de los modelos de consumo y de desarrollo económico más exitoso desde la segunda guerra mundial, podía tener los días contados.


Y menos aún, que uno de los factores desencadenantes serían los cambios profundos en los patrones de consumo y compra que, derivados de la disrupción digital, protagonizarían los Millennials, o todos los nacidos entre 1981 y 1995, mucho más tecnológicos y con diferentes valores que nuestras generaciones anteriores.


Me estoy refiriendo a los centros comerciales y a las compañías de “ventas por departamento”.


El modelo es bien conocido. En sus inicios, esas grandes tiendas minoristas por departamentos se encontraban en lugares muy céntricos de las ciudades y su oferta era irresistible. El valor para el cliente se podía resumir en que podías realizar todas tus compras de todas las categorías en un solo lugar y, bajo un mismo techo de lujo “moderado” (que lo colocaba en tu mente como “aspiracional”) y con un glamour especial.


A medida que los nuevos clientes se movían centrífugamente desde el centro a las afueras de las ciudades, las tiendas por departamento les seguían, pero ahora, dentro de centros comerciales planificados y edificados a tal efecto.


Era una reinterpretación del modelo primitivo. Un centro comercial que dentro de sus instalaciones tiene a una o varias (según su tamaño) cadenas de venta por departamento (Macy´s, JCPenney, Sears, Dillard’s,  en EEUU o el Corte Inglés en nuestro país) que hacían las veces de “faro” localizador de “nuevas experiencias de compra”, atrayendo con su luz al consumidor que entendía como nueva ventaja añadida, el confortable y seguro nuevo universo de compras y ocio que le esperaba dentro de sus límites y que le seguía ofreciendo su gran tienda por departamentos preferida, otras comercios más pequeños y los cines, boleras y la oferta gastronómica que ampliaría, notablemente, su tiempo promedio dentro del establecimiento. Todo estaba al alcance de unos pasos, alguna escalera mecánica y unos ascensores.


El modelo era el paradigma de desarrollo económico local y modificaba el régimen de propiedad de esos comercios minoristas. Aprovechando este potente reclamo, decenas de tiendas, más pequeñas y especializadas, completaban la lista de inquilinos (que no propietarios) de ese centro comercial. Un modelo muy efectivo y replicado por todas partes del mundo capitalista. Baste un dato: sólo en EEUU se construyeron 1.500 centros comerciales en 50 años (1956-2005)


En un informe del 2009 de Consumer Reports Magazine, que ahora nos parece del siglo pasado, se decía que los compradores gastaron, ese año, 405.000 millones de dólares solamente Walmart, la tienda minorista más grande del mundo por entoces.


Hace pocos meses, en diciembre del 2016, se hacía público en EEUU un nuevo informe de la mano del mayor banco estadounidense, JP Morgan Chase, donde después de comparar 284.000 fotografías de aparcamientos de centros comerciales y de grandes tiendas emblemáticas (Apple o Zara en la 5º avenida de Nueva York), hechas por satélites y durante los 3 últimos años, que afirmaba que existían signos de una debilidad creciente en la actividad de ventas minoristas en el país.


Pero en el estudio no sólo estaban las grandes cadenas de ventas por departamentos, también se estudiaron otras tiendas minoristas de electrónica como Radioshack, BestBuy y Conns, supermercados, de toda la vida, como el antes mencionado Wal-Mart, Target o Costco, otras cadenas de supermercados de un target distinto como las de comida orgánica de Whole Foods y un largo etcétera, pero con idéntica conclusión.


Además, se estudiaron periodos concretos y especialmente significativos por su volumen de ventas concentradas en pocos días, como Thanksgiving Day (Día de Acción de Gracias) o el muy popular, también en España desde hace un par de años, el Black Friday.


La conclusión de nuevo era la misma.


¿Cómo explicarlo?


Podíamos construir una hipótesis poco verosímil.


H1: ¡Había menos coches, en las fotos tomadas por satélite, porque habían decidido compartirlo con vecinos o amigos para reducir su huella de carbono!


Aunque deseable por su impacto medioambiental, nuestra hipótesis 1 estaba lejos de explicar el fenómeno.


Lo que este informe dejaba claro es que los patrones de consumo y compra habían cambiado mucho en poco tiempo (recordemos que el periodo estudiado era 3 años).


Nada nuevo. Es un fenómeno muy estudiado por nuestra disciplina, el marketing, pero lo que realmente es significativo es la velocidad a la que se produce.


Estamos asistiendo a un trasvase del volumen de compra, como nunca antes, de un canal tradicional a otro digital.


Y, seguro que habrán acertado en el nombre del nuevo “oferente”. Amazon.


En la campaña del Black Friday del 2016 alcanzó una cifra histórica. Vendió más de 940.000 productos en 1 día completo (24 horas). Una media de casi 11 artículos por segundo.  (http://www.20minutos.es/noticia/2898566/0/black-friday-2016-amazon-record-ventas/#xtor=AD-15&xts=467263)


Las consecuencias son tan predecibles como inquietantes.


Hagamos un repaso cronológico. El 9 de diciembre de 2016 se publica el informe al que estoy haciendo referencia, 3 meses y 1 día después, el 10 de marzo de 2017, la mayor tienda de productos electrónicos del mundo y presente en todos los centros comerciales de EEUU, Radioshack, presenta suspensión de pagos después de haber restructurado su deuda y, el 21 de ese mismo mes de marzo, se publica que Sears, símbolo nacional, tenía "dudas considerables de continuar siendo un negocio viable" a un año vista.


La previsión es que, de los 1.100 centros comerciales, o “malls” como se conocen allí, que están en activo, a fecha de hoy, sólo queden alrededor de 800 en los próximos 10 años.


Y aquí, es donde se empieza a explicar el fenómeno de los Millennials y la modificación de los hábitos de compra, porque el perfil de los consumidores que todavía siguen visitando los centros comerciales, y comprando allí, son aquellos que tienen más edad. Cuanto más mayores más fieles…


Los nuevos consumidores, la generación norteamericana más joven, es más urbana, más digital, no compra coches y se está “europeizando”, si a uno de los efectos colaterales de la globalización se le puede llamar así: viajan con más frecuencia, utilizan hoteles u otras alternativas de alojamiento en sus destinos y, valoran cada vez más, comer mejor y en un entorno más sofisticado.


Si alguna vez han estado en un mall, la oferta gastronómica predominante no se puede considerar como “sofisticada”. De manera, que ni siquiera para comer el centro comercial se constituye en alternativa para este colectivo.


El cambio de modelo o el fin de una forma de comprar, parece claro, que está ante nuestros ojos y aunque algunos puedan argumentar que, en el caso de EEUU, la ratio de superficie de centros comerciales por habitante es 7 veces mayor que el de Italia o 10 veces mayor que en Alemania, no parece suficiente para negar la evidencia de su agotamiento, incluso, con las adaptaciones que se están incorporando en algunos países en desarrollo.


Posiblemente, será más tarde porque su incorporación ha sido más reciente, pero me resulta difícil pensar que no se producirá.


Me viene a la cabeza el caso de Lima, en la América Latina. Sus centros comerciales, aunque siguen el modelo, explicitado anteriormente, están incorporando nuevas herramientas de fidelización y de retención de sus clientes nuevos que merecen ser mencionadas.


Su oferta gastronómica, posiblemente como consecuencia del boom nacional del sector, y de ocio dentro del centro comercial, es mucho más elaborada, sofisticada y “cool” fruto de un buen trabajo de microsegmentación orientada al segmento con mayores índices de crecimiento en el país, que casualmente es el más joven, y al que, además de conexión WI FI, se le ofrecen espacios abiertos de colaboración, convivencia y experiencia colectiva que les llevan a una socialización memorable.


Los signos del agotamiento del modelo, también, los encontramos entre nosotros y de igual manera en España llevamos años cerrando centros comerciales y soportando pérdidas económicas, bien sea por la falta de afluencia o por el descenso del ticket medio de compra.


Algunos de ellos, paradigmáticos como el “Centro Comercial Opción”, propiedad de Metrovacesa y en el que se incluía una completa y diferenciada oferta de ocio dentro del municipio de Alcorcón de Madrid, cerró sus puertas en el año 2009. Sólo 7 años después de su apertura, o el propio Corte Inglés, nuestro símbolo nacional de cadena de ventas por departamento, con 21 instalaciones deficitarias a lo largo y ancho de nuestro territorio, de los 100 centros que posee, y al que habría que añadir otros 7 cuya situación, sin ser deficitaria, apenas supera el “break-even” o punto muerto. Muchos de ellos abiertos a partir del año 2000 e, incluso, después del estallido de la última crisis económica.


Sus cifras, constantes de pérdidas, hacen necesarias acciones para que la influencia negativa en el balance general del grupo desaparezca lo antes posible, porque pueden poner en peligro la propia viabilidad del grupo.


Parece que la solución elegida y que adoptará la compañía, es que estos centros deficitarios se conviertan en “centros outlet” donde ofrecer al consumidor una segunda oportunidad de compra a menor precio y, así, extender el ciclo del producto apalancándose en el valor de su marca.


Pero, sin entrar en otras disquisiciones como la necesidad de singularidad del entorno outlet como factor experiencial de compra, reclamo muy utilizado en zonas outlet y de muy difícil implantación en un mismo edificio (véase el caso de Sawgrassmills, www.simon.com/mall/sawgrass-mills, el de Las Rozas Village, www.lasrozasvillage.com en Madrid, o la Roca Village, www.larocavillage.com, en España), esta redefinición de centros ¿tendrá influencia en el perfil de sus consumidores habituales?, ¿en sus hábitos de compra?, ¿hará que vayan a comprar a sus centros consumidores más jóvenes? o ¿busca ampliar su base de clientes?


Ojalá consiga, al menos, esto último. Pero, incluso alcanzándolo sólo logrará retrasar lo que parece inevitable.


Lo más probable es que no consiga respuestas favorables al resto de las preguntas antes formuladas, porque con esta medida no se atiende a la razón que explica tanto el descenso de compradores físicos en tienda como la bajada en la compra media o el envejecimiento progresivo de su cliente tipo (atrapado en la brecha digital).


Se trata de una verdadera revolución en los hábitos de compra y en la manera de comprar, que están aquí para quedarse y que no pueden revertirse con medidas bienintencionadas, pero de efectos cosméticos en el caso que funcionen.


Déjenme compartir algunas cifras que nos invitan a la reflexión:


·       Las ventas de Amazon en todo el mundo han aumentado un 31,1% en solo un año.

·       857 millones de dólares son el beneficio neto reportado por Amazon en el último trimestre, frente a los 92 reportados en el mismo trimestre del año pasado

·       El precio de las acciones, en un año, ha experimentado un incremento del 43%

·       2.900 millones de dólares son los ingresos trimestrales acumulados por la compañía de servicios en la nube Amazon Web Services

·       Un 52% de los compradores de Amazon son miembros de Amazon Prime. Un servicio de pago anual que incluye envío gratuito en 48 horas en la mayor parte de las compras que realiza el propio Amazon y que incluyen productos frescos (la próxima e inminente revolución del consumo doméstico)

·       Cuenta con 63 millones de suscriptores Prime sólo en EEUU, a junio de 2016, frente a los 10 millones que tenía hace solo 3 años

·       En el e-commerce, y sólo el 12 de julio, tuvo el 74% de la cuota de mercado.

 

Acabo, con una noticia muy reciente y que confirma que se trata de un fenómeno profundo, global y acelerado, íntimamente relacionado con la tecnología móvil y los cambios de conducta comentados en la manera de vivir la experiencia de compra.


Al otro lado del Atlántico, está sucediendo lo mismo. Compañías del mismo sector y de éxito indiscutible, en otro tiempo, se están enfrentando al mismo problema que tiene El Corte inglés aquí. Es el caso de Macy's.


Según el anuncio que hizo en enero de este 2017, ya se conoce la ubicación concreta de 68 de las 100 sucursales que pretende cerrar, en este ejercicio de un total de 730 tiendas para quedarse sólo con los establecimientos con los que puede ganar dinero.


El efecto más inmediato y directo será entre sus empleados ya que supone la pérdida de 6.200 puestos de trabajo y la recolocación de otros 3.900 trabajadores.


En el caso del Corte Inglés, se estima que el número de empleos por centro es de 1000. De manera, que el impacto de una medida similar es trágicamente fácil de calcular, pero lo peor, siendo ya muy malo, es que cuando nos empeñamos en mirar para otro lado porque no nos gusta lo que vemos, aquello que queremos evitar no sólo nos alcanza, sino que nos pasa por encima…


¿Se acuerdan aún de Blockbuster?


 

Artículo realizado por Dr. Javier Espina Hellín, CEO en QLC SLP

¿Como abordar la transicion digital? Hacia la Transformacion Digital con confianza, privacidad y seguridad

A la hora de abordar la “transformación digital”, teniendo en cuenta mi propia experiencia como soporte en la transición digital para empresas, creo que es importante hacerlo desde una doble perspectiva:


1.     Concienciar, a quienes me preguntan, sobre lo que significa la Transformación Digital


2.     Transmitir confianza con transparencia y con medidas de seguridad suficientes que garanticen tanto nuestra privacidad, por ejemplo Cloud, como la capacidad de recuperar el control si fuese necesario, por ejemplo con la inteligencia artificial (AI), pero que , a grandes rasgos, es sólo un paso más en los habituales controles de los que ya disponen todas las compañías en otros “ámbitos seguros” como puede ser el pago con tarjetas de crédito, las operaciones de Comercio Internacional, Confirming (pólizas de crédito para pago de proveedores), etc. Esto no significa ser “optimista” ni reactivo en temas de seguridad. (Lo explicaré más adelante)


El primer punto, es esencial. Casi me atrevería a decir que si no se entiende el verdadero significado de la transformación digital de nada sirve lo demás.


La “Transformación Digital” es mucho más que una “transformación”. Es una revolución tan profunda y disruptiva como lo fueron todas las 3 anteriores (1.vapor-carbón, ferrocarril/ 2.petróleo, electricidad, química, automóvil/3. Nuclear, tecnología, móvil, internet/ 4. Energías alternativas, redes sociales, transformación digital, dato (BIG DATA), ???).


Lo que a muchas personas les despista es el adjetivo que se utiliza en su nomenclatura. “Digital”.


Esta revolución trasciende lo digital y la tecnología que se asocia a ella. Lo verdaderamente nuclear es que es un cambio en la forma de pensar, en el modelo de negocio de las empresas y hasta en nosotros mismos como actores del cambio como consecuencia de esa nueva tecnología.


Desde un punto de vista empresarial, representa un cambio en el modelo de negocio y en la forma en la que la compañía interactúa con su entorno. Lo que los anglosajones llaman “stakeholders” y que podríamos definir como “parte interesada” y que bajo su paraguas encontramos a todas aquellas personas u organizaciones afectadas por nuestras actividades y decisiones como empresa (proveedores, clientes, competidores, etc.).


¿Qué sucedió cuando nació Spotify?


Supuso un cambio en la manera de relacionarse con la música. Gracias a la tecnología.


Pero significó mucho más que eso. Representó un cambio radical en el modelo de negocio. El cliente no compraba música sino que consumía servicios. La transición consistió en pasar de comprar música a consumir música mediante el acceso a la “librería” de canciones más grande del planeta… Por cierto, ese modelo ha sido adoptado por otras muchas empresas y sectores. Movistar (con sus productos Fusión, Fusión +), Uber, Facebook, Airbnb, Amazon o Netflix que ha pasado a ser el mayor proveedor de contenidos de video del mundo. (Por cierto, gracias, además de a la tecnología mencionada, al marketing. Un único precio fijo mensual que evita el “dolor” que antes producía el pago por cada película).


Resistirse al cambio o querer mirar hacia otra parte, no sirve de nada porque acabará afectándote sin importar tu tamaño. Gigantes como Kodak o Blockbuster (por aprovechar el ejemplo anterior del pago por cada película alquilada) nos lo recuerdan día a día.


El sector de “despachos profesionales” que agrupan profesionales en economía, derecho, ingeniería, etc. o el sector de asesorías/ gestorías no son una excepción. El cambio en el modelo de negocio es igualmente profundo. ¿Alguien puede seguir pensando que el valor entregado por una "gestoría tradicional" como ayuda al cliente en el cumplimiento de sus obligaciones administrativas es suficiente?, ¿representa una amenaza la nueva pasarela de la Agencia Estatal de Administración Tributaria (AEAT)?


El canal digital, online, es estratégico para la AEAT. Ha sido pionera en el uso de la administración electrónica (que hace posible que cada uno de nosotros como ciudadanos/contribuyentes podamos realizar de forma integral la tramitación de cualquiera de los procedimientos gestionados por la AEAT) y evita desplazamientos, facilita la presentación del servicio y permite dedicar el personal de la AEAT a otras cuestiones que agreguen mayor valor a la sociedad (confío que entre ellos esté, como prioridad por razones evidentes a tenor de las noticias que a diario nos escandalizan, en  la lucha contra el fraude).


Me consta que la AEAT es una organización que apuesta por las TICs desde hace muchos años.  En estos momentos, tienen muy avanzados proyectos de BigData, de Business Intelligence y de captura de información en fuentes abiertas (Internet).


Por tanto, la “transformación Digital” es un reordenamiento de nuestros procesos y de las relaciones que mantenemos como empresa con nuestros “Stakeholders”. La tecnología sólo nos despeja de la ecuación de supervivencia empresarial, “el cómo”.


Siguiendo el caso de la AEAT, desde finales del 2013 están llevando a cabo un cambio de arquitectura tecnológica que consiste en trasladar los servicios ejecutados en Mainframe, hacia arquitecturas abiertas de menor coste y que permitan atender las nuevas necesidades de almacenamiento (con crecimientos en torno a un 45% anual), sin pérdidas en sus niveles de funcionalidad y disponibilidad.


La nueva arquitectura se basa en el uso de ordenadores basados en múltiples procesadores x86 o clusteres (hacia donde convergen, por su escalabilidad, todos los grandes fabricantes como HP, Dell, Cisco, Fujitsu, Lenovo, Huawei, etc.) y que hace posible que los costes dedicados al Mainframe y productos relacionados se reduzcan en 2017 en no menos de 15 millones de euros con respecto al coste soportado en 2013.


Por tanto, la pregunta ya no es si nos afectará o no. La pregunta es cuándo queremos hacerle frente, con qué tecnología y con qué “otros” jugadores vamos a seguir contando.


Es ahora, cuando podemos abordar el segundo punto que avanzaba al comienzo. La confianza, seguridad y privacidad Cloud.


Decía que sólo representa un paso más allá. Más profundo y de mayor alcance, si cabe, por la accesibilidad, sofisticación y persistencia de las amenazas en materia de seguridad, pero íntimamente relacionado con ese cambio de paradigma que, por su grado de afectación en lo tecnológico, eleva los antiguos estándares respecto a la velocidad de innovación, el grado de amenaza (ya no es sólo local porque podemos sufrir un ataque desde una dirección IP en China) y la obsolescencia de la "protección comprada".


Ahora el proveedor de soluciones Cloud, en la nube, se convierte en "socio" porque nuestra seguridad dependerá de los controles que éste incorpore en sus soluciones.


La seguridad tiene que estar incorporada por defecto (mapeos de usuarios, entornos de cero confianza, sin permisos, una administración centralizada y reportes continuos, etc.), por lo que el reto, es elegir bien a tu proveedor.


¿Qué sentido tiene discutir sobre la sofisticación y persistencia de las amenazas, el riesgo asociado con el IoT (el Internet de las cosas), los dispositivos móviles, la necesidad de la prevención o el valor de la seguridad?


Déjenme ponerles un ejemplo muy reciente. De menos de un mes.


¿Han escuchado el agujero de seguridad de nuestros móviles tanto en plataformas Android como iOS del pasado día 11 de abril?


El sistema operativo móvil, iOS 10.3.1, tiene un fallo de seguridad grave en el módulo del Wi-Fi  que también afecta a de Android. Ha sido detectado por Gal Beniamini, un experto en seguridad del grupo Project Zero de Google, en un chip inalámbrico (fabricado por Broadcom) y que ha obligado a los desarrolladores de Apple a lanzar un parche de seguridad.  


1.     ¿Qué consecuencias tiene ese fallo para los usuarios?


Muy profundas ya que puede ejecutar un código de forma remota, muy fácilmente, que permitiría a un atacante conectado a la misma red Wi-Fi el acceso completo al dispositivo “víctima” (smartphones, iphones y iPads) sin que el usuario tenga la más mínima constancia de ello. Esto se debe a que, por defecto, se dan permisos de lectura, escritura y ejecución a toda la memoria a la que pueden acceder estos chips.


2.     ¿Qué grado de influencia/capacidad de acción tenemos cada uno de nosotros sobre ese agujero en la seguridad de nuestros sistemas operativos móviles?


Ninguno. Son las empresas involucradas las únicas con capacidad para ello. De hecho, su relación en la solución es la de “socios”.


Broadcom ha trabajado con Google para dar una solución estable a este problema y evitar amenazas futuras. Las últimas versiones del firmware para los chips Wi-Fi ARM Cortex R4 ya incorporan medidas de seguridad que impiden esa ejecución remota de código. La vulnerabilidad ha sido registrada el pasado 4 de abril como CVE-2017-6975 y el parche es de 27 MB. El tiempo de respuesta de Apple ha sido excelente y continua trabajando en el próximo parche que llegará a sus dispositivos en el iOS 10.3.2. (https://www.redeszone.net/2017/04/04/ios-vulnerabilidad-wi-fi-iphone-ipad/#sthash.1X07rCR7.dpuf.)


La única respuesta posible para ganar confianza es darle “alguna” ventaja a la seguridad y evitar que nuestra primera reacción ante este tipo de “incidentes” sea la de un sentimiento de fragilidad, de desconfianza y hasta de impotencia.


Y lo primero que debemos saber es que simplicidad es sinónimo de seguridad (como lo es el riesgo al beneficio en el ámbito financiero).


Así podremos explicar que no por incrementar el nº de controles tendremos más seguridad, al contrario. Somos más vulnerables. En su lugar, los controles tienen que ser parte del desarrollo de los productos o servicios que nos ofrecen como empresas.


La activación de la seguridad tiene que venir configurada por defecto, ser parte del ADN del desarrollo y esa simplicidad disminuirá los costes de auditoría, de conformidad y creará confianza.


Eso sí, una nueva confianza. Una confianza vigilante que será posible gracias a los mapeos de usuarios, controles en aplicaciones, desarrollos a medida para la empresa y entornos de “cero” confianza sin “permisos”.


Antes, hacía referencia al nuevo papel de “socio” que deben adquirir y protagonizar tanto fabricantes como proveedores de servicios tecnológicos. En el caso de servicios en la nube es “socio” porque:


·       te acompañará a migrar a sus propios “ecosistemas virtuales” de servicios en la nube tus datos.


·       te ayuda a no tener que invertir en una costosa infraestructura física de proceso de datos, almacenamiento, mantenimiento (con costes asociados del personal que lo administra) y de recambio o sustitución de los equipos obsoletos.


·       vigila por ti la seguridad e integridad de tus datos alojados y hace frente a los elevados costes que le suponen tanto la ciberseguridad y defensa como el conjunto de contramedidas que necesitará frente a un ataque, y de las que tú pagarás sólo la parte que te asigne en su “reparto” (entre todos sus clientes) y que te integra en concepto de servicio.


Bajo este modelo, las responsabilidades de seguridad de cada uno se reparten: la empresa cliente sólo es responsable de la seguridad en su nivel de operaciones (aplicaciones) y el “socio Cloud”, o proveedor de servicios en la nube, es responsable de todo cuanto sucede “allí arriba”, es decir, es el encargado de cuidar la infraestructura y su seguridad física y lógica.


Es un modelo que ofrece a empresas de todos los tamaños el acceso a infraestructuras tecnológicas bajo demanda, que son seguras por diseño y que están “certificadas” bajo estándares mundiales muy estrictos (ISO 27001, ISO 27017, SOC 1, 2 y 3 y PCI DSS Nivel 1).


Hacer frente a esos costes de manera individual, como empresa, sólo está al alcance de grandes corporaciones e, incluso, algunos de ellos han renunciado no sólo por los costes evidentes sino por el ritmo trepidante en la incorporación y adaptación de innovaciones tecnológicas.


Empresas muy grandes de sectores tan diversos como los servicios financieros, aseguradoras o portales de venta han optado por estos modelos de seguridad.


Pero el concepto de seguridad también tiene que estar unida al análisis de la información. El análisis del dato, la transformación del dato en información con valor, es una mina de oro aún no explotada por muchas compañías tanto en conocimiento del cliente, en 360º, como en la maximización de procesos. Por ejemplo, existen desarrollos muy interesantes en el campo del “metering” y la energía como fórmula de ahorro de costes en infraestructuras complejas y detección del fraude (con eficacia del 99%), la monitorización de pérdidas o el desarrollo de sistemas de mantenimiento predictivo (que consiguen ahorros de hasta el 47% en aerogeneradores).


La tecnología y las nuevas capacidades que nos ofrece el tratamiento “inteligente” de los datos nos ayudan en la toma de decisiones y a tener un control mayor que se traduce en ahorros directos de explotación, y, lo más valioso e increíble es que se produce en tiempo real, en la mayoría de los casos.


Y aquí, podemos tener la tentación de pensar que sólo estamos hablamos del Big Data para el análisis inteligente de esos datos.


Bien, pero sólo en parte.


En el caso de la AEAT, de las eléctricas y de las empresas de metering, por supuesto, por el ingente volumen de datos, sea en número de contribuyentes, 19,3 millones, sea por el número de mediciones (2 (años) x 365(días)x24(horas)x nº cups1)), pero no tenemos en cuenta lo que puede suponer, el poder del dato, sin llegar al Big Data, con la implantación de un ERP en una PYME.


Este puede ser un primer paso para identificar un nuevo servicio de valor que podemos transmitir a nuestros “Stakeholders”.


La tecnología es una potente palanca de cambio y las TICs no representan un coste sino un elemento catalizador que nos ayudará a reorganizar nuestros procesos y las relaciones que mantenemos como empresa con nuestros “Stakeholders”, y, por tanto, a mejorar los resultados de nuestra organización.

 

En definitiva, de cómo abordemos esta transición digital dependerán las consecuencias que traen consigo la transformación digital, la implantación de la tecnología que lleva asociada y nuestra reacción como sociedad ante todo esto.


Todo dependerá de cómo elijamos desarrollarla. Si las empresas se centran, solamente, en aumentar la eficiencia y la optimización de los procesos internos, perderemos las oportunidades de aumentar el valor que entregamos a nuestros clientes, de crear nuevos puestos de trabajo o nuevas maneras de trabajar (el teletrabajo por ejemplo), mejorando la vida de las personas y la conciliación de trabajo y vida personal.


El foco de las empresas tiene que estar en cómo pueden dar solución a esas nuevas necesidades identificadas o por identificar y no satisfechas de clientes, proveedores o stakeholders en su conjunto, y en la entrega de ese nuevo valor tangible con el que poder crear nuevos servicios y mercados “valiosos”, que podrían dar lugar a nuevas oportunidades de empleo y crecimiento ( que dicho sea de paso, constituiría una manera de hacer frente a uno de los miedos más generalizados y de mayor peso que percibe la sociedad ante la disrupción que provoca la transformación digital).


Entonces, ¿cómo hacemos frente a esta transición digital y a las “fricciones” que puede generar?

La única manera posible es construyendo confianza con transparencia, con medidas de seguridad suficientes que nos permitan velar tanto por nuestra propia privacidad como por la capacidad última para recuperar el control, por ejemplo en AI (Inteligencia Artificial), si fuese necesario.


La respuesta está en nosotros. La tecnología que se está desarrollando, ahora mismo, tiene que estar concebida desde nuestros valores como humanos, con empatía y de manera inclusiva, situando al individuo en el centro de todo.


Satya Nadella, CEO de Microsoft, en una de sus últimas intervenciones se preguntaba: "¿Cómo creamos AI para aumentar las capacidades humanas y mejorar la experiencia humana?, ¿qué acciones debemos hacer para que el bienestar humano sea el centro de atención?


Pero, esto será objeto de un nuevo Blog….


 

1 CUPS= Código Universal del Punto de Suministro. Es un código único que identifica el punto de suministro de energía. Se estima que hay 27.000.000 en España

 

Artículo realizado por Javier Espina Hellín CEO QLC SLP y doctor en Ingeniería de Sistemas de Información


La Inteligencia artificial. El aprendizaje automatico y las emociones.

Sin miedo a la exageración o la grandilocuencia podemos asegurar que estamos viviendo un momento histórico en la era de la información.


La inteligencia artificial (AI), la informática, la robótica y la electrónica son sectores de una interdependencia tan clara como crítica, de crecimientos exponenciales y de una importancia de tan difícil evaluación por lo que significará en nuestro propio futuro como lo fue en su tiempo la electricidad, las computadoras, el descubrimiento del ADN o la construcción del World Wide Web.


En pocos sectores, el tiempo se convierte en una unidad de medida tan relativa. El ritmo en la innovación y los avances que trae consigo, hacen que la equivalencia de un solo año sea la de un siglo de antaño y la de una década, la noche de los tiempos.


Hemos pasado de la concepción clásica de programar un ordenador para que fuese capaz de hacer determinada tarea, a que ellas (las máquinas) puedan aprender de la experiencia.


En mi artículo anterior ya me refería a este “aprendizaje automático" y hacía referencia al nuevo Smartphone S8 de Samsung y a Bixby su asistente artificial. Un nuevo paso para entender hacia dónde nos llevará la tecnología y hacia dónde vamos como sociedad postindustrial.


Ya convivimos con herramientas de este tipo en nuestro día a día. Desde las recomendaciones que nos hacen Netflix o Amazon hasta la capacidad de Facebook para “identificar” las caras de nuestros amigos, o la que utiliza nuestra aplicación favorita de “dating”. Todos son los primeros ejemplos del aprendizaje automático.


Pero, el verdadero caso paradigmático es el del coche “autodirigido” de Google.


"Un automóvil autodirigido no está programado para conducirse a sí mismo", asegura Pedro Domingos, científico de la Universidad de Washington y autor de "El algoritmo maestro: cómo la búsqueda de la última máquina de aprendizaje va a rehacer nuestro mundo".


El coche de Google aprendió a conducir, conduciendo millones de kilómetros, en pruebas, y observando al resto de conductores cómo se enfrentaban a diferentes situaciones (variables).


"Nadie sabe cómo programar un coche para conducir". Por eso, la clave es el aprendizaje automático. Dicho en otras palabras, consiste en permitir que los algoritmos aprendan a través de la experiencia.


Hace algo más de un año, en marzo de 2016, y de nuevo Google hizo historia en la inteligencia artificial cuando a través de un algoritmo, el programa AlphaGo, fue capaz de ganar a un humano, Lee Sedol, en un juego llamado Go. Un juego tradicional chino de una complejidad tal, que las diferentes configuraciones de su tablero son equivalentes a los átomos que hay en todo el universo.


Pero, ¿cómo Google pudo ganar?


La respuesta comienza con la forma de afrontar el problema. Google no “construyó” un programa con las reglas del juego sino que desarrolló un algoritmo muy sofisticado con el que procesar todos los juegos de Go disponibles de los últimos 80 años y, aprender por patrones, en qué se parecen los mejores movimientos.


Es la “autoprogramación” por la búsqueda de datos. Tal vez por eso, Eric Schmidt de Google dice que “cada gran arranque en los próximos cinco años tendrá una cosa en común: el aprendizaje automático”.


Pero, como es de imaginar, no sólo Google está trabajando en este campo. Partiendo del aprendizaje automático existen múltiples experiencias de enorme interés.


Mike Sagar, está empeñado en construir un ordenador que aprenda como lo hace un niño. Quiere desarrollar un “cerebro” que aprenda a través de la interacción social, de las emociones y de sí mismo. Una evidente emulación de nuestro propio proceso de aprendizaje.


Para ello, ha utilizado su experiencia como constructor de simulaciones detalladas de partes del cuerpo humano, en películas como Avatar o King Kong y lo combina con modelos biológicos hiperrealistas junto a programas de inteligencia artificial en un intento de simular la conciencia humana.


El “bebé ordenador” es capaz de reconocer a las personas que interactúan con él, mediante una aplicación de reconocimiento facial. Y de nuevo, no se le programa para que responda a determinadas preguntas, sino que se le enseña cómo responder. En un video,(http://www.businessinsider.com/mike-sagar-realistic-ai-baby-2016-3?utm_content=buffer47454&utm_medium=social&utm_source=pinterest.com&utm_campaign=Pinterest+Phil+via+Buffer),  , los instructores o mentores le enseñan un dibujo realista y le preguntan qué es. Su respuesta: “Puppy” (perrito/cachorro).


Parece, casi, ciencia ficción. Pero no es. En un juego de palabras, casi podríamos decir que la ficción es no querer darse cuenta de hasta dónde nos lleva la ciencia.


El segundo ejemplo que me gustaría compartir es la de una compañía española. Si, española. Aquí también contamos con desarrollos de inteligencia artificial y, a diferencia de los anteriores, en muy pocas semanas estará disponible y al alcance de cualquiera de nosotros.


Se trata de Aisoy Robotics, que hace muy poco ha presentado el Aisoy1 KiK, la sexta generación del  Aisoy1. Un robot emocional y educativo cuyo nombre es ya una auténtica declaración de principios (SOY INTELIGENCIA ARTIFICIAL).


Aprende de su propia experiencia, de la interacción social con niños y mayores e incluye un motor emocional y un motor de diálogo con el que desarrollar pequeñas charlas para aprender  él mismo (captura de datos) y con la ayuda de lo que la marca denomina “Mentor”, favorecer el desarrollo de las distintas “inteligencias” del niño.


Un pequeño, sólo en tamaño, robot social y emocional que es capaz de aprender para adaptarse a las preferencias del usuario. Según sea el comportamiento del niño, Aisoy desarrollará su propio estado de ánimo y un comportamiento único (decisiones y forma de reaccionar).


Pero lo que, personalmente, me parece más prometedor es su capacidad de aprendizaje colectivo. Estos robots podrán conectarse entre sí, a través de la nube, y toda la información (aprendida como la proporcionada por los programas que sus dueños les carguen) será compartida con las demás unidades activas.


El Aisoy1 KiK está basado en la Raspberry Pi 3, la más potente hasta ahora. Aunque su lanzamiento comercial será esta primavera, ya se puede reservar en su web por 249€ y 299€, según sea la autonomía (2h/ 4h) y su capacidad de almacenamiento (8GB/ 16GB) (https://www.aisoy.es/aisoy1.html)

 

Por todo lo comentado y porque en los últimos años se ha producido un rápido progreso exponencial en la investigación de la inteligencia artificial, existen razones para pensar que ahora estamos muy cerca de un verdadero avance disruptivo.


Este consistiría es que las máquinas “sientan” como lo hacemos nosotros. Según lo comentado por una de las personas que más saben en este campo,  Alexi Samsonovich del departamento de cibernética de la Universidad Nacional de Investigación Nuclear de Moscú (MEPhl),  "esto implica, principalmente, demostrar que una máquina es capaz de sentir emociones humanas y mostrar una inteligencia socialmente emocional en una variedad de ambientes", pero dejando claro que esto no implica, necesariamente, que lleve aparejado el concepto de conciencia.


La clave está en el desarrollo de sistemas de aprendizaje profundo o redes neuronales.


Dicho de otra forma, programas que simulan procesos de pensamiento/razonamiento similares a los humanos, a través, de un enorme conjunto de datos en el que poder observar similitudes y diferencias en múltiples niveles de organización.


Estas máquinas emocionalmente inteligentes que se están desarrollando en diferentes partes del mundo, se harán realidad en los próximos años.


De hecho, el propio Samsonovich junto a su equipo quiere que su “AI Virtual Actor” sea capaz de crear y fijar metas, hacer planes y construir relaciones sociales de manera autónoma.


Pero antes de que eso suceda, ¿estaremos preparados como individuos y como sociedad?, ¿a qué tipo de barreras nos deberemos enfrentar?, ¿serán psicológicas o tecnológicas?


Lo único seguro es que un nuevo paradigma nos espera y, detrás de él, una gran cantidad de poder computacional para manejar enormes cantidades de datos bajo restricciones de tiempo extremadamente estrictas.


 

Artículo realizado por Javier Espina Hellín CEO QLC SLP y doctor en Ingeniería de Sistemas de Información

Bixby, la nueva estrella de la inteligencia artificial del S8. Los algoritmos para la libre elección

Con la llegada de la inteligencia artificial y la progresiva e imparable preferencia por las pantallas de nuestros Smartphones frente a otros dispositivos con los que trabajamos en el día a día, ordenadores, tabletas, navegadores, etc. nuestra capacidad de libre elección está cada vez más cuestionada.

Hace muy pocos días, compartía con estudiantes de postgrado de una conocida Escuela de Negocios, lo que ya profetizaba McLuhan a nuestros padres. “El fin de la galaxia Gutenberg para establecernos en la galaxia Marconi”. En definitiva, algo que para nosotros es casi una evidencia y que podríamos resumir como el fin de la cultura escrita en favor de la cultura visual.

Pero, ahora, es casi más acertado decir que vivimos en la galaxia Berners-Lee, donde Internet es el macromedio total. Un nuevo medio que no pretende establecer una competencia con el resto de los medios, ni persigue su eliminación. No los elimina sino que los asimila para integrarlos en su propio medio y ponerlos a gravitar a su alrededor.

Es cierto que la superioridad de lo visual no es una novedad. Incluso, la inteligencia artificial tampoco lo es. Las nuevas estrellas digitales son ya conocidas por su nombre por todos nosotros: Cortana de Microsoft, Siri de Apple, Alexa de Amazon y Assistant de Google. A todas ellas, tendremos que añadirle una más, que mañana mismo 29 de marzo, Samsung nos anunciará. Será su asistente estrella artificial y su nombre es Bixby.

Pero, ¿qué nos avanza, con muy poco disimulo por cierto, este nuevo firmamento de estrellas digitales y de inteligencia artificial?

Pues que parece claro que el inminente futuro quiere dejar atrás la época táctil y adoptar la tecnología de voz para, que a través de ella e imitando nuestra propia forma de comunicación más antigua, inaugurar la nueva era que nos espera y lo que se ha bautizado como EL INTERNER DE LAS COSAS, que sólo será posible por la, cada vez más estrecha, relación con nuestros dispositivos móviles, tabletas, ordenadores y wearables.

El objetivo final es continuar con la integración, que antes comentaba, de todo nuestro entorno “multiconectado” desde un interface mucho más ambicioso, fácil y natural.  

Samsung, convencido que el futuro pasa por la inteligencia artificial, lo apuesta todo, con su nuevo S8 más la versión Plus.

No sabría decir si después o como consecuencia de un enorme fracaso mundial, a hombros de las baterías “poco fiables” de su último terminal, la marca surcoreana lanza mañana, 29 de marzo de 2017, su nuevo Smartphone S8 y S8 Plus que pondrá a disposición de todos una nueva “innovación aceleradora” con el que quiere forjar un “nuevo escenario disruptivo” y que pretende ayudar a consolidar una de las llamadas “tecnologías fundacionales” más prometedoras del panorama tecnológico actual: el análisis del Big Data.  

Y todo esto, con un punto de dramatización en la venta. Esa innovación aceleradora de Samsung nace como consecuencia de la decisión estratégica de “matar” a su primera criatura de inteligencia artificial, el S Voice de 2012, que lanzó al mercado con su S3.

El factor verdaderamente innovador del lanzamiento mundial de Samsumg, para mañana, es que Bixby no sólo será un buscador avanzado de información sino que nace con la ambición de “aprender de nuestras rutinas”, en llamadas, búsquedas de información, de envíos de documentos adjuntos, en definitiva, de hacernos más sencillo, rápido e intuitivo el uso del terminal mediante la “predicción de nuestro propio comportamiento”. Y esto, además de “customizar” primero, nuestro móvil hasta el punto de hacerlo único, para después extenderse a cualquier dispositivo con micrófono y conexión a internet (en palabras del Injong Rhee, director de I+D del área de software de la marca), puede convertirse en la piedra angular de toda la industria.

Para poder hacerlo realidad, una de las claves es que nuestro dispositivo móvil se asegure que nosotros somos quienes decimos que somos.

La tarea inicial será la determinación del “usuario principal”. Nosotros mismos podremos parametrizarlo mediante alguna de las variables biométricas que los dispositivos integrados en el S8 puedan identificar. Será nuestro patrón de voz, de imagen facial, huella dactilar o cualquier nuevo y exótico despliegue tecnológico con el que nos sorprenda Samsung.

Pero, lo nuclear aquí es la función para la que nace ese nuevo asistente Bixby y la potencia, rapidez y alcance del universo que sea capaz de construir a su alrededor, incluso a costa de uno de sus competidores más conocidos.

Por ello, Samsung ya ha compartido Bixby con los más importantes desarrolladores de Apps (incluidas las que puedan operar en dispositivos de Apple), para que pueda comenzar esa nueva era de omniconexión con electrodomésticos de todo tipo, y aquí no se si incluir, con un poco de maldad, al coche eléctrico a quien podremos ordenar que inicie su ciclo de recarga de baterías desde nuestro móvil, con dispositivos domóticos o, por ejemplo, con gigantes del comercio electrónico que, amable y diligentemente, nos sugieran “regalos” para amigos, pareja o “nosotros mismos”, en tiempo real y de acuerdo a nuestros patrones de compra, listas de deseos, preferencias personales o últimas compras.

Un gigantesco nuevo reto al que deberemos hacer frente no sólo desde nuestro rol de consumidores o profesionales del marketing, que nos obligará a desarrollar nuevas estrategias de marketing y comunicación entre marcas y consumidores, sino al resto de actores sociales.

Tendremos que alumbrar nuevos entornos normativos y de competencia. Sólo por citar el primero que se me viene a la cabeza, fuera de mi ámbito profesional…

Pero, para terminar, me gustaría compartir una de las reflexiones que leí a Yuval Noah Harari en uno de sus últimos libros, Homo Deus, respecto a la inteligencia artificial. Nos plantea el dilema que puede traer consigo la convivencia de ese nuevo “asistente artificial” con cualquier otro “ayudante o consejero” de nuestra propia especie (padre, madre, esposa, amigos o aquel profesor que te descubrió ese mundo al que ahora perteneces).

Si el índice de acierto, de coincidencia, de veracidad o de solvencia, en definitiva de ayuda, es mayor y más consistente (por factores estadísticas, de la accesibilidad de la que hablaban Kahnneman/ Tversky o de concurrencia) que el ofrecido por uno de nosotros ¿por quién nos dejaremos “aconsejar” en nuestro devenir futuro? Y, contando ya, con nuestra entera confianza por su competencia demostrada en saber cómo somos y qué queremos en muchas y diversas circunstancias a lo largo del tiempo en el que nos ha estudiado y averiguado nuestras preferencias, ¿lo haremos sólo para elegir un regalo, una tienda, un restaurante o un determinado proveedor virtual o también para elegir la compañera/o de vida, la inversión más importante de nuestra vida económica (nuestra casa), el alcalde de nuestra ciudad o el presidente de nuestro país?

 

Artículo realizado por Javier Espina Hellín CEO QLC SLP

El nanomarketing. ¿es la ultima frontera del neuromarketing?

No es nada nuevo afirmar que vivimos, en palabras de Bauman, un tiempo “líquido” donde las innovaciones tecnológicas son continuas con un ritmo, casi de vértigo, en su aparición, adaptación o sustitución y, en la que con frecuencia cada vez mayor se construyen nuevos paradigmas con una esperanza de vida más corta.


Todos sabemos que la única certidumbre predecible es la continua transformación de todo cuanto nos rodea. Es paradójico que, cerca de 2500 años después, comprobemos empíricamente lo que ya nos adelantaba entonces Heráclito de Éfeso.


El mundo del marketing no es una excepción.


Cuando todavía estamos celebrando y descubriendo nuevas aplicaciones de nuestra disciplina “punta de lanza” en innovación y tecnología, el neuromarketing, que por lo que representa, en términos científicos en el mundo del marketing, es la superación de la subjetividad del individuo en la construcción del propio discurso al ser preguntados sobre sus preferencias o gustos en la investigación de mercados, diseño de productos o packaging, entonces, adivinamos una nueva frontera, el nanomarketing.


Aprovechando, una vez más, las sinergias del trabajo multidisciplinar de distintos profesionales y los avances en otro campo de la ciencia, la nanotecnología, y la posibilidad que ésta nos ofrece para trabajar en nanoescala, es decir, en un rango de dimensión de entre 1 a 100 nanómetros, podemos desarrollar herramientas de medición, aplicadas al neuromarketing, cada vez más complejas y alojadas en dispositivos cada vez más pequeños por la sola manipulación de la materia que hará que el nanomarketing sea una realidad antes de que nos demos cuenta.


Imaginemos la posibilidad de integrar estos dispositivos muy pequeños, no intrusivos, e inalámbricos que nos acompañen, de manera mucho menos invasiva, en todos aquellos experimentos centrados en saber qué hacemos o cómo nos sentimos frente a determinado estímulo cuando caminamos entre los lineales de un hipermercado, en nuestro rol de consumidores cotidianos. Cómo interactuamos con una acción de merchandising  o nos situamos frente a un envase, producto, marca o, incluso, podamos medir la reacción emocional ante la presencia o mensaje de un personaje público que busca nuestro apoyo y voto, si nuestro estudio se concentrase en el ámbito del marketing político.


Los neurocientíficos, investigadores y “neuromarketinianos” estamos siempre interesados en aprender, tanto como podamos, sobre los mecanismos que se desencadenan en nuestros cerebros cuando enfrentamos situaciones que exigen iniciar un proceso de decisión y compra.


Entender qué sucede cuando compramos, cuando nos sobre-exponemos a todo tipo de impactos publicitarios o cuando interactuamos con el universo de marcas que nos rodean, es nuestro último objetivo.


La investigación del neuromarketing tradicional necesita siempre de un conjunto de herramientas, aparatos y equipos humanos de enorme complejidad, muy sofisticados y, casi siempre, después de haber pagado una bonita factura (porque son tremendamente caros).


Como bien es sabido, una de las técnicas de imagen más utilizadas es la resonancia magnética funcional (IRMf) y su empleo nos ha reportado un número enorme de indicios y evidencias sobre el papel que tienen tanto las emociones, como las respuestas subconscientes en la percepción, por ejemplo, de un producto y en la toma de decisiones asociada y posterior que como consumidores experimentamos. Ambos factores se han revelado como determinantes en cualquier proceso de evaluación y compra.


No obstante, y como resultado del proceso de investigación, sabemos que nos enfrentamos con ciertas limitaciones que son inherentes al neuromarketing tradicional (Mileti, Guido & Prete, 2016)* y que podemos agrupar en los siguientes cuatro apartados:


Una tecnología muy cara que condiciona el propio diseño de los experimentos ya que al ser, necesariamente cortos en el tiempo (por disponibilidad y coste) su extensión muestral también lo es. Es decir, que siempre son muestras pequeñas y esto condiciona el grado de consistencia de la información obtenida por razones estadísticas.


Condicionamiento espacial. Los experimentos sólo pueden llevarse a cabo en laboratorios u hospitales por razones obvias. Un resonador magnético pesa en torno a los 4.500 Kg (el modelo Philips Achieva 1.5 T) por lo que es imposible imitar las diferentes perturbaciones externas de la vida real y que pueden influir, no sabemos en qué o cómo, en los resultados finales obtenidos. Y todo, sin contar con los posibles efectos cruzados de la interacción del movimiento de nuestro propio cuerpo y su efecto respecto a los demás.


Es fácil adivinar el grado de condicionamiento que esto supone y cómo puede poner en cuestión la validez científica de los resultados experimentales si queremos hacer cualquier inferencia al mundo real.


Falta de complementariedad en el uso de la tecnología. Sólo se puede utilizar una tecnología de neuroimagen, como la fMRI o una EEG (electroencefalografía) al tiempo, lo que puede llevar a una  comprensión “no completa” o parcial de las relaciones entre los procesos fisiológicos y el comportamiento humano, tanto por la limitación espacial (profundidad cortical) como por la propia de la tecnología aplicada.


Factores éticos y deontológicos. Nada nuevo. Desde el mismo nacimiento del neuromarketing este ha sido un factor enormemente controvertido. La sola posibilidad de la identificación de algún mecanismo relacionado con el propio proceso de compra ha despertado todo tipo de críticas. El miedo a la manipulación siempre está presente como factor limitante del libre albedrio individual.


Por eso, la nanotecnología y su potencial proceso de miniaturización puede atenuar, mejorar y hasta eliminar algunas de las limitaciones que acabamos de plantear y, con ello, el nanomarketing puede representar esa última frontera del neuromarketing por ayudar a fortalecer la cuestionada validez estadística, derivada del trabajo con pequeñas muestras y trabajos aislados y no necesariamente conectados.


Con dispositivos de medición pequeños, inalámbricos y baratos es posible diseñar trabajos de investigación masivos y todo lo que esto representa: la añorada ampliación muestral experimental y la incorporación de la multivarialibilidad del entorno real en los experimentos.


Así, el nanomarketing superaría con creces, por robustez estadística, la actual capacidad para probar la eficacia de determinada publicidad, la viralidad de un spot, la conveniencia de adoptar determinados cambios en un envase, o incrementar el atractivo de un producto frente a sus competidores en el propio lineal.  


Aunque, todavía, no hemos llegado al nivel molecular que permite el trabajo y la manipulación de estructuras moleculares y sus átomos que nos podría conducir a la fabricación de diferentes sensores, si podemos citar algunos ejemplos de tecnología de neuromarketing en dispositivos más pequeños. Ya contamos con gafas ligeras para medir el movimiento ocular, auriculares EEG y dispositivos "Galvanic Skin Response", que miden la excitación emocional y el estrés desde nuestra muñeca.


También, se está trabajando en la adaptación de la tecnología “wearable” en dispositivos portátiles para medir todo tipo de parámetros fisiológicos (como expresión emocional) y, mediante ese monitoreo remoto, recogerlos en tiempo real y en situaciones y lugares cotidianos.


Por ejemplo, aunque en una fase muy temprana, ya existe una tecnología que nos permite identificar la ansiedad, el ritmo cardiaco, el nivel de estrés, los estados de ánimo y emociones “ocultas” a nuestra vista como la mentira.


El doctor Kang Lee ha desarrollado una nueva tecnología de imagen que denomina “imagen óptica transdérmica”.


“Sabemos que debajo de nuestra piel facial hay una rica red de vasos sanguíneos. Cuando experimentamos diferentes emociones, nuestro flujo sanguíneo facial cambia sutilmente. Estos cambios son regulados por el sistema autónomo que está más allá de nuestro control consciente. Por lo cual, al observar los cambios en el flujo sanguíneo facial, podemos revelar las emociones ocultas de las personas...” (https://www.ted.com/talks/kang_lee_can_you_really_tell_if_a_kid_is_lying/transcript?language=es)


Gracias a la combinación del uso de algoritmos y tecnología de procesamiento de imagen, cuenta con una tecnología de bajo coste, inalámbrica, no invasiva y remota que puede, por ejemplo, detectar cuando mentimos con una precisión del 85%. Cuando mentimos el flujo sanguíneo disminuye en las mejillas y aumenta en la nariz.


Algunos autores que ya están proponiendo estos desarrollos, nos ayudan a concretar las oportunidades que nos ofrecerá el nanomarketing:


Una experimentación más accesible y multifuncional. Al ser significativamente menos costosa y poder medir al mismo tiempo diferentes señales, nos permitirá recolectar muchos más datos y, por tanto, la fiabilidad, validez y consistencia de los resultados aumentarán considerablemente.


Más real. O directamente real. Ya que si los dispositivos de Nanomarketing son más portátiles serán más discretos y podrán ser usados de manera cotidiana y no invasiva, en la vida real y durante tiempos de exposición mucho más amplios.


Análisis multivariable. Múltiples señales neurológicas, biológicas y fisiológicas pueden ser  medidas sincrónicamente lo que redundará en una comprensión más profunda de los estados emocionales y su relación con el comportamiento del consumidor.


El futuro Neuromarketing parece que será desde la plataforma del Nanomarketing que podría revolucionar la comprensión del comportamiento del consumidor y los principios fundamentales de nuestra área de conocimiento, el marketing, tales como actitudes, intención de compra, respuesta publicitaria, satisfacción del consumidor y un largo etcétera muy difícil de predecir en el momento que estoy escribiendo este artículo.


Pero, no quisiera terminar sin incluir una breve transcripción de la charla TED que ofreció el doctor Lee el pasado mes de mayo y dejarlo a su consideración:


… “con la ayuda de imágenes televisadas podemos detectar el ritmo cardíaco de los políticos, su estado de ánimo y el estrés, y quizás en el futuro, si nos están mintiendo o no. También podemos usarla en la comercialización de la investigación, por ejemplo, para averiguar si a la gente le gusta o no determinados productos de consumo. Incluso podemos usarla en las citas. Así, por ejemplo, si su cita le sonríe, esta tecnología puede ayudar a determinar si le cae bien de verdad o si solo está tratando de ser amable con Ud. Y en este caso, es solo una muestra de amabilidad…”


 

Artículo realizado por Javier Espina Hellín CEO QLC SLP

*Mileti, A., Guido, G. & Prete, M. I. (2016). Nanomarketing: A New Frontier for Neuromarketing. Psychology and Marketing, 33 (8), p. 664–674.

Captacion de nuevos clientes vs retencion de clientes actuales: analogia leaky bucket

El cubo con fugas es una analogía muy utilizada, sobre todo en el ámbito anglosajón, para describir cómo las entradas y salidas funcionan en una amplia variedad de sistemas empresariales, de gestión o tecnológicos.

La analogía se refiere a un cubo físico con un agujero en el fondo y en sus paredes.

El cubo puede contener el agua hasta su capacidad máxima y pierde el agua en una escala o a una velocidad que viene determinada por el tamaño del agujero.

Veamos algunos ejemplos donde aplicar la analogía de la cubeta que gotea por varios agujeros:

Las inversiones efectuadas en el entrenamiento sobre “la conciencia de la seguridad” de los empleados pueden producir una mejora inmediata en las prácticas de seguridad. Sin embargo, el cubo no permanece lleno durante mucho tiempo. Con el tiempo, la conciencia se va relajando, y se producen filtraciones y pérdida de esa agua contenida.

La moraleja o lección es que las inversiones en entrenamiento, en este caso en seguridad, deben ser periódicamente puestas en marcha para mantenerse en un nivel óptimo y que la tasa de pérdida se mantenga baja.

Otro ejemplo es CRM en una compañía, la gestión de la relación con el cliente o para explicar el modelo de retención de los empleados vs abandono.

Aquí la analogía del cubo de agua con fugas se utiliza para describir la tasa de rotación: la captación de nuevos clientes vs retención de los existentes.

El agua que se incorpora al cubo serían los nuevos clientes y el agua que fluye fuera del cubo representa aquellos clientes que está perdiendo la compañía. La cantidad de agua contenida en el cubo, según aparece en el gráfico, representa la base total y actual de clientes de la compañía en el momento de la observación, porque como sugiere la analogía, esta es una situación dinámica, ya que hay un flujo constante de nuevos clientes y una pérdida constante de los clientes existentes.

De esa manera, el tamaño de la base total de clientes varía constantemente - a veces hacia arriba y a veces en sentido contrario- dependiendo del flujo de agua en el cubo y el número de agujeros por los que el agua puede salir.

La analogía está diseñada para llamarnos la atención sobre que la empresa tiene dos enfoques potenciales para maximizar la cantidad de agua en el cubo (en este caso, es el tamaño de la base de clientes).

·       El primer enfoque, es aumentar el flujo de agua en el cubo vs aumentar el número de nuevos clientes.

·     El segundo enfoque consistiría en tapar algunos de los agujeros en el cubo para reducir la pérdida de agua vs concentrarse en la retención de los actuales clientes.

Esta es una de las clásicas tensiones de gestión comercial en una empresa: la determinación de la proporción de sus gastos y actividades de comercialización que se deben centrar en adquirir nuevos clientes frente a las acciones destinadas a conservar los clientes ya existentes.

Aunque es muy intuitivo porque parece bastante lógico, no fue hasta la década de 1980 que las empresas comenzaron a darse cuenta de la importancia de la retención de sus clientes y a desarrollar programas que buscan potenciar su lealtad. Hasta entonces, la mayoría de las acciones de marketing se centraban en la adquisición de nuevos clientes.

Este es un tema de enorme importancia porque según las últimas estimaciones en el mercado de gran consumo, las marcas ganan y pierden clientes hasta un 50% en promedio cada año. Es decir, cada año nos dejan de comprar la mitad de nuestros clientes y conseguimos otro 50% de nuevos clientes y, esto siempre que mantengamos la misma penetración en el mercado.

La conclusión parece evidente. Para incrementar mi penetración de mercado tengo que “taponar” con urgencia esos agujeros por los que pierdo clientes y, al tiempo, me aseguro que el caudal de agua que entra en el cubo se mantiene constante (sigo consiguiendo clientes nuevos). Pero, ¿en qué tarea es más rentable que destine los, siempre escasos, recursos de los que dispongo?

Lo que nos dice el marketing es que es más eficiente, en términos de beneficio, retener que conseguir nuevos clientes. En uno de los textos analizados, Reichheld  nos dice que un incremento de un 5% en la tasa retención puedo obtener un incremento de entre el 25% y el 100% de beneficio (Reichheld, 1996).

Sin embargo, y según los explica César Valencoso en su último trabajo, los datos empíricos (reales) de diferentes marcas, en el mercado FMCG o de gran consumo y alta rotación, apuntan a todo lo contrario. Existen patrones de abandono de clientes que se repiten en marcas grandes y pequeñas, con presupuestos orientados a la retención y fidelización y otras marcas que no tienen presupuesto, por lo que si queremos mantener o incrementar la penetración de nuestra marca el único camino existente es conseguir atraer a nuevos clientes.

Un planteamiento que además de provocador es completamente nuevo, por estar apoyado en un conjunto de datos reales que superan estadísticamente las, tradicionalmente pequeñas, muestras representativas con las que se presentan algunos estudios en el mundo del marketing, pero que nos debería hacer pensar sobre la necesidad de que seamos “consistentes” en la aplicación de cualquier medida en nuestras compañías, siempre con el respaldo de los datos, en lugar de la aceptación ciega de lo que se consideran verdades absolutas.

Para concluir, y sólo por curiosidad, esta analogía también  se aplica a algoritmos. El algoritmo “leaky bucket” es un método que se utiliza para almacenar, temporalmente, un número variable de solicitudes y organizarlas de acuerdo con una salida, a velocidad establecida, de paquetes en una red de modo de transferencia asíncrono (ATM).

Artículo realizado por Javier Espina Hellín CEO QLC SLP


Modelo 347 Declaracion de operaciones con terceras personas


¿Sabías que en el Modelo 347... pueden existir discrepancias entre los importes declarados por el cliente y por su proveedor?

En efecto, así sucederá si el cliente registra en su contabilidad la factura del proveedor en un período trimestral distinto al de la emisión de la factura.


¿Debe el autónomo o el empresario incluir en el Modelo 347 las operaciones de seguro?

El criterio de Hacienda conforme al artículo 33.2.a) del Reglamento General de las actuaciones y los procedimientos de gestión de inspección tributaria, es que los autónomos y los empresarios no tienen la obligación de incluir estas operaciones en el Modelo 347.

Para más información, accede desde aquí a la consulta de la DGT V2285-14.


¿Sabes cómo agregar el Modelo 347 a la Plataforma de Informativas de la Agencia Tributaria?

La AEAT ha publicado un video donde se explica cómo agregar el modelo 347.

En este enlace te lo facilitamos: http://youtu.be/QQO591jKnDg


Y no te olvides... el próximo 28 de febrero de 2017 finaliza el plazo de presentación del modelo tributario 347, sobre declaración anual de operaciones con terceros.

Compliance: el camino hacia el cumplimiento normativo

La responsabilidad penal de las personas jurídicas

En el convulso mundo en que vivimos hay una realidad que es incontrovertible. Las corporaciones (principalmente las empresariales), las asociaciones, las fundaciones y en general, las personas jurídicas, se han convertido en los actores principales de las relaciones jurídicas – económicas en un contexto globalizado.

No vamos a tratar aquí las ventajas en términos de crecimiento, de generación de riqueza y de oportunidades que, para nuestras sociedades, han traído las nuevas formas de desarrollo de las transacciones económicas y el comercio internacional.

Pero sí vamos a hacer hincapié, en un efecto negativo derivado de esta nueva realidad y que consiste en la creación de nuevas formas de comisión delictivas transfronterizas, gran parte de las cuales, tienen su origen en la propia empresa y en el modo que tiene de emprender sus negocios (basado en criterios para maximizar beneficios y minimizar costos), que ha llegado a convertirse en un factor de riesgo que favorece la delincuencia. Se pueden citar muchos ejemplos conocidos de abusos, corruptelas, falsedades, promoción de la violencia o incluso del terrorismo, en los que han tenido algún grado de participación las personas jurídicas.

Como respuesta también global a este alarmante fenómeno, en los últimos tiempos se ha observado que, por parte de los derechos penales nacionales, entre ellos el derecho penal español (véase el actual artículo 31 bis del Código Penal), se ha incorporado una nueva institución “la responsabilidad penal de las personas jurídicas”. Ésta ha quebrado el arraigado y famoso principio “societas delinquere non potest”, que predicaba la inexistencia de responsabilidad y culpabilidad penal de las personas jurídicas, lo que limitaba su responsabilidad al ámbito estrictamente civil.

Hoy ya es posible que las infracciones penales cometidas por personas físicas bajo ciertos requisitos, presupuestos y condiciones, acarren la imposición de una pena a la persona jurídica por cuya cuenta o bajo cuya dirección actuaba.

De este modo está naciendo una nueva cultura ética corporativa que tiene como finalidad el cumplimiento de forma natural y eficaz de las normas, lo que se conoce como Compliance o Corporate Compliance.

Tener implantado un programa de Compliance eficaz, que asegure las funciones de supervisión, vigilancia y control normativo en el ámbito de la empresa, sin duda es un buen negocio, porque disminuye o incluso evita los riesgos de una posible acusación penal y, llegado el caso, de la imposición una pena como: multas, disolución y pérdida definitiva de la personalidad jurídica, suspensión, clausura de sus locales y establecimientos, inhabilitación e intervención judicial.

En Qualitas Lex Consulting nos ponemos a tu disposición para que tu organización se adecúe de forma eficaz al cumplimiento normativo. Para alcanzar este objetivo, seguimos las directrices de las normas:   UNE-ISO 19600:2015 sobre Sistemas de Gestión de Compliance y la ISO 37001:2016 sobre sobre Sistemas de Gestión de Antisoborno. Próximamente, se publicará la nueva normativa UNE 19601 sobre Sistema de Gestión de Compliance Penal.

Direccion Financiera Externa DEF: Una variable clave en la mejora de tu rentabilidad

¿Sabías que una mejora en el área financiera de tu empresa puede representar uno de los más importantes factores que mejoren la rentabilidad final de tu negocio?


Desde el mismo momento fundacional en la que una empresa inicia sus primeros pasos y a lo largo de la vida de una compañía, hay aspectos clave que siempre tienes que tener bajo control y que no permiten demora. Te enumeremos algunos de ellos:

1.   Contar con un sólido plan de negocio y de contingencias

2.   Conseguir financiación en las mejores condiciones de mercado cuando la necesites

3.   Tener una estructura ágil y bien dimensionada

4. Una ubicación ideal: no olvides aquello de "localización", "localización", "localización"

5.  Tener control sobre los aspectos normativos y de legislación aplicable en cada uno de los territorios donde opero.


Hoy, a diferencia de hace pocos años, también las empresas medianas e, incluso, las más pequeñas pueden aprovecharse de las ventajas de contar con la ayuda de un  consultor financiero y empresarial que te ayude a implementar, por ejemplo, herramientas financieras, un ERP, para que cuentes siempre con la mejor información en tu toma de decisiones, en tiempo real y, por ejemplo, desde tu móvil.


Una manera distinta, más sencilla y muy intuitiva de incorporar una de las muchas ventajas asociadas a una correcta dirección financiera de tu negocio, que además por ser externa significa que no tienes la necesidad de integrarla en tu plantilla y, por tanto, no carga tus costes laborales.


Un profesional, con una demostrada trayectoria profesional, que hará las funciones de un director financiero capaz de aconsejarte y ayudarte a establecer una estructura más flexible, asistirte como experto ante las entidades financieras para, entre otras cosas,  mejorar las condiciones de financiación, contribuir a optimizar toda un área clave, como lo es la financiera, para que no "gastes" tu dinero en errores que podías haber evitado por una mala decisión en la gestión con tus proveedores, en tu almacén, de tesorería, de deuda, en la propia elección o gestión de los recursos humanos asociados al departamento financiero y, en última instancia cuando ya es irreversible, en el legal colaborando activamente con el equipo jurídico que dispongas a tal efecto.


Por tanto, la dirección financiera externa puede convertirse en un agente impulsor y de cambio, dentro de tu empresa, porque te ayudará a diseñar e implementar políticas y procedimientos internos, compromisos con clientes, empleados, proveedores y terceros que además, de reforzar tu código ético, irá construyendo una serie de atributos que refuercen la marca por la que eres conocido en el mercado y por la serás identificado, de manera positiva y distinta, convirtiéndose en elemento diferenciador que te separe de tus competidores, asegurándose del cumplimiento integral de la legalidad vigente.


Cuando llegue el momento del crecimiento, desarrollo y expansión de la empresa y tengas que invertir en tecnología, adquirir nueva maquinaria o hacer frente a la compra de nuevas instalaciones o inmuebles es seguro que tu compañía necesitará acudir fuentes de  financiación adicional.


Es en ese momento, de nuevo clave para ti y para tu negocio, cuando el papel de un director financiero externo, con experiencia y sólidos conocimientos, mejora tu posición de negociación frente a las entidades de crédito que te ayude a elegir como “Partners”, porque te proporcionará las herramientas objetivas que vas a necesitar para acreditar cuáles son las fortalezas de tu empresa, su situación en el mercado en el que tienes presencia, niveles de endeudamiento a corto y largo plazo, escenarios futuros de ingresos y, en definitiva, todos aquellos informes financieros y documentación que necesites aportar para hacer viable la operación.


Un consultor financiero externo, a través del conocimiento y de instrumentos operativos, como el ERP que antes mencionamos, es capaz de poner a disposición de tu empresa y de ti, como gestor de la entidad, de toda la información que necesites, actualizada y fidedigna para que las decisiones que debas tomar en el ámbito del “Management” o de gerencia siempre tengan un respaldo real, objetivo y contratado por un experto que no comprometan la rentabilidad actual o futura de tu negocio.


En definitiva, es tener la capacidad de poder generar presupuestos, analizar periódicamente los resultados provisionales y corregir a tiempo las desviaciones que sean detectadas.


Todo esto, te ayudará a dimensionar de manera óptima tu plantilla, contribuirá a validar a tus proveedores, de acuerdo a los estándares de calidad que hayas adoptado, y será de máxima ayuda en los períodos de alta capacidad, de liquidación, de pago de salarios, de facturas, etc. y siempre pagando por ellos sólo lo necesario.


Como podrás apreciar, es un importante campo de acción para la dirección financiera externa y un activo irrenunciable para tu empresa.


Quizás, sea un buen momento en el poder reflexionar sobre algunas preguntas que podrían serte útiles en la mejora de tu gestión al frente de tu negocio:

· ¿Cuentas con un plan de negocio detallado por líneas de actividad con un  presupuesto financiero vinculado?

· ¿Tienes previsto un Plan de Contingencia y un presupuesto alternativo con los márgenes de maniobra que te define este plan?

· En tu proceso de toma de decisiones, ¿Con qué frecuencia no dispones de datos reales de explotación cuando te hacen falta?

· Y, cuando los pides como soporte a tus decisiones, ¿cuánto tiempo necesitan tus colaboradores para entregártelo?

· Además, de tu experiencia, habilidad, conocimiento de mercado y competidores ¿consideras que un mejor control fiscal, contable y normativo es determinante en tu resultado final operativo?

· ¿Con qué margen de tiempo cuentas para revisar los pagos con los que haces frente a tus obligaciones fiscales, contables, y laborales?

· ¿Tu empresa cuenta con procedimientos detallados de contratación, selección de personal y evaluación de proveedores?


Como sabrás, ahora, también las PYMES pueden afrontar el obligatorio cumplimiento normativo  o “Compliance” con la misma garantía con la que siempre han contado las grandes corporaciones, gracias a la contribución de nuestros despachos profesionales.


Reducimos el riesgo de la empresa frente a ulteriores responsabilidades civiles, administrativas, tributarias, laborales e, incluso, penales que el desconocimiento o la falta de previsión en la toma de decisiones pueden traer consigo.


Si consideras que aún existe un margen de mejora dentro de tu empresa, que no consigues la rentabilidad que esperabas, después del esfuerzo conjunto que hacéis todos cada día en tu empresa, o “sientes” a tus competidores demasiado cerca, creo que QLC puede ayudarte a generar valor, optimizar tus procesos internos, adecuar tu dimensión y estructura, prever el impacto que puede tener el cumplimiento normativo en tu cuenta de resultados y, en definitiva, mejorar tus resultados y ahorrar allí donde es posible porque, seguro, que podrás emplearlo de manera más productiva.

 

Artículo realizado por: Sergio Gayoso Merino CLO y Javier Espina Hellín CEO de QLC SLP

El Big Data, ¿sabemos como funciona?

El Big Data o "datos masivos" es un término que hace referencia a la “gestión” de una ingente cantidad de datos que supera la capacidad del software convencional para ser capturados, administrados y procesados en un tiempo razonable con la intención de aprovechar la información que se derive de su manipulación masiva. Lo novedoso es que se puede utilizar para saber posibles, estadísticamente hablando, comportamientos futuros mediante el uso de la minería de datos masiva y los modelos predictivos. Los campos de aplicación son innumerables pero en el ámbito empresarial podemos citar el análisis de negocio, publicitarios, los departamentos de recursos humanos, consumo y ventas cruzadas, etc.

¿Cómo se generan esos datos y de dónde provienen?

Lo cierto es que todos nosotros los generamos, habitualmente sin conciencia, y cada segundo. Podemos distinguirlos según su procedencia:

·     Generados por nosotros: cuando enviamos un correo electrónico, utilizamos nuestras redes sociales, utilizamos un ERP, incluimos registros en una base de datos o introducimos datos en un EXCEL se crean nuevos datos y metadatos susceptibles de análisis que pueden ser analizados.

·      Transacciones de datos: las llamadas o la transacción entre cuentas generan nuevos datos relevantes. Un ingreso de una cantidad de euros se traduce en un movimiento en determinada fecha, hora y lugar concreto, entre unos usuarios registrados de una o más entidades bancarias. Más metadatos.

·       E-marketing y web: al navegamos por internet dejamos un profundo rastro y gran cantidad de datos por nuestra interacción con el sitio. Se utilizan una gran variedad de herramientas de tracking con fines de marketing y análisis de negocio. Por ejemplo, los simples movimientos de nuestro ratón quedan almacenados en mapas de calor, además del tiempo que estamos en esa página, el nºde clics, los abandonos de la página, etc. Basta sólo con analizar la información contenida en un informe de Adwords por ejemplo.

·    Machine to Machine (M2M): o tecnologías que comparten datos con otros dispositivos: medidores, sensores de todo tipo (temperatura, luz, altura, de presión, de sonido, GPS, etc.) que transforman en datos las magnitudes recogidas por la máquina de registro. La irrupción de las comunicaciones inalámbricas (Wi-Fi, Bluetooth, RFID…) ha supuesto un aumento exponencial de los datos susceptibles de análisis.

·       Biométrica: o datos generados por lectores biométricos como escáneres de retina, de huellas digitales o lectores de ADN. Su uso es en seguridad, defensa y servicios de inteligencia.

Respecto al análisis de los datos y teniendo en cuenta las diferentes tecnologías de almacenamiento necesitaremos acudir, también, a distintas técnicas de análisis de datos, por citar las más conocidas:

·      Asociación: buscamos relaciones entre variables. Con la premisa de causalidad pretendemos avanzar una predicción en el comportamiento de otras variables dependientes. Un ejemplo de esta clase de relaciones son los sistemas de ventas cruzadas del e-commerce.

·     Data Mining o minería de datos: es el conjunto de técnicas que combina los métodos estadísticos, de “machine learning” y almacenamiento en bases de datos. El objetivo vuelve a ser predecir comportamientos. Por su naturaleza, tiene una relación muy estrecha con los modelos que se utilizan en la construcción de patrones.

·    Clustering o agrupación: partiendo del “data mining”, el “clustering” segmenta grandes grupos de individuos en otros de menor tamaño, encontrando similitudes “ocultas” entre estos grupos porque no sabíamos de su existencia antes del análisis. El propósito final es descubrir qué tipo de “similitud” que los define y relaciona entre sí. Con una metodología apropiada, técnicas y algoritmos de clustering, encontraremos relaciones entre resultados y procederemos a una evaluación preliminar de la estructura de esos datos.

·      Text Analytics o análisis de texto: como la mayor parte de los datos que cada uno de nosotros generamos son de texto, e-mails, búsquedas web, contenidos, etc., necesitamos una metodología que nos ayude a extraer información de estos datos y agruparlos por temas, por asuntos y extraer patrones, modelos, ser capaces de predecir palabras, completar frases, hacer búsquedas conceptuales, etc.

 

Artículo realizado por: Javier Espina Hellín CEO QLC SLP

Infotecnologia o el cambio de paradigma

La infotecnología, rompe paradigmas e impone nuevas forma de hacer negocios con sus propios métodos y procesos. Por citar algunos ejemplos citaremos:

1.       e-Business: adaptación y transformación de procesos clave de negocio con tecnologías de internet. El comercio por la red, con estrategias innovadoras, clientes globales, nuevos sistemas de búsqueda, de pago, etc.

2.       e- Commerce: conjunto de actividades relacionadas con la compra-venta de productos, servicios e información en la red. Es una parte del e- Business que obliga a crear valor utilizando toda la tecnología de la información disponible.

3.       e- Procurement/ Purchasing: es una nueva forma de gestionar las compras de una empresa generendo ventajas competitivas asentadas en el ahorro de recursos, mayor integración con el cliente y el proveedor, un mayor nivel de información de los gestores, aumentar el control del gasto, reducir el ciclo de tiempo en la compra y concentrar compras con proveedores para conseguir descuentos por volumen y mejor servicio.

4.       ERP (Enterprise Resource Planning): o sistema de gestión de la información estructurado para la empresa que le permita gestionar más eficaz y fácilmente su negocio. Las soluciones ERP son modulares, parten de una estandarización que puede ser “customizable” o definida parcialmente por el cliente/empresa, y son interfaces con otras aplicaciones. Necesitan una alimentación constante de datos que son consecuencia de flujos internos y multinivel de información y relaciones comerciales externas. Un ERP, como SAP o SAGE, persigue la mejora de la productividad, servicio al cliente, reducción de costes, calidad, etc.

5.       CRM: o herramientas de gestión de relaciones con clientes (Customer Relationship Management) necesarias para desarrollar el marketing relacional. Son sistemas informáticos de apoyo a la gestión de las relaciones con los clientes y orientados tanto a la gestión de la venta y los clientes de la empresa: automatización y promoción de ventas, tecnologías data warehouse (almacén de datos) para agregar la información transaccional y proporcionar capa de reporting, dashboards e indicadores claves de negocio como al marketing. Incluye funciones para gestionar las ventas, funcionalidades para seguimiento de campañas de marketing y gestión de oportunidades de negocio, capacidades predictivas y de proyección de ventas. Según Peppers y Rogers T. "una empresa que se vuelca a sus clientes es una empresa que utiliza la información para obtener una ventaja competitiva y alcanzar el crecimiento y la rentabilidad. En su forma más generalizada, CRM puede ser considerado un conjunto de prácticas diseñadas, simplemente, para poner a una empresa en un contacto mucho más cercano con sus clientes. De este modo, aprender más acerca de cada uno, con el objetivo más amplio de que cada uno sea más valioso incrementando el valor de la empresa.” Los sistemas CRM cuentan con distintos módulos y categorías de programación desde Javascript, para programaciones del lado cliente, Plugins que funcionan de manera sincrónica realizando acciones durante la pre y post creación y actualización de registros y workflow que realiza tareas de manera asincrónica.

6.       SCM (Supply Chain Management): o la administración de redes de suministro es el proceso de planificación, puesta en ejecución y control de las operaciones de la red de suministro con el propósito de satisfacer las necesidades del cliente con tanta eficacia como sea posible. La gestión de la cadena de suministro es transversal en todo el movimiento y almacenaje de materias primas, el inventario, y las mercancías acabadas desde el punto de origen al punto de consumo. El SCM contempla todo los acontecimientos y factores posibles que puedan causar una interrupción dentro de la misma compañía o entre distintas empresas, la red de suministro y la logística.

7.       Big Data: o Datos Masivos es un término que hace referencia a la “gestión” de una ingente cantidad de datos que supera la capacidad del software convencional para ser capturados, administrados y procesados en un tiempo razonable con la intención de aprovechar la información que se derive de su manipulación masiva. Lo novedoso es que se puede utilizar para saber posibles, estadísticamente hablando, comportamientos futuros mediante el uso de la minería de datos masiva y los modelos predictivos. Los campos de aplicación son innumerables pero en el ámbito empresarial podemos citar el análisis de negocio, publicitarios, los departamentos de recursos humanos, consumo y ventas cruzadas, etc.


Artículo realizado por: Javier Espina Hellín CEO QLC SLP

Reingenieria: una nueva herramienta llamada infotecnologia

La reingeniería de una organización, o BPR (Business Process Reeingeniering), ha sido definida de diferentes formas. Por ofrecer algunas de las más extendidas, podemos decir que consiste en un “análisis y diseño de los flujos de trabajo y procesos dentro y entre organizaciones” (T. H. Davenport), o la “reconsideración, reestructuración y racionalización de las estructuras de negocio, procesos, métodos de trabajo, gestión de sistemas y relaciones externas, a través de los cuales creamos y distribuimos valor…” (R.Talwar).

En definitiva, la reingeniería exige una revisión constante de las fortalezas y debilidades de la empresa y el planteamiento de “esas” preguntas difíciles que nos permiten afrontar los cambios que hacen mejor a la organización.

Podemos decir que el padre de la reingeniería es Hammer, que siendo profesor del MIT,  y en un artículo publicado en Harvard Business Review y más tarde en su libro, “Reingeniería de empresas: un manifiesto para la revolución de los negocios” defendía la idea que los esfuerzos de una organización deben centrase en aquellas actividades que aportasen valor a sus clientes; las que no deben eliminarse o reducirlas al mínimo posible. Más tarde, James Champy se le une para formar el tándem responsable de su difusión global.

La infotecnología, nos dice Hammer, es la herramienta básica de la Reingeniería de Procesos más actual, que relega a un segundo plano las tradicionales herramientas empleadas hasta ahora.

Consiste en explorar las nuevas capacidades que la tecnología de la información nos ofrece para conseguir nuevos objetivos. Es una cultura de trabajo definida por un grupo de sofisticadas herramientas de navegación para la búsqueda, la revisión y el procesamiento de la información en su formato digital.

Pueden crear valor de dos formas diferentes:

·       Haciendo lo mismo que antes pero aprovechando la potencia de la herramienta informática. Acortando plazos y reduciendo costes.

·       Haciendo cosas que nuestros competidores no saben o no pueden hacer. Por ejemplo, fomentar la interconexión con proveedores y clientes para entrar en modelos de trabajo cooperativo.



Artículo realizado por: Javier Espina Hellín CEO QLC SLP

Comunicacion de nominas a traves del Portal del Empleado

El Tribunal Supremo en su reciente sentencia de 1 de diciembre de 2016 (recurso nº 3690/2014), ha hecho un viraje en su jurisprudencia adaptándose a los tiempos actuales, dando su aprobación a que las empresas implanten en sus estructuras sistemas informáticos conocidos como “portal del empleado” siempre y cuando los pagos se realicen mediante transferencia bancaria.

El “portal del empleado” es una importante innovación tecnológica que proporciona tanto a empresas como a trabajadores grandes ventajas en términos de organización y eficiencia, dado que crea un nuevo canal de comunicación directo entre unos y los otros, quedando además totalmente garantizada la privacidad de los datos personales.

¿Tienes empleados?

¿Quieres empezar a ahorrar en tus costes fijos?

Ponte en contacto con nosotros y te diremos cómo.

Más info aquí

Aplazamientos del IVA para autonomos y pymes

La Agencia Tributaria ha publicado en su website una instrucción para resolver las dudas surgidas desde que el Real Decreto-ley 3/2016, de 2 de diciembre, eliminase la posibilidad de conceder aplazamientos o fraccionamientos de determinadas deudas tributarias, entre ellas las derivadas de los pagos fraccionados del Impuesto sobre Sociedades.

La Agencia Tributaria ha informado que para determinados impuestos como IRPF e IVA, son admisibles aquellas solicitudes de aplazamiento o fraccionamiento que se refieran a deudas por importe global igual o inferior a 30.000 euros sin necesidad de aportar garantías, y se tramitan mediante un proceso automatizado.  El plazo de duración del aplazamiento sería por el periodo solicitado y hasta un máximo de doce (12) mensualidades.

No obstante, siempre que se trate del IVA, es necesario justificar que las cuotas repercutidas no han sido efectivamente pagadasSi es IRPF, no se admiten aplazamientos en el pago de retenciones o ingresos a cuenta.

Para las solicitudes de aplazamiento de determinados impuestos como IRPF e IVA, por un importe global superior 30.000 euros, la Agencia Tributaria ha indicado que son admisibles si se aportan las garantías adecuadas y se tramitan mediante un proceso ordinario no automatizado. En estos casos, el aplazamiento podría concederse por el periodo solicitado y hasta un máximo de treinta y seis (36) mensualidades.

No obstante, siempre que se trate del IVA, es necesario justificar que las cuotas repercutidas no han sido efectivamente pagadas. Si es IRPF, no se admiten aplazamientos en el pago de retenciones o ingresos a cuenta.

Link al anuncio de la AEAT 13.01.2017


Conference Crushing

Todos ejercemos un rol pasivo, como seres perceptivos en este tipo de eventos (por necesidad o por costumbre) pero ésta actitud pasiva-receptiva, para mantener el silencio de la sala, hace que nuestros mecanismos cerebrales de atención estén vigilantes, pero nuestro cerebro no está guardando toda la información o, al menos, la más importante.

Por eso, prepararnos para este tipo de eventos hará que el nivel de atención sea mucho mayor y pasemos a otro estadio de conocimiento, no solamente archivador, sino clasificador. El que nos permitirá hacer preguntas y debatir después.

Casi siempre por falta de tiempo, usted asiste habiendo leído por encima el programa, sabiendo algo del o los ponentes; pero no ha investigado lo suficiente del tema ni de los conferenciantes porque no dispuso de esos “diez minutos” para entrar en una web, leer algún artículo, ver una entrevista, etc.

Para aprovechar al máximo un evento de estas características, deberá tener en cuenta 3 aspectos:

  • La actitud previa al acto.

  • La actitud durante el evento

  • El nexo a mantener a posteriori con ponentes y otras personas de interés

Algunas recomendaciones útiles en cada fase:

1.- Cuanto más conozca sobre los ponentes y la temática antes de asistir, mejor le irá.

Tenemos que conocer los méritos profesionales de los ponentes o cuál es su aportación (artículos, libros, entrevistas, etc.) al campo de conocimiento que se debatirá. Y una recomendación: siempre hay una declaración u opinión de algún conferenciante, que por destacada o porque ha provocado polémica, puede tomarla de referencia para poder interpelar al autor durante del tiempo previsto de intervenciones y preguntas del público asistente.

2.- Cómo actuar durante.

En las conversaciones preliminares que siempre se suceden minutos antes del inicio del evento hay que saber escuchar con atención, porque siempre habrá alguna persona que, a lo mejor, se tomó el trabajo que uno no se ha tomado, conoce mejor que nosotros a los ponentes y la temática. Todo depende de nuestra habilidad para saber preguntar y dejar hablar.

No hablar de nosotros, sino que los demás hablen de ellos y de lo que nos interesa escuchar: de los conferenciantes. También es importante separar el trigo de la paja cuánto antes, en referencia a esos colegas que les gusta hablar de ellos, afirmar cosas que si bien pudieran ser ciertas, suenan a exageradas. En suma: narcisismo profesional que no aporta nada.

3.- Capitalizar el encuentro a futuro.

Lo que nos falla es la planificación y no la falta de tiempo. Después de un día entero de jornada, coffee-breaks, comida, una serie de entrevistas personales opinando sobre lo que se está diciendo, escuchando lo que el público está comentando, etc., uno sabe perfectamente con quiénes puede mantener un contacto a futuro, porque hay intereses comunes profesionales y también académicos (querer conocer más en profundidad lo debatido).

Una forma de proceder que puede beneficiarle, es tomar notas sobre las cuestiones de más actualidad o que más preocupan al colectivo profesional asistente al acto. Entonces, entre aquellas personas que cree son más interesantes para usted (posibilidad de que pueda surgir un negocio futuro, simplemente porque le abre la puerta un alto cargo de una empresa multinacional con quién usted compartió todo el día), un buen toque de clase es enviarle un mail, con algunas reflexiones que usted crea que a esa persona le pueden interesar e, incluso, poder ponerlo en práctica en la organización de la cual forma parte.

A veces no ha tenido ocasión de plantearse la posibilidad de poner en marcha una determinada acción que justamente pertenece a un campo de conocimiento que usted domina por no tener el contacto apropiado.

La visión del conferenciante

Ser buen conferenciante es no solamente conocer la materia de la que tratar, sino manejar las técnicas básicas de hablar en público, control de grupo y, sobre todo, indagar en el fondo de las cuestiones, para garantizar que la información puesta sobre la mesa fluya triturada de manera inequívoca. Es decir, desde el conferenciante a los asistentes, pero también en sentido contrario.

Cuesta creer que la mayoría de los grandes conferenciantes no necesitarían herramientas de expresión como Power Points o similares. Esto son añadidos en temáticas muy concretas, que requieren elementos que complementen la disertación o disertaciones principales.

Quienes hayan asistido a conferencias plenarias, sean de temáticas sociales o científicas, saben perfectamente que con tres ideas bien expresadas se puede dar una clase magistral y, sobre todo, salir del acto con una clara idea de lo captado.

En el libro ‘La ética del hacker’, Pekka Himanen cuenta cómo preparaba in extremis determinadas conferencias. El ejemplo es llamativo del sentir de muchos expertos a quienes les resulta de escaso interés hacer una presentación formal de determinadas cuestiones. El caso de este ex hacker no es único: los conferenciantes pasan por varias etapas en su carrera profesional y divulgativa: desde modélicos analistas de la realidad (social, política, médica, científica, tecnológica…) a abstrusos genios. Sin embargo, para ser reconocido como un gran conferenciante, por el que todos pagaríamos por ver y escuchar, hay que ofrecer algo esencial, único o especial al público. Eso es lo que los hace únicos, como a los deportistas, músicos y otros destacados profesionales de élite.

La estafa del conocimiento.

Hay que tener cuidado con los charlatanes. Es muy frecuente encontrarse en internet con conferencias magistrales que, en realidad, son discursos de charlatanes.

Una manera de poner en evidencia esto, consiste en intentar sistematizar el contenido de la conferencia. La que imparta un charlatán no tendrá apenas contenido o éste estará muy difuso, inconsistente en cuestiones básicas o, pasada la conferencia, el debate es inexistente o falto de rigor.

Esto no ocurriría nunca con un conferenciante ad hoc, que, como se ha mencionado al comienzo de este artículo, deja abierta la puerta al diálogo constante, que no se molesta por las interrupciones, que interpela constantemente, que realiza un trabajo con una pizarra en blanco. Es la diferencia entre alguien (dígase charlatán) que pretende ser experto en algo y no es más que un maestro en nada. Es decir, un estafador del conocimiento.

Existe siempre otra manera más vulgar de detectar al estafador. Suele ser lo que un amanuense de antaño respecto a un verdadero escritor. Se trata de personas que aprenden ciertas técnicas (posturas, entonación, etc.) que, junto con la verborrea apropiada, dan sensación de decir algo importante, cuando realmente no dicen nada. Todo el mundo sabe que este es un arte no solamente llevado al súmmum por políticos y vendedores, sino por conferenciantes que estafan ofreciendo información insulsa, ya conocida y, sobre todo, sin criterio.

Así pues, quédense con la idea de que en una conferencia hay que ser exigente, por el bien suyo, del conocimiento general y particular y también para discriminar a quienes realmente valdría la pena seguir como expertos en una materia. De ahí que la idea inicial de trituración sea llevada no solamente al conocimiento en sí, sino al modus operandi de las conferencias.

Y si fuera usted un conferenciante ocasional, tome nota de que si sus oyentes no se convierten en interlocutores, puede que esté de alguna manera defraudándoles (también defraudándose a sí mismo) y quizá también estafándoles.

Artículo coordinado por José Luis Zunni director de ecofin.es en colaboración con Salvador Molina presidente de ECOFIN, Javier Espina Hellín CEO en Qualitas Lex Consulting y miembro de ECOFIN Business Schools Group y Ximo Salas, miembro del ECOFIN Management & Leadership de ECOFIN.

Errores que puede cometer un líder

Liderar no es acertar siempre. Un líder no es un super héroe. Levantarse tras una caída personal o colectiva, esa es la esencia de un gran líder. Aprender de los errores, capacidad de superación, resilencia y empuje permanente. Así, si.

Un líder de una organización es, antes que nada, una persona y por tanto susceptible de cometer errores. La cuestión está en descifrar qué circunstancias se dieron para que un determinado error ocurriera y evitar que vuelva a suceder.

Es muy habitual que el líder quiera estar hasta en el más pequeño detalle, pero no por eso deja de ejercer un buen liderazgo. Lo que sucede es que se expone a una probabilidad de error mayor, por ejemplo, si no delega lo suficiente, lo que al mismo tiempo puede significar falta de confianza en su equipo.

¿Hasta qué punto debe confiarles a determinadas personas ciertas tareas y responsabilidades?

La delegación de funciones y responsabilidades no puede ser fruto de un capricho y de las dudas sobre la capacidad que tienen los demás a la hora de ejercerlas. Es uno de los principios básicos de la administración y, consecuentemente, del buen liderazgo. Que el líder tome la iniciativa de capacitar y formar a su equipo en algunas cuestiones que lo requieren y que son las que le privan de otorgarles toda la confianza para delegar ciertos trabajos, es un buen camino. Pero si insiste en hacerlo todo él mismo, antes o después aflorará un error porque es imposible controlarlo todo.

Con frecuencia sucede que se actúa sin pensar demasiado lo que se hace o dice. Incluso se puede errar en una planificación o se precipitan los procesos porque la urgencia manda. Cuando esto sucede, un directivo está cuestionándose a sí mismo su capacidad de líder, porque se ha dejado guiar por emociones, sin pararse a valorar las consecuencias.

El líder efectivo no puede ser incongruente con sus principios y valores. Siempre debe dar ejemplo. Una característica que califica de manera definitiva a un líder potencial que pretende convertirse en la nueva persona a seguir en la organización, es si tiene cierta tendencia a culpar al personal por errores individuales de su propia supervisión, o falta de oportunidad en la toma de alguna decisión. Eso de que lo paguen los demás es un mal síntoma para el liderazgo de esa empresa.

Tampoco es una buena señal que cuando aparece un problema el líder se descargue de toda responsabilidad y deje la solución en manos de un determinado departamento o equipo que nada tiene que ver con la situación. No hay que olvidar que todo lo que rodea a la empresa y el clima laboral que se vive es responsabilidad del directivo. Admitirlo o no es también cometer o no un error, que termina pesando en el desarrollo del líder y la propia organización.

Es frecuente, especialmente en tiempos en los que las redes sociales y la comunicación abierta facilitan las críticas y comentarios del personal, que el líder quiera mostrar una cara buena con las personas con las que interactúa de manera directa y también con aquellas que lo hace de manera indirecta, a través de mails, comunicados, reuniones de trabajo interdepartamentales, etc. Mostrar ese lado más afable puede saltar por los aires si su actitud no es auténtica. Ya sabemos que dirigir personas no es tarea fácil, pero la autoridad es una de las bases del buen liderazgo, siendo imprescindible mostrar con frecuencia la otra cara de la luna aunque se tenga que hacer una observación negativa sobre rendimiento, procedimientos aplicados, etc.

Ni el líder que va de bueno ni el que abusa de la carga negativa en su crítica, contribuyen el desempeño de los empleados y el wellbeing de la empresa. El líder efectivo busca un punto medio en el que no prevalezca ni una bondad absurda ni una severidad injustificada.

La motivación al personal es fundamental para, al mismo tiempo, fortalecer la propia confianza y credibilidad en el líder, lo que hará también que su liderazgo le haga crecer en su autoconfianza. Exigir a los empleados algo que sabe que no son capaces de ofrecer no es bueno. Y menos aún si se les ha motivado para ello, porque terminarán defraudados y desestimulados.

Un aspecto sustancial que el líder efectivo hace es evitar tratar a los empleados de forma distinta según sea el caso, creando diferencias o, peor aún, preferencias que pueden traducirse en asignación de tareas y más o menos controles sobre determinadas personas o equipos. De tener cierta tentación en un momento determinado (y bajo especiales circunstancias que podrían tener una justificación si, por ejemplo, ha sobrevenido una crisis que hay que resolver con los empleados más experimentados) esta situación no puede perpetuarse, porque las diferencias crean aún más enconos y son fuente de conflictos futuros. En otros términos: la empatía debe ejercerse con todas las personas, aunque en algún momento, como la situación descrita, se tenga que hacer en beneficio de la empresa una elección sobre la delegación de funciones puntualmente para solucionar el problema.

Algunas recomendaciones

Incluso los grandes líderes tienen que lograr un equilibrio entre sus debilidades y fortalezas. Seremos líderes ejerciendo un liderazgo muy pobre si caemos presa de nuestras flaquezas y tendemos a cometer algunos de los errores descritos. Por ello aconsejamos:

1.- Evitar que los demás desconecten.

Una regla básica del buen líder es ser una persona que da ejemplo. Siempre hay que ser un referente con nuestras acciones más que con palabras.

En un grupo humano, en cualquier organización, si al líder le gusta escucharse a sí mismo, sus interlocutores, sea en el plano formal o informal, terminan desconectando, o dicho coloquialmente tienden a  pasar de él. ¿Por qué? Porque todo comienza con su actitud frente a la vida y los demás.

2.- No tener una visión fuerte.

Sin una visión con la que se pueda entender y comprender para sí antes que nadie, la realidad del entorno y la organización, no podrá explicar a los demás ni impartir un sentido de propósito y dirección a los equipos ni al núcleo de colaboradores más próximos. Además, esta visión se contagia a la organización en su conjunto.

3.- No ser próximo a personas y equipos.

Es muy bueno ser inteligente, pero no tanto sentirse superior a los demás. Hay que ser honesto intelectualmente y tener la mente abierta a todas las personas, sin hacer discriminación alguna. Si el líder no puede tener relaciones interpersonales dentro de un mínimo que pueda considerarse razonable y controlar sus emociones, siempre sembrará desconfianza en el resto de personas, no tanto en cuanto a sus dotes y habilidades técnicas (que se las reconocen), como en la percepción que provoca en todo el personal, que le hace confiar más o menos en su personalidad que le otorga a su vez mayor credibilidad en su gestión.

El directivo que tiene aburrida a personas y equipos con una serie de promesas históricas incumplidas, y que siempre echa la culpa a factores externos o también a otras miembros de la organización, termina cayendo en el descrédito, y sus esfuerzos por comunicar y cohesionar caerán en saco roto.

4.- No comunicar.

No comunicar no significa sólo que no haya diálogo entre líder y personal, sino que no se digan las cosas con la claridad y transparencia que necesitan personas y equipos. La consecuencia directa será que el líder nunca va a obtener los resultados que desea.

La comunicación no sólo es lo que nos facilita que un mensaje, una orden, etc. llegue a quién se supone debe ejecutarla. Es mucho más que eso: la comunicación es el aspecto básico de la relación humana, lo que genera los odios y los afectos. El cómo se comunica y qué se comunica puede hacer que una organización tenga muchos problemas en su actividad diaria. El papel del líder efectivo es clave.

5.- Aprender de los errores.

Si no se puede aprender de los errores, se está destinado a cometer los mismos una y otra vez.

6.- No potenciar el desarrollo personal y facilitar una carrera en la organización.

Si las personas no tienen la oportunidad de aprender porque el aprendizaje no es prioritario en la organización, es entonces el líder efectivo el que tiene que convencer a la dirección de la necesidad de que el personal tenga la oportunidad de crecer y aprender explicando que es una inversión y no un gasto. Esto que parece tan sencillo de entender, no lo es tanto en una gran mayoría de PYMES.

7.- Mantener encendida la pasión.

Un equipo se da cuenta, a pesar de que el líder no lo note, de que ya no es  la misma persona que ha perdido esa pasión que transmitía a los demás, que ha dejado caer su visión a una especie de pozo, como si la hubiera perdido.

Las consecuencias serán claras: las personas harán lo que se les pida porque en su mayoría, y tras haber atravesado una larga crisis, es evidente que no pueden darse el lujo de perder el sueldo. Quieren mantener su puesto de trabajo, pero los más capacitados y con mayor talento ya estarán dándole vueltas en la cabeza a un cambio de empresa que le ofrezca mejores perspectivas de desarrollo, porque se han encontrado con un bache en la capacidad del líder y, por ende, de la organización en su conjunto.

Ya no sienten tampoco la pasión porque no se les transmite y ello les lleva a buscar nuevos horizontes. La preocupación por retener el talento ya no será un prioridad a partir del momento en que la pasión no se percibe por las personas y en ambiente.

8.- Meter el polvo bajo la alfombra

Las virtudes nos impulsan en la vida, aunque los defectos que tengamos sean los que nos demoran. Lo que sí es cierto es que no hay peor cosa que esconder, o incluso, defraudar a la gente, ocultando cosas que es mejor que salgan a la luz.

Artículo de José Luis Zunni director de ecofin.es, Salvador Molina presidente de ECOFIN, Javier Espina Hellín CEO QUALITAS LEX CONSULTING y miembro de ECOFIN Business Schools Group, y Ximo Salas, miembro del ECOFIN Management & Leadership de ECOFIN.

STJUE: Indemnización a los trabajadores temporales.

El Tribunal de Justicia de la Unión Europea estima que se debe indemnizar a los trabajadores temporales como a los fijos.

STJUE de 14 de septiembre de 2016.

Asunto C‑596/14

 Resumen: En virtud de la jurisprudencia del Tribunal de Justicia de la Unión Europea, la diferencia de trato relativa a la concesión o no de una indemnización económica por finalización del contrato de trabajo, entre trabajadores temporales y trabajadores fijos, sería admisible sólo en caso de situaciones diferentes entre unos y otros, con funciones desempeñadas diferentes entre unos y otros.

Pero ni la naturaleza temporal de la relación laboral ni la existencia de disposiciones en la normativa nacional relativas a la concesión de una indemnización por finalización de un contrato de trabajo de interinidad pueden constituir por sí solas, razones objetivas que permitan diferencias de trato en este ámbito.

El mero hecho de que el trabajador haya prestado sus servicios en virtud de un contrato de interinidad no puede constituir una razón objetiva que permita justificar la negativa a que dicho trabajador tenga derecho a una indemnización económica por finalización de su contrato de trabajo.

Esto es un párrafo. Puedes cambiarlo y poner tu propio texto, editar el formato y añadir enlaces o imágenes.