Es muy importante
saber qué funciones tiene el Delegado de Protección de Datos (DPD)
porque el Reglamento General de Protección de Datos (RGPD) convierte al DPD en el eje clave
del modelo. Es quien hace posible el cumplimiento de la normativa de protección de
datos en las organizaciones y empresas.
El RGPD, en su artículo 37, establececuando un responsable o encargado debe proceder a su
designación, teniendo en cuenta que el propio reglamento no exige que quien
desempeñe este papel tenga que ser, necesariamente, jurista, aunque deberá
contar con conocimientos especializados en protección de datos y que la figura
del DPD podrá ser interno o externo de la empresa u organización y persona
física o persona jurídica especializada en esta materia.
Por tanto, en
este breve artículo repasaremos las funciones del DPD, su código ético ylos compromisos que adquiere la empresa que decida externalizar este servicio.
El DPD tendrá
las siguientes funciones:
Informar y
asesorar a la empresa cliente y a todos los miembros de sus distintos equipos que se ocupen del tratamiento, de las obligaciones que les incumben en virtud de la legislación de protección
de datos.
Supervisar el
cumplimiento de lo dispuesto en la legislación de protección de datos y de las
políticas de la empresa cliente, incluida la asignación de responsabilidades,
concienciación y formación del personal, y las auditorías correspondientes.
Ofrecer
asesoramiento acerca de la Evaluación de Impacto (EIPD) relativa a la
protección de datos y supervisar su aplicación de conformidad con la normativa.
Cooperar con la
autoridad de control.
Actuar como
punto de contacto de la Autoridad de Control para cuestiones relativas al
tratamiento, incluida la consulta previa, y realizar consultas, en su caso,
sobre cualquier otro asunto.
CÓDIGO ÉTICO DEL DELEGADO DE PROTECCIÓN DE
DATOS (DPD)
Todas las
funciones y tareas desempeñadas por el DPD estarán sujetas a los siguientes
principios:
Legalidad e
integridad, cumpliendo estrictamente con la legalidad vigente, en particular la
referida a la prestación del servicio, al objeto de evitar que se lleve a cabo
cualquier actividad ilícita.
Profesionalidad,
desarrollando sus funciones con la debida diligencia y rigor profesional, y
manteniendo permanentemente actualizada su capacidad profesional y su formación
personal; debiendo comportarse ante las personas, empresas, entidades y
clientes de modo escrupulosamente leal e independiente de las limitaciones de
cualquiera naturaleza que pueda influir su propia labor y la del personal del
que, eventualmente, sea responsable.
Responsabilidad
en el desarrollo de su actividad profesional y personal, asumiendo sólo
aquellas actividades que razonablemente esperen completar con las habilidades,
conocimiento y competencias necesarias.
Imparcialidad,
actuando con objetividad sin aceptar la influencia de conflictos de interés u
otras circunstancias que pudieran cuestionar la integridad profesional y la de
la propia organización a la que pertenece.
Transparencia,
informando a todas las partes interesadas de forma clara, precisa y suficiente
de todos los aspectos que confluyen en el ejercicio profesional, siempre y
cuando los mismos no estén sujetos al régimen de confidencialidad, en cuyo caso
tendrán carácter reservado y no podrán ser divulgados.
Confidencialidad,
respetando y guardando la necesaria protección y reserva de la información a la
que pudiera tener acceso por razón de actividad profesional, salvaguardando los
derechos de todas las partes interesadas a su intimidad. Dicha información no
debe ser utilizada para beneficio personal ni revelada a partes inapropiadas.
COMPROMISOS DE LA EMPRESA U ORGANIZACIÓN CLIENTE
El responsable
de tratamiento se obliga expresamente a los siguientes deberes en aras a
facilitar el trabajo y desempeño del DPD.
Se garantizará
que el DPD participe de forma adecuada y en tiempo oportuno en todas las
cuestiones relativas a la protección de datos personales.
Se invitará al
DPD a participar con regularidad en reuniones con los cuadros directivos altos
y medios cuando en estas reuniones se toman decisiones con implicaciones para
la protección de datos. Toda la información pertinente debe transmitirse al DPD
a su debido tiempo con el fin de que pueda prestar un asesoramiento adecuado.
La opinión del
DPD se tendrá siempre debidamente en cuenta. En caso de desacuerdo, se
documentarán los motivos por los que no se sigue el consejo del DPD.
Se consultará
al DPD con la mayor prontitud posible, una vez que se haya producido una
violación de la seguridad de los datos o cualquier otro incidente.
Se deberán
facilitar los recursos necesarios para el desempeño de las funciones y el
acceso a los datos personales y a las operaciones de tratamiento, y para el
mantenimiento de sus conocimientos especializados.
Se comunicará
oficialmente la designación del DPD a todo el personal para garantizar que su
existencia y función se conozcan dentro de la organización.
Se facilitará
el acceso necesario a otros servicios, como recursos humanos, departamento
jurídico, TI, seguridad, etc., de modo que los DPD puedan recibir apoyo
esencial, aportaciones e información de dichos servicios.
Se garantiza la
independencia del DPD, no recibiendo ninguna instrucción en lo que respecta al
desempeño de sus funciones que pueda influir en dicha independencia. No será
destituido ni sancionado por el responsable o el encargado por desempeñar sus
funciones
Las funciones y
cometidos del DPD no pueden dar lugar a conflicto de intereses, en caso de
recibir instrucciones o funciones ajenas a las propias de DPD.
Artículo
realizado por Javier Espina Hellín CEO QLC SLP, doctor en Ingeniería de Sistemas
de Información, MBA, ADE nº colegiado 11.534 y Licenciado en Gestión Comercial
y Marketing
El caso de Amazon es enormemente
complejo aunque se podría decir que se resume en un sola palabra: “ganar”.
Ganar relevancia, influencia,
cuota de mercado en “todo” y ganar dinero por supuesto. Como parece que reina
en Hollywood, “no es nada personal. Es sólo business”.
Es verdad que en el plan de
negocio de Amazon estaba previsto ganar dinero pero sólo después del tiempo
necesario para hacerse hueco en el mercado digital, de ganar “masa crítica” o
de consolidar aquellas ventajas tecnológicas que hiciesen posible comprar, más
tarde comprar “en un solo click” y comprar cualquier producto que se nos pueda
ocurrir. El beneficio se sacrificó, al comienzo, para hacer posible la ambición
de ser un “todo” y, con un poco de tiempo más, deshacerse de “casi todos” (los
competidores) para hacerse el único proveedor de “todos” (los consumidores).
El tamaño de su ambición es sólo
comparable al que evoca su propio nombre.
Al principio, como seguro que sabéis,
vendía libros desde un garaje privado (el del propio matrimonio Bezos), después
amplió (y sigue ampliando continuamente) un portfolio de productos y servicios
que parece no tener fin ni sector de desarrollo que no pretenda.
Ofrece de todo y ahora no sólo obtiene
beneficios (monetización) vendiendo productos de otros sino que, aprovechando
la enorme cantidad de información relevante que tiene de todos nosotros, ya los
produce directamente (con lo hace más corta la cadena. Sólo tiene 2 eslabones
desde la fabricación hasta la venta y son propios).
Puede hacer (y hace
constantemente) estudios de todo tipo para ver cómo reaccionamos como clientes:
promociones en precio, posicionamiento de sus distintas marcas para saber cual
es nuestra sensibilidad, cómo presenta las ofertas en cada búsqueda, qué llama
nuestra atención en la oferta formal de cada producto modificando colores,
formas, fotos, presentación de otros productos para favorecer la venta cruzada
(otros clientes compraron este producto junto a xxx por xxx €), etc.
Durante la fase de desarrollo de un producto, Amazon
sabe las necesidades no satisfechas del mercado frente a la mayoría de los
minoristas que sólo pueden “adivinarlo”.
Fabrica/ vende con marca propia
desde electrónica de consumo, toallas de papel y papel higiénico, camisetas y
shorts para niños hasta comida para perros (se llama Wag, y está hecha por
Amazon. Se estima en más de 200 marcas propias, según TJI Research que rastrea
el crecimiento de Amazon. Marcas como Presto!, SpottedZebra, True Angel,
IndigoSociety, Crafted Collar, Rivet and Stone & Beam, Mama Bear, Solimo, Core
10, PeakVelocity, Goodthreads, Paris Sunday, Mae, etc. además de las marcas que
produce Amazon con su propio nombre, como Amazon Basics o Amazon Essentials…
Esta estrategia de crecimiento de marcas propias se está
acelerando, según un estudio de Evan Neufeld y Cooper Smith: de la empresa de
investigación Gartner L2. Según datos de la propia compañía en una entrevista a
CNN, “el crecimiento de su marca propia fue notable en categorías como productos
de papel, pañales, cápsulas de café y vitaminas y suplementos.
Sólo por poner algún ejemplo
publicado (ya que no es tan fácil encontrar este tipo de información por
razones obvias) las ventas de marcas propias de Amazon en 2018 se estimó que
alcanzarían los 7.500 millones de dólares y, entonces, los analistas de
SunTrust Robinson sostenían que para el próximo año, 2022, alcanzarían los 25.000
millones de dólares. Cifra que seguro ya
habrán superado como consecuencia de la crisis COVID que aún sufrimos y que
disparó el consumo on-line como nunca antes se pudo prever.
Además, y aplicando al pie de la
letra los principios básicos del marketing ocupa todos lo mercados posibles (y
no los más baratos como publicita en sus spots) según un informe reciente del grupo
de reflexión sobre el minorista CoresightResearch. Amazon vende cerca de 5.000
de sus propios artículos de ropa (referencias) y lo interesante desde el punto
de vista del marketing es que Coresight descubrió que el “valor promedio” de
prendas de marca propia en Amazon cuesta 38 $, es decir, que no está como
“category killer” sino que se posiciona como un vendedor del mercado medio (competencia
de otros “players” como Macy's o Kohl's en el mercado EEUU) pero sin descuidar
la gama de precios más baja. Ofrece sus marcas hacia arriba y hacia abajo en la
escala de ingresos. “Funcionan en todos los extremos del mercado” porque
atiende a todos los perfiles de compradores (tiene vestidos para vosotras de
más de 120$ de Social Graces y una sudadera de 8$ para niñas bajo la marca
Scout + Ro).
El dilema aparece o lo encuentras
frente a ti, si te preguntas si Amazon es un “Marketplace neutral” para vender
productos y hacer más fácil nuestra vida como consumidores o va más allá para
obtener beneficios, generar lealtad/ fidelidad en sus compradores, conseguir una
posición más fuerte cuando negocia con sus proveedores u otros oferentes (otras
marcas).
¿Es conveniente para nosotros
como consumidores que una opción de consumo se convierta en una de las pocas opciones
en el universo de consumo posible?
No debemos olvidar la presencia
de Amazon en el mundo de la producción audiovisual, como proveedor en plataformas
de streaming, de música, de libros o los servicios que ofrece a través de AWS como
el almacenamiento en la nube, gestión de instancias, imágenes virtuales,
desarrollo de aplicaciones móviles, etc.
Parecía difícil llegar a los 10
millones de suscripciones en EEUU y hoy Amazon Prime cuenta con más de 100
millones de suscriptores en ese mercado. Cuando apareció a finales de 2004, Amazon
estaba valorada en 18.000 millones de dólares y su principal rival, Ebay, tenía
un músculo de capitalización bursátil de 33.000 millones. Hoy Ebay sigue igual
mientras que Amazon está alrededor del billón de dólares.
No hay que desestimar (y mucho
menos infravalorar) que cuentan con enormes recursos, toda la información
posible y el mejor equipo de profesionales multidisciplinares (desde
matemáticos, ingenieros de casi cualquier campo de especialización, expertos en IT, AI, estadísticos, en consumo y un largo
etcétera) pudiendo saber, en cualquier momento, qué productos están teniendo
más éxito, para fabricarlos, escalar su producción (si ya los fabrica) o
aumentar su visibilidad al anunciarlos (según el informe de Ojastro Todd,
analista de marketing de One ClickRetail).
De nuevo, y sólo por poner otro
ejemplo, el hecho de contar con la "elección de Amazon" es responder
a una recomendación determinada por un algoritmo propio. Lo mismo sucede con
Alexa cuando se le pide “buscar” algo: toma “por defecto” una decisión basada
en nuestras compras anteriores de Amazon (claro sesgo respecto a la toma de
decisiones: costumbre vs relevancia u oportunidad) y si nunca has pedido eso Alexa
recomendará uno o dos productos a través de un algoritmo propio. Todo esto se
explica en un informe de la empresa L2.
Amazon responde no sólo a una estrategia
sino a un conjunto de todas las estrategias posibles sobre las 4P´s del
marketing...
Artículo realizado por Javier Espina Hellín CEO QLC
SLP, doctor en Ingeniería de Sistemas de Información, MBA, ADE nº colegiado
11.534 y Licenciado en Gestión Comercial y Marketing
Las acciones que se están
impulsando desde la Administración para que las empresas, incluidas las PYMES,
aumenten su transparencia, por ejemplo en su gestión interna, para garantizar
la igualdad retributiva son, más que un hecho, una obligación normativa.
Desde el 14 de abril todas las
empresas están obligadas a llevar “un registro retributivo de toda su plantilla
incluidos sus directivos y altos cargos”, por la entrada en vigor del nuevo Real
Decreto de Igualdad Retributiva (902/2020, de 13 de octubre), que pretende
acabar con la brecha salarial entre hombres y mujeres en trabajos de igual
valor.
El motivo de esta obligación hay
que buscarla en la aprobación de la norma sobre igualdad salarial del mes octubre
del año pasado
Este nuevo registro salarial
tiene que incluir los valores medios de los salarios, desagregados por sexo,
así como los complementos salariales y las percepciones extrasalariales de toda
la plantilla que compone la empresa.
Además, tiene que incorporar estadísticos
concretos como la media aritmética y la mediana (tomando el valor global de lo
percibido) por cada grupo profesional, categoría profesional, nivel, puesto o
cualquiera otro sistema de clasificación por periodo temporal definido, que será el año
natural con carácter general, aunque puede modificarse según necesidades
concretas de la empresa en cuestión.
La norma señala que deberán
ser consultados, al menos con 10 días de antelación a la confección del
registro, los representantes sindicales de la empresa que ya tenga representación
sindical especificando, al tiempo, que los trabajadores tendrán acceso al mismo
a través de ella y que podrán conocer todo su contenido íntegro.
Si la empresa no cuenta con representación
sindical, deberá igualmente facilitar las diferencias porcentuales que puedan existir
entre las retribuciones ya promediadas de hombres y mujeres.
Sin embargo, si en la empresa
obligada, la media aritmética o la mediana de las retribuciones totales de los
trabajadores de un sexo son superiores a las del otro en un 25%, el registro debe
incorporar la justificación del porqué de la diferencia y explicar que no se
debe a motivos derivados del sexo de los trabajadores.
De tal manera, la obligación de tener
un plan de igualdad se extiende a todas aquellas empresas que cuenten con
plantillas de más de 100 trabajadores. Obligación que se extenderá desde el
próximo 8 de marzo del próximo año (2022) a las empresas de entre 50 y 100
trabajadores.
Por tanto, las auditorias
retributivas o salariales son obligatorias por estar incluidas en el plan de
igualdad (teniendo su misma vigencia) y son la herramienta necesaria para obtener
la información que nos asegure que cumplimos, de manera efectiva, el principio
de igualdad entre mujeres y hombres en materia de retribución.
Por todo lo anterior, en la
práctica de aplicación de la norma supone que se establezca un punto de inicio
o de diagnóstico de la situación actual retributiva en la empresa y, sólo en el
supuesto que existan diferencias, deberemos organizar un plan de actuación orientado
a la corrección de aquellas desigualdades salariales identificadas: determinación
de objetivos, actuaciones concretas asociadas, establecimiento de un cronograma
de actuación, además de la identificación de las personas responsables para su
implantación, en primer lugar, y su seguimiento y cumplimiento final.
No quisiéramos terminar sin
mencionar que, para la norma, los trabajadores a tiempo parcial tienen los
mismos derechos que los trabajadores a tiempo completo y que será el principio
de proporcionalidad el que determine sus retribuciones cuando lo exijan la
finalidad o naturaleza de éstas y así se establezca por disposición legal,
reglamentaria o por el convenio colectivo al que pertenezcan.
Con esta información retributiva,
en el caso de existir brecha salarial y no tener previsto un plan de actuación
para eliminarla o, simplemente, por la ausencia de esta, la Administración se
reserva la posibilidad de llevar a cabo procedimientos de oficio y acciones
administrativas y judiciales, incluyendo sanciones por discriminación.
¿Tu empresa necesita una
Auditoría Salarial?
Lo primero que debes saber es que
todas las empresas, con independencia de su tamaño, tienen que tener el registro
retributivo, anteriormente hemos comentado, que explicite y desglose por sexo los
datos promedios de los sueldos reales percibidos por tus trabajadores.
Y si además tu empresa cuenta con
más de 50 trabajadores tienes que ir incluir en tus Planes de Igualdad una
Auditoría Retributiva para asegurar y garantizar la igualdad retributiva entre
tus trabajadores de ambos sexos. (con medias aritméticas y medianas salariales por
posiciones de trabajo de igual valor).
Si aún no tienes un registro
retributivo o contando con más de 50 trabajadores no has hecho una auditoria
retributiva o salarial podemos ayudarte en QLC. Te ofrecemos un completo análisis,
por grupos/categorías profesionales y puestos de trabajo, de los salarios de
tus trabajadores para, primero, saber si hay brecha salarial y si existe,
entonces, hacer un plan de acción que la corrija…
Artículo realizado por el Departamento Jurídico de QLC
SLP.
El plan de marketing
es una herramienta “esencial” para la gestión de cualquier empresa que sitúe como
centro de su estrategia al cliente y, por tanto, sienta que debe estar orientada
al mercado, ser competitiva y, como consecuencia, aspire a perdurar en el
tiempo.
Debe ser entendido de
manera tan amplia, precisa y ambiciosa como ya nos avanza su propio nombre:
plan.
El plan de marketing,
además, es un documento dinámico, porque
tiene que ser actualizado al menos 1 vez al año, donde no sólo se
incorporan los diferentes estudios de mercado que se hayan podido hacer en ese
periodo sino donde se explicitan tanto los objetivos de marketing a
conseguir en el nuevo ejercicio(consecuencia
del plan estratégico de la compañía), como las estrategias a
implementar y la planificación necesaria para hacerlas realidad.
Se puede decir que “traza
la hoja de ruta para toda la empresa durante ese año con la justificación de
todas las acciones a realizar para conseguir los objetivos marcados, además de
incorporar un plan de contingencias donde se expresen las posibles desviaciones
en cada uno de los objetivos y las soluciones previstas a cada una de ellas”.
Los objetivos tienen
que ser: específicos, medibles, alcanzables, relevantes y definidos en el
tiempo. Recuérdalos como (SMART).
El marketing, a
diferencia de lo que habitualmente se pueda pensar, tiene que medir, seguir y
analizar, constantemente, las desviaciones detectadas. Tiene que definir los
KPI que la empresa debe incluir en su “dashboard” o panel de control”.
Mi intención,
por la concreción que nos impone nuestro propio blog, es sólo mostrar lo que podríamos
denominar “la estructura básica” que debería observar
un plan de marketing, y como también es propósito que sirva para cualquier
sector, me extiendo brevemente en algunos de sus apartados que serán:
1.
Marketing analítico: donde se incorporar toda la investigación sobre la
propia empresa (análisis interno, socioeconómico, de nuestros consumidores) y
sus productos/ servicios (estudios de precio, notoriedad, atributos, ciclos
de vida, proceso de compra y análisis de los canales de distribución), del
mercado (o mercados) en los que opere y la competencia en cada caso. En
esta parte se utiliza la famosa matriz DAFO (también conocida como FODA ó
SWOT = debilidades, amenazas, fortalezas y oportunidades) como herramienta
con la que saber cómo diferenciarnos…
2. Marketing estratégico: que define la estrategia que hace posible la
consecución de los objetivos previstos (¿qué ventaja competitiva tiene la
empresa?, ¿cuál será la opción estratégica de crecimiento? (p.e. de
diferenciación, penetración del mercado, lanzamiento de un producto, etc.),
¿Cómo vamos a segmentar nuestro target ó público objetivo? ¿sabes qué/quién es tu “buyer
persona”? (aconsejo que investiguéis este concepto), ¿Cuál es tu estrategia de
posicionamiento?
3. Marketing operativo: donde se detallarán las acciones a desarrollar, la programación
en el tiempo y su viabilidad económica. Es en este punto donde, entre otros, se
estudian las 4 P del marketing (producto,
precio, distribución y comunicación). ¿Cuáles serán las políticas asociadas a las
4P?, una parte muy importante es la política de ventas y organización
comercial: Fijación pormenorizada de los objetivos de ventas a corto y medio
plazo, dimensión y estructura de ventas, creación del argumentario de ventas y
de los elementos de apoyo a las ventas (PLV, ofertas, promociones, etc.), el
cálculo del coste de las ventas. En la parte de comunicación son importantes el
“Copy Strategy” y su “Reason Why” el
beneficio que promete tu marca es la base principal para argumentar los motivos
de compra y la exposición de las características del producto eje sobre el que construir las campañas
publicitaria y creativa en el L/P y además, desarrollar ESTRATEGIAS Y ACCIONES
DE MARKETING TRADICIONAL (definición de canales y acciones de comunicación,
promoción de ventas, merchandising) y ESTRATEGIAS DE MARKETING DIGITAL
(marketing web, SEM, SEO, Inbound Marketing, Social Media y Mobile).
Sin el rumbo de un adecuado plan de marketing y
el control tanto de sus objetivos, la manera en la que queremos ponerlo en
marcha como, lo más importante, el control de sus resultados nunca sabremos
cómo hemos llegado a dónde estamos y por qué hemos llegado hasta allí.
Por mi experiencia, me atrevería a decir que sólo
se empleaba en empresas de determinado tamaño y facturación anual. Ahora, cada
vez son más las PYMES las que entienden que es una herramienta de indudable
valor y que incorporarla en su gestión es mucho más que una necesidad.
Artículo realizado por Javier Espina Hellín CEO QLC
SLP, doctor en Ingeniería de Sistemas de Información, MBA, ADE nº colegiado
11.534 y Licenciado en Gestión Comercial y Marketing
Con la transformación digital y la
democratización de las nuevas tecnologías el volumen de datos que genera y
gestiona la empresa, a través de todos sus canales, se ha multiplicado hasta
alcanzar cantidades nunca imaginables hace muy poco tiempo.
Intuitivamente, aquellos que
dirigen las organizaciones, son conscientes de las ventajas que el Big Data, la
inteligencia de datos e incluso la Inteligencia Artificial significan para la
empresa en términos de productividad, eficiencia, oportunidades de crecimiento
con menor coste, mayor productividad y mejora cualitativa en la toma de
decisiones.
Y todo esto tiene un nuevo
significado en el actual panorama competitivo multicanal definido por una
completa revisión y reestructuración de procesos y operaciones fruto del
obligado “test de estrés” COVID 19.
Saber, por ejemplo, cuáles son
las preferencias o poder predecir el comportamiento de compra de nuestros
potenciales o actuales clientes en nuestra web es vital.
Las tecnologías asociadas al procesamiento
Big Data, con técnicas de ciencia de datos que hacen posible tanto la exploración
inteligente de la información como la obtención de todo su valor nos permite
saberlo, con un conocimiento más consistente, y actuar ofreciéndole productos o
servicios a medida de sus gustos y necesidades, es decir, un mejor servicio a
nuestro cliente.
Por tanto, es cada vez más necesario
incorporar a la empresa herramientas de procesamiento de datos e implementar
una adecuada “estrategia de análisis y de predicción” que hagan posible la toma
de decisiones en aspectos clave.
¿Cuál es el proceso de
trabajo?
Siempre el primer paso, en Business
Intelligence, es recoger los datos en bruto (Raw Data) para después,
una vez almacenados, podamos usar las herramientas de ETL (Extraer, Transformar
y Cargar) que nos permitan manipular, transformar y clasificar los datos en una
base de datos estructurada, habitualmente llamada, Data Warehouse.
En este punto intervienen “los
analistas de negocio” que, incorporando distintas técnicas de visualización de
datos, exploran la información almacenada en las bases de datos
estructuradas generando así paneles visuales (Dashboards). El objetivo
es hacer esa información “más digerible”, más accesible y entendible para poder
analizar y entender los resultados obtenidos en el pasado de la compañía pero
que servirán para definir la estrategia futura que mejore aquellos indicadores
que hemos definido como indicadores clave de nuestro negocio (KPI).
Con el Machine Learning,
además, se detectan “patrones” en millones de datos, una importante
característica respecto al BI tradicional, que nos brinda la potencia del
análisis predictivo. En otras palabras, no solo tenemos la valoración de lo ya
acontecido sino que podemos hacer predicciones individualizadas de
comportamientos futuros.
Uno de los mayores potenciales
del Machine Learning es que los Dashboards son sustituidos por aplicaciones
predictivas y modelos que, alimentados por algoritmos que aprenden
automáticamente de los datos, se pueden “reentrenar”, periódicamente, para que continúen
aprendiendo de nuevos datos (aprendizaje continuo).
Sólo por poner un ejemplo real
quisiera compartir una experiencia de investigación, con financiación europea y
de tres años de duración, en el ámbito de la sanidad.
Se trata del desarrollo de una
aplicación (App) para el seguimiento de pacientes oncológicos en tratamiento, con
herramientas de Big Data e Inteligencia Artificial, en el que participa el servicio
de oncología del Hospital Gregorio Marañón con el fin de “mejorar la calidad de
vida y la atención a estos pacientes durante su enfermedad" detectando,
precozmente, alteraciones de salud como la depresión.
Entre los diferentes datos y
parámetros que se analizan se encuentran la calidad del sueño, la nutrición, el
apetito, el estado anímico del paciente o la evolución en el ejercicio físico.
El coordinador del proyecto es
WATERFORD INSTITUTE OF TECHNOLOGY, en Irlanda, y los datos se almacenarán en
los dispositivos portátiles que lleven los pacientes en cada uno de sus
hospitales de referencia y en todos los países participantes de estudio: España,
Italia, Irlanda, Portugal, Grecia y Chipre.
El concepto del proyecto se
basa en el aprendizaje automático. Los dispositivos de cada paciente
individual ejecutarán sus modelos de IA personalizados que, más tarde, se
agregarán a un modelo de IA global. El modelo de IA analizará los marcadores de
depresión que predicen tendencias negativas y que permitirán la intervención
oportuna del equipo médico. (Proyecto
FAITH, Federated Artificial Intelligence Solution for Monitoring Mental Health
Status after Cancer Treatment, https://cordis.europa.eu/project/id/875358/es).
La reciente crisis financiera
internacional ha puesto de manifiesto la existencia de deficiencias en los
sistemas de control y supervisión de muchas empresas que han lastrado
importantes sectores de actividad.
La respuesta de las instituciones
de gobernanza financiera internacional ha sido un endurecimiento, en la
práctica, de los mecanismos de cumplimiento normativo y de la responsabilidad
penal de las empresas y sus directivos.
Por el impacto directo que, ambos
factores, pueden llegar a tener tanto en la Cuenta de Resultados de la compañía
como en la propia supervivencia en su mercado, la GESTIÓN DE RIESGOS SE HA
CONVERTIDO EN UN ÁREA CLAVE.
La gestión de Riesgos puede definirse como elproceso de planificación, organización,
dirección y control de los recursos humanos y materiales de la empresa, con el
fin de reducir al mínimo “aceptable” los riesgos e incertidumbres a los que se
enfrenta la organización y mejorar su capacidad de generar valor.
Un valor se maximizacuando se alcanza el equilibrio entre los objetivos
de crecimiento, la rentabilidad de la inversión y el nivel de seguridad
necesaria para controlar los riesgos asociados.
1.
Corporate Compliance:contar
con un Plan de Cumplimiento Normativo, es disponer de un conjunto de
herramientas “preventivas”,
cuyo objeto es garantizar la propia actividad empresarial a largo plazo.
2.
D&O: protege a propietarios, directivos y administradores de una
empresa de los actos incorrectos (propios o de sus equipos de trabajo) durante
el ejercicio de sus cargos frente a potenciales reclamaciones de terceros que
pueden poner en peligro, incluso, su propio patrimonio, conyugales o de la
pareja de hecho.
3.
RC Profesional:que blinda al profesional liberal ante la responsabilidad civil
derivada de su propia actividad y que no está cubierta con la RC de la
empresa.
4.
Ciberseguridad: salvaguarda a la compañía ante las
consecuencias de un ataque,
infección por virus o Dd2 y las distintas acciones ilegales en el universo
cibernético. Se estima que el coste anual del cibercrimen alcanzará los 5,4
billones de euros desde 2019 al 2021.
¿Cómo les ayudamos desde QLC?
1. Identificar
riesgos, analizar el impacto de los cambios normativos y determinar las medidas
de prevención y correctivas frente a potenciales acciones de corrupción, fraude
o constitutivas de delito: determinación del GAP y elaborar el MAPA DE RIESGOS
de la compañía.
2. Elaborar
+ desarrollar + implementar aquellos “protocolos internos” para el correcto
desempeño de sus tareas, así como los planes de prevención que contribuyan a
eximir de posibles responsabilidades penales.
3. Salvaguardar
la reputación corporativa y ser los interlocutores de referencia con
reguladores y supervisores para gestionar los conflictos internos en la empresa
y desarrollar los cauces internos de denuncia.
4. Además,
de ayudar a la Compañía a luchar contra el blanqueo de capitales, el
cibercrimen y por una adecuada protección de datos de carácter personal (RGPD).
Lo primero que nos puede venir a
la cabeza es preguntarnos por qué asociamos el “Shopping”, un término
anglosajón ya incrustado en nuestra cultura popular global, con “Mystery” que aun
no sabiendo ingles podemos interpretar por su similitud fonética con el
español.
El “Mystery Shopping” como
técnica y el “Mystery Shopper”, (comprador/ cliente misterioso) en su rol de actor
principal, es un profesional del marketing y/o investigación (de mercados) que
comenzó con su trabajo ya en la década de los 40, del siglo pasado, aunque su
inicial ámbito de aplicación consistía en medir la integridad de los empleados
de la compañía que estudiaban.
Fue más adelante, cuando las
empresas que lo encargaban descubrieron que, además, podía ser muy útil para
obtener información específica sobre el nivel de servicio, que ellas mismas
proporcionan, a sus clientes en sus distintos puntos de venta.
En definitiva, y en el ámbito que
nos interesa, a través de sus actuaciones la organización cliente recibe un
completo y detallado informe sobre la experiencia de compra que tienen sus
clientes reales en sus diferentes puntos de venta.
Ese es el “feedback” que entregamos
a nuestro cliente: el compuesto por las experiencias reales de un equipo de
“Mystery Shoppers” que adoptan el rol de “clientes” cuando realizan una compra
o consumen determinado servicio e, incluso contener el “mapa” del proceso completo
de todas las fases por las que transita un sujeto desde que identifica su necesidad
hasta que compra el producto o servicio que la satisface (Costumer Journey).
Un “transito” que puede ser tan
corto como el de una compra por impulso o disfrutar de una cena en determinado
restaurante o tan largo en el tiempo como la compra de un coche o la
contratación de un gestor empresarial que nos puede llevar meses. Es una
herramienta muy interesante del denominado “Design Thinking”.
El hecho de hacerse pasar por un cliente
es para conocer, de primera mano, la calidad del servicio que la organización que
nos contrata a nosotros presta en su día a día o para averiguar el
comportamiento que tiene la competencia y poder saber qué puede funcionar mejor
y qué no funciona.
El foco está en medir y evaluar
la calidad en la atención al cliente.
Es importante señalar que es una
de las técnicas más eficaces, más poderosa y más objetivas (en el trabajo de
campo) de las que disponemos. Siempre se hace “de incógnito”, sin avisar y bajo
unos parámetros controlados y homogéneos en todos los lugares sujetos a
investigación.
Los resultados obtenidos no se
pueden conseguir con ninguna otra herramienta y, además, puede ser combinada
con otras técnicas.
Es esencial ser muy rigurosos y
sistemáticos en las diferentes iteraciones.
¿Por qué debemos incorporar la
variable de las iteraciones?
Para obtener resultados
concluyentes el “Mystery Shopper” tiene que visitar la misma tienda en
diferentes ocasiones, en distintos momentos de la jornada de venta para medir
la respuesta de los empleados, por ejemplo, variando uno de los condicionantes
externos:
· la mayor o menos densidad (afluencia) de
clientes
· “representando” distintos perfiles de cliente
(cliente preguntón, cliente racional, cliente exigente, cliente irascible,
cliente maleducado que se queja por todo, etc.) para testar qué respuesta
recibe en cada caso.
Por sectores podemos decir que
los que más utilizan el “Mystery Shopping” son:
·
retail (por ejemplo, cadenas de tiendas)
·
automoción
·
hostelería (restaurantes)
·
distribuidoras de cines
· sanidad (hospitales, centros de salud, consultas
médicas, clínicas dentales, oftalmológicas, etc.
·
Web-Ecommerce, etc.
Por lo que podríamos denominar a
los distintos investigadores con nombres como:
·
Mystery
Shopper
·
Mystery
Guest
·
Mystery
Dinner
·
Mystery
Market
·
Mystery
Web-Ecommerce
·
Mystery
Calling
·
Mystery Patient, etc…
¿Cómo se hace?
Los diferentes “Mystery Shopper”
tienen que codificar (expresando cada tema en una escala numérica) la
experiencia que han tenido agrupada por conceptos como:
·Atención al Cliente: ¿Cuánto tiempo esperaste
para ser atendido?, ¿Grado de amabilidad? ¿Le acompañó a la entrada y salida?
¿Cómo de rápido fue el proceso de compra/ asesoramiento/ información? (Nombre
del empleado)
·Formación del producto: (nombre del producto)
¿grado de claridad en la explicación? ¿le resultó útil para comprar el
producto? ¿Le ofrecieron información postventa/instalación/ reparaciones, etc?
·Venta cruzada: ¿Le ofrecieron otros productos
complementarios por el que se mostró interesado/a?, ¿Le resultó útil?
·Cierre de venta: ¿Finalizó el empleado la
venta?,¿Le invitó a volver a visitar la tienda?
·Organización de personal: ¿Cuántos empleados hay
en la tienda? ¿Van uniformados? ¿Visten adecuadamente el uniforme?
·Orden y limpieza: ¿la tienda estaba limpia?, ¿el
lineal/estantería estaba ordenado? ¿olía bien? ¿Nivel del sonido musical?
¿Nivel de temperatura dentro de la tienda?, ¿Nivel de temperatura dentro de los
probadores?
Con todos los resultados
agrupados por áreas de estudio se elabora un informe en el que se expresan:
·
los resultados obtenidos en el trabajo de campo
·
se identifican áreas de mejora identificadas
se incorporan las
recomendaciones que corrijan esas desviaciones y sirvan para incrementar el
grado de satisfacción durante el proceso de compra y se traduzca en una subida
de las ventas de la empresa cliente.
Valor añadido y supervivencia
En QLC sabemos que en un mercado
cada vez más homogéneo, la necesidad de diferenciación es vital para la
supervivencia de la empresa.
Incorporar ese valor es lo que
marca esa diferencia, respecto a nuestros competidores, y es la llave que nos
puede garantizar un lugar en el futuro más inmediato.
Conocer qué sensaciones tiene
nuestro cliente en su “Customer Journey” es esencial para poder diseñar nuestro
propio “journey” (negativas, positivas y aquellas que se puedan mejorar)
Casi, por mantener la prudencia,
en cualquier ámbito donde el binomio producto/ servicio -precio es relevante, y
tanto en el on-line como en el off line, el servicio de atención al cliente es
un factor clave para la cifra de ventas y la rentabilidad de la compañía…
No quisiera terminar este breve
blog sin recordar lo que Covadonga O´Shea, en su libro “Así es Amancio Ortega”,
nos apunta sobre la filosofía que el hombre que creó el “imperio Zara” supo
transmitir al estilo comercial que, todavía hoy, sigue funcionando en todas las
tiendas que bajo sus distintos 8 nombres comerciales (Zara, Pull&Bear,
Massimo Dutti, Bershka, Stradivarius, Oysho, Zara Home y Uterqüe) dan servicio diario a millones de clientes
satisfechos, demostrando que la casualidad no es la razón de su merecido éxito.
Les dejo reflexionando sobre los “6
mínimos” del Grupo Inditex:
1. Siempre,
una mirada amable
2. En
la caja, una sonrisa
3. El
bolígrafo en la mano
4. La
encargada es la persona que más tiene que atender
5. Los
probadores son un punto de venta importante
6. En
toda la tienda, “paciencia”
Artículo realizado por Javier
Espina CEO en QLC SLP
Si
el término Compliance podemos definirlo como la observación del cumplimiento normativo o el conjunto de herramientas preventivas que persiguen garantizar que
tanto la actividad de la empresa como quienes la hacen posible observando,
siempre, cuantas normas legales, políticas internas, códigos éticos, buenas
prácticas y otras disposiciones que hayan decidido cumplir de forma voluntaria
o de manera obligatoria, el Compliance
Penal, incorpora a esas
herramientas, la prevención ante infracciones de carácter penal y evitar, en
consecuencia, potenciales sancionesque
puedan afectar a la empresa como persona jurídica y a sus gestores u órganos de
gestión como personas físicas.
Es
por esa responsabilidad por la que, quizá, una de las primeras preguntas que el
CEO de una empresa española debería hacerse es: ¿tenemos un “plan de prevención” o un PLAN COMPLIANCE con el que hacer
frente a los potenciales riesgos penales que tenemos como empresa?, ¿estoy
protegido como CEO?, ¿lo están los demás miembros del consejo?
El contar con un COMPLIANCE PLAN dentro de la
empresa es una garantía doble.
Además
de saber cómo se opera internamente en la organización y se toman las
decisiones de negocio se pueden detectar fraudes, incidencias en la gestión
operativa y/o comercial con lo que aumentamos el control sobre los potenciales riesgos
legales y reputacionales a los que estamos expuestos.
En definitiva,
unCOMPLIANCE PLAN es un sistema de
gestión que le permitirá a la empresa una mayor visibilidad en su
funcionamiento, más transparencia en sus procesos, un mayor control de sus
riesgos y demostrar ante terceros, autoridades u otras empresas o instituciones
un grado de cumplimiento conforme a un estándar que certifican el compromiso, de
la empresa y de sus órganos de gestión, con la legalidad y las mejores prácticas
del sector en el que desarrollan su actividad.
Un
tema de gran importancia y trascendencia ya que este tipo de garantías son exigidas,
cada vez con más frecuencia, por clientes finales o por instituciones en sus procesos
de contrataciones públicas como fórmula de lucha contra la corrupción y el
blanqueo de capitales.
Pero,
no quisiera olvidarme detres aspectos esenciales:la implicación de la alta
dirección, el canal de denuncias y la protección de los denunciantes.
En
la observancia del cumplimiento normativo, es capital incorporar lo que en el
mundo anglosajón se denomina la cultura
del “Tone at the Top” o poder contar con la implicación de la dirección en ese
compromiso de cumplimiento, así como con la formación trasversal y la
sensibilización continuas, ya que son mejores herramientas para su implantación
efectiva.
Por
otro lado, tenemos elcanal de denuncias y la protección de los denunciantesque se recogen en la “Propuesta de Directiva”, aprobada por el Parlamento
Europeo el 23 de abril pasado.
En
el COMPLIANCE PENALel canal
(interno/externo) de denuncias es un elemento claveporque puede ser
una herramienta más que fiable para medir la eficacia de un programa de
prevención de delitos en la empresa, ya que se constituye como el “medio para
que los Stakeholders” de la empresa u organización (empleados, clientes,
proveedores, etc.) puedan denunciar cualquier tipo de irregularidad o delito en
su ámbito de relación.
Gracias
a este canal la empresa obtiene información de gran valor sobre la exposición
que tiene ante “los posibles ilícitos penales” y que le permitirá adoptar
medidas y/o procedimientos.
Por
eso, es necesario proteger a aquellos que quieran denunciar alguna actividad
ilegal relacionada con:
·
contratación pública
·
servicios financieros
·
banqueo de capitales y/o financiamiento
del terrorismo
·
seguridad del producto
·
seguridad del transporte
·
protección del medio ambiente
·
seguridad nuclear
·
seguridad de alimentos y piensos, salud y
bienestar animal
·
salud pública
·
protección del consumidor
·
protección de la privacidad y de los datos
personales
·
seguridad de las redes y los sistemas de
información
¿De
qué forma?
Garantizando la absoluta confidencialidad de los
denunciantes
¿Cómo?
Estableciendo “canales de denuncia y procedimientos
internos” que así lo aseguren.
De
hecho, la Directiva obliga a empresas y
organizaciones de más de 50 empleados o con un volumen de negocios anual superior
a 10 millones de euros o más a que tengan estas medidas implantadas.
Por
tanto,es esencial contar con un sistema
integral, seguro y anónimo, que cierre el círculo virtuoso del canal de
denuncias:
·
recepción
·
gestión
·
investigación
·
resolución de denuncias
¿El
porqué de tener en la empresa un canal externo de denuncias?
Las
razones se pueden agrupar en torno a dos ejes que son el propio denunciante
como sujeto y el ahorro de costes que suponesu
adopción porque:
·
disminuye sustancialmente la barrera
psicológica de la represalia ante la acción de la denuncia porque…
·
garantiza la confidencialidad y protección
al denunciante es expresa ya que todo se gestiona con medios humanos y técnicos
externos y no dependientes de la propia empresa cliente.
·
ofrece una primera vía (propia, aunque sea
delegada externamente) para solventar problemas que de otra manera acabaría en
los Tribunales y/o los medios de comunicación.
·
prueba de manera eficaz “la debida
diligencia” de la empresa en su responsabilidad penal.
·
supone un ahorro de costes al no tener que
utilizar medios propios para todo el procedimiento que implica la recepción y
trámite de la denuncia.
Qualitas
Lex Consulting es una consultora especializada en COMPLIANCE y COMPLIANCE PENAL ,
que te acompaña desde el diseño hasta la implementación de los planes de
prevención de responsabilidad penal y la gestión de un canal de denuncias
externo.
Artículo realizado por Javier
Espina CEO en QLC SLP
El
Reglamento General de Protección de Datos (RGPD) implica a cualquier organización que opere en la Unión Europea y
las que, aun no teniendo su domicilio físico en la Unión, utilicen datos de
ciudadanos europeos. Sustituye a la LOPD que sólo tenía efecto en el territorio
español.
Pretende hacer frente a un nuevo reto legal que
plantea la captación, el tratamiento de datos de carácter personal por parte de
empresas y nuevos operadores, de la nueva sociedad digital, garantizando la protección de los usuarios
en materia de privacidad y seguridad de su información personal.
Comienza
con la novedosa definición de lo que es un dato
personal como “cualquier información que permita identificar de forma
unívoca a un usuario, incluso de manera indirecta”.
Algunos
ejemplos serian una IP, un código de usuario o una localización física
temporal.
Además,
la RGPD obliga a que el consentimiento
sea explícito, con una base jurídica explicada de forma concisa y nunca
sobreentendida por lo que, en la práctica, si no contamos con el
consentimiento, este no existe.
El
nuevo RGPD propone una metodología operativa de cumplimiento para las empresas,
que incluye la necesidad de hacer un análisis de impacto y de riesgo,
certificaciones, registros de tratamiento de la información, protocolos de
comunicación a las autoridades en caso de violaciones de seguridad y, la
obligación a que sean auditadas periódicamente.
Contempla, también, cuantiosas sanciones y multas en caso de infracción que pueden alcanzar
los 20 millones de euros o el 4% de la facturación de una empresa, siendo
siempre la mayor de las dos posibilidades.
¿Qué supone el RGPD para las empresas?
La
implementación y adecuación de la normativa implica un plan de
transformación y actuaciones en la estructura organizativa, los procesos
internos, la gestión de los datos estructurados/ desestructurados, análisis de
los canales donde se captan esos datos, y por supuesto, protocolos de seguridad
y comunicación de los eventos de ruptura.
En
definitiva, gestionar el cambio (testing
y formación), proyectos específicos de consultoría (internos y/o externos) que
permitan diseñar las políticas y los procesos necesarios (por ejemplo, aumenta
los niveles de comunicación previa con los clientes/usuarios y sus permisos)
para garantizar el cumplimiento, y un “roadmap” como guía hacia una
implantación exitosa del nuevo RGPD.
En
ese camino hacia la transformación digital, la RGPD hace posible que las
empresas, mediante una correcta explotación de los datos, puedan obtener
cuantos “insights” necesiten para conocer, e incluso, predecir las tendencias y
patrones de comportamiento de sus clientes (a través de herramientas
tecnológicas para enmascaramiento de datos, almacenamiento agregado,
anonimización y la explotación de vectores de información) pero respetando la
protección personal de los usuarios sin vulnerar la ley.
3 novedades del RGPD
1. Proactividad
de la empresa o “medidas de
responsabilidad proactiva” que son:
·
Análisis de riesgo.
·
Registro de actividades del tratamiento.
·
Protección de datos desde el diseño y por
defecto.
·
Adopción de medidas de seguridad.
·
Notificaciones de “violaciones de
seguridad de los datos”
·
Evaluaciones de impacto sobre la
protección de datos.
·
Nombramiento del Delegado de Protección de
Datos.
2.
Consentimiento
expreso e “inequívoco”
·
Pedir los datos imprescindibles (mayor compromiso
de las organizaciones, públicas o privadas, con la protección de datos).
·
Puede ser para uno o varios fines.
·
Debe ser prestado de forma libre.
·
Revocable.
·
El responsable debe poder probar en todo
momento que ha obtenido el consentimiento.
·
Utilizar un lenguaje claro y sencillo
3. Los clientes o usuarios están legitimados
a ejercer sus derechos ARCO+2 (derechos de acceso, rectificación,
supresión o “derecho al olvido”, oposición, portabilidad, limitación del
tratamiento, y derecho de oposición a las decisiones automatizadas (incluyendo
la elaboración de perfiles). Estos derechos se ejercitarán ante el responsable
del tratamiento
Nuestro
trabajo, con todo el equipo de Qualitas Lex Consulting, consiste en la
adaptación e implantación del Reglamento General de Protección de Datos (RGPD)
en su empresa.
Analizamos tanto los procesos internos de trabajo, por
actividad de tratamiento, como los diferentes documentos que se utilizan en la
gestión diaria de la empresa, por área funcional,
teniendo en cuenta que existen 2
dimensiones en los riesgos (modulados por probabilidad y gravedad) para los
derechos y libertades de las personas físicas:
·
riesgos
asociados a la protección de la información
(enfocados en la integridad, disponibilidad y confidencialidad)
·
riesgos
asociados al cumplimiento con la regulación relacionado con los derechos y
libertades de los interesados
Es
muy importante señalar la necesidad de mantener documentados todos los
procesos para poder acreditar la diligencia en el cumplimiento del RGPD y
demostrar la proactividad en el cumplimiento normativo
Para
ello, se contemplan una serie de actuaciones expresadas en lo que denominamos “Modelo de
Cumplimiento QLC”, desarrollado en 5 fases, cuyo objetivo final es
asegurar la observación, adecuación, revisión, actualización y cumplimiento
conforme a la nueva normativa vigente desde el pasado 25 de mayo de 2018.
Dentro
de las actuaciones previstas, hacemos una mención especial a la sesión
formativa que extenderemos a todo el equipo de la empresa y en sus
instalaciones.
Finalmente,
incluimos en nuestra propuesta la posibilidad opcional de un asesoramiento
permanente y exclusivo con el fin de mantener actualizada a la empresa en el
cumplimiento de la normativa, y la construcción de una Política de Protección
de Datos Personales.
Artículo realizado por Javier
Espina CEO en QLC SLP
La
igualdad entre hombres y mujeres es un principio jurídico universal reconocido en
el ámbito internacional, europeo y nacional.
Por
circunscribirlo en nuestro espacio más natural, diremos que en la UE es
principio fundamental desde el Tratado de Ámsterdam, 1 de mayo de 1997, y
objetivo trasversal en todas las políticas y acciones de sus Estados miembros,
y en el caso de España ya se incluye en nuestra Constitución en los artículos
14 y el 9.2.
Sin
embargo, hasta el artículo
46 de la Ley Orgánica 3/2007, de 22 de marzo, no se hace un reconocimiento
formal de la igualdad efectiva de mujeres y hombres mediante un Plan de
Igualdad que lo define como “un conjunto ordenado de medidas, adoptadas
después de realizar un diagnóstico de situación, tendentes a alcanzar en la
empresa la igualdad de trato y de oportunidades entre mujeres y hombres y a
eliminar la discriminación por razón de sexo”.
Por
tanto, puede ser considerado como un conjunto de medidas de igualdad y acciones
positivas, que persigue integrar el principio de igualdad entre mujeres y
hombres en la empresa, así como como un elemento prioritario dentro del Plan Estratégico
de la empresa ya que tiene que incorporar en las empresas formas nuevas de gestión
para mejorar su eficacia organizativa.
Además,
contribuye a la construcción de una imagen positiva de la entidad porque se consigue
que la política de igualdad sea uno de los ejes de la cultura empresarial que, incorporada
de forma permanente en la gestión del capital humano, garantizará de manera efectiva,
que tanto las mujeres como los hombres cuenten con las mismas oportunidades en
el acceso, participación y permanencia en todos los ámbitos de gestión.
Los
Planes de Igualdad, por tanto, son el instrumento para la incorporación de la
igualdad entre mujeres y hombres en el funcionamiento y gestión diaria de la
empresa, y mediante ellos se fijarán los objetivos de igualdad a alcanzar, las
estrategias necesarias y aquellas prácticas que necesariamente se deberán adoptar
para su consecución efectiva.
Para
ejemplificar las características que deben regir un Plan de Igualdad hemos
elegido el Plan de Igualdad de Inditex (para muchos mejor conocido por la marca Zara) que denominan “EL LA” y que son
las siguientes:
·
“Está diseñado para el conjunto de la
plantilla y no solamente para las mujeres”.
·
“Adopta la transversalidad de género como
uno de sus principios rectores y una estrategia para hacer efectiva la igualdad
entre mujeres y hombres. Ello implica incorporar la perspectiva de género en la
gestión de la empresa en todas sus políticas y a todos los niveles”.
·
“Considera como uno de sus principios
básicos la participación a través del diálogo y cooperación de las partes
(dirección de la empresa, parte social y conjunto de la plantilla)
·
Es preventivo, eliminando cualquier
posibilidad de discriminación futura por razón de sexo”.
·
“Tiene coherencia interna, es dinámico y
abierto a los cambios, en función de las necesidades que vayan surgiendo a
partir de su seguimiento y evaluación”.
·
“Parte de un compromiso de la empresa, que
garantiza los recursos humanos y materiales necesarios para su implantación,
seguimiento y evaluación”.
Con
carácter general, la aprobación de un Plan de Igualdad tiene por objeto:
Eliminar los desequilibrios en el acceso y
participación de mujeres y hombres en la organización.
Asegurar que los procesos de gestión de recursos
humanos (selección, clasificación profesional, promoción y formación,
retribuciones) respetan el principio de igualdad de trato y oportunidades.
Favorecer, en términos de igualdad entre mujeres
y hombres, la conciliación laboral, personal y familiar.
Prevenir el acoso sexual y del acoso por razón de
sexo.
Con
todo, la primera pregunta que respondemos en QLC a nuestros clientes es: ¿qué
empresas están obligadas a elaborar y aplicar un Plan de Igualdad en estos
momentos?
La respuesta necesita ser contestada teniendo en
cuenta lo siguiente:
Las de más 250 personas en plantilla
Las obligadas por convenio colectivo
Aquellas en las que la autoridad laboral lo
hubiera acordado en un procedimiento sancionador, donde se especificase la
sustitución de las sanciones accesorias, por la elaboración de un Plan de
Igualdad.
Sanciones previstas por incumplimiento
Las
empresas pueden ser sancionadas si no cumplen con la obligación de contar con
un Plan de Igualdad o por no respetar las medidas incluidas en su plan de igualdad
con:
Multas (desde 60€ hasta 187.515€) en función de
la gravedad de la infracción cometida.
Pérdida inmediata de cuantas ayudas económicas,
bonificaciones o beneficios derivados de la aplicación de un Plan de
Igualdad.
Eliminación de los beneficios de los programas de
empleo (de 6 meses a 2 años).
No poder contratar con entidades del sector
público (Ley de Contratos públicos 9/2017)
Para
terminar, con una buena noticia, queremos comentar que se puede solicitar el
“Distintivo de Igualdad de la Empresa”, marca o distintivo que reconoce, por un
periodo de 3 años prorrogables, el esfuerzo de las empresas en la aplicación de
políticas de igualdad.
Pero,
esto será objeto, probablemente, de un nuevo blog desde QLC y mientras tanto,
quedamos a vuestra disposición para el diagnóstico y la implantación de un Plan
de Igualdad en vuestras empresas…
Artículo realizado por Javier
Espina CEO en QLC SLP
¿Recuerdan la película de Woody
Allen, memorias de un seductor, cuando el personaje de Mia Farrow le dice a
Woody Allen que “no soporta ser una
espectadora de la vida, que quiere vivir y no simplemente ver como los demás
viven”?
Esa es la decisión: resolver si
queremos ser simples espectadores de cuanto sucede (que es mucho y a gran
velocidad) o actores principales en ese nuevo escenario de vida, porque nunca,
antes, hemos tenido la posibilidad consciente de vivir un momento como éste en
nuestra propia historia evolutiva. Todo sucedía en una escala de tiempo que
sobrepasaba nuestra esperanza media de vida.
Por tanto, abundar en la idea de
que el momento que vivimos es uno de los más apasionantes y retadores, nada
tiene de nuevo porque estamos inmersos en la cuarta revolución industrial y, lo
que para muchos, es el comienzo de lo posthumano (Homo Deus, Yuval Harari, ed. Debate, 2015), (https://youtu.be/p-4WY5rP_TI), (https://youtu.be/hxuKo_VdM9o).
La puesta de largo de todas las
tecnologías que vamos a repasar aquí será en poco menos de 2 años. La primera
meta es Japón 2020 y en un escaparate tan global como los Juegos Olímpicos, y serán
todo un despliegue de tecnología: Panasonic con su silla de ruedas autónoma o su
megáfono traductor, Sony y sus transmisiones en 8K, Toyota con su coche
autónomo recorriendo las calles de Tokio y un largo etcétera…
Pero en los siguientes años el impacto
transformador para todos nosotros, el mundo de los negocios y la administración
será tan intenso como todo lo experimentado hasta la fecha. Imaginar un salto de
más de 100.000 años puede resultar inabarcable...
Quizá la principal novedad, la
esencial desde mi punto de vista, es que la disrupción entra a formar parte de
nuestras expectativas.
Ahora, la innovación disruptiva es un término en nuestra ecuación vital.
Y está dentro porque sin ella
nuestro presente y, menos aún, nuestro futuro más inmediato nunca hubiese sido
posible.
Recuerdo la primera vez que me
hablaron de innovación disruptiva. Fue hace casi 20 años cuando estaba cursando
un MBA en EEUU. Se acababa de publicar “The Innovator’s Dilemma: When New
Technologies Cause Great Firms to Fail” de Clayton Christensen, uno de los
profesores de Harvard más influyentes y que lleva años liderando la lista
Thinkers 50.
Una nueva tecnología nace para
atender una necesidad, muy específica, en la parte baja de un mercado concreto.
Y lo hace mucho más eficientemente que aquellas que a las que sustituye. El
resultado es sencillo de adivinar: compite en estrategia de nicho, en margen y
precio, porque sus competidores le dejan operar en una parte del mercado que
para ellos no es tan interesante.
En poco tiempo, se encuentran que
aquél que dejaron entrar va consiguiendo un volumen que le permite encontrar
sus propias economías de escala, crecer y competir en otros segmentos. El paso
final es el “cambio/ la disrupción” de las reglas de juego en ese mercado, y lo
que estaba pensado para una categoría se convierte en un estándar. (Un ejemplo clásico es el del transporte aéreo).
Pero, lo que hace creíble a Christensen
es que cuando se refería a la tecnología y su funcionamiento “disruptivo”, lo
hacía reinterpretando el modelo “evolutivo” que Malcolm McNair (“Trends in
Large-scale Retailing,” Harvard Business Review, 10, 1931), en la
década de los 30, utilizó para describir como se incorporan, desde abajo, los “nuevos
jugadores” en un mercado retail y que denominó la “Rueda del Retail”. (Recomiendo la lectura de:“The only way is up: retail formatsaturation and the demise of the American
five and dime store, 1914-1941. Publisher: Cambridge University Press,
2017: http://dx.doi.org/10.1017/S000768051700054X)
Una particularidad que le añade
“consistencia” porque, así, también se explican éxitos como los de D. Amancio
Ortega en el sector de la moda con el grupo Inditex, con Zara a la cabeza, (y
que ya está viendo como Primark se incorpora desde abajo) o en el de alimentación
con operadores como Lidl, Aldi e, incluso, Mercadona en sus inicios, que iban
sumándose a un mercado que dominaban grandes “players” como Carrefour.
Es decir, que no sólo se refería
a la tecnología si no que puede ser aplicado a modelos de negocio.
El mercado, y no olvidemos que es un eufemismo detrás del cual
estamos todos nosotros como consumidores, sólo
está dispuesto a pagar más por productos o servicios claramente distintos,
diferentes y/o genuinos, porque en caso contrario, sólo acepta (queremos como
consumidores) el producto/ servicio que contenga el “binomio del milagro”, es
decir, lo más barato posible y con una calidad suficiente (porque lo
convierte en un “commodity market”).
A pesar, de las controversias que
tanto Christensen como la propia teoría de innovación disruptiva ha venido
suscitando, y especialmente, la del artículo publicado en 2015 por los
profesores King y Baatartogtokh en la MIT Sloan Management Review, (How Useful Is the Theory of Disruptive Innovation?,
Magazine: Fall 2015, Research Feature September
15, 2015, Andrew A. King, Baljir Baatartogtokh) donde advertían que
el respaldo empírico de la teoría era cuestionable, personalmente, creo que por diferentes razones sociológicas, por el
actual crecimiento exponencial de nuevas empresas con base tecnológica
(Startups) y la confluencia de distintas tecnologías, pronto maduras y
disponibles, estamos en el umbral que marcará un antes y un después en cómo un
cambio tecnológico nos permitirá hacer posible algo que, poco antes, era, simplemente,
imposible.
Y aquí, me acuerdo de las palabras
de Carlos Barrabés, cuando decía que estamos bajo la “tormenta tecnológica
perfecta”.
Si una tormenta necesita la
coexistencia de dos masas de aire de diferentes temperaturas y presiones para
desatar una enorme actividad cuando un centro de baja presión se genera dentro
de un sistema de alta presión, imaginemos el contraste “térmico y la
interacción de las masas de aire” que pueden generan 8 tecnologías diferentes
operando en un mismo entorno global, interconectado en tiempo real y embebido en 5G:
vientos, lluvias e incluso descargas eléctricas que supondrán un cambio mucho
más acelerado, profundo y radical que cambiará nuestro mundo para siempre,
y con consecuencias difíciles de imaginar.
La ecuación podría ser:
La Nube + IoT (el Internet de las Cosas) + Big Data + AI (Inteligencia
Artificial) + 5G + VR (Realidad Virtual) + Seguridad + Blockchain = Modelo de
Valor Compartido.
Donde:
La Nube = tecnología de la
globalización
IoT = el desarrollo del sistema
nervioso de internet y un humano potenciado
5G = la omnipresencia para el
envío masivo de datos: alta velocidad (1 Gbps), baja potencia y baja latencia
(1ms o menos) que hará realidad el IoT masivo, el Internet táctil y la
robótica.
VR = tecnología de la experiencia
Blockchain = tecnología de la
identidad. Un “notario virtual” que registra transacciones digitales y que
va más allá del Bitcoin
Seguridad = factor crucial. Si
hoy hay unos 6,4 mil millones de dispositivos conectados a internet, con el 5G la
cifra aumentará a 20,8 mil millones.
Como decía, 8 tecnologías que en
un sinfín de combinaciones nos cambiarán para siempre a nosotros y la sociedad
que ahora conocemos. De hecho, una de las ideas más reveladoras del discurso
del señor Barrabés, a propósito de lo que aquí exponemos, es la de la sustitución del actual modelo de maximización del retorno
por la de valor compartido de Porter.
Me he tomado la licencia de incluir
el esquema que él mismo presentó en una de sus conferencias, y que nace de la
premisa (para algunos demasiado naif) que “todo
lo anterior tiene sentido si se pone al ser humano en el centro y se construye futuro
creando experiencias compartidas… “
Lo cierto, es que la creación de experiencias memorables para
nuestro cliente, el compartir valores, la co-creación de esa experiencia o el
engagement encajan como un guante con las últimas tendencias en marketing,
marketing sensorial, neuromarketing o estrategias de branding.
Pero, la enorme complejidad de
los nuevos modelos de negocios, la velocidad en el desarrollo y aplicación de
las tecnologías y su impacto en los mercados obligarán a las empresas a
trabajar en nuevo ecosistema productivo, en red, donde el objetivo esencial
será poder identificar quien o quienes te podrán ayudar a hacerlo mejor, más rápido,
más atrayente, aunque, quizás, no más barato (porque para nuestros clientes
será un producto genuino y diferente).
Y éste es uno de los puntos más
controvertidos del nuevo modelo de valor compartido porque no se buscará tanto
el beneficio como la cooperación, la colaboración o la reciprocidad. Michael
Porter propone la posibilidad de retornar a la sociedad parte de los beneficios
que recibe de ella en la búsqueda de sus objetivos empresariales para
fortalecer el sistema económico y los mercados en los que opera en el corto y
largo plazo con el fin de ser sostenibles en el tiempo por generar más negocio
y mejores condiciones empresariales. (TED, 2013, Michael Porter: Why business can be good
at solving social problems. Scotland.
Recuperado a partir de https://www.youtube.com/watch?v=0iIh5YYDR2o.)
Una manera de entender la
colaboración que empresas como Google, GE, Johnson & Johnson, Coca-Cola
Brasil, Natura Brasil, Wal-Mart, Unilever, IBM e Intel o Nestlé con su proyecto
Desarrollo Rural, ya están poniendo en marcha (Escudero & Lama, 2014; Porter & Kramer, 2011).
La primera derivada es casi
intuitiva.
La organización del trabajo, el concepto de liderazgo y la centralidad
también cambiarán.
Necesitarán una orientación más
abierta, más inclusiva, más colaborativa, descentralizada y responderán a un planteamiento
real de ganar- ganar (win-win) y de aprender a crear soluciones en asociación.
El cambio será horizontal y no
jerárquico o no será; buscando la solución a través del valor compartido y no
la maximización del beneficio.
Y, además y como resultado más
inmediato de la AI, por primera vez,
estamos en la antesala de otro fenómeno completamente desconocido: la
eliminación del capital humano como factor de la ecuación de productividad y la
generación de riqueza. (Teoría
económica clásica – donde Smith, Ricardo, J.S. Mill y especialmente Yoram Ben
Porath son sus principales referentes). Yoram Ben Porath es considerado como uno
de los "hacedores" de la teoría del capital humano por su aporte
sobre la producción del capital humano y por la vinculación efectuada entre
éste y el crecimiento económico. Su modelo se fundamenta, metodológicamente, en
encontrar el punto óptimo de inversión en capital humano durante el ciclo de vida
de los individuos.("The production of Human Capital and the
life-Cycle of Earnings." Journal of Political
Economy. Ben Yoram Porath, 1970).
¿Es la evolución de un modelo capitalista? y ¿podemos decir que se
trata de un modelo de valor compartido o de una estrategia de negocio
socialmente responsable?
Existen voces autorizadas que inciden que este tipo de proyecciones pueden
ser consideradas como utópicas o naif, porque el altruismo o el beneficio mutuo
nunca, en nuestra historia evolutiva, se han impuesto a nuestros más arraigados
impulsos atávicos de poder, concentración de riqueza y pertenencia a una élite
por exclusión de los otros.
De nuevo, en un punto de
inflexión que dibuja dos escenarios excluyentes por la caracterización de un
nuevo dilema: la distopia de la
tecnocracia vs utopía de una sociedad mejor.
Un planteamiento que puede parecernos
muy nuevo pero que, hace 503 años, Tomás Moro con su isla Utopía ya transformó
en un cliché. (Recomiendo tanto su lectura
como de los que podemos llamar las 5 grandes distopias contemporáneas: 1. Un
mundo feliz de Aldous Huxley, 1932, donde el placer es la principal
herramienta de control social y el hedonismo y la trivialidad contrarrestan
nuestra reacción. 2. 1984 George Orwell, 1949, o una reinterpretación de
los movimientos totalitarios de los años 40, la Policía del Pensamiento, la videovigilada
y la “corrección política” y el uso de un “neolenguaje” que esconde su real
significado detrás de bonitas palabras. 3. Congreso de futurología de Stanislaw
Lem, 1971, donde un astronauta, Igor Tichy, es reanimado en 2039 cuando la
humanidad ha llegado a la “felicidad” por la psiquímica. 4. Bienvenidos a
Metro-Centre de J. G. Ballard, 2006, cuando la construcción de un gran
centro comercial en las afueras de una ciudad lleva al surgimiento de un nuevo
tipo de fascismo consumista e inspira un nacionalismo “hooligan” y, por último,
el 5 o El círculo de Dave Eggers, 2013, donde un Google-panóptico (de la
teoría del panóptico de Michel Foucault) y global quiere hacer desaparecer el
mal a través de la hipervisibilidad. A los disidentes de ese modelo les mueve
el deseo de desaparecer. Existen muchas otras como Rebelión en la granja, Fahrenheit
451, etc…)
En el segundo de los volúmenes, breves, de
Utopía, Moro nos enfrenta a nuestro yo más íntimo: el deseo, la avaricia, el
ansia de posesión ya sea de riquezas, poder o tierras y como estos atributos,
que “adornan” nuestra existencia como especie, son fuente de todos los males y
desgracias para la sociedad que conformamos, que él define como república, y
para nosotros mismos.
Pero, la gran diferencia de
nuestro futuro más inmediato respecto del escenario que se nos presentaba en
Utopía, es que allí el poder residía en sus habitantes, es cierto, que
aislados en una isla, pero con la inteligencia artificial (AI) todo cambiará...
Sólo por incluir un orden de
magnitud, pondré el ejemplo de OpenAI.
Una compañía de muy reciente
fundación, en 2015, Musk y Altman con su equipo de “bots” fueron capaces
de ganar a un equipo formado por 5 humanos en partidas de un juego llamado Dota
2.
Con un método de aprendizaje de
prueba y error muy común, en machine learning, han logrado acumular, aproximadamente 180 años de aprendizaje humano por
cada día de entrenamiento. Y esto lo hicieron durante varios meses.
En una partida, cada bot tiene
que optar entre 1000 posibilidades de actuar en menos de un segundo. Una
partida de Dota 2 dura aproximadamente 45 minutos.
Si estas cifras son
increíbles, sopesen la siguiente relación: uno de nosotros tiene que invertir entre 10.000 y 20.000 horas de
estudio y esfuerzo, por término medio, en una disciplina para convertirse en
experto. Un “bot” puede aprender en
sólo 1 día lo que un humano necesitaría hacer en 100 vidas con sus días y
sus noches (porque por "diseño" también necesitamos dormir).
La siguiente pregunta es casi redundante:
¿existe alguna barrera para la simulación
de un problema, con AI (Machine Learning + Deep Learning) si podemos afrontarla
en una escala lo suficientemente grande?
Y, en ese futuro tan cercano de
nueva sociedad ¿qué tipo de trabajos no
podrían desempeñar “bots”, “robots” u otro tipo de dispositivos “inteligentes”?
Para terminar, resaltaré que la
pregunta es en sentido negativo, es decir, cuáles no podrán desempeñar porque
los que sí que podrán serán los que actualmente hacemos profesionales de todo
tipo y nivel educativo: economistas, ingenieros, médicos, transportistas,
almaceneros, conductores profesionales, pilotos aéreos, abogados, notarios, bancarios,
etc.
Quizás, todo esto merecería un
blog propio. Será el tema de un próximo artículo…
Artículo realizado por Javier
Espina Hellín CEO en QLC SLP, doctor en Ingeniería de Sistemas de Información,
MBA y ADE nº colegiado 11.534 y Licenciado en Gestión Comercial y Marketing
1. Análisis de riesgos (risk assessment). Las organizaciones, las empresas, los profesionales
y los autónomos en general, desde la entrada en vigor del nuevo Reglamento General de Protección de Datos
(RGPD) el día 25 de mayo de 2018, deben realizar análisis periódicos de los
riesgos derivados del tratamiento de datos personales durante todos sus
procesos y trámites.
2. Evaluaciones del impacto en privacidad(privacy
impact assessments). Si los análisis arrojan un nivel alto de riesgo, se
deben realizar auditorías o evaluaciones de impacto de todos los procesos en
relación con las potenciales situaciones o escenarios en los que los datos
personales pudiesen quedar comprometidos. Se trata de adoptar las medidas
técnicas y de seguridad adecuadas para así tener bajo control y mitigados los
riesgos detectados.
3. Registro de actividades de tratamiento (en formato electrónico). Las
organizaciones con más de 250 trabajadores o que traten datos sensibles o que puedan
generar riesgos cualificados para los interesados, deben llevar un registro de
actividades de tratamiento y tenerlo a disposición de la Agencia Española de
Protección de Datos (AEPD).
4. Ha
desaparecido la obligación de inscribir los
ficheros en el registro de la AEPD.
5. El principio de responsabilidad activa de
los responsables y de los encargados (art. 24 RGPD). El RGPD describe este principio como la necesidad
de que el responsable del tratamiento aplique medidas técnicas y organizativas
apropiadas a fin de garantizar y poder demostrar que el tratamiento es conforme
con el Reglamento.
6. Es
obligada la formación al
personal que intervenga en el tratamiento de datos de carácter personal.
7. Se
deben cumplir con los principios
relativos al tratamiento de datos personales (art. 5 RGPD):
Licitud, lealtad y transparencia en el
tratamiento de los datos personales.
Limitación de la finalidad: los datos se
recogen por unos fines determinados, explícitos y legítimos.
Minimización de datos: los datos deben ser
adecuados, pertinentes y limitados.
Exactitud de los datos: los datos deben
ser exactos y actualizados.
Limitación del plazo de conservación: no
se puede superar el tiempo necesario para los fines del tratamiento de los
datos personales.
8. Cuando
los datos personales se consiguen de los propios interesados, el responsable del tratamiento debe recabar
el consentimiento libre, específico, informado, explícito e inequívoco del
propio interesado. El consentimiento tácito ya no es válido.
9.Las organizaciones y las empresas deben
contar con protocolos que hagan efectivos los derechos reconocidos de los interesados
como son: el derecho de acceso, de portabilidad
(obliga al responsable a facilitar una copia completa de los datos en soporte
electrónico y en formato compatible), de
rectificación o supresión de los datos personales y de la limitación y oposición al tratamiento,
inclusive el novedoso derecho al olvido.
10. En
determinados casos es obligatorio el nombramiento de un Delegado de Protección de Datos Personales (data protection officer DPO)
según establece el art. 37 RGPD. Esta persona que goza de plena libertad,
autonomía e independencia en el ejercicio de su función, disponiendo de conocimientos
suficientes en Derecho y práctica en materia de protección de datos, es quien asesora
al responsable del tratamiento, coordina y evalúa los sistemas de cumplimiento
de la norma y de evaluación de los riesgos de incumplimiento, y encauza las
comunicaciones de la AEPD y los interesados con la empresa.
11. Las empresas como responsables deben
demostrar que seleccionan, controlan y hacen seguimiento de sus proveedores, suministradores, subcontratistas,
asesores y en general cualquier prestador de servicios, en materia de
cumplimiento de protección de datos.
12. Los
encargados del tratamiento por su parte deben soportar auditorías periódicas de los responsables.
13. Las
relaciones entre responsables y encargados deben documentarse en un contrato que puede generarse en
formato electrónico. Estos contratos deben tener un contenido mínimo para
que se establezca el objeto, la duración, la naturaleza y la finalidad del tratamiento,
el tipo de datos personales y categorías de interesados, y las obligaciones y derechos
del responsable.
14. Los fallos de seguridad, en particular los que tengan como
consecuencia una fuga de datos,
deben comunicarse a la AEPD
en un plazo máximo de 72 horas
y a los interesados.
El diseño de un protocolo en este ámbito requiere que en caso de ciberataques
que constituyan un ilícito penal, se denuncien bien a la Fiscalía, bien
a las Fuerzas y Cuerpos de Seguridad del Estado y al CERTSI, a fin de controlar y
mitigar las consecuencias negativas del riesgo.
15. El
uso de algoritmos predictivos basados en BIG DATA para crear perfiles
personales, debe estar bajo constante supervisión para así evitar situaciones
discriminatorias, controlar la intervención humana en partes del proceso, garantizar
la transparencia y la audiencia del interesado. El uso de las técnicas de pseudonimización
y anonimación en los tratamientos masivos debe igualmente regularse, ordenarse
y controlarse.
La influencia social o
“conformidad” es un fenómeno bien conocido en psicología y particularmente
estudiando por Asch (1951) o Kelman (1971) que distingue tres formas de
influencia:
Sumisión: cuando mostramos acuerdo, por
miedo al rechazo o al castigo, con el origen de la influencia.
Identificación: cuando por el deseo de
sentirse miembro del grupo de influencia mostramos acuerdo
Interiorización: mostrar acuerdo por
entender que el origen de la influencia es justo.
Lo que parece claro es que,
independientemente de nuestro nivel educativo, social o intelectual, somos
susceptibles de que influyan en nosotros, incluso siendo conscientes que existe
esa presión, porque no podemos actuar como si los demás no existiesen; representa
un coste elevado para nosotros. Tan elevado que somos capaces de mentir para
evitar el conflicto que nos plantea el actuar de manera distinta a la norma del
grupo (establecida por los “otros”). Eso puede significar quedarnos solos por la
exclusión del grupo…
¿Recuerda cómo se sintió la última
vez que le ignoraron en una reunión social, profesional o evento público?
Somos “animales sociales” y
necesitamos de la interacción con nuestros pares. Está incrustado en
nuestro ADN y, recientemente, se han descubierto que las neuronas espejo son, en
parte, las responsables porque son capaces de recrear patrones mentales de
quienes nos rodean. Sin ellas, simplemente, no podrimos ir al cine y creernos
la historia que nos cuentan.
Por eso, los demás nos importan,
su comportamiento nos influye y la publicidad que viene acompañada de un rostro
famoso y familiar sigue funcionando. What else? (Nespresso)
Pero, ¿hasta qué punto somos influenciables?, ¿nos dejamos influenciar por
una mayoría desconocida o somos dueños completos de nuestras decisiones?
Los experimentos sobre la
influencia que tiene el grupo en cada uno de nosotros (o de conformidad) de Solomon
Asch, y que se llevaron a cabo en 1952, demostraron que ésta es “significativa”.
Es decir, que el poder de la conformidad en los grupos es mucho más grande e
intensa de lo que cada uno de nosotros podemos imaginar.
En el más conocido, un estudiante
se enfrentaba a una sencilla “prueba de visión” en donde solamente él era capaz
de ver lo que el resto de sus compañeros de clase no veían (porque eran
cómplices en el experimento). Sin embargo, al cabo de pocos intentos sucesivos,
se acababa uniendo a sus compañeros, y esto es lo importante, aun siendo
consciente de que el grupo estaba equivocado. Es reveladora la actitud del
estudiante durante el experimento. (https://youtu.be/wt9i7ZiMed8; https://youtu.be/tAivP2xzrng)
El objetivo explícito de Asch era mostrar cómo se puede inducir a
alguien a someterse a las presiones de grupo cuando, incluso, son contrarias a la
realidad objetiva y de la que, además, eres plenamente consciente.
En otro experimento más reciente,
en este caso para el programa de “zoo humano” de la BBC (https://youtu.be/duynsLoHhyw) el sujeto del experimento espera 20
minutos antes de salir de una habitación en las que hay suficientes indicios
(simulados, pero para los participantes del experimento reales) de incendio
porque el resto del grupo permanece indiferente al suceso.
En las siguientes iteraciones de
la prueba, nadie tomó la decisión de abandonar la habitación y el tiempo
promedio fue de 13 minutos de permanencia vigilante a las reacciones del grupo.
Probablemente suficientes, si el incendio hubiese sido real, como para morir
por pasividad e inacción.
Una de las primeras conclusiones es que “ante la presión grupal, todos
nosotros tendemos a adoptar una postura de conformidad”, por contraste de cuando
el mismo experimento se repite con el sujeto solo; en esa circunstancia siempre
toma la decisión de salir del recinto ante la primera alerta de fuego.
Pero, lo que personalmente me
resulta más asombroso sobre nuestra capacidad de ser influenciados por el
grupo, es lo que Irving Janis nos presenta con sus trabajos sobre lo que
denomina “groupthink” o pensamiento grupal, en un libro que se publicó hace
casi 50 años y los de Elisabeth Noelle-Neumann sobre “la espiral del silencio”.
Janis demuestra que para causar tensión en la persona (con la
intención que cambie de decisión) ni
siquiera es necesaria la presencia directa de un grupo. La influencia o conformidad en esa persona
se consigue por el hecho de que crea que
existe una mayoría que opina de un cierto modo.
Esa sensación de mayoría se puede conseguir con la difusión de
determinados mensajes dominantes, que esa supuesta mayoría eleva a la categoría
de norma, y que hace que sean interiorizados por muchas otras personas que lo asumen
por miedo a quedar fuera de la sociedad (“…si todos lo dicen, será verdad “).
“Si el individuo encuentra que su
opinión es predominante, entonces, la expresa libremente en público; si por el
contrario, percibe que cuenta con pocos partidarios, entonces se vuelve temeroso,
oculta sus convicciones en público, y se mantiene en silencio.” (E. Noelle-Neumann (1981). “Mass media and social
change in developed societies, Ibáñez, Tomás (2003) (Coord.) Introducción
a la psicología social. Barcelona: Editorial UOC)
Son fenómenos que, encontrando
soporte en mecanismos sociales muy sutiles de nuestro comportamiento más
primitivo, fomentan la tendencia a favorecer los discursos dominantes y a
aumentar la dificultad de que aparezcan puntos de vista alternativos o de
discrepancia.
El tercer apoyo con el que
terminar de dibujar este boceto sobre nuestro comportamiento en grupo es el
llamado “paradigma de los nuevos movimientos sociales”, donde se asegura que en sociedades como la actual, posindustriales
y “líquidas” (en palabras de Z. Bauman), los ejes de conflicto son culturales y simbólicos muy lejos de los
clásicos conflictos económicos o sociales.
Melucci nos dice que, cada vez, es más necesario el sentimiento
de pertenencia a grupos sociales significados, desde donde poder construir una
identidad personal con los valores simbólicos del grupo de pertenencia y con
los que poder autodefinirse. Surge así, una intensa retroalimentación entre
el grupo y el individuo, donde la “tribu” aporta identidad, seguridad normativa
y confort y la suma de individuos, dimensión, relevancia y poder al colectivo
de pertenencia. (Melucci, Challenging codes,
collective action in the information age, 1996, Cambridge University).
Pero, lo que resulta paradójico e
incluso chocante es que esos movimientos sociales nacen como fuerza generadora
de nuevos códigos culturales contrarios a las presiones de uniformidad dominantes,
pero al tiempo y con el fin de preservar la cohesión interna de ese movimiento
alternativo, los sistemas de control interno del colectivo donde se construyen
los significados, los símbolos y las identidades individuales son muy férreos y
uniformadores.
Pero, ¿cómo podríamos formular nuestra ecuación de toma de decisiones con
factores como la influencia social, conformidad, presión del grupo, sentimiento
de pertenencia a un colectivo y la capacidad de autodefinición dentro del mismo
o el valor de los símbolos?
Parece difícil, ¿verdad? De
hecho, todavía no lo hemos logrado. Ni siquiera con las últimas herramientas de
neuromarketing. Pero, lo que si podemos
concluir es que no somos tan libres como pensamos y que la “cantidad” importa y
nos impone.
Cantidad o el número de personas que “piensan” como yo (o que yo
creo que piensan como yo), que visten como yo, que comen como yo, que se
sienten mal como yo, etc… un “yo” que permanece en el centro y un “número indeterminado de iguales” que
tengo que percibir como suficiente para insertarme en él y seguir construyendo mi
autodefinición haciendo míos los valores, símbolos y significados del colectivo
al que ahora pertenezco.
¿Cuál es la cantidad mínima de personas necesarias para que el fenómeno
de influencia tenga lugar?
Es claro que la “masa crítica” es
el factor determinante en la ecuación de influencia o de conformidad grupal.
¿87 millones de usuarios de una
red social es suficiente muestra sobre la que poder trabajar y sacar
conclusiones?
Según Moscivici (1999), “los individuos subestiman la influencia que
puede ejercer la socialización sobre sus actitudes y conductas” y que dicha influencia puede ser ejercida de
forma implícita e inconsciente, porque la adhesión se desarrolla a través de
presión física o simbólica.
¿Qué valor económico tienen los billones de datos personales, aislados
y que dejamos como miguitas de pan cuando navegamos por internet, compramos en
un Marketplace, consultamos saldos en el banco, marcamos como “me gusta” o intercambiamos
comentarios con nuestros amigos virtuales sobre fotografías, chistes, twitts o
los goles marcados por nuestro equipo?
¿Para qué pueden ser usados
esos datos?, ¿cómo esas terceras personas, organizaciones comerciales o
entidades “anónimas” pueden influir en nuestra “propias” decisiones?,¿a partir
de cuantos miembros el grupo ejerce su influencia?, ¿por qué es importante contar
con más de 100.000 seguidores en una red social?
Es curioso comprobar cómo,
incluso, la elección de algunos términos es mucho menos inocente de lo que
podríamos pensar.
No les suena la
palabra “influencer”…
Hace muy pocos días, dos
investigadores de la Universidad de Stanford, J. Ugander y K. Altenburger han
hecho público un estudio sobre cómo es
cada vez más fácil saber más de todos los que usamos Internet sin preguntar
nada.
Demuestran que basta, solamante, con “inferir” determinadas
características de aquéllos que elegimos como amigos o con quien nos relacionamos
(Monophily
in social networks introduces similarity among friends-of-friends, Nature Human
Behaviour, 15 febrero 2018), (http://neofronteras.com)
Ambos querían entender qué
inferencias estadísticas podían terminaban revelando aquellos rasgos personales
que normalmente tratamos de ocultar. Para ello, usaron bases de datos, disponibles
específicamente para la investigación científica, que contienen el tipo de
información que los sitios web venden a terceros como anunciantes.
Existen inferencias directas. Por ejemplo, si alguien compra
pañales en Internet es muy probable que haya sido padre o madre recientemente.
Pero son las indirectas las más reveladoras porque a través de
quiénes son tus amigos virtuales en redes sociales se puede saber quién eres, que edad tienes, tu inclinación política y
un sin fin de datos que tú nunca has facilitado o no quieres que se sepan.
Es posible, por algo tan
natural como frecuente y que, incluso, nos define como especie.
Se trata, simplemente, del hecho
que tendemos a “hacer amigos” de nuestro
mismo rango de edad, de la misma raza y de la misma creencia política. Todo
lo que somos puede ser inferido desde nuestros amigos por dos tipos de
estudios: de homologías u homofilias y de monofilia o preferencia extrema por un
rasgo determinado.
Así, se puede “construir” un mapa de la red de relaciones que tenemos y con el
conjunto/s de datos usados podemos inferir, a través de nuestros amigos y de
los amigos de nuestros amigos, toda la información no declarada de cada perfil.
Entonces, si es posible
averiguarlo casi todo de nosotros a través de nuestra red de relaciones y se
estudian hasta el 2ª y 3ª niveles, ¿cómo
protegemos nuestro derecho a la intimidad?, ¿para conservar esa intimidad cuantos
niveles se necesitarán incluir para que la información contenida en las
relaciones de los amigos de nuestros amigos, además de la nuestra, quedase
protegida?
No es ninguna novedad decir que en
el dato está el poder y en la capacidad de encontrar patrones, correspondencias
y significado en la cantidad de información que generamos cada día, en cada
consulta a Google, en cada pregunta a Siri, en cada itinerario que recorremos
con Google Maps, en cada “me gusta” o en “cada like” de nuestro teléfono móvil,
nuevo apéndice corporal tecnológico, con la que vamos dejando una huella
digital de nuestra más profunda identidad...
A eso me refiero con “masa crítica”, a esa gigantesca cantidad de datos
que con tecnología informática (incluida la inteligencia artificial), mucha estadística y un poco de competencia
profesional, hace posible que podamos saber todo de cualquiera o podamos
influir en la dirección que sea más conveniente para quien sea el dueño de esa
información.
Mientras estoy dando forma a este
particularmente extenso blog, el CEO de Facebook declara y pide perdón ante la
cámara de representantes de EEUU por haber permitido que Cambridge Analytica, consultora
política que ha sido vinculada con la campaña presidencial de Donald Trump en
2016 o con la del brexit en el mismo año, se hiciese con una base de datos que
terminaría por incluir decenas de millones de perfiles de esa red social.
No en vano, y esto sí que es
“masa crítica”, casi un tercio de la población mundial tiene una cuenta en
la compañía de Mark Zuckerberg.
La calidad de la información a la
que han tenido acceso y sobre la que han trabajado, es muy alta porque el
cuestionario, que se utilizaba para recolectar datos, contenía decenas de
preguntas formuladas por psicólogos e investigadores para evaluar la
personalidad. Eran encuestas en línea que gestionaba otra empresa llamada Qualtrics.
Facebook entra en el juego cuando
los encuestados autorizan y dan acceso a sus perfiles, en la red social, porque
la aplicación de la consultora británica toma los datos de cada perfil y la de
sus amigos.
Se asegura que en esa operación
se hicieron, además, con las actualizaciones de estado, "me gusta"
y hasta mensajes privados de más del 15% de la población de EE. UU, es decir,
de casi 49 millones de ciudadanos estadounidenses. Pero, hay fuentes que
van mucho más lejos y aseguran que la
materia prima con la que alimentaban sus aplicaciones informáticas contenía a 220
millones de adultos norteamericanos con 5.000 rasgos diferentes de cada uno de
ellos (recordemos que la población de EEUU es de aproximadamente 325,7
millones de personas).
Esto sí que es masa crítica. Es
Big Data…
¿Qué hizó Cambridge Analytica con esa ingente colección de datos de
gran calidad?
Tipificar e identificar las personalidades de los electores
estadounidenses con el fin de “influir” en su toma de decisiones y
comportamiento mediante el empleo de técnicas de Big Data y marketing ultrapersonalizado
para la campaña de Trump en 2016 y, previamente, para inclinar el resultado hacia el Brexit en 2 campañas
simultáneas: @vote_leave y
@LeaveEUOfficial.
Si se cuenta con un perfil
psicológico personalizado de los votantes se pueden “calibrar y ajustar” los
mensajes de una determinada campaña hacia intereses y gustos particulares,
no sólo para satisfacer a ese colectivo concreto sino para construir una
mayoría que pueda influir en aquellos indecisos, decisivos para lograr que se
inclinen hacia el margen clave y procure la victoria de quien les paga.
El perfil de clasificación
psicológica de personalidades de cada votante se basa en el conocido Modelo
OCEAN y así, Cambridge Analytica, pudo
saber cuál tenía que ser el contenido, el tema y el tono de cada mensaje dirigido
para cambiar la manera de pensar de los votantes de forma casi individualizada.
El objetivo era segmentar a la población para ofrecerles mensajes con temas
“gancho” usando un lenguaje y unas imágenes que les removiesen, que les importasen,
porque no podían quedar indiferentes… necesitaban involucrarles emocionalmente.
Es un hecho declarado por la
propia consultora, que lo más importante de los servicios que ofrece Cambridge
Analytica es el que se refiere a las “perspectivas de la psicología del
comportamiento”.
La estrategia es clara y doble: convencer a los indecisos y desanimar a
los rivales del candidato a quien se apoya.
Pero, los mensajes
personalizados no es lo único que hacían para influir.
Otra de las herramientas preferidas son los “fake news” o noticias
falsas que, no por casualidad, eran difundidas vía Facebook porque modificaban el estado de opinión con
temas de debate que favorecían las posiciones del candidato apoyado.
En este escenario, entra en
escena lo que ahora se denomina posverdad
o “distorsión deliberada de una realidad, que manipula creencias y emociones
con el fin de influir en la opinión pública y en actitudes sociales” (Real
Academia Española, 2018)
¿Qué se consigue si cuando navegas empiezas a leer un blog por aquí o un
portal de noticias por allá, mezclado con opiniones de ciudadanos como tú, de
los que nunca has sabido nada pero que ofrecen historias consistentes y
verosímiles, pero que no aparecen en los medios tradicionales?
Lo más probable, es que
empieces a cuestionarte el por qué no están en los medios y si puede deberse a
la existencia de un sesgo interesado de ese medio, o un plan de ocultación deliberado
de noticias relevantes…
Y, sin ser consciente, te están
ayudando a construir tu propia historia de conspiración y, lo más importante,
van inoculando una cierta susceptibilidad en los medios tradicionales, en los
que antes confiabas para construir tu opinión, o en las propias instituciones
por la pasividad, que ya consideras interesada, para terminar, imponiendo un
nuevo status quo o sistemas de referencias que pretende influir en la gente para
que cambie su decisión.
¿Cuánto vale hacer ganar una elección?
No sé contestar a esta pregunta.
Aunque supongo que la cifra sería tan abultada como obscena, simplemente, por
lo que representa el coste de oportunidad.
Pensemos, un momento en cuál ha
sido el coste económico del Brexit hasta ahora y cuanto puede representar un
Brexit sin acuerdo.
Además, de la salida de
instituciones europeas de la “city” o de las fluctuaciones cambiarias de la
libra desde el anuncio del Brexit, el romper con la UE sin un acuerdo, según un
estudio del Rabobank, podría tener un coste estimado de 450.000 millones de
euros, que es equivalente al 18% del PIB británico en la próxima década, la
entrada en recesión del Reino Unido durante un período mínimo de dos años, un
aumento del paro de entre el 4,6% al 6,2% y cada trabajador sería unos 13.000 €
al año más pobre al cabo de 10 años...
Lo que si sabemos que es (o ha
sido) necesario para llevar a cabo este tipo de operaciones es contar con una
estructura, de relativa importancia, estable, multidisciplinar, profesional,
ultraconfidencial y tener los servicios de una agencia o el “Spin Doctor” que dirija
la campaña y se encargue de gestionar a recursos en red como los “Trolls Farm” y
las herramientas especializadas en Big Data, marketing personalizado y microsegmentación
por perfiles en plataformas sociales como Facebook y Twitter.
Y lo que también sabemos es lo
que hizo recapacitar a Zuckerberg.
Sólo en 24 horas el valor de
Facebook cayó US$37.000 millones por el escándalo de Cambridge Analytica, las acusaciones
de robo de datos, de interferencia política, los chantajes con prostitutas, sórdidos
espías y con potenciales implicaciones en Argentina, Brasil, Colombia y México
donde la consultora ha participado en más de 100 campañas electorales.
Aunque la razón oficial de la
comparecencia, en dos días distintos, del CEO de Facebook son los aspectos
morales sobre el mal uso de información no autorizada, la privacidad de datos, las
noticias falsas, el discurso del odio de los mensajes distribuidos o la
catalogación de “producto” de los millones de usuarios de su red social.
No somos conscientes que el “producto” somos nosotros mismos, que puede
ser usado contra nosotros mismos y que no podemos controlar nada de tan
elaborado proceso de influencia: ni la verosimilitud, ni la naturaleza de la información
ni la intención de quienes la usan. (https://youtu.be/n8Dd5aVXLCc)
Fuera del aspecto formal de la
comparecencia de Zuckerberg, los aspectos que han precipitado su presencia son
la rápida erosión en el valor de compañía en el mercado y su impacto en sus
accionistas porque preguntas como ¿para qué o quién?, ¿con qué fin?, ¿en manos
de quien dejamos esa valiosísima información? o ¿qué tipo de medidas se van a
implantar?, ¿cuándo, ¿cómo y con qué resultado esperado? pueden esperar… de hecho, Facebook después de
haber “pedido perdón” ya está recuperando su valor bursátil.
Por cierto, no han reparado en
que la imagen del fundador de Facebook ha cambiado, radicalmente, para la
“puesta en escena del perdón” y de la “aflicción”.
Del aspecto algo naif de tímido
retador en jeans y camiseta gris clara ha pasado a la de un adulto maduro,
discreto, humilde y corporativo dispuesto a pedir perdón y tomar medidas para
que nada así vuelva a suceder. Con decisión y seriedad, se ciñe a un discurso
medido y de control de daños.
En la puesta en escena, nada queda al azar: un nuevo corte de pelo más convencional
que desenfadado y un sobrio traje azul oscuro, camisa blanca y corbata “azul
Facebook” cierran un marco visual tan neutro y estático que obliga a centrar
toda la atención en el propio CEO.
Forma parte del mismo juego de influencia. En este caso, la
influencia que él quiere ejercer en aquellos a quienes tiene que dar
explicaciones y respecto a toda la opinión pública que censura tan grosera
monetización de su privacidad.
Aunque, quizá sus asesores le
tendrían que haber advertido, también, sobre el poder de su lenguaje no verbal
o prepararle ante preguntas tan previsibles como molestas por la cantidad de
información (negativa) que puede ofrecer una sonrisa en tensión (https://youtu.be/Cfv09WA4em4), la
interacción casi robótica con sus interlocutores, el desajuste gestual con la
argumentación verbal y el entorno físico o la manera de beber agua durante
ambas sesiones…
Pero, por debajo de la audiencia
pública de Mark Zuckerberg, quedan preguntas sin responder sobre el propio
escándalo de la consultora Cambridge Analytica ¿cómo
funcionan los sistemas que buscan influir en la relevancia una app, un
determinado personaje público, un producto de consumo o hasta un concursante de
un Talent Show?
Se trata de los “bots”
(robots) de Twitter o cuentas automatizadas que realizan tareas mecánicas (distribuir
spam, retuitear mensajes con determinadas palabras o repetir el mismo mensaje desde
distintas cuentas cuando aparecen ciertos hashtags) y de las también
llamadas “Click Farm”, o granjas donde se comercia con la manipulación
interesada de los “me gusta”. Tampoco me quiero olvidar de las “Trolls Farm”
o variantes de “Call Centers” donde “operadores físicos” crean, manejan y
monitorizan cientos de miles de cuentas Cyborg.
Los primeros, son lugares
cerrados y aislados repletos de estantes metálicos con miles de smartphones
conectados y donde se emplea mano de obra humana para que todo pueda funcionar
según los intereses del cliente que compra esos “likes”, o mejores posiciones
en un ranking para lo que, por ejemplo, el humano descarga una app o un juego
que instala y después desinstala tantas veces y en tantos equipos como
contemple el trato cerrado.
Los segundos son mucho más
profesionales. Necesitan grandes instalaciones por el volumen de trabajadores,
que, dicho sea de paso, no necesitan ser programadores (pueden ser
universitarios o sin estudios y con un bajo salario) y por el tamaño de la
infraestructura informática.
Pero el grado de sofisticación
en el “engaño” puede ser creciente, ya que, desde cualquier lugar del globo,
se pueden crear y organizar cientos o miles de perfiles falsos en distintas
redes sociales con el fin de “influir” (de nuevo) en los usuarios o ciudadanos
diana. Una técnica muy utilizada y que se conoce como “sockpuppeting”.
Y, toda esta infraestructura
social y virtual de cuentas falsas no se limita sólo a redes sociales como Facebook
sino que también es utilizada toda una red de bots para Twitter.
El mecanismo de actuación en
el ámbito político es muy familiar.
Una campaña de anuncios
interesados que se acompaña de perfiles falsos que comparten noticias sesgadas,
donde se filtran datos sensibles (verdaderos o falsos), sobre un candidato y se
refuerzan, simultáneamente, enviando mensajes o hashtags concretos que inclinen
o movilicen la opinión en la dirección convenida. Miles de usuarios que comparten
un mismo mensaje, con un hashtag, tienen posibilidades reales de llegar a ser “trending
topic” y el objetivo se ha cumplido.
Por ejemplo, durante las pasadas
elecciones en EEUU, un mismo mensaje se twitteó una y otra vez con pocos segundos
de diferencia y, el día de las elecciones un grupo de bots enviaron el hashtag
#WarAgainstDemocrats más de 1.700 veces.
En ocasiones, alguno de esos mensajes
compartidos por bots (desde cuentas falsas o reales, pero “hurtadas” a sus
legítimos usuarios por falta de uso) en redes sociales, no conseguían la repercusión
que se estimaba. Esto obligaba a una nueva tanda de mensajes y la aplicación
del método de prueba-error; porque el coste operacional es muy bajo.
Y, por cierto, tampoco es
imprescindible utilizar cuentas falsas o cuentas robadas ya que los grupos de
hackers, que están detrás de estas operaciones, pueden acudir al mercado (negro
por supuesto) y comprar varios miles de cuentas. Aunque pueda parecer
imposible, hay sitios web al por mayor de compraventa de cuentas.
No hay que olvidar que, cada bot,
ha llegado a recibir hasta 5 retuits de cuentas reales como media. Lo que
significa que hay humanos que deciden compartir
el contenido generado por un robot creado para contaminar o difamar.
Pero, también encuentra
aplicación en el ámbito comercial y empresarial.
Si la empresa cliente quiere generar interés en torno a su nuevo
producto, “el enjambre” identifica espacios de interés y pone en circulación
cientos de comentarios positivos en medios, foros, e incluso en marketplaces.
Si, por el contrario, se trata de
“guerra sucia” y el objetivo es eliminar o debilitar a la competencia, el
enjambre sigue el mismo patrón, pero, esta vez, para difamar.
Recibe el nombre gráfico de enjambre porque su manera de actuar es
siempre en grupo como las abejas, avispas u hormigas: los perfiles falsos/robados/reales
se enlazan y se retroalimentan dándose la razón, apoyándose unos a otros y
recurren a todo tipo de estratagemas de guerra como abusos verbales,
provocaciones, etc.
Las claves de su éxito y proliferación es que son relativamente
baratos, fáciles de crear, cosechan datos, y pueden dar servicio a distintos
clientes al mismo tiempo.
Estas redes operan en 3
niveles con el “rebaño digital”:
Pastores: cuentas muy influyentes que definen
y marcan la conversación
Perros pastores: cuya labor es amplificar
el mensaje y defender al “amo” y atacar a los enemigos
Las ovejas: que son los miles de cuentas
automatizadas que van donde las lleven, según convenga y quien sea el cliente,
pero que tienen una importancia capital y central en la estrategia porque son
las responsables de generar la falsa, pero muy convincente sensación de mayoría
social.
Y detrás, en el “backstage” un
enorme negocio con campañas de contaminación, distorsión de la realidad,
“redirección” de opiniones y cambios de voluntades en individuos y ciudadanos
que no se percatan de la manipulación de la que están siendo objeto…
Según algunos autores, al menos
30 países sufren la manipulación e intoxicación, de bots y trolls, en el
escenario del debate público con perfiles fraudulentos en las redes sociales.
Quizá, es hora de recordar lo que
nos decía J. Lanier hace casi una década en su libro “contra el rebaño digital”
(You're
not a gadget: A manifestó, Jaron Lanier, Editorial Debate. Barcelona, 2011),
“el totalitarismo digital es la nueva
amenaza para el orden social, como lo fueron el fascismo y el comunismo
anteriormente”.
Su posición no está junto a tecnófobos
y frente a la tecnología.
Por el contrario, apuesta por una visión humanista del uso de
la tecnología y aborda el debate de la redefinición de Internet y de sus
aplicaciones donde cada uno de nosotros esté por encima de las máquinas que
usa, donde la utilidad sea más importante que la rentabilidad y el progreso sostenible
sea un objetivo superior al resultado inmediato.
Traemos en este post como
continuación a nuestra serie de artículos de actualidad sobre cláusulas
abusivas bancarias, un tema de gran interés como es la posible abusividad de
las cláusulas sobre comisiones de apertura incluidas en las escrituras de
préstamos hipotecarios.
En nuestro precedente artículo
sobre reclamación de los gastos hipotecarios que publicamos el 28 de agosto de
2018 (link), informamos a nuestros lectores y seguidores de las diferencias de
interpretación que tenían las Audiencias Provinciales, a la hora de afrontar la
posible abusividad de las cláusulas de distribución de los gastos de la
hipoteca y, particularmente, todo lo referente al pago del Impuesto de Actos
Jurídicos Documentados cuya cuantía podía representar hasta el 1% del importe
total del préstamo. Esta cuestión es la que recientemente ha sido aclarada por
una Sentencia dictada por el Tribunal Supremo, que indica que la obligación de
pago del mencionado impuesto es del prestatario, es decir, del solicitante del
préstamo (link).
Hoy, con el propósito de seguir
informando a nuestros lectores y seguidores, contribuimos a este debate, trayendo una Sentencia dictada por la Audiencia Provincial de León de
fecha 1 de febrero de 2018, que indica que la cláusula que prevé la comisión de
apertura no es una cláusula abusiva dando la razón a la entidad bancaria.
Apuntamos algunos de los extractos más
relevantes de la citada Sentencia:
SENTENCIA Nº 31/2018, de 1 de febrero de 2018. Recurso de apelación nº 579/2017:
“El coste de apertura no es un
acto vinculado a la formalización del contrato de préstamo; se sustenta en el coste
de gestiones y servicios financieros previos a él, y, aunque tenga como
finalidad principal suscribirlo, la comisión de apertura no se vincula con el
acto de formalización del contrato, porque el servicio financiero del que se
deriva la comisión de apertura no tiene como finalidad dar forma al contrato y
validarlo con su inscripción u otros actos precisos para su eficacia jurídica.
Los costes de apertura tampoco
remuneran gastos de tramitación vinculados a la formalización, como lo podrían
ser los precisos para la inscripción en el Registro de la Propiedad, y ni
siquiera se refieren a pagos a terceros para la formalización y tramitación,
como ocurre, por ejemplo, con los gastos notariales, registrales y/o impuestos.
La comisión de apertura se gira para retribuir los servicios financieros y los
costes de gestión previos a la concesión del préstamo; no por gastos de
formalización u otros vinculados al perfeccionamiento y eficacia jurídica del
contrato.”
“La comisión de apertura
retribuye un servicio financiero: gestiones previas que se llevan a cabo desde
que se solicita el préstamo hasta que se resuelve sobre su autorización, y las
precisas para la preparación del contrato.”
“Por lo tanto, la cláusula de
apertura no tiene encaje en el supuesto legal de abusividad previsto en el
apartado 22 de la disposición adicional primera de la Ley 26/1984 (ni en el
artículo 89.3 del Real Decreto Legislativo 1/2007).”
“En definitiva, el cobro de una
comisión de una sola vez en el momento del contrato, llámese apertura o de cualquier
otro modo, es una posibilidad contemplada en normas legales y del Derecho de la
Unión Europea.”
Para un mejor entendimiento de este tema, pueden acceder al texto completo de la Sentencia través de este link.
Seguro que al leer el título de
este artículo se le vienen a la mente diferentes expresiones que en alguno de
sus términos contiene la palabra LEAN y que han escuchado en su entorno
profesional: Lean Manufacturing, Lean Construction, Lean Startup, Lean
Management, Lean Logistics, ErgoLean o Lean Thinking que es el que nos ocupa.
Pero ¿qué significado tiene?,
¿están relacionadas?, ¿responden a algún concepto clave?
Si nos aproximamos al término desde
el inglés por su traducción, nos encontramos que “lean” es carne sin grasa.
Lean Thinking significaría “el
pensamiento esbelto”.
La grasa, en procesos de empresa,
podemos asociarlo con la ineficiencia, de manera que si eliminamos grasa
sistemáticamente (parte no aprovechable = desperdicio) ganamos eficiencia.
El pensamiento esbelto consiste
en eso: la filosofía de la eliminación
del desperdicio que nos hace mejores…
Si tuviésemos que definir, por
tanto, en una frase que es el “Lean
Thinking” podríamos decir que es
toda una metodología que tiene como único objetivo la mejora continua, reduciendo
costes, elevando la productividad, la eficiencia e incrementando la calidad
final.
Un objetivo que es entendido como
“recursivo”, es decir, que siempre está en modo “encendido”. Cada ciclo
iterativo busca la mejora del anterior.
De manera, que el
planteamiento es sencillo: observar,
obtener datos de forma continua y medir para corregir y eliminar aquellos
procesos o tareas que no aportan valor al producto final o al cliente final.
Como método tiene su propio
lenguaje, sus palabras clave y una terminología que ayuda a entender la
filosofía por la que nació y que encierran sus principios.
Eliminar pérdidas por demoras,
ineficiencias, fallos en los equipos o en el proceso de trabajo,
interrupciones, movimiento excesivo, pérdida de productividad y un largo
etcétera de situaciones que persiguen la excelencia, la calidad y la creación
de valor para nuestro cliente, que se sitúa dentro del modelo como lugar
central desde el que analizarlo todo.
Es la “eliminación del desperdicio” o la suma de ellos. Una
“muda” que tenemos que hacer desaparecer y con ello ganar valor para el cliente
siendo mejores en nuestro trabajo.
El concepto de desperdicio puede
hacer referencia a 8 distintos ámbitos. Pueden
existir desperdicios relacionados con la información, con los procesos, con el
entorno físico, con el equipo humano, etc. (“Muda” Transporte, Inventario,
Movimiento, Esperas, Sobre-producción,
Sobre-proceso, Defectos y Mal uso
de las competencias)
¿Cuál es el coste de una mala comunicación interna o de unos
departamentos “estanco” que no se comunican entre sí?, ¿con qué datos “útiles”
tenemos que trabajar y con cuántos trabajamos que no necesitamos?, ¿cuántas
personas tienen que aprobar una decisión o supervisar una tarea determinada?,
¿la responsabilidad de éstos es clara o está difusa?, ¿dónde tenemos “cuellos
de botella” por este tipo de situaciones?
Sin embargo, y manteniendo
presentes las preguntas que acabamos de formular, lo realmente innovador del
pensamiento Lean es que no sólo es una reingeniería de procesos dentro de la
compañía con la que se pretende llegar a una determinada escala o magnitud que
se establece como objetivo y al que el equipo humano debe supeditarse. Es mucho
más, porque el motor de mejora surge desde el equipo humano y el objetivo de
mejora se entiende como un escalón al que se consigue llegar, y desde el que
nos impulsaremos hasta el siguiente nivel de mejora o próximo escalón de
una escalera sin fin dentro de nuestra casa LEAN.
Las figuras de la escalera y la
de la casa, que aparece en la fotografía de inicio, nos ayuda a entender
visualmente en qué consiste el modelo LEAN THINKING.
La casa LEAN se construye gracias a los cimientos de trabajo en equipo,
retos y “Kaizen/ Kaikaku” sobre el que podemos ya sustentar las dos
columnas o pilares que soportan la cubierta del LEAN THINKING (y que consiguen aumentar
la productividad, mejorar la calidad de productos o servicios y garantizar la estabilidad
de los procesos):
La
mejora continua/ y radical (concepto LEAN y sus herramientas)
las
personas (y lo importe de su desarrollo)
Además, podemos decir que el
pensamiento LEAN se expresa en sus 5
principios básicos:
Definir valor desde la perspectiva del
cliente (IDENTIFY VALUE)
Identificar flujo de valor (IDENTIFY
VALUE STREAM)
Optimizar el flujo (FLOW)
Extraer valor y producir por el “tirón”
del cliente (PULL)
Buscar permanentemente la perfección (PERFECTION) mediante los
“talleres de mejora” en equipo o “Kaizen Events” donde se observa y analiza el
proceso creando el “Mapa de Flujo de Valor” actual. Después de diseña el “Mapa Futuro”
que permitirá implementar los cambios acordados para medir el “GAP” de resultados
obtenidos y que se presentarán a la dirección.
Es ahora, por primera vez, cuando
podemos hablar de que “creación de valor” y de la “estabilidad de los
procesos”.
Tenemos que entender que las actividades aportaran valor sólo cuando:
El cliente está dispuesto a pagar por ellas
La actividad transforma un producto o un
servicio
Se han de realizar a la primera (correctamente).
Con respecto a “la estabilidad de
los procesos” decir que aparece en escena, porque sin ella no es posible
entender otro de los conceptos centrales del pensamiento LEAN, que es el “FLOW”
o flujo y que tiene por objetivo reducir
el “lead-time” o tiempo total del proceso de una pieza, documento o servicio,
y que permite descubrir problemas relacionados con la calidad.
Es posible que hayan oído hablar
del “ONE PIECE FLOW” o flujo de una sola pieza. Otro concepto esencial para
entender el LEAN MANUFACTURING y que, para no dejarlo huérfano de explicación,
diré que se basa en los principios de “just in time” o “pull system”.
Se produce sólo lo que el
cliente demanda y donde cada área de trabajo se especializa en una actividad en
particular y provee las piezas, de una en una dentro de un esquema de
producción lineal y continúa.
La teoría se desarrolla a partir
de la búsqueda de mejora de la producción por lotes, y se constata que reduciendo
el número de piezas de lotes a 1 solamente, las piezas fluyen de manera constante
en todas las áreas de producción porque la pieza individual nunca se detiene
durante el tiempo de transformación.
Por eso, el flujo ideal es el de “una sola pieza” (no el comentado por
lotes) que se procesa sin
interrupciones, sin transportes, ni colas ni esperas, y al ritmo (“Takt Time”)
que exige la demanda (“Pull”).
Por tanto, los principios de
funcionamiento cuando se produce siguiendo el método ONE PIECE FLOW son:
La
producción y su ritmo (Takt Time) es definido por la demanda de nuestro cliente
y se mantiene constante gracias al flujo de línea de producción. Sólo se
produce si el cliente lo demanda. Si no hay demanda no hay producción.
No hay un
pedido mínimo. Se produce la cantidad pedida por el cliente.
Cada
etapa del proceso tiene que ser capaz de hacer las 3 siguientes actividades
como parte de su ciclo normal de trabajo:
Inspección de entrada el producto para asegurar
que sea perfecto (desde la estación anterior).
Fabricación siguiendo las especificaciones del
cliente
Inspección de salida o entrega
Una etapa
del proceso “entrega” material sólo cuando las etapas siguientes (que se
entienden como el cliente) lo demandan
(sistema Pull) a través del sistema de reabastecimiento “Kanban” o señal de control de stock.
Pero regresemos al concepto LEAN
THINKING, porque aún no hemos hablado nada ni de las herramientas ni de los beneficios.
Para afrontar con éxito en una
organización la adopción y aplicación de la metodología LEAN son necesarias, además
de la colaboración plena del equipo humano, un conjunto de herramientas (alguna de las cuales ya hemos
nombrado) que enumeramos a continuación:
“5S” (según se nombran en japonés)
Mapa de flujo de valor o “Value Stream Map”
“Kanban” o señal de control de stock
Trabajo estandarizado
Gestión visual
“Jidoka” o auto-calidad
“Poka-Yoke” o sistemas de prueba-error
Cambio rápido de tareas (SMED)
“Heijunka” o nivelación de la demanda
Gestión de la capacidad
“Spaguetti Diagram”
“Service Transction Box”
Gestión de colas
Formato estandarizado de resolución de problemas
“A3”
Con respecto a los beneficios, tenemos que señalar que se obtienen tanto en el ámbito de las
operaciones porque no se tiene un exceso de inventario, expediciones
innecesarias o demasiadas inspecciones visuales en cada proceso, como en el de las personas, ya que se mejora
la participación del equipo humano (que están constantemente buscando mejoras)
y en su seguridad en el trabajo.
Y, con ello como última derivada (de ser más eficientes, de reducir costes originados por la "no
calidad", por tener menos inventarios o mayor satisfacción del cliente)
se consigue un resultado económico
cuantificable en euros que contribuye al éxito a largo plazo y en el
crecimiento de la empresa.
Muy recientemente, en noviembre
del pasado año, Siemens hizo públicos los resultados tangibles de la adopción
de su proyecto LEAN THINKING y los beneficios que ha conseguido la organización
en los últimos 3 años.
Sólo citaré tres de los más
significativos por su concordancia con los ámbitos aquí comentados como son el
de operaciones, el equipo humano y el de resultado económico:
En
el primero, gracias a esta metodología, ha conseguido una reducción del “lead time” (tiempo desde que se inicia el
proceso hasta que se finaliza) de 16
días en apenas un año (de 31 a 15 días desde principio del 2015 a finales
de 2016)
Respecto
del equipo humano, el grado de satisfacción
de los delegados creció 25 puntos en el mismo periodo (2015-2016) aumentado
del 52% al 77%.
Han
conseguido un ahorro de más de 180.000
euros en el periodo de referencia.
Lean Thinking es, por tanto,
un modelo probado y de enorme éxito que desarrolló, en Japón, el ingeniero
Kaoru Ishikawa después de estudiar la experiencia de Toyota y que es aplicado a
entornos tan diversos como la fabricación de coches, trenes, aviones, la
construcción o la industria de viajes, que
exige a la empresa que lo aplica un cambio de paradigma por:
No esconder los problemas
Identificar y solucionar esos problemas donde se
generan (favoreciendo la mejora continua)
La delegación de tareas y el acotamiento de las
responsabilidades en cada nivel de la estructura se imponen a la cultura del clásico
“ordeno y mando”
Poner el foco en el “Flow” del proceso
(reduciendo el “lead-time”) y no sólo en los resultados
Trabajo en equipo
Gestión visual
Para profundizar y ganar en
detalle, por su complejidad, recomiendo el libro “Lean Thinking: Cómo utilizar
el pensamiento Lean para eliminar los despilfarros y crear valor en la empresa”,
(Daniel T. Jones y James P. Womack) y si les interesa, pero no disponen del tiempo
necesario para leerlo, les adjunto un video sobre los 4 principios del LEAN
MANAGEMENT. Encontraran en sus poco más de 2 minutos ideas que poner en
práctica… (https://youtu.be/wfsRAZUnonI).
¡Qué lo disfruten!
Artículo realizado por Javier
Espina Hellín CEO en QLC SLP, doctor en Ingeniería de Sistemas de Información,
MBA y ADE nº colegiado 11.534
No hace falta recordar que los entornos competitivos en los que
operamos la mayor cantidad de las empresas son cada vez más homogéneos,
globales y digitales por lo que la “improvisación”, el “azar” o la
“suerte”, simplemente no tienen cabida.
No voy a negar que exista la
posibilidad de contar con el viento a favor que pueda proporcionarnos
determinado golpe de suerte, pero lo que
resulta clave en la empresa es saber hacia dónde ir y cómo llegar hasta allí,
es decir, contar con una estrategia clara, un plan operativo y de control bien
estructurado, por programas, que nos permitan conseguir aquellas metas que
hemos identificado como diana.
Probablemente no de manera
inmediata, pero con la ayuda de distintos indicadores podremos saber si vamos
según lo previsto…
Esto cada vez tiene más
importancia porque, por ejemplo, el saber detectar las necesidades cambiantes
de tus clientes, cada vez más exigentes, es algo que, además de muy complejo,
es bastante costoso porque necesitas buenos equipos multidisciplinares de
profesionales y buenas herramientas para medir, seguir y analizar un montón de
datos…
El Naming y la Propuesta de Única de Valor es sólo una pieza más en el complejo
engranaje de la puesta en marcha de nuestro plan de marketing, pero que
contribuye de manera importante en la aportación de valor real.
Es el comienzo de todo. La generación
de un nombre (de marca o compañía) es mucho más complejo de lo que podemos
suponer. Es consecuencia de un proceso
creativo con una enorme carga de contenido técnico y de análisis multivariable.
Un nombre (por ejemplo, de una
compañía) tiene que condensar en una sola palabra seguida de una corta frase,
toda la capacidad tecnológica, de producción o de servicio, su “know how”, la
identificación con su sector de actividad y los valores, atributos, emociones y
experiencias que la hacen única y diferente de la competencia.
Es todo un “milagro” (si se me
permite la expresión) y una combinación extraña de emociones consecuencia del
duro trabajo que es necesario invertir en su nacimiento.
Podemos decir que hay 4 características mínimas (CACO) en la
construcción del nombre de marca y es que sea: Claro, Atractivo, Creativo y Original.
Y todos ellos tienen que ser el reflejo de la identidad de la marca, de
sus valores, atributos, experiencias y emociones que la marca quiere transmitir
a sus clientes en su primera impresión.
Proceso de creativo
Existen diferentes métodos y
formas. Particularmente diré que prefiero el método Business Model On Canvas
como paso previo y fórmula complementaria al “diseño de la Propuesta de Valor”.
Pero todo puede empezar definiendo en pocas palabras cuales son:
La identidad
de la marca
Los valores
que las sustentan
Los atributos
que pueden ser asociados o evocados por ella
Las
experiencias que deseamos generar a nuestros “stakeholders”
Y las emociones
que queremos que tengan de nuestros productos/ servicios
Con todo ello, tenemos que
empezar a “jugar” libremente, en la que todos los integrantes de ese equipo
“creativo” busquen asociaciones entre ellas, construyendo nombres compuestos,
palabras relacionadas, etc. Eso es lo que técnicamente se denomina
“Brainstorming” o tormenta de ideas.
Algo que resulta imprescindible
es que sea libre y que no se censure nada de lo que se diga entre las cuatro
paredes en las que estemos “encerrados”.
En el siguiente paso de este
proceso creativo tenemos que definir el segmento de mercado al que está
dirigida la marca.
Esto nos ayudará a conseguir
“coherencia y consistencia” de marca ya que tiene que no sólo tiene que ser
compatible con sus atributos, valores y experiencias, sino que tienen que
funcionar como potenciadores o impulsores de todo aquello que se identifica con
la marca.
El último toque del proceso es
que se cumpla la regla PFCD (Positivo, Fácil, Corto y Duradero en la
mente del potencial cliente)
Desde el nacimiento o de mayor…
La aplicación del Naming puede
ser, como ya hemos avanzado, desde el nacimiento de la idea de negocio o una
vez que esta ya tiene un recorrido en el mercado. Si ya existe y tiene cierta
relevancia entonces, lo que hacemos es “desarrollar la marca”.
Desarrollo de tu marca:
Es muy importante, si la empresa
o marca cuenta con un recorrido previo, porque entonces es esencial analizar la
imagen que ya existe de la marca/empresa para poder señalar aquellos aspectos
“core” (nucleares, esenciales y por la que es conocida la marca) de los que no
lo son tanto, y podemos considerarlos accesorios para afrontar el “restyling” o reformulación de la marca
o nombre.
El objetivo finalista del
proceso de reformulación es que la nueva imagen se ajuste adecuadamente a la
nueva formulación estratégica y cumpla con su función, que no es otra, que
resulte utilizable, práctica, diferenciadora y evocadora.
Implantación
Una vez que concluye la fase más
importante que es la de creación del “símbolo”, recordemos que lo máximo a lo que podemos aspirar es que
se convierta en icono (Nike, Apple y tantos otros ejemplos) lo siguiente
que tiene que ocuparnos es la implantamos del nombre o marca dentro de la
organización.
Puede parecer algo menor, pero no
lo es en absoluto.
Si aceptamos que el verdadero posicionamiento es el que
sucede en la cabeza de nuestros clientes, el poder contar con una
herramienta de evocación tan potente como un buen nombre de marca potenciado
por una frase corta que subraye aquello que nos hace diferentes o mejores,
respecto de nuestra competencia (Propuesta de Única de Valor o PUV), no es algo
de lo que podamos permitirnos prescindir.
La Propuesta de Única de Valor (PUV), según Neil Patel, tiene que
constar de los siguientes elementos:
Un
título, que resuma el beneficio que ofrecemos al cliente.
Un
subtítulo, donde detallamos (brevemente) nuestra oferta (a quién y por qué)
Tres
puntos donde enumeramos los beneficios/ características diferenciales del
producto/servicio
Un
elemento visual (vídeo o imagen), que amplíe tu mensaje.
Podemos decir que los “imprescindibles” son los dos primeros, pero
en términos de comunicación digital (por ejemplo, en nuestra landing page) el
elemento visual cobra especial relevancia. Es mucho más natural de consumir,
más fácil de compartir, más efectivo para conseguir relevancia e, incluso, puede
llegar a ser viral…
La propuesta de valor es el
“primer ladrillo” sobre el que construir nuestra estrategia de marketing y sin
una propuesta de valor (clara) perdemos la posibilidad de guiar a nuestro
target hacia nosotros y reducir su incertidumbre/dudas a la hora de tomar la
decisión de comprarnos.
Desde el momento en el que se apruebe el diseño, la marca y el PUV
serán un solo elemento. Una única forma en la que se presente nuestra empresa o
producto.
Por tanto, el trabajo de
integración y difusión de ambos elementos es imprescindible dentro del proceso
de construcción y desarrollo de marca.
La decoración del local de
trabajo, la oficina, el envase, los diferentes soportes de comunicación
corporativa, las tarjetas de visita, la papelería, el diseño del sitio web, las
acciones en redes sociales, los distintos soportes para la publicidad y
acciones de marketing, etc. todo tiene que ser adaptado para que su resultado
final frente a nuestros Stakeholders siempre sea complementario entre sí,
potenciador e, incluso, evocador de experiencias y emociones que nosotros
queramos transmitir a nuestro “target”.
Subrayar, que si este proceso no
es desde el momento de inicio de la actividad o desde el nacimiento (por seguir
con la terminología que estamos utilizando aquí) y estamos hablando de un
“restyling “la adaptación tiene que ser progresiva.
Desde la utilización de la
anterior imagen y la nueva en un mismo entorno donde es presentada la nueva,
pasearemos a una convivencia diseñada para morir en el corto plazo con la
imagen antigua a la sola utilización de la nueva para ir construyendo por
“sedimentación” su nueva imagen.
Será necesario contar con un plan
de seguimiento y evolución de la marca/ nombre donde poder evaluar tanto el
impacto, la aceptación como la construcción de esos nuevos atributos, valores,
beneficios o experiencias por los que seremos identificados por aquellos que
queramos que sean nuestros clientes.
Artículo realizado por Javier
Espina Hellín CEO QLC SLP, doctor en Ingeniería de Sistemas de Información, ADE nº colegiado 11.534 y Licenciado en Gestión Comercial y Marketing
Estaciones de tránsito con
pasillos interminables. Paciencia infinita a la espera del tren de alta
velocidad. Equipos aparcados en salas de espera interminables. Mientras
sentimos la velocidad de vértigo impactando en el suelo del andén. Nuestras
empresas muchas veces son así. Queremos viajar deprisa, pero nuestra cultura
corporativa nos sienta a contemplar la velocidad del cambio de otros: más
diligentes, más atrevidos, más dinámicos, más flexibles, más visionarios, más
impetuosos que nosotros.
Nos preguntamos por qué algunas
veces nos quedamos atrapados en estos atolladeros, aunque estemos empeñados en
el cambio, la innovación y la sostenibilidad. ¿Qué harían visionarios como Jeff
Bezos, el CEO de Amazon, en nuestro caso? ¿Cuáles son los futuribles de Bezos?
El fenómeno de la velocidad del
cambio que impulsa la innovación constante de la tecnología, además de dejarnos
casi siempre con el pie cambiado, llega tarde a tomar consciencia de la
profundidad que tales transformaciones van adquiriendo para toda la sociedad.
Esto se aprecia, frecuentemente, en la falta de capacidad de reacción de la clase
política, que siempre parece que va a rebufo de los acontecimientos; son pocas las veces
las que diseñan nuestro futuro común como lo hacen los grandes líderes: anticipándose
al devenir.
Este futuro es en realidad
nuestro presente por su forma exponencial de tirarnos a la cara los avances
sociales, científicos, tecnológicos y culturales. Y hacen que nuestra conducta
esté con voluntad de progreso al mismo tiempo que nos invadan los temores sobre
las consecuencias del cambio en nuestras vidas.
Situación que no se puede permitir un líder efectivo que presuma de anticiparse al
cambio, o al menos, de saber gestionarlo para sacar lo bueno de él o neutralizando
aquellos aspectos que sean negativos para personas y organizaciones.
1º) “Una empresa no debería
volverse adicta a ser brillante, porque la excelencia no dura”. (Jeff Bezos)
Jeff Bezos, es el CEO de
Amazon.com, conocido por su visionaria percepción de la realidad, que ha
convertido una idea sobre el comercio electrónico que muchos no entendieron
hace 20 años en la empresa más admirada del mundo, con un valor de mercado que
ronda los 175.000 millones de dólares.
El alcance de lo que Bezos quiere
significar va mucho más allá de la primera impresión que causan sus palabras.
Puede interpretarse en planos distintos, como cierta inercia en el cuidado de
la excelencia en todas sus acciones que llevan a cualquier organización a bajar
la guardia. En una gran cantidad de ocasiones, sucede que al haber llegado
cualquier empresa a liderar o a ser una de las referencias claras del mercado,
se relaja esa fuerza e impulso para mantenerse altamente competitiva y no dejar
que nadie se aproxime.
Otra interpretación, más próxima
a la propia estructura empresarial, es no haber cuidado como se debía al
personal, lo que por más excelencia a la que haya llegado, cuando las personas
no son consideradas como contribuidores decisivos en la medida de lo que se
considera excelente, ven flojear su propio compromiso con la organización, al
mismo tiempo también, que perciben que el proyecto se va quedando obsoleto, o
que se ha perdido esa chispa que la había posicionado en lugar preferente.
La visión de Bezos está realmente
definida por sus objetivos de transformar la forma en que las personas compran
productos, no simplemente como una actividad de venta de libros online.
Tiene una facilidad natural para
re-imaginar nuevas maneras de hacer las cosas, porque se anticipa a lo que los
consumidores van a hacer en un futuro tanto a corto como a medio plazo. Interpreta
mejor que nadie la comunicación humana, que se expresa también a través de qué
cosas preferimos y compramos.
En un mundo cada vez con mayores
dosis de volatilidad e incertidumbre, sus líderes deben tener el valor de
controlar y administrar el riesgo y el miedo que genera el cambio, al mismo
tiempo que diseñan el futuro.
En definitiva, el éxito es un proceso en el que
durante su travesía ha habido que vencer incertidumbre, volatilidad y por
supuesto, el miedo que adquiere diversas formas de presentarse. Sin
neutralizarlos no puede haber futuro posible. Aunque parezca una paradoja, sin
miedo tampoco hay futuro.
Las personas y los equipos están
sometidos a mucha presión en el ejercicio de sus tareas y responsabilidades,
para seguir siendo eficaces sin dejar de perder ni ellos ni la organización,
ese valor humano.
¿Qué enseñanza podemos sacar
de los “ingenieros del futuro” como Bezos?
Bezos representa la figura del
líder efectivo. Una mente preclara que pone como valor a las personas, a
las que quiere interpretar en sus gustos, preferencias, debilidades,
tendencias, etc., siendo él, en gran parte, responsable de los cambios que la
sociedad va introduciendo.
En términos de otro gran líder como Richard Branson:
“en qué podemos facilitar la vida de las personas”, que se ha convertido
en el leit motivdel imperio empresarial que preside.
Uno de los pensamientos que más
satisfacciones le ha dado a Bezos es sin duda cuando dice “nuestro objetivo
es ser la compañía del mundo más centrada en el cliente.
El lugar donde las
personas puedan encontrar y descubrir cualquier cosa que quieran comprar en
línea“. Llegó a convertir en realidad ese sueño, que era un visión
anticipada del futuro.
Cuando se habla de visión a veces
no se concreta, pero Bezos tuvo la fuerza y la capacidad práctica de seguir
convirtiendo futuros en realidades, por ejemplo, cuando revolucionó no sólo la
forma en que las personas compraban libros, sino que también la manera de
leerlos, ya que en durante 2007, la compañía Amazon puso a la venta un novedoso
dispositivo electrónico denominado Kindle, cuya particularidad residía en haber
sido especialmente diseñado para leer libros digitales.
2º) La vision de Rasmus
Hougaard, Jacqueline Carter y Vince Brewerton
Rasmus Hougaard es el fundador y
director general de ‘Potential Project’, una firma de liderazgo global y
desarrollo organizacional que da servicios a empresas como Microsoft,
Accenture, Cisco, entre otras. Su segundo libro de próxima aparición ‘The
Mind of the Leader – How to Lead Yourself, Your People and Your Organization
for Extraordinary Results (HBR Press, a publicarse en marzo 2018) (La mente del
líder: cómo liderarse a sí mismo, su personal y su organización para obtener
resultados extraordinarios) ‘.
Jacqueline Carter y Vince
Brewerton
Jacqueline Carter es socia y
directora para Estados Unidos de ‘Potential Project‘ y coautora con
Hougaard de ‘La mente del líder’ ya referido.
Brewerton es un especialista en
estrategia organizacional y es director para Canadá de ‘Potencial Project’.
Ayuda a los líderes y sus equipos a mejorar el rendimiento y el bienestar
mediante el entrenamiento de la mente.
Después de muchísimas horas de
análisis y experimentación de la conducta humana en las organizaciones,
Hougaard, Carter y Brewerton nos ilustran con una posición muy interesante que
deben de tener en cuenta los líderes responsables de la toma de decisiones, así
como todas las personas que están compartiendo proyecto, anhelos y
colaboracionismo profesional.
De ahí que sostienen que cuando
queremos saber si nuestras acciones y formas de hacer las cosas nos van a dar
buenos resultados, la prueba del algodón irrefutable es saber qué piensan las
personas de la empresa sobre la cultura corporativa impuesta, las políticas
empresariales tomadas, los proyectos o la planificación en curso.
Claro está, que así descritas,
son como una especie de software que funciona de manera abstracta y que compone
el mecanismo operativo diario de cualquier organización. Pero detrás de todas
esas acciones, existe personas que las toman y muchas otras –todo el personal-
que forma parte de las mismas y contribuye en su cuota parte a que los
resultados finalmente sean los perseguidos. Estos investigadores priorizan la
interacción y el compartir objetivos, no sólo tareas.
En
una encuesta de participación de Gallup 2016, encontramos que el 82% de los
empleados consideraba que sus líderes son poco "inspiradores".
En otros estudios e
investigaciones de psicología organizacional, se llega a la conclusión que el buen liderazgo pasa necesariamente
por satisfacer las ambiciones, esperanzas, desarrollo de carreras personales y
profesionales.
El compromiso y credibilidad que las personas tengan en sus
jefes y/o en el máximo responsable de una organización, es cuando existe la
reciprocidad expresada también en
compromiso, palabra dada, favorecer el clima de trabajo, preocupación por la
capacitación y la formación, así como la convicción de que priman las personas
por sobre cualquier otra consideración.
Esto lleva a que personal,
responsables de la dirección y mandos intermedios, puedan estar en el
camino de la excelencia externa en cuanto a lo que de la empresa se dice y
reconoce en el mercado, porque previo a ello hay un proceso operativo que
además de ser mecanicista y funcional, tiene una profundidad mucho mayor
sustentada en asumir como principal activo el factor humano, de cuya eficacia
saldrá hacia el exterior el valor de marca y la reputación
corporativa (excelencia).
Hougaard, Carter y Brewerton
aciertan de pleno en que los líderes que entienden aquellas necesidades básicas
de lo que significa para cualquier persona, el buen trato, la proximidad, nivel
de satisfacción y felicidad razonable por estar compartiendo un ambiente de
trabajo sano, etc., dispara la voluntad y entrega de hacer todo lo necesario
para que el trabajo compartido, la cohesión de equipos, la comunicación
abierta, etc., formen parte de ese patrimonio que la cultura corporativa más
moderna y humana exige.
Cuando el líder comprende estos
sentimientos de las personas (pero especialmente los percibe porque tiene esa
sensibilidad para comprender las motivaciones que cada una tiene en su
interior), tiene el mayor poder que se le puede otorgar a un directivo con
responsabilidad de dirigir a personas y equipos: gestionar con ecuanimidad ese
compromiso, dedicación, lealtad, etc., que cada empleado ha entregado a la
empresa y sus jefes.
El líder al actuar de esta manera ejerce liderazgo
más que gerencia. Gestionar lo pueden hacer la mayoría, pero liderar sólo unos
pocos.
Hougaard, Carter y Brewerton
afirman que se está produciendo un movimiento
global en el nivel ejecutivo de miles organizaciones que pueden ser
consideradas progresistas, como Accenture, Marriott, Starbucks, Microsoft
y LinkedIn. Llegaron a la conclusión, que los líderes de estas organizaciones
se preguntan a sí mismos: “¿cómo podemos crear más liderazgo humano y
culturas centradas en las personas donde los empleados y los líderes están más
satisfechos y comprometidos?”
Entonces, la meta de un líder (lo
decimos nosotros) en cuanto a cualquier decisión que tome y acción que
emprenda, pasa a formar parte de un “dominio emocional” (término que ellos
emplean y compartimos), de manera tal de asegurarse que su posición jerárquica
y poder no le haga perder esa sensibilidad y percepción real de las cosas que
suceden a su alrededor, especialmente con sus empleados.
Ellos lo dicen de manera directa
y clara: “ponte en sus zapatos e imagina que son familiares o amigos”. Lo que se pretende es al menos intentarlo y convertirlo en
un buen hábito de liderazgo.
El buen líder es consciente de
sí mismo
Hougaard, Carter y Brewerton
ejemplifican que un CEO mejoró enormemente el compromiso y el rendimiento de
los equipos del banco que dirigía, al hacerse más consciente de sí mismo.
¿Podemos compartirlo?
Es importante que el líder
comience con una de sus prioridades fundamentales en las relaciones
interpersonales con todos sus equipos y/o departamentos, que es ejercer el
entendimiento y la comprensión de los demás; pero a partir de comprenderse más
a sí mismo. O sea, tener plena consciencia de quién es, qué hace y cuál es su responsabilidad
hacia los demás, porque todo ello hace que cualquier forma de egocentrismo que
aún anide en ese líder, quedará perfectamente neutralizada.
Estos investigadores dicen que
cuando se empatiza con las personas a las que se lidera, se produce una “motivación
intrínseca”.
Entendemos esta postura intelectual en la práctica, como el
abierto compromiso que se establece de manera tácita entre empleados, jefes y
organización. Afirman que el liderazgo comienza
con la autoconciencia y ésta puede mejorarse mucho mediante la práctica de la
atención plena”.
Es evidente que el liderazgo
trata de las personas y la organización que tú lideras.
Una ciudad que ocupa 21 km2
, que contiene un conjunto de monumentos arqueológicos impresionantes, situada
a unos 40 km. de México DF y que desde finales de los años 80 está considerado
Patrimonio de la Humanidad por la UNESCO.
Pero lo que llamó mi atención,
además de sus dimensiones (contiene la tercera pirámide más grande del mundo y
su apabullante belleza arqueológica), es que “Teotihuacan” habiendo sido el centro urbano con mayor densidad poblacional durante
su periodo de esplendor precolombino en Mesoamérica, de pronto, la ciudad quedó
completamente abandonada y toda su cultura, su compleja escritura, sus
conocimientos astronómicos se perdieron. Todos los esfuerzos y logros de
generaciones se desvanecieron en el tiempo…
Sabemos que fenómenos
meteorológicos tan actuales como “el niño” y “la niña” marcaron profundamente
su presente. Los periodos de sequía y lluvias se sucedían y los “chamanes” se
esforzaban por encontrar un ciclo adivinatorio que les ayudase a prever
siembras y cosechas. Volúmenes de grano y control de excedentes. En definitiva,
ser capaces de mantener un nivel de población en continuo crecimiento y atender
sus necesidades crecientes porque su verdadero tesoro era la obsidiana.
Un vidrio volcánico con una composición similar al granito, de color negro,
verde muy oscuro e incluso rojo. Su propiedad más apreciada, en el pasado, era
su precisión para el corte y la perforación.
Por el comercio de la obsidiana,
y a sus pingües beneficios, surgió una élite de ricos comerciantes que, desde
la Ciudadela, gobernaban la ciudad y controlaban al resto de una población
compuesta por una ingente mano de obra, muy barata, que, por efecto de la
migración desde el interior, no dejaba de llegar a este próspero centro urbano…
Una historia que, hasta este
punto, por repetida, nos resulta mucho más que familiar.
Si cambiamos la obsidiana por el
carbón, el petróleo, el oro, el caucho o cualquier otra materia prima
apreciada, en determinado momento histórico, y relativamente escasa (aunque con
volúmenes de extracción estables) podríamos cambiar el nombre de la ciudad
mexicana por otro cualquiera en ese mismo continente o en otro y, los guarismos
de su fecha por otros de la historia contemporánea, moderna o antigua.
Sólo resta un factor adicional: el canje de vidas por prosperidad o riqueza
(buenas cosechas) y la creencia en unos
dioses “contables” que a cambio de un apunte en su “haber” exigían un “debe” de
juventud, sangre y pureza.
Una práctica común en ese tiempo
y de enorme crueldad, visto desde nuestra perspectiva histórica de sociedad
postmoderna desarrollada.
La avenida principal de la ciudad
o “la Calzada de los Muertos” es donde se sucedían todo tipo de ceremonias y
actividades sociales. Un camino de más de 2 km de recorrido desde el recinto de
la pirámide de la Luna hasta la Ciudadela. A ambos lados palacios y templos.
Las pirámides del Sol y la Luna, el Palacio de Quetzalcoátl o el templo de la
serpiente emplumada y el Palacio de los Jaguares.
Las últimas investigaciones arqueológicas apuntan que el ocaso de esa
civilización, y el posterior abandono de cuanto fue y significó durante más
de 700 años, se debió a una tensión
social insoportable, solamente explicada por la enorme desigualdad social
existente entre la élite y quienes sostenían esa sociedad.
Una revuelta social incontrolable
fue la que acabó con el status quo y la estructura de poder, revelada por los
signos de hollín y fuego que se repiten en todas las sofisticadas casas, que
hoy se encuentran en las ruinas de la delicada Ciudadela, bellamente
ornamentada y con frescos florales en sus fachadas.
Entonces, ¿la desigualdad social conduce siempre a una tensión social
insoportable que hace saltar por los aires la convivencia conocida hasta esos
momentos?
Un reciente estudio, publicado el
pasado mes de noviembre en la prestigiosa revista Nature, llevada a cabo por
investigadores de 14 instituciones muestra la evolución de la desigualdad a lo
largo de la historia posneolítica en Eurasia y América ayudándose del
coeficiente de Gini.
Este coeficiente viene
determinado por un número entre 0 y 1, que a veces se multiplica por 100, y que
nos dice que el 1 es la desigualdad perfecta (una persona tiene todos los
ingresos/ riqueza y los demás ninguno). Analizar lo que se desprende de este coeficiente
por países nos hace más que pensar…
Pongamos el ejemplo de los países
más desiguales: EEUU muestra un valor creciente desde el 0,8 hasta el 0,85 (según
la fuente y el año) y China tiene un Gini de 0,73 (en comparación con España que
tiene un 0,58).
Otros países como Grecia presentan
un 0,56, Islandia un 0,38 y Noruega un 0,41.
Si tomamos Europa y EEUU, podemos
decir que menos en Francia, hay un aumento de la desigualdad en todos los
países. Destaca, como hemos visto, Estados Unidos, paradigma de economía poco
regulada, donde la desigualdad es muy alta y continuadamente creciente.
En el caso de España, y a pesar
de contar en la década de los 80 una desigualdad muy similar a la francesa, en
el periodo que transcurre desde 1990 al 2011 nuestro Gini se sitúa en niveles
comparables con el Reino Unido, en plena subida del índice como consecuencia de
las medidas económicas adoptadas por Thatcher, es decir, la diferencia entre
dos hogares tomados al azar creció un 20% de la renta media.
¿Son consistentes estos datos con la percepción que tenemos de esos
países en términos de desigualdad?
Parece que existe una cierta correlación
“intuitiva” por territorio. Asociamos una mayor igualdad en sociedades del
centro y norte de Europa y una menor en lugares como EEUU y China.
Según Kohler, de la Washington
State University e investigador principal del estudio mencionado junto a sus
colaboradores (Greater post-Neolithic
wealth disparities in Eurasia than in North America and Mesoamerica, Nature
nº551, 619–622, November 2017), "la desigualdad altera de manera
importante la sociedad que la provoca e incluso, puede llevarla al colapso" (como
parece que fue el caso de Teotihuacan).
Además, “la desigualdad tiene un
montón de efectos perniciosos sutiles sobre las sociedades”, dice Kohler
después de haber estudiado 63 yacimientos arqueológicos en América del Norte,
Europa, Asia y África en un rango de antigüedad que llega a los 11.000 años.
Resulta curioso comprobar como la
población humana cuando era cazadora y recolectora era mucho más igualitaria
que ahora, con un índice Gini cercano a 0 (0,17) y la desigualdad entre pobres
y ricos fue aumentando casi en la misma medida que las sociedades agrícolas y
ganaderas iban evolucionando (desde 0,27 a 0,35).
Además, el estudio arrojaba otra
conclusión preliminar, “las poblaciones mayores, con sistemas políticos más
complejos (como Estados) y regímenes más autoritarios también resultaron estar
más asociados con un mayor grado de desigualdad”.
Los valores más altos de
desigualdad en la antigüedad, identificados en el estudio, se muestran en el
periodo desde el 6.000 antes de Cristo y en el siglo I después de Cristo. Los
valores del coeficiente Gini oscilan entre 0,48 y 0,60. En concreto, en nuestro
“viejo mundo” la desigualdad descrita por un Gini era de 0,59.
Sorpresivamente muy similares a
los valores ya comentados de nuestro mundo contemporáneo, España en particular
(0,58) pero, significativamente inferiores a los, también mencionados, de China
(0,73) y EE.UU (0,80-0,85).
No por casualidad, es en este último
país donde se acuña un nuevo término: “billionaire” para denominar el club
donde se concentran los que cuentan con una fortuna superior a los mil millones
de dólares.
Son muchos colegas economistas
los que asocian la implantación del neoliberalismo y el relajo regulador a una
mayor desigualdad. Otros factores agregados como la globalización y e-commerce
hacen que determinadas economías de escala alcancen valores nunca vistos antes
(hace muy pocos días, el dueño de Amazon superaba a Bill Gates en la lista
Forbes).
El gran problema, es que las sociedades
donde la desigualdad es alta, la movilidad social para los individuos que la
componen es baja. Hace mucho más difícil que por mérito, formación y trabajo se
pueda “ascender” en la escala social. De manera, que los contenidos en cada
estrato social de dicha escala tienden a perpetuarse y que cada escala se
separe un poco más de la anterior y de la siguiente. Se conforman, entonces,
“escalas estanco”.
Kohler nos indica que la tasa de movilidad ha caído más de 40
puntos porcentuales en solo 4 décadas. Desde un 90% para los nacidos en 1940 a
un 50% para los que lo hicieron en los años ochenta.
Pero siendo, este dato
suficientemente descriptivo, otros estudios han encontrado que las
sociedades con desigualdad tienden a tener peor salud y sus habitantes son menos
proclives a confiar los unos en los otros y están menos dispuestos a ayudarse
entre sí, es decir, la solidaridad social tiende a ser menor.
“La gente necesita ser consciente
de que la desigualdad puede tener efectos deletéreos en la salud, la
movilidad, el grado de confianza o sobre la solidaridad social”, nos dice
Kohler.
Es muy interesante, detenerse un
instante en el adjetivo que utiliza, el autor del estudio, para describir los
efectos de la desigualdad. Deletéreo significa “destructor”. El término hace
referencia a aquello que es venenoso o mortífero. Que causa o puede causar la
muerte por envenenamiento.
Hace referencia, pues, a una
potencial muerte de nuestras sociedades contemporáneas por la desigualdad. “No
nos estamos ayudando a nosotros mismos siendo tan desiguales”, añade.
Y es en este punto donde se
conectan las dos historias de este artículo. La historia de Teotihuacan y la
historia de la desigualdad.
Walter Scheidel, en su libro “The
Great Leveler”, nos dice que la disminución
de la desigualdad es extremadamente difícil de conseguir en una sociedad
mediante procedimientos incruentos porque “usualmente viene acompañada de
revoluciones, plagas o un estado de colapso”.
Si aceptamos que la desigualdad social actual es el resultado conjunto
de diferentes factores interrelacionados, podremos actuar sobre ellos para
mitigar o, incluso, revertir sus efectos “deletéreos”. A continuación, señalo
algunos de ellos:
la reducción de los precios del capital
productivo que provoca una caída de la participación del trabajo en la renta
el nuevo paradigma tecnológico que sesga la
demanda en favor del trabajo cualificado
la globalización y los cambios que ha provocado en
el sistema tributario de muchos países reduciendo la carga fiscal sobre las
rentas más altas
la influencia de una nueva corriente de
pensamiento neoliberal en las políticas económicas
y
coyunturalmente, por efecto de la última crisis económica, los efectos negativos
y crecientes, a este lado del Atlántico, en el Estado del Bienestar (incluidas
las últimas reformas laborales)
El aumento en los índices de
violencia, de conflictividad social y laboral son claros indicadores de ese
malestar social asociado a la desigualdad.
Personalmente, no creo que sea
el momento de “verdades ideológicas únicas” si no el de “un pragmatismo
crítico” que, con la ayuda de la historia, nos ayude a identificar los errores
que cometimos en el pasado para no repetirlos en una suerte de amnesia
colectiva y global.
La precariedad laboral que existe
en nuestro país y en otros países de nuestro entorno no es un hecho del que
estar orgullosos y, menos aún, cuando lo comparamos, por ejemplo, con el
aumento retributivo de quienes conforman los consejos de dirección y altos
ejecutivos del IBEX 35.
Según un estudio publicado por
PWC, su retribución mínima subió en el pasado 2016 un 6% hasta los 121.734
euros mientras que la máxima creció un 11% hasta los 218.838 euros.
Mientras tanto, el salario medio
en España subió un 1,1% en 2015, situándose en 23.106 euros, y donde el propio INE
señala que el salario más repetido, no la media, fue de 16.500 euros anuales.
Es decir, 6.000 euros menos que su valor medio.
Si nos centramos en el sueldo de
los más jóvenes, el valor empeora notablemente y no llega a los 10.000 euros al
año.
Pero, siendo dos realidades objetivas
que nos perfilan los límites de la realidad salarial en cada extremo opuesto, es
innegable que estamos asistiendo a un intenso proceso de devaluación salarial
que comenzó en 2009 y que ha afectado más directamente a los trabajadores y
mandos intermedios que a las posiciones de dirección.
Así concluye el informe Evolución
Salarial 2007-2015, elaborado por el grupo ICSA y la escuela de negocios EADA,
en donde han tenido en cuenta 80.000 datos de remuneraciones de empresas
públicas y privadas.
“Deberíamos de estar muy preocupados si en los
EEUU el coeficiente de Gini alcanza un valor alto, porque podríamos estar
invitando a una revolución o facilitando un estado de colapso. Sólo hay unas
pocas cosas capaces de disminuir nuestro Gini dramáticamente”, nos adelanta Kohler.
Artículo realizado por Javier
Espina Hellín CEO QLC SLP, doctor en Ingeniería de Sistemas de Información y titulado en empresariales con nº colegiado 11.534
El artículo 305.1 del Código Penal sanciona a quien por acción u
omisión, defraude a la Hacienda Pública estatal, autonómica, foral o local,
eludiendo el pago de tributos, cantidades retenidas o que se hubieran debido
retener o ingresos a cuenta, obteniendo indebidamente devoluciones o disfrutando
beneficios fiscales de la misma forma, siempre que la cuantía de la cuota
defraudada, el importe no ingresado de las retenciones o ingresos a cuenta o de
las devoluciones o beneficios fiscales indebidamente obtenidos o disfrutados
exceda de ciento veinte mil (120.000 €)
Euros,
salvo que hubiere regularizado su situación tributaria en los términos del
apartado 4 del presente artículo.
Para la consumación de este
ilícito penal se exige que la defraudación a la Hacienda Pública se cometa en una cantidad
superior ciento veinte mil (120.000 €) Euros,
y que la conducta del infractor tanto activa como omisiva, se realice mediando dolo, lo que significa que el delito se debe cometer voluntariamente y a sabiendas de su ilicitud.
Para determinar la cantidad defraudada se debe estar a la cuantía en cada período impositivo o de declaración.
Por lo que se refiere a la pena
prevista en el tipo básico del delito
fiscal, cabe distinguir entre si el sujeto infractor es una persona física
o si es una persona jurídica (como por ejemplo una sociedad mercantil o empresa), de
manera que:
Si
el infractor es una persona física la pena a imponer será la de prisión de 1 a 5 años, multadesde el 100% hasta el 600% de la cantidad defraudada, y la pérdida de la posibilidad de
obtener subvenciones o ayudas públicas y del derecho a gozar de los beneficios
o incentivos fiscales o de la Seguridad Social durante el período de tres a seis años.
Pero si
el sujeto infractor es una persona jurídica (como por ejemplo una sociedad mercantil
o empresa) la pena a imponer según el
artículo 310 bis del Código Penal, será
de multadesde el 100% hasta el 200%
de la cantidad defraudada, la pérdida de la posibilidad de obtener
subvenciones o ayudas públicas y del derecho a gozar de los beneficios o
incentivos fiscales o de la Seguridad Social durante el período de tres a seis años, e incluso otras penas
como:
o
Disolución
de la persona jurídica (como por ejemplo una sociedad mercantil o empresa).
o
Suspensión
de sus actividades por un plazo de hasta cinco años.
o
Clausura
de sus locales y establecimientos por un plazo de hasta cinco años.
o
Prohibición
de realizar en el futuro las actividades en cuyo ejercicio se haya
cometido, favorecido o encubierto el delito.
o
Intervención
judicial para salvaguardar los derechos de los acreedores por el tiempo que
se estime necesario.
Asimismo, hay que subrayar que el tipo básico del delito fiscal prescribe
a los cinco (5) años desde la fecha de su consumación, es decir, desde el día
siguiente de la fecha de finalización del período voluntario de declaración y/o
de pago.
En Qualitas Lex Consulting nos ponemos a tu disposición para diseñar y
ayudarte a implementar con eficacia tu propio Código de Compliance, que atienda
a los riesgos reales de tu actividad y a las distintas áreas de negocio de tu
empresa inclusive el área fiscal y tributario.
La responsabilidad penal de las personas
jurídicas: el delito de blanqueo de capitales.
Los elementos
necesarios para que surja la responsabilidad penal de una persona jurídica se
contienen en el vigente artículo 31 bis
del Código Penal y se resumen en:
a) La
comisión de una concreta actuación delictiva por parte de los administradores y/o
los directivos de la persona jurídica, o bien por aquellas personas autorizadas
para tomar decisiones en nombre de la persona jurídica o que ostenten
facultades de organización y control dentro de la misma. Este es el llamado sistema de atribución de responsabilidad vicarial,
por transferencia o por representación.
Igualmente, la comisión
de determinados delitos por parte de personas físicas integrantes de la
organización de la persona jurídica, indebidamente controladas por sus
administradores, por sus directivos y/o por los representantes de la propia persona
jurídica. Este otro es el denominado sistema de atribución de responsabilidad penal
basada en la culpa por defectos en la organización.
b) Que
la conducta delictiva se encuadre dentro de aquellos tipos del Código Penal que prevén la imposición de penas para las
personas jurídicas. Tal es el caso, por
ejemplo, del delito de blanqueo de capitales previsto y penado en el artículo
301.1 del Código Penal.
c) Que
concurra un innegable provecho o beneficio directo para la persona jurídica.
d)
Que la persona jurídica carezca de un sistema
efectivo de control implementado para anular o, al menos, disminuir eficazmente
el riesgo de comisión en el seno de la empresa de ese delito. La persona
jurídica puede exonerarse de responsabilidad total o parcialmente -porlos
delitos cometidos por otros- si logra probar la existencia, la implantación
y la eficacia para detectar y prevenir el delito, de un programa de cumplimiento normativo o Código de Compliance.
En el ámbito de la responsabilidad
penal de las personas jurídicas tiene especial relevancia el delito de blanqueo de capitales, tanto por la amplitud y como por
la extensión en que está configurado objetivamente el tipo penal, que prevé
actos como “el que adquiera, posea, utilice, convierta, transmita o realice
cualquier otro acto para ocultar o encubrir el origen ilícito de bienes
procedentes de una actividad delictiva...”.
Pero es que
incluso, el artículo 301.3 del Código Penal prevé la modalidad de comisión culposa
cuando dice “si los hechos se realizaran por imprudencia grave “.
Todo esto se
traduce en que las personas jurídicas pueden resultar penalmente responsables
de un delito de blanqueo de capitales
cometido “por otros”, si en
virtud de lo que se conoce como diligencia
debida, está llamada a implementar y a ejecutar eficazmente modelos y
planes de detección y prevención del blanqueo de capitales en su propia
organización y en sus procesos, y con total y absoluta inobservancia de sus
deberes de control y supervisión, no hace nada al respecto.
En Qualitas
Lex Consulting nos ponemos a tu disposición para diseñar y ayudarte a
implementar con eficacia tu propio Código de Compliance, que atienda a los riesgos reales de tu
actividad y a las distintas áreas de negocio de tu empresa.
Hay dos frases que cuando
hablamos de Transformación Digital siempre me vienen a la cabeza porque nos sitúa,
de manera intuitiva, ante los dos ejes disruptivos del fenómeno: el poder de los datos y la filosofía de
trabajo que, bajo el uso intensivo de tecnología y sus herramientas, nos debe guiar:
“Sin
datos, usted no es más que otra persona con opinión” Dr. Deming (Four Days with
Dr. Deming)
“Cuando
cambiamos la forma de mirar las cosas, las cosas que miramos cambian” Dr. Wayne
Dyer (Tus zonas erróneas/ psicología cognitiva)
Todos nosotros somos testigos
y actores involuntarios (o no) de la “transformación silenciosa” más importante
nunca antes vivida y que acontece en tiempo real y de manera imparable: la 4ª revolución industrial.
Una revolución “de bolsillo”
porque es través del “smartphone” que llevamos encima en todo momento, a
diferencia de la Tablet o del ordenador/PC que utilizamos en el trabajo o en
casa, desde donde todo sucede. Es uno de los elementos del principio y
el fin más popular del proceso. El lugar desde donde se originan miles de
inputs y a donde llegan miles de propuestas “personalizadas”.
Nos hemos acostumbrado a su uso intensivo. Para todo. Para comprar,
para “cotillear”, para interactuar en nuestro entorno digital, para ampliar
nuestro propio yo ideal, para consultar nuestro email, para llegar a un lugar o
para buscar desde un trabajo a nuestra “media naranja”. Es nuestro dispositivo “omnipresente”
y, paradójicamente, a quien más echamos de menos si no está con nosotros
(recuerdan lo que es la “nomofobia”).
Y, ¿por qué?
Pues porque es fácil, intuitivo,
moderadamente pequeño, a “todo” color y porque nos permite hacer consultas en
tiempos inferiores a 5 segundos, que recibamos notificaciones en tiempo real (con
información personalizada) y porque nos inserta en el mundo en un solo “click”.
En término medio, interactuamos con nuestro terminal de
última generación, en 4G, más de 150
veces cada día.
Por eso es una transformación tan
silenciosa como cotidiana. Tan recurrente como imparable y que es posible por
la concurrencia de 2 factores:
la
altísima tasa de penetración de los smartphones, que en España, es de un 84% (superando
11 puntos que la media UE)
que
las Tecnologías de la Información (IT) duplican anualmente su capacidad y
mejoran su relación calidad/ precio siguiendo, e incluso superando, lo que nos
adelantaba la famosa Ley de Moore.
Una verdadera revolución tecnológica de impacto exponencial y que ya
nos permite hablar del Big Data,no
como algo abstracto de gran valor sino como de una tecnología de uso común y
que ya se aplica, con enorme éxito predictivo y de ahorro, en muy diferentes
sectores e industrias.
Un sinfín de dispositivos se
encargan de la recogida de información (cada Click en Amazon, compra pagada con
la tarjeta, lecturas de contadores de electricidad o gas marcan digitalmente
nuestro consumo, opiniones, imágenes, compras online, uso de apps, billetes de
avión, mensajería, el GPS, el sistema domótico, medicinas, nuestra nómina, el
pago de la hipoteca, etc.)
No olvidemos que hay más de 30
millones de sensores interconectados en distintos sectores. Y creciendo a
un ritmo de un 30% anual.
El poder del Big Data se basa,
pues, en la información y en la explotación de datos (simples en su
recogida y muy complejos en su explotación, que permite al mundo corporativo un
conocimiento mucho más ajustado sobre nuestros patrones de consumo,
preferencias, comportamientos de compra, medios de pago y un sinfín más de
aplicaciones prácticas.
Esto es posible porque el Big
Data combina un conjunto de modelos predictivos, estadísticas, inteligencia
artificial, procesamiento en lenguaje natural, redes neuronales, patern
matching, y demás técnicas algorítmicas, mucho más complejas que las técnicas
habituales de las bases de datos transaccionales, que son capaces de encontrar tendencias
globales y conclusiones fruto de un “tremendo y muy complejo” análisis de
conjunto.
Pero seguro que también habrán oído
el término, “Business Intelligence”.
En este caso, consiste,
esencialmente, en encontrar detalles significativos en datos simples
identificando “una correlación concreta” dentro de la masa de datos.
Según IBM es “una tendencia tecnológica para entender y tomar decisiones […]
aplicable a toda aquella información improcesable con herramientas
tradicionales”. ¿Recuerdan Minority Report y las predicciones que
anunciaban un “precrimen”?
El objetivo final es la
extrema personalización de contenidos, la identificación de microtargets
rentables (marketing biométrico, aplicaciones en mk. político, recomendaciones
en Amazon, etc.) y conseguir la plena satisfacción de nuestros clientes(https://youtu.be/7bXJ_obaiYQ)
(https://youtu.be/PJqbivkm0Ms), (https://youtu.be/XhFs2jJmOnY)
Porque estamos hablando de cómo llegar a nuestros potenciales clientes desde
el comienzo.
Se han preguntado ¿cómo
sus clientes?, ¿Cómo y en qué están cambiando?, ¿por qué me eligen a mí y no a
mis competidores?
El cambio en el comportamiento,
preferencias y decisiones de “nuestro” cliente es, también, muy profundo. Veamos
algunos detalles:
Existencia de una brecha digital (Millenials,
generación Z y anteriores)
Perfil más exigente, con mayor experiencia de
consumo, menos fiel y con una capacidad de actuación e influencia creciente y
en “tiempo real” (uso de redes sociales)
Mercados cada vez más homogéneos y maduros
Irrupción de nuevos competidores con modelos de
negocio que alteran el “status quo” del sector
Además, nos enfrentamos a un
entorno normativo mucho más intrusivo y exigente que nunca por la irrupción de regulaciones
“globales” en términos de gobierno corporativo, protección al consumidor,
observancia obligatoria de información y reporte ante la Administración.
Los datos del último informe OBS sobre
Big Data y Business Intelligence son reveladores.
El 65% de las empresas saben que corren el
riesgo de convertirse en irrelevantes o no competitivas si no adoptan
herramientas de Business Intelligence y/o Big Data
El tráfico de datos móviles ha crecido 4.000
veces en los últimos 10 años y casi 400 millones de veces en los últimos 15
años
En los próximos 2 años, hasta el 75% de las
empresas invertirá en Big Data/ herramientas de Business Intelligence
(tecnologías OPEN SOURCE, DATA LAKE, etc.).
Wi-Fi: los puntos de acceso públicos se multiplicarán
por 7. De 64,2 millones (2015) a más de 432 millones en 2020.
Volumen de descargas: aumento de un 51% hasta el
2020.
En 2020, se estima que habrá 601 millones de
dispositivos portátiles en el mundo. Se multiplicará por 5 el dato actual (97
millones)
Ante esta situación, parece
clero que la Transformación Digital es inevitable y llega a nosotros para
quedarseporque “ninguna compañía
puede confiar en que su cadena de valor va a permanecer inalterable”(España 4.0 El reto de la información digital de la
economía, 2016, Siemens/ Roland Berger)
Pero, ¿cómo lo hacemos?, ¿cómo
deben afrontar las empresas la Transformación Digital?
Tenemos que tener en cuenta las 4 claves de la Transformación Digital
para llevar a cabo este proceso y que implica un cambio profundo en la manera
de pensar y gestionar nuestra organización, según comentaba al comienzo de este
artículo a propósito de las dos frases con las que comenzaba:
“El cliente está en el centro y es el
principio y fin”. La transformación digital sitúa al cliente en el centro
de todo”.
Un cliente
nuevo que demanda atención personalizada, más calidad de servicio y
“proactividad” del quien elige como “proveedor”. La utilización intensiva de
datos de cliente basado en Big Data es fundamental.
Un indicador
fundamental es el seguimiento de los clientes insatisfechos.
¿Por qué se
van?, ¿qué necesidades no estamos cubriendo?, ¿qué es lo que realmente valoran
de nuestra oferta, y qué no?
“El
e-inclusion como parte de la redefinición del modelo”
En nuestro
equipo humano está la fuerza del cambio. Nuevas fórmulas de trabajo que aporten
flexibilidad, autonomía y acceso transparente y permanente a la información.
“La
empresa como parte de un ecosistema”
La
transformación digital hace posible que nuestro entorno (Stakeholders) se
transforme en un aliado.
La analítica
avanzada ha revolucionado la toma de decisiones en un negocio, que ya es
global, y en donde cada día surgen nuevas formas de interactuar y relacionarse
con sus “Stakeholders” (recuerden, todas las personas, organizaciones y
empresas que tienen interés en nuestra empresa. Es decir, empleados, clientes,
proveedores de bienes, servicios y de capital, la comunidad, y la sociedad en
su conjunto).
Tenemos
que permanecer abiertos a un entorno colaborativo que nos ofrece oportunidades
de crecimiento y desarrollo.
Representa un
cambio profundo en la manera de gestionar la empresa: “La transformación
digital tiene que estar dentro de nuestros planes estratégicos”. Un ejemplo
puede ser las startups que naciendo como potenciales competidores pueden integrarse
y llegar a ser parte de nuestra empresa….
La transformación
digital o la digitalización de las empresas abre puertas a nuevas oportunidades
de negocio y, a la vez, a una racionalización de los procesos que se traducen
en los ahorros de costes que aparecen en la imagen incluida junto al título…
Artículo realizado por Javier
Espina Hellín CEO QLC SLP, doctor en Ingeniería de Sistemas de Información y
especialista en marketing
Hace muy pocos días se ha dado un
paso más en el mundo de la inteligencia artificial (AI) con la creación de una
red neural recursiva.
Dicho así no parece que sea gran
cosa, pero si lo referenciamos al hecho que ha sido capaz de resolver con una
eficacia del 96% una de las máquinas más complejas jamás desarrollada para
cifrar mensajes y que necesitó de las mejores mentes del pasado S. XX para ser
descifrada, es probable que adivinemos su real importancia y el papel que puede
tener en el denominado aprendizaje profundo (deep learning).
Me estoy refiriendo a la máquina
“enigma” que desarrolló el Servicio de Inteligencia de la Alemania nazi para
proteger sus mensajes cifrados de las fuerzas aliadas en la Segunda Guerra
Mundial. (https://youtu.be/G2_Q9FoD-oQ)
Lo cierto es que el trabajo que,
entonces, llevaron a cabo un puñado de hombres y mujeres de ciencia
(matemáticos, criptólogos, estadísticos y especialistas en lingüística) fue tan
intenso y complejo como desconocido e ingrato para sus partícipes. De hecho, la
única excepción fue la de Turing, que con sólo con el tiempo y la ayuda de
Hollywood su nombre nos es más familiar, a pesar de ser considerado el padre de
la informática. (The imitation
game. Morten Tyldum, 2014, Benedict Cumberbatch, Keira Knightley), (https://youtu.be/zXKHGaRxQaE)
Sin embargo, para la enorme
mayoría de nosotros nombres como Marian Rejewski, Harold Keen o el matemático
Gordon Welchman siguen en el olvido.
¿Cómo ser capaces de descifrar un
código cuando se desconoce absolutamente todo?
Tuvieron que construir una
máquina enorme de rotores móviles, según apreciamos en la fotografía del
inicio, e invertir una enorme cantidad de horas para comprender el
funcionamiento.
Pero, ¿por qué les cuento todo
esto?
Porque según demuestra Sam
Greydanus, un físico investigador del aprendizaje profundo y neurociencia, no
es necesario conocer cómo funciona la máquina enigma para poder descifrar sus
códigos de salida.
En su lugar crea una red neuronal
recursiva (RNN) que descifra los mensajes cifrados por la famosa máquina
Enigma.
En “Decoding the Enigma with
Recurrent Neural Networks” explica que solamente es necesario aplicar la regla
criptográfica y con ella una simulación puede obtener los mismos datos de
salida para los mismos datos de entrada.
Lo llamativo, es que en una
primera fase ni siquiera es necesario que esto funcione siempre (el 100%)
porque para “afinar” el modelo solamente tiene que empezar a funcionar.
Primero, se generan los textos de
prueba (con un simulador de Enigma) con los que se alimentan la red neuronal
recursiva (RNN) con las equivalencias del tipo texto cifrado de salida.
La RNN empieza sus iteraciones
(con una GPU k40) y mostró resultados, con una eficacia del 96%, llegando hasta
un millón de pasos con 3.000 unidades de LSTM («gran memoria de corto plazo»).
El modelo es capaz de aprender
por sí solo a partir de datos de entrada y de salida sin necesitar saber cómo
funcionaba la máquina original internamente, en clara contradicción al trabajo
llevado a cabo por los criptógrafos de entonces porque no precisa que los
textos sean reales o tengan sentido. La razón es que no se buscan patrones ni frecuencias
en los textos.
Todo lo que necesitamos es una
forma de aproximar la función fEnigma para que pueda “mapear” de texto claro a
texto cifrado:
Ciphertext = fEnigma (clave, texto
sin formato)
Las RNN nos ayudan a buscar y
para ello lo parametrizado, por pesos θ, para empezar a entrenar con pendiente
de gradiente. En otras palabras, intentaremos:
Pero para aplicar el aprendizaje
profundo (para el criptoanálisis) necesitamos “enmarcar” el problema. Elegimos un
modelo de mapeo 1: 1 (entre el texto plano y el texto cifrado) y pensando en un
texto sin formato (que en este caso era el inglés) y el texto cifrado como un
lenguaje extraño, el objetivo de “entrenamiento” de RNN (utilizando una larga
memoria a corto plazo o LSTM) se asemejaría mucho a un proceso de traducción
automática.
Estos modelos son capaces de
capturar complejos patrones secuenciales donde eventos que sucedieron muchos
pasos de tiempo atrás pueden determinar el siguiente símbolo.
Como estamos hablando de
aprendizaje, es importante dar primero un paso más corto pero que nos ayude
después. Por eso, debemos centrarnos primero en algo más sencillo, reajustar el
modelo y, sólo después, abordar un problema realmente difícil como era el Enigma.
Como no es el objetivo de este
blog el detalle del mapeo y aprendizaje recursivo, para aquellos que quieran
conocer el detalle, el código está en Github: crypto-rnn.
Como ejercicio práctico, el
descifrado de la máquina Enigma es todo un logro porque nos enseña cómo usar
una red neural recursiva y cómo utilizar el aprendizaje profundo para descifrar
varias cifras, polialfabéticas, mediante una función que asigna el texto
cifrado al texto plano.
El mundo de la inteligencia
artificial (AI) con el Deep Reinforcement Learning ha hecho posible una
impresionante serie de avances en los últimos años que nos acerca a un futuro
impensable no hace tanto.
Tareas de enorme complejidad como
la comprensión automatizada de textos o la conducción autónoma ya son “casi”
una realidad y sitúan, por ejemplo, a la industria de la automoción como uno de
los sectores industriales más disruptivos.
Y, para colmo, se romperá el
paradigma de hombre y máquina porque la conducción será autónoma…
Y quién sabe, igual dentro de
pocos años nos anuncian que se descifra “la máquina Enigma de nuestros días”,
el algoritmo RSA. El que permitiría el acceso a contenidos cifrados que hacen
posible que nos comunicamos por Internet, de forma segura, y para las
transacciones y el comercio electrónico.
Y digo que sería un auténtico
reto porque el RSA se sirve de complejas operaciones matemáticas diseñadas para
ser muy difíciles de resolver. Estamos hablando de que las RNN u otros sistemas
de inteligencia artificial llegaran a identificar, por ejemplo, la necesidad de
factorizar números pseudoprimos muy grandes para acceder a esa información
cifrada…
Somos conscientes que es algo muy
difícil y que ha escapado del análisis de los matemáticos durante décadas pero
que, con un poder de computación creciente y la potencial aparición en escena
de los tan discutidos ordenadores cuánticos, igual es posible…
Artículo realizado por Javier Espina Hellín CEO QLC SLP y doctor en
Ingeniería de Sistemas de Información
¿Cuándo debe nombrarse a un
delegado de protección de datos?
Resulta obligada la
designación, particularmente, en empresas y grupos de empresas que tengan entre
sus actividades principales las operaciones de tratamiento que requieran una
observación habitual y sistemática de interesados a gran escala, o que tengan
entre sus actividades principales el tratamiento a gran escala de datos
sensibles.
¿Quién puede ser delegado de
protección de datos?
Una persona física o
jurídica con conocimientos en Derecho y, particularmente, con experiencia amplia y demostrable en materia de
protección de datos personales.
El DPD puede formar parte
de la plantilla del responsable o del encargado del tratamiento o desempeñar
sus funciones en el marco de un contrato de servicios (servicio externalizado).
La designación del DPD y
sus datos de contacto deben hacerse públicos por los responsables y encargados y deberán ser
comunicados a las autoridades de supervisión competentes. Cabe la posibilidad
de nombrar un solo DPD para un mismo grupo empresarial.
¿Qué estatus debe tener un
delegado de protección de datos?
Debe participar de forma
adecuada y en tiempo oportuno en todas las cuestiones relativas a la protección
de datos personales. Es por lo que debe relacionarse directamente con el nivel
superior de la dirección de la empresa, pero sin que tenga que recibir
instrucciones en el ejercicio de su cargo (debe estar en condiciones de desempeñar sus funciones y cometidos de manera independiente).
Asimismo, el DPD debe
disponer de los recursos necesarios para el desempeño de sus funciones y
responsabilidades, y debe poder acceder a los datos personales y a todas las
operaciones de tratamiento de los mismos.
El delegado de protección
de datos puede desempeñar sus funciones a tiempo completo o parcial, pero eso
sí, en actividades que no den lugar a conflicto de intereses.
¿Qué funciones tiene un DPD delegado
de protección de datos?
Las principales responsabilidades de
un DPD son:
Informar y asesorar al responsable o al encargado del
tratamiento y a los empleados que se ocupen del tratamiento de los datos
personales.
Atender a los interesados que le contacten.
Supervisar el cumplimiento de las disposiciones de protección de
datos, la asignación de responsabilidades, la concienciación y formación
del personal que participa en las operaciones de tratamiento, y las
auditorías correspondientes.
Ofrecer el asesoramiento que se le solicite acerca de la
evaluación de impacto relativa a protección de datos.
Y, cooperar con la autoridad de control.
Para más información sobre esta materia, y si cree que necesita los servicios
de un DPD delegado de protección de datos, contacte con elÁrea
Legal de QLC y nuestro equipo de abogados le ofrecerá el asesoramiento
legal adecuado dándole la cobertura que Vd. necesita.
El artículo 97 del Código Civil es el precepto legal que dispone la
generación de una pensión compensatoria a favor de aquel cónyuge que la
separación o el divorcio le ocasione un perjuicio económico en relación con la
situación del otro cónyuge.
Según la Jurisprudencia del Tribunal Supremo, el Juez de Primera
Instancia debe decidir sobre tres cuestiones fundamentales en el momento de
plantearse el establecimiento de una pensión compensatoria en un proceso de
separación o de divorcio:
1) Si la separación o el divorcio va a provocar un desequilibrio
económico entre los cónyuges, teniendo presente lo que ha ocurrido durante la
vida matrimonial y básicamente, la dedicación a la familia y la colaboración
con las actividades del otro cónyuge.
2) Si se advierte el citado desequilibrio económico, se debería entrar a
determinar la cuantía de la pensión compensatoria.
3) Y, por último, es necesario abordar el carácter definitivo o temporal
de la pensión compensatoria.
La fijación de un límite temporal de la pensión compensatoria hoy en día
es posible, tanto legal como jurisprudencialmente. Esto es así en virtud del
actual artículo 97 del Código Civil (según la redacción dada por la Ley
15/2005, de 8 de julio) pero también por las reiteradas sentencias dictadas por
el Tribunal Supremo declarando y admitiendo la temporalidad de la pensión
compensatoria (véasela STS de 27 de junio de 2017 Id
Cendoj: 28079110012017100399, recurso nº 1642/2016).
Sin embargo, el plazo de duración de la pensión compensatoria tiene que
estar en consonancia con la previsión de superación del desequilibrio económico
que realice el Juez de Instancia, a través de un juicio prospectivo y según sus
máximas de experiencia.
Hay múltiples circunstancias a valorar tanto para establecer la duración
como la cuantía de la pensión compensatoria. Aunque se podría citar a modo de
ejemplo los siguientes factores por su relevancia práctica:
1) La titulación académica y la cualificación y trayectoria
profesional de ambos cónyuges.
2) La edad, el estado de salud y las probabilidades de acceso a un
empleo de los cónyuges.
3) La coyuntura económica actual y, particularmente el nivel de
desempleo, asociado a las personas con menor formación académica y con menor
cualificación profesional.
4) La dedicación pasada y futura a la familia de cada cónyuge
considerando la duración efectiva del matrimonio.
5) El caudal y los medios económicos y las necesidades de uno y
otro cónyuge.
6) Cualquier otra circunstancia relevante.
Otro aspecto para tener muy presente en cuanto a la duración de la
pensión compensatoria es que la misma puede extinguirse incluso si se acordó
inicialmente como definitiva.
La extinción de la pensión se producirá si se llegase a superar la
situación de desequilibrio económico entre los ex cónyuges advertida en el
momento de la ruptura.
Un supuesto muy habitual de extinción o de reducción de la pensión
compensatoria se da cuando el cónyuge beneficiario de la misma consigue un
empleo estable o bien una nueva fuente regular de ingresos.
Y otro supuesto frecuente ocurre cuando el cónyuge que presta la pensión
ve reducidos sus ingresos o bien incrementados sus gastos.
Para más información sobre este tema, puede contactar con el Área Legal
de QLC y nuestro equipo de abogados le prestará un asesoramiento técnico
ajustado a su situación personal además de ofrecerle la defensa legal más
completa en favor de sus legítimos derechos e intereses.
Pensemos que lo que
considerábamos como una industria madura ha pasado a ser punta de lanza en
innovación tecnológica (que denominan ya como automoción 4.0) y afecta a
toda la cadena de valor y es una transformación de ciclo completo, desde el
diseño hasta las operaciones pasando por el propio concepto de movilidad (en
propiedad o alquiler).
Se estima que el 86% de los accesorios y complementos
del automóvil del futuro cambiarán muy rápido y se podría acortar hasta en 3
veces el tiempo de lanzamiento de un modelo al mercado.
Dejaran de utilizar combustibles
fósiles adoptando tecnologías híbridas, donde la electricidad será compañera
tándem de pila de combustible de hidrógeno y las células de las baterías serán
de grafeno.
Se calcula en 180.000 millones de euros las inversiones
necesarias para el desarrollo del automóvil eléctrico. Las economías de escala
cobraran aún más importancia y obligará a una nueva ronda de concentración en
el sector.
Quizá la pregunta sea: ¿cuándo
los motores de combustión fósil darán paso a motores eléctrico?, o incluso
mejor, ¿cuándo tendremos vehículos eléctricos baratos?
Las últimas estimaciones “out the
record” en la industria nos dicen que aún necesitaremos unos 15 años para que la
oferta global de vehículo eléctrico iguale a la de vehículos de combustión
fósil. De momento, la tecnología eléctrica es demasiado cara para ser
competitiva en precio respecto a vehículos de gasolina.
De hecho, sólo hace
falta hacer muy pocos números para demostrarlo empíricamente. Un Nissan LEAF o
un BMW i3 son mucho más caros que sus equivalentes en gasolina. Ahora,
necesitamos en torno a los 30.000€ para hacernos con un casi-utilitario
eléctrico con 300 km de autonomía.
Y, para colmo, se romperá el
paradigma de hombre y máquina porque la conducción será autónoma…
Pero, ¿sabemos qué opinan de
todo esto los clientes finales o usuarios y los “dealers”. ¿Es compatible la
opción “verde” con lo que quieren los clientes?
Ahora, recuerdo un golpe de
efecto cómico en una escena de una reciente comedia estadounidense, en la que
un abogado durante la asistencia legal a su cliente (detenido por exceso de
velocidad en una comisaría de un lugar en medio de ninguna parte) y mientras
rutinariamente va completando el procedimiento, al llegar a la pregunta del
modelo de coche que conducía cuando se produjo la infracción, hay un silencio
pronunciado de diálogo después del cual, levanta lentamente la mirada del papel
fijando sus ojos en los del detenido con indisimulada desconfianza para romper
en una abierta y sonora risa cuando éste le contesta que un Prius…
¿Velocidad e híbrido?, ¿potencia
y electricidad?, ¿concepto “verde” e infracción de la norma?, ¿libertad y poder
frente a autonomía limitada?
Estas son las “barreras mentales” que conforman la
rotura del paradigma del coche en nuestra cultura postindustrial. Todos los
atributos que han sido lentamente grabados por millones de metros de celuloide,
cientos de horas de publicidad y una lista interminable de “chicos duros con
encanto” a lo Steve Mc Queen a las que se enfrenta la industria y unos
“dealers” no tan convencidos en algunas zonas de enorme consumo en nuestro
planeta.
Por eso el “gag” del Prius
funciona…
Basta con haberse dado una vuelta
por el último NAIAS en Detroit (North American International Auto Show),
escaparate mundial de los llamados “Muscle Cars” y “Booth Babes”, para
confirmar que esos atributos siguen siendo utilizados para posicionar a
determinadas marcas y modelos en un mercado muy concreto. La presentación de los
nuevos modelos 4x4 de Ford, el F150 (la versión 2017 V6 de 3,5 litros, Raptor),
el nuevo Bronco (midsize 4x4 para el 2020 que se fabricará en Michigan), el Pick
Up Ranger o el nuevo Mustang ante los medios especializados hablan por sí solos
y, dejan muy claro que por el momento, y en ese mercado, existe una clara
correlación entre caballos de potencia, grandes motores en V, litros de
gasolina y elevados niveles de deportividad, deseo y testosterona… es decir, siguen
construyendo el mismo mensaje de siempre.
Un mercado tan grande como el estadounidense que parece dar
la espalda “reinterpretando” las iniciativas “verdes”, “sostenibles” o como lo
queramos denominar aquí en Europa. Llamo especialmente la atención de cómo la
propia marca, Ford, entiende las ciudades del fututo. (https://www.at.ford.com/en/homepage/news-and-clipsheet/news/2017/1/COT.html.
Nos venden tecnología, coches más inteligentes, más potentes, Pre-Collision
Assist con detección de peatones, Adaptive Cruise Control con Stop-and-Go,
módem 4G LTE incorporado, SYNC 3 y B & O PLAY audio, pero ni rastro de
menos emisiones, sistemas eléctricos 100% o híbridos…
Todo parece indicar que muchos aún no saben que la industria
ya cuenta con marcas y modelos de tecnología eléctrica e híbrida que ofrecen
sensaciones comparables a los de motor de combustión puro y en distintos
segmentos.
La tecnología es la gran apuesta.
La gran revolución. Tesla nos ha demostrado que el coche eléctrico es viable,
quizá por eso en abril de este mismo año tenía un valor de mercado de 47.000
millones de dólares frente a los 45.000 millones de GM.
De hecho, ya están probando las
nuevas baterías con celdas de grafeno. Prometen mejores tiempos de carga rápida
y más autonomía (el verdadero caballo de batalla).
Es el “Big Bang” según nos decía
el protagonista de uno de los spots que he incluido un poco más arriba.
La pregunta está en saber por qué
la industria y los “dealers” siguen apostando por los motores de combustión, especialmente
en el país de Trump o por qué China se dibuja como el laboratorio ideal para el
coche eléctrico… (creo que sólo este punto justificaría una nueva entrada en
este blog).
Un Big Bang que también viene en
forma de “Big Data” y con multitud de modelos predictivos de fallos o
mantenimiento que prometen ser uno de los pilares fundamentales del modelo 4.0.
Con el crecimiento exponencial
previsto del IoT, o internet de las cosas, y en la medida que los coches tengan
conectividad a Internet, se podrán hacer mantenimientos predictivos
relacionados con el uso y los km. hechos como la presión y desgaste de los
neumáticos, niveles de aceite, pastillas de freno, estado de los airbags y un
largo etcétera relacionado con la seguridad pasiva. (Que dicho sea de paso ya
se aplican en el ámbito de la generación de energía en los aerogeneradores)
El informe Connected Mobility
Global Forecast 2016, de Ptolemus, avanza que en 2020 habrá más de 400 millones
de vehículos conectados en todo el mundo.
Y todo, gracias a multitud de
sensores, etiquetas inteligentes RFID, pasivas, activas o mixtas, marcados o
etiquetas Datamatrix (similar a los ya masificados códigos QR) que nos ofrecen la
recogida, tratamiento de datos integral y masivo que permitirá una nueva
revolución en la fabricación, logística o industria de mantenimiento (por la
completa trazabilidad de piezas y componentes).
Pero, también nos espera otra
revolución no menor y es la que transita desde la compra del producto (el
automóvil) a su consideración como un servicio de movilidad y el impacto en nuestra manera de entender la sociedad…
Es ya un hecho que los jóvenes
compran menos coches (¿cómo consecuencia de una crisis económica, por un
cambio en patrones de consumo o de prioridades?) y se inclinan a su utilización como alternativa de
movilidad urbana.
Dentro de ese concepto aparece el “car sharing” (que ya vemos
en las grandes ciudades europeas) y su papel clave como pivote de las políticas
de movilidad.
Se piensa que, en 2050, 1 de cada 3 vehículos será un “car
sharing”.
Y de nuevo, ante un panorama tan
poliédrico y cambiante es muy difícil dejar de hacerse preguntas como:
¿Será
sostenible un modelo de “car sharing”? ¿Cómo será rentable una industria que
prevé inversiones tan intensivas en tecnología y dinero? ¿Qué dimensión
deberán tener esas economías de escala? ¿Cuántos operadores (fabricas)
quedaran en el mercado global? ¿Esto disminuirá la capacidad de elección del
consumidor? ¿Quién estará preparado para no querer sentir cientos de CV bajo su
pie derecho y dejar “las llaves” a un ordenador central que te lleve a casa?
Quizá demasiado por ahora, pero seguiremos reflexionando...
Artículo realizado por: Javier Espina Hellín CEO QLC SLP y doctor en Ingeniería de Sistemas de Información
La tendencia actual de los
Tribunales de Justicia en el ámbito de la guarda y custodia de los hijos
menores, desde la reforma en el año 2005 del artículo 92 de Código Civil
mediante la redacción dada por la Ley 15/2005, de 8 de julio, es favorecer la
aplicación de la guarda y custodia compartida.
Según el
Tribunal Supremo, el régimen de guarda y custodia compartida puede ser el más
favorable para preservar el interés superior del menor porque permite que se
desarrolle en mejores condiciones y de forma más satisfactoria, la relación del
hijo menor con sus padres (porque permite la participación en igualdad de
condiciones de ambos progenitores en el desarrollo y crecimiento de sus hijos) superando
en gran parte las carencias observadas entre los progenitores no custodios y
sus hijos.
Es evidente
que la guarda y custodia compartida es más adecuada cuando los hijos tienen un vínculo
afectivo normalizado y positivo con sus progenitores, y cuando no hay
impedimentos graves que desaconsejen esta modalidad de guarda y custodia, como
por ejemplo, en supuestos de amenazas en el ámbito familiar, de violencia de género
y/o de maltrato infantil.
Dicho esto, cabría
preguntarse en buena lógica si constituye un impedimento para la guarda y custodia
compartida que los padres residan en diferentes localidades y que disten entre
sí, algunas decenas de kilómetros, lo que necesariamente implicaría constantes
cambios de domicilio del hijo menor en períodos cortos de tiempo: cada semana o bien cada quincena.
La respuesta
de los Tribunales a esta cuestión no es siempre uniforme porque se ha de estar
a cada una de las circunstancias concurrentes de cada caso, pero existe cierto
consenso en que se deben de evitar los desplazamientos
perjudiciales para el menor.
Con el fin de ilustrar al lector y acercarle a este tema de muy reciente
actualidad, citamos el caso tratado en la
Sentencia nº 748 del Tribunal Supremo dictada el 21 de diciembre de 2016,
donde se determinó que es desaconsejable la guarda y custodia compartida cuando
el hijo está escolarizado en un centro próximo a la residencia de uno de los progenitores
y, el domicilio del otro progenitor está a una distancia de unos cincuenta (50)
kilómetros.
Sin embargo,
sí es perfectamente viable la guarda y custodia compartida en el supuesto en el
que, habiendo una distancia de unos cuarenta y dos (42) kilómetros entre los
domicilios respectivos de los progenitores, el centro escolar está ubicado a
una distancia equidistante entre ambos domicilios. Esta es la decisión adoptada
en la reciente Sentencia nº 370 del
Tribunal Supremo dictada el 9 de junio de 2017, que sostiene que, bajo
estas circunstancias, resulta igualmente gravoso para el menor el traslado al
colegio desde una u otra localidad y que, en el caso planteado, esta dificultad
parece estar superada.
Para
más información sobre este tema, puede contactar con el Área Legal de QLC y nuestro equipo de
abogados le prestará un asesoramiento técnico ajustado a su situación personal
además de ofrecerle la defensa legal más completa en favor de sus legítimos derechos e
intereses.
Ayer mismo, me sorprendió el
artículo que, publicaba el “Business Insider Australia” (https://www.businessinsider.com.au/bill-gates-15-predictions-in-1999-come-true-2017-6con respecto a la sorprendentemente
precisa capacidad predictiva de Bill Gates sobre lo que nos depararía el
futuro, hace casi 20 años, en una
industria de cambios tan profundos, acelerados y de sustitución de paradigmas como
es la informática, el software o Internet.
Al terminar de leer lo que Biz Carson
publicaba y, estando cada vez más
seguro, que las coincidencias no existen y que el azar es poco más que un
concepto estadísticamente relevante, me surgieron las primeras preguntas:
·
¿Bill
Gatescontaba en 1999, como
supongo ahora, con una información de
tan alta calidad que las 15 predicciones que anticipó eran sólo el final de un camino
previsible en un continuo de desarrollo lógico?
·
o utilizando el término acuñado por el sociólogo
R.K. Merton ¿se trata de una “profecía
autocumplida”?
Dicho de otra manera, es posible suponer que siendo uno de los grandes
gurús de esta industria, sus intuiciones acaban siendo una realidad concreta,
años después, porque determinan su propia conducta y las líneas de
investigación y desarrollo que impulsa (desde su posición de dominio y
privilegio) y, que más tarde, acabaran convirtiéndose en los “estándares” que definen
la expectativa general de la sociedad que las consume y del mundo que él mismo
contribuye a dar la forma y que el resto de nosotros, después, conocemos…
La verdad es que aún no tengo la respuesta,
pero, mientras tanto, si me gustaría compartir las 15 predicciones a las
que hago referencia siguiendo el esquema que el autor del artículo utiliza
(predicción vs realidad 2017) y, que Bill Gates recogía en un libro titulado
“Business @ the Speed of Thought.”(Negocios @ la velocidad del pensamiento) que
publicó en él, ya comentado año, 1999.
1: Sitios web de comparación de precios.
Gates escribía: "se
desarrollarán servicios automatizados de comparación de precios, que permitirán
a la gente ver los precios en varios sitios web, por lo que será más fácil
encontrar el producto más barato para todas las industrias".
Nuestra realidad cotidiana en
internet es esa. Buscamos, fácilmente un producto o servicio (un libro,
película, camisa, seguros, viajes y un largo etcétera en buscadores como Google
o integrados en “marketplaces” como Amazon.
2: Dispositivos móviles.
La predicción de Gates: "La
gente llevará consigo pequeños dispositivos que les permitan estar
constantemente en contacto y hacer negocios electrónicos desde dondequiera que
estén. Podrán ver las noticias, ver los vuelos que han reservado, obtener
información de los mercados financieros, y hacer casi cualquier otra cosa en
estos dispositivos ".
Poco puedo añadir. Los Smartphones,
y “wearables” son una realidad.
El trimestre vacacional de 2016,
el Q4 terminó con 428,5 millones de smartphones distribuidos frente a los 400,7
millones del trimestre equivalente de 2015. Un crecimiento de un 6,9 %.
En total, durante 2016 se vendieron 1.470 millones, una cifra récord.
Entre enero y marzo de 2017 se vendieron un total de 347,4 millones
de teléfonos inteligentes, lo que marca un crecimiento del 4,3% sólo en esos
meses.
3: Pagos instantáneos, financiamiento en línea y mejor atención médica
a través de la web.
Gates: "La gente pagará
sus cuentas, se encargará de sus finanzas y se comunicará con sus médicos a
través de Internet".
Los pagos seguros en sitios web,
mediante tarjeta de crédito/ PayPal ya no son una novedad, pedir dinero
prestado on-line a través de diferentes sitios web o el despegue consolidado de
las Fintech, parece que tampoco.
Fintech es el producto de la
unión de “financial y technology” y hace referencia a un sector de empresas de
base tecnológica, normalmente al margen de las compañías tradicionales, que
ofrecen servicios financieros.
Un ejemplo de la importancia de fintech
en España es la reciente creación de la Asociación Española de Fintech e
Insurtech, que cuenta ya con el apoyo de más de 50 compañías que representan a
la gran mayoría del sector.
Sin embargo, no se puede decir lo
mismo de la salud porque su utilización, implantación y desarrollo no es
comparable, por ejemplo, a lo que Uber o Cabify han supuesto en el sector del
transporte.
4: Asistentes personales y el IoT o Internet de las cosas.
"Se desarrollarán compañeros personales. Conectarán y
sincronizarán todos sus dispositivos de una manera fácil y “elegante”, si están
en el país o en la oficina, y permitirán intercambiar datos. El dispositivo
comprobará su correo electrónico o notificaciones y presentará la información
que necesita. Cuando vayas a una tienda, podrás decirle qué recetas quieres
preparar, y generará una lista de ingredientes que necesitas comprar. Se
informará a todos los dispositivos que utilizas de tus compras y el calendario,
lo que les permite adaptarse automáticamente a lo que está haciendo”.
Sobre los asistentes que nos
ofrece la “inteligencia artificial” (AI) poco que decir: Siri de Apple, Braina,
Google Assistant, Google Now, Amazon Echo, Microsoft Cortana, S Voice y, ahora
en su S8, Bixby de Samsung (sobre el que ya escribí en este blog), Voice Mate,
Silvia o Hidi de HTC. Mientras tanto, los dispositivos inteligentes como Nest
recopilan datos sobre nuestras rutinas diarias…
En cuanto a recetas y cocina, Google
Home lee tu correo electrónico y te guía a través de recetas mientras cocinas...
5: Monitoreo en el hogar on line.
"Los canales de video
constantes de tu casa se harán comunes que te informarán cuando alguien visita
mientras no estás en casa".
Google compró por 555 millones de
dólares Dropcam (en 2014), un fabricante de cámara de vigilancia. Pero eso fue
sólo el comienzo:
·
Ring fabrica una cámara de timbre inteligente
que te permite ver quién está en su puerta.
·
PetCube controla un láser para que puedas jugar
con tus mascotas mientras estás fuera.
6: Medios de comunicación social.
"Los sitios privados para
sus amigos y familiares serán comunes, lo que le permitirá conversar y planear
eventos".
Hoy, redes sociales como Facebook cuenta con 2000 mil millones de usuarios.
Pero hay otras muchas como Snapchat, Instagram, WhatsApp, Messenger y una explosión
de otras redes sociales más pequeñas…
·
La cifra de usuarios de Redes Sociales en España se eleva a 19, 2 millones (16
a 65 años)
·
La penetración
de las Redes Sociales alcanza el 86%
·
En cuanto al perfil del usuario de Redes
Sociales, prácticamente se iguala el número de hombres y mujeres.
·
La edad media se sitúa, en torno, a los 39 años (si
bien la mayor concentración estaría entre los 31 y los 45 años)
·
Facebook y Twitter siguen siendo las primeras
redes mencionadas, muy por delante de todas las demás.
·
Instagram aumentado su notoriedad situándose
como la tercera red y Linkedin la cuarta más recordada
·
Casi la mitad de los usuarios poseen estudios
universitarios
·
El 66% trabaja en la actualidad
7: Ofertas promocionales automatizadas.
"El Software que sabe cuándo
has reservado un viaje y usa esa información para sugerir actividades en el
destino local. Sugiere actividades, descuentos, ofertas y precios más baratos
para todas las cosas en las que quieras participar. "
¿No os pasado que habéis
consultado el precio de un vuelo a Singapur y, minutos más tarde, en todas las siguientes
búsquedas aparecen “anuncios” de vuelos a ese lugar?
Sitios web como Expedia y Kayak
ofrecen ofertas basadas en los datos de compra anteriores de un usuario. Google
y Facebook pueden ofrecer anuncios promocionales basados en la ubicación e
intereses del usuario. Airbnb, comenzó a ofrecer viajes especializados hace ya
mucho…
8: Sitios de discusión de deportes en vivo.
"Mientras ve una competición
deportiva en televisión, podrá discutir lo que está pasando en vivo e, incluso,
participar en un concurso sobre quién cree que va a ganar".
Existen un montón de sitios que permiten
esto. Twitter es el líder indiscutible y podemos dejar comentarios, en tiempo
real, en webs deportivos como ESPN.
9: Publicidad inteligente.
"Los dispositivos tendrán
publicidad inteligente. Conocerán sus tendencias de compra y mostrarán anuncios
que se ajustarán a sus preferencias ".
Aquí siempre me acuerdo de los
anuncios que ofrecían, por su nombre, a Tom Cruise de GAP, Guinness, American
Express, etc. en un mundo de cámaras omnipresentes y que ya aparecían en la
película de Minory Report. Os adjunto el video en Youtube. (https://youtu.be/XhFs2jJmOnY)
Aquello se nos vendía como una
predicción posible en un entorno de ciencia-ficción, pero ahora podemos “disfrutar”
de los anuncios/ comerciales en en Facebook o Google.
Con el big data analysis data mining, la mayoría de los
servicios de publicidad on line responden a una microsegmentación basada en
nuestro historial de clics, intereses o patrones de compra.
10: Enlaces a sitios durante la TV en vivo.
"La emisión de televisión
incluirá enlaces a sitios web relevantes y contenidos que complementen lo que
está viendo".
En la actualidad no es exactamente así porque muchos spots “invitan” al
espectador a iniciar, completar “una historia” o “el final de la misma” desde
el sitio web del anunciante. Otra opción menos popular es la de escáner un
código QR, habitualmente en soportes escritos para iniciar un spot,
complementar una información o para añadirlo, por ejemplo, en Snapchat. Confesaré
que en las tarjetas de visita de nuestra consultora QLC, decidimos incorporar un
QR que abre nuestro sitio web…
"Los residentes de las ciudades
y países podrán tener discusiones basadas en Internet sobre temas que les
afectan, como la política local, la planificación urbana o la seguridad".
Discusiones no tanto. Al menos
que mantengan el modelo dialéctico clásico.
La mayoría de los sitios de
noticias tienen secciones de comentarios donde se puede tener discusiones en
vivo o contribuir a la construcción de un foro. Twitter y Facebook han sido plataformas “esenciales” en movimientos y revoluciones
políticas, muy recientes, en Libia, Egipto y Túnez o el movimiento Black Lives
Matter en Estados Unidos.
Pero quisiera detenerme sólo un
instante en el destacado papel de Twitter en esto. Incluso la manera en la que
es usada por el “emisor” del mensaje.
Sólo un ejemplo: Trump, el actual presidente de EEUU, donde
premeditadamente “evita o puentea” al tradicional intermediario y accede
directamente al ciudadano/ votante/ resto del mundo en 140 caracteres. Una “revolución” en el ámbito de la
comunicación y que desplaza, a periodistas y medios de comunicación del protagonismo
de antaño al de actores secundarios, obligándoles a la respuesta “reactiva”
cuando responden al “pie” del actor estrella. ¿supondrá esto una alteración
del “status quo” y del “poder” de ese cuarto? (esto daría para mucho más que
hablar).
12: Sitios en línea basados en intereses.
“Las comunidades en línea no
estarán influenciadas por tu ubicación, sino más bien por tu interés”.
Existen todo tipo de sitios de
noticias y comunidades en línea que se “especializan” en temas únicos. Reddit
es un gran ejemplo de un sitio web que se divide en subgrupos, o
"subreddits".
13: Software de gestión de proyectos.
"Los directores de
proyecto que buscan unir a un equipo podrán ponerse en línea, describir el
proyecto y recibir recomendaciones para las personas disponibles que se ajusten
a sus necesidades".
Es difícil nombrar a alguno de
ellos porque existen cientos de opciones de software que permiten el trabajo superando
los límites físicos de la empresa y de su almacenamiento (soluciones Cloud)
14: Reclutamiento/ contratación on line.
"Del mismo modo, las
personas que buscan trabajo podrán encontrar oportunidades de empleo en línea
declarando su interés, necesidades y habilidades especializadas".
Redes como LinkedIn nos permite,
además de compartir “contenidos” como este, cargar o subir CV , encontrar
trabajos basados en intereses/ necesidades y a los reclutadores buscar por habilidades
concretas.
15: Software de la comunidad empresarial.
"Las empresas podrán pujar
por los empleos, ya sea que busquen un proyecto de construcción, una producción
cinematográfica o una campaña publicitaria. Esto será eficiente tanto para las
grandes empresas que quieren externalizar el trabajo como para empresas que
buscan nuevos clientes o que no tienen un proveedor para determinado servicio
".
Mucho del software de empresa disponible
se centra en los aspectos sociales, por lo que los usuarios pueden llegar a
otras empresas y comenzar una conversación que podría conducir a proyectos más
grandes. La llamada “economía gig”, con sitios como Upwork, permite a
las grandes empresas conectarse, fácil y directamente, trabajadores
independientes/ autónomos como diseñadores, escritores o ingenieros para hacer
un trabajo concreto que buscan externalizar.
Como habéis visto son 15 aciertos sobre 15 predicciones.
¿Tenéis vosotros una respuesta sobre
el secreto de tal exactitud?...
Artículo realizado por Javier Espina Hellín CEO QLC SLP y doctor en
Ingeniería de Sistemas de Información
Aprovechando que ya muchos están
de vacaciones y otros muchos más pensando que el mes de agosto está cada día
más cerca, puede ser el momento de reflexionar sobre uno de los fenómenos que
más negativamente afectan a las relaciones humanas, laborales y al resultado
económico de las empresas.
En el ámbito de la psicología se
conoce como el síndrome de Procusto.
Un nombre no tan sencillo de
recordar y que, probablemente, sin más información no nos permita saber de qué
estamos hablando. Pero si abro comillas, e intento definirlo como “el miedo a ser superado (profesionalmente)
por un subordinado, por un miembro de mi equipo de trabajo o de uno de mis
pares en el órgano de gobierno de la compañía”, seguro que no sólo
comprendo con exactitud a qué hace referencia el síndrome de Procusto sino que,
inmediatamente, acudirán a nuestra cabeza los nombres de insignes “procustos”
que hemos conocido a lo largo de nuestra carrera o que tenemos el “desafortunado
gusto” de sufrir en la actualidad.
Como en tantas otras ocasiones
los mitos griegos nos ayudan a caracterizar comportamientos tan humanos como
antiguos y que, a pesar, de ser tantos los años de experiencia y vida
transcurridos desde entonces, no dejan de replicarse.
La historia del mito se podría
resumir en una frase: “a quien
sobresalga hay que cortarle los pies y la cabeza”.
Nuestro protagonista se llamaba
Damastes, también conocido como Procusto, uno de los hijos del dios Poseidón
que regentaba una posada en las colinas de Ática. Tenía por costumbre acoger en
su casa a viajeros y caminantes a los que dispensaba de trato amable, dispuesto
y con una gran hospitalidad.
Sin embargo, apenas conciliaban
el sueño en la primera noche que éstos pasaban en lugar tan afable, Procusto
los amordazaba primero y, después, comprobando que su tamaño era distinto al de
la cama de hierro donde dormían, les cortaba aquellas partes del cuerpo que
sobresaliesen.
Pero no sólo los altos sufrían
tan brutal “normalización” sino que los más pequeños o menos corpulentos
también eran obligados a enfrentarse a las “ideales” medidas del camastro,
rompiéndoles los huesos con un mazo para estirar sus miembros hasta sus bordes.
Como en toda historia mitológica,
este macabro ritual se repetiría una vez tras otra hasta la llegada del héroe.
Esta vez se trata de Teseo, quien hábilmente y sirviéndose de una mañosa
estrategia, haría que el propio Procusto se sometiese a las medidas de su metálico
canon normalizador y, comprobando que él tampoco se ajustaba, procedió de la
misma manera que su anfitrión lo hacía con sus anónimos invitados. Le cortó la
cabeza y le mató.
¿Qué nos quiere decir esta
historia?
Que nadie queda fuera de “la presión de la normalización o de la
uniformidad”, factor característico del síndrome, con el nombre del
posadero, que la mayor parte de las veces y solo al comienzo, el que ejerce el
poder trasviste de afecto, compañerismo u hospitalidad, según el nivel
jerárquico del “invitado”, en su interacción con él o ella, sin que exista,
supuestamente, ningún tipo de malestar o conflicto.
Es la imposición de un estándar
arbitrario y propio para el que se fuerza una conformidad exacta. Interpretará,
deformará y forzará los datos para que se confirme su hipótesis de partida. Es
necesario que se refuerce su particular manera de ver determinada realidad o
afrontar tal problema.
Pero lo que de verdad esconde
el sujeto que sufre de tan “florido” síndrome, es de una muy baja autoestima,
sentimiento de inferioridad y miedo. Mucho miedo a que le quiten o pierda,
por competencia, el lugar o puesto que ocupa dentro de la academia, la empresa,
el partido político, etc.
Las consecuencias para el
“caminante/ viajero/ miembro del equipo o par”, como podemos esperar por el
contexto mitológico y la experiencia vital de quienes ya contamos con más años,
son siempre desastrosas, ya que no será incorporado a tal proyecto o
tarea por miedo a que brille, se le evaluará negativamente en los controles
internos por alguna razón o se le exigirá un grado de cumplimiento y dedicación
superlativo pero, en lo que pocas veces reparamos, es que también será
desastrosa para la propia organización a la que ambos pertenecen y a la
que, supuestamente, deberían aportar lo mejor de ellos.
La organización en su conjunto sufre no sólo por la falta de esas
nuevas ideas, iniciativas o retos a los que enfrentarse propuestos por ese
“incómodo” subordinado, compañero o par sino que el coste de oportunidad o,
incluso, la pérdida de la misma puede llegar a ser inasumible porque pone en
peligro la propia viabilidad futura de una organización débil y endogámica que,
en el mejor de los casos, continuará avanzando durante un tiempo hasta su
definitiva parada sólo por la inercia o el volumen de sus operaciones.
Todos podríamos enunciar casos de
grandes empresas que han acabado, en relativamente poco tiempo, siendo
compradas o absorbidas por antiguos competidores o simplemente en nada y
desapareciendo entre el asombro y la duda de quienes, perplejos, son testigos
de su caída.
Pero ¿porqué quien sobresale por su conocimiento, competencias o habilidades
es perseguido o está mal considerado en la empresa, en la academia/universidad
o en la política?, ¿por qué está tan extendido? y ¿cómo debemos enfrentarnos a las
personas que sufren de este síndrome?
Las causas son diversas y sus efectos
los podemos observar desde la infancia.
Son frecuentes los niños que, sabiéndose con especiales capacidades o
superdotación, se esfuerzan por ser como
el conjunto al que quieren pertenecer, limitando su energía para obtener
calificaciones medias (cuando son conscientes que su factor diferencial es su
potencial intelectual), suspendiendo para evitar la pertenencia al estereotipo
de “empollón”, “sabelotodo”, “sabiondo”, etc. o incluso uniéndose al grupo más
revoltoso y gamberro de la clase…
Este tipo de situaciones de
búsqueda de pertenencia, aceptación y conformidad con el grupo se han estudiado
profundamente. Personalmente, recomiendo el vídeo, que todavía se puede ver en
Youtube, del experimento universitario que se llevó a cabo en los años 70 y que
se conoce como “experimento de Asch”, para comprender la complejidad
psicológica del mecanismo que subyace tras estos comportamientos. (https://youtu.be/wt9i7ZiMed8)
Es, tristemente, común la crítica
y la humillación pública cuando el que ejerce la posición de poder ve en peligro
su prestigio o posición. Esto puede suceder, incluso, en la relación
profesor-alumno cuando el primero tiene una baja autoestima y el segundo una
especial dotación o inteligencia.
El objetivo último es la minusvaloración del que se identifica como
amenaza.
Pero en el ámbito profesional y laboral el mecanismo de actuación es
triple:
1.
Por un lado, la “apropiación” de la idea, innovación, estrategia o iniciativa es
imperativa ante los demás.
2.
Al tiempo, es sometido a un excesivo nivel de control con el fin de “buscar” el
fallo procedimental o la falta de respuesta al estrés del sujeto, y conseguir
el argumento necesario.
3. Para, finalmente, construir “el relato del
descrédito personal” o tercera fase de actuación. Nada mejor que acudir a
uno de nuestros mecanismos más antiguos de evolución: el “chisme” interesado
o la explotación del estereotipo.
El estereotipo en sí mismo
funciona muy bien porque es natural para nuestro cerebro. Recoge
sintéticamente aquellos aspectos que nos ayudan a clasificar. Si, por
ejemplo, la persona atacada tiene mucha formación académica (tiene varios
grados universitarios y diferentes másteres) con extender un “bienintencionado”
comentario que haga referencia a los muchos años que ha tenido que estar
estudiando para conseguir tal colección de títulos, conseguimos que se le
encasille como un “ratón de biblioteca”, “mucha teoría y poca práctica”, “sólo
sirve para estudiar”, “no hay tanto mérito si sólo te dedicas a eso”, y un
largo etcétera de “fotos rápidas pero muy concretas” cuyo único propósito es la
“normalización/ estandarización” de la excelencia y la asociación de atributos
relacionados con aspectos negativos en el ámbito profesional: “tímido”,
“apocado”, “débil” o “ensimismado”.
Es tan dañino y perjudicial
porque al primar la visión del “procusto” se dificulta o anula el trabajo en
equipo, se tensiona el ambiente de trabajo hasta forzar la coincidencia, desaparecen
las relaciones win-win porque no existe equilibrio y, por supuesto, no permite
la potenciación de las capacidades y de los recursos con los que podría contar
la organización empresarial, académica o de partido si no fuese por su
intervención tóxica.
En definitiva, es una grave
“afección” tanto para la salud de las personas como para la salud de las
organizaciones a las que pertenecen.
Por eso el síndrome de
Procusto, es tan generalizado y trasversal porque su presencia puede llegar
hasta al ámbito personal. En relaciones de pareja, los que sufran este síndrome
evitarán personas más atractivas, más inteligentes o más preparadas que ellas…
En palabras de Juan Carlos Valda,
“el gran problema de muchas empresas es
que tienen empleados en puestos de responsabilidad que han decidido (consciente
o inconscientemente) que sus obligaciones no son las que les ha asignado la
empresa, sino que su trabajo consiste en mantener su trabajo”.
Es por eso, por lo que, sino
se opera de manera decidida desde la dirección general o la presidencia, el
decanato o la rectoría a través de los mandos intermedios contra estas
prácticas surgidas del miedo irracional, toda la organización quedará presa de
la mediocridad y de la tiranía de aquéllos que preferirán al más dominable
frente al más eficiente/competente por la sola egoísta bondad de que suponen
una menor amenaza al ser más controlables y fieles.
Tenemos que identificar a aquellos directivos que se encuentran frente
al “Principio de Peter o de incompetencia” y deciden convertirse en tóxicos
porque son una amenaza cierta para toda la organización.
Las empresas, la academia y las organizaciones en su conjunto tienen
que incorporar la diversidad, la innovación y la excelencia.
Steve Jobs nos decía que “no tiene sentido contratar personas
inteligentes y después decirles lo que tienen que hacer. Nosotros contratamos
personas inteligentes que nos digan qué tenemos que hacer”.
El reto está en saber gestionar el talento de aquellos que te harán
mejor como directivo no en contar con
personas dentro de tu equipo, de valía, que sepan más que tú en determinadas
áreas.
Desde el ámbito personal, la única forma de contrarrestar las acciones
de estas personas “tóxicas” es no cejar en el intento, ser firmes (recuerdo
ahora, la conversación con una colega muy querida y la expresión surgida
durante la conversación que mantuvimos recién llegado a su país: “mano de
hierro con guante de seda”) y siempre
desde la ética personal y la profesionalidad. (https://youtu.be/Q7kBpPfAzr8)
Me viene a la cabeza el lema
celiano, la frase que siempre repetía uno de nuestros premios Nobel más
recientes y Premio Príncipe de Asturias, D. Camilo José Cela: “el que resiste gana”, y que probablemente
recogió de la antigüedad clásica (vincit quis resistit).
La escribió por primera vez en “Caminos
inciertos. Historia incompleta de unas páginas zarandeadas” a propósito de su
libro más famoso, La Colmena, y del papel de la censura de entonces “que no
admitía ni el diálogo, ayudó no poco a mi desmoralización, de la que salí a
pulso y pensando en dos cosas: que, “en España, el que resiste gana” y que “no
me quedaba otra solución que sacar fuerzas de flaqueza para seguir resistiendo”.
Siempre tenemos que dar lo mejor
de nosotros mismos, por un compromiso personal y deontológico, y cuando después
de intentarlo, sin descanso, lleguemos al convencimiento de que la organización
se ha convertido en endogámica y tóxica, de manera elegante, buscar la salida. Seremos
mucho más útiles en otro lugar. El tiempo se encargará del resto...
Artículo realizado por Javier Espina Hellín CEO QLC SLP y doctor en
Ingeniería de Sistemas de Información
Hace muy poco tuve la oportunidad
de leer un estudio (http://neofronteras.com/?p=5560) que
me llamó especialmente la atención y que me gustaría compartir a través de este
blog de QLC. Incluso me llevó a buscar el “paper” original y consultar otros
que se publicaron antes por la aplicación que pueden tener sus conclusiones en
modelos de Inteligencia Artificial.
Abordan un fenómeno que se
denomina “propiedades emergentes” y que nos subraya el hecho que en la
naturaleza se observan constantemente y en cualquier nivel. Son aquellas
propiedades que no se encuentran en los miembros o las unidades que componen un
colectivo o estructura pero que si aparecen cuando interaccionan entre sí y lo
conforman.
Es un fenómeno conocido, pero extremadamente
complejo de explicar y aplica al tema de fondo que abordamos: la toma de decisiones colectivas racionales,
o lo que es lo mismo, cómo a partir de la inteligencia binaria (si/ no) de
cada uno de las unidades o individuos que pertenece a una determinada
estructura o sociedad (los estudios se han hecho con insectos sociales) ésta
es capaz de tomar la decisión que más le beneficia.
En el trabajo publicado, los
investigadores japoneses, aplicando un modelo animal, comprobaron que cuando un
número mayor de individuos responde "sí" a la mejor opción
disponible, el “tomador de decisiones colectivo” hace lo mismo. Y lo hace usando
sólo el mecanismo binario de sí / no (es decir, sin aplicar “decisiones de
calidad”). De tal manera que la mejor
opción siempre se adopta como una decisión de la mayoría (pero sin la
determinación de un quórum previo).
Los resultados que obtuvieron con
colonias de una especie de hormiga (Myrmica kotokui) fueron contundentes. Prefirieron
la mejor opción posible en un experimento de elección binaria y su rango de
aplicación potencial, como apuntaba en el primer párrafo, es tan amplio que
abarcan campos tan diversos como la robótica “de enjambre”, las sociedades humanas
o las neuronas que componen cada uno de nuestros cerebros. No olvidemos que una
de nuestras neuronas puede estar activada o inactivada, pero que la suma de
muchas neuronas tiene como resultado un comportamiento intelectual mucho más
complejo que el de una sola.
Parece claro que una regla
universal para tomar decisiones colectivas es la decisión por mayoría: tomar
una decisión como consecuencia de la formación de un quórum.
Existen varias hipótesis para explicar
la racionalidad colectiva: la retroalimentación positiva por un reclutamiento
más fuerte o un reclutamiento más rápido a la mejor opción de “n posibles” y,
después de efectuar las comparaciones oportunas (retroalimentación positiva /
latencia de contratación).
Sin embargo, en el caso de los insectos sociales estudiados, la
aplicación de la hipótesis del reclutamiento más efectivo para la mejor opción
(y la configuración del quórum) no es posible.
La explicación se podría resumir
en que un comportamiento así descrito tendría como resultado un aumento en el
número de “individuos itinerantes” que elegirían la mejor opción, sólo después
de probar todas las opciones disponibles.
Un comportamiento que necesitaría
mucho tiempo y habría hecho imposible que en el experimento sólo se necesitasen
poco más de 15 minutos para determinar la preferencia por determinada
disolución de azúcar. Lo mejor de “n posibilidades” necesita que cada uno de los
individuos evalúe todas las opciones (retroalimentación positiva) para después,
reclutar a los otros compañeros de nido que hubiesen llegado a la misma
decisión y conformar así el quórum.
Toda esta secuencia y las diferentes interacciones se conoce como una
decisión de calidad (por la necesidad de clasificar opciones de respuesta) y es incompatible con la naturaleza de un
colectivo donde cualquier miembro sólo tiene un umbral de respuesta simple, sí ó
no.
Es decir, no puede explicar la
racionalidad colectiva cuando los individuos operan de forma binaria, por lo
que el verdadero mecanismo de la racionalidad colectiva queda entonces por
explicar.
Con tal intención, los autores
trabajaron con 6 hormigueros con 56 hormigas cada uno, marcadas de manera
singular (única en cada hormiga) con una pintura especial para poder tener su
trazabilidad completa (es decir, se sabe el movimiento de cada una de las
hormigas).
Como se pretendía buscar una
respuesta binaria se las privó de alimento durante 3 días y luego, cuando
estaban hambrientas, se les ofreció una disolución de azúcar en dos
concentraciones diferentes: 3,5% y 4%.
El experimento se completó con 3
iteraciones a intervalos de 3 días entre medias cada vez.
Descubrieron que cada hormiga
individual tenía una preferencia consistente y fija, aunque no existía un único
patrón. Unas se alimentaban con las dos, otras preferían la más concentrada o
la menos dulces y las más resistentes al hambre ninguna de las dos.
Con todo, las variedades de las
decisiones de las hormigas representan los distintos umbrales de respuesta
respecto a la concentración de azúcar que se expresan binariamente: sí (me
alimento) /no (me alimento) con la disolución. A las que les da igual, diremos
que su umbral es bajo, las que ayunan representan el umbral alto y las que
eligen una disolución específica tendrían un umbral intermedio.
El siguiente paso que dieron los investigadores
fue que cada una de las colonias eligiesen entre el 3,5% y 4% de azúcar y comprobaron
que todas las colonias eligieron la disolución del 4%. La solución óptima, la
racional, ya que al ser más concentrada obtienen más calorías por Ud. de tiempo.
En la práctica, esto constituía
que además de optimizar la decisión ignoraban las preferencias de parte de las
hormigas del hormiguero. Solamente las hormigas del umbral intermedio influían
en la toma de decisión y el resto de las hormigas (con bajo y alto umbral)
simplemente no eran tomadas en cuenta.
Demostraba, empíricamente, que una decisión simple (sí ó no) tomada
individualmente da lugar a una decisión colectiva y racional (habiendo diversidad
de umbrales de respuesta en la población y sin necesidad de usar respuestas
graduales).
Pero este comportamiento no es
único en las hormigas estudiadas. Ya en los años 90 (Collective
decision-making in honey bees: how colonies choose among nectar sources, Seeley,
T.D., Camazine, S. & Sneyd, J. Behav Ecol Sociobiol (1991) 28: 277.
doi:10.1007/BF00175101.https://link.springer.com/article/10.1007%2FBF00175101)
se estudió este comportamiento con idénticos resultados. Según
demostraban, una colonia de abejas de miel sabe elegir colectiva y hábilmente
entre las fuentes de néctar disponibles en su territorio. Pero, entonces se
explicó como la expresión o resultado de una selección natural.
Todo parece indicar que el nuevo
enfoque que el equipo japonés propone es aplicable, también, a las abejas,
aunque sin dejar de admitir que el mecanismo binario no es mutuamente
excluyente con los mecanismos entonces propuestos. Existe la posibilidad que la
decisión adoptada por el colectivo (la colmena) pueda ser mejorada o corregida
por otros mecanismos naturales.
Los hechos son significativos
y coincidentes: la colonia explora selectivamente la fuente de néctar más
rentable y cambia, rápidamente, sus esfuerzos de “explotación” hacia aquélla en
detrimento de otras más pobres que incluso abandonan.
Cada trabajadora “alada” modula
su comportamiento en relación con la rentabilidad de la fuente del néctar:
a medida que aumenta la rentabilidad,
aumenta el ritmo de recolección y de intensidad del “baile” que hace cuando se
dispone a libar.
Además, y de igual manera que en
el caso de las hormigas, las abejas no hacen comparaciones entre las diferentes
fuentes de néctar disponible. Cada una sólo conoce su fuente particular de
néctar, operando con información extremadamente limitada, y calcula
independientemente la rentabilidad absoluta de su fuente, siendo la colonia quien genera una única respuesta:
se explotan “intensivamente” las fuentes
de néctar más ricas y las más pobres se abandonan.
El comprender el mecanismo que
permite que estos animalitos sociales sean capaces de tomar este tipo de
decisiones racionales, a partir, de una toma de decisión individual, simple y descentralizada
puede ser una de las “claves de bóveda” para los modelos de aprendizaje de la
inteligencia artificial, o incluso, para entender cómo funcionan nuestros
propios cerebros, donde 100.000 millones de unidades (neuronas) agrupadas
en 2.500.000 de columnas neocorticales nos
permiten elaborar los más complejos pensamientos a una velocidad de 400 km/h.
Pensemos que la distancia entre “pensar” que voy a hacer algo y hacerlo es de
sólo 400 milésimas de segundo y, todo, con un “motor eléctrico” que consume aproximadamente
la energía equivalente al 20% de nuestra
ingesta diaria. Poco más de 60W…
Una maravilla que todavía no
comprendemos y, que según parece, gracias a estudios como el que acabo de
comentar y a estos pequeños insectos ahora estamos más cerca de entender.
Artículo realizado por Javier Espina Hellín CEO QLC SLP y doctor en
Ingeniería de Sistemas de Información
Los demandantes que son un matrimonio,
en su condición de consumidores, reclamaron la totalidad de los gastos
notariales, registrales e impuestos derivados de la formalización e inscripción
de un préstamo hipotecario, en base a la doctrina dimanante de la sentencia del
Tribunal Supremo de 23 de diciembre de
2015.
Los demandantes consiguieron no ser condenados en costas porque las declaraciones de nulidad sí
llegaron a producirse y al serles reconocido el derecho al reembolso de 150,56 Euros.
Pero, ¿por qué la Audiencia
Provincial de Pontevedra sólo ha acordado la devolución de 150,56 Euros?
Nosotros te damos las
respuestas…
La Audiencia Provincial de
Pontevedra en su sentencia nº 152/2017 de 28 de marzo de 2017, ha considerado que
una cláusula inserta en un préstamo hipotecario que, por su generalidad, no
asegure una mínima reciprocidad entre los gastos producidos como consecuencia
de la intervención notarial y registral, que haga recaer su práctica totalidad
sobre el cliente consumidor, le ocasiona un desequilibrio relevante que no
hubiera aceptado en el marco de una negociación individualizada. Por lo que una
cláusula así, debe ser declarada nula.
Sin embargo, el Tribunal ha indicado
que se debe analizar la atribución del gasto en cada caso concreto, llegándose a pronunciar sobre las consecuencias de la nulidad de estas cláusulas abusivas.
En cuanto al reembolso de la
cuota del Impuesto de Actos Jurídicos Documentados, la Audiencia Provincial de
Pontevedra ha concluido que una vez expulsada la cláusula nula del contrato se ha
de estar a la norma que rige el impuesto y que es imperativa.
Y, en este punto, de la
aplicación tanto de la sentencia de la Sala Tercera del Tribunal Supremo de 31
de octubre de 2016 como de la legislación tributaria específica (ej. el
artículo 68 del Real Decreto 828/1995 de 29 de mayo), ha concluido que no
procede el reembolso cuando el que pagó la cuota del impuesto es quien debía
según la Ley, es decir, en estos casos el prestatario.
Respecto a los gastos de
notaría, de declararse nula la cláusula general que prevé su distribución en el caso concreto, el
Tribunal ha estimado que debe aplicarse la norma 6ª del Anexo II del Real Decreto 1426/1989 de 17 de
noviembre, por el que se aprueba el Arancel de los Notarios, del que se deduce
que corresponde el pago del arancel al prestatario por ser éste, el obligado al
pago del impuesto derivado de la escritura de préstamo hipotecario.
Por lo que se refiere a los
gastos derivados de la inscripción en el registro, la Audiencia Provincial de
Pontevedra ha estimado que, de ser nula la cláusula sobre distribución de los
gastos de la hipoteca en el caso concreto, las consecuencias de la nulidad se deben extraer de la
aplicación del Real Decreto 1427/1989 de 17 de noviembre, por el que se aprueba
el Arancel de los Registradores de la Propiedad.
La consecuencia de la aplicación de esta norma es que, el
banco es quien debería asumir el pago del arancel del registrador en tanto en
cuanto, es al banco a quien le interesa principalmente la inscripción de la
garantía hipotecaria en el registro de la propiedad.
Con base en estos argumentos y en otros
más, desarrollados por el Tribunal en su citada sentencia, se ha condenado al banco a reembolsar al
matrimonio demandante 150,56 Euros en
concepto de gastos de registro de la propiedad.
Para más información sobre este tema, puede contactar con el Área Legal
de QLC y nuestro equipo de abogados le prestará un asesoramiento técnico
ajustado a su situación personal además de ofrecerle la defensa legal más
completa en favor de sus legítimos derechos e intereses.
Cuando nos referimos al término
acuñado por Accenture de “fuerza de trabajo líquido”, es probable que no
sepamos que tal denominación hace referencia a una de las más atinadas y
lúcidas caracterizaciones de la modernidad que nos ha tocado vivir. En palabras
de Zygmunt Bauman, “surfeamos en las
olas de una sociedad líquida siempre cambiante -incierta- y cada vez más impredecible”
Sin querer entrar en el aspecto
más profundo y sociológico del adjetivo que tan hábilmente utilizó el autor
polaco para construir su tesis más conocida y respetada (aunque recomiendo
vívidamente la lectura de “la vida líquida” o “ tiempos líquidos” ), Accenture une
bajo un mismo sintagma, compuesto de tres palabras, a dos pensadores de siglos
y realidades sociales tan distintas como Marx y Bauman para unir, en un todo
continuo, el pasado, el presente y el futuro más probable en la organización
del trabajo de las empresas que ya se asoman al vórtice del mundo digital.
Una nueva denominación que incorpora y se beneficia de los atributos de
la “marca líquida” de Bauman, para conceptualizar una realidad digital marcada
por unos tiempos de respuesta y adaptación cada vez más cortos y donde tanto el
conocimiento como la tecnología, junto a las 3 T´s que predica el Sr. Roig, fundador
de Mercadona, (Trabajo, Trabajo y Trabajo) se muestran como los ingredientes
imprescindibles de la receta del éxito.
La empresa que pretenda vender
productos, servicios o ideas tiene ante sí una compleja ecuación que le
enfrenta al paradigma digital.
El “Opting Out” (el negar o
querer quedarse fuera) de la revolución digital no es una opción. Como me
decían a veces de pequeño, la respuesta es sí o sí. Y esto lo cambia todo en el mundo empresarial,
las estrategias, los modelos de negocio, los procesos internos, la relación con
los “stakeholders” y la fuerza de trabajo.
Las organizaciones empresariales
demandan profesionales de altas capacidades, rápida adaptación a un entorno en
continuo cambio, gran capacidad de aprendizaje de sus equipos humanos
multidisciplinares, herramientas de gestión y análisis cada vez más
sofisticadas y sistemas de información capaces de explotar grandes volúmenes de
datos desestructurados…
Es decir, además de tecnología y
mucho trabajo necesitamos equipos que
sean capaces de mantenerse al día, en cada una de sus disciplinas, porque esto
en sí mismo se convierte en una ventaja competitiva respecto a aquéllas que
no reaccionen a la nueva realidad.
¿Pero cómo podemos hacer que los equipos actuales de las empresas se
enfrenten a esta realidad y se mantengan encima de la “ola” que tienen que
surfear?
Personalmente creo, que la
clave está en ofrecer a nuestro cliente y, desde fuera de su organización, soporte
técnico, formación y el asesoramiento adecuado, de manera proactiva y
programada, que ayuden a sus actuales equipos de personas a adaptarse, con
rapidez y solvencia, a las continuas demandas de un entorno ferozmente
competitivo y en perpetuo cambio.
Significa, ser capaces de incorporar nuevas estrategias en la “fuerza de trabajo”que incorporen a las empresas capacidad
de reacción ante la nueva demanda (atender nuevas necesidades de sus
clientes), capacitación, experiencia e innovación
en 3 ámbitos concretos: desarrollo de habilidades, planificación de
proyectos y estructura organizativa.
·
Habilidades:
la capacidad de aprendizaje continuo se convierte en una competencia básica
para la propia organización empresarial, por la necesidad continua de
adaptación y de incorporación de nuevas “habilidades” (re-skills), que no serán
solamente técnicas sino también sociales y de creatividad, que le ayuden a un
desempeño que las “máquinas” no pueden hacer. Los equipos necesitan “re-aprender” por la
incorporación, por ejemplo, de herramientas para mejorar la toma de decisiones y
mejor conocimiento del cliente (inteligencia artificial y la ciencia de datos
como la ingeniería de sistemas de información y de decisión).
·
Proyectos:
por la complejidad de las soluciones que las empresas, de la era digital,
tienen que ofrecer a sus clientes es necesario redefinir los conceptos de
“fuerza de trabajo” y de colaboración (con sus stakeholders), tanto por razones
técnicas, operativas como económicas y de viabilidad empresarial. Las empresas
no pueden redimensionar continuamente y por proyecto a sus equipos humanos sólo
con recursos internos. Deberán pensar cómo redimensionarlos y re-equilibrarlos
con recursos internos (sus actuales equipos), profesionales independientes
(autónomos/ freelancers), socios estratégicos (otras empresas que asuman el rol
de socio temporal) y la tecnología (soluciones en la nube de gestión,
almacenamiento y colaboración desde cualquier lugar 7/24/365) necesaria para
ser eficaces en la implantación o venta de esas nuevas soluciones que les
demanda el mercado, pero manteniendo el control del proyecto.
·
Organización:
todo lo que acabamos de comentar implica necesariamente cambios profundos en la
estructura organizativa de la empresa y sus estilos de liderazgo. La primera
derivada es que se “aplanaran” los organigramas y serán mucho más flexibles. Se
necesitarán personas capaces de liderar equipos de trabajo multidisciplinares,
de edades, expectativas y valores diversos donde las expectativas se expresen
en términos claros, el “feedback” sea continuo, el trabajo colaborativo y la
toma de decisiones sea mucho más rápida y cercana a la información obtenida en
tiempo real.
Al contrario de lo que
inicialmente se puede pensar de la empresa de la era digital, la tecnología no
es el pilar central sobre el que pivota el valor diferencial de la
organización. La tecnología, como siempre ha sucedido es una herramienta, una
potente herramienta, pero lo nuclear son las personas.
Las personas deben ocupar ese centro en la revolución digital como
factor diferenciador, estratégico para la compañía y polo de innovación.
Por mi experiencia como CEO en QLC,
las empresas advierten la velocidad de
los cambios a los que tienen que hacer frente, que les afecta con independencia
de su tamaño y su preocupación es acertar en el cómo.
Valoran mucho que seamos
capaces de entender su realidad empresarial para ayudarles a redimensionar
tanto su fuerza de trabajo como el espacio físico donde seguir “peleando” para
seguir siendo competitivos, por ejemplo al reducir sus costes fijos (muchos
“pocos” hacen un mucho menos) o a transformar parte de ellos en variables,
acompañándoles en su transición digital, reforzando su seguridad y protección
de datos u ofreciéndoles la posibilidad de externalizar áreas como la
financiera o la legal de su estructura interna.
No olvidemos que para dentro de
muy poco, el 2020, se estima que más del 40% de los empleados de las empresas
estadounidenses sean “freelance”. Una tendencia de fuerte crecimiento ya que
era sólo un 10% hace un par de años.
Respecto a la composición de esa
“fuerza de trabajo” (o de las plantillas), de nuevo, la diversidad y la
convivencia de diferentes perfiles de trabajadores “internos y externos” será
una realidad. Los consultores trabajando dentro del cliente son 7% más que hace
un año, y son el corazón de los servicios profesionales y en tan solo 10 años
los “millennials” conformarán el grueso de la fuerza de trabajo en las
compañías (algunas previsiones lo cifran en el 75%).
El gran riesgo de quedarse fuera
es la pérdida de la posición competitiva.
Los cambios son tan rápidos y relevantes que quien no esté “en
movimiento” no tendrá la posibilidad de recuperar la posición que tenía en su
mercado de referencia porque los esfuerzos que debería hacer para recuperarlo serán,
simplemente, inasumibles…
Artículo realizado por Javier
Espina Hellín CEO QLC SLP y doctor en Ingeniería de Sistemas de Información
Hace no tanto tiempo, nadie podía
imaginar que las “nuevas catedrales del SXXI”, y uno de los modelos de consumo
y de desarrollo económico más exitoso desde la segunda guerra mundial, podía
tener los días contados.
Y menos aún, que uno de los factores
desencadenantes serían los cambios profundos en los patrones de consumo y
compra que, derivados de la disrupción digital, protagonizarían los Millennials, o todos los nacidos entre 1981 y 1995,
mucho más tecnológicos y con diferentes valores que nuestras generaciones
anteriores.
Me estoy refiriendo a los centros
comerciales y a las compañías de “ventas por departamento”.
El modelo es bien conocido. En
sus inicios, esas grandes tiendas minoristas por departamentos se
encontraban en lugares muy céntricos de las ciudades y su oferta era
irresistible. El valor para el cliente se podía resumir en que podías realizar
todas tus compras de todas las categorías en un solo lugar y, bajo un mismo
techo de lujo “moderado” (que lo colocaba en tu mente como “aspiracional”) y
con un glamour especial.
A medida que los nuevos clientes
se movían centrífugamente desde el centro a las afueras de las ciudades, las
tiendas por departamento les seguían, pero ahora, dentro de centros comerciales
planificados y edificados a tal efecto.
Era una reinterpretación del modelo primitivo. Un centro
comercial que dentro de sus instalaciones tiene a una o varias (según su tamaño)
cadenas de venta por departamento (Macy´s, JCPenney, Sears, Dillard’s, en EEUU o el Corte Inglés en nuestro país) que
hacían las veces de “faro” localizador de “nuevas experiencias de compra”,
atrayendo con su luz al consumidor que entendía como nueva ventaja añadida, el
confortable y seguro nuevo universo de compras y ocio que le esperaba dentro de
sus límites y que le seguía ofreciendo su gran tienda por departamentos preferida,
otras comercios más pequeños y los cines, boleras y la oferta gastronómica que
ampliaría, notablemente, su tiempo promedio dentro del establecimiento. Todo estaba al alcance de unos pasos,
alguna escalera mecánica y unos ascensores.
El modelo era el paradigma de
desarrollo económico local y modificaba el régimen de propiedad de esos
comercios minoristas. Aprovechando este potente reclamo, decenas de tiendas,
más pequeñas y especializadas, completaban la lista de inquilinos (que no
propietarios) de ese centro comercial. Un modelo muy efectivo y replicado por
todas partes del mundo capitalista. Baste un dato: sólo en EEUU se construyeron 1.500 centros comerciales en 50 años (1956-2005)
En un informe del 2009 de Consumer
Reports Magazine, que ahora nos parece del siglo pasado, se decía que los compradores
gastaron, ese año, 405.000 millones de dólares solamente Walmart, la tienda
minorista más grande del mundo por entoces.
Hace pocos meses, en diciembre del 2016, se hacía público en
EEUU un nuevo informe de la mano del mayor banco estadounidense, JP Morgan
Chase, donde después de comparar 284.000 fotografías de aparcamientos de
centros comerciales y de grandes tiendas emblemáticas (Apple o Zara en la 5º
avenida de Nueva York), hechas por satélites y durante los 3 últimos años, que afirmaba que existían signos de una
debilidad creciente en la actividad de ventas minoristas en el país.
Pero en el estudio no sólo
estaban las grandes cadenas de ventas por departamentos, también se estudiaron
otras tiendas minoristas de electrónica como Radioshack, BestBuy y Conns, supermercados,
de toda la vida, como el antes mencionado Wal-Mart, Target o Costco, otras
cadenas de supermercados de un target distinto como las de comida orgánica de Whole
Foods y un largo etcétera, pero con idéntica conclusión.
Además, se estudiaron periodos
concretos y especialmente significativos por su volumen de ventas concentradas
en pocos días, como Thanksgiving Day (Día de Acción de Gracias) o el muy popular,
también en España desde hace un par de años, el Black Friday.
La conclusión de nuevo era la misma.
¿Cómo explicarlo?
Podíamos construir una hipótesis poco
verosímil.
H1: ¡Había menos coches, en las
fotos tomadas por satélite, porque habían decidido compartirlo con vecinos o
amigos para reducir su huella de carbono!
Aunque deseable por su impacto
medioambiental, nuestra hipótesis 1 estaba lejos de explicar el fenómeno.
Lo que este informe dejaba claro es que los patrones de consumo y
compra habían cambiado mucho en poco tiempo (recordemos que el periodo
estudiado era 3 años).
Nada nuevo. Es un fenómeno muy
estudiado por nuestra disciplina, el marketing, pero lo que realmente es
significativo es la velocidad a la que se produce.
Estamos asistiendo a un trasvase del volumen de compra, como nunca
antes, de un canal tradicional a otro digital.
Y, seguro que habrán acertado en
el nombre del nuevo “oferente”. Amazon.
Las consecuencias son tan predecibles como inquietantes.
Hagamos un repaso cronológico. El
9 de diciembre de 2016 se publica el informe al que estoy haciendo referencia,
3 meses y 1 día después, el 10 de marzo de 2017, la mayor tienda de productos electrónicos
del mundo y presente en todos los centros comerciales de EEUU, Radioshack,
presenta suspensión de pagos después de haber restructurado su deuda y, el 21
de ese mismo mes de marzo, se publica que Sears, símbolo nacional, tenía
"dudas considerables de continuar siendo un negocio viable" a un año
vista.
La previsión es que, de los 1.100 centros comerciales, o “malls” como
se conocen allí, que están en activo, a fecha de hoy, sólo queden alrededor de
800 en los próximos 10 años.
Y aquí, es donde se empieza a
explicar el fenómeno de los Millennials y la modificación de los hábitos de
compra, porque el perfil de los consumidores que todavía siguen visitando
los centros comerciales, y comprando allí, son aquellos que tienen más
edad. Cuanto más mayores más fieles…
Los nuevos consumidores, la
generación norteamericana más joven, es más urbana, más digital, no compra
coches y se está “europeizando”, si a uno de los efectos colaterales de la
globalización se le puede llamar así: viajan con más frecuencia, utilizan
hoteles u otras alternativas de alojamiento en sus destinos y, valoran cada vez
más, comer mejor y en un entorno más sofisticado.
Si alguna vez han estado en un
mall, la oferta gastronómica predominante no se puede considerar como “sofisticada”.
De manera, que ni siquiera para comer el centro comercial se constituye en
alternativa para este colectivo.
El cambio de modelo o el fin de una forma de comprar, parece claro, que
está ante nuestros ojos y aunque algunos puedan argumentar que, en el caso
de EEUU, la ratio de superficie de centros comerciales por habitante es 7 veces
mayor que el de Italia o 10 veces mayor que en Alemania, no parece
suficiente para negar la evidencia de su agotamiento, incluso, con las
adaptaciones que se están incorporando en algunos países en desarrollo.
Posiblemente, será más tarde porque su incorporación ha
sido más reciente, pero me resulta difícil pensar que no se producirá.
Me viene a la cabeza el caso
de Lima, en la América Latina. Sus centros comerciales, aunque siguen el
modelo, explicitado anteriormente, están incorporando nuevas herramientas de
fidelización y de retención de sus clientes nuevos que merecen ser mencionadas.
Su oferta gastronómica,
posiblemente como consecuencia del boom nacional del sector, y de ocio dentro
del centro comercial, es mucho más elaborada, sofisticada y “cool” fruto de un buen
trabajo de microsegmentación orientada al segmento con mayores índices de
crecimiento en el país, que casualmente es el más joven, y al que, además de conexión
WI FI, se le ofrecen espacios abiertos de colaboración, convivencia y
experiencia colectiva que les llevan a una socialización memorable.
Los signos del agotamiento del
modelo, también, los encontramos entre nosotros y de igual manera en España llevamos
años cerrando centros comerciales y soportando pérdidas económicas, bien sea
por la falta de afluencia o por el descenso del ticket medio de compra.
Algunos de ellos, paradigmáticos
como el “Centro Comercial Opción”, propiedad de Metrovacesa y en el que se
incluía una completa y diferenciada oferta de ocio dentro del municipio de
Alcorcón de Madrid, cerró sus puertas en el año 2009. Sólo 7 años después de su
apertura, o el propio Corte Inglés, nuestro símbolo nacional de cadena de
ventas por departamento, con 21 instalaciones deficitarias a lo largo y ancho
de nuestro territorio, de los 100 centros que posee, y al que habría que añadir
otros 7 cuya situación, sin ser deficitaria, apenas supera el “break-even” o
punto muerto. Muchos de ellos abiertos a partir del año 2000 e, incluso,
después del estallido de la última crisis económica.
Sus cifras, constantes de
pérdidas, hacen necesarias acciones para que la influencia negativa en el
balance general del grupo desaparezca lo antes posible, porque pueden poner en
peligro la propia viabilidad del grupo.
Parece que la solución elegida y que
adoptará la compañía, es que estos centros deficitarios se conviertan en
“centros outlet” donde ofrecer al consumidor una segunda oportunidad de compra
a menor precio y, así, extender el ciclo del producto apalancándose en el valor
de su marca.
Pero, sin entrar en otras
disquisiciones como la necesidad de singularidad del entorno outlet como factor
experiencial de compra, reclamo muy utilizado en zonas outlet y de muy difícil
implantación en un mismo edificio (véase el caso de Sawgrassmills, www.simon.com/mall/sawgrass-mills, el
de Las Rozas Village, www.lasrozasvillage.com en Madrid, o la Roca Village, www.larocavillage.com, en España), esta redefinición de
centros ¿tendrá influencia en el perfil de sus consumidores habituales?, ¿en
sus hábitos de compra?, ¿hará que vayan a comprar a sus centros consumidores
más jóvenes? o ¿busca ampliar su base de clientes?
Ojalá consiga, al menos, esto último. Pero, incluso alcanzándolo
sólo logrará retrasar lo que parece inevitable.
Lo más probable es que no
consiga respuestas favorables al resto de las preguntas antes formuladas,
porque con esta medida no se atiende a la razón que explica tanto el
descenso de compradores físicos en tienda como la bajada en la compra media o
el envejecimiento progresivo de su cliente tipo (atrapado en la brecha digital).
Se trata de una verdadera revolución en los hábitos de compra y en la
manera de comprar, que están aquí para quedarse y que no pueden revertirse
con medidas bienintencionadas, pero de efectos cosméticos en el caso que
funcionen.
Déjenme compartir algunas cifras
que nos invitan a la reflexión:
·
Las ventas de Amazon en todo el mundo han
aumentado un 31,1% en solo un año.
·
857 millones de dólares son el beneficio neto
reportado por Amazon en el último trimestre, frente a los 92 reportados
en el mismo trimestre del año pasado
·
El precio de las acciones, en un año, ha
experimentado un incremento del 43%
·
2.900 millones de dólares son los ingresos
trimestrales acumulados por la compañía de servicios en la nube Amazon Web
Services
·
Un 52% de los compradores de Amazon son miembros
de Amazon Prime. Un servicio de pago anual que incluye envío gratuito en 48
horas en la mayor parte de las compras que realiza el propio Amazon y que
incluyen productos frescos (la próxima e inminente revolución del consumo
doméstico)
·
Cuenta con 63 millones de suscriptores Prime sólo
en EEUU, a junio de 2016, frente a los 10 millones que tenía hace solo 3
años
·
En el e-commerce, y sólo el 12 de julio, tuvo el
74% de la cuota de mercado.
Acabo, con una noticia muy
reciente y que confirma que se trata de un fenómeno profundo, global y
acelerado, íntimamente relacionado con la tecnología móvil y los cambios de
conducta comentados en la manera de vivir la experiencia de compra.
Al otro lado del Atlántico, está
sucediendo lo mismo. Compañías del mismo sector y de éxito indiscutible, en
otro tiempo, se están enfrentando al mismo problema que tiene El Corte inglés
aquí. Es el caso de Macy's.
Según el anuncio que hizo en
enero de este 2017, ya se conoce la ubicación concreta de 68 de las 100
sucursales que pretende cerrar, en este ejercicio de un total de 730 tiendas
para quedarse sólo con los establecimientos con los que puede ganar dinero.
El efecto más inmediato y directo
será entre sus empleados ya que supone la pérdida de 6.200 puestos de trabajo y
la recolocación de otros 3.900 trabajadores.
En el caso del Corte Inglés, se
estima que el número de empleos por centro es de 1000. De manera, que el
impacto de una medida similar es trágicamente fácil de calcular, pero lo peor,
siendo ya muy malo, es que cuando nos empeñamos en mirar para otro lado porque
no nos gusta lo que vemos, aquello que queremos evitar no sólo nos alcanza,
sino que nos pasa por encima…
¿Se acuerdan aún de Blockbuster?
Artículo realizado por Dr.
Javier Espina Hellín, CEO en QLC SLP
A la hora de abordar la
“transformación digital”, teniendo en cuenta mi propia experiencia como soporte
en la transición digital para empresas, creo que es importante hacerlo desde
una doble perspectiva:
1. Concienciar, a quienes me preguntan, sobre lo que significa la Transformación
Digital
2. Transmitir
confianza con transparencia y con
medidas de seguridad suficientes que garanticen tanto nuestra privacidad, por
ejemplo Cloud, como la capacidad de recuperar el control si fuese necesario,
por ejemplo con la inteligencia artificial (AI), pero que , a grandes rasgos,
es sólo un paso más en los habituales controles de los que ya disponen todas
las compañías en otros “ámbitos seguros” como puede ser el pago con tarjetas de
crédito, las operaciones de Comercio Internacional, Confirming (pólizas de
crédito para pago de proveedores), etc. Esto no significa ser “optimista” ni
reactivo en temas de seguridad. (Lo explicaré más adelante)
El primer punto, es esencial. Casi me atrevería a decir que si no
se entiende el verdadero significado de la transformación digital de nada sirve
lo demás.
La “Transformación Digital” es mucho más que una “transformación”. Es una revolución tan profunda y disruptiva
como lo fueron todas las 3 anteriores (1.vapor-carbón, ferrocarril/
2.petróleo, electricidad, química, automóvil/3. Nuclear, tecnología, móvil,
internet/ 4. Energías alternativas, redes sociales, transformación digital,
dato (BIG DATA), ???).
Lo que a muchas personas les
despista es el adjetivo que se utiliza en su nomenclatura. “Digital”.
Esta revolución trasciende lo
digital y la tecnología que se asocia a ella. Lo verdaderamente nuclear es que es un cambio en la forma de pensar, en
el modelo de negocio de las empresas y hasta en nosotros mismos como
actores del cambio como consecuencia de esa nueva tecnología.
Desde un punto de vista
empresarial, representa un cambio en el
modelo de negocio y en la forma en la que la compañía interactúa con su entorno.
Lo que los anglosajones llaman “stakeholders”
y que podríamos definir como “parte interesada” y que bajo su paraguas
encontramos a todas aquellas personas u organizaciones afectadas por nuestras
actividades y decisiones como
empresa (proveedores, clientes,
competidores, etc.).
¿Qué sucedió cuando nació Spotify?
Supuso un cambio en la manera de
relacionarse con la música. Gracias a la tecnología.
Pero significó mucho más que eso.
Representó un cambio radical en el
modelo de negocio. El cliente no compraba música sino que consumía
servicios. La transición consistió en pasar
de comprar música a consumir música mediante el acceso a la “librería” de
canciones más grande del planeta… Por cierto, ese modelo ha sido adoptado
por otras muchas empresas y sectores. Movistar (con sus productos Fusión,
Fusión +), Uber, Facebook, Airbnb, Amazon o Netflix que ha pasado a ser el
mayor proveedor de contenidos de video del mundo. (Por cierto, gracias, además
de a la tecnología mencionada, al marketing. Un único precio fijo mensual que
evita el “dolor” que antes producía el pago por cada película).
Resistirse al cambio o querer mirar hacia otra parte, no sirve de nada
porque acabará afectándote sin importar tu tamaño. Gigantes como Kodak o
Blockbuster (por aprovechar el ejemplo anterior del pago por cada película
alquilada) nos lo recuerdan día a día.
El sector de “despachos
profesionales” que agrupan profesionales en economía, derecho, ingeniería, etc.
o el sector de asesorías/ gestorías no son una excepción. El cambio en el
modelo de negocio es igualmente profundo. ¿Alguien
puede seguir pensando que el valor entregado por una "gestoría
tradicional" como ayuda al cliente en el cumplimiento de sus obligaciones
administrativas es suficiente?, ¿representa una amenaza la nueva pasarela
de la Agencia Estatal de Administración Tributaria (AEAT)?
El canal digital, online, es estratégico para la AEAT. Ha sido
pionera en el uso de la administración electrónica (que hace posible que cada
uno de nosotros como ciudadanos/contribuyentes podamos realizar de forma
integral la tramitación de cualquiera de los procedimientos gestionados por la
AEAT) y evita desplazamientos, facilita la presentación del servicio y
permite dedicar el personal de la AEAT a otras cuestiones que agreguen mayor
valor a la sociedad (confío que entre ellos esté, como prioridad por razones
evidentes a tenor de las noticias que a diario nos escandalizan, en la lucha contra el fraude).
Me consta que la AEAT es una
organización que apuesta por las TICs desde hace muchos años. En estos momentos, tienen muy avanzados
proyectos de BigData, de Business Intelligence y de captura de información en
fuentes abiertas (Internet).
Por tanto, la “transformación Digital”es
un reordenamiento de nuestros procesos y de las relaciones que mantenemos como
empresa con nuestros “Stakeholders”. La tecnología sólo nos despeja de
la ecuación de supervivencia empresarial, “el cómo”.
Siguiendo el caso de la AEAT,
desde finales del 2013 están llevando a cabo un cambio de arquitectura
tecnológica que consiste en trasladar los servicios ejecutados en Mainframe,
hacia arquitecturas abiertas de menor coste y que permitan atender las nuevas
necesidades de almacenamiento (con crecimientos en torno a un 45% anual),
sin pérdidas en sus niveles de funcionalidad y disponibilidad.
La nueva arquitectura se basa en
el uso de ordenadores basados en múltiples procesadores x86 o clusteres (hacia
donde convergen, por su escalabilidad, todos los grandes fabricantes como
HP, Dell, Cisco, Fujitsu, Lenovo, Huawei, etc.) y que hace posible que los
costes dedicados al Mainframe y productos relacionados se reduzcan en 2017 en
no menos de 15 millones de euros con respecto al coste soportado en 2013.
Por tanto, la pregunta ya no es si nos afectará o no. La pregunta es cuándo
queremos hacerle frente, con qué tecnología y con qué “otros” jugadores vamos a
seguir contando.
Es ahora, cuando podemos abordar
el segundo punto que avanzaba al
comienzo. La confianza, seguridad y
privacidad Cloud.
Decía que sólo representa un paso
más allá. Más profundo y de mayor
alcance, si cabe, por la accesibilidad, sofisticación y persistencia de las
amenazas en materia de seguridad, pero
íntimamente relacionado con ese cambio de paradigma que, por su grado de
afectación en lo tecnológico, eleva los antiguos estándares respecto a la velocidad
de innovación, el grado de amenaza (ya no es sólo local porque podemos
sufrir un ataque desde una dirección IP en China)y la obsolescencia de la "protección comprada".
Ahora el proveedor de soluciones Cloud, en la nube, se convierte en
"socio"porque nuestra
seguridad dependerá de los controles que éste incorpore en sus soluciones.
La seguridad tiene que estar
incorporada por defecto (mapeos de usuarios, entornos de cero confianza,
sin permisos, una administración centralizada y reportes continuos, etc.), por
lo que el reto, es elegir bien a tu proveedor.
¿Qué sentido tiene discutir sobre la sofisticación y persistencia de
las amenazas, el riesgo asociado con el IoT (el Internet de las cosas), los
dispositivos móviles, la necesidad de la prevención o el valor de la seguridad?
Déjenme ponerles un ejemplo muy
reciente. De menos de un mes.
¿Han escuchado el agujero de seguridad
de nuestros móviles tanto en plataformas Android como iOS del pasado día 11 de
abril?
El sistema operativo móvil, iOS
10.3.1, tiene un fallo de seguridad grave en el módulo del Wi-Fi que también afecta a de Android. Ha sido
detectado por Gal Beniamini, un experto en seguridad del grupo Project Zero de
Google, en un chip inalámbrico (fabricado
por Broadcom) y que ha obligado a los desarrolladores de Apple a lanzar un
parche de seguridad.
1. ¿Qué
consecuencias tiene ese fallo para los usuarios?
Muy profundas ya que puede ejecutar un código de forma remota, muy
fácilmente, que permitiría a un atacante conectado a la misma red Wi-Fi el
acceso completo al dispositivo “víctima” (smartphones, iphones y iPads) sin que
el usuario tenga la más mínima constancia de ello. Esto se debe a que, por defecto, se dan permisos de lectura, escritura
y ejecución a toda la memoria a la que pueden acceder estos chips.
2. ¿Qué
grado de influencia/capacidad de acción tenemos cada uno de nosotros sobre ese
agujero en la seguridad de nuestros sistemas operativos móviles?
Ninguno. Son las empresas involucradas las únicas con capacidad
para ello. De hecho, su relación en la solución es la de “socios”.
Broadcom ha trabajado con Google
para dar una solución estable a este problema y evitar amenazas futuras. Las
últimas versiones del firmware para los chips Wi-Fi ARM Cortex R4 ya incorporan
medidas de seguridad que impiden esa ejecución remota de código. La
vulnerabilidad ha sido registrada el pasado 4 de abril como CVE-2017-6975 y el
parche es de 27 MB. El tiempo de respuesta de Apple ha sido excelente y
continua trabajando en el próximo parche que llegará a sus dispositivos en el iOS
10.3.2. (https://www.redeszone.net/2017/04/04/ios-vulnerabilidad-wi-fi-iphone-ipad/#sthash.1X07rCR7.dpuf.)
La única respuesta posible para ganar confianza es darle “alguna”
ventaja a la seguridady evitar que nuestra primera reacción ante este
tipo de “incidentes” sea la de un sentimiento de fragilidad, de desconfianza y
hasta de impotencia.
Y lo primero que debemos saber
es que simplicidad es sinónimo de seguridad (como lo es el riesgo al beneficio
en el ámbito financiero).
Así podremos explicar que no
por incrementar el nº de controles tendremos más seguridad, al contrario.
Somos más vulnerables. En su lugar, los controles tienen que ser parte del
desarrollo de los productos o servicios que nos ofrecen como empresas.
La activación de la seguridad tiene que venir configurada por defecto,
ser parte del ADN del desarrollo y esa simplicidad disminuirá los costes de
auditoría, de conformidad y creará confianza.
Eso sí, una nueva confianza.
Una confianza vigilante que será
posible gracias a los mapeos de
usuarios, controles en aplicaciones,
desarrollos a medida para la empresa y entornos de “cero” confianza sin
“permisos”.
Antes, hacía referencia al nuevo
papel de “socio” que deben adquirir y protagonizar tanto fabricantes como proveedores
de servicios tecnológicos. En el caso de servicios en la nube es “socio”
porque:
·
te acompañará a migrar a sus propios
“ecosistemas virtuales” de servicios en la nube tus datos.
·
te ayuda a no tener que invertir en una
costosa infraestructura física de proceso de datos, almacenamiento,
mantenimiento (con costes asociados del personal que lo administra) y de
recambio o sustitución de los equipos obsoletos.
·
vigila por ti la seguridad e integridad de tus
datos alojados y hace frente a los elevados costes que le suponen tanto la
ciberseguridad y defensa como el conjunto de contramedidas que necesitará
frente a un ataque, y de las que tú pagarás sólo la parte que te asigne en
su “reparto” (entre todos sus clientes) y
que te integra en concepto de servicio.
Bajo este modelo, las responsabilidades de seguridad de cada uno se reparten:
la empresa cliente sólo es responsable de la seguridad en su nivel de
operaciones (aplicaciones) y el “socio Cloud”, o proveedor de servicios en la nube,
es responsable de todo cuanto sucede “allí arriba”, es decir, es el encargado
de cuidar la infraestructura y su seguridad física y lógica.
Es un modelo que ofrece a
empresas de todos los tamaños el acceso a infraestructuras tecnológicas bajo
demanda, que son seguras por diseño y que están “certificadas” bajo estándares
mundiales muy estrictos (ISO 27001, ISO 27017, SOC 1, 2 y 3 y PCI DSS Nivel
1).
Hacer frente a esos costes de
manera individual, como empresa, sólo está al alcance de grandes corporaciones
e, incluso, algunos de ellos han renunciado no sólo por los costes evidentes
sino por el ritmo trepidante en la incorporación y adaptación de innovaciones
tecnológicas.
Empresas muy grandes de sectores
tan diversos como los servicios financieros, aseguradoras o portales de venta
han optado por estos modelos de seguridad.
Pero el concepto de seguridad
también tiene que estar unida al análisis de la información. El análisis
del dato, la transformación del dato en información con valor, es una mina de
oro aún no explotada por muchas compañías tanto en conocimiento del cliente, en
360º, como en la maximización de procesos.
Por ejemplo, existen desarrollos muy interesantes en el campo del
“metering” y la energía como fórmula de ahorro de costes en infraestructuras
complejas y detección del fraude (con eficacia del 99%), la monitorización de
pérdidas o el desarrollo de sistemas de mantenimiento predictivo (que consiguen
ahorros de hasta el 47% en aerogeneradores).
La tecnología y las nuevas capacidades que nos ofrece el tratamiento
“inteligente” de los datos nos ayudan en la toma de decisiones y a tener un
control mayor que se traduce en ahorros directos de explotación, y, lo más
valioso e increíble es que se produce en tiempo real, en la mayoría de los
casos.
Y aquí, podemos tener la
tentación de pensar que sólo estamos hablamos del Big Data para el análisis
inteligente de esos datos.
Bien, pero sólo en parte.
En el caso de la AEAT, de las
eléctricas y de las empresas de metering, por supuesto, por el ingente volumen
de datos, sea en número de
contribuyentes, 19,3 millones, sea por el número de mediciones (2 (años) x 365(días)x24(horas)x
nº cups1)), pero no tenemos en cuenta lo que puede suponer, el poder del dato, sin llegar al Big
Data, con la implantación de un ERP en una PYME.
Este puede ser un primer paso
para identificar un nuevo servicio de valor que podemos transmitir a nuestros
“Stakeholders”.
La tecnología es una potente palanca de cambio y las TICs no
representan un coste sino un elemento catalizador que nos ayudará a reorganizarnuestros procesos y las relaciones que
mantenemos como empresa con nuestros “Stakeholders”, y, por tanto, a mejorar
los resultados de nuestra organización.
En definitiva, de cómo
abordemos esta transición digital dependerán las consecuencias que traen
consigo la transformación digital, la implantación de la tecnología que lleva asociada
y nuestra reacción como sociedad ante todo esto.
Todo dependerá de cómo elijamos
desarrollarla. Si las empresas se centran, solamente, en aumentar la
eficiencia y la optimización de los procesos internos, perderemos las
oportunidades de aumentar el valor que entregamos a nuestros clientes, de crear
nuevos puestos de trabajo o nuevas maneras de trabajar (el teletrabajo por
ejemplo), mejorando la vida de las personas y la conciliación de trabajo y vida
personal.
El foco de las empresas tiene
que estar en cómo pueden dar solución a esas nuevas necesidades identificadas o
por identificar y no satisfechas de clientes, proveedores o stakeholders en su
conjunto, y en la entrega de ese nuevo valor tangible con el que poder crear
nuevos servicios y mercados “valiosos”, que podrían dar lugar a nuevas
oportunidades de empleo y crecimiento ( que dicho sea de paso, constituiría una manera de hacer frente a uno
de los miedos más generalizados y de mayor peso que percibe la sociedad ante la
disrupción que provoca la transformación digital).
Entonces, ¿cómo hacemos frente
a esta transición digital y a las “fricciones” que puede generar?
La única manera posible es construyendo confianza con transparencia,
con medidas de seguridad suficientes que nos permitan velar tanto por nuestra
propia privacidad como por la capacidad última para recuperar el control, por
ejemplo en AI (Inteligencia Artificial), si fuese necesario.
La respuesta está en nosotros. La tecnología que se está
desarrollando, ahora mismo, tiene que estar concebida desde nuestros valores como
humanos, con empatía y de manera inclusiva, situando al individuo en el centro
de todo.
Satya Nadella, CEO de Microsoft,
en una de sus últimas intervenciones se preguntaba: "¿Cómo creamos AI para
aumentar las capacidades humanas y mejorar la experiencia humana?, ¿qué
acciones debemos hacer para que el bienestar humano sea el centro de atención?
Pero, esto será objeto de un
nuevo Blog….
1 CUPS= Código Universal del Punto de Suministro. Es un código único que
identifica el punto de suministro de energía. Se estima que hay 27.000.000 en
España
Artículo realizado por Javier Espina Hellín CEO QLC SLP y doctor en
Ingeniería de Sistemas de Información
Sin miedo a la exageración o la
grandilocuencia podemos asegurar que estamos
viviendo un momento histórico en la era de la información.
La inteligencia artificial (AI), la
informática, la robótica y la electrónica son sectores de una interdependencia
tan clara como crítica, de crecimientos exponenciales y de una importancia de tan
difícil evaluación por lo que significará en nuestro propio futuro como lo fue
en su tiempo la electricidad, las computadoras, el descubrimiento del ADN o la
construcción del World Wide Web.
En pocos sectores, el tiempo se
convierte en una unidad de medida tan relativa. El ritmo en la innovación y los
avances que trae consigo, hacen que la equivalencia de un solo año sea la de un
siglo de antaño y la de una década, la noche de los tiempos.
Hemos pasado de la concepción clásica de programar un ordenador para
que fuese capaz de hacer determinada tarea, a que ellas (las máquinas) puedan aprender
de la experiencia.
En mi artículo anterior ya me
refería a este “aprendizaje automático" y hacía referencia al nuevo
Smartphone S8 de Samsung y a Bixby su asistente artificial. Un nuevo paso para
entender hacia dónde nos llevará la tecnología y hacia dónde vamos como sociedad
postindustrial.
Ya convivimos con herramientas de
este tipo en nuestro día a día. Desde las recomendaciones que nos hacen Netflix
o Amazon hasta la capacidad de Facebook para “identificar” las caras de nuestros
amigos, o la que utiliza nuestra aplicación favorita de “dating”. Todos son los
primeros ejemplos del aprendizaje automático.
Pero, el verdadero caso
paradigmático es el del coche “autodirigido” de Google.
"Un automóvil autodirigido
no está programado para conducirse a sí mismo", asegura Pedro Domingos,
científico de la Universidad de Washington y autor de "El algoritmo maestro: cómo la búsqueda de la última máquina de
aprendizaje va a rehacer nuestro mundo".
El coche de Google aprendió a
conducir, conduciendo millones de kilómetros, en pruebas, y observando al resto
de conductores cómo se enfrentaban a diferentes situaciones (variables).
"Nadie sabe cómo programar
un coche para conducir". Por eso, la clave es el aprendizaje automático.
Dicho en otras palabras, consiste en permitir
que los algoritmos aprendan a través de la experiencia.
Hace algo más de un año, en marzo
de 2016, y de nuevo Google hizo historia en la inteligencia artificial cuando a
través de un algoritmo, el programa AlphaGo, fue capaz de ganar a un humano, Lee
Sedol, en un juego llamado Go. Un juego tradicional chino de una complejidad tal,
que las diferentes configuraciones de su tablero son equivalentes a los átomos
que hay en todo el universo.
Pero, ¿cómo Google pudo ganar?
La respuesta comienza con la
forma de afrontar el problema. Google no “construyó” un programa con las reglas
del juego sino que desarrolló un algoritmo muy sofisticado con el que procesar
todos los juegos de Go disponibles de los últimos 80 años y, aprender por
patrones, en qué se parecen los mejores movimientos.
Es la “autoprogramación” por la búsqueda de datos. Tal vez por eso,
Eric Schmidt de Google dice que “cada gran arranque en los próximos cinco años
tendrá una cosa en común: el aprendizaje automático”.
Pero, como es de imaginar, no
sólo Google está trabajando en este campo. Partiendo del aprendizaje
automático existen múltiples experiencias de enorme interés.
Mike Sagar, está empeñado en construir un ordenador que aprenda como lo
hace un niño. Quiere desarrollar un “cerebro” que aprenda a través de la
interacción social, de las emociones y de sí mismo. Una evidente emulación de
nuestro propio proceso de aprendizaje.
Para ello, ha utilizado su
experiencia como constructor de simulaciones detalladas de partes del cuerpo humano,
en películas como Avatar o King Kong y lo combina con modelos biológicos
hiperrealistas junto a programas de inteligencia artificial en un intento de
simular la conciencia humana.
Parece, casi, ciencia ficción.
Pero no es. En un juego de palabras, casi podríamos decir que la ficción es
no querer darse cuenta de hasta dónde nos lleva la ciencia.
El segundo ejemplo que me
gustaría compartir es la de una compañía española. Si, española. Aquí también
contamos con desarrollos de inteligencia artificial y, a diferencia de los
anteriores, en muy pocas semanas estará disponible y al alcance de cualquiera
de nosotros.
Se trata de Aisoy Robotics, que hace muy poco ha presentado el Aisoy1 KiK, la sexta generación del Aisoy1. Un
robot emocional y educativo cuyo nombre es ya una auténtica declaración de
principios (SOY INTELIGENCIA ARTIFICIAL).
Aprende de su propia
experiencia, de la interacción social con niños y mayores e incluye un motor
emocional y un motor de diálogo con el que desarrollar pequeñas charlas para aprenderél mismo (captura de datos) y con la
ayuda de lo que la marca denomina “Mentor”, favorecer el desarrollo de las
distintas “inteligencias” del niño.
Un pequeño, sólo en tamaño, robot
social y emocional que es capaz de aprender para adaptarse a las preferencias
del usuario. Según sea el comportamiento del niño, Aisoy desarrollará su propio
estado de ánimo y un comportamiento único (decisiones y forma de reaccionar).
Pero lo que, personalmente, me
parece más prometedor es su capacidad de aprendizaje colectivo. Estos robots podrán
conectarse entre sí, a través de la nube, y toda la información (aprendida como
la proporcionada por los programas que sus dueños les carguen) será compartida con
las demás unidades activas.
El Aisoy1 KiK está basado en la
Raspberry Pi 3, la más potente hasta ahora. Aunque su lanzamiento comercial
será esta primavera, ya se puede reservar en su web por 249€ y 299€, según sea
la autonomía (2h/ 4h) y su capacidad de almacenamiento (8GB/ 16GB) (https://www.aisoy.es/aisoy1.html)
Por todo lo comentado y porque en
los últimos años se ha producido un rápido progreso exponencial en la
investigación de la inteligencia artificial, existen razones para pensar que
ahora estamos muy cerca de un verdadero avance
disruptivo.
Este consistiría es que las máquinas “sientan” como lo hacemos nosotros.
Según lo comentado por una de las personas que más saben en este campo, Alexi Samsonovich del departamento de cibernética
de la Universidad Nacional de Investigación Nuclear de Moscú (MEPhl), "esto implica, principalmente, demostrar
que una máquina es capaz de sentir emociones humanas y mostrar una inteligencia
socialmente emocional en una variedad de ambientes", pero dejando claro
que esto no implica, necesariamente, que lleve aparejado el concepto
de conciencia.
La clave está en el desarrollo de sistemas de aprendizaje profundo o redes
neuronales.
Dicho de otra forma, programas
que simulan procesos de pensamiento/razonamiento similares a los humanos, a
través, de un enorme conjunto de datos en el que poder observar similitudes y
diferencias en múltiples niveles de organización.
Estas máquinas emocionalmente
inteligentes que se están desarrollando en diferentes partes del mundo, se
harán realidad en los próximos años.
De hecho, el propio Samsonovich
junto a su equipo quiere que su “AI Virtual Actor” sea capaz de crear y
fijar metas, hacer planes y construir relaciones sociales de manera autónoma.
Pero antes de que eso suceda, ¿estaremos preparados como individuos y
como sociedad?, ¿a qué tipo de barreras nos deberemos enfrentar?, ¿serán
psicológicas o tecnológicas?
Lo único seguro es que un nuevo
paradigma nos espera y, detrás de él, una gran cantidad de poder computacional
para manejar enormes cantidades de datos bajo restricciones de tiempo
extremadamente estrictas.
Artículo realizado por Javier Espina Hellín CEO QLC SLP y doctor en Ingeniería
de Sistemas de Información
Con la llegada de la inteligencia
artificial y la progresiva e imparable preferencia por las pantallas de
nuestros Smartphones frente a otros dispositivos con los que trabajamos en el día
a día, ordenadores, tabletas, navegadores, etc. nuestra capacidad de libre elección
está cada vez más cuestionada.
Hace muy pocos días, compartía
con estudiantes de postgrado de una conocida Escuela de Negocios, lo que ya profetizaba
McLuhan a nuestros padres. “El fin de la galaxia Gutenberg para establecernos
en la galaxia Marconi”. En definitiva, algo que para nosotros es casi una
evidencia y que podríamos resumir como el fin de la cultura escrita en favor de
la cultura visual.
Pero, ahora, es casi más
acertado decir que vivimos en la galaxia Berners-Lee, donde Internet es el macromedio total. Un
nuevo medioque no pretende
establecer una competencia con el resto de los medios, ni persigue su
eliminación. No los elimina sino que los asimila para integrarlos en su propio
medio y ponerlos a gravitar a su alrededor.
Es cierto que la superioridad de lo
visual no es una novedad. Incluso, la inteligencia artificial tampoco lo es. Las
nuevas estrellas digitales son ya conocidas por su nombre por todos nosotros: Cortana de Microsoft, Siri de Apple, Alexa de Amazon y Assistant
de Google. A todas ellas, tendremos que añadirle una más, que mañana mismo 29
de marzo, Samsung nos anunciará. Será su asistente estrella artificial y su
nombre es Bixby.
Pero, ¿qué nos avanza, con muy
poco disimulo por cierto, este nuevo firmamento de estrellas digitales y de
inteligencia artificial?
Pues que parece claro que el inminente futuro quiere dejar atrás la
época táctil y adoptar la tecnología de voz para, que a través de ella e imitando
nuestra propia forma de comunicación más antigua, inaugurar la nueva eraque
nos espera y lo que se ha bautizado como EL INTERNER DE LAS COSAS, que sólo será posible por la, cada vez
más estrecha, relación con nuestros dispositivos móviles, tabletas, ordenadores
y wearables.
El objetivo final es continuar
con la integración, que antes comentaba, de todo nuestro entorno “multiconectado”
desde un interface mucho más ambicioso, fácil
y natural.
Samsung, convencido que el futuro
pasa por la inteligencia artificial, lo apuesta todo, con su nuevo S8 más la
versión Plus.
No sabría decir si después o como
consecuencia de un enorme fracaso mundial, a hombros de las baterías “poco
fiables” de su último terminal, la marca surcoreana lanza mañana, 29 de marzo
de 2017, su nuevo Smartphone S8 y S8 Plus que pondrá a disposición de todos una
nueva “innovación aceleradora” con el que quiere forjar un “nuevo escenario
disruptivo” y que pretende ayudar a consolidar una de las llamadas “tecnologías
fundacionales” más prometedoras del panorama tecnológico actual: el análisis
del Big Data.
Y todo esto, con un punto de
dramatización en la venta. Esa innovación aceleradora de Samsung nace como
consecuencia de la decisión estratégica de “matar” a su primera criatura de
inteligencia artificial, el S Voice de 2012, que lanzó al mercado con su S3.
El factor verdaderamente
innovador del lanzamiento mundial de Samsumg, para mañana, es que Bixby no
sólo será un buscador avanzado de información sino que nace con la ambición de “aprender
de nuestras rutinas”, en llamadas, búsquedas de información, de envíos de
documentos adjuntos, en definitiva, de hacernos más sencillo, rápido e
intuitivo el uso del terminal mediante la “predicción
de nuestro propio comportamiento”. Y esto, además de “customizar” primero,
nuestro móvil hasta el punto de hacerlo único, para después extenderse a
cualquier dispositivo con micrófono y conexión a internet (en palabras del
Injong Rhee, director de I+D del área de software de la marca), puede
convertirse en la piedra angular de toda la industria.
Para poder hacerlo realidad, una
de las claves es que nuestro dispositivo móvil se asegure que nosotros somos
quienes decimos que somos.
La tarea inicial será la
determinación del “usuario principal”. Nosotros mismos podremos parametrizarlo
mediante alguna de las variables biométricas que los dispositivos integrados en
el S8 puedan identificar. Será nuestro patrón de voz, de imagen facial, huella
dactilar o cualquier nuevo y exótico despliegue tecnológico con el que nos
sorprenda Samsung.
Pero, lo nuclear aquí es la
función para la que nace ese nuevo asistente Bixby y la potencia, rapidez y
alcance del universo que sea capaz de construir a su alrededor, incluso a costa de uno de sus
competidores más conocidos.
Por ello, Samsung ya ha
compartido Bixby con los más importantes desarrolladores de Apps (incluidas las
que puedan operar en dispositivos de Apple), para que pueda comenzar esa
nueva era de omniconexión con electrodomésticos de todo tipo, y aquí no se
si incluir, con un poco de maldad, al coche eléctrico a quien podremos
ordenar que inicie su ciclo de recarga de baterías desde nuestro móvil, con dispositivos
domóticos o, por ejemplo, con gigantes del comercio electrónico que,
amable y diligentemente, nos sugieran “regalos” para amigos, pareja o “nosotros
mismos”, en tiempo real y de acuerdo a nuestros patrones de compra, listas de
deseos, preferencias personales o últimas compras.
Un gigantesco nuevo reto al que
deberemos hacer frente no sólo desde nuestro rol de consumidores o profesionales
del marketing, que nos obligará a desarrollar nuevas estrategias de marketing y
comunicación entre marcas y consumidores, sino al resto de actores sociales.
Tendremos que alumbrar nuevos
entornos normativos y de competencia. Sólo por citar el primero que se me viene
a la cabeza, fuera de mi ámbito profesional…
Pero, para terminar, me gustaría
compartir una de las reflexiones que leí a Yuval Noah Harari en uno de sus
últimos libros, Homo Deus, respecto a la inteligencia artificial. Nos plantea
el dilema que puede traer consigo la convivencia de ese nuevo “asistente
artificial” con cualquier otro “ayudante o consejero” de nuestra propia especie
(padre, madre, esposa, amigos o aquel profesor que te descubrió ese mundo al
que ahora perteneces).
Si el índice de acierto, de coincidencia, de veracidad o de solvencia,
en definitiva de ayuda, es mayor y más consistente (por factores estadísticas,
de la accesibilidad de la que hablaban Kahnneman/ Tversky o de concurrencia) que el ofrecido por uno de nosotros ¿por
quién nos dejaremos “aconsejar” en nuestro devenir futuro? Y, contando ya, con
nuestra entera confianza por su competencia demostrada en saber cómo somos y
qué queremos en muchas y diversas circunstancias a lo largo del tiempo en el
que nos ha estudiado y averiguado nuestras preferencias, ¿lo haremos sólo
para elegir un regalo, una tienda, un restaurante o un determinado proveedor
virtual o también para elegir la compañera/o de vida, la inversión más
importante de nuestra vida económica (nuestra casa), el alcalde de nuestra
ciudad o el presidente de nuestro país?
Artículo realizado por Javier Espina Hellín CEO QLC SLP
No es nada nuevo afirmar que
vivimos, en palabras de Bauman, un tiempo “líquido” donde las innovaciones
tecnológicas son continuas con un ritmo, casi de vértigo, en su aparición, adaptación
o sustitución y, en la que con frecuencia cada vez mayor se construyen nuevos
paradigmas con una esperanza de vida más corta.
Todos sabemos que la única certidumbre
predecible es la continua transformación de todo cuanto nos rodea. Es paradójico
que, cerca de 2500 años después, comprobemos empíricamente lo que ya nos
adelantaba entonces Heráclito de Éfeso.
El mundo del marketing no es una
excepción.
Cuando todavía estamos celebrando
y descubriendo nuevas aplicaciones de nuestra disciplina “punta de lanza” en
innovación y tecnología, el
neuromarketing, que por lo que representa, en términos científicos en el
mundo del marketing, es la superación de la subjetividad del individuo en la
construcción del propio discurso al ser preguntados sobre sus preferencias
o gustos en la investigación de mercados, diseño de productos o packaging,
entonces, adivinamos una nueva frontera, el
nanomarketing.
Aprovechando, una vez más, las
sinergias del trabajo multidisciplinar de distintos profesionales y los avances
en otro campo de la ciencia, la nanotecnología, y la posibilidad que ésta nos
ofrece para trabajar en nanoescala, es decir, en un rango de dimensión de entre
1 a 100 nanómetros, podemos desarrollar herramientas de medición, aplicadas al
neuromarketing, cada vez más complejas y alojadas en dispositivos cada vez más pequeños
por la sola manipulación de la materia que hará que el nanomarketing sea una
realidad antes de que nos demos cuenta.
Imaginemos la posibilidad de
integrar estos dispositivos muy pequeños, no intrusivos, e inalámbricos que nos
acompañen, de manera mucho menos invasiva, en todos aquellos experimentos
centrados en saber qué hacemos o cómo nos sentimos frente a determinado
estímulo cuando caminamos entre los lineales de un hipermercado, en nuestro rol
de consumidores cotidianos. Cómo interactuamos con una acción de merchandising o nos situamos frente a un envase, producto,
marca o, incluso, podamos medir la reacción emocional ante la presencia o
mensaje de un personaje público que busca nuestro apoyo y voto, si nuestro
estudio se concentrase en el ámbito del marketing político.
Los neurocientíficos,
investigadores y “neuromarketinianos” estamos siempre interesados en aprender, tanto como podamos, sobre los
mecanismos que se desencadenan en nuestros cerebros cuando enfrentamos
situaciones que exigen iniciar un proceso de decisión y compra.
Entender qué sucede cuando
compramos, cuando nos sobre-exponemos a todo tipo de impactos publicitarios o cuando
interactuamos con el universo de marcas que nos rodean, es nuestro último
objetivo.
La investigación del
neuromarketing tradicional necesita siempre de un conjunto de herramientas, aparatos
y equipos humanos de enorme complejidad, muy sofisticados y, casi siempre,
después de haber pagado una bonita factura (porque son tremendamente caros).
Como bien es sabido, una de las técnicas
de imagen más utilizadas es la resonancia magnética funcional (IRMf) y su
empleo nos ha reportado un número enorme de indicios y evidencias sobre el
papel que tienen tanto las emociones, como las respuestas subconscientes en la
percepción, por ejemplo, de un producto y en la toma de decisiones asociada y
posterior que como consumidores experimentamos. Ambos factores se han revelado
como determinantes en cualquier proceso de evaluación y compra.
No obstante, y como resultado del
proceso de investigación, sabemos que nos enfrentamos con ciertas limitaciones
que son inherentes al neuromarketing tradicional (Mileti, Guido & Prete, 2016)*
y que podemos agrupar en los siguientes cuatro apartados:
• Una tecnología muy cara que condiciona el propio diseño de los
experimentos ya que al ser, necesariamente cortos en el tiempo (por
disponibilidad y coste) su extensión muestral también lo es. Es decir, que
siempre son muestras pequeñas y esto condiciona el grado de consistencia de la
información obtenida por razones estadísticas.
• Condicionamiento espacial. Los experimentos sólo pueden llevarse a
cabo en laboratorios u hospitales por razones obvias. Un resonador magnético
pesa en torno a los 4.500 Kg (el modelo Philips Achieva 1.5 T) por lo que es
imposible imitar las diferentes perturbaciones externas de la vida real y que pueden influir, no
sabemos en qué o cómo, en los resultados finales obtenidos. Y todo, sin contar con los
posibles efectos cruzados de la interacción del movimiento de nuestro propio
cuerpo y su efecto respecto a los demás.
Es fácil adivinar el grado de condicionamiento
que esto supone y cómo puede poner en cuestión la validez científica de los
resultados experimentales si queremos hacer cualquier inferencia al mundo real.
• Falta de complementariedad en el uso de la tecnología. Sólo se
puede utilizar una tecnología de
neuroimagen, como la fMRI o una EEG (electroencefalografía) al tiempo, lo que
puede llevar a una comprensión “no
completa” o parcial de las relaciones entre los procesos fisiológicos y el
comportamiento humano, tanto por la limitación espacial (profundidad cortical)
como por la propia de la tecnología aplicada.
• Factores éticos y deontológicos. Nada nuevo. Desde el mismo
nacimiento del neuromarketing este ha sido un factor enormemente
controvertido. La sola posibilidad de la
identificación de algún mecanismo relacionado con el propio proceso de compra
ha despertado todo tipo de críticas. El miedo a la manipulación siempre está
presente como factor limitante del libre albedrio individual.
Por eso, la nanotecnología y su
potencial proceso de miniaturización puede atenuar, mejorar y hasta eliminar
algunas de las limitaciones que acabamos de plantear y, con ello, el nanomarketing
puede representar esa última frontera del neuromarketing por ayudar a
fortalecer la cuestionada validez estadística, derivada del trabajo con pequeñas
muestras y trabajos aislados y no necesariamente conectados.
Con dispositivos de medición
pequeños, inalámbricos y baratos es posible diseñar trabajos de investigación
masivos y todo lo que esto representa: la añorada ampliación muestral experimental
y la incorporación de la multivarialibilidad del entorno real en los
experimentos.
Así, el nanomarketing superaría
con creces, por robustez estadística, la actual capacidad para probar la
eficacia de determinada publicidad, la viralidad de un spot, la conveniencia de
adoptar determinados cambios en un envase, o incrementar el atractivo de un producto
frente a sus competidores en el propio lineal.
Aunque, todavía, no hemos llegado
al nivel molecular que permite el trabajo y la manipulación de estructuras
moleculares y sus átomos que nos podría conducir a la fabricación de diferentes
sensores, si podemos citar algunos ejemplos de tecnología de neuromarketing en
dispositivos más pequeños. Ya contamos con gafas ligeras para medir el
movimiento ocular, auriculares EEG y dispositivos "Galvanic Skin
Response", que miden la excitación emocional y el estrés desde nuestra
muñeca.
También, se está trabajando en la
adaptación de la tecnología “wearable” en dispositivos portátiles para medir
todo tipo de parámetros fisiológicos (como expresión emocional) y, mediante ese
monitoreo remoto, recogerlos en tiempo real y en situaciones y lugares cotidianos.
Por ejemplo, aunque en una fase
muy temprana, ya existe una tecnología que nos permite identificar la ansiedad,
el ritmo cardiaco, el nivel de estrés, los estados de ánimo y emociones “ocultas”
a nuestra vista como la mentira.
El doctor Kang Lee ha
desarrollado una nueva tecnología de imagen que denomina “imagen óptica transdérmica”.
“Sabemos que debajo de nuestra piel facial hay una rica red de vasos
sanguíneos. Cuando experimentamos diferentes emociones, nuestro flujo sanguíneo
facial cambia sutilmente. Estos cambios son regulados por el sistema autónomo
que está más allá de nuestro control consciente. Por lo cual, al observar los
cambios en el flujo sanguíneo facial, podemos revelar las emociones ocultas de
las personas...”(https://www.ted.com/talks/kang_lee_can_you_really_tell_if_a_kid_is_lying/transcript?language=es)
Gracias a la combinación del uso
de algoritmos y tecnología de procesamiento de imagen, cuenta con una tecnología
de bajo coste, inalámbrica, no invasiva y remota que puede, por ejemplo,
detectar cuando mentimos con una precisión del 85%. Cuando mentimos el flujo
sanguíneo disminuye en las mejillas y aumenta en la nariz.
Algunos autores que ya están proponiendo
estos desarrollos, nos ayudan a concretar las oportunidades que nos ofrecerá el
nanomarketing:
•Una experimentación más accesible y multifuncional. Al ser significativamente
menos costosa y poder medir al mismo tiempo diferentes señales, nos permitirá recolectar
muchos más datos y, por tanto, la fiabilidad, validez y consistencia de los resultados
aumentarán considerablemente.
• Más real. O directamente real. Ya que si los dispositivos de Nanomarketing
son más portátiles serán más discretos y podrán ser usados de manera cotidiana
y no invasiva, en la vida real y durante tiempos de exposición mucho más
amplios.
• Análisis multivariable. Múltiples señales neurológicas, biológicas
y fisiológicas pueden ser medidas sincrónicamente
lo que redundará en una comprensión más profunda de los estados emocionales y
su relación con el comportamiento del consumidor.
El futuro Neuromarketing parece
que será desde la plataforma del Nanomarketing que podría revolucionar la
comprensión del comportamiento del consumidor y los principios fundamentales de
nuestra área de conocimiento, el marketing, tales como actitudes, intención de
compra, respuesta publicitaria, satisfacción del consumidor y un largo etcétera
muy difícil de predecir en el momento que estoy escribiendo este artículo.
Pero, no quisiera terminar sin
incluir una breve transcripción de la charla TED que ofreció el doctor Lee el pasado
mes de mayo y dejarlo a su consideración:
… “con la ayuda de imágenes televisadas podemos detectar el ritmo
cardíaco de los políticos, su estado de ánimo y el estrés, y quizás en el
futuro, si nos están mintiendo o no. También podemos usarla en la
comercialización de la investigación, por ejemplo, para averiguar si a la gente
le gusta o no determinados productos de consumo. Incluso podemos usarla en las
citas. Así, por ejemplo, si su cita le sonríe, esta tecnología puede ayudar a
determinar si le cae bien de verdad o si solo está tratando de ser amable con
Ud. Y en este caso, es solo una muestra de amabilidad…”
Artículo realizado por Javier Espina Hellín CEO QLC SLP
*Mileti, A., Guido, G. & Prete, M. I. (2016). Nanomarketing:
A New Frontier for Neuromarketing. Psychology and Marketing, 33 (8), p.
664–674.
El cubo con fugas es una analogía muy utilizada, sobre todo en el ámbito anglosajón, para describir cómo las entradas y salidas funcionan en una amplia variedad de sistemas empresariales, de gestión o tecnológicos.
La analogía se refiere a un cubo físico con un agujero en el fondo y en sus paredes.
El cubo puede contener el agua hasta su capacidad máxima y pierde el agua en una escala o a una velocidad que viene determinada por el tamaño del agujero.
Veamos algunos ejemplos donde aplicar la analogía de la cubeta que gotea por varios agujeros:
Las inversiones efectuadas en el entrenamiento sobre “la conciencia de la seguridad” de los empleados pueden producir una mejora inmediata en las prácticas de seguridad. Sin embargo, el cubo no permanece lleno durante mucho tiempo. Con el tiempo, la conciencia se va relajando, y se producen filtraciones y pérdida de esa agua contenida.
La moraleja o lección es que las inversiones en entrenamiento, en este caso en seguridad, deben ser periódicamente puestas en marcha para mantenerse en un nivel óptimo y que la tasa de pérdida se mantenga baja.
Otro ejemplo es CRM en una compañía, la gestión de la relación con el cliente o para explicar el modelo de retención de los empleados vs abandono.
Aquí la analogía del cubo de agua con fugas se utiliza para describir la tasa de rotación: la captación de nuevos clientes vs retención de los existentes.
El agua que se incorpora al cubo serían los nuevos clientes y el agua que fluye fuera del cubo representa aquellos clientes que está perdiendo la compañía. La cantidad de agua contenida en el cubo, según aparece en el gráfico, representa la base total y actual de clientes de la compañía en el momento de la observación, porque como sugiere la analogía, esta es una situación dinámica, ya que hay un flujo constante de nuevos clientes y una pérdida constante de los clientes existentes.
De esa manera, el tamaño de la base total de clientes varía constantemente - a veces hacia arriba y a veces en sentido contrario- dependiendo del flujo de agua en el cubo y el número de agujeros por los que el agua puede salir.
La analogía está diseñada para llamarnos la atención sobre que la empresa tiene dos enfoques potenciales para maximizar la cantidad de agua en el cubo (en este caso, es el tamaño de la base de clientes).
· El primer enfoque, es aumentar el flujo de agua en el cubo vs aumentar el número de nuevos clientes.
· El segundo enfoque consistiría en tapar algunos de los agujeros en el cubo para reducir la pérdida de agua vs concentrarse en la retención de los actuales clientes.
Esta es una de las clásicas tensiones de gestión comercial en una empresa: la determinación de la proporción de sus gastos y actividades de comercialización que se deben centrar en adquirir nuevos clientes frente a las acciones destinadas a conservar los clientes ya existentes.
Aunque es muy intuitivo porque parece bastante lógico, no fue hasta la década de 1980 que las empresas comenzaron a darse cuenta de la importancia de la retención de sus clientes y a desarrollar programas que buscan potenciar su lealtad. Hasta entonces, la mayoría de las acciones de marketing se centraban en la adquisición de nuevos clientes.
Este es un tema de enorme importancia porque según las últimas estimaciones en el mercado de gran consumo, las marcas ganan y pierden clientes hasta un 50% en promedio cada año. Es decir, cada año nos dejan de comprar la mitad de nuestros clientes y conseguimos otro 50% de nuevos clientes y, esto siempre que mantengamos la misma penetración en el mercado.
La conclusión parece evidente. Para incrementar mi penetración de mercado tengo que “taponar” con urgencia esos agujeros por los que pierdo clientes y, al tiempo, me aseguro que el caudal de agua que entra en el cubo se mantiene constante (sigo consiguiendo clientes nuevos). Pero, ¿en qué tarea es más rentable que destine los, siempre escasos, recursos de los que dispongo?
Lo que nos dice el marketing es que es más eficiente, en términos de beneficio, retener que conseguir nuevos clientes. En uno de los textos analizados, Reichheld nos dice que un incremento de un 5% en la tasa retención puedo obtener un incremento de entre el 25% y el 100% de beneficio (Reichheld, 1996).
Sin embargo, y según los explica César Valencoso en su último trabajo, los datos empíricos (reales) de diferentes marcas, en el mercado FMCG o de gran consumo y alta rotación, apuntan a todo lo contrario. Existen patrones de abandono de clientes que se repiten en marcas grandes y pequeñas, con presupuestos orientados a la retención y fidelización y otras marcas que no tienen presupuesto, por lo que si queremos mantener o incrementar la penetración de nuestra marca el único camino existente es conseguir atraer a nuevos clientes.
Un planteamiento que además de provocador es completamente nuevo, por estar apoyado en un conjunto de datos reales que superan estadísticamente las, tradicionalmente pequeñas, muestras representativas con las que se presentan algunos estudios en el mundo del marketing, pero que nos debería hacer pensar sobre la necesidad de que seamos “consistentes” en la aplicación de cualquier medida en nuestras compañías, siempre con el respaldo de los datos, en lugar de la aceptación ciega de lo que se consideran verdades absolutas.
Para concluir, y sólo por curiosidad, esta analogía también se aplica a algoritmos. El algoritmo “leaky bucket” es un método que se utiliza para almacenar, temporalmente, un número variable de solicitudes y organizarlas de acuerdo con una salida, a velocidad establecida, de paquetes en una red de modo de transferencia asíncrono (ATM).
Artículo realizado por Javier Espina Hellín CEO QLC SLP
¿Sabías que en el Modelo 347... pueden existir discrepancias entre los importes declarados por el cliente y por su proveedor?
En efecto, así sucederá si el cliente registra en su contabilidad la factura del proveedor en un período trimestral distinto al de la emisión de la factura.
¿Debe el autónomo o el empresario incluir en el Modelo 347 las operaciones de seguro?
El criterio de Hacienda conforme al artículo 33.2.a) del Reglamento General de las actuaciones
y los procedimientos de gestión de inspección tributaria, es que los autónomos y los empresarios no tienen la obligación de incluir estas operaciones en el Modelo 347.
Para más información, accede desde aquí a la consulta de la DGT
V2285-14.
¿Sabes cómo agregar el Modelo 347 a la Plataforma de Informativas de la Agencia Tributaria?
La AEAT ha publicado un video donde se explica cómo agregar el modelo 347.
Y no te olvides... el próximo 28 de febrero de 2017 finaliza el plazo de presentación del modelo tributario 347, sobre declaración anual de operaciones con terceros.
La responsabilidad
penal de las personas jurídicas
En
el convulso mundo en que vivimos hay una realidad que es incontrovertible. Las
corporaciones (principalmente las empresariales), las asociaciones, las fundaciones
y en general, las personas jurídicas, se han convertido en los actores
principales de las relaciones jurídicas – económicas en un contexto
globalizado.
No
vamos a tratar aquí las ventajas en términos de crecimiento, de generación de
riqueza y de oportunidades que, para nuestras sociedades, han traído las nuevas
formas de desarrollo de las transacciones económicas y el comercio
internacional.
Pero
sí vamos a hacer hincapié, en un efecto negativo derivado de esta nueva
realidad y que consiste en la creación de nuevas formas de comisión delictivas
transfronterizas, gran parte de las cuales, tienen su origen en la propia empresa y en el modo que
tiene de emprender sus negocios (basado en criterios para maximizar beneficios
y minimizar costos), que ha llegado a convertirse en un factor de riesgo que favorece la delincuencia. Se pueden citar
muchos ejemplos conocidos de abusos, corruptelas, falsedades, promoción de la
violencia o incluso del terrorismo, en los que han tenido algún grado de participación
las personas jurídicas.
Como
respuesta también global a este alarmante fenómeno, en los últimos tiempos se ha
observado que, por parte de los derechos penales nacionales, entre ellos el derecho
penal español (véase el actual artículo 31 bis del Código Penal), se ha incorporado una
nueva institución “la responsabilidad
penal de las personas jurídicas”. Ésta ha quebrado el arraigado y famoso
principio “societas delinquere non potest”,
que predicaba la inexistencia de responsabilidad y culpabilidad penal de las
personas jurídicas, lo que limitaba su responsabilidad al ámbito
estrictamente civil.
Hoy
ya es posible que las infracciones penales cometidas por personas físicas bajo
ciertos requisitos, presupuestos y condiciones, acarren la imposición de una
pena a la persona jurídica por cuya cuenta o bajo cuya dirección actuaba.
De
este modo está naciendo una nueva
cultura ética corporativa que tiene como finalidad el cumplimiento de forma
natural y eficaz de las normas, lo que se conoce como Compliance o Corporate Compliance.
Tener implantado un programa de Compliance eficaz, que asegure las funciones de supervisión, vigilancia
y control normativo en el ámbito de la empresa, sin duda es un buen negocio, porque disminuye o incluso evita
los riesgos de una posible acusación penal y, llegado el caso, de la imposición
una pena como: multas, disolución y pérdida definitiva de la personalidad
jurídica, suspensión, clausura de sus locales y establecimientos,
inhabilitación e intervención judicial.
En
Qualitas Lex Consulting nos ponemos
a tu disposición para que tu organización se adecúe de forma eficaz al cumplimiento
normativo. Para alcanzar este objetivo, seguimos las directrices de las normas:
UNE-ISO
19600:2015 sobre Sistemas de Gestión de Compliance y la ISO 37001:2016 sobre sobre Sistemas de Gestión
de Antisoborno. Próximamente, se publicará la nueva normativa UNE 19601 sobre Sistema de Gestión de Compliance Penal.
¿Sabías que una mejora
en el área financiera de tu empresa puede representar uno de los
más importantes factores que mejoren la rentabilidad final de tu negocio?
Desde el mismo momento
fundacional en la que una empresa inicia sus primeros pasos y a lo largo de la
vida de una compañía, hay aspectos clave que siempre tienes que tener bajo
control y que no permiten demora. Te enumeremos algunos de ellos:
1. Contar con un
sólido plan de negocio y de contingencias
2. Conseguir
financiación en las mejores condiciones de mercado cuando la necesites
3. Tener una estructura
ágil y bien dimensionada
4. Una ubicación ideal:
no olvides aquello de "localización", "localización",
"localización"
5. Tener control
sobre los aspectos normativos y de legislación aplicable en cada uno de los
territorios donde opero.
Hoy, a diferencia de
hace pocos años, también las empresas medianas e, incluso, las más
pequeñas pueden aprovecharse de las ventajas de contar con la ayuda de un
consultor financiero y empresarial que te ayude a implementar, por
ejemplo, herramientas financieras, un ERP, para que cuentes siempre con
la mejor información en tu toma de decisiones, en tiempo real y,
por ejemplo, desde tu móvil.
Una manera distinta,
más sencilla y muy intuitiva de incorporar una de las muchas ventajas asociadas
a una correcta dirección financiera de tu negocio, que además por ser externa
significa que no tienes la necesidad de integrarla en tu plantilla y, por
tanto, no carga tus costes laborales.
Un profesional, con una demostrada trayectoria profesional, que hará las
funciones de un director financiero capaz de aconsejarte y ayudarte a
establecer una estructura más flexible, asistirte como experto ante las
entidades financieras para, entre otras cosas, mejorar las condiciones de
financiación, contribuir a optimizar toda un área clave, como lo es la
financiera, para que no "gastes" tu dinero en errores que
podías haber evitado por una mala decisión en la gestión con tus proveedores,
en tu almacén, de tesorería, de deuda, en la propia elección o gestión de los
recursos humanos asociados al departamento financiero y, en última instancia
cuando ya es irreversible, en el legal colaborando activamente con el
equipo jurídico que dispongas a tal efecto.
Por tanto, la dirección financiera externa puede convertirse en un agente impulsor y de cambio, dentro
de tu empresa, porque te ayudará a
diseñar e implementar políticas y procedimientos internos, compromisos con
clientes, empleados, proveedores y terceros que además, de reforzar tu código
ético, irá construyendo una serie de atributos que refuercen la marca por la
que eres conocido en el mercado y por la serás identificado, de manera positiva
y distinta, convirtiéndose en elemento diferenciador que te separe de tus
competidores, asegurándose del cumplimiento integral de la legalidad
vigente.
Cuando llegue el
momento del crecimiento, desarrollo y expansión de la empresa y tengas que invertir
en tecnología, adquirir nueva maquinaria o hacer frente a la compra de nuevas
instalaciones o inmuebles es seguro que tu compañía necesitará acudir fuentes
de financiación adicional.
Es en ese momento, de
nuevo clave para ti y para tu negocio, cuando el papel de un director
financiero externo, con experiencia y sólidos conocimientos, mejoratu posición de negociación frente a las entidades
de crédito que te ayude a elegir como “Partners”, porque te proporcionará las herramientas
objetivas que vas a necesitar para acreditar cuáles son las fortalezas de tu
empresa, su situación en el mercado en el que tienes presencia, niveles de
endeudamiento a corto y largo plazo, escenarios futuros de ingresos y, en
definitiva, todos aquellos informes financieros y documentación que necesites
aportar para hacer viable la operación.
Un consultor financiero
externo, a través del conocimiento y de instrumentos operativos, como el ERP que antes mencionamos, es capaz de poner a
disposición de tu empresa y de ti, como gestor de la entidad, de toda la
información que necesites, actualizada y fidedigna para que las decisiones que
debas tomar en el ámbito del “Management” o de gerencia siempre tengan un
respaldo real, objetivo y contratado por un experto que no comprometan la
rentabilidad actual o futura de tu negocio.
En definitiva, es tener
la capacidad de poder generar presupuestos, analizar periódicamente los
resultados provisionales y corregir a tiempo las desviaciones que sean
detectadas.
Todo esto, te ayudará a dimensionar de manera óptima
tu plantilla, contribuirá a validar a tus proveedores, de acuerdo a los estándares de calidad que hayas adoptado,
y será de máxima ayuda en los períodos
de alta capacidad, de liquidación, de pago de salarios, de facturas, etc. y
siempre pagando por ellos sólo lo necesario.
Como podrás apreciar,
es un importante campo de acción para la dirección financiera externa y un
activo irrenunciable para tu empresa.
Quizás, sea un buen momento
en el poder reflexionar sobre algunas preguntas que podrían serte útiles en la mejora
de tu gestión al frente de tu negocio:
· ¿Cuentas con un
plan de negocio detallado por líneas de actividad con un presupuesto financiero vinculado?
· ¿Tienes previsto un Plan de Contingencia y un presupuesto
alternativo con los márgenes de maniobra que te define este plan?
· En tu proceso de toma
de decisiones, ¿Con qué frecuencia no
dispones de datos reales de explotación cuando te hacen falta?
· Y, cuando los pides
como soporte a tus decisiones, ¿cuánto
tiempo necesitan tus colaboradores para entregártelo?
· Además, de tu
experiencia, habilidad, conocimiento de mercado y competidores ¿consideras que
un mejor control fiscal, contable y normativo es determinante en tu resultado
final operativo?
· ¿Con qué margen de tiempo cuentas para revisar los pagos con los que
haces frente a tus obligaciones fiscales, contables, y laborales?
· ¿Tu empresa cuenta con
procedimientos detallados de contratación, selección de personal y evaluación
de proveedores?
Como sabrás, ahora,
también las PYMES pueden afrontar el obligatorio cumplimiento normativo o “Compliance” con la misma garantía con la que siempre han contado las grandes
corporaciones, gracias a la contribución de nuestros despachos profesionales.
Reducimos el riesgo de la empresa frente
a ulteriores responsabilidades civiles, administrativas, tributarias, laborales
e, incluso, penales que el desconocimiento o la falta de previsión en la toma
de decisiones pueden traer consigo.
Si consideras que aún
existe un margen de mejora dentro de tu empresa, que no consigues la
rentabilidad que esperabas, después del esfuerzo conjunto que hacéis todos cada
día en tu empresa, o “sientes” a tus competidores demasiado cerca, creo que QLC puede ayudarte a generar valor,
optimizar tus procesos internos, adecuar tu dimensión y estructura, prever el
impacto que puede tener el cumplimiento normativo en tu cuenta de resultados y,
en definitiva, mejorar tus resultados y ahorrar allí donde es posible porque,
seguro, que podrás emplearlo de manera más productiva.
Artículo realizado por: Sergio Gayoso Merino CLO y Javier Espina Hellín
CEO de QLC SLP
El Big Data o "datos masivos" es un término
que hace referencia a la “gestión” de una ingente cantidad de datos que supera
la capacidad del software convencional para ser capturados, administrados y
procesados en un tiempo razonable con la intención de aprovechar la información
que se derive de su manipulación masiva. Lo novedoso es que se puede utilizar
para saber posibles, estadísticamente hablando, comportamientos futuros
mediante el uso de la minería de datos masiva y los modelos predictivos. Los
campos de aplicación son innumerables pero en el ámbito empresarial podemos
citar el análisis de negocio, publicitarios, los departamentos de recursos
humanos, consumo y ventas cruzadas, etc.
¿Cómo se generan esos datos y
de dónde provienen?
Lo cierto es que todos nosotros
los generamos, habitualmente sin conciencia, y cada segundo. Podemos
distinguirlos según su procedencia:
· Generados
por nosotros: cuando enviamos un correo electrónico, utilizamos nuestras
redes sociales, utilizamos un ERP, incluimos registros en una base de datos o
introducimos datos en un EXCEL se crean nuevos datos y metadatos susceptibles
de análisis que pueden ser analizados.
· Transacciones
de datos: las llamadas o la transacción entre cuentas generan nuevos datos
relevantes. Un ingreso de una cantidad de euros se traduce en un movimiento en
determinada fecha, hora y lugar concreto, entre unos usuarios registrados de
una o más entidades bancarias. Más metadatos.
·
E-marketing
y web: al navegamos por internet dejamos un profundo rastro y gran cantidad
de datos por nuestra interacción con el sitio. Se utilizan una gran variedad de
herramientas de tracking con fines de marketing y análisis de negocio. Por
ejemplo, los simples movimientos de nuestro ratón quedan almacenados en mapas
de calor, además del tiempo que estamos en esa página, el nºde clics, los
abandonos de la página, etc. Basta sólo con analizar la información contenida
en un informe de Adwords por ejemplo.
·
Machine
to Machine (M2M): o tecnologías que comparten datos con otros dispositivos:
medidores, sensores de todo tipo (temperatura, luz, altura, de presión, de
sonido, GPS, etc.) que transforman en datos las magnitudes recogidas por la
máquina de registro. La irrupción de las comunicaciones inalámbricas (Wi-Fi,
Bluetooth, RFID…) ha supuesto un aumento exponencial de los datos susceptibles
de análisis.
·
Biométrica:
o datos generados por lectores biométricos como escáneres de retina, de huellas
digitales o lectores de ADN. Su uso es en seguridad, defensa y servicios de
inteligencia.
Respecto al análisis de los
datos y teniendo en cuenta las diferentes tecnologías de almacenamiento
necesitaremos acudir, también, a distintas técnicas de análisis de datos, por
citar las más conocidas:
· Asociación:
buscamos relaciones entre variables. Con la premisa de causalidad pretendemos
avanzar una predicción en el comportamiento de otras variables dependientes. Un
ejemplo de esta clase de relaciones son los sistemas de ventas cruzadas del
e-commerce.
· Data
Mining o minería de datos: es el conjunto de técnicas que combina los
métodos estadísticos, de “machine learning” y almacenamiento en bases de datos.
El objetivo vuelve a ser predecir comportamientos. Por su naturaleza, tiene una
relación muy estrecha con los modelos que se utilizan en la construcción de
patrones.
· Clustering
o agrupación: partiendo del “data mining”, el “clustering” segmenta grandes
grupos de individuos en otros de menor tamaño, encontrando similitudes
“ocultas” entre estos grupos porque no sabíamos de su existencia antes del
análisis. El propósito final es descubrir qué tipo de “similitud” que los
define y relaciona entre sí. Con una metodología apropiada, técnicas y
algoritmos de clustering, encontraremos relaciones entre resultados y
procederemos a una evaluación preliminar de la estructura de esos datos.
· Text
Analytics o análisis de texto: como la mayor parte de los datos que cada
uno de nosotros generamos son de texto, e-mails, búsquedas web, contenidos,
etc., necesitamos una metodología que nos ayude a extraer información de estos
datos y agruparlos por temas, por asuntos y extraer patrones, modelos, ser
capaces de predecir palabras, completar frases, hacer búsquedas conceptuales,
etc.
Artículo realizado por: Javier Espina Hellín CEO QLC SLP
La infotecnología, rompe
paradigmas e impone nuevas forma de hacer negocios con sus propios métodos y
procesos. Por citar algunos ejemplos citaremos:
1. e-Business: adaptación y transformación
de procesos clave de negocio con tecnologías de internet. El comercio por la
red, con estrategias innovadoras, clientes globales, nuevos sistemas de
búsqueda, de pago, etc.
2. e- Commerce: conjunto de actividades relacionadas
con la compra-venta de productos, servicios e información en la red. Es una
parte del e- Business que obliga a crear valor utilizando toda la tecnología de
la información disponible.
3. e- Procurement/ Purchasing: es una
nueva forma de gestionar las compras de una empresa generendo ventajas
competitivas asentadas en el ahorro de recursos, mayor integración con el
cliente y el proveedor, un mayor nivel de información de los gestores, aumentar
el control del gasto, reducir el ciclo de tiempo en la compra y concentrar
compras con proveedores para conseguir descuentos por volumen y mejor servicio.
4. ERP (Enterprise Resource Planning): o
sistema de gestión de la información estructurado para la empresa que le
permita gestionar más eficaz y fácilmente su negocio. Las soluciones ERP son
modulares, parten de una estandarización que puede ser “customizable” o
definida parcialmente por el cliente/empresa, y son interfaces con otras
aplicaciones. Necesitan una alimentación constante de datos que son
consecuencia de flujos internos y multinivel de información y relaciones
comerciales externas. Un ERP, como SAP o SAGE, persigue la mejora de la productividad,
servicio al cliente, reducción de costes, calidad, etc.
5. CRM: o herramientas de gestión de
relaciones con clientes (Customer Relationship Management) necesarias para
desarrollar el marketing relacional. Son sistemas informáticos de apoyo a la gestión
de las relaciones con los clientes y orientados tanto a la gestión de la venta
y los clientes de la empresa: automatización y promoción de ventas, tecnologías
data warehouse (almacén de datos) para agregar la información transaccional y
proporcionar capa de reporting, dashboards e indicadores claves de negocio como
al marketing. Incluye funciones para gestionar las ventas, funcionalidades para
seguimiento de campañas de marketing y gestión de oportunidades de negocio,
capacidades predictivas y de proyección de ventas. Según Peppers y Rogers T.
"una empresa que se vuelca a sus clientes es una empresa que utiliza la
información para obtener una ventaja competitiva y alcanzar el crecimiento y la
rentabilidad. En su forma más generalizada, CRM puede ser considerado un
conjunto de prácticas diseñadas, simplemente, para poner a una empresa en un
contacto mucho más cercano con sus clientes. De este modo, aprender más acerca
de cada uno, con el objetivo más amplio de que cada uno sea más valioso
incrementando el valor de la empresa.” Los sistemas CRM cuentan con distintos
módulos y categorías de programación desde Javascript, para programaciones del
lado cliente, Plugins que funcionan de manera sincrónica realizando acciones
durante la pre y post creación y actualización de registros y workflow que
realiza tareas de manera asincrónica.
6. SCM (Supply Chain Management): o la
administración de redes de suministro es el proceso de planificación, puesta en
ejecución y control de las operaciones de la red de suministro con el propósito
de satisfacer las necesidades del cliente con tanta eficacia como sea posible.
La gestión de la cadena de suministro es transversal en todo el movimiento y
almacenaje de materias primas, el inventario, y las mercancías acabadas desde
el punto de origen al punto de consumo. El SCM contempla todo los
acontecimientos y factores posibles que puedan causar una interrupción dentro
de la misma compañía o entre distintas empresas, la red de suministro y la
logística.
7. Big Data: o Datos Masivos es un término
que hace referencia a la “gestión” de una ingente cantidad de datos que supera
la capacidad del software convencional para ser capturados, administrados y
procesados en un tiempo razonable con la intención de aprovechar la información
que se derive de su manipulación masiva. Lo novedoso es que se puede utilizar
para saber posibles, estadísticamente hablando, comportamientos futuros
mediante el uso de la minería de datos masiva y los modelos predictivos. Los
campos de aplicación son innumerables pero en el ámbito empresarial podemos
citar el análisis de negocio, publicitarios, los departamentos de recursos
humanos, consumo y ventas cruzadas, etc.
Artículo realizado por: Javier Espina Hellín CEO QLC SLP
La reingeniería de una
organización, o BPR (Business Process Reeingeniering), ha sido definida de
diferentes formas. Por ofrecer algunas de las más extendidas, podemos decir que
consiste en un “análisis y diseño de los flujos de trabajo y procesos dentro y
entre organizaciones” (T. H. Davenport), o la “reconsideración,
reestructuración y racionalización de las estructuras de negocio, procesos,
métodos de trabajo, gestión de sistemas y relaciones externas, a través de los
cuales creamos y distribuimos valor…” (R.Talwar).
En definitiva, la reingeniería
exige una revisión constante de las fortalezas y debilidades de la empresa y
el planteamiento de “esas” preguntas
difíciles que nos permiten afrontar los cambios que hacen mejor a la organización.
Podemos decir que el padre de la
reingeniería es Hammer, que siendo profesor del MIT, y en un artículo publicado en Harvard Business
Review y más tarde en su libro, “Reingeniería de empresas: un manifiesto para
la revolución de los negocios” defendía la idea que los esfuerzos de una
organización deben centrase en aquellas actividades que aportasen valor a sus
clientes; las que no deben eliminarse o reducirlas al mínimo posible. Más
tarde, James Champy se le une para formar el tándem responsable de su difusión
global.
La infotecnología, nos dice Hammer,
es la herramienta básica de la Reingeniería de Procesos más actual, que relega
a un segundo plano las tradicionales herramientas empleadas hasta ahora.
Consiste en explorar las nuevas
capacidades que la tecnología de la información nos ofrece para conseguir
nuevos objetivos. Es una cultura de trabajo definida por un grupo de
sofisticadas herramientas de navegación para la búsqueda, la revisión y el
procesamiento de la información en su formato digital.
Pueden crear valor de dos formas
diferentes:
·
Haciendo lo mismo que antes pero aprovechando la
potencia de la herramienta informática. Acortando plazos y reduciendo costes.
·
Haciendo cosas que nuestros competidores no saben
o no pueden hacer. Por ejemplo, fomentar la interconexión con proveedores y
clientes para entrar en modelos de trabajo cooperativo.
Artículo realizado por: Javier Espina Hellín CEO QLC SLP
El Tribunal Supremo en su
reciente sentencia de 1 de diciembre de 2016 (recurso nº 3690/2014), ha hecho
un viraje en su jurisprudencia adaptándose a los tiempos actuales, dando su aprobación
a que las empresas implanten en sus estructuras sistemas informáticos conocidos
como “portal del empleado” siempre y
cuando los pagos se realicen mediante transferencia bancaria.
El “portal del empleado” es una importante innovación tecnológica que proporciona
tanto a empresas como a trabajadores grandes ventajas en términos de
organización y eficiencia, dado que crea un nuevo canal de comunicación directo
entre unos y los otros, quedando además totalmente garantizada la privacidad de
los datos personales.
¿Tienes que presentar alegaciones o interponer un recurso por una infracción administrativa?
Entonces te vendrá muy bien conocer el Calendario de Días Inhábiles del 2017 en el ámbito estatal para realizar correctamente el cómputo de los plazos.
La Agencia Tributaria ha
publicado en su website una instrucción para resolver las dudas surgidas desde
que el Real Decreto-ley 3/2016, de 2 de diciembre, eliminase la posibilidad de
conceder aplazamientos o fraccionamientos de determinadas deudas tributarias,
entre ellas las derivadas de los pagos fraccionados del Impuesto sobre Sociedades.
La Agencia Tributaria ha informado
que para determinados impuestos como IRPF e IVA, son admisibles aquellas solicitudes de aplazamiento o fraccionamiento que
se refieran a deudas por importe global
igual o inferior a 30.000 euros sin necesidad de aportar garantías, y se tramitan
mediante un proceso automatizado. El plazo
de duración del aplazamiento sería por el periodo solicitado y hasta un máximo
de doce (12) mensualidades.
No obstante, siempre que se trate del IVA, es necesario justificar que las
cuotas repercutidas no han sido efectivamente pagadas. Si es IRPF, no se admiten aplazamientos en el pago de retenciones o ingresos a cuenta.
Para las solicitudes de aplazamiento de determinados impuestos como IRPF e IVA, por un importe global superior 30.000 euros,
la Agencia Tributaria ha indicado que son admisibles si se aportan las garantías adecuadas y se tramitan mediante un
proceso ordinario no automatizado. En estos casos, el aplazamiento podría
concederse por el periodo solicitado y hasta un máximo de treinta y seis (36)
mensualidades.
No obstante, siempre que se trate del IVA, es necesario justificar que las
cuotas repercutidas no han sido efectivamente pagadas.
Si es IRPF, no se admiten aplazamientos en el pago de retenciones o ingresos a cuenta.
Todos ejercemos un rol pasivo, como seres perceptivos en este tipo de eventos (por necesidad o por costumbre) pero ésta actitud pasiva-receptiva, para mantener el silencio de la sala, hace que nuestros mecanismos cerebrales de atención estén vigilantes, pero nuestro cerebro no está guardando toda la información o, al menos, la más importante.
Por eso, prepararnos para este tipo de eventos hará que el nivel de atención sea mucho mayor y pasemos a otro estadio de conocimiento, no solamente archivador, sino clasificador. El que nos permitirá hacer preguntas y debatir después.
Casi siempre por falta de tiempo, usted asiste habiendo leído por encima el programa, sabiendo algo del o los ponentes; pero no ha investigado lo suficiente del tema ni de los conferenciantes porque no dispuso de esos “diez minutos” para entrar en una web, leer algún artículo, ver una entrevista, etc.
Para aprovechar al máximo un evento de estas características, deberá tener en cuenta 3 aspectos:
La actitud previa al acto.
La actitud durante el evento
El nexo a mantener a posteriori con ponentes y otras personas de interés
Algunas recomendaciones útiles en cada fase:
1.- Cuanto más conozca sobre los ponentes y la temática antes de asistir, mejor le irá.
Tenemos que conocer los méritos profesionales de los ponentes o cuál es su aportación (artículos, libros, entrevistas, etc.) al campo de conocimiento que se debatirá. Y una recomendación: siempre hay una declaración u opinión de algún conferenciante, que por destacada o porque ha provocado polémica, puede tomarla de referencia para poder interpelar al autor durante del tiempo previsto de intervenciones y preguntas del público asistente.
2.- Cómo actuar durante.
En las conversaciones preliminares que siempre se suceden minutos antes del inicio del evento hay que saber escuchar con atención, porque siempre habrá alguna persona que, a lo mejor, se tomó el trabajo que uno no se ha tomado, conoce mejor que nosotros a los ponentes y la temática. Todo depende de nuestra habilidad para saber preguntar y dejar hablar.
No hablar de nosotros, sino que los demás hablen de ellos y de lo que nos interesa escuchar: de los conferenciantes. También es importante separar el trigo de la paja cuánto antes, en referencia a esos colegas que les gusta hablar de ellos, afirmar cosas que si bien pudieran ser ciertas, suenan a exageradas. En suma: narcisismo profesional que no aporta nada.
3.- Capitalizar el encuentro a futuro.
Lo que nos falla es la planificación y no la falta de tiempo. Después de un día entero de jornada, coffee-breaks, comida, una serie de entrevistas personales opinando sobre lo que se está diciendo, escuchando lo que el público está comentando, etc., uno sabe perfectamente con quiénes puede mantener un contacto a futuro, porque hay intereses comunes profesionales y también académicos (querer conocer más en profundidad lo debatido).
Una forma de proceder que puede beneficiarle, es tomar notas sobre las cuestiones de más actualidad o que más preocupan al colectivo profesional asistente al acto. Entonces, entre aquellas personas que cree son más interesantes para usted (posibilidad de que pueda surgir un negocio futuro, simplemente porque le abre la puerta un alto cargo de una empresa multinacional con quién usted compartió todo el día), un buen toque de clase es enviarle un mail, con algunas reflexiones que usted crea que a esa persona le pueden interesar e, incluso, poder ponerlo en práctica en la organización de la cual forma parte.
A veces no ha tenido ocasión de plantearse la posibilidad de poner en marcha una determinada acción que justamente pertenece a un campo de conocimiento que usted domina por no tener el contacto apropiado.
La visión del conferenciante
Ser buen conferenciante es no solamente conocer la materia de la que tratar, sino manejar las técnicas básicas de hablar en público, control de grupo y, sobre todo, indagar en el fondo de las cuestiones, para garantizar que la información puesta sobre la mesa fluya triturada de manera inequívoca. Es decir, desde el conferenciante a los asistentes, pero también en sentido contrario.
Cuesta creer que la mayoría de los grandes conferenciantes no necesitarían herramientas de expresión como Power Points o similares. Esto son añadidos en temáticas muy concretas, que requieren elementos que complementen la disertación o disertaciones principales.
Quienes hayan asistido a conferencias plenarias, sean de temáticas sociales o científicas, saben perfectamente que con tres ideas bien expresadas se puede dar una clase magistral y, sobre todo, salir del acto con una clara idea de lo captado.
En el libro ‘La ética del hacker’, Pekka Himanen cuenta cómo preparaba in extremis determinadas conferencias. El ejemplo es llamativo del sentir de muchos expertos a quienes les resulta de escaso interés hacer una presentación formal de determinadas cuestiones. El caso de este ex hacker no es único: los conferenciantes pasan por varias etapas en su carrera profesional y divulgativa: desde modélicos analistas de la realidad (social, política, médica, científica, tecnológica…) a abstrusos genios. Sin embargo, para ser reconocido como un gran conferenciante, por el que todos pagaríamos por ver y escuchar, hay que ofrecer algo esencial, único o especial al público. Eso es lo que los hace únicos, como a los deportistas, músicos y otros destacados profesionales de élite.
La estafa del conocimiento.
Hay que tener cuidado con los charlatanes. Es muy frecuente encontrarse en internet con conferencias magistrales que, en realidad, son discursos de charlatanes.
Una manera de poner en evidencia esto, consiste en intentar sistematizar el contenido de la conferencia. La que imparta un charlatán no tendrá apenas contenido o éste estará muy difuso, inconsistente en cuestiones básicas o, pasada la conferencia, el debate es inexistente o falto de rigor.
Esto no ocurriría nunca con un conferenciante ad hoc, que, como se ha mencionado al comienzo de este artículo, deja abierta la puerta al diálogo constante, que no se molesta por las interrupciones, que interpela constantemente, que realiza un trabajo con una pizarra en blanco. Es la diferencia entre alguien (dígase charlatán) que pretende ser experto en algo y no es más que un maestro en nada. Es decir, un estafador del conocimiento.
Existe siempre otra manera más vulgar de detectar al estafador. Suele ser lo que un amanuense de antaño respecto a un verdadero escritor. Se trata de personas que aprenden ciertas técnicas (posturas, entonación, etc.) que, junto con la verborrea apropiada, dan sensación de decir algo importante, cuando realmente no dicen nada. Todo el mundo sabe que este es un arte no solamente llevado al súmmum por políticos y vendedores, sino por conferenciantes que estafan ofreciendo información insulsa, ya conocida y, sobre todo, sin criterio.
Así pues, quédense con la idea de que en una conferencia hay que ser exigente, por el bien suyo, del conocimiento general y particular y también para discriminar a quienes realmente valdría la pena seguir como expertos en una materia. De ahí que la idea inicial de trituración sea llevada no solamente al conocimiento en sí, sino al modus operandi de las conferencias.
Y si fuera usted un conferenciante ocasional, tome nota de que si sus oyentes no se convierten en interlocutores, puede que esté de alguna manera defraudándoles (también defraudándose a sí mismo) y quizá también estafándoles.
Artículo coordinado por José Luis Zunni director de ecofin.es en colaboración con Salvador Molina presidente de ECOFIN, Javier Espina Hellín CEO en Qualitas Lex Consulting y miembro de ECOFIN Business Schools Group y Ximo Salas, miembro del ECOFIN Management & Leadership de ECOFIN.
Liderar no es acertar siempre. Un líder no es un super héroe. Levantarse tras una caída personal o colectiva, esa es la esencia de un gran líder. Aprender de los errores, capacidad de superación, resilencia y empuje permanente. Así, si.
Un líder de una organización es, antes que nada, una persona y por tanto susceptible de cometer errores. La cuestión está en descifrar qué circunstancias se dieron para que un determinado error ocurriera y evitar que vuelva a suceder.
Es muy habitual que el líder quiera estar hasta en el más pequeño detalle, pero no por eso deja de ejercer un buen liderazgo. Lo que sucede es que se expone a una probabilidad de error mayor, por ejemplo, si no delega lo suficiente, lo que al mismo tiempo puede significar falta de confianza en su equipo.
¿Hasta qué punto debe confiarles a determinadas personas ciertas tareas y responsabilidades?
La delegación de funciones y responsabilidades no puede ser fruto de un capricho y de las dudas sobre la capacidad que tienen los demás a la hora de ejercerlas. Es uno de los principios básicos de la administración y, consecuentemente, del buen liderazgo. Que el líder tome la iniciativa de capacitar y formar a su equipo en algunas cuestiones que lo requieren y que son las que le privan de otorgarles toda la confianza para delegar ciertos trabajos, es un buen camino. Pero si insiste en hacerlo todo él mismo, antes o después aflorará un error porque es imposible controlarlo todo.
Con frecuencia sucede que se actúa sin pensar demasiado lo que se hace o dice. Incluso se puede errar en una planificación o se precipitan los procesos porque la urgencia manda. Cuando esto sucede, un directivo está cuestionándose a sí mismo su capacidad de líder, porque se ha dejado guiar por emociones, sin pararse a valorar las consecuencias.
El líder efectivo no puede ser incongruente con sus principios y valores. Siempre debe dar ejemplo. Una característica que califica de manera definitiva a un líder potencial que pretende convertirse en la nueva persona a seguir en la organización, es si tiene cierta tendencia a culpar al personal por errores individuales de su propia supervisión, o falta de oportunidad en la toma de alguna decisión. Eso de que lo paguen los demás es un mal síntoma para el liderazgo de esa empresa.
Tampoco es una buena señal que cuando aparece un problema el líder se descargue de toda responsabilidad y deje la solución en manos de un determinado departamento o equipo que nada tiene que ver con la situación. No hay que olvidar que todo lo que rodea a la empresa y el clima laboral que se vive es responsabilidad del directivo. Admitirlo o no es también cometer o no un error, que termina pesando en el desarrollo del líder y la propia organización.
Es frecuente, especialmente en tiempos en los que las redes sociales y la comunicación abierta facilitan las críticas y comentarios del personal, que el líder quiera mostrar una cara buena con las personas con las que interactúa de manera directa y también con aquellas que lo hace de manera indirecta, a través de mails, comunicados, reuniones de trabajo interdepartamentales, etc. Mostrar ese lado más afable puede saltar por los aires si su actitud no es auténtica. Ya sabemos que dirigir personas no es tarea fácil, pero la autoridad es una de las bases del buen liderazgo, siendo imprescindible mostrar con frecuencia la otra cara de la luna aunque se tenga que hacer una observación negativa sobre rendimiento, procedimientos aplicados, etc.
Ni el líder que va de bueno ni el que abusa de la carga negativa en su crítica, contribuyen el desempeño de los empleados y el wellbeing de la empresa. El líder efectivo busca un punto medio en el que no prevalezca ni una bondad absurda ni una severidad injustificada.
La motivación al personal es fundamental para, al mismo tiempo, fortalecer la propia confianza y credibilidad en el líder, lo que hará también que su liderazgo le haga crecer en su autoconfianza. Exigir a los empleados algo que sabe que no son capaces de ofrecer no es bueno. Y menos aún si se les ha motivado para ello, porque terminarán defraudados y desestimulados.
Un aspecto sustancial que el líder efectivo hace es evitar tratar a los empleados de forma distinta según sea el caso, creando diferencias o, peor aún, preferencias que pueden traducirse en asignación de tareas y más o menos controles sobre determinadas personas o equipos. De tener cierta tentación en un momento determinado (y bajo especiales circunstancias que podrían tener una justificación si, por ejemplo, ha sobrevenido una crisis que hay que resolver con los empleados más experimentados) esta situación no puede perpetuarse, porque las diferencias crean aún más enconos y son fuente de conflictos futuros. En otros términos: la empatía debe ejercerse con todas las personas, aunque en algún momento, como la situación descrita, se tenga que hacer en beneficio de la empresa una elección sobre la delegación de funciones puntualmente para solucionar el problema.
Algunas recomendaciones
Incluso los grandes líderes tienen que lograr un equilibrio entre sus debilidades y fortalezas. Seremos líderes ejerciendo un liderazgo muy pobre si caemos presa de nuestras flaquezas y tendemos a cometer algunos de los errores descritos. Por ello aconsejamos:
1.- Evitar que los demás desconecten.
Una regla básica del buen líder es ser una persona que da ejemplo. Siempre hay que ser un referente con nuestras acciones más que con palabras.
En un grupo humano, en cualquier organización, si al líder le gusta escucharse a sí mismo, sus interlocutores, sea en el plano formal o informal, terminan desconectando, o dicho coloquialmente tienden a pasar de él. ¿Por qué? Porque todo comienza con su actitud frente a la vida y los demás.
2.- No tener una visión fuerte.
Sin una visión con la que se pueda entender y comprender para sí antes que nadie, la realidad del entorno y la organización, no podrá explicar a los demás ni impartir un sentido de propósito y dirección a los equipos ni al núcleo de colaboradores más próximos. Además, esta visión se contagia a la organización en su conjunto.
3.- No ser próximo a personas y equipos.
Es muy bueno ser inteligente, pero no tanto sentirse superior a los demás. Hay que ser honesto intelectualmente y tener la mente abierta a todas las personas, sin hacer discriminación alguna. Si el líder no puede tener relaciones interpersonales dentro de un mínimo que pueda considerarse razonable y controlar sus emociones, siempre sembrará desconfianza en el resto de personas, no tanto en cuanto a sus dotes y habilidades técnicas (que se las reconocen), como en la percepción que provoca en todo el personal, que le hace confiar más o menos en su personalidad que le otorga a su vez mayor credibilidad en su gestión.
El directivo que tiene aburrida a personas y equipos con una serie de promesas históricas incumplidas, y que siempre echa la culpa a factores externos o también a otras miembros de la organización, termina cayendo en el descrédito, y sus esfuerzos por comunicar y cohesionar caerán en saco roto.
4.- No comunicar.
No comunicar no significa sólo que no haya diálogo entre líder y personal, sino que no se digan las cosas con la claridad y transparencia que necesitan personas y equipos. La consecuencia directa será que el líder nunca va a obtener los resultados que desea.
La comunicación no sólo es lo que nos facilita que un mensaje, una orden, etc. llegue a quién se supone debe ejecutarla. Es mucho más que eso: la comunicación es el aspecto básico de la relación humana, lo que genera los odios y los afectos. El cómo se comunica y qué se comunica puede hacer que una organización tenga muchos problemas en su actividad diaria. El papel del líder efectivo es clave.
5.- Aprender de los errores.
Si no se puede aprender de los errores, se está destinado a cometer los mismos una y otra vez.
6.- No potenciar el desarrollo personal y facilitar una carrera en la organización.
Si las personas no tienen la oportunidad de aprender porque el aprendizaje no es prioritario en la organización, es entonces el líder efectivo el que tiene que convencer a la dirección de la necesidad de que el personal tenga la oportunidad de crecer y aprender explicando que es una inversión y no un gasto. Esto que parece tan sencillo de entender, no lo es tanto en una gran mayoría de PYMES.
7.- Mantener encendida la pasión.
Un equipo se da cuenta, a pesar de que el líder no lo note, de que ya no es la misma persona que ha perdido esa pasión que transmitía a los demás, que ha dejado caer su visión a una especie de pozo, como si la hubiera perdido.
Las consecuencias serán claras: las personas harán lo que se les pida porque en su mayoría, y tras haber atravesado una larga crisis, es evidente que no pueden darse el lujo de perder el sueldo. Quieren mantener su puesto de trabajo, pero los más capacitados y con mayor talento ya estarán dándole vueltas en la cabeza a un cambio de empresa que le ofrezca mejores perspectivas de desarrollo, porque se han encontrado con un bache en la capacidad del líder y, por ende, de la organización en su conjunto.
Ya no sienten tampoco la pasión porque no se les transmite y ello les lleva a buscar nuevos horizontes. La preocupación por retener el talento ya no será un prioridad a partir del momento en que la pasión no se percibe por las personas y en ambiente.
8.- Meter el polvo bajo la alfombra
Las virtudes nos impulsan en la vida, aunque los defectos que tengamos sean los que nos demoran. Lo que sí es cierto es que no hay peor cosa que esconder, o incluso, defraudar a la gente, ocultando cosas que es mejor que salgan a la luz.
Artículo de José Luis Zunni director de ecofin.es, Salvador Molina presidente de ECOFIN, Javier Espina Hellín CEO QUALITAS LEX CONSULTING y miembro de ECOFIN Business Schools Group, y Ximo Salas, miembro del ECOFIN Management & Leadership de ECOFIN.
El Tribunal de Justicia de la Unión Europea estima que se debe indemnizar a los trabajadores temporales como a los fijos.
STJUE de 14 de septiembre de 2016.
Asunto C‑596/14
Resumen: En virtud de la jurisprudencia del Tribunal de Justicia de la Unión Europea, la diferencia de trato relativa a la concesión o no de una indemnización económica por finalización del contrato de trabajo, entre trabajadores temporales y trabajadores fijos, sería admisible sólo en caso de situaciones diferentes entre unos y otros, con funciones desempeñadas diferentes entre unos y otros.
Pero ni la naturaleza temporal de la relación laboral ni la existencia de disposiciones en la normativa nacional relativas a la concesión de una indemnización por finalización de un contrato de trabajo de interinidad pueden constituir por sí solas, razones objetivas que permitan diferencias de trato en este ámbito.
El mero hecho de que el trabajador haya prestado sus servicios en virtud de un contrato de interinidad no puede constituir una razón objetiva que permita justificar la negativa a que dicho trabajador tenga derecho a una indemnización económica por finalización de su contrato de trabajo.
Esto es un párrafo. Puedes cambiarlo y poner tu propio texto, editar el formato y añadir enlaces o imágenes.