Volver al blog

Qué precio tiene hacernos cambiar de opinión: cybors, bots, enjambres, ovejas y Cambridge Analytica...


La influencia social o “conformidad” es un fenómeno bien conocido en psicología y particularmente estudiando por Asch (1951) o Kelman (1971) que distingue tres formas de influencia:


  1. Sumisión: cuando mostramos acuerdo, por miedo al rechazo o al castigo, con el origen de la influencia.

  2. Identificación: cuando por el deseo de sentirse miembro del grupo de influencia mostramos acuerdo

  3. Interiorización: mostrar acuerdo por entender que el origen de la influencia es justo.


Lo que parece claro es que, independientemente de nuestro nivel educativo, social o intelectual, somos susceptibles de que influyan en nosotros, incluso siendo conscientes que existe esa presión, porque no podemos actuar como si los demás no existiesen; representa un coste elevado para nosotros. Tan elevado que somos capaces de mentir para evitar el conflicto que nos plantea el actuar de manera distinta a la norma del grupo (establecida por los “otros”). Eso puede significar quedarnos solos por la exclusión del grupo…


¿Recuerda cómo se sintió la última vez que le ignoraron en una reunión social, profesional o evento público?


Somos “animales sociales” y necesitamos de la interacción con nuestros pares. Está incrustado en nuestro ADN y, recientemente, se han descubierto que las neuronas espejo son, en parte, las responsables porque son capaces de recrear patrones mentales de quienes nos rodean. Sin ellas, simplemente, no podrimos ir al cine y creernos la historia que nos cuentan.


Por eso, los demás nos importan, su comportamiento nos influye y la publicidad que viene acompañada de un rostro famoso y familiar sigue funcionando. What else? (Nespresso)


Pero, ¿hasta qué punto somos influenciables?, ¿nos dejamos influenciar por una mayoría desconocida o somos dueños completos de nuestras decisiones?


Los experimentos sobre la influencia que tiene el grupo en cada uno de nosotros (o de conformidad) de Solomon Asch, y que se llevaron a cabo en 1952, demostraron que ésta es “significativa”. Es decir, que el poder de la conformidad en los grupos es mucho más grande e intensa de lo que cada uno de nosotros podemos imaginar.


En el más conocido, un estudiante se enfrentaba a una sencilla “prueba de visión” en donde solamente él era capaz de ver lo que el resto de sus compañeros de clase no veían (porque eran cómplices en el experimento). Sin embargo, al cabo de pocos intentos sucesivos, se acababa uniendo a sus compañeros, y esto es lo importante, aun siendo consciente de que el grupo estaba equivocado. Es reveladora la actitud del estudiante durante el experimento. (https://youtu.be/wt9i7ZiMed8; https://youtu.be/tAivP2xzrng)


El objetivo explícito de Asch era mostrar cómo se puede inducir a alguien a someterse a las presiones de grupo cuando, incluso, son contrarias a la realidad objetiva y de la que, además, eres plenamente consciente.


En otro experimento más reciente, en este caso para el programa de “zoo humano” de la BBC (https://youtu.be/duynsLoHhyw)  el sujeto del experimento espera 20 minutos antes de salir de una habitación en las que hay suficientes indicios (simulados, pero para los participantes del experimento reales) de incendio porque el resto del grupo permanece indiferente al suceso.


En las siguientes iteraciones de la prueba, nadie tomó la decisión de abandonar la habitación y el tiempo promedio fue de 13 minutos de permanencia vigilante a las reacciones del grupo. Probablemente suficientes, si el incendio hubiese sido real, como para morir por pasividad e inacción.


Una de las primeras conclusiones es que “ante la presión grupal, todos nosotros tendemos a adoptar una postura de conformidad”, por contraste de cuando el mismo experimento se repite con el sujeto solo; en esa circunstancia siempre toma la decisión de salir del recinto ante la primera alerta de fuego.


Pero, lo que personalmente me resulta más asombroso sobre nuestra capacidad de ser influenciados por el grupo, es lo que Irving Janis nos presenta con sus trabajos sobre lo que denomina “groupthink” o pensamiento grupal, en un libro que se publicó hace casi 50 años y los de Elisabeth Noelle-Neumann sobre “la espiral del silencio”.


Janis demuestra que para causar tensión en la persona (con la intención que cambie de decisión) ni siquiera es necesaria la presencia directa de un grupo. La influencia o conformidad en esa persona se consigue por el hecho de que crea que existe una mayoría que opina de un cierto modo.


Esa sensación de mayoría se puede conseguir con la difusión de determinados mensajes dominantes, que esa supuesta mayoría eleva a la categoría de norma, y que hace que sean interiorizados por muchas otras personas que lo asumen por miedo a quedar fuera de la sociedad (“…si todos lo dicen, será verdad “).


“Si el individuo encuentra que su opinión es predominante, entonces, la expresa libremente en público; si por el contrario, percibe que cuenta con pocos partidarios, entonces se vuelve temeroso, oculta sus convicciones en público, y se mantiene en silencio.” (E. Noelle-Neumann (1981). “Mass media and social change in developed societies, Ibáñez, Tomás (2003) (Coord.) Introducción a la psicología social. Barcelona: Editorial UOC)


Son fenómenos que, encontrando soporte en mecanismos sociales muy sutiles de nuestro comportamiento más primitivo, fomentan la tendencia a favorecer los discursos dominantes y a aumentar la dificultad de que aparezcan puntos de vista alternativos o de discrepancia.


El tercer apoyo con el que terminar de dibujar este boceto sobre nuestro comportamiento en grupo es el llamado “paradigma de los nuevos movimientos sociales”, donde se asegura que en sociedades como la actual, posindustriales y “líquidas” (en palabras de Z. Bauman), los ejes de conflicto son culturales y simbólicos muy lejos de los clásicos conflictos económicos o sociales.


Melucci nos dice que, cada vez, es más necesario el sentimiento de pertenencia a grupos sociales significados, desde donde poder construir una identidad personal con los valores simbólicos del grupo de pertenencia y con los que poder autodefinirse. Surge así, una intensa retroalimentación entre el grupo y el individuo, donde la “tribu” aporta identidad, seguridad normativa y confort y la suma de individuos, dimensión, relevancia y poder al colectivo de pertenencia. (Melucci, Challenging codes, collective action in the information age, 1996, Cambridge University).


Pero, lo que resulta paradójico e incluso chocante es que esos movimientos sociales nacen como fuerza generadora de nuevos códigos culturales contrarios a las presiones de uniformidad dominantes, pero al tiempo y con el fin de preservar la cohesión interna de ese movimiento alternativo, los sistemas de control interno del colectivo donde se construyen los significados, los símbolos y las identidades individuales son muy férreos y uniformadores.


Pero, ¿cómo podríamos formular nuestra ecuación de toma de decisiones con factores como la influencia social, conformidad, presión del grupo, sentimiento de pertenencia a un colectivo y la capacidad de autodefinición dentro del mismo o el valor de los símbolos?

Parece difícil, ¿verdad? De hecho, todavía no lo hemos logrado. Ni siquiera con las últimas herramientas de neuromarketing. Pero, lo que si podemos concluir es que no somos tan libres como pensamos y que la “cantidad” importa y nos impone.


Cantidad o el número de personas que “piensan” como yo (o que yo creo que piensan como yo), que visten como yo, que comen como yo, que se sienten mal como yo, etc… un “yo” que permanece en el centro y un “número indeterminado de iguales” que tengo que percibir como suficiente para insertarme en él y seguir construyendo mi autodefinición haciendo míos los valores, símbolos y significados del colectivo al que ahora pertenezco.

¿Cuál es la cantidad mínima de personas necesarias para que el fenómeno de influencia tenga lugar?


Es claro que la “masa crítica” es el factor determinante en la ecuación de influencia o de conformidad grupal.

 

¿87 millones de usuarios de una red social es suficiente muestra sobre la que poder trabajar y sacar conclusiones?


Según Moscivici (1999), “los individuos subestiman la influencia que puede ejercer la socialización sobre sus actitudes y conductas” y que dicha influencia puede ser ejercida de forma implícita e inconsciente, porque la adhesión se desarrolla a través de presión física o simbólica.


¿Qué valor económico tienen los billones de datos personales, aislados y que dejamos como miguitas de pan cuando navegamos por internet, compramos en un Marketplace, consultamos saldos en el banco, marcamos como “me gusta” o intercambiamos comentarios con nuestros amigos virtuales sobre fotografías, chistes, twitts o los goles marcados por nuestro equipo?


¿Para qué pueden ser usados esos datos?, ¿cómo esas terceras personas, organizaciones comerciales o entidades “anónimas” pueden influir en nuestra “propias” decisiones?,¿a partir de cuantos miembros el grupo ejerce su influencia?, ¿por qué es importante contar con más de 100.000 seguidores en una red social?

Es curioso comprobar cómo, incluso, la elección de algunos términos es mucho menos inocente de lo que podríamos pensar.


No les suena la palabra “influencer”…


Hace muy pocos días, dos investigadores de la Universidad de Stanford, J. Ugander y K. Altenburger han hecho público un estudio sobre cómo es cada vez más fácil saber más de todos los que usamos Internet sin preguntar nada.


Demuestran que basta, solamante, con “inferir” determinadas características de aquéllos que elegimos como amigos o con quien nos relacionamos (Monophily in social networks introduces similarity among friends-of-friends, Nature Human Behaviour, 15 febrero 2018), (http://neofronteras.com)


Ambos querían entender qué inferencias estadísticas podían terminaban revelando aquellos rasgos personales que normalmente tratamos de ocultar. Para ello, usaron bases de datos, disponibles específicamente para la investigación científica, que contienen el tipo de información que los sitios web venden a terceros como anunciantes.


Existen inferencias directas. Por ejemplo, si alguien compra pañales en Internet es muy probable que haya sido padre o madre recientemente.


Pero son las indirectas las más reveladoras porque a través de quiénes son tus amigos virtuales en redes sociales se puede saber quién eres, que edad tienes, tu inclinación política y un sin fin de datos que tú nunca has facilitado o no quieres que se sepan.


Es posible, por algo tan natural como frecuente y que, incluso, nos define como especie.

 

Se trata, simplemente, del hecho que tendemos a “hacer amigos” de nuestro mismo rango de edad, de la misma raza y de la misma creencia política. Todo lo que somos puede ser inferido desde nuestros amigos por dos tipos de estudios: de homologías u homofilias y de monofilia o preferencia extrema por un rasgo determinado.


Así, se puede “construir” un mapa de la red de relaciones que tenemos y con el conjunto/s de datos usados podemos inferir, a través de nuestros amigos y de los amigos de nuestros amigos, toda la información no declarada de cada perfil.


Entonces, si es posible averiguarlo casi todo de nosotros a través de nuestra red de relaciones y se estudian hasta el 2ª y 3ª niveles, ¿cómo protegemos nuestro derecho a la intimidad?, ¿para conservar esa intimidad cuantos niveles se necesitarán incluir para que la información contenida en las relaciones de los amigos de nuestros amigos, además de la nuestra, quedase protegida?


No es ninguna novedad decir que en el dato está el poder y en la capacidad de encontrar patrones, correspondencias y significado en la cantidad de información que generamos cada día, en cada consulta a Google, en cada pregunta a Siri, en cada itinerario que recorremos con Google Maps, en cada “me gusta” o en “cada like” de nuestro teléfono móvil, nuevo apéndice corporal tecnológico, con la que vamos dejando una huella digital de nuestra más profunda identidad...


A eso me refiero con “masa crítica”, a esa gigantesca cantidad de datos que con tecnología informática (incluida la inteligencia artificial), mucha estadística y un poco de competencia profesional, hace posible que podamos saber todo de cualquiera o podamos influir en la dirección que sea más conveniente para quien sea el dueño de esa información.


Mientras estoy dando forma a este particularmente extenso blog, el CEO de Facebook declara y pide perdón ante la cámara de representantes de EEUU por haber permitido que Cambridge Analytica, consultora política que ha sido vinculada con la campaña presidencial de Donald Trump en 2016 o con la del brexit en el mismo año, se hiciese con una base de datos que terminaría por incluir decenas de millones de perfiles de esa red social.


No en vano, y esto sí que es “masa crítica”, casi un tercio de la población mundial tiene una cuenta en la compañía de Mark Zuckerberg.


La calidad de la información a la que han tenido acceso y sobre la que han trabajado, es muy alta porque el cuestionario, que se utilizaba para recolectar datos, contenía decenas de preguntas formuladas por psicólogos e investigadores para evaluar la personalidad. Eran encuestas en línea que gestionaba otra empresa llamada Qualtrics.


Facebook entra en el juego cuando los encuestados autorizan y dan acceso a sus perfiles, en la red social, porque la aplicación de la consultora británica toma los datos de cada perfil y la de sus amigos.


Se asegura que en esa operación se hicieron, además, con las actualizaciones de estado, "me gusta" y hasta mensajes privados de más del 15% de la población de EE. UU, es decir, de casi 49 millones de ciudadanos estadounidenses. Pero, hay fuentes que van mucho más lejos y aseguran que la materia prima con la que alimentaban sus aplicaciones informáticas contenía a 220 millones de adultos norteamericanos con 5.000 rasgos diferentes de cada uno de ellos (recordemos que la población de EEUU es de aproximadamente 325,7 millones de personas).


Esto sí que es masa crítica. Es Big Data…


¿Qué hizó Cambridge Analytica con esa ingente colección de datos de gran calidad?


Tipificar e identificar las personalidades de los electores estadounidenses con el fin de “influir” en su toma de decisiones y comportamiento mediante el empleo de técnicas de Big Data y marketing ultrapersonalizado para la campaña de Trump en 2016 y, previamente, para inclinar el resultado hacia el Brexit en 2 campañas simultáneas: @vote_leave y @LeaveEUOfficial.


Si se cuenta con un perfil psicológico personalizado de los votantes se pueden “calibrar y ajustar” los mensajes de una determinada campaña hacia intereses y gustos particulares, no sólo para satisfacer a ese colectivo concreto sino para construir una mayoría que pueda influir en aquellos indecisos, decisivos para lograr que se inclinen hacia el margen clave y procure la victoria de quien les paga.


El perfil de clasificación psicológica de personalidades de cada votante se basa en el conocido Modelo OCEAN y así, Cambridge Analytica, pudo saber cuál tenía que ser el contenido, el tema y el tono de cada mensaje dirigido para cambiar la manera de pensar de los votantes de forma casi individualizada.


El objetivo era segmentar a la población para ofrecerles mensajes con temas “gancho” usando un lenguaje y unas imágenes que les removiesen, que les importasen, porque no podían quedar indiferentes… necesitaban involucrarles emocionalmente.


Es un hecho declarado por la propia consultora, que lo más importante de los servicios que ofrece Cambridge Analytica es el que se refiere a las “perspectivas de la psicología del comportamiento”.


La estrategia es clara y doble: convencer a los indecisos y desanimar a los rivales del candidato a quien se apoya.

Pero, los mensajes personalizados no es lo único que hacían para influir.


Otra de las herramientas preferidas son los “fake news” o noticias falsas que, no por casualidad, eran difundidas vía Facebook porque modificaban el estado de opinión con temas de debate que favorecían las posiciones del candidato apoyado.


En este escenario, entra en escena lo que ahora se denomina posverdad o “distorsión deliberada de una realidad, que manipula creencias y emociones con el fin de influir en la opinión pública y en actitudes sociales” (Real Academia Española, 2018)


¿Qué se consigue si cuando navegas empiezas a leer un blog por aquí o un portal de noticias por allá, mezclado con opiniones de ciudadanos como tú, de los que nunca has sabido nada pero que ofrecen historias consistentes y verosímiles, pero que no aparecen en los medios tradicionales?


Lo más probable, es que empieces a cuestionarte el por qué no están en los medios y si puede deberse a la existencia de un sesgo interesado de ese medio, o un plan de ocultación deliberado de noticias relevantes…


Y, sin ser consciente, te están ayudando a construir tu propia historia de conspiración y, lo más importante, van inoculando una cierta susceptibilidad en los medios tradicionales, en los que antes confiabas para construir tu opinión, o en las propias instituciones por la pasividad, que ya consideras interesada, para terminar, imponiendo un nuevo status quo o sistemas de referencias que pretende influir en la gente para que cambie su decisión.


¿Cuánto vale hacer ganar una elección?


No sé contestar a esta pregunta. Aunque supongo que la cifra sería tan abultada como obscena, simplemente, por lo que representa el coste de oportunidad.


Pensemos, un momento en cuál ha sido el coste económico del Brexit hasta ahora y cuanto puede representar un Brexit sin acuerdo.


Además, de la salida de instituciones europeas de la “city” o de las fluctuaciones cambiarias de la libra desde el anuncio del Brexit, el romper con la UE sin un acuerdo, según un estudio del Rabobank, podría tener un coste estimado de 450.000 millones de euros, que es equivalente al 18% del PIB británico en la próxima década, la entrada en recesión del Reino Unido durante un período mínimo de dos años, un aumento del paro de entre el 4,6% al 6,2% y cada trabajador sería unos 13.000 € al año más pobre al cabo de 10 años...


Lo que si sabemos que es (o ha sido) necesario para llevar a cabo este tipo de operaciones es contar con una estructura, de relativa importancia, estable, multidisciplinar, profesional, ultraconfidencial y tener los servicios de una agencia o el “Spin Doctor” que dirija la campaña y se encargue de gestionar a recursos en red como los “Trolls Farm” y las herramientas especializadas en Big Data, marketing personalizado y microsegmentación por perfiles en plataformas sociales como Facebook y Twitter.


Y lo que también sabemos es lo que hizo recapacitar a Zuckerberg.


Sólo en 24 horas el valor de Facebook cayó US$37.000 millones por el escándalo de Cambridge Analytica, las acusaciones de robo de datos, de interferencia política, los chantajes con prostitutas, sórdidos espías y con potenciales implicaciones en Argentina, Brasil, Colombia y México donde la consultora ha participado en más de 100 campañas electorales.


Aunque la razón oficial de la comparecencia, en dos días distintos, del CEO de Facebook son los aspectos morales sobre el mal uso de información no autorizada, la privacidad de datos, las noticias falsas, el discurso del odio de los mensajes distribuidos o la catalogación de “producto” de los millones de usuarios de su red social.


No somos conscientes que el “producto” somos nosotros mismos, que puede ser usado contra nosotros mismos y que no podemos controlar nada de tan elaborado proceso de influencia: ni la verosimilitud, ni la naturaleza de la información ni la intención de quienes la usan. (https://youtu.be/n8Dd5aVXLCc)


Fuera del aspecto formal de la comparecencia de Zuckerberg, los aspectos que han precipitado su presencia son la rápida erosión en el valor de compañía en el mercado y su impacto en sus accionistas porque preguntas como ¿para qué o quién?, ¿con qué fin?, ¿en manos de quien dejamos esa valiosísima información? o ¿qué tipo de medidas se van a implantar?, ¿cuándo, ¿cómo y con qué resultado esperado?  pueden esperar… de hecho, Facebook después de haber “pedido perdón” ya está recuperando su valor bursátil.


Por cierto, no han reparado en que la imagen del fundador de Facebook ha cambiado, radicalmente, para la “puesta en escena del perdón” y de la “aflicción”.


Del aspecto algo naif de tímido retador en jeans y camiseta gris clara ha pasado a la de un adulto maduro, discreto, humilde y corporativo dispuesto a pedir perdón y tomar medidas para que nada así vuelva a suceder. Con decisión y seriedad, se ciñe a un discurso medido y de control de daños.


En la puesta en escena, nada queda al azar: un nuevo corte de pelo más convencional que desenfadado y un sobrio traje azul oscuro, camisa blanca y corbata “azul Facebook” cierran un marco visual tan neutro y estático que obliga a centrar toda la atención en el propio CEO.


Forma parte del mismo juego de influencia. En este caso, la influencia que él quiere ejercer en aquellos a quienes tiene que dar explicaciones y respecto a toda la opinión pública que censura tan grosera monetización de su privacidad.

 

Aunque, quizá sus asesores le tendrían que haber advertido, también, sobre el poder de su lenguaje no verbal o prepararle ante preguntas tan previsibles como molestas por la cantidad de información (negativa) que puede ofrecer una sonrisa en tensión (https://youtu.be/Cfv09WA4em4), la interacción casi robótica con sus interlocutores, el desajuste gestual con la argumentación verbal y el entorno físico o la manera de beber agua durante ambas sesiones…


Pero, por debajo de la audiencia pública de Mark Zuckerberg, quedan preguntas sin responder sobre el propio escándalo de la consultora Cambridge Analytica  ¿cómo funcionan los sistemas que buscan influir en la relevancia una app, un determinado personaje público, un producto de consumo o hasta un concursante de un Talent Show?


Se trata de los “bots” (robots) de Twitter o cuentas automatizadas que realizan tareas mecánicas (distribuir spam, retuitear mensajes con determinadas palabras o repetir el mismo mensaje desde distintas cuentas cuando aparecen ciertos hashtags) y de las también llamadas “Click Farm”, o granjas donde se comercia con la manipulación interesada de los “me gusta”. Tampoco me quiero olvidar de las “Trolls Farm” o variantes de “Call Centers” donde “operadores físicos” crean, manejan y monitorizan cientos de miles de cuentas Cyborg.


Los primeros, son lugares cerrados y aislados repletos de estantes metálicos con miles de smartphones conectados y donde se emplea mano de obra humana para que todo pueda funcionar según los intereses del cliente que compra esos “likes”, o mejores posiciones en un ranking para lo que, por ejemplo, el humano descarga una app o un juego que instala y después desinstala tantas veces y en tantos equipos como contemple el trato cerrado.


Los segundos son mucho más profesionales. Necesitan grandes instalaciones por el volumen de trabajadores, que, dicho sea de paso, no necesitan ser programadores (pueden ser universitarios o sin estudios y con un bajo salario) y por el tamaño de la infraestructura informática.


Pero el grado de sofisticación en el “engaño” puede ser creciente, ya que, desde cualquier lugar del globo, se pueden crear y organizar cientos o miles de perfiles falsos en distintas redes sociales con el fin de “influir” (de nuevo) en los usuarios o ciudadanos diana. Una técnica muy utilizada y que se conoce como “sockpuppeting”.


Y, toda esta infraestructura social y virtual de cuentas falsas no se limita sólo a redes sociales como Facebook sino que también es utilizada toda una red de bots para Twitter.


El mecanismo de actuación en el ámbito político es muy familiar.


Una campaña de anuncios interesados que se acompaña de perfiles falsos que comparten noticias sesgadas, donde se filtran datos sensibles (verdaderos o falsos), sobre un candidato y se refuerzan, simultáneamente, enviando mensajes o hashtags concretos que inclinen o movilicen la opinión en la dirección convenida. Miles de usuarios que comparten un mismo mensaje, con un hashtag, tienen posibilidades reales de llegar a ser “trending topic” y el objetivo se ha cumplido.


Por ejemplo, durante las pasadas elecciones en EEUU, un mismo mensaje se twitteó una y otra vez con pocos segundos de diferencia y, el día de las elecciones un grupo de bots enviaron el hashtag #WarAgainstDemocrats más de 1.700 veces.


En ocasiones, alguno de esos mensajes compartidos por bots (desde cuentas falsas o reales, pero “hurtadas” a sus legítimos usuarios por falta de uso) en redes sociales, no conseguían la repercusión que se estimaba. Esto obligaba a una nueva tanda de mensajes y la aplicación del método de prueba-error; porque el coste operacional es muy bajo.


Y, por cierto, tampoco es imprescindible utilizar cuentas falsas o cuentas robadas ya que los grupos de hackers, que están detrás de estas operaciones, pueden acudir al mercado (negro por supuesto) y comprar varios miles de cuentas. Aunque pueda parecer imposible, hay sitios web al por mayor de compraventa de cuentas.


No hay que olvidar que, cada bot, ha llegado a recibir hasta 5 retuits de cuentas reales como media. Lo que significa que hay humanos que deciden compartir el contenido generado por un robot creado para contaminar o difamar.


Pero, también encuentra aplicación en el ámbito comercial y empresarial.


Si la empresa cliente quiere generar interés en torno a su nuevo producto, “el enjambre” identifica espacios de interés y pone en circulación cientos de comentarios positivos en medios, foros, e incluso en marketplaces.


Si, por el contrario, se trata de “guerra sucia” y el objetivo es eliminar o debilitar a la competencia, el enjambre sigue el mismo patrón, pero, esta vez, para difamar.


Recibe el nombre gráfico de enjambre porque su manera de actuar es siempre en grupo como las abejas, avispas u hormigas: los perfiles falsos/robados/reales se enlazan y se retroalimentan dándose la razón, apoyándose unos a otros y recurren a todo tipo de estratagemas de guerra como abusos verbales, provocaciones, etc.


Las claves de su éxito y proliferación es que son relativamente baratos, fáciles de crear, cosechan datos, y pueden dar servicio a distintos clientes al mismo tiempo.


Estas redes operan en 3 niveles con el “rebaño digital”:


  1. Pastores: cuentas muy influyentes que definen y marcan la conversación

  2. Perros pastores: cuya labor es amplificar el mensaje y defender al “amo” y atacar a los enemigos

  3. Las ovejas: que son los miles de cuentas automatizadas que van donde las lleven, según convenga y quien sea el cliente, pero que tienen una importancia capital y central en la estrategia porque son las responsables de generar la falsa, pero muy convincente sensación de mayoría social.


Y detrás, en el “backstage” un enorme negocio con campañas de contaminación, distorsión de la realidad, “redirección” de opiniones y cambios de voluntades en individuos y ciudadanos que no se percatan de la manipulación de la que están siendo objeto


Según algunos autores, al menos 30 países sufren la manipulación e intoxicación, de bots y trolls, en el escenario del debate público con perfiles fraudulentos en las redes sociales.


Quizá, es hora de recordar lo que nos decía J. Lanier hace casi una década en su libro “contra el rebaño digital” (You're not a gadget: A manifestó, Jaron Lanier, Editorial Debate. Barcelona, 2011), “el totalitarismo digital es la nueva amenaza para el orden social, como lo fueron el fascismo y el comunismo anteriormente”.


Su posición no está junto a tecnófobos y frente a la tecnología.


Por el contrario, apuesta por una visión humanista del uso de la tecnología y aborda el debate de la redefinición de Internet y de sus aplicaciones donde cada uno de nosotros esté por encima de las máquinas que usa, donde la utilidad sea más importante que la rentabilidad y el progreso sostenible sea un objetivo superior al resultado inmediato.

Esto es un párrafo. Puedes cambiarlo y poner tu propio texto, editar el formato y añadir enlaces o imágenes.