Bataille pour le cerveau…
Une des formes d’attaque de l’esprit humain a été développée cette dernière décennie et a été ouvertement transformée en arme en 2020 sous le vocable de «guerre cognitive». Mon argument, exprimé dans le chapitre 5 de mon livre ««Covid-19», Psychological Operations, and the War for Technocracy», est que les capacités cognitives publiques furent délibérément attaquées en 2020-21. J’explique ici les origines et le développement de la doctrine de «guerre cognitive» de l’OTAN et comment elle peut être utilisée à des fins de gestion de la perception.
Le «domaine humain»
La guerre cognitive provient du concept militaire du «domaine humain» défini par Curthoys (2014, p.42) comme étant «toutes choses se rapportant aux aspects opérationnels socio-économiques, partenariats, cognitifs et culturels, impliquant l’engagement et l’influence». Comme l’explique aussi du Cluzel (2020, pp.36), si les cinq domaines principaux (terre, air, mer, espace et cyberespace) peuvent donner des victoires tactiques et opérationnelles, «seul le domaine humain peut amener la victoire totale finale», c’est à dire sur la population elle-même.
Le «domaine humain» a pour origine des documents militaires comme l’«U.S. Army Mastering the Human Domain : Identity Operations for Strategic Landpower» (Gearty et al., 2014) et «Training Humans for the Human Domain» (Tatham & Giles, 2015). Le dernier note qu’alors que l’expérience en Afghanistan et en Irak a démontré l’importance de la compréhension du domaine humain, les leçons apprises s’étendent «bien plus loin que les opérations de contre-insurrection dans le monde musulman».
Ainsi donc, ces leçons s’appliquent bien plus près de chez nous, voir l’opération Jade Helm de 2015 aux États-Unis dont le slogan était : «Maîtriser le domaine humain».
source : U.S. Army Special Operations Command (2014)
Commandée par l’amiral William McRaven, le patron de l’U.S. Army Special Operations Command, l’opération Jade Helm fut un exercice d’entrainement militaire de guerre non-conventionnelle ; elle impliqua quelques 1200 hommes de trois branches des corps d’armée, déployés pendant huit semaines à travers les États-Unis, dont 17 endroits pour le seul Texas.1
Étant donné que McRaven (2014, p.28) définit le domaine humain comme «la totalité de la fabrique sociale, culturelle et ethnique qui fait le peuple qui vit dans une zone particulière», le choix d’un territoire familier domestique pour l’opération Jade Helm semble être pour le moins bizarre, à moins que ce ne soit la population locale elle-même qui soit la cible des opérations de contre-insurrection de manière consistante avec la logique de l’Omniwar ou la guerre tout azimut.
Des outils cybernétiques pour contrôler le domaine humain
Nous savons par le Government Communications Headquarters’ (GCHQ) Joint Threat Research Intelligence Group (JTRIG) de la Grande-Bretagne, que les agences de renseignement recherchèrent en 2011 à «compiler des profils psychologiques basés sur l’information disponible sur un individu sur l’internet de façon à ce que ceux qui conduisent les opérations de renseignement en ligne (HUMINT) puissent compiler et exploiter de tels profils» (Dhami, 2011). Ces soi-disant «graphiques psychologiques» impliquent la récolte de données au sujet de tous les aspects de la vie d’une personne afin de produire un profil psychologique qui permet à l’IA de cibler la communication et les messages d’individus spécifiques (Corbett, 2017).
Facebook fut délibérément construit pour générer «des boucles de données à court-terme fondée sur l’effet dopamine» par exemple en recevant des «like» et des notifications comme l’a admis Chamath Palihapitiya, le vice-président de Facebook pour la croissance des utilisateurs en 2017 (cited in Wong, 2017). Ceci veut dire que les médias/réseaux sociaux et plateformes similaires ont une qualité d’addiction chimique. Comme les machines à sous qui sont faites pour maintenir l’utilisateur à actionner le levier (ou les boutons), ces plateformes utilisent des algorithmes pour maintenir les utilisateurs sur leur écran, les engager et les faire revenir pour toujours plus.
Le résultat fait mal à voir : des masses de gens scotchés à leurs écrans de smartphone en public ou dans un contexte social où une conversation directe en face à face serait appropriée. De plus en plus de personnes sont incapables d’être sans leur smartphone de jour comme de nuit. La qualité addictive des apps et des machines veut dire que les gens sont constamment en train de nourrir leurs infos personnelles en ligne pour la machine de Big Data / Big Tech, qui est absolument inséparable des agences de renseignement, quelles qu’elles soient (Corbett, 2019d).
Ces personnes sont des cibles faciles pour la guerre cognitive (du Cluzel, 2020, p.7), car elles sont constamment programmées, par exemple par le type d’information qui apparait… ou n’apparait pas, sur leur écran. Comme l’a dit Palihapitiya : «Vos attitudes, sans le réaliser, vous êtes programmés» (cited in Wong, 2017).
Aldous Huxley (1958, p.38) se réfère à la technique de persuasion par association de la propagande. L’idée est que des mots clefs sont mis en commun avec d’autres mots et phrases qui créent une impression positive ou négative comme désiré dans le moment et ces paires sont répétées le plus souvent possible afin de créer des associations sub-conscientes dans l’esprit du public. Des exemples classiques de notre temps sont «islamique + extrémiste» et «vaccin + sûr et efficace». Les nouvelles technologies numériques permettent à ce processus d’être automatisé. Par exemple, Word2vec a fait breveter en 2013 par une équipe de chercheurs de Google menée par Tomas Mikolov, un système pour utiliser le processus du langage naturel afin de créer un vecteur de représentations de mots. Des mots sont couplés ou utilisés dans des contextes similaires, apparaissent plus proches l’un de l’autre sur le vecteur de représentation que des mots que ne le sont pas. Il devient alors possible par IA, de manipuler le contenu en ligne de façon à ce que les vecteurs désirés soient créés.
Entre 2013 et 2016, l’entreprise britannique d’analyse de données, Cambridge Analytica, a utilisé une app appelée «Ceci est votre vie numérique» afin de collecter les données personnelles de quelques 87 millions d’utilisateurs de Facebook sans que ces personnes n’aient donné leur consentement. Les données furent utilisées pour créer des profils psycho-graphiques des utilisateurs, qui furent utilisés pour créer de la publicité politique personnalisée sur des plateformes numériques pour les campagnes présidentielles de Ted Cruz et Donald Trump en 2016.
Le scandale Cambridge Analytica est un bon exemple de la notion de contrôle exercée sur une personne selon Fitt (2022). Par exemple dans un segment intitulé «Hacker l’individu», le manager du département de l’innovation de l’OTAN, François du Cluzel (2020, p.7), écrit :
«La révolution dans la technologie de l’information / informatique a permis de nouvelles manipulations cognitives de toutes les sortes possibles, sur une échelle sans précédent et de manière très élaborée. Tout ceci se fait à des coûts bien moindres que dans le passé, lorsque c’était nécessaire de créer un impact au travers d’actions non-virtuelles, dans le monde physique».
Dans ce contexte, il est intéressant de faire un contraste entre «le 11 septembre» en tant qu’action nécessitant de grandes ressources cinétiques de faux-drapeau terroriste puis plus tard les allégations vers 2012 (Sandy Hook) et 2013 (l’attentat de marathon de Boston), que certaines attaques terroristes furent mises en scène (Hall, n.d.; Davis, 2024). Après tout, pourquoi faire des attaques faux-drapeau, laissant derrière de véritables preuves qui induiront de vraies poursuites judiciaires par les familles de vraies victimes, lorsque la guerre cognitive peut être utilisée pour convaincre le public que les attaques sont vraies ? Comme l’écrivit Orwell (1984, p.225) : «Si à la fois le passé et le monde externe existent seulement dans l’esprit, et si on peut contrôler l’esprit , alors ?».
Un rapport de l’U.S. Naval College de 2023 sur la guerre cognitive réfère à «l’utilisation de la psychologie et de technologies avancées pour cibler des individus ou des groupes plus précisément» (MacDonald & Ratcliffe, 2023). Des interférences ICT ont permis d’identifier des millions d’individus, de la profiler de manière psycho-graphique et de cibler leur connaissance. Un simple exemple est Netflix recommandant aux utilisateurs ce qu’il devrait regarder : la TV numérique n’est pas faite pour les masses, c’est un outil de ciblage individualisé. Mais quand des infos, des sections de commentaires, des recommandations de contenu etc. sont manipulés de manière algorithmique, le sens de la réalité d’un individu peut être sévèrement déformé.
L’IA peut être utilisée pour mettre les utilisateurs d’un média social dans des silos, où on leur fournit une information qui confirme leur vision du monde. Des groupes différents de gens font une expérience différente de la réalité sociale et la société se divise, incapable de s’unir contre les technocrates qui ne font que rechercher le contrôle social total.
À cause de l’échelle à laquelle ces manipulations cognitives se situent, il peut apparaître que nous ayons à faire à une manipulation de masse similaire à la propagande du XXe siècle. L’OTAN par exemple, affirme que parce que la guerre cognitive est «faite pour modifier les perceptions de la réalité, la manipulation de la société entière est devenue la norme, la connaissance humaine devenant un monde critique de champ de bataille». Mais en pratique, la manipulation de «la société entière» se fait une personne à la fois et non pas par messagerie de masse.
Une autre caractéristique distinctive de la manipulation cognitive, comparée avec la propagande traditionnelle, est qu’il ne s’agit pas d’imposer des idées ou des attitudes particulières, mais plutôt de modifier la connaissance et le comportement, par exemple «en influençant le processus par lequel nous parvenons à des idées, des vues, des croyances, des choix et des attitudes» (van Hamelen, 2022). En d’autres termes, il ne s’agit pas seulement d’influencer ce que nous pensons, mais comment nous pensons (du Cluzel, 2020, p.8).
Un exemple des plus simples est Tik Tok, dont les vidéos très courtes travaillent sans relâche à réduire le niveau et le temps d’attention de ceux qui regardent, ainsi que leur capacité d’absorber un contenu plus long et leur capacité à faire les connexions vers une vision plus panoramique des choses. Il y a de moins en moins de gens qui lisent un vrai livre de papier d’un bout à l’autre. La sous-traitance de la pensée et de la mémoire au GPS, à l’auto-correction, aux alertes de calendrier, aux calculettes etc., crée «un processus de longue haleine de déconnexion dans votre cerveau» (du Cluzel, 2020, p.16).
La doctrine de la guerre cognitive de l’OTAN
Cela veut tout dire que la manipulation cognitive mène à la doctrine de la «guerre cognitive» de l’OTAN émise en 2020, l’année où commença l’OmniWar ou la guerre tous azimuts. Depuis lors, un aspect destructeur ouvert est introduit avec le langage de «l’ennemi» :
«La guerre cognitive est donc une forme inconventionnelle de guerre qui utilise des outils cybernétiques pour altérer les processus cognitifs ennemis, exploiter les biais mentaux ou la pensée réflexive et provoquer des déformations de pensée, influencer les prises de décisions et entacher l’action d’effets négatifs, à la fois au niveau individuel et collectif». (Claverie & du Cluzel, n.d., p.2).
Les forces spéciales de l’armée américaine (2008, pp.1-2) définissent la guerre non conventionnelle (GNC) comme «des opérations menées par, avec ou au moyen de forces irrégulières en soutien d’un mouvement de résistance, une insurrection ou des opérations militaires conventionnelles». Des exemples de GNC cités incluent le soutien américain aux Contras du Nicaragua et aux Moudjahidines en Afghanistan dans les années 1980. En d’autres termes, nous sommes face à des subversions illégales de la société.
Un objectif clef de la guerre cognitive est «de torpiller la confiance du public dans les processus électoraux, civiques, les institutions, les alliés, les politiciens…» (du Cluzel, 2020, p.8)2. Le scandale de Cambridge Analysctica plane lourdement ici. Ce processus d’endommager la confiance, continue de Cluzel, a «le potentiel de détricoter le contrat social qui cloue les sociétés». Ceci, quoi qu’il en soit, est précisément le but de l’OmniWar, guerre tous azimuts, c’est à dire de détruire des siècles de tradition libérale et la remplacer par une technocratie planétaire.3
À l’encontre de la propagande traditionnelle, les individus soumis à la guerre cognitive ne sont pas des récipients passifs d’une simple sorte de messagerie, mais aident plutôt activement à faire passer le message eux-mêmes par les médias sociaux et autres formes de participation en ligne. À cet égard, «l’individu devient l’arme» (du Cluzel, 2020, p.8). Ceci est consistant avec le principe général du si nous ne résistons pas activement dans cette guerre tous azimuts, nous devenons nous-mêmes des armes et sommes transformés en des instruments de notre propre oppression.
La connaissance sur le comment manipuler ces processus, a dit du Cluzel à un panel de discussion de l’OTAN le 5 octobre 2021, «est facilement transformé en arme» (cited in van Hamelen, 2022). Par exemple, le débat et discussion rationnels qui sont nécessaires pour que la démocratie fonctionne, sont rendus impossibles par les «chambres d’écho» créées par des algorithmes IA. Une «société» composée de personnes faisant l’expérience de différentes réalités sociales et rendues incapables en premier lieu de connaître la réalité du fait de la technologie de la «falsification profonde», ne peut pas fonctionner de manière démocratique et ne peut être gérée que de manière technocratique.
NdR71 : le contre-poison de tout cela est énoncé dans ce livre visionnaire du grand pédagogue brésilien Paulo Freire qui écrivit son livre phare en 1970 «La pédagogie des opprimés» (ce lien vous mène à notre traduction intégrale du livre en français, notre traduction a servi à la traduction du livre en arabe en 2022). À lire et diffuser sans aucune modération. Le livre fut publié en français en 1982 et jamais republié, rien d’étonnant… Nous avons répondu à ce manque.
La littérature officielle blâme la guerre cognitive et les tentatives de faire capoter la démocratie4 sur la Russie et la Chine (MacDonald & Ratcliffe, 2023), voulant dire que les États-Unis ne peuvent pas être pris au dépourvu en ce qui concerne la guerre cognitive (du Cluzel, 2020, p.31). Ceci est le même modèle qui fut utilisé durant la guerre froide pour justifier le programme MKUltra, le développement d’armes biologiques, le massif stockage d’armes nucléaires en tout genre etc… Le prétexte de «l’ennemi officiel» est toujours utilisé pour cacher les activités néfastes et malfaisantes de l’état profond, qui est maintenant utilisé comme arme contre les populations occidentales.
D’après l’OTAN, la guerre cognitive implique «attaquer et dégrader la nationalité» et devient «de plus en plus complexe alors que des cibles non-militaires sont ajoutées». En d’autres termes, il s’agit d’attaquer la rationalité de la citoyenneté. Ce que j’ai appelé «attaque cognitive» contre la population a été une caractéristique majeure de l’opération psychologique «COVID-19» (Hughes, 2024, Chapter 5).
De plus, si l’objectif de la «guerre cognitive» est de faire de tout le monde une arme et de «nuire aux sociétés» (du Cluzel, 2020, p.25), ceci fut fait durant l’opération COVID-19, lorsque la majorité de la société fut manipulée pour attaquer la minorité et la faire se conformer aux diktats draconiens (Hughes, 2024, Chapter 7). Les fractures sociales qui en ont résulté, détruisant toute sorte de relations, sont profondes.
L’OTAN inclut l’aspect légal dans sa catégorie de guerre cognitive. Les tentatives récentes d’utilisation du système légal pour faire taire la mise en question de supposés incidents terroristes faux-drapeaux sont donc notables, comme par exemple dans l’affaire de Sandy Hook (Alex Jones) et l’attaque de la Manchester Arena de 2017 (Richard D. Hall [see Davis, 2024]). On doit se rappeler que l’OTAN a une histoire connue, aujourd’hui révélée de commettre des attentats terroristes sous faux-drapeau (Hughes, 2024, pp.92-95).5
Les trois camps d’attention
La guerre cognitive peut aussi être utilisé à des fins de gestion de la perception des choses.
En ligne avec la promotion du DARPA (Agence pour les Projets de Recherche Avancée de La Défense / Pentagone agence de recherche haute technologie) des «narratifs stratégiques» et des techniques de gestion de la perception remontant au moins au 11 septembre 2001, il apparait y avoir au moins trois champs, camps d’attention quand on parle du contrôle du narratif «COVID-19».
Le premier camp est le narratif officiel, comme épousé par tout ce qui est «de masse» et conventionnel ; ceci est fondé sur de gros mensonges, mais est pourtant cru par une majorité décroissante, susceptible de succomber au pouvoir de la propagande.
Le second camp est pour ceux qui ont des doutes sur le camp 1, mais qui sont confrontés à un bataillon de faux dissidents dont le rôle est de s’assurer que le débat critique et la discussion n’aillent jamais au-delà de certains paramètres, dans ce cas précis, un paradigme de santé pharmaceutico-médical public. Les faux héros sont reconnaissables par le grand nombre de leurs suiveurs, leur habilité et capacité à survivre et prospérer sur les plateformes de masse, la quantité improbable de contenu qu’ils émettent tout en volant autour du monde d’un évènement à un autre, la promotion croisée qu’ils font avec les autres, leur ostracisation par ceux du champ 3 et leur refus de regarder à des preuves clefs de manière sérieuse (voir le refus de Project Veritas de couvrir les contenus de problèmes sur le «vaccin COVID-19»)
Le camp 3 est celui de la vérité. Il attire les plus sérieux chercheurs de vérité, dont la portée sur les plateformes de masse est sévèrement restreinte. En comparaison au camp 2, le camp 3 est tout petit, ce qui est le témoignage du succès de la campagne de gestion de la perception. Dans le cas COVID-19, sa marque de fabrique d’atteindre les relations sociales sous-jacentes produisant les narratifs dans les deux premiers camps, reconnaissant en particulier le rôle central de l’armée et des agendas technocratiques et transhumanistes dans leurs œuvres. Le camp 3 est un endroit encore plus difficile à aller intellectuellement et psychologiquement que le camp 2, parce que cela demande une volonté d’acier pour demeurer sur la voie de la vérité, de la recherche toujours plus rigoureuse, de la volonté d’endurer des sacrifices personnels et la capacité de faire face à la véritable horreur de ce qui se joue et se met en place dans le monde.
La guerre cognitive utilise des algorithmes pour amplifier les messages du camp 1 vers ceux du camp 1 et les messages du camp2 vers les camps 2 et 3, tout en supprimant le contenu du camp 3. Par cette technique, ceux des camps 1 et 2, coincés dans leurs chambres de résonance, deviennent de plus en plus convaincus de la véracité de leur propre position, dont ils font eux-mêmes la promotion active. Ils ont très peu de chance de percer le voile du mensonge et de la tromperie qui leur a été mis devant les yeux.