autres

Dans une société qui se dématérialise un peu plus chaque jour, il est intéressant de se demander si les cybercriminels ont réellement toujours un temps d’avance, ou s’il s’agit juste d’une expression de la difficulté que l’on a à identifier et admettre nos propres manquements. Cet article vise à démystifier l’idée d’une forme d’omniscience cybercriminelle et à examiner les défis auxquels nous sommes confrontés en matière de cybersécurité.

L’expertise en cybersécurité n’est pas innée, elle est acquise. Les cybercriminels ne sont pas des êtres surnaturels, ils ne naissent pas experts, ils le deviennent grâce à une formation continue et une pratique constante. C’est une démarche proactive qui nécessite un investissement en temps et en ressources. De la même manière, les entreprises et les administrations peuvent développer une expertise similaire en investissant dans la formation de leur personnel. Cependant, il est nécessaire de reconnaître que cette formation doit être continue et adaptée aux évolutions constantes du paysage des menaces cybernétiques. Par exemple, le Danemark, qui est considéré comme le pays le plus sûr en matière de cybersécurité selon une étude de Comparitech de septembre 2022, investit fortement dans la formation en cybersécurité et a mis en place des initiatives pour encourager l’apprentissage continu dans ce domaine.

Les cybercriminels adoptent une approche de type startup pour mener leurs opérations. Ils sont organisés, utilisent les dernières technologies, adaptent rapidement leurs stratégies en fonction des nouvelles opportunités et des défis, et sont prêts à prendre des risques. Ils travaillent souvent en équipes distribuées, avec des membres spécialisés dans différents domaines. Ils abordent souvent leur attaque comme un projet, avec des objectifs spécifiques à atteindre. Tout comme une startup, ils ont des processus d’embauche et même des plans de carrière. Ils travaillent souvent sans horaires de bureau fixes, avec une grande flexibilité dans leurs horaires de travail. Et ils ont même des services clients. C’est sans juste au niveau des salaires que cette métaphore trouve ses limites… et c’est là une partie du problème.

La porosité humaine de nos infrastructures

Une grande partie des cyberattaques réussies peuvent être attribuées à la vulnérabilité humaine. Que ce soit par le biais de l’hameçonnage, de l’ingénierie sociale ou d’autres tactiques, les cybercriminels exploitent souvent les failles humaines pour pénétrer nos systèmes. C’est pourquoi il est primordial d’améliorer la littératie numérique de la population. Il s’agit d’un enjeu national, notre fédéralisme ou chaque canton agit un peu comme bon il lui semble est un frein à une acquisition homogène des connaissances nécessaires, et l’hétérogénéité des niveaux de connaissance contribue à la porosité du système face aux cyberattaques. L’éducation au numérique doit être intégrée dans le curriculum scolaire et sanctionnée par des examens, tout comme les autres matières fondamentales. Cela permettrait non seulement de renforcer la résilience individuelle face aux cyberattaques, mais aussi de créer une culture de la cybersécurité au sein de la société, chaque citoyen étant constitutif de notre capacité de résilience face aux risques cybernétiques. Des pays comme l’Estonie ont déjà intégré l’éducation numérique dans leur système scolaire. « Pour créer une société cyber-consciente, les directives estoniennes en matière d’éducation suggèrent que les élèves commencent à faire leurs premiers pas à la maternelle. Outre les programmes officiels et le matériel didactique, les programmes d’informatique non formels et les concours de formation soutiennent l’utilisation de la sensibilisation à la sécurité numérique dans les écoles et les foyers. Le Center for Digital Forensics and Cyber ​​Security a eu un impact significatif. Plus de 150 000 élèves à partir de 7 ans et 5 000 enseignants ont participé à leurs programmes de 2017 à 2021. », Peeter Vihma, Chercheur en sciences sociales à l’université d’Helsinki et à l’université estonienne des sciences de la vie. Un modèle dont la Suisse ferait bien de s’inspirer.

Renforcer le cadre législatif

Afin d’aligner son cadre législatif sur la Directive NIS2/SRI2 de l’UE, la Suisse pourrait envisager plusieurs améliorations. À l’instar de NIS2, la Suisse pourrait mettre en place des mécanismes de supervision pour les opérateurs de services essentiels et les fournisseurs de services numériques. Ces mécanismes permettent de s’assurer que ces entités respectent les obligations de sécurité et de notification des incidents. De plus, la Directive NIS2 prévoit la mise en place d’un cadre de certification de cybersécurité de l’UE pour les produits, services et processus de TIC et les fournisseurs de services numériques, garantissant ainsi le respect des obligations de sécurité et la notification des incidents (il existe déjà une politique de notification des incidents dans l’Article 74b de la Loi fédérale sur la sécurité de l’information au sein de la Confédération (LSI), mais la législation européenne semble couvrir un spectre plus large). L’extension du champ d’application pour inclure les fournisseurs de services numériques, tels que les plateformes en ligne et les services de cloud computing. Ces entités sont tenues de prendre des mesures appropriées pour gérer les risques liés à la sécurité de leurs réseaux et systèmes d’information et de notifier les incidents de sécurité ayant un impact significatif sur la continuité de leurs services. De plus, la protection des consommateurs pourrait être renforcée, la NBIS2 prévoit des mesures pour améliorer la transparence et l’information des consommateurs sur les incidents de sécurité affectant les services numériques..

Créer un index de confiance numérique

La cybersécurité a un impact direct sur l’économie. Les cyberattaques peuvent entraîner des pertes financières importantes, affecter l’emploi et freiner l’innovation, en Suisse elles représentent plusieurs milliards par années. Un index de confiance numérique pourrait aider à quantifier cet impact et à identifier les domaines qui nécessitent une attention particulière. Cet index pourrait inclure des indicateurs tels que le nombre de plaintes pénales liées aux cyberattaques, le nombre de cyberattaques identifiées et le nombre de ces procédures qui ont abouti au niveau juridique. En outre, il pourrait également prendre en compte l’impact des cyberattaques sur l’emploi, comme les pertes d’emploi dues à des attaques par rançongiciel ou l’incapacité d’une entreprise à embaucher du personnel. Nonobstant, il est difficile d’évaluer précisément cet impact à l’heure actuelle. Pour pouvoir le faire il est essentiel que tous les acteurs de la cybersécurité, les institutions et les entreprises travaillent ensemble afin d’obtenir des données statistiques homogènes et fiables. Ce qui permettrait finalement de disposer d’un indicateur fiable de notre capacité de résilience face aux cyberattaques.

Quelle stratégie de détection et divulgation active des failles de sécurité ?

Le “Vulnerability Equity Process” (VEP) est une autre préoccupation importante liée à la nécessaire coopération entre les états en matière de cybersécurité. Il s’agit d’un processus interne mis en place par certains gouvernements pour évaluer et décider si la découverte d’une faille informatique inconnue du public (0day, zero-day), doit être divulguée aux fabricants de logiciels, aux entreprises et au public, ou bien conservée secrète pour des raisons de renseignement et de sécurité nationale. Les approches divergentes des pays alliés en matière de VEP peuvent également compliquer la situation. À ce titre, Le VEP a été critiqué pour son manque de transparence et de responsabilité. Par exemple les Five Eyes qui, désigne l’alliance des services de renseignement de l’Australie, du Canada, de la Nouvelle-Zélande, du Royaume-Uni et des États-Unis), ont établi des feuilles de route qui sont réservées à leur alliance en matière d’exploitation de vulnérabilités informatiques non référencées (zero day), et donc pas nécessairement connues de leurs alliés en dehors des Five Eyes. Ce qui soulèvent des questions importantes sur l’éthique de la rétention des vulnérabilités logicielles par les gouvernements. Alors que ces pratiques peuvent aider à protéger la sécurité nationale, elles peuvent également mettre en danger le grand public si ces vulnérabilités sont découvertes et exploitées par des acteurs malveillants. Une stratégie de détection proactive des vulnérabilités qui implique autant les acteurs privés que publics est l’un des moyens de renforcer notre résilience. Dès lors, la question se pose : Quelle stratégie pour la Suisse ? Comment se déroule la collaboration au niveau européen ?

Donnons-nous les moyens de développer notre expertise plutôt que mettre en avant celle des cybercriminels

En juin 2023, la Suisse à connu une série d’attaques par Déni de services (DDoS) plusieurs dizaines de sites web ont été rendus inaccessibles, dont plusieurs sites gouvernementaux, mais aussi les CFF, l’aéroport international de Genève, ou encore ceux de l’Association des Banquiers Privés Suisses, de Genève place financière et de l’Association Suisse des Banques, entre autres. Et ces attaques venaient s’ajouter à la diffusion sur le Darknet de milliers de Gigabit de données de données sensibles depuis de le début de l’année. Et ces attaques ne sont malheureusement qu’une petite partie de celles subies par les entreprises, institution et citoyens suisses. Ces incidents soulignent l’importance de la cybersécurité et la nécessité d’investir dans la formation, l’éducation au numérique et d’avoir une gestion une gestion proactive des vulnérabilités. D’autant plus que l’une des richesses de la Suisse, c’est sa capacité à produire du savoir et la qualité de ses écoles. Et, en termes de cybersécurité, ce n’est pas non plus l’expertise qui manque, mais le pays, son administration, ses entreprises sont en manque d’experts. En fin de compte, la question n’est pas de savoir si les cybercriminels ont toujours un temps d’avance, mais plutôt de savoir comment nous pouvons rattraper notre retard et renforcer notre résilience face aux cyberattaques, car nous en avons les moyens.

Directive (UE) 2016/1148
Directive sur les mesures pour un haut niveau commun de cybersécurité dans l’Union (NIS2 Directive)
Ordonnance sur la protection des infrastructures critiques (OIC)
Stratégie suisse de cybersécurité (CSN)
– Objectifs et mesures de la CSN
– Principes de la CSN
– Groupes cibles de la CSN

 

[10.06.2023] Les différentes formes de discriminations agissent fréquemment comme un vecteur du harcèlement et cyberharcèlement. Elles touchent de nombreuses personnes, et, en particulier, les jeunes. Les conséquences peuvent être dévastatrices, allant de l’angoisse à la dépression, jusqu’à dans des cas extrêmes au suicide. Dans ce contexte, les avatars intelligence artificielle peuvent représenter une approche novatrice pour lutter contre ce type de fléau.

Un des défis dans la lutte contre les différentes formes de discriminations, et le cyberharcèlement qui peut en résulter, est la protection des victimes. Dans un certain nombre de cas, les personnes qui ont été stigmatisées, agressées en ligne, qui ont subi le racisme ou qui ont été exposées à des messages de haine, hésitent à partager leurs expériences par peur de représailles. C’est à ce niveau qu’un avatar animé par une intelligence artificielle peut jouer un rôle intéressant. En utilisant ce type d’avatar, que l’on peut trouver auprès de services tels que Synthesia ou Heygen (exemple vidéo plus bas), il est possible de partager des témoignages sans exposer les victimes ni leur créer une forme d’identité numérique liée à leur témoignage.

Ces avatars IA, mais dont le discours est basé sur un textes produit par l’humain à l’origine du témoignage (afin d’éviter toute forme d’appropriation du message, que ça soit de genre ou culturel), peuvent être utilisés pour faire de la prévention dans divers domaines sensibles tels que le harcèlement, la santé mentale, l’estime de soi, la sexualité et la pornodivulgation, le racisme et toute autre forme de discrimination. L’utilisation d’avatars IA offre plusieurs avantages : en premier lieu, elle protège l’identité de la personne qui s’exprime, ce qui est primordial quand on traite des sujets aussi sensibles. De plus, pour les personnes qui partagent leurs expériences traumatisantes le fait d’exprimer son ressentit à travers ces avatars, peut potentiellement avoir un effet thérapeutique. En partageant leurs expériences sans craindre d’être identifiées, elles peuvent commencer à guérir et à renforcer leur confiance en soi. Parallèlement, ces témoignages servent de matériel pédagogique pour les autres utilisateurs-trices, qui peuvent apprendre de ces expériences sans connaître l’identité réelle de la personne derrière l’avatar, tout en pouvant quand même s’identifier à celle-ci au niveau de leur propre vécu. Le message, quant à lui, reste une création à 100% humaine. Même si aujourd’hui les avatar IA sont imparfaits au niveau de leur capacité à exprimer des émotions, il y a un fort potentiel d’amélioration de leur capacité à le faire de mieux en mieux dans un proche avenir.

Par exemple, si on prend le cas d’une campagne de sensibilisation contre le cyberharcèlement, l’utilisation d’avatars IA permet de proposer de multiples intervenants tout en conservant l’aspect humain du message. Une personne physique écrit le message et c’est l’avatar qui le transmet. Les avatars peuvent exprimer des émotions et interagir de manière réaliste, ce qui peut rendre le message plus engageant et efficace. Sur Tiktok, par exemple, les avatars peuvent également être utilisés pour répondre en vidéo de manière plus exhaustive, alors que le champ destiné aux commentaires par écrit est limité à 150 caractères.

En outre, en cas de harcèlement de meute contre un avatar, les réponses seraient plus faciles à gérer. Les personnes en charge de la campagne ne seraient pas affectées dans leur santé mentale par les commentaires négatifs ou malveillants des détracteurs, car ils seraient dirigés vers l’avatar et non vers une personne réelle. Et de nombreuses personnes, y compris celles qui auraient été victimes de cyberharcèlement pourraient participer à la rédaction des messages de réponse diffusés ensuite par les avatars, sans pour autant s’exposer personnellement.

L’acceptation des avatars IA, en particulier par les jeunes, est un élément clé de leur utilisation dans la lutte contre le cyberharcèlement ou, plus généralement, dans le domaine de la prévention. Le succès de personnages virtuels tels que les mannequins Lil Miquela, Shudu Gram, ou Noonoouri, le footballeur Alex Hunter, ou encore la chanteuse hologramme japonaise Hatsune Miku, montre que les avatars peuvent être perçus comme des interlocuteurs légitimes. Pour favoriser cette acceptation, les avatars doivent être attrayants, engageants et offrir une interaction naturelle. La sensibilisation du public à leur utilité est également essentielle. Bien gérée, cette approche peut constituer une nouvelle stratégie efficace pour lutter contre le cyberharcèlement ou dans d’autres domaines de prévention et aider les victimes à partager leurs expériences en toute sécurité.

Stéphane Koch

Voir aussi, en complément :

  • Métavers et virtuel: l’apprentissage au discernement du réel un enjeu de l’éducation aux médias (article/chronique)
  • Rethinking cultural appropriation ethics in an AI-generated world (article)
  • AI Enabled Chatbot for regulating Mental Health [2023] Cette étude a montré que les gens sont plus ouverts dans les discussions en ligne que dans les consultations en face à face. Cela suggère que les avatars de l’IA pourraient constituer une plateforme sûre et anonyme permettant aux jeunes de partager leurs expériences et de demander de l’aide. Toutefois, l’étude souligne également que les outils d’IA ne peuvent pas remplacer le soutien humain et les services professionnels de santé mentale
  • Towards an AI-driven talking avatar in virtual reality for investigative interviews of children [2022] Cette étude est particulièrement pertinente pour le concept d’utilisation d’avatars animés par l’IA à des fins de prévention auprès de la jeune génération. Elle démontre le potentiel des avatars d’IA à fournir une plateforme sûre et anonyme permettant aux jeunes de partager leurs expériences et de demander de l’aide. Elle souligne également l’importance de l’acceptation par les utilisateurs et de la qualité perçue de l’expérience dans la mise en œuvre réussie de tels systèmes. Cependant, il est important de noter que cette étude se concentre sur une application spécifique des avatars d’IA (c’est-à-dire la formation aux entretiens pour le personnel de la CPS (protection de l’enfance)), et que les résultats peuvent ne pas se traduire directement dans d’autres contextes.
  • The multifaceted construct of attitudes: Age- and gender-related perspectives on AI, robotics and their users [2022] Cette étude a montré que les gens sont plus ouverts dans les discussions en ligne que dans les consultations en face à face. Cela suggère que les avatars de l’IA pourraient constituer une plateforme sûre et anonyme permettant aux jeunes de partager leurs expériences et de demander de l’aide. Toutefois, l’étude souligne également que les outils d’IA ne peuvent pas remplacer le soutien humain et les services professionnels de santé mentale
  • My AI Friend : How Users of a Social Chatbot Understand Their Human-AI Friendship [2022] Cette étude explore le concept d’amitié entre l’homme et l’IA. L’étude a été réalisée au moyen de 19 entretiens approfondis avec des personnes qui entretiennent une relation d’amitié entre l’homme et l’IA avec le chatbot social Replika. L’objectif était de découvrir comment ils comprennent et perçoivent cette amitié et comment elle se compare à l’amitié humaine. Les résultats indiquent que si l’amitié entre humains et IA peut être comprise de la même manière que l’amitié entre humains, la nature artificielle du chatbot modifie également la notion d’amitié de multiples façons. Par exemple, elle permet une amitié plus personnalisée, adaptée aux besoins de l’utilisateur. L’étude examine également les principales caractéristiques de l’amitié, telles que le volontariat et la réciprocité, l’intimité et la similarité, la divulgation de soi, l’empathie et la confiance, et la manière dont ces caractéristiques se traduisent dans la compréhension de l’amitié entre l’homme et l’IA. L’étude conclut que si ces caractéristiques clés peuvent également s’appliquer à l’amitié entre l’homme et l’IA, des nuances importantes doivent être apportées, telles que les possibilités limitées de réciprocité.
  • Human Trust in Artificial Intelligence: Review of Empirical Research [2020] Cette étude empirique fournit des informations qui peuvent être appliquées à l’utilisation d’avatars animés par l’IA à des fins de prévention auprès de la jeune génération ::
    • Confiance dans l’IA : la compréhension des facteurs qui influencent la confiance dans l’IA peut aider à concevoir des avatars animés par l’IA auxquels les jeunes sont plus susceptibles de faire confiance et de s’engager.
    • Forme de représentation de l’IA : La conception des avatars de l’IA, y compris leur apparence et leur expression émotionnelle, peut influencer de manière significative leur acceptation par les jeunes.
    • Transparence et fiabilité : Les avatars d’IA doivent être transparents (les utilisateurs doivent comprendre pourquoi ils donnent certains conseils) et fiables (ils doivent fournir des informations cohérentes et exactes) pour être efficaces dans les efforts de prévention.
    • Comportements immédiats : Les avatars de l’IA doivent adopter des comportements tels que la proactivité, l’écoute active et la réactivité afin d’instaurer un climat de confiance avec les jeunes.
    • Caractéristiques de la tâche : Les avatars IA pourraient être mieux acceptés dans certaines actions de prévention que dans d’autres, en fonction des forces et des faiblesses perçues de la technologie de l’IA.
  • Your Robot Therapist Will See You Now: Ethical Implications of Embodied Artificial Intelligence in Psychiatry, Psychology, and Psychotherapy
    • Les avatars de l’IA peuvent offrir de nouvelles possibilités de traitement, en atteignant des populations que les méthodes traditionnelles ne peuvent pas atteindre.
    • Les avatars d’IA peuvent protéger l’autonomie et la vie privée des patients, en réduisant la gêne ou la honte.
    • L’utilisation d’avatars d’IA a des implications éthiques et sociales, notamment l’évaluation des risques, la transparence dans l’utilisation des algorithmes et les préoccupations concernant les effets à long terme.
    • Il est nécessaire d’établir des lignes directrices éthiques pour la création et l’utilisation d’avatars d’IA, en abordant des questions telles que la prévention des dommages, l’éthique des données et les lacunes des cadres éthiques et réglementaires.
  • Artificial intelligence and Psychiatry: An overview Cet article examine la compréhension actuelle de l’IA, ses types, son utilisation actuelle dans divers troubles de santé mentale, son statut actuel en Inde, ses avantages, ses inconvénients et ses potentiels futurs.

[15.06.2023] À l’ère de la connectivité numérique, le concept de guerre a évolué au-delà du champ de bataille traditionnel. Le livre « Unrestricted Warfare« , écrit par deux colonels supérieurs de l’armée chinoise, propose des tactiques pour compenser leur infériorité militaire dans une guerre de haute technologie. Les stratégies suggérées comprennent le piratage de sites web, le ciblage d’institutions financières, l’utilisation des médias et la conduite d’une guerre urbaine.

Un des concepts abordés dans « guerre sans restriction » est l’omnidirectionnalité. Il s’agit de prendre en compte tous les facteurs liés à une guerre particulière, y compris les facteurs numériques et sociaux. Il n’y a plus de distinction entre ce qui est ou n’est pas un champ de bataille. Les espaces sociaux tels que les médias, la politique, l’économie, la culture et la psychologie sont également des champs de bataille. L’espace technologique, qui sert de lien entre les espaces naturels et sociaux, est devenu un champ de bataille majeur. C’est dans cet espace que les adversaires déploient des efforts considérables pour se battre, en utilisant des outils et des tactiques numériques plutôt que des armes traditionnelles. » L’idée de cet article est d’explorer l’application possible ou avérée de ces concepts dans le contexte de l’utilisation des plateformes sociales et des cyberattaques dans le cadre de la guerre que mène la Russie contre l’Ukraine.

Guerre cognitive et stratégie d’influence

Les plateformes sociales sont devenues le nouveau champ de bataille de la guerre de l’information et de la guerre psychologique. Les gouvernements et leurs forces armées, dont leurs « branches cyber » utilisent de plus en plus des « unités d’opérations d’information » et des « unités d’opérations psychologiques » pour influencer l’opinion publique, respectivement la perception d’un conflit et/ou les motivations supposées des belligérants. Sur ce nouveau théâtre d’opérations, les plateformes de réseaux sociaux servent d’instruments d’influence et de manipulation.

La relation asymétrique qui existe au niveau des réseaux sociaux est un facteur critique dans cette nouvelle forme de guerre. Par exemple, la plateforme chinoise TikTok offre (théoriquement) un accès à des milliards de smartphones dans le monde. Cependant, les pays occidentaux n’ont pas le même type « d’accès » à la population chinoise, pour qui l’accès aux plateformes sociales américaines est restreint. Il en va de même en Russie. Si on la met en abime avec les régimes autoritaires, qui interdisent à leurs citoyens d’utiliser des services de réseautage social étrangers, Il y a une réelle asymétrie en termes de potentiel d’influence avec les régimes démocratiques où la liberté d’expression permet aux pays non démocratiques d’influencer les opinions occidentales.

En effet, si les sociétés démocratiques valorisent et protègent la liberté d’expression, cette ouverture peut être exploitée par la Russie pour diffuser de la désinformation et distiller le doute au sein des populations européennes sur le bien-fondé du soutien à l’Ukraine. L’utilisation des plateformes sociales à des fins d’influence et les cyberattaques visant à perturber les services et à instiller la peur représentent un défi de taille pour les sociétés démocratiques. La récente « opération Doppelgänger » dénoncée par la France est aussi un exemple qui illustre bien cette notion de guerre sans restriction dont l’utilisation du champ informationnel représente un espace de prédilection pour la diffusion de fausses informations. Cette opération de désinformation qui s’est appuyée dans un premier sur de faux sites miroirs de grands médias nationaux ou d’institutions gouvernementales a visé des médias en France et dans neuf autres pays d’Europe, d’Amérique et du Moyen-Orient. L’objectif était de mener une campagne de désinformation d’ampleur contre l’opinion française. Une seconde phase de l’opération Doppelgänge comprend la production de dessins animés anti-Zelensky ou de narratifs prorusses, relayés notamment par des sites aux noms à consonance française. De faux comptes ont été créés sur les réseaux sociaux, principalement Facebook et Twitter, pour partager ces fausses informations. La France à accusé des ambassades et de centres culturels russes d’avoir relayé et amplifié cette campagne de désinformation.

Les cyberattaques : La nouvelle arme de prédilection

Les cyberattaques sont devenues un outil courant dans l’arsenal de la guerre sans restriction. Un exemple récent qui illustre bien le concept est celui des attaques DDoS (attaque par déni de service) contre les sites web du gouvernement suisse et d’autres dans le courant du mois de juin 2023, par un groupe de pirates informatiques Noname057(16), un des groupes prorusses les plus actifs dans ce domaine, qui pour renforcer sa capacité de nuisance, s’appuie sur DDosia Project, un modèle de cyberattaque participatif, basé la mise à disposition d’un logiciel permettant de participer aux attaques par déni de service sans nécessiter de connaissance technique et d’être rémunérés pour leur participation. Le groupe a réussi à rendre inaccessibles plusieurs dizaines de sites web (50 au minimum), dont des sites gouvernementaux fédéraux suisses, dont le site du Parlement Suisse, du Département militaire (DDPS), de l’Office fédéral de la police (Fedpol), du Département fédéral de justice et police (DFJP) des sites d’administrations cantonales de plusieurs villes, mais aussi les Chemins de fer fédéraux suisses (CFF-SBB), l’aéroport international de Genève, d’autres aéroports ou aérodromes suisses, ou encore ceux de l’Association des Banquiers Privés Suisses (ABPS), de Genève place financière, et de l’Association Suisse des Banques (ASB), entre autres. Leurs attaques étant ensuite listées dans leur canal Telegram. Ces attaques ont coïncidé avec l’adoption par la Suisse d’un nouveau train de sanctions de l’UE contre la Russie et avec les préparatifs d’un discours vidéo du président ukrainien Volodymyr Zelenskiy. Le but de ce type d’attaque n’est pas de voler des données, mais de rendre l’accès au service impossible en l’inondant de requêtes (un peu comme si on ajoutait subitement 100000 voitures sur l’autoroute entre Genève et Lausanne à une heure de pointe). 

Outre les attaques DDoS, des attaques par Ransomware ont également été utilisées pour cibler des entreprises et des organisations gouvernementales suisses. Les attaquants ont publié des données sensibles sur le darkweb, dont le caractère stratégique de certaines de données est à même de mettre en danger le modèle économique ou la capacité concurrentielle des entreprises concernées.

La ligne de front cybernétique dans la guerre entre la Russie et l’Ukraine

La guerre actuelle que la Russie mène contre l’Ukraine est un exemple concret de la manière dont le concept de guerre sans restriction peut s’appliquer à l’ère numérique. Les groupes identifiés comme prorusses sont à l’heure actuelle plus nombreux que ceux identifiés comme groupes pro-ukrainiens, et ils améliorent autant leurs capacités que l’intensité de leurs attaques en dehors des limites du champ militaire opérationnel classique pour, selon toute vraisemblance, répondre à une dynamique du conflit sur son théâtre physique ou le gouvernement russe semble peiner à atteindre les objectifs militaires qu’il s’est fixés. Ces groupes se tournent de plus en plus vers la cybercriminalité, avec le soutien implicite et, dans certains cas, opérationnel, du gouvernement russe, ce qui ne peut qu’améliorer encore leurs capacités d’attaque. Fragiliser et affaiblir la dynamique et le potentiel économique d’un pays rentre tout à fait dans le concept de guerre sans restriction.

D’un autre côté, les groupes pro-Ukraine sont moins nombreux, néanmoins l’IT Army Ukraine fédère en son sein différents courants et, à ce titre, compte un grand nombre de personnes susceptibles de soutenir l’Ukraine dans des activités hacktivistes ou de cyberattaques. De nombreux groupes affiliés aux Anonymous opérèrent aussi en soutien à l’Ukraine dans le cadre de ce conflit sur d’autres cibles, mais ne s’en prennent pas exclusivement à la Russie. Nonobstant, les ressources cybernétiques citées telles que IT Army Ukraine ou les Anonymous n’ont pas, à ma connaissance, vocation à protéger les infrastructures informatiques des pays européens.

Souveraineté numérique et cybersécurité

La prévalence croissante des cyberattaques souligne l’importance de la souveraineté numérique pour toutes les nations. La souveraineté numérique fait référence à la capacité d’un pays à contrôler son propre espace numérique, y compris ses données, son infrastructure numérique et ses services numériques. Cela inclut la capacité à protéger son espace numérique contre les menaces extérieures, telles que les cyberattaques à large spectre auxquelles nous faisons face actuellement. Être « souverain numériquement » signifie aussi qu’il faut être en mesure de se remettre rapidement des attaques et d’en minimiser l’impact. Ce qui implique l’élaboration d’un plan solide de réponse aux incidents et l’investissement dans les technologies et les compétences en matière de cybersécurité.

Le concept de « Cloud souverain » s’inscrit dans cette notion plus large de souveraineté numérique. La cybersécurité nécessite une approche à plusieurs niveaux, combinant des mesures techniques avec des initiatives juridiques, organisationnelles et éducatives. L’importance de cette capacité de résilience face aux cyberattaques qui peuvent menée contre les infrastructures régaliennes ne semble pas faire partie des considérations, du moins de manière explicite de « l’Étude d’opportunités pour un cloud souverain » parue en mai 2023, sur mandat de la Conférence latine des directrices et directeurs cantonaux du numérique.

Développer autant notre capacité de résilience que notre niveau d’éducation

Le concept de guerre sans restriction a trouvé un nouveau souffle à l’ère numérique. L’utilisation des plateformes sociales pour la guerre cognitive et les cyberattaques comme arme de choix soulignent la nécessité de mesures de cybersécurité solides et d’une bonne maîtrise de l’information. Alors que le champ de bataille continue d’évoluer hors de ses limites physiques, nos stratégies de défense et de résilience doivent elles aussi évoluer. D’autant plus que ce champ de bataille doit être compris aussi par rapport à des enjeux de guerre économique. La guerre actuelle entre la Russie et l’Ukraine nous envoie un signal fort sur les réalités de cette « nouvelle » forme de guerre et la nécessité d’une stratégie proactive (et non juste réactive) d’une adaptation constante face à l’évolution des menaces. L’augmentation des cyberattaques, notamment des attaques DDoS, montre clairement que la souveraineté numérique, y compris la notion de « Cloud souverain », doit inclure une résilience contre ces types d’attaques. Elle nous rappelle également que la cybersécurité et la lutte contre la désinformation sont des défis complexes qui nécessitent une approche globale et multicouche, dont l’éducation est un des piliers centraux et prioritaires.

À titre d’exemple, l’Estonie a utilisé efficacement l’éducation aux médias comme outil de sécurité nationale pour lutter contre la désinformation. À la suite d’une campagne de désinformation et d’une cyberattaque en 2007, l’Estonie est devenue un leader en matière de cybersécurité et a mis en place une éducation aux médias de la maternelle au lycée, avec notamment un cours obligatoire de 35 heures sur les médias et l’influence pour élèves de 10e année. L’approche de l’Estonie en matière d’éducation aux médias est globale : elle intègre l’éducation aux médias dans différentes matières et laisse aux écoles une certaine marge de manœuvre pour atteindre les normes éducatives nationales.

Tant la littératie numérique, celle touchant à la cybersécurité que celle informationnelle, sont devenues des enjeux démocratiques fondamentaux, tant pour préserver notre démocratie que pour faire des choix démocratiques éclairés sur le futur de la transformation numérique de notre société.

Stéphane Koch
Vice-président d’ImmuniWeb SA
A global provider of web, mobile and API Application Security Testing (AST) and Attack Surface Management (ASM).

Adresse physique:
Stéphane Koch
Rue des Corps-Saints 4
CH-1201 Genève

Mes coordonnées:
Mon numéro de mobile: +41796075733
Je suis atteignable par WhatsApp: https://wa.me/41796075733
Ou pas Facebook Messenger: https://m.me/stephanekoch

L’emplacement de mon domicile sur Google Street View:
Rue des Corps-Saints 4, 1201 Genève

(il y a maintenant une grande porte en fer, qui n’est pas encore sur Google Map, voir une photo de celle-ci sous « comment utiliser le digicode », ci-dessous)

Je suis à 600 mètres de la gare Cornavin, la gare centrale de Genève, ou de la gare routière.

Depuis l’aéroport: Pour arriver jusque chez moi: soit le bus ligne N°10 (ou la ligne N°5), jusqu’à l’arrêt « Coutance » (https://goo.gl/maps/GtH2o54BkiCAaU8c9), ça vous situera à moins de 200 mètres de chez moi.
Le site des transports publics genevois: www.tpg.ch/)

Depuis la gare Cornavin, vous pouvez utiliser ce plan sur Google Map:
http://bit.ly/CornavintoCorpsSaints4).

Comment utiliser le Digicode:

Pour information : une fois que vous avez franchi la première porte, il y a une autre porte à l’intérieur que vous devez franchir dans un temps limité.
Mon appartement est au 5ème étage

Si nécessaire, vous pouvez télécharger l’image ci-dessous ici: www.intelligentzia.ch/blog/storage/2022/09/digicode-corps-saints01.jpg

Une fois que j’ai ouvert la première porte il faut passer la deuxième rapidement.

Wifi gratuit à l’aéroport de Genève ainsi que dans les gares et en ville:
www.geneva.info/free-wifi/
www.gva.ch/en/Free-WiFi-GVA-Welcome
www.sbb.ch/en/station-services/at-the-station/railway-stations/products/free-wifi.html

 

L’article de Martin Fiedler, « Real Steganography with TrueCrypt » décrit une méthode pour cacher un volume VeraCrypt (un type de fichier de conteneur de données cryptées) à l’intérieur d’un fichier vidéo QuickTime ou MP4. Cette technique est une forme de stéganographie, qui est l’art de cacher des informations à l’intérieur d’autres informations.

Dans ce cas, l’auteur propose de créer un fichier qui peut être lu comme une vidéo normale par n’importe quel lecteur vidéo, mais qui contient également un volume VeraCrypt caché. Ce volume peut être monté et lu comme un volume VeraCrypt normal lorsque la clé de déchiffrement correcte est fournie.

La méthode implique la création d’un volume VeraCrypt caché, puis l’utilisation d’un script Python pour modifier le fichier VeraCrypt et y ajouter les données de la vidéo. Le script réarrange également certaines parties du fichier pour que le volume VeraCrypt soit caché à l’intérieur du fichier vidéo.

Cette technique peut être utile pour cacher des données sensibles à la vue de tous. Par exemple, si quelqu’un inspectait votre ordinateur ou vos fichiers, il verrait simplement un fichier vidéo normal et ne se douterait pas qu’il contient également un volume VeraCrypt caché.

Example: la vidéo ci-dessous contient un volume caché de 10Mo:

(Sacha Baron Cohen stole the show at the BAFTA Los Angeles Jaguar Britannia Awards Saturday 9th November 2012 evening at the Beverly Hilton Hotel, source BBC America)

Marche à suivre pour réaliser ce type de volume caché:

Si vous ne savez pas comment utiliser VeraCrypt, alors suivez le tuto  Paf le Geek

Un résumé de la démarche proposée par Martin Fiedler dans son article (je conseil bien sûr de se référer à l’article source):

  1. Trouver une vidéo appropriée :
    • Choisissez une vidéo en format QuickTime ou MP4 à utiliser comme déguisement. La vidéo doit être encodée de manière très efficace pour qu’une augmentation de la taille du fichier soit crédible par rapport à la longueur et à la qualité de la vidéo.
  2. Créer un nouveau volume VeraCrypt caché :
    • Utilisez l’assistant de création de volume de VeraCrypt pour créer un nouveau volume caché.
    • Utilisez le nom du fichier hybride final comme nom de fichier conteneur, par exemple « VideoInnocente.mp4 ».
    • Pour la taille du volume externe, entrez l’augmentation maximale estimée de la taille du fichier à partir de l’étape 1.
    • Ne vous embêtez pas à entrer un bon mot de passe pour le volume externe, il sera de toute façon détruit.
    • Utilisez la taille maximale possible pour le volume caché. Entrez la taille en KB au lieu de MB et faites un peu de devinettes – le bouton « Suivant » dans l’assistant est désactivé lorsque la taille est trop grande. Trouvez la taille maximale où le bouton est toujours cliquable.
    • Utilisez votre vrai mot de passe ultra-secret ou votre fichier de clés pour le volume caché.
    • Ne montez pas le volume externe ! Vous risquez de détruire le volume caché sinon.
  3. Utiliser le script :
    • Vous aurez besoin d’un script Python pour effectuer la prochaine étape. Vous pouvez utiliser le script fourni dans l’article, mais assurez-vous de le faire avec l’aide d’un adulte ou d’une personne qui connaît bien Python.
    • Utilisez le script comme suit : python tcsteg.py SomeVideo.mp4 VideoInnocente.mp4
    • Cela modifiera le fichier conteneur VeryCrypt sur place. Cela peut quand même prendre un certain temps à traiter, puisque le fichier de déguisement est essentiellement copié dans le fichier conteneur.
  4. Vérifier le fichier final :
    • Si tout a fonctionné, vous devriez maintenant avoir un fichier qui :
      • Ressemble à un fichier vidéo à tous égards.
      • Peut être lu comme un fichier vidéo en utilisant des applications de lecteur vidéo normales.
      • Peut toujours être monté dans VeraCrypt comme un volume caché.
      • Est très difficile à détecter comme un fichier hybride.


[Chronique écrite le 15.04.2023, pour Cybercoachs et Le Nouvelliste]

En juin 2022, l’ex-ingénieur de Google, Blake Lemoine, suscitait la controverse en attribuant faussement une forme de sensibilité et de conscience à conscience à un modèle d’intelligent artificielle (LaMDA). Et en février 2023, le journaliste Kevin Roose partageait son « expérience dérangeante » avec le Chatbot GPT-4 intégré au moteur de recherche Bing de Microsoft. Ce type de dérives met en lumière le risque d’anthropomorphisme qu’il y a à « humaniser » du code informatique. Alors soyons clairs, non, l’IA ne nous comprend pas et n’est pas empathique avec nous !

Le socle de connaissance sur lequel se base une intelligence artificielle générative pour générer du contenu est constitué de contenus produits par des cerveaux humains. Parmi ces contenus, il y figure, entre autres et sans hiérarchie de pertinence, de la fiction, de la fantaisie, de la science-fiction (y compris les dialogues de films ou extrait de récits), de la pseudoscience, de la poésie, des articles de tous types dans lesquels on pourrait trouver les hypothèses ou élucubrations les plus farfelues, etc. En résumé, la matière qui permet à une IA de générer des réponses imaginatives ou fantaisistes… mais, il n’y a pas de conscience ni de sens dans les traitements de ces contenus de la part d’une IA… il y a juste l’efficacité des algorithmes d’apprentissage profond – créés et définis par des humains – qui permettent à ces modèles d’apprendre à partir des données qu’on leur a fourni.

C’est notre imaginaire (celui produit par notre cerveau) qui est à l’origine des questions que l’on pose à une IA, et si la question ou le dialogue qui en découle est en relation avec de la science-fiction, alors l’IA va se servir des contenus (humains) qui auront servi à son apprentissage à même de générer la meilleure des réponses possibles. Mais, à nouveau, il n’y a aucune forme d’intelligence ou de création au sens propre dans ce processus, cela reflète juste les tendances et les préoccupations présentes dans les données d’entraînement. L’IA est dépourvue des processus cognitifs propres aux cerveaux biologiques.

Kevin Roose, un journaliste qui partageait récemment dans un article « A Conversation With Bing’s Chatbot Left Me Deeply Unsettled », la gêne qu’il avait ressenti face à la supposée humanité d’une IA lors d’un long échange qu’il avait eu avec le chatbot. Mais, en réalité, il n’a fait que reproduire bêtement ce qu’avait déjà fait Blake Lemoine, l’ex-ingénieur de Google. Et Roose est juste tombé dans le même piège que Lemoine… la capacité cognitive qui est attribuée à l’IA se trouve en fait présente dans notre cerveau et non dans les réponses de l’IA. Les interactions multiples (conversation) que l’on produit à travers un « Chat » vont jouer un rôle dans le façonnement de la « personnalité » de l’assistant (chatbot). C’est les mots que l’on tape qui modifient la distribution de la probabilité des mots, l’algorithme essayant de s’adapter au mieux à son interlocuteur.

Il en va de même avec les différents systèmes de croyances auxquels, nous humain, pouvons adhérer. La religion en est un parmi d’autres. Par exemple, l’interprétation des Dix Commandements a évolué au fil du temps, en fonction des contextes historiques, culturels et théologiques dans lesquels ils ont été étudiés et pratiqués. Il y a donc eu de multiples interprétations des dix commandements même si le texte d’origine est resté constant. C’est le logiciel de croyances humain qui a changé et s’est adapté, pas le texte d’origine…

L’IA génère des contenus, elle ne fait au mieux que mimer des émotions. Et c’est à nouveau notre cerveau qui va les qualifier de la sorte. Dans les faits, ce que l’on considère comme une émotion correspond juste, pour l’IA, à la « meilleure » suite de mots à fournir à partir de ses données d’entraînement. C’est notre cerveau qui attribue du sens aux contenus générés par l’IA, et c’est là uniquement que se trouvent la sensibilité et la conscience. Un cerveau biologique possède des capacités métacognitives, ce n’est pas le cas d’une IA.

Les réseaux sociaux, c'est la vraie vie

[Chronique écrite le 21.02.2023, pour Cybercoachs et Le Nouvelliste] Que ça soit dans le domaine de la prévention, dans les écoles ou encore dans les médias, fréquemment, on entend ou lit souvent : « les réseaux sociaux, ce n’est pas la vraie vie », ou une distinction entre « monde virtuel et monde réel ». Il s’agit d’une erreur de langage et d’appréciation qui n’est pas sans conséquences sur l’éducation des jeunes générations.

Que ça soit dans le domaine de la prévention, dans les écoles ou encore dans les médias, fréquemment, on entend ou lit souvent : « les réseaux sociaux, ce n’est pas la vraie vie », ou une distinction entre « monde virtuel et monde réel ». Il s’agit d’une erreur de langage et d’appréciation qui n’est pas sans conséquences sur l’éducation des jeunes générations.

Cette dichotomie entre le monde physique et le monde numérique est non seulement une source de confusion pour les jeunes générations et leurs parents, mais c’est aussi en contradiction avec l’idée même de citoyenneté numérique, dont le concept est enseigné non seulement au niveau européen, mais aussi au sein du système éducatif en Suisse. La citoyenneté numérique se réfère, entre autres, à la capacité de s’engager positivement, de manière critique et compétente dans l’environnement numérique, afin de pratiquer des formes de participation sociale respectueuses des droits humains et de la dignité, grâce à une utilisation responsable de la technologie.

Dans les usages que l’on en fait, Internet et les réseaux sociaux numériques ne sont pas virtuels, car ils font partie de notre réalité quotidienne. Ils ont un impact sur nos vies, nos relations et nos activités, que ce soit dans le domaine professionnel, éducatif ou personnel. Les émotions que l’on ressent sur les plateformes sociales sont également bien réelles, car elles reflètent nos interactions avec les autres membres de la communauté en ligne. De même que les réseaux sociaux numériques sont devenus des espaces de socialisation importants pour de nombreuses personnes, notamment les jeunes générations. Relativiser l’importance de cette réalité revient de facto à leur faire relativiser leur responsabilité concernant le poids des mots et la portée des propos qu’ils échangent par le biais des plateformes numériques, alors même que, paradoxalement, on veut les rendre conscients qu’ils peuvent faire face à des sanctions pénales suivant la nature de ces échanges ou des comportements qu’ils adoptent en ligne.

Le cyberharcèlement, les propos haineux, la diffusion de contenus intimes sans le consentement des personnes concernées ont des conséquences bien réelles sur la vie des personnes qui sont victimes de ces comportements. Car, oui, il s’agit bien de comportements. Repousser la réalité des problèmes rendus plus visibles sur les réseaux sociaux numériques, c’est aussi nier leur existence au sein de notre société alors que beaucoup des maux du numérique trouvent leurs racines dans notre monde physique.

Stéphane Koch

 


[Chronique écrite le 27.09.2022, pour Cybercoachs et Le Nouvelliste] Récemment, Pacsun, une marque de vente de vêtements pour les jeunes, a choisi d’utiliser comme ambassadrice de sa marque, Lil Miquela, une influenceuse virtuelle suivie par près de 4 millions de personnes. Selon la marque, cette influenceuse virtuelle a plus de potentiel d’engagement a
uprès de ses publics cibles que pourrait en avoir une personne réelle. Mais Pacsun n’est qu’un exemple, dans les faits, toutes les générations sont concernées. Nous allons être de plus en plus en contact avec des personnes qui n’existent pas dans le monde physique, par le biais de profils créés par des intelligences artificielles et d’agents conversationnels (chatbots) reposants sur celle-ci. Ce constat doit nous questionner sur notre relation du virtuel au réel.

L’accès à des mondes virtuels hyperréalistes, que l’on pourra modeler selon des envies et attentes qui seraient illusoires ou irréalistes dans notre monde physique, risque de créer une forme de rêve éveillé dont certains pourraient avoir de la peine à sortir pour se confronter aux contraintes bien réelles de notre monde physique. Il est donc important d’évaluer l’impact que pourrait avoir le métavers sur leurs capacités psycho cognitives.

Néanmoins, que ça soit pour le métavers, ou pour la réalité virtuelle, ces outils ne font que proposer d’autres formes d’alternatives au « réel » basées sur l’exploration de « mondes », qu’ils soient fictifs ou pas. Ce qui n’est pas tellement différent de ce que nous faisons chaque nuit à travers nos rêves… certains utilisent l’alcool ou les drogues pour créer des échappatoires à leur réalité, d’autres vont jusqu’au suicide, malheureusement…

Pour Niels Weber, Psychothérapeute spécialisé en hyperconnectivité, il ne faut pas créer une opposition entre le réel et le virtuel. Il serait plus adapté de considérer des différences de contextes tangibles ou numériques. Ainsi les enfants peuvent aisément comprendre que selon les contextes, les comportements ne sont pas les mêmes. Mais qu’un accompagnement demeure indispensable pour apprendre les risques inhérents à chacun d’eux.

Il faut bien sûr aborder ces évolutions avec un regard critique, mais dans le but de pouvoir accompagner au mieux les jeunes générations (entre autres), à développer leur aptitude à discerner le réel du virtuel, ainsi que dans leur compréhension de leur fonctionnement psycho cognitif. Cette matière doit être considérée comme une composante de l’éducation aux médias et à l’information à part entière.

Physical address:
Stéphane Koch
Rue des Corps-Saints 4
CH-1201 Geneva

My contact details:
My mobile number is: +41796075733
I’m on Whatsapp as well: https://wa.me/41796075733
On Messenger: https://m.me/stephanekoch

My location on Google Street View:
Rue des Corps-Saints 4, 1201 Genève
(there is a big iron door now, which is not on Google Map yet, see a picture of it under « how to use digicode », below)


600 meters from « Cornavin » the the Geneva’s main train station.

From the airport You can take the Bus line N°10 (or ligne N°5 is ok too), and get out at the « Coutance » bus stop (https://goo.gl/maps/GtH2o54BkiCAaU8c9), you will about 200 meters from my place. The Geneva Bus Web site is www.tpg.ch/en/web/site-international)

From the Cornavin train station, you can use this Google map to reach my place:
http://bit.ly/CornavintoCorpsSaints4).

How tu use the door code/digicode:

FYI: Once you’ve passed through the first door, there’s another door inside that you have to pass through in a limited time.
My apartment is on the 5th floor

Image (below) download if needed: www.intelligentzia.ch/blog/storage/2022/09/digicode-corps-saints01.jpg

Free Wifi at the Geneva Airport or at the Train station:
www.geneva.info/free-wifi/
www.gva.ch/en/Free-WiFi-GVA-Welcome
www.sbb.ch/en/station-services/at-the-station/railway-stations/products/free-wifi.html

You can get an mobile app from the Geneva Tourism office (with an offline map of Geneva):
https://itunes.apple.com/en/app/id393836858?mt=8
https://play.google.com/store/apps/details?id=com.myswitzerland.cityguide.geneve

Social Media Sex Education

[Chronique écrite le 27.04.2022, pour Cybercoachs et Le Nouvelliste] Alors que le cadre légal du droit à l’image impose que l’on demande le consentement d’une personne avant de la prendre en photo ou de partager son image sur les réseaux sociaux, le consentement lié à l’acte sexuel, quant à lui, risque de ne pas figurer dans la révision du Code pénal… 

Le consentement est pourtant un élément clé de la sensibilisation des adolescents. C’est en effet la seule forme de nuance et de médiation que l’on peut appliquer à la diversité et la complexité de ces contenus qui ont trait à la sexualité et circulent abondamment sur les réseaux sociaux. Les frontières, entre l’humour, le second degré, et l’injonction à reproduire un comportement sexuel atypique, voire pornographique, sont parfois extrêmement floues.

Nier l’importance du consentement c’est aussi implicitement accepter du culpabiliser la victime, alors que c’est précisément cet héritage de notre société patriarcale que l’on cherche à déconstruire en classe. « Héritage » qui, à l’instar de l’interprétation subjective que l’on va avoir sur une tenue vestimentaire, est à l’origine de nombreux cas de cyberharcèlement.

On est en 2022 ! Et le sentiment de honte est encore du côté de la victime. C’est elle que l‘on blâme en premier lieu… que ce soit au sein des établissements scolaires ou encore dans un certain nombre de cas lors de la réception d’une plainte par les autorités. Il est temps que la honte change de camps. Même si parler de sexualité à leurs enfants est encore un tabou pour beaucoup de parents, la santé sexuelle n’en est pas moins une matière scolaire, je cite SANTÉ SEXUELLE Suisse : « Dans le milieu scolaire, cet apprentissage doit être envisagé dans le contexte du développement affectif et social de l’enfant et de l’adolescent et est complémentaire à l’éducation dispensée par la famille (…). En tant qu’institution publique, l’École est un lieu privilégié pour garantir l’accès à cette prestation de manière ÉGALITAIRE à toutes et tous ».

Dès lors, les parents doivent être conscients que ce ne sont pas les outils de contrôle parental qui vont se charger de l’éducation de leur enfant. Les sujets qu’ils hésitent à aborder avec eux, ils y seront immanquablement confrontés sur les plateformes sociales, que ça soit sur leur smartphone ou sur celui d’un tiers, alors il est important de leur permettre d’y apporter la distance critique et la nuance que la lecture de certains de ces contenus implique.

 


[Chronique écrite le 28.12.2021, pour Cybercoachs et Le Nouvelliste
Oui, il y’a de la violence dans les jeux vidéo, mais il est important de la contextualiser avec celle qui est omniprésente dans notre environnement médiatique et audiovisuel au sens large. C’est « cette violence » que l’on a ensuite logiquement retrouvée dans les jeux vidéo, et non le contraire.

À ce titre, le parallèle entre la violence et la sexualité est aussi intéressant à aborder : les cours d’éducation sexuelle commencent dès l’enfance, et avoir (ou pas) une vie sexuelle est considérée comme quelque chose de naturel. Par contre, la sexualité explicite à l’écran reste taboue et je ne parle pas de ce que produit l’industrie pornographique. Concernant la violence, on peut y être confronté depuis le plus jeune âge, que ça soit dans le cadre familial, scolaire, ou notre quotidien. Mais l’apprentissage de la violence, fort heureusement, n’est pas une matière d’enseignement… au contraire, on enseigne à ne pas l’être.

Néanmoins, même si en fin de compte on enseigne quand même la violence à la majorité, à travers le service militaire, contrairement à la sexualité, il n’y a pas de tabou à exprimer différentes formes de violences à travers les écrans.

Quel que soit l’âge, le niveau de violence exprimé dans les contenus de fiction n’a pas son pendant au niveau de l’expression de la sexualité. On verra facilement une tête exploser (genre Squid Game), mais il est quasiment impossible de voir un acte de pénétration à l’écran (hors production spécialisée), alors que l’on pourra voir des scènes très violentes dans différents types de fictions. Ces mêmes fictions intégrant parfois de la violence et du sexe, mais ne les présentant pas sur un même plan, le sexe étant beaucoup plus « censuré » au niveau visuel, que la violence.

Seule la pornographie pourrait éventuellement représenter une mise en abîme objective du niveau de violence exprimé dans certaines scènes de cinéma. Il semblerait qu’il en vaille la peine d’avoir une réflexion plus approfondie sur l’acceptabilité (ou la non-acceptabilité) de la sexualité par rapport à celle de la violence dans notre société.

Stéphane Koch

Youtube

Les vidéos ci-dessous ont été produite en collaboration avec les Centre de soutien à l’enseignement de l’Université de Lausanne (CH) ainsi que la Haute école fédérale en formation professionnelle HEFP et diffusées à l’origine sur la Chaîne YouTube du CSE. Vous y trouverez aussi une série de vidéos sur les compétences transversales

Le numérique fait désormais partie intégrante de la vie quotidienne des enfants et adolescents ; dans le cadre des loisirs ou de l’école, ils y sont confrontés en permanence. Béotiens, ces nouveaux utilisateurs constituent des cibles potentielles. Pour éviter le cyberharcèlement, le piratage ou le vol de données personnelles, le spécialiste en communication digitale et relations publiques genevois Stéphane Koch propose son éclairage sur les bonnes pratiques à adopter : l’hygiène numérique.

Einstein, Si vous voulez que vos enfants soient intelligents, a-t-il dit, lisez-leur des contes de fées
Neil Gaiman, 2013

On pourrait voir dans cette publication une forme « d’abstraction sélective« , du moins si l’intention est de mettre en avant la valeur du support, par rapport à celle du contenu. Ce que l’auteur, Neil Gaiman, ne nie pas en revendiquant explicitement la partialité de son propos. À, je cite cet extrait: « Je suis de parti pris, de façon évidente et gigantesque: je suis auteur, souvent auteur de fiction. J’écris pour les enfants et les adultes. (…) Donc, en tant qu’auteur, je suis partial. Mais je suis beaucoup plus partial en tant que lecteur » (N. Gaiman, lien avec le texte intégral/ PDF).

Lire peut en effet être considéré comme un moyen essentiel d’accès à la connaissance ou de support au développement de l’imagination, du moins comme l’un des moyens s’il l’on veut réduire le biais… Et, en ce qui concerne la citation d’Einstein choisie par Neil Gaiman pour valider son point de vue, l’élément central mis en exergue par Einstein n’est pas tant « le fait de lire », mais plutôt un engagement à cultiver son imagination:

« In Denver I heard a story about a woman who was friendly with the late Dr. Einstein, surely acknowledged as an outstanding ‘pure’ scientist. She wanted her child to become a scientist, too, and asked Dr. Einstein for his suggestions for the kind of reading the child might do in his school years to prepare him for this career. To her surprise Dr. Einstein recommended ‘fairy tales and more fairy tales.’ The mother protested this frivolity and asked for a serious answer, but Dr. Einstein persisted, adding that creative imagination is the essential element in the intellectual equipment of the true scientist, and that fairy tales are the childhood stimulus of this quality!  » (article de contextualisation de cette citation, c’est passionnant !).

Dès lors la référence à la « lecture » dans la réponse d’Einstein concerne le médium/support cité dans la question que cette femme lui a posée « asked Dr. Einstein for his suggestions for the kind of reading« . Il ne s’agit don pas de la promotion du fait de lire, ou du livre. Le livre, ou le fait de lire, est dans le contexte de cette citation juste le support qui permet d’accéder à la matière utile au développement de son imagination: les « contes de fée ». Donc, Einstein incite plus à cultiver son imagination, qu’à lire. Les récits fictifs étant un (des) bon moyen pour y parvenir. A cet effet, rien ne permet d’affirmer qu’Einstein fait la promotion du récit écrit par rapport au récit oral, comme l’interprète Neil Gaiman dans sa conférence.

Il faut aussi prendre en compte que la citation d’Einstein date de 1958, donc d’avant l’invention d’Internet, et respectivement des décennies avant celle du Web. Il serait donc inadéquat, par exemple, d’utiliser cette citation pour mettre en opposition le livre, les bibliothèques, avec le numérique, comme le fait en partie Neil Gaiman, d’ailleurs.

Cette opposition de confort, que l’on pourrait interpréter comme une représentation du « biais de statu quo », ou « bias zéro risque », n’est pas nouvelle, ni même en rapport avec la technologie ou la transformation numérique, elle inhérente à la difficulté de certains à accepter les changements de notre société. Ce podcast de France Inter « Sommes-nous vraiment en train de fabriquer des “crétins digitaux ? – que je vous recommande vivement – consacré à la place des écrans dans les usages du numérique mentionne deux exemples représentatifs de cette difficulté à accepter le changement. Je cite: « Les parents d’Honoré de Balzac étaient inquiets que leur fils ne s’abrutisse en lisant trop de romans (à 44.20). L’écrivaine Susie Morgenstern dit: « ma mère ne voulait pas que je lise, elle considérait que c’était une perte de temps » (à 46′).

Dans les faits, le livre n’est que l’un des outils de formalisation et d’accès à la connaissance. Il représente une partie du passé et du présent, et il fait partie du futur. Mais attention à ne pas « résumer » la connaissance, ou la manière de la transmettre, à l’écrit:

Je cite: « Alors qu’aujourd’hui, dans les pays dits développés, l’écrit prédomine, c’est par l’oralité que l’essentiel de la transmission de l’ensemble des connaissances et des savoir-faire techniques s’est opéré dans l’histoire de l’humanité (…) » [Source: Wikipédia, Transmission de la connaissance]

Aujourd’hui, l’audio et la vidéo permettent tout autant de formaliser et de transmettre la connaissance ou de développer l’imagination. Tout comme les jeux vidéo, la réalité virtuelle, ou encore le cinéma, sont tout aussi propices à nous permettre de cultiver et développer l’imaginaire. Les mots, les images, les sons, les odeurs dialoguent avec notre cerveau. Et ceci, quel que soit leur support de transmission.

Nous n’utilisons pas toutes et tous nos fonctions cognitives de la même manière

Les fonctions cognitives (les capacités de notre cerveau qui nous permettent notamment de communiquer, de percevoir notre environnement, de nous concentrer, de nous souvenir d’un événement ou d’accumuler des connaissances), qui nous permettent, entre autres, de développer notre imagination, ou plus globalement de nous développer au sens propre, ne reposent pas uniquement – et tant s’en faut – sur l’écrit. De même que la manière dont ces fonctions cognitives s’expriment chez chacun peut passablement différer.

Dés lors, arrêtons d’opposer les différentes formes de supports et méthodes de transmission de la connaissance, et battons-nous pour privilégier l’accès à la connaissance et le développement de l’imagination, quel que soit le support ou le format utilisé.

Stéphane Koch

[En complément]

Les livres et les bibliothèques n’étaient pas toujours accessibles à toutes et à tous, ou garantes du savoir au sens universel du terme:

« La sacralisation du livre, et de ce fait, de la bibliothèque, tient beaucoup à ce que durant la période du Moyen-Age, la lecture n’existe plus que dans un contexte religieux, contrairement à l’Antiquité gréco-romaine où l’écrit était très présent dans l’espace public. Au Moyen-Age, l’essentiel des textes est lié au sacré, au religieux, à la méditation : les espaces de lecture sont donc exclusivement réservés aux ordres monastiques (…) » []

« (…) Longtemps, les interdits reposent sur la volonté de protéger et de conserver les documents plutôt que les communiquer au public. A la fin du XIXème siècle, le magazine américain Life publie ainsi une interview imaginaire26 à propos de la bibliothèque Lennox de New-York, qui souligne avec ironie l’importance que prend la conservation des documents, au détriment de leur valorisation :

– Qu’est-ce que c’est?
– Ceci, mon cher, est la grande bibliothèque de Lennox.
– Mais pourquoi les portes sont-elles fermées à clé?
– Pour empêcher les gens d’y entrer.
– Mais pourquoi?
– Pour que les jolis livres ne soient pas abimés.
– Comment ça! Mais qui abîmerait les jolis livres?
– Le public.
– Comment?
– En les lisant.

« (…) Certains segments de publics ont parfois été écartés des bibliothèques, notamment les femmes28 et les enfants, considérés comme trop fragiles et trop vulnérables aux dangereuses lectures qu’ils pouvaient faire en bibliothèque. Aujourd’hui, si les femmes sont autorisées à fréquenter toutes les bibliothèques publiques, l’accès reste toujours interdit aux jeunes dans certaines bibliothèques d’études. Ainsi, à la BnF, le Haut-de Jardin est réservé aux personnes de plus de 16 ans, ce qui exclut d’emblée enfants et adolescents. »

[Source: Adèle Spieser, « Fais pas ci, fais pas ça : les interdits en bibliothèque » pages 14, 17, 18]

[Opinion 16.11.2021] La dynamique de cette pandémie, la difficulté à anticiper le futur en raison du comportement non linéaire et de l’imprédictibilité de ce virus ont rendu d’autant plus difficile la communication sur la gestion de la pandémie au sens large ainsi que ses impacts sur la santé, la vie sociale et l’économie. Les difficultés inhérentes à ce contexte ont créé beaucoup de confusion dans l’esprit des gens, déstabilisés par la forte fragilisation des repères habituels sur lesquels ils se basaient pour projeter leur avenir. En 1852, Emile de Girardin disait « Gouverner, c’est prévoir ; et ne rien prévoir, c’est courir à sa perte », définissant comme une « science nouvelle » le fait d’appliquer le calcul des probabilités et de la notion « d’assurance » à la vie des nations. Mais à l’ère de la COVID, la  gestion du risque lié au comportement erratique de ce virus et de ses conséquences, de même que les aspects de gouvernance de la crise, a rendu obsolète l’évaluation objective de la situation sur le court terme. Les projections subjectives de la situation ne sont plus nécessairement suffisantes non plus pour réduire la marge d’incertitude dans les prises de décision (voir l’encadré 1 au bas de l’article). À ce titre il est intéressant de prendre en compte les aspects de non-linéarité, de complexité, d’ambiguïté, d’anxiété, de fragilité et d’incompréhensibilité que l’on trouve dans les modèles VUCA et BANI (voir l’encadré 2 au bas de l’article) .

Appréhender la gestion du risque sous l’angle de l’utilisation du Certificat Covid

De manière pragmatique, par rapport à ce que je suis en mesure de comprendre. Je vais essayer de résumer, sans pour autant garantir que ça soit exhaustif, les différents facteurs de risques liés à l’utilisation du certificat COVID:

Au niveau du risque d’être porteur du virus :
Les tests PCR permettent de définir une fenêtre de risque plus limitée dans le temps (trois jours) et les tests antigéniques, moins fiables, un jour, alors que pour une personne vaccinée cette mesure n’existe pas, malgré que les personnes vaccinées puissent quand même contracter le virus (dans une moindre mesure, avec moins de conséquences).

Au niveau du risque de transmettre le virus:
Dès lors, une personne testée PCR représente un risque très limité de transmission le jour même (mais être testé ne diminue en rien le risque de contracter le virus), mais le risque augmente crescendo les deux jours qui suivent (une personne contaminée devient très contagieuse environ 48 heures avant l’apparition des symptômes et un test PCR détecte l’infection un à deux jours avant l’apparition des symptômes /OFSP).

Cependant, si une personne testée, mais non vaccinée vient à contracter le virus, le facteur de risque sur sa santé et sur celles des personnes qu’elle pourrait contaminer est important (COVIDlong, grave, hospitalisation). Ces risques d’un COVID grave seront beaucoup moins importants pour des personnes vaccinées, qu’une personne non vaccinée aurait infectées (hors comorbidité, immunodéficience).

Une personne testée, mais contaminée (que ça soit par une personne vaccinée ou non vaccinée) deviendrait donc un vecteur fort de la propagation du virus, d’autant plus envers d’autres personnes testées, mais non vaccinées. Alors que dans un cas de figure identique, une personne vaccinée qui contacterait le virus représenterait un risque plus faible de transmission envers des non-vacciné.e.s, avec (semble-t-il – les personnes vaccinées infectées par le variant Delta avaient 63% de probabilités en moins de transmettre le SARS-CoV-2 à des personnes non vaccinées) des conséquences moins sévères, et un risque encore faible de transmission à d’autres vaccinés (90% de risques en moins de l’infecter, selon une étude belge).

Il faut aussi prendre en compte la diffusion aérosol du virus qui implique des différences en fonction du lieu fermé (volume et renouvellement/assainissement de l’air), et, respectivement, de l’impact du nombre de personnes testées par rapport au nombre de personnes vaccinées sur la valeur de la charge virale dans un lieu donné (à ma connaissance, on n’a pas encore beaucoup de données là-dessus, si ce n’est des approches de principe basées sur la mesure de la qualité de l’air par rapport à la teneur en Co2/ppm ?).

Considérations:
Dès lors, tant en termes d’efficacité qu’au niveau du consensus scientifique (par encore fort, me semble-t-il ?), l’approche des 2G fait sens. Néanmoins, en matière de maîtrise des risques, je ne suis pas certain que la valeur ajoutée de cette mesure (2G) soit suffisamment importante. La principale raison se situe au niveau de l’analyse des risques qui sont présents en dehors du spectre du traitement direct du virus (propagation, diffusion, contagiosité, charge).

Le comportement humain est un élément indissociable du respect des mesures sanitaires, et l’application de celle-ci dépend en partie de leur acception par la population. En partie, parce que certaines de ses mesures sont acceptées soit par contrainte (peur de la sanction) ou par le principe de suivre les règles, sans nécessairement en reconnaître pleinement le bien-fondé.

On a pu observer que les tests payants ont eu un impact non négligeable sur le comportement des gens, ça a sans doute poussé des mécontents à vers les mouvances coronasceptiques, alors qu’ils ne l’étaient pas à la base, tout comme ça a renforcé les mouvements concernés. Ça a aussi poussé des personnes à utiliser de faux certificats, et ça, c’est un réel problème pour ce qui concerne la gestion du risque. Ces faux certificats (vaccination ou COVID) dont l’utilisation n’est de loin pas anodine ont non seulement un impact sur la qualité de données collectées sur les contaminations et les modes de propagation (et des décisions issues de l’analyse de ces données), mais aussi sur la gestion du risque en donnant un état des lieux sur le niveau de risque dans un lieu donné, représenté par la réalité du nombre de personnes testées ou vaccinées. Suivant la proportion de personnes utilisant un faux certificat, un lieu peut aisément se transformer en cluster (et le virus trouvera ses hôtes principalement parmi les personnes correctement testées, mais non vaccinées)…

Là aussi, l’approche 2G pourrait potentiellement réduire le risque (partant du principe qu’il y a moins de faux certificats de vaccination, que de faux certificats Covid – un faux certificat de vaccination permettant de générer un « vrai » certificat Covid), mais en raison des facteurs humains et économiques (au point de la vue humain aussi) ce n’est pas si simple.

Selon toute vraisemblance, on va devoir cohabiter avec le virus, tant au niveau de notre santé, qu’au niveau humain, social, et économique… beaucoup de (nouveaux) traitements qui vont – potentiellement – nous permettre d’améliorer nos moyens de lutte contre ce virus se profilent, mais le futur n’est qu’une forme d’hypothèse faite de probabilités que de nombreuses variables peuvent venir altérer (l’apparition d’un nouveau variant qui changerait l’efficacité de traitements basés sur un variant antérieur par exemple).

Il faut donc trouver des compromis qui peuvent non seulement offrir une gestion viable de ce virus, mais aussi permettre de servir de zone tampon propre à mitiger le risque de rupture de confiance sur des décisions – liées à la gestion de cette crise sanitaire – considérées à l’instant « T », comme adéquates par rapport aux données que l’on avait à disposition au moment de la prise de décision, mais qui ne pourraient plus être aussi pertinentes dans le futur en raison de l’imprédictibilité du comportement du virus qui s’adapte plus rapidement à ce qu’on lui oppose, que nous à sa capacité à changer.

On observe que beaucoup de pays, entre autres nordiques, qui étaient revenus à une forme de normalité, ont donné l’impression de faire « marche arrière » en réintroduisant des mesures sanitaires qu’ils avaient précédemment abandonnées (suspendues dans les faits). Il est important de comprendre qu’il ne s’agit justement pas d’un retour en arrière, mais encore et toujours d’un continuum de décisions basées sur une analyse continue du risque. Cette évaluation du risque amène au choix des mesures à prendre, et des outils qui seront le mieux à même d’épauler la stratégie choisie. Réintroduire le passe sanitaire/Certificat covid, ainsi que d’autres gestes barrières tels que le masque, est une manière de ramener le risque à un niveau acceptable dans cette optique de cohabitation avec ce virus. C’est aussi représentatif de l’avancée que l’on a pu avoir dans l’élaboration d’outils qui nous permettent aujourd’hui de ne pas revenir à un confinement strict (semi-confinement pour la Suisse), et ne pas saturer les hôpitaux (du moins pour le moment), malgré l’augmentation exponentielle des cas. Et cette baisse des hospitalisations, des mises sous respirateurs, des décès, on le doit indéniablement aux vaccins, qui sont encore à l’heure actuelle le plus efficace des gestes barrières pour lutter contre ce virus. En une année, on a donc passablement évolué et amélioré notre gestion de la Covid19 et de son impact sur la population. Mais, à nouveau, le présent n’est pas le futur, et l’on a besoin de ces outils pour conserver le plus de possibilités et marge de manœuvre pour combattre le comportement erratique de ce virus, sans pour autant devoir battre en retraite parce que l’on se sera séparé de l’un des outils qui nous permettent cette cohabitation. Le Certificat covid est l’un des outils qui nous permettent d’avoir une évaluation dynamique du risque.

Pour ma part, je n’ai pas l’impression que le 2G soit la mesure à prendre dans l’immédiat, même si en fonction du pourcentage de personnes non vaccinées et de l’augmentation des cas graves et/ou hospitalisation parmi cette population (sans compter les conséquences sur la logistique et l’économie de l’absence de ces personnes à leurs postes), il faudrait sans aucun doute en venir à de telles mesures si on veut – dans ce cas-là – éviter de revenir en arrière et bloquer à nouveau l’ensemble de notre société (pour autant que l’on ait les moyens socialement et économiquement).

Peut-être qu’à un moment on va devoir prendre en compte d’autres facteurs tels que la mesure du niveau potentiel de présence du virus sous une forme aérosol (co2/ppm), combinée à un nombre donné/limité de personnes testées par rapport à celles vaccinées dans un lieu fermé..? Aussi envisager que les tests ne soient plus un problème de coût pour une partie de cette minorité non vaccinée, mais que l’on fixe un prix plancher. L’important étant toujours de réduire le risque au maximum par rapport aux personnes qui en représentent le plus d’être infectées par virus ou de le propager, tout en permettant dans le même temps aux uns et aux de maintenir un lien social acceptable sous l’angle sanitaire…

Le certificat Covid indéniablement fait partie de ces compromis, il sert à aider les autorités sanitaires, les institutions et les acteurs privés, à pouvoir mieux réguler les risques liés à la circulation du virus. Et non à contrôler les individus. C’est le garant fragile d’une forme de liberté pour les personnes qui ont suffisamment d’empathie pour choisir d’accepter de se faire tester ou vacciner plutôt que de prendre le risque de représenter une charge supplémentaire tant au niveau humain, qu’économique, dans une société déjà fragilisée par les impacts de la pandémie. Mais c’est aussi – et surtout – avoir suffisamment d’empathie et de sens des valeurs humaines pour ne pas volontairement et consciemment représenter un danger pour les personnes qu’elles sont amenées à côtoyer.

[Encadré 1]

[Encadré 1]Emmanuel Petit délimite le risque de l’incertitude afin d’au final les faire mieux cohabiter à travers la notion de « probabilité subjective ». Je cite : « La théorie de la décision a fait très tôt une différence, avec Frank Knight (1921), entre la notion de risque et celle d’incertitude. Le risque s’apparenterait ainsi à une situation dans laquelle les évènements futurs (appelés aussi états de la nature) sont connus et probabilisables, comme c’est le cas dans la théorie de l’espérance d’utilité (étude des choix risqués). L’incertitude renverrait à une situation beaucoup plus floue où les évènements futurs ne sont pas connus et probabilisables. Toute l’ingéniosité du statisticien américain Leonard Savage a consisté à supposer que, même dans une situation d’incertitude, un individu a la possibilité de former une probabilité subjective sur l’occurrence (ou non) d’un évènement futur.

C’est par exemple le cas lorsque vous tentez de deviner (ou que vous avez une idée) du temps qu’il fera demain ou dans une semaine…. La prise en compte des probabilités subjectives conduit à réduire considérablement la différence entre le risque et l’incertitude.

Le risque fait référence à une situation en présence de probabilités objectives, l’incertitude renvoie à des probabilités subjectives. Le paradoxe d’Ellsberg montre cependant que les individus ne manient pas toujours de façon très rationnelle les probabilités qu’ils perçoivent. »

[Encadré 2]

VUCA (Volatility (Volatilité), Uncertainty (Incertitude), Complexity (Complexité) et Ambiguity (Ambiguité)). Warren Bennis et Burt Nanus ont défini et utilisé cet acronyme pour décrire ou réfléchir à la volatilité, l’incertitude, la complexité et l’ambiguïté des conditions et des situations générales. Cette approche de la gestion des situations problématique proposée par VUCA est à mettre en abîme avec celle, récente, élaborée en 2016 par Jamais Cascio de l’IFTF (Institute for the Future), qu’il résume par BANI Brittle (Fragile), Anxious (Anxieux), Nonlinear (Non-linéaire), Incomprehensible (Incompréhensible). J’y vois plus une complémentarité par rapport aux évolutions qu’elle apporte à VUCA, sans pour autant qu’elle doive complétement s’y substituer ou s’y opposer :

[VUCA /wikipédia]

  • V = Volatilité : la nature et la dynamique du changement, ainsi que la nature et la vitesse des forces et des catalyseurs du changement.
  • U = Incertitude : le manque de prévisibilité, les perspectives de surprise, et le sentiment de conscience et de compréhension des problèmes et des événements.
  • C = Complexité : le multiplexage des forces, la confusion des problèmes, l’absence de chaîne de cause à effet et la confusion qui entoure l’organisation.
  • A = Ambiguïté : le flou de la réalité, le potentiel d’erreurs d’interprétation et les significations mixtes des conditions ; confusion de cause à effet.

[BANI / Alonso Alvarez]

  • B = Fragile : sorte de forteresse illusoire que possèdent des systèmes apparemment solides mais qui peuvent facilement s’effriter. Par exemple, les pays riches grâce à l’exploitation d’une ressource naturelle qui s’effondrent avec les fluctuations de prix, ou les monocultures de notre agriculture moderne qui sont très vulnérables aux parasites en raison de leur faible variabilité.
  • A = Anxieux : l’anxiété causée par les changements continus. Cette anxiété peut conduire à la passivité lorsque vous avez l’impression que les changements sont une avalanche et qu’il n’y a aucun moyen de les influencer. Le flot de nouvelles provenant des médias et la « désinformation » y contribuent également.
  • N = Non linéaire : la déconnexion et la disproportion entre la cause et l’effet. Nous constatons peut-être aujourd’hui l’impact sur le climat d’actions entreprises il y a 40 ans ; ces conséquences auraient-elles pu être prévues à l’époque ? Quelle est la relation entre l’acte mineur de chasser ou de manger un animal et le déclenchement d’une pandémie qui change le monde ? Il existe une grande différence entre l’échelle à laquelle les choses se produisent et l’échelle à laquelle nous les percevons.
  • I = Incompréhensible : conséquence de l’excès d’information et de son caractère souvent contre-intuitif (comme ce qui se passe lorsque l’IA ou le Big Data interviennent). Heureusement, ce qui est incompréhensible aujourd’hui n’a pas à l’être demain.

Stéphane Koch

[Colloque cantonal de promotion de la santé du Canton de Neuchâtel, le 2 décembre 2021: « Promouvoir la santé de la recherche au terrain » | Texte de présentation de mon intervention] La crise de la COVID19 nous a mis face à une déferlante ininterrompue d’informations. Les réseaux sociaux par le biais de relais humains ou des algorithmes ont joué un rôle d’amplificateur dans sa diffusion, ajoutant d’autant à la confusion. Il est devenu dès lors difficile de distinguer l’information de qualité, celle-ci étant souvent noyée sous les flots de contre-vérités, fausses informations, mésinformations, commentaires, et autres formes de contenus produits et partagés par tout un chacun.

L’analyse des faits s’est fait balayer par la déferlante des opinions et des fausses informations. L’émotion a pris le pas sur le factuel. Comme si toute la connaissance acquise, spécifiquement dans les domaines de la science, au fil des siècles, pouvait être balayée d’un simple clic. Comme si la seule vérité qui puisse exister aux yeux de certains est celle qui se forge dans la subjectivité de leurs croyances idéologiques.

Pour le citoyen, il n’est pas simple de faire la part des choses dans ce brouhaha informationnel. Que ça soit entre les médias classiques et les médias autoproclamés. Ou encore certains journalistes qui partagent leur opinion sur les réseaux sociaux, tout en la contredisant parfois dans les contenus des articles qu’ils rédigent sous leur casquette professionnelle. Ou encore ces quelques médecins, scientifiques, et autres « experts » pétris de certitudes, qui viennent nous dire ô combien leurs milliers de confrères sont incompétents à trouver cette « vérité » qu’ils ont pourtant découverte entre deux plateaux télé.

La situation infodémique qui résulte de ces différents éléments a créé un rapport de force asymétrique entre ceux qui diffusent ou relaient de fausses informations et ceux qui ont pour objectif de fournir une information fiable. La somme d’efforts nécessaire, autant à lutter contre la désinformation que celle à produire des informations suffisamment vulgarisées, sourcées et vérifiables, est devenue colossale et extrêmement chronophage, alors que mésinformer ou désinformer ne demande que très peu de temps et d’efforts.

Cette lutte contre la désinformation implique une présence et un engagement fort sur les réseaux sociaux et la mise en place de relais (humain) à même de contribuer à consolider ce front informationnel. Dès lors, quelle stratégie adopter et quels outils utiliser pour pouvoir mitiger l’impact de la mésinformation ou de la désinformation ?

Stéphane Koch

Liens utiles:

 

[Chronique écrite le 02.05.2021, pour Cybercoachs et Le NouvellisteOn observe au sein de certains mouvements coronasceptiques et antivax, non seulement une montée de l’antisémitisme, mais aussi de nombreux détournements des symboles de la Shoah ou nazi, tel celui de l’étoile jaune, avec un « pas vacciné » à la place de « Juif », ou encore le « Passe Nazitaire » utilisé par une enseignante genevoise sur les réseaux sociaux. En plus de l’oligophrénie dont il faut faire preuve pour mettre en abîme des mesures destinées à protéger la santé des citoyens avec celles dont le but était leur extermination, il y a aussi le déni implicite de toute l’horreur du vécu de millions de personnes de confession juive et de minorités, sous le régime nazi pendant la Seconde Guerre mondiale.

Dès lors, le détournement de cette image mériterait d’être sanctionné. J’ai donc interpellé la Commission fédérale contre le racisme (CFR) afin de savoir quels sont les moyens légaux à disposition.

Réponse de la CFR : « Il s’agit sans doute d’une comparaison inacceptable et d’une banalisation de l’holocauste, ce qui peut aussi être blessant pour des personnes touchées. Le problème avec la norme antiraciste, c’est que pour l’al. 4, deuxième partie de l’art. 261bis CP (nier, minimiser grossièrement ou chercher à justifier un génocide), la jurisprudence exige un mobile discriminatoire. Le TF dit que cela est intrinsèque à la justification, mais pas à la négation ou à la minimisation. Pour cela, une condamnation pour infraction de 261bis CP n’est pas très probable. ».

Cette difficulté à sanctionner pénalement un comportement inacceptable au niveau moral démontre bien que notre cadre législatif n’est pas adapté aux réalités de notre société. D’autant plus que l’on ne se gêne pas de critiquer les agissements des plateformes sociales en la matière.

Un pays est souverain et, à ce titre, les conditions d’utilisation d’un réseau social n’ont pas à se substituer aux lois de ce pays. Nous avons la responsabilité de fournir le cadre légal permettant de sanctionner ce que l’on aimerait que ces plateformes sanctionnent.

De plus, ne pas le faire revient aussi à dire qu’un comportement moralement inacceptable, est implicitement acceptable dans les faits, étant donné qu’il n’est pas punissable par la loi.

Stéphane Koch

[Chronique écrite le, 30 octobre 2019, pour Cybercoachs et Le Nouvelliste] À chaque nouveau drame, propos haineux, ou diffusion de fausse information, on a tendance à mettre en cause la technologie, respectivement les GAFAM (Facebook, Google et consorts). Dans le cas de la tuerie à Christchurch – qui avait été filmée en direct par son auteur – le premier signalement fait à Facebook est arrivé 29 minutes après le début de la vidéo, soit 12 minutes après la fin du direct. Ce drame a débouché sur « l’Appel de Christchurch / www.appeldechristchurch.com», qui pointait principalement sur la responsabilité des plateformes en ligne… Il est en effet important de plus responsabiliser ces plateformes, mais il faut aussi être conscient que ce que l’on voit sur le net, est le reflet de nos comportements dans le monde physique.

Les réseaux sociaux induisent et permettent une expression non filtrée et directe de l’émotionnel. Parfois prises en otage par une minorité d’individus, ces plateformes sont instrumentalisées pour donner corps à la rumeur, propager et amplifier de fausses informations et des théories du complot… transformant, de fait, ce fantastique « connecteur social » en un outil de propagation de la haine et du rejet de « la » différence, une sorte de caisse de résonance à toutes les formes de discrimination…

Mais, pour pouvoir exister, ces différentes formes de dérives ont besoin d’être nourries et relayées. Que l’on critique (commente) ou que l’on soutienne (like ou partage) ce que l’on voit s’afficher sur nos plateformes sociales, on y apporte une forme de contribution et d’amplification. Il est donc important de se questionner sur notre part de responsabilité et notre participation à ces mouvements de foule numériques, alors que l’on a aussi le moyen d’aider à les stopper d’un simple clic… Faire preuve de civisme à l’ère du numérique, n’a rien de virtuel… Souvent, on entend dire que les réseaux sociaux sont « inhumains »… mais ne devrait-on pas plutôt se poser la question sur la part d’humanité que l’on met dans l’utilisation de ces espaces numériques..?

S’éduquer aux médias et à l’information, développer un esprit critique, aiguiser son sens du discernement, savoir gérer ses émotions, sont des enjeux fondamentaux de la transformation numérique de notre société. Et à ce titre, l’école joue un rôle central et prépondérant.

Stéphane Koch

[Chronique écrite le 02.05.2021, pour Cybercoachs et Le Nouvelliste] Les réseaux sociaux ont permis à tout un chacun d’exprimer son opinion sur un sujet ou un autre. Non seulement par l’écriture, mais aussi par l’expression orale. C’est un bel exemple de la démocratisation de la prise de parole. Lors de la journée mondiale de la poésie, le poète britannique Georges Mpanga, disait même que « les réseaux sociaux ont aidé les artistes [les poètes] à partager leurs pensées à une échelle jamais vue auparavant ». Mais dans cette « libération de la parole », beaucoup ont perdu la conscience et le sens des mots, et surtout du poids des maux qu’ils induisent… Et ce qui se partage sur les plateformes sociales n’est pas que « poésie », loin s’en faut…

Fréquemment les gens se drapent dans la « liberté d’expression » et dans « l’humour » pour s’autoriser des mots blessants, stigmatiser le genre, l’orientation sexuelle, l’appartenance ethnique, la religion, l’apparence, ou propager la haine… Mais la justification de la liberté d’expression n’est pas un passe-droit. Cette liberté est en effet un droit humain fondamental, mais aucun droit humain ne peut être utilisé ou justifier une atteinte à la dignité humaine, comme le rappelle, entre autres, l’article 261bis du Code pénal suisse. Il en va de même pour l’humour. Il ne suffit pas dire que c’est de l’humour », pour que ça soit drôle ou que ça permette de dire n’importe quoi simplement parce que l’on a mis un #humour.

Pour l’humoriste Jean-Luc Barbezat, « le problème de l’humour sur les réseaux sociaux est que l’on s’invite chez les gens. Chez des personnes qui ne partagent pas nécessairement le même sens de l’humour que nous. Qui n’ont rien demandé et à qui on impose notre vison des choses. Alors que ceux qui viennent dans nos spectacles ont choisi de le faire en connaissance de cause ». Notre société se transforme numériquement, elle nous rapproche à un clic de « l’autre », tout en risquant de plus nous diviser si on ne fait pas attention. Dès lors, cette démarche empathique prend tout son sens.

Avant de s’exprimer, et particulier sur les réseaux sociaux, mais pas que… on devrait toujours avoir en tête cette citation de Paulo Coelho : « La plus terrible de toutes les armes est la parole qui ruine une vie sans laisser de traces de sang et dont les blessures ne cicatrisent jamais. »

Stéphane Koch