Gouvernance NTIC
La permission plutôt que le pardon
Édito — il y a 5 années
"Vous pouvez tromper quelques personnes tout le temps. Vous pouvez tromper tout le monde un certain temps. Mais vous ne pouvez tromper tout le monde tout le temps." Abraham Lincoln
La confiance et les nouvelles technologies nouent désormais une relation orthogonale.
L’une a abusé de l’autre pour nourrir son pouvoir au point de devenir hégémonique, selon l’imagination et le talent de quelques acteurs. Un talent malin qui interroge la terre entière : faut-il démanteler les GAFA ?
L’autre question inévitable est celle des limites à fixer à la réussite des prochaines licornes ? Chaque pays veut la réussite de ses start-up, tout en souhaitant limiter le pouvoir des autres pays. Alors, comment réguler ? Comment réglementer le succès des géants technologiques, quand on sait que des États en aident par ailleurs certains à accélérer, au bénéfice de leurs propres intérêts ?
Au milieu de cette frontière, il y a la question de la confiance : ce sentiment qui apaise et réduit la peur à peu de chose, sinon une inconnue. Comment surfer sur la toile en confiance ? Comment articuler nos vies autour de multiples applications ? Comment simplifier nos vies avec des plateformes ? À qui faire confiance ? Comment trier ? Comment nous protéger ? Comment garder le contrôle de notre empreinte digitale ? Comment prévenir et se protéger du hacking, sachant qu’il peut violer les frontières de nos vies et/ou de nos entreprises ? Comment partager nos opinions sans être exposés, menacés, harcelés ? Comment protéger nos démocraties ? Comment augmenter le travail et en même temps protéger l’emploi ? Comment faciliter la vie sans ruiner nos vies ?
L’innovation, l’usage et la mission sont les fondements de l’équation de confiance.
L’innovation
Quelle innovation pour quelle ambition ? Cette question interroge notre imagerie mentale ; elle challenge notre capacité à penser une idée et projeter son potentiel, tout son potentiel. Elle vient troubler notre conformisme stratégique pour tenter d’inventer demain et définir alors, en amont, en avance, les bons freins.
L’enjeu est d’encourager l’innovation et en même temps de la freiner, de la cadrer, de la contrôler pour éviter que de plus en plus d’entreprises soient plus puissantes que les États. C’est donc une lutte de pouvoir. La politique contre les technologies. L’économie traditionnelle contre l’économie disruptive.
L’ambition doit être étudier à la loupe, avec un esprit suffisamment libérer pour penser juste et loin. Mais, ce n’est pas suffisant. Il faut encore passer au crible l’éthique de la donnée. Comment sont protégées les données des utilisateurs ? Quelle est la solidité du verrouillage ? À quels risques sont exposés les utilisateurs ? Quelles sont les valeurs des plateformes ? Doit-on créer une agence de notation mondiale pour traiter spécialement la question des données et orienter ainsi les utilisateurs et les clients ?
Comment l’entreprise choisit-elle de grandir ? Qui sont ses partenaires ? Quelle est la nature de ses alliances ? Quel est l’objet de chaque partenariat ? Ces questions aideraient à définir la dimension morale du commerce de données et à identifier les entreprises aux intentions dangereuses. L’idée étant d’empêcher la captation abusive de données. L’affaire Cambridge Analytica témoigne du contrôle et du suivi nécessaire de partenaires manquant parfois de toute éthique, même la plus élémentaire.
Protéger les données ne peut pas être uniquement un discours d’intention. La gouvernance de la sécurité des données doit également poser la question des conflits d’intérêts. Comment réguler de manière efficace quand les pays n’ont pas nécessairement les mêmes valeurs de liberté et d’égalité en partage ? Comment trouver le bon compromis quand l’éthique épouse des cultures si différentes ?
L’usage
La question de l’usage est clairement centrale. À quoi servent nos données ? Comment faire confiance à un acteur qui n’explique pas ce qu’il prend, sans demander la permission ? Doit-on se satisfaire d’entreprises qui violent nos droits et se contentent simplement de demander notre pardon ? N’est-ce pas trop grave pour laisser libre cours à cette attitude ?
Ne pourrait-on pas imaginer une fiche de synthèse des données captées avec un consentement qui pourrait être négatif, positif, partiel ou total ? Pourrait-on imaginer que tout refus de données entraîne un droit de payer ?
La problématique de la confiance des utilisateurs est bien de comprendre ce qui est décoder ; il s’agit de comprendre comment le décryptage de nos habitudes est traduit en données. Il s’agit d’en comprendre l’usage.
Au commencement, l’agrégation des données, puis l’organisation de l’information et enfin le travail de segmentation. Comment fait-on parler nos données ? Quelles histoires racontent-elles et pendant combien de temps ? Quels sont les capteurs qui nous suivent en secret ? S’agit-il de nous rendre service ou de leur rendre service ?
Quels sont les outils dont chacun dispose pour confondre les acteurs envahissants ? Quel équilibre pourrait-on imaginer pour libérer la consommation, les usages, tout en organisant la défense des données privées ?
Et si les données privées étaient une maison immatérielle ? La propriété obéit à certaines règles ; pourrait-on transposer le même esprit de défense aux données ?
Comment bâtir un humanisme technologique universel ? Comment créer un consensus sur des droits technologiques ?
Des questions essentielles car derrière l’ambition faciale se cachent souvent d’autres desseins.
La mission
On voudrait bâtir des machines qui ressemblent à l’homme ; on entend que l’intelligence artificielle n’est précisément pas intelligente, mais on souhaite modéliser les émotions pour imaginer des humanoïdes qui seraient capables de singer nos propres réactions. Mais pour quoi faire ? Expérimenter, nous amuser, nous bluffer ? Dans quel but ?
S’agirait-il de manipuler nos pensées, nos opinions, nos réactions ? Quel est le pouvoir de ceux qui font cela ? L’élection de Donald Trump illustre ce que la manipulation des opinions peut faire à un pays. Cet exemple montre qu’une élection peut être volée, qu’un peuple peut ensuite se diviser et qu’une Nation peut se disloquer.
L’utilisation de fake news est un fléau qui peut paranoïser un pays. C’est une attaque en règle de la confiance qui brise tous les repères. Les tiers de confiance habituels sont fragilisés et le doute est partout, constant, envahissant. Toute rationalité est remise en cause, au profit surprenant de l’absurde, du complotisme, etc.
Ce problème met l’éducation au centre. Il oblige à imaginer un nouveau modèle d’éducation pour développer l’esprit critique dans un cadre rationnel. L’irrationnel peut conduire à l’innovation, mais une information est vraie ou fausse. Pas de place pour des conjectures. Les faits sont les faits. Comment faire cohabiter transparence, innovation et éducation, sans perdre son avantage concurrentiel ?
Cette histoire de data est à l’évidence un sujet fondamental. Comment résister à la prédictibilité de nos propres comportements pour échapper à l’enfermement des machines ? Comment rendre le codage moins facile ? Comment garder le contrôle de nos émotions ? Comment augmenter l’humain ? Comment mettre la machine au service de l’homme plutôt que l’inverse ?
Comment imaginer demain ? Comment garder le meilleur du travail, sans être renvoyé à des loisirs inaccessibles ? Comment avoir une vie meilleure ? Comment reprendre confiance ?
La guerre de l’éthique sera notre prochain défi. Les entreprises auront un rôle crucial, les utilisateurs seront des juges de paix et les États seront un phare dans la nuit.