Adopter le changement de mentalité en matière d'IA : De Google à ChatGPT

Exploration de l'évolution de l'accès à l'information, de la prise de décision et de l'acceptation par la société de réponses faisant davantage autorité

4 octobre 2023

Que nous le voulions ou non, la pensée passera par l'IA, comme c'est le cas aujourd'hui avec Google. Nous demanderons à des modèles de langage comment gérer un cœur brisé, comme nous avons commencé à le faire avec le géant de la recherche. Générer des recettes. Gérer le deuil. Diagnostiquer une maladie. Nous leur demanderons également d'être nos assistants. Elle écrira nos lettres de motivation, nos courriels de démission, nos phrases de drague, nos vœux de mariage et nos éloges funèbres. Tout ce que nous avons déjà demandé à Google.

La différence est que l'IA donne des réponses qui font autorité. Oui, vous pouvez discuter avec elle, mais ce n'est probablement pas ce que la plupart des gens feront. Comme pour les recherches, la plupart des gens n'ont pas tendance à vérifier deux, trois et quatre fois les résultats, et encore moins à regarder au-delà des trois premiers. Il s'ensuit que l'IA n'entraînera pas l'effondrement de la pensée comme beaucoup le proclament. Au contraire, les problèmes qu'elle invente seront nuancés et nouveaux. Comme Google.

La désinformation se propage parce que l'information est devenue si facilement accessible. Les gens peuvent découvrir en quelques secondes comment jouer une chanson au piano, mais ils peuvent aussi trouver des informations sur le fait que la terre est plate. Il est difficile d'affirmer avec certitude que Google est mauvais à cause de la désinformation. L'entreprise devrait faire quelque chose à ce sujet, mais la technologie présente de nombreux avantages, en particulier avant que les blogs optimisés pour la recherche ne brouillent les résultats avec des déchets de mauvaise qualité. Nous devons attendre et voir quelles seront les zones grises avec ChatGPT.

Qu'est-ce qui met mal à l'aise dans l'IA ? Pourquoi ce sentiment est-il différent ? Pour moi, c'est lié à la trajectoire que nous suivons. Nous sommes en train de nous installer dans une culture obsédée par la production plutôt que par le processus.

Google nous a fourni des résultats à une vitesse fulgurante mais, comparés aux réponses uniques de ChatGPT qui font autorité, les résultats de recherche nous permettent de nous arrêter et de choisir consciemment le lien. Mais nous ne l'avons pas fait. Au lieu de cela, nous avons cliqué sur le premier lien... peut-être sur le deuxième ou le troisième. Nous l'avons tellement fait que Google colle désormais les faits du premier lien directement sur la page de résultats.

Pour des choses comme la rédaction d'un courriel, la recherche en ligne nous a fourni des modèles que nous pouvions utiliser comme source d'inspiration - contrairement à GPT qui nous l'expliquait. Mais là encore, nous avons copié/collé le modèle et parfois même oublié de changer le Cher [NOM DU CHEF]. Nous avons tous pris l'habitude de cliquer et de prendre la première chose que nous pouvions faire le plus rapidement possible.

Il n'y a pas de personne ou d'entité à blâmer en particulier. La société évolue rapidement et sans relâche. Les entreprises ne disposent d'aucun mécanisme de contrôle et d'équilibre auquel elles ne peuvent se soustraire par leurs propres moyens. Les gens ne sont pas tous équipés de la même manière pour filtrer l'information. Avec l'IA, ces tendances ne font que s'accentuer. À mesure que les machines semblent plus intelligentes, ce qui est exigé de nous pour obtenir un résultat suffisant diminue considérablement. Nous donnons la priorité à la production plutôt qu'au processus, ce qui entraînera de nombreuses souffrances mentales si nous ne le faisons pas intentionnellement.