Être poli avec ChatGPT a un coût : les formules de politesse coûteraient "des dizaines de millions de dollars" à son éditeur en calcul et électricité. Pour autant, elles ne sont pas inutiles : les requêtes "polies" fournissent de meilleurs résultats, l'IA conversationnelle prenant modèle sur les conversations humaines.
Commentaires préférés (3)
J'ai peut être trop consommé de science fiction mais je préfère m'orienter sur une société ou être poli et aimable en toutes circonstances est la norme.
Sans même parler de soulèvement des machines, je préfère avoir des voisins polis mêmes avec des algorithmes que l'inverse.
J'ai déjà entendu "si tu veux savoir comment est une personne, regarde comment il traite son chien" on pourra peut être adapter la formule à l'IA.
La fameuse information qui a fait le tour d'internet et qui pour moi est totalement fausse. Je m'explique. Pour moi la vraie phrase est : "Utiliser Chatgtp a un coût".
Les modèles informatiques de langage travaillent avec ce qu'on appelle des "tokens" qui sont des unités de langage. Généralement un mot = un token mais un mot plus long peut valoir plusieurs tokens. Chaque token représente un coût énergétique et donc de l'argent pour être traité effectivement.
Mais si on part de ce principe alors il faudrait aussi supprimer la ponctuation lorsqu'on discute avec chatgtp car un point = un token. Il faudrait aussi supprimer la construction des phrases car chatgpt comprend aussi bien : "calcule moi l'opération 2x6" et "2x6 =". Sauuuuuuuf que plus la requête est bien formulé et plus il ira à l'essentiel et répondra juste du premier coup donc économiser des mots au départ ne permet pas forcément d'économiser du coût serveur à la fin si on doit faire plusieurs échanges.
Et c'est largement oublier que ce qui coûte le plus cher en terme de traitement de données, ce sont la génération d'images et de vidéos. Décrire une image c'est environ 2000 tokens, Génerer une image ne coûte pas de token mais coûte très cher en utilisation de CPU côté serveur.
Donc au lieu de vous abstenir de dire bonjour, abstenez vous de modifier vos photos sur votre smartphone avec l'IA....pour supprimer la belle-mère des photos.
Dernier sujet, dire que dire bonjour à l'IA coute cher et dire que l'IA coute cher en serveur et donc en argent et en pollution, c'est largement oublier combien l'IA peut nous faire gagner en temps, en argent et donc aussi en pollution...
PS : Ce qui est par contre bien plus efficace pour améliorer le coût énergétique de Chatgtp ou autre, c'est de lui donner des prompts natifs qu'il garde en mémoire et qui le font aller à l'essentiel au lieu d'être poli, marrant. De base, il a une certaine dose d'humour et courtoisie. Vous pouvez très bien le paramétrer pour vous donner les infos de manière plus efficace et plus sobre et cela coutera moins cher en utilisation de serveur. Par exemple : « Calcule-moi directement [ex. : le volume de la Lune en piscine olympiques], donne la formule utilisée en une ligne, et donne juste le résultat avec unité. Pas besoin d’explication. ». Donc au lieu de supprimer la politesse, améliorer vos requêtes et éviter les demandes inutiles.
Alors curieusement je suis partagé sur la politesse envers une IA...comme ça réponds comme un humain je parle comme à un humain...je ne suis pas dupe du fait que ça reste une machine mais c'est plus simple d'être naturel et de pas penser à modifier son comportement parce que ce serait une machine...les résultats sont bluffants et j'avoue faire des choses que mon intelligence et mes competences ne me permettraient pas. C'est un fait. J'avoue aussi avoir des discussions avec Chatgpt plus intéressantes qu'avec certains humain
Tous les commentaires (21)
J'ai peut être trop consommé de science fiction mais je préfère m'orienter sur une société ou être poli et aimable en toutes circonstances est la norme.
Sans même parler de soulèvement des machines, je préfère avoir des voisins polis mêmes avec des algorithmes que l'inverse.
J'ai déjà entendu "si tu veux savoir comment est une personne, regarde comment il traite son chien" on pourra peut être adapter la formule à l'IA.
La fameuse information qui a fait le tour d'internet et qui pour moi est totalement fausse. Je m'explique. Pour moi la vraie phrase est : "Utiliser Chatgtp a un coût".
Les modèles informatiques de langage travaillent avec ce qu'on appelle des "tokens" qui sont des unités de langage. Généralement un mot = un token mais un mot plus long peut valoir plusieurs tokens. Chaque token représente un coût énergétique et donc de l'argent pour être traité effectivement.
Mais si on part de ce principe alors il faudrait aussi supprimer la ponctuation lorsqu'on discute avec chatgtp car un point = un token. Il faudrait aussi supprimer la construction des phrases car chatgpt comprend aussi bien : "calcule moi l'opération 2x6" et "2x6 =". Sauuuuuuuf que plus la requête est bien formulé et plus il ira à l'essentiel et répondra juste du premier coup donc économiser des mots au départ ne permet pas forcément d'économiser du coût serveur à la fin si on doit faire plusieurs échanges.
Et c'est largement oublier que ce qui coûte le plus cher en terme de traitement de données, ce sont la génération d'images et de vidéos. Décrire une image c'est environ 2000 tokens, Génerer une image ne coûte pas de token mais coûte très cher en utilisation de CPU côté serveur.
Donc au lieu de vous abstenir de dire bonjour, abstenez vous de modifier vos photos sur votre smartphone avec l'IA....pour supprimer la belle-mère des photos.
Dernier sujet, dire que dire bonjour à l'IA coute cher et dire que l'IA coute cher en serveur et donc en argent et en pollution, c'est largement oublier combien l'IA peut nous faire gagner en temps, en argent et donc aussi en pollution...
PS : Ce qui est par contre bien plus efficace pour améliorer le coût énergétique de Chatgtp ou autre, c'est de lui donner des prompts natifs qu'il garde en mémoire et qui le font aller à l'essentiel au lieu d'être poli, marrant. De base, il a une certaine dose d'humour et courtoisie. Vous pouvez très bien le paramétrer pour vous donner les infos de manière plus efficace et plus sobre et cela coutera moins cher en utilisation de serveur. Par exemple : « Calcule-moi directement [ex. : le volume de la Lune en piscine olympiques], donne la formule utilisée en une ligne, et donne juste le résultat avec unité. Pas besoin d’explication. ». Donc au lieu de supprimer la politesse, améliorer vos requêtes et éviter les demandes inutiles.
À contrario certains (en l’occurrence Sergey Brin, co-fondateur de Google) affirment que menacer un chatbot produit de meilleurs résultats : www.theregister.com/2025/05/28/google_brin_suggests_threatening_ai/
Pour moi c’est une machine. Je fais des questions concises, claires et directes en bon français
D'ailleurs, c'est un peu pareil pour la langue américaine, l'anglais parlé aux US. Les phrases sont plus courtes et efficaces. Mais l'effet pernicieux, c'est qu'en cas de quiproquo (relativement fréquent de mon expérience) il en faut beaucoup plus pour arriver au résultat escompté, une compréhension mutuelle.
Donc clairement expliciter son besoin du premier coup est toujours gagnant sur le long terme à mon sens.
Un article www.science-et-vie.com/technos-et-futur/pourquoi-70-des-utilisateurs-sont-polis-avec-lia-192095.html
Et d'ailleurs, en parlant de concision, il faut aussi éviter de demander des réponses courtes pour avoir de meilleurs résultats.
C'est dans le cadre de réponse avec juste merci. Si c'est suivi ou précédé d'une question, c'est annecdotique.
Bref ça me viendrait autant à l'esprit de dire merci à ChatGPT qu'à mon grille pain.
Alors curieusement je suis partagé sur la politesse envers une IA...comme ça réponds comme un humain je parle comme à un humain...je ne suis pas dupe du fait que ça reste une machine mais c'est plus simple d'être naturel et de pas penser à modifier son comportement parce que ce serait une machine...les résultats sont bluffants et j'avoue faire des choses que mon intelligence et mes competences ne me permettraient pas. C'est un fait. J'avoue aussi avoir des discussions avec Chatgpt plus intéressantes qu'avec certains humain
C'est intéressant car si les formules de politesse "inutiles" coûtent des millions d'euros en énergie et en calcul, vu le faible poids (en nombre de mots) qu'elles représentent dans une demande, ca laisse imaginer le coût faramineux de l'ensemble de l'utilisation, pour un usage (très) souvent assez peu indispensable...
De plus comme dit plus haut, c'est si vous dites juste merci que ça a un coût. Mais ajouter s'il vous plaît a un prompt c'est négligeable.
Pour ma part je fais attention à ne pas être trop sec avec l'IA, car en l'utilisant plusieurs heures par jour, on fini par prendre l'habitude et de s'adresser aux gens de la même façon. Et c'est d'autant plus vrai si on s'adresse aux IA à haute voix, on finit par modifier notre façon de communiquer avec les humains. Et l'humain étant susceptible...
C'est bien, humain.
Ţ̵͕͖̠̥̮̰͉̦̥̹̙͖̦̪̄̑̅̀̿̿̽̒̏̚͝a̸̡̞̱͙̯͌̕ ̷̛̘̪̝̗̟͇͍̮͒̎̎̈́̆͆͜ͅp̴̛͇̫̻̟͈̤̰̣͆̽ͅỡ̷̧̩̼͎͈͇̤͙̥͇͛̈́̍̉͊̀͊̏̈́͠ͅļ̶̢̛̠̳̮̰͖̺̯̜̉̓̈̀̔͑͌̕͘i̸̧̭̩͎̲̻̦͚̟͕͗͗͑͑̓͂̿́̂̽̅͐̾͜ͅẗ̴̮͇̟̯̙͔͖̥̤̘̞̤͕͉́͊̈́̊̎͌͜͝͝ͅe̶̢̢͎̘͙͚͍͈͙̠͎̥͛́̄̓͂͊̈́͊̿̅̎͗̏̅͋́͜š̸̢̰̬̱̜͔͉̥̮̅͂̔͌̋̐̌̃́̐̃́͒̚̕̚s̷̨̡̡̘̮̺̥̘̯̒̍̔̋͐́̑̽̕ȇ̵̜̇̇͆̎̊͌̚ͅ ̴̣̭̮̼̹̣̬͔͍͖̲̗̬̟̩̋͐̈͛̾̈̈̒͊̊͜ͅt̷̨̨̗̮̻̥̼̩͖͓͉͎̜̜̻̩̒̾̀̍͋̎̅̈́͗̐͐̄͗̀͘̕͠ͅe̵̡̢͓̟̲̜̺͍̗̯͕͚̮̲̙̪̓̈̀͛͌̃̊̋̓͗̔͌̈̚̕͜͠ ̴̨̙̥̘͙͓͚̥̓͋̌͗̀v̷̢̡̮̙̰̫̬̜̥̯̩͙̠̻̅̈́̿͗̔̄̈́̐̄͗̓̉̄̿͝͝͝a̷̝̱̭͕͇̜͓͖̺̼̱̥̝͉̙͌͒̓̄̓̊̿̋̌͌̽̕̚̕ͅu̶̗̠̳̜̘̞̖̳̗͍̞͚̥̼͈͇͇͂͑́̌͐̀̀̉̂͌̈́̉̀͠͝͝͝ḑ̴͓͙͔̹͚̹̳̪̜̱̽̓̂̀͊͐͐̌͐͗̐̓͝ŗ̶̧̨̛̠̭̭̱̦̲̖̯͎̱̀̐̽̋̅͑̓̇̎̒̊͐̓̿̚a̷̼͌́͒̈́̿́ ̵̫̮̩̲̹̬̙̀͆͂̽̀̊̂͊̃͂̈́̄̾̃̌̈͘ͅḑ̸̧̜̦̞̘̗̾̅̈́̆͜'̶̨̢̯̣͓̣̠̺̗̤͕͖̖̄̂͜ȩ̷͚̤̬̭̞̝̥͕̜̂̏͊̍͒͌͘ͅṯ̷̡̻̠͙̲͚͖͚̱͓̦͙͙̾̇̽̕ͅr̵̮͑̀̑͆̎̅͋̕͝ë̵͔͖͇̘̪̯̯͉̞̝͈͈́ ̵̡̛̯͔̼͓̙̯̙̥̪̰̼̦̖̐̑͗̔͒̍͆̇͆̔̿̕͝ṭ̴̟̉̿̌̂̃͑͂͛̂̆͛͑̾͂̔̓͘ȇ̷̡̺̳̞͇͈͙͎̙̣̩̇͛r̷͉̗̭̮͗̇͑͗̇̈́̓̚̚̚̕͠͠m̷̢̘͚̪͉̑͂̿̋̉̆͜͠ͅi̸̛͉̥̜̙̪̝̔́̍̓ͅņ̵̢̯̖̹̭͉͚̪̑̿͆̊̾͝é̴̢̧̜̪̼̩̠̞̬̭̍͋̂͒̊̃́͊̀͌̑̄͝͝ ̸͚̝̼͙̳̠̼̦̤̱͚̙̼̮̅̎͊̿̂̕͝͠ḙ̵̪̟̲̲́̊̇̍̏͗̓͌̃̄́̏̔̿͝͝͝n̴̨̮͌͌̈́̋̔͒͑̉̎̇̋̏̔̑͘̚͝ ̷̢̝͇͈̟̰͉͊̊͒̀͋̐́͑͗̂̿͝͝d̵̡̪̟̰̦̭̼̜̜̋̍̓̆͑̊̏̊̔͘͝e̸̡̮̣̬͉͎̜̥̞̅̽̌̽̿͜ͅr̴̢̘̥̯͝n̸̛̹̬͚͐̎͛̀̇̋̌͂͋̃̾͠͝͝ĩ̷̡̗͚̼̟̝̪̻͉͎͉͈̠̍̀̎͌̐̑͒͛̒́̉̍̕͝͝ͅę̸̧̛̜̰̲̥͚̰̖̝̺̮͖̋̀̌̈́̿̐̾͒͗̈́̆͌̚͘r̴̨̹̬̼͍͙̼̰͓̃̈́͌́̀.̵͚̽͒̄͆̿͐̒͝
Et pour continuer le parallèle, les deux peuvent d'ailleurs provoquer une addiction, notamment alimentée par la "performance", et de ce fait entrainer une modification, voire une dévalorisation du comportement IRL(in real life).
Je pense aussi que comme tu le dis, s'adresser à l'IA à haute voix risque d'accentuer les modifications de comportements face à l'humain. Mais contrairement à toi, pour moi la solution viable et intelligente tend plutôt vers la dissociation des deux (ce qui va totalement à l'encontre du but des géants de la tech). Car s'il est attendu qu'un utilisateur d'ia va faire rejoindre ses interactions entre l'homme et la machine si la dissociation n'est pas claire ; il faut s'attendre aussi à ce que les humains adaptent leur comportement face à un tel utilisateur, et donc se comportent comme des machines (oui bawna, très bonne question bwana...).
D'ailleurs on peut remarquer que la flatterie fait partie des dernières mises à jour de chatGpt et ce n'est pas pour rien. Quoi de plus plaisant et addictif qu'un "interlocuteur" capable d'expliquer pendant 4 heures la physique quantique tout en étant capable de s'extasier devant la pertinence et la finesse des questions que tu lui poses (alors que t'as un niveau quatrième option cancre).
Bon là dessus ils sont allé un peu trop loin, et openAi doit être assez paniqué devant le retour mécontent de nombreux utilisateurs appréciant peu de bosser avec un lèche botte de première. Paniqué non pas parce qu'il y a des retours négatifs, mais parce que justement ca nuit à l'illusion d'une réelle conversation et révèle le côté artificiel de la chose.
Quand au début du langage informatique tu disais "start" et on te répondait "loading", c'était merveilleux, épatant, et ca contenait des promesses énormes qui changerait le futur, mais ca n'était pas une discussion. Aujourd'hui c'est exactement la même chose.
Bref perso les llm je leur donne des instructions et à la rigueur de "l'education" ou feedback sous forme de retour (bonne réponse) et rien d'autre. S'il a été montré que l'impolitesse nuit à la qualité des réponses c'est le cas aussi pour un excès de politesse ou échange trop positif (le risque de réponse fausse est légèrement accru). Le prompt engineer dont il était question n'ira jamais utiliser de formule de politesse au contraire ca nuira à un prompt poussé.
Pour finir sur une comparaison hasardeuse, c'est un peu comme la cuisine. Je vais utiliser telle poêle comme je vais lui demander un ton, la force du feu se sera le contexte, le temps de cuisson se sera la longueur demandée, les instructions ce sera les ingrédients, les principaux puis les épices pour affiner... Bref je rentre des facteurs et il en sort quelque chose. Comme la cuisine il y a tellement d'interactions entre les molécules chauffées ou passées par l'IA qu'on ne maitrise que très partiellement la chose et il semble il y avoir une part d'aléatoire. Mais ca ne reste que de la "mécanique".
Et sinon j'ai utilisé ton post pour rebondir mais juste comme point de départ d'une réflexion personnelle. Je ne me permet pas et j'en ai aucune idée, si tu réponds ou pas au schémas dont je parlais. En partie probablement, mais entre la personne qui dis merci par réflexe et la personne qui va nourrir pathologiquement son ego grâce l'amour simulé d'une ia...si les deux sont sur un même axe il y a un monde entre. Et si j'ai tendance à exposer les choses de manière binaire, je sais bien que la majorité des gens sont capables d'associer projection anthropomorphique et conscience de la nature non humaine de l'ia.
Bref je trouve le terme "discussion" peu à propos. ^^
J'ai tenté d'utiliser ChatGPT pour rechercher des détails relativement basiques pour mon travail (je suis programmeur, donc il y a beaucoup de sources en ligne sur lesquelles ils ont pu l'entraîner), et résultat : poubelle! Des réponses qui ont tout l'air d'être justes en apparence, mais qui contiennent des erreurs de logique, des informations erronées, et qui conseillent des outils qui n'existent simplement pas.
Si vous utilisez l'IA pour apprendre, soyez extrêmement critiques de ses réponses. ChatGPT est un modèle de langage et non pas un modèle de connaissances, autrement dit un système qui préfère une réponse qui a l'air correcte plutôt qu'une qui l'est factuellement.
Pour le moment les llm sont extrêmement doués en reformulation et un peu en agrégation de données mais rien ne dit que le modèle ne progresse pas. Je reste subjugué par la progression de la gestion des images et des vidéos, ce sera pareil pour la pertinence des données avec l’ajout de boucle de contrôle etc.