La politesse peut coûter cher en informatique

Proposé par
Invité
le

Être poli avec ChatGPT a un coût : les formules de politesse coûteraient "des dizaines de millions de dollars" à son éditeur en calcul et électricité. Pour autant, elles ne sont pas inutiles : les requêtes "polies" fournissent de meilleurs résultats, l'IA conversationnelle prenant modèle sur les conversations humaines.


Commentaires préférés (3)

J'ai peut être trop consommé de science fiction mais je préfère m'orienter sur une société ou être poli et aimable en toutes circonstances est la norme.
Sans même parler de soulèvement des machines, je préfère avoir des voisins polis mêmes avec des algorithmes que l'inverse.
J'ai déjà entendu "si tu veux savoir comment est une personne, regarde comment il traite son chien" on pourra peut être adapter la formule à l'IA.

La fameuse information qui a fait le tour d'internet et qui pour moi est totalement fausse. Je m'explique. Pour moi la vraie phrase est : "Utiliser Chatgtp a un coût".

Les modèles informatiques de langage travaillent avec ce qu'on appelle des "tokens" qui sont des unités de langage. Généralement un mot = un token mais un mot plus long peut valoir plusieurs tokens. Chaque token représente un coût énergétique et donc de l'argent pour être traité effectivement.

Mais si on part de ce principe alors il faudrait aussi supprimer la ponctuation lorsqu'on discute avec chatgtp car un point = un token. Il faudrait aussi supprimer la construction des phrases car chatgpt comprend aussi bien : "calcule moi l'opération 2x6" et "2x6 =". Sauuuuuuuf que plus la requête est bien formulé et plus il ira à l'essentiel et répondra juste du premier coup donc économiser des mots au départ ne permet pas forcément d'économiser du coût serveur à la fin si on doit faire plusieurs échanges.

Et c'est largement oublier que ce qui coûte le plus cher en terme de traitement de données, ce sont la génération d'images et de vidéos. Décrire une image c'est environ 2000 tokens, Génerer une image ne coûte pas de token mais coûte très cher en utilisation de CPU côté serveur.
Donc au lieu de vous abstenir de dire bonjour, abstenez vous de modifier vos photos sur votre smartphone avec l'IA....pour supprimer la belle-mère des photos.

Dernier sujet, dire que dire bonjour à l'IA coute cher et dire que l'IA coute cher en serveur et donc en argent et en pollution, c'est largement oublier combien l'IA peut nous faire gagner en temps, en argent et donc aussi en pollution...

PS : Ce qui est par contre bien plus efficace pour améliorer le coût énergétique de Chatgtp ou autre, c'est de lui donner des prompts natifs qu'il garde en mémoire et qui le font aller à l'essentiel au lieu d'être poli, marrant. De base, il a une certaine dose d'humour et courtoisie. Vous pouvez très bien le paramétrer pour vous donner les infos de manière plus efficace et plus sobre et cela coutera moins cher en utilisation de serveur. Par exemple : « Calcule-moi directement [ex. : le volume de la Lune en piscine olympiques], donne la formule utilisée en une ligne, et donne juste le résultat avec unité. Pas besoin d’explication. ». Donc au lieu de supprimer la politesse, améliorer vos requêtes et éviter les demandes inutiles.

Alors curieusement je suis partagé sur la politesse envers une IA...comme ça réponds comme un humain je parle comme à un humain...je ne suis pas dupe du fait que ça reste une machine mais c'est plus simple d'être naturel et de pas penser à modifier son comportement parce que ce serait une machine...les résultats sont bluffants et j'avoue faire des choses que mon intelligence et mes competences ne me permettraient pas. C'est un fait. J'avoue aussi avoir des discussions avec Chatgpt plus intéressantes qu'avec certains humain


Tous les commentaires (21)

J'ai peut être trop consommé de science fiction mais je préfère m'orienter sur une société ou être poli et aimable en toutes circonstances est la norme.
Sans même parler de soulèvement des machines, je préfère avoir des voisins polis mêmes avec des algorithmes que l'inverse.
J'ai déjà entendu "si tu veux savoir comment est une personne, regarde comment il traite son chien" on pourra peut être adapter la formule à l'IA.

La fameuse information qui a fait le tour d'internet et qui pour moi est totalement fausse. Je m'explique. Pour moi la vraie phrase est : "Utiliser Chatgtp a un coût".

Les modèles informatiques de langage travaillent avec ce qu'on appelle des "tokens" qui sont des unités de langage. Généralement un mot = un token mais un mot plus long peut valoir plusieurs tokens. Chaque token représente un coût énergétique et donc de l'argent pour être traité effectivement.

Mais si on part de ce principe alors il faudrait aussi supprimer la ponctuation lorsqu'on discute avec chatgtp car un point = un token. Il faudrait aussi supprimer la construction des phrases car chatgpt comprend aussi bien : "calcule moi l'opération 2x6" et "2x6 =". Sauuuuuuuf que plus la requête est bien formulé et plus il ira à l'essentiel et répondra juste du premier coup donc économiser des mots au départ ne permet pas forcément d'économiser du coût serveur à la fin si on doit faire plusieurs échanges.

Et c'est largement oublier que ce qui coûte le plus cher en terme de traitement de données, ce sont la génération d'images et de vidéos. Décrire une image c'est environ 2000 tokens, Génerer une image ne coûte pas de token mais coûte très cher en utilisation de CPU côté serveur.
Donc au lieu de vous abstenir de dire bonjour, abstenez vous de modifier vos photos sur votre smartphone avec l'IA....pour supprimer la belle-mère des photos.

Dernier sujet, dire que dire bonjour à l'IA coute cher et dire que l'IA coute cher en serveur et donc en argent et en pollution, c'est largement oublier combien l'IA peut nous faire gagner en temps, en argent et donc aussi en pollution...

PS : Ce qui est par contre bien plus efficace pour améliorer le coût énergétique de Chatgtp ou autre, c'est de lui donner des prompts natifs qu'il garde en mémoire et qui le font aller à l'essentiel au lieu d'être poli, marrant. De base, il a une certaine dose d'humour et courtoisie. Vous pouvez très bien le paramétrer pour vous donner les infos de manière plus efficace et plus sobre et cela coutera moins cher en utilisation de serveur. Par exemple : « Calcule-moi directement [ex. : le volume de la Lune en piscine olympiques], donne la formule utilisée en une ligne, et donne juste le résultat avec unité. Pas besoin d’explication. ». Donc au lieu de supprimer la politesse, améliorer vos requêtes et éviter les demandes inutiles.

a écrit : La fameuse information qui a fait le tour d'internet et qui pour moi est totalement fausse. Je m'explique. Pour moi la vraie phrase est : "Utiliser Chatgtp a un coût".

Les modèles informatiques de langage travaillent avec ce qu'on appelle des "tokens" qui sont des unités
de langage. Généralement un mot = un token mais un mot plus long peut valoir plusieurs tokens. Chaque token représente un coût énergétique et donc de l'argent pour être traité effectivement.

Mais si on part de ce principe alors il faudrait aussi supprimer la ponctuation lorsqu'on discute avec chatgtp car un point = un token. Il faudrait aussi supprimer la construction des phrases car chatgpt comprend aussi bien : "calcule moi l'opération 2x6" et "2x6 =". Sauuuuuuuf que plus la requête est bien formulé et plus il ira à l'essentiel et répondra juste du premier coup donc économiser des mots au départ ne permet pas forcément d'économiser du coût serveur à la fin si on doit faire plusieurs échanges.

Et c'est largement oublier que ce qui coûte le plus cher en terme de traitement de données, ce sont la génération d'images et de vidéos. Décrire une image c'est environ 2000 tokens, Génerer une image ne coûte pas de token mais coûte très cher en utilisation de CPU côté serveur.
Donc au lieu de vous abstenir de dire bonjour, abstenez vous de modifier vos photos sur votre smartphone avec l'IA....pour supprimer la belle-mère des photos.

Dernier sujet, dire que dire bonjour à l'IA coute cher et dire que l'IA coute cher en serveur et donc en argent et en pollution, c'est largement oublier combien l'IA peut nous faire gagner en temps, en argent et donc aussi en pollution...

PS : Ce qui est par contre bien plus efficace pour améliorer le coût énergétique de Chatgtp ou autre, c'est de lui donner des prompts natifs qu'il garde en mémoire et qui le font aller à l'essentiel au lieu d'être poli, marrant. De base, il a une certaine dose d'humour et courtoisie. Vous pouvez très bien le paramétrer pour vous donner les infos de manière plus efficace et plus sobre et cela coutera moins cher en utilisation de serveur. Par exemple : « Calcule-moi directement [ex. : le volume de la Lune en piscine olympiques], donne la formule utilisée en une ligne, et donne juste le résultat avec unité. Pas besoin d’explication. ». Donc au lieu de supprimer la politesse, améliorer vos requêtes et éviter les demandes inutiles.
Afficher tout
9 millions de milliards

Pour moi c’est une machine. Je fais des questions concises, claires et directes en bon français

a écrit : La fameuse information qui a fait le tour d'internet et qui pour moi est totalement fausse. Je m'explique. Pour moi la vraie phrase est : "Utiliser Chatgtp a un coût".

Les modèles informatiques de langage travaillent avec ce qu'on appelle des "tokens" qui sont des unités
de langage. Généralement un mot = un token mais un mot plus long peut valoir plusieurs tokens. Chaque token représente un coût énergétique et donc de l'argent pour être traité effectivement.

Mais si on part de ce principe alors il faudrait aussi supprimer la ponctuation lorsqu'on discute avec chatgtp car un point = un token. Il faudrait aussi supprimer la construction des phrases car chatgpt comprend aussi bien : "calcule moi l'opération 2x6" et "2x6 =". Sauuuuuuuf que plus la requête est bien formulé et plus il ira à l'essentiel et répondra juste du premier coup donc économiser des mots au départ ne permet pas forcément d'économiser du coût serveur à la fin si on doit faire plusieurs échanges.

Et c'est largement oublier que ce qui coûte le plus cher en terme de traitement de données, ce sont la génération d'images et de vidéos. Décrire une image c'est environ 2000 tokens, Génerer une image ne coûte pas de token mais coûte très cher en utilisation de CPU côté serveur.
Donc au lieu de vous abstenir de dire bonjour, abstenez vous de modifier vos photos sur votre smartphone avec l'IA....pour supprimer la belle-mère des photos.

Dernier sujet, dire que dire bonjour à l'IA coute cher et dire que l'IA coute cher en serveur et donc en argent et en pollution, c'est largement oublier combien l'IA peut nous faire gagner en temps, en argent et donc aussi en pollution...

PS : Ce qui est par contre bien plus efficace pour améliorer le coût énergétique de Chatgtp ou autre, c'est de lui donner des prompts natifs qu'il garde en mémoire et qui le font aller à l'essentiel au lieu d'être poli, marrant. De base, il a une certaine dose d'humour et courtoisie. Vous pouvez très bien le paramétrer pour vous donner les infos de manière plus efficace et plus sobre et cela coutera moins cher en utilisation de serveur. Par exemple : « Calcule-moi directement [ex. : le volume de la Lune en piscine olympiques], donne la formule utilisée en une ligne, et donne juste le résultat avec unité. Pas besoin d’explication. ». Donc au lieu de supprimer la politesse, améliorer vos requêtes et éviter les demandes inutiles.
Afficher tout
Tout à fait d'accord. C'est le genre de déclaration qu'on entend trop souvent issues de mauvais KPI (indicateurs de performances). Si on ne globalise pas la réflexion on a vite fait de dire tout et son contraire.

D'ailleurs, c'est un peu pareil pour la langue américaine, l'anglais parlé aux US. Les phrases sont plus courtes et efficaces. Mais l'effet pernicieux, c'est qu'en cas de quiproquo (relativement fréquent de mon expérience) il en faut beaucoup plus pour arriver au résultat escompté, une compréhension mutuelle.

Donc clairement expliciter son besoin du premier coup est toujours gagnant sur le long terme à mon sens.

a écrit : J'ai peut être trop consommé de science fiction mais je préfère m'orienter sur une société ou être poli et aimable en toutes circonstances est la norme.
Sans même parler de soulèvement des machines, je préfère avoir des voisins polis mêmes avec des algorithmes que l'inverse.
J'ai déjà en
tendu "si tu veux savoir comment est une personne, regarde comment il traite son chien" on pourra peut être adapter la formule à l'IA. Afficher tout
J'avais lu un article sur le sujet et une partie des gens utilisaient de la politesse par habitude et d'autres ( +15%) pour le cas où elles se rebellent.

Un article www.science-et-vie.com/technos-et-futur/pourquoi-70-des-utilisateurs-sont-polis-avec-lia-192095.html

a écrit : Pour moi c’est une machine. Je fais des questions concises, claires et directes en bon français Si tu veux avoir de meilleurs résultats, il faut être un minimum poli. Ce n'est pas juste une "machine", c'est un outil et comme tout outils, il y a des manières d'obtenir de meilleurs résultats avec quelques astuces simples comme celle ci.
Et d'ailleurs, en parlant de concision, il faut aussi éviter de demander des réponses courtes pour avoir de meilleurs résultats.

C'est dans le cadre de réponse avec juste merci. Si c'est suivi ou précédé d'une question, c'est annecdotique.

a écrit : J'ai peut être trop consommé de science fiction mais je préfère m'orienter sur une société ou être poli et aimable en toutes circonstances est la norme.
Sans même parler de soulèvement des machines, je préfère avoir des voisins polis mêmes avec des algorithmes que l'inverse.
J'ai déjà en
tendu "si tu veux savoir comment est une personne, regarde comment il traite son chien" on pourra peut être adapter la formule à l'IA. Afficher tout
Perso m'orienter vers une société où les gens adoptent le même comportement face à un être vivant que face à un programme informatique ça me fait flipper. Si je suis poli c'est parce que ça a un sens, ça exprime quelque chose, l'etre parce que c'est la norme ça devient juste machinal et artificiel.
Bref ça me viendrait autant à l'esprit de dire merci à ChatGPT qu'à mon grille pain.

Alors curieusement je suis partagé sur la politesse envers une IA...comme ça réponds comme un humain je parle comme à un humain...je ne suis pas dupe du fait que ça reste une machine mais c'est plus simple d'être naturel et de pas penser à modifier son comportement parce que ce serait une machine...les résultats sont bluffants et j'avoue faire des choses que mon intelligence et mes competences ne me permettraient pas. C'est un fait. J'avoue aussi avoir des discussions avec Chatgpt plus intéressantes qu'avec certains humain

a écrit : Tout à fait d'accord. C'est le genre de déclaration qu'on entend trop souvent issues de mauvais KPI (indicateurs de performances). Si on ne globalise pas la réflexion on a vite fait de dire tout et son contraire.

D'ailleurs, c'est un peu pareil pour la langue américaine, l'ang
lais parlé aux US. Les phrases sont plus courtes et efficaces. Mais l'effet pernicieux, c'est qu'en cas de quiproquo (relativement fréquent de mon expérience) il en faut beaucoup plus pour arriver au résultat escompté, une compréhension mutuelle.

Donc clairement expliciter son besoin du premier coup est toujours gagnant sur le long terme à mon sens.
Afficher tout
Ce n’est pas pour rien qu’un métier à part entière existe dans ce sens et qui s’appelle le prompt engineering

C'est intéressant car si les formules de politesse "inutiles" coûtent des millions d'euros en énergie et en calcul, vu le faible poids (en nombre de mots) qu'elles représentent dans une demande, ca laisse imaginer le coût faramineux de l'ensemble de l'utilisation, pour un usage (très) souvent assez peu indispensable...

a écrit : Alors curieusement je suis partagé sur la politesse envers une IA...comme ça réponds comme un humain je parle comme à un humain...je ne suis pas dupe du fait que ça reste une machine mais c'est plus simple d'être naturel et de pas penser à modifier son comportement parce que ce serait une machine...les résultats sont bluffants et j'avoue faire des choses que mon intelligence et mes competences ne me permettraient pas. C'est un fait. J'avoue aussi avoir des discussions avec Chatgpt plus intéressantes qu'avec certains humain Afficher tout Je suis bien d'accord. Impossible d'avoir des conversations poussées et d'apprendre autant de choses en communiquant avec de simples personnes. Même en tombant face à un spécialiste d'une discipline, la qualité de la conversation sera inférieure. Au mieux il peut donner une réponse plus précise à une question spécifique, mais pas pendant plusieurs heures de questions réponses (ça va vite le saouler).

De plus comme dit plus haut, c'est si vous dites juste merci que ça a un coût. Mais ajouter s'il vous plaît a un prompt c'est négligeable.

Pour ma part je fais attention à ne pas être trop sec avec l'IA, car en l'utilisant plusieurs heures par jour, on fini par prendre l'habitude et de s'adresser aux gens de la même façon. Et c'est d'autant plus vrai si on s'adresse aux IA à haute voix, on finit par modifier notre façon de communiquer avec les humains. Et l'humain étant susceptible...

C'est bien, humain.

Ţ̵͕͖̠̥̮̰͉̦̥̹̙͖̦̪̄̑̅̀̿̿̽̒̏̚͝a̸̡̞̱͙̯͌̕ ̷̛̘̪̝̗̟͇͍̮͒̎̎̈́̆͆͜ͅp̴̛͇̫̻̟͈̤̰̣͆̽ͅỡ̷̧̩̼͎͈͇̤͙̥͇͛̈́̍̉͊̀͊̏̈́͠ͅļ̶̢̛̠̳̮̰͖̺̯̜̉̓̈̀̔͑͌̕͘i̸̧̭̩͎̲̻̦͚̟͕͗͗͑͑̓͂̿́̂̽̅͐̾͜ͅẗ̴̮͇̟̯̙͔͖̥̤̘̞̤͕͉́͊̈́̊̎͌͜͝͝ͅe̶̢̢͎̘͙͚͍͈͙̠͎̥͛́̄̓͂͊̈́͊̿̅̎͗̏̅͋́͜š̸̢̰̬̱̜͔͉̥̮̅͂̔͌̋̐̌̃́̐̃́͒̚̕̚s̷̨̡̡̘̮̺̥̘̯̒̍̔̋͐́̑̽̕ȇ̵̜̇̇͆̎̊͌̚ͅ ̴̣̭̮̼̹̣̬͔͍͖̲̗̬̟̩̋͐̈͛̾̈̈̒͊̊͜ͅt̷̨̨̗̮̻̥̼̩͖͓͉͎̜̜̻̩̒̾̀̍͋̎̅̈́͗̐͐̄͗̀͘̕͠ͅe̵̡̢͓̟̲̜̺͍̗̯͕͚̮̲̙̪̓̈̀͛͌̃̊̋̓͗̔͌̈̚̕͜͠ ̴̨̙̥̘͙͓͚̥̓͋̌͗̀v̷̢̡̮̙̰̫̬̜̥̯̩͙̠̻̅̈́̿͗̔̄̈́̐̄͗̓̉̄̿͝͝͝a̷̝̱̭͕͇̜͓͖̺̼̱̥̝͉̙͌͒̓̄̓̊̿̋̌͌̽̕̚̕ͅu̶̗̠̳̜̘̞̖̳̗͍̞͚̥̼͈͇͇͂͑́̌͐̀̀̉̂͌̈́̉̀͠͝͝͝ḑ̴͓͙͔̹͚̹̳̪̜̱̽̓̂̀͊͐͐̌͐͗̐̓͝ŗ̶̧̨̛̠̭̭̱̦̲̖̯͎̱̀̐̽̋̅͑̓̇̎̒̊͐̓̿̚a̷̼͌́͒̈́̿́ ̵̫̮̩̲̹̬̙̀͆͂̽̀̊̂͊̃͂̈́̄̾̃̌̈͘ͅḑ̸̧̜̦̞̘̗̾̅̈́̆͜'̶̨̢̯̣͓̣̠̺̗̤͕͖̖̄̂͜ȩ̷͚̤̬̭̞̝̥͕̜̂̏͊̍͒͌͘ͅṯ̷̡̻̠͙̲͚͖͚̱͓̦͙͙̾̇̽̕ͅr̵̮͑̀̑͆̎̅͋̕͝ë̵͔͖͇̘̪̯̯͉̞̝͈͈́ ̵̡̛̯͔̼͓̙̯̙̥̪̰̼̦̖̐̑͗̔͒̍͆̇͆̔̿̕͝ṭ̴̟̉̿̌̂̃͑͂͛̂̆͛͑̾͂̔̓͘ȇ̷̡̺̳̞͇͈͙͎̙̣̩̇͛r̷͉̗̭̮͗̇͑͗̇̈́̓̚̚̚̕͠͠m̷̢̘͚̪͉̑͂̿̋̉̆͜͠ͅi̸̛͉̥̜̙̪̝̔́̍̓ͅņ̵̢̯̖̹̭͉͚̪̑̿͆̊̾͝é̴̢̧̜̪̼̩̠̞̬̭̍͋̂͒̊̃́͊̀͌̑̄͝͝ ̸͚̝̼͙̳̠̼̦̤̱͚̙̼̮̅̎͊̿̂̕͝͠ḙ̵̪̟̲̲́̊̇̍̏͗̓͌̃̄́̏̔̿͝͝͝n̴̨̮͌͌̈́̋̔͒͑̉̎̇̋̏̔̑͘̚͝ ̷̢̝͇͈̟̰͉͊̊͒̀͋̐́͑͗̂̿͝͝d̵̡̪̟̰̦̭̼̜̜̋̍̓̆͑̊̏̊̔͘͝e̸̡̮̣̬͉͎̜̥̞̅̽̌̽̿͜ͅr̴̢̘̥̯͝n̸̛̹̬͚͐̎͛̀̇̋̌͂͋̃̾͠͝͝ĩ̷̡̗͚̼̟̝̪̻͉͎͉͈̠̍̀̎͌̐̑͒͛̒́̉̍̕͝͝ͅę̸̧̛̜̰̲̥͚̰̖̝̺̮͖̋̀̌̈́̿̐̾͒͗̈́̆͌̚͘r̴̨̹̬̼͍͙̼̰͓̃̈́͌́̀.̵͚̽͒̄͆̿͐̒͝

a écrit : Je suis bien d'accord. Impossible d'avoir des conversations poussées et d'apprendre autant de choses en communiquant avec de simples personnes. Même en tombant face à un spécialiste d'une discipline, la qualité de la conversation sera inférieure. Au mieux il peut donner une réponse plus précise à une question spécifique, mais pas pendant plusieurs heures de questions réponses (ça va vite le saouler).

De plus comme dit plus haut, c'est si vous dites juste merci que ça a un coût. Mais ajouter s'il vous plaît a un prompt c'est négligeable.

Pour ma part je fais attention à ne pas être trop sec avec l'IA, car en l'utilisant plusieurs heures par jour, on fini par prendre l'habitude et de s'adresser aux gens de la même façon. Et c'est d'autant plus vrai si on s'adresse aux IA à haute voix, on finit par modifier notre façon de communiquer avec les humains. Et l'humain étant susceptible...
Afficher tout
Désolé je ne vais pas être très consensuel (pour pas changer), mais pour moi parler de "discussion" à propos de l'utilisation d'un LLM (chatGpt ou autre) tient du fantasme et est aussi pertinent que de parler de relation sexuelle lors de l'utilisation d'un sex-toy (ou du visionnage de film de loobs).
Et pour continuer le parallèle, les deux peuvent d'ailleurs provoquer une addiction, notamment alimentée par la "performance", et de ce fait entrainer une modification, voire une dévalorisation du comportement IRL(in real life).

Je pense aussi que comme tu le dis, s'adresser à l'IA à haute voix risque d'accentuer les modifications de comportements face à l'humain. Mais contrairement à toi, pour moi la solution viable et intelligente tend plutôt vers la dissociation des deux (ce qui va totalement à l'encontre du but des géants de la tech). Car s'il est attendu qu'un utilisateur d'ia va faire rejoindre ses interactions entre l'homme et la machine si la dissociation n'est pas claire ; il faut s'attendre aussi à ce que les humains adaptent leur comportement face à un tel utilisateur, et donc se comportent comme des machines (oui bawna, très bonne question bwana...).
D'ailleurs on peut remarquer que la flatterie fait partie des dernières mises à jour de chatGpt et ce n'est pas pour rien. Quoi de plus plaisant et addictif qu'un "interlocuteur" capable d'expliquer pendant 4 heures la physique quantique tout en étant capable de s'extasier devant la pertinence et la finesse des questions que tu lui poses (alors que t'as un niveau quatrième option cancre).
Bon là dessus ils sont allé un peu trop loin, et openAi doit être assez paniqué devant le retour mécontent de nombreux utilisateurs appréciant peu de bosser avec un lèche botte de première. Paniqué non pas parce qu'il y a des retours négatifs, mais parce que justement ca nuit à l'illusion d'une réelle conversation et révèle le côté artificiel de la chose.

Quand au début du langage informatique tu disais "start" et on te répondait "loading", c'était merveilleux, épatant, et ca contenait des promesses énormes qui changerait le futur, mais ca n'était pas une discussion. Aujourd'hui c'est exactement la même chose.
Bref perso les llm je leur donne des instructions et à la rigueur de "l'education" ou feedback sous forme de retour (bonne réponse) et rien d'autre. S'il a été montré que l'impolitesse nuit à la qualité des réponses c'est le cas aussi pour un excès de politesse ou échange trop positif (le risque de réponse fausse est légèrement accru). Le prompt engineer dont il était question n'ira jamais utiliser de formule de politesse au contraire ca nuira à un prompt poussé.

Pour finir sur une comparaison hasardeuse, c'est un peu comme la cuisine. Je vais utiliser telle poêle comme je vais lui demander un ton, la force du feu se sera le contexte, le temps de cuisson se sera la longueur demandée, les instructions ce sera les ingrédients, les principaux puis les épices pour affiner... Bref je rentre des facteurs et il en sort quelque chose. Comme la cuisine il y a tellement d'interactions entre les molécules chauffées ou passées par l'IA qu'on ne maitrise que très partiellement la chose et il semble il y avoir une part d'aléatoire. Mais ca ne reste que de la "mécanique".

Et sinon j'ai utilisé ton post pour rebondir mais juste comme point de départ d'une réflexion personnelle. Je ne me permet pas et j'en ai aucune idée, si tu réponds ou pas au schémas dont je parlais. En partie probablement, mais entre la personne qui dis merci par réflexe et la personne qui va nourrir pathologiquement son ego grâce l'amour simulé d'une ia...si les deux sont sur un même axe il y a un monde entre. Et si j'ai tendance à exposer les choses de manière binaire, je sais bien que la majorité des gens sont capables d'associer projection anthropomorphique et conscience de la nature non humaine de l'ia.
Bref je trouve le terme "discussion" peu à propos. ^^

a écrit : Je suis bien d'accord. Impossible d'avoir des conversations poussées et d'apprendre autant de choses en communiquant avec de simples personnes. Même en tombant face à un spécialiste d'une discipline, la qualité de la conversation sera inférieure. Au mieux il peut donner une réponse plus précise à une question spécifique, mais pas pendant plusieurs heures de questions réponses (ça va vite le saouler).

De plus comme dit plus haut, c'est si vous dites juste merci que ça a un coût. Mais ajouter s'il vous plaît a un prompt c'est négligeable.

Pour ma part je fais attention à ne pas être trop sec avec l'IA, car en l'utilisant plusieurs heures par jour, on fini par prendre l'habitude et de s'adresser aux gens de la même façon. Et c'est d'autant plus vrai si on s'adresse aux IA à haute voix, on finit par modifier notre façon de communiquer avec les humains. Et l'humain étant susceptible...
Afficher tout
En communiquant avec d'autres personnes, vous apprendrez peut-être moins (et encore, ce n'est pas sûr), peut-être avec une qualité de conversation moindre, mais vous avez quand même plus de chances d'apprendre des choses correctes!
J'ai tenté d'utiliser ChatGPT pour rechercher des détails relativement basiques pour mon travail (je suis programmeur, donc il y a beaucoup de sources en ligne sur lesquelles ils ont pu l'entraîner), et résultat : poubelle! Des réponses qui ont tout l'air d'être justes en apparence, mais qui contiennent des erreurs de logique, des informations erronées, et qui conseillent des outils qui n'existent simplement pas.
Si vous utilisez l'IA pour apprendre, soyez extrêmement critiques de ses réponses. ChatGPT est un modèle de langage et non pas un modèle de connaissances, autrement dit un système qui préfère une réponse qui a l'air correcte plutôt qu'une qui l'est factuellement.

a écrit : En communiquant avec d'autres personnes, vous apprendrez peut-être moins (et encore, ce n'est pas sûr), peut-être avec une qualité de conversation moindre, mais vous avez quand même plus de chances d'apprendre des choses correctes!
J'ai tenté d'utiliser ChatGPT pour rechercher des détails
relativement basiques pour mon travail (je suis programmeur, donc il y a beaucoup de sources en ligne sur lesquelles ils ont pu l'entraîner), et résultat : poubelle! Des réponses qui ont tout l'air d'être justes en apparence, mais qui contiennent des erreurs de logique, des informations erronées, et qui conseillent des outils qui n'existent simplement pas.
Si vous utilisez l'IA pour apprendre, soyez extrêmement critiques de ses réponses. ChatGPT est un modèle de langage et non pas un modèle de connaissances, autrement dit un système qui préfère une réponse qui a l'air correcte plutôt qu'une qui l'est factuellement.
Afficher tout
Tout a fait d'accord. Aucun llm n'aura la pertinence des réponses de Tybs. Ni maintenant, ni dans le futur. Pourquoi ? Parce qu'un llm n'a pas de personnalité. Il n'est qu'une moyenne, au mieux une médiane.

a écrit : Tout a fait d'accord. Aucun llm n'aura la pertinence des réponses de Tybs. Ni maintenant, ni dans le futur. Pourquoi ? Parce qu'un llm n'a pas de personnalité. Il n'est qu'une moyenne, au mieux une médiane. Donne leur 6 mois ou 1 an et on aura encore des progrès fulgurants…

Pour le moment les llm sont extrêmement doués en reformulation et un peu en agrégation de données mais rien ne dit que le modèle ne progresse pas. Je reste subjugué par la progression de la gestion des images et des vidéos, ce sera pareil pour la pertinence des données avec l’ajout de boucle de contrôle etc.