La technologie évolue, et elle le fait aussi et surtout à une vitesse exponentielle. L'humanité serait ainsi très proche du moment où les technologies comme l'IA atteindront un point d'explosion tel que l'homme ne pourra suivre : c'est ce qui s'appelle la théorie du point de singularité technologique. Passé ce point de singularité technologique, on ne sait pas ce qui peut arriver.
Les plus optimistes parlent d'un âge d'or où même la mort pourrait être vaincue, d'autres au contraire y voient la disparition de l'humanité. Les premières estimations prévoyaient l'arrivée de ce point dans la deuxième moitié du XXIe siècle, mais il pourrait survenir bien plus tôt au vu de ce qui a été déjà fait pendant les 15 premières années de ce siècle.

Tous les commentaires (75)
Et à propos, certaines théories de la simulation (qui reviennent à dire que l'on vit dans une simulation) sont démontées ou très fortement limitées par le même constat élémentaire : rien ne porte à croire que les ordinateurs soient améliorables à l'infini, même à un rythme très lent. Scientifiquement il est extrêmement facile de prouver que ce ne sera pas le cas.
Cependant la simulation pourrait toujours avoir été créée dans un univers différent du notre où les "ordinateurs" ne fonctionnent pas de la même façon et ne sont pas soumis aux mêmes limites (ils sont peut être construits dans un nombre plus élevé de dimensions par exemple, mais fondamentalement tout porte à croire qu'ils seraient issus d'un univers plus "complexe" que la simulation (le nôtre))
L'intelligence artificielle n'égalera jamais la connerie naturelle...
Bientot Matrix :D *excité*
se servir de procédés existants pour en mettre un autre au point , ce n'est pas franchement une innovation. Le moteur à explosion existait déjà, mais, bien sûr, il était loin d'être aussi performant qu’aujourd’hui. Einstein était sur le point de mettre à plat la théorie de la relativité, la radio-activité commençait à sévir et Marconi émettait un "S" de l'Irlande vers les États Unis par radio, des avions s'élevaient à 30 cm du sol et on dessinait les plans du Titanic
Je vous conseille vivement la série « black mirrors » qui nous montre ce que pourrait être le futur plus ou moins proche, personnellement certains épisodes m’ont mis mal à l’aise.
Ton commentaire est tellement erroné que je me suis senti obligé de répondre .Tu répètes "bêtement" alors que t'as même pas réfléchi a cette idée, l'ignorant "bêtement".
"Couper le courant", une fois connectée a internet, bonne chance pour la débrancher.
Tu sembles pas comprendre ce qu'une singularité est. Une singularité est un phénomène (tel que les trous noirs) tellement extrême que toutes les lois établies ne s'appliquent plus.
Juste pour faire un argument a l'autorité, les plus grands scientifiques et ingénieurs de notre époque ne se demandent pas "si" ça va arriver, mais débattent de "quand" et "comment" ça va se passer.
De plus, on est pas en train de fabriquer une intelligence artificielle supérieure comme tu le laisse entendre, on fabrique un AI qui arrive a apprendre soi même, ce qui, après un certain point va exploser au niveau de son intelligence. Il nous dépassera tellement, que la différence entre un singe et nous sera plus mince qu'entre l'AI et les humains.
"On a le temps de voir venir" Comme les Amer Indiens ont eu le temps de voir venir les Européens, il s'en sont si bien sorti.
Mon commentaire est long est désorganisé, mais je voulais souligner a quel point ton commentaire est que croyance, se basant sur aucun fait.
L'intelligence Artificielle est une réalité, elle arrive bientôt, et dés qu'elle sera aussi intelligente qu'un humain, elle deviendra très très vite une intelligence bien supérieure a la notre.
Qu'est ce que un intelligence artificielle, infiniment plus intelligente va faire ? On peut pas savoir... on est pas assez intelligents...
"Passé ce point de singularité technologique, nul ne sait ce qui peut arriver".
De 1, c'est présumer de l'importance de l'homme. Ce n'est pas parce qu'on est la créature la plus intelligente sur terre qu'aucune intelligence supérieure n'existe.
De 2, c'est aussi imaginer que les deux courbes d'intelligence/savoir des humains et des machines sont corrélées. Or, la courbe de l'intelligence humaine est indépendante, et le point de singularité est juste le moment où la deuxième, dépassant la première, devient indépendante de celle-ci. Mais une inversion dans ces courbes ne signifie pas que l'intelligence humaine passe sous domination de l'intelligence artificielle. Deux types d'intelligence peuvent cohabiter.
Ne vous enflamez.pas, on est encore très très loin de mettre une veritable IA au point. Comme dit plus haut, pour l'instant ce ne sont que des statistiques très poussées. Les prouesses du deep learning restent impressionantes, la reconnaissance d'objets, le.jeu de go etc, mais dans son foncionnement il n'y a aucune intelligence, nada, peau de couille. La machine excecute des algorythmes, fait des correlations de données tellement complexe que l'on ne comprend plus bien ce qu'elle fait, mais il n'y a aucune autonomie dans ses décisions, aucune inteligence a proprement parler, aucune conscience, et on en est très très très loin...
Je ne suis pas si sûr. un chercheur à demander à une IA de lui créer le châssis d'un véhicule le plus léger, le plus résistant à tout type de contrainte. l'IA n'a eu aucun trajet à suivre ni de condition particulaire. Il se trouve qu'elle en est arriver par association d'idée à un prototype en 3D basé sur la forme d'un bassin humain ! Si pour toi ceci n'est pas de la création à l'état pur, je ne sais pas ce qu'est alors l'imagination. je n'ai pas affectuer de recherche pour retrouver l'article en question mais il ne doit pas être si dûre a retrouver :)
Juste pour exemple dans terminator, skynet ne peut être débranché car il peut infecter n'importe quel systeme. Tout débrancher me parait par conséquent impossible ne serait-ce que pour notre propre survie.
Skynet fonctionne alors de la manière d'un malware, et il "suffira" d'ôter tout appareil electrique qui serait raccordé au réseau.
Difficile et contraignant mais pas impossible.
Alors je ne dis pas que ce sera la fin de l'humanité dans 15 ans, mais tu as tendance, et tu n'es pas le seul dans ce cas, à te baser sur le fait qu'on connaît aujourd'hui la recette des ordinateurs, (et plus généralement des technologies) de demain pour soutenir tes propos.
Pour dire que la puissance des ordinateurs ne peut augmenter suffisamment, tu te bases dans tes deux commentaires sur le postulat que les ordinateurs garderont toujours l'architecture actuelle, avec des transistors comme on les connaît etc...
Il faut élargir un peu son esprit, tout peut changer du jour au lendemain, il suffit d'une idée et on se dirige vers une nouvelle forme d'ordinateurs avec une puissance potentielle sans comparaison avec aujourd'hui..
Quand Turing a fait sa première machine, les gens n'auraient même pas osé imaginer la puissance des machines qu'on a aujourd'hui...
Ça dépend de quelles technologies tu parles parce que si l'être humain n'avait pas réussi quelques avancées scientifiques et technologiques, on ne serait pas là à communiquer à travers nos tablettes/smartphones.
Exactement, il y en a qui regardent un peu trop de SF! Les robots n'auront jamais le dessus sur les hommes, ils sont une création de l'homme. Et personne n'échappera à la mort non plus!
Faux ... et je vais démonter toute cette belle argumentation en une seule phrase : jacquouille la fripouille s'est très bien débrouillé à notre époque !
Mouhahahaha :-)
Un remède à tous les cancers ?! Lol. Il ne faut pas oublier que les cancers sont en majorité le résultat de notre société industrielle (pollution de l'air, pesticides et additifs dans notre alimentation, etc.). Donc c'est une course de vitesse entre la technologie qui produit les cancers et la technologie qui les soigne. Au moyen-age s'est jouée la course entre les projectiles et les blindages. Finalement ce sont les projectiles qui ont gagné...
En parlant de film qui relate ce genre d'événement, le film Transcendance avec Johnny Deep est vraiment flippant...
Sans être spécialiste, il y a qd même pas mal de films qui abordent ce thème : terminator, matrix, blade runner...
Beaucoup parlent de la faible probabilité qu'aurait une IA de réussir à "évoluer" toute seule.
Pourtant l'être humain n'était à la base qu'un animal parmis tant d'autres ; les mutations génétiques et le contrôle de son environnement lui a permis d'évoluer, de se réparer, de se doper.
Certains réduisent l'IA à quelques algorithmes statistiques. C'est pourtant bien plus que ça ; c'est le fruit de nos connaissances dans bien des domaines (maths, psychologie, neurosciences, économie, informatique). Une IA peut désormais resoudre des problèmes complètements différents. Les avancées en 30 ans font froid dans le dos.
Il y a 30 ans de ça, pouvions-nous imaginer un monde aussi connecté qu'aujourd'hui ? Et dans 30 ans ?
Pourtant l'apport de l'IA est incontestable et donc inarrêtable ; mais est-ce raisonnable ?
L'humain aura t'il la même place dans un monde devenu totalement autonome ou serons-nous relégués à l'état de singe par notre propre création ?
Je pense que tu as loupé un épisode.
Ce que décrit l'un des champions de go qui a été battu par la machine, c'est qu'elle s'améliore d'une partie à l'autre.
Les exemples sont nombreux.
Oui, les programmes basés sur l'IA sont capables d'apprendre et de se perfectionner.
Rien à voir avec l'IA ďil y a quelques années, et les progrès sont TRÈS rapides.
Dans très peu d'années, les médecins seront dépassés par les machines.
Tous les médecins.
On peut penser qu'il en sera de même pour les musiciens, les informaticiens etc.