Les microprocesseurs sont les "cerveaux" de nos ordinateurs. Leur finesse de gravure est impressionnante : de l'ordre de 10 nm. Cette finesse est difficilement concevable pour l'être humain, car elle correspond à 1/10 000e du diamètre d'un cheveu ou seulement 50 fois le diamètre d'un atome de fer.

Tous les commentaires (59)
Soit je n'ai pas compris ton commentaire soit je n'ai pas compris comment font il pour le construire si il ne peuvent même pas le voir au microscope
A vrai dire, il me semble que Apple n'a rien "volé", ils ont racheté la technologie inventée par Xerox qui n'a pas dû réaliser la portée de ses innovations. Par contre Microsoft aurait réellement "volé" le savoir faire de Apple, en effet Bill Gates est allé à la rencontre des ingénieurs d'Apple (Gates etait un ami de Jobs) et a discuté avec eux pour obtenir des infos.
Je sais pas, je n'utilise ni Windows, ni mac OS.
De plus, je me fou complètement de savoir qui a inventé ceci ou cela, le plus important étant que ça a été inventé.
Même un atome unique renvoie la lumière. Un photon est infiniment plus petit qu'un atome.
En fait le problème, c'est que le grossissement d'un microscope optique modifie la longueur d'onde de la lumière que renvoie l'objet, et à un moment bascule dans l'infrarouge et devient donc invisible pour l'oeil humain (à partir d'un grossissement de 1500x environ.
Un microscope électronique n'est pas un microscope optique.
L'optique utilise des lentilles transparentes pour grossir l'image, l'électronique utilise un canon à électron (balayage électronique) qui frappe l'objet et qui analyse la réflexion du rayon pour déterminer la forme de ce qu'on observe.
La limite physique de la loi de Moore est atteinte depuis une dizaine d'années déjà. Les microprocesseurs n'augmentent plus en fréquence depuis un moment, on trouve difficilement mieux que 3Ghz dans le commerce alors qu'il existait des puces cadencées à 3ghz depuis le milieu des années 2000 car au delà ils deviennent instables (comme expliqué un peu en dessous de ton comm mais aussi à cause de la chaleur dégagée par ces derniers qui diminuent les capacités isolantes du circuit).
Les seules alternatives avec le silicium sont de multiplier les puces (double coeur, quad core, 8 et bientôt 16) où d'améliorer l'architecture (comme améliorer le plan d'une ville afin d'accélérer la circulation routière tout en diminuant la consommation électrique). La deuxième solution est celle qui équipe tous les ordinateurs récent, mais cela implique une grosse consomation d'électricité. Par exemple, ma tour 8 coeurs a une alimentation de 1250 watts, soit autant qu'un radiateur électrique et le système est refroidi par watercooling (refroidissement liquide... quel zinzin^^)
Il y a des recherches suivant des pistes telles que le quantique, la gravure faite sur un genre de diamant synthétique et les circuits optiques, mais c'est très cher à développer.
Valable pour les ordinateurs classiques (bureautique, navigation) qui sont de moins en moins énergivores, mais pour les machines servant à certaines tâches (jeux vidéos, animation) la demande en puissance de calcul augmente plus vite que le progrès technologique si l'on veut rester à la page et les machines en sont de plus en plus gourmandes (et chères^^)
Pour les cartes graphiques je suis d'accord, mais c'est parce qu'elles ne sont pas encore limitées par l technologie, mais on y viendra. Si ça continue comme c'est parti, elles seront autant gourmandes que tout le reste du PC, d'ailleurs maintenant une CG est quasiment un PC car elle intègre tous les systèmes (RAM, processeurs<--notez le "S", refroidisement actif) sauf les périphériques de base (écran, clavier, souris, son). Un ami un peu exigeant a d'ailleurs branché deux cartes graphiques en parallèles sur une alimentation séparée du reste de la machine, c'est pour dire où certains fous furieux de la performance sont prêts à aller pour être au top! ^^
A l'époque, c'était à l'homme d'apprendre la langue des machines (BASIC). Aujourd'hui c'est l'inverse, sauf pour les programmeurs bien entendu: et encore, aujourd'hui, l'essentiel de la programmation se fait aussi à l'aide de logiciels, sans ça il serait matériellement impossible d'entrer à la main des centaines de millions de lignes de code pour un jeu vidéo remplissant un blu-ray entier!
Exact, c'est le BIOS, le logiciel de base de tout ordinateur sans lequel il n'y aurait qu'un curseur clignotant à l'allumage et absolument rien d'autre en train de tourner dans la bécane à part les ventilos! ^^
Cela dit, ce programme a lui aussi besoin d'énergie pour ne pas s'effacer, et c'est pour cela qu'il y a une pile-bouton insérée dans la carte-mère qu'il faut éventuellement changer, cela dépend du temps où l'ordinateur reste débranché du secteur car il reste alimenté par des condensateurs (batteries) si il est allumé assez régulièrement pour les recharger et la pile est là pour les remplacer en cas de coupure très longue mais pas d'inquiétude, allumer la machine une fois par an suffit à ne pas user la pile, mais un ordi stocké des années dans un grenier risque le reset complet. Ca se répare, mais faut être calé.
C'est un fait, Apple est une société commerciale, côté innovation technologique, ils ne valent ps grand chose depuis le début des années 80.
Oui ils ont inventé le Iphone, le Imac, la Iwatch, le Ipod et le client Ipaye, Irepaye et Ijettesonbiduleparcequonpeutpaschangerlabatterie... . Ils ont pris des composants et des systèmes qui existaient déjà et en on fait un bidule à 800€ quoi. C'est de l'innovation entubatoiro-gadgettiste car ils ont réussi à persuader le monde entier que c'est absolument nécessaire dans la vie alors qu'un 3310 et un PC à la c... à 150€ font le même boulot mais en mieux (en moins pratiques certes) ! ^^
Et en plus faut payer les applications pour le faire tourner correctement parce qu'ils sont pas foutus de les faire eux même, ils ne font que les racheter pour en avoir l'exclusivité. Le meilleur exemple étant SIRI.
Disons que la souris c'est plus grand public, j'ai jamais pu me faire aux raccourcis, jme plante de bouton à chaque fois et j'ai un mal fou à apprendre les choses par coeur.
La souris, ca a été un de ces changements pour moi, mais j'admets que je préfère perdre du temps à chercher visuellement et cliquer que d'apprendre des fonctions dont je ne me servirai pas suffisamment pour m'en souvenir.
Chacun son truc, comme tu dis :)
Désolé mais il a raison quelquepart. le porno représente une part hallucinante de ce qui est traité par les descendants des calculateurs d'avant le Personnal Computer.
Au début des années 2000, cela représentait 40% des échanges de données dans le monde et si je mens que l'écran, quel qu'il soit, qui n'a jamais affiché du porno au moins une fois m'électrocute sur le champ jusqu'à ce que mort s'ensuive!
Nous ne sommes que des singes après tout! ^^
Il y a d'autres systèmes pour "voir" les atomes que le microscope classique.
Par exemple, avec un grand télescope, on peut voir des étoiles lointaines que l'on ne verrait pas à l'oeil nu (macroscopie) mais ces images doivent êtres traitées, analysées, recomposées via un travail suivant.
Pour le micro (nano plutôt), c'est pareil. On observe pas directement les atomes, on mesure leur type et leur position via des machines et on peut reconstituer une image et travailler dessus (je schématise hein, ces technologies sont bien plus compliquées que ça mais dans le principe ça colle)
En fait, ces machines nous servent à voir ce que nos sens ne peuvent percevoir, on voit les choses invisibles via reconstitution et fabrication d'images sensées représenter le plus fidèlement possible la réalité en combinant des données entre elles.
Par exemple, dans ta voiture, tu ne vois pas ce qui se passe dans le moteur, mais un compte-tour et un indicateur de température sur le tableau de bord te montreront virtuellement que tu le pousse dans le rouge et que tu risque de l’abîmer. Pas besoin d'avoir l'oeil dans le cylindre pour avoir des informations utilisables sur ce qui se passe dedans.
Gates et Jobs ont commencé ensemble l'aventure informatique moderne.
Jobs était un financier, Gates est un découvreur (qui ne découvre plus grand chose aujourd'hui j'admets^^).
Qui a volé qui? Un peu les deux en fait! ^^
Tu utilise quoi alors? Je serais curieux de connaitre le système utilisé pour écrire ton commentaire ;)
Bon, ton "je me fous complètement de comment ça fonctionne tant que ça fonctionne et que j'en ai pour mon fric" me plait beaucoup, j'adore ce genre de point de vue, c'est vrai quoi, on s'en tape de comment ça marche tant que ça marche après tout ^^(je suis sincère) mais dans ce cas ton commentaire n'est que violence gratuite trollesque. La moindre des choses en commentant un commentaire c'est de s'intéresser un minimum au sujet, quitte à dire des c...ries et se faire reprendre par des gens plus calés (ce que je vis souvent sur SCMB) et d'apprendre. Tu ne pense pas?
Allez sans rancune ;)
J'utilise Debian.
Sinon j'ai jamais dit que je me foutait de savoir comment ça marche, au contraire.
J'ai dit que je me foutait de savoir qui l'avait inventé.
Et je répondais à un commentaire qui me répondais.
Merci de ta réponse, c'est super explicite
Merci je me disais aussi...
Aujourd'hui on arrive à graver du 5nm .