Les microprocesseurs sont les "cerveaux" de nos ordinateurs. Leur finesse de gravure est impressionnante : de l'ordre de 10 nm. Cette finesse est difficilement concevable pour l'être humain, car elle correspond à 1/10 000e du diamètre d'un cheveu ou seulement 50 fois le diamètre d'un atome de fer.

Tous les commentaires (59)
Il est difficile de se représenter la vitesse de calcul des processeurs actuels. Pour donner un ordre d'idée, un processeur exécute des instructions simples comme des additions, soustraction, opération en mémoire...
Si on écrivait une instruction par ligne sur une feuille grand carreaux, il lirait cette feuille à une vitesse de 24 000 km/seconde, soit plus de 4 fois la distance Paris/New York chaque seconde.
Pour relativiser cela, il faut savoir que les processeurs aujourd'hui passent une grande partie de leur temps à attendre la mémoire nettement plus lente.
Et la mémoire c'est comment ? C'est comme le papier des orgues de barbarie mais en vachement microcospique ? Et comment ça lit, c'est un laser ?
N'empêche quand on y pense c'est épatant, un tel niveau technologique pour au final passer tant de temps à regarder des filles toutes nues.
Effectivement, une gravure plus fine dégage moins de chaleur et donc est capable de tourner à des fréquences plus élevés, d'où le gain de puissance et la baisse de consommation. Toutefois comme c'est dit dans les commentaires, on arrive à la limite qui si dépassée, les propriétés des atomes vont avoir un impact sur le fonctionnement du machin
La mémoire RAM est un circuit gravé dans le silicium comme le processeur.
Des courants électriques sont "enfermés" et entrenus pour faire des 1 ou des 0 en l'absence de courant.
Dès que l'alimentation est coupée, toutes les données s'effacent (cas spécifique de la RAM).
Apple n'a jamais rien inventé en matériel, mais révolutionné les interfaces: fenêtres, utilisation systématique de la souris, copier-coller, etc., tous copiés ensuite par Microsoft. Comment les informaticiens pouvaient se débrouiller avant disons 1990, c'est inimaginable.
C'est bien pour cela que les ordinateurs sont câblés pour s'adresser au démarrage à une ROM qui reste inaltérée en cas de coupure d'alimentation, et se charge d'activer le disque système.
Avec des raccourcis clavier?
oui, aussi; j'ai vu un vieux manuel d'utilisation du Mac; en fait pratiquement tout de ce à quoi nous sommes habitués sous Windows/Word/Excel a été inventé par Apple
j'ai vu aussi un manuel MS-DOS de la même époque: à se flinguer
Si je peux me permettre, en électronique on définit généralement l'absence de tension par un 1 logique et la présence par un 0 logique. La raison : la détection des pannes est beaucoup plus facile comme ça ;).
je n'ai pas compris pourquoi cela permet de mieux détecter une panne; en fait, quand on a voulu définir la charge de l'électron, c'était plus ou moins? Logiquement, c'était plus, mais il y avait une chance sur deux de se tromper, et c'est le mauvais choix qui a prévalu
Ils n'ont rien inventé en interface non plus.
Ils ont récupéré les inventions du Xerox Palo Alto pour cela aussi.
Ils ont popularisé les interfaces, ok.
Mais de là à les présenter comme des inventeurs que Crosoft aurait juste copié ...
Détrompe toi.
Lorsqu'on a l'habitude, on va beaucoup plus vite avec un clavier qu'avec une souris, en tous cas pour certaines tâches.
Moi ce qui me stresse, c'est de voir le temps que les gens perdent à faire des tas de clics alors que c'est direct au clavier.
Chacun son truc.
Oui enfin si c'est pour faire de l'Apple bashing, autant le faire sur de vraies problématiques, parce que l'interface graphique n'a pas été volé mais acheté par Apple à Xerox et la souris, quant à elle, n'a même pas été inventée au Xerox Park... c'est une légende tenace d'ailleurs.
C'est en effet extrêmement drôle ... Je ris aux éclats grâce à ce commentaire. Merci
Mieux vaut regarder des filles toutes nues que lire des commentaires si déplorables... enfin, quand on peut ;)
enfin, quand on peut pas, c'est toujours ça
c'est comme les eunuques, ils savent comment on fait, le voient faire tous les jours, mais peuvent pas
Je fais de l'informatique depuis 1982. Je suis ingénieur et j'ai vu l'arrivée des premiers Apple 2 en France.
Il n'y a aucune révolution faite par Apple contrairement a évoqué le mythe veut nous faire croire. Les IHM graphique était jugée peu productive a l'épique. Il y en avait un certain nombre, dont celle d'Apple (qui, encore une fois, n'a rien inventé et uniquement copié les autres).
Toutes les sociétés préféraient à l'épique un Word sous dos plutot qu'un système exotique type Apple. D'ailleurs Apple n'a jamais pu investir le marché professionnel (à part les arts graphiques, et encore plutot chez les indépendants). Cela reste un système sympa, mais un système d'amateur. Il existe des centaines d'études de productivité qui démontrent que les systèmes Apple sont les moins productifs, administrables et intégrables dans une architecture complexe professionnel.
Ce qui est drôle c'est que le marketing d'Apple est tellement puissant qu'en énonçant simplement ces vérités on se fait traiter de troll...
Oui puis graver à l aveugle pas terrible :)
AFM (microscope a force atomique) ou a balayage électronique.
ne son justement pas des microscope ''optique '' !!!
microscope optique = microscope photonique !
L'optique est la branche de la physique qui traite de la lumiere et de ses propriétés, du rayonnement électromagnétiques de la vision ainsi que les systèmes utilisant ou émettant de la lumière ....