La diminution de taille des transistors a révolutionné l'informatique

Proposé par
Invité
le

Le transistor est la base de l'électronique pour obtenir des calculs. Le premier transistor inventé dans le laboratoire Bell en 1947 était aussi gros qu'une ampoule, et valut à ses inventeurs un prix Nobel. A l'heure actuelle, les plus petits transistors, encore au stade expérimental, développés par Intel, mesurent 7 nanomètres, ce qui fait qu'un processeur peut contenir des milliards de transistors.


Tous les commentaires (35)

a écrit : Bon, j' vais essayer de trouver quelqu'un capable d'expliquer à un béotien de l'électronique, car ici sur scmb personne ne semble avoir à la fois le savoir ET la pédagogie. Merci quand-même c'est déjà un début! Pour faire simple, c'est le premier composant permettant d'avoir un état dit zéro et un état dit un à sa sortie mettant ainsi en place le début de l'air numérique
Car aujourd'hui nous codons les informations grâce à des enchaînements de un et de zéro
Même si il y aurait beaucoup plus à dire, j'espère que cela t'aidera un peu à appréhender le monde de l'électronique

a écrit : La loi de Moore risque de ne bientôt plus s'appliquer : on ne peut plus faire des transistors plus petits car l'on tombe dans le domaine de la physique quantique. Que l'on me corrige si je me trompe mais la loi de Moore si je me rappel bien ne disait (dit) qu'à un certain moment on ira dans le sens inverse?

a écrit : Mais ça fait quoi un transistor, à quoi ça sert, comment ça marche? Il n'est pas facile de parler de tout les transistors en même temps car il en existe une multitude utilisant des principes physique extrêmement variés. Il existent par exemple les transistors bipolaires ou encore les transistors MOS, les MOS sont les plus utilisés pour construire les processeurs, car ils consomme très peu par rapport à un bipolaire.

Pour simplifier sans tenir compte de la technologie tu peux voir un transistor comme un robinet, il dispose de 3 pattes : une entrée, une sortie et une entrée de commande. En fonction de l'entrée de commande un flux d'énergie électrique pour s'établir ou non entre l'entrée et la sortie du transistor. Grâce à cela il est possible de réaliser des calcules mathématique et un foule d'autres choses.

Pour information lorsque l'on parle de la taille d'un transistor c'est la distance entre l'entrée et la sortie du "robinet", a l'heure actuel cette distance devient tellement petite qu'il est très difficile d'empêcher les particules de passer de l'entrée vers la sortie même quand le robinet est supposé être fermé. C'est en partie pour cette raison que la taille dès transistor ne diminue plus. Car à chaque fois que l'on réduite la taille il faut trouver des méthodes pour empêcher les particules de traverser le robinet de plus en plus petit ...

Si tu veux une explication plus clair du transistor je te conseil l'émission "c'est pas sorcier" ils ont réalisés un très bon épisode sur le transistor :)

a écrit : 14nm dans l'anecdote présentée à la modération, 7nm maintenant... C'est quoi la limite ? La limite est physique. Les transistors fiables a l'heure actuel mesure 14nm et un électron mesure 0,1nm. Plus le transistor s'approche de la taille d'un électron plus les phénomènes quantiques qui entre en jeux sont nombreux et influant dans le fonctionnement du transistor. Le plus embêtant étant l'effet tunnel.

Pour expliquer simplement : si les humain pouvaient exploiter l'effet tunnel nous pourrions traverse les murs ...

Un transistor est en quelque sorte un robinet à électron qui peut être ouvert ou fermer. Mais contrairement aux humains les particules comme les électrons peuvent être soumis à l'effet tunnel, c'est a dire que parfois les électrons peuvent traverser le robinet même si celui ci est fermé ! Hors plus la taille de transistor (robinet) diminue plus l'effet tunnel devient important, donc plus le robinet va laisser passer le courant électrique alors qu'il est supposé être fermé ! A un certaine moment cette effet sera trop important et il sera inutile de fabriquer dès transistor plus petit car les électrons les traverseraient sans même les "voir"...

voila j'espère t'avoir un peu éclairer avec mon explication simpliste ^^

a écrit : La loi de Moore risque de ne bientôt plus s'appliquer : on ne peut plus faire des transistors plus petits car l'on tombe dans le domaine de la physique quantique. Du coup, si on ne peut plus faire que des transistors à moitié plus petit, on pourra appeler ça la loi de demi Moore.

a écrit : Bon, j' vais essayer de trouver quelqu'un capable d'expliquer à un béotien de l'électronique, car ici sur scmb personne ne semble avoir à la fois le savoir ET la pédagogie. Merci quand-même c'est déjà un début! Pour simplifier. Un transistor fonctionne un peu comme un interrupteur. On le ferme il laisse passer l'électricité, on l'ouvre et il empêche le passage. La différence avec l'interrupteur c'est que la commande n'est pas physique (le doigt qui fait l'action d'ouvrir ou fermer) mais électrique (un signal électrique ouvre ou ferme l'interrupteur).

Les calculs informatiques sont une succession de signaux binaires. C'est a dire 0 (pas d'électricité) 1 (courant electrique) grace aux transistors qui s'ouvrent et se ferment en permanence on obtient c'est fameux signaux.

Tous ces 0 et 1 accolés permettent de créer un état lisible pour l'utilisateur. Par exemple dans un système 8 bits. Si envoi un signal 01000001 on obtiendra la lettre A a l'écran.

J'espère que c'est un peu plus clair

Et bin merci les mecs / meufs pour les explications, ça m'a franchement bien aidé à comprendre.

On dénombre
7Nm selon la police
14Nm selon les syndicats

a écrit : La loi de Moore risque de ne bientôt plus s'appliquer : on ne peut plus faire des transistors plus petits car l'on tombe dans le domaine de la physique quantique. Si tu regarde le dernier prix Nobel de physique ou ses travaux sont basé sur le quantique. On peut se demander si l'improbable pourrais bientôt devenir possible...

a écrit : La loi de Moore risque de ne bientôt plus s'appliquer : on ne peut plus faire des transistors plus petits car l'on tombe dans le domaine de la physique quantique. Et c'est là que le concept d'"ordinateur quantique" est né !

a écrit : Il te semble bien. Les microprocesseurs plafonnent depuis 10 ans à un peu plus de 3 gigahertz de fréquence. On sait faire mieux mais ils deviennent instables et moins fiables au delà.

Le problème, c'est que quand on touche au nano, les atomes ont des propriétés quantiques (comme dit plus haut) qui ne
sont plus compatibles avec les systèmes électriques classiques, par exemple, l'isolation entre un circuit et un autre s'en retrouve altérée en dessous d'une certaine épaisseur et les électrons le traverse.

La seule solution à l'heure actuelle pour avoir des ordis plus rapides, c'est de multiplier les microprocesseurs, aujourd'hui, une bonne machine en compte 8 marchant ensemble sur un même programme, et cela va encore augmenter.

Même les smartphones comptent plusieurs microprocesseurs, en général deux, certains quatre.
Afficher tout
Ça dépend ce que tu appelles une bonne machine, ça peut aller bien plus loin que 8 processeurs.

a écrit : Ça dépend ce que tu appelles une bonne machine, ça peut aller bien plus loin que 8 processeurs. Beeh, un pc de gamer correct quoi ;) Le genre de PC que tu met n'importe quel jeu dedans, il met automatiquement tous les paramètres du jeu à donf! ^^

Je sais, je sais, aujourd'hui y'en a jusqu'à 12 dans le commerce, mais déjà j'en ai pas l'utilité, pis j'ai pas les sous. On verra en 2020 ;)

a écrit : 14nm dans l'anecdote présentée à la modération, 7nm maintenant... C'est quoi la limite ? La limite c'est la taille de l'atome (cf loi de Moore) er elle a déjà été atteinte par des chercheurs.