La constante de Hubble reste un mystère

Proposé par
le
dans

La constante de Hubble permet de mesurer le taux d'expansion de l'Univers à un moment donné. Les scientifiques ont du mal à la déterminer précisément : deux méthodes aboutissent à des résultats proches mais incompatibles : ~67 ou ~73 km/s/mégaparsec. Cette différence est encore inexpliquée.


Commentaires préférés (3)

Deux méthodes principales sont utilisées pour estimer la constante de Hubble :

- Méthode des Supernovae et des Céphéides :

Cette approche repose sur l'observation des étoiles Céphéides* (qui servent de "bougies standard" pour mesurer les distances dans l'Univers proche) et des supernovae de type "la" (qui sont utilisées pour mesurer des distances plus lointaines). En mesurant la distance de ces objets et leur décalage vers le rouge, les scientifiques estiment la constante de Hubble. Cette méthode aboutit à une valeur autour de 73 km/s/Mpc.

*Les étoiles Céphéides sont un type particulier d'étoiles variables, c'est-à-dire que leur luminosité varie de manière régulière sur une période de temps bien définie. Ce qui les rend extrêmement précieuses pour les astronomes, c'est la relation directe entre la période de variation de leur luminosité et leur luminosité intrinsèque.

Méthode du fond diffus cosmologique :

Cette approche utilise les observations du fond diffus cosmologique, qui est la lumière résiduelle du Big Bang. En analysant les fluctuations dans le CMB, les scientifiques peuvent déduire des paramètres cosmologiques, dont la constante de Hubble, mais à partir d'une époque très ancienne de l'Univers. Cette méthode aboutit à une valeur autour de 67 km/s/Mpc.

Cette divergence est connue sous le nom de "tension de Hubble". Plusieurs hypothèses ont été proposées pour expliquer cette tension, telles que des erreurs systématiques dans l'une ou l'autre des méthodes, ou des phénomènes encore inconnus dans la physique cosmologique, comme l'existence d'une nouvelle forme d'énergie ou de matière, ou des modifications aux théories de la gravité à grande échelle.

a écrit : Toute une thèse pour aboutir à la valeur moyenne de 70? Franchement, l'étude aurait pu être menée directement par Dédé du bar le Pénalty de Bourré-sur-Loire "Quoi? 67 ou 73 ? Mais qu'est-ce qu'ils nous font ch..., on a qu' à dire 70 et pis voila !" Pas vraiment non, c'est une analyse poussée de données expérimentales et pas une estimation au doigt mouillé.
Je comprends que tu puisses trouver ça anodin ou pas très significatif mais détrompe-toi. En gros sans expliquer ce qu'est la tension de Hubble, disons simplement que c'est une erreur dans la science. Deux expériences qui donnent des résultats différents, alors que selon la théorie elles devraient se confirmer l'une et l'autre.
Or, une erreur, même une toute petite erreur, ça peut être la source d'une tonne de nouvelles découvertes. Prenons par exemple la gravité et l'étude des planètes. Au XIXème siècle, on constate une anomalie dans l'orbite d'Uranus. Urbain Le Verrier en déduit en appliquant la loi de la gravitation de Newton qu'une autre planète doit perturber son orbite. Il effectue des calculs, prédit la position de cette nouvelle planète, y pointe son télescope, et bingo, Neptune.
Mais ça faisait un moment qu'on constatait des petites erreurs dans l'orbite de Mercure. Le Verrier, sûr de son coup, prédit l'existence d'une planète encore plus proche du Soleil qu'il nomme Vulcain. Or, on la cherche, on croit même la trouver, mais au final il s'avère qu'elle n'existe pas. Alors quoi ? On pourrait se dire pff, c'est qu'une anomalie d'un sur douze millions, on est peut-être juste nuls en calcul ou je ne sais quoi, c'est sans doute rien. Mais là, ça ne va pas parce que les scientifiques sont quand même vachement sûrs de leurs prédictions, la marge d'erreur devrait être de beaucoup moins qu'une sur douze millions, alors il y a quand même quelque chose à creuser. Et la seule manière d'expliquer cette anomalie c'est d'être un jeune et brillant physicien prénommé Albert, de jeter par la fenêtre toute cette histoire de gravité Newtonienne et de considérer que les objets massifs courbent l'espace-temps autour d'eux, c'est à dire découvrir la relativité.
Une énorme part de la physique moderne s'est construite en améliorant ou en réfutant des théories précédentes au travers de toutes petites anomalies expérimentales, de valeurs qui sortaient un tout petit peu de la marge d'erreur.
Ici, si cette nouvelle se confirme, ça effacerait en partie cette anomalie. Il resterait à trouver pourquoi le télescope spatial Hubble n'était pas d'accord mais étant l'instrument le moins précis des trois il se pourrait qu'on ait mal estimé des marges d'erreur ou eu recours à une mauvaise méthodologie. Notre modèle cosmologique actuel tiendrait (probablement) debout et les physiciens n'auraient pas besoin de paniquer à échafauder des théories à tout va.


Tous les commentaires (25)

Deux méthodes principales sont utilisées pour estimer la constante de Hubble :

- Méthode des Supernovae et des Céphéides :

Cette approche repose sur l'observation des étoiles Céphéides* (qui servent de "bougies standard" pour mesurer les distances dans l'Univers proche) et des supernovae de type "la" (qui sont utilisées pour mesurer des distances plus lointaines). En mesurant la distance de ces objets et leur décalage vers le rouge, les scientifiques estiment la constante de Hubble. Cette méthode aboutit à une valeur autour de 73 km/s/Mpc.

*Les étoiles Céphéides sont un type particulier d'étoiles variables, c'est-à-dire que leur luminosité varie de manière régulière sur une période de temps bien définie. Ce qui les rend extrêmement précieuses pour les astronomes, c'est la relation directe entre la période de variation de leur luminosité et leur luminosité intrinsèque.

Méthode du fond diffus cosmologique :

Cette approche utilise les observations du fond diffus cosmologique, qui est la lumière résiduelle du Big Bang. En analysant les fluctuations dans le CMB, les scientifiques peuvent déduire des paramètres cosmologiques, dont la constante de Hubble, mais à partir d'une époque très ancienne de l'Univers. Cette méthode aboutit à une valeur autour de 67 km/s/Mpc.

Cette divergence est connue sous le nom de "tension de Hubble". Plusieurs hypothèses ont été proposées pour expliquer cette tension, telles que des erreurs systématiques dans l'une ou l'autre des méthodes, ou des phénomènes encore inconnus dans la physique cosmologique, comme l'existence d'une nouvelle forme d'énergie ou de matière, ou des modifications aux théories de la gravité à grande échelle.

Quelqu'un pourrait-il m'expliquer comment dans un univers en expansion, il peut y avoir des collisions (galaxies, trous noirs etc)

Une théorie récente, de l'université de Genève, propose que l'univers n'est pas en expansion mais statique et que ce sont les masses des corps cosmiques qui évoluent, modifiant ainsi leur luminosité ou leur rougeoiment.

a écrit : Quelqu'un pourrait-il m'expliquer comment dans un univers en expansion, il peut y avoir des collisions (galaxies, trous noirs etc) À partir du moment ou les forces de gravitation sont plus fortes que celles de l’expansion logiquement.

Si comme moi vous êtes novices en la matière et vous demandez ce qu’est un « megaparsec », voici une définition :

Le parsec est une unité de distance correspondant à une longueur. Elle permet d'exprimer la distance qui nous sépare, notamment, d'étoiles et de galaxies. Son calcul repose sur l'angle de parallaxe de l'astre par rapport à la Terre.

Et donc le mégaparsec est l’unité de mesure de longueur astronomique, valant 10^6 parsecs.

J’en déduis qu’à chaque seconde qui passe, une distance d’un megaparsec de l’univers se dilate d’environ 70 km.

a écrit : Une étude tout juste parue en pré-print, donc encore non revue par les pairs, indiquerait que le télescope James Webb aurait validé la mesure par la méthode du fond cosmologique. C’est une news importante dans le milieu.

Source : phys.org/news/2024-08-analysis-webb-universe-expansion-hubble.html
Toute une thèse pour aboutir à la valeur moyenne de 70? Franchement, l'étude aurait pu être menée directement par Dédé du bar le Pénalty de Bourré-sur-Loire "Quoi? 67 ou 73 ? Mais qu'est-ce qu'ils nous font ch..., on a qu' à dire 70 et pis voila !"

a écrit : Quelqu'un pourrait-il m'expliquer comment dans un univers en expansion, il peut y avoir des collisions (galaxies, trous noirs etc) C'est parce que pour le moment les choses dans l'univers sont encore relativement concentrées par petits paquets. Et sur des "courtes" distances la gravité peut encore vaincre l'expansion. Car cette expansion n'est vraiment importante que sur des très longues distances. 70Km/MPc/s ça veut dire que si tu prends un point arbitraire à environ 3.3 millions d'années lumières de toi, le vide entre toi et ce point s'étend de 70km chaque seconde. Si tu prends un point à 3 MPc il s'éloigne de 210km/s. À 40MPc ce sera 2800km/s, ce qui commence à faire. Quand on parle de Gigaparsecs on atteint des fractions significatives de la vitesse de la lumière et au bout d'une certaine distance les galaxies s'éloignent de nous si vite que leur lumière ne peut nous parvenir.
Cela dit, cette situation ne va pas durer éternellement. Il est prédit que les galaxies du groupe local resteront liées gravitationnellement mais que les autres vont s'éloigner peu à peu et de plus en plus vite, jusqu'à ce qu'on ne puisse plus observer d'autres galaxies. En clair, on a 100 milliards d'années environ pour faire de la cosmologie après ce sera trop tard. Puis, à en croire les données qui suggèrent que l'expansion de l'univers s'accélère, l'espace entre les étoiles finira par s'étendre plus vite que la gravité ne peut le compenser. Puis l'espace entre les planètes, puis entre les atomes, entre les particules, jusqu'à étendre toute la matière de l'univers en une soupe qui va lentement s'uniformiser. Combien de temps cela prendra on ne sait pas vraiment, ça dépend si l'accélération de l'expansion est constante ou si elle-même est de plus en plus rapide.

a écrit : Toute une thèse pour aboutir à la valeur moyenne de 70? Franchement, l'étude aurait pu être menée directement par Dédé du bar le Pénalty de Bourré-sur-Loire "Quoi? 67 ou 73 ? Mais qu'est-ce qu'ils nous font ch..., on a qu' à dire 70 et pis voila !" Pas vraiment non, c'est une analyse poussée de données expérimentales et pas une estimation au doigt mouillé.
Je comprends que tu puisses trouver ça anodin ou pas très significatif mais détrompe-toi. En gros sans expliquer ce qu'est la tension de Hubble, disons simplement que c'est une erreur dans la science. Deux expériences qui donnent des résultats différents, alors que selon la théorie elles devraient se confirmer l'une et l'autre.
Or, une erreur, même une toute petite erreur, ça peut être la source d'une tonne de nouvelles découvertes. Prenons par exemple la gravité et l'étude des planètes. Au XIXème siècle, on constate une anomalie dans l'orbite d'Uranus. Urbain Le Verrier en déduit en appliquant la loi de la gravitation de Newton qu'une autre planète doit perturber son orbite. Il effectue des calculs, prédit la position de cette nouvelle planète, y pointe son télescope, et bingo, Neptune.
Mais ça faisait un moment qu'on constatait des petites erreurs dans l'orbite de Mercure. Le Verrier, sûr de son coup, prédit l'existence d'une planète encore plus proche du Soleil qu'il nomme Vulcain. Or, on la cherche, on croit même la trouver, mais au final il s'avère qu'elle n'existe pas. Alors quoi ? On pourrait se dire pff, c'est qu'une anomalie d'un sur douze millions, on est peut-être juste nuls en calcul ou je ne sais quoi, c'est sans doute rien. Mais là, ça ne va pas parce que les scientifiques sont quand même vachement sûrs de leurs prédictions, la marge d'erreur devrait être de beaucoup moins qu'une sur douze millions, alors il y a quand même quelque chose à creuser. Et la seule manière d'expliquer cette anomalie c'est d'être un jeune et brillant physicien prénommé Albert, de jeter par la fenêtre toute cette histoire de gravité Newtonienne et de considérer que les objets massifs courbent l'espace-temps autour d'eux, c'est à dire découvrir la relativité.
Une énorme part de la physique moderne s'est construite en améliorant ou en réfutant des théories précédentes au travers de toutes petites anomalies expérimentales, de valeurs qui sortaient un tout petit peu de la marge d'erreur.
Ici, si cette nouvelle se confirme, ça effacerait en partie cette anomalie. Il resterait à trouver pourquoi le télescope spatial Hubble n'était pas d'accord mais étant l'instrument le moins précis des trois il se pourrait qu'on ait mal estimé des marges d'erreur ou eu recours à une mauvaise méthodologie. Notre modèle cosmologique actuel tiendrait (probablement) debout et les physiciens n'auraient pas besoin de paniquer à échafauder des théories à tout va.

a écrit : Pas vraiment non, c'est une analyse poussée de données expérimentales et pas une estimation au doigt mouillé.
Je comprends que tu puisses trouver ça anodin ou pas très significatif mais détrompe-toi. En gros sans expliquer ce qu'est la tension de Hubble, disons simplement que c'est une erreur dans
la science. Deux expériences qui donnent des résultats différents, alors que selon la théorie elles devraient se confirmer l'une et l'autre.
Or, une erreur, même une toute petite erreur, ça peut être la source d'une tonne de nouvelles découvertes. Prenons par exemple la gravité et l'étude des planètes. Au XIXème siècle, on constate une anomalie dans l'orbite d'Uranus. Urbain Le Verrier en déduit en appliquant la loi de la gravitation de Newton qu'une autre planète doit perturber son orbite. Il effectue des calculs, prédit la position de cette nouvelle planète, y pointe son télescope, et bingo, Neptune.
Mais ça faisait un moment qu'on constatait des petites erreurs dans l'orbite de Mercure. Le Verrier, sûr de son coup, prédit l'existence d'une planète encore plus proche du Soleil qu'il nomme Vulcain. Or, on la cherche, on croit même la trouver, mais au final il s'avère qu'elle n'existe pas. Alors quoi ? On pourrait se dire pff, c'est qu'une anomalie d'un sur douze millions, on est peut-être juste nuls en calcul ou je ne sais quoi, c'est sans doute rien. Mais là, ça ne va pas parce que les scientifiques sont quand même vachement sûrs de leurs prédictions, la marge d'erreur devrait être de beaucoup moins qu'une sur douze millions, alors il y a quand même quelque chose à creuser. Et la seule manière d'expliquer cette anomalie c'est d'être un jeune et brillant physicien prénommé Albert, de jeter par la fenêtre toute cette histoire de gravité Newtonienne et de considérer que les objets massifs courbent l'espace-temps autour d'eux, c'est à dire découvrir la relativité.
Une énorme part de la physique moderne s'est construite en améliorant ou en réfutant des théories précédentes au travers de toutes petites anomalies expérimentales, de valeurs qui sortaient un tout petit peu de la marge d'erreur.
Ici, si cette nouvelle se confirme, ça effacerait en partie cette anomalie. Il resterait à trouver pourquoi le télescope spatial Hubble n'était pas d'accord mais étant l'instrument le moins précis des trois il se pourrait qu'on ait mal estimé des marges d'erreur ou eu recours à une mauvaise méthodologie. Notre modèle cosmologique actuel tiendrait (probablement) debout et les physiciens n'auraient pas besoin de paniquer à échafauder des théories à tout va.
Afficher tout
Seraphyn, c'était de l'humour... Certes pas hilarant, je le reconnais. Perso, le fait que l'étude, qui a dû solliciter maintes années et calculs, arrive simplement à la moyenne des 2 valeurs m'a fait marrer, c'est tout :) Mais je ne remets pas en cause la complexité du schmilblick.

Ceci dit, mon com ayant entrainé ton intéressant complément, je suis content de ta mécompréhension...

a écrit : Pas vraiment non, c'est une analyse poussée de données expérimentales et pas une estimation au doigt mouillé.
Je comprends que tu puisses trouver ça anodin ou pas très significatif mais détrompe-toi. En gros sans expliquer ce qu'est la tension de Hubble, disons simplement que c'est une erreur dans
la science. Deux expériences qui donnent des résultats différents, alors que selon la théorie elles devraient se confirmer l'une et l'autre.
Or, une erreur, même une toute petite erreur, ça peut être la source d'une tonne de nouvelles découvertes. Prenons par exemple la gravité et l'étude des planètes. Au XIXème siècle, on constate une anomalie dans l'orbite d'Uranus. Urbain Le Verrier en déduit en appliquant la loi de la gravitation de Newton qu'une autre planète doit perturber son orbite. Il effectue des calculs, prédit la position de cette nouvelle planète, y pointe son télescope, et bingo, Neptune.
Mais ça faisait un moment qu'on constatait des petites erreurs dans l'orbite de Mercure. Le Verrier, sûr de son coup, prédit l'existence d'une planète encore plus proche du Soleil qu'il nomme Vulcain. Or, on la cherche, on croit même la trouver, mais au final il s'avère qu'elle n'existe pas. Alors quoi ? On pourrait se dire pff, c'est qu'une anomalie d'un sur douze millions, on est peut-être juste nuls en calcul ou je ne sais quoi, c'est sans doute rien. Mais là, ça ne va pas parce que les scientifiques sont quand même vachement sûrs de leurs prédictions, la marge d'erreur devrait être de beaucoup moins qu'une sur douze millions, alors il y a quand même quelque chose à creuser. Et la seule manière d'expliquer cette anomalie c'est d'être un jeune et brillant physicien prénommé Albert, de jeter par la fenêtre toute cette histoire de gravité Newtonienne et de considérer que les objets massifs courbent l'espace-temps autour d'eux, c'est à dire découvrir la relativité.
Une énorme part de la physique moderne s'est construite en améliorant ou en réfutant des théories précédentes au travers de toutes petites anomalies expérimentales, de valeurs qui sortaient un tout petit peu de la marge d'erreur.
Ici, si cette nouvelle se confirme, ça effacerait en partie cette anomalie. Il resterait à trouver pourquoi le télescope spatial Hubble n'était pas d'accord mais étant l'instrument le moins précis des trois il se pourrait qu'on ait mal estimé des marges d'erreur ou eu recours à une mauvaise méthodologie. Notre modèle cosmologique actuel tiendrait (probablement) debout et les physiciens n'auraient pas besoin de paniquer à échafauder des théories à tout va.
Afficher tout
Merci Seraphyn pour tes compléments que je trouve à la fois pertinents et très biens expliqués

a écrit : Une théorie récente, de l'université de Genève, propose que l'univers n'est pas en expansion mais statique et que ce sont les masses des corps cosmiques qui évoluent, modifiant ainsi leur luminosité ou leur rougeoiment. Intéressant, merci.

Si jamais, pour ceux que ça intéresse, le scientifique qui a proposé cette théorie s'appelle Lucas Lombriser. Et j'ai trouvé notamment cet article qui en parle :

trustmyscience.com/expansion-univers-pourrait-etre-illusion-selon-nouvelle-etude/

Vu la complexité du truc j'hésite à dire que je risque bien de me coucher plus bête ce soir... Ça tombe bien je crois que le soleil (pardon - le sommeil) m'appelle :-) !!

Tout ce que je sais c'est que le faucon millénium à fait la course de Kessel en moins de 12 parsecs...

a écrit : Pas vraiment non, c'est une analyse poussée de données expérimentales et pas une estimation au doigt mouillé.
Je comprends que tu puisses trouver ça anodin ou pas très significatif mais détrompe-toi. En gros sans expliquer ce qu'est la tension de Hubble, disons simplement que c'est une erreur dans
la science. Deux expériences qui donnent des résultats différents, alors que selon la théorie elles devraient se confirmer l'une et l'autre.
Or, une erreur, même une toute petite erreur, ça peut être la source d'une tonne de nouvelles découvertes. Prenons par exemple la gravité et l'étude des planètes. Au XIXème siècle, on constate une anomalie dans l'orbite d'Uranus. Urbain Le Verrier en déduit en appliquant la loi de la gravitation de Newton qu'une autre planète doit perturber son orbite. Il effectue des calculs, prédit la position de cette nouvelle planète, y pointe son télescope, et bingo, Neptune.
Mais ça faisait un moment qu'on constatait des petites erreurs dans l'orbite de Mercure. Le Verrier, sûr de son coup, prédit l'existence d'une planète encore plus proche du Soleil qu'il nomme Vulcain. Or, on la cherche, on croit même la trouver, mais au final il s'avère qu'elle n'existe pas. Alors quoi ? On pourrait se dire pff, c'est qu'une anomalie d'un sur douze millions, on est peut-être juste nuls en calcul ou je ne sais quoi, c'est sans doute rien. Mais là, ça ne va pas parce que les scientifiques sont quand même vachement sûrs de leurs prédictions, la marge d'erreur devrait être de beaucoup moins qu'une sur douze millions, alors il y a quand même quelque chose à creuser. Et la seule manière d'expliquer cette anomalie c'est d'être un jeune et brillant physicien prénommé Albert, de jeter par la fenêtre toute cette histoire de gravité Newtonienne et de considérer que les objets massifs courbent l'espace-temps autour d'eux, c'est à dire découvrir la relativité.
Une énorme part de la physique moderne s'est construite en améliorant ou en réfutant des théories précédentes au travers de toutes petites anomalies expérimentales, de valeurs qui sortaient un tout petit peu de la marge d'erreur.
Ici, si cette nouvelle se confirme, ça effacerait en partie cette anomalie. Il resterait à trouver pourquoi le télescope spatial Hubble n'était pas d'accord mais étant l'instrument le moins précis des trois il se pourrait qu'on ait mal estimé des marges d'erreur ou eu recours à une mauvaise méthodologie. Notre modèle cosmologique actuel tiendrait (probablement) debout et les physiciens n'auraient pas besoin de paniquer à échafauder des théories à tout va.
Afficher tout
Je rejoins Manolo 2, ton commentaire a été pour moi très instructif, et merci à laGlobule de t'avoir fait réagir du coup :)

Posté le

android

(5)

Répondre

a écrit : Tout ce que je sais c'est que le faucon millénium à fait la course de Kessel en moins de 12 parsecs... Et puisque le parsec est une unité de distance, ça signifie qu'il a triché ^^

a écrit : C'est parce que pour le moment les choses dans l'univers sont encore relativement concentrées par petits paquets. Et sur des "courtes" distances la gravité peut encore vaincre l'expansion. Car cette expansion n'est vraiment importante que sur des très longues distances. 70Km/MPc/s ça veut dire que si tu prends un point arbitraire à environ 3.3 millions d'années lumières de toi, le vide entre toi et ce point s'étend de 70km chaque seconde. Si tu prends un point à 3 MPc il s'éloigne de 210km/s. À 40MPc ce sera 2800km/s, ce qui commence à faire. Quand on parle de Gigaparsecs on atteint des fractions significatives de la vitesse de la lumière et au bout d'une certaine distance les galaxies s'éloignent de nous si vite que leur lumière ne peut nous parvenir.
Cela dit, cette situation ne va pas durer éternellement. Il est prédit que les galaxies du groupe local resteront liées gravitationnellement mais que les autres vont s'éloigner peu à peu et de plus en plus vite, jusqu'à ce qu'on ne puisse plus observer d'autres galaxies. En clair, on a 100 milliards d'années environ pour faire de la cosmologie après ce sera trop tard. Puis, à en croire les données qui suggèrent que l'expansion de l'univers s'accélère, l'espace entre les étoiles finira par s'étendre plus vite que la gravité ne peut le compenser. Puis l'espace entre les planètes, puis entre les atomes, entre les particules, jusqu'à étendre toute la matière de l'univers en une soupe qui va lentement s'uniformiser. Combien de temps cela prendra on ne sait pas vraiment, ça dépend si l'accélération de l'expansion est constante ou si elle-même est de plus en plus rapide.
Afficher tout
Ok, mais Andromède est a 750 millions d'AL et on va quand même se la prendre sur la gueule.
Peut-être que 750 MAL c'est rien du tout ?

a écrit : Ok, mais Andromède est a 750 millions d'AL et on va quand même se la prendre sur la gueule.
Peut-être que 750 MAL c'est rien du tout ?
Non, Andromède n'est qu'à 2,5 millions d'années lumière, même pas un mégaparsec, la porte à côté :)
Alors oui c'est sûr pour nous ça fait loin, quand on l'observe à l'oeil nu dans le ciel et qu'on se dit qu'on regarde deux millions et demi d'années dans le passé, ça fait bizarre.
Mais à l'échelle de l'univers ce n'est pas grand chose, sa taille se mesure en milliards d'années lumière

a écrit : Et puisque le parsec est une unité de distance, ça signifie qu'il a triché ^^ Non ça signifie que le Faucon Millenium a un super système de guidage qui lui aurait permis de trouver une meilleure route. Et pour info il mentait pour impressionner Obi-Wan.

a écrit : Et puisque le parsec est une unité de distance, ça signifie qu'il a triché ^^ Dans la réalité alternative de Star Wars il est certainement possible de parcourir une distance en moins de distance ^^