La définition et la résolution d'une image ne sont pas la même chose. En effet, la définition correspond au nombre total de pixels dans l'image (par exemple une image ayant une définition de 2000x3000 fait 6 millions de pixels). La résolution quant à elle correspond à la densité de pixel c'est-à-dire le nombre de pixels par pouce (un pouce mesurant 2,54 cm).
Tous les commentaires (64)
A noter que la résolution d'un capteur (ou d'un écran) et celle d'un instrument optique, je pense notamment a un objectif, ne sont pas la même chose.
Un photographe prêtera attention a la résolution de l'objectif qu'il choisit.
Les nouveaux tv auront le double, donc 4 fois plus de pixels, l ultra hd (aussi appelé à tord 4k )
Je me rappel plus l exact différence entre le i et le p, mais je suis certain que c est 1080p qui est le mieux en qualité
Sauf quand un écran fait exactement un pouce. Là, la définition et la résolution sont la même chose. C'est juste? Où je relance un débat futile. Ou comment couper un sujet comme un cheveu en 4 . Avec résolution. Quand à la définition je me poserais juste cette question. Et au final ce foutu pouce; il était à qui au fait?
ps: Si toi aussi tu as remarqué que mes "Ou" étaient inversés alors tu es winneur.
Le rapprochement du monde du broadcast et de l'informatique, la multiplication somme toute récente des types de diffuseurs (CRT, LCD, plasma par ex.) capables d'afficher plusieurs résolutions pour une même taille d’écran, ainsi que l'utilisation à tout va de termes comme "HD" dans le domaine du grand public, ont conduit à un amalgame flou de ces 2 caractéristiques techniques, flou entretenu par les services commerciaux des fabricants qui en ont profité pour produire d'autres "normes" tels que HDready, HDtv, fullHD, HD720, HD1080p ou i et j'en passe..., ceci soit disant afin de faciliter la compréhension de ces notions par la ménagère responsable des achats, certains se souviendront peut être de la tentative de simplification il y a quelques années tellement c’était devenu difficile à suivre.
Petite correction aussi au niveau du monde de l'impression pour lequel le terme de résolution ne veut absolument rien dire, si l'on n’intègre pas de notion de taille de la zone d'impression afin de spécifier la définition (ou finesse) de cette impression, le fameux DPI (Dot Per Inch) ou PPP (Points Par Pouces, beaucoup moins utilisé).
On peut également appliquer ceci à la photo numérique, où la résolution seule ne sert à rien, si l'on ne connait pas le type de capteur et donc : sa taille (23.6mm x 15.7mm pour le plus utilisé, l'APS-C), sa technologie (CMOS, CCD...) ainsi que le nombre de photosites (et non photocites) > un capteur APS-C de 15Mpxls sera plus performant que sa version 10Mpxls (en partant du principe que 1 pixel = 1 photosite, d'ailleurs de moins en moins vrai).
Fais toi un bench dur un d-like ou autre à 30 fps et le même à 60 ou plus, tu verras une grande différence.
Il ne suffit pas de penser et d'affirmer quelque chose pour que ce soit vrai.
Un peu de bon sens!
Mais le lag est la latence d'une connection internet et n'a rien a voir avec les fps.
Et pour le p et le i j'ai déjà répondu plus haut, et d'ailleurs je n'ai pas été le seul :)
ps: moi j essaye d avoir au moins 60fps sur mon pc
la limite est de 480ppi
en.m.wikipedia.org/wiki/Graphics_display_resolution
Le 4K et l'UHD existent tous les deux mais sont deux choses différentes. Ces deux noms ont des applications différentes et des ratios différents.
"4K" vient du cinéma numérique, où le ratio est traditionnellement du 1.85:1 (ou 1.89:1) et correspond à une définition de 4096x2160 pixels. En Cinemascope ou d'autres formats plus panoramiques, la définition verticale utilisée est plus petite, mais on conserve une définition horizontale de 4096 pixels.
L'Ultra Haute Définiton est l'équivalent pour le monde de la vidéo, où le ratio est de 1.77:1 (ou 1.78:1 en arrondissant), autrement dit du 16/9. UHD correspond donc à une définition de 3840x2160 pixels, soit un tout petit peu moins que le 4K professionel.
C'est la même différence entre le 2K, format professionnel utilisé dans les cinémas et donc sur les caméras aussi, d'une définition de 2048x1080 pixels, et la HD (ou Full HD plus précisément) de 1920x1080 pixels, destiné à la vidéo donc aux téléviseurs.
Le choix du nombre de 1920x1080 pixels pour la HD avait pour but de se rapprocher le plus possible du format 2K, tout en respectant le ratio 16/9 de la télévision. Le 4K, qui équivaut à une définition 4 fois plus grande que le 2K, commençait à se répandre dans le monde professionel et dans de plus en plus de cinémas, donc lorsque l'idée de téléviseurs d'une définition 4 fois supérieure à la HD s'est développée, on a commencé à les qualifier de "4K", à défaut d'une autre appellation. Aujourd'hui ce n'est effectivement plus correct, mais comme la norme "UHD" a pris pas mal de temps avant d'être officialisée, certains constructeurs parlent encore de TV 4K.