La définition et la résolution d'une image ne sont pas la même chose. En effet, la définition correspond au nombre total de pixels dans l'image (par exemple une image ayant une définition de 2000x3000 fait 6 millions de pixels). La résolution quant à elle correspond à la densité de pixel c'est-à-dire le nombre de pixels par pouce (un pouce mesurant 2,54 cm).

Tous les commentaires (64)
A noter que la résolution d'un capteur (ou d'un écran) et celle d'un instrument optique, je pense notamment a un objectif, ne sont pas la même chose.
Un photographe prêtera attention a la résolution de l'objectif qu'il choisit.
1080 c est le nombre de ligne de pixels, sur de la hd actuel, elles sont coupées de 1920 colonnes, à chaque croisement un pixel, composé de 3 sous pixel (rouge jaune et bleu )
Les nouveaux tv auront le double, donc 4 fois plus de pixels, l ultra hd (aussi appelé à tord 4k )
Je me rappel plus l exact différence entre le i et le p, mais je suis certain que c est 1080p qui est le mieux en qualité
Sauf quand un écran fait exactement un pouce. Là, la définition et la résolution sont la même chose. C'est juste? Où je relance un débat futile. Ou comment couper un sujet comme un cheveu en 4 . Avec résolution. Quand à la définition je me poserais juste cette question. Et au final ce foutu pouce; il était à qui au fait?
ps: Si toi aussi tu as remarqué que mes "Ou" étaient inversés alors tu es winneur.
Je persiste et signe, la résolution défini un nombre de pixels (V x H) et la définition renseigne sur la densité de pixels en intégrant une notion de taille physique, le terme technique anglais parle de pixel density, en PPI pour Pixel Per Inch ou à l'inverse avec directement la taille physique des pixels avec une valeur de "pitch" (0.22mm par ex.).
Le rapprochement du monde du broadcast et de l'informatique, la multiplication somme toute récente des types de diffuseurs (CRT, LCD, plasma par ex.) capables d'afficher plusieurs résolutions pour une même taille d’écran, ainsi que l'utilisation à tout va de termes comme "HD" dans le domaine du grand public, ont conduit à un amalgame flou de ces 2 caractéristiques techniques, flou entretenu par les services commerciaux des fabricants qui en ont profité pour produire d'autres "normes" tels que HDready, HDtv, fullHD, HD720, HD1080p ou i et j'en passe..., ceci soit disant afin de faciliter la compréhension de ces notions par la ménagère responsable des achats, certains se souviendront peut être de la tentative de simplification il y a quelques années tellement c’était devenu difficile à suivre.
Petite correction aussi au niveau du monde de l'impression pour lequel le terme de résolution ne veut absolument rien dire, si l'on n’intègre pas de notion de taille de la zone d'impression afin de spécifier la définition (ou finesse) de cette impression, le fameux DPI (Dot Per Inch) ou PPP (Points Par Pouces, beaucoup moins utilisé).
On peut également appliquer ceci à la photo numérique, où la résolution seule ne sert à rien, si l'on ne connait pas le type de capteur et donc : sa taille (23.6mm x 15.7mm pour le plus utilisé, l'APS-C), sa technologie (CMOS, CCD...) ainsi que le nombre de photosites (et non photocites) > un capteur APS-C de 15Mpxls sera plus performant que sa version 10Mpxls (en partant du principe que 1 pixel = 1 photosite, d'ailleurs de moins en moins vrai).
Pas forcément, tu peux te permettre d'avoir un FPS assez bas tandis que ton œil ne ressentira aucun lags (30 est le minimum si mes souvenirs sont bons) puisque la vitesse de traitement de l'image par ton cerveau est limitée...
Il y'a une grosse différence visible de "fluidité" à 30 fps et +
Fais toi un bench dur un d-like ou autre à 30 fps et le même à 60 ou plus, tu verras une grande différence.
Oui mais c'est simplement une question de fluidité et non pas de lag ;)
C'est exact c'est pour celà qu'une image n'aura pas la même taille "physique" en fonction de l'écran sur laquelle elle est affichée. Exemple une image en 72dpi de 1920x1080, peut remplir à la fois un écran 24" d'ordinateur, une tv full hd classique et un écran de de téléphone portable. La différence sera donc le support, sur une Tv d'un mètre de diagonale l'image aura une définition bien inférieure que celle sur un téléphone portable ayant la même résolution.
Dans tout les métiers de l'audiovisuel, on travaille souvent avec d'autres format que le pixel carre (1,00), on peut trouver du 1,33 ; 0,97 ; 1,66 ceci dépend du support sur lequel la vidéo (ou l'image) doit être diffusée
Un objectif n'a pas de résolution puisque qu'il ne peut que capturer la lumière... pour un objectif ça sera l'ouverture qui sera importante... plus il ouvre grand plus il pourra capturer de lumière...
Désolé mais tout votre premier paragraphe est faux. J'aimerais connaître vos sources.
Il ne suffit pas de penser et d'affirmer quelque chose pour que ce soit vrai.
Un peu de bon sens!
Effectivement en dessous , le mouvement parait saccadé et au-delà, l'animation est plus fluide.
Mais le lag est la latence d'une connection internet et n'a rien a voir avec les fps.
Pour les nouveaux smartphones tels que le S4 ou le Xperia Z, cela atteint les 440 ppi (écran full HD 5"), ce qui ne sert strictement à rien étant donné qu'au delà de 320 ppi l'oeil humain ne distingue plus les pixels individuellement...
"les meilleurs smartphones hauts de gamme atteignent plus de 400ppi. Le record étant détenu par le HTC One avec 469ppi "
Quelques erreurs quand même : la synthèse additive c'est RVB (RGB en anglais) pour rouge-vert-bleu et pas rouge-jaune-bleu... Quant aux télés 4K, l'appellation n'est pas fausse, le "K" signifiant x1000, comme pour 30K€ par exemple. La def 4K existe littéralement sur des caméras cinéma comme les RED ou la F65 (et d'autres), et dans le cas des téléviseurs on n'est pas exactement à 4000 lignes mais on considère que l'écart est peu significatif. Le terme d'ultra HD est en revanche une appellation marketing, un peu comme à l'époque HD Ready pour le 720 et Full HD pour le 1080.
Et pour le p et le i j'ai déjà répondu plus haut, et d'ailleurs je n'ai pas été le seul :)
l'oeil humain voit a plus de 2000 fps, a 24fps c est juste que le jeux commence a etre fluide.
ps: moi j essaye d avoir au moins 60fps sur mon pc
c est faux, vas voir la page wiki de pixels density en anglais.
la limite est de 480ppi
Pas tout à fait d'accord, UHD est juste le nom donné à la définition, comme VGA, WUXGA, FHD... Ce n'est pas vraiment marketing.
en.m.wikipedia.org/wiki/Graphics_display_resolution
Le 4K et l'UHD existent tous les deux mais sont deux choses différentes. Ces deux noms ont des applications différentes et des ratios différents.
"4K" vient du cinéma numérique, où le ratio est traditionnellement du 1.85:1 (ou 1.89:1) et correspond à une définition de 4096x2160 pixels. En Cinemascope ou d'autres formats plus panoramiques, la définition verticale utilisée est plus petite, mais on conserve une définition horizontale de 4096 pixels.
L'Ultra Haute Définiton est l'équivalent pour le monde de la vidéo, où le ratio est de 1.77:1 (ou 1.78:1 en arrondissant), autrement dit du 16/9. UHD correspond donc à une définition de 3840x2160 pixels, soit un tout petit peu moins que le 4K professionel.
C'est la même différence entre le 2K, format professionnel utilisé dans les cinémas et donc sur les caméras aussi, d'une définition de 2048x1080 pixels, et la HD (ou Full HD plus précisément) de 1920x1080 pixels, destiné à la vidéo donc aux téléviseurs.
Le choix du nombre de 1920x1080 pixels pour la HD avait pour but de se rapprocher le plus possible du format 2K, tout en respectant le ratio 16/9 de la télévision. Le 4K, qui équivaut à une définition 4 fois plus grande que le 2K, commençait à se répandre dans le monde professionel et dans de plus en plus de cinémas, donc lorsque l'idée de téléviseurs d'une définition 4 fois supérieure à la HD s'est développée, on a commencé à les qualifier de "4K", à défaut d'une autre appellation. Aujourd'hui ce n'est effectivement plus correct, mais comme la norme "UHD" a pris pas mal de temps avant d'être officialisée, certains constructeurs parlent encore de TV 4K.
Ah, je me pose une question, comment faisait t-on les images subliminales à l'époque alors ? Les téléviseurs étaient loin d'afficher ne fusse que 60 images secondes. On ne peut pas analyser plus de 2000 images/sec, impossible ! Sans parler de la persistance rétinienne en plus. Mais il est vrai qu'une 'fluidité' s'installe quand on passe au delà des 24ips, je suis d'accord.