Annonce

Réduire
Aucune annonce.

dvi vers hdmi ou hdmi vers dvi ?

Réduire
X
 
  • Filtre
  • Heure
  • Afficher
Tout nettoyer
nouveaux messages

    je cherche un cable pour relier la sortie DVI de ma carte graphique à une prise HDMI des écrans HD .

    mais tout les sites sur internet écrive HDMI ver (to) DVI , c'est pas mon écran qui doit aller vers mon pc , mais plutot la sortie DVI de ma carte graphique vers la prise HDMI de l'écran non ?
    à propos , est ce que les anciennes cartes graphiques AGP avec sortie DVI peuvent afficher de l'image sur les écrans HD ? je parle des ati et geforce de l'époque avec 128 mo et les geforce 5500 de 256 mo
    because life is too short

    Si je ne me trompe pas, le problème c'est que :
    1) le DVI n'est pas forcément HD, il existe plusieurs sorte de DVI et certains constructeurs mettent parfois du DVI analogique et pas numérique
    2) le DVI ne transmet que l'image et pas le son, donc même si tu trouve un adaptateur il te faudra transmettre le son par un autre moyen.
    Zapier

    ma chaîne Youtube live sur Twitch

    Commentaire


      Envoyé par -Nicolas- Voir le message
      1) le DVI n'est pas forcément HD, il existe plusieurs sorte de DVI et certains constructeurs mettent parfois du DVI analogique et pas numérique
      2) le DVI ne transmet que l'image et pas le son, donc même si tu trouve un adaptateur il te faudra transmettre le son par un autre moyen.
      Le DVI ne transmet pas le son, puisque c'est sur ta carte graph.... ( meme tarif avec une prise standard VGA en faite.... )
      Faut relier également ta sortie son a ta TV ( meme tarif que S-VGA-> Peritel, en gros )

      Tu feras jamais de HD avec une 5500FX de Nvidia ^^, deja la 3d+pilotes.... c'était pas terribles ....^^ )
      Dernière modification par Bernie, 24 novembre 2008, 00h05.
      http://img837.imageshack.us/img837/9808/1272723220688.gif

      Commentaire


        Ma télé est relier à mon Pc via un câble DVI (sorti PC) à HDMI (entré tv), il m'a couté moins de 40e à l'époque. Mais il existe des adaptateur DVI ADMI tout simple.

        Tiens, j'ai retrouvé le vendeur sur Ebay, il est très sérieux. C'est la que j'ai acheté le mien.



        Regarde ici aussi pour les câbles:


        Pour les vielles cartes oublis la HD. Veilles aussi à ce que ta carte graphique soit HDCP sinon le signale sera bridé!

        Commentaire


          mais alors , à quoi servait donc les sorties DVI des cartes AGP de l'époque ? il y avait meme des cartes de 32mo avec sortie DVI.

          voici une ati agp 256 mo sur ebay , dans la description , je vois HDCP etc...

          Dernière modification par Mister Aware, 23 novembre 2008, 14h17.
          because life is too short

          Commentaire


            Envoyé par Mister Aware Voir le message
            mais alors , à quoi servait donc les sorties DVI des cartes AGP de l'époque ?
            Le DVI te fait passer le signal en Numérique, alors que le VGA reste analogique. Rien à voire avec la HD.

            Il te faut tout de même un PC assez costaud pour pouvoir lire efficacement de la HD 1920x1080. Le processeur est d'ailleurs plus ou moins utilisé selon les CG.
            J'ai lu ne nombreux articles l'année dernière car j'ai construis mon PC justement à cet effet pour lire de la vidéo (et jeux si possible) sur mon 106cm fullHD. C'est assez simple finalement si tu respect le DHCP et une configuration minimum.

            Commentaire


              j'ai trouvé celle là sur ebay , elle est en AGP et lis les blu ray d'après la description

              http://cgi.ebay.com/ws/eBayISAPI.dll...m=110316429126

              voici une autre de 512 mo avec tout ce qu'il faut http://cgi.ebay.com/VIsiontek-Radeon...1%7C240%3A1318

              j'ai une vieille carte socket A 2ghz avec 3GO de ddr qui traine dans mes cartons , je vais acheter cette commander cette carte graphique sur ebay et faire un test dessus
              Dernière modification par Mister Aware, 23 novembre 2008, 20h42.
              because life is too short

              Commentaire


                Euh, faudrait un peu arrêter la désinformation là.

                Une carte avec sortie DVI peut tout à fait faire de la HD, c'est juste une question de résolution supportée (le 1280*1024, résolution de base d'un 19", c'est supérieur à du HD Ready ^^" ) . Le bridage quant à lui, n'intervient que dans la lecture de vidéo protégée, et c'est alors une question de support de pilotes. Par exemple, pour une vidéo achetée sur l'iTunes Store, un possesseur de MacBook blanc (sous OS X donc), pourra la lire sans souci sur un écran plat, via la sortie DVI. Un possesseur de MacBook Unibody, avec la sortie DisplayPort compatible HDCP, ne pourra en revanche la lire que sur un écran HDCP. Une simple question d'implémentation de la norme donc, qui ne concernent que les contenus protégés.


                Après, certains écrans ont une électronique de merde, avec interpolation foireuse, et se retrouvent avec un gros flou si la résolution n'est pas la même au poil du cul de pixel près, et je pense que c'est le souci qu'avait Zapier avec son ancienne CG : d'ailleurs, la plupart du temps, il n'y a pas de bridage en SD, mais directement un écran noir ^^
                La vie, c'est bon, mangez-en!

                Commentaire


                  En fait même avec une prise vga on peut sortir de la grosse résolution. Je me rappelle que Quake 2 proposait déjà de jouer en 1600*1200, on était assez loin de la résolution des consoles de l'époque ^^. (déjà que le 640*480 c'était au dessus de la majorité des jeux sur console)
                  http://planetemu.net/php/articles/files/image/Kimuji/planetbar(1).gif

                  Commentaire


                    Yep, sauf que le VGA c'est de l'analogique, alors que le DVI c'est du numérique, ce qui permet d'avoir des adaptateurs DVI-HDMI pas trop chers (sans parler du fait que beaucoup d'écrans ont une entrée DVI ^^)
                    La vie, c'est bon, mangez-en!

                    Commentaire


                      Envoyé par tfoth Voir le message
                      Après, certains écrans ont une électronique de merde, avec interpolation foireuse, et se retrouvent avec un gros flou si la résolution n'est pas la même au poil du cul de pixel près, et je pense que c'est le souci qu'avait Zapier avec son ancienne CG : d'ailleurs, la plupart du temps, il n'y a pas de bridage en SD, mais directement un écran noir ^^
                      Exemple.

                      Lorsque j'ai refais mon PC, j'ai acheté une Radeon X1650 pro 512. Mais surprise, lorsque je passe sur ma TV, j'ai 4 gros bande noire d'environ 2cm sur le tour de mon affichage. (maj drivers et tous types de tests effectués bien sur)

                      C'est en faisant mon enquête que j'ai pris connaissance du HDCP, et que celle ci n'était pas compatible HDCP.

                      Je revends donc celle la et me procure une Geforce 8600GT.T compatible, et la ... plus de bande noire.

                      Pourtant, avec ma X1650, je sortait bien du 1920x1080, tout comme la Geforce maintenant.

                      l'affichage en lui même n'est-il pas un flu vidéo?

                      Commentaire


                        Envoyé par tfoth Voir le message
                        Euh, faudrait un peu arrêter la désinformation là.

                        Une carte avec sortie DVI peut tout à fait faire de la HD, c'est juste une question de résolution supportée (le 1280*1024, résolution de base d'un 19", c'est supérieur à du HD Ready ^^" )
                        Attention à ne pas comparer n'importe quoi, HD Ready c'est du 16/9ème alors que 1280*1024 c'est du 4/3.

                        Commentaire


                          Envoyé par Zapier Voir le message
                          Exemple.

                          Lorsque j'ai refais mon PC, j'ai acheté une Radeon X1650 pro 512. Mais surprise, lorsque je passe sur ma TV, j'ai 4 gros bande noire d'environ 2cm sur le tour de mon affichage. (maj drivers et tous types de tests effectués bien sur)

                          C'est en faisant mon enquête que j'ai pris connaissance du HDCP, et que celle ci n'était pas compatible HDCP.

                          Je revends donc celle la et me procure une Geforce 8600GT.T compatible, et la ... plus de bande noire.

                          Pourtant, avec ma X1650, je sortait bien du 1920x1080, tout comme la Geforce maintenant.

                          l'affichage en lui même n'est-il pas un flu vidéo?
                          Au pif, tu avais un écran de PC branché en même temps, et les pilotes ATI merdaient pour le multi-écran ? Ton écran affichait-il quoi que ce soit au niveau du signal transmis ? Le pilote incluait-il un overscan ? J'en sais rien, mais il n'y a aucune raison que ce soit lié au HDCP.



                          Envoyé par Samus22 Voir le message
                          Attention à ne pas comparer n'importe quoi, HD Ready c'est du 16/9ème alors que 1280*1024 c'est du 4/3.
                          Déjà, les écrans d'ordis ne sont pas en 4/3 ou 16/9, mais en 5/4 ou en 16/10

                          Ensuite, le HD Ready c'est 720 lignes minimum (sans contraintes sur la largeur au niveau nombre de pixels), et la capacité à afficher une source en 720p ou 1080i en l'adaptant à l'écran.

                          Le 720p, c'est du 1280*720, soit 304 lignes de moins que le 1280*1024. Voilà ce que je compare ^^. Bref, du 720p est affichable au pixel près sur un 19" cathodique de 1999** branché en VGA, ce qui n'est pas le cas sur tous les écrans HD Ready (puisqu'on peut faire du HD Ready avec du 1024*720)





                          **hors conversions numériques-analogiques, si on joue à enculer les mouches
                          La vie, c'est bon, mangez-en!

                          Commentaire


                            Envoyé par tfoth Voir le message
                            Au pif, tu avais un écran de PC branché en même temps, et les pilotes ATI merdaient pour le multi-écran ? Ton écran affichait-il quoi que ce soit au niveau du signal transmis ? Le pilote incluait-il un overscan ? J'en sais rien, mais il n'y a aucune raison que ce soit lié au HDCP.
                            Même en écran principale il y avait les bandes, j'ai utilisé plusieurs version du Catalyst.
                            Peux être à tu raison, tes remarques me font douté forcément, mais vu tout les essais, seul le changement de carte à résolu mon problème, donc je doute.
                            Je vais demander à la personne à qui j'ai revendu la carte, il me semble qu'il s'est acheter un Sony en full.

                            Commentaire


                              ou là là ! que de termes techniques , j'espère que ceux qui nous imposent toutes ces normes video ont pensé à éditer un petit manuel explicatif .
                              on a aujourd'hui la HD à toutes les sauces : dépliants auchans ,carrefour , les slogans publicitaire pour les forfaits internet ,full hd ,hd ready ,tnt hd ... cawrèmba


                              en fait ce que je voulais c'étais relier mon pc à un moniteur d'ordi lcd via la sortie DVI ,et non à une tv plasma , et m'acheter un lecteur blu ray sata pour visionner les films sur mon moniteur pc
                              Dernière modification par Mister Aware, 24 novembre 2008, 18h26.
                              because life is too short

                              Commentaire

                              Chargement...
                              X