Android

Näytönohjain - kaikki mitä sinun tarvitsee tietää

Sisällysluettelo:

Anonim

Pelikoneiden aikakaudella näytönohjain on saanut yhtä paljon tai melkein enemmän merkitystä kuin CPU. Itse asiassa monet käyttäjät välttävät ostamasta tehokkaita suorittimia sijoittaakseen rahaa tähän tärkeään komponenttiin, joka on vastuussa kaiken, joka liittyy tekstuurien ja grafiikan kanssa. Mutta kuinka paljon tiedät tästä laitteistosta? Tässä selitämme kaiken, tai jotain vähemmän kaikkea, mitä pidämme tärkeimpänä.

Sisällysluettelo

Näytönohjain ja peliaika

Epäilemättä käytetyin termi GPU-viittauksiin on näytönohjain, vaikka se ei ole täsmälleen sama ja selitämme sen. GPU tai grafiikan prosessointiyksikkö on periaatteessa prosessori, joka on rakennettu käsittelemään grafiikkaa. Termi kuulostaa tietysti hyvin samanlaiselta kuin CPU, joten on tärkeää erottaa nämä kaksi elementtiä toisistaan.

Kun puhumme näytönohjaimesta, puhumme todella fyysisestä komponentista. Tämä on rakennettu emolevystä riippumattomasta piirilevystä ja varustettu liittimellä, yleensä PCI-Express, jolla se liitetään itse emolevyyn. Tälle piirilevylle on asennettu GPU ja graafinen muisti tai VRAM yhdessä komponenttien, kuten VRM: n, liitäntäporttien ja jäähdytyselementin kanssa tuulettimien kanssa.

Peliä ei olisi, jos se ei olisi näytönohjaimia, varsinkin jos puhutaan tietokoneista tai tietokoneista. Aluksi kaikki tietävät, että tietokoneilla ei ollut graafista käyttöliittymää, meillä oli vain musta näyttö, jossa oli kehotus komentojen kirjoittamiseen. Nämä perustoiminnot eivät ole kaukana nyt pelaamisajasta, jossa meillä on laitteet, joilla on täydellinen graafinen käyttöliittymä ja valtavat resoluutiot, joiden avulla voimme käsitellä ympäristöjä ja merkkejä melkein kuin todellisessa elämässä.

Miksi erottaa GPU ja CPU

Jotta voidaan puhua omilla näytönohjaimilta, meidän on ensin tiedettävä, mitä ne tuovat meille ja miksi ne ovat niin tärkeitä tänään. Tänään emme voineet ajatella pelitietokonetta ilman fyysisesti erillistä CPU: ta ja GPU: ta.

Mitä suoritin tekee?

Täällä meillä on se melko yksinkertainen, koska me kaikki voimme saada kuvan siitä, mitä mikroprosessori tekee tietokoneella. Se on keskusyksikkö, jonka läpi kaikki ohjelmien generoimat ohjeet ja suuri osa oheislaitteiden ja käyttäjän lähettämistä ohjeista kulkevat läpi. Ohjelmat muodostuvat peräkkäisistä ohjeista, jotka suoritetaan vastauksen generoimiseksi syöttöstimulaation perusteella, se voi olla yksinkertainen napsautus, komento tai itse käyttöjärjestelmä.

Nyt tulee yksityiskohta, joka meidän on muistettava, kun näemme, mikä GPU on. Prosessori koostuu ytimistä ja voidaan sanoa suuren koon. Jokainen heistä pystyy suorittamaan yhden käskyn toisensa jälkeen, sitä enemmän ytimiä, koska useampia käskyjä voidaan suorittaa samanaikaisesti. PC: llä on monentyyppisiä ohjelmia ja monentyyppisiä ohjeita, jotka ovat erittäin monimutkaisia ​​ja jaettu useisiin vaiheisiin. Mutta totuus on, että ohjelma ei tuota suurta määrää näitä ohjeita samanaikaisesti. Kuinka voimme varmistaa, että suoritin “ymmärtää” asennetun ohjelman? Tarvitsemme muutama ydin, erittäin monimutkainen, ja ne ovat erittäin nopeita suorittamaan ohjeet nopeasti, joten huomaamme, että ohjelma on juokseva ja vastaa siihen, mitä pyydämme.

Nämä perusohjeet on pelkistetty matemaattisiin toimiin kokonaislukuilla, loogisiin operaatioihin ja myös joihinkin liukulukuoperaatioihin. Viimeksi mainitut ovat monimutkaisimpia, koska ne ovat erittäin suuria reaalilukuja, jotka on esitettävä pienemmissä osissa tieteellistä merkintää käyttämällä. CPU: n tukena on RAM, nopea tallennustila, joka tallentaa käynnissä olevat ohjelmat ja niiden ohjeet lähettämään ne 64-bittisen väylän kautta CPU: lle.

Ja mitä GPU tekee

Juuri GPU liittyy läheisesti näihin liukulukko-operaatioihin, joista olemme puhuneet aiemmin. Itse asiassa graafinen prosessori viettää käytännössä kaiken aikansa suorittamalla tämän tyyppisiä toimintoja, koska niillä on paljon tekemistä graafisten ohjeiden kanssa. Tästä syystä sitä kutsutaan usein matemaattiseksi yhteisprosessoriksi, itse asiassa CPU: lla on yksi, mutta paljon yksinkertaisempi kuin GPU.

Mistä peli on tehty? Periaatteessa pikselin liike graafisen moottorin ansiosta. Se ei ole muuta kuin ohjelma, joka keskittyy jäljittelemään digitaalista ympäristöä tai maailmaa, jossa liikumme ikään kuin se olisi meidän omaamme. Näissä ohjelmissa suurin osa ohjeista liittyy pikseliin ja niiden liikkeeseen tekstuurien muodostamiseksi. Näillä tekstuurilla on puolestaan väri, 3D-tilavuus ja valon heijastuksen fysikaaliset ominaisuudet. Kaikki tämä on pohjimmiltaan liukulukulaskutoimintoja matriiseilla ja geometrioilla, jotka on tehtävä samanaikaisesti.

Siksi GPU: lla ei ole 4 tai 6 ydintä, mutta niitä on tuhansia, jotta ne voivat suorittaa kaikki nämä erityiset toiminnot samanaikaisesti uudestaan ​​ja uudestaan. Toki nämä ytimet eivät ole niin "älykkäitä" kuin CPU-ytimet, mutta ne voivat tehdä paljon enemmän tämän tyyppisiä toimintoja kerralla. GPU: lla on myös oma muisti, GRAM, joka on paljon nopeampi kuin normaali RAM. Siinä on paljon suurempi väylä, välillä 128 - 256 bittiä lähettämään paljon enemmän ohjeita GPU: lle.

Jatkamme linkitetyssä videossa myyttilästäjät jäljittelevät CPU: n ja GPU: n toimintaa ja niiden ytimien määrää kuvan kuvan maalaamisen yhteydessä.

youtu.be/-P28LKWTzrI

Mitä prosessori ja GPU tekevät yhdessä

Tässä vaiheessa olet ehkä jo ajatellut, että pelitietokoneissa CPU vaikuttaa myös pelin ja sen FPS: n lopulliseen suorituskykyyn. On selvää, että CPU: n vastuulla on monia ohjeita.

CPU on vastuussa datan lähettämisestä kärkien muodossa GPU: lle, niin että se "ymmärtää" mitä fyysisiä muutoksia (liikkeitä) sen on tehtävä tekstuuriin. Tätä kutsutaan Vertex Shaderiksi tai liikefysiikkaksi. Tämän jälkeen GPU saa tiedon siitä, mitkä näistä kärkipisteistä ovat näkyvissä, tekemällä ns. Pikselileikkauksen rasteroimalla. Kun tiedämme jo muodon ja sen liikkeen, on aika soveltaa kuvioita Full HD-, UHD- tai missä tahansa resoluutiossa ja niiden vastaavia vaikutuksia, se olisi Pixel Shader -prosessi .

Samasta syystä: mitä enemmän tehoa prosessorilla on, sitä enemmän huippukäskyjä voi lähettää GPU: lle, ja sitä paremmin se lukitsee sen. Joten keskeinen ero näiden kahden elementin välillä on erikoistumisen tasossa ja samansuuntaisuusasemassa GPU: n prosessoinnissa.

Mikä on APU?

Olemme jo nähneet, mikä on GPU ja sen toiminta tietokoneessa, sekä suhde prosessoriin. Mutta se ei ole ainoa olemassa oleva elementti, joka pystyy käsittelemään 3D-grafiikkaa, ja siksi meillä on APU tai nopeutettu prosessoriyksikkö.

AMD keksi tämän termin nimittääkseen prosessoreitaan GPU: lla, joka on integroitu samaan pakettiin. Tämä tarkoittaa todellakin sitä, että prosessorin sisällä meillä on siru tai paremmin sanottuna useista ytimistä koostuva piirisarja, joka pystyy toimimaan 3D-grafiikan kanssa samalla tavalla kuin näytönohjain. Itse asiassa monilla nykypäivän prosessoreilla on tämän tyyppinen prosessori, nimeltään IGP (Integrated Graphics Processor).

Mutta tietysti ennakolta emme voi verrata näytönohjaimen suorituskykyä tuhansien sisäisten ytimien kanssa itse suorittimeen integroidulla IGP: llä. Joten sen prosessointikapasiteetti on bruttovoiman suhteen edelleen paljon pienempi. Tähän lisätään se tosiasia, että erillistä muistia ei ole niin nopeasti kuin näytönohjaimien GDDR, joten riittää osaa RAM-muistista sen graafiseen hallintaan.

Kutsumme itsenäisiä näytönohjaimia erillisiksi näytönohjaimiksi, kun taas IGP: n sisäisiä näytönohjaimia. Intel Core ix -prosessoreissa on melkein kaikissa integroitu GPU, nimeltään Intel HD / UHD Graphics, paitsi mallit, joiden lopussa on "F". AMD tekee saman joillekin prosessoreilleen, erityisesti Ryzen of G -sarjaan ja Athloniin, grafiikoilla nimeltään Radeon RX Vega 11 ja Radeon Vega 8.

Hieman historiaa

Kaukana ovat vanhat vain tekstiä sisältävät tietokoneet, joita meillä on nyt, mutta jos jotain on ollut läsnä kaikissa ikäryhmissä, on halu luoda yhä yksityiskohtaisempia virtuaalimaailmia upottaaksemme sisällemme.

Ensimmäisissä kuluttajalaitteissa, joissa oli Intel 4004, 8008 ja yrityksen prosessorit, meillä oli jo näytönohjaimia tai jotain vastaavaa. Ne rajoittuivat vain koodin tulkintaan ja sen näyttämiseen näytöllä selkeän tekstin muodossa, jossa oli noin 40 tai 80 saraketta, ja tietysti yksivärinä. Itse asiassa ensimmäistä näytönohjainta kutsuttiin MDA (Monocrome Data Adapter). Sillä oli oma vähintään 4 kt: n RAM-muisti täydellisen grafiikan tuottamiseksi selkeän tekstin muodossa 80 × 25 -sarakkeissa.

Tämän jälkeen tuli CGA (Color Graphics Adapter) -näytönohjain, vuonna 1981 IBM aloitti ensimmäisen värillisen näytönohjaimen markkinoinnin. Se kykeni tuottamaan 4 väriä samanaikaisesti sisäisestä 16-paletista resoluutiolla 320 × 200. Tekstitilassa se pystyi nostamaan tarkkuuden 80 × 25 sarakkeeseen tai mikä on yhtä suuri kuin 640 × 200.

Jatkamme eteenpäin, HGC- tai Hercules-näytönohjaimella, nimi lupaa! Yksivärinen kortti, joka nosti erottelutarkkuuden 720 × 348 ja pystyi toimimaan CGA: n rinnalla jopa kahdella eri videolähdöllä.

Hyppää kortteihin, joissa on rikas grafiikka

Tai pikemminkin EGA, vuonna 1984 luotu Enhanced Graphics Adapter. Tämä oli ensimmäinen näytönohjain, joka kykeni käsittelemään 16 väriä ja resoluutiota 720 × 540 ATI Technologies -malleihin, kuulostaako se sinulle tutulta, eikö?

Vuonna 1987 tuotetaan uusi resoluutio, ja ISA- videoliittimestä luovutaan ottamaan käyttöön VGA (Video Graphics Array) -portti, jota kutsutaan myös Sub15-D: ksi, analoginen sarjaportti, jota on käytetty viime aikoihin asti CRT: hen ja jopa paneeleihin. TFT. Uusien näytönohjainten väripaletti nousi 256: een ja VRAM-muistin 256 kt: iin. Tänä aikana tietokonepelit alkoivat kehittyä paljon monimutkaisemmiksi.

Se oli vuonna 1989, kun näytönohjaimet lakkasivat käyttämästä väripaletteja ja alkoivat käyttää värisyvyyttä. Kun VESA-standardi oli yhteys emolevyyn, väylä laajennettiin 32 bittiin, joten ne pystyivät toimimaan jo useilla miljoonilla väreillä ja resoluutiolla 1024x768p jopa SuperVGA-portin sisältävien näyttöjen ansiosta. Niinkin ikoniset kortit kuin ATI Match 32 tai Match 64, jossa on 64-bittinen käyttöliittymä, olivat ajan parhaita.

PCI-paikka saapuu ja sen mukana vallankumous

VESA-standardi oli helvetin iso linja-auto, joten vuonna 1993 se kehittyi PCI-standardiksi, sellaiseksi, joka meillä on tänään eri sukupolviensa kanssa. Tämä antoi meille mahdollisuuden pienempiin kortteihin, ja monet valmistajat liittyivät juhliin, kuten Creative, Matrox, 3dfx Voodoo- ja Voodoo 2 -laitteillaan, sekä yksi Nvidia ensimmäisillä RIVA TNT- ja TNT2-malleillaan, jotka julkaistiin vuonna 1998. Tuolloin ilmestyivät ensimmäiset erityiset 3D-kiihdytyksen kirjastot, kuten Microsoftin DirectX ja Silicon Graphics OpenGL.

Pian PCI-väylä tuli liian pieneksi, korteilla, jotka kykenevät käsittelemään 16 bittiä ja 3D-grafiikkaa resoluutiolla 800x600p, joten AGP (Advanced Graphics Port) -väylä luotiin. Tällä väylällä oli 32-bittinen PCI-tyyppinen käyttöliittymä, mutta lisäten väylää 8 lisäkanavalla kommunikoidakseen RAM: n kanssa nopeammin. Sen väylä toimi 66 MHz: n ja 256 Mbps: n kaistanleveydellä. Enintään 8 versiota (AGP x8) saavutti jopa 2, 1 Gt / s ja joka korvataan vuonna 2004 PCIe-väylällä.

Täällä olemme jo erittäin vakiinnuttaneet kaksi suurta 3D-näytönohjainta valmistavaa yritystä, kuten Nvidia ja ATI. Yksi ensimmäisistä uuden aikakauden korteista oli Nvidia GeForce 256, joka toteutti T&L -tekniikan (valaistus- ja geometrialaskelmat). Sitten sijoitus kilpailijoidensa yläpuolelle, koska se on ensimmäinen 3D-monikulmagrafiikan kiihdytin ja Direct3D-yhteensopiva. Pian sen jälkeen ATI julkaisi ensimmäisen Radeoninsa, muokkaamalla siten molempien valmistajien nimi sen nykyisille peleille tarkoitettuihin näytönohjaimiin, jopa sen jälkeen, kun AMD on ostanut ATI: n.

PCI Express -väylä ja nykyiset näytönohjaimet

Ja lopulta tulemme näytönohjainten nykyiseen aikakauteen, jolloin VGA-käyttöliittymä ei toiminut enää vuonna 2004 ja sen tilalle tuli PCI-Express. Tämä uusi väylä mahdollisti jopa 4 Gt / s siirrot sekä ylös että alas samanaikaisesti (250 Mt x16 kaistaa). Alun perin se liitettäisiin emolevyn pohjoiseen siltaan ja käyttäisi osaa RAM-muistista videoihin, nimellä TurboCaché tai HyperMemory. Mutta myöhemmin sisällyttämällä pohjoissilta itse prosessoriin, nämä 16 PCIe-kaistaa siirtyisivät suoraan yhteyteen CPU: n kanssa.

ATI Radeon HD: n ja Nvidia GeForcen aikakausi alkoi, ja siitä tuli markkinoiden johtavien tietokoneiden peligrafiikkakorttien edustajia. Nvidia siirtyi pian johtoon GeForce 6800: lla, joka tukee DirectX 9.0c: tä versiota ATI Radeon X850 Pron kanssa, joka oli vähän jäljessä. Tämän jälkeen molemmat tuotemerkit kehittivät yhtenäistä shader-arkkitehtuuria Radeon HD 2000: n ja GeForce 8 -sarjojensa kanssa. Itse asiassa voimakas Nvidia GeForce 8800 GTX oli yksi sukupolvensa tehokkaimmista korteista ja jopa sen jälkeisistä korteista, mikä oli Nvidian lopullinen harppaus ylivaltaan. Vuonna 2006 AMD osti ATI: n ja heidän korttinsa nimettiin uudelleen AMD Radeoniksi.

Lopuksi seisomme korteilla, jotka ovat yhteensopivia DirectX 12-, Open GL 4.5 / 4.6 -kirjastojen kanssa, joista ensimmäinen on Nvidia GTX 680 ja AMD Radeon HD 7000. Molemmilta valmistajilta on peräkkäisiä sukupolvia, Nvidian tapauksessa meillä on Maxwell (GeForce 900), Pascal (GeForce 10) ja Turing (Geforce 20) arkkitehtuurit, kun taas AMD: llä on Polaris (Radeon RX), GCN (Radeon Vega) ja nyt RDNA (Radeon RX 5000).

Näytönohjaimen osat ja laitteistot

Aiomme nähdä näytönohjaimen pääosat tunnistaaksemme, mitä elementtejä ja tekniikoita meidän on tiedettävä ostettaessa. Tietenkin tekniikka edistyy paljon, joten päivitämme asteittain täällä näkemämme.

Piirisarja tai GPU

Tiedämme jo melko hyvin, mikä on kortin grafiikkaprosessorin tehtävä, mutta on tärkeää tietää, mikä meillä on sisällä. Se on sen ydin, ja sisällä olemme löytäneet valtavan määrän ytimiä, jotka vastaavat erilaisten toimintojen suorittamisesta, erityisesti Nvidian nykyisellä arkkitehtuurilla. Sisältä löydämme vastaavat sirut ja välimuistin, joka liittyy siruun, jolla on normaalisti L1 ja L2.

Nvidia GPU: n sisällä löydämme CUDA- tai CUDA-ytimet, jotka vastaavat niin sanotusti yleisten liukulukulaskelmien suorittamisesta. Näitä AMD-korttien ytimiä kutsutaan stream-prosessoreiksi. Sama määrä eri valmistajien korteissa ei tarkoita samaa kapasiteettia, koska nämä riippuvat arkkitehtuurista.

Nvidiassa on myös Tensor-ytimiä ja RT-ytimiä. Nämä ytimet on tarkoitettu prosessorille, jolla on monimutkaisempia ohjeita reaaliaikaisesta säteen jäljityksestä, joka on yksi valmistajan uuden sukupolven korttien tärkeimmistä ominaisuuksista.

GRAM-muisti

GRAM-muisti toimii käytännöllisesti katsoen samalla tavalla kuin tietokoneemme RAM-muisti, ja tallentaa tekstuurit ja elementit, jotka aiotaan käsitellä GPU: ssa. Lisäksi löydämme erittäin suuria kapasiteetteja, ja nykyään melkein kaikissa huippuluokan näytönohjaimissa on yli 6 Gt.

Se on DDR-tyyppinen muisti, samoin kuin RAM, joten sen efektiivinen taajuus on aina kaksinkertainen kellotaajuuteen, mikä on pidettävä mielessä, kun kyse on ylikellotuksesta ja erittelytiedoista. Tällä hetkellä suurin osa korteista käyttää GDDR6-tekniikkaa, jos kuten kuulet, DDR6, kun taas normaalissa RAM-muistissa ne ovat DDR4. Nämä muistit ovat paljon nopeampia kuin DDR4, ja niiden taajuudet ovat jopa 14 000 MHz (14 Gbps) tehokkaasti kellalla 7 000 MHz: llä. Lisäksi niiden väylänleveys on paljon suurempi, toisinaan saavuttaen 384 bittiä Nvidialla huippuluokka.

Mutta on vielä toinen muisti, jota AMD on käyttänyt Radeon VII -laitteeseensa HBM2: n tapauksessa. Tämä muisti ei ole niin suuri nopeus kuin GDDR6, mutta tarjoaa sen sijaan brutaalin väylänleveyden, joka on jopa 2048 bittiä.

VRM ja TDP

VRM on elementti, joka vastaa energian toimittamisesta näytönohjaimen kaikille komponenteille, erityisesti GPU: lle ja sen GRAM-muistille. Se koostuu samoista elementeistä kuin emolevyn VRM, sen MOSFETS toimii DC-DC- virran tasasuuntaajina, sen kuristimet ja kondensaattorit. Samoin nämä vaiheet on jaettu V_core: iin ja V-SoC: iin GPU: ta ja muistia varten.

TDP-puolella se tarkoittaa myös täsmälleen samaa kuin CPU: lla. Kyse ei ole prosessorin käyttämästä virrasta, vaan lämmön muodossa olevasta virrasta, joka tuottaa suurimman käyttökuorman.

Kortin virran saamiseksi tarvitsemme virtaliittimen. Nykyisin korteissa käytetään 6 + 2-nastaista kokoonpanoa, koska PCIe-paikka itsessään pystyy toimittamaan vain enintään 75 W, kun taas GPU voi kuluttaa yli 200 W.

Yhteysrajapinta

Liitäntärajapinta on tapa kytkeä näytönohjain emolevyyn. Tällä hetkellä ehdottomasti kaikki erilliset näytönohjaimet toimivat PCI-Express 3.0 -väylän kautta, paitsi uudet AMD Radeon XR 5000 -kortit, jotka on päivitetty PCIe 4.0 -väylään.

Käytännöllisissä tarkoituksissa emme huomaa mitään eroa, koska tällä 16-linjaisella väylällä parhaillaan vaihdettava tiedon määrä on paljon pienempi kuin sen kapasiteetti. Uteliaisuuden vuoksi PCIe 3.0 x16 pystyy siirtämään 15, 8 Gt / s ylös ja alas samanaikaisesti, kun taas PCIe 4.0 x16 kaksinkertaistaa kapasiteetin 31, 5 Gt / s. Pian kaikki GPU: t ovat PCIe 4.0 - tämä on selvää. Meidän ei tarvitse huolehtia PCIe 4.0 -kortin ja 3.0-kortin käytöstä, koska standardi tarjoaa aina taaksepäin yhteensopivuuden.

Videoportit

Viimeisenä, mutta ei vähäisimpänä, meillä on videoliittimet, ne, jotka meidän on kytkettävä monitoriin tai näytöihin ja saadaksesi kuvan. Nykyisillä markkinoilla meillä on neljä videoyhteyttä:

  • HDMI: High-Definition Multimedia Interface on viestintästandardi pakkaamattomille kuva- ja ääni multimedialaitteille. HDMI-versio vaikuttaa kuvankapasiteettiin, jonka voimme saada näytönohjaimelta. Uusin versio on HDMI 2.1, joka tarjoaa enintään 10 K erottelutarkkuuden, toistaen 4 K 120 Hz: llä ja 8 K 60 Hz: llä. Vaikka versio 2.0 tarjoaa 4K @ 60Hz 8 bittiä. DisplayPort: Se on myös sarjarajapinta pakkaamattomalla äänellä ja kuvalla. Kuten aikaisemmin, tämän portin versio on erittäin tärkeä, ja tarvitsemme sen olevan vähintään 1, 4, koska tällä versiolla on tuki sisällön toistamiseen 8K: n taajuudella 60 Hz ja 4K: n taajuudella 120 Hz: n vähintään 30 bitillä. ja HDR: ssä. Epäilemättä paras tänään. USB-C: USB Type-C tavoittaa yhä useampia laitteita, koska se on nopea ja integroitu liitäntöihin, kuten DisplayPort ja Thunderbolt 3, nopeudella 40 Gbps. Tässä USB: ssä on DisplayPort-vaihtoehtoinen tila, joka on DisplayPort 1.3, tuella kuvien näyttämiseen 4K: n tarkkuudella 60 Hz: llä. Samoin Thunderbolt 3 pystyy toistamaan sisältöä UHD: ssä samoissa olosuhteissa. DVI: On epätodennäköistä, että liitintä löydettäisiin nykyisistä näytöistä, koska VGA on kehittynyt teräväpiirtosignaaliksi. Jos voimme välttää sen, paremmin kuin paremmin, yleisin on DVI-DL.

Kuinka tehokas näytönohjain on

Näytönohjaimen tehoon viittaamiseksi on tiedettävä joitain käsitteitä, jotka yleensä ilmenevät sen teknisistä tiedoista ja vertailuarvoista. Tämä on paras tapa tietää perusteellisesti näytönohjain, jonka haluamme ostaa, ja osata myös verrata sitä kilpailuun.

FPS-nopeus

FPS on kehysnopeus tai kehykset sekunnissa. Se mittaa taajuutta, jolla näyttö näyttää videon, pelin tai sen kuvan. FPS: llä on paljon tekemistä kuvan liikkeen havaitsemisen kanssa. Mitä enemmän FPS: ää, sitä nestemäisempi kuva kuvan antaa. Nopeudella 60 FPS tai enemmän, ihmisen silmä normaalissa olosuhteissa arvostaa täysin nestemäisen kuvan, joka simuloisi todellisuutta.

Mutta kaikki ei tietenkään riipu näytönohjaimesta, koska näytön virkistystaajuus merkitsee näkemämme FPS: n. FPS on sama kuin Hz, ja jos näyttö on 50 Hz, peliä katsotaan korkeintaan 60 FPS, vaikka GPU pystyy toistamaan sitä 100 tai 200 FPS. Jotta tiedämme, mikä olisi suurin FPS-nopeus, jota GPU pystyy esittämään, meidän on poistettava pystysynkronointi pelin vaihtoehdoista.

GPU: n arkkitehtuuri

Ennen kuin olemme huomanneet, että GPU: issa on tietty määrä fyysisiä ytimiä, jotka voivat johtaa meihin ajattelemaan, että mitä enemmän, sitä parempaa suorituskykyä se tuo meille. Mutta tämä ei ole tarkalleen niin, koska kuten CPU-arkkitehtuurissakin, suorituskyky vaihtelee jopa samalla nopeudella ja samoilla ytimillä. Kutsumme tätä IPC: ksi tai ohjeiksi sykliä kohti.

Näytönohjainten arkkitehtuuri on kehittynyt ajan myötä yksinkertaisesti mahtaviksi esityksiksi. Ne kykenevät tukemaan 4K: n resoluutioita yli 60 Hz: n tai jopa 8K: n resoluutioita. Mutta mikä tärkeintä, se on sen suuri kyky animoida ja tehdä kuvioita valolla reaaliajassa, aivan kuten silmämme tekevät tosielämässä.

Tällä hetkellä meillä on Nvidia sen Turing-arkkitehtuurilla, joka käyttää 12nm FinFET-transistoreita rakentamaan uuden RTX-piirisarjat. Tällä arkkitehtuurilla on kaksi erotuselementtiä, joita ei tähän mennessä ole ollut kuluttajalaitteissa, Ray Tracing -ominaisuus reaaliajassa ja DLSS (Deep Learning Super Sampling). Ensimmäinen toiminto yrittää simuloida todellisessa maailmassa tapahtuvaa, laskemalla kuinka valo vaikuttaa virtuaalikohteisiin reaaliajassa. Toinen on sarja keinotekoisen älykkyyden algoritmeja, joiden avulla kortti tuottaa tekstuurit pienemmällä tarkkuudella pelin suorituskyvyn optimoimiseksi, se on kuin eräänlainen antialiasointi. Ihanteellinen on yhdistää DLSS ja Ray Tracing.

AMD: n toimesta se on myös julkaissut arkkitehtuurin, vaikka on totta, että se esiintyy samanaikaisesti välittömästi aiempien kanssa, ja sillä on laaja valikoima kortteja, jotka, vaikka ovatkin totta, eivät ole Nvidian huippuluokan tasolla. RDNA: n avulla AMD on lisännyt GPU: jensa IPC: tä 25% verrattuna CNG-arkkitehtuuriin, saavuttaen siten 50% enemmän nopeutta kullekin kulutetulle watille.

Kellotaajuus ja turbo-tila

Arkkitehtuurin ohella kaksi parametria ovat erittäin tärkeitä GPU: n suorituskyvyn näyttämiseksi, jotka ovat sen peruskellotaajuuden ja tehtaan turbo- tai ylikellotustilan nousun parametrit. Kuten CPU: t, myös GPU: t pystyvät muuttamaan grafiikan prosessointitaajuuttaan tarpeen mukaan milloin tahansa.

Jos katsot, näytönohjaimien taajuudet ovat paljon alhaisemmat kuin prosessorien, noin 1600–2000 MHz. Tämä johtuu siitä, että enemmän ytimiä tarvitsee suuremman taajuuden kortin TDP: n hallitsemiseksi.

Tässä vaiheessa on välttämätöntä tietää, että markkinoilla on referenssimalleja ja henkilökohtaisia ​​kortteja. Ensimmäiset ovat valmistajien itse julkaisemat mallit, Nvidia ja AMD. Toiseksi, valmistajat käyttävät yleensä GPU: ita ja muistoja kootakseen omat korkeamman suorituskyvyn komponentit ja jäähdytyselementit. Tapaus on, että myös sen kellotaajuus muuttuu, ja nämä mallit ovat yleensä nopeampia kuin vertailumallit.

Tflops

Kellotaajuuden ohella meillä on FLOPS (kelluvien pisteiden operaatiot sekunnissa). Tämä arvo mittaa liukulukuoperaatiot, jotka prosessori pystyy suorittamaan yhdessä sekunnissa. Se on luku, joka mittaa GPU: n ja myös CPU: n bruttotehoa. Tällä hetkellä emme voi vain puhua FLOSP: sta, olleen TeraFLOPS tai TFLOPS.

Meidän ei pidä sekoittaa ajattelemaan, että lisää TFLOPS tarkoittaa näytönohjaimesi parempaa. Näin on yleensä, koska tekstuurien pitäisi voida liikkua vapaammin. Mutta muut elementit, kuten muistin määrä, nopeus ja GPU: n ja sen välimuistin arkkitehtuuri, tekevät eron.

TMU: t ja ROP: t

Nämä ovat termejä, jotka ilmestyvät kaikkiin näytönohjaimiin, ja ne antavat meille hyvän kuvan saman työnopeudesta.

TMU tarkoittaa Texture Mapping Unit. Tämä elementti vastaa bittikarttakuvan mitoittamisesta, kääntämisestä ja vääristämisestä sen sijoittamiseksi 3D-malliin, joka toimii tekstuurina. Toisin sanoen, se käyttää värikarttaa 3D-esineeseen, joka on ennalta tyhjä. Mitä enemmän TMU: ta, sitä korkeampi teksturointiteho on, sitä nopeammin pikselit täyttyvät ja sitä enemmän FPS: ää saamme. Nykyiset TMU: t sisältävät tekstuurisuuntayksiköt (TA) ja tekstuurisuodatinyksiköt (TF).

Nyt käännymme katsomaan ROP-yksiköitä tai raster-yksiköitä. Nämä yksiköt käsittelevät VRAM-muistin texel-informaatiota ja suorittavat matriisi- ja vektoritoiminnot pikselille lopullisen arvon saamiseksi, joka on sen syvyys. Tätä kutsutaan rasterointiin, ja pohjimmiltaan muistissa olevien pikseliarvojen antialiasoinnin tai yhdistämisen hallintaa. DLSS on tarkalleen tämän prosessin kehitys, jota luodaan

Muistin määrä, kaistanleveys ja väylän leveys

Tiedämme, että VRAM-muistiin on olemassa erityyppisiä tekniikoita, joista tällä hetkellä eniten käytettyjä ovat GDDR5 ja GDDR6, viimeksi mainitun nopeudella jopa 14 Gbps. Kuten RAM: lla, mitä enemmän muistia, sitä enemmän pikseliä, tekstiä ja tekstitietoja voimme tallentaa. Tämä vaikuttaa suuresti resoluutiollemme, jolla pelaamme, yksityiskohtaisuustasoon maailmassa ja katseluetäisyyteen. Tällä hetkellä näytönohjain tarvitsee vähintään 4 Gt VRAM-muistia voidakseen työskennellä uuden sukupolven peleillä Full HD: llä ja suuremmalla resoluutiolla.

Muistiväylän leveys edustaa niiden bittien lukumäärää, jotka voidaan lähettää sanalla tai käskyllä. Nämä ovat paljon pidempiä kuin CPU: t, ja niiden pituudet ovat 192 - 384 bittiä. Muistakaamme käsitteen rinnakkaisuus prosessoinnissa.

Muistin kaistanleveys on tiedon määrä, joka voidaan siirtää aikayksikköä kohti ja joka mitataan GB / s. Mitä suurempi väylän leveys ja mitä suurempi muistitaajuus, sitä enemmän kaistaleveyttä meillä on, koska sitä suurempi tiedon määrä voi kulkea sen läpi. Se on aivan kuten Internet.

API-yhteensopivuus

API on periaatteessa joukko kirjastoja, joita käytetään kehittämään ja työskentelemään erilaisten sovellusten kanssa. Se tarkoittaa sovellusohjelmointia ja on keino, jolla eri sovellukset kommunikoivat keskenään.

Jos siirrymme multimediamaailmaan, meillä on myös sovellusliittymiä, jotka sallivat pelien ja videoiden toiminnan ja luomisen. Tunnetuin kaikista on DirectX, joka on ollut 12. versio vuodesta 2014, ja uusimmissa päivityksissä se on toteuttanut Ray Tracing-, ohjelmoitavat MSAA- ja virtuaalitodellisuusominaisuudet. Avoimen lähdekoodin versio on OpenGL, joka on versio 4.5 ja jota käytetään myös monissa peleissä. Viimeinkin meillä on Vulkan, API, joka on kehitetty erityisesti AMD: lle (sen lähdekoodi oli AMD: ltä ja se siirrettiin Khronosiin).

Ylikellotuskyky

Ennen kuin puhuimme GPU: n turbotaajuudesta, mutta on myös mahdollista nostaa sitä rajojensa yläpuolelle ylikellottamalla. Tämä käytäntö on periaatteessa yrittää löytää enemmän FPS peleistä, sujuvammin parantaa vastauksemme.

Prosessorien ylikellotuskapasiteetti on noin 100 tai 150 MHz, vaikka jotkut pystyvät tukemaan jotain enemmän tai jotain vähemmän, niiden arkkitehtuurista ja maksimitaajuudesta riippuen.

Mutta on myös mahdollista ohittaa GDDR-muistit ja myös paljon. Keskimääräinen GDDR6-muisti, joka toimii 7000 MHz: llä, tukee jopa 900 ja 1000 MHz: n latauksia, saavuttaen siten jopa 16 Gbps: n tehokkuuden. Itse asiassa se elementti, joka lisää pelin FPS-nopeutta eniten, jopa 15 FPS: n lisäyksellä.

Yksi parhaimmista ylikellotusohjelmista ovat Evga Precision X1, MSI AfterBurner ja AMD WattMan for Radeons. Vaikka monilla valmistajilla on omat, kuten AORUS, Colorful, Asus jne.

Näytönohjaimen testivertailut

Vertailuarvot ovat stressi- ja suorituskykytestejä, jotka tietyt PC: n laitteiston lisäykset suoritetaan arvioimaan ja vertaamaan niiden suorituskykyä muihin markkinoilla oleviin tuotteisiin. Tietenkin on vertailuarvoja näytönohjainten ja jopa grafiikka-CPU-sarjojen suorituskyvyn arvioimiseksi.

Nämä testit osoittavat melkein aina ulottumattoman pisteet, ts. Sen voi ostaa vain kyseisen ohjelman tuottaman kanssa. Vastakkaisella puolella olisi FPS ja esimerkiksi TFLOPS. Grafiikkakortin vertailuarvoihin eniten käytettyjä ohjelmia ovat 3DMark, jossa on paljon erilaisia ​​testejä, PassMark, VRMark tai GeekBench. Heillä kaikilla on oma tilastotaulukko ostaaksesi GPU: n kilpailun mukana.

Kokolla on merkitystä… ja myös jäähdytyselementillä

Tietysti sillä on merkitystä ystäville, joten ennen kuin ostat näytönohjaimen, vähiten mitä voimme tehdä, on käydä sen teknisissä tiedoissa ja nähdä, mitä se mittaa. Mennään sitten runkoomme ja mitataan, mitä tilaa meillä on siihen käytettävissä.

Dedikoiduissa näytönohjaimissa on erittäin tehokkaat GPU: t, joiden kaikissa TDP on yli 100 W. Tämä tarkoittaa, että he tulevat melko kuumiksi, itse asiassa jopa kuumemmiksi kuin prosessorit. Tästä syystä kaikissa niissä on suuret jäähdytyselementit, jotka vievät melkein koko elektroniikan piirilevyn.

Markkinoilta löytyy periaatteessa kahdenlaisia ​​jäähdytyselementtejä.

  • Puhallin: Tämän tyyppinen jäähdytyselementti on esimerkiksi sellainen, jossa on vertailumallit AMD Radeon RX 5700 ja 5700 XT tai edellinen Nvidia GTX 1000. Yksittäinen tuuletin imee pystysuoran ilman ja saa sen virtaamaan viimeistelyn jäähdytyselementin läpi. Nämä jäähdytyselementit ovat erittäin huonoja, koska ne vievät vähän ilmaa ja läpimenon nopeus jäähdytyselementin läpi on pieni. Aksiaalinen virtaus: Ne ovat elinajan puhaltimia, jotka sijaitsevat pystysuorassa jäähdytyselementissä ja työntävät ilmaa etureunoihin, jotka myöhemmin tulevat ulos sivuilta. Sitä käytetään kaikissa mukautetuissa malleissa parhaan suorituskyvyn tarjoamiseksi. Jopa nestejäähdytys: Joissakin huippumallien malleissa on jäähdytyslevyjä, jotka upottavat nestejäähdytysjärjestelmän, esimerkiksi Asus Matrix RTX 2080 Ti.

Henkilökohtaiset kortit

Kutsumme grafiikkamalleja, jotka ovat koonneet yleiset laitevalmistajat, kuten Asus, MSI, Gigabyte jne. Ne ostavat näytönohjaimet ja muistit suoraan päävalmistajalta, AMD: ltä tai Nvidialta, ja kiinnittävät ne sitten heidän valmistamalleen piirilevylle yhdessä heidän luomansa jäähdytyslevyn kanssa.

Hyvä asia tässä kortissa on, että ne tulevat ylikellotettuina tehtaalla korkeammalla taajuudella kuin vertailumallit, joten ne toimivat hieman enemmän. Sen jäähdytyslevy on myös parempi ja sen VRM, ja jopa monilla on RGB. Huono asia on, että ne ovat yleensä kalliimpia. Toinen positiivinen näkökohta on, että ne tarjoavat monen tyyppisiä kokoja, esimerkiksi ATX-, Micro ATX- tai jopa ITX-runkoon, erittäin pienillä ja kompakteilla korteilla.

Kuinka pelaamisen kannettavan tietokoneen GPU tai näytönohjain on

Varmasti tässä vaiheessa ihmettelemme, onko kannettavalla tietokoneella myös oma näytönohjain, ja totuus on, että se on. Itse asiassa Professional Review -sivustolla analysoidaan valtava määrä pelaamista varten tarkoitettuja kannettavia tietokoneita, joilla on oma GPU.

Tässä tapauksessa sitä ei asenneta laajennuskortille, mutta piirisarja juotetaan suoraan kannettavan tietokoneen pääpiirilevyyn ja erittäin lähellä CPU: ta. Näitä malleja kutsutaan yleensä Max-Q: ksi, koska niissä ei ole hienoa jäähdytyslevyä, ja niiden pohjalevyssä on tietty alue.

Tällä alueella kiistaton kuningas on Nvidia, sen RTX ja GTX Max-Q. Ne ovat siruja, jotka on optimoitu kannettaviin tietokoneisiin ja jotka kuluttavat kolmanneksen verrattuna työpöytämalleihin ja uhraavat vain 30% niiden suorituskyvystä. Tämä saavutetaan vähentämällä sen kellotaajuutta, joskus poistamalla joitain ytimiä ja hidastamalla GRAM: ää.

Mitä prosessoria asennan näytönohjaimeni mukaan

Pelataksemme ja tehdäksemme kaikenlaisia ​​tehtäviä tietokoneellamme on aina löydettävä tasapaino komponenteistamme pullonkaulojen välttämiseksi. Pelkistämällä tämä pelimaailmaan ja näytönohjaimiin, meidän on saavutettava tasapaino GPU: n ja CPU: n välillä, jotta kumpikaan niistä ei jää alle ja toinen väärinkäyttää liikaa. Rahamme on vaarassa, emmekä voi ostaa RTX 2080: ta ja asentaa sitä Core i3-9300F -laitteella.

Keskusprosessorilla on tärkeä rooli grafiikan kanssa työskentelyssä, kuten olemme jo nähneet aiemmissa osioissa. Joten meidän on varmistettava, että siinä on riittävästi nopeutta, ytimiä ja prosessointikierteitä, jotta ne voivat toimia pelin tai videon fysiikan ja liikkeen kanssa, ja lähettää ne näytönohjaimeen mahdollisimman nopeasti.

Joka tapauksessa meillä on aina mahdollisuus muuttaa pelin grafiikka-asetuksia vähentääkseen prosessorin vaikutusta, joka on liian hidas vaatimuksia varten. GPU: n tapauksessa suorituskyvyn puute on helppo kompensoida, vain alentamalla resoluutiota saavutamme hyviä tuloksia. Suorittimen kanssa se on erilainen, koska vaikka pikseliä on vähemmän, fysiikka ja liike pysyvät melkein samana, ja näiden vaihtoehtojen laadun heikentäminen voi vaikuttaa suuresti oikeaan pelikokemukseen. Tässä on joitain vaihtoehtoja, jotka vaikuttavat suorittimeen ja toisiin GPU: ssa:

Ne vaikuttavat GPU: han Ne vaikuttavat prosessoriin
Yleensä renderointivaihtoehdot Yleensä fyysiset vaihtoehdot
antialiasointia Merkkien liikkeet
Säteiden jäljitys Näytössä näkyvät kohteet
tekstuurit hiukkasia
tessellation
jälkikäsittely
päätöslauselma
Ympäristön tukkeutuminen

Tämän nähden voimme tehdä enemmän tai vähemmän yleisen tasapainon luokittelemalla laitteet sen mukaan, mihin ne on rakennettu. Tämä helpottaa enemmän tai vähemmän tasapainoisten eritelmien saavuttamista.

Halvat multimedia- ja toimistolaitteet

Aloitamme perusteellisimmista tai ainakin siitä, mitä pidämme perustason lisäksi, lukuun ottamatta Celeronin minitietokoneita. Oletettavasti, jos etsisimme jotain halpaa, parasta olisi mennä AMD: n Athlon-prosessoreille tai Intelin Pentium Gold -sivulle. Molemmissa tapauksissa meillä on korkeatasoinen integroitu grafiikka, kuten ensimmäisessä tapauksessa Radeon Vega tai Intelin tapauksessa UHD-grafiikka, jotka tukevat korkeaa resoluutiota ja kunnollista suorituskykyä vaatimattomissa tehtävissä.

Tällä alalla on täysin turhaa ostaa omistettu näytönohjain. Ne ovat prosessoreita, joissa on kaksi ydintä, joiden tuotto ei riitä vähentämään kortin kustannuksia. Lisäksi integroitu grafiikka antaa meille suorituskyvyn, joka on samanlainen kuin 80-100 euron GPU tarjoaisi.

Yleiskäyttöiset laitteet ja huippuluokan pelaaminen

Voimme pitää yleiskäyttöisiä laitteita sellaisina, jotka reagoivat hyvin monissa eri tilanteissa. Esimerkiksi surffaus, toimistossa työskenteleminen, pienten asioiden suunnittelu ja jopa videoiden muokkaaminen amatööritasolla ja pelaaminen satunnaisesti Full HD: llä (emme voi tulla tänne ja kysyä paljon enemmän).

Tällä alueella erottuu 4-ytiminen ja korkeataajuinen Intel Core i3, erityisesti AMD Ryzen 3 3200G ja 5 3400G, joissa on integroitu Radeon RX Vega 11 -grafiikka ja erittäin sopeutettu hinta. Nämä Ryzen kykenevät siirtämään viimeisen sukupolven peliä arvokkaasti heikossa laajuudessa ja Full HD: ssä. Jos haluamme jotain hiukan parempaa, siirrymme seuraavaan.

Tietokone näytönohjaimella keskitason ja korkean kantaman pelaamista varten

Keskipitkällä pelaamisella voisimme jo varata Ryzen 5 2600: n tai Core i5-9400F: n alle 150 eurolla ja lisätä siihen erillisen GPU: n, kuten Nvidia 1650, 1660 ja 1660 Ti tai AMD Radeon RX 570, 580 tai 590. Ne eivät ole huonoja vaihtoehtoja, jos emme halua kuluttaa yli 250 euroa näytönohjaimelle.

Mutta tietenkin, jos haluamme enemmän, meidän on uhrattava, ja juuri niin se on, jos haluamme saada optimaalisen pelikokemuksen Full HD: ssä tai 2K: ssa korkealaatuisena. Tässä tapauksessa kommentoidut prosessorit ovat edelleen loistava vaihtoehto olla 6- ytinen, mutta voimme mennä jopa Ryzen 5 3600 ja 3600X: iin ja Intel Core i5-9600K: iin. Näiden avulla on sen arvoista päivittää Nvidian RTX 2060/2070 Super- ja AMD: n RX 5700/5700 XT -versioihin.

Innostunut peli- ja suunnittelutiimi

Täällä tulee olemaan paljon renderointitehtäviä ja pelejä, jotka toimivat suodattimien kanssa maksimissaan, joten tarvitsemme vähintään 8 ytimen suorittimen ja tehokkaan näytönohjaimen. AMD Ryzen 2700X tai 3700X on loistava vaihtoehto, tai Intel Core i7 8700K tai 9700F. Heidän kanssaan ansaitsemme Nvidia RTX 2070 Super tai AMD Radeon RX 5700 XT.

Ja jos haluamme olla kavereidemme kateellisia, siirrytään RTX 2080 Super -käyttöjärjestelmään, odotetaan vähän Radeon 5800: ta ja saadaan AMD Ryzen 3900X tai Intel Core i9-9900K. Ketjukiristimet eivät ole tällä hetkellä toteutettavissa oleva vaihtoehto, vaikkakin LGA 2066 -alustan Intel X ja XE ovat kalliita.

Päätelmä näytönohjaimesta ja suositelluista malleistamme

Toistaiseksi tämä viesti tulee, jossa selitämme tarpeeksi yksityiskohtaisesti grafiikkakorttien nykytilaa sekä vähän niiden historiaa niiden alusta alkaen. Se on yksi laskennan maailman suosituimmista tuotteista, koska pelitietokone toimii varmasti paljon enemmän kuin konsoli.

Oikeat pelaajat käyttävät tietokoneita pelaamiseen, etenkin e-urheilussa tai kilpailupeleissä ympäri maailmaa. Yritä heissä aina saavuttaa suurin mahdollinen suorituskyky lisäämällä FPS-tasoa, lyhentämällä vasteaikoja ja käyttämällä pelaamiseen tarkoitettuja komponentteja. Mutta mikään ei olisi mahdollista ilman näytönohjaimia.

  • Mitä näytönohjainta ostan? Markkinoiden parhaat Parhaat näytönohjaimet
Android

Toimittajan valinta

Back to top button