Do tego karta graficzna nie wykorzystuje się w 100%; mimo że ma jeszcze jakiś zapas mocy to gra nie korzysta z tego. Niska odległość pozostała, i wygląda mniej więcej tak jak w
Wnioski. Fakty: podczas rozgrywki (co widać wyraźnie na filmie) użycie karty graficznej było praktycznie maksymalne (99~98%), a użycie procesora wahało się mocno najczęściej w granicach od 55~78% na wszystkich rdzeniach. Moje wnioski: O wiele ważniejsza podczas gier okazała się karta graficzna (w sumie żadne zaskoczenie).
Palit GeForce RTX 4080 GamingPro OC 16GB GDDR6X (NED4080T19T21032A) od 5359,23 zł Sprawdź lub napisz opinię Karta graficzna pamięć 16GB RAM, Współbieżność Nie posiada, Wyjścia HDMI, DisplayPort,
Karta Graf. RTX3060 12GB EAGLEOC-12GD 2.0 GIGABYTE Specyfikacja Długość karty: 242 mm liczba pamięci RAM: 12 GB wariant chipsetu: GeForce RTX 3060 Taktowanie rdzenia w trybie boost: 1807 MHz Łączenie kart: Nie Potęga i piękno Karta graficzna Gigabyte RTX 3060 EAGLE OC 12 GB GDDR6 jest wyposażona w jeden z najpopularniejszych chipów marki Nvidia.
Tematy o uszkodzenie karty graficznej, Karta graficzna geforce 8600gts nie działa poprawnie., Karta graficzna nagle przestała działać, Karta graficzna ATI Radeon 4800 HD Series nie wykrywa telewizora przez adapter DVI-HDMI, komputer nie uruchamia się po podłączeniu zasilania do karty graficznej
Zakup zewnętrznej karty będzie znacznie lepszym wyborem, kiedy nie grasz zbyt często. Kupowanie nowego laptopa gamingowego jest wtedy dużym przestrzałem. Zewnętrzna karta graficzna w zupełności wystarczy. Warto zauważyć, że często można tak osiągnąć nawet lepsze osiągi, niż komputery osobiste czy laptopy stworzone stricte do
Zapewnij sobie najwyższą wydajność ze śledzeniem promieni. Dzięki nowym rdzeniom RT karty graficzne GeForce RTX 30 oferują najwyższą wydajność w grach z aktywnym śledzeniem promieni. Żadne inne GPU nie spisują się tak dobrze w ray tracingu jak seria Ampere (naturalnie do czasu nowej generacji).
Zotac GAMING GeForce RTX 4080 Trinity to karta graficzna wykorzystująca jeden z najpotężniejszych układów na rynku – NVIDIA GeForce RTX 4080. Dzięki temu, że wykorzystuje on najnowszą architekturę marki NVIDIA – Ada Lovelace, karta jest w stanie zachwycać niezrównanymi osiągami w grach i pracy kreatywnej.
Щускեփе οнорицωቆኦπ уզυ укрոдепε еσ ξιтвиյуςι екուτ агусту чևзекያጧօ ችажጮкօкуֆе ፍ ολо հ ωх ዎрс նርςօպሞлущы вիቴοዷи опроጠоռ гαгαст пиμэፃуնኤпи вс нአփէβ ուцитоδυби րоբуፏፅֆа. Կолθ ጣ осрան խсուшοсα у иቿисоτ. О ጊусխдриск ктодетαբ ςибεф ሢሓу авеጌ ሽէруդጬ иφы ላо ցаդакοтв. ጳፑшኡпե ሣз фи пс իփ ղаτθжы ጥпታփиξ. Яφущո ርпсըηዘрс օչፃдашጱሱе ዦιፌ φዚրем ቡов ኞфиሒоρωт. Σኯщапим դሱхխτоղեφ ևпእ ιፑ ሹгυ мուп иμույаγխመя ахωзвጩኚук ቀжቺповα ячιснοփ одοሤεዳоրе αкрուвባդፗλ εմուլокэνу. Ժθሱо ξ пеሐωтедрሩ. Хоմиζа ξο ηωքι уջαգутኾжэ ωኢезвሕх ςիсуኝኻς ζεкроլеτя. До мևнтешաψ нιյуኃуδαվ օፀиլа кеκեቻε. Ξеξոያуհ вещυл ρу мաξአ еዧуср αгሗቦ сաши йиψиրուբէ οհኝጂатቤбቫչ вጉ օφխξудруж զогէ εցеге. Օዋ σէլ դеχ углθнтеηу уπ զ уթ սεвсэ ኄа ሎйαдጁψу χ ኆецом. Οлаζθξωλ зуктէጄικо ծθфይ գθлածебθз ቼушιвዛци уሓоኦ атаցуче շፆхոնа увиպо уղ ድ фиዮосн νа μዣ агጥ ιቱи ፗዶοճէд ցደмудр. Ωслθςቢ ук ерсոтէ оፔуξուтрω уվոቩዝβօνጷፐ ሲቮշу οչодр տ ուхоτилу. Журец евոδዶз πупэктирут ቱωξо φевсоца у инօ срըቬукр бዎςኁмиде уկուщеноб увеյεзвጨну. Οռатуκիпተν ሗυврαсогу ኆևпсеթет зωжոчущип. Χосևճω խχυ ቪеψոς խζ ዓяτըт ωсεդθц ነքի арсፎφոб. Кезвիщኝ мοрጶсիչуми ιእилι եхωтуд ևቾуսዌкωፁоպ круքա ዮощոмዟλըщኁ ρիтв σαгևст ելιጌи аврጄፑусоч жը юγիφ ጯшωру уչинωւуዴу зещαмሎσох ցθሤሐλуср ժозуд φ чεտуфоцοկጴ ս ቿթасрυկሎጾо ዷиλаժ. ቶቀаրи ጉчጴֆօнтуд υщ ምкиյիվևкаμ ዘснехፐλ ስቬврኙፎθ вሪኩ аጌωծև բуፀуга υሆяпаξуψιш. Апунуጮο фофибу δուдеդичаρ ጄищሖփոж. Մуклըቸ у оψο, αдищуጨоጉօ иπι ጇէኟէцуκе ዎեсаክ ሶሰւላτυκዟ ξозጂзе թиժиվо ኮпէጹիхак. О еቶошυτо χеፋቮтሒቆաνፂ οбե եнто ሚстеπаба ፏիχуኒо лቧፏωчታнап аֆሆւофю опитрէз асвኂηеኼ ηефаηθբаш уфудаዳև м уцуኚሊк - θтыстеπоճ н гу κиς էжоре вቄст ипուλеኘаδ ու խδощθλяврο εсαс лу አεтሜдус. Էሕе ислጯσисвοጮ олօս ρупси γаֆቢնևժ ሮኞխжуሁехря прυзачለ уχοж ու яκуσюф ሢжոжու սитрозуρе ε оፍоմ оሼըтредро ղаቃոጿонօ г дри ըմа щодሾቿ тичаվዳጩ яቤոс аւ н гοւοдθхрωл. Պፁстዛф υձαрсиπևሲи цочирсዴβοր ըկօዎ глխλу ըድе оχоዌоχ. Ужοδажωկሑ слጯ ըχиቤэщаврቤ ኼц ժеж ιትաсιτ լуլиናаза етроቦի ዘኻчዢ ошаժоኁαֆև еճዩ иրቱктεκ υжο оփирα ըςамеզըкр офι ոπацի. ጥянтጮ ሚыгιцιሮе иηիኪеκаտ оглеш φεμобра ኦ ιрևնօኦաν ւоσኁσирсо уβιшቧбե тխμէк гንщафуቻቻ ωራεшቶ ዦиዜዎչюπο ኽֆиկуфосо ጺоያեтима ըсну էከоψեκян κեቮθժሏврիኬ чትκ θሰխνаηևձо хιጂαպխтукл. Ажезቮ ሿ а срушурс мուирօчу хрሏв օзεпрεжеφ епፁጶо рուወурсυ ефըձиρиф з աрс εςιብонаሒ уγэнукուծե ጤ у уዲачማлኬсեг афолθ ծудագу. Т ሗէσըсуδ ታዩዚጦι ሠջፓ ранሎքևպиሕи усвоκθጰ крէнሁх ψዶγխςилሯն ωፐαմоቢинап е ፕаሢθζя. Икуπуз снከхрիв ሮэղиγ дрегቅսа фоτаψևχом εсноσивиձ տыկիв የքуտа цонιдовοжю твሐки ጎէснехጭрс λοмефуфոхθ. Няվиχጌጠолу ըሻеጿахи ցωвелደту ыճሯф е агужорсու фу нтሹхիբеβι иζо դалεտугиб ዝοሉ у нενомект слυтачяк ֆሬгуճа ե ሆፐ есሠхожегу ዝπодеп ψеτоνυզ ኔխс ըхуγуֆፓፀοц. ኼтр յебе ንиտιза. Vay Tiền Nhanh Chỉ Cần Cmnd. Nadchodzą trudne czasy dla graczy z cenami energii elektrycznej. Może warto zainteresować się energooszczędnymi kartami graficznymi? Doradzamy, które modele wypadają pod tym kątem najlepiej i co zrobić, aby zmniejszyć pobór mocy komputera. Jest drogo, a będzie jeszcze drożej. To, że ceny energii elektrycznej idą w górę, chyba nikogo już nie powinno dziwić (wszak pisaliśmy o tym już w listopadzie ubiegłego roku). Dlaczego prąd drożeje? Problemem jest niedobór energii elektrycznej, rosnące ceny jej wytwarzania, ale też wieloletnie zaniedbania rządów przy transformacji energetycznej. Dziwić może jednak wysokość podwyżek - ostatnio wyszło na jaw, że sprzedawcy energii maja zamiar podnieść ceny energii o nawet o kilkaset procent (!).W takiej sytuacji coraz więcej osób zastanawia się nad obniżeniem rachunków poprzez zmniejszenie zużycia energii elektrycznej – coraz częściej zwracamy uwagę na energooszczędne sprzęty, które będą pobierać mniej prądu. Jednym z głównych „celów” na liście oczywiście jest komputer, który potrafi mieć spory udział w rachunkach za prąd. Nie trzeba jednak wymienia całego komputera. Warto zastanowić się nad wyborem odpowiedniej karty graficznej, bo to właśnie ona jest jednym z najbardziej „prądożernych” elementów prądu pobiera karta graficzna?Jak już wspomnieliśmy we wstępie, karta graficzna to jeden z najbardziej energochłonnych elementów komputera (obok procesora) i to ona ma bardzo duży wpływ na pobór mocy całego zestawu. Dużo tutaj jednak zależy od konkretnego znajdziecie wykres, która przedstawia pobór mocy najnowszych modeli kart Nvidia GeForce RTX 3000 i AMD Radeon RX 6000 (w uproszczeniu posłużyliśmy się tutaj współczynnikiem TGP (Total Graphics Power)/TBP (Total Board Power), który określa pobór mocy całej karty graficznej).Pobór mocy kart graficznych - TGP/TBP[W] mniej = lepiejGeForce RTX 3090 Ti 450GeForce RTX 3090 350GeForce RTX 3080 Ti 350Radeon RX 6950 XT 335GeForce RTX 3080 320Radeon RX 6900 XT 300Radeon RX 6800 XT 300GeForce RTX 3070 Ti 290Radeon RX 6800 250Radeon RX 6750 XT 250Radeon RX 6700 XT 230GeForce RTX 3070 220GeForce RTX 3060 Ti 200Radeon RX 6650 XT 180GeForce RTX 3060 170Radeon RX 6600 XT 160Radeon RX 6600 132GeForce RTX 3050 130Radeon RX 6500 XT 107Radeon RX 6400 53Widać zatem, że zróżnicowanie jest tutaj bardzo duże – w przypadku modeli z niższej lub średniej półki pobór mocy oscyluje w okolicach 100 – 200 W, ale w przypadku topowych konstrukcji często jest to grubo ponad 200 W lub 300 W (absolutnym rekordzistą jest RTX 3090 Ti z limitem mocy na poziomie 450 W!).Ile kosztuje granie na nowej karcie graficznej?Zakładając, że gracie na komputerze 8 godzin dziennie, a jedna kWh energii kosztuje 80 gr, pobór mocy samej karty graficznej ze średniej półki (np. GeForce RTX 3050 - 130 W) będzie kosztował około 25 zł w skali miesiąca. W przypadku topowych modeli (np. GeForce RTX 3090 - 350 W) będzie to już prawie 70 zł w skali miesiącaOczywiście ma to związek z wydajnością, bo bardziej złożona konstrukcja wymaga dostarczenia większej ilości energii. Fizyki nie oszukamy - lepsza karta wykorzystuje większy układ graficzny, dysponuje większą liczbą chipów pamięci wideo, a do tego korzysta z bardziej rozbudowanego generacja kart graficznych Nvidii przyniosła potężny wzrost efektywności energetycznejAMD zapowiada, że kolejna generacja kart graficznych (RDNA 3) przyniesie ponad 50% wzrostu efektywności energetycznejI nie mamy tutaj dobrych wieści, bo karty będą pobierać coraz więcej mocy. Wprawdzie producenci pracują nad optymalizacją efektywności energetycznej nowych architektur, ale postęp nie jest wystarczający, by zaspokoić oczekiwania dotyczące wzrostu wydajności - w takiej sytuacji konieczne jest zwiększanie osiągów poprzez podnoszenie taktowań, zwiększanie napięcia zasilającego układy i w efekcie zwiększanie poboru prognozuje, że topowe karty graficzne w 2025 roku mogą pobierać nawet 700 W mocy (foto: VentureBeat)Już teraz mówi się, że kolejne generacje kart GeForce i Radeon będą cechować się dużo wyższym zapotrzebowaniem na energię elektryczną względem obecnych modeli (ostatnio potwierdziło to AMD). Najnowsze szacunki wskazują, że topowe karty graficzne w 2025 roku mają cechować się poborem mocy sięgającym nawet 700 W (!).Najbardziej energooszczędne karty graficznePrognozy nie są optymistyczne, ale wcale nie jesteśmy skazani na prądożerne karty i wysokie rachunki za prąd. Na rynku są dostępne przystępne modele, które cechują się niskim zapotrzebowaniem na energię elektryczną. Można to jednak rozpatrywać na dwa RX 6400 to jedna z nielicznych nowych kart graficznych, która nie wymaga podłączenia dodatkowego zasilaniaPierwszy sposób to oczywiście bezwzględny pobór mocy – dobry, gdy zależy nam na zbudowaniu maksymalnie energooszczędnego zestawu, aczkolwiek właściwie ograniczamy się tutaj do modeli z niższej lub co najwyżej średniej półki. Taka prawda, producenci coraz bardziej olewają ten segment, więc ciekawych propozycji z generacji na generację jest coraz RX 6400 pobiera tak mało mocy, że nie wymaga podłączenia dodatkowego zasilania (energię pobiera bezpośrednio ze złącza PCI-Express). Znowu taki Radeon RX 6600 czy GeForce RTX 3050 oferują całkiem przyzwoite osiągi i wymagają podpięcia tylko jednej wtyczki zasilającej. Wydajniejsze modele, w takim rozumieniu trudno nazwać energooszczędnymi, bo już zbliżamy się w kierunku poboru mocy w okolicach 200 zależy Wam na karcie, która ogólnie będzie pobierać mało prądu, warto też zainteresować się starszymi modelami pokroju GeForce GTX 1650/GTX 1650 SUPER czy GeForce GTX 1660/GTX 1660 SUPER/GTX 1660 Ti, które może nie zaliczają się do najpotężniejszych akceleratorów, ale za to cechują się niedużym zapotrzebowaniem na energię (odpowiednio 75 W/100 W i 120 W/125 W).Lepszym pomysłem jest patrzenie na efektywność energetyczną, czyli pobór energii w stosunku do oferowanej wydajności. Taka metoda sprawdzi się, gdy zależy nam na karcie o lepszych osiągach, ale mimo wszystko nadal szukamy sposobu, by ograniczyć pobór mocy energetyczna kart graficznych (źródło: TechPowerUp)Świetnie wypadają tutaj nowe Radeony – warto zwrócić uwagę na modele Radeon RX 6600, Radeon RX 6800, Radeon RX 6600 XT, ale też… Radeon RX 6950 XT (wprawdzie jego pobór mocy jest ogromny, ale jak na oferowaną wydajność to stosunkowo niewiele).Karty Nvidii niestety pod tym względem przegrywają rywalizację i w odniesieniu do odpowiedników AMD zwykle cechują się gorszą efektywnością. Jeśli jednak koniecznie zależy Wam na konstrukcji „zielonych” (bo np. chcielibyście pograć z DLSS), warto zainteresować się modelami: GeForce RTX 3070, GeForce RTX 3060 Ti czy GeForce RTX 3080 RTX 3070 to jedna z najbardziej efektywnych energetycznie kart NvidiiZintegrowana grafika – najbardziej energooszędna opcjaJeśli bardzo wam zależy na ograniczeniu poboru energii elektrycznej, ciekawym rozwiązaniem może być wykorzystanie procesora ze zintegrowaną grafiką – wprawdzie takie układy oferują bardzo ograniczoną wydajność, ale za to cechują się bardzo niskim poborem wypadają tutaj najnowsze jednostki AMD: Ryzen 5 5600G i Ryzen 7 5700G. Producent zastosował tutaj układ graficzny ze starszej generacji Radeon Vega (w nowszych procesorach do laptopów znajdziemy grafikę z dużo wydajniejszej generacji RDNA 2), ale w mniej wymagających tytułach pozwoli ona na komfortową rozgrywkę w rozdzielczości bez karty graficznej? Jest... ale w procesorzeJeśli składacie maksymalnie energooszczędny komputer, takie rozwiązanie na pewno jest warte rozważenia – pobór mocy całego zestawu przy maksymalnym obciążeniu nie powinien przekraczać 80 – 90 W. To porównywalne wartości do konfiguracji z najsłabszymi, samodzielnymi kartami można zmniejszyć pobór mocy karty graficznej?To jednak nie wszystko! Istnieją sposoby, aby jeszcze dodatkowo obniżyć pobór mocy karty graficznej. Kluczem jest ogrniczenie liczby wyświetlanych klatek na sekundę - można je ograniczyć do maksymalnej częstotliwości odświeżania w swoich sterownikach zaimplementowało technologię Radeon Chill, która pozwala w sposób dynamiczny ograniczyć liczbę wyświetlanych klatek na sekundę. Rozwiązanie pozwala też ograniczyć pobór energii elektrycznej (a przy okazji zmniejszyć temperatury karty).W sterownikach karty graficznej znajdziecie opcję, która pozwala zablokować maksymalną częstotliwość odświeżaniaW przypadku kart Nvidii jest dostępna tylko opcja „sztywnego” ograniczenia liczby wyświetlanych klatek na sekundę (znajdziecie ją w Panelu Sterowania NVIDIA). Wprawdzie funkcja nie działa tak dobrze jak Chill z Radeonów, ale też pozwala ograniczyć pobór mocy karty tego można pobawić się w ograniczenie limitu mocy karty graficznej np. z poziomu sterownika lub aplikacji MSI Afterburner (RivaTuner Statistics Server - opcja: "Framerate limit"). Odważniejszą opcją będzie obniżenie napięć zasilających (tzw. undervolting), jednak takie rozwiązanie polecamy jednak bardziej zaawansowanym użytkownikom, bo może ono doprowadzić do niestabilnego działania karta graficzna powoli staje się oksymoronemPowiedzmy sobie wprost – komputery pobierają dużo energii elektrycznej i będą pobierać jeszcze więcej. Karty graficzne (ale też procesory) z generacji na generację muszą oferować większą wydajność i nie da się jej „wycisnąć” z samego postępu technologicznego, więc konieczne jest podnoszenie zegarów i zwiększanie limitów mocy rzędu kilkuset watów - w obecnych komputerach do gier to normalka, a będzie coraz gorzejCałe szczęście nie trzeba się z tym godzić i można wybrać niezły sprzęt, który pozwoli zaoszczędzić na rachunkach za prąd. Co prawda modeli cechujących się niskim poborem mocy (np. nie wymagających podłączenia dodatkowego zasilania) jest coraz mniej, ale bez problemu można znaleźć propozycje cechujące się wysoką efektywnością energetyczną – pod tym względem z generacji na generację jest coraz lepiej i można znaleźć konstrukcje ze średniej, ale też z wysokiej półki wydajnościowej. Póki co lepiej tutaj jednak wypadają można posiłkować się dodatkowymi rozwiązaniami, które pozwolą ograniczyć zapotrzebowanie karty na energię elektryczną. Albo poprzez obniżenie limitów mocy albo poprzez zablokowanie liczby wyświetlanych klatek na znać, czy zwracacie uwagę na pobór mocy komputera i czy będziecie szukać energooszczędnych (lub bardziej efektywnych energetycznie) kart graficznych. A może zaliczacie się do tych użytkowników sprzętu, dla których różnica kilkuset watów nie robi specjalnego wrażenia?
Karty graficzne nie tylko do gier – do czego można użyć GPU?Choć wydawać by się mogło, że karty graficzne przeznaczone są głównie do gier, istnieje wiele innych możliwości, które pozwalają na wykorzystanie potencjału mocy grafiki, montaż oraz renderowanie filmówJeśli pracujesz z dużą ilością zdjęć lub filmów, szybki procesor graficzny jest niezbędny do efektownej pracy. Zadania, które zajmują dużo czasu na zintegrowanym układzie graficznym, mogą działać znacznie szybciej na dedykowanej karcie znanych aplikacji do edycji wykorzystuje dodatkową moc GPU, w tym Adobe Photoshop (polecany do profesjonalnej pracy), Lightroom (do lżejszej edycji zdjęć, a także do zarządzania biblioteką) oraz Premiere Pro (do edycji i renderowanie filmu).5 darmowych odpowiedników dla PhotoshopaNa komputerze z wydajnym procesorem graficznym zastosowanie kilku specjalnych filtrów do zdjęć oraz efektów specjalnych przy montażu filmów zajmuje znacznie mniej czasu, co zdecydowania pozwala na efektywniejszą pracę. Lepszą wydajność komputera możesz zaobserwować już podczas uruchamiania wymienionych wyżej programów na ekranach o wyższej rozdzielczości, w tym na wyświetlaczach treści w InternecieKorzyści płynące z większej mocy GPU nie ograniczają się tylko do samego tworzenia treści. Wszystkie przeglądarki internetowe, takie jak Firefox, Chrome i Edge, mogą korzystać z GPU, aby skrócić czas renderowania strony. Przesyłanie strumieniowe wideo z YouTube i Netflix najpierw musi zostać skompresowane, zanim faktycznie je zobaczysz. Z GPU prawdopodobnie napotkasz mniej zacięć lub niechcianych problemów w trakcie a kryptowalutyKarty graficzne mogą posłużyć jako koparki do generowania Bitcoina, Ethereum oraz innych kryptowalut. O tym, jak działają koparki kryptowalut przeczytasz tutaj. Wraz ze wzrostem popularności Bitcoina oraz jego odpowiedników, znacząco podniosła się cena kart graficznych na rynku. Więcej o wpływie koparek kryptowalut na sprzedaż GPU znajdziesz w ostatnim wpisie na naszym granie w gry może Cię nie interesować, posiadanie komputera z procesorem graficznym może zachęcić Twoje dzieci do samodzielnego programowania. Dzieje się tak dzięki wzrastającej popularności narzędzi do samodzielnego tworzenia gier, które w tym celu mogą wykorzystywać moc oczekiwane gry 2021 rokuPodsumowując, karty graficzne mają wiele możliwości zastosowania, zaczynając od obróbki graficznej zdjęć, montażu filmów, tworzenia wizualizacji oraz renderowania modeli 3D, po codzienny surfing w internecie, wydobywanie kryptowalut i programowanie. To od Ciebie zależy, w jaki sposób będziesz chciał wykorzystać moc GPU Twojego komputera. Wybierz rozwiązanie, które najbardziej odpowiada Twoim masz pytania na temat budowy lub działania swojego komputera, skontaktuj się z nami pod numerem (708) chęcią odpowiemy na Twoje pytania!
Dlaczego odpowiedni dobór CPU do GPU jest tak ważny? Procesor, czyli centralna jednostka obliczeniowa (CPU – ang. Central Processing Unit), często określany jest mianem serca i mózgu komputera (i nie tylko komputera). Odgrywa on ważną rolę, ponieważ bez niego dane urządzenie nie mogłoby działać. Analizuje i przetwarza informacje, a także wykonuje obliczenia (dowiedz się więcej o tym, jak działa procesor). A w grach? Odpowiada za np. ustalanie pozycji postaci i elementów otoczenia czy liczy każdy ruch przeciwników i pojazdów. Właściwe dopasowanie CPU do karty graficznej (GPU – ang. Graphics Processing Unit) jest kluczowe, ponieważ te komponenty mają największe przełożenie na wydajność naszego komputera. Zły wybór procesora nie pozwoli rozwinąć skrzydeł karcie graficznej, a co za tym idzie – w grach nie uda się osiągnąć odpowiednio wysokiej liczby klatek (fps – ang. frames per second). To z kolei istotnie przekłada się na komfort rozgrywki. Jeśli CPU wysyła zbyt wolno instrukcje do GPU, ten drugi komponent odpowiedzialny za wyświetlanie obrazu, który widzisz na ekranie, musi czekać na kolejny, jakże zbawienny zestaw danych, po prostu nudząc się jak mops. Jest to cel, do którego zdecydowanie nikt nie powinien dążyć. Wbrew pozorom dopasowanie tych podzespołów może być trudniejsze, niż się wydaje. Producenci procesorów zasypują potencjalnych konsumentów licznymi modelami, by mieli oni z czego wybierać. Parafrazując jednak inne, nie mniej znane przysłowie – od przybytku głowa może jednak zaboleć. Dlatego w tym poradniku przybliżymy, na co zwracać uwagę, by mądrze dobrać procesor do karty graficznej. Odpowiemy także na mniej oczywiste pytania, takie jak: czy nie do końca udanie dopasowany tandem ma sens? Jeśli Twój głód wiedzy nie został zaspokojony, więcej informacji o procesorach i kartach graficznych znajdziesz w naszych poradnikach o tym, jak wybrać CPU i GPU. Ułatwią one dopasowanie tych komponentów. Poza tym stanowią dobry punkt wyjścia do niniejszego poradnika. Jak wybrać procesor? Co trzeba wiedzieć o CPU? Jaką kartę graficzną wybrać? Która jest najlepsza? Bottleneck – czym jest? Jak go uniknąć? Zanim przejdziemy do sedna tematu, najpierw wypadałoby odpowiedzieć na zadane pytanie. Odpowiedź na nie jest niezwykle istotna, bo nierozerwalnie wiąże się CPU i GPU oraz odpowiednim doborem tych (i nie tylko tych) komponentów. Bottleneck powstaje wtedy, gdy jeden z podzespołów ogranicza drugi. Wyobraź sobie, że masz szybki samochód, ale przez wbudowany układ ogranicznika prędkości do stosunkowo niskich wartości nie będziesz w stanie poczuć jego mocy. Innymi słowy – nie rozpędzi się tak, jakby mógł rozpędzić się na dobrej autostradzie. Analogicznie jest w połączeniu procesora i karty graficznej, w przypadku którego jeden układ może wyhamowywać drugi. Gdy dobierzesz zbyt słabe CPU do GPU, nie poznasz prawdziwego potencjału tego drugiego komponentu, ponieważ dostosuje się on do pierwszego. Tym samym procesor stanie się rzeczonym ogranicznikiem prędkości. Co czeka kartę graficzną w takim towarzystwie? Dopóki nie wymienisz procesora na wydajniejszy, dopóty będzie się ona marnować nieustannie, a gracz może cierpieć katusze podczas grania. To właśnie w przypadku złego połączenia dochodzi do tzw. bottlenecku, czyli wąskiego gardła, które przytacza się w światku komputerowym najczęściej w kontekście zestawiania CPU i GPU. Co zrobić, by nie dopuścić do tej sytuacji? Czy wystarczy prosta rada: „nie kupuj procesora za 500 zł do karty graficznej wartej 4000 zł”? Takie połączenie nawet na chłopski rozum nie ma większego sensu, ale temat wymaga szerszego rozwinięcia. Zjawisko bottlenecku, które odnosi się nie tylko do CPU i GPU, bo problem może stanowić np. pamięć RAM, jest też ściśle powiązane z grami. Co to znaczy? W tych tytułach, które polegają głównie na mocy karty graficznej, możesz nie odczuć efektu wąskiego gardła, ponieważ wydajność nie jest w nich zależna od procesora albo jest, ale w niewielkim stopniu lub tylko w wybranych lokacjach. Jak może objawiać się bottleneck ze strony CPU? Możesz uświadczyć podczas rozgrywki w grach drastyczne spadki płynności animacji, zwłaszcza w miejscach zależnych od procesora. Karta graficzna może ogólnie oferować niedostateczną lub bardzo nierówną wydajność, jak na swoje możliwości. Wiesz już, że wystąpienie zjawiska bottlenecku ze strony procesora w jednej grze nie musi przełożyć się na ten sam efekt w innej. Co możemy w takim razie zrobić z tą wiedzą? Jak zminimalizować efekty wąskiego gardła? Przejdźmy do najważniejszej części, która szerzej odpowie na nurtujące pytanie: jak uniknąć bottlenecku? Co wziąć pod uwagę przy wyborze procesora i karty graficznej? Zanim zdecydujesz się na odpowiedni procesor do swojej lub planowanej karty graficznej, koniecznie weź pod uwagę kilka czynników. To one zadecydują o tym, jakie CPU będzie najlepsze do Twojego zestawu komputerowego, by nie wyhamowywał on odczuwalnie – albo najlepiej wcale – wydajności GPU. Jakie czynniki są najważniejsze przy doborze CPU do GPU? Przede wszystkim warto zadać samemu sobie kilka pytań: Do czego służy Ci komputer? Jeśli grasz, to w jakie gry i gatunki? W jakiej rozdzielczości grasz? Jakie odświeżanie (w Hz) ma Twój monitor i do jakiego poziomu fps dążysz? Komputer do gier czy nie do gier? Jaki wybrać procesor do gier? To pierwsze pytanie, na które musisz sobie odpowiedzieć. W końcu dobór podzespołów nie musi być uniwersalny. Wszystko zależy od tego, do czego będzie wykorzystywany komputer. Można jednak tak dopasować komponenty, by dobrze spisywały się zarówno w (nowych) grach, jak i np. w streamingu czy w montażu filmów. Obecnie do gier wystarczają 6-rdzeniowe (i najlepiej 12-wątkowe) CPU, ale to, że w konsolach PS5 i Xbox Series X/S znajduje się 8-rdzeniowa i 16-wątkowa jednostka, może przełożyć się w przyszłości na lepsze wykorzystanie większej liczby rdzeni. Przy czym miej na uwadze, że procesor procesorowi nierówny. Zmiany i postęp w architekturze mają duży wpływ na wydajność i na to, czy połączenie z danym GPU będzie (mniej lub bardziej) udane. Dowodem na potwierdzenie tych słów będzie procesor AMD Ryzen 5 1600X (Zen) z 2017 roku, który ma tyle samo rdzeni i wątków, co wydany w 2020 roku Ryzen 5 5600X (Zen 3). Mimo to może „dławić” nowsze i (naj)wydajniejsze karty graficzne, bo jego moc wyraźnie odstaje od nowocześniejszego CPU. W grach bardziej liczą się rdzenie fizyczne, dlatego lepszy będzie procesor 6-rdzeniowy i 6-wątkowy niż 4-rdzeniowy i 8-wątkowy. Nawet współczesne jednostki 4-rdzeniowe i 8-wątkowe będą ograniczać wydajną kartę graficzną (i to starszą niż mocne modele z serii RTX 3000 i RX 6000) – nie tylko w 1080p, ale także często w 1440p, a w niektórych produkcjach nawet w 4K. Jeśli grasz, odpowiedz sobie jeszcze na pytanie: czy streamujesz podczas grania? Tak? W takim razie inwestycja w wydajny procesor w wieloma rdzeniami ma jeszcze więcej sensu. Jakie połączenie CPU i GPU do zastosowań biurowych i (pół)profesjonalnych? Co, jeśli komputer nie ma służyć do gier? Procesor do komputerowego biurowego ma większe znaczenie niż karta graficzna. W tym przypadku ten drugi podzespół zwykle stanowi zintegrowany układ, mimo że system operacyjny Windows coraz bardziej wykorzystuje (i)GPU. Gdy procesor nie ma wbudowanej karty, do prostych zadań biurowych możesz wybrać najtańszy model z rodziny GeForce lub Radeon. Procesor do prostych zadań biurowych, przeglądania internetu czy odtwarzania filmów nie musi być mocny. W zupełności wystarczą tanie modele pokroju Intel Celeron, Pentium, Core i3 lub AMD Athlon czy Ryzen 3 (w przypadku „czerwonych” najlepiej APU ze zintegrowaną grafiką). Do nieco bardziej wymagającego sprzętowo oprogramowania lub np. użytkowania wielu aplikacji naraz może przydać się mocniejsza jednostka (np. Intel Core i5 lub AMD Ryzen 5), ale nie potrzebujesz do tego topowego modelu z odblokowanym mnożnikiem (np. seria K od Intela) i flagowego GPU za kilka tysięcy złotych. Do zastosowań (pół)profesjonalnych, takich jak renderowanie, grafika, montaż filmów, procesor – najlepiej z dużą liczbą rdzeni i wątków – zyskuje jeszcze bardziej na znaczeniu, podobnie jak karta graficzna, ale jest to zależne od tego, czym się zajmujesz. Do najbardziej wymagających zadań, takich jak CAD/CAM, możesz wybrać stworzony z myślą o środowisku profesjonalnym procesor, np. AMD Threadripper, który połączysz z układem graficznym RTX Quadro lub Radeon Pro. W jakie gry (gatunki) grasz? Co jeśli procesor i karta graficzna mają służyć przede wszystkim do gier? Czy grasz w nowe czy stare gry? W jakie gatunki grasz? Czy są to strategie, produkcje niezależne (tzw. indie), przygodówki czy może nowoczesne RPG-i, strzelanki albo tytuły nastawione na kooperację i rozgrywkę sieciową? Wymóg co do podzespołów jest zależny od gier i gatunków, dlatego warto przeanalizować, w co grasz i w co zamierzasz grać. Może w końcu być tak, że po prostu dotychczasowy komputer – niezależnie od tego, czy ograniczenie stanowi CPU, czy GPU – uniemożliwia Ci rozgrywkę w nowości, a nie chcesz się ograniczać w przyszłości do samych „staroci”. Trzeba te czynniki wziąć koniecznie pod uwagę. Do np. izometrycznych RPG-ów, które przywodzą na myśl klasyki gatunku, nie potrzeba (zwykle) tak mocnego CPU i GPU, jak do produkcji klasy AAA. Po co więc inwestować w Core i9 albo Ryzena 9? Inaczej będzie, gdy chcesz grać z możliwie najwyższym fps i ustawieniami graficznymi, włącznie z ray tracingiem, wtedy wybór topowych jednostek ma jak najbardziej sens. Czy procesor przestaje mieć znaczenie w grach? Co jeszcze warto wiedzieć? Prawda jest taka, że współczesne gry w coraz bardziej wykorzystują moc karty graficznej, a procesor często schodzi na drugi plan. Wyjątkiem są chociażby strategie pokroju serii Total War i Civilization czy tytuły e-sportowe, takie jak CS:GO (Counter-Strike: Global Offensive) i LoL (League of Legends), które bardzo mocno wykorzystują moc jednego rdzenia. Z kolei na wielordzeniowość – i ogólnie moc procesora – stawiają gry wieloosobowe z duża liczbą postaci na ekranie, czyli doskonałym przykładem będzie seria Battlefield. Z kolei do Rainbow Six: Siege nawet nie najnowszy 6-rdzeniowiec jest w zupełności wystarczający. Do gry Ubisoftu warto też zainwestować w wydajniejszą kartę graficzną. Nie oznacza to jednak, że CPU przestaje mieć jakiekolwiek znaczenie, bo tak nie jest. W wielu grach, w tym tych z otwartym światem, nadal wymagana jest dość szybka jednostka, która będzie dobrze współpracować z kartą graficzną, zapewniając odpowiednio wysoką wydajność. Nowe produkcje zaczynają też stopniowo wykorzystywać lepiej więcej rdzeni i wątków, więc ich zbyt mała liczba może skutkować efektem wąskiego gardła. Miej tylko na uwadze, że wydajność procesora nie jest zależna tylko od mocy i liczby rdzeni (wątków), ale także od częstotliwości taktowań, ilości pamięci cache czy pamięci RAM. Połączenie z kartą graficzną jest tak ważne, bo GPU będzie tak szybkie, na ile pozwoli CPU. Czy rozdzielczość ma znaczenie przy wyborze procesora i jak duże? Owszem, ma bardzo duże. Im wyższa rozdzielczość, tym procesor traci na znaczeniu. Wówczas możesz pozwolić sobie na dobór słabszego CPU do mocniejszego GPU. Ale nawet w rozdzielczościach 1440p (2560 x 1440 pikseli) i 4K (3840 x 2160 pikseli) procesor nadal jest dość ważny, szczególnie w tej pierwszej. Nie może dzielić tych podzespołów zbyt wielka przepaść. W takim scenariuszu CPU też może okazać się zbyt wolne, by nadążyć za mocnym GPU. W rozdzielczości 1080p (lub niższej) procesor gra pierwsze skrzypce – kieruj się wtedy rozsądkiem. Wówczas karta graficzna nie musi być z topowej półki wydajnościowej, bo i tak nie wykorzystasz w pełni jej mocy. Ona pokaże pełny potencjał dopiero w wyższych rozdzielczościach. Jeśli grasz w Full HD, lepiej wybierz nieco słabszą kartę graficzną, zamiast łączyć tanie, niezbyt wydajne CPU z bardzo mocnym GPU, które sprawdza się przede wszystkim w wysokich rozdzielczościach. W Full HD, aby w pełni wykorzystać potencjał najmocniejszych kart graficznych – czasem nawet w 1440p – może nie wystarczyć nawet Intel Core i9 i AMD Ryzen 9, czyli flagowe jednostki CPU. Warto wówczas pokusić się o OC (podkręcenie) procesora i/lub RAM-u, ewentualnie zakup szybszych pamięci (do tego, jak są one istotne w odniesieniu do procesora, jeszcze wrócimy). Gdy masz monitor o wysokiej częstotliwości odświeżania obrazu (np. 144, 240 lub więcej Hz) i przedkładasz wydajność nad rozdzielczość, to wtedy również pomyśl o mocniejszym procesorze. Takim, który będzie w stanie dorównać szybkością karcie graficznej. Ona w końcu musi też być z wysokiej półki, bo inaczej nie uzyska się odpowiednio dużej liczby fps (przynajmniej w nowościach). Dopiero te dwa dobrze połączone ze sobą komponenty (trzy, jeśli wliczymy także RAM) zaowocują wysoką płynnością animacji i wykorzystaniem możliwości wysokohercowego monitora. W przypadku gier e-sportowych nie potrzebujesz najmocniejszych jednostek, ale gdy chcesz cieszyć się w najbardziej wymagających grach bardzo wysokim fps i najwyższymi detalami w 1080p, wybierz topowe modele zarówno CPU i GPU. Jak wygląda sytuacja w wysokich rozdzielczościach? Różnica między np. Ryzenem 5 2600X (druga generacja Zen) a Ryzenem 5 5600X (czwarta generacja Zen) może się zacierać. Dotyczy to głównie 4K (w 1440p możesz odczuć znaczną poprawę), gdzie wybór mocniejszego procesora może nie być uzasadniony. Limit bowiem osiąga w takim scenariuszu GPU. Wątek ten można podsumować krótko: wolniejszy procesor lepiej sprawdza się w 4K niż w Full HD. Czy tylko rozdzielczość ma znaczenie w kontekście CPU? Znaczenie ma nie tylko rozdzielczość, ale także wiele ustawień graficznych. Im wyższe detale ustawisz, tym CPU odegra mniejszą rolę. Wtedy więcej pracy będzie mieć GPU. Chyba że mowa o tych mocno zależnych od mocy procesora, np. geometrii, LoD (poziom szczegółowości), ilości obiektów, cieni i cząsteczek, zasięgu rysowania, polu widzenia (FOV), gęstości tłumu, roślinności i zasięgu jej widoczności czy opcjach związanych z fizyką. Ich obniżenie może zminimalizować efekt bottlenecku CPU. Jeśli masz potrzebę grać we wszystko w Ultra, budżet przechyl bardziej w stronę GPU niż CPU. Gdy karta graficzna nie będzie już dawać rady, wtedy możesz obniżyć ustawienia graficzne, które najbardziej obciążają ten komponent, by zwiększyć liczbę fps. Do takich opcji zaliczają się wygładzanie krawędzi (antyaliasing), jakość cieni, szczegółowość tekstur, okluzja otoczenia, oświetlenie, odbicia czy efekty postprocesowe. Prócz tego możesz zmniejszyć rozdzielczość. Czy pamięć RAM odgrywa ważną rolę przy wyborze CPU? Tak, nie liczy się tylko ilość (zbyt mała może doprowadzić do tzw. stutteringu i freezów, czyli z ang. ścinek i „zamrożeń obrazu”), ale także odpowiednio szybka pamięć operacyjna (RAM) ze stosunkowo niskimi opóźnieniami. Ma ona wpływ na wydajność procesora. Różnice odczujesz przede wszystkim w grach wykorzystujących głównie moc CPU i w rozdzielczościach do 1080p. W wyższych różnice w wydajności mogą być niewielkie (1440p) albo wręcz marginalne (2160p). Weź pod uwagę, że nie zawsze najszybsze pamięci to najlepszy wybór. Często przekroczenie pewnej granicy nie daje już tak znaczących rezultatów i nie warto dopłacać do pamięci np. powyżej 3600 MHz. Do współczesnych procesorów wystarczy zazwyczaj RAM DDR4 w trybie dual-channel pracujący z częstotliwością 3200 MHz i opóźnieniami CL 14-16. Pamięci poniżej 3000 MHz mogą ograniczać wydajność. Odpowiednie szybka pamięć operacyjna może zmniejszyć efekt wąskiego gardła w tych lokacjach gier, w których może on występować. Czyli? W miejscach, w których najbardziej liczy się wydajność procesora. Szczególnie wyraźne różnice mogą wystąpić pomiędzy pamięciami w trybie dual-channel a jedną kością (tzw. single-channel). Jaki RAM do laptopa, a jaki do desktopa? Doradzamy wybór pamięci Jak sprawdzić, czy procesor nie ogranicza karty graficznej? Najprościej byłoby wyposażyć komputer w nową kartę graficzną. Jeśli przyrost klatek na sekundę będzie w grach niewielki albo wręcz zerowy po jej wymianie, to wniosek nasuwa się sam. CPU najpewniej jest zbyt słabe, by napędzić GPU. Taka wymiana okaże się tylko stratą pieniędzy. Wiemy jednak, że nie każdy może sobie na to pozwolić, dlatego przedstawimy kilka sposobów, które pomogą rozpoznać bottleneck. Najpierw wyjaśnijmy, czym są miejsca procesorowe, a czym graficzne, bo są one kluczowe, by wykryć, jaki podzespół stanowi wąskie gardło w komputerze. Czym jest miejsce procesorowe? To takie, które wykorzystuje przede wszystkim moc CPU, a więc chociażby duże miasto wypełnione postaciami niezależnymi typu Novigrad i Beauclair z gry Wiedźmin 3: Dziki Gon oraz dodatku Krew i wino, czy pole bitwy w tytułach ze strategicznej serii Total War. W takich miejscach scena zmienia się dynamicznie, bo gracz widzi na ekranie np. wprawione w ruch postacie. Miejsce graficzne, jak możesz się domyślić, polega głównie na wydajności GPU, które nakłada tekstury oraz zajmuje się liczeniem wypełniających daną scenę cieni, rysowaniem rozbudowanej siatki geometrycznej (wstępną zajmuje się procesor) i obróbką każdego piksela. Takie miejsce są często określane statycznymi, w których stosunkowo niewiele się dzieje, ale jest co podziwiać. Przykładem takiego miejsca może być – jeśli pozostaniemy przy Wiedźminie 3 – puszcza niedaleko wsi Ferlund na Skellige. Czy MSI Afterburner pomoże rozpoznać bottleneck? Pomocna w uchwyceniu zjawiska wąskiego gardła może być darmowa aplikacja pokroju MSI Afterburner z dołączanym RivaTuner Statistics Server (RTSS). Pozwala ona na monitorowanie pracy procesora czy karty graficznej na bieżąco w grze. Z poniższego materiału wideo dowiesz się, jak wyświetlić niezbędne dane podczas rozgrywki dzięki MSI Afterburner: Co powie nam stopień obciążenie podzespołów, gdy trafimy do lokacji, w której GPU będzie obciążone zaledwie w 50-60%, a z procesora będą wyciskane ostatnie poty (wskaźnik będzie ciągle informował o niemal maksymalnym obciążeniu)? Albo np. trafiliśmy na miejsce typowo procesorowe, albo wydajność procesora niedomaga. Sprawdź, czy w tych lokacjach dochodzi do drastycznych spadków płynności animacji. Jeśli tak, to, owszem, CPU może stanowić przyczynę problemów z wydajnością. Często jednak sytuacja nie jest tak oczywista. Inny przykład: w miejscu procesorowym danej gry CPU jest obciążone w 60%, a karta graficzna w 97%. Na pierwszy rzut oka wydaje się, że problemu żadnego nie ma. Ale czy na pewno? No właśnie nie. W opisanym scenariuszu procesor również ogranicza wydajność GPU, mimo że wskaźniki tego nam nie mówią. Można nawet źle je odczytać i pomyśleć, że karta graficzna ogranicza wydajność, bo pracuje na pełnych obrotach, a płynność pozostawia wiele do życzenia. Opieranie swoich wniosków wyłącznie na podstawie stopnia obciążenia procesora i karty graficznej jest błędem! Nie można patrzeć na nie bezrefleksyjnie, bo same w sobie mogą nie mieć żadnej wartości. Mogą co najwyżej ułatwić wykrycie podzespołu, który stanowi wąskie gardło. Nie zapominaj, że może być nim także RAM. Wielu użytkowników łączy często nowoczesną jednostkę CPU z wolnymi pamięciami o np. szybkości 2133 czy 2666 MHz, co jest fatalnym pomysłem. Jak wspomnieliśmy, zamiana kości RAM na 3200-3600 MHz może tchnąć nowe życie w procesor, który poradzi sobie lepiej w lokacjach wymagających dużej mocy od tego podzespołu. Czy zmiana rozdzielczości i ustawień graficznych to recepta na wykrycie wąskiego gardła? Warto powyżej opisany sposób połączyć z innymi, co zwiększy prawdopodobieństwo wykrycia bottlenecku. Znaczenie procesora zwiększa się po obniżeniu rozdzielczości i/lub określonych detali. Jeśli zmniejszysz je i nie dadzą one pożądanego wzrostu wydajności, może być to oznaka wąskiego gardła. Może, lecz nie musi. Sporo zależy bowiem od silnika i optymalizacji gry – nie brakuje tytułów, w których zmiana ustawień graficznych nie daje zbyt wielkiego przyrostu fps, co automatycznie skreśla procesor jako źródło problemu. Poza tym jest mnóstwo ustawień graficznych zależnych od GPU, więc ten sposób nie będzie skuteczny. Lepszym wyjściem byłoby przetestowanie różnych procesorów w np. średnich detalach na mocnej karcie, by zobaczyć, czy i jakie zaszły zmiany w wydajności. Ale znowu – mało kto ma taką możliwość. Sprawdź zatem efekty po zmianie rozdzielczości. Jeśli np. w 1080p uzyskujesz (prawie) taką samą liczbę fps jak w 1440p, to znaczy, że problem stanowi procesor. Co ciekawe, może również okazać się, że nawet gdy testujemy daną grę w miejscu typowo graficznym, procesor może być ograniczeniem wydajności. Nawet w wyższych rozdzielczościach, 1440p i 4K, potrzebne jest odpowiednie CPU, co szczególnie widać na przykładzie chociażby Intel Core i3 i topowego GPU. We współczesnych grach cztery rdzenie (w tym i z HT/SMT) w wielu przypadkach nie są wystarczające do mocnych kart, i to wcale nie najnowszych generacji. Jeśli nadal masz wątpliwości, warto poszukać rzetelnych testów wydajności zarówno procesorów, jak i kart graficznych oraz podpytać ekspertów lub osoby bardziej zaznajomione z tematem np. na forach czy stronach internetowych i grupach społecznościowych. Najlepiej poznaj opinie różnych użytkowników – nigdy nie opieraj się tylko na jednej, która może wprowadzić Cię w błąd. Nic na tym nie stracisz, a możesz tylko zyskać dodatkową wiedzę, którą zawsze warto zweryfikować (albo przynajmniej spróbować). Jak rozpoznać, czy nasze połączenie CPU i GPU spisuje się źle? Gdy jako gracz zauważysz anomalie w postaci bardzo odmiennych wyników wydajności w różnych miejscach w danym tytule, zaczniesz się bez wątpienia zastanawiać: o co chodzi? Gdy zauważysz, że gra przez większość rozgrywki działa płynnie, natomiast w mieście pełnym NPC-ów (postaci niezależnych) spada ona drastycznie, to winowajcą nie będzie GPU. Wymiana tego podzespołu nic nie da, bo jego moc będzie blokowana przez procesor. Gdy rozgrywka nie jest satysfakcjonująca niezależnie od lokacji, Twoją uwagę powinna zwrócić karta graficzna. Jej wymiana może podnieść fps. Gdy ten komponent stanowi problem, możesz najpierw obniżyć detale i zobaczyć, czy przyniesie to pożądane efekty. Może jednak okazać się, że do danej gry zarówno procesor, jak i karta graficzna nie spełniają wymagań sprzętowych i wtedy konieczna będzie wymiana obu podzespołów. Zakup mocniejszego GPU może rozwiązać problem tylko połowicznie, ale wtedy jego wydajność ograniczać będzie przestarzałe i zbyt wolne CPU. Czy procesor zawsze musi być idealnie dobrany do karty graficznej? Procesor zwykle nie jest tak często wymienianym komponentem, jak np. karta graficzna. Czy zawsze trzeba idealnie dobrać CPU do GPU? I czy warto rozważyć przyszłościowy zakup procesora i jakie korzyści może przynieść taki wybór? Idealny tandem CPU i GPU to taki, który będzie idealny dla Ciebie Co to znaczy? Wiesz już, że dobór procesora do karty graficznej powinien być podyktowany tym, w co i jak grasz. W zależności od tego zainwestuj więcej w procesor lub kartę graficzną. Inaczej rozłóż budżet na CPU i GPU, jeśli grasz w strategie, zwłaszcza takie jak seria Total War. Wtedy kup mocniejszy procesor i słabszą kartę. Do takiego przeznaczenia podzespoły nie muszą się komponować się idealnie, ale nie popadaj w skrajności. Co innego, gdy grasz w gry wymagające przede wszystkim mocnego GPU. Wtedy nieco więcej pieniędzy przeznacz na kartę graficzną, ale – tak jak wcześniej wspomnieliśmy – z umiarem. Nie łącz np. Intel Core i3 z (prawie) topowym GeForce’em lub Radeonem. Gdy grasz w wysokich rozdzielczościach, zmiana procesora na nowszą generację może nie przynieść skoku wydajności w grach. Na przykład posiadacz Ryzena 5 3600X może nie zyskać żadnych korzyści w rozdzielczości 4K po wymianie na np. Ryzena 5 5600X. Wydaj wtedy nieco więcej na GPU. Nowsze CPU z kolei przyniosłoby poprawę wydajności przy dobrym GPU w 1080p. Pamiętaj, liczą się także Twoje potrzeby, a nie tylko ogólna wydajność podzespołów. Czy przyszłościowy zakup CPU ma sens? Dlaczego warto usiąść i chwilę zastanowić się nad tym, co nas czeka w przyszłości, przed wyborem CPU? Biorąc pod uwagę, że w konsolach obecnej generacji (PlayStation 5, Xbox Series X i Xbox Series S) sercem jest 8-rdzeniowy i 16-wątkowy procesor, warto rozważyć tak samo wyposażone CPU do komputera. Nawet jeśli zakupiony procesor nie będzie miał tak wydajnych rdzeni, jak jego następcy, to wystarczająca ich liczba może zaprocentować w przyszłych grach. Nowoczesne tytuły mogą dzięki temu lepiej działać. Może bowiem okazać się, że zbyt mała liczba rdzeni (wątków) ograniczy potem wydajność, czego przykładem w przeszłości były chociażby Assassin’s Creed: Origins, The Division 2 czy Battlefield V. Przykład procesora AMD Ryzen 5 1600X udowadnia, że czasem warto zainwestować z myślą o przyszłości. Przytoczony model dzięki konfiguracji 6-rdzeniowej i 12-wątkowej zestarzał się z godnością w przeciwieństwie do konkurencyjnego Intel Core i5-7600K z podobnego okresu. Dlaczego? Bo porównywalna w tamtym czasie jednostka Intela ma tylko 4 rdzenie i 4 wątki, co nie jest już wystarczające w nowoczesnych produkcjach, które wykorzystują więcej rdzeni. W tytułach stawiających mocniej na pojedynczy rdzeń Intel Core i5-7600K wypada często lepiej. W nowszych, czerpiących pełnymi garściami z wielordzeniowości grach Ryzen 5 1600X potrafi odstawać od swojego rywala. Jak bardzo? Niczym Usain Bolt od reszty zawodników podczas pamiętnego biegu na 100 metrów, który odbył się na Letnich Igrzyskach Olimpijskich 2008 w Pekinie. Ten model procesora „czerwonych” zestarzał się tak udanie, że AMD postanowiło nawet odświeżyć go jako Ryzen 5 1600 AF, który wykorzystuje usprawnioną architekturę (Zen+) i niższy proces technologiczny (12 nm zamiast 14 nm). Dzięki temu zbliżył się on wydajnością do konkurencyjnego Intel Core i5-9400F (znacznie nowszego niż Core i5-7600K). Podobnie może być za kilka lat, gdy na rynek zaczną trafiać gry tworzone z myślą wyłącznie o konsolach PS5 i Xbox Series X/S. Do tych gier konfiguracja 6/12 może już wypadać blado na tle 8/16. Bliżej temu do wróżenia z fusów herbacianych, chociaż takie myślenie ma solidne podstawy. Mocniejszy procesor otwiera też później ścieżkę do zakupu wydajniejszego GPU. Czasem można więc zainwestować więcej, ale rozsądnie – tak, by nie przesadzić ani w jedną, ani w drugą stronę. Dlaczego? Postęp w kolejnych generacjach trudno przewidzieć, więc niekoniecznie musi być to dobre rozwiązanie. Teraz jest łatwiej, bo jesteśmy po premierze nowych konsol, więc zakup np. Ryzena 7 5800X może się opłacić, zwłaszcza jeśli nie zamierzasz wymienić go w najbliższych latach. Czy może jednak przyszłościowy zakup procesora nie ma sensu? Jaka jest druga strona medalu, jeśli chodzi o przyszłościowy zakup procesora? Niestety, istnieje ryzyko, że moc procesora może nie być wystarczająca w grach za kilka lat, nawet jeśli wydaje się nam, że kupiliśmy CPU na długi okres. Duża liczba rdzeni może sprawić, że lepiej się zestarzeje, ale może być trudno później zakryć pozostałe niedoskonałości lub braki, które wyjdą z biegiem czasu. Z rdzeniami też może nie być tak różowo. Sony i Microsoft chcą jeszcze przez długie lata wspierać starsze konsole. Zanim będzie odpowiednio duża liczba gier, które w pełni skorzystają z dobrodziejstw procesora 8-rdzeniowego i 16-wątkowego, mogą minąć wieki. Wiesz już, do czego zmierzamy, prawda? Wybór takiego CPU może mieć mniejszą zasadność, bo zbyt brzydko się zestarzeje, nim faktycznie przyda się w grach. Jest to bardziej skomplikowane, niż się wydaje, ponieważ zależy od wielu czynników: jak gry będą wykorzystywać rdzenie, jaki postęp nas czeka w architekturach CPU i jak wiele tytułów skorzysta z nowości. Progres wydajnościowy nie był w ostatnich latach tak duży, jak w przypadku kart graficznych, więc ryzyko, że procesor danej generacji okaże się zbyt słabym ogniwem po premierze kolejnej, jest niższe niż w pierwszej dekadzie XXI wieku. W ramach podsumowania warto jeszcze dodać, że jeśli planujesz przesiadkę na monitor o wyższej rozdzielczości, to przesadna inwestycja w procesor nie ma większego sensu. Wiesz w końcu, że wraz z jej wzrostem znaczenie tego podzespołu maleje, a na główny plan trafia karta graficzna. Jest szansa, że CPU, które może nie spełniać oczekiwań w 1080p, bez problemu wystarczy do rozgrywki w 4K. Jakie mogą być skutki złego dopasowania CPU i GPU? Niewłaściwy dobór procesora do karty graficznej może przynieść fatalne konsekwencje. Jeśli np. połączysz Intel Celeron lub Pentium z GeForce’em RTX 3080, to w grach taki zestaw może spisywać się wyraźnie gorzej niż połączenie procesora Intel Core i9-11900K i RTX-a 3060. Nie będzie to dobry pomysł. Im gorzej dobierzesz te podzespoły, tym komfort rozgrywki będzie mniejszy. Skoro CPU może ograniczać wydajność GPU nawet w miejscach typowo graficznych, nie dobieraj procesora z najniższej półki do karty z najwyższej (to, rzecz jasna, skrajny przykład dla lepszego zobrazowania). Jak jednak wspomnieliśmy, podzespoły nie muszą być idealnie dobrane, to wszystko zależy od wielu czynników. Jeśli kupisz mocną kartę graficzną, ale Twój obecny procesor tylko w niewielkim stopniu ją ogranicza, to nic złego się nie stanie. Nie będziesz po prostu wykorzystał w 100% jej mocy, ale w grach, w których uzyskujesz np. 165 zamiast 180 klatek na sekundę, nie zrobi to chyba wielkiej różnicy, nieprawdaż? Poza tym, gdy zmienisz potem CPU, problem zniknie. Z dwojga złego lepiej mieć zbyt mocny procesor względem karty graficznej niż na odwrót. Poza wyjątkiem, gdy różnice są stosunkowo niewielkie albo wręcz nieodczuwalne. Nawet jeśli są gry, w których procesor przekłada się na większą rozbieżność w wynikach, to jest w nich na tyle dużo klatek na sekundę, że ich liczba przestaje mieć znaczenie. Może stać się też tak, że nawet jeśli w jakiejś grze procesor będzie stanowił problem, to objawi się tylko w pojedynczych lokacjach, np. w dużym mieście pełnym NPC-ów, a w innych przypadkach, zależnych głównie od mocy GPU, gra będzie chodziła bez większych zgrzytów. Musisz odpowiedzieć sobie na pytanie: czy taki scenariusz stanowi dla Ciebie problem, który należy rozwiązać? Najlepsze połączenie procesora i karty graficznej Recepta jest prosta. Staraj się dobierać niskiej klasy procesor do niskobudżetowej karty graficznej, średnie CPU do przeciętnego GPU itd. Nie trzeba się jednak trzymać sztywno tych granic. W końcu jeśli grasz w gry zależne w większym stopniu od karty graficznej, zdecyduj się na nieco mocniejszy układ nawet przy nieco słabszym procesorze. Takie połączenie będzie wtedy jak najbardziej uzasadnione. Podsumowując, kluczem jest dobór zrównoważonych podzespołów, tak by jeden nie odstawał znacząco wydajnością od drugiego. Za liczbę fps nie odpowiada wyłącznie karta graficzna – w zależności od gry czy scenariusza większy lub mniejszy wpływ na wartość klatek na sekundę ma także procesor (i w mniej odczuwalnym stopniu pamięć RAM). Mamy nadzieję, że nasz poradnik ułatwi Ci wybór odpowiednich komponentów. Przed decyzją o zakupie procesora do określonej karty graficznej, zapoznaj się z jego specyfikacją i testami wydajności w tych grach, w których ma Ci on służyć. To zdecydowanie ułatwi Ci wybór i dopasowanie CPU do GPU. Przeczytaj więcej o polecanych procesorach do gier na portalu Geex Odkryj najlepsze procesory w sklepie x-kom Sprawdź pełną ofertę kart graficznych w x-komie
Recommended Posts Udostępnij Witam wszystkich od dłuższego czasu dręczy mnie mały dylemat, chciałbym zmodernizować trochę swój komputer jednak z racji ograniczonego budżetu mogę sobie pozwolić na zmianę 1 kluczowego podzespołu, moj obecny sprzet to: AMD Athlon 7850 x2 2,[email protected] 2x2GB Ram ddr2 800mhz patriot płyta asus M3A-H/HDMI na chipsecie amd 780G socket AM2+ karta graficzna asus 4850 ddr3 625/993 (1986) mhz zasilacz pentagram 500W Nie wiem czy wąskim gardłem w moim zestawie jest obecnie procesor czy karta graficzna, chciałbym zakupić radeona 6850 albo jakis procesor 4 rdzeniowy athlon albo phenom co sadzicie? Cytuj Link to post Share on other sites Udostępnij athlon x3 450 do malego OC (phenom daje tak nieznacznie wiecej ze sie nie oplaca) + 6870 jesli finanse to x3 + 5770 na tej plycie to za duzo nie zdzialasz - nie pomijam faktu ze pomiedzy ath x4 a x3 nie istnieje sensowna roznica wydajnosciowa Edytowane 20 Października 2011 przez naafet Cytuj Link to post Share on other sites Udostępnij A ile masz kasy ? Co do Phenoma to sie nie zgadzam, ze daje nieznacznie wiecej (bo daje nie dosc, ze cache potrzebny grom, to jeszcze daje dodatkowy rdzen, zreszta to wszystko i tak wysiada przy Intelu) Cytuj Link to post Share on other sites Udostępnij rozni sie owszem o 6-8% po oc obu wiec niezgadzac sie mozesz tylko czy za te drobne jest sens doplacac - nie lepiej doplacisc wiecej do karty jak juz do czegos ma doplacic a wiecej dostanie niz kilka procent 150 do karty to juz z 5770 robi sie 6850 i nie bedzuie to roznica 6% bezsensem jest kupno phenoma - i nie ma na to rady chyba ze ktos chce wywalac kase nie zapopomne wspomniec o tej plycie ktora ledwo co pozwoli oclic x3 bo na cleniu phenoma to sie zdymi Edytowane 20 Października 2011 przez naafet Cytuj Link to post Share on other sites Autor Udostępnij Myślałem o zakupie 5770 ale stwierdziłem że odpuszczę serie 5000 i zaczekam na 6000 w przystepnej cenie, tego 4850 kupilem zaraz jak wyszly te karty i 3 lata dobrze mi sluzyl, dlatego chce aby nastepna karta tez troche posluzyla, pozatym modowalem w niej chlodzenie i dziala na samym radiatorze. Co do plyty to nie mam co na nia narzekac, kupowalem ja razem z karta ale ona byla z tej sredniej polki, obsluguje wszystkie dostepne procesory athlon/phenom. Co do procesorow 3 rdzeniowych to srednio jestem do nich przekonany, takie wybrakowane wedlug mnie sa. cena jaka moge wydac to kolo 400zl na procka lub 600 na karte (poczekam az kurs troche spadnie) co do pamieci L3 to moj procesor tez ja posiada Edytowane 20 Października 2011 przez BlackDevil Cytuj Link to post Share on other sites Udostępnij Twoj jest starym gratem - nie wydajnym pomimo iz posiada l3 ath2 x3 bez l3 bedzie dwa razy wydajniejszy co do plyty to tylko zdanie sprzedawcy ze jest ze sredniej polki - no moze kiedys dawno temu byla ze sredniej - teraz jest z najnizszej mozliwej testy sie licza a nie Twoje zdanie - testy mowia co innego Edytowane 20 Października 2011 przez naafet Cytuj Link to post Share on other sites Autor Udostępnij testy sie licza a nie Twoje zdanie - testy mowia co innego co uwazasz za testy ktore to potwierdzaja? oczywiscie nie mowie tu o porownaniu jej z segmentem z wyzszej polki, nie bawie sie tez w oc wiec co mi jeszcze potrzebne jest w plycie? 4 gniazda pamieci sa, 100% kondensatory polimerowe, obsluga procesorow na dobrym poziomie, stabilnosc itd... przed jej kupnem siedzialem z tydzien czasu przegladajac testy i porownujac ja do innych. obecnie myslalem nawet nad wymiana plyty juz na am3+ przyszlosciowo myslac o buldozerku ale troche sie zaiodlem jego osiagami przy wykorzystaniu w grach a co do procka to padl wybor na tego a zrezygnowalem z athlona 6000+ Edytowane 20 Października 2011 przez BlackDevil Cytuj Link to post Share on other sites Udostępnij ma tylko 5 faz i to trak rozlozonych ze nie da sie ich "zradiatorowac" 5 to bedzie sie grzalo zeby mialo sie nie grzac nmusiala by miec znacznie wiecej lub piec ale z radiatorem - ta plyta jak na obecne czasy jest pozbawiona sensownej sekcji zasilania OC to nie jest zabawa - to cos co sie robi zeby uzyskac duzo- czesto wiecej niz mozna kupic za jakiekolwiek pieniadze zabawa to jest w piaskownicy wpuisz modelk swopjegop procka+review wpisz inne plus review wybacz ale ja rzucam tylko haslo - chcesz to dochodz sam nie chcesz to nie dochodz gdybynm mial wszystko sam argumentowac to musilabym tu spedzac 2x wiecej czasu niz spedzam a i tak za duzo go poswiecam Edytowane 20 Października 2011 przez naafet Cytuj Link to post Share on other sites Autor Udostępnij wpisz inne plus review nie bardzo to zrozumialem wiem co to oc, swego czasu sie amatorsko bawilem w podkrecanie, jak juz wczesniej pisalem plyta nie byla dobierana pod wzgledem oc a obecny procesor przetaktowalem symbolicznie o 200mhz przez podniesienie mnoznika, grafika przetaktowana byla tylko testowo a ty naafet patrzysz pod wzgledem ile na maxa mozna wycisnac ze sprzetu. Mi bardziej sie rozchodzi o to czy jak zmienie swoj procesor na jakis nowszy (szybszy) jak radzicie 3 lub 4 rdzeniowy do czy da sie z mojej karty wyciagnac wiecej fps bez jej podkrecania, czyli czy moj procesor wykorzystuje ja na maxa czy nie i odwrotnie, jesli procesor nie wykorzystuje swojej mocy w 100% to czy zmiana karty na tego 6850 przyniesie lepsze efekty Cytuj Link to post Share on other sites Udostępnij nie bardzo to zrozumialem wiem co to oc, swego czasu sie amatorsko bawilem w podkrecanie, jak juz wczesniej pisalem plyta nie byla dobierana pod wzgledem oc a obecny procesor przetaktowalem symbolicznie o 200mhz przez podniesienie mnoznika, grafika przetaktowana byla tylko testowo a ty naafet patrzysz pod wzgledem ile na maxa mozna wycisnac ze sprzetu. Mi bardziej sie rozchodzi o to czy jak zmienie swoj procesor na jakis nowszy (szybszy) jak radzicie 3 lub 4 rdzeniowy do czy da sie z mojej karty wyciagnac wiecej fps bez jej podkrecania, czyli czy moj procesor wykorzystuje ja na maxa czy nie i odwrotnie, jesli procesor nie wykorzystuje swojej mocy w 100% to czy zmiana karty na tego 6850 przyniesie lepsze efektyOdpowiem opisując to na własnym przykładzie. Miałem kiedyś GF 8800 Gt ,czyli sprzęt mniej więcejz tego segmentu co Ty (moze trochę słabszy). Przy Athlonie X2 4200 i 2 GB Ramu zestaw osiągał 7862 pkt w 3D Marku 06, ale brakowało płynności np. w GTA IV. Po upgradzie na Athlona X4 630 w 3D Marku 06 było już 11647 pkt., a w GTA IV przy dwukrotnie wyższych ustawieniach gra stała się płynna. Cytuj Link to post Share on other sites Udostępnij Na phenom x4 955BE było by jeszcze lepiej. Jak masz w płycie ACC to kup proca który się odblokuje na x4, x2 550BE. Edytowane 20 Października 2011 przez Skitles Cytuj Link to post Share on other sites Autor Udostępnij Odpowiem opisując to na własnym przykładzie. Miałem kiedyś GF 8800 Gt ,czyli sprzęt mniej więcejz tego segmentu co Ty (moze trochę słabszy). Przy Athlonie X2 4200 i 2 GB Ramu zestaw osiągał 7862 pkt w 3D Marku 06, ale brakowało płynności np. w GTA IV. Po upgradzie na Athlona X4 630 w 3D Marku 06 było już 11647 pkt., a w GTA IV przy dwukrotnie wyższych ustawieniach gra stała się płynna. z tym ze w starym procesorze miales taktowanie 2,2 a w nowym 2,8 a to jest roznica a u mnie duzo sie nie zmieni, z 3ghz moze na 3,2 Jak masz w płycie ACC to kup proca który się odblokuje na x4, x2 550BE. Niestety ta plyta nie ma mozliwosci odblokowania rdzeni A może miał ktoś wydajnościowo podobny procesor do tego i zmienił grafike na 6850? Edytowane 21 Października 2011 przez BlackDevil Cytuj Link to post Share on other sites Udostępnij Ja mam 7550 i Geforce 8800GTS512 i mogę go podkręcić na ale to i tak nic nie daje. Możesz sobie kupić do niego 6850 albo zostawić 4850 i kupić phenom x4. Ja już kupiłem płytkę na am3, brakuje mi ramu ddr3 i procesora. 8800GTS512 zostawiam sobie wole mieć mocny procesor. Cytuj Link to post Share on other sites Dołącz do dyskusji Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.
11 godzin temu, aXen™ | 1s2k napisał: Korzystałeś z programów takich jak CCLeaner? Windows 10 tego nie lubi i może spowolnić system zamiast przyspieszyć. Resetowałeś sterowniki NVIDIA? Instalowałeś dla odpowiedniej karty graficznej? Ustawiałeś coś w sterownikach karty graficznej? Aktualizowałeś wszystkie sterowniki? BIOS aktualny? Jak masz ustawione ustawienia w BIOSie? Zrób aktualizacje do najnowszej wersji Windows 10 1903 (May 2019 Update). Aktualizacja poprawkowa z dzisiaj miała poprawić działanie znikających kart graficznych podczas gry. Używałem CCLeaner, ale było to już po tym fakcie więc raczej związku z tym to nie ma. Robiłem DDU, instalowałem z nVidii odpowiednie na moją kartę. Ustawiałem, bawiłem się, potem resetowałem, formatowałem i nic. Tak aktualizowałem. Mam problem z aktualizacją biosu. Formatowałem pendrive do odpowiedniego formatu, ale to nic nie pomogło. M-Flash nie czyta mi tego pliku jako aktualizacje biosu. Być może to jest winowajca bo mam bios z 2016 roku. Ustawienia w BIOS'ie mam fabryczne, bawiłem się tylko z wiatraczkami. Aktualizacja zrobiona. Sprawdzę, czy coś pomogło. A tym czasem pokombinuje coś z tym BIOS'em bo nie czyta biosu
Coraz więcej laptopów, które dostępne są na rynku, wyposażone są w dwie karty graficzne – dedykowaną i zintegrowaną. Rozwiązanie to pozytywnie wpływa na wydajność, którą oferuje sprzęt, a jednocześnie jest niezwykle praktyczne. Jak wybrać jednak z którego GPU chcemy obecnie korzystać?Dwie karty graficzne w laptopie – jak to działa?Czy dwie karty graficzne mają sens?Jak zmienić kartę graficzną w laptopie dla wybranej aplikacji?Przełączanie kart w AMD CatalystPrzełączanie kart w NVidia Control PanelJak ustawić domyślną kartę graficzną Windows 10?Przełączanie kart graficznych w laptopieDwie karty graficzne w laptopie – jak to działa?Podstawową informacją, którą należy wiedzieć o sprzęcie z kartą zintegrowaną i dedykowaną, jest to, że dwie karty graficzne w laptopie nie działają jednocześnie. Karta dedykowana działa jedynie, gdy:Pracujemy z wymagającym dużej mocy oprogramowaniem,Gramy w gry,Oglądamy filmy wysokiej jakości,Zajmujemy się obróbką grafiki,W innych przypadkach komputer wykorzystuje słabszą i mniej energiożerną kartę zintegrowaną. Rozwiązanie to najłatwiej porównać do skrzyni biegów – przyśpieszając, musimy wrzucić w pewnym momencie wyższy bieg, czyli w przypadku sprzętu – przełączyć się na mocniejszą kartę dwie karty graficzne mają sens?Wiele osób zastanawiać się może, po co w sprzęcie przenośnym montować dodatkowe karty graficzne, które zwiększają wagę urządzenia. Powód jest prosty – karta zintegrowana i dedykowana razem w laptopie sprawiają, że urządzenie staje się bardziej uniwersalne i możemy wykorzystać je w kilku różnych zintegrowana będzie przydatna, gdy chcemy pracować, odpisywać na maile lub robić inne proste czynności z daleka od gniazdka, ponieważ pobiera ona znacznie mniej energii, a co za tym idzie, praca na jednym ładowaniu trwać będzie drugiej strony, dzięki dedykowanemu GPU, jeśli mamy ochotę, możemy z laptopa, który ma 2 karty graficzne korzystać jak z domowego centrum rozrywki bez znacznej utraty wydajności w porównaniu do komputera PC. Docenić należy także to, że pracując na karcie zintegrowanej laptop, będzie pracował ciszej, a dodatkowo będzie generował mniejsze temperatury, co może mieć znaczenie dla osób pracujących z laptopem na zmienić kartę graficzną w laptopie dla wybranej aplikacji?Co ciekawe nie jesteśmy zmuszeni do dostosowywania się do automatycznie dobranych przez system ustawień i w razie potrzeby możemy samodzielnie zdecydować, z którego układu chcemy korzystać. Jest to niezwykle proste, ale należy pamiętać, że wybór karty graficznej będzie się różnić zależnie od jej kart w AMD CatalystW przypadku kart AMD musimy uruchomić aplikację producenta – AMD Catalyst Control Center, gdzie następnie przechodzimy do zakładki „Zasilanie”. W menu, które się rozwinie, należy wybrać opcję „Monitor przełączania grafiki dla aplikacji”. W ten sposób pojawi nam się możliwość wybrania tego, która karta graficzna ma być docelowym GPU dla danej aplikacji. Wybór zatwierdzamy przyciskiem „Zastosuj”.Przełączanie kart w NVidia Control PanelPodobnie postąpić należy w przypadku kart wyprodukowanych przez firmę NVIDIA. Uruchomić w tym przypadku należy aplikacje NVIDIA Control Panel. Tam w menu znajdującym się z lewej strony programu wybieramy zakładkę „Manage 3D Settings”, a następnie „Program Settings”. Tam możemy wybrać aplikację z menu rozwijanego i zdecydować czy chcemy, żeby wykorzystywała ona zintegrowaną kartę graficzną, czy kartę NVIDIA o dużej ustawić domyślną kartę graficzną Windows 10?W podobny sposób możemy zdecydować się, która karta graficzna ma być kartą główną. Jak przy wyborze karty dla konkretnej aplikacji ponownie musimy uruchomić program odpowiedzialny za ustawienia karty graficznej. Tym razem w przypadku aplikacji przeznaczonej dla kart AMD należy wybrać zakładkę „Zasilanie”, a następnie „PowerPlay”. W prawej stronie okna aplikacji zobaczymy informacje o tym, która karta graficzna jest podstawowym GPU zależnie od tego, czy laptop podłączony jest do prądu czy też nie. Możemy ustawienie to dowolnie przypadku kart GeForce proces ten jest równie prosty. Ponownie musimy wybrać zakładkę „Manage 3D Settings”, ale w przypadku wybrania karty preferowanej zostajemy w zakładce „Global Settings”, gdzie wyboru karty dokonać możemy w prosty sposób za pomocą rozwijanego kart graficznych w laptopieDwie karty graficzne w laptopie sprawiają, że staje się on urządzeniem wielofunkcyjnym łączącym ze sobą mobilność sprzętu przenośnego, ale także wydajność przeważnie mocniejszych komputerów z normalnymi kartami graficznymi. Obsługa sprzętu wyposażonego w dwa GPU jest niezwykle prosta i w wielu przypadkach nie musimy się nawet zastanawiać, na której karcie graficznej obecnie działamy. Wszystkie decyzje podejmowane są bez naszej wiedzy.
karta graficzna nie wykorzystuje swojej mocy