GTX 1070 i GTX 1080 - nowe doniesienia na temat kart Nvidii
W ostatnim czasie dociera do nas coraz więcej informacji na temat nadchodzących kart graficznych od AMD i Nvidii, co oznacza, że ich premiera jest coraz bliżej. Nvidia kilka dni temu ujawniła specyfikację układu Big Pascal (GP100) i co prawda nie zdradziła jeszcze żadnych konkretów na temat nadchodzących kart konsumenckich, ale najnowsze doniesienia prosto z Azji sugerują, że nie będziemy musieli już zbyt długo czekać na ich premierę.
Według źródeł DigiTimes, Nvidia zaprezentuje swoje topowe modele GTX 1080 oraz GTX 1070 w trakcie targów Computex, które startują w tym roku 31 maja. Koreańskie źródła zdają się iść w parze z tymi informacjami, ponieważ wskazują, że modele z serii GeForce GTX 1000 znajdują się już w produkcji i zostaną wkrótce zaprezentowane. Warto przypomnieć, że przecieki z obozu AMD także sugerują premierę hi-endowych modeli tego producenta na tej imprezie.
Niedawno w sieci pojawiły się zdjęcia osłon coolera GTX 1080 i GTX 1070, a najnowszy przeciek dostarcza fotkę układu GP104, na którym bazować mają te karty. Ten mierzyć ma ok. 300mm2, co oznacza, że będzie o ok. 100 mm2 mniejszy od swojego poprzednika (GM204), poza tym znajdziemy tu zdecydowanie więcej tranzystorów (ponad 7 mld vs 5,2 mld). Dostrzec możemy tu również chipy Samsung K4G80325FB-HC25 oferujące 8 Gb pamięci GDDR5 pracujące z prędkością 8 Gb/s, te nie były dotychczas wykorzystywane w żadnych kartach i obecnie stosuje się moduły o prędkości 7 Gb/s. Z nieoficjalnych doniesień wynika natomiast, że GPU GP104 oferować będzie 2560 rdzeni CUDA.
Meizu Pro 6 zostanie zaprezentowany 13 kwietnia Huawei MediaPad T2 10.0 Pro - rendery i specyfi...
Skocz do ostatniej odpowiedzi | Pierwszy post na stronie
09.04.2016 14:01
Wątków: 0 | Odpowiedzi: 2320
hmm
Mnie interesuje jak to bedzie wydajne w porownaniu do 980Ti 1400MHz
jak bedzie +40% i cena nie zaporowa to biore w ciemno.
i7 7700K @ 5GHz 16GB DDR4 3200 , 2x EVGA 1080Ti SC2 Hybrid SLI & BenQ BL3200 | TV SAMSUNG UE65HU8500
09.04.2016 14:37
Wątków: 0 | Odpowiedzi: 1742
roszkę offtop...
... ale związane z Nvidią i Vulkan API ... pod najnowszymi sterownikami 364.16 - Windows 10 i Ubuntu 16.04 ... Ubuntu jest szybsze od Szpiegownika 10 nawet o blisko 50 % !
![]()
http://www.phoronix.com/scan.php?page=news_item&px=Win10-Linux-Vulkan-Early
e X t 7 3 netext73.pl
09.04.2016 14:47
Wątków: 48 | Odpowiedzi: 3598
....
Szkoda że jako Linuxowy troll zapomniałeś napisać że ten test dotyczy tylko i wyłącznie pseudo benchmarka The Talos Principle....
09.04.2016 15:01
Wątków: 17 | Odpowiedzi: 52303
eXt73 vs ralf11 czyli Linux vs MS - fight!
09.04.2016 15:59
Wątków: 107 | Odpowiedzi: 3377
....
Ciekawe kiedy premiera tych dwóch kart, jak będzie z cenami(szczególnie 1070 vs 970) no i kiedy jakieś niereferenty.
i5 6600 3.9GHz(Spartan Pro), Asus H170M-PLUS, Asus 970 Strix OC, 16GB DDR4 HyperX 2133MHz, SSD 275GB + 1TB HDD, BeQuiet L8 500W, Zalman Z9: AG Neovo L-W27 27 cali
09.04.2016 16:37
Wątków: 0 | Odpowiedzi: 1560
Ja za to jestem ciekaw czy GTX 1070 będzie miał wydajność zbliżoną do GTX 980Ti, tak jak GTX 970 było niemal na równi z GTX 780Ti. Czas zakupić monitor 4K
![]()
09.04.2016 16:46
Wątków: 17 | Odpowiedzi: 52303
Squizz
IMO brałbym któryś z tych 1440p IPS Free/G-Sync 144/165Hz, albo tego Acera/Asusa 34" 21:9 z G/FreeSync z 3440x1440 75/100Hz.
Ewentualnie poczekał na 4k 120Hz, które powinny się pojawić w tym roku (razem z koniecznym DP1.3, które już AMD w Polarisie potwierdziło) lub 1440p 144Hz HDR:
![]()
Plik graficzny (zmniejszony z 3999x2250) pochodzi stąd
09.04.2016 16:48
Wątków: 17 | Odpowiedzi: 52303
Darnokos
Ostatnio niereferenty są praktycznie od razu, zwłaszcza w tańśzych modelach gdzie wręcz w ogóle nie ma referentów (970 i niżej, Fury, 390/X i niżej)
09.04.2016 17:07
Wątków: 0 | Odpowiedzi: 1560
Freezer64
Nie mam nieograniczonego budżetu
Mam chrapkę na LG 27UD68-W, 27" http://cenowarka.pl/eu/lg-electronics-27ud68-w-a1395285.html?hloc=at&hloc=de&hloc=pl&hloc=uk
Za AH-IPS, HDMI 2.0, AMD FreeSync, flicker-free, Slim Bezel i nietuzinkowy wygląd. Szczerze oferta z G-Sync nie dość, że jest droższa, to jeszcze moim zdaniem zbyt odpustowa. Zakrzywione 34" 21:9 oglądałem w sklepie. Dla mnie jednak za szerokie.
W shootery nie gram więc ponad 60 fps (szczególnie w 4K to sobie mogę pomarzyć) nie jest mi specjalnie potrzebneJasne, że lepiej mieć 120 Hz ale następca GTX970 niema szans na wyświetlenie 120 klatek 4K nawet w średnich detalach.
09.04.2016 17:14
Wątków: 73 | Odpowiedzi: 7207
Czyli znowu to samo co z 980/970?
Kastraty mid-range przemalowane na highend a na normalne karty trzeba będzie znowu czekać?
4790K, 32GB DDR3, GTX1080
09.04.2016 17:29
Wątków: 17 | Odpowiedzi: 52303
Squizz
ale zdajesz sobie sprawę z problemów ze skalowaniem tego 4k na 27"?
![]()
IMO w ogóle pakowanie się w 4k do gier to pakowanie się w dalsze wydatki. Wymagania gier nie będą stać w miejscu - będą dorzucane nowe ciekawe efekty jak chociażby VXAO obciążający jeszcze sporo mocniej od HBAO+, jakieś GI, etc. Rozważanie 1070 z myślą o 4k brzmi przesadnie optymistycznie (chyba że pisząc 4k nie myślisz o ultra 60fps, a high i 40fps - to prędzej).
Zwłaszcza, ze w powyższym newsie masz rzekomy przeciek o zaledwie 256bit GDDR5 w gtx1080 - deczko niska przepustowość do 4k nie sądzisz?Prędzej 1070 SLI
09.04.2016 17:38
Wątków: 21 | Odpowiedzi: 8388
Niestety.
4k to tylko "entuzjaści" gruby portfel. 980SLI ,monitor za 4k.
Pewnie generacja z 2018 rok kart(przy założeniu że w 2017 też coś wyjdzie)..już pozwoli na granie 4k 60 FPS.
I wtedy monitorek 4k 34" z DS 1.3...wydaje się zakupem na dłuższy czas.
Tylko co zrobić jak ktoś ma teraz jakieś 22" i go kusi coś lepszego.
JA/8700K,Z370Taichi,16GB@4133CL16-1T,Nv1070,MX300,HDD2,5"2TB,SST-GD07B,SS760XP2,BQDarkRockTF Żona/2500k@4.2GHz,p67pro3,Nv1070,16GB@2133CL8,MX100,1TB HDD
09.04.2016 17:46
Wątków: 0 | Odpowiedzi: 1560
Freezer64
Nie powinno być problemów ze skalowaniem 4K do 1080p. Do 1440p a i owszem. Chyba, że chodzi ci konkretnie o rozmiar matrycy. Dlaczego obraz miałby wyglądać gorzej na 27 calach w porównaniu innych rozmiarów?
Nie gram w zbyt nowe gry. W obecnej, w którą gram w wolnych chwilach, można uzyskać 60fps w ultra 4K już na GTX 970 z przycinkami do 30 w zatłoczonych miejscach. TITAN ma spadki do 50 fps max
W Wieśka pewnie będę grał na high w 4K i 1080p na ultra + hairworks dla odmiany. Gerald poza potworami ubija maszyny![]()
A sama karta powinna mieć wyższą przepustowość o 14% dzięki 8gbps vs 7 Gbps![]()
09.04.2016 17:49
Wątków: 17 | Odpowiedzi: 52303
Yogi
A czego się spodziewałeś?
W sumie bardziej trafne porównanie byłoby do 680/670 - nowe chipy w świeżym procesie (no i przeciek sugeruje ~300mm2 jak 680, 980 miał ~400mm2). Metoda małych kroczków się bardziej opłaca, do tego AMD już potwierdziło, że potworek z HBM2 będzie dopiero w 2017, a chwilę później Nv wyjechała z Teslą P100 na pełnym Pascalu stwierdzając, że gotowe produkty na tym chipie będą też dopiero w Q1 2017 (czyli cywilna wersja o ile w ogóle to pewnie później w 2017)
Tylko jeśli faktycznie będzie zaledwie 256bit GDDR5 (nie-X) to nie wiem jak to ma być w ogóle szybsze od 980Ti. Musieli by zrobić taki skok z L2 i algorytmami kompresja jak Kepler->Maxwell, a powtórzenie tego drugi raz pod rząd brzmi nierealnie (zresztą to nie są bajery, które w 100% zastąpią wyższą przepustowość np. nawet jak algorytm kompresji będzie godny nagrody nobla to wciąż podatne na kompresje będzie tylko część danych przerzucanych podczas grania, podobnie z cache - kilka MB to nie kilka GB, a 16nm to jeszcze nie tak niski proces żeby w układzie klasy GP104 marnować miejsce na bufor ramki np. 64MB eSRAMa eDRAM jak u Intela byłby za wolny do chipu tej klasy)
09.04.2016 17:58
Wątków: 17 | Odpowiedzi: 52303
Squizz
A jaki byś chciał fps w tym 4k high w W3?
![]()
14%, no faktycznie przepaść, dalej 980Ti ma 31% więcej. A co jeśli 8Gb/s kostki dostanie tylko 1080?![]()
09.04.2016 18:27
Wątków: 119 | Odpowiedzi: 6235
123
Nad sterami by przy okazji popracowali... 364.72 za diabła nie chcą się u mnie zainstalować, za każdym razem niepowodzenie - jedne na drugie, po czyszczeniu starych - bez znaczenia :/ 364.51 za to bezproblemowo. Rozumiem, że to tak w ramach motywacji, żeby wysłużonego GTX 460 się pozbyć?
.:: only happy when it rains ::. .:: x360 gamertag: n0onePL ::.
09.04.2016 19:00
Wątków: 107 | Odpowiedzi: 3377
...
Gdyby tak ten 1070 kosztował te 1600 na dzień dobry... ale pewnie za nowość i żeby sprzedawać jeszcze serię 900 będzie to 1800
i5 6600 3.9GHz(Spartan Pro), Asus H170M-PLUS, Asus 970 Strix OC, 16GB DDR4 HyperX 2133MHz, SSD 275GB + 1TB HDD, BeQuiet L8 500W, Zalman Z9: AG Neovo L-W27 27 cali
09.04.2016 22:52
Wątków: 0 | Odpowiedzi: 1560
Freezer64
Ze 40 fps by się przydało
Tyle też da się wycisnąć po OC skoro niekręcony Titan wyciągał 35 fps przed łatką w najgorszych miejscach w 4K High. W 1080p Ultra+Hairworks powinno być już w okolicach 60 fps po OC... o ile GTX 1070 będzie miał wydajność podobną do GTX 980Ti. Ale ja nie o tym
Co do GDDR5 no cóż... więcej się za bardzo nie da wyciągnąć. Z resztą nie wiadomo czy aby na pewno nie dadzą GDDR5X. A jeśli nie dadzą GDDR5X do GTX 980 to wątpię by Titan dostał HBM2. Nie zrobią GDDR5X pod jednego 1080Ti. HBM2 do Pro
09.04.2016 23:14
Wątków: 17 | Odpowiedzi: 52303
Tyle, że GDDR5X w jeszcze większych powijakach niż HBM2. Samsung produkuje masowo HBM2 od stycznia (a i tak GP100 w tym roku ma być tylko w jakichś groszowych ilościach, w gotowych produktach dopiero Q1 2017), Hynix ma HBM2 zacząć bodaj w Q3 i w podobnym czasie Micron dopiero zacznie GDDR5X masowo chyba jako jedyny póki co
10.04.2016 06:43
Wątków: 11 | Odpowiedzi: 1404
eXt73 Sam chyba najlepiej powinieneś wiedzieć, że to tytułów AA i AAA Nvidia i AMD robią optymalizacje, tak że żaden Vulcan czy OpenGL na Linux nie ma szans z prostej przyczyny: bo rachunek ekonomiczny musi się zgodzić.
Wychodzi więc tak, że nie robi się optymalizacji dla powiedzmy 2% konsumentów, bo nikomu się to nie opłaca.
Pamiętam jak stery w 2007 miały po 17 MB a potem wszedł DX 10 i DX 11 i zaczęły rosnąć do jakiś chorych rozmiarów typu 500-700 MB sam sterownik. Gdzie pewnie 98% tego to są te właśnie optymalizacje pod konkretne gry.
"Coś się kończy, coś się zaczyna" A. S.
10.04.2016 13:46
Wątków: 8 | Odpowiedzi: 693
ralf11 patrząc po ostatnich testach nowych gier w dx12 to każda z nich jest pseudo benchmarkiem, bo wyniki są kompletnie nieprzewidywalne . Raz jest więcej klatek w dx12, niz w dx11 , a w innej grze jest na odwrót, raz jest duży wzrost wydajności w dx12 na słabszym procku, a raz go nie ma. Wiec talos principle to dla mnie tak samo dobry/zły test jak każdy inny . Jest tak samo nieprzewidywalny. Bo co prawda faktycznie wydajność na Vulcanie pomiędzy windowsem a linuksem w tym teście jest dosyć duża 90 versus 120 klatek , ale dziwne jest to, że na windowsie pod dx11 jest wiecej klatek bo 106 (prawie tyle samo co pod linuksem w opengl) . Czy to oznacza, ze sterownik vulcana pod windowsa jest skopany, czy implementacja vulcana w windowsowej wersji talos principle jest skopana? W każdym razie moim zdaniem nie ma się z czego cieszyć - na razie to jedyna gra , która chce się zaprzyjaźnić z Vulcanem i jeżeli wydajność pod Vulcanem na windowsie wsiąż będzie niższa niz pod dx11 to chyba nieprędko doczekamy następnej, a powinno nam na tym zależeć, bo wykonanie portu dla linuksa, jeżeli gra korzysta z Vulcana powinno być prostsze.
A co do newsa - za dwa miesiące powinny pojawić się testy nowych kart zarówno ze strony amd jak i nvidii. Rewolucji się nie spodziewam, chociaż w grafikach amd może dojść do małej rewolucji w wydajności na wat :-) W każdym razie powoli odechciewa mi się czytać o kolejnych "przeciekach".
10.04.2016 15:20
Wątków: 17 | Odpowiedzi: 52303
Krogg
Przede wszystkim ciut pełniejszy obraz wydajności byłby gdyby w tym teście były grafy nie tylko z jednego obozu
![]()
Nie sugeruję żadnego scenariusza, ale ciekawe jakby czerwoni wypadli, bo z jednej strony Vulkan czerpie garściami z Mantle, a z drugiej strony Nvidia ma chyba lepsze drivery pod linucha.
Do tego Nvidia ma bardzo dobrze dopracowany driver DX11, łącznie z jakąś tam wielowątkowością, której inni w DX11 nie mają i która jest przecież głównym argumentem za DX12/Vulkanem.
Tak czy tak masz rację, że póki co ciężko cokolwiek rokować o Vulkanie. Potencjał w tym API jest (największy na grafach innych niż Nv) i pokazywał to nawet Intel, a konkretniej polski oddział zajmujący się sterownikami do IGPTylko pytanie jak będzie z supportem. Chciałbym żeby developerzy na PC używali tego API chętniej niż to było z OpenGL (zwłaszcza na Windzie), bo mimo, że pewnie koniec końców będę musiał się przekonać do W10, to irytują mnie ostatnie działania MS i przydałbym im się prztyczek w nos w postaci realnej alternatywy żeby ochłonęli, bo ostatnio zaczęli w nieprzyjemny sposób nadużywać swojej pozycji.
Aby dodać odpowiedź zaloguj się.
Komentarze (22)