GTX 1070 i GTX 1080 - nowe doniesienia na temat kart Nvidii

Daniel Górecki, 2016-04-09 12:00 | Źródło |

W ostatnim czasie dociera do nas coraz więcej informacji na temat nadchodzących kart graficznych od AMD i Nvidii, co oznacza, że ich premiera jest coraz bliżej. Nvidia kilka dni temu ujawniła specyfikację układu Big Pascal (GP100) i co prawda nie zdradziła jeszcze żadnych konkretów na temat nadchodzących kart konsumenckich, ale najnowsze doniesienia prosto z Azji sugerują, że nie będziemy musieli już zbyt długo czekać na ich premierę.

Według źródeł DigiTimes, Nvidia zaprezentuje swoje topowe modele GTX 1080 oraz GTX 1070 w trakcie targów Computex, które startują w tym roku 31 maja. Koreańskie źródła zdają się iść w parze z tymi informacjami, ponieważ wskazują, że modele z serii GeForce GTX 1000 znajdują się już w produkcji i zostaną wkrótce zaprezentowane. Warto przypomnieć, że przecieki z obozu AMD także sugerują premierę hi-endowych modeli tego producenta na tej imprezie.

nvidia-geforce-pascal-graphics-cards-635x425_1_

Niedawno w sieci pojawiły się zdjęcia osłon coolera GTX 1080 i GTX 1070, a najnowszy przeciek dostarcza fotkę układu GP104, na którym bazować mają te karty. Ten mierzyć ma ok. 300mm2, co oznacza, że będzie o ok. 100 mm2 mniejszy od swojego poprzednika (GM204), poza tym znajdziemy tu zdecydowanie więcej tranzystorów (ponad 7 mld vs 5,2 mld). Dostrzec możemy tu również chipy Samsung K4G80325FB-HC25 oferujące 8 Gb pamięci GDDR5 pracujące z prędkością 8 Gb/s, te nie były dotychczas wykorzystywane w żadnych kartach i obecnie stosuje się moduły o prędkości 7 Gb/s. Z nieoficjalnych doniesień wynika natomiast, że GPU GP104 oferować będzie 2560 rdzeni CUDA.

nvidia-pascal-gp104-gpu

Tagi: nvidia, karty graficzne, premiera, gpu, GeForce, pamięć, GTX 1080, GTX 1070, GP104,

Komentarze (22)

Skocz do ostatniej odpowiedzi | Pierwszy post na stronie

09.04.2016 14:01

Wątków: 0 | Odpowiedzi: 2320

hmm

Mnie interesuje jak to bedzie wydajne w porownaniu do 980Ti 1400MHz
jak bedzie +40% i cena nie zaporowa to biore w ciemno.

i7 7700K @ 5GHz 16GB DDR4 3200 , 2x EVGA 1080Ti SC2 Hybrid SLI & BenQ BL3200 | TV SAMSUNG UE65HU8500

09.04.2016 14:37

Wątków: 0 | Odpowiedzi: 1742

roszkę offtop...

... ale związane z Nvidią i Vulkan API ... pod najnowszymi sterownikami 364.16 - Windows 10 i Ubuntu 16.04 ... Ubuntu jest szybsze od Szpiegownika 10 nawet o blisko 50 % ! Ikona: ;)

http://www.phoronix.com/scan.php?page=news_item&px=Win10-Linux-Vulkan-Early

e X t 7 3 netext73.pl

09.04.2016 14:47

Wątków: 48 | Odpowiedzi: 3598

....

Szkoda że jako Linuxowy troll zapomniałeś napisać że ten test dotyczy tylko i wyłącznie pseudo benchmarka The Talos Principle....

09.04.2016 15:01

Wątków: 17 | Odpowiedzi: 52303

eXt73 vs ralf11 czyli Linux vs MS - fight!

09.04.2016 15:59

Wątków: 107 | Odpowiedzi: 3377

....

Ciekawe kiedy premiera tych dwóch kart, jak będzie z cenami(szczególnie 1070 vs 970) no i kiedy jakieś niereferenty.

i5 6600 3.9GHz(Spartan Pro), Asus H170M-PLUS, Asus 970 Strix OC, 16GB DDR4 HyperX 2133MHz, SSD 275GB + 1TB HDD, BeQuiet L8 500W, Zalman Z9: AG Neovo L-W27 27 cali

09.04.2016 16:37

Wątków: 0 | Odpowiedzi: 1560

Ja za to jestem ciekaw czy GTX 1070 będzie miał wydajność zbliżoną do GTX 980Ti, tak jak GTX 970 było niemal na równi z GTX 780Ti. Czas zakupić monitor 4K Ikona: :D

09.04.2016 16:46

Wątków: 17 | Odpowiedzi: 52303

Squizz

IMO brałbym któryś z tych 1440p IPS Free/G-Sync 144/165Hz, albo tego Acera/Asusa 34" 21:9 z G/FreeSync z 3440x1440 75/100Hz.

Ewentualnie poczekał na 4k 120Hz, które powinny się pojawić w tym roku (razem z koniecznym DP1.3, które już AMD w Polarisie potwierdziło) lub 1440p 144Hz HDR:

Obrazek dodany przez użytkownika

Plik graficzny (zmniejszony z 3999x2250) pochodzi stąd

09.04.2016 16:48

Wątków: 17 | Odpowiedzi: 52303

Darnokos

Ostatnio niereferenty są praktycznie od razu, zwłaszcza w tańśzych modelach gdzie wręcz w ogóle nie ma referentów (970 i niżej, Fury, 390/X i niżej)

09.04.2016 17:07

Wątków: 0 | Odpowiedzi: 1560

Freezer64

Nie mam nieograniczonego budżetu Ikona: ;) Mam chrapkę na LG 27UD68-W, 27" http://cenowarka.pl/eu/lg-electronics-27ud68-w-a1395285.html?hloc=at&hloc=de&hloc=pl&hloc=uk
Za AH-IPS, HDMI 2.0, AMD FreeSync, flicker-free, Slim Bezel i nietuzinkowy wygląd. Szczerze oferta z G-Sync nie dość, że jest droższa, to jeszcze moim zdaniem zbyt odpustowa. Zakrzywione 34" 21:9 oglądałem w sklepie. Dla mnie jednak za szerokie.
W shootery nie gram więc ponad 60 fps (szczególnie w 4K to sobie mogę pomarzyć) nie jest mi specjalnie potrzebne Ikona: ;) Jasne, że lepiej mieć 120 Hz ale następca GTX970 niema szans na wyświetlenie 120 klatek 4K nawet w średnich detalach.

09.04.2016 17:14

Wątków: 73 | Odpowiedzi: 7207

Czyli znowu to samo co z 980/970?

Kastraty mid-range przemalowane na highend a na normalne karty trzeba będzie znowu czekać?

4790K, 32GB DDR3, GTX1080

09.04.2016 17:29

Wątków: 17 | Odpowiedzi: 52303

Squizz

ale zdajesz sobie sprawę z problemów ze skalowaniem tego 4k na 27"? Ikona: ;)

IMO w ogóle pakowanie się w 4k do gier to pakowanie się w dalsze wydatki. Wymagania gier nie będą stać w miejscu - będą dorzucane nowe ciekawe efekty jak chociażby VXAO obciążający jeszcze sporo mocniej od HBAO+, jakieś GI, etc. Rozważanie 1070 z myślą o 4k brzmi przesadnie optymistycznie (chyba że pisząc 4k nie myślisz o ultra 60fps, a high i 40fps - to prędzej Ikona: ;) ).
Zwłaszcza, ze w powyższym newsie masz rzekomy przeciek o zaledwie 256bit GDDR5 w gtx1080 - deczko niska przepustowość do 4k nie sądzisz? Ikona: ;) Prędzej 1070 SLI Ikona: :P

  • Sprawdź bezpośredni link do posta

09.04.2016 17:38

Wątków: 21 | Odpowiedzi: 8388

Niestety.
4k to tylko "entuzjaści" gruby portfel. 980SLI ,monitor za 4k.
Pewnie generacja z 2018 rok kart(przy założeniu że w 2017 też coś wyjdzie)..już pozwoli na granie 4k 60 FPS.
I wtedy monitorek 4k 34" z DS 1.3...wydaje się zakupem na dłuższy czas.

Tylko co zrobić jak ktoś ma teraz jakieś 22" i go kusi coś lepszego.

JA/8700K,Z370Taichi,16GB@4133CL16-1T,Nv1070,MX300,HDD2,5"2TB,SST-GD07B,SS760XP2,BQDarkRockTF Żona/2500k@4.2GHz,p67pro3,Nv1070,16GB@2133CL8,MX100,1TB HDD

09.04.2016 17:46

Wątków: 0 | Odpowiedzi: 1560

Freezer64

Nie powinno być problemów ze skalowaniem 4K do 1080p. Do 1440p a i owszem. Chyba, że chodzi ci konkretnie o rozmiar matrycy. Dlaczego obraz miałby wyglądać gorzej na 27 calach w porównaniu innych rozmiarów?
Nie gram w zbyt nowe gry. W obecnej, w którą gram w wolnych chwilach, można uzyskać 60fps w ultra 4K już na GTX 970 z przycinkami do 30 w zatłoczonych miejscach. TITAN ma spadki do 50 fps max
W Wieśka pewnie będę grał na high w 4K i 1080p na ultra + hairworks dla odmiany. Gerald poza potworami ubija maszyny Ikona: :D
A sama karta powinna mieć wyższą przepustowość o 14% dzięki 8gbps vs 7 Gbps Ikona: :P

09.04.2016 17:49

Wątków: 17 | Odpowiedzi: 52303

Yogi

A czego się spodziewałeś? Ikona: ;) W sumie bardziej trafne porównanie byłoby do 680/670 - nowe chipy w świeżym procesie (no i przeciek sugeruje ~300mm2 jak 680, 980 miał ~400mm2). Metoda małych kroczków się bardziej opłaca, do tego AMD już potwierdziło, że potworek z HBM2 będzie dopiero w 2017, a chwilę później Nv wyjechała z Teslą P100 na pełnym Pascalu stwierdzając, że gotowe produkty na tym chipie będą też dopiero w Q1 2017 (czyli cywilna wersja o ile w ogóle to pewnie później w 2017)

Tylko jeśli faktycznie będzie zaledwie 256bit GDDR5 (nie-X) to nie wiem jak to ma być w ogóle szybsze od 980Ti. Musieli by zrobić taki skok z L2 i algorytmami kompresja jak Kepler->Maxwell, a powtórzenie tego drugi raz pod rząd brzmi nierealnie (zresztą to nie są bajery, które w 100% zastąpią wyższą przepustowość np. nawet jak algorytm kompresji będzie godny nagrody nobla to wciąż podatne na kompresje będzie tylko część danych przerzucanych podczas grania, podobnie z cache - kilka MB to nie kilka GB, a 16nm to jeszcze nie tak niski proces żeby w układzie klasy GP104 marnować miejsce na bufor ramki np. 64MB eSRAM Ikona: ;) a eDRAM jak u Intela byłby za wolny do chipu tej klasy)

09.04.2016 17:58

Wątków: 17 | Odpowiedzi: 52303

Squizz

A jaki byś chciał fps w tym 4k high w W3? Ikona: ;)

14%, no faktycznie przepaść, dalej 980Ti ma 31% więcej. A co jeśli 8Gb/s kostki dostanie tylko 1080? Ikona: ;)

09.04.2016 18:27

Wątków: 119 | Odpowiedzi: 6235

123

Nad sterami by przy okazji popracowali... 364.72 za diabła nie chcą się u mnie zainstalować, za każdym razem niepowodzenie - jedne na drugie, po czyszczeniu starych - bez znaczenia :/ 364.51 za to bezproblemowo. Rozumiem, że to tak w ramach motywacji, żeby wysłużonego GTX 460 się pozbyć? Ikona: :P

.:: only happy when it rains ::. .:: x360 gamertag: n0onePL ::.

09.04.2016 19:00

Wątków: 107 | Odpowiedzi: 3377

...

Gdyby tak ten 1070 kosztował te 1600 na dzień dobry... ale pewnie za nowość i żeby sprzedawać jeszcze serię 900 będzie to 1800

i5 6600 3.9GHz(Spartan Pro), Asus H170M-PLUS, Asus 970 Strix OC, 16GB DDR4 HyperX 2133MHz, SSD 275GB + 1TB HDD, BeQuiet L8 500W, Zalman Z9: AG Neovo L-W27 27 cali

09.04.2016 22:52

Wątków: 0 | Odpowiedzi: 1560

Freezer64

Ze 40 fps by się przydało Ikona: ;) Tyle też da się wycisnąć po OC skoro niekręcony Titan wyciągał 35 fps przed łatką w najgorszych miejscach w 4K High. W 1080p Ultra+Hairworks powinno być już w okolicach 60 fps po OC... o ile GTX 1070 będzie miał wydajność podobną do GTX 980Ti. Ale ja nie o tym
Co do GDDR5 no cóż... więcej się za bardzo nie da wyciągnąć. Z resztą nie wiadomo czy aby na pewno nie dadzą GDDR5X. A jeśli nie dadzą GDDR5X do GTX 980 to wątpię by Titan dostał HBM2. Nie zrobią GDDR5X pod jednego 1080Ti. HBM2 do Pro

09.04.2016 23:14

Wątków: 17 | Odpowiedzi: 52303

Tyle, że GDDR5X w jeszcze większych powijakach niż HBM2. Samsung produkuje masowo HBM2 od stycznia (a i tak GP100 w tym roku ma być tylko w jakichś groszowych ilościach, w gotowych produktach dopiero Q1 2017), Hynix ma HBM2 zacząć bodaj w Q3 i w podobnym czasie Micron dopiero zacznie GDDR5X masowo chyba jako jedyny póki co Ikona: ;)

10.04.2016 06:43

Wątków: 11 | Odpowiedzi: 1404

eXt73 Sam chyba najlepiej powinieneś wiedzieć, że to tytułów AA i AAA Nvidia i AMD robią optymalizacje, tak że żaden Vulcan czy OpenGL na Linux nie ma szans z prostej przyczyny: bo rachunek ekonomiczny musi się zgodzić.
Wychodzi więc tak, że nie robi się optymalizacji dla powiedzmy 2% konsumentów, bo nikomu się to nie opłaca.
Pamiętam jak stery w 2007 miały po 17 MB a potem wszedł DX 10 i DX 11 i zaczęły rosnąć do jakiś chorych rozmiarów typu 500-700 MB sam sterownik. Gdzie pewnie 98% tego to są te właśnie optymalizacje pod konkretne gry.

"Coś się kończy, coś się zaczyna" A. S.

10.04.2016 13:46

Wątków: 8 | Odpowiedzi: 693



ralf11 patrząc po ostatnich testach nowych gier w dx12 to każda z nich jest pseudo benchmarkiem, bo wyniki są kompletnie nieprzewidywalne . Raz jest więcej klatek w dx12, niz w dx11 , a w innej grze jest na odwrót, raz jest duży wzrost wydajności w dx12 na słabszym procku, a raz go nie ma. Wiec talos principle to dla mnie tak samo dobry/zły test jak każdy inny . Jest tak samo nieprzewidywalny. Bo co prawda faktycznie wydajność na Vulcanie pomiędzy windowsem a linuksem w tym teście jest dosyć duża 90 versus 120 klatek , ale dziwne jest to, że na windowsie pod dx11 jest wiecej klatek bo 106 (prawie tyle samo co pod linuksem w opengl) . Czy to oznacza, ze sterownik vulcana pod windowsa jest skopany, czy implementacja vulcana w windowsowej wersji talos principle jest skopana? W każdym razie moim zdaniem nie ma się z czego cieszyć - na razie to jedyna gra , która chce się zaprzyjaźnić z Vulcanem i jeżeli wydajność pod Vulcanem na windowsie wsiąż będzie niższa niz pod dx11 to chyba nieprędko doczekamy następnej, a powinno nam na tym zależeć, bo wykonanie portu dla linuksa, jeżeli gra korzysta z Vulcana powinno być prostsze.

A co do newsa - za dwa miesiące powinny pojawić się testy nowych kart zarówno ze strony amd jak i nvidii. Rewolucji się nie spodziewam, chociaż w grafikach amd może dojść do małej rewolucji w wydajności na wat :-) W każdym razie powoli odechciewa mi się czytać o kolejnych "przeciekach".

10.04.2016 15:20

Wątków: 17 | Odpowiedzi: 52303

Krogg

Przede wszystkim ciut pełniejszy obraz wydajności byłby gdyby w tym teście były grafy nie tylko z jednego obozu Ikona: ;)
Nie sugeruję żadnego scenariusza, ale ciekawe jakby czerwoni wypadli, bo z jednej strony Vulkan czerpie garściami z Mantle, a z drugiej strony Nvidia ma chyba lepsze drivery pod linucha.
Do tego Nvidia ma bardzo dobrze dopracowany driver DX11, łącznie z jakąś tam wielowątkowością, której inni w DX11 nie mają i która jest przecież głównym argumentem za DX12/Vulkanem.

Tak czy tak masz rację, że póki co ciężko cokolwiek rokować o Vulkanie. Potencjał w tym API jest (największy na grafach innych niż Nv) i pokazywał to nawet Intel, a konkretniej polski oddział zajmujący się sterownikami do IGP Ikona: :) Tylko pytanie jak będzie z supportem. Chciałbym żeby developerzy na PC używali tego API chętniej niż to było z OpenGL (zwłaszcza na Windzie), bo mimo, że pewnie koniec końców będę musiał się przekonać do W10, to irytują mnie ostatnie działania MS i przydałbym im się prztyczek w nos w postaci realnej alternatywy żeby ochłonęli, bo ostatnio zaczęli w nieprzyjemny sposób nadużywać swojej pozycji.

Aby dodać odpowiedź zaloguj się.