ZAMKNIĘCIE SERWISU

Cyfrowy Polsat S.A. z siedzibą w Warszawie, adres: ul. Łubinowa 4a, 03-878 Warszawa, wpisana do rejestru przedsiębiorców Krajowego Rejestru Sądowego pod numerem 0000010078, dla której akta rejestrowe prowadzi Sąd Rejonowy dla m. st. Warszawy w Warszawie, XIII Wydział Gospodarczy Krajowego Rejestru Sądowego, o kapitale zakładowym 25 581 840,64 zł w całości wpłaconym, NIP 7961810732, niniejszym informuje, że kończy działalności w zakresie działalności Serwisu FrazPC.pl. Zamknięcie Serwisu nastąpi w dniu 31 grudnia 2018 roku. Do dnia 31 grudnia 2018 roku serwis będzie działał na dotychczasowych zasadach. Zachęcamy aby w tym okresie pobrać z Serwisu potrzebne użytkownikom materiały, gdyż po dniu 31 grudnia 2018 roku żadne materiały nie będą dostępne.

Karty GeForce GTX 2070 i 2080 z GPU Ampere na pokładzie już w kwietniu?

Daniel Górecki, 2018-02-10 10:16 | Źródło |

W tym momencie architektura Pascal jest już na tyle wyeksploatowana, że nie oczekujemy żadnych nowych kart graficznych bazujących na tej technologii. Można byłoby się więc spodziewać, że modele dla graczy bazujące na GPU Volta są tuż za rogiem, ale już w listopadzie pojawiły się plotki, jakoby kolejną gamingową architekturą Nvidii było Ampere i najnowsze przecieki zdają się iść w tym samym kierunku.

Zdaniem źródeł niemieckiego portalu 3DCenter, Nvidia zdecydowała się pod koniec zeszłego roku na zakończenie cyklu życia układu GP102, co oznacza, że nie jest on już produkowany. Firma szykuje zastępstwo w postaci układu GA104, który stanowić ma pierwszą generację architektury Amepre. Jego ujawnienia spodziewać mamy się w połowie albo pod koniec marca na GTC, a premiera nastąpić ma podobno 12 kwietnia, czyli niemal dwa lata od debiutu Pascala.

GA104 trafić ma do kart graficznych GeForce GTX 2080 i GTX 2070, które zadebiutują na rynku w kwietniu, a model GTX 2060 z układem GA106 na pokładzie zadebiutować ma latem. Na początku 2019 roku spodziewać można się zaś premiery GA102, który zapewne trafi do nowego Titana i GTX 2080 Ti.

Czemu więc Nvidia zdecydować się może na pominięcie architektury Volta na rynku gamingowym? Wynikać to może z zastosowania zbyt drogich technologii, jak rdzenie Tensor czy pamięci HBM2, które na dodatek są trudno dostępne, a producent na pewno chce uniknąć takiego blamażu jak AMD w przypadku premiery kart Vega. Amepere z kolei zapewne wykorzystywać będzie pamięci GDDR6.

Warto jednak odnotować, że  nazwa Ampere nigdy nie pojawiała się w planach Nvidii, więc niewykluczone, że mamy tu do czynienia jedynie z odświeżoną architekturą Pascal, która doczekała się kolejnych optymalizacji, niższego procesu technologicznego oraz szybszych pamięci.

Jak na razie są to jednak jedynie zwykłe plotki i należy podchodzić do tych informacji z naprawdę dużą rezerwą i dystansem, przynajmniej do czasu aż nie otrzymamy jakiegoś konkretniejszego potwierdzenia. 

nvidia-14nm-gpus-e1457717450443

Tagi: nvidia, karty graficzne, gpu, Volta, Pascal, Ampere, GA104, GeForce GTX 2070, GeForce GTX 2080,

Komentarze (26)

Skocz do ostatniej odpowiedzi | Pierwszy post na stronie

  • Sprawdź bezpośredni link do posta

10.02.2018 10:24

Wątków: 302 | Odpowiedzi: 51926

hm

Obrazek dodany przez użytkownika

Plik graficzny pochodzi z HDD usera (zmniejszony z 587x351) Zobacz oryginał


pod koniec marca wszystko sie wyjasni Ikona: ;)

i7-8700K@4900 / Z370-F / 16GB 3200 CL14 / STRIX GTX 1080Ti@2025/11500 / XPG SX8200 480GB / RM750 / LG 32GK850G-B

  • Sprawdź bezpośredni link do posta

10.02.2018 10:29

Wątków: 30 | Odpowiedzi: 8696

hmmm

Na logikę - jak można zakończyć produkcję czegoś, gdzie nawet nie jest się wstanie zaspokoić popytu Ikona: ;) Nie widzę sensu takiego pośpiechu Ikona: :P Chyba, że mają pełne magazyny i czekają na pamięci...

Ryzen 1700, Le Grand Macho, ASRock X370 Taichi, Trident Z 2x16GB/3200MHz/CL14, Samsung 960 Pro 512 GB M.2, Corsair RM 750i, Palit GTX 1080 Super JetStream 8GB, LG 32GK850G-B

  • Sprawdź bezpośredni link do posta

10.02.2018 10:35

Wątków: 257 | Odpowiedzi: 41956

do konca marca

panie jak tu zyc Ikona: ;)
moze nie koniecznie usmiercaja a te nowe kostki sa rozwinieciem poprzedniej generacji, jakies bledy moze w tlumaczeniu tekstu czy cos Ikona: ;)

pozdrówki, ChEsTeR

  • Sprawdź bezpośredni link do posta

10.02.2018 10:42

Wątków: 877 | Odpowiedzi: 18832

...

i znów autor newsa nie potrafi go sklecić bez zapytania. Co to w ogóle za praktyka, żeby w tytule newsa pytać się nie wiadomo kogo licząc, że ktoś zna odpowiedź na zagwozdkę autora ? Masz newsa czyli jakiś FAKT, to go podajesz. Nie masz to rób newsa o czymś innym, albo nie rób w ogóle ! Patologia dziennikarska Ikona: sick Coś jak z super expresu tytuł.
Skoro już pytasz autorze to spróbuję odpowiedzieć. No bo może to właśnie mnie pytasz ?
No może w kwietniu, albo w maju. Może w czerwcu ? Chociaż kto wie czy nie w lipcu ? A może przesunie się premiera na sierpień ? Choć może we wrześniu też dałoby się ? Albo w październiku? A chuj tam na święto zmarłych w listopadzie też by ciekawie było ? Tylko marketingowo z dupska, więc jednak chyba grudzień zostaje ?

2600K 5Ghz, ENERMAX LIQMAX II 240, ASUS P8P67 PRO, 16GB DDR3 2133 G.Skill, Samsung PRO 850 256GB, 40TB HDD, GTX 1080, Sound Blaster Z, LG IPS234 76hz. 2600k wystarcza do wszystkiego. AMEN

10.02.2018 11:10

Wątków: 0 | Odpowiedzi: 2336

oj będzie się działo

Plotki na temat wydajności w kopaniu mówią że GTX 2070 osiąga ponad 40 MH/s kopiąc ETH
przy poborze prądu maximum 130 watt

i7 7700K @ 5GHz 16GB DDR4 3200 , 2x EVGA 1080Ti SC2 Hybrid SLI & BenQ BL3200 | TV SAMSUNG UE65HU8500

10.02.2018 11:10

Wątków: 11851 | Odpowiedzi: 316

up

Stosując Twoją logikę zamieszczalibysmy na stronie jedynie informacje prasowe od producentów, a jeśli piszę o czymś niepewnym, inepotiwerdzonym, to znak zapytania wyrażać ma wątpliwość, nic więcej. Ot zwykła dziennikarska praktyka powszechnie sotsowana w dziennikarstwie.

  • Sprawdź bezpośredni link do posta

10.02.2018 11:23

Wątków: 877 | Odpowiedzi: 18832

...

czyli prawdę mówią, że dziennikarstwo zeszło na psy.

2600K 5Ghz, ENERMAX LIQMAX II 240, ASUS P8P67 PRO, 16GB DDR3 2133 G.Skill, Samsung PRO 850 256GB, 40TB HDD, GTX 1080, Sound Blaster Z, LG IPS234 76hz. 2600k wystarcza do wszystkiego. AMEN

10.02.2018 11:24

Wątków: 17 | Odpowiedzi: 53493

4mat

Akurat skończenie produkcji 1080Ti na rzecz 2080 ma o tyle sens, że ten drugi byłby tańszy w produkcji, a kosztował tyle samo Ikona: ;)
Niższych modeli nie musieliby już wydawać - mógłby być 2080 i nic więcej przez następne pół roku Ikona: ;)

10.02.2018 11:32

Wątków: 104 | Odpowiedzi: 8328

daniel_wl

jednym slowem walisz z automatu jak KAZDY INNY przeklejak Ikona: :D

Oculus Rift +2700x@4250ghz +Asus Crosshair VII+Team Group Dark@3533c14 +WymiotTytanik@2.1/11.5+Samsung NVME SM961+SuperFlower Platinum 1200+ Phobya Nova 1080 Watercooling ZABAWKA 350Z

10.02.2018 13:51

Wątków: 1 | Odpowiedzi: 886

A nie przyszło może do głowy najprostsze rozwiązanie ?
Nie jakiś zmodyfikowany Pascal, nie jakaś nowa architektura po Volcie, ale właśnie ta Volta dostosowana do rynku konsumenckiego, czyli wywalone tensory i dodane optymalizacje pozwalające osiągnąć większe zegary itp.
Po tym co pokazuje Titan V to chyba najbardziej oczywista i najprostsza droga dla Nvidii. Tym bardziej, że nie muszą się śpieszyć, bo tak zasadniczo konkurować będą tylko ze swoimi starszymi produktami.

i7-6700@4,7(air) & 16GB Gskill 3100@15-15-15-35 & 970GTX MSI & 950Pro 256GB. Nie lubię nadgryzionych=używanych jabłek.

  • Sprawdź bezpośredni link do posta

10.02.2018 15:03

Wątków: 347 | Odpowiedzi: 26758

kurde

szybko w sumie kolejna generacja Ikona: crazy

mogli by pakować te pascale z paluchem w anusie - i nikt by nie narzekał, bo konkurencja w lesie a wydajność i tak miażdży cyce aż miło.

Ale widać ambicjonalnie grają i sami sobie podnoszą poprzeczkę rok w rok.

Poor Lisa, poor MAD. Ikona: ;)

*[i5-6500, 16GB/DDR4, 1060@6GB, ASUS ProGaming Z170, M500@240GB, F1@640GB, F3@1TB, 7K6000@5TB - surround: 4020x1024@FullRonson] *

  • Sprawdź bezpośredni link do posta

10.02.2018 15:08

Wątków: 30 | Odpowiedzi: 8696

hmmm

A ja obstawiam brak możliwości SLI w nowych grafikach. Bo jak jakimś cudem padnie krypto-szaleństwo, to każdy by sobie kupił 2-3 grafiki pokoparkowe za bezcen, i nikt nie musiałby kupować kolejnych topowych grafik, do super wydajności w grach.

Ryzen 1700, Le Grand Macho, ASRock X370 Taichi, Trident Z 2x16GB/3200MHz/CL14, Samsung 960 Pro 512 GB M.2, Corsair RM 750i, Palit GTX 1080 Super JetStream 8GB, LG 32GK850G-B

10.02.2018 15:17

Wątków: 17 | Odpowiedzi: 53493

Brudka

Jakie szybko jak już pracownik Nv temu zaprzeczył? Będą pi razy oko 2 lata (jak nie później - nie wiadomo jeszcze) po Pascalu - to jest szybko? Dawniej nowe karty potrafiły wychodzić po mniej niż roku Ikona: :) (co prawda nie "nowe architektury", ale większe chipy, refreshe w niższym procesie itp.)
Nie bój się - nawet jeśli 2080 wyszedłby w maju to 2060 pewnie sierpień/wrzesień, więc nie musisz sobie pluć w brodę, że "niepotrzebnie się pospieszyłeś z 1060" Ikona: ;)

A swoją drogą nie zdziwię się jeśli w 2060 wrócą do 128bit (dzięki GDDR6) lub zostaną przy G5 (ale nadal 192bit), bo wymagania gier w górę nie idą, nowej generacji konsol nie ma (a ostatnio już 1060 zaoferował ładny skok, więc jak kto jeszcze siedzi np. na 960 to 2060 będzie wystarczająco szybki żeby było warto apgrejdować). Nie warto oferować zbyt wiele w tej półce, bo im sprzedaż droższych modeli spadnie Ikona: ;) (taki 2060 192bit G6 by zasuwał pięknie nawet w 1440p gdzie z reguły parowało się takie ekrany z x70+)

  • Sprawdź bezpośredni link do posta

10.02.2018 15:27

Wątków: 347 | Odpowiedzi: 26758

Freezer

biorąc pod uwagę aktualne ceny - to wbiłem się prawie w dno dołka, no może z 70zł przepłaciłem Ikona: ;)

A szybko to bardziej pod tym kątem, że nie widzę sensu aktualnie konkurowania ze sobą samym, bardziej sens byłby w zwiększeniu podaży tego co jest.

Choć zieloni nie raz nabijali tempo zmian pomimo braku realnej konkurencji - tą i tak znikomą odstawiając ponownie i znowu z tyłu za sobą. Ikona: ;)
No ale skoro już sami zainteresowani spekulacje ugasili... Ikona: ;)


Ano prawda - 1060 baaardzo ładnie daje boosta - zresztą wydajność 980 w średniej półce - to daje do myślenia. Na pewno karta warta swej ceny sprzed kopania. Ikona: ;)

*[i5-6500, 16GB/DDR4, 1060@6GB, ASUS ProGaming Z170, M500@240GB, F1@640GB, F3@1TB, 7K6000@5TB - surround: 4020x1024@FullRonson] *

10.02.2018 16:09

Wątków: 1 | Odpowiedzi: 373

Akurat AMPERE ma szansę

zawojować rynek gier opartych jeszcze na DX11 bo więcej się po nich nie spodziewam patrząc na totalne zlanie niskopoziomowych API.
Jeleni trzeba strugać jak są chętni więc trzeba wydawać karty.Szczerze i tak późno ta premiera patrząc jaki plan wydawniczy mają na przykład Smartfony.

  • Sprawdź bezpośredni link do posta

10.02.2018 16:11

Wątków: 347 | Odpowiedzi: 26758

trollu skończ trollować!

Ikona: ;)

*[i5-6500, 16GB/DDR4, 1060@6GB, ASUS ProGaming Z170, M500@240GB, F1@640GB, F3@1TB, 7K6000@5TB - surround: 4020x1024@FullRonson] *

  • Sprawdź bezpośredni link do posta

10.02.2018 16:22

Wątków: 302 | Odpowiedzi: 51926

Ikona: lol

i7-8700K@4900 / Z370-F / 16GB 3200 CL14 / STRIX GTX 1080Ti@2025/11500 / XPG SX8200 480GB / RM750 / LG 32GK850G-B

10.02.2018 18:15

Wątków: 104 | Odpowiedzi: 8328

gatts19

gdzie sa gry na DX12 ja sie ciebie pytam ?? Od wyjscia API DX12 jest CALE 27 gier .
Z czego polowa jest o kant dupy rozbic

Oculus Rift +2700x@4250ghz +Asus Crosshair VII+Team Group Dark@3533c14 +WymiotTytanik@2.1/11.5+Samsung NVME SM961+SuperFlower Platinum 1200+ Phobya Nova 1080 Watercooling ZABAWKA 350Z

10.02.2018 21:06

Wątków: 1 | Odpowiedzi: 373

Kontekst mojej wypowiedzi

jest taki ,że w pięciu literach jesteśmy i jeszcze nawet nie widzieliśmy pełnoprawnego tytułu ,który powstałby w oparciu o DX12.Pomijam VULKANA bo nawet nadchodzący dodatek do World of Warcraft ma być oparty na DX12 więc podejrzewam ,że osoby ze starszymi systemami będę musieli pożegnać się z tym dodatkiem a przecież sam Blizzard zapowiadał wsparcie VULKANA.
Kasa robi swoje a ,że nie widzę pełnoprawnego tytułu na niskopoziomowym API to szkoda.NVIDIA na chwilę obecną w tej części rynku może robić co chce no i może rzeczywiście nie warto wydawać nowych silników graficznych bo jednak tą moc jaką oferują obecne karty graficzne jest nie wystarczająca na nowe rozwiązania co się wiąże także z dużo większym obciążeniem CPU więc tak czy inaczej zmierzamy do wykorzystania maksymalnej ilości wątków jaka obecnie jest dostępna w CPU a może i więcej.Myślę ,że zmiany właśnie z powodu nie dostosowania swojej oferty produktów głównie u INTELA może mieć spory wpływ na obecny rynek gier.Rynek ewidentnie na chwilę obecną może zostać rozruszany tylko przez konsole nowej generacji dlatego Mnie nie jarają obecne karty ponieważ tytuły ,które wychodzą nawet Mnie kręcą.Ja czekam na premierę dodatku do WoW bo nadchodzące tytuły dalej mają swoje korzenie jeżeli chodzi o silniki graficzne w latach 2012-2014.
Rynek PC będzie się wolniej rozwijał ponieważ SAMSUNG rządzi w ultra mobilnym więc jak dobrze pójdzie to już w przyszłym roku EXYNOS pojawi się na laptopy i nie będzie można o nim mówić jako słabeuszu co udowodni premierą EXYNOS 9810.Ciekawi Mnie o ile później pojawi się litografia 5nm na rynek PC wysokowydajny bo pewnie z rok czasu trzeba będzie czekać.
NVIDIA póki może niech orze ale też dopracowuje swój projekt GPU MCM bo to będzie potęgi klucz.
Jeżeli INTEL swoją nową architekturę tworzył jako kolejnego "MONOLITA" to z pewnością ten projekt został skasowany bo jednak łączenie małych chipów w całość to będzie przyszłość i aż dziwne ,że AMD to zaprezentowało i użyło teraz pierwsze a INTEL porzucił niegdysiejszą architekturą uważając ją za słabą.Odpowiedź jest tutaj czytelna nie mieli szyny komunikacyjnej na tyle dobrej żeby ciągnąć dalej tą architekturę a właśnie głównie od jej możliwości zależy jak mocne będzie CPU i GPU w przyszłości i trzymać kciuki trzeba za NVIDIĘ i INTELA ,że także im się uda.

  • Sprawdź bezpośredni link do posta

11.02.2018 02:51

Wątków: 255 | Odpowiedzi: 14828

ampere?

to będzie przeskalowany pascal z kontrolerem gddr6.

Skupią się na poborze...

There is nothing more permanent than a temporary solution that works.Temporary is only temporary if they doesn't work.

  • Sprawdź bezpośredni link do posta

11.02.2018 02:55

Wątków: 255 | Odpowiedzi: 14828

Mówiąc krótko

przy tej samej mocy growej, karty nvidii będą brać 4 razy mniej prądu Ikona: :D

There is nothing more permanent than a temporary solution that works.Temporary is only temporary if they doesn't work.

11.02.2018 13:16

Wątków: 1 | Odpowiedzi: 886

@gatts19 - ciebie jak widzę dalej fantazja ponosi, na początku (tak z pół roku temu) woje wypowiedzi miały jakiś sens, ale teraz to już tylko techno-bełkot i wiara w skośnookie krasnoludki w czerwonych czapeczkach.
!!!!!! CZŁOWIEKU zejdź na ziemię !!!!!!

i7-6700@4,7(air) & 16GB Gskill 3100@15-15-15-35 & 970GTX MSI & 950Pro 256GB. Nie lubię nadgryzionych=używanych jabłek.

  • Sprawdź bezpośredni link do posta

11.02.2018 15:36

Wątków: 347 | Odpowiedzi: 26758

gatts

nvidia sobie poradzi, bo:

- ma zaplecze finansowe i ... jego nie trwoni na duperele - patrz konkurent,
- ma dobry R&D i nadal go rozwija i przede wszystkim nie szczędzi swojej kasy,
- ma bardzo dobre generacje już wydane i jest się na czym opierać,
- widać po latach jest bardzo skutecznie zarządzana i z tego co mi wiadomo to zarząd i ludzie odpowiedzialni za jej sukces się z nią utożsamiają i raczej nie mają planów z niej uciekać,

Więc akurat o nvidię bym się nie obawiał, bo jako nieliczni i jedyni - odrobili każde zadanie domowe . Ikona: ;)

Natomiast co do AMD - to na ich szczęście:
- mają rynek konsol (wcale nie do końca jasno odpuszczony przez intela i nvidię oraz motorolę i ibm-a - raczej wszystko wskazuje na to, że odpuszczone by nie zdechli w pewnym czasie)
- oraz wydali udanego (w końcu i wreszcie) Ryzena i szykuje się remake - także udany,

I dzięki temu - fakt - pogonili intela do w końcu realnej pracy a nie do odcinania kuponów rok po roku.
Ale wobec nvidii - niestety bez szans i dystans między nimi się sukcesywnie zwiększa.
Vega tylko potwierdziła to, a zapowiedź a w sumie jej brak na 2018 w roadmap tylko ponownie ich odsunie.

Bo nvidia tym różni się od intela, że pomimo braku konkurencji ciśnie jak "głupia" do przodu i nie odcina kuponów. Przez co nie pozostawia żadnych złudzeń - patrz ostatnio zaprezentowana Volta i wydany Titan V.

*[i5-6500, 16GB/DDR4, 1060@6GB, ASUS ProGaming Z170, M500@240GB, F1@640GB, F3@1TB, 7K6000@5TB - surround: 4020x1024@FullRonson] *

11.02.2018 16:24

Wątków: 104 | Odpowiedzi: 8328

Brudka aka 'Brak Orzeszków'

Dokladnie tak NV wie jak posnyrac czuly punkt ludzi ktirzy na grafe sa w stanie wydac 600+ funtiw ROK W ROK jak widze zysk 30% z 980ti na 1080ti i pewnie kolejne 30% w 2080ti bedzie przy czym TDP dalej max w okolicy 250w.
Jak patrze na FuryX i Vege to to sa buldozhery amd tyle ze w segmecie GPU. Pocisniete na max a i tak hest chuj wzgledem konkurecji.
Kompletnie sie nie zdziwie jak Intel z Raja dadza rade zrobic jakas grafe ktora rozsmaruje oferte AMD ktore stanelo z wydajnoscia praktycznie na 290x ....

Oculus Rift +2700x@4250ghz +Asus Crosshair VII+Team Group Dark@3533c14 +WymiotTytanik@2.1/11.5+Samsung NVME SM961+SuperFlower Platinum 1200+ Phobya Nova 1080 Watercooling ZABAWKA 350Z

11.02.2018 16:27

Wątków: 17 | Odpowiedzi: 53493

Brudka

- "i jego nie trwoni na duperele - patrz konkurent"
Bullshit, Nvidia wydaje na R&D różnych rzeczy, tak samo Intel, bo ich na to stać, a to AMD za Lisy jest właśnie bardziej zfocusowane na głównej działalności i skasowało/zamroziło inne poboczne "pierdoły" (np. własne ARMy). Intel nawet odwołał IDF 2017 i w odpowiedzi na pytanie AnandTech "czemu" dostali odpowiedź, że przeobrazili się z "pc centric company" na "data center first" (co akurat finansowo im się opłaca, ale wspominam, bo warte odnotowania Ikona: ;) )

- "ma dobry R&D i nadal go rozwija i przede wszystkim nie szczędzi swojej kasy"
AMD nie szczędzi kasy na R&D tylko wydaje tyle na ile ich stać. W 2015 mieli najniższe nakłady od wielu lat, bo przychód był też najniższy - z pustego i Salomon nie naleje. Prawdopodobnie stąd obecna bida w pecetowych GPU (skoro budżet R&D był skromny, a projektowali w tym czasie Ryzena to najpewniej GPU poszło trochę pod nóż, oprócz tego też wycofali własny custom ARM K12).
W 2016 budżet R&D był już większy (najpewniej żeby skończyć Ryzena jak należy, choćby kosztem zaskórniaków), w 2017 jeszcze większy (bo kasa ze sprzedaży Zen i GPU kopaczom na to pozwoliła) i w 2018 ma być jeszcze większy wg. zapowiedzi Lisy. (szczególnie dla działu GPU)

"Bo nvidia tym różni się od intela, że pomimo braku konkurencji ciśnie jak "głupia" do przodu"
Ronson miałby inne zdanie Ikona: ;) (Volta miała mieć 1TB/s przepustowości i wyjść w 2015, a skończyło się na 2017/2018 i wydanym rok później niż Volta wedle założeń Pascalu, który w zasadzie był takim Maxwellem+, choć trzeba im przyznać, że ładnie wykorzystującym niższy proces - super zegary przy umiarkowanym poborze).

No, ale obiektywnie patrząc tak - ciśnie do przodu szybciej od Intela, ale powody takiej strategii są oczywiste:
1. Obecne GPU to 'układy równoległe' w związku z tym łatwiej zaoferować wzrost wydajności. Mówiąc wprost - jeśli Nvidia spoczęłaby na laurach to AMD zajęłoby dużo mniej czasu dogonić Nvidię niż zajęło im dogonienie Intela (którego w zasadzie nadal nie dogonili, a jedynie zaoferowali wydajność jednowątkową ledwie na poziomie Inteli z 2012/2013 tylko dorzucając więcej rdzeni/wątków w danej cenie i korzystając z tego, że Intel w zasadzie od Haswella z 2013 wiele do przodu nie poszedł Ikona: ;) ). W CPU mamy praktycznie ścianę GHz, a zwiększanie IPC to dużo cięższy orzech do zgryzienia (te piękne wzrosty w Zen są wynikiem tego, że Bulldozer miał wyjątkowo niskie IPC 'by design', do tego mieli sporo czasu i cześć rozwiązań także podpatrzyli od Intela, np. micro-op cache, które Intel ma już od Sandy)
2. Nvidia gna do przodu także dla tego, że o ile sprzedaż PC spada (= Intel zarabia coraz mniej na PC, stąd też dywersyfikacja działalności w ostatnich latach), tak sprzedaż dGPU dla graczy idzie w górę. Zresztą trudno się dziwić - skoro wzrost IPC CPU spowolnił to i developerzy nie mogli szaleć z wymaganiami CPU (Jaguar w konsolach tez swoje zrobił), ale z GPU już tak. W efekcie gracze przez cykl życia jednego CPU zmieniają GPU po kilka razy. No i Nvidia załapała się też wreszcie na ostatnią falę kopania (w poprzednich na Nv sie nie opłacało, a wraz z kolejną falą przybiera to na popularności).
Do tego Nv stara się wbić coraz mocniej w lukratywny rynek HPC i zdobywać coraz więcej klientów. Ostatnio Deep Learning wydaje się, że świetnie "chwycił" skoro najnowsza Tesla nawet dostała dedykowane jednostki do tych obliczeń. A jeszcze za Maxwella gdy Nv gadała o DL to niektórzy szydzili, że "aha, nie zrobili nowego chipu z FP64 to wciskają jakiś kit z DL" Ikona: ;) (który leci z powodzeniem na FP32 a nawet FP16). A w HPC już nie mówimy o konkurowaniu z AMD tylko o próbie konkurowania z dużo większym Intelem, IBM czy nawet niektórymi ASICami.

A Vega jak już ci pisałem obrywa wizerunkowo przez to, że chip Vega10 jest próbą chwytania wszystkich rynków na raz, próbują jednym chipem pokryć to co Nvidia pokrywa trzema (GP104, GP102, GP100), robiąc układ bardziej do compute (gdzie radzi sobie nieźle) niż do gier, a potem żyłując jego pełną wersję (V64) i razem z tym pobór bo wypada wystawić konkurenta dla 1080. Ocenianie całej architektury Vega, a zwłaszcza jej wydajności/wat przez pryzmat Vega64 to zbyt duże uproszczenie. Gdyby ta architektura była taka bidna to ani nie zwlekaliby z Ryzen APU żeby dać Vegę do środka zamiast Polarisa, dla Apple też mogliby zrobić szybciej mocniejszego Polarisa zamiast sprawiać, że Apple musi czekać na nich aż będą mogli pokazać nowego iMaca i Maca Pro. Intel też niekoniecznie byłby zainteresowany Vegą gdyby była taką kupą. Wydajność/wat Vega Pro w sprzęcie Apple czy Vegi w Intelu (i prawdopodobnie to samo trafi do Vega Mobile) pokazuje, że to wcale nie musi być taka bida. Wydajność IGP Ryzen APU z Vegą bywa nawet 3x większa od poprzedniego APU (oba 15W).

PS Co gatts pisał nawet nie czytałem, bo szkoda mi było czasu, ale sprostowałem nieco w twoim poście Ikona: ;)

  • Sprawdź bezpośredni link do posta

11.02.2018 16:38

Wątków: 30 | Odpowiedzi: 8696

hmmm

TL:DR Ikona: ;)

Ryzen 1700, Le Grand Macho, ASRock X370 Taichi, Trident Z 2x16GB/3200MHz/CL14, Samsung 960 Pro 512 GB M.2, Corsair RM 750i, Palit GTX 1080 Super JetStream 8GB, LG 32GK850G-B

  • Sprawdź bezpośredni link do posta

11.02.2018 18:17

Wątków: 347 | Odpowiedzi: 26758

Freezer

no i gitara - wszystko się zgadza

Tylko osłabia mnie takie lamentowanie nad AMD - jakoby wszyscy byli winni tego, że sami pompowali w rynek buble (vide bullshiter), stagnowali z architekturami przez wręcz dekadę a potem wielkie rozczarowanie, że nie ma kasy na R&D i wszyscy odjechali a oni biedni się na pociąg nie załapali. Ikona: ;)

Jak wspomniałem AMD powstało w 68 roku, jakieś 5 miesięcy po Intelu.
Nvidia powstała w 93 roku - równo 25 lat po dwóch rozdających te karty.

Pretensje tylko do siebie. Ikona: ;)

Dodatkowo nvidia nie skupia się jedynie na rynku PC, który jest nam tak "bliski" emocjonalnie.
Oni oprócz tego z powodzeniem swoje rozwiązania stosują w rynku wysoko skalarnych obliczeń i superkomputerów vide Tesla. W rynku motoryzacyjnym - vide samochody autonomiczne grupy VAG, Audi, BMW, Daimler Chrysler, itd.
Już kończąc na wspomnianym przez Ciebie Deep Learningu i TensorFlow.
Jeszcze można by dodać do tego cały czas próby zagarnięcia jakiegoś kawałka tortu z ARM, w sumie bazując na swoich rozwiązaniach.

Skupienie się i nie olanie (jak to jest w przypadku AMD) rynku obliczeń równoległych przez silną promocję CUDA i wszelkich do niej rozwiązań (szkolenia z API przykładowo, materiały dydaktyczne, wersje skończone a nie wieczne bety, support dla devów) daje efekty jakie widzimy.

Nikt nie twierdzi, że rozwiązania zielonych są najlepsze i nieomylne - zapewne nie.
Ale zieloni potrafią do swoich rozwiązań skutecznie dorobić całe zaplecze dydaktyczne i pomocowe - co owocuje po prostu otwartością rynku na ich patenty.

W wielu przypadkach AMD miało i ma nadal naprawdę dobre pomysły - ale ich realizacja jest tak niekonsekwentna, że już na starcie odstrasza potencjalny target i udział w rynku.
I to jest zmorą tej firmy, dosłownie tak jak gdyby robili to od przypadku do przypadku.

*[i5-6500, 16GB/DDR4, 1060@6GB, ASUS ProGaming Z170, M500@240GB, F1@640GB, F3@1TB, 7K6000@5TB - surround: 4020x1024@FullRonson] *

Aby dodać odpowiedź zaloguj się.