NVIDIA G-SYNC

  • Sprawdź bezpośredni link do posta
  • Statsy wątku

rahl | 19.10.2013 11:43 | Odpowiedzi: 37 | Śledzony: 2 | Czytano: 1740 razy

Wątków: 1 | Odpowiedzi: 273

Ciekawy pomysł nvidii:
http://www.anandtech.com/show/7436/nvidias-gsync-attempting-to-revolutionize-gaming-via-smoothness

Skocz do ostatniej odpowiedzi | Pierwszy post na stronie

Odpowiedzi:

19.10.2013 12:53

Wątków: 590 | Odpowiedzi: 5610

...

Ronson się ucieszy Ikona: :)

http://www.ciekawenoclegi.pl - Baza noclegów w Polsce, kwatery, hotele, pensjonaty, apartamenty, agroturystyka, od Bałtyku po Tatry! - Ciekawe Noclegi

19.10.2013 15:21

Wątków: 4 | Odpowiedzi: 5446

nie ucieszyl sie

wczoraj juz hejtował

klęknij przed panem

  • Sprawdź bezpośredni link do posta

19.10.2013 16:34

Wątków: 1348 | Odpowiedzi: 42463

gemini4all

Technologia polega na wyświetlaniu w mniejszej częstotliwości odświeżania. POMOŻE każdemu używającemu ułomnych wyświetlaczy sample-and-hold. Osobom jak ja, grającym na Lightboost, nic nie da, bo tu nawet jakby chcieli nowy model monitora LB zrobić, to przy tej technologii zamiast przycinek pojawiałoby się STRASZNE migotanie (przy 50Hz na oko już jest ciężko i gram tak tylko w gry mające cap na 100fps albo nie wyrabiające 120tu. Miga niestety ostro. Przy 40Hz migotanie by mnie zabiło po minucie grania. Nie akceptowalne. Absolutnie wykluczone.

Niestety druga strona medalu jest taka, że ta technologia usprawni ułomne wyświetlacze, pozostawiając ich największą wadę nadal, ale zmniejszając dystans do wyświetlaczy normalnych, przez co popularyzacja tych ostatnich może odwlec się w czasie o kolejne lata albo i dekady. I to w newsie o G-Sync mnie bardzo martwi. Ikona: :(
Zmniejsza choćby szanse na to, że monitory/TV OLED będą dość szybko w większości pozbawione wad sample-and-hold.

Jedyna opcja pogodzenia zalet strobowanego podświetlenia (albo backlight scanning, jeśli mowa o terminie podobnej techniki w telewizorach/projektorach), to klatki pośrednie, ale ich rysowanie dodaje laga, więc cały sens idzie w cholerę, bo to przecież dla zminimalizowania laga wymyślono.

Ekh khem: kurrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrr*a mać. That is all.

19.10.2013 19:00

Wątków: 1 | Odpowiedzi: 273

Ronson - hmm. Nie wiem czy do końca masz rację - ja się wstrzymam z opinią (na temat migotania przy 50Hz) do momentu kiedy zobaczę jak to działa na własne oczy.

19.10.2013 19:11

Wątków: 46 | Odpowiedzi: 3423

czytalem wczoraj

fajna rzecz, a ati jak zwykle w ciemnej dupie, jesli chodzi o okologamingowe podstawy. Niech mi to dadza do 37" monitora 21:9, a bede wniebowziety. Ikona: :)

i7 4770k @4.6ghz (i walka o wincyj!) __ phanteks tc14pe+af140 __ z97 extreme4 __ 8gb ddr2400 __ mx100 512 gb __ e200 160gb __ 2x radeon r9 290 crossfire __ 3x benq gw2760hs __ define r4

  • Sprawdź bezpośredni link do posta

19.10.2013 19:13

Wątków: 1348 | Odpowiedzi: 42463

rahl

Wystarczy wiedzieć jak działa Lightboost. Działa tak, że wygasza podświetlenie pomiędzy klatkami. Robi MIGNIĘCIE tym sposobem. Na logikę - przy G-sync, przy 40fps, zmieni się odświeżanie z 120Hz na 40Hz.
Dwukrotne "błyśnięcie" tej samej klatki popsuje obraz, a jak nie wierzysz to odpal na CRT filmik 60fps na 120Hz - NIE BĘDZIE płynnie. Nawet z 5 lat temu nie wiedząc czemu, narzekałem, że chyba winda ma jakiś problem, bo nie mogę uzyskać normalnego obrazu ani 50fps na 100Hz ani nawet 80fps na 160Hz.
Potem przeczytałem to:
http://www.blurbusters.com/faq/oled-motion-blur/
i już wszystko jasne.
Tak samo jasne jest, że G-sync koliduje z technikami obrazu pozbawionego rozmycia w ruchu Ikona: :(


O, proszę, Carmack się nawet wypowiedział, o czym nie wiedziałem, ale idąc po linka znalazłem to:

http://www.blurbusters.com/nvidia-g-sync-variable-refresh-rate-monitors/


On też mówi "IF YOU GO BEYOND 90fps". G-sync jest "o kant dupy rozbić" w konsolach i grach na PC zablokowanych na 60fps (a ostatnio na 30) więc dla mnie i innych posiadaczy LB, ta technika nie istnieje. Aczkolwiek tzw. "mainstream" na tym zyska, bo lepsze nieszarpane 40fps na sample-and-hold niż szarpane 40fps na sample-and-hold.

Ekh khem: kurrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrr*a mać. That is all.

19.10.2013 20:15

Wątków: 77 | Odpowiedzi: 908

.

po przeczytaniu newsa na engadget pierwsze co zrobilem to przylazlem tutaj, sprawdzic czy Ronson juz hejtuje Ikona: ;)

Xeon X5670 @4.0; IFX14; Asus P6T6 WS Rev; 24GB RAM; 2x GTX670 4GB Asus DCUII; Samsung 830 128GB + Evo 256GB + 2xWD 640GB R0; Raven 2; Enermax Revolution85+ 1250W; Benq XL2420T + Lenovo L220x

  • Sprawdź bezpośredni link do posta

19.10.2013 22:09

Wątków: 1348 | Odpowiedzi: 42463

Coś kombinują. Na razie to tylko teorie, i nadal raczej nie ma szans na to aby monitory g-sync zyskały tak dobry obraz w ruchu jak monitory LB przy 100-120fps/Hz, ale cośtam kombinują. Nvidia coś gada, że mają swoją metodę na wyświetlanie obrazu "low presistance". Ciekawe.
Dużo znaków zapytania póki co. Na gry zablokowane na 60fps nie mam co liczyć, ale ciekawe czy za parę lat techniki ala g-sync nie dadzą popularyzacji gier BEZ popierdolonych blokad.
Niestety mowa o Nvidii. Ikona: :(
Już widzę jak ta firma naprawia całą branżę zamiast obwarować się patentami i zadowalać 10% rynku Ikona: :(
No ale pożyjemy-zobaczymy.

http://www.blurbusters.com/faq/creating-strobe-backlight/#variablerefresh

Ekh khem: kurrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrr*a mać. That is all.

19.10.2013 22:53

Wątków: 118 | Odpowiedzi: 3314

hm

imho sample-on-hold nie jest problemem, rozmycie jakie prezentuja dobre lcd w swoich trybach poprawiajacych ruch jest akceptowalne, a marudny jestem dosc na ten tamat. Ikona: :) Chodzi o to ze dzisiaj kazdy tv ma takie input lagi z powodu tych poprawiaczy ze grac sie nie da. A jak je wylaczysz to masz s-on-h pelna geba, czyli smuzy w 3 dupy. Im dluzej siedze na lcd tym bardziej nie lubie plazm. Wybieram brak migotania nad smuzenie na dzien dzisiejszy. Ikona: :) Nie wiem jak to okreslic, ale na lcd wiecej widze, patrze na obraz i nic mnie nie rozprasza, moge w spokoju sie przygladac detalom w obrazie.

ron nie rozumiem dlaczego podwojenie hz (50fps na 100hz) robi cos nie tak z obrazem. Idac tym tropem zaden film dla ciebie nigdy nie jest wyswietlany poprawnie?

X360 | PS3 | Wii | PC (E7200, gts 450, 4gb)| Denon x2000 + audio pro avanto

  • Sprawdź bezpośredni link do posta

19.10.2013 23:06

Wątków: 1348 | Odpowiedzi: 42463

uQuad

Zapoznaj się z tym co jest na stronie Blurbusters.com bo sto lat mi zajmie żeby wyjaśnić. Musisz zobaczyć na własne oczy. Masz tam testy - zobacz jak sobie radzą te Twoje "akceptowalne" telewizory Ikona: :P

Chyba, że mówisz o czymś z backlight scanning, gdy piszesz o "trybach poprawiających ruch", bo to akurat potrafi sporo poprawić. Nie oglądałem na żywo więc nie powiem ile. Na żywo mam LB i jak praktycznie każdy, kto na tym miał okazję zagrać -powrotu już dla siebie nie widzę. Ikona: :P

Ekh khem: kurrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrr*a mać. That is all.

20.10.2013 07:49

Wątków: 118 | Odpowiedzi: 3314

hm

tak, mam na mysli tryby z backlightem, bo wiem o co chodzi w smuzeniu, na dzien dzisiejszy musi byc chyba jakis czarny interwal zeby nie bylo mydla. Moj soniacz to nazywa trybem clear, latwo je rozpoznac bo przy wlaczeniu jasnosc ekranu spada o dobra 1/3. Przy trybie standardowym to nawet w filmie widze roznice, ze smug jest wiecej. Panel true 200hz przy hx750.

Ja z kolei nie mam pojecia jak wyglada LB, jesli to ma choc troche migotania (na poziomie plazmy) to poki co podziekuje. Ikona: :)

Pytam, bo wiesz przeciez costam ogarniam w temacie, a nie potrafie zrozumiec dlaczego dublowanie klatki ma jakis wplyw na plynnosc. Przeciez te tryby filmowe ktore robia np. dla filmu 24 fps 96hz sa tak mega chwalone?

X360 | PS3 | Wii | PC (E7200, gts 450, 4gb)| Denon x2000 + audio pro avanto

20.10.2013 10:53

Wątków: 1 | Odpowiedzi: 273

Ronson

Poczytałem trochę na ten temat na blurbusters i jak widzę połączenie G-Sync i LightBost może dać lepsze efekty od każdej z tych technologii z osobna. Oglądałem całą wypowiedź Carmacka, (ty chyba tylko wycinki) - jego zdaniem nie ma żadnej kolizji między tymi technologiami.
Widzę, że lubisz wyciągać wnioski bez pełnego obrazu sytuacji. Sparafrazuję Fangorna - bardzo pochopny z ciebie człowiek

  • Sprawdź bezpośredni link do posta

20.10.2013 12:12

Wątków: 1348 | Odpowiedzi: 42463

rahl

Chyba zarzucasz mi pochopność i niedokładność samemu popełniając ten błąd. Oczywiście, że Carmack mówi, że nic nie stoi na przeszkodzie połączyć te technologie, ale (jak pisałem wyżej) będzie to działało w sumie wtedy gdy będzie działało LB, a nie będzie gdy LB nie będzie. To DA się połączyć, ale sam mówi "BEYOND 90fps?" czyli jak będzie 100fps to na kij mi ten g-sync skoro już LB działa? Mu chodziło o to, że gra będzie korzystała z g-sync poniżej minimum dla LB, a gdy osiągnie odpowiedni framerate to z LB - to znaczy, że jak ja gram w LB to nie będę miał różnicy, bo między g-sync a v-sync jest różnica, ale między g-sync a LB jest PRZEPAŚĆ, więc na przykład mi - nic to nie daje. Gier w 60fps też mi nie poprawi, bo z szarpanego 40-60fps zrobi mi nieszarpane 40-60fps, ale ROZMYTE.

Druga sprawa to co tam zamierzają kombinować, do czego dałem linka. Z tego może wyjść coś bardzo dobrego,a może i nie wyjść. Trzeba poczekać, na razie to tylko teorie, a z tym różnie bywa gdy chodzi o pracę ludzkiego oka. Może pojawić się jakiś problem po drodze. Ale trzymam kciuki. Jakby coś ala LB w OR zaimplementowali to bym skakał z radości.

uQuad
No właśnie, marketingowców powinni za jaja powywieszać za to, że doprowadzili do tego że wrzuciłeś backlight scanning do wora z "ulepszaczami obrazu" i "true 200/tysionc pińcet herców!" Ikona: redhot
Z ciekawości - potestuj tym UFO testerem (rozbudowane cholerstwo, sporo tych testów, ostrzegam, że to nie na 20s czasu Ikona: ;) ) i daj znać. Ja wiem tylko tyle:
- LB = ideał
- TV = droga seria HX950 czy jakoś tam Sony - fajnie, ale miga jak cholera, efekt niezły, gorszy od LB ale niewiele i do tego spory lag "przy okazji".
- inne TV - różne efekty - niekiedy prawie nic, niekiedy cośtam, niekiedy sporo.

wszędzie jednak jest, że to w telewizorach to przy LB nie stało (dla wymagającego oka).
Zaletą TV jest jednak jedna bardzo ważna kwestia - pograsz na tym w gry z konsol. Ja z moim monitorem to mogę sobie conajwyżej filmik z Forzy 5 obejrzeć, bo F5 mi 100fps nie wypuści Ikona: :(
Podłe czasy, że trzeba tak cudować.


Co do migania - Lightboost przy 120Hz 2D - migocze jak CRT 120Hz 2D. Dla mnie - wcale. Na dłuższą metę jednak ludzie (niektórzy) piszą o różnicy w tempie zmęczenia. 100Hz 2D już jak spojrzeć obok monitora (jakoś człowiek tak zrobiony, że wtedy migotanie widzi szybciej - patent stosowałem już przy CRTekach, żeby się dowiedzieć czy mam pulpit w 85Hz czy w 120 - i da się cośtam dostrzec. Nie wiem jak to opisać. Może coś ala CRT 85Hz? Ciężko powiedzieć, zresztą przyznam się (uwaga szok! Ikona: ;) ) że nie testowałem. Jak gram to gram a nie testuję, jak pulpit to nigdy 100Hz, skoro można 120, a do tego LB na pulpicie się nie sprawdza (za jasno!). Gry zazwyczaj w 120Hz a więc szans na białą planszę w 100Hz LB nie miałem za często.

Sytuacja wygląda jednak dużo inaczej w tym co mnie najbardziej interesuje - 3D. Lightboost działa i tu dużo daje. W sumie to mnie ten obraz interesuje dużo bardziej, gdyby nie niechęć producentów do technologii, mógłbym na zawsze podziękować graniu w 2D i bym nie płakał. 3D dodaje +1/+2 generacje konsol IMHO.
A tutaj już niestety dzielisz przez 2 Ikona: :(
100Hz LB = CRT 50Hz = ała!

Ekh khem: kurrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrr*a mać. That is all.

20.10.2013 14:51

Wątków: 118 | Odpowiedzi: 3314

hm

hm? Ale co maja z tym wspolnego marketingowcy? 200hz ma matryca realnie mowie, chcialem zaznaczyc ze to w miare szybki moj tivik. Ze BackLight i klatki posrednie sie wliczaja do marketingowych hercow to wiem. Poogladam to co chcesz i sie odezwe ew. na pw.

ogolnie LB to dla mnie tylko bajer, jestem konsolowcem i monitorki mnie do grania nieinteresuja poprostu. Ikona: :) Przekatna i kanapa power. Ikona: :)

X360 | PS3 | Wii | PC (E7200, gts 450, 4gb)| Denon x2000 + audio pro avanto

  • Sprawdź bezpośredni link do posta

20.10.2013 15:12

Wątków: 1348 | Odpowiedzi: 42463

uQuad

No o to mi chodziło, że ludzie wiedzą, że "ileś hertz" to ściema marketingowa i ukrywania wygaszania podświetlenia pod tą nazwą to jak ogłaszanie promocji "u nas telefon za złotówkę bez umowy" w sytuacji gdy naprawdę dają za 1zł telefon bez żadnych zobowiązań (co nikomu dziś o głowy nie przyjdzie, bo co głupsi już się nauczyli, że tak to tylko w bajkach).

Co do "interesują". Na tym monitorze gra się jak na wielkiej plazmie, gry w 3D z komórek kładą oprawą gry z zapowiedzi na PS4, więc brak kanapy jakoś przeboleję Ikona: ;)

Ekh khem: kurrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrr*a mać. That is all.

20.10.2013 22:27

Wątków: 4 | Odpowiedzi: 537

@ morgoth

"fajna rzecz, a ati jak zwykle w ciemnej dupie"
Tyle, że ten temat NVidia sama na to nie wpadła tylko podpatrzyła i z paroletnim poślizgiem stara się nadrobić....to co firma Lucid od 2011 roku oferuje. Rozwiązanie tego problemu nazywa się Virtu MVP
technologia Virtual VSync + HyperFormance i masz idealny vsync bez zwiększania input laga.

"Coś się kończy, coś się zaczyna" A. S.

22.10.2013 01:18

Wątków: 0 | Odpowiedzi: 548

@Ronson

Z całym szacunkiem: rzygam już tymi bredniami o "sample-and-hold" i niemożnością płynnego 60fps na 120Hz.

22.10.2013 01:41

Wątków: 4 | Odpowiedzi: 5446

Ikona: lol

klęknij przed panem

22.10.2013 22:45

Wątków: 0 | Odpowiedzi: 548

@Ronson

Wymyśliłem jak połączyć G-Sync z Lightboost, ale chyba nie da się tego zrobić na obecnym sprzęcie - potrzebna jest dodatkowa kontrola nad czasem trwania impulsu diod podświetlających, a diody te jak wiemy powinny osiągać możliwe częstotliwości pulsacji dużo wyższe niż kilkaset Hz. Wniosek - G-Sync w monitorze w oczekiwaniu na nastepną ramkę animacji powinien błyskać KILKA RAZY wyświetlając aktualną, zamiast tylko raz, co da nieakceptowalny efekt migotania. Wtedy nie będzie migotania 35Hz w najgorszym wypadku (dolna granica G-Sync zanim zacznie duplikować klatki celem koniecznego odświeżenia matrycy), ale np. 105Hz (średnio trzy błyski backlight na klatkę). Nie wiem tylko jak nieregularne błyski wpłyną na percepcję obrazu, ale jeśli te diody rzeczywiście mają potencjał co do częstotliwości, to można kazać im błyskać regularnie, ale dużo częściej - np. 1kHz. Efekt? Będzie to tak częste, że G-Sync bez wprowadzania laga powinien się zsynchronizować z szybkimi diodami backlight i jednocześnie z wolną matrycą, kiedy nadejdzie kolejna klatka animacji. Jasność też nie powinna być problemem, po prostu trzeba sterować wypełnieniem impulsów co przełoży się na odbieraną jasność.

22.10.2013 22:49

Wątków: 0 | Odpowiedzi: 548

@Ronson

...oczywiście gdy nadejdzie "docelowy OLED" (z parametrami jak od zawsze obiecywane), to diody obrazu będą zdolne do prawie natychmiastowych przełączeń choćby i 1000Hz właśnie, a wtedy backlight strobing nie będzie potrzebny. Gdyż ponieważ jak wiele razy Ci powtarzałem i nawet rysowałem obrazki tenże Lightboost jedyne co robi, to zwiększa SNR, który powinien być bardzo wysoko na "docelowym OLED". Jeśli jednak dostaniemy "glucący OLED" (pokazujący powolne przejścia pikseli między kolejnymi klatkami), to będzie problem. W każdym innym przypadku !@#&$@%$#@$! "sample-and-hold" to dokładnie to co robi backstrobe - wykorzystując mignięcie rzuca na siatkówkę oka "niezglucony" obraz celem "hold" zanim rzuci następnym. Teraz zrozumiałe, czy wytłumaczyć ręcznie? Ikona: ;)

  • Sprawdź bezpośredni link do posta

06.12.2013 04:22

Wątków: 1348 | Odpowiedzi: 42463

No, dbająca o jakość grania i dobro graczy Nvidia dostrzegła zainteresowanie Lightboostem i wymyśliła G-Sync.
Co prawda G-Sync swoje LB dostanie za półtora roku albo później, ale co tam.
Ważne, że Nvidia chce poprawiać jakość grania na PC!
Na przykład poprzez wyłączenie opcji załączenia LB w 2D w najnowszych sterownikach.

wait, what?

WHAT THE FUCK ???
Nvidia. The way it meant to be fucked. Ikona: redhot

Na razie zrobili hacka, ale wymagającego utraty gwarancji i dobrania się do scalaka z EDID wewnątrz monitora:
http://www.blurbusters.com/exclusive-hardware-modification-to-permanently-enable-lightboost/

Czy ja już mówiłem, jak nienawidzę Nvidii za całokształt? Czy k... jakieś fatum nad rynkiem IT czy jak, że jak ktoś robi najlepszy w klasie sprzęt to kwestie podejścia do klientów i jakość oprogramowania woła o pomstę do nieba? Creative i HP najlepszym przykładem, ale i telewizory Panasonica nie potrafiące pracować w natywnym trybie (1080p120 dla modeli ..T). Nosz k.. mać, co za popierdoleńce. Jak mi gry z 2014 nie będą chodzić w LB, a na sterach sprzed brainfarta Nvidii będą chodzić dużo gorzej - to pojadę i wsadzę CEO Nvidii chip G-Sync w dupę, wcześniej podłączając go do linii 230V.
Nosz k... mać jak mnie denerwuje traktowanie wszystkich graczy jak debili. Wczoraj jakaś szycha z jakiegoś studia powiedziała, że gry na nextgeny to jest potęga, bo chodzą w 30fps, a trzeba pamiętać, że filmy w 24-ech, więc jest to wyraz dbania o graczy i dowód na to jak bardzo developer pragnie aby doznania z gry były jak najlepsze.
FUCK THEM ALL! Ikona: redhot

Ekh khem: kurrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrr*a mać. That is all.

12.12.2013 14:07

Wątków: 231 | Odpowiedzi: 480

hmm...

http://www.guru3d.com/articles_pages/nvidia_g_sync_review_guide,1.html

i5-3570K@4.4GHz / AsRock Z77 Extreme 4 / MSI N560GTX-Ti Twin Frozr II / 2x4GB G.Skill 1600Mhz / SSD Samsung 840 PRO 128GB / 1TB Samsung F3 / Be Quiet! Power Zone 650W

12.12.2013 20:00

Wątków: 16 | Odpowiedzi: 20738

damn

w hardware'owym wrzuciłem dzisiejszą recenzję na AnandTech, a tu widzę że jest nawet dedykowany wątek Ikona: ;)

Phenom II X4 925@3,5GHz / Asus M4A785TD-V EVO / GoodRAM 8GB / GTX 260 SOC / Seagate 7200.12 500GB / OCZ MXSP 600W

08.01.2014 18:48

Wątków: 0 | Odpowiedzi: 548

@Ronson

"Czy ja już mówiłem, jak nienawidzę Nvidii za całokształt?" - tak, za LB na przykład Ikona: ;) Byś się doczekał od AMD ;]

  • Sprawdź bezpośredni link do posta

08.01.2014 21:19

Wątków: 1348 | Odpowiedzi: 42463

Spoko spoko, poczekaj chwilę, jak się okaże, że te G-sync nie jest modne to Nvidia wyrzuci wszystko do kibla, jak dwukrotnie zrobiła z 3D. Ikona: :P

(ale serio to mam nadzieję, że będzie odwrotnie i przy PS5 nikt nie będzie o v-sync pamiętał)

Ekh khem: kurrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrr*a mać. That is all.

08.01.2014 21:30

Wątków: 0 | Odpowiedzi: 548

A kiedy to nVidia wyrzuciła 3D do kibla?? I to dwukrotnie?

  • Sprawdź bezpośredni link do posta

08.01.2014 21:35

Wątków: 1348 | Odpowiedzi: 42463

Arael

W erze CRT jak się zaczęło robić super, to Nvidia olała. Ludzie sami musieli gry/ustawienia modyfikować, żeby było wyświetlane poprawnie. Po latach sytuacja się powtórzyła. Strony o 3D Vision nie są aktualizowane na ich WWW od 2011. W sklepach okularów 3D nie ma prawie nigdzie w całej Europie, a Battlefield 4, gdzie we wklejonej przez Ciebie prezentacji nawet była mowa, że idą na łatwiznę, dzięki której będzie wolniej (chyba, że kto ma dwie karty) ale prościej w implementacji - NIE MA POPRAWNEJ OBSŁUGI 3D. Skoro to było takie proste to gdyby nie machnęli na 3D ręką (czyt. wywalili do kibla) to by nie było problemem to zrobić. W końcu takie gry jak BF nie powstają bez udziału programistów z Nvidii i AMD.
Ostatni rok to w ogóle porażka - prawie nic DX11 nie działa w 3D poprawnie. Nawet dobre i lubiane gry, gdzie naprawa wymagałaby 10 minut pracy gościa z Nvidii - nie bo nie Ikona: sick

Zobacz tutaj:
http://helixmod.blogspot.com

ludzie sami ręcznie dłubią. Nawet przy WRC sam próbowałem, ale poległem, bo nie jestem programistą i wyłączyć mi się udało tylko błędne cienie na 10m odcinku trasy.

Ekh khem: kurrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrr*a mać. That is all.

08.01.2014 21:52

Wątków: 0 | Odpowiedzi: 548

@Ronson

Za czasów CRT to były za duże piksele i za słabe GPU na takie fanaberie jak stereo 3D, IMHO... Strona o 3D Vision jak rozumiem została zaktualizowana przy okazji 3D Vision 2 w 2012 i nic nowego się nie wydarzyło od tamtej pory, to co mają pisać Ikona: :P (gry i sprzęt do listy kompatybilności chyba dodają na bieżąco) Pewnie piszesz o dodatkowych okularach osobno? Bo zestawy 3D Vision 2 Kit są jak najbardziej... Obsługa 3D zależy od developerów, a nie od nVidii (poza może ew. hackami z poziomu drivera na oporne tytuły, ale nie o to chodzi żeby tytuły były oporne, tylko żeby 3D było przez producenta dodawane w opcjach tak jak wybór rozdzielczości! - już pal licho z dostosowaniem do najlepszych rezultatów w 3D, chociaż to byłby wtedy ideał oczywiście) Nadal nie widzę gdzie tu wyrzucenie czegoś do kibla - jest, można korzystać. Ich wina, że gracze i developerzy olewają temat?! AMD nawet tyle nie dało, tylko zaleca jakieś third party oprogramowanie i nie udostępnia żadnego sprzętu. To jest dopiero kiblel.

08.01.2014 21:57

Wątków: 0 | Odpowiedzi: 548

PS.

http://helixmod.blogspot.com - ta stronka na pierwszy rzut oka ma jakieś nieoficjalnie produkowane patche gier, czyli według Ciebie nVidia ma ingerować w binarki? oO Jakimś cudem poprawiają lipny soft, nijak ma się to do nVidii.

08.01.2014 22:04

Wątków: 16 | Odpowiedzi: 20738

Ronson

udajesz, że nie słyszałeś o FreeSync ? Ikona: ;) Anand :
"If variable VBLANK control is indeed integrated into all modern AMD GPUs, that means the Xbox One and PS4 should also have support for this."

Phenom II X4 925@3,5GHz / Asus M4A785TD-V EVO / GoodRAM 8GB / GTX 260 SOC / Seagate 7200.12 500GB / OCZ MXSP 600W

08.01.2014 22:14

Wątków: 0 | Odpowiedzi: 548

@Freezer64

Jaja są z tym FreeSync, bo testowałem u siebie na OS X w Heaven Benchmark i po włączeniu V-Sync okazało się, że już od roku (miałem MBA z 2012 wcześniej, teraz MBP 13" z zeszłego roku) mam variable v-sync i nawet nie wiem Ikona: :P

08.01.2014 23:21

Wątków: 0 | Odpowiedzi: 548

@Ronson

http://techreport.com/news/25878/nvidia-responds-to-amd-free-sync-demo - poczytaj sobie, wychodzi na to że DisplayPort ma już wszystko co trzeba, więc reszta w rękach producentów i G-Sync ich po prostu wyręcza... I jeśli AMD zechce, to wystarczy że prawidłowo obsłuży DisplayPort, a monitor z G-Sync zadziała poprawnie. Inaczej mówiąc nVidia wyręcza producentów i robi przy okazji sobie reklamę, ale nie ma żadnej wyłączności, więc jej rola bardziej jest jak iskry zapalnej, niż egoisty kombinującego jak zapewnić sobie pierwszeństwo i agresywną wyłączność. Jest dobrze, nie marudź Ikona: ;)

09.01.2014 00:35

Wątków: 16 | Odpowiedzi: 20738

no przeczytałem ten tekst i uważasz, że jest dobrze ? dobrze będzie jeśli będzie rozwiązanie które będzie działać u obu producentów, najlepiej za darmo Ikona: :P
widziałeś różnice w cenie między wersjami z g-sync a bez ? Ikona: ;)
Poza tym jak wyobrażasz sobie działanie modułu G-Sync z kartą AMD skoro Nvidia tak podkreśla, że nie działa i ma nie działać Ikona: :P

W dodatku taki gotowy i kompletny G-Sync mimo że ma wbudowany opcjonalny tryb strobe, to działa zamienne z g-sync - albo rybki albo akwarium Ikona: :(

Phenom II X4 925@3,5GHz / Asus M4A785TD-V EVO / GoodRAM 8GB / GTX 260 SOC / Seagate 7200.12 500GB / OCZ MXSP 600W

09.01.2014 01:42

Wątków: 0 | Odpowiedzi: 548

@Freezer64

Z tekstu wynika, że nVidia używa po prostu DisplayPort nie stwarzając nic nowego poza monitorem współpracującym w zakresie jaki przewidział interfejs, stąd dalsza pisanina o nVidii sugerującej AMD "do your work" dla jest strasznie jałowa, bo jak chcą to zalockować do GeForce, skoro trzymają się standardu DP? Ikona: :) Właśnie tak sobie wyobrażam działanie z AMD - Radeon wysyłający po DP informację, że klatka obrazu gotowa i wsio Ikona: :P

Różnica w cenie między monitorem z G-Sync wynika z tego, że takie FPGA jakiego użyła nVidia kosztuje ok. 300$, więc oddają rozwiązanie po kosztach, a zarabia producent FPGA Ikona: :P Pewnie nie inwestowali w ASIC, bo raz że badają rynek, dwa że to zabiera czas, trzy że może liczą na inwencję własną producentów - to w końcu ich działka.

Co do backstrobe, to szef blurbusters gdzie może tam dowodzi zdjęciami odręcznie rysowanych przebiegów sygnałów (lol), że backstrobe z G-Sync jest możliwe - nawet ja przy pierwszej okazji gdy się pojawił temat opisałem jak by mogło to działać, więc skoro są pomysły i to takie samonarzucające się, to wszystko w rękach producentów. Pierwszy monitor BenQ z wbudowanym oficjalnym backstrobe jest gotowy, więc idziemy we właściwym kierunku (gdyż licząc Eizo mamy już takie oszałamiające swą mnogością DWA, yay!) i niech jeszcze tylko chłopaki z firm produkujących monitory zrobią własny variable v-sync, połączą go z własnym backstrobe, a nic więcej nie trzeba, by po DP działało z GeForce (AMD może musi wypuścić nowe sterowniki, byłoby zabawnie gdyby zadziałało out-of-the-box, ew. po third-party hacku, lol).

  • Sprawdź bezpośredni link do posta

10.01.2014 23:57

Wątków: 1348 | Odpowiedzi: 42463

Jest oficjalnie w sprzedaży moduł:
http://www.geforce.com/hardware/technology/g-sync/diy

200$
U nas 200 euro pewnie, więc w Polsce prawie 900zł.
Za tyle to ja używany drugi monitor z LB kupiłbym jakbym zapolował, albo zrobił upgrade, gdzie klatek mi tyle przybędzie, że mi poprawa płynności przy 40fps nie będzie potrzebna.

Cena jest totalnym nieporozumieniem. Ikona: :(
Rozumiem czemu tyle kosztuje, ale to nie zmienia faktu, że to nieporozumienie.

Ekh khem: kurrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrr*a mać. That is all.

  • Sprawdź bezpośredni link do posta

11.01.2014 00:01

Wątków: 1348 | Odpowiedzi: 42463

pieprzony limit edycji Ikona: redhot
sorry za dwa posty.


Obawiam się, że chcąc kupić lepszy monitor z LB niż mam, będę zmuszony za te G-Sync dopłacić :/
I wcale nie napiszę "no chyba, że za 2 lata jak stanieje" bo na stanienie 120Hz LCD też czekałem dwa lata i z 1200 staniało do... 1100. (mowa o 120Hz zanim pojawiło się LB)
Z tym może być podobnie.

Ekh khem: kurrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrr*a mać. That is all.

11.01.2014 00:49

Wątków: 0 | Odpowiedzi: 548

@Ronson

...w tym ogólnym szale pogubiłeś się zupełnie - potrzebujesz monitora z fabrycznym backstrobe do konsoli, a nie G-Sync Ikona: :P

Aby dodać odpowiedź zaloguj się.

Ostatnie tematy na boardzie
1. [GIEŁDA] [K] czytnik e-booków z podświetleniem 0 grykom Dziś 13:30
2. News - Microsoft porzuca 2 GB limit na pliki w OneDrive 6 daniel_wl | lonio Dziś 09:38
3. News - LG prezentuje OLED TV wysadzany kryształami Swarovski... 0 daniel_wl Dziś 09:33
4. News - Nvidia zapowiada imprezę dla pecetowych graczy - Game... 3 daniel_wl | cornelius Dziś 09:27
5. News - Sony Xperia Z3 Compact na zdjęciach prasowych 4 daniel_wl | Freezer64 Dziś 09:22
Poprzednie-Następne
1. [FUN] Definicja zulozwierza i inne przypadlosci ludzkie 14 Milo | Tajfun 19.10.2013
2. [GIEŁDA] [S] Sony Xperia Z1 9 pablo999 | Ament 19.10.2013
3. Windows 8.1, po update z 8, problem z czcionkami 20 MarkPL | Neuromancer_Theta 19.10.2013
4. [FOTO] Jaki aparat foto do 1500zł? HX20V? 17 cfaniak | Freezer64 19.10.2013
5. [FOTO] aparat dla koleżanki ~1000zł 7 haladdin | haladdin 19.10.2013
6. Wątek rozwiązany 2 x RJ45 kat. 5 z jednego kabla UTP - jak rozszyć? 14 szafiro | Milo 19.10.2013