Die link die ik je liet zien gaat vooral over open source prestaties. Dus wat werkt op AMD en nvidia, dat geeft een eerlijker beeld.
Dat ligt maar net aan waarvoor je het wilt gebruiken uiteraard.
Maar met cuda is de titan ook veel sneller dan de gtx580. Laat ik je vandaag nog wel even zien. En ook met double precision is kepler ook sneller, zie je dat niet bij die tabel staan?
Hoppa en ook een pak sneller met nvidia only cuda rommel
OpenCL And CUDA Are Go: GeForce GTX Titan, Tested In Pro Apps : Can GeForce GTX Titan Handle Professional Workloads?
Een pak? Maak er maar een beetje van. Iig niet iets wat die 750 euro extra vertegenwoordigd of vind jij soms van wel? Bij AMD hebben we het altijd over performance en bang for the buck toch, ik zie dat hier nergens. Verder wel interessante review.
Stukje prijs-performance:
Prijzen
570=150
580=180-200
Titan=950-1000
Prijs is van een 570=85% goedkoper, van een 580=79% in het meest ongunstige geval. Wat betekent dat je voor hetzelfde geld van 1 Titan ook 6,33x 570's kunt kopen of bijna 4,75x 580's. Stel je koop 3 570's op, mag je de performance toch minimaal wel verdubbelen met 2-2,5x en ben je nog steeds meer dan 50% goedkoper uit.
Een 580 presteert overall meestal 10% beter dan een 570, dus we kunnen nu zeggen:
- 3dsMax: 580=275sec, zal 570~300sec zijn, Titan=225sec -----> 570 is dus 33% langzamer
- Blender: 580=80sec, zal 570~88sec zijn, Titan=38sec -----> 570 is dus 57% langzamer
- Octane PMC: 580=194sec, zal 570~214sec zijn, Titan=117sec -----> 570 is dus 45% langzamer
- Fluidmark: 580=31FPS, zal 570~28FPS zijn, Titan=62FPS -----> 570 is dus 65% langzamer
Maar zoals ook gezegd onder de review, was CUDA + double precision wel ingeschakeld? => De
screenshot reactie en de link waar hij/zij op doelt:
artikel.
Ik zal dan nog eens herhalen wat ik zei:
En over dat "kroon aftrappen"... dat heb je te letterlijk genomen denk ik. Wat ik bedoelde is dat je minimaal 6x een 570 kunt kopen voor eenzelfde Titan en daarmee ga je geheid voorbij de performance van die ene Titan. Het prijsverschil maakt de Titan juist meer een onlogischer keuze dan.
Als je naar single card performance kijkt heb je meteen gelijk. Maar spannend vind ik het niet verder, dat beetje extra tov een zoveel hogere prijs. Als een top kaart toch zo goed en zo duur moet zijn, mag ie toch ook best wat meer performen, ben je daar mee eens of niet?
Added after 20 minutes:
Nu ik je post zo terug lees heb ik een beetje het gevoel gekregen dat ik nu tegen een anti nvidia persoon aan zit te praten, ik zeg niet dat het zo is maar mijn gevoel zegt dat wel, ik denk dat je de cuda test zelfs nog gaat ontkennen straks maar wie weet?
Haha ik anti-NV, nee joh, wtf... wees gerust!!! Heb alleen maar Nvidia kaarten, echt waar... 4 stuks... oh nee 5, zelfs 6 als ik die ouwe FX5200 nog mag meetellen. lol hahahaha
Het enige wat ik me dus afvroeg aan wat jij postte in je eerdere bericht, het is of OpenCL/GL vergelijkingen of single precision en dat is allemaal nou net niet waar ik het hierboven over had.
Maar wat ik gewoon helemaal niet snap is dat opeens iedereen valt over 1 zin die ik heb gezegd. Mijn god, dit is toch een nieuwstopic, geen discussietopic over wie gelijk heeft of Titan sterker is of niet. En nee, daar ga ik ook geen topic over open gooien, lijkt me een beetje nutteloos. Conclusie: single card enkel bekeken
ruwe (bijna theoretische) performance yes jawel leuk ding, overall (kosten/vergelijking tov andere oudere multiple kaarten=prijs-performance) = behoorlijk pain in the ass.
.
GeForce GTX
The ultimate GPU for gamers. Delivers fastest performance and all the latest gaming technologies.
Source: Hardware | GeForce
Kortom, dat jij je GTX graag wilt gebruiken.. prima.. maar de GeForce GTX-en hebben een bios die puur geschreven is met gaming als kerndoel.
Dat klopt wel ja, maar dat het het kerndoel niet was heb ik nergens onderschreven toch? Staat in de link ook niet dat het gaming-only is, wat ik ook vroeg in mn eerdere bericht.
Mja dit vind ik richting mierenneuken gaan, ik snap wat jij/jullie bedoelen en jullie onderhand ook wel wat ik bedoel.
Toevoeging:
Als je meer Photoshop gebruikt:
Lucid Virtu™ GPU
Zit op de meeste moederborden en laat windows zelfs schakelen tussen igp en gpu (mits je een igp hebt uiteraard).
Heb hier een P67 en P45 bord... de rest snap je wel, dat gaat niet helpen...
Ik zei idd PS om ff wat te roepen, maar is PS een slecht voorbeeld eigenlijk, want die is toch meer CPU based en weinig plugins die direct CUDA gebruiken. Waarvoor ik de kaarten gebruik is GPU folding (dus GPUGRID (atm NVIDIA only, Titan nog niet ondersteund), PrimeGRID, WCG (AMD is hier sneller) en GIMPS) en af en toe Premiere Pro (via de GPU hack de CUDA engine kunnen gebruiken). Dus ik heb daarom ook niets direct aan OpenCL/GL/DX11 benchmarks, voor de vergelijking is het wel leuk, zoals in games ofzo.
-----------------------------------------------------------------------------------------------------------------------------
Maar goed, om de discussie een beetje af te sluiten: ik weet er ook niet alles van tot in detail. Ik weet alleen wat ik heb gelezen in die specifieke fora en dan doel ik op de
double precision performance van
CUDA binnen de
600 serie ten opzichte van de oudere
Fermi architectuur.
Zoals al eerder genoemd; Ik heb er hoop op dat het verbeterd in de 700 serie, omdat Titans, Quadro's en Tesla's te duur zijn voor een gewone consument voor wat ze uiteindelijk bieden, wat ik ook hierboven heb proberen te laten zien (m.b.t. Titan). Ik ben echt niet de enige die zijn zogenaamde gaming kaart voor hogere doeleinden gebruikt. Wat ik denk is dat je nog gaat schrikken als je na wilt gaan hoeveel consu-hardware omgaat richting de bouw van non-gaming systemen of in ieder geval waar gaming niet het hoofddoel is.