Richtig:
Es bleibt jedem völlig selbst überlassen, ob er seinen Viewer mit 40+ FPS oder mit 120 FPS betreibt (von denen die meisten im Nirvana landen werden, da der Monitor eh nur 60Hz darstellen kann).
Ansonsten gibt es in den meisten Treibern die Möglichkeit zum einen adaptives Vsync einzuschalten (Begrenzer auf maximal 60 Fps, mit weniger FPS ist das automatisch aus) und dann dazu noch Triple Buffering zu aktivieren. Dann laufen GPU und Monitor beim Zugriff auf den Framebuffer asynchron und man hat bei 45FPS im Viewer auch die vollen 45FPS am Monitor (und nicht nur 30 FPS), es gibt nur hin und wieder einige wenige doppelt gezeigte Bilder, und die sind für das menschliche Auge/Hirn nicht wirklich wahrnehmbar, weil der "Lag", der dadurch entsteht im Bereich deutlich unter 30ms liegt.
(Das menschliche Empfinden des Ganzen ist noch ein anderes Problem, es gibt ja auch jede Menge Menschen, die von einem noch nicht mal angeschlossenen UMTS-Masten die übelsten Symptome durch den Elektro-Smog kriegen. Oder Kopfschmerzen von WLAN, obwohl sie selbst ihre Mirkowelle täglich problemlos benutzen. D.h. derartige Beschwerden sind objektiv kaum messbar...das aber nur mal am Rande)
Der Viewer sollte aber eigentlich spätestens dann die GPU zu 99% auslasten, wenn er nicht in irgend einer Weise limitiert wird (Vsync z.B.), wenn das System selbst schnell genug ist (das betrifft vor allem den PCIE-Bus, wenn die Karte effektiv an einem 8x PCIE 2.0 Bus hängt kann das ein Problem sein, aber auch CPU und RAM und nicht zuletzt die Northbridge falls nicht in der CPU integriert müssen leistungsmäßig mitkommen) - und wenn sonst nichts den Bus bzw. die CPU oder die GPU mit Rechenzeit in Anspruch nimmt. Typische Kandidaten für letzteres sind z.B. irgendwelche Überwachungs-Tools und sonstige Gadgets in Windows.