giusto per dare un'idea: lo standard in ripresa(PAL) è 25fps, e per gli americani (NTSC) 30fps, le singole immagini hanno al loro interno l'informazione sul movimento, ogni singola immagine è sfocata e in play risulta tutto nitido, grazie a quella sfocatura non risulta a scatti. (i film al cinema addirittura sono a 24fps)
La scheda video invece non può conoscere il fotogramma successivo (ci stanno provando con l'AI, ma è utopico oltre a un tot) perchè le immagini renderizzate sono conseguenza delle nostre azioni, quindi la sfocatura sarà mai completa, solo nel caso del motion blur su ON avrà solo la componente del fotogramma precedente, ma non serve a moltissimo oltre che a creare un po' di effetto scia.
Quindi diciamo che per compensare la mancanza del movimento nelle immagini siamo costretti ad aumentare il framerate per evitare di vedere a scatti.
Di solito il doppio è sufficiente (50/60fps). Chiaramente è una cosa soggettiva, c'è chi percepisce la differenza tra 50fps e 75/80fps. Dagli 80fps in su è decisamente difficile cogliere i miglioramenti, penso perchè superi la frequenza d'aggiornamento del nostro occhio in questo caso
Questo è il motivo per cui i monitor dai 120hz in su sono una grande commercialata... a meno che non rispolveri tecnologie tipo 3Dvision con l'intento di fornire un'immagine per occhio superiore ai 60hz. (Ma non l'hanno fatto)
Poi in realtà con sti monitor LCD/LED etc è decisamente più importante la latenza grey-to-grey dei pixel, io rammento molto bene i tempi del CRT, quando a 60hz vedevi lampeggiare lo schermo con la coda dell'occhio peggio di un neon, mentre a 120hz avevi un immagine stabile e riposante. Un LCD di media/bassa qualità a 60hz non lampeggia perchè i pixel non fanno a tempo a spegnersi che hanno già ricevuto l'impulso successivo, quindi i difetti emergono solo sulle immagini in movimento.