Nvidia ‘inventa’ lo slow-motion tramite GPU

Una ricerca di Nvidia dimostra come, tramite deep learning e GPU moderne, sia possibile effettuare ralenti delle riprese a 240 fps partendo da materiale sorgente a 30 fps. In futuro non avremo più bisogno dei sensori ‘hi speed’?

Che il progresso delle GPU stia dando tante nuove opzioni creative ai videomaker non è una novità dell’ultima ora: in questo caso gli ultimi sviluppi in casa Nvidia faranno la felicità di chi ama il video al ‘ralenti’. La nuova ricerca presentata dall’azienda statunitense, infatti, mostra come – tramite un algoritmo di deep learning che ha studiato oltre 11.000 video a 240 fps, accoppiato a un array di GPU Tesla V100 – sia possibile estrapolare video in slow-motion a 240 fps da ‘normali’ video girati a 30p, oppure a 480 fps da 60p.
Il sistema è in grado di ‘inventare’ i frame mancanti e riprodurre ralenti convincenti e senza artefatti evidenti, quasi come se il materiale originario fosse stato girato in modo nativo a 240 fps. La tecnica è ancora abbastanza complicata e c’è bisogno di qualche affinamento, ma siamo certi che nel prossimo futuro sarà possibile trovare funzioni simili nei principali programmi di editing e, secondo quanto pensano in Nvidia, anche in applicazioni ‘Mobile’.
L’azienda ha rilasciato un video di dimostrazione; eccolo qui sotto:

 

Recommend to friends
  • gplus
  • pinterest