5月29日,新加坡國立大學(xué)和香港中文大學(xué)的研究人員聲稱已經(jīng)創(chuàng)造了一種人工智能——稱為MinD-Video,可以從大腦信號(hào)中重建“高質(zhì)量”視頻。
正如研究人員在一篇論文中介紹稱,MinD-Video AI 模型是根據(jù)來自 fMRI 讀數(shù)的公開可用數(shù)據(jù)和 AI 圖像生成器 Stable Diffusion 的增強(qiáng)模型共同訓(xùn)練的。
研究人員稱,他們的模型能夠完全基于大腦讀數(shù)生成高質(zhì)量的 AI 重建視頻,平均準(zhǔn)確率為85%。
這篇新論文建立在研究人員之前使用人工智能通過僅分析腦電波來重建圖像的努力的基礎(chǔ)上。
MinD-Video可將大腦信號(hào)生成視頻效果著實(shí)讓人驚艷,例如,一段關(guān)于一群人走在繁忙街道上的視頻被翻譯成同樣擁擠的場(chǎng)景,生成的視頻色彩更鮮艷。
不過效果還有些瑕疵,例如,水母的視頻莫名其妙地變成了魚游泳的片段,而海龜?shù)囊曨l被重新解釋為魚的鏡頭。
研究人員認(rèn)為,這些人工智能世代也可以提供神經(jīng)學(xué)見解,例如顯示視覺皮層在視覺感知過程中的主導(dǎo)地位。
盡管這項(xiàng)研究令人著迷,但我們距離能夠戴上頭盔并獲得完全準(zhǔn)確的人工智能生成的視頻流的未來還很遙遠(yuǎn)。
原創(chuàng)文章,作者:蘋果派,如若轉(zhuǎn)載,請(qǐng)注明出處:http://m.rponds.cn/article/572041.html