#本文僅代表作者觀點(diǎn),不代表IPRdaily立場#
原標(biāo)題:魔鏡降臨!谷歌耗時五年研發(fā)黑科技,裸眼3D 宛如真人
3D 電影你看過嗎?面對這個問題,很多小伙伴都能給出肯定的回答。撲面而來的景物,強(qiáng)烈的身臨其境感,戴上3D 眼鏡之后,就好像進(jìn)入銀幕深處。
每次看完 3D 電影,筆者總是回味無窮,同時心里暗想,什么時候 3D 視頻也能由普通人制作。不需要復(fù)雜的技術(shù),普通人在家就能生產(chǎn)、觀看 3D 視頻。
3D 電影
剛開始出現(xiàn)這個念頭的時候,筆者告訴自己,這只是一個不切實際的妄想。每一部 3D 視頻都需要特殊的攝影機(jī),搭配專業(yè)團(tuán)隊拍攝,還要經(jīng)過大量后期處理工作,才能呈現(xiàn)在人們眼中。然而,谷歌最新發(fā)布的技術(shù),直接將小黑的妄想變成現(xiàn)實。
“魔鏡”效果
在最近舉行的Google I/O大會上,谷歌向觀眾展示了一款“魔鏡”產(chǎn)品 Project Starline。它不需要任何眼鏡與頭顯,就可以與遠(yuǎn)方的朋友開啟 3D 視頻通話。不需要復(fù)雜的制作,不需要專業(yè)的團(tuán)隊,只要坐在谷歌“魔鏡”面前,就能看到活靈活現(xiàn)的朋友,立體的影像、真實感強(qiáng)烈的畫面,仿佛“對面”的朋友與你只隔著一道玻璃鏡面。
那么,這項技術(shù)究竟如何實現(xiàn)?筆者帶大家一起來看一下。
一、裸眼 3D 超進(jìn)化
谷歌“魔鏡”產(chǎn)品,說白了就是裸眼 3D 技術(shù)的一種。人眼之所以可以識別立體物體,是因為人有兩只眼睛。左右眼看到的物體角度不同,綜合到大腦中就可以產(chǎn)生立體感。
3D 電影就是從擬真的角度出發(fā),配置兩臺攝影機(jī),模擬雙眼看到的效果拍攝,最后通過 3D 眼鏡,讓左眼看到左攝像機(jī)的視頻,右眼看到右攝像機(jī)的視頻,雙眼綜合起來大腦就能產(chǎn)生立體感。
所謂裸眼 3D,最基礎(chǔ)的版本就是發(fā)布兩個類似的視頻,并行排列在同一個屏幕上,此時想辦法隔絕左右眼,使得左眼看左側(cè)視頻,右眼看右側(cè)視頻,就有機(jī)會實現(xiàn)裸眼 3D 效果。
裸眼3D 觀看需要一定技巧
去年,裸眼 3D 在 B 站火過一陣,大體上就利用這一原理。裸眼 3D 視頻拍攝起來并不復(fù)雜,麻煩的地方在于如何讓用戶靈活運(yùn)用雙眼去觀看它。雖然彈幕上有很多網(wǎng)友運(yùn)用各種小技巧成功觀看到裸眼 3D 視頻,可筆者將雙眼擠成斗雞眼,看到的仍然是兩個模糊的畫面。B 站裸眼 3D,筆者算是無福享受。
B站裸眼3D
裸眼 3D 技術(shù),本質(zhì)上就是一種欺騙眼睛的技術(shù)。B 站與谷歌其實都不是最早的開發(fā)者,早在九年前,任天堂 3DS 主機(jī)掌機(jī)就率先采用了這項技術(shù)。與 B 站 up 主采取的方案不同,任天堂裸眼 3D 技術(shù)通過光屏障式技術(shù)實現(xiàn)。
3DS
這種技術(shù)最大的優(yōu)勢在于成本低,在屏幕上加一道偏振膜即可。不過俗話說便宜沒好貨,光屏障式技術(shù)非常雞肋,用戶視線必須與屏幕保持平行才能看到 3D 效果。玩家上手之后,迅速將這項雞肋的技術(shù)關(guān)閉。
光屏障式技術(shù)
繼任天堂之后,惠普與亞馬遜先后嘗試過裸眼 3D 產(chǎn)品,他們企圖在筆記本電腦與手機(jī)上呈現(xiàn)這項技術(shù),亞馬遜甚至還發(fā)布了首款搭載裸眼 3D 技術(shù)的智能手機(jī) Fire Phone。然而,這些產(chǎn)品無論是軟件算法技術(shù)還是屏幕技術(shù)都不太成熟,在市場上均未能產(chǎn)生多大水花。久而久之,裸眼 3D 逐漸被人們遺忘。
直到最近,谷歌重新拾起這項技術(shù),運(yùn)用3D呈現(xiàn)、實時視頻壓縮、空間音頻、計算機(jī)視覺、機(jī)器學(xué)習(xí)等技術(shù),實現(xiàn)了全新的 3D 光場顯示方案。至此,裸眼 3D 實現(xiàn)超進(jìn)化,一個嶄新的時代正在向我們走來。
二、3D光場,魔幻般體驗
谷歌的“魔鏡”技術(shù)并非偶然,早在五年前就已經(jīng)開始了相關(guān)研究。經(jīng)過多年的研發(fā),終于通過昂貴的相機(jī)、傳感器與屏幕來實現(xiàn)深度錯覺。B 站裸眼3D 是讓用戶自己運(yùn)用雙眼來實現(xiàn)自我錯覺,任天堂等公司裸眼 3D 通過屏幕技術(shù)來實現(xiàn) 3D 效果。
谷歌在此基礎(chǔ)上,通過傳感器與相機(jī)實時捕捉用戶動作與眼睛注視部位,通過高精度算法來實現(xiàn)深處錯覺。
通過谷歌展示的效果,我們可以看到屏幕中不再是二維畫面,而是與真人 1:1 的三位立體顯示,通話雙方每一個動作、每一個細(xì)節(jié)甚至每一處陰影都能“如實”展現(xiàn)。這款產(chǎn)品給小黑的直觀感覺有點(diǎn)類似于監(jiān)獄中的隔音玻璃墻。在影視劇中我們經(jīng)??吹郊覍偬奖O(jiān),隔著一道玻璃與犯人通話,雙方可以看到所有的動作,卻無法觸摸對方。
“魔鏡”對話
谷歌“魔鏡”的效果,就跟監(jiān)獄中的玻璃隔墻類似,通話對方仿佛就在眼前,卻看不見摸不著。第一次使用“魔鏡”的用戶,恐怕都會忍不住去觸摸“魔鏡”中的朋友。
根據(jù)谷歌官方介紹,“魔鏡”不需要任何眼鏡或頭顯,也不必將視線與屏幕垂直,只要處在一個小格子間中,就能從不同角度看到對面宛如真人般的 3D 實時視頻。至于谷歌如何做到,就不得不提十多個高分辨率攝像機(jī)和定制深度傳感器。
在小小的格子間中,多臺攝像機(jī)從多個角度捕捉用戶的各類信息,形成 3D 模型,從而在系統(tǒng)中構(gòu)建一個立體畫面。然后通過傳感器,將捕捉到的模型進(jìn)一步細(xì)化,模擬出真人一般的視頻效果。
建立模型
從捕捉信息到建立模型,這個過程并不復(fù)雜,復(fù)雜的地方在于不斷優(yōu)化,使其不斷貼近真實場景。這其中,自然少不了深度學(xué)習(xí)算法。谷歌作為阿爾法狗的締造者,在深度學(xué)習(xí)方面有極高的造詣。在五年內(nèi)不斷優(yōu)化算法,終于在今年開發(fā)者大會推出魔鏡,讓廣大用戶感受這魔幻般的場景。
完成高精度模型只是“魔鏡”系統(tǒng)前半部分,后面還要這些模型真實的呈現(xiàn)在用戶眼前。這中間,就要用到光場顯示系統(tǒng)。
光場顯示,其實也不是谷歌的專利,去年10月索尼就發(fā)布過一款裸眼 3D 光場顯示器,據(jù)索尼官方介紹,這款產(chǎn)品配備高速視覺傳感器,可追蹤人眼的運(yùn)動甚至在屏幕前走動的位置,以從不同角度優(yōu)化用戶的觀看體驗。
柱狀棱鏡技術(shù)
此外,裸眼 3D 光場顯示器上采用柱狀棱鏡法,在液晶顯示屏的前面加上一層柱狀透鏡,透鏡能以不同的方向投影每個子像素,讓雙眼可以從不同的角度觀看顯示屏,從而營造出立體感。
簡單來說,柱狀棱鏡法在一塊屏幕上向不同的方向投影不同的圖案,從而不需要眼睛拼命斗雞眼就能看到 3D 圖案。高速視覺傳感器追蹤眼球,配合算法可以呈現(xiàn)不同的內(nèi)容,保證用戶變換姿勢后依然可以看到清晰生動的 3D 視頻。
索尼發(fā)布的光場顯示器其實已經(jīng)可以完美實現(xiàn)裸眼 3D 視頻,只不過不能實現(xiàn)實時通話。谷歌“魔鏡”的出現(xiàn),讓光場顯示器與3D 實時視頻相結(jié)合,最終呈現(xiàn)出魔幻般的“真人實時通話”場景。對此,小黑不得不說,谷歌黑科技真牛!
谷歌黑科技
如此完美的產(chǎn)品,筆者恨不得立馬體驗。可惜,這些昂貴的高科技設(shè)備價格不菲,索尼 15.6 英寸的光場顯示器售價就高達(dá)4999 美元。谷歌“魔鏡” 65寸光場顯示器,加上十余部高分辨率攝像機(jī)與傳感器,價格肯定不便宜。據(jù)一位消息人士援引內(nèi)部報告稱,這樣一套設(shè)備售價高達(dá)數(shù)萬美金。如此昂貴的價格,顯然不是普通消費(fèi)者可以承受。想要體驗的小伙伴,似乎只能再等上幾年了......
來源:我的極刻
編輯:IPRdaily王穎 校對:IPRdaily縱橫君
青年有為!尋找2021年“40位40歲以下企業(yè)知識產(chǎn)權(quán)精英”活動正式啟動
「關(guān)于IPRdaily」
IPRdaily是具有全球影響力的知識產(chǎn)權(quán)媒體,致力于連接全球知識產(chǎn)權(quán)與科技創(chuàng)新人才。匯聚了來自于中國、美國、歐洲、俄羅斯、以色列、澳大利亞、新加坡、日本、韓國等15個國家和地區(qū)的高科技公司及成長型科技企業(yè)的管理者及科技研發(fā)或知識產(chǎn)權(quán)負(fù)責(zé)人,還有來自政府、律師及代理事務(wù)所、研發(fā)或服務(wù)機(jī)構(gòu)的全球近100萬用戶(國內(nèi)70余萬+海外近30萬),2019年全年全網(wǎng)頁面瀏覽量已經(jīng)突破過億次傳播。
(英文官網(wǎng):iprdaily.com 中文官網(wǎng):iprdaily.cn)
本文來自我的極刻并經(jīng)IPRdaily.cn中文網(wǎng)編輯。轉(zhuǎn)載此文章須經(jīng)權(quán)利人同意,并附上出處與作者信息。文章不代表IPRdaily.cn立場,如若轉(zhuǎn)載,請注明出處:“http://m.jupyterflow.com/
文章不錯,犒勞下辛苦的作者吧