近日,埃森哲(Accenture)發(fā)布了其《技術展望2022》,這是一份研究關鍵技術的報告,主題為“在元宇宙中與我相遇:重塑技術和體驗的連續(xù)體業(yè)務”。
該報告結合了埃森哲技術愿景外部咨詢委員會(由來自學術界、風險資本和公共及私營部門專家組成)的意見,以及對行業(yè)專家的采訪,包括“對全球35個國家和23個行業(yè)的24,000名消費者和4650名高管和董事的調查。”報告研究了人工智能、web 3.0、數(shù)字孿生、邊緣計算和量子計算等前沿技術,并探索了它們如何在構建元宇宙的背景下改變商業(yè)和人類體驗。
“元宇宙”一詞可能已經讓一些人立刻失去興趣,因為它的模糊概念:要么是互聯(lián)網的下一次技術革命,要么是被過度炒作的市場時尚,感覺都不太“真實”。但根據(jù)埃森哲的說法,這是“互聯(lián)網的一種進化,它使用戶能夠超越瀏覽,居住或參與到一種持久沉浸的共享體驗,跨越我們的現(xiàn)實世界和虛擬世界以及兩者之間的閃光地帶。”而元宇宙技術的發(fā)展正在加速這些物理世界和數(shù)字世界,或者說“真實”和“不真實”的融合。
該報告的作者通過對人工智能的討論,以及“企業(yè)和環(huán)境如何越來越多地得到人工智能生成的數(shù)據(jù)的支持,這些數(shù)據(jù)令人信服地反映了現(xiàn)實世界”,探索了“不真實”的概念。這種引人注目的模仿,由深度造假和其他生成人工智能技術驅動,迫使我們質疑什么是真實的,什么是不真實的,以及在什么情況下我們會關心或不關心?他們舉了一個關于總統(tǒng)的視頻的例子,以及它的真實性如何重要,但當它是一個深度偽造的產品廣告時就不那么重要了。這種對現(xiàn)實的模糊感知被稱為“合成現(xiàn)實”,該報告對此表示,“隨著合成現(xiàn)實的發(fā)展,有關AI將好壞與真實和虛假結合起來的討論將轉而關注真實性。”
人工智能正在通過合成數(shù)據(jù)驅動合成現(xiàn)實。埃森哲表示,使用人工智能曾是企業(yè)技術趨勢領先的一項競爭優(yōu)勢,但在如今這個充斥著數(shù)據(jù)的世界,釋放人工智能的見解是簡化業(yè)務流程、優(yōu)化客戶體驗和鼓勵更大成果的關鍵,這是一種必要手段。為了實現(xiàn)這些目標,許多公司都在訓練混合了真實數(shù)據(jù)和合成數(shù)據(jù)的人工智能模型。
在2021年6月的一份報告中,Gartner(高德納)將合成數(shù)據(jù)定義為通過簡單規(guī)則、統(tǒng)計建?;蚰M生成的數(shù)據(jù),而不是通過直接測量或通過其他業(yè)務流程收集的真實數(shù)據(jù)。埃森哲的報告引用了高德納的預測,到2030年,人工智能建模中使用的大部分數(shù)據(jù)將是合成的。它將此歸因于“合成數(shù)據(jù)正被用于訓練人工智能模型,而現(xiàn)實世界的數(shù)據(jù)實際上不能或不應該被利用。”在保護機密和隱私的同時保持相同的統(tǒng)計特性,它也可以增加多樣性和對抗偏見,從而克服現(xiàn)實世界數(shù)據(jù)的陷阱。”該報告還討論了合成數(shù)據(jù)在創(chuàng)建和交互方面如何變得更“人性化”,這可以幫助用戶節(jié)省時間和工作,特別是在開發(fā)或客戶服務場景中。
技術進步經常吸引投機取巧和惡意的用戶非法利用這些新工具也就不足為奇了。報告承認會出現(xiàn)具有缺點的合成數(shù)據(jù)被使用的趨勢。例如,在布朗大學(Brown University)的一項研究中,25%的氣候危機相關推文和38%的一般性“假科學”推文都是由機器人發(fā)布的。此外,卡內基梅隆大學的一項研究發(fā)現(xiàn),45%至60%的關于COVID-19的推特賬號是機器人。埃森哲將這種狀況稱為“信息疫情”,并表示隨著人工智能的發(fā)展和“假信息即服務”的持續(xù),這種狀況可能會繼續(xù)惡化。
埃森哲表示:“隨著令人信服和誘人的虛假信息越來越多,真實的東西將變得越來越模糊。”“這不僅會威脅到企業(yè)及其聲譽造成直接損害,而且還會破壞對企業(yè)賴以建立的人工智能生態(tài)系統(tǒng)的信任。”
盡管如此。報告稱,“73%的全球消費者認為,未來三年,他們與人工智能或人工智能生成的內容互動的次數(shù)將會增加。”那么,我們能做些什么來減少這些互動的危害呢?
不是只盯著什么是“真實”,埃森哲提出真實性”定義為對自己要真誠和真實的,其他人可以證明,更具體地說,以一個真正的方式使用生成AI意味著要注意來源,政策,人員和目的。”
例如使用區(qū)塊鏈的分布式賬本技術可以幫助數(shù)字內容的來源。一個由微軟領導的合作項目“起源計劃”(Origin)正在使用它來消除虛假信息的傳播。
圍繞生成式人工智能的政策可以起到幫助作用,比如加州的《BOT披露法》,“該法律規(guī)定,當機器人被用于銷售商品或服務或影響選舉投票的通信時,必須披露它們的使用情況。”
正確的人也可以幫助提高真實性,組織應安排治理結構,以便在出現(xiàn)虛假信息或網絡釣魚活動時增加問責和專業(yè)知識。
最后,目的決定生成AI的最佳用途。報告稱,僅為了省錢而使用機器人而不是人來擔任客戶服務角色,很可能缺乏真實性。然而,在醫(yī)療保健或美容行業(yè)等客戶可能感到尷尬或不愿與真人交談的情況下,人工智能可能更可取,埃森哲表示,這將是為消費者增加價值的真實途徑。
埃森哲(Accenture)在其報告中關于“不真實”的部分總結道,人工智能模型越來越多地使用合成數(shù)據(jù),這可能會改善世界,也可能讓世界容易受到惡意行為者的攻擊,但現(xiàn)實很可能會讓它處于兩者之間的某個位置。該公司重申,真實性是一個“指南針和框架,將指導您的公司以真正的方式使用人工智能——跨越行業(yè)、用例和時間——通過考慮來源、政策、人員和目的。”