近年來,在ChatGPT等一些聊天機器人進入公共領域后,生成式人工智能席卷了世界。聊天機器人以近乎神奇的速度生成了類似人類的文本——以莎士比亞的風格寫十四行詩,在多種語言之間翻譯文本,大量編寫計算機代碼等等。
企業(yè)和商業(yè)專家立即看到了潛在的好處。但最近幾個月,人們對生成式人工智能的懷疑還在增加({HYPERLINK "https://www.npr.org/sections/planet-money/2024/08/06/g-s1-15245/10-reasons-why-ai-may-be-overrated-artificial-intelligence"})。批評者說,生成式人工智能的能力被夸大了;糜X——生成式人工智能模型可能做出的錯誤陳述——降低了其有用性,許多企業(yè)尚未找到使用這些工具的理想策略。盡管ChatGPT是有史以來發(fā)展最快的應用程序之一,但表示經(jīng)常使用它的人的比例仍然相當罕見()。
在最近對全球技術領導者進行的一項調查“The Impact of Technology in 2025 and Beyond: an IEEE Global Study”中,91%的受訪者同意“到2025年,隨著公眾的興趣和看法轉變?yōu)閷夹g能夠和應該做什么的更大理解和期望,在結果的準確性、深度偽造的透明度等方面,將出現(xiàn)一種生成式的人工智能計算!
但該調查預計生成式人工智能不會遇到持久的障礙。相當比例的多數(shù)人(91%)也同意“生成式人工智能的創(chuàng)新、探索和采用將在2025年以閃電般的速度繼續(xù)!
那么,2025年生成式人工智能的前景如何?產(chǎn)品路線圖是什么,它們將對我們的工作和生活方式產(chǎn)生什么影響?
更多多模式功能
IEEE高級會員林道莊預計,未來幾年生成式AI模型將能夠更容易地從簡短的文字片段中提供圖像和視頻,文本到圖像、文本到視頻和語音合成技術將得到改進,模型將在多樣化輸入中實現(xiàn)更好的上下文理解。
林說:“第一步是深度整合多模式,為消費者甚至專業(yè)內容創(chuàng)作者創(chuàng)造更復雜、詳細、準確和自洽的內容!
解決模型中的準確性和偏見
對幻覺、準確性和偏見的擔憂也減緩了生成式人工智能模型的采用。當模型在有偏見的數(shù)據(jù)上訓練時,偏見可能會蔓延。一些圖像生成模型可能會顯示對某個種族的人的偏好。
林說:“該模型的開發(fā)人員需要專注于如何消除人工智能在消費者數(shù)據(jù)培訓過程中產(chǎn)生的偏見和道德問題。重要的是引導用戶接受更普遍、更持久的價值觀,并引導模型變得更加‘善良’。”
提高模型處理信息的上下文窗口大小
生成式人工智能模型面臨的一個限制是它們在提示中一次可以處理的信息量。這被稱為上下文窗口或上下文大小。例如,想象一下,你需要輸入一個很長的提示或描述來生成圖像。在某些時候,生成式人工智能模型將無法處理整個提示。輸出將僅反映提示的一部分,省略潛在的重要信息。
在另一種情況下,您可能需要與模型就一份長文檔進行對話。隨著對話的進行,模型可能會忘記對話的早期部分。
提高模型處理信息的上下文窗口將使生成式人工智能模型能夠處理更復雜的任務,并提高其響應的一致性。
IEEE研究生會員Hector Azpurua表示:“我們還沒有達到生成式人工智能的極限;我們還沒有處于這項技術增長后的穩(wěn)定期。”