(本文編譯自electronicdesign)
如今,人工智能幾乎滲透到了各行各業(yè)。在醫(yī)療診斷領(lǐng)域,谷歌DeepMind開發(fā)的眼底疾病識別系統(tǒng),通過分析數(shù)十萬張視網(wǎng)膜圖像,對糖尿病視網(wǎng)膜病變的診斷準確率達到97.5%,超越了平均水平的人類醫(yī)生;AlphaFold僅用兩年時間就破解了困擾生物學界半個世紀的蛋白質(zhì)結(jié)構(gòu)預測難題,為新藥研發(fā)節(jié)省了數(shù)十年的探索時間。
在科技領(lǐng)域,從自動化設(shè)計流程到代碼生成,它正被用作各種應用的工具,其使用率預計將呈指數(shù)級增長。最近的報告顯示,人工智能正在替代包括多鄰國(Duolingo)、谷歌(Google)、英特爾(Intel)、微軟(Microsoft)、英偉達(NVIDIA)、TikTok等數(shù)百家大公司中的數(shù)千個科技崗位。
雖然人工智能的應用被描述為對工程師和開發(fā)人員有益的工具,但最近科技行業(yè)的大規(guī)模裁員引發(fā)了一個問題:這些人工智能工具是否足以取代工人?在設(shè)計或編碼過程中,人工智能能被充分信任嗎?
如ChatGPT、Copilot和Gemini等的人工智能助手,其準確性令人擔憂。他們的回應中,51%存在重大問題,其中19%包含事實錯誤。人工智能搜索工具、翻譯應用程序、圖像識別、醫(yī)療保健領(lǐng)域,甚至刑事司法系統(tǒng),也存在同樣的問題。
那么,在嚴重依賴人類創(chuàng)新和技能水平的科技行業(yè),人工智能的處境如何呢?工程師和開發(fā)人員已經(jīng)將基于人工智能的電子設(shè)計自動化(EDA)工具用于印刷電路板(PCB)和電路設(shè)計。然而,由于這些設(shè)計的復雜性以及決策過程的要求,人工智能在這方面仍比不上人類的能力,因為它缺乏判斷能力。
人工智能:一個強大卻令人擔憂的工具
機器人與人工智能卓越研究院最近發(fā)表的一篇論文,探討了在安全關(guān)鍵型實時嵌入式系統(tǒng)中人工智能的可信度問題,尤其是那些應用于自動駕駛汽車、機器人和醫(yī)療設(shè)備的系統(tǒng)。研究人員指出,盡管人工智能(這里具體指深度神經(jīng)網(wǎng)絡(luò))具備強大的能力,但它也引發(fā)了一系列嚴重的擔憂,涉及時間不可預測性、安全漏洞,以及決策透明度等方面。研究人員認為,這些問題必須在部署前得到解決。
話雖如此,現(xiàn)代嵌入式平臺仍在不斷發(fā)展,以充分利用異構(gòu)架構(gòu)——這種架構(gòu)集成了中央處理器(CPU)、圖形處理器(GPU)、現(xiàn)場可編程門陣列(FPGA)和專用加速器,以滿足人工智能工作負載日益增長的需求。盡管如此,資源管理(如進程和線程管理)、時間可預測性的維持,以及任務優(yōu)化,仍然是亟待克服的重大障礙。
依托復雜人工智能框架運行的GPU,存在調(diào)度不可搶占、功耗高和體積大等問題,這限制了其在嵌入式應用中的使用。另一方面,F(xiàn)PGA則憑借更高的可預測性、更低的功耗和更小的外形尺寸,成為了更優(yōu)的替代方案。但它們也存在一些權(quán)衡取舍,包括編程難度大以及資源有限等問題。
近期的技術(shù)進展,包括FPGA虛擬化技術(shù),如FRED框架(如圖1所示),通過支持動態(tài)部分重配置和更優(yōu)的資源管理,有助于緩解其中一些挑戰(zhàn)。
圖1:FRED框架為FPGA上可預測軟件的設(shè)計、開發(fā)和執(zhí)行提供支持。
安全性和可靠性情況如何?
安全性是人工智能在電路和嵌入式系統(tǒng)設(shè)計中難以獲得信任的另一個重要原因。如今,大多數(shù)人工智能系統(tǒng)都構(gòu)建在通用操作系統(tǒng)之上,如Linux,這類系統(tǒng)容易受到網(wǎng)絡(luò)攻擊。吉普切諾基汽車被黑客入侵事件就是一個典型案例,黑客CharlieMiller和ChrisValasek成功控制了車輛的雨刮器、收音機、轉(zhuǎn)向系統(tǒng)和發(fā)動機,使車輛完全停了下來。
為避免此類事件發(fā)生,一些研究人員轉(zhuǎn)而采用基于虛擬機監(jiān)控程序(hypervisor)的架構(gòu),包括商用COTS虛擬機監(jiān)控程序和實時(RT)虛擬機監(jiān)控程序(如圖2所示)。他們將人工智能和安全關(guān)鍵型功能劃分到不同的域中,并借助內(nèi)置的硬件安全特性,如ARM的TrustZone技術(shù),防止一個系統(tǒng)的故障影響到另一個系統(tǒng)。
圖2:商用COTS虛擬機監(jiān)控程序與實時(RT)虛擬機監(jiān)控程序的對比。
當然,人工智能自身的可靠性也是個問題。深度學習系統(tǒng)很容易被錯誤輸入、能欺騙模型的細微數(shù)據(jù)調(diào)整,或者從未遇到過的分布外(OOD)輸入所誤導。這些情況可能導致系統(tǒng)做出錯誤決策,進而引發(fā)災難性后果。在嵌入式系統(tǒng)領(lǐng)域,工程師們需要知道人工智能做出特定決策的原因,而不僅僅是它做出了什么決策。
解釋性人工智能(XAI)等解決方案有助于揭示原本如同黑箱般的事件和行為,并且能夠發(fā)現(xiàn)訓練數(shù)據(jù)中隱藏的偏向性錯誤。這對于任何工具組合來說都是極具價值的見解,但同樣,它并非萬能解決方案——沒有任何一種方案是萬能的。不過,將這些方案結(jié)合使用,或許能幫助訓練人工智能以安全且極具透明度的方式設(shè)計電路和嵌入式系統(tǒng)。
人工智能目前還無法勝任所有任務,無論如何,它也無法通過任何倫理委員會的審核。但未來一二十年,情況可能會徹底改變,屆時將出現(xiàn)更先進的訓練模型、架構(gòu)和安全防范措施。我們既需要重視人工智能帶來的效率革命,也不能回避其潛藏的風險暗礁,唯有在理性審視中劃定信任的邊界,才能讓技術(shù)真正服務于人類。
END
延伸閱讀:與 (電路設(shè)計)和嵌入式系統(tǒng)中的AI能被信任:|嗎 的相關(guān)文章