“計(jì)算機(jī)永遠(yuǎn)不能承擔(dān)責(zé)任,因此計(jì)算機(jī)永遠(yuǎn)不能做出管理決策。”
– IBM 培訓(xùn)手冊,1979 年
人工智能 (AI) 的采用正在不斷增加。根據(jù)IBM 2023 年全球 AI 采用指數(shù),42% 的企業(yè)已積極部署 AI,40% 的企業(yè)正在試驗(yàn)該技術(shù)。在使用或探索 AI 的企業(yè)中,59% 的企業(yè)在過去兩年中加快了投資和推廣速度。結(jié)果是利用智能工具得出(據(jù)稱)準(zhǔn)確答案的 AI 決策能力有所提升。
然而,快速采用也引發(fā)了一個問題:如果人工智能做出錯誤選擇,誰該負(fù)責(zé)?錯在 IT 團(tuán)隊(duì)?高管?人工智能模型構(gòu)建者?還是設(shè)備制造商?
在本文中,我們將探索不斷發(fā)展的人工智能世界,并根據(jù)當(dāng)前用例重新審視上述引言:公司是否仍然需要人類參與,還是可以由人工智能來做出決定?
正確做法:人工智能在哪些方面改善了業(yè)務(wù)成果
DEGI 首席顧問兼 ISACA 工作趨勢小組成員 Guy Pearce 從事人工智能研究已有 30 多年?!捌鸪酰斯ぶ悄苁窍笳餍缘?,”他說,“現(xiàn)在它是統(tǒng)計(jì)性的。人工智能是算法和模型,可以處理數(shù)據(jù)并隨著時間的推移提高業(yè)務(wù)績效?!?
IBM 最新發(fā)布的《AI 在行動》報告中的數(shù)據(jù)顯示了這一轉(zhuǎn)變的影響。三分之二的領(lǐng)導(dǎo)者表示,AI 推動了收入增長率超過 25%,72% 的領(lǐng)導(dǎo)者表示,高管層與 IT 領(lǐng)導(dǎo)層在 AI 成熟道路上的下一步行動上意見完全一致。
隨著人們對人工智能的信心不斷增長,企業(yè)正在實(shí)施智能工具來改善業(yè)務(wù)成果。例如,財(cái)富管理公司Consult Venture Partners 部署了 AIda AI,這是一款對話式數(shù)字人工智能禮賓服務(wù),它使用 IBM Watsonx 助手技術(shù)來回答潛在客戶的問題,而無需人工代理。
結(jié)果不言而喻:Alda AI 正確回答了 92% 的查詢,47% 的查詢促成了網(wǎng)絡(luò)研討會注冊,39% 的查詢轉(zhuǎn)化為潛在客戶。
偏離目標(biāo):如果人工智能犯了錯誤會發(fā)生什么?
92% 對于 Alda AI 來說是一個令人印象深刻的成就。但要注意的是,它仍然有 8% 的時間是錯誤的。那么,當(dāng) AI 犯錯時會發(fā)生什么呢?
對于皮爾斯來說,這取決于賭注。
他以一家金融公司利用人工智能評估信用評分并發(fā)放貸款為例。這些決策的結(jié)果風(fēng)險相對較低。在最好的情況下,人工智能會批準(zhǔn)按時全額償還的貸款。在最壞的情況下,借款人違約,公司需要采取法律行動。雖然不方便,但負(fù)面結(jié)果遠(yuǎn)遠(yuǎn)超過了潛在的積極影響。
“說到高風(fēng)險,”皮爾斯說,“看看醫(yī)療行業(yè)。假設(shè)我們使用人工智能來解決等待時間的問題。我們是否有足夠的數(shù)據(jù)來確?;颊甙凑照_的順序就診?如果我們做錯了怎么辦?結(jié)果可能是死亡。”
因此,人工智能如何用于決策,很大程度上取決于它所做出的決策是什么,以及這些決策如何影響做出決策的公司和受決策影響的人。
在某些情況下,即使是最壞的情況也只會帶來一點(diǎn)不便。但在另一些情況下,其結(jié)果可能會造成重大損害。
承擔(dān)責(zé)任:如果人工智能犯了錯誤,誰該負(fù)責(zé)?
2024 年 4 月,一輛處于“全自動駕駛”模式的特斯拉汽車撞死了一名摩托車手。盡管需要駕駛員主動監(jiān)督,但該車司機(jī)承認(rèn)在事故發(fā)生前一直在看手機(jī)。
那么誰該承擔(dān)責(zé)任?司機(jī)顯然是最佳人選,他因交通殺人罪被捕。
但這并不是追究責(zé)任的唯一途徑。特斯拉也應(yīng)該承擔(dān)一定責(zé)任,因?yàn)樵摴镜娜斯ぶ悄芩惴ㄎ茨馨l(fā)現(xiàn)受害者。責(zé)任也可以歸咎于國家公路交通安全管理局 (NHTSA) 等管理機(jī)構(gòu)。也許他們的測試不夠嚴(yán)格或完整。
甚至有人認(rèn)為,特斯拉人工智能的創(chuàng)造者應(yīng)該為發(fā)布可能致命的代碼承擔(dān)責(zé)任。
這就是人工智能決策的悖論:是某個人犯了錯,還是所有人都犯了錯?“如果你把所有應(yīng)該承擔(dān)責(zé)任的利益相關(guān)者聚集在一起,那么責(zé)任在哪里?”皮爾斯問道。“是高管層?還是整個團(tuán)隊(duì)?如果責(zé)任遍布整個組織,那么每個人都不會坐牢。最終,共同承擔(dān)責(zé)任往往會導(dǎo)致沒有責(zé)任?!?
劃清界限:人工智能的終點(diǎn)在哪里?
那么,組織應(yīng)該在哪里劃定界限呢?人工智能洞察力何時讓位于人類決策?
有三個考慮因素至關(guān)重要:道德、風(fēng)險和信任。
“當(dāng)涉及到道德困境時,”皮爾斯說,“人工智能無法解決。”這是因?yàn)橹悄芄ぞ咦匀粫で笞钣行У耐緩?,而不是最道德的途徑。因此,任何涉及道德問題或擔(dān)憂的決定都應(yīng)包括人類的監(jiān)督。
與此同時,風(fēng)險是人工智能的專長?!叭斯ぶ悄苌瞄L風(fēng)險,”皮爾斯說?!敖y(tǒng)計(jì)模型會給你一個標(biāo)準(zhǔn)誤差,讓你知道人工智能的建議是具有高還是低的潛在變異性?!边@使得人工智能非常適合基于風(fēng)險的決策,比如金融或保險領(lǐng)域的決策。
最后,企業(yè)需要優(yōu)先考慮信任?!叭藗儗C(jī)構(gòu)的信任度正在下降,”皮爾斯說?!霸S多公民不相信他們分享的數(shù)據(jù)被以值得信賴的方式使用?!?
例如,根據(jù)《GDPR》,公司需要對數(shù)據(jù)收集和處理保持透明,并讓公民有機(jī)會選擇退出。為了增強(qiáng)人們對使用人工智能的信任,組織應(yīng)該清楚地說明他們使用人工智能的方式和原因,并(在可能的情況下)允許客戶和客戶選擇退出人工智能驅(qū)動的流程。
決策,決策
人工智能應(yīng)該用于管理決策嗎?也許吧。它會被用來做出一些決策嗎?幾乎可以肯定。人工智能的吸引力——它能夠捕獲、關(guān)聯(lián)和分析多個數(shù)據(jù)集并提供新的見解——使其成為企業(yè)簡化運(yùn)營和降低成本的有力工具。
不太清楚的是,向管理層決策的轉(zhuǎn)變將如何影響問責(zé)制。皮爾斯表示,目前的情況造成了這一領(lǐng)域的“界限模糊”;立法還沒有跟上人工智能使用率的提高。
為了確保符合道德原則、降低錯誤選擇的風(fēng)險并贏得利益相關(guān)者和客戶的信任,企業(yè)最好讓人類參與其中。也許這意味著在人工智能采取行動之前需要得到員工的直接批準(zhǔn)。也許這意味著偶爾要審查和評估人工智能的決策結(jié)果。
但無論企業(yè)選擇哪種方法,核心信息始終不變:在人工智能驅(qū)動的決策方面,沒有固定的界限。這是一個不斷變化的目標(biāo),由可能的風(fēng)險、潛在的回報和可能的結(jié)果決定。