2024-02-28
2024-01-03
2023-12-31
2023-12-12
2023-12-12
2023-10-25
2023-10-24
2023-10-10
2023-10-10
2023-10-09
2023-09-25
《世界經濟論壇》1月15日Workday 的研究表明,產業和政府之間的合作對於確保人工智慧負責任、安全可靠的開發和部署至關重要。雇主和員工對人工智慧的潛力感到興奮。然而,雙方也擔心人工智慧不會得到負責任的部署。
當談到人工智慧 (AI) 巨大的節省時間的潛力時,Workday 的新研究《縮小人工智慧信任差距》發現,員工和公司領導者總體上是一致的。兩人都興奮、感興趣並熱切期待接下來發生的事情。
然而,儘管令人興奮,但也存在猶豫。我們的研究結果表明,雖然企業領導者和員工都認為人工智慧為業務轉型提供了巨大的機會,但人們對人工智慧的部署是否負責任缺乏信心。員工比領導同事表現出更深層的懷疑。
例如,在我們最新的全球研究中,只有62% 的企業領導者(最高管理層或其直接下屬)歡迎人工智慧,而62% 的人相信他們的組織將確保以負責任和值得信賴的方式實施人工智慧. 在員工中,這一比例更低,分別為 52% 和 55%。
一、信任差距已經形成
這些發現強調了我們在 Workday 確信的一件事:人工智慧只有建立在信任的基礎上,才能充分實現在工作場所釋放人類潛力的能力。我們相信,未來的工作從這裡開始——以信任為中心——並且必須彌補這一差距。
世界經濟論壇表示,優先考慮透明度、一致性和滿足用戶期望對於建立對人工智慧系統的信任至關重要。只有當公司擁有智慧人工智慧治理時才能實現這一目標。近十年來,Workday 致力於負責任地開發和部署人工智慧技術,一直以身作則。這種治理、夥伴關係和倡導改善了我們的客戶服務並使我們的員工受益。它也改善了我們周圍的世界。應對這項挑戰的規模似乎令人畏懼,但我們的經驗告訴我們,我們可以採取謹慎的步驟。
二、縮小員工和行業的信任差距
我們相信人工智慧應該提升而不是取代人類,並且必須透過透明度來贏得對這項技術的信任。
我們的研究表明,員工擔心業務優先順序和對人工智慧缺乏瞭解會對組織如何處理人工智慧增強勞動力的人性化方面產生負面影響。恰當的例子:70% 的企業領導者同意人工智慧的開發方式應該易於人工審查和乾預,但 42% 的員工認為他們的公司並不清楚哪些系統應該完全自動化,哪些系統需要自動化人為幹預。或許,更令人擔憂的是,23% 的員工不相信他們的組織在實施人工智慧時將員工利益置於自身利益之上。
此外,我們發現,在公司領導和員工中,對人工智慧和數據關鍵應用的監管以及道德人工智慧的組織框架是可信人工智慧的兩大驅動因素。然而,四分之三的員工表示,他們的組織沒有在人工智慧監管方面合作,五分之四的員工表示,他們的公司尚未分享負責任的人工智慧使用指南。換句話說,即使組織正在參與監管並向其員工傳達人工智慧道德準則,但該訊息也沒有被接收。
二、怎麼辦?組織在建立負責任的人工智慧(RAI)計劃時應考慮四個基本支柱,這些支柱基於我們的計劃和封面的見解;原則、實踐、人員和政策:
1.原則:指導道德基礎
任何成功的 RAI 計劃的核心都是一套指導原則,界定組織的道德界限和承諾。這些原則構成了整個人工智慧策略的基石。原則部分涵蓋了應納入人工智慧開發和部署各個方面的整體價值和道德標準。
從公平和透明到問責和隱私,這些原則充當道德指南針,引導人工智慧措施走向負責任的結果。將這些原則與組織的核心價值結合,確保在開發和部署人工智慧應用程式時採用統一的道德決策方法。
2.實踐:建立負責任的基礎設施
為了有效地將原則轉化為行動,組織必須採用一系列最佳實踐,在整個人工智慧生命週期中實施道德考量。這包括以下內容:
(1) 強大且可擴展的開發工具
利用基於風險的 RAI 框架根據原則、法規和最佳實踐框架評估用例。開發人員和產品經理將受益於 RAI 風險評估工具,該工具可以幫助他們確定使用案例敏感的原因以及哪些特定的保護措施可以有效地處理這些風險。該工具可直接指導開發人員採取與其用例相關的防護措施,使他們能夠有效管理相關風險。
(2) 透明度和揭露
RAI 方法的另一個核心是客戶透明度。為了提高人工智慧技術開發流程的透明度,請考慮建立詳細的情況說明書,以深入瞭解該技術的建置、測試、維護和監控方式。這些有助於促進理解,同時降低風險。在 Workday,我們相信,讓客戶能夠管理其資料使用情況並客製化人工智慧和機器學習技術所使用的詳細程度,是加強負責任的設計和資料保護的關鍵一步。
3.人:創造信任文化
除了演算法和技術框架之外,人工智慧還由開發、部署和使用它的人塑造和指導。在這個支柱中,組織應該支持以下幾個關鍵面向:
(1) 領導承諾
在高階領導承諾的指導下,RAI 計劃應得到由首席合規官、首席多元化官和首席技術官等跨職能高管組成的 RAI 顧問委員會的支持和支持。該小組負責確保遵守人工智慧道德原則,同時保持人類監督並在必要時幹預技術發布。
*(2) 專用資源
為了有效地制定和維護 RAI 治理計劃,組織中應該有一個人負責 AI。我們建議任命一名首席人工智慧長和一支由多學科專家組成的專門團隊來監督專案設計、道德審查和培訓。重要的是,該團隊保持獨立,不參與第一線人工智慧開發。隨著人工智慧創新範圍的擴大,應該加大對團隊規模的投入。
(3) 跨公司支持
RAI 計劃的有效性源於專業團隊以及所有利益相關者在維護人工智慧道德原則方面的共同努力。應在產品和技術團隊內建立嵌入式 RAI 擁護者網絡,以確保公司的人工智慧道德原則得到維護,同時也作為當地大使和指南提供治理。
4.政策:透過監管塑造人工智慧部署
雖然前三個支柱是 RAI 的內部基礎,但公共政策在更廣泛地縮小人工智慧信任差距方面也發揮著同樣重要的作用。最終,監管建立了執行道德原則和最佳實踐的基礎設施,並塑造了圍繞人工智慧的組織文化。為了加強整個人工智慧生態系統中道德價值的整合,組織必須與政策制定者合作,應對不斷變化的人工智慧法規,並制定自己負責任的人工智慧實踐。
在Workday,我們很早就認識到公共政策的重要性,並自2019 年以來一直倡導人工智慧監管。多年來,我們一直致力於幫助為強有力的人工智慧監管奠定基礎,以建立信任並推動創新。從歐盟(我們因最近就《歐盟人工智慧法案》達成的政治協議而受到鼓舞)到華盛頓特區,我們正在積極與政策制定者合作,以確保監管支援負責任的人工智慧的開發和部署。
而且,認識到最佳實踐對於縮小信任差距的重要性,我們與隱私未來論壇和其他公司合作,制定了在工作場所促進負責任的人工智慧實踐的路線圖。在我們踏上這趟旅程的過程中,很明顯,產業和政府之間的合作對於確保人工智慧負責任、安全可靠的開發和部署至關重要。
人工智慧帶來的變革步伐可能很快,但我們不能忽視這個世界上最重要的事情——建立信任。讓我們一起縮小差距。
© 2021 優優一百智慧聯網平台開發授權
中華文旅資訊社 官網:www.youyou100.online