我們的品牌

歡迎造訪施耐德電機全球網站

歡迎訪問我們的網站

為何不該盲目相信AI?施耐德電機建議應檢視企業是否做到最高標準的道德與信任

  • 企業應用AI時除了符合法律規範,也需考量道德與信任,盡力避免產生偏誤或偏見
  • 若要建立可信任的AI,需AI專家與數據科學家參與,預測風險並不斷優化、改善系統
  • 施耐德電機以最高標準的道德與信任導入AI,提供負責任的AI解決方案

2023 6 21 日,台北訊】

現正處於AI發展史上的關鍵時期,人類以前所未有的規模和速度在各個領域應用AI技術。隨著AI使用日漸普及,社會上興起關於倫理、責任、信任的討論,企業也需在使用AI提升效率的同時做好風險管理。尤其現階段AI仍有諸多不完善之處,例如圖像辨識無法精確判別差異、以及招聘建議可能含有偏見等種種例子顯示人們並不能完全信任AI

能源管理及自動化領域的數位轉型領導者法商施耐德電機Schneider Electric建議企業在開發與使用AI時,應堅持遵守以下三項準則:

符合法律與規範

如施耐德電機擁有完善的網路安全政策,符合ISO/IEC 29147和ISO/IEC 30111的標準,同時積極參與AI法律的制訂,並承諾完全遵守相關法規。

道德與信任守則

施耐德電機以最高標準的道德與信任,對減少碳排降低能耗做出承諾,而將AI導入解決方案時,也以同樣高標準的道德與信任作為原則。

內部政策與流程

施耐德電機擁有數位風險與數據管理主管負責AI專案,並成立RAI工作小組(Responsible AI Workgroup)跟進歐洲與美國最新的AI法案,持續關注倫理議題。

 

此外,上下文情境、數據來源、解釋方式都可能導致AI產生的結果有偏誤或偏見,這讓AI信任議題變得極為複雜。以機器學習(MLMachine Learning)來說,就算風險與其他數位技術類似,但由於系統更加複雜,風險的規模便更大、更難避免、更難追蹤、更難解釋。

若想克服這些挑戰,建立可信任的AI,有以下兩點關鍵:

專業知識和AI專家

AI應用將對人類產生深遠的影響,因此AI專家和數據科學家往往要擔任道德的守門員,他們檢測偏見、建立回饋循環(Feedback Loops)、檢驗運行異常以避免資料下毒攻擊(Data Poisoning)。在發展與應用AI時,企業必須選擇有價值的案例、挑選和清理數據、測試模型並控制其行為,這些都需要大量的專業知識與技術。若是出現異常,模型需要重新學習,以改善系統並避免使用特例數據而引發偏見。

風險預測

目前多數的AI監管都以風險預測為基礎,從設計階段開始,就必須考量錯誤或異常數據、網路攻擊可能導致的問題,並預測潛在後果。藉此,AI專家能及早採取相關動作來降低風險,例如改善訓練AI模型的資料庫、檢測數據漂移(運行時的異常數據變化),盡可能做好防護措施。另外,若AI的信心水準低於一定值,團隊也務必確保人類參與關鍵決策。

 

人們不能盲目相信AI,企業也要選擇具有專業知識且可信任的AI供應商合作,確保服務符合最高標準的倫理道德、數據隱私、網路安全。施耐德電機提供關鍵設施的解決方案,包含國家電網、核電廠、醫院、汙水處理等,因此深知道德與信任的重要性,作為一家可信任的企業、持續開發可信任的AI解決方案並以同樣負責任的方式導入AI,確保服務與產品兼具安全、高效、可靠、公正、隱私。

欲了解更多AI解決方案的資訊,請見施耐德電機官方網站

採用 Wiztrust 區塊鏈認證平台

自2019年10月2日起,為保障通訊安全,施耐德電機在 Wiztrust 上認證其內容。您可至 Wiztrust.com 網站查看企業通訊的真實性。
查看新聞稿 (pdf, 185 kb) 在新窗口中開啟
分享此頁面:
Your browser is out of date and has known security issues.

It also may not display all features of this website or other websites.

Please upgrade your browser to access all of the features of this website.

Latest version for Google Chrome, Mozilla Firefox or Microsoft Edgeis recommended for optimal functionality.