• <code id="yqigy"><object id="yqigy"></object></code>
  • 機房360首頁
    當前位置:首頁 ? 業界動態 ? 歐洲新人工智能法案將加強倫理道德審核

    歐洲新人工智能法案將加強倫理道德審核

    來源:千家網 作者: 更新時間:2022/6/15 6:54:29

    摘要:歐洲最新版的《人工智能法案》于去年推出,目前正在迅速通過審查過程,最早可能在 2023 年實施。雖然該法律仍在制定中,但歐盟委員會似乎已準備好大步監管人工智能。

    隨著歐盟邁向實施人工智能法案,人工智能倫理道德問題(如偏見、透明度和可解釋性)正變得越來越重要,該法案將有效規范人工智能和機器學習技術在所有行業的使用。人工智能專家表示,這是人工智能用戶熟悉道德概念的好時機。

    歐洲最新版的《人工智能法案》于去年推出,目前正在迅速通過審查過程,最早可能在 2023 年實施。雖然該法律仍在制定中,但歐盟委員會似乎已準備好大步監管人工智能。

    例如,法律將對人工智能系統的使用設定新要求,并完全禁止某些用例。所謂的高風險人工智能系統,例如用于自動駕駛汽車的人工智能系統以及教育、移民和就業的決策支持系統,將要求用戶對人工智能應用進行影響評估和審計。某些 AI 用例將在數據庫中進行密切跟蹤,而其他用例則需要外部審計員簽字才能使用。

    總部位于賓夕法尼亞州紐敦的軟件工程公司 EPAM Systems 的數據分析咨詢主管 Nick Carrel 表示,作為 MLOps 參與或數據科學咨詢參與的一部分,對不可解釋性和可解釋性的需求很大。他說,歐盟的人工智能法案也在推動企業尋求關于道德人工智能的洞察力和答案。

    “現在對所謂的 ML Ops 有很多需求,這是一門操作機器學習模型的科學。我們非常認為道德人工智能是這一過程的關鍵基礎之一,” Carrel 說。“我們還有來自客戶的更多要求……因為他們了解了即將在今年年底圍繞人工智能系統生效的歐盟立法,他們希望做好準備。”

    不可解釋性和可解釋性是獨立但相關的概念。模型的可解釋性是指人類能夠理解和預測模型將做出何種決策的程度,而可解釋性是指準確描述模型實際工作方式的能力。EPAM Systems 數據科學和機器學習部門的負責人 Andrey Derevyanka 說,你可以有一個沒有另一個。

    “想象一下,你正在做一些實驗,也許是一些混合兩種液體的化學實驗。這個實驗是可以解釋的,因為,你看到你在這里做了什么。你拿了一個物品,加上另一個物品,我們得到了結果,”Derevyanka 表示。“但要讓這個實驗可以解釋,你需要知道化學反應,你需要知道反應是如何產生的,是如何進行的,你需要知道這個過程的內部細節。”

    Derevyanka 說,特別是深度學習模型可以解釋但有不能說明具體情況。“你有一個黑盒子,它以某種方式運作,但你知道你不知道里面是什么,”他說。“但你可以解釋:如果你給出這個輸入,你就會得到這個輸出。”

    在道德 AI 方面,偏見是另一個重要主題。EPAM Systems 數據和人工智能實踐主管 Umit Cakmak 表示,不可能完全消除數據中的偏見,但企業組織努力消除人工智能模型中的偏見很重要。

    “這些事情必須隨著時間的推移進行分析,”Cakmak 說。“這是一個過程,因為偏見已經融入歷史數據。沒有辦法從數據中清除偏差。因此,作為一家企業,您必須設置一些特定的流程,以便您的決策隨著時間的推移變得更好,這將隨著時間的推移提高您的數據質量,因此隨著時間的推移,您的偏見會越來越少。”

    可解釋性對于讓利益相關者(包括內部或外部審計師,以及將聲譽置于危險境地的客戶和高管)相信 AI 模型不會根據有偏見的數據做出錯誤的決策非常重要。

    Cakmak 說,文獻中有許多數據偏見泄漏到自動決策系統中的例子,包括種族偏見出現在用于評估員工績效或從簡歷中挑選求職者的模型中。能夠展示模型如何得出結論對于展示已采取措施消除模型中的數據偏差非常重要。

    Cakmak 回憶起缺乏可解釋性如何導致一家醫療保健公司放棄為癌癥診斷開發的人工智能系統。“人工智能在某種程度上發揮了作用,但隨后該項目被取消,因為他們無法建立對算法的信任和信心,”他說。“如果你無法解釋為什么會出現這種結果,那么你就無法繼續治療。”

    EPAM Systems 幫助企業以可信的方式實施人工智能。該公司通常會遵循一套特定的指導方針,從如何收集數據開始,到如何準備機器學習模型,再到如何驗證和解釋模型。Cakmak 說,確保 AI 團隊成功通過并記錄這些檢查或“質量門”是道德 AI 的一個重要元素。

    波士頓咨詢集團全球 GAMMA 首席人工智能道德官 Steven Mills 表示,規模最大、運營最完善的企業已經意識到需要負責任的人工智能。

    然而,隨著人工智能法案越來越接近成為法律,我們將看到世界各地更多的公司加速他們負責任的人工智能項目,以確保他們不會違反不斷變化的監管環境和新的期望。

    “有很多公司已經開始實施人工智能,并且意識到我們沒有像我們想要的那樣對所有潛在的意外后果抱有希望,我們需要盡快解決這個問題,” Mills說. “這是最重要的。人們并不覺得他們只是隨意的以及他們如何應用它。”

    以合乎道德的方式實施人工智能的壓力來自組織的高層。 Mills說,在某些情況下,它來自外部投資者,他們不希望自己的投資風險因以不好的方式使用人工智能而受到損害。

    他說:“我們看到了一種趨勢,即投資者,無論是上市公司還是風險基金,都希望確保以負責任的方式構建人工智能。” “這可能并不明顯。這對每個人來說可能并不明顯。但在幕后,這些風險投資公司中的一些人正在考慮他們在哪里投入資金以確保這些初創公司以正確的方式做事。”

    Carrel 表示,雖然目前《人工智能法案》的細節也很模糊,但該法律有可能明確人工智能的使用,這將使公司和消費者都受益。

    “我的第一反應是這將是非常嚴格的,”Carrel 說,他在加入 EPAM Systems 之前在金融服務行業實施了機器學習模型。“多年來,我一直在試圖突破金融服務決策的界限,突然間有一項立法出臺,它會破壞我們所做的工作。

    但他越是關注未決法律,就越喜歡他所看到的。

    “我認為這也將逐漸增加公眾對不同行業使用人工智能的信心,” Carrel 說。“立法規定你必須在歐盟注冊高風險人工智能系統,這意味著你知道在某處將有一個非常清晰的清單,列出正在使用的每一個人工智能高風險系統。這為審計人員提供了強大的權力,這意味著頑皮的男孩和壞玩家將逐漸受到懲罰,希望隨著時間的推移,我們會為那些想要將人工智能和機器學習用于更好的事業的人留下最佳實踐——負責任的方式。”

    責任編輯:張華

    機房360微信公眾號訂閱
    掃一掃,訂閱更多數據中心資訊

    本文地址:http://www.sorostrading.com/news/2022615/n6256146596.html 網友評論: 閱讀次數:
    版權聲明:凡本站原創文章,未經授權,禁止轉載,否則追究法律責任。
    轉載聲明:凡注明來源的文章其內容和圖片均為網上轉載,非商業用途,如有侵權請告知,會刪除。
    相關評論
    正在加載評論列表...
    評論表單加載中...
    • 我要分享
    推薦圖片
    在车上疯狂抚弄她娇喘视频
  • <code id="yqigy"><object id="yqigy"></object></code>