從倫理到法律:解析AI透明度 | 遠見雜誌

從倫理到法律:解析AI透明度 | 遠見雜誌


人工智慧(AI)系統「透明度」的重要性,不只是一種技術要求,也是建立使用者信任的基石。如何將透明度的倫理原則化為明訂的法律義務?歐盟人工智慧法案給出了範例。

人工智慧(AI)技術的快速發展對現代社會產生了深遠的影響,無論在醫療、教育還是金融領域,其應用都在逐步改變人類的工作與生活方式。然而,隨著人工智慧技術在不同場景中的廣泛部署,透明度問題逐漸成為影響技術信任與責任的重要議題。透明度不僅是一項技術要求,更是一個涉及倫理價值、法律規範與行業實踐的多層次挑戰。

歐盟人工智慧法(EU AI Act)作為全球首部全面性的人工智慧法律框架,提供了將透明度倫理原則轉化為法律義務的範例。該法以風險為導向的設計方法,針對高風險人工智慧系統設置了詳細的透明度規定,並強調技術文件、使用說明以及可追溯性的重要性。

從信任到民主參與,透明度的多重面向

在人工智慧的發展過程中,透明度的原則已成為倫理層面的關鍵議題。研究人員指出,在設計、開發和部署人工智慧系統時,特別是在如醫療與教育這類敏感領域中,透明度至關重要,旨在提升可問責性以及增進公眾的信任。提高透明性將有助於減輕人們對偏見、公平性,以及人工智慧對個人及整體社會影響的憂心。

透明度不僅僅是揭露資訊,更重要的是讓AI系統的運作過程和決策邏輯易於理解。學者們將透明度視為一個多面向的概念,與最小化傷害、促進信任和推動民主參與等概念都有關聯。此外,設計透明度(Transparency by Design) 的構想也日益受到重視,主張在整個人工智慧生命週期中整合透明度原則。

一、透明度作為人工智慧的倫理原則

研究人員已將透明度確定為人工智慧的一項關鍵倫理原則,與其他原則如「可問責」、「公平」和「可解釋性」並列。人工智慧中的透明度關注的是利益相關者(從使用者到開發者)理解人工智慧系統的邏輯、數據和決策過程的能力。通過促進透明度,利益相關者可以審查人工智慧的內部運作,評估其輸出,並對開發者和組織在這些技術影響方面的責任進行追究。

二、歐盟高級專家組的「可信賴人工智慧倫理指針」中的透明度

歐盟委員會設立的高級專家組在其所提出之「可信賴人工智慧的倫理指導方針」中,提出可解明性的原則作為人工智慧系統脈絡下的倫理原則,並認為透明度是實現可信賴人工智慧的關鍵要求之一。可解明性對於建立和維護使用者對人工智慧系統的信任至關重要。這意味著過程需要透明,人工智慧系統的能力和目的需要公開傳達,並且決策在可能的範圍內需要對直接和間接受影響的人進行解釋。

以下解釋其中的關鍵概念:

● 可追溯性:AI 系統的可追溯性是指能夠跟踪系統的數據、開發和部署過程的能力,通常通過記錄的文檔識別來實現。

● 溝通:人工智慧系統不應該向使用者展現自己是人類;人類有權被告知他們正在與人工智慧系統互動。在歐盟AI法案框架下,「溝通」可能發生於使用者、開發者及監管機構等利益相關者之間。