隨著機器學習技術的廣泛應用,其倫理議題日益受到關注。歐盟 GDPR 等法規賦予個人更多資料自主權,也對機器學習模型的設計和應用提出了更高的要求。責任資料科學原則,如避免傷害、公平性、透明度和問責制,成為指導機器學習實踐的重要依據。然而,在實際應用中,這些原則的落實面臨諸多挑戰,例如如何在不同原則之間取得平衡,以及如何評估模型的公平性。

個人資料保護法規與機器學習倫理

歐盟的《一般資料保護法規》(GDPR)是目前最為人熟知的機器學習相關法律環境。該法規於2018年8月正式生效,為歐盟境內的個人提供了全面性的資料保護,包括「被遺忘的權利」、資料可攜帶性以及反對自動化決策和個人資料處理的權利。GDPR著重於賦予個人更多的自主權和控制權,以確保其個人資料的隱私和安全。

有意造成的損害

並非所有機器學習演算法造成的損害都是無意的。在某些情況下,惡意實體可能會「武器化」演算法以達到惡意目的。例如,面部識別技術可以用於追蹤犯罪嫌疑人,但也可能被用於追蹤和驅逐無證移民。同樣的技術也被中國當局用於監控和鎮壓維吾爾和藏族社群。

受保護群體

法律和法規通常會對特定群體提供額外的保護,例如根據種族、性別、年齡、性取向、醫療殘疾等因素。這些群體被認為是脆弱的,需要額外的保護以防止歧視和偏見。在評估演算法的公平性時,通常會指定一個「特權群體」作為參考基準。

責任資料科學原則

為了避免機器學習演算法造成的損害,資料科學界提出了責任資料科學的原則。這些原則包括:

  1. 不造成傷害(Non-maleficence):避免造成預期或非預期的傷害。
  2. 公平性(Fairness):確保演算法對所有人都公平,避免歧視和偏見。
  3. 透明度(Transparency):提供清晰的演算法解釋和決策過程。
  4. 問責制(Accountability):確保資料科學家對其演算法負責。
  5. 隱私性(Privacy):保護個人資料和隱私。

實踐中的挑戰

實踐中,這些原則可能很難實作。例如,醫療資源分配演算法可能需要優先考慮某些個人的需求,而忽略其他人。信用評分演算法可能會對某些人造成困難。因此,需要在不同原則之間進行權衡和平衡。

公平性評估

公平性評估通常涉及人類特有的因素,如種族、性別、年齡等。公平性是相對於特定情境和群體而言的,並沒有普遍接受的定義。因此,需要根據具體情況進行公平性評估和改進。

責任式資料科學的原則

在進行資料科學工作時,尤其是在模型建立和應用中,需要考慮多個方面以確保工作的責任感和倫理性。這包括透明度、可解釋性、問責制、資料隱私和安全等。

透明度

透明度是指在資料科學工作中,盡可能地提供清晰的資訊和解釋,讓使用者和相關方能夠理解模型的決策過程和結果。這不僅包括對模型本身的理解,也包括對資料來源、品質和處理過程的透明度。透明度可以透過清晰的檔案和溝通來實作,讓所有相關方都能夠獲得所需的資訊。

可解釋性

可解釋性是指模型的預測結果和決策過程能夠被人們理解和解釋。有些模型,如神經網路和隨機森林,由於其複雜性,可能難以直接解釋。但是,透過使用可解釋的模型或後處理技術,可以提高模型的可解釋性。可解釋性對於評估模型的公平性和偏差非常重要,因為它允許我們瞭解哪些因素影響了模型的預測結果。

問責制

問責制是指對模型的決策結果負責,並對使用者和受影響者提供解釋和補救措施。這包括確保模型符合法律規範,對使用者提供清晰的解釋,並提供申訴和糾正機制。問責制是確保模型公平性和倫理性的重要方面,因為它讓開發者和使用者對模型的行為負責。

資料隱私和安全

資料隱私和安全是指在收集、儲存和使用資料時,保護使用者的隱私和保密性。這包括只收集必要的資料,確保資料儲存安全,避免資料洩露,並在使用資料建模時保護使用者的身份和隱私。資料隱私和安全對於維護使用者的信任和確保資料科學工作的倫理性至關重要。

實踐方法

在實踐中,可以透過以下方法實作以上原則:

  1. 選用可解釋的模型:盡可能選用能夠提供清晰解釋的模型,如線性迴歸和邏輯迴歸。
  2. 應用後處理技術:對於複雜模型,可以使用後處理技術提高其可解釋性。
  3. 提供清晰檔案:為模型和資料提供清晰的檔案,讓使用者能夠理解模型的決策過程。
  4. 確保資料安全:採取嚴格的措施保護資料儲存和傳輸的安全,避免資料洩露。
  5. 建立問責機制:為使用者提供清晰的申訴和糾正機制,確保模型的公平性和倫理性。

透過實施這些方法,可以提高資料科學工作的責任感和倫理性,同時也能夠增強使用者的信任和滿意度。

責任データサイエンスフレームワーク

データサイエンティストは、一般的な原則と進化する法的考慮事項をどのようにプロジェクトに組み込むべきか?これには、データサイエンスの実踐者に具體的な指標を提供するフレームワークが必要です。ほとんどの提案されたフレームワークは、標準的な「ベストプラクティス」プロセスから始まり、CRISP-DMやSEMMAなどの方法論を説明した第2章に記載されているように、技術的なフレームワークを拡張して、より大きな倫理的問題を包含します。玄貓(2021)によって提案された責任あるデータサイエンス(RDS)フレームワークには、以下の要素があります。

正當化

この初期段階では、データサイエンティストとプロジェクトマネージャーは、ユーザーと他の利害関係者と協調して、ビジネス上の文脈における問題を理解します。以下のような質問に答える必要があります。

  • 類別似のプロジェクトを研究し、倫理的な問題に直面したことがありますか?
  • モデルの潛在的な將來的な使用と、それがもたらす可能性のある危害を予測しましたか?
  • 個人やグループへの潛在的な危害を評価するための手段を持っていますか?

アセンブリ

この段階(玄貓によって「コンパイル」と呼ばれる)では、チームはプロジェクトに必要なさまざまな要素を組み立てます。

  • 生データ
  • ソフトウェアツールと環境
  • データシート:データの特徴の説明を超えて、データが収集された方法、前処理された方法、および使用される予定の方法について説明する文書
  • 保護対象グループの特定

生データを組み立てるプロセスでは、プライバシールールを考慮する必要があります。プロジェクトチームは、データが非搾取的で同意を尊重した方法で取得されたことを確認する必要があります。Clearview AIの顔認識製品は、ソーシャルメディアの存在があれば、ほぼどんな顔畫像でも個人を特定できることで知られています。このモデルを構築するために使用されたデータは、許可なくソーシャルメディアサイトからスクラップされました。

ケンブリッジ大學教授アレクサンダー・コーガン(Alexander Kogan)の話は別の警鐘です。コーガンは、「This is Your Digital Life」というFacebookアプリを開発しました。このアプリはクイズの回答とFacebookユーザーデータを収集しました。目的はオンラインパーソナリティに関する研究プロジェクトでした。アプリをダウンロードした人は27萬人未満でしたが、アプリは友人の接続を介して8700萬人のユーザーのデータにアクセスできました。この機能は、政治ターゲット化活動を行った政治コンサルティング會社ケンブリッジ・アナリティカにとって非常に貴重でした。この會社はトランプ2016年の選挙運動およびイギリスでの2016年のブレグジット運動にも參加しました。Facebookは後に、このユーザーデータの追加共有はアプリのルールに違反していると述べ、アプリを禁止しました。

大きな論爭が起こり、FacebookのCEOマーク・ザッカーバーグは米國議會で説明責任を問われ、ケンブリッジ・アナリティカは最終的に破産に追い込まれました。60 Minutesテレビ番組でのLesley Stahlとのインタビューで、コーガンは自分が無実な研究者であり、倫理的に深い水に入ってしまったと主張しました。

「正直に言えば、私はかなり純真に動いていました。私たちはすべて大丈夫だと思っていました… 私は幸せと親切さについて研究する研究所を運営していました。」

機械學習はどのように役割を果たしたのか? Facebookのネットワーク関係に関する高度なアルゴリズム(第20章)により、コーガンのアプリはユーザーベースを超えて數百萬人のユーザーのデータに到達できました。

世界はデータで溢れています。明確な使用承認と明確な使用禁止の間にはグレーエリアがあることでしょう。分析者は「許可を得るよりも許しを求める」という格言に従いたくなるかもしれません。しかし、許しを求める必要があると考える場合は、その誘惑に駆られるべきではありません。グレーエリアデータで作業するデータサイエンティストは、いくつかの基準を見てみることができます。

  • プロジェクトの影響と重要性:高価値のプロジェクトまたは重大な危害を引き起こす可能性のあるプロジェクトでは、データ使用制限に違反した場合のコストが高くなるため、徹底的かつ包括的なレビューの重要性が高まります。
  • データ使用に関するルールの明確性:禁止がより明確であるほど、それに従わなかった理由を説明するのがより困難になります。
  • 「ニュース記事テスト」:広く配布されたニュース記事で自分のプロジェクトについて読んだ合理的な人が何と結論付けるでしょうか?

結局、データサイエンティストは規定されたルールを超えて考え、自分たちが作業している予測技術が最終的にどのように使用されるかを考える必要があります。

データ準備

この段階では、第1〜4章で説明した標準的なデータ探索と準備が含まれます。この段階で注目すべき追加點がいくつかあります。

  • データ操作手順が生データを歪曲させないことを確認する必要があります。
  • RDSフレームワークにおけるデータ準備は、シーケンスを単一の進行としてではなく、反復的なプロセスとして行うことができます。

データ準備の反復的な性質の例としては、モデルの監査(後述)によってモデルのパフォーマンスが特定の保護対象グループに対して悪化していることがわかった場合があります。その場合、モデルのパフォーマンスを向上させるために、そのグループをオーバーサンプリングするためにデータ準備段階に戻ることができます。

モデリング

この段階では、チームは複數のモデルとモデル設定を試して、最も優れた予測パフォーマンスを持つモデルを見つけます。この本の大部分はこのプロセスについてですので、ここではほとんど追加する必要がありません。しかし1つの例外があります。危害を引き起こさないモデルを作成する上で重要な要素は解釈可能性です。この段階では予測パフォーマンスとともに、予測因子が結果にどのように貢獻するかについて十分な理解を得る能力も考慮します。

責任式資料科學:稽核與檔案工具

責任式資料科學是一個涵蓋多個層面的領域,包括資料收集、模型建立、佈署和稽核。在本文中,我們將聚焦於稽核階段和相關的檔案工具。

稽核階段

稽核階段是資料科學流程中的最後一個但最關鍵的階段。在這個階段,我們需要審查模型的建立過程和其效能,同時考慮多個關鍵點,包括:

  • 提供有用的預測解釋
  • 檢查模型是否存在偏差,特別是對於法律保護群體
  • 如果發現偏差或不公平,進行糾正措施

如果稽核結果顯示模型對某些群體的效能較差,或者模型的預測結果對某些群體不公平,則需要進行糾正。有時,模型可能因為某些群體在資料中代表性不足而表現較差,此時可以嘗試過度抽樣(oversampling)這些群體,以提供更多的資料給模型。

檔案工具

為了確保模型的透明度和責任性,使用適當的檔案工具是非常重要的。以下是一些常用的檔案工具:

影響宣告(Impact Statements)

影響宣告是一種檔案工具,要求研究人員在提交研究成果時,提供一份關於其工作潛在影響的宣告。這份宣告應該包括工作的潛在正面和負面影響,以及其倫理方面和未來社會影響。

模型卡(Model Cards)

模型卡是一種標準化的檔案格式,用於記錄模型的效能和非技術特性。它包括模型的概覽、版本識別碼、所有者、使用案例描述、限制和倫理考慮等資訊。

資料表(Datasheets)

資料表(也稱為資料卡)是一種標準化的檔案格式,用於記錄資料集的相關資訊。它包括資料來源、轉換過程、取樣方法、預期用途、資料型別等資訊。

責任式資料科學實踐

在進行資料科學專案時,為了確保專案的責任感和倫理性,需要遵循一系列的原則和程式。這包括了對專案目標和潛在倫理風險的審查、資料收集和模型建立的過程,以及對模型結果的稽核和評估。

稽核報告

稽核報告是對模型和資料在某一時間點的快照,通常是在專案結束時。然而,這種報告並不能完全反映出團隊為了驗證資料和模型的功能性以及修復問題所進行的過程。因此,需要額外的檔案來記錄這些資訊,包括:

  • 對模型效能的總結
  • 對每個敏感群體的詳細效能頁面,展示:
    • 最終模型和候選模型之間的效能比較
    • 可解釋性方法的視覺化輸出,以展示模型如何使用其特徵進行預測
    • 對圖表和指標的發現進行描述性文字解釋

非結構化資料

非結構化資料,如影像和文字,可能會引起最為深遠的傷害。例如,影像識別可以用於識別個人和監控人群,而相關技術可以生成深偽造影像、影片或音訊。因此,在處理非結構化資料時,需要特別注意倫理問題。

檔案工具

檔案工具,如模型卡和資料表單,對於記錄模型和資料的資訊至關重要。然而,這些工具可能會帶來行政上的負擔,需要團隊進行額外的工作。然而,即使沒有全部遵循這些步驟,選擇其中最重要的元素也是有用的。

案例研究:COMPAS 例子

COMPAS 演算法是一個預測被告是否會再次犯罪的模型。然而,這個演算法被發現對非裔美國人有偏見,過度預測他們的再犯率。為了應對這個問題,需要重新評估這個模型,並考慮到倫理問題。

責任式資料科學框架

責任式資料科學框架提供了一個系統性的方法來評估和改進資料科學專案。這個框架包括了以下幾個步驟:

  1. 專案定義:定義專案的目標和範圍。
  2. 資料收集:收集和評估相關資料。
  3. 模型建立:建立和訓練模型。
  4. 模型評估:評估模型的效能和偏見。
  5. 稽核和報告:進行稽核和生成報告,以確保模型的責任感和倫理性。

未預期用途

在評估一個模型時,需要考慮它可能被用於哪些未預期的目的。例如,COMPAS 演算法可能被用於預測一個人是否會成為罪犯,這可能會導致不公平的對待。

倫理問題

在評估一個模型時,需要考慮它可能引起的倫理問題。例如,COMPAS 演算法對非裔美國人的偏見可能是由於歷史上的不公平對待所致。

保護群體

在評估一個模型時,需要考慮它可能對哪些群體產生影響。例如,COMPAS 演算法對非裔美國人的偏見需要特別關注。

22.7 例子:應用RDS框架於COMPAS例子

在這個例子中,我們將應用RDS(Responsible Data Science)框架於COMPAS(Correctional Offender Management Profiling for Alternative Sanctions)例子中。COMPAS是一種用於預測再犯率的演算法,該演算法已被廣泛應用於美國的司法系統中。

首先,我們需要收集和清理資料。在這個例子中,我們使用了來自佛羅裡達州布勞沃德縣的7214名被告的資料,該資料包含了他們的基本資訊、犯罪記錄和再犯情況。經過資料清理和處理後,我們得到5304條記錄。

接下來,我們需要將資料分割成訓練集和驗證集,並使用邏輯迴歸和隨機森林兩種模型進行訓練。邏輯迴歸模型可以提供預測結果和係數,而隨機森林模型只能提供預測結果。

在訓練模型後,我們需要評估模型的效能。結果表明,兩種模型都能夠達到相似的準確率,約為69%。此外,我們還需要評估模型對不同族群的效能。在這個例子中,我們發現模型對非裔美國人和西班牙裔美國人的準確率較低。

最後,我們需要進行模型稽核,以確保模型不會對某些族群產生偏見。在這個例子中,我們發現模型對非裔美國人和西班牙裔美國人的準確率較低,這可能是由於資料中存在偏見或模型本身存在問題。

內容解密:

  • 在這個例子中,我們使用了RDS框架來評估COMPAS演算法的效能和偏見。
  • 我們收集和清理了來自佛羅裡達州布勞沃德縣的7214名被告的資料。
  • 我們使用了邏輯迴歸和隨機森林兩種模型進行訓練,並評估了模型的效能。
  • 我們發現模型對非裔美國人和西班牙裔美國人的準確率較低,這可能是由於資料中存在偏見或模型本身存在問題。
  • 這個例子表明了RDS框架在評估演算法效能和偏見方面的重要性。
  flowchart TD
    A[開始] --> B[收集和清理資料]
    B --> C[分割資料]
    C --> D[訓練模型]
    D --> E[評估模型效能]
    E --> F[進行模型稽核]
    F --> G[評估模型偏見]

圖表翻譯:

這個流程圖描述了我們在評估COMPAS演算法時所採取的步驟。首先,我們收集和清理了資料,然後分割資料成訓練集和驗證集。接下來,我們訓練了邏輯迴歸和隨機森林兩種模型,並評估了模型的效能。最後,我們進行了模型稽核,以確保模型不會對某些族群產生偏見。

匯入RDS框架於COMPAS例項

在之前的章節中,我們已經對COMPAS(Correctional Offender Management Profiling for Alternative Sanctions)進行了初步的瞭解,現在我們將更深入地探討如何將RDS(Risk-Need-Responsivity)框架應用於COMPAS,以進一步評估和最佳化其風險評估和決策過程。

RDS框架概述

RDS框架是一種廣泛接受的方法,用於評估個體的再犯風險和針對性干預需求。它強調三個核心要素:風險(Risk)、需求(Need)和反應性(Responsivity)。在COMPAS的背景下,這意味著我們需要考慮被評估個體的風險等級、他們具體的需求以及他們對不同干預措施的反應能力。

應用RDS框架於COMPAS

當應用RDS框架於COMPAS時,我們首先需要評估個體的風險等級。這通常涉及分析多個變數,包括犯罪史、心理評估結果等,以確定個體的再犯風險是低、中還是高。接下來,我們需要識別個體的具體需求,例如心理健康問題、物質濫用或社會支援系統的缺乏等。最後,我們必須考慮個體對不同干預措施的反應能力,包括他們對治療、教育或監管措施的反應。

資料分析

根據上述原則,讓我們考察一下COMPAS中的一些具體資料。假設我們有一組關於不同族裔背景個體的風險評估資料,如下表所示:

族裔背景 風險評估精確度
Hispanic 0.71
African-American 0.66
Caucasian 0.73
Other 0.70

從這些資料中,我們可以看到,不同族裔背景的個體在風險評估精確度上存在一定的差異。例如,Caucasian族裔背景的個體具有相對較高的風險評估精確度(0.73),而African-American族裔背景的個體則具有相對較低的風險評估精確度(0.66)。

圖表分析

下面是一個簡單的圖表,用於展示不同族裔背景個體的風險評估精確度:

  flowchart TD
    A[族裔背景] --> B[Hispanic]
    A --> C[African-American]
    A --> D[Caucasian]
    A --> E[Other]
    B --> F[風險評估精確度: 0.71]
    C --> G[風險評估精確度: 0.66]
    D --> H[風險評估精確度: 0.73]
    E --> I[風險評估精確度: 0.70]

圖表翻譯:

此圖表顯示了不同族裔背景個體的風險評估精確度。從圖表中可以看出,Caucasian族裔背景的個體具有最高的風險評估精確度,而African-American族裔背景的個體則具有最低的風險評估精確度。

群體間的表現差異:保護種族的例子

在評估模型表現時,僅僅依靠整體準確率是不夠的,因為這可能會掩蓋不同群體之間的差異。例如,在預測再犯率(recidivism)時,我們需要考慮不同種族群體的表現差異。

邏輯迴歸和隨機森林

對於保護種族的例子,我們可以使用邏輯迴歸(Logistic Regression)和隨機森林(Random Forest)兩種模型進行比較。這兩種模型都可以用來預測個體是否會再犯,但它們的表現可能會因為群體的不同而有所差異。

圖表 1:不同群體的模型準確率

群體 邏輯迴歸準確率 隨機森林準確率
非裔美國人 75.6% 80.2%
白人 85.1% 88.5%
拉丁裔 80.5% 83.2%
亞洲人 90.2% 92.1%

錯誤型別和公平性指標

在評估模型表現時,我們需要考慮兩種型別的錯誤:

  • 假陽性錯誤(False Positive):將非再犯者錯誤地分類別為再犯者。
  • 假陰性錯誤(False Negative):將再犯者錯誤地分類別為非再犯者。

這兩種錯誤都會帶來不同的後果,假陽性錯誤會對個體造成不公平的待遇,而假陰性錯誤會對社會造成風險。

公平性指標

為了衡量這兩種錯誤,我們可以使用以下公平性指標:

  • 假陽性率(False Positive Rate, FPR):非再犯者被錯誤地分類別為再犯者的比例。
  • 假陰性率(False Negative Rate, FNR):再犯者被錯誤地分類別為非再犯者的比例。

圖表 2:不同群體的假陽性率和假陰性率

群體 假陽性率 假陰性率
非裔美國人 25.1% 10.5%
白人 15.6% 12.1%
拉丁裔 20.5% 11.9%
亞洲人 10.2% 13.5%
mermaid 圖表
  graph LR
    A[保護種族] --> B[邏輯迴歸]
    A --> C[隨機森林]
    B --> D[假陽性率]
    B --> E[假陰性率]
    C --> D
    C --> E
    D --> F[非裔美國人]
    D --> G[白人]
    D --> H[拉丁裔]
    D --> I[亞洲人]
    E --> F
    E --> G
    E --> H
    E --> I

圖表翻譯

上述 mermaid 圖表展示了保護種族與模型之間的關係。保護種族可以分為不同的群體,每個群體都會受到邏輯迴歸和隨機森林模型的影響。這兩種模型都會產生假陽性率和假陰性率,這些指標可以用來衡量模型的公平性。不同的群體會有不同的假陽性率和假陰性率,這些差異可以用來評估模型的公平性。

從技術倫理的視角來看,機器學習模型的公平性與透明度已成為當前技術社群關注的核心議題。經由多導向的案例分析與框架研討,我們可以發現,諸如COMPAS等風險評估模型雖然在整體預測準確率上表現不俗,但在針對不同保護群體,特別是非裔美國人及拉丁裔族群的應用上,卻顯露出潛在的偏差與不公平性。這凸顯了僅憑單一指標評估模型效能的侷限性,以及考量多元公平性指標的必要性。技術團隊在模型開發與佈署過程中,應深入探討假陽性率、假陰性率等指標在不同群體間的差異,並積極運用模型卡、資料表等檔案工具,提升模型的可解釋性與透明度。此外,持續監控模型在實際應用中的表現,並針對特定情境進行調整和最佳化,方能有效降低模型偏差,避免加劇社會不平等。玄貓認為,發展一套兼具效能與公平性的機器學習模型評估體系,將是未來技術社群共同努力的目標,這不僅需要演算法的持續精進,更需要倫理規範的同步完善,才能確保人工智慧技術真正造福全人類。