半人馬醫療保健模式近年來興起,結合人類醫生專業判斷與AI技術的輔助分析能力,可望有效解決醫療資源分配不均及提升診斷準確性等問題。本文探討此模式在中美等國的應用潛力,並分析如何透過以人為本的AI設計原則,讓AI系統更符合人類需求,並在醫療場景中發揮最大效益。考量到醫療領域的特殊性,匯入AI時更需關注其可解釋性與透明度,建立使用者對系統的信任,並確保醫療決策的可靠性。此外,設計思維與變革管理也是AI系統成功落地的關鍵因素,需考量不同使用者的需求與習慣,並引導相關人員適應新的工作流程和技術。

以人為本的人工智慧在醫療保健領域的應用

醫療保健領域正經歷著一場由人工智慧(AI)帶來的革命。中國和美國等國家正面臨著醫療資源分配不均的問題,而AI技術被視為解決這一問題的關鍵。

半人馬醫療保健的概念

半人馬醫療保健(Centaur Healthcare)是一種結合人類醫生與AI技術的醫療模式。在這種模式下,人類醫生仍然是決策的主導者,而AI則用於增強醫生的能力。這種合作關係可以顯著改善醫療服務的品質。

一個典型的例子是患者K的故事。患者K因頸部腫塊就診於他的家庭醫生,後者認為這只是無害的脂肪組織。然而,一位受過內科訓練的醫生檢查後卻懷疑可能是腫瘤,並堅持讓患者K進行電腦斷層掃描(CAT掃描)。最終,CAT掃描確認腫塊可能是惡性腫瘤,得以及早治療。

這個故事表明,將AI技術與人類醫生相結合可以提高診斷的準確性。半人馬醫療保健模式透過增強醫生的能力,使他們能夠像專家一樣進行診斷和治療。

中國和美國的醫療現狀

中國和美國都面臨著醫療資源分配不均的問題。在中國,專科醫生與普通醫生的專業訓練差異巨大,因此人們普遍認識到兩者之間的區別。中國正在尋求利用AI技術來彌補普通醫生的培訓不足。

在美國,雖然人們對普通醫生和專科醫生的培訓差異認識不足,但實際上兩者之間的知識基礎差異很大。專科醫生擁有更深入的專業知識,而普通醫生的知識則更廣泛但較淺。AI技術可以幫助普通醫生提高診斷和治療的能力,從而減少不必要的檢查和浪費。

以人為本的人工智慧

Joseph Carl Robnett Licklider在1960年發表了一篇論文《人機共生》(Man-Computer Symbiosis),提出了人類與機器之間共生的概念。他認為,人類將設定目標、提出假設、確定標準並進行評估,而電腦將執行例行工作。

史丹佛大學以人為本的人工智慧研究所的共同主任李飛飛(Fei-Fei Li)指出,AI非常專注於特定任務,但缺乏人類所具備的上下文感知和靈活學習能力。她強調,要使AI更加有用,必須使其具備上下文理解能力,特別是在醫療保健領域。

以人為本的人工智慧(Human-Centered AI)強調建立以人類為中心的AI系統,使其能夠與人類共同合作,增強彼此的優勢。這種方法將有助於在醫療保健領域更好地應用AI技術。

以人為本的人工智慧的兩個組成部分

Mark O. Riedl在其文章《以人為本的人工智慧和機器學習》(Human-Centered Artificial Intelligence and Machine Learning)中將以人為本的人工智慧分解為兩個組成部分:

  1. 創造以人類為中心的AI系統:這需要考慮AI技術對人類的影響,並設計出能夠滿足人類需求的系統。
  2. 實作人類與AI的協作:這需要使AI系統能夠與人類共同合作,增強彼此的優勢,從而提高整體的效能和效率。

圖表翻譯: 此圖示呈現了半人馬醫療保健模式中人類醫生與AI技術之間的合作關係。人類醫生與AI技術共同合作,增強彼此的能力,從而提高對患者的診斷和治療效果,使患者受益。

以人為本的人工智慧系統設計

在開發旨在增強人類任務的應用程式時,僅僅在人工智慧(AI)方面取得進步是遠遠不夠的。舉例來說,假設我們開發了一套用於與老年患者合作的AI護理系統,而AI工程團隊由一群才華橫溢、三十多歲的工程師和科學家組成。他們的教育背景、工作經驗和研究成果令人印象深刻。然而,他們仍然缺乏開發以人為本的老年護理AI系統的關鍵要素:團隊中沒有一個成員曾經站在老年人的立場上思考問題。他們設計適合老年人使用的使用者介面的能力是有限的。以人為本的AI(Human-Centered AI)找到了一種方法,確保我們構建的系統能夠考慮到諸如年齡、民族背景、社會經濟地位等社會文化觀點。這些年輕的工程師可能能夠正確地開發AI,但可能會錯過創造一個能夠讓老年人實際使用的使用者介面。

我們的精力和AI系統的設計應該從人和機器的交叉點開始。瞭解AI和人類之間的共生關係有助於我們構建更好的AI應用程式。

AI與人類的交叉點

以人為本的AI必須處理的一個問題是,人類對AI如何解決問題缺乏理解。在我們的社會世界中,人類對上下文有很好的理解。面對房間著火同時進行國際象棋遊戲的情景,人類能夠做出反應,並且透過人類互動學習如何應對問題。雖然有一些具有電腦科學背景或對AI感興趣的人完全理解AI的過程,但大多數與AI合作的人並不瞭解。雖然人類可以理解其他人類在解決問題時的動機和意圖,但智慧系統如何解決問題與人類不同,可能是一個「黑箱」。

信任技術是關鍵

在臨床應用中,對技術的信任對於接受AI至關重要。我們在生活中經常遇到黑箱。大多數醫生可能不知道聽診器的工作原理;對他們來說,這是一個黑箱。但醫生信任並自信地使用聽診器,因為他們相信這項技術。在構建AI工具和護理系統時,我們必須花時間描述機器學習模型的工作原理或AI護理系統的工作原理。在某些情況下,這需要我們構建可解釋的介面,讓臨床醫生可以看到他們是否會做出與AI系統相同的決定。黑箱AI指的是人類可能不理解AI使用的演算法或AI建立的複雜系統以解決特定問題的情況。可解釋的AI(Explainable AI)有助於使這對人類來說是可以理解的,我們在第一章中簡要討論過。可解釋的AI還為使用者提供了關於模型對個人或情況的考慮以及為了微調機器學習模型而被認為重要的因素的指示。

可解釋性是透明度的關鍵

可解釋的AI涉及與資料來源、特徵工程等相關的透明度。這個黑箱問題是一個令人擔憂的問題,因為它使人們相信,由於人類不瞭解AI的過程,AI有可能控制人類。我們在第一章中駁斥了這個神話。以人為本的AI必須解決的問題是:如果AI系統不能立即被人理解,那麼我們如何彌合這一差距?我們如何確保對AI解決方案的信任不被破壞?如果人類不能直觀地理解AI,那麼對AI解決方案自然會產生懷疑。以人為本的AI的目標是彌合這一差距。在佈署使用者(如醫生或醫療系統)不太瞭解的AI系統時,必須時刻保持謹慎。

研究與實踐

例如,史丹佛大學、加州大學柏克萊分校和麻省理工學院已經建立了以人為本的AI(HAI)研究機構,部分是為了應對使AI更易被人類理解的問題。對可解釋的AI的關注將確保人們對AI的信任。以人為本的AI研究的一個原則是,AI應該增強人類的生活和思想,而不是取代它們。

以人為本的AI認識到人類智慧的豐富性和廣泛性,並不將人類智慧與機器智慧混為一談。它知道將AI與集體人類知識進行比較是一種錯誤的比較。就像20世紀60年代的Lick一樣,以人為本的AI看到了增強和擴大醫療工作者認知能力的價值——提高醫生的能力,而不是取代他們——並認識到我們必須瞭解AI解決方案如何影響其實施所涉及的所有利益相關者——患者、臨床醫生和其他人。我們以前曾經走過這條路;事實上,業務流程再造和設計思維領域告訴了我們關於以人為本的AI的資訊。圖2-1描述了一個簡單的框架,涵蓋了四個主要組成部分。

圖表翻譯:

此圖示呈現了一個簡單框架,用於闡述以人為本的人工智慧設計中的四個主要組成部分,分別闡述了人在其中的角色和人工智慧技術之間的協同關係,同時強調瞭解決方案的可解釋性和透明度對於建立信任的重要性。

技術深度解析

在開發以人為本的人工智慧系統時,我們需要關注以下幾個關鍵點:

  1. 瞭解人和機器的交叉點:我們的設計應該從人和機器的互動開始,瞭解這兩者之間的共生關係。
  2. 提高可解釋性:透過可解釋的人工智慧,讓使用者瞭解模型的決策過程,從而建立信任。
  3. 考慮社會文化觀點:設計時需要考慮不同人群的需求,例如老年人的使用體驗。
  4. 增強人類能力:人工智慧應該用於增強人類的能力,而不是取代他們。

程式碼例項

def explainable_ai_model(data):
    # 載入資料
    dataset = load_data(data)
    
    # 特徵工程
    features = feature_engineering(dataset)
    
    # 訓練模型
    model = train_model(features)
    
    # 預測結果
    predictions = model.predict(features)
    
    # 可解釋性分析
    explanations = explain_predictions(model, features)
    
    return predictions, explanations

#### 內容解密:
此段程式碼展示了一個可解釋的人工智慧模型的實作過程首先載入資料並進行特徵工程接著訓練模型並進行預測最後透過可解釋性分析提供模型決策過程的解釋其中,`explain_predictions`函式用於生成可理解的解釋讓使用者瞭解模型的決策依據

以人為本的人工智慧框架:設計思維與變革管理的融合

在當今科技快速發展的時代,許多企業和組織採用設計思維(Design Thinking)來創造令人驚豔的產品。蘋果公司(Apple)就是一個典型的例子,它透過設計思維成功地革新了行動運算和使用者經驗。如果我們能夠以蘋果設計 iPhone、iTunes 或 MacBook 的方式來設計人工智慧(AI)工具和護理系統,會是怎樣的情況呢?設計思維是一種對流程、環境和產品成功條件的創新思考方式。它強調瞭解特定情境下使用者(如醫生或護士)如何與產品互動,這種情境可能是在醫生辦公室、急診中心、家中,或是行動中的患者。

在構建和工程化 AI 的過程中,組織必須採用設計思維,以確保 AI 解決方案不會取代人類的決策能力。

變革管理的必要性

在 1980 年代,變革管理(Change Management)在企業流程重新設計盛行時非常普遍。然而,現在我們似乎已經忽略了讓人們改變行為需要有效的變革管理。變革管理關注的是人員、流程和技術從當前狀態轉向未來狀態的過程。德國物理學家馬克斯·普朗克(Max Planck)在其《科學自傳》中曾寫道:「一個新的科學真理並不是透過說服對手並讓他們明白而取得勝利,而是因為對手最終會死去,並且新的一代成長起來,對它很熟悉。」有趣的是,2019 年的一項研究支援了普朗克在 1950 年的觀點。

我們不需要人們死去來實作變革管理,但通常我們確實需要舊有的思維方式或既定的做法「消亡」,變革才能發生。對於 AI 來說,無論是建立半人馬式醫療(centaur healthcare)、實作即時醫療,還是開發能夠準確診斷和推薦根據證據的醫學治療計劃的 AI,都需要設計思維和變革管理。

將機器學習模型嵌入工作流程或使用機器學習進行診斷工具開發,都需要變革管理和設計思維。Madeleine Clare Elish 和 Elizabeth Anne Watkins 在一項關於將 AI 整合到臨床護理中的開創性研究中指出,如果新技術(如 AI)的引入是有益的,因為它們創造了新的途徑來實作目標,那麼這種破壞也是一種必須修復的「破損」,以使干預措施在特定情境中有效運作。

程式碼實作:變革管理與設計思維的結合

def change_management_design_thinking():
    # 假設有一個醫療 AI 系統需要整合到臨床工作流程中
    ai_system = "diagnostic_tool"
    workflow = "clinical_workflow"

    # 將 AI 系統嵌入工作流程
    integrated_workflow = integrate_ai_into_workflow(ai_system, workflow)

    # 進行變革管理
    change_management_process = manage_change(integrated_workflow)

    # 應用設計思維最佳化使用者經驗
    optimized_experience = apply_design_thinking(change_management_process)

    return optimized_experience

def integrate_ai_into_workflow(ai_system, workflow):
    # 將 AI 系統整合到工作流程中的邏輯
    # 這裡省略具體實作細節
    return f"{ai_system}_integrated_into_{workflow}"

def manage_change(integrated_workflow):
    # 管理變革的邏輯
    # 這裡省略具體實作細節
    return f"change_management_for_{integrated_workflow}"

def apply_design_thinking(change_management_process):
    # 應用設計思維的邏輯
    # 這裡省略具體實作細節
    return f"optimized_{change_management_process}"

# 執行函式
optimized_experience = change_management_design_thinking()
print(optimized_experience)

內容解密:

  1. change_management_design_thinking 函式:這個函式展示瞭如何將變革管理和設計思維結合起來,以最佳化醫療 AI 系統的整合過程。
  2. integrate_ai_into_workflow 函式:該函式負責將 AI 系統嵌入到臨床工作流程中。
  3. manage_change 函式:這個函式處理變革管理的過程,確保人員、流程和技術能夠順利過渡到新的狀態。
  4. apply_design_thinking 函式:該函式應用設計思維來最佳化使用者經驗,使 AI 系統更符合使用者需求。

可解釋性人工智慧(Explainable AI)的重要性

可解釋性人工智慧關注的是確保所有直接或間接使用 AI 的利益相關者都能理解 AI 的工作原理。在醫療領域,如果 AI 在做出決策,瞭解誰擁有決策權(人類或 AI)至關重要。醫生需要了解用於訓練模型的資料集、資料集的完整性和多樣性、建模過程中做出的假設以及目標優先順序。如果 AI 做出錯誤的決定,其影響是什麼?醫生能否覆寫或驗證 AI 的決定?

為了讓醫生願意採用 AI 技術來增強他們的實踐,提供黑箱的可解釋性或透明度是必要的。透過清楚地瞭解 AI 的輸入引數,就像使用聽診器一樣,醫生將更願意接受 AI 解決方案及其在醫療保健中的應用。在許多情況下,可解釋性應該是 AI 解決方案的基本要求。

可解釋性人工智慧的重要性

圖表翻譯: 此圖示展示了醫生使用 AI 診斷工具的過程,並強調了可解釋性人工智慧在建立信任中的重要性。醫生需要了解 AI 的決策過程,以便更好地使用 AI 工具並做出正確的醫療決定。

以人為本的人工智慧在醫療保健中的重要性

在開發和佈署人工智慧(AI)於醫療保健領域時,必須考慮倫理問題,包括模型的公平性、透明度和偏差。2019年發表於《Nature Medicine》的一篇文章提供了一個負責任地佈署機器學習於醫療保健的路線圖。

負責任的AI佈署路線圖

該路線圖的第一步是選擇正確的問題,這包括識別和與必要的利益相關者合作:知識專家、決策者和使用者。瞭解在產品開發過程中開發的模型在面對現實世界的資料時可能會有所不同,這意味著找到合適的資料至關重要,因此資料治理變得至關重要。

資料並非萬能;我們不能從任何一個資料集中學習到我們想要的一切。資料是為了某個目的而建立的,並帶有該目的模式,無論是好是壞。我們收集的人類資訊越多,這些人就越容易受到歧視和侵犯隱私。因此,我們必須成為資料的好管家。療效和透明度的證據對於與患者和消費者建立信任以及與建立AI解決方案的組織中的利益相關者建立問責制至關重要。認識到在構建和佈署AI醫療保健解決方案的任何階段都可能出現倫理問題,有助於解決這些問題。

以人為本的AI設計

這個框架或其衍生品應該是任何以人為本的AI的一部分。我們必須帶著同理心和理解來設計和構建;設計思維有助於實作這一點。對於許多系統,我們必須適應勞動力以不同的方式運作的需求;這是變更管理發揮作用的地方。它通常需要廣泛的培訓和持續的學習,以使AI系統變得更好。透明度是以人為本的AI的基本組成部分;我們必須確保醫療保健提供者瞭解AI的工作原理,包括構建與人類合作的AI,並考慮人類和社會文化價值。

AI與人類社會文化價值

人類對於智慧系統來說可能同樣令人困惑。自然語言處理(NLP)和使用自動語音識別(ASR)系統的語音處理顯示出對英語的理解。然而,ASR可能無法同等地理解所有說英語的人。史丹佛工程研究人員已經證明,許多ASR系統中嵌入的AI在解釋非裔美國人說的話時所犯的錯誤是解釋白人說的話時的兩倍。

語音識別系統中的社會文化偏差

這是AI沒有適應社會文化價值的一個例子。當公司使用ASR技術時,對人們的影響可能是毀滅性的。這種在識別白人和非白人說話者方面的差異可能會對人們的就業前景和生活產生重大的負面影響。公司是否知道ASR不可靠?它是否知道其錯誤率取決於諸如階級和種族等社會經濟變數?殘疾公民透過語音突然無法獲得可用的醫療保健服務。

一個可能的補救措施是新增更多的語音資料,以訓練具有來自不同英語使用者的方言的語音識別系統。AI還需要了解人類行為背後的人類動機或行為,即人類的社會文化視角。我們的成長環境、世代和地理位置影響我們的社會實踐和決定。以人為本的人工智慧意味著構建AI應用程式和相應的演算法,並理解AI是更龐大事物的一部分。

以人為本的AI在醫療保健中的實踐

在醫療保健中,以人為本的人工智慧要求我們設計和構建AI工具和應用程式,並意識到對與AI接觸的利益相關者的影響。在醫療保健中,這種聯絡可能是直接的(醫生使用AI診斷工具),也可能是間接的(患者收到診斷結果,卻不知道它是AI的輸出,而不是實際檢查測試或程式結果的醫生)。AI設計必須意識到AI是一個由人類利益相關者組成的更廣泛系統的一部分:護士、患者、臨床醫生、操作員、客戶和其他人。

一些AI研究人員和從業者使用“以人為本的AI”這個術語來指代具有社會責任感的智慧系統。他們正在解決公平性、問責制、可解釋性和透明度等問題。確保患者在醫療保健中得到盡可能公平的對待,並且不允許種族或性別偏見影響診斷,使公平性和問責製成為應用AI於醫療保健的首要問題。

社會文化現實與AI

包含考慮社會文化現實的AI解決方案可能更容易被人類理解。當我們忽視這些社會文化信仰時,AI就會偏離目標或發生錯誤。例如,當我們利用AI檢測具有慢性疾病高潛力的患者時,我們必須瞭解AI的目標。是為了找出需要早期干預的高風險患者,還是有其他目的?只有當我們充分理解這些目標,並將其與社會文化背景相結合時,才能設計出真正有效的AI解決方案。

@startuml
skinparam backgroundColor #FEFEFE
skinparam componentStyle rectangle

title 醫療保健領域以人為本的人工智慧應用

package "系統架構" {
    package "前端層" {
        component [使用者介面] as ui
        component [API 客戶端] as client
    }

    package "後端層" {
        component [API 服務] as api
        component [業務邏輯] as logic
        component [資料存取] as dao
    }

    package "資料層" {
        database [主資料庫] as db
        database [快取] as cache
    }
}

ui --> client : 使用者操作
client --> api : HTTP 請求
api --> logic : 處理邏輯
logic --> dao : 資料操作
dao --> db : 持久化
dao --> cache : 快取

note right of api
  RESTful API
  或 GraphQL
end note

@enduml

圖表翻譯: 此圖示呈現了開發和佈署以人為本的AI於醫療保健領域的主要步驟。首先,需要識別正確的問題並與相關利益相關者合作。接下來,收集合適的資料並用於訓練AI模型。經過嚴格測試與驗證後,將AI模型佈署於實際環境中,並持續監控其表現。最後,根據反饋和新資料不斷改進AI模型,以確保其有效性和公平性。