人工智能醫療器械的倫理問題

前言:尋找寫作靈感?中文期刊網用心挑選的人工智能醫療器械的倫理問題,希望能為您的閱讀和創作帶來靈感,歡迎大家閱讀并分享。

人工智能醫療器械的倫理問題

摘要目的:梳理人工智能醫療器械倫理現狀與面臨的問題,探討醫療器械領域可遵循的人工智能倫理準則和發展原則。方法:查閱國內外已的人工智能倫理準則,國內外監管、醫學倫理相關規范要求文件。結果與結論:人工智能醫療器械在發展與應用過程中仍面臨著社會影響、個人數據保護、人工智能算法和醫學倫理等問題。人工智能醫療器械在沿著推動醫學人工智能倫理標準化、保持數據完整性方向發展的同時,還要保障數據隱私。

關鍵詞:人工智能;倫理;醫療器械

人工智能(ArtificialIntelligence,縮寫為AI)一詞,在1956年的達特茅斯會議上被首次提出。人工智能作為新一輪產業變革的核心驅動力,已發展上升為國家戰略,在自動駕駛、醫療、工業機器人以及教育、金融、互聯網服務等領域得到越來越多的應用。在醫療領域的應用主要包括輔助診斷、輔助手術、臨床輔助決策、患者信息管理等,對應的人工智能醫療器械產品主要包括獨立的醫療軟件、AI賦能醫療設備、醫療信息化系統(云醫療)幾大類。隨著以深度學習為代表的人工智能技術不斷發展,我們在積極擁抱人工智能的同時,需要思考人工智能醫療器械在發展與使用過程中面臨的倫理問題,充分認識人工智能醫療器械在數據獲取、隱私保護等方面帶來的影響。人工智能本身是技術而不是產品,醫療工作者使用的是被醫療人工智能賦能后的設備或者信息化系統,而不是使用人工智能技術本身。由人工智能發展所帶來的倫理問題,在一定程度上可由設計開發者通過遵循一定的原則而規避,因此,在我國推動人工智能發展的關鍵時期,探討人工智能發展應遵循的倫理準則,對人工智能的發展有著極為重要的意義。

1人工智能倫理準則及現狀

1.1現階段人工智能倫理共識

隨著人工智能倫理的發展,目前國內外主要達成了兩個影響較為廣泛的人工智能倫理共識,一個是“阿西洛馬人工智能原則”(AsilomarAIPrinciples),一個是國際電氣電子工程師學會(IEEE)組織倡議的人工智能設計的倫理準則[1]。“阿西洛馬人工智能原則”于2017年1月初在美國加利福尼亞州阿西洛馬舉行的BeneficialAI會議上被提出,阿西洛馬人工智能原則是著名的阿西莫夫機器人學三定律的擴展版本。阿西洛馬人工智能原則目前共23項,分為三大類,分別為科研問題(ResearchIssues)、倫理和價值(EthicsandValues)、更長期的問題(Longer-termIssues)[2]。其中涉及倫理方面的共13項,主要為1)安全性;2)故障透明性;3)司法透明性;4)責任;5)價值歸屬;6)人類價值觀;7)個人隱私;8)自由和隱私;9)分享利益;10)共同繁榮;11)人類控制;12)非顛覆;13)人工智能軍備競賽。“阿西洛馬人工智能原則”可以理解為人工智能不能單純地為了利益而創造,而應該為了在確保人類不被替代的情況下通過自動化實現人類繁榮。保持一個尊重隱私但開放、合作的人工智能研究文化也是一個優先考慮的問題,以確保研究人員和政策制定者在彼此交換信息的同時,不會用危害人類的手段與對手競爭。國際電氣電子工程師學會(IEEE)最早于2016年提出了“關于自主/智能系統倫理的全球倡議”,并于2016年12月和2017年12月在全球范圍內先后了第一版和第二版的“人工智能設計的倫理準則”白皮書("EthicallyAlignedDesign")。該白皮書來自于IEEE自主與智能系統倫理全球倡議項目,在當前版本的《人工智能設計的倫理準則》(第2版)中,白皮書提出了一些相關的議題和建議,希望能夠促進符合這些原則的國家政策和全球政策的制定。該倫理準則提出了5個核心應遵循原則[3]:1)人權:確保它們不侵犯國際公認的人權;2)福祉:在它們的設計和使用中優先考慮人類福祉的指標;3)問責:確保它們的設計者和操作者負責任且可問責;4)透明:確保它們以透明的方式運行;5)慎用:將濫用的風險降到最低。該人工智能倫理準則的旨在為IEEE正在推動的11個與人工智能倫理相關的標準制定提供建議。上述兩項接受較為廣泛的倫理共識,由來自人工智能/機器人研究領域的專家學者以及專業技術學會的研究人員討論制定而成。同時,由于人工智能在產業發展中的戰略性地位和應對人工智能倫理風險的迫切需要,許多國家政府機構、社會團體、產業界等也在制定適用于自身國情的人工智能倫理準則或指南,為人工智能相關企業提供風險把控、評估和應對的系統性指引。

1.2國外人工智能倫理發展現狀

為了有效應對AI帶來的新機遇,歐盟委員會于2019年4月8日以“建立對以人為本AI的信任”為題,了歐洲版的AI倫理準則。該倫理準則提出了“可信任AI”應當滿足的7項關鍵要點[4],具體包括1)人的自主和監督;2)可靠性和安全性;3)隱私和數據治理;4)透明度;5)多樣性、非歧視性和公平性;6)社會和環境福祉;7)可追責性。歐盟委員會在人工智能方面布局已久,早在2018年12月歐盟委員會人工智能高級專家組就了《關于可信賴人工智能的倫理準則(草案)》(EthicsGuidelinesforTrustworthyAI),該草案為人工智能倫理提出了一個框架,給后續的歐洲版AI倫理準則奠定了基礎[5]。國際計算機協會(ACM)下屬美國公共政策委員會于2017年《算法透明性和可問責性聲明》,提出了7項基本原則[6]:1)意識;2)獲取和救濟;3)責任制;4)可解釋;5)數據來源保護;6)可審查性;7)驗證和測試。該聲明的重要部分要求開發人工智能的機構能夠對算法的過程和特定的決策結果給予一定的解釋,即人工智能算法的哪些輸入特性會引起某個特定輸出結果變化的可解釋性。

1.3我國人工智能倫理發展現狀

我國也已將人工智能上升為國家戰略,在法律法規和政策體系進行了深入布局。國務院于2017年7月20日印發了《新一代人工智能發展規劃》,在戰略目標中對法律政策體系建設提出了三步走要求:到2020年,部分領域的人工智能倫理規范和政策法規初步建立;到2025年,初步建立人工智能法律法規、倫理規范和政策體系,形成人工智能安全評估和管控能力;到2030年,建成更加完善的人工智能法律法規、倫理規范和政策體系。規劃要求圍繞自動駕駛、服務機器人等應用基礎較好的細分領域加快立法研究,重點解決人工智能下的民事與刑事責任確認、隱私和產權保護、信息安全利用、問責和追溯機制、潛在危險與評估等方面的法律問題[7]。2018年1月,國家人工智能標準化總體組成立,會上了《人工智能標準化白皮書(2018版)》,提出要依托于社會團體和公眾對人工智能倫理進行深入思考和研究,并遵循一些共識原則:一是人類利益原則,即人工智能應以實現人類利益為終極目標;二是責任原則,在責任原則下,在技術開發方面應遵循透明度原則,在技術應用方面則應當遵循權責一致原則[1]。2019年4月,國家人工智能標準化總體組《人工智能倫理風險分析報告》,進一步明確了人類根本利益原則要從對社會的影響、人工智能算法、數據使用三個方面來考慮[8]。

2人工智能在醫療器械領域的倫理風險

從整體來看,現階段人工智能在醫療器械領域的應用主要是醫學圖像AI技術和AI技術賦能硬件,例如目前大量涌現的“智能讀片”類AI醫療軟件,利用深度學習在具有代表性的醫學影像數據庫中進行模型訓練(多層神經網絡)[9],利用這些模型來解析圖像、文本、聲音,從而實現對醫學圖像病癥的早期篩查;目前的AI技術賦能硬件,通常內嵌于各類醫學影像設備,在設備前期拍攝及后期圖像處理過程中實現圖像分割、目標檢測、圖像分類、圖像映射、圖像配準等功能[10-12]。上述人工智能還是實現特定功能的專用智能,并不能像人類智能那樣擁有真正實現推理、思考和解決問題的能力,因此被叫做弱人工智能。與此對應的強人工智能則是達到類人水平的、能夠自適應地應對外界環境挑戰的、具有自我意識的人工智能[13]。強人工智能在哲學上存在巨大的爭議(主要涉及思維與意識等根本問題的討論),在技術上存在著極大的挑戰,當前鮮有進展與應用,因此,考慮醫療領域人工智能的倫理風險,主要是以數據驅動類AI醫療器械產品為主,從社會影響、個人數據保護、人工智能算法和醫學倫理四個方面來考慮其風險影響。

2.1對社會的影響

從現有倫理準則與共識來看,醫療人工智能倫理的標準化工作仍處于起步階段,行業內對醫療人工智能的內涵、應用模式還未達成準確共識,由此帶來的行業內競爭可能會造成人工智能技術在醫療領域的濫用,例如不考慮醫學實際情況,在醫學成像、病灶識別、手術規劃等臨床領域盲目使用人工智能技術。造成的結果:一是資源的浪費,目前絕大多數人工智能輔助診療結果仍需醫生確認操作,這種AI產品是否具有臨床意義仍有待商榷;二是增加了醫生對先進人工智能產品的依賴性,隨著科技的發展,傳統診療方法將逐步向高科技輔助診療轉變,而這類輔助診療產品往往集中在科技發達、財富集中的國家或地區,這將造成各地區的醫療資源、醫療水平不平衡,如何讓每個地區的人都從人工智能創造的福祉中收益,這是需要思考的問題。

2.2個人數據保護風險

以深度學習+大數據為框架的醫學人工智能系統需要大量的數據來訓練學習算法。深度學習分為兩個階段:訓練階段和應用階段。訓練階段的最大特點是數據驅動,一是需要大量的訓練樣本;二是所有樣本需要明確的標注(金標準);這就需要提高樣本數據采集的效率和質量。目前,大多數人工智能產品的訓練樣本主要來自醫院患者的各類醫學影像數據,少部分來自于人類行為信息的數字化記錄等。醫學影像及患者行為信息涉及患者數據隱私的倫理問題,使用者在獲取患者數據時必須要抹去個人敏感信息,只保留相關醫學信息。關于敏感信息的定義、識別與處理,國內現在還沒有明確的標準,主要依賴于企業的自覺,可供企業參考的數據隱私保護準則主要是歐盟在2018年5月生效的《歐洲通用數據保護條例》(GDPR)和美國國會于1996年的《健康保險可攜帶性與責任法案》(HIPAA)[14]。GDPR條例對個人數據、醫學健康相關數據給出了明確定義,并對如何在保護數據主體權益的情況下開展工作做了詳細說明[15]。HIPAA法案則既保護個人受保護的健康信息,又確保研究人員可以持續獲得必要的醫療信息來進行研究,為達到這兩點的平衡,HIPAA有3點重要規定[16]:1)對于不具備身份識別功能的健康信息,可以使用和披露給研究機構;2)在獲得病人書面授權的情況下,可以因為研究目的而使用或披露病人受保護的健康信息;3)在某些特殊情況下,HIPAA也允許無須同意授權的信息共享,包括審查委員會或保密委員會批準的情況。

2.3算法方面的風險

在深度學習算法的應用階段,也面臨著諸多風險。一是安全性,算法存在泄漏、參數被非預期修改的情況,且現階段的深度學習算法是一個典型的“黑箱”算法,當算法被修改時,算法性能的降低或錯誤的發生將很難被察覺到,醫療領域與人身安全息息相關,這樣的風險造成的后果將直接侵害人身權益。二是算法偏見風險,算法的復雜性和專業性,在現階段很難解釋清楚人工智能算法輸入的某些特性是如何引起某個特定輸出結果發生的[17],算法的偏見可能是程序員主觀認知的偏差,也有可能是輸入數據的分布本身不具有整體代表性,同時如果算法在臨床應用中通過本地數據進行無監督學習,也有加重這些偏見的風險。

2.4醫學倫理風險

對于醫學人工智能產品的倫理思考,還應該納入醫學倫理范疇,考慮在醫學倫理上如何進行患者隱私、數據保護等,這也是醫療類AI產品與一般AI產品在倫理方面的最大區別。在我國,獲取醫學臨床數據、進行臨床試驗還必須獲得醫學倫理審批,醫學方面的倫理監管主要依賴于倫理審查制度,而負責倫理審查的組織——倫理委員會則肩負著醫學研究倫理審查、受試者權益保護、人的尊嚴維護等方面的重要職責[18]。原衛生部在1988年了《藥品臨床試驗管理規范》[19],于1995年出臺了《衛生部臨床藥理基地管理指導原則》。隨著生物醫學科學技術與研究的飛速發展,在臨床實踐中遇到的倫理難題更為多樣化,上述規范性文件已不能滿足倫理審查的需求。原國家衛生和計劃生育委員會在2016年了《涉及人的生物醫學研究倫理審查辦法》,該辦法以涉及人的生物醫學研究項目的倫理審查為重點,明確了醫療衛生倫理委員會的職責和任務,強化了對倫理委員會的監管[20]。2017年10月,中共中央辦公廳、國務院辦公廳印發了《關于深化審評審批制度改革鼓勵藥品醫療器械創新的意見》,提出要完善倫理委員會機制,提高倫理審查效率,其中重要一條是提出了區域倫理委員會職能,指導臨床試驗機構倫理審查工作。區域倫理委員會將肩負起解決多中心臨床研究的倫理審查標準不一致、重復審查的問題,解決不具備倫理審查條件的機構直接發起的項目審查問題。當前醫療人工智能產品在樣本數據采集與臨床試驗階段都有可能面臨醫學倫理審查,就需要相關企業熟悉醫學倫理規范文件,在產品開發與應用階段遵守基本醫學倫理原則[21]:1)知情同意原則;2)控制風險原則;3)免費補償原則;4)保護隱私原則;5)依法賠償原則;6)特殊保護原則。

3人工智能醫療器械應遵循的倫理發展方向

3.1推動醫學人工智能倫理標準化

為了促進行業的發展,開放、共享的高質量醫學數據集是未來的發展趨勢,但是數據獲取的來源(前瞻式采集與回顧式采集交叉混合)[22]、數據清洗個人信息的準則/尺度[23]、數據標注的規范格式[24]等現在并無統一的定論,這會使得高質量的數據集難以在各個AI產品開發者間互通。只有相應的規則確定后,人工智能醫療器械產業才能高速發展。

3.2數據完整性與醫學倫理的平衡

在滿足醫學倫理要求保護隱私和個人數據的同時,醫療類AI產品為了獲得高質量的數據集,還應盡可能地保留更多的信息(例如既往病史)用于分析處理,避免數據收集納入偏見的、非典型的,甚至是錯誤的信息。與此同時,醫療類AI產品在數據收集、數據標注的過程中必須保證其數據的完整性,使得AI產品是可解釋的、可信任的。如何最大程度地保留信息,同時避免通過信息追溯到個人,這是醫療類AI產品應遵循的倫理方向。

4結語

在人工智能與倫理方面做深入的探索,圍繞人工智能建立一系列標準,形成醫療健康人工智能標準生態,這關系到人工智能的發展。人工智能產業能否得到公眾的信任并獲得持續性發展,關鍵在于建立有共識的人工智能倫理準則,在較高程度保持數據完整性的同時,保障數據隱私,在符合GDPR等要求的前提下,使得來自不同渠道的數據可用于機器學習,從而促進產業的發展。

作者:唐橋虹 王浩 任海萍 單位:中國食品藥品檢定研究院

亚洲精品一二三区-久久