您的位置:首頁 >新聞 > 財經要聞 >

          《自然》雜志:神經技術的發展要優先考慮四個方面的倫理

          隨著神經技術的快速發展,我們正走向另一個世界。在這個世界里,人們可以破譯人的心理過程,直接操縱他們的意圖、情感和作出決定等背后的大腦機制;在這個世界里,個人可以通過思維直接與他人交流;強大的計算系統直接與人的大腦相連,幫助他們更好地與世界互動,使他們的精神和身體機能得到極大的增強。這些進步可能會徹底改變許多疾病的治療方法,并給人們帶來更好的體驗。但也可能加劇社會不平等,為企業、黑客、政府或其他任何人提供利用和操縱他人的新方法。《自然》雜志最近刊登了一篇文章,呈現出了學者們對這一未來場景的憂慮,針對這一現象,學者們提出了四點建議,希望能夠利用神經技術來造福人類。文章由36氪編譯。

          想象一下這樣的場景:

          一個已經癱瘓的人參加了一個腦機接口(BCI)的試驗。他可以通過一臺與他大腦中經過訓練的芯片相連接的電腦,來解釋其大腦活動所產生的神經活動,并通過計算機生成指令來移動機械臂。有一天,他對試驗團隊的成果感到非常沮喪。然后,當他控制機械手臂從一個研究助理手中接過一個杯子時,傷害了這個助手。為什么會這樣?是設備出現了故障?還是他自己的情緒也起到了一定的作用?

          雖然場景是假設的,但它呈現出了社會可能會面臨的一些挑戰。

          目前,腦機接口技術的研究主要集中在治療效果上,比如幫助脊髓損傷者等執行相對簡單的運動任務——移動電腦光標或控制電動輪椅。此外,研究人員也已經可以從功能磁共振成像掃描中來對一個人的神經活動進行簡單解讀——即他正在思考一個人,而不是一輛汽車。

          腦機接口技術和其他神經技術成為我們日常生活的一部分,可能只需要數年甚至幾十年。

          但也可能加劇社會不平等,為企業、黑客、政府或其他任何人提供利用和操縱他人的新方法。同樣,它也可能會深刻地改變人類的一些核心特征:私人的精神生活、個人的代理和對個人作為被其身體約束的實體的理解。

          這些進步可能會徹底改變許多疾病的治療方法,從腦損傷、癱瘓到癲癇和精神分裂癥,并給人們帶來更好的體驗。

          現在,考慮這項技術發展帶來的潛在后果是至關重要的。我們認為,現有的道德準則不足以應對這樣的未來,為了解決這一空缺的問題,我們在此列出與以下四個方面有關的建議:

          隱私和用戶協議;代理和身份驗證;平等與制約;以及偏見。

          不同的國家和不同宗教、不同種族和不同社會經濟背景的人將會有不同的需求和不同的未來。因此,各國政府必須設立自己的審議機構,來決定如何將這些指導原則轉化為政策,包括具體的法律法規。

          智能投資

          一些投資者正押注于神經科學和人工智能之間的相互作用。今年,包括 Kernel 和埃隆•馬斯克(Elon Musk)創辦的公司Neuralink在內的全球十多家相關公司都在投資研發能夠“讀取”人類大腦活動和“將神經信息寫入大腦”的設備。我們估計,目前以營利為目的的行業在神經技術方面的支出已經達到每年1億美元,而且還在快速增長。來自其他行業的投資也相當可觀。自2013年以來,僅在美國的“大腦計劃”下,就有超過5億美元的聯邦資金投入到神經技術的發展中。

          當前的能力已經令人印象深刻。一位因肌萎縮側索硬化癥(ALS,也被稱為Lou Gehrig或運動神經元疾病)癱瘓的神經科學家,借助腦機接口技術來運行他的實驗室,編寫撥款申請,并發送電子郵件。與此同時,北卡羅來納州達勒姆杜克大學的研究人員發現,三只植入電極的猴子可以構成一個“大腦網”,協同工作。如果信號能通過互聯網無線傳輸,這些設備可以在數千公里范圍內工作。

          很快,這些粗糙的設備就能刺激和讀取幾十個神經元的活動,這將會是一件意外的事情。今年早些時候,美國國防高級研究計劃局(DARPA)啟動了一個名為“神經工程系統設計”的項目。它的目標是在4年內開發出一種無線的用于人類大腦的設備,并獲得美國食品和藥物管理局的批準,它能同時監測100萬個電極的大腦活動,并選擇性地刺激多達10萬個神經元。

          與此同時,谷歌、IBM、微軟、Facebook、蘋果以及眾多創業公司正在打造更加復雜的人工神經網絡,這些人工神經網絡在具有明確輸入和輸出功能的任務上已經超越了人類。

          例如,去年,西雅圖華盛頓大學的研究人員證明,谷歌的FaceNet系統可以識別出一百萬個人臉。今年8月,微軟宣布,在某些指標中,其識別會話語音的神經網絡,與受過專業訓練的專業人士的能力相媲美。利用腦電圖(EEG)數據,德國弗萊堡大學的研究人員在7月展示了神經網絡如何被用于解碼與規劃相關的大腦活動,從而控制機器人。

          目前使用的人工神經網絡,受到了50多年前大腦回路模型的啟發,這些模型建立在對單個神經元進行麻醉的記錄的基礎上。在今天的神經科學實驗室里,研究人員可以通過光學方法、計算、分子工程和微電子學的進步,來監測和操縱在醒著的動物中成千上萬個神經元的活動。

          如果未來的神經網絡如果能更好地理解真實的神經網絡,肯定會比這些例子更有說服力。

          我們已經與我們的機器緊密相連。谷歌的研究人員今年計算出,普通用戶每年觸摸手機的次數接近一百萬次(未發布的數據)。人類的大腦控制著聽覺和視覺系統來破譯聲音和圖像,并指揮四肢來控制和操縱我們的電子設備。然而,神經技術和人工智能領域的發展融合將帶來質的不同——即人們的大腦能繞過大腦和身體的正常運動功能,與機器智能的直接連接。

          四個關注點

          正在開發相關設備的公司也必須對自己的產品負責,遵循一定的標準,做到最好,而且也要重視道德規范。

          要想在普通消費者市場上取得成功,這些神經技術設備必須具備以下的這些特點:1)非侵入性的,2)風險最小的,3)比當前的神經外科手術更便宜的。話雖這樣說,但即便是現在,

          在這篇文章中,我們著重強調需要立即采取行動的四個方面。盡管我們是在神經技術的背景下提出這些問題,但它們也適用于人工智能。

          隱私和用戶協議

          麻省理工學院的研究人員在2015年發現,對人們的運動行為進行精細分析,比如每個人在個人設備上的鍵盤輸入模式,可以作為診斷帕金森病的跡象。2017年的一項研究表明,移動模式的測量方法,比如從那些在日常生活中攜帶智能手機的人中獲得的數據,可以用來診斷引起老年癡呆癥的認知障礙的早期跡象。

          如果能利用神經信息相關的數據——例如,與特定的注意力狀態相關的神經元的活動模式,并用于投放廣告、計算保險費或匹配潛在合作伙伴的算法中,將會使它們變得更強大。不過,神經設備一旦聯網,則會給個人或組織(黑客、企業或政府機構)提供追蹤甚至操縱一個人的精神體驗的可能性。

          我們認為,公民應該有能力、也有權利保證他們的神經數據隱私(參見“代理和身份驗證”)。我們建議采取以下措施來確保這一點。

          對于所有的神經數據,不予分享應該是默認的選擇,并會得到嚴格的保護。在諸如提供網頁瀏覽,社交媒體或娛樂的商業服務提供商面前,人們很容易就放棄了隱私權,但他們并不完全理解這代表著什么。在神經數據領域,這樣的做法是不可行的。個人需要對自己的數據有控制權。這需要各方力量的一起參與進來,制定一個關于誰將使用這些數據、以什么目的使用,以及使用多長時間等方面的許可程序。

          為解決這一問題,我們建議對神經數據的銷售、商業變現和使用進行嚴格監管。

          即使這樣,結合一些愿意分享的人的神經數據和大量的非神經數據,也可以得出一些具有普遍性意義的結論,在那些不愿意分享的人身上依舊能成立。

          另一種保護措施是限制神經數據的集中化處理。

          我們提倡使用分布式機器學習這樣的計算技術來保護用戶隱私。使用其他專門用來保護人們數據的技術也會有所幫助。例如,基于區塊鏈的技術可以讓數據被追蹤和審計,而“智能合約”的存在也讓數據的使用變得透明化,從而不需要集中處理。最后,開放的數據格式和開源代碼也會產生相應的幫助。

          保護隱私:Federated Learning

          當科技公司使用機器學習技術來改進他們的軟件時,他們通常會在自己的服務器上收集用戶信息,以分析某一特定服務的使用情況,然后使用聚合數據對新算法進行培訓。谷歌的研究人員正在試驗一種叫做Federated Learning的訓練人工智能的方法。在這里,訓練過程在每個用戶的設備上進行,而不需要集中數據:訓練結果的數據(例如,“每周”可以用作形容詞和副詞的知識)會被送回谷歌的服務器,但實際的電子郵件、文本等仍然保留在用戶自己的手機上。其他公司也在探索類似的想法。因此,改進設計的信息系統可以用于增強用戶的個人數據所有權和隱私,同時還能在這些數據上進行有價值的計算。

          有些人通過在大腦中植入電極來進行腦深部刺激,他們感到自己的身份和身份被改變了。

          代理和身份驗證 在2016年的一項研究中,一名曾用腦刺激器治療抑郁癥長達7年之久的人在一個焦點小組中報告稱,他開始懷疑自己與他人互動的方式總是怪怪的。是設備造成的?還是抑郁?還是他內心深處的一些東西?他說:“我不確定我是誰。”

          神經技術可以明顯地擾亂人們的自我認同感和能動性,這會動搖人們自我本質和個人責任的核心假設——不管是法律上的還是道德上的。

          如果機器學習和腦機接口設備能夠更快地幫人在意圖和行動之間進行轉換,那么人們最終可能會以一種他們難以描述的方式來表現自己。也許,可能是通過一種類似于“自動完成”或“自動糾正”的功能來實現的。如果人們可以通過他們的思想在很遠的地方控制設備,或者是如果幾個大腦被連接到一起工作,那么我們對自己是誰以及我們在哪里行動的理解就會被打亂。

          隨著神經技術的發展,政府和其他機構開始努力賦予人們新的能力,個人身份(我們的身體和精神的完整性)和代理(我們選擇行動的能力)必須作為一種基本的人權被保護起來。

          我們建議在1948年《世界人權宣言》等國際條約中加入保護這些權利的條款(“神經系統”)。然而,這可能還不夠——國際聲明和法律只是國家之間的協議,甚至世界宣言也沒有法律約束力。因此,我們主張建立一項國際公約,以定義與神經技術和機器智能相關的違禁行為,類似于2010年《保護所有人免遭強迫失蹤國際公約》所列的禁令。可以成立一個相關的聯合國工作小組審查簽署國的遵守情況,并在需要時建議發出制裁。

          這樣的聲明還必須保護人們對神經技術可能對認知和情感影響知情權。目前,知情同意書通常只關注于手術的物理風險,而沒有設備對情緒、個性或自我意識的可能影響。

          平等與制約

          隨著神經技術的采用——那些能讓人們從根本上擴大其耐力、感官或心智能力的技術——可能會改變社會規范,會引發一種新的公平感問題,誰能獲取?誰不能獲取?那些能夠增強自身能力的人,會不會歧視那些沒有的人?這也很可能在會成為劃分社會階層的重要標準。

          如果一些人的身體或大腦與其他大多數人的不同,會形成一種偏見。

          此外也很容易能夠想到,這會引發新的軍備競賽。近年來,我們聽到美國國防部高級研究計劃局和美國情報高級研究項目活動的工作人員討論了為士兵和參謀人員提供增強心智能力的計劃(“超級智能代理”)。這些將用于作戰設置,并幫助更好地破譯數據流。

          考慮到我們現在很難預測出來哪些方面的神經技術會對人類生活產生負面影響,但國際和國家層面上需要制定指導方針,對可實施的增強神經技術加以限制,并對可使用的環境進行規范——就像對人類基因編輯所做的那樣。

          在某些文化中,隱私和個性化可能會更受重視。因此,在尊重普遍權利和全球準則的同時,必須在特定的文化背景下作出監管決定。此外,如果徹底禁止某些技術的話,可能只會把它們推到“地下”,因此制定具體法律和法規的努力,必須包括有組織的論壇,以進行深入和公開的辯論。

          而且,這些努力應該借鑒國際社會共識的許多先例,并將公眾意見納入國家層面的科學決策中。例如,第一次世界大戰后,1925年的一次會議促成了《日內瓦公約》,該條約禁止使用化學武器和生物武器。同樣,在第二次世界大戰后,聯合國原子能委員會成立,目的是為了和平目的使用原子能,并控制核武器的擴散。

          特別是,我們建議對軍事用途的神經技術進行嚴格的監管。出于顯而易見的原因,任何杜絕都應該是全球性的,并由一個由聯合國牽頭的委員會發起。盡管這些努力可能無法解決所有的問題,但它們能夠提供一種解決方式,發出聲音、公開呼吁保持克制,并廣泛投入到技術的開發和實施中。

          偏見

          當基于特定階層的系統、結構或社會概念和規范作出科學或技術決策時,往往只是為自己階層的人群提供特權,這會對其他群體造成傷害。2015年的一項研究發現,谷歌廣告算法向女性用戶展示的職位招聘信息,比向男性展示的薪酬要低。同樣,ProPublica的一項調查顯示,去年美國執法機構使用的算法錯誤地預測,黑人被告比擁有類似犯罪記錄的白人被告更有可能再次犯罪。這種偏見可能會在神經設備中出現。的確,研究過這類案例的研究人員已經證明,想要用嚴謹的數學方式定義公平是非常困難的。

          業界和學術界已經開始討論如何在技術上對抗偏見。從廣義上來說,這種正在進行的公開討論和辯論對于界定問題偏見的定義,是正常的,是必要的。

          我們提倡,在機器學習中對抗偏見要常態化。我們還建議,在進行算法和設備設備的時候,要加大對小眾或者邊緣化的群體有所照顧,給予同樣的注意力。

          建立負責任的神經工程學

          在這些建議中,有很多都是呼吁行業和學術研究人員承擔起相應的責任。

          但歷史表明,在企業界,追逐利潤往往勝過社會責任。而且,即使在個人層面上,大多數技術專家本意是為人類造福,但他們通常會面臨復雜的道德困境。我們認為,應該對相關的從業人員進行規范化的培訓,教導他們如何更深入地思考如何部署對社會有建設性貢獻的策略,而不是對社會帶來負面影響。

          這種方法和醫學領域的培訓比較類似。醫學專業的學生被教導關于病人的保密、非傷害及他們的善行和正義的義務,并要求他們遵循希波拉克的誓言來遵守最高的職業標準。

          神經技術的臨床和社會效益是巨大的。要收獲這些,我們必須采取必要的措施來引導它向一個好的方向發展。

          最新動態
          相關文章
          人生第一證可線上申領 辦理更自由實現...
          小米手機銷量首超蘋果 晉升全球第二智...
          衣二三宣布關閉服務 共享衣櫥行業生命...
          鄭州花園路正在進行升級改造 將為鄭州...
          東方今典集團與赤峰市簽訂合作協議 將...
          內蒙古赤峰市委書記孟憲東會見東方今典...
          主站蜘蛛池模板: 最近中文字幕在线中文视频| 香蕉免费一级视频在线观看| 成人精品一区二区户外勾搭野战| 亚洲成人免费电影| 美国玩尿眼道videos| 国产综合在线观看| 三级在线看中文字幕完整版| 欧美www网站| 免费无码黄十八禁网站在线观看 | 国产成人亚洲精品大帝| wwwav在线| 日本高清视频在线www色下载| 人妻无码视频一区二区三区| 雪花飘在线电影观看韩国| 国产香蕉免费精品视频| 中文字幕av一区乱码| 最近中文字幕mv手机免费高清| 免费一级毛片一级毛片aa| 韩国xxxxhd性| 国产精品自产拍在线观看| 丁香狠狠色婷婷久久综合| 最新中文字幕在线| 亚洲欧美色一区二区三区| 美女大量吞精在线观看456| 国产成人麻豆亚洲综合无码精品 | 中文字幕在线观看不卡| 最近免费中文字幕完整7| 亚洲精品高清国产一久久| 老司机午夜性生免费福利| 国产日韩中文字幕| a级毛片免费网站| 手机永久无码国产av毛片| 亚洲AV综合色区无码二区偷拍| 特黄特黄aaaa级毛片免费看| 四虎成人精品无码| 久久6这里只有精品| 国产香港特级一级毛片| 一区二区三区免费精品视频| 日本人六九视频jⅰzzz| 亚洲va中文字幕| 正在播放西川ゆい在线|