人工智能的倫理思考范例6篇

前言:中文期刊網精心挑選了人工智能的倫理思考范文供你參考和學習,希望我們的參考范文能激發你的文章創作靈感,歡迎閱讀。

人工智能的倫理思考

人工智能的倫理思考范文1

因為他相信,“未來是屬于人工智能的?!?/p>

人工智能,Artificial Intelligence,英文縮寫AI。在人工智能領域的經典教材,出版于2013年的《人工智能:一種現代的方法(第3版)》中,著名人工智能專家羅素和諾威格從4個方面對人工智能進行了定義,即:能夠像人一樣思考、像人一樣行動、合理地思考、合理地行動的機器。

人機大戰只是人工智能開始改變人們生活的一個小例子,事實上,以往只存在于科幻電影的未來世界,正在加速迎面而來,和現實熱烈擁抱,甚至讓人猝不及防。

“蘋果Siri、新聞閱讀軟件、在線翻譯等,都是人工智能技術的代表?!睘槿斯ぶ悄軗u旗吶喊的不止創新工場創始人李開復一人,微軟CEO薩提亞?納德拉、谷歌CEO桑達爾?皮查伊、百度創始人李彥宏、物理學家斯蒂芬?威廉?霍金……但凡人們叫得上名號的科技公司巨頭、計算機科學家無不在向人們訴說著同樣一個事實,“人工智能引領的第四次技術革命已經進入爆發的前夜”。

聚焦今天這個時間點,人工智能最耀眼的還是商業化的起步。隨著國外科技大佬對于人工智能各種應用場景的開發,國內互聯網三巨頭BAT也在加速布局,一場真正的AI商業化戰爭,已經蓄勢待發。

每一次技術革命都將帶來全球競爭格局的重塑,這一次,中國幸運地與世界站在了同一條起跑線上。伴隨著“人工智能”首次被寫入全國政府工作報告,以及《“互聯網+”人工智能三年行動實施方案》的出臺,占據數據和場景優勢的中國正在籌劃部署人工智能的頂層設計。

人工智能的倫理思考范文2

關鍵詞:科幻;倫理;愛

中圖分類號:J905 文獻標識碼:A 文章編號:1005-5312(2013)20-0140-01

一、科幻世界

影片為我們營造了一個未來的、虛構的科幻世界。無論是影片伊始科學家們在研究室里展示新型人工智能機器人,討論“能夠疼愛父母”的機器人小孩,還是對未來世界和未來“人類”的構想與描繪,都是對科學、對科技的大膽假設。影片中對高科技的彰顯,可謂讓人應接不暇。

在影片虛構的未來世界里,人工智能機器人為人類提供了各種各樣的服務,他們擁有與人類一樣的外形,有思想、有意識甚至有愛有疼痛。他們與人類一樣來自各行各業,為社會為人類的發展提供服務。這一切都是對人工智能這門科學發展到現階段的美好展望。

影片中對冰封2000年后的“未來”的描繪一樣讓我心曠神怡。未來人類的形象、智慧,未來世界的境況似乎都凌駕于現實之上又以優越于現實的形式而存在,這一切都顯示了科幻的美好。

二、倫理困境

觀影過程中我常有這樣一種想法:《人工智能》與其說是一部科幻片,不如說是一部極具科幻色彩的。《人工智能》對倫理的思考用蒙太奇的手法通過幾個鏡頭的表達層層推進。第一個鏡頭是大衛被馬丁激怒吞食菠菜。第二個鏡頭是大衛與馬丁落水后被遺棄游泳池的畫面。第三個鏡頭則是大衛被莫妮卡永遠地拋棄時的情景。

莫妮卡和亨利選擇了機器孩子大衛替代自己沉睡不醒的孩子馬丁,起初莫妮卡十分的抵觸、反對,大衛的人工智能系統也未被激活,他的行動例如大笑聲都十分僵硬的,直至莫妮卡決定接受他并且說出了激活碼的瞬間,大衛喊出了“媽媽”這個讓人心碎的單詞。大衛是機器,馬丁是人,他鄙視大衛,在馬丁的眼中,大衛僅僅是一個新開發的。馬丁時刻壓迫著大衛作為一個“人”所應有的那份權利。斯皮爾伯格用了大量的細節鏡頭來表現這種人與機器人之間的不平等性。

影片中對《機器屠宰場》的描繪是矛盾沖突的一個頂點。與人類有著類似外形的機器人以種種酷刑和死亡為代價為人類進行表演。機器人的形象與真人相似度極高,這樣的畫面讓我想起納粹對猶太人的屠殺同類的情景。在這里,影片似乎在昭示:我們生活的現實世界比電影殘酷得多。且不論其他生物,每年有多少孩子在饑餓中喪生,在病痛中,但只因為他是黑人、是孤兒、是殘疾,我們就悄悄地背過頭,把自己的疼痛感應器關掉了。

三、愛的輪回

大衛的故事本身就是一種愛的輪回。他極盡全力表現著自己的愛,祈求一種守恒和輪回能招致他所期盼的愛。大衛的追求似乎是一個悖論:他希望自己成為一個最普通的真人小孩,他覺得自己是獨一無二的,這二者只有在愛的領域內才是互不矛盾的表述。任何一個普通的甚至是丑陋的、笨拙的孩子,都擁有一種自信,覺得自己是父母獨一無二的,不可替代的寶貝。而任何一個平凡的人,都有可能在愛人的眼里成為世界的中心。而這種獨特性受到侵犯的時,愛就被動搖。這就是為什么說大衛看到與自己同名同姓、同樣相貌身高的機器人時失控的、怒不可抑砸毀對方,并幾近崩潰地反復喊道:“你不能占有她,我是獨一無二的?!边@并不是單純的嫉妒而是一個人守護自身獨特存在性的需求,這也是大衛在無法摧毀更多機器人時選擇自我毀滅的緣由。

人工智能的倫理思考范文3

人工智能的監管與責任,其實和安全與公共福利一樣,都像是硬幣的正反面。監管的目的,是為了確保人工智能系統盡可能的安全;而責任,其實就是為了當人工智能系統出錯時,我們可以找到可以追究問題的人,或者再說的準確一點兒,就是找誰可以獲得法律上的賠償。

應該向誰追責呢?

讓我們先來談談責任問題吧。首先,我們可以模擬一個侵權(民事)責任問題,想象下,在不遠的將來可能會發生這樣一個場景:一輛無人駕駛拖拉機原本應該按照指令在A農民的田里播種,但是奇怪的是,它卻把種子播種到了B農民家的田里。

讓我們先假設A農民是完全按照操作手冊來使用那輛無人播種拖拉機的,同時,我們也假設A農民無需再做其他額外的操作,比如在農田交界處設置無線電信標,等等。那么現在,假設農民B要來控告這次錯誤播種事件(我們暫且不考慮諸如滋擾和侵犯等問題),會遇到哪些問題呢?。

實際上,有很多問題需要被回答,這個事故是農民A的責任嗎?可能不是;那么,是無人播種拖拉機廠商的責任嗎?有可能,但在此之前,我們是不是該明確與這些問題相關的責任和標準呢?比如無人播種拖拉機的行業標準是什么,制造商的產品規格是否符合相關標準呢?不僅如此,如果自己的土地被他人種植上了其他農作物,這是否算是財產損失,又是否能否追溯經濟賠償呢?

在一連串問題之前,我們其實是先假定了無人播種拖拉機里面的系統軟件是由制造商開發的。那么接下來又有新的問題出現了,如果那套人工智能系統是由第三方開發公司完成開發的,該如何處理?還有,系統內部的軟件代碼是由多人合作完成的,又該如何界定各自的職責?

隨著時間的推移,人工智能系統將會越來越不依靠傳統的經典算法和代碼,而且他們也會展示出更多我們無法預料到的行為,值得一提的是,這些行為沒有人可能預測得到,甚至包括人工智能系統的創造者也無法預料。但重要的是,可預見性,其實是處理責任過失問題中一個非常關鍵的組成部分。

為了能夠讓讀者更好地理解可預見性問題,我們才會假設了上面那個無人播種拖拉機的案例,或許十年、二十年之后,人工智能已經不再是簡單的種錯莊稼這件事兒了,它可能會是某個意外讓人們受傷,更嚴重一些,人工智能可能會不小心殺人。所以,如果我們的法律無法適時作出改變,那么未來將會導致更多問題出現。就拿上面那個人工智能種錯莊稼的事情為例,當無法實現可預見性,最終的結果就是沒人承擔責任!

責怪人工智能機器人

為什么我們不干脆去責怪機器人呢?畢竟,關于人工智能人格也有過討論,而且人工智能系統本身也有擔負刑事責任的可能。

但是,這種方法在實際應用時又有什么不一樣呢?這里,還是借用別人曾經說過的一句話吧?!叭斯ぶ悄芟到y真的會像著名小說家艾薩克·阿西莫夫筆下的機器管家那樣嗎?遵守法律,遵從道德良知,還能保護銀行存款?”

我們姑且不去討論人工智能系統是否可以被起訴,但人工智能制造商和開發商們必須受到監管。只有這樣,才有可能將一些無法歸責的各方,用嚴格責任賠償(注:嚴格責任賠償是指只要造成了損害,不論行為人有無過錯,都要承擔賠償責任。常見的適用于無過錯責任原則的,有從事高壓、劇毒、高速、放射等作業造成他人損害的。工傷是典型的適用無過錯責任原則的,也就是說只要勞動者在工作期間因公受傷了,排除勞動者個人主觀故意的因素之外,雇用單位無論有無過錯都要承擔工傷賠償的責任的。)約束起來,

實際上,在我們的日常生活里,嚴格責任賠償已經應用到了很多地方。當然除了這種責任賠償之外,如果需要對人工智能追責,其實也可以采用無過錯責任賠償和賠償方案池等方式。

規章制度

如果從監管的角度來看人工智能,那么你會發現,嚴格的安全標準,以及建立完善的安全認證流程也都是非常必要的。不過,如何設計一個合適的機構與流程框架,并且讓這個框架得以有效運行,依然是一個非常棘手的問題。

人工智能領域復雜難懂,而且外部世界對于人工智能研發圈子普遍缺乏認識,這也就是人工智能專家需要盡快創建行業框架的原因所在。實際上,這里所說的框架,就是規章制度,說通俗些也就是游戲規則。因此,這意味著人工智能顧問委員會需要和政府一起,盡快立法,建設行業標準。

我們不得不承認,人工智能行業存在巨大的潛在效益;但是標準和流程,需要不斷的創建、更新、并且執行,這樣才能達到一種持續性平衡,繼而最大限度地提高公共福利和安全;當然,也只有這樣,才不會扼殺創新,更不會出現不必要的法律負擔。

事實上,站在國家的角度上,建立任何一個法律框架或游戲規則,都必須要足夠靈活,監管機構不僅需要考慮到本國利益,也要從全球角度出發。這意味著在某種程度上,你不僅要考慮本國的人工智能產量,以權衡進口其他各國人工智能技術,同時,你還要思考該如何任何不同國家之間的安全標準和認證,必要的時候,你是否還需要遵守未來可能出現的國際條約或公約,等等。所有這一切,遠比我們想象的要復雜得多。

人工智能的倫理思考范文4

哈拉瑞在其新書《上帝:明日簡史》中預言:人工智能崛起后可能不會毀滅人類,而是接管我們社會的大部分職能,使人類失去生存的目標,讓人類變成“無用階層”,如果這種趨勢繼續發展下去,誰也無法保證會出現什么后果。

誠然,科學技術的進步為人類生活帶來了極大的便利,但不能否認的是,在未來,智能機器人很可能為人類帶來了個人價值與倫理方面的巨大挑戰。

無用的人類

7月28日,據《每日郵報》報道,澳大利亞機器人公司Fastbrick Robotics推出了一款機器人瓦匠Hadrian X,只要2天時間就能建造起一整棟房屋,而且不需要休息。它強大的生產能力促使它成為了建筑工人最為強勁的競爭對手。強生產性機器人的出現將導致一部分基礎性作業的工人失去原本穩定的工作,由此對機器人產生深深的敵意。在其他工作場景中,工業化生產解決了一些基礎、繁瑣的工作,同時也帶來了對個人存在價值的重新審視。

“算了,還是我自己來吧!”在職場中,時常聽到工作經驗豐富的老員工對職場小白這樣說。這句話背后涵蓋著很多問題,核心都可以歸結到“對協同效率的擔憂”。單純完成基礎性工作已經不再適合在如今快速發展的社會中立足,一百多年來在工業革命中發揮重大作用的流水線,一時間也失去了原本穩固的地位。

經濟學的主要創立者亞當?斯密在其著作《國富論》中認為,精細的分工可以促進勞動生產力。于是,大多數企業家夢寐以求著將事情細化拆分,讓低成本的勞動力也能做。分工的明確以及流水線的順暢,使得效率和用人成本得到了顯而易見的優化。但在今天,這提升似乎變得不那么確定了。

科技的進步將人類從簡單的重復性工作中解脫了出來,在免除了員工對枯燥無趣或是危險的任務產生抱怨之外,還提升了企業的生產效率,降低了企業的勞動力成本,使得企業投入更多的人力、財力去爭奪更大的市場,而員工也更加注重培養個人技能的不可替代性。這些代替人類工作的機器以各種形態出現在我們身邊,除了成型的工業流水線,還有更加智能的掃地機器人、仿生機器人、空中機器人,甚至還有隱藏在屏幕后精準回應客戶需求的客服機器人等等。目前,科學家的研究使機器人的功能愈發多樣化,逐步從工業機器人向服務機器人和特種機器人進行轉變,而其外觀形象也愈加逼 真。

那么,這些酷似人類的機器人是否會完全替代人類呢?

國際機器人聯合會(IFR)的一份研究顯示,先進的機器設備可以提高勞動生產率和產品質量,創造出更多的社會財富,也就必然提供更多的就業機會。任何新事物的出現都有利有弊,只不過利大于弊,很快就得到了人們的認可。

美國麻省理工學院(MIT)一直是機器人科技研究的先驅,曾研究出獵豹、Atlas等轟動世界的軍事機器人。8月13日,在全球人工智能與機器人峰會機器人專場上,MIT機器人實驗室主任Daniela Rus表示,相較于擔心機器人取代人類,人們更應該擔心建造機器人的速度還不夠快。在中國,到了2050年就只有20%的人仍處于工作年齡,所以更應該加速機器人的生產制造以彌補勞動力的短缺。因此,她提出一個愿景,期待未來的工廠會有更多的機器人跟工人并肩工作,未來機器人會比現在的更加先進。

但是,機器人畢竟還是有弊端的,若機器人被人類賦予了完全自主的思想,那么世界將會變得不再平衡,而這樣的日子也并不遙遠。

8月2日,俄羅斯研究人員宣布將在未來一年半的時間里,通過分析、模仿人類大腦工作的方式,研發出一款具有情緒的機器人。該機器人不僅能通過設定好的程序或增強學習技術進行學習,像人類一樣思考眼下發生了什么事情,并跟上這些事情的節奏,還可以提出相應的問題來實現這些目標,并積極地尋求答案,逐步累積起對人類的信任。

事實證明,智能機器人的發展很有可能在不久的將來使其具備一定的自主思想。這一旦成為現實,勢必會像克隆人的出現一樣,給人類帶來倫理道德的強烈沖擊。

從科幻走進現實

“機器人(Robot)”這個詞誕生于1920年捷克斯洛伐克作家卡雷爾?恰佩克的科幻小說《羅薩姆的萬能機器人》中,是從Robota(捷克文,原意為“勞役、苦工”)和Robotnik(波蘭文,原意為“工人”)演變而來。就像誕生于科幻小說之中一樣,人們對機器人充滿了幻想。也許正是由于機器人定義的模糊,才給了人們充分的想象和創造空間。

然而,凡事都有節制,對機器人的開發也并非沒有限制。

早在1940年,為了防止機器人傷害人類,科幻作家阿西莫夫(Isaac Asimov)就提出了 “機器人三原則”:

1、機器人不應傷害人類;

2、機器人應遵守人類的命令,與第一條違背的命令除外;

3、機器人應能保護自己,與第一條相抵觸者除外。

學術界一直將這三原則作為開發機器人的倫理性綱領,但對于倫理的挑戰從未中斷,尤其是在科幻作品中,由于機器人并非只具備生產性,其社會性導致的危機并不僅限于工作層面,更多的是在倫理層面上,因此機器人的存在對人性的沖突引發了人類的恐慌。雖然科幻世界只是一種想象,但人類社會將可能面臨這種現實。

科幻小說《羅薩姆的萬能機器人》預告著,機器人的發展會對人類社會產生悲劇性影響。2015年的英美劇《真實的人類》和科幻題材的文學作品一樣,真正關注的并非高科技的美好,而是可能引發的危機。

《真實的人類》講述了合成人被繁忙都市中生活的人類廣泛使用,而隨著合成人與人類越來越相似,人類的行為受到合成人影響而發生變化的故事。合成人并不像人類一樣具有情感和邏輯,它們更像是機器,以執行人類命令為天職。然而,劇中一個家庭關系緊張的郊區家庭為了改變生活方式而購買的二手合成人,竟然是具備自我意識的特殊合成人,并非一味順從他們的奴隸。他們開始意識到,人工智能飛速發展會給人類帶來的種種便利與危機,和合成人在一起生活會在倫理道德方面產生可怕的、影響深遠的后 果。

隨著機器人外表的逼真程度不斷向人類靠攏,以及人工智能技術與機器人的不斷融合,《真實的人類》涉及的倫理道德問題也不無可能成為現實,包括機器人的社會角色,機器人的行為觸及法律,人類將機器人作為奴隸或與機器人產生依戀情感,甚至將機器人當作家庭成員等等一系列的問題。

那么,人們距離這一天究竟還有多遠呢?

過去,即便科技進步迅猛,人們依舊認為機器人的創造能力和學習能力與人類相比還有著很大的差距,因此對于機器人的智能程度和發展前景也存在質疑。但隨著人們對機器人技術智能化本質認識的加深,人工智能和云計算技術已經在機器人的應用上得到了體現,并逐漸向人類活動的各個領域滲透,機器人將很有可能獲取近乎人類的創造能力和學習能力。

目前,以谷歌為代表的科技企業和科學家們正試圖以人工智能來彌補機器人在創造和學習方面的不足,并在云計算服務中扮演起越來越重要的角色。谷歌的人工智能程序使用了機器學習技術,使電腦可以從數據流當中提取數據,進行抽象處理,翻譯文本內容以及易于理解的圖片,包括標記,以及通過面部表情識別情緒等等,從而歸納出有意義的信息。

機器人不僅可以進行人機對話,甚至還可以寫小說。

通過一場人機大戰,Alpha Go向人們展示了數學的強大力量,而美國研究人員發現,數學竟也可以與文學走到一起,甚至相互轉化,使機器人具備一定的創造能力。7月,根據外媒報道,美國佛蒙特和阿德萊德大學的數學家和計算機科學家們從電子書庫“古騰堡計劃”中挑選了大約2000部英文小說輸入計算機,以人工智能的方式分析故事中主人公的情感曲線,結果驗證了美國黑色幽默作家庫爾特?馮內古特的著名觀點,即每一個小說故事都可以用二維圖表的方式表示出來,并且這些曲線有許多共同點。

人工智能的倫理思考范文5

Wall-E懂得欣賞落日余暉,懂得觀看芭芭拉?史翠珊的《你好,多莉》,也懂得十指交握的情意,但它仍是Waste AllocationLoad Lifters-Earth(地球廢品分裝員)――一個有任務指令卻又游離在控制邊緣的機器人。隨著人類對于人工智能的研究漸漸深入,機器人在工業上的應用已經相當普遍,而在未來,機器人走進人類生活也并不是遙不可及的事情。從電影表層挖掘下去,Wall-E的“機器情感”成為被探討的關鍵詞。

《機器人總動員》最厲害的一點在于,它簡化了美式主流動畫的對白敘事性,尤其是影片的前40分鐘,甚至拋棄了語言――這曾是引領觀眾進入劇情的第一要素,從而用“那種天衣無縫的華麗感,遠遠超越了動畫片的境界”,語言被簡化之后,音效成為讀懂機器人情感的重要工具,《機器人總動員》之所以得人緣,就因為處理這一點的人性化。曾經為《星球大戰》的R2-D2制作音效的本?貝爾特是本片的聲效設計師,他的高明之處是不僅用聲音創造個機器《世界,而是讓這些聲音在帶有明顯金屬、機械的生硬同時,還能傳達出人類一樣起伏多變的真摯情感,這也是Wall-E感動觀眾的原因--。

早期電影中的機器人形象只是一件會活動的道具,其功用是為觀眾標明電影發生在未來的年代,或者是給我們一些發笑的噱頭。1927年的《大都會》是最早出現機器人的電影,機器人叫做瑪麗亞,它是一個會在工人中制造混亂的間諜,還會跳舞。后來的《星球大戰》中,圓頭圓腦的R2-D2雖然不會說話,但有自己的情感,而且很忠實,其實更像是一只寵物。另一個C-3PO倒是會說話,它會3萬種語言,但是它行事慌張,說話怪里怪氣,其實是一個小丑。這些形象的單薄看似合情合理,因為在我們的觀念中,機器人即使具有相當的智能,它們也沒有情感的驅動,只會根據預設好的邏輯行事,所以在思想千變萬化的人類看來,機器人的固有屬性沒有給它們在銀幕上預留很大的表演空間,自然會顯得很古板。

直到《終結者》的出現,施瓦辛格扮演的機器人T800不但具有強大的攻擊力和完美的智商,更重要的是它漸漸地學會了以人的方式來思考,第二集中的T2在性格中漸漸透出溫暖親和的一面,這大概是討好觀眾的一種好方法,也多少說明人類對于人工智能的預期還沒有擺脫機械時代的印象:冷酷的性格、簡單的邏輯和強力的機械系統,在影片的結尾,T2犧牲了自己以換取人類安寧的明天。為什么為人類的利益就要滅機器人自己?在阿西莫夫的三大定律中,我們找不到這樣的依據。導演詹姆斯?卡梅隆很狡猾地做調整,畢竟,保持人類的尊嚴和地位是大多數人都會認同的。

迄今為止,很少有科幻電影在涉及到機器人這個題材時是以喜劇結尾的。不僅是因為“機器人”這個詞本身就具有無窮的悲劇性,更在于人類對機器人的創造在某種程度上就相當于《圣經》里上帝對人的創造。著名科幻作家阿西莫夫曾提出了機器人三大定律:一、機器人不得傷害人類或坐視人類受到傷害。二、機器人必須服從人類的命令。三、機器人必須盡力保護自己。這三條定律按照從高到低的權限執行,為后人研究機器人和人工智能提供了一個道德倫理上的基礎,其實三大定律投射出人類對創造機器人所存有的重重疑慮。

人工智能的倫理思考范文6

關鍵詞:科技;哲學;未來;人類生存

幾千年來,尤其是近幾百年來,哲學家和科學家們都一直在追求一種確定性知識,企圖用真理代替謬誤,用知識代替意見。這往往產生兩方面的結果:一方面導致哲學和科學研究重點的轉移,而這必然帶來人們關注的問題轉移;另一方面必將導致人們在認識和實踐中研究方法的變革與創新。其結果是,促使人類認識的深化,從而帶來科技的進步。

在文藝復興以及思想啟蒙之后,現代科學的理性思維已經建立起來?,F代科學的蓬勃發展表明:早期的一些哲學家、科學家們在獲得確定性的知識的過程中,不斷受到重重挑戰。鑒于科技的日新月異、文化的多元發展,本文試圖分析人類未來的動態發展,探究科學、社會與人類未來的交互作用。

一、人類社會生存的現狀與危機

關于“人類滅絕”、“世界末日”的談論一直是熱門話題,從2012年廣為流傳的瑪雅人世界末日的預言,到層出不窮的災難題材影片,這一話題已經成為人們日益關注的內容,也反映出人們內心深處無比的焦慮與恐慌。近來,牛津大學人類未來研究所一個由數學家、哲學家和科學家組成的研究小組表示,越來越多的證據表明,人類對高科技的依賴可能給自身帶來滅頂之災,而這種情況最快于下個世紀出現。牛津大學人類未來研究所所長尼克·博斯特羅姆在接受網絡采訪時表示:“人類的科技能力與人類運用這些能力的智慧正在展開一場重大比賽,我擔心前者可能會遙遙領先于后者?!辈┧固亓_姆稱,實際經驗和科學研究表明,在未來的一個世紀中,行星撞擊地球、火山爆發、核爆炸等災害并不足以威脅人類的生存,人類面臨的最大威脅來自科技創新帶來的“不確定因素”。他解釋說,人類對于最新科技的了解并不完善,而正是那些人類沒有掌握的“未知因素”最有可能導致人類滅絕。

二、對危機追根溯源

現代科技中的合成生物學、納米技術和人工智能等高新技術很有可能有一天會變成人類的敵人,并給人們帶來滅頂之災。大多數學者認為,依賴高科技極有可能會給人類帶來滅頂之災。理由如下:

一方面,人類運用科技的智慧總是無法跟上飛速發展的科技能力,人類在發現并建立了牛頓經典力學體系之后有過一段時期的合理利用,但進入量子力學等領域之后,人類卻無法對其進行合理的運用。就目前的情況來說,合成生物學、納米技術、人工智能等前沿科技的實際應用,只是這些學科真正能力的冰山一角。以合成生物學為例,合成生物學(synthetic biology),最初由Hobom B.于1980年提出來表述基因重組技術的,隨著分子系統生物學的發展,2000年E. Kool在美國化學年會上重新提出來,2003年國際上定義為基于系統生物學的遺傳工程和工程方法的人工生物系統研究,從基因片段、人工堿基DNA合成生物學的研究分子、基因調控網絡與信號傳導路徑到細胞的人工設計與合成,類似于現代集成型建筑工程,將工程學原理與方法應用于遺傳工程與細胞工程等生物技術領域,合成生物學、計算生物學與化學生物學一同構成系統生物技術的方法基礎。然而,許多人只看到了這種做法的種種益處,卻沒有發現其背后的隱患,或者說即便看到了背后的隱患,如倫理學上的爭議等,卻依然以科學的名義繼續向前。

另一方面,人類的科技水平是不斷發展的,然而科技水平的發展并不會顧及運用者的能力與智慧。當科技的發展超出人類智慧的駕馭范圍和使用能力范圍之外,科技仍將繼續發展。人類最終無法控制科技以及無法應對科技帶來的問題,高科技將極有可能使人類滅亡。還有一種情況就是科技的智慧超越了人類的智慧,當合成生物學與人工智能結合之后,依據強大的計算能力和沒有道德倫理限制的執行力,人類是很難與人工智能抗衡的,特別是在人類過度依賴于高科技產品,進入數字化生活之后,這一隱患逐步加大,我們很難想象有一天全世界的網絡同時崩潰,電子產品全部失靈到底會帶來怎樣的災難,在長期依賴電子產品而喪失一些基本生活能力的今天,這一問題仍未得到足夠的重視。

三、假設與反駁

雖然這一觀點很難被反對,但是總有那么一些反對的理由存在。比如,有些學者認為,人類總是能駕馭科技的,人一定會注意到這些問題并有效地進行避免措施的,人工智能是無法超越人腦的機能的等等。對于這些觀點,另一些學者反駁的理由是:負責科技的發展的人是不會顧及使用者是否可以駕馭的。作為發展科技的人,除了有基本的道德倫理觀可以限制其不將技術用于制造災難以外,我們很難限制其行為。上海的大學宿舍毒殺舍友的案例就是說明這一問題很好的例證。甚至有學者更加懷疑有些科學工作者可以預見到科技會給人類帶來的災難隱患,以及極度懷疑在發現這些隱患后是否能終止某項科學技術的研究。因為對于他們而言,技術的發展意味著他們人生的成就。試想,如果人類沒有原子彈的話,生活會不會更加美好?原子彈對我們而言是必要的嗎?

比起讓人望而生畏的高科技,或許大自然的山水草木會更讓人覺得心曠神怡,鳥語花香、清泉流水更讓人覺得親近。因為它們才是人類的伙伴,是人類永恒的家園。

參考文獻:

[1] 生物學的新軍——合成生物學-生物學通報,2011年第4期(46).

[2] 徐飛等.科技文明的代價-科技發展的負面效應與對策研究.山東教育出版社,1999.

[3] 謝長生.人類文明的基石:材料科學技術.華中理工大學出版社,2000.

[4] 楊慶旺.科技上下五千年.哈爾濱船舶工程學院社,1994.

[5] 肖飛.科技時代:人類文明發展思考.中國人口出版社,1998.

[7] 庫浩.人與地球共存亡.天津科技翻譯出版公司,1998.

亚洲精品一二三区-久久