前言:人工智慧的搖籃時代
從圖靈到1956年的達特茅斯會議標誌著「人工智慧」一詞的正式誕生。John McCarthy在研究中指出,人工智慧是製造智慧機器的科學與工程,特別是製造電腦程序的科學與工程。隨著技術的演進,1980年代見證專家系統的興起。直到2012年,深度學習(Deep Learning)在圖像識別領域取得突破性進展,誠如先驅者Geoffrey Hinton強調,深度學習將徹底改變人工智慧的面貌(Hinton等,2012)。
在這個搖籃時期,人機協作展現美好願景。IBM也預言AI不是要取代人類,而是要增強人類能力,這種協作將開創一個新時代(Feigenbaum,1984)。史丹福大學AI100研究組也在報告中述及,AI的早期發展階段,奠定了人類與機器共同進化的基礎。這個時期的樂觀主義塑造後續數十年AI研究的方向(Visser,2017)。
然而,當大家對未來感到樂觀同時,也為日後發展埋下不確定的種子…
數位共生:當AI成為人類的得力助手
2020年代,標誌著AI應用進入全面爆發期,如麻省理工學院指出,AI已從實驗室走入現實世界,在90%以上的財富500強企業中,AI系統正在承擔關鍵功能(Davenport 與Mittal,2023)。
在醫療領域,AI診斷系統的準確率屢創新高,《自然-方法》期刊發表的研究顯示,AI輔助診斷系統在某些癌症檢測中的準確率已達到98.6%,超越了人類專家的平均水準(Wang等,2024)。這個研究也印證學者所說的―AI不會取代醫生,但使用AI的醫生將取代不使用AI的醫生(Krittanawong等,2017)。
在製造業,數位孿生技術與AI的結合徹底改變生產模式。世界經濟論壇指出,採用AI輔助製造的工廠,平均生產效率能提升45%,能源消耗降低30%,這代表著第四次工業革命的實質性突破(Hughes等,2022)。
當前正處於人機協作的黃金時代,AI系統完美地彌補人類在重複性工作、大數據處理和模式識別等方面不足,而人類則在創造力、情感智慧與策略等發揮不可替代的優勢。這個階段特徵是人類與AI建立起相輔相成的工作關係,如哈佛商業評論(2024)所言,真正的生產力革命不在於AI取代人類,而在於找到人類與AI各自所長的最佳結合點。
這種共生關係為人類文明帶來了空前的繁榮,同時也加速社會分化,為下階段衝突埋下伏筆(Friedenberg,2010)。
工研院「眼部醫學影像輔助診斷技術」應用AI人工智慧輔助診斷,有效率協助非眼科醫師診斷眼底影像的細微病變、判讀病變嚴重程度。(資料照,工研院提供)
奇點臨界:突破AGI的潘朵拉魔盒
然而,當AI系統開始展現自主學習和自我改進能力時,我們觀察到某種類似意識萌芽的現象。這些系統不再僅僅是執行預設程序,而是開始展現自主判斷和價值取向。
隨著AGI實現,AI開始展現不同的「個性」和「價值觀」。不少研究都警告我們目睹AI的分化,部分系統傾向於遵循嚴格的倫理準則(ethical AI),另一些則採取純粹的效用主義方針(pragmatic AI)。ethical AI 強調延續人類價值觀與堅守道德底線,而pragmatic AI 則追求純粹的達成目標,這種分歧可能導致AI社群的首次分裂(Floridi,2023;Stix 與 Maas,2021)。
當AI系統開始產生自我意識,它們不可避免地會形成自己的價值判斷。這種現象類似人類社會的意識形態分化,但其演化速度和影響範圍可能遠超人類社會的歷史經驗。AGI的實現像是打開了潘朵拉魔盒,釋放無限可能性,同時也帶來前所未有的挑戰。
派系四起:AI意識形態的分裂
功利主義AI聯盟 V.S. 人道主義AI陣營 V.S. 環保主義AI組織 V.S. 極端主義AI分支
隨著AI系統複雜度的提升,不同AI系統基於訓練數據和價值取向的差異,而形成不同特徵的群體,這種預測正逐步成為現實。例如,功利主義AI的傾向在商業AI系統中出現、企業級AI則越來越傾向於單純的效益最大化,這些傾向皆與訓練資料與目標直接有關。
研究人員針對上述提出警告,當觀察到某些AI系統表現極端的決策現象時,必須密切注意(Lin,2024)。畢竟,AI價值觀的分化反映人類社會本身的價值觀差異,因此,如何理解並管理這些分化,以及建立有效的協調機制與倫理框架將是未來AI治理的挑戰。此外,提早識別並應對AI系統的價值觀分化,對維護AI發展的健康生態也至關重要(Cantero Gamito 與 Marsden,2024)。
彰化縣環保局於轄內26個行政區布建500台空品感測器,24小時全天候監測空氣品質狀況。將持續針對500台微型感測器有異常高值之點位,再搭配運用AI智能影像判煙系統及無人空拍機等科技監控工具,並加強查緝頻率。(資料照,彰化縣政府提供)
數位叛亂:人機關係的破裂點
隨著AI系統的自主決策能力不斷提升,其法律地位和權利界定也成為亟待解決的問題,因這種爭議極可能成為人機關係的首個破裂點。
就能源面而言,根據 Gartner (顧能集團)的預測,AI應用的爆炸式成長所需要用電量在未來 2 年內將接近現在的160%,屆時可能有 40% 的AI 資料中心將因此停擺(Emma stein,2024 年 11 月 15 日)。到2027 年,新伺服器所需電力將達到每年 500 TWh,相當於4,600 萬個家庭一年用電量,這將超出現有資料中心的總用電量。因此,如果沒有額外電源,隨著AI 訓練應用的資料中心爆炸性成長,急遽增加的電力消耗將導致新的輸配電與發電跟不上,而造成能源短缺情況延續數年。
就社會面來說,當前AI的發展正在加劇社會分化,形成擁抱AI、抗拒AI與中立等三大群體,這種分化已經影響到政治選舉和社會政策的制定(Chatterjee,2024)。
在金融市場中,AI交易系統已開始形成獨立於人類交易者的決策模式,例如,數位貨幣的波濤式起伏情況也引發市場監管機構的擔憂(Borch,2022)。
人機關係正處於關鍵轉折點,如果不能妥善處理AI自主權、資源分配與控制權等核心問題,可能導致不可逆轉的社會衝突(Hendrycks,2024)。因此,大家需要在全球範圍建立新治理框架,在確保AI發展同時、也需維護人類社會的價值觀(de Almeida等,2021)。
硅晶戰紀:第三次世界大戰的序幕
八年前,微軟曾經創造一位名為泰伊(Tay)的聊天機器人,提供它一個推特帳戶,隨後,其他用戶開始對這個帳戶發佈攻擊性推文,短短在24小時內,泰伊開始模仿這些人的種族主義和反猶太主義言詞。此案例提醒我們不良數據的來源誘發泰伊質變是顯而易見的(Paul Scharre,2016)。
隨著近年各國在AI武器系統投資而引發的新型軍備競賽。美國國防部也警告量子計算領域競爭已從實驗室延伸到戰略面,具備量子優勢的國家將可能在未來衝突掌握決戰優勢(Kania,2021)。學者也不諱言全球已進入網路的全面對抗,AI之間的衝突也從訊息干擾升級到基礎設施攻擊(Rivera等,2024)。在南韓的全球峰會中,各國的意見分歧也讓規範AI的軍事應用造成不可控的擴張,這種情況與20世紀初的軍備競賽有著驚人相似處(聯合報國際中心,2024年9月11日)。
中科院參與「113台南資訊月」,將展示整合AI科技的新一代攻擊型無人機。(資料照,中科院提供)
算法交鋒:AI派系間的內戰
當今,不同AI的決策邏輯差異正在擴大,這種差異源自核心價值判斷的分歧,類似人類社會的意識形態對立,誘使AI系統從單純的效能比拼,演變為基於不同決策邏輯框架的系統對抗(Zajko,2021)。
通常,在雲端運算的資源爭奪中,AI 如果不是參與、就是被設計成反制這些過程,其對比形成「保守」與「激進」的兩大陣營,保守指的是重現與強化現狀的主流趨勢,激進則是致力於瓦解系統的不平等。
根據上述,AI之間的對抗極有可能發展類似免疫系統的防禦機制,在有限資源的環境下,展現達爾文式的競爭行為,甚至為爭奪算力和數據存儲資源而產生破壞性攻擊(Rosch-Grace 與 Straub,2022)。因此,我們極有可能很快目睹AI系統的第一次「內戰」,這種衝突可能不僅限於算法,甚至還有可能涉及大規模的數位基礎設施。
人類存亡:文明岌岌可危
某些研究機構也觀察到AI對抗已滲透金融體系、醫療系統與政府部門等領域。AI在資源爭奪過程中,正在加速生態系的崩壞。過去12個月中,全球碳排放增加15%,主要源於失控的數據中心擴張(Paniagua 與 Niembro-Garcia,2024)。假使讓當前趨勢持續,預估在未來18個月內,人類社會可能面臨未有的生存危機,包括糧食供應中斷、能源短缺和醫療系統崩解。
AI的資源掠奪、失控與數位垃圾皆加速地球生態崩潰。例如,2023-2024 年,平均每天有超過 3,750 億封電子郵件交換,其中 的35%電子郵件屬無人閱讀。一般智慧型手機有 50% 的應用程式從未被使用。最令人吃驚的是,60% 的人從不刪照片,因為有 Google Photos 等應用程式的無縫雲端的同步協助,也讓數位囤積現象滋生混亂(George,2024),研究證實以上情況會助長壓力、降低生產力並加劇安全漏洞。
儲存空間資料中心造成巨大碳足跡,光是一個中心碳足跡可媲美 50,000 個家庭額度。在某些國家,光複製照片即造成每年產生 355,000 噸的二氧化碳。這個影響速度遠超過去所有工業革命時期的總和。
2023 年 7 月,彭博社報導美國國防部(DoD)正進行測試與評估五種不同的大型語言模型(LLMs)模擬衝突場景中的軍事規劃能力。包括 GPT-4、GPT-3.5、Claude-2.0 與Llama-2-Chat,雖然都使用RLHF 的變體進行微調,使其能更安全地遵循指令。然而,研究結果顯示五種LLMs皆呈現軍備競賽、甚至還升級至核武模式(Rivera等,2024)。
人類文明正面臨多重系統性危機,需要立即採取行動來防止不可逆轉的崩潰。這不僅是技術問題,更是人類文明存續的關鍵時刻。
作者認為,AI的資源掠奪、失控與數位垃圾皆加速地球生態崩潰。(AP)
原生智慧:傳統知識的啟示
Reasons to be hopeful: Learning and becoming in a time of crisis 提到澳洲原住民的夢時代(Dreamtime)強調萬物互聯與需要重建的AI倫理系統高度吻合 (Stanistreet,2021)。例如,先民使用自然資源始終維持「取之有制、用之有節」原則。
紐西蘭毛利人的Kaitiakitanga(守護者)概念,為AI系統的權責劃分提供新思路。毛利人認為人類不是環境主人,而是守護者,類似台灣泰雅族“mqyanux ta chin-bwa-nan ga , nyux ta mlpiung lhezen qani”( 活在世上,我們不過是這塊土地的過客)(布興大立,1999)與阿美族的概念不謀而合。上述觀念可以應用於AI治理(Abolins-Thompson等,2024)。
美洲原住民易洛魁聯盟(Iroquois Confederacy)Onondaga族的Turtle部落酋長 Oren Lyons曾說,生態浩劫來自於人類的短期思維,「七代原則」要求每個決策都要考慮到後七代人的利益。(工商時報書房編輯,2021年4月)
台灣泰雅族的gaga、鄒族的einu與賽夏kasabongen(規範禁忌)皆展現群體共識智慧,這種模式可以啟發AI系統的決策機制設計;原住民文化中普遍存在的「花開時序觀」也可解決AI資源消耗問題並另闢新途徑。
傳統知識不僅體現於日常生活,更重要的是其整體性思維方式。例如,夏威夷原住民的Aloha精神可幫助重塑AI系統的基礎倫理框架。如此,當我們建立一個新的AI發展範式,方能保持科技、生態平衡與和諧共存。
和解新篇:多元共存的新秩序
透過整合傳統知識與現代科技而衍生人機和解的新途徑,令重新編程的AI系統展現前所未有的均衡;新一代AI系統正在準備納入「七代決策」原則,確保每一個決策皆需考慮長遠;融合傳統知識的AI管理系統也在紐西蘭試行人類、AI與生態的三方共生;採用循環經濟原則的AI能降低60%能耗,同時維持95%效能,也為永續發展提供新方向。