AI創新 也要避免推向失控邊緣
當英國政府二月二日宣布,將立法明定生成性虐兒童圖像的AI工具違法,是全球第一個將AI違反倫理舉動列為違法的國家的同時,美、英拒絕在巴黎AI峰會上簽署AI國際聲明。與會的美國副總統范斯說,過度監管或強調AI安全,可能會在這項技術準備起飛並造福社會之際就被削弱。范斯並批評歐洲政府過度管制美國科技公司,扼殺AI進步所需的創新。因早在二○一九年四月九日,歐盟議會就已發布《可信賴人工智慧倫理準則》,分別是:一、應由人類監督AI,二、AI應穩健與安全並值得信賴,三、重視隱私和數據管制,四、使AI具有透明及可追溯性,五、AI應確保多元和公平,六、尊重社會和環境維護,七、建立完善究責制度。
AI是一種新興科技,我們都知道,新科技的演進都會為人際關係、社會規範、公共團體帶來新詮釋與互動,有時是往好的方面,有時則是往不好的方面。因此,對於新科技必須有一些基本認識:
首先,在我們接納並採用新科技時,必須承認其所可能帶來的後果皆無法事先預知。其次,新科技都會對倫理道德帶來衝擊。這些新科技會驅使我們對已被大家所接受的道德去修正、或重新思考、重新闡釋或另訂功能,在某些案例中甚至要全盤廢止。因此歐盟才會預先制定AI倫理準則。但英美未簽署AI峰會宣言也不滿AI被嚴格監管,只短視地在乎確保最強大的AI系統在美國製造,並使用美國設計和製造的晶片。
人類在開始全面接納並採用AI前,早已預知AI的發展會帶給人們便利,但也可能同時侵犯人們的權利,必須兼顧倫理規範。所以,從「AI教父」變「末日預言家」的辛頓就警告全世界,AI科技變革的速度比預期要「快很多」,並將會導致人類滅絕。辛頓說,屆時人類與強大AI系統的智慧相比,有如學步的幼兒。針對這點,AI峰會隻字未提,只知戴上政治化的眼鏡「反對以意識形態畫線,反對泛化國家安全概念,將經貿科技問題政治化的做法」。僅少數有遠見的學者呼籲「AI創新的同時,要兼顧風險管理」。
或許我們可以撇開峰會的決議,去反思DeepMind聯合創始人兼CEO哈薩比斯的話,他說AI不再受限於人類認知,能自我學習因而功能強大。可怕的是這樣的AI不是向人學習,而是透過對自我反思和獨有的創造力直接超越人類,峰會的決議有考量這部分並未雨綢繆嗎?難怪辛頓會如此擔心,他預測「不出五到二十年,AI就可能超越人類智慧,而科技巨頭為了爭奪市場,已陷入一場無法停止的AI軍備競賽,並加速將人類推向失控邊緣」,這可從此次AI峰會中看出端倪。屆時,我們還有能力做得到歐盟的AI倫理七大準則中的第一條的要求:「應由人類監督AI」嗎?
延伸閱讀
贊助廣告
商品推薦
udn討論區
- 張貼文章或下標籤,不得有違法或侵害他人權益之言論,違者應自負法律責任。
- 對於明知不實或過度情緒謾罵之言論,經網友檢舉或本網站發現,聯合新聞網有權逕予刪除文章、停權或解除會員資格。不同意上述規範者,請勿張貼文章。
- 對於無意義、與本文無關、明知不實、謾罵之標籤,聯合新聞網有權逕予刪除標籤、停權或解除會員資格。不同意上述規範者,請勿下標籤。
- 凡「暱稱」涉及謾罵、髒話穢言、侵害他人權利,聯合新聞網有權逕予刪除發言文章、停權或解除會員資格。不同意上述規範者,請勿張貼文章。
FB留言