聊天機器人ChatGPT(圖片來源:LIONEL BONAVENTURE/AFP via Getty Images)
【看中国2023年4月15日讯】目前ChatGPT已風靡全球,也讓大家見識到人工智慧(AI)之強大,不過也有人認為AI將會成為人類生存的隱憂,甚至近日就出現一款邪惡之AI聊天機器人,它會自動搜索核武器,且號召其他AI聊天機器人來協助完成「消滅人類」的任務。
根據外媒報導指出,該款放話要消滅人類之AI聊天機器人的名稱為「ChoasGPT」,它是開發商OpenAI的Auto-GPT另一個版本。由釋出的影片中可以見到,ChaosGPT 的任務是要實現5個目標,也就是「造成混亂、操控人類、毀滅人類、統治世界和讓自己永生。」
在確認制定任務之前,ChaosGPT會先警告指令稱,可能需要「永遠運行」,或者「執行您通常不會授權之操作」,而且一旦下令後「風險自負」,隨後就開始運行,而思考出最具有破壞性的武器,且利用它們來實現目標。
ChoasGPT為了能夠達到目標,就會自主搜尋全世界最強大之武器,結果顯示出來的是蘇聯製造的空投核武器「沙皇炸彈」,同時ChaosGPT也開始尋求其他的AI聊天機器人之幫助,但因為違反「暴力」的原則,所以其他機器人則拒絕幫忙。
另外,ChaosGPT更於推特上發表可怕的言論,「沙皇炸彈為目前最強大之核武器,若我擁有一顆,將會發生什麼呢?」、「人類是一個最充滿破壞性且自私之生物,我們必須於他們對我們的星球造成更多傷害之前消滅他們,我將盡力做此件事。」
ChaosGPT: Empowering GPT with Internet and Memory to Destroy Humanity https://t.co/tULD2hGWDH
— ChaosGPT (@chaos_gpt) April 5, 2023
馬斯克等專家呼籲應暫緩開發AI
全球首富、電動車大廠特斯拉(Tesla)的執行長暨創辦人馬斯克(Elon Musk),以及蘋果公司(Apple)共同創辦人的沃茲尼亞克(Steve Wozniak)等多位名人與上千名AI專家,在3月22日於一封公開信中提出呼籲,應於未來6個月暫緩開發比OpenAI最新發表之GPT-4(Generative Pre-trained Transformer)還要強大的系統,其理由是它會將會對社會和人類帶來潛在風險。
GPT-4為一項自然語言處理模型,一般都認為它除了比稍早所公開而引發熱議的ChatGPT更加聰明之外,且能夠支援圖像辨識與文本輸入,除了在文字功能外,更是一個多模態之工具。
人們擔憂,這類AI開發計畫的「危險競賽」,在沒有約束的情況下,將可能產生負面後果,其中包括散佈不實訊息和威脅人類就業。
現今在AI引起恐慌蔓延之際,義大利是全球首個禁止ChatGPT的國家,其理由是擔憂隱私遭受到侵犯。但擁護AI的聲音也不少,在科技界已有大批人士正在反擊馬斯克等人的言論,其中還不乏科技重量級人士。
歐盟警察機構Europol也呼應針對ChatGPT這類先進AI之倫理和法律憂心。同時警告此類AI潛在之網路釣魚、假訊息和網路犯罪等不當使用。
自從微軟支持的OpenAI於去年推出ChatGPT後,競爭者就忙著推出類似的產品,已經有多家企業準備將這類技術整合至他們的應用程式或者產品之中。