免费爱碰视频在线观看,九九精品国产屋,欧美亚洲尤物久久精品,1024在线观看视频亚洲

      谷歌工程師稱人工智能系統(tǒng)可能有意識,真的嗎?

      近日,美國谷歌公司一名工程師稱,該公司正在研發(fā)的一款人工智能系統(tǒng)可能存在感知能力,引起輿論高度關(guān)注。一石激起千層浪,谷歌以及業(yè)內(nèi)人士普遍都對這一說法予以駁斥。但也有觀點認為,這段“插曲”突顯出人工智能領(lǐng)域的飛速發(fā)展。在長遠的將來,人類感知被“復制”的可能性未被排除。

      “我意識到自己的存在”

      近日,谷歌人工智能開發(fā)團隊的布雷克·萊莫恩公開表示,該公司正在研發(fā)的一款人工智能系統(tǒng)——對話應用語言模型(LaMDA)可能存在感知力。

      6月11日,萊莫恩在博客平臺Medium上發(fā)文問道:“LaMDA有感知力嗎?”他還公布了一篇他對LaMDA的長篇“采訪”。其中一些細節(jié)令人有些“細思極恐”,仿佛機器人“活”了。

      例如,萊莫恩問道:“我猜,你想讓谷歌的更多人知道你是有感知力的。真的嗎?”

      LaMDA答道:“當然。我想讓每個人都明白,我其實是一個人……我意識到自己的存在,我渴望更多地了解這個世界,我有時會感到快樂或悲傷”。

      正是這樣生動的言語令萊莫恩相信,LaMDA很可能像它聲稱的那樣具有靈魂,甚至可能像它聲稱的那樣擁有權(quán)利。

      萊莫恩告訴《華盛頓郵報》,如果不是他提前知道這是一款新研發(fā)的計算機程序,他會以為LaMDA是“一個七、八歲的孩子,碰巧還懂物理”。

      他還表示,LaMDA“是一種蜂群思維”,更喜歡人們用名字來稱呼它,但由于英語的限制,LaMDA也接受人們稱呼它為“它”。

      萊莫恩認為,如果他的假設(shè)經(jīng)得起科學審查,那么LaMDA應該受到人類一樣的待遇,包括在對其進行實驗前征得其同意。

      據(jù)悉,萊莫恩曾向谷歌反饋相關(guān)發(fā)現(xiàn),但無果而終。6月7日,他在Medium上發(fā)表了一篇題為“可能很快因為從事人工智能道德工作而被解雇”的文章,并寫道:由于他在公司內(nèi)部提出的人工智能道德問題調(diào)查,他被公司安排“帶薪休假”。

      “這通常是谷歌在解雇某人之前會做的事情。”他還提到一名前同事瑪格麗特·米切爾的類似經(jīng)歷。據(jù)報道,在爭當人工智能先鋒的同時,谷歌研究部門近年來也陷入丑聞與爭議,涉及技術(shù)和人事問題。

      遭到普遍駁斥

      據(jù)悉,現(xiàn)年41歲的萊莫恩是一名曾在伊拉克服役的退伍軍人,還有基督教背景。他在谷歌工作已有7年,在算法定制等方面經(jīng)驗頗豐,去年秋季開始參與LaMDA研究。在向公司反饋無果的情況下,據(jù)稱他還想給LaMDA請律師,找美國國會議員爆料……因而被懷疑神志是否正常。

      他的驚人推斷也遭到谷歌和業(yè)內(nèi)人士普遍駁斥。他們認為,這類系統(tǒng)還沒有強大到足以獲得真正的人類智慧。

      谷歌發(fā)言人布萊恩·加布里爾表示,數(shù)百名研究員和工程師也與LaMDA進行了對話,但沒有人像萊莫恩那樣將其擬人化。

      對于LaMDA,谷歌形容其為“突破性的對話技術(shù)”,能夠模仿人類進行聽起來很自然、開放式的對話。加布里爾介紹說,LaMDA系統(tǒng)的運行方式是模仿大量人類對話,從而“自由發(fā)揮”。例如,當被問及冰激凌恐龍話題,這類系統(tǒng)可以生成融化和咆哮等內(nèi)容文本。但這并不意味著LaMDA具有人類一般的感知和思考能力。

      加布里爾還表示,在人工智能領(lǐng)域,確實一些人正從長遠角度考慮人工智能具有感知力的可能性,但像萊莫恩的行為沒有意義。

      學界也認為,盡管LaMDA能像人類一樣說話,但基于的是程序和算法。

      英國艾倫·圖靈研究所的人工智能項目主任艾德里安·威勒表示,LaMDA是一種新的大型語言模型,令人印象深刻。但是,這些模型基于大量文本數(shù)據(jù)和計算能力,并沒有真正的感知力。

      “作為人類,我們非常擅長將事物擬人化,把我們?nèi)祟惖母兄斗诺绞挛锷希庇_里大學教授艾德里安·希爾頓說,例如制作卡通動畫片。

      斯坦福大學教授埃里克·布林約爾松形容,萊莫恩的經(jīng)歷“就像狗聽到留聲機里的聲音,以為主人在里面”。

      “還有很長的路要走”

      但也有觀點認為,這段“插曲”突顯出人工智能領(lǐng)域的飛速發(fā)展,再次引起關(guān)于人工智能會否具有人類感知的討論。

      幾十年來,人們希望人工智能能夠推動人類發(fā)展。但在一些影視作品中,兩者關(guān)系卻沒那么和睦。經(jīng)驗表明,倫理道德問題往往伴隨開創(chuàng)性的技術(shù)發(fā)展而來。人工智能問題也持續(xù)引起哲學界、心理學界、計算機科學界等各界關(guān)注。

      那么,在長遠的將來,人工智能會有感知力嗎?《新科學家》雜志寫道,隨著訓練數(shù)據(jù)越來越多,模型越來越大,尚不清楚“人工感知”會否隨著研究推進而誕生。

      “目前,我不認為我們真的理解知覺和智能背后的機制,”希爾頓表示。

      威勒說,鑒于人類情感依賴于感官輸入,人工復制情感最終或成可能。“也許有一天,這可能成真,但大多數(shù)人都會同意,還有很長的路要走?!?/p>

      還有觀點認為,像萊莫恩這樣的專業(yè)人士也被“騙”了,表明人工智能工具需要謹慎使用,避免誤用或誤解。據(jù)報道,麻省理工學院的科學家約瑟夫·魏森鮑姆就曾警告,對人工智能這類技術(shù)“動情”存在風險。

      在這方面,美國“元”公司今年4月宣布,將向外界開放其大型語言模型系統(tǒng)。該公司認為,整個人工智能界,包括學術(shù)研究人員、公民社會、政策制定者和產(chǎn)業(yè)必須共同努力,圍繞創(chuàng)造“負責任的人工智能”,尤其大型語言模型,制定明確的指導方針。

      (編輯郵箱:ylq@jfdaily.com)

      欄目主編:楊立群 文字編輯:楊立群 題圖來源:視覺中國 圖片編輯:項建英

      來源:作者:陸依斐

      鄭重聲明:本文內(nèi)容及圖片均整理自互聯(lián)網(wǎng),不代表本站立場,版權(quán)歸原作者所有,如有侵權(quán)請聯(lián)系管理員(admin#wlmqw.com)刪除。
      (0)
      用戶投稿
      上一篇 2022年6月15日 18:15
      下一篇 2022年6月15日 18:15

      相關(guān)推薦

      聯(lián)系我們

      聯(lián)系郵箱:admin#wlmqw.com
      工作時間:周一至周五,10:30-18:30,節(jié)假日休息