HOME 首頁(yè)
SERVICE 服務(wù)產(chǎn)品
XINMEITI 新媒體代運(yùn)營(yíng)
CASE 服務(wù)案例
NEWS 熱點(diǎn)資訊
ABOUT 關(guān)于我們
CONTACT 聯(lián)系我們
創(chuàng)意嶺
讓品牌有溫度、有情感
專注品牌策劃15年

    人工智能問題討論(人工智能問題討論發(fā)言)

    發(fā)布時(shí)間:2023-03-13 23:44:47     稿源: 創(chuàng)意嶺    閱讀: 146        問大家

    大家好!今天讓創(chuàng)意嶺的小編來大家介紹下關(guān)于人工智能問題討論的問題,以下是小編對(duì)此問題的歸納整理,讓我們一起來看看吧。

    ChatGPT國(guó)內(nèi)免費(fèi)在線使用,一鍵生成原創(chuàng)文章、方案、文案、工作計(jì)劃、工作報(bào)告、論文、代碼、作文、做題和對(duì)話答疑等等

    只需要輸入關(guān)鍵詞,就能返回你想要的內(nèi)容,越精準(zhǔn),寫出的就越詳細(xì),有微信小程序端、在線網(wǎng)頁(yè)版、PC客戶端

    官網(wǎng):https://ai.de1919.com

    本文目錄:

    人工智能問題討論(人工智能問題討論發(fā)言)

    一、機(jī)器(人工智能)足夠強(qiáng)大,并且自主進(jìn)化,人類會(huì)被被淘汰嗎?

    美國(guó)人喬治·德沃爾在1954年造出世界上第一臺(tái)可編程的機(jī)器人之后,就時(shí)而有人出來發(fā)布未來機(jī)器人會(huì)在能力上超越人類并最終取代人類的警告,只是此類“取代警告”或者出自科幻作家的想象,或者屬于個(gè)別學(xué)者的單純預(yù)言,缺乏說理。事實(shí)也是如此,那時(shí)計(jì)算機(jī)論域中與人相關(guān)的討論,還聚焦在電腦或人工智能是否會(huì)有類似于人的意識(shí)或智能的問題上。而絕大多數(shù)學(xué)者對(duì)此問題的回答,還都是否定性的觀點(diǎn)。

    可是近些年的情況明顯不同。一個(gè)不同是,發(fā)出“取代警告”的人已經(jīng)不是科幻作家與個(gè)別學(xué)者,而是變成許多專家,其中就有當(dāng)今世界著名的科學(xué)家和技術(shù)家。如著名的物理學(xué)家霍金曾警告:“人類由于受到緩慢的生物進(jìn)化的限制,無(wú)法與機(jī)器競(jìng)爭(zhēng),并會(huì)被取代,全人工智能的發(fā)展可能導(dǎo)致人類的終結(jié)。”馬斯克則是著名的技術(shù)家,他也將人工智能說成人類“最大的生存威脅”,并將發(fā)展人工智能比喻成“召喚惡魔”。另一個(gè)不同是,此時(shí)的“取代警告”已經(jīng)有了理論論證以及某種程度的事實(shí)佐證和可感受性。尤其是當(dāng)人們發(fā)現(xiàn)戰(zhàn)勝人類圍棋世界冠軍的智能機(jī)器阿爾法狗居然會(huì)自己學(xué)習(xí)時(shí),就不得不在驚嘆之余,相信人工智能還會(huì)有越來越快速的發(fā)展和越來越令人驚詫的表現(xiàn)。正是在這樣的背景下,關(guān)于未來的機(jī)器人是否將取代人類的討論就空前熱火地在學(xué)界展開了,眾多學(xué)者紛紛參與,各抒己見。

    這個(gè)“取代警告”之所以能成為令眾人矚目的熱點(diǎn)問題,在于對(duì)此問題的不同回答將決定人類社會(huì)對(duì)人工智能技術(shù)的發(fā)展將會(huì)采取不同的態(tài)度和制度安排:要么是積極推動(dòng),要么是有所限制。此外,不同的回答還意味著我們能據(jù)此判斷,現(xiàn)在,除了“取代警告”之外的那些關(guān)于人工智能問題的討論,其中哪些問題是有意義的?哪些問題由于不會(huì)出現(xiàn)而是沒有意義的?比如,如果未來不存在機(jī)器人超越和取代人類的可能,我們就沒有必要繼續(xù)研究以這種“可能性”為前提的人工智能問題。因此,關(guān)于“取代警告”的討論不僅必要和重要,而且還應(yīng)盡早形成共識(shí)性的明確結(jié)論。

    那么,這個(gè)明確結(jié)論會(huì)是什么樣的觀點(diǎn),這就需要對(duì)討論中已有的各種觀點(diǎn)進(jìn)行全面的分析評(píng)價(jià),再做最后判定。

    目前學(xué)界討論“取代警告”的學(xué)者,主要是科學(xué)家和哲學(xué)家,他們對(duì)此問題形成兩種截然相反的回答,一種是給出肯定回答的“取代論”,即人工智能將來會(huì)超越人類并取代人類,成為地球新主宰;另一種是給出否定回答的“否取代論”,即人工智能永遠(yuǎn)也不可能超越人類和取代人類。

    以下先對(duì)這兩種回答分別進(jìn)行考察

    二、人工智能發(fā)展對(duì)人類的利弊分析

    隨著現(xiàn)代科學(xué)技術(shù)的飛速發(fā)展,人智能崛起引發(fā)擔(dān)憂,因?yàn)榉彩露加袃擅嫘?。下面由我為大家介紹人工智能發(fā)展的利弊分析,希望能幫到你。

    人工智能的利弊分析

    據(jù)報(bào)道,對(duì)于機(jī)器人的崛起,專家們?cè)l(fā)出警告,“機(jī)器取代人類勞動(dòng)力可能致使人口冗余”,他們擔(dān)心“這種超能技術(shù)的發(fā)展已經(jīng)超越了人類的駕馭能力,”如今,一些人表示擔(dān)憂,若人工智能繼續(xù)進(jìn)化,我們會(huì)失去賴以為生的工作、喪失存在感,甚至?xí)?ldquo;終結(jié)者”們趕盡殺絕。但事實(shí)上,這些恐懼與兩個(gè)世紀(jì)以前人們對(duì)機(jī)械化和蒸汽機(jī)發(fā)展的討論如出一轍,那時(shí),人們針對(duì)機(jī)器威脅展開一場(chǎng)名為“機(jī)器問題”的討論。而現(xiàn)在,一場(chǎng)關(guān)于人工智能利弊的 辯論 正在悄然興起。

    誕生初期,人工智能技術(shù)(AI)也經(jīng)歷過大起大落,但在過去幾年的發(fā)展黃金期,AI技術(shù)突飛猛進(jìn),這都得益于“深度學(xué)習(xí)”技術(shù)開啟的新篇章。深度學(xué)習(xí)旨在模擬人腦結(jié)構(gòu)建立大規(guī)模(或者“深度”)神經(jīng)網(wǎng)絡(luò),在充沛的數(shù)據(jù)支持下,神經(jīng)網(wǎng)絡(luò)可以通過訓(xùn)練來處理各種各樣的事情。

    其實(shí)所謂深度學(xué)習(xí)技術(shù)已經(jīng)默默為我們服務(wù)多年了,谷歌(微博)搜索、Facebook的自動(dòng)圖片標(biāo)記功能、蘋果的siri語(yǔ)音助手、亞馬遜推送的購(gòu)物清單,甚至特斯拉的自動(dòng)駕駛汽車都是深度學(xué)習(xí)的產(chǎn)物。但是這種快速的發(fā)展也引發(fā)了人們對(duì)于安全和失業(yè)問題的擔(dān)憂?;艚稹ⅠR斯克等科技大佬都公開發(fā)聲,擔(dān)心人工智能會(huì)失去控制,上演科幻小說中人機(jī)大戰(zhàn)的情節(jié),其他人則害怕認(rèn)知工作的自動(dòng)化會(huì)將會(huì)導(dǎo)致大面積的失業(yè)。兩個(gè)世紀(jì)以后的今天,曾經(jīng)的“機(jī)器問題”卷土重來,我們需要找出可行的解決方案。

    “機(jī)器問題”和解決方案

    啟示人們最為擔(dān)憂的是人工智能技術(shù)會(huì)破開牢籠,變得邪惡而不可控。早在工業(yè)革命浪潮席卷全球時(shí),人機(jī)矛盾已經(jīng)出現(xiàn),現(xiàn)在的矛盾不過是披上了人工智能的新外衣,人類的焦慮依舊,《科學(xué)怪人》及此后類似的文學(xué)作品都是這種擔(dān)憂的映射。然而,盡管人工智能技術(shù)已成為一門顯學(xué),但是它們只能完成特定的任務(wù)。想在智商上戰(zhàn)勝人類,AI還差得遠(yuǎn)呢。此外,AI是否真能超越人類還未可知。名為安德魯?shù)腁I研究人員表示,對(duì)人工智能的恐懼無(wú)異于在火星殖民還未實(shí)現(xiàn)時(shí)就擔(dān)心人口膨脹的問題。在“機(jī)器問題”上,人們更加關(guān)注人工智能對(duì)人類就業(yè)和生活方式的影響。

    失業(yè)恐懼由來已久。“科技性失業(yè)”的恐慌在20世紀(jì)60年代(公司開始安裝計(jì)算機(jī)和使用機(jī)器人)和80年代(個(gè)人電腦開始上市)都曾彌漫開來,似乎大規(guī)模的自動(dòng)化辦公馬上就要到來,讓人類下崗。

    但事實(shí)上,每一次恐慌之后,科技進(jìn)步為社會(huì)創(chuàng)造的就業(yè)崗位遠(yuǎn)多于它殺死的過時(shí)職位,我們需要更多人從事全新的工作。舉例來說,ATM機(jī)替代了一些銀行柜員,為銀行設(shè)立分行節(jié)約了成本,讓雇員進(jìn)入了機(jī)器不能做的銷售和客服領(lǐng)域。同樣地,電子商務(wù)的出現(xiàn)增加了零售商的生存空間。而在辦公中引進(jìn)電腦則不是為了取代員工的位置,員工習(xí)得新技能后,會(huì)成為電腦的輔助。盡管此前曾有報(bào)道稱,未來10年或20年間,美國(guó)47%的崗位將面臨自動(dòng)化,但是我們的研究顯示,這一數(shù)值恐怕連10%都不到。

    盡管短期內(nèi)一些工作消失的弊端會(huì)被全新職位出現(xiàn)的長(zhǎng)期影響完全抵消且?guī)砀蟮暮锰?,但?9世紀(jì)工業(yè)革命的 經(jīng)驗(yàn) 表明,轉(zhuǎn)變的過程極其痛苦。從停滯不前的生活水平上反映出經(jīng)濟(jì)的增長(zhǎng)需要幾百年,而從顯著的收入變化上來看只需幾十年。人口從鄉(xiāng)村大量涌入城市工廠,在當(dāng)時(shí)的歐洲引發(fā)動(dòng)蕩。各國(guó)政府花費(fèi)了整整一百年的時(shí)間構(gòu)建新的 教育 和福利體系適應(yīng)這種轉(zhuǎn)變。

    這一次的轉(zhuǎn)變似乎更為迅速,當(dāng)前科技傳播的速度可比200多年前快多了。得益于技術(shù)的輔助,高技術(shù)工作者的薪資會(huì)更高,因此收入不平等的現(xiàn)象正在不斷加深。這給用人公司和政府帶來了兩大挑戰(zhàn):如何幫助工作者學(xué)習(xí)掌握新技能;如何讓后代做好準(zhǔn)備,在滿世界都是人工智能的社會(huì)求得工作機(jī)會(huì)。

    聰明的回應(yīng)

    技術(shù)的發(fā)展使得崗位的需求產(chǎn)生變化,工作者必須適應(yīng)這種轉(zhuǎn)變。這意味著要調(diào)整教育和訓(xùn)練模式,使其足夠靈活,從而快速、高效地教授全新的技能。終生學(xué)習(xí)和在職培訓(xùn)的重要性更加凸顯,在線學(xué)習(xí)和電子游戲式的仿真模擬會(huì)更加普遍。而人工智能可以幫助制定個(gè)性化計(jì)算機(jī) 學(xué)習(xí)計(jì)劃 ,依照工作者技能差距提供新技術(shù)培訓(xùn)機(jī)會(huì)。

    此外,社會(huì)交往技能也會(huì)變得更加重要。由于工作崗位的更迭變快,技術(shù)革新的腳步也逐漸加快,人類的工作年限越來越長(zhǎng),社交技能成了社會(huì)的基石。它能在人工智能主導(dǎo)的社會(huì)保持人類的優(yōu)勢(shì),幫助人類完成基于情感和人際往來的工作,這是機(jī)器無(wú)法擁有的優(yōu)越性。

    對(duì)人工智能和自動(dòng)化的擔(dān)憂也催生了人們對(duì)“安全網(wǎng)”的渴望,有了它普通人就能免受勞動(dòng)力市場(chǎng)動(dòng)亂影響。一些人認(rèn)為應(yīng)該革新福利系統(tǒng),讓每個(gè)人都享有保障生存的“基本收入”。但是在沒有充足證據(jù)表明技術(shù)革命會(huì)導(dǎo)致勞動(dòng)力需求銳減的形勢(shì)下,這種做法并不可取。反之,各國(guó)應(yīng)該學(xué)習(xí)丹麥的“靈活安全系統(tǒng)”制度,讓企業(yè)裁員更加容易,但是在被裁員的職工接受再培訓(xùn)和再求職期間提供保障。這種制度下,福利、養(yǎng)老金、醫(yī)保等應(yīng)該跟隨個(gè)體本身,而不是與職員身份掛鉤。

    盡管技術(shù)快速進(jìn)步,工業(yè)時(shí)代的教育和福利系統(tǒng)并沒有完全實(shí)現(xiàn)現(xiàn)代化,相關(guān)制度也不夠靈活。革新勢(shì)在必行,決策者必須行動(dòng)起來,否則當(dāng)前福利系統(tǒng)會(huì)面臨更大的壓力。19世紀(jì)40年代,約翰·穆勒寫道,“沒有什么比立法者對(duì)這類人的照顧更為正當(dāng)了”,他們的生活被技術(shù)的發(fā)展所累。在蒸汽時(shí)代,這是真理,在人工智能的時(shí)代,同樣也是。

    人工智能與機(jī)器人的區(qū)別

    人工智能,這無(wú)疑是需要大數(shù)據(jù)來支撐的。主要是識(shí)別類、感應(yīng)器方面的。就好比說語(yǔ)言翻譯,以前是每個(gè)單詞的翻譯,隨著搜索引擎的崛起,人們把自己想說的話都發(fā)到了網(wǎng)上,然后搜索引擎蜘蛛網(wǎng)抓取下來,就成了一些例句,例句再經(jīng)過語(yǔ)言的拼湊,電腦語(yǔ)法的組織,選出最佳的表述,這樣就得出了翻譯的語(yǔ)句,如果需要再人工智能一點(diǎn),那就加上我們的語(yǔ)音識(shí)別與語(yǔ)音朗讀(這一切語(yǔ)音的來源也都來自于大數(shù)據(jù)一點(diǎn)一點(diǎn)的取得的)。這就是我們的人工智能。

    機(jī)器人,所需的條件基本就是人工智能+物理外殼,最基本的就是所說到的掃地機(jī)器人。如果想要變成終結(jié)者那樣的機(jī)器人,那當(dāng)然得具備有各種識(shí)別,各種感應(yīng)器,我來預(yù)見一下,如果中國(guó)的機(jī)器人行業(yè)發(fā)展,首先會(huì)用到哪些公司的識(shí)別系統(tǒng)吧。

    語(yǔ)音識(shí)別,訊飛科大

    物體識(shí)別,百度識(shí)圖

    人臉識(shí)別,阿里巴巴

    視頻識(shí)別,迅雷公司等等的各種識(shí)別,再加上溫度感應(yīng),距離感應(yīng)方向感應(yīng)等等,其實(shí)最重要的一點(diǎn)就是要有個(gè)腦袋,我想如果中國(guó)可以,應(yīng)該會(huì)是阿里巴巴的大數(shù)據(jù)大腦吧。

    一個(gè)是系統(tǒng),靠算法實(shí)現(xiàn),另外一個(gè)是實(shí)體,也依靠一些內(nèi)置的程序進(jìn)行設(shè)定好內(nèi)容交流。

    機(jī)器人不過是人工智能的一個(gè)載體,人工智能籠統(tǒng)來說分為強(qiáng)人工智能與弱人工智能之分,目前我們所見到的還是弱人工智能,智能專注于某一領(lǐng)域,比如51AI房地產(chǎn)人工智能客服回答數(shù)據(jù)庫(kù)中的問題,當(dāng)然隨著數(shù)據(jù)庫(kù)內(nèi)容豐富,回答的準(zhǔn)確率也會(huì)進(jìn)一步提升。想特斯拉的無(wú)人駕駛也是屬于人工智能的范疇,根據(jù)路況,速度等參數(shù)快速的做出決定。未來有一天強(qiáng)人工智能會(huì)與我們看到科幻電影中的機(jī)器人一樣,用于判斷、情感、超強(qiáng)學(xué)習(xí)能力,但是不知道這種強(qiáng)人工智能在有生之年能不能見到。

    機(jī)器人時(shí)代給我們帶來的弊端

    (1)機(jī)器人的大規(guī)模使用,必然帶來大規(guī)模的失業(yè)。很多人必然被機(jī)器人所取代。而大規(guī)模的失業(yè),一則給政府帶來沉重的負(fù)擔(dān),二則必然使需求下降,千千萬(wàn)萬(wàn)的企業(yè)不得不破產(chǎn)??苹米骷铱评?middot;多克托羅(CoryDoctorow)在BoingBoing網(wǎng)站上寫道:“如果我們堅(jiān)持認(rèn)為,機(jī)器人提高生產(chǎn)力帶來的好處應(yīng)該歸功于機(jī)器人所有者,那么我們肯定會(huì)迎來這樣的未來:沒有足夠多的機(jī)器人所有者會(huì)購(gòu)買機(jī)器人制造的所有東西。”

    (2)機(jī)器人時(shí)代的到來是對(duì)人類的一次大淘汰。機(jī)器人對(duì)人類的大淘汰,如果處理不好有可能引發(fā)核大戰(zhàn),那將是人類的災(zāi)難。人類可能因此而滅亡。

    (3)機(jī)器人時(shí)代的到來,必將引發(fā)空前的人才爭(zhēng)奪戰(zhàn)。誰(shuí)擁有的各類一流人才數(shù)量多質(zhì)量高,誰(shuí)就能贏得最后勝利。

    (4)機(jī)器人時(shí)代的到來,將出現(xiàn)各種各樣的機(jī)器人兵團(tuán)。特別是在軍事領(lǐng)域,機(jī)器人兵團(tuán)將給很多人帶來災(zāi)難。與之同時(shí),也必將出現(xiàn)反機(jī)器人軍隊(duì)(兵團(tuán))。人類社會(huì)及一切事物就是在矛盾斗爭(zhēng)中發(fā)展的。

    猜你喜歡:

    1. 人工智能的利與弊作文

    2. 有關(guān)人工智能利弊的英語(yǔ)作文

    3. 關(guān)于人工智能的利與弊的作文

    4. 關(guān)于人工智能利弊的論文

    5. 人工智能的利與弊論文

    6. 人工智能利弊作文

    7. 人工智能利弊的論文

    8. 關(guān)于人工智能利弊的論文

    三、人工智能的設(shè)計(jì)倫理主要關(guān)注什么問題?應(yīng)當(dāng)如何解決?

    :全球范圍內(nèi)針對(duì)人工智能倫理準(zhǔn)則的討論已達(dá)成基本共識(shí)。在此基礎(chǔ)上,本文進(jìn)一步研究4個(gè)關(guān)鍵問題:人工智能倫理體系的運(yùn)行機(jī)制問題、人工智能倫理準(zhǔn)則的場(chǎng)景落地問題、人工智能倫理風(fēng)險(xiǎn)的預(yù)測(cè)判別問題,以及人工智能倫理對(duì)重大社會(huì)問題綜合創(chuàng)新的支撐機(jī)制問題。這些問題超越了人工智能倫理準(zhǔn)則的范圍,卻是一種完整、有效的人工智能倫理體系所必須解答的。本文的主要貢獻(xiàn)是對(duì)這4個(gè)問題提出一套建議方案。

    關(guān)鍵詞:人工智能 倫理體系 倫理準(zhǔn)則 風(fēng)險(xiǎn)預(yù)測(cè) 倫理性創(chuàng)新

    Ethical system of artificial intelligence: infrastructure and key issues

    CHEN Xiaoping

    Abstract: On the basis of consensus on ethical guidelines or principles so far reached in the world, four key issues on ethical system of AI will be studied further in this paper: operating mechanisms of AI ethics system, the grounding of AI ethical guidelines in real-world scenarios, prediction and identification of ethical risks of AI technology, and comprehensive innovation mechanisms of handling major social problems supported by the AI ethics system. These issues go beyond the realm of AI ethical guidelines, while they must be solved in order to develop a complete and effective operating system of AI ethics. A preliminary plan for solving these issues is proposed as the main contribution of this paper.

    隨著人工智能第三次浪潮帶來的重要進(jìn)展,人工智能倫理挑戰(zhàn)已成為當(dāng)前國(guó)內(nèi)外普遍關(guān)注的一個(gè)焦點(diǎn),一些組織和機(jī)構(gòu)開展了相關(guān)議題的研討,發(fā)布了一批人工智能倫理準(zhǔn)則的建議。中國(guó)人工智能學(xué)會(huì)對(duì)人工智能倫理問題高度重視,于2018年年中開始組建人工智能倫理專委會(huì)。在2019全球人工智能技術(shù)大會(huì)上,5月26日舉行了“全球視野下的人工智能倫理”論壇,在國(guó)際上首次提出了人工智能倫理體系規(guī)劃問題,這意味著人工智能倫理建設(shè)開始進(jìn)入第三階段,而人工智能倫理體系的關(guān)鍵問題研究提上了議事日程。正如中國(guó)人工智能學(xué)會(huì)理事長(zhǎng)李德毅院士在論壇致辭中指出的那樣,本次論壇具有里程碑意義。

    1 人工智能倫理建設(shè):從倫理準(zhǔn)則到倫理體系

    人工智能倫理建設(shè)已經(jīng)歷了兩個(gè)階段。第一階段是人工智能倫理必要性的討論,從專業(yè)角度說,耶魯大學(xué)Wendell Wallach等美國(guó)學(xué)者起了帶頭作用,在國(guó)際上引起了普遍重視;從更廣泛的背景看,尤瓦爾·赫拉利的《人類簡(jiǎn)史》發(fā)揮了重要的推動(dòng)作用。第二階段是人工智能倫理準(zhǔn)則的討論,歐盟走在前面,中國(guó)和其他一些國(guó)家也積極參與其中。

    在第二階段,歐盟人工智能倫理高級(jí)專家組提出了人工智能倫理的7條準(zhǔn)則[1],包括:確保人的能動(dòng)性和監(jiān)督性、保證技術(shù)穩(wěn)健性和安全性、加強(qiáng)隱私和數(shù)據(jù)管理、保證透明度、維持人工智能系統(tǒng)使用的多樣性、非歧視性和公平性、增強(qiáng)社會(huì)福祉、加強(qiáng)問責(zé)制。我國(guó)清華大學(xué)人工智能與安全項(xiàng)目組提出了6條準(zhǔn)則[2]:福祉原則、安全原則、共享原則、和平原則、法治原則、合作原則。據(jù)不完全統(tǒng)計(jì)[3-15],迄今已有40多個(gè)機(jī)構(gòu)或組織提出了各自的人工智能倫理準(zhǔn)則建議??傮w上看,所有這些準(zhǔn)則建議是基本一致的。

    四、不要再爭(zhēng)論人工智能是否“有知覺”-問題是我們能否相信它

    過去一個(gè)月,谷歌工程師布雷克·萊莫因(BlakeLemoine)的文章、采訪和其他類型的媒體報(bào)道如火如荼。萊莫因告訴《華盛頓郵報(bào)》(WashingtonPost),為與用戶對(duì)話創(chuàng)建的大型語(yǔ)言模型LaMDA是“有感覺的”

    在閱讀了十幾篇關(guān)于這個(gè)話題的不同觀點(diǎn)后,我不得不說,媒體對(duì)當(dāng)前人工智能技術(shù)的炒作已經(jīng)(有點(diǎn))失望了。許多文章討論了為什么深層神經(jīng)網(wǎng)絡(luò)不是“有知覺的”或“有意識(shí)的”與幾年前相比,這是一個(gè)進(jìn)步,當(dāng)時(shí)新聞媒體正在創(chuàng)造關(guān)于人工智能系統(tǒng)發(fā)明自己的語(yǔ)言、接管每項(xiàng)工作以及加速向人工通用智能發(fā)展的轟動(dòng)故事。

    但我們?cè)俅斡懻摳兄鸵庾R(shí)這一事實(shí)突顯了一個(gè)重要的觀點(diǎn):我們的人工智能系統(tǒng),即大型語(yǔ)言模型,正變得越來越有說服力,同時(shí)仍然存在科學(xué)家在不同場(chǎng)合指出的根本缺陷。我知道“人工智能愚弄人類”自20世紀(jì)60年代伊麗莎·查博特(ElizaChatbot)以來就一直在討論,但今天的法學(xué)碩士實(shí)際上處于另一個(gè)層面。如果你不知道語(yǔ)言模型是如何工作的,布萊克·萊莫因(BlakeLemoine)與拉姆達(dá)(LaMDA)的對(duì)話看起來幾乎是超現(xiàn)實(shí)主義的,即使這些對(duì)話是經(jīng)過精心挑選和編輯的。

    然而,我想在這里指出的一點(diǎn)是,“感知”和“意識(shí)”并不是關(guān)于LLM和當(dāng)前AI技術(shù)的最佳討論。更重要的討論將是關(guān)于人類兼容性和信任的討論,特別是因?yàn)檫@些技術(shù)正準(zhǔn)備集成到日常應(yīng)用中。

    神經(jīng)網(wǎng)絡(luò)和大型語(yǔ)言模型的工作在過去的一周里已經(jīng)進(jìn)行了徹底的討論(我強(qiáng)烈建議閱讀Melanie Mitchell對(duì)MSNBC的采訪,了解LaMDA和其他LLM的工作原理)。我想從比較LLM的人類語(yǔ)言開始,更詳細(xì)地介紹一下情況。

    對(duì)人類來說,語(yǔ)言是一種溝通大腦中發(fā)生的復(fù)雜和多維激活的手段。例如,當(dāng)兩個(gè)兄弟相互交談時(shí),其中一個(gè)說“媽媽”,這個(gè)詞與大腦不同部位的許多激活有關(guān),包括對(duì)她的聲音、面部、感覺的記憶,以及從遙遠(yuǎn)的過去到(可能)最近幾天的不同經(jīng)歷。事實(shí)上,兄弟倆在大腦中的表現(xiàn)形式可能存在巨大差異,這取決于他們各自的經(jīng)歷。然而,“媽媽”這個(gè)詞提供了一種壓縮的、表現(xiàn)良好的近似值,有助于他們?cè)谙嗤母拍钌线_(dá)成一致。

    當(dāng)你在與陌生人的對(duì)話中使用“媽媽”這個(gè)詞時(shí),經(jīng)驗(yàn)和記憶之間的差異會(huì)變得更大。但同樣,你設(shè)法在你頭腦中的共同概念的基礎(chǔ)上達(dá)成協(xié)議。

    把語(yǔ)言想象成一種壓縮算法,可以幫助將大腦中的大量信息傳遞給另一個(gè)人。語(yǔ)言的進(jìn)化與我們?cè)谑澜缟系慕?jīng)歷直接相關(guān),從我們環(huán)境中的物理互動(dòng)到與其他人類的 社會(huì) 互動(dòng)。

    語(yǔ)言是建立在我們?cè)谑澜缟系墓餐?jīng)歷之上的。孩子們甚至在說出第一個(gè)單詞之前就知道物體的重力、尺寸、物理一致性,以及人類和 社會(huì) 概念,如疼痛、悲傷、恐懼、家庭和友誼。沒有這些經(jīng)驗(yàn),語(yǔ)言就沒有意義。這就是為什么語(yǔ)言通常忽略了對(duì)話者共享的常識(shí)和信息。另一方面,分享經(jīng)驗(yàn)和記憶的程度將決定你與另一個(gè)人交談的深度。

    相比之下,大型語(yǔ)言模型沒有物理和 社會(huì) 經(jīng)驗(yàn)。他們接受了數(shù)十億個(gè)單詞的訓(xùn)練,并學(xué)會(huì)通過預(yù)測(cè)下一個(gè)單詞序列來響應(yīng)提示。這是一種在過去幾年中取得了巨大成果的方法,尤其是在引入變壓器體系結(jié)構(gòu)之后。

    變形金剛?cè)绾巫龀隽钊诵欧念A(yù)測(cè)?它們將文本轉(zhuǎn)換為“標(biāo)記”和“嵌入”,即多維空間中單詞的數(shù)學(xué)表示。然后,他們處理嵌入以添加其他維度,例如文本序列中單詞之間的關(guān)系及其在句子和段落中的作用。有了足夠的例子,這些嵌入可以很好地近似單詞在序列中的顯示方式。變形金剛之所以特別受歡迎,是因?yàn)樽冃谓饎偩哂锌蓴U(kuò)展性:變形金剛的精確度隨著變大和輸入更多數(shù)據(jù)而提高,而且大多可以通過無(wú)監(jiān)督學(xué)習(xí)進(jìn)行訓(xùn)練。

    但根本區(qū)別仍然存在。神經(jīng)網(wǎng)絡(luò)通過將語(yǔ)言轉(zhuǎn)化為嵌入來處理語(yǔ)言。對(duì)人類來說,語(yǔ)言是思想、感覺、記憶、身體經(jīng)驗(yàn)和許多其他我們尚未發(fā)現(xiàn)的關(guān)于大腦的東西的嵌入。

    這就是為什么可以公平地說,盡管它們?nèi)〉昧司薮蟮倪M(jìn)步和令人印象深刻的結(jié)果,但變形金剛、大型語(yǔ)言模型、深層神經(jīng)網(wǎng)絡(luò)等仍然遠(yuǎn)遠(yuǎn)不能說我們的語(yǔ)言。

    今天的很多討論都是關(guān)于我們是否應(yīng)該將感知、意識(shí)和人格等屬性分配給AI。這些討論的問題在于,它們側(cè)重于定義模糊的概念,對(duì)不同的人意味著不同的東西。

    例如,功能主義者可能會(huì)爭(zhēng)辯說,神經(jīng)網(wǎng)絡(luò)和大型語(yǔ)言模型是有意識(shí)的,因?yàn)樗鼈儽憩F(xiàn)出(至少部分地)你所期望的人類的相同行為,即使它們構(gòu)建在不同的基礎(chǔ)上。其他人可能會(huì)認(rèn)為有機(jī)物質(zhì)是意識(shí)的必要條件,并得出結(jié)論,神經(jīng)網(wǎng)絡(luò)永遠(yuǎn)不會(huì)有意識(shí)。你可以加入關(guān)于qualia、中國(guó)室內(nèi)實(shí)驗(yàn)、圖靈測(cè)試等的爭(zhēng)論,討論可以永遠(yuǎn)持續(xù)下去。

    然而,一個(gè)更實(shí)際的問題是,當(dāng)前的神經(jīng)網(wǎng)絡(luò)與人類思維的“兼容性”如何,以及我們?cè)陉P(guān)鍵應(yīng)用中能信任它們到什么程度?這是一個(gè)重要的討論,因?yàn)榇笮驼Z(yǔ)言模型大多是由尋求將其轉(zhuǎn)化為商業(yè)應(yīng)用程序的公司開發(fā)的。

    例如,經(jīng)過足夠的訓(xùn)練,你可能可以訓(xùn)練黑猩猩開車。但你會(huì)把它放在方向盤后面,放在行人將要穿過的道路上嗎?你不會(huì)的,因?yàn)槟阒?,無(wú)論黑猩猩多么聰明,它們的思維方式都與人類不同,也不能被賦予承擔(dān)人類安全任務(wù)的責(zé)任。

    同樣,鸚鵡也可以學(xué)會(huì)許多短語(yǔ)。但你會(huì)相信它是你的客戶服務(wù)代理嗎?可能不會(huì)。

    即使涉及到人類,一些認(rèn)知障礙也會(huì)使人們無(wú)法從事某些需要人際互動(dòng)或考慮人類安全的工作和任務(wù)。在許多情況下,這些人可以讀、寫、說得流利,在冗長(zhǎng)的對(duì)話中保持一致性和邏輯性。我們不懷疑他們的感知、意識(shí)或人格。但我們知道,由于他們的疾病,他們的決定可能變得不一致和不可預(yù)測(cè)(例如,參見菲尼亞斯·蓋奇的案例)。

    重要的是你是否可以相信這個(gè)人會(huì)像普通人一樣思考和決定。在許多情況下,我們信任有任務(wù)的人,因?yàn)槲覀冎浪麄兊母泄傧到y(tǒng)、常識(shí)、感覺、目標(biāo)和獎(jiǎng)勵(lì)與我們的基本一致,即使他們不會(huì)說我們的語(yǔ)言。

    我們對(duì)拉姆達(dá)了解多少?首先,它不像我們那樣感知世界。它對(duì)語(yǔ)言的“知識(shí)”并非建立在與我們相同的經(jīng)驗(yàn)基礎(chǔ)上。它的常識(shí)是建立在一個(gè)不穩(wěn)定的基礎(chǔ)上的,因?yàn)闊o(wú)法保證大量的文本將涵蓋我們?cè)谡Z(yǔ)言中遺漏的所有內(nèi)容。

    考慮到這種不兼容性,您能在多大程度上信任LaMDA和其他大型語(yǔ)言模型,無(wú)論它們?cè)谏晌谋据敵龇矫嬗卸嗪??一個(gè)友好而有趣的聊天機(jī)器人程序可能不是一個(gè)壞主意,只要它不把對(duì)話引向敏感話題。搜索引擎也是LLM的一個(gè)很好的應(yīng)用領(lǐng)域(谷歌在搜索中使用BERT已有幾年了)。但是,你能信任他們完成更敏感的任務(wù)嗎?比如開放式客戶服務(wù)聊天機(jī)器人或銀行顧問(即使他們接受過大量相關(guān)對(duì)話記錄的培訓(xùn)或調(diào)整)?

    我的想法是,我們需要特定于應(yīng)用程序的基準(zhǔn)來測(cè)試LLM的一致性以及它們?cè)诓煌I(lǐng)域與人類常識(shí)的兼容性。當(dāng)涉及到實(shí)際應(yīng)用程序時(shí),應(yīng)該始終有明確定義的邊界,以確定對(duì)話在哪里成為L(zhǎng)LM的禁區(qū),并且應(yīng)該交給人工操作員。

    不久前,我寫了一篇關(guān)于“問題發(fā)現(xiàn)者”和“問題解決者”的文章基本上,我所說的是,人類智能是關(guān)于發(fā)現(xiàn)正確的問題,而人工智能(或我們今天的人工智能)是關(guān)于以最有效的方式解決這些問題。

    我們一再看到,計(jì)算機(jī)能夠找到解決復(fù)雜問題的捷徑,而不需要獲得人類的認(rèn)知能力。我們已經(jīng)在跳棋、國(guó)際象棋、圍棋、編程競(jìng)賽、蛋白質(zhì)折疊和其他定義明確的問題中看到了這一點(diǎn)。

    自然語(yǔ)言在某些方面與人工智能解決的所有其他問題不同,但也很相似。一方面,《變形金剛》和《法學(xué)碩士》表明,它們可以產(chǎn)生令人印象深刻的結(jié)果,而無(wú)需像普通人一樣經(jīng)歷學(xué)習(xí)語(yǔ)言的過程,即首先 探索 世界并理解其基本規(guī)則,然后獲得基于這一共同知識(shí)與他人互動(dòng)的語(yǔ)言。另一方面,他們?nèi)狈W(xué)習(xí)語(yǔ)言的人類經(jīng)驗(yàn)。它們對(duì)于解決定義良好的語(yǔ)言相關(guān)問題非常有用。但是,我們不應(yīng)該忘記,它們與人類語(yǔ)言處理的兼容性是有限的,因此我們應(yīng)該小心我們對(duì)它們的信任程度。

    這篇文章最初由BenDickson在TechTalks上發(fā)表,這是一份研究技術(shù)趨勢(shì)、它們?nèi)绾斡绊懳覀兊纳詈徒?jīng)營(yíng)方式以及它們解決的問題的出版物。但我們也討論了技術(shù)的邪惡一面,新技術(shù)的黑暗影響,以及我們需要注意什么。你可以在這里閱讀原文。

    以上就是關(guān)于人工智能問題討論相關(guān)問題的回答。希望能幫到你,如有更多相關(guān)問題,您也可以聯(lián)系我們的客服進(jìn)行咨詢,客服也會(huì)為您講解更多精彩的知識(shí)和內(nèi)容。


    推薦閱讀:

    無(wú)人工廠為什么還沒普及(無(wú)人工廠為什么還沒普及中國(guó))

    人工智能取代不了的職業(yè)(人工智能取代不了的職業(yè)有哪些)

    人工智能找什么工作好(人工智能找什么工作好找)

    雕塑噴泉景觀設(shè)計(jì)方案(雕塑噴泉景觀設(shè)計(jì)方案模板)

    微軟必應(yīng)詞典網(wǎng)頁(yè)版