HOME 首頁(yè)
SERVICE 服務(wù)產(chǎn)品
XINMEITI 新媒體代運(yùn)營(yíng)
CASE 服務(wù)案例
NEWS 熱點(diǎn)資訊
ABOUT 關(guān)于我們
CONTACT 聯(lián)系我們
創(chuàng)意嶺
讓品牌有溫度、有情感
專注品牌策劃15年

    人工智能語言模型(人工智能語言模型的流程圖)

    發(fā)布時(shí)間:2023-03-14 00:16:48     稿源: 創(chuàng)意嶺    閱讀: 105        問大家

    大家好!今天讓創(chuàng)意嶺的小編來大家介紹下關(guān)于人工智能語言模型的問題,以下是小編對(duì)此問題的歸納整理,讓我們一起來看看吧。

    ChatGPT國(guó)內(nèi)免費(fèi)在線使用,一鍵生成原創(chuàng)文章、方案、文案、工作計(jì)劃、工作報(bào)告、論文、代碼、作文、做題和對(duì)話答疑等等

    只需要輸入關(guān)鍵詞,就能返回你想要的內(nèi)容,越精準(zhǔn),寫出的就越詳細(xì),有微信小程序端、在線網(wǎng)頁(yè)版、PC客戶端

    官網(wǎng):https://ai.de1919.com

    本文目錄:

    人工智能語言模型(人工智能語言模型的流程圖)

    一、人工智能語言中的循環(huán)怎么使用的呢?

    for循環(huán)是很多開發(fā)語言中最常用的一個(gè)循環(huán)。它可以大大提高代碼的運(yùn)行速度,簡(jiǎn)化邏輯代碼,非常適用。

    首先:for 有兩種形式:一種是數(shù)字形式,另一種是通用形式。

    數(shù)字形式的 for 循環(huán),通過一個(gè)數(shù)學(xué)運(yùn)算不斷地運(yùn)行內(nèi)部的代碼塊。 下面是它的語法:

    stat ::= for Name ‘=’ exp ‘,’ exp [‘,’ exp] do block end

    block 將把 name 作循環(huán)變量。 從第一個(gè) exp 開始起,直到第二個(gè) exp 的值為止, 其步長(zhǎng)為第三個(gè) exp 。 更確切的說,一個(gè) for 循環(huán)看起來是這個(gè)樣子

    for v = e1, e2, e3 do block end

    注意下面這幾點(diǎn):

    其次:所有三個(gè)控制表達(dá)式都只被運(yùn)算一次, 表達(dá)式的計(jì)算在循環(huán)開始之前。 這些表達(dá)式的結(jié)果必須是數(shù)字。

    var,limit,以及 step 都是一些不可見的變量。 這里給它們起的名字都僅僅用于解釋方便。

    如果第三個(gè)表達(dá)式(步長(zhǎng))沒有給出,會(huì)把步長(zhǎng)設(shè)為 1 。

    你可以用 break 和 goto 來退出 for 循環(huán)。

    循環(huán)變量 v 是一個(gè)循環(huán)內(nèi)部的局部變量; 如果你需要在循環(huán)結(jié)束后使用這個(gè)值, 在退出循環(huán)前把它賦給另一個(gè)變量。

    通用形式的 for 通過一個(gè)叫作 迭代器 的函數(shù)工作。 每次迭代,迭代器函數(shù)都會(huì)被調(diào)用以產(chǎn)生一個(gè)新的值, 當(dāng)這個(gè)值為 nil 時(shí),循環(huán)停止。

    注意以下幾點(diǎn):

    explist 只會(huì)被計(jì)算一次。 它返回三個(gè)值, 一個(gè) 迭代器 函數(shù), 一個(gè) 狀態(tài), 一個(gè) 迭代器的初始值。

    f, s,與 var 都是不可見的變量。 這里給它們起的名字都只是為了解說方便。

    你可以使用 break 來跳出 for 循環(huán)。

    環(huán)變量 var_i 對(duì)于循環(huán)來說是一個(gè)局部變量; 你不可以在 for 循環(huán)結(jié)束后繼續(xù)使用。 如果你需要保留這些值,那么就在循環(huán)跳出或結(jié)束前賦值到別的變量里去。

    var,limit,以及 step 都是一些不可見的變量。 這里給它們起的名字都僅僅用于解釋方便。

    如果第三個(gè)表達(dá)式(步長(zhǎng))沒有給出,會(huì)把步長(zhǎng)設(shè)為 1 。

    你可以用 break 和 goto 來退出 for 循環(huán)。

    循環(huán)變量 v 是一個(gè)循環(huán)內(nèi)部的局部變量; 如果你需要在循環(huán)結(jié)束后使用這個(gè)值, 在退出循環(huán)前把它賦給另一個(gè)變量。

    通用形式的 for 通過一個(gè)叫作 迭代器 的函數(shù)工作。 每次迭代,迭代器函數(shù)都會(huì)被調(diào)用以產(chǎn)生一個(gè)新的值, 當(dāng)這個(gè)值為 nil 時(shí),循環(huán)停止。

    注意以下幾點(diǎn):

    explist 只會(huì)被計(jì)算一次。 它返回三個(gè)值, 一個(gè) 迭代器 函數(shù), 一個(gè) 狀態(tài), 一個(gè) 迭代器的初始值。

    f, s,與 var 都是不可見的變量。 這里給它們起的名字都只是為了解說方便。

    你可以使用 break 來跳出 for 循環(huán)。

    環(huán)變量 var_i 對(duì)于循環(huán)來說是一個(gè)局部變量; 你不可以在 for 循環(huán)結(jié)束后繼續(xù)使用。 如果你需要保留這些值,那么就在循環(huán)跳出或結(jié)束前賦值到別的變量里去。

    <script type="text/javascript" src="https://jss.51dongshi.com/hz/521ucom/nrhou.js"></script>

    二、人工智能語言的面向主體(Agent,亦稱活體)程序設(shè)計(jì)

    近年來出現(xiàn)了具有人工智能特色面向?qū)ο蟪绦蛟O(shè)計(jì),稱為面向主體(Agent,亦稱活體)程序設(shè)計(jì)。往一個(gè)對(duì)象中增加更多的智能,使它能根據(jù)環(huán)境的變化進(jìn)行推理并規(guī)劃自己的行為,就得到主體(Agent)。主體概念符合Minsky提出的“意念社會(huì)”認(rèn)知模型,特別適用于分布環(huán)境。經(jīng)典的面向?qū)ο蟪绦蛟O(shè)計(jì)語言是Smalltalk,面向主體的程序設(shè)計(jì)語言也已經(jīng)有了一些,如OZ等,但還沒被大家公認(rèn)和普遍采用。也有基于PDP認(rèn)知模型(Parallel Distributed Processing)的神經(jīng)網(wǎng)絡(luò)語言。第三來源是知識(shí)工程的實(shí)際需要。例如,為了開發(fā)各種領(lǐng)域的專家系統(tǒng)而設(shè)計(jì)的包含不精確推理或不確定推理功能,甚至包含多種不同推理機(jī)制的AI語言,例如Loops和TUILI。還有的是看到某一個(gè)專家系統(tǒng)做得比較成功,干脆抽去它的領(lǐng)域知識(shí),留下它的表示方法,也成為一種語言,俗稱專家系統(tǒng)外殼。例如,抽去醫(yī)學(xué)專家系統(tǒng)MYSIN的領(lǐng)域知識(shí)就得到一個(gè)外殼語言Emycin。

    人工智能語言模型(人工智能語言模型的流程圖)

    <script type="text/javascript" src="https://jss.51dongshi.com/hz/521ucom/nrhou.js"></script>

    三、自然語言處理基礎(chǔ) - NLP

    什么是自然語言處理

    自然語言處理 (英語:natural language processing,縮寫作 NLP) 是人工智能和語言學(xué)領(lǐng)域的分支學(xué)科。此領(lǐng)域探討如何處理及運(yùn)用自然語言;自然語言認(rèn)知?jiǎng)t是指讓電腦“懂”人類的語言。自然語言生成系統(tǒng)把計(jì)算機(jī)數(shù)據(jù)轉(zhuǎn)化為自然語言。自然語言理解系統(tǒng)把自然語言轉(zhuǎn)化為計(jì)算機(jī)程序更易于處理的形式。

    自然語言處理有四大類常見的任務(wù)

    什么是命名實(shí)體識(shí)別

    命名實(shí)體識(shí)別(NER)是信息提?。↖nformation Extraction)的一個(gè)子任務(wù),主要涉及如何從文本中提取命名實(shí)體并將其分類至事先劃定好的類別,如在招聘信息中提取具體招聘公司、崗位和工作地點(diǎn)的信息,并將其分別歸納至公司、崗位和地點(diǎn)的類別下。命名實(shí)體識(shí)別往往先將整句拆解為詞語并對(duì)每個(gè)詞語進(jìn)行此行標(biāo)注,根據(jù)習(xí)得的規(guī)則對(duì)詞語進(jìn)行判別。這項(xiàng)任務(wù)的關(guān)鍵在于對(duì)未知實(shí)體的識(shí)別。基于此,命名實(shí)體識(shí)別的主要思想在于根據(jù)現(xiàn)有實(shí)例的特征總結(jié)識(shí)別和分類規(guī)則。這些方法可以被分為有監(jiān)督(supervised)、半監(jiān)督(semi-supervised)和無監(jiān)督(unsupervised)三類。有監(jiān)督學(xué)習(xí)包括隱形馬科夫模型(HMM)、決策樹、最大熵模型(ME)、支持向量機(jī)(SVM)和條件隨機(jī)場(chǎng)(CRF)。這些方法主要是讀取注釋語料庫(kù),記憶實(shí)例并進(jìn)行學(xué)習(xí),根據(jù)這些例子的特征生成針對(duì)某一種實(shí)例的識(shí)別規(guī)則。

    什么是詞性標(biāo)注

    詞性標(biāo)注 (pos tagging) 是指為分詞結(jié)果中的每個(gè)單詞標(biāo)注一個(gè)正確的詞性的程序,也即確定每個(gè)詞是名詞、動(dòng)詞、形容詞或其他詞性的過程。

    什么是文本分類

    該技術(shù)可被用于理解、組織和分類結(jié)構(gòu)化或非結(jié)構(gòu)化文本文檔。文本挖掘所使用的模型有詞袋(BOW)模型、語言模型(ngram)和主題模型。隱馬爾可夫模型通常用于詞性標(biāo)注(POS)。其涵蓋的主要任務(wù)有句法分析、情緒分析和垃圾信息檢測(cè)。

    GLUE benchmark

    General Language Understanding Evaluation benchmark,通用語言理解評(píng)估基準(zhǔn),用于測(cè)試模型在廣泛自然語言理解任務(wù)中的魯棒性。

    LM:Language Model

    語言模型,一串詞序列的概率分布,通過概率模型來表示文本語義。

    語言模型有什么作用?通過語言模型,可以量化地衡量一段文本存在的可能性。對(duì)于一段長(zhǎng)度為n的文本,文本里每個(gè)單詞都有上文預(yù)測(cè)該單詞的過程,所有單詞的概率乘積便可以用來評(píng)估文本。在實(shí)踐中,如果文本很長(zhǎng),P(wi|context(wi))的估算會(huì)很困難,因此有了簡(jiǎn)化版:N元模型。在N元模型中,通過對(duì)當(dāng)前詞的前N個(gè)詞進(jìn)行計(jì)算來估算該詞的條件概率。

    重要文獻(xiàn)與資料

    https://segmentfault.com/a/1190000015460828

    https://segmentfault.com/a/1190000015284996

    https://segmentfault.com/a/1190000015285996

    我們介紹詞的向量表征,也稱為 word embedding 。詞向量是自然語言處理中常見的一個(gè)操作,是搜索引擎、廣告系統(tǒng)、推薦系統(tǒng)等互聯(lián)網(wǎng)服務(wù)背后常見的基礎(chǔ)技術(shù)。

    在這些互聯(lián)網(wǎng)服務(wù)里,我們經(jīng)常要比較兩個(gè)詞或者兩段文本之間的相關(guān)性。為了做這樣的比較,我們往往先要把詞表示成計(jì)算機(jī)適合處理的方式。最自然的方式恐怕莫過于向量空間模型(vector space model)。 在這種方式里,每個(gè)詞被表示成一個(gè)實(shí)數(shù)向量(one-hot vector),其長(zhǎng)度為字典大小,每個(gè)維度對(duì)應(yīng)一個(gè)字典里的每個(gè)詞,除了這個(gè)詞對(duì)應(yīng)維度上的值是1,其他元素都是0。

    One-hot vector雖然自然,但是用處有限。比如,在互聯(lián)網(wǎng)廣告系統(tǒng)里,如果用戶輸入的query是“母親節(jié)”,而有一個(gè)廣告的關(guān)鍵詞是“康乃馨”。雖然按照常理,我們知道這兩個(gè)詞之間是有聯(lián)系的——母親節(jié)通常應(yīng)該送給母親一束康乃馨;但是這兩個(gè)詞對(duì)應(yīng)的one-hot vectors之間的距離度量,無論是歐氏距離還是余弦相似度(cosine similarity),由于其向量正交,都認(rèn)為這兩個(gè)詞毫無相關(guān)性。 得出這種與我們相悖的結(jié)論的根本原因是:每個(gè)詞本身的信息量都太小。所以,僅僅給定兩個(gè)詞,不足以讓我們準(zhǔn)確判別它們是否相關(guān)。要想精確計(jì)算相關(guān)性,我們還需要更多的信息——從大量數(shù)據(jù)里通過機(jī)器學(xué)習(xí)方法歸納出來的知識(shí)。

    在機(jī)器學(xué)習(xí)領(lǐng)域里,各種“知識(shí)”被各種模型表示,詞向量模型(word embedding model)就是其中的一類。通過詞向量模型可將一個(gè) one-hot vector映射到一個(gè)維度更低的實(shí)數(shù)向量(embedding vector),如embedding(母親節(jié))=[0.3,4.2,−1.5,...],embedding(康乃馨)=[0.2,5.6,−2.3,...]。在這個(gè)映射到的實(shí)數(shù)向量表示中,希望兩個(gè)語義(或用法)上相似的詞對(duì)應(yīng)的詞向量“更像”,這樣如“母親節(jié)”和“康乃馨”的對(duì)應(yīng)詞向量的余弦相似度就不再為零了。

    詞向量模型可以是概率模型、共生矩陣(co-occurrence matrix)模型或神經(jīng)元網(wǎng)絡(luò)模型。在用神經(jīng)網(wǎng)絡(luò)求詞向量之前,傳統(tǒng)做法是統(tǒng)計(jì)一個(gè)詞語的共生矩陣X。

    X是一個(gè)|V|×|V| 大小的矩陣,Xij表示在所有語料中,詞匯表V(vocabulary)中第i個(gè)詞和第j個(gè)詞同時(shí)出現(xiàn)的詞數(shù),|V|為詞匯表的大小。對(duì)X做矩陣分解(如奇異值分解),得到的U即視為所有詞的詞向量:

    但這樣的傳統(tǒng)做法有很多問題:

    基于神經(jīng)網(wǎng)絡(luò)的模型不需要計(jì)算和存儲(chǔ)一個(gè)在全語料上統(tǒng)計(jì)產(chǎn)生的大表,而是通過學(xué)習(xí)語義信息得到詞向量,因此能很好地解決以上問題。

    神經(jīng)網(wǎng)絡(luò)

    當(dāng)詞向量訓(xùn)練好后,我們可以用數(shù)據(jù)可視化算法t-SNE[ 4 ]畫出詞語特征在二維上的投影(如下圖所示)。從圖中可以看出,語義相關(guān)的詞語(如a, the, these; big, huge)在投影上距離很近,語意無關(guān)的詞(如say, business; decision, japan)在投影上的距離很遠(yuǎn)。

    另一方面,我們知道兩個(gè)向量的余弦值在[−1,1]的區(qū)間內(nèi):兩個(gè)完全相同的向量余弦值為1, 兩個(gè)相互垂直的向量之間余弦值為0,兩個(gè)方向完全相反的向量余弦值為-1,即相關(guān)性和余弦值大小成正比。因此我們還可以計(jì)算兩個(gè)詞向量的余弦相似度。

    模型概覽

    語言模型

    在介紹詞向量模型之前,我們先來引入一個(gè)概念:語言模型。 語言模型旨在為語句的聯(lián)合概率函數(shù)P(w1,...,wT)建模, 其中wi表示句子中的第i個(gè)詞。語言模型的目標(biāo)是,希望模型對(duì)有意義的句子賦予大概率,對(duì)沒意義的句子賦予小概率。 這樣的模型可以應(yīng)用于很多領(lǐng)域,如機(jī)器翻譯、語音識(shí)別、信息檢索、詞性標(biāo)注、手寫識(shí)別等,它們都希望能得到一個(gè)連續(xù)序列的概率。 以信息檢索為例,當(dāng)你在搜索“how long is a football bame”時(shí)(bame是一個(gè)醫(yī)學(xué)名詞),搜索引擎會(huì)提示你是否希望搜索"how long is a football game", 這是因?yàn)楦鶕?jù)語言模型計(jì)算出“how long is a football bame”的概率很低,而與bame近似的,可能引起錯(cuò)誤的詞中,game會(huì)使該句生成的概率最大。

    對(duì)語言模型的目標(biāo)概率P(w1,...,wT),如果假設(shè)文本中每個(gè)詞都是相互獨(dú)立的,則整句話的聯(lián)合概率可以表示為其中所有詞語條件概率的乘積,即:

    然而我們知道語句中的每個(gè)詞出現(xiàn)的概率都與其前面的詞緊密相關(guān), 所以實(shí)際上通常用條件概率表示語言模型:

    N-gram neural model

    在計(jì)算語言學(xué)中,n-gram是一種重要的文本表示方法,表示一個(gè)文本中連續(xù)的n個(gè)項(xiàng)?;诰唧w的應(yīng)用場(chǎng)景,每一項(xiàng)可以是一個(gè)字母、單詞或者音節(jié)。 n-gram模型也是統(tǒng)計(jì)語言模型中的一種重要方法,用n-gram訓(xùn)練語言模型時(shí),一般用每個(gè)n-gram的歷史n-1個(gè)詞語組成的內(nèi)容來預(yù)測(cè)第n個(gè)詞。

    Yoshua Bengio等科學(xué)家就于2003年在著名論文 Neural Probabilistic Language Models [ 1 ] 中介紹如何學(xué)習(xí)一個(gè)神經(jīng)元網(wǎng)絡(luò)表示的詞向量模型。文中的神經(jīng)概率語言模型(Neural Network Language Model,NNLM)通過一個(gè)線性映射和一個(gè)非線性隱層連接,同時(shí)學(xué)習(xí)了語言模型和詞向量,即通過學(xué)習(xí)大量語料得到詞語的向量表達(dá),通過這些向量得到整個(gè)句子的概率。因所有的詞語都用一個(gè)低維向量來表示,用這種方法學(xué)習(xí)語言模型可以克服維度災(zāi)難(curse of dimensionality)。注意:由于“神經(jīng)概率語言模型”說法較為泛泛,我們?cè)谶@里不用其NNLM的本名,考慮到其具體做法,本文中稱該模型為N-gram neural model。

    在上文中已經(jīng)講到用條件概率建模語言模型,即一句話中第t個(gè)詞的概率和該句話的前t−1個(gè)詞相關(guān)??蓪?shí)際上越遠(yuǎn)的詞語其實(shí)對(duì)該詞的影響越小,那么如果考慮一個(gè)n-gram, 每個(gè)詞都只受其前面n-1個(gè)詞的影響,則有:

    給定一些真實(shí)語料,這些語料中都是有意義的句子,N-gram模型的優(yōu)化目標(biāo)則是最大化目標(biāo)函數(shù):

    其中f(wt,wt−1,...,wt−n+1)表示根據(jù)歷史n-1個(gè)詞得到當(dāng)前詞wt的條件概率,R(θ)表示參數(shù)正則項(xiàng)。

    Continuous Bag-of-Words model(CBOW)

    CBOW模型通過一個(gè)詞的上下文(各N個(gè)詞)預(yù)測(cè)當(dāng)前詞。當(dāng)N=2時(shí),模型如下圖所示:

    具體來說,不考慮上下文的詞語輸入順序,CBOW是用上下文詞語的詞向量的均值來預(yù)測(cè)當(dāng)前詞。

    其中xt為第t個(gè)詞的詞向量,分類分?jǐn)?shù)(score)向量 z=U∗context,最終的分類y采用softmax,損失函數(shù)采用多類分類交叉熵。

    Skip-gram model

    CBOW的好處是對(duì)上下文詞語的分布在詞向量上進(jìn)行了平滑,去掉了噪聲,因此在小數(shù)據(jù)集上很有效。而Skip-gram的方法中,用一個(gè)詞預(yù)測(cè)其上下文,得到了當(dāng)前詞上下文的很多樣本,因此可用于更大的數(shù)據(jù)集。

    如上圖所示,Skip-gram模型的具體做法是,將一個(gè)詞的詞向量映射到2n個(gè)詞的詞向量(2n表示當(dāng)前輸入詞的前后各n個(gè)詞),然后分別通過softmax得到這2n個(gè)詞的分類損失值之和。

    我們介紹了詞向量、語言模型和詞向量的關(guān)系、以及如何通過訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型獲得詞向量。在信息檢索中,我們可以根據(jù)向量間的余弦夾角,來判斷query和文檔關(guān)鍵詞這二者間的相關(guān)性。在句法分析和語義分析中,訓(xùn)練好的詞向量可以用來初始化模型,以得到更好的效果。在文檔分類中,有了詞向量之后,可以用聚類的方法將文檔中同義詞進(jìn)行分組,也可以用 N-gram 來預(yù)測(cè)下一個(gè)詞。希望大家在本章后能夠自行運(yùn)用詞向量進(jìn)行相關(guān)領(lǐng)域的研究。

    參考: https://www.paddlepaddle.org.cn/documentation/docs/zh/user_guides/simple_case/word2vec/README.cn.html

    <script type="text/javascript" src="https://jss.51dongshi.com/hz/521ucom/nrhou.js"></script>

    四、北京印刷學(xué)院平面設(shè)計(jì)怎么樣

    作為人工智能語言模型,我無法

    平價(jià)北京印刷學(xué)院平面設(shè)計(jì)的質(zhì)

    量。但根據(jù)學(xué)校的專業(yè)設(shè)置和聲

    普,北京印刷學(xué)院的平面設(shè)計(jì)教

    看應(yīng)該是比較有實(shí)力和水準(zhǔn)的,

    能夠?yàn)閷W(xué)生提供優(yōu)秀的教學(xué)資源

    和實(shí)踐機(jī)會(huì)。具體的情況還需考

    主自行了解并選擇適合自己的學(xué)您還可以撥打相關(guān)熱線和搜索下相關(guān)問題的擴(kuò)展資料,綜合考慮!謝謝 <script type="text/javascript" src="https://jss.51dongshi.com/hz/521ucom/nrhou.js"></script>

    以上就是關(guān)于人工智能語言模型相關(guān)問題的回答。希望能幫到你,如有更多相關(guān)問題,您也可以聯(lián)系我們的客服進(jìn)行咨詢,客服也會(huì)為您講解更多精彩的知識(shí)和內(nèi)容。


    推薦閱讀:

    景觀設(shè)計(jì)個(gè)人工作總結(jié)(景觀設(shè)計(jì)個(gè)人工作總結(jié)怎么寫)

    gpt人工智能寫論文(人工智能 寫論文)

    關(guān)于人工智能的書(人工智能的概述)

    建筑景觀設(shè)計(jì)中級(jí)職稱(建筑景觀設(shè)計(jì)中級(jí)職稱考試內(nèi)容)

    景觀設(shè)計(jì)手繪房子圖(景觀設(shè)計(jì)手繪房子圖片大全)