HOME 首頁
SERVICE 服務(wù)產(chǎn)品
XINMEITI 新媒體代運(yùn)營
CASE 服務(wù)案例
NEWS 熱點(diǎn)資訊
ABOUT 關(guān)于我們
CONTACT 聯(lián)系我們
創(chuàng)意嶺
讓品牌有溫度、有情感
專注品牌策劃15年

    gpt3文章生成器(gpt2文章生成器)

    發(fā)布時(shí)間:2023-03-12 14:45:41     稿源: 創(chuàng)意嶺    閱讀: 116        問大家

    大家好!今天讓創(chuàng)意嶺的小編來大家介紹下關(guān)于gpt3文章生成器的問題,以下是小編對此問題的歸納整理,讓我們一起來看看吧。

    ChatGPT國內(nèi)免費(fèi)在線使用,能給你生成想要的原創(chuàng)文章、方案、文案、工作計(jì)劃、工作報(bào)告、論文、代碼、作文、做題和對話答疑等等

    你只需要給出你的關(guān)鍵詞,它就能返回你想要的內(nèi)容,越精準(zhǔn),寫出的就越詳細(xì),有微信小程序端、在線網(wǎng)頁版、PC客戶端,官網(wǎng):https://ai.de1919.com

    本文目錄:

    gpt3文章生成器(gpt2文章生成器)

    一、chatg中文版怎么下載正版

    在“蘿卜家園”下載。

    chatg中文版可以在“蘿卜家園”下載,網(wǎng)頁搜索“蘿卜家園”,進(jìn)入首頁搜索“chatg中文版”即可。

    chatg中文版下載步驟:1、下載插件,復(fù)制官網(wǎng)鏈接,點(diǎn)擊Chrome瀏覽器搜索即可。2、在右上角打開【開發(fā)者模式】,選擇【加載已解壓的擴(kuò)展程序】。3、第二步選擇解壓的文件夾,回到ChatGPT,打開 search on the Web。

    二、chatgpt都有哪些開放接口

    ChatGPT開放接口:

    1、歷史聊天紀(jì)錄查詢接口:用戶可以在已有記錄基礎(chǔ)上重新定制聊天模式,并且通過查詢接口查看聊天歷史紀(jì)錄。

    2、聊天機(jī)器人學(xué)習(xí)接口:用戶可以通過這個(gè)接口向ChatGPT學(xué)習(xí)語言知識(shí),將其應(yīng)用于聊天中。

    3、聊天機(jī)器人行為控制接口:用戶可以通過此接口來控制聊天機(jī)器人的行為,比如限制聊天內(nèi)容、回答方式等。

    4、回復(fù)結(jié)果分類接口:用戶可以通過此接口根據(jù)不同類型的問題自動(dòng)定義回復(fù)結(jié)果,以便更快的響應(yīng)用戶的需求。

    5、輸入內(nèi)容監(jiān)測接口:用戶可以通過此接口立即檢測聊天內(nèi)容是否違反了法規(guī)或聊天規(guī)則,并及時(shí)作出更改。

    三、PyTorch生成3D模型

    本文將介紹如何利用深度學(xué)習(xí)技術(shù)生成3D模型,使用了PyTorch和PolyGen。

    有一個(gè)新興的深度學(xué)習(xí)研究領(lǐng)域?qū)W⒂趯?DL 技術(shù)應(yīng)用于 3D 幾何和計(jì)算機(jī)圖形應(yīng)用程序,這一長期研究的集合證明了這一點(diǎn)。對于希望自己嘗試一些 3D 深度學(xué)習(xí)的 PyTorch 用戶,Kaolin 庫值得研究。對于 TensorFlow 用戶,還有TensorFlow Graphics。一個(gè)特別熱門的子領(lǐng)域是 3D 模型的生成。創(chuàng)造性地組合 3D 模型、從圖像快速生成 3D 模型以及為其他機(jī)器學(xué)習(xí)應(yīng)用程序和模擬創(chuàng)建合成數(shù)據(jù)只是 3D 模型生成的無數(shù)用例中的一小部分。

    然而,在 3D 深度學(xué)習(xí)研究領(lǐng)域,為你的數(shù)據(jù)選擇合適的表示是成功的一半。在計(jì)算機(jī)視覺中,數(shù)據(jù)的結(jié)構(gòu)非常簡單:圖像由密集的像素組成,這些像素整齊均勻地排列成精確的網(wǎng)格。3D 數(shù)據(jù)的世界沒有這種一致性。3D 模型可以表示為體素、點(diǎn)云、網(wǎng)格、多視圖圖像集等。這些輸入表示也都有自己的一組缺點(diǎn)。例如,體素盡管計(jì)算成本很高,但輸出分辨率很低。點(diǎn)云不編碼表面或其法線的概念,因此不能僅從點(diǎn)云唯一地推斷出拓?fù)?。網(wǎng)格也不對拓?fù)溥M(jìn)行唯一編碼,因?yàn)槿魏尉W(wǎng)格都可以細(xì)分以產(chǎn)生相似的表面。PolyGen,一種用于網(wǎng)格的神經(jīng)生成模型,它聯(lián)合估計(jì)模型的面和頂點(diǎn)以直接生成網(wǎng)格。DeepMind GitHub 上提供了官方實(shí)現(xiàn)。

    現(xiàn)在經(jīng)典的PointNet論文為點(diǎn)云數(shù)據(jù)建模提供了藍(lán)圖,例如 3D 模型的頂點(diǎn)。它是一種通用算法,不對 3D 模型的面或占用進(jìn)行建模,因此無法單獨(dú)使用 PointNet 生成獨(dú)特的防水網(wǎng)格。3D-R2N2采用的體素方法將我們都熟悉的 2D 卷積擴(kuò)展到 3D,并自然地從 RGB 圖像生成防水網(wǎng)格。然而,在更高的空間分辨率下,體素表示的計(jì)算成本很高,有效地限制了它可以產(chǎn)生的網(wǎng)格的大小。

    Pixel2Mesh可以通過變形模板網(wǎng)格(通常是橢圓體)從單個(gè)圖像預(yù)測 3D 模型的頂點(diǎn)和面。目標(biāo)模型必須與模板網(wǎng)格同胚,因此使用凸模板網(wǎng)格(例如橢圓體)會(huì)在椅子和燈等高度非凸的物體上引入許多假面。拓?fù)湫薷木W(wǎng)絡(luò)(TMN) 通過引入兩個(gè)新階段在 Pixel2Mesh 上進(jìn)行迭代:拓?fù)湫薷碾A段用于修剪會(huì)增加模型重建誤差的錯(cuò)誤面,以及邊界細(xì)化階段以平滑由面修剪引入的鋸齒狀邊界。如果你有興趣,我強(qiáng)烈建議同時(shí)查看AtlasNet和Hierarchical Surface Prediction。

    雖然變形和細(xì)化模板網(wǎng)格的常用方法表現(xiàn)良好,但它始于對模型拓?fù)涞闹饕僭O(shè)。就其核心而言,3D 模型只是 3D 空間中的一組頂點(diǎn),通過各個(gè)面進(jìn)行分組和連接在一起。是否可以避開中間表示并直接預(yù)測這些頂點(diǎn)和面?

    PolyGen 通過將 3D 模型表示為頂點(diǎn)和面的嚴(yán)格排序序列,而不是圖像、體素或點(diǎn)云,對模型生成任務(wù)采取了一種相當(dāng)獨(dú)特的方法。這種嚴(yán)格的排序使他們能夠應(yīng)用基于注意力的序列建模方法來生成 3D 網(wǎng)格,就像 BERT 或 GPT 模型對文本所做的那樣。

    PolyGen 的總體目標(biāo)有兩個(gè):首先為 3D 模型生成一組合理的頂點(diǎn)(可能以圖像、體素或類標(biāo)簽為條件),然后生成一系列面,一個(gè)接一個(gè),連接頂點(diǎn)在一起,并為此模型提供一個(gè)合理的表面。組合模型將網(wǎng)格上的分布 p(M) 表示為兩個(gè)模型之間的聯(lián)合分布:頂點(diǎn)模型 p(V) 表示頂點(diǎn),面模型 p(F|V) 表示以頂點(diǎn)為條件的面。

    頂點(diǎn)模型是一個(gè)解碼器,它試圖預(yù)測以先前標(biāo)記為條件的序列中的下一個(gè)標(biāo)記(并且可選地以圖像、體素字段或類標(biāo)簽為條件)。人臉模型由一個(gè)編碼器和一個(gè)解碼器指針網(wǎng)絡(luò)組成,該網(wǎng)絡(luò)表示頂點(diǎn)序列上的分布。該指針網(wǎng)絡(luò)一次有效地“選擇”一個(gè)頂點(diǎn),以添加到當(dāng)前面序列并構(gòu)建模型的面。該模型以先前的人臉序列和整個(gè)頂點(diǎn)序列為條件。由于 PolyGen 架構(gòu)相當(dāng)復(fù)雜并且依賴于各種概念,因此本文將僅限于頂點(diǎn)模型。

    流行的ShapeNetCore數(shù)據(jù)集中的每個(gè)模型都可以表示為頂點(diǎn)和面的集合。每個(gè)頂點(diǎn)由一個(gè) (x, y, z) 坐標(biāo)組成,該坐標(biāo)描述了 3D 網(wǎng)格中的一個(gè)點(diǎn)。每個(gè)面都是一個(gè)索引列表,指向構(gòu)成該面角的頂點(diǎn)。對于三角形面,此列表長 3 個(gè)索引。對于 n 邊形面,此列表是可變長度的。原始數(shù)據(jù)集非常大,因此為了節(jié)省時(shí)間,我在此處提供了一個(gè)更輕量級的預(yù)處理數(shù)據(jù)集子集供你進(jìn)行實(shí)驗(yàn)。該子集僅包含來自 5 個(gè)形狀類別的模型,并且在轉(zhuǎn)換為 n 邊形后少于 800 個(gè)頂點(diǎn)(如下所述)。

    為了使序列建模方法發(fā)揮作用,數(shù)據(jù)必須以一種受約束的、確定性的方式表示,以盡可能多地消除可變性。出于這個(gè)原因,作者對數(shù)據(jù)集進(jìn)行了一些簡化。首先,他們將所有輸入模型從三角形(連接 3 個(gè)頂點(diǎn)的面)轉(zhuǎn)換為 n 邊形(連接 n 個(gè)頂點(diǎn)的面),使用Blender 的平面抽取修改器合并面。這為相同的拓?fù)涮峁┝烁o湊的表示,并減少了三角剖分中的歧義,因?yàn)榇笮途W(wǎng)格并不總是具有唯一的三角剖分。為了篇幅的緣故,我不會(huì)在這篇文章中討論 Blender 腳本,但有很多資源,包括官方文檔和GitHub 上的這套優(yōu)秀示例,很好地涵蓋了這個(gè)主題。我提供的數(shù)據(jù)集已經(jīng)預(yù)先抽取。

    要繼續(xù)進(jìn)行,請下載此示例 cube.obj 文件。這個(gè)模型是一個(gè)基本的立方體,有 8 個(gè)頂點(diǎn)和 6 個(gè)面。以下簡單代碼片段從單個(gè) .obj 文件中讀取所有頂點(diǎn)。

    其次,頂點(diǎn)首先從它們的 z 軸(在這種情況下為垂直軸)按升序排序,然后是 y 軸,最后是 x 軸。這樣,模型頂點(diǎn)是自下而上表示的。在 vanilla PolyGen 模型中,然后將頂點(diǎn)連接成一維序列向量,對于較大的模型,該向量最終會(huì)得到一個(gè)非常長的序列向量。作者在論文的附錄 E 中描述了一些減輕這種負(fù)擔(dān)的修改。

    要對一系列頂點(diǎn)進(jìn)行排序,我們可以使用字典排序。這與對字典中的單詞進(jìn)行排序時(shí)采用的方法相同。要對兩個(gè)單詞進(jìn)行排序,您將查看第一個(gè)字母,然后如果有平局,則查看第二個(gè)字母,依此類推。對于“aardvark”和“apple”這兩個(gè)詞,第一個(gè)字母是“a”和“a”,所以我們移動(dòng)到第二個(gè)字母“a”和“p”來告訴我“aardvark”在“apple”之前。在這種情況下,我們的“字母”是按順序排列的 z、y 和 x 坐標(biāo)。

    最后,頂點(diǎn)坐標(biāo)被歸一化,然后被量化以將它們轉(zhuǎn)換為離散的 8 位值。這種方法已在像素遞歸神經(jīng)網(wǎng)絡(luò)和WaveNet中用于對音頻信號進(jìn)行建模,使它們能夠?qū)旤c(diǎn)值施加分類分布。在最初的WaveNet論文中,作者評論說“分類分布更靈活,并且可以更容易地對任意分布進(jìn)行建模,因?yàn)樗粚λ鼈兊男螤钭鋈魏渭僭O(shè)?!?這種質(zhì)量對于建模復(fù)雜的依賴關(guān)系很重要,例如 3D 模型中頂點(diǎn)之間的對稱性。

    頂點(diǎn)模型由一個(gè)解碼器網(wǎng)絡(luò)組成,它具有變壓器模型的所有標(biāo)準(zhǔn)特征:輸入嵌入、18 個(gè)變壓器解碼器層的堆棧、層歸一化,最后是在所有可能的序列標(biāo)記上表示的 softmax 分布。給定一個(gè)長度為 N 的扁平頂點(diǎn)序列 Vseq ,其目標(biāo)是在給定模型參數(shù)的情況下最大化數(shù)據(jù)序列的對數(shù)似然:

    與 LSTM 不同的是,transformer 模型能夠以并行方式處理順序輸入,同時(shí)仍使來自序列一部分的信息能夠?yàn)榱硪徊糠痔峁┥舷挛摹_@一切都?xì)w功于他們的注意力模塊。3D 模型的頂點(diǎn)包含各種對稱性和遠(yuǎn)點(diǎn)之間的復(fù)雜依賴關(guān)系。例如,考慮一個(gè)典型的桌子,其中模型對角的腿是彼此的鏡像版本。注意力模塊允許對這些類型的模式進(jìn)行建模。

    嵌入層是序列建模中用于將有限數(shù)量的標(biāo)記轉(zhuǎn)換為特征集的常用技術(shù)。在語言模型中,“國家”和“民族”這兩個(gè)詞的含義可能非常相似,但與“蘋果”這個(gè)詞卻相距甚遠(yuǎn)。當(dāng)單詞用唯一的標(biāo)記表示時(shí),就沒有相似性或差異性的固有概念。嵌入層將這些標(biāo)記轉(zhuǎn)換為矢量表示,可以對有意義的距離感進(jìn)行建模。

    PolyGen 將同樣的原理應(yīng)用于頂點(diǎn)。該模型使用三種類型的嵌入層:坐標(biāo)表示輸入標(biāo)記是 x、y 還是 z 坐標(biāo),值表示標(biāo)記的值,以及位置編碼頂點(diǎn)的順序。每個(gè)都向模型傳達(dá)有關(guān)令牌的一條信息。由于我們的頂點(diǎn)一次在一個(gè)軸上輸入,坐標(biāo)嵌入為模型提供了基本的坐標(biāo)信息,讓它知道給定值對應(yīng)的坐標(biāo)類型。

    值嵌入對我們之前創(chuàng)建的量化頂點(diǎn)值進(jìn)行編碼。我們還需要一些序列控制點(diǎn):額外的開始和停止標(biāo)記分別標(biāo)記序列的開始和結(jié)束,并將標(biāo)記填充到最大序列長度。

    由于并行化而丟失的給定序列位置 n的位置信息通過位置嵌入來恢復(fù)。 也可以使用位置編碼,一種不需要學(xué)習(xí)的封閉形式的表達(dá)。在經(jīng)典的 Transformer 論文“ Attention Is All You Need ”中,作者定義了一種由不同頻率的正弦和余弦函數(shù)組成的位置編碼。他們通過實(shí)驗(yàn)確定位置嵌入的性能與位置編碼一樣好,但編碼的優(yōu)勢在于比訓(xùn)練中遇到的序列更長。有關(guān)位置編碼的出色視覺解釋,請查看此博客文章。

    生成所有這些標(biāo)記序列后,最后要做的是創(chuàng)建一些嵌入層并將它們組合起來。每個(gè)嵌入層都需要知道期望的輸入字典的大小和輸出的嵌入維度。每層的嵌入維數(shù)為 256,這意味著我們可以將它們與加法相結(jié)合。字典大小取決于輸入可以具有的唯一值的數(shù)量。對于值嵌入,它是量化值的數(shù)量加上控制標(biāo)記的數(shù)量。對于坐標(biāo)嵌入,對于每個(gè)坐標(biāo) x、y 和 z,它是一個(gè),對于上述任何一個(gè)(控制標(biāo)記)都不是一個(gè)。最后,位置嵌入對于每個(gè)可能的位置或最大序列長度都需要一個(gè)。

    PolyGen 還廣泛使用無效預(yù)測掩碼來確保其生成的頂點(diǎn)和面部序列編碼有效的 3D 模型。例如,必須強(qiáng)制執(zhí)行諸如“z 坐標(biāo)不遞減”和“停止標(biāo)記只能出現(xiàn)在完整頂點(diǎn)(z、y 和 x 標(biāo)記的三元組)之后”之類的規(guī)則,以防止模型產(chǎn)生無效的網(wǎng)格. 作者在論文的附錄 F 中提供了他們使用的掩蔽的廣泛列表。這些約束僅在預(yù)測時(shí)強(qiáng)制執(zhí)行,因?yàn)樗鼈儗?shí)際上會(huì)損害訓(xùn)練性能。

    與許多序列預(yù)測模型一樣,該模型是自回歸的,這意味著給定時(shí)間步的輸出是下一個(gè)時(shí)間步的可能值的分布。整個(gè)序列一次預(yù)測一個(gè)標(biāo)記,模型在每一步都會(huì)查看先前時(shí)間步驟中的所有標(biāo)記以選擇其下一個(gè)標(biāo)記。解碼策略決定了它如何從這個(gè)分布中選擇下一個(gè)Token。

    如果使用次優(yōu)解碼策略,生成模型有時(shí)會(huì)陷入重復(fù)循環(huán)或產(chǎn)生質(zhì)量較差的序列。我們都看到生成的文本看起來像是胡說八道。PolyGen 采用稱為 核采樣 的解碼策略來生成高質(zhì)量序列。原始論文在文本生成上下文中應(yīng)用了這種方法,但它也可以應(yīng)用于頂點(diǎn)。前提很簡單:僅從 softmax 分布中共享 top-p 概率質(zhì)量的標(biāo)記中隨機(jī)抽取下一個(gè)標(biāo)記。這在推理時(shí)應(yīng)用以生成網(wǎng)格,同時(shí)避免序列退化。有關(guān)核采樣的 PyTorch 實(shí)現(xiàn),請參閱此要點(diǎn)。

    除了無條件生成模型外,PolyGen 還支持使用類標(biāo)簽、圖像和體素進(jìn)行輸入調(diào)節(jié)。這些可以指導(dǎo)生成具有特定類型、外觀或形狀的網(wǎng)格。類標(biāo)簽通過嵌入投影,然后添加到每個(gè)注意力塊中的自注意力層之后。對于圖像和體素,編碼器創(chuàng)建一組嵌入,然后用于與轉(zhuǎn)換器解碼器的交叉注意。

    PolyGen 模型描述了一個(gè)強(qiáng)大、高效和靈活的框架,用于有條件地生成 3D 網(wǎng)格。序列生成可以在各種條件和輸入類型下完成,從圖像到體素到簡單的類標(biāo)簽,甚至只是一個(gè)起始標(biāo)記。表示網(wǎng)格頂點(diǎn)分布的頂點(diǎn)模型只是聯(lián)合分布難題的一部分。我打算在以后的文章中介紹面部模型。同時(shí),我鼓勵(lì)你查看DeepMind 的 TensorFlow 實(shí)現(xiàn),并嘗試生成條件模型!

    原文鏈接:http://www.bimant.com/blog/polygen-3d-models/

    四、gpt3.0和3.5區(qū)別

    1. GPT3.0 是一種開放式自然語言處理技術(shù),用于從龐大的文本數(shù)據(jù)庫中學(xué)習(xí)特定行為或語言特性,允許計(jì)算機(jī)通過使用自然語言進(jìn)行自主活動(dòng)。GPT3.5是基于GPT3.0的升級版本,采用的是以模型及數(shù)據(jù)集的方式提升數(shù)據(jù)量的算法。

    2. GPT3.0 集成了許多基于深度學(xué)習(xí)的自然語言處理技術(shù),例如句法分析,語義理解,語料庫建模,預(yù)測等。GPT3.5利用超過100種技術(shù)來構(gòu)建模型和使用超過7個(gè)數(shù)據(jù)集來改善模型,提升模型精度。

    3. GPT3.0 的語料庫覆蓋了超過40億個(gè)句子,基本上涵蓋了所有領(lǐng)域,而GPT3.5擴(kuò)大了語料庫的規(guī)模,擴(kuò)大到八十億個(gè)句子,其語料庫覆蓋的范圍也更全面。

    4. GPT3.0 單次發(fā)送的文本數(shù)量較少,而GPT3.5可以處理千萬級以上的文本,可以在短時(shí)間內(nèi)完成更多任務(wù)。

    以上就是關(guān)于gpt3文章生成器相關(guān)問題的回答。希望能幫到你,如有更多相關(guān)問題,您也可以聯(lián)系我們的客服進(jìn)行咨詢,客服也會(huì)為您講解更多精彩的知識(shí)和內(nèi)容。


    推薦閱讀:

    chatGPT的英文(chat的英文翻譯)

    如何用chatGPT(chatGPT)

    chatGPT寫代碼一半不寫了(寫代碼一直出錯(cuò)怎么辦)

    居住區(qū)景觀設(shè)計(jì)文本(居住區(qū)景觀設(shè)計(jì)內(nèi)容)

    會(huì)議公司(會(huì)議公司經(jīng)營范圍)