<em id="j92nq"><tr id="j92nq"></tr></em>

    <rp id="j92nq"><object id="j92nq"><input id="j92nq"></input></object></rp>

      <dd id="j92nq"></dd>

        <dd id="j92nq"><big id="j92nq"></big></dd>

        1. 廈門軟件定制開發、小程序開發、APP開發、網站建設、大尋網絡公司為您服務!

          電話電話:0592-5786385/13850021717
          微信咨詢
          咨詢熱線0592-5786385 13850021717
          新聞中心

          ChatGPT產業未來

          軟件開發日期:2023-02-03

          5,ChatGPT的未來改進方向


          5.1 減少人類反饋的RLAIF

          2020年底,OpenAI前研究副總裁Dario Amodei帶著10名員工創辦了一個人工智能公司Anthropic。Anthropic 的創始團隊成員,大多為 OpenAI 的早期及核心員工,參與過OpenAI的GPT-3、多模態神經元、人類偏好的強化學習等。


          2022年12月,Anthropic再次發表論文《Constitutional AI: Harmlessness from AI Feedback》介紹人工智能模型Claude。(arxiv.org/pdf/2212.0807)



          CAI模型訓練過程


          Claude 和 ChatGPT 都依賴于強化學習(RL)來訓練偏好(preference)模型。CAI(Constitutional AI)也是建立在RLHF的基礎之上,不同之處在于,CAI的排序過程使用模型(而非人類)對所有生成的輸出結果提供一個初始排序結果。


          CAI用人工智能反饋來代替人類對表達無害性的偏好,即RLAIF,人工智能根據一套constitution原則來評價回復內容。



          5.2 補足數理短板

          ChatGPT雖然對話能力強,但是在數理計算對話中容易出現一本正經胡說八道的情況。


          計算機學家Stephen Wolfram 為這一問題提出了解決方案。Stephen Wolfram 創造了的 Wolfram 語言和計算知識搜索引擎 Wolfram | Alpha,其后臺通過Mathematica實現。



          ChatGPT與Wolfram | Alpha結合處理梳理問題


          在這一結合體系中,ChatGPT 可以像人類使用 Wolfram|Alpha 一樣,與 Wolfram|Alpha “對話”,Wolfram|Alpha 則會用其符號翻譯能力將從 ChatGPT 獲得的自然語言表達“翻譯”為對應的符號化計算語言。在過去,學術界在 ChatGPT 使用的這類 “統計方法” 和 Wolfram|Alpha 的 “符號方法” 上一直存在路線分歧。但如今 ChatGPT 和 Wolfram|Alpha 的互補,給NLP領域提供了更上一層樓的可能。


          ChatGPT 不必生成這樣的代碼,只需生成常規自然語言,然后使用 Wolfram|Alpha 翻譯成精確的 Wolfram Language,再由底層的Mathematica進行計算。


          5.3 ChatGPT的小型化

          雖然ChatGPT很強大,但其模型大小和使用成本也讓很多人望而卻步。


          有三類模型壓縮(model compression)可以降低模型的大小和成本。


          第一種方法是量化(quantization),即降低單個權重的數值表示的精度。比如Tansformer從FP32降到INT8對其精度影響不大。


          第二種模型壓縮方法是剪枝(pruning),即刪除網絡元素,包括從單個權重(非結構化剪枝)到更高粒度的組件如權重矩陣的通道。這種方法在視覺和較小規模的語言模型中有效。


          第三種模型壓縮方法是稀疏化。例如奧地利科學技術研究所 (ISTA)提出的SparseGPT (arxiv.org/pdf/2301.0077)可以將 GPT 系列模型單次剪枝到 50% 的稀疏性,而無需任何重新訓練。對 GPT-175B 模型,只需要使用單個 GPU 在幾個小時內就能實現這種剪枝。



          SparseGPT 壓縮流程


          6 ChatGPT的產業未來與投資機會

          6.1 AIGC

          說到ChaGPT不得不提AIGC。


          AIGC即利用人工智能技術來生成內容。與此前Web1.0、Web2.0時代的UGC(用戶生產內容)和PGC(專業生產內容)相比,代表人工智能構思內容的AIGC,是新一輪內容生產方式變革,而且AIGC內容在Web3.0時代也將出現指數級增長。


          ChatGPT 模型的出現對于文字/語音模態的 AIGC 應用具有重要意義,會對AI產業上下游產生重大影響。


          6.2 受益場景

          從下游相關受益應用來看,包括但不限于無代碼編程、小說生成、對話類搜索引擎、語音陪伴、語音工作助手、對話虛擬人、人工智能客服、機器翻譯、芯片設計等。從上游增加需求來看,包括算力芯片、數據標注、自然語言處理(NLP)等。



          大模型呈爆發態勢(更多的參數/更大的算力芯片需求)


          隨著算法技術和算力技術的不斷進步,ChatGPT也會進一步走向更先進功能更強的版本,在越來越多的領域進行應用,為人類生成更多更美好的對話和內容


          關鍵詞:ChatGPT產業未來  

          多一份咨詢,總有益處

          專業項目經理為你解答問題,咨詢問題或預約面談

          立即咨詢
          大尋網絡
          新聞中心

          ChatGPT產業未來

          軟件開發日期:2023-02-03

          5,ChatGPT的未來改進方向


          5.1 減少人類反饋的RLAIF

          2020年底,OpenAI前研究副總裁Dario Amodei帶著10名員工創辦了一個人工智能公司Anthropic。Anthropic 的創始團隊成員,大多為 OpenAI 的早期及核心員工,參與過OpenAI的GPT-3、多模態神經元、人類偏好的強化學習等。


          2022年12月,Anthropic再次發表論文《Constitutional AI: Harmlessness from AI Feedback》介紹人工智能模型Claude。(arxiv.org/pdf/2212.0807)



          CAI模型訓練過程


          Claude 和 ChatGPT 都依賴于強化學習(RL)來訓練偏好(preference)模型。CAI(Constitutional AI)也是建立在RLHF的基礎之上,不同之處在于,CAI的排序過程使用模型(而非人類)對所有生成的輸出結果提供一個初始排序結果。


          CAI用人工智能反饋來代替人類對表達無害性的偏好,即RLAIF,人工智能根據一套constitution原則來評價回復內容。



          5.2 補足數理短板

          ChatGPT雖然對話能力強,但是在數理計算對話中容易出現一本正經胡說八道的情況。


          計算機學家Stephen Wolfram 為這一問題提出了解決方案。Stephen Wolfram 創造了的 Wolfram 語言和計算知識搜索引擎 Wolfram | Alpha,其后臺通過Mathematica實現。



          ChatGPT與Wolfram | Alpha結合處理梳理問題


          在這一結合體系中,ChatGPT 可以像人類使用 Wolfram|Alpha 一樣,與 Wolfram|Alpha “對話”,Wolfram|Alpha 則會用其符號翻譯能力將從 ChatGPT 獲得的自然語言表達“翻譯”為對應的符號化計算語言。在過去,學術界在 ChatGPT 使用的這類 “統計方法” 和 Wolfram|Alpha 的 “符號方法” 上一直存在路線分歧。但如今 ChatGPT 和 Wolfram|Alpha 的互補,給NLP領域提供了更上一層樓的可能。


          ChatGPT 不必生成這樣的代碼,只需生成常規自然語言,然后使用 Wolfram|Alpha 翻譯成精確的 Wolfram Language,再由底層的Mathematica進行計算。


          5.3 ChatGPT的小型化

          雖然ChatGPT很強大,但其模型大小和使用成本也讓很多人望而卻步。


          有三類模型壓縮(model compression)可以降低模型的大小和成本。


          第一種方法是量化(quantization),即降低單個權重的數值表示的精度。比如Tansformer從FP32降到INT8對其精度影響不大。


          第二種模型壓縮方法是剪枝(pruning),即刪除網絡元素,包括從單個權重(非結構化剪枝)到更高粒度的組件如權重矩陣的通道。這種方法在視覺和較小規模的語言模型中有效。


          第三種模型壓縮方法是稀疏化。例如奧地利科學技術研究所 (ISTA)提出的SparseGPT (arxiv.org/pdf/2301.0077)可以將 GPT 系列模型單次剪枝到 50% 的稀疏性,而無需任何重新訓練。對 GPT-175B 模型,只需要使用單個 GPU 在幾個小時內就能實現這種剪枝。



          SparseGPT 壓縮流程


          6 ChatGPT的產業未來與投資機會

          6.1 AIGC

          說到ChaGPT不得不提AIGC。


          AIGC即利用人工智能技術來生成內容。與此前Web1.0、Web2.0時代的UGC(用戶生產內容)和PGC(專業生產內容)相比,代表人工智能構思內容的AIGC,是新一輪內容生產方式變革,而且AIGC內容在Web3.0時代也將出現指數級增長。


          ChatGPT 模型的出現對于文字/語音模態的 AIGC 應用具有重要意義,會對AI產業上下游產生重大影響。


          6.2 受益場景

          從下游相關受益應用來看,包括但不限于無代碼編程、小說生成、對話類搜索引擎、語音陪伴、語音工作助手、對話虛擬人、人工智能客服、機器翻譯、芯片設計等。從上游增加需求來看,包括算力芯片、數據標注、自然語言處理(NLP)等。



          大模型呈爆發態勢(更多的參數/更大的算力芯片需求)


          隨著算法技術和算力技術的不斷進步,ChatGPT也會進一步走向更先進功能更強的版本,在越來越多的領域進行應用,為人類生成更多更美好的對話和內容


          關鍵詞:ChatGPT產業未來  

          多一份咨詢,總有益處

          專業項目經理為你解答問題,咨詢問題或預約面談

          電話咨詢:13850021717|

          微信同號

          日韩AV综合一区