欧洲精品久久久av无码电影,日日噜噜夜夜爽爽,精品无码国产自产拍在线观看蜜,人妻少妇被粗大爽9797pw,羞国产在线拍揄自揄视频,国产白嫩漂亮美女在线观看,天码欧美日本一道免费,av大片在线无码免费

      歡迎來到同城快修-附近家電維修、家電清洗、家電安裝服務平臺

      24小時家電維修熱線:

      400—1558638

      當前位置:主頁 > 熱水器 > 維修資訊 >

      跑分達ChatGPT的99%,人類難以分辨!開源「原駝」大模型爆火

      發(fā)布日期:2023-08-04 18:09:50 瀏覽:
      跑分達ChatGPT的99%,人類難以分辨!開源「原駝」大模型爆火

      夢晨 發(fā)自 凹非寺量子位 | 公眾號 QbitAI

      自動測試分數(shù)達到ChatGPT的99.3%,人類難以分辨兩者的回答……

      這是開源大模型最新成果,來自羊駝家族的又一重磅成員——華盛頓大學原駝(Guanaco)。

      更關(guān)鍵的是,與原駝一起提出的新方法QLoRA把微調(diào)大模型的顯存需求從>780GB降低到<48GB。

      開源社區(qū)直接開始狂歡,相關(guān)論文成為24小時內(nèi)關(guān)注度最高的AI論文。

      以Meta的美洲駝LLaMA為基礎,得到原駝650億參數(shù)版只需要48GB顯存單卡微調(diào)24小時,330億參數(shù)版只需要24GB顯存單卡微調(diào)12小時。

      24GB顯存,也就是一塊消費級RTX3090或RTX4090顯卡足以。

      不少網(wǎng)友在測試后也表示,更喜歡它而不是ChatGPT。

      英偉達科學家Jim Fan博士對此評價為:大模型小型化的又一里程碑。

      先擴大規(guī)模再縮小,將成為開源AI社區(qū)的節(jié)奏。

      而新的高效微調(diào)方法QLoRA迅速被開源社區(qū)接受,HuggingFace也在第一時間整合上線了相關(guān)代碼。

      GPT4做裁判,原駝得分達到ChatGPT的99.3%

      論文中,團隊對原駝總共做了三項測試,自動評估、隨機匹配和人類評估。

      測試數(shù)據(jù)來自小羊駝Vicuna和Open Assistant。

      自動評估由大模型天花板GPT4當裁判,對不同模型的回答進行打分,以ChatGPT(GPT3.5)的成績作為100%。

      最終原駝650億版得分達到ChatGPT的99.3%,而GPT4自己的得分是114.5%,谷歌Bard是94.8%。

      隨機匹配,采用棋類專業(yè)比賽和電子競技同款的Elo記分機制,由GPT4和人類共同做裁判。

      原駝650億和330億版最終得分超過ChatGPT(GPT3.5)。

      人類評估,則是把原駝650億版的回答和ChatGPT的回答匿名亂序放在一起,人類來盲選哪個最好。

      論文共同一作表示,研究團隊里的人都很難分辨出來,并把測試做成了一個小游戲放在Colab上,開放給大家挑戰(zhàn)。

      這里節(jié)選其中一個問題(附中文翻譯),你能分辨出哪個是ChatGPT回答的嗎?

      問題:How can I improve my time management skills?(如何提高時間管理技能?)

      (完整測試地址在文末)

      總的來說,原駝的優(yōu)勢在于不容易被問題中的錯誤信息誤導,比如能指出地球從來沒有被科學界認為是平的。

      以及擅長心智理論(Theory of Mind),也就是能推測理解他人的心理狀態(tài)。

      但原駝也并非沒有弱點,團隊發(fā)發(fā)現(xiàn)它不太擅長數(shù)學,以及容易用提示注入攻擊把要求保密的信息從它嘴里套出來。

      也有網(wǎng)友表示,雖然一個模型能在某個數(shù)據(jù)集上無限接近ChatGPT,但像ChatGPT那樣通用還是很難的。

      全新方法QLoRA,iPhone都能微調(diào)大模型了

      原駝論文的核心貢獻是提出新的微調(diào)方法QLoRA。

      其中Q代表量化(Quantization),用低精度數(shù)據(jù)類型去逼近神經(jīng)網(wǎng)絡中的高精度浮點數(shù),以提高運算效率。

      LoRA是微軟團隊在2021年提出的低秩適應(LowRank Adaptation)高效微調(diào)方法,LoRA后來被移植到AI繪畫領域更被大眾熟知,但最早其實就是用于大語言模型的。

      通常來說,LoRA微調(diào)與全量微調(diào)相比效果會更差,但團隊將LoRA添加到所有的線性層解決了這個問題。

      具體來說,QLoRA結(jié)合了4bit量化和LoRA,以及團隊新創(chuàng)的三個技巧:新數(shù)據(jù)類型4bit NormalFloat、分頁優(yōu)化器(Paged Optimizers)和雙重量化(Double Quantization)。

      最終QLoRA讓4bit的原駝在所有場景和規(guī)模的測試中匹配16bit的性能。

      QLoRA的高效率,讓團隊在華盛頓大學的小型GPU集群上每天可以微調(diào)LLaMA 100多次……

      最終使用Open Assistant數(shù)據(jù)集微調(diào)的版本性能勝出,成為原駝大模型。

      Open Assistant數(shù)據(jù)集來自非盈利研究組織LAION(訓練Stable Diffusion的數(shù)據(jù)集也來自這里),雖然只有9000個樣本但質(zhì)量很高,經(jīng)過開源社區(qū)的人工仔細驗證。

      這9000條樣本用于微調(diào)大模型,比100萬條指令微調(diào)(Instruction Finetune)樣本的谷歌FLAN v2效果還好。

      研究團隊也據(jù)此提出兩個關(guān)鍵結(jié)論:

      • 數(shù)據(jù)質(zhì)量 >> 數(shù)據(jù)數(shù)量
      • 指令微調(diào)有利于推理,但不利于聊天

      最后,QLoRA的高效率,還意味著可以用在手機上,論文共同一作Tim Dettmers估計以iPhone 12 Plus的算力每個晚上能微調(diào)300萬個單詞的數(shù)據(jù)量。

      這意味著,很快手機上的每個App都能用上專用大模型。

      論文:https://arxiv.org/abs/2305.14314

      GitHub:https://github.com/artidoro/qlora

      與ChatGPT對比測試:https://colab.research.google.com/drive/1kK6xasHiav9nhiRUJjPMZb4fAED4qRHb

      330億參數(shù)版在線試玩:https://huggingface.co/spaces/uwnlp/guanacoplaygroundtgi

      參考鏈接:[1]https://twitter.com/Tim_Dettmers/status/1661379376225697794[2]https://huggingface.co/blog/4bittransformersbitsandbytes

      — 完 —

      量子位 QbitAI · 頭條號簽約

      關(guān)注我們,第一時間獲知前沿科技動態(tài)

      主站蜘蛛池模板: 福利在线免费观看| 精品亚洲国产成人av不卡| 成人亚洲精品777777ww| 熟女精品视频一区二区三区| 色欲综合久久躁天天躁蜜桃| 亚洲人在线视频| 秋霞午夜| 波多野结衣中文字幕一区二区| 天天躁日日躁狠狠躁一区| 91超碰在线| www天天干| 国产a√精品区二区三区四区| 成人三级视频在线观看不卡| 日日夜夜国产| 乱人伦xxxx国语对白| 粗大挺进尤物人妻中文字幕 | 永久无码天堂网小说区| 亚洲精品国产精品国产自2022| 日韩免费一区二区三区| 欧美一区二区日韩| 玩弄中年熟妇正在播放| 色先锋玖玖av资源部| 摸丰满大乳奶水www免费| 亚洲老妈激情一区二区三区| 久久中文字幕无码中文字幕有码| 九九热在线观看视频| 午夜一级黄色片| 亚欧免费无码aⅴ在线观看| 国产午夜福利伦理300| 精品av一区二区| 在线综合亚洲欧美网站| 亚洲成在人线天堂网站| 国产91精品看黄网站在线观看| 一本到免费视频| 亚洲精品午夜国产va久久成人 | 老头边吃奶边弄进去呻吟| 久久香蕉国产线看观看导航| 51精品国自产在线| 精品久久人人做爽综合| 国产 麻豆 日韩 欧美 久久| av片在线观看|