<ruby id="zpo55"></ruby>
  1. <mark id="zpo55"></mark>
    <ruby id="zpo55"><video id="zpo55"></video></ruby>

    <progress id="zpo55"></progress>
    <mark id="zpo55"></mark>
      <strong id="zpo55"></strong>

    1. 資訊> 正文

      阿里云推出大規模視覺(jué)語(yǔ)言模型Qwen-VL 已在ModeScope開(kāi)源

      時(shí)間: 2023-08-28 12:15:06 來(lái)源: 漾仔


      【資料圖】

      阿里云推出了大規模視覺(jué)語(yǔ)言模型Qwen-VL,目前已經(jīng)在ModeScope開(kāi)源,IT之家早前曾報道,阿里云此前已經(jīng)開(kāi)源通義千問(wèn)70 億參數通用模型Qwen-7B和對話(huà)模型Qwen-7B-Chat。

      據悉,Qwen-VL是一款支持中英文等多種語(yǔ)言的視覺(jué)語(yǔ)言(Vision Language,VL)模型,相較于此前的VL模型,其除了具備基本的圖文識別、描述、問(wèn)答及對話(huà)能力之外,還新增了視覺(jué)定位、圖像中文字理解等能力。

      Qwen-VL以Qwen-7B為基座語(yǔ)言模型,在模型架構上引入視覺(jué)編碼器,使得模型支持視覺(jué)信號輸入,該模型支持的圖像輸入分辨率為 448,此前開(kāi)源的LVLM模型通常僅支持224分辨率。

      官方表示,該模型可用于知識問(wèn)答、圖像標題生成、圖像問(wèn)答、文檔問(wèn)答、細粒度視覺(jué)定位等場(chǎng)景,在主流的多模態(tài)任務(wù)評測和多模態(tài)聊天能力評測中,取得了遠超同等規模通用模型的表現。

      此外,在Qwen-VL的基礎上,通義千問(wèn)團隊使用對齊機制,打造了基于LLM的視覺(jué)AI助手Qwen-VL-Chat,可讓開(kāi)發(fā)者快速搭建具備多模態(tài)能力的對話(huà)應用。

      通義千問(wèn)團隊同時(shí)表示,為了測試模型的多模態(tài)對話(huà)能力,他們構建了一套基于GPT-4打分機制的測試集 “試金石”,對Qwen-VL-Chat及其他模型進(jìn)行對比測試,Qwen-VL-Chat在中英文的對齊評測中均取得了開(kāi)源LVLM最好結果。

      責任編輯:李楠

      分享到:版權聲明:凡注明來(lái)源“流媒體網(wǎng)”的文章,版權均屬流媒體網(wǎng)所有,轉載需注明出處。非本站出處的文章為轉載,觀(guān)點(diǎn)供業(yè)內參考,不代表本站觀(guān)點(diǎn)。文中圖片均來(lái)源于網(wǎng)絡(luò )收集整理,僅供學(xué)習交流,版權歸原作者所有。如涉及侵權,請及時(shí)聯(lián)系我們刪除!

      關(guān)鍵詞:

      責任編輯:QL0009

      為你推薦

      關(guān)于我們| 聯(lián)系我們| 投稿合作| 法律聲明| 廣告投放

      版權所有 © 2020 跑酷財經(jīng)網(wǎng)

      所載文章、數據僅供參考,使用前務(wù)請仔細閱讀網(wǎng)站聲明。本站不作任何非法律允許范圍內服務(wù)!

      聯(lián)系我們:315 541 185@qq.com

      精品成人精品无码区_欧亚乱色熟女一区二区_91在线精品国产丝袜超清_色欲久久久久综合网
      <ruby id="zpo55"></ruby>
      1. <mark id="zpo55"></mark>
        <ruby id="zpo55"><video id="zpo55"></video></ruby>

        <progress id="zpo55"></progress>
        <mark id="zpo55"></mark>
          <strong id="zpo55"></strong>