<li id="u8eqe"><legend id="u8eqe"></legend></li>
<button id="u8eqe"></button>
  • <table id="u8eqe"></table>
  • <source id="u8eqe"></source>
  • 您當前的位置 :環球傳媒網>健康 > 正文
    小紅書提出 OvarNet 模型:開集預測的新SOTA,“萬物識別”新玩法-焦點資訊
    2023-06-23 14:09:20 來源:量子位 編輯:

    在 CVPR2023 上,小紅書社區技術團隊提出了一項全新任務 —— Open-vocabulary Object Attribute Recognition(面向開放詞匯的目標檢測與屬性識別)。該任務旨在采用單一模型對圖像中任何類別目標同時進行定位、分類和屬性預測,從而推動目標識別能力向更高的深度和廣度發展。


    (資料圖片)

    本文提出了 OvarNet 這一全新模型,OvarNet 基于海量多模態數據預訓練的視覺語言模型開發,利用可獲得的目標檢測和屬性識別數據進行 Prompt Learning(提示式學習)。同時,為了進一步獲得高度可用的 Zero-shot 識別能力,團隊從大規模圖文數據中提取細粒度的類別和屬性表示,進行弱監督學習。此外,小紅書還采用知識蒸餾的方式簡化模型計算復雜度,顯著提升 OvarNet 的實用性和時效性。實驗結果表明,OvarNet 在開集目標檢測和屬性識別任務上取得了新 SOTA,證明了識別語義類別和屬性對于視覺場景理解的互補性。

    理解視覺場景中的目標一直以來都是計算機視覺發展的主要驅動力,例如,目標檢測任務的目的是在圖像中定位出目標并為其分配預定義的語義標簽,如“汽車”、“人”或“杯子”。盡管目標檢測算法取得了巨大的成功,但是這種任務定義在很大程度上簡化了人們對視覺世界的理解,因為一個視覺目標除了語義類別外,還可以從許多其他方面進行描述,例如,一輛公共汽車可以是“黃色”或“黑色”,一件襯衫可以是“條紋”或“無圖案”。因此,學習屬性可以補充類別級別的識別,從而獲得更全面更細粒度的視覺感知。

    已有大量的研究表明,理解目標的屬性可以極大地促進目標識別和檢測,甚至是對在訓練集中極少出現或根本沒有的視覺目標樣例。然而,這些開創性工作中所考慮的問題和今天的標準相去甚遠,例如,屬性分類通常在以目標為中心的圖像上進行訓練和評估,而且屬性的類別是固定的,有時甚至將目標的類別作為已知的先驗。

    在論文中,小紅書社區技術團隊考慮在開放詞匯場景下同時檢測目標并分類屬性的任務,即模型僅在一組可見的目標類別和屬性上進行訓練,但在測試時需要推廣到未見過的目標類別和屬性,如下圖所示。完成這些任務能觀察到三個主要挑戰:(1) 首先,在現有的視覺語言模型中,例如 CLIP 和 ALIGN,從圖文對中學習得到的表示往往偏向于目標類別,而不是屬性,這導致在直接用于屬性識別任務時存在特征不對齊的問題;(2) 其次,沒有理想的訓練數據集同時包含三種類型(目標框、類別和屬性)的標注。據研究人員所知,只有 COCO Attributes 數據集提供這樣程度的標注,但它的詞匯量相對有限 ( 196 個屬性,29 個類別);(3) 第三,在統一框架下訓練這三項任務仍未被探索,具有一定到挑戰性,即在開放詞匯場景下同時定位(“在哪里”)和描述目標的語義類別和屬性(“是什么”)。

    為了解決上述問題,小紅書社區技術團隊從一個簡單的架構開始,稱為 CLIP-Attr。該架構首先通過離線 RPN 從圖像中提取目標候選框,然后通過比較屬性詞嵌入和候選目標的視覺嵌入之間的相似度來實現開放式詞匯目標屬性識別。為了更好地對齊屬性詞和候選目標之間的特征,在文本編碼器端引入可學習的 prompt 向量,并在大量的圖文對數據上微調原始 CLIP 模型。為了進一步提高模型效率,團隊提出了 OvarNet,這是一個統一的框架,可以在一次前向傳播中進行檢測和屬性識別。

    OvarNet 是通過在目標檢測和屬性預測兩個數據集上訓練,并通過蒸餾 CLIP-Attr 模型的知識來提高在 novel/unseen 屬性的性能。小紅書社區技術團隊提出的 OvarNet 是第一個可擴展的管道,在開放詞匯場景下可以同時定位目標,并同時推斷視覺屬性和目標類別。實驗結果表明,盡管只使用弱監督的圖文對數據對 OvarNet 進行蒸餾,但它在 VAW、MSCOCO、LSA 和 OVAD 數據集上的表現優于先前的最新技術,展現了對新屬性和類別的強大泛化能力。

    方法主要分為 3 步:首先,利用目標檢測數據和屬性預測數據在開放詞匯場景下訓練一個簡單的兩階段的方法;然后,通過利用大量的圖文對數據進一步微調這個兩階段模型以提高在 novel/unseen 類別和屬性上的性能;最后,為了保證泛化性和前傳速度,團隊基于知識蒸餾的范式設計了一個一階段的算法。

    2.1 兩階段算法

    作為社交圖譜數據,數據的一致性至關重要。需要嚴格保證數據的最終一致性以及一定場景下的強一致性。為此,小紅書社區技術團隊采取了以下措施:

    作為社交圖譜數據,數據的一致性至關重要。需要嚴格保證數據的最終一致性以及一定場景下的強一致性。為此,團隊采取了以下措施:

    2.2 圖文對數據微調

    首先,對圖文對數據進行預處理,從句子中解析出類別詞、屬性詞、和名詞短語;隨后,使用預訓練的 CLIP-Attr 對數據進行偽標簽標注;最后為了避免噪聲標簽的影響,通過多實例 NCE 損失進行監督訓練。

    下圖給出了利用海量圖文對數據微調 CLIP-Attr 的網絡結構圖。

    2.3 單階段蒸餾算法

    盡管通過預先計算的提議框和上述的 CLIP-Attr 模型可以實現開放詞匯目標屬性預測,但其推理過程非常耗時,因為每一個裁剪后的區域都會輸入到視覺編碼器中。在這一部分,目標是解決緩慢的推理速度,端到端地訓練一個用于目標檢測和屬性預測的 Faster-RCNN 類型的模型,稱為 OvarNet。圖像會被依次經過視覺編碼器、類別無關的區域提議網絡和開放詞匯屬性分類網絡。

    下圖是其整體網絡框架。為了提高模型處理未知類別和屬性的能力,進一步加入了 CLIP-Attr 模型的額外知識進行蒸餾。

    小紅書社區技術團隊考慮的開放詞匯目標屬性識別包括兩個子任務:開放詞匯目標檢測和對所有檢測到的目標進行屬性分類。所采用的數據集有 MS-COCO、VAW、LSA 和 OVAD。為了評估模型的性能,在指標評價上同時考慮 box-given 和 box-free 的設定,使用 mAP 進行評價。

    3.1 COCO 和 VAW 上的結果

    3.2 OVAD 和 LSA 上的結果

    3.3 一些可視化結果

    本文探討了開放詞匯目標檢測和屬性識別問題,即同時定位目標并推斷它們的語義類別和視覺屬性。小紅書社區技術團隊從一個簡單的兩階段框架( CLIP-Attr )開始,使用預訓練的 CLIP 對目標提議進行分類。為了更好地對齊以目標為中心的視覺特征與屬性概念,在文本編碼器側使用可學習提示向量。在訓練方面,采用聯合訓練策略來利用目標檢測和屬性預測數據集,并探索一種弱監督訓練方案,利用外部圖像-文本對增加識別新屬性的魯棒性。最后,為了提高計算效率,將 CLIP-Attr 的知識蒸餾到一種 Faster-RCNN 類型的模型中(稱為 OvarNet)。在 VAW、MS-COCO、LSA 和 OVAD 等四個不同的基準評估中,團隊表明聯合訓練目標檢測和屬性預測有助于視覺場景理解,并大大優于現有方法獨立處理兩個任務的方法,展示了強大的泛化能力,可以處理新的屬性和類別。

    對內容的充分理解,是實現內容推薦和檢索的有效工具。在小紅書雙列布局場景下,對筆記封面圖篇的理解就顯得格外重要。采用本文所示的開集目標屬性識別能力,可以在更細粒度上對封面圖進行結構化理解。比如除了可以檢測到人物之外,還可以進一步標記人物衣著、姿態等屬性,從而在進行推薦和檢索時,實現更加智能和個性化的內容推薦。此外,在構建小紅書的內容質量體系時,通過對圖片的充分解析,能夠更精確地描述一篇筆記的質量分級,進而實現內容基于質量的差異化分發。

    論文地址:https://arxiv.org/abs/2301.09506

    陳科研

    現博士就讀于北京航空航天大學,曾在 Proceedings of the IEEE、TGRS、CVPR 等發表多篇論文。主要研究方向為遙感圖像處理,多模態學習。

    萊戈

    小紅書生態算法團隊負責人。曾在 CVPR、ICCV、ECCV、TNNLS、TGRS 等會刊發表 10 余篇論文,曾獲 YouTube-VOS 視頻分割競賽 Top-3 排名,曾獲天池視覺分割大獎賽復賽第 1 名。主要研究方向:目標跟蹤、視頻分割、多模態分類/檢索等。

    湯神

    小紅書智能創作團隊負責人。曾在 CVPR、ECCV、ICCV、TIFS、ACMMM 等會議與期刊發表近 20 篇論文。多次刷新 WiderFace 和 FDDB 國際榜單世界記錄,ICCV Wider Challenge 人臉檢測國際競賽冠軍,ICCV VOT 單目標跟蹤冠軍,CVPR UG2+亞軍。

    算法工程師-社區生態

    崗位職責:

    1. 職責包括但不限于圖文、視頻等多模態內容的分類、檢索、去重等工作,旨在優化平臺內容生態、提升內容質量和分發效率,提高用戶體驗;

    2. 負責 CV 相關算法研發,包括但不限于:圖像/視頻分類、圖像檢測/分割、視頻理解、人臉識別、OCR、自監督學習等;

    3. 負責 NLP 相關算法研發,包括但不限于:文本分析、語義分析、事件提取、分類、聚類、情感、問答、關系抽取、知識圖譜等;

    4. 完成算法的快速實現以及大規模工業化部署,參與創新性算法的研究以及開發工作;提供系統解決方案,打造可復用的社區業務平臺能力,提升社區核心服務穩定性; 有互聯網內容生態相關技術從業經驗者優先;

    任職要求:

    1. 計算機/電子信息/自動控制/軟件工程/數學等相關專業,碩士及以上學歷

    2. 優秀的分析、解決問題能力,對新技術充滿好奇,敢于挑戰高難度,善于提出解決方案并快速驗證;

    3. 熟練掌握 PyTorch/TensorFlow 等深度學習框架中的至少一種;

    4. 具備優秀的編程能力和經驗,熟悉 Python、C/C++、Java 等編程語言,具有扎實的數據結構和算法功底;

    5.具備優秀的研究和創新能力,在CVPR/ ICCV/ ECCV 與 ICML/ ACL/ EMNLP/ KDD/ AAAI 等計算機視覺&自然語言處理&機器學習領域國際頂會或頂刊上發表過論文或workshop獲獎者優先; 在國際競賽(如: ACM ICPC, Kaggle , KDD Cup 等)中獲得過優異成績者優先;

    歡迎感興趣的朋友發送簡歷至:REDtech@xiaohongshu.com;

    并抄送至:laige@xiaohongshu.com

    NLP算法工程師-智能創作

    崗位職責:

    基于高質量的小紅書內容生態,研發實用領先的 NLP 智能創作技術,技術棧包括關鍵詞提取、情感分析、上下文理解、命名實體識別、詞性標注、句法分析、機器翻譯、文本摘要、問答系統等,廣泛支持智能內容創作需求,創造小紅書獨有的產品用戶價值。

    任職要求:

    1. 熟悉語言知識表示、多模態生成模型及 NLP 智能創作,在以下一個或多個領域有深入的研究及落地經驗,包括但不限于:NLP 生成、文案創作、多輪對話、模型壓縮等

    2. 具有優秀的編程基礎及動手能力、良好的工作習慣,豐富的業務落地實戰經驗,優秀的快速學習能力

    3. 敢于應對實際挑戰,有堅韌的品質、優秀的自驅能力,善于主動溝通表達和團隊協作

    4. 發表 ML/NLP 等頂會/期刊論文、取得權威競賽 Top 名次、ACM 編程國際競賽 Top 成績者優先

    歡迎感興趣的朋友發送簡歷至:REDtech@xiaohongshu.com;

    并抄送至:tangshen@xiaohongshu.com

    關鍵詞:

    相關閱讀
    分享到:
    版權和免責申明

    凡注有"環球傳媒網"或電頭為"環球傳媒網"的稿件,均為環球傳媒網獨家版權所有,未經許可不得轉載或鏡像;授權轉載必須注明來源為"環球傳媒網",并保留"環球傳媒網"的電頭。

    Copyright ? 1999-2017 cqtimes.cn All Rights Reserved 環球傳媒網-重新發現生活版權所有 聯系郵箱:8553 591@qq.com
    久久亚洲精品无码|久久精品国产色成|AV无码天堂资源网|日韩精品无码视频一区二区
    <li id="u8eqe"><legend id="u8eqe"></legend></li>
    <button id="u8eqe"></button>
  • <table id="u8eqe"></table>
  • <source id="u8eqe"></source>