欧美,日韩中文字幕在线,男女性杂交内射妇女bbwxz,久久99久久9国产精品免费看,久久久久无码精品国产app,免费无码成人片

a&s專(zhuān)業(yè)的自動(dòng)化&安全生態(tài)服務(wù)平臺(tái)
公眾號(hào)
安全自動(dòng)化

安全自動(dòng)化

安防知識(shí)網(wǎng)

安防知識(shí)網(wǎng)

手機(jī)站
手機(jī)站

手機(jī)站

大安防供需平臺(tái)
大安防供需平臺(tái)

大安防供需平臺(tái)

資訊頻道橫幅A1
首頁(yè) > 資訊 > 正文

如何用未標(biāo)注樣本,解決單標(biāo)注樣本下的行人重識(shí)別問(wèn)題?

如何用未標(biāo)注樣本,解決單標(biāo)注樣本下的行人重識(shí)別問(wèn)題?

  本文作者為悉尼科技大學(xué)博士生武宇(Yu Wu),他根據(jù) CVPR 2018 錄用論文 Exploit the Unknown Gradually: One-Shot Video-Based Person Re-Identification by Stepwise Learning 為 AI 科技評(píng)論撰寫(xiě)了獨(dú)家解讀稿件。

  在這篇論文中,我們提出了通過(guò)逐漸利用未標(biāo)注樣本,來(lái)解決單標(biāo)注樣本(one-shot)情況下的視頻行人重識(shí)別問(wèn)題(video-based person re-ID)。這個(gè)方法很簡(jiǎn)單通用,在兩個(gè)大型的視頻行人重識(shí)別數(shù)據(jù)集上都達(dá)到了遠(yuǎn)超 state-of-the art 的性能。

  1. 為什么需要單標(biāo)注樣本問(wèn)題?

  目前大多行人重識(shí)別方法都依賴(lài)于完全的數(shù)據(jù)標(biāo)注,即需要對(duì)每個(gè)訓(xùn)練集里的人在不同攝像頭下的數(shù)據(jù)進(jìn)行標(biāo)注。然而對(duì)于實(shí)際的監(jiān)控場(chǎng)景,如一個(gè)城市的監(jiān)控視頻來(lái)說(shuō),從多個(gè)攝像頭里手工標(biāo)注每段視頻的行人標(biāo)簽的代價(jià)很大。因此我們嘗試去只用單標(biāo)注樣本,讓網(wǎng)絡(luò)自己去學(xué)會(huì)利用那些未標(biāo)注的樣本。也就是說(shuō)對(duì)于每個(gè)行人,我們只需要標(biāo)注其中一段視頻,其余的視頻通過(guò)算法自己去探索。

  對(duì)于這個(gè)任務(wù),典型的做法是為未標(biāo)注數(shù)據(jù)估計(jì)一個(gè)標(biāo)簽,然后用初始的標(biāo)注數(shù)據(jù)和部分選定的帶有假定標(biāo)簽 (pseudo-label) 的數(shù)據(jù)用來(lái)訓(xùn)練模型。

  然而因?yàn)橹挥贸跏紭?biāo)注數(shù)據(jù)訓(xùn)練出來(lái)的模型性能太弱,可信的 pseudo-labeled 數(shù)據(jù)是很少的,這樣選擇數(shù)據(jù)注定會(huì)引入很多錯(cuò)誤的訓(xùn)練樣本。所以我們提出了 EUG(Exploit the Unknown Gradually)方法,迭代地去預(yù)測(cè)標(biāo)簽和更新模型,這樣一步步地利用未標(biāo)注數(shù)據(jù)。

  另外,我們發(fā)現(xiàn)直接用分類(lèi)器預(yù)測(cè)出來(lái)的標(biāo)簽是不可靠的,我們提出通過(guò)特征空間里面的最近鄰 (Nearest neighbor) 分類(lèi)方式,去給每個(gè)未標(biāo)注數(shù)據(jù)分配 pseudo label。

  2. 如何去利用未標(biāo)注樣本

  如圖,我們一開(kāi)始用有標(biāo)注的數(shù)據(jù)來(lái)初始化訓(xùn)練 CNN 模型,之后在每一次循環(huán)中我們(1)挑選可信的 pseudo-labeled 數(shù)據(jù) 2. 用標(biāo)注數(shù)據(jù)和 pseudo-labeled 數(shù)據(jù)一起來(lái)更新 CNN 模型。我們通過(guò)逐步增大每次加入訓(xùn)練的 pseudo-labeled 數(shù)據(jù)量,從而逐漸去利用更難識(shí)別的,包含更多信息多樣性的視頻片段。

  這里有兩個(gè)值得注意的點(diǎn):

  (1)如何決定每次選取多少 pseudo-labeled 數(shù)據(jù)做訓(xùn)練

  我們用一種動(dòng)態(tài)測(cè)量,逐漸增加選取的樣本。在開(kāi)始的循環(huán)中,只有一小部分 pseudo-labeled 數(shù)據(jù)被選中,之后會(huì)有越來(lái)越多樣本被加進(jìn)來(lái)。我們發(fā)現(xiàn)增加樣本容量的速度越慢,即每一步迭代比上一步增加的 pseudo-labeled 樣本越少(對(duì)應(yīng)需要的迭代次數(shù)更多),模型的性能越高。pseudo-labeled 樣本量的增長(zhǎng)速度對(duì)模型最終性能的影響十分顯著。

  (2)如何去給一個(gè)未標(biāo)注數(shù)據(jù)分配 pseudo label 并量化其可信程度?

  跟之前大部分 re-ID 的方法一樣,我們的訓(xùn)練時(shí)采用的也是一個(gè)行人分類(lèi)網(wǎng)絡(luò),因此對(duì)于未標(biāo)注樣本,網(wǎng)絡(luò)分類(lèi)的預(yù)測(cè)值(Classification score)是可以用來(lái)預(yù)測(cè)標(biāo)簽并判斷標(biāo)簽置信度的。但是這樣的分類(lèi)層在樣本量很少,特別是我們這種每個(gè)類(lèi)只有一個(gè)樣本的情況下的情況下是不太可靠的。

  同時(shí)我們注意到行人重識(shí)別(re-ID)的測(cè)試過(guò)程是一個(gè)計(jì)算特征之間距離并進(jìn)行檢索的過(guò)程,所以我們從這個(gè)角度出發(fā),也去計(jì)算未標(biāo)注數(shù)據(jù)與標(biāo)注數(shù)據(jù)之間的距離(Dissimilarity cost criterion)。對(duì)于每個(gè)未標(biāo)注的樣本,我們把離它最近的有標(biāo)注樣本的類(lèi)別賦予它作為 pseudo label,并且將他們之間的距離作為標(biāo)簽估計(jì)的置信度,如下圖所示。

  我們發(fā)現(xiàn),這種用距離度量的方式選出來(lái)的 pseudo-labeled 數(shù)據(jù)要比分類(lèi)層的預(yù)測(cè)要可靠很多。

  3. 算法實(shí)際選出來(lái)的樣本如何?

  我們的方法在 MARS 和 DukeMTMC-VideoReID 這兩個(gè)大規(guī)模的視頻行人重識(shí)別數(shù)據(jù)集上都取得了極大的提高。下面我們展示一下算法選出來(lái)的 pseudo-labeled 樣本。

  這是一個(gè)算法運(yùn)行時(shí)為左邊這個(gè)行人選出來(lái)的 pseudo-labeled 樣本,可以看到在第 0 次迭代時(shí)返回的樣本都是和初始化視頻很相似的正確數(shù)據(jù)。算法在第 1 次和第 2 次迭代時(shí)候開(kāi)始返回了不同視角的正確數(shù)據(jù),在第 5 到 7 次迭代時(shí)候返回了更難以分辨的正確樣本(完全不同的視角、遮擋和嚴(yán)重?cái)z像頭色差)以及部分錯(cuò)誤樣本。沒(méi)有被找到的這個(gè)視頻片段幾乎是全黑的。

  Pytorch 代碼實(shí)現(xiàn)參見(jiàn):

  https://github.com/Yu-Wu/Exploit-Unknown-Gradually

  DukeMTMC-VideoReID 數(shù)據(jù)集介紹和 Baseline 代碼:

  https://github.com/Yu-Wu/DukeMTMC-VideoReID

參與評(píng)論
回復(fù):
0/300
文明上網(wǎng)理性發(fā)言,評(píng)論區(qū)僅供其表達(dá)個(gè)人看法,并不表明a&s觀點(diǎn)。
0
關(guān)于我們

a&s傳媒是全球知名展覽公司法蘭克福展覽集團(tuán)旗下的專(zhuān)業(yè)媒體平臺(tái),自1994年品牌成立以來(lái),一直專(zhuān)注于安全&自動(dòng)化產(chǎn)業(yè)前沿產(chǎn)品、技術(shù)及市場(chǎng)趨勢(shì)的專(zhuān)業(yè)媒體傳播和品牌服務(wù)。從安全管理到產(chǎn)業(yè)數(shù)字化,a&s傳媒擁有首屈一指的國(guó)際行業(yè)展覽會(huì)資源以及豐富的媒體經(jīng)驗(yàn),提供媒體、活動(dòng)、展會(huì)等整合營(yíng)銷(xiāo)服務(wù)。

免責(zé)聲明:本站所使用的字體和圖片文字等素材部分來(lái)源于互聯(lián)網(wǎng)共享平臺(tái)。如使用任何字體和圖片文字有冒犯其版權(quán)所有方的,皆為無(wú)意。如您是字體廠商、圖片文字廠商等版權(quán)方,且不允許本站使用您的字體和圖片文字等素材,請(qǐng)聯(lián)系我們,本站核實(shí)后將立即刪除!任何版權(quán)方從未通知聯(lián)系本站管理者停止使用,并索要賠償或上訴法院的,均視為新型網(wǎng)絡(luò)碰瓷及敲詐勒索,將不予任何的法律和經(jīng)濟(jì)賠償!敬請(qǐng)諒解!
? 2024 - 2030 Messe Frankfurt (Shenzhen) Co., Ltd, All rights reserved.
法蘭克福展覽(深圳)有限公司版權(quán)所有 粵ICP備12072668號(hào) 粵公網(wǎng)安備 44030402000264號(hào)
用戶(hù)
反饋