女人被狂躁到高潮呻吟小说,蜜桃成人网,女人与公豬交交30分钟视频,久久无码精品一区二区三区,浓毛老太交欧美老妇热爱乱

VALSE 2018 涌多項頂級視覺科技 曠視科技首展商品識別技術

4月20日至22日,第八屆視覺與學習青年學者研討會(Vision And Learning SEminar/ VALSE 2018)在美麗的大連如期舉行。曠視科技Face++作為鉑金贊助商和CV產(chǎn)業(yè)界代表受邀赴會,向海內(nèi)外的專家、學者以及業(yè)界人士展示曠視研究院最新CV研究成果。

VALSE 2018 涌多項頂級視覺科技 曠視科技首展商品識別技術

作為國內(nèi)最大規(guī)模的機器視覺學術盛會,VALSE 2018不僅吸引了超過3000名國內(nèi)外頂級專家、學者,刷新了歷屆參會熱度,在嘉賓量級、內(nèi)容質(zhì)量和學術高度方面同樣可圈可點。數(shù)十家CV代表企業(yè)的各式最新Demo和上百篇質(zhì)量上乘的墻報得以亮相,其中搶鮮展示了CVPR 2018收錄的979篇中的56篇;參會嘉賓大咖云集,西安電子科技大學“模式識別與智能系統(tǒng)”學科帶頭人高新波,ACM Fellow、IEEE Fellow、騰訊Robotics X實驗室負責人張正友,澳大利亞國立大學著名3D視覺重建和機器人SLAM學者Hongdong Li,前微軟研究院資深研究員、京東AI研究院副院長梅濤等學界、業(yè)界頂級專家分別做了精彩紛呈的主題報告。

曠視科技Face++也向現(xiàn)場嘉賓做了精彩的學術分享,并匯報了曠視最新的學術工作進展以促進業(yè)界交流合作,共繪中國機器視覺事業(yè)藍圖。下文以3位曠視研究員的學術分享為主線,描繪曠視的VALSE 2018之行。

俞剛博士解讀人體姿態(tài)估計冠軍論文

2017 COCO數(shù)據(jù)集競賽中,曠視科技的兩篇冠軍論文《MegDet:A Large Mini-Batch Object Detector》、《Cascaded Pyramid Network for Multi-Person Pose Estimation》,在擊敗谷歌、微軟等強勁對手之后,分別獲得了2017 COCO物體檢測和人體姿態(tài)估計第一名的矚目佳績。在VALSE 2018大會第一天的First VALSE Workshop on Methods and Technologiesfor Looking At People環(huán)節(jié)中,曠視資深研究員俞剛博士(曾帶隊參加2017 COCO競賽獲得物體檢測和人體姿態(tài)估計雙項第一)重點就第二篇論文作了主題報告。

VALSE 2018 涌多項頂級視覺科技 曠視科技首展商品識別技術

  曠視科技資深研究員俞剛博士

俞剛指出,多人姿態(tài)估計(Multi-Person Pose Estimation)是機器視覺領域繞不開的一個經(jīng)典問題;在傳統(tǒng)算法遭遇瓶頸之時,雖然卷積神經(jīng)網(wǎng)絡的再次崛起和快速迭代為解決這一問題帶來了新工具,但還是存在一些百啃不動的“硬骨頭”,比如關鍵點重疊、不可見以及復雜的背景。為此,曠視科技提出級聯(lián)金字塔網(wǎng)絡(Cascaded Pyramid Network/CPN),希望更好地解決關鍵點難以識別的問題。結(jié)果證明CPN非常奏效,在COCO test-dev數(shù)據(jù)集上平均精度(AP)達到73.0;在COCO test-challenge數(shù)據(jù)集上平均精度(AP)達到72.1,相較于2016年的最佳成績(60.5)有19%的提升,從而實現(xiàn)了當前最優(yōu)水平。

那么曠視提出的CPN是如何實現(xiàn)的呢?俞剛說大體在于一個two-stage的模型架構(gòu):GlobalNet和RefineNet(見下圖),這是一種top-down pipeline,先通過檢測器檢測出圖像之中的人,再把每個人摳出來并做單人姿態(tài)估計,最后把結(jié)果整合到原圖上。CPN這種兩階段架構(gòu)設計的想法其實也不復雜,甚至可以說是相當樸素直觀,來源于人是怎么識別人體關鍵點,即由特征金字塔網(wǎng)絡GlobalNet先識別出簡單關鍵點,再由(借助online hard keypoint mining loss的)RefineNet整合來自前者的特征表征以識別余下的困難關鍵點。這樣從易到難,層層推進,最終克服了關鍵點難以識別的問題。

VALSE 2018 涌多項頂級視覺科技 曠視科技首展商品識別技術

  級聯(lián)金字塔網(wǎng)絡(CPN)

這樣做下來,我們也發(fā)現(xiàn)了一些有趣的事情和結(jié)論。CPN的檢測框來自曠視研究院的Detection Team,如上所述曠視的MegDet以及Light-Head R-CNN取得了2017 COCO檢測第一,所以我們很自然地對兩者做了對比分析,結(jié)果發(fā)現(xiàn)檢測平均精度(Detection mAP)對關鍵點平均精度(Keypoint mAP)的影響在達到一定閾值(Det mAP41.1)之后微乎其微,即前者的顯著提升并不會促成后者的顯著提升。再比如使用Large batch,可以把CPN的mAP提升0.4-0.7個百分點,這說明除了物體檢測之外,Large batch同樣適用于關鍵點識別。

張祥雨博士解讀ShuffleNet v2

講臺之外,曠視的展臺也不容忽視,學術分享的精彩程度與講臺之上俞剛博士的分享相得益彰。在曠視展區(qū),曠視資深研究員張祥雨(2016 CVPR最佳論文ResNet作者之一)首次公開了獨家干貨ShuffleNet v2論文并親自解讀答疑,成為全場最受關注的焦點。ShuffleNet v2可謂是VALSE surprise,下面就扼要地為沒有機會到現(xiàn)場的小伙伴們分享一下曠視研究院ShuffleNet v2的工作思想。

#FormatImgID_3#

ShuffleNet v2 @ VALSE 2018

不同于側(cè)重準確度高效的(給定計算量下的準確度)輕量級卷積神經(jīng)網(wǎng)絡(L-CNN),ShuffleNet v2是一種側(cè)重執(zhí)行高效的(給定速度下的準確度)的新架構(gòu),而相比于MobileNet v2和ShuffleNet v1,ShuffleNet v2同時在GPU和ARM上顯著提升了準確度/執(zhí)行速度之間的權衡(參見下圖)。

VALSE 2018 涌多項頂級視覺科技 曠視科技首展商品識別技術

  準確度/執(zhí)行速度之間的權衡

L-CNN在實際的計算機視覺處理系統(tǒng)中扮演著舉足輕重的角色,其核心方向是開發(fā)出參數(shù)少、速度快、精度高的移動端神經(jīng)網(wǎng)絡。不同于以往一味地只追求準確度,最近的L-CNN架構(gòu)設計逐漸轉(zhuǎn)向了如何在計算復雜度(FLOPs)一定的情況下,更加高效地實現(xiàn)高準確度。但是,這依然不夠,因為FLOPs和實際運行速度并不能劃等號,可見在FLOPs一定的情況下,執(zhí)行速度更快的架構(gòu),或者執(zhí)行高效的模型在實際應用中同樣不可或缺。

然而,在L-CNN領域,執(zhí)行效率相比準確度效率更加不受關注,雖然一些新近研究成功實現(xiàn)了兩者之間的權衡,但仍多是基于高效特征嵌入的啟發(fā)法,或者準確度導向的模型搜索,是從準確度效率的角度思考和解決問題。而對于現(xiàn)有組件或架構(gòu),執(zhí)行效率僅是錦上添花,一般無法在實際設備上達到最優(yōu)。我們發(fā)現(xiàn),隨著平臺和庫優(yōu)化越發(fā)復雜,準確度導向的研究在當前條件下推出實際的高效模型也越來越難。

VALSE 2018 涌多項頂級視覺科技 曠視科技首展商品識別技術

  張祥雨(右一)為大家現(xiàn)場講解ShuffleNet v2論文

ShuffleNet v2則為L-CNN模型的設計提供了一種以執(zhí)行效率為導向的方法。首先,我們分析兩個當前最優(yōu)L-CNN模型的核心組件,通過一系列可控的評估進行相關操作的基準測試,從中得出可在我們平臺上快速執(zhí)行的4個啟發(fā)式原則。正是基于上述原則,我們對ShuffleNet v1進行改進,提出了ShuffleNet v2,在GPU和ARM上其準確度/速度權衡明顯優(yōu)于同類模型。同時我們還評估了ShuffleNet v2在大型分類模型和物體檢測任務上的泛化能力。

魏秀參博士展示曠視最新商品識別技術

曠視展臺上的亮點還不止于此,除了ShuffleNet v2的良心披露與解讀,曠視同樣展示了不少產(chǎn)業(yè)前沿的應用演示,比如時下大火的ReID(曠視在2017年發(fā)表的AlignedReID分別在Market1501和CUHK03測試集中使首位命中率達到了94.0%和96.1%,使機器首次在行人再識別問題上超越人類從而創(chuàng)下業(yè)界紀錄。)、視頻結(jié)構(gòu)化、人體關鍵點等,下面本文將重點介紹其中一個更新的研究成果——無人貨架和商品識別,它出自曠視科技南京研究院,其負責人魏秀參博士在展臺為觀眾們進行了詳盡的解答。

VALSE 2018 涌多項頂級視覺科技 曠視科技首展商品識別技術

  魏秀參(左一)、俞剛(左二)、張祥雨(右一)

首先,曠視對于無人貨架和商品識別研究的基礎起源于曠視在AI +IoT產(chǎn)業(yè)進深中的切實需要。近年來,人工智能加快了對傳統(tǒng)行業(yè)賦能的步伐,零售行業(yè)也不例外。零售中存在的眾多簡單重復且容易出錯的人工處理環(huán)節(jié),這是AI技術重塑零售行業(yè)、實現(xiàn)降本增效價值的最佳切入點。新零售作為一種AI改造和升級之后的全新零售業(yè)態(tài),為體量巨大的零售業(yè)開拓了一片機遇和挑戰(zhàn)并存的新戰(zhàn)場。

曠視南京研究院這次在VALSE 2018上亮相的新零售Demo重點展示了自動理貨和取物識別兩大功能。理貨,即統(tǒng)計貨架上商品SKU的類別和數(shù)量,是線下零售中必不可少的一環(huán)。自動理貨的目標是替代傳統(tǒng)高價低效且易出錯的人工理貨方式,通過簡單的拍照上傳(或者本地處理)就能自動生成準確的店內(nèi)審計報告,實現(xiàn)鋪貨率、排面數(shù)、貨架占有率、促銷執(zhí)行度各項指標的全面智能化。取物識別,即自動識別顧客從貨架上拿走的商品,在無人超市和無人貨柜這樣的重量級的新零售產(chǎn)品中有著重要的應用。目前,無人超市和無人貨柜的自動結(jié)算技術主要是基于電子標簽(RFID)的。這一技術有兩個弊端:電子標簽增加了額外的成本;結(jié)算時需要人工配合。如果使用純視覺的取物識別技術來結(jié)算則可以完美的解決以上問題,讓零售店面更“輕”、更“智能”,同時升級消費體驗。

自2011年成立以來,VALSE人數(shù)的節(jié)節(jié)攀高從一定程度上反映了全國乃至全球計算機視覺技術的方興未艾之勢。通過VALSE,你可以一覽學術最前沿,收獲不同的視角,碰撞出啟發(fā)性的火花。

曠視科技在分享之余,也喚醒了自己的學術信息觸角,收獲頗多。作為一家以計算機視覺為核心技術的公司,曠視堅守技術信仰與價值務實,致力于打造螺旋上升的“算法-產(chǎn)品-數(shù)據(jù)”閉環(huán),實現(xiàn)軟硬一體化,最終目的是“為了人工智能終將創(chuàng)造的所有美好”;而要做到以上,離不開底層的學術創(chuàng)新和一流的學術研討氛圍,因此對于包括曠視在內(nèi)的所有CV公司來說,這是VALSE作為一個高水平、強互動的學術交流舞臺的最大意義之一。

免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內(nèi)容或斷開相關鏈接。

2018-04-27
VALSE 2018 涌多項頂級視覺科技 曠視科技首展商品識別技術
4月20日至22日,第八屆視覺與學習青年學者研討會(Vision And Learning SEminar/ VALSE 2018)在美麗的大連如期舉行。

長按掃碼 閱讀全文