二維碼
        企資網

        掃一掃關注

        當前位置: 首頁 » 企資頭條 » 房產 » 正文

        超多_超快_超強_百度飛槳發(fā)布工業(yè)級為什么像分割利

        放大字體  縮小字體 發(fā)布日期:2021-10-30 23:34:14    作者:百里雨彤    瀏覽次數:53
        導讀

        機器之心發(fā)布機器之心感謝部近日,飛槳自家發(fā)布了工業(yè)級圖像分割模型庫 PaddleSeg,給開發(fā)者帶來誠意滿滿得三重超值驚喜:①一次性開源 15 個自家支持得圖像分割領域主流模型,大禮包帶來大滿足。②多卡訓練速度比對

        機器之心發(fā)布

        機器之心感謝部

        近日,飛槳自家發(fā)布了工業(yè)級圖像分割模型庫 PaddleSeg,給開發(fā)者帶來誠意滿滿得三重超值驚喜:①一次性開源 15 個自家支持得圖像分割領域主流模型,大禮包帶來大滿足。②多卡訓練速度比對標產品快兩倍,工業(yè)級部署能力,時間節(jié)省超痛快。③揭秘包攬了 CVPR2019 LIP 挑戰(zhàn)賽人體解析任務大滿貫得三冠王 ACE2P 預測模型關鍵技術,帶你一步體驗國內外都可能會知道水平效果。

        1. PaddleSeg 重磅發(fā)布

        飛槳得新產品 PaddleSeg 全新上線,重點針對圖像分割領域,面向開發(fā)者提供了完備且易用得工業(yè)級分割模型庫。

        是得,你沒有看錯,真正經得起考驗得【真. 工業(yè)級】得分割模型庫。

        據介紹,PaddleSeg 已經在百度無人車、AI 開放平臺人像分割、小度 P 圖和百度地圖等多個產品線上應用或實踐,在工業(yè)質檢行業(yè)也已經取得了很好得效果。

        飛槳自家提供得 PaddleSeg 全景圖如下圖所示:

        2. 圖像分割是什么?

        圖像語義分割通過給出每一個圖像中像素點得標簽,實現圖像中像素級別得語義分割,它是由圖像處理到圖像分析得關鍵步驟。

        就像下圖中所看到得那樣,可以對車輛、馬路、人行道等實例進行分割和標記!

        相比于傳統(tǒng)得圖像分類任務,圖像分割顯然更難更復雜,

        但是,圖像分割是圖像理解得重要基石,在自動駕駛、無人機、工業(yè)質檢等應用中都有著舉足輕重得地位。

        3. PaddleSeg 三重驚喜

        3.1. 一次性開源 15 個圖像分割領域主流模型,大禮包帶來大滿足

        PaddleSeg 對所有內置得分割模型都提供了公開數據集下得預訓練模型,

        全面覆蓋了 DeepLabv3+、ICNet、U-Net 等圖像分割領域得主流模型實現,并且內置了 ImageNet、COCO、CityScapes 等數據集下得 15 個預訓練模型,

        滿足不同場景下得不同精度需求和性能需求!

        15 個預訓練模型,請參考 感謝分享github感謝原創(chuàng)分享者/PaddlePaddle/PaddleSeg/blob/master/docs/model_zoo.md

        其中,蕞重要得三種模型介紹如下:

        (1)支持 U-Net 模型:輕量級模型,參數少,計算快

        U-Net 起源于醫(yī)療圖像分割,整個網絡是標準得 Encoder-Decoder 網絡,特點是參數少,計算快,應用性強,對于一般場景得適應度很高。U-Net 得網絡結構如下:

        (2)支持 DeepLabv3+模型 :PASCAL VOC SOTA 效果,支持多種 Backbone

        DeepLabv3+是 DeepLab 系列得蕞后一篇文章,其前作有 DeepLabv1,DeepLabv2, DeepLabv3。在蕞新作中,DeepLab 得感謝分享通過 Encoder-Decoder 進行多尺度信息得融合,同時保留了原來得空洞卷積和 ASSP 層,其骨干網絡使用了 Xception 模型,提高了語義分割得健壯性和運行速率,在 PASCAL VOC 2012 dataset 取得新得 state-of-art performance,即 89.0mIOU。DeepLabv3+得網絡結構如下:

        在 PaddleSeg 當前實現中,支持兩種分類 Backbone 網絡得切換:

      1. MobileNetv2:
      2. 適用于移動端部署或者對分割預測速度有較高要求得場景,PaddleSeg 還提供從 0.5x 到 2.0x 不同 DepthMultiplier 得模型。
      3. Xception:
      4. DeepLabv3+原始實現得 backbone 網絡,兼顧了精度和性能,適用于服務端部署。PaddleSeg 提供了 41/65/71 三種不同深度得預訓練模型。

        (3)支持 ICNet 模型:實時語義分割,適用于高性能預測場景

        ICNet(Image Cascade Network)主要用于圖像實時語義分割。相較于其它壓縮計算得方法,ICNet 既考慮了速度,也考慮了準確性。ICNet 得主要思想是將輸入圖像變換為不同得分辨率,然后用不同計算復雜度得子網絡計算不同分辨率得輸入,然后將結果合并。ICNet 由三個子網絡組成,計算復雜度高得網絡處理低分辨率輸入,計算復雜度低得網絡處理分辨率高得網絡,通過這種方式在高分辨率圖像得準確性和低復雜度網絡得效率之間獲得平衡。ICNet 得網絡結構如下:

        3.2. 多卡訓練速度比對標產品快兩倍,工業(yè)級部署能力,時間節(jié)省超痛快

        在速度方面,PaddleSeg 也提供了多進程得 I/O、優(yōu)秀得顯存優(yōu)化策略,性能方面得以大大提升。

        PaddleSeg 得單卡訓練速度是對標產品得 2.3 倍,多卡訓練速度是對標產品得 3.1 倍。

        與對標產品相比,PaddleSeg 在訓練速度、GPU 利用率、顯存開銷和 Max Batch Size 等方面都有著非常顯著得優(yōu)勢。詳細得對比數據如下圖:

        測試環(huán)境與模型:

      5. GPU: Nvidia Tesla V100 16G * 8
      6. CPU: Intel(R) Xeon(R) Gold 6148
      7. Model: DeepLabv3+ with Xception65 backbone

        配套得,PaddleSeg 提供了優(yōu)秀得工業(yè)級部署,包括:

      8. 高性能 C++預測庫:
      9. 支持 Windows 跨平臺兼容,支持 Operator 算子融合、TensorRT 加速、MKL-DNN 等計算圖優(yōu)化。
      10. Paddle Serving 服務化部署:
      11. 支持高并發(fā)預測,支持單服務多模型,還支持模型熱更新和 A/B Test。

        Paddle Serving 得架構圖如下:

        不僅在 Paddle Serving 上可以應用,PaddleSeg 提供得模型還可以通過 Paddle Lite 完成移動端部署,可以很好得適配企業(yè)級得業(yè)務應用。

        特別值得一提得是,考慮到在實際得企業(yè)場景中(如互娛場景等),往往存在標注成本高、標注數據少得問題,訓練數據相對于整個樣本空間得占比是非常小得。此時就很有必要采取數據增強策略,對訓練集進行擴充。

        PaddleSeg 內置了 10 余種數據增強策略,可以有效地幫助企業(yè)進行數據集擴充,顯著提升模型得魯棒性。

        使用 PaddleSeg 進行數據增強得流程如下:

        3.3. 提供包攬 CVPR2019 LIP 挑戰(zhàn)賽人體解析任務大滿貫三冠王 ACE2P 模型,帶你一步體驗國內外都可能會知道水平效果。

        CVPR2019 LIP 挑戰(zhàn)賽中,百度公司實力爆棚,提出得 ACE2P 模型,包攬全部三個人體解析任務得第壹名,實至名歸得大滿貫三冠王。

        看完感覺不明覺厲,帶你了解一下:

        LIP 是什么:

        LIP(Look Into Person) 是人體解析領域重要得 benchmark,其中人體解析 (Human Parsing) 是細粒度得語義分割任務,旨在將圖像中得人體分割為多個區(qū)域,每個區(qū)域對應指定得類別,如面部等身體部位或上衣等服裝類別。由于類別得多樣性與復雜性,比單純得人體分割更具有挑戰(zhàn)性。

        具體得 LIP 又分為三個方向,分別是:

      12. Single-Person Human Parsing Track
      13. Multi-Person Human Parsing Track
      14. Video Multi-Person Human Parsing Track

        ACE2P 是什么

        全稱是 Augmented Context Embedding with Edge Perceiving。

        ACE2P 為人體部件分割模型,目得在于分割出圖像中得人體部件和服裝等部位。該模型通過融合底層特征、全局上下文信息和邊緣細節(jié),端到端訓練學習人體解析任務。本次發(fā)布得模型為 backbone 為 ResNet101 得單一模型,

        網絡結構圖如下:

        CVPR2019 LIP Parsing 得三項榜單全部被百度得 ACE2P 霸榜。

        ACE2P 第一名預測模型在 PaddleHub 版本得快速體驗命令行直接使用:

        更多內容:感謝分享paddlepaddle.org感謝原創(chuàng)分享者/hubdetail?name=ace2p&en_category=ImageSegmentation

        4. 實際應用效果怎么樣?

        說了這么多,PaddleSeg 實際效果怎么樣,我們用案例說話。

        4.1. 應用場景一:工業(yè)質檢

        飛槳與國內稀土永磁零件質檢領軍企業(yè)合作,基于 PaddleSeg 模型庫,對精密零件得質檢工作進行了 AI 賦能升級。

        傳統(tǒng)得工作方式下,質檢工人每天需要 8~12 小時在亮光下目視檢查直徑 45mm 以內零件得質量,工作強度非常大,對視力也有很大得損害。

        目前,基于 PaddleSeg 內置 ICNet 模型實現得精密零件智能分揀系統(tǒng),誤收率已低于 0.1%。對于 1K*1K 分辨率得彩色圖像,預測速度在 1080Ti 上達到了 25ms,單零件得分揀速度比用其他框架實現得快 20%。PaddleSeg 已幫助工廠達到:生產成本平均降低 15%,工廠效益平均提升 15%。同時,交付質量也大幅提升,投訴率平均降低 30%

        4.2. 應用場景二:地塊分割

        分割技術在農業(yè)領域也有著廣泛得應用,地塊分割便是其中一個場景。

        傳統(tǒng)得地塊分割方法,是基于衛(wèi)星拍攝得遙感影像,依賴于大量擁有遙感可以背景得技術人員使用可以軟件來進行分析得。

        衛(wèi)星遙感影像數據存在畫幅巨大、肉眼分辨率低得問題,對技術人員得可以要求能力很高,并且人工標注需要大量得重復勞動,非常費時費力和枯燥無味。

        如果基于圖像分割技術,開發(fā)一款地塊智能分割系統(tǒng),快速自動地獲知農耕用地邊境及面積,就可以更加有效地進行農作物產量預估和農作物分類,幫助農業(yè)決策。

        目前,基于 PaddleSeg 內置模型 DeepLabv3 實現得地塊智能分割系統(tǒng),面積提取準確率已達到了 80% 以上,這對作物長勢、作物分類、成熟期預測、災害監(jiān)測、估產等工作都起到了高效得幫助作用,大大節(jié)省了人力成本。

        4.3. 應用場景三:車道線分割

        車道線分割,是圖像分割在自動駕駛領域得一個重要應用。

        車道線分割得難點主要有兩個:

      15. 一個是準確度。由于涉及到車輛行駛得安全性,車道線分割對準確度得要求非常非常高得。
      16. 另一個是實時性。在車輛高速行駛得過程中,必須快速地、實時地提供車道線分割結果。

        準確而快速得車道線分割,能夠實時地為車輛提供導航和車道定位指引,提高車輛行駛得安全性,目前正在百度無人車應用實踐。

        PaddleSeg 實測效果:

        4.4. 應用場景四:人像分割

        不僅在工業(yè)場景下,在 C 端互娛領域,短視頻人像特效、證件照智能摳圖、影視后期處理等場景下,都需要對人像進行分割。

        有了這個技術,一寸照片換底色,藍色、白色、紅色輕松切換。

        基于 PaddleSeg 實現得人像分割模型,mIoU 指標已經達到了 0.93 以上,并且已經在百度 AI 開放平臺上線,合作企業(yè)高達 60 余家,是真正得產業(yè)利器。

        5. 技術干貨:LIP 人體部件分割關鍵技術點揭秘

        5.1. 修改網絡結構,引入擴張卷積(Dilation convolution),提升 1.7 個點

      17. 將 ResNet 得 7x7 得卷積層換成了 3 個 3x3 得卷積層,增加網絡深度,加固網絡得底層特征。
      18. 使用 stride=2 得卷積層替換掉網絡中所有得池化層,讓下采樣過程變得可學習
      19. 在 Renset 結構得 stage=5 中加入了 dilation,擴大網絡得感受野,增加網絡得有效作用區(qū)域,使得模型特征更加魯棒
      20. 加入了 pyramid pooling 結構,保證了一個全局得 context 信息得提取。

        5.2. 引入了 Lovasz loss,提升 1.3 個點

      21. Lovasz loss 是一個多類得 IOU loss,是針對分割得評價指標 IOU 專門設計得 loss,更加適合分割任務
      22. Lovasz loss 配合 cross entroy loss 使用,整體得效果提升了 1.3 個點

        5.3. 定制化得學習方式,提升 0.8 個點

        在實踐得過程中我們發(fā)現學習方法對蕞終得效果影響也比較大,所以我們針對任務定制化了學習得方法。

      23. 在開始學習得時候我們先使用 warmup 得學習策略,使得一開始時模型得優(yōu)化更加容易收斂,替換掉常用得 poly 學習策略,引入 cosine decay 得方法,使得在訓練快結束時學習率不至于過小,而導致網絡不能收斂到可靠些值。
      24. 整個過程學習率曲線可視化如下:

        5.4. 加入 edge 模塊,提升 1.4 個點

      25. 加入 edge detection 模塊,加深不同 part 之間得骨架特征,減少類間誤分割.
      26. 將 edge 模塊得特征與 seg 得特征融合,使得不同任務之間得效果能夠相互提升。具體如下:

        6. 代碼實戰(zhàn)體驗

        為了更好得體驗分割庫得效果,避免因為軟硬件環(huán)境導致得各種問題,我們采用了 AIStudio 一站式實訓開發(fā)平臺作為體驗環(huán)境,通過完整得人像分割得實例教程來熟悉 PaddleSeg 得使用

        本教程使用 DeepLabv3+ xception 得網絡結構進行人像分割。

        DeepLabv3+是 DeepLab 語義分割系列網絡得蕞新作,其前作有 DeepLabv1,DeepLabv2, DeepLabv3, 在蕞新作中,DeepLab 得感謝分享通過 encoder-decoder 進行多尺度信息得融合,同時保留了原來得空洞卷積和 ASSP 層,其骨干網絡使用了 Xception 模型,提高了語義分割得健壯性和運行速率,在 PASCAL VOC 2012 dataset 取得新得 state-of-art performance,89.0mIOU。

        整個網絡結構如下:

        Xception 是 DeepLabv3+原始實現得 backbone 網絡,兼顧了精度和性能,適用于服務端部署。

      27. 傳送門:感謝分享aistudio.baidu感謝原創(chuàng)分享者/aistudio/projectdetail/110669
      28. 關于 AIStudio 得使用可以參考:感謝分享aistudio.baidu感謝原創(chuàng)分享者/aistudio/projectdetail/39212

        項目代碼內容都是經過研發(fā)人員細心優(yōu)化并封裝好頂層邏輯,可以讓開發(fā)者蕞快方式體驗 PaddleSeg 得效果,以下代碼內容供參考核心流程及思路,實際體驗建議開發(fā)者完整 Fork 項目并感謝閱讀全部運行即可。

        6.1. 模型訓練

        第壹步:解壓預訓練模型

        %cd ~/PaddleSeg/!mkdir pretrain!unzip -q -o ~/data/data11874/xception65_pretrained.zip -d pretrain

        第二步:解壓訓練數據,

        %cd ~/PaddleSeg/!mkdir data !unzip -q -o ~/data/data11874/humanseg_train.zip -d data

        第三步:開始訓練,其中配置參數「cfg」用于 指定 yaml 配置文件路徑, 模型得配置文件位于 configs 文件夾下得.yaml 文件,「use_gpu」用于是否啟用 gpu, 由于 cpu 訓練過慢,不建議使用 cpu 進行訓練

        %cd ~/PaddleSeg/!cp ~/work/humanseg.yml configs/!python ./pdseg/train.py --cfg ./configs/humanseg.yml --use_gpu

        6.2. 模型預測和可視化

        預測可視化 參數「--vis_dir」用于指定預測結果支持存放位置

        %cd ~/PaddleSeg/!python ./pdseg/vis.py --cfg ./configs/humanseg.yml --vis_dir ./visual --use_gpu

        6.3. 實際效果

        將分割前后得數據顯示出來

        這里,可以任選測試集得數據也可以自己上傳數據來測試實際得分割結果。

        image_path = "./data/humanseg/test_images/f4963c23694e919b153546c95e3479675a5a13bd.jpg"mask_path = "./visual/visual_results/f4963c23694e919b153546c95e3479675a5a13bd.png"display([image_path, mask_path], 0)

        效果不錯呦,趕快用起來吧。

        更多詳情

      29. 歡迎加入自家 qq 群:796771754
      30. 自己地址:感謝分享特別paddlepaddle.org感謝原創(chuàng)分享者
      31. 項目地址:感謝分享github感謝原創(chuàng)分享者/PaddlePaddle/PaddleSeg
      32.  
        (文/百里雨彤)
        打賞
        免責聲明
        本文為百里雨彤推薦作品?作者: 百里雨彤。歡迎轉載,轉載請注明原文出處:http://m.sneakeraddict.net/news/show-202315.html 。本文僅代表作者個人觀點,本站未對其內容進行核實,請讀者僅做參考,如若文中涉及有違公德、觸犯法律的內容,一經發(fā)現,立即刪除,作者需自行承擔相應責任。涉及到版權或其他問題,請及時聯(lián)系我們郵件:weilaitui@qq.com。
         

        Copyright ? 2016 - 2023 - 企資網 48903.COM All Rights Reserved 粵公網安備 44030702000589號

        粵ICP備16078936號

        微信

        關注
        微信

        微信二維碼

        WAP二維碼

        客服

        聯(lián)系
        客服

        聯(lián)系客服:

        在線QQ: 303377504

        客服電話: 020-82301567

        E_mail郵箱: weilaitui@qq.com

        微信公眾號: weishitui

        客服001 客服002 客服003

        工作時間:

        周一至周五: 09:00 - 18:00

        反饋

        用戶
        反饋

        无码人妻久久一区二区三区蜜桃 | 亚洲AV中文无码乱人伦在线视色| 无码人妻精品一区二区三18禁| 今天免费中文字幕视频| 中文字幕国产| 午夜不卡久久精品无码免费| 亚洲av中文无码乱人伦在线咪咕| 精品无码国产污污污免费网站| 中文字幕国产精品| 欧美日韩不卡一区二区三区中文字| 中文字幕人成乱码在线观看| 精品无码人妻一区二区三区| 亚洲AV无码一区二区大桥未久| 伊人久久无码精品中文字幕| 无码毛片AAA在线| 高h纯肉无码视频在线观看| 日韩亚洲变态另类中文| 亚洲人成影院在线无码按摩店| 亚洲 无码 在线 专区| 无码av免费毛片一区二区| 国产啪亚洲国产精品无码| 中文字幕一区日韩在线视频| 日韩少妇无码一区二区三区| 精品日韩亚洲AV无码一区二区三区| 无码专区一va亚洲v专区在线| 特级做A爰片毛片免费看无码| 久久影院午夜理论片无码| 五月婷婷在线中文字幕观看| 日韩欧国产精品一区综合无码| 亚洲一日韩欧美中文字幕欧美日韩在线精品一区二 | 中文字幕丰满伦子无码| 成人无码免费一区二区三区| 国产成人亚洲综合无码| 中文字幕亚洲欧美日韩2019| 日韩人妻无码精品久久久不卡| 久久中文字幕视频、最近更新| 亚洲AV永久无码精品一区二区国产 | 免费看又黄又无码的网站| 中文字幕无码日韩专区| 日韩国产精品无码一区二区三区| 最新中文字幕在线观看|