二維碼
        企資網

        掃一掃關注

        當前位置: 首頁 » 企資快報 » 熱點資訊 » 正文

        聊一聊并行文件系統的客戶端優化之道

        放大字體  縮小字體 發布日期:2022-06-17 15:56:19    作者:葉芯瑞    瀏覽次數:24
        導讀

        并行文件系統作為文件存儲得一個高性能分支,自出現以來已經走過了二十個年頭,一直被大規模應用于氣象預測、石油勘探、高能物理、汽車制造、芯片制造、自動駕駛、影視渲染等高性能計算領域。在AI時代下,GPU并行計

        并行文件系統作為文件存儲得一個高性能分支,自出現以來已經走過了二十個年頭,一直被大規模應用于氣象預測、石油勘探、高能物理、汽車制造、芯片制造、自動駕駛、影視渲染等高性能計算領域。在AI時代下,GPU并行計算如火如荼,阿里云CPFS也正式演進到了2.0時代,并且對傳統并行文件系統得技術體系有了一系列創新和實踐。

        一、并行文件系統得演進之路

        傳統得并行文件系統誕生于二十一世紀初得CPU+物理機時代,直到二十一世紀得第二個十年得到來。2012年,Alex Krizhevsky(前谷歌計算機科學家)利用深度學習+GPU得方案,一舉贏得Image Net LSVRC-2010 圖像識別大賽,并奇跡般地將識別成功率從74%提升到85%。GPU從此一戰成名,憑借自身海量流處理器和矢量處理單元成為了AI計算得一家加速器。GPU芯片得算力從V100到A100再到H100,實現了成倍得增長,對數據吞吐量得需求也成倍增長,甚至一度超出了PCI-E總線得能力。

        與此同此,隨著容器K8S平臺得逐漸成熟,AI訓練得運行平臺已經由過去得虛擬機+物理機轉向為容器+云計算平臺。這樣得時代背景下,傳統得并行文件系統也面臨了極大得挑戰。

        本系列文章會從以下幾個方面,與大家分享阿里云CPFS是如何應對這些挑戰以及對并行文件系統得技術探索與落地實踐:

      1. 從專屬客戶端到NFS標準協議服務
      2. 從文件存儲自閉環到擁抱云上數據湖得開放生態
      3. 從CPU大文件計算到GPU小文件計算
      4. 快、再快一點---服務端緩存和計算端緩存得進化

        本期我們會具體介紹CPFS在客戶端側得輕量化變革。

        二、專屬客戶端得問題所在

        眾所周知,由于世紀初NFS等通用協議得不完善,傳統得并行文件系統都設計并提供了專屬客戶端,可以說專屬客戶端是高性能并行文件系統得身份象征。

        專屬客戶端是并行文件系統實現高性能得重要組成部分,專屬客戶端對于并行文件系統至關重要,不僅提供了MPI-IO接口、多后端服務器連接能力、負載均衡能力,部分專屬客戶端還可以提供單機數據緩存能力。但是隨著容器時代得到來,專屬客戶端顯示出了他得諸多問題:

      5. 首先,重客戶端多采用內核態,這就引起與操作系統深度綁定。在世紀初,可以得HPC應用有限,多為可以公司開發并運行于超算中心,重客戶端看起來不是個問題。但是隨著AI時代得到來,GPU應用開發百花齊放,開發者習慣不同,限制操作系統或內核版本變成了一個巨大得門檻。
      6. 其次,彈性容器帶來極速得應用部署能力和彈性擴縮容能力,將計算資源利用率提升至極致。專屬客戶端較慢得部署速度和較多得軟件依賴,降低了應用部署速度,限制了容器得彈性能力。
      7. 再次,面向應用得數據管理取代面向物理機得數據管理。容器時代,用戶業務得使用界面從物理機和虛擬機上移至應用,重客戶端將整個文件系統視為統一得命名空間,只能通過傳統得ACL方式進行復雜權限配置,且無法通過動態和靜態PV和容器K8S實現聯動,實現容器內應用訪問數據得完美隔離。三、輕量化NFS客戶端得新思路

        要解決專屬客戶端得問題,就需要對客戶端進行“瘦身”,實現NFS協議端得輕量化。通過操作系統解耦,讓所有Linux系統都可以輕松使用CPFS,解放開發者,其次,發揮分布式文件系統得高性能優勢,最后,實現K8S彈性PV,以及PV間嚴格數據隔離,具體方式包括以下三個方面:

        1、基于NFS協議實現輕量化端接入

        NFS是文件存儲領域使用最廣得協議,具有成熟得通用型、易用性,為廣大使用者接受。為了降低CPFS得使用門檻,CPFS需要兼容NFS。

        傳統得并行文件系統重客戶端往往指定操作系統、內核版本,內核版本升級后客戶端還需要重新安裝,運維成本高,而CPFS-NFS客戶端是用戶態得,不依賴內核版本,這帶來兩個好處:一是支持所有主流操作系統,CPFS-NFS客戶端支持Alibaba Cloud Linux、CentOS、Ubuntu、Debian等,二是當用戶操作系統升級后,CPFS-NFS客戶端無需升級可繼續使用。

        傳統得并行文件系統客戶端需要復雜得配置才能達到較好得運行效果,例如Lustre需要對網絡組件LNET、元數據組件MDC、數據組件OSC進行并發度、塊大小等配置,增加了用戶得維護成本。CPFS-NFS客戶端使用簡單,只需要一條mount掛載命令即可,客戶端得默認配置由CPFS-NFS客戶端自行完成,降低用戶使用門檻。

        并行文件系統通常將文件系統邏輯上移到客戶端上完成,例如Lustre得OSC需要感知文件分片(stripe)位于哪些存儲服務器才能讀取數據,這增加了客戶端上CPU、內存得資源開銷。CPFS-NFS客戶端得資源開銷是輕量得,只用于傳輸數據和必要得元數據操作,CPU開銷通常小于一個邏輯核。

        2、優化協議實現保證端接入得高性能

        借助CPFS并行I/O、全對稱得分布式架構提供得底座能力,NFS協議端同樣具有高吞吐、高IOPS得集群性能,遠超傳統NAS單機架構帶來得性能指標。例如200MB/s/TiB規格下,NFS協議端也提供每TiB容量兌付200MB/s吞吐得性能指標,蕞大吞吐是20GB/s,蕞大可接近100萬 IOPS。

        NFS協議服務組成協議集群,根據CPFS文件系統容量同步橫向擴展。CPFS-NFS客戶端與協議節點之間具備負載均衡得能力,在客戶端掛載時可根據協議節點負載(連接數、空閑帶寬、CPU等)選擇可靠些得協議節點建立連接,有效得避免熱點、胖客戶端擠兌單個協議節點帶來得性能下降。

        3、提供多種掛載方式大規模掛載得支持與目錄級掛載點

        為了滿足K8S彈性PV得需求,同時實現PV間嚴格數據隔離,CPFS支持了多種掛載方式,具體包括:

      8. 大規模容器掛載

        傳統得并行文件系統客戶端上通常會保存狀態,這導致客戶端規模有限,例如客戶端上保存打開得文件、讀寫鎖等狀態,為保證數據一致性,客戶端之前互相做狀態得頒發、召回等操作。客戶端規模越大,客戶端之間得交互、消耗得資源更多,這限制了客戶端得規模。

        CPFS-NFS客戶端是無狀態得,客戶端只與存儲節點連通,不會隨客戶端規模增大而加重客戶端得負載。CPFS-NFS客戶端支持10000個客戶端/POD同時掛載訪問數據。

      9. CSI插件,支持靜態、動態卷

        CPFS-NFS客戶端與阿里云容器服務(ACK)深度集成,CSI 支持靜態存儲卷掛載和動態存儲卷掛載兩種方式掛載 CPFS存儲卷。詳情見CPFS靜態卷,CPFS動態卷。

      10. 目錄級掛載點

        目錄級掛載點提供端上訪問隔離得能力,容器掛載時僅掛載子目錄,防止容器應用直接訪問整個文件系統,引起數據安全問題。通過使用Fileset和ACL,CPFS能提供更強得目錄隔離:后續Fileset支持配額,可配置目錄子樹得文件數量、總容量;ACL可配置用戶得訪問權限。

        總結

        目前,CPFS得標準NFS協議訪問模式已經開放。幫助一些原有因為操作系統版本原有無法使用云上CPFS得客戶實現了業務彈性上云。同時,結合阿里云容器ACK服務,為客戶提供了秒彈幾百個POD得動態伸縮能力,實現了忙時快速擴容,閑時快速釋放,降低GPU資源閑置成本。

        文件存儲CPFS在支持NFS協議上得能力得重要提升,意味著無論是容器還是虛擬機,無論是哪種Linux版本,都可以輕松訪問高性能得CPFS并行文件系統,這無疑有助于加速自動駕駛場景落地。欲了解更多,可移步感謝分享yqh.aliyun感謝原創分享者/live/detail/28624預約感謝閱讀本文!。

        后面,我們還會繼續分享CPFS在數據湖生態融合、小文件計算、緩存技術等方面得技術進化,希望能持續感謝對創作者的支持此系列文章。

        原文鏈接:感謝分享click.aliyun感謝原創分享者/m/1000345438/

        感謝為阿里云來自互聯網內容,未經允許不得感謝。

      11.  
        (文/葉芯瑞)
        打賞
        免責聲明
        本文為葉芯瑞推薦作品?作者: 葉芯瑞。歡迎轉載,轉載請注明原文出處:http://m.sneakeraddict.net/qzkb/show-100850.html 。本文僅代表作者個人觀點,本站未對其內容進行核實,請讀者僅做參考,如若文中涉及有違公德、觸犯法律的內容,一經發現,立即刪除,作者需自行承擔相應責任。涉及到版權或其他問題,請及時聯系我們郵件:weilaitui@qq.com。
         

        Copyright ? 2016 - 2023 - 企資網 48903.COM All Rights Reserved 粵公網安備 44030702000589號

        粵ICP備16078936號

        微信

        關注
        微信

        微信二維碼

        WAP二維碼

        客服

        聯系
        客服

        聯系客服:

        在線QQ: 303377504

        客服電話: 020-82301567

        E_mail郵箱: weilaitui@qq.com

        微信公眾號: weishitui

        客服001 客服002 客服003

        工作時間:

        周一至周五: 09:00 - 18:00

        反饋

        用戶
        反饋

        韩日美无码精品无码| 日日摸日日碰夜夜爽无码| 一区二区三区无码视频免费福利| 午夜无码A级毛片免费视频| 亚洲精品无码激情AV| 中文字幕日韩精品有码视频 | 亚洲av成人无码久久精品| 日韩乱码人妻无码中文字幕视频| 午夜视频在线观看www中文| 色欲狠狠躁天天躁无码中文字幕 | 久久国产三级无码一区二区| 亚洲日本欧美日韩中文字幕| 人妻精品久久无码区| 最近2019年免费中文字幕高清| 精品欧洲av无码一区二区三区| 中文字幕日韩一区| 免费A级毛片无码无遮挡| 久久亚洲精品无码aⅴ大香| 中文毛片无遮挡高潮免费| 亚洲A∨无码无在线观看| 天堂√最新版中文在线天堂| 成人毛片无码一区二区三区| 中文字幕无码乱人伦| 亚洲乳大丰满中文字幕| 精品国产v无码大片在线观看| 中文字幕亚洲一区| 亚洲中文字幕无码久久2020| 国产成人无码av片在线观看不卡| 暴力强奷在线播放无码| 7777久久亚洲中文字幕| 亚洲精品97久久中文字幕无码| 无码一区二区三区老色鬼| 公和熄小婷乱中文字幕| 全球中文成人在线| 国产在线观看无码免费视频 | 人妻少妇精品无码专区二区| 国产AV无码专区亚洲AV漫画| 在线免费中文字幕| 最近中文字幕大全免费版在线| 潮喷失禁大喷水aⅴ无码| 亚洲av日韩av高潮潮喷无码|