Fission 1.4 更新重點聚光燈
你知道 Fission 能夠部署 Tensorflow ML 模型了嗎 ?
Introduction
在近兩個月的時間裡,針對來自不同用戶的反饋及問題回報 (包含前陣子的通靈故事 Localhost 迷航記), 我們在 1.4.0 與 1.4.1 做出許多值得一提的改變,讓 Fission 能更加適應跑在不同生產環境上。就讓我們來看看多了什麼改變吧!
Highlight
- 英文版: https://docs.fission.io/releases/1.4.1/
- 由於更新包含眾多 PR ,以下擷取重點
新的實驗環境: Tensorflow Serving
Tensorflow 作為被廣泛接納的機器學習框架,許多公司會利用它來訓練自家模型。但常會發生:
- 工程師懂得寫跟訓練模型,卻沒有相關部署知識
- 需要花額外時間撰寫 RESTful API server 來服務請求
因此「如何將機器學習模型快速部署到生產環境上
」,一直是許多人心中的痛。
有鑑於此 Tensorflow 官方推出 (Tensorflow) Serving 試圖降低模型產出到部署之間的難度。 只要將模型放到對應資料夾內,Serving 偵測到模型後便會啟動對應 API server 服務,甚至版本異動時亦會將請求流量逐步轉移至新的模型。
然而,實際營運上考慮的因素絕不單單只有「將模型利用 API server 來服務預測請求」這麼簡單。
更多數情況我們會問的是:
如何大規模部署機器學習模型? (How to deploy ML models at scale?)
這個問題就牽涉到「底層架構」與「服務水平伸縮」等等議題。