百度智能云開放VideoMind,讓企業構建自己的的視頻AI模型

2019-09-25 余愷威 IT之家
瀏覽

近期,百度智能云宣布開放業內第一個視頻AI模型自動化生產平臺VideoMind,可以幫助企業構建符合自身業務的AI模型,對視頻進行智能分析,從而最大化視頻數據的價值。

在今天,不管你是80后、90后,還是00后,視頻已經占據了生活中的很多碎片時間。但是面對海量的視頻,如何快速了解視頻內容并找到有價值的片段,成為一個新問題。比如,如何從一個賽季幾百小時的視頻數據中找到精彩進球的集錦?怎么找到喜歡球星的歷屆進球瞬間?

想要解決這些問題,讀懂視頻是關鍵。盡管市面有諸多視頻AI模型,但面對復雜多變的業務場景,僅僅靠這些模型是不夠的。

為此,百度智能云開放了業內第一個視頻AI模型自動化生產平臺: VideoMind。那么,這個平臺具體有什么功能,一起來看一下。

VideoMind能為企業做什么?

產品設計之初,技術團隊站在客戶的角度上思考了很多:如果某個企業想訓練出一個視頻AI模型,會對VideoMind有哪些期望呢?或許是希望減少數據和開發成本,這樣才能取得事半功倍的效果。或許是希望操作簡單,讓不精通技術的員工也能快速上手。或許是希望模型能加速生產,讓模型生產速度得跟上業務變化。最重要的是,模型質量要好一點,要能為業務發展提供實實在在的幫助。

這些,不僅是某個企業對模型生產平臺的期待,也是整個視頻行業對模型生產平臺的期待。令人興奮的是,以上幾點VideoMind全部做到了。VideoMind模型訓練平臺把用戶需要的開發成本和技術門檻降到了最低。把模型生產速度、操作的便捷程度和模型質量提到了最高。

目前,VideoMind已經支持四類模型訓練:

場景分類模型,如識別出視頻中是工廠、農田、還是建筑工地等。

實體分類模型,如識別出視頻中出現的是貨車、跑車還是卡丁車等。

自然攝像頭實體檢測模型,如識別出街邊的違章停車、無照游商、亂丟垃圾現象等。

人體屬性檢測,如識別出工人是否戴安全帽,法官是否穿法袍等。

另外,倍受矚目的動作識別模型也即將上線,在今年8月29日的百度云智峰會上,VideoMind已提前劇透動作識別模型。通過下面這個視頻就可以看到動作識別模型的生產過程。

易操作,低成本

VideoMind功能全面,集成了從創建模型到發布模型之間的全部功能。包括新建模型、創建標簽、上傳數據、標注數據、訓練模型、評估校驗、發布模型7個環節。基于流程化的操作,VideoMind自動化程度高,讓模型訓練更加簡單易操作,大大減少企業開發成本。

數據方面,Video Mind集成了高達百萬小時的標注數據,內置海量主題標簽和實體標簽。用戶創建標簽時如果成功映射內置標簽,將不再需要針對此標簽上傳數據以及標注數據。如果一個模型訓練任務下的所有標簽都成功映射內置標簽,則可以跳過模型訓練環節,直接獲取模型。如果用戶創建的標簽沒有成功映射內置標簽,只需上傳數百個數據并進行標注,即可開始模型訓練。由此,模型生產過程中的工程技術成本、數據成本均大幅降低。

生產高效,質量最優

生產效率上,一方面VideoMind自動化生產流程降低了技術門檻,為客戶省去了開發時間;另一方面內置的預訓練AI網絡結構和參數,讓客戶能夠快速訓練模型和迭代模型,及時地根據業務需求調整模型。

得益于百度在AI領域多年的積累,VideoMind生產的模型具備出色的模型效果,能支持企業垂類視頻及圖像內容分析需求。每月數據庫更新達10W+,能不斷提升用戶訓練效果。同時,百度智能云視頻AI團隊將不斷升級模型結構,保證Video Mind模型訓練效果持續提升。工程化產品設計結合特有的內置數據與模型結構,使得VideoMind 模型訓練時長縮短至小時級、分鐘級。

值得一提的是,訓練完成的模型支持部署到公有云、私有云、嵌入式設備等,之后客戶通過API的方式就可以調用。

VideoMind一經發布就受到了視頻行業諸多伙伴的關注和認可。未來,百度智能云還將增加更多模型類別,幫助更多企業步入AI時代,敬請期待。

點擊閱讀原文,了解VideoMind更多詳情。