DeepSeek+BlackEye 經開區融媒體中心開啟智媒新時代

日期:2025-02-11 16:53    來源:北京經濟技術開發區管理委員會

分享:
字號:        

  人形機器人行走在花叢中,靈活地伸出左手,觸摸一朵黃色的花;人形機器人揮動着雙手,生動地與老人交流;身穿廚師服的人形機器人在廚房裏炒菜,鍋裏的菜熱氣騰騰……這是北京經開區融媒體中心“新成員”多模態視聽大模型創造的最新視頻佳作。

  近日,北京經開區融媒體中心在當虹科技的技術支援下,正式啟用融合了DeepSeek- R1和DeepSeek Janus Pro的BlackEye多模態視聽大模型,率先開啟“DeepSeek+視聽+行業端側”的大模型應用之旅,為新聞生産注入全新動能。

  “僅需幾十秒,就可快速生成一段高精度視頻,大大節省了視頻生産的時間和成本。”“視頻橫轉豎一直是我們視頻業務的難點,這次終於有了好用的工具。”“文生視頻、圖生視頻、智慧橫轉豎、智慧慢動作、智慧摳像,有一説一,功能真的太全面了”……北京經開區融媒體中心記者、編輯們表示,有了多模態視聽大模型這位“賽博同事”,內容生産質效正在飛速提升。

  據悉,北京經開區融媒體中心佈局應用的多模態視聽大模型,是其聯合專注大視頻領域的國家級專精特新“小巨人”企業當虹科技打造。該大模型在當虹科技BlackEye多模態視聽大模型融合Deep-Seek-R1和DeepSeek Janus Pro基礎上,完成視聽傳媒垂類場景數據調優訓練。基於DeepSeek-R1強大的模型推理能力,該大模型融合了多種深度神經網路組件,包括Transformer、Diffusion等組件,通過文本、圖像、視音頻、三維模型等多種模態的編碼、解碼、多模態潛空間對齊、多模態語言推理及生成等技術,實現不同模態資訊之間的推理和預測生成,具備了更強大的多模態理解能力,可以更好地理解和處理視聽內容,顯著提升傳媒文化領域內容生産、審核、推薦和用戶體驗等方面的效率與品質。

  通過多模態視聽大模型進行一段10分鐘的養生視頻創作,大模型可一鍵理解視頻內容,並由DeepSeek-R1進行深度思考,給出健康科普、食材挑選、烹飪技巧等三個角度的短視頻腳本,並結合BlackEye文生視頻、圖生視頻等生成式演算法,以及AI超分、AI插幀、AI橫豎屏同步製作等分析式演算法,短時間就能製作出精美的專業級視頻。

  目前,該多模態視聽大模型可以生成電影、連環畫、3D卡通等八種風格的2K視頻並可通過AI超分演算法進一步提升至4K。同時,為了適應手機豎屏觀看需求,還可將橫屏視頻智慧轉化為豎屏,AI橫豎屏同步製作效率大幅提升。

  “多模態視聽大模型的應用,標誌着北京經開區融媒體中心在AI技術應用領域邁出關鍵一步。”北京經開區融媒體中心有關負責人表示,作為率先擁抱前沿AI技術的區級融媒體中心,北京經開區融媒體中心已通過本地化部署,在保障數據安全的基礎上實現了大模型與新聞場景的深度適配。未來,北京經開區融媒體中心將持續借助AI技術能力,進一步加大在新聞挖掘、內容創作、新聞分發、用戶互動等領域的應用力度,積極探索AI技術在媒體行業的創新應用場景,為用戶提供更豐富、更優質、更智慧的新聞服務,引領區級融媒體中心在新時代的智慧化發展浪潮。

您訪問的連結即將離開“首都之窗”門戶網站 是否繼續?

已歸檔