熱門新聞

徹底炸了!今天,又一次見證歷史! @ 2024-02-16T20: 返回 熱門新聞
關鍵詞:影片 生成 模型 文字
概念:生成影片模型
說到文字生成影片的 AI 模型,META、GOOGLE、RUNWAY 等都其實也有,甚至有提供公眾使用,不過 OPEN AI 的 SORA 是目前唯一能生成 60 秒長的內容,而且是整段影片一口氣生成,而非像其他模型般逐格生成再連續播放。
OPENAI名為SORA的新人工智能模型可以根據文本提示生成細節豐富的影片。該技術在令許多人驚歎的同時也引發了混淆視聽的擔憂。OPENAI表示,一組研究人員將找出該工具可能被濫用的方式來予以防范。OPENAI旗下的人工智能工具包括CHATGPT。封面圖片來源:OPENAI
除了能夠僅根據文本指令生成影片之外,該模型還能夠獲取現有的靜態圖像並從中生成影片,准確地讓圖像內容動起來並關注小細節。
外媒報道,人工智能(AI)公司OPENAI正在開發一款可以「文字轉影片」的AI模型「SORA」,原理和OPENAI的圖像生成AI工具DALL-E類似,透過使用者輸入的文字提示來生成影片,目前僅能生成最多1分鍾的影片。
OPENAI 的 SORA 模型可以透過輸入文字或者圖片自動生成長達 60 秒的影片,從示范片段中可見,生成的影片無論在畫質、影片中物件的連貫性以及對人體和物理環境的描繪准確度都相當強勁,相對於 RUNWAY、PIKA 和 STABILITY AI 等初創公司的類似模型,以及 GOOGLE 的 LUMIERE 模型等都有優勢。OPENAI 指,SORA 使用的技術是基於過往開發 DALL-E 和 GPT 系列模型的經驗,基於 TRANSFORMER 架構開發,能夠在流暢度和畫質上帶來極佳表現。
CHATGPT開發商OPENAI發布影片生成模型「SORA」,展示多條基於文字生成的AI生成影片
從技術層面而言,SORA是一個擴散模型,能從一個看似靜態噪音(STATIC NOISE)的影格開始,逐步透過去除噪音生成一則影片。SORA是在DALL-E及GPT模型的研究基礎上發展,它使用DALL-E 3的重描述(RECAPTIONING)技術,能為視覺訓練資料產生高度描述文字,因此能依循用戶文字指令產生影片。除了根據文字指示外,該模型也能將靜態圖片動態化以生成影片。SORA能從無到有生成全新影片,也能延長現有影片,或是將遺失的影格補上。
OPENAI在官網上展示了SORA多個應用范例,並公開了這些影片生成的文字指令,其中一個仿若來自真實東京街頭場景,一名身著皮衣、紅色長裙女人走在街頭的影片,OPENAI在影片下方公開其畫面指令,無論是影片里出現的女人臉上出現的墨鏡、紅色口紅,街道潮濕反光、五顏六色的燈光、行人四處走動等場景細節,無一不符合該生成影片文字描述。
就在今(16)日凌晨,OPENAI 在 X 上推出一款新生成影片模型「SORA」,可根據文字提示、或是靜態圖片生成長度一分鍾的短影片。盡管目前尚未向市場推出,但其釋出的范例影片品質和細節真實度已轟動社群,甚至有網友表示這足以撼動整個影視產業。
(中央社舊金山15日綜合外電報導)創造聊天機器人CHATGPT和圖像生成器DALL-E的科技公司OPENAI表示,公司正在測試一款由文本轉為影片的模型SORA,能讓用戶透過簡單的指令創造出逼真的影片。
人工智能公司OPENAI公布新生成式AI模型「SORA」,可利用根據文字提示生成短影片,現時尚未開放公眾使用。
[NEWTALK新聞] OPENAI今(16)日發布了最新的影片生成AI模型SORA(日文「空」羅馬拼音),這是一個能夠將文字描述轉換為長達60秒影片的創新技術,並能夠呈現出豐富場景細節、多角色互動和多角度運鏡的高品質影片。OPENAI在官網上展示了多個應用范例,影片品質皆具極高水准,並同時公開了這些影片的文字指令。 OPENAI在官網上展示了SORA多個應用范例,並公開了這些影片生成的文字指令,其中一個仿若來自真實東京街頭場景,一名身著皮衣、紅色長裙女人走在街頭的影片,OPENAI在影片下方公開其畫面指令,無論是影片里出現的女人臉上出現的墨鏡、紅色口紅,街道潮濕反光、五顏六色的燈光、行人四處走動等場景細節,無一不符合該生成影片文字描述。 而除了真人,SORA還可生成動畫角色,其范例中即有一個可愛的毛茸茸小怪物跪在融化紅蠟燭旁邊的影片,OPENAI也公開該影片的生成文字指令,影片中可愛的小怪物睜大眼睛和張開嘴巴看著紅蠟燭,傳達出的純真和俏皮感覺,則完全符合其指令需求。 OPENAI表示,SORA不只能夠從文字生成影片,也能夠從靜態圖像或現有影片進行延伸和變化。OPENA解釋,該模型對語
OPENAI 官方 X 帳號在今(16)日發布了一則貼文,簡單介紹了 SORA AI 模型功能,該模型可以根據使用者提供的文字提示自動生成影片,影片內容可以包含多名角色,搭配特定的動態場景。不過 OPENAI 官方 也強調說 SORA 目前是未完成的產品,可能無法理解復雜的物理或空間細節,導致生成不合邏輯的短影片。
生成式人工智能(GENAI)巨頭OPENAI去年藉CHATGPT而為人熟悉,其後也開發出文字、圖片各類生成工具。近日OPENAI又有「新搞作」,於昨(15日)公布影片生成AI模型「SORA」。
OPENAI將推出新AI模型 可透過文字生成短影片
OPENAI 日前發布了全新影片生成模型SORA ,讓用家可以用文字生成影片。據《MASHABLE》報道,SORA 可以生成 1 分鍾的影片,而且這些影片非常逼真,看起來就如真實拍攝般樣。網民對 SORA 態度兩極,部分網民表示有興趣試玩 SORA ,另外有網民則表示擔心影片制作行業將會式微。
OPENAI 除了有聊天機器人 CHATGPT、AI 文生圖工具 DALL-E 3 外,現在也要開始在「AI 影片生成」上發力!日前 OPENAI 宣布推出全新影片生成模型「SORA」,只要透過文字敘述即可生成一部時長 60 秒的超逼真影片。
OPENAI在15日發表的公告中表示,該公司正在教授人工智慧「理解和模擬運動中的物理世界」,希望訓練模型幫助人們解決需要現實世界互動的問題。目前OPENAI推出的解決方案,就是文字轉化視訊的人工智慧模型SORA:目前SORA已經可以根據用戶的文字提示,產生長達一分鍾的高品質影片。
經過測試,SORA 可以生成各種風格(包括真實電影,動漫風或黑白)的影片,長度可達一分鍾,遠遠超過目前大多數其他市面上的文字轉影片模型,而且這些影片都盡可能在保持合理的連貫性上,像是他們展示的第一款影片中除了文字之外,街上水窪的倒影、衣服隨走路的擺動效果,甚至是主角臉上的肌理都栩栩如生。
OPENAI表示,除了將文字轉換成影片,SORA也可以把圖片動態化生成影片,或是根據現有影片延長補充。OPENAI相信,SORA將是實現通用人工智慧(ARTIFICIAL GENERAL INTELLIGENCE,AGI)的重要里程碑,因為它能深度理解使用者的文字以及現實世界,才能進行精准的影片生成演繹。

 

易發投資 | 首頁 |  登錄
流動版 | 完全版
論壇守則 | 關於我們 | 聯繫方式 | 服務條款 | 私隱條款 | 免責聲明
版權所有 不得轉載 (C) 2025
Suntek Computer Systems Limited.