以下是如何發現人工智慧生成的影片(目前)

隨著 OpenAI 的 SORA 文字到視訊模型的到來,我們正面臨著一個不可避免的充滿人工智慧生成影片的未來。但該技術尚不完美,因此這裡有一些發現人工智慧生成影片的技巧(目前)。

以下是如何發現人工智慧生成的影片(目前) - %categories

檢測人工智慧產生的內容可能是一個挑戰

乍一看,您可能會認為人工智慧生成的影片是真實的,這是可以理解的。只有當您開始更深入地觀察時,您可能會開始注意到有些問題。

我們將在本文中討論的所有範例都與文字到文字轉換模型有關 OpenAI 的 SORA 視頻, 該產品於 2024 年 XNUMX 月發布。它是迄今為止同類產品中最先進的模型,可將文字提示轉換為動畫圖像。自從出現以來,事情已經取得了長足的進步 Reddit 熱門貼文 2023 年初,他正在吃威爾史密斯的義大利麵。截至 2024 年 XNUMX 月撰寫本文時,SORA 仍處於封閉測試階段。

檢測人工智慧生成的照片和影片更像是一門藝術,而不是一門精確的科學。有幾種方法可以判斷影像是否由人工智慧生成,但它們的工作效果並不一致。為人工智慧內容檢測而設計的工具通常不可靠,即使涉及文字也是如此。

這裡的目標是強調一些獲取人工智慧生成內容的方法,至少目前是如此。請記住,模型總是在不斷發展,因此這些特徵將變得更難檢測。有時,選擇影片的主題和背景會產生很大的影響。

關注細微變化和“鬼魂”

尋找細微的變化是發現令人信服的人工智慧技巧的一種方法,但這並不容易。 OpenAI 的 SORA 的一個例子描繪了一名婦女走進去 霓虹閃爍的東京街道。對於文字轉視訊轉換器來說,這個場景令人印象深刻,令人印象深刻,以至於您可能錯過了鏡頭末尾附近的衣櫃更換。

開場場景中女子的服裝為紅色連身裙,搭配長版開襟衫和皮夾克。這件夾克似乎與西裝外套融為一體,有點奇怪,但我不完全是時尚大師,所以我會順其自然:

以下是如何發現人工智慧生成的影片(目前) - %categories

現在看一下同樣的衣服的特寫,你會發現這件衣服現在有黑點,而皮夾克有更大的偏心翻領:

另請閱讀:  為成功而聘請 Java 開發人員的 7 個理由

以下是如何發現人工智慧生成的影片(目前) - %categories

這是非常微妙的,大多數人需要多次觀看影片才能弄清楚。這個場景很密集,充滿了沉思和背景演員,這有助於分散你對錯誤的注意力。

另一件需要注意的事情是鬼魂或出現和消失的事物。加州一座城市的 OpenAI 視頻 淘金熱就是一個很好的例子。看看這個相當神秘的人物,你的大腦可能會將其解釋為一個騎著馬的人:

以下是如何發現人工智慧生成的影片(目前) - %categories

兩秒後,人影完全消失。如果你觀看視頻,你會看到這個人物融入泥土中,就像一個幽靈:

以下是如何發現人工智慧生成的影片(目前) - %categories

人工智慧難以處理手指、眼鏡和微小物體

人工智慧生成模型面臨的最大問題之一是邊緣和細線。特別是仔細觀察手、他們所持有的物體、眼鏡以及物體與人類特徵(例如帽子、頭盔,甚至頭髮)相互作用的方式。

與人工智慧生成的攝影相比,影片可以更容易發現此類錯誤,因為這些功能可能會因場景而異。

對AI來說,拉動手指、定位手部尤其困難。生成模型往往會產生比您預期的手指更多或更少的手。有時事情看起來不太對勁,或手指太細,或指關節太多。攜帶的物體也表現出相同的波動,有時看起來好像畫面中的人已經吸收了他們攜帶的任何東西。

尋找看起來不會不對稱或與臉部融為一體的眼鏡。在影片中,他們可以進入和退出視圖並在場景之間切換。手臂和腿也一樣,看一下 尼日利亞拉各斯人民的 SORA 影片:

以下是如何發現人工智慧生成的影片(目前) - %categories

請你把你的第三隻手臂從我腿上拿開好嗎?

仔細觀察影像背景中的物體

對於人工智慧生成的影片來說,背景細節往往是一個很大的洩漏點,甚至比照片更重要。好的造假取決於主題是否夠令人信服,足以分散你對背景的注意力,而背景的表現卻不盡人意。

另請閱讀:  如何安全清潔電視或顯示器

再看一下東京夜景的影片。這個場景是如此密集,以至於很容易從表面上看一切,但仔細觀察在背景中行走的人,尤其是那些在拍攝對象左側的人:

以下是如何發現人工智慧生成的影片(目前) - %categories

有些動作感覺不太對勁。在某些時候,這個人似乎會重複自己的話。後來,看似一群人似乎變成了一個人,就好像他們都穿著同樣的裙子或外套。在某些區域,行走動畫也很奇怪。

留意後台任何可疑活動,以偵測人工智慧產生的影片。有時您會注意到樹木、田野或森林等自然物體會以奇怪的方式做出反應。視角可能看起來不正確,有時動畫物件與動畫中顯示的路徑不完全對齊。

另一個例子是無人機拍攝的海岸 OpenAI 的大蘇爾。 你在自然界中看過這樣的波浪嗎?

燈光與“AI光環”

這是我們在人工智慧生成的圖像中經常看到的東西,可以說它更多的是一種“感覺”,而不是客觀可識別的特徵。如果在您期望對比度更高的情況下,燈光看起來特別平坦且不自然,這可能表明它可能不是真實的。

例如,不需要消除諸如污點、重影(由於進入鏡頭的光線過多而導致光線丟失)或陰影旋轉(由於沒有光線而導致陰影細節丟失)等相機缺陷。展示。

它看起來就像是精心製作的音樂視頻,或者像現實照明和光線追蹤之前的視頻遊戲。拍攝對象可能會在您最意想不到的時候顯得光線充足。

恐怖谷效應

恐怖谷效應是一個術語,用於描述人類和非人類特徵的混合,使觀看者感到不舒服。機器人或人形機器人經常被引用,因為它們具有人類的外表,但同時又不可避免地不人道。

大多數情況下,恐怖谷效應只是歸結為感覺。你可以感覺到有些事情不太對勁,但又無法準確指出到底是什麼。這種效果經常出現在人工智慧生成的照片和影片中,我測試它的領域之一是 SORA 太空人影片。

另請閱讀:  Minecraft 現在包含附加元件,而不是模組

以下是如何發現人工智慧生成的影片(目前) - %categories

暫時忽略這位太空人戴著針織太空頭盔,那張臉上有一種讓我背脊發涼的東西:

還有 類似的神秘祖母失敗了 吹熄她的生日蠟燭時,動作看起來更糟:

留意廢話

這似乎是最容易發現的危險信號,但有時你的大腦會忽略一些事情。上面提到的太空人影片就是一個很好的例子。有一個關於門、把手、槓桿或沒有意義的物體的簡短場景:

以下是如何發現人工智慧生成的影片(目前) - %categories

這是什麼?為什麼動畫看起來是反向運行的?針織頭盔我可以原諒,但這東西從我看到它的那一刻起就讓我困惑。

運動也是如此。 SORA的貓在床上的影片令人印象深刻,但動作不太正確。業主們將會意識到 這種行為很奇怪而且不自然。物件的行為與情境背景似乎不符。隨著時間的推移,這種情況將會改善。

模糊文字是人工智慧生成過程經常犯的錯誤的另一個很好的例子。 SORA 的東京夜景影片中的日本人物是一個混合體,一些路標和商店也是如此。選擇一個大多數人分不清日語和負評的場景,對 OpenAI 來說是一個明智的選擇。

訓練自己更好地發現此內容

訓練自己辨識人工智慧生成內容的最佳方法就是自己研究。大多數創意模型在網路和 Reddit 等社群媒體平台上都有活躍的社群。找到一些並看看人們想出了什麼。

此外,您可以使用穩定擴散等工具來建立自己的影像。在撰寫本文時,OpenAI 的 SORA 尚未可供公眾使用,因此您必須等待才能自行使用。

人工智慧生成的影片令人印象深刻、引人入勝,同時又令人恐懼。隨著時間的推移,隨著模型克服其弱點,這些技巧可能會變得不那麼重要。所以係好安全帶,因為你還沒看到任何東西。

你可能也會喜歡