2024年3月7日 星期四

讓照片開口講話

 記得二十多年前,

購買WEBCAM時附贈了幾片光碟,
裡頭有甲尚科技出品的軟體,
[我是大明星還有CRAZYTALK]
主打的就是 讓照片動起來 這回事。

我是大明星的內容是有一個人體模型,
已經建立好一些固定動作和背景,
然後可以將自己的照片變成模型的貼圖,
就可以看到自己在畫面中跳來跳去的樣子,
不能調整動作也不能互動,
但是看到自己變成螢幕內的模型依舊玩的不亦樂乎;



而CRAZYTALK則可以讓平面的照片,
透過一些簡單的操作,讓嘴巴和眼睛的網格動起來,
可以做出很多有趣的表情操作,
而這套軟體後來功能發展越來越強,
已經不僅只是平面的效果了。
這些年也出了不少讓照片開口講話的APP,
只是這些工具大都是將照片貼入內建的模型貼圖,
還是會受限於模型的網格面數,
因此都會看到有菱有角的結構邊緣,
還是一看就知道這並非真實的人物動作或是表情。
而2d ai興起後,已經有不少ai動畫的作品,
總是覺得幀跳動很明顯導致不夠流暢,
直到最近看到阿里巴巴研究的emo技術的這些影片,
實在很難相信真的只是單一張照片的成果,
看到張國榮唱歌的那段,
讓無法再見到面的人再次開口,
應該會讓很多粉絲流淚吧!



補上甲尚科技的相關連結

2024年3月6日 星期三

3D AI 測試

 連結先放

用關鍵詞生成的模型,
只要不是做實體輸出,
在現階段快到堪用邊緣了。
而用照片生成的模型,
只能驚嘆速度之快後再對品質搖搖頭,
畢竟單一畫面,
可以得到的資訊實在太少,
而3d又不同於2D只單看某個角度,
所以即使繼續發展,
還是比較值得期待使用關鍵字生成的方式。

EXPRESII 簡易介紹

 



\