1年ぶりのblog
昨年の9月以来の投稿です。
前回は「Neuronium」という20秒のAIショートムービーを作った時でした。
「Neuronium」はJ-WAVE主催のINOFES 2023のショートムービー部門で最優秀賞をいただき、当時の日本のAIムービーでは最先端レベルだったと思います。まあその時はRUNWAYがようやくImage to Videoをできるようになった時点だったので、それを使ったら当然最先端だったわけですが。
当時のRUNWAYは4秒生成できましたが、すぐ破綻していたので使えるのは15フレとかせいぜい1秒くらいでした。
今では10秒の動画を生成するようになり表情やリップシンクロもできるようになって、1年前とは別次元のクォリティです。
動画の元になる画像生成AIは、昨年はSeaArtを使っていました。SeaArtはStable Diffusion系なので、じゃあその本体のStable Diffusionをローカル環境で使えるようになろうと、昨年末に初のWindowsマシンを買って正月引きこもりでStable Diffusionを攻略していました。私はプログラミングは全くできないのでなかなか手強かったです。
その頃やってたセクシーフォトがこれ。
いかにもAI美女ですね。Stable Diffusionはこういう傾向になりがちです。
2月くらいからMidjourneyを使うようになりました。これが素晴らしく優秀で、画像生成はすっかりMidjourneyに移行してしまいました。Midjourneyは絵がハリウッド映画っぽくて私が好きなタイプなんですね。しかも3月くらいからものすごく進化しました。
一番大きかったのは”–cref”っていうプロンプトです。キャラクター・リファレンスっていう同じ顔のキャラクターを作れるっていうコマンドです。これがそれまではできなかったんですよ。主人公の顔が定まらないとストーリーのあるムービーは作れません。これが、完璧ではないにせよある程度できるようになったのは素晴らしい前進でした。これ、いまだにMIdjourneyにしかないんじゃないかな?他のAIこれできるんだろうか?
その”–cref”を使って作ったMVがこちらです。これが5月ですね。
この頃から世の中の皆さんが生成AIに興味を持つようになり、プロダクションやエージェンシーで画像生成AIセミナー的なものを頼まれるようになりました。多い時は40人の社員の方の前でお話しさせていただきました。仕事としてAIを使う動きも今年の夏頃から出てきています。
AIはすごい勢いで進化しています。
が、実は私が昨年感じたほどのスピードではないんです。今頃にはもっと自由に動かせると期待してたんですが。
意外とまだまだです。すごいんだけど、仕事で使えるレベルかっていうと、まだそこまでではない。もう一つ乗り越えてほしい。
そろそろOpenAIのSORAが一般公開されるだろうと思います。Adobeもかなり力を入れてます。ここから半年が楽しみだなと思っています。
このblogを復活したので、生成AIについて実際に使って発見したことを発信していこうと思います。