有了这些AI工具,新手小白也能创作高质量视频作品
今年是AI生成视频技术爆发的一年。从年初OpenAI推出Sora开始,全球各大人工智能视频技术研发团队就在日以继夜,你追我赶,才过了大半年,正是上市的产品就有Runway、pixverse、Luma、即梦、可灵、清影等等,太多了。随着AI视频生成工具的升级迭代、不断成熟,围绕AI视频生成的应用场景也不断被大家开发出来,从年初的“AI我中华”,到AI绘本动画,再到老照片“动起来”,到用AI生成高质量的电影级预告片和商品宣传片……人们使用AI生成视频的门槛也不断降低,年初想要生成“AI我中华”这样首位帧相接,快速变化转场的动画,除了要有丰富的Stable Diffusion动画插件使用经验,更要有动辄上万的电脑主机配置,这让很多对AI视频生成这一新生事物产生浓厚兴趣的朋友望而却步。但随着后来可灵、清影的问世,现在我们普通人拿着一部智能手机就能进行AI视频创作。科技进步大大降低了大家的使用门槛。当然,由于目前整个AI生成式应用尚处于发展的初级阶段,AI视频生成更是处于探索初期,现有的工具要生成一镜运到底的长时间,复杂内容的视频暂时还难以做到,另外现有工具在使用中还经常存在这些问题: 1.训练数据差异: 视频生成的内容和提示词想差很大。特别是国外产品的训练数据并不了解国内的很多文化,元素和符号内容。同样的名词国内外代表的事物存在差异。或者更简单来说就是国外模型使用的国内的训练数据少。2.提示词的差异:使用国外产品一般需将中文的提示词翻译成英文提示词再给到模型进行输出,这个过程难免导致很多内容、信息上差异。3.AI视频生成工具无法模拟真实时间的运动状态:特别是生成多个人物,或者多个事物的时候,视频中物体的三维状态很难保持协调性。经常会出现人物胳膊腿乱飞的现象,或者反物理常识的运动状态,这就使得生成的内容很奇怪,不太和谐。虽然AI视频生成的技术和工具发展任是任重而道远,但凭借现在常规的这些AI工具,已经能够创作出高质量的视频作品了,比起工具本身,这里面更考验大家的是对剧情分镜场景的编导能力,对前期生成图片的审美能力,后期的视频剪辑能力。这里,我给想要用AI创作高质量的视频作品的朋友,整理了一个思路:1.使用大语言模型如ChatGPT、Kimi智能助手等生成文案; 2.文案满意后,使用大语言模型将文案分段变成一组组的提示词;3.使用Midjourney、FLUX、Stable Diffusion等多模态模型来合成对应的图片内容。4.在Runway、Luma、可灵等视频生成工具中使用图、文组合提示词,再加上运镜。5.使用ChatTTs生成音频 6.使用剪映把音频和视频内容串联起来即可。整个视频生成过程涉及使用文本提示词来生成文案,用文本提示词生成图像,用图、文提示词生成视频。因此合成好的视频就离不开提示词的各场景的使用,来非会员试读19%,加入社区后可阅读全文
页:
[1]