2023年年头,油管博主Corridor上传了一支名叫《石头剪刀布》的7分钟小短片菊花 流出 国产 porn,AI转绘给这支由真东说念主实拍的视频带来了极具冲击力的视觉恶果,让本平平无奇的豁拳游戏变化无方成气运对决,斩获超400万播放量,被搬运到B站后也取得了超两百万次不雅看。
在商用范围,好吃可乐的AI告白让名画动了起来,也不乏有AI全历程流浪地球宣传片、游戏PV等方面的试验尝试,在《石头剪刀布》发布泰半年后的今天,咱们邀请了实验电影导演海辛、腾讯光子责任室动效想象师林海峰,一皆探讨AI图像能更好地动起来了吗?
海辛:
实验电影导演,AI 创作家,第25届上海国际电影节评委、猫眼签约动画制作主说念主、多所艺术高校电影及 AI 标的的外聘讲师、为多家行业头部游戏公司及博物馆提供想象及接头处事;
林海峰:
腾讯光子责任室动效想象师,LitGate 社区入驻达东说念主。
成志&ROSA:
主理东说念主,AI+游戏阛阓不雅察者,GameTrigger投资副总裁
他们探讨的话题包括但不限于:
AI视频生成的责任流探索;
在游戏制作管线中如何应用AI视频生成?
最新的AI视频生成技艺趋势;
如何看待AI视频生成可控性低的问题?
01 海辛共享:AI视频生成的责任流 01 个东说念主短片制作历程之是以猜测用AI作念变换,是因为我以为实质上Video2Video和作念动画的逻辑是一样的,都是从(动态)分镜启航,中间通过渲染、作念材质等历程,终末到成片,这亦然明天AI发展比拟有可行性的标的。当初作念的时候还莫得AnimateDiff,主如果用SD的历程,加上EbSynth保管要道帧的褂讪性作念出的恶果。
这个视频的通盘这个词历程便是真东说念主拍摄后,用SD来渲染要道帧,之后再放到EbySynth对镜头里面其他要道帧进行延续,使得它的画风简陋保持一样,且减少画面的抖动。在第一个镜头可以看到它举座色调有个大幅度的变化,这里便是用SD针对几个要道帧进行渲染,使得它的色调变化相配较着,在后期编订时把它们相连在一皆。这种色调的变化配合较大的东说念主物动作曲线,能起到可以的恶果。
第二个镜头我只作念了一个要道帧,因为它动作很小,仅仅提供一个节拍点,是以这个画面的逻辑是不要辅导,更多是眩惑东说念主的崇拜力。因此在EbySynth算了以后,它就会是很褂讪的画风,不会有AI相配抖动的嗅觉。
第三个镜头是一个相配快速的辅导镜头,我的处理方法是进行分层,前后景进行永别操作。远景东说念主物如故只用一个要道帧来达到比拟褂讪的恶果,后景配景我是平直用AI来算的每一帧,因为AI自身抖动的原因,再加上远景东说念主物相配的固定,反而加强了它的辅导应答感和对东说念主物的聚焦。
终末是作念了一个变脸的恶果,先用SD作念in-painting,然后抠出来处理好一个要道帧,再把要道帧用EbySynth算出每个镜头,终末在这些组镜头里面当作素材进行编订,就可以作念出比拟丝滑的换脸恶果。
共享通盘这个词小片子的制作其实想讲的是:AI动画莫得一个相配固定的approach,它有许多的末端标的,但每个镜头的方法皆备字据你的需乞降创意决定。
02 AnimateDiff共享
最近出的AnimateDiff的一个特色便是它可以保证帧与帧之间的相对丝滑,而还在前几个月,如果想要AI镜头达到丝滑的恶果,具体的方法仍是用EbySynth算要道帧,或者像《石头剪刀布》用达芬奇的抑止Deflerk的方法让它保管褂讪。
而AnimateDiff的算法可以保证Vedio2Vedio时,在重绘幅度相配大的情况下,每一帧之间是相对褂讪的。
这是我用线稿动画转成一个带材质动画的测试,诚然恶果还一般,然则照旧可以看出来,如果搭配富足好的SD模子,把节点式的方位竖立好,这种征象动画是可以出到比拟好的恶果的。
这是我前两天作念的另外一个测试,这个脚色Lora是周启洛,我在想以后作念这些动画片是不是都可以让一个脚色来演另外一个脚色,我作念完这个动作,我用AI就可以转成这个东说念主在作念其他动作,诚然目下看起来如故有少量抖,但面部照旧是比拟丝滑了。
咱们以为AnimateDiff是一个相配好的照拂有野心菊花 流出 国产 porn,可能会对行业会有很大影响,之前AI动画的局限性便是太抖动,照旧基本上能照拂了,是以可以期待本年Animation会有猛进展。
我嗅觉目下的AI器用照旧可以成为AE里的一个子板块了,提供不同的恶果,每种恶果可处事于创作家自身需要调用的情况。我相配荧惑身边的东说念主多了解AI,它还是曲常有后劲的,即使不成快速替代已有的责任流,但仍可以把它当成一个殊效滤镜来玩。
03 责任流共享
1.第一步主如果先拍摄参考影片、制作动态分镜。
2.第二步在AI的部分,我目下用节点式的SD会多一些,因为它给的空间会大一些,对SD的讹诈也会多许多,再加上不同种类的ControlNet模子和AnimateDiff模子,可能会比之前SD单纯用workby的那一套要复杂许多,它需要你对于SD自身的各模块有更真切的领略、对ComfyUI更熟悉(ComfyUI会比WebUI在跑动画上头要快许多),然后对ControlNet和AnimateDiff都要熟悉一些,诚然单独都不算复杂,然则把这些全部加一皆的话,可能会存在一定的门槛,也使得它莫得看法很快进行大范围的践诺。
3.终末再到Post production要领,在一些常见的后期软件里进行。
我以为整套Vedio2Vedio的门槛逐步在往上走了,需要掌持的东西会比AI绘图多许多,但它有一个很好的地简陋是它有新的节点型的责任流。咱们时时会在一些社群里通过交换节点来复现一些恶果;在样子中,对于同类型的镜头,咱们就可以用节点型的责任流进行复用,不需要每次都精准的调养。
04 Claude2共享
终末给大家共享一下我用GPT线的创作。我会把我方写的一些短篇演义整理好以后发给Claude2,它基本可以学习到我的魄力并写出各式各种的故事。我有一个相配激烈的体会,便是AI会把创作家自身的特色放大,我我方在写演义的时候可能设定上相配道理道理,但结局老是差强东说念主意,在Claude2复现我的魄力的时,也会遭遇相同的感受。是以我以为创作家需要对我方有相配真切的了解,能力跟AI进行好的合营。
我尽头可爱第三个故事,原因是它的特色很较着,设定相配道理道理,但它结局可能会稍弱
我在DallE3上也进行了一些探索,我想把故事作念成绘本,让它想象分镜和Key frame,它可以和我琢磨魄力、最可爱的部分、中枢节拍点在哪等问题,我可以和AI去不推辞流相易。
具体该若何画,它从第一章开动就会跟我一皆创作,画的过程中出现随便也能通过对话来修改。我以为在与AI交互过程中,它会匡助你在一些相配中枢的责任流节点给你许多建议,比我夙昔我方创作要粗心多了。
05 Q&A
Rosa:比如说目下我但愿能够有一个买量素材的剧本创意,目下AI视频这一块能够扶植我去提取通盘这个词的游戏卖点、想考买量视频的一些创意吗?
海辛:创意方面的话,许多东说念主会推采取GPT或者Claude2之类的进行扶植。我我方的体验是,如果平直去问,恶果时时不太好,你需要给他富足多的参考,告诉他什么是好的,而况有富足好的Prompt。
Rosa:目下AI生成的视频能跟我需求的魄力保持比拟高的一致性吗?
海辛:如果你在调要道帧的阶段,就照旧把风作风的相配切合,那基本就可以按照你想要的魄力用其他器用来进行转绘。比如我调金克斯和蜘蛛侠的视频,都是细则想要什么样的画面后,再把其他帧给补上的。
对于一些比拟著名气的IP像蜘蛛侠、金克斯会容易许多,因为模子自身就有无数照旧进修的素材,再加上Lora进修会容易许多,然后如果是个东说念主创作的IP会有难度,需要你进修一个更好的脚色Lora或者是魄力Lora来扶植。
Rosa:我尝试中发现视频生成会出现一个好意思仙女可能会有三只脚的克苏鲁情况,这种情况照旧被照拂了吗?
海辛:你应该是文本生成视频吧,目下具体用到责任流里还比拟少,原因是它平直生成素材的质地太不可控,哪怕质地好,你放到责任流里面又皆备不知说念它会生成若何样的文本。因为文本和画面并不是逐一双应的关系,如果莫得ControlNet的加持基本便是一个祸害。是以如果想让它相配贴题的完成你的想法,那逃不开ControlNet的使用,你要平直告诉它画面是若何的。
Rosa:在AI视频里应该还挺需要遴荐一个适当的重绘幅度的,太低的话,画面可能不褂讪,太高的话又和原画面的区别不大,若何样去培植生成的褂讪性呢?
海辛:目下有AnimateDiff照旧基本照拂问题了,可以保证在重绘幅度相配大的情况下,保证画面帧与帧之间依然有相配强的褂讪性。AnimateDiff add value的方位其实便是它即使在重绘幅度相配高的情况下,每个帧之间依然是贯穿的,是以咱们才会说它可以让ai动画更快的投入责任流。
Rosa:DallE3出来后有匡助照拂其时困扰你们的一些什么问题吗,更多的应用在什么场景呢?
海辛:它是基于GPT的绘图大模子,它可以进行多模态的交互,你可以在它生成图片后跟它进行对话修改,它把对话与绘图模子集中在了一皆,使得相易时像跟AI共事一皆责任一样。这是目下其他绘图器用还莫得看法作念到的,像SD、MJ都是单模态的,而DALLE3可以文本告诉它你想若何修改。
目下其实还有蛮大的局限性,一是自身数据库的原因,使得通盘这个词模子的魄力不够完备,另外便是它莫得看法生成除了一比一像素之外的图像,但咱们信托深信是很快就可以被照拂的问题。我以为前者可能会费劲一些,前者是各式魄力莫得看法被喂饱,目下大模子其实都还莫得被喂饱。
Rosa:甲方一般会冷漠什么样的需求呢?DallE3出来后有匡助照拂其时困扰你们的一些什么问题吗,更多的应用在什么场景呢?
海辛:目下我接到的一方面会有许多甲方在跃跃欲AI动画能到什么地步,看我方夙昔的责任流到底能被替换若干;另一方面是在短视频赛说念,诚然在电影、长视频上还莫得相配工业化,但短视频对于画面质地要求莫得那么高,AI可以在短时候内以很低的老本,给画面带来很大的视觉刺激,在宣传践诺上恶果可以,目下ins和X上也有相配多短视频的创作家在琢磨该若何作念。
02 海峰共享:AI视频在游戏管线内该若何用01 试验探索
我是一个游戏宅,泛泛喜作念游戏攻略、琢磨激情学,目下是Knowyourself闲谈会的主理东说念主。这是本年3月份和两个小伙伴一皆作念的全AI历程视频,包括画面、Logo、配音、故事:
故事和MJ的教唆词都是用ChatGPT生成的,MJ生出好图后,会在SD里面作念一些重绘和放大的恶果,最要道的是SD提供了一个深度插件;配音则是用微软的AI语音。其时AI出来后,我当作视频想象师,不需要原画协助就可以我方开动制作了,因此有了这个点子。
除了一些小恶果是在AE内末端,其他都是基于AI作念的,通盘镜头只用了一天生成。
在游戏行业内,目下视觉品牌想象师用AI作念物料照旧相配老练了,效力比夙昔培植许多,只需要画一下线稿,生成后再修一下图即可。样子中的脚色也可以我方进修Lora,作念初步动作想象的时候就无须找好意思术要了,以致有些分镜都可以我方渲染。
像我这种动效想象师,我会手绘一些简略的简笔画分镜,再告诉AI你想要的东西,就能生成出来大家能看得懂的恶果图了。在殊效生成上,相同亦然在有线稿以后,AI可以作念到恶果的生成,你画成序列帧也可以给到不同的恶果,而无须像在夙昔每一帧火焰都去画。
02 器用探索
咱们也相矜恤Vedio2Vedio范围的应用,这是一个用Gen2作念的流浪地球宣传片,在生成的700多张图片里选出来60多张。
你可以看到它动态发扬其实很可以,但在内容上它跟流浪地球有时候也莫得太多关联,这是因为它的出图还不太可控,莫得看法调养一张图生成的动态,这亦然Gen2比拟大的瑕疵。而且目下Gen2莫得二次元魄力模子,大部分生成如故一种抽卡体验,镜头需要千挑万选。
接下来是AnimateDiff,最近一两个月它迎来了大升级,VR模式下可以字据一张图片来生成动画,这是基于SD的一个插件,而且可以用Control Net来限度输出,目田度是比拟高的。目下真东说念主模子还比拟僵硬,但二次元模子的恶果则好许多,SD里面有许多的模子可供遴荐,在这里也相同。
咱们最近在琢磨墨化科技的“极影“插件,它将SD集成到了UE里,可以平直图像生成。此外还有一个更强的功能叫”贴图投射“,可以字据模子的外形结构生成贴合的高精度贴图,由UE及时渲染,以致可以将光影、魄力等后期责任及时修改。
这个功能自身莫得什么技艺壁垒,我了解到Blender其实也有这个功能,然则它接入AI后会有无穷补图、拓展的功能,在贴图投射一些角度不太简陋的情况下,AI能匡助把这些方位补上,且有很强的可控性。
以及另一个HDR的进修软件,唯一你画出来相对的结构,它就会给你进修出一张全景贴图,贴图的类型实质上跟SD图生图的功能差未几,但它们更多的是集成到了软件里面。
对于明天,我以为动补是曲常值得期待的范围,目下的AI技艺还不是很老练,仍需要把东说念主调度成骨骼,然后用模子再跟骨骼绑定,效力相配低,要用多部手机、永劫候计较。
以后算力或是其他方位发展起来的话,未必能淘汰动补建设,进一步优化动画师的责任。我也看到一些Demo能够把东说念主物抠出来,并行调度成其他设定的东说念主物,它可以捕捉骨骼、神气、灯光合成。我以为如果明天能够发展和广泛化的话,AI能够给通盘这个词责任流带来相配好的恶果。
03 Q&A
不雅众:Control Net和AnimateDiff的责任流可以去那处学习呢?
海峰:推选看哔哩哔哩智障君的视频,我尝试过,但目下还莫得拿这个责任流作念样子。
不雅众:极影可以进行3D模子的贴图吗?
海峰:可以的,它其实用的是3D投射,你唯一把一张原画投上去以后,它就能作念到股东的恶果。唯一你录像机不要移动太大的角度,都是莫得问题的,也可以看到3D的透视感。
成志:两位作念视频的责任流里面,是先有音乐再有视频吗,在AI生成可控性低的情况下,字据音乐调养视频内容是否可行?
海辛:我认为AI更多是在作念包装殊效的责任,是以节拍很进军,需要先把通盘这个词节拍定下来。GQ的那条片子是先有音乐,咱们简陋先知说念编订节拍、视频节拍是若何的,然后字据音乐来细则马虎会想要若何的画面内容、镜头要多频繁、切得多快。给蜘蛛侠、安德玛、英杰定约的视频就更是先有音乐了,AI在其中是当作殊效加成,而不是主要部分,是在主体内容编订完后才加上的
夜夜撸最新版海峰:我会看视频的需求,比如我用Gen2作念,那可能是先定音乐,我作念阿谁视频时把市面上的AI音乐软件全部试了一下,会需要比拟多的音乐学问,然后我会字据生成的素材去剪,比如Gen2生成一个两秒视频,可能仅仅把中间的1.2s剪下来。如果咱们作念游戏的话,会有挑升的音频同学,咱们按照我方的节拍作念好后再给他们去配音配乐,是以看你是需要哪种类型或者哪种历程。
Rosa:我发现两位在作念视频时都是三个东说念主一皆完成,时代的单干是若何样的呢?
海辛:咱们在作念GQ视频时另外两个东说念主跟我掌持的妙技点是皆备一样的,是以咱们基本可以cover对方的通盘责任,效力也会更高。比如今天我作念完第一版等甲方反应意见的时候,我可以再作念其他事情,另外一个东说念主接着我的样子工程接续即可。
海峰:我其实也差未几,在了解了市面上的AI器用后我嗅觉责任量是比拟大的,咱们是分镜头开展,比如我刚刚阿谁视频有12个镜头一东说念主4个,时代我会负责生成故事、视频和音频的合成。
成志:在分镜生成中,AI目下能作念到什么水平?
海峰:通盘这个词历程其实如故抽卡开盲盒,GPT其实咱们也生成了超多的故事,你跟它相易是有技巧的,不成只说我想要一个什么,而是要给许多要求限度,需要抑止的磨合和尝试,你的要求越轮廓,生成收场可能也越轮廓。
成志:游戏公司当作甲方在合营中是否会有不一样的方位呢?
海辛:合营方法如故一样的,便是你给我参考影片、马虎想要什么画风;跟夙昔不太一样的方位是大家其实并不皆备融会AI有哪些殊效方面的东西、可以作念出什么恶果,通盘咱们目下会有个库,可以马虎告诉你能作念哪些恶果,在这个上头给甲方一些参考。
成志:你们会以为AI动画或视频范围明天或者目下琢磨的范围主如果什么,比如刚刚提到的褂讪性?
海辛:我以为AnimateDiff这一条线接下来会发展的尽头快,以及干系的SD、Comfy UI节点式责任流可能会界说接下来AI动画到底该若何走。它是一个可以复现的东西,在靠近不同类型的镜头时,如果细则好了用某一方法责任,在具体的样子中就可以将镜头批量地进行AI转绘,这是曲常有想象力的。在SD以后可能真的投入节点式的责任流,AnimateDiff是目下我看到最佳的照拂有野心。
Rosa:AI产出视频时列位是如何靠近版权争议问题的呢?
海辛:咱们尽量不去用到可能会有版权争议的内容,无论大IP也好如故新内容,会标注好它是由AI生成的。以及甲方自身有版权的一些素材,尽量不使用公开的云平台把数据传上去,而是用本机来操作甲方的数据。
海峰:据我了解,你在充值Midjourney最高级第的账户时,它会说你生成的版权是包摄于你个东说念主的。然则其实我也有看到国际被告状的案例,是以如故存在风险的。在游戏方面亦然曲常严格的,之前有一款游戏用了一些AI的模组,然后在steam就被下架了,以致再也不成重新上架。
Rosa:在游戏出产顶用到最多的方位是那处,有哪些可能还仅仅停留在想象中,或者是因为尝试的老本简直太高了而不再去遴荐?
海峰:目下用的最多的是UI想象师作念的图标,因为基本上是可控的,而游戏里许多的内容需要相配精准的东西,会有比拟详备的要求,AI在这一方面还比拟难作念到,莫得看法烦嚣动态生成的过程。刚刚我共享的UE里的东西咱们用的比拟多少量,因为它是一种扶植,咱们可以限度通盘这个词模子的结构,AI在这个基础上去生成贴图。
注:以上内容仅代表嘉宾个东说念主不雅点,不造成任何普适性论断,其他琢磨纪要将在后续冉冉整理放出,敬请矜恤~
音书着手:
GT游戏圈菊花 流出 国产 porn