下沙论坛

 找回密码
 注册论坛(EC通行证)

QQ登录

QQ登录

下沙大学生网QQ群8(千人群)
群号:6490324 ,验证:下沙大学生网。
用手机发布本地信息严禁群发,各种宣传贴请发表在下沙信息版块有问必答,欢迎提问 提升会员等级,助你宣传
新会员必读 大学生的论坛下沙新生必读下沙币获得方法及使用
查看: 3651|回复: 0
打印 上一主题 下一主题

美国小哥生成了一个AI女友躲避催婚

[复制链接]
  • TA的每日心情
    奋斗
    昨天 10:07
  • 签到天数: 2385 天

    [LV.Master]伴坛终老

    跳转到指定楼层
    1
    发表于 2022-10-18 09:34:47 | 只看该作者 |只看大图 回帖奖励 |倒序浏览 |阅读模式

    自从AI图片生成技术爆火以后,各路玩家纷纷亲自尝试。

    要不就是用AI做个头像,要不就是生成一些奇思妙想的画作。

    但要我说,这些点子和今天的主人公Dinda比起来,简直就是不值一提。

    思路打开一点嘛。

    用高科技应付长辈?

    Dinda是YouTube的一名照片编辑,本着近水楼台先得月的原则,他每天就是和图片生成软件打交道。

    最近,Dinda遭遇了全世界大龄青年都会面临的问题——来自长辈的催婚。

    然而,Dinda小哥事业未就,怎能思虑儿女情长?可来自长辈的压力又不能不管,那就只剩一条路了——作假骗长辈。

    在以前,作假是一件很麻烦的事,要找一个知根知底的异性朋友,约好来个一日情侣。见见家长,把两边都糊弄过去就算完。

    但是不得不说,风险挺大的。一个大活人,可不能随时都配合着应付来自长辈的检查。

    Dinda想了一个妙招。如果自己能用DALL-E生成一大堆和女朋友合拍的照片,时不时给长辈发过去应付一下,不就行了?

    Dinda打开了DALL-E,用图像修复功能进行操作。该功能允许用户擦除图片上的一部分,然后DALL-E会根据用户输入的文字来填补空缺的部分。

    于是,Dinda整了点自己的自拍照,然后把身边的空间擦了一块,留下一个正好能放下自己假想的女朋友的位置。

    接着,他在指令中输入——一个有女朋友的男人。

    然后,啪。

    4 p6 q3 c2 R7 ?! M6 j. ]

    这还不算完,一般和修图打交道的人都很重视细节。

    为了让生成的图像更加的逼真,Dinda还把虚拟女友的脸给裁了下来,导出到一个叫GFP-GAN的人工智能照片编辑程序中。

    通过这个程序,Dinda可以进行微调,把这张脸做得更逼真。之后再把微调过的图像放到ps里,再修一下,最后放回原始图像。

    这样一来,生成的照片就无可挑剔了。

    Dinda表示,「就算我告诉别人这张照片是生成的,90%的人也不知道哪里是动过的。」

    与此同时,他还演示了照片编辑人员如何使用同样的技术在AI的帮助下把人去掉。

    还是一样的把要去掉的人身上涂抹一下,DALL-E就会生成一个替代背景出来。虽然背景很复杂,但是生成出来的图片也还可以。

    超凡图像生成工具!

    DALL-E究竟是什么呢?

    我不允许还有人没听说过DALL·E。毕竟,现在都出到2代——DALL·E 2了。

    这是一款由OpenAI开发的转化器模型,全部的功能就是把「话」变成「画」。

    具体来说,DALL·E是一个有120亿参数版本的GPT-3,被训练成了使用文本生成图像的模型。背后的数据集是文本-图像的对应集。

    比如上面这几张图,有戴帽子的狗,做实验的熊猫,还有长得像星云的狗狗。有没有觉得,哪怕不合常理,但是并不违和?这就是DALL·E能做到的。说起DALL-E的源头,其实是研究人员从GPT-3那里得到了启发。GPT-3是个用语言生成语言的工具,而图像GPT则可以用来生成高保真度的图片。

    研究人员发现,用文本来操控视觉,是可以做到的。也就是这样,DALL·E成为了一个和GPT-3一样的转化器。

    在此基础上,研究人员又开始琢磨同时用文本描述多个物体,生成一张图。这些物体各自的特征、之间的空间位置关系全都交给文字来描述。

    比方说,输入文本:一只戴着红帽子、黄手套,穿着蓝衬衫和绿裤子的刺猬。为了正确生成对应的图片,DALL·E不仅要正确理解不同衣服和刺猬之间的关系,还不能混淆不同衣服和颜色的对应关系。

    这种任务被称作变量绑定,在文献中有大量的相关研究。

    可以说,DALL·E从1代到2代,就是这么一个个小任务走过来的。最终能够呈现的就是一个不错的文本-图像转化器。

    T2I究竟有多卷?

    要说今年最火的AI便是多模态人工智能崛起。

    上半年,文本生成图像AI模型(T2I)各家争霸。

    除了DALL-E,谷歌自家Imagen、Parti,Meta的文本图像生成工具Make-A-Scene,再到现在大火的Stable Diffusion、谷歌文本3D生成模型DreamFusion都在扩充着文本转图像的应用。

    先是4月,在GPT-3大模型的加持下,Open AI对画图界的扛把子DALL-E进行了2.0版的全面升级。

    和上一代相比,可以说,DALL·E 2简直就是直接从二次元简笔画走向超高清大图:

    分辨率提升4倍,从256x256提升到了1024x1024,并且生成图像的准确率也更高!

    5月,谷歌不甘落后推出AI创作神器Imagen,效果奇佳。

    仅仅给出一个场景的描述,Imagen就能生成高质量、高分辨率的图像,无论这种场景在现实世界中是否合乎逻辑。

    6月,谷歌再次推出了新一代AI绘画大师Parti。

    要说Imagen和Parti不同地方,便在于采取了不同的策略——自回归和扩散。

    Parti是一个自回归模型,它的方法首先将一组图像转换为一系列代码条目,然后将给定的文本提示转换为这些代码条目并「拼成」一个新图像。

    7月,Meta公布了自家的AI「画家」——Make-A-Scene,通过文本描述,再加上一张草图,就能生成你想要的样子。

    最重要的是,构图上下、左右、大小、形状等各种元素都由你说了算。

    可以看到,DALL-E 2、Imagen等仍然停留在二维创作,无法生成360度无死角的3D模型。

    而谷歌发布的文本3D生成模型DreamFusion便开辟了这一新路线。

    训练后的模型可以在任意角度、任意光照条件、任意三维环境中基于给定的文本提示生成模型。

    而且整个过程既不需要3D训练数据,也无需修改图像扩散模型,完全依赖预训练扩散模型作为先验。

    由此可见,在文本转图像这块,各大厂已经卷上了新高度。

    甚至有人称,今年文本转视频AI模型暂时还不会到来。

    没想到的是,Meta和谷歌再次打破了这一预言。

    T2V已来!

    9月底,Meta最先公布了文本一键生成视频模型Make-A-Video。

    这一模型厉害到什么程度?

    除了可以把文本变成视频之外,它也可以把静态图变成Gif、把视频变成视频。

    这一模型发布后,就连图灵奖得主Yann LeCun称,该来的都会来。

    比如「马儿喝水」,生成如下效果:

    猫主子拿着遥控器在看电视

    简直AI导演上线。

    紧接着10月,谷歌还是文本视频模型两连发。

    先是Imagen Video,与Meta的Make-A-Video相比最突出一个特点就是「高清」。

    它能生成1280*768分辨率、每秒24帧的视频片段。

    与此同时,还有Phenaki模型,让骑马的宇航员也动了起来。

    这一模型能根据200个词左右的提示语生成2分钟以上的长镜头,讲述一个完整的故事。

    在文本转视频上,下一个谁会接棒?


    4 i2 S5 C* }5 L1 R& M3 w6 s4 [' c+ r! Z- h# c6 b
    . ]3 A  W/ w6 v
    3 n- J& T( Z% G. J7 ^

    , R6 U6 y* a- A
    & Z1 |9 T1 m# _. i9 X* L
    分享到:  QQ好友和群QQ好友和群 QQ空间QQ空间 腾讯微博腾讯微博 腾讯朋友腾讯朋友
    收藏收藏 分享分享 顶 踩

    本版积分规则

    关闭

    下沙大学生网推荐上一条 /1 下一条

    快速回复 返回顶部 返回列表