学编程后做的冰雪公主是谁(清华姚班毕业生开发新特效编程语言,99行代码实现《冰雪奇缘》,网友:大神碉堡)

清华姚班毕业生开发新殊效编程言语,99行代码完成《冰雪奇缘》,网友:大神堡垒

只用99行代码,你也可以像《冰雪奇缘》里的艾莎公主一样拥有冰雪邪术。

固然你不克不及在实际天下中肆意变出邪术,但却能在盘算机的假造天下挥洒殊效。

大概你不晓得,影戏和动画中殊效偶尔仅仅短短的一秒,却约莫必要高功能盘算机演算一周,破费惊人。

《冰雪奇缘》没有真人出演,预算却高达1.5亿美元,每一秒的镜头都是经费在熄灭。平凡人想用电脑做出CG殊效几乎不成想象。

但是,迩来一位来自中国的MIT博士,开发了一种新的CG殊效编程言语Taichi太极),大大低落了门槛。

白色:雪;赤色:果冻;蓝色:水

一个简便的物理场景,平凡PC仅需几分钟即可渲染完成,比拟TensorFlow提速了188倍、比PyTorch快13.4倍,代码长度仅有其他底层办法的十分之一。

安装它就像TensorFlow一样容易,使用起来也是差不多:

乃至,Taichi的创造者胡渊鸣同砚还为此编写了完备使用教程。

关于Taichi,胡同砚以前公布了多篇文章,分散被SIGGRAGH 2018、ICRA 2019、NeurIPS2019、ICLR 2020等顶会收录。

盘算机图形学着名学者、北大传授陈宝权给出很高的评价:

给胡渊鸣同砚点赞!一己之力开发了物理模仿编程言语 Taichi!

像渊鸣如此云云投入写有影响力的开源代码真实是难能忧伤。

像SIGGRAPH如此的,约莫要投入1~2年才会有后果,论文承受率低,即使能公布出来,引用率也不高。

网友们在围观之后也纷繁表现:渊鸣大神太强了。

图形 体系 编译,真是创世的兴奋。

88行代码模仿真实物理情况

正如胡同砚本人所说,99行代码很短,眼前的武艺故事却很长。

故事的开头,要从Material Point Method(物质点法)提及。

MPM是一种在影视殊效范畴广受喜爱的模仿一连介质办法,迪士尼的《冰雪奇缘》就用到了这项武艺。

但在早前,MPM的运转速率十分慢,好比《冰雪奇缘》里安娜过雪地的镜头,听说要在集群上跑整整一个星期。

为了提高MPM的运转速率和功能,在大四毕业的谁人暑期,胡渊鸣投入了Moving Least Squares MPM(MLS-MPM)的研讨。

胡渊鸣的灵感是,用挪动最小二乘法一致APIC(The Affine Particle-In-Cell Method)中的仿射梯度场(affine velocity field)和MPM中的变形梯度更新(deformation gradient update)两种散伙化。在宾夕法尼亚大学蒋陈凡夫传授的引导下,胡渊鸣等人完成了挪动最小二乘物质点法(MLS-MPM)办法的研讨,不仅完成了新的应力散度散伙化,使MPM的运转速率快了两倍,还告捷模仿了MPM此前并不支持的种种新征象。

好比质料切割:

刚性体的双向耦合:

这项后果终极公布在了SIGGRAPH 2018上。

为了进一步证实MLS-MPM的浅易性,胡渊鸣用88行C 代码完成了MLS-MPM的demo。(代码具体请戳文末 taichi_mpm 项目链接)。

这个88行版本厥后也成为了入门MPM的必备参考完成。

乾坤(ChainQueen)可微物理引擎

2017年的炎天完毕之后,胡渊鸣正式进入MIT读博。

这时分,胡渊鸣又迸发了新的灵感:求出MLS-MPM的导数。有了导数,就能只用梯度下降来优化神经网络控制器。

在这一头脑的引导下,ChainQueen诞生了。

胡渊鸣表明说,chain是为了怀念他在求导历程中被链式端正折磨的履历,而ChainQueen则与乾坤谐音。

乾坤基于MLS-MPM,是一种针对可变形目标的、及时的可微殽杂拉格朗日-欧拉物理模仿器。该模仿器在前向仿真和反向梯度盘算中均完成了高精度。

这项研讨公布在了ICRA 2019上,胡渊鸣也以此完成了硕士论文。

DiffTaichi

随后,胡同砚将事情又推进一步,提出了可微分编程DiffTaichi,被ICLR 2020收录。

在这篇文章的代码中,胡同砚创建了10个不同的物理模仿器,并依据现有基准对其功能举行基准测试。

Taichi中的可微分编程,可以经过蛮力的梯度下降好效地优化神经网络控制器,而不必使用强化学习。

10种可微分模仿器中的大大多模子可以在2-3小时内完成,并且大局部不必要GPU。这些示例中,弹性体、刚体、流体、光源的折射、弹性碰撞,稀有物理情况包罗万象。

第一个示例可微分弹性目标模仿器,颠末我们的实测,在2017版13寸的MacBook Pro上也能运转,并且完成优化只需不到十分钟的时间:

不仅是2D,更繁复的3D弹性体也能模仿:

另有可微分的3D流体模仿器,颠末450步的梯度下降迭代,以前十分传神:

DiffTaichi模仿水对光源折射的渲染器,一张图片颠末它的渲染,乃至能骗过图像分类器。颠末测试,VGG16将带有水波纹的松鼠图片当做金鱼,并且以为概率为99.91%。

在强化学习的模仿情况中,刚体机器人很稀有,DiffTaichi也能模仿:

DiffTaichi还能模仿多个物体的繁复场景,好比台球:

用Taichi言语编写的模仿器大大简化了代码,可微分弹性目标模仿器只用了110行代码,而直接用CUDA编写则必要490行。

同时,Taichi的速率还很快,比拟CUDA版本几乎没有什么丧失,比TensorFlow快了188倍,比PyTorch快13.4倍。

并且神经网络控制器寻常只必要几十次迭代,即可完成优化。

为何做Taichi

谈到为何要做Taichi,盘算机图形学不休缺乏像TensorFlow那样的通用东西,每个要从事开发的人都必需了解基本原理,才干去做编程。

这和深度学习范畴构成了光显的比力。

比年来,乃至有中学生,使用TensorFlow大概PyTorch,写一点代码,优化几个模子,就可以在一些顶会上公布论文,很多人看来,这是件恶事,由于让深度学习论文的含金量大大低落。

但胡渊鸣看到了另一面。他以为,深度学习这些年之以是能提高快、门槛低,就是由于有简便易用的好东西,盘算机图形学让人望而却步,就是由于缺乏相似的东西,因此他开发了Taichi。

原本Taichi要做成一种单独的编程言语,但是为了便利各位使用,胡渊鸣用了一句import taichi as ti把Taichi言语伪装成Python。

改成基于Python,如此做的利益不仅是低落学习门槛,还能使用很多现成的Python IDE,与numpy、matplotlib等东西库无缝衔接。

颠末几个月的积极,胡渊鸣终于把Taichi改成了pypi安装包,让不同设置不同利用体系的机器都能顺遂运转图形学的步骤。

高一保送清华,博一6篇paper

提及胡渊鸣,这又是一位从少年年代起就熠熠闪光的“大神级”选手。

高一保送清华,比赛生活中,拿下APIO 2012、NOI 2012、ACM-ICPC 2013长沙地区赛、ACM-ICPC上海地区赛四块金牌,此中APIO 2012成果是全场第一名。

2013年进入清华姚班,胡渊鸣与陈立杰、范浩强等人成为同班同砚,这群年轻人的才华在这里会聚、碰撞,与“姚班”二字互相成果。

本科时期,胡渊鸣先后前去东京大学、斯坦福大学访学,并曾于微软亚洲研讨院练习,从事深度学习和盘算机图形学研讨。本科便有多篇论文中选CVPR、SIGGRAPH等国际顶会。

2017年,胡渊鸣进入MIT读博。开学13个月后,完成硕士论文ChainQueen,拿到MIT硕士学位。博一时期,共公布6篇顶会论文。

最初,假如想了解这99行代码眼前更多的研讨历程,无碍读一读胡渊鸣本人的知乎专栏文章。大神不仅代码写得好,码字和蒸鸡蛋也是能手呢~

学编程后做的冰雪公主是谁(清华姚班毕业生开发新特效编程语言,99行代码实现《冰雪奇缘》,网友:大神碉堡)(图1)

GM游戏 更多