36氪独家获悉,人工智能初创团队Versa完成600万人民币天使轮融资,由真格基金领投、臻云创投跟投。此次融资完成后,资金将大部分用于产品研发以及技术团队的扩张。
相信大家对去年6月红极一时的Prisma印象深刻,36氪也曾对Prisma以及后来的跟随者进行了报道,包括Philm、Fabby、Camera360 的智能滤镜 Poker 以及短视频版的 Prisma “Artisto” 。
事实上,Prisma的算法原理出自李飞飞教授在ECCV2016上发表的作品“Perceptual Losses for Real-Time Style Transfer and Super-Resolution”。其原理是利用卷积神经网络(CNN)将图片的内容和风格进行分离和重新组合,构建一套模仿名画的算法,再根据用户上传图片的构图、颜色、光线、风格等多个维度去匹配合适的风格做组合转化。
Versa即将上线的APP在产品形态上与Prisma并无太大区别,但在算法原理上做出了创新。拿prisma为例,每一组不同风格的绘画风格,Prisma大概需要超过10万个数据样本去做练习,而Versa仅仅需要100个数据样本即可。
Versa-Magicbox
这背后的原理是Versa在卷积网络的特征提取层和特征映射层中间加入了一个“基础概念域”。举个例子,机器要去识别一只猫,需要大量的图片训练提取出猫的特征(像素点的比对),这一般需要几万张。而我们人去识别猫的时候是通过大脑中的概念,比方说,4条腿、毛茸茸的、有胡须等特征。满足这些特征的物体,我们大脑就会告诉我们这是猫。Versa正是构建了一个基础概念域,引入了人的先验概念,大大降低深度学习所需的样本量以及算力。
与此同时,Versa在基础概念域的编码过程中,编码网络的训练只需相对较少的数据用于冷启动。之后所有的应用都能在此网络的基础上做增量学习。因此,该学习框架具备极强的迁移学习能力,容易泛化到各应用领域。
目前与Prisma相比,Versa除了深度学习所需样本量大幅降低以外,还有几个值得注意的特点:
可识别景深景浅、人物与背景
在初次渲染完成后,可针对局部再次渲染
更强的风格化效果,不会出现纹理贴图错误
渲染速度平均在1~2秒左右
Versa CEO 蔡天懿告诉36氪,除了对图像进行处理以外,未来的RoadMap还包括视频风格的渲染、歌曲风格的创作以及利用AI去营造专业摄影所需要光影效果。
关于技术的商业落地,蔡天懿告诉36氪,Versa的愿景是希望利用人工智能为C端用户赋能。因此在变现上,主要从B端切入为合作伙伴输出技术解决方案。关于B端获客的进展,蔡天懿表示会陆续公布,相信会给大家带来惊喜。
Versa CEO蔡天懿毕业于巴黎高科计算机专业,后续在法国埃塞克商学院攻读项目管理。毕业后蔡天懿在巴黎微软任售前工程师,2012年在硅谷创办Dreamstorm,利用相关性搜索帮初次创业者物色志趣相投的合伙人。后续以600万美元的估值于2014年被EFACTOR收购。2014年回国后加入格瓦拉任产品合伙人,主导移动端产品的开发,在此期间用户量从20万增长到4000万,2016年格瓦拉被微影时代收购后,蔡天懿成功退出团队,并于2017年创立Versa。
Versa CTO 赵维杰2012年加入华为,任算法科学家以及华为芯片的算法开发部总监。在内部开发方向包括智能语音(降噪&回声消除)、图像、视频、自然语言理解以及神经网络专用芯片。成熟产品应用于华为Kirin芯片,搭载于Mate9、P10等旗舰机型。
如果想要体验Versa,可输入36氪专属邀请码: 36kr