关上Deepfake的潘多拉魔盒,RealAI推出深层仿冒视頻

2021-04-01 22:37


关上Deepfake的潘多拉魔盒,RealAI推出深层仿冒视頻检验专用工具


关上Deepfake的潘多拉魔盒,RealAI推出深层仿冒视頻检验专用工具 诞生之初,Deepfake是1项趣味的图象解决技术性,仅仅带来搞笑幽默和游戏娱乐视頻,但却不知道,潘多拉魔盒就此挨打开 2019⑴2⑴8 15:08

诞生之初,Deepfake是1项趣味的图象解决技术性,仅仅带来搞笑幽默和游戏娱乐视頻,但却不知道,潘多拉魔盒就此挨打开,催生出 黑产、恶搞政客 控制 民声,Deepfake正逐渐演变为1种新式 病毒感染 ,人类伦理社会道德的 遮羞布 也被无情揭开。

图:Saturday Night Live中凯特 麦金农换脸伊丽莎白 沃伦

应对因新技术应用而引起的群众焦虑,有关管控组织也加速采用行動,出台 打假 对策,旨在严厉打击Deepfake虚报音视頻,操纵 造假病毒感染 的散播。另外,中国也迎来了 最严数据信息管理方法 的1年。

11月29日,我国我国网信办也宣布公布《互联网音视頻信息内容服务管理方法要求》,指出自今年1月1日起,AI造假视頻不可随便公布。新要求中有关AI造假音视頻的要求关键有4条: 依照我国相关要求进行安全性评定 、 以明显方法予以标志 非真正声频信息内容、不可运用AI造假技术性公布虚报新闻、布署AI造假音视頻辨别技术性和健全假新闻体制等。

新规中不难发现,合理抑止Deepfake及相近造假必须 两手抓 ,除运用法律法规政策法规严控 居心叵测者 做恶,更要从根源提升安全性评定、辨别技术性等工作能力,依靠技术性方式提早合理布局,在检验层面领跑1步。

近日,来自清华大学的人力智能化公司 RealAI宣布公布了1款深层仿冒视頻检验专用工具,可1键完成对深层仿冒(Deepfake)视頻的全自动精确鉴别。

1、 1键换脸到1键 打假

RealAICEO田天表明,虽然要求达到1致,但现阶段大经营规模运用的打假方式遭遇众多艰难。

最先,Deepfake的开源系统技术性让AI换脸的应用门坎减少得手机美颜、P图的水平,1键换脸带来了 诋毁 成本费的减少、发生爆炸式的散播。但是在防御力层,相应规范化的检验专用工具却基本上沒有,人力辨别不但技术专业性规定高,且高效率低。因此,不管针对本人、服务平台還是第3方组织而言,打假假新闻的時间对话框很短,难度却很高。

图:雷佳音(左)换脸郭德纲(右)

此外,更比较严重的难题在于,许多状况下,Deepfake 以假乱真 的水平极高,人眼无法发觉。加上其优化算法现阶段还没法模型剖析,检验技术性的科学研究被比较严重危害,而造假方的融入速率却很快,新技术应用日趋迭代更新。

RealAI根据第3代AI技术性推出的深层仿冒视頻检验商品,根据选用 数据信息增广 的方法,用仿冒的视頻训炼出1个新的实体模型,从而让实体模型可以更好鉴别出仿冒痕迹,辨别出造假视頻,可以说 魔高1尺,道高1丈 。该商品适用图象、视頻內容辨别,客户根据API插口将待检验的照片、视頻提交,1键便可意见反馈真假。

客观事实上,进行对于Deepfake的 打假 科学研究的精英团队早就存在,但有关的成效仅滞留在优化算法层面,更多的是为学术科学研究出示应用,没法解决真正自然环境下大范畴散播的虚报內容,因此,RealAI推出的这款规范化全自动检验专用工具能够说给经营规模化的 打假 行動带来了新的希望。

2、检验精确率达99%,Deepfake 劫数难逃

做为清华大学人力智能化科学研究院关键孵化公司,和中国首家安全性可控性人力智能化系统软件出示商,RealAI在AI安全性与攻防技术性行业有着业界领跑优点。在2020年刚完毕的GeekPwn2019国际性安全性极客大赛中,其与清华大学协同战队1举得到 CAAD CTF 图象抵抗样版挑戰赛 和 CAAD 隐身挑戰赛 两项赛事的冠军。

浓厚的技术性累积也让RealAI安全性科学研究精英团队对 造假方 的进攻基本原理拥有更刻骨铭心的了解,可以更有对于性地开发设计检验专用工具。本次推出的深层仿冒视頻检验商品,将本来高难度的检验全过程大幅简化,只需接入SDK便可1键即时检验,启用简易便捷。

Deepfake视頻检验商品步骤图

与现阶段市面上上已有的检验技术性相比,RealAI的视頻检验专用工具运用深层学习培训优化算法、很多数据信息集训炼实体模型,可以检验出绝大部分AI换脸假视頻,精确率达99%(內部检测数据信息集上)。在应对优化算法的换脸实际效果愈来愈真实的状况,RealAI的产品研发精英团队也集中化产品研发新式的检验优化算法,以迭代更新和升级RealAI的检验优化算法库。

更值得留意的是,该商品可用于繁杂视頻內容检验,适用多种多样文件格式和多人脸检验方式,1S鉴别,最高可适用10人以上同屏。

3、Deepfake的潘多拉魔盒终将被关上

伴随着Deepfake技术性被乱用,传统式实际意义上 真正 与 虚报 的界线被模糊不清,这针对社会发展日常生活的危害之大此前未被料想到,但现如今技术性做恶所带来的负面危害正全面暴发。

例如,互联网上肆无忌惮散播的视頻、照片內容,內容服务平台传统式的审批体制没法鉴别Deepfake转化成內容,若选用人力审批,必须投入附加的時间、人力资源成本费;特殊目标被虚构虚报信息内容在社交媒体服务平台上普遍散播,处在社会舆论管理中心确当事人因为找不到可以确认 谣传 是捏造的合理方式,本人信誉因而受损;案子调研、法庭争辩中涉及到的视頻、图象等直接证据原材料,警员、律师等人员没法单凭肉眼鉴别直接证据是不是是根据Deepfake仿冒,必须技术专业专用工具评定真假;安全事故中真假难辨的影象材料,商业保险企业的核查人员欠缺Deepfake造假认知能力和配不上备技术专业辨别工作能力,存在被行骗理赔的风险性

人人都怕换脸术 的焦虑,让反Deepfake的检验要求变的出现异常急切,本次RealAI检验专用工具的推出,根据与內容服务平台、稽查组织、商业保险企业等组织进行协作,可以在虚报內容甄别、网上材料审批和影象证据真正性检测等具体运用情景充分发挥功效,并协助公司与本人更好的开展信息内容监管与风险性预警。

最终,在这场AI军备比赛中,Deepfake将不断演变,RealAI也将不断迭代更新技术性、打磨商品。RealAICEO田天表明,将来AI必定是安全性可控性的AI,1键 打假 终将跨越1键换脸的速率,Deepfake的潘多拉魔盒也终将被关上。



扫描二维码分享到微信

在线咨询
联系电话

020-66889888