您的位置
主页 > 时尚快讯 » 正文

左转向善,右转向恶,2020 年的九大 AI 风向标

来源:www.isrd.net.cn 点击:853

2017年底,美国社交新闻网站Reddit的一个名为deepfakes的用户用人工智能制作了一个“假”色情视频,将《神奇女侠》女主角盖尔加朵的脸移植到一个成年电影女演员身上,引起了一阵轰动。

从那以后,人工智能变脸核心算法被正式命名为深度假像,并一直备受争议。然而,它“有趣而愚蠢”的一面也为媒体公司提供了新的机会。

2019年12月,社交媒体应用Snapchat以1.66亿美元收购了乌克兰图像和视频识别初创企业AI Factory。这两个人以前合作过,让用户能够将自拍照片插入到GIF中,以创建动画的人工智能人脸变化。此外,中国字节跳动公司的视频应用软件TikTok也在开发类似的功能。三星发表了一篇关于使用神经网络创造逼真的“说话人的头”的论文。下图中,左边的图片显示了源图片,而右边的图片是由人工智能生成的。

(来源:三星)

UK 《金融时报》报道说,昂贵而耗时的传统计算机生成图形与最新的人工智能变脸技术形成鲜明对比。因此,好莱坞也正朝着50年代和60年代电影演员的“数字复兴”方向发展。

在零售领域,人工智能变脸还能让品牌为消费者提供超个性化的视觉营销。例如,初创公司Superpersonal将会用虚拟测试装备取代用户的面部视频剪辑。

人工智能面孔变化也对影响者的营销产生了影响。在非政府组织“疟疾必须死亡”的宣传视频中,初创公司辛迪思亚(Synthesia)使用深度假冒技术让贝克汉姆在视频中说九种不同的语言。

(来源:“疟疾一定会死”)

在中国,2019年3月,一个叫“变脸兄弟”的用户在B站上传了一个《射雕英雄传》的视频,用迷你杨的脸代替了黄蓉的朱茵的脸。

(来源:互联网)

很快,更多的作品紧随其后。网民们利用这项技术,用刘亦菲、迷你杨、和范冰冰等女演员的脸取代了一位平台女主播的脸。此外,一款名为“ZAO”的软件也广受欢迎。通过这个软件,用户可以把电影、电视剧和综艺节目中明星的脸变成他们自己的脸。然而,该软件也受到了隐私泄露和侵权的质疑。

Keyword

Personalization

Changing Face in Retail是为了加倍消费体验。该技术将促进电子商务体验和虚拟在线试用。

定向广告

随着科技的商业化,本地化的广告,如不同语言的即时配音,将成为更有用的结果。

创意领域的自动化

使用人工智能来改变电视和电影行业的面貌可能会导致续集、衍生品和现有内容的文化改编激增。人工智能变脸可能会给铸造和造型等领域带来负面影响,这些领域对人脸的要求非常高。

下一代黑客:使用人工智能的攻击和愚弄人工智能

人工智能时代的黑客正朝着两个方向发展:愚弄人工智能系统和利用人工智能的攻击。

2019年,悉尼安全公司天光网络的研究人员破解了网络安全初创公司Cylance开发的人工智能杀毒软件。天光报告说,它发现了人工智能模型中的一个缺陷,并利用它创建了一个通用旁路,从而使恶意软件无法被检测到。

此外,小发猫早在2018年开发的一款名为“DeepLocker”的恶意软件显示,人工智能可以绕过网络安全保护进行攻击。DeepLocker被描述为“一种由人工智能驱动的新型恶意软件,具有高度针对性和规避性的攻击工具”。只有当特定的标准如视觉、听觉、地理位置和系统级特征被识别时,恶意软件才会被“解锁”而开始攻击。由于几乎不可能确定所有可能的触发因素,深层神经网络的逆向工程变得非常困难。

Keyword

Hacker Ruthus

现在每个人都比以前更容易使用人工智能工具,这为黑客提供了更多的土壤。

互联网人工智能初创企业可能面临新的攻击

黑客已经证明,利用机器学习模型和欺骗算法的固有偏见是很容易的。

重工业没有准备好。

在过去的十年里,有几起恶意程序对工业控制系统造成严重破坏的案例。例如,2010年,超级工厂被用来攻击伊朗的核设备,2015年,黑色能源被用来攻击乌克兰的电网,哈弗克斯攻击欧洲的组织,2016年,工业工人入侵乌克兰的工业控制系统。根据调查,重工业在抵御网络风险的能力方面仍然落后,并且还没有准备好应对更高级的威胁,如人工智能恶意软件。

AutoML:在未来,“让人工智能学会设计人工智能”

机器学习的兴起推动了人工智能的浪潮。用于自动机器学习的AutoML可能引领下一代。

AutoML是一套用于自动神经网络设计和训练的人工智能工具。它减少了对人工智能专业知识的依赖,降低了企业的准入门槛,并使技术民主化。一般来说,构建性能良好的机器学习应用程序需要非常专业的数据科学家和领域专家。AutoML的目标是自动构建机器学习应用程序,即使没有大量的统计和机器学习知识。

"神经网络的设计非常耗时,并且需要很高的专业要求。因此,我们创造了一种叫做自动学习的方法,希望神经网络能够自己设计神经网络。”谷歌首席执行官桑德尔皮帅在博客中写道。因此,谷歌在2017年为此目的正式创建了“汽车”。

(来源:谷歌)

自从谷歌提出这个概念以来,包括数据准备、培训、模型搜索和特征工程在内的人工智能设计的自动化工具的采用率一直在逐渐增加。例如,Waymo最近与谷歌合作,自动化寻找最佳神经网络架构的过程,从而使自主车辆能够从激光雷达(光探测和测距)数据中识别树木、行人和车辆。谷歌云自动化还可以用于计算机视觉、视频处理、翻译和自然语言处理任务。初创企业还为企业提供即插即用解决方案。

同时,中国也有很多相关的研究,声称要解放算法工程师和自动化人工智能。在去年的数据挖掘领域的顶级会议PAKDD汽车挑战赛中,中国公司深蓝航空、微软北方航空和清华大学都榜上有名。

Keyword

关键词

人才短缺

自动化在人工智能专家严重短缺的现实下,可以帮助人工智能知识不足的企业实现技术民主化。

成本和复杂性

即使对于专家来说,设计神经网络也是一个耗时的手工过程。AutoML可以创建更好的解决方案,并降低与试错相关的计算成本。

联邦学习将带来数据合作的新生态系统

联邦学习由谷歌在2016年首次提出,是人工智能的一项新的基础技术。

最初,联邦学习被用来预测安卓用户在使用键盘时下一步会输入什么,也用于谷歌的文本预测软件和火狐的搜索。其设计目标是确保大数据交换过程中的信息安全,保护终端数据和个人数据隐私,并在符合法律的前提下,确保多个参与者或多个计算节点之间的高效机器学习。

如下图所示,联邦学习允许装有Gboard(谷歌虚拟键盘)的软件升级其人工智能模型,而无需将原始用户的个人数据发送到谷歌。这样,用户移动电话中的数据仍然存储在用户移动电话中,并且没有被发送或存储在中央云服务器中。

(来源:谷歌)

云服务器将最新版本的人工智能算法发送到用户组的设备,然后用户的手机可以根据本地数据更新人工智能模型。此时,只有更新部分被发送回云服务器,而不是用于更新的本地数据。云服务器然后可以根据接收到的更新部分提升算法的全局状态(“全局状态”)。

联邦学习可以在不影响人工智能算法性能提高的情况下保护用户数据。它为医疗卫生和银行业等受到高度监管并关注数据使用的行业提供了新的可能性。

Avida人工智能驱动的软件和硬件框架Clara专注于医疗和健康场景,现在支持联邦学习。其用户包括美国放射医学学院、麻省总医院、布里格姆临床数据科学中心和女子医院、加州大学洛杉矶分校医疗中心等。此外,英伟达还与医疗卫生领域的初创企业奥金(Owkin)合作。Owkin主要从事使用联邦学习来预测癌症患者的耐药性。

(来源:英伟达)

中国科学院普适计算系统研究中心已经建立了一个针对帕金森病的FEDH框架。健康学习、迁移学习和增量学习用于判断患者服药前后病情和药物效应的变化。

在金融领域,中国的微型银行正与腾讯云和加拿大人工智能研究中心Mila合作进行联邦研究。今年1月底,由微银行组成的人工智能团队开发并推出了其联合人工智能技术使能器,该技术在满足监管要求的数据保护前提下,使用多种安全计算协议来确保跨域信息合作。

当然,联邦学习作为一个新概念正在其他领域得到越来越广泛的应用,比如智能城市和智能制造业。中国公司(包括JD.com、华为等。)也在积极部署联邦学习应用程序。我相信将来会有更多与联邦学习相关的应用。

Keyword

Global Model Local Data

通过使用联合学习,用户可以通过使用本地数据来训练人工智能模型,并且只将人工智能模型的更新部分更新到中心云。云通过所有网络中用户发送的模型更新来优化其模型应用。

数据多样化

联邦学习可以帮助跨领域合作,从而通过更多样化的本地数据优化全球模型。

Alphabet将通过人工智能主导智能城市合同

凭借其强大的物联网和机器学习能力,这个价值1万亿美元的铝巨人正在积极规划城市发展和智能城市规划领域。

Alphabet正在许多城市创造新的社区,并重新规划房地产、公共能源设施、交通等的布局。与政府携手合作。去年第二季度,Alphabet的子公司人行道实验室发布了一份1500页的计划,详细说明了如何通过与政府和其他企业的合作,以13亿美元在多伦多建设一个智能城市。该项目的重点和亮点是人工智能在政府和城市规划中的应用。

(来源:人行道实验室)

从概念上讲,智能城市可以包括智能医疗、智能旅行、城市监控、数据基础设施以及许多其他人工智能和机器学习应用。下图列出了字母表在上述字段中的主要布局。其优势不言而喻,这使得Alphabet成为房地产、能源、交通和咨询服务领域的强大市场竞争对手。

让我们谈一谈两个小的创业公司,复制品和坐标。副本主要使用机器学习来模拟通勤行为,并关注影响通勤模式选择的因素。在申请方面,它与伊利诺伊州政府签署了一份360万美元的三年期合同,与波特兰政府签署了一年期服务协议。Coord主要致力于使用机器学习绘制街道资产图片。它正在邀请各个城市参加其“数字街道挑战”活动。获胜的城市将能够免费试用其技术。当然,Coord也可以通过这次活动调试其平台性能并调整其战略方向。

上述Alphabet的子公司人行道实验室,在处理具体的城市发展问题上,正在超越较小的初创企业(如复制品和坐标)。人行道实验室在其多伦多试点项目中强调了减少温室气体排放和更智能的资源管理的两个方面。通过机器学习工程师分析传感器收集的数据并建立管理系统,建立了能源消耗和可持续性的推荐引擎和预测模型。

关键词

政府支持

Alphabet的人工智能专业使其自然成为政府合作的有利目标,及其附属机构,如DeepMind、Waymo、实验室X等。提高其竞争力。

End-to-End Solutions

Alphabet擅长基于机器学习的智能城市的几乎所有方面,从城市开发工具到自动驾驶汽车到能源管理,与专注于某一领域的其他供应商相比。

Sharing Financial Risks

Alphabet在分担金融风险和早期投资方面有着强大的实力。例如,人行道实验室声称,在与其他机构或企业的合作中,它可以在早期分担创新成本,并在后期达到标准后获得报酬。这样,当它与政府或相关机构进行技术合作或测试时,就增加了成功合作的可能性。

2020年,能源驱动的人工智能将被用来解决能源问题,更多的节能人工智能将成为一个重要的课题。从技术巨头、汽车制造商到石油和天然气巨头,都在寻求削减成本、提高效率和降低能耗。

长久以来,我们一直在谈论人工智能,我们也在强调它所需要的计算力。然而,计算力不是凭空产生的,而是需要能量消耗的。在我们不断强调需要提高计算能力和使人工智能更智能的时候,我们也需要考虑使用更可持续的能源解决方案。

在这个阶段,人工智能的进步主要是自上而下的,也就是说,技术巨头们正在引领人工智能的研发和开源工具的开发。这主要是因为技术巨头在计算能力方面有很大优势。Fast Company报告称,2018年,谷歌在其BigGAN实验中消耗了相当于美国普通家庭半年平均用电量的电量来创建高度逼真的图像。

(来源:CB Insights)

与云计算相比,边缘计算没有相同的计算能力和资源,因此随着人工智能越来越多地应用于边缘设备(如电话和相机),能效变得越来越重要。这里首先要考虑的是更多节能人工智能设备。

Xnor.ai是一家致力于开发低功耗边缘人工智能工具的初创公司,专注于能够运行人工智能算法的超低功耗相机。他的硬件工程和机器学习团队曾经问了一个问题:“我们能开发一种硬件设备和机器学习架构,不用电池就能运行深度学习模型吗?它可以非常低的功耗,甚至是太阳能。”今年早些时候,苹果收购了Xnor.ai,此举反映了苹果在低能耗人工智能领域的布局,以及在苹果手机的人工智能芯片和虚拟现实应用方面的积极努力。

中国深圳(Kneron)专注于高性能、低功耗和低成本的人工智能解决方案,最近发布了一款面向边缘设备的低功耗人工智能处理器。本月初,耐克宣布完成4000万美元的A2轮融资,由李嘉诚的维多利亚港投资牵头。其投资者包括阿里巴巴创业基金、高通公司、中科创达、红杉资本旗下基金云地图集等。融资总额超过7300万美元。

另一个值得关注的方向是大型能源工厂及其设备的人工智能管理预测工具。例如,由比尔盖茨投资的初创公司赫利根公司就专注于一些

根据天气预报数据和风力涡轮机收集的数据,深度思维的神经网络可以提前36小时预测未来的风能输出。基于这些预测,DeepMind的模型可以提前一天通知网格企业如何实现最佳交付。对于电网企业来说,能够有计划地安排能源非常重要。

谷歌一直在数据中心积极推广可再生能源的使用,并使用人工智能来帮助实现这一目标。通过与DeepMind及其神经网络的合作,风能产量得以提高。

(来源:谷歌人工智能研究)

关键词

超低功耗机器学习设备

能效正在成为边缘设备(如智能手机、智能家庭相机等)的重要考虑因素。)。

大型能源企业

越来越多的大型云服务提供商开始转向使用可再生能源,并集成人工智能来提高可再生能源产量并简化数据中心运营。

Streamlined operations

AI可以很好地预测可再生能源的产量,自动化电网管理,帮助准确钻探油井,并为智能家庭和商业建筑的可持续能源管理提供解决方案。

解决人工智能的小数据问题是重点。

如果没有足够的数据来训练,有两种方法来解决这个问题:生成复合数据或者开发可以处理小数据的人工智能模型。

众所周知,深度学习需要数据,它的模型训练是基于大量的标记数据。例如,人工智能被训练成通过使用数百万个动物标记的图像来识别。然而,大量的标记数据不适合某些应用。在这种情况下,即使可能,从头开始训练人工智能模型也充满了困难。

一个潜在的解决方案是用合成数据扩展真实数据集。这在自动驾驶领域得到了广泛的应用。自动驾驶汽车在真实的模拟环境中行驶数百万英里,将面临暴风雪和突然的行人行为等情况。对于这些情况,我们很难获得真实的数据。

合成数据正在出现。下图所示的英伟达的合成磁共振图像用于扩展罕见疾病的真实数据。

(来源:英伟达)

数据问题的另一个解决方案是开发基于小数据集学习的人工智能模型。一种叫做迁移学习的方法已经被应用于计算机视觉任务中。该方法使用预先训练的人工智能算法来执行具有大量标记数据的任务(例如,识别图像中的汽车),然后将知识转移到具有少量数据的另一个不同任务(例如,识别卡车)。使用预先训练好的模型就像在包饺子时使用现成的饺子皮,省去了揉面的步骤。

Chart |美国迁移学习专利统计(来源:CB Insights)

尽管预训练模型在计算机视觉领域取得了很大的进步,但由于缺乏标记数据,它在自然语言处理(NLP)领域一直是一项极具挑战性的任务。然而,在自然语言处理领域,一种被称为自我监督预训练的方法逐渐变得流行起来。

所谓的自我监控预训练首先基于网络上的大量数据训练人工智能模型。例如,OpenAI执行了一项计算量非常大的任务:使用800万个网页作为训练数据,训练一个基于给定文本预测下一个文本词汇的人工智能模型。这种方法被称为自我监督学习,因为没有“标签”:人工智能通过根据句子中的其他单词预测隐藏单词来学习语言。研究员杰瑞米霍华德在一段摘录自Fast.ai的文章中解释了为什么这些自我监控的语言模型非常重要:

“我们不一定对语言模型本身感兴趣,但是已经证明,能够完成这一任务的模型必须理解语言的本质,甚至是学习语言过程中的世界。当我们将这种预先训练好的语言模型应用于另一项任务(如情感分析)时,我们可以用很少的数据获得令人满意的结果。“

另一个典型的例子是谷歌BERT,它的人工智能语言模型不仅可以根据前面的内容进行预测,还可以根据下面的文本进行扩展。也就是说,该模型采用双向语言模型,能够更好地整合前一篇文本和后一篇文本的知识。

由yannlekun领导的Facebook人工智能研究一直看好自我监控。例如,他们将首先训练一个语言模型(类似于上述),然后进行预训练和微调,以识别仇恨言论。

(来源:脸书)

最近,脸书也开发了自己的自我监控语音识别模型,很好地解决了小型研究项目中对人工标记文本的需求。非英语语言的标注训练数据的数量通常是有限的。为了解决这个问题,脸谱网开发了代码wav2vec,这对于非英语语言的语音识别特别有用。

Keyword

自然语言处理

由于自我监控技术的出现,自然语言处理将成为2020年的关注焦点。我们最终会看到更好的下游自然语言处理应用的出现,比如聊天机器人、高级机器翻译和类似人类的书写。

由一家大型技术公司领导

因为预先训练的语言模型的开发需要大量的计算,所以对小数据的人工智能模型的研究将是自上而下的。技术巨头们正在开放他们的研究成果,以便其他研究人员可以将它们用于下游应用。

复合数据及其工具

复合数据及其工具为无法访问像技术巨头这样的海量数据集的小公司提供了一个公平竞争的环境。

量子机器学习为传统的人工智能算法注入了活力。

我们将很快看到结合传统机器学习算法和量子人工智能的模型的实际应用。

二进制计算中存储的信息是0或1。与二进制计算不同,量子计算机是基于量子位的。量子位可以是从0到1的任何值,或者具有这两个值的属性。因此,它在运行计算方面有很大的优势。

然而,我们与传统计算机互动的方式不适用于量子计算机。它需要专门的数据、算法和编程。

量子机器学习借鉴了传统机器学习的原理,但是它的算法将运行在量子处理器上,这使得它们比传统的神经网络更快,并且解决了当前人工智能研究在海量数据集上的硬件限制问题。

然而,量子神经网络(QNN)的研究仍处于初级阶段。对此,谷歌曾表示:“从传统机器学习的诞生到监督学习的总体框架的建立花了很多年。我们仍在探索量子神经网络的设计。”

那么,QNN算法将如何解决真正的问题?

技术巨头和量子初创公司正在考虑一种混合方法,其中一部分任务由运行在传统计算机上的传统神经网络来完成,而另一部分任务由量子神经网络来增强。

例如,多伦多的一家初创公司Xanadu正在应用量子和传统人工智能来转移学习。该结果在图像分类任务中具有良好的应用前景。

此外,自2013年以来,谷歌人工智能团队一直专注于为量子计算机编写算法。像世外桃源一样,它的近期目标是开发“一种结合了量子和传统技术的机器学习技术,可以应用于量子设备。”谷歌人工智能团队曾写道:“尽管目前关于QNN的工作主要是理论性的,但在不久的将来,它们可能会在量子计算机上得到测试和实现。”

在谷歌发表的两篇研究论文中,它探索了如何训练QNN不同于传统的神经网络训练方法,并测试了QNN在模拟中执行简单图像分类任务的能力。

尽管今天最强大的量子计算机,包括谷歌开发的那些,已经可以控制50到100个量子位。但是研究人员说,如果量子计算机要有更广泛的商业影响,他们至少需要数千个量子位来控制它们。

鉴于量子信息的发展可能给信息领域带来的影响,政府和各种技术公司的巨头都积极投资于量子技术的研究。根据世邦魏理仕的数据,2019年量子计算领域完成了14笔交易,总金额为1.978亿美元,较2018年略有下降。

(来源:世邦魏理仕)

其中,2015年1月1日至2020年2月9日,美国(45.3%)、加拿大(15.6%)和英国(14.1%)是关联交易数量最多的三个国家。

2019年10月,《自然》杂志发表了一篇专栏文章,分析了近年来私人投资涌入量子技术初创企业的情况。其中,关于中国的投资,文章指出,由于英文媒体报道和西方分析公司的报道很少涉及中国的投资交易,文章中很可能遗漏了一些中国数据。然而,关于量子计算在中国的发展,文章引用了中国科技大学潘建伟教授的话说,中国的量子技术产业化也进展顺利。此外,专利申请也可以得到证明:根据欧盟委员会联合研究中心的数据,2012年至2017年,超过43%的量子技术创新专利来自中国的大学和企业。

(来源:Martino Travagnin/欧盟委员会联合研究中心)

Keyword

与传统计算机相结合

我们将开始看到世界上最强大的两种计算模式量子计算和人工智能通过与传统计算机相结合来解决实际问题。

Quantum Cloud Computing

Quantum Cloud Computing是“云战争”的最新前沿,所有主要供应商,包括AWS、谷歌、小发猫和微软,都在大举投资。正如Rigetti、微软和OpenAI在2020年发表的一篇论文中所强调的,这意味着量子计算机将与传统的GPU和CPU一起工作。我们将看到云人工智能算法在这样一个混合硬件平台上运行。

自然语言处理将帮助我们理解生命的构成要素。

自然语言处理和基因组有一个共同的特征,那就是它们都由序列数据组成。自然语言处理的发展给基因组学研究带来了启示。

在本报告前面提到的自我监督学习案例中,研究人员将在句子中隐藏特定的单词,并让算法猜测缺失的单词,从而更广泛地学习语言。正如句子是由单词按顺序组成的一样,蛋白质是按特定顺序排列的氨基酸序列。

来自德国的研究人员使用了一个类似于自我监控语言模型的概念来对蛋白质进行分类。来自脸书人工智能研究部门和纽约大学的研究人员在大量蛋白质序列数据集上使用了自我监控的概念,使用人工智能来预测隐藏的氨基酸。

(来源:Biorxiv)

DeepMind开发了一种叫做阿尔法折叠的算法,通过理解蛋白质折叠来确定蛋白质的三维结构,这是基因组学中最复杂的挑战之一。

(来源:DeepMind)

(来源:Martino Travagnin/欧盟委员会联合研究中心)

为了应对最近在中国爆发的新的冠状病毒肺炎,百度在今年2月初开启了其核糖核酸预测算法“线性折叠”。该算法可以大大缩短预测病毒核糖核酸二级结构的时间(从55分钟到27秒),从而帮助一线医学研究人员更好、更快地分析病毒和开发疫苗。

keywords

better drug design

proteins根据环境因素动态改变其结构,因此了解其结构和折叠模式将为未知靶点的药物开发带来机会。

没有对领域知识的深入理解

人工智能算法可以帮助蛋白质建模和理解其结构,而没有对领域知识的深入理解。

具有特定功能的蛋白质设计

有可能为医疗保健和材料科学开发或优化具有特定功能的新蛋白质设计。

结论