当前位置:首页> 竞技彩票 >如何制止家里人赌钱|华为用AI写诗、ZAO用AI换脸,AI时代人类何去何从?

如何制止家里人赌钱|华为用AI写诗、ZAO用AI换脸,AI时代人类何去何从?

发布日期:2020-01-11 14:20:43

如何制止家里人赌钱|华为用AI写诗、ZAO用AI换脸,AI时代人类何去何从?

如何制止家里人赌钱,在过去的两天里,华为的人工智能诗人“乐府”引起了很大的轰动。用户可以生成不同风格的古诗,包括五言诗、七言诗、四行诗和押韵诗,有不同的风格可供选择。这些古诗押韵相同,有一定的意境。如果你不告诉我这是人工智能创造的,你可能会认为这是一位不知名的古代诗人的作品。

“乐府”的用法很简单。你只需要通过微信搜索小程序“ei Experience Space”,就可以找到“乐府诗”。打开后,输入您想要使用的标题,点按“开始诗歌”,然后将诗歌交给ai完成。

华为的诗ai使用了openai提出的通用预训练语言模型(gpt)。今年6月,华为诺亚方舟实验室(Huawei Noah's Ark Laboratory)发表了一篇关于利用gpt模型创作中国古代诗歌的论文。这种乐府ai的实现原理来源于本文。

Openai是一个研究人工智能技术的非营利组织。它成立于2015年底,总部设在旧金山。背后的创始人是“钢铁侠”埃隆·马斯克。出于对通用人工智能潜在风险的担忧,他和另一位创始人萨姆·奥尔特曼(Sam Altman)决定成立该组织。

华为不仅使用gpt模型,openai也在使用gpt模型本身,他们还制造了一些“大新闻”。

最近,麻省理工学院科技评论发布了一份报告,称开放人工智能训练了他们的人工智能系统——虚假新闻喷涌,它产生虚假新闻。在输入了40gb的在线文本后,人工智能已经能够伪造肯尼迪总统的演讲。这些演讲的词句似乎真的来自肯尼迪总统的口中。这个假新闻系统使用gpt升级版gpt-2。

事实上,openai早在今年2月就发布了他们的gpt-2型号。经过网络上大量文本的训练,该算法可以翻译文本、回答问题和执行其他有用的任务。他们甚至用这种算法来生成一个虚假消息,即俄罗斯向美国宣战。

(人工智能系统伪造俄罗斯对美国的战争新闻)

这个人工智能系统很容易让人感到不安。如果有人用人工智能散播谣言呢?你知道,在互联网时代,每个人都可以成为一个自我媒体,驳斥谣言已经成为一项艰巨的任务。谣言很容易被广泛传播,但是驳斥谣言的信息并不那么有效。人们经常哀叹“谣言有口,谣言断腿”。一旦大量谣言产生,就很难识别它们,更不用说反驳它们了。此外,还没有有效的算法来完全实现人工智能识别。为了避免被滥用,openai也没有完全开源的算法。

人工智能的“创造力”越来越强。它不仅可以制作带有虚假事实的虚假新闻,还可以制作根本不存在的图片和视频。

几天前,视频变脸应用程序zao在朋友圈着火了。用户可以通过下载、安装、登录和上传照片,用自己的照片替换平台提供的各种短片中的明星面孔。然而,在用户协议和隐私问题上出现了争议,微信屏蔽了这些争议,并接受了工业和信息化部的采访。赵还修改了用户协议,并公开道歉。

Deepfake是一种基于深度学习的人工智能人脸改变技术,早已问世。这项技术已经是开源的。许多软件已经使用了这项技术。普通用户只需几个简单的步骤,就可以把照片或视频中的面孔换成他们喜欢的任何人。

在深度伪装的背后,使用了人工智能算法gan(世代对抗网络)。简而言之,该算法使用两个系统来对抗对方。一个系统是生成虚假数据的生成网络,另一个系统是鉴别数据真实性的鉴别网络。然后利用生成网络从潜在空间中随机抽取样本作为输入,输出结果需要尽可能模拟训练集中的真实样本。鉴别网络鉴别这些结果,尽可能从真实样本中鉴别生成网络的输出,并尽可能欺骗鉴别网络。最终目的是使判断网络无法判断生成网络的输出结果是否真实。

以这种方式,可以通过gan算法产生具有假图像和伪图像的照片、视频、三维模型等。面对这些内容,鉴别网络无法区分真假,这意味着。这些内容是通过深入研究创造出来的,人类很难区分真假,人工智能也不好。

因此,在未来的互联网上将会有大量的照片和视频难以区分真假。以前,我们可以用“眼见为实”来区分事物的真假。然而,面对未来大量的照片和视频,我们可能永远无法区分它们是真实的还是人工智能生成的。此外,根据gan算法的原理,很难用人工智能来区分这些内容。也就是说,我们将处在一个很难分辨真假的世界。

事实上人工智能已经可以直接合成足够多的照片来欺骗人们的眼睛。Avida去年推出了style gan人工智能算法,可以用来生成假人的脸来欺骗人们的眼睛。

优步软件工程师菲利普·王(Philip wang)迅速实施了这项技术。他创建了一个网站:thispersondoesnotexist.com。每次他打开网站,他都会随机生成一张脸部照片。这些面孔看不到任何问题,但他们不是真正的人。

(来自thispersondoesnotexist.com的随机照片)

有越来越多类似的技术。文本、图像甚至视频都可以由人工智能合成,声音也不例外。早在2016年,谷歌就已经推出了基于深度学习的原始音频生成模型wavenet,该模型可用于利用语料库合成高度相似的语音。HKUST迅飞、搜狗和腾讯等国内公司也在进行相关研究。例如,高德地图上凌志修女和郭德纲的声音是通过人工智能语音合成技术合成的。

将来,我们可能会面临难以分辨真假的问题。一个突然的新闻项目可能是人工智能产生的。照片可能根本没有真正的内容。在视频中,很可能所有表达的事实都被修改了。人工智能如此强大,以至于它看起来像欺骗人类一样简单。也许现在拒绝人工智能的发展为时已晚,否则没有人能够预测未来的灾难。

然而,技术本身没有价值取向。不管它是有益的还是有害的,都在于人类的使用。如果被滥用,它将不可避免地滑向无底的深渊,但只要使用得当,技术将带来幸福。例如,用于生成假图像的gan算法最近被应用于医学研究。

最近,来自人工智能药物发现公司insilico medicine、制药商康德和多伦多大学的科学家们使用了强化学习技术的新人工智能系统,将从选择目标点到形成潜在新药候选人的过程缩短到只有21天,比传统方法快15倍。Insilico的方法基于两种人工智能:gan(拮抗网络的产生)和强化学习。在这里,gan算法已经成为治疗疾病和拯救生命的好方法。

回到是否阻止人工智能发展的问题上,如果我们担心人工智能会给未来带来灾难,并且首先阻止人工智能技术的发展,那么利用人工智能造福人类的可能性将被消除。就像gan技术一样,如果我们担心它会创造一个难以判断其真伪的世界,那么insilico的15倍效率提升技术将不复存在。我们关闭了通往地狱的窗户,但通往天堂的大门也可能关闭。

因此,我们应该积极让技术变好,正如马花藤在2019年世界人工智能大会上的讲话中所说,用“技术变好”来领导人工智能的全面治理。当技术可能被用来作恶时,更好的方法是使用技术,而不是主动回避它。例如,加州大学伯克利分校和南加州大学的研究人员正在研究识别假照片的新工具。麻省理工学院-ibm沃森人工智能实验室和哈佛大学自然语言处理实验室的研究人员也在研究对抗openai GPT-2模型的方法。

像人工智能这样强大的工具本身非常复杂,可以做好事也可以做坏事。我们应该做的是让这个工具更好地为我们服务。如果这个工具面临被滥用的风险,最重要的不是解决这个工具,而是解决这个风险。





上一篇:红色女特工何妨的无悔人生
下一篇:惊出一身冷汗!同事间闹矛盾,男子拿着刀扬言要杀人