幽灵:当人工智能成为意识吗?

由:克里斯Pollette|
布莱克莱莫恩”width=
布莱克莱莫恩姿势的肖像在旧金山金门公园,于2022年6月9日,加州。华盛顿邮报的马丁Klimek通过盖蒂图片社

科幻小说作者经常写故事具有强大,智能电脑——因为这样或那样的原因变得危险,决定人类必须受到影响。毕竟,故事情节依赖冲突,谁想读到满意的计算机智能预约医生的预约和灯光打开和关闭吗?

在这些故事中,它也似乎是自我意识的时代人工智能(AI)是正确的。再伟大的情节,但在现实生活中,的时候,如果有的话,将人工智能真正想为自己和似乎“活着”?它甚至有可能吗?

广告

这个问题出现在2022年6月的新闻。Nitasha Tiku报道布莱克莱莫恩,一名工程师为谷歌工作的负责任的AI单位一个名为λ的AI(短对话语言模型应用程序),认为AI的(即。,能够体验感受和感觉),一个灵魂。

谷歌莱莫恩报告他的发现基于访谈他与λ。其中的一个λ告诉他是它害怕被关闭。λ说,如果这种情况发生,它不能帮助人们了。谷歌副总裁布莱斯Aguera y阿尔卡斯和主任负责创新,Jen Gennai,看着莱莫恩的发现,不相信他。事实上,莱莫恩被迫离开。

莱莫恩指出,λ不是一个聊天机器人——应用程序设计与人沟通一对一,但一个应用程序,该应用程序创建聊天机器人。换句话说,λ本身并不旨在深入讨论宗教或其他。但即使专家不相信λ是有知觉的,许多人,包括谷歌Aguera y阿尔卡斯说,人工智能是非常令人信服

如果我们成功地创建一个真正的人工智能,我们如何知道?18新利最新登入专家认为什么特征显示计算机真正的自我意识呢?18新利最新登入

广告

模仿游戏

也许最著名的人工智能技术旨在衡量是图灵测试,对英国数学家命名阿兰·图灵。至关重要的援助违反了德国后编码在第二次世界大战中,他花了一些时间在研究人工智能。图灵认为,人类的大脑就像一个数字计算机。他设计了他所说的模仿游戏,一个人问问题,一台机器在另一个位置(或至少人看不到)。如果机器可以谈话的人,他们认为这是另一个人而不是机器背诵预定程序的信息,它已经通过了测试。18luck手机登录

图灵的模仿游戏背后的想法很简单,和一个想象莱莫恩λ会相信图灵的谈话,当他设计了这个游戏。谷歌回应莱莫恩的要求,然而,表明人工智能研究人员现在期望从他们的机器更先进的18新利最新登入行为。艾德里安·韦勒人工智能程序主管阿兰·图灵学院在英国,认为当λ的对话令人印象深刻,他认为AI使用先进的模式匹配模拟智能对话。

广告

作为假虎刺属Veliz石板中写道:“如果岩石开始与你一天,将是合理评估其知觉(或者你明智的判断力)。如果是喊“哎哟!后你坐在它,它将会是一个好主意站起来。但同样是不正确的人工智能语言模型。语言模型设计人类使用语言,所以我们不应该感到惊讶当它。”

广告

道德困境与人工智能

AI肯定有一个很酷的因素,即使它不是密谋接管世界英雄到来之前保存一天。好像我们想手工具的重任,所以我们可以做一些有趣的事。但这可能是一段时间AI -的或不准备这样的一大步。

Timnit Gebru的创始人分布式人工智能研究所(DAIR),表明我们仔细想想采用人工智能和移动缓慢。她和她的许多同事都担心18luck手机登录AIs所使用的信息使机器似乎种族歧视和性别歧视。采访中IEEE光谱,DAIR研究主管亚历克斯•汉娜说,她相信至少部分中使用的数据语言模型人工智能研究人员收集“通过伦理或法律问题的技术。”Without fair and equal representation in the data, an AI can make decisions that are biased. Blake Lemoine, in采访关于λ说,他不相信一个人工智能可以公正的。

广告

其中的一个算法的正义社会的目标在它的使命是使人们更加意识到人工智能如何影响他们。18新利最新登入创始人快乐Buolamwini发表了TED演讲作为一个研究生的麻省理工学院(MIT)编码的目光。”The AIs she has worked with had a more difficult time reading Black faces, simply because they hadn't been programmed to recognize a wide range of people's skin tones. The AJS wants people to know how data are collected, what kind of data are being collected, to have some sort of accountability, and to be able to take action to modify the AI's behavior.

即使你可以创建一个AI能够真正公正的决策,还有其他伦理问题。现在,创建大型语言模型的成本对于AIs运行到数百万美元。例如,AI称为GPT-3可能成本11美元和2800万美元之间。它可能很昂贵,但GPT-3整个文章写作的能力本身。训练一个人工智能也会对环境造成损害二氧化碳的排放。令人印象深刻的,是的。贵,也没错。

这些因素不会让研究人员继续研究。人工智能自20世纪中后期以来取得了长足的进步。但即使λ和其他现代AIs可以有一个非常令人信服的和你谈话,他们不是的。也许他们永远不会是。

广告

特色

广告

加载……
Baidu