美高梅MGM33999

由丽贝卡·戈德坦(Rebecca Goldfine)
作为的一部分 庆祝总统萨法塔Zaki的就职典礼, 一个多元化的人工智能专家小组反映了社会如何最好地定位自己的新技术并产生最好的。
AI小组成员(L-R)Eric Chown,Rumman Chowdhury,Daniel Lee,Carlos Montemayor和Peter Norvig。
从左到右:主持人Eric Chown和小组成员Rumman Chowdhury,  Daniel Lee,  Carlos Montemayor, 和Peter Norvig。

四个发言人包括定量  scientist Rumman Chowdhury, 电气和计算机工程教授 Daniel Lee, 哲学教授 Carlos Montemayor, 和计算机科学家 Peter Norvig

讨论的主持 Eric Chown, Bowdoin'美高梅4688集团ams  Sarah和James Bowdoin数字和计算研究教授。

在她的星期五下午活动的介绍中, 高级副总裁兼学术事务院长Jen Scanlon说,高等教育必须使学生提供工具和环境,以与“扫描”技术互动, “提出导致富有想象力和人道收获其利益的方式的问题, 探索和包含问题, 并前进。”

以下是以下讨论的编辑和凝结版本:

4688美高梅集团唯一网站检测 请谈谈您对AI感兴趣的是什么以及您对当今世界上的事情感到兴奋。

Chowdhury: 现在对AI的令人兴奋的是,人们的可访问性增加了通常在硅谷和独家技术环境中安装的模型。

Lee: 我对AI的兴趣询问我们如何使AI系统在现实世界中工作?由现实世界, 我的意思是我们日常生活的笨拙物理和混乱。我们如何与新的情报互动,我们可以建立建造,从而改善人们的生活?

Chown:  Bowdoin学生毕业时应该知道什么?

诺维格: 他们应该知道如何使用当前工具。他们应该意识到什么’, 什么可能, 以及什么是科幻小说。他们应该意识到各种威胁和承诺, 。因此,如果您想到医疗未来, 会有惊人的发现会导致治愈的可能性?如果他们进入政治, 他们应该担心虚假信息。您不必知道所有技术细节, AI如何在幕后工作, ,但您必须知道影响。

Chowdhury:
这里的关键是要对输出和输入—您放弃的数据是什么, 在您面前放了什么?随着它变得更加现实, 更符合您的目标, 击中所有使您感到情感的事物, 如何, 作为思想家, 退后一步, 查看情况, 询问, “这是真实的吗?它是在驱动我想看的那种变化吗?还是在操纵我?”

设计的大量AI语言要求我们放弃思考...我认为这是人们对技术的许多恐惧;机构。

Montemayor: 应该问, “ AI将如何帮助所有人?如何民主?我们如何利用AI的潜力使大多数人受益, 或理想情况下所有人?”

诺维格:
放弃控制的想法:我认为如果您放弃控制, 该系统设计不佳。我们应该考虑两个维度并说, “如果我想要, 我应该拥有更多的自主权。, ,如果我想放弃控制权,我可以, ,但我不应该被迫进行权衡。

Chown:技术的历史 和不平等事物不是很棒的, right, ,并且有很多人无法访问AI,并且在不久的将来会赢得AI。那么,AI如何成为改善不平等的驱动程序,而不仅仅是另一种创造更多的恋和不可能的技术?

Chowdhury:我们仍然有众多的世界,甚至没有互联网连接……以及该国的整个地区都没有参与我们认为基本的数字世界。起点是我们如何获得与世界上更多地区的互联网连接[如果需要的话]?

Lee: 这些系统建立在大量数据上。如果您有一个对当权者有偏见的数据集, AI系统中出现的任何内容都会扩大这些偏见。目前有很多消除这些偏见的工作, 在训练集和学习算法中, ,但它仍然是一个新生的字段, 不知道该如何正确地做。

Norvig:一件好事是涨潮升起所有船只, ,但是技术潮流倾向于提高游艇而不是划船。 A 最近的研究 查看呼叫中心工人, 并使他们访问AI工具。他们发现,小技术工人比高技能工人获得更多的好处…因此,我认为这里可能有比大多数技术的人更多的人。

Montemayor: 需要进行对话。这次对话的公众越多,大学参与的越多, 正确使用技术的机会越好。

Chown: 要求AI的用户相信它将为我们做好事,并相信制作人工智能的公司有我们的最大利益。但是生成的AI及其产生的是有助于使我们彼此信任以及我们获得的信息减少。

Lee: 您如何建立信任?以一种社会方式, 您证明了, 如果您向我交付了我同意的产品,否则我可以以某种方式进行验证, 建立信任。如果您构建人造系统, 它也必须经过某种协​​议,例如人类可以在正确的时间验证其做正确的事情。

Chowdhury: 我不认为我们应该盲目信任技术,或者相信公司可以自动做正确的事情。公司的激励措施不一定是您的激励措施, 不一定是导致人类或社会繁荣的激励措施。您知道汽车上的刹车会起作用,不是因为您会自动相信福特会做正确的事情, ,但因为有法律。如果公司违反法律, 他们被罚款, 有召回, 已经建立的方法—所有这些事情都会导致您信任技术。为了使AI整合到日常生活系统中,有一个巨大的信任障碍可以克服, 很好。很高兴被认为值得信赖的技术对于可能告诉您您应该想什么的技术很高, 或做出决定, 或为您写东西。仅当出现问题时才有标准和recourses时,信任才会出现, 现在,现在都不存在。

Norvig:我想描述一个可能的未来,其中我有一部带有一堆图标的手机。当我推一个, 我已经将所有信息赠送给Uber或Dunkin Donuts, 或某些公司, ,我必须相信他们为我做有益。我知道他们想让我成为客户, ,因此他们有一些动机在我这边。但是在大多数情况下,他们站在自己的身边, 他们不在我身边。如果我们用一个说的一个按钮替换了所有这些按钮该怎么办, , 我站在您的身边。”因此,您只需要信任这个程序, ,然后它将前往Uber并让汽车到达或披萨到达, 现在您必须分割的信任量较少。 AI仍然必须赢得该信任, 但是 在我身边代理的未来世界可能有一个可能的未来世界, 不是公司’。

Chown:将来AI将如何帮助Bowdoin的毕业生和观众中的人们蓬勃发展? 

Chowdhury: 100年前, 我们在上次工业革命中进行了类似的对话……关于我们将在所有这些空闲时间方面做什么。人们每周只谈论三天工作, 花四天的时间学习演奏乐器, 写小说, 照顾家庭。我们还与电子邮件和数字电话进行了这些对话。, 首先,我们需要将生产力定义不仅仅是对GDP的贡献。第二, 我们需要非常有意的…我们必须集体同意,这种释放的时间和易于获得的时间并不会导致我们花时间花时间做更多的工作;我们将花时间做其他事情。, ,因为我们已经进行了超训练以达到那个金戒指, 和下一个金戒指稍高一点。 

Montemayor: 对于蓬勃发展, 最后的工业革命, 和最近的数字革命, don’ t结果对所有人类都非常有用。有了这项新技术, 我们至少有机会考虑一下它将如何帮助问题。关于如何使用这项技术的政治讨论必须进行政治讨论。, ,但我们需要确切地考虑这意味着什么...我认为这是大学有趣的—这些地方是我们应该考虑这些东西并使用我们拥有的工具和我们拥有的理解的地方学科以帮助实现这些更大的目标并刺激我们需要实现的社会对话。 

诺维格:
一种查看它的方法是我们希望我们的系统与我们真正想要的东西保持一致, ,我看到了随着时间的流逝,我们的[解决]。 最初, 软件都是关于算法的, ,然后是关于大数据的, 现在在第三班中, 我们有很好的算法来优化事物,我们有很棒的数据, ,但我们没有很好的方法来指定我们正在尝试优化的方法。我们想要什么?, 因此他们不必担心它。也许我们应该在社会层面更加关注这一点。, 如何做出好的决定?);在个人层面上(我真的想花时间看猫视频吗?也许我应该在我的生活中做其他事情?)。

Chown: 这听起来像人文科学的权限, 谈论价值等。人文科学与这些项目如何联系并确定AI系统的一致性?

Chowdhury: 对齐问题是, 如果您构建了足够胜任的AI系统, 我们能够控制它吗?数亿美元用于这个问题。, 如果我戴上人文学科帽子, ,我戴上了我的哲学帽子, 解决对准问题时有三个问题要问:什么是能力?什么是控制?

当我们拥有可以通过律师考试或医疗许可的AI系统时,我们如何定义能力? Chatgpt可以通过律师考试, 那么,我们如何为拥有法律许可的人定义能力?如果AI达到一定程度的能力,以至于我现在害怕它, 这东西有意识吗?回答这些问题将告诉我们有关自己的信息,并向我们介绍我们的价值观以及我们如何尝试使用AI系统蓬勃发展。

Montemayor: 我们一般如何对齐我们的值, 这对我们的尊严和自由意味着什么?那是启蒙的方式, 但是这个想法是, 那是我们的尊严所在的地方以及我们如何保护它们的位置。但是,我们最终使用这些技术, 我们需要将其连接到人文学科的较大项目。我们需要深入思考, 不仅要达到我们要达到的目标,而且为什么我们应该比其他问题更关心某些问题,以及哪些问题在增强技术和知识的自由和尊严的项目中最重要的问题。

Lee:如果您查看历史, 每种新技术的最大应用是军事— dynamite, 核武器。我害怕我们尚未克服那个, 我们从当前事件中知道。除非我们了解人文学科,否则所有这些事情都将被重复, 人类状况, 社会学驱动器, 和历史先例。

Chown: AI教我们关于人类的知识是什么?我们谈论的是从人类那里学习的AI,但是我们从AI中学到了什么?

Norvig:使用这些如此流行的大语言模型, 每个人都同意那里有惊人的技术。但是对我来说,这并不是令人惊叹的高峰学习网络,或者是惊人的数据中心;最令人惊奇的是,我们写下了所有这些内容, 那里有很多!我们创建语言的能力比我想象的要多得多。, ,但我不认为有人意识到那里有多少。我们认为语言是一种运输机制, ,您需要一个人才能理解它, ,但现在是一台与单词没有直接连接的计算机, 只能看语言, 可以从中取出很多东西。告诉我我们在发明语言方面做了一些惊人的事情。

Lee:我仍然对人类大脑的伟大感到惊讶。我们仍然不了解自己。, 我们尚未复制的大脑有什么特别的?

Chowdhury:当我们想到生产力或GDP&gdp—时,我们给所有想法的货币价值是AI非常擅长的事情。以及我们没有对的所有东西, ai可以做得很好。它可以照顾婴儿。, 那是人类的意思。这就是提供高价值的含义。

受众的问题:让你们中的任何人都考虑到政府应进行的法规, ,或者您是否研究过欧盟对其AI的行为正在做的事情,并认为这是美国应该遵循的事情?

Montemayor:我想的一件事是有一些规定是国际的, 和AI将成为国际, 每个人都将使用它。因此,我想知道出现的框架是否应该是国际框架。

Norvig:除了政府法规, 还有其他规定。有自我调节(公司有培训和释放产品的法规)。, 是电。 承销商实验室 跳进去说, “我们要在烤面包机上贴上一点贴纸,说它会杀死你,“很棒, 因为消费者信任它, 这意味着品牌愿意获得认证。承销商实验室在AI中有一个新程序。