全美商学院
新闻
新闻

成都小程序开发可以信任人工智能

2024
07/30
12:41
成都全美小程序开发公司
分享

人工智能是人们热议的话题,不是吗?成都小程序开发的社交媒体上充斥着人们谈论人工智能能做什么和不能做什么,他们中的大多数人甚至不是科技行业的一员。虽然我是人工智能的忠实支持者,也是相信人工智能将对经济和社会产生巨大影响的人之一,但我有点预料到这种热议现在已经平息了。

毫无疑问,人工智能已成为公众意识的一部分,或者说各行各业对人工智能开发服务的需求日益增加。如果你一直在关注新闻,你就会知道美国编剧协会对好莱坞电影公司进行了罢工。他们的要求是什么?保护好莱坞编剧免受人工智能的可能采用及其对好莱坞编剧的影响。甚至演员们也担心,很快人工智能就可以复制他们的肖像,以至于不再需要他们的服务。

每一个人工智能支持者都会有一个反对者,坦率地说,我对“这个或那个人工智能天才在反对人工智能”的说法感到非常沮丧。现在,我认为这不仅仅是毫无根据的恐吓。毕竟,奥本海默非常清楚他和他的团队在开发原子弹时所做的事情的危险性。同样,许多一生都在研究人工智能的聪明人也对如果我们不开始认真对待这项技术,未来将会发生什么深感担忧。

微信小程序专业靠谱

奥本海默和他那个时代的杰出物理学家试图从根本上理解世界是如何运转的(原子);他们的理论和实验为原子弹的研制奠定了基础。这些科学家相信进步和科学,虽然他们中的一些人明白自己行为的后果,但当权者并不了解其中的道德影响。

而这正是许多人工智能思想家试图阐明的观点,这并不是说我们不应该信任人工智能。而是我们应该仔细思考它的影响,而不是盲目地强行推行更强大的模型,而不了解其内部运作方式和它可能产生的社会影响。

我感到沮丧的是,媒体抓住了人们对人工智能的不信任,并将这一问题描绘得最糟糕。很抱歉,但人工智能出现的时间比你对它的兴趣要长得多。虽然我们一直认为这项技术可能是危险的(因为,让我们面对现实吧,任何技术落入坏人之手都可能是危险的),但有很多误解和虚假新闻四处传播,搅乱了局面。

所以这就是我们今天要讨论的内容——为什么人工智能不是天网以及为什么它值得信任。

人工智能不会接管我们的工作 

虽然乍一看,著名作家和艺术家在人工智能时代对自己作品的担忧似乎很愚蠢,但他们的担忧并非毫无根据。世界各地的极客们已经体验过G/O媒体“与时俱进”的可耻尝试,他们让人工智能模型为其博客Gizmodo撰写文章。

只有一个小问题,这篇文章本应按时间顺序列出每一款星球大战产品——这对作家来说很容易,但对于大型语言模型来说呢?它把事情弄乱了,还忘记了系列中一些最著名的作品。而且由于GPT的截止日期是2021年,它甚至不能谈论过去几年的作品——对于一个只谈科技和科幻的博客来说,这有点乏味。现在,鉴赏家可能会争辩说,但如果我们建立一个能够在撰写文章之前搜索网络的代理呢?

是的,理论上这很可行,但如果Glorbo对此有任何意见,那就不行了。长话短说,极客们怀疑一家出版物正在根据一款非常著名的游戏的subreddit生成AI内容。因此,极客们做了他们最擅长的事情,聚在一起创建了关于万能的Glorbo的虚假帖子,瞧,一篇关于这个主题的文章在创纪录的时间内发表了。

再次,人类可以发现骗局,但生成模型还不具备理解讽刺或判断哪些词在某些写作风格美学背景下没有意义的技能。

我们应该感到震惊,对吧?我的意思是,由于人工智能,数千名IT人员正在失去工作。先别急,让我们客观看待问题:这些裁员事件发生的时间远早于人工智能的普及。我们听说大型科技公司冻结招聘和裁员,原因很简单:我们生活在一个后疫情时代。不仅世界经济遭受重创,而且许多为了满足需求而扩大规模的企业现在人手过剩。

换句话说,是的,人工智能可能已经成为人类决策过程的一个因素,但我们不要自欺欺人。这不是凭空而来的。公司正在寻找削减成本的方法,因为我们都看到了不祥之兆。2023年是艰难的一年,大多数企业都在努力生存。

例如,尽管IBM最初提到将停止招聘他们认为可以由AI处理的工作,但他们后来补充说,从长远来看,AI创造的就业机会可能会多于毁灭的就业机会。为什么?因为只要人们按照设计目的使用AI,它就能赋予人们权力。

看看Gizmodo发生的事情,你就会明白一切。一方面,我们高层相信人工智能的流行和它的好处,所以他们认为,“我们可以通过聘请一些人工智能作家来节省一些钱。”但这是错误的思考方式。

让我们换个角度思考一下。想象一下,我们有一位星球大战迷,他比世界上任何人都更了解乔治·卢卡斯所创造的世界和故事——他是遥远星系的专家。你不想让这个人为你写关于这个主题的文章吗?当然。

但假设他们因为某种原因不擅长写作。他们不知道如何表达自己的想法,或者他们太技术化,或者他们根本不喜欢写作。编辑将不得不花费大量时间来润色文章,然后才能将其发表。

因此,我们拥有一个具备写作技能的人工智能和世界上最热爱《星球大战》的粉丝。将两者结合起来,你就可以拥有星球大战系列的最佳作家之一,再加上一位优秀的编辑,你就拥有了一支成功的团队。如果一个人独自一人,这个人很难成为作家或内容创作者,但多亏了人工智能,情况发生了改变。

现在,也许这位新作家有神经多样性,或者英语不是他们的母语,或者他们患有注意力缺陷多动症。无论情况如何,只要正确实施,人工智能将拓宽他们的视野,为被边缘化的人们打开许多新的可能性。你明白我的意思吗?人工智能不是我们的敌人或对手,而是我们的同事,人们可以通过将其纳入工作流程而获益匪浅。

是的,某些工作将会消失,但与此同时,许多场馆将会开放,只要我们了解市场趋势并努力去适应。

不,人工智能系统不会毁灭世界

就在前几天,我在广播中听到一位专家谈论科幻作家,以及他们如何总能成功地用自己的假设击中要害。从表面上看,这个论点很有道理。例如,虽然没有那么复杂,但第一部小型手机与《星际迷航》中的三录仪有着惊人的相似之处,而如今,我们拥有能够进行医疗诊断的智能手机。

不幸的是,这是可及性和确认偏见的糟糕结合。我们只是把更流行的东西或强化我们先前知识的东西当作我们想法的证据。现代和流行的科幻小说往往对未来持虚无主义观点(与20世纪50年代科幻小说的乐观未来主义形成鲜明对比)。

每一个邪恶的机器人,比如《黑客帝国》中的史密斯先生或《终结者》中的天网,都有一个善良的机器人,比如《星际迷航:下一代》中的Data或伊恩·班克斯的《文化》系列中的良性计算机。人工智能和机器与人类协同行动,创造更美好生活的例子数不胜数。

在我谈论人工智能时,人们经常引用一项研究,其中超过40%的人工智能专家认为人工智能成为人类灾难性技术的可能性为10%,并问我对这个问题的看法。首先,我非常想知道这个数字是如何计算出来的,因为如果这是一个估计值,那么人类在没有经过训练的情况下猜测概率的能力真的很差。

例如,您是否知道飞机失事导致机上所有乘客丧生的原因有上千种?仅根据这些信息,猜测一下飞机坠毁的概率——120万分之一,即使您是少数不幸的人之一,飞机失事导致人员死亡的概率也是1100万分之一。相比之下,发生车祸的概率为5000分之一。

当然,你可能已经知道这一点,因为你只要每天看新闻就知道,飞机失事的新闻是多么罕见,而车祸造成的交通堵塞却非常常见。问题是,我们根本没有足够的关于人工智能的信息来对可能引发世界末日的情景做出有根据的猜测。

这里还有另一件可能让你晚上安心休息的小知识。许多专家在谈论人工智能的风险时,实际上都在考虑通用人工智能(AGI)。虽然我内心深处毫不怀疑,总有一天我们会看到通用人工智能,但这不会很快发生。

例如,市面上最强大的生成模型之一GPT-4就让OpenAI头疼不已。他们不仅仍在限制付费用户每3小时向模型发送50条消息(截至2023年7月),而且最近的一项研究表明,该模型也变得不那么智能,无法解决简单的算术问题,编写的代码比以前有更多的bug。

是的,人工智能会撒谎和产生幻觉,但谁不会呢?

是的,这是真的,正如我们之前提到的,人工智能会“撒谎”和“产生幻觉”。这些是拟人化的术语,用于描述人工智能可能犯的一些错误。例如,“撒谎”是指人工智能如何生成不准确或误导性的信息。“产生幻觉”是指人工智能如何误解输入或根据其训练填补缺失的信息,这通常会导致奇怪或不正确的输出。

以GPT-4这样的生成模型为例,该模型经过训练可以根据输入的内容预测和生成类似人类的文本。该模型不理解其生成的内容,也不了解其训练数据之外的世界。因此,它偶尔会生成看似合理但完全错误或毫无意义的文本。

类似地,经过图像识别训练的人工智能有时会“看到”实际上并不存在的对象或图案,这种现象有时被称为“幻觉”。发生这种情况的原因是人工智能已经学会将数据中的某些模式与某些标签联系起来,并且有时会不恰当地应用这些关联。

另一个例子是预测模型,它试图根据与训练数据集相差太大的数据集进行预测。如果你认为人工智能可以通过数百万个关于汉堡卡路里含量的数据点进行训练,那么就别指望它能准确预测苹果派的卡路里含量。

人工智能模型产生幻觉是因为它们缺乏人类对世界的理解。人类对世界有常识性的理解,这种理解源于我们的日常生活经验。而人工智能则缺乏这种直觉。它只是从训练数据中学习模式,并将这些模式应用于新数据。

你知道人类喜欢说我们不应该把苹果和橘子混在一起吗?对于人工智能来说,这毫无意义。如果它们采用数字向量,它们会始终得出一个结果,无论这些数字来自何处。

这些问题在人工智能研究人员中广为人知,也是一个活跃的研究领域。研究人员正在设计算法,使人工智能更可靠,更不容易出现此类错误。例如,他们正在探索确保人工智能输出结果可解释和合理化的方法。他们还在研究检测和纠正人工智能“幻觉”的方法。

我们也不要忘记,即使是人类也会撒谎和产生幻觉。我们都容易出现认知偏差、判断失误和错误信念。然而,与人类不同,人工智能在“撒谎”或“产生幻觉”时并不怀有恶意。它只是根据所学的模式,做它被训练要做的事情。

建立对自主系统的信任对于其成功融入社会和尊重基本权利至关重要。

总之,虽然人工智能可以“撒谎”和“产生幻觉”,但它并不是故意这样做的。人工智能的“错误”是其训练的延伸,也是其无法像人类一样理解世界的原因。然而,随着研究人员不断改进这些模型,我们可以期待人工智能变得更加可靠、更加准确,并且更不容易犯这样的错误。

成都小程序开发只需记住,人工智能是一种工具——一种非常强大的工具——与所有工具一样,必须在其范围内明智且负责任地使用它。自主系统需要谨慎对待,了解其局限性对于做出实施和使用决策至关重要。

联系我们

在线客服

电话咨询

微信咨询

微信号复制成功
15208187678 (苏女士)
打开微信,粘贴添加好友,免费询价吧