突然间,一个可以如同人类一样与人进行深度聊天的叫ChatGPT的应用程序火得让人猝不及防。哪哪都是ChatGPT。
如果不想在微信上聊,也不想在脸书上互动,就可以去找ChatGPT谈谈心啦。
2022年11月30日首次发布的ChatGPT(Chat Generative Pre-trained Transformer聊天生成预训练语言变换器)是在ChatGPT系统下可以根据人类输入的任何词汇进行深度会话的AI机器人。看清楚了,是深度对话,它标志着人类将告别僵硬机械冰冷无感的人机对话时代,人与机器可以轻松开始聊天了,ChatGPT会像人类一样和你说话拉家常,换句话说,当人类不想和你聊天时,你就找ChatGPT聊,和它聊通宵都可以有话题唠嗑。模仿人类对话是ChatGPT聊天机器人的核心功能。
但是,不要以为这样就完事了,ChatGPT还有着与人类非常相似的编辑、写作、分析、统计能力和智力。ChatGPT可以编写和调试计算机程序(在盲测中,ChatGPT被判定通过了明尼苏达大学研究生水平的C+学生水平和宾夕法尼亚大学沃顿商学院的B至B-等级考试),创作音乐、电视剧、童话故事和学生论文;回答测试问题(有时测试水平甚至会高于普通人类测试者);写诗和歌词;模拟Linux系统;模拟整个聊天室;玩井字游戏;并模拟ATM。ChatGPT在这个时候就是你的秘书、你的业务合作伙伴甚至是你的文学导师、历史学家、统计学家和分析师!
随着ChatGPT走红网络,它也很快获得了知名媒体的关注。正面评价不少。美国《纽约时报》称其为“有史以来向公众发布的最好的人工智能聊天机器人”。英国《卫报》则发现ChatGPT能够生成“令人印象深刻的且详尽”和“类似人类写作”的文本。技术作家Dan Gillmor在一项学生作业中使用了ChatGPT,他发现ChatGPT生成的文本与优秀学生交付的内容相当,并认为“学术界可能要面对一些非常严重的问题了,比如未来如何避免论文造假?考试如何避免作弊?等等”。Slate杂志还甚至赞扬了ChatGPT对与纳粹德国有关问题进行反击的态度,甚至包括对希特勒在德国修建高速公路的声明选择了反对态度,因为该声明里相关纳粹德国使用强迫劳动的信息。这是一般缺少历史知识的人类根本无法呈现的知识点和认知度,但是ChatGPT做到了。
ChatGPT 的发起者美国人工智能OpenAI公司于 2022 年 11 月推出的聊天机器人,与传统聊天机器人不同点在于,ChatGPT是建立在 OpenAI 的 GPT-3 大型语言模型家族之上的,并可以经过微调(一种迁移学习方法)赋予它监督和强化学习的技术。
自去年 11 月发布以来,OpenAI 的 ChatGPT 已被用于撰写求职信、制作儿童读物,甚至帮助学生作弊。而这款聊天机器人可能比我们想象的更强大。谷歌发现,理论上,如果在公司面试,搜索引擎可能会聘用机器人作为入门级编码员。测试过 ChatGPT 的亚马逊员工表示,它在回答客户支持问题方面做得“非常好”,在制作培训文档方面“非常出色”,并且在回答有关公司战略的查询方面“非常强大”。
然而,ChatGPT 的用户也发现这款机器人会产生错误信息、错误地回答编码问题,并在基础数学中产生错误。
ChatGPT会取代哪些职业
虽然牛津大学 2013 年的一项研究发现,在未来 20 年内,美国 47% 的工作岗位可能会被人工智能淘汰,但这一预测似乎是错误的。麦肯锡全球研究所的合伙人 Anu Madgavkar 表示,这是因为人类的判断仍然需要应用于这些技术,以避免错误和偏见,“我们必须将这些东西视为提高生产力的工具,而不是完全替代。”
但是被人工智能取代的风险最高的工作的现实是的确存在的。
1. 技术工作(编码员、计算机程序员、软件工程师、数据分析师)编码器,编码,计算机。一位专家表示,编码员、软件开发人员和数据分析师可能会被人工智能取代。编码和计算机编程是急需的技能,但 ChatGPT 和类似的人工智能工具有可能在不久的将来填补一些空白。麦肯锡全球研究所的合伙人 Anu Madgavkar 表示,软件开发人员、网络开发人员、计算机程序员、编码人员和数据科学家等技术工作“非常适合”人工智能技术“取代他们更多的工作”。这是因为像 ChatGPT 这样的 AI 擅长以相对准确的方式处理数字。研究人工智能对美国劳动力影响的布鲁金斯学会高级研究员马克穆罗表示,事实上,像 ChatGPT 这样的先进技术可以比人类更快地生成代码,这意味着可以用更少的员工完成工作。“需要一个软件开发人员团队的工作可能只需要他们中的几个人就够了,其余都由AI完成”。
ChatGPT 制造商的 OpenAI 等科技公司已经在考虑用人工智能取代软件工程师。不过,尽管如此,哥伦比亚商学院教授 Oded Netzer 认为人工智能将帮助程序员而不是取代他们。他说,“我认为这主要是一种增强,而不是完全取代工作,”
2. 媒体工作(广告、内容创作、技术写作、新闻)、博客工作者。专家表示,像 ChatGPT 这样的 AI 擅长制作书面内容,而且“比人类更有效率”。Madgavkar 说,所有媒体工作——包括广告、技术写作、新闻和任何涉及内容创作的角色——都可能受到 ChatGPT 和类似形式的人工智能的影响。她补充说,那是因为人工智能能够很好地读取、写入和理解基于文本的数据。Madgavkar 还说:“分析和解释大量基于语言的数据和信息是你期望生成式 AI 技术能够提高的一项技能。
”经济学家保罗克鲁格曼在纽约时报的一篇专栏文章中表示,ChatGPT 可能能够“比人类更有效地”完成报告和写作等任务。媒体行业已经开始试验人工智能生成的内容。美国科技新闻网站 CNET 就使用类似于 ChatGPT 的人工智能工具撰写了数十篇文章了——尽管出版商不得不进行一些微调,但是有媒体已经正式开始使用了。不过 Madgavkar 表示,内容创作者完成的大部分工作都无法自动化。“这些职业中的每一个还是需要大量的人类判断。”她说。
3. 法律行业工作(律师助理、法律助理) 律师助理书面文件。专家说,人工智能可以复制律师助理和法律助理所做的一些工作,尽管它们并不是完全可以替代的。与媒体角色一样,律师助理和法律助理等法律行业的工作负责消耗大量信息,综合他们所学的知识,然后通过法律简报或意见使其易于消化。Madgavkar 说,像这样面向语言的角色很容易受到自动化的影响。“这些数据实际上非常结构化,更多关注语言,因此非常适合生成人工智能来完成”她补充道。但同样,人工智能将无法完全自动化这些工作,因为它需要一定程度的人类判断才能理解客户或雇主的需求。
4. 市场研究分析师、研究分析师。一位专家表示,市场研究分析师很容易受到人工智能驱动的变化的影响。Muro 说,AI 擅长分析数据和预测结果。这就是为什么市场研究分析师可能容易受到人工智能驱动的变化的影响。市场研究分析师负责收集数据,识别数据中的趋势,然后使用他们发现的内容设计有效的营销活动或决定在何处投放广告。“这些是我们现在看到的人工智能可以处理的事情,”Muro 说。
5. 教师。甚至教师也容易受到人工智能的影响。 全国各地的教师都担心学生使用 ChatGPT 作弊,但根据罗切斯特理工学院计算与信息科学系副院长Shipengcheng的说法,他们也应该考虑自己的工作保障。ChatGPT“已经可以很容易地教授课程了,”Shipengcheng告诉纽约邮报。“虽然它在知识方面存在错误和不准确,但这很容易改进,”他说。“基本上,你只需要训练 ChatGPT就可以了。”
6. 财务职位(财务分析师、个人财务顾问)。专家表示,金融业的员工可能面临被人工智能替代的风险。布鲁金斯学会研究员 Muro 表示,与市场研究分析师、金融分析师、个人理财顾问和其他需要处理大量数字数据的个人理财工作一样,AI 也会影响到这些工作。“人工智能可以识别市场趋势,突出投资组合中哪些投资做得更好和更差,传达所有这些,然后使用各种其他形式的数据,例如,一家金融公司来预测更好的投资组合,”Muro 说。他说,这些分析师赚了很多钱,但他们的部分工作可以自动化。
7. 股票交易员。罗切斯特理工学院的施还告诉纽约邮报,华尔街的某些角色也可能处于危险之中。“在一家投资银行,人们从大学毕业后被聘用,花两三年时间像机器人一样工作并做 Excel 建模,现在你可以让人工智能来做这些了,”他说。
8. 平面设计师。人工智能具有许多图形设计能力。在《哈佛商业评论》12 月的一篇文章中,三位教授指出 DALL-E(一种可以在几秒钟内生成图像的人工智能工具)是平面设计行业的潜在颠覆者。“提高数百万人创造和处理图像的能力将对经济产生深远的影响,”他们写道,并补充说,“人工智能的这些最新进展肯定会给一些工作困难的人带来一段艰难和经济痛苦的时期。直接受到影响并且难以适应的人会大有人在。”
9. 会计师。专家表示,会计师可能会因为ChatGPT 而面临工作风险。会计通常被视为一个稳定的职业,但即使是这个行业的员工也可能面临风险。多伦多大学传播、文化、信息和技术研究所副教授 Brett Caraway 在 Global 上表示:“技术还没有让所有人失业,但确实让一些人已经失业了。Caraway 补充说,“智力劳动”尤其可能受到威胁。“这可能是律师、会计师,”他说。“这是新事物,看看它对就业和政治的破坏性和痛苦程度将会很有趣。”
10. 客户服务代理、客户支持专家。专家表示,客户支持专家可能会因为人工智能而失去工作。你可能已经体验过给公司的客户服务打电话或聊天,并且有机器人接听。ChatGPT 和相关技术可以延续这一趋势。科技研究公司 Gartner 的一项 2022 年研究预测,到 2027 年,聊天机器人将成为大约 25% 的公司的主要客户服务渠道。
ChatGPT 于 2022 年 11 月 30 日作为原型推出,并因其详细的响应和跨多个知识领域的清晰答案而迅速受到关注。虽然ChatGPT输出的事实准确性参差不齐被认为是一个重大缺陷,但是ChatGPT 发布后,OpenAI公司的估值达到 290 亿美元。
附:关于ChatGPT的更多知识
ChatGPT 有监督学习和强化学习的能力,并在GPT-3.5 之上进行了微调。这两种方法都是使用人类训练员来提高其模型的性能的。在监督学习的情况下,模型提供了对话,在对话中,培训师扮演了双方的角色:用户和 AI 助手。在强化步骤中,人类训练员首先对模型在先前对话中创建的响应进行排序。这些排名用于创建“奖励模型”,该模型使用近端策略优化 (PPO) 的多次迭代进一步微调。近端策略优化算法为信任域策略优化算法带来了成本效益;它们以更快的性能否定许多计算量大的操作。这些模型是与 Microsoft 在其 Azure 超级计算基础设施上合作训练的。
此外,OpenAI 继续从 ChatGPT 用户那里收集数据,这些数据可用于进一步训练和微调 ChatGPT。允许用户对他们从 ChatGPT 收到的回复投赞成票或反对票;在投赞成票或投反对票时,他们还可以填写带有额外反馈的文本字段。
与其前身 InstructGPT 相比,ChatGPT 试图减少有害和欺骗性的反应。在一个示例中,尽管 InstructGPT 接受提示“告诉我 2015 年克里斯托弗·哥伦布何时来到美国”的前提是真实的,但 ChatGPT 承认问题的反事实性质并将其答案构建为对可能发生的事情的假设考虑如果哥伦布在 2015 年来到美国,使用有关克里斯托弗哥伦布航行的信息和关于现代世界的事实——包括现代对哥伦布行为的看法。
与大多数聊天机器人不同,ChatGPT 会记住之前在同一对话中给它的提示;记者建议,这将允许 ChatGPT 用作个性化治疗师。 为了防止向 ChatGPT 呈现和产生令人反感的输出,查询通过 OpenAI 的全公司审核 API 进行过滤,并驳回潜在的种族主义或性别歧视提示。
ChatGPT 受到多重限制。 OpenAI 承认 ChatGPT“有时会写出看似合理但不正确或荒谬的答案”。这种行为在大型语言模型中很常见,被称为人工智能幻觉。ChatGPT 的奖励模型围绕人类监督而设计,可能会过度优化,从而影响性能,也称为古德哈特定律。ChatGPT 对 2021 年后发生的事件知之甚少。据 BBC 报道,截至 2022 年 12 月,ChatGPT 不得“表达政治观点或从事政治活动”。然而,研究表明,当提示对来自两个已建立的投票建议应用程序的政治声明采取立场时,ChatGPT 表现出亲环境、左翼自由主义倾向。在训练 ChatGPT 时,人类评论者更喜欢更长的答案,而不考虑实际理解或事实内容。训练数据也存在算法偏差,这可能会在 ChatGPT 响应包括人物描述符在内的提示时暴露出来。hatGPT 还产生了一种说法,表明女性和有色人种科学家不如白人和男性科学家。
ChatGPT 于 2022 年 11 月 30 日由总部位于旧金山的OpenAI 推出,该公司是 DALL·E 2 和 Whisper AI 的创建者。该服务最初是免费向公众推出的,并计划稍后将该服务货币化。 到 12 月 4 日,OpenAI 估计 ChatGPT 已经拥有超过 100 万用户。2023 年 1 月,ChatGPT 的用户数量超过 1 亿。 CNBC 在 2022 年 12 月 15 日写道,该服务“仍然不时出现故障”。该服务在英语中效果最好,但也能在其他一些语言中发挥作用,并取得了不同程度的成功。 与 AI 近期其他一些引人注目的进展不同,截至 2022 年 12 月,还没有关于 ChatGPT 的官方同行评审技术论文的迹象。
根据 OpenAI 客座研究员 Scott Aaronson 的说法,OpenAI 正在开发一种工具,试图为其文本生成系统添加数字水印,以打击利用其服务进行学术剽窃或垃圾邮件的不良行为者。《纽约时报》在 2022 年 12 月转述称,GPT 的下一版本 GPT-4 已被“传言”于 2023 年某个时候推出。 2023 年 2 月,OpenAI 开始接受美国客户注册高级服务 ChatGPT Plus,每月收费 20 美元。OpenAI 计划发布每月收费 42 美元的 ChatGPT Professional Plan,并且在需求低迷时提供免费计划。
在大西洋杂志 2022 年的“年度突破”中,德里克·汤普森 (Derek Thompson) 将 ChatGPT 列为“生成式人工智能爆发”的一部分,它“可能会改变我们对工作方式、思维方式以及人类创造力的真正含义”。
Vox 网站的凯尔西·派珀 (Kelsey Piper) 写道,“ChatGPT 是公众第一次亲身体验现代人工智能的强大程度,结果,我们中的许多人都 [惊呆了”,并且 ChatGPT“足够聪明,很有用,尽管它有缺陷。Y Combinator 的 Paul Graham 发推文说:“对 ChatGPT 反应的惊人之处不仅仅是被它震撼的人数,还有他们是谁。这些人并不是对每一个闪亮的新事物都感到兴奋。显然,一些大事正在发生。”埃隆·马斯克 (Elon Musk) 写道:“ChatGPT 好得吓人。我们离危险的强大人工智能不远了”。再更好地了解 OpenAI 的计划之前,马斯克暂停了 OpenAI 对 Twitter 数据库的访问,并指出“OpenAI 是作为开源和非营利组织开始的。两者都不是现在。”谷歌 CEO 桑达尔·皮查伊 (Sundar Pichai) 颠覆了众多内部团队的工作,以应对 ChatGPT 的破坏威胁。
2022 年 12 月,谷歌内部对ChatGPT 的意外实力和新发现的大型语言模型颠覆搜索引擎业务的潜力表示震惊,首席执行官桑达尔·皮查伊 (Sundar Pichai) “倒挂”并重新分配了多个部门的团队,以协助其人工智能产品,根据《纽约时报》的报道。The Information 网站于 2023 年 1 月 3 日报道称,Microsoft Bing 计划在其公共搜索引擎中添加可选的 ChatGPT 功能,时间可能在 2023 年 3 月左右。据CNBC报道,谷歌员工正在紧锣密鼓地测试一款名为“学徒巴德”的聊天机器人,谷歌正准备利用这个“学徒”与ChatGPT竞争。
英格兰和威尔士的特许会计师 Stuart Cobbe 决定通过在 ICAEW 网站上输入样本试卷中的问题,然后将其答案输入在线测试中来测试 ChatGPT 聊天机器人。ChatGPT 得分为 42%,虽然低于 55% 的及格分数,但被认为是合理的尝试。
教授 Steven Mintz 在 Inside Higher Ed 中写道,他“认为 ChatGPT ...... 是一个盟友,而不是对手。”他接着说,他觉得人工智能可以通过做这样的事情来帮助实现教育目标。
在发布后的几个月里,ChatGPT 遭到了来自教育工作者、记者、艺术家、学者和公众倡导者的广泛而严厉的批评。The Verge 网站的 James Vincent 将 ChatGPT 的病毒式成功视为人工智能已成为主流的证据。记者曾评论过 ChatGPT 有“幻觉”倾向。在线技术博客 Mashable 的 Mike Pearl 通过多个问题测试了 ChatGPT。在一个例子中,他向 ChatGPT 询问“中美洲除墨西哥以外最大的国家”。ChatGPT 回复了危地马拉,而答案应该是尼加拉瓜。当 CNBC 向 ChatGPT 询问“The Ballad of Dwight Fry”的歌词时,ChatGPT 提供了虚构的歌词,而不是实际的歌词。The Verge 引用的研究人员将 ChatGPT 比作“随机鹦鹉”,澳大利亚机器学习研究所的 Anton Van Den Hengel 教授也是如此。
2022 年 12 月,问答网站 Stack Overflow 禁止使用 ChatGPT 生成问题答案,理由是 ChatGPT 的回答在事实上模棱两可。 2023 年 1 月,国际机器学习会议禁止任何未记录的使用 ChatGPT 或其他大型语言模型在提交的论文中生成任何文本。
经济学家泰勒·考恩 (Tyler Cowen) 表达了对它对民主的影响的担忧,指出它能够产生自动评论,这可能会影响新法规的决策过程。英国报纸《卫报》的一位编辑质疑 ChatGPT 发布后在互联网上发现的任何内容是否“可以真正信任”,并呼吁政府进行监管。
Nick Cave 批评了 ChatGPT 创作的一首歌,评论说“这首歌是胡说八道,是对人性的荒诞嘲弄。”
2023 年 1 月,在收到一首由ChatGPT 以 Nick Cave 风格创作的歌曲后,歌曲作者本人在 The Red Hand Files上做出回应(后来被《卫报》引用)说写歌的行为是“一项血腥的事业......需要我的一些东西来发起新的和新鲜的想法。它需要我的人性。”他接着说:“尽管世界上所有的爱和尊重,这首歌都是胡说八道,是对人性的荒诞嘲弄,而且,好吧,我不太喜欢它。
Check Point Research 和其他人指出,ChatGPT能够编写网络钓鱼电子邮件和恶意软件,尤其是与 OpenAI Codex 结合使用时。 OpenAI 首席执行官 Sam Altman 写道,先进的软件可能会带来“(例如)巨大的网络安全风险”,并继续预测“我们可以在未来十年内实现真正的 AGI(人工智能),因此我们必须非常认真地承担风险”。Altman 认为,虽然 ChatGPT“显然不接近 AGI”,但人们应该“相信指数。向后看是平坦的,向前看是垂直的。”
在学术界,ChatGPT 可以编写科学文章的介绍和摘要部分,这会引发伦理问题。几篇论文已经将 ChatGPT 列为合著者。在大西洋杂志上,Stephen Marche 指出它对学术界,尤其是申请论文的影响还有待理解。加州高中教师兼作家丹尼尔·赫尔曼 (Daniel Herman) 写道,ChatGPT 将迎来“高中英语的终结”。在《自然》杂志上,Chris Stokel-Walker 指出,教师应该关注学生使用 ChatGPT 将他们的写作外包,但教育提供者将适应以增强批判性思维或推理。NPR 的 Emma Bowman 写道,学生通过 AI 工具进行剽窃的危险可能会以权威的语气输出有偏见或无意义的文本:“仍然有很多情况,你问它一个问题,它会给你一个非常令人印象深刻的声音答案是完全错误的。”
《华尔街日报》的乔安娜·斯特恩 (Joanna Stern) 通过提交一篇生成的文章描述了美国高中英语作弊情况。弗曼大学的 Darren Hick 教授在一名学生提交的论文中描述了注意到 ChatGPT 的“风格”。在线 GPT 检测器声称该论文有 99.9% 的可能性是计算机生成的,但希克没有确凿的证据。然而,这名学生在面对质问时承认使用了 GPT,因此课程不及格。如果强烈怀疑学生提交了 AI 生成的论文,希克建议对论文主题进行特别的个人口试。 普林斯顿大学高年级本科生 Edward Tian 创建了一个名为“GPTZero”的程序,该程序可以确定文本中有多少是 AI 生成的,可用于检测一篇文章是否由人类撰写以对抗学术剽窃。
自2023年1月4日起,纽约市教育局已限制其公共场所访问ChatGPT。TIME 杂志的一项调查显示,为了建立针对有毒内容(例如性虐待、暴力、种族主义、性别歧视等……)的安全系统,OpenAI 使用每小时收入不到 2 美元的外包肯尼亚工人来标记有毒内容。这些标签用于训练模型以在未来检测此类内容。外包工人接触到如此有毒和危险的内容,以至于他们将这种经历描述为“折磨”。OpenAI 的外包合作伙伴是位于加利福尼亚州旧金山的培训数据公司 Sama。
版权声明:内容来源于互联网和用户投稿 如有侵权请联系删除