文章发表于2024-01-30 09:32:57,归属【科技前沿】分类,已有751人阅读
ChatGPT是OpenAI公司的人工智能聊天机器人,它具有回答任何问题的神奇能力,这可能是你第一次接触人工智能。从写诗,简历到融合食谱,ChatGPT的功能被比作类固醇的自动完成功能。
但人工智能聊天机器人只是人工智能领域的一部分。当然,让ChatGPT帮助你完成家务,或者让Midjourney创造令人着迷的机甲图像是很酷的,但它的潜力可能会彻底重塑经济。根据麦肯锡全球研究所(McKinsey global Institute)的数据,这种潜力每年可能为全球经济带来4.4万亿美元的价值,这就是为什么你应该期待听到越来越多关于人工智能的说法。
随着人们越来越习惯一个与人工智能交织在一起的世界,新术语层出不穷。所以,无论你是想与常人不同,还是在求职面试中给人留下深刻印象,这里有一些重要的人工智能术语你都应该知道。
通用人工智能(简称AGI):这个概念暗示了一种比我们今天所知的更高级的人工智能,它可以比人类更好地完成任务,同时还能教授和提升自身的能力。
人工智能伦理:旨在防止人工智能伤害人类的原则,通过确定人工智能系统应该如何收集数据或处理偏见来实现。
人工智能安全:这是一个跨学科领域,关注人工智能的长期影响,以及它如何突然发展成对人类有敌意的超级智能。
算法:允许计算机程序以特定方式学习和分析数据的一系列指令,例如识别模式,然后从中学习并自行完成任务。
调整:调整AI以更好地产生预期结果。这可以指从调节内容到与人类保持积极互动的任何事情。
拟人化:人类倾向于赋予非人类物体类似人类的特征。在人工智能中,这可能包括相信聊天机器人比实际更像人类,更有意识,比如相信它是快乐的、悲伤的,甚至是有感情的。
人工智能(简称AI):利用技术在计算机程序或机器人中模拟人类智能。计算机科学的一个领域,旨在建立能够执行人类任务的系统。
偏差:对于大型语言模型,由训练数据引起的错误。这可能会导致基于刻板印象错误地将某些特征归因于某些种族或群体。
聊天机器人:通过模拟人类语言的文本与人类交流的程序。
ChatGPT: OpenAI开发的AI聊天机器人,使用大型语言模型技术。
认知计算:人工智能的另一个术语。
数据增强:混合现有数据或添加更多样化的数据集来训练人工智能。
深度学习:人工智能的一种方法,也是机器学习的一个子领域,它使用多个参数来识别图像、声音和文本中的复杂模式。这个过程受到人类大脑的启发,并使用人工神经网络来创建模式。
扩散:一种机器学习的方法,它采用现有的数据,如照片。扩散模型训练它们的网络来重新设计或恢复照片。
紧急行为:当AI模型表现出意外能力时。
端到端学习,或E2E:一种深度学习过程,其中指示模型从头到尾执行任务。它没有被训练成按顺序完成任务,而是从输入中学习并一次解决所有任务。
伦理考虑:意识到人工智能的伦理影响以及与隐私、数据使用、滥用和其他安全相关的问题。
生成对抗网络(GAN):由两个神经网络组成的生成AI模型,用于生成新数据:生成器和鉴别器。生成器创建新内容,鉴别器检查它是否真实。
生成式人工智能:一种使用人工智能创建文本、视频、计算机代码或图像的内容生成技术。人工智能被输入大量的训练数据,找到模式来产生自己的新反应,这些反应有时可能与原始材料相似。
Google Bard:谷歌的人工智能聊天机器人,功能类似于ChatGPT,但从当前网络中提取信息,而ChatGPT在2021年之前仅限于数据,并且不连接到互联网。
护栏:对人工智能模型施加的政策和限制,以确保数据得到负责任的处理,并且模型不会产生令人不安的内容。
幻觉:AI的错误反应。可以包括生成式人工智能,生成不正确的答案,但自信地说,好像是正确的。其原因尚不完全清楚。例如,当你问一个人工智能聊天机器人:“达芬奇是什么时候画的《蒙娜丽莎》?”它可能会给出一个错误的回答:“达芬奇是在1815年画的《蒙娜丽莎》”,而这幅画实际上已经画了300年了。
大型语言模型(简称LLM):一种人工智能模型,通过大量文本数据进行训练,以理解语言并生成类似人类语言的新内容。
机器学习(ML):人工智能的一个组成部分,它允许计算机在没有明确编程的情况下学习并做出更好的预测结果。可以与训练集结合以生成新的内容。
微软必应:微软的一个搜索引擎,现在可以使用支持ChatGPT的技术来提供人工智能搜索结果。它与Google Bard连接到互联网类似。
多模式人工智能:一种可以处理多种输入的人工智能,包括文本、图像、视频和语音。
自然语言处理:人工智能的一个分支,它使用机器学习和深度学习来赋予计算机理解人类语言的能力,通常使用学习算法、统计模型和语言规则。
神经网络:一种类似人类大脑结构的计算模型,旨在识别数据中的模式。由相互连接的节点或神经元组成,可以识别模式并随着时间的推移而学习。
过拟合:机器学习中的错误,它与训练数据过于接近,可能只能识别所述数据中的特定示例,而不能识别新数据。
参数:赋予llm结构和行为的数值,使其能够进行预测。
提示链接:人工智能使用先前交互的信息来为未来的响应着色的能力。
随机鹦鹉:一个法学硕士的类比,说明软件对语言背后的意义或周围的世界理解并不充分,不管输出听起来多么令人信服。这个短语指的是鹦鹉如何在不理解人类话语背后的含义的情况下模仿人类话语。
风格转移:将一幅图像的风格与另一幅图像的内容相适应的能力,允许AI解释一幅图像的视觉属性并将其用于另一幅图像。比如伦勃朗的自画像,用毕加索的风格重新创作。
温度:设置用于控制语言模型输出的随机程度的参数。更高的温度意味着模型承担更大的风险。
文本到图像的生成:基于文本描述创建图像。
训练数据:用于帮助人工智能模型学习的数据集,包括文本、图像、代码或数据。
Transformer模型:一种神经网络架构和深度学习模型,通过跟踪数据中的关系(如句子或图像的一部分)来学习上下文。所以,它不是一次一个词地分析一个句子,而是可以看整个句子并理解上下文。
图灵测试:以著名数学家和计算机科学家艾伦·图灵的名字命名,它测试机器像人类一样行为的能力。如果一个人不能区分机器的反应和另一个人的反应,那么机器就通过了。
弱AI,又名狭义AI:专注于特定任务并且不能学习超出其技能集的AI。今天的大多数人工智能都是弱人工智能。
零学习:在没有得到必要训练数据的情况下,模型必须完成任务的一种测试。一个例子是在只接受老虎训练的情况下识别狮子。