Skip to Main Content 跳至主要内容

 

           


GenAI 生成式人工智能: 概览

Guide for Generative AI, AI Literacy

生成式人工智能指南 GenAI Guide

2022年11月,OpenAI发布了全新对话式AI模型ChatGPT,它不仅能进行自然的多轮对话、高效的精准问答,还能提示词生成文本、编程代码、邮件等内容。此后,以ChatGPT为代表的生成式人工智能(Generative AI或GenAI)作为一种新兴技术,逐渐渗透到各个领域,包括文学创作、新闻报道、教育培训、艺术设计等。生成式人工智能对教育与研究产生了深远影响,包括新的风险和挑战,如人工智能使用的规范与伦理、数据安全与隐私、AI幻觉、版权、透明与责任、公平与偏见、歧视等问题。

图书馆有责任帮助用户提升AI素养,更好地理解人工智能的概念与原理、应用与规范以及意识到潜在的风险与伦理问题,并引导他们科学合理使用这一技术。本指南旨在为生成式人工智能辅助学习和科研提供规范指引,培养负责任的人工智能使用者,同时关注人工智能对商科教育所带来的变革。

EDUCAUSE, AI Literacy in Teaching and Learning: A Durable Framework for Higher Education, 2024.

什么是生成式人工智能 What is GenAI

生成式人工智能(Generative AI或GenAI)是一种利用机器学习模型来生成新数据实例的人工智能技术。这些新生成的数据实例在统计特性上与训练数据相似,但生成的内容具有创造性。生成式AI的核心思想是利用人工智能算法生成具有一定创意和质量的内容,通过训练模型和大量数据的学习,可以根据输入的指令生成与之相关的内容,例如文章、图像、音频、视频、代码等。

生成式AI的应用领域非常广泛,包括但不限于:

  1. 文本生成:生成连贯、相关性强的文本,从简短的推文到长篇文章。
  2. 图像和视频生成:创建逼真的图像或原创艺术作品,并执行风格转换等任务。
  3. 音频和音乐生成:合成听起来自然的语音和音频内容,以及生成原创音乐。
  4. 软件代码生成:生成原始代码、自动完成代码片段、翻译编程语言、自然语言编程和总结代码。
  5. 设计和艺术:生成独特的艺术和设计作品或协助进行设计。
  6. 模拟和合成数据:生成合成数据或基于真实数据的合成结构,如在药物发现中生成分子结构。

生成式AI面临的挑战包括计算资源需求高、数据依赖以及解释性差。尽管如此,生成式AI在各个领域取得了显著的成功,并将继续推动人工智能的发展。

注:内容由Kimi生成,请解释生成式人工智能,Moonshot AI,2024-12-16,https://kimi.moonshot.cn/ 

生成式人工智能技术发展 GenAI Technology

在 DeepLearning.AI 的“面向所有人的生成式 AI”课程的讲座中Andrew Ng 详细解释力生成式 AI 的工作原理

How Generative AI Works?

生成式人工智能发展的三大核心要素包括算力、算法、数据:

  • 算力(Computational Power)
    • 算力是生成式AI发展的重要基础,随着GPU和TPU等专用硬件的发展,计算能力得以提升,复杂的深度学习模型得以训练和运行。
  • 算法(Algorithms)
    • 算法的突破是生成式AI进步的关键。包括生成对抗网络(GANs)、变分自编码器(VAEs)、自回归模型、Transformer模型等在内的多种算法,共同推动了生成式AI在图像、文本、音频等多个领域的应用。
  • 数据(Data)
    • 数据是生成式AI的燃料。高质量的数据集对于训练强大的生成模型至关重要。数据的规模、多样性和标注质量直接影响模型的性能和泛化能力。

生成式人工智能发展的关键技术:

  • 生成对抗网络(Generative Adversarial Networks, GANs)

    • GANs由一个生成器和一个判别器组成,生成器生成新的数据实例,判别器评估这些实例与真实数据的相似度。两者相互竞争,生成器不断学习如何生成更真实的数据,而判别器则学习如何更准确地区分真实数据和生成数据。
  • 变分自编码器(Variational Autoencoders, VAEs)

    • VAEs对该潜在空间的连续、概率表示进行编码,使用变分推理生成类似于原始输入数据的新数据样本。它们通常用于生成连续数据,如图像和音频。
  • 自回归模型(Autoregressive Models)

    • 通过预测数据的下一个元素来生成数据,通常用于序列数据,如文本或时间序列。
  • Transformer模型

    • Transformer模型,尤其是BERT及其衍生模型,通过自注意力机制处理序列数据,广泛应用于文本生成和其他NLP任务。
  • 扩散模型(Diffusion Models)

    • 扩散模型通过逐步去除噪声来生成数据,这种方法在图像和音频生成中显示出了强大的性能。
  • 强化学习(Reinforcement Learning, RL)

    • 在某些生成任务中,强化学习可以用来训练生成模型,通过奖励和惩罚机制来引导生成过程,以达到特定的目标。

注:内容由Kimi生成,生成式人工智能涉及哪些关键技术,Moonshot AI,2024-12-16,https://kimi.moonshot.cn/ 

CSDN 大语言模型发展时间线及相关应用