随着2025年1月20日Deepseek-R1的发布并同步开源,越来越多的个人用户和机构用户接入AI大模型,体验更智慧、会“深度思考”的AI。Deepseek的开源在一定程度上改善了算法黑箱问题的可解释性与透明性,推理能力和深度学习能力的提升也提高了AI生成内容的质量。
然而,技术的发展也带来了一些新问题。比如,隐私保护和数据合规的风险增加了,这意味着我们的个人信息可能更容易被泄露。另外,AI生成的内容可能会出现错误或误导性信息,这被称为“AI幻觉”。还有,AI造假也越来越普遍,比如虚假的新闻、图片或视频,这些都可能误导我们。这些问题都对监管和用户素养提出了新的挑战。
AI的应用面临哪些风险?我们如何合理的使用AI?本指南梳理了当前普通用户使用AI面临的主要风险与挑战:学术不端、隐私与数据安全、AI 幻觉与深度伪造、版权问题、算法偏见与歧视。希望通过这些内容,让大家在享受AI带来的便利的同时,保持理性和批判性思维。
学术诚信的维护受到挑战
AI时代,学术不端的主要表现
隐私泄露,数据安全风险升级
1. 技术变革导致数据来源、数据处理、数据存储和传输环节变得更复杂,增加了数据安全风险。
2. 用户因缺乏信息安全与隐私保护意识,主动输入隐私、敏感、机密等信息,导致信息泄露。
AI幻觉与深度伪造,真假虚实难辨
AI幻觉(AI Hallucinations):生成式人工智能模型在生成文本或回答问题时,尽管表面上呈现出逻辑性和语法正确的形式,但其输出内容可能包含完全虚构、不准确或与事实不符的信息。由于AI基于概率预测机制生成内容,训练用的数据存在错误或样本缺失,以及过度推理或过度关联所导致。
深度伪造(Deepfake):这个词由”深度学习"(deep learning)和"假冒"(fake)合成,最初是指借助人工神经网络(机器学习的一个分支)生成的看起来真实的内容。如今泛指借助人工智能,制作令人信服的假图像、视频和音频的技术和现象。
自以ChatGPT为代表的生成式AI工具发布以来,滥用AI的现象层出不穷,网络上AI生成内容真假难辨,有关调查数据显示,2023年以来基于AI的深度伪造、欺诈、钓鱼邮件、AI谣言均呈暴增态势。
从用户角度来说,一方面需提高信息辨识能力,谨防上当受骗,另一方面提升AI使用的责任意识,合理使用AI工具,并对于AI生成内容进行标注。
ChatGPT以其知识的深度和回应的流畅度震惊了世界,但一个问题限制了它的实用性:它一直在产生幻觉。
分析了在使用ChatGPT撰写关于罕见医疗状况的学术期刊文章时,AI幻觉的影响。
Deep learning for deepfakes creation and detection: A survey
一方面用于模型训练的语料应获得版权所有者的授权,另一方面,使用AI生成内容的前提是已获得授权,在版权责任不明晰的情况下,避免直接使用,尤其是商业使用。
算法偏见和歧视引发不公平现象出现
在AI系统中,由于训练数据中存在的社会偏见、不平等或者不公平,以及数据样本不平衡等,导致模型在做出决策时反映了这些偏见。具体表现:性别和种族歧视,年龄歧视、社会经济地位歧视等。目前引起广泛关注的是AI招聘中可能存在的性别歧视。
在训练数据样本选择、算法设计、模型生成和优化、使用过程中,应仔细评估和审查潜在的偏差来源,监测和审查可能的不公平现象,建立反馈机制,及时纠偏。
优选工具,安全第一
小心提问,大胆求证
尊重版权,规范引用
批判思索,耐心调教