“无论AI在出版行业的未来占据什么样的地位,这个未来都需要有能力的写作者来持续输出。”
数字编辑与记者:SAMUEL SHEPHERD,探讨了人类作家如何在以AI人工智能为核心的世界中继续发展。
过去几年,对于商业领域的创意工作者来说相当具有挑战性。
随着新技术的创新发展以及公司运营方式的改变,许多曾被认为不可替代的职业面临着未来的不确定性。从不久前美国编剧协会发起的罢工事件就能看出,他们重点强调了AI的使用可能会对部分行业及其专业人士产生负面影响,这场瞩目的斗争引起了社会的广泛关注并产生了大量内容报道。
尽管前景看似惨淡,专业设计领域却并没有被Midjourney等AI工具完全接管,而专业出版物也并非由大规模学习模型完全生成。实际上,虽然人工智能的影响依然存在,但最初人们对AI的那种乐观情绪在近几年已显著减弱。即时现阶段这些工具被大多企业和创意人士广泛使用,但离它们成为创意领域领导者似乎还有很长的路要走。
那么,这是为什么呢?对于这些AI工具,最初的兴奋感和迷恋度为何没能实现它们成为创作工具的首选呢?作为一名在数字领域拥有十多年经验的文字编辑和文案撰写者,我希望深入探讨一下写作作为一种追求创意的力量,以及人工智能在复制这种影响力方面的局限性。
人工智能不等于人类
每一次重大技术的进步都会伴随着对其利弊的讨论。虽然这个话题已经被讨论过无数次,但人们对新技术的担忧与当年14世纪40年代印刷机诞生时的争论如出一辙。在过去的100年间,我们见证了许多彻底改变某些行业认知的创新,但对每一项颠覆性创造,人们总是会发出同样的感叹:
“这项技术将改变一切!”
而这种说法对任何技术而言,都是一个沉重的负担。尽管从某些角度来看,这种期望在机器学习领域有一定的技术依据,但实际上比我们目前观察到的趋势要夸张得多。当我们思考人类的行为模式,以及技术如何优化和改变这些行为时,我们常常会忘记其实最终的目的并未发生改变。
正如ScienceDaily最近的一篇文章提到的,有关AI故事撰写效果的研究表明,即使是盲测,人们也更偏爱人类写作的内容;当得知某作品是由AI创作时,即使内容并非如此,人们也会给出更低的评价。这表明,AI不仅无法像人类作家一样创作出引人入胜的作品,人们也不喜欢由机器数据库堆积的想法。
这并不令人意外,这篇文章告诉了我们,人们为何喜欢阅读叙事作品和倾听故事的原因,无论是小说家还是数字领域的自由撰稿人,都是如此。撰写故事是一种深层次的人类活动,是人与人之间建立联系的一种方式。尽管经过训练的AI学习模型可以在编辑者的输入和监督下模仿出令人钦佩的成果,但它们只能基于现有作品创作内容。如果AI学习模型没有初始的经验积累,就无法以传统意义上的方式进行“思考”。它只能像拼图一样,根据现有的部件进行排列组合来拼凑信息。
这也引出了AI在完全替代人类作者时将面临的另一个问题。
AI并非真正意义上的“智能”
在《The New Yorker》上,一篇题为《没有所谓的AI》的文章里面,计算机科学家Jaron Lanier对此有精准的总结:
“越早意识到‘人工智能’并不存在,我们就能越明智地管理这些新技术。”
话糙理不糙。“AI并不是真正的AI”这一表述对于讨论这些模型的功能发展方式具有重要意义。AI学习模型,本质上是模式和特征识别的软件,运行在特定任务或框架内。这个特点并不是系统的“缺陷”,而是它本身的局限性。作为一项令人难以置信的创新,AI经常被神化,这对它真正的实用性是一种伤害。
而人类写作者是具有智慧和独立思考能力的个体,能够完成许多事情。一位优秀的写作者并非只是基于现有的作品理解一个主题,而是能够将自己的独到的经验、独特的想法以及细微的情感融入作品中,这些都是无法被模仿的。这也是为什么即使是使用ChatGPT写作,也会常常被批评内容缺乏个性化的原因,因为它根本无法拥有超出程序设定训练范围的“个性”,而这种系统注定会存在局限性。
AI会骗人,但不是人类那一套
在AI写作领域,一个长期存在的主要问题是人工智能在收集和整理数据方面的特点。具体来说,像ChatGPT这样的AI系统本质上是“黑盒子”系统,而黑盒子是一种无法破解的系统。如果一篇AI生成的文章对某个事件或观点做出了陈述,但没有提供来源,那么我们通常很难判断它的说法是否有依据以及为什么生成了这样的内容。即使列出了来源或引用,AI在“填补空缺”时容易出现“编造”的倾向,这意味着你无法简单就可以确认列表内的引用是真实存在的,包括内容是不是与AI输出的说法相符合。
这在一定程度上与语言模型如何理解结构有关。当一个学习模型被输入了成千上万篇科学期刊,并被要求用相同的风格撰写关于某个主题的报告,它的模式识别能力可能会捕捉到某些要素,但未必理解这些要素为什么要以这样的方式来使用。一般来说,一个学习模型检测到某类陈述后通常会跟着人物姓名、机构名称和日期,那为什么它不直接“添加”这些信息呢?哪怕这些信息本来就不存在?
这一问题在人类写作的许多领域中也存在,尤其是在学术领域,引用来源常常未经验证就被使用。然而,对于人类作者来说,错误通常只是判断失误,通常容易被发现并纠正;而对于AI模型,通常需要领域内的专家来判定其说法是否可靠。因此,尽管人类作者可以灵活地处理信息,理解其来源并创作出有条理的作品,但在这一点上,AI仍然存在显著的困难。
这种问题在人类写作的许多领域也存在,尤其是在学术界,经常会出现引用了文献,但实际上却并没有阅读或验证其相关性的情况。然而,对于人类作者来说,出现错误通常属于判断上的失误,可以轻松找到原因并改正;而对于学习模型来说,往往需要该领域的专家来判断内容的可靠性。人类作者可以灵活应变,在理解信息来源及其出处的基础上编织出完整的作品,但AI不行,人工智能至今仍在撰写故事的领域挣扎。
举个例子,我曾向ChatGPT询问关于“Kanon Trading Card Game”的信息,这是一个较为冷门的日本卡牌游戏,而关于它的唯一可靠资源是在大约两年前由我撰写的。以下是它的回答截图:
它提供的信息过于宽泛,无法提供任何具体信息。于是,我问它是从哪里得到这些信息的:
尽管这是个非常冷门的主题,但在这个互动中有趣的地方并不是它无法提供资源,而是它在数据库中完全没有相关信息的情况下依然给出了答案。它将1999年的电子游戏《Kanon》和它掌握的数据中关于集换式卡牌游戏的信息混合在了一起。这对于数据收集来说是一个大问题,因为像这样的语言模型无论是否拥有准确的相关信息,都会生成一个自动程式跑完之后的答案。
甚至在询问我作为作者的情况时,它也能为我提供一份游戏和亚文化领域作家的传记:
这实在是令人印象深刻。我们的语言模型已经变得如此善于将信息整合在一起。但如果人类作家做了这样的事情,你不会对他们生气,而是会为他们担心。因此,面对大量人工智能生成的内容,我们不禁要问,到底有多少内容是可以被验证的?更令人担忧的是,早在 2023 年,人工智能就已经开始 “自食其果 ”了,那么究竟有多少是AI自己凭空捏造出的半真半假的内容?
展望未来
我们永远无法真正预知未来会带来什么,尤其是对于像AI和机器学习这样的新兴技术。然而,当我们审视当下时,至少可以看清我们所走的道路。对于写作者来说,这条路仍然证明了他们在商业生态系统中是宝贵且不可或缺的一部分。然而,这并没有阻止企业尝试用这些新技术取代他们,无论AI技术是否真正成熟,现在仍是一个剧烈动荡的时期。
如果你正在阅读这篇由真实的写作者和编辑运营的新闻文章,那么我想你已经明白了人类创作内容的重要性。因此,无论AI在出版行业的未来中占据什么样的位置,我可以确定,这个未来依然需要有能力的写作者去继续做他们一直以来最擅长的事情。