《权力的游戏》第八季崩盘,在一片“烂尾结局”的评价声中落下

作者 |钦坦特里维迪

翻译 |刘畅,主编 |简

前言

权力的游戏结局很糟糕?

《权力的游戏》第八季落下帷幕,以“未完结”收官。在采访身边众多剧迷时,一位同事只给出了一个评价:“书是好书”。

近日,Medium平台上的一位作家也在国外分享了自己的感受:

《权力的游戏》第 8 季故事情节仓促而不尽人意的结局令包括作者在内的数百万粉丝失望。大多数人都呼吁重写该剧的最后一季,而其他人则为了自己的舒适想出了自己的结局版本。每个人都在等待 GRRM 完成他的书,希望他能塑造一个更不可思议的角色,但可能需要很多年。

作为一个技术人,任何问题都忍不住想:技术能做到吗?

如果AI学习了GRRM的写作风格,然后写一个结局呢?

人工智能可以写得更好吗?

然后,作者用年初OpenAI提出的GPT-2文本生成模型实践了一波。模型借鉴原作《冰与火之歌》,输出三个反派(夜王、瑟曦·兰尼斯特和丹妮莉丝·坦格利安)的结局。

在接下来的内容中,我们将简要介绍GPT-2。详细介绍请参考我们之前推送给大家的文章。然后,我们将介绍作者训练模型的方法。最后,我们将对模型生成的结果进行总结和反思。文章不涉及非常详细的技术细节,但帮助大家掌握方法的整体理解。不管是增加数据集还是根据自己的需要调整,思路都可以参考,技术细节就不详细解释了。

GPT-2(生成预训练迁移模型)

在现有的AI语言模型中,GPT-2是一种达到SOTA效果的文本生成模型。他可以生成类似于人类语言的连贯句子,并且可以长时间专注于一个主题。与其他语言模型相比,GPT-2 的两大改进是:

海量数据:研究人员抓取了 800 万个网页,并生成了 40GB 的文本语料库用于无监督训练。它涵盖了广泛的主题,这就是为什么预训练模型非常适合转移到特定领域,例如我们这次使用的原始 GoT。

计算量大:Transformer 模型结构中使用了 15 亿个参数。但是,出于安全原因,他们发布了一个较小的版本,只有 3.45 亿个参数。这次模型也使用了这个版本。

迁移模型

GPT-2 使用 Transformer 网络架构代替传统模型 RNN、LSTM 等网络进行序列建模。不同之处在于 Transformer 使用基于注意力的解码器/编码器,而不是具有“记忆”门和时间步长的循环单元。

编码器使用字节对和位置嵌入来处理输入,这些嵌入描述了输入句子中的“嵌入词”和“嵌入位置”。相同的编码器将字节和位置嵌入转换为向量编码,然后将其馈入解码器,该解码器的任务是将编码转换为目标文本序列。该输出和上一步的编码被馈送到下一个编码-解码步骤,并重复多次以产生更好的文本序列。

下面链接的文章详细解释了模型架构:

并且可以训练 GPT-2 来预测给定输入句子中的下一个单词。如果模型能够合理准确地预测下一个词,那么模型可能有能力理解输入词的上下文含义。在不理解文本的情况下,语言模型只能预测符合语法规则的单词,生成的文本可能不符合语义规则。与机器翻译任务中的 seq2seq 模型不同,GPT-2 仅使用预训练模型 Transformer 中的解码器来生成后续文本,在文本生成过程中不需要编码器。

训练模型

数据:作者摘自《冰与火之歌》的 5 本书,结合文本数据进行训练。

模型:预训练的 GPT-2 模型包含 345M 参数。

时间:模型在 Google Colab 的 K80 GPU 上训练了大约 12 小时。

在训练过程中,笔者无意中发现预训练的模型非常擅长写《权力的游戏》的人物特征,这可能与在初始训练期间接触过这些内容有关。为了让模型写出的内容更符合GRRM的风格,我们需要继续利用GoT数据集。

结果与分析

首先,在原剧的结尾,找到一些令人失望的情节,然后尝试用训练好的GPT-2模型生成结果。具体效果可以看下面的视频介绍,后面我们会做一些文字输出。部分介绍。

下面是视频格式的输出,后面是同样的文字输出。

我们来分析三个选定的场景

失望一幕:改写夜王虎头蛇尾的结局

根据GPT-2,阿多还活着,已经来营救布兰,这是一个转折点!或者,也许阿多的灵魂进入了布兰的身体。但是之后就不知道模型想说什么了。

Lightbringer 是杀死夜王的剑。如果夜王的冰剑原来是光明使者,最终会杀死他,那该有多酷? !

即使作者忘记了,GPT-2 仍记得有关亚梭尔亚海的预言,并且围绕光明使者做了很多工作。

这里有一些有趣的东西,不是因为故事写得很好,而是因为模型实际上知道龙实际上是“其他”(书中的异鬼)。将所有这些细节都放在一个段落中真是太棒了。令人惊讶的是,模型已经知道关于角色的所有这些细节!

失望场景 2:瑟曦·兰尼斯特在没有任何计划或适当战斗的情况下坠落

好吧,这个生成的脚本完全是垃圾。但作者留着,又试了一次!

这次稍微好一点!虽然模型输出的一些细节是错误的,尤其是关于疯王,但“詹姆在那一刻试图赋予瑟曦权力的想法”还是不错的。也许此时使用某种狂野的方法会给她的故事情节带来一些正义。两个疯狂的女王,激烈战斗,摧毁了城市的其余部分。这也是一个更好的结局来说明为什么铁王座的战争是糟糕的。

失望场景 3:丹妮莉丝的大结局

总是吃喝玩乐的好时机?听说君临有一家不错的咖啡店,丹妮可以试试(如果还没有烧掉的话)

这真是垃圾,让我们再试一次。

这一段也没有多大意义。两次下来,模型似乎坚持认为丹妮想要将君临的人民从暴君手中解放出来。

总结

尽管尝试为这些故事情节生成更多样本,但在故事的背景下没有关联解码输出,它们都没有意义。虽然生成的故事文本不够好,但可以看出模型清晰地描述了人物特征和技能。 ,它们之间的关系也反映在模型输出中。此外没有关联解码输出,作者认为OpenAI提出的GPT-2研究工作也反映了NLP领域近期的一些进展。

同时,我们和作者一样,对最大的 GPT-2 模型的训练结果感到好奇?毕竟模型训练数据不是很充足。有兴趣的朋友可以把原书的所有文本数据加到最大的GPT-2模型训练中,看看有没有更多惊喜或惊喜?

不管是编剧的结局还是AI改写的结局,其实大家心目中的完美结局还是要等GRRM尽快完成他的书。

【结束】

6月29-30日,2019以太坊技术与应用大会特邀以太坊创始人Buterin Butler、以太坊基金会核心成员、国内外知名专家齐聚北京,聚焦前沿技术把握时代机遇。深耕行业应用,探讨以太坊新生态2.0。扫码享受优惠门票!

© 版权声明
THE END
喜欢就支持一下吧
点赞0
分享
评论 抢沙发

请登录后发表评论