全国大学生共同上一堂疫情防控思政大课让直播平台陷入瘫痪

同一个中国,同一个网课。

3月9日,来自全国各地的大学生共同参加了一场可能是国内规模最大的疫情防控思政课。

据统计,参加此次网课的学生人数高达4000万,大量涌入一度让直播平台陷入瘫痪。

辅导员看完网课后,还为上课的同学们留下了作业,并写了一篇点评,加深大家的印象。

你的观后写作怎么样?我向你推荐你的网站

全国大学生接同样的作业也非常少见,年轻人打招呼的方式也变成了:“你写完review了吗?”

可能是因为家里疫情的关系,大家太久没写东西了,突然写的有点难受。这时,一个网站出现在了所有人的视野中。该网站的界面非常简单。左上角是标题。“查看生成器后的防疫课堂”十个大字表示网站的功能。中间,“给我整篇文章。” “按钮的作用也很直接。

按下一个按钮,一个五六百字的,好看的后视图就诞生了!

文章后面还附有截图。用过的大学生都说“这个水平我自己能写”、“我喜欢”。

5天之内,这个帖子查看生成器共帮助了507,338名学生,产生了1,868,839个帖子查看,获得了超过1000元的奖励。作者将所有的奖励都捐给了韩红爱。慈善组织。

后见之明的前世今生

为了进一步了解这个神奇的网站,我们联系了该网站的作者,江南大学的一名大四学生。

Q:为什么要做这个网站?

A:程序员,只想做一些有用的工具。

到了面试的时候,你大概就知道了,这明明是一个真正只关注技术的“程序员”!它的思维方式也非常符合程序员的解决问题的方法:出现问题-编写程序-解决问题-分享。

至于这个网站是如何实现自动生成后记功能的,作者也表示方法很“简单粗暴”,找了几十篇文章来分解正文的开头和结尾,而且是随机做的每次结合。

近日,不少大学生纷纷表示在家太无聊,大喊“我要开学了!” 在微博上。

但是,抗疫刚刚打赢,境外输入病例依然存在。如果你不小心,你可能会重复同样的错误。因此,现在不是开学的好时机。本次防疫课不仅是面向全国大学生的防疫教育找人代写算法程序,也是面向大学生的防疫教育。能够进一步了解当前的严峻形势。

从胡织生成器到胡评论大赛,胡锡进本人参与

这位同学并不是第一个使用技术手段生成程式化文本的人。最近,除了事后生成器之外,GitHub上还有一个“虎斑生成器”项目也火了起来找人代写算法程序,这也是继“赵丹玛奇”之后恶搞语言应用的新成员。

顾名思义,虎变生成器就是以环球时报总编胡锡进微博为语料库和原始数据的模型。首先我们来看看效果:

熟悉胡锡进微博风格的人,一眼就能看出,生成器生成的文章已经不能再像胡锡进本人了,从原来的语料库变成了流畅的文章,这也得益于胡锡进坚持在微博。.

GitHub 引导方式:

早在湖边发电机之前,就有网友总结了胡锡进的解说套路:用形式覆盖内容;消除意义;偷偷改变目标;批评稻草人;攫取信贷;模糊初级和次级;

胡的评论就是这样一种评论形式,遇到新事物,立即生成并发表评论,立即抢占舆论制高点,大获全胜。

如果还是看不懂胡评论的精髓,那只好拿出网友总结的评论格式模板:“最近网上出现了__________,老胡也看到了__________。我知道大家都是__________,老胡受不了了。就几句话,虽然__________部分确实存在__________,但是__________,最后老胡叫__________”

这两天湖边发电机被网友破解,这也让胡锡进本人感到震惊。他甚至在微博上举办了胡的评论比赛,玩得不亦乐乎。

看完胡锡进自己的《竞赛作文》,你给几分?

去年风靡一时的“坏文章生成器”

“虎编发电机”的创作者表示,“虎编发电机”的诞生是基于去年底风靡一时的“坏文发电机”。只要输入一个句子,系统就会生成一篇万字长文章的神器。

进入“防疫课后遗症”会出现什么样的文章,那么……

没有比较就没有伤害,真是“扯淡”。

不光出现了车轮话,Digest Bacteria也想知道“防疫课的善后如何实现”。

尝试再次输入这首非常洗脑的歌曲,看看会发生什么:

Emmmm,一遍又一遍是那些句型。神器作者也在GitHub上说,别当真,好玩!

那么,这篇文章生成器是一个什么样的算法呢?作者在项目中写道:

本人天赋和知识很少,不知道任何自然语言处理相关的算法,目前更喜欢简单有效的方法来达到目的,除非我们碰到天花板,暂时不会介绍任何神经网络等算法. 不过欢迎大家开分支实现更复杂更好的算法,但除非效果出众,我暂时不会集成。

看来作者确实有一个有趣的灵魂。

那么有没有更好的生成器,正如作者所说,可以避免长篇大论下的“废话”?这不得不提OpenAI开发的著名的文本生成模型GPT-2。

一年前,OpenAI 的新文本生成模型 GPT-2 引起了不小的轰动,在技术社区和社交网络上引起了广泛的讨论。

这是一个由 OpenAI 训练的大型无监督语言模型,能够生成连贯的文本段落,在许多语言建模基准上实现了最先进的性能。该模型无需特定任务训练即可进行初步阅读理解、机器翻译、问答和自动摘要。

由于这个文本生成器的性能非常好,OpenAI 担心它会导致滥用,因此决定不将其作为开源发布。

OpenAI 说,在 40 GB 的互联网文本样本和 15 亿个参数上进行训练,GPT-2 可以生成“适合上下文文本的风格和内容”的文本,允许用户“生成关于他们选择的主题的真实和连贯的文本”。句子。” GPT-2 在 Winograd Schema、LAMBADA 和其他语言建模任务上取得了领先地位。

OpenAI 终于发布了精简版的 TalkToTransformer 供大家使用,我们通过一个例子来看看这个文本生成模型有多强大。

例如,以特朗普为例,写一篇“洋葱新闻”。

进入我们的开场:“唐纳德特朗普今天宣布,他将永远关闭美国。特朗普在 twitch 上直播了他的竞选胜利,他……”

该模型给出的续篇写道:“……对媒体批评的猛烈攻击令美国人感到惊讶。他列举了超过 100 万张非法选票、操纵选举结果,甚至一名墨西哥裔美国法官对他的对手的阴谋论表示同情。当他走下舞台时,一群人高呼“把他关起来!” 和“特朗普!” 看着他离开。”

看来GPT-2的效果还是不错的。《防疫课堂的后期观察生成器》的作者也说过“不需要GPT-2”来生成post-view,但是相信大家都会好奇,如果GPT-2让我们写一篇文章《The Aftermath of the防疫教室”,结果如何?

© 版权声明
THE END
喜欢就支持一下吧
点赞0
分享
评论 抢沙发

请登录后发表评论