教育

当前位置/ 首页/ 教育/ 正文

为了在AI世界中取得成功学生必须学习写作的人性特质

导读 澳大利亚各地的学生已经开始使用铅笔,钢笔和键盘学习书写的新学年。在工作场所中,机器也在学习书写,因此非常有效,以至于在几年之内它们

澳大利亚各地的学生已经开始使用铅笔,钢笔和键盘学习书写的新学年。在工作场所中,机器也在学习书写,因此非常有效,以至于在几年之内它们可能会比人类写得更好。

有时他们已经这样做了,例如Grammarly等应用程序就演示了这一点。当然,人类现在所做的许多日常写作都可能很快由具有人工智能(AI)的机器完成。

电话和电子邮件软件通常使用的预测文本是AI写作的一种形式,无数人每天都在使用。

根据行业研究机构Gartner的数据,到2022年,人工智能和相关技术将使互联网上所有内容的30%自动化。

人工智能已经在编写一些散文,诗歌,报告,新闻通讯,见解文章,评论,标语和脚本。

扫盲越来越多地意味着并包括与AI互动并对其进行批判性评估。

这意味着我们的孩子不应再被教导仅是公式写作。相反,写作教育应包含超越人工智能能力的技能。

回到基础,还是远离基础?

在2019年的PISA结果(国际学生评估计划)显示澳大利亚学生的算术和识字能力向后滑后,教育部长Dan Tehan呼吁学校恢复基础知识。但是计算机已经掌握了基础知识。

新南威尔士州教师联合会,新南威尔士州教育标准局以及新南威尔士州,昆士兰州,维多利亚州和ACT政府的三份主要报告批评学校写作已成为惯例,以服务于NAPLAN(国家评估计划-扫盲和算术)。

在一些学校中,学生用规定的顺序,规定的编号和段落排列来写出具有特定功能的句子。然后可以用计算机标记这些内容以演示进度。

模板编写正是机器人编写者可以执行的标准化实践。

人类,你还害怕吗?

在2019年,《纽约客》杂志进行了一项实验,以查看IT公司OpenAI的自然语言生成器GPT-2是否可以按照该杂志的独特风格撰写整篇文章。这种尝试的成功有限,生成器产生许多错误。

但是到2020年,该机器的新版本GPT-3接受了更多数据的培训,并为《卫报》撰写了一篇文章,标题为“机器人写了整篇文章。您还怕人吗?”

随着由埃隆·马斯克(Elon Musk)资助的OpenAI在研发方面的投入越来越多,这台经过改进的最新发电机将对新闻业的未来产生影响。

机器人有声音但没有灵魂

回到学校后,老师会受到压力,要求他们在狭义的写作测试中教写作以提高学生的学习水平。

但是,取而代之的是,人类过时或“技术失业”的前景需要根据人类正在学习的AI不能做到的-特别是在创造力和同情心上,推动紧迫的课程开发。

据说AI写作有声音但没有灵魂。正如《纽约客》的约翰·西布鲁克(John Seabrook)所说,人类作家通过“屈从规则,赋予写作以色彩,个性和情感”。因此,学生需要学习规则并受到鼓励打破规则。

(与机器一起)创造力和共同创造力应得到培养。在有限数量的数据上训练机器,以预测和复制数据,而不是以有意义和故意的方式进行创新。

有目的的写作

AI尚无法规划,也没有目标。学生需要磨练有目的的写作技巧,以实现他们的沟通目标。

不幸的是,NAPLAN制度阻碍了教学写作,因为这涉及计划和编辑。这是因为它偏爱没有时间限制的考试形式的写作。

学生需要练习写作时所用的资源,他们关心的内容以及希望对世界以及真正的知名读者产生影响的写作方式。这是机器无法做到的。

人工智能还没有人脑那么复杂。人类会发现幽默和讽刺。他们知道单词可能具有多种和微妙的含义。人类具有感知力和洞察力;他们可以对写作的好坏做出高级评估判断。

人们呼吁人类成为复杂的写作形式以及由机器人创造的编辑写作方面的专家,这些技能是未来必不可少的技能。

机器人没有道德

AI也没有道德上的指南针。不在乎。OpenAI的经理最初拒绝发布GPT-3,表面上是因为他们担心生成器被用来制作假材料,例如对产品的评论或与选举相关的评论。

就像微软种族主义的Twitter原型Tay一样,AI写作机器人没有良心,可能需要被人类淘汰。

对AI产生的内容进行批判,富有同情心和细微差别的评估,内容的管理和监视以及对读者的决策和同情都是民主未来的“写作”角色的一部分。

未来技能

早在2011年,未来研究院就确定了社会智能(“与他人直接深入交流的能力”),新颖且具有适应性的思维,跨文化能力,跨学科性,虚拟协作和设计思维是必不可少的未来劳动力的技能。

2017年,澳大利亚青年基金会的一份报告发现,复杂的解决问题的技能,判断力,创造力和社交智慧对学生的未来至关重要。

这与模仿不相关的语法术语(例如“从句”和“名词化”),能够拼写“ quixotic”和“ aculescent”(我的女儿最近在小学里由死记硬背学到的单词)或写公式形成鲜明的对比。

写作的教学和评估需要赶上现实世界。