但儿子们在中学和日常生活中碰到的不仅仅是人工智能聊天机器人。人工智能越来越普及:在流媒体上向我们推荐节目,协助语音助手回答我们的问题,驱动社交媒体的内容过滤工具,以及提供解锁智能手机的新形式。
麻省理工大学院士、杰梅尔医院人工智能系院长瑞吉娜·巴兹雷(ReginaBarzilay)表示,虽然一些中学生总是比其他中学生对人工智能更感兴趣,但了解这种系统怎样工作的基本原理,正成为一种技术素质的基本方式,这是每位小学结业的人都应当晓得的。该医院近来为51名小学生召开了一个暑假项目,这种中学生对人工智能在医疗保健中的应用很感兴趣。
她说,应当鼓励小孩们对在我们生活中越来越普遍的系统倍感好奇。她补充道:“展望未来,假如只有上过学院、学习数据科学和计算机科学的人了解它的工作原理,就可能会产生巨大的差别。”
在新学年开始之际,以下是《麻省理工科技评论》关于怎么开始教育小孩哪些是人工智能的六条重要建议。
记住,人工智能不是你的同事
聊天机器人被创造下来的目的只有一个:聊天。ChatGPT在回答问题时所用的友好、对话式的语调会让中学生很容易忘掉她们是在与人工智能系统互动,而不是与值得信赖的好友互动。这可能会让人们更有可能相信这种聊天机器人所说的话,而不是对其所给出的回应持怀疑心态。
日本老多米尼克学院(OldDominionUniversity)专门研究教育数字创新的院士海伦·克伦普顿(HelenCrompton)表示,尽管聊天机器人特别擅于饰演一个似乎富于怜悯心的“人”,但它们只是在使用互联网上搜集的数据,并模仿人类说话的形式。
她说:“我们须要提醒小孩们,不要向ChatGPT这样的系统提供敏感的个人信息,由于这种信息就会步入一个小型数据库。”一旦你的数据出现在数据库中,就几乎不可能删去。它可能在未经你同意的情况下被拿来让科技公司赚更多的钱,甚至可能被黑客提取。
人工智能模型不是搜索引擎的代替品
小型语言模型的优劣取决于训练它们的数据。这意味着,虽然聊天机器人擅于用看似合理的文本自信地回答问题,但它们提供的信息并不都是正确或可靠的。
众所周知,人工智能语言模型也会将虚假信息作为事实来呈现。这也被称为“人工智能幻觉”。按照这种数据搜集的地方,它们可能会使偏见和潜在的有害刻板印象常年存在。中学生对待聊天机器人回复的心态,应当像对待在互联网上看到的任何类型的信息一样:保持批判性。
耶鲁学院教育研究生院副院长维克多·李(VictorLee)为小学课程创建了免费的人工智能资源,他说:“这些工具并不能代表所有人,它们告诉我们的是基于它们所接受的训练。不是每位人还会在互联网上活动,所以这种人不会被反映(代表)下来。在我们点击、分享或转发之前,中学生们应当停出来反省,对我们所见到的和相信的愈发挑剔,由于好多都可能是假的。”
美国康涅狄格哈勒姆学院生物科学教育院长大卫·史密斯(DavidSmith)表示,即使使用聊天机器人解决学业上的问题可能很迷人,但它们并不能替代微软或其他搜索引擎。他说,中学生们不应当认定小型语言模型所说的一切都是无可争议的事实,并补充道:“无论它给你哪些答案,你都必须复查一遍。”
老师可能会谴责你用了人工智能,但事实上你没有
如今,生成式人工智能早已广泛普及,班主任面临的最大挑战之一是确定中学生是否使用了人工智能完成作业。其实许多公司早已推出了承诺测量文本是由人类还是机器编撰的产品,但问题是,这种人工智能文本检查工具十分不可靠,并且很容易被蒙骗。有好多事例表明,班主任觉得一篇文章是由人工智能生成的ai遇到未知的图像结构,而事实并非这么。
李说,重要的第一步是,熟悉儿子所在中学的人工智能新政或人工智能披露流程(假如有的话),并提醒女儿遵循这种新政。克伦普顿说,假如你的儿子被误觉得在作业中使用人工智能,记得保持冷静。她补充道,不要害怕指责,寻问这个决定是怎样作出的。假如你须要证明你的儿子没有直接复制粘贴ChatGPT生成内容,要记得ChatGPT会默认保存个人用户的对话记录。
推荐系统致力让你上瘾,并可能向你展示糟糕的东西
英国爱丁堡学院计算机科学院长提姆·鲁斯(TeemuRoos)正在为美国分校开发人工智能课程,他说,理解并向儿子们解释推荐算法是怎样工作的很重要。科技公司通过人们在其平台上观看广告来挣钱。
这就是为何她们开发了强悍的人工智能算法来推荐内容,例如YouTube或TikTok上的视频,这样人们都会上瘾,并尽可能长时间地使用。算法会追踪人们观看的视频类型,之后推荐类似的视频。比如,你看的猫咪视频越多,算法就越有可能觉得你想看更多的猫咪视频。
鲁斯补充道,这种推荐服务常常会引导用户听到更多虚假信息等有害内容。这是由于人们倾向于逗留在奇怪或令人惊讶的内容上,例如关于健康的错误信息或极端政治意识形态,很容易深陷信息茧房,所以最好不要轻易相信在网上见到的一切。你也应当仔细检测其他可靠来源的信息。
安全、负责任地使用人工智能
生成式人工智能不仅仅局限于文本,有好多免费的深度伪造(deepfake)应用可以在几秒钟内将某人的脸安在他人的身体上。其实中学生可能早已知晓在网上分享私密相片的危险,但她们也应当同样提防将同学的脸上传到粗俗应用程序中,由于这可能涉嫌违规。诸如,有法庭曾认定,中学生发送关于其他中学生甚至自己的私密相片,是在传播儿童情色内容。
李说:“我们与小孩们就负责任的网路行为进行交流,既为了她们自己的安全,也为了不恐吓或逼迫别人,但我们也应当提醒她们自己的责任。如同恶劣的谣言传播一样,你可以想像当有人开始传播虚假图片时会发生哪些。”
李强调,这也有助于为儿童和中学生提供使用互联网的隐私风险或法律风险的具体事例,而不是企图与她们谈论整体却模糊的规则或指导方针。诸如,他说,与告诉她们“注意隐私”的普通警告相比,与她们讨论人工智能人脸编辑应用将怎样存留她们上传的图片,或将其指向平台被黑客入侵的新闻故事,这样做会给她们留下更大的印象。
不要错过人工智能真正擅长的东西
不过,我们并不能只听到消极的一面。其实初期课堂上关于人工智能的许多讨论都围绕着它作为作弊辅助工具的潜力展开,但当它被聪明地使用时,可能成为一个十分有用的工具。
面对一个很难理解的棘手问题,中学生可以要求ChatGPT一步一步地为她们讲解,或则将其改写为饶舌的方式,或则饰演生物老师的角色,让其测试自己的水平。它还非常擅长快速勾画详尽的表格,来比较各个学院的好坏。换成人类的话,这常常须要数小时的研究和编辑。
克伦普顿强调ai遇到未知的图像结构,向聊天机器人查询高难度词组的词汇表,或在测验前练习历史问题,或帮助中学生在写完答案后评估答案,都是对她们有益的用途。
她说:“你只须要记住它有偏见、幻觉和不确切的倾向,以及你自己培养数字素质的重要性就够了。假如中学生以正确的形式使用它,那就太棒了。这个技术太新了,我们也只是摸着石头过河。”
支持:Ren