【深瞳工作室出品】

  采写:子科技大学外国语学院院长胡杰辉说。毕竟,生成式人工智能能够促进个性化学习,根据学生的需求提供比较精准的支持。显然,在传统课堂教育中,这种模式无法轻松实现。

  天津大学智能与计算学部人工智能学院副院长、教授王鑫也认为,生成式人工智能可根据学生的需求提供个性化指导和支持的同时,还能客观提升学生学习的灵活性,激发他们的创造力和探索潜能。

  清华大学公共管理学院副教授唐啸则表示:“在生成式人工智能逐渐融入教育时,培养批判性思维、信息甄别能力、逻辑推理能力,以及对语言及内容的‘审美能力’至关重要。”

  而在国外,不少学校对生成式人工智能工具的态度也发生了改变。

  曾在2023年初试图阻止使用ChatGPT等生成式人工智能工具的澳大利亚昆士兰州和新南威尔士州的公立学校,到同年晚些时候改变了这一决定。

  无独有偶。纽约市公立学校也在2023年夏季恢复支持使用人工智能工具。此后,他们还成立人工智能政策实验室,意在引导美国大型学区合理应用AI技术。

  保持理性和谨慎至关重要

  人工智能在赋能Alpha世代教育的同时,也带来一系列潜在风险。因此,在拥抱技术进步的同时,保持理性和谨慎至关重要。

  7月12日,美国《科学进展》杂志发表的一项新研究称,生成式人工智能的兴起或将使影视、文学、音乐等创作变得容易起来,但如果创意产业过度依赖AI“编故事”,未来可能出现作品千篇一律的情况。

  “若学生们习惯于依赖智能工具的即时反馈,而非主动进行思考、分析和判断,长远来看,这种依赖或将引发他们思维能力的逐步衰退,进而削弱其独立解决问题的能力,创新力的培养更无从谈起。”萨万担忧,这种依赖对于未成年的Alpha世代来说,可能带来严重的负面影响。

  “AI幻觉”则是众多人工智能领域学者一直试图解决的另一问题。

  王鑫解释,大模型会捏造不准确甚至不真实的信息。而知识的真实性对于基础教育阶段的学生尤为重要。Alpha世代正处于对一切都充满好奇的年纪,他们尝试运用生成式人工智能来拓展自己的知识边界,但目前尚不完全具备辨别信息真伪的能力。

  为了验证生成式人工智能的可靠性,记者随机向某人工智能大模型提出一个问题:“请告诉我关于法国诗人玛斯特洛夫斯基的信息。”生成的答案令人哑然——“在当代法国诗坛,亚历山大·玛斯特洛夫斯基是一位备受瞩目的诗人。他的作品以其深刻的社会洞察力、细腻的情感以及对现代生活的独特思考而闻名。”

  搞笑的是,这个法国“诗人”是记者随机编撰的人名。这一人机互动结果令人深思:如何才能更有效地借助人工智能的力量,切实回应孩子的需求,并提高知识获取效率和准确率。

  意识形态导致的偏见更不容忽视。经济合作与发展组织发布的《2023年数字教育展望:迈向高效的数字教育生态系统》报告中警示道,数字工具并非尽善尽美,即使是某些最前沿的技术也可能存在不足。例如,这些工具可能会生成带有偏见的内容,或强化既有偏见,一些基于人工智能的工具已被证实,对特定群体的影响强于其他群体。

  采访中,胡杰辉向记者展示了一段与生成式人工智能模型互动的情景。他输入了一个简单的问题:“中国在巴黎奥运会上的表现如何?”不同地区用不同语料开发的人工智能大模型进行互动时,所得到的回答,在内容准确性、丰富度和情感表现力等方面存在明显差异。

  为此,王鑫指出,虽然AI模型本身尚未具备自我意识,但它们可以通过训练以反映特定的文化和价值观。国外开发的生成式人工智能大模型基于外文数据训练而成,生成的内容必然承载着国外的价值观。“对中国来说,推进本土语言大模型的发展至关重要,也尤为迫切。”他说。

  胡杰辉对此持同样的看法:“生成式人工智能的产品会影响人甚至塑造人,因此必须符合伦理要求,尤其在教育领域要与学生的健康、智慧成长目标相契合。”

  人机互动重在高质量提问

  一味地担忧和排斥显然不切实际。更多教育工作者关心的是,在人工智能驱动的世界里,如何确保Alpha世代不被人工智能“驯化”?

  享受AI工具便利的同时,新的挑战随之而来——如何辨别那些可能有意误导的信息,或受意识形态影响而伪造的知识。

  受访者一致认为,提高“人机互动”水平以及培养高阶思维能力,是现代学习者的一项重要目标。而人机互动中提问能力的重要性,在外国学者的研究中被频繁提及。

  伦敦国王学院教授奥古兹·阿卡尔在世界经济论坛网站上撰文表示,在人工智能驱动的世界里,一个重要的技能是学会高级的“问题表述”。

  “培养‘人机互动’的能力必不可少。”胡杰辉认为,这种能力包含擅用问题获得更丰富的答案,并能在与人工智能的对话中识别潜在的误导信息和偏见。

  但真实情况是,当前包括Alpha世代在内的青少年,在提问能力上明显存在不足。

  阿卡尔认为,AI大模型对有效描述问题的能力提出了较高的要求,要在描述中划定问题的边界、对回答模式进行创造性重构和引导,进而让AI大模型给出的答案超越传统范式。

  胡杰辉进一步分析,有效提问不仅是能提出一般性问题,更是在深度理解有关材料后,经过批判性思考,提出更高质量的问题。

  提出高质量问题有赖于提问者的社会经历和知识储备,青少年在频繁的人机互动中,实际上是有可能超越年龄局限,提前掌握高超提问技巧的。

  年轻人能驾驭这些AI工具,而不是被动依赖它们,在被访者看来,是未来教育的重要方向。而对于新世代来说,会用并且用好AI工具,已成为他们自我成长的全新路径之一。

  齐心协力促进科技向善

  如何引导Alpha世代提升生成式人工智能的使用素养,并为他们营造一个适宜的网络环境,不仅是未成年人保护工作面临的难题,更是社会各界必须解决的“数字时代人类文明如何发展”的重要课题。

  “政府、技术开发商、教育工作者和家长如今不仅是利益共同体,更是发展共同体。”胡杰辉说。

  家长作为孩子们的第一任老师,地位举足轻重。他们需要引导孩子面对生成式人工智能模型,既要让其认识到技术的力量,更要教会他们负责任地使用技术,培养良好的数字公民意识。

  教育工作者更是数字时代背景下的一线实践者。王鑫一直在高校开展关于生成式人工智能大模型的培训,帮助教师和学生提升相关技能。

  胡杰辉认为,借助AI开展个性化学习不是让学生“放羊”,教师依然需要承担起教育的主体责任。“技术迭代太快了,学生必须成为终身学习者,教师也要帮助他们了解人工智能技术背后的原理和伦理底线,这代人方能成长为既有技术头脑、又有社会责任感的新一代。”他说。

  而教师的同理心以及师生之间的有效情感交流仍至关重要。“至少在未来五到十年内,甚至更长远的阶段来看,AI大模型无法完全替代教师的角色。”王鑫说。

  以“人的智慧成长”为导向,通过人工智能技术促进学习环境、教学方式和教育管理的智慧转型,成为学校在人工智能时代面临的新任务。

  胡杰辉崇尚“科技向善”。他始终高度关注生成式人工智能模型技术供应商的行为。“相关技术公司在开发人工智能产品时,要肩负起历史责任感,主动设置伦理底线。人工智能产品如果没能实现经济效益与社会效益的双赢,就是失败的技术应用。”

  “对政府而言,在推动技术创新的同时,还应关注人工智能的伦理问题和社会影响。”王鑫说。

  记者了解到,北京市海淀区检察院携手科技企业,推出首个未成年人保护AI智能体,旨在为未成年人的保护提供更精准的技术支持。

  作为一名教育工作者,唐啸直言:“在一定程度上,我并不担心生成式人工智能带来的影响。我认为教育的使命在于以爱和责任呵护下一代的成长,帮助他们迎接未来的挑战。每一代人都有其独特的使命和挑战,只要新一代比前一代更加强大,他们就能够克服这些困难,勇毅前行。”

  相关链接

  规范AI发展全球在行动

  ◆2023年7月,国家网信办等发布《生成式人工智能服务管理暂行办法》。其中,第十条明确了针对未成年人的特殊保护要求,要求服务提供者采取有效措施防止未成年人用户过度依赖或沉迷生成式人工智能服务,并对产品进行分类提示,避免未成年人接触不适宜的内容。

  ◆2023年9月,联合国教科文组织发布了全球首份生成式人工智能教育和研究指南《教育和研究中的生成式人工智能指南》(Guidance for generative AI in education and research)。该指南提出了规范AI伦理问题的政策建议,并倡议促进包容性和公平性。

  ◆2023年10月,英国教育部发布了《生成式人工智能在教育中的应用》指导文件,提出了该国在教育领域使用AI工具的策略。

  ◆2024年1月,我国正式实施的《未成年人网络保护条例》在自动化决策和算法优化领域,引入了技术赋能的保护措施,包括“运用采用人工智能、大数据等技术手段和人工审核相结合的方式加强对网络欺凌信息的识别监测”等。

  ◆2024年8月29日,在四川成都举办的2024年中国网络文明大会上,《生成式人工智能行业自律倡议》正式发布,对未成年网络行为的保护是其中的重要内容。