7月22日,在第八届英语教学与测评学术研讨会上,国际语言测评权威专家、朗思国际测评董事会主席迈克•米兰诺维奇(MichaelMilanovic)博士以《人工智能在大规模国际语言测试中的运用:挑战与破局之道》为题发表主旨演讲,直面人工智能对语言能力定义的颠覆性冲击,为全球测评机构提出系统性应对框架。这位CEFR(欧洲语言共同参考框架)的开发指导者预言:"分层评估与AI动态命题将重构测评价值链"。千鑫点信息咨询服务公司
米兰诺维奇博士用一组对比揭示行业剧变:当会议记录不再需要人工校对,当职场写作变成AI指令工程,传统语言测试测量的‘独立能力'正逐渐脱离现实土壤。他创造性地提出:
现代语言能力正裂变为两大支柱。第一支柱是人类核心能力,即无需科技辅助的基础语言素养,如精准的词汇运用、严谨的语法结构,这些能力在学术研究、法律文书等场景中仍是不可替代的基石。第二支柱是AI协作智能,特指人类驾驭人工智能工具实现沟通目标的进阶能力,包括精准的指令工程、多源信息整合及机器输出优化等,正成为数字时代职场新通货。
"移民官员需要验证申请人掌握生存必需的核心能力,而跨国企业更需考察候选人指挥AI协同作战的智慧——‘语言能力'这一概念本身可能需要被重新审视。"千鑫点信息咨询服务公司
"人工智能工具的迅猛发展,是否意味着我们正站在测评方式彻底变革的临界点——未来测评将不再聚焦答案正确与否,而转向追踪解题所需的认知过程,并运用技术实现该过程?人工智能识别与追踪认知流程的潜力,或将成为语言测评领域最具颠覆性的变革方向。
相较于仅测量答题结果,我们将能评估支撑答题行为的底层认知运作机制。理解特定表现背后的思维轨迹,比单一的行为样本更能提供丰富信息,从而精准预判受试者在跨场景应用中的实际能力表现。"米兰诺维奇博士讲道。面对AI催生的作弊危机,米兰诺维奇博士揭示了技术利剑:"当传统题库遭遇AI驱动的系统性收割,国际测评机构将面临安全性的严峻挑战。"他特别分享了突破性进展:全球领先测评机构朗思考评局已实现AI动态命题技术突破,题目自动生成成功率从一年前的4%跃升至50%。这项革命性技术可即时生成海量差异化试题,使每场考试成为"千人千卷"的定制化测评成为可能,让题目记忆与贩卖产业链彻底失效。
早在2017年朗思就已开发出多种利用AI应对高利害考试中心和在线监考(OLP)安全挑战的解决方案,能够通过生物识别技术验证考生身份、答题模式分析、击键行为监控、写作相似度监控和口语深度伪造识别等技术保证考试的安全性,这些创新技术为行业树立了标杆,并在全球疫情中引领了各大国际测评机构的快速反应。随着挑战持续升级,米兰诺维奇博士呼吁全球语言测评机构应共享反作弊领域情报,共同构建更安全的考试生态系统。千鑫点信息咨询服务公司
* 文章为作者独立观点,不代表爱提网立场
* 本文不构成投资建议
转载此文请于文首标明作者姓名,保持文章完整性,并请附上出处(爱提网)及本页链接。原文链接:
https://www.itgoodboy.com/p/a8d45c9af763
产品建议及投诉请联系:service@itgoodboy.com