融合知识交互关系的认知诊断深度模型

张所娟 余晓晗 陈恩红 沈双宏 郑 雨 黄 松

ZHANG Suojuan1,2, YU Xiaohan1, CHEN Enhong2, SHEN Shuanghong2, ZHENG Yu1, HUANG Song1

随着大数据、人工智能技术与教育的深度融合,以及各类在线学习平台的广泛应用,大量的在线学习数据被积累,为实现更智能的个性化学习提供支撑.而实现个性化学习的基础是认知诊断,即通过可观测的学习行为数据揭示学习者的认知状态(知识的掌握水平)[1].在学习者在线学习过程中,完成学习任务时产生作答行为记录(作答得分),根据学习任务对应的知识,通过认知诊断模型获取学习者在各个知识上的掌握水平.认知诊断作为许多相关教育场景应用的基础任务[2],在学习者的学习表现预测、学习资源个性化推荐、在线教育自适应学习、试题合理组卷等应用中发挥重要作用.

认知诊断研究源于心理与教育学理论[3],通过传统计量方法建立学习者作答反应数据与知识掌握水平之间的关系,由此设计开发一系列适应不同学习场景的认知诊断模型,包括经典的IRT(Item Response Theory)[4]、DINA(Deterministic Inputs,Noisy "and" Gate)等[5],并在此基础上发展一系列拓展模型,如MIRT(Multidimensional IRT)[6]、G-DINA(Generalized DINA)[7].

随着学习数据的积累和计算能力的发展,基于机器学习的方法逐步被引入诊断领域,将作答反应模式转换为分类问题.认知诊断研究由依赖于人工方式的统计测量方法,逐步向利用智能技术捕捉学习者、试题和知识间复杂关系能力的方向发展[8].学者们结合智能技术,从数据驱动的角度提出不同的认知诊断模型,如针对不同试题类型的FuzzyCDF(Fuzzy Cognitive Diagnosis Framework)[9]、结合神经网络的NeuralCD(Neural Cognitive Diagnosis)[10]、定量表达练习与知识之间的外显关系和内隐关系的QRCDM(Quantitative Relationship Cognitive Diagnosis Model)[11]等.

在学习场景中,知识之间并不孤立[12-13],知识的交互关系普遍存在.随着研究的深入,知识间的交互关系也受到更多的关注[14-15].目前知识交互关系建模工作多集中于遵循学科规律表达知识的结构关系[16].在这种情况下,知识交互关系可看作是相对静态、稳定的,如知识层级结构[17-18]、先决关系[19]等.

认知诊断模型对知识建模时,通常将各个知识视为同等重要.然而同一学习任务中不同知识的重要性存在差异,而这种差异由学习任务中多个知识间存在的交互关系产生.若忽视学习任务(本文中的学习任务特指包含多个知识的试题)中多知识间的交互关系带来的不同权重,会影响诊断结果[20-22].例如,编程实现两个城市之间最快路线的算法并打印输出距离,完成该任务考察最短路径算法实现、打印输出及基本语法结构等知识,其中最短路径算法这一知识的重要性明显高于其它知识.

在实际应用中,面向学习任务的知识交互关系带来不同的知识权重.若学习者在更重要的知识上掌握得更好,则可能作答成绩也更好,答对的概率也更高.此外,知识交互关系不仅是存在于两两知识之间的关系,知识集合之间也存在交互作用[23].由于现有的认知诊断模型未考虑知识间的交互关系,知识交互信息很难直接嵌入已有的认知诊断模型中.

针对上述问题,本文提出融合知识交互的认知诊断深度模型(A Concept Interaction-Based Cognitive Diagnosis Deep Model,CI-CDM),将知识及知识集合间的交互关系融入认知诊断的过程中,实现学习者认知状态及面向学习任务的知识权重的统一学习.首先构建认知诊断模型框架.再提出基于多个学习任务的知识权重学习算法,用于表征知识交互关系.然后,提出模糊测度的深度神经网络(Deep Neural Network Based on Fuzzy Measures, FM-Net),预测学习者作答表现,实现融合知识交互的认知诊断深度模型构建.最后,在公开数据集和真实数据集上进行学习者的学习表现预测实验,验证模型效果,并结合实际学习任务进行案例分析.

本节介绍必要的假设及认知诊断的问题描述定义,并阐明本文使用的数学符号的具体含义.

假设1一个学习任务对应多个知识,知识或知识集合之间存在不同的交互关系.

假设2考虑学习任务中知识及知识集合存在的交互关系,知识集合对于学习任务达成的支持力度不同,称为知识权重.

假定有I个学习者构成学习者集合

S={si|i=1,2,…,I},

在J项学习任务上完成作答,构成学习任务集合

T={tj|j=1,2,…,J}.

J项学习任务考察的知识

X={xk|k=1,2,…,K},

其中K表示知识数量.同时由领域专家给定的矩阵

Q=[q1,q2,…,qJ]

建立学习任务与其考察知识的关系.知识权重

V=[v1,v2…,vJ],

其中vj表示第j项学习任务的知识权重向量.得分矩阵R=(rij)I×J,rij表示第i个学习者在第j项学习任务上的得分.学习者i在学习任务tj上形成的作答记录可表示为一个四元组{si,tj,qj,rij},其中,si∈S,tj∈T,rij表示R中元素,qj表示Q矩阵中第j个列向量.

认知诊断过程具体包含如下3个流程.

1)模型输入.输入学习者作答记录的四元组历史学习数据,对于学习者si,输入数据

log={(si,tj,qj,rij)|i=1,2,…,I,j=1,2,…,J}.

2)模型构建.基于Choquet积分提出融合知识交互关系的认知诊断深度模型(CI-CDM).

3)模型应用.将CI-CDM应用于如下3个任务:学习者表现预测、认知状态诊断及知识交互表征.

为了更清晰地说明,表1列举本文重要的数学符号.

表1 本文中的重要符号

本节基于认知诊断的一般流程,提出融合知识交互关系的认知诊断深度模型(CI-CDM),框架如图1所示.该模型建模学习者作答时与学习任务交互的过程并输出作答结果预测值(如答对的概率).模型框架的构建分别从学习者、学习任务及知识聚合三方面实现学习者认知状态表征、面向学习任务的知识权重表征及融合知识权重的作答表现预测这三个模块,最终实现CI-CDM.

图1 CI-CDM框架

2.1 学习者认知状态表征

认知诊断的核心目标在于挖掘学习者潜在的认知状态,沿用DINA的建模思路,将学习者的认知状态(即各知识上的掌握水平αi)作为CI-CDM中的学习者特征向量.在CI-CDM中,首先将学习者集合

S={si|i=1,2,…,I}

作为输入,通过多层融合网络模型学习获得相同维度的知识掌握水平.学习者知识掌握水平矩阵为:

A=[α1,α2,…,αK]T,

其中,

αi=[α1,α2…,αK]

对应学习者si在K个知识上的掌握水平,K表示输入模型的所有学习任务考察知识的数量.例如,多个学习任务共考察4个知识,学习者s1的知识掌握水平

α1=[0.9,0.6,0.3,0.1]

表示该学习者对知识x1的掌握水平最高为0.9,但在知识x3上的掌握水平较低,只有0.3,对知识x4的掌握水平最低,只有0.1.模型实现时,可将学习者si的知识掌握水平表达为

其中,index表示将二值的Q矩阵(取值为0或1)进行维度扩展,通过index筛选学习者在各项任务上的知识掌握水平,

例如,若3个学习任务共考察5个知识,每个任务考察其中的4个知识,如学习任务t1考察知识x1、x3、x4、x5.对于一个学习者而言,其知识掌握水平被划分为对应3个学习任务的知识掌握水平向量:

α(1)=[α1,α3,α4,α5],

α(2)=[α2,α3,α4,α5],

α(3)=[α1,α2,α3,α5].

具体如图2所示.

图2 Q矩阵筛选学习任务对应的知识掌握水平

2.2 面向学习任务的知识权重表征

每项学习任务考察的知识不同,不同任务中知识集合间存在不同的交互关系.每个知识在特定学习任务中的重要程度不同.相应地,同个知识在不同任务中的权重也不同.因此,对于每项学习任务,都需要建立一个知识权重表征向量.学习任务对应的知识权重表示为V=[v1,v2,…,vJ],vj表示第j项学习任务的知识权重向量.

本文充分考虑知识集合间的交互关系,采用模糊测度表征知识权重.例如,知识x1的权重表示为v(A)∈[0,1],A={x1}.根据模糊测度的定义[24],知识权重集合的元素数量为知识的幂集,v(Ø)=0不影响计算结果,则第j项学习任务的知识权重向量vj∈R1×(2Kj-1),其中Kj表示学习任务tj考察的知识数量.

例如,学习任务t1考察3个知识,对应如下的知识权重向量:

v1=[v({x1}),v({x2}),v({x3}),v({x1,x2}),

v({x1,x3}),v({x2,x3}),v({x1,x2,x3})].

这里学习任务t1的知识权重数量为

23-1=7个.

知识权重向量的维度由知识的个数确定.需要说明的是,本文仅针对等量知识的学习任务讨论,即每项任务考察的知识点数目相等.

为了方便计算,建立知识集合A⊆X与整数集I={1,2,…,2Kj-1}之间的一一映射关系,从而建立知识权重向量中的模糊测度v(A)的索引编码.具体编码方式如下.

1)取整数集I中的集合元素转化为二进制表示.例如,元素i=4,对应的二进制表示为

i=4⟺100.

2)对于学习任务tj,定义索引表征向量c∈

{0,1}Kj.

若知识xi∈A,cKj-i+1=1,否则cKj-i+1=0.其中,知识集合

A⊆Xj={x1,x2,…,xKj},

|Xj|=Kj表示学习任务tj考察的知识个数为Kj.

3)根据索引表征向量c确定v(A)在整数集I中位置.

举例来说,学习任务tj考察的知识Kj=3个.当知识集合A={x1}时,索引表征向量c=(0,0,1).相应地,v(A)对应整数集I的元素

i=1(i=1⟺001),v({x1})=v1.

当知识集合A={x1,x3}时,索引表征向量c=(1,0,1),此时v(A)对应整数集I的元素

i=5(i=5⟺101),v({x1,x3})=v5.

以知识集合X={x1,x2,x3}为例,按照表2的二进制编码方式,进而确定知识集合模糊测度的位置,最后实现知识权重度向量vj的有序排列.

表2 知识权重二进制编码方式

本文基于模糊测度的深度神经网络FM-Net训练参数,获得知识权重的表征.为了方便表达,简化如下.将知识x1构成的单点知识集合的权重v({x1})记作v1,将知识集合{x1,x3}的权重v({x1,x3})记作v13,以此类推,v({x1,x2,x3})记作v123.由于知识交互关系随学习任务不同而变化,需要对应学习任务的神经网络以学习知识权重对应的参数.具体的参数学习过程如图3所示.

图3 FM-Net参数学习过程

FM-Net的构建采用文献[24]中的参数学习的基本思想,初始化模糊测度学习深度神经网络参数矩阵W=(wvA)∈RJ×(2K-1),对应于具体学习任务的知识权重生成一个相应的网络权重参数.对于∀A⊆X,A≠Ø,初始化参数统一赋值如下:

其中Kj表示FM-Net对应的学习任务tj考察的知识数量.由此可见,FM-Net的初始参数取值与知识数量相关.具体分为如下2种情况,计算学习任务tj中的知识权重.

if|A|=1,v(A)=ReLU(wvA).

例如,知识x1的权重

v1=v({x1})=wv1,

知识x2的权重

v2=v({x2})=wv2.

2)知识集合的模糊测度表征

根据模糊测度性质中的单调性约束,若A⊆X,B⊆X,同时B⊆A,则v(A)≤v(B).这意味着知识子集的权重取值应符合该约束条件.具体定义如下:

if|A|>1,

v(A)=max{v(B)}+ReLU(wvA),

(1)

其中,B⊂A,|B|=|A|-1,v(A)表示知识集合A的权重.

由式(1)可得,v(A)≥v(B),由此保证v(A)取值的单调性.例如,知识集合A={x1,x2},则该知识集合的权重表示为

v12=max{v1,v2}+ReLU(wv12).

上述两类知识集合涵盖单项学习任务中所有知识集合的模糊测度.按索引编码的顺序依次拼接后,获得该学习任务的知识权重向量:

2.3 融合知识权重的作答表现预测

由于学习者的知识掌握水平属于内隐状态,现有数据集中的知识掌握水平未被标记,无法直接评价从认知诊断模型计算知识掌握水平的准确性.但是,学习者的作答表现(如作答分数)可基于知识掌握水平进行预测,并且实际的作答分数在数据集上已标记.因此,本文利用认知诊断模型获取作答表现的预测结果,以反映认知诊断结果的有效性.学习任务涉及多个知识,学习者的作答反应由该学习者在各个知识上的掌握水平及特定学习任务中的知识权重共同决定.考虑将反映知识交互关系的知识集合权重通过模糊积分的方式嵌入认知诊断过程中,在充分考虑模糊测度的约束条件基础上学习获得知识权重的表征向量vj,通过模糊积分神经网络实现融合知识权重的聚合方法.

模糊积分(Fuzzy Integral)以模糊测度为核心建立聚合函数,能利用信息源之间丰富的相互作用.模糊测度可建模集合元素之间的交互作用,通常被描述为重要性、可靠性、满意度等相似的概念.Choquet积分作为模糊积分中广泛使用的方法之一,在分类[25]、模式识别[26],MCDM(Multiple Criteria Decision-Making)[27]等多个领域得到应用.

关于模糊测度m和输入X,Choquet积分可表示为

(2)

其中,x(i)表示对输入XZ={x(1),x(2),…,x(n)}非递减排列后对应的元素,即

x(1)≤x(2)≤…≤x(n).

Hi={(i),(i+1),…,(n)}

表示前n-i+1个最大元素对应下标构成的集合.这里选择广泛性较好的Choquet积分作为知识聚合函数,预测学习者的作答反应.换个角度来看,式(2)中Choquet积分可看作是关于知识权重向量的线性函数.为了构建适合于神经网络的表达形式,可将Choquet积分转换为

(3)

其中,m(A)表示知识权重,gA(α)表示关于知识掌握水平的函数.经文献[28]证明,式(2)与式(3)等价.

本文采用Choquet积分聚合知识权重和认知状态,构建融合知识交互关系的认知诊断深度模型,实现学习者认知状态和学习任务知识权重的统一表达.结合认知诊断应用场景,学习者si在学习任务tj中的理想作答表现为:

(4)

其中,vj(A)表示学习任务tj的知识权重向量,gA(αi)表示学习者si关于知识掌握水平αi的函数.由式(4)可知,Choquet积分中知识权重向量vj的取值会影响该学习者在学习任务tj的作答表现.

具体地,对于每个知识集合A⊆X,令

(5)

其中α(ik)表示对αik进行递减排序后的结果,即

α(i1)≥α(i2)≥…≥α(iK).

为了方便描述,可将gA(αi)简写为gA.

需要注意的是,集合A是知识掌握水平αi中前k个最大元素对应下标构成集合的子集,即

A⊂{x(1),x(2),…,x(k)},gA=0.

例如,

A={x(1),x(2),…,x(k-1)},

gA=max(0,α(i(k-1))-α(ik))=0.

举例来说,学习任务t1涉及3个知识,即X={x1,x2,x3},若学习者s2的知识掌握水平分别为

α(21)=0.5,α(22)=0.4,α(23)=0.7,

将知识掌握水平按照从大到小顺序排列,可得α(21)=0.7,对应知识x3.同理,

α(22)=0.5,α(23)=0.4,

分别对应知识x1和x2.计算过程如下:

g123=max(min(α(21),α(22),α(23))-0)=0.4,

g13=max(0,min(α(21),α(22))-α(23))=0.1,

g3=max(0,α(21)-max(α(22),α(23)))=0.2,

g1=g2=g12=g23=0.

代入式(4)、式(5)计算理想作答反应,可得

v({x1,x2,x3})g123+v({x1,x3})g13+v({x3})g3.

CI-CDM的目标是通过学习者知识掌握水平向量α(j)和基于知识交互的知识权重向量vj生成聚合结果,预测学习者的作答表现.将学习者编号生成的嵌入向量输入多层神经网络后得到知识掌握水平α,根据Q矩阵,获得学习任务tj的知识掌握水平向量α(j).经过一系列变换后(如式(5)所示),得到需要的知识掌握水平表征形式gA(α),由此获得作答预测模块的其中一个输入.另一方面,将模糊测度深度神经网络输出的表征向量vj(第j项任务的知识权重向量)作为第2个输入,经Choquet积分的聚合后,计算得到理想作答表现N=(ηij)I×J.基于Choquet积分的理想作答反应计算实现过程见如下算法.

算法基于Choquet积分的理想作答反应计算

实现过程

输入学习者si知识掌握水平αi,

学习任务tj的知识权重向量vj

输出学习者si在学习任务tj上的理想作答反应

ηij

step 1 初始化知识掌握水平向量函数

gA(αi)∈{0}1×(2K-1).

step 3 获取差值向量:

Δα=α′(i)[0∶Kj]-α′(i)[1∶Kj].

step 4 取2sort_id按列求和,获得定位loc,将Δα按定位赋值给gA(αi)[loc]=Δα.

step 5 理想作答反应计算:

图4 融合知识权重的作答表现预测过程

图5 预测得分的one-hot 向量

联合知识掌握水平和知识权重向量,通过Choquet积分获得理想作答反应,同时连接多层神经网络,预测最终的作答表现.

3.1 实验设置

为了验证CI-CDM的有效性,分别在公开数据集和真实数据集上进行实验.由于本文讨论的认知诊断模型考虑面向学习任务的知识交互关系,因此学习任务与知识一一对应的映射关系的数据集不适合于CI-CDM的应用场景.因此,本文采用知识交互较多的公开数据集Math1和Math2(http://staff.ustc.edu.cn/~qiliuql/data/math2015.rar).

由于CI-CDM面向具有等量知识的学习任务,预处理阶段根据Q矩阵筛选数据集上知识数目相同的学习任务,生成Math_A、Math_B数据集,如图6所示.Math_A数据集为Math1数据集筛选后的结果,每项任务均包含3个知识(每项任务可能对应不同的3个知识).例如,学习任务t5包含知识x1、x5和x8.Math2数据集选择考察4个知识的学习任务后构成Math_B数据集.例如,学习任务t1包含知识x1、x2、x9和x12.

(a)Math_A

同时选取编程学习平台产生的真实数据集(Program数据集).平台允许学习者多次重复作答,在本文实验场景中,作答数据仅记录学习者前两次作答的记录以保证公平性.在预处理环节,选取考察3个知识的学习任务,包含22个学习任务,共涉及30个知识,123 750条作答记录.

各数据集基本情况如表3所示.

表3 实验数据集统计信息

学习者的作答数据以json格式文件读入模型,每条学生作答记录包括学生编号、任务编号、任务得分、考察的知识这4个属性.

本文基于Pytorch深度学习框架实现CI-CDM.为了保证实验的公平性,所有对比模型参数均调整至最优性能.在知识掌握水平的多层网络中,网络参数维度分别设置为128,256,1.同时将ReLU作为中间层的激活函数.

为了保证知识掌握水平的范围在[0,1]区间,输出层采用Sigmoid激活函数.在初始化网络参数阶段,使用Xavier初始化参数[29],根据N(0,std2)采样随机值填充权重.在模糊测度神经网络中网络层数取决于学习的模糊测度个数.单个知识对应的模糊测度为第1层,两个知识组合的知识集合对应第2层,以此类推.Choquet积分计算结果输入全连接层,维度分别设置为256,128,1.

为了防止过拟合情况发生,在全连接层的每一层加入Dropout机制(p=0.5),并同样采用ReLU作为激活函数,输出层采用Sigmoid激活函数.最后使用交叉熵作为损失函数训练CI-CDM(https://github.com/kathy-sj/CI-CDM.)

为了验证CI-CDM的有效性,本文选取如下基准模型预测学习者的学习表现.

1)NeuralCD[10].具有较好泛化性的深度学习认知诊断模型,通过神经网络实现复杂的交互函数,实现认知诊断.

2)IRT[4].认知诊断方法,通过线性函数对学习者的潜在特质和任务特征参数(如难度与区分度)建模,实现认知诊断.

3)MIRT(Multidimensional Item Response Theo-ry)[6].作为IRT的多维扩展,对学习者和学习任务的多维度知识的熟练程度进行建模.

4)概率矩阵分解(Probabilistic Matrix Factoriza-tion,PMF)[30].通过分解学习者得分矩阵,得到学习者和学习任务的潜在特征向量.

3.2 实验结果对比

为了衡量CI-CDM的性能,从回归和分类的角度采用AUC(Area Under Curve)、F1-score、MAE(Mean Absolute Error)指标.

首先,将数据集作答数据中80%的记录划分为训练集,其余部分平均划分为验证集和测试集.

实验对比CI-CDM和基准模型的预测表现,各模型在学习者表现预测上的总体性能如表4所示,表中黑体数字表示最优的预测结果.由表可得如下结论.

表4 各模型在学习者表现预测上的性能对比

1)在Math_A数据集上,相比NCD,CI-CDM的MAE值下降2.86%,同时AUC和F1-score值均有提升.同时,相比IRT、MIRT和PMF,CI-CDM更具有明显优势.这表明,融合知识交互关系的CI-CDM对于学习者的学习表现预测任务是有效的,可获得更准确诊断结果,提高预测精度.

2)在Math_B数据集上,CI-CDM的预测表现几乎都优于不考虑知识交互的基准模型.CI-CDM的F1-score值略低于NCD,但相比RT、MIRT和PMF,CI-CDM仍具有一定的优势.这可能与Math_B数据集上知识本身的特征有关,部分学习任务中知识之间存在的交互关系较弱(如掌握概率论和等差数列的能力之间是相对独立的).因此,是否融合知识交互关系进行学习预测对结果影响并不明显.但同时也可说明CI-CDM对认知诊断工作的适用性,在知识交互关系较弱的学习场景下,CI-CDM同样具有相对较优的性能.

3)在Program数据集上CI-CDM的性能明显优于其它模型.由此可知在编程学习领域,CI-CDM同样具有较好的适用性.编程学习强调综合运用多个知识解决问题,知识间的关联关系更显著,因此使用融合知识交互关系的认知诊断模型在处理这一类学习场景时更具有优势.

3.3 案例分析

案例分析1面向学习任务的知识全局重要度及交互指标

CI-CDM可得到每个学习任务的知识权重向量,进而可得出知识的全局重要度和交互指标[31].这里的知识全局重要度是综合考虑各知识自身的权重及包含该知识的集合权重,也就是充分利用知识交互关系后得出的全局重要度.交互指标反映两两知识点在整个知识集合中的交互作用.若两个知识点之间的交互指标越高,说明这两个知识点间的互补性越强.

Math_A数据集上的知识全局重要度如图7所示.由图可知,学习任务知识 “计算”出现在6项学习任务中,可看作这6项学习任务共同的知识基础.从考察目标上看,“计算”必然不是学习任务重点关注的一个知识,因此它在各项学习任务中的重要程度是最低的,这也符合图7的结果.

图7 Math_A数据集上的知识全局重要度

同时可知,Math_A数据集上学习任务t2考察的知识包括函数图像(x4)、空间想象(x5)和推理论证(x7),学习任务t5考察的知识包括三角函数(x1)、空间想象(x5)和计算(x8),学习任务t6考察的知识包括函数性质(x3)、空间想象(x5)和计算(x8).知识空间想象(x5)出现在3项学习任务中,即t2、t5和t6.t2任务中知识x5对应的重要度

φ(x5)=0.37,

在t5任务中知识x5对应的重要度

φ(x5)=0.43,

而在任务t6中知识x5对应的重要度

φ(x5)=0.39.

由此可看出,同个知识在不同的学习任务中,重要程度随学习任务的不同而不同.

再看交互指标,以Math_B数据集上的学习任务t6为例,该任务涉及4个知识:线性规划(x1)、算法定义(x2)、空间想象(x3)及推理论证(x4).根据CI-CDM可获得知识权重如表5所示.

表5 CI-CDM学习获得的知识权重

由表5可得如下结论:

v({x1})+v({x2})=v({x1,x2}),

v({x1})+v({x3})=v({x1,x3}),

v({x2,x3,x4})=v({x2,x4})+v({x3}).

根据研究[22]可知该任务中各个知识及知识集合之间为独立关系.同时各知识的交互指标应接近于0(如图8所示),表示各个知识之间相对独立.

图8 Math_B数据集上第6项学习任务的知识交互指标

综上可知,实验结果符合学科的一般认知规律,同时也印证Math_B数据集上知识交互关系较弱,结论具有一定的可解释性.根据CI-CDM得到的知识权重可获得知识全局重要度和交互指标,有利于较好地理解学习任务特征.

案例分析2学习者的认知状态诊断结果

两个学习者s1、s2对于Math_A数据集上8个知识的掌握水平如图9所示.

图9 学习者知识掌握水平示例

由图9可看出:学习者s1对知识3的掌握程度较高,对其它知识的掌握程度较平均;
学习者s2对知识2的掌握程度很高,而在知识8上的知识掌握水平较低.学习者的知识掌握水平通过认知诊断方法诊断获得,展现学习者潜在的认知状态可视化.

案例分析3知识交互关系分析

在Program数据集编程学习的立体几何计算任务上,要求使用Scanf输入数据(指定为double型浮点数),输出圆柱体积的计算结果,输出时取小数点后两位数字.任务考察3个知识:输入输出函数x1、浮点数x2、乘法运算x3.从任务描述中可知重点考察的知识是输入输出函数x1和浮点数x2.从CI-CDM获得知识权重,可得

v({x1})=0.12,v({x2})=0.2,v({x3})=0.13.

同时,可知

v({x1,x2})=0.78,v({x2,x3})=0.3,

这样就可以计算得出知识间的关联关系及强度[23].例如,

v({x1,x2})>v({x1})+v({x2}),

v({x2,x3})

可推出知识x1、x2存在协同增强关系,交互强度为0.46.知识x2、x3存在负协同关系,接近独立关系.同时计算全局重要度,可得

φ(x1)=0.465,φ(x2)=0.308,φ(x3)=0.227.

从重要度的排序结果来看,

φ(x1)>φ(x2)>φ(x3),

即输入输出函数x1、浮点数x2均较重要,而乘法运算x3对于完成该任务的重要度相对较弱.这与任务的考察重点一致,能较准确地表征知识交互关系.

本文面向学习任务,提出融合知识交互关系的认知诊断深度模型(CI-CDM),实现学习者认知状态与知识交互关系的统一表达.针对知识数量相同的学习任务场景,提出多个学习任务的知识权重学习算法,反映知识交互关系.最后,提出模糊测度的深度神经网络(FM-Net),实现对学习者作答反应的预测,在刻画知识交互关系的基础上构建认知诊断深度模型.本文进行学习者的学习表现预测实验,在公开数据集和真实数据集上验证模型效果,并结合CI-CDM的实验结果,从学习任务的知识交互关系和知识掌握水平诊断结果两方面进行案例分析.

然而实际场景中学习任务的知识数量在大多数情况下并不相同,本文的研究仅针对相同知识数量的学习任务进行诊断,尚未解决多学习任务中知识数量不同的情况.下一步将进行优化以拓展CI-CDM的应用范围.学习任务涉及的知识数目不同,知识权重表征向量的长度也相应变化.每个知识子集对应的索引位置也不相同,这为模糊积分计算带来挑战.另一方面,由于知识掌握程度的取值影响知识权重变量被访问的次数,因此无法确定数据支持哪些知识权重变量.随着知识点数目的增加,知识权重变量被访问的次数通常会变得更稀疏,如何对这部分变量进行学习更新,同样也是困难的.因此,如何更准确地表征学习知识权重以应对学习任务的复杂场景同样值得深入研究.

猜你喜欢集上测度权重三个数字集生成的自相似测度的乘积谱数学物理学报(2022年3期)2022-05-25R1上莫朗测度关于几何平均误差的最优Vornoi分划数学物理学报(2022年2期)2022-04-26权重常思“浮名轻”当代陕西(2020年17期)2020-10-28非等熵Chaplygin气体测度值解存在性数学物理学报(2020年4期)2020-09-07Cookie-Cutter集上的Gibbs测度数学年刊A辑(中文版)(2020年2期)2020-07-25链完备偏序集上广义向量均衡问题解映射的保序性数学物理学报(2019年6期)2020-01-13分形集上的Ostrowski型不等式和Ostrowski-Grüss型不等式井冈山大学学报(自然科学版)(2019年4期)2019-09-09为党督政勤履职 代民行权重担当人大建设(2018年5期)2018-08-16基于局部权重k-近质心近邻算法应用科技(2015年5期)2015-12-09层次分析法权重的计算:基于Lingo的数学模型河南科技(2014年15期)2014-02-27

推荐访问:交互 认知 深度