一、文献名称 ¶
Chater, N., McCauley, S. M., & Christiansen, M. H. (2016). Language as skill: Intertwining comprehension and production. Journal of Memory and Language, 89, 244–254. http://doi.org/10.1016/j.jml.2015.11.004
二、研究背景 ¶
理解和创造语言的能力需要熟练的技能,但这是一项还是两项技能呢?理解和产出之间的转换似乎表明是单一的系统;听一种语言似乎对说这种语言至关重要。毕竟,孩子们在学习汉语的同时也不能理解德语。事实上,在语言科学的不同理论视角中,人们普遍认为,在语言的理解和产出过程中,知识和处理操作之间存在一定的重叠。但对于这种关系的性质,各方存在相当大的分歧。
三、目的及方法 ¶
扩展之前的CBL模型,以探索理解和产生之间的不对称是如何产生的。文章首先简要概述了CBL模型的操作,然后报告一组新的模拟结果,在这些模拟中,理解和生产性能根据相同的度量标准进行评分。
材料 ¶
语料库的选择:the Thomas corpus(英语)和the Leo corpus(德语)
话语测试:为了作为测试话语,从每个语料库中随机选择100个成人话语和100个儿童话语,限制每个话语包含至少四个单词
过程 ¶
1、主要涉及CBL模型的操作。该模型对语料库逐字处理,跟踪词和词对的频率信息。这种分布信息被用于在线计算单词之间的向后转移概率(BTP)。具体来说,每当模型计算达到或超过运行平均值的单词之间的BTP时,这两个单词就被分组,形成一个块的一部分。相反,只要单词之间的BTP低于运行平均水平,就会在单词之间插入一个块边界,这样创建的块就会被放置在模型的chunkatory中。
模型还利用其chunkatory使在线“预测”涉及哪些词应该分块:当遇到一对词组,他们组合在一起超过两次,作为一个完整的块或chunkatory作为一个更大的块。例如,假设模型第一次遇到短语the blue ball,它的chunkatory包括the blue car和blue ball。在处理the和blue时,模型不会在这两个单词之间设置边界,因为单词对已经在chunkatory中表示了。
评估模型的性能:使用了一个浅解析器来解析输入语料库。浅层解析器广泛应用于自然语言处理任务。在对语料库进行浅解析后,去掉短语标签(VP、NP等),用CBL产生的类别边界标记代替。然后,将模型的解析和生成尝试与对应语句的黄金标准解析进行比较,从而对其进行评分。
2、使用了双语评估替补研究(BLEU)算法。通过比较模型输出与目标话语的Gold Standard解析的输出,使用BLEU对CBL的解析和生成性能进行评分
四、结果 ¶
1、Fig-1
在所有10个时间点上,成人英语测试中,理解和表达的平均布鲁f分分别为0.44和0.37。英语儿童的平均f值在理解和表达上分别为0.44和0.35。德语测试的结果也遵循同样的模式,儿童在理解和表达上的平均f分分别为0.37和0.33,成人在理解和表达上的平均f分分别为0.35和0.31。
在跨语言上,CBL表现出了一种理解-产出的不对称性。对于儿童和成人测试集,解析和生成的不对称性在早期阶段表现得最为明显。虽然解析和生成之间的不对称部分来自于不同的任务需求,但随着学习的进行,任何这种不对称都会减少,并且在德国儿童测试集中消失了,(图1c)。
五、存在的问题及其他 ¶
学习一门语言应该被看作是习得一种感知运动技能,而不是学习一种抽象的语言结构理论。
同时,这种CBL模型适不适用于孤立语的汉语,用汉语语料库进行实验会不会有不同的结果,这也是后来者的研究方向之一。