1. Cooper等人(1985)认为陈述句在第一个音节或词起始处都会有一个上升的音高轮廓,人会自动识别出这一音高轮廓,从而有助于他们更好的分辨句子类型和进一步分析句子所表达的语义信息。于是Cooper等人构造并录制出了内容相同但句调不同的成对句子,如:
    (1)Corn is extra sweet this year.
    (2)What corn is extra sweet this year?然后删掉其中的“What”。
    这样,两个句子的表达完全相同,但第二个句子的起始音节处少了正常的上升音高轮廓。结果当让被试判断每个句子中是否有一个词被删掉了时,超过50%的被试判断第二个句子有一个词被删掉了;而只有20%的被试判断第一个句子有删掉的词。请问,这个实验使用了认知心理学的什么研究方法?这个方法在这项研究中有什么作用?你能从这项研究中得出什么结论?

    教师视角:这是“正确率法”。虽然它不是统计每个被试对所有句子判断“是否”删掉一个词的正确率的平均数,好像也不关心被试判断是否正确(没说正不正确的问题),但实际上实验所考察的“有百分之多少的人判断删掉了”仍然是以正确率为前提的。正确率法就是为了察探认知加工阶段的特点的,而这一方法在本研究中的作用也是为了验证言语听觉的特点的。它说明了上升的音高轮廓的确可能是陈述句起始音节的语音特点,它能够帮助听者及早发现句子的结构;更进一步的引申结论是:语音在言语听知觉中起着重要的作用。
    2.现在的计算机程序发展使其容错性越来越高,比如很多手机或电脑软件已经能够识别手写汉字了(这在十年前还是不可能的)。你觉得这种进步是不是代表着人机类比更可行了?是不是说明如今计算机的认知过程和能力越来越接近于人类了?
    教师视角:只要神经网络计算机没有成为现实,那计算机的运行方式仍然是系列加工、数字加工,其与人类认知的差别仍然存在。哪怕目前看起来它的许多功能已经提升、已经类似于人类灵活的智慧水平了,但它不一定真的是按照人类的思考方式来思考、使用人类的记忆策略来记忆,它只是在行为结果上接近于人类的行为效果(比如,我用手写输入“但”字,当写完左边的单立人和右边的一竖时,机器自动跳出包括“爪”在内的很多可能字供我选择。但是学过汉字的小孩子都能知道单立人是单独的结构,右边要出现的肯定是一个新的结构;只有机器不知道,它只是把整体结构近似的字都提取出来让你选、而不是根据笔画顺序猜测下一笔是什么及最终是什么字)。所以,与十年前一样,人机类比的可行性既没上升也没下降,还是可以采用,还是存在争论。

 
  请继续学习