著录项信息
专利名称 | 利用机器人的交互式学习系统和在儿童教育中操作该系统的方法 |
申请号 | CN200980125606.5 | 申请日期 | 2009-06-26 |
法律状态 | 权利终止 | 申报国家 | 中国 |
公开/公告日 | 2011-05-25 | 公开/公告号 | CN102077260A |
优先权 | 暂无 | 优先权号 | 暂无 |
主分类号 | G09B5/06 | IPC分类号 | G;0;9;B;5;/;0;6;;;G;0;9;B;7;/;0;0;;;A;6;3;H;1;7;/;0;0查看分类表>
|
申请人 | 悠进机器人股份公司 | 申请人地址 | 韩国首尔
变更
专利地址、主体等相关变化,请及时变更,防止失效 |
权利人 | 悠进机器人股份公司 | 当前权利人 | 悠进机器人股份公司 |
发明人 | 申庆澈;朴性州;李京宣;玄殷字;金素延;张诗镜 |
代理机构 | 上海专利商标事务所有限公司 | 代理人 | 刘佳 |
摘要
一种使用机器人的交互式学习系统,包括:输入单元(10),使用传感器输入信号,该传感器感测儿童的体形和声音以及教学材料,并且输入单元输入用于教授儿童的内容、或者当在学习期间被儿童直接触摸时输入信号;CPU(20),确定与通过输入单元(10)输入的信号相对应的动作并控制使教授儿童的过程得以进行的元件;数据表(30),当在CPU(20)中生成相关于儿童的信号输入时提供由CPU(20)调用的控制数据;以及驱动单元(40),接收控制信号并驱动机器人的音频单元、视频单元、以及马达以在CPU(20)基于数据表(30)的控制数据传送控制信号时执行学习所需的机器人动作。还公开了操作该交互式学习系统的方法。
1.一种使用机器人的交互式学习系统,所述机器人输出声音和图像来教授儿童并通过驱动马达来进行行走和运动,所述交互式学习系统包括:
输入单元(10),使用传感器输入信号,所述传感器感测儿童的体形和声音以及被选择用来教授儿童的教学材料,并且所述输入单元输入用于教授儿童的内容、或者当在学习期间被儿童直接触摸时输入信号;
中央处理单元CPU(20),确定与通过所述输入单元(10)输入的信号相对应的动作并控制使教授儿童的过程得以进行的元件;
数据表(30),当在所述CPU(20)中生成相关于儿童的信号输入时提供由所述CPU(20)调用的控制数据,所述数据表(30)包括:
学习数据表(31),储存利用所述教学材料使学习得以进行的过程的数据、并且储存在执行所述过程时机器人的动作的标准化数据,
动作模式数据表(32),预先储存在学习期间能产生的儿童动作模式、并且储存实时生成并由所述输入单元(10)观察到的儿童动作模式,
对应模式数据表(33),预先储存与对应于儿童动作模式要执行的机器人动作有关的数据、并且储存当按照与实时生成的儿童动作模式相对应的对应近似值来执行机器人动作时的情景,以及
驱动数据表(34),预先储存由所述CPU(20)用来驱动机器人做动作的基本数据;以及 驱动单元(40),接收控制信号并驱动机器人的音频单元、视频单元、以及马达以在所述CPU(20)基于从所述数据表(30)提供的控制数据传送控制信号时执行学习所需的机器人动作。
2.如权利要求1所述的系统,其特征在于,所述CPU(20)还包括用于储存由机器人执行的总学习过程和从外部生成的新数据输入的存储介质(21)。
3.一种操作使用机器人的交互式学习系统的方法,所述方法包括:
如果输入单元(10)感测到儿童出现并向中央处理单元CPU(20)输入出现信号,则诱使儿童响应于根据所述CPU(20)的指令的机器人动作自发向所述机器人问好以执行问候过程,并通过根据所述CPU(20)的指令的机器人 动作向所述儿童呈现教学材料以诱使所述儿童选择所述教学材料;
通过输入单元(10)感测所述儿童选择的教学材料,由CPU(20)基于所感测数据调用来自学习数据表(31)的学习数据、并允许根据机器人的语音执行读过程以基于所述儿童选择的教学材料进行学习;
在读教学材料的同时或之后,基于所述学习数据表(31)的学习数据通过根据CPU(20)的指令的机器人动作执行除读以外的扩展动作;
如果学习过程完成,则执行完成动作以通过根据CPU(20)的指令的机器人动作通知学习完成;以及
当在前述操作之间切换时,执行切换操作以基于储存在数据表(30)中的数据通过根据CPU(20)的指令的机器人动作来吸引儿童的注意力。
4.如权利要求3所述的方法,其特征在于,在执行各个操作时,如果输入单元(10)感测到儿童的预期动作,则CPU(20)调用来自动作模式数据表(32)的儿童动作模式数据和对应模式数据,并允许机器人通过根据CPU(20)的指令的机器人动作对所述儿童的预期动作作出反应,并且如果输入单元(10)感测到儿童的非预期动作,则CPU(20)确定预先设置并输入至所述动作模式和对应模式数据的近似模式值,且允许执行基于所述近似模式值的机器人动作。
5.如权利要求3所述的方法,其特征在于,所述读过程包括基本读过程和仔细读过程,在基本读过程中读教学材料内容,而在仔细读过程中则是在执行基本读过程的同时执行重读、一起读、分段读、吐字清楚朗读、以及复述的至少之一。
6.如权利要求3所述的方法,其特征在于,执行扩展动作包括通过将字符变成示图来读教学材料内容的过程、将所读字符变成示图的过程、按笔划顺序将所读字符输出为图像的过程、以及如果在读教学材料之后儿童讲述其印象则表达鼓励的过程。
7.一种利用输出声音和图像来教授儿童并通过驱动马达来执行行走和运动的机器人的基于全身反应法(TPR)学习模型的交互式学习系统,所述系统包括:
字符板(L),其上预先写有特定字符来由机器人以声音、图像或声音和 图像的组合的形式提供给儿童;以及
机器人(R),其识别所述字符板(L)上所写的字符并诱使儿童举起所述字符板(L),从而能根据从所述字符板(L)读取字符的结果来向所述儿童提供声音、图像、行走和运动的至少之一以对所述结果作出反应,所述机器人(R)包括:
输入单元(10),包括用于在儿童举起字符板(L)时读取所述字符板(L)上的字符的字符扫描仪(17)、利用用于感测儿童的体形和声音以及被选择用于教授儿童的教学材料的传感器来输入信号、并输入用于教授儿童的内容、或者在学习期间被儿童直接接触时输入信号;
中央处理单元CPU(20),确定与通过输入单元(10)输入的信号相对应的动作并控制用于使教授儿童的过程得以进行的元件;
数据表(30),当在CPU(20)中生成相关于儿童的信号输入时提供由CPU(20)调用的控制数据;以及
驱动单元(40),其接收控制信号并驱动机器人的音频单元、视频单元、以及马达以在CPU(20)基于从数据表(30)提供的控制数据传送控制信号时执行学习所需的机器人动作。
8.如权利要求7所述的交互式学习系统,其特征在于,所述数据表(30)包括: 字符扫描数据表(35),储存有关字符形状的输入数据以识别写在字符板(L)上的字符;
学习数据表(31),储存利用教学材料使学习得以进行的过程的数据、并且储存在执行所述过程时机器人(R)的动作的标准化数据;
动作模式数据表(32),预先储存在学习期间能产生的儿童动作模式、并且储存实时生成并由输入单元(10)观察到的儿童动作模式;
对应模式数据表(33),预先储存与对应于儿童动作模式要执行的机器人动作有关的数据、并且储存当按照与实时生成的儿童动作模式相对应的对应近似值来执行机器人动作时的情景;以及
驱动数据表(34),预先储存由所述CPU(20)用来驱动机器人做动作的基本数据。
9.一种操作利用输出声音和图像并通过驱动马达来执行行走和运动的机器人的交互式学习系统的方法,所述方法包括:
利用教学材料执行学习过程以使儿童能通过所述机器人学习读和词汇;
在读教学材料的同时或之后,基于学习数据表(31)的学习数据根据中央处理单元CPU(20)的指令通过语音、图像或语音和图像的组合诱使儿童举起写有特定字符的字符板(L);
并且
如果儿童举起了字符板(L),则允许字符扫描仪(17)读取字符板(L)上的字符并向CPU(20)发送读取信号,并且调用来自字符扫描数据表(35)的数据并通过根据CPU(20)的指令的机器人动作表达有关所述儿童选择的字符的所确定结果,
其中,在执行各个操作时,如果输入单元(10)感测到儿童的预期动作,则CPU(20)调用来自动作模式数据表(32)的儿童动作模式数据和对应模式数据,并允许机器人通过根据CPU(20)的指令的机器人动作对所述儿童的预期动作作出反应,并且如果输入单元(10)感测到儿童的非预期动作,则CPU(20)确定预先设置并输入至所述动作模式和对应模式数据的近似模式值,且允许执行基于所述近似模式值的机器人动作。
10.如权利要求9所述的方法,其特征在于,执行学习包括:
如果输入单元(10)感测到儿童出现并向中央处理单元输入出现信号,则诱使儿童响应于根据CPU(20)的指令的机器人动作自发向机器人问好以执行问候过程,并通过根据CPU(20)的指令的机器人动作向所述儿童呈现教学材料以诱使所述儿童选择所述教学材料; 通过输入单元(10)感测所述儿童选择的教学材料,由CPU(20)基于所感测数据调用来自学习数据表(31)的学习数据、并允许根据机器人的语音执行读过程以基于所述儿童选择的教学材料进行学习;
在读教学材料的同时或之后,基于学习数据表(31)的学习数据通过根据CPU(20)的指令的机器人动作执行除读以外的扩展动作;
如果学习过程完成,则执行完成动作以通过根据CPU(20)的指令的机器人动作通知学习完成;以及
当在前述操作之间切换时,执行切换操作以基于储存在数据表(30)中的 数据通过机器人根据CPU(20)的指令的动作来吸引儿童的注意力。
11.如权利要求10所述的方法,其特征在于,执行扩展动作包括通过在儿童读了儿童举起的字符后使所述儿童对应于所述字符做动作、或者通过在机器人(R)对应于所述字符做动作之后诱使儿童跟随机器人(R)的动作,来执行全身反应法(TPR)学习。
利用机器人的交互式学习系统和在儿童教育中操作该系统\n的方法\n技术领域\n[0001] 本发明涉及利用机器人的交互式学习系统和操作该系统的方法。更具体地,本发明涉及开发用于机器人的交互功能的适当内容、并在儿童利用机器人学习时提供儿童与机器人之间的交互式学习情景,而非使机器人呈现因特网内容本身或执行单方行动的利用机器人的交互式学习系统和操作该系统的方法。因为婴儿时期的学习开发是通过直接经验和交互实现的,本发明提供一种适于婴儿时期的基于机器人和儿童之间交互的增强型学习系统。\n背景技术\n[0002] 学习是通过因实践或经验引起的相对连续行为变化来获取新的信息或技能的举动。在一般学习中,存在实施教学的给予者、接受者、以及其间的介质以增强学习效率。该介质涉及用于在传递信息过程中进行传递的所有类型的渠道。此外,已知在学习情景中使用的介质代表教师和学生之间的教育交互渠道。具体而言,当介质被用于传递内容以用于特定的教学目的时,它们被称为教学介质。\n[0003] 诸如计算机系统和因特网的数字介质作为教学介质的出现已经带来了从教师的工具到介质担当教师本身的增长变化。计算机系统已经从固定介质发展成诸如笔记本计算机、个人数字助理(PDA)等的便携式介质。此外,可自发运动的机器人已经开始出现在学习中。\n[0004] 关于机器人的教育有效性的报告声称婴儿在与机器人交互期间表现出兴趣增加、注意力集中时间更长、并且主动模仿动作。此外,婴儿对机器人持续地专心并感兴趣,并且展现出交互式行为(触摸)。特别地,报告声称使用机器人的教育在提高读、数学逻辑、以及解决问题能力方面是有效的。\n[0005] 韩国专利申请No.10-2006-0118105(题为“用作学习辅助手段和助教的机器人系统”(robot system for learning-aids and teacher-assistants)且在下文中称为“在先发明”)公开了一种能够改进前述教育效果的机器人。\n[0006] 以上机器人系统不仅当在教室内自由移动且与学生简单对话时提供自动控制和创造性的学习环境,而且还起像帮助教师的人一样的作用,由此基于为改进对学生的教育效果而引入的信息和通信技术(ICT)有效地执教。\n发明内容\n[0007] 技术问题\n[0008] 在先发明的机器人系统通过机器人和投影电视单方地提供学习内容,且学生专心学习所提供的内容,从而当一定年龄以上的学生是教育的接受者时就能提高教育效果。然而,如果一定年龄以下的儿童是该系统的接受者,则鉴于注意力集中持续时间、习惯等,该系统不适合这种儿童。\n[0009] 换言之,关于用该系统学习的儿童的一个重要因素是该儿童必须自发地参与该学习。然而,对于如在在先发明的机器人系统中仅提供教育内容的单向教育而言,它难以满足学习中的这个因素。\n[0010] 本发明被设想成解决本领域中的这些问题。\n[0011] 本发明的一方面是提供一种交互式学习系统和操作该系统的一种方法,该交互式学习系统使儿童与机器人之间的交互能够实现,同时使用机器人教授儿童以通过使该儿童认识到机器人是玩伴来诱使该儿童主动参与学习并延长学习的持续时间。\n[0012] 本发明的另一方面是提供一种交互式学习系统和操作该系统的一种方法,该交互式学习系统使儿童与机器人之间的交互能够通过字符板识别和全身反应法教学实现,同时使用机器人教授儿童以通过在作为机器人的声音或图像或作为教学材料输出字符时诱使该儿童举起写有该字符的字符板来诱使该儿童主动参与学习并延长学习的持续时间。\n[0013] 技术方案\n[0014] 根据一个方面,本发明提供一种使用机器人的交互式学习系统,该机器人输出声音和图像来教授儿童并通过驱动马达来执行行走和运动。该交互式学习系统包括:输入单元,使用传感器输入信号,该传感器感测儿童的体形和声音和被选择用来教授儿童的教学材料,并且输入单元输入用于教授儿童的内容、或者当在学习期间被儿童直接触摸时输入信号;中央处理单元(CPU),确定与通过输入单元输入的信号相对应的动作并控制使教授儿童的过程得以进行的元件;数据表,当在CPU中生成相关于儿童的信号输入时提供由CPU调用的控制数据;以及驱动单元,接收控制信号并驱动机器人的音频单元、视频单元、以及马达以在CPU基于从数据表提供的控制数据传送控制信号时执行学习所需的机器人动作。\n在此,数据表包括:学习数据表,储存利用教学材料使学习得以进行的过程的数据、并且储存在执行该过程时机器人的动作的标准化数据;动作模式数据表,预先储存在学习期间可产生的儿童动作模式、并且储存实时生成并由输入单元观察到的儿童动作模式;对应模式数据表,预先储存与对应于儿童动作模式要执行的机器人动作有关的数据、并且储存当按照与实时生成的儿童动作模式相对应的对应近似值来执行机器人动作时的情景;以及驱动数据表,预先储存由CPU用来驱动机器人做动作的基本数据。\n[0015] CPU还可包括用于储存由机器人执行的总学习过程和从外部生成的新数据输入的存储介质。\n[0016] 根据另一方面,本发明提供一种操作使用机器人的交互式学习系统的方法。该方法包括:如果输入单元感测到儿童出现并向中央处理单元(CPU)输入出现信号,则诱使儿童响应于根据CPU指令的机器人动作自发向机器人问好以执行问候过程,并通过根据CPU指令的机器人动作向该儿童呈现教学材料以诱使该儿童选择该教学材料;通过输入单元感测该儿童选择的教学材料,由CPU基于所感测数据调用来自学习数据表的学习数据、并允许根据机器人的语音执行读过程以基于该儿童选择的教学材料进行学习;在读教学材料的同时或之后,基于学习数据表的学习数据通过根据CPU指令的机器人动作执行读除读以外的扩展动作;如果学习过程完成,则执行完成动作以通过根据CPU指令的机器人动作通知学习完成;以及当在前述操作之间切换时,执行切换操作以基于储存在数据表中的数据通过根据CPU指令的机器人动作来吸引儿童的注意力。\n[0017] 在执行各个操作时,如果输入单元感测到儿童的预期动作,则CPU可调用来自动作模式数据表的儿童动作模式数据和对应模式数据,并允许机器人通过根据CPU指令的机器人动作对该儿童的预期动作作出反应,并且如果输入单元感测到儿童的非预期动作,则CPU可确定预先设置并输入至动作模式数据和对应模式数据的近似模式值,且允许执行基于近似模式值的机器人动作。\n[0018] 读过程可包括基本读过程和仔细读过程,在基本读过程中读教学材料内容,而在仔细读过程中则是在执行基本读过程的同时执行重读、一起读、分段读、吐字清楚朗读、以及复述的至少之一。\n[0019] 执行扩展动作包括通过将字符变成示图来读教学材料内容的过程、将所读字符变成示图的过程、按笔划顺序将所读字符输出为图像的过程、以及如果在读教学材料之后儿童讲述其印象则表达鼓励的过程。\n[0020] 根据又一方面,本发明提供一种利用输出声音和图像来教授儿童并通过驱动马达来执行行走和运动的机器人基于全身反应法(TPR)学习模型的交互式学习系统。该系统包括:字符板,其上预先写有特定字符来由机器人以声音、图像或声音和图像的组合的形式提供给儿童;以及机器人,其识别字符板上所写的字符并诱使儿童举起该字符板,从而能根据从该字符板读字符的结果来向该儿童提供声音、图像、行走和运动的至少之一以对这些结果作出反应。在此,机器人包括:输入单元,包括用于在儿童举起字符板时读取该字符板上的字符的字符扫描仪、利用用于感测儿童的体形和声音以及被选择用于教授儿童的教学材料的传感器来输入信号、并输入用于教授儿童的内容、或者在学习期间被儿童直接接触时输入信号;中央处理单元(CPU),确定与通过输入单元输入的信号相对应的动作并控制用于使教授儿童的过程得以进行的元件;数据表,当在CPU中生成相关于儿童的信号输入时提供由CPU调用的控制数据;以及驱动单元,其接收控制信号并驱动机器人的音频单元、视频单元、以及马达以在CPU基于从数据表提供的控制数据传送控制信号时执行学习所需的机器人动作。\n[0021] 该数据表可包括:字符扫描数据表,储存有关字符形状的输入数据以识别写在字符板上的字符;学习数据表,储存利用教学材料使学习得以进行的过程的数据、并且储存在执行该过程时机器人的动作的标准化数据;动作模式数据表,预先储存在学习期间可产生的儿童动作模式、并且储存实时生成并由输入单元观察到的儿童动作模式;对应模式数据表,预先储存与对应于儿童动作模式要执行的机器人动作有关的数据、并且储存当按照与实时生成的儿童动作模式相对应的对应近似值来执行机器人动作时的情景;以及驱动数据表,预先储存用于允许CPU驱动机器人执行这些动作的基本数据。\n[0022] 根据再一方面,本发明提供一种操作利用输出声音和图像并通过驱动马达来执行行走和运动的机器人的交互式学习系统的方法。该方法包括:利用教学材料执行学习过程以使儿童能通过该机器人学习读和词汇;在读教学材料的同时或之后,基于学习数据表的学习数据根据中央处理单元(CPU)的指令通过语音、图像或语音和图像的组合诱使儿童举起写有某字符的字符板;并且如果该儿童举起了字符板,则允许字符扫描仪读取字符板上的字符并向CPU发送读取信号,并且调用来自字符扫描数据表的数据并通过根据CPU指令的机器人动作表达有关该儿童选择的字符的所确定结果。\n[0023] 执行学习可包括:如果输入单元感测到儿童出现并向中央处理单元(CPU)输入出现信号,则诱使儿童响应于根据CPU指令的机器人动作自发向机器人问好以执行问候过程,并通过根据CPU指令的机器人动作向该儿童呈现教学材料以诱使该儿童选择该教学材料;通过输入单元感测该儿童选择的教学材料,由CPU基于所感测数据调用来自学习数据表的学习数据、并允许根据机器人的语音执行读过程以基于该儿童选择的教学材料进行学习;在读教学材料的同时或之后,基于学习数据表的学习数据通过根据CPU指令的机器人动作执行读除读以外的扩展动作;如果学习过程完成,则执行完成动作以通过根据CPU指令的机器人动作通知学习完成;以及当在前述操作之间切换时,执行切换操作以基于储存在数据表中的数据通过根据CPU指令的机器人动作来吸引儿童的注意力。\n[0024] 在执行各个操作时,如果输入单元感测到儿童的预期动作,则CPU可调用来自动作模式数据表的儿童动作模式数据和对应模式数据,并允许机器人通过根据CPU指令的机器人动作对该儿童的预期动作作出反应,并且如果输入单元感测到儿童的非预期动作,则CPU可确定预先设置并输入至动作模式和对应模式数据的近似模式值,且允许执行基于该近似模式值的机器人动作。\n[0025] 执行扩展动作可包括通过在儿童读了儿童举起的字符后使该儿童对应于该字符做动作、或者通过在机器人对应于字符做动作之后诱使儿童跟随机器人的动作,来执行全身反应法(TPR)学习。\n[0026] 有利效果\n[0027] 如上所述,根据本发明的一个实施例,该学习系统采用一教学设计,该教学设计在教育儿童时使用智能机器人以使儿童将机器人视为玩伴,由此通过自然参与来增加学习期间的注意广度并提供更有效的学习。\n[0028] 此外,根据本发明的一个实施例,该学习系统使儿童能基于字符板的游戏模式学习通过身体活动学习语言,由此通过全身反应法(TPR)确保更有效的学习。\n[0029] 附图简述\n[0030] 图1是根据本发明一示例性实施例的交互式学习系统的框图。\n[0031] 图2是根据本发明一示例性实施例的交互式学习系统中的数据表的框图。\n[0032] 图3示出对其应用了图1的交互式学习系统的机器人。\n[0033] 图4是示出图3的机器人的工作状态的表格。\n[0034] 图5示出操作根据本发明一示例性实施例的交互式学习系统的流程图。\n[0035] 图6示出在根据本发明一示例性实施例的交互式学习系统的操作期间儿童通过机器人选择教学材料。\n[0036] 图7是根据本发明另一示例性实施例的交互式学习系统的框图。\n[0037] 图8是根据本发明另一示例性实施例的交互式学习系统中的数据表的框图。\n[0038] 图9是在根据本发明另一示例性实施例的交互式学习系统中的字符板学习操作的流程图。\n[0039] 图10示出根据本发明另一示例性实施例的交互式学习系统中的字符板学习操作。\n[0040] 图11示出图10的学习操作的结果。\n具体实施方式\n[0041] 将参照附图描述本发明的各个示例性实施例。\n[0042] 图1是根据本发明一示例性实施例的交互式学习系统的框图,而图2是根据本发明一示例性实施例的交互式学习系统中的数据表的框图。\n[0043] 参照附图,根据本实施例的交互式学习系统包括输入单元10、中央处理单元(CPU)20、数据表30、以及驱动单元40。该系统具体化为机器人的内部电路。通常,机器人包括:用于输出声音的扬声器1;用于输出图像的监视器2和发光二极管(LED)模块3;以及用于通过驱动马达执行行走和运动的行走单元4和运动单元5。一般而言,行走单元4包括马达、轮子、动力传动系统等,而运动单元5被配置成使用马达(或诸如气缸或类似的动力装置)表达手臂、腿、眨眼等行为。\n[0044] 在图3中,使用运动单元5的机器人包括情绪表达模块、图像合成模块、以及驱动模块。具体而言,这种机器人具有脸、头、手臂以及轮子,它们可如图4所示地用各种方式驱动以实现用于如下所述地驱动行走单元4和运动单元5的基本动作。\n[0045] 特别地,应当理解,头、手臂以及轮子等可由诸如马达的动力装置驱动,而脸部的变化可由以脸部眼睛的形式提供的液晶显示器(LCD)或发光二极管(LED)模块表达。\n[0046] 输入单元10包括传感器11、话筒12、相机15、以及触摸屏16。因而,输入单元10采用相机15来感测使用机器人学习的儿童的体形以及为教授儿童选择的教学材料;采用话筒12来感测儿童的语音;并采用传感器11来感测儿童的进入、离开、运动等。儿童可通过接口单元22输入信号。\n[0047] 输入单元10的各个元件一般在机器人中从头到身体地安装,但为了方便维护起见,所有的元件可被安装在身体中。传感器11包括用于感测儿童的体形、教学材料等的图像传感器、以及用于基于儿童的语音感测声源的位置的立体声话筒。\n[0048] 在附图中,连接至传感器11和话筒12的放大器13和转换器14被配置成将模拟信号放大并将其转换成数字信号。\n[0049] 具体地,触摸屏16允许儿童的监护人或教师输入针对儿童的教学内容,或允许儿童在进行学习时直接触摸和输入信号。\n[0050] CPU 20可包括微计算机、微处理器等以确定动作是否对应于通过输入单元10的信号输入,以及确定是否使教授儿童的过程得以进行。\n[0051] 此外,CPU 20在接收学习数据等时经由通信线访问个人计算机(PC)、因特网或网络,并在更新数据时与通用串行总线(USB)端口(大多数情况下安装在机器人的体内)连接。\n[0052] CPU 20包括诸如存储器、硬盘和紧凑盘(CD)(包括CD播放器)的存储介质21用以储存由机器人执行的整体学习过程和来自外部的新数据输入。\n[0053] 在附图中,接口单元22以能由CPU 20容易处理的形式传送输入单元10的输入数据。\n[0054] 数据表30储存当在CPU 20中生成相关于儿童的信号输入时由CPU 20调用的各种控制数据。\n[0055] 具体而言,数据表30包括学习数据表31、动作模式数据表32、对应模式数据表33、以及驱动数据表34。\n[0056] 学习数据表31储存用教学材料使学习得以进行的过程的数据、并且储存在执行该过程时机器人的动作的标准化数据。\n[0057] 动作模式数据表32预先储存在学习期间可产生的儿童动作模式、并且储存实时生成并由输入单元10的关联元件观察到的儿童动作模式。\n[0058] 对应模式数据表33预先储存与对应于儿童动作模式要执行的机器人动作有关的数据、并且储存当按照对应于实时生成的儿童动作模式的对应近似值来执行机器人动作时的情景。\n[0059] 驱动数据表34预先储存用于允许CPU 20驱动机器人动作的基本数据。\n[0060] 这样,数据表34连同CPU 20起到用于实际处理教育交互的控制器或实际操作处理器的作用。例如,数据表可以是可读可写的存储器、硬盘等等。\n[0061] 当CPU 20基于从数据表提供的控制数据传送控制信号时,驱动单元40接收控制信号并基于该控制信号驱动机器人的音频单元、视频单元和马达,由此使机器人能输出声音和图像或执行行走和运动(下文中称为“机器人动作”)。\n[0062] 在此,机器人所输出的声音和图像可由扬声器1、监视器2和LED模块3实现,而机器人的行走和运动可由行走单元4和运动单元5实现。为此,驱动单元40包括音频驱动器\n41、视频驱动器42、以及马达驱动器43。\n[0063] 根据该实施例,用于操作交互式学习系统的机器人的各个元件具有表1所示的功能。\n[0064] 表1\n[0065] \n[0066] 图5示出操作根据本发明一示例性实施例的交互式学习系统的流程图。\n[0067] 参照图5,在操作S1,学习系统通过输入单元10感测到儿童出现并向CPU 20输入出现信号,以通过根据CPU 20的指令的机器人动作诱使儿童自发向机器人问好,由此执行问候过程。\n[0068] 然后,在操作S2,机器人通过根据CPU 20的指令的机器人动作向该儿童呈现教学材料并且诱使该儿童选择该教学材料。教学材料一般包括诸如图画书等的书籍,并且与书籍的封面、页面等相关的分类数据被预先储存在学习数据表31中以便于由输入单元10的传感器11或相机15标识。\n[0069] 当儿童选择教学材料时,输入单元10通过传感器11、相机15等感测所选择的教学材料,且CPU 20基于所感测数据调用来自学习数据表31的学习数据、并允许在操作S3-S4根据机器人的语音执行读过程以基于该儿童选择的教学材料进行学习。\n[0070] 在读过程期间,儿童读书籍或教学材料,同时观看通过监视器2输出的教学材料内容。读过程可分成操作S3上的基本读过程和操作S4上的仔细读过程,该仔细读过程在执行基本读过程的同时执行重读、一起读、分段读、吐字清楚朗读、以及复述的至少之一。\n[0071] 例如,基本读是用于通过简单模式读教学材料的过程;一起读是当机器人通过扬声器1输出诸如“我们要一起读好吗?”等的声音时执行的;分段读允许难以发音的字符或有益的词汇逐个字符地显示并读;以及吐字清楚朗读是读某个词的同时改变作为图像输出的色调或色彩的过程。具体地,仔细读过程可通过同时或独立地执行这一个或多个过程来实现。\n[0072] 在操作S5,在读教学材料的同时或之后,机器人基于学习数据表31的学习数据通过根据CPU 20的指令的机器人动作执行除读以外的扩展动作。\n[0073] 这些扩展动作可包括通过将字符变成示图来读教学材料内容的过程、将所读字符变成示图的过程、按笔划顺序将所读字符输出为图像的过程、以及如果在读教学材料之后儿童讲述其印象则表达鼓励的过程等。同样,扩展动作过程可通过同时或独立地执行这一个或多个过程来实现。\n[0074] 在操作S6,如果学习过程完成,则机器人执行完成动作以通过根据CPU 20的指令的机器人动作来通知学习完成。该完成动作可引发与前面问候过程一样的告别致辞,或诱使儿童回答有关重复学习过程的问题。\n[0075] 在学习系统的各个操作中,在各操作之间切换时,机器人执行切换操作以基于储存在数据表30中的数据通过根据CPU 20的指令的机器人动作来吸引儿童的注意力。\n[0076] 该切换操作可通过经由扬声器1向儿童输出音乐、或允许儿童观察监视器2上的有趣图像的动作来实现。此外,切换操作可通过引发机器人的行走单元4、运动单元5等执行特定动作来实现。\n[0077] 在学习系统的各个操作中,如果传感器单元11感测到儿童的预期动作,则CPU 20从动作模式数据表32调用儿童动作模式数据和对应模式数据,并允许机器人通过根据CPU \n20的指令的机器人动作对该儿童的预期动作作出反应。\n[0078] 另一方面,如果输入单元10感测到儿童的非预期动作,则CPU 20确定预先设置并输入至动作模式数据和对应模式数据的近似模式值,且允许执行基于该近似模式值的机器人动作。\n[0079] 如由CPU 20确定的,近似模式值相关于儿童的非预期动作最接近动作模式数据表32中的预先输入数据。因而,通过调用与近似模式值相对应的对应模式数据33来执行机器人动作。\n[0080] 具体地,在根据本发明实施例的学习系统的各个操作中,机器人动作可通过执行音频输出、视频输出、以及同时或独立地通过驱动单元40的机器人行走和运动的至少之一实现。\n[0081] 示例1\n[0082] 实现用于评估在上述使用机器人的学习系统的操作中儿童对故事的理解的发展的测试,并且测试结果在表2中示出。\n[0083] 为进行评估,招收四岁儿童并将他们分成评估试验组(针对根据本发明一实施例的学习系统)和对照组(针对使用计算机系统的多媒体型学习系统)。测试在舒适的房间里使用同一本书针对这些儿童进行。\n[0084] 两个青少年教育专家参与这些儿童的学习过程且这些儿童的学习过程被拍摄下来。试验组和对照组的测试结果是通过众所周知的正式测试方法基于统计数据获得的。\n[0085] 表2\n[0086] \n[0087] 注意:每组有17个儿童。\n[0088] *P<.05**P<.001\n[0089] 根据这些结果,试验组和对照组分别在测试后故事理解中具有0.008和0.93的显著性水平(t),这显示了与测试前故事理解相比,只有试验组在故事理解方面大大增强。\n[0090] 示例2\n[0091] 通过与示例1相同的过程,评估孩子编故事的能力的发展,结果在表3中示出。\n[0092] 表3\n[0093] \n[0094] 注意:每组有17个儿童。\n* **\n[0095] P<.05 P<.001\n[0096] 根据这些结果,试验组和对照组分别在测试后编故事能力中具有0.00和1.00的显著性水平(t),这显示了与测试前编故事能力相比,只有试验组在故事编写能力方面大大增强。\n[0097] 示例3\n[0098] 通过与示例1相同的过程,评估孩子读字的能力的发展,结果在表4中示出。\n[0099] 表4\n[0100] \n[0101] 注意:每组有17个儿童。\n[0102] *P<.05**P<.001\n[0103] 根据这些结果,试验组和对照组分别在测试后读字能力中具有0.00和0.11的显著性水平(t),这显示了与测试前读字能力相比,只有试验组在读字能力方面大大增强。\n[0104] 在前面的测试中,使用机器人的学习系统和使用多媒体的学习系统的操作鉴于学习者和各个系统之间的交互来分析,如图5所示。\n[0105] 图5\n[0106] \n 与读有关的交互 智能机器人类型 多媒体类型\n 重复口头导读 0 x\n 重复读 0 0\n 成对读 0 x\n 一起读 0 x\n 读写有印象内容 0 x\n 简单问题 0 0\n 交互式问题 0 x\n 简单反馈 0 x\n 交互式反馈 0 x\n[0107] \n 读由儿重示出的图画书 0 x\n 简单的编故事和个人动作 0 x\n 储存/反馈儿童简档 0 x\n 声音-写组合 0 0\n 其它:遵循简单动作 0 x\n[0108] 参照示例1-3的结果和表5的分析,在故事理解、编故事能力、以及读字能力方面,经历利用机器人学习系统的交互式学习的儿童组优于经历利用经由计算机提供的多媒体的单方学习的儿童组。\n[0109] 对于取决于儿童的词汇能力的编故事能力,在这两种介质的学习效果之间存在很大的差异,并且对照组通过学习没有显著变化。对于编故事能力,利用机器人的交互式学习的学习效率比基于诸如计算机系统等的多媒体的单方学习高得多。因此,通过根据本实施例的系统进行的交互式学习在许多教育机构中都能极为高效地使用。\n[0110] 图7是根据本发明另一示例性实施例的交互式学习系统的框图,而图8是根据本发明另一示例性实施例的交互式学习系统中的数据表的框图。\n[0111] 在下文中,将略去与根据图1所示实施例的交互式学习系统的框图和根据图2所示实施例的交互式学习系统中的数据表的框图相同的描述,且仅将描述其间的差别。\n[0112] 参照图7和8,根据该示例性实施例的交互式学习系统包括字符板L和机器人R。\n[0113] 在字符板L上写了特定字符以由机器人以声音、图像或声音和图像的组合的形式提供给儿童。字符板L由无毒轻材料制成以使儿童容易举起,并且其边角是磨圆的以防止儿童受伤。具体地,字符板L上的背景色彩和所写字符的色彩被设置成能由以下所述的机器人R的字符扫描仪17拍摄或扫描。\n[0114] 机器人R识别写在字符板L上的字符并诱使儿童举起字符板L,从而根据从字符板L读取字符的结果可向儿童提供声音、图像、行走和运动的至少之一,由此对这些结果作出反应。\n[0115] 除了前述功能之外,机器人R包括儿童学习所需的配置,包括输入单元10、中央处理单元20、数据表30以及驱动单元40。\n[0116] 参照图7,相机15不仅执行前述功能,而且执行输入字符板L的字符图像的功能,以使字符扫描仪17能基于字符图像信号读取字符板L上的字符。为此,字符扫描仪17可包括用于识别先前所写字符的视频信号处理器等。\n[0117] 参照图8,数据表30被配置成储存当在CPU 20中生成相关于儿童的信号输入时由CPU 20调用的各种控制数据。\n[0118] 具体而言,数据表30包括字符扫描数据表35、学习数据表31、动作模式数据表32、对应模式数据表33、以及驱动数据表34。\n[0119] 字符扫描数据表35储存有关字符形状的数据以便于识别写在字符板上的字符。\n[0120] 在具有根据该实施例的前述配置的交互式学习系统中,机器人的各个元件具有与表1中的各个元件相同的功能,但差别在于表1的运动控制采用了TPR法,而使用字符板的学习需要对象识别。\n[0121] 操作根据本实施例的交互式学习系统的过程与根据图5所示的前面实施例的相同,且避免对其的重复描述。\n[0122] 图9是在根据本发明另一示例性实施例的交互式学习系统中的字符板学习操作的流程图。此外,表6-9是示出执行字符板学习操作和TPR法的过程的故事顺序表。\n[0123] 表格的第一项是故事的进行顺序,而第二项示出用于使故事进行的场景。此外,第三项是剧情,而第四项示出有关每一场景的剧情的提醒。\n[0124] 表6\n[0125] \n[0126] \n[0127] 表7\n[0128] \n[0129] 表8\n[0130] \n[0131] \n[0132] 表9\n[0133] \n[0134] 参照图9和表6-9,执行字符板学习操作是为了在交互式学习操作期间进一步改学习效率,这种字符板学习操作可在基本读过程、仔细读过程以及扩展读过程中进行。\n[0135] 在操作S10,在读取教学材料之时或之后,CPU 20基于学习数据表31的学习数据通过语音、图像、或语音和图像的组合提供特定字符。\n[0136] 然后,在操作S11,儿童根据所提示字符举起字符板L。\n[0137] 如果儿童举起了字符板L,则在操作S12字符扫描仪17读取字符板L上的字符并向CPU 20传送读取信号。字符板L上的字符的读取可通过在字符扫描仪17中处理由相机\n15输入的视频信号并将其输入至CPU 20来实现。\n[0138] 在接收到该信号后,在操作S13,CPU20调用来自字符扫描数据表35的数据并通过机器人的动作表达有关该儿童选择或写的字符的所确定结果。例如,结果表达可通过驱动机器人的运动单元5改变机器人的表情等连同通过来自机器人的声音或图像的诸如“好极了”或“嗯,不是这个字符。再试一试吧”的表达来实现。\n[0139] 机器人的运动单元5的驱动可根据字符板的识别应用于全身反应法(TPR)学习模型。即,TPR学习模型使机器人响应于在字符板上显示的句子诱使儿童如表6-9地动作,由此改进语言学习效率。\n[0140] 更具体地,如果如图10所示儿童举起了字符板L,则机器人R通过前述过程诱使儿童读该字符并对应于所读字符地动作。\n[0141] 作为用于诱使儿童对应于字符地动作的最有利方法,机器人R通过运动单元5执行对应于字符的动作,从而使儿童跟随它动作。\n[0142] 例如,如图11所示,当儿童举起的字符板L示出“晃动身体”时,机器人R通过前述过程读字符并通过运动单元5执行晃动其身体的动作,以便于诱使儿童跟随该动作,由此实现TPR学习。\n[0143] 根据本实施例操作交互式学习系统的过程与根据图5所示实施例的相同,且在本文中将略去其重复描述。\n[0144] 在本实施例中,其中通过操作使用机器人的学习系统来评估儿童的故事理解能力的发展的示例1、其中通过与示例1相同的过程评估儿童的编故事能力的发展的示例2、其中评估儿童的读字能力的发展的示例3示出与根据表3-5所示的前述实施例的示例1-3相同的结果,由此在此将略去其重复描述。\n[0145] 因此,本实施例的交互式学习系统也利用机器人操作,从而经历了该交互式学习的儿童组在故事理解能力、编故事能力、以及读字能力上优于经历基于诸如计算机系统的多媒体的单方学习的儿童组。对于编故事能力,在两种媒体的学习效果之间存在巨大差异,并且对照组通过学习没有显著改变。\n[0146] 因此,对于取决于儿童词汇能力的编故事能力,使用机器人的该交互式学习的学习效果比基于诸如计算机系统等的多媒体的单方学习高得多。因此,通过根据本实施例的系统的交互式学习可在许多教育机构中极为高效地使用。
法律信息
- 2020-06-23
未缴年费专利权终止
IPC(主分类): G09B 5/06
专利号: ZL 200980125606.5
申请日: 2009.06.26
授权公告日: 2014.04.09
- 2014-04-09
- 2011-08-17
实质审查的生效
IPC(主分类): G09B 5/06
专利申请号: 200980125606.5
申请日: 2009.06.26
- 2011-05-25
引用专利(该专利引用了哪些专利)
序号 | 公开(公告)号 | 公开(公告)日 | 申请日 | 专利名称 | 申请人 |
1
| |
2007-06-06
|
2006-12-15
| | |
2
| |
2005-10-05
|
2005-03-28
| | |
3
| | 暂无 |
2004-02-04
| | |
被引用专利(该专利被哪些专利引用)
序号 | 公开(公告)号 | 公开(公告)日 | 申请日 | 专利名称 | 申请人 | 该专利没有被任何外部专利所引用! |