1.一种感受能力生成方法,它包括如下步骤:
预先保存能至少测定产生感受能力的对象的理智、预定特征以及意向 的各种个人信息;
输入一个声音信号;
根据所输入的声音信号,来分别探测声音的强度以及表示声音出现的 速率的速度;并且探测表示该声音的每个单词产生的强度和频率变化模式 之一的语调,作为时间值;
分别在时间轴方向上,获得表示上述探测到的声音的强度中变化的第 一变化量,表示该声音速度中变化的第二变化量,以及表示该声音语调中 变化的第三变化量;
根据所述第一、第二以及第三变化量来分别产生至少表示愤怒、悲伤 与愉快的情绪状态的信号;
根据表示各个情绪状态的所述信号来生成本能动机信息,该本能动机 信息至少包括表示愉快程度的一个第一本能参数、表示危险程度的一个第 二本能参数以及表示完成及变化程度的第三本能参数;
根据上述生成的本能动机信息来生成情绪信息,该情绪信息至少包括 愉快、愤怒与悲伤的一个基本情绪参数;以及
根据上述个人信息来控制上述生成的情绪信息。
2.一个感受能力发生器,它包括:
一个声音输入单元,用于输入一个声音信号;
一个强度探测单元,用于根据上述声音输入单元输入的声音信号来探 测声音的强度;
速度探测单元,用于根据上述声音输入单元输入的声音信号来探测声 音出现的速率并以此作为速度;
一个语调探测单元,用于根据上述声音输入单元输入的声音信号来探 测表示该声音的一个单词中强度和频率变化模式之一的语调;
一个变化量探测单元,用于分别在时间轴方向上,获得表示上述强度 探测单元探测到的该声音强度中变化的第一变化量,表示上述速度探测单 元探测到的该声音速度中变化的第二变化量,以及表示上述语调探测单元 探测到的该声音语调中变化的第三变化量;
一个情绪探测单元,用于根据所述变化量探测单元探测到的所述第一、 第二以及第三变化量来分别输出至少表示愤怒、悲伤与愉快的情绪状态的 信号;
一个本能测定单元,用于根据上述表示各种情绪状态的信号来生成本 能动机信息,该本能动机信息至少指明表示愉快程度的一个第一本能参数、 表示危险程度的一个第二本能参数以及表示完成及变化程度之一的一个第 三本能参数;
一个情绪生成单元,用于根据由上述本能测定单元输出的本能动机信 息来生成情绪信息,该情绪信息至少包括愉快、愤怒与悲伤的基本情绪参 数;
一个个性信息提供单元,用于提供至少测定生成感受能力的对象的理 智与意向的个性信息;以及
一个情绪控制单元,用于根据上述个性信息提供单元提供的个性信息 来控制从上述情绪生成单元输出的情绪信息。
3.如权利要求2的感受能力发生器,其中上述情绪生成单元包括:
一个生命节奏生成单元,用于生成表示周期性变化的环境与一个生命 的生命节奏这两者中任何一种的信息;以及
一个随意情绪控制单元,用于按照由上述生命节奏生成单元输出的关 于生命节奏的信息来控制上述情绪生成单元中的随意情绪。
4.如权利要求2的感受能力发生器,其中上述情绪生成单元包括:
一个本能-情绪信息保存单元,用于保存使上述基本情绪参数与上述本 能动机信息彼此对应的模式信息;以及
一个匹配概率学习单元,用于输出表示该本能动机信息与上述本能-情 绪信息保存单元的模式信息之间的匹配/失配概率的信息,该本能动机信息 由上述本能测定单元输出。
5.如权利要求2的感受能力发生器,其中上述情绪生成单元包括:
一个情绪反馈控制单元,用于向该情绪生成单元至少输入最终生成的 它自身的情绪信息,并用于使该最终生成的信息影响随后要生成的它自身 的情绪信息。
6.如权利要求2的感受能力发生器,其中上述情绪控制单元使一个生 命节奏信息影响将要输入的情绪信息,该生命节奏是产生感受能力的一位 对象的个性。
7.如权利要求2的感受能力发生器,它还包括:
一个知识数据库,用于储存表示过去情景、过去情节以及该过去情景 与情节的结果的情景信息;
一个知识核对单元,用于从上述知识数据库中检索并提取与新输入的 情景信息类似的过去情景信息,并用于向上述情绪控制单元提供该过去情 景信息;以及
一个数据更新控制单元,用于根据表明新输入的情景与该新情景的结 果的情景信息来更新上述知识数据库的内容,并用于从上述知识数据库中 按照这些内容的权重以时间顺序自动删除低优先级的情景信息。
8.如权利要求2的感受能力发生器,它还包括:
一个声音识别单元,用于识别从上述声音输入单元输入的声音,并用 于输出字符信息;以及
一个自然语言处理单元,用于使由上述声音识别单元识别的有声信息 接受自然语言处理,并用于生成表示该输入的声音的含义的含义信息。
9.如权利要求2的感受能力发生器,其中:
所述语调探测单元可以探测表示至少下列一种的语调:该声音的重音、 节奏、速度、音阶、音程、音调以及和弦的变化模式。
1、本发明的领域\n本发明涉及一种情绪探测方法、一种感受能力生成方法、实现这些方 法的系统以及软件。本发明的情绪探测方法可以被用于医疗领域的情绪探 测,而且可以用于各种系统作为人工智能与人工感受能力的一部分。而且, 本发明的一种感受能力生成方法可以被用于以多种方法来控制虚拟人与机 器人的感受能力的各种系统。\n2、相关技术说明\n举例来说,与本发明的情绪探测方法相关的传统技术公布于《日本专 利申请公开公报》(Japanese Unexamined Patent Application Publication)的 Nos.Hei5-12023、Hei9-22296与Hei11-119791。\n《日本专利申请公开公报》No.Hei5-12023公布,声音的延续时间、声 音的共振频率以及每个频率的声音强度都分别作为该声音的特征量而加以 探测。而且,这一公报也公布了探测参考信号与各个特征量之间的一个差 值,并根据该探测到的差值采用模糊推理来探测情绪。\n《日本专利申请公开公报》No.Hei9-22296公布,声音的生成速率(单 位时间的短音节数)、声音的纵向平面振动频率、音量以及声音频谱都作 为该声音的特征量而加以探测。而且,这一公报也公布了根据该探测到的 特征量以及由统计处理HMM(隐式马尔可夫模型)获得的结果来探测情绪。\n《日本专利申请公开公报》No.Hei11-119791公布了利用HMM根据声 音转变状态中的音素频谱的概率来探测情绪。\n另一方面,作为与本发明的感受能力(sensibility)生成方法相关的传统技 术,可以举《日本专利申请公开公报》No.Hei11-265239中公布的“情绪生 成系统与情绪生成方法”(“Emotion Generating System and Emotion Generation Method”)为例。\n表达人们内在状态等等的情绪根据当时的情景会有各种变化。《日本 专利申请公开公报》No.Hei11-265239公布了生成不可预测情景中的情绪的 技术。\n具体来讲,应考虑到可以预测的情景来评价各种情景,并生成系统自 身的情绪。另外,要分析过去实际生成的情绪以及当时的情景,并学习对 各种情景特殊的不可预测的间接条件以及与此相应的情绪。当一个新输入 的情景满足这些间接条件时,就输出与这些间接条件对应的情绪。\n举例来说,由这样一个系统生成的情绪状态会影响到输出的声音与图 像。\n本发明的概要\n然而,该传统情绪探测方法探测情绪的精度很低,即使它能够对特别 限定的语言探测情绪,也不能准确探测一个人的实际情绪。所以该情绪探 测方法只对有限的应用场合才能得到实际使用,譬如说,比较简单的博弈 机器。\n本发明的一个目的是提供一种能够准确探测作为一个对象(subject)的 一个人的情绪的情绪探测方法。\n而且,该传统情绪探测方法只是直接根据与输入情景有关的信息来生 成情绪。对实际的人,包括本能、理智、个性等等在内的各种参数彼此之 间会产生复杂的影响,结果使行动、言语、表情等发生变化。该传统情绪 生成方法不能使这种本能、理智、个性等等影响这些结果。\n本能与情绪可以被看作情感作用。此外,本能成了它的情绪生成的基 本生物情感作用与动机。而且,一般认为人们并不直接输出情绪,但是他 们输出由该理智与个性控制的感受能力。\n本发明的另一个目的是提供一种能够输出类似于一个人的感受能力的 感受能力生成方法。\n根据本发明的一个第一方面,探测对象的情绪的一种情绪探测方法包 括如下步骤:输入一个声音信号;根据该输入声音来分别探测该声音的强 度、表示该声音出现速率的速度以及表示该声音构成的每个单词的强度变 化模式的语调;分别获得该探测到的声音的强度中、该声音的速度中以及 该声音的语调中的变化量;以及根据这些获得的变化量来分别生成表示至 少包括愤怒、悲伤与愉快的情绪状态的信号。\n在本发明的该第一方面,通过使从该对象输入的声音的强度、速度及 语调中的各个变化量分别与包括愤怒、悲伤与愉快的情绪状态相符来探测 情绪。采用这样一种方法,能够比该传统技术更准确地探测情绪。\n根据本发明的一个第二方面,探测对象的情绪的情绪探测系统包括: 一个声音输入单元,用于输入声音信号;一个强度探测单元,用于根据该 声音输入单元输入的声音信号来探测该声音的强度;速度探测单元,用于 根据该声音输入单元输入的声音信号来探测该声音出现的速率并以此作为 速度;一个语调探测单元,用于根据该声音输入单元输入的声音信号来探 测表示该声音的一个单词内强度变化模式的语调;一个变化量探测单元, 用于分别获得该强度探测单元探测到的声音强度中、该速度探测单元探测 到的声音速度中以及该语调探测单元探测到的声音语调中的变化量;以及 一个情绪探测单元,用于根据该变化量探测单元探测到的变化量来分别输 出表示至少包括愤怒、悲伤与愉快的情绪状态的信号。\n在本发明的该第二方面的情绪探测系统中,提供了该声音输入单元、 该强度探测单元、该速度探测单元、该语调探测单元、该变化量探测单元 以及该情绪探测单元,因此能够执行前述的情绪探测方法。\n根据本方面的一个第三方面,本发明该第二方面的情绪探测系统中的 语调探测单元包括:一个带通滤波器,用于从对每个单词分离输入的声音 信号中提取特定的频率分量;一个区域分离单元,用于将由该带通滤波器 提取的信号的功率频谱根据该功率频谱的强度分离为许多区域;以及一个 语调计算单元,用于根据由该区域分离单元分离出的该许多区域的各自中 心之间的时间间隔来计算一个语调值。\n该带通滤波器单元从对每个单词分离输入的声音信号中提取这些特定 的频率分量。该区域分离单元将该探测到的功率频谱根据它们的强度分离 为许多区域。该语调计算单元根据由该区域分离单元分离出的许多区域的 各自中心之间的时间间隔来计算该语调的数值。\n在本发明的该第三方面,单词中与该声音的这些特定频率分量有关的 一个能量分布模式被探测出来作为表示这许多区域的间隔的一个时间值, 而且该时间的长度被用来作为该语调。\n根据本发明的一个第四方面,本发明该第二方面的情绪探测系统还包 括:一个成像单元,用于接受与至少该对象的一个面部有关的图像信息; 一个图像识别单元,用于根据由该成像单元接受到的图像信息来探测与该 面部每个部分有关的位置信息;一个图像参考信息保存单元,用于保存与 该面部每个部分的特征量有关的参考信息;以及一个图像特征量探测单元, 用于根据由该图像识别单元探测到的位置信息以及由该图像参考信息保存 单元保存的参考信息来探测一个图像特征量。该情绪探测单元按照由该图 像特征量探测单元探测到的图像特征量中的变化来估计一个情绪状态。\n在本发明的该第四方面,除了该声音以外,还根据该对象面部的表情 来估计该情绪状态。通常,由于人们的情绪状态影响他们面部的表情,所 以能够通过探测他们的面部表情来捕捉这些情绪状态。因此,在本发明的 该第四方面中,该情绪探测单元根据由该图像特征量探测单元探测到的图 像特征量的变化来估计该情绪状态。\n根据本发明的一个第五方面,本发明该第二方面的情绪探测系统还包 括:一个情绪信息存储单元,用于接连不断地接受与由该情绪探测单元探 测到的这些情绪状态有关的各种信息,并用于在其中储存这各种信息;以 及一个遗忘处理单元,用于从与过去储存在该情绪信息存储单元中的情绪 状态有关的各种信息中删除自该信息当初被储存以来已经储存了预定时期 的信息,并用于从要被删除的信息中至少排除说明情绪变化量大于预定量 的信息以及符合预定变化模式的信息。\n在本发明的该第五方面,能够将与这些探测到的过去情绪状态有关的 信息储存到该情绪信息存储单元。而且,由于自被探测以来已经储存了很 长时期的旧信息会被自动从该情绪信息存储单元中删除,所以能够减少该 情绪信息存储单元所需要的存储容量。\n然而,典型信息,譬如说明情绪变化量大于该预定量的信息以及符合 该预定变化模式的信息,会被自动从需要删除的信息中排除。所以,即使 该典型信息已经变得陈旧,它们也会按原样保存在该情绪信息存储单元之 中。因此,与一个人的记忆相似,将来也许有用的典型信息即使已经变得 陈旧,也可以从该情绪信息存储单元中读出以便重现。\n根据本发明的一个第六方面,本发明该第五方面的情绪探测系统还包 括:一个语句识别单元,用于通过处理与该对象说出的声音或与该对象输 入的字符有关的信息来进行语法分析,并用来生成表达一个语句的含义的 言语信息;以及一个存储器控制单元,用于按照与涉及这些情绪状态的信 息同步的方式来储存由该情绪信息存储单元中的语句识别单元生成的言语 信息。\n该语句识别单元处理与该对象发出的声音或与该对象用一个键盘或类 似设备输入的字符有关的信息,并进行语法分析来生成表达该语句含义的 言语信息。\n举例来说,该语法分析能够获得表达“5W3H”的言语信息,即“Who (何人)”、“What(何事)”、“When(何时)”、“Where(何地)”、 “Why(何因)”、“How(多么)”、“How long,How far,How tall and so on(多长、多远、多高等等)”以及“How much(多少)”。\n该存储器控制单元在该言语信息与涉及这些情绪状态的信息同步的状 态下,储存由该情绪信息存储单元中的语句识别单元生成的言语信息。\n在本发明的该第六方面,通过查阅该情绪信息存储单元,不仅可以取 出与过去任何时刻的情绪有关的信息,而且可以取出表示该时刻情景的言 语信息。\n该情绪信息存储单元中保存的信息可以被应用于各种使用场合。举例 来说,如果该情绪探测系统本身的情绪估计功能不准确,就可以根据该情 绪信息存储单元中保存的过去探测结果来校正一个用来估计该情绪的数据 库。\n根据本发明的一个第七方面,本发明该第二方面的情绪探测系统还包 括:一个无声时间测定单元,用于根据探测到的情绪状态中的情绪状态来 测定一个参考无声时间;以及一个语句分段探测单元,用于通过利用由该 无声时间测定单元测定的参考无声时间来探测该声音语句的一个分段。\n在执行该声音识别与情绪探测时,必须对每个语句探测该分段,而且 必须提取每个语句。一般来说,由于在这些语句之间的分段中存在一个无 声部分,所以许多语句可以在这些无声部分出现时刻加以分离。\n然而,这些无声部分的长度并不是不变的。特别是,该无声部分的长 度随一个说话人的情绪状态而变化。所以,在为了测定该无声部分而分配 阈限时,探测该语句分段的失败可能性也变大。\n在本发明的该第七方面,举例来说,该参考无声时间根据在该测定前 刚刚探测到的情绪状态来测定,而且该声音语句的分段按照该参考无声时 间来探测。所以,即使在该说话人情绪变化时也能够正确探测该语句的分 段。\n根据本发明的一个第八方面,软件包括了由一台计算机执行的、用于 探测一位对象的情绪的一个情绪探测程序,其中该情绪探测程序包括如下 步骤:一个将声音信号输入到该情绪探测程序的步骤;一个根据该输入声 音信号探测该声音的强度、表示该声音出现速率的速度以及表示该声音构 成的每个单词中强度变化模式的语调的步骤;一个获得已被探测到的声音 强度、声音速度与声音语调中每一项的变化量的步骤;以及一个根据所获 得的变化量来生成至少表示愤怒、悲伤与愉快的情绪状态的信号的步骤。\n用一台计算机执行本发明该第八方面的软件中所包括的情绪探测程序 就能够实现本发明该第一方面的情绪探测方法。\n根据本发明的一个第九方面,一个感受能力生成方法包括如下步骤: 预先保存至少决定产生感受能力的一个对象的理智、预定特征以及意向的 各种个性信息;根据一个表明伙伴的情绪的状态或者该伙伴所处的环境的 输入情景信息来生成本能动机信息,该本能动机信息至少包括表示愉快程 度的一个第一本能参数、表示愤怒程度的一个第二本能参数与表示完成 (achievement)及变化程度的一个第三本能参数;根据该生成的本能动机信息 来生成情绪信息,该情绪信息包括至少愉快、愤怒与悲伤的一个基本情绪 参数;以及根据该个性信息来控制该生成的情绪信息。\n在本发明的该第九方面,激发情绪产生的本能动机信息根据该输入情 景信息(该伙伴的情绪、意向与状况)生成。具体地讲,该本能动机信息 从该情景信息生成,而该情绪信息根据该本能动机信息生成。而且,将要 生成的情绪信息根据该个性信息加以控制。所以,能够输出由该个人的理 智与意向控制的情绪,即感受能力信息。\n此外,由于该情绪信息通过该本能动机信息生成,所以能够更准确、 更容易地控制将要生成的情绪。\n譬如说,当一个人在已经认识到危险情景的状态中遇到该危险情景时 产生的情绪与该人在未认识到危险情景的状态中突然遇到该危险情景时产 生的情绪是完全不同的。复现这些情绪中的这样一种差别是可能的。\n最好使该本能参数除了前述各项外还包括一个注意程度(拒绝程度)、 一个确定性程度(迷惑程度)、一个追踪程度(自信程度)等等。而且, 最好使构成情绪信息的基本情绪参数除了前述各项外还包括惊讶、恐惧、 痛苦、厌恶、轻视、趋近、逃避、忌妒、羡慕、依赖、激怒、焦虑等等。\n根据本发明的一个第十方面,一个感受能力发生器包括:一个本能测 定单元,用于输入表明伙伴的情绪状态、该伙伴所处的环境与该伙伴的意 向的情节情景信息,并用于根据该情节情景信息来生成本能动机信息,该 本能动机信息至少包括表示愉快程度的一个第一本能参数、表示危险程度 的一个第二本能参数与表示完成及变化程度的一个第三本能参数;一个情 绪生成单元,用于根据由该本能测定单元输出的本能动机信息来生成情绪 信息,该情绪信息包括至少愉快、愤怒与悲伤的基本情绪参数;一个个性 信息提供单元,用于提供至少决定产生感受能力的一位对象的理智与意向 的个性信息;以及一个情绪控制单元,用于根据该个性信息提供单元提供 的个性信息来控制由该情绪生成单元输出的情绪信息。\n在本发明的感受能力发生器的该第十方面,能够通过提供本能测定单 元、情绪生成单元、个性信息提供单元以及情绪控制单元来执行如本发明 第九方面的感受能力生成方法。\n所以,能够输出由个人的理智与意向控制的情绪,就是说,关于感受 能力的信息。而且,由于情绪信息通过本能动机信息生成,所以能够更准 确、更容易地控制将要产生的情绪。\n根据本发明的一个第十一方面,本发明该第十方面的情绪生成单元包 括:一个生命节奏生成单元,用于生成表示周期变化的环境或者一个生命 的生命节奏的信息;以及一个随意情绪控制单元,用于按照该生命节奏生 成单元输出的生命节奏信息来控制该情绪生成单元中的随意情绪。\n举例来说,自然环境状况(譬如温度与湿度)周期性变化,尽管不太 规则,但随天气、季节、时间等的变化同时发生。而且人们认为,每个人 都独特地具有一个身体节奏、一个情绪节奏、一个智力节奏等等。这种周 期性变化的节奏被认为对人们的实际情绪有各种各样的影响。\n在本方面的该第十一方面,该随意情绪控制单元按照该生命节奏生成 单元输出的生命节奏信息来控制该情绪生成单元中的随意情绪。所以,要 被输出的情绪可以按照该环境或者按照该生命的生命节奏来变化。\n根据本发明的一个第十二方面,本发明该第十方面的感受能力发生器 中的情绪生成单元包括:一个本能-情绪信息保存单元,用于保存使该基本 情绪参数与该本能动机信息互相对应的模式信息;以及一个匹配概率学习 单元,用于输出表示该本能动机信息与该本能-情绪信息保存单元中的模式 信息间的匹配/失配概率的信息,该本能动机信息从该本能测定单元输出。\n在本发明的该第十二方面,可以获得该本能动机信息与来自该匹配概 率学习单元的模式信息间的匹配概率以便利用它作为该情绪的一个测定因 素。\n举例来说,一个人的精神状况从第一状态变化到第二状态时,该精神 状况经由过程中的一个第三状态从该第一状态过渡到该第二状态。所以, 存在在该精神状况暂时符合该第三状态中的模式信息的可能性。然而,该 第三状态中符合该精神状况的模式信息并不具有一个高的利用率。通过利 用该匹配概率学习单元获得的匹配概率,就可抑制具有低概率的模式信息 的情绪的生成。\n根据本发明的一个第十三方面,本发明该第十方面的感受能力发生器 中的情绪生成单元包括一个情绪反馈控制单元,用于向该情绪生成单元至 少输入最终生成的它自身情绪信息,并用于使该最终生成的信息影响随后 将要生成的它的自身情绪信息。\n人们认为,输入不同的动机会导致一个人的情绪发生连锁变化。举例 来说,给一个处于正常状态的人一个动机使他愤怒时产生的愤怒程度与给 一个已经愤怒的人一个动机使他更愤怒时产生的愤怒程度彼此会有很大的 不同。\n在本发明的该第十三方面,该情绪反馈控制单元的提供使该反馈前生 成的情绪状态被送回到输入,并使该情绪状态影响随后将要产生的情绪。 所以,能够产生与一个人的情绪更接近的情绪。\n根据本发明的一个第十四方面,本发明该第十方面的感受能力发生器 具有这样一个特点,即该情绪控制单元使一个生命节奏信息影响要被输入 的情绪信息,而该生命节奏正是产生感受能力的一位对象的个性。\n在本发明的该第十四方面,该生命节奏的信息可以影响该感受能力。 譬如说,根据一个人是否愿意作某件事,在由理智等作出的决定结果中会 出现差别。该感受能力中的这种差别可以由该生命节奏的影响来复现。\n根据本发明的一个第十五方面,本发明该第十方面的感受能力发生器 还包括:一个知识数据库,用于储存表示过去情景、过去情节以及该过去 情景与情节的结果的情景信息;一个知识核对单元,用于从该知识数据库 中检索并提取与新输入的情景信息类似的过去情景信息,并用于向该情绪 控制单元提供该过去情景信息;以及一个数据更新控制单元,用于根据表 示一个新输入的情景与该新情景的结果的情景信息来修改该知识数据库的 内容,并用于从该知识数据库中按照这些内容的权重以时间顺序自动删除 低优先级的情景信息。\n在本发明的该第十五方面,表示该过去情景及其结果的情景信息被储 存到该知识数据库。譬如说,储存表示情节的一个情景以及储存该情节的 一个最终结果是否成功的信息。所以,可以从该知识数据库中获得与该当 前情景类似的过去情景信息以便用来控制该情绪。\n附带地说,新生成的信息必须随着时间的流逝被接连不断地添加到该 知识数据库。然而,构成该知识数据库的一个系统的存储器容量是有限的。 而且,当储存的信息量增加时,处理速度下降。\n但是在本发明的该第十五方面,低优先级的情景信息会在该数据更新 控制单元的控制下被自动从该知识数据库中按照时间顺序删除。所以,可 以实现与一个人的遗忘相类似的结果,而且可以防止该存储器容量的不足 与该处理速度的下降。\n根据本发明的一个第十六方面,本发明该第十方面的感受能力发生器 还包括:一个声音输入单元,用于输入一个声音信号;一个强度探测单元, 用于根据该声音输入单元输入的声音信号来探测该声音的强度;速度探测 单元,用于根据该声音输入单元输入的声音信号来探测该声音出现的速率 并以此作为速度;一个语调探测单元,用于根据该声音输入单元输入的声 音信号来探测表示该声音的一个单词中强度变化模式的语调;一个变化量 探测单元,用于分别获得该强度探测单元探测到的声音强度中、该速度探 测单元探测到的声音速度中与该语调探测单元探测到的声音语调中的变化 量;以及一个情绪探测单元,用于根据该变化量探测单元探测到的变化量 来分别输出至少表示愤怒、悲伤与愉快的情绪状态的信号。\n在本发明的该第十六方面,该伙伴的情绪状态可以根据从该声音提取 的特征量来探测。所以,可以按照该伙伴的情绪来生成自身情绪。\n根据本发明的一个第十七方面,本发明该第十六方面的感受能力发生 器包括:一个声音识别单元,用于识别从该声音输入单元输入的声音,并 用于输出字符信息;以及一个自然言语处理单元,用于使由该声音识别单 元识别的有声信息接受自然言语处理,并用来生成表达该输入的声音的含 义的含义信息。\n在本发明的该第十七方面,获得了与该伙伴所说单词有关的含义信息, 所以通过理解该含义信息所得的一个结果就能影响该自身感受能力。\n根据本发明的一个第十八方面,软件包括了能够由一台计算机执行的、 用于感受能力生成控制的一个程序与数据,其中该程序包括:一个根据表 明伙伴的情绪的状态或者该伙伴所处的环境的一个输入情景信息来生成本 能动机信息的步骤,该本能动机信息至少包括表示愉快程度的一个第一本 能参数、表示危险程度的一个第二本能参数以及表示完成或变化程度的一 个第三本能参数;一个根据该生成的本能动机信息来生成情绪信息的步骤, 该情绪信息包括至少愉快、愤怒与悲伤的一个基本情绪参数;一个提供个 性信息的步骤,该个性信息至少决定产生感受能力的一位对象的理智与意 向;以及一个根据该个性信息来控制该生成的情绪信息的步骤。\n本发明的该第十八方面的软件被输入到执行该程序的一台预定计算 机,从而实现本发明该第九方面的感受能力生成方法。\n例图的简单说明\n结合所附例图一道阅读下面的详细说明,那么本发明的性质、原理与 效用就会变得显而易见。在这些例图中,相同的部件用完全一样的参考数 码表示,其中:\n图1是说明实施例的一个情绪探测系统的结构的一幅方框图;\n图2是说明语调探测单元的结构的一幅示意图;\n图3是一幅坐标图,它说明一个情绪状态变化与声音的强度、速度与语 调之间的关系;\n图4是说明该语调探测单元中声音信号处理过程的时间曲线图。\n图5是说明一个遗忘处理单元的运行过程的一幅流程图;\n图6是一幅示意图,它说明一个情绪及感受能力存储器DB中储存的信息 的配置示例;\n图7是一幅方框图,它表示采用一个感受能力发生器的系统的配置示 例;\n图8是说明一个本能信息生成单元的配置的一幅方框图;\n图9是说明一个情绪信息生成单元的一幅方框图;\n图10是一幅示意图,表示一个情绪反应模式DB中反应模式模型的一个 示例;以及\n图11是说明一个感受能力及思想识别单元的配置的一幅方框图。\n优选实施例\n(第一实施例)\n下面将参考图1至图6来说明与本发明的一种情绪探测方法有关的一个 实施例。\n图1是一幅方框图,它表示这个实施例的一个情绪探测系统的配置。图 2是说明一个语调探测单元的一幅方框图。图3是一幅坐标图,它说明一个 情绪状态的变化与声音的强度、速度与语调之间的关系。图4是一幅时间关 系曲线图,它说明在该语调探测单元内声音信号处理的各个过程。图5是说 明遗忘处理单元的一个运行过程的一幅流程图。图6是一幅示意图,它表示 情绪及感受能力存储器DB中储存的信息的一个配置示例。\n参看图1,该情绪探测系统包括:一个麦克风11;一个A/D转换器12; 一个信号处理单元13;一个声音识别单元20;一个强度探测单元17;速度 探测单元18;一个语调探测单元19;一个临时数据存储器单元21;一个情 绪变化探测单元22;一个声音情绪探测单元23;一个情绪模式数据库(下 文称为DB)24;一个键盘25;一个语句识别单元26;一台电视摄像机31; 一个图像识别单元32;一个面部模式DB 33;一个面部情绪探测单元34;一 个字符识别单元39;一个情绪及感受能力存储器DB 41;一个遗忘处理单元 42;一个同步处理单元43;一个人性信息DB 44;一个个性信息DB 45;一 个职业信息DB 46;以及一个情绪识别单元60。\n而且,在声音识别单元20中提供了一个信号处理单元13;一个音素探 测单元14;一个单词探测单元15;以及一个语句探测单元16。声音识别单 元20还包括商店出售的声音识别(自然言语处理)设备的功能。\n在图1中,声音识别单元20、强度探测单元17、速度探测单元18、语调 探测单元19、临时数据存储器单元21、情绪变化探测单元22以及声音情绪 探测单元23都是从声音来探测情绪的电路。\n该情绪探测系统包括麦克风11、键盘25与电视摄像机31来作为读取一 个人的信息的输入单元,这个人是为其探测情绪的一位伙伴。具体地讲, 这个人(即该伙伴)的情绪利用从麦克风11输入的一个声音、从键盘25输 入的字符信息以及从电视摄像机31输入的包括面部表情的信息等加以探 测。\n注意,该情绪也可以只根据从麦克风11输入的声音、从键盘25输入的 字符信息或者从电视摄像机31输入的面部表情中的一种来探测。但是,从 改进该情绪的探测精度的观点来看,综合地判断从这多个信息源获得的信 息更加有效。\n首先描述与该声音有关的处理。从麦克风11输入的一个声音信号经A/D 转换器12采样,然后被转换为一个数字信号。在A/D转换器12的输出端获得 的该声音的数字信号被输入到声音识别单元20。\n信号处理单元13提取该声音的强度探测所必须的频率分量。强度探测 单元17从信号处理单元13提取的信号来探测强度。譬如说,对该声音信号 的振幅的幅值取平均值所得的结果可以被用作该强度。\n举例来说,探测该声音强度的一个平均周期被设置为大约10秒。注意, 如果在平均周期小于10秒的情况下探测各个语句的分段,那么就对从该语 句开始至探测到该分段的时间段取平均值。准确地讲,要对每个语句探测 该声音的强度。\n声音识别单元20中提供的音素探测单元14探测对输入到其中的声音的 每个因素的分段。举例来说,当由“kyou wa ii tenki desun”(日语)表示 的语句被以声音的形式输入时,就会探测出对每个音素的分段,如 “kyo/u/wa/i/i/te/n/ki/de/su/ne”(日语)。\n声音识别单元20中提供的单词探测单元15探测对输入到其中的声音的 每个单词的分段。举例来说,当由“kyou wa ii tenki desun”(日语)表示 的语句被以声音的形式输入时,就会探测出对每个单词的分段,如 “kyou/wa/ii/tenki/desune”(日语)。\n声音识别单元20中提供的语句探测单元16探测对输入到其中的声音的 每个语句的分段。在探测到具有特定长度或更长的无声状态时,就认为出 现了对每个语句的分段。对该无声状态长度的一个阈限值分配了一个大约 0.1至0.2秒的值。而且,这个阈限值不是不变的,这个阈限值被自动改变以 使它反映刚刚探测到的一个情绪状态。\n速度探测单元18接受由音素探测单元14输出的对每个音素分段的信 号,并探测在单位时间内出现的音素数量。对于该速度的一个探测周期, 举例来说,大约分配一个10秒的时间。但是,在探测该语句的分段时,即 使在10秒之内探测该语句分段,也要停止音素数量的计数,直至探测到该 语句分段的时刻为止,而且要计算该速度的一个值。准确地讲,应对每个 语句探测速度。\n来自A/D转换器12的数字信号对由单词探测单元15探测分段的每个单 词进行划分,而且该声音信号被输入到语调探测单元19。从输入到语调探 测单元19的声音信号中,语调探测单元19探测表示每个单词中以及语句探 测单元16内每个语句分段中的声音强度变化模式的语调。从而,语调探测 单元19探测该分段中的特征强度模式。\n如图2所示,在语调探测单元19中提供一个带通滤波器51、一个绝对值 转换单元52、一个比较单元53、一个区域中心探测单元54以及一个区域间 隔探测单元55。语调探测单元19的各个输入与输出端的信号SG1、SG2、SG3 与SG4的波形示例见图4。注意,图4中每个信号的纵坐标表示振幅或强度。 而且,在图4的示例中,从该声音中取出的一个单词的长度大约为1.2秒。\n带通滤波器51只从向其输入的信号SG1中提取语调探测所必须的频率 分量。在这个实施例中,只有频率在800至1200Hz范围内的频率分量作为信 号SG2出现在带通滤波器的输出端。参看图4可以发现,由该单词的语调所 引起的强度变化模式出现在信号SG2中。\n为了简化该信号的计算处理,在语调探测单元19中提供了绝对值转换 单元52。绝对值转换单元52将该输入信号的振幅转换为它的绝对值。所以, 图4所示的信号SG3出现在绝对值转换单元52的一个输出端。\n比较单元53将信号SG3的幅值与该阈限值加以比较,而且只输出大于该 阈限值的分量作为信号SG4。准确地讲,比较单元53只输出信号SG3的功率 频谱中数值大的分量。加到比较单元53的阈限值由被称为决策分析方法的 方法来近似确定。\n参看图4,与该声音的该单词中的语调模式对应的两个区域A1与A2出 现在信号SG4中。区域中心探测单元54探测时间t1与t2,与两个区域A1与A2 的各自中心对应的位置就出现在这两个时间。\n区域间隔探测单元55探测与由区域中心探测单元54探测到的两个时间 t1与t2有关的一个时间差,以此作为一个区域间隔Ty。这个区域间隔Ty的值 对应于该声音的该单词中的语调模式。实际上,对各个区域间隔Ty的值取 平均值所得的一个结果被用作该语调的一个值。\n简而言之,在SG4中也许出现3个或更多区域。如果出现3个或更多区域, 就要对每两个彼此相邻的区域分别计算区域间隔Ty,对这多个所得区域间 隔Ty取平均值而获得的一个结果就被用作该语调的值。\n举例来说,一个人的情绪状态如图3所示变化。而且,为了正确掌握包 括愤怒、悲伤与愉快等在内的情绪,就不可避免地要探测特征量的变化, 譬如强度、速度与语调。\n在图1所示的情绪探测系统中,为了能够查询过去的特征量,由强度探 测单元17输出的强度值、由速度探测单元18输出的速度值以及由语调探测 单元19输出的语调值均被临时储存在临时数据存储器单元21中。\n而且,情绪变化探测单元22接受由强度探测单元17输出的当前强度值、 由速度探测单元18输出的当前速度值以及由语调探测单元19输出的当前语 调值。情绪变化探测单元22也接受临时数据存储器单元21中储存的过去(该 当前时间不久之前)的强度、速度与语调值。所以,情绪变化探测单元22 探测该情绪状态的变化。具体地讲,情绪变化探测单元22分别探测该声音 的强度、速度与语调中的变化。\n声音情绪探测单元23接受由情绪变化探测单元22输出的强度、速度与 语调中的变化,而且估计该当前的情绪状态。在这个实施例中,声音情绪 探测单元23估计包括愤怒、悲伤与愉快在内的3种状态来作为该情绪状态。\n以前储存在情绪模式DB 24中的是使愤怒状态与该声音中的强度、速度 与语调变化的模式相关的信息,使悲伤状态与该声音中的强度、速度与语 调变化的模式相关的信息以及使愉快状态与该声音中的强度、速度与语调 变化的模式相关的信息。\n声音情绪探测单元23根据由情绪变化探测单元22输出的强度变化、速 度变化与语调变化的模式,并参考情绪模式DB 24中保存的信息作为估计规 则来估计该情绪的当前值。\n已经由声音情绪探测单元23估计的表示包括愤怒、悲伤与愉快在内的3 类状态的信息被输入到情绪识别单元60以及情绪及感受能力存储器DB 41。 情绪及感受能力存储器DB 41接连不断地接受并储存从声音情绪探测单元 23输入的情绪的当前状态。\n所以,读出情绪及感受能力存储器DB 41中储存的信息就可以复现该情 绪的过去状态。\n同时,作为一个声音从麦克风11输入的语句内容(该伙伴的讲话内容) 由语句识别单元26加以识别。与声音识别单元20识别出的各个音素对应的 字符信息以及表示该单词分段与语句分段的信息被输入到语句识别单元 26。而且,从键盘25输入的字符信息也被输入到语句识别单元26。\n语句识别单元26对每个单词识别一个输入字符串并作为一种自然言语 来分析它的语法以便掌握该语句的内容。实际上,语句识别单元26识别表 示“5W3H”的言语信息,即“何人”、“何事”、“何时”、“何地”、 “何因”、“多么”、“多长、多远、多高等等”以及“多少”。由语句 识别单元26识别的言语信息被输入到情绪识别单元60。\n下面将描述根据该伙伴面部的表情来探测情绪的处理过程。电视摄像 机31至少摄制作为图1的情绪探测系统的对象的那个人的一个面部。由电视 摄像机31摄制的图像(即包括该人面部表情的一个图像)被输入到图像识 别单元32。\n注意,电视摄像机31所摄图像的信息被输入到字符识别单元39。具体 地讲,当一个语句的图像被电视摄像机31摄制时,字符识别单元39从一个 摄制图像识别该语句的各个字符。由字符识别单元39识别的字符信息被输 入到语句识别单元26。\n图像识别单元32从该输入图像识别特征要素。具体地讲,图像识别单 元32识别该对象面部的眼睛、嘴巴、眉毛、颊骨各个部分,并探测该面部 的眼睛、嘴巴、眉毛、颊骨的各个相对位置。而且,图像识别单元32始终 跟踪眼睛、嘴巴、眉毛、颊骨的各个位置,以便随着面部表情的变化来探 测它们的各自位置变化,并探测表情,譬如摇头。\n与该面孔上的眼睛、嘴巴、眉毛、颊骨的各自位置的参考位置有关的 信息(相当于该对象在正常状态时的面部表情)被预先储存在面部模式DB 33中。注意,面部模式DB 33中的内容也可以任意改变。而且,表示该面部 表情变化与6类情绪(愉快、愤怒、悲伤、恐惧、快乐与惊讶)的对应关系 的规则信息被预先储存在面部模式DB 33中。\n面部情绪探测单元34探测根据与由图像识别单元32识别的眼睛、嘴巴、 眉毛与颊骨的各个位置有关的信息以及储存在面部模式DB 33中的参考位 置来探测该表情的特征量,即它们与正常状态的特征量之差。\n而且,面部情绪探测单元34根据探测到的特征量的变化量与速率,并 根据面部模式DB 33中保存的规则信息来估计6类情绪(愉快、愤怒、悲伤、 恐惧、快乐与惊讶)的各自状态。表示该6类情绪的估计状态的信息由面部 情绪探测单元34输出,并被输入到情绪识别单元60以及情绪及感受能力存 储器DB 41。\n情绪识别单元60综合测定从声音情绪探测单元23输入的表示情绪状态 (愤怒、悲伤或愉快)的信息、从语句识别单元26输入的言语信息以及从 面部情绪探测单元34输入的表示情绪状态(愉快、愤怒、悲伤、恐惧、快 乐或惊讶)的信息。然后,情绪识别单元60估计该情绪的最终状态。至于 该言语信息,其中包括的情绪状态(愉快、愤怒、悲伤、恐惧、快乐或惊 讶)可以通过按照预定规则测定该讲话中的语句的内容(5W3H)来加以估 计。\n表示由声音情绪探测单元23根据该声音所估计的情绪状态的信息、与 语句识别单元26根据该声音或键盘25输入的字符所识别的言语内容有关的 信息、以及表示面部情绪识别单元34从面部表情所估计的情绪状态的信息 被分别输入到情绪及感受能力存储器DB 41,并被接连不断地储存在其中。 情绪及感受能力存储器DB 41中储存的各部分信息的探测时间及日期被添 加到该信息之中。\n在输入到情绪及感受能力存储器DB 41的信息中,与从声音情绪探测单 元23输入的情绪有关的信息、与从语句识别单元26输入的言语内容有关的 信息以及与从面部情绪探测单元34输入的情绪有关的信息必须彼此关联地 加以掌握。\n所以,同步处理单元43将储存在情绪及感受能力存储器DB 41中的多种 类型信息按照这些信息被探测的时间(输入时间)及日期彼此关联。譬如 说,表示已经由声音情绪探测单元23加以估计的包括愤怒、悲伤与愉快的 情绪状态的信息以及与言语内容(5W3H)有关的信息均按它们的时刻来彼 此关联,如图6所示。\n附带地讲,情绪及感受能力存储器DB 41包括能够储存较大量信息的一 个足够的存储容量。但是,由于存在对该存储容量的限制,因此,为了长 期不间断地使用这个系统就必须限制要在其中储存的信息量。\n所以,提供了遗忘处理单元42。遗忘处理单元42从情绪及感受能力存 储器DB 41中自动删除旧信息。然而,适合于特定条件的信息不被删除,即 使变得陈旧也要储存。\n遗忘处理单元42的一个运行过程将参考图5加以描述。\n在图5的步骤S11中,对于储存在情绪及感受能力存储器DB 41中的大量 数据中的每一个,要查询与每个数据被储存(或探测)的时间与日期有关 的信息。\n在步骤S12,根据当前时间与步骤S11中提到的时间来辨别自从该相关 数据被储存以来,是否已经过去了一段预定的时间。如果处理自储存时刻 以来已经储存了一段时间的旧数据,那么该处理进入步骤S13及以后的流 程。还没有被储存某段时间的较新的数据则继续按原样储存。\n在步骤S13,如果该数据是表示该情绪状态的信息,那么就检查该信息 的变化量(一个事件前、后的情绪差别)。由于在该情绪变化量超过预定 阈限值时该处理从步骤S13跳至S17,所以即使该数据是旧数据也按会原样 储存。如果该情绪的变化量等于/小于该阈限值,那么该处理从步骤S13进入 S14。\n在步骤S14,探测与该数据有关的情绪模式,并辨别该相关模式是否与 预定的特别模式相符。具体地讲,是检查这些情绪状态与言语内容的多种 组合是否与特殊的、表示“给人强烈印象”的状态相符。由于在该探测到 的模式与该特定模式相符时该处理从步骤S14跳至S17,所以即使该数据陈 旧也会按原样储存。如果这些模式并不彼此相符,该处理就从步骤S14进入 S15。\n在步骤S15,如果该数据是言语内容,那么就辨别这些内容是否与预定 的言语内容(给人重要印象的言语)相符。即使两个内容彼此不完全相符, 但如果两者之间的相似性很高,它们也就被当作相符看待。由于在该相关 数据的言语内容与该预定言语内容相符时该处理从步骤S15跳至S17,所以 即使该数据陈旧也会按原样储存。\n如果在步骤S15中这两个内容彼此不相符,该相关数据就会在步骤S16 中被删除。\n该上述处理对情绪及感受能力存储器DB 41中的所有数据进行。而且图 5所示的遗忘处理被周期地重复进行。该遗忘处理的一个执行周期可以随个 人的个性而任意改变。注意,该处理在步骤S14与S15中通过查询以前准备 的模式DB(未画)来执行。对于这个模式DB,其中的内容会通过学习输入 到其中的信息而被自动修改。\n图5表示简化的处理过程。实际上,情绪变化量、情绪模式与言语内容 全部都要加以综合测定。准确地讲,如果存在情绪变化量很大的信息、情 绪模式与该特定模式相符的信息以及言语内容与该预定言语内容相同或类 似的信息,那么就要综合确定它们的优先级。具体地讲,言语内容与该预 定言语内容相同或类似的信息被赋予最高优先级,情绪模式与该特定模式 相符的信息被赋予第二高优先级,而情绪变化量大的信息则被赋予最低优 先级。所以,在该遗忘处理中,言语内容与该预定言语内容相同或类似的 信息不大可能被删除,即使它变得陈旧也会作为记忆而保留。\n对于情绪及感受能力存储器DB 41中的旧数据,只有情绪变化量大的数 据、其模式被认为“给人强烈印象”的数据、被多次重复输入的数据以及 其言语内容给人以重要印象的数据才会按照它们的强度与内容被赋予优先 级,并按照遗忘处理单元42中的上述处理按原样储存。所以,情绪及感受 能力存储器DB 41中的旧数据就成为只有一部分被保留在其中的不完整数 据。这种数据的内容类似于人类记忆中的过去的含糊不清的记忆。\n一直储存在情绪及感受能力存储器DB 41中的这些过去的情绪状态与 过去的言语内容可以被读出以便进行数据分析,从而,举例来说,能够测 定该情绪探测系统是否正常运行,并能够修改用于估计情绪的各个单元的 数据库以便改进其中的内容。\n储存在情绪及感受能力存储器DB 41中的数据还进一步按照它们的内 容进行分配,并被储存到人性信息DB 44、个性信息DB 45或职业信息DB 46。\n在人性信息DB 44中,储存有定义该对象特征的信息(譬如性别、年龄、 攻击性、合作性与当前情绪)以及与一个行动的决策模式有关的信息。在 个性信息DB 45中,储存的信息为个人地址、当前状况、当前环境以及言语 内容(5W3H)。在职业信息DB 46中,储存的信息为职业、职业生涯、职 业能力与职业行为决策模式。\n从人性信息DB 44、个性信息DB 45与职业信息DB 46输出的是个人的 道德模式信息。该伙伴的感受能力可以根据该伙伴的道德模式信息以及过 去情绪来理解。\n如果图1所示的情绪探测系统的功能用一台计算机的软件来实现,那么 只要将由该计算机执行的程序以及必要的数据预先录制在一个记录媒体 (譬如一个CD-ROM)上就符合要求。\n注意,图1所示的麦克风11可以用一个电话接收器来代替,也可以提供 一个鼠标来作为用于输入信息(譬如字符)的单元。\n而且,图1所示的电视摄像机31也可以用各种成像单元中的任何一种来 代替,譬如一部光学摄像机、一部数字摄像机以及一部CCD摄像机。\n采用上述情绪探测方法可以比传统方法更准确地探测该对象的情绪。\n(第二实施例)\n下面参看图7至图11来描述与本发明的一种感受能力生成方法有关的 实施例。\n图7是一幅方框图,它表示采用一个感受能力发生器的系统的一个配置 示例。图8是说明本能信息生成单元的配置的一幅方框图。图9是说明一个 情绪信息生成单元的一幅方框图。图10是一幅示意图,它表示一个情绪反 应模式DB中反应模式模型的一个示例。图11是说明一个感受能力及思想识 别单元的配置的一幅方框图。\n图7所示系统的设计是假定随便一个人与一台计算机(虚拟人)之间可 以实现自然与敏感的对话。在这个示例中提供了一个情绪探测系统200以便 探测将作为该计算机的伙伴的那个人的情绪,以及一个感受能力发生器100 以便使该计算本身的个性及感受能力影响该对话。\n而且,提供一个环境信息输入设备300以便将各种环境信息输入到感受 能力发生器100。举例来说,环境信息输入设备300输出与日期、时间、天 气、场所与图像有关的信息。\n感受能力发生器100也可以被用于一个独立运行的系统。譬如,如果将 与从前产生的场景有关的信息输入感受能力发生器100,那么从感受能力发 生器100的输出就可以获得符合该场景的反应。在这种情况下不需要情绪探 测系统200。\n尽管在图7示例中感受能力发生器100的输出连接了实现该对话所需的 多种设备,但感受能力发生器100输出的感受能力数据可用于各种目的。\n譬如,在数据通信中利用感受能力发生器100的情况下,由于能够满意 地输出字符信息,所以不需要输出一个声音。而且,感受能力发生器100输 出的感受能力数据也可以影响图像、音乐、信息检索与机器控制。\n下面将描述感受能力发生器100的结构与运行。由于在这个实施例中假 设情绪探测系统200与已经描述过的图1所示的情绪探测系统完全相同, 所以这里省略它的说明。\n实际上,图7所示系统可以由一个计算机系统与一个在其中被执行的软 件程序构成,或者可以作为一个专用硬件来实现。而且,要被使用的软件 程序与数据可以预先储存在任何一个记录媒体之中,并可以从该记录媒体 读入计算机以便执行。注意,图7所示系统本身在下文说明中被称为一台计 算机。\n粗略地划分,输入到感受能力发生器100输入端的有两类数据,即数据 D1与数据D2。数据D1是表示该伙伴情绪的信息。数据D2是已经接受自然语 言处理的字符信息,它包括与该伙伴的意向、状况及环境有关的信息。通 过自然语言处理,数据D2被作为表示“5W3H”的信息输入,即“何人”、 “何事”、“何时”、“何地”、“何因”、“多么”、“多长、多远、 多高等等”以及“多少”。\n实际上,能够利用下面所列的各种信息来作为感受能力发生器100的输 入。\n(A)涉及时间属性的发声的变化模式,包括重音、节奏、速度、停顿、 音阶、音程、音调、和声、频率等等;以及基本情绪(愤怒、愉快、悲伤、 厌恶、惊讶、恐惧等等)的程度。\n(B)与涉及声调属性的发声有关的信息,包括口音、低沉、密集、机 敏、刺耳、音色(JIS-Z8109)、共振、语调、使一段口语的部分对阐明含 义非常重要的显著性等等。\n(C)单词、片段内容、语句中的重音分布、超分段特征信息,由人工 智能生成的特征信息,这些都涉及重音的性质。\n(D)经过对话分析的文本信息、情节信息(包括含义信息与由人工智 能识别的信息)等等。\n在这些信息中,信息(A)与信息(B)受一位说话人的意图与情绪影 响。这种情绪可以由情绪探测系统200加以探测。\n如图7所示,感受能力发生器100包括一个本能信息生成单元110、一个 度量模式DB 121、一个本能语言定义词典122、一个情绪信息生成单元130、 一个情绪反应模式DB 141、一个临时存储器DB 142、一个感受能力及思想 识别单元150、一个知识DB 161、一个感受能力DB 162、一个个人DB 163 以及一个道德危险DB 164。\n感受能力发生器100的功能可以基本划分为3个功能要素:本能信息生 成单元110、情绪信息生成单元130与感受能力及思想识别单元150。首先描 述本能信息生成单元110。\n如图8所示,本能信息生成单元110包括一个度量模式匹配识别单元 111、一个本能参数生成单元112与一个词典检索单元113。\n输入到该计算机(虚拟人)的一个度量模式词典被预先储存在受度量 模式匹配识别单元111查询的度量模式DB 121中。该尺度是一个讲话的节奏 要素,它代表对一个音节、一个单词、一个短语、一个语句以及整个讲话 (比一个单词长的连续声音)出现的语音及音韵特征。具体地讲,与输入 信息(A)与(B)相当的该计算机本身的模式信息被作为个人信息储存在 度量模式DB 121中。\n度量模式匹配识别单元111将从情绪探测系统200输入的伙伴情绪分析 数据D1与储存在度量模式DB 121中的度量模式加以比较,并识别两者的同 步与匹配程度。表示存在一个强烈音调与情绪变化的信息会出现在度量模 式匹配识别单元111的输出端。\n同时,与本能刺激有关的信息被预先记录在本能语言定义词典122中。 相反,表示一个单词或一个语句中的重音分布模式与超分段特征的、涉及 重音性质的各种信息被储存为一个与该本能刺激有关的词典。\n词典检索单元113将作为字符信息来输入的数据D2(一位伙伴的意向与 状况)与本能语言定义词典122的内容加以比较,并从一段对话的内容来产 生本能反应信息。\n本能参数生成单元112根据由度量模式匹配识别单元111输入的信息、 由词典检索单元113输入的信息以及数据D3来产生本能动机信息D4。数据 D3是从感受能力发生器100的输出端反馈的信息,它拥有该计算机提议的情 节与希望反应模式。\n在这个示例中,本能动机信息D4包括6个本能参数:一个确定性程度(或 迷惑程度)、一个愉快程度(或不愉快程度)、一个危险程度(或安全程 度)、一个注意程度(或拒绝程度)、一个完成程度(或变化程度)以及 一个追踪程度(或自信程度)。本能参数生成单元112以下述方法决定各个 本能参数的数值。\n愉快程度(不愉快程度):当该计算机接近建议的内容或一个希望的 情景情节时,愉快程度增加,否则程度降低。而且,当该计算机接近一个 预定为愉快的尺度时,愉快程度增加,否则降低。\n危险程度(安全程度):当该计算机接近事先被认为是危险的内容或 一个被假设为危险的情景情节时,危险程度增加,否则降低。而且,当该 计算机接近一个预定为危险的尺度时,危险程度增加,否则降低。\n完成程度(变化程度):当该计算机接近被预定为成功/实现的内容或 一个被事先假设为成功/实现的情景情节时,完成程度增加,否则降低。而 且,当该计算机接近一个被认为是彻底调整的特定尺度时,完成程度增加, 否则降低。\n注意程度(拒绝程度):当该计算机接近被事先当作拒绝/否定的内容 或一个被事先假设为拒绝/否定的情景情节时,拒绝程度增加(注意程度降 低),否则降低(增加)。而且,当该计算机探测到一个强烈或反复的自 信或接近一个强烈的尺度时,注意程度增加。如果该计算机接近一个被确 定为不愉快的尺度,那么拒绝程度增加。\n追踪程度(自信程度):当该计算机接近被预定为自卑/自我牺牲的内 容以及一个被事先假设为自卑/自我牺牲的情景情节时,追踪程度增加(自 信程度降低),否则降低(增加)。如果出现被事先确定为良好的内容, 则自信程度增加(追踪程度降低)。而且,如果出现一个被预定为不确定 的尺度,自信程度增加。注意,如果该计算机接近一个强烈的尺度,那么 排斥程度或自我牺牲的程度有时会增加。\n确定性程度(迷惑程度):当该计算机接近迷惑的内容以及一个事先 假设的情景情节时,在与本能有关的各种刺激(输入)的识别率很低(譬 如70%或更低)的情况下,迷惑程度与该识别率程反比。该识别率由一个对 话的声音音调与内容来测定。\n为了实现上述控制,该计算机所希望的内容以及情景情节的尺度要事 先作为个性加以测定。如上所述,该伙伴的情绪信息刺激该计算机的个人 本能,从而改变各个本能参数的数值。\n由本能信息生成单元110输出的本能动机信息D4被输入到情绪信息生 成单元130。下面将描述情绪信息生成单元130。\n如图9所示,情绪信息生成单元130包括一个反应模式检索单元134、一 个学习处理单元135、一个多变量分析单元136、一个随意情绪控制单元137 以及一个基本情绪参数生成单元133。\n反应模式检索单元134、学习处理单元135与情绪反应模式DB 141构成 了一个应答系统131。多变量分析单元136与随意情绪控制单元137构成一个 操作系统132。\n提供应答系统131的目的是为了生成由刺激感应引起的情绪。提供操作 系统132的目的是为了输出随意情绪(力比多(libido))。\n涉及代表该本能动机信息D4与该基本情绪参数之间对应关系的一个反 应模式模型的信息被事先储存在情绪反应模式DB 141中以供应答系统131 使用。举例来说,这个反应模式模型可以如图10所示。\n在由一台计算机有选择性地复现许多人的人格的情况下,各个反应模 式模型被预先记录在情绪反应模式DB 141中,其中每个反应模式模型都对 应于这许多人中的一个或一类个性,一个反应模式模型可以按照该被选人 的个性选择。\n在这个示例中,采用了被作为本能动机信息D4来输入的上述6个本能参 数,它们是:确定性程度(迷惑程度)、愉快程度(不愉快程度)、危险 程度(安全程度)、注意程度(拒绝程度)、完成程度(变化程度)与追 踪程度(自信程度)。\n如下15类参数被用来作为从情绪信息生成单元130输出的基本情绪参 数。括号内的术语表示受该基本情绪参数影响的本能参数。\n1.愤怒(不愉快)\n2.快乐/快活(愉快)\n3.悲伤(未完成/停滞/不愉快)\n4.惊讶(完成/冲击)\n5.恐惧(危险/紧张)\n6.痛苦(危险/紧张/不愉快)\n7.厌恶(抵制/拒绝/不愉快)\n8.轻视(抵制/软弱)\n9.趋近(愉快/安全)\n10.逃避/回避(危险/紧张/不愉快)\n11.忌妒(不愉快/愤怒/羡慕/注意)\n12.肯定(安全/愉快/确定性)\n13.依赖(完成/追踪)\n14.激怒/冲突(自信/停滞/不愉快/危险)\n15.焦虑(危险/紧张/迷惑/不愉快)\n代表15类基本情绪参数中的每一种与一个或多个基本情绪参数的关系 的反应模式被储存在情绪反应模式DB 141中。\n反应模式检索单元134检索情绪反应模式DB 141中的基本情绪参数的 反应模式,检查它们与该输入的本能动机信息D4的匹配/失配情况,并输出 该相符的基本情绪参数的信息作为数据D6。\n学习处理单元135根据感受能力及思想识别单元150输出的信息D3以及 反应模式检索单元134输出的该伙伴的下一个反应情绪来学习关于模式匹 配方法的概率,并按照该学习的结果来改变情绪反应模式DB 141中的内容。\n同时,环境信息(D2)(譬如说包括天气信息、季节信息、时间信息 等)则被输入到操作系统132的输入端。多变量分析单元136对各种输入的 环境信息(D2)进行多变量分析,从而输出生命节奏信息。\n在该生命节奏信息中,存在具有常数周期的规则(正弦波形)节奏, 譬如短周期节奏(如1小时周期)、一个生命节奏(如24小时周期)、一个 情绪长周期节奏(如28天周期)、一个身体长周期节奏(如23天周期)与 一个智力节奏(如33天周期),还存在不规则的节奏,譬如温度、湿度与 天气。\n随意情绪控制单元137按照一个预定范围内的概率输出多变量分析单 元136输出的生命节奏信息中的随意情绪(力比多)。\n基本情绪参数生成单元133输出通过综合测定与应答系统131输出的基 本情绪参数和匹配率以及操作系统132输出的随意情绪有关的信息所得到 的一个结果,以此作为自身情绪D5。在这种情况下,该结果是由这15类基 本情绪参数构成的信息。\n而且,该输出的自身情绪信息D5被临时储存在临时存储器DB 142中, 并被反馈到基本情绪参数生成单元133的输入端。基本情绪参数生成单元 133接受从临时存储器DB 142反馈的信息作为上一时刻的自身情绪,并使它 影响下一时刻的情绪测定结果。\n当基本情绪参数生成单元133进行综合测定时,它就按照作为个性信息 143确定的个性来决定各个单元的影响优先级与程度。\n举例来说,在复现一个脉冲型情绪时,应答系统131的影响程度增加 (80%或以上),刚才的自身情绪的影响也增加。在复现一个思想型情绪时, 应答系统131的影响程度降低(30%或以下),刚才的自身情绪的影响在操 作系统132的输出稳定的环境中也降低。\n从情绪信息生成单元130输出的自身情绪D5被输入到感受能力及思想 识别单元150。如图11所示,情绪信息生成单元130包括一个加权处理单元 151、一个核对处理单元152、一个多变量分析单元153、一个综合启发决策 单元154与一个修改处理单元156。\n加权单元151按照个性信息155对输入的自身情绪信息D5加权。加权后 的自身情绪信息再从加权处理单元151输出。\n同时,包括代表伙伴所处环境与状况的一个情节并包括该伙伴的意向 及其结果的字符信息(5W3H)被作为数据D2输入到核对处理单元152的输 入端。\n该过去情节、它的结果与表示它们含义的含义信息以字符信息(5W3H) 的形式被作为知识储存到知识DB 161供核对处理单元152查询。而且,知识 DB 161中的各种知识包括获得各数据的时间信息,并按照这些时间的顺序 加以排列。\n在这个示例中,知识DB 161中的各种知识可以被分类为一个长期存储 器、一个陈述存储器与一个程序存储器。该陈述存储器是一个按单词储存 的存储器,代表作为一个特定时间/空间语境中的事件的情节信息与作为普 通知识的含义信息。该程序存储器代表关于方法或技术的存储器。\n该情节信息包括时间、地点、内容、意向(赞成、反对、支持等等)、 人员、数量、权重、情景、状态、伙伴的私人信息、情感作用、意图(目 标)、态度、个人关系等等。该含义信息相当于语言词典与感受能力词典。 设想作为私人信息的有脾气、性格、社会适应性(社交能力)、愿望、冲 突、态度、优越感、情结、兴趣、正确性、道德、思想模式、情绪特征、 坚持内容(及其程度)、忌语、品味、善/恶标准等等。\n在这个示例中,知识信息按照下面将要说明的语法被储存在知识DB 161中,但是,该数据库的构成内容因客体而异。\nStory=Scene+Plot+Solution(故事=场景+剧情+解决方案)\nScene=Character+Place+Time(场景=人物+地点+时间)\nTheme=(Event)+Target(主题=(事件)+目标)\nPlot=Episode(剧情=情节)\nEpisode=Lower target+Attempt+Result(情节=较低目标+企图+结果)\nAttempt=Event+Episode(企图=事件+情节)\nResult=Event+State(结果=事件+状态)\nSolution=Event+State(解决方案=事件+状态)\nLower target,Target=Desirable state(较低目标、目标=希望的状态)\nCharacter,Place,Time=State(人物、地点、时间=状态)\n而且,新信息通过修改处理单元156的运行被继续不断地添加到知识DB 161。再者,不需要的信息通过重复执行遗忘处理被自动从该知识中删除。 具体地讲,除了具有较高优先级的数据外,该数据被继续不断地按照时间 基准从变旧的知识中删除。譬如说,反复使用的知识与被认定具有强烈印 象的数据被赋予优先级,即使它们变旧,也不会被删除。各个数据的遗忘 程度与优先级可以按照该个性来改变。\n核对处理单元152根据输入的数据D2从知识DB 161中检索与提取与输 入数据D2接近的过去情节及其结果。然后,核对处理单元152用该提取的知 识来核对该输入数据。\n一个学习处理系统157通过学习根据该输入情节的结果来生成与一个 人对该输入情节的自身价值概念有关的信息。具体地讲,学习处理单元157 根据该输入情节的结果定出满意、愉快及不愉快的程度。\n多变量分析单元153对如下信息进行多变量分析:从加权处理单元151 输入的加权情绪信息;从核对处理单元152输入的情节信息与结果信息;从 学习处理单元157输入的、与一个人自身的价值概念有关的信息以及从个人 DB 163输入的、与一个人自身的意向与本能有关的信息。然后,多变量分 析单元153向综合启发决策单元154输出该分析结果。\n综合启发决策单元154利用个人DB 163与道德危险DB 164的内容作为 一个测定词典来综合测定从多变量分析单元153输入的信息,并输出要被随 意执行的内容及其一个结果作为数据D3。\n下面将要描述的各种信息被作为词典信息储存在个人DB 163中。\n1.个性信息\n(a)按照每类个性的程度的测定准则:设想的类型有刻板型、面向他 人型、面向内部型、面向传统型、面向进攻型、面向合作型、应激打击型、 应激释放型等等。完成动机程度与对抗程度也可以被用作测定准则。\n(b)认知风格的测定准则:按照“反射型”与“冲动型”的差别以及 “场依赖型”与“场独立型”的差别来区分认知风格被定义为测定准则。\n(c)按照性格的测定准则:对日本人,由个性测试方法与TPI(Todai 个性调查表)分类的如下项目被用作测定准则。这些分类项目为:脾气、 性格、情绪性、社会适应性(社交能力)、愿望、冲突、态度、情结、兴 趣、正确性、道德、思想模式、情绪特性、坚持内容(及其程度)、忌语、 品味、善恶标准、羞耻标准、罪过标准、愉快与不快的标准等等。\n(d)否定/偏见的测定准则:对否定信息加一个偏见以便大量掌握相同 的否定信息,然后它们就可以被用来形成一个性格。\n(e)追随/坚持时间的测定准则:确定对伙伴的认知信息、情节与情绪 信息的坚持程度以及对它的反应响应时间。\n2.本我/无意识反应参考信息:\n(a)单词词典与子句词典,每个词典都具有刺激本能的内容。\n(b)对每个个人的坚持程度、追随程度与坦率程度的各种本能反应时 间的参考值。\n(c)作为个性决定的、与一个伙伴的情绪对应的自我本能模式。\n3.自我平衡(压抑)的参考信息:试图维持整个本能输出协调稳定的 测定准则。\n4.自我意识反应参考时间:按照个性代表一个人自身意向的测定准则 信息。\n而且,包括在该测定词典中的有:用于识别测定与鉴别测定的信息, 譬如真实/虚假、正确/不正确、适当/不适当;用于本能测定的信息,譬如愉 快/不愉快;用于对象个人认知测定的信息,譬如复杂性、权系数等等;用 于对象间相对认知测定的信息,譬如等同、大小、差别与相似;用于元存 储器测定的信息,譬如记忆的可靠性程度与知识的准确性;用于抽象测定 的信息,譬如真理、美德、爱等等;用于归纳测定的信息;等等。\n关于职业道德、个人道德、基本道德等的词典信息被储存在道德危险 DB 164中。\n譬如说,作为职业道德,可以记录“作为一个建筑师,我要求一个完 整的计算”、“我最优先考虑我的工作”、“我为我是一个专业人员而自 豪”等等。而且,作为个人道德,可以记录“我为我的故乡而骄傲”、“我 为我是日本人而骄傲”等等。而作为基本道德,可以记录“杀人是坏事”、 “我细心照顾我的父母”、“我是一个男人(女人)”等等。\n综合启发决策单元154分析由情绪信息生成单元130、加权处理单元 151、核对处理单元152以及多变量分析单元153生成的与自身情绪有关的信 息。然后,综合启发决策单元154根据代表该计算机个性与意向的个人DB 163中的测定词典以及根据道德危险DB 164中的测定词典来抑制该经过分 析的、与自身情绪有关的信息。随后,综合启发决策单元154决定要输出什 么、那一种以及多少自身情绪反应(感受能力)。在这种决策情况下,就 会反映一个伙伴所在的环境与情景以及该伙伴当时的意向。\n感受能力及思想识别单元150包括下述功能。\n1、在探测一个强烈印象、词汇或根本情绪变化时,一个测定周期按照 该个性来改变。譬如说,在突然大声表明一个强硬内容时,该测定周期就 缩短。\n2、在对一个人自己的、取决于该个性的生物节奏作出响应时,根据一 个人是否愿意作某件事,感受能力测定的实现会有很大不同。\n3、按照一个人自身的愉快/不愉快与情绪量来实现不同的感受能力测 定。\n4、按照知识DB 161中的知识对表示当前情景的信息进行合理的价值判 断,反映该情绪的判断结果的影响,并从而决定最终意向。\n5、在进行价值判断时,该判断根据社会价值、职业价值、日常生活价 值、个人价值等等各种观点来进行。而且,要对这些社会价值、职业价值、 日常生活价值与个人价值中的每一种更详细地加以区分并作出判断。譬如 说,对于社会价值,要从宗教、美学、社会、政治、经济与伦理的各种观 点来计算价值。\n6、要对各种因素进行价值判断,譬如以满意/不满意、得失/利益、安 全/危险等等作为该意向决策的判断资料。举例来说,在进行关于安全的价 值判断时,判断应以如下方法进行。\n(a)当一个第三者对自身施加“不愉快”时,就会产生关于敌对情绪 的价值与一个防卫反应。\n(b)当自身对该第三者施加“不愉快”时,就会产生关于敌对情绪的 价值与一个进攻反应。\n(c)当他人要对该第三者施加“不愉快”,而自身要站在该第三者一 边时,就会产生关于支持情绪的价值与一个合作进攻反应。\n7、该生成的价值信息被储存到感受能力DB 162,并被用作此后的判断 资料。\n注意,由于感受能力及思想识别单元150包括与人类似的各种学习功 能,所以个人DB 163与感受能力DB 162中的内容会通过建立经验而继续不 断地被修改。\n由于感受能力及思想识别单元150输出基于数字值(譬如各种价值)的 综合测定结果,所以它不像人工智能那样进行逻辑推理或测定。准确地讲, 从感受能力及思想识别单元150输出的数据D3是由该计算机本身的启发测 定功能所获得的感受能力信息。\n如前所述,在本发明的感受能力生成方法中,作为产生该情绪的动机 的本能动机信息根据该输入的情景信息(伙伴的情绪、周围环境等等)产 生,而情绪信息则根据该本能动机信息产生。而且,该生成的情绪信息按 照该个性信息加以控制。\n所以,它可以输出由该个性的理智与意向控制的情绪,即感受能力。 而且,由于该情绪信息通过该本能动机信息产生,所以能够更准确、更容 易地控制该生成的情绪。\n符合本发明的该情绪探测方法可以被用于医疗领域的情绪探测,也可 以在各种系统中被用作人工智能或人工感受能力的一部分。而且,对一个 虚拟人或机器人的感受能力控制,本发明的感受能力生成方法可以在各种 系统中被用于各种目的。此外,可以通过组合本发明的情绪探测方法与感 受能力生成方法来构造包含一台计算机与一个人之间的对话功能的各种系 统。\n本发明并不限于上述实施例,可以作出各种修改而不偏离本发明的精 神与范围。对部分或所有部件均可以作出任何改进。\n本发明的背景
法律信息
- 2021-09-21
专利权有效期届满
IPC(主分类): G06F 3/16
专利号: ZL 01815455.7
申请日: 2001.09.04
授权公告日: 2008.02.20
- 2014-06-11
专利实施许可合同备案的生效
IPC(主分类): G06F 3/16
合同备案号: 2013990000856
专利号: ZL 01815455.7
申请日: 2001.09.04
让与人: 光吉俊二、株式会社AGI
受让人: PST株式会社
发明名称: 感受能力生成器及其方法
申请公布日: 2003.11.12
授权公告日: 2008.02.20
许可种类: 独占许可
备案日期: 2013.12.17
- 2012-12-26
专利权的转移
登记生效日: 2012.11.26
专利权人由株式会社A·G·I变更为株式会社AGI
地址由日本东京变更为日本东京都
- 2008-02-20
- 2003-11-12
引用专利(该专利引用了哪些专利)
序号 | 公开(公告)号 | 公开(公告)日 | 申请日 | 专利名称 | 申请人 |
1
| | 暂无 |
1999-08-06
| | |
被引用专利(该专利被哪些专利引用)
序号 | 公开(公告)号 | 公开(公告)日 | 申请日 | 专利名称 | 申请人 | 该专利没有被任何外部专利所引用! |