JP2002073634A - Device for processing behavioral pattern - Google Patents

Device for processing behavioral pattern

Info

Publication number
JP2002073634A
JP2002073634A JP2000269170A JP2000269170A JP2002073634A JP 2002073634 A JP2002073634 A JP 2002073634A JP 2000269170 A JP2000269170 A JP 2000269170A JP 2000269170 A JP2000269170 A JP 2000269170A JP 2002073634 A JP2002073634 A JP 2002073634A
Authority
JP
Japan
Prior art keywords
user
feature
data
emotion
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2000269170A
Other languages
Japanese (ja)
Inventor
Koichi Sato
幸一 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpine Electronics Inc
Original Assignee
Alpine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpine Electronics Inc filed Critical Alpine Electronics Inc
Priority to JP2000269170A priority Critical patent/JP2002073634A/en
Publication of JP2002073634A publication Critical patent/JP2002073634A/en
Withdrawn legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a behavioral pattern processor capable of proposing a behavioral pattern obtained by taking the feelings of a user into consideration. SOLUTION: A characteristic association processing part 34 stores characteristic data obtained by making respective pieces of information which are respectively outputted from an image characteristic extracting part 12, a timing information extracting part 18, a music characteristic extracting part 22, a location information extracting part 28, a room temperature information extracting part 32 correspond to the feelings information of the user, outputted from a feelings recognizing device 14 in a characteristic DB 36. An inclination extraction processing part 38 acquires the respective pieces of the information outputted from the part 12, etc., and the feelings information outputted from the device 14, extracts the characteristic data showing a similar behavioral pattern by collating these information with the characteristic data stored in the DB 36 and retrieves movement contents that do not coincide or are omitted. A movement contents setting part 40 sets movement contents to be proposed to the user on the basis of movement contents retrieved by the processing part 38.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、利用者が希望する
行動パターンの提案を行う行動パターン処理装置に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a behavior pattern processing apparatus for proposing a behavior pattern desired by a user.

【0002】[0002]

【従来の技術】近年、各種のセンサを利用した各種の動
物型ロボットが話題になっている。これらの動物型ロボ
ットは、利用者の日常の行動パターンや会話パターンを
学習しながら応答内容が変化するようにプログラミング
されており、利用者があたかも動物型ロボットをペット
として育てるような感覚を楽しむことができるようにな
っている。
2. Description of the Related Art In recent years, various animal-type robots using various sensors have been attracting attention. These animal-type robots are programmed so that the response content changes while learning the user's daily behavior patterns and conversation patterns, so that the user can enjoy the feeling of raising an animal-type robot as a pet. Is available.

【0003】[0003]

【発明が解決しようとする課題】ところで、上述した動
物型ロボットは、利用者が実際に行った行動(例えば、
「撫でる」、「話しかける」等の行動)を各種のセンサ
を用いて検出して、対応する反応行動を行うことはでき
るが、利用者が希望する行動パターンを予測して、対応
する反応行動を行うことはできなかった。
By the way, the above-mentioned animal-type robot has a behavior (for example,
"Stroking,""talking," etc.) can be detected by using various sensors, and the corresponding reaction behavior can be performed. Could not do.

【0004】また、従来の動物型ロボットは、利用者の
感情や個性を考慮した反応行動を採ることができなかっ
た。しかし、実際のペットの反応行動を考えると、人の
機嫌の悪いときには顔色をうかがうような表情をした
り、人が笑顔で接しているときにはそれに応じようとし
て興奮したりするものであり、人の感情や個性を考慮せ
ずに自然な反応行動を採ることはできない。
[0004] Further, the conventional animal-type robot cannot take a reactive action in consideration of the emotion and personality of the user. However, considering the reaction behavior of actual pets, when a person is in a bad mood, he looks like a complexion, and when a person is smiling and touching, he gets excited to respond to it. You cannot take a natural reaction without considering emotions and personalities.

【0005】また、動物型ロボットに限らず、車載用機
器や家庭用機器において、利用者に対して各種の行動パ
ターンを提案する未来型のシステムを考えた場合も同様
の問題が生じる。すなわち、利用者が希望する行動パタ
ーンを予測することができなければ、的確な提案を行う
ことができないが、従来はこのようなシステムがなかっ
た。
[0005] In addition to the animal type robot, a similar problem arises when a future type system that proposes various behavior patterns to a user is considered in a vehicle-mounted device or a home device. That is, if a user cannot predict a desired behavior pattern, an accurate proposal cannot be made, but there has been no such system in the past.

【0006】また、利用者が欲している行動パターン
は、利用者のその時点における感情の状態等とも関連が
深いと考えられるが、感情を考慮して利用者の欲してい
る行動パターンを判断し、提案することができるシステ
ムはなかった。本発明は、このような点に鑑みて創作さ
れたものであり、その目的は、的確な行動パターンの提
案を行うことができる行動パターン処理装置を提供する
ことにある。
[0006] The behavior pattern desired by the user is considered to be closely related to the emotional state and the like of the user at that time, but the behavior pattern desired by the user is determined in consideration of the emotion. There was no system that could be proposed. The present invention has been made in view of such a point, and an object of the present invention is to provide a behavior pattern processing device capable of proposing an accurate behavior pattern.

【0007】また、本発明の他の目的は、利用者の感情
を考慮した行動パターンの提案を行うことができる行動
パターン処理装置を提供することにある。
It is another object of the present invention to provide a behavior pattern processing device capable of proposing a behavior pattern in consideration of a user's emotion.

【0008】[0008]

【課題を解決するための手段】上述した課題を解決する
ために、本発明の行動パターン処理装置では、複数の動
作内容からなる利用者の行動パターンに対して、それぞ
れの動作内容の特徴を複数の特徴抽出手段により抽出
し、抽出された特徴を関連付けた関連付けデータを特徴
データベースに格納している。そして、新たに、特徴抽
出手段によって利用者の動作内容の特徴が抽出されたと
きに、特徴データベースに格納された関連付けデータに
基づいて、動作提案手段により、複数の動作内容の少な
くとも一つについて提案を行っている。
In order to solve the above-mentioned problems, the action pattern processing apparatus of the present invention uses a plurality of features of each action content for a user's action pattern including a plurality of action contents. And associated data associated with the extracted features are stored in a feature database. Then, when a feature of the user's action content is newly extracted by the feature extraction means, the action suggestion means proposes at least one of the plurality of action contents based on the association data stored in the feature database. It is carried out.

【0009】利用者の行動パターンに対して、それぞれ
の動作内容の特徴を抽出して関連付けた関連付けデータ
を格納することにより、種々のシチュエーションに対応
して利用者特有の行動パターンに関するデータを蓄積す
ることができる。したがって、新たに利用者の動作内容
の特徴が抽出されたときには、蓄積された関連付けデー
タに基づいて利用者が希望する行動パターンを予測する
ことができるので、的確な提案を行うことができる。
[0009] By storing association data in which the characteristics of the respective operation contents are extracted and associated with the behavior pattern of the user, data relating to the behavior pattern unique to the user is stored in correspondence with various situations. be able to. Therefore, when a feature of the user's action content is newly extracted, an action pattern desired by the user can be predicted based on the accumulated association data, so that an accurate proposal can be made.

【0010】また、本発明の他の行動パターン処理装置
では、利用者の感情を感情判定手段により判定するとと
もに、複数の動作内容からなる利用者の行動パターンを
行動パターン分析手段により分析しており、感情判定手
段によって判定された利用者の感情と、行動パターン分
析手段によって分析された利用者の行動パターンとを関
連付けた関連付けデータを特徴データベースに格納して
いる。そして、新たに、感情判定手段によって利用者の
感情が判定されるとともに、行動パターン分析手段によ
って利用者の行動パターンが分析されたときには、特徴
データベースに格納された関連付けデータに基づいて、
動作提案手段により複数の動作内容の少なくとも一つに
ついて提案を行っている。
In another behavior pattern processing apparatus of the present invention, the emotion of the user is determined by the emotion determination means, and the behavior pattern of the user including a plurality of operation contents is analyzed by the behavior pattern analysis means. In the feature database, association data that associates the user's emotion determined by the emotion determination unit with the user's behavior pattern analyzed by the behavior pattern analysis unit is stored. When the emotion of the user is newly determined by the emotion determination unit and the behavior pattern of the user is analyzed by the behavior pattern analysis unit, based on the association data stored in the feature database,
The motion suggestion unit proposes at least one of the plurality of operation contents.

【0011】利用者の感情と行動パターンを関連付けた
関連付けデータを格納することにより、種々のシチュエ
ーションに対応して利用者特有の感情変化や行動パター
ンに関するデータを蓄積することができる。したがっ
て、新たに利用者の感情が判定され、行動パターンが分
析された場合には、蓄積された関連付けデータに基づい
て動作内容の提案を行うことにより、利用者の感情を考
慮した行動パターンの提案を行うことができる。
[0011] By storing association data that associates a user's emotions and behavioral patterns, data relating to user-specific emotional changes and behavioral patterns can be accumulated in accordance with various situations. Therefore, when the user's emotion is newly determined and the behavior pattern is analyzed, the action content is proposed based on the accumulated association data, thereby proposing the behavior pattern in consideration of the user's emotion. It can be performed.

【0012】また、上述した動作提案手段は、新たな行
動パターンに含まれる複数の動作内容の一部が上述した
関連付けデータに含まれる複数の動作内容に対して不一
致あるいは欠落している場合に、提案を行うことが望ま
しい。既に蓄積されている関連付けデータに基づいて、
不一致あるいは欠落している動作内容の提案を行うこと
により、利用者の望んでいる可能性の高い動作内容を確
実に提案することができる。
Further, the above-mentioned operation suggesting means is provided when a part of the plurality of operation contents included in the new action pattern does not match or is missing from the plurality of operation contents included in the association data. It is desirable to make a proposal. Based on the association data already stored,
By providing a mismatched or missing operation content, it is possible to reliably propose an operation content that is likely to be desired by the user.

【0013】また、特徴データベースに対する関連付け
データの格納は、繰り返し取得される関連付けデータの
内容が変化したときに行うことが望ましい。取得した関
連付けデータの内容が変化したときにのみ、その関連付
けデータを格納することにより、特徴データベースに格
納する関連付けデータのデータ量を低減することができ
る。
It is desirable to store the association data in the feature database when the contents of the association data repeatedly acquired change. By storing the acquired association data only when the content of the acquired association data changes, the data amount of the association data stored in the feature database can be reduced.

【0014】また、利用者の周囲環境を判定する環境判
定手段をさらに備えておき、上述した特徴データベース
に格納される関連付けデータには、環境判定手段によっ
て判定された周囲環境を関連付けることが望ましい。利
用者の行動パターンあるいは感情は、周囲環境の状態と
相関があると考えられるので、利用者の周囲環境を関連
付けデータに含ませることにより、利用者の行動パター
ンあるいは感情をより的確に把握することができる。
[0014] It is preferable that the apparatus further comprises environment determining means for determining the surrounding environment of the user, and that the surrounding data determined by the environment determining means be associated with the association data stored in the above-mentioned feature database. Since the behavior patterns or emotions of the user are considered to be correlated with the state of the surrounding environment, by including the surrounding environment of the user in the association data, the behavior patterns or feelings of the user can be grasped more accurately. Can be.

【0015】また、利用者の個性を判定し、所定の候補
者の中から特定の利用者を抽出する個性判定手段をさら
に備えておき、上述した動作提案手段によって個々の利
用者毎に提案の内容を設定することが望ましい。これに
より、複数の利用者のそれぞれにおける行動パターン等
の違いを反映して、利用者毎に内容の異なる提案を行う
ことができる。
[0015] Further, there is further provided a personality determining means for determining the personality of the user and extracting a specific user from predetermined candidates, and the above-mentioned action proposing means provides a suggestion for each user. It is desirable to set the content. As a result, it is possible to make proposals having different contents for each user, reflecting differences in behavior patterns and the like of each of the plurality of users.

【0016】[0016]

【発明の実施の形態】以下、本発明を適用した一実施形
態の車載用システムについて、図面を参照しながら説明
する。図1は、本実施形態の車載用システムの全体構成
を示す図である。同図に示す車載用システムは、カメラ
10、画像特徴抽出部12、感情認識装置14、時計1
6、時間情報抽出部18、オーディオ装置20、音楽特
徴抽出部22、ナビゲーション装置24、地点情報抽出
部28、空調装置30、室温情報抽出部32、特徴関連
付け処理部34、特徴DB(データベース)36、傾向
抽出処理部38、動作内容設定部40を含んで構成され
ている。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A vehicle-mounted system according to an embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a diagram illustrating an overall configuration of a vehicle-mounted system according to the present embodiment. The in-vehicle system shown in FIG. 1 includes a camera 10, an image feature extraction unit 12, an emotion recognition device 14, and a timepiece 1.
6. Time information extraction unit 18, audio device 20, music feature extraction unit 22, navigation device 24, point information extraction unit 28, air conditioner 30, room temperature information extraction unit 32, feature association processing unit 34, feature DB (database) 36 , A trend extraction processing section 38, and an operation content setting section 40.

【0017】カメラ10は、車室内の所定位置に設置さ
れており、車両の横方向の風景を撮影する。画像特徴抽
出部12は、カメラ10によって撮影された画像に対し
て各種処理を行って、画像に関する特徴(以下、これを
「画像特徴」と称する)を抽出する。具体的には、例え
ば、山が見える風景、海が見える風景、繁華街の風景と
いった風景に関する特徴や、画像の色調(明暗など)に
関する特徴などが画像の特徴として抽出される。抽出さ
れた画像特徴は、画像そのもののデータとともに特徴関
連付け処理部34に出力される。
The camera 10 is installed at a predetermined position in a vehicle compartment, and captures a landscape in the lateral direction of the vehicle. The image feature extraction unit 12 performs various processes on the image captured by the camera 10 to extract features related to the image (hereinafter, referred to as “image features”). More specifically, for example, features relating to landscapes such as a landscape in which mountains can be seen, a landscape in which the sea can be seen, and a landscape in a downtown area, and features relating to the color tone (brightness and darkness) of an image are extracted as image features. The extracted image features are output to the feature association processing unit 34 together with the data of the image itself.

【0018】感情認識装置14は、利用者の感情を認識
する処理を行い、感情の認識結果として、「喜」、
「怒」、「哀」、「楽」のいずれかを出力する。また、
本実施形態の感情認識装置14は、複数の利用者(候補
者)の中から特定の利用者を抽出する機能も有してい
る。感情認識装置14の詳細構成については後述する。
The emotion recognizing device 14 performs processing for recognizing the user's emotion, and as a result of the emotion recognition, "happy",
One of "angry", "sorrow", and "easy" is output. Also,
The emotion recognition device 14 of the present embodiment also has a function of extracting a specific user from a plurality of users (candidates). The detailed configuration of the emotion recognition device 14 will be described later.

【0019】時計16は、日付や現在時刻を計時する。
時間情報抽出部18は、時間に関する情報を抽出する。
具体的には、本実施形態では、時間に関する情報とし
て、一日(24時間)をいくつかの時間帯に区分してお
き、現在時刻が属している時間帯を抽出する。例えば、
本実施形態では、上述した時間帯として、(1)4時〜
8時、(2)8時〜12時、(3)12時〜16時、
(4)16時〜20時、(5)20〜24時、(6)2
4時〜4時、という区分を設けている。なお、本実施形
態では、便宜上、上述した(1)の区分を「早朝」、
(2)の区分を「午前」、(3)の区分を「午後」、
(4)の区分を「夕方」、(5)の区分を「夜」、
(6)の区分を「深夜」とそれぞれ称することとする。
これらの時間帯の区分方法は一例であり、これに限定さ
れるものではない。
The clock 16 measures the date and the current time.
The time information extraction unit 18 extracts information about time.
Specifically, in the present embodiment, one day (24 hours) is divided into several time zones as information on time, and the time zone to which the current time belongs is extracted. For example,
In the present embodiment, (1) 4:00 to
8:00, (2) 8:00 to 12:00, (3) 12:00 to 16:00,
(4) 16: 00-20: 00, (5) 20-24: 00, (6) 2
There is a section from 4:00 to 4:00. In this embodiment, for the sake of convenience, the above-mentioned category (1) is referred to as “early morning”,
The category of (2) is "AM", the category of (3) is "PM",
The category of (4) is "evening", the category of (5) is "night",
The category (6) will be referred to as “midnight”.
The method of dividing these time zones is an example, and the present invention is not limited to this.

【0020】オーディオ装置20は、例えば、複数枚の
音楽CDを装填し、いずれかの音楽CDを選択的に再生
可能なCDチェンジャ等を含んで構成されており、利用
者の所望する音楽の再生を行う。音楽特徴抽出部22
は、オーディオ装置20によって再生されている音楽に
対応して、この音楽に関する特徴(以下、これを「音楽
特徴」と称する)を抽出する。具体的には、音楽特徴と
しては、例えば、クラシック、ポップス、ジャズ等の
「音楽ジャンル」や、アップテンポ、スローテンポ等の
「曲調」などが抽出される。
The audio device 20 includes, for example, a CD changer which can load a plurality of music CDs and selectively reproduce any one of the music CDs, and reproduces music desired by the user. I do. Music feature extraction unit 22
Extracts features related to music (hereinafter, referred to as “music features”) corresponding to the music being reproduced by the audio device 20. Specifically, as the music feature, for example, a "music genre" such as classical music, pop music and jazz, and a "musical tone" such as up tempo and slow tempo are extracted.

【0021】ナビゲーション装置24は、自車位置周辺
の地図情報の表示や、経路探索処理、経路誘導処理等の
処理を行うものであり、地図画像等を表示するための表
示装置26を備えている。地点情報抽出部28は、ナビ
ゲーション装置24から現在の自車位置に対応する地点
情報を抽出する。具体的には、地点情報抽出部28は、
地点情報として、自車が走行中の道路が一般道路か高速
道路かなどを示す道路種別や、自車位置周辺が山に近い
場所か、海に近い場所か、あるいは繁華街に近い場所か
など自車位置に対応する地点の状況を示す地点種別など
の情報を地点情報として抽出している。また、所定の目
的地が設定されて経路誘導処理が行われている場合に
は、この目的地に対応する座標情報(経度、緯度)が地
点情報として抽出される。
The navigation device 24 performs processing such as display of map information around the position of the vehicle, route search processing, and route guidance processing, and has a display device 26 for displaying a map image and the like. . The point information extraction unit 28 extracts point information corresponding to the current position of the vehicle from the navigation device 24. Specifically, the point information extraction unit 28
As the point information, the road type indicating whether the road on which the vehicle is traveling is a general road or an expressway, and whether the position of the vehicle is near a mountain, near the sea, or near a downtown area. Information such as a location type indicating the status of the location corresponding to the vehicle position is extracted as location information. When a predetermined destination is set and the route guidance processing is being performed, coordinate information (longitude and latitude) corresponding to the destination is extracted as point information.

【0022】空調装置30は、車室内の室温を調整する
ためのものである。室温情報抽出部32は、空調装置3
0に備わった室温センサ(図示せず)などから車室内の
室温に関する情報(以下、これを「室温情報」と称す
る)を取得する。特徴関連付け処理部34は、上述した
画像特徴抽出部12、時間情報抽出部18、音楽特徴抽
出部22、地点情報抽出部28、室温情報抽出部32の
それぞれから出力される各情報、および感情認識装置1
4から出力される利用者の感情に関する情報(以下、こ
れを「感情情報」と称する)を関連付けし、利用者に関
する特徴データ(関連付けデータ)として特徴DB36
に格納する所定の特徴関連付け処理を行う。
The air conditioner 30 is for adjusting the room temperature in the passenger compartment. The room temperature information extraction unit 32 includes the air conditioner 3
The information about the room temperature in the vehicle compartment (hereinafter, referred to as "room temperature information") is acquired from a room temperature sensor (not shown) provided in the vehicle. The feature association processing unit 34 includes information output from each of the above-described image feature extraction unit 12, time information extraction unit 18, music feature extraction unit 22, point information extraction unit 28, room temperature information extraction unit 32, and emotion recognition. Apparatus 1
4 is associated with information about the emotion of the user (hereinafter, this information is referred to as “emotional information”), and the characteristic DB 36 is used as characteristic data (association data) about the user.
A predetermined feature associating process is performed.

【0023】また、特徴関連付け処理部34は、同様の
内容を有する特徴データの出現頻度を計数する処理も行
っており、既に特徴DB36に格納されている特徴デー
タと同様の内容を有する特徴データが抽出された場合に
は、既に格納されている特徴データについてその出現頻
度を更新する。
The feature association processing unit 34 also performs a process of counting the frequency of appearance of feature data having the same content, and the feature data having the same content as the feature data already stored in the feature DB 36 is obtained. If extracted, the appearance frequency of the already stored feature data is updated.

【0024】特徴DB36は、特徴関連付け処理部34
から出力される特徴データを格納する。図2は、特徴D
B36に格納される特徴データの内容を説明する図であ
る。同図に示すように、特徴関連付け処理部34は、画
像特徴抽出部12、時間情報抽出部18、音楽特徴抽出
部22、地点情報抽出部28、室温情報抽出部32のそ
れぞれから出力される各情報、および感情認識装置14
から出力される感情情報に対して、共通のID(識別番
号)を付加することによりそれぞれの情報を関連付け
て、ひとまとまりの特徴データとして特徴DB36に格
納している。例えば、IDが“1”の特徴データについ
て説明すると、 ・画像特徴としては、画像そのもののデータである「画
像#1」と、色調に関する特徴の「暗」と、風景に関す
る特徴の「海」が格納され、 ・感情情報としては「哀」が格納され、 ・時間情報としては「夜」が格納され、 ・音楽特徴としては、ジャンルに関する特徴の「ポップ
ス」と、曲調に関する特徴の「スロー(スローテン
ポ)」が格納され、 ・地点情報としては、座標情報の「X1,Y1」と、道
路種別の「高速道路」と、地点種別の「海」が格納さ
れ、 ・室温情報としては、「25℃」が格納されている。ま
た、出現頻度として「3」が格納されており、これによ
り、IDが“1”の特徴データと同様の内容を有する特
徴データがこれまでに3回出現したことが示されてい
る。
The feature DB 36 is a feature association processing unit 34
The feature data output from is stored. FIG. 2 shows the feature D
It is a figure explaining the contents of the characteristic data stored in B36. As shown in the figure, the feature associating processing unit 34 includes the image feature extracting unit 12, the time information extracting unit 18, the music feature extracting unit 22, the point information extracting unit 28, and the room temperature information extracting unit 32, Information and emotion recognition device 14
By adding a common ID (identification number) to the emotion information output from, the information is associated with each other and stored in the feature DB 36 as a set of feature data. For example, the feature data with the ID “1” will be described. As the image features, “Image # 1” which is data of the image itself, “Dark” which is a feature related to color tone, and “Sea” which is a feature related to landscape・ Emotion information stores “sorrow”. ・ Time information stores “night”. ・ Music characteristics include “pops” related to genre and “slow” related to tune. Tempo) is stored.-As the point information, "X1, Y1" of the coordinate information, "Expressway" of the road type, and "Sea" of the point type are stored.-As the room temperature information, "25" is stored. ° C ”is stored. Also, “3” is stored as the appearance frequency, which indicates that feature data having the same content as the feature data with ID “1” has appeared three times so far.

【0025】また、IDが“3”の特徴データでは、音
楽特徴については何も情報が格納されていないが、これ
は、利用者が音楽を聴取していない状態を示している。
本実施形態では、このように「音楽を聴取していない」
という状態についても、音楽特徴の1つとして扱ってい
る。
In the feature data with the ID “3”, no information is stored on the music feature, which indicates a state in which the user is not listening to music.
In the present embodiment, "not listening to music"
Is also treated as one of the music features.

【0026】なお、上述したように本実施形態の感情認
識装置14は、複数の利用者(候補者)の中から特定の
利用者を抽出する機能(詳細は後述)を備えているた
め、特徴関連付け処理部34は、特徴DB36に特徴デ
ータを格納する際には、感情認識装置14によって特定
される複数の利用者のそれぞれに対応して、特徴データ
を格納しているものとする。このように、複数の利用者
のそれぞれに対応した特徴データを格納することによ
り、複数の利用者のそれぞれにおける行動パターン等の
違いを反映して、利用者毎に内容の異なる提案を行うこ
とができる。
As described above, the emotion recognition device 14 of the present embodiment has a function of extracting a specific user from a plurality of users (candidates) (details will be described later). When storing the feature data in the feature DB 36, the association processing unit 34 stores the feature data corresponding to each of the plurality of users specified by the emotion recognition device 14. By storing the feature data corresponding to each of a plurality of users in this way, it is possible to reflect different behavior patterns and the like of each of the plurality of users and make a proposal having different contents for each user. it can.

【0027】傾向抽出処理部38は、画像特徴抽出部1
2、時間情報抽出部18、音楽特徴抽出部22、地点情
報抽出部28、室温情報抽出部32のそれぞれから出力
される各情報、および感情認識装置14から出力される
感情情報を取得し、これを特徴DB36に格納されてい
る特徴データと照合することにより、類似した行動パタ
ーンを示す特徴データを抽出し、不一致である動作内容
または欠落している動作内容を検索する。
The trend extraction processing unit 38 includes the image feature extraction unit 1
2. The information output from each of the time information extraction unit 18, the music feature extraction unit 22, the point information extraction unit 28, and the room temperature information extraction unit 32, and the emotion information output from the emotion recognition device 14 are acquired. Is compared with the feature data stored in the feature DB 36 to extract feature data indicating a similar behavior pattern, and to search for mismatched or missing action content.

【0028】動作内容設定部40は、傾向抽出処理部3
8によって検索された動作内容に基づいて提案する動作
内容を設定し、これを利用者に対して提案する。次に、
上述した感情認識装置14の詳細構成を説明する。図3
は、感情認識装置14の詳細構成を示す図である。同図
に示す感情認識装置14は、マイクロホン50、音声認
識部52、カメラ54、画像認識部56、センサ58、
動作認識部60、個性DB62、個性認識部64、感情
認識部66、70、74、音声DB68、画像DB7
2、動作DB76、重み付け処理部78、個性データ修
正部80を含んで構成されている。
The operation content setting unit 40 includes the trend extraction processing unit 3
8 to set a proposed operation content based on the operation content searched by the user, and propose this to the user. next,
The detailed configuration of the above-described emotion recognition device 14 will be described. FIG.
FIG. 2 is a diagram showing a detailed configuration of the emotion recognition device 14. The emotion recognition device 14 shown in the figure includes a microphone 50, a voice recognition unit 52, a camera 54, an image recognition unit 56, a sensor 58,
Motion recognition unit 60, personality DB 62, personality recognition unit 64, emotion recognition units 66, 70, 74, voice DB 68, image DB 7
2, an operation DB 76, a weighting processing unit 78, and an individuality data correcting unit 80.

【0029】マイクロホン50は、利用者が発声した音
声を集音して電気信号に変換する。音声認識部52は、
マイクロホン50によって集音された利用者の音声信号
を解析して音声認識を行い、利用者が発声した言葉を特
定する。また、音声認識部52は、音声認識を行った結
果に基づいて、利用者の音声の特徴量を抽出する。音声
認識部52によって抽出される特徴量としては、例え
ば、声の高さや大きさ、話す際の一文字毎の発声間隔等
が考えられる。
The microphone 50 collects the voice uttered by the user and converts it into an electric signal. The voice recognition unit 52
The voice signal of the user collected by the microphone 50 is analyzed to perform voice recognition, and a word uttered by the user is specified. Further, the voice recognition unit 52 extracts a feature amount of the user's voice based on the result of the voice recognition. As the feature amount extracted by the voice recognition unit 52, for example, the pitch and loudness of a voice, the utterance interval of each character when speaking, and the like can be considered.

【0030】カメラ54は、利用者の表情を撮影する。
画像認識部56は、カメラ54によって撮影された利用
者の表情を解析して特徴量を抽出する。画像認識部56
によって抽出される特徴量としては、例えば、顔に含ま
れる目、眉毛、口等の各要素の位置や大きさ、あるいは
これらの要素の動きが考えられる。具体的には、目の輪
郭、目の角度、眉の角度、口の開き具合、あるいは、単
位時間当たりの瞬きの回数などが考えられる。
The camera 54 photographs the facial expression of the user.
The image recognition unit 56 analyzes a facial expression of the user photographed by the camera 54 and extracts a feature amount. Image recognition unit 56
For example, the position and size of each element such as the eyes, eyebrows, and mouth included in the face, or the movement of these elements can be considered as the feature amount extracted by the. Specifically, the contour of the eye, the angle of the eye, the angle of the eyebrows, the degree of opening of the mouth, the number of blinks per unit time, and the like can be considered.

【0031】センサ58は、利用者の動作を検出して電
気信号に変換する。ここで、本明細書では、利用者の手
足や頭部等の身体の各部位の位置や動きに加えて、体
温、発汗量等、利用者の身体の状態に関して測定可能な
物理量を全て含めて「動作」と表現するものとする。し
たがって、本実施形態のセンサ58は、温度センサ、圧
力センサ、位置センサ等の各種のセンサから構成されて
いる。本実施形態におけるセンサ58の具体的な設置場
所としては、運転席のハンドルやシート、その他運転席
周辺の空間が考えられる。
The sensor 58 detects a user's operation and converts it into an electric signal. Here, in this specification, in addition to the position and movement of each part of the body such as the user's limbs and head, the body temperature, the amount of perspiration, and the like, include all physical quantities that can be measured with respect to the state of the user's body. It shall be expressed as “operation”. Therefore, the sensor 58 of the present embodiment includes various sensors such as a temperature sensor, a pressure sensor, and a position sensor. As a specific installation location of the sensor 58 in the present embodiment, a handle or a seat of a driver's seat, and other spaces around the driver's seat can be considered.

【0032】動作認識部60は、センサ58を用いて検
出された利用者の動作を解析して特徴量を抽出する。具
体的には、例えば、ハンドルに圧力センサを設置し、こ
れに加わる圧力の変化を調べることによって手の動きを
調べることができ、これより手を頻繁に動かしているか
どうかや、ハンドルを強く握っているかどうか等の情報
が得られる。また、シートやその他の場所に位置センサ
を設置することにより、利用者の座高、頭の位置、肩の
位置等の情報を得ることもできる。
The motion recognition section 60 analyzes the motion of the user detected by using the sensor 58 and extracts a feature amount. Specifically, for example, by installing a pressure sensor on the handle and examining the change in pressure applied to it, it is possible to check the movement of the hand, whether it is moving the hand more frequently, or holding the handle strongly Information such as whether or not it is available. In addition, by installing a position sensor on a seat or other place, information such as the user's sitting height, head position, and shoulder position can be obtained.

【0033】個性DB62は、利用者の有する個性に基
づいて個人を特定するための個人特定用データと、利用
者の感情を認識する際の判断基準とするための個性デー
タグループを格納している。図4は、個性DB62に格
納された個人特定用データの一例を示す図である。同図
に示すように、個人特定用データとしては、例えば、利
用者が所定の言葉を発声した際の音声の波形パターン
や、あごの輪郭、座高等の要素、すなわち、感情の変化
によらず値がほぼ一定であるような要素が考慮されてお
り、各利用者A、B…の各々に対応するデータが登録さ
れている。これらのデータは、図4に示すように所定の
幅を持った値として与えられている。例えば、利用者A
に対応する波形パターンであれば、上限値a1と下限値
a1′により規定されておりa1〜a1′と表されてい
る。ただし、上述したように、個人特定用データにおけ
る要素としては、利用者の感情の変化によらず値がほぼ
一定であるような要素が考慮されているため、個人特定
用データにおいて上限値および下限値によって規定され
る値は、誤差範囲を示す程度の狭い幅となっている。他
の要素についても同様である。
The personality DB 62 stores personal identification data for specifying an individual based on the personality of the user and a personality data group for use as a criterion for recognizing the emotion of the user. . FIG. 4 is a diagram showing an example of personal identification data stored in the personality DB 62. As shown in the figure, the personal identification data includes, for example, a waveform pattern of a voice when a user utters a predetermined word, an outline of a chin, an element such as sitting height, that is, regardless of a change in emotion. An element whose value is substantially constant is considered, and data corresponding to each of the users A, B,... Is registered. These data are given as values having a predetermined width as shown in FIG. For example, user A
Are defined by the upper limit value a1 and the lower limit value a1 ', and are represented as a1 to a1'. However, as described above, since an element whose value is substantially constant regardless of a change in the user's emotion is considered as an element in the personal identification data, the upper limit and the lower limit in the personal identification data are considered. The value specified by the value has a narrow width that indicates an error range. The same applies to other elements.

【0034】また、個性DB62は、利用者が特定の感
情を有していない状態、言い換えると利用者がどの感情
を有している可能性も同じ確率であると見なすことがで
きる状態において、音声、表情、動作の各々に関して有
している特徴量をまとめたデータグループが格納されて
いる。このデータグループが上述した「個性データグル
ープ」に対応する。また、個性データグループに含まれ
る各特徴量を「個性データ」と称することとする。
In addition, the personality DB 62 stores the voice in a state where the user does not have a specific emotion, in other words, in a state where the possibility that the user has any emotion has the same probability. , A facial expression and an action are stored. This data group corresponds to the “individuality data group” described above. Each feature amount included in the individuality data group is referred to as “individuality data”.

【0035】図5は、個性DB62に格納された個性デ
ータグループの一例を示す図である。例えば、音声の特
徴としては声の高さ、大きさ、発声間隔等があり、これ
らの要素に対応した個性データが上限値および下限値に
より規定される所定の幅を持った値として与えられてい
る。例えば、「標準」とされている個性データグループ
について説明すると、音声の要素「高さ」に対する個性
データとして、上限値s4、下限値s4′が規定されて
おり、個性データの幅はs4〜s4′と与えられてい
る。音声、画像、動作に含まれる他の要素についても同
様である。
FIG. 5 is a diagram showing an example of the personality data group stored in the personality DB 62. For example, voice characteristics include voice pitch, loudness, utterance interval, etc., and individuality data corresponding to these elements is given as a value having a predetermined width defined by an upper limit and a lower limit. I have. For example, to describe a personality data group defined as “standard”, an upper limit value s4 and a lower limit value s4 ′ are defined as personality data for a voice element “height”, and the width of the personality data is s4 to s4. '. The same applies to other elements included in audio, images, and actions.

【0036】また、図5において、「標準」とされてい
る個性データグループは、例えば、音声、画像、動作の
各特徴に対して不特定多数の対象者から統計的に得られ
た個性データが格納されている。また、図5において
「A」、「B」のそれぞれに対応する個性データグルー
プは、上述した図4において説明した利用者A、Bのそ
れぞれに対応して生成された個性データグループを表し
ている。このように、本実施形態では、複数の利用者に
対応した個性データグループが生成されて個性DB62
に登録されている。
In FIG. 5, the personality data group designated as “standard” includes, for example, personality data statistically obtained from an unspecified number of subjects for each feature of voice, image, and motion. Is stored. Further, in FIG. 5, the individuality data groups corresponding to “A” and “B” respectively represent the individuality data groups generated corresponding to the users A and B described in FIG. . As described above, in the present embodiment, personality data groups corresponding to a plurality of users are generated and the personality DB 62
Registered in.

【0037】個性認識部64は、上述した音声認識部5
2、画像認識部56、動作認識部60のそれぞれによっ
て抽出される各特徴量の一部または全部を取得し、個性
DB62に格納された個人特定用データを検索して、取
得した特徴量と一致する個人特定用データがあるか否か
を調べる。取得した特徴量と一致する個人特定用データ
が見つかった場合には、個性認識部64は、この個人特
定用データを有する利用者に対応する個性データグルー
プを読み出して各感情認識部66、70、74に向けて
出力する。例えば、個人特定用データを検索した結果、
利用者Aのものと一致した場合であれば、利用者Aに対
応する個性データグループが読み出される。
The individuality recognizing section 64 is provided with the voice recognizing section 5 described above.
2. Obtain a part or all of each feature amount extracted by each of the image recognition unit 56 and the motion recognition unit 60, search the personal identification data stored in the personality DB 62, and match the obtained feature amount. Check whether there is any personal identification data to be performed. If personal identification data that matches the acquired feature amount is found, the individuality recognition unit 64 reads out the individuality data group corresponding to the user having the individual identification data and reads out the emotion recognition units 66, 70, Output to 74. For example, as a result of searching personal identification data,
If it matches the user A, the personality data group corresponding to the user A is read.

【0038】また、取得した特徴量と一致する個人特定
用データが見つからない場合には、個性認識部64は、
取得した特徴量を用いて個人特定用データを新たに生成
するとともに、生成した個人特定用データに対応する個
性データグループも新たに生成して個性DB62内に登
録する。
If no personal identification data matching the acquired feature amount is found, the personality recognizing unit 64
The personal identification data is newly generated using the acquired feature amount, and a personality data group corresponding to the generated personal identification data is also newly generated and registered in the personality DB 62.

【0039】感情認識部66は、音声認識部52によっ
て抽出された音声に関する特徴量と個性認識部64から
入力される個性データグループに基づいて利用者の音声
の状態を判断し、判断した音声の状態と音声DB68に
格納されたデータテーブルに基づいて利用者の感情を認
識する。上述したように本実施形態では、感情認識部6
6(後述する感情認識部70、74も同様)によって認
識される感情としては、「喜」、「怒」、「哀」、
「楽」の4つの感情を考えるものとする。
The emotion recognition unit 66 determines the state of the user's voice based on the characteristic amount of the voice extracted by the voice recognition unit 52 and the personality data group input from the personality recognition unit 64, and determines the state of the determined voice. The emotion of the user is recognized based on the state and the data table stored in the voice DB 68. As described above, in the present embodiment, the emotion recognition unit 6
6 (similarly for the emotion recognition units 70 and 74 described later) include “joy”, “anger”, “sad”,
Consider the four feelings of "easy".

【0040】また、感情認識部66による感情認識結果
は、例えば、「喜」が30%、「怒」が55%、「哀」
が10%、「楽」が5%というように、各感情を利用者
が有する可能性を確率で表すことにより与えられる。上
述した例であれば、利用者が感情「喜」を有している可
能性が30%、感情「怒」を有している可能性が55
%、感情「哀」を有している可能性が10%、感情
「楽」を有している可能性が5%ということになり、利
用者が有している可能性の高い感情は「怒」ということ
になる。
The emotion recognition result by the emotion recognition unit 66 is, for example, "happy" is 30%, "anger" is 55%, and "sad".
Is 10% and "easy" is 5%, and the likelihood is given by the probability that the user has each emotion. In the example described above, there is a 30% possibility that the user has the emotion “happy”, and a 55% possibility that the user has the emotion “anger”.
%, The possibility of having the emotion “sorrow” is 10%, and the possibility of having the emotion “easy” is 5%, and the emotion that the user is likely to have is “ Anger ”.

【0041】音声DB68は、感情認識部66によって
判断される利用者の音声の状態と上述した4つの感情
(喜、怒、哀、楽)との関係を示すデータテーブルを格
納している。図6は、音声DB68に格納されたデータ
テーブルの一例を示す図である。図6に示すように、利
用者の音声の状態は、音声認識部52によって抽出され
た特徴量と個性データとの差異で表されており、この差
異に対応して4つの感情の出現確率が百分率で与えられ
ている。例えば、音声の要素である「発声間隔」につい
て説明すると、個性データグループに含まれる「発声間
隔」についての個性データが80ms(ミリ秒)〜10
0msと与えられている場合に、特徴量がこの個性デー
タの範囲内であれば「通常」、個性データの上限値(1
00ms)より大きければ発声間隔が長いということな
ので「長い」、個性データの下限値(80ms)より小
さければ発声間隔が短いということなので「短い」、と
いうように個性データとの差異が設定されており、それ
ぞれの差異(長い、通常、短い)に対して、4つの感情
(喜、怒、哀、楽)が現れる確率が設定されている。
The voice DB 68 stores a data table indicating the relationship between the user's voice state determined by the emotion recognition unit 66 and the above four emotions (happy, angry, sad, and easy). FIG. 6 is a diagram illustrating an example of a data table stored in the audio DB 68. As shown in FIG. 6, the state of the voice of the user is represented by a difference between the feature amount extracted by the voice recognition unit 52 and the personality data, and the appearance probabilities of the four emotions are corresponding to the difference. Given in percentage. For example, a description will be given of the “utterance interval” which is a voice element.
In the case where 0 ms is given, if the feature amount is within the range of the individuality data, “normal” is set, and the upper limit value (1
If the difference is larger than 00 ms), the utterance interval is long, so that it is "long". If it is smaller than the lower limit (80 ms) of the individuality data, it is short, so that the utterance interval is short. For each difference (long, normal, short), the probability of appearance of four emotions (happy, angry, sad, easy) is set.

【0042】また、感情認識部70は、画像認識部56
によって抽出された表情に関する特徴量と個性認識部6
4から入力される個性データグループに基づいて利用者
の表情の状態を判断するとともに、判断した表情の状態
と画像DB72に格納されたデータテーブルに基づいて
利用者の感情を認識する。画像DB72は、感情認識部
70によって判断される利用者の表情の状態と上述した
4つの感情との関係を示すデータテーブルを格納してい
る。
Further, the emotion recognition unit 70 includes the image recognition unit 56
Feature and individuality recognition unit 6 related to facial expression extracted by
The state of the user's facial expression is determined based on the personality data group input from Step 4, and the emotion of the user is recognized based on the determined facial expression state and the data table stored in the image DB 72. The image DB 72 stores a data table indicating the relationship between the state of the user's facial expression determined by the emotion recognition unit 70 and the four emotions described above.

【0043】図7は、画像DB72に格納されたデータ
テーブルの一例を示す図である。図7に示すように、利
用者の表情の状態は、画像認識部56によって抽出され
た特徴量と個性データとの差異で表されており、この差
異に対応して4つの感情の出現確率が百分率で与えられ
ている。例えば、画像の要素である「目の角度」につい
て説明すると、個性データグループに含まれる「目の角
度」についての個性データが1°〜2°と与えられてい
る場合に、特徴量がこの個性データの範囲内であれば
「通常」、個性データの上限値(2°)より大きければ
目がつり上がっているということなので「上」、個性デ
ータの下限値(1°)より小さければ目がたれ下がって
いるということなので「下」、というように個性データ
との差異が設定されており、それぞれの差異(上、通
常、下)に対して、4つの感情が出現する確率が設定さ
れている。
FIG. 7 is a diagram showing an example of a data table stored in the image DB 72. As shown in FIG. 7, the state of the facial expression of the user is represented by a difference between the feature amount extracted by the image recognition unit 56 and the personality data, and the appearance probabilities of the four emotions are corresponding to the difference. Given in percentage. For example, when the “eye angle” which is an element of the image is described, when the personality data for the “eye angle” included in the personality data group is given as 1 ° to 2 °, the characteristic amount becomes If it is within the range of the data, it is "normal", and if it is larger than the upper limit (2 °) of the personality data, it means that the eye is raised. Since it is falling, the difference from the personality data is set, such as "below", and the probability of appearance of four emotions is set for each difference (upper, normal, lower). .

【0044】また、感情認識部74は、動作認識部60
によって抽出された動作に関する特徴量と個性認識部6
4から入力される個性データグループに基づいて利用者
の動作の状態を判断するとともに、判断した動作の状態
と動作DB76に格納されたデータテーブルに基づいて
利用者の感情を認識する。動作DB76は、感情認識部
74によって判断される利用者の表情の状態と上述した
4つの感情(喜、怒、哀、楽)との関係を示すデータテ
ーブルを格納している。
The emotion recognition section 74 includes the motion recognition section 60.
Of feature and individuality recognizing unit 6 relating to motion extracted by
The state of the user's operation is determined based on the personality data group input from Step 4, and the emotion of the user is recognized based on the determined state of the operation and the data table stored in the operation DB 76. The motion DB 76 stores a data table indicating the relationship between the state of the user's facial expression determined by the emotion recognition unit 74 and the above-described four emotions (happy, angry, sad, and easy).

【0045】図8は、動作DB76に格納されたデータ
テーブルの一例を示す図である。図8に示すように、利
用者の動作の状態は、動作認識部60によって抽出され
た特徴量と個性データとの差異で表されており、この差
異に対応して4つの感情の出現確率が百分率で与えられ
ている。例えば、動作の要素である「体温」について説
明すると、個性データグループに含まれる「体温」につ
いての個性データが35.8℃〜36.4℃と与えられ
ている場合に、特徴量がこの個性データの範囲内であれ
ば「通常」、個性データの上限値(36.4℃)より大
きければ体温が高いということなので「高」、個性デー
タの下限値(35.8℃)より小さければ体温が低いと
いうことなので「低」、というように個性データとの差
異が設定されており、それぞれの差異(高、通常、低)
に対して、4つの感情(喜、怒、哀、楽)が出現する確
率が設定されている。
FIG. 8 is a diagram showing an example of a data table stored in the operation DB 76. As shown in FIG. 8, the state of the user's motion is represented by the difference between the feature amount extracted by the motion recognition unit 60 and the personality data, and the appearance probabilities of the four emotions are corresponding to this difference. Given in percentage. For example, to explain the “body temperature” which is an element of the motion, when the individuality data of “body temperature” included in the individuality data group is given as 35.8 ° C. to 36.4 ° C., the characteristic amount is If it is within the range of the data, it is "normal", and if it is larger than the upper limit of the personality data (36.4 ° C.), it means that the body temperature is high, so it is “high”; if it is smaller than the lower limit of the personality data (35.8 ° C.), the body temperature is Is low, so the difference from personality data is set, such as "low", and each difference (high, normal, low)
On the other hand, the probability of appearance of four emotions (happy, angry, sad, and easy) is set.

【0046】重み付け処理部78は、各感情認識部6
6、70、74から出力された感情認識結果に対して所
定の重み付け処理を行って統合し、最終的な感情認識結
果を求める。具体的には、音声情報に基づいて得られた
感情認識結果を{Ah、Aa、As、Ae}、画像情報
に基づいて得られた感情認識結果を{Vh、Va、V
s、Ve}、動作情報に基づいて得られた感情認識結果
を{Mh、Ma、Ms、Me}とおき、これらに対応す
る重み付け係数をそれぞれ、{Ph、Pa、Ps、P
e}、{Qh、Qa、Qs、Qe}、{Rh、Ra、R
s、Re}とおくと、各感情認識結果に対する重み付け
処理は、以下に示した(1)〜(4)式によって求めら
れる。ここで、各感情認識結果および各重み付け係数に
付加された添え字は、「h」が「喜」に対応し、「a」
が「怒」に対応し、「s」が「哀」に対応し、「e」が
「楽」に対応しているものとする。
The weighting processing section 78 is provided for each of the emotion recognition sections 6.
A predetermined weighting process is performed on the emotion recognition results output from 6, 70, and 74 to integrate them, and a final emotion recognition result is obtained. Specifically, the emotion recognition result obtained based on the voice information is {Ah, Aa, As, Ae}, and the emotion recognition result obtained based on the image information is {Vh, Va, V
s, Ve}, the emotion recognition result obtained based on the motion information is {Mh, Ma, Ms, Me}, and the weighting coefficients corresponding to these are {Ph, Pa, Ps, P, respectively.
e}, {Qh, Qa, Qs, Qe}, {Rh, Ra, R
s, Re}, the weighting process for each emotion recognition result is obtained by the following equations (1) to (4). Here, in the suffix added to each emotion recognition result and each weighting coefficient, “h” corresponds to “pleasure” and “a”
Corresponds to “anger”, “s” corresponds to “sad”, and “e” corresponds to “easy”.

【0047】 喜=Ph・Ah+Qh・Vh+Rh・Mh …(1) 怒=Pa・Aa+Qa・Va+Ra・Ma …(2) 哀=Ps・As+Qs・Vs+Rs・Ms …(3) 楽=Pe・Ae+Qe・Ve+Re・Me …(4) 各重み付け係数は、適切な認識結果が得られるように実
験的に決定されるものであり、例えば、以下のような値
に設定される。
Joy = Ph · Ah + Qh · Vh + Rh · Mh (1) Fury = Pa · Aa + Qa · Va + Ra · Ma (2) Sad = Ps · As + Qs · Vs + Rs · Ms (3) Easy = Pe · Ae + Qe · Ve + Re · Me (4) Each weighting coefficient is experimentally determined so as to obtain an appropriate recognition result, and is set to the following value, for example.

【0048】Ph=41、Qh=0、 Rh=5 Pa=23、Qh=0、 Rh=35 Ps=0、 Qs=21、Rs=10 Pe=0、 Qe=30、Re=7 上述した(1)〜(4)式に基づいて、音声、画像、動
作のそれぞれから得られた感情認識結果を統合した感情
認識結果が得られる。その後、重み付け処理部78は、
(1)〜(4)式によって得られた感情認識結果の中
で、最も値の大きい感情を選択し、これを最終的な感情
認識結果として出力する。重み付け処理部78によって
求められた感情認識結果は、感情認識装置14からの出
力として、利用者の特定結果とともに特徴関連付け処理
部34等へ出力される。具体的には、例えば、“利用者
が「A」であり、感情認識結果が「喜」である”といっ
た情報が重み付け処理部78から出力される。
Ph = 41, Qh = 0, Rh = 5 Pa = 23, Qh = 0, Rh = 35 Ps = 0, Qs = 21, Rs = 10 Pe = 0, Qe = 30, Re = 7 Based on the expressions (1) to (4), an emotion recognition result obtained by integrating emotion recognition results obtained from each of voice, image, and motion is obtained. After that, the weighting processing unit 78
From the emotion recognition results obtained by the equations (1) to (4), the emotion having the largest value is selected, and this is output as the final emotion recognition result. The emotion recognition result obtained by the weighting processing unit 78 is output to the feature association processing unit 34 and the like together with the user identification result as an output from the emotion recognition device 14. Specifically, for example, information such as “the user is“ A ”and the emotion recognition result is“ happy ”” is output from the weighting processing unit 78.

【0049】個性データ修正部80は、個性認識部64
から出力された個性データグループと音声認識部52、
画像認識部56、動作認識部60のそれぞれによって抽
出された各特徴量に基づいて、個性データグループに含
まれる各個性データを利用者の個性に対応して修正する
処理を行う。
The personality data correcting section 80 includes a personality recognizing section 64
The personality data group output from and the voice recognition unit 52,
Based on the respective feature amounts extracted by the image recognition unit 56 and the motion recognition unit 60, a process of correcting each individuality data included in the individuality data group in accordance with the individuality of the user is performed.

【0050】上述した感情認識装置14が感情判定手段
に、画像特徴抽出部12、時間情報抽出部18、音楽特
徴抽出部22、地点情報抽出部28が複数の特徴抽出手
段および行動パターン分析手段に、傾向抽出処理部3
8、動作内容設定部40が動作提案手段に、画像特徴抽
出部12、地点情報抽出部28、室温情報抽出部32が
環境判定手段に、個性DB62、個性認識部64が個性
判定手段にそれぞれ対応している。
The above-described emotion recognition device 14 is used as an emotion determination unit, and the image feature extraction unit 12, time information extraction unit 18, music feature extraction unit 22, and point information extraction unit 28 are used as a plurality of feature extraction units and behavior pattern analysis units. , Trend extraction processing unit 3
8. The operation content setting unit 40 corresponds to the operation proposal unit, the image feature extraction unit 12, the point information extraction unit 28, and the room temperature information extraction unit 32 correspond to the environment determination unit, and the personality DB 62 and the personality recognition unit 64 correspond to the personality determination unit. are doing.

【0051】本実施形態の車載用システムはこのような
構成を有しており、次に、利用者の感情等に応じて行動
パターンの提案を行う場合の動作について説明する。な
お、特定の利用者を抽出した結果(例えば、利用者が
「A」である旨)は、既に感情認識装置14から特徴関
連付け処理部34および傾向抽出処理部38に通知され
ているものとする。
The on-vehicle system according to the present embodiment has such a configuration. Next, an operation in the case of proposing an action pattern according to the user's emotion and the like will be described. It should be noted that the result of extracting a specific user (for example, that the user is “A”) has already been notified from the emotion recognition device 14 to the feature association processing unit 34 and the tendency extraction processing unit 38. .

【0052】図9および図10は、車載用システムの動
作手順を示す流れ図である。画像特徴抽出部12は、カ
メラ10によって撮影される画像に基づいて、画像特徴
を抽出する処理を行う(ステップ100)。感情認識装
置14は、所定の感情認識処理を行い、感情情報を出力
する(ステップ101)。また、時間情報抽出部18
は、時計16から取得した現在時刻に基づいて、時間情
報を抽出する処理を行う(ステップ102)。
FIGS. 9 and 10 are flowcharts showing the operation procedure of the vehicle-mounted system. The image feature extraction unit 12 performs a process of extracting an image feature based on an image captured by the camera 10 (Step 100). The emotion recognition device 14 performs a predetermined emotion recognition process and outputs emotion information (step 101). Further, the time information extracting unit 18
Performs a process of extracting time information based on the current time acquired from the clock 16 (step 102).

【0053】音楽特徴抽出部22は、オーディオ装置2
0によって再生されている音楽に基づいて、音楽特徴を
抽出する処理を行う(ステップ103)。なお、上述し
たように、音楽の聴取が行われていない場合には、その
状態が音楽特徴として抽出される。
[0053] The music feature extraction unit 22 is provided with the audio device 2.
A process for extracting music features based on the music being reproduced by 0 is performed (step 103). As described above, when music is not listened to, the state is extracted as a music feature.

【0054】地点情報抽出部28は、ナビゲーション装
置24から地点情報を抽出する処理を行う(ステップ1
04)。また、室温情報抽出部32は、空調装置30か
ら車両内の室温に関する情報(室温情報)を抽出する
(ステップ105)。なお、ステップ100〜105に
示した各処理は、その処理順番を任意に入れ替えること
ができ、複数の処理を並行して行うこともできる。
The point information extracting unit 28 performs a process of extracting point information from the navigation device 24 (step 1).
04). Further, the room temperature information extracting unit 32 extracts information (room temperature information) on the room temperature in the vehicle from the air conditioner 30 (step 105). The order of the processes shown in steps 100 to 105 can be arbitrarily changed, and a plurality of processes can be performed in parallel.

【0055】ステップ100〜105に示した所定の特
徴抽出処理が行われ、利用者に関係する各種の情報が抽
出されると、特徴関連付け処理部34は、これらの情報
をひとまとまりの特徴データとして関連付ける所定の特
徴関連付け処理を行う(ステップ106)。
When the predetermined feature extraction processing shown in steps 100 to 105 is performed and various information related to the user is extracted, the feature association processing unit 34 converts the information into a set of feature data. A predetermined feature association process is performed (step 106).

【0056】次に、特徴関連付け処理部34は、特徴D
B36に格納されている特徴データの保存件数を調べ、
保存件数が0件であるか否かを判定する(ステップ10
7)。既に1件以上の特徴データが保存されている場合
には、ステップ107で否定判断がなされ、次に特徴関
連付け処理部34は、ステップ100〜105に示した
処理で得られた特徴データ(以後、これを「現在の特徴
データ」と称する)が前回の処理において得られた特徴
データ(以後、これを「前回の特徴データ」と称する)
と一致しているか否かを判定する(ステップ108)。
現在の特徴データと前回の特徴データが一致している場
合、すなわち、特徴データの内容に変化がない場合に
は、ステップ108で肯定判断がなされ、この場合には
ステップ100に戻り、所定の特徴抽出処理が継続され
る。
Next, the feature association processing unit 34
Check the number of stored feature data stored in B36,
It is determined whether the number of stored cases is 0 (step 10).
7). If one or more pieces of feature data have already been stored, a negative determination is made in step 107, and then the feature association processing unit 34 determines whether the feature data obtained in the processes shown in steps 100 to 105 (hereinafter referred to as feature data) This is referred to as “current feature data” and the feature data obtained in the previous processing (hereinafter, referred to as “previous feature data”)
Is determined (step 108).
If the current feature data matches the previous feature data, that is, if there is no change in the content of the feature data, an affirmative determination is made in step 108, and in this case, the process returns to step 100 and the predetermined feature is determined. The extraction process is continued.

【0057】また、現在の特徴データが前回の特徴デー
タと一致していない場合、すなわち、特徴データの内容
に変化があった場合には、ステップ108で否定判断が
なされ、次に特徴関連付け処理部34は、特徴DB36
に既に格納されている特徴データの保存件数が所定数以
上であるか否かを判定する(ステップ109)。具体的
には、ステップ109に示す処理は、特徴DB36にあ
る程度の量の特徴データが蓄積されているか否かを判定
するための処理であり、例えば、100件以上の特徴デ
ータが保存されているか否かが判定される。
If the current feature data does not match the previous feature data, that is, if the content of the feature data has changed, a negative determination is made in step 108, and then the feature association processing unit 34 is a feature DB 36
Then, it is determined whether or not the number of stored feature data already stored in is equal to or greater than a predetermined number (step 109). Specifically, the process shown in step 109 is a process for determining whether or not a certain amount of feature data is stored in the feature DB 36. For example, whether or not 100 or more feature data items are stored It is determined whether or not.

【0058】特徴データの保存件数が所定数以上である
場合には、ステップ109で肯定判断がなされ、特徴関
連付け処理部34は、現在の特徴データを傾向抽出処理
部38に出力する。現在の特徴データを取得した傾向抽
出処理部38は、この現在の特徴データと特徴DB36
に保存されている全ての特徴データとを照合し(ステッ
プ110)、現在の特徴データと全ての項目でその内容
が一致している特徴データがあるか否かを判定する(ス
テップ111)。ここで言う「項目」とは、“画像特
徴”、“感情情報”、“時間情報”、“音楽特徴”、
“地点情報”、“室温情報”の6つに対応している(図
2参照)。
If the number of stored feature data is equal to or greater than the predetermined number, an affirmative determination is made in step 109, and the feature association processing unit 34 outputs the current feature data to the trend extraction processing unit 38. The trend extraction processing unit 38 that has acquired the current feature data sets the current feature data and the feature DB 36
Is compared with all the feature data stored in (step 110), and it is determined whether or not there is feature data whose contents match all the items with the current feature data (step 111). The "items" referred to here are "image characteristics", "emotional information", "time information", "music characteristics",
It corresponds to the six “point information” and “room temperature information” (see FIG. 2).

【0059】全ての項目の内容が一致している特徴デー
タがない場合には、ステップ111で否定判断がなさ
れ、次に傾向抽出処理部38は、「感情情報」以外の項
目についてその内容が一致している特徴データがあるか
否かを判定する(ステップ112)。
If there is no feature data in which the contents of all the items match, a negative determination is made in step 111, and then the tendency extraction processing unit 38 determines that the contents other than the "emotional information" are one. It is determined whether there is any matching feature data (step 112).

【0060】「感情情報」以外の項目が全て一致してい
る特徴データがない場合には、ステップ112で否定判
断がなされ、次に傾向抽出処理部38は、内容の一致し
ている項目の数が所定数以上であるか否かを判定する
(ステップ113)。ここでは、例えば、上述した6項
目のうちで5項目以上が一致しているか否かが判定され
る。換言すれば、ステップ113では、現在の特徴デー
タと内容が類似している特徴データがあるか否かが判定
されている。
If there is no feature data in which all items other than “emotion information” match, a negative determination is made in step 112, and then the tendency extraction processing unit 38 determines the number of items whose contents match. Is greater than or equal to a predetermined number (step 113). Here, for example, it is determined whether or not five or more of the six items described above match. In other words, in step 113, it is determined whether there is feature data whose content is similar to the current feature data.

【0061】内容の一致している項目が所定数以上であ
る場合には、ステップ113で肯定判断がなされ、傾向
抽出処理部38は、不一致の項目あるいは欠落した項目
(情報が得られていない項目)について、対応する特徴
データを特徴DB36から読み出して、動作内容設定部
40に出力する。例えば、現在の特徴データが上述した
図2に示したID“1”の特徴データと類似しており、
地点情報についてのみその内容が不一致である場合に
は、ID“1”の特徴データに格納された地点情報(座
標情報「X1,Y1」、道路種別「高速道路」、地点種
別「海」)が読み出される。
If the number of items whose contents match is equal to or greater than the predetermined number, an affirmative determination is made in step 113, and the tendency extraction processing unit 38 determines whether the items are inconsistent or missing (items for which no information is obtained). ), The corresponding feature data is read from the feature DB 36 and output to the operation content setting unit 40. For example, the current feature data is similar to the feature data of ID “1” shown in FIG.
If the contents of the point information only do not match, the point information (coordinate information “X1, Y1”, road type “expressway”, point type “sea”) stored in the feature data of ID “1” is used. Is read.

【0062】動作内容設定部40は、傾向抽出処理部3
8から出力される特徴データに基づいて、不一致項目あ
るいは欠落した項目に対応する動作内容を提案する処理
を行う(ステップ114)。具体的には、例えば、不一
致項目あるいは欠落項目に対応する特徴データとして地
点情報が出力された場合であれば、動作内容設定部40
は、与えられた地点情報に対応する地点を目的地とした
経路誘導を行うことをナビゲーション装置24に備えら
れた表示装置26を用いて利用者に対して提案する。同
様に、動作内容設定部40は、音楽特徴が出力された場
合であれば演奏する楽曲に関する提案を行い、室温情報
が出力された場合であれば車室内の室温の設定温度に関
する提案を行う。そして、図示しない操作部などを用い
て利用者により肯定的な指示が与えられた場合には、動
作内容設定部40は、オーディオ装置20やナビゲーシ
ョン装置24等に対して所定の動作指示を送ることによ
り、提案内容に対応した動作を実現する。なお、上述し
たステップ110〜114に示した処理が動作内容を提
案する為の処理(提案処理)となっている。
The operation content setting section 40 includes the trend extraction processing section 3
Based on the feature data output from step 8, a process for proposing an operation content corresponding to a mismatched item or a missing item is performed (step 114). Specifically, for example, if the spot information is output as the feature data corresponding to the mismatched item or the missing item, the operation content setting unit 40
Proposes to the user using the display device 26 provided in the navigation device 24 to perform route guidance using the point corresponding to the given point information as the destination. Similarly, the operation content setting unit 40 makes a suggestion on the music to be played when the music feature is output, and makes a suggestion on the set temperature of the room temperature in the vehicle compartment when the room temperature information is output. When a user gives a positive instruction using an operation unit (not shown), the operation content setting unit 40 sends a predetermined operation instruction to the audio device 20, the navigation device 24, or the like. As a result, an operation corresponding to the content of the proposal is realized. The processing shown in steps 110 to 114 described above is processing for proposing the operation content (proposing processing).

【0063】ステップ114に示した所定の動作内容の
提案が行われた場合や、上述したステップ109で否定
判断がなされた場合、ステップ111で肯定判断がなさ
れた場合、ステップ112で肯定判断がなされた場合、
ステップ113で否定判断がなされた場合のいずれかに
おいて、特徴関連付け処理部34は、現在の特徴データ
と全ての項目で同じ内容を有する特徴データが既に特徴
DB36に保存されているか否かを判定する(ステップ
115)。
In the case where the proposal of the predetermined operation content shown in step 114 is made, in the case where a negative decision is made in step 109 described above, in the case where an affirmative decision is made in step 111, or when a positive decision is made in step 111, an affirmative decision is made in step 112 If
In any of the cases where a negative determination is made in step 113, the feature association processing unit 34 determines whether or not feature data having the same content in all items as the current feature data is already stored in the feature DB 36. (Step 115).

【0064】同内容の特徴データがまだ保存されていな
い場合には、ステップ115で否定判断がなされ、特徴
関連付け処理部34は、この特徴データを新たに特徴D
B36に保存し(ステップ116)、特徴データの保存
件数を更新する(ステップ117)。また、特徴DB3
6にまだ1件も特徴データが保存されておらず、上述し
たステップ107において肯定判断がなされた場合に
も、ステップ116以降の処理が行われる。
If the feature data having the same content has not been stored yet, a negative determination is made in step 115, and the feature association processing unit 34 newly adds this feature data to the feature D.
B36 (step 116), and the number of stored feature data is updated (step 117). Also, feature DB3
Even if no feature data has been stored yet in step 6 and a positive determination is made in step 107 described above, the processing of step 116 and thereafter is also performed.

【0065】また、現在の特徴データと同じ内容を有す
る特徴データが既に保存されている場合には、上述した
ステップ115で肯定判断がなされ、特徴関連付け処理
部34は、既に保存されている特徴データであって現在
の特徴データと同じ内容を有するものについて、出現頻
度の値を更新する(ステップ118)。ステップ117
またはステップ118に示した処理が行われた後には、
上述したステップ100に戻り、以降の処理が繰り返さ
れる。なお、上述したステップ115〜118に示した
処理が特徴DB36に格納されている特徴データの内容
を更新する学習処理となっている。
If feature data having the same content as the current feature data has already been stored, an affirmative determination is made in step 115 described above, and the feature association processing unit 34 determines whether the feature data already stored is present. Then, for those having the same contents as the current feature data, the value of the appearance frequency is updated (step 118). Step 117
Or, after the processing shown in step 118 is performed,
Returning to step 100 described above, the subsequent processing is repeated. The processing shown in steps 115 to 118 described above is a learning processing for updating the contents of the feature data stored in the feature DB 36.

【0066】このように、本実施形態の車載用システム
では、利用者の感情、行動パターン、周囲環境のそれぞ
れを分析し、これらの分析結果を関連付けて利用者に関
する特徴データとして特徴DB36に格納しており、新
たに、利用者の感情、行動パターン、周囲環境のそれぞ
れが分析された場合には、特徴DB36に格納された特
徴データを参照し、不一致あるいは欠落している項目に
対応する動作内容を提案している。したがって、利用者
が希望する行動パターンを予測して、的確な提案を行う
ことができるとともに、利用者の感情や個性を考慮した
行動パターンの提案を行うことができる。
As described above, in the on-vehicle system according to the present embodiment, each of the user's emotions, behavior patterns, and surrounding environment is analyzed, and the analysis results are stored in the feature DB 36 as characteristic data relating to the user. When each of the user's emotions, behavior patterns, and surrounding environment is newly analyzed, the operation data corresponding to the mismatched or missing item is referred to by referring to the characteristic data stored in the characteristic DB 36. Has been proposed. Therefore, it is possible to predict an action pattern desired by the user and make an accurate proposal, and to propose an action pattern in consideration of the user's emotions and personality.

【0067】なお、本発明は上記実施形態に限定される
ものではなく、本発明の要旨の範囲内において種々の変
形実施が可能である。例えば、上述した実施形態では、
利用者に関する特徴データの項目として、画像特徴、感
情情報、時間情報、音楽特徴、地点情報、室温情報のそ
れぞれを抽出していたが、抽出する特徴データの項目の
内容はこれらに限定されるものではなく、利用者自身に
関する特徴や、利用者の置かれている周囲の環境に関す
るものであればよい。
The present invention is not limited to the above embodiment, and various modifications can be made within the scope of the present invention. For example, in the embodiment described above,
Image features, emotion information, time information, music features, point information, and room temperature information were extracted as items of user-related feature data, but the contents of the extracted feature data items are limited to these. Rather, it may be any characteristic relating to the user himself or the surrounding environment where the user is located.

【0068】また、上述した実施形態では、特徴データ
を新たに特徴DB36に格納するか否かを判定する場合
(図10のステップ115参照)には、特徴データの内
容が1項目でも異なっている場合には、その特徴データ
を新規に保存していたが、非常に内容が類似している特
徴データ(例えば、1項目のみ異なるもの等)が既に保
存されている場合には、この類似している特徴データに
ついてその出現頻度を1増加するようにしてもよい。こ
のように、内容が非常に類似している特徴データについ
て、それらを同一と見なして出現頻度のみを更新する場
合には、特徴DB36に格納する特徴データの保存件数
を低減することができるので、特徴DB36を構成する
ハードディスク装置等の記憶容量を少なくすることがで
きる。
In the above-described embodiment, when it is determined whether or not to newly store the feature data in the feature DB 36 (see step 115 in FIG. 10), the content of the feature data differs even for one item. In such a case, the characteristic data is newly stored. However, when characteristic data having very similar contents (for example, data that differs only by one item) is already stored, the similar data is stored. The appearance frequency of a certain feature data may be increased by one. As described above, in the case where feature data having very similar contents are regarded as the same and only the appearance frequency is updated, the number of pieces of feature data stored in the feature DB 36 can be reduced. The storage capacity of the hard disk device or the like constituting the feature DB 36 can be reduced.

【0069】また、上述した実施形態では、本発明の行
動パターン処理装置を車載用システムに適用した場合に
ついて説明したが、本発明の適用範囲はこれに限定され
るものではなく、他の種々のシステムに対して本発明を
適用することが可能である。具体的には、例えば、動物
型ロボットに対して本発明を適用した場合であれば、利
用者の感情や行動パターンを考慮して、より自然な反応
行動をとる動物型ロボットを実現することができる。
Further, in the above-described embodiment, the case where the behavior pattern processing apparatus of the present invention is applied to an in-vehicle system has been described. However, the application range of the present invention is not limited to this, and other various The present invention can be applied to a system. Specifically, for example, if the present invention is applied to an animal-type robot, it is possible to realize an animal-type robot that takes a more natural reaction behavior in consideration of the emotions and behavior patterns of the user. it can.

【0070】[0070]

【発明の効果】上述したように、本発明によれば、利用
者の行動パターンに対して、それぞれの動作内容の特徴
を抽出して関連付けた関連付けデータを格納することに
より、種々のシチュエーションに対応して利用者特有の
行動パターンに関するデータを蓄積することができる。
したがって、新たに利用者の動作内容の特徴が抽出され
たときには、蓄積された関連付けデータに基づいて利用
者が希望する行動パターンを予測することができるの
で、的確な提案を行うことができる。
As described above, according to the present invention, it is possible to cope with various situations by storing the association data obtained by extracting and associating the characteristics of each action content with the user's action pattern. As a result, data relating to a user-specific behavior pattern can be accumulated.
Therefore, when a feature of the user's action content is newly extracted, an action pattern desired by the user can be predicted based on the accumulated association data, so that an accurate proposal can be made.

【0071】また、利用者の感情と行動パターンを関連
付けた関連付けデータを格納することにより、種々のシ
チュエーションに対応して利用者特有の感情変化や行動
パターンに関するデータを蓄積することができる。した
がって、新たに利用者の感情が判定され、行動パターン
が分析された場合には、蓄積された関連付けデータに基
づいて動作内容の提案を行うことにより、利用者の感情
を考慮した行動パターンの提案を行うことができる。
Also, by storing association data in which the user's emotions and behavior patterns are associated, it is possible to accumulate data relating to user-specific emotion changes and behavior patterns corresponding to various situations. Therefore, when the user's emotion is newly determined and the behavior pattern is analyzed, the action content is proposed based on the accumulated association data, thereby proposing the behavior pattern in consideration of the user's emotion. It can be performed.

【図面の簡単な説明】[Brief description of the drawings]

【図1】一実施形態の車載用システムの全体構成を示す
図である。
FIG. 1 is a diagram showing an overall configuration of a vehicle-mounted system according to an embodiment.

【図2】特徴DBに格納される特徴データの内容を説明
する図である。
FIG. 2 is a diagram illustrating the contents of feature data stored in a feature DB.

【図3】感情認識装置の詳細構成を示す図である。FIG. 3 is a diagram showing a detailed configuration of an emotion recognition device.

【図4】個性DBに格納された個人特定用データの一例
を示す図である。
FIG. 4 is a diagram showing an example of personal identification data stored in a personality DB.

【図5】個性DBに格納された個性データグループの一
例を示す図である。
FIG. 5 is a diagram showing an example of a personality data group stored in a personality DB.

【図6】音声DBに格納されたデータテーブルの一例を
示す図である。
FIG. 6 is a diagram illustrating an example of a data table stored in a voice DB.

【図7】画像DBに格納されたデータテーブルの一例を
示す図である。
FIG. 7 is a diagram illustrating an example of a data table stored in an image DB.

【図8】動作DBに格納されたデータテーブルの一例を
示す図である。
FIG. 8 is a diagram showing an example of a data table stored in an operation DB.

【図9】車載用システムの動作手順を示す流れ図であ
る。
FIG. 9 is a flowchart showing an operation procedure of the vehicle-mounted system.

【図10】車載用システムの動作手順を示す流れ図であ
る。
FIG. 10 is a flowchart showing an operation procedure of the vehicle-mounted system.

【符号の説明】[Explanation of symbols]

10 カメラ 12 画像特徴抽出部 14 感情認識装置 16 時計 18 時間情報抽出部 20 オーディオ装置 22 音楽特徴抽出部 24 ナビゲーション装置 26 表示装置 28 地点情報抽出部 30 空調装置 32 室温情報抽出部 34 特徴関連付け処理部 36 特徴データベース(DB) 38 傾向抽出処理部 40 動作内容設定部 62 個性データベース(DB) 64 個性認識部 Reference Signs List 10 camera 12 image feature extraction unit 14 emotion recognition device 16 clock 18 time information extraction unit 20 audio device 22 music feature extraction unit 24 navigation device 26 display device 28 point information extraction unit 30 air conditioner 32 room temperature information extraction unit 34 feature association processing unit 36 Feature database (DB) 38 Trend extraction processing unit 40 Operation content setting unit 62 Individuality database (DB) 64 Individuality recognition unit

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) B25J 13/00 G06F 3/00 601 G06F 3/00 601 G10L 3/00 531N Fターム(参考) 2C150 CA01 CA02 CA04 DA04 DA05 DA24 DA25 DA26 DA27 DA28 DF03 DF04 DF06 DF33 ED42 ED52 EF07 EF16 EF23 EF29 EF33 EF36 3C007 KS11 KS39 LW03 MT14 WB16 WB17 WB19 WB22 5B075 ND20 NK06 PP28 UU40 5D015 AA06 KK01 5E501 AA22 AA30 AC23 AC33 CB14 CB15 CC20 FA31 ──────────────────────────────────────────────────の Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) B25J 13/00 G06F 3/00 601 G06F 3/00 601 G10L 3/00 531N F term (Reference) 2C150 CA01 CA02 CA04 DA04 DA05 DA24 DA25 DA26 DA27 DA28 DF03 DF04 DF06 DF33 ED42 ED52 EF07 EF16 EF23 EF29 EF33 EF36 3C007 KS11 KS39 LW03 MT14 WB16 WB17 WB19 WB22 5B075 ND20 NK06 PP28 AU30 A30A30 A501 A501 A30A30 A501 A501A30

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 複数の動作内容からなる利用者の行動パ
ターンに対して、それぞれの動作内容の特徴を抽出する
複数の特徴抽出手段と、 前記複数の特徴抽出手段のそれぞれによって抽出された
特徴を関連付けた関連付けデータを格納する特徴データ
ベースと、 新たに、前記特徴抽出手段によって前記利用者の動作内
容の特徴が抽出されたときに、前記特徴データベースに
格納された前記関連付けデータに基づいて、前記複数の
動作内容の少なくとも一つについて提案を行う動作提案
手段と、 を備えることを特徴とする行動パターン処理装置。
1. A plurality of feature extracting means for extracting a feature of each action content from a user's action pattern including a plurality of action content, and a feature extracted by each of the plurality of feature extracting means. A feature database that stores the associated data; and a new feature extraction unit that extracts a feature of the user's operation based on the association data stored in the feature database. And a motion suggesting means for proposing at least one of the motion contents of the above (1).
【請求項2】 利用者の感情を判定する感情判定手段
と、 複数の動作内容からなる前記利用者の行動パターンを分
析する行動パターン分析手段と、 前記感情判定手段によって判定された前記利用者の感情
と、前記行動パターン分析手段によって分析された前記
利用者の行動パターンとを関連付けた関連付けデータを
格納する特徴データベースと、 新たに、前記感情判定手段によって前記利用者の感情が
判定されるとともに、前記行動パターン分析手段によっ
て前記利用者の行動パターンが分析されたときに、前記
特徴データベースに格納された前記関連付けデータに基
づいて、前記複数の動作内容の少なくとも一つについて
提案を行う動作提案手段と、 を備えることを特徴とする行動パターン処理装置。
2. An emotion determining means for determining an emotion of a user, an action pattern analyzing means for analyzing an action pattern of the user including a plurality of operation contents, and an action pattern of the user determined by the emotion determining means. A feature database that stores association data in which the emotion and the user's behavior pattern analyzed by the behavior pattern analysis unit are stored; and a new emotion determination unit determines the user's emotion, When the behavior pattern of the user is analyzed by the behavior pattern analysis means, based on the association data stored in the feature database, an operation proposal means for proposing at least one of the plurality of operation contents. A behavior pattern processing device comprising:
【請求項3】 請求項1または2において、 前記動作提案手段は、新たな前記行動パターンに含まれ
る前記複数の動作内容の一部が前記関連付けデータに含
まれる前記複数の動作内容に対して不一致あるいは欠落
している場合に、前記提案を行うことを特徴とする行動
パターン処理装置。
3. The operation suggestion unit according to claim 1, wherein the operation suggestion unit does not match a part of the plurality of operation contents included in the new action pattern with the plurality of operation contents included in the association data. Alternatively, the behavior pattern processing device is characterized in that the proposal is made when the information is missing.
【請求項4】 請求項1〜3のいずれかにおいて、 前記特徴データベースに対する前記関連付けデータの格
納は、繰り返し取得される前記関連付けデータの内容が
変化したときに行われることを特徴とする行動パターン
処理装置。
4. The behavior pattern processing according to claim 1, wherein the storage of the association data in the feature database is performed when the content of the association data repeatedly acquired changes. apparatus.
【請求項5】 請求項1〜4のいずれかにおいて、 前記利用者の周囲環境を判定する環境判定手段をさらに
備えており、 前記特徴データベースに格納される前記関連付けデータ
には、前記環境判定手段によって判定された周囲環境が
関連付けられていることを特徴とする行動パターン処理
装置。
5. The apparatus according to claim 1, further comprising an environment determination unit configured to determine a surrounding environment of the user, wherein the association data stored in the feature database includes the environment determination unit. A behavior pattern processing device, wherein the surrounding environment determined by the above is associated.
【請求項6】 請求項1〜5のいずれかにおいて、 前記利用者の個性を判定し、所定の候補者の中から特定
の前記利用者を抽出する個性判定手段をさらに備えてお
り、 前記動作提案手段は、前記個性判定手段によって抽出さ
れた特定の前記利用者毎に、前記提案の内容を設定する
ことを特徴とする行動パターン処理装置。
6. The method according to claim 1, further comprising: a personality determination unit configured to determine a personality of the user and extract a specific user from predetermined candidates. The action pattern processing device, wherein the proposal means sets the content of the proposal for each of the specific users extracted by the personality determination means.
JP2000269170A 2000-09-05 2000-09-05 Device for processing behavioral pattern Withdrawn JP2002073634A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000269170A JP2002073634A (en) 2000-09-05 2000-09-05 Device for processing behavioral pattern

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000269170A JP2002073634A (en) 2000-09-05 2000-09-05 Device for processing behavioral pattern

Publications (1)

Publication Number Publication Date
JP2002073634A true JP2002073634A (en) 2002-03-12

Family

ID=18755826

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000269170A Withdrawn JP2002073634A (en) 2000-09-05 2000-09-05 Device for processing behavioral pattern

Country Status (1)

Country Link
JP (1) JP2002073634A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005305631A (en) * 2004-03-25 2005-11-04 Nec Corp Robot and its controlling method
WO2007037427A1 (en) * 2005-09-30 2007-04-05 Pioneer Corporation Content search device, search function-equipped content output device, and content search method
WO2007055259A1 (en) * 2005-11-09 2007-05-18 Pioneer Corporation Navigation device, navigation method, navigation program, and its recording medium
JP2007522838A (en) * 2004-02-05 2007-08-16 モトリカ インク Rehabilitation of fine motor control
JP2008010936A (en) * 2006-06-27 2008-01-17 Olympus Corp Communication system
JP2010198501A (en) * 2009-02-26 2010-09-09 Pioneer Electronic Corp Voice information selecting device, voice information selecting method, voice information selection program, and recording medium
JP2012000449A (en) * 2010-05-17 2012-01-05 Mitsuyoshi Kenkyusho:Kk Behavior analysis method and apparatus
JP2017027614A (en) * 2016-10-05 2017-02-02 ヤフー株式会社 Model generation device, model generation method, and model generation program
KR20180118182A (en) * 2016-03-31 2018-10-30 선전 쾅-츠 허종 테크놀로지 엘티디. Cloud-based facilities and how to operate them
JP2019124952A (en) * 2016-07-26 2019-07-25 ソニー株式会社 Information processing device, information processing method, and program
JP2020052748A (en) * 2018-09-27 2020-04-02 沖電気工業株式会社 Server device, information processing method, program, terminal device, and information communication system

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007522838A (en) * 2004-02-05 2007-08-16 モトリカ インク Rehabilitation of fine motor control
JP4595436B2 (en) * 2004-03-25 2010-12-08 日本電気株式会社 Robot, control method thereof and control program
JP2005305631A (en) * 2004-03-25 2005-11-04 Nec Corp Robot and its controlling method
US8376803B2 (en) 2004-03-25 2013-02-19 Nec Corporation Child-care robot and a method of controlling the robot
WO2007037427A1 (en) * 2005-09-30 2007-04-05 Pioneer Corporation Content search device, search function-equipped content output device, and content search method
WO2007055259A1 (en) * 2005-11-09 2007-05-18 Pioneer Corporation Navigation device, navigation method, navigation program, and its recording medium
JPWO2007055259A1 (en) * 2005-11-09 2009-04-30 パイオニア株式会社 NAVIGATION DEVICE, NAVIGATION METHOD, NAVIGATION PROGRAM, AND ITS RECORDING MEDIUM
JP4573877B2 (en) * 2005-11-09 2010-11-04 パイオニア株式会社 NAVIGATION DEVICE, NAVIGATION METHOD, NAVIGATION PROGRAM, AND ITS RECORDING MEDIUM
JP2008010936A (en) * 2006-06-27 2008-01-17 Olympus Corp Communication system
JP2010198501A (en) * 2009-02-26 2010-09-09 Pioneer Electronic Corp Voice information selecting device, voice information selecting method, voice information selection program, and recording medium
JP2012000449A (en) * 2010-05-17 2012-01-05 Mitsuyoshi Kenkyusho:Kk Behavior analysis method and apparatus
KR20180118182A (en) * 2016-03-31 2018-10-30 선전 쾅-츠 허종 테크놀로지 엘티디. Cloud-based facilities and how to operate them
JP2019518247A (en) * 2016-03-31 2019-06-27 シェン ツェン クアン−チ ヘチョン テクノロジー リミティッド Cloud-based equipment and operation method thereof
KR102156296B1 (en) 2016-03-31 2020-09-15 선전 쾅-츠 허종 테크놀로지 엘티디. Cloud-based equipment and its operation method
JP2019124952A (en) * 2016-07-26 2019-07-25 ソニー株式会社 Information processing device, information processing method, and program
JP2017027614A (en) * 2016-10-05 2017-02-02 ヤフー株式会社 Model generation device, model generation method, and model generation program
JP2020052748A (en) * 2018-09-27 2020-04-02 沖電気工業株式会社 Server device, information processing method, program, terminal device, and information communication system
JP7266984B2 (en) 2018-09-27 2023-05-01 沖電気工業株式会社 Server equipment

Similar Documents

Publication Publication Date Title
EP3496098B1 (en) Generating personalized audio content based on mood
EP3803846B1 (en) Autonomous generation of melody
US7818171B2 (en) Speech recognition apparatus and speech recognition program
JP3667332B2 (en) Standard model creation apparatus and standard model creation method
JP5155943B2 (en) Data processing apparatus, data processing apparatus control program, and data processing method
Clarkson Life patterns: structure from wearable sensors
US7729914B2 (en) Method for detecting emotions involving subspace specialists
US11854550B2 (en) Determining input for speech processing engine
JP2019220194A (en) Information processing device, information processing method and program
JP2001083984A (en) Interface device
JP3892410B2 (en) Music data selection apparatus, music data selection method, music data selection program, and information recording medium recording the same
JP2002182680A (en) Operation indication device
JP2002073634A (en) Device for processing behavioral pattern
WO2004072955A1 (en) Augmentation and calibration of output from non-deterministic text generators by modeling its characteristics in specific environments
Sterling et al. Automated cough assessment on a mobile platform
US11881209B2 (en) Electronic device and control method
JP2017090612A (en) Voice recognition control system
JP2006092430A (en) Music reproduction apparatus
US11706568B2 (en) Devices, systems and processes for providing adaptive audio environments
US20070256435A1 (en) Air Conditioner Control Device and Air Conditioner Control Method
JP2010149757A (en) Awakening continuance support system
CN109074809A (en) Information processing equipment, information processing method and program
WO2019085510A1 (en) Method for training filter model and speech recognition method
JP2000186942A (en) Agent mental model preparing method, and agent device
US20090222266A1 (en) Apparatus, method, and recording medium for clustering phoneme models

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20071106