JP2000194252A - Ideal action support device, and method, system, and recording medium therefor - Google Patents

Ideal action support device, and method, system, and recording medium therefor

Info

Publication number
JP2000194252A
JP2000194252A JP10369922A JP36992298A JP2000194252A JP 2000194252 A JP2000194252 A JP 2000194252A JP 10369922 A JP10369922 A JP 10369922A JP 36992298 A JP36992298 A JP 36992298A JP 2000194252 A JP2000194252 A JP 2000194252A
Authority
JP
Japan
Prior art keywords
information
person
input
behavior
inputting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP10369922A
Other languages
Japanese (ja)
Inventor
Kenichi Inaho
健市 稲穂
Naoko Shinojima
尚子 篠島
Megumi Akihama
めぐみ 秋濱
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP10369922A priority Critical patent/JP2000194252A/en
Publication of JP2000194252A publication Critical patent/JP2000194252A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To make it possible for an examinee him/herself to bring own speech and behavior close to those of an ideal person as a model very easily without always minding a video camera and a microphone, and completely confirming recorded own speech and behavior from the beginning to the end and to confirm the own unsuitable speech and behavior on the real time. SOLUTION: This ideal action support method derives and stores (step S502-S504) parameters based on a voice, a dynamic scene, and a physiologic data according to the speech and behavior of an examinee, and when the device is set to an evaluation mode (step S505), it compares the parameter concerning the speech and behavior of the examinee derived and stored with the parameter concerning the speech and behavior of the model character set in the set mode (step S506), and based on the comparison result, the device generates an advice concerning the improvement of the speech and behavior for approaching to the model character to output it (step S507-S508).

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、被験者の言動を認
識して、当該被験者に対して適切な指示を出すことによ
り、当該被験者の言動を改善することを目的とする理想
行動支援装置及びその方法及びそのシステム並びに記憶
媒体に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an ideal behavior supporting apparatus for recognizing a subject's behavior and giving appropriate instructions to the subject, thereby improving the behavior of the subject, and an ideal behavior support apparatus therefor. The present invention relates to a method and a system thereof, and a storage medium.

【0002】[0002]

【従来の技術】従来、被験者が、自分の言動を客観視す
るためには、自分自身でビデオカメラを設置して、その
ビデオカメラの前で行動を起こすことによって、自分の
行動を録画して、後でその映像を、ビデオ再生装置等で
再生し、自分の行動をチェックする必要があった。
2. Description of the Related Art Conventionally, in order for a subject to observe his / her own words and actions objectively, a video camera is set up by himself / herself and an action is taken in front of the video camera to record his / her own actions. Then, it was necessary to play back the video with a video playback device or the like later and check his / her own action.

【0003】また、被験者が、自分の話し方などの音声
情報を客観視したいのであれば、自分自身でマイク及び
テープレコーダー等の録音装置を設置して、そのマイク
の周囲で発声することによって、自分の声をテープレコ
ーダーや磁気ディスクに録音し、後で再生することによ
って、自分の話し方を確認することが必要であった。
[0003] If a subject wants to view audio information such as his / her own speech objectively, he or she installs a recording device such as a microphone and a tape recorder by himself, and speaks around the microphone. It was necessary to check his voice by recording his voice on a tape recorder or magnetic disk and playing it back later.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、このよ
うな手法で、自分が行動を起こしている際の映像を録画
したり、自分の発声した内容を録音したりする場合、被
験者自身が、自分の目の前に設置されているビデオカメ
ラやマイクを、行動や発言の際に、常に意識してしまう
可能性が高く、被験者の無意識の言動が記録されにくい
という欠点があった。
However, when recording an image of a person who is taking an action or recording the content of his / her own voice by using such a method, the subject himself / herself must use his / her own voice. There is a high possibility that a video camera or a microphone installed in front of the subject is always conscious of actions or remarks, and there is a disadvantage that it is difficult to record the unconscious speech of the subject.

【0005】特に、ビデオカメラの撮像範囲を外れた行
動や、マイクの集音範囲を外れた音声は記録されないの
で、被験者は、行動を起こしたり発言を行っている際
に、設置したビデオカメラやマイクから遠ざからないよ
うに、常に注意している必要があった。
[0005] In particular, since the behavior outside the imaging range of the video camera and the voice outside the sound collection range of the microphone are not recorded, the subject can use the video camera or the video camera installed when taking an action or speaking. I had to be very careful not to stay away from the microphone.

【0006】また、ビデオ再生装置やテープレコーダー
で、映像をや音声を再生している間、被験者は、再現さ
れる自分の言動に対して、常に注意を払わねばならず、
記録された内容が長時間に及ぶような場合には、被験者
に大変な負担を強いていた。
[0006] In addition, while a video playback device or a tape recorder is playing back video or audio, the subject must always pay attention to his or her own reproducible behavior.
When the recorded contents were long, the subject was imposed a great burden.

【0007】また、被験者は、モデルとなる理想の人物
の言動と自分の言動とを、比較対照することができない
ため、どのようにすれば自分の言動を理想の人物の言動
に近づけることができるのか、知る術がなかった。
[0007] In addition, since the subject cannot compare and contrast the behavior of the ideal person as a model with his / her own behavior, how can the subject approach his / her behavior to that of the ideal person. I didn't know how to know.

【0008】また、被験者が不適切な言動を行った場
合、記録した映像や音声を再生する際に、その確認をす
ることができるものの、被験者が行動若しくは発言を行
っている際に、リアルタイムで、被験者自身が、不適切
な言動の確認をすることはできなかった。
[0008] In addition, when a subject makes an inappropriate speech, the recorded video or sound can be confirmed when the recorded video or sound is reproduced. However, the subject himself could not confirm inappropriate behavior.

【0009】以上の問題点に鑑み、本発明は、被験者自
身が、ビデオカメラやマイクを常に意識したり、また、
記録した自分の言動の始めから終わりまでを全て確認し
たりしなくとも、極めて容易に、モデルとなる理想の人
物に自分の言動を近づけることができ、また、自分の不
適切な言動をリアルタイムで確認することができる理想
行動支援装置及びその方法及びそのシステム並びに記憶
媒体を提供することを目的とする。
[0009] In view of the above problems, the present invention provides a method in which the subject himself or herself is always conscious of a video camera or a microphone.
It is very easy to bring your behavior close to the ideal model person without having to check the entire recorded behavior from the beginning to the end, and to see your inappropriate behavior in real time. It is an object of the present invention to provide an ideal behavior support device, a method and a system thereof, and a storage medium that can be confirmed.

【0010】[0010]

【課題を解決するための手段】上記の目的を達成するた
めに、本発明に係る理想行動支援装置は、第1の人物の
言動に関する第1の情報を記憶する記憶手段と、第2の
人物の言動に関する第2の情報を入力する入力手段と、
前記記憶手段に記憶された第1の情報と、前記入力手段
により入力された第2の情報とを比較する比較手段と、
前記比較手段による比較結果に基づいて、前記第2の人
物に対して、前記第1の人物に近づくための言動の改善
に関するアドバイスを通知する通知手段とを設けた。
In order to achieve the above object, an ideal action support device according to the present invention comprises a storage means for storing first information relating to the behavior of a first person, and a second person. Input means for inputting second information relating to the behavior of the person;
Comparing means for comparing the first information stored in the storage means with the second information input by the input means;
Notification means is provided for notifying the second person of advice regarding improvement of behavior to approach the first person based on a comparison result by the comparison means.

【0011】また、上記の目的を達成するために、本発
明に係る理想行動支援方法は、第1の人物の言動に関す
る第1の情報を入力する入力工程と、記憶手段に記憶さ
れた第2の人物の言動に関する第2の情報と、前記入力
工程で入力された第1の情報とを比較する比較工程と、
前記比較工程での比較結果に基づいて、前記第1の人物
に対して、前記第2の人物に近づくための言動の改善に
関するアドバイスを通知する通知工程とを設けた。
[0011] In order to achieve the above object, an ideal behavior support method according to the present invention comprises an input step of inputting first information relating to the behavior of a first person, and a second step stored in a storage means. A comparing step of comparing the second information on the behavior of the person with the first information input in the input step,
And a notifying step of notifying the first person of advice regarding improvement in behavior to approach the second person based on a result of the comparison in the comparing step.

【0012】また、上記の目的を達成するために、本発
明に係る理想行動支援システムは、携帯型端末装置と情
報処理装置とからなる理想行動支援システムであって、
前記携帯型端末装置は、ある人物の言動に関する第1の
情報を入力する入力手段と、前記入力手段により入力さ
れた第1の情報を前記情報処理装置に送信する送信手段
とを有し、前記情報処理装置は、様々な人物と、当該様
々な人物の言動に関する情報を記憶する記憶手段と、前
記記憶手段から、特定の人物と、当該特定の人物の言動
に関する第2の情報を選択する選択手段と、前記携帯型
端末装置から送信された前記第1の情報を受信する受信
手段と、前記受信手段により受信された第1の情報と、
前記選択手段により選択された第2の情報とを比較する
比較手段と、前記比較手段による比較結果に基づいて、
前記ある人物に対して、前記特定の人物に近づくための
言動の改善に関するアドバイスを通知する通知手段とを
有する。
In order to achieve the above object, an ideal behavior support system according to the present invention is an ideal behavior support system comprising a portable terminal device and an information processing device,
The portable terminal device has input means for inputting first information related to the behavior of a certain person, and transmission means for transmitting the first information input by the input means to the information processing apparatus, The information processing device includes a storage unit that stores various people and information about the behavior of the various people, and a selection that selects, from the storage unit, a specific person and second information about the behavior of the specific person. Means, receiving means for receiving the first information transmitted from the portable terminal device, first information received by the receiving means,
Comparing means for comparing the second information selected by the selecting means with the second information, based on a comparison result by the comparing means,
And notifying means for notifying the certain person of advice regarding improvement in behavior for approaching the specific person.

【0013】また、上記の目的を達成するために、本発
明に係る記憶媒体は、第1の人物の言動に関する第1の
情報を入力するための入力モジュールと、記憶手段に記
憶された第2の人物の言動に関する第2の情報と、前記
入力モジュールによる入力により入力された第1の情報
とを比較するための比較モジュールと、前記比較モジュ
ールによる比較による比較結果に基づいて、前記第1の
人物に対して、前記第2の人物に近づくための言動の改
善に関するアドバイスを通知するための通知モジュール
とを有するコンピュータプログラムを格納する。
[0013] In order to achieve the above object, a storage medium according to the present invention comprises an input module for inputting first information relating to the behavior of a first person, and a second module stored in storage means. A comparison module for comparing the second information on the behavior of the person with the first information input by the input module, and the first module based on a comparison result by the comparison module. A computer program having a notification module for notifying a person of advice regarding improvement of behavior in approaching the second person is stored.

【0014】[0014]

【発明の実施の形態】以下、図面を用いながら、本発明
の実施形態について説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0015】(第1の実施形態)本発明の第1の実施形
態として、被験者が、理想行動を支援する機能を持つ腕
時計型携帯情報端末を、実際に腕時計と兼用して使用す
る場合について説明する。
(First Embodiment) As a first embodiment of the present invention, a case will be described in which a subject actually uses a wristwatch-type portable information terminal having a function of supporting ideal behavior while also serving as a wristwatch. I do.

【0016】〔腕時計型携帯情報端末の概要〕まず、図
1から図5を用いて、本第1の実施形態に係る腕時計型
携帯情報端末について、詳しく説明することにする。
[Outline of Wristwatch-Type Portable Information Terminal] First, a wristwatch-type portable information terminal according to the first embodiment will be described in detail with reference to FIGS.

【0017】図1は、本第1の実施形態に係る腕時計型
携帯情報端末の表側の外観図である。
FIG. 1 is an external view of the front side of a wristwatch-type portable information terminal according to the first embodiment.

【0018】1は、超小型で広角のCCDカメラであ
り、被験者を撮像するために用いられ、当該携帯情報端
末本体と着脱が可能で、本体から取り外した場合には、
無線で映像を本体に飛ばす構成となっている。2は、マ
イクであり、被験者の声及び周囲の音声を集音するため
に用いられる。3は、スピーカーであり、被験者に対し
て警告音や警告メッセージ等を報知するために用いられ
る。4は、液晶ディスプレイであり、通常は、時計モー
ドとして現在時刻を表示している。
Reference numeral 1 denotes an ultra-small and wide-angle CCD camera which is used to image a subject and is detachable from the main body of the portable information terminal.
The video is sent to the main body wirelessly. Reference numeral 2 denotes a microphone, which is used to collect a subject's voice and surrounding sounds. Reference numeral 3 denotes a speaker, which is used to notify a test subject of a warning sound, a warning message, and the like. Reference numeral 4 denotes a liquid crystal display, which normally displays the current time in a clock mode.

【0019】また、5は、時計合わせボタンであり、こ
のボタンを操作することにより、液晶ディスプレイ4に
表示された現在時刻を調整する。6は、モードボタンで
あり、時計モードから他のモードに切り替えるために押
下される。7は、セレクトボタンであり、液晶ディスプ
レイ4上の表示で、何らかの候補の確定が必要な場合に
押下される。8は、矢印ボタンであり、液晶ディスプレ
イ4上の表示で、何らかの候補が複数あって、その内の
1つを選択する場合に、その際の移動方向に応じた向き
のボタンが押下される。
Reference numeral 5 denotes a clock adjustment button. By operating this button, the current time displayed on the liquid crystal display 4 is adjusted. A mode button 6 is pressed to switch from the clock mode to another mode. Reference numeral 7 denotes a select button, which is displayed on the liquid crystal display 4 and depressed when any candidate needs to be determined. Reference numeral 8 denotes an arrow button, which is displayed on the liquid crystal display 4, and when there are a plurality of candidates and one of them is selected, a button having a direction corresponding to the moving direction at that time is pressed.

【0020】また、9は、データカードスロットであ
り、種々のデータカードを挿入することが可能となって
いる。
Reference numeral 9 denotes a data card slot, into which various data cards can be inserted.

【0021】図2は、本第1の実施形態に係る腕時計型
携帯情報端末の裏側の外観図である。
FIG. 2 is an external view of the back side of the wristwatch-type portable information terminal according to the first embodiment.

【0022】10は、発汗センサーであり、被験者の発
汗量を測定するために用いられる。11は、心拍血圧セ
ンサーであり、被験者の心拍数、最大血圧、最小血圧等
を測定するために用いられる。
Reference numeral 10 denotes a perspiration sensor, which is used to measure the amount of perspiration of the subject. Reference numeral 11 denotes a heart rate blood pressure sensor, which is used to measure a subject's heart rate, maximum blood pressure, minimum blood pressure, and the like.

【0023】図3は、本第1の実施形態に係る腕時計携
帯情報端末の内部におけるハードウエア接続図である。
FIG. 3 is a hardware connection diagram inside the wristwatch portable information terminal according to the first embodiment.

【0024】301は、CPUであり、各ハードウエア
に対して各種の制御を行う。302は、RAMであり、
CPU301による処理中の作業領域として用いられ、
各種データが一時的に記憶される。このRAM302の
内部構成については、以下の図4で詳しく説明する。ま
た、303は、ROMであり、本第1の実施形態に係る
処理を実現するためのコンピュータプログラムが格納さ
れている。304は、HDDであり、本第1の実施形態
に係る処理に必要な各種データベースが保存されてい
る。このHDD304の内部構成については、以下の図
5で詳しく説明する。
Reference numeral 301 denotes a CPU which performs various controls on each hardware. 302 is a RAM,
Used as a work area during processing by the CPU 301,
Various data are temporarily stored. The internal configuration of the RAM 302 will be described in detail with reference to FIG. Reference numeral 303 denotes a ROM, which stores a computer program for implementing the processing according to the first embodiment. Reference numeral 304 denotes an HDD, which stores various databases necessary for processing according to the first embodiment. The internal configuration of the HDD 304 will be described in detail with reference to FIG.

【0025】また、305は、カメラ制御部であり、C
CDカメラ1の動作を制御する。また、CCDカメラ1
を本体から分離して使用する際には、カメラ制御部30
5とCCDカメラ1との間では、不図示の通信インター
フェースを介して情報のやり取りが行われる。
Reference numeral 305 denotes a camera control unit.
The operation of the CD camera 1 is controlled. In addition, CCD camera 1
When using the camera separately from the main body, the camera control unit 30
Information is exchanged between the camera 5 and the CCD camera 1 via a communication interface (not shown).

【0026】306は、マイク制御部であり、マイク2
の動作を制御する。307は、スピーカー制御部であ
り、スピーカー3の動作を制御する。308は、ディス
プレイ制御部であり、液晶ディスプレイ4の動作を制御
する。309は、ボタン制御部であり、時計合わせボタ
ン5、モードボタン6、セレクトボタン7、矢印ボタン
8等の各種ボタンに関する制御を行う。310は、セン
サー制御部310であり、発汗センサー10及び心拍血
圧センサーの動作を制御する。
Reference numeral 306 denotes a microphone control unit.
Control the operation of. A speaker control unit 307 controls the operation of the speaker 3. A display control unit 308 controls the operation of the liquid crystal display 4. A button control unit 309 controls various buttons such as a clock setting button 5, a mode button 6, a select button 7, and an arrow button 8. Reference numeral 310 denotes a sensor control unit 310 which controls the operation of the perspiration sensor 10 and the heart rate blood pressure sensor.

【0027】311は、データカード制御部であり、デ
ータカードスロット9に挿入されたデータカード312
に関する制御を行う。データカード312がデータカー
ドスロット9に挿入されると、RAM302やHDD3
04からデータカード312に情報を送り、当該腕時計
型携帯情報端末内のデータを外部に移植することが可能
となる。
Reference numeral 311 denotes a data card control unit, which is a data card 312 inserted into the data card slot 9.
Control related to When the data card 312 is inserted into the data card slot 9, the RAM 302 or the HDD 3
04 to the data card 312, and the data in the wristwatch-type portable information terminal can be externally ported.

【0028】なお、313は、時計制御部であり、内蔵
されている時計314を制御する。そして、315は、
バスであり、上記各ハードウエアを相互に接続する。
Reference numeral 313 denotes a clock control unit which controls a built-in clock 314. And 315 is
A bus that interconnects the above hardware.

【0029】図4は、RAM302内部のメモリマップ
である。
FIG. 4 is a memory map inside the RAM 302.

【0030】3020は、モデルパラメータ記憶領域で
あり、後述するモデル人物と、その人物の各評価項目に
おけるパラメータの値を記憶する。3021は、音声記
憶領域であり、音声を記憶する。3022は、画像デー
タ記憶領域であり、画像データを記憶する。3023
は、生理データ記憶領域であり、各種の生理的データを
記憶する。3024は、音声変換文字列記憶領域であ
り、音声が文字列に変換された際の文字列を記憶する。
3025は、定量化データ記憶領域であり、被験者の言
動から定量化されたデータを記憶する。3026は、被
験者パラメータ記憶領域であり、被験者の言動に基づい
て求められたパラメータの値を記憶する。
Reference numeral 3020 denotes a model parameter storage area which stores a model person described later and parameter values of each evaluation item of the person. Reference numeral 3021 denotes a voice storage area for storing voice. Reference numeral 3022 denotes an image data storage area for storing image data. 3023
Is a physiological data storage area for storing various physiological data. Reference numeral 3024 denotes a voice conversion character string storage area which stores a character string when voice is converted to a character string.
Reference numeral 3025 denotes a quantified data storage area for storing data quantified from the subject's behavior. A subject parameter storage area 3026 stores parameter values obtained based on the subject's behavior.

【0031】図5は、HDD304内部のメモリマップ
である。
FIG. 5 is a memory map inside the HDD 304.

【0032】3040は、モデル設定データベースであ
り、後述する複数のモデル人物と、その各人物の各評価
項目におけるパラメータの値とが格納されている。30
41は、敬語運用知識データベースであり、敬語を運用
するために必要な人間関係を会話場面毎に記述した情報
群が格納されている。3042は、敬語文法知識データ
ベースであり、書換え可能なその単語の尊敬形、謙譲
形、丁寧形を単語毎に記述した情報群が格納されてい
る。3043は、ほめ言葉データベースであり、相手を
ほめるフレーズが格納されている。
Reference numeral 3040 denotes a model setting database, which stores a plurality of model persons, which will be described later, and parameter values of each person in each evaluation item. 30
Reference numeral 41 denotes an honorific operation knowledge database, which stores a group of information describing human relationships necessary for operating honorific words for each conversation scene. Reference numeral 3042 denotes an honorific grammar knowledge database, which stores a group of information in which the rewritable, respectable, modest, and polite forms of the rewritable word are described for each word. Reference numeral 3043 denotes a compliment database in which phrases for complimenting the other party are stored.

【0033】また、3044は、全身モデル画像データ
ベースであり、人間の全身の様々な姿勢モデルの画像が
格納されている。3045は、顔モデルデータベースで
あり、人間の顔の様々な輪郭モデルの画像が格納されて
いる。3046は、目部分画像データベースであり、人
間の顔の目部分の様々なモデル画像が格納されている。
3047は、口部分画像データベースであり、人間の顔
の口部分の様々なモデル画像が格納されている。
Reference numeral 3044 denotes a whole-body model image database, which stores images of various posture models of the whole human body. Reference numeral 3045 denotes a face model database in which images of various contour models of a human face are stored. Reference numeral 3046 denotes an eye part image database in which various model images of the eye part of the human face are stored.
Reference numeral 3047 denotes a mouth part image database which stores various model images of a mouth part of a human face.

【0034】また、3048は、動作音声関連データベ
ースであり、人間の動作とその音声とをセットにした情
報が格納されている。3049は、体調判断知識データ
ベースであり、被験者の生理データ、姿勢、動作、顔の
表情等を組み合わせて判断して、被験者の体調がどのよ
うな状態にあるのかを判断するための情報群が格納され
ている。
Reference numeral 3048 denotes an operation voice-related database which stores information in which a human operation and its voice are set. Reference numeral 3049 denotes a physical condition determination knowledge database, which stores a group of information for determining the physical condition of the subject by determining the physical condition, posture, movement, facial expression, and the like of the subject in combination. Have been.

【0035】また、3050は、アドバイス付与知識デ
ータベースであり、モデル人物の言動と被験者の言動の
差異の絶対値と、被験者に対するアドバイスとをセット
にした情報が格納されている。3051は、フレーズデ
ータベースであり、ベストフレーズの言葉とワーストフ
レーズの言葉とが格納されており、書き換え可能となっ
ている。
Reference numeral 3050 denotes an advice-giving knowledge database, which stores information in which the absolute value of the difference between the behavior of the model person and the subject and the advice to the subject are set. Reference numeral 3051 denotes a phrase database that stores words of the best phrase and words of the worst phrase, and is rewritable.

【0036】〔モデルとなる理想の人物の設定につい
て〕次に、このような腕時計型携帯情報端末に対して、
被験者のモデルとなる理想の人物を、どのように設定す
るか、その手順について説明することにする。
[Setting of Ideal Model Person] Next, for such a wristwatch-type portable information terminal,
The procedure for setting an ideal person to be a model of a subject will be described.

【0037】まず、モデル設定モードになるまで、モー
ドボタン6を押下する。モデル設定モードになると、図
6のように、液晶ディスプレイ4の左上に、「モデル設
定」と表示される。
First, the mode button 6 is pressed until the model setting mode is set. In the model setting mode, “model setting” is displayed at the upper left of the liquid crystal display 4 as shown in FIG.

【0038】以下、図7を参照しながら、その後の操作
手順を説明することにする。
Hereinafter, the subsequent operation procedure will be described with reference to FIG.

【0039】まず、モデル設定モードになった状態で、
矢印ボタン8の中の下矢印ボタンを押下すると、液晶デ
ィスプレイ4上の「モデル設定」の下に、「モデル人
物」と「オリジナル人物」の2つのカテゴリーが表示さ
れる。「モデル人物」を選択すると、予め設定されてい
る人物のいずれかを選択することになり、「オリジナル
人物」を選択すると、被験者が理想とする全くオリジナ
ルな人物を設定することができる。とりあえず、ここで
は、「モデル人物」を選ぶことにする。
First, in the model setting mode,
When the down arrow button in the arrow buttons 8 is pressed, two categories of “model person” and “original person” are displayed under “model setting” on the liquid crystal display 4. When "model person" is selected, one of the preset persons is selected, and when "original person" is selected, a completely original person ideal for the subject can be set. For now, here, "model person" is selected.

【0040】「モデル人物」を選択すると、「男性」と
「女性」の2つのカテゴリーが表示される。ここで、矢
印ボタン8を操作して、「女性」を選択すると、「女
性」の右側に、「歴史上の人物」、「芸能人」、「その
他の有名人」、「架空の人物」等のカテゴリーが表示さ
れる。ここで、「歴史上の人物」を選択すると、その右
側に、「清少納言」、「紫式部」、「ナイチンゲー
ル」、「ジャンヌ・ダルク」、「マザー・テレサ」等の
具体的な人物の選択肢が表示される。ここで、矢印ボタ
ン8の中の下矢印ボタンを何回か押下すると、「マザー
・テレサ」が選択状態となる。
When "model person" is selected, two categories of "male" and "female" are displayed. Here, when the "women" is selected by operating the arrow buttons 8, categories such as "historical figures", "entertainers", "other celebrities", and "fictional figures" are displayed on the right side of "woman". Is displayed. Here, when you select "History person", the right side displays the choices of specific people such as "Seijin no Shonen", "Murasaki Shikibu", "Nightingale", "Jeanne d'Arc", "Mother Teresa" Is done. Here, when the down arrow button in the arrow buttons 8 is pressed several times, “Mother Teresa” is selected.

【0041】次に、「マザー・テレサ」が選択された状
態で、矢印ボタン8から手を離すと、図8のような表示
が現れる。これは、選択対象が「マザー・テレサ」で正
しいかどうかを被験者に促す表示であり、「OK」、
「キャンセル」、「オプション」、「ヘルプ」の選択肢
が表示され、初期状態では「OK」が選択されている。
ここで、モデル人物として選択対象が「マザー・テレ
サ」で正しければ、被験者は、そのまま、セレクトボタ
ン7を押下することになる。このセレクトボタン7の押
下によって、モデルとなる理想の人物が「マザー・テレ
サ」であると設定される。そして、設定確定後は、時計
モードに自動的に戻り、液晶ディスプレイ上には、再
び、現在時刻が表示される。
Next, when the user releases the arrow button 8 with "Mother Teresa" selected, a display as shown in FIG. 8 appears. This is a display that prompts the subject whether the selection target is “Mother Teresa” or not, “OK”,
Choices of “cancel”, “option”, and “help” are displayed, and “OK” is selected in the initial state.
Here, if the selection target as the model person is “Mother Teresa”, the subject presses the select button 7 as it is. By pressing the select button 7, the ideal model person is set as “Mother Teresa”. After the setting is confirmed, the mode automatically returns to the clock mode, and the current time is displayed again on the liquid crystal display.

【0042】被験者がキャンセルしたい場合には、矢印
ボタン8の中の右矢印ボタンを1回押下して「キャンセ
ル」を選択してからセレクトボタン7を押せばよいし、
「マザー・テレサ」に関して予め与えられているパラメ
ータの値を変更したいような場合には、右矢印ボタンを
2回押下して「オプション」を選択し、セレクトボタン
7を押下すればよい。この「オプション」選択時の処理
については、後に詳述する。なお、ヘルプを求める場合
には、更に一つ右の「ヘルプ」を選択すればよい。
When the subject wants to cancel, the user may press the right arrow button of the arrow buttons 8 once to select "cancel" and then press the select button 7;
When it is desired to change the value of a parameter given in advance for “Mother Teresa”, the user may press the right arrow button twice, select “option”, and press the select button 7. The processing when this “option” is selected will be described later in detail. To request help, the user may select "Help" one position to the right.

【0043】上記の図7に表示されるモデル人物に関す
る情報は、HDD304内のモデル設定データベース3
040に予め記憶されているものである。つまり、今回
選択した「マザー・テレサ」、及び、それに関連する情
報は、モデル設定データベース3040に予め格納され
ていることになる。もちろん、データカード3312を
介して外部から情報を得るようにしても構わない。
The information on the model person displayed in FIG. 7 is stored in the model setting database 3 in the HDD 304.
040 is stored in advance. That is, the “Mother Teresa” selected this time and the information related thereto are stored in the model setting database 3040 in advance. Of course, information may be obtained from outside via the data card 3312.

【0044】このモデル設定データベース3040にお
いては、各モデル人物の言動に対して、以下の表1のよ
うな評価項目とパラメータが予め設定されている。
In the model setting database 3040, evaluation items and parameters as shown in Table 1 below are set in advance for the behavior of each model person.

【0045】[0045]

【表1】 [Table 1]

【0046】すなわち、各人物の言動に関する評価項目
は、大きく分けると、「話し方」、「身のこなし」、
「体の状態」の3つの状態に関するものとなり、例え
ば、「話し方」としては、「音量」、「音域」、「速
度」、「なめらかさ」、「丁寧度」、「敬語」、「ほめ
度」、「冷静さ」、「押しの強さ」、「聞き上手」があ
る。もちろん、表1に示したものは、評価項目の一例に
過ぎず、「笑い方」や「食べ方」に関する評価項目があ
っても構わない。
In other words, the evaluation items relating to the behavior of each person can be roughly divided into “speech”, “personal”,
It is related to three states of "body state". For example, "speaking style" includes "volume", "range", "speed", "smoothness", "attentiveness", "honorifics", and "praise degree""," Coolness "," Strength of pushing ", and" Good listening ". Of course, what is shown in Table 1 is only an example of the evaluation items, and there may be evaluation items related to “how to laugh” and “how to eat”.

【0047】そして、各評価項目には、ある値が設定さ
れており、例えば、「音量」の場合は、各人物によっ
て、「a大きい」、「bやや大きい」、「c普通」、
「dやや小さい」、「e小さい」のいずれかの値が与え
られている。もちろん、他の項目についても同様に、い
ずれかの値がパラメータとして与えられている。
A certain value is set for each evaluation item. For example, in the case of “volume”, “a large”, “b slightly large”, “c normal”,
Any value of “d is slightly smaller” or “e is smaller” is given. Of course, for other items, similarly, any value is given as a parameter.

【0048】もちろん、モデル人物に関する、これらの
値は、表面的なイメージ等で与えられているものであ
り、常にその人物の実像と一致しているとは限らないの
で、被験者が、予め与えられているパラメータの値に違
和感を感じるような場合には、被験者の好みに応じて、
パラメータを変更するのでもよい。
Of course, these values for the model person are given as superficial images and the like, and do not always correspond to the real image of the person. If you feel uncomfortable with the values of the parameters you are using,
The parameter may be changed.

【0049】ただし、そのような場合は、モデルとなる
理想の人物を選んで、図8に示すようなモデル確定の画
面が表示されたら、そのままセレクトボタン7を押下す
るのではなく、矢印ボタン8の中の右矢印ボタンを2回
押下して、「オプション」を選んだ後に、セレクトボタ
ン7を押下する。すると、図9のようなパラメータ設定
画面が、液晶ディスプレイ4上に現れるので、後は、液
晶ディスプレイ4上の指示に従って、予め与えられてい
るパラメータの値を変更すればよい。図9の場合は、例
として「音量」が選択されており、「dやや小さい」の
値が予め与えられているので、変更を加えたい場合に
は、矢印ボタン8を押下して設定を変えればよい。
In such a case, however, an ideal person to be a model is selected, and when a model confirmation screen as shown in FIG. 8 is displayed, the select button 7 is not pressed and the arrow button 8 is pressed. Is pressed twice, to select "option", and then the select button 7 is pressed. Then, a parameter setting screen as shown in FIG. 9 appears on the liquid crystal display 4. Thereafter, the value of the parameter given in advance may be changed according to the instruction on the liquid crystal display 4. In the case of FIG. 9, “volume” is selected as an example, and the value of “d is slightly lower” is given in advance, so if you want to make a change, press the arrow button 8 to change the setting. I just need.

【0050】なお、モデル設定モードに入って、「モデ
ル人物」ではなく、「オリジナル人物」を選択した場合
も、図9と同様のパラメータ設定画面が現れ、自分の理
想とする言動に関する値を自在に設定することができ
る。
When the user enters the model setting mode and selects "original person" instead of "model person", a parameter setting screen similar to that shown in FIG. 9 appears, and the user can freely set values relating to his or her ideal behavior. Can be set to

【0051】以上のような手法で、腕時計型携帯情報端
末に対して、被験者のモデルとなる理想の人物と、各評
価項目におけるその人物のパラメータを設定することが
できる。
In the above-described manner, an ideal person serving as a model of a subject and parameters of the person in each evaluation item can be set in the wristwatch-type portable information terminal.

【0052】なお、一旦モデル設定を行った後でも、再
びモデル設定モードに戻せば、いつでもモデルの再設定
を行うことができるのは言うまでもない。
Needless to say, even after the model has been set once, the model can be reset at any time by returning to the model setting mode.

【0053】〔理想行動支援プログラムによる処理の概
要〕次に、上記のような腕時計型携帯情報端末を付けた
被験者が、実際に、行動したり発言したりした結果、ど
のようにして、当該情報端末から、理想行動を支援する
ためのアドバイスが出力されるのか、その処理の概要に
ついて説明することにする。
[Outline of Processing by Ideal Behavior Support Program] Next, as a result of a subject wearing a wristwatch-type portable information terminal as described above actually acting or speaking, An outline of the process of whether advice for supporting ideal behavior is output from the terminal will be described.

【0054】図10は、本第1の実施形態に係る理想行
動支援処理のフローチャートである。
FIG. 10 is a flowchart of the ideal behavior support processing according to the first embodiment.

【0055】この図10におけるフローチャートを実現
するためのコンピュータプログラムは、ROM303に
格納されており、CPU301によって処理される。
A computer program for realizing the flowchart in FIG. 10 is stored in the ROM 303 and is processed by the CPU 301.

【0056】まず、ステップS501において、腕時計
型携帯情報端末のモードが、モデル設定モードであるか
否かを判別する。モデル設定モードである場合には、ま
だモデル設定を行っている最中なので、モードが変更さ
れるのを待つ。また、モデル設定モードでない場合に
は、モデル設定が既に行われているということなので、
ステップS502において、被験者の言動により得られ
る音声、動画像、生理データ等を、RAM302に記憶
する。
First, in step S501, it is determined whether or not the mode of the wristwatch type portable information terminal is the model setting mode. In the case of the model setting mode, since the model setting is still being performed, the process waits until the mode is changed. If the mode is not the model setting mode, it means that the model setting has already been performed.
In step S502, a voice, a moving image, physiological data, and the like obtained by the subject's behavior are stored in the RAM 302.

【0057】次に、ステップS503に進み、ステップ
S502で得られた音声、動画像、生理データに基づい
て、各評価項目のパラメータの値を導出し、ステップS
504において、その導出されたパラメータの値をRA
M302に記憶する。
Next, the process proceeds to step S503, in which the values of the parameters of each evaluation item are derived based on the voice, moving image, and physiological data obtained in step S502.
At 504, the value of the derived parameter is
It is stored in M302.

【0058】そして、ステップS505において、腕時
計型携帯情報端末のモードが、評価モードに変わったか
否かを判別する。評価モードに変わっていない場合に
は、まだ、情報を蓄積する必要があるので、ステップS
502に戻り、被験者の言動により得られる音声、動画
像、生理データ等を、RAM302に記憶する。そし
て、評価モードに変わった場合には、次のステップS5
06以降に進み、被験者の言動を評価する処理を行う。
Then, in step S505, it is determined whether or not the mode of the wristwatch-type portable information terminal has changed to the evaluation mode. If the mode has not been changed to the evaluation mode, it is still necessary to accumulate information.
Returning to 502, a voice, a moving image, physiological data, and the like obtained by the subject's behavior are stored in the RAM 302. When the mode is changed to the evaluation mode, the next step S5
The process proceeds to step 06 onward to perform a process of evaluating the subject's behavior.

【0059】まず、ステップS506において、前述し
た方法で設定したモデル人物の各評価項目のパラメータ
と、ステップS504でRAM302に記憶された被験
者の各評価項目のパラメータとを比較する。そして、ス
テップS507に進み、ステップS506で求められた
比較結果に基づいて、被験者に対するアドバイスを生成
し、最後、ステップS508において、ステップS50
7で生成したアドバイスを出力して、一連の処理を終了
する。
First, in step S506, the parameters of each evaluation item of the model person set by the method described above are compared with the parameters of each evaluation item of the subject stored in the RAM 302 in step S504. Then, the process proceeds to step S507, where advice for the subject is generated based on the comparison result obtained in step S506, and finally, in step S508, step S50 is performed.
The advice generated in step 7 is output, and the series of processing ends.

【0060】なお、ステップS502において、被験者
の言動から、音声、動画像、生理データの全てが得られ
なかった場合でも、得られた情報のみで、その後の処理
を行うことが可能である。
In step S502, even when all of the voice, moving image, and physiological data cannot be obtained from the subject's behavior, the subsequent processing can be performed using only the obtained information.

【0061】〔被験者の言動の記録とパラメータ化につ
いて〕次に、図10に示したフローチャートにおけるス
テップS502及びステップS503における処理につ
いて、更に詳しく説明することにする。
[Regarding Recording and Parameterization of Subject's Behavior] Next, the processing in steps S502 and S503 in the flowchart shown in FIG. 10 will be described in more detail.

【0062】これらのステップでは、要するに、腕時計
型携帯情報端末を付けた被験者が、行動したり発言した
りした場合に、その行動を録画し、また、その発言を録
音して、録画した画像及び録音した音声を、表1に示し
たような評価項目のパラメータの値に変換する処理を行
っている。
In these steps, in short, when the subject wearing the wristwatch-type portable information terminal acts or speaks, the behavior is recorded, and the speech is recorded. A process of converting the recorded voice into parameter values of the evaluation items as shown in Table 1 is performed.

【0063】以下、「話し方」、「身のこなし」、「体
の状態」の3つに分けて、説明する。
In the following, description will be made in three cases, namely, "speaking style", "self-care", and "body state".

【0064】<話し方>図11は、CPU301におけ
る「話し方」に関する処理の機能ブロック図である。
<How to Speak> FIG. 11 is a functional block diagram of a process relating to “how to speak” in the CPU 301.

【0065】以下、図11を用いて、本第1の実施形態
に係る「話し方」に関する処理を、処理順序にしたがっ
て説明する。
Referring to FIG. 11, the processing relating to "how to speak" according to the first embodiment will be described in the order of processing.

【0066】まず、マイク2から入力された音声は、R
AM302内の音声記憶領域3021に格納され、音声
記憶領域3021に格納された音声は、認識機能801
により認識され、認識された音声は、音声分離機能80
2により、被験者本人の音声a、被験者以外の人物の音
声b、それ以外の音声cの3つの音声に分離される。そ
して、分離された被験者本人の音声a、被験者以外の人
物の音声bは、音声分析機能803により分析されて、
その結果として、被験者本人の音声aと、被験者以外の
人物の音声bの、音量、音域、速度、波長の振幅等の値
が求められる。そして、パラメータ設定機能804によ
り、被験者本人の音声aに関する結果から、1−1音
量、1−2音域、1−3速度、1−4なめらかさ、1−
8冷静さ、のパラメータが設定され、被験者以外の人物
の音声bに関する値から、1−10聞き上手、のパラメ
ータが設定され、さらに、その双方に関する値から、1
−9押しの強さ、のパラメータが設定される。なお、そ
れ以外の音声cは、後述する動作音検出機能1021に
送られ、ここでのパラメータ導出には用いられない。
First, the sound input from the microphone 2 is R
The voice stored in the voice storage area 3021 in the AM 302 is stored in the voice storage area 3021.
Is recognized by the voice separation function 80
According to 2, the voice is separated into three voices: voice a of the subject himself, voice b of a person other than the subject, and voice c other than the voice. Then, the separated voice a of the subject and the voice b of the person other than the subject are analyzed by the voice analysis function 803.
As a result, values such as the volume, the sound range, the speed, and the amplitude of the wavelength of the voice a of the subject and the voice b of the person other than the subject are obtained. Then, the parameter setting function 804 obtains, based on the result concerning the voice a of the subject, 1-1 volume, 1-2 range, 1-3 speed, 1-4 smoothness, 1-smoothness,
8 is set, and a parameter of 1-10 is good from the value of the voice b of the person other than the subject.
The parameter of -9 pressing strength is set. Note that the other voice c is sent to the operation sound detection function 1021 described later, and is not used for parameter derivation here.

【0067】また、被験者本人の音声aに関しては、音
声分離機能802により分離された後に、対人会話能力
分析機能805によって、被験者が対人会話に適した会
話表現を利用しているか否かを分析して、その分析結果
から、パラメータ設定機能804により、1−5丁寧
度、1−6敬語、1−7ほめ度、のパラメータが設定さ
れる。
Further, with respect to the voice a of the subject, after being separated by the voice separating function 802, the interpersonal conversation ability analysis function 805 analyzes whether or not the subject uses a conversation expression suitable for the interpersonal conversation. Then, from the analysis result, parameters of 1-5 politeness, 1-6 honorifics, and 1-7 praise are set by the parameter setting function 804.

【0068】図12を用いて、この対人会話能力判定機
能805について、更に詳しく説明することにする。
The interpersonal conversation ability determination function 805 will be described in more detail with reference to FIG.

【0069】まず、被験者本人の音声aは、言語処理機
能901により文字情報に変換される。この文字情報は
発話理解機能902により理解され、理解された内容が
対話管理機能903により分析されて応答内容が生成さ
れる。この応答内容は敬語生成機能904により正しい
表現の文に変換される。
First, the voice a of the subject himself is converted into character information by the language processing function 901. This character information is understood by the utterance understanding function 902, and the understood contents are analyzed by the dialogue management function 903 to generate response contents. This response content is converted into a sentence with a correct expression by the honorific generation function 904.

【0070】次に、言語処理機能901により文字情報
に変換された被験者本人の音声aを内容とする文字列
と、発話理解機能902により理解され、敬語生成機能
904により変換された正しい表現をもった発話を内容
とする文字列とが、評価機能905により比較され、評
価される。
Next, a character string containing the subject's voice a converted into character information by the language processing function 901 and a correct expression understood by the utterance understanding function 902 and converted by the honorific word generation function 904 are provided. The evaluation function 905 compares and evaluates the character string having the utterance as the content.

【0071】評価機能905による処理は、HDD30
4内に記憶され、敬語を運用するために必要な人間関係
を会話場面毎に記述した敬語運用知識データベース30
41と、書換え可能なその単語の尊敬形、謙譲形、丁寧
形を単語毎に記述した敬語文法知識データベース304
2と、相手をほめるフレーズを記述したほめ言葉データ
ベース3043を使用して行われる。
The processing by the evaluation function 905 is performed by the HDD 30
4 and a human relations knowledge database 30 describing the human relationships necessary to use the honorifics for each conversation scene.
41 and an honorific grammar knowledge database 304 in which the rewritable, respectable, humble and polite forms of the rewritable word are described for each word.
2 and a praise database 3043 that describes phrases that praise the other party.

【0072】具体的には、被験者の発話に出現する敬語
の回数や、ほめ言葉の回数をカウントし、また、敬語の
不使用や誤用、尊敬語と謙譲語の取り違えなどの誤り部
分を見つけ、それらをカウントすることによって、被験
者の対人会話能力が評価される。
More specifically, the number of honorific words and the number of praise words appearing in the utterance of the subject are counted, and errors such as nonuse or misuse of honorific words, and mistakes between honorific words and humble words are found. By counting them, the interpersonal conversation ability of the subject is evaluated.

【0073】そして、パラメータ設定機能804によ
り、このような一連の処理を経て分析された内容に基づ
いて、1−5丁寧度、1−6敬語、1−7ほめ度、のパ
ラメータが設定される。
The parameter setting function 804 sets the parameters of 1-5 politeness, 1-6 honorifics, and 1-7 praise, based on the contents analyzed through such a series of processing. .

【0074】<身のこなし>図13は、CPU301に
おける「身のこなし」処理の機能ブロック図である。
FIG. 13 is a functional block diagram of the "body-care" process in the CPU 301.

【0075】以下、図13を用いて、本第1の実施形態
に係る「身のこなし」に関する処理を、処理順序にした
がって説明する。
Hereinafter, with reference to FIG. 13, the processing relating to “self-care” according to the first embodiment will be described in the order of processing.

【0076】まず、カメラ1の設置場所だが、腕時計型
携帯情報端末から被験者が十分見える位置にいる時は、
当該情報端末に付けたまま利用し、また、被験者が十分
見える位置にいない時は、当該情報端末から外して、被
験者を捉えることができる位置に設置する。その場合の
映像は、カメラ1から無線で当該情報端末に飛ばすよう
にする。
First, at the place where the camera 1 is installed, when the subject is sufficiently visible from the wristwatch-type portable information terminal,
Use it while attached to the information terminal, and when it is not in a position where the subject can be seen sufficiently, remove it from the information terminal and install it in a position where the subject can be grasped. The video in that case is wirelessly sent from the camera 1 to the information terminal.

【0077】なお、前述したように、このようなカメラ
1は、大変小型であるため、被験者がその存在をほとん
ど意識する必要がなく、また、広角であるため、被験者
が多少動いても、十分被験者を捉えることができる。も
ちろん、被験者の追尾機能を設けてカメラ1が常に被験
者の方向を向くように動かすのでも構わない。
As described above, such a camera 1 is very small, so that the subject hardly needs to be aware of the existence thereof. Subject can be captured. Of course, a function of tracking the subject may be provided so that the camera 1 is always moved so as to face the subject.

【0078】そして、このようなカメラ1により撮像さ
れた動画像は、RAM302内の画像記憶領域3022
に格納され、画像記憶領域3022に格納された動画像
から、CPU301の動作検出機能1001は、被験者
の全体の姿勢と動作を検出し、更に、表情検出機能10
11は、被験者の顔の表情を検出する。そして、動作検
出機能1001と表情検出機能1011とにより求めら
れた被験者の姿勢、動作、表情に関する情報は、パラメ
ータ設定機能804と、後述する生理的状態検出機能1
301とに送られる。
The moving image captured by the camera 1 is stored in an image storage area 3022 in the RAM 302.
The motion detection function 1001 of the CPU 301 detects the posture and the motion of the subject as a whole from the moving image stored in the image storage area 3022.
11 detects the facial expression of the subject. The information on the posture, the motion, and the expression of the subject obtained by the motion detecting function 1001 and the facial expression detecting function 1011 are stored in the parameter setting function 804 and the physiological condition detecting function 1 described later.
301.

【0079】また、動作検出機能1001により求めら
れた被験者の姿勢と動作は、前述した音声分離機能10
21により分離された音声cと組み合わされて、動作音
検出機能1021に送られ、動作音検出機能1021
は、被験者の動作に関する音声のみを検出して、パラメ
ータ設定機能804に送る。
The posture and the motion of the subject obtained by the motion detecting function 1001 are the same as those of the voice separating function 10 described above.
21 and sent to the operation sound detection function 1021, where the operation sound detection function 1021
Detects only the voice related to the motion of the subject and sends it to the parameter setting function 804.

【0080】そして、パラメータ設定機能804によ
り、「身のこなし」に関する評価項目のパラメータが設
定される。
The parameter setting function 804 sets the parameters of the evaluation items related to “personal care”.

【0081】図14は、図13における動作検出機能1
001、表情検出機能1011、動作音検出機能102
1について、更に詳しく説明したものである。
FIG. 14 shows the operation detecting function 1 in FIG.
001, facial expression detection function 1011 and operation sound detection function 102
1 is described in further detail.

【0082】まず、動作検出機能1001について説明
する。
First, the operation detecting function 1001 will be described.

【0083】始めに、画像記憶領域3022に蓄えられ
た画像から差分画像生成機能1002によって差分画像
を生成する。次に、その動物体の領域に対してラベリン
グ機能1003が、ラベリングを行う。そして、それぞ
れのラベリングされた領域に対して、原画像から新たに
エッジ抽出機能1004が、エッジ抽出を行う。次に、
そこで得られたエッジ画像から、輪郭情報生成機能10
05により、輪郭情報を求め、HDD304内の全身モ
デルデータベース3044に蓄えられた、例えば、図1
5に示すような3次元モデルを用いて、モデル照合機能
1006がマッチングを行い、被験者の姿勢を判定す
る。
First, a difference image is generated by the difference image generation function 1002 from the image stored in the image storage area 3022. Next, the labeling function 1003 labels the area of the moving object. Then, an edge extraction function 1004 newly performs edge extraction from the original image for each of the labeled regions. next,
From the obtained edge image, the contour information generation function 10
05, the contour information is obtained and stored in the whole body model database 3044 in the HDD 304, for example, as shown in FIG.
The model matching function 1006 performs matching using a three-dimensional model as shown in FIG. 5 to determine the posture of the subject.

【0084】ここで、図16に示すように、手、足、首
などの動作、体軸方向の回転、腰の曲げ等のそれぞれの
関節等の曲げ角を、3次元空間中での角度ではなく、2
次元平面(画像)上に投影された時の角度として導出す
る。図16では、被験者の動作に伴い、θaからθfま
での角度が導出されている。ここで、2次元平面上に投
影された時の角度を導出しているのは、設置されている
カメラが1台のみであるからであり、複数のカメラが設
置されているのならば、当然、3次元空間中の角度を導
出することも可能である。
Here, as shown in FIG. 16, the bending angles of the joints such as the movements of the hands, feet, neck, etc., the rotation in the body axis direction, the bending of the waist, and the like are represented by the angles in the three-dimensional space. No, 2
It is derived as an angle when projected on a dimensional plane (image). In FIG. 16, the angle from θa to θf is derived according to the motion of the subject. Here, the reason for deriving the angle when projected on the two-dimensional plane is that only one camera is installed, and if a plurality of cameras are installed, It is also possible to derive an angle in a three-dimensional space.

【0085】このようにして導出された角度から、手、
足、首、胴体、腰等の、体の各部の動作の大きさを求め
ることができる。更に、動作の開始から終了までの時間
と、導出された角度との相関関係から、その動作の速度
を求めることができ、また、単位時間当たりの動作の変
化を逐次計算することにより、その動作の滑らかさを求
めることができる。ここで、腕時計型携帯情報端末に加
速度センサーを設けて、その加速度を測定するような構
成にしてもよい。
From the angles thus derived, the hand,
The magnitude of the motion of each part of the body such as the feet, neck, torso, and waist can be obtained. Furthermore, the speed of the operation can be obtained from the correlation between the time from the start to the end of the operation and the derived angle, and the change in the operation per unit time can be calculated sequentially to obtain the operation speed. Can be obtained. Here, the wristwatch-type portable information terminal may be provided with an acceleration sensor to measure the acceleration.

【0086】そして、パラメータ設定機能804によ
り、このような一連の処理を経て導出されたデータに基
づいて、2−1動作の大きさ、2−2速度、2−3優雅
さ(なめらかさ)、のパラメータが設定される。
Then, based on the data derived through such a series of processing, the parameter setting function 804 sets the size of the 2-1 operation, 2-2 speed, 2-3 elegance (smoothness), Is set.

【0087】次に、表情検出機能1011について説明
する。
Next, the expression detection function 1011 will be described.

【0088】先に述べたモデル照合機能1006による
姿勢検出によって、取得した画像のどの辺りに被験者の
顔が存在するかを仮定することができる。
By detecting the posture by the model collation function 1006 described above, it is possible to assume where in the acquired image the face of the subject exists.

【0089】そこで、まず、画像記憶領域3022に蓄
えられた画像から、モデル照合機能1006で検出され
た姿勢から頭部を推定し、顔部分切出機能1012が、
部分画像を生成する。次に、その部分画像に対して、色
相彩度画像生成機能1013は、色相、彩度画像を作成
し、肌色領域を検出する。更に、検出した領域が顔であ
るかどうかを判定するために、HDD304内の顔モデ
ルデータベース3045に蓄えられた顔モデルに基いて
顔部分抽出機能1014がマッチングを行う。そして、
位置や色の情報を用いることによって、顔部品抽出機能
1015が、目や口といった特徴のある顔の部品の検索
を行う。
Therefore, first, from the image stored in the image storage area 3022, the head is estimated from the posture detected by the model collation function 1006, and the face part extraction function 1012
Generate a partial image. Next, the hue / saturation image generation function 1013 creates a hue / saturation image for the partial image, and detects a flesh color area. Further, in order to determine whether the detected area is a face, the face part extraction function 1014 performs matching based on the face model stored in the face model database 3045 in the HDD 304. And
By using the position and color information, the face part extraction function 1015 searches for a characteristic face part such as an eye or a mouth.

【0090】図17に、上述したような手法で抽出され
た顔、目、口の各部分の画像データの概略図を示した。
FIG. 17 is a schematic diagram showing the image data of each part of the face, eyes, and mouth extracted by the above-described method.

【0091】なお、暗い室内の場合は、赤外線カメラを
使う方法を取る。すなわち、色情報は利用できない。よ
って形状情報、輝度情報を利用した検出を行う。
In the case of a dark room, an infrared camera is used. That is, color information cannot be used. Therefore, detection using shape information and luminance information is performed.

【0092】このようにして、目と口が抽出されるの
で、以下、目部分観測機能1016と、口部分観測機能
1017とにより、目と口の動作が観測される。
Since the eyes and the mouth are extracted in this manner, the movements of the eyes and the mouth are observed by the eye part observing function 1016 and the mouth part observing function 1017.

【0093】目部分観測機能1016は、被験者の目が
開いている、閉じている、怒っている、笑っている、泣
いているといった状態を観測する機能である。具体的に
は、顔部品抽出機能1015によって、目の位置はわか
っているので、画像記憶領域3022の画像から、目の
部分を含むようにトリミングした矩形の部分画像を作成
し、HDD304内の目部分画像データベース3046
の目部分画像データを参照して、作成した部分画像内の
目の感情状態を判定する。
The eye part observing function 1016 is a function for observing the subject's eyes open, closed, angry, laughing, crying, and the like. Specifically, since the position of the eyes is known by the face part extraction function 1015, a rectangular partial image trimmed to include the eyes is created from the image in the image storage area 3022, and the eyes in the HDD 304 are stored. Partial image database 3046
The emotional state of the eyes in the created partial image is determined with reference to the eye partial image data.

【0094】口部分観測機能1017は、被験者の口が
喋っている、怒っている、笑っている、泣いている、あ
くびをしているといった状態を観測する機能である。具
体的には、顔部品検出機能1015によって、口の位置
はわかっているので、画像記憶領域3022の画像か
ら、口の部分を含むようにトリミングした矩形の部分画
像を生成し、HDD304内の口部分画像データベース
3047の唇の形状モデルを参照して、作成した部分画
像内の口の感情状態を判定する。
The mouth part observing function 1017 is a function for observing the subject's mouth talking, angry, laughing, crying, yawning, and the like. Specifically, since the position of the mouth is known by the face part detection function 1015, a rectangular partial image trimmed to include the mouth is generated from the image in the image storage area 3022, and the mouth in the HDD 304 is generated. The emotional state of the mouth in the created partial image is determined with reference to the lip shape model in the partial image database 3047.

【0095】そして、表情判定機能1018は、目部分
観測機能1016により判定された目の感情状態と、口
部分観測機能1017により判定された目の感情状態と
に基づいて、総合的に被験者の表情の判定を行う。
The expression determining function 1018 comprehensively expresses the subject's facial expression based on the emotional state of the eyes determined by the eye part observing function 1016 and the emotional state of the eyes determined by the mouth part observing function 1017. Is determined.

【0096】そして、パラメータ設定機能804によ
り、このような一連の処理を経て導出されたデータに基
づいて、2−5表情のパラメータが設定される。
The parameter setting function 804 sets the parameters of the 2-5 expression based on the data derived through such a series of processing.

【0097】なお、目や口の部分が画像内に存在しない
場合や、目や口が何か別のものに隠されており検出でき
ない場合は、その部分の処理だけは行わない。
If the eye or mouth portion does not exist in the image, or if the eye or mouth is hidden by something else and cannot be detected, only the processing of that portion is not performed.

【0098】最後に、動作音検出機能1021について
説明する。
Finally, the operation sound detection function 1021 will be described.

【0099】RAM302内の音声記憶領域3021に
格納された音声は、音声分離機能802により、被験者
本人の音声a、被験者以外の人物の音声b、それ以外の
音声cの3つの音声に分離されることは、先に説明した
通りであるが、動作音検出機能1021では、まず、動
作音抽出機能802によって、人間の動作と、それに関
する物音とを関連付けて記憶した、HDD304内の動
作音声関連データベース3048を用いて、音声分離機
能802により分離された人物以外の音声cと、動作検
出機能1001で検出された被験者の動作とを比較対照
することによって、分離された人物以外の音声cの中か
ら、被験者の動作に係る音声を抽出する。そして、動作
音分析機能1023が、抽出された音声の大きさや音質
等を測定する。
The voice stored in the voice storage area 3021 in the RAM 302 is separated by the voice separation function 802 into three voices: voice a of the subject himself, voice b of a person other than the subject, and voice c other than the voice. As described above, in the operation sound detection function 1021, first, the operation sound extraction function 802 stores the operation sound related database in the HDD 304 in which the human operation and the sound related thereto are stored in association with each other. By comparing and contrasting the voice c other than the person separated by the voice separating function 802 with the motion of the subject detected by the motion detecting function 1001 using 3048, the voice c other than the separated person c Then, a voice related to the motion of the subject is extracted. Then, the operation sound analysis function 1023 measures the loudness and sound quality of the extracted sound.

【0100】そして、パラメータ設定機能804によ
り、このような一連の処理を経て得られたデータに基づ
いて、2−4静かさのパラメータが設定される。
Then, the parameter setting function 804 sets a parameter of 2-4 quietness based on data obtained through such a series of processing.

【0101】<体の状態>図18は、CPU301にお
ける「体の状態」処理の機能ブロック図である。
<Body State> FIG. 18 is a functional block diagram of the “body state” process in the CPU 301.

【0102】以下、図13を用いて、本第1の実施形態
に係る「体の状態」に関する処理を、処理順序にしたが
って説明する。
Hereinafter, the processing relating to the “body state” according to the first embodiment will be described in accordance with the processing order with reference to FIG.

【0103】まず、発汗センサー10により検出された
発汗量と心拍血圧センサー11により検出された心拍数
及び最高血圧及び最小血圧データは、RAM302内の
生理データ記憶領域3023に格納される。
First, the amount of perspiration detected by the perspiration sensor 10 and the heart rate, systolic blood pressure and diastolic blood pressure data detected by the heart / blood pressure sensor 11 are stored in the physiological data storage area 3023 in the RAM 302.

【0104】次に、CPU301の生理的状態判断機能
1301は、生理データ記憶領域3023に格納された
各生理データの他に、前述した動作検出機能1001と
表情検出機能1011とにより求められた被験者の姿
勢、動作、表情をも加えて、それらの諸データと身体状
態とを関連付けたHDD304内の体調判断知識データ
ベース3049を用いて、被験者の緊張度や疲労度がど
の程度であるのかを、総合的に判断する。
Next, in addition to the physiological data stored in the physiological data storage area 3023, the physiological condition judging function 1301 of the CPU 301 can determine the subject's position obtained by the above-described motion detecting function 1001 and facial expression detecting function 1011. Using the physical condition judgment knowledge database 3049 in the HDD 304 in which the posture, the motion, and the expression are added and the various data are associated with the physical condition, the degree of the tension and the fatigue of the subject are comprehensively determined. To judge.

【0105】特に、疲労度に関しては、発汗量や心拍数
や血圧等の生理データだけでは、わからない場合が多い
ので、本第1の実施形態では、被験者が、どの程度まば
たきしているか、また、どの程度あくびをしているかを
検出し、その回数を記録することによって、疲労度の検
出を容易にしている。
In particular, regarding the degree of fatigue, it is often difficult to know only from physiological data such as the amount of sweat, heart rate, blood pressure and the like. Therefore, in the first embodiment, it is necessary to determine how much the subject blinks. Detecting the degree of yawning and recording the number of yawns facilitates the detection of the degree of fatigue.

【0106】まばたきの場合、目部分観測機能1017
によって、目が開いているか、閉じているかを単純に検
出すれば良いのだが、あくびの場合、通常、人間は手で
口を覆い隠すため、動作検出機能1001で、腕の動き
を検出し、それと共に、口部分観測機能1018によっ
て、口の形状を認識する必要がある。
In the case of blinking, the eye portion observation function 1017
It is sufficient to simply detect whether the eyes are open or closed, but in the case of a yawn, usually, a human covers his or her mouth with his / her hand, so the motion detection function 1001 detects the movement of the arm, At the same time, it is necessary to recognize the shape of the mouth by the mouth part observation function 1018.

【0107】更に、この際、動作検出機能1001によ
って、顔の向き、首の動き、手足の動き等を検出するこ
とにより、「腰に手をやる」「肩を叩く」「伸びをす
る」「首のコリをほぐす」といった無意識的な身体の動
きを検出することも可能である。特に、これらの動作
は、同じ動作を繰り返し行うことを特徴としているの
で、それぞれの動作の大きさ、回数等を記録しておくこ
とにより、疲労度の状態が、より容易に把握できるよう
になる。
Further, at this time, the motion detection function 1001 detects the direction of the face, the movement of the neck, the movement of the limbs, etc., so that "hands on the hips", "slaps on the shoulders", "stretches" and "stretches". It is also possible to detect unconscious movements of the body such as "relax the stiffness of the neck." In particular, since these operations are characterized by performing the same operation repeatedly, by recording the size, number of times, etc. of each operation, the state of the degree of fatigue can be more easily grasped. .

【0108】そして、パラメータ設定機能804によ
り、3−1緊張度、3−2疲労度、のパラメータが設定
される。
Then, the parameter setting function 804 sets parameters of 3-1 degree of tension and 3-2 degree of fatigue.

【0109】〔被験者とモデル人物の言動比較及びアド
バイスの出力について〕次に、図10に示したフローチ
ャートにおけるステップS506〜ステップS508に
おける処理について、更に詳しく説明することにする。
[Regarding Comparison of Behavior between Subject and Model Person and Output of Advice] Next, the processing in steps S506 to S508 in the flowchart shown in FIG. 10 will be described in more detail.

【0110】これらのステップでは、要するに、腕時計
型携帯情報端末を付けた被験者に関して設定されたパラ
メータの値と、モデルとなる理想の人物に対応するもの
として既に設定されているパラメータの値とを比較し
て、その比較結果に基づいてアドバイスを作成し、その
アドバイスを出力する処理を行っている。
In these steps, in short, the parameter values set for the subject wearing the wristwatch-type portable information terminal are compared with the parameter values already set as those corresponding to the ideal model person. Then, an advice is created based on the comparison result, and a process of outputting the advice is performed.

【0111】この際、被験者の言動から得られたデータ
を沢山蓄積しておいた方が、より正確な比較処理が行え
るので、プレゼンテーション等の一連の言動が全て終了
した後や、家に帰った後などに、被験者本人が、ゆっく
りと比較結果を見るようにするのが望ましい。
At this time, it is better to accumulate a large amount of data obtained from the speech of the subject, so that a more accurate comparison process can be performed. Therefore, after a series of speech such as a presentation has been completed, the user has returned home. It is desirable that the subject himself / herself slowly looks at the comparison result, such as later.

【0112】具体的には、被験者がモードボタン6を何
回か押して、腕時計型携帯情報端末を評価モードにする
と、CPU301による処理が行われ、液晶ディスプレ
イ4には、比較結果と、その比較結果に基づいた、被験
者が理想の人物に近づくためのアドバイスが表示され
る。
More specifically, when the subject presses the mode button 6 several times to put the wristwatch-type portable information terminal into the evaluation mode, the CPU 301 performs the processing, and the liquid crystal display 4 displays the comparison result and the comparison result. Is displayed based on the information for the subject to approach the ideal person.

【0113】図19は、その際の比較結果とアドバイス
の表示の一例である。
FIG. 19 shows an example of the display of the comparison result and the advice at that time.

【0114】この図19では、「話し方」の注意点とし
て、「声の大きさ」、「声の速度」、「言葉のなめらか
さ」、「言葉づかい」等の項目を設け、それぞれの項目
において、被験者の言動に関するパラメータと理想の人
物の言動に関するパラメータとの差から達成度をパーセ
ント表示し、それと共に、被験者が理想の人物に近づく
ために、言動をどのように改善すればよいかといったア
ドバイスが表示されている。そして、更に、表示の上部
には、総合評価としての点数が表示されている。
In FIG. 19, items such as “loudness of voice”, “velocity of voice”, “smoothness of words”, and “wording” are provided as notes of “how to speak”. The degree of achievement is displayed as a percentage based on the difference between the parameter related to the subject's behavior and the parameter related to the ideal person's behavior, and, at the same time, advice on how to improve the behavior in order for the subject to approach the ideal person is provided. Is displayed. Further, at the top of the display, a score as an overall evaluation is displayed.

【0115】ここで、矢印ボタン8を操作すれば、「話
し方」だけではなく、「身のこなし」や「体の状態」に
関するアドバイスを見ることができるのは言うまでもな
い。
Here, it is needless to say that by operating the arrow buttons 8, it is possible to see not only "how to speak" but also advice regarding "personal care" and "physical condition".

【0116】また、ここで表示されているアドバイス
は、HDD304内のアドバイス付与知識データベース
3050に予め格納されているものである。もちろん、
アドバイスそのものを被験者の違和感のないように書き
換えてしまっても構わない。
[0116] The advice displayed here is stored in advance in the advice-added knowledge database 3050 in the HDD 304. of course,
The advice itself may be rewritten so as not to make the subject feel uncomfortable.

【0117】更に、図19に示したような、パラメータ
の比較結果による、被験者が理想の人物に近づくため
に、どのようにすればよいかといったアドバイスの他
に、評価機能905で評価された、敬語の不使用や誤
用、尊敬語と謙譲語の取り違えなどの誤り部分等から、
被験者の発話の表現の誤りと正答、望ましくない発話内
容の指摘と望ましい正答例、さらに、発話表現の誤り種
類のスコアと発話内容の誤り距離から導かれる利用者の
発話に対する総合的な評価や正しい会話を行うためのヒ
ント等をアドバイスするようにしてもよい。
Further, as shown in FIG. 19, in addition to the advice on how to make the subject approach the ideal person based on the parameter comparison result, the evaluation function 905 evaluates the subject. From errors such as misuse or misuse of honorifics, or mistakes between honorifics and humble words,
Incorrect and correct answer of subject's utterance expression, indication of undesired utterance content and desirable correct answer example, and comprehensive evaluation and correctness of user's utterance derived from score of error type of utterance expression and error distance of utterance content A hint or the like for conducting a conversation may be advised.

【0118】もちろん、このようなアドバイスは、液晶
ディスプレイ4に表示するだけではなく、スピーカー3
より、電子音や人間の音声として出力するのでも構わな
いし、腕時計型携帯情報端末にバイブレータ機能を設け
て、被験者に特定のリズムの信号で伝えるようにするの
でも構わない。
Of course, such advice is displayed not only on the liquid crystal display 4 but also on the speaker 3.
More specifically, it may be output as an electronic sound or a human voice, or a wristwatch-type portable information terminal may be provided with a vibrator function and transmitted to a subject with a signal of a specific rhythm.

【0119】また、図20に示すように、HDD304
内のフレーズデータベース3051にベストフレーズ及
びワーストフレーズを予め記憶させておき、被験者が一
日の自分の言動の評価を見るために、腕時計型携帯情報
端末を評価モードにした場合に、被験者のその日の発声
内容とフレーズデータベース3051内のフレーズとを
比較して、液晶ディスプレイ4上に、「本日のベストフ
レーズ」及び「本日のワーストフレーズ」を表示するよ
うにしてもよい。
Further, as shown in FIG.
When the best phrase and the worst phrase are stored in advance in the phrase database 3051 of the subject, and the subject puts the wristwatch-type portable information terminal into the evaluation mode in order to see the evaluation of his / her own behavior of the day, The utterance contents may be compared with the phrases in the phrase database 3051 to display “the best phrase of the day” and “the worst phrase of the day” on the liquid crystal display 4.

【0120】なお、「本日のベストフレーズ」及び「本
日のワーストフレーズ」は、被験者がフレーズデータベ
ース3051に内に予め記憶させておく以外に、評価機
能905による評価結果に基づいて自動設定できるよう
にすることも可能である。
The “best phrase of the day” and the “worst worst phrase of the day” can be automatically set based on the evaluation result by the evaluation function 905 in addition to the subject storing the phrase in the phrase database 3051 in advance. It is also possible.

【0121】また、図21に示すように、理想の人物の
身のこなしや表情から最もかけ離れた身のこなしや表情
が発生した場合に、それをRAM302内の画像記憶領
域3022に更新記憶していき、被験者が一日の自分の
言動の評価を見るために、腕時計型携帯情報端末を評価
モードにした場合に、記憶されている画像を画像記憶領
域3022から呼び出し、液晶ディスプレイ4上に、
「本日のワーストアクション」として、クイックタイム
ムービー映像で表示するようにしてもよい。
Further, as shown in FIG. 21, when a personal appearance or a facial expression farthest from the ideal person's personal appearance or facial expression occurs, it is updated and stored in the image storage area 3022 in the RAM 302. When the test subject puts the wristwatch-type portable information terminal in the evaluation mode in order to see the evaluation of his / her behavior for a day, the stored image is called from the image storage area 3022, and is displayed on the liquid crystal display 4.
As a “today's worst action”, a quick time movie image may be displayed.

【0122】以上説明したように、本第1の実施形態に
よれば、被験者自身が、ビデオカメラやマイクを常に意
識したり、また、記録した自分の言動の始めから終わり
までを全て確認したりしなくとも、極めて容易に、モデ
ルとなる理想の人物に自分の言動を近づけることができ
る。
As described above, according to the first embodiment, the subject himself / herself always considers the video camera and the microphone, and confirms all the recorded actions from the beginning to the end. Even without doing so, it is very easy to bring one's behavior closer to the ideal person who becomes the model.

【0123】(第2の実施形態)上記第1の実施形態で
は、腕時計型携帯端末装置は、カメラを1つだけ備えて
いたが、複数のカメラを備えさせることにより、被験者
本人以外の他の人物をも、カメラで撮影することが可能
となる。
(Second Embodiment) In the first embodiment, the wristwatch-type portable terminal device is provided with only one camera. However, by providing a plurality of cameras, other devices other than the subject himself / herself can be provided. Even a person can be photographed with a camera.

【0124】このように、腕時計型携帯情報端末に複数
のカメラを備えた場合を、本発明の第2の実施形態とし
て説明することにする。
A case where a plurality of cameras are provided in a wristwatch-type portable information terminal as described above will be described as a second embodiment of the present invention.

【0125】本第2の実施形態では、各カメラで、被験
者及びそれ以外の人物の各々を撮影するようにし、被験
者以外の人物の動作や表情をも読み取ることができるよ
うにしているので、動作判定機能1007が、各人物の
動作を判定し、表情判定機能1018が、各人物の表情
を判定する。また、音声分離機能802で分離された被
験者本人以外の他の人物の音声bに基づいて、音声分析
機能803が、各人物の発言内容を分析する。
In the second embodiment, each of the cameras is used to photograph the subject and the other person, and the movement and expression of the person other than the subject can be read. The determining function 1007 determines the motion of each person, and the facial expression determining function 1018 determines the facial expression of each person. In addition, based on the voice b of a person other than the subject himself or herself separated by the voice separation function 802, the voice analysis function 803 analyzes the content of each person's remark.

【0126】これにより、被験者本人以外の他の人物の
言動がどのようなものであるかを判定することができ
る。例えば、被験者がプレゼンテーションをしたりして
いる際に、その聴衆が、あくびをしたり、まばたきを多
くしているか、すなわち、眠たくなっていたり、集中し
なくなってきているか、また、怒っているか、頷いてい
るか、笑っているか、納得しているか、などを判定する
ことができる。
As a result, it is possible to determine the behavior of a person other than the subject. For example, whether the audience is yawning or blinking when the subject is giving a presentation, i.e., they are becoming sleepy, less focused, angry, Whether nodding, laughing, or convinced can be determined.

【0127】ここで、被験者のプレゼンテーションが、
聴衆に対して、どの程度アピールしたかなどを、理想の
人物に関する新たな評価項目として盛り込むと、理想の
人物の言動による聴衆の反応を予測してパラメータを設
定し、実際の聴衆の反応に基づくパラメータ値とを比較
することにより、被験者本人の言動が、理想の人物の言
動にどれだけ近いかを、間接的に判定することができ
る。
Here, the presentation of the subject is
If you include the degree of appeal to the audience as a new evaluation item for the ideal person, you can set parameters by predicting the audience response due to the behavior of the ideal person, and based on the actual audience response By comparing the parameter value with the parameter value, it is possible to indirectly determine how close the subject's behavior is to the ideal person's behavior.

【0128】以上説明したように、本第2の実施形態に
よれば、被験者本人以外の他の人物の言動をも解析する
ことにより、モデルとなる理想の人物に自分の言動を近
づけることが、より容易となる。
As described above, according to the second embodiment, by analyzing the behavior of another person other than the subject himself, it is possible to bring his / her behavior closer to the ideal model person. It will be easier.

【0129】(第3の実施形態)上記第1の実施形態で
は、理想の人物に対応するパラメータの値が、状況に関
係無く、ある値に設定されていた。しかしながら、プレ
ゼンテーションをする場合、会社のデスクで自分の仕事
をする場合、食事をする場合、寝ている場合など、その
状況によって、異なるパラメータの値が必要となってく
る。すなわち、プレゼンテーションをしている場合に
は、発言は多く行われるのが好ましいが、会社のデスク
で自分の仕事をする場合には、発言は、電話での会話等
を除き、少ないのが好ましい。
(Third Embodiment) In the first embodiment, the value of the parameter corresponding to the ideal person is set to a certain value regardless of the situation. However, different parameters are required depending on the situation, such as giving a presentation, working at a company desk, eating, or sleeping. That is, it is preferable that a lot of remarks be made during a presentation, but it is preferable that there be few remarks except for telephone conversations when working at a company desk.

【0130】上記の点に鑑み、本発明の第3の実施形態
では、「プレゼンモード」、「ワークモード」、「イー
トモード」、「スリープモード」などの状況モードを設
定できるようにし、それぞれの状況モードに固有のパラ
メータを評価項目に設定するようにして、前述したよう
な問題に対応できるようにした。この状況モードの設定
は、被験者自身が、プレゼンテーションをする直前、会
社のデスクで自分の仕事を始める直前、食事をする直
前、寝る直前などに、腕時計型携帯情報端末を操作する
ことによって行う。
In view of the above points, in the third embodiment of the present invention, it is possible to set a status mode such as “presentation mode”, “work mode”, “eat mode”, “sleep mode”, etc. A parameter specific to the situation mode is set in the evaluation item so that the above-described problem can be dealt with. The setting of the situation mode is performed by the subject himself / herself operating the wristwatch-type portable information terminal immediately before giving a presentation, immediately before starting his or her work at the office desk, just before eating, just before going to bed.

【0131】以上説明したように、本第3の実施形態に
よれば、状況によって評価の仕方を変化させることによ
り、被験者が、どのような状況に置かれた場合であって
も、モデルとなる理想の人物に自分の言動を近づけるこ
とができる。
As described above, according to the third embodiment, the evaluation method is changed depending on the situation, so that the subject can be used as a model regardless of the situation. You can bring your behavior closer to the ideal person.

【0132】(第4の実施形態)上記第1の実施形態で
は、被験者は、腕時計型携帯情報端末のモードボタン6
を操作して、当該情報端末を評価モードにしない限り、
自分の言動の評価を知ることができない。しかしなが
ら、被験者が自分の言動の評価をリアルタイムで知りた
いと思うことが、当然の如く考えられる。
(Fourth Embodiment) In the first embodiment described above, the subject uses the mode button 6 of the wristwatch-type portable information terminal.
, Unless the information terminal is in the evaluation mode,
I cannot know the evaluation of my behavior. However, it is natural that the subject wants to know the evaluation of his / her behavior in real time.

【0133】そのような状況に対応するため、本第4の
実施形態では、被験者が言動を起こしている間に、腕時
計型携帯情報端末を時計モードではなく、予め評価モー
ドにしておくだけで、被験者が言動を起こしている間
に、逐次、比較結果を出力し、また、設定目標から許容
値を大きく超えた警告すべき被験者の言動に対して、即
座に警告を行うことができるようにした。
In order to cope with such a situation, in the fourth embodiment, the wristwatch-type portable information terminal is set not in the watch mode but in the evaluation mode in advance while the subject is speaking. While the subject is making a speech, the comparison result is output one by one.Also, a warning can be given immediately for the speech of the subject who should be warned that greatly exceeds the allowable value from the set target. .

【0134】具体的には、被験者が言動を起こしている
間に、CPU301によって被験者の言動に関するパラ
メータが設定されるので、そのパラメータの値と理想の
人物のパラメータの値とを即座に比較して、両者のパラ
メータが異なっている場合に、ただちに、スピーカー3
から、人間の音声として逐次的なアドバイスを発生した
り、また、警告音としての電子音を発生させたりするよ
うにする。もちろん、腕時計型情報端末にバイブレータ
機能を設けておけば、スピーカー3から音声を発生させ
ることなく、振動によって、アドバイス若しくは警告を
被験者に知らせることができる。
More specifically, since the parameters relating to the behavior of the subject are set by the CPU 301 while the subject is making the behavior, the value of the parameter is immediately compared with the value of the parameter of the ideal person. If the two parameters are different, the speaker 3
Therefore, a sequential advice is generated as a human voice, and an electronic sound is generated as a warning sound. Of course, if a vibrator function is provided in the wristwatch-type information terminal, advice or warning can be notified to the subject by vibration without generating sound from the speaker 3.

【0135】このように、種々の警告方法が考えられる
が、これは、被験者が、モードボタン6を何回か押下し
て、腕時計型情報端末を警告設定モードにすることによ
って、自由に選択することができる。
As described above, various warning methods are conceivable, and the subject can freely select the watch by pressing the mode button 6 several times to set the wristwatch-type information terminal in the warning setting mode. be able to.

【0136】図22は、警告設定画面の一例である。FIG. 22 shows an example of the warning setting screen.

【0137】この図22では、当該情報端末を警告設定
モードにした後、まず、「音」、「声」、「文字」、
「バイブ」の中から「音」を選択し、更に、「目覚
し」、「ルルルルル」を選択している。
In FIG. 22, after the information terminal is set in the warning setting mode, first, “sound”, “voice”, “character”,
"Sound" is selected from "vibes", and "wake-up" and "rully" are also selected.

【0138】以上説明したように、本第4の実施形態に
よれば、被験者は、自分の言動が理想の人物の言動と異
なっている旨を、リアルタイムで確認することができ
る。
As described above, according to the fourth embodiment, the subject can confirm in real time that his / her behavior differs from that of an ideal person.

【0139】(第5の実施形態)上記第1の実施形態で
は、被験者の言動が、理想の人物の言動と、どれくらい
相違しているかということを基準に、アドバイスや警告
を行っていたが、理想の人物を誰にするということとは
関係無く、常に、不適切と判断される言動がある。それ
は、余りにも乱暴、横暴な振る舞いや、また、品の悪い
癖などである。
(Fifth Embodiment) In the first embodiment, advice and warning are given based on how much the subject's behavior differs from the ideal person's behavior. Regardless of who the ideal person is, there are always behaviors that are judged inappropriate. It is too violent, berserk, and bad habit.

【0140】具体的には、食事時に話し声が大きすぎる
場合、食器の扱いが乱暴な場合、会話時に敬語の使い方
が全然違う場合、街中で歩き方が乱暴な場合、頻繁に髪
を触る場合、つめをかむ場合、ダイエットしているのに
食べ過ぎる場合などがそれに当たる。
[0140] More specifically, if the voice is too loud at mealtime, the handling of tableware is rough, the use of honorifics is completely different during conversation, the manner of walking in the street is rough, or the hair is frequently touched, For example, chewing a nail or eating too much while dieting.

【0141】このような不適切な言動を、腕時計型携帯
情報端末のHDD304に予め記憶させておくと、被験
者がその言動を起こした途端に、警告を行うようにする
ことができるので、知らず知らずのうちに行っている不
適切な言動を直したり、癖を矯正したりすることができ
る。
If such inappropriate words and behaviors are stored in advance in the HDD 304 of the wristwatch-type portable information terminal, a warning can be given as soon as the subject makes the words and phrases, so It is possible to correct inappropriate behaviors without knowing and correct habits.

【0142】図23は、その際の警告の一例である。FIG. 23 shows an example of the warning at that time.

【0143】本第5の実施形態では、腕時計型携帯情報
端末を通常の時計モードにしていても、不適切な言動の
検出を逐次行うようにしておき、被験者が不適切な言動
を行うと、即座に、液晶ディスプレイ4上では、時計の
表示を隠す形で、警告文が表示される。
In the fifth embodiment, even when the wristwatch-type portable information terminal is in the normal clock mode, detection of inappropriate speech is performed sequentially, and when the subject makes inappropriate speech, Immediately, a warning message is displayed on the liquid crystal display 4 so as to hide the display of the clock.

【0144】もちろん、この際の警告方法については、
第4の実施形態で示したような様々な方法が可能であ
る。
Of course, the warning method at this time is as follows.
Various methods as shown in the fourth embodiment are possible.

【0145】以上説明したように、本第5の実施形態に
よれば、被験者は、自分の不適切な言動をリアルタイム
で確認することができる。
As described above, according to the fifth embodiment, the subject can check his / her inappropriate behavior in real time.

【0146】(第6の実施形態)上記第1の実施形態で
は、腕時計型携帯情報端末が、独立して全ての処理を行
っていたが、理想の人物の数が多かったり、評価項目が
多岐に渡っているような場合や、被験者の言動を記録す
る時間が長時間に及ぶような場合には、腕時計型携帯情
報端末内のRAM302やHDD304だけでは、全て
の情報を蓄積するには、記憶容量が到底足りない。
(Sixth Embodiment) In the first embodiment, the wristwatch-type portable information terminal performs all the processing independently. However, the number of ideal persons is large, and the evaluation items are diversified. In the case where the time for recording the behavior of the subject is extended for a long time, only the RAM 302 or the HDD 304 in the wristwatch-type portable information terminal needs to store all the information. Insufficient capacity.

【0147】もちろん、腕時計型携帯情報端末に大型の
記憶装置を内蔵すれば、それに対応することも可能では
あるが、その場合、当該情報端末本体が大きく重くなっ
てしまうという問題点がある。
Of course, if a large-sized storage device is incorporated in a wristwatch-type portable information terminal, it is possible to cope with that, but in this case, there is a problem that the information terminal body becomes large and heavy.

【0148】そのため、本第6の実施形態では、当該情
報端末が、データを蓄積するのみで、一切の情報処理は
行わず、外部の情報処理装置が、パラメータの比較処理
や結果通知処理を行うようにすることにより、当該情報
端末本体の負担減を図った。
Therefore, in the sixth embodiment, the information terminal only accumulates data, does not perform any information processing, and the external information processing apparatus performs parameter comparison processing and result notification processing. By doing so, the burden on the information terminal itself was reduced.

【0149】図24は、本第6の実施形態を説明するた
めのシステム構成図である。
FIG. 24 is a system configuration diagram for explaining the sixth embodiment.

【0150】まず、被験者は、データ蓄積用のデータカ
ード2402を準備し、それを腕時計型携帯情報端末2
401のデータカードスロットに挿入して、当該情報端
末を持ち歩く。そして、被験者が何らかの言動を起こす
毎に、それに関する音声データ、画像データ、生理的デ
ータ等が、当該情報端末のRAM内に、次々と蓄積され
ていく。
First, the subject prepares a data card 2402 for data storage and puts it on the wristwatch-type portable information terminal 2.
It is inserted into the data card slot 401 and the information terminal is carried around. Then, every time the subject makes a certain behavior, voice data, image data, physiological data, and the like relating to the behavior are accumulated one after another in the RAM of the information terminal.

【0151】そして、被験者は帰宅すると、家に設置さ
れている情報処理装置2404に向かって、モデルとな
る理想の人物の設定処理を行う。これは、家を出る前
に、あらかじめ行っておくのでも構わない。その詳しい
内容は、前述した通りである。そして、理想の人物の設
定が終わると、被験者は、腕時計型携帯情報端末240
1からデータカード2402を引き抜き、それを、情報
処理装置2404に付設されたカードリーダー2403
に通して読み込み、評価結果を求める指示をキーボード
等の入力装置により行う。そして、前述したようなパラ
メータの比較処理の結果、アドバイスが、文字若しくは
音声により出力される。このように、被験者の家におい
て、一日単位での行動の分析および総合評価を行うこと
ができる。
When the subject returns home, the subject performs a process of setting an ideal person as a model toward the information processing device 2404 installed in the house. This may be done before leaving the house. The detailed contents are as described above. Then, when the setting of the ideal person is completed, the subject enters the wristwatch-type portable information terminal 240.
1 and pull out the data card 2402 from the card reader 2403 attached to the information processing device 2404.
And inputting an evaluation result by an input device such as a keyboard. Then, as a result of the parameter comparison processing as described above, the advice is output by text or voice. In this way, at the subject's house, behavior analysis and comprehensive evaluation can be performed on a daily basis.

【0152】この際、データ蓄積用のデータカード24
02を媒介するのではなく、腕時計型携帯情報端末24
01から情報処理装置2404へ、電波や赤外線を利用
した無線通信でデータを送るようにしてもよいし、ま
た、電話線やインターネットを利用した有線通信でデー
タを送るようにしてもよい。
At this time, the data card 24 for storing data is used.
02, not a wristwatch-type portable information terminal 24
01 to the information processing device 2404 by wireless communication using radio waves or infrared rays, or data may be sent by wired communication using a telephone line or the Internet.

【0153】以上説明したように、本第6の実施形態に
よれば、外部の情報処理装置で必要な評価処理を全て行
うようにしたので、腕時計型携帯情報端末を、小型化、
軽量化することができる。
As described above, according to the sixth embodiment, all the necessary evaluation processing is performed by the external information processing apparatus.
The weight can be reduced.

【0154】[0154]

【発明の効果】以上説明したように、本発明によれば、
被験者自身が、ビデオカメラやマイクを常に意識した
り、また、記録した自分の言動の始めから終わりまでを
全て確認したりしなくとも、極めて容易に、モデルとな
る理想の人物に自分の言動を近づけることができ、ま
た、自分の不適切な言動をリアルタイムで確認すること
ができるといった効果がある。
As described above, according to the present invention,
It is extremely easy for the subject to express his or her own behavior to the model ideal person without always being aware of the video camera or microphone and checking the entire beginning and end of his recorded behavior. This makes it possible to bring the user closer to the user and check his / her inappropriate behavior in real time.

【図面の簡単な説明】[Brief description of the drawings]

【図1】第1の実施形態に係る腕時計型携帯情報端末の
表側の外観図である。
FIG. 1 is an external view of a front side of a wristwatch-type portable information terminal according to a first embodiment.

【図2】第1の実施形態に係る腕時計型携帯情報端末の
裏側の外観図である。
FIG. 2 is an external view of the back side of the wristwatch-type portable information terminal according to the first embodiment.

【図3】第1の実施形態に係る腕時計携帯情報端末の内
部におけるハードウエア接続図である。
FIG. 3 is a hardware connection diagram inside the wristwatch portable information terminal according to the first embodiment.

【図4】RAM302内部のメモリマップを示す図であ
る。
FIG. 4 is a diagram showing a memory map inside a RAM 302;

【図5】HDD304内部のメモリマップを示す図であ
る。
FIG. 5 is a diagram showing a memory map inside the HDD 304.

【図6】モデル設定モードの表示例を示す図である。FIG. 6 is a diagram illustrating a display example of a model setting mode.

【図7】モデル設定モードにおけるモデル設定の過程を
示す図である。
FIG. 7 is a diagram showing a process of setting a model in a model setting mode.

【図8】モデル人物の選択確認画面の一例を示す図であ
る。
FIG. 8 is a diagram illustrating an example of a model person selection confirmation screen.

【図9】モデル人物のパラメータ設定画面を示す図であ
る。
FIG. 9 is a diagram showing a parameter setting screen of a model person.

【図10】第1の実施形態に係る理想行動支援処理のフ
ローチャートである。
FIG. 10 is a flowchart of an ideal behavior support process according to the first embodiment.

【図11】CPU301における「話し方」に関する処
理の機能ブロック図である。
FIG. 11 is a functional block diagram of processing relating to “how to speak” in a CPU 301.

【図12】対人会話能力判定機能805内の機能ブロッ
ク図である。
FIG. 12 is a functional block diagram of an interpersonal conversation ability determination function 805.

【図13】CPU301における「身のこなし」に関す
る処理の機能ブロック図である。
FIG. 13 is a functional block diagram of processing relating to “personal care” in the CPU 301.

【図14】「身のこなし」に関する処理の詳細な機能ブ
ロック図である。
FIG. 14 is a detailed functional block diagram of processing relating to “personal care”;

【図15】全身モデルデータベース3044に蓄えられ
た3次元モデルの一例を示す図である。
FIG. 15 is a diagram showing an example of a three-dimensional model stored in a whole body model database 3044.

【図16】被験者の動作の検出に関わる概念図である。FIG. 16 is a conceptual diagram related to detection of a motion of a subject.

【図17】被験者の顔、目、口の検出に関わる概念図で
ある。
FIG. 17 is a conceptual diagram related to detection of a subject's face, eyes, and mouth.

【図18】CPU301における「体の状態」に関する
処理の機能ブロック図である。
FIG. 18 is a functional block diagram of processing relating to “body state” in the CPU 301.

【図19】第1の実施形態における比較結果とアドバイ
スの表示例を示す図である。
FIG. 19 is a diagram illustrating a display example of a comparison result and advice in the first embodiment.

【図20】ベストフレーズとワーストフレーズを表示す
る結果表示例を示す図である。
FIG. 20 is a diagram showing an example of a result display for displaying a best phrase and a worst phrase.

【図21】ワーストアクションのクイックタイムムービ
ーを表示する結果表示例を示す図である。
FIG. 21 is a diagram showing a result display example of displaying a worst action quick time movie.

【図22】第4の実施形態に係る警告設定画面の一例を
示す図である。
FIG. 22 is a diagram showing an example of a warning setting screen according to the fourth embodiment.

【図23】第5の実施形態に係る警告表示の一例を示す
図である。
FIG. 23 is a diagram showing an example of a warning display according to the fifth embodiment.

【図24】第6の実施形態に係る理想行動支援システム
の構成図である。
FIG. 24 is a configuration diagram of an ideal behavior support system according to a sixth embodiment.

【符号の説明】[Explanation of symbols]

1 CCDカメラ 2 マイク 3 スピーカー 4 液晶ディスプレイ 5 時計合わせボタン 6 モードボタン 7 セレクトボタン 8 矢印ボタン 9 データカードスロット 10 発汗センサー 11 心拍血圧センサー 301 CPU 302 RAM 303 ROM 304 HDD 305 カメラ制御部 306 マイク制御部 307 スピーカー制御部 308 ディスプレイ制御部 309 ボタン制御部 310 センサー制御部 311 データカード制御部 312 データカード 313 時計制御部 314 時計 315 バス Reference Signs List 1 CCD camera 2 Microphone 3 Speaker 4 Liquid crystal display 5 Clock setting button 6 Mode button 7 Select button 8 Arrow button 9 Data card slot 10 Sweating sensor 11 Heart rate blood pressure sensor 301 CPU 302 RAM 303 ROM 304 HDD 305 Camera control unit 306 Microphone control unit 307 Speaker control unit 308 Display control unit 309 Button control unit 310 Sensor control unit 311 Data card control unit 312 Data card 313 Clock control unit 314 Clock 315 Bus

Claims (45)

【特許請求の範囲】[Claims] 【請求項1】 第1の人物の言動に関する第1の情報を
記憶する記憶手段と、 第2の人物の言動に関する第2の情報を入力する入力手
段と、 前記記憶手段に記憶された第1の情報と、前記入力手段
により入力された第2の情報とを比較する比較手段と、 前記比較手段による比較結果に基づいて、前記第2の人
物に対して、前記第1の人物に近づくための言動の改善
に関するアドバイスを通知する通知手段とを具備したこ
とを特徴とする理想行動支援装置。
1. A storage means for storing first information relating to the behavior of a first person, an input means for inputting second information relating to the behavior of a second person, and a first information stored in the storage means. And comparing means of the second person and the second information input by the input means, based on a comparison result by the comparing means, for approaching the second person to the first person. And a notifying means for notifying of advice regarding improvement of the behavior of the person.
【請求項2】 前記第1の情報及び前記第2の情報は、
音声に関する情報と、体の動きに関する情報と、生理的
情報に関する情報の内の少なくとも1つを含むことを特
徴とする請求項1記載の理想行動支援装置。
2. The method according to claim 1, wherein the first information and the second information are:
The ideal behavior support device according to claim 1, further comprising at least one of information on voice, information on body movement, and information on physiological information.
【請求項3】 前記入力手段は、前記第2の人物の音声
を入力する音声入力手段と、 前記第2の人物の画像を入力する画像入力手段と、前記
第2の人物の生理的情報を入力する生理的情報入力手段
の内の少なくとも1つを含むことを特徴とする請求項1
記載の理想行動支援装置。
3. The input means includes: voice input means for inputting voice of the second person; image input means for inputting an image of the second person; and physiological information of the second person. 2. The apparatus according to claim 1, further comprising at least one of physiological information input means for inputting.
The ideal behavior support device as described.
【請求項4】 前記通知手段は、前記アドバイスを音声
として出力することを特徴とする請求項1記載の理想行
動支援装置。
4. The ideal behavior support device according to claim 1, wherein the notification unit outputs the advice as a voice.
【請求項5】 前記通知手段は、前記アドバイスを振動
として出力することを特徴とする請求項1記載の理想行
動支援装置。
5. The ideal behavior support device according to claim 1, wherein the notification unit outputs the advice as a vibration.
【請求項6】 前記通知手段は、前記アドバイスを文字
として表示することを特徴とする請求項1記載の理想行
動支援装置。
6. The ideal behavior support device according to claim 1, wherein the notification unit displays the advice as characters.
【請求項7】 前記比較手段による比較の開始を指示す
る指示手段を具備したことを特徴とする請求項1記載の
理想行動支援装置。
7. The ideal behavior support device according to claim 1, further comprising an instruction unit for instructing the comparison unit to start comparison.
【請求項8】 前記第1の情報及び前記第2の情報は、
言葉使いに関する情報を含み、 前記入力手段は、 前記第2の人物の音声を入力する音声入力手段と、 前記音声入力手段により入力された音声を文字情報に変
換する変換手段と、 前記変換手段により変換された文字情報に基づいて、前
記第2の人物の言葉使いに関する情報を導出する導出手
段とを有することを特徴とする請求項1記載の理想行動
支援装置。
8. The first information and the second information,
The input means includes: voice input means for inputting voice of the second person; conversion means for converting voice input by the voice input means into character information; and 2. The ideal behavior support device according to claim 1, further comprising deriving means for deriving information on the wording of the second person based on the converted character information.
【請求項9】 前記第1の情報及び前記第2の情報は、
感情または性格に関する情報を含み、 前記入力手段は、 前記第2の人物の音声を入力する音声入力手段と、 前記音声入力手段により入力された音声の特徴を認識す
る認識手段と、 前記認識手段により認識された音声の特徴から、前記第
2の人物の感情または性格に関する情報を導出する導出
手段とを有することを特徴とする請求項1記載の理想行
動支援装置。
9. The first information and the second information,
The input means includes: voice input means for inputting voice of the second person; recognition means for recognizing a feature of voice input by the voice input means; 2. The ideal behavior support device according to claim 1, further comprising deriving means for deriving information on the emotion or character of the second person from the recognized voice feature.
【請求項10】 前記第1の情報及び前記第2の情報
は、顔の表情に関する情報を含み、 前記入力手段は、 前記第2の人物の画像を入力する画像入力手段と、 前記画像入力手段により入力された画像から前記第2の
人物の顔の部分を抽出する顔抽出手段と、 前記顔抽出手段により抽出された顔の部分に基づいて、
前記第2の人物の表情に関する情報を導出する導出手段
とを有することを特徴とする請求項1記載の理想行動支
援装置。
10. The first information and the second information include information on a facial expression, wherein the input means includes: an image input means for inputting an image of the second person; and the image input means. Face extracting means for extracting a face portion of the second person from the image input by the following, based on the face portion extracted by the face extracting means,
The ideal behavior support device according to claim 1, further comprising deriving means for deriving information on the facial expression of the second person.
【請求項11】 前記第1の情報及び前記第2の情報
は、感情または体調に関する情報を含み、 前記入力手段は、 前記第2の人物の生理的情報を入力する生理的情報入力
手段と、 前記生理的情報入力手段により入力された生理的情報に
基づいて、前記第2の人物の感情または体調に関する情
報を導出する導出手段とを有することを特徴とする請求
項1記載の理想行動支援装置。
11. The first information and the second information include information related to emotion or physical condition, the input unit includes: a physiological information input unit that inputs physiological information of the second person; 2. The ideal behavior supporting device according to claim 1, further comprising: deriving means for deriving information on the emotion or physical condition of the second person based on the physiological information input by the physiological information inputting means. .
【請求項12】 前記第1の情報及び前記第2の情報
は、感情または体調に関する情報を含み、 前記入力手段は、 前記第2の人物の画像を入力する画像入力手段と、 前記第2の人物の生理的情報を入力する生理的情報入力
手段と、 前記画像入力手段により入力された画像と、前記生理的
情報入力手段により入力された生理的情報とに基づい
て、前記第2の人物の感情または体調に関する情報を導
出する導出手段とを有することを特徴とする請求項1記
載の理想行動支援装置。
12. The first information and the second information include information relating to emotion or physical condition, the input unit includes: an image input unit that inputs an image of the second person; Physiological information input means for inputting physiological information of a person; an image input by the image input means; and physiological information input by the physiological information input means, based on the physiological information input by the physiological information input means. The ideal behavior support device according to claim 1, further comprising: a deriving unit that derives information on emotion or physical condition.
【請求項13】 前記第1の情報を変更する変更手段を
具備したことを特徴とする請求項1記載の理想行動支援
装置。
13. The ideal behavior support device according to claim 1, further comprising a change unit that changes the first information.
【請求項14】 第1の人物の言動に関する第1の情報
を記憶する記憶手段と、 第2の人物の言動、及び該第2の人物の言動に対する周
囲の人物の言動に関する第2の情報を入力する入力手段
と、 前記記憶手段に記憶された第1の情報と、前記入力手段
により入力された第2の情報とを比較する比較手段と、 前記比較手段による比較結果に基づいて、前記第2の人
物に対して、前記第1の人物に近づくための言動の改善
に関するアドバイスを通知する通知手段とを具備したこ
とを特徴とする理想行動支援装置。
14. A storage means for storing first information relating to the behavior of a first person, and second information relating to the behavior of a second person and the behavior of surrounding persons with respect to the behavior of the second person. An input unit for inputting; a comparing unit for comparing the first information stored in the storage unit with the second information input by the input unit; A notifying means for notifying the second person of advice relating to improvement of the behavior for approaching the first person.
【請求項15】 前記第1の情報及び前記第2の情報
は、感情に関する情報を含み、 前記入力手段は、 前記第2の人物、及び第2の人物の周囲の人物の音声を
入力する音声入力手段と、 前記音声入力手段により入力された音声を、前記第2の
人物のものと、前記第2の人物の周囲の人物のものとに
分離する分離手段と、 前記分離手段により、前記第2の人物の周囲の人物のも
のと分離された音声の特徴を認識する認識手段と、 前記認識手段により認識された音声の特徴から、前記第
2の人物の周囲の人物の感情に関する情報を導出する導
出手段とを有することを特徴とする請求項14記載の理
想行動支援装置。
15. The first information and the second information include information relating to emotion, and the input unit includes: a voice for inputting voices of the second person and a person around the second person. Input means, separating means for separating the voice input by the voice input means into those of the second person, and those of people around the second person, Recognizing means for recognizing voice features separated from those of the persons around the second person; and deriving information about emotions of the people around the second person from the voice features recognized by the recognizing means. The ideal behavior supporting device according to claim 14, further comprising a deriving unit that performs the deriving operation.
【請求項16】 前記第1の情報及び前記第2の情報
は、感情に関する情報を含み、 前記入力手段は、 前記第2の人物、及び前記第2の人物の周囲の人物の画
像を入力する画像入力手段と、 前記画像入力手段により入力された画像から、前記第2
の人物の周囲の人物の顔の表情及び体の動きを判別する
判別手段と、 前記判別手段により判別された前記第2の人物の周囲の
人物の顔の表情及び体の動きに基づいて、前記第2の人
物の周囲の人物の感情に関する情報を導出する導出手段
とを有することを特徴とする請求項14記載の理想行動
支援装置。
16. The first information and the second information include information on emotion, and the input unit inputs an image of the second person and an image of a person around the second person. Image input means; and an image input by the image input means;
Discriminating means for discriminating the facial expression and body movement of a person around the person, based on the facial expression and body movement of the person around the second person determined by the discriminating means, 15. The ideal action support device according to claim 14, further comprising deriving means for deriving information about emotions of persons around the second person.
【請求項17】 警告すべき言動に関する第1の情報を
記憶する記憶手段と、 人物の言動に関する第2の情報を入力する入力手段と、 前記記憶手段に記憶された第1の情報と、前記入力手段
により入力された第2の情報とを比較する比較手段と、 前記比較手段による比較結果に基づいて、前記人物に対
して警告を行う警告手段とを具備したことを特徴とする
理想行動支援装置。
17. A storage unit for storing first information relating to a behavior to be warned, an input unit for inputting second information relating to a behavior of a person, a first information stored in the storage unit, Ideal action support, comprising: comparison means for comparing the second information input by the input means; and warning means for warning the person based on the comparison result by the comparison means. apparatus.
【請求項18】 前記警告手段は、音声として警告を行
うことを特徴とする請求項17記載の理想行動支援装
置。
18. The ideal behavior support device according to claim 17, wherein the warning unit issues a warning as a voice.
【請求項19】 前記警告手段は、振動として警告を行
うことを特徴とする請求項17記載の理想行動支援装
置。
19. The ideal behavior support device according to claim 17, wherein the warning unit issues a warning as vibration.
【請求項20】 前記警告手段は、文字として警告を行
うことを特徴とする請求項17記載の理想行動支援装
置。
20. The ideal behavior support device according to claim 17, wherein said warning means issues a warning as a character.
【請求項21】 第1の人物の言動に関する第1の情報
を入力する入力工程と、 記憶手段に記憶された第2の人物の言動に関する第2の
情報と、前記入力工程で入力された第1の情報とを比較
する比較工程と、 前記比較工程での比較結果に基づいて、前記第1の人物
に対して、前記第2の人物に近づくための言動の改善に
関するアドバイスを通知する通知工程とを具備したこと
を特徴とする理想行動支援方法。
21. An input step of inputting first information relating to a first person's behavior, a second information relating to a second person's behavior stored in a storage means, and a second information input in the input step. A comparing step of comparing the first information with the first information; and a notifying step of notifying the first person of advice regarding improvement in behavior to approach the second person based on the comparison result in the comparing step. An ideal behavior support method characterized by comprising:
【請求項22】 前記第1の情報及び前記第2の情報
は、音声に関する情報と、体の動きに関する情報と、生
理的情報に関する情報の内の少なくとも1つを含むこと
を特徴とする請求項21記載の理想行動支援方法。
22. The information according to claim 21, wherein the first information and the second information include at least one of information on voice, information on body movement, and information on physiological information. 21. The ideal behavior support method according to 21.
【請求項23】 前記入力工程は、前記第1の人物の音
声を入力する音声入力工程と、前記第1の人物の画像を
入力する画像入力工程と、前記第1の人物の生理的情報
を入力する生理的情報入力工程の内の少なくとも1つを
含むことを特徴とする請求項21記載の理想行動支援方
法。
23. The input step, comprising: a voice input step of inputting voice of the first person; an image input step of inputting an image of the first person; and inputting physiological information of the first person. 22. The ideal behavior supporting method according to claim 21, comprising at least one of a physiological information inputting step of inputting.
【請求項24】 前記通知工程において、前記アドバイ
スを音声として出力することを特徴とする請求項21記
載の理想行動支援方法。
24. The ideal action support method according to claim 21, wherein the advice is output as a voice in the notification step.
【請求項25】 前記通知工程において、前記アドバイ
スを振動として出力することを特徴とする請求項21記
載の理想行動支援方法。
25. The ideal action support method according to claim 21, wherein the advice is output as a vibration in the notification step.
【請求項26】 前記通知工程において、前記アドバイ
スを文字として表示することを特徴とする請求項21記
載の理想行動支援方法。
26. The ideal action support method according to claim 21, wherein the advice is displayed as characters in the notification step.
【請求項27】 前記比較工程での比較の開始を指示す
る指示工程を具備したことを特徴とする請求項21記載
の理想行動支援方法。
27. The ideal action support method according to claim 21, further comprising an instruction step of instructing a start of the comparison in the comparison step.
【請求項28】 前記第1の情報及び前記第2の情報
は、言葉使いに関する情報を含み、 前記入力工程は、 前記第1の人物の音声を入力する音声入力工程と、 前記音声入力工程で入力された音声を文字情報に変換す
る変換工程と、 前記変換工程で変換された文字情報に基づいて、前記第
1の人物の言葉使いに関する情報を導出する導出工程と
を有することを特徴とする請求項21記載の理想行動支
援方法。
28. The method according to claim 28, wherein the first information and the second information include information on use of words, wherein the input step includes: a voice input step of inputting a voice of the first person; A conversion step of converting the input voice into character information; and a derivation step of deriving information on the wording of the first person based on the character information converted in the conversion step. The ideal behavior support method according to claim 21.
【請求項29】 前記第1の情報及び前記第2の情報
は、感情または性格に関する情報を含み、 前記入力工程は、 前記第1の人物の音声を入力する音声入力工程と、 前記音声入力工程で入力された音声の特徴を認識する認
識工程と、 前記認識工程で認識された音声の特徴から、前記第1の
人物の感情または性格に関する情報を導出する導出工程
とを有することを特徴とする請求項21記載の理想行動
支援方法。
29. The first information and the second information include information relating to emotion or personality, wherein the input step includes: a voice input step of inputting a voice of the first person; and the voice input step. And a derivation step of deriving information on the emotion or character of the first person from the features of the voice recognized in the recognition step. The ideal behavior support method according to claim 21.
【請求項30】 前記第1の情報及び前記第2の情報
は、顔の表情に関する情報を含み、 前記入力工程は、 前記第1の人物の画像を入力する画像入力工程と、 前記画像入力工程で入力された画像から前記第1の人物
の顔の部分を抽出する顔抽出工程と、 前記顔抽出工程で抽出された顔の部分に基づいて、前記
第1の人物の表情に関する情報を導出する導出工程とを
有することを特徴とする請求項21記載の理想行動支援
方法。
30. The first information and the second information include information related to a facial expression, wherein the input step includes an image input step of inputting an image of the first person; and the image input step. A face extraction step of extracting a face portion of the first person from the image input in step (a), and information on a facial expression of the first person is derived based on the face portion extracted in the face extraction step. The ideal behavior supporting method according to claim 21, further comprising a deriving step.
【請求項31】 前記第1の情報及び前記第2の情報
は、感情または体調に関する情報を含み、 前記入力工程は、 前記第1の人物の生理的情報を入力する生理的情報入力
工程と、 前記生理的情報入力工程で入力された生理的情報に基づ
いて、前記第1の人物の感情または体調に関する情報を
導出する導出工程とを有することを特徴とする請求項2
1記載の理想行動支援方法。
31. The first information and the second information include information related to emotion or physical condition, wherein the input step includes a physiological information input step of inputting physiological information of the first person; A deriving step of deriving information relating to the emotion or physical condition of the first person based on the physiological information input in the physiological information inputting step.
1. The ideal behavior support method according to 1.
【請求項32】 前記第1の情報及び前記第2の情報
は、感情または体調に関する情報を含み、 前記入力工程は、 前記第1の人物の画像を入力する画像入力工程と、 前記第1の人物の生理的情報を入力する生理的情報入力
工程と、 前記画像入力工程で入力された画像と、前記生理的情報
入力工程で入力された生理的情報とに基づいて、前記第
1の人物の感情または体調に関する情報を導出する導出
工程とを有することを特徴とする請求項21記載の理想
行動支援方法。
32. The first information and the second information include information on emotion or physical condition, wherein the inputting step includes an image inputting step of inputting an image of the first person; A physiological information inputting step of inputting physiological information of the person, an image input in the image inputting step, and the physiological information input in the physiological information inputting step, based on the physiological information input in the physiological information inputting step. 22. The ideal behavior supporting method according to claim 21, further comprising a deriving step of deriving information on emotion or physical condition.
【請求項33】 前記第2の情報を変更する変更工程を
具備したことを特徴とする請求項21記載の理想行動支
援方法。
33. The ideal action support method according to claim 21, further comprising a change step of changing the second information.
【請求項34】 第1の人物の言動、及び該第1の人物
の言動に対する周囲の人物の言動に関する第1の情報を
入力する入力工程と、 記憶手段に記憶された、第2の人物の言動に関する第2
の情報と、前記入力工程で入力された第2の情報とを比
較する比較工程と、 前記比較工程での比較結果に基づいて、前記第1の人物
に対して、前記第2の人物に近づくための言動の改善に
関するアドバイスを通知する通知工程とを具備したこと
を特徴とする理想行動支援方法。
34. An inputting step of inputting first information relating to the behavior of a first person and the behavior of surrounding persons with respect to the behavior of the first person, and the second person's behavior stored in a storage means. The second about behavior
And a comparison step of comparing the second information input in the input step with the second information. In the comparison step, the first person approaches the second person based on the comparison result in the comparison step. A notification step of notifying advice on improvement of behavior for the user.
【請求項35】 前記第1の情報及び前記第2の情報
は、感情に関する情報を含み、 前記入力工程は、 前記第1の人物、及び第1の人物の周囲の人物の音声を
入力する音声入力工程と、 前記音声入力工程で入力された音声を、前記第1の人物
のものと、前記第1の人物の周囲の人物のものとに分離
する分離工程と、 前記分離工程で、前記第1の人物の周囲の人物のものと
分離された音声の特徴を認識する認識工程と、 前記認識工程で認識された音声の特徴から、前記第1の
人物の周囲の人物の感情に関する情報を導出する導出工
程とを有することを特徴とする請求項34記載の理想行
動支援方法。
35. The first information and the second information include information relating to emotion, and the inputting step includes: a voice for inputting voices of the first person and a person around the first person. An input step, a separation step of separating the voice input in the voice input step into those of the first person and those of persons around the first person, and A recognition step of recognizing a feature of a voice separated from that of a person around the one person; and deriving information about emotions of the person around the first person from the features of the voice recognized in the recognition step. 35. The ideal behavior supporting method according to claim 34, further comprising:
【請求項36】 前記第1の情報及び前記第2の情報
は、感情に関する情報を含み、 前記入力工程は、 前記第1の人物、及び前記第1の人物の周囲の人物の画
像を入力する画像入力工程と、 前記画像入力工程で入力された画像から、前記第1の人
物の周囲の人物の顔の表情及び体の動きを判別する判別
工程と、 前記判別工程で判別された前記第1の人物の周囲の人物
の顔の表情及び体の動きに基づいて、前記第1の人物の
周囲の人物の感情に関する情報を導出する導出工程とを
有することを特徴とする請求項34記載の理想行動支援
方法。
36. The first information and the second information include information on emotion, and the inputting step includes inputting an image of the first person and an image of a person around the first person. An image input step; a discrimination step of discriminating a facial expression and a body movement of a person around the first person from the image input in the image input step; and the first discrimination discriminated in the discrimination step. 35. A deriving step of deriving information on emotions of a person around the first person based on facial expressions and body movements of the person around the person. Action support method.
【請求項37】 人物の言動に関する第1の情報を入力
する入力工程と、 記憶手段に記憶された警告すべき言動に関する第2の情
報と、前記入力工程で入力された第1の情報とを比較す
る比較工程と、 前記比較工程での比較結果に基づいて、前記人物に対し
て警告を行う警告工程とを具備したことを特徴とする理
想行動支援方法。
37. An input step of inputting first information relating to a person's behavior, a second information relating to a warning behavior stored in a storage unit, and the first information input in the input step. An ideal action support method, comprising: a comparing step of comparing; and a warning step of giving a warning to the person based on a result of the comparison in the comparing step.
【請求項38】 前記警告工程において、音声として警
告を行うことを特徴とする請求項37記載の理想行動支
援方法。
38. The ideal behavior support method according to claim 37, wherein in the warning step, a warning is issued as a voice.
【請求項39】 前記警告工程において、振動として警
告を行うことを特徴とする請求項37記載の理想行動支
援方法。
39. The ideal action support method according to claim 37, wherein in the warning step, a warning is issued as vibration.
【請求項40】 前記警告工程において、文字として警
告を行うことを特徴とする請求項37記載の理想行動支
援方法。
40. The ideal action support method according to claim 37, wherein in the warning step, a warning is issued as a character.
【請求項41】 携帯型端末装置と情報処理装置とから
なる理想行動支援システムであって、 前記携帯型端末装置は、 ある人物の言動に関する第1の情報を入力する入力手段
と、 前記入力手段により入力された第1の情報を前記情報処
理装置に送信する送信手段とを有し、 前記情報処理装置は、 様々な人物と、当該様々な人物の言動に関する情報を記
憶する記憶手段と、 前記記憶手段から、特定の人物と、当該特定の人物の言
動に関する第2の情報を選択する選択手段と、 前記携帯型端末装置から送信された前記第1の情報を受
信する受信手段と、 前記受信手段により受信された第1の情報と、前記選択
手段により選択された第2の情報とを比較する比較手段
と、 前記比較手段による比較結果に基づいて、前記ある人物
に対して、前記特定の人物に近づくための言動の改善に
関するアドバイスを通知する通知手段とを有することを
特徴とする理想行動支援システム。
41. An ideal behavior support system comprising a portable terminal device and an information processing device, wherein the portable terminal device comprises: input means for inputting first information relating to a certain person's behavior; and the input means A transmitting unit that transmits the first information input by the information processing device to the information processing device, wherein the information processing device includes: a storage unit configured to store information on various persons and information on behaviors of the various people; Selecting means for selecting, from the storage means, a specific person and second information relating to the behavior of the specific person; receiving means for receiving the first information transmitted from the portable terminal device; Comparing means for comparing the first information received by the means with the second information selected by the selecting means, based on a comparison result by the comparing means, An ideal behavior support system, comprising: a notification unit configured to notify a user of an advice regarding improvement of behavior to approach a certain person.
【請求項42】 携帯型端末装置と情報処理装置とから
なる理想行動支援システムであって、 前記携帯型端末装置は、 着脱可能な外部記憶手段を挿入するための第1の挿入手
段と、 ある人物の言動に関する第1の情報を入力する入力手段
と、 前記入力手段により入力された情報を前記第1の挿入手
段に挿入された外部記憶手段に格納する格納手段とを有
し、 前記情報処理装置は、 着脱可能な外部記憶手段を挿入するための第2の挿入手
段と、 前記第2の挿入手段に挿入された外部記憶手段に記憶さ
れた、前記ある人物の言動に関する第1の情報を読み出
す読み出し手段と、 様々な人物と、当該様々な人物の言動に関する情報を記
憶する記憶手段と、 前記記憶手段から、特定の人物と、当該特定の人物の言
動に関する第2の情報を選択する選択手段と、 前記読み出し手段により読み出された第1の情報と、前
記選択手段により選択された第2の情報とを比較する比
較手段と、 前記比較手段による比較結果に基づいて、前記ある人物
に対して、前記特定の人物に近づくための言動の改善に
関するアドバイスを通知する通知手段とを有することを
特徴とする理想行動支援システム。
42. An ideal behavior support system comprising a portable terminal device and an information processing device, wherein the portable terminal device has first insertion means for inserting a removable external storage means. Input means for inputting first information relating to a person's behavior, and storage means for storing information input by the input means in an external storage means inserted into the first insertion means; The apparatus includes: a second insertion unit for inserting a detachable external storage unit; and first information relating to a certain person's behavior stored in the external storage unit inserted into the second insertion unit. Reading means for reading, various people, storage means for storing information on the behavior of the various people, and a specific person and second information on the behavior of the specific person are selected from the storage means. Selecting means; comparing means for comparing the first information read by the reading means with the second information selected by the selecting means; and the person based on a comparison result by the comparing means. Notification means for notifying the user of advice regarding improvement of behavior for approaching the specific person.
【請求項43】 第1の人物の言動に関する第1の情報
を入力するための入力モジュールと、 記憶手段に記憶された第2の人物の言動に関する第2の
情報と、前記入力モジュールによる入力により入力され
た第1の情報とを比較するための比較モジュールと、 前記比較モジュールによる比較による比較結果に基づい
て、前記第1の人物に対して、前記第2の人物に近づく
ための言動の改善に関するアドバイスを通知するための
通知モジュールとを有するコンピュータプログラムを格
納したことを特徴とする記憶媒体。
43. An input module for inputting first information relating to a first person's behavior, a second information relating to a second person's behavior stored in storage means, and an input by the input module. A comparison module for comparing the input first information with the first information, and an improvement in the behavior of the first person toward the second person with respect to the first person based on a comparison result obtained by the comparison by the comparison module. A storage medium storing a computer program having a notifying module for notifying advice on the information.
【請求項44】 理想の言動に関する第1の情報を記憶
する記憶手段と、 ある人物の言動に関する第2の情報を入力する入力手段
と、 前記記憶手段に記憶された第1の情報と、前記入力手段
により入力された第2の情報とを比較する比較手段と、 前記比較手段による比較結果に基づいて、前記ある人物
に対して、前記理想の言動に近づくための言動の改善に
関するアドバイスを通知する通知手段とを具備したこと
を特徴とする理想行動支援装置。
44. A storage unit for storing first information relating to an ideal behavior, an input unit for inputting second information relating to a certain person's behavior, the first information stored in the storage unit, Comparing means for comparing the second information input by the input means; and, based on a result of the comparison by the comparing means, notifying the person of advice on improvement of the behavior to approach the ideal behavior. An ideal action support device comprising:
【請求項45】 ある人物の言動に関する第1の情報を
入力する入力工程と、 記憶手段に記憶された理想の言動に関する第2の情報
と、前記入力工程で入力された第1の情報とを比較する
比較工程と、 前記比較工程での比較結果に基づいて、前記ある人物に
対して、前記理想の言動に近づくための言動の改善に関
するアドバイスを通知する通知工程とを具備したことを
特徴とする理想行動支援方法。
45. An input step of inputting first information relating to a certain person's behavior, a second information relating to an ideal behavior stored in a storage unit, and a first information input in the input step. A comparing step of comparing, based on a comparison result in the comparing step, a notification step of notifying the person of advice regarding improvement of behavior to approach the ideal behavior. Ideal behavior support method to do.
JP10369922A 1998-12-25 1998-12-25 Ideal action support device, and method, system, and recording medium therefor Withdrawn JP2000194252A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10369922A JP2000194252A (en) 1998-12-25 1998-12-25 Ideal action support device, and method, system, and recording medium therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10369922A JP2000194252A (en) 1998-12-25 1998-12-25 Ideal action support device, and method, system, and recording medium therefor

Publications (1)

Publication Number Publication Date
JP2000194252A true JP2000194252A (en) 2000-07-14

Family

ID=18495644

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10369922A Withdrawn JP2000194252A (en) 1998-12-25 1998-12-25 Ideal action support device, and method, system, and recording medium therefor

Country Status (1)

Country Link
JP (1) JP2000194252A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004348429A (en) * 2003-05-22 2004-12-09 Hitachi Information Technology Co Ltd Terminal equipment and control program for terminal equipment
JP2007097668A (en) * 2005-09-30 2007-04-19 Fujifilm Corp State appreciation device, program and method
JP2013539551A (en) * 2010-08-30 2013-10-24 グレンツェバッハ・マシーネンバウ・ゲーエムベーハー Device and method for operating a flight simulator with special feeling
JP2014235507A (en) * 2013-05-31 2014-12-15 株式会社北電子 Terminal equipment and method and program for recording voice and action during sleep
WO2022004567A1 (en) * 2020-07-02 2022-01-06 パナソニックIpマネジメント株式会社 Communication analysis system, and communication analysis method

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004348429A (en) * 2003-05-22 2004-12-09 Hitachi Information Technology Co Ltd Terminal equipment and control program for terminal equipment
JP2007097668A (en) * 2005-09-30 2007-04-19 Fujifilm Corp State appreciation device, program and method
JP4704174B2 (en) * 2005-09-30 2011-06-15 富士フイルム株式会社 Status identification device, program, and method
JP2013539551A (en) * 2010-08-30 2013-10-24 グレンツェバッハ・マシーネンバウ・ゲーエムベーハー Device and method for operating a flight simulator with special feeling
US9799233B2 (en) 2010-08-30 2017-10-24 Grenzebach Maschinenbau Gmbh Apparatus and method for operating a flight simulator with a special impression of reality
JP2014235507A (en) * 2013-05-31 2014-12-15 株式会社北電子 Terminal equipment and method and program for recording voice and action during sleep
WO2022004567A1 (en) * 2020-07-02 2022-01-06 パナソニックIpマネジメント株式会社 Communication analysis system, and communication analysis method
JPWO2022004567A1 (en) * 2020-07-02 2022-01-06
JP7369942B2 (en) 2020-07-02 2023-10-27 パナソニックIpマネジメント株式会社 Communication analysis system and communication analysis method

Similar Documents

Publication Publication Date Title
CN108227932B (en) Interaction intention determination method and device, computer equipment and storage medium
CN108334583B (en) Emotion interaction method and device, computer readable storage medium and computer equipment
US10516938B2 (en) System and method for assessing speaker spatial orientation
CN103561652B (en) Method and system for assisting patients
JP5323770B2 (en) User instruction acquisition device, user instruction acquisition program, and television receiver
Vinola et al. A survey on human emotion recognition approaches, databases and applications
CN102149319B (en) Alzheimer&#39;s cognitive enabler
JP2004310034A (en) Interactive agent system
US11837249B2 (en) Visually presenting auditory information
US20200075007A1 (en) Voice interaction system, voice interaction method, program, learning model generation apparatus, and learning model generation method
WO2016048579A1 (en) Method and apparatus to synthesize voice based on facial structures
JP2006071936A (en) Dialogue agent
KR102351008B1 (en) Apparatus and method for recognizing emotions
KR20080057030A (en) Apparatus and method for image communication inserting emoticon
JP2012059107A (en) Emotion estimation device, emotion estimation method and program
JP6715410B2 (en) Evaluation method, evaluation device, evaluation program, and evaluation system
WO2017143951A1 (en) Expression feedback method and smart robot
JP2000194252A (en) Ideal action support device, and method, system, and recording medium therefor
WO2020175969A1 (en) Emotion recognition apparatus and emotion recognition method
KR20210100831A (en) System and method for providing sign language translation service based on artificial intelligence
JP7021488B2 (en) Information processing equipment and programs
JP2020160641A (en) Virtual person selection device, virtual person selection system and program
JP6712028B1 (en) Cognitive function determination device, cognitive function determination system and computer program
JPWO2018198447A1 (en) Information processing apparatus and information processing method
JP2019086858A (en) Customer service system and customer service method

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060307