JP4355823B2 - Information processing device for facial expressions - Google Patents

Information processing device for facial expressions Download PDF

Info

Publication number
JP4355823B2
JP4355823B2 JP2003012538A JP2003012538A JP4355823B2 JP 4355823 B2 JP4355823 B2 JP 4355823B2 JP 2003012538 A JP2003012538 A JP 2003012538A JP 2003012538 A JP2003012538 A JP 2003012538A JP 4355823 B2 JP4355823 B2 JP 4355823B2
Authority
JP
Japan
Prior art keywords
person
facial expression
information processing
database
past
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003012538A
Other languages
Japanese (ja)
Other versions
JP2004227167A (en
Inventor
庸美 徳原
Original Assignee
庸美 徳原
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 庸美 徳原 filed Critical 庸美 徳原
Priority to JP2003012538A priority Critical patent/JP4355823B2/en
Publication of JP2004227167A publication Critical patent/JP2004227167A/en
Application granted granted Critical
Publication of JP4355823B2 publication Critical patent/JP4355823B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Medical Treatment And Welfare Office Work (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、ディジタルカメラから入力された人物像の表情や仕草からその人物の心理を判定し、この判定結果に基づいて、人物像の心理を反映したペット動画像を表示装置の画面に入力人物像のフィードバック信号として表示するようにした、個人認証エンジン、在宅介護システムの容態判定エンジン、あるいはペットロボット等として用いられる表情等の情報処理装置に関する。
【0002】
【従来の技術】
ディジタルカメラ付きの携帯電話やパーソナルコンピュータは従来周知であり、これらはネットワーク接続機能及びインタラクティブな機能を持っている。
【0003】
【発明が解決しようとする課題】
従来のディジタルカメラ付きの携帯電話やパーソナルコンピュータにおいて、ディジタルカメラで撮った人物像の心理を人物像の表情からリアルタイムに解析し、その人物の心理を反映したアニメーションペット動画像をフィーバック画像として画面に表示し、ディジタルカメラの前の人物にフィードバックペット画像によって感情的刺激を与え、その人物がこれによって次の表情を誘発するようにした機能を有するものは存在しない。現在、人間の表情をその各部の動きを抽出することで定量化することが可能となっている。ディジタルカメラの前の人物の感情心理を判定し、この感情心理を反映した表情豊かなアニメーションペット動画像をその人物の表情のフィードバック信号として画面に表示した場合、これを見たディジタルカメラの前の人物は様々なその人物特有の反応を起こす。この反応は種々の判断データとして利用することができる。例えば、ディジタルカメラで撮った人物の表情が「苦しみ」であった場合、画面にペット画像を通じて、喜びの表情を作るように感情的刺激を与えてもなお「苦しみ」の表情が消えない場合、その人物の健康に問題があることが判る。
本発明は、表情豊かなペット動画像をディジタルカメラの前の人物の像のフィードバック画像として画面に表示し、このペット動画像に対するディジタルカメラの前の人物の反応を利用してその人物の認証等の判定を行うことができるようすることを目的とするものである。
【0004】
【課題を解決するための手段】
上記目的を達成するため本発明は、CPUと、これに接続する記憶装置と、前記CPUに接続する三次元画像処理装置と、前記三次元画像処理装置に接続するデジタルカメラと、前記CPUに接続する表示装置とを備え、前記記憶装置に、特定の人物の過去の表情データを記録する過去データベースと、前記表示装置の画面に動画で表示される人や動物をアニメーションの形で動く画像として表現したペット動画像の種々の表情が記録された表情データベースと、情報処理プログラムとが格納され、該情報処理プログラムが、前記デジタルカメラで撮った人物の表情を抽出し定量化する動き抽出手段と、前記動き抽出手段が定量化した表情と前記過去データベースの表情とを比較し、その差分を出力する履歴差分検出手段と、前記履歴差分検出手段の差分信号に基づいて入力人物像の心理を判定する判定手段と、前記判定手段の判定結果に基づき、前記ペット動画像の表情を決定する情動発生手段と、前記情動発生手段の決定した情動信号の出力に基づき、前記表情データベースの中から前記情動信号に対応したペット動画像を前記入力人物像のフィードバック信号として前記表示装置の画面に表示する表示制御手段とで構成され、前記履歴差分検出手段が、画面にフィードバックされたペット動画像に反応して入力された人物像の表情と、前記過去データベースの中の表情データとを照合するようにし、前記判定手段が、前記照合の結果に基づいて、入力された人物像の人物を特定する判定を行うようにしたものである。
また本発明は、前記動き抽出手段が人物の表情に加えてその人物の仕草を抽出し定量化するようにし、前記過去データベースに特定の人物の過去の仕草に関する仕草データが記録され、前記履歴差分検出手段が、前記動き検出手段によって定量化した仕草のデータと過去データベースのデータとを比較しその差分を出力するようにしたものである。
また本発明は、CPUに音響装置を介してスピーカーを接続し、前記ペット動画像の映像とともに前記スピーカーからメッセージが発せられるようにしたものである。
また本発明は、前記情動発生手段が前記判定手段の判定結果に基づき、怒り、恐れ、喜び、悲しみなどの感情を示す信号を出力するようにしたものである。
また本発明は、前記CPUに音声処理装置を介してマイクロフォンを接続し、前記情報処理プログラムに声紋抽出手段を設け、前記過去データベースに特定の人物の声紋データを記録し、前記履歴差分検出手段が、前記声紋抽出手段が抽出した声紋抽出信号と前記過去データベースの声紋データとを比較しその差分を出力するようにし、この出力結果に基づいて入力人物像の心理を判定するようにしたものである。
【0005】
【発明の実施の形態】
以下に本発明の実施の形態を添付した図面を参照して詳細に説明する。
符号2は、人間の表情、音声、動作等の情報処理を行うためのシステムに使用される表情等の情報処理装置を示し、インターネット等のネットワークに接続できる通信機能を備えている。この情報処理装置2は、携帯電話機や各種の携帯情報端末としても利用できるように、これらの機能を全て備えている。情報処理装置2には、その本体2aに、液晶などを用いた表示装置4と、ディジタルカメラ6と、左右のマイクロフォン8a,8bから成るステレオマイクロフォンシステムと、左右の2つのスピーカー10a,10bから成るステレオスピーカーシステムが取り付けられている。12は、情報処理装置2に内蔵された記憶装置であり、該記憶装置12には、情報処理プログラム及び該プログラムを実行するために必要なデータベース及びバーチャルな人や動物をアニメーションで作成したペット動画像14を表示装置4の画面に表示するための、ペット動画像の表情データベースが格納されている。
【0006】
16は、情報処理装置2に内蔵されたCPUであり、これに記憶装置12、三次元画像処理装置18、三次元音声処理装置20、表示装置4、音響装置22が接続している。前記情報処理プログラムは、動き抽出手段24、声紋抽出手段26、履歴差分検出手段28、感情抽出手段30、心理抽出手段32、判定手段34、情動発生手段36、表示制御手段38、音声制御手段40とから構成されている。前記動き抽出手段24は、ディジタルカメラ6の出力画像を三次元画像処理装置18を用いて解析し、ディジタルカメラ6に撮られた人物の動きを抽出する。この動きは、人物の表情と仕草を含む。人物の顔の表情について考えると、顔は運動体と見ることができる。運動は筋肉がなすものであり、人間の表情はさまざまな筋肉の働きと言える。これらの筋肉として、眼裂、鼻孔、口裂などの孔を開閉し、また耳介を動かす表情筋、下顎筋を引き上げて、口を閉じたり、下顎骨を前へ出したり、水平に動かしたりする咀嚼筋、舌骨を動かして嚥下を補助したり、下顎骨を引き上げて口を開けるなどの力強い働きを行う舌骨上筋、眼球を自在に動かす眼筋、周囲の明暗に応じて瞳孔の焦点を合わせて眼球内の光量の調節を行う瞳孔括約筋・瞳孔散大筋、舌の形を変えたり、伸ばして口外にだしたりする働きを行う舌筋が知られている。
【0007】
これらの筋肉は、ある種の情動に応じて一群の筋肉が動き出すと、それに伴って末梢神経を通じて一定の筋肉もしくは特定の筋肉が一斉に収縮するという仕組みになっている。動き抽出手段24は、これらの筋肉の動きに基づく人物の表情の変化を抽出し、定量化する。また人物の手足や全体についても、その動きを抽出し定量化する。記憶装置12に格納されている過去データベス42には、情報処理装置2の所有者の過去の表情や仕草のデータ及び声紋のデータが定量化されて記録されている。履歴差分検出手段28は、動き抽出手段24の抽出信号と声紋抽出手段26の声紋抽出信号と過去データベース42の対応する、表情、声紋データと比較し、その差分を検出する。例えば、過去データベース42に口を閉じている表情データが記憶されており、動き抽出手段24が口を開けているという表情を抽出すると、履歴差分検出手段28は、口を閉じているデータと口を開いているデータとから、その差分即ち、口が開いているという状態を検出する。記憶装置12に格納されている感情パターンデータベース44には、人間の各種の感情に対する表情や声紋のパターンが記録されている。感情抽出手段30は、履歴差分検出手段28からの信号が、パターンデータベース44中のどの感情パターンに属するか判断し、ディジタルカメラ6とマイクロフォン8a,8bのキャッチした人物の表情、仕草及び声紋から、該人物の感情を抽出する。心理抽出手段32は、感情抽出手段30の抽出信号即ち、驚き、恐れ、怒り、嫌悪、悲しみなどの感情から、ディジタルカメラ6の前の人物の心理を抽出する。
【0008】
判定手段34は心理抽出手段32の抽出信号に基づいて、ディジタルカメラ6の前の人物に対してペット動画像14及び音声を通じてどのような動作で対応すべきかをプログラムの目的に応じて判定する。情動発生手段36は、判定手段34の判定結果に基づいて情動即ち、怒り、恐れ、喜び、悲しみなどの感情の信号を発生する。記憶装置12に格納されている。表情データベース46には、情動発生手段36の各種の情動出力信号に対応して、種々の表情のペット動画像14のデータベースが記録されてる。また、音声データベース48には、各種情動に対応する音声データが記録されている。表示制御手段38は、情動発生手段36から情動信号が入力されると、表情データベース46のアニメーションデータに基づいて、ペット動画像14を表示装置4の画面上で表示し、ディジタルカメラ6の前の人物50にペット動画像14の動きと表情を通じて視覚的に感情的な刺激を与える。音声制御手段40も同様に、情動発生手段36から情動信号が入力されると、音声データベース48のデータに基づいて音声を音響装置22を通じてスピーカー10a,10bに送り、人物50に感情的刺激を与える。この動作が繰り返し行われる。
【0009】
従って、2回目に入力されるディジタルカメラの前の人物の表情、仕草及び、音声は、画面上のペット動画像の意思表示によって感情的刺激を与えられ、これに反応した画像として、ディジタルカメラ6及びマイクロフォン8a,8b以降の各手段に入力される。
以上の説明から明らかなように、本装置2のディジタルカメラ6及びマイクロフォン8a,8bを入力部とし、ペット動画像14を表示する出力部に至る一連のデータ処理系は、閉ループを構成し、履歴差分検出手段28の差分出力がゼロになるようにデータ処理が繰り返される。こり繰り返しのデータ処理中に、過去データベース42には、ディジタルカメラ6及びマイクロフォン8a,8bがキャッチした表情、仕草などの動きのデータ及び声紋のデータが蓄積され、情報処理装置2に内蔵されたコンピュータは本装置2を所有する人物に関して、学習機能を持つことになる。判定手段34は、人物50の表情、仕草、音色の短期、長期の変化によって、プログラムの目的に応じた判定を行う。
【0010】
次に本装置2を携帯電話で構成し、この携帯電話を人物認証エンジンとして使用する実施形態について説明する。
ユーザーである人物50が例えばサングラスを掛けている場合に、本装置がどのようにして、ユーザーを特定するかについて説明する。携帯電話には、予め記憶装置12に個人認証用情報処理プログラムを格納しておく。携帯電話には通常ステレオスピーカーやステレオマイクロフォンが装備されていないので、予めこれらを装備しておく。ディジタルカメラ6でユーザーである人物50が写真を撮ると、動き抽出手段24はサングラスを抽出する。過去データベース42にサングラスをかけた表情データが記録されていないときは、履歴差分検出手段28は、定量化された履歴差分信号を出力する。
【0011】
情動発生手段36はユーザーが普段の表情に戻るような刺激を与えるための情動信号を出力するとともに「サングラスを外そう」というメッセージを出力する。情動発生手段36の出力により、画面上にペット動画像4が現れ、ユーザーに向かって、ユーザーの表情が普段と違う旨の表情をするとともに、スピーカー10a,10bから「サングラスを外そう、いつもと違うよ」というメッセージを出し、ディジタルカメラ6の前の人物50即ちユーザーに感情的刺激を与える。ユーザーは、画面のペット動画像14と、スピーカーからのメッセージに従い、顔からサングラスを取り去り、この状態をカメラ6に撮る。この画像は動き抽出手段24に送られる。履歴差分検出手段28は、過去データベース42のメガネをかけていない表情データと照合し、差がないときは、ゼロを出力する。判定手段34は、履歴差分検出手段28がゼロを出力するとディジタルカメラ6の前の人物が過去データベースに登録されている特定の人物と判定する。
【0012】
ユーザーが画面上の認証ボタンをクリックすると、画面に認証のメッセージが表示される。ユーザーが髪型を変えたり、顔に傷が付いていた場合には、ペット動画像14とスピーカー10a,10bの音声は、ユーザーにいつもの表情と違うというメッセージを与える。このメッセージに反応して、ユーザーがいろいろの表情の画像を送ってくることにより、判定手段34は、ユーザーを特定の人物であると高い確度で認証することができる。本装置は、上記人物認証エンジンとして用いる方法以外に、在宅介護システムでの容態判定エンジンその他に広く応用することができる。
【0013】
【発明の効果】
本発明は上述の如く構成したので、カメラの前の人物を高い確度で特定することができ、人物認証等を高精度に行うことができる。
【図面の簡単な説明】
【図1】本発明のブロック説明図である。
【図2】本発明のブロック説明図である。
【図3】本発明の説明図である。
【符号の説明】
2 情報処理装置
4 表示装置
6 ディジタルカメラ
8a マイクロフォン
8b マイクロフォン
10a スピーカー
10b スピーカー
12 記憶装置
14 ペット動画像
16 CPU
18 三次元画像処理装置
20 三次元音声処理装置
22 音響装置
24 動き抽出手段
26 声紋抽出手段
28 履歴差分検出手段
30 感情抽出手段
32 心理抽出手段
34 判定手段
36 情動発生手段
38 表示制御手段
40 音声制御手段
42 過去データベース
44 パターンデータベース
46 表情データベース
48 音声データベース
50 人物
[0001]
BACKGROUND OF THE INVENTION
The present invention determines the psychology of the person from the facial expression and gesture of the person image input from the digital camera, and based on the determination result, the pet moving image reflecting the psychology of the person image is input to the screen of the display device. The present invention relates to an information processing apparatus such as a facial expression used as a personal authentication engine, a condition determination engine of a home care system, or a pet robot, which is displayed as an image feedback signal.
[0002]
[Prior art]
Mobile phones and personal computers with digital cameras are well known in the art, and these have a network connection function and an interactive function.
[0003]
[Problems to be solved by the invention]
In a conventional mobile phone with a digital camera or personal computer, the psychology of the person image taken with the digital camera is analyzed in real time from the expression of the person image, and the animated pet moving image reflecting the person's psychology is displayed as a feedback image. No one has the function of giving an emotional stimulus to the person in front of the digital camera by the feedback pet image and causing the person to induce the next facial expression. Currently, it is possible to quantify human facial expressions by extracting the movement of each part. When the emotional psychology of a person in front of a digital camera is determined and an expressive animated pet moving image that reflects this emotional psychology is displayed on the screen as a feedback signal of that person's facial expression, A person causes various reactions specific to that person. This reaction can be used as various judgment data. For example, if the facial expression of a person taken with a digital camera was “suffering”, and the emotional stimulus was applied to create a joyful expression through a pet image on the screen, the “suffering” facial expression would not disappear, It turns out that there is a problem with the health of the person.
The present invention displays an expressive pet moving image on the screen as a feedback image of the image of the person in front of the digital camera, and uses the reaction of the person in front of the digital camera to the pet moving image to authenticate the person. The purpose of this is to enable the determination.
[0004]
[Means for Solving the Problems]
To achieve the above object, the present invention provides a CPU, a storage device connected to the CPU, a three-dimensional image processing device connected to the CPU, a digital camera connected to the three-dimensional image processing device, and the CPU. A display database that records past facial expression data of a specific person in the storage device, and expresses a person or animal displayed as a moving image on the screen of the display device as an animated moving image A facial expression database in which various facial expressions of the pet moving image recorded are recorded, and an information processing program, and the information processing program extracts and quantifies a human facial expression taken by the digital camera; the motion extraction means compares the facial expression of the past database and quantified expressions, and history difference detecting means for outputting a difference, the history difference test Determining means for determining the psychology of the input person image based on the difference signal of the means, emotion generating means for determining the facial expression of the pet moving image based on the determination result of the determining means, and emotion determined by the emotion generating means based on the output of the signal, it is constituted by a display control means for displaying the pet moving image corresponding to the emotion signal on a screen of the display device as a feedback signal of the input person image from the facial expression database, the history difference detection Means for collating the facial expression of the human image inputted in response to the pet moving image fed back to the screen and the facial expression data in the past database, and the determining means is based on the result of the collation Thus, it is determined that the person of the inputted person image is specified.
In the present invention, the motion extraction means extracts and quantifies the person's gesture in addition to the person's facial expression, and the past data relating to the past gesture of the specific person is recorded in the past database, and the history difference The detection means compares the gesture data quantified by the motion detection means with the data of the past database, and outputs the difference.
According to the present invention, a speaker is connected to the CPU via an audio device so that a message is emitted from the speaker together with the video of the pet moving image.
According to the present invention, the emotion generating means outputs a signal indicating emotions such as anger, fear, joy and sadness based on the determination result of the determining means.
According to the present invention, a microphone is connected to the CPU via a voice processing device, voice print extraction means is provided in the information processing program, voice print data of a specific person is recorded in the past database, and the history difference detection means is The voiceprint extraction signal extracted by the voiceprint extraction means and the voiceprint data of the past database are compared and the difference is output, and the psychology of the input person image is determined based on the output result. .
[0005]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below in detail with reference to the accompanying drawings.
Reference numeral 2 denotes an information processing apparatus for facial expressions used in a system for performing information processing such as human facial expressions, voices, and actions, and has a communication function that can be connected to a network such as the Internet. The information processing apparatus 2 has all of these functions so that it can be used as a mobile phone or various portable information terminals. The information processing device 2 includes a display device 4 using liquid crystal, a digital camera 6, a stereo microphone system including left and right microphones 8a and 8b, and left and right speakers 10a and 10b. A stereo speaker system is installed. Reference numeral 12 denotes a storage device built in the information processing apparatus 2, and the storage device 12 includes an information processing program, a database necessary for executing the program, and a pet video created by animation of a virtual person or animal. A pet moving image facial expression database for displaying the image 14 on the screen of the display device 4 is stored.
[0006]
Reference numeral 16 denotes a CPU built in the information processing apparatus 2, to which a storage device 12, a three-dimensional image processing device 18, a three-dimensional sound processing device 20, a display device 4, and an acoustic device 22 are connected. The information processing program includes motion extraction means 24, voiceprint extraction means 26, history difference detection means 28, emotion extraction means 30, psychological extraction means 32, determination means 34, emotion generation means 36, display control means 38, and sound control means 40. It consists of and. The motion extraction means 24 analyzes the output image of the digital camera 6 using the three-dimensional image processing device 18 and extracts the motion of a person taken by the digital camera 6. This movement includes human facial expressions and gestures. Considering the facial expression of a person, the face can be seen as a moving body. Exercise is done by muscles, and human expressions can be described as the work of various muscles. These muscles open and close the eyes, nostrils, clefts, etc., and raise the facial and mandibular muscles that move the auricles to close the mouth, push the mandible forward, and move horizontally Masticatory muscles that move the hyoid bone to assist swallowing, the hyoid muscle that performs powerful actions such as opening the mouth by lifting the mandible, the eye muscle that freely moves the eyeball, and the pupil depending on the surrounding light and darkness Pupil sphincter and pupil dilator muscle that adjusts the amount of light in the eyeball by focusing, and tongue muscle that works to change the shape of the tongue and extend it out of the mouth are known.
[0007]
These muscles are structured such that when a group of muscles starts to move according to a certain kind of emotion, certain muscles or specific muscles contract simultaneously through peripheral nerves. The motion extraction means 24 extracts and quantifies changes in the facial expression of the person based on these muscle movements. Also, the movement of the person's limbs and the whole is extracted and quantified. In the past database 42 stored in the storage device 12, past facial expression, gesture data, and voiceprint data of the owner of the information processing device 2 are quantified and recorded. The history difference detection means 28 compares the extraction signal of the motion extraction means 24, the voiceprint extraction signal of the voiceprint extraction means 26 with the corresponding facial expression and voiceprint data in the past database 42, and detects the difference. For example, when facial expression data with the mouth closed is stored in the past database 42, and the facial expression that the movement extracting means 24 opens the mouth, the history difference detecting means 28 uses the data with the mouth closed and the mouth closed. And the difference, that is, the state that the mouth is open is detected. The emotion pattern database 44 stored in the storage device 12 records facial expressions and voiceprint patterns for various human emotions. The emotion extraction means 30 determines which emotion pattern in the pattern database 44 the signal from the history difference detection means 28 belongs to, and from the facial expression, gesture and voiceprint of the person caught by the digital camera 6 and the microphones 8a and 8b, The emotion of the person is extracted. The psychological extraction means 32 extracts the psychology of the person in front of the digital camera 6 from the extraction signal of the emotion extraction means 30, that is, emotions such as surprise, fear, anger, disgust, and sadness.
[0008]
Based on the extraction signal of the psychological extraction unit 32, the determination unit 34 determines, according to the purpose of the program, what action should be taken for the person in front of the digital camera 6 through the pet moving image 14 and sound. The emotion generating means 36 generates emotions, that is, emotional signals such as anger, fear, joy and sadness based on the determination result of the determination means 34. It is stored in the storage device 12. The facial expression database 46 stores a database of pet moving images 14 of various facial expressions corresponding to various emotion output signals from the emotion generating means 36. The voice database 48 stores voice data corresponding to various emotions. When an emotion signal is input from the emotion generator 36, the display controller 38 displays the pet moving image 14 on the screen of the display device 4 based on the animation data in the facial expression database 46, and displays the digital camera 6 in front of the digital camera 6. A visually emotional stimulus is given to the person 50 through the movement and expression of the pet moving image 14. Similarly, when an emotion signal is input from the emotion generating unit 36, the voice control unit 40 sends voice to the speakers 10 a and 10 b through the acoustic device 22 based on the data in the voice database 48, thereby giving an emotional stimulus to the person 50. . This operation is repeated.
[0009]
Therefore, the facial expression, gesture, and voice of the person in front of the digital camera inputted for the second time are given emotional stimulation by the intention display of the pet moving image on the screen, and the digital camera 6 is used as an image in response thereto. And input to each means after the microphones 8a and 8b.
As is clear from the above description, the series of data processing systems from the digital camera 6 and the microphones 8a and 8b of the apparatus 2 to the input unit to the output unit for displaying the pet moving image 14 constitute a closed loop, and the history Data processing is repeated so that the difference output of the difference detection means 28 becomes zero. During the repeated data processing, the past database 42 stores movement data such as facial expressions, gestures, and voiceprint data caught by the digital camera 6 and the microphones 8a and 8b, and a computer built in the information processing apparatus 2. Will have a learning function for the person who owns the device 2. The judging means 34 makes a judgment according to the purpose of the program based on the short-term and long-term changes in the facial expression, gesture, and tone of the person 50.
[0010]
Next, an embodiment will be described in which the present apparatus 2 is constituted by a mobile phone and this mobile phone is used as a person authentication engine.
A description will be given of how the apparatus identifies a user when the user 50 is wearing sunglasses, for example. The mobile phone stores an information processing program for personal authentication in advance in the storage device 12. Since mobile phones are usually not equipped with stereo speakers or stereo microphones, they are equipped in advance. When the person 50 who is a user takes a picture with the digital camera 6, the motion extraction means 24 extracts sunglasses. When facial expression data with sunglasses is not recorded in the past database 42, the history difference detection means 28 outputs a quantified history difference signal.
[0011]
The emotion generating means 36 outputs an emotion signal for giving a stimulus for the user to return to a normal facial expression and outputs a message “let's take off sunglasses”. Due to the output of the emotion generating means 36, the pet moving image 4 appears on the screen, and the user's facial expression is different from the usual ones. The message “No” is issued, and emotional stimulation is given to the person 50 in front of the digital camera 6, that is, the user. In accordance with the pet moving image 14 on the screen and the message from the speaker, the user removes the sunglasses from the face and takes this state with the camera 6. This image is sent to the motion extraction means 24. The history difference detection means 28 collates with the facial expression data not wearing glasses in the past database 42, and outputs zero when there is no difference. The determination means 34 determines that the person in front of the digital camera 6 is a specific person registered in the past database when the history difference detection means 28 outputs zero.
[0012]
When the user clicks the authentication button on the screen, an authentication message is displayed on the screen. When the user changes the hairstyle or the face is scratched, the voice of the pet moving image 14 and the speakers 10a and 10b gives the user a message that is different from the usual expression. In response to this message, the user sends images with various facial expressions, so that the determination unit 34 can authenticate the user as a specific person with high accuracy. In addition to the method used as the person authentication engine, the present apparatus can be widely applied to a condition determination engine and the like in a home care system.
[0013]
【The invention's effect】
Since the present invention is configured as described above, the person in front of the camera can be specified with high accuracy, and person authentication and the like can be performed with high accuracy.
[Brief description of the drawings]
FIG. 1 is a block diagram of the present invention.
FIG. 2 is a block explanatory diagram of the present invention.
FIG. 3 is an explanatory diagram of the present invention.
[Explanation of symbols]
2 Information processing device 4 Display device 6 Digital camera 8a Microphone 8b Microphone 10a Speaker 10b Speaker 12 Storage device 14 Pet moving image 16 CPU
18 Three-dimensional image processing device 20 Three-dimensional sound processing device 22 Acoustic device 24 Motion extraction means 26 Voiceprint extraction means 28 History difference detection means 30 Emotion extraction means 32 Psychological extraction means 34 Determination means 36 Emotion generation means 38 Display control means 40 Voice control Means 42 Past database 44 Pattern database 46 Facial expression database 48 Voice database 50 Person

Claims (5)

CPUと、これに接続する記憶装置と、前記CPUに接続する三次元画像処理装置と、前記三次元画像処理装置に接続するデジタルカメラと、前記CPUに接続する表示装置とを備え、前記記憶装置に、特定の人物の過去の表情データを記録する過去データベースと、前記表示装置の画面に動画で表示される人や動物をアニメーションの形で動く画像として表現したペット動画像の種々の表情が記録された表情データベースと、情報処理プログラムとが格納され、該情報処理プログラムが、前記デジタルカメラで撮った人物の表情を抽出し定量化する動き抽出手段と、前記動き抽出手段が定量化した表情と前記過去データベースの表情とを比較し、その差分を出力する履歴差分検出手段と、前記履歴差分検出手段の差分信号に基づいて入力人物像の心理を判定する判定手段と、前記判定手段の判定結果に基づき、前記ペット動画像の表情を決定する情動発生手段と、前記情動発生手段の決定した情動信号の出力に基づき、前記表情データベースの中から前記情動信号に対応したペット動画像を前記入力人物像のフィードバック信号として前記表示装置の画面に表示する表示制御手段とで構成され、前記履歴差分検出手段が、画面にフィードバックされたペット動画像に反応して入力された人物像の表情と、前記過去データベースの中の表情データとを照合するようにし、前記判定手段が、前記照合の結果に基づいて、入力された人物像の人物を特定する判定を行うようにしたことを特徴とする表情等の情報処理装置。A CPU, a storage device connected to the CPU, a three-dimensional image processing device connected to the CPU, a digital camera connected to the three-dimensional image processing device, and a display device connected to the CPU; In addition, a past database that records past facial expression data of a specific person, and various facial expressions of a pet moving image that expresses a person or animal displayed as a moving image in the form of animation on the screen of the display device are recorded. a facial expression database is, an information processing program is stored, said information processing program, a motion extractor to quantify extracting facial expressions of a person taken by the digital camera, a facial expression that the motion extracting means is quantified A history difference detecting means for comparing the facial expression of the past database and outputting the difference, and an input person based on a difference signal of the history difference detecting means A determination means for determining the psychology of an image; an emotion generation means for determining an expression of the pet moving image based on a determination result of the determination means; and the expression database based on an output of an emotion signal determined by the emotion generation means consists pet moving image corresponding to the emotion signal from at a display control means for displaying on the screen of the display device as a feedback signal of the input figures, the history difference detecting means, is fed back to the screen pet The facial expression of the person image input in response to the moving image is collated with the facial expression data in the past database, and the determination means determines the person of the input human image based on the result of the collation An information processing apparatus for facial expressions, etc., characterized in that a determination for identifying a face is performed. 前記動き抽出手段が人物の表情に加えてその人物の仕草を抽出し定量化するようにし、前記過去データベースに特定の人物の過去の仕草に関する仕草データが記録され、前記履歴差分検出手段が、前記動き検出手段によって定量化した仕草のデータと過去データベースのデータとを比較しその差分を出力するようにしたことを特徴とする「請求項1」に記載の表情等の情報処理装置。The motion extraction means extracts and quantifies the person's gesture in addition to the facial expression of the person, and gesture data relating to past gestures of a specific person is recorded in the past database, and the history difference detection means includes the history difference detection means, The information processing apparatus for facial expression or the like according to claim 1, wherein the data of the gesture quantified by the motion detection means is compared with the data of the past database and the difference is output. CPUに音響装置を介してスピーカーを接続し、前記ペット動画像の映像とともに前記スピーカーからメッセージが発せられるようにしたことを特徴とする「請求項1」又は「請求項2」に記載の表情等の情報処理装置。A facial expression according to claim 1 or claim 2, wherein a speaker is connected to the CPU via an audio device so that a message is issued from the speaker together with the video of the pet moving image. Information processing device. 前記情動発生手段が前記判定手段の判定結果に基づき、怒り、恐れ、喜び、悲しみなどの感情を示す信号を出力するようにしたことを特徴とする「請求項1」乃至「請求項3」のいずれか1つに記載の表情等の情報処理装置。The claims 1 to 3 are characterized in that the emotion generating means outputs a signal indicating emotions such as anger, fear, joy and sadness based on the determination result of the determining means. An information processing apparatus such as the facial expression described in any one of the above. 前記CPUに音声処理装置を介してマイクロフォンを接続し、前記情報処理プログラムに声紋抽出手段を設け、前記過去データベースに特定の人物の声紋データを記録し、前記履歴差分検出手段が、前記声紋抽出手段が抽出した声紋抽出信号と前記過去データベースの声紋データとを比較しその差分を出力するようにし、この出力結果に基づいて入力人物像の心理を判定するようにしたことを特徴とする「請求項1」乃至「請求項4」のいずれか1つに記載の表情等の情報処理装置。A microphone is connected to the CPU via a voice processing device, voice print extraction means is provided in the information processing program, voice print data of a specific person is recorded in the past database, and the history difference detection means is the voice print extraction means The voiceprint extraction signal extracted from the voice database is compared with the voiceprint data of the past database, and the difference is output, and the psychology of the input person image is determined based on the output result. An information processing apparatus for facial expressions or the like according to any one of claims 1 to 4.
JP2003012538A 2003-01-21 2003-01-21 Information processing device for facial expressions Expired - Fee Related JP4355823B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003012538A JP4355823B2 (en) 2003-01-21 2003-01-21 Information processing device for facial expressions

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003012538A JP4355823B2 (en) 2003-01-21 2003-01-21 Information processing device for facial expressions

Publications (2)

Publication Number Publication Date
JP2004227167A JP2004227167A (en) 2004-08-12
JP4355823B2 true JP4355823B2 (en) 2009-11-04

Family

ID=32901115

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003012538A Expired - Fee Related JP4355823B2 (en) 2003-01-21 2003-01-21 Information processing device for facial expressions

Country Status (1)

Country Link
JP (1) JP4355823B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4877762B2 (en) * 2006-07-19 2012-02-15 株式会社ソニー・コンピュータエンタテインメント Facial expression guidance device, facial expression guidance method, and facial expression guidance system
CN106384534A (en) * 2015-12-29 2017-02-08 杭州后博科技有限公司 System of prompting to move motor vehicle based on navigation and method thereof

Also Published As

Publication number Publication date
JP2004227167A (en) 2004-08-12

Similar Documents

Publication Publication Date Title
US11890748B2 (en) Socially assistive robot
US9691296B2 (en) Methods and apparatus for conversation coach
US10089895B2 (en) Situated simulation for training, education, and therapy
Vinola et al. A survey on human emotion recognition approaches, databases and applications
KR20180136387A (en) Communication device, communication robot and computer readable storage medium
CN102149319B (en) Alzheimer's cognitive enabler
Czerwinski et al. Building an AI that feels: AI systems with emotional intelligence could learn faster and be more helpful
JP2004310034A (en) Interactive agent system
KR102351008B1 (en) Apparatus and method for recognizing emotions
US20240070251A1 (en) Using facial skin micromovements to identify a user
Wargnier et al. Towards attention monitoring of older adults with cognitive impairment during interaction with an embodied conversational agent
CN110598612B (en) Patient nursing method based on mobile terminal, mobile terminal and readable storage medium
JP2020126195A (en) Voice interactive device, control device for voice interactive device and control program
WO2020175969A1 (en) Emotion recognition apparatus and emotion recognition method
JP4355823B2 (en) Information processing device for facial expressions
Melder et al. Affective multimodal mirror: sensing and eliciting laughter
WO2019211552A1 (en) Method for controlling a plurality of robot effectors
Mansouri Benssassi et al. Wearable assistive technologies for autism: opportunities and challenges
CN112786151B (en) Language function training system and method
JP2001209779A (en) Virtual biological system and pattern learning method in virtual biological system
WO2023017745A1 (en) Communication robot, communication robot control method, and program
US20240070252A1 (en) Using facial micromovements to verify communications authenticity
Lisetti et al. An environment to acknowledge the interface between affect and cognition
JP2021086618A (en) Virtual person interaction system, video generation method, and video generation program
Goldstein et al. The Cognitive Analysis Component

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20050912

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20050912

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081211

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090209

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090325

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090423

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20090601

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090708

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20090713

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090713

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20090713

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120814

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4355823

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130814

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees