JP2007200126A - Feeling informing reporting device - Google Patents

Feeling informing reporting device Download PDF

Info

Publication number
JP2007200126A
JP2007200126A JP2006019407A JP2006019407A JP2007200126A JP 2007200126 A JP2007200126 A JP 2007200126A JP 2006019407 A JP2006019407 A JP 2006019407A JP 2006019407 A JP2006019407 A JP 2006019407A JP 2007200126 A JP2007200126 A JP 2007200126A
Authority
JP
Japan
Prior art keywords
face
subject
information
optical flow
emotion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006019407A
Other languages
Japanese (ja)
Other versions
JP4701365B2 (en
Inventor
Lyons Michael
ライオンズ マイケル
T Barrington Luke
トマス バリングトン ルース
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2006019407A priority Critical patent/JP4701365B2/en
Publication of JP2007200126A publication Critical patent/JP2007200126A/en
Application granted granted Critical
Publication of JP4701365B2 publication Critical patent/JP4701365B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide a feeling information reporting device capable of reporting feeling information on a person to be taken care of without disturbing the work of a carer who performs other work. <P>SOLUTION: A video module program 1200 includes a face detection section 1208 which extracts a face area from a moving picture stored on a hard disk 1110 and an optical flow calculation section 1400 which calculates information for specifying movements of inner parts of the detected and extracted face on the image on the basis of an optical flow. A sound effect addition module program 1400 decides the feeling state of the person to be examined from the moving image captured and stored on the hard disk 110 and adds a sound effect corresponding to a speech signal inputted from an audio reproducing device 200. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

この発明は、対象者の表情画像を長期にわたって記録し、かつ事後に検索するための感情情報通知装置の構成に関する。   The present invention relates to a configuration of an emotion information notification device for recording a facial expression image of a subject over a long period of time and for performing a search after the fact.

現代生活は、我々が、職業上や、家庭内や、地域コミュニティの中で様々な役割を果たすことを要求している。   Modern life requires us to play a variety of roles in occupation, in the home, and in the local community.

一方で、多くの国において、老齢人口の割合が増加しており、もはや自分のことを自分だけでできるという生活様式が困難になる人の割合も増加している。   On the other hand, in many countries, the proportion of the elderly population is increasing, and the proportion of people who are no longer able to do their own life alone is also increasing.

日本においては、そのような老人はしばしば家族とともに生活しており、毎日かなりの時間にわたって家族が注意を払うことを要している。このことは、上述のような他の様々な役割を果たすことが要求される介護者にとって、被介護者から目を離せない状態が継続することになり、介護者の大きな精神的・肉体的な負担となる。   In Japan, such elderly people often live with their families and require the family to pay attention for a considerable amount of time every day. This means that caregivers who are required to play various other roles as described above will continue to keep an eye on the cared person, and the caregiver's great mental and physical It becomes a burden.

最終的には、このような介護者の負担を軽減し、被介護者に向ける注意の一部を肩代わりしてくれるようなシステムが開発されることが望ましい。   Eventually, it is desirable to develop a system that reduces the burden on such caregivers and takes over some of the attention directed to the caregivers.

一方で、近年、撮像装置で撮影された画像から、撮像装置の周囲の物体の動き等を把握する方法が提案されている。その方法は、動画像のフレーム間でオプティカルフローを測定することにより、写っている物体の動きを把握するものである。   On the other hand, in recent years, a method for grasping the movement of an object around the imaging device from an image taken with the imaging device has been proposed. In this method, the movement of an object being captured is grasped by measuring an optical flow between frames of a moving image.

このような「オプティカルフロー」は、画像の各フレームに特徴照合法(パターンマッチング)や、時空間勾配法等を用いることにより求められる(たとえば、特許文献1、非特許文献1を参照)。   Such an “optical flow” is obtained by using a feature matching method (pattern matching), a spatiotemporal gradient method, or the like for each frame of an image (see, for example, Patent Document 1 and Non-Patent Document 1).

また、撮影された画像内での動き検出だけでなく、オプティカルフローを用いて、人間の表情と関連づける試みも報告されている(たとえば、非特許文献2を参照)。
特開2004−355082号公報 Barrron, J. L., Fleet, D. J., Beauchemin, S.S.: Performance of optical flow techniques. The International Journal of Computer Vision, 12(1994)pp.43-77 Lyons, M.J., Funk, M., Kuwabara, K. : Segment and Browse: A Strategy for Supporting Human Monitoring of Facial Expression Behaviour, INTERACT 2005 (LNCS 3585), pp. 1120-1123 (2005).
In addition to motion detection in a photographed image, attempts have been reported to associate human facial expressions using an optical flow (see, for example, Non-Patent Document 2).
JP 2004-355082 A Barrron, JL, Fleet, DJ, Beauchemin, SS: Performance of optical flow techniques.The International Journal of Computer Vision, 12 (1994) pp.43-77 Lyons, MJ, Funk, M., Kuwabara, K .: Segment and Browse: A Strategy for Supporting Human Monitoring of Facial Expression Behavior, INTERACT 2005 (LNCS 3585), pp. 1120-1123 (2005).

しかしながら、顔画像の変化等を検知した場合に、他の作業をしている介護者に被介護者の心理状態を効果的に通知する方法は、必ずしも明らかではなかった。   However, a method for effectively notifying the caregiver who is performing other work of the psychological state of the cared person when a change in the face image or the like is detected is not always clear.

本発明は、このような問題点を解決するためになされたものであって、その目的は、他の作業をしている介護者の作業を妨げることなく、被介護者の感情情報を通知することが可能な感情情報通知装置を提供することである。   The present invention has been made to solve such problems, and its purpose is to notify emotional information of a cared person without interfering with the work of a carer who is doing other work. It is to provide an emotion information notification device capable of doing this.

この発明のある局面に従うと、感情情報通知装置であって、被験者に対する観測情報を得るための検知手段と、観測情報に応じて、被験者の感情状態を判断する感情状態算出手段と、感情状態の判断結果に応じて、外部から入力される音声信号に対して所定の音響効果を付加して出力する音響効果処理手段とを備える。   According to one aspect of the present invention, there is provided an emotion information notification device, a detection means for obtaining observation information for a subject, an emotion state calculation means for determining the emotion state of the subject according to the observation information, Sound effect processing means for adding a predetermined sound effect to an externally input sound signal and outputting the sound signal according to the determination result.

好ましくは、検知手段は、被験者の顔画像を含む対象画像領域についての動画像データを獲得する撮影手段を含み、感情状態算出手段は、動画像データを格納するための記憶装置と、記憶装置に格納された対象画像領域内において、顔を検出する顔検出手段と、検出された顔に対応する検出領域において、単位領域ごとに動きベクトルを検出する動き検出手段と、検出された動きベクトルの時間変化に基づいて、被験者の感情状態が少なくとも興奮状態であるかを判断する判断処理手段とを含む。   Preferably, the detecting means includes a photographing means for acquiring moving image data for a target image area including the face image of the subject, and the emotional state calculating means includes a storage device for storing the moving image data, and a storage device. Face detection means for detecting a face in the stored target image area, motion detection means for detecting a motion vector for each unit area in the detection area corresponding to the detected face, and time of the detected motion vector Judgment processing means for judging whether the subject's emotional state is at least an excited state based on the change.

好ましくは、動き検出手段は、検出領域に対応する顔画像データにおいて格子点上の各点についてのオプティカルフローを、異なる複数の速度レベルで算出するオプティカルフロー算出手段を含み、異なる複数の速度レベルに対応したオプティカルフローに基づいて、動きベクトルに関連する情報として、被験者の頭の運動の大きさに相当する第1の情報と、被験者の表情の動きの大きさに相当する第2の情報とを抽出する演算手段をさらに備え、判断処理手段は、第1および第2の情報の累積に応じて、判断処理を行う。   Preferably, the motion detection means includes optical flow calculation means for calculating an optical flow for each point on the lattice point in the face image data corresponding to the detection area at a plurality of different speed levels. Based on the corresponding optical flow, as information related to the motion vector, first information corresponding to the magnitude of the movement of the subject's head and second information corresponding to the magnitude of the movement of the facial expression of the subject. An extraction means is further provided, and the determination processing means performs a determination process according to the accumulation of the first and second information.

(本発明の概要)
表情は人間の心的な状態の重要な情報を提供するものである。以下に説明するように、本発明は、被験者(被介護者)の感情状態を画像情報から判断し、判断された感情情報を音声情報に重畳された音響効果により介護者に通知するようなシステムである。ただし、被験者(被介護者)の感情状態を判断する手がかりとなるものであれば、検知される対象は表情に限られるものではなく、たとえば、被験者(被介護者)の音声の情報や皮膚抵抗などの生体情報などでもよい。また、被験者は、上述したような年長の被介護者でもよいし、たとえば、新生児のように世話の必要な者でもよい。
(Outline of the present invention)
Facial expressions provide important information about human mental state. As described below, the present invention determines the emotional state of the subject (caregiver) from the image information, and notifies the caregiver of the determined emotion information by the acoustic effect superimposed on the audio information. It is. However, the object to be detected is not limited to the facial expression as long as it is a clue to determine the emotional state of the subject (caregiver). For example, voice information and skin resistance of the subject (caregiver) Biometric information such as The subject may be an elderly care recipient as described above, or may be a person who needs care such as a newborn.

つまり、本発明の感情情報通知装置は、画像入力インタフェースを有するパーソナルコンピュータ等のコンピュータと、このコンピュータ上で実行されるソフトウェアと、カメラなどの撮像装置または音声などの情報を入力するためのマイクなどのセンサと、外部の再生装置から入力される音声信号に対して、判断された感情情報に応じた音響効果をこの入力された音声信号に付加して出力するための音響効果処理装置により実現されるものである。より典型的には、人物の顔の映像から、顔部分を抽出するとともに、この顔の内部の動きを検出して、この動き情報から被験者(被介護者)の感情状態を判断する。   That is, the emotion information notification device of the present invention includes a computer such as a personal computer having an image input interface, software executed on the computer, an imaging device such as a camera, or a microphone for inputting information such as sound. And an acoustic effect processing device for adding an acoustic effect corresponding to the determined emotion information to the input voice signal and outputting the voice signal input from the external playback device. Is. More typically, a face portion is extracted from the image of a person's face, and the movement inside the face is detected, and the emotional state of the subject (care recipient) is determined from the movement information.

なお、コンピュータについては、上述のような汎用コンピュータのみならず、専用機器に組み込まれた組込型のコンピュータであってもかまわない。   The computer is not limited to the general-purpose computer as described above, but may be a built-in computer incorporated in a dedicated device.

[ハードウェア構成]
以下、本発明の実施の形態にかかる感情情報通知装置について説明する。
[Hardware configuration]
Hereinafter, an emotion information notification device according to an embodiment of the present invention will be described.

図1は、本発明の感情情報通知装置100の構成を示す概略ブロック図である。
図1を参照して、この感情情報通知装置100は、パーソナルコンピュータなどのコンピュータ110と、コンピュータ110に接続され、ユーザ(介護者)2への情報を表示するための表示装置としてのディスプレイ108と、オーディオ再生装置200から入力される音声信号に対してコンピュータ110が音響効果を付加した後の音声信号を再生するためのスピーカ120と、同じくコンピュータ110に接続され、ユーザ2からの指示や情報を入力するための入力装置としてのキーボード106と、被験者4の顔を含む画像を取込むためのカメラ102とを含む。なお、入力装置として、マウスや、タブレットとペンなどをさらに備える構成としてもよい。また、被験者4の感情状態を判断する手がかりとなる情報を取得するためのセンサーとして、マイクや、被験者4の皮膚抵抗の変化を検出し皮膚電気反射(Galvanic Skin Response(GSR))を検知するために被験者4の皮膚表面に接触された電極等が設けられていてもよい。
FIG. 1 is a schematic block diagram showing the configuration of the emotion information notification device 100 of the present invention.
Referring to FIG. 1, this emotion information notification device 100 includes a computer 110 such as a personal computer, and a display 108 connected to the computer 110 as a display device for displaying information to a user (caregiver) 2. The audio signal input from the audio reproduction apparatus 200 is connected to the computer 120 and the speaker 120 for reproducing the audio signal after the computer 110 has added the acoustic effect, and an instruction or information from the user 2 is received. A keyboard 106 as an input device for inputting and a camera 102 for capturing an image including the face of the subject 4 are included. The input device may further include a mouse, a tablet, and a pen. In addition, as a sensor for acquiring information that is a clue to determine the emotional state of the subject 4, a microphone or a change in skin resistance of the subject 4 is detected to detect electrical skin reflex (Galvanic Skin Response (GSR)). An electrode or the like that is in contact with the skin surface of the subject 4 may be provided.

また、この実施の形態のシステムでは、カメラ102としては、たとえば、CCD(固体撮像素子)を含むビデオカメラを用いて、画像データをデジタルデータとしてキャプチャする。   In the system of this embodiment, for example, a video camera including a CCD (solid-state imaging device) is used as the camera 102 to capture image data as digital data.

なお、図示しないが、コンピュータ110には、CD−ROM(Compact Disc Read-Only Memory )ドライブなど、外部の記録媒体からのデータを取り込むための装置が設けられているものとする。   Although not shown, it is assumed that the computer 110 is provided with a device for taking in data from an external recording medium such as a CD-ROM (Compact Disc Read-Only Memory) drive.

さらに、図1を参照して、コンピュータ110は、バスBSそれぞれに接続された、CPU(Central Processing Unit )1104と、ROM(Read Only Memory) 1106と、RAM(Random Access Memory)1108と、ハードディスク1110と、カメラ102からの画像を取り込み、オーディオ再生装置200からの音声信号を受け取り、音響効果の付加された音声信号を出力し、あるいは入力装置106からの信号を受け取るなどデータを授受するためのインタフェース部1102とを含んでいる。インタフェース部1102は、上述したようなセンサが設けられている場合は、これらのセンサからの入力信号を受け取る。   Further, referring to FIG. 1, a computer 110 includes a CPU (Central Processing Unit) 1104, a ROM (Read Only Memory) 1106, a RAM (Random Access Memory) 1108, and a hard disk 1110, which are connected to each bus BS. And an interface for transferring data such as receiving an image from the camera 102, receiving an audio signal from the audio playback device 200, outputting an audio signal with an added sound effect, or receiving a signal from the input device 106 Part 1102. When the sensors as described above are provided, the interface unit 1102 receives input signals from these sensors.

既に述べたように、感情情報通知装置100として機能する部分の主要部は、コンピュータハードウェアと、CPU1104により実行されるソフトウェアとにより実現される。一般的にこうしたソフトウェアはCD−ROM等の記憶媒体に格納されて流通し、CD−ROMドライブ等により記憶媒体から読取られてハードディスク1110に一旦格納される。または、当該装置がネットワークに接続されている場合には、ネットワーク上のサーバから一旦ハードディスク1110にコピーされる。そうしてさらにハードディスク1110からRAM1108に読出されてCPU1104により実行される。なお、ネットワーク接続されている場合には、たとえば、ハードディスク1110に格納することなくRAM1108に直接ロードして実行するようにしてもよい。   As already described, the main part of the part that functions as the emotion information notification device 100 is realized by computer hardware and software executed by the CPU 1104. Generally, such software is stored and distributed in a storage medium such as a CD-ROM, read from the storage medium by a CD-ROM drive or the like, and temporarily stored in the hard disk 1110. Alternatively, when the device is connected to the network, it is temporarily copied from the server on the network to the hard disk 1110. Then, it is further read from the hard disk 1110 to the RAM 1108 and executed by the CPU 1104. In the case of being connected to a network, for example, the program may be directly loaded into the RAM 1108 without being stored in the hard disk 1110 and executed.

図1に示したコンピュータのハードウェア自体およびその動作原理は一般的なものである。したがって、本発明の最も本質的な部分は、CD−ROMや、ハードディスク1110等の記憶媒体に記憶されたソフトウェアである。   The computer hardware itself shown in FIG. 1 and its operating principle are general. Therefore, the most essential part of the present invention is software stored in a storage medium such as a CD-ROM or a hard disk 1110.

なお、最近の一般的傾向として、コンピュータのオペレーティングシステムの一部として様々なプログラムモジュールを用意しておき、アプリケーションプログラムはこれらモジュールを所定の配列で必要な時に呼び出して処理を進める方式が一般的である。そうした場合、当該感情情報通知装置を実現するためのソフトウェア自体にはそうしたモジュールは含まれず、当該コンピュータでオペレーティングシステムと協働してはじめて感情情報通知装置が実現することになる。しかし、一般的なプラットフォームを使用する限り、そうしたモジュールまで含ませたソフトウェアを流通させる必要はなく、それらモジュールを含まないソフトウェア自体およびそれらソフトウェアを記録した記録媒体(およびそれらソフトウェアがネットワーク上を流通する場合のデータ信号)が実施の形態を構成すると考えることができる。   As a recent general trend, various program modules are prepared as part of a computer operating system, and an application program generally calls a module in a predetermined arrangement to advance processing when necessary. is there. In such a case, the software itself for realizing the emotion information notification device does not include such a module, and the emotion information notification device is realized only when the computer cooperates with the operating system. However, as long as a general platform is used, it is not necessary to distribute software including such modules. The software itself that does not include these modules and the recording medium that records the software (and the software distributes on the network). Data signal) can be considered to constitute the embodiment.

[ソフトウェア構成]
図2は、図1に示した感情情報通知装置100上で動作するソフトウェアの構成を説明するための機能ブロック図である。
Software configuration
FIG. 2 is a functional block diagram for explaining the configuration of software operating on the emotion information notification apparatus 100 shown in FIG.

以下では、被験者(被介護者)の感情状態を判断する手がかりとなる情報としては、撮影された画像から検知される表情等の情報であるものとする。   In the following, it is assumed that the information used as a clue to determine the emotional state of the subject (cared person) is information such as a facial expression detected from the captured image.

図2においては、コンピュータ110上で動作するプログラムは、映像モジュールプログラム1200と、キャプチャされてハードディスク1110に格納された動画像から被験者の感情状態を判断し、オーディオ再生装置200から入力された音声信号に音響効果を付加するための音響効果付加モジュールプログラム1400とを含む。なお、この音響効果付加モジュールプログラム1400の機能は、ハードウェアにより実現されてもよい。   In FIG. 2, the program operating on the computer 110 is an audio signal input from the audio playback device 200 by judging the emotional state of the subject from the video module program 1200 and a moving image captured and stored in the hard disk 1110. And an acoustic effect addition module program 1400 for adding an acoustic effect. Note that the function of the sound effect addition module program 1400 may be realized by hardware.

本発明では、このような構成とすることで、ユーザ2が作業をしながら聞いているユーザの好みのオーディオ再生装置200からの音楽等に、被験者の感情に関する情報を重畳して、ユーザ2に対して通知することが可能となる。このため、被験者の感情に所定の変化が検知されない場合は、ユーザ2は所望の音楽等を聞きながら作業を継続することができる。   In the present invention, by adopting such a configuration, information related to the emotion of the subject is superimposed on the user 2 on the music or the like from the user's favorite audio playback device 200 that the user 2 is listening to while working. Notification can be made. For this reason, when a predetermined change is not detected in the subject's emotion, the user 2 can continue working while listening to desired music or the like.

以下に説明するとおり、感情情報通知装置100では、動画像が実時間で処理されて、顔の領域が分離され、表情が記録される。顔の動きを解釈するために、オプティカルフロー法が使用される。   As described below, in the emotion information notification apparatus 100, a moving image is processed in real time, a face area is separated, and a facial expression is recorded. An optical flow method is used to interpret the movement of the face.

映像モジュールプログラム1200は、対象となる人物とその周りの環境も含めた動画像をカメラ102から獲得する画像キャプチャ部1202と、キャプチャされた動画像をハードディスク1110に格納するための画像データ記録処理部1204とを含む。画像キャプチャ部1202は、必要に応じて、カメラ102から入力されるデジタル動画像データを保存に適した画像フォーマットへとフォーマット変換を行なう。   The video module program 1200 includes an image capture unit 1202 that acquires a moving image including a target person and surrounding environment from the camera 102, and an image data recording processing unit that stores the captured moving image in the hard disk 1110. 1204. The image capture unit 1202 converts the digital moving image data input from the camera 102 into an image format suitable for storage as necessary.

映像モジュールプログラム1200は、さらに、ハードディスク1110に格納された動画像から顔領域を抽出する顔検出部1208と、オプティカルフローに基づいて、抽出された顔自体または顔の内部の画像上の動きを特定するための情報(たとえば、画像内の動きベクトルの分布)の計算を行なうオプティカルフロー算出部1206とを含み、オプティカルフロー算出部1206は、顔画像の動画像データを算出された動きの属性データとともにハードディスク1110に格納する。   The video module program 1200 further identifies a face detection unit 1208 that extracts a face area from a moving image stored in the hard disk 1110, and a motion on the extracted face itself or an image inside the face based on the optical flow. And an optical flow calculation unit 1206 for calculating information (for example, distribution of motion vectors in the image). The optical flow calculation unit 1206 includes moving image data of a face image together with calculated motion attribute data. Store in the hard disk 1110.

すなわち、顔画像の動画像データは、後により詳しく説明するようにして得られる、以下の2つの属性データと時間的に関連づけられながら、ハードディスク1110に格納される。   That is, the moving image data of the face image is stored in the hard disk 1110 while being temporally associated with the following two attribute data obtained as described in detail later.

1)頭の剛体的な動きの指標(動きの大きさ:指標1)
2)表情や発話に起因する顔内部の動きの指標(動きの大きさ:指標2)
一方、音響効果付加モジュールプログラム1400は、ハードディスク1110に格納された顔画像から得られた指標情報から指標の変化の特徴を抽出する特徴抽出部1402と、特徴抽出部1402で抽出された特徴に基づいて、感情の変化を算出する感情モデル算出部1404と、オーディオ再生装置200からの音声信号をインターフェース部1102中の音声バッファ130を介して受け取り、後に説明するように、算出された感情の変化に対応する情報に応じて受け取った音声信号に対応する音響効果を付加して、スピーカ120に対して出力する音響効果処理部1406とを含む。
1) Index of rigid head movement (size of movement: index 1)
2) Index of movement inside the face caused by facial expressions and utterances (size of movement: index 2)
On the other hand, the sound effect addition module program 1400 is based on the feature extraction unit 1402 that extracts feature of index change from the index information obtained from the face image stored in the hard disk 1110, and the feature extracted by the feature extraction unit 1402. Then, the emotion model calculation unit 1404 that calculates the change in emotion and the audio signal from the audio playback device 200 are received via the audio buffer 130 in the interface unit 1102, and, as will be described later, And an acoustic effect processing unit 1406 that adds an acoustic effect corresponding to the received audio signal according to the corresponding information and outputs the resultant to the speaker 120.

(映像モジュールプログラム1200)
カメラ102からの動画像データの入力は、オプティカルフロー処理の演算量の削減や、ハードディスク1110へ格納するためのデータ容量の削減のために、たとえば、640×480画素から320×240画素に間引かれる。
(Video module program 1200)
Moving image data input from the camera 102 is thinned from, for example, 640 × 480 pixels to 320 × 240 pixels in order to reduce the amount of calculation for optical flow processing and the data capacity for storage in the hard disk 1110. It is burned.

周知の顔の検出アルゴリズムにより顔検出部1208が、カメラ102の視野の中に顔が存在するかどうかを決定し、それがどこに存在しているかも決定する。特に限定されないが、この顔検出のアルゴリズムは、頭の画像の中心の位置にくるように、顔に固定されたアスペクト比の矩形領域を登録する。たとえば、約30°まで平面から回転している顔も正確に検出することができ、同様に、画像平面内において約30°傾いた状態の顔も正確に検出することができる。顔画像はスケールされ、30フレーム/秒までのレートで、各フレームに対応する顔画像が、たとえば、タイムスタンプとともに保存される。   A face detection unit 1208 determines whether or not a face exists in the field of view of the camera 102 using a well-known face detection algorithm, and also determines where it exists. Although not particularly limited, this face detection algorithm registers a rectangular area having an aspect ratio fixed to the face so as to be positioned at the center of the head image. For example, a face rotating from a plane up to about 30 ° can be accurately detected, and similarly, a face inclined at about 30 ° in the image plane can also be accurately detected. The face image is scaled and the face image corresponding to each frame is stored with a time stamp, for example, at a rate of up to 30 frames / second.

オプティカルフロー算出部1206において、画像のオプティカルフロー領域が、さまざまなビデオフレーム間での動きを検出する。検出された動きベクトルは、顔の内部領域全体にわたる動きベクトルの平均とともに、顔画像の動画像データと関連づけてハードディスク1110に保存される。   In the optical flow calculation unit 1206, the optical flow region of the image detects motion between various video frames. The detected motion vector is stored in the hard disk 1110 in association with the moving image data of the face image together with the average of the motion vectors over the entire internal area of the face.

オプティカルフローは、視覚的なシーンにおいて、動きにより、画像領域がずれることを測定する。固定されたカメラと近似的に一定な照明に対しては、オプティカルフローのフィールドは、局所的な速度を計っていることになる。オプティカルフローを計算するために用いる方法としては、特に限定されないが、非特許文献1に記載されている、ブロックマッチングあるいはブロック相関として知られているものを使用することが可能である。   Optical flow measures the shift in image area due to motion in a visual scene. For a fixed camera and approximately constant illumination, the field of optical flow will be local. The method used for calculating the optical flow is not particularly limited, but a method known as block matching or block correlation described in Non-Patent Document 1 can be used.

ブロック相関技術を用いることで、ある画像フレームの領域が、それに続くフレーム中の全く同じサイズの領域にマッチングされる。このようなマッチングは、画像間の距離(たとえば、各画素の輝度の差の絶対和または自乗和など)の大きさを最小化することによって決定される。たとえば、15fpsのフレームレートのオプティカルフローフィールドにおいては、顔の内部の動作による特徴量の変位は、各時間ステップに対して数ピクセル程度になる。   By using block correlation techniques, a region of an image frame is matched to a region of exactly the same size in the following frame. Such matching is determined by minimizing the size of the distance between images (for example, the absolute sum or the sum of squares of the luminance difference of each pixel). For example, in an optical flow field with a frame rate of 15 fps, the displacement of the feature amount due to the motion inside the face is about several pixels for each time step.

速度として動きを計測するために、たとえば、1、3、5、7および10ビデオフレームだけ離れたフレーム間でのオプティカルフローフィールドを計算する。オプティカルフローの値は、さらに、顔検知モジュールによって検出された顔の内部部分に対応している各領域について、対応するフレーム間について平均処理がされる。   In order to measure motion as velocity, for example, the optical flow field between frames separated by 1, 3, 5, 7 and 10 video frames is calculated. The optical flow value is further averaged between corresponding frames for each area corresponding to the internal part of the face detected by the face detection module.

図3は、顔画像について検出されたオプティカルフローのフィールドの例を示す図である。   FIG. 3 is a diagram illustrating an example of an optical flow field detected for a face image.

顔の片側をこわばらせる動きをした場合に、顔画像上の格子点(これをフィールドと呼ぶ)の各々において、動きベクトルが白い矢印で示されている。   In the case of a movement that stiffens one side of the face, the motion vector is indicated by a white arrow at each of the lattice points (referred to as a field) on the face image.

顔のこわばりの途中や、表情を緩める途中のように動きのある場合には、顔の各部の動きに応じて、動きベクトルが現れているのがわかる。   It can be seen that a motion vector appears in accordance with the movement of each part of the face when there is movement such as during the stiffness of the face or during the relaxation of the facial expression.

オプティカルフロー算出部1206において算出されるオプティカルフロー値の平均において、上述した1、3、5、7および10ビデオフレームの間隔において平均処理により求められた動きベクトルの大きさである5つの速度レベルについて、動作速度の分布が求められる。このため、そのような動きが大きく顔全体(頭)が剛体的に動いたことによる動作に対応しているものなのか、あるいは表情や会話に対応するもっと微妙な動作に対応しているものであるかが検知できる。つまり、顔全体が動いているときは、5つの動きベクトルのいずれにもピークが現れるのに対し、顔の内部の動きであれば、ビデオフレーム間隔に依存して、ピークの存在する速度レベルと存在しない速度レベルとが混在するというように、顔の動きの解釈を特徴抽出部1402が行なうことができる。   Regarding the average of the optical flow values calculated by the optical flow calculation unit 1206, five velocity levels that are the magnitudes of the motion vectors obtained by the averaging process at the intervals of the above-described 1, 3, 5, 7, and 10 video frames. The distribution of operating speed is required. For this reason, it may correspond to the movement due to such a large movement and the whole face (head) moving rigidly, or it corresponds to a more subtle movement corresponding to facial expressions and conversation. It can be detected. In other words, when the entire face is moving, a peak appears in any of the five motion vectors, whereas if it is a movement inside the face, the speed level at which the peak exists depends on the video frame interval. The feature extraction unit 1402 can interpret the movement of the face such that non-existing speed levels coexist.

特に限定されないが、特徴抽出部1402は、以下の式に従って、上記指標1および指標2に相当する特徴量を算出する。   Although not particularly limited, the feature extraction unit 1402 calculates feature amounts corresponding to the index 1 and the index 2 according to the following equations.

ここで、添字Xは、X={R,NR}であって、Rのときは、指標1の剛体的な動きに対応する特徴量を意味し、NRのときは、指標2の顔内部の動きに対応する特徴量であることを示す。   Here, the subscript X is X = {R, NR}, and when it is R, it means a feature amount corresponding to the rigid motion of the index 1, and when it is NR, it is inside the face of the index 2. This indicates that the feature amount corresponds to the movement.

また、この特徴量の更新は、時間間隔T(たとえば、0.5秒)で行われる。nは、期間[t−T、t]の間に指標1または指標2がそれぞれ所定のしきい値を超えた回数であり、δは、積算係数(たとえば、0.05)である。   The feature amount is updated at a time interval T (for example, 0.5 seconds). n is the number of times index 1 or index 2 exceeds a predetermined threshold value during period [t-T, t], and δ is an integration coefficient (for example, 0.05).

そして、もう一つの指標(指標3)として、画像内に顔が検出されるかを示す情報を用いる。特徴抽出部1402は、この指標3を、画面内から所定の期間(たとえば、15秒)顔画像が検出されないと、所定レベル以下に減衰するように変化させる。   As another index (index 3), information indicating whether a face is detected in the image is used. The feature extraction unit 1402 changes the index 3 so as to attenuate to a predetermined level or less when a face image is not detected from the screen for a predetermined period (for example, 15 seconds).

感情モデル算出部1404は、指標3が所定レベル以上である場合には、たとえば、以下の式に従って、感情状態を算出する。   The emotion model calculation unit 1404 calculates the emotion state according to the following formula, for example, when the index 3 is equal to or higher than a predetermined level.

したがって、これも特に限定されないが、たとえば、感情モデル算出部1404の算出結果により、「興奮状態」と判断された場合には、音響効果処理部1406は、オーディオ再生装置200から受け取った音声信号に所定の音響効果を付加して、スピーカ120に対して出力する。   Accordingly, although this is not particularly limited, for example, when it is determined as “excited state” based on the calculation result of the emotion model calculation unit 1404, the acoustic effect processing unit 1406 adds the audio signal received from the audio reproduction device 200 to the audio signal. A predetermined acoustic effect is added and output to the speaker 120.

なお、皮膚電気反射を単独で測定する場合は、たとえば、「皮膚伝導度」が所定の値よりも大きいときを、「興奮状態」と判断することができる。   When skin electrical reflex is measured alone, for example, when “skin conductivity” is larger than a predetermined value, it can be determined as “excited state”.

さらに、たとえば、顔画像と皮膚電気反射を併せて観測する場合は、たとえば、上記のような感情状態の算出結果が「興奮状態」を示すか、または「皮膚伝導度」が所定の値よりも大きいときには、「興奮状態」と判断することができる。   Furthermore, for example, when observing both a face image and skin electrical reflection, for example, the calculation result of the emotional state as described above indicates “excited state” or “skin conductivity” is lower than a predetermined value. When it is large, it can be determined as an “excited state”.

(音響効果付加モジュールプログラム1400)
図4は、音響効果付加モジュールプログラム1400において、付加される音響効果の例を示す図である。
(Sound effect addition module program 1400)
FIG. 4 is a diagram illustrating an example of an acoustic effect added in the acoustic effect addition module program 1400.

以下では、音響効果を以下のようなコード名で呼ぶこととする。
すなわち、「N」は「音響効果なし」を、「LP」は「低域透過フィルター処理」を、「SB」は「2ビート分後方スキップ」を、「SF」は「2ビート分前方スキップ」を、「HP」は「高域透過フィルター処理」を、「dub」は「ダブ効果(エコー処理をしつつ、8ビート分の部分を8ビート遅らせて再生)」を、「FS」は「12ビート区間を100〜10,000Hzまでフィルタースイープ処理」を、「RW」は「1ビート分後方に再生してから、前方に再生」を、「dub HP」は「ダブ処理+高域透過フィルター処理」を、「dub LP」は「ダブ処理+低域透過フィルター処理」を、「T」は「1ビート期間、テンポを±10%変更」を、「FG」は「間欠的なフランジ効果」を、「vol」は「12ビート期間、振幅を±10%変更」を、「FG HP」は「間欠的なフランジ効果+高域透過フィルター処理」を、それぞれ示す。
Hereinafter, the sound effect is referred to by the following code name.
That is, “N” is “no sound effect”, “LP” is “low-pass filter processing”, “SB” is “two-beat backward skip”, and “SF” is “two-beat forward skip”. “HP” indicates “high-pass filter processing”, “dub” indicates “dub effect (plays echo part while delaying 8 beats by 8 beats)”, and “FS” indicates “12 “Filter sweep processing from 100 to 10,000 Hz in the beat section”, “RW” “plays backward by one beat and then plays forward”, “dub HP” “dub processing + high-pass filter processing” ”,“ Dub LP ”is“ dub processing + low-pass filter processing ”,“ T ”is“ 1 beat period, tempo is changed ± 10% ”,“ FG ”is“ intermittent flange effect ” , “Vol” is “12 beat periods, amplitude “± 10% change” and “FG HP” indicate “intermittent flange effect + high-pass filter processing”, respectively.

ここで、音響効果付加モジュールプログラム1400が付加する音響効果は、その音響効果がユーザ2に与える印象が、被験者4の「感情状態」を連想させるものであることが望ましい。このような連想が働く場合は、ユーザ2は、直感的に被験者4の「感情状態」を感知することができる。   Here, the acoustic effect added by the acoustic effect addition module program 1400 is preferably such that the impression that the acoustic effect gives to the user 2 is reminiscent of the “emotional state” of the subject 4. When such association works, the user 2 can intuitively sense the “emotional state” of the subject 4.

図5は、図4に示した音響効果に対する官能実験の結果を示す図である。
この官能実験では、10人の被験者が、45個の音楽のサンプル(音楽クリップ)を、それぞれの20秒間聞いた。音楽サンプルは、異なったジャンルの3つの歌、ボサノバ、クラシック(ソロのピアノ)と電子音楽である。
FIG. 5 is a diagram showing the results of a sensory experiment for the acoustic effect shown in FIG.
In this sensory experiment, 10 subjects listened to 45 music samples (music clips) for 20 seconds each. The music samples are three songs of different genres, bossa nova, classical (solo piano) and electronic music.

被験者は、ランダムな順番で、オリジナルの音楽クリップと、それに続いて14の音響効果が施されたバージョンを聞いて、そして3つの基準に従ってこれらを評価した。まず、音楽から受ける活動レベルの印象を、リラックスしていると感じたときは「1」、通常状態と感じたときは「2」、興奮していると感じたときは「3」と評価した。さらに、そのような音響効果が施されているかどうかを認知できるかについて、「効果が認識できない」ときは「1」、単に感じられるのみのときは「2」、感知できると認識したときは「3」、明らかに感じられるときは「4」、非常に顕著なときは「5」と評価した。また、音楽の不快度を、非常に楽しいときは「1」、楽しいときは「2」、ニュートラルでは「3」、不快なときは「4」、非常に不快なときは「5」と評価した。評価は、各項目について平均された。   The subjects listened in random order to the original music clip followed by a version with 14 sound effects and evaluated them according to three criteria. First, the activity level impression received from music was rated as “1” when feeling relaxed, “2” when feeling normal, and “3” when feeling excited. . Further, regarding whether or not such an acoustic effect can be recognized, “1” is “when the effect cannot be recognized”, “2” when it is simply felt, and “2” when it is recognized that it can be sensed. “3”, “4” when clearly felt, and “5” when very noticeable. Also, the degree of discomfort of music was evaluated as “1” when it was very fun, “2” when it was fun, “3” when neutral, “4” when it was uncomfortable, and “5” when it was very uncomfortable. . The evaluation was averaged for each item.

図5の結果からは、たとえば、「LP」「FS」などは、「リラックス状態」を表現するのに適しており、「dub HP」「RW」などは、「興奮状態」を表現するのに適していることがわかる。   From the results of FIG. 5, for example, “LP” and “FS” are suitable for expressing the “relaxed state”, and “dub HP” and “RW” are suitable for expressing the “excited state”. It turns out that it is suitable.

以上のとおり、本発明によれば、他の作業をしている介護者の作業を妨げることなく、被介護者の感情情報を通知することが可能となる。   As described above, according to the present invention, it is possible to notify emotion information of a cared person without interfering with the work of the caregiver who is doing other work.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

本発明の感情情報通知装置100の構成を示す概略ブロック図である。It is a schematic block diagram which shows the structure of the emotion information notification apparatus 100 of this invention. 感情情報通知装置100上で動作するソフトウェアの構成を説明するための機能ブロック図である。3 is a functional block diagram for explaining a configuration of software operating on the emotion information notification device 100. FIG. 顔画像について検出されたオプティカルフローのフィールドの例を示す図である。It is a figure which shows the example of the field of the optical flow detected about the face image. 音響効果付加モジュールプログラム1400において、付加される音響効果の例を示す図である。It is a figure which shows the example of the acoustic effect added in the acoustic effect addition module program 1400. FIG. 図4に示した音響効果に対する官能実験の結果を示す図である。It is a figure which shows the result of the sensory experiment with respect to the acoustic effect shown in FIG.

符号の説明Explanation of symbols

2 ユーザ、4 被験者、100 感情情報通知装置、102 カメラ、106 キーボード、108 ディスプレイ、110 コンピュータ、200 オーディオ再生装置、1102 インタフェース部、1104 CPU、1106 ROM、1108 RAM、1110 ハードディスク、1200 映像モジュールプログラム、1202 キャプチャ部、1204 画像データ記録処理部、1206 オプティカルフロー算出部、1208 顔検出部、1400 音響効果付加モジュールプログラム、1402 特徴抽出部、1404 感情モデル算出部、1406 音響効果処理部。   2 users, 4 subjects, 100 emotion information notification device, 102 camera, 106 keyboard, 108 display, 110 computer, 200 audio playback device, 1102 interface unit, 1104 CPU, 1106 ROM, 1108 RAM, 1110 hard disk, 1200 video module program, 1202 Capture unit, 1204 Image data recording processing unit, 1206 Optical flow calculation unit, 1208 Face detection unit, 1400 Sound effect addition module program, 1402 Feature extraction unit, 1404 Emotion model calculation unit, 1406 Sound effect processing unit

Claims (3)

被験者に対する観測情報を得るための検知手段と、
前記観測情報に応じて、前記被験者の感情状態を判断する感情状態算出手段と、
前記感情状態の判断結果に応じて、外部から入力される音声信号に対して所定の音響効果を付加して出力する音響効果処理手段とを備える、感情情報通知装置。
Detection means for obtaining observation information on the subject;
An emotional state calculating means for determining the emotional state of the subject according to the observation information;
An emotion information notification apparatus comprising: an acoustic effect processing unit that adds a predetermined acoustic effect to an externally input audio signal according to the determination result of the emotional state and outputs the result.
前記検知手段は、被験者の顔画像を含む対象画像領域についての動画像データを獲得する撮影手段を含み、
前記感情状態算出手段は、
前記動画像データを格納するための記憶装置と、
前記記憶装置に格納された前記対象画像領域内において、顔を検出する顔検出手段と、
前記検出された顔に対応する検出領域において、単位領域ごとに動きベクトルを検出する動き検出手段と、
検出された前記動きベクトルの時間変化に基づいて、前記被験者の感情状態が少なくとも興奮状態であるかを判断する判断処理手段とを含む、請求項1記載の感情情報通知装置。
The detection means includes imaging means for acquiring moving image data about a target image area including a face image of a subject,
The emotional state calculating means includes
A storage device for storing the moving image data;
Face detecting means for detecting a face in the target image area stored in the storage device;
Motion detection means for detecting a motion vector for each unit region in the detection region corresponding to the detected face;
The emotion information notification apparatus according to claim 1, further comprising: a determination processing unit that determines whether the emotion state of the subject is at least an excitement state based on the detected temporal change of the motion vector.
前記動き検出手段は、前記検出領域に対応する顔画像データにおいて格子点上の各点についてのオプティカルフローを、異なる複数の速度レベルで算出するオプティカルフロー算出手段を含み、
前記異なる複数の速度レベルに対応した前記オプティカルフローに基づいて、前記動きベクトルに関連する情報として、前記被験者の頭の運動の大きさに相当する第1の情報と、前記被験者の表情の動きの大きさに相当する第2の情報とを抽出する演算手段をさらに備え、
前記判断処理手段は、前記第1および第2の情報の累積に応じて、判断処理を行う、請求項1記載の感情情報通知装置。
The motion detection means includes optical flow calculation means for calculating an optical flow for each point on a lattice point in the face image data corresponding to the detection area at a plurality of different speed levels,
Based on the optical flow corresponding to the plurality of different speed levels, as information related to the motion vector, first information corresponding to the magnitude of the movement of the subject's head, and the movement of the facial expression of the subject A calculation unit for extracting second information corresponding to the size;
The emotion information notification apparatus according to claim 1, wherein the determination processing unit performs determination processing according to accumulation of the first and second information.
JP2006019407A 2006-01-27 2006-01-27 Emotion information notification device Expired - Fee Related JP4701365B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006019407A JP4701365B2 (en) 2006-01-27 2006-01-27 Emotion information notification device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006019407A JP4701365B2 (en) 2006-01-27 2006-01-27 Emotion information notification device

Publications (2)

Publication Number Publication Date
JP2007200126A true JP2007200126A (en) 2007-08-09
JP4701365B2 JP4701365B2 (en) 2011-06-15

Family

ID=38454667

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006019407A Expired - Fee Related JP4701365B2 (en) 2006-01-27 2006-01-27 Emotion information notification device

Country Status (1)

Country Link
JP (1) JP4701365B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8922518B2 (en) 2007-12-20 2014-12-30 Samsung Electronics Co., Ltd. Mobile terminal having touch screen and function controlling method of the same
CN105726045A (en) * 2016-01-28 2016-07-06 惠州Tcl移动通信有限公司 Emotion monitoring method and mobile terminal thereof
US9411502B2 (en) 2007-12-20 2016-08-09 Samsung Electronics Co., Ltd. Electronic device having touch screen and function controlling method of the same
US10503376B2 (en) 2007-12-20 2019-12-10 Samsung Electronics Co., Ltd. Method and apparatus for adjusting an image and control guides displayed on a display

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04342078A (en) * 1991-05-20 1992-11-27 Nippon Telegr & Teleph Corp <Ntt> Device for recognizing facial expression
JPH09138767A (en) * 1995-11-14 1997-05-27 Fujitsu Ten Ltd Communication equipment for feeling expression
JP2001050779A (en) * 1999-08-17 2001-02-23 Dainippon Printing Co Ltd Musical performance system for signal monitoring
JP2005347856A (en) * 2004-05-31 2005-12-15 Kyushu Institute Of Technology Operating-position detector and monitor using it

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04342078A (en) * 1991-05-20 1992-11-27 Nippon Telegr & Teleph Corp <Ntt> Device for recognizing facial expression
JPH09138767A (en) * 1995-11-14 1997-05-27 Fujitsu Ten Ltd Communication equipment for feeling expression
JP2001050779A (en) * 1999-08-17 2001-02-23 Dainippon Printing Co Ltd Musical performance system for signal monitoring
JP2005347856A (en) * 2004-05-31 2005-12-15 Kyushu Institute Of Technology Operating-position detector and monitor using it

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8922518B2 (en) 2007-12-20 2014-12-30 Samsung Electronics Co., Ltd. Mobile terminal having touch screen and function controlling method of the same
US9250778B2 (en) 2007-12-20 2016-02-02 Samsung Electronics Co., Ltd. Mobile terminal having touch screen and function controlling method of the same
US9411502B2 (en) 2007-12-20 2016-08-09 Samsung Electronics Co., Ltd. Electronic device having touch screen and function controlling method of the same
US9778832B2 (en) 2007-12-20 2017-10-03 Samsung Electronics Co., Ltd. Electronic device having touch screen and function controlling method of the same
US9933927B2 (en) 2007-12-20 2018-04-03 Samsung Electronics Co., Ltd. Electronic device having touch screen and function controlling method of the same
US10481779B2 (en) 2007-12-20 2019-11-19 Samsung Electronics Co., Ltd. Electronic device having touch screen and function controlling method of the same
US10503376B2 (en) 2007-12-20 2019-12-10 Samsung Electronics Co., Ltd. Method and apparatus for adjusting an image and control guides displayed on a display
US10901590B2 (en) 2007-12-20 2021-01-26 Samsung Electronics Co., Ltd. Electronic device having touch screen and function controlling method of the same
CN105726045A (en) * 2016-01-28 2016-07-06 惠州Tcl移动通信有限公司 Emotion monitoring method and mobile terminal thereof

Also Published As

Publication number Publication date
JP4701365B2 (en) 2011-06-15

Similar Documents

Publication Publication Date Title
US8157729B2 (en) System, method and medium editing moving pictures using biometric signals
JP5069687B2 (en) Method and apparatus for analyzing emotional state of user who is provided with content information
Tancharoen et al. Practical experience recording and indexing of life log video
JP2006293979A (en) Content providing system
US20080253695A1 (en) Image storage processing apparatus, image search apparatus, image storage processing method, image search method and program
CN101179711A (en) Imaging apparatus and method
JP4701365B2 (en) Emotion information notification device
JP6614547B2 (en) Viewing state detection device, viewing state detection system, and viewing state detection method
JP4407198B2 (en) Recording / reproducing apparatus, reproducing apparatus, recording / reproducing method, and reproducing method
JP2005058449A (en) Feeling visualization device, feeling visualization method and feeling visualized output object
JP4395908B2 (en) Signal processing apparatus and signal processing method
JP4774532B2 (en) Facial expression image record retrieval device
JP2010200079A (en) Photography control device
JP2010226484A (en) Image display and digital camera
JP2007148922A (en) Facial kinesitherapy support apparatus
JP5662549B1 (en) Memory playback device
JP4362092B2 (en) Image display device
JP4539783B2 (en) Signal processing apparatus and signal processing method
JP2005027225A (en) Mobile telephone set
WO2023074656A1 (en) Program, information processing method, and information processing apparatus
Tancharoen et al. Practical life log video indexing based on content and context
JP4268606B2 (en) Facial expression image record retrieval device
WO2022196820A1 (en) Blood pressure information inferring device, blood pressure information inferring method, and blood pressure information inferring program
EP4353152A1 (en) Medical image acquisition unit assistance apparatus
JP2009129389A (en) Information processing apparatus and method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101116

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110114

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110207

LAPS Cancellation because of no payment of annual fees