JP4877762B2 - Facial expression guidance device, facial expression guidance method, and facial expression guidance system - Google Patents

Facial expression guidance device, facial expression guidance method, and facial expression guidance system Download PDF

Info

Publication number
JP4877762B2
JP4877762B2 JP2006197503A JP2006197503A JP4877762B2 JP 4877762 B2 JP4877762 B2 JP 4877762B2 JP 2006197503 A JP2006197503 A JP 2006197503A JP 2006197503 A JP2006197503 A JP 2006197503A JP 4877762 B2 JP4877762 B2 JP 4877762B2
Authority
JP
Japan
Prior art keywords
facial expression
user
guidance
captured image
expression
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006197503A
Other languages
Japanese (ja)
Other versions
JP2008027086A (en
Inventor
智一 掛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc, Sony Computer Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Priority to JP2006197503A priority Critical patent/JP4877762B2/en
Publication of JP2008027086A publication Critical patent/JP2008027086A/en
Application granted granted Critical
Publication of JP4877762B2 publication Critical patent/JP4877762B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、表情認識に基づくユーザインタフェース技術、に関する。   The present invention relates to a user interface technology based on facial expression recognition.

人物撮影時に「笑って」とか「ハイ、チーズ」のような掛け声をかける光景は一般的である。これは、被写体となる人物(以下、「被撮影者」とよぶ)の表情を好適な表情に導いて撮影するためのテクニックといえる。
特開2005−293539号公報
When shooting a person, the scene of making a shout like “laughing” or “high, cheese” is common. This can be said to be a technique for taking a picture of a person who becomes a subject (hereinafter referred to as “photographed person”) with a suitable expression.
JP 2005-293539 A

そもそも人間の表情とは、感情の自然な発露として現れるべきものである。本発明者は、被撮影者の表情を自然に誘導する仕組みをカメラに設ければ、より好適な撮影が可能であると想到した。   In the first place, human expression should appear as a natural expression of emotion. The present inventor has conceived that more suitable shooting is possible if the camera is provided with a mechanism for naturally guiding the facial expression of the subject.

本発明は、本発明者の上記着目に鑑みてなされたものであり、その主たる目的は、被撮影者の自然な表情を引き出すユーザインタフェースを実現することである。   The present invention has been made in view of the above-mentioned attention of the inventor, and its main purpose is to realize a user interface that draws out a natural expression of the subject.

本発明のある態様は、表情誘導装置である。
この装置は、ユーザの顔を撮像するとき、撮像されているユーザが視認可能な画面上にユーザの撮像画像を表示させると共に、ユーザの表情を所望の表情に誘導するための誘導オブジェクトを撮像画像上に表示させる。誘導オブジェクトの表示中において、ユーザの表情を検出し、ユーザの表情と所望の表情との適合度を画面上において通知する。
One embodiment of the present invention is a facial expression guidance device.
When imaging a user's face, this apparatus displays a captured image of the user on a screen that can be visually recognized by the captured user, and captures a guided object for guiding the user's facial expression to a desired facial expression. Display above. While displaying the guidance object, the user's facial expression is detected, and the degree of matching between the user's facial expression and the desired facial expression is notified on the screen.

ここでいう誘導オブジェクトとは、「笑ってください」というように直接的に表情を誘導するための文字情報ではなく、キャラクタや記号によって間接的に表情を誘導するためのコンピュータグラフィックスである。撮影の楽しさを演出する誘導オブジェクトは、被撮影者の表情を自然に所望の表情に誘導する。所望の表情に誘導されたときをシャッターチャンスとすれば、所望の表情にて被撮影者を撮影できる。   The guiding object here is not character information for directly inducing a facial expression such as “Please laugh” but computer graphics for indirectly inducing a facial expression by a character or a symbol. The guiding object that produces the joy of shooting naturally guides the photographer's facial expression to a desired facial expression. If the photo opportunity is guided to a desired facial expression, the subject can be photographed with the desired facial expression.

なお、本発明を方法、システム、プログラム、記録媒体により表現したものもまた、本発明の態様として有効である。   In addition, what expressed this invention with the method, the system, the program, and the recording medium is also effective as an aspect of this invention.

本発明によれば、被撮影者の自然な表情を引き出すユーザインタフェースを提供できる。   ADVANTAGE OF THE INVENTION According to this invention, the user interface which draws out a to-be-photographed person's natural expression can be provided.

図1は、表情誘導装置100のハードウェア構成図である。
表情誘導装置100には、カメラ102とモニタ104が接続される。モニタ104は、一般的なテレビモニタである。カメラ102は、モニタ104の上部に設置されユーザ106を撮像する。同図においては、ユーザ106が撮影者であり被撮影者でもある。表情誘導装置100は撮像画像をモニタ104に表示させる。そのため、被撮影者であるユーザ106はモニタ104にて自分の撮像画像を視認可能となる。カメラ102は、所定の時間間隔、たとえば、30分の1秒から60分の1秒間隔でユーザ106を定期的に撮像する。このようにしてカメラ102は、ユーザ106を複数枚の撮像画像として撮像する。いいかえれば、ユーザ106を動画像として撮像する。
FIG. 1 is a hardware configuration diagram of the facial expression guidance device 100.
A camera 102 and a monitor 104 are connected to the facial expression guidance device 100. The monitor 104 is a general television monitor. The camera 102 is installed on the upper part of the monitor 104 and images the user 106. In the figure, a user 106 is a photographer and a subject. The facial expression guidance device 100 displays the captured image on the monitor 104. Therefore, the user 106 who is the subject can view his / her captured image on the monitor 104. The camera 102 periodically images the user 106 at a predetermined time interval, for example, at intervals of 1/30 second to 1/60 second. In this way, the camera 102 captures the user 106 as a plurality of captured images. In other words, the user 106 is captured as a moving image.

本実施例においては、所定の撮像期間、たとえば、30秒間、被撮影者を継続して撮像する。この撮像期間中に取得された複数枚の撮像画像のうち、1枚の撮像画像が選択されてハードディスク等の補助記憶装置に確定的に記録される。このように静止画として記録される撮像画像、いいかえれば、写真として記録される撮像画像のことを以下においては「撮影画像」とよぶ。本実施例においては、撮像画像は表情誘導装置100の内蔵メモリに一時的に記録される動画像であり、撮影画像は表情誘導装置100の内蔵ハードディスクに確定的に記録される静止画像である。   In this embodiment, the subject is continuously imaged for a predetermined imaging period, for example, 30 seconds. One captured image is selected from a plurality of captured images acquired during this imaging period, and is definitely recorded in an auxiliary storage device such as a hard disk. A captured image recorded as a still image in this way, in other words, a captured image recorded as a photograph is hereinafter referred to as a “captured image”. In this embodiment, the captured image is a moving image that is temporarily recorded in the built-in memory of the facial expression guidance device 100, and the captured image is a still image that is definitely recorded on the internal hard disk of the facial expression guidance device 100.

表情誘導装置100は、カメラ102を制御してユーザ106を撮像しているときに、モニタ104に誘導オブジェクト180を表示させる。誘導オブジェクト180はさまざまな表情と対応づけらる。たとえば、「?(クエスチョンマーク)」を模した誘導オブジェクト180は「怪訝な表情」に対応づけられている。ユーザ106は誘導オブジェクト180に対応して自らの表情を変化させる。表情誘導装置100は、誘導オブジェクト180により示唆された表情(以下、「示唆表情」とよぶ。この例では「怪訝な表情」が示唆表情となる。)とユーザ106の実際の表情が適合するかを判定する。表情誘導装置100はモニタ104を介してその適合度(以下、「表情類似度」とよぶ)を通知する。たとえば、表情類似度に応じて誘導オブジェクト180の表示態様を変化させる。誘導オブジェクト180の表示態様については、図3以降に関連して詳述する。   The facial expression guidance device 100 displays the guidance object 180 on the monitor 104 when the user 106 is imaged by controlling the camera 102. The guidance object 180 is associated with various facial expressions. For example, a guidance object 180 that imitates “? (Question mark)” is associated with a “suspicious expression”. The user 106 changes his / her facial expression in response to the guidance object 180. The facial expression guidance apparatus 100 matches the facial expression suggested by the guidance object 180 (hereinafter referred to as “suggested facial expression”, in which “suspicious facial expression” is the suggested facial expression) and the actual facial expression of the user 106. Determine. The facial expression guidance device 100 notifies the degree of fitness (hereinafter referred to as “expression similarity”) via the monitor 104. For example, the display mode of the guidance object 180 is changed according to the facial expression similarity. The display mode of the guidance object 180 will be described in detail with reference to FIG.

表情誘導装置100は、表情類似度が所定の閾値を超えるときの撮像画像を「撮影画像」として選択する。このような処理方法により、ユーザ106の表情を示唆表情に導いた上で撮影画像を取得できる。本実施例においては、表情誘導装置100は家庭内にてモニタ104やカメラ102を制御することにより、ユーザ106の表情を誘導する据え置き型の装置であるとして説明する。別例として、表情誘導装置100の機能は既存のデジタルカメラに組み込まれてもよい。その場合、デジタルカメラはモニタ104を内蔵してもよいし、外部のモニタ104に撮像画像や誘導オブジェクト180を表示させてもよい。   The facial expression guidance device 100 selects a captured image when the facial expression similarity exceeds a predetermined threshold as a “captured image”. With such a processing method, it is possible to acquire a photographed image after guiding the facial expression of the user 106 to the suggested facial expression. In this embodiment, the facial expression guidance device 100 will be described as a stationary device that guides the facial expression of the user 106 by controlling the monitor 104 and the camera 102 at home. As another example, the function of the facial expression guidance device 100 may be incorporated in an existing digital camera. In that case, the digital camera may have the monitor 104 built-in, or the captured image or the guiding object 180 may be displayed on the external monitor 104.

図2は、表情誘導装置100の機能ブロック図である。
ここに示す各ブロックは、ハードウェア的には、コンピュータのCPUをはじめとする素子や機械装置で実現でき、ソフトウェア的にはコンピュータプログラム等によって実現されるが、ここでは、それらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックはハードウェア、ソフトウェアの組み合わせによっていろいろなかたちで実現できることは、当業者には理解されるところである。
ここでは、主として各ブロックの発揮すべき機能について、その具体的な作用については、図3以降に関連して説明する。
FIG. 2 is a functional block diagram of the facial expression guidance device 100.
Each block shown here can be realized in hardware by an element such as a CPU of a computer or a mechanical device, and in software it is realized by a computer program or the like. Draw functional blocks. Therefore, those skilled in the art will understand that these functional blocks can be realized in various forms by a combination of hardware and software.
Here, with regard to the functions to be exhibited by the respective blocks, specific actions thereof will be described with reference to FIG.

表情誘導装置100は、ユーザインタフェース処理部110、データ処理部130および画像保持部170を含む。
ユーザインタフェース処理部110は、表情誘導装置100のユーザからの入力処理やユーザに対する情報表示のようにユーザインタフェース全般に関する処理を担当する。データ処理部130は、ユーザインタフェース処理部110を介した入力操作を元にして各種のデータ処理を実行する。データ処理部130は、ユーザインタフェース処理部110および画像保持部170の間のインタフェースの役割も果たす。画像保持部170は、データ処理部130から受け取った撮像画像や撮影画像など、各種画像データを格納する。画像保持部170は、メモリのような主記憶装置およびハードディスクのような補助記憶装置の機能により実現される。
The facial expression guidance device 100 includes a user interface processing unit 110, a data processing unit 130, and an image holding unit 170.
The user interface processing unit 110 is responsible for processing related to the entire user interface, such as input processing from the user of the facial expression guidance device 100 and information display to the user. The data processing unit 130 executes various data processing based on an input operation via the user interface processing unit 110. The data processing unit 130 also serves as an interface between the user interface processing unit 110 and the image holding unit 170. The image holding unit 170 stores various image data such as captured images and captured images received from the data processing unit 130. The image holding unit 170 is realized by functions of a main storage device such as a memory and an auxiliary storage device such as a hard disk.

ユーザインタフェース処理部110は、入力部112、撮像部114および表示部120を含む。入力部112はユーザからの操作入力を受け付ける。撮像部114は、カメラ102を介して撮像画像を定期的に取得する。表示部120はモニタ104を介してユーザにさまざまな情報を表示する。表示部120は、誘導表示部122と撮像画像表示部124を含む。誘導表示部122は後述の誘導オブジェクト180をモニタ104に表示させる。撮像画像表示部124は、撮像画像をモニタ104に表示させる。
このほかにもユーザインタフェース処理部110は音声入力や音声出力、ボタンインタフェースを介した入力なども表情誘導装置100のユーザインタフェースの一種として提供する。
The user interface processing unit 110 includes an input unit 112, an imaging unit 114, and a display unit 120. The input unit 112 receives an operation input from the user. The imaging unit 114 periodically acquires captured images via the camera 102. The display unit 120 displays various information to the user via the monitor 104. The display unit 120 includes a guidance display unit 122 and a captured image display unit 124. The guidance display unit 122 displays a guidance object 180 described later on the monitor 104. The captured image display unit 124 displays the captured image on the monitor 104.
In addition, the user interface processing unit 110 also provides voice input, voice output, input via a button interface, and the like as a type of user interface of the facial expression guidance device 100.

データ処理部130は、表情処理部140、誘導処理部150および画像記録部160を含む。表情処理部140は、被撮影者の表情認識処理を担当する。誘導処理部150は、ユーザの表情を示唆表情へ誘導するための処理を担当する。画像記録部160は、撮像画像から撮影画像を選択して画像保持部170に記録する。   The data processing unit 130 includes a facial expression processing unit 140, a guidance processing unit 150, and an image recording unit 160. The facial expression processing unit 140 is in charge of the facial expression recognition process of the subject. The guidance processing unit 150 is in charge of processing for guiding the user's facial expression to the suggested facial expression. The image recording unit 160 selects a captured image from the captured image and records it in the image holding unit 170.

表情処理部140は、頭部特定部142と表情判定部144を含む。頭部特定部142は、撮像画像において被撮影者の顔にあたる画像領域を特定する。以下、撮像画像において顔にあたる画像領域のことを単に「顔領域」とよぶことにする。また、撮像画像のうち顔領域に対応する画像データのことを、単に「顔画像」とよぶことにする。顔領域の特定については既存の技術を応用すればよい。たとえば、数十から数百種類の顔画像を合成した基準画像をあらかじめ用意しておく。頭部特定部142は撮像画像中に矩形領域を設定し、基準画像と矩形領域の画像を比較して画像としての類似度を数値化する。撮像画像中にさまざまな矩形領域を設定しながら類似度を適宜算出することにより、撮像画像中において「顔らしい」領域を顔領域として特定する。   The facial expression processing unit 140 includes a head specifying unit 142 and an expression determining unit 144. The head specifying unit 142 specifies an image area corresponding to the face of the subject in the captured image. Hereinafter, an image area corresponding to a face in a captured image is simply referred to as a “face area”. In addition, image data corresponding to the face area in the captured image is simply referred to as a “face image”. An existing technique may be applied to specify the face area. For example, a reference image obtained by synthesizing several tens to several hundreds of face images is prepared in advance. The head specifying unit 142 sets a rectangular area in the captured image, compares the reference image with the image of the rectangular area, and digitizes the similarity as an image. By appropriately calculating the similarity while setting various rectangular areas in the captured image, the “face-like” area in the captured image is specified as the face area.

表情判定部144は、被撮影者の表情を検出する。画像保持部170は、「怒りの表情」、「悲しみの表情」、「笑いの表情」、「困惑の表情」、「嫌悪の表情」・・・のようにさまざまな人間の表情に対応した画像を保持している。これらの画像のことを「表情パターン」とよぶことにする。表情判定部144は、被撮影者の顔領域と示唆表情の表情パターンの「画像としての類似度」を「表情類似度」として計算する。こうして、被撮影者の表情と示唆表情との類似度が表情類似度として指標化されることになる。表情類似度の計算方法については、既存の画像マッチングに関する技術を応用すればよい。以下においては示唆表情に対応する表情パターンのことを「示唆表情パターン」とよぶ。   The facial expression determination unit 144 detects the facial expression of the subject. The image holding unit 170 is an image corresponding to various human facial expressions such as “angry facial expression”, “sad facial expression”, “laughing facial expression”, “confused facial expression”, “disgusting facial expression”, etc. Holding. These images are called “expression patterns”. The facial expression determination unit 144 calculates the “similarity as an image” between the facial region of the subject and the facial expression pattern of the suggested facial expression as the “expression similarity”. In this way, the similarity between the subject's facial expression and the suggested facial expression is indexed as the facial expression similarity. As a method for calculating the expression similarity, an existing technique for image matching may be applied. Hereinafter, the facial expression pattern corresponding to the suggested facial expression is referred to as a “suggested facial expression pattern”.

表情パターンは上述のように各表情について類型化された画像であってもよいが、各表情ごとの特徴を示すデータ(以下、このようなデータのことを「表情特徴情報」とよぶ)であってもよい。たとえば、「怒りの表情」であれば眉間にシワができるという特徴があるかもしれないし、「笑いの表情」であれば目尻が下がるという特徴を見いだせるかもしれない。このように、表情特徴情報は、眉の角度、目尻の角度、口のかたちなどさまざまな項目について指標化した数値情報である。したがって、被撮影者の表情が示唆表情の表情特徴情報にどれだけ適合しているかを表情類似度として数値化してもよい。   The facial expression pattern may be an image typified for each facial expression as described above, but is data indicating the characteristics of each facial expression (hereinafter referred to as “facial expression feature information”). May be. For example, an “angry expression” may be characterized by wrinkles between the eyebrows, and a “laughing expression” may be characterized by lowering the corners of the eyes. In this way, facial expression feature information is numerical information indexed for various items such as the angle of the eyebrows, the angle of the corner of the eye, and the shape of the mouth. Therefore, how much the facial expression of the subject is matched with the facial expression feature information of the suggested facial expression may be quantified as the facial expression similarity.

誘導処理部150は、オブジェクト選択部152とオブジェクト調整部154を含む。オブジェクト選択部152は、複数種類の示唆表情のうちのいずれかに対応する誘導オブジェクト180を選択する。誘導表示部122は、選択された誘導オブジェクト180を撮像画像に重ねてモニタ104に表示させる。オブジェクト選択部152ではなく、ユーザが表示対象となる誘導オブジェクト180を選択してもよい。   The guidance processing unit 150 includes an object selection unit 152 and an object adjustment unit 154. The object selection unit 152 selects the guidance object 180 corresponding to any one of a plurality of types of suggested facial expressions. The guidance display unit 122 displays the selected guidance object 180 on the monitor 104 so as to overlap the captured image. Instead of the object selection unit 152, the user may select the guidance object 180 to be displayed.

オブジェクト選択部152は、複数種類の誘導オブジェクト180をランダムに選択してもよい。あるいは、撮像条件に応じて誘導オブジェクト180を選択してもよい。ここでいう撮像条件とは、被撮影者の数や性別や撮影日時、撮影環境に関する条件である。たとえば、撮像画像から複数の顔画像が検出されたとき、すなわち、被撮影者が複数のときには、被撮影者の数に応じて誘導オブジェクト180を選択してもよい。被撮影者が1人のときには「怪訝な表情」、3人以上のときには「笑いの表情」、被撮影者が5人以上のときには「怒りの表情」といった具合に、被撮影者の数に応じて誘導オブジェクト180を選択する。また、被撮影者が複数のときには、その男女比に応じて誘導オブジェクト180を選択してもよい。あるいは、オブジェクト選択部152は、撮像画像の明るさに応じて誘導オブジェクト180を選択してもよい。たとえば、撮像画像が明るいときには「笑いの表情」、暗いときには「悲しみの表情」を示唆表情としてもよい。   The object selection unit 152 may select a plurality of types of guidance objects 180 at random. Alternatively, the guiding object 180 may be selected according to the imaging condition. The imaging conditions here are conditions relating to the number, sex, shooting date and time, and shooting environment of the person to be shot. For example, when a plurality of face images are detected from the captured image, that is, when there are a plurality of subjects, the guiding object 180 may be selected according to the number of subjects. Depending on the number of subjects, such as “suspicious expression” when there is one subject, “laughing facial expression” when there are three or more subjects, and “angry facial expression” when there are five or more subjects. To select the guidance object 180. Further, when there are a plurality of subjects, the guidance object 180 may be selected according to the sex ratio. Alternatively, the object selection unit 152 may select the guidance object 180 according to the brightness of the captured image. For example, a “facial expression of laughter” may be used as the suggested facial expression when the captured image is bright, and a “sad expression” when the captured image is dark.

被撮影者は誘導オブジェクト180にあわせて自らの表情を変化させる。表情判定部144により被撮影者の表情と示唆表情パターンとの表情類似度が算出される。オブジェクト調整部154は、算出された表情類似度に応じて、誘導オブジェクト180の表示態様を決定させる。たとえば、表情類似度が大きいとき、すなわち、被撮影者が示唆表情に近い表情をしたときには、誘導オブジェクト180が大きく表示される。誘導表示部122は、オブジェクト調整部154からの指示に応じて、誘導オブジェクト180の表示態様を適宜変化させる。具体的な表示態様についても図3以降に関連して詳述する。   The subject changes his / her facial expression according to the guidance object 180. A facial expression similarity between the facial expression of the subject and the suggested facial expression pattern is calculated by the facial expression determination unit 144. The object adjustment unit 154 determines the display mode of the guidance object 180 according to the calculated facial expression similarity. For example, when the facial expression similarity is large, that is, when the subject has a facial expression close to the suggested facial expression, the guidance object 180 is displayed large. The guidance display unit 122 appropriately changes the display mode of the guidance object 180 in accordance with an instruction from the object adjustment unit 154. Specific display modes will also be described in detail with reference to FIG.

画像記録部160は、画質制御部162と合成部164を含む。画質制御部162は、撮影画像の画像品質、特に、顔領域の画質を制御する。また、合成部164は、被撮影者が複数のときに、各人物の顔画像を合成して1枚の撮影画像を生成する。画質制御については図5(a)や図5(b)、顔画像の合成については図8に関連して後に詳述する。   The image recording unit 160 includes an image quality control unit 162 and a synthesis unit 164. The image quality control unit 162 controls the image quality of the captured image, particularly the image quality of the face area. In addition, when there are a plurality of subjects, the synthesis unit 164 generates a single shot image by combining the face images of each person. The image quality control will be described later in detail with reference to FIGS. 5A and 5B, and the face image synthesis will be described later with reference to FIG.

図3は、撮像画像上に誘導オブジェクト180が表示されるときの画面図である。
図3(a)は、誘導オブジェクト180が表示されたときの画面図である。撮像部114がカメラ102を介して被撮影者の撮像画像を取得すると、撮像画像表示部124は撮像画像をモニタ104に画面表示させる。このとき、誘導表示部122は同図に示す誘導オブジェクト180を被撮影者の顔の近くに表示させる。ここでは、オブジェクト選択部152がランダムに誘導オブジェクト180を選択したとする。同図における誘導オブジェクト180は、「?」を模したグラフィックスである。一般的に「?」は、「わからない」とか「なんだろう」といった「とまどい」を連想させる記号である。被撮影者は誘導オブジェクト180が内包する意味を汲み取り、自らの表情を変化させる。同図に示す誘導オブジェクト180の示唆表情は「怪訝な表情」であり、「怪訝な表情」の示唆表情パターンと対応づけられている。
FIG. 3 is a screen diagram when the guiding object 180 is displayed on the captured image.
FIG. 3A is a screen diagram when the guidance object 180 is displayed. When the imaging unit 114 acquires a captured image of the subject via the camera 102, the captured image display unit 124 causes the monitor 104 to display the captured image on the screen. At this time, the guidance display unit 122 displays the guidance object 180 shown in the figure near the face of the subject. Here, it is assumed that the object selection unit 152 randomly selects the guidance object 180. A guiding object 180 in the figure is a graphic imitating “?”. In general, “?” Is a symbol reminiscent of “Troublesome” such as “I don't know” or “What is it?”. The subject captures the meaning contained in the guiding object 180 and changes his / her facial expression. The suggested facial expression of the guiding object 180 shown in the figure is a “suspicious expression” and is associated with the suggested facial expression pattern of “suspicious expression”.

図3(b)は、誘導オブジェクト180にあわせて被撮影者が表情を変化させたときの画面図である。頭部特定部142は、誘導オブジェクト180が表示されたあとの撮像画像から顔領域を特定する。表情判定部144はこの顔領域と示唆表情パターンを比較して表情類似度を算出する。表情類似度が所定の閾値を超えた場合、すなわち、被撮影者の表情と示唆表情が適合しているときには、オブジェクト調整部154は誘導オブジェクト180の表示色を濃い色に変更するよう誘導表示部122に指示する。同図においては、被撮影者は誘導オブジェクト180に対応して首をかしげた怪訝な表情をうまく作ることができているので、誘導表示部122は誘導オブジェクト180の色彩を濃い色に変化させる。これにより被撮影者は自分がうまく表情を作れたことを認識する。   FIG. 3B is a screen diagram when the photographed person changes his / her facial expression in accordance with the guiding object 180. The head specifying unit 142 specifies a face area from the captured image after the guidance object 180 is displayed. The facial expression determination unit 144 compares the facial area with the suggested facial expression pattern to calculate the facial expression similarity. When the facial expression similarity exceeds a predetermined threshold, that is, when the subject's facial expression matches the suggested facial expression, the object adjustment unit 154 changes the display color of the guiding object 180 to a dark color. 122 is instructed. In the figure, since the subject can successfully create a suspicious expression with a neck that corresponds to the guidance object 180, the guidance display unit 122 changes the color of the guidance object 180 to a dark color. As a result, the photographer recognizes that he / she successfully made a facial expression.

表情作りがうまくいったことを通知するためのそのほかの方法として、誘導オブジェクト180の形状や位置を変化させてもよい。形状変化としては誘導オブジェクト180をの大きさを変化させたり、位置の変化としては誘導オブジェクト180を回転させたりといった方法が考えられる。一方、表情類似度が所定の閾値を超えなければ、誘導オブジェクト180の色彩は薄い色に変化する。これにより被撮影者は表情作りに失敗したことを認識する。あるいは、誘導オブジェクト180を濃い色に変化させたり、大きく表示させることにより表情作りの失敗を通知してもよい。このように誘導オブジェクト180を視認しやすい表示態様に変化させることにより、被撮影者の注意を喚起してもよい。   As another method for notifying that the facial expression creation is successful, the shape and position of the guiding object 180 may be changed. As the shape change, a method of changing the size of the guiding object 180, and a method of changing the position may be a method of rotating the guiding object 180. On the other hand, if the facial expression similarity does not exceed a predetermined threshold, the color of the guiding object 180 changes to a light color. As a result, the subject recognizes that the facial expression has failed. Alternatively, the failure to make a facial expression may be notified by changing the guiding object 180 to a dark color or displaying it large. In this way, the subject object 180 may be alerted by changing the guidance object 180 to a display mode that is easy to visually recognize.

このように、ちょうどマンガの記号表現のような誘導オブジェクト180が撮像画像全体の雰囲気を変化させるので、被撮影者の表情を自然に示唆表情に導くことができる。誘導オブジェクト180は、同図に示したような記号に限る必要はなく、マンガのキャラクタ画像であってもよい。写真を撮るとき、撮影者が被撮影者に対して「ハイ、笑って」という風に笑顔を要求することは多々ある。しかし、「笑って」と命令されて作る笑顔は人工的な笑顔にならざるを得ない。また、このような撮影では「ハイ、怒って」とか「ハイ、不思議な顔をして」という指示がされることはまずありえない。実際にこのような指示がなされたとしても、被撮影者が怒った表情や怪訝な表情をうまく作ることは簡単ではない。
これに対し、誘導オブジェクト180であれば、さまざまな示唆表情に無理なく誘導できる。特に、子供が被撮影者であるときには、多彩な表情を自然に引き出すことができる。誘導オブジェクト180と表情判定いう仕組みが撮影におけるインタラクティブ性を向上させ、遊び感覚を刺激する楽しい撮影が実現される。
In this way, since the guidance object 180 just like a manga symbol expression changes the atmosphere of the entire captured image, the photographer's facial expression can be naturally led to a suggested facial expression. The guiding object 180 need not be limited to the symbols shown in the figure, and may be a manga character image. When taking a picture, the photographer often requests the subject to smile, such as “high, laugh”. However, the smiles that are made when “Laughter” is ordered must be artificial smiles. Also, in such shooting, it is unlikely that an instruction such as “high, angry” or “high, with a strange face” will be given. Even if such an instruction is actually given, it is not easy for the subject to make an angry expression or a suspicious expression.
In contrast, the guiding object 180 can be guided to various suggested facial expressions without difficulty. In particular, when a child is a subject, various facial expressions can be naturally extracted. The guidance object 180 and the facial expression determination mechanism improve the interactiveness in shooting, and fun shooting that stimulates a sense of play is realized.

変形例として、誘導処理部150は誘導オブジェクト180の代わりに、または、誘導オブジェクト180に加えて、撮像画像の表示態様そのものを変化させてもよい。たとえば、示唆表情が「怒りの表情」であるときには、誘導処理部150は撮像画像全体を真っ赤に表示するように誘導表示部122に指示してもよい。示唆表情が「笑いの表情」であるときには、誘導処理部150は撮像画像全体を黄色などの明るい色により表示させてもよい。また、誘導処理部150は撮像画像全体を歪ませるなど被撮影者が予期しない演出を実行することにより、被撮影者の表情を「驚きの表情」に誘導してもよい。表情類似度に応じて、撮像画像の表示態様そのものを変化させてもよい。たとえば、誘導処理部150は、表情類似度が大きいほど撮像画像を高い解像度で表示させ、表情類似度が小さいほど撮像画像を低い解像度で表示させてもよい。   As a modification, the guidance processing unit 150 may change the display mode itself of the captured image instead of the guidance object 180 or in addition to the guidance object 180. For example, when the suggested facial expression is “angry facial expression”, the guidance processing unit 150 may instruct the guidance display unit 122 to display the entire captured image in red. When the suggested facial expression is a “laughing facial expression”, the guidance processing unit 150 may display the entire captured image in a bright color such as yellow. Further, the guidance processing unit 150 may guide the subject's facial expression to a “surprising facial expression” by performing an effect that the subject does not expect, such as distorting the entire captured image. The display mode of the captured image itself may be changed according to the expression similarity. For example, the guidance processing unit 150 may display the captured image at a higher resolution as the facial expression similarity is higher, and may display the captured image at a lower resolution as the facial expression similarity is lower.

図4は、被撮影者の表情を誘導して撮影画像を取得する処理過程を示すフローチャートの一例である。
同図に示す処理は、撮像期間中において撮像画像の取得タイミングごとに定期的に実行されるループ処理である。撮像部114は被撮影者の撮像画像をカメラ102から取得する(S10)。撮像画像表示部124は、撮像画像をユーザ106に表示させる(S12)。
FIG. 4 is an example of a flowchart showing a process of obtaining a photographed image by guiding the facial expression of the subject.
The process shown in the figure is a loop process periodically executed at every acquisition timing of the captured image during the imaging period. The imaging unit 114 acquires a captured image of the subject from the camera 102 (S10). The captured image display unit 124 causes the user 106 to display the captured image (S12).

頭部特定部142は、撮像画像中から被撮影者の顔領域を特定する(S14)。ここでは被撮影者は1名であるとして説明する。誘導表示部122は誘導オブジェクト180を撮像画像上に表示させる(S16)。表示対象となる誘導オブジェクト180は、オブジェクト選択部152により撮像条件に応じてあらかじめ選択されているとする。このときの表示態様は図3(a)に示した通りである。表情判定部144は、被撮影者の顔領域と示唆表情パターンを比較し、表情類似度を算出する(S18)。表情類似度が所定の閾値以上であり、被撮影者の表情と示唆表情が適合していれば(S20のY)、画像記録部160はS10において取得した撮像画像を撮影画像として画像保持部170に確定的に記録する(S22)。適合していなければ(S20のN)、処理はS10に戻る。   The head specifying unit 142 specifies the face area of the subject from the captured image (S14). Here, it is assumed that there is one person to be photographed. The guidance display unit 122 displays the guidance object 180 on the captured image (S16). It is assumed that the guidance object 180 to be displayed is previously selected by the object selection unit 152 according to the imaging conditions. The display mode at this time is as shown in FIG. The facial expression determination unit 144 compares the face area of the subject and the suggested facial expression pattern, and calculates the facial expression similarity (S18). If the facial expression similarity is equal to or greater than a predetermined threshold and the subject's facial expression matches the suggested facial expression (Y in S20), the image recording unit 160 uses the captured image acquired in S10 as a captured image as the image holding unit 170. (S22). If not (N in S20), the process returns to S10.

撮像期間中、S10からS20までの処理は所定の時間間隔にくり返し実行される。撮像期間内に被撮影者の表情が示唆表情と適合すると撮影画像として記録され、処理は終了する。あるいは、撮像期間中に得られる複数の撮像画像のうち、表情類似度が最も大きくなったときの撮像画像を撮影画像として記録してもよい。   During the imaging period, the processes from S10 to S20 are repeatedly executed at predetermined time intervals. If the subject's facial expression matches the suggested facial expression within the imaging period, the photographed image is recorded, and the process ends. Alternatively, a captured image when the facial expression similarity is the highest among a plurality of captured images obtained during the imaging period may be recorded as a captured image.

画質制御部162は、表情類似度の大小に連動させて撮影画像の解像度を増減してもよい。このような処理方法によれば「いい顔をすればいい写真になる」ため、被撮影者がいい表情を作ろうとする動機づけとなる。解像度に限らず、画質制御部162は表情類似度に応じて撮像画像における背景画像を変化させたり、さまざまなキャラクタオブジェクトを撮影画像に追加してもよい。このように画質制御部162が表情類似度に応じて撮像画像の内容を変化させることにより、いっそう被撮影者の表情を示唆表情に誘導しやすくなる。   The image quality control unit 162 may increase or decrease the resolution of the captured image in conjunction with the level of facial expression similarity. Such a processing method motivates the photographed person to make a good expression because “a good face is a good picture”. Not limited to the resolution, the image quality control unit 162 may change the background image in the captured image according to the expression similarity and add various character objects to the captured image. As described above, the image quality control unit 162 changes the content of the captured image according to the facial expression similarity, thereby making it easier to guide the subject's facial expression to the suggested facial expression.

画像記録部160は、誘導オブジェクト180を含めて撮影画像を記録してもよい。たとえば、プリクラ(登録商標)のようなシール写真を撮影するときに、誘導オブジェクト180を含めて撮影画像を記録すれば、撮影に対する被撮影者の興趣をいっそう深めることができる。被撮影者が複数のときには、各被撮影者の表情類似度の平均値や最低値が所定の閾値を超えたときの撮像画像を撮影画像として記録すればよい。   The image recording unit 160 may record a captured image including the guidance object 180. For example, if a photographed image including the guiding object 180 is recorded when a sticker photograph such as a photo booth (registered trademark) is photographed, the subject's interest in photographing can be further deepened. When there are a plurality of subjects, a captured image obtained when the average value or the minimum value of the facial expression similarity of each subject exceeds a predetermined threshold may be recorded as a captured image.

図5は、被撮影者が複数の場合における撮像画像上に誘導オブジェクト180が表示されるときの画面図の一例である。
図5(a)は、誘導オブジェクト180が表示されたときの画面図である。同図においては、被撮影者A〜Eの5名が撮像対象となっている。頭部特定部142は、5名の顔領域を検出する。オブジェクト選択部152は、被撮影者E以外の4名の被撮影者それぞれについて誘導オブジェクト180を選択している。誘導表示部122は、A〜Dの4名の顔領域の近傍に、選択された誘導オブジェクト180を表示させる。被撮影者Aには「がっかりした表情」を示唆する誘導オブジェクト180が表示されている。また、被撮影者Bには「焦っている表情」を示唆する誘導オブジェクト180が表示されている。このように、一般的なマンガ表現に対応した誘導オブジェクト180が被撮影者を示唆表情に導く。被撮影者は自分用の誘導オブジェクト180にあわせて、自らの表情を変化させる。
FIG. 5 is an example of a screen diagram when the guiding object 180 is displayed on the captured image when there are a plurality of subjects.
FIG. 5A is a screen diagram when the guidance object 180 is displayed. In the figure, five subjects A to E are subjects of imaging. The head identifying unit 142 detects the face areas of five people. The object selection unit 152 selects the guiding object 180 for each of the four subjects other than the subject E. The guidance display unit 122 displays the selected guidance object 180 in the vicinity of the face areas of the four people A to D. The subject A is displayed with a guidance object 180 that suggests a “disappointed expression”. In addition, a guidance object 180 that suggests a “facial expression” is displayed on the subject B. Thus, the guidance object 180 corresponding to general manga expression guides the photographed person to the suggested facial expression. The subject changes his / her facial expression according to the guidance object 180 for the subject.

図5(b)は、誘導オブジェクト180にあわせて被撮影者が表情を変化させたときの画面図である。ここで、被撮影者A、C、Dの表情は示唆表情と適合したが、被撮影者Bの表情は示唆表情と適合していない。いいかえれば、被撮影者Bの表情と示唆表情パターンとの表情類似度は閾値を超えていない。このように複数の被撮影者のうち、表情類似度が閾値を超えていない被撮影者が1人だけとなると、誘導表示部122は該当する被撮影者Bに対してプロンプトオブジェクト182を表示させる。このような処理方法によれば、集合写真として被撮影者を撮影するときに、被撮影者間で表情を競い合うという遊び感覚を導入することができる。   FIG. 5B is a screen view when the photographed person changes his / her facial expression in accordance with the guiding object 180. Here, the facial expressions of the subjects A, C, and D match the suggested facial expressions, but the facial expressions of the subject B do not match the suggested facial expressions. In other words, the facial expression similarity between the facial expression of the subject B and the suggested facial expression pattern does not exceed the threshold value. As described above, when there is only one photographed person whose facial expression similarity does not exceed the threshold among the plurality of photographed persons, the guidance display unit 122 displays the prompt object 182 for the corresponding photographed person B. . According to such a processing method, it is possible to introduce a play sensation of competing for facial expressions between subjects when photographing subjects as a group photo.

誘導表示部122は、複数の被撮影者のうち、表情類似度が最も高い被撮影者に対して所定のオブジェクト(以下、「適合オブジェクト」とよぶ)を表示させてもよい。あるいは、適合オブジェクトの数や動きによって表情類似度の大きさを通知してもよい。また、表情類似度が低い被撮影者にだけ誘導オブジェクト180を表示してもよい。たとえば、図5(b)においては、被撮影者Bにだけ誘導オブジェクト180を表示してもよい。このような表示方法によれば、表情をうまく作れていない被撮影者を所定表情に導くためのプロンプトとして誘導オブジェクト180を活用できる。   The guidance display unit 122 may display a predetermined object (hereinafter referred to as “applicable object”) to a subject who has the highest expression similarity among a plurality of subjects. Or you may notify the magnitude | size of a facial expression similarity by the number and movement of a conformity object. Further, the guidance object 180 may be displayed only to the subject who has a low expression similarity. For example, in FIG. 5B, the guiding object 180 may be displayed only on the subject B. According to such a display method, the guiding object 180 can be used as a prompt for guiding a subject who has not made a good expression to a predetermined expression.

撮影に先立って、ユーザは被撮影者の数を登録しておいてもよい。頭部特定部142により登録数分の顔領域が検出されたことを条件として、撮像または撮影が開始されるとしてもよい。検出された顔の数が登録数に満たないときには、表示部120は集合を促すメッセージを画面表示させてもよい。   Prior to shooting, the user may register the number of subjects. Imaging or photographing may be started on the condition that the number of registered face areas has been detected by the head identifying unit 142. When the number of detected faces is less than the registered number, the display unit 120 may display a message prompting the gathering on the screen.

図6は、被撮影者が複数の場合における撮像画像上に誘導オブジェクト180が表示されるときの画面図の別例である。
図6(a)は、誘導オブジェクト180が表示されたときの画面図である。同図においては、被撮影者A〜Eの5名が撮像対象となっている。頭部特定部142は、5名の顔領域を検出する。オブジェクト選択部152は、全被撮影者を対象として星のマークを模した誘導オブジェクト180を選択している。この星のマークの誘導オブジェクト180は「笑った表情」を示唆表情とする。誘導表示部122は、この誘導オブジェクト180を撮像画像全体に複数個漂わせる。各被撮影者は、星を模した誘導オブジェクト180が画面全体に表示されると、自らの表情を笑った表情に変化させることになる。
FIG. 6 is another example of a screen view when the guiding object 180 is displayed on the captured image when there are a plurality of subjects.
FIG. 6A is a screen diagram when the guidance object 180 is displayed. In the figure, five subjects A to E are subjects of imaging. The head identifying unit 142 detects the face areas of five people. The object selection unit 152 selects the guidance object 180 that imitates a star mark for all subjects. The star mark guiding object 180 has a “smiling facial expression” as a suggested facial expression. The guidance display unit 122 causes a plurality of guidance objects 180 to float over the entire captured image. When the guide object 180 imitating a star is displayed on the entire screen, each photographed person changes his / her facial expression to a laughing facial expression.

図6(b)は、誘導オブジェクト180にあわせて被撮影者が表情を変化させたときの画面図である。ここで被撮影者A〜Eのうち、被撮影者Cの表情類似度が最も高く、被撮影者Dの表情類似度が最も低いとする。すると、誘導表示部122は、誘導オブジェクト180を被撮影者Cの顔の周辺に多く集まるように移動させる。一方、被撮影者Dの周りからは誘導オブジェクト180が離れていく。このような処理方法によっても、被撮影者間で表情を競い合うという遊び感覚を導入することができる。   FIG. 6B is a screen diagram when the photographed person changes his / her facial expression in accordance with the guidance object 180. Here, it is assumed that, among the subjects A to E, the facial expression similarity of the subject C is the highest, and the facial expression similarity of the subject D is the lowest. Then, the guidance display unit 122 moves the guidance object 180 so as to gather more around the face of the subject C. On the other hand, the guiding object 180 moves away from around the subject D. Even with such a processing method, it is possible to introduce a play sensation of competing for facial expressions among subjects.

画質制御部162は、複数の被撮影者のうち表情類似度が大きい被撮影者の顔を大きく、表情類似度が小さい被撮影者の顔を小さくして撮影画像を記録してもよい。画質制御部162は、表情類似度が大きい被撮影者の顔は高い解像度で、表情類似度が小さい被撮影者は低い解像度で撮影画像を記録してもよい。このように画質制御部162が表情類似度に応じて撮像画像の内容を変化させることにより、被撮影者間で表情を競い合うという遊び感覚を導入することができる。   The image quality control unit 162 may record the photographed image with the face of the photographed person having a large expression similarity among the plurality of photographed persons being large and the face of the photographed person having a small expression similarity being small. The image quality control unit 162 may record a photographed image with a high resolution for the face of the subject having a high expression similarity and a low resolution for the subject having a low expression similarity. As described above, the image quality control unit 162 changes the content of the captured image according to the facial expression similarity, so that it is possible to introduce a play sensation of competing for facial expressions among subjects.

図7は、被撮影者の表情を誘導して撮影画像を取得する処理過程を示すフローチャートの別例である。
同図において、S10〜S16までに示す処理の内容は、図3において同等の符号を付した処理内容と同等である。同図に示す処理も所定の時間間隔でくり返されるループ処理である。まず、被撮影者が1人であるとして説明する。S18において、表情判定部144は表情類似度を算出したあと、その表情類似度を記録する。また、このときの撮像画像を一時的に画像保持部170に記録する。次のループのS10において新たな撮像画像が取得されると、S18において再び表情類似度が算出される。このとき、表情判定部144は、新たな撮像画像について算出された表情類似度が既に記録されている表情類似度よりも大きいかを判定する(S30)。いいかえれば、先に取得された撮像画像よりも新たに取得された撮像画像の方が、被撮影者の表情が示唆表情に近くなっているかを判定する。表情類似度の最高値が更新されていなければ(S30のN)、処理はS10に戻り、次の撮像画像についての解析が開始される。更新されていれば(S30のY)、新たに取得された撮像画像が撮影画像として、先に記録されていた撮影画像に対して上書き記録される(S32)。このような処理をくり返し、撮像時間を経過すると(S34のY)、処理は終了する。
以上の処理により、撮像期間中において、表情類似度が最も大きくなったときの撮像画像、すなわち、被撮影者の表情が最も示唆表情に近づいたときの撮像画像を自動的に選択できる。
FIG. 7 is another example of a flowchart showing a process of obtaining a photographed image by guiding the facial expression of the subject.
In the figure, the processing contents shown in S10 to S16 are the same as the processing contents denoted by the same reference numerals in FIG. The process shown in the figure is also a loop process that is repeated at predetermined time intervals. First, it is assumed that there is one person to be photographed. In S18, the facial expression determination unit 144 calculates the facial expression similarity and then records the facial expression similarity. Further, the captured image at this time is temporarily recorded in the image holding unit 170. When a new captured image is acquired in S10 of the next loop, the facial expression similarity is calculated again in S18. At this time, the facial expression determination unit 144 determines whether the facial expression similarity calculated for the new captured image is greater than the facial expression similarity already recorded (S30). In other words, it is determined whether the captured image newly acquired is closer to the suggested facial expression than the previously acquired captured image. If the maximum value of facial expression similarity is not updated (N in S30), the process returns to S10, and analysis for the next captured image is started. If updated (Y in S30), the newly acquired captured image is overwritten and recorded as a captured image over the previously recorded captured image (S32). When such processing is repeated and the imaging time has elapsed (Y in S34), the processing ends.
With the above processing, it is possible to automatically select a captured image when the facial expression similarity is the highest during the imaging period, that is, a captured image when the facial expression of the subject is closest to the suggested facial expression.

被撮影者が複数の場合、図7に示した処理が被撮影者ごとに実行してもよい。画像記録部160は、全員の表情類似度の平均値が最も大きくなるときの撮像画像を撮影画像として選択する。画像記録部160は、被撮影者ごとのベストショットとなる顔画像を合成して、1枚の撮影画像を生成してもよい。最後に、このような画像の合成方法について説明する。   When there are a plurality of subjects, the process shown in FIG. 7 may be executed for each subject. The image recording unit 160 selects a captured image when the average value of the facial expression similarity of all members is the largest as a captured image. The image recording unit 160 may synthesize a face image that is the best shot for each person to be photographed to generate a single photographed image. Finally, a method for synthesizing such an image will be described.

図8は、複数の被撮影者の顔画像から1枚の撮影画像を合成する過程を説明するためのタイムチャートである。
ここでは、被撮影者A〜Eを撮影期間t〜tにわたって撮像するとする。具体的には、t、t、t、・・・、tの計n+1枚の撮像画像が取得される。すなわち、n+1回、図7に示した処理が被撮影者ごとに実行される。
FIG. 8 is a time chart for explaining the process of synthesizing one photographed image from a plurality of face images of subjects.
Here, the imaging over shooting period t 0 ~t n the target participant A-E. Specifically, a total of n + 1 captured images of t 0 , t 1 , t 2 ,..., T n are acquired. That is, the process shown in FIG. 7 is executed for each person to be photographed n + 1 times.

n+1枚の撮像画像のうち、被撮影者Aの表情が最も示唆表情に近づくのは、時刻tにおいて取得された撮像画像である。画像記録部160は時刻tの撮像画像から被撮影者Aの顔画像を一時的に記録しておく。被撮影者Bについては時刻t(3<i<j<n)、被撮影者Cについては時刻t、被撮影者Dについては時刻t、被撮影者Eについては時刻tの顔画像が一時記録される。こうして、5名の被撮影者の表情がそれぞれ示唆表情に最も近づくときのベストショットとなる顔画像が取得される。ただし、各顔画像の取得タイミングは厳密には一致しない。 Of n + 1 of captured images, approaches the expression is most suggested expression of the photographer A is obtained captured image at time t 2. The image recording unit 160 temporarily records the face image of the photographer A from the captured image at the time t 2. The face of the subject B at time t i (3 <i <j <n), the subject C at time t 3 , the subject D at time t n , and the subject E at time t j Images are temporarily recorded. In this way, the facial image that is the best shot when the facial expressions of the five subjects are closest to the suggested facial expression is acquired. However, the acquisition timing of each face image does not exactly match.

合成部164は、撮像期間中の任意の時刻、たとえば、時刻tにおける撮像画像のうち、各被撮影者の顔領域をベストショットの顔画像と入れ替えることにより、合成画像を生成する。具体的には、時刻tの撮像画像のうち、被撮影者Aの顔領域を検出し、この顔領域を時刻tの被撮影者Aの顔画像と差し替える。同様に、被撮影者B、C、Eの顔領域を検出し、各顔領域を時刻t、時刻t、時刻tにおける被撮影者B、C、Eの顔画像と差し替える。被撮影者Eの顔画像は時刻tにおける撮像画像がベストショットなので差し替えは実行されない。このような処理方法により、被撮影者ごとのベストショットを集合写真に反映させることができる。従来、集合写真の撮影時には、あらかじめ複数枚の写真を撮影し、その中から最も好適な写真を選ぶという方法が一般的であった。これに対し、表情誘導装置100によればこのような作業を発生させることなく好適な集合写真を撮影できる。 Combining unit 164, any time during the imaging period, for example, among the captured image at time t n, by replacing the face region of each person to be photographed and best shot of the face image to generate a composite image. Specifically, among the captured image at time t n, to detect the face region of the person to be photographed A, replacing the face area and the photographer A face image at the time t 2. Similarly, the face areas of the subjects B, C, and E are detected, and the face areas are replaced with the face images of the subjects B, C, and E at the times t i , t 3 , and t j . Face image of the photographer E are replaced because the captured image is the best shot at time t n is not executed. With such a processing method, the best shot for each subject can be reflected in the group photo. Conventionally, when taking a group photo, it is common to take a plurality of photos in advance and select the most suitable photo from them. On the other hand, according to the facial expression guidance device 100, a suitable group photo can be taken without causing such work.

以上、表情誘導装置100について説明した。
本実施例においては、表情誘導装置100が被撮影者の表情と示唆表情が適合するときの撮影画像を取得するとして説明した。これに限らず、被撮影者の表情と示唆表情が適合したことを条件として所定の処理、たとえば、コンピュータゲームのコマンドを実行してもよい。そのような例についても付言しておく。
The facial expression guidance device 100 has been described above.
In the present embodiment, it has been described that the facial expression guidance device 100 acquires a captured image when the facial expression of the subject and the suggested facial expression match. However, the present invention is not limited to this, and a predetermined process such as a computer game command may be executed on the condition that the facial expression of the subject and the suggested facial expression are matched. I will add a note about such an example.

コンピュータゲームAが実行開始されると、オブジェクト選択部152はさまざまな誘導オブジェクト180を所定のタイミングにて動的に選択する。ユーザは誘導オブジェクト180が切り替わるごとに誘導オブジェクト180にあった表情をする必要がある。誘導オブジェクト180が切り替わってから所定時間、たとえば、3秒以内に誘導オブジェクト180に合った表情であれば適合ポイントとよばれる点数が1点加算され、誘導オブジェクト180に合った表情ができなければ適合ポイントが1点減算される。適合ポイントは50点から開始され、0点になるとゲームオーバーとなる。適合ポイントはそのままゲームのスコアとなってもよい。オブジェクト選択部152は、ゲームが進行するについれて誘導オブジェクト180の切換頻度を高くしたり、誘導オブジェクト180の種類を増やしていくことによって徐々にゲームの難易度が向上するように制御する。このような処理方法により、被撮影者の表情と誘導オブジェクト180が示唆する示唆表情との適合度に応じたゲーム性を実現できる。   When the execution of the computer game A is started, the object selection unit 152 dynamically selects various guidance objects 180 at a predetermined timing. The user needs to make a facial expression on the guidance object 180 every time the guidance object 180 is switched. If the facial expression is suitable for the guidance object 180 within a predetermined time, for example, 3 seconds after the guidance object 180 is switched, one point is added as a matching point. One point is subtracted. The matching points start from 50 points, and when the score is 0, the game is over. The matching points may be used as game scores as they are. The object selection unit 152 performs control so that the difficulty of the game is gradually improved by increasing the switching frequency of the guidance object 180 or increasing the types of the guidance objects 180 as the game progresses. With such a processing method, it is possible to realize a game characteristic corresponding to the degree of matching between the facial expression of the subject and the suggested facial expression suggested by the guidance object 180.

誘導オブジェクト180による表情誘導機能にはさまざまな応用場面が考えられる。たとえば、玄関のインタフォンに誘導オブジェクト180を表示し、訪問者が笑顔となったことを条件として鍵を開けることができるように処理してもよい。単なる顔認証ではなく、表情誘導に基づく認証処理により、訪問者の感情をクールダウンさせるという効果を発揮させることができる。誘導オブジェクト180に加えて効果音により被撮影者の表情を誘導してもよい。また、表情だけでなく身振り手振りまで誘導の対象としてもよい。たとえば、うつむく、首をかしげる、胸を張る・・・といったジェスチャーにより、誘導オブジェクト180が示唆する感情を表現してもよい。   Various application scenes can be considered for the expression guidance function by the guidance object 180. For example, the guidance object 180 may be displayed on the entrance intercom and processing may be performed so that the key can be opened on condition that the visitor smiles. The effect of cooling down the emotions of visitors can be exhibited by authentication processing based on facial expression guidance rather than simple face authentication. In addition to the guiding object 180, the subject's facial expression may be guided by sound effects. Further, not only facial expressions but also gesture gestures may be targeted. For example, the emotion suggested by the guiding object 180 may be expressed by gestures such as nagging, raising the neck, stretching the chest, and so on.

表情誘導の対象は被撮影者全員であってもよいし、その一部であってもよい。本実施例に示したように、被撮影者が自分が表情誘導の対象となっていることを認識できるように誘導オブジェクト180を表示させてもよいし、被撮影者には自分が表情誘導の対象となっていることがわからないように誘導オブジェクト180を表示させてもよい。たとえば、図5(a)において、撮像画面の所定位置、たとえば、右上隅に誘導オブジェクト180を表示させる。この誘導オブジェクト180は、実際には被撮影者Aを対象として表示されているが被撮影者A〜Eは、自分が表情誘導の対象となっているかどうかはわからない。被撮影者Aの表情類似度が所定の閾値を超えたときにシャッターが切られることになる。このような処理方法によれば、シャッターを切る権限を持っているのが誰かわからないという遊びの要素を備えた撮影装置を実現できる。   The subject of facial expression guidance may be all of the subject or a part thereof. As shown in the present embodiment, the guidance object 180 may be displayed so that the subject can recognize that he is the subject of facial expression guidance. The guiding object 180 may be displayed so as not to know that it is the target. For example, in FIG. 5A, the guiding object 180 is displayed at a predetermined position on the imaging screen, for example, at the upper right corner. The guidance object 180 is actually displayed for the subject A, but the subjects A to E do not know whether they are subject to facial expression guidance. The shutter is released when the facial expression similarity of the subject A exceeds a predetermined threshold. According to such a processing method, it is possible to realize a photographing apparatus having an element of play that does not know who has the authority to release the shutter.

以上、本発明を実施例をもとに説明した。この実施例はあくまで例示であり、それらの各構成要素や各処理プロセスの組み合わせにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。   In the above, this invention was demonstrated based on the Example. This embodiment is merely an example, and it will be understood by those skilled in the art that various modifications can be made to the combination of each component and each processing process, and such modifications are also within the scope of the present invention. is there.

請求項に記載の誘導表示部とユーザインタフェース処理部の機能は、本実施例においては主として誘導表示部122によって実現される。
これら請求項に記載の各構成要件が果たすべき機能は、本実施例において示された各機能ブロックの単体もしくはそれらの連係によって実現されることも当業者には理解されるところである。
The functions of the guidance display unit and the user interface processing unit described in the claims are mainly realized by the guidance display unit 122 in this embodiment.
It should be understood by those skilled in the art that the functions to be fulfilled by the constituent elements described in the claims are realized by a single function block or a combination of the functional blocks shown in the present embodiment.

表情誘導装置のハードウェア構成図である。It is a hardware block diagram of a facial expression guidance apparatus. 表情誘導装置の機能ブロック図である。It is a functional block diagram of a facial expression guidance device. 図3(a)は、誘導オブジェクトが表示されたときの画面図である。図3(b)は、誘導オブジェクトにあわせて被撮影者が表情を変化させたときの画面図である。FIG. 3A is a screen diagram when the guidance object is displayed. FIG. 3B is a screen diagram when the photographed person changes his / her facial expression in accordance with the guidance object. 被撮影者の表情を誘導して撮影画像を取得する処理過程を示すフローチャートの一例である。It is an example of the flowchart which shows the process in which a to-be-photographed person's facial expression is induced | guided | derived and a picked-up image is acquired. 図5(a)は、被撮影者が複数の場合において誘導オブジェクトが表示されたときの第1の画面図のである。図5(b)は、誘導オブジェクトにあわせて被撮影者が表情を変化させたときの第1の画面図である。FIG. 5A is a first screen diagram when a guiding object is displayed when there are a plurality of subjects. FIG. 5B is a first screen diagram when the photographed person changes the facial expression according to the guidance object. 図6(a)は、被撮影者が複数の場合において誘導オブジェクトが表示されたときの第2の画面図である。図6(b)は、誘導オブジェクトにあわせて被撮影者が表情を変化させたときの第2の画面図である。FIG. 6A is a second screen diagram when a guiding object is displayed when there are a plurality of subjects. FIG. 6B is a second screen diagram when the photographed person changes the facial expression according to the guidance object. 被撮影者の表情を誘導して撮影画像を取得する処理過程を示すフローチャートの別例である。It is another example of the flowchart which shows the process in which a to-be-photographed person's facial expression is induced | guided | derived and a picked-up image is acquired. 複数の被撮影者の顔画像から1枚の撮影画像を合成する過程を説明するためのタイムチャートである。It is a time chart for demonstrating the process of synthesize | combining one picked-up image from the several to-be-photographed person's face image.

符号の説明Explanation of symbols

100 表情誘導装置、 102 カメラ、 104 モニタ、 106 ユーザ、 110 ユーザインタフェース処理部、 112 入力部、 114 撮像部、 120 表示部、 122 誘導表示部、 124 撮像画像表示部、 130 データ処理部、 140 表情処理部、 142 頭部特定部、 144 表情判定部、 150 誘導処理部、 152 オブジェクト選択部、 154 オブジェクト調整部、 160 画像記録部、 162 画質制御部、 164 合成部、 170 画像保持部、 180 誘導オブジェクト、 182 プロンプトオブジェクト。   DESCRIPTION OF SYMBOLS 100 Facial expression guidance apparatus, 102 Camera, 104 Monitor, 106 User, 110 User interface processing part, 112 Input part, 114 Imaging part, 120 Display part, 122 Guidance display part, 124 Captured image display part, 130 Data processing part, 140 Facial expression Processing unit 142 head identification unit 144 expression determination unit 150 guidance processing unit 152 object selection unit 154 object adjustment unit 160 image recording unit 162 image quality control unit 164 composition unit 170 image holding unit 180 guidance Object, 182 Prompt object.

Claims (13)

カメラからユーザの顔の撮像画像を取得する撮像部と、
撮像中において、撮像されているユーザが視認可能な画面上にユーザの撮像画像を表示させるユーザ表示部と、
ユーザの表情を所望の表情に誘導するための誘導オブジェクトを前記撮像画像上に重ねて表示させる誘導表示部と、
ユーザの表情を検出する表情検出部と、
検出されたユーザの表情と前記所望の表情との適合度を画面上において通知するユーザインタフェース処理部と、
を備えることを特徴とする表情誘導装置。
An imaging unit that acquires a captured image of the user's face from the camera;
A user display unit that displays a captured image of the user on a screen that is visible to the user being imaged during imaging;
A guidance display unit for displaying a guidance object for guiding a user's facial expression to a desired facial expression on the captured image;
A facial expression detection unit for detecting the facial expression of the user;
A user interface processing unit for notifying on the screen the degree of matching between the detected facial expression of the user and the desired facial expression;
A facial expression guidance device comprising:
前記ユーザインタフェース処理部は、前記誘導表示部に指示して前記誘導オブジェクトの表示態様を変化させることにより前記適合度を通知することを特徴とする請求項1に記載の表情誘導装置。   The facial expression guidance device according to claim 1, wherein the user interface processing unit notifies the fitness level by instructing the guidance display unit to change a display mode of the guidance object. 前記誘導表示部は、所定の撮像条件の成否に応じて誘導すべき表情を選択し、前記選択された表情に対応する誘導オブジェクトを前記撮像画像上に表示させることを特徴とする請求項1に記載の表情誘導装置。   The guidance display unit selects a facial expression to be guided according to success or failure of a predetermined imaging condition and displays a guidance object corresponding to the selected facial expression on the captured image. The facial expression guidance device described. 複数のユーザを同時に撮像する場合において、
前記ユーザインタフェース処理部は、前記複数のユーザのうち所定のユーザについて検出された表情と前記所望の表情との適合度を通知することを特徴とする請求項1に記載の表情誘導装置。
When capturing multiple users at the same time,
The facial expression guidance device according to claim 1, wherein the user interface processing unit notifies the degree of matching between a facial expression detected for a predetermined user among the plurality of users and the desired facial expression.
複数のユーザを同時に撮像する場合において、
前記ユーザインタフェース処理部は、前記複数のユーザについて検出された複数種類の表情のそれぞれと前記所望の表情との適合度を通知することを特徴とする請求項1に記載の表情誘導装置。
When capturing multiple users at the same time,
The facial expression guidance device according to claim 1, wherein the user interface processing unit notifies the degree of matching between each of a plurality of types of facial expressions detected for the plurality of users and the desired facial expression.
複数のユーザを同時に撮像する場合において、
前記ユーザインタフェース処理部は、前記複数のユーザのうちその検出された表情と前記所望の表情との適合度が所定値以下となるユーザを画面上において通知することを特徴とする請求項1に記載の表情誘導装置。
When capturing multiple users at the same time,
The user interface processing unit notifies a user whose degree of matching between the detected facial expression and the desired facial expression is a predetermined value or less on the screen among the plurality of users. Facial expression guidance device.
撮影処理として、ユーザの撮像画像を所定の記録媒体に確定的に記録する画像記録部、を更に備え、
前記ユーザインタフェース処理部は、検出されたユーザの表情と前記所望の表情とが適合するタイミングを前記撮影処理の実行タイミングとして決定することを特徴とする請求項1から6のいずれかに記載の表情誘導装置。
As a photographing process, an image recording unit that deterministically records a user's captured image on a predetermined recording medium,
The facial expression according to claim 1, wherein the user interface processing unit determines a timing at which the detected facial expression of the user matches the desired facial expression as an execution timing of the photographing process. Guidance device.
前記画像記録部は、検出されたユーザの表情と前記所望の表情との適合度に応じて、前記撮影処理における撮像画像の画像品質を変化させることを特徴とする請求項7に記載の表情誘導装置。   The expression guide according to claim 7, wherein the image recording unit changes an image quality of a captured image in the photographing process according to a degree of matching between the detected facial expression of the user and the desired facial expression. apparatus. 複数のユーザを同時に撮像する場合において、
前記ユーザインタフェース処理部は、各ユーザについて検出された表情が前記所望の表情と適合したタイミングを実行タイミングとして、ユーザごとに前記撮影処理の実行タイミングを決定し、
前記画像記録部は、それぞれの実行タイミングにおける各ユーザの顔画像を単一の撮像画像に合成して記録することを特徴とする請求項7に記載の表情誘導装置。
When capturing multiple users at the same time,
The user interface processing unit determines the execution timing of the photographing process for each user, with the timing at which the facial expression detected for each user is matched with the desired facial expression as the execution timing,
The facial expression guidance device according to claim 7, wherein the image recording unit combines and records each user's face image at each execution timing into a single captured image.
前記画像記録部は、誘導オブジェクトを含めて撮像画像を記録することを特徴とする請求項7に記載の表情誘導装置。   The facial expression guidance device according to claim 7, wherein the image recording unit records a captured image including a guidance object. ユーザを撮像するカメラと、
撮像中において、撮像されているユーザがその画面を視認可能な表示装置と、
表情誘導装置と、を含み、
前記表情誘導装置は、
前記カメラからユーザの顔の撮像画像を取得する撮像部と、
撮像中にユーザの撮像画像を前記表示装置に表示させるユーザ表示部と、
ユーザの表情を所望の表情に誘導するための誘導オブジェクトを前記表示装置の撮像画像上に重ねて表示させる誘導表示部と、
ユーザの表情を検出する表情検出部と、
検出されたユーザの表情と前記所望の表情との適合度を前記表示装置の画面上において通知するユーザインタフェース処理部と、
を備えることを特徴とする表情誘導システム。
A camera that images the user;
A display device that allows the user being imaged to visually recognize the screen during imaging;
A facial expression guidance device,
The facial expression guidance device includes:
An imaging unit that acquires a captured image of the user's face from the camera;
A user display unit that displays a captured image of the user on the display device during imaging;
A guidance display unit for displaying the derived object to induce the user's expression in the desired expression superimposed on the captured image of the display device,
A facial expression detection unit for detecting the facial expression of the user;
A user interface processing unit for notifying on the screen of the display device the degree of matching between the detected facial expression of the user and the desired facial expression;
A facial expression guidance system characterized by comprising:
撮像対象となるユーザが視認可能な画面上において、ユーザの撮像画像に重ねてユーザの表情を所望の表情に誘導するための誘導オブジェクトを表示させるステップと、
ユーザの表情を検出するステップと、
検出されたユーザの表情と前記所望の表情が適合したタイミングにおける撮像画像を所定の記録媒体に確定的に記録するステップと、
を実行することを特徴とする表情誘導方法。
Displaying a guidance object for guiding a user's facial expression to a desired facial expression over the user's captured image on a screen that is visible to the user to be imaged;
Detecting a user's facial expression;
Deterministically recording a captured image at a timing at which the detected facial expression of the user and the desired facial expression are matched;
A facial expression guidance method characterized by executing
ユーザが撮像されている期間において、撮像されているユーザが視認可能な画面上にユーザの顔の撮像画像を表示させる機能と、
ユーザの表情を所望の表情に誘導するための誘導オブジェクトを前記撮像画像上に重ねて表示させる機能と、
ユーザの表情を検出する機能と、
検出されたユーザの表情と前記所望の表情が適合したことを条件として、所定の処理を実行する機能と、
をコンピュータに発揮させることを特徴とする表情誘導プログラム。
A function of displaying a captured image of the user's face on a screen visible to the user being imaged during the period in which the user is imaged;
A function of displaying the derived object to induce the user's expression in the desired expression superimposed on the captured image,
A function to detect the user's facial expression;
A function for executing a predetermined process on condition that the detected facial expression of the user and the desired facial expression are matched;
A facial expression guidance program characterized by letting a computer demonstrate its function.
JP2006197503A 2006-07-19 2006-07-19 Facial expression guidance device, facial expression guidance method, and facial expression guidance system Active JP4877762B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006197503A JP4877762B2 (en) 2006-07-19 2006-07-19 Facial expression guidance device, facial expression guidance method, and facial expression guidance system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006197503A JP4877762B2 (en) 2006-07-19 2006-07-19 Facial expression guidance device, facial expression guidance method, and facial expression guidance system

Publications (2)

Publication Number Publication Date
JP2008027086A JP2008027086A (en) 2008-02-07
JP4877762B2 true JP4877762B2 (en) 2012-02-15

Family

ID=39117664

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006197503A Active JP4877762B2 (en) 2006-07-19 2006-07-19 Facial expression guidance device, facial expression guidance method, and facial expression guidance system

Country Status (1)

Country Link
JP (1) JP4877762B2 (en)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4973098B2 (en) * 2006-09-28 2012-07-11 ソニー株式会社 Image processing apparatus, image processing method, and program
US20110109770A1 (en) * 2008-07-17 2011-05-12 Satoshi Katoh Imaging apparatus, imaging method, and program
JP5003666B2 (en) * 2008-12-15 2012-08-15 株式会社Jvcケンウッド Imaging apparatus, imaging method, image signal reproducing apparatus, and image signal reproducing method
JP5294318B2 (en) * 2009-01-21 2013-09-18 任天堂株式会社 Information processing program and information processing apparatus
JP2012169777A (en) * 2011-02-10 2012-09-06 Sony Corp Information processor, information processing method, and program
JP5807399B2 (en) * 2011-06-13 2015-11-10 ソニー株式会社 Information processing apparatus and program
JP5375988B2 (en) * 2012-02-13 2013-12-25 株式会社Jvcケンウッド Image signal reproducing apparatus, image signal reproducing method, imaging apparatus, and imaging method
JP2012157010A (en) * 2012-02-13 2012-08-16 Jvc Kenwood Corp Imaging apparatus and imaging method
US20160063317A1 (en) * 2013-04-02 2016-03-03 Nec Solution Innovators, Ltd. Facial-expression assessment device, dance assessment device, karaoke device, and game device
JP5654148B2 (en) * 2014-01-09 2015-01-14 オリンパスイメージング株式会社 Digital camera and composite image display method of digital camera
JP5774731B2 (en) * 2014-01-09 2015-09-09 オリンパス株式会社 Digital camera and composite image display method of digital camera
JP5963921B2 (en) * 2015-07-01 2016-08-03 オリンパス株式会社 Digital camera and composite image display method of camera
WO2017051577A1 (en) * 2015-09-25 2017-03-30 ソニー株式会社 Emotional response inducement system and emotional response inducement method
WO2017187692A1 (en) * 2016-04-27 2017-11-02 ソニー株式会社 Information processing device, information processing method, and program
KR101852679B1 (en) * 2016-07-27 2018-04-27 한국 한의학 연구원 Apparatus and method for extracting tongue region from face image
JP7098131B2 (en) * 2017-12-28 2022-07-11 シヤチハタ株式会社 Authentication image acquisition device, authentication image acquisition system, and authentication image acquisition method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003219218A (en) * 2002-01-23 2003-07-31 Fuji Photo Film Co Ltd Digital camera
JP2004046591A (en) * 2002-07-12 2004-02-12 Konica Minolta Holdings Inc Picture evaluation device
JP4355823B2 (en) * 2003-01-21 2009-11-04 庸美 徳原 Information processing device for facial expressions
JP2005242566A (en) * 2004-02-25 2005-09-08 Canon Inc Image composition device and method
JP4003793B2 (en) * 2005-11-24 2007-11-07 ソニー株式会社 Video recording device

Also Published As

Publication number Publication date
JP2008027086A (en) 2008-02-07

Similar Documents

Publication Publication Date Title
JP4877762B2 (en) Facial expression guidance device, facial expression guidance method, and facial expression guidance system
US10360715B2 (en) Storage medium, information-processing device, information-processing system, and avatar generating method
JP6025690B2 (en) Information processing apparatus and information processing method
JP6809226B2 (en) Biometric device, biometric detection method, and biometric detection program
JP4640456B2 (en) Image recording apparatus, image recording method, image processing apparatus, image processing method, and program
JP4898532B2 (en) Image processing apparatus, photographing system, blink state detection method, blink state detection program, and recording medium on which the program is recorded
JP4717539B2 (en) Imaging apparatus and imaging method
JP6049448B2 (en) Subject area tracking device, control method thereof, and program
JP5959923B2 (en) Detection device, control method thereof, control program, imaging device and display device
US9014475B2 (en) Image pickup apparatus and photographing method of image pickup apparatus
JP2015088096A (en) Information processor and information processing method
JP2015088095A (en) Information processor and information processing method
JP2006101186A (en) Camera
JP5949030B2 (en) Image generating apparatus, image generating method, and program
JP2015088098A (en) Information processor and information processing method
JP2007300562A (en) Image processing apparatus and image processing method
JP2009117975A (en) Image pickup apparatus and method
JP2014050022A (en) Image processing device, imaging device, and program
CN102238335B (en) Photographic device and image data generating method
JPWO2022074865A5 (en) LIFE DETECTION DEVICE, CONTROL METHOD, AND PROGRAM
JP2008186075A (en) Interactive image display device
WO2019044135A1 (en) Information processing device, information processing method, and program
CN115205921A (en) Electronic device and control method
JP2008219451A (en) Imaging device and control method thereof
JP2013197827A (en) Photography auxiliary device and method, and photographing device and camera-equipped portable terminal mounting the photography auxiliary device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090420

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20101125

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20110127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110708

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111122

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111122

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4877762

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141209

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250