JP4877762B2 - Facial expression guidance device, facial expression guidance method, and facial expression guidance system - Google Patents
Facial expression guidance device, facial expression guidance method, and facial expression guidance system Download PDFInfo
- Publication number
- JP4877762B2 JP4877762B2 JP2006197503A JP2006197503A JP4877762B2 JP 4877762 B2 JP4877762 B2 JP 4877762B2 JP 2006197503 A JP2006197503 A JP 2006197503A JP 2006197503 A JP2006197503 A JP 2006197503A JP 4877762 B2 JP4877762 B2 JP 4877762B2
- Authority
- JP
- Japan
- Prior art keywords
- facial expression
- user
- guidance
- captured image
- expression
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、表情認識に基づくユーザインタフェース技術、に関する。 The present invention relates to a user interface technology based on facial expression recognition.
人物撮影時に「笑って」とか「ハイ、チーズ」のような掛け声をかける光景は一般的である。これは、被写体となる人物(以下、「被撮影者」とよぶ)の表情を好適な表情に導いて撮影するためのテクニックといえる。
そもそも人間の表情とは、感情の自然な発露として現れるべきものである。本発明者は、被撮影者の表情を自然に誘導する仕組みをカメラに設ければ、より好適な撮影が可能であると想到した。 In the first place, human expression should appear as a natural expression of emotion. The present inventor has conceived that more suitable shooting is possible if the camera is provided with a mechanism for naturally guiding the facial expression of the subject.
本発明は、本発明者の上記着目に鑑みてなされたものであり、その主たる目的は、被撮影者の自然な表情を引き出すユーザインタフェースを実現することである。 The present invention has been made in view of the above-mentioned attention of the inventor, and its main purpose is to realize a user interface that draws out a natural expression of the subject.
本発明のある態様は、表情誘導装置である。
この装置は、ユーザの顔を撮像するとき、撮像されているユーザが視認可能な画面上にユーザの撮像画像を表示させると共に、ユーザの表情を所望の表情に誘導するための誘導オブジェクトを撮像画像上に表示させる。誘導オブジェクトの表示中において、ユーザの表情を検出し、ユーザの表情と所望の表情との適合度を画面上において通知する。
One embodiment of the present invention is a facial expression guidance device.
When imaging a user's face, this apparatus displays a captured image of the user on a screen that can be visually recognized by the captured user, and captures a guided object for guiding the user's facial expression to a desired facial expression. Display above. While displaying the guidance object, the user's facial expression is detected, and the degree of matching between the user's facial expression and the desired facial expression is notified on the screen.
ここでいう誘導オブジェクトとは、「笑ってください」というように直接的に表情を誘導するための文字情報ではなく、キャラクタや記号によって間接的に表情を誘導するためのコンピュータグラフィックスである。撮影の楽しさを演出する誘導オブジェクトは、被撮影者の表情を自然に所望の表情に誘導する。所望の表情に誘導されたときをシャッターチャンスとすれば、所望の表情にて被撮影者を撮影できる。 The guiding object here is not character information for directly inducing a facial expression such as “Please laugh” but computer graphics for indirectly inducing a facial expression by a character or a symbol. The guiding object that produces the joy of shooting naturally guides the photographer's facial expression to a desired facial expression. If the photo opportunity is guided to a desired facial expression, the subject can be photographed with the desired facial expression.
なお、本発明を方法、システム、プログラム、記録媒体により表現したものもまた、本発明の態様として有効である。 In addition, what expressed this invention with the method, the system, the program, and the recording medium is also effective as an aspect of this invention.
本発明によれば、被撮影者の自然な表情を引き出すユーザインタフェースを提供できる。 ADVANTAGE OF THE INVENTION According to this invention, the user interface which draws out a to-be-photographed person's natural expression can be provided.
図1は、表情誘導装置100のハードウェア構成図である。
表情誘導装置100には、カメラ102とモニタ104が接続される。モニタ104は、一般的なテレビモニタである。カメラ102は、モニタ104の上部に設置されユーザ106を撮像する。同図においては、ユーザ106が撮影者であり被撮影者でもある。表情誘導装置100は撮像画像をモニタ104に表示させる。そのため、被撮影者であるユーザ106はモニタ104にて自分の撮像画像を視認可能となる。カメラ102は、所定の時間間隔、たとえば、30分の1秒から60分の1秒間隔でユーザ106を定期的に撮像する。このようにしてカメラ102は、ユーザ106を複数枚の撮像画像として撮像する。いいかえれば、ユーザ106を動画像として撮像する。
FIG. 1 is a hardware configuration diagram of the facial
A
本実施例においては、所定の撮像期間、たとえば、30秒間、被撮影者を継続して撮像する。この撮像期間中に取得された複数枚の撮像画像のうち、1枚の撮像画像が選択されてハードディスク等の補助記憶装置に確定的に記録される。このように静止画として記録される撮像画像、いいかえれば、写真として記録される撮像画像のことを以下においては「撮影画像」とよぶ。本実施例においては、撮像画像は表情誘導装置100の内蔵メモリに一時的に記録される動画像であり、撮影画像は表情誘導装置100の内蔵ハードディスクに確定的に記録される静止画像である。
In this embodiment, the subject is continuously imaged for a predetermined imaging period, for example, 30 seconds. One captured image is selected from a plurality of captured images acquired during this imaging period, and is definitely recorded in an auxiliary storage device such as a hard disk. A captured image recorded as a still image in this way, in other words, a captured image recorded as a photograph is hereinafter referred to as a “captured image”. In this embodiment, the captured image is a moving image that is temporarily recorded in the built-in memory of the facial
表情誘導装置100は、カメラ102を制御してユーザ106を撮像しているときに、モニタ104に誘導オブジェクト180を表示させる。誘導オブジェクト180はさまざまな表情と対応づけらる。たとえば、「?(クエスチョンマーク)」を模した誘導オブジェクト180は「怪訝な表情」に対応づけられている。ユーザ106は誘導オブジェクト180に対応して自らの表情を変化させる。表情誘導装置100は、誘導オブジェクト180により示唆された表情(以下、「示唆表情」とよぶ。この例では「怪訝な表情」が示唆表情となる。)とユーザ106の実際の表情が適合するかを判定する。表情誘導装置100はモニタ104を介してその適合度(以下、「表情類似度」とよぶ)を通知する。たとえば、表情類似度に応じて誘導オブジェクト180の表示態様を変化させる。誘導オブジェクト180の表示態様については、図3以降に関連して詳述する。
The facial
表情誘導装置100は、表情類似度が所定の閾値を超えるときの撮像画像を「撮影画像」として選択する。このような処理方法により、ユーザ106の表情を示唆表情に導いた上で撮影画像を取得できる。本実施例においては、表情誘導装置100は家庭内にてモニタ104やカメラ102を制御することにより、ユーザ106の表情を誘導する据え置き型の装置であるとして説明する。別例として、表情誘導装置100の機能は既存のデジタルカメラに組み込まれてもよい。その場合、デジタルカメラはモニタ104を内蔵してもよいし、外部のモニタ104に撮像画像や誘導オブジェクト180を表示させてもよい。
The facial
図2は、表情誘導装置100の機能ブロック図である。
ここに示す各ブロックは、ハードウェア的には、コンピュータのCPUをはじめとする素子や機械装置で実現でき、ソフトウェア的にはコンピュータプログラム等によって実現されるが、ここでは、それらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックはハードウェア、ソフトウェアの組み合わせによっていろいろなかたちで実現できることは、当業者には理解されるところである。
ここでは、主として各ブロックの発揮すべき機能について、その具体的な作用については、図3以降に関連して説明する。
FIG. 2 is a functional block diagram of the facial
Each block shown here can be realized in hardware by an element such as a CPU of a computer or a mechanical device, and in software it is realized by a computer program or the like. Draw functional blocks. Therefore, those skilled in the art will understand that these functional blocks can be realized in various forms by a combination of hardware and software.
Here, with regard to the functions to be exhibited by the respective blocks, specific actions thereof will be described with reference to FIG.
表情誘導装置100は、ユーザインタフェース処理部110、データ処理部130および画像保持部170を含む。
ユーザインタフェース処理部110は、表情誘導装置100のユーザからの入力処理やユーザに対する情報表示のようにユーザインタフェース全般に関する処理を担当する。データ処理部130は、ユーザインタフェース処理部110を介した入力操作を元にして各種のデータ処理を実行する。データ処理部130は、ユーザインタフェース処理部110および画像保持部170の間のインタフェースの役割も果たす。画像保持部170は、データ処理部130から受け取った撮像画像や撮影画像など、各種画像データを格納する。画像保持部170は、メモリのような主記憶装置およびハードディスクのような補助記憶装置の機能により実現される。
The facial
The user
ユーザインタフェース処理部110は、入力部112、撮像部114および表示部120を含む。入力部112はユーザからの操作入力を受け付ける。撮像部114は、カメラ102を介して撮像画像を定期的に取得する。表示部120はモニタ104を介してユーザにさまざまな情報を表示する。表示部120は、誘導表示部122と撮像画像表示部124を含む。誘導表示部122は後述の誘導オブジェクト180をモニタ104に表示させる。撮像画像表示部124は、撮像画像をモニタ104に表示させる。
このほかにもユーザインタフェース処理部110は音声入力や音声出力、ボタンインタフェースを介した入力なども表情誘導装置100のユーザインタフェースの一種として提供する。
The user
In addition, the user
データ処理部130は、表情処理部140、誘導処理部150および画像記録部160を含む。表情処理部140は、被撮影者の表情認識処理を担当する。誘導処理部150は、ユーザの表情を示唆表情へ誘導するための処理を担当する。画像記録部160は、撮像画像から撮影画像を選択して画像保持部170に記録する。
The
表情処理部140は、頭部特定部142と表情判定部144を含む。頭部特定部142は、撮像画像において被撮影者の顔にあたる画像領域を特定する。以下、撮像画像において顔にあたる画像領域のことを単に「顔領域」とよぶことにする。また、撮像画像のうち顔領域に対応する画像データのことを、単に「顔画像」とよぶことにする。顔領域の特定については既存の技術を応用すればよい。たとえば、数十から数百種類の顔画像を合成した基準画像をあらかじめ用意しておく。頭部特定部142は撮像画像中に矩形領域を設定し、基準画像と矩形領域の画像を比較して画像としての類似度を数値化する。撮像画像中にさまざまな矩形領域を設定しながら類似度を適宜算出することにより、撮像画像中において「顔らしい」領域を顔領域として特定する。
The facial
表情判定部144は、被撮影者の表情を検出する。画像保持部170は、「怒りの表情」、「悲しみの表情」、「笑いの表情」、「困惑の表情」、「嫌悪の表情」・・・のようにさまざまな人間の表情に対応した画像を保持している。これらの画像のことを「表情パターン」とよぶことにする。表情判定部144は、被撮影者の顔領域と示唆表情の表情パターンの「画像としての類似度」を「表情類似度」として計算する。こうして、被撮影者の表情と示唆表情との類似度が表情類似度として指標化されることになる。表情類似度の計算方法については、既存の画像マッチングに関する技術を応用すればよい。以下においては示唆表情に対応する表情パターンのことを「示唆表情パターン」とよぶ。
The facial
表情パターンは上述のように各表情について類型化された画像であってもよいが、各表情ごとの特徴を示すデータ(以下、このようなデータのことを「表情特徴情報」とよぶ)であってもよい。たとえば、「怒りの表情」であれば眉間にシワができるという特徴があるかもしれないし、「笑いの表情」であれば目尻が下がるという特徴を見いだせるかもしれない。このように、表情特徴情報は、眉の角度、目尻の角度、口のかたちなどさまざまな項目について指標化した数値情報である。したがって、被撮影者の表情が示唆表情の表情特徴情報にどれだけ適合しているかを表情類似度として数値化してもよい。 The facial expression pattern may be an image typified for each facial expression as described above, but is data indicating the characteristics of each facial expression (hereinafter referred to as “facial expression feature information”). May be. For example, an “angry expression” may be characterized by wrinkles between the eyebrows, and a “laughing expression” may be characterized by lowering the corners of the eyes. In this way, facial expression feature information is numerical information indexed for various items such as the angle of the eyebrows, the angle of the corner of the eye, and the shape of the mouth. Therefore, how much the facial expression of the subject is matched with the facial expression feature information of the suggested facial expression may be quantified as the facial expression similarity.
誘導処理部150は、オブジェクト選択部152とオブジェクト調整部154を含む。オブジェクト選択部152は、複数種類の示唆表情のうちのいずれかに対応する誘導オブジェクト180を選択する。誘導表示部122は、選択された誘導オブジェクト180を撮像画像に重ねてモニタ104に表示させる。オブジェクト選択部152ではなく、ユーザが表示対象となる誘導オブジェクト180を選択してもよい。
The
オブジェクト選択部152は、複数種類の誘導オブジェクト180をランダムに選択してもよい。あるいは、撮像条件に応じて誘導オブジェクト180を選択してもよい。ここでいう撮像条件とは、被撮影者の数や性別や撮影日時、撮影環境に関する条件である。たとえば、撮像画像から複数の顔画像が検出されたとき、すなわち、被撮影者が複数のときには、被撮影者の数に応じて誘導オブジェクト180を選択してもよい。被撮影者が1人のときには「怪訝な表情」、3人以上のときには「笑いの表情」、被撮影者が5人以上のときには「怒りの表情」といった具合に、被撮影者の数に応じて誘導オブジェクト180を選択する。また、被撮影者が複数のときには、その男女比に応じて誘導オブジェクト180を選択してもよい。あるいは、オブジェクト選択部152は、撮像画像の明るさに応じて誘導オブジェクト180を選択してもよい。たとえば、撮像画像が明るいときには「笑いの表情」、暗いときには「悲しみの表情」を示唆表情としてもよい。
The
被撮影者は誘導オブジェクト180にあわせて自らの表情を変化させる。表情判定部144により被撮影者の表情と示唆表情パターンとの表情類似度が算出される。オブジェクト調整部154は、算出された表情類似度に応じて、誘導オブジェクト180の表示態様を決定させる。たとえば、表情類似度が大きいとき、すなわち、被撮影者が示唆表情に近い表情をしたときには、誘導オブジェクト180が大きく表示される。誘導表示部122は、オブジェクト調整部154からの指示に応じて、誘導オブジェクト180の表示態様を適宜変化させる。具体的な表示態様についても図3以降に関連して詳述する。
The subject changes his / her facial expression according to the
画像記録部160は、画質制御部162と合成部164を含む。画質制御部162は、撮影画像の画像品質、特に、顔領域の画質を制御する。また、合成部164は、被撮影者が複数のときに、各人物の顔画像を合成して1枚の撮影画像を生成する。画質制御については図5(a)や図5(b)、顔画像の合成については図8に関連して後に詳述する。
The
図3は、撮像画像上に誘導オブジェクト180が表示されるときの画面図である。
図3(a)は、誘導オブジェクト180が表示されたときの画面図である。撮像部114がカメラ102を介して被撮影者の撮像画像を取得すると、撮像画像表示部124は撮像画像をモニタ104に画面表示させる。このとき、誘導表示部122は同図に示す誘導オブジェクト180を被撮影者の顔の近くに表示させる。ここでは、オブジェクト選択部152がランダムに誘導オブジェクト180を選択したとする。同図における誘導オブジェクト180は、「?」を模したグラフィックスである。一般的に「?」は、「わからない」とか「なんだろう」といった「とまどい」を連想させる記号である。被撮影者は誘導オブジェクト180が内包する意味を汲み取り、自らの表情を変化させる。同図に示す誘導オブジェクト180の示唆表情は「怪訝な表情」であり、「怪訝な表情」の示唆表情パターンと対応づけられている。
FIG. 3 is a screen diagram when the guiding
FIG. 3A is a screen diagram when the
図3(b)は、誘導オブジェクト180にあわせて被撮影者が表情を変化させたときの画面図である。頭部特定部142は、誘導オブジェクト180が表示されたあとの撮像画像から顔領域を特定する。表情判定部144はこの顔領域と示唆表情パターンを比較して表情類似度を算出する。表情類似度が所定の閾値を超えた場合、すなわち、被撮影者の表情と示唆表情が適合しているときには、オブジェクト調整部154は誘導オブジェクト180の表示色を濃い色に変更するよう誘導表示部122に指示する。同図においては、被撮影者は誘導オブジェクト180に対応して首をかしげた怪訝な表情をうまく作ることができているので、誘導表示部122は誘導オブジェクト180の色彩を濃い色に変化させる。これにより被撮影者は自分がうまく表情を作れたことを認識する。
FIG. 3B is a screen diagram when the photographed person changes his / her facial expression in accordance with the guiding
表情作りがうまくいったことを通知するためのそのほかの方法として、誘導オブジェクト180の形状や位置を変化させてもよい。形状変化としては誘導オブジェクト180をの大きさを変化させたり、位置の変化としては誘導オブジェクト180を回転させたりといった方法が考えられる。一方、表情類似度が所定の閾値を超えなければ、誘導オブジェクト180の色彩は薄い色に変化する。これにより被撮影者は表情作りに失敗したことを認識する。あるいは、誘導オブジェクト180を濃い色に変化させたり、大きく表示させることにより表情作りの失敗を通知してもよい。このように誘導オブジェクト180を視認しやすい表示態様に変化させることにより、被撮影者の注意を喚起してもよい。
As another method for notifying that the facial expression creation is successful, the shape and position of the guiding
このように、ちょうどマンガの記号表現のような誘導オブジェクト180が撮像画像全体の雰囲気を変化させるので、被撮影者の表情を自然に示唆表情に導くことができる。誘導オブジェクト180は、同図に示したような記号に限る必要はなく、マンガのキャラクタ画像であってもよい。写真を撮るとき、撮影者が被撮影者に対して「ハイ、笑って」という風に笑顔を要求することは多々ある。しかし、「笑って」と命令されて作る笑顔は人工的な笑顔にならざるを得ない。また、このような撮影では「ハイ、怒って」とか「ハイ、不思議な顔をして」という指示がされることはまずありえない。実際にこのような指示がなされたとしても、被撮影者が怒った表情や怪訝な表情をうまく作ることは簡単ではない。
これに対し、誘導オブジェクト180であれば、さまざまな示唆表情に無理なく誘導できる。特に、子供が被撮影者であるときには、多彩な表情を自然に引き出すことができる。誘導オブジェクト180と表情判定いう仕組みが撮影におけるインタラクティブ性を向上させ、遊び感覚を刺激する楽しい撮影が実現される。
In this way, since the
In contrast, the guiding
変形例として、誘導処理部150は誘導オブジェクト180の代わりに、または、誘導オブジェクト180に加えて、撮像画像の表示態様そのものを変化させてもよい。たとえば、示唆表情が「怒りの表情」であるときには、誘導処理部150は撮像画像全体を真っ赤に表示するように誘導表示部122に指示してもよい。示唆表情が「笑いの表情」であるときには、誘導処理部150は撮像画像全体を黄色などの明るい色により表示させてもよい。また、誘導処理部150は撮像画像全体を歪ませるなど被撮影者が予期しない演出を実行することにより、被撮影者の表情を「驚きの表情」に誘導してもよい。表情類似度に応じて、撮像画像の表示態様そのものを変化させてもよい。たとえば、誘導処理部150は、表情類似度が大きいほど撮像画像を高い解像度で表示させ、表情類似度が小さいほど撮像画像を低い解像度で表示させてもよい。
As a modification, the
図4は、被撮影者の表情を誘導して撮影画像を取得する処理過程を示すフローチャートの一例である。
同図に示す処理は、撮像期間中において撮像画像の取得タイミングごとに定期的に実行されるループ処理である。撮像部114は被撮影者の撮像画像をカメラ102から取得する(S10)。撮像画像表示部124は、撮像画像をユーザ106に表示させる(S12)。
FIG. 4 is an example of a flowchart showing a process of obtaining a photographed image by guiding the facial expression of the subject.
The process shown in the figure is a loop process periodically executed at every acquisition timing of the captured image during the imaging period. The
頭部特定部142は、撮像画像中から被撮影者の顔領域を特定する(S14)。ここでは被撮影者は1名であるとして説明する。誘導表示部122は誘導オブジェクト180を撮像画像上に表示させる(S16)。表示対象となる誘導オブジェクト180は、オブジェクト選択部152により撮像条件に応じてあらかじめ選択されているとする。このときの表示態様は図3(a)に示した通りである。表情判定部144は、被撮影者の顔領域と示唆表情パターンを比較し、表情類似度を算出する(S18)。表情類似度が所定の閾値以上であり、被撮影者の表情と示唆表情が適合していれば(S20のY)、画像記録部160はS10において取得した撮像画像を撮影画像として画像保持部170に確定的に記録する(S22)。適合していなければ(S20のN)、処理はS10に戻る。
The
撮像期間中、S10からS20までの処理は所定の時間間隔にくり返し実行される。撮像期間内に被撮影者の表情が示唆表情と適合すると撮影画像として記録され、処理は終了する。あるいは、撮像期間中に得られる複数の撮像画像のうち、表情類似度が最も大きくなったときの撮像画像を撮影画像として記録してもよい。 During the imaging period, the processes from S10 to S20 are repeatedly executed at predetermined time intervals. If the subject's facial expression matches the suggested facial expression within the imaging period, the photographed image is recorded, and the process ends. Alternatively, a captured image when the facial expression similarity is the highest among a plurality of captured images obtained during the imaging period may be recorded as a captured image.
画質制御部162は、表情類似度の大小に連動させて撮影画像の解像度を増減してもよい。このような処理方法によれば「いい顔をすればいい写真になる」ため、被撮影者がいい表情を作ろうとする動機づけとなる。解像度に限らず、画質制御部162は表情類似度に応じて撮像画像における背景画像を変化させたり、さまざまなキャラクタオブジェクトを撮影画像に追加してもよい。このように画質制御部162が表情類似度に応じて撮像画像の内容を変化させることにより、いっそう被撮影者の表情を示唆表情に誘導しやすくなる。
The image
画像記録部160は、誘導オブジェクト180を含めて撮影画像を記録してもよい。たとえば、プリクラ(登録商標)のようなシール写真を撮影するときに、誘導オブジェクト180を含めて撮影画像を記録すれば、撮影に対する被撮影者の興趣をいっそう深めることができる。被撮影者が複数のときには、各被撮影者の表情類似度の平均値や最低値が所定の閾値を超えたときの撮像画像を撮影画像として記録すればよい。
The
図5は、被撮影者が複数の場合における撮像画像上に誘導オブジェクト180が表示されるときの画面図の一例である。
図5(a)は、誘導オブジェクト180が表示されたときの画面図である。同図においては、被撮影者A〜Eの5名が撮像対象となっている。頭部特定部142は、5名の顔領域を検出する。オブジェクト選択部152は、被撮影者E以外の4名の被撮影者それぞれについて誘導オブジェクト180を選択している。誘導表示部122は、A〜Dの4名の顔領域の近傍に、選択された誘導オブジェクト180を表示させる。被撮影者Aには「がっかりした表情」を示唆する誘導オブジェクト180が表示されている。また、被撮影者Bには「焦っている表情」を示唆する誘導オブジェクト180が表示されている。このように、一般的なマンガ表現に対応した誘導オブジェクト180が被撮影者を示唆表情に導く。被撮影者は自分用の誘導オブジェクト180にあわせて、自らの表情を変化させる。
FIG. 5 is an example of a screen diagram when the guiding
FIG. 5A is a screen diagram when the
図5(b)は、誘導オブジェクト180にあわせて被撮影者が表情を変化させたときの画面図である。ここで、被撮影者A、C、Dの表情は示唆表情と適合したが、被撮影者Bの表情は示唆表情と適合していない。いいかえれば、被撮影者Bの表情と示唆表情パターンとの表情類似度は閾値を超えていない。このように複数の被撮影者のうち、表情類似度が閾値を超えていない被撮影者が1人だけとなると、誘導表示部122は該当する被撮影者Bに対してプロンプトオブジェクト182を表示させる。このような処理方法によれば、集合写真として被撮影者を撮影するときに、被撮影者間で表情を競い合うという遊び感覚を導入することができる。
FIG. 5B is a screen view when the photographed person changes his / her facial expression in accordance with the guiding
誘導表示部122は、複数の被撮影者のうち、表情類似度が最も高い被撮影者に対して所定のオブジェクト(以下、「適合オブジェクト」とよぶ)を表示させてもよい。あるいは、適合オブジェクトの数や動きによって表情類似度の大きさを通知してもよい。また、表情類似度が低い被撮影者にだけ誘導オブジェクト180を表示してもよい。たとえば、図5(b)においては、被撮影者Bにだけ誘導オブジェクト180を表示してもよい。このような表示方法によれば、表情をうまく作れていない被撮影者を所定表情に導くためのプロンプトとして誘導オブジェクト180を活用できる。
The
撮影に先立って、ユーザは被撮影者の数を登録しておいてもよい。頭部特定部142により登録数分の顔領域が検出されたことを条件として、撮像または撮影が開始されるとしてもよい。検出された顔の数が登録数に満たないときには、表示部120は集合を促すメッセージを画面表示させてもよい。
Prior to shooting, the user may register the number of subjects. Imaging or photographing may be started on the condition that the number of registered face areas has been detected by the
図6は、被撮影者が複数の場合における撮像画像上に誘導オブジェクト180が表示されるときの画面図の別例である。
図6(a)は、誘導オブジェクト180が表示されたときの画面図である。同図においては、被撮影者A〜Eの5名が撮像対象となっている。頭部特定部142は、5名の顔領域を検出する。オブジェクト選択部152は、全被撮影者を対象として星のマークを模した誘導オブジェクト180を選択している。この星のマークの誘導オブジェクト180は「笑った表情」を示唆表情とする。誘導表示部122は、この誘導オブジェクト180を撮像画像全体に複数個漂わせる。各被撮影者は、星を模した誘導オブジェクト180が画面全体に表示されると、自らの表情を笑った表情に変化させることになる。
FIG. 6 is another example of a screen view when the guiding
FIG. 6A is a screen diagram when the
図6(b)は、誘導オブジェクト180にあわせて被撮影者が表情を変化させたときの画面図である。ここで被撮影者A〜Eのうち、被撮影者Cの表情類似度が最も高く、被撮影者Dの表情類似度が最も低いとする。すると、誘導表示部122は、誘導オブジェクト180を被撮影者Cの顔の周辺に多く集まるように移動させる。一方、被撮影者Dの周りからは誘導オブジェクト180が離れていく。このような処理方法によっても、被撮影者間で表情を競い合うという遊び感覚を導入することができる。
FIG. 6B is a screen diagram when the photographed person changes his / her facial expression in accordance with the
画質制御部162は、複数の被撮影者のうち表情類似度が大きい被撮影者の顔を大きく、表情類似度が小さい被撮影者の顔を小さくして撮影画像を記録してもよい。画質制御部162は、表情類似度が大きい被撮影者の顔は高い解像度で、表情類似度が小さい被撮影者は低い解像度で撮影画像を記録してもよい。このように画質制御部162が表情類似度に応じて撮像画像の内容を変化させることにより、被撮影者間で表情を競い合うという遊び感覚を導入することができる。
The image
図7は、被撮影者の表情を誘導して撮影画像を取得する処理過程を示すフローチャートの別例である。
同図において、S10〜S16までに示す処理の内容は、図3において同等の符号を付した処理内容と同等である。同図に示す処理も所定の時間間隔でくり返されるループ処理である。まず、被撮影者が1人であるとして説明する。S18において、表情判定部144は表情類似度を算出したあと、その表情類似度を記録する。また、このときの撮像画像を一時的に画像保持部170に記録する。次のループのS10において新たな撮像画像が取得されると、S18において再び表情類似度が算出される。このとき、表情判定部144は、新たな撮像画像について算出された表情類似度が既に記録されている表情類似度よりも大きいかを判定する(S30)。いいかえれば、先に取得された撮像画像よりも新たに取得された撮像画像の方が、被撮影者の表情が示唆表情に近くなっているかを判定する。表情類似度の最高値が更新されていなければ(S30のN)、処理はS10に戻り、次の撮像画像についての解析が開始される。更新されていれば(S30のY)、新たに取得された撮像画像が撮影画像として、先に記録されていた撮影画像に対して上書き記録される(S32)。このような処理をくり返し、撮像時間を経過すると(S34のY)、処理は終了する。
以上の処理により、撮像期間中において、表情類似度が最も大きくなったときの撮像画像、すなわち、被撮影者の表情が最も示唆表情に近づいたときの撮像画像を自動的に選択できる。
FIG. 7 is another example of a flowchart showing a process of obtaining a photographed image by guiding the facial expression of the subject.
In the figure, the processing contents shown in S10 to S16 are the same as the processing contents denoted by the same reference numerals in FIG. The process shown in the figure is also a loop process that is repeated at predetermined time intervals. First, it is assumed that there is one person to be photographed. In S18, the facial
With the above processing, it is possible to automatically select a captured image when the facial expression similarity is the highest during the imaging period, that is, a captured image when the facial expression of the subject is closest to the suggested facial expression.
被撮影者が複数の場合、図7に示した処理が被撮影者ごとに実行してもよい。画像記録部160は、全員の表情類似度の平均値が最も大きくなるときの撮像画像を撮影画像として選択する。画像記録部160は、被撮影者ごとのベストショットとなる顔画像を合成して、1枚の撮影画像を生成してもよい。最後に、このような画像の合成方法について説明する。
When there are a plurality of subjects, the process shown in FIG. 7 may be executed for each subject. The
図8は、複数の被撮影者の顔画像から1枚の撮影画像を合成する過程を説明するためのタイムチャートである。
ここでは、被撮影者A〜Eを撮影期間t0〜tnにわたって撮像するとする。具体的には、t0、t1、t2、・・・、tnの計n+1枚の撮像画像が取得される。すなわち、n+1回、図7に示した処理が被撮影者ごとに実行される。
FIG. 8 is a time chart for explaining the process of synthesizing one photographed image from a plurality of face images of subjects.
Here, the imaging over shooting period t 0 ~t n the target participant A-E. Specifically, a total of n + 1 captured images of t 0 , t 1 , t 2 ,..., T n are acquired. That is, the process shown in FIG. 7 is executed for each person to be photographed n + 1 times.
n+1枚の撮像画像のうち、被撮影者Aの表情が最も示唆表情に近づくのは、時刻t2において取得された撮像画像である。画像記録部160は時刻t2の撮像画像から被撮影者Aの顔画像を一時的に記録しておく。被撮影者Bについては時刻ti(3<i<j<n)、被撮影者Cについては時刻t3、被撮影者Dについては時刻tn、被撮影者Eについては時刻tjの顔画像が一時記録される。こうして、5名の被撮影者の表情がそれぞれ示唆表情に最も近づくときのベストショットとなる顔画像が取得される。ただし、各顔画像の取得タイミングは厳密には一致しない。
Of n + 1 of captured images, approaches the expression is most suggested expression of the photographer A is obtained captured image at time t 2. The
合成部164は、撮像期間中の任意の時刻、たとえば、時刻tnにおける撮像画像のうち、各被撮影者の顔領域をベストショットの顔画像と入れ替えることにより、合成画像を生成する。具体的には、時刻tnの撮像画像のうち、被撮影者Aの顔領域を検出し、この顔領域を時刻t2の被撮影者Aの顔画像と差し替える。同様に、被撮影者B、C、Eの顔領域を検出し、各顔領域を時刻ti、時刻t3、時刻tjにおける被撮影者B、C、Eの顔画像と差し替える。被撮影者Eの顔画像は時刻tnにおける撮像画像がベストショットなので差し替えは実行されない。このような処理方法により、被撮影者ごとのベストショットを集合写真に反映させることができる。従来、集合写真の撮影時には、あらかじめ複数枚の写真を撮影し、その中から最も好適な写真を選ぶという方法が一般的であった。これに対し、表情誘導装置100によればこのような作業を発生させることなく好適な集合写真を撮影できる。
Combining
以上、表情誘導装置100について説明した。
本実施例においては、表情誘導装置100が被撮影者の表情と示唆表情が適合するときの撮影画像を取得するとして説明した。これに限らず、被撮影者の表情と示唆表情が適合したことを条件として所定の処理、たとえば、コンピュータゲームのコマンドを実行してもよい。そのような例についても付言しておく。
The facial
In the present embodiment, it has been described that the facial
コンピュータゲームAが実行開始されると、オブジェクト選択部152はさまざまな誘導オブジェクト180を所定のタイミングにて動的に選択する。ユーザは誘導オブジェクト180が切り替わるごとに誘導オブジェクト180にあった表情をする必要がある。誘導オブジェクト180が切り替わってから所定時間、たとえば、3秒以内に誘導オブジェクト180に合った表情であれば適合ポイントとよばれる点数が1点加算され、誘導オブジェクト180に合った表情ができなければ適合ポイントが1点減算される。適合ポイントは50点から開始され、0点になるとゲームオーバーとなる。適合ポイントはそのままゲームのスコアとなってもよい。オブジェクト選択部152は、ゲームが進行するについれて誘導オブジェクト180の切換頻度を高くしたり、誘導オブジェクト180の種類を増やしていくことによって徐々にゲームの難易度が向上するように制御する。このような処理方法により、被撮影者の表情と誘導オブジェクト180が示唆する示唆表情との適合度に応じたゲーム性を実現できる。
When the execution of the computer game A is started, the
誘導オブジェクト180による表情誘導機能にはさまざまな応用場面が考えられる。たとえば、玄関のインタフォンに誘導オブジェクト180を表示し、訪問者が笑顔となったことを条件として鍵を開けることができるように処理してもよい。単なる顔認証ではなく、表情誘導に基づく認証処理により、訪問者の感情をクールダウンさせるという効果を発揮させることができる。誘導オブジェクト180に加えて効果音により被撮影者の表情を誘導してもよい。また、表情だけでなく身振り手振りまで誘導の対象としてもよい。たとえば、うつむく、首をかしげる、胸を張る・・・といったジェスチャーにより、誘導オブジェクト180が示唆する感情を表現してもよい。
Various application scenes can be considered for the expression guidance function by the
表情誘導の対象は被撮影者全員であってもよいし、その一部であってもよい。本実施例に示したように、被撮影者が自分が表情誘導の対象となっていることを認識できるように誘導オブジェクト180を表示させてもよいし、被撮影者には自分が表情誘導の対象となっていることがわからないように誘導オブジェクト180を表示させてもよい。たとえば、図5(a)において、撮像画面の所定位置、たとえば、右上隅に誘導オブジェクト180を表示させる。この誘導オブジェクト180は、実際には被撮影者Aを対象として表示されているが被撮影者A〜Eは、自分が表情誘導の対象となっているかどうかはわからない。被撮影者Aの表情類似度が所定の閾値を超えたときにシャッターが切られることになる。このような処理方法によれば、シャッターを切る権限を持っているのが誰かわからないという遊びの要素を備えた撮影装置を実現できる。
The subject of facial expression guidance may be all of the subject or a part thereof. As shown in the present embodiment, the
以上、本発明を実施例をもとに説明した。この実施例はあくまで例示であり、それらの各構成要素や各処理プロセスの組み合わせにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。 In the above, this invention was demonstrated based on the Example. This embodiment is merely an example, and it will be understood by those skilled in the art that various modifications can be made to the combination of each component and each processing process, and such modifications are also within the scope of the present invention. is there.
請求項に記載の誘導表示部とユーザインタフェース処理部の機能は、本実施例においては主として誘導表示部122によって実現される。
これら請求項に記載の各構成要件が果たすべき機能は、本実施例において示された各機能ブロックの単体もしくはそれらの連係によって実現されることも当業者には理解されるところである。
The functions of the guidance display unit and the user interface processing unit described in the claims are mainly realized by the
It should be understood by those skilled in the art that the functions to be fulfilled by the constituent elements described in the claims are realized by a single function block or a combination of the functional blocks shown in the present embodiment.
100 表情誘導装置、 102 カメラ、 104 モニタ、 106 ユーザ、 110 ユーザインタフェース処理部、 112 入力部、 114 撮像部、 120 表示部、 122 誘導表示部、 124 撮像画像表示部、 130 データ処理部、 140 表情処理部、 142 頭部特定部、 144 表情判定部、 150 誘導処理部、 152 オブジェクト選択部、 154 オブジェクト調整部、 160 画像記録部、 162 画質制御部、 164 合成部、 170 画像保持部、 180 誘導オブジェクト、 182 プロンプトオブジェクト。
DESCRIPTION OF
Claims (13)
撮像中において、撮像されているユーザが視認可能な画面上にユーザの撮像画像を表示させるユーザ表示部と、
ユーザの表情を所望の表情に誘導するための誘導オブジェクトを前記撮像画像上に重ねて表示させる誘導表示部と、
ユーザの表情を検出する表情検出部と、
検出されたユーザの表情と前記所望の表情との適合度を画面上において通知するユーザインタフェース処理部と、
を備えることを特徴とする表情誘導装置。 An imaging unit that acquires a captured image of the user's face from the camera;
A user display unit that displays a captured image of the user on a screen that is visible to the user being imaged during imaging;
A guidance display unit for displaying a guidance object for guiding a user's facial expression to a desired facial expression on the captured image;
A facial expression detection unit for detecting the facial expression of the user;
A user interface processing unit for notifying on the screen the degree of matching between the detected facial expression of the user and the desired facial expression;
A facial expression guidance device comprising:
前記ユーザインタフェース処理部は、前記複数のユーザのうち所定のユーザについて検出された表情と前記所望の表情との適合度を通知することを特徴とする請求項1に記載の表情誘導装置。 When capturing multiple users at the same time,
The facial expression guidance device according to claim 1, wherein the user interface processing unit notifies the degree of matching between a facial expression detected for a predetermined user among the plurality of users and the desired facial expression.
前記ユーザインタフェース処理部は、前記複数のユーザについて検出された複数種類の表情のそれぞれと前記所望の表情との適合度を通知することを特徴とする請求項1に記載の表情誘導装置。 When capturing multiple users at the same time,
The facial expression guidance device according to claim 1, wherein the user interface processing unit notifies the degree of matching between each of a plurality of types of facial expressions detected for the plurality of users and the desired facial expression.
前記ユーザインタフェース処理部は、前記複数のユーザのうちその検出された表情と前記所望の表情との適合度が所定値以下となるユーザを画面上において通知することを特徴とする請求項1に記載の表情誘導装置。 When capturing multiple users at the same time,
The user interface processing unit notifies a user whose degree of matching between the detected facial expression and the desired facial expression is a predetermined value or less on the screen among the plurality of users. Facial expression guidance device.
前記ユーザインタフェース処理部は、検出されたユーザの表情と前記所望の表情とが適合するタイミングを前記撮影処理の実行タイミングとして決定することを特徴とする請求項1から6のいずれかに記載の表情誘導装置。 As a photographing process, an image recording unit that deterministically records a user's captured image on a predetermined recording medium,
The facial expression according to claim 1, wherein the user interface processing unit determines a timing at which the detected facial expression of the user matches the desired facial expression as an execution timing of the photographing process. Guidance device.
前記ユーザインタフェース処理部は、各ユーザについて検出された表情が前記所望の表情と適合したタイミングを実行タイミングとして、ユーザごとに前記撮影処理の実行タイミングを決定し、
前記画像記録部は、それぞれの実行タイミングにおける各ユーザの顔画像を単一の撮像画像に合成して記録することを特徴とする請求項7に記載の表情誘導装置。 When capturing multiple users at the same time,
The user interface processing unit determines the execution timing of the photographing process for each user, with the timing at which the facial expression detected for each user is matched with the desired facial expression as the execution timing,
The facial expression guidance device according to claim 7, wherein the image recording unit combines and records each user's face image at each execution timing into a single captured image.
撮像中において、撮像されているユーザがその画面を視認可能な表示装置と、
表情誘導装置と、を含み、
前記表情誘導装置は、
前記カメラからユーザの顔の撮像画像を取得する撮像部と、
撮像中にユーザの撮像画像を前記表示装置に表示させるユーザ表示部と、
ユーザの表情を所望の表情に誘導するための誘導オブジェクトを前記表示装置の撮像画像上に重ねて表示させる誘導表示部と、
ユーザの表情を検出する表情検出部と、
検出されたユーザの表情と前記所望の表情との適合度を前記表示装置の画面上において通知するユーザインタフェース処理部と、
を備えることを特徴とする表情誘導システム。 A camera that images the user;
A display device that allows the user being imaged to visually recognize the screen during imaging;
A facial expression guidance device,
The facial expression guidance device includes:
An imaging unit that acquires a captured image of the user's face from the camera;
A user display unit that displays a captured image of the user on the display device during imaging;
A guidance display unit for displaying the derived object to induce the user's expression in the desired expression superimposed on the captured image of the display device,
A facial expression detection unit for detecting the facial expression of the user;
A user interface processing unit for notifying on the screen of the display device the degree of matching between the detected facial expression of the user and the desired facial expression;
A facial expression guidance system characterized by comprising:
ユーザの表情を検出するステップと、
検出されたユーザの表情と前記所望の表情が適合したタイミングにおける撮像画像を所定の記録媒体に確定的に記録するステップと、
を実行することを特徴とする表情誘導方法。 Displaying a guidance object for guiding a user's facial expression to a desired facial expression over the user's captured image on a screen that is visible to the user to be imaged;
Detecting a user's facial expression;
Deterministically recording a captured image at a timing at which the detected facial expression of the user and the desired facial expression are matched;
A facial expression guidance method characterized by executing
ユーザの表情を所望の表情に誘導するための誘導オブジェクトを前記撮像画像上に重ねて表示させる機能と、
ユーザの表情を検出する機能と、
検出されたユーザの表情と前記所望の表情が適合したことを条件として、所定の処理を実行する機能と、
をコンピュータに発揮させることを特徴とする表情誘導プログラム。 A function of displaying a captured image of the user's face on a screen visible to the user being imaged during the period in which the user is imaged;
A function of displaying the derived object to induce the user's expression in the desired expression superimposed on the captured image,
A function to detect the user's facial expression;
A function for executing a predetermined process on condition that the detected facial expression of the user and the desired facial expression are matched;
A facial expression guidance program characterized by letting a computer demonstrate its function.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006197503A JP4877762B2 (en) | 2006-07-19 | 2006-07-19 | Facial expression guidance device, facial expression guidance method, and facial expression guidance system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006197503A JP4877762B2 (en) | 2006-07-19 | 2006-07-19 | Facial expression guidance device, facial expression guidance method, and facial expression guidance system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008027086A JP2008027086A (en) | 2008-02-07 |
JP4877762B2 true JP4877762B2 (en) | 2012-02-15 |
Family
ID=39117664
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006197503A Active JP4877762B2 (en) | 2006-07-19 | 2006-07-19 | Facial expression guidance device, facial expression guidance method, and facial expression guidance system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4877762B2 (en) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4973098B2 (en) * | 2006-09-28 | 2012-07-11 | ソニー株式会社 | Image processing apparatus, image processing method, and program |
US20110109770A1 (en) * | 2008-07-17 | 2011-05-12 | Satoshi Katoh | Imaging apparatus, imaging method, and program |
JP5003666B2 (en) * | 2008-12-15 | 2012-08-15 | 株式会社Jvcケンウッド | Imaging apparatus, imaging method, image signal reproducing apparatus, and image signal reproducing method |
JP5294318B2 (en) * | 2009-01-21 | 2013-09-18 | 任天堂株式会社 | Information processing program and information processing apparatus |
JP2012169777A (en) * | 2011-02-10 | 2012-09-06 | Sony Corp | Information processor, information processing method, and program |
JP5807399B2 (en) * | 2011-06-13 | 2015-11-10 | ソニー株式会社 | Information processing apparatus and program |
JP5375988B2 (en) * | 2012-02-13 | 2013-12-25 | 株式会社Jvcケンウッド | Image signal reproducing apparatus, image signal reproducing method, imaging apparatus, and imaging method |
JP2012157010A (en) * | 2012-02-13 | 2012-08-16 | Jvc Kenwood Corp | Imaging apparatus and imaging method |
US20160063317A1 (en) * | 2013-04-02 | 2016-03-03 | Nec Solution Innovators, Ltd. | Facial-expression assessment device, dance assessment device, karaoke device, and game device |
JP5654148B2 (en) * | 2014-01-09 | 2015-01-14 | オリンパスイメージング株式会社 | Digital camera and composite image display method of digital camera |
JP5774731B2 (en) * | 2014-01-09 | 2015-09-09 | オリンパス株式会社 | Digital camera and composite image display method of digital camera |
JP5963921B2 (en) * | 2015-07-01 | 2016-08-03 | オリンパス株式会社 | Digital camera and composite image display method of camera |
WO2017051577A1 (en) * | 2015-09-25 | 2017-03-30 | ソニー株式会社 | Emotional response inducement system and emotional response inducement method |
WO2017187692A1 (en) * | 2016-04-27 | 2017-11-02 | ソニー株式会社 | Information processing device, information processing method, and program |
KR101852679B1 (en) * | 2016-07-27 | 2018-04-27 | 한국 한의학 연구원 | Apparatus and method for extracting tongue region from face image |
JP7098131B2 (en) * | 2017-12-28 | 2022-07-11 | シヤチハタ株式会社 | Authentication image acquisition device, authentication image acquisition system, and authentication image acquisition method |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003219218A (en) * | 2002-01-23 | 2003-07-31 | Fuji Photo Film Co Ltd | Digital camera |
JP2004046591A (en) * | 2002-07-12 | 2004-02-12 | Konica Minolta Holdings Inc | Picture evaluation device |
JP4355823B2 (en) * | 2003-01-21 | 2009-11-04 | 庸美 徳原 | Information processing device for facial expressions |
JP2005242566A (en) * | 2004-02-25 | 2005-09-08 | Canon Inc | Image composition device and method |
JP4003793B2 (en) * | 2005-11-24 | 2007-11-07 | ソニー株式会社 | Video recording device |
-
2006
- 2006-07-19 JP JP2006197503A patent/JP4877762B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2008027086A (en) | 2008-02-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4877762B2 (en) | Facial expression guidance device, facial expression guidance method, and facial expression guidance system | |
US10360715B2 (en) | Storage medium, information-processing device, information-processing system, and avatar generating method | |
JP6025690B2 (en) | Information processing apparatus and information processing method | |
JP6809226B2 (en) | Biometric device, biometric detection method, and biometric detection program | |
JP4640456B2 (en) | Image recording apparatus, image recording method, image processing apparatus, image processing method, and program | |
JP4898532B2 (en) | Image processing apparatus, photographing system, blink state detection method, blink state detection program, and recording medium on which the program is recorded | |
JP4717539B2 (en) | Imaging apparatus and imaging method | |
JP6049448B2 (en) | Subject area tracking device, control method thereof, and program | |
JP5959923B2 (en) | Detection device, control method thereof, control program, imaging device and display device | |
US9014475B2 (en) | Image pickup apparatus and photographing method of image pickup apparatus | |
JP2015088096A (en) | Information processor and information processing method | |
JP2015088095A (en) | Information processor and information processing method | |
JP2006101186A (en) | Camera | |
JP5949030B2 (en) | Image generating apparatus, image generating method, and program | |
JP2015088098A (en) | Information processor and information processing method | |
JP2007300562A (en) | Image processing apparatus and image processing method | |
JP2009117975A (en) | Image pickup apparatus and method | |
JP2014050022A (en) | Image processing device, imaging device, and program | |
CN102238335B (en) | Photographic device and image data generating method | |
JPWO2022074865A5 (en) | LIFE DETECTION DEVICE, CONTROL METHOD, AND PROGRAM | |
JP2008186075A (en) | Interactive image display device | |
WO2019044135A1 (en) | Information processing device, information processing method, and program | |
CN115205921A (en) | Electronic device and control method | |
JP2008219451A (en) | Imaging device and control method thereof | |
JP2013197827A (en) | Photography auxiliary device and method, and photographing device and camera-equipped portable terminal mounting the photography auxiliary device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090420 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20101125 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20110127 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110428 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110510 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110708 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111122 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111122 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 4877762 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141209 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |