JP4809869B2 - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP4809869B2
JP4809869B2 JP2008137188A JP2008137188A JP4809869B2 JP 4809869 B2 JP4809869 B2 JP 4809869B2 JP 2008137188 A JP2008137188 A JP 2008137188A JP 2008137188 A JP2008137188 A JP 2008137188A JP 4809869 B2 JP4809869 B2 JP 4809869B2
Authority
JP
Japan
Prior art keywords
execution result
image
image processing
preprocessing
execution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008137188A
Other languages
English (en)
Other versions
JP2009282931A (ja
Inventor
徹悟 稲田
章男 大場
博之 勢川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc, Sony Computer Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Priority to JP2008137188A priority Critical patent/JP4809869B2/ja
Priority to EP09754476A priority patent/EP2287805A1/en
Priority to US12/993,858 priority patent/US8223220B2/en
Priority to PCT/JP2009/050715 priority patent/WO2009144968A1/ja
Publication of JP2009282931A publication Critical patent/JP2009282931A/ja
Application granted granted Critical
Publication of JP4809869B2 publication Critical patent/JP4809869B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30221Sports video; Sports image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理装置、画像処理方法及びプログラムに関する。
入力された画像内の領域を特定する画像処理装置が知られている。具体的には、例えば、特許文献1には、解像度の異なる画像を用いて、目などの所定の部位を正確に追尾することができる画像処理装置が開示されている。画像内の領域を特定する技術として、近年、パターンマッチングなどの手法を用いて、人物などが撮影された画像内の、顔や目や鼻などといったパーツを示す領域を認識する画像認識技術が知られている。
米国特許第6714660号明細書
画像内の領域を特定する他の方法としては、画像内の各画素の色に基づいて領域を特定する方法が挙げられる。具体的には、例えば、画像内の黒い画素の領域を、目が示されている領域として特定する方法が挙げられる。
ここで、画像認識技術による方法と、画像内の各画素の色に基づく方法とを組み合わせて、画像内の領域を特定すると、これらの方法のどちらかだけを用いて画像内の領域を特定するよりも、画像内の領域を精度よく特定することができる。
しかしながら、画像認識技術により画像内の領域を特定するのに要する時間は、画像内の各画素の色に基づいて画像内の領域を特定するのに要する時間よりも長いため、二つの方法を組み合わせて用いる場合は、画像内の各画素の色に基づく方法を単独で用いる場合よりも、画像内の領域を特定するための時間が大幅に増加してしまう。
このことは、短時間で実行されるが精度が低い画像処理と、精度が高いが時間がかかる画像処理とを組み合わせて、画像処理の実行結果を得る場合一般にあてはまる。
本発明は、上記課題に鑑みてなされたものであって、画像処理の精度を高く保ちつつ、総処理時間の大幅な増加を防ぐことができる画像処理装置、画像処理方法及びプログラムを提供することを目的とする。
上記課題を解決するために、本発明に係る画像処理装置は、所定の撮像対象を撮像して生成される画像を順次取得する画像取得手段と、順次到来する処理期間にて、前記画像取得手段により取得される前記画像に対して画像処理を実行する画像処理実行手段と、一部の前記処理期間にて、当該処理期間以前に前記画像取得手段により取得された前記画像に対する前処理の実行結果を出力する前処理実行結果出力手段と、前記前処理実行結果出力手段により出力される前記実行結果を、少なくとも次に前記前処理実行結果出力手段により前記実行結果が出力されるまで保持し続ける実行結果保持手段と、を含み、前記画像処理実行手段が、前記画像取得手段により取得される前記画像に対して、前記実行結果保持手段に保持されている前記実行結果を適用して前記画像処理を実行することを特徴とする。
また、本発明に係る画像処理方法は、所定の撮像対象を撮像して生成される画像を順次取得する画像取得ステップと、順次到来する処理期間にて、前記画像取得ステップにより取得される前記画像に対して画像処理を実行する画像処理実行ステップと、一部の前記処理期間にて、当該処理期間以前に前記画像取得ステップにより取得された前記画像に対する前処理の実行結果を出力する前処理実行結果出力ステップと、前記前処理実行結果出力ステップにより出力される前記実行結果を、少なくとも次に前記前処理実行結果出力ステップにより前記実行結果が出力されるまで実行結果保持手段に続けて保持させるステップと、を含み、前記画像処理実行ステップが、前記画像取得ステップにより取得される前記画像に対して、前記実行結果保持手段に保持されている前記実行結果を適用して前記画像処理を実行することを特徴とする。
また、本発明に係るプログラムは、所定の撮像対象を撮像して生成される画像を順次取得する画像取得手段、前記画像取得手段が取得する前記画像に対して前処理を実行する前処理実行手段、前記前処理の実行結果を出力する前処理実行結果出力手段、前記前処理実行結果出力手段により出力される前記実行結果を、少なくとも次に前記前処理実行結果出力手段により前記実行結果が出力されるまで実行結果保持手段に続けて保持させる手段、前記画像取得手段が取得する前記画像に対して、前記実行結果保持手段に保持されている前記実行結果を適用して、画像処理を実行する画像処理実行手段、としてコンピュータを機能させることを特徴とする。
また、上記のプログラムはコンピュータ読み取り可能な情報記憶媒体に格納することもできる。
本発明によると、画像処理実行手段が、前処理の実行結果を適用して画像処理を実行するので、前処理と画像処理とを組み合わせて実行結果を得ることができる。また、本発明によると、画像処理実行手段が、実行結果保持手段に保持されている前処理の実行結果を適用して画像処理を実行するので、前処理と画像処理とを組み合わせて実行結果を得る際に発生する可能性がある、総処理時間の大幅な増加を防ぐことができる。よって、本発明によると、画像処理の精度を高く保ちつつ、総処理時間の大幅な増加を防ぐことができる。
本発明の一態様では、前記前処理実行結果出力手段が、前記画像内の少なくとも1つの画素の色に基づいて、前記画像処理を実行する際の基準となる基準色を特定する前記前処理の実行結果を出力し、前記画像処理実行手段が、前記基準色と前記画像内の各画素の色との比較結果に基づいて、前記画像内の画素を特定する前記画像処理を実行することを特徴とする。こうすれば、前処理によって特定された、画像内の画素の色の情報を画像処理に用いることができる。
また、本発明の一態様では、前記前処理実行結果出力手段が、前記画像内の位置を特定する前記前処理により特定される前記位置に対応する、前記画像処理実行手段により前記画像処理が実行される前記画像内の領域を示す前記実行結果を出力し、前記画像処理実行手段が、前記実行結果が示す前記画像内の領域に基づいて、当該領域内の位置を特定する前記画像処理を実行することを特徴とする。こうすれば、画像処理実行手段は、前処理によって特定される画像内の位置に対応する、画像処理が実行される画像内の領域内の位置を特定するので、前処理によって特定される画像内の位置を示す情報を、画像処理実行手段による画像内の位置を特定する画像処理に用いることができる。
また、この態様では、前記画像処理実行手段が、前記実行結果が示す前記画像内の領域に基づいて、当該領域内の複数の位置を特定して、当該複数の位置の関係に基づいて方向を示す方向データを生成する前記画像処理を実行するようにしてもよい。こうすれば、画像取得手段が取得する画像に基づいて、画像内の方向を特定することができる。
また、この態様では、前記前処理実行結果出力手段が出力する前記実行結果が示す、前記画像処理実行手段により前記画像処理が実行される前記画像内の領域のサイズが、前記画像内の領域を特定する前記前処理により特定される領域のサイズに基づいて決定されるようにしてもよい。こうすれば、画像処理が実行される画像内の領域のサイズを、前処理が実行される画像内の領域との関係に基づいて決定することができる。
以下、本発明の一実施形態について図面に基づき詳細に説明する。
図1は、本実施形態に係る画像処理装置10のハードウェア構成の一例を示すハードウェア構成図である。図1に示すように、本実施形態に係る画像処理装置10は、制御部12、記憶部14、ユーザインタフェース(UI)部16、撮像部18を備えている。
制御部12はCPU等のプログラム制御デバイスであり、記憶部14に格納されたプログラムに従って動作する。なお、プログラムは、例えば、CD−ROM、DVD−ROMなどのコンピュータ可読な情報伝達媒体に格納することができ、情報伝達媒体を介して、あるいは、インターネットなどの通信ネットワークを介して画像処理装置10に供給される。
記憶部14は、RAM等の記憶素子やハードディスクなどである。記憶部14には、制御部12によって実行される、本発明に係るプログラムなどが格納される。また、記憶部14は、制御部12のワークメモリとしても動作する。
UI部16は、キーボード、ディスプレイ、マウスなどであり、利用者が行った操作の内容を制御部12に出力する。また、このUI部16は、制御部12から入力される指示に従って情報を表示出力する。
撮像部18は、例えば、公知のデジタルカメラを含んで構成され、所定時間(例えば1/60秒)ごとに、白黒、グレイスケール又はカラーの画像(例えば、JPEG形式の画像)を生成する。
図2は、本実施形態に係る画像処理装置10の機能ブロック図である。図2に示すように、本実施形態に係る画像処理装置10は、機能的には、画像取得部20、前処理実行結果出力部22、実行結果保持部24、画像処理実行部26、を含むものとして機能する。これらの機能は、画像処理装置10の制御部12、記憶部14、UI部16、又は、撮像部18により実現されている。
画像取得部20は、所定の撮像対象を撮像して生成される画像を順次取得する。本実施形態においては、撮像部18が、所定時間ごとに、図3に示すようなユーザを示すユーザ画像28を生成する。そして、画像取得部20は、撮像部18により撮像されるこれらのユーザ画像28を順次取得する。なお、撮像部18は定期的に画像を生成する必要はない。また、画像取得部20が定期的に画像を取得する必要はない。なお、画像取得部20が、取得した画像を記憶部14に順次書き込むようにしてもよい。
前処理実行結果出力部22は、一部の処理期間にて、その処理期間以前に画像取得部20により取得された画像に対する前処理の実行結果を出力する。なお、処理期間の詳細については後述する。本実施形態においては、前処理実行結果出力部22が、実行結果の出力に加え、前処理の実行も行う。なお、本実施形態に係る画像処理装置に接続された外部装置が前処理を実行して、その実行結果を前処理実行結果出力部22が出力するようにしてもよい。本実施形態における前処理実行結果出力部22が実行する前処理は、具体的には、公知のパターン認識技術や顔認識技術などを用いて、画像(本実施形態ではユーザ画像28)から、瞳や、顔や、鼻や、口の位置を認識する処理や、認識された位置の画素の色を判定する処理である。
実行結果保持部24は、前処理実行結果出力部22により出力される実行結果を、少なくとも次に前処理実行結果出力部22により実行結果が出力されるまで保持し続ける。本実施形態における実行結果保持部24が保持する実行結果は、具体的には、例えば、前処理により認識された瞳や、顔や、鼻や、口の位置のユーザ画像28内における位置を示す位置データや、認識された位置の画素の色を示す色データなどである。また、実行結果保持部24が、前処理実行結果出力部22により出力される最新の実行結果を保持するようにしてもよい。このとき、実行結果保持部24が、前処理実行結果出力部22により出力される最新ではない実行結果を削除するようにしても構わない。
画像処理実行部26は、順次到来する処理期間にて、画像取得部20により取得される画像(本実施形態においてはユーザ画像28)に対して、実行結果保持部24に保持されている実行結果を適用して、画像処理を実行する。本実施形態では、処理期間は、具体的には、画像処理実行部26により画像処理が実行される時点から、その次に画像処理実行部26により画像処理が実行される時点までの間の期間を指す。なお、処理期間が指す期間は、上述の期間には限定されない。例えば、処理期間は、画像取得部20により画像が取得される時点から、その次に画像取得部20により画像が取得される時点までの間の期間を指してもよい。
なお、処理期間は、画像取得部20により画像が取得されるたびに順次到来するようにしてもよい。また、画像取得部20により画像が所定回(例えば2回)取得されるたびに順次到来するようにしてもよい。
本実施形態において、画像処理実行部26が実行する画像処理は、具体的には、ユーザ画像28内の各画素の色に基づいて、特定の色の画素や、それらの画素を含む領域を特定する画像処理である。
ここで、本実施形態における前処理と画像処理との関係を、図4を参照しながら説明する。なお、図4は、前処理と画像処理との関係の一例を説明する説明図である。
図4に示すように、本実施形態においては、画像取得部20は、所定時間(例えば1/60秒)ごとに、ユーザ画像28を取得している。
そして、本実施形態においては、前処理実行結果出力部22が、公知のパターン認識技術や顔認識技術などを用いて、時刻t1において画像取得部20により取得されたユーザ画像28(ユーザ画像28(t1))から、瞳の位置と、顔を示す顔領域30の位置を認識する(図3参照)。ここで、前処理実行結果出力部22が、鼻の位置、口の位置などを併せて認識するようにしても構わない。
そして、ここで、前処理実行結果出力部22は、前処理の対象となる画像内の少なくとも1つの画素の色に基づいて、画像処理実行部26が画像処理を実行する際の基準となる基準色を特定する前処理の実行結果である基準色データを出力するようにしてもよい。本実施形態においては、具体的には、例えば、前処理実行結果出力部22が、瞳の位置の画素の色を示す瞳色データを生成する。また、前処理実行結果出力部22が、顔領域30内の画素を選択して、その画素の色を示す顔色データも生成する。前処理実行結果出力部22が、鼻の位置を認識している場合には、鼻の位置の画素の色に基づいて、顔色データが示す色を特定するようにしてもよい。このようにして、本実施形態では、前処理実行結果出力部22は、2つの基準色データ(瞳色データ及び顔色データ)を出力する。
そして、本実施形態においては、前処理実行結果出力部22が、認識された瞳の位置に基づいて、瞳の位置を中心とした円形の絞り込み領域32を算出し、この絞り込み領域32のユーザ画像28内における位置を示す絞り込み領域位置データを生成する(図3参照)。なお、絞り込み領域32が円形である必要はなく、例えば四角形などであってももちろん構わない。また、前処理によって特定される画像内の位置とは異なる画像内の位置を、画像処理実行部26による画像処理において特定してもよい。また、前処理実行結果出力部22が、前処理により画像内の領域を特定し、その領域に対応する、その領域よりもサイズが大きな、画像処理が実行される画像内の領域を示す実行結果を出力してもよい。また、前処理実行結果出力部22が、顔領域30のサイズに基づいて絞り込み領域32のサイズを決定するようにしてもよい。このように、前処理実行結果出力部22が出力する実行結果が示す、画像処理実行部26により画像処理が実行される画像内の領域のサイズが、画像内の領域を特定する前処理により特定される領域のサイズに基づいて決定されてもよい。
そして、本実施形態においては、前処理実行結果出力部22は、時刻t2に、時刻t1に画像取得部20により取得されたユーザ画像28に基づいて生成される、絞り込み領域位置データと、瞳色データと、顔色データとを含む実行結果(実行結果(t1))を実行結果保持部24に出力する。なお、後述するように、絞り込み領域位置データが示す絞り込み領域32は、画像処理実行部26により画像処理が実行されるユーザ画像28内の領域に対応している。このように、前処理実行結果出力部22が、画像内の位置を特定する前処理により特定される位置に対応する、画像処理実行部26により画像処理が実行される画像内の領域を示す実行結果を出力してもよい。なお、前処理実行結果出力部22は、時刻t1から時刻t2までの間中ずっと上述の前処理を実行しても構わない。また、時刻t1と時刻t2との間に上述の前処理が完了しており、時刻t2において実行結果を実行結果保持部24に出力するようにしても構わない。そして、実行結果保持部24は、前処理実行結果出力部22が出力する実行結果を保持する。
そして、前処理実行結果出力部22が、時刻t2において画像取得部20により取得されたユーザ画像28(ユーザ画像28(t2))に基づいて、上述の前処理を実行し、時刻t3に、絞り込み領域位置データと、瞳色データと、顔色データとを含む実行結果(実行結果(t2))を実行結果保持部24に出力する。そして、前処理実行結果出力部22が、時刻t3において画像取得部20により取得されたユーザ画像28(ユーザ画像28(t3))に基づいて、上述の前処理を実行し、時刻t4に、絞り込み領域位置データと、瞳色データと、顔色データとを含む実行結果(実行結果(t3))を実行結果保持部24に出力する。このようにして、前処理実行結果出力部22は、実行結果を順次実行結果保持部24に出力する。本実施形態では、図4に示すように、前処理実行結果出力部22が実行結果を出力する間隔が、等間隔である必要はない。なお、前処理実行結果出力部22が、画像取得部20が画像を取得する間隔よりも長い、所定の間隔で、実行結果を出力するようにしても構わない。
そして、本実施形態においては、画像処理実行部26は、例えば、時刻t2に画像取得部20が取得したユーザ画像(ユーザ画像28(t2))から時刻t3に画像取得部20が取得したユーザ画像(ユーザ画像28(t3))の1つ前に画像取得部20が取得したユーザ画像28に対して、時刻t1に画像取得部20により取得されたユーザ画像28(ユーザ画像28(t1))に基づいて前処理実行結果出力部22が実行結果保持部24に出力する実行結果、すなわち、時刻t2から時刻t3までの間に実行結果保持部24に保持されている実行結果(実行結果(t1))を適用して画像処理を実行する。同様に、画像処理実行部26は、時刻t3に画像取得部20が取得したユーザ画像(ユーザ画像28(t3))から時刻t4に画像取得部20が取得したユーザ画像(ユーザ画像28(t4))の1つ前に画像取得部20が取得したユーザ画像28に対して、時刻t2に画像取得部20により取得されたユーザ画像28に基づいて前処理実行結果出力部22が実行結果保持部24に出力する実行結果、すなわち、時刻t3から時刻t4までの間に実行結果保持部24に保持されている実行結果(実行結果(t2))を適用して画像処理を実行する。また、画像処理実行部26は、時刻t4以降に画像取得部20が取得した画像(画像(t4)以降)に対して、時刻t3に画像取得部20により取得されたユーザ画像28に基づいて前処理実行結果出力部22が実行結果保持部24に出力する実行結果、すなわち、時刻t4より後に実行結果保持部24に保持されている実行結果(実行結果(t3))を適用して画像処理を実行する。
なお、時刻t2より前の時点については、画像処理実行部26は、時刻t1より前である時刻t0に画像取得部20により取得されたユーザ画像28に基づいて前処理実行結果出力部22が実行結果保持部24に出力する実行結果(実行結果(t0))を適用して画像処理を実行する。
このようにして、画像処理実行部26が、順次到来する処理期間にて、画像取得部20により取得される画像に対して、実行結果保持部24に保持されている実行結果を適用して、画像処理を実行する。このように、実行結果保持部24が保持している実行結果は、画像処理実行部26による画像処理の実行に複数回用いられる場合がある。
以上の例のように、画像取得部20が取得する画像に基づいて生成される実行結果を前処理実行結果出力部22が実行結果保持部24に出力し、その画像が取得された後に画像取得部20が取得する画像に対して実行結果保持部24に保持されている実行結果を適用して画像処理を実行してもよい。すなわち、画像処理が実行されるユーザ画像28と、そのユーザ画像28に適用される前処理の実行結果の基礎となるユーザ画像28と、が異なっていてもよい。なお、画像取得部20が取得する同一の画像に対して前処理と画像処理とを連続して実行するような場合があっても構わない。
本実施形態においては、画像処理実行部26は、後述する視線方向ベクトルデータを生成する画像処理を実行する。ここで、本実施形態において、順次到来する処理期間にて、画像取得部20により取得されるユーザ画像28に基づいて、視線方向ベクトルデータを生成するまでの画像処理の流れの一例を、図5に示すフロー図を参照しながら説明する。ここで、画像処理実行部26による画像処理の対象となるユーザ画像28の一例を図6Aに示す。
まず、画像処理実行部26が、画像取得部20により取得されるユーザ画像28内の、実行結果保持部24に保持されている絞り込み領域位置データが示す、絞り込み領域32の位置に対応する対応領域34を特定する(S101)。
そして、画像処理実行部26が、対応領域34内の各画素の色と、実行結果保持部24に保持されている瞳色データが示す色とを比較して、対応領域34内の、瞳が表示されている画素を特定する。そして、画像処理実行部26が、特定された画素に基づいて、対応領域34内の瞳が表示されている瞳領域36を特定する(S102)。このように、画像処理実行部26が、基準色(本実施形態では、瞳色データが示す色)と画像(本実施形態では、対応領域34)内の各画素の色との比較結果に基づいて、画像(本実施形態では、対応領域34)内の画素を特定するようにしてもよい。また、前処理実行結果出力部22により、画像処理実行部26による画像処理が実行される画像内の領域(本実施形態では、対応領域34)を示す実行結果が出力される際に、画像処理実行部26が、この実行結果が示す画像内の領域(本実施形態では、対応領域34)に基づいて、この領域内の位置(本実施形態では、瞳領域36)を特定するようにしてもよい。
本実施形態においては、図3に示す、前処理実行結果出力部22による前処理の対象となるユーザ画像28と、図6Aに示す、画像処理実行部26による画像処理の対象となるユーザ画像28とは、画像取得部20により取得されるタイミングが異なるため、ユーザの瞳が示されている画像内の位置が異なっている。それにも関わらず、前処理実行結果出力部22が、前処理により特定される領域を含む、その領域よりもサイズが大きな、画像処理が実行される画像内の領域を示す実行結果を出力しているので、画像処理実行部26がユーザの瞳が示されている画像内の位置を特定することができる。
また、本実施形態においては、対応領域内の各画素の色と、実行結果保持部24に保持されている顔色データが示す色と、を比較して、対応領域内の画素から顔色データが示す色に対応する色の画素を取り除くことで、目(ここでは、瞳及び白目)が表示されている画素を特定する。そして、画像処理実行部26が、特定された画素に基づいて、対応領域内の目が表示されている目領域38を特定する(S103)。
そして、画像処理実行部26は、目領域38の重心(目領域重心38a)から瞳領域36の重心(瞳領域重心36a)へ向かう、画像内の視線方向40を示す視線方向ベクトルデータを生成する(S104)(図6B参照)。なお、図6Bは、図6Aに示すユーザ画像28内の目領域38を拡大した様子の一例を示す図である。このように、画像処理実行部26が、前処理実行結果出力部22が出力する実行結果が示す、画像処理実行部26による画像処理の対象となる画像内の領域に基づいて、この領域内の複数の位置を特定して、これらの複数の位置の関係に基づいて方向を示す方向データを生成するようにしてもよい。このとき、目領域38の重心や瞳領域36の重心は、画素の大きさの単位よりも細かい大きさの単位で算出するようにしても構わない。なお、画像処理実行部26が、視線方向ベクトルデータを生成する基礎となるデータは、瞳領域重心36aや目領域重心38aに限定されない。
このようにして、本実施形態では、方向データが生成される。なお、画像処理実行部26が実行する画像処理は方向データを生成する画像処理には限定されない。例えば、画像処理実行部26が、画像内の領域を特定する画像処理を実行しても構わない。
なお、画像処理実行部26により生成された方向データや、画像処理実行部26により特定された画像内の画素や領域を用いて、画像処理実行部26がさらなる画像処理を実行するようにしてもよい。なお、このとき、上述の前処理や画像処理が実行される対象となる画像とは異なる画像に対してさらなる画像処理を実行しても構わない。
具体的には、例えば、画像処理実行部26が、画像内の瞳領域36に対して、炎の画像を重ねるような画像処理を行うことで、目から炎が出ているような映像効果を画像に施して、この画像をディスプレイなどのUI部16に出力するようにしてもよい。また、例えば、図7に示すように、画像処理実行部26が、視線方向ベクトルデータが示す、ユーザ画像28内の視線方向40に基づいて、その視線方向40に目から炎が出ているような映像効果を画像に施して、この画像をディスプレイなどのUI部16に出力するようにしてもよい。
上述した画像処理の応用例として、例えば図8A及び図8Bに示す、サッカーフィールドを示すフィールド画像42に対して、特定チームの選手から炎が出ているような映像効果を施して、このフィールド画像42をディスプレイなどのUI部16に出力するようにしてもよい。
具体的には、例えば、前処理実行結果出力部22が、図8Aに示す、画像取得部20が取得したフィールド画像42から、公知のパターン認識技術や人物認識技術などを用いて、人物の位置を認識する。このとき、図8Aに示すように、前処理実行結果出力部22が、複数の人物の位置を認識しても構わない。そして、前処理実行結果出力部22が、認識した人物の位置に基づいて、人物の位置を中心とした楕円形の絞り込み領域32を算出し、この絞り込み領域32のフィールド画像42内のおける位置を示す絞り込み領域位置データを生成する。そして、前処理実行結果出力部22が、生成された絞り込み領域位置データを実行結果保持部24に出力する。
そして、画像処理実行部26が、図8Bに示す、前処理が実行されるフィールド画像42が画像取得部20により取得された時点よりも後に画像取得部20が取得したフィールド画像42内の、実行結果保持部24に保持されている絞り込み領域位置データが示す、絞り込み領域32の位置に対応する対応領域34を特定する。そして、画像処理実行部26が、この対応領域34内の各画素の色と、予め定められたユニフォームの色とを比較して、対応領域34内の、ユニフォームが表示されている画素を特定する。そして、画像処理実行部26が、特定された画素に基づいて、対応領域34内のユニフォームが表示されているユニフォーム領域44を特定する。
そして、画像処理実行部26は、対応領域34の重心(対応領域重心34a)から、ユニフォーム領域44の重心(ユニフォーム領域重心44a)へ向かう方向(移動方向46)を示す移動方向ベクトルデータを生成する(図8C参照)。なお、図8Cは、フィールド画像内の対応領域を拡大した様子の一例を示す図である。そして、画像処理実行部26が、移動方向46と逆方向に、炎が出ているような映像効果をフィールド画像42に施す。
上述の処理では、前処理実行結果出力部22により前処理が実行されるフィールド画像42が取得された時点よりも、画像処理実行部26により画像処理が実行されるフィールド画像42が取得された時点の方が後であるので、移動方向ベクトルデータが示す移動方向46を、サッカー選手などの人物が移動している方向として取り扱い、移動方向46と逆方向に炎が出ているような映像効果を施すことができる。なお、画像処理実行部26が、移動方向ベクトルデータを生成する基礎となるデータは、対応領域重心34aやユニフォーム領域重心44aに限定されない。
また、上述の方法と同様の方法により、図9に示すように、サッカー中継において撮像される動画像を構成する一連のフィールド画像42に対して、上述の画像処理を施して、例えば、ボールから炎が出ているような映像効果を施して、このフィールド画像42をディスプレイなどのUI部16に出力するようにしてもよい。
なお、もちろん、炎が出ているような映像効果以外の映像効果を動画像に対して施して、この動画像をディスプレイなどのUI部16に出力するようにしてもよい。このように、例えば、画像取得部20が取得する一連の画像に対して、画像処理実行部26が上記の処理の流れで画像処理を実行して、それぞれの画像に映像効果を施して、これらの画像をディスプレイなどのUI部16に出力するようにしてもよい。また、画像処理実行部26が、映像効果が施された複数の画像を組み合わせて、動画像を生成して、この動画像をディスプレイなどのUI部16に出力するようにしてもよい。
また、画像処理実行部26により生成された方向データや、画像処理実行部26により特定された画像内の画素や領域を用いて、画像処理以外の情報処理を実行するようにしてもよい。具体的には、例えば、本実施形態における画像処理装置10をゲーム装置に応用する場合において、視線方向ベクトルデータが示す、ユーザ画像28内の視線方向40に基づいて、ゲームの動作を変えるようにすることが考えられる。
本実施形態によれば、前処理実行結果出力部22が、公知のパターン認識技術や顔認識技術などを用いて、画像取得部20が取得する、ユーザを示す画像内の絞り込み領域32を特定し、画像処理実行部26が、その絞り込み領域32内の瞳領域36を特定することで、ユーザの瞳を示す瞳領域36を精度よく特定することができる。
そして、画像処理実行部26が瞳領域36を特定する際に、実行結果保持部24に保持されている、前処理実行結果出力部22が出力した実行結果を適用することで、ユーザを示す画像内の絞り込み領域32を特定する画像処理を実行して、さらに続けて、その画像に対して絞り込み領域32内の瞳領域36を特定する画像処理を実行する場合と比較して、画像処理に要する総処理時間を短縮することができる。そのため、二つの方法を組み合わせて画像処理を実行しているにも関わらず、画像内の各画素の色に基づく画像処理を実行する場合よりも、画像処理に要する総時間の大幅な増加を防ぐことができる。
このようにして、本実施形態によれば、画像処理の精度を高く保ちつつ、総処理時間の大幅な増加を防ぐことができる。また、本実施形態によれば、前処理の実行結果が出力されるのを待たずに、実行結果保持部24に保持されている実行結果を用いて画像処理実行部26が画像処理を実行することができる。そして、画像に対して前処理を実行するのに長い時間を要する場合や、画像に対して前処理が実行するのに必要な時間のばらつきが大きい場合には、画像処理に要する総時間に与える影響を特に抑えることができる。
なお、本発明は上記実施形態に限定されるものではない。
例えば、前処理実行結果出力部22が、画像取得部20により取得された画像に基づいて前処理結果画像を生成してもよい。そして、画像処理実行部26が、画像取得部20により取得された画像に基づいて画像処理結果画像を生成してもよい。このとき、画像処理実行部26が、画像取得部20により取得された画像全体に対して画像処理を実行して、その結果に基づいて画像処理結果画像を生成してもよい。そして、画像処理実行部26が、前処理結果画像と、画像処理結果画像とに基づいて、画像取得部20により取得された画像内の画素や領域を特定する画像処理を実行するようにしてもよい。
上述の処理の一具体例について、以下に説明する。
まず、前処理実行結果出力部22が、時刻t1に画像取得部20により取得されたユーザ画像28に基づいて、絞り込み領域32内と絞り込み領域32外とが区別された前処理結果二値画像(より具体的には、例えば、絞り込み領域32内の画素が黒色で表示され、絞り込み領域32外の画素が白色で表示された、ユーザ画像28と同サイズの前処理結果二値画像)を生成し、時刻t2に、実行結果保持部24に出力する。
そして、画像処理実行部26が、時刻t2に画像取得部20により取得されたユーザ画像28全体に対して、所定の色(例えば、瞳の色)が表示されている画素を特定する処理を実行して、特定された画素と、それ以外の画素とが区別された画像処理結果二値画像(より具体的には、例えば、特定された画素は黒色で表示され、それ以外の画素は白色で表示された、ユーザ画像28と同サイズの画像処理結果二値画像)を生成する。
そして、画像処理実行部26が、例えば、実行結果保持部24に保持されている前処理結果二値画像と、上述の処理により生成された画像処理結果二値画像との重ね合わせ演算などにより、マスク画素と、それ以外の画素とを区別した、ユーザ画像28と同サイズのマスク画像を生成する。具体的には、例えば、画像処理実行部26が、前処理結果二値画像においても、画像処理結果二値画像においても、黒色で表示されている画素であるマスク画素を黒色で表示して、それ以外の画素を白色で表示した、ユーザ画像28と同サイズのマスク画像を生成する。
そして、画像処理実行部26が、例えば、画像処理結果二値画像が生成される基礎となったユーザ画像28(時刻t2に画像取得部20により取得されたユーザ画像28)とマスク画像とを重ね合わせて、重ね合わされた画像内のマスク画素に対して、例えば、炎が出ているような映像効果を施す。
なお、上述の処理例では、画像処理実行部26が、時刻t2に画像取得部20により取得されたユーザ画像28に基づいて画像処理結果二値画像を生成しているが、画像処理実行部26が、時刻t2以降に画像取得部20により取得されたユーザ画像28に基づいて画像処理結果二値画像を生成してももちろん構わない。また、上述の処理例では、マスク画像とユーザ画像28とが同サイズであるが、ユーザ画像28とマスク画像が同サイズである必要はない。
また、上述の処理例において、前処理実行結果出力部22が、基準色データ(例えば、瞳色データや顔色データ)を実行結果保持部24に出力して、画像処理実行部26が、実行結果保持部24に保持されている基準色データが示す色が表示されている画素を特定する処理を実行して画像処理結果二値画像を生成するようにしてもよい。
また、上述の処理例において、画像処理実行部26が、それぞれ異なる色に対応する複数の画像処理結果二値画像を生成して、これらの画像処理結果二値画像に基づいて複数のマスク画像を生成するようにしてもよい。
なお、本発明は上記実施形態にも限定されるものではない。
例えば、前処理実行結果出力部22が出力する前処理の実行結果が、前処理の実行に要した時間に基づいて決定されてもよい。具体的には、例えば、絞り込み領域32のサイズが、前処理の実行に要した時間に基づいて決定されてもよい。
また、例えば、前処理に用いる画像の解像度と、画像処理に用いる画像の解像度と、が異なっていても構わない。また、例えば、撮像部18が、前処理に用いる画像よりもズームして画像処理に用いる画像を撮像するようにしても構わない。
また、例えば、画像処理装置10が撮像部18を2つ備えており、前処理に利用する画像と、画像処理に利用する画像を、異なる撮像部18から画像取得部20が取得するようにしても構わない。このとき、例えば、画像処理装置10が広角カメラとハイフレームレートカメラとを備えており、前処理実行結果出力部22が、広角カメラにより撮像される画像に対して前処理を実行した実行結果を実行結果保持部24に出力し、画像処理実行部26が、ハイフレームレートカメラにより撮像される画像に対して、実行結果保持部24に保持されている実行結果を適用して、画像処理を実行するようにしても構わない。また、広角カメラを備える画像処理装置10(具体的には、例えば、据え置き型のゲーム装置など)と、ハイフレームカメラを備える画像処理装置10(具体的には、例えば、携帯型のゲーム装置など)とが連携して、上述の一連の画像処理を実行するようにしてもよい。
また、例えば、撮像部18が、絞り込み領域32に対して、視線方向ベクトルデータが示す視線方向40にずらして、画像処理に用いる画像を撮像するようにしても構わない。
また、例えば、視線方向ベクトルデータを、目領域38の歪みに基づいて、生成するようにしてもよい。また、視線方向ベクトルデータを、目領域38に示す瞳領域36の割合に基づいて推定するようにしてもよい。
また、画像処理装置10は、一つの筐体により構成されていても、複数の筐体により構成されていてもよい。また、画像処理装置10が撮像部18を備えず通信部を備え、画像処理装置10が通信機能を有する画像処理装置10外の撮像部18と通信するような構成としてもよい。
本発明の一実施形態に係る画像処理装置のハードウェア構成の一例を示す図である。 本発明の一実施形態に係る画像処理装置の機能ブロック図である。 ユーザ画像の一例を示す図である。 前処理と画像処理との関係の一例を説明する説明図である。 画像処理装置で行われる処理のフローの一例を示す図である。 ユーザ画像の一例を示す図である。 ユーザ画像内の目領域を拡大した様子の一例を示す図である。 ユーザ画像の一例を示す図である。 フィールド画像の一例を示す図である。 フィールド画像の一例を示す図である。 フィールド画像内の対応領域を拡大した様子の一例を示す図である。 フィールド画像の一例を示す図である。
符号の説明
10 画像処理装置、12 制御部、14 記憶部、16 ユーザインタフェース(UI)部、18 撮像部、20 画像取得部、22 前処理実行結果出力部、24 実行結果保持部、26 画像処理実行部、28 ユーザ画像、30 顔領域、32 絞り込み領域、34 対応領域、34a 対応領域重心、36 瞳領域、36a 瞳領域重心、38 目領域、38a 目領域重心、40 視線方向、42 フィールド画像、44 ユニフォーム領域、44a ユニフォーム領域重心、46 移動方向。

Claims (8)

  1. 所定の撮像対象を撮像して生成される画像を順次取得する画像取得手段と、
    順次到来する処理期間にて、前記画像取得手段により取得される前記画像に対して画像処理を実行する画像処理実行手段と、
    一部の前記処理期間にて、当該処理期間以前に前記画像取得手段により取得された前記画像に対する前処理の実行結果を出力する前処理実行結果出力手段と、
    前記前処理実行結果出力手段により出力される前記実行結果を、少なくとも次に前記前処理実行結果出力手段により前記実行結果が出力されるまで保持し続ける実行結果保持手段と、を含み、
    前記画像処理実行手段は、前記画像取得手段により取得される前記画像に対して、前記実行結果保持手段に保持されている前記実行結果を適用して前記画像処理を実行し、
    前記画像処理実行手段は、前記実行結果保持手段に保持されている前記実行結果を適用した画像処理の実行の際に行われた、画像処理と並行して実行されている前処理の実行結果が前記前処理実行結果出力手段により前記実行結果保持手段に出力されると、その出力以後は、前処理の次の実行結果が前記前処理実行結果出力手段により前記実行結果保持手段に出力されるまでの間、複数回、当該出力された実行結果を適用して画像処理を実行する、
    ことを特徴とする画像処理装置。
  2. 前記前処理実行結果出力手段が、前記画像内の少なくとも1つの画素の色に基づいて、前記画像処理を実行する際の基準となる基準色を特定する前記前処理の実行結果を出力し、
    前記画像処理実行手段が、前記基準色と前記画像内の各画素の色との比較結果に基づいて、前記画像内の画素を特定する前記画像処理を実行する、
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記前処理実行結果出力手段が、前記画像内の位置を特定する前記前処理により特定される前記位置に対応する、前記画像処理実行手段により前記画像処理が実行される前記画像内の領域を示す前記実行結果を出力し、
    前記画像処理実行手段が、前記実行結果が示す前記画像内の領域に基づいて、当該領域内の位置を特定する前記画像処理を実行する、
    ことを特徴とする請求項1又は2に記載の画像処理装置。
  4. 前記画像処理実行手段が、前記実行結果が示す前記画像内の領域に基づいて、当該領域内の複数の位置を特定して、当該複数の位置の関係に基づいて方向を示す方向データを生成する前記画像処理を実行する、
    ことを特徴とする請求項3に記載の画像処理装置。
  5. 前記前処理実行結果出力手段が出力する前記実行結果が示す、前記画像処理実行手段により前記画像処理が実行される前記画像内の領域のサイズが、前記画像内の領域を特定する前記前処理により特定される領域のサイズに基づいて決定される、
    ことを特徴とする請求項3又は4に記載の画像処理装置。
  6. 所定の撮像対象を撮像して生成される画像を順次取得する画像取得ステップと、
    順次到来する処理期間にて、前記画像取得ステップにより取得される前記画像に対して画像処理を実行する画像処理実行ステップと、
    一部の前記処理期間にて、当該処理期間以前に前記画像取得ステップにより取得された前記画像に対する前処理の実行結果を出力する前処理実行結果出力ステップと、
    前記前処理実行結果出力ステップにより出力される前記実行結果を、少なくとも次に前記前処理実行結果出力ステップにより前記実行結果が出力されるまで実行結果保持手段に続けて保持させるステップと、を含み、
    前記画像処理実行ステップでは、前記画像取得ステップにより取得される前記画像に対して、前記実行結果保持手段に保持されている前記実行結果を適用して前記画像処理を実行し、
    前記画像処理実行ステップでは、前記実行結果保持手段に保持されている前記実行結果を適用した画像処理の実行の際に行われた、画像処理と並行して実行されている前処理の実行結果が前記前処理実行結果出力ステップにより前記実行結果保持手段に出力されると、その出力以後は、前処理の次の実行結果が前記前処理実行結果出力手段により前記実行結果保持手段に出力されるまでの間、複数回、当該出力された実行結果を適用して画像処理を実行する、
    ことを特徴とする画像処理方法。
  7. 所定の撮像対象を撮像して生成される画像を順次取得する画像取得手段、
    前記画像取得手段が取得する前記画像に対して前処理を実行する前処理実行手段、
    前記前処理の実行結果を出力する前処理実行結果出力手段、
    前記前処理実行結果出力手段により出力される前記実行結果を、少なくとも次に前記前処理実行結果出力手段により前記実行結果が出力されるまで実行結果保持手段に続けて保持させる手段、
    前記画像取得手段が取得する前記画像に対して、前記実行結果保持手段に保持されている前記実行結果を適用して、画像処理を実行する画像処理実行手段、
    としてコンピュータを機能させ、
    前記画像処理実行手段は、前記実行結果保持手段に保持されている前記実行結果を適用した画像処理の実行の際に行われた、画像処理と並行して実行されている前処理の実行結果が前記前処理実行結果出力手段により前記実行結果保持手段に出力されると、その出力以後は、前処理の次の実行結果が前記前処理実行結果出力手段により前記実行結果保持手段に出力されるまでの間、複数回、当該出力された実行結果を適用して画像処理を実行する、
    ことを特徴とするプログラム。
  8. 請求項7に記載のプログラムを記憶したコンピュータ読み取り可能な情報記憶媒体。
JP2008137188A 2008-05-26 2008-05-26 画像処理装置、画像処理方法及びプログラム Active JP4809869B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2008137188A JP4809869B2 (ja) 2008-05-26 2008-05-26 画像処理装置、画像処理方法及びプログラム
EP09754476A EP2287805A1 (en) 2008-05-26 2009-01-20 Image processing device, image processing method, and information storage medium
US12/993,858 US8223220B2 (en) 2008-05-26 2009-01-20 Image processing device, image processing method, and information storage medium
PCT/JP2009/050715 WO2009144968A1 (ja) 2008-05-26 2009-01-20 画像処理装置、画像処理方法及び情報記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008137188A JP4809869B2 (ja) 2008-05-26 2008-05-26 画像処理装置、画像処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2009282931A JP2009282931A (ja) 2009-12-03
JP4809869B2 true JP4809869B2 (ja) 2011-11-09

Family

ID=41376857

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008137188A Active JP4809869B2 (ja) 2008-05-26 2008-05-26 画像処理装置、画像処理方法及びプログラム

Country Status (4)

Country Link
US (1) US8223220B2 (ja)
EP (1) EP2287805A1 (ja)
JP (1) JP4809869B2 (ja)
WO (1) WO2009144968A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6121787B2 (ja) * 2013-04-26 2017-04-26 株式会社ソニー・インタラクティブエンタテインメント 撮像装置、情報処理システム、および画像データ処理方法
CN111243049B (zh) 2020-01-06 2021-04-02 北京字节跳动网络技术有限公司 人脸图像的处理方法、装置、可读介质和电子设备

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100812903B1 (ko) 1998-05-19 2008-03-11 가부시키가이샤 소니 컴퓨터 엔터테인먼트 화상 처리 장치와 방법 및 프로그램 기록 매체
JP4645223B2 (ja) * 2005-02-18 2011-03-09 富士通株式会社 顔追跡プログラムおよび顔追跡方法

Also Published As

Publication number Publication date
EP2287805A1 (en) 2011-02-23
JP2009282931A (ja) 2009-12-03
US20110102626A1 (en) 2011-05-05
US8223220B2 (en) 2012-07-17
WO2009144968A1 (ja) 2009-12-03

Similar Documents

Publication Publication Date Title
JP7365445B2 (ja) コンピューティング装置及び方法
US10832069B2 (en) Living body detection method, electronic device and computer readable medium
US10360715B2 (en) Storage medium, information-processing device, information-processing system, and avatar generating method
JP5553141B2 (ja) 画像処理システム、画像処理装置、画像処理方法、およびプログラム
KR102628905B1 (ko) 전자 장치가 동영상의 얼굴의 인상을 변형하는 방법 및 그 전자 장치
JP2007087346A (ja) 情報処理装置及びその制御方法、コンピュータプログラム、記憶媒体
JP2007087345A (ja) 情報処理装置及びその制御方法、コンピュータプログラム、記憶媒体
JP2012098771A (ja) 画像処理装置および方法、並びに、プログラム
JP2008027086A (ja) 表情誘導装置および表情誘導方法、表情誘導システム
CN108965889B (zh) 图像压缩方法、图像恢复方法及计算机可读记录介质
JP5924977B2 (ja) 画像処理装置および画像処理方法
US9323981B2 (en) Face component extraction apparatus, face component extraction method and recording medium in which program for face component extraction method is stored
JP4809869B2 (ja) 画像処理装置、画像処理方法及びプログラム
JPWO2022074865A5 (ja) 生体検知装置、制御方法、及びプログラム
JP2017204280A (ja) ビデオフレームを選択する方法、システム及び装置
JP2010079651A (ja) 動作認識装置、方法及びプログラム
JP2021108022A5 (ja)
US8963924B2 (en) Target selection apparatus that detects target, control method therefor, and storage medium
WO2021237736A1 (zh) 图像处理方法、装置和系统,计算机可读存储介质
JP7406878B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP6350331B2 (ja) 追尾装置、追尾方法及び追尾プログラム
JP2020009227A (ja) 物体領域抽出装置及び物体領域抽出方法
JP6476811B2 (ja) 画像生成装置、画像生成方法及びプログラム
JP2006227995A (ja) 顔検出方法、顔検出装置及びプログラム
JP6603722B2 (ja) 画像処理装置およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100630

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20101124

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20101203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110104

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110224

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110405

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110704

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20110712

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110802

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110819

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140826

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4809869

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250