JP2006343953A - 画像処理方法、画像処理装置 - Google Patents

画像処理方法、画像処理装置 Download PDF

Info

Publication number
JP2006343953A
JP2006343953A JP2005168403A JP2005168403A JP2006343953A JP 2006343953 A JP2006343953 A JP 2006343953A JP 2005168403 A JP2005168403 A JP 2005168403A JP 2005168403 A JP2005168403 A JP 2005168403A JP 2006343953 A JP2006343953 A JP 2006343953A
Authority
JP
Japan
Prior art keywords
image
region
area
subject
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005168403A
Other languages
English (en)
Other versions
JP4745724B2 (ja
JP2006343953A5 (ja
Inventor
Kaname Tanimura
要 谷村
Kiyohide Sato
清秀 佐藤
Toshiichi Oshima
登志一 大島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2005168403A priority Critical patent/JP4745724B2/ja
Publication of JP2006343953A publication Critical patent/JP2006343953A/ja
Publication of JP2006343953A5 publication Critical patent/JP2006343953A5/ja
Application granted granted Critical
Publication of JP4745724B2 publication Critical patent/JP4745724B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】 現実空間の画像において、仮想空間の画像を重畳させない領域を適切に特定するための技術を提供すること。
【解決手段】 画像内における被写体の領域のサイズをメモリに格納しておき、現実空間の画像を取得し(S1101)、取得した画像内で被写体の色と略同じ色を有する領域を抽出し、抽出された領域のうち何れの領域が被写体の領域であるのかを、メモリに格納されたデータが示すサイズに基づいて判断し(S1105)、現実空間の画像上に仮想空間の画像を重畳する際、現実空間の画像上において被写体の領域上には仮想空間の画像の重畳を禁止する(S1106)。
【選択図】 図11

Description

本発明は、現実空間の画像上に、仮想空間の画像を重畳させた合成画像を生成する為の技術に関するものである。
実写風景を背景として、その上にコンピュータグラフィックス(以下、CGと記述)を重畳して体験者に対して提示し、この体験者にあたかもその場に仮想の物体が存在するかのような体験を行わせる複合現実感(Mixed Reality:MR)の技術がある。
このMR技術を用いて臨場感豊かな体験を実現するためには、背景となる実写風景の上にただ単純にCGを重畳して表示するだけではなく、体験者が実際にCGで描画される仮想物体(以下、単に仮想物体と言うことがある)に触ったり操作する(しているように体感させる)といったインタラクションが重要になってくる。そして、このようなインタラクションを実現するめには、仮想物体よりも手前(前景)に仮想物体を操作する体験者の手など(以下、被写体という)を表示することが必要である。なぜなら、仮想物体よりも手前にあるべき被写体が仮想物体によって隠されてしまうと、仮想物体との距離感や現実感が破綻し、臨場感を損ねてしまうからである。
このような課題を解決するために、出願人は特許文献1において、最前景とすべき被写体の画像をCG画像によって隠さないようにする技術を提案した。この技術は、背景と被写体とを実写画像として取得し、この実写画像から、予め手作業でシステムに登録した、CG画像より手前に表示すべき被写体(被写体検出情報としての色情報を有する領域)を被写体領域として抽出し、被写体領域にはCG画像の描画を禁止するものである。この技術により、最前景となるべき被写体がCG画像で隠されることなく、仮想物体よりも手前にあるように表示され、臨場感の高い複合現実感体験を行うことが可能となる。
また、実写画像とコンピュータグラフィックス画像とを合成する従来技術として、背景領域を特定の色によって着色し、クロマキー合成によってこの背景領域をコンピュータグラフィックス画像と置き換えるものがある。このような従来技術では実写画像は背景以外の被写体に限定されていた。
特開2003−296759号公報
特許文献1における複合現実感体験システムでは、体験者の見ている現実の風景に被写体と類似した色情報を持つ領域がほとんど存在しない場合に良好に動作する。しかしながら、体験者の見ている現実の風景に、他の体験者が存在する風景では、本来CG画像の奥にいるべき他の体験者の被写体領域(手や顔)までもCG画像の描画を禁止してしまい、他の体験者の被写体領域がCG画像よりも手前にあるかのように表示され、体験者の現実感を損なうことがあった。
このような技術的背景から、体験者の手や指定した被写体領域のみ抽出するために被写体領域を実写画像より抽出した後、抽出した領域から目的とする領域(体験者の手など)を選択し、選択した領域のみに対してCG画像を描画しない処理を施し、複合現実感画像を生成することが望まれている。
本発明は以上の問題に鑑みてなされたものであり、現実空間の画像において、仮想空間の画像を重畳させない領域を適切に特定するための技術を提供することを目的とする。
本発明の目的を達成するために、例えば、本発明の画像処理方法は以下の構成を備える。
即ち、現実空間の画像上に仮想空間の画像を重畳させることで合成画像を生成する生成工程と、当該合成画像を外部に出力する出力工程と、を備える画像処理方法であって、
現実空間の画像を取得する取得工程と、
前記取得工程で取得した画像内で、所定の被写体の色と略同じ色を有する領域を抽出する抽出工程と、
前記抽出工程で抽出された領域のうち何れの領域が前記所定の被写体の領域であるのかを判断する判断工程と、
前記取得工程で取得した現実空間の画像上に仮想空間の画像を重畳する際には、当該現実空間の画像上において前記判断工程で判断したことにより特定した領域上には当該仮想空間の画像の重畳を禁止するよう前記生成工程における処理を制御する制御工程と
を備えることを特徴とする。
本発明の目的を達成するために、例えば、本発明の画像処理装置は以下の構成を備える。
即ち、現実空間の画像上に仮想空間の画像を重畳させることで合成画像を生成する生成手段と、当該合成画像を外部に出力する出力手段と、を備える画像処理装置であって、
現実空間の画像を取得する取得手段と、
前記取得手段が取得した画像内で、所定の被写体の色と略同じ色を有する領域を抽出する抽出手段と、
前記抽出手段によって抽出された領域のうち何れの領域が前記所定の被写体の領域であるのかを判断する判断手段と、
前記取得手段が取得した現実空間の画像上に仮想空間の画像を重畳する際には、当該現実空間の画像上において前記判断手段が判断したことにより特定した領域上には当該仮想空間の画像の重畳を禁止するよう前記生成手段による処理を制御する制御手段と
を備えることを特徴とする。
本発明の構成により、現実空間の画像において、仮想空間の画像を重畳させない領域を適切に特定することができる。
以下添付図面を参照して、本発明を好適な実施形態に従って詳細に説明する。
図1は、ユーザ(体験者)に現実空間と仮想空間とが融合した複合現実空間を体験させるための、本実施形態に係るシステムの機能構成を示すブロック図である。また、本実施形態に係るシステムでは、現実空間の画像上に仮想空間の画像を重畳させる際に、現実空間の画像中に所定の被写体が含まれている場合には、この被写体の領域に関しては常に仮想空間の画像よりも手前に表示するよう、重畳処理を制御する。なお、本実施形態ではこの所定の被写体の一例として「手」を用いる。
図1に示す如く、本実施形態に係るシステムは、ビデオカメラ101、画像入力部102、被写体領域抽出部103、カメラ位置姿勢センサ104、カメラ位置姿勢計測部105、画像生成部106、仮想空間データベース107、画像合成部108、頭部搭載型画像表示装置(以下、HMDと呼称)109、被写体色情報登録部110、被写体領域選択部111により構成されている。
また、図2は、本実施形態に係るシステムを使用している様子を示す図である。以下、図1,2を用いて、本実施形態に係るシステムの構成について説明する。
なお、本システムにおける体験者は一人、または複数人を想定している。つまり、図2の体験者201が椅子202に着座している状況で、他の体験者208が体験者201から見える状態で、体験者201は複合現実感空間体験を行うなどの状況が考えられる。
ビデオカメラ101は現実空間の動画像を撮像するものであり、図2に示す如く、HMD109に取り付けられている。ビデオカメラ101の取り付け位置は、体験者201が自身の頭部203にHMD109を装着した場合に、体験者201の目の位置に近い位置である。また、ビデオカメラ101の取り付け方向は、体験者201が自身の頭部203にHMD109を装着した場合に、体験者201の視線方向に略一致するような方向である。従ってこのビデオカメラ101は、体験者201の目の位置姿勢に応じて見える現実空間の画像を撮像するためのものとすることができる。以下の説明では、このビデオカメラ101を「視点」と呼称する場合がある。このビデオカメラ101により撮像された各フレームの画像(現実空間の画像)は順次、図1に示す画像入力部102に入力される。画像入力部102は、受けた画像のデータを画像合成部108に出力すると共に、被写体領域抽出部103にも出力する。
カメラ位置姿勢センサ104は、ビデオカメラ101の位置姿勢を計測するものであり、図2に示す如く、ビデオカメラ101に取り付けられている。このカメラ位置姿勢センサ104には例えば磁気センサや光学式センサ、超音波式センサなどが適用可能である。これらのセンサによる位置姿勢の計測技術に関しては周知のものであるので、これに関する説明は省略する。
カメラ位置姿勢センサ104により計測されたビデオカメラ101の位置姿勢を示す信号は図1に示すカメラ位置姿勢計測部105に入力され、カメラ位置姿勢計測部105により、この信号に基づいて、ビデオカメラ101の位置姿勢を示すデータが得られる。このデータは画像生成部106に出力すると共に、被写体領域選択部111にも出力する。
このように、HMD109にはビデオカメラ101、カメラ位置姿勢センサ104が備わっており、体験者201の頭部203には、このようなHMD109が装着されている。また図2に示す如く、この体験者201は、椅子202に座っている。なお、同図では体験者201は椅子202に座っているものとしているが、体験者201が任意の姿勢をとっていたとしても、以下の説明の本質は特に変わらない。
図1に戻って、画像生成部106は、カメラ位置姿勢計測部105から受けたデータ、及び仮想空間データベース107に格納されているデータ(仮想空間データ)を用いて、ビデオカメラ101から見える仮想空間の画像を生成する。仮想空間データベース107には、仮想空間を構成する各仮想物体の画像を生成するために必要なデータが格納されており、例えば、仮想物体がポリゴンでもって構成されている場合には、各ポリゴンの法線ベクトルデータやポリゴンの色データ、ポリゴンを構成している各頂点の座標データ、また、仮想物体に対してテクスチャマッピングする場合には、テクスチャデータなどがこの仮想空間データベース107に格納されていることになる。
図2の場合には、207が仮想物体であるので、この仮想物体207の画像を生成するためのデータが仮想空間データベース107に格納されていることになる。この場合、画像生成部106は、ビデオカメラ101から見える仮想物体207の画像を生成することになる。なお、所定の位置姿勢を有する視点から見える仮想空間の画像を生成する為の技術については周知のものであるので、これに関する説明は省略する。
画像生成部106が生成した仮想空間の画像データは画像合成部108に出力する。画像合成部108は、画像入力部102から受けた現実空間の画像上に、画像生成部106から受けた仮想空間の画像を重畳させた合成画像、即ち、複合現実空間の画像を生成し、HMD109に出力する。これにより、体験者201の眼前には視点の位置姿勢に応じて見える複合現実空間の画像が表示されることになる。
ここで、体験者201がHMD109を介して複合現実空間の画像を観察している最中に、自身の手205や他の体験者208の手210がビデオカメラ101の視界に入った場合、当然、手205、210はビデオカメラ101によって撮像されるし、HMD109に表示される複合現実空間の画像上には手205、210が表示されることになる。
このような場合、観察者101にとっては、自身の手205のみが前景となることが好ましいため、現実空間の画像上の手205の領域上には仮想空間の画像は重畳させないようにするが必要である。図2の場合、体験者201がHMD109を介して複合現実空間の画像を観察する際、現実物体において自身の手205のみを前景、それ以外の現実物体206a、206b、他の体験者208の手210を背景とする。
そのための構成として本実施形態に係るシステムは、被写体領域抽出部103、被写体色情報登録部110、被写体領域選択部111を備える。以下では、被写体領域抽出部103、被写体色情報登録部110、被写体領域選択部111の各部について説明する。
被写体色情報登録部110には、手205の色を示す色データ(色情報)が予め登録されている。ここで、この色データについて説明する。被写体色情報登録部110に登録されている色データは、多次元色空間における座標値として記述することができる。一般によく知られている表色系の種類には、RGB、YIQ、YCbCr、YUV、HSV、Lu*v*、La*b*など様々なものがある(日本規格協会 JIS色彩ハンドブック)。
対象とする被写体の色彩特性に合わせて、適当なものを任意に用いてよいが、照明条件の相違による被写体の色彩特性の変化を相殺するために、輝度情報と色相情報とに分離する形式の表色系を用い、色相情報だけを用いることが望ましい。このような表色系の代表的なものとしてはYIQやYCbCrが一般的である。本実施形態では、YCbCr表色系を用いる。
図4は、YCbCr表色系のCbCr平面における色彩分布の概要を示す図である。横軸401がCr、縦軸402がCbである。中央403は白色の領域であり、中央から周辺に向かって彩度が高くなっている。
図5は、被写体の色情報をYcbCr表色系のCbCr平面における色空間座標分布501として表現した例を示す図である。
被写体の色情報は背景の色情報に含まれないものであることが望ましいが、条件によっては被写体と背景とを色によって識別しにくい場合も考えられる。このような場合には、例えば手に着色した手袋を装着するなど、被写体に対して都合の良い色を割り当てると良い。
被写体色情報登録部110における色情報の登録方法としては、被写体をカメラなどで撮像することで、この被写体の画像を取得し、取得した画像を構成する各画素の画素値をCbCr平面での分布として記述した上で、色空間の各軸の座標範囲を指定する方法や、色空間を各軸について標本化し、その各点について被写体であるか否かの値を登録する方法、いわゆるルックアプテーブルを用いる等、様々な方法が考え得る。
図1に戻って、被写体領域抽出部103は、画像入力部102から受けた画像を構成する各画素値を参照し、被写体色情報登録部110に登録されたデータが示す『手205の色』と略同じ色を示す画素値を有する画素を「手205の領域を構成する画素」であると判断する。より詳しくは、画像入力部102から受けた画像を構成する各画素が手205の領域を構成する画素であるか否かを判断し、各画素について判断結果を割り当てる。例えば手205の領域を構成する画素については「1」を割り当て、手205の領域を構成しない画素については「0」を割り当てる。
図3は、手205の色に略同じ色を有する現実物体が手205のみであるような現実空間の画像301が画像入力部102から得られた場合に、この画像301から手205の領域を抽出する処理を説明する図である。
画像301を構成する各画素について手205の領域を構成するものであるのか否かをチェックする処理を行うと、各画素について「1」若しくは「0」の値が割り当てられるので、結果として302で示す画像を生成することができる。画像302において「白」で示した領域は「1」が割り当てられた画素群で構成された領域で、手205の領域を構成する画素群である。一方、画像302において「黒」で示した領域は「0」が割り当てられた画素群で構成された領域で、手205の領域を構成していない画素群である。このような画像302は所謂マスク画像である。このように、このマスク画像を生成することで、現実空間の画像中における手205の領域を抽出することができる。
図6は、被写体領域抽出部103が行う処理のフローチャートである。図6のフローチャートは、画像入力部102から受けた画像において、画像座標が(i,j)の位置にある画素に対する処理のフローチャートであるので、実際には被写体領域抽出部103は、図6のフローチャートに従った処理を、画像入力部102から受けた画像を構成する各画素について行うことになる。
先ず、画像入力部102から受けた画像内で画像座標が(i,j)の位置にある画素のRGB値をYCrCb値に変換する(ステップS601)。画像座標が(i,j)の位置にある画素のR値をR(i、j)、G値をG(i、j)、B値をB(i、j)とすると、RGB値をYCrCb値に変換する為の関数color_conversion()でもってR(i、j)、G(i、j)、B(i、j)を変換し、Y値、Cr値、Cb値を得る。
次に、ステップS601で得たY、Cr、Cbのそれぞれの値が表現する色が、被写体色情報登録部110に登録されている色データが示す色に略同じであるのか否かを判断する。例えば同図の場合には、ステップS601で得たY、Cr、Cbのそれぞれの値が表現する色が、被写体色情報登録部110に登録されている色データが示す色に略同じであるのか否かを、関数mask_func()でもって判断する。そして判断結果は、配列mask(i、j)に代入される。この配列mask(i、j)は、画像座標が(i,j)の位置にある画素が被写体の領域を構成するものであるのか否かを示す値を格納する為のものであり、上記マスク画像において画像座標が(i,j)の位置にある画素の画素値(1もしくは0)を格納する為のものである。
関数mask_func()による判断方法としては、例えば、Cb、Crで規定されるCbCr平面上における座標値(Cr、Cb)が、被写体色情報登録部110に登録されている被写体の色分布501の領域に属するか否かを判定する。判定結果は、例えば、被写体色分布501に属するのであれば1、属さないのであれば0と二値で表してもよいが、属する度合いを0から1までの連続値でもって表現するようにしても良い。
なお、本実施形態では、画像入力部102から受けた画像を構成する各画素の画素値がRGBで表されているものとしているが、YIQやYUVで表されていても良く、その場合には、ステップS601における処理を省略し、ステップS602において(cb、cr)の代わりにそれぞれIQ空間やUV空間における座標値を用いればよい。
以上説明したように、被写体領域抽出部103は、画像入力部102から受けた画像を構成する各画素が、「手」の領域を構成するものであるのか否かを示すマスク画像を生成する。
しかしここで、被写体領域抽出部103は、現実空間の画像において『手205の色』と略同じ色を有する画素については、マスク画像上では画素値が「1」となるので、この現実空間の画像内に手205の色と略同じ色を有する現実物体が手205以外にも含まれている場合には、この現実物体の領域を構成する画素もまた、マスク画像上では画素値が「1」となることに注意されたい。このような場合、マスク画像内には複数の白の領域が点在する事になる。
従って、被写体領域選択部111は、被写体色情報登録部110が生成したマスク画像中の白領域のうち何れの領域が手205の領域であるのかを特定する処理を行う。この判断処理の詳細については後述する。
そして被写体領域選択部111は、マスク画像内で手205の領域を特定すると、この領域を白の領域にする。即ち、手205の領域を構成する画素の画素値を「1」にする。また、手205の領域以外の領域を黒の領域にする。即ち、手205の領域以外の領域を構成する画素の画素値を「0」にする。これにより、マスク画像において、手205の領域を構成する各画素の画素値は「1」となり、手205の領域以外の領域を構成する各画素の画素値は「0」となる。即ち、このマスク画像により、手205の領域と手205以外の領域とをマスク画像を構成する各画素の画素値でもって区別することができる。このようにして生成したマスク画像は画像合成部108に出力する。
図7は、現実空間の画像上に仮想空間の画像を重畳させる際に、被写体領域選択部111が生成したマスク画像を用いて、手205の領域上に仮想空間の画像は重畳させないようにする為の処理を説明する図である。このような処理は画像合成部108によって行われる。
同図において、301は、画像入力部102から受けた画像である。画像301には、体験者201の手205が写っている。一方、701は、画像生成部106が生成した仮想空間の画像である。ここで画像合成部108によって画像301上に画像701を重畳させる際に、画像合成部108は、マスク画像302を参照する。即ち、画像301上に画像701を重畳させる際に、画像701において画像302中の手の領域(白で示した領域)に相当する部分は画像301上には描画しないようにする。これにより、画像702に示す如く、手205の領域上には常に仮想空間の画像は描画されないので、手205の領域は常に前景とすることができる。
このような画像合成部108による処理を、同処理のフローチャートを示す図10を用いて説明する。図10のフローチャートは、画像入力部102から受けた画像、画像生成部106から受けた画像、において、画像座標が(i,j)の位置にある画素に対する処理のフローチャートであるので、実際には画像合成部108は、図10のフローチャートに従った処理を、i,jが取りうる範囲全てについて行うことになる。
ステップS100では、画像入力部102から受けた現実空間の画像で画像座標が(i,j)の位置にある画素の画素データreal(i,j)をフレームメモリbuffer(i,j)に転送する。次に、ステップS200では、被写体領域選択部111によって生成されたマスク画像で画像座標が(i,j)の位置にある画素の画素データmask(i,j)をマスク処理のための画像メモリであるステンシルバッファに転送する。
ステップS300では、画像生成部106から受けた仮想空間の画像で画像座標が(i,j)の位置にある画素の画素データCGI(i,j)を上記フレームメモリbuffer(i,j)に転送するのであるが、その際にはステンシルバッファ内の画素データmask(i,j)を参照する。
そして、mask(i,j)=0であれば、real(i,j)は手205の領域外の領域を構成する画素データであるので、仮想空間の画像の画素データCGI(i,j)を上記フレームメモリbuffer(i,j)に転送する。これにより、フレームメモリbuffer(i,j)には、現実空間の画像の画素データreal(i,j)上に仮想空間の画像の画素データCGI(i,j)が重畳された状態で格納されていることになる。
一方、mask(i,j)=1であれば、real(i,j)は手205の領域内を構成する画素データであるので、仮想空間の画像の画素データCGI(i,j)は上記フレームメモリbuffer(i,j)には転送しない。これにより、フレームメモリbuffer(i,j)には、現実空間の画像の画素データreal(i,j)のみが格納されていることになり、仮想空間の画像の画素データCGI(i,j)は重畳されない。
そして画像合成部108は、このようにしてフレームメモリ内に格納された画像を複合現実空間画像としてHMD109に出力する。
次に、被写体領域選択部111が、被写体領域抽出部103が生成したマスク画像を参照し、マスク画像内における白の領域のうち、何れの領域が手205の領域であるのかを判断する処理について説明する。
上述の通り、被写体領域抽出部103は、現実空間の画像内に手205の色と略同じ色を有する現実物体が含まれている場合には、この現実物体の領域を構成する画素もまた、手205の領域を構成する画素であると判断するので、マスク画像内には複数の白の領域が点在する事になる。このようなマスク画像を用いて複合現実空間画像を生成すると、仮想空間の画像においてマスク画像中の白の領域に対応するいくつかの箇所が現実空間の画像上に描画されないことになる。しかし、目的は被写体としての手205の領域のみが前景となればよいので、マスク画像内で手205の領域以外は黒の領域とする処理が必要となる。
図8は、このような目的のために、マスク画像において手205の領域以外の領域を黒の領域とする為の処理を説明する図である。同図の場合、マスク画像801には、被写体領域(手205の領域)850の外側と内側にノイズが生じている。外側のノイズは現実空間中で手205と誤認識した領域であり、内側のノイズは被写体領域850であるにも関わらず被写体領域850ではないと認識した領域である。
ステップS1において、まず外側のノイズを除去(被写体領域850外の白領域を黒領域に修正する)して、第1ノイズ除去画像802を得る。例えば、画像内の連結した領域の面積を算出する際によく用いられるラベリングの手法を用いて、白領域の面積(白領域を構成する画素数)を求め、求めた面積が所定の閾値以下であれば、この白領域は被写体領域850ではないと判断し、この白領域を構成する各画素の画素値を「0」にする。
ここで、この「所定の閾値」は体験者201に複合現実空間画像を提示する事前に求めておくものであり、例えば以下のようにして求める。
先ず、体験者201は上記HMD109を自身の頭部203に装着した状態で、自身の手205でもって握り拳を作り、手を伸ばした状態で前に出す。そして、その状態をビデオカメラ101で撮影する。ビデオカメラ101によって撮像された画像は、体験者201の手205でもって作った握り拳を、ビデオカメラ101から見た場合に見える画像である。
オペレータはビデオカメラ101が撮像した現実空間の画像をコンピュータに入力すると共に、このコンピュータの表示装置の表示画面上に表示させる。そして表示されている画像上における握り拳の領域をマウスでなぞることによって手動でこの領域を指定する。そして指定した領域を構成している画素の数をこのコンピュータのCPUによって計数し、計数した数を、上記「所定の閾値」とする。そして求めた「所定の閾値」はメモリ内に格納する。
このとき、オペレータが選択した領域を構成する各画素の画素値の平均値(Cb,Crの値)も同時に取得し、被写体色情報登録部110に登録する。これにより、より質の高い被写体色情報を登録することができる。
なお、以上の説明ではオペレータが手動で握り拳の領域を指定しているが、視点の位置姿勢を固定して背景差分によって握り拳の領域の面積および色情報を抽出してもよい。
以上のようにして、所定の閾値を求めることができる。よって、ステップS1では、握り拳のサイズよりも小さい白領域に関しては、手205の領域ではないと見なし、このような白領域を除去する。
これにより、第1のノイズ除去画像802に示す如く、被写体領域850の外側に点在していた白領域を除去することができる。なお、マスク画像内において被写体領域850内に黒領域が存在していない場合には、ステップS2以降の処理は不要となる。
次に、ステップS2ではステップS1で得られた第1ノイズ除去画像802を構成する各画素の画素値を反転する(画素値が「0」のものは「1」に反転し、画素値が「1」のものは「0」に反転する)処理を行う。これにより、ビット反転画像803が得られる。
次に、ステップS3では、ステップS2で得られたビット反転画像803に対し、再度ラベリングを行う。その結果、ビット反転画像803は最も大きな面積を持つ領域(ビット反転画像803において被写体領域850外の領域(被写体領域850内に点在している白領域は除く))と、それ以外の領域とに分類される。従って、最も大きな面積を持つ領域以外の領域を被写体領域850であると見なし、最も大きな面積を持つ領域以外の領域を構成する各画素の画素値を「0」にする。これにより、第2ノイズ除去画像804を得ることができる。この第2ノイズ除去画像804に示す如く、被写体領域850内に点在していた白領域を除去することができる。
そして、ステップS4では、ステップS3得られた第2ノイズ除去画像804を構成する各画素の画素値を反転する(画素値が「0」のものは「1」に反転し、画素値が「1」のものは「0」に反転する)処理を行う。これにより、ノイズ除去画像805が得られる。
従ってこのようなノイズ除去画像805をマスク画像として用いることで、画像合成部108において現実空間の画像上に仮想空間の画像を重畳させる際に、手205の領域上に仮想空間の画像を重畳させないようにすることができる。
なお、図8に示した処理例では、面積に対して閾値を設定することで手205の領域を特定する処理を行っているが、被写体の数が予め決まった個数Nである場合には、マスク画像内における白領域を面積の大きい順にみた場合に、上位N個を被写体領域であると判定し、他の被写体領域は削除するようにしてもよい。
また、肌色領域内部に生じる領域に対しても、別途閾値を設定して、その閾値以下になる領域は手の領域内に生じたノイズであると見なし、削除するようにしてもよい。ただし、その際に閾値は手の領域に対し、十分小さな値を設定する必要がある。
また、本実施形態では、一般的なラベリングのアルゴリズムを採用することで、マスク画像内における手205の領域以外の白領域を除去していたが、ラベリング以外のメジアンフィルタや、縮小・膨張処理といったアルゴリズムや、被写体領域の候補に対して凸閉方処理などを用いて被写体領域以外の白領域を除去するようにしても良く、好適な手段を任意に選択すればよい。
また、以上の処理では、マスク画像内における手205の領域を特定する処理を白領域の面積に基づいて行っているが、2眼ステレオの原理を利用し、左右の被写体領域の重心位置でマッチングをとることにより奥行き情報を算出し、カメラ位置姿勢計測部105で得られる情報と比較して被写体領域の選択を行っても良い。2眼ステレオによる奥行き推定の手法は公知な技術であるため詳細は省略する。
通常は上記手段のように一定の閾値を与えてノイズ除去を行うことで、提示画像の品質を向上することができる。
また、本実施形態では上述の通り、被写体として「手」を用いたが、これ以外のものを被写体としても良いことはいうまでもない。
図12は、画像入力部102、被写体領域抽出部103、画像生成部106、仮想空間データベース107、画像合成部108、被写体色情報登録部110、被写体領域選択部111の各部の機能を有する画像処理装置のハードウェア構成を示すブロック図である。なお、この画像処理装置としては、例えば、一般のPC(パーソナルコンピュータ)やWS(ワークステーション)等が適用可能である。
1201はCPUで、RAM1202やROM1203に格納されているプログラムやデータを用いて本装置全体の制御を行うと共に、図11に示すフローチャートに従った処理を実行する。
1202はRAMで、外部記憶装置1206からロードされたプログラムやデータを一時的に記憶するためのエリア、I/F(インターフェース)1207を介して外部から受信したデータを一時的に記憶するためのエリア、CPU1201が各種の処理を実行する際に用いるワークエリア、そして上記フレームバッファやステンシルバッファなど、各種のエリアを適宜提供することができる。
1203はROMで、本装置の設定データや、ブートプログラムなどを格納する。
1204は操作部で、キーボードやマウスなどにより構成されており、本装置の操作者が操作することで、各種の指示をCPU1201に対して入力することができる。
1205は表示部で、CRTや液晶画面などにより構成されており、CPU1201による処理結果を画像や文字などでもって表示することができる。
1206は外部記憶装置で、ハードディスクドライブ装置に代表される大容量情報記憶装置であって、ここにOS(オペレーティングシステム)や、図11に示すフローチャートに従った処理をCPU1201に実行させるためのプログラムやデータ等が保存されている。なお、上記仮想空間データベース107、被写体色情報登録部110、もまた、この外部記憶装置1206内に設けられている。そして、これらは必要に応じて適宜CPU1201による制御に従ってRAM1202にロードされる。
1207はI/Fで、ここに上記HMD109やビデオカメラ101、カメラ位置姿勢計測部105等が接続され、このI/F1207を介して本装置はHMD109やビデオカメラ101、カメラ位置姿勢計測部105等とデータ通信を行うことができる。なお、同図ではI/Fは1つとしているが、HMD109、ビデオカメラ101、カメラ位置姿勢計測部105のそれぞれに対して別個にI/Fを設けるようにしても良い。
1208は上述の各部を繋ぐバスである。
図11は、以上説明した、複合現実空間画像を生成してHMD109に出力する処理のフローチャートである。各ステップにおける処理は上述の通りであるので、ここでは簡単に説明する。
先ず、ビデオカメラ101により撮像された現実空間の画像がフレーム毎に順次I/F1207を介して本装置内に入力されるので、CPU1201は入力された画像のデータをRAM1202若しくは外部記憶装置1206に格納する(ステップS1101)。
一方、カメラ位置姿勢センサ104が計測したビデオカメラ101の位置姿勢を示すデータがI/F1207を介して本装置内に入力されるので、CPU1201は入力された位置姿勢を示すデータをRAM1202若しくは外部記憶装置1206に格納する(ステップS1102)。
次に、CPU1201は、外部記憶装置1206内に設けられている仮想空間データベース107内に格納されている上記仮想空間データを用いて、仮想空間を構成している各仮想物体を生成して配置し、そしてこのような仮想空間を、ステップS1102で取得した位置姿勢を有する視点から見た場合に見える画像を生成する(ステップS1103)。
次に、CPU1201は、上記被写体領域抽出部103として機能し、現実空間画像内において、手205の色と略同じ色を有する領域を示すマスク画像を生成する(ステップS1104)。
次に、CPU1201は、生成したマスク画像内で手205の色と同じ色を有する領域として抽出された各領域のうち、手205の領域、手205の領域外を特定する処理を行う(ステップS1105)。より具体的には、例えば、マスク画像において、手205の領域内を構成する各画素の画素値を「1」とし、手205の領域外を構成する各画素の画素値を「0」とする。
そして、ステップS1105で生成したマスク画像を用いて、ステップS1101で取得した現実空間の画像上に、ステップS1103で生成した仮想空間の画像を重畳させることで、手205の領域を前景とした複合現実空間画像を生成する(ステップS1106)。
そして生成した複合現実空間画像のデータをI/F1207を介してHMD109に対して出力する(ステップS1107)。
<変形例>
上記閾値決定方法は、体験者の手が視界から消えかかる段階において面積が閾値以下になった途端、視界から消えてしまい、体験者のリアリティを損ねてしまうことがあった。そこで、固定閾値により生じる現象を軽減するために、体験者201および他の体験者208の位置情報を利用し、動的に閾値を決定する。
まず、カメラ位置姿勢計測部105より体験者201および、他の体験者208の頭部の位置を計測する。そして、計測した位置情報より2者間の距離を算出し、算出した距離に応じて面積の閾値を動的に変更する。閾値は、体験者201の手を伸ばした状態の拳の大きさ(画像上の面積)を最大値とし、最小値はシステムが動作する環境(背景が被写体領域と同様の色情報をどの程度有しているか)に依存してオペレータが決定する。
ここで、閾値の最大値、最小値を求める以上の処理は以下の仮定を前提としている。
即ち、他の体験者208の肌色領域を、体験者201と他の体験者208との位置が十分に離れた状態で、体験者201から見た場合、体験者201の拳の大きさよりも肌色領域の面積は大きくなることはない。つまり、体験者201と他の体験者208との距離が十分に離れている場合は、体験者201の拳の大きさをノイズの閾値(最大値)として、それよりも小さい肌色領域はノイズと見なすことができる。
また、閾値の制御方法に関しては、体験者201とその他の体験者208との距離が近づいた場合には閾値を徐々に増加させる。このとき距離と閾値との関係式に関しては、例えば、距離に係数をかけて線形に閾値を変更させる式や、距離の二乗に比例して閾値を非線形的に変更させる式などが考えられる。
また、カメラ位置姿勢計測部105の位置情報を利用することによって、体験者の視野内に他の体験者が存在するかどうかを判定し、存在しない場合は特定の面積を持つ領域は体験者の被写体領域であるという仮定を設け、オペレータの設定した閾値を採用するなどしてもよい。
画像情報より閾値以下の面積を持つ被写体領域をノイズと見なすことができるが、閾値以上の面積を持つ被写体領域をノイズ、または体験者の被写体領域かを判断するのは困難である。
例えば、被写体を体験者の手としているときに、他の体験者の顔が体験者の手よりも大きくビデオカメラ101に映ってしまう場合などである。
図9は、体験者の視界から他の体験者を見た場合の色情報のみから被写体として判断される領域の分布、および表示領域と非表示領域を説明する図である。図9の右側の手901は体験者自身の手であり、体験者の手は表示したい領域である。そして、図9の左側に表示されている他の体験者の頭部902、および、他の体験者の手や靴903(女性の場合は足の色)などが表示しない領域である。
ビデオカメラ101で獲得した画像から被写体領域を抽出し、非表示領域を選択除去するためには画像情報のみでは容易に除去することができない。そこで、画像情報に加え、位置姿勢情報も利用する。
カメラ位置姿勢計測部105より他の体験者の頭部の位置姿勢情報を獲得し、他の体験者の頭部を覆うように球、または卵型形状のマスクオブジェクトを3次元空間中に配置する。このとき配置するマスクオブジェクトの形状はシステムの構築環境に応じて好適な任意の形状を選択すると良い。体験者のマスクオブジェクトによって他の体験者の頭部は、被写体領域中のこの領域をマスクキングすることができる。したがって、他の体験者の顔部分に配置したマスクオブジェクトによって、他の体験者の頭部に生じる被写体領域を除去することができる。
本変形例では、他の体験者の頭部のみにマスクオブジェクトを配置したが、他の体験者の手などに位置姿勢センサを取り付けられるシステム環境であれば、他の体験者の手などを覆うような形でマスクオブジェクトを配置する。これにより、他の体験者の手などをロバストに検出し非表示領域にすることができる。
<変形例2>
また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。
ユーザ(体験者)に現実空間と仮想空間とが融合した複合現実空間を体験させるための、本実施形態に係るシステムの機能構成を示すブロック図である。 本発明の実施形態に係るシステムを使用している様子を示す図である。 手205の色に略同じ色を有する現実物体が手205のみであるような現実空間の画像301が画像入力部102から得られた場合に、この画像301から手205の領域を抽出する処理を説明する図である。 YCbCr表色系のCbCr平面における色彩分布の概要を示す図である。 被写体の色情報をYcbCr表色系のCbCr平面における色空間座標分布501として表現した例を示す図である。 被写体領域抽出部103が行う処理のフローチャートである。 現実空間の画像上に仮想空間の画像を重畳させる際に、被写体領域選択部111が生成したマスク画像を用いて、手205の領域上に仮想空間の画像は重畳させないようにする為の処理を説明する図である。 マスク画像において手205の領域以外の領域を黒の領域とする為の処理を説明する図である。 体験者の視界から他の体験者を見た場合の色情報のみから被写体として判断される領域の分布、および表示領域と非表示領域を説明する図である。 画像合成部108による処理のフローチャートである。 複合現実空間画像を生成してHMD109に出力する処理のフローチャートである。 画像入力部102、被写体領域抽出部103、画像生成部106、仮想空間データベース107、画像合成部108、被写体色情報登録部110、被写体領域選択部111の各部の機能を有する画像処理装置のハードウェア構成を示すブロック図である。

Claims (4)

  1. 現実空間の画像上に仮想空間の画像を重畳させることで合成画像を生成する生成工程と、当該合成画像を外部に出力する出力工程と、を備える画像処理方法であって、
    現実空間の画像を取得する取得工程と、
    前記取得工程で取得した画像内で、所定の被写体の色と略同じ色を有する領域を抽出する抽出工程と、
    前記抽出工程で抽出された領域のうち何れの領域が前記所定の被写体の領域であるのかを判断する判断工程と、
    前記取得工程で取得した現実空間の画像上に仮想空間の画像を重畳する際には、当該現実空間の画像上において前記判断工程で判断したことにより特定した領域上には当該仮想空間の画像の重畳を禁止するよう前記生成工程における処理を制御する制御工程と
    を備えることを特徴とする画像処理方法。
  2. 更に、
    撮像装置でもって前記所定の被写体を撮像することで得られる画像を取得する工程と、
    前記取得した画像内における前記所定の被写体の領域のサイズを求める工程と、
    前記計算したサイズを示すデータをメモリに格納する格納制御工程と
    を備え、
    前記抽出工程では、前記取得工程で取得した画像内で前記所定の被写体の色と略同じ色を有する第1の領域、前記所定の被写体の色と略同じ色を有していない第2の領域を区別する為のマスク画像を生成し、
    前記判断工程では、前記マスク画像内で前記第1の領域に相当する領域のうち前記メモリに格納されたデータが示すサイズ以上のサイズを有する領域のみを前記第1の領域に相当する領域、当該領域以外を前記第2の領域に相当する領域とすべく、前記マスク画像を更新し、当該更新後のマスク画像において前記第1の領域に相当する領域、及び前記第2に相当する領域のうち最も大きい面積を有する領域以外の領域を前記所定の被写体の領域、前記マスク画像内で前記所定の被写体の領域以外の領域を前記第2の領域に相当する領域とすべく、前記マスク画像を更新し、
    前記制御工程では、前記更新されたマスク画像上における前記所定の被写体の領域に対応する前記取得工程で取得した現実空間の画像の領域上には仮想空間の画像の重畳を禁止するよう前記生成工程における処理を制御する
    ことを特徴とする請求項1に記載の画像処理方法。
  3. 現実空間の画像上に仮想空間の画像を重畳させることで合成画像を生成する生成手段と、当該合成画像を外部に出力する出力手段と、を備える画像処理装置であって、
    現実空間の画像を取得する取得手段と、
    前記取得手段が取得した画像内で、所定の被写体の色と略同じ色を有する領域を抽出する抽出手段と、
    前記抽出手段によって抽出された領域のうち何れの領域が前記所定の被写体の領域であるのかを判断する判断手段と、
    前記取得手段が取得した現実空間の画像上に仮想空間の画像を重畳する際には、当該現実空間の画像上において前記判断手段が判断したことにより特定した領域上には当該仮想空間の画像の重畳を禁止するよう前記生成手段による処理を制御する制御手段と
    を備えることを特徴とする画像処理装置。
  4. コンピュータに請求項1又は2に記載の画像処理方法を実行させることを特徴とするプログラム。
JP2005168403A 2005-06-08 2005-06-08 画像処理方法、画像処理装置 Expired - Fee Related JP4745724B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005168403A JP4745724B2 (ja) 2005-06-08 2005-06-08 画像処理方法、画像処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005168403A JP4745724B2 (ja) 2005-06-08 2005-06-08 画像処理方法、画像処理装置

Publications (3)

Publication Number Publication Date
JP2006343953A true JP2006343953A (ja) 2006-12-21
JP2006343953A5 JP2006343953A5 (ja) 2010-04-22
JP4745724B2 JP4745724B2 (ja) 2011-08-10

Family

ID=37640888

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005168403A Expired - Fee Related JP4745724B2 (ja) 2005-06-08 2005-06-08 画像処理方法、画像処理装置

Country Status (1)

Country Link
JP (1) JP4745724B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012174218A (ja) * 2011-02-24 2012-09-10 Ohbayashi Corp 画像合成方法
WO2012124250A1 (ja) * 2011-03-15 2012-09-20 パナソニック株式会社 オブジェクト制御装置、オブジェクト制御方法、オブジェクト制御プログラム、及び集積回路
WO2013050953A3 (en) * 2011-10-04 2013-09-12 Nokia Corporation Methods, apparatuses, and computer program products for restricting overlay of an augmentation
JP2018018089A (ja) * 2012-06-18 2018-02-01 ソニー株式会社 情報処理装置、情報処理方法及びプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001016606A (ja) * 1999-06-29 2001-01-19 Sharp Corp 動作認識システムおよび動作認識プログラムを記録した記録媒体
JP2002216129A (ja) * 2001-01-22 2002-08-02 Honda Motor Co Ltd 顔領域検出装置およびその方法並びにコンピュータ読み取り可能な記録媒体
JP2003344021A (ja) * 2002-02-25 2003-12-03 Eastman Kodak Co 画像中の人の顔の寸法を計算する方法及び顔を検出する方法
JP2004185555A (ja) * 2002-12-06 2004-07-02 Fuji Photo Film Co Ltd 顔領域抽出方法及び装置
JP2005107967A (ja) * 2003-09-30 2005-04-21 Canon Inc 画像合成装置及び方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001016606A (ja) * 1999-06-29 2001-01-19 Sharp Corp 動作認識システムおよび動作認識プログラムを記録した記録媒体
JP2002216129A (ja) * 2001-01-22 2002-08-02 Honda Motor Co Ltd 顔領域検出装置およびその方法並びにコンピュータ読み取り可能な記録媒体
JP2003344021A (ja) * 2002-02-25 2003-12-03 Eastman Kodak Co 画像中の人の顔の寸法を計算する方法及び顔を検出する方法
JP2004185555A (ja) * 2002-12-06 2004-07-02 Fuji Photo Film Co Ltd 顔領域抽出方法及び装置
JP2005107967A (ja) * 2003-09-30 2005-04-21 Canon Inc 画像合成装置及び方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012174218A (ja) * 2011-02-24 2012-09-10 Ohbayashi Corp 画像合成方法
WO2012124250A1 (ja) * 2011-03-15 2012-09-20 パナソニック株式会社 オブジェクト制御装置、オブジェクト制御方法、オブジェクト制御プログラム、及び集積回路
JPWO2012124250A1 (ja) * 2011-03-15 2014-07-17 パナソニック株式会社 オブジェクト制御装置、オブジェクト制御方法、オブジェクト制御プログラム、及び集積回路
WO2013050953A3 (en) * 2011-10-04 2013-09-12 Nokia Corporation Methods, apparatuses, and computer program products for restricting overlay of an augmentation
US9418292B2 (en) 2011-10-04 2016-08-16 Here Global B.V. Methods, apparatuses, and computer program products for restricting overlay of an augmentation
JP2018018089A (ja) * 2012-06-18 2018-02-01 ソニー株式会社 情報処理装置、情報処理方法及びプログラム

Also Published As

Publication number Publication date
JP4745724B2 (ja) 2011-08-10

Similar Documents

Publication Publication Date Title
JP4136420B2 (ja) 情報処理方法および装置
JP5818773B2 (ja) 画像処理装置、画像処理方法及びプログラム
US10339712B2 (en) Image processing apparatus and image processing method
EP3430610B1 (en) Direct light compensation technique for augmented reality system
US8280115B2 (en) Image processing apparatus and image processing method
JP5474169B2 (ja) 画像処理装置、画像処理方法
JP4810295B2 (ja) 情報処理装置及びその制御方法、画像処理装置、プログラム、記憶媒体
US9679415B2 (en) Image synthesis method and image synthesis apparatus
US8860847B2 (en) Computer-readable storage medium having stored thereon image generation program, capturing apparatus, capturing system, and image generation method for creating an image
US8184907B2 (en) Image processing method and image processing apparatus
JP2008146108A (ja) 指標、画像処理装置、画像処理方法
JP4745724B2 (ja) 画像処理方法、画像処理装置
CN114241168A (zh) 显示方法、显示设备及计算机可读存储介质
JP2005339377A (ja) 画像処理方法、画像処理装置
JP4323910B2 (ja) 画像合成装置及び方法
JP6858007B2 (ja) 画像処理システム、画像処理方法
JP4217661B2 (ja) 画像処理方法、画像処理装置
JP2008299670A (ja) 画像領域抽出装置およびその制御方法、複合現実感提示システム及びコンピュータプログラム
JP2009015648A (ja) 画像処理装置、画像処理方法
JP7005134B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP7175715B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP6700804B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2006211281A (ja) 画像合成装置、画像合成方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080609

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100308

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101001

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101130

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110407

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20110418

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110509

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110512

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140520

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4745724

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees