JP2008299670A - 画像領域抽出装置およびその制御方法、複合現実感提示システム及びコンピュータプログラム - Google Patents

画像領域抽出装置およびその制御方法、複合現実感提示システム及びコンピュータプログラム Download PDF

Info

Publication number
JP2008299670A
JP2008299670A JP2007146093A JP2007146093A JP2008299670A JP 2008299670 A JP2008299670 A JP 2008299670A JP 2007146093 A JP2007146093 A JP 2007146093A JP 2007146093 A JP2007146093 A JP 2007146093A JP 2008299670 A JP2008299670 A JP 2008299670A
Authority
JP
Japan
Prior art keywords
image
subject
captured image
target object
measurement target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007146093A
Other languages
English (en)
Inventor
Takaaki Endo
隆明 遠藤
Kiyohide Sato
清秀 佐藤
Shinji Uchiyama
晋二 内山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2007146093A priority Critical patent/JP2008299670A/ja
Publication of JP2008299670A publication Critical patent/JP2008299670A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Studio Circuits (AREA)

Abstract

【課題】非検出指標の情報を利用することにより、撮像画像中から被写体領域を抽出する際に予め被写体の画像属性を登録しなくてもよいようにする。
【解決手段】画像領域抽出装置であって、撮像装置で計測対象物体と被写体とを含む現実空間を撮像して得られた撮像画像を入力する入力手段と、前記計測対象物体上の指標の配置情報を保持する保持手段と、前記撮像画像から、前記指標の画像座標に関わる特徴量を抽出する抽出手段と、前記配置情報と前記特徴量とに基づいて、前記撮像画像において前記被写体により隠蔽された前記計測対象物体の隠蔽部位を特定する特定手段と、前記撮像画像における前記隠蔽部位に対応する位置の画像が有する属性に基づいて、前記撮像画像において前記被写体が表示されている被写体領域を表す被写体領域画像を生成する生成手段とを備える。
【選択図】図1

Description

本発明は、画像領域抽出装置およびその制御方法、複合現実感提示システム及びコンピュータプログラムに関する。
テレビ番組に代表される映像制作の分野では、クロマキーの手法が用いられている。これは、撮像装置からのライブ画像の中から特定の領域を抽出し、コンピュータグラフィックス(以下、CGと記述)などによる画像と合成する手法である。
図1を参照してクロマキー合成技術について説明する。一般的なクロマキー合成では、被写体103にほとんど含まれていない特定の色彩を有するスクリーン102の前に被写体103を配置し、撮像装置によって実写映像を取得し、これを前景画像101とする。特定の色彩としては、一般には鮮やかなブルーまたはグリーンの色彩が用いられるが、以下では色とは無関係にスクリーン102のことを「ブルーバック」と記述する。
キー画像生成部105では、前景画像101から、ブルーバック102の色彩を基準にしてキー画像106を生成する。キー画像106は、前景画像101の中に含まれる被写体103の領域を抽出するための情報であり、図1に示すように背景と被写体とを識別する値が画素単位で設定される。
その一方、背景画像104は、静止画像・動画像・CGなどの任意の画像であって、前景画像101を撮影する場合のようにブルーバックを使用する必要はない。
画像合成処理部107では下記の式1に従って、画像合成処理を実行する。ここで、キー画像106において、例えば被写体の領域を示す値を「1」、背景の領域を示す値を「0」とする。また、キー画像106の画素値を示す記号をK、前景画像101の画素値を示す記号をF、背景画像104の画素値を示す記号をB、合成画像108の画素値を示す記号をCとする。このとき、
K=0のとき、C=B
K=1のとき、C=F (式1)
となる。
このような画像合成処理により、前景画像101の被写体103が背景画像104の上に重畳された合成画像108が生成される。
しかし、このようなブルーバック合成技術では、前景となる被写体103を撮影するためにはブルーバック102が必要となり、背景画像と同時に被写体を撮影することができない。
これに対し、図2に示すように、現実の実写風景203を背景として、仮想物体204を重畳し、さらにその前景として実写の被写体202を合成する技術が提案されている(特許文献1を参照)。
この提案技術では、被写体の色情報を予め登録しておき、実写画像の各画素について色情報を被写体の色情報と比較し、被写体領域に含まれるならば「1」、それ以外では「0」の値を有する被写体領域画像を生成する。
図3は、実写画像と被写体領域画像を示す図である。図3(a)は、実写画像301を示し、図3(b)は、実写画像301を解析して得られた被写体領域画像302を示す。被写体領域画像302において、白で示した領域(画素値「1」を有する領域)が被写体である手の領域を示す。一方、斜線で示した領域(画素値「0」を有する領域)は、被写体である手の領域以外の領域を示す。
図3(b)において斜線で示される領域に対してのみ、CG画像を合成することにより、現実の実写風景203を背景として、仮想物体204が重畳され、さらにその前景として実写の被写体202を合成することができる。
また、現実空間を撮像するカメラなどの撮像部(以下適宜カメラと言い換える)の位置姿勢計測は、例えば現実空間と仮想空間とを融合表示する複合現実感システムにおいて必要となる。そのために現実空間に配置した位置が既知のマーカ、または現実空間中の位置が既知の自然特徴(現実空間に元来存在する特徴的な点や形状)を用いて、カメラの位置姿勢を測定するセンサの計測誤差を補正する技術が提案されている。このような提案技術は、特許文献2及び3、非特許文献1に記載されている。以下では、マーカと自然特徴を合わせて指標と記述する。
一方で、位置姿勢センサを用いず、カメラで撮像した指標のみを利用してカメラの位置姿勢推定を行う技術も提案されている(非特許文献2及び3)。
特開2003−296759号公報 特開平11−084307号公報 特開2000−041173号公報 A.State,G.Hirota,D.T.Chen, B.Garrett,and M.Livingston:Superior augmented reality registration by integrating landmark tracking and magnetic tracking,Proc.SIGGRAPH '96,pp.429−438,July 1996. 加藤,Billinghurst,浅野,橘:マーカー追跡に基づく拡張現実感システムとそのキャリブレーション,日本バーチャルリアリティ学会論文誌,vol.4,no.4,pp.607−616,Dec.1999. X.Zhang,S.Fronz,N.Navab:Visual marker detection and decoding in AR systems:A comparative study,Proc.of International Symposium on Mixed and Augmented Reality(ISMAR'02),2002.
上述の実写画像を使った画像合成技術では、予め登録された色情報を利用してマスク対象物体の抽出を行っているため、登録していない色情報の対象物体を抽出することはできない。また、実写画像中で抽出したい被写体以外の領域であって、被写体と略同一色を有する領域も抽出されるおそれがある。
また、位置姿勢計測では、カメラの位置姿勢を推定するために指標検出を行っているので、検出されていない指標の情報を追加手段なしで得ることが可能である。しかし、検出されなかった指標、すなわち、検出されるであろう画像面内での位置にその指標が検出されなかったという情報は特に利用されることなかった。
そこで本発明では、非検出指標の情報を利用することにより、撮像画像中から被写体領域を抽出する際に予め被写体の画像属性を登録しなくてもよいようにすることを目的とする。
上記課題を解決するための本発明は画像領域抽出装置であって、
撮像装置で計測対象物体と被写体とを含む現実空間を撮像して得られた撮像画像を入力する入力手段と、
前記計測対象物体上の指標の配置情報を保持する保持手段と、
前記撮像画像から、前記指標の画像座標に関わる特徴量を抽出する抽出手段と、
前記配置情報と前記特徴量とに基づいて、前記撮像画像において前記被写体により隠蔽された前記計測対象物体の隠蔽部位を特定する特定手段と、
前記撮像画像における前記隠蔽部位に対応する位置の画像が有する属性に基づいて、前記撮像画像において前記被写体が表示されている被写体領域を表す被写体領域画像を生成する生成手段と、
を備えることを特徴とする。
上記課題を解決するための本発明はまた、複合現実感提示システムであって、撮像装置と、上記の画像領域抽出装置と、前記合成画像を表示する表示装置とを備えることを特徴とする。
本発明によれば、撮像画像中から被写体領域を抽出する際に、予め被写体の画像属性を登録しなくてもよい。
以下、添付図面を参照して、本発明をその好適な実施形態に従って詳細に説明する。
[第1の実施形態]
本実施形態に係る画像領域抽出装置は、計測対象物体上の指標の被写体による隠蔽部位の画像属性を求め、画像属性が共通する撮像画像中の領域を抽出し、それ以外の領域に対して仮想空間画像を合成する。これにより、計測対象物体上に仮想空間画像が重畳され、その前景として実写の被写体を合成可能となる。以下、本実施形態に係る画像領域抽出技術について説明する。
図4は、本実施形態に対応する複合現実感提示システムの構成の一例を示す図である。本実施形態において、複合現実感提示システムは、画像領域抽出装置400と頭部搭載型画像表示装置(以下、HMDと記述)420とで構成される。
また、図5は、本実施形態の複合現実感提示システムの利用形態の一例を示す図である。図5において、ユーザ501は、実写画像とCGを合成して表示するための表示装置であるHMD420を頭部502に装着している。該HMD420は、画像領域抽出装置400と有線又は無線接続される。
本実施形態では一例として、前景とすべき現実の被写体をユーザ501の手503とし、計測対象物体をユーザ501が手503で把持した箱504とし、背景とすべき現実の情景を壁505や窓506とした場合を説明する。即ち、現実の壁505や窓506などを背景として、箱504にパッケージデザイン等のCGを重畳表示し、該箱504の手前に実写の手503が表示される場合を例として説明する。
なお、以上の設定はあくまで発明の実施形態を説明するための一例であって、計測対象物体は、箱に限らず、具体物或いはそのモックアップであってもよい。たとえば、携帯電話やデジタルカメラ、リモコンなどのモックアップを計測対象物体として、該モックアップの表面に各機器の外観や画面表示内容を示すCGを重畳表示してもよい。
HMD420の概略構成は、図4に示す通りである。図4において、HMD420には、撮像部421と提示部422とが含まれる。撮像部421は、CCDやCMOSといった撮像素子を利用した小型の撮像装置であって、HMD420において、ユーザ501の視界方向と一致する向きに固定される。ユーザ501が取得する視覚情報とほぼ同一の画像情報を取得することができる。提示部422は、ユーザ501に対して画像情報を提示するため、HMD420においてユーザの眼前に位置するように固定されている。提示部422は例えば液晶パネルや有機ELパネル等で構成された小型の表示装置である。
画像領域抽出装置400は、画像入力部402、データ記憶部403、指標候補検出部404、位置姿勢計測部405、CG画像生成部406、非検出部位算出部407、画像属性抽出部408、被写体領域抽出部409及び画像合成部410を備える。HMD420の撮像部421は画像入力部402と接続され、画像合成部410は提示部422に接続されている。
現実空間中には、撮像部421によって撮影するための指標が配置されている。本実施形態では、計測対象物体上に配置された指標を用いる場合、より具体的に箱504を構成する各エッジを指標として用いる場合を説明する。撮像部421が出力する画像(以下、撮像画像と記述)は、画像入力部402に入力される。画像入力部402は、画像領域抽出装置400へ入力される撮像画像をデジタルデータに変換し、データ記憶部403に保存する。以下では便宜的にデジタルデータに変換した画像も「撮像画像」と記述する。
図6は、このような撮影画像の一例を示す図である。撮像画像600は、ユーザ501が箱504を手503に持って、眼前に掲げた状態を撮影した画像である。このとき、背景には壁505や窓506が写っている。なお、本実施形態の撮像画像600では、画像の左上端を原点としてXY座標系が設定され、撮像画像内の画像座標は当該XY座標系において求めることとする。
図4の説明に戻り、データ記憶部403は、画像入力部402から入力される画像、指標候補検出部404から入力される各指標候補の画像座標に関わる特徴量、指標の3次元配置情報が保持される。また、撮像部421のカメラパラメータ(パン,チルト及びロール角等)及び3次元CGデータ等のデータも保持される。
指標候補検出部404は、データ記憶部403に保持された撮像画像600を取得し、取得した撮像画像600から指標候補の画像座標に関わる特徴量を抽出し、データ記憶部403に出力する。本実施形態では、指標候補の画像座標に関わる特徴量として、撮像画像中から検出された各エッジの両端の画像座標を求める。
図7にエッジ抽出画像の一例を示す。図7では、エッジの端点を黒い丸印700で示している。このようにしてエッジの両端点の画像座標を求めることができる。なお、このようにして求められた両端点について、データ記憶部403に保持された指標の3次元配置情報に基づいて指標のモデルとのマッチングを行い、特徴量を絞り込んでもよい。その結果として、例えば図8に示すような各特徴量を抽出することができる。図8においては、黒丸印800で、指標候補の画像座標に関わる特徴量を示している。即ち、2つの黒丸印800の組み合わせにより各指標候補のエッジが特定されるもので、図8では、この計測対象物体である箱504に対応するエッジ候補を点線で示している。
ここで、指標の3次元配置情報の定義について、図9を参照して説明する。図9において、計測対象物体である箱504は8つの頂点C1からC8で構成され、当該頂点C1からC8の所定の組合せにより特定される計測対象物体のエッジが指標となる。図9では、頂点C1を基準としたXYZ座標系を設定している。即ち、C1の座標(x1、y1、z1)=(0,0,0)となる。これに対して、他の頂点の座標は、それぞれCn(xn、yn、zn)(n=2、3・・・8)で求められる。また、各エッジは、2つの頂点の組合せとして定義され、例えばX軸に沿ったエッジであれば{C1、C2}の組合せにより定義される。他のエッジについても同様である。
次に、図4の位置姿勢計測部405は、計測対象物体に対する撮像部421の相対的な位置及び姿勢を計測して、位置姿勢情報としてデータ記憶部403に出力する。本実施形態では、箱504に対する撮像部421の相対的な位置及び姿勢を計測して、データ記憶部403に出力する。
より具体的に、位置姿勢計測部405による位置及び姿勢の計測には、例えばHMD420に取り付けられた磁気式の位置姿勢センサ(不図示)を用いることができる。
また、指標候補検出部404で検出された指標候補の画像座標に関わる特徴量と、予めデータ記憶部403に保持された指標の3次元配置情報とに基づいて、計測対象物体(例えば箱504)に対する撮像部421の位置及び姿勢を計測してもよい。本実施形態では、指標候補の画像座標に関わる特徴量として、図8に示すような各エッジ両端800の画像座標を用いる場合を説明する。指標の3次元配置情報として、本実施形態では、図9に示すような計測対象物体座標系における各エッジ両端(C1からC8の組合せ)の3次元座標を用いる。なお、指標の3次元座標と画像座標の組から撮像装置の位置及び姿勢を算出する方法は、写真測量等の分野において知られているので、説明を省略する。
詳しくは、例えば、R.M.Haralick,C.Lee,K.Ottenberg,and M.Nolle:Review and analysis of solutions of the three point perspective pose estimation problem,International Journal of Computer Vision,vol.13,No.3,pp.331-356,1994.や、D.G.Lowe:Fitting parameterized three-dimensional models to images,IEEE Transactions on PAMI,vol.13,No.5,pp.441-450,1991.を参照されたい。
次に、CG画像生成部406は、データ記憶部403より、計測対象物体(例えば箱504)に対する撮像部421の相対的な位置及び姿勢、CGモデルの幾何情報および色やテクスチャなどの属性情報、および照明情報を取得する。そして、それらの情報を用いて3次元CG画像(仮想空間画像)を生成する。3次元CG画像の生成は既知の技術であるので、ここでは詳細な説明を省略する。なお、CG画像生成部406では、フルCG画像だけでなく、実写画像を利用した仮想空間画像を生成してもよい。
非検出部位算出部407はまず、計測対象物体(例えば箱504)に対する撮像部421の相対的な位置及び姿勢の情報(位置姿勢情報)を用いて、データ記憶部403に保持された指標の3次元配置情報を撮像画像600に投影する。本実施形態では、指標の3次元配置情報として、計測対象物体座標系における各エッジの両端の3次元座標(C1からC8の組合せ)を用いる。
次に、それらの画像座標で特定されるエッジと、指標候補検出部404で検出された指標候補の画像座標に関わる特徴量により特定されるエッジとを比較して、非検出部位、即ち被写体により隠蔽された計測対象物体の隠蔽部位を抽出する。本実施形態では、指標候補の画像座標に関わる特徴量として、各エッジの両端の画像座標を用いる。そして、算出した非検出部位の情報をデータ記憶部403へと出力する。
図10は、非検出部位の抽出の一例を説明するための図である。図10において、実線1001で示す部分は、指標の3次元配置情報を投影して得られる計測対象物体のエッジと、指標候補検出部404で検出された特徴量で特定される撮像画像から抽出された計測対象物体のエッジとの重複部分である。一方、点線1002で示す部分は、当該投影結果に基づく計測対象物体のエッジと、指標候補検出部404で検出された特徴量で特定される計測対象物体のエッジとが重複しない部分、即ち、被写体により隠蔽された非検出部位に相当する。なお、非検出部位1002の情報は、該非検出部位1002の両端点の画像座標により求めることができる。
なお、非検出部位を算出する際のノイズの影響を避けるため、ある閾値以上に連続して検出されなかった部位のみを非検出部位としてもよい。また逆に、想定外の被写体による隠蔽の影響を避けるために、該閾値以上に連続して検出されなかった場合には、非検出部位としなくてもよい。
なお、図10に示す例では、非検出部位を計測対象物体のエッジ上に設定しているが、これに限らず検出されなかった部位の周辺領域を含めてもよい。例えば、エッジ上のみならずエッジ上から数画素の幅を持たせた領域を非検出部位としてもよい。また、検出されなかった指標の部位が複数存在する場合には、それら全てを包含する凸包領域を非検出部位としてもよい。
次に、図4の画像属性抽出部408は、データ記憶部403より非検出部位の画像座標を取得し、撮像画像600の該非検出部位における画像属性を抽出し、データ記憶部403に格納する。この画像属性としては、たとえば非検出部位(図10の点線1002)の色情報(本実施形態では手503の色)を撮像画像600から抽出しデータ記憶部403に出力する。なお、色情報としては、色相や明度や彩度などを用いてもよい。
ここで、複数の非検出部位が存在する場合には、非検出部位毎に画像属性を抽出してもよいし、各画像属性の平均値を全体の画像属性としてもよい。前者の場合は、色が異なる複数の物体(たとえば、人間の手と衣服(袖))により計測対象物体が隠蔽されている場合に有効である。後者の場合は、ほぼ同一色の物体、たとえば人間の手に限らず、単色の上着やスパナやレンチなどのような単色の物体により計測対象物体が隠蔽されている場合に有効である。
なお、色情報は、多次元色空間における座標値として記述することができる。一般によく知られている表色系の種類には、RGB、YIQ、YCbCr、YUV、HSV、Lu*v*、La*b*など様々なものがある。より詳細に関しては、日本規格協会 JIS色彩ハンドブックに記載されているが、公知の技術事項であるのでここでの説明は省略する。表色系については、対象とする被写体の色彩特性に合わせて適当なものを任意に用いてよい。
本実施形態では、照明条件の相違による被写体の色彩特性の変化を相殺するために、輝度情報と色相情報とに分離する形式の表色系を用い、色相情報だけを用いる。このような表色系の代表的なものとしては、YIQやYCbCrがある。本実施形態では、YCbCr表色系を用いるものとする。
また、被写体領域抽出部409は、データ記憶部403から取得した撮像画像600と画像属性とを用いて、画像属性が共通する画素領域を被写体領域として抽出し、被写体領域を表す画像(被写体領域画像)をデータ記憶部403に出力する。より具体的に、例えば撮像画像600の各画素の色情報を、非検出部位1002の色情報と比較し、一致する(誤差が所定の閾値範囲内の)場合には当該画素が被写体の領域であると判定することができる。そして、被写体領域に含まれるならば「1」、それ以外では「0」とした2値画像を生成する。
図11は、このようにして撮像画像600を解析して生成した画像の一例を示す図である。図11に示すように、被写体領域画像1100は、モノクロ2値画像として生成される。このうち、白色領域1101は、被写体領域を示し、黒色領域1102は被写体以外が撮像されている領域を示している。このような被写体領域画像1100を用いることで、撮像画像600から被写体領域を抽出することができる。なお、図11の被写体領域画像1100でも、図6の撮像画像600と同様に画像の左上端を原点としてXY座標系が設定される。これにより、撮像画像600における任意の画素に対応する被写体領域画像1100の画素を容易に特定することができる。
なお、被写体領域画像1100を生成する際に、データ記憶部403より非検出部位1002の情報を併せて取得し、非検出部位1002と連結した画素領域のみを被写体として抽出してもよい。これにより、例えば撮像画像600に映っている被写体と同色の物体(窓506の枠等)が、被写体領域1101に含まれることを防止することができる。
次に、画像合成部410では、データ記憶部403から供給される撮像画像600、被写体領域1101を表す被写体領域画像1100、及び、CG画像生成部406から供給される仮想空間画像としての3次元CG画像を用いて、合成画像を生成する。
次に、図12を参照して、画像領域抽出装置400のハードウェア構成の一例を、図4の402乃至410の各構成ブロックをそれぞれソフトウェアとして実行可能な情報処理装置として説明する。
CPU1201は、RAM1202やROM1203に格納されたプログラムやデータを用いてコンピュータ全体の制御を行う。また、画像入力部402乃至画像合成部410の夫々のソフトウェアの実行を制御して、各部の機能を実現する。
RAM1202は、外部記憶装置1207や記憶媒体ドライブ1208からロードされたプログラムやデータを一時的に記憶するエリアを備えると共に、CPU1201が各種の処理を行うために必要とするワークエリアを備える。データ記憶部403の機能は、RAM1202によって実現される。
ROM1203は、画像領域抽出装置として機能するための処理プログラムや設定データなどが格納されている。キーボード1204、マウス1205は、操作者が夫々を用いて、各種の指示をCPU1201に入力するためのユーザインタフェースである。
表示部1206は、CRTや液晶画面などにより構成されており、例えば、指標の同定のために表示すべきメッセージ等を表示することができる。また、提示部422の機能の一部は、表示部1206によって実現されてもよい。
外部記憶装置1207は、ハードディスクなどの大容量情報記憶装置として機能する装置であって、OS(オペレーティングシステム)やソフトウェアのプログラム等が保存される。なお、本実施形態の説明において、既知であると説明する情報はここに保存されており、必要に応じてRAM1202にロードされる。
記憶媒体ドライブ1208は、CD−ROMやDVD−ROMなどの記憶媒体に記憶されているプログラムやデータをCPU1201からの指示に従って読み出して、RAM1202や外部記憶装置1207に出力する。
I/F(インタフェース)1209は、撮像部421を接続するためのアナログビデオポートあるいはIEEE1394等のデジタル入出力ポート、また、データを外部へ出力するためのイーサネット(登録商標)ポート等によって構成される。夫々が入力したデータはI/F1209を介してRAM1202に取り込まれる。画像入力部402の機能の一部は、I/F1209によって実現される。バス1210は、上述の各部を繋ぐ。
次に、図13を参照して、非検出部位算出部407による非検出部位1002の抽出処理を説明する。当該処理は、CPU1201が非検出部位算出部407のソフトウェアのプログラムを実行することで実現される。同フローチャートに従った処理は、ステップS1301の処理を行った後、夫々のエッジについてステップS1302からステップS1304の処理を行うことによって成されるものである。なお、以下の処理を行う前段で、同フローチャートに従ったプログラムコードは、RAM1002に既にロードされているものとする。
まず、ステップS1301において、非検出部位算出部407は、データ記憶部403より、位置姿勢計測部405で測定された箱504に対する撮像部421の相対的な位置及び姿勢の情報(位置姿勢情報)を取得する。また、撮像部421のカメラパラメータと、指標候補検出部404で検出された各エッジ両端の画像座標とを、データ記憶部403より取得する。
ステップS1302において、非検出部位算出部407は、データ記憶部403より、指標の3次元配置情報として、計測対象物体座標系におけるエッジ両端の各3次元座標(xn、yn、zn)を取得する。
ステップS1303において、非検出部位算出部407は、ステップS1302で取得したエッジ両端の3次元座標を撮像画像600に投影する。この投影の計算は、ステップS1301で取得した撮像部421の位置姿勢情報及びカメラパラメータに基づいて行われる。
ステップS1304において、非検出部位算出部407は、ステップS1301で取得したエッジ両端の画像座標により特定されるエッジと、ステップS1302で投影された3次元座標により特定されるエッジとを比較し、非検出部位1002を算出する。例えば、投影エッジの両端を結ぶ線分と、各検出エッジの両端を結ぶ線分との差分を取って、投影エッジの両端を結ぶ線分のうち差し引かれずに残った部分を非検出部位1002として算出する。なお、非検出部位1002の情報は、部位の開始位置と終了位置との、2点の画像座標により表すことができる。
ステップS1305において、非検出部位算出部407は、全てのエッジについてステップS1302からS1304の処理を行ったのか否かを判断する。もし、全てのエッジについて処理を行っている場合は(ステップS1305において「YES」)、本処理を終了する。一方、全てのエッジについて処理を行っていない場合は(ステップS1305において「NO」)、ステップS1302に戻って、処理対象となっていないエッジについて以上の処理を行う。
次に、図14を参照して、画像属性として色情報を用いる場合の、被写体領域1101を抽出する処理を説明する。図14のフローチャートに従った処理は、CPU1201が被写体領域抽出部409のソフトウェアのプログラムを実行することで実現される。同フローチャートに従った処理は、ステップS1401の処理を行った後、夫々の画素についてステップS1402からステップS1404の処理を行うことによって成されるものである。なお、以下の処理を行う前段で、同フローチャートに従ったプログラムコードは、RAM1202に既にロードされているものとする。
ステップS1401において、被写体領域抽出部409は、データ記憶部403より撮像画像600と、非検出部位1002の情報とを取得する。
ステップS1402において、被写体領域抽出部409は、撮像画像600における画像座標(i、j)のRGB値をYCbCr形式に変換し、CbCr平面での座標値(cb、cr)に変換する。
ステップS1403において、被写体領域抽出部409は、非検出部位1002の画像属性を、ステップS1402でのYCbCr形式に変換後の色情報として取得する。なお、このとき、複数の非検出部位1002が存在する場合には、各非検出部位に対応する色情報の平均により画像属性を求めてもよい。画像属性の他の求め方については、既に説明したとおりであるので、ここでは省略する。
続くステップS1404において、被写体領域抽出部409は、CbCr平面での座標値(cb、cr)を入力として、非検出部位1002の画像属性としての色情報の値と一致するか否かを判定し、被写体領域画像1100を生成する。ここでの一致判定は、入力値と画像属性の色情報との差分が、予め定められた閾値を超えない範囲に属するか否かにより、行うことができる。これにより、該入力色が被写体の色分布の領域に属するか否かを判定することができる。判定結果は、例えば、被写体の色分布領域に属すならば「1」、属さないならば「0」と二値で表してもよい。または、0から1までの連続値による確立分布で表現してもよい。
ステップS1405において、被写体領域抽出部409は、データ記憶部403に被写体領域画像1100を出力する。
本実施形態では、画像入力部402から供給される画像データがRGB形式で記述されているとしているが、画像データはYIQやYUVで記述されていてもよい。この場合には、ステップS1402を省略し、ステップS1403の(cb、cr)にIQあるいはUV空間の座標値を入力することにより、同様の効果が得られる。
次に、図15を参照して、画像属性として色情報を用いる場合の、画像合成処理を説明する。図15のフローチャートに従った処理は、CPU1201が画像合成部410のソフトウェアのプログラムを実行することで実現される。なお、以下の処理を行う前段で、同フローチャートに従ったプログラムコードは、RAM1202に既にロードされているものとする。
ステップS1501において、画像合成部410は、データ記憶部403より撮像画像600及び被写体領域画像1100を取得する。
ステップS1502において、画像合成部410は、データ記憶部403から供給された撮像画像600を画像表示のためのRAM1202内の記憶領域であるフレームバッファに転送する。
ステップS1503において、画像合成部410は、データ記憶部403から供給される被写体領域画像1100を、マスク処理のためのRAM1202内の記憶領域であるステンシルバッファに転送する。
ステップS1504において、画像合成部410は、まず仮想空間画像としてCG画像を生成する。生成されるCG画像の一例は、図16に示す通りである。図16において、CG画像1600は、CG領域1601と、非CG領域1602とが含まれる。CG領域1601は、撮像画像600における計測対象物体(箱504)の表示位置に対応して生成される。なお、図16のCG画像1600でも、撮像画像600や被写体領域画像1100と同様に画像の左上端を原点としてXY座標系が設定される。これにより、撮像画像600や被写体領域画像1100における任意の画素に対応するCG画像1600の画素を容易に特定することができる。
生成されたCG画像1600のうち、CG領域1601を構成する各座標(i、j)の画素についてステンシルバッファの値Stencil(I、j)を参照して、以下のようにフレームバッファに描画する。
Stencil(I、j)=1、すなわち撮像画像600中の画素real(I、j)が被写体領域1101に含まれる場合には、対応するフレームバッファの画素frame(I、j)を更新しない。
一方、Stencil(I、j)=0、すなわち撮像画像600中の画素real(I、j)が被写体領域1101に含まれていない場合で、かつ、CG画像の画素値cgi(I、j)が存在する場合は、Frame(I、j)の値を置換する。これにより、撮像画像600の画素値がCG画像の画素値cgi(I、j)により置き換えられる。
その結果、被写体領域1101では、常に撮像画像600の画素値がフレームバッファに描き込まれ、被写体領域でない領域1102では、CGが重畳されるべき部分に関してはCG画像の画素値がフレームバッファに描き込まれる。また、被写体領域でなく、かつ、CGが重畳されない領域は撮像画像600がフレームバッファに描き込まれる。
この画像合成処理の結果として生成される合成画像の一例は、図17に示す通りである。図17の合成画像1700では、箱504にはCGによるパッケージデザインが重畳される一方、ユーザ501の手503がその前景として表示されている。
このように、画像合成部410では、ステンシルバッファに保持された被写体領域画像1101をマスクデータとして、撮像画像600が書き込まれたフレームメモリへのCG画像1600の描画を制御する。本実施形態によれば、高速に合成処理を行うことができる。
以上のように、本実施形態によれば、撮像画像から抽出した画像属性に基づいて、被写体領域をその都度決定しているので、予め被写体の画像属性を登録しておく必要がなく、画像属性が異なる被写体であっても確実に撮像画像から抽出できる。
これにより、例えばHMDを装着したユーザは、現実の壁や窓を背景として、手で把持した箱に重畳されたCGを観察することができ、さらに、手をCGの手前に置いた状態を見ることが可能になる。
なお、本実施形態では、指標候補の画像座標に関わる特徴量として、エッジの両端点の画像座標を用いる場合を説明したが、エッジそのものの座標を用いてもよい。その場合、画像中で検出されたエッジ候補と予め保持されたエッジの3次元配置情報とに基づいて撮像装置の位置及び姿勢を求める必要があるが、その方法についてはコンピュータビジョン等の分野において知られているので、説明を省略する。
詳しくは、例えば、T.Drummond and R.Cipolla,"Real−time visual tracking of complex structures,"IEEE Trans.on Pattern Analysis and Machine Intelligence,vol.24,no.7,pp.932−946,2002.を参照されたい。併せて、A.I.Comport,E. Marchand,and F.Chaumette,"A real−time tracker for markerless augmented reality,"Proc. The Second Int'l Symp.on Mixed and Augmented Reality(ISMAR03),pp.36−45,2003.も参照されたい。
[第2の実施形態]
第1の実施形態では、画像属性抽出部408が抽出する画像属性として、色情報(手の色)を用いていた。しかし、画像属性抽出部408が抽出する画像属性は色情報に限られるものではなく、模様(繰り返しパターン)を用いてもよい。例えば、図18に示すように、被写体1801による計測対象物体1800の隠蔽部位であるところの非検出部位1802及び1803から、白と黒の縞模様を画像属性として抽出することができる。このような模様を画像属性として抽出する場合、非検出のエッジ(図18の点線1804、1805)から数画素の幅を持たせた領域を非検出部位(1802、1803)とするのが望ましい。これにより、領域内の模様の有無を判定することが可能となる。
次に、図19を参照して、画像属性として縞模様を抽出する処理を説明する。図19のフローチャートに従った処理は、CPU1201が画像属性抽出部408のソフトウェアのプログラムを実行することで実現される。なお、以下の処理を行う前段で、同フローチャートに従ったプログラムコードは、RAM1002に既にロードされているものとする。
まず、ステップS1901において、画像属性抽出部408は、データ記憶部403より非検出部位を取得する。ここでは、たとえば、図18の非検出部位1802及び1803のように、検出されなかったエッジから数画素の幅を持たせた領域が非検出部位として取得される。
続くステップS1902において、画像属性抽出部408は、取得した非検出部位における画像属性が縞模様であるかどうかを判定する。この判定は、非検出部位において、複数の色が一定方向に一定間隔で交互に並んでいるか否かを判別することにより実行される。もし複数の色が交互に並んでいれば縞模様であると判断し(ステップS1902において「YES」)、ステップS1903に移行する。
ステップS1903では、縞模様の間隔、縞模様を構成する複数の色情報、及び縞模様を構成する色情報の順序を画像属性として抽出する。一方、複数の色が交互に並んでいない場合は縞模様でないと判断し(ステップS1902において「NO」)、ステップS1904に移行する。ステップS1904では、画像属性として、たとえば非検出部位における色情報を抽出する。
続くステップS1905において、画像属性抽出部408は、抽出した画像属性をデータ記憶部403へと出力する。
このようにして取得された画像属性を利用して被写体領域1101を抽出する場合も、第1の実施形態における図14のフローチャートに従った処理を実行すればよい。その際、ステップS1404では、例えば画像属性に基づくマッチング処理を行って、模様を有する領域を特定することができる。
なお、画像属性抽出部408が抽出する画像属性としては、縞模様に限らず、市松模様、格子模様、水玉模様、千鳥格子模様、唐草模様、麻の葉模様なども、条件によっては用いることができる。つまり、図20に示すように、非検出部位を表す領域が模様の単位要素に対して十分大きい場合には用いることができる。図20では、被写体2000に格子模様が施されており、点線で囲まれた領域2001が非検出部位として抽出される場合を示している。この場合、非検出部位2001に基づいて画像属性2002を取得することができる。
なお、本実施形態において、画像属性抽出部408が抽出する画像属性は、色情報や模様に限らず、画像中から抽出可能な属性であれば何でもよい。
また、画像属性抽出部408が抽出する画像属性は複数であってもよい。すなわち、複数の色情報や複数の模様やそれらの組み合わせを画像属性として抽出してもよい。例えば図21に示す例では、非検出部位2101と2102が抽出され、非検出部位2102の画像属性は、手の肌色部分と、上着の袖の縞模様部分とで構成される。
以上のように、本実施形態によれば、撮像画像から抽出した模様の情報に基づいてその都度手の色を決定しているので、被写体の情報を予め登録しておく必要がなく、異なる被写体に対応することができる。
[第3の実施形態]
上記の実施形態において、指標としてエッジを用いる場合を例に説明したが、エッジに限らず、点マーカや点特徴を指標として用いてもよい。この場合、指標候補検出部404で検出する、指標候補の画像座標に関わる特徴量としては、撮像画像中から検出された点マーカや点特徴の画像座標を用いればよい。そして、非検出部位算出部407では、欠落した点マーカや点特徴、又はその周辺領域も含めた領域を非検出部位とすればよい。
さらに、エッジや点マーカや点特徴に限らず、2次元的な広がりを持った領域を指標として用いてもよい。この場合、この場合、指標候補検出部404で検出する、指標候補の画像座標に関わる特徴量としては、例えば、撮像画像中から検出された領域の輪郭を一定間隔で分割した各点の画像座標を用いればよい。そして、非検出部位算出部407では、領域の欠落部位、又はその周辺領域も含めた領域を非検出部位とすればよい。
また、上記の実施形態では、計測対象物体と撮像部の両方が移動する場合を想定していたが、一方又は両方が固定されている場合であっても、本発明を好適に適用可能である。
又、データ記憶部403に予め画像属性(例えば色情報など)を保持しておいてもよい。そして、非検出部位算出部407で算出された非検出部位の画像属性のうち、データ記憶部403に保持された画像属性と略同一のもののみを被写体領域抽出部409における被写体領域抽出に利用してもよい。これにより、ノイズの影響や意図しない対象物による隠蔽によって被写体以外の領域が抽出されてしまうことを防ぐことができる。
抽出された画像属性(例えば色情報など)をデータ記憶部403に保持しておいて再利用してもよい。これにより、指標(例えばエッジなど)を被写体(例えば手など)が隠蔽していない場合にも、CGが重畳された計測対象物体の手前に被写体を合成することが可能となる。
[その他の実施形態]
なお、本発明は、複数の機器(例えばホストコンピュータ、インタフェイス機器、リーダ、プリンタなど)から構成されるシステムに適用しても、一つの機器からなる装置(例えば、複写機、ファクシミリ装置など)に適用してもよい。
また、本発明の目的は、前述した機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムに供給し、そのシステムがプログラムコードを読み出し実行することによっても達成される。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現し、そのプログラムコードを記憶した記憶媒体は本発明を構成する。また、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した機能が実現される場合も含まれる。
さらに、以下の形態で実現しても構わない。すなわち、記憶媒体から読み出されたプログラムコードを、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込む。そして、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行って、前述した機能が実現される場合も含まれる。
本発明を上記記憶媒体に適用する場合、その記憶媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。
従来技術におけるクロマキー合成技術を説明するための図である。 従来技術における合成画像を説明する図である。 従来技術における被写体領域の抽出を説明する図であ 発明の実施形態に対応する複合現実感提示システムの構成の一例を示す図である。 発明の実施形態に対応する複合現実感提示システムの利用形態の一例を示す図である。 発明の第1の実施形態に対応する、撮像画像の一例を示す図である。 発明の第1の実施形態に対応する、エッジ抽出画像の一例を示す図である。 発明の第1の実施形態に対応する、撮像画像から検出された指標候補の一例を示す図である。 発明の第1の実施形態に対応する、指標の3次元配置情報の一例を説明するための図である。 発明の第1の実施形態に対応する、非検出部位の抽出の一例を説明するための図である。 発明の第1の実施形態に対応する、被写体領域抽出部409で生成される被写体領域画像の一例を示す図である。 発明の第1の実施形態に対応する、画像領域抽出装置400のハードウェア構成の一例を示す図である。 発明の第1の実施形態に対応する、非検出部位算出部407による非検出部位1002の抽出処理の一例を示すフローチャートである。 発明の第1の実施形態に対応する、画像属性として色情報を用いる場合の、被写体領域1101を抽出する処理の一例を示すフローチャートである。 発明の第1の実施形態に対応する、画像属性として色情報を用いる場合の、画像合成処理の一例を示すフローチャートである。 発明の第1の実施形態に対応する、CG画像の一例を示す図である。 発明の第1の実施形態に対応する、画像合成処理の結果の一例を示す図である。 発明の第2の実施形態に対応する、画像属性の抽出例を説明するための図である。 発明の第2の実施形態に対応する、画像属性の抽出処理の一例を示すフローチャートである。 発明の第2の実施形態に対応する、画像属性の他の抽出例を説明するための図である。 発明の第2の実施形態に対応する、画像属性の更に他の抽出例を説明するための図である。

Claims (16)

  1. 撮像装置で計測対象物体と被写体とを含む現実空間を撮像して得られた撮像画像を入力する入力手段と、
    前記計測対象物体上の指標の配置情報を保持する保持手段と、
    前記撮像画像から、前記指標の画像座標に関わる特徴量を抽出する抽出手段と、
    前記配置情報と前記特徴量とに基づいて、前記撮像画像において前記被写体により隠蔽された前記計測対象物体の隠蔽部位を特定する特定手段と、
    前記撮像画像における前記隠蔽部位に対応する位置の画像が有する属性に基づいて、前記撮像画像において前記被写体が表示されている被写体領域を表す被写体領域画像を生成する生成手段と、
    を備えることを特徴とする画像領域抽出装置。
  2. 前記生成手段は、前記撮像画像において前記属性と共通の属性を有する画素領域を前記被写体領域とみなすことにより、前記被写体領域画像を生成することを特徴とする請求項1に記載の画像領域抽出装置。
  3. 前記属性は、少なくとも色情報及び模様のいずれかであることを特徴とする請求項2に記載の画像領域抽出装置。
  4. 前記特定手段は、前記撮像装置の位置姿勢情報を算出する算出手段を備え、
    前記特徴量、前記配置情報及び前記位置姿勢情報に基づいて、前記撮像画像に前記配置情報を投影し、前記隠蔽部位を特定することを特徴とする請求項1乃至3のいずれか1項に記載の画像領域抽出装置。
  5. 前記指標は、前記計測対象物体を構成するエッジであって、
    前記隠蔽部位は、前記撮像画像から抽出された前記計測対象物体のエッジと、前記配置情報を前記撮像画像に投影して得られる前記計測対象物体のエッジとの差分に基づき特定されることを特徴とする請求項4に記載の画像領域抽出装置。
  6. 前記算出手段は、前記配置情報と前記特徴量とに基づいて、前記位置姿勢情報を算出することを特徴とする請求項4又は5に記載の画像領域抽出装置。
  7. 前記被写体領域画像と前記撮像画像とに基づき、前記撮像画像において前記計測対象物体が表示されている領域に仮想空間画像を合成して合成画像を生成する合成手段をさらに備えることを特徴とする請求項1乃至6のいずれか1項に記載の画像領域抽出装置。
  8. 撮像装置と、
    請求項7に記載の画像領域抽出装置と、
    前記合成画像を表示する表示装置と
    を備えることを特徴とする複合現実感提示システム。
  9. 撮像装置で計測対象物体と被写体とを含む現実空間を撮像して得られた撮像画像を入力する入力手段と、前記計測対象物体上の指標の配置情報を保持する保持手段とを備える画像領域抽出装置の制御方法であって、
    抽出手段が、前記撮像画像から、前記指標の画像座標に関わる特徴量を抽出する抽出工程と、
    特定手段が、前記配置情報と前記特徴量とに基づいて、前記撮像画像において前記被写体により隠蔽された前記計測対象物体の隠蔽部位を特定する特定工程と、
    生成手段が、前記撮像画像における前記隠蔽部位に対応する位置の画像が有する属性に基づいて、前記撮像画像において前記被写体が表示されている被写体領域を表す被写体領域画像を生成する生成工程と、
    を備えることを特徴とする画像領域抽出装置の制御方法。
  10. 前記生成工程では、前記撮像画像において前記属性と共通の属性を有する画素領域を前記被写体領域とみなすことにより、前記被写体領域画像を生成することを特徴とする請求項9に記載の画像領域抽出装置の制御方法。
  11. 前記属性は、少なくとも色情報及び模様のいずれかであることを特徴とする請求項10に記載の画像領域抽出装置の制御方法。
  12. 前記特定工程は、算出手段が前記撮像装置の位置姿勢情報を算出する算出工程を備え、
    前記特徴量、前記配置情報及び前記位置姿勢情報に基づいて、前記撮像画像に前記配置情報を投影し、前記隠蔽部位を特定することを特徴とする請求項9乃至11のいずれか1項に記載の画像領域抽出装置の制御方法。
  13. 前記指標は、前記計測対象物体を構成するエッジであって、
    前記隠蔽部位は、前記撮像画像から抽出された前記計測対象物体のエッジと、投影された前記配置情報から得られる前記計測対象物体のエッジとの差分に基づき特定されることを特徴とする請求項12に記載の画像領域抽出装置の制御方法。
  14. 前記算出工程では、前記配置情報と前記特徴量とに基づいて、前記位置姿勢情報を算出することを特徴とする請求項12又は13に記載の画像領域抽出装置の制御方法。
  15. 合成手段が、前記被写体領域画像と前記撮像画像とに基づき、前記撮像画像において前記計測対象物体が表示されている領域に仮想空間画像を合成して合成画像を生成する合成工程をさらに備えることを特徴とする請求項9乃至14のいずれか1項に記載の画像領域抽出装置の制御方法。
  16. コンピュータを請求項1乃至7のいずれか1項に記載の画像領域抽出装置として機能させるためのコンピュータプログラム。
JP2007146093A 2007-05-31 2007-05-31 画像領域抽出装置およびその制御方法、複合現実感提示システム及びコンピュータプログラム Withdrawn JP2008299670A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007146093A JP2008299670A (ja) 2007-05-31 2007-05-31 画像領域抽出装置およびその制御方法、複合現実感提示システム及びコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007146093A JP2008299670A (ja) 2007-05-31 2007-05-31 画像領域抽出装置およびその制御方法、複合現実感提示システム及びコンピュータプログラム

Publications (1)

Publication Number Publication Date
JP2008299670A true JP2008299670A (ja) 2008-12-11

Family

ID=40173123

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007146093A Withdrawn JP2008299670A (ja) 2007-05-31 2007-05-31 画像領域抽出装置およびその制御方法、複合現実感提示システム及びコンピュータプログラム

Country Status (1)

Country Link
JP (1) JP2008299670A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010177788A (ja) * 2009-01-27 2010-08-12 Brother Ind Ltd ヘッドマウントディスプレイ
CN111989910A (zh) * 2018-04-12 2020-11-24 三菱电机株式会社 图像处理装置、图像处理方法和图像处理程序
CN114424519A (zh) * 2019-09-25 2022-04-29 索尼集团公司 图像处理装置、图像处理方法、程序和图像处理系统

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010177788A (ja) * 2009-01-27 2010-08-12 Brother Ind Ltd ヘッドマウントディスプレイ
CN111989910A (zh) * 2018-04-12 2020-11-24 三菱电机株式会社 图像处理装置、图像处理方法和图像处理程序
CN114424519A (zh) * 2019-09-25 2022-04-29 索尼集团公司 图像处理装置、图像处理方法、程序和图像处理系统

Similar Documents

Publication Publication Date Title
US9940756B2 (en) Silhouette-based object and texture alignment, systems and methods
JP4136420B2 (ja) 情報処理方法および装置
JP5474169B2 (ja) 画像処理装置、画像処理方法
JP4137078B2 (ja) 複合現実感情報生成装置および方法
JP5013961B2 (ja) 位置姿勢計測装置及びその制御方法
US8280115B2 (en) Image processing apparatus and image processing method
EP1596329B1 (en) Marker placement information estimating method and information processing device
EP3218878B1 (en) Image to item mapping
EP1596330B1 (en) Estimating position and orientation of markers in digital images
JP5248806B2 (ja) 情報処理装置、情報処理方法
JP5818773B2 (ja) 画像処理装置、画像処理方法及びプログラム
US20050234333A1 (en) Marker detection method and apparatus, and position and orientation estimation method
JP7031697B2 (ja) 情報処理装置および認識支援方法
JP2008046750A (ja) 画像処理装置および方法
JP6293386B2 (ja) データ処理装置、データ処理方法及びデータ処理プログラム
US11900552B2 (en) System and method for generating virtual pseudo 3D outputs from images
US11967094B2 (en) Detecting device, information processing device, detecting method, and information processing program
JP2008299670A (ja) 画像領域抽出装置およびその制御方法、複合現実感提示システム及びコンピュータプログラム
JP6362401B2 (ja) 画像処理装置及び画像処理装置の制御方法
JP4323910B2 (ja) 画像合成装置及び方法
WO2023188671A1 (ja) 点検支援システム、点検支援方法、及び、点検支援プログラム
JP4745724B2 (ja) 画像処理方法、画像処理装置
JP2004030408A (ja) 三次元画像表示装置及び表示方法
US11138807B1 (en) Detection of test object for virtual superimposition
JP6341540B2 (ja) 情報端末装置、方法及びプログラム

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20100803