JP2004265222A - インタフェース方法、装置、およびプログラム - Google Patents
インタフェース方法、装置、およびプログラム Download PDFInfo
- Publication number
- JP2004265222A JP2004265222A JP2003056046A JP2003056046A JP2004265222A JP 2004265222 A JP2004265222 A JP 2004265222A JP 2003056046 A JP2003056046 A JP 2003056046A JP 2003056046 A JP2003056046 A JP 2003056046A JP 2004265222 A JP2004265222 A JP 2004265222A
- Authority
- JP
- Japan
- Prior art keywords
- image
- dimensional
- information
- end point
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
【解決手段】距離画像生成部12は画像入力部111,112で得られた入力画像I1,I2を用いて、ステレオ法による画像処理により距離画像を生成する。始終点2次元座標算出部13は入力画像I1上で、操作者の体の予め定めた部位2箇所(始点と終点)を検出し、該入力画像上でのこれらの2次元座標を算出する。始終点3次元座標算出部14は距離画像と、始点・終点の2次元座標から、始点・終点の3次元座標と、操作者の指し示す3次元指示方向座標を算出する。3次元指示位置検出部15は、3次元指示方向情報と、実空間にある物体の情報とから、操作者が指し示す3次元指示位置情報を検出する。
【選択図】 図1
Description
【発明の属する技術分野】
本発明は、複数台のカメラで撮影された画像を入力画像とし、操作者(ユーザ)が何も装着せずに、体の部位(指や腕等)を用いて指し示した実空間内の位置もしくは物体を検出するインタフェース装置に関する。
【0002】
【従来の技術】
これまで、コンピュータと人間とのインタフェースに関し、人間の3次元的な動作に基づくインタフェース装置や方法としては、以下に挙げたような従来例がある。
【0003】
第1の従来例として、体に動作計測可能なセンサを装着し、センサ情報から動きを検出する装置、例えば、磁気センサを用いた装置(ASCENSION社の「MotionStar」等)や、機械式センサを用いた装置(スパイス社の「Gypsy」、Immersion社の「CyberGlove」等)等の市販製品がある。また、非特許文献1に記載の方法がある。これは加速度センサ等を取り付けたグローブを手に装着して、ジェスチャを認識するものである。
【0004】
第2の従来例として、非特許文献2に記載の方法がある。本方法は、腕の制約条件を利用して、1個のカメラ入力画像から腕の部分を抽出し、追跡するものである。
【0005】
第3の従来例として、非特許文献3に記載の方法がある。本方法は、体の中に求めた座標位置(「仮想投射中心」)と、検出した指先の座標位置を結び、延長した指示軸線がスクリーンと交差する点をカーソル位置(指示位置)とする方法である。仮想投射中心位置は、スクリーンの4つの角位置から指先へ延長した直線の交点から求めているので、指示できる位置はスクリーン上のみである。指先の位置の抽出は、2台のカメラを用い、1台を上部から撮影する位置に設置することにより、スクリーンに最も近い物体を検出することで実現している。
【0006】
第4の従来例として、非特許文献4に記載の方法がある。本方法は、多眼ステレオカメラを用いて生成した距離画像を用いて、スクリーン(入力画像を表示している表示装置の画面)に最も近い物体の検出によって指先の位置を抽出し、また色情報と距離画像を用いて眉間(目)の位置を検出し、これらを結んだ延長線がスクリーンと交差する点をカーソル位置(指示位置)とする方法である。指示できる位置はスクリーン上のみである。
【0007】
【非特許文献1】
塚田ら,”Ubi−Finger:モバイル指向ジェスチャ入力デバイスの試作”,インタラクティブとソフトウェアに関するワークショップ(WISS2001),pp.119−124,2001
【非特許文献2】
安部ら,”オプティカルフローと色情報を用いた腕の動作の3次元追跡”,画像の認識・理解シンポジウム(MIRU2002),pp.I267−I272,2002
【非特許文献3】
福本ら,”動画像処理による非接触ハンドリーダ”,第7回ヒューマン・インタフェース・シンポジウム論文集,pp.427−432,1991
【非特許文献4】
金次ら,“指さしポインターにおけるカーソル位置の特定法”電子情報通信学会画像工学研究会,2002.1
【0008】
【発明が解決しようとする課題】
しかしながら、上述した従来の方法では、以下に示す問題があった。
1)第1の従来例は、手または指の動作を認識できるが、体の部位に常に何らかの装置を装着する必要があるため、実用的なインタフェース装置としての利便性に欠ける。
2)第2の従来例は、体に何も装着せずに腕の動作を認識できるが、カメラ1台のみの情報を使っているので奥行き方向の情報が直接得られないため、3次元的なユーザの腕の動きを精度良く抽出できない。
3)第2の従来例は、腕の3次元的な動作を抽出しているが、腕や指の指し示す方向や指し示した位置を認識するような3次元的なポインティング手法に関しては検討されていない。
4)第3、第4の従来例は、ユーザが非装着かつ非接触に、3次元的な動作により、スクリーン上の位置を指示することができるポインティング方法であるが、指し示せるのはスクリーン上の位置だけであるため、実空間中の3次元的な位置や物体を直接指し示すことはできない。
【0009】
本発明の目的は、装着型のため利便性に欠ける問題、カメラ1台利用の方法では奥行き精度が悪い問題、3次元的なポインティング手法について検討されていない問題、スクリーン上のポインティングができる実空間中への3次元的なポインティングはできない問題を、解決したインタフェース方法、装置、およびプログラムを提供することにある。
【0010】
【課題を解決するための手段】
上記目的を達成するために、本発明の第1の態様によれば、インタフェース装置は、
複数台のカメラで撮影した画像を入力する画像入力手段と、
該入力画像のうち2個以上の入力画像を用いて、ステレオ法による画像処理により距離画像を生成する距離画像生成手段と、
距離画像生成手段で用いた入力画像のうち少なくとも1個の入力画像上で、操作者の体の予め定めた部位2箇所を始点および終点として検出し、該入力画像上でのそれらの2次元座標を算出する始終点2次元座標算出手段と、
距離画像と、始点・終点の該入力画像上での2次元座標とから、実空間上における始点・終点の3次元座標を算出し、操作者の指し示す、実空間上での3次元指示方向情報を算出する始終点3次元座標算出手段と、
実空間上にある物体の情報、すなわち一部もしくは全体に渡る3次元位置情報およびその付加情報を登録する空間情報登録手段と、
操作者の指し示す、実空間上での3次元指示方向情報と、空間情報登録手段によって登録された物体の情報とから、操作者が指し示す3次元指示位置情報、すなわち操作者が指し示す方向の延長線と、登録された物体との交点に関する情報を検出する3次元指示位置検出手段とを有している。
【0011】
非装着であること、また複数台のカメラを用いることにより奥行き情報を精度良く得られること、また3次元的なポインティングを実現できること、さらにスクリーン上だけでなく実空間へのポインティングも可能であることから、前記課題の1)、2)、3)、4)を解決できる。
【0012】
本発明の第2の態様によれば、インタフェース装置は、画像入力手段と距離画像生成手段と始終点2次元座標算出手段と始終点3次元座標算出手段とからなる組を複数組有し、複数の始終点3次元座標算出手段から得られた複数の始点・終点3次元座標情報を入力し、1個の始点・終点3次元座標情報に統合し、操作者の指し示す、実空間上での3次元指示方向情報を算出する始終点3次元座標統合手段と、実空間上にある物体の情報、すなわち一部もしくは全体に渡る3次元位置情報およびその付加情報を登録する空間情報登録手段と、操作者の指し示す実空間上での3次元指示方向情報と、空間情報登録手段によって登録された物体の情報とから、操作者が指し示す、実空間上での3次元指示位置情報、すなわち操作者が指し示す方向の延長線と、登録された物体との交点に関する情報を検出する3次元指示位置検出手段を有している。
【0013】
第1の態様の利点に加え、1方向からの距離画像だけでなく、複数の方向からの距離画像(奥行き情報)が得られるため、ユーザの動作によらず常にユーザの3次元動作をより精度良く認識することができる。
【0014】
また、本発明の第3の態様によれば、インタフェース装置は、第1または第2の態様のインタフェース装置に、入力画像のうち操作者を含む1個の入力画像を用いて、左右反転した反転画像を生成する反転画像生成手段と、第1の態様のインタフェース装置の各手段で得られた情報、すなわち距離画像に関する情報、始点・終点の2次元座標情報、始点・終点の3次元座標情報、操作者の指し示す、実空間上での3次元指示方向情報、および3次元指示位置情報を含むの一部もしくは全部を、該反転画像上に表示する情報表示手段とをさらに有している。
【0015】
第1、第2の態様と同様に、非装着であること、また複数台のカメラを用いることにより奥行き情報を精度良く得られること、また3次元的なポインティングを実現できること、さらにスクリーン上だけでなく実空間へのポインティングも可能であることから、前記課題の1)、2)、3)、4)を解決できる。
【0016】
また、第1、第2の態様に加え、自己画像を見ながらインタフェース動作を行えるので、よりユーザの利便性を向上させることができるため、課題1)をより良く解決できる。
【0017】
本発明の第4の態様によれば、インタフェース装置は第1から第3の態様のインタフェース装置において、複数台のカメラではなく、1台以上のカメラと投光装置を用いた能動的なステレオ法による画像処理により距離画像を生成する距離画像生成手段を有している。
【0018】
このため、汎用性を高めるとともに、応用先を広げることができる。
【0019】
【発明の実施の形態】
次に、本発明の実施の形態について図面を参照して説明する。
【0020】
(第1の実施形態)
図1は本発明の第1の実施形態のインタフェース装置のブロック図、図2はその全体の処理の流れを示すフローチャートである。
【0021】
本実施形態のインタフェース装置は、複数台(この場合、2台)のカメラで撮影された画像I1,I2を入力画像とし、操作者(ユーザ)が何も体に装着せずに、体の部位(指や腕等)を用いて指し示した実空間内の位置(もしくは物体)を検出するインタフェース装置で、ユーザの直接的で直感的な3次元指示動作に基づき、3次元空間上での指示位置を認識することができる装置である。
【0022】
本インタフェース装置は画像入力部111,112と距離画像生成部12と始終点2次元座標算出部13と始終点3次元座標算出部14と3次元指示位置検出部15と空間情報登録部16から構成される。以下、各部の機能を説明する。
【0023】
画像入力部111,112としては、図1のように2台(もしくは3台以上)のカメラを用いる。カメラは一般に用いられるビデオカメラやCCDカメラでよく、白黒でもカラーでもよい。ただし、後述する色情報を使用した方法を用いる場合はカラーカメラが必要である。2台のカメラの場合、カメラは、ステレオ法による画像処理が可能な程度の距離に置き、かつカメラの視線方向(光軸)は3次元空間上で並行、もしくは並行に近いように設置する。3台以上の場合も同様(含まれる2台が同様の条件)である。
【0024】
距離画像生成部12は、入力された2個の入力画像I1,I2から、ステレオ法による画像処理を用いて距離画像を生成する(ステップ21)。距離画像とは、カメラから物体までの距離を視覚化した画像のことで、例えば近いものを明るく(値を大きく)、遠いものを暗く(値を小さく)して表示するものである。また、ステレオ法とは、両眼立体視とも言い、人間の両眼と同様に、同一の物体を異なる2つの視点から見ることにより、対象物の3次元的な位置を測定する方法である。距離画像を生成する具体的な画像処理方法の例としては、市販の製品(Point Grey Research社のDigiclops(3眼カメラ式)やBumblebee(2眼カメラ式)等)を用いる方法がある。これらは各々、2個もしくは3個のカメラが内蔵された画像入力機器であり、出力として距離画像を生成できるものである。また、ステレオ法を用いる方法は、画像処理分野において一般的である(発表文献多数)ので、任意の2個以上のカメラを用いて自作することも可能である。
【0025】
始終点2次元座標算出部13は、距離画像生成部12で用いた入力画像I1,I2のうち少なくとも1個の入力画像、この場合、入力画像I1を用いて、ユーザの体の予め定めた部位2箇所(始点と終点)の入力画像上での2次元座標を算出するものである(ステップ22)。始点と終点は、例えば、ユーザの肩の位置を始点とし、手の位置を終点とすることが考えられる。これにより、この場合は腕を伸ばした手の先の方向が後述する3次元指示方向となる。肩と手の位置を始点・終点とした場合の入力画像上での具体的な検出方法について、以下に示す。
【0026】
手の位置を画像処理により検出する方法としては、例えば、入力画像をカラー画像とした場合、カラー画像中のRGB等の色情報から肌色成分(任意に幅を持たせた色の値の範囲で指定可能)を抽出し、ラベリング処理を行う。得られた複数の肌色部分の中から、手の大きさや位置等の制約情報(例えば、手の大きさから推測される可能性のある肌色面積の範囲を指定したり、入力画像上の天井付近や床付近等、手が存在する可能性の低いところを除外したりする等の制約)を利用して、目的とする手の肌色部分を選択する。選択する具体的な方法の例としては、ユーザが通常衣服を着ているとすると、肌色部分の候補となる可能性が高いのは両手と顔と考えられ、また最も面積の大きいのは顔と考えられるので、2番目と3番目に面積が大きい肌色部分を手の候補として選択する。ユーザ指定位置として両手2つ使うとした場合、その2つの(2番目と3番目に大きい)肌色部分の候補に対する各重心位置を、各々左右の手のユーザ指定位置とすればよい。左右の選択は左手側にあるものを左手、右手側にあるものを右手とすればよい。また、ユーザ指定位置を1つ(片手)だけ使うとした場合は、2つの候補から1つを選ぶ必要があるが、予め例えば右手を指定する手としたら、体より右手側にある候補を(右手の可能性が高いことから)右手の肌色部分として選び、その重心位置を右手のユーザ指定位置とすればよい。(左手の場合も同様である。)
また、肩の位置を画像処理により検出する方法としては、例えば、初めに顔の位置を抽出してから肩の位置を算出する方法がある。具体的には、まず、前記の肌色抽出処理を行った結果から、1番目に面積が大きい肌色部分は顔の可能性が高いので、その肌色部分を顔と判断し、その重心を求める。次に、(通常の姿勢では)肩の位置は顔の重心位置から下へある程度の距離、左右へある程度の距離ずらしたものと仮定することができるので、予めそのずらす距離を決めておいて(個人差あるのでユーザによって値を変えてもよい)、顔の重心位置から左右の肩の位置を算出することができる。また、始点・終点の2次元座標を出力する際に、その候補値を複数求め、始終点3次元座標算出部14へ複数の値を出力してもよい。その場合、これら複数の候補値は始終点3次元座標算出部14において、始終点の3次元座標を求める際に用いられる。このようにして、始点・終点の入力画像上での2次元座標を求めることができる。ここでは、肩の位置を始点としているが、前記により求められる顔の位置(重心)をそのまま始点としてもよい。その場合、顔の位置と手の位置を結ぶ延長線がユーザの指示方向となる。
【0027】
始終点3次元座標算出部14は、生成された距離画像情報と、始点・終点の2次元座標から、始点・終点の3次元座標値を求めるものである(ステップ23)。具体的な方法としては、例えば、距離画像上で、始点の入力画像上での2次元座標と同じ位置の値(距離値)を参照し、それを始点の距離値とすればよい。終点も同様である。3次元の実空間上において、入力画像の2次元座標系と3次元座標系の変換は一般に、予め容易に算出しておけるので、それに基づいて、得られた入力画像上での始点および終点の2次元座標値とその各距離値から、始点と終点の3次元空間上での3次元座標値を求めることができる。さらに、得られた始点・終点の2つの3次元座標値から、2点を結ぶ3次元直線を求めることにより、ユーザの指示方向を求めることができる。また、始点・終点の2次元座標が複数入力された場合(始終点2次元座標算出部13にて記述)、距離画像情報に基づいて、始点・終点を複数の2次元座標候補から選択することもできる。例えば、ユーザのいる位置が予め制限された空間内にしかいないとすると、その制限を越えた場所を指示する候補を除くこと等が可能である。すなわち、始終点3次元座標算出部14において、始終点3次元座標だけでなく、始終点2次元座標の絞込み処理も可能である。これにより、始終点2次元座標算出部13における誤検出を、異なる情報(距離画像情報)を用いて除外できるので、精度の向上が期待できる。
【0028】
3次元指示位置検出部15は、ユーザが指し示した実空間中の3次元位置を検出するものである(ステップ24)。具体的な方法としては、まず、始終点3次元座標算出部14で求められた始点と終点を結ぶ3次元直線を手(終点)方向に延長していく。このとき、該延長線が、予め登録されている空間中の物体等の3次元位置情報と交差するものがあった場合は、その物体等の位置を、ユーザが指示する3次元指示位置として検出する。空間中の物体等の情報については、空間情報登録部16において説明する。
【0029】
空間情報登録部16は、ユーザが指示する可能性のある実空間中の物体等の情報を空間情報データ17に登録するものである(ステップ25)。実空間中の物体等としては、例えば、ユーザが部屋の中にいる場合には、部屋の中にある家電機器等(テレビ、エアコン、コンピュータ、時計、窓、棚、椅子、机、引出し、書類、オーディオ機器、照明機器等)の物体や、また部屋自体の壁、床、天井、窓等、任意のものが対象として考えられる。これらの物体等の情報(3次元位置の座標情報やその他物体に関する情報等)は、予め空間情報データ17に登録・保存しておく。また、情報の登録に関しては、予め固定の3次元位置座標としておくのではなく、対象とする実物体毎に位置認識可能なセンサ(市販されている磁気センサ、超音波センサ、赤外線タグ、無線タグ等)を取り付けておくことにより、各々の物体の位置をリアルタイムに認識することができるので、それらにより得られた3次元位置情報から該物体情報を生成し、常時その物体の3次元位置座標等の情報を更新していくことも可能である。この場合、物体を移動させても3次元位置情報等をリアルタイムに更新させることができる。
【0030】
以上のように、本実施形態によれば、ユーザが腕を伸ばして、3次元空間中の物体等を直接実空間中で指し示すと、その3次元的な指示動作に基づき、指し示された3次元位置(物体)を検出することが可能になる。
【0031】
(第2の実施形態)
図3は本発明の第2の実施形態のインタフェース装置のブロック図、図4はその全体の処理の流れを示すフローチャートである。
【0032】
本実施形態のインタフェース装置は、複数台(この場合、2台)のカメラで撮影された画像I1,I2を入力画像とし、操作者(ユーザ)が体に何も装着せずに、体の部位(指や腕等)を用いて指し示した実空間内の位置(もしくは物体)を検出するインタフェース装置で、ユーザの直接的で直感的な3次元指示動作に基づき、3次元空間上での指示位置を認識することができ、かつその操作時にユーザが自己画像を見ながらインタフェース動作を行える装置である。
【0033】
本インタフェース装置は画像入力部111,112と距離画像生成部12と始終点2次元座標算出部13と始終点3次元座標算出部14と3次元指示位置検出部15と空間情報登録部16と反転画像生成部18と情報表示部19から構成される。以下、各部の機能を説明する。
【0034】
画像入力部111,112、距離画像生成部12、始終点2次元座標算出部13、始終点3次元座標算出部14、空間情報登録部16の機能については、第1の実施形態と同じである。
【0035】
3次元指示位置検出部15は、第1の実施形態と同様の処理を行うが、得られた3次元指示位置情報は情報表示部19へも送られる。このとき、既に得られている始点・終点の2次元座標情報や、始点・終点の3次元座標情報や3次元指示方向情報も、併せて情報表示部19へ送ってもよい。この場合、始終点2次元座標算出部13から直接情報表示部19へ、また始終点3次元座標算出部14から直接情報表示部19へ、各々で得られた情報を送出してもよい。
【0036】
反転画像生成部18は、画像入力部で入力された入力画像I1を左右反転させた画像(反転画像)を生成する。コンピュータ内へ取り込んだ入力画像に対し市販の汎用画像処理ソフトウェア(例:HALCON)により、リアルタイムに反転画像を生成することができる。または、入力画像を入力し反転画像をリアルタイムに生成する市販の機器(例:(株)朋栄の画面左右反転装置UPI−100LRF、またはカメラ一体型でSONYのEVI−D100)でも実現できる。また、入力画像を反転せずにそのまま出力することは容易に可能であり、利用目的に応じて、入力画像を左右反転させたり反転させなかったりすることも可能である。
【0037】
情報表示部19は、3次元指示位置検出処理(ステップ24)に至るまでに得られた情報(距離画像に関する情報、始点・終点の2次元座標情報、始点・終点の3次元座標情報、操作者の指し示す3次元指示方向情報、および3次元指示位置情報等)の一部もしくは全部を、該反転画像上に重ね合わせてディスプレイに表示する(ステップ27)。これにより、例えば、入力画像中で該3次元指示位置に対応する座標位置にCGによるマークを表示することが可能になる。ディスプレイは、コンピュータ用に使われる汎用のディスプレイでよく、コンピュータの出力画面(CG等の表示)とカメラ画像を表示できるものであればよい。
【0038】
(第3の実施形態)
図5は本発明の第3の実施形態のインタフェース装置のブロック図、図6はその全体の処理の流れを示すフローチャートである。
【0039】
本実施形態のインタフェース装置は、複数台(この場合、4台)のカメラ111〜114で撮影された画像I1〜I4を入力画像とし、操作者(ユーザ)が何も装着せずに、体の部位(指や腕等)を用いて指し示した実空間内の位置(もしくは物体)を検出するインタフェース装置で、ユーザの直接的で直感的な3次元指示動作に基づき、3次元空間上での指示位置を認識することができる装置である。
【0040】
本インタフェース装置は、4台の画像入力部111〜114と2つの距離画像生成部121,122と2つの始終点2次元座標算出部131,132と2つの始終点3次元座標算出部141,142と始終点3次元座標統合部20と3次元指示位置検出部15と空間情報登録部16から構成される。以下、各部の機能を説明する。
【0041】
画像入力部(カメラ)111〜114、距離画像生成部121,122、始終点2次元座標算出部131,132、始終点3次元座標算出部141,142は、第1、第2の実施形態と同様である(ステップ211,212,221,222,231,232)。本装置では、これら4つの処理部11,12,13,14を1組として、2組用意するものである。画像入力部11におけるカメラは、1組につき2個となるが、セット毎にカメラの配置する位置、方向を変えておく。これにより、1方向からの距離画像だけでなく、複数の異なる方向からの距離画像(奥行き情報)が得られるので、ユーザの動作によらずユーザの3次元動作を常に精度良く認識することができるようになる。得られた2組の始終点3次元座標情報は始終点3次元座標統合部20へ送出される。
【0042】
始終点3次元座標統合部20は、送られた複数(nとする)の始終点3次元座標(X0,Y0,Z0)〜(Xn,Yn,Zn)から、1つの始終点3次元座標を求めるものである(ステップ28)。具体的な方法としては、例えばすべての座標の平均値(XA,YA,ZA)=((X0+X1+・・・+Xn)/n,(Y0+Y1+・・・+Yn)/n,(Z0+Z1+・・・+Zn)/n)を求める方法等がある。これにより、ユーザの動作方向によっては奥行き等の誤差が大きくなる場合に、別の方向からの座標情報によって誤差を小さくすることが可能である。また、このとき、誤差が大きくなり、明らかに誤検出した値であると(制約条件等により)判断される座標があっても、もともと冗長な情報をもっているので、それらの誤情報を除いて求めることにより精度を向上させることができる。誤検出は、例えば天井等で手や肩があり得ない位置座標であった場合や、手と肩の位置関係が離れすぎている場合等のさまざまな制約条件から判断することができる。
【0043】
3次元指示位置検出部15の機能は、第1、第2の実施形態の3次元指示位置検出部15と同様である。ここでは、始終点3次元座標統合部20で得られた1つの始点・終点の3次元座標情報を入力し、第1、第2の実施形態と同様にして、3次元指示位置を検出して出力するものである。空間情報登録部16も、第1、第2の実施形態の空間情報登録部16と同様の働きをする。
【0044】
(第4の実施形態)
図7は本発明の第4の実施形態のインタフェース装置のブロック図、図8はその全体の処理の流れを示すフローチャートである。
【0045】
本実施形態のインタフェース装置は、複数台(この場合、4台)のカメラ111〜114で撮影された画像I1〜I4を入力画像とし、操作者(ユーザ)が何も体に装着せずに、体の部位(指や腕等)を用いて指し示した実空間内の位置(もしくは物体)を検出するインタフェース装置で、ユーザの直接的で直感的な3次元指示動作に基づき、3次元空間上での指示位置を認識することができ、かつその操作時にユーザが自己画像を見ながらインタフェース動作を行える装置である。
【0046】
本実施形態のインタフェース装置は、第2の実施形態で述べた自己画像を表示する機能と、第3の実施形態で述べた複数方向からの複数組の距離画像情報を用いる機能とを組み合わせた実施形態である。
【0047】
本インタフェース装置は、画像入力部111〜114と距離画像生成部121,122と始終点2次元座標算出部131,132と始終点3次元座標算出部141,142と始終点3次元座標統合部20と3次元指示位置検出部15と空間情報登録部16と反転画像生成部18と情報表示部19から構成される。
【0048】
画像入力部111〜114、距離画像生成部121,122、始終点2次元座標算出部131,132、始終点3次元座標算出部141,142、始終点3次元座標統合部20、3次元指示位置検出部15、空間情報登録部16は、いずれも第3の実施形態の対応するものと同じ働きを示す。また、反転画像生成部18、情報表示部19は、いずれも第2の実施形態の対応するものと同じ働きをする。
【0049】
(第5の実施形態)
図9は本発明の第5の実施形態のインタフェース装置のブロック図、図10はその全体の処理の流れを示すフローチャートである。
【0050】
本実施形態のインタフェース装置は、図1の第1の実施形態のインタフェース装置において2台の画像入力部111,112(カメラ)から入力画像を生成する受動的なステレオ法を用いる代りに、1台の画像入力部11と1台の投光部31を用いた能動的なステレオ法により距離画像を生成するものである。
【0051】
2個以上の画像から距離画像を生成する受動的なステレオ法とは、例えば視線方向がほぼ同じで近接した2個のカメラの入力画像同士間で、対応する点を探し(対応点探索を行い)、その座標値のずれの大きさ(視差)からその点の距離を求める方法である。距離の計算には、三角測量の原理を用いている。この方法は、対応点探索が難しく精度が良い距離画像が得られにくい問題があるが、光を照射するなどの能動的な動作や装置は必要なく、撮影環境等に影響されない利点を持っている。例えば、市販の製品で、Point Grey Research社のDigiclops(3眼カメラ式)やBumblebee(2眼カメラ式)等がある。
【0052】
これに対し、投光装置を用いた能動的なステレオ法とは、2個のカメラのうち1台を、光を投射する光源に置き換え、対応点探索のための手がかりとなる情報を対象物に直接投射する方法である。光は、スリット光、スポット光、多種に変化するパターン光など、各種の光を用いる方法もしくは製品が提案もしくは市販されている。この方法は、光を投射する複雑な装置が必要であり、また撮影環境にも影響される問題があるが、対応点探索は安定して行えるので、精度良く距離画像を求めることができる利点を持っている。例えば、市販の製品で、NECエンジニアリング社のDanae−R(非接触型3次元形状計測用レンジファインダ)等がある。
【0053】
これら2つのステレオ法はいずれも距離画像を求めることができるので、互いに置き換えることが可能である。よって2台以上のカメラだけを使うのではなく、1台以上のカメラと投光装置を用いた能動的なステレオ法も利用可能とすることにより、利用できる手法も市販機器も広くなり、汎用性を高めることができるとともに、応用先を広げることができる。
【0054】
(第6の実施形態)
図11は本発明の第6の実施形態のインタフェース装置のブロック図、図12はその全体の処理の流れを示すフローチャートである。
【0055】
本実施形態のインタフェース装置は、図3の第2の実施形態のインタフェース装置における2台の画像入力部111,112(カメラ)から入力画像を生成する受動的なステレオ法を用いる代りに、1台の画像入力部11と1台の投光部31を用いた能動的ステレオ法により距離画像を生成するものである。
【0056】
(第7の実施形態)
図13は本発明の第7の実施形態のインタフェース装置のブロック図、図14はその全体の処理の流れを示すフローチャートである。
【0057】
本実施形態のインタフェース装置は、図5の第3の実施形態のインタフェース装置における4台の画像入力部111〜114(カメラ)から入力画像を生成する受動的なステレオ法を用いる代りに、2台の画像入力部111,112と2台の投光部311,312を用いた能動的なステレオ法により距離画像を生成するものである。
【0058】
(第8の実施形態)
図15は本発明の第8の実施形態のインタフェース装置のブロック図、図16はその全体の処理の流れを示すフローチャートである。
【0059】
本実施形態のインタフェース装置は、図7の第4の実施形態のインタフェース装置における4台の画像入力部111〜114(カメラ)から入力画像を生成する受動的なステレオ法を用いる代りに、2台の画像入力部111,112と2台の投光部311,312を用いた能動的なステレオ法により距離画像を生成するものである。
【0060】
なお、本発明は専用のハードウェアにより実現されるもの以外に、その機能を実現するためのプログラムを、コンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行するものであってもよい。コンピュータ読み取り可能な記録媒体とは、フロッピーディスク、光磁気ディスク、CD−ROM等の記録媒体、コンピュータシステムに内蔵されるハードディスク装置等の記憶装置を指す。さらに、コンピュータ読み取り可能な記録媒体は、インターネットを介してプログラムを送信する場合のように、短時間の間、動的にプログラムを保持するもの(伝送媒体もしくは伝送波)、その場合のサーバとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含む。
【0061】
【発明の効果】
以上説明したように、本発明は下記の効果がある。
【0062】
請求項1,5,9の発明は、非装着なインタフェースであるため、ユーザの利便性を向上させることができる。また、複数台のカメラを用いるため、奥行き情報が精度良く得られる。また、ユーザの指示方向を検出し指示位置を検出できるため、3次元的なポインティングを実現できる。さらに、3次元的なポインティングの指示先として、スクリーン上だけでなく実空間上の位置もポインティング可能であり、応用先を広げることができる。
【0063】
請求項2,6,9の発明は、請求項1,6,11の効果に加え、1方向からの距離画像だけでなく、複数の方向からの距離画像(奥行き情報)が得られるため、ユーザの動作によらずユーザの3次元動作を常により精度良く認識することができる。
【0064】
請求項3,7,9の発明は、請求項1,6,11の効果に加え、自己画像を見ながらインタフェース動作を行えるため、ユーザの利便性をより向上させることができる。
【0065】
請求項4,8,9の発明は、請求項1,2,3の効果に加え、複数台のカメラのみでなく、1台以上のカメラと投光装置を用いた能動的なステレオ法を利用した手法もしくは市販機器も使うことができるため、汎用性を高めるとともに、応用先を広げることができる。
【図面の簡単な説明】
【図1】本発明の第1の実施形態のインタフェース装置のブロック図である。
【図2】第1の実施形態のインタフェース装置の全体の処理の流れを示すフローチャートである。
【図3】本発明の第2の実施形態のインタフェース装置のブロック図である。
【図4】第2の実施形態のインタフェース装置の全体の処理の流れを示すフローチャートである。
【図5】本発明の第3の実施形態のインタフェース装置のブロック図である。
【図6】第3の実施形態のインタフェース装置の全体の処理の流れを示すフローチャートである。
【図7】本発明の第4の実施形態のインタフェース装置のブロック図である。
【図8】第4の実施形態のインタフェース装置の全体の処理の流れを示すフローチャートである。
【図9】本発明の第5の実施形態のインタフェース装置のブロック図である。
【図10】第5の実施形態のインタフェース装置の全体の処理の流れを示すフローチャートである。
【図11】本発明の第6の実施形態のインタフェース装置のブロック図である。
【図12】第6の実施形態のインタフェース装置の全体の処理の流れを示すフローチャートである。
【図13】本発明の第7の実施形態のインタフェース装置のブロック図である。
【図14】第7の実施形態のインタフェース装置の全体の処理の流れを示すフローチャートである。
【図15】本発明の第8の実施形態のインタフェース装置のブロック図である。
【図16】第8の実施形態のインタフェース装置の全体の処理の流れを示すフローチャートである。
【符号の説明】
11,111〜114 画像入力部
12,121,122 距離画像生成部
13,131,132 始終点2次元座標算出部
14,141,142 始終点3次元座標算出部
15 3次元指示位置検出部
16 空間情報登録部
17 空間情報データ
18 反転画像生成部
19 情報表示部
21,211,212,22,221,222,23,231,232,24〜27ステップ
31,311,312 投光部
I,I1〜I4 入力画像
Claims (9)
- 複数台のカメラで撮影された画像を入力し、体の部位を用いて指し示した実空間内の位置もしくは物体を認識するインタフェース方法であって、
複数台のカメラで撮影した画像を入力する画像入力ステップと、
該入力画像のうち2個以上の入力画像を用いて、ステレオ法による画像処理により距離画像を生成する距離画像生成ステップと、
前記距離画像生成ステップで用いた入力画像のうち少なくとも1個の入力画像上で、操作者の体の予め定めた部位2箇所を始点および終点として検出し、該入力画像上でのそれらの2次元座標を算出する始終点2次元座標算出ステップと、
前記距離画像と、前記始点・終点の該入力画像上での2次元座標とから、実空間上における前記始点・終点の3次元座標を算出し、操作者の指し示す実空間上での3次元指示方向情報を算出する始終点3次元座標算出ステップと、
実空間上にある物体の情報、すなわち一部もしくは全体に渡る3次元位置情報およびその付加情報を登録する空間情報登録ステップと、
操作者の指し示す、前記実空間上での3次元指示方向情報と、前記空間情報登録ステップで登録された物体の情報とから、操作者が指し示す、実空間上での3次元指示位置情報、すなわち操作者が指し示す方向の延長線と、登録された物体との交点に関する情報を検出する3次元指示位置検出ステップを有するインタフェース方法。 - 前記画像入力ステップと前記距離画像生成ステップと前記始終点2次元座標算出ステップと前記始終点3次元座標算出ステップからなる組を複数組有し、
複数の始終点3次元座標算出ステップで得られた複数の始点・終点3次元座標情報を入力し、1個の始点・終点3次元座標情報に統合し、操作者の指し示す、実空間上での3次元指示方向情報を算出する始終点3次元座標統合ステップをさらに有する、請求項1に記載のインタフェース方法。 - 前記入力画像のうち操作者を含む1個の入力画像を左右反転した反転画像を生成する反転画像生成ステップと、
前記距離画像に関する情報、前記始点・終点の2次元座標情報、前記始点・終点の3次元座標情報、前記操作者の指し示す、実空間上での3次元指示方向情報、および前記3次元指示位置情報の一部もしくは全部を前記反転画像上に表示する情報表示ステップとをさらに有する、請求項1または2に記載のインタフェース方法。 - 前記画像入力ステップの代わりに、1台以上のカメラで撮影した画像を入力する画像入力ステップを有し、前記距離画像生成ステップの代わりに、1個の入力画像と投光装置を用いて、能動的なステレオ法による画像処理により距離画像を生成する距離画像生成ステップを有する、請求項1から3のいずれか1項に記載のインタフェース方法。
- 複数台のカメラで撮影された画像を入力し、体の部位を用いて指し示した実空間内の位置もしくは物体を認識するインタフェース装置であって、
複数台のカメラで撮影した画像を入力する画像入力手段と、
該入力画像のうち2個以上の入力画像を用いて、ステレオ法による画像処理により距離画像を生成する距離画像生成手段と、
前記距離画像生成手段で用いた入力画像のうち少なくとも1個の入力画像上で、操作者の体の予め定めた部位2箇所を始点および終点として検出し、該入力画像上でのそれらの2次元座標を算出する始終点2次元座標算出手段と、
前記距離画像と、前記始点・終点の該入力画像上での2次元座標とから、実空間上における前記始点・終点の3次元座標を算出し、操作者の指し示す、実空間上での3次元指示方向情報を算出する始終点3次元座標算出手段と、
実空間上にある物体の情報、すなわち一部もしくは全体に渡る3次元位置情報およびその付加情報を登録する空間情報登録手段と、
操作者の指し示す、前記実空間上での3次元指示方向情報と、前記空間情報登録手段で登録された物体の情報とから、操作者が指し示す、実空間上での3次元指示位置情報、すなわち操作者が指し示す方向の延長線と、登録された物体との交点に関する情報を検出する3次元指示位置検出手段を有するインタフェース装置。 - 前記画像入力手段と前記距離画像生成手段と前記始終点2次元座標算出手段と前記始終点3次元座標算出手段からなる組を複数組有し、
複数の始終点3次元座標算出手段によって得られた複数の始点・終点3次元座標情報を入力し、1個の始点・終点3次元座標情報に統合し、操作者の指し示す、実空間での3次元指示方向情報を算出する始終点3次元座標統合手段をさらに有する、請求項5に記載のインタフェース装置。 - 前記入力画像のうち操作者を含む1個の入力画像を左右反転した反転画像を生成する反転画像生成手段と、
前記距離画像に関する情報、前記始点・終点の2次元座標情報、前記始点・終点の3次元座標情報、前記操作者の指し示す、実空間上での3次元指示方向情報、および前記3次元指示位置情報の一部もしくは全部を前記反転画像上に表示する情報表示手段とをさらに有する、請求項5または6に記載のインタフェース装置。 - 前記画像入力手段の代わりに、1台以上のカメラで撮影した画像を入力する画像入力手段を有し、前記距離画像生成手段の代わりに、1個の入力画像と投光装置を用いて、能動的なステレオ法による画像処理により距離画像を生成する距離画像生成手段を有する、請求項5から7のいずれか1項に記載のインタフェース装置。
- 請求項1から3のいずれか1項に記載のインタフェース方法をコンピュータに実行させるためのインタフェースプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003056046A JP2004265222A (ja) | 2003-03-03 | 2003-03-03 | インタフェース方法、装置、およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003056046A JP2004265222A (ja) | 2003-03-03 | 2003-03-03 | インタフェース方法、装置、およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004265222A true JP2004265222A (ja) | 2004-09-24 |
Family
ID=33119886
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003056046A Pending JP2004265222A (ja) | 2003-03-03 | 2003-03-03 | インタフェース方法、装置、およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004265222A (ja) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004246856A (ja) * | 2002-12-18 | 2004-09-02 | National Institute Of Advanced Industrial & Technology | インタフェース装置 |
JP2008134793A (ja) * | 2006-11-28 | 2008-06-12 | Fujifilm Corp | 電子的手書入力装置 |
JP2009151419A (ja) * | 2007-12-19 | 2009-07-09 | Advanced Telecommunication Research Institute International | 対象物特定方法および装置 |
JP2009211563A (ja) * | 2008-03-05 | 2009-09-17 | Tokyo Metropolitan Univ | 画像認識装置、画像認識方法、画像認識プログラム、ジェスチャ動作認識システム、ジェスチャ動作認識方法、及びジェスチャ動作認識プログラム |
WO2009147806A1 (ja) * | 2008-06-02 | 2009-12-10 | パナソニック株式会社 | 遠隔操作装置及び遠隔操作方法 |
US7719569B2 (en) | 2008-05-28 | 2010-05-18 | Kabushiki Kaisha Toshiba | Image processing apparatus and image processing method |
JP2011065414A (ja) * | 2009-09-17 | 2011-03-31 | Toshiba Corp | 電力系統監視制御装置 |
WO2011096571A1 (ja) * | 2010-02-08 | 2011-08-11 | 株式会社ネクステッジテクノロジー | 入力装置 |
JP2013544449A (ja) * | 2010-09-08 | 2013-12-12 | マイクロソフト コーポレーション | 構造化光および立体視に基づく深度カメラ |
JP2014002502A (ja) * | 2012-06-18 | 2014-01-09 | Dainippon Printing Co Ltd | 手のばし検出装置、手のばし検出方法及びプログラム |
WO2014129683A1 (ko) * | 2013-02-21 | 2014-08-28 | 엘지전자 주식회사 | 원격 포인팅 방법 |
JP2015109111A (ja) * | 2015-03-09 | 2015-06-11 | 株式会社ソニー・コンピュータエンタテインメント | ジェスチャ操作入力処理装置、3次元ディスプレイ装置およびジェスチャ操作入力処理方法 |
JP2016045670A (ja) * | 2014-08-22 | 2016-04-04 | 株式会社国際電気通信基礎技術研究所 | ジェスチャ管理システム、ジェスチャ管理プログラム、ジェスチャ管理方法および指さし認識装置 |
US9465443B2 (en) | 2010-12-27 | 2016-10-11 | Sony Corporation | Gesture operation input processing apparatus and gesture operation input processing method |
JP2017041187A (ja) * | 2015-08-21 | 2017-02-23 | 富士通株式会社 | 制御方法、プログラム及び制御装置 |
JP2018152022A (ja) * | 2017-03-15 | 2018-09-27 | セイコーエプソン株式会社 | プロジェクターシステム |
JP2019522187A (ja) * | 2016-06-02 | 2019-08-08 | ノキア テクノロジーズ オーユー | 装置および関連する方法 |
JP2022019988A (ja) * | 2018-07-18 | 2022-01-27 | 日本電気株式会社 | 情報処理装置、ディスプレイ装置、及び制御方法 |
-
2003
- 2003-03-03 JP JP2003056046A patent/JP2004265222A/ja active Pending
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004246856A (ja) * | 2002-12-18 | 2004-09-02 | National Institute Of Advanced Industrial & Technology | インタフェース装置 |
JP2008134793A (ja) * | 2006-11-28 | 2008-06-12 | Fujifilm Corp | 電子的手書入力装置 |
JP2009151419A (ja) * | 2007-12-19 | 2009-07-09 | Advanced Telecommunication Research Institute International | 対象物特定方法および装置 |
JP2009211563A (ja) * | 2008-03-05 | 2009-09-17 | Tokyo Metropolitan Univ | 画像認識装置、画像認識方法、画像認識プログラム、ジェスチャ動作認識システム、ジェスチャ動作認識方法、及びジェスチャ動作認識プログラム |
US8013890B2 (en) | 2008-05-28 | 2011-09-06 | Kabushiki Kaisha Toshiba | Image processing apparatus and image processing method for recognizing an object with color |
US7719569B2 (en) | 2008-05-28 | 2010-05-18 | Kabushiki Kaisha Toshiba | Image processing apparatus and image processing method |
JP5340280B2 (ja) * | 2008-06-02 | 2013-11-13 | パナソニック株式会社 | 遠隔操作装置及び遠隔操作方法 |
CN101784980A (zh) * | 2008-06-02 | 2010-07-21 | 松下电器产业株式会社 | 遥控操作装置及遥控操作方法 |
JPWO2009147806A1 (ja) * | 2008-06-02 | 2011-10-20 | パナソニック株式会社 | 遠隔操作装置及び遠隔操作方法 |
US8432391B2 (en) | 2008-06-02 | 2013-04-30 | Panasonic Corporation | Remote control device and remote control method |
WO2009147806A1 (ja) * | 2008-06-02 | 2009-12-10 | パナソニック株式会社 | 遠隔操作装置及び遠隔操作方法 |
JP2011065414A (ja) * | 2009-09-17 | 2011-03-31 | Toshiba Corp | 電力系統監視制御装置 |
WO2011096571A1 (ja) * | 2010-02-08 | 2011-08-11 | 株式会社ネクステッジテクノロジー | 入力装置 |
JP2013544449A (ja) * | 2010-09-08 | 2013-12-12 | マイクロソフト コーポレーション | 構造化光および立体視に基づく深度カメラ |
US9465443B2 (en) | 2010-12-27 | 2016-10-11 | Sony Corporation | Gesture operation input processing apparatus and gesture operation input processing method |
JP2014002502A (ja) * | 2012-06-18 | 2014-01-09 | Dainippon Printing Co Ltd | 手のばし検出装置、手のばし検出方法及びプログラム |
WO2014129683A1 (ko) * | 2013-02-21 | 2014-08-28 | 엘지전자 주식회사 | 원격 포인팅 방법 |
US9734582B2 (en) | 2013-02-21 | 2017-08-15 | Lg Electronics Inc. | Remote pointing method |
JP2016045670A (ja) * | 2014-08-22 | 2016-04-04 | 株式会社国際電気通信基礎技術研究所 | ジェスチャ管理システム、ジェスチャ管理プログラム、ジェスチャ管理方法および指さし認識装置 |
JP2015109111A (ja) * | 2015-03-09 | 2015-06-11 | 株式会社ソニー・コンピュータエンタテインメント | ジェスチャ操作入力処理装置、3次元ディスプレイ装置およびジェスチャ操作入力処理方法 |
JP2017041187A (ja) * | 2015-08-21 | 2017-02-23 | 富士通株式会社 | 制御方法、プログラム及び制御装置 |
JP2019522187A (ja) * | 2016-06-02 | 2019-08-08 | ノキア テクノロジーズ オーユー | 装置および関連する方法 |
JP2018152022A (ja) * | 2017-03-15 | 2018-09-27 | セイコーエプソン株式会社 | プロジェクターシステム |
JP2022019988A (ja) * | 2018-07-18 | 2022-01-27 | 日本電気株式会社 | 情報処理装置、ディスプレイ装置、及び制御方法 |
JP7259921B2 (ja) | 2018-07-18 | 2023-04-18 | 日本電気株式会社 | 情報処理装置、及び制御方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210181857A1 (en) | Systems and Methods of Creating a Realistic Displacement of a Virtual Object in Virtual Reality/Augmented Reality Environments | |
US20200320793A1 (en) | Systems and methods of rerendering image hands to create a realistic grab experience in virtual reality/augmented reality environments | |
US9201568B2 (en) | Three-dimensional tracking of a user control device in a volume | |
TW452723B (en) | Method and apparatus for three-dimensional input entry | |
TWI722280B (zh) | 用於多個自由度之控制器追蹤 | |
Rabbi et al. | A survey on augmented reality challenges and tracking | |
CN108469899B (zh) | 识别可穿戴显示装置的观察空间中的瞄准点或区域的方法 | |
JP5762892B2 (ja) | 情報表示システム、情報表示方法、及び情報表示用プログラム | |
US20170140552A1 (en) | Apparatus and method for estimating hand position utilizing head mounted color depth camera, and bare hand interaction system using same | |
JP6057396B2 (ja) | 3次元ユーザインタフェース装置及び3次元操作処理方法 | |
JP2004265222A (ja) | インタフェース方法、装置、およびプログラム | |
US20120306850A1 (en) | Distributed asynchronous localization and mapping for augmented reality | |
KR20120068253A (ko) | 사용자 인터페이스의 반응 제공 방법 및 장치 | |
WO2017021902A1 (en) | System and method for gesture based measurement of virtual reality space | |
US20150339859A1 (en) | Apparatus and method for navigating through volume image | |
KR20160096392A (ko) | 직관적인 상호작용 장치 및 방법 | |
JP2016122392A (ja) | 情報処理装置、情報処理システム、その制御方法及びプログラム | |
JP3860550B2 (ja) | インタフェース方法、装置、およびプログラム | |
Lee et al. | Tunnelslice: Freehand subspace acquisition using an egocentric tunnel for wearable augmented reality | |
Mitsugami et al. | Estimation of 3D gazed position using view lines | |
US10345595B2 (en) | Head mounted device with eye tracking and control method thereof | |
Piérard et al. | I-see-3d! an interactive and immersive system that dynamically adapts 2d projections to the location of a user's eyes | |
JP4221330B2 (ja) | インタフェース方法、装置、およびプログラム | |
RU2695053C1 (ru) | Способ и устройство для управления трехмерными объектами в виртуальном пространстве | |
Lane et al. | Reflective interaction in virtual environments |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050425 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20050614 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070827 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070905 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071102 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20080618 |