JPH075978A - 入力装置 - Google Patents

入力装置

Info

Publication number
JPH075978A
JPH075978A JP14720193A JP14720193A JPH075978A JP H075978 A JPH075978 A JP H075978A JP 14720193 A JP14720193 A JP 14720193A JP 14720193 A JP14720193 A JP 14720193A JP H075978 A JPH075978 A JP H075978A
Authority
JP
Japan
Prior art keywords
display
image
finger
calculator
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP14720193A
Other languages
English (en)
Inventor
Masamichi Asukai
正道 飛鳥井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP14720193A priority Critical patent/JPH075978A/ja
Publication of JPH075978A publication Critical patent/JPH075978A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

(57)【要約】 【目的】 現実世界から遊離せずに、仮想世界に対して
所定の入力を行うことができるようにする。 【構成】 ディスプレイ1に電卓52の3次元映像を表
示する。このとき、ディスプレイ1は、現実に存在する
机51を透過して見ることができるようにする。ボタン
52aを操作したか否かを、指先の位置とボタン52a
の位置とから計算して求める。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、例えば表示部に表示さ
れた映像に対して、実際に自分の指を使って所定の入力
を行う場合に用いて好適な入力装置に関する。
【0002】
【従来の技術】最近、VR(virtual reality:仮想現
実)の分野においては、非透過型の頭部搭載型ディスプ
レイを用いて、計算機によって生成した仮想世界の映像
を表示し、この表示に対して、例えば手袋型入力装置や
ボディスーツ型入力装置などを用いて、仮想世界とイン
タラクションを行うことができるようになされている。
これにより、通常経験することができないような仮想世
界に、あたかも自分が存在するかのような雰囲気を楽し
むことが可能となる。
【0003】
【発明が解決しようとする課題】しかしながら、このよ
うな手袋型入力装置やボディスーツ型入力装置は、大が
かりであるばかりでなく、装着した場合における拘束感
が強い課題があった。
【0004】また、手袋型入力装置では、手の位置、方
位、および全ての指の角度などを計測することが可能で
あり、自由度があまりにも高すぎて、かえって操作性が
悪い課題があった。
【0005】さらにまた、VRにおいては、非透過型の
頭部搭載型ディスプレイが用いられるが、この非透過型
の頭部搭載型ディスプレイにおいては、自分の手ではな
く、計算機により生成された仮想的な手を用いて種々の
入力を行うようになされているため、仮想的な手の表示
の時間遅れにより、手の自然な動きが損なわれる課題が
あった。また、ディスプレイを通して見える映像中に、
現実世界の映像が一切存在しないため、孤立感を強く感
じたり、疲れやすい課題があった。さらに、仮想世界に
おける入力作業を一時的に中断し、別の作業をしたいよ
うな場合においては、頭部搭載型ディスプレイを一旦取
り外す必要があり、従って、例えば現実世界において、
歩きながら、あるいは他の作業をしながら、仮想現実の
世界において所定の入力を行うようなことができず、日
常生活に対する応用が困難である課題があった。
【0006】本発明はこのような状況に鑑みてなされた
ものであり、現実世界における日常生活と同様なインタ
ラクションを自然に行うことが可能な装置を実現するも
のである。
【0007】
【課題を解決するための手段】本発明の入力装置は、指
の位置を検出する指位置検出手段としての位置センサ2
aと、表示する映像を生成する生成手段としての映像生
成部33と、映像生成部33により生成された映像を、
背景映像に重畳して表示する表示手段としてのディスプ
レイ1と、位置センサ2aにより検出された指の位置
と、映像生成部33により生成され、ディスプレイ1に
表示された映像との関係を演算する演算手段としての計
算機4とを備えることを特徴とする。
【0008】映像生成部33は、映像の一部を、背景映
像に対応して消去させるようにすることができる。ま
た、ディスプレイ1の位置を検出する表示位置検出手段
としての位置センサ1aをさらに設けることができる。
【0009】位置センサ2aは、少なくとも2つのビデ
オカメラに替えることができる。また、ディスプレイ
は、左眼映像と右眼映像とを交互に表示するようにし、
左眼映像と右眼映像とに同期して切り替えられるシャッ
タを有する眼鏡としての液晶シャッタ眼鏡112をさら
に設けるようにすることができる。
【0010】
【作用】上記構成の入力装置においては、位置センサ2
aにより検出された指の位置と、映像生成部33により
生成され、ディスプレイ1に表示された映像との関係が
計算機4により演算される。従って、実際の指を用い
て、表示された映像に対して所定の入力を行うことがで
きる。このとき、ディスプレイ1には、背景映像が表示
されるため、現実世界から遊離してしまうようなことが
抑制される。
【0011】
【実施例】図1は、本発明の入力装置の一実施例の構成
を表している。ディスプレイ1は、透過型の頭部搭載型
ディスプレイであり、その上面に位置センサ1aが取り
付けられている。使用者は、このディスプレイ1を眼鏡
をかけるようにして頭部に搭載する。
【0012】図2は、ディスプレイ1のより詳細な構成
例を示している。この実施例においては、例えばLC
D、CRTなどよりなる表示部11の左表示部と右表示
部に、計算機4より出力される左眼映像または右眼映像
が、それぞれ表示される。レンズなどよりなる光学系1
2は、表示部11に表示された映像をハーフミラー(ビ
ームスプリッタ)13に入射させ、観察者の眼14に向
けて反射させる。これにより、観察者は、ディスプレイ
1の向こう側の所定の位置に立体映像(虚像)を観察す
ることができる。
【0013】このとき、ハーフミラー13は、ディスプ
レイ1の向こう側に実際に存在する背景(背景映像)か
らの光を透過するため、観察者は背景も観察することが
できる。
【0014】また、使用者は、その指に指輪2をはめ、
この指輪2に取り付けられている位置センサ2aにより
指の位置(姿勢を含む)が検出されるようになされてい
る。ディスプレイ1の位置センサ1aの出力と、指輪2
の位置センサ2aの出力は、それぞれ3次元座標測定装
置3に供給されている。3次元座標測定装置3は、これ
らの入力から、ディスプレイ1と指の3次元(x,y,
z軸)上の位置並びに姿勢(アジマス、エレベーショ
ン、ロール)を計算する。
【0015】この3次元座標測定装置3としては、例え
ばStereo Graphics社のCrystal
EYES(商標)として商品化されている超音波を用
いた装置や、Polhemus社が3SPACE(商
標)として商品化している磁気を用いた装置を適用する
ことができる。
【0016】図3は、磁気を用いて位置センサ1a(位
置センサ2aにおける場合も同様)の位置を検出するた
めの3次元座標測定装置3の構成例を示している。同図
に示すように、3次元座標測定装置3は、ソース(直交
コイル)24を有している。このソース24は、x軸方
向の磁界を発生するコイル24x、y軸方向の磁界を発
生するコイル24y、およびz軸方向の磁界を発生する
コイル24zにより構成されている。位置センサ1a
も、x軸方向の磁界を検出するコイル1ax、y軸方向
の磁界を検出するコイル1ay、およびz軸方向の磁界
を検出するコイル1azを有している。
【0017】3次元座標測定装置3の位置計算部22
は、ドライブ回路23を介してソース24の3つのコイ
ルをそれぞれ時分割で駆動する。その結果、x軸方向の
磁界、y軸方向の磁界、またはz軸方向の磁界が順次発
生される。位置センサ1aの各コイルは、これらの各方
向の磁界を検出し、その検出信号を検出回路21に出力
する。検出回路21は、その検出信号を位置計算部22
に供給する。位置計算部22は、検出回路21より供給
された検出信号を演算し、位置センサ1a(ディスプレ
イ1)の3次元上の位置および姿勢を求める。位置計算
部22により演算された位置データは、計算機4に供給
される。
【0018】計算機4は、3次元座標測定装置3より供
給されるディスプレイ1の位置データと、指輪2の位置
データに対応して、ディスプレイ1に出力する映像を制
御する。
【0019】例えば、いま図6に示すように、現実世界
に存在する机51上に、あたかも実際に電卓52が載置
されているように、ディスプレイ1に電卓52を表示す
る。そして、電卓52が有するボタン52aを実際の自
分の指で操作する処理を実行する場合における計算機4
の処理の機能ブロックを、図4に示す。
【0020】視点位置計算部31は、3次元座標測定装
置3より供給されるディスプレイ1の位置データ(位置
と姿勢を含む、以下同様)、並びにメモリ32に予め記
憶されているディスプレイ1の形状データとから、観察
者の両眼の視点位置と姿勢を演算し、映像生成部33に
出力する。映像生成部33にはまた、物体モデル管理部
37が、予め記憶している電卓の形状モデル(形と色か
ら構成される)のデータが供給されている。映像生成部
33は、この電卓の形状モデルデータを透視変換するこ
とにより、電卓の右眼映像と左眼映像を生成する。この
右眼映像と左眼映像は、映像出力部34を介してディス
プレイ1に出力、表示される。
【0021】ディスプレイ1は、その左側と右側が独立
に表示動作を行うことができるように構成されており、
左眼映像は左側に、右眼映像は右側に、それぞれ表示さ
れる。
【0022】一方、指位置計算部35は、3次元座標測
定装置3より供給される指輪位置データ(位置と姿勢に
関するデータを含む、以下同様)が入力されており、指
位置計算部35は、このデータから指の先端部の位置を
演算し、そのデータを指示物体計算部36に出力する。
【0023】指示物体計算部36にはまた、物体モデル
管理部37より電卓の形状モデルデータが供給されてい
る。指示物体計算部36は、この指位置計算部35より
供給される指の先端位置データと、物体モデル管理部3
7より供給される電卓の形状モデルデータとから、指が
電卓のどのボタンを押したかを、演算により求める。
【0024】指が電卓のどのボタンを押したのかを判断
するために、電卓52のボタン52aのそれぞれに対し
て、例えば図5に示すような電卓のボタン52aのモデ
ル座標系が用いられる。説明の便宜上、ここではボタン
52aの一辺が2dの正方形により構成されているもの
とする。指の位置がボタンの表側(y軸の正方向)から
裏側(y軸の負方向)に突き抜けたとき、ボタン52a
が押圧されたものと判定する。
【0025】この判定処理のため、指先の位置を、図5
に示したボタン52aのモデル座標系に変換する。この
ときの指先の座標をP(px,py,pz)とする。指
先の位置P1(px1,py1,pz1)が所定のボタン5
2aの範囲内にあり、かつ、その表側にあるとき、次の
条件が満足される。 −d<px1<d −d<pz1<d 0<py1
【0026】一方、指先の位置P2(px2,py2,p
2)がボタン52aの範囲内で裏側に位置するとき、
次の条件が満足される。 −d<px2<d −d<pz2<d py2<0
【0027】即ち、上述した2つの条件が所定の時間内
に順次満足されたとき、所定のボタン52aが押圧され
たものと判定する。
【0028】指示物体計算部36は、所定のボタン52
aが操作されたと判定したとき、その操作されたボタン
に関するデータを、物体モデル管理部37に供給する。
物体モデル管理部37は、このデータに対応して、電卓
52の次のタイミングにおける状態を演算し、電卓の内
部モデル(ボタンの上下の位置、ボタン操作の結果表示
されるべき数字など)と電卓の形状モデルを更新する。
これにより、押圧されたボタンに対応して表示が変化さ
れる。
【0029】以上は図6に示したように、電卓52のボ
タン52aを操作する場合の処理例であるが、この他、
例えば図7または図8に示すような入力処理を実行する
ことも可能である。
【0030】図7は、図1において、計算機4に例えば
VTR5が接続されているような場合において、このV
TR5をリモコンで動作させる場合の例を示している。
この場合、図4における物体モデル管理部37は、VT
R5のリモコン61の形状モデルと内部モデル、並びに
VTR5からの再生画像62を表示する画面の枠63の
形状モデルを管理する。
【0031】視点位置計算部31により計算された両眼
の視点の位置と姿勢のデータ、物体モデル管理部37の
リモコンの形状モデルデータを用いて、映像生成部33
は、透視変換により右眼映像と左眼映像を生成する。ま
た、枠63の内部には、VTR5の再生画像62をはめ
込む。
【0032】さらに、指示物体計算部36により計算さ
れたリモコン61のどのボタンを押したかというデータ
から、物体モデル管理部37はリモコン61の内部モデ
ルと形状モデルを更新する。また、物体モデル管理部3
7に接続されているVTR5を、そのボタンに対応する
ように動作させる。
【0033】図8には、実際に配置されている机51上
に仮想的な紙71を載置したように表示し、そこに手書
き入力する例を示している。この場合、指示物体計算部
36は、付属するOCR(optical character recognit
ion)36aを用いて、指の軌跡データから手書き入力
された文字を認識する。物体モデル管理部37は、紙の
形状モデル、指の軌跡データ、認識された文字データを
管理する。
【0034】視点位置計算部31により計算された両眼
の視点の位置と姿勢のデータ、物体モデル管理部37の
紙の形状モデル(形と色から構成される)、指の軌跡デ
ータ、および認識された文字データから、映像生成部3
3は、透視変換により右眼映像と左眼映像を生成する。
これがディスプレイ1に出力、表示される。図8の例に
おいては、紙71の下方に指の軌跡データが表示され、
その上方に認識された結果得られた文字データが表示さ
れている。
【0035】図6(図7および図8も同様)の実施例に
おいては、現実の机51の上に操作対象とされる電卓5
2(仮想的な物体)(リモコン61、紙71)を載置し
たので、そのボタン52aを押した感触や文字を書いた
感触が、実際の指で現実の机51に触れることにより得
られるため、指に触覚や力覚のフィードバックを与える
ような特別の装置を設ける必要がなくなり、指の位置を
測定する装置だけで自然な入力を行うことが可能とな
る。
【0036】また、例えば図6(図7および図8も同
様)の仮想的な電卓52(リモコン61、紙71)を、
より本物らしく見せるには、電卓の形状モデルだけでな
く、電卓の表面の反射係数などの属性モデルと、部屋の
照明の位置や色などの照明モデルを物体モデル管理部3
7で管理して、例えばコンピュータグラフィックスにお
けるフォンシェーディングなどのレンダリング技術を用
いて、より本物らしい映像として映像生成部33で生成
することができる。
【0037】また、図6乃至図8においては、表示する
物体を世界座標系に固定したのであるが、図9乃至図1
1に示すように、表示する物体をディスプレイ座標系に
固定することも可能である。
【0038】表示する物体を世界座標系に固定する場
合、3次元空間を全て入力に利用することが可能であ
る。これに対して、ディスプレイ座標系に固定する場
合、ディスプレイの大きさだけの2次元空間のみが入力
に利用可能となる。
【0039】図9は、図6に対応して、仮想的な電卓5
2のボタンを操作する例を示し、図10は、図7に対応
して、仮想的なリモコン61を操作する例を表し、図1
1は、図8に対応して、仮想的な紙71に手書き入力す
る例を示している。
【0040】図6乃至図11に示した例は、1本の指を
用いて所定の入力を行う例であるが、図12乃至図14
に示すように、複数の指を用いて入力を行うようにする
ことも可能である。
【0041】図12においては、2本の指を用いて文字
のコピー領域が指定されている。また、図13において
は、2本の指を用いてリモコンのつまみ62aが操作さ
れる。さらに、図14の例においては、両手の全ての指
を用いてキーボード91が操作される。
【0042】また、図12乃至図14に示すように、複
数の指を用いて入力を行う場合においては、図15に示
すように、複数の指(位置を検出する必要がある指)に
対して指輪2がはめられ、各指の位置が、その位置セン
サ2aにより検出される。
【0043】図12に示すように、2本の指を用いて文
字のコピー領域を指定する場合、2つの指輪の位置と姿
勢のデータから、2本の指の先端部の位置が、指位置計
算部35により計算される。そして、この計算された2
本の指の先端部の位置データが決定する矩形領域中に存
在する文字を、物体モデル管理部37の文字データの中
から指示物体計算部36が計算する。
【0044】指示物体計算部36の計算により特定され
た文字は、物体モデル管理部37により管理され、次に
指示物体計算部36によりコピーされる場所が指定され
た場合、管理されている文字がその場所にコピーされ
る。
【0045】図13に示すように、2本の指を用いてリ
モコン61のつまみ62aを操作する場合、物体モデル
管理部37はVTR5のリモコン61の形状モデル、内
部モデル、およびVTRの画面の枠63の形状モデルを
管理する。
【0046】視点位置計算部31により計算された両眼
の視点の位置と姿勢のデータ、物体モデル管理部37の
リモコン61の形状モデル、画面の枠63の形状モデル
から、映像生成部33が透視変換により右眼映像と左眼
映像を生成する。そして、この右眼映像と左眼映像の枠
63の内部に、VTR5より出力された再生画像62が
はめ込まれる。
【0047】また、3次元座標測定装置3により測定さ
れた2つの指輪2の位置と姿勢のデータから、2本の指
の先端部の位置が、指位置計算部35により計算され
る。指位置計算部35により計算された2本指の先端部
の位置のデータと、物体モデル管理部37のリモコン6
1の形状モデルから、指がリモコン61のつまみ62a
を操作したかどうかを、あるいは、所定のボタンが操作
されたかどうかを、指示物体計算部36が演算する。
【0048】1本の指により、リモコン61の所定のボ
タンが操作されたかどうかの判定は、上述した場合と同
様に行うことができる。
【0049】これに対して、2本の指がリモコン61の
つまみ62aを操作したかどうかの判定は、例えば図1
6に示すようなリモコン61のつまみ62aのモデル座
標系を用いて行われる。説明を簡略化するため、ここで
は、つまみ62aの半径がrの円であるとされ、2本の
指の位置がつまみ62aの円周上にあり、次に円周上を
移動したとき、つまみ62aを操作したと判定する。
【0050】この場合、最初につまみ62aの形状モデ
ルを用いて2本の指先の位置を、図16に示すモデル座
標系の2つの位置P1,P2(例えば、時間的に前の位
置)に変換する。
【0051】P1=(p1x,p1y,p1z) P2=(p2x,p2y,p2z)
【0052】2本の指先の位置が、つまみ62aの円周
上の近傍(d)にあるとき、次式が成立する。 (r−d)2<p1x2+p1z2<(r+d)2 (r−d)2<p2x2+p2z2<(r+d)2 −d<p1y<d −d<p2y<d
【0053】次に、2つの指先がp1’,p2’(時間
的に後の位置)に移動したとする。 p1’=(p1x’,p1y’,p1z’) p2’=(p2x’,p2y’,p2z’)
【0054】移動した2本の指先の位置が、再びつまみ
62aの円周上の近傍にあるとき、次式が成立する。 (r−d)2<p1x’2+p1z’2<(r+d)2 (r−d)2<p2x’2+p2z’2<(r+d)2 −d<p1y’<d −d<p2y’<d
【0055】この場合、2本の指先の位置を結ぶ単位ベ
クトルv,v’は、次式で表される。 v=norm(P2−P1) v’=norm(P2’−P1’) ここで、normは、単位ベクトルを計算する関数であ
る。
【0056】また、これらのベクトルの外積wと内積の
逆余弦θは、次のようになる。 w=(wx,wy,wz)=v×v’ θ=acos(v・v’)
【0057】また、εが比較的小さい所定の値とすると
き、 wy<−ε の場合には、つまみ62aが時計方向にθだけ回転した
ことになる。
【0058】また、 ε<wy の場合には、つまみ62aが反時計方向にθだけ回転し
たことになる。さらに、次式が成立する場合には、殆ど
回転していないことになる。 −ε≦wy≦ε
【0059】指示物体計算部36により計算された指
が、リモコン61のボタンを押したかどうか、あるい
は、つまみ62aを操作したかどうかというデータか
ら、物体モデル管理部37は、リモコン61の内部モデ
ルと形状モデルを更新するとともに、物体モデル管理部
37に接続されているVTR5に対して所定の指令を出
力する。
【0060】図14に示す実施例のように、キーボード
91を操作する場合、図1におけるVTRに代えて、キ
ーボードが計算機4に接続されることになる。そして、
物体モデル管理部37がキーボードの形状と内部モデル
を管理する。
【0061】また、3次元座標測定装置3により測定さ
れた両手の全ての指輪2の位置と姿勢のデータから、両
手の全ての指の先端部の位置が、指位置計算部35によ
り計算される。指位置計算部35により計算された指の
先端部の位置のデータと、物体モデル管理部37のキー
ボードの形状モデルから、指がキーボード91のどのキ
ーを押したかを、指示物体計算部36が計算する。
【0062】指がキーを押したかどうかの判定は、上述
した場合と同様に実行することができる。指示物体計算
部36により計算された、キーボード91のどのキーが
押されたかというデータから、物体モデル管理部37
は、キーボード91の内部モデルと形状モデルを更新
し、また、物体モデル管理部37に接続されているキー
ボードに対して操作されたキーに対応する信号を出力す
る。
【0063】尚、以上の実施例において、ディスプレイ
1は、図2に示したように、光学透過型ディスプレイと
したが、図17に示すように、ビデオ透過型ディスプレ
イとすることも可能である。即ち、この実施例の場合、
ディスプレイ1の反対側の背景映像が、観察者の眼14
により直接観察されるのではなく、ビデオカメラ15に
より観察される。そして、ビデオカメラ15の出力がビ
デオ合成装置16に供給され、計算機4より供給される
映像と合成される。そしてビデオ合成装置16より出力
されたデータが、表示部11に出力、表示され、その映
像が光学系12、ミラー17を介して、観察者の眼14
に入射される。
【0064】尚、このビデオ合成装置16は、ディスプ
レイ1の内部ではなく、計算機4の内部に収納すること
も可能である。
【0065】図18は、本発明による入力装置の他の実
施例の構成を示している。この実施例においては、ディ
スプレイ1の正面に3つのマーク1bが設けられてい
る。そして指先には、指キャップ101が取り付けられ
ている。2台のビデオカメラ102Lと102Rは、デ
ィスプレイ1のマーク1bと指キャップ101を撮影
し、その映像出力を3次元座標測定装置3に供給してい
る。3次元座標測定装置3は、2台のビデオカメラ10
2L,102Rの出力から、ディスプレイ1のマーク1
bの位置および指キャップ101の位置を演算する。
【0066】即ち、この実施例においては、ディスプレ
イ1の位置センサ1aと指輪2の位置センサ2aによ
り、ディスプレイ1と指の位置を検出するのではなく、
マーク1bと指キャップ101を2台のビデオカメラ1
02L,102Rで撮影し、その出力データから、ディ
スプレイ1と指の位置を演算して求めるようにするので
ある。換言すれば、2台のビデオカメラ102L,10
2Rからの2枚の出力画像上の対応点の位置(2次元座
標)の相違から、3次元座標上の位置を演算により求め
るのである。その他の動作は、上述した場合と同様であ
る。
【0067】そこで、次に2台のビデオカメラ102
L,102Rの出力から3次元座標を演算により求める
原理について、図19を参照して説明する。
【0068】ここでは、左右のカメラ102L,102
Rのそれぞれの中心位置(仮想的な視点位置)PL,PR
が、いずれもxz平面上にあり、左右の2台のカメラ1
02L,102Rの画面(例えば、CCD等の撮像面)
が、いずれもxy平面上にあるものとする。
【0069】いま測定したい位置をP、左右のビデオカ
メラ102L,102Rの視点位置PL,PRと、測定し
たい位置Pを結ぶ直線と画面との交点の位置(3次元座
標)をそれぞれQL,QR、この交点の画面上の2次元座
標を、それぞれ(xL,yL),(xR,yR)、左右のビ
デオカメラ102L,102Rの視点位置間の距離を2
w、カメラの視点位置PL,PRから画面までの距離をd
とする。
【0070】また、x軸方向の単位ベクトルをi、y軸
方向の単位ベクトルをj、z軸方向の単位ベクトルをk
とする。この場合、次式が成立する。 PL=−wi−dk PR=wi−dk QL=(xL−w)i+yLj QR=(xR+w)i+yR
【0071】PLとQLを結ぶ直線と、PRとQRを結ぶ直
線は、Pで交差するため、次式が成立する。 P=PL+m(QL−PL)=PR+n(QR−PR
【0072】この式を未知数m,nに関して解くと、次
式が得られる。 m=n=2w/(xL−xR
【0073】その結果、測定したい位置Pは、次式によ
り求めることができる。 P=(mxL−w)i+myLj+(m−1)dk
【0074】この図18の実施例における計算機4の処
理内容を機能ブロックで表すと、図20に示すようにな
る。この実施例においては、図4に示した場合と異な
り、3次元座標測定装置3が、指先に取り付けた指キャ
ップ101の位置を測定するため、図4における指位置
計算部35が不要となる。そして、視点位置計算部31
が、3次元座標測定装置3により測定されたディスプレ
イ1の3つのマーク1bの位置データから、ディスプレ
イ1の位置と姿勢を演算し、ディスプレイ1の形状に関
するデータを用いて、両眼の視点の位置と姿勢を演算す
る。その他の動作は、図4における場合と同様である。
【0075】図21は、さらに他の入力装置の実施例を
示している。この実施例においては、ディスプレイ11
1が、例えばLCDなどよりなる透過型ディスプレイに
より構成されている。このディスプレイ111は、計算
機4より供給された映像を表示することができるととも
に、反対側にある背景映像を透過するようになされてい
る。その結果、ディスプレイ111には、計算機4より
出力された映像と背景とが重畳して表示されることにな
る。
【0076】また、この実施例においては、このディス
プレイ111が液晶シャッタ眼鏡112により観測され
るようになされている。位置センサ112aは、液晶シ
ャッタ眼鏡112の位置を検出し、3次元座標測定装置
3に出力している。その他の構成は、図1における場合
と同様である。
【0077】即ち、この実施例においては、計算機4よ
り出力された左眼映像と右眼映像が交互にディスプレイ
111に表示される。ディスプレイ111に左眼映像が
表示されているとき、液晶シャッタ眼鏡112の左眼鏡
112Lのみが解放され、右眼鏡112Rは閉じられる
ように、3次元座標測定装置3により制御される。ま
た、ディスプレイ111に右眼映像が表示されていると
き、左眼鏡112Lが閉じられ、右眼鏡112Rのみが
解放される。その結果、観察者は、ディスプレイ111
上の左眼映像を左眼により観察し、右眼映像を右眼によ
り観察することになる。その結果、合成された映像は立
体映像(虚像)となる。また、このとき、ディスプレイ
111に表示される映像は、液晶シャッタ眼鏡112に
取り付けられた位置センサ112aにより検出された位
置に対応して補正されることは、上述した場合と同様で
ある。
【0078】次に、計算機4より出力した映像と、背景
映像とを、ディスプレイ1または111により重畳して
表示する場合の動作について説明する。
【0079】例えば図18のディスプレイ1として、図
17のビデオ透過型ディスプレイを用いて、計算機4に
より、図22(a)に示すような電卓の映像を生成し、
これをディスプレイ1に出力し、表示させる場合、ディ
スプレイ1の反対側に、図22(b)に示すような自分
の手が存在するとき、その合成画像は図22(c)に示
すようになるのが通常である。この合成画像は、電卓と
手が、どちらが手前にあるのか不明瞭な画像となってい
る。実際には、電卓が机51上に配置され、自分の手は
これを操作しようとしているのであるから、電卓より手
前に手が存在するように表示するのが正しい表示とな
る。
【0080】このような表示を行わせるために、図18
に示す計算機4は、例えば図23に示すような処理を実
行する。
【0081】即ち、ビデオ透過型ディスプレイのビデオ
カメラ15により、図24(a)に示すような自分の手
の映像をパターン認識部131に入力する。パターン認
識部131は、ディスプレイ1の反対側にある物体
(手)の映像から、そのエッジ検出(輪郭抽出)を行
い、図24(b)に示すような物体(手)の領域を抽出
する。この抽出データは、映像加工部132に供給され
る。
【0082】視点位置計算部31は、ディスプレイ1の
マーク1bの位置データから、ディスプレイ1の位置と
姿勢を演算し、ディスプレイ1の形状モデルに関するデ
ータを用いて、両眼の視点の位置と姿勢を演算し、映像
生成部33に供給する。映像生成部33は、視点位置計
算部31により計算された両眼の視点位置と姿勢のデー
タ、物体モデル管理部37が出力する電卓の形状モデル
から、透視変換により、図24(c)に示すような電卓
の右眼映像と左眼映像とを生成する。このとき、映像生
成部33は、各ピクセル(i,j)毎の色データに加え
て、視点から物体(電卓)までの距離に相当するz値z
c(i,j)を演算する。これらのデータは、映像加工
部132に供給され、内蔵するフレームバッファに記憶
される。
【0083】映像加工部132は、視点位置計算部31
により計算された視点位置から、3次元座標測定装置3
により測定された物体位置(指キャップ位置)までの距
離に相当するz値zaを演算する。そして映像加工部1
32のフレームバッファ上に記憶された映像のパターン
認識部131が抽出した物体領域内にある電卓のピクセ
ル(i,j)のz値zcと比較する。
【0084】za<zc(i,j) である場合、電卓のそのピクセル(i,j)に関し、ビ
デオカメラ15より入力される映像(指)(図24
(a))の方が、図24(c)に示す映像(電卓)より
も手前に位置するので、後者が前者により隠されると映
像加工部132において判定する。このとき、フレーム
バッファの電卓のピクセル(i,j)の色を0(透明)
にして、ディスプレイ1の反対側に存在する指(背景)
の映像が見えるようにする。
【0085】このようにして、背景に対応して、その一
部が除去された、図24(d)に示すような映像が生成
される。この電卓の映像(図24(d))が映像出力部
34を介してディスプレイ1に出力され、表示される。
この図24(d)に示す映像が、ビデオカメラ15によ
り撮影され、出力された図24(a)に示す指の映像
と、ディスプレイ1の内部のビデオ合成装置16(図1
7)において合成され、結局、ディスプレイ1には図2
4(e)に示すような映像が表示される。この図を、図
22(c)の図と比較して明らかなように、自分の手が
電卓より手前に位置するように画像が正しく表示されて
いる。
【0086】この実施例においては、図18に示すよう
に、ディスプレイ1のマーク1bと指キャップ101
を、2台のビデオカメラ102L,102Rにより撮影
して、それぞれの位置を検出するようにしたが、例えば
図1や図15に示すように、ディスプレイ1に取り付け
た位置センサ1aや、各指に位置センサ2aを有する指
輪2を取り付けて、それぞれの位置を検出するようにす
ることも可能である。
【0087】図6に示したように、仮想的な電卓のボタ
ンを指を用いて操作する場合、入力装置を、例えば図1
5のディスプレイ1として図2の光学透過型ディスプレ
イを用いて、そこにおける計算機4を図25に示すよう
に機能させることも可能である。この場合、3次元座標
測定装置3により測定された指輪2の位置および姿勢デ
ータと、物体モデル管理部37が記憶している手の基本
形状から、物体形状生成部141は、図26(a)に示
すような手の物体形状を生成し、映像加工部132に出
力する。
【0088】3次元座標測定装置3により測定されたデ
ィスプレイ1の位置および姿勢データ、並びにメモリ3
2に記憶されているディスプレイ形状データとから、視
点位置計算部31は、両眼の視点の位置および姿勢デー
タを演算する。映像生成部33は、視点位置計算部31
により計算された両眼の視点の位置および姿勢データ
と、物体モデル管理部37の電卓の形状モデルから、透
視変換により、図26(b)に示すような電卓の右眼映
像と左眼映像とを生成する。また、電卓の各ピクセル
(i,j)毎の色に加えて、視点から物体(電卓)まで
の距離に相当するz値zc(i,j)が計算され、右眼
映像および左眼映像とともに、映像加工部132の内蔵
するフレームバッファ上に記憶される。
【0089】映像加工部132は、コンピュータグラフ
ィックスにおける隠面消去のアルゴリズムであるzバッ
ファアルゴリズムを応用して、正しい重なりの映像を、
次に示す方法で生成する。
【0090】即ち、物体形状生成部141により生成さ
れた物体形状(図26(a))のそれぞれの部分につい
て、視点位置計算部31により計算された両眼の視点の
位置と姿勢のデータから、透視変換により、手の物体形
状の映像の各ピクセル(i,j)のz値za(i,j)
を求める。そして、映像加工部132のフレームバッフ
ァに記憶されている電卓の対応するピクセルのz値zc
(i,j)と比較する。
【0091】そして、 za(i,j)<zc(i,j) であるならば、ピクセル(i,j)に関し、図26
(a)の映像(手)の方が、図26(b)の映像(電
卓)よりも手前にあり、後者が前者により隠されるもの
と判定し、フレームバッファのピクセル(i,j)のz
値zc(i,j)を、za(i,j)に置き換えるとと
もに、ピクセルの色を0(透明)にする。これにより、
ディスプレイ1の向こう側の物体の映像が見えるように
なる。その結果、図26(c)に示すような映像が生成
される。
【0092】この映像(図26(c))が映像出力部3
4を介してディスプレイ1に出力され、表示される。こ
のディスプレイ1には、図26(d)に示す実映像が、
図2に示すハーフミラー13を介して入射される。この
ため、図26(c)の映像と図26(d)の映像とがハ
ーフミラー13において合成され、図26(e)に示す
正しい重なりの映像が観察される。
【0093】
【発明の効果】以上の如く本発明の入力装置によれば、
指位置検出手段により検出された指の位置と、生成手段
により生成され、表示手段に表示された映像との関係を
演算手段により演算するようにしたので、現実世界を基
礎とした状態において、仮想世界に対して所定の入力を
行うことが可能となる。その結果、単なるゲーム、娯楽
といった分野に留まらず、実用的な分野の装置への発展
的応用が可能となる。
【図面の簡単な説明】
【図1】本発明の入力装置の一実施例の構成を示す図で
ある。
【図2】図1のディスプレイ1のより詳細な構成を示す
図である。
【図3】図1の3次元座標測定装置3の構成例を示す図
である。
【図4】図1の実施例により図6に示す処理を実行させ
る場合における計算機4の機能を説明する図である。
【図5】電卓のボタンのモデル座標系を示す図である。
【図6】電卓を操作する場合の概念図である。
【図7】VTRのリモコンを操作する場合の概念図であ
る。
【図8】紙上に手書き入力する場合の概念図である。
【図9】電卓を操作する場合の他の概念図である。
【図10】VTRのリモコンを操作する場合の他の概念
図である。
【図11】紙上に手書き入力する場合の他の概念図であ
る。
【図12】コピー領域を指定する場合の概念図である。
【図13】VTRのリモコンのつまみを操作する場合の
概念図である。
【図14】キーボードを操作する場合の概念図である。
【図15】本発明の入力装置の他の構成例を示す図であ
る。
【図16】VTRのリモコンのつまみのモデル座標系を
示す図である。
【図17】図1のディスプレイ1の他の構成例を示す図
である。
【図18】本発明の入力装置のさらに他の実施例の構成
を示す図である。
【図19】図18における2台のカメラを用いて3次元
座標を測定する場合の原理を説明する図である。
【図20】図18の計算機4の機能ブロックを説明する
図である。
【図21】本発明の入力装置の他の実施例の構成を示す
図である。
【図22】ディスプレイの表示画像の合成の原理を説明
する図である。
【図23】映像を正しく合成させる場合における計算機
4の機能を説明する図である。
【図24】図23の各部において生成される映像を説明
する図である。
【図25】映像を正しく合成する場合における計算機4
の他の機能ブロックを示す図である。
【図26】図25の各部において生成される映像を説明
する図である。
【符号の説明】
1 ディスプレイ 3 3次元座標測定装置 3a 液晶コントローラ 3b センサコントローラ 4 計算機 11 表示部 13 ハーフミラー 15 ビデオカメラ 16 ビデオ合体装置 17 ミラー 21 検出回路 22 位置計算部 23 ドライブ回路 24 ソース 31 視点位置計算部 33 映像生成部 34 映像出力部 35 指位置計算部 36 指示物体計算部 37 物体モデル管理部 111 ディスプレイ 112 液晶シャッタ眼鏡 112a 位置センサ

Claims (5)

    【特許請求の範囲】
  1. 【請求項1】 指の位置を検出する指位置検出手段と、 表示する映像を生成する生成手段と、 前記生成手段により生成された映像を、背景映像に重畳
    して表示する表示手段と、 前記指位置検出手段により検出された前記指の位置と、
    前記生成手段により生成され、前記表示手段に表示され
    た映像との関係を演算する演算手段とを備えることを特
    徴とする入力装置。
  2. 【請求項2】 前記生成手段は、前記映像の一部を、前
    記背景映像に対応して消去することを特徴とする請求項
    1に記載の入力装置。
  3. 【請求項3】 前記表示手段の位置を検出する表示位置
    検出手段をさらに備えることを特徴とする請求項1また
    は2に記載の入力装置。
  4. 【請求項4】 前記指位置検出手段は、少なくとも2個
    のビデオカメラを有することを特徴とする請求項1,2
    または3に記載の入力装置。
  5. 【請求項5】 前記表示手段は、左眼映像と右眼映像と
    を交互に表示し、 前記左眼映像と右眼映像とに同期して切り替えられるシ
    ャッタを有する眼鏡をさらに備えることを特徴とする請
    求項1乃至4のいずれかに記載の入力装置。
JP14720193A 1993-06-18 1993-06-18 入力装置 Pending JPH075978A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP14720193A JPH075978A (ja) 1993-06-18 1993-06-18 入力装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP14720193A JPH075978A (ja) 1993-06-18 1993-06-18 入力装置

Publications (1)

Publication Number Publication Date
JPH075978A true JPH075978A (ja) 1995-01-10

Family

ID=15424849

Family Applications (1)

Application Number Title Priority Date Filing Date
JP14720193A Pending JPH075978A (ja) 1993-06-18 1993-06-18 入力装置

Country Status (1)

Country Link
JP (1) JPH075978A (ja)

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000196914A (ja) * 1998-10-13 2000-07-14 Sony Electronics Inc 動作検知インタ―フェ―ス
JP2000330714A (ja) * 1999-05-21 2000-11-30 Toyota Motor Corp 空間図形入力装置
JP2002318652A (ja) * 2001-04-20 2002-10-31 Foundation For Nara Institute Of Science & Technology 仮想入力装置およびプログラム
KR100404745B1 (ko) * 2001-07-10 2003-11-07 조두희 영상 스위치 및 이를 이용한 제품 제어방법
JP2003337963A (ja) * 2002-05-17 2003-11-28 Seiko Epson Corp 画像処理装置および画像処理方法、ならびに、画像処理プログラムおよびその記録媒体
JP2003337653A (ja) * 2002-05-20 2003-11-28 Seiko Epson Corp 触覚・力覚提示装置および触覚・力覚提示システム
JP2006127158A (ja) * 2004-10-28 2006-05-18 Canon Inc 画像処理方法、画像処理装置
JP2006155172A (ja) * 2004-11-29 2006-06-15 Olympus Corp 入力装置
JP2006154901A (ja) * 2004-11-25 2006-06-15 Olympus Corp 空間手書き装置
JP2006267202A (ja) * 2005-03-22 2006-10-05 Olympus Corp 情報端末装置
JP2007115167A (ja) * 2005-10-24 2007-05-10 Sanyo Electric Co Ltd 情報処理システム、および携帯情報端末
JP2008040832A (ja) * 2006-08-07 2008-02-21 Canon Inc 複合現実感提示システム及びその制御方法
JP2009129021A (ja) * 2007-11-20 2009-06-11 Ntt Docomo Inc 情報入力システムおよび情報入力方法
JP2010145860A (ja) * 2008-12-19 2010-07-01 Brother Ind Ltd ヘッドマウントディスプレイ
JP2013137787A (ja) * 2000-05-22 2013-07-11 F Poszat Hu Llc 3次元ヒューマンコンピュータインタフェース
JP2013172211A (ja) * 2012-02-17 2013-09-02 Sharp Corp 遠隔操作装置、遠隔操作システム
KR101397812B1 (ko) * 2012-11-30 2014-05-20 강원대학교산학협력단 원격 터치 및 드래그 방식 입력 시스템
JP2014106698A (ja) * 2012-11-27 2014-06-09 Seiko Epson Corp 表示装置、頭部装着型表示装置および表示装置の制御方法
JP2014131094A (ja) * 2012-12-28 2014-07-10 Seiko Epson Corp 表示装置、および、表示装置の制御方法
JP2015056179A (ja) * 2013-09-13 2015-03-23 現代自動車株式会社 注文型インターフェースシステムおよびその操作方法
JP2015115848A (ja) * 2013-12-13 2015-06-22 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP2016031761A (ja) * 2014-07-25 2016-03-07 裕行 池田 眼鏡型端末
JPWO2014073346A1 (ja) * 2012-11-09 2016-09-08 ソニー株式会社 情報処理装置、情報処理方法およびコンピュータ読み取り可能な記録媒体
WO2017018388A1 (ja) * 2015-07-29 2017-02-02 京セラ株式会社 ウェアラブル装置、制御方法及び制御プログラム
JP2017139000A (ja) * 2017-03-16 2017-08-10 セイコーエプソン株式会社 表示装置、および、表示装置の制御方法
JP2018107823A (ja) * 2018-03-05 2018-07-05 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP2019521452A (ja) * 2016-07-22 2019-07-25 グーグル エルエルシー 仮想現実ユーザインターフェイスのためのユーザの動きの範囲の検出
WO2022019090A1 (ja) * 2020-07-21 2022-01-27 ソニーグループ株式会社 情報処理装置、情報処理方法、及び情報処理プログラム
US11429200B2 (en) 2020-10-13 2022-08-30 Hiroyuki Ikeda Glasses-type terminal

Cited By (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000196914A (ja) * 1998-10-13 2000-07-14 Sony Electronics Inc 動作検知インタ―フェ―ス
JP2000330714A (ja) * 1999-05-21 2000-11-30 Toyota Motor Corp 空間図形入力装置
JP2013137787A (ja) * 2000-05-22 2013-07-11 F Poszat Hu Llc 3次元ヒューマンコンピュータインタフェース
JP2002318652A (ja) * 2001-04-20 2002-10-31 Foundation For Nara Institute Of Science & Technology 仮想入力装置およびプログラム
KR100404745B1 (ko) * 2001-07-10 2003-11-07 조두희 영상 스위치 및 이를 이용한 제품 제어방법
JP2003337963A (ja) * 2002-05-17 2003-11-28 Seiko Epson Corp 画像処理装置および画像処理方法、ならびに、画像処理プログラムおよびその記録媒体
JP2003337653A (ja) * 2002-05-20 2003-11-28 Seiko Epson Corp 触覚・力覚提示装置および触覚・力覚提示システム
JP4533087B2 (ja) * 2004-10-28 2010-08-25 キヤノン株式会社 画像処理方法、画像処理装置
JP2006127158A (ja) * 2004-10-28 2006-05-18 Canon Inc 画像処理方法、画像処理装置
JP2006154901A (ja) * 2004-11-25 2006-06-15 Olympus Corp 空間手書き装置
JP4526362B2 (ja) * 2004-11-29 2010-08-18 オリンパス株式会社 入力装置
JP2006155172A (ja) * 2004-11-29 2006-06-15 Olympus Corp 入力装置
JP2006267202A (ja) * 2005-03-22 2006-10-05 Olympus Corp 情報端末装置
JP2007115167A (ja) * 2005-10-24 2007-05-10 Sanyo Electric Co Ltd 情報処理システム、および携帯情報端末
JP2008040832A (ja) * 2006-08-07 2008-02-21 Canon Inc 複合現実感提示システム及びその制御方法
JP2009129021A (ja) * 2007-11-20 2009-06-11 Ntt Docomo Inc 情報入力システムおよび情報入力方法
JP2010145860A (ja) * 2008-12-19 2010-07-01 Brother Ind Ltd ヘッドマウントディスプレイ
JP2013172211A (ja) * 2012-02-17 2013-09-02 Sharp Corp 遠隔操作装置、遠隔操作システム
JPWO2014073346A1 (ja) * 2012-11-09 2016-09-08 ソニー株式会社 情報処理装置、情報処理方法およびコンピュータ読み取り可能な記録媒体
JP2014106698A (ja) * 2012-11-27 2014-06-09 Seiko Epson Corp 表示装置、頭部装着型表示装置および表示装置の制御方法
KR101397812B1 (ko) * 2012-11-30 2014-05-20 강원대학교산학협력단 원격 터치 및 드래그 방식 입력 시스템
JP2014131094A (ja) * 2012-12-28 2014-07-10 Seiko Epson Corp 表示装置、および、表示装置の制御方法
JP2015056179A (ja) * 2013-09-13 2015-03-23 現代自動車株式会社 注文型インターフェースシステムおよびその操作方法
JP2015115848A (ja) * 2013-12-13 2015-06-22 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
US10191282B2 (en) 2014-07-25 2019-01-29 Hiroyuki Ikeda Computer display device mounted on eyeglasses
JP2016031761A (ja) * 2014-07-25 2016-03-07 裕行 池田 眼鏡型端末
US10585288B2 (en) 2014-07-25 2020-03-10 Hiroyuki Ikeda Computer display device mounted on eyeglasses
WO2017018388A1 (ja) * 2015-07-29 2017-02-02 京セラ株式会社 ウェアラブル装置、制御方法及び制御プログラム
JPWO2017018388A1 (ja) * 2015-07-29 2018-04-26 京セラ株式会社 ウェアラブル装置、制御方法及び制御プログラム
US20180217672A1 (en) * 2015-07-29 2018-08-02 Kyocera Corporation Wearable device, control method, and control program
US10551932B2 (en) 2015-07-29 2020-02-04 Kyocera Corporation Wearable device, control method, and control program
JP2019521452A (ja) * 2016-07-22 2019-07-25 グーグル エルエルシー 仮想現実ユーザインターフェイスのためのユーザの動きの範囲の検出
JP2017139000A (ja) * 2017-03-16 2017-08-10 セイコーエプソン株式会社 表示装置、および、表示装置の制御方法
JP2018107823A (ja) * 2018-03-05 2018-07-05 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
WO2022019090A1 (ja) * 2020-07-21 2022-01-27 ソニーグループ株式会社 情報処理装置、情報処理方法、及び情報処理プログラム
US11429200B2 (en) 2020-10-13 2022-08-30 Hiroyuki Ikeda Glasses-type terminal

Similar Documents

Publication Publication Date Title
JPH075978A (ja) 入力装置
CN109313500B (zh) 纤细形状因子的无源光学和惯性跟踪
EP3469457B1 (en) Modular extension of inertial controller for six dof mixed reality input
EP3469458B1 (en) Six dof mixed reality input by fusing inertial handheld controller with hand tracking
US10739936B2 (en) Zero parallax drawing within a three dimensional display
US9651782B2 (en) Wearable tracking device
US20210283496A1 (en) Realistic Virtual/Augmented/Mixed Reality Viewing and Interactions
US9986228B2 (en) Trackable glasses system that provides multiple views of a shared display
US20160267720A1 (en) Pleasant and Realistic Virtual/Augmented/Mixed Reality Experience
US9979946B2 (en) I/O device, I/O program, and I/O method
US10652525B2 (en) Quad view display system
US9906778B2 (en) Calibration device, calibration program, and calibration method
US10469834B2 (en) Stereoscopic display
JP3834615B2 (ja) 画像表示方法及びシステム
JP2012068984A (ja) 表示制御プログラム、表示制御装置、表示制御システム及び表示制御方法
US10171800B2 (en) Input/output device, input/output program, and input/output method that provide visual recognition of object to add a sense of distance
CN107077199A (zh) 用于在三维显示器上呈现虚拟对象的装置及用于控制装置的方法
US20220256137A1 (en) Position calculation system
JPH0628452A (ja) 3次元画像処理装置
JP4491598B2 (ja) 画像表示システム
US11934585B2 (en) Method for performing interactive operation upon a stereoscopic image and stereoscopic image display system
JPH10260774A (ja) 手形状入力装置および仮想現実感生成装置
Cohen et al. Stephen Mann, Kenneth Sloan FR-35, Department of Computer Science University of Washington Seattle, WA 98195

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20020124