JP2003296757A - 情報処理方法および装置 - Google Patents

情報処理方法および装置

Info

Publication number
JP2003296757A
JP2003296757A JP2002095537A JP2002095537A JP2003296757A JP 2003296757 A JP2003296757 A JP 2003296757A JP 2002095537 A JP2002095537 A JP 2002095537A JP 2002095537 A JP2002095537 A JP 2002095537A JP 2003296757 A JP2003296757 A JP 2003296757A
Authority
JP
Japan
Prior art keywords
operator
instruction
image
pointing
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002095537A
Other languages
English (en)
Inventor
Takeshi Kuroki
剛 黒木
Toshiichi Oshima
登志一 大島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2002095537A priority Critical patent/JP2003296757A/ja
Priority to US10/395,176 priority patent/US7123214B2/en
Publication of JP2003296757A publication Critical patent/JP2003296757A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0338Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of limited linear or angular displacement of an operating part of the device from a neutral position, e.g. isotonic or isometric joysticks
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B2027/0192Supplementary details
    • G02B2027/0198System for aligning or maintaining alignment of an image in a predetermined direction

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

(57)【要約】 【課題】 操作者が三次元空間に対して、操作者の視点
から見た画面を見ながら二次元入力手段を用いて操作を
行う際、操作者の視線方向が不安定な場合には指示方向
がワールド座標系の中で大きくぶれてしまうため、入力
が難しいという問題があった。 【解決手段】 視点情報を検出し、指示画像の位置を操
作するための操作者の指示を入力し、操作者の指示に応
じて、指示座標系における指示方向を求め、指示方向に
基づき指示画像を生成する。そして、操作者の特定の指
示に応じて、検出された視点情報から指示座標系を変更
する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】操作者によって操作される指
示画像が合成された画像を表示する情報処理方法および
情報処理装置に関する。
【0002】
【従来の技術】ヴァーチャルリアリティ(VR)では、
三次元仮想空間をHMD等のディスプレイを用いて操作
者の視点から見て、その中で作業を行うことが可能であ
る。また、複合現実感(MR)では、操作者がシースル
ーHMDを用いることで、現実空間と三次元仮想空間を
重ねて見ることが可能になっている。
【0003】また、テレプレゼンスシステムでは、操作
者が遠隔地にあるカメラを操作し、そのカメラの捉えた
映像を見ながら作業を行うことで、あたかも遠隔地に操
作者が実際に存在するかのようにして作業を行うことが
可能である。
【0004】さて、このようなVRやMR、テレプレゼ
ンスシステムにおいて、操作者が現実または仮想の三次
元空間に対して何らかの操作を行う場合がある。たとえ
ば操作者が三次元仮想空間内の仮想の物体を動かした
り、現実の三次元空間の物体を指定してその情報をディ
スプレイに表示したりといった場合である。こうした操
作は、従来、三次元的に指示が可能な磁気センサや光学
センサなどの三次元入力装置で行われてきた。
【0005】このような三次元空間に対して三次元入力
装置で操作を入力する方法に対して、マウスなどの二次
元入力装置を用いて三次元空間に操作を行う方法が知ら
れている。このような入力法の例として、例えば、マウ
スなどの入力装置を用いて、三次元空間を透視変換され
たスクリーン座標(x,y)上での指示位置から奥行方
向z座標の値をあらかじめ用意したテーブルから得るこ
とで三次元空間への入力を行う方法が知られている。
【0006】これらの二次元入力装置を用いた手法は、
いずれも三次元空間を透視変換した画像上において、ポ
インタを二次元入力装置で操作することによって入力を
行っている。このような従来の入力法で三次元空間に対
して二次元入力装置で操作を入力するVRアプリケーシ
ョンの例を以下に記す。
【0007】操作者は図1に示されるようなHMD20
1を装着する。HMD201は操作者に三次元仮想空間
を提示する。HMD201には頭部位置姿勢センサ20
2が付いており、頭部位置姿勢センサ202はHMD2
01の位置および姿勢を出力する。また、操作者は手に
図2に示されるような二次元入力装置101を持つ。操
作者は、二次元ポインティングスティック102によっ
て二次元の値を入力することができる。すなわち、ポイ
ンティングスティック102を倒す方向と角度によっ
て、図のように(x,y)=(0,0)〜(100,1
00)の値を入力することができる。また、二次元入力
装置101は第一ボタン103および第二ボタン104
を備える。
【0008】図3はこのようなアプリケーションで操作
者に提示される三次元仮想空間の概要を表している。三
次元仮想空間300は直方体301で構成され、直方体
301の内部には仮想の球体A302、B303、C3
04が浮遊している。また、操作者も直方体301の内
部に存在する。また、306は直方体301の隅を原点
としたワールド座標系である。図4は仮想空間300の
操作者視点からの見え方を表したものである。
【0009】図5は操作者のHMD201に表示される
画面500を表したものである。画面500は幅640
ピクセル、高さ480ピクセルからなり、その画面上で
の座標位置は画面500の左上を原点として(X,Y)
=(640,480)のように表される。501は画面
500に表示されるポインタであり、操作者が二次元ポ
インティングスティック102を操作することで移動す
る。ポインタ501はポインティングスティック102
の操作量に応じて画面500上を移動し、図5では
(X,Y)=(490,80)の位置にある。
【0010】操作者が第一ボタン103を押すと、画面
500上でポインタ501の下にある物体が指定され
る。例えば、図5ではポインタ501が仮想球体A30
2に重ねて表示されているため、この時に操作者が第一
ボタン103を押すと、仮想球体A302が指定され
る。この時、ポインタ501が仮想球体A302の上に
あるかどうかの判断は、例えば座標(490,80)の
Zバッファ値を獲得することで可能である。
【0011】
【発明が解決しようとする課題】上述した磁気センサや
光学センサを用いた三次元入力装置は一般に高価であ
る。また、使用するセンサによっては一度に計測できる
被計測物の数が限られている場合があるため、入力装置
をセンサで測定することができない場合があった。ま
た、光学センサを用いた三次元入力装置などでは計測装
置と計測対象の間が体や物体によって遮られてしまうと
計測できなくなるという問題があった。
【0012】マウスなどの二次元入力装置を用いれば上
述の問題は回避できるが、従来の三次元空間を透視変換
した画像上においてポインタを二次元入力装置で移動さ
せるという方法では、操作者の視線方向が不安定な場合
に、ポインタの指示方向が三次元空間で大きく変化して
しまう。言い換えると、指示方向が視野座標系によって
定義されるため、視野座標系が固定されていない場合
に、指示方向がワールド座標系の中で大きく変化してし
まうという問題がある。
【0013】たとえば操作者がHMDを装着している場
合、HMDの重みなどで操作者の頭部がふらつくと、画
面上でポインタの位置座標が変わらなくても、指示方向
が大きく変化してしまう。そのため、正確に三次元空間
内の物体を指示するためには操作者が頭部を固定する必
要があり、ユーザに苦痛を強いることになっていた。こ
の問題を以下で図を用いて説明する。
【0014】図6は上述のVRアプリケーションにおい
て、ワールド座標系306と視野座標系601の関係を
示した図である。視野座標系601のワールド座標系3
06における位置および姿勢は頭部位置姿勢センサ20
2から得られる。画像平面602は視野座標系601に
対して相対的に配置され、操作者の指示方向603は視
野座標系601の原点とポインタ501を結ぶ矢印で表
される。
【0015】図7は、操作者の頭部がふらつき、操作者
の視線方向が変化した場合に、操作者の指示方向603
がどのように変化するかを示した図である。図7に示す
ように、操作者の視線方向が変化することによってワー
ルド座標系306と視野座標系601の関係が変化し、
画像平面602およびポインタ501の位置が変わり、
ワールド座標系306における指示方向603の示す方
向が大きく変化している。
【0016】図8はこのとき操作者のHMD201に表
示される画面801を表したものである。点線で示され
ている枠802は視線方向が変化する前、すなわち図6
の時点での画面位置を示している。図からわかるよう
に、視線方向が変化する前はポインタ501は仮想球体
A302に重ねて表示されているが、視線方向の変化に
よってポインタ501の位置が変化し、仮想球体A30
2から離れて表示されている。そのため、仮想球体A3
02を指定するためには再びポインタ501を移動させ
ねばならず、移動後も頭部がふらつき視線方向が変化し
た際にはまた同じ作業を行う必要がある。つまり、安定
して操作を行うためにはHMD201を装着した頭部を
固定する必要があり、これは操作者に苦痛をもたらす。
【0017】上記の例はHMDを用いたVRアプリケー
ションの例であったが、この問題はMRアプリケーショ
ンやテレプレゼンスアプリケーションにおいても同様に
問題となる。たとえば、テレプレゼンスシステムにおい
ては、遠隔地にカメラを置いた場合に、機械的な要因や
風などの外部環境の変化からカメラの撮影方向がふらつ
くことがある。上述した従来の手法は視点位置および視
線方向が固定された状態を前提としている方法であるた
め、このような問題に対応できない。
【0018】本発明の目的は、上述の課題を解決し、操
作者の視線方向が不安定な場合においても、安定して入
力を行うことができるようにすることを目的とする。
【0019】
【課題を解決するための手段】上記目的を達成するため
に本発明は以下の構成を有することを特徴とする。
【0020】本願請求項1の発明は、指示画像が合成さ
れた画像を表示する情報処理方法であって、視点情報を
検出し、前記指示画像の位置を操作するための操作者の
指示を入力し、前記操作者の指示に応じて、指示座標系
における指示方向を求め、前記指示方向に基づき指示画
像を生成する情報処理方法であり、前記操作者の特定の
指示に応じて、前記検出された視点情報から前記指示座
標系を変更することを特徴とする。
【0021】本願請求項5の発明は、操作者の視点情報
を検出するセンサ、操作者が前記指示画像の位置を操作
する指示を入力する操作部、前記操作部に入力された指
示に応じて、指示座標系における指示方向を求める指示
方向決定部、前記指示方向に基づき指示画像を生成し、
他の画像と合成する画像生成部、前記画像生成部によっ
て生成された合成画像を表示する表示部とを有し、前記
指示座標系は、前記操作者の指示に応じて、前記検出さ
れた視点情報を用いて変更されることを特徴とする。
【0022】
【発明の実施の形態】以下、図面を参照して本発明の好
ましい実施形態について説明する。本実施形態は、操作
者がHMDを装着し、仮想の三次元空間内に存在する仮
想の球体を指定する前述のVRアプリケーションである
が、入力方法が前述の方法とは異なる。本実施形態の入
力方法は、任意のVRおよびMRアプリケーション、お
よびテレプレゼンスアプリケーションに適用することが
できる。
【0023】図9は、本実施形態における入力方法の構
成例を示すブロック図である。本発明は、二次元入力装
置101、頭部位置姿勢センサ202、HMD201を
備え、さらに指示方向決定手段901および指示方向復
帰手段902および指示方向リセット手段903および
画像生成手段904を備える。各部の説明を以下で行
う。
【0024】二次元入力装置101はたとえばポインテ
ィングスティックからなり、操作者はこれを操作して二
次元の値を入力することができる。二次元入力装置10
1は二次元の値を入力できるものであれば何でもよく、
たとえばマウスであってもよい。また、たとえば、上下
ボタン、左右ボタンの4つのボタンで構成されてもよ
い。出力される二次元入力値は指示方向決定手段901
に送られる。
【0025】頭部位置姿勢センサ202はたとえばHM
D201に装着された磁気センサからなり、HMD20
1の視点位置(3自由度)および視点の姿勢(3自由
度)の計6自由度を随時出力する。頭部位置姿勢センサ
202は必ずしも6自由度を出力できる必要はなく、た
とえばHMD201の位置が固定されている場合には、
姿勢の3自由度のみを出力できればよい。頭部位置姿勢
センサ202は、HMD201の位置姿勢情報を出力で
きるものであれば何で構成されてもよく、たとえばロー
タリーエンコーダや光学センサから構成される。出力さ
れた位置・姿勢情報は指示方向決定手段901に送られ
る。
【0026】HMD201は操作者に操作者視点からの
映像を提示する。指示方向決定手段901は二次元入力
装置101から二次元入力値を、頭部位置姿勢センサ2
02からHMD201の位置・姿勢情報を受け取り、指
示方向を決定する。指示方向リセット手段903は指示
方向のリセットを行う。指示方向復帰手段902は指示
方向の復帰を行う。画像生成手段904は指示方向手段
901から指示方向情報およびHMD201の位置・姿
勢情報を受け取り、HMD201の視界に納まる範囲の
三次元仮想空間を描画し、また指示方向を表すポインタ
を描画し、HMD201に描画した映像を送る。
【0027】図10は、本実施形態の入力方法の処理手
順の例を示すフローチャートである。以下、図10を参
照しながら順を追って本発明の入力方法の説明を行う。
【0028】ステップS101で頭部位置姿勢センサ2
02からHMD201の位置・姿勢が取得される。取得
された位置・姿勢情報は指示方向決定手段901に送ら
れる。ステップS102で第二ボタン104が押されて
いるかどうかがチェックされ、押されている場合にはス
テップS103に、押されていない場合にはステップS
104に進む。ステップS103では、指示方向リセッ
ト手段903において指示方向リセットが行われる。
【0029】図11は指示方向リセットを説明する図で
ある。第二ボタン104が押された時点で、指示方向リ
セット手段903は頭部位置姿勢センサ202から得ら
れたHMD201の位置・姿勢情報を元にして、指示座
標系1101を生成する。指示座標系1101は、HM
D201の視点位置1102を原点とし、正面をz軸、
真下をy軸、右方向をx軸とした座標系である。ここ
で、指示座標系1101は、原点位置が視点位置110
2に連動し、姿勢はワールド座標系306に対して常に
一定であるものとする。そのため、図12のように視点
位置1102が平行移動した場合には指示座標系110
1も一緒に動くが、図13のように視線の向きが変わっ
た場合には指示座標系1101は変化しない。
【0030】指示座標系1101が生成されると同時
に、指示方向リセット手段903はz軸上に大きさ1の
方向ベクトル1103を生成する。指示座標系1101
の原点から方向ベクトル1103の方向に伸ばした直線
と画像平面602との交点にはポインタ501が描画さ
れ、このポインタ501は指示座標系1101および方
向ベクトル1103の定義から、指示方向リセット時に
は常に画像平面602の中心に来る。
【0031】ステップS103で指示方向リセットが終
了すると、ステップS104において二次元入力装置1
01から二次元入力値が取得される。ここで、操作者
は、図2に示される二次元ポインティングスティック1
02によって二次元の値を入力することができる。すな
わち、ポインティングスティック102を倒す方向と角
度によって、図2のように(x,y)=(0,0)〜
(100,100)の値を入力することができる。入力
された二次元入力値は指示方向決定手段901に送られ
る。
【0032】ステップS105では、指示方向決定手段
901において指示方向603の決定がなされる。指示
方向603は指示座標系1101の原点から方向ベクト
ル1103の方向に伸ばした直線で定められる。ここで
方向ベクトル1103は図14のように、二次元ポイン
ティングスティック102が下に倒された場合には下を
向き、右に倒された場合には右に向くように変化する。
【0033】方向ベクトル1103を図14のように変
化させるために、二次元入力値と方向ベクトル1103
との関係を例えば以下のように定める。図19のよう
に、方向ベクトル1103の指示座標系x−z平面への
射影がz軸となす角をθ、大きさ1の方向ベクトル11
03が指示座標系x−z平面となす角をφとする。θ、
φの変化量dθ、dφを以下のように定める。 dθ=(x1−50)/200π dφ=(y1−50)/200π (単位:ラジアンx1,y1はポインティングスティッ
クの二次元入力値) 以上のようにdθ,dφを定め、変化量を積分していく
ことで、ある時点でのθ、φを求めることができ、この
式に従うことで図14のように方向ベクトル1103を
操作することが可能である。
【0034】また、θ、φを用いて直交座標系で方向ベ
クトル1103を表す場合には以下の式を用いる。 x=sinθ・cosφ y=sinφ z=cosθ・cosφ ここでは極座標を用いて方向ベクトル1103を表現す
る方法を挙げたが、これは図14のようにポインティン
グスティック102を倒す方向と方向ベクトル1103
の変化する方向が一致する方法であれば何でもよく、た
とえば以下のような方法を取ってもよい。
【0035】方向ベクトル1103を指示方向リセット
時、指示座標系1101で(x,y,z)=(0,0,
1)として表現し、xがポインティングスティックの横
方向、またyがポインティングスティックの縦方向で変
化させられるものとし、zは不変とする。x,yの変化
量dx,dyを以下のように定める。 dx=(x1−50)/50 dy=(y1−50)/50 (x1,y1はポインティングスティックの二次元入力
値) 以上のようにdx,dyを定め、変化量を積分していく
ことで、ポインティングスティックを動かした際に図1
4のように方向ベクトル1103を操作することが可能
である。
【0036】以上のような指示方向決定を行うことで、
操作者の視線方向が不安定な場合にも安定した入力を行
うことが可能であることを図15、図16を用いて説明
する。図15は、指示方向リセットを行った後に、二次
元入力装置101を操作して仮想球体A302を指示し
た状態を表している。この時、方向ベクトル1103は
指示座標系1101によって定義され、また、指示座標
系1101の姿勢はワールド座標系306において一定
である。そのため、図16のように操作者の視線方向が
変わり、ワールド座標系306において画像平面602
が移動した場合にも、指示方向603はワールド座標系
306の中で一定で、仮想球体A302を指示したまま
である。
【0037】図17はこのとき操作者のHMD201に
表示される画面1701を表したものである。点線で示
されている枠1702は視線方向が変化する前の時点、
つまり図15の時点での画面位置を示している。図から
わかるように、視線方向が変化してもポインタ501は
仮想球体A302を指示したままである。
【0038】従来の手法では図7、図8のように視線方
向が変わることで指示方向603が大きく変化するのに
比べると、本発明の手法は安定した入力が可能であるこ
とがわかる。
【0039】ステップS105で以上のように指示方向
603が決定された後、ステップS106で指示方向復
帰手段902においてポインタ501が視界内にあるか
どうかが判断される。このステップは、操作者が指示方
向603を見失ってしまうことを防ぐために行われる。
ポインタ501が視界内にあると判断された場合にはス
テップS108に、視界内にないと判断された場合には
ステップS107に進む。
【0040】ステップS107では指示方向603の復
帰が行われる。指示方向603の復帰は、指示座標系1
101を図18のように移動させることで行われる。図
のように指示座標系1101のz軸が視界におさまるよ
うに設定し、z軸上に方向ベクトル1103を設定する
ことで、ポインタ501を再び視野に納めることが可能
である。
【0041】ステップS108では画像生成手段904
で操作者に提示される画像が生成される。画像生成手段
904はステップS101で取得したHMD201の位
置・姿勢情報を元にCG画像を生成する。また、ステッ
プS105もしくはステップS107で決定された指示
方向603が画像平面602と交わる点にポインタ50
1を描画する。
【0042】以上説明したように、本発明を用いること
で、操作者がVRおよびMRおよびテレプレゼンスアプ
リケーションにおいて、仮想または現実の三次元空間に
対して操作者の視点から見た画面を見ながら操作を行う
際、操作者の視線方向が不安定な場合においても、二次
元入力手段を用いて安定して入力を行う方法を提供する
ことができる。
【0043】(他の実施の形態)上述の実施形態は操作
者に三次元仮想空間のみが提示されるVRアプリケーシ
ョンであったが、本実施形態は操作者に三次元仮想空間
のみでなく現実の三次元空間を提示するMRアプリケー
ションにも適用可能である。また、本発明の入力方法は
テレプレゼンスアプリケーションにも適用可能である。
【0044】また、操作者は三次元仮想空間に存在する
仮想物体を指示する操作を行っていたが、MRアプリケ
ーションやテレプレゼンスアプリケーションにおいては
本発明の入力方法を現実物体を指示する操作に用いるこ
とが可能である。
【0045】また、操作者に空間を提示する装置として
HMDが用いられているが、操作者に映像を提示できる
ものであれば何でもよく、単にモニタで構成されてもよ
い。たとえばテレプレゼンスアプリケーションにおい
て、ロボットカメラの撮影した映像を操作者が遠隔地か
ら見る場合などについてはこのような構成となる。
【0046】本実施形態では処理手順のステップS10
3において、指示座標系1101がHMD201の視点
位置1102を原点とし、正面をz軸、真下をy軸、右
方向をx軸とした座標系として定義されている。しかし
指示座標系1101は必ずしもこのように定義されなく
てもよく、位置が視点位置1102に連動し、姿勢がワ
ールド座標系306において固定されてさえいればどの
ように定義されてもよい。
【0047】また、本実施形態では処理手順のステップ
S106においてポインタ501が視界内にあるかどう
かが判定されているが、このステップは省略されてもよ
い。この場合、ポインタ501が視界に入らない瞬間が
存在することになるが、アプリケーションの種類によっ
てはこのような入力方法の方が有効である。
【0048】本実施形態では指示方向を画面上で表現す
るためにポインタが用いられているが、これは指示方向
を画面上で表現できるものであれば何でもよく、たとえ
ば指示方向を表現するレーザーのような仮想の三次元オ
ブジェクトなどが用いられてもよい。
【0049】前述した実施の形態の機能を実現する様に
各種のデバイスを動作させる様に該各種デバイスと接続
された装置あるいはシステム内のコンピュータに、前記
実施の形態の機能を実現するためのソフトウエアのプロ
グラムコードを供給し、そのシステムあるいは装置のコ
ンピュータ(CPUあるいはMPU)を格納されたプロ
グラムに従って前記各種デバイスを動作させることによ
って実施したものも本発明の範疇に含まれる。
【0050】この場合、前記ソフトウエアのプログラム
コード自体が前述した実施の形態の機能を実現すること
になり、そのプログラムコード自体、及びそのプログラ
ムコードをコンピュータに供給するための手段、例えば
かかるプログラムコードを格納した記憶媒体は本発明を
構成する。
【0051】かかるプログラムコードを格納する記憶媒
体としては例えばフレキシブルディスクディスク、ハー
ドディスク、光ディスク、光磁気ディスク、CD−RO
M、磁気テープ、不揮発性のメモリカード、ROM等を
用いることが出来る。
【0052】またコンピュータが供給されたプログラム
コードを実行することにより、前述の実施形態の機能が
実現されるだけではなく、そのプログラムコードがコン
ピュータにおいて稼働しているOS(オペレーティング
システム)、あるいは他のアプリケーションソフト等と
共同して前述の実施形態の機能が実現される場合にもか
かるプログラムコードは本発明の実施形態に含まれるこ
とは言うまでもない。
【0053】更に供給されたプログラムコードが、コン
ピュータの機能拡張ボードやコンピュータに接続された
機能拡張ユニットに備わるメモリに格納された後そのプ
ログラムコードの指示に基づいてその機能拡張ボードや
機能格納ユニットに備わるCPU等が実際の処理の一部
または全部を行い、その処理によって前述した実施形態
の機能が実現される場合も本発明に含まれることは言う
までもない。
【0054】
【発明の効果】本発明によれば、操作者の視線方向が不
安定な場合においても、安定して入力を行うことができ
る。
【図面の簡単な説明】
【図1】操作者が装着するHMDを示す図である。
【図2】操作者が手に持つ二次元入力装置を示す図であ
る。
【図3】操作者に提示される三次元仮想空間を示す図で
ある。
【図4】三次元仮想空間を操作者の視点から見た図であ
る。
【図5】操作者のHMDに表示される画面を示した図で
ある。
【図6】ワールド座標系と視野座標系の関係を示した図
である。
【図7】従来の入力法において、操作者の視線方向が変
化した場合に、操作者の指示方向がどのように変化する
かを示した図である。
【図8】従来の入力法において、操作者のHMDに表示
される画面が操作者の視線方向が変化する前と変化した
後にどのように変化するかを表した図である。
【図9】実施形態による入力方法の構成例を示すブロッ
ク図である。
【図10】実施形態の入力方法の処理手順の例を示すフ
ローチャートである。
【図11】実施形態の入力方法における指示方向リセッ
トを説明する図である。
【図12】実施形態の入力方法において、視点位置が平
行移動した場合の指示座標系を示した図である。
【図13】実施形態の入力方法において、視線の向きが
変わった場合の指示座標系を示した図である。
【図14】本実施形態の入力方法における二次元ポイン
ティングスティックの操作方向と方向ベクトルの変化を
示した図である。
【図15】実施形態の入力方法において、仮想球体を指
示した状態を示した図である。
【図16】実施形態の入力方法において、操作者の視線
方向が変わっても指示方向が変化しないことを示した図
である。
【図17】実施形態の入力方法において、操作者のHM
Dに表示される画面が操作者の視線方向が変化する前と
変化した後にどのように変化するかを表した図である。
【図18】実施形態の入力方法において、視界からポイ
ンタが外れた場合の指示方向復帰を示した図である。
【図19】実施形態の入力方法において、方向ベクトル
を極座標で表現した場合の図である。
───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B050 BA07 BA09 CA07 EA07 EA19 EA27 EA28 FA02 FA09 5B087 AB04 BC26 DE00

Claims (7)

    【特許請求の範囲】
  1. 【請求項1】 指示画像が合成された画像を表示する情
    報処理方法であって、 視点情報を検出し、 前記指示画像の位置を操作するための操作者の指示を入
    力し、 前記操作者の指示に応じて、指示座標系における指示方
    向を求め、 前記指示方向に基づき指示画像を生成する情報処理方法
    であり、 前記操作者の特定の指示に応じて、前記検出された視点
    情報から前記指示座標系を変更することを特徴とする情
    報処理方法。
  2. 【請求項2】 前記視点情報に応じて仮想画像を生成
    し、 前記指示方向に応じて前記指示画像を前記仮想画像に合
    成し、表示画像を生成することを特徴とする請求項1記
    載の情報処理方法。
  3. 【請求項3】 前記指示座標系は、前記操作者によって
    特定の指示がされた時の視点情報に基づき生成される座
    標系であり、ワールド座標系の中で姿勢が固定された座
    標系であることを特徴とする請求項1記載の情報処理方
    法。
  4. 【請求項4】 視野から指示方向が外れたか判断し、外
    れた場合に視野内に移動させることを特徴とする請求項
    1に記載の情報処理方法。
  5. 【請求項5】 操作者の視点情報を検出するセンサ、 操作者が前記指示画像の位置を操作する指示を入力する
    操作部、 前記操作部に入力された指示に応じて、指示座標系にお
    ける指示方向を求める指示方向決定部、 前記指示方向に基づき指示画像を生成し、他の画像と合
    成する画像生成部、 前記画像生成部によって生成された合成画像を表示する
    表示部とを有し、 前記指示座標系は、前記操作者の指示に応じて、前記検
    出された視点情報を用いて変更されることを特徴とする
    情報処理装置。
  6. 【請求項6】 前記表示部はヘッドマウントディスプレ
    イであることを特徴とする請求項5記載の情報処理装
    置。
  7. 【請求項7】 前記操作部は二次元入力手段であること
    を特徴とする請求項5記載の情報処理装置。
JP2002095537A 2002-03-29 2002-03-29 情報処理方法および装置 Pending JP2003296757A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2002095537A JP2003296757A (ja) 2002-03-29 2002-03-29 情報処理方法および装置
US10/395,176 US7123214B2 (en) 2002-03-29 2003-03-25 Information processing method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002095537A JP2003296757A (ja) 2002-03-29 2002-03-29 情報処理方法および装置

Publications (1)

Publication Number Publication Date
JP2003296757A true JP2003296757A (ja) 2003-10-17

Family

ID=28449726

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002095537A Pending JP2003296757A (ja) 2002-03-29 2002-03-29 情報処理方法および装置

Country Status (2)

Country Link
US (1) US7123214B2 (ja)
JP (1) JP2003296757A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013114491A (ja) * 2011-11-29 2013-06-10 Buffalo Inc 情報表示装置及びプログラム
JP2017004491A (ja) * 2016-01-20 2017-01-05 株式会社コロプラ フローティング・グラフィカルユーザインターフェース
KR20190028238A (ko) * 2017-09-08 2019-03-18 삼성전자주식회사 가상 현실에서의 포인터 제어 방법 및 전자 장치
KR20190085071A (ko) * 2017-01-18 2019-07-17 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 가상 캐릭터의 오리엔테이션을 결정하기 위한 방법, 장치 및 저장 매체
US10949055B2 (en) 2016-12-14 2021-03-16 Seiko Epson Corporation Display system, display apparatus, control method for display apparatus

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11033821B2 (en) * 2003-09-02 2021-06-15 Jeffrey D. Mullen Systems and methods for location based games and employment of the same on location enabled devices
JP4677281B2 (ja) * 2005-05-11 2011-04-27 キヤノン株式会社 画像処理方法、画像処理装置
JP4785662B2 (ja) * 2005-10-03 2011-10-05 キヤノン株式会社 情報処理装置、情報処理方法
JP4777182B2 (ja) * 2006-08-01 2011-09-21 キヤノン株式会社 複合現実感提示装置及びその制御方法、プログラム
JP4883774B2 (ja) * 2006-08-07 2012-02-22 キヤノン株式会社 情報処理装置及びその制御方法、プログラム
US9703369B1 (en) * 2007-10-11 2017-07-11 Jeffrey David Mullen Augmented reality video game systems
JP5728009B2 (ja) * 2010-06-17 2015-06-03 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 指示入力装置、指示入力方法、プログラム、記録媒体および集積回路
DE102011112617A1 (de) * 2011-09-08 2013-03-14 Eads Deutschland Gmbh Kooperativer 3D-Arbeitsplatz
JP6165164B2 (ja) 2011-12-14 2017-07-19 フィリップス ライティング ホールディング ビー ヴィ 照明を制御する方法及び装置
TWI464449B (zh) * 2012-08-31 2014-12-11 Ind Tech Res Inst 穿戴式顯示器及其調整方法
US9091849B2 (en) 2012-08-31 2015-07-28 Industrial Technology Research Institute Wearable display and adjusting method thereof
JP6287849B2 (ja) * 2013-02-22 2018-03-07 ソニー株式会社 ヘッドマウントディスプレイ、画像表示装置及び画像表示方法
FR3003049B1 (fr) * 2013-03-08 2015-04-10 Thales Sa Systeme de visualisation de casque comportant des moyens visuels d'interaction avec la symbologie affichee
US9762895B1 (en) * 2014-03-11 2017-09-12 Rockwell Collins, Inc. Dual simultaneous image presentation for a three-dimensional aviation display
US9361732B2 (en) * 2014-05-01 2016-06-07 Microsoft Technology Licensing, Llc Transitions between body-locked and world-locked augmented reality
JP6682222B2 (ja) 2015-09-24 2020-04-15 キヤノン株式会社 検知装置及びその制御方法、コンピュータプログラム
CN107798675B (zh) * 2017-09-29 2024-02-13 歌尔光学科技有限公司 显示图像中拖影的检测方法及装置
CN110134197A (zh) * 2019-06-26 2019-08-16 北京小米移动软件有限公司 可穿戴式控制设备、虚拟/增强现实系统及控制方法
US11630639B2 (en) * 2020-12-08 2023-04-18 Samsung Electronics Co., Ltd. Control method of electronic device using a plurality of sensors and electronic device thereof

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05250089A (ja) * 1992-03-05 1993-09-28 Olympus Optical Co Ltd コンピュータ画像表示装置
JPH05290147A (ja) * 1992-04-06 1993-11-05 Matsushita Electric Ind Co Ltd 視点・光源機能の属性追加交換直接操作システム
JPH07271546A (ja) * 1994-03-31 1995-10-20 Olympus Optical Co Ltd 画像表示制御方法
JPH08202281A (ja) * 1995-01-30 1996-08-09 Olympus Optical Co Ltd 頭部装着型映像表示装置システム
JPH10334274A (ja) * 1997-05-29 1998-12-18 Canon Inc 仮想現実方法及び装置並びに記憶媒体
JP2000020753A (ja) * 1998-07-07 2000-01-21 Mitsubishi Electric Corp 仮想空間制御装置
JP2000102036A (ja) * 1998-09-22 2000-04-07 Mr System Kenkyusho:Kk 複合現実感提示システム、複合現実感提示方法、マン・マシーンインタフェース装置、およびマン・マシーンインタフェース方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2173079B (en) * 1985-03-29 1988-05-18 Ferranti Plc Cursor display control apparatus
US5068645A (en) * 1987-10-14 1991-11-26 Wang Laboratories, Inc. Computer input device using an orientation sensor
US5457641A (en) * 1990-06-29 1995-10-10 Sextant Avionique Method and apparatus for determining an orientation associated with a mobile system, especially a line of sight inside a helmet visor
US5367315A (en) * 1990-11-15 1994-11-22 Eyetech Corporation Method and apparatus for controlling cursor movement
US5585813A (en) * 1992-10-05 1996-12-17 Rockwell International Corporation All aspect head aiming display
US5323174A (en) * 1992-12-02 1994-06-21 Matthew H. Klapman Device for determining an orientation of at least a portion of a living body
US5803089A (en) * 1994-09-15 1998-09-08 Visualization Technology, Inc. Position tracking and imaging system for use in medical applications
US6373961B1 (en) * 1996-03-26 2002-04-16 Eye Control Technologies, Inc. Eye controllable screen pointer
US6204828B1 (en) * 1998-03-31 2001-03-20 International Business Machines Corporation Integrated gaze/manual cursor positioning system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05250089A (ja) * 1992-03-05 1993-09-28 Olympus Optical Co Ltd コンピュータ画像表示装置
JPH05290147A (ja) * 1992-04-06 1993-11-05 Matsushita Electric Ind Co Ltd 視点・光源機能の属性追加交換直接操作システム
JPH07271546A (ja) * 1994-03-31 1995-10-20 Olympus Optical Co Ltd 画像表示制御方法
JPH08202281A (ja) * 1995-01-30 1996-08-09 Olympus Optical Co Ltd 頭部装着型映像表示装置システム
JPH10334274A (ja) * 1997-05-29 1998-12-18 Canon Inc 仮想現実方法及び装置並びに記憶媒体
JP2000020753A (ja) * 1998-07-07 2000-01-21 Mitsubishi Electric Corp 仮想空間制御装置
JP2000102036A (ja) * 1998-09-22 2000-04-07 Mr System Kenkyusho:Kk 複合現実感提示システム、複合現実感提示方法、マン・マシーンインタフェース装置、およびマン・マシーンインタフェース方法

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013114491A (ja) * 2011-11-29 2013-06-10 Buffalo Inc 情報表示装置及びプログラム
JP2017004491A (ja) * 2016-01-20 2017-01-05 株式会社コロプラ フローティング・グラフィカルユーザインターフェース
US10949055B2 (en) 2016-12-14 2021-03-16 Seiko Epson Corporation Display system, display apparatus, control method for display apparatus
KR20190085071A (ko) * 2017-01-18 2019-07-17 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 가상 캐릭터의 오리엔테이션을 결정하기 위한 방법, 장치 및 저장 매체
JP2019531822A (ja) * 2017-01-18 2019-11-07 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 仮想キャラクタの方位確定方法、装置及び記憶媒体
US10825261B2 (en) 2017-01-18 2020-11-03 Tencent Technology (Shenzhen) Company Limited Method and device for determining and adjusting spatial attribute of virtual character in virtual reality applications
KR102288248B1 (ko) 2017-01-18 2021-08-09 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 가상 캐릭터의 오리엔테이션을 결정하기 위한 방법, 장치 및 저장 매체
JP7070843B2 (ja) 2017-01-18 2022-05-18 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 仮想キャラクタの方位確定方法、装置及びコンピュータプログラム
KR20190028238A (ko) * 2017-09-08 2019-03-18 삼성전자주식회사 가상 현실에서의 포인터 제어 방법 및 전자 장치
KR102374408B1 (ko) * 2017-09-08 2022-03-15 삼성전자주식회사 가상 현실에서의 포인터 제어 방법 및 전자 장치

Also Published As

Publication number Publication date
US7123214B2 (en) 2006-10-17
US20030184602A1 (en) 2003-10-02

Similar Documents

Publication Publication Date Title
JP2003296757A (ja) 情報処理方法および装置
CA2888943C (en) Augmented reality system and method for positioning and mapping
EP1292877B1 (en) Apparatus and method for indicating a target by image processing without three-dimensional modeling
JP4533087B2 (ja) 画像処理方法、画像処理装置
JP2013258614A (ja) 画像生成装置および画像生成方法
JP4677281B2 (ja) 画像処理方法、画像処理装置
US20120319949A1 (en) Pointing device of augmented reality
JP5656514B2 (ja) 情報処理装置及び方法
JP2013029958A (ja) 情報処理装置、情報処理方法、及びプログラム
US20210208699A1 (en) Direct three-dimensional pointing using light tracking and relative position detection
JP2012053631A (ja) 情報処理装置、情報処理方法
JP7267753B2 (ja) 制御装置、制御方法、及びプログラム
JP2007047294A (ja) 立体画像表示装置
JP2008293357A (ja) 情報処理方法および情報処理装置
JP2018142230A (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP2005174021A (ja) 情報提示方法及び装置
JP7273325B2 (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP2005147894A (ja) 計測方法、計測装置
TW201337639A (zh) 指向性影像操控裝置及其方法
JP6549066B2 (ja) 没入型仮想空間でオブジェクト操作を制御するためのコンピュータ・プログラムおよびコンピュータ・システム
Cho et al. Multi-scale 7DOF view adjustment
US10345595B2 (en) Head mounted device with eye tracking and control method thereof
JP6124862B2 (ja) ポインティング・ジェスチャに応じたアクションをする方法、会議支援システム、およびコンピュータ・プログラム
JP2005251118A (ja) 画像処理方法、画像処理装置
KR100708875B1 (ko) 표시화면을 가리키는 포인터의 포인팅 위치를 산출하는장치 및 방법

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060228

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060501

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060614

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060804

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060829