JP2012048568A - 情報処理装置及び方法 - Google Patents

情報処理装置及び方法 Download PDF

Info

Publication number
JP2012048568A
JP2012048568A JP2010191211A JP2010191211A JP2012048568A JP 2012048568 A JP2012048568 A JP 2012048568A JP 2010191211 A JP2010191211 A JP 2010191211A JP 2010191211 A JP2010191211 A JP 2010191211A JP 2012048568 A JP2012048568 A JP 2012048568A
Authority
JP
Japan
Prior art keywords
cursor
information processing
viewpoint
processing apparatus
operator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010191211A
Other languages
English (en)
Other versions
JP5656514B2 (ja
Inventor
Hiroyuki Tsunoda
弘幸 角田
Yasuki Tanaka
靖己 田中
Takashi Aso
隆 麻生
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010191211A priority Critical patent/JP5656514B2/ja
Priority to US13/216,597 priority patent/US9261953B2/en
Publication of JP2012048568A publication Critical patent/JP2012048568A/ja
Application granted granted Critical
Publication of JP5656514B2 publication Critical patent/JP5656514B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】 操作者が仮想現実空間または複合現実空間内でカーソルを用いて任意の場所を指し示すときに、カーソルの指し示したポイントを操作者が視認できるようにする。
【解決手段】 操作者の視点の位置を計測する視点位置計測手段と、前記操作者が操作する操作部の位置を計測する操作位置計測手段と、前記視点位置計測手段で計測された視点の位置と前記操作位置計測手段で計測された操作部の位置とに基づいて、表示すべきカーソルの位置姿勢を決定する決定手段とを備える。
【選択図】 図1

Description

本発明は、仮想現実空間または複合現実空間において仮想物体を生成するための情報処理装置及び方法に関する。
近年、現実空間と仮想空間との繋ぎ目のない結合を目的とした、複合現実感(MR:Mixed Reality)に関する研究が盛んに行われている。複合現実感の提示を行う画像表示装置は、例えば次のような構成を有する装置である。即ち、ビデオカメラ等の撮像装置が撮像した現実空間の画像上に、撮像装置の位置及び姿勢に応じて生成した仮想現実空間の画像(例えばコンピュータグラフィックスにより描画された仮想物体や文字情報等)を重畳描画した画像を表示する装置である。このような装置には、例えば、HMD(ヘッドマウントディスプレイ、頭部装着型ディスプレイ)を用いることができる。
画像表示装置は、操作者の頭部に装着された光学シースルー型ディスプレイに、操作者の視点の位置及び姿勢に応じて生成した仮想現実空間の画像を表示する光学シースルー方式によっても実現される。
一方、IT技術の発達により従来は紙とペンが媒体だった文字や絵を描くツールが電子化され、バーチャル空間内でも紙へ筆記する場合と同等な感覚で情報を入力できるペン等のポインティング用デバイスを用いたタブレット装置が開発されてきた。
例えば特許文献1では、従来のタブレット装置におけるペン型デバイス先端の位置計測が2次元であったのに対し、ペン先の計測を3次元で行っている。このことにより、操作者自身が持つペン先の操作を高さ方向で認識可能となり、ペン先の高さ方向の移動に伴い表示するカーソルのスケールや影の表示を変化させることで、バーチャル空間内におけるペン先の位置をより操作者に明確に提示することを可能にしている。
特開平9−305306公報
従来の方法では操作者が、仮想現実空間・複合現実空間の中で、操作者がカーソルを使い空間内の任意の場所を指し示す際、カーソルの指し示すポイントを視認出来ない場合があった。
そこで本発明は、仮想現実空間・複合現実空間において、カーソルの指し示すポイントを確実に視認できるようにする事を目的とする。
上記の課題を解決するために、本発明における情報処理装置は、操作者の視点の位置を計測する視点位置計測手段と、前記操作者が操作する操作部の位置を計測する操作位置計測手段と、前記視点位置計測手段で計測された視点の位置と前記操作位置計測手段で計測された操作部の位置とに基づいて、表示すべきカーソルの位置姿勢を決定する決定手段とを備える。
本発明によれば、仮想世界または複合現実感世界の中で、操作者がカーソルを使い空間内の任意の場所を指し示す際、カーソルの指し示すポイントを確実に視認できるようになり、操作者は容易に空間内の特定のポイントを指し示すことができるようになる。
第1の実施形態におけるシステム構成を示すブロック図である。 第1の実施形態における処理手順を示すフローチャートである。 第1の実施形態における実施形態を示す図である。 第1の実施形態におけるカーソルオブジェクトを示す図である。 第2の実施形態におけるシステム構成を示すブロック図である。 第2の実施形態における処理手順を示すフローチャートである。 第2の実施形態における実施形態を示す図である。 第3の実施形態における実施形態を示す図である。
以下、添付図面を参照しながら本発明の実施形態を詳細に説明する。
〔実施形態1〕
図1は、実施形態1に係るシステムの機能構成例を示すブロック図である。図1に示す如く、本実施形態に係るシステムは、情報処理装置1300と、頭部装着型装置の一例としてのHMD1100で構成されている。また、カーソルの位置を情報処理装置1300内で計算するために操作部1400に色マーカ1410を用いている。この時、色マーカを用いなくても操作部1400の位置が計測できる手法であれば、その手法は問わない。
情報処理装置1300は、画像取得部1310、データ管理部1320、視点位置姿勢計算部1330、カーソル位置計算部1350、カーソル姿勢計算部1360、画像生成部1340を有する。HMD1100は、表示部1110、撮像部1120、位置姿勢センサ1130を有する。ここで、情報処理装置1300とHMD1100とはデータ通信が可能なように接続されている。従って、情報処理装置1300とHMD1100との間の接続は、有線、無線の何れであっても構わない。
画像取得部1310は、撮像部1120において撮像された画像を画像データとしてデータ管理部1320に保存する。
データ管理部1320は、前記画像データ以外にも磁気トランスミッタ1200が発生させた磁場から位置姿勢センサ1130が計測した位置を保存する。また、データ管理部1320は、本装置を実現するための各種データの管理を行う。
カーソル位置計算部1350では、データ管理部1320に保存されている撮像画像からステレオマッチング法や視体積交差法などの手法を用いて操作部1400付属の色マーカ1410の位置を求める操作位置計測を行う。この時、求めた位置の補正を行ってもよい。
カーソル姿勢計算部1360では、図3(B)のようにカーソルオブジェクト3010が指し示す点を操作者が見えるよう計算を行う。詳細に関しては、図2のフローチャートにつき後述する。
また、本実施形態で使用するカーソルオブジェクト3010は、頂点と方向性を持つ円錐とする。このカーソルの形状を図4に示す。円錐の頂点4010をカーソル位置1410とする。また、円錐底面の中心4020と頂点4010を結ぶ線分のベクトル4030をカーソルオブジェクト3010の方向とする。
視点位置姿勢計算部1330では、磁気トランスミッタ1200が発生させた磁場から位置姿勢センサ1130の位置として視点位置計測を行いデータ管理部1320に保存されたデータから視点位置の計算を行う。
画像生成部1340では、仮想のカーソルオブジェクトを含む仮想現実空間の画像を生成する。この時、データ管理部1320に保存されている仮想物体の表示を行ってもよい。
画像表示部1110では、画像生成部1340で生成された画像の表示を行う。
図2が本実施形態の流れを説明するフローチャートである。
まずステップS2002でデータ管理部1320に保存されている位置姿勢センサ1130の位置姿勢情報から視点位置姿勢計算部1330で視点の位置姿勢を計算する。
ステップS2003では、撮像部1120で取得した撮像画像をデータ管理部1320に保存する。ステップS2004では、データ管理部1320に保存されている撮像画像からカーソル位置計算部1350にて色マーカ1410の位置を求め、これを操作部1400の位置とする。
ステップS2005では、カーソル姿勢計算部1360にてカーソルの位置姿勢の計算を行う。まず、図3(A)のように図4のカーソルオブジェクト3010の頂点4010を色マーカ1410の重心に移動する。次に頂点4010の位置を中心として視点位置3020と色マーカ1410の重心を通る直線上にカーソルオブジェクト3010の底面の中心4020通るようにカーソルオブジェクトの姿勢の計算を行う。その後、図3(B)からわかるように1410の重心を中心としてローカル座標系のZ軸を中心として所定の角度だけ回転する。すなわち、視点位置3020と色マーカ1410の重心を通る直線に対して、所定の角度をなすようにカーソルオブジェクトの向きを傾ける。この所定の角度は、カーソルオブジェクトが十分視認できるようなある閾値以上の予め決められた角度である。この時、カーソルが指し示す点が操作者から見えるような姿勢に変更する手法であればどのような手法を用いてもよい。
ステップS2006では、画像生成部1340でカーソルオブジェクト3010を含む仮想現実画像を生成する。この時、データ管理部1320に保存されている仮想物体を含む仮想現実画像を生成してもよい。
ステップS2007では、表示部1110にステップS2006で得られた仮想現実画像の表示を行う。
ステップS2008では、ユーザからの終了要求があれば処理を終了し、なければステップS2002に戻って処理を繰り返す。
〔実施形態2〕
上記実施形態1では、操作者は空間中の任意のポイントを指し示す実施形態であったが、本実施形態では操作者が空間中の仮想物体表面上にある任意のポイントを指し示す場合を示す。
図5と図6を用いて、本実施形態を説明する。図5は、実施形態2におけるブロック図を示す。図1と同じ部分については同じ番号をつけており、その説明を省略する。図6は、実施形態2の処理の流れを説明するフローチャートである。図2と同じ部分については同じ番号をつけており、その説明を省略する。
ステップS6005では、カーソル位置計測部7350で色マーカ1410の位置が仮想物体内にあるかの判定を行う。色マーカ1410の位置が仮想物体内にある場合はステップS6006に移行し、それ以外の場合はステップS6007へ移行する。
ステップS6006では、カーソル位置計算部7350がカーソル位置補正を行う。図7(B)のようにカーソル位置1410が仮想物体9001の内部にある場合は、カーソルが仮想物体内に埋もれることを避けるために、カーソル位置1410をカーソル補正位置9410へ補正する。このカーソル補正位置9410は、視点位置3020とカーソル位置1410とを結ぶ線分と仮想物体表面との交点となる。ここで補正された値は、データ管理部1320へ送られる。
ステップS6007では、カーソル姿勢計算部7360がカーソル姿勢の計算を行う。ステップS6006でカーソル位置補正を行っていない場合は、実施形態1におけるステップS2005と同じ計算を行う。ステップS6006でカーソル位置補正を行った場合は、以下のようにカーソル姿勢を計算する。
ステップS6006でカーソル位置補正を実施した場合におけるカーソル姿勢計算を、図7を用いて説明する。図7(A)のように、操作者の視点位置3020からカーソル補正位置9410が視認可能な場合、カーソル姿勢はカーソル補正位置9410が位置する仮想物体表面の法線9002と逆方向とすることができる。しかし、視点位置3020とカーソル補正位置9410との位置関係が図7(B)の場合、前記カーソル方向では、カーソルオブジェクト3010の底面に遮られ、カーソル補正位置9410が操作者から視認できない。そこで、視線ベクトルと前記法線ベクトルとの角度に閾値を設け、閾値未満の場合は、カーソルの姿勢を法線方向の逆方向とする。閾値以上の場合は、カーソル補正位置9410が操作者から視認できるように、法線方向の逆方向よりカーソルの姿勢を所定角度だけ傾ける。このとき更に、上記閾値にかからない範囲において、カーソル姿勢計算部7360は、視点位置3020とカーソル位置1401またはカーソル補正位置9410との時間的相対位置変化に応じて仮想カーソルの姿勢を変化させてもよい。
〔実施形態3〕
上記実施形態1および実施形態2では、操作者は一人であったが、本実施形態では操作者が複数人の時、カーソルが指し示す点が、全ての操作者から見える場合を示す。
本実施形態では操作者毎に実施形態1と同様に図1に示す如く、情報処理装置1300と、頭部装着型装置の一例としてのHMD1100と、操作部1400で構成されている。
図8を用いて本実施形態を説明する。操作者Aの視点位置8010から見えるカーソルオブジェクトを8030とする。また、操作者Aが色マーカ1410で指し示した点を点8050とする。この時、カーソルオブジェクトの位置姿勢は、実施形態2の手法を用いて決定する。
しかし、実施形態2の手法でカーソルオブジェクトの姿勢を計測したとき、図9(A)のように、操作者Aが指し示した点8050を操作者Bが視認できない状態が発生する。
そこで、本実施形態では、操作者毎に視点位置から色マーカ1410で指し示した点8050が視認できるようにカーソルの姿勢を傾ける。
〔他の実施形態〕
以上、実施形態を詳述したが、本発明は、例えば、システム、装置、方法、プログラムもしくはプログラムが格納された記憶媒体等としての実施態様をとることが可能である。具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
尚、本発明は、ソフトウェアのプログラムをシステム或いは装置に直接或いは遠隔から供給し、そのシステム或いは装置のコンピュータが該供給されたプログラムコードを読み出して実行することによって前述した実施形態の機能が達成される場合を含む。この場合、供給されるプログラムは実施形態で図に示したフローチャートに対応したコンピュータプログラムである。
また、コンピュータが、コンピュータ読み取り可能なプログラムを読み出して実行することによって、前述した実施形態の機能が実現される他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどとの協働で実施形態の機能が実現されてもよい。この場合、OSなどが、実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される。

Claims (11)

  1. 操作者の視点の位置を計測する視点位置計測手段と、
    前記操作者が操作する操作部の位置を計測する操作位置計測手段と、
    前記視点位置計測手段で計測された視点の位置と前記操作位置計測手段で計測された操作部の位置とに基づいて、表示すべきカーソルの位置姿勢を決定する決定手段とを備えていることを特徴とする情報処理装置。
  2. 前記決定手段は、前記視点の位置と前記操作部の位置とを結ぶ視線の方向に基づいて前記カーソルの姿勢を決定することを特徴とする請求項1に記載の情報処理装置。
  3. 前記決定手段は、前記視線の方向に対して予め定められた閾値以上の角度をなすように前記カーソルの姿勢を決定することを特徴とする請求項2に記載の情報処理装置。
  4. 前記決定手段は、前記操作部の位置を前記カーソルの位置として決定することを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。
  5. 前記カーソルが仮想物体を指し示す場合に、前記決定手段は、前記視点の位置と前記操作部の位置とを結ぶ視線と当該仮想物体の表面との交点を前記カーソルの位置に決定することを特徴とする請求項1に記載の情報処理装置。
  6. 前記決定手段は、前記交点における当該仮想物体の法線の方向と前記視線とを用いて前記カーソルの姿勢を決定することを特徴とする請求項5に記載の情報処理装置
  7. 前記決定手段は、前記法線の方向と前記視線とのなす角がある閾値未満の場合は、前記カーソルの姿勢を当該法線の方向の逆方向と決定し、前記法線の方向と前記視線とのなす角が前記閾値以上の場合は、前記カーソルの姿勢を前記法線の方向の逆方向から所定角度だけ傾けた方向に決定することを特徴とする請求項6に記載の情報処理装置
  8. 前記カーソルは、頂点と方向性とを持つ円錐であることを特徴とする請求項1乃至7のいずれか1項に記載の情報処理装置。
  9. 操作者の視点の位置を入力する視点位置計測工程と、
    前記操作者が操作する操作部の位置を計測する操作位置計測工程と、
    前記視点位置計測工程で計測された視点の位置と前記操作位置計測工程で計測された操作部の位置とに基づいて、表示すべきカーソルの位置姿勢を決定する決定工程とを備えることを特徴とする情報処理方法。
  10. コンピュータを、請求項1乃至8のいずれか1項に記載の情報処理装置の各手段として機能させることを特徴とするプログラム。
  11. 請求項10に記載のプログラムを格納するコンピュータ読み取り可能な記憶媒体。
JP2010191211A 2010-08-27 2010-08-27 情報処理装置及び方法 Active JP5656514B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010191211A JP5656514B2 (ja) 2010-08-27 2010-08-27 情報処理装置及び方法
US13/216,597 US9261953B2 (en) 2010-08-27 2011-08-24 Information processing apparatus for displaying virtual object and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010191211A JP5656514B2 (ja) 2010-08-27 2010-08-27 情報処理装置及び方法

Publications (2)

Publication Number Publication Date
JP2012048568A true JP2012048568A (ja) 2012-03-08
JP5656514B2 JP5656514B2 (ja) 2015-01-21

Family

ID=45696481

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010191211A Active JP5656514B2 (ja) 2010-08-27 2010-08-27 情報処理装置及び方法

Country Status (2)

Country Link
US (1) US9261953B2 (ja)
JP (1) JP5656514B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015104884A1 (ja) * 2014-01-08 2015-07-16 ソニー株式会社 情報処理システム、情報処理方法およびプログラム
JP2015531526A (ja) * 2012-10-12 2015-11-02 マイクロソフト テクノロジー ライセンシング,エルエルシー タッチレス入力
JP2015231445A (ja) * 2014-06-09 2015-12-24 株式会社バンダイナムコエンターテインメント プログラムおよび画像生成装置
JP2019101945A (ja) * 2017-12-06 2019-06-24 国立大学法人秋田大学 入力システム

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140285520A1 (en) * 2013-03-22 2014-09-25 Industry-University Cooperation Foundation Hanyang University Wearable display device using augmented reality
JP5845211B2 (ja) * 2013-06-24 2016-01-20 キヤノン株式会社 画像処理装置、画像処理方法
JP2017182532A (ja) * 2016-03-31 2017-10-05 ソニー株式会社 情報処理装置、表示制御方法及びプログラム
CN106095246A (zh) * 2016-06-21 2016-11-09 广东小天才科技有限公司 光标颜色的调节方法及装置
CN108268126B (zh) * 2016-12-30 2021-05-04 成都理想智美科技有限公司 基于头戴式显示设备的交互方法及装置
CN107291237B (zh) * 2017-06-23 2020-10-27 联想(北京)有限公司 信息处理方法及头戴式电子设备
US10872474B2 (en) * 2018-06-29 2020-12-22 Dentsply Sirona Inc. Method and system for dynamic adjustment of a model
JP7213396B1 (ja) * 2021-08-30 2023-01-26 ソフトバンク株式会社 電子機器及びプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0683935A (ja) * 1992-09-04 1994-03-25 Toshiba Corp 三次元ポインティング支援システム
JPH06337756A (ja) * 1993-05-28 1994-12-06 Daikin Ind Ltd 3次元位置指定方法および仮想空間立体視装置
JPH09305306A (ja) * 1996-03-12 1997-11-28 Toho Business Kanri Center:Kk 位置入力装置、位置入力処理装置およびその方法
JPH11232010A (ja) * 1998-02-18 1999-08-27 Dainippon Screen Mfg Co Ltd 3次元指示方法及びその装置
JP2008040832A (ja) * 2006-08-07 2008-02-21 Canon Inc 複合現実感提示システム及びその制御方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9800397D0 (en) * 1998-01-09 1998-03-04 Philips Electronics Nv Virtual environment viewpoint control
JP2000350865A (ja) * 1999-06-11 2000-12-19 Mr System Kenkyusho:Kk 複合現実空間のゲーム装置、その画像処理方法およびプログラム記憶媒体
JP4566596B2 (ja) * 2004-03-29 2010-10-20 アルパイン株式会社 操作指示装置
US20060026533A1 (en) * 2004-08-02 2006-02-02 Joshua Napoli Method for pointing and selection of regions in 3-D image displays
US7843470B2 (en) * 2005-01-31 2010-11-30 Canon Kabushiki Kaisha System, image processing apparatus, and information processing method
JP4757115B2 (ja) * 2006-06-28 2011-08-24 キヤノン株式会社 画像処理装置、画像処理方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0683935A (ja) * 1992-09-04 1994-03-25 Toshiba Corp 三次元ポインティング支援システム
JPH06337756A (ja) * 1993-05-28 1994-12-06 Daikin Ind Ltd 3次元位置指定方法および仮想空間立体視装置
JPH09305306A (ja) * 1996-03-12 1997-11-28 Toho Business Kanri Center:Kk 位置入力装置、位置入力処理装置およびその方法
JPH11232010A (ja) * 1998-02-18 1999-08-27 Dainippon Screen Mfg Co Ltd 3次元指示方法及びその装置
JP2008040832A (ja) * 2006-08-07 2008-02-21 Canon Inc 複合現実感提示システム及びその制御方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015531526A (ja) * 2012-10-12 2015-11-02 マイクロソフト テクノロジー ライセンシング,エルエルシー タッチレス入力
US10019074B2 (en) 2012-10-12 2018-07-10 Microsoft Technology Licensing, Llc Touchless input
WO2015104884A1 (ja) * 2014-01-08 2015-07-16 ソニー株式会社 情報処理システム、情報処理方法およびプログラム
JPWO2015104884A1 (ja) * 2014-01-08 2017-03-23 ソニー株式会社 情報処理システム、情報処理方法およびプログラム
JP2015231445A (ja) * 2014-06-09 2015-12-24 株式会社バンダイナムコエンターテインメント プログラムおよび画像生成装置
JP2019101945A (ja) * 2017-12-06 2019-06-24 国立大学法人秋田大学 入力システム

Also Published As

Publication number Publication date
US20120050162A1 (en) 2012-03-01
US9261953B2 (en) 2016-02-16
JP5656514B2 (ja) 2015-01-21

Similar Documents

Publication Publication Date Title
JP5656514B2 (ja) 情報処理装置及び方法
US20220092830A1 (en) Image processing apparatus, image processing method, and program
CN105659295B (zh) 用于在移动设备上的真实环境的视图中表示兴趣点的方法以及用于此方法的移动设备
CN105793764B (zh) 用于为头戴式显示设备提供扩展显示设备的设备、方法和系统
JP6611501B2 (ja) 情報処理装置、仮想オブジェクトの操作方法、コンピュータプログラム、及び記憶媒体
US8466894B2 (en) Apparatus and method for displaying information
CN105339865B (zh) 显示控制装置、显示控制方法以及计算机可读介质
JP2011128220A (ja) 情報提示装置、情報提示方法及びプログラム
KR20110097639A (ko) 화상 처리 장치, 화상 처리 방법, 프로그램 및 화상 처리 시스템
KR101533320B1 (ko) 포인터가 불필요한 3차원 객체 정보 획득 장치
CN103733229A (zh) 信息处理设备、信息处理方法及程序
CN105593787A (zh) 用于与数字设备交互的直接指向检测的系统和方法
CN105074617A (zh) 三维用户界面装置和三维操作处理方法
CN102884492A (zh) 增强现实的指向装置
KR102147430B1 (ko) 가상 공간 멀티 터치 인터랙션 장치 및 방법
CN109952552A (zh) 视觉提示系统
KR20130119094A (ko) 포인터를 표시하지 않는 투명 디스플레이 가상 터치 장치
JP2004265222A (ja) インタフェース方法、装置、およびプログラム
US20150381970A1 (en) Input/output device, input/output program, and input/output method
CN104285243A (zh) 三维图像显示设备及其光标显示方法和计算机程序
JP2006252468A (ja) 画像処理方法、画像処理装置
JP2009258884A (ja) ユーザインタフェイス
US10296098B2 (en) Input/output device, input/output program, and input/output method
WO2022176450A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP7287172B2 (ja) 表示制御装置、表示制御方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130826

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140513

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140805

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141006

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141028

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141125

R151 Written notification of patent or utility model registration

Ref document number: 5656514

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151