JP5597064B2 - 情報処理装置およびその方法 - Google Patents

情報処理装置およびその方法 Download PDF

Info

Publication number
JP5597064B2
JP5597064B2 JP2010189514A JP2010189514A JP5597064B2 JP 5597064 B2 JP5597064 B2 JP 5597064B2 JP 2010189514 A JP2010189514 A JP 2010189514A JP 2010189514 A JP2010189514 A JP 2010189514A JP 5597064 B2 JP5597064 B2 JP 5597064B2
Authority
JP
Japan
Prior art keywords
trajectory
image
information processing
imaging
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010189514A
Other languages
English (en)
Other versions
JP2012048463A (ja
Inventor
靖己 田中
隆 麻生
弘幸 角田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010189514A priority Critical patent/JP5597064B2/ja
Publication of JP2012048463A publication Critical patent/JP2012048463A/ja
Application granted granted Critical
Publication of JP5597064B2 publication Critical patent/JP5597064B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Description

本発明は、仮想現実空間及び複合現実空間において計測範囲外で描かれた図形等の輪郭線の軌跡を補完する情報処理装置および方法に関する。
近年、現実空間と仮想空間との繋ぎ目のない結合を目的とした、複合現実感(MR:Mixed Reality)に関する研究が盛んに行われている。即ち、ビデオカメラ等の撮像装置が撮像した現実空間の画像上に、撮像装置の位置及び姿勢に応じて生成した仮想現実空間の画像を重畳描画した画像を表示する。例えば、HMD(ヘッドマウントディスプレイ)を用いて、コンピュータグラフィックスにより描画された仮想物体や文字情報等を重畳描画する。HMDの画像表示は、操作者の頭部に装着された光学シースルー型ディスプレイに、操作者の視点の位置及び姿勢に応じて生成した仮想現実空間の画像を表示する光学シースルー方式によっても実現される。
一方、パーソナルコンピューター上で図形等の輪郭線を描く場合、マウスやペンタブレット等の指定された領域の内に輪郭線を描き、ディスプレイ等で確認することが一般的に行われている。
さらに、特許文献1では、動的物体の軌跡を補完する方法として移動する対象物の重心の時系列情報を補完して軌跡を得る手法も開示されている。また、非特許文献1では、仮想現実空間で手描きの動作認識に基づいた立体図形を作成する手法も開示されている。これらの技術を応用すると、仮想現実空間又は複合現実空間で操作者がもつ操作部の軌跡を描く動作を行い、操作部を撮像して、操作部が描く図形の輪郭線を得ることができる。
特開平5−159058号公報
井上智之、西住直樹、鈴木伸明、安福尚文、佐賀聡人、電子情報通信学会論文誌(D−II,J87−D−II,6,(2004−06),PP.1309−1318.
従来、仮想現実空間又は複合現実空間で操作者がもつ操作部の軌跡を描く動作を行い、操作部を撮像して、操作部が描く図形の輪郭線を得ていた。しかし、操作者が描く軌跡は、撮像範囲が分からないことや、大きく図形を描くことがあり、操作部が撮影範囲外に出てしまう場合があった。撮像範囲外に出た操作部の軌跡は認識できないため、図形の輪郭線が撮影範囲の境界部分で途切れてしまうという問題があった。すなわち、操作部が撮像範囲外にあって、撮像範囲外の領域での操作部の軌跡を得ることができないという課題があった。
上記課題に鑑み、本発明は、仮想現実空間又は複合現実空間で軌跡を描く操作部が撮像範囲外にあっても、操作者の意図に近い輪郭線の生成する事を目的とする。
上記目的は、以下の装置のよって達成できる。
現実空間における操作手段の軌跡の線を含む画像を出力する情報処理装置であって、
撮像手段が現実空間を撮像した撮像画像を入力する画像入力手段と、
前記入力された撮像画像に基づいて、前記撮像手段の撮像範囲で撮像された操作手段の軌跡を算出する軌跡算出手段と、
前記算出された撮像範囲の操作手段の軌跡に基づいて、当該軌跡の線に前記撮像手段の撮像範囲外の該操作手段の軌跡の線を補完する補完手段と、
前記補完された軌跡の線を含む画像を生成する画像生成手段と、
前記生成された画像を出力する画像出力手段とを有することを特徴とする情報処理装置。
本発明の構成によれば、仮想現実空間又は複合現実空間で軌跡を描く操作部が撮像範囲外にあっても、操作者の意図に近い輪郭線の生成することができる。
第1の実施形態の構成例のブロック図である。 第1の実施形態の構成にカメラとディスプレイを用いた例の模式図である。 第1の実施形態の構成にHMDを用いた例の模式図である。 第1の実施形態の処理手順のフローチャートである。 第1の実施形態における複数の時刻毎の操作部の位置を示す図である。 第1の実施形態における撮像範囲外の操作部の軌跡の補完を示す図である。 第2の実施形態の構成例のブロック図である。 第2の実施形態の処理手順のフローチャートである。 第3の実施形態における手のジェスチャーの具体例を示す図である。 コンピュータの構成例を示す図である。
以下、図を参照し、本発明を適用した好適な実施形態を説明する。
〔第1の実施形態〕
<構成>
図1は、本実施形態の構成例のブロック図である。 図2は、本実施形態の構成にカメラとディスプレイを用いた例の模式図である。図3は、本実施形態の構成にHMDを用いた例の模式図である。
操作部111は、色マーカ112やイベント入力部113が備えられ、操作者によって操作されるデバイスである。
イベント入力部113は、操作者が操作部111に対して行う操作をイベントとして入力する。例えば、ボタンである。
撮像部101は、現実空間を撮像する。例えば、カメラであり、単眼のカメラでもHMD301に搭載された単眼もしくは複眼のカメラでもよい。現実空間の操作部111の色マーカ112の認識が可能である。
画像入力部102は、撮像部101において撮像された撮像画像を画像データとして入力する。入力された画像データは、記憶部104に記憶される。計測された撮像部101の位置姿勢を記憶部104に記憶しておく。
撮像部101が固定されている場合は、撮像部101の位置姿勢を記憶部104に予め記憶しておく。また、HMD301に代表されるように、撮像部101が動的に移動しうる場合は、撮像位置姿勢計測部1020により、撮像部の位置姿勢を計測する。例えば、画像入力部102から入力された撮像画像の画像認識、慣性・磁気・光学センサなどにより計測する。ここでの画像認識は、例えば、撮像画像から検出される特徴量に対応する予め保持された現実空間の位置関係との一致を確認する。
記憶部104は、イベント入力部113から入力されるイベントに応じて、操作部111の軌跡を記憶する。例えば、イベント入力部113がボタンである場合、ボタンが押されている間の操作部111の軌跡を記憶する。なお、この軌跡は、操作部111の位置が時系列で記憶される。
軌跡算出部105は、記憶部104に保存されている画像データから操作部111の時系列における位置である軌跡を算出する。例えば、色マーカ112の二次元の重心位置の算出を行う。なお、二次元の位置だけではなく、三次元空間の位置が既知である特徴点を用いて三次元の位置を算出してもよい。例えば、撮像部101が、HMD301のように、複眼で構成されるカメラである場合、ステレオ撮像による視差から、現実空間の三次元の位置を算出することができる。
また、軌跡算出部105は、操作部111の位置が計測できない場合、操作部111が計測できていたときに時系列で記録された操作部111の位置から推定される操作部111の軌跡を算出する。算出の詳細については後述する。算出した位置は、記憶部104に記憶される。
画像生成部106は、記憶部104に記憶されている撮像部101の位置姿勢と、同じく記憶されている操作部111の時系列の位置から、仮想画像を生成する。具体的には、時系列の位置の各々を結んだ線を、操作部111の軌跡200を描く輪郭線とし、その輪郭線が含まれた仮想画像を生成する。
画像出力部107は、画像生成部106で生成された画像を表示部108に出力する。
表示部108は、表示部108には操作者が操作した操作部111の軌跡200に対応した輪郭線を含む画像を表示する。例えば、CRT、液晶ディスプレイやHMD301に備わる表示装置などがある。操作者は表示された画像を見ることで操作部の軌跡が反映された輪郭線を見ることができる。
本実施形態の構成によれば、カメラとディスプレイの組み合わせにも、HMDにも適用可能である。なお、本実施形態においては、画像入力部102、記憶部104、画像生成部106、画像出力部107をワークステーション201内に格納する。ワークステーション201は、基本構成の機器の他に、撮像部の画像をキヤプチャする為の映像出力装置と操作部のイベントを受け取るための装置を備える。本発明においては、このようなワークステーションに限られるものではなく、同等の機能を持つ計算機であればよい。
HMD301には、撮像部101、表示部108が取り付けられ互いに固定されている。HMD301には、撮像部101と表示部108をHMD301内にそれぞれ2基搭載しており、ステレオ撮像によって、現実空間の撮像に加え、三次元情報の認識が可能である。操作者はこのHMD301を頭部に装着することで、表示部108に映るステレオの仮想現実空間画像を見ることができる。なお、ステレオの撮像と表示を行うことに限定するものではなく、少なくとも1つ以上の表示部があればよい。
<処理の手順>
図4は、本実施形態の処理手順のフローチャートである。
ステップS401では、画像入力部102が、撮像部101において撮像された撮像画像を画像データとして入力する。入力された画像データは、記憶部104に記憶される。
ステップS402では、軌跡算出部105が、記憶部104に保存されている画像データから操作部111の軌跡を算出する。
ステップS403では、描かれた軌跡の輪郭線を含む画像を生成するか否かを判定する。具体的には、イベント入力部113からイベントが入力されているかを判定する。画像を生成すると判定した場合、ステップS404へ進む。生成しないと判定した場合、軌跡の生成を行うための指示の入力や条件が満たされている時は、ステップS404に進む。一方、軌跡の生成を行わない指示の入力や条件が満たされていない場合には、ステップS408に進む。
ステップS404では、描かれた軌跡の補完を行うか否かを判定する。具体的には、軌跡を描いているときに、操作部111が撮像画像の範囲外に出たか否かを判定する。
図5は、本実施形態における複数の時刻毎の操作部の位置を示す図である。
領域500は、撮像部101による撮像領域である。操作部111の位置は、時系列に時刻sからt,u,v,wへの間に変化し、軌跡を描く。なお、時刻s,t,u,v,wの隣り合う時刻の時間差は一定でもよい。
まず、時刻sから時刻tへの間に、操作部111の位置は、撮像画像内の位置501から撮像画像端の位置502へと移動する。この間、操作部111の軌跡511は撮像画像に撮像されている。
次に、時刻tから時刻u,vへの間に、操作部111の位置は、撮像画像端の位置502から、撮像画像外の位置503、再び撮像画像端の位置504へと移動する。しかし、この間、操作部111の軌跡512は、撮像画像の範囲外で描かれており、撮像画像から認識することができない。
そして、時刻vから時刻wの間に、操作部111の位置は、撮像画像端の位置504から、撮像画像内の位置505へと移動する。この間、操作部111の軌跡513は撮像画像に撮像される。
このように、軌跡を描く間、時刻毎に操作部111の位置が撮像画像に存在するか否かに基づいて、操作部111の軌跡が、撮像画像の範囲外に出たか否かを判定する。操作部111が、撮像画像の範囲外に出た場合、補完を行うものとして、ステップS405へ進む。操作部111が、撮像画像の範囲外に出ていない場合、補完を行わないものとして、ステップS408へ進む。
ステップS405では、撮像範囲外にあって撮像画像から認識できなかった軌跡512を、認識できた軌跡511、513を用いて、補完を行う。
図5は、本実施形態における撮像範囲外の操作部の軌跡の補完を示す図である。
まず、撮像画像内の位置の点501から撮像画像端の位置の点502までの第1の軌跡を算出する。撮像画像内の位置の点501と撮像画像端の位置の点502とを結ぶベクトルの方向および距離を算出し、制御点601を算出する。この制御点601は、撮像画像内の位置の点501と撮像画像端の位置の点502とを結ぶ直線の延長線上にある。また、撮像画像端の位置の点502と制御点601との距離は、撮像画像内の位置501の点と撮像画像端の位置の点502との距離に比例し、時刻sと時刻tとの時間差に反比例する。すなわち、制御点601は、撮像画像から認識できなくなる前に認識できたときの撮像画像での操作部111の動く方向と速度に基づいて、算出される。
次に、撮像画像内の位置の点505と撮像画像端の位置の点504までの第2の軌跡を算出する。撮像画像内の位置の点505と撮像画像端の位置の点504とを結ぶベクトルの方向および距離を算出し、制御点602を算出する。この制御点602は、制御点601と同様に、撮像画像内の位置の点505と撮像画像端の位置の点504とを結ぶ直線の延長線上にある。また、撮像画像端の位置の点504と制御点602との距離は、撮像画像端の位置の点502と制御点601との距離と同様に、撮像画像内の位置の点505と撮像画像端の位置の点504との距離に比例する。また、撮像画像端の位置の点504と制御点602との距離は、撮像画像端の位置の点502と制御点601との距離と同様に、時刻vと時刻wとの時間差に反比例する。すなわち、撮像画像から認識できなくなった後に認識できたときの撮像画像での操作部111の動く方向と速度に基づいて、算出される。
続いて、撮像画像端の位置の点502から撮像画像端の位置504までの第3の軌跡を算出する。具体的には、撮像画像端の位置の点502と制御点601、及び、撮像画像端の位置504と制御点602を曲率に反映させた、ベジエ曲線を算出する。算出した曲線を、撮像画像から認識できなかった軌跡512の輪郭線として、補完する。なお、算出する曲線は、ベジエ曲線に限るものではなく、認識できた軌跡511、513を用いて得られる曲線であればよい。
ステップS406では、補完された第4の軌跡を算出し、操作部111の軌跡200の輪郭線の生成を行う。撮像画像から軌跡がすべて認識できた場合、その軌跡を輪郭線とする。また、撮像画像から認識できなかった軌跡があった場合は、撮像画像から認識できた軌跡に、ステップS407で補完された軌跡をつなぎ合わせ、その軌跡を輪郭線とする。
ステップS407では、生成された輪郭線を描画した仮想画像を生成する。
ステップS408では、画像出力部107が、生成した仮想画像を表示部108に出力する。
ステップS409では、画像出力部107から出力された画像を表示部108に表示する。
ステップS410では、処理を終了するかを判定する。終了しない場合、ステップS401へと進む。すなわち、終了するまで入力される撮像画像ごとに繰り返し行う。
以上により、輪郭線を描く操作部が撮像範囲外にあっても、操作者が意図に近い輪郭線の生成することができる。そして、軌跡を描いた後に、操作者の視点が撮像画像から認識できなかった軌跡の方向を向いた場合でも、輪郭線を途切れることなく表示させることができる。
〔第2の実施形態〕
第1の実施形態によれば、生成した仮想画像に含まれる輪郭線をそのまま表示した。第2の実施形態では、現実空間を撮像した撮像画像に輪郭線を重畳した合成画像を表示する。この場合、撮像部と表示部がHMD301に備わるものであれば、なお好適である。第1の実施形態と同じ部分については、その説明を省略する。
図7は、本実施形態の構成例のブロック図である。図1と同じ部分については、同じ符号を付け、その説明を省略する。
画像合成部706は、記憶部104に記憶されている撮像部101の位置姿勢と、同じく記憶されている操作部111の時系列の位置と、画像入力部102で入力された撮像画像から、合成画像を生成する。具体的には、時系列の位置の各々を結んだ線を、操作部111の軌跡200を描く輪郭線とし、その輪郭線を画像入力部102で入力された撮像画像に重畳描画する。なお、仮想画像では、操作部の位置に、例えばカーソルなどの予め記憶された仮想物体を重畳させても良い。
画像出力部107は、画像合成部706で生成された合成画像を表示部108に出力する。
図8は、本実施形態の処理手順のフローチャートである。図4と同じ部分については、同じ符号を付け、その説明を省略する。
ステップ807では、生成された輪郭線を、現実空間を撮像した撮像画像に重畳描画し、合成画像として生成する。
ステップ408では、画像出力部107が、生成した合成画像を表示部108に出力する。そして、出力された合成画像は、表示部108に表示される。
以上により、第1の実施形態と同様に、輪郭線を描く操作部が撮像範囲外にあっても、操作者の意図に近い輪郭線の生成することができる。そして、軌跡を描いた後に、操作者の視点が撮像画像から認識できなかった軌跡の方向を向いた場合でも、輪郭線を途切れることなく表示させることができる。
〔第3の実施形態〕
上記実施形態では、操作部は、ペン状の物体であったが、本発明における操作部は、操作者の所定部位、手、指先、腕、肘、足、腿、膝、すね等の体の部位であっても良い。このとき、イベント入力部113を実施形態から外し、常に軌跡を描いている状態としてもよい。イベント入力部113を操作部と切り離し、手などの特徴量を求め、ジェスチャーを検出し、予め定められたジェスチャーであるときに、イベントを入力してもよい。
図9は、手のジェスチャーの具体例を示す図である。
ジェスチャーを用いたイベント入力の具体例として、図9(a)のように、手に力をいれずにいる状態であれば、イベントを入力しない。一方、図9(b)のように、指を立てたときに、第1・第2の実施形態で言う、ボタン113を押している状態とし、マーカ112の代わりに、人さし指の先端の位置を検出して、操作部の位置としてもよい。
〔その他の実施形態〕
図10は、コンピュータの構成例を示す図である。
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク1004、各種記憶媒体1002、1003を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ1001(CPUやMPU等)がプログラムを読み出して実行する処理である。また、そのプログラムをコンピュータ読み取り可能な記憶媒体に記憶して提供してもよい。

Claims (13)

  1. 現実空間における操作手段の軌跡の線を含む画像を出力する情報処理装置であって、
    撮像手段が現実空間を撮像した撮像画像を入力する画像入力手段と、
    前記入力された撮像画像に基づいて、前記撮像手段の撮像範囲で撮像された操作手段の軌跡を算出する軌跡算出手段と、
    前記算出された撮像範囲の操作手段の軌跡に基づいて、当該軌跡の線に前記撮像手段の撮像範囲外の該操作手段の軌跡の線を補完する補完手段と、
    前記補完された軌跡の線を含む画像を生成する画像生成手段と、
    前記生成された画像を出力する画像出力手段と
    を有することを特徴とする情報処理装置。
  2. 前記現実空間を撮像する撮像手段
    を更に有することを特徴とする請求項1に記載の情報処理装置。
  3. 前記現実空間における前記撮像手段の位置姿勢を計測する位置姿勢計測手段
    を更に有し、
    前記軌跡算出手段が、前記入力された撮像画像と前記計測された撮像手段の位置姿勢に基づいて、前記撮像手段の撮像範囲で撮像された操作手段の前記現実空間における三次元の軌跡を算出することを特徴とする請求項1又は2の何れか1項に記載の情報処理装置。
  4. 前記位置姿勢計測手段が、前記撮像画像から検出される特徴量に基づいて、前記撮像手段の位置姿勢を計測することを特徴とする請求項3に記載の情報処理装置。
  5. 前記画像生成手段が、前記入力された撮像画像に前記補完された軌跡の線を重畳描画した合成画像を生成することを特徴とする請求項1乃至4の何れか1項に記載の情報処理装置。
  6. 前記撮像手段は、複数のカメラを有し、
    前記軌跡算出手段では、前記複数のカメラの互いの視差に基づいて、前記操作手段の現実空間における三次元の軌跡を算出することを特徴とする請求項1乃至5の何れか1項に記載の情報処理装置。
  7. 前記補完手段は、
    前記操作手段が、前記撮像範囲外で動く前に、前記撮像範囲で動いた第1の軌跡を算出する第1の軌跡算出手段と、
    前記操作手段が、前記撮像範囲外で動いた後に、前記撮像範囲で動いた第2の軌跡を算出する第2の軌跡算出手段と、
    前記第1の軌跡と前記第2の軌跡に基づいて、前記操作手段が、前記撮像範囲外で動いた第3の軌跡を算出する第3の軌跡算出手段と、
    前記第1の軌跡の線と前記第2の軌跡の線と前記第3の軌跡の線とをつなぎ合わせ第4の軌跡の線を、前記補完された軌跡の線として算出する第4の軌跡算出手段と、
    を有することを特徴とする請求項1乃至6の何れか1項に記載の情報処理装置。
  8. 前記第3の軌跡算出手段が、前記第1の軌跡で動いた前記操作手段の方向と速度および前記第2の軌跡で動いた該操作手段の方向と速度に基づいて、前記第3の軌跡を算出することを特徴とする請求項7に記載の情報処理装置。
  9. 前記第3の軌跡を描く線は、前記第1の軌跡および前記第2の軌跡に基づくベジエ曲線であることを特徴とする請求項7又は8に記載の情報処理装置。
  10. 前記軌跡算出手段が、前記操作手段を体の部位として、当該操作手段の軌跡を算出することを特徴とする請求項1乃至9の何れか1項に記載の情報処理装置。
  11. 前記軌跡算出手段が、前記体の部位を用いたジェスチャーを検出している間の、前記操作手段の軌跡を算出することを特徴とする請求項10に記載の情報処理装置。
  12. 現実空間における操作手段の軌跡の線を含む画像を出力する情報処理装置が行う情報処理方法であって、
    前記情報処理装置の画像入力手段が、撮像手段が現実空間を撮像した撮像画像を入力する画像入力工程と、
    前記情報処理装置の軌跡算出手段が、前記入力された撮像画像に基づいて、前記撮像手段の撮像範囲で撮像された操作手段の軌跡を算出する軌跡算出工程と、
    前記情報処理装置の補完手段が、前記算出された撮像範囲の操作手段の軌跡に基づいて、当該軌跡の線に前記撮像手段の撮像範囲外の該操作手段の軌跡の線を補完する補完工程と、
    前記情報処理装置の画像生成手段が、前記補完された軌跡の線を含む画像を生成する画像生成工程と、
    前記情報処理装置の画像出力手段が、前記生成された画像を出力する画像出力工程とを有することを特徴とする情報処理方法。
  13. 請求項12に記載の情報処理方法の各工程をコンピュータに実行させるためのプログラム。
JP2010189514A 2010-08-26 2010-08-26 情報処理装置およびその方法 Active JP5597064B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010189514A JP5597064B2 (ja) 2010-08-26 2010-08-26 情報処理装置およびその方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010189514A JP5597064B2 (ja) 2010-08-26 2010-08-26 情報処理装置およびその方法

Publications (2)

Publication Number Publication Date
JP2012048463A JP2012048463A (ja) 2012-03-08
JP5597064B2 true JP5597064B2 (ja) 2014-10-01

Family

ID=45903262

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010189514A Active JP5597064B2 (ja) 2010-08-26 2010-08-26 情報処理装置およびその方法

Country Status (1)

Country Link
JP (1) JP5597064B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9361730B2 (en) * 2012-07-26 2016-06-07 Qualcomm Incorporated Interactions of tangible and augmented reality objects
WO2014049941A1 (ja) * 2012-09-28 2014-04-03 パナソニック株式会社 固体撮像装置及び撮像装置
JP6103875B2 (ja) * 2012-10-16 2017-03-29 キヤノン株式会社 ハンドジェスチャ認識装置及びその制御方法
JP5907136B2 (ja) * 2013-09-30 2016-04-20 ブラザー工業株式会社 ヘッドマウントディスプレイ、及び、制御プログラム
JP6514889B2 (ja) * 2014-12-19 2019-05-15 任天堂株式会社 情報処理装置、情報処理プログラム、情報処理システム、および情報処理方法
JP6559017B2 (ja) * 2015-08-25 2019-08-14 キヤノン株式会社 制御装置及び制御方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6992702B1 (en) * 1999-09-07 2006-01-31 Fuji Xerox Co., Ltd System for controlling video and motion picture cameras
JP4220531B2 (ja) * 2006-04-27 2009-02-04 任天堂株式会社 重力方向算出装置および重力方向算出プログラム
JP4959481B2 (ja) * 2007-09-07 2012-06-20 株式会社カプコン プログラムおよびコンピュータ
JP5197338B2 (ja) * 2008-12-08 2013-05-15 キヤノン株式会社 情報処理装置及び情報処理方法

Also Published As

Publication number Publication date
JP2012048463A (ja) 2012-03-08

Similar Documents

Publication Publication Date Title
JP5871345B2 (ja) 3次元ユーザインタフェース装置及び3次元操作方法
JP5936155B2 (ja) 3次元ユーザインタフェース装置及び3次元操作方法
JP5818857B2 (ja) 情報処理装置およびその制御方法
JP5709440B2 (ja) 情報処理装置、情報処理方法
US8055061B2 (en) Method and apparatus for generating three-dimensional model information
JP4533087B2 (ja) 画像処理方法、画像処理装置
JP5845211B2 (ja) 画像処理装置、画像処理方法
JP5597064B2 (ja) 情報処理装置およびその方法
CN110913751B (zh) 具有滑动检测和校正功能的可穿戴眼睛跟踪系统
JP6723061B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
US20150199850A1 (en) Information processing apparatus and information processing method
JP2011028309A5 (ja)
JPWO2014141504A1 (ja) 3次元ユーザインタフェース装置及び3次元操作処理方法
CN102884492A (zh) 增强现实的指向装置
JP6344530B2 (ja) 入力装置、入力方法、及びプログラム
JP7406875B2 (ja) 情報処理装置およびプログラム
JP6775957B2 (ja) 情報処理装置、情報処理方法、プログラム
KR20150040580A (ko) 가상 공간 멀티 터치 인터랙션 장치 및 방법
JP2009169622A (ja) 画像処理装置、画像処理方法
JP2009087161A (ja) 画像処理装置、画像処理方法
JP5518677B2 (ja) 仮想情報付与装置及び仮想情報付与プログラム
JP5863984B2 (ja) ユーザインタフェース装置及びユーザインタフェース方法
US11275434B2 (en) Information processing apparatus, information processing method, and storage medium
JP7209495B2 (ja) 画像処理装置、画像処理方法
JP2018063567A (ja) 画像処理装置、画像処理方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130826

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140407

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140422

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140623

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140715

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140808

R151 Written notification of patent or utility model registration

Ref document number: 5597064

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151