JP2012048656A - 画像処理装置、画像処理方法 - Google Patents

画像処理装置、画像処理方法 Download PDF

Info

Publication number
JP2012048656A
JP2012048656A JP2010192703A JP2010192703A JP2012048656A JP 2012048656 A JP2012048656 A JP 2012048656A JP 2010192703 A JP2010192703 A JP 2010192703A JP 2010192703 A JP2010192703 A JP 2010192703A JP 2012048656 A JP2012048656 A JP 2012048656A
Authority
JP
Japan
Prior art keywords
image
user interface
virtual space
image processing
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010192703A
Other languages
English (en)
Other versions
JP2012048656A5 (ja
Inventor
Taichi Matsui
太一 松井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010192703A priority Critical patent/JP2012048656A/ja
Publication of JP2012048656A publication Critical patent/JP2012048656A/ja
Publication of JP2012048656A5 publication Critical patent/JP2012048656A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】仮想空間、若しくは現実空間と仮想空間との複合空間である複合現実空間の中で複数のアクセス先の中から1つをユーザが簡単に指示することを可能とする為の技術を提供する。
【解決手段】計算部1008は、操作部1003が撮像部1010の視野内にあり、且つ操作部1003とユーザインターフェース部1004との位置関係が規定の位置関係にある場合には、ユーザインターフェース部1004に対する操作があったと判断する。仮想世界生成部1009は、仮想空間に対してこの操作に対応する更新を行い、視点から見た更新後の仮想空間の画像を生成する。
【選択図】図1

Description

本発明は、複合現実感提示技術に関するものである。
IT技術の発達により、従来は紙媒体だった本が電子化され、電子書籍として販売されるようになった。またネットワークを通して本を読むことができるようにもなってきている。
一方、現実空間と仮想空間との繋ぎ目のない結合を目的とした、複合現実感(MR:Mixed Reality)に関する研究が、近年、盛んに行われている。複合現実感の提示を行う画像表示装置は、例えば次のような構成を有する装置である。即ち、ビデオカメラ等の撮像装置が撮像した現実空間の画像上に、撮像装置の位置及び姿勢に応じて生成した仮想空間の画像(例えばコンピュータグラフィックスにより描画された仮想物体や文字情報等)を重畳描画した画像を表示する装置である。このような装置には、例えば、HMD(ヘッドマウントディスプレイ、頭部装着型ディスプレイ)を用いることができる。
また、係る画像表示装置は、観察者の頭部に装着された光学シースルー型ディスプレイに、観察者の視点の位置及び姿勢に応じて生成した仮想空間の画像を表示する光学シースルー方式によっても実現されている。
そのような現実空間と仮想空間が融合された複合現実感空間においてユーザが仮想物体を操作する方法はいくつか存在している。例えば特許文献1のようにハンドラを表示して仮想物体の選択を容易にしているものがある。
特開2008−40832号公報
現実物体の操作のしやすさと仮想物体の操作のしやすさはそれぞれに違うポイントがある。例えば実物の本は人間の手で直接触れることが出来、簡単にページをめくることが出来るが、複合現実感空間に存在する仮想の電子書籍には直接触れることが出来ない。そのためユーザが所望のページを開くためにはシステム的な工夫が必要となる。
しかしながら仮想世界や複合現実感世界の中で、複数のページを持つ電子書籍等のように複数のアクセス先を持つものを対象にして、1クリック等で所望のアクセス先に簡単にたどり着けるユーザインターフェイスはなかった。複合現実感世界が世の中に広まっている現在、上記のような簡単なユーザインターフェイスが求められている。
本発明は以上の問題に鑑みてなされたものであり、仮想空間、若しくは現実空間と仮想空間との複合空間である複合現実空間、の中で複数のアクセス先の中から1つをユーザが簡単に指示することを可能にする為の技術を提供する。
本発明の目的を達成するために、例えば、本発明の画像処理装置は以下の構成を備える。即ち、ユーザインターフェースとしての仮想物体を仮想空間中に配置する手段と、ユーザの視点から見た前記仮想空間の画像を生成する生成手段と、前記生成手段が生成した前記仮想空間の画像を出力する出力手段と、前記ユーザが前記ユーザインターフェースに対して操作するために用いる操作部が前記視点からの視野内にあり、且つ前記操作部と前記ユーザインターフェースとの位置関係が規定の位置関係にある場合に、前記ユーザインターフェースに対する操作があったと判断する判断手段とを備え、前記生成手段は、前記判断手段により前記ユーザインターフェースに対する操作があったと判断された場合に、前記仮想空間に対して該操作に対応する更新を行い、前記視点から見た該更新後の仮想空間の画像を生成することを特徴とする。
本発明の構成によれば、仮想空間、若しくは現実空間と仮想空間との複合空間である複合現実空間、の中で複数のアクセス先の中から1つをユーザが簡単に指示することができる。
システムの機能構成例を示すブロック図。 画像処理装置1001が行う処理のフローチャート。 画像処理装置1001が行う処理のフローチャート。 ユーザインターフェース部1004の構成例を示す図。 アイコン4001のローカル座標系を示す図。 画像処理装置1001が行う処理のフローチャート。
以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載の構成の具体的な実施例の1つである。
[第1の実施形態]
本実施形態では、本の仮想物体(即ち、各ページもまた仮想物体)において、ユーザが任意のページを閲覧するためのシステムについて説明する。本実施形態ではこれを可能にするために、各ページにリンクされているアイコンが配された仮想物体を複合現実空間内に配置する。ユーザは所望のページに対するアイコンを指示するので、本システムはこの指示されたアイコンに対応するページ(即ち、この所望のページ)をユーザに提示する。これにより、ユーザは複数のアクセス先(複数のページ)のうち任意のアクセス先(任意のページ)を指定することができる。
先ず、本実施形態に係るシステムの機能構成例について、図1のブロック図を用いて説明する。図1に示す如く、本実施形態に係るシステムは、画像処理装置1001、撮像部1010、映像表示部1011、操作部1003、ユーザインターフェース部1004、により構成されている。更に、画像処理装置1001は、一般のPCなどのコンピュータにより構成されており、CPU、RAMやハードディスク、等により構成されている。
映像表示部1011は、HMDのように、複合現実空間を閲覧するユーザの頭部に装着されるものである。この映像表示部1011には、ユーザが自身の頭部にこの映像表示部1011を装着した場合にこのユーザの眼前に位置するように表示画面が設けられている。また、映像表示部1011には、動画像を撮像可能な撮像部1010が取り付けられている。映像表示部1011と撮像部1010との位置姿勢関係は固定されており、この位置姿勢関係は予め測定され、画像処理装置1001内のメモリ内に登録されているものとする。
撮像部1010が撮像した各フレームの画像(現実空間の画像)は順次、画像処理装置1001内の仮想世界生成部1009に入力される。位置姿勢計測部1005は、映像表示部1011の位置姿勢を計測する。映像表示部1011の位置姿勢を取得する方法については、磁気センサなどのセンサを用いて映像表示部1011の位置姿勢を計測する方法や、映像表示部1011を撮像した撮像画像から映像表示部1011の位置姿勢を求める方法等、様々なものがある。本実施形態では、映像表示部1011の位置姿勢を求めることができれば、如何なる方法を用いても良い。位置姿勢計測部1005は、何れかの方法によって取得した映像表示部1011の位置姿勢を、計算部1008に送出する。
操作部1003は、ユーザが後述のユーザインターフェース部1004上を指示するために用いるものである。操作部1003としては、ユーザの指、スタイラスなどのポインティングデバイス、等、様々なものを適用することができる。操作部1003の位置姿勢は、位置姿勢計測部1006によって計測され、計測された位置姿勢は計算部1008に送出される。位置姿勢計測部1006による位置姿勢の計測方法についても位置姿勢計測部1005と同様、様々な方法が考え得り、本実施形態では如何なる方法を用いても良い。
ユーザインターフェース部1004は、図4に示す如く、1枚の仮想平面上に配されたアイコン4001の集合であり、それぞれのアイコン4001は、仮想物体としての本の各ページと対応付けられている。例えば、左上隅の位置におけるアイコンは第1ページ目と対応付け(リンク)られており、その右隣の位置におけるアイコンは第2ページ目と対応付け(リンク)られている。また、それぞれのアイコン4001は、図5に示す如く、自身にローカルな座標系を有している。このように、ユーザインターフェース部1004は、各ページに対応付けられているアイコンから成るのであれば、どのような外観、どのような構成であっても良い。
このようなユーザインターフェース部1004は、現実空間内で基準として配される現実物体(基準現実物体)との位置姿勢関係が固定されるように、仮想空間中に配される。即ち、この基準現実物体を移動させると、それに伴ってこのユーザインターフェース部1004も移動することになる。ここでは説明を簡単にするために、現実空間中に規定される座標系(現実空間座標系)と、仮想空間中に規定される座標系(仮想空間座標系)と、は、原点及び3軸が一致しているものとして説明する。しかし、何れかがずれていても、そのずれが既知であれば、一方の座標系における座標値を他方の座標系における座標値に変換することができる。もちろん、ユーザインターフェース部1004を、規定の位置姿勢で固定して仮想空間内に配置しても良い。
位置姿勢計測部1007は、この基準現実物体の位置姿勢を計測し、計測した位置姿勢に「基準として配される現実物体とユーザインターフェース部1004との位置姿勢関係」を加えることで、ユーザインターフェース部1004の位置姿勢を求める。位置姿勢計測部1007による位置姿勢の計測方法についても位置姿勢計測部1005と同様、様々な方法が考え得り、本実施形態では如何なる方法を用いても良い。
もちろん、ユーザインターフェース部1004を、規定の位置姿勢で固定して仮想空間内に配置するのであれば、位置姿勢計測部1007はこの規定の位置姿勢を取得する。そして位置姿勢計測部1007は、何れかの方法によって取得したユーザインターフェース部1004の位置姿勢を、計算部1008に送出する。
計算部1008は、それぞれの位置姿勢計測部1005〜1007から取得した位置姿勢を用いて後述する様々な計算処理を行い、結果として、ユーザインターフェース部1004においてユーザが操作部1003によって指示したアイコンを特定する。
仮想世界生成部1009は、ユーザの視点(撮像部1010)の位置姿勢から見える仮想空間の画像を生成し、生成した仮想空間の画像と撮像部1010から取得した現実空間の画像とを合成した合成画像(複合現実空間の画像)を生成する。そして仮想世界生成部1009は、この生成した合成画像を、映像表示部1011に対して出力する。これにより映像表示部1011が有する表示画面上には、この合成画像が表示されることになるので、結果としてこの映像表示部1011を頭部に装着したユーザの眼前には、この合成画像が表示(提示)されることになる。
次に、画像処理装置1001が行う処理について、同処理のフローチャートを示す図2を用いて説明する。なお、このフローチャートに従った処理は、画像処理装置1001が有するCPUが、画像処理装置1001内に格納されているコンピュータプログラムやデータを用いて処理を実行することで為されるものである。もちろん、コンピュータプログラムやデータは、図2のフローチャートに従った処理をCPUに実行させるためのものである。
ステップS2002では、位置姿勢計測部1005は、映像表示部1011の位置姿勢を取得する。ステップS2003では、位置姿勢計測部1006は、操作部1003の位置姿勢を取得する。ステップS2004では、位置姿勢計測部1007は、ユーザインターフェース部1004の位置姿勢を取得する。ステップS2002〜ステップS2004の各ステップにおける位置姿勢の取得動作については上記の通りである。また、これらのステップは並行して行っても良い。
ステップS2005では計算部1008は、映像表示部1011と操作部1003との位置関係が既定の条件を満たしているか否かを判断する。より詳しくは、映像表示部1011が有する表示画面内に、操作部1003が位置しているか否かを判断する。映像表示部1011が有する表示画面内には、撮像部1010の視野内における現実空間が表示されるため、撮像部1010の視野が計算できれば、表示画面内に映る範囲が計算できる。然るに本ステップでは先ず、ステップS2002で取得した映像表示部1011の位置姿勢に、画像処理装置1001内のメモリ内に登録されている「映像表示部1011と撮像部1010との位置姿勢関係」を加えることで、撮像部1010の位置姿勢を求める。そして求めた位置姿勢と、撮像部1010に設定されている撮像パラメータ内の画角と、を用いて、撮像部1010の視野を求める。そして次に本ステップでは、撮像部1010の視野内に操作部1003が位置しているか否かを判断する。この判断の結果、撮像部1010の視野内に操作部1003が位置している場合には、処理はステップS2006に進み、撮像部1010の視野内に操作部1003が位置していない場合には、処理はステップS2009に進む。
ステップS2006では計算部1008は、操作部1003とユーザインターフェース部1004との位置関係が既定の条件を満たしているか否かを判断する。より詳しくは、操作部1003によって、ユーザインターフェース部1004上のどのアイコンが選択されたのかを判断する。
ここで、ユーザインターフェース部1004が図4に示したように、9個のアイコン(それぞれのアイコンは直方体の仮想物体)からなるものであるとする。この場合、ステップS2003では、この9個のアイコンのそれぞれの座標(仮想空間中に規定された座標系における座標値)を取得する(それぞれの直方体について8頂点の座標値を取得する)ことになる。あるアイコンP(着目アイコン)について取得した座標をこのアイコンPのローカル座標系に変換したものが次のようなものであるとする。
・ (0,0,0)
・ (0,0,Z1)
・ (0,Y1,0)
・ (0,Y1,Z1)
・ (X1,0,0)
・ (X1,0,Z1)
・ (X1,Y1,0)
・ (X1,Y1,Z1)
このとき、操作部1003の座標をアイコンPのローカル座標系に変換したものが(X、Y、Z)である場合、この(X、Y、Z)が以下の条件を満たしていれば、アイコンPと操作部1003との位置関係が既定の条件を満たしていると判断する。
0<X<X1
0<Y<Y1
0<Z<D(規定の定数)
これは、他のアイコンについても同様である。これにより、操作部1003との位置関係が既定の条件を満たしているアイコンを特定することができる。なお、操作部1003がどのアイコンを指し示しているのかを判断するための1つの方法がこの例示した方法であり、これ以外の方法を用いても良い。
そして本ステップでは更に、アイコンPと操作部1003との位置関係が既定の条件を満たしている状態で、選択指示が入力されたか否かを判断する。選択指示は、操作部1003がボタン付スタイラスであれば、このボタンを押下することで入力しても良いし、キーボードなどの操作入力装置を画像処理装置1001に接続し、この操作入力装置から入力しても良い。
そして、アイコンPと操作部1003との位置関係が既定の条件を満たしている状態で上記選択指示が入力されたことを計算部1008が検知すると、計算部1008は、アイコンPに対する操作があったと判断し、処理はステップS2008に進む。一方、検知していない場合には、処理はステップS2009に進む。
ステップS2008では計算部1008は、アイコンPに対応付けられているページの仮想物体を、これからユーザに提示する仮想物体として仮想空間中に配置する為のイベントを、仮想世界生成部1009に対して発行する。
ステップS2009では仮想世界生成部1009は、上記イベントを受け付けていない限りは、仮想空間を、ステップS2005で求めた位置姿勢の視点から見た画像を、仮想空間の画像として生成する。一方、上記イベントを受け付けた場合には、仮想世界生成部1009は、アイコンPに対応付けられているページ(ページP)の仮想物体を、仮想空間中の規定の位置に配置する。この「ページPの仮想物体」の配置形態については特に限定するものではなく、本においてページPが開いているような状態の仮想物体を構成し、仮想空間中に配置しても良い。何れにせよ、ページPは本における1ページに相当する仮想物体であり、ユーザはこのページに記された情報を閲覧するため、この情報が記された面が視点から見えることが必須となる。然るに、このページPの仮想物体の向きは、このページの面(情報が記された面)がユーザの視点に向くように配置する。このようにして、本ステップでは、このページの仮想物体を含む仮想空間を構築(更新)する。然るに、この仮想物体以外の仮想物体を仮想空間中に配置する必要がある場合には、本ステップにおいて配置する。
そして仮想世界生成部1009は、このような仮想空間(更新後の仮想空間)を、ステップS2005で求めた位置姿勢の視点から見た画像を、仮想空間の画像として生成する。所定の位置姿勢を有する視点から見える仮想空間の画像を生成するための技術については様々な技術があるため、これについての技術説明は省略する。
そしてステップS2009では更に仮想世界生成部1009は、撮像部1010から取得した現実空間の画像と、この生成した仮想空間画像と、の合成画像を、複合現実空間の画像として生成する。この合成画像の生成技術については周知の技術であるため、これについての技術説明は省略する。そして仮想世界生成部1009は、この生成した合成画像を、映像表示部1011に対して出力する。これにより映像表示部1011の表示画面上にはこの合成画像が表示されることになる。これによりユーザの眼前には、自身がユーザインターフェース部1004上で指示したアイコンに対応するページの仮想物体が表示されることになる。そして処理はステップS2002に戻り、次のフレームについて以降の処理を繰り返す。
なお、本実施形態では、映像表示部1011としてビデオシースルー型の表示装置を用いたが、光学シースルー型の表示装置を用いても良い。この場合、撮像部1010は必要なく、撮像部1010に係る情報の代わりに、仮想空間画像を生成する際に視点に係る情報を用いれば良い。そして仮想世界生成部1009は、生成した仮想空間の画像をそのまま映像表示部1011に出力することになる。
[第2の実施形態]
画像処理装置1001が行う別の実施形態としての処理について、図3のフローチャートを用いて説明する。なお、このフローチャートに従った処理は、画像処理装置1001が有するCPUが、画像処理装置1001内に格納されているコンピュータプログラムやデータを用いて処理を実行することで為されるものである。もちろん、コンピュータプログラムやデータは、図3のフローチャートに従った処理をCPUに実行させるためのものである。ステップS3002〜S3004はそれぞれ、上記のステップS2002〜S2004と同じであるので、これについての説明は省略する。
ステップS3005では、計算部1008は、1若しくは0の何れかの値を取るフラグの現在の値を判断する。この判断の結果、フラグの現在の値が「1」であれば、処理はステップS3006に進み、「0」であれば、処理はステップS3010に進む。なお、図3のフローチャートに従った処理の開始時では、フラグの値は「0」に初期化されているものとする。
ステップS3010では、計算部1008は、上記のステップS2005と同じ処理を行う。そして、撮像部1010の視野内に操作部1003が位置している場合には、処理はステップS3011に進み、撮像部1010の視野内に操作部1003が位置していない場合には、処理はステップS3009に進む。
ステップS3011では、計算部1008は、上記のステップS2006と同じ処理を行う。そして、アイコンPと操作部1003との位置関係が既定の条件を満たしている状態で上記選択指示が入力されたことを計算部1008が検知すると、処理はステップS3012に進み、検知していない場合には、処理はステップS3009に進む。ステップS3012では、計算部1008は、フラグの値を1に設定する。そして処理をステップS3009に進める。
ステップS3006では、計算部1008は、上記のステップS2005と同じ処理を行う。そして、撮像部1010の視野内に操作部1003が位置している場合には、処理はステップS3007に進み、撮像部1010の視野内に操作部1003が位置していない場合には、処理はステップS3009に進む。ステップS3007では、計算部1008は、上記のステップS2006と同じ処理を行う。なお、ステップS3007では、以下の条件を「既定の条件」とする。
0<X<X1
0<Y<Y1
D≦Z<2×D
そして、アイコンPと操作部1003との位置関係がこの既定の条件を満たしている状態で上記選択指示が入力されたことを計算部1008が検知すると、処理はステップS3008に進み、検知していない場合には、処理はステップS3009に進む。
ステップS3008ではステップS2008における処理に加え、フラグの値を0に設定する。ステップS3009は、上記のステップS2009と同じである。そして処理はステップS3002に戻り、次のフレームについて以降の処理を繰り返す。
[第3の実施形態]
画像処理装置1001が行う別の実施形態としての処理について、図6のフローチャートを用いて説明する。なお、このフローチャートに従った処理は、画像処理装置1001が有するCPUが、画像処理装置1001内に格納されているコンピュータプログラムやデータを用いて処理を実行することで為されるものである。もちろん、コンピュータプログラムやデータは、図6のフローチャートに従った処理をCPUに実行させるためのものである。ステップS6002〜S6008はそれぞれ、上記のステップS2002〜S2008と同じであるので、これについての説明は省略する。
なお、ステップS6005では、計算部1008は、上記のステップS2005と同じ処理を行う。そして、撮像部1010の視野内に操作部1003が位置している場合には、処理はステップS6006に進み、撮像部1010の視野内に操作部1003が位置していない場合には、処理はステップS6010に進む。
また、ステップS6006では、計算部1008は、上記のステップS2006と同じ処理を行う。そして、アイコンPと操作部1003との位置関係が既定の条件を満たしている状態で上記選択指示が入力されたことを計算部1008が検知すると、処理はステップS6008に進み、検知していない場合には、処理はステップS6010に進む。
ステップS6009で計算部1008は、アイコンPに対する操作があったと判断した後、規定の時間が経過するまでは、ユーザインターフェース部1004に対する操作の受け付けを禁止すると共に、ユーザインターフェース部1004の表示形態を変更する。これは、イベント発行直後の誤動作を防ぐ等のために行うものである。もちろん、アイコンPに対する操作があったと判断した後、規定の時間が経過すれば、ユーザインターフェース部1004に対する操作の受け付けを再開すると共に、ユーザインターフェース部1004の表示形態を元に戻す。表示形態の変更としては様々なものがあり、ユーザインターフェース部1004の色を変更しても良いし、その形状を変更しても良い。もちろん、ユーザインターフェース部1004とは別個に、「現在ユーザインターフェース部1004は操作できません」という旨を通知するための仮想物体を仮想空間中に配置させても良い。もちろん、この仮想物体は、アイコンPに対する操作があったと判断した後、規定の時間内のみ配置されるもので、規定の時間が経過すれば、消去される。
ステップS6010は、上記のステップS2009と同じであるので、これについての説明は省略する。そして処理はステップS6002に戻り、次のフレームについて以降の処理を繰り返す。
(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (6)

  1. ユーザインターフェースとしての仮想物体を仮想空間中に配置する手段と、
    ユーザの視点から見た前記仮想空間の画像を生成する生成手段と、
    前記生成手段が生成した前記仮想空間の画像を出力する出力手段と、
    前記ユーザが前記ユーザインターフェースに対して操作するために用いる操作部が前記視点からの視野内にあり、且つ前記操作部と前記ユーザインターフェースとの位置関係が規定の位置関係にある場合に、前記ユーザインターフェースに対する操作があったと判断する判断手段と
    を備え、
    前記生成手段は、
    前記判断手段により前記ユーザインターフェースに対する操作があったと判断された場合に、前記仮想空間に対して該操作に対応する更新を行い、前記視点から見た該更新後の仮想空間の画像を生成する
    ことを特徴とする画像処理装置。
  2. 前記ユーザインターフェースは複数のアイコンから構成されており、該複数のアイコンのそれぞれには、本の各ページの仮想物体が対応付けられており、
    前記判断手段は、
    前記操作部が前記視点からの視野内にあり、且つ前記操作部と着目アイコンとの位置関係が規定の位置関係にある場合には、前記着目アイコンに対する操作があったと判断し、
    前記生成手段は、
    前記判断手段により前記着目アイコンに対する操作があったと判断された場合に、前記複数のアイコンに加えて、前記着目アイコンに対応付けられたページの仮想物体を、該仮想物体において情報が記された面を前記視点に向けて前記仮想空間中に配置した後、前記仮想空間の画像を生成する
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記生成手段は、前記判断手段により前記着目アイコンに対する操作があったと判断された後、規定の時間が経過するまでは、前記ユーザインターフェースに対する操作の受け付けを禁止すると共に、前記ユーザインターフェースの表示形態を変更することを特徴とする請求項2に記載の画像処理装置。
  4. 更に、
    前記視点から見える現実空間の画像を撮像する手段を備え、
    前記出力手段は、前記現実空間の画像と前記仮想空間の画像との合成画像を出力することを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。
  5. 画像処理装置が行う画像処理方法であって、
    前記画像処理装置の配置手段が、ユーザインターフェースとしての仮想物体を仮想空間中に配置する工程と、
    前記画像処理装置の生成手段が、ユーザの視点から見た前記仮想空間の画像を生成する生成工程と、
    前記画像処理装置の出力手段が、前記生成工程で生成した前記仮想空間の画像を出力する出力工程と、
    前記画像処理装置の判断手段が、前記ユーザが前記ユーザインターフェースに対して操作するために用いる操作部が前記視点からの視野内にあり、且つ前記操作部と前記ユーザインターフェースとの位置関係が規定の位置関係にある場合に、前記ユーザインターフェースに対する操作があったと判断する判断工程と
    を備え、
    前記生成工程では、
    前記判断工程で前記ユーザインターフェースに対する操作があったと判断された場合に、前記仮想空間に対して該操作に対応する更新を行い、前記視点から見た該更新後の仮想空間の画像を生成する
    ことを特徴とする画像処理方法。
  6. コンピュータを、請求項1乃至4の何れか1項に記載の画像処理装置が有する各手段として機能させるためのコンピュータプログラム。
JP2010192703A 2010-08-30 2010-08-30 画像処理装置、画像処理方法 Pending JP2012048656A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010192703A JP2012048656A (ja) 2010-08-30 2010-08-30 画像処理装置、画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010192703A JP2012048656A (ja) 2010-08-30 2010-08-30 画像処理装置、画像処理方法

Publications (2)

Publication Number Publication Date
JP2012048656A true JP2012048656A (ja) 2012-03-08
JP2012048656A5 JP2012048656A5 (ja) 2013-10-10

Family

ID=45903408

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010192703A Pending JP2012048656A (ja) 2010-08-30 2010-08-30 画像処理装置、画像処理方法

Country Status (1)

Country Link
JP (1) JP2012048656A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014072575A (ja) * 2012-09-27 2014-04-21 Kyocera Corp 表示装置および制御方法
JP2014072576A (ja) * 2012-09-27 2014-04-21 Kyocera Corp 表示装置および制御方法
JP2015231445A (ja) * 2014-06-09 2015-12-24 株式会社バンダイナムコエンターテインメント プログラムおよび画像生成装置
US10341642B2 (en) 2012-09-27 2019-07-02 Kyocera Corporation Display device, control method, and control program for stereoscopically displaying objects

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002207546A (ja) * 2001-01-11 2002-07-26 Matsushita Electric Ind Co Ltd 入力装置および入力方法
JP2007042055A (ja) * 2005-06-30 2007-02-15 Canon Inc 画像処理方法、画像処理装置
JP2008065675A (ja) * 2006-09-08 2008-03-21 Ritsumeikan 複合現実感システムとそのイベント入力方法及びヘッドマウントディスプレイ
JP2010154861A (ja) * 2003-03-19 2010-07-15 Biogen Idec Ma Inc Nogoレセプター結合タンパク質

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002207546A (ja) * 2001-01-11 2002-07-26 Matsushita Electric Ind Co Ltd 入力装置および入力方法
JP2010154861A (ja) * 2003-03-19 2010-07-15 Biogen Idec Ma Inc Nogoレセプター結合タンパク質
JP2007042055A (ja) * 2005-06-30 2007-02-15 Canon Inc 画像処理方法、画像処理装置
JP2008065675A (ja) * 2006-09-08 2008-03-21 Ritsumeikan 複合現実感システムとそのイベント入力方法及びヘッドマウントディスプレイ

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014072575A (ja) * 2012-09-27 2014-04-21 Kyocera Corp 表示装置および制御方法
JP2014072576A (ja) * 2012-09-27 2014-04-21 Kyocera Corp 表示装置および制御方法
US10341642B2 (en) 2012-09-27 2019-07-02 Kyocera Corporation Display device, control method, and control program for stereoscopically displaying objects
JP2015231445A (ja) * 2014-06-09 2015-12-24 株式会社バンダイナムコエンターテインメント プログラムおよび画像生成装置

Similar Documents

Publication Publication Date Title
US10657716B2 (en) Collaborative augmented reality system
US20180074680A1 (en) Enhanced roll-over, button, menu, slider, and hyperlink environments for high dimensional touchpad (hdtp), other advanced touch user interfaces, and advanced mice
JP4533087B2 (ja) 画像処理方法、画像処理装置
Beardsley et al. Interaction using a handheld projector
CN105659295B (zh) 用于在移动设备上的真实环境的视图中表示兴趣点的方法以及用于此方法的移动设备
US8577762B2 (en) Detail-in-context lenses for interacting with objects in digital image presentations
US7995078B2 (en) Compound lenses for multi-source data presentation
EP2814000B1 (en) Image processing apparatus, image processing method, and program
US20040240709A1 (en) Method and system for controlling detail-in-context lenses through eye and position tracking
US20070165050A1 (en) Method and system for geographically-based and time-based online advertising
Li et al. Cognitive issues in mobile augmented reality: an embodied perspective
KR20130108643A (ko) 응시 및 제스처 인터페이스를 위한 시스템들 및 방법들
Cheng et al. Supporting interaction and collaboration on large displays using tablet devices
TW201907285A (zh) 顯示裝置
CN113961107B (zh) 面向屏幕的增强现实交互方法、装置及存储介质
JP2012048656A (ja) 画像処理装置、画像処理方法
JP2014203175A (ja) 情報処理装置、情報処理方法及びプログラム。
JP5830055B2 (ja) 画像処理装置および画像処理システム
CN113849112A (zh) 适用于电网调控的增强现实交互方法、装置及存储介质
Caruso et al. Augmented reality system for the visualization and interaction with 3D digital models in a wide environment
Basu et al. Ubiquitous collaborative activity virtual environments
JP6961157B1 (ja) 情報処理システム、情報処理方法及びプログラム
KR20180071492A (ko) 키넥트 센서를 이용한 실감형 콘텐츠 서비스 시스템
JP3413145B2 (ja) 仮想空間の編集方法及び仮想空間の編集装置
JP7226836B2 (ja) 表示制御装置、プレゼンテーションシステム、表示制御方法、及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130828

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130828

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140303

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140310

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140423

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20141107