JP2012108842A - 表示システム、表示処理装置、表示方法、および表示プログラム - Google Patents

表示システム、表示処理装置、表示方法、および表示プログラム Download PDF

Info

Publication number
JP2012108842A
JP2012108842A JP2010258775A JP2010258775A JP2012108842A JP 2012108842 A JP2012108842 A JP 2012108842A JP 2010258775 A JP2010258775 A JP 2010258775A JP 2010258775 A JP2010258775 A JP 2010258775A JP 2012108842 A JP2012108842 A JP 2012108842A
Authority
JP
Japan
Prior art keywords
display
virtual object
image
distance
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010258775A
Other languages
English (en)
Other versions
JP5472056B2 (ja
Inventor
Chiho Murai
千帆 村井
Hiroki Yoshida
宏樹 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2010258775A priority Critical patent/JP5472056B2/ja
Publication of JP2012108842A publication Critical patent/JP2012108842A/ja
Application granted granted Critical
Publication of JP5472056B2 publication Critical patent/JP5472056B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】撮影画像に仮想世界を表わす画像情報を重ね、実座標でリンクさせて表示した仮想現実において、ポイントしやすくオブジェクトを表示することができる表示システムを提供する。
【解決手段】表示システムにおいては、仮想オブジェクトごとに、仮想オブジェクトの画像、撮影空間に対して設定された3次元座標系で設定された表示位置、および選択によって実行する処理が規定されている。カメラでの撮影画像に対して3次元座標系が設定され、該3次元座標系に応じて、規定された位置に仮想オブジェクトの画像を合成して表示画像が生成される。表示画像においてユーザの位置の指定を受付けると、その位置を該3次元座標系における位置として検出し、その位置と仮想オブジェクトの表示位置との間の距離がしきい値よりも小さい場合、該仮想オブジェクトのサイズを大きくする。
【選択図】図13

Description

この発明は表示システム、表示処理装置、表示方法、および表示プログラムに関し、特に、撮影画像に選択可能なオブジェクトを表示するための表示システム、表示処理装置、表示方法、および表示プログラムに関する。
撮影画像に仮想世界を表わす画像情報を重ねて表示し、表示上、仮想現実を表示させる技術が提案されている。仮想現実の表示では、実世界を表わす撮影画像と仮想世界を表わす画像情報とがレイヤ構成になっており、実空間と仮想空間とが、実座標でリンクしている。
仮想現実を用いたシステムではこのような表示構成であることから、仮想空間上にあるオブジェクトの位置を特定する際に3次元空間の奥行き感が把握し難く、オブジェクトの位置が特定し難いという問題があった。
この問題に対して、ユーザの指示領域とオブジェクトとの距離に応じて、指示領域またはオブジェクトの少なくとも一方の色を変化させるようにしている例がある。具体例として、特開平5−342322号公報(以下、特許文献1)は、3次元空間で、指示領域座標とオブジェクトに関連付けられた座標との距離に基づいて、段階的にポインタまたはオブジェクトの色を変更する技術を開示している。
他の例として、特開2002−109568号公報(以下、特許文献2)は、仮想空間上にオブジェクトが複数存在する場合に、目的とするオブジェクトを把握しやすくするため目印となるオブジェクト以外のオブジェクトを不可視にする技術を開示している。また、特開2003−337959号公報(以下、特許文献3)は、オブジェクトの表示形態を、視点からオブジェクまでの距離に基づいて変化させる技術を開示している。
特開平5−342322号公報 特開2002−109568号公報 特開2003−337959号公報
しかしながら、上述の特許文献1に開示されているような技術では、複数のオブジェクトが近接して多数存在している場合にはそれら複数のオブジェクトの色が変化することになるため、その中から特定のオブジェクトを選択して指定することが難しいという問題があった。また、特許文献3に開示された技術でも、ユーザが指定しようとする領域に複数のオブジェクトが近接して多数存在している場合であっても、それらの視点からの距離が基準とする距離を満たす場合には表示形態が変化しないため、その中から特定のオブジェクトを選択して指定することが難しいという問題があった。
また、特許文献2に開示された技術では、複数のオブジェクトが近接して多数存在している場合に目印となるオブジェクト以外のオブジェクトが不可視となってしまい、仮想現実の形態が異なってくるという問題があった。
本発明はこのような問題に鑑みてなされたものであって、撮影画像に仮想世界を表わす画像情報を重ね、実座標でリンクさせて表示した仮想現実において、ポイントしやすくオブジェクトを表示することができる表示システム、表示処理装置、表示方法、および表示プログラムを提供することを目的としている。
上記目的を達成するために、本発明のある局面に従うと、表示システムは、撮影画像に仮想オブジェクトの画像を合成して表示するための表示システムであって、カメラと、ディスプレイと、表示処理装置とを備える。表示処理装置は、仮想オブジェクトに関する情報として、当該仮想オブジェクトを3次元で表示させるための画像情報と、撮影された空間に対して設定された3次元の座標系で表わされた当該仮想オブジェクトの表示位置と、当該仮想オブジェクトが選択されることによって実行される動作とを規定する情報を記憶するための記憶手段と、カメラによる撮影画像に対して3次元の座標系を設定し、仮想オブジェクトに対して規定された表示位置に基づいて撮影画像に仮想オブジェクトの画像を合成して合成画像を生成し、ディスプレイで表示させる処理を実行するための表示処理手段と、ユーザによって指定された3次元の座標系における位置を検出するための検出手段と、合成画像における仮想オブジェクトの表示位置から所定範囲に指定された位置が含まれる場合に仮想オブジェクトが選択されたものとして、仮想オブジェクトに対して規定された動作を実行するための実行手段とを含む。表示処理手段は、撮影画像における仮想オブジェクトについて規定された表示位置と指定された位置との間の距離が予め記憶されている基準値よりも小さい場合に、仮想オブジェクトの画像を撮影画像に対して、合成画像において仮想オブジェクトが指定された位置に近くなるように合成する。
好ましくは、表示処理手段は、上記距離が基準値よりも小さく、かつ、指定された位置から所定の範囲に複数の仮想オブジェクトについての規定された表示位置が含まれる場合に、上記距離が基準値よりも小さい仮想オブジェクトの画像を撮影画像に対して、合成画像において仮想オブジェクトが指定された位置に近くなるように合成する。
好ましくは、表示処理手段は、上記距離が基準値よりも小さい仮想オブジェクトの画像を拡大して、撮影画像の仮想オブジェクトについて規定された表示位置に合成する。
より好ましくは、表示処理手段は、仮想オブジェクトの画像を距離に応じた倍率で拡大する。
好ましくは、表示処理手段は、上記距離が基準値よりも小さい仮想オブジェクトの形状を、指定された位置に接近する形状に変形して、撮影画像の仮想オブジェクトについて規定された表示位置に合成する。
より好ましくは、表示処理手段は、仮想オブジェクトの形状を上記距離に応じた指定された位置への接近度合いに変形させる。
好ましくは、表示処理手段は、上記距離が基準値よりも小さい仮想オブジェクトの画像を、撮影画像の仮想オブジェクトについて規定された表示位置よりも指定された位置に近い位置に合成する。
より好ましくは、表示処理手段は、仮想オブジェクトの画像を、撮影画像の仮想オブジェクトについて規定された表示位置よりも、上記距離に応じて指定された位置側に移動させた位置を合成画像における仮想オブジェクトの表示位置として決定し、決定された位置に合成する。
好ましくは、表示処理手段は、第1の撮影画像に対して指定された位置に近くなるように仮想オブジェクトの画像を合成して第1の合成画像を生成した後に、第1の撮影画像の後にカメラから入力された第2の撮影画像に対して仮想オブジェクトの画像を合成して第2の合成画像を生成する際に、第1の合成画像における仮想オブジェクトの表示位置と第2の撮影画像から検出された指定された位置との間の距離が基準値よりも大きい場合に、仮想オブジェクトに対して規定された表示位置に規定された画像情報に基づく画像を合成する。
好ましくは、表示処理手段は、上記距離が基準値よりも小さく、かつ、第1の撮影画像から検出された指定された位置と第1の撮影画像の直前にカメラから入力された第2の撮影画像から検出された指定された位置とで得られる指定された位置の移動方向が仮想オブジェクトに対して規定された表示位置に向いている場合に、上記距離が基準値よりも小さい仮想オブジェクトの画像を、合成画像において仮想オブジェクトが指定された位置に近くなるように合成する。
好ましくは、検出手段は、撮影画像を解析して撮影画像から予め記憶されているポインタ画像を検出することによって、ユーザによってポインタを用いて指定された位置を検出する。
好ましくは、表示システムは位置情報を検出するセンサを含んだポインティングデバイスをさらに備え、表示処理装置の検出手段は、撮影画像に対して設定された3次元の座標系とポインティングデバイスで検出された位置情報とから、ユーザによってポインティングデバイスを用いて指定された位置を検出する。
本発明の他の局面に従うと、表示処理装置は撮影画像に仮想オブジェクトの画像を合成してディスプレイで表示画面を表示させるための表示処理装置であって、撮影画像の入力を受付けるための入力手段と、仮想オブジェクトに関する情報として、当該仮想オブジェクトを3次元で表示させるための画像情報と、撮影された空間に対して設定された3次元の座標系で表わされた当該仮想オブジェクトの表示位置と、当該仮想オブジェクトが選択されることによって実行される動作とを規定する情報を記憶するための記憶手段と、ディスプレイに表示画面を表示させる処理を実行するための表示処理手段とを備える。表示処理手段は、撮影画像に対して3次元の座標系を設定し、仮想オブジェクトに対して規定された表示位置に基づいて撮影画像に仮想オブジェクトの画像を合成して合成画像を生成する処理と、ユーザによって指定された3次元の座標系における位置を検出する処理とを実行する。表示処理手段は、合成画像を生成する処理において、撮影画像における仮想オブジェクトについて規定された表示位置と指定された位置との間の距離が予め記憶されている基準値よりも小さい場合に、仮想オブジェクトの画像を撮影画像に対して、合成画像において仮想オブジェクトが指定された位置に近くなるように合成する。
本発明のさらに他の局面に従うと、表示方法は、表示処理装置において、撮影画像に仮想オブジェクトの画像を合成した合成画像をディスプレイで表示させる方法であって、表示処理装置は、仮想オブジェクトに関する情報として、当該仮想オブジェクトを3次元で表示させるための画像情報と、撮影された空間に対して設定された3次元の座標系で表わされた当該仮想オブジェクトの表示位置と、当該仮想オブジェクトが選択されることによって実行される動作とを規定する情報をし、カメラから撮影画像の入力を受付けるステップと、撮影画像に対して3次元の座標系を設定するステップと、ユーザによって指定された3次元の座標系における位置を検出するステップと、撮影画像における仮想オブジェクトについて規定された表示位置と指定された位置との間の距離と、予め記憶されている基準値とを比較し、その距離が基準値よりも小さい場合に、仮想オブジェクトの画像を撮影画像に対して、合成画像において仮想オブジェクトが指定された位置に近くなるように合成するステップとを備える。
本発明のさらに他の局面に従うと、表示プログラムは、表示処理装置に、撮影画像に仮想オブジェクトの画像を合成した合成画像をディスプレイで表示させる処理を実行させるためのプログラムであって、表示処理装置は、仮想オブジェクトに関する情報として、当該仮想オブジェクトを3次元で表示させるための画像情報と、撮影された空間に対して設定された3次元の座標系で表わされた当該仮想オブジェクトの表示位置と、当該仮想オブジェクトが選択されることによって実行される動作とを規定する情報をし、カメラから撮影画像の入力を受付けるステップと、撮影画像に対して3次元の座標系を設定するステップと、ユーザによって指定された3次元の座標系における位置を検出するステップと、撮影画像における仮想オブジェクトについて規定された表示位置と指定された位置との間の距離と、予め記憶されている基準値とを比較し、その距離が基準値よりも小さい場合に、仮想オブジェクトの画像を撮影画像に対して、合成画像において仮想オブジェクトが指定された位置に近くなるように合成するステップとを表示処理装置に実行させる。
この発明によると、撮影画像に仮想世界を表わす画像情報を重ね、実座標でリンクさせて表示された仮想現実において、表示される選択肢としてのオブジェクトを、より直感的に、より簡易に選択することが可能となる。
実施の形態にかかる表示システムの構成の具体例を示す図である。 実施の形態にかかる表示システムの構成の他の具体例を示す図である。 実施の形態にかかる表示システムの構成の他の具体例を示す図である。 実施の形態にかかる表示システム用いられ方の一例を説明する図である。 実施の形態にかかる表示システム用いられ方の一例を説明する図である。 表示システムに含まれる処理装置の機能構成の具体例を示すブロック図である。 基本の表示動作の具体例を示すフローチャートである。 マーカとして記憶されている画像の具体例を示す図である。 撮影画像中のマーカの検出例と、その検出結果に基づく仮想オブジェクトの表示例とを示す図である。 表示システムでの表示の一例を示す図である。 記憶される仮想オブジェクトの座標値の具体例を示す図である。 仮想オブジェクト−ポインタ間距離を計算する動作の具体例を示すフローチャートである。 ポインタ位置と仮想オブジェクトの位置との間の距離を用いた表示処理の第1の例を説明する図である。 ポインタ位置と仮想オブジェクトの位置との間の距離の範囲と仮想オブジェクトの表示倍率との対応関係を示す図である。 第1の例にかかる表示処理のための動作の具体例を示すフローチャートである。 ポインタ位置と仮想オブジェクトの位置との間の距離を用いた表示処理の第2の例を説明する図である。 ポインタ位置と仮想オブジェクトの位置との間の距離の範囲と仮想オブジェクトの形状との対応関係を示す図である。 第2の例にかかる表示処理のための動作の具体例を示すフローチャートである。 ポインタ位置と仮想オブジェクトの位置との間の距離を用いた表示処理の第3の例を説明する図である。 ポインタ位置と仮想オブジェクトの位置との間の距離の範囲と仮想オブジェクトの移動量との対応関係を示す図である。 第3の例にかかる表示処理のための動作の具体例を示すフローチャートである。 第3の例にかかる表示処理でさらに表示処理が実行される場合の動作の具体例を示すフローチャートである。 表示の変化を説明する図である。 ポインタ位置と仮想オブジェクトの位置との間の距離を用いた表示処理の第4の例を説明する図である。 ポインタ位置と仮想オブジェクトの位置との間の距離の範囲と仮想オブジェクトの移動量との対応関係を示す図である。 第4の例にかかる表示処理のための動作の具体例を示すフローチャートである。 仮想オブジェクトの移動方向を説明する図である。 仮想オブジェクトの表示位置の第1の決定方法を説明する図である。 仮想オブジェクトの表示位置の第2の決定方法を説明する図である。
以下に、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品および構成要素には同一の符号を付してある。それらの名称および機能も同じである。
<システム構成>
図1は、本実施の形態にかかる表示システムの構成の具体例を示す図である。
図1を参照して、本実施の形態にかかる表示システムは、処理装置100と、ポインタ200と、カメラ300と、ディスプレイ400とを含む。
処理装置100は、カメラ300およびディスプレイ400とそれぞれ電気的に接続されている。この接続は、LAN(Local Area Network)などの特定のネットワークを介した接続であってもよいし、インターネットなどの公衆回線を介した接続であってもよい。また、無線、有線のいずれであってもよい。
処理装置100は、一般的なパーソナルコンピュータ(PC)などで構成されてよい。
カメラ300は、処理装置100と電気的に接続可能であって、撮影画像を処理装置100に送信する機能を有するものであれば、どのようなものであってもよい。
ディスプレイ400は、処理装置100と電気的に接続可能であって、処理装置100から送信された画像データを表示する機能を有するものであれば、どのようなものであってもよい。図1では、カメラ300およびディスプレイ400として、これらが一体となったウェアラブルディスプレイである例が示されている。
ポインタ200は所定の形状または模様を有する。該形状または模様は処理装置100に予め登録されており、マーカとして用いられる。すなわち、処理装置100は、カメラ300によって撮影された画像中に存在するマーカとしてのポインタ200の位置を画像処理によって特定する。なお、図1の例では、ポインタ200はユーザの指先に装着される筒状のものであり、処理装置100には予め該筒状の形状またはその表面に施された模様が記憶されているものとする。しかしながら、ポインタ200はユーザの身体の一部に装着されるものには限定されず、たとえば、予め記憶された形状または模様を有した指示棒のようなものであってもよい。さらには、ポインタ200が用いられず、直接ユーザの指先などの指示に用いる身体の一部の形状またはその表面に施された模様が予めマーカとして処理装置100に記憶されており、カメラ300によって撮影された画像中に存在する該マーカの位置が処理装置100での画像処理によって特定されるものであってもよい。
なお、ポインタ200の他の例として、処理装置100と電気的に接続可能であり、位置センサ、加速度センサ、傾きセンサなどのセンサを搭載し、該ポインタ200を用いて位置を指定するユーザ操作を受付けて位置などを検出し、処理装置100に対して送信する機能を有するポインティングデバイスであってもよい。
処理装置100は、カメラ300から受信した画像を元に処理を行なう。そして、その処理結果をディスプレイ400に表示させるための処理を行なう。
本実施の形態にかかる表示システムが図1に示される構成である場合、ユーザがウェアラブルディスプレイであるディスプレイ400に表示される画像(透過型が望ましい)を見ながら、指先に装着したポインタ200を使ってポイントする。
なお、図1に示された表示システムには、カメラ300からディスプレイ400で表示するため、およびポインタ200の位置を特定するための撮影画像が処理装置100に入力されるものとしている。しかしながら、ポインタ200の位置を特定するための撮影画像を得るためのカメラがカメラ300と別に備えられてもよい。
<システム構成の他の例>
なお、本実施の形態にかかる表示システムは図1に示された構成に限定されない。他の例として、たとえば図2に示されるように、カメラ300およびポインタ200と電気的に接続されたPCで構成されるものであってもよい。この場合、PC本体が処理装置100となり得、PCに接続されているディスプレイがディスプレイ400となり得る。カメラ300とPCとの接続がインターネットを介したものである場合、カメラ300として、たとえばWEBカメラが挙げられる。
さらに他の例として、図3に示されるように、ポインタ200と直接的またはサーバ等の他の装置を介して電気的に接続された、カメラ機能を搭載した携帯端末であってもよい。この場合、携帯端末本体が処理装置100およびディスプレイ400となり得、携帯端末のカメラがカメラ300となり得る。
<装置構成>
表示システムが図1の構成である場合、処理装置100は上述のように一般的なPCで構成されてもよいので、その装置構成は特定の構成に限定されない。すなわち、処理装置100は、少なくとも、全体を制御するためのCPU(Central Processing Unit)、CPUで実行するプログラムや仮想現実を表示するために必要な画像情報などを記憶するためのROM(Read Only Memory)やRAM(Random Access Memory)などのメモリ、および他の装置と電気的に接続してデータのやり取りを行なうための通信インタフェース(I/F)を含む。
カメラ300は、カメラ部と、撮影画像やプログラムを記憶するためのメモリと、撮影画像を処理装置100に送信する処理を実行するためのCPUと、処理装置100と電気的に接続して撮影画像を送信するための通信I/Fとを含む。
ディスプレイ400は、表示部と、表示画像やプログラムを記憶するためのメモリと、表示画像を表示部に表示する処理を実行するためのCPUと、処理装置100と電気的に接続して表示画像を受信するための通信I/Fとを含む。
なお、ポインタ200がポインティングデバイスである場合、ポインタ200は、一例として、位置検出センサ、加速度センサ、方向性検知センサ(傾きセンサ)などのセンサと、これらセンサでの検出結果やプログラムを記憶するためのメモリと、センサで位置情報等を検出する処理を実行するためのCPUと、処理装置100と電気的に接続して検出結果を送信するための通信I/Fとを含む。
<動作概要>
本実施の形態にかかる表示システムは、現実世界を表わす撮影画像に、コンピュータグラフィックスなどによって予め生成された仮想物体(仮想オブジェクト)を表わす画像を、その撮影画像に位置に応じて重畳して表示する。その際、仮想オブジェクトが撮影画像に表わされた現実世界に浮かんでいるように表示させるため、撮影画像および仮想オブジェクトの表示位置に対して奥行きを設定し、設定された奥行きに応じて3次元で仮想オブジェクトを表示する。3次元で表わされた仮想オブジェクトは合成されることで、撮影画像に表わされた実空間のある奥行きの位置に浮かんでいるように表示される。
「仮想オブジェクト」とは、現実世界を表わす撮影画像内のコンテンツに関連付けられた選択肢である3次元の画像を指す。仮想オブジェクトごとに、当該仮想オブジェクトを表示させるための画像情報と、撮影画像で表わされた撮影空間に対して設定された3次元の座標系における表示位置(以下、仮想オブジェクト座標とも称する)と、選択されることによって実行される動作とが規定されている。この仮想オブジェクトに関する情報は予め処理装置100に記憶されている。
処理装置100は、カメラ300から入力された撮影画像にその撮影空間に対して設定されている3次元座標系を設定した上で、同じ3次元座標系で表示位置、奥行きが設定されている仮想オブジェクトの表示位置を特定する。そして、その位置に表示させるように該仮想オブジェクトの画像を撮影画像に合成して、合成された表示画像をディスプレイ400に対して送信する。
処理装置100は、撮影画像に対して画像処理を実行することによってポインタ200で指定された位置を特定し、その位置を、撮影空間に対して設定されている3次元座標系における位置に変換する。そして、指定された位置に応じた仮想オブジェクトに対して規定された動作を実行する。または、該動作を実行させるために図示しない必要な装置に対して制御信号を出力する。
この表示システムの用いられ方の一例として、図4に示されるような用いられ方が挙げられる。図4は、室内を表わした撮影画像に仮想現実である画像情報を合成して表示させた、表示システムでの表示の一例を示している。図4において、3次元の球体が仮想オブジェクトを表わしている。
図4の表示は、表示システムが図1の構成である場合、カメラ300およびディスプレイ400が搭載されたウェアラブルディスプレイを装着したユーザが机に向かっているユーザの右後ろに立って室内に向いたときに、ディスプレイ400に表示される表示となる。
図4の例において、仮想オブジェクトで表わされた選択肢は、撮影画像で表わされた室内のコンテンツとしてカレンダやユーザの左上の位置の実座標と関連付けられている。そのため、仮想オブジェクトは、予め規定された表示位置に基づいて、図4の例では、カレンダやユーザの左上の位置の近傍など、選択肢が関連付けられたコンテンツの近傍に3次元の仮想オブジェクトが表示されている。
その表示を視認しながらウェアラブルディスプレイを装着したユーザがポインタ200を装着した指先等をディスプレイ400に表示される仮想オブジェクトの位置にすると、該ユーザは、該仮想オブジェクトに対して規定された動作として、関連付けされているデータが表示され閲覧できたり、リモコンの様に対応した機器を操作できたりする。一例として、図4のカレンダの近傍に表示されている仮想オブジェクトにポインタ200で触れると、予め登録されているユーザのスケジュール情報が表示される。また、他の例として、ユーザの左上の仮想オブジェクトに触れると、予めその位置と対応付けられている空気調和機に対して制御信号が出力され、空調温度が変更される。
この表示システムの用いられ方の他の例として、図5に示されるような用いられ方が挙げられる。図5は、工場内を表わした撮影画像に仮想現実である画像情報を合成して表示させた、表示システムでの表示の一例を示している。図5においても、3次元の球体が仮想オブジェクトを表わしている。
図5の表示は、表示システムが図1の構成である場合、カメラ300およびディスプレイ400が搭載されたウェアラブルディスプレイを装着したユーザが机に向かっている2人のユーザのさらに右側に立って室内から工場に向いたときに、ディスプレイ400に表示される表示となる。
図5の例において、仮想オブジェクトで表わされた選択肢は、撮影画像で表わされた工場内のコンテンツとしての機器などの実座標と関連付けられている。そのため、仮想オブジェクトは、予め規定された表示位置に基づいて、図5の例では、工場内の各機器の近傍など、選択肢が関連付けられたコンテンツの近傍に3次元の仮想オブジェクトが表示されている。
その表示を視認しながらウェアラブルディスプレイを装着したユーザがポインタ200を装着した指先等をディスプレイ400に表示される仮想オブジェクトの位置にすると、該仮想オブジェクトに対して規定された動作の一例として、関連付けされている工場内の各機器から発信されている情報(進捗管理、エラー情報、取扱方法)にアクセスできる。より好ましくは、表示システムにおいて、エラーの緊急度やアクセスできるデータの種類に応じて、予め設定された対応関係に基づいて仮想オブジェクトの色や形を変更させてもよい。これにより、エラーの緊急度やアクセスできるデータの種類などをユーザに分かりやすく報知することができる。
より好ましくは、仮想オブジェクトに関する情報はユーザごと、またはユーザの所属するグループ(部署等)に対応付けられてもよい。このようにすることで、予め当該表示システムにログインすることによって、ユーザまたはユーザの所属するグループに付与された権限により該ユーザまたはグループに応じた(操作可能または許可された)仮想オブジェクトが表示される。
図4や図5に表わされたように、表示システムでの表示では、仮想オブジェクトがある範囲に複数近接して表示される場合がある。このとき、ディスプレイ400にて異なる奥行きが設定された複数の仮想オブジェクトが近接して表示されると、2次元平面の表示画面では仮想オブジェクトの表示が重なり、ユーザがそのうちの所望する仮想オブジェクトを指定し難くなる。
そこで、本実施の形態にかかる表示システムは、仮想オブジェクトに規定された表示位置(3次元座標)とポインタ200で指定された位置(3次元座標)との間の距離に応じた表示処理を実行することで、このような場合であっても、ユーザが所望する仮想オブジェクトを指定しやすいように表示する。
<機能構成>
図6は、本実施の形態にかかる表示システムが上の動作概要で説明された動作を行なうための、処理装置100の機能構成の具体例を示すブロック図である。図6は、主に、図示しないCPUがメモリに記憶されるプログラムを読み出して実行することで、CPUが画像処理統括部として機能する場合の機能構成の具体例を示している。図6に示された機能は、主にCPU上に構成されるものである。しかしながら、その一部がハードウェア構成で実現されてもよい。
図6を参照して、画像処理統括部として機能する処理装置100のCPUは、カメラ300からの撮影画像の入力を受付けるためのカメラ画像入力部101と、入力された撮影画像に対して画像認識処理を行なうための画像認識処理部102と、ポインタ200の形状を記憶しておくためのポインタ形状記憶部103と、必要に応じて記憶されているポインタ200の形状を用いて撮影画像上にポインタ200を表示させる表示データを生成するためのポインタ表示データ生成部104と、画像認識処理部102での処理結果に基づいて、ポインタ200での表示位置(以下、ポインタ位置とも称する)と仮想オブジェクトの表示位置との距離を算出するための仮想オブジェクト−ポインタ間距離判定部105と、仮想オブジェクトごとに表示位置を記憶するための仮想オブジェクト座標記憶部106と、表示させる仮想オブジェクトの形状を記憶するための仮想オブジェクト形状記憶部107と、仮想オブジェクトを表示させる表示データを生成するための仮想オブジェクト表示データ生成部108と、仮想オブジェクトに対して規定された動作を実行するための仮想オブジェクトアクション処理部109と、ディスプレイ400に対して表示画像と制御信号とを送信して該表示画像を表示させるように制御するための表示制御部110とを含む。
さらに図6を参照して、画像認識処理部102は、ポインタ座標検出部1021と、仮想オブジェクト表示領域検出部1022とを含む。
ポインタ座標検出部1021は、ポインタ200で指示された位置を撮影画像上で特定するための機能である。具体的には、入力された撮影画像からポインタ形状記憶部103に記憶されているポインタ200の形状を検出し、撮影画像上における位置や奥行きを特定する。そして、該撮影座標に設定された3次元座標系においてその3次元の位置を表わす座標(以下、ポインタ座標とも称する)に換算する。
ポインタ200が上述のポインティングデバイスである場合には、処理装置100は、この機能に替えてポインティングデバイスであるポインタ200から検出結果の入力を受付けて、その検出結果に基づいて撮影画像上の位置を特定する機能を有する。
仮想オブジェクト表示領域検出部1022は、撮影画像において仮想オブジェクトが表示される領域を特定するための機能である。具体的には、仮想オブジェクト座標記憶部106に予め仮想オブジェクトに規定されている情報として該仮想オブジェクトの3次元座標系での表示位置が記憶されており、仮想オブジェクト表示領域検出部1022は、入力された撮影画像に対して設定された3次元の座標系に基づいて、該仮想オブジェクトの表示位置を含む領域を表示領域として検出する。
また、仮想オブジェクト表示領域検出部1022は、後述する表示処理によって仮想オブジェクトについて予め規定されている表示位置が変化した場合に、変化後の表示位置を特定する。そして、仮想オブジェクト座標記憶部106は、変化後の表示位置も記憶する。
仮想オブジェクト−ポインタ間距離判定部105は、3次元座標系で表わされたポインタ座標および仮想オブジェクト座標とからその間の距離を求める。
さらに、仮想オブジェクト−ポインタ間距離判定部105は、予め基準距離を記憶しておき、算出された距離が該基準距離よりも小さい場合、すなわち、仮想オブジェクトの表示位置として規定された位置から所定範囲内が指定された場合に、該仮想オブジェクトが特定されたと判定し、その結果を仮想オブジェクトアクション処理部109に入力する。仮想オブジェクトアクション処理部109はかかる判定結果に応じて該仮想オブジェクトに対して規定されている動作を実行する。すなわち、予め規定されている動作、または、予め規定されている図示しない装置に対して制御信号を出力する動作、などを実行する。
また、仮想オブジェクト表示データ生成部108は、予め仮想オブジェクトの画像情報や該画像情報を決定するための情報を記憶しておき、仮想オブジェクト−ポインタ間距離判定部105での判定結果に応じて、仮想オブジェクトの表示形態を決定して仮想オブジェクトを表示させるための画像情報を生成する。
<基本の表示動作フロー>
本実施の形態にかかる表示システムにおいて、ユーザから見える現実世界を表わす撮影画像にコンピュータグラフィックス等によって描かれた仮想物体(仮想オブジェクト)を表わす画像情報を重畳して表示させる動作について説明する。ここでは、具体例として、拡張現実感の研究のためにワシントン大学HIT研究室で開発されたソフトウェアライブラリとしてのプログラムを用いて実現される動作について説明する。用いられるプログラムはこのプログラムに限定されない。
図7は、基本の表示動作の具体例を示すフローチャートである。図7のフローチャートに示される動作は、処理装置100の図示しないCPUがメモリに記憶されている上述のようなプログラムを読み出して実行することによって実現される。
図7を参照して、まず、処理が開始するとステップS101で画像処理統括部として機能するCPUは、初期化処理を実行する。ここでの初期化処理の一つとして、図示しないメモリに記憶されている撮影画像に対して設定した座標系を初期化する処理が含まれる。
ステップS103でCPUは、カメラ300からの撮影画像の入力を受付けて、撮影画像を取得する。CPUは、撮影画像(1フレーム)が入力されるごとに画像情報を重畳してディスプレイ400に表示させる処理を実行し、ディスプレイ400に表示画像を送信する動作を繰り返す。これにより、カメラ300の移動に伴って連続的に入力される撮影画像に連続的に3次元の仮想オブジェクトが表示されるようになる。
ステップS105でCPUは、入力された撮影画像を図示しない描画用のメモリに描画し、ステップS107でそのメモリに展開された画像の中から座標系の基準となる位置を特定するコンテンツを表わす撮影画像に含まれる画像を、マーカとして検出する。CPUは、予め基準とする状態でのマーカとする画像、および、そのマーカと撮影空間に設定される3次元座標系における座標との関係を記憶している。
一例として、CPUはマーカの画像として図8の画像を記憶しているものとする。そして、一例として、撮影空間のこのマーカの画像に表わされた板状のコンテンツのある位置を、3次元座標系の原点とし、このコンテンツに対して3方向に、x軸、y軸、z軸を設定する、との3次元座標系との対応関係を記憶しているものとする。
この場合、ステップS107でCPUは、メモリに展開した撮影画像から図8の画像を検索する。そして、その画像またはその画像に近似した画像を検出すると、撮影画像内にマーカが存在すると認識し、ステップS109でCPUは、その信頼度を比較する。ステップS109での処理の一例として、CPUは、予め記憶されているマーカの画像と検出された画像とを比較し、その相関度合いが基準として設定されているものを満たしているか否かで信頼度を比較する。
その後、ステップS111でCPUは、撮影画像から検出されたマーカの画像の位置や、検出されたマーカの画像と記憶している画像との比較に基づいて、この撮影画像を撮影した時のカメラ300の位置や方向を計算する。そして、ステップS113で、計算されたカメラ300の位置や方向に基づいて、撮影画像に対して、予めマーカとした画像の位置を原点とし、マーカとした画像の傾きに応じてx軸、y軸、z軸を設定する。
さらに、記憶されている仮想オブジェクトの情報に基づいて、表示位置として3次元座標で記憶されているそれぞれの仮想オブジェクト座標を撮影画像に設定された3次元座標系において特定し、撮影画像の奥行きや傾きに応じて仮想オブジェクトの画像を変換(変形)した上で、特定された位置に合成する。これにより、撮影画像上に仮想オブジェクトが、規定された表示位置に、その撮影位置、撮影方向に応じた形状で3次元に描画される。
たとえば、図8の画像がマーカの画像として記憶されているところ、撮影画像中に図9(A)の画像がマーカとして検出された場合、カメラ300の撮影位置がマーカで表わされたコンテンツの正面よりも向かって右側上方、撮影方向が該コンテンツを見下ろす角度と、カメラ300の位置や方向が計算される。CPUは、予め該マーカとの関係で規定されている3次元の座標系を撮影位置、撮影方向に基づいて撮影画像に対して設定する。
さらに、仮想オブジェクトに関する情報において、図8の画像に示されたマーカとするコンテンツのある原点を表示位置とする仮想オブジェクトがあり、その仮想オブジェクトの形状が立方体である場合、CPUは、その仮想オブジェクトの形状をカメラ300から該コンテンツまでの距離や方向などに基づいて変形して、規定された表示位置に合成する。これにより、図9(B)に示されるように、原点とするマーカの画像の近傍にマーカで表わされたコンテンツと同じ位置、方向から見たように変形された形状の3次元の仮想オブジェクトが描画される。
ステップS115でCPUは、以上の処理で得られた、撮影画像に仮想オブジェクトの画像が重畳された表示画像を、ディスプレイ400に表示のための制御信号と共に送信する。これにより、ディスプレイ400では表示画像を表示させる処理が実行され、図9(B)に示されたように撮影画像上に仮想オブジェクトが重畳した状態で表示される。
CPUは、表示の終了を要求する信号が入力されるまで、カメラ300から撮影画像が入力されるたびに以上の処理を繰り返す。そして、表示の終了を要求する信号の入力を受付けると(ステップS117でYES)、一連の動作を終了する。
<仮想オブジェクト−ポインタ間距離の算出フロー>
画像処理統括部として機能する処理装置100のCPUは、上述のように、仮想オブジェクトの表示された3次元座標系上の位置と、ディスプレイ400の表示画面上でポインタ200で指定された位置を該3次元座標系に換算した位置との間の距離に応じた表示処理を実行する。そこで、仮想オブジェクト−ポインタ間距離判定部105での距離の計算方法について説明する。
図10は、表示システムでの表示の一例を示す図である。図10を参照して、仮想オブジェクトAと仮想オブジェクトBとが撮影画像に重畳して表示されているものとする。この場合、仮想オブジェクト座標記憶部106は、それぞれの仮想オブジェクトの表示位置を示す3次元座標系の座標値を記憶している。一例として、図11に示されるように、仮想オブジェクトごとに設定された表示位置を示す3次元座標値をテーブル形式で記憶している。
CPUは、さらに、撮影画像が入力されるたびにポインタ200の撮影画像における位置を検出し、その位置を該撮影画像に設定された3次元座標系上での位置に換算して3次元座標系のポインタ座標を取得する。
図12は、仮想オブジェクト−ポインタ間距離を計算する動作の具体例を示すフローチャートである。
図12を参照して、画像処理統括部として機能する処理装置100のCPUは、ステップS201で記憶されている3次元座標系上でのポインタ座標の値と各仮想オブジェクトの座標値とを参照し、ステップS203で一例として、それぞれの座標値の差の二乗の和の平方根を算出してユークリッド距離を求めることで、ポインタ位置と各仮想オブジェクトの表示位置との間のそれぞれの、撮影画像に設定された3次元座標系における距離を計算する。
以下、計算されたポインタ位置と仮想オブジェクトの表示位置との間の距離を用いた表示処理の例について説明する。
<表示処理例1>
図13は、ポインタ位置と仮想オブジェクトの位置との間の距離を用いた表示処理の第1の例を説明する図である。図13を参照して、第1の例では、画像処理統括部として機能する処理装置100のCPUは、ポインタ位置から予め規定された範囲内に表示される仮想オブジェクトの形状を大きくするように、予め当該仮想オブジェクトに対して設定されている画像情報を変換する。すなわち、図13(A)に示されるように、指先に装着されたポインタ200の位置と表示されている1つの仮想オブジェクトとの間の距離が所定の距離となった場合に、図13(B)に示されるように、該仮想オブジェクトの表示される形状を大きくするように変形する。
この表示処理を行なうため、仮想オブジェクト表示データ生成部108は、予め、ポインタ200の位置と仮想オブジェクトとの間の距離Dの範囲ごとに、上記変形の度合いを記憶しておく。図14は、距離Dの範囲と仮想オブジェクトの表示倍率との対応関係を示す図である。図14に示されるように、ポインタ200の位置と仮想オブジェクトとの間の距離Dが小さくなるほど表示倍率が大きくなるような関係が規定されており、たとえば図14のテーブル形式などで、この関係が仮想オブジェクト表示データ生成部108に予め記憶されている。
図15は、第1の表示処理のための動作の具体例を示すフローチャートである。図15を参照して、ステップS301で画像処理統括部として機能する処理装置100のCPUは、ポインタ位置と仮想オブジェクトの表示位置との間の距離Dを算出する。ステップS301の動作の詳細は図12で説明されたものである。
ステップS303でCPUは、ステップS301で算出された距離Dに基づいて、仮想オブジェクトごとに図14の対応関係より表示倍率を決定する。そして、ステップS305でCPUは、当該仮想オブジェクトについて予め規定されている形状を決定された表示倍率を用いて変形してその仮想オブジェクトを表示させるための画像情報を生成する。
この画像を撮影画像に合成することにより、図13に示されたような表示が実現される。これにより、ポインタ位置に近い仮想オブジェクトほどその外表面がポインタ位置に近づくことになる。そのため、ポインタ200を装着したユーザは、その仮想オブジェクトを指定しやすくなる。
なお、以上の説明では、ポインタ位置から予め規定された範囲内に仮想オブジェクトの表示位置があれば、該当する仮想オブジェクトの形状を大きくするものとしているが、好ましくは、ポインタ位置から予め規定された第1の範囲内に仮想オブジェクトの表示位置があり、かつ、ポインタ位置から第1の範囲よりも広い第2の範囲内に複数の仮想オブジェクトの表示位置がある場合に、第1の範囲内の仮想オブジェクトの形状を大きくするようにしてもよい。これは、以降の表示処理例2〜4でも同様である。
このようにすることで、ポインタ位置から第2の範囲内に複数の仮想オブジェクトが表示され、ユーザが指定しようとする仮想オブジェクトが重なりあって指定し難い状態であっても、その範囲内のよりポインタ位置に近い第1の範囲内に表示される仮想オブジェクト、すなわち、ユーザが指定する可能性の高い仮想オブジェクトの大きさが大きくなるため、ポインタ200を装着したユーザは仮想オブジェクトを指定しやすくなる。
<表示処理例2>
図16は、ポインタ位置と仮想オブジェクトの位置との間の距離を用いた表示処理の第2の例を説明する図である。図16を参照して、第2の例では、画像処理統括部として機能する処理装置100のCPUは、ポインタ位置から予め規定された範囲内に表示される仮想オブジェクトの形状をポインタ位置に近づく形状に変化させるように、予め当該仮想オブジェクトに対して設定されている画像情報を変換する。すなわち、図16(A)に示されるように、指先に装着されたポインタ200の位置と表示されている1つの仮想オブジェクトとの間の距離DAが所定の距離となった場合に、図16(B)に示されるように、該仮想オブジェクトの表示される形状をポインタ位置に近づく形状に変化させるように変形する。
この表示処理を行なうため、仮想オブジェクト表示データ生成部108は、予め、ポインタ200の位置と仮想オブジェクトとの間の距離Dの範囲ごとに、仮想オブジェクトの形状を記憶しておく。図17は、距離Dの範囲と仮想オブジェクトの形状との対応関係を示す図である。図17に示されるように、ポインタ200の位置と仮想オブジェクトとの間の距離Dが小さくなるほどポインタ位置により近づくような関係で仮想オブジェクトの形状が規定されており、たとえば図17のテーブル形式などで、この関係が仮想オブジェクト表示データ生成部108に予め記憶されている。
なお、図17の例は、仮想オブジェクトの形状そのものがポインタ200の位置との間の距離Dとの関係で記憶されているものとしているが、仮想オブジェクト表示データ生成部108が予め記憶されている形状を変形させるための変換式を記憶している場合、該変換式のパラメータをポインタ200の位置との間の距離Dとの関係で記憶していてもよい。
図18は、第2の表示処理のための動作の具体例を示すフローチャートである。図18を参照して、ステップS401で画像処理統括部として機能する処理装置100のCPUは、ポインタ位置と仮想オブジェクトの表示位置との間の距離Dを算出する。ステップS401の動作の詳細は図12で説明されたものである。
ステップS403でCPUは、ステップS401で算出された距離Dに基づいて、仮想オブジェクトごとに図17の対応関係より形状を決定する。
さらに、ステップS405でCPUは、ポインタ位置と仮想オブジェクトの位置とに基づいて、仮想オブジェクトの表示位置からポイント位置までの角度を検出する。
そして、ステップS407でCPUは、決定された形状を検出された角度となるように回転処理してその仮想オブジェクトを表示させるための画像情報を生成する。
この画像を撮影画像に合成することにより、図16に示されたような表示が実現される。これにより、ポインタ位置に近い仮想オブジェクトほどその外表面がポインタ位置に近づくことになる。さらに、どの方向にポインタ200を動かせば仮想オブジェクトにより近づくのかが認識しやすくなる。そのため、ポインタ200を装着したユーザは、その仮想オブジェクトを指定しやすくなる。
<表示処理例3>
図19は、ポインタ位置と仮想オブジェクトの位置との間の距離を用いた表示処理の第3の例を説明する図である。図19を参照して、第3の例では、画像処理統括部として機能する処理装置100のCPUは、ポインタ位置から予め規定された範囲内に表示される仮想オブジェクトをポインタ位置に近づくように移動させる。すなわち、図19に示されるように、指先に装着されたポインタ200の位置と表示されている1つの仮想オブジェクトとの間の距離Dが所定の距離Dtである場合に、該仮想オブジェクトの表示位置をポインタ位置に近づけるように移動させる。
この表示処理を行なうため、仮想オブジェクト表示データ生成部108は、予め、ポインタ200の位置と仮想オブジェクトとの間の距離Dの範囲ごとに、仮想オブジェクトの表示位置の移動量を記憶しておく。図20は、距離Dの範囲と仮想オブジェクトの移動量との対応関係を示す図である。図20に示されるように、ポインタ200の位置と仮想オブジェクトとの間の距離Dが小さくなるほど移動量が大きくなり、ポインタ位置により近づくような関係で仮想オブジェクトの移動量が規定されており、たとえば図20のテーブル形式などで、この関係が仮想オブジェクト表示データ生成部108に予め記憶されている。
図21は、第3の表示処理のための動作の具体例を示すフローチャートである。図21を参照して、ステップS501で画像処理統括部として機能する処理装置100のCPUは、ポインタ位置と仮想オブジェクトの表示位置との間の距離Dを算出する。ステップS501の動作の詳細は図12で説明されたものである。
算出された距離Dが予め規定されているしきい値とする距離Dtよりも小さい場合、すなわち、ポインタ位置が仮想オブジェクトの表示位置から予め規定された距離内であった場合(ステップS503でYES)、ステップS505でCPUは、ステップS501で算出された距離Dに基づいて、該当する仮想オブジェクトについて図20の対応関係より移動距離を決定し、ステップS507で規定されている表示位置に対して決定された移動量だけ移動させるように、新たな表示位置を計算する。
そして、ステップS509でCPUは、決定された表示位置に仮想オブジェクトを表示させるように該仮想オブジェクトの画像を撮影画像に合成する。
この処理により、図19に示されたような表示が実現される。これにより、ポインタ位置から所定の範囲内に表示される仮想オブジェクトは、規定されている表示位置がポインタ位置に近いほどポインタ位置に近づいた位置に表示されることになる。そのため、ポインタ200を装着したユーザは、その仮想オブジェクトを指定しやすくなる。
なお、より好ましくは、いったんポインタ位置に移動した仮想オブジェクトがその後の表示処理によってポインタ位置との間の距離Dが上記しきい値とされる距離Dtよりも大きくなった場合、すなわち、その後に該仮想オブジェクトから遠い位置が指定された場合、該仮想オブジェクトの表示位置を元の規定された表示位置に戻す。
図22はその場合の動作の具体例を示すフローチャートであって、図21のステップS509の後に実行される動作を表わしている。すなわち、図22を参照して、ステップS505〜S509の処理によって表示位置を変更した仮想オブジェクトについて、CPUは、ステップS511で、さらに、表示に用いた撮影画像の後に入力された撮影画像から検出されるポイント位置と該仮想オブジェクトの位置との間の距離Dを算出する。算出された距離Dが予め規定されているしきい値とする距離Dtよりも大きい場合、すなわち、ポインタ位置が仮想オブジェクトの位置から予め規定された距離よりも外となった場合(ステップS513でYES)、ステップS515でCPUは、当該仮想オブジェクトを記憶されている該仮想オブジェクトに対して規定されている表示位置に表示させるように、該仮想オブジェクトの画像を撮影画像に合成する。
図23は、この処理が実行されることによる表示の変化を説明する図である。図23を参照して、上の動作によって表示位置が移動したことによって、図23(A)に示されるように、指先に装着されたポインタ200の位置の近くに表示された仮想オブジェクトにから、図23(B)で点線で示されたように、その後の撮影画像においてポインタ位置がしきい値とする距離Dtよりも遠くなると、図23(B)に示されたように、該仮想オブジェクトが元の(規定された)表示位置に戻ることになる。そのため、ポインタ200で指定しない仮想オブジェクトは元の位置に戻ることになり、ポインタ200を装着したユーザは、所望する仮想オブジェクトをより指定しやすくなる。
なお、ポインタ位置と仮想オブジェクトの位置との間の距離に基づいて該仮想オブジェクトの表示態様を変化させた後、ポインタ位置と該仮想オブジェクトの位置との間の距離が離れた場合に、該仮想オブジェクトの表示態様を元に戻す動作が、表示処理例3において行なわれるものとして説明しているが、同様に、上述の表示処理例1、2、および後述する表示処理例4でもなされてもよい。
すなわち、表示処理例1においては、ポインタ位置と仮想オブジェクトの表示位置との間の距離に基づいて該仮想オブジェクトの形状を大きくした後にポインタ位置と該仮想オブジェクトの位置との間の距離がしきい値Dt以上離れたことが検出されると、該仮想オブジェクトの形状を元に戻すようにしてもよい。同様に、表示処理例2においては、ポインタ位置と仮想オブジェクトの表示位置との間の距離に基づいて該仮想オブジェクトの形状をポインタ位置に近づく形状に変化させた後にポインタ位置と該仮想オブジェクトの位置との間の距離がしきい値Dt以上離れたことが検出されると、該仮想オブジェクトの形状を元に戻すようにしてもよい。
なお、上の説明では、ポインタ位置に近づける動作で用いたしきい値とする距離と元の表示位置に戻す動作で用いたしきい値とする距離とが同じ距離Dtであるものとしているが、これらが異なる距離であってもよい。
<表示処理例4>
図24は、ポインタ位置と仮想オブジェクトの表示位置との間の距離を用いた表示処理の第4の例を説明する図である。図24を参照して、第4の例では、画像処理統括部として機能する処理装置100のCPUは、ポインタ位置から予め規定された範囲内に表示される仮想オブジェクトであって、かつ、ポインタ200が当該仮想オブジェクトに向かう方向に移動している仮想オブジェクトを、ポインタ位置に近づくように移動させる。すなわち、図24(A)に示されるように、指先に装着されたポインタ200の位置と表示されている1つの仮想オブジェクトとの間の距離DAがしきい値とする距離Dtよりも小さくなり、かつ、図24(A)において点線で示されるように、ポインタ200が該仮想オブジェクトに向かう方向に移動している場合に、図24(B)に示されるように、該仮想オブジェクトをポインタ位置に近づくように移動させる。
この表示処理を行なうため、仮想オブジェクト表示データ生成部108は、予め、ポインタ200の位置と仮想オブジェクトとの間の距離Dの範囲ごとに、仮想オブジェクトの表示位置の移動量を記憶しておく。図25は、距離Dの範囲と仮想オブジェクトの移動量との対応関係を示す図である。図25に示されるように、ポインタ200の位置と仮想オブジェクトとの間の距離Dが小さくなるほど移動量が大きくなり、ポインタ位置により近づくような関係で仮想オブジェクトの移動量が規定されており、たとえば図25のテーブル形式などで、この関係が仮想オブジェクト表示データ生成部108に予め記憶されている。
図26は、第4の表示処理のための動作の具体例を示すフローチャートである。図26を参照して、ステップS601で画像処理統括部として機能する処理装置100のCPUは、ポインタ位置と仮想オブジェクトの表示位置との間の距離Dを算出する。ステップS601の動作の詳細は図12で説明されたものである。
算出された距離Dが予め規定されているしきい値とする距離Dtよりも小さい場合、すなわち、ポインタ位置が仮想オブジェクトの表示位置から予め規定された距離内であった場合(ステップS603でYES)、ステップS605でCPUは、ポインタ200の移動ベクトルを計算する。ステップS605での処理の具体例として、CPUは、ポインタ座標検出部1021において検出されたポインタ座標を記憶しておき、ある時間間隔で入力された2以上の撮影画像からそれぞれ検出されたポインタ座標を用いて、これらの間でのポインタ座標の変化量を移動ベクトルとして計算する。
CPUは、距離Dが距離Dtよりも小さいと判断された仮想オブジェクトについて記憶されている表示位置と、ステップS605で計算されたポインタ位置の移動ベクトルとに基づいて、該移動ベクトルの延長上または延長上から所定範囲内に仮想オブジェクトの表示位置があるか否かを判断する。その結果、その範囲内に該仮想オブジェクトの表示位置があると判断された場合(ステップS607でYES)、ステップS609でCPUは、該仮想オブジェクトについて図25の対応関係より移動距離を決定し、ステップS611で現在の表示位置に対して決定された移動量だけ移動させるように、新たな表示位置を計算する。
そして、ステップS509でCPUは、決定された位置に仮想オブジェクトを表示させるように該仮想オブジェクトの画像を撮影画像に合成する。
この処理により、図24に示されたような表示が実現される。これにより、ポインタ位置が向かってきており、そのポインタ位置から所定の範囲内に表示される仮想オブジェクトは、その位置がポインタ位置に近いほどポインタ位置に近づくことになる。そのため、ポインタ200を装着したユーザは、その仮想オブジェクトを指定しやすくなる。
<表示処理例3および表示処理例4の変形例>
表示処理例3または表示処理例4での表示の一例として、ポインタ位置からしきい値とする距離Dtよりも小さい距離に表示される仮想オブジェクトが所定の条件を満たすことで、図27に示されるように、その仮想オブジェクトの表示位置が、現在の表示位置とポインタ位置とを結ぶ直線の方向に、決定された移動量だけ移動した位置に決定される。
しかしながら、この方法で表示位置を決定すると、上記条件を満たす複数の仮想オブジェクトが表示されている場合、それぞれがポインタ位置に向かう方向で移動することになるため、複数の仮想オブジェクトがポインタ位置に近い位置で接近して表示されることになる。このように表示されると、ポインタ200を装着したユーザが所望する仮想オブジェクトを指定し難い場合がある。
そこで、表示処理例3および表示処理例4の変形例として、上記条件を満たす複数の仮想オブジェクトが表示されている場合には画像処理統括部として機能する処理装置100のCPUは、仮想オブジェクト同士が接近しない様にポインタ側へ移動させるように、それぞれの仮想オブジェクトの変更後の表示位置を決定する。
図28は、表示位置の第1の決定方法を説明する図である。図28を参照して、第1の方法として、CPUは、ポインタ位置からそれぞれの表示位置が等距離または略等距離にある仮想オブジェクトA,Bの表示位置を結ぶ直線を設定し、該直線から直角の方向に所定量移動させた位置を変更後の表示位置として決定する。
このように決定された表示位置に仮想オブジェクトを表示させることによって、図28に示されるように、仮想オブジェクトA,Bが接近することなくポインタ位置に近づいて表示される。
図29は、表示位置の第2の決定方法を説明する図である。図29を参照して、第2の方法として、CPUは、ポインタ位置からそれぞれの表示位置が等距離または略等距離にある仮想オブジェクトA,Bのそれぞれの表示位置とポインタ座標とを、他方の仮想オブジェクトから遠い側を凸として結ぶ予め規定された二次曲線を設定し、該二次曲線の接線方向に所定量移動させた位置を変更後の表示位置として決定する。
このように決定された表示位置に仮想オブジェクトを表示させることによって、図29に示されるように、仮想オブジェクトA,Bが接近することなくポインタ位置に近づいて表示される。
なお、CPUは、表示位置を決定する処理に替えて、仮想オブジェクト同士が接近しないでポインタ側へ移動させるように、それぞれの仮想オブジェクトを変更後の表示位置で表示させるを異ならせるようにしてもよい。
<変形例>
なお、以上の表示処理例1〜4は、2以上が組み合わされてもよい。
さらに、上述の表示処理を、処理装置100に実行させるためのプログラムを提供することもできる。このようなプログラムは、コンピュータに付属するフレキシブルディスク、CD−ROM(Compact Disk-Read Only Memory)、ROM、RAMおよびメモリカードなどのコンピュータ読取り可能な記録媒体にて記録させて、プログラム製品として提供することもできる。あるいは、コンピュータに内蔵するハードディスクなどの記録媒体にて記録させて、プログラムを提供することもできる。また、ネットワークを介したダウンロードによって、プログラムを提供することもできる。
なお、本発明にかかるプログラムは、コンピュータのオペレーティングシステム(OS)の一部として提供されるプログラムモジュールのうち、必要なモジュールを所定の配列で所定のタイミングで呼出して処理を実行させるものであってもよい。その場合、プログラム自体には上記モジュールが含まれずOSと協働して処理が実行される。このようなモジュールを含まないプログラムも、本発明にかかるプログラムに含まれ得る。
また、本発明にかかるプログラムは他のプログラムの一部に組込まれて提供されるものであってもよい。その場合にも、プログラム自体には上記他のプログラムに含まれるモジュールが含まれず、他のプログラムと協働して処理が実行される。このような他のプログラムに組込まれたプログラムも、本発明にかかるプログラムに含まれ得る。
提供されるプログラム製品は、ハードディスクなどのプログラム格納部にインストールされて実行される。なお、プログラム製品は、プログラム自体と、プログラムが記録された記録媒体とを含む。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
100 処理装置、101 カメラ画像入力部、102 画像認識処理部、103 ポインタ形状記憶部、104 ポインタ表示データ生成部、105 ポインタ間距離判定部、106 仮想オブジェクト座標記憶部、107 仮想オブジェクト形状記憶部、108 仮想オブジェクト表示データ生成部、109 仮想オブジェクトアクション処理部、110 表示制御部、200 ポインタ、300 カメラ、400 ディスプレイ、1021 ポインタ座標検出部、1022 仮想オブジェクト表示領域検出部。

Claims (15)

  1. 撮影画像に仮想オブジェクトの画像を合成して表示するための表示システムであって、
    カメラと、
    ディスプレイと、
    表示処理装置とを備え、
    前記表示処理装置は、
    前記仮想オブジェクトに関する情報として、当該仮想オブジェクトを3次元で表示させるための画像情報と、撮影された空間に対して設定された3次元の座標系で表わされた当該仮想オブジェクトの表示位置と、当該仮想オブジェクトが選択されることによって実行される動作とを規定する情報を記憶するための記憶手段と、
    前記カメラによる撮影画像に対して前記3次元の座標系を設定し、前記仮想オブジェクトに対して規定された前記表示位置に基づいて前記撮影画像に前記仮想オブジェクトの画像を合成して合成画像を生成し、前記ディスプレイで表示させる処理を実行するための表示処理手段と、
    ユーザによって指定された前記3次元の座標系における位置を検出するための検出手段と、
    前記合成画像における前記仮想オブジェクトの表示位置から所定範囲に前記指定された位置が含まれる場合に前記仮想オブジェクトが選択されたものとして、前記仮想オブジェクトに対して規定された動作を実行するための実行手段とを含み、
    前記表示処理手段は、前記撮影画像における前記仮想オブジェクトについて規定された前記表示位置と前記指定された位置との間の距離が予め記憶されている基準値よりも小さい場合に、前記仮想オブジェクトの画像を前記撮影画像に対して、前記合成画像において前記仮想オブジェクトが前記指定された位置に近くなるように合成する、表示システム。
  2. 前記表示処理手段は、前記距離が前記基準値よりも小さく、かつ、前記指定された位置から所定の範囲に複数の仮想オブジェクトについての規定された前記表示位置が含まれる場合に、前記距離が前記基準値よりも小さい前記仮想オブジェクトの画像を前記撮影画像に対して、前記合成画像において前記仮想オブジェクトが前記指定された位置に近くなるように合成する、請求項1に記載の表示システム。
  3. 前記表示処理手段は、前記距離が前記基準値よりも小さい前記仮想オブジェクトの画像を拡大して、前記撮影画像の前記仮想オブジェクトについて規定された前記表示位置に合成する、請求項1または2に記載の表示システム。
  4. 前記表示処理手段は、前記仮想オブジェクトの画像を前記距離に応じた倍率で拡大する、請求項3に記載の表示システム。
  5. 前記表示処理手段は、前記距離が前記基準値よりも小さい前記仮想オブジェクトの形状を、前記指定された位置に接近する形状に変形して、前記撮影画像の前記仮想オブジェクトについて規定された前記表示位置に合成する、請求項1または2に記載の表示システム。
  6. 前記表示処理手段は、前記仮想オブジェクトの形状を前記距離に応じた前記指定された位置への接近度合いに変形させる、請求項5に記載の表示システム。
  7. 前記表示処理手段は、前記距離が前記基準値よりも小さい前記仮想オブジェクトの画像を、前記撮影画像の前記仮想オブジェクトについて規定された前記表示位置よりも前記指定された位置に近い位置に合成する、請求項1または2に記載の表示システム。
  8. 前記表示処理手段は、前記仮想オブジェクトの画像を、前記撮影画像の前記仮想オブジェクトについて規定された前記表示位置よりも、前記距離に応じて前記指定された位置側に移動させた位置を前記合成画像における前記仮想オブジェクトの表示位置として決定し、前記決定された位置に合成する、請求項7に記載の表示システム。
  9. 前記表示処理手段は、第1の撮影画像に対して前記指定された位置に近くなるように仮想オブジェクトの画像を合成して第1の合成画像を生成した後に、前記第1の撮影画像の後に前記カメラから入力された第2の撮影画像に対して前記仮想オブジェクトの画像を合成して第2の合成画像を生成する際に、前記第1の合成画像における前記仮想オブジェクトの表示位置と前記第2の撮影画像から検出された前記指定された位置との間の距離が前記基準値よりも大きい場合に、前記仮想オブジェクトに対して規定された前記表示位置に規定された前記画像情報に基づく画像を合成する、請求項1〜8のいずれかに記載の表示システム。
  10. 前記表示処理手段は、前記距離が前記基準値よりも小さく、かつ、第1の撮影画像から検出された前記指定された位置と前記第1の撮影画像の直前に前記カメラから入力された第2の撮影画像から検出された前記指定された位置とで得られる前記指定された位置の移動方向が前記仮想オブジェクトに対して規定された前記表示位置に向いている場合に、前記距離が前記基準値よりも小さい前記仮想オブジェクトの画像を、前記合成画像において前記仮想オブジェクトが前記指定された位置に近くなるように合成する、請求項1または2に記載の表示システム。
  11. 前記検出手段は、前記撮影画像を解析して前記撮影画像から予め記憶されているポインタ画像を検出することによって、前記ユーザによって前記ポインタを用いて指定された位置を検出する、請求項1〜10のいずれかに記載の表示システム。
  12. 位置情報を検出するセンサを含んだポインティングデバイスをさらに備え、
    前記表示処理装置の検出手段は、前記撮影画像に対して設定された前記3次元の座標系と前記ポインティングデバイスで検出された位置情報とから、前記ユーザによって前記ポインティングデバイスを用いて指定された位置を検出する、請求項1〜10のいずれかに記載の表示システム。
  13. 撮影画像に仮想オブジェクトの画像を合成してディスプレイで表示画面を表示させるための表示処理装置であって、
    前記撮影画像の入力を受付けるための入力手段と、
    前記仮想オブジェクトに関する情報として、当該仮想オブジェクトを3次元で表示させるための画像情報と、撮影された空間に対して設定された3次元の座標系で表わされた当該仮想オブジェクトの表示位置と、当該仮想オブジェクトが選択されることによって実行される動作とを規定する情報を記憶するための記憶手段と、
    前記ディスプレイに前記表示画面を表示させる処理を実行するための表示処理手段とを備え、
    前記表示処理手段は、
    前記撮影画像に対して前記3次元の座標系を設定し、前記仮想オブジェクトに対して規定された前記表示位置に基づいて前記撮影画像に前記仮想オブジェクトの画像を合成して合成画像を生成する処理と、
    ユーザによって指定された前記3次元の座標系における位置を検出する処理とを実行し、
    前記表示処理手段は、前記合成画像を生成する処理において、前記撮影画像における前記仮想オブジェクトについて規定された前記表示位置と前記指定された位置との間の距離が予め記憶されている基準値よりも小さい場合に、前記仮想オブジェクトの画像を前記撮影画像に対して、前記合成画像において前記仮想オブジェクトが前記指定された位置に近くなるように合成する、表示処理装置。
  14. 表示処理装置において、撮影画像に仮想オブジェクトの画像を合成した合成画像をディスプレイで表示させる方法であって、
    前記表示処理装置は、前記仮想オブジェクトに関する情報として、当該仮想オブジェクトを3次元で表示させるための画像情報と、撮影された空間に対して設定された3次元の座標系で表わされた当該仮想オブジェクトの表示位置と、当該仮想オブジェクトが選択されることによって実行される動作とを規定する情報をし、
    カメラから撮影画像の入力を受付けるステップと、
    前記撮影画像に対して前記3次元の座標系を設定するステップと、
    ユーザによって指定された前記3次元の座標系における位置を検出するステップと、
    前記撮影画像における前記仮想オブジェクトについて規定された前記表示位置と前記指定された位置との間の距離と、予め記憶されている基準値とを比較し、前記距離が前記基準値よりも小さい場合に、前記仮想オブジェクトの画像を前記撮影画像に対して、前記合成画像において前記仮想オブジェクトが前記指定された位置に近くなるように合成するステップとを備える、表示方法。
  15. 表示処理装置に、撮影画像に仮想オブジェクトの画像を合成した合成画像をディスプレイで表示させる処理を実行させるためのプログラムであって、
    前記表示処理装置は、前記仮想オブジェクトに関する情報として、当該仮想オブジェクトを3次元で表示させるための画像情報と、撮影された空間に対して設定された3次元の座標系で表わされた当該仮想オブジェクトの表示位置と、当該仮想オブジェクトが選択されることによって実行される動作とを規定する情報をし、
    カメラから撮影画像の入力を受付けるステップと、
    前記撮影画像に対して前記3次元の座標系を設定するステップと、
    ユーザによって指定された前記3次元の座標系における位置を検出するステップと、
    前記撮影画像における前記仮想オブジェクトについて規定された前記表示位置と前記指定された位置との間の距離と、予め記憶されている基準値とを比較し、前記距離が前記基準値よりも小さい場合に、前記仮想オブジェクトの画像を前記撮影画像に対して、前記合成画像において前記仮想オブジェクトが前記指定された位置に近くなるように合成するステップとを前記表示処理装置に実行させる、表示プログラム。
JP2010258775A 2010-11-19 2010-11-19 表示システム、表示処理装置、表示方法、および表示プログラム Expired - Fee Related JP5472056B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010258775A JP5472056B2 (ja) 2010-11-19 2010-11-19 表示システム、表示処理装置、表示方法、および表示プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010258775A JP5472056B2 (ja) 2010-11-19 2010-11-19 表示システム、表示処理装置、表示方法、および表示プログラム

Publications (2)

Publication Number Publication Date
JP2012108842A true JP2012108842A (ja) 2012-06-07
JP5472056B2 JP5472056B2 (ja) 2014-04-16

Family

ID=46494376

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010258775A Expired - Fee Related JP5472056B2 (ja) 2010-11-19 2010-11-19 表示システム、表示処理装置、表示方法、および表示プログラム

Country Status (1)

Country Link
JP (1) JP5472056B2 (ja)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013187129A1 (ja) * 2012-06-12 2013-12-19 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
JP2014010664A (ja) * 2012-06-29 2014-01-20 Sony Computer Entertainment Inc 映像処理装置、映像処理方法、および映像処理システム
JP2015075832A (ja) * 2013-10-07 2015-04-20 コニカミノルタ株式会社 Ar表示システム、およびar表示装置、情報処理装置、プログラム
KR20160091889A (ko) * 2013-10-01 2016-08-03 퀀텀 인터페이스, 엘엘씨 선택 인력형 인터페이스, 이러한 인터페이스를 포함하는 시스템 및 장치, 이를 제조하고 사용하는 방법
JP2017033575A (ja) * 2014-07-31 2017-02-09 キヤノンマーケティングジャパン株式会社 情報処理システム、その制御方法、及びプログラム、並びに、情報処理装置、その制御方法、及びプログラム
JP2017163560A (ja) * 2017-04-06 2017-09-14 京セラ株式会社 表示装置、システムおよび表示方法
JP2018517967A (ja) * 2015-08-26 2018-07-05 グーグル エルエルシー 仮想現実における、頭部、ジェスチャ、およびタッチ入力の動的な切り替えならびにマージ
US10341642B2 (en) 2012-09-27 2019-07-02 Kyocera Corporation Display device, control method, and control program for stereoscopically displaying objects
US10503359B2 (en) 2012-11-15 2019-12-10 Quantum Interface, Llc Selection attractive interfaces, systems and apparatuses including such interfaces, methods for making and using same
US11205075B2 (en) 2018-01-10 2021-12-21 Quantum Interface, Llc Interfaces, systems and apparatuses for constructing 3D AR environment overlays, and methods for making and using same
JP2021196855A (ja) * 2020-06-14 2021-12-27 株式会社スクウェア・エニックス 拡張現実表示装置及びプログラム
US11221748B2 (en) 2014-06-04 2022-01-11 Quantum Interface, Llc Apparatuses for selection objects in Virtual or Augmented Reality environments
US11226714B2 (en) 2018-03-07 2022-01-18 Quantum Interface, Llc Systems, apparatuses, interfaces and implementing methods for displaying and manipulating temporal or sequential objects
JP2022121592A (ja) * 2017-04-19 2022-08-19 マジック リープ, インコーポレイテッド ウェアラブルシステムのためのマルチモード実行およびテキスト編集
US11775074B2 (en) 2014-10-01 2023-10-03 Quantum Interface, Llc Apparatuses, systems, and/or interfaces for embedding selfies into or onto images captured by mobile or wearable devices and method for implementing same

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05342322A (ja) * 1992-06-08 1993-12-24 Toshiba Corp ポインティング装置
JPH0816353A (ja) * 1994-06-28 1996-01-19 Sharp Corp オブジェクト表示拡大方法
JPH1195971A (ja) * 1997-09-24 1999-04-09 Sharp Corp ユーザインタフェースシステム
JP2002351592A (ja) * 2001-05-15 2002-12-06 Internatl Business Mach Corp <Ibm> 選択ポインタの近接度に基づいてグラフィカル・ユーザ・インターフェース(gui)ウィジェットを拡大/縮小するための方法及びシステム
JP2005251118A (ja) * 2004-03-08 2005-09-15 Canon Inc 画像処理方法、画像処理装置
JP2005352738A (ja) * 2004-06-10 2005-12-22 I Technology:Kk ターゲット位置予測を用いたポインティング操作システム
JP2006127158A (ja) * 2004-10-28 2006-05-18 Canon Inc 画像処理方法、画像処理装置
JP2007042055A (ja) * 2005-06-30 2007-02-15 Canon Inc 画像処理方法、画像処理装置
JP2010123121A (ja) * 2008-11-17 2010-06-03 Honeywell Internatl Inc シースルー・ディスプレイに現実世界の対象物の位置をマークする方法及び装置
JP2010238098A (ja) * 2009-03-31 2010-10-21 Ntt Docomo Inc 端末装置、情報提示システム及び端末画面表示方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05342322A (ja) * 1992-06-08 1993-12-24 Toshiba Corp ポインティング装置
JPH0816353A (ja) * 1994-06-28 1996-01-19 Sharp Corp オブジェクト表示拡大方法
JPH1195971A (ja) * 1997-09-24 1999-04-09 Sharp Corp ユーザインタフェースシステム
JP2002351592A (ja) * 2001-05-15 2002-12-06 Internatl Business Mach Corp <Ibm> 選択ポインタの近接度に基づいてグラフィカル・ユーザ・インターフェース(gui)ウィジェットを拡大/縮小するための方法及びシステム
JP2005251118A (ja) * 2004-03-08 2005-09-15 Canon Inc 画像処理方法、画像処理装置
JP2005352738A (ja) * 2004-06-10 2005-12-22 I Technology:Kk ターゲット位置予測を用いたポインティング操作システム
JP2006127158A (ja) * 2004-10-28 2006-05-18 Canon Inc 画像処理方法、画像処理装置
JP2007042055A (ja) * 2005-06-30 2007-02-15 Canon Inc 画像処理方法、画像処理装置
JP2010123121A (ja) * 2008-11-17 2010-06-03 Honeywell Internatl Inc シースルー・ディスプレイに現実世界の対象物の位置をマークする方法及び装置
JP2010238098A (ja) * 2009-03-31 2010-10-21 Ntt Docomo Inc 端末装置、情報提示システム及び端末画面表示方法

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9773333B2 (en) 2012-06-12 2017-09-26 Sony Corporation Information processing device, information processing method, and program
WO2013187129A1 (ja) * 2012-06-12 2013-12-19 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
JPWO2013187129A1 (ja) * 2012-06-12 2016-02-04 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
JP2014010664A (ja) * 2012-06-29 2014-01-20 Sony Computer Entertainment Inc 映像処理装置、映像処理方法、および映像処理システム
US10341642B2 (en) 2012-09-27 2019-07-02 Kyocera Corporation Display device, control method, and control program for stereoscopically displaying objects
US10503359B2 (en) 2012-11-15 2019-12-10 Quantum Interface, Llc Selection attractive interfaces, systems and apparatuses including such interfaces, methods for making and using same
JP2017500673A (ja) * 2013-10-01 2017-01-05 クアンタム インターフェイス エルエルシー 選択引力インターフェース、このようなインターフェースを有するシステム及び装置、これを作成及び使用する方法
KR20160091889A (ko) * 2013-10-01 2016-08-03 퀀텀 인터페이스, 엘엘씨 선택 인력형 인터페이스, 이러한 인터페이스를 포함하는 시스템 및 장치, 이를 제조하고 사용하는 방법
KR102352556B1 (ko) * 2013-10-01 2022-01-18 퀀텀 인터페이스, 엘엘씨 선택 인력형 인터페이스, 이러한 인터페이스를 포함하는 시스템 및 장치, 이를 제조하고 사용하는 방법
US10901578B2 (en) 2013-10-01 2021-01-26 Quantum Interface Llc Selection attractive interfaces, systems and apparatuses including such interfaces, methods for making and using same
JP2015075832A (ja) * 2013-10-07 2015-04-20 コニカミノルタ株式会社 Ar表示システム、およびar表示装置、情報処理装置、プログラム
US11221748B2 (en) 2014-06-04 2022-01-11 Quantum Interface, Llc Apparatuses for selection objects in Virtual or Augmented Reality environments
JP2020102232A (ja) * 2014-07-31 2020-07-02 キヤノンマーケティングジャパン株式会社 情報処理システム、その制御方法、及びプログラム、並びに、情報処理装置、その制御方法、及びプログラム
JP2017033575A (ja) * 2014-07-31 2017-02-09 キヤノンマーケティングジャパン株式会社 情報処理システム、その制御方法、及びプログラム、並びに、情報処理装置、その制御方法、及びプログラム
US11775074B2 (en) 2014-10-01 2023-10-03 Quantum Interface, Llc Apparatuses, systems, and/or interfaces for embedding selfies into or onto images captured by mobile or wearable devices and method for implementing same
JP2018517967A (ja) * 2015-08-26 2018-07-05 グーグル エルエルシー 仮想現実における、頭部、ジェスチャ、およびタッチ入力の動的な切り替えならびにマージ
JP2017163560A (ja) * 2017-04-06 2017-09-14 京セラ株式会社 表示装置、システムおよび表示方法
JP7336005B2 (ja) 2017-04-19 2023-08-30 マジック リープ, インコーポレイテッド ウェアラブルシステムのためのマルチモード実行およびテキスト編集
US11960636B2 (en) 2017-04-19 2024-04-16 Magic Leap, Inc. Multimodal task execution and text editing for a wearable system
JP2022121592A (ja) * 2017-04-19 2022-08-19 マジック リープ, インコーポレイテッド ウェアラブルシステムのためのマルチモード実行およびテキスト編集
US11205075B2 (en) 2018-01-10 2021-12-21 Quantum Interface, Llc Interfaces, systems and apparatuses for constructing 3D AR environment overlays, and methods for making and using same
US11663820B2 (en) 2018-01-10 2023-05-30 Quantum Interface Llc Interfaces, systems and apparatuses for constructing 3D AR environment overlays, and methods for making and using same
US11972609B2 (en) 2018-01-10 2024-04-30 Quantum Interface Llc Interfaces, systems and apparatuses for constructing 3D AR environment overlays, and methods for making and using same
US11550444B2 (en) 2018-03-07 2023-01-10 Quantum Interface Llc Systems, apparatuses, interfaces and implementing methods for displaying and manipulating temporal or sequential objects
US11226714B2 (en) 2018-03-07 2022-01-18 Quantum Interface, Llc Systems, apparatuses, interfaces and implementing methods for displaying and manipulating temporal or sequential objects
US11568608B2 (en) 2020-06-14 2023-01-31 Square Enix Co., Ltd. Augmented reality display device and program recording medium
JP7369669B2 (ja) 2020-06-14 2023-10-26 株式会社スクウェア・エニックス 拡張現実表示装置及びプログラム
JP2021196855A (ja) * 2020-06-14 2021-12-27 株式会社スクウェア・エニックス 拡張現実表示装置及びプログラム

Also Published As

Publication number Publication date
JP5472056B2 (ja) 2014-04-16

Similar Documents

Publication Publication Date Title
JP5472056B2 (ja) 表示システム、表示処理装置、表示方法、および表示プログラム
JP6057396B2 (ja) 3次元ユーザインタフェース装置及び3次元操作処理方法
JP5936155B2 (ja) 3次元ユーザインタフェース装置及び3次元操作方法
JP5871345B2 (ja) 3次元ユーザインタフェース装置及び3次元操作方法
JP5843340B2 (ja) 3次元環境共有システム及び3次元環境共有方法
JP5709440B2 (ja) 情報処理装置、情報処理方法
JP4926826B2 (ja) 情報処理方法および情報処理装置
JP5565331B2 (ja) 表示システム、表示処理装置、表示方法、および表示プログラム
US11490062B2 (en) Information processing apparatus, information processing method, and storage medium
KR20120017783A (ko) 증강 현실에서 위치 정보를 표시하는 방법 및 장치
JP2016122392A (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
JP2006252468A (ja) 画像処理方法、画像処理装置
JP2021135776A (ja) 情報処理装置、情報処理方法、およびプログラム
CN111813214B (zh) 虚拟内容的处理方法、装置、终端设备及存储介质
JP2022058753A (ja) 情報処理装置、情報処理方法及びプログラム
JP2009258884A (ja) ユーザインタフェイス
CN113498531A (zh) 头戴式信息处理装置以及头戴式显示系统
KR101338958B1 (ko) 멀티터치 단말기에서 가상물체의 3차원 움직임 조작시스템 및 방법
JP6726016B2 (ja) 情報処理装置、情報処理方法
JP6882147B2 (ja) 操作案内システム
US20230367403A1 (en) Terminal device, virtual object manipulation method, and virtual object manipulation program
JP7401245B2 (ja) 画像合成装置、画像合成装置の制御方法およびプログラム
WO2022172335A1 (ja) 仮想ガイド表示装置、仮想ガイド表示システム、及び仮想ガイド表示方法
WO2023048018A1 (ja) 表示装置、表示装置の制御方法およびプログラム
JP2023021808A (ja) 支援システム、支援側装置、支援方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130620

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140120

R150 Certificate of patent or registration of utility model

Ref document number: 5472056

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees