JP2013168167A - 情報処理装置、および情報処理方法、並びに情報記録媒体 - Google Patents

情報処理装置、および情報処理方法、並びに情報記録媒体 Download PDF

Info

Publication number
JP2013168167A
JP2013168167A JP2013082909A JP2013082909A JP2013168167A JP 2013168167 A JP2013168167 A JP 2013168167A JP 2013082909 A JP2013082909 A JP 2013082909A JP 2013082909 A JP2013082909 A JP 2013082909A JP 2013168167 A JP2013168167 A JP 2013168167A
Authority
JP
Japan
Prior art keywords
display unit
data
information
display
composite image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013082909A
Other languages
English (en)
Other versions
JP5472509B2 (ja
Inventor
Koichi Matsuda
晃一 松田
Masaki Fukuchi
正樹 福地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2013082909A priority Critical patent/JP5472509B2/ja
Publication of JP2013168167A publication Critical patent/JP2013168167A/ja
Application granted granted Critical
Publication of JP5472509B2 publication Critical patent/JP5472509B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】表示部外に移動したカーソル等を仮想オブジェクトとして表示し観察可能な構成を実現する。
【解決手段】PCなどの表示部の外側領域にはみ出したカーソルまたはオブジェクトを仮想オブジェクトとして表示する。例えばユーザの装着したメガネのディスプレイにPCなどの表示装置とその外部領域の画像を表示する。ユーザ操作に応じて移動したと想定されるカーソルまたはオブジェクトの三次元位置を算出し、算出した位置に仮想オブジェクトとして表示する。またカーソルによって指定されたオブジェクトに対応するオブジェクト情報を取得して提示する。
【選択図】図1

Description

本発明は、情報処理装置、および情報処理方法、並びに情報記録媒体に関する。さらに詳細には、実世界の実物体と電子的な表示を融合させた複合現実感(MR:Mixed Reality)を利用したデータ処理を行う情報処理装置、および情報処理方法、並びに情報記録媒体に関する。
例えばユーザがPC(パーソナルコンピュータ)を利用したデータ処理を行う場合、ユーザは、PCの表示部(ディスプレイ)の表示データに対する処理を行う。しかし、限定された範囲の表示部のみを対象としたデータ処理には以下のような問題がある。
(1)PC等の表示部に表示したマウスカーソルをマウスで操作すると、表示部の画面領域の端部でその移動が止まってしまう。このため、マウスカーソルで表示部内のオブジェクトやウィンドウを操作していても表示部の画面領域外に移動させることができない。
(2)PC等の表示部の表示領域がユーザの利用するウィンドウなどで一杯になった場合、多数のウィンドウが重なって表示されることにあり、下にあるウィンドウを見たい場合は、ユーザが下側のウィンドウを選択して上側に表示する処理や、重なったウィンドウをアイコン化するなどの操作が必要となる。しかし前者の処理を行えば、下に持って行かれたウィンドウ、後者の場合にはアイコン化されたウィンドウの内容を見ることができなくなる。
このような問題がある。なお、PC等の表示部のサイズ以上の領域を利用するための処理として以下の処理が可能である。
(a)新たな物理的なディスプレイを用意し、ユーザの操作するコンピュータに接続して、複数のディスプレイを利用可能とする。
(b)1つの表示部内に仮想デスクトップを設定して利用する。
しかし、前者(a)の場合は、ディスプレイを追加するためのコスト、スペースが必要となるという問題がある。また、後者(b)は実際に表示部に表示されている以外の部分にアクセスするために、ユーザ操作によるコマンド入力や、トレイなどに表示されるアイコンの操作が必要であるという問題がある。
本発明は、このような問題を、例えば複合現実感(MR:Mixed Reality)を利用したデータ処理を利用して解決するものである。なお、複合現実感について説明した従来技術としては、例えば特許文献1(特開2008−304268号公報)や、特許文献2(特開2008−304269号公報)がある。これらの文献には、カメラによって撮影された画像を利用して実世界の三次元マップを作成する処理について記載している。
特開2008−304268号公報 特開2008−304269号公報
本発明は、複合現実感(MR:Mixed Reality)を利用した処理により、例えばPCなどの表示部(ディスプレイ)に限定されることなく、表示部以外の空間領域を有効に利用したデータ処理を可能とした情報処理装置、および情報処理方法、並びに情報記録媒体を提供することを目的とする。
本発明の第1の側面は、
カメラ撮影画像である実オブジェクトと、仮想オブジェクトとの合成画像を生成するデータ処理部を有し、
前記データ処理部は、
前記カメラ撮影画像に情報端末の表示部である端末表示部が含まれる場合、
実オブジェクトである前記端末表示部の表示データと、仮想オブジェクトである前記表示データの関連データを含み、前記関連データの表示領域を前記表示データの表示領域外に設定した合成画像を生成して合成画像表示部に出力する情報処理装置にある。
さらに、本開示の情報処理装置の一実施態様において、前記情報処理装置は、前記データ処理部の生成した合成画像を表示する合成画像表示部を有する。
さらに、本開示の情報処理装置の一実施態様において、前記合成画像表示部は、頭部装着可能なメガネ型の表示部である。
さらに、本開示の情報処理装置の一実施態様において、前記端末表示部は、携帯情報端末の表示部であり、前記データ処理部は、携帯情報端末の表示部に表示されたデータの関連データを仮想オブジェクトに設定した合成画像を生成して前記合成画像表示部に出力する。
さらに、本開示の情報処理装置の一実施態様において、前記データ処理部は、前記端末表示部の表示データの関連データからなる仮想オブジェクトの出力位置を、前記端末表示部の領域外に設定した合成画像を生成して前記表示部に出力する。
さらに、本開示の情報処理装置の一実施態様において、前記データ処理部は、前記端末表示部の表示データに連続するデータからなる仮想オブジェクトの出力位置を前記端末表示部の表示データに連続する領域に設定した合成画像を生成する。
さらに、本開示の情報処理装置の一実施態様において、前記データ処理部は、前記端末表示部の表示データに対するユーザ操作に応じて、前記表示データを前記端末表示部外に移動させて仮想オブジェクトとして出力した合成画像を生成する。
さらに、本開示の情報処理装置の一実施態様において、前記データ処理部は、前記端末表示部の表示データである位置指示子に対するユーザ操作に応じて、位置指示子を前記端末表示部外に移動させて仮想オブジェクトとして出力した合成画像を生成する。
さらに、本開示の情報処理装置の一実施態様において、前記データ処理部は、前記合成画像表示部に表示された仮想オブジェクトに対するユーザ操作によって仮想オブジェクト位置が前記端末表示部の表示領域内に移動した場合、該仮想オブジェクト対応データを前記端末表示部に表示させるための表示要求を前記情報端末に出力する。
さらに、本開示の情報処理装置の一実施態様において、前記データ処理部は、前記合成画像表示部に表示されたカメラ撮影画像である実オブジェクトに対するユーザ操作によって実オブジェクト位置が前記端末表示部の表示領域に移動した場合、実オブジェクト対応データを前記端末表示部に表示させるための表示要求を前記情報端末に出力する。
さらに、本開示の情報処理装置の一実施態様において、前記データ処理部は、前記端末表示部または前記合成画像表示部に表示されたデータに対応する音楽情報を前記合成画像表示部に表示する。
さらに、本開示の情報処理装置の一実施態様において、前記データ処理部は、前記端末表示部または前記合成画像表示部に表示されたデータが、特定の音楽コンテンツを識別可能なデータである場合、識別された音楽コンテンツに対応する音楽情報を前記合成画像表示部に表示する。
さらに、本開示の情報処理装置の一実施態様において、前記データ処理部は、前記端末表示部または前記合成画像表示部に表示されたデータが、音楽コンテンツを格納したメディアまたはメディアケースの画像データである場合、該画像データに基づいて特定される音楽コンテンツの関連音楽情報を前記合成画像表示部に表示する。
さらに、本開示の情報処理装置の一実施態様において、前記音楽情報は、音楽コンテンツの曲名、アーティスト、ジャンルまたは価格のいずれかの情報を含む。
さらに、本開示の情報処理装置の一実施態様において、前記合成画像表示部は、カメラを備えたメガネ型の構成を有する。
さらに、本開示の情報処理装置の一実施態様において、前記合成画像表示部は、通信部を備えたメガネ型の構成を有する。
さらに、本開示の情報処理装置の一実施態様において、前記データ処理部は、前記関連データをデータベースまたはサーバをから取得する。
さらに、本開示の情報処理装置の一実施態様において、前記データ処理部は、前記関連データの取得に失敗した場合は、エラーメッセージ通知を実行する。
さらに、本開示の情報処理装置の一実施態様において、前記データ処理部の実行する処理は、前記情報処理装置の記憶部にインストール可能なプログラムに従って実行される。
さらに、本開示の第2の側面は、
カメラ撮影画像である実オブジェクトと、仮想オブジェクトとの合成画像を生成させるプログラムを記録した情報記録媒体であり、
前記プログラムは、情報処理装置のデータ処理部に、
前記カメラ撮影画像に情報端末の表示部である端末表示部が含まれる場合、
実オブジェクトである前記端末表示部の表示データと、仮想オブジェクトである前記表示データの関連データを含み、前記関連データの表示領域を前記表示データの表示領域外に設定した合成画像を生成して合成画像表示部に出力する処理を実行させるプログラムである情報記録媒体にある。
さらに、本開示の情報記録媒体の一実施態様において、前記プログラムは、前記データ処理部に、前記情報処理装置に備えられた合成画像表示部に合成画像の表示処理を実行させる。
さらに、本開示の情報記録媒体の一実施態様において、前記プログラムは、前記データ処理部に、頭部装着可能なメガネ型の合成画像表示部に合成画像の表示処理を実行させる。
さらに、本開示の情報記録媒体の一実施態様において、前記端末表示部は、携帯情報端末の表示部であり、前記プログラムは、前記データ処理部に、携帯情報端末の表示部に表示されたデータの関連データを仮想オブジェクトに設定した合成画像を生成して前記合成画像表示部に出力させる。
さらに、本開示の情報記録媒体の一実施態様において、前記プログラムは、前記データ処理部に、前記端末表示部の表示データの関連データからなる仮想オブジェクトの出力位置を、前記端末表示部の領域外に設定した合成画像を生成して前記表示部に出力させる。
さらに、本開示の情報記録媒体の一実施態様において、前記プログラムは、前記データ処理部に、前記端末表示部の表示データに連続するデータからなる仮想オブジェクトの出力位置を前記端末表示部の表示データに連続する領域に設定した合成画像を生成させる。
さらに、本開示の情報記録媒体の一実施態様において、前記プログラムは、前記データ処理部に、前記端末表示部の表示データに対するユーザ操作に応じて、前記表示データを前記端末表示部外に移動させて仮想オブジェクトとして出力した合成画像を生成させる。
さらに、本開示の情報記録媒体の一実施態様において、前記プログラムは、前記データ処理部に、前記端末表示部の表示データである位置指示子に対するユーザ操作に応じて、位置指示子を前記端末表示部外に移動させて仮想オブジェクトとして出力した合成画像を生成させる。
さらに、本開示の情報記録媒体の一実施態様において、前記プログラムは、前記データ処理部に、前記合成画像表示部に表示された仮想オブジェクトに対するユーザ操作によって仮想オブジェクト位置が前記端末表示部の表示領域内に移動した場合、該仮想オブジェクト対応データを前記端末表示部に表示させるための表示要求を前記情報端末に出力させる。
さらに、本開示の情報記録媒体の一実施態様において、前記プログラムは、前記データ処理部に、前記合成画像表示部に表示されたカメラ撮影画像である実オブジェクトに対するユーザ操作によって実オブジェクト位置が前記端末表示部の表示領域に移動した場合、実オブジェクト対応データを前記端末表示部に表示させるための表示要求を前記情報端末に出力させる。
さらに、本開示の情報記録媒体の一実施態様において、前記プログラムは、前記データ処理部に、前記端末表示部または前記合成画像表示部に表示されたデータに対応する音楽情報を前記合成画像表示部に表示させる。
さらに、本開示の情報記録媒体の一実施態様において、前記プログラムは、前記データ処理部に、前記端末表示部または前記合成画像表示部に表示されたデータが、特定の音楽コンテンツを識別可能なデータである場合、識別された音楽コンテンツに対応する音楽情報を前記合成画像表示部に表示させる。
さらに、本開示の情報記録媒体の一実施態様において、前記プログラムは、前記データ処理部に、前記端末表示部または前記合成画像表示部に表示されたデータが、音楽コンテンツを格納したメディアまたはメディアケースの画像データである場合、該画像データに基づいて特定される音楽コンテンツの関連音楽情報を前記合成画像表示部に表示させる。
さらに、本開示の情報記録媒体の一実施態様において、前記音楽情報は、音楽コンテンツの曲名、アーティスト、ジャンルまたは価格のいずれかの情報を含む。
さらに、本開示の情報記録媒体の一実施態様において、前記プログラムは、前記データ処理部に、カメラを備えたメガネ型の構成を有する合成画像表示部に合成画像の表示を実行させる。
さらに、本開示の情報記録媒体の一実施態様において、前記プログラムは、前記データ処理部に、通信部を備えたメガネ型の構成を有する合成画像表示部に合成画像の表示を実行させる。
さらに、本開示の情報記録媒体の一実施態様において、前記プログラムは、前記データ処理部に、前記関連データをデータベースまたはサーバをから取得させる。
さらに、本開示の情報記録媒体の一実施態様において、前記プログラムは、前記データ処理部に、前記関連データの取得に失敗した場合、エラーメッセージ通知を実行させる。
さらに、本開示の情報記録媒体の一実施態様において、前記プログラムは、前記情報記録媒体にインストールされたプログラムである。
さらに、本開示の第3の側面は、
情報処理装置において情報処理を実行する情報処理方法であり、
前記情報処理装置は、カメラ撮影画像である実オブジェクトと、仮想オブジェクトとの合成画像を生成するデータ処理部を有し、
前記データ処理部は、
前記カメラ撮影画像に情報端末の表示部である端末表示部が含まれる場合、
実オブジェクトである前記端末表示部の表示データと、仮想オブジェクトである前記表示データの関連データを含み、前記関連データの表示領域を前記表示データの表示領域外に設定した合成画像を生成して合成画像表示部に出力する処理を実行する情報処理方法にある。
なお、本発明のプログラムは、例えば、様々なプログラム・コードを実行可能な画像処理装置やコンピュータ・システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、画像処理装置やコンピュータ・システム上でプログラムに応じた処理が実現される。
本発明のさらに他の目的、特徴や利点は、後述する本発明の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
本発明の一実施例の構成によれば、PCなどの表示部の外側領域にはみ出したカーソルまたはオブジェクトを仮想オブジェクトとして表示する。例えばユーザの装着したメガネのディスプレイにPCなどの表示装置とその外部領域の画像を表示する。ユーザ操作に応じて移動したと想定されるカーソルまたはオブジェクトの三次元位置を算出し、算出した位置に仮想オブジェクトとして表示する。またカーソルによって指定されたオブジェクトに対応するオブジェクト情報を取得して提示する。本構成により、表示部の外に出てしまったデータを常に観察して確認することが可能となり、データ処理効率を高めることができる。
本発明の情報処理装置の実行する一処理例について説明する図である。 本発明の情報処理装置の実行する一処理例について説明する図である。 本発明の情報処理装置の実行する一処理例について説明する図である。 本発明の情報処理装置の構成例について説明する図である。 本発明の情報処理装置の処理によってユーザの装着したメガネのディスプレイに表示される表示データの例について説明する図である。 本発明の情報処理装置の実行する処理シーケンスについて説明するフローチャートを示す図である。 本発明の情報処理装置の実行する処理の一例を示す具体的な処理例について説明する図である。 本発明の情報処理装置の処理によってユーザの装着したメガネのディスプレイに表示される表示データの例について説明する図である。 本発明の情報処理装置の実行する処理シーケンスについて説明するフローチャートを示す図である。 本発明の情報処理装置の実行する処理の一例を示す具体的な処理例について説明する図である。 本発明の情報処理装置の実行する処理の一例を示す具体的な処理例について説明する図である。 本発明の情報処理装置の構成例について説明する図である。 本発明の情報処理装置の処理によってユーザの装着したメガネのディスプレイに表示される表示データの例について説明する図である。 本発明の情報処理装置の実行する処理シーケンスについて説明するフローチャートを示す図である。
以下、図面を参照しながら本発明の情報処理装置、および情報処理方法、並びに情報記録媒体の詳細について説明する。
本発明について以下の項目に従って順次説明する。
1.本発明の情報処理装置の実行する処理の概要について
2.本発明の情報処理装置の第1実施例の構成および処理について
3.本発明の情報処理装置の第2実施例の構成および処理について
4.本発明の情報処理装置の第3実施例の構成および処理について
5.本開示の構成のまとめ
[1.本発明の情報処理装置の実行する処理の概要について]
まず、本発明の情報処理装置の実行する処理の概要について、図1〜図3を参照して説明する。本発明は、複合現実感(MR:Mixed Reality)を利用した処理により、例えばPCなどの表示部(ディスプレイ)以外の空間領域を有効に利用したデータ処理を可能とするものである。
図1は、本発明の情報処理装置の実行する処理の一例を示す図である。図1には、ユーザの操作する例えばPCなどの表示部10を示している。なお、詳細構成については後述するが、ユーザは複合現実感(MR:Mixed Reality)生成装置の生成画像を表示するディスプレイを有するメガネを装着してPCの操作を行っている。
メガネには周囲の環境を撮影するカメラが備えられ、メガネのディスプレイには、カメラの撮影画像と複合現実感(MR:Mixed Reality)生成装置の生成する仮想オブジェクトの合成画像が表示される。図1(a),(b)の各図は、ユーザの装着したメガネのディスプレイに表示され、ユーザが観察する画像である。
ユーザは、例えば図1(a)に示すように表示部10に文書を表示して、文書作成を行っている。この処理は一般的なPCの操作である。図1(a)に示す表示部10には、ユーザの操作するマウスに対応して移動する位置指示子としてのマウスカーソル11aが表示されている。
ユーザは、マウスを操作することで、マウスカーソル11aを移動させることができる。従来装置では、マウスカーソルの移動範囲は表示部10の表示領域に限定される。しかし、本発明の構成を適用すると、マウスカーソルの移動範囲は表示部10の表示領域に限定されない。
例えば、ユーザのマウス操作によって図1(a)に示す移動ライン12に従ってマウスカーソル11aを移動させると、図1(b)に示すように、マウスカーソルは、表示部10の外側の空間に移動させることができる。図1(b)に示すマウスカーソル11bである。この図1(b)に示すマウスカーソル11bは、複合現実感(MR)生成装置の生成する仮想オブジェクトである。ユーザは、ユーザの装着したメガネのディスプレイに表示される仮想オブジェクトであるマウスカーソル11bを観察する。このように、本発明の構成を適用すると、表示部10の内外を問わず、自在にマウスカーソル11を移動させることが可能となる。
図2も、本発明の情報処理装置の実行する処理の一例を示す図である。図2にも、図1と同様、ユーザの操作する例えばPCなどの表示部10を示している。ユーザは、複合現実感(MR:Mixed Reality)生成装置の生成する画像を表示するディスプレイを備えたメガネを装着している。図2(a),(b)の各図は、ユーザの装着したメガネのディスプレイに表示され、ユーザが観察する画像である。
図2(a)に示す表示部10には、マウスカーソル11aと、マウスカーソル11aによって指定されたオブジェクト21aが表示されている。この例において、オブジェクト21aは、PC内部にある時計表示アプリケーションの実行によって表示部10に表示されたオブジェクトである。
ユーザは、マウス操作によってマウスカーソル11aをオブジェクト21a上に移動させて、マウス操作を行いオブジェクト指定処理を実行して、さらに、図2(a)に示す移動ライン22に従ってマウスカーソル11aを移動させる。
この処理によって、マウスカーソルと指定されたオブジェクト21を表示部10の外側の空間に移動させることができる。図2(b)に示すオブジェクト21bである。この図2(b)に示すオブジェクト21bは、複合現実感(MR)生成装置の生成する仮想オブジェクトである。ユーザは、ユーザの装着したメガネのディスプレイに表示されるオブジェクト21bを観察する。このように、本発明の構成を適用すると、マウスカーソルのみならず、表示部10に表示されたオブジェクトを表示部の内外を問わず、自在に移動させることが可能となる。
図3も、本発明の情報処理装置の実行する処理の一例を示す図である。図3にも、図1、図2と同様、ユーザの操作する例えばPCなどの表示部10を示している。ユーザは、複合現実感(MR:Mixed Reality)生成装置の生成する画像を表示するディスプレイを備えたメガネを装着している。図3(a),(b)の各図は、ユーザの装着したメガネのディスプレイに表示され、ユーザが観察する画像である。
図3(a)には、先に図1を参照して説明した操作によって、表示部10外に設定されたマウスカーソル11aと、マウスカーソル11aによって指定された実オブジェクト31aを示している。この例において、オブジェクト31aは、空間上に実際に存在する実オブジェクトであり、この例では音楽データを格納したディスクであるCDのジャケット写真である。
ユーザは、マウス操作によってマウスカーソル11aをオブジェクト31a上に設定し、マウス操作を行い、オブジェクトの指定処理を実行する。このオブジェクト指定処理によって指定されたオブジェクトに関する情報、すなわちオブジェクト情報などをデータベースやサーバから取得する。取得したオブジェクト情報を表示部10に表示させる。図3(b)に示すオブジェクト画像31bやオブジェクト情報31cである。
このように、本発明の構成を適用すると、実空間にある様々な実オブジェクトを仮想オブジェクトであるマウスカーソルで指定し、指定オブジェクトの関連情報を取得して、取得データをPC等の情報処理装置の処理データとして取り込み、PC内のアプリケーションの実行によって表示部10に表示させることが可能となる。
[2.本発明の情報処理装置の第1実施例の構成および処理について]
次に、本発明の情報処理装置の第1実施例として図1を参照して説明した処理を実行する装置の構成と処理の詳細について説明する。実施例1は、図1に示すように、ユーザのマウス操作によって図1(a)に示す移動ライン12に従ってマウスカーソル11aを移動させることで、図1(b)に示すようにマウスカーソルを表示部10の外側の空間に移動させる処理を実現する構成例である。
図4は、上記処理を実行する本発明の一実施例に係る情報処理装置の構成を示す図である。ユーザ100は、PC(パーソナルコンピュータ)120を操作して各種のデータ処理を行う。PC120は、図に示すように、マウスドライバ121、マウス座標処理モジュール122、GUI部123、通信部124、アプリケーション実行部125、制御部126、メモリ127、表示部128を有する。また、図の上部に示すマウス129を有する。
マウスドライバ121は、マウス129からの入力情報である位置情報、操作情報を入力する。マウス座標処理モジュール122は、マウスドライバ121を介して入力するマウス129の位置情報に応じて、マウスカーソルの表示位置を決定する。なお、本発明の構成では、マウスカーソルの表示位置は表示部128の表示領域に限らない。
GUI部123は、ユーザからの入力情報の処理、ユーザに対する出力情報の処理などを行うユーザインタフェースである。通信部124は、複合現実感(MR:Mixed Reality)生成装置130との通信処理を行う。
アプリケーション実行部125は、PC120内で実行する様々なデータ処理に対応するアプリケーションを実行する。制御部126は、PC120内で実行する処理の統括的制御を行う。メモリ127はプログラム、データ処理パラメータなどを格納するRAM,ROM等によって構成されるメモリである。表示部128は、例えばLCD等によって構成される表示部である。
ユーザ100は、仮想オブジェクトを表示するディスプレイを有するメガネ141を装着している。メガネ141には周囲の環境を撮影するカメラ142が備えられている。メガネ141とカメラ142は、複合現実感(MR:Mixed Reality)生成装置130に接続されている。ユーザ100はメガネ141に設けられたディスプレイの表示画像を観察しながら作業を行う。
メガネ141のディスプレイには、カメラ142の撮影画像である実世界画像を表示し、さらに複合現実感(MR)生成装置130の生成した仮想オブジェクトを実世界画像に併せて表示する。
図4の例において、ユーザ100はPC(パーソナルコンピュータ)120を操作しており、カメラ142は、ユーザ100の操作するPC(パーソナルコンピュータ)120を撮影している。従って、メガネ141のディスプレイには、実世界画像として、例えば、ユーザ100の操作するPC(パーソナルコンピュータ)120のディスプレイ(表示部128)とその周囲の様々な実オブジェクトを含む画像が表示される。さらに、この実世界画像に複合現実感(MR)生成装置130の生成した仮想オブジェクトが重ねて表示される。ユーザ100の動きに応じて、カメラ142の向きも変更される。
ユーザ100が、PC120の画面に向かって処理を行っている場合、カメラ142はPC120の画面の画像を中心とした画像を撮影する。この結果、例えば図5に示すような表示データ150が、ユーザ100の装着したメガネ141のディスプレイに表示される。この図5に示す表示データ150は、実オブジェクトと仮想オブジェクトの合成画像である。
次に、図4に示す複合現実感(MR)生成装置130の構成について説明する。複合現実感(MR)生成装置130は、図4に示すように、三次元情報解析部131、仮想オブジェクト管理モジュール132、メモリ133、通信部134を有する。
三次元情報解析部131は、ユーザの装着したカメラ142の撮影画像を入力し、撮影画像に含まれるオブジェクトの三次元位置を解析する処理を行う。この三次元位置解析処理は、例えば、SLAM(simultaneous localization and mapping)を適用した処理として行われる。SLAMは、カメラの撮影画像に含まれる様々な実オブジェクトから特徴点を選択し、選択した特徴点の位置とカメラの位置姿勢を併せて検出する処理である。なお、SLAMについては、前述の特許文献1(特開2008−304268号公報)や、特許文献2(特開2008−304269号公報)に記載されている。なお、SLAMの基本的な処理については、論文[Andrew J.Davison,"Real−time simultaneous localisation and mapping with a single camera",Proceedings of the 9th International Conference on Computer Vision,Ninth,(2003)]に記載がある。
三次元情報解析部131は、例えば上記のSLAMを適用してユーザの装着したカメラ142の撮影画像に含まれる実オブジェクトの三次元位置を算出する。ただし三次元情報解析部131は、上記のSLAMに限らず、その他の方法でカメラ撮影画像に含まれるオブジェクトの三次元位置を求める設定であってもよい。
仮想オブジェクト管理モジュール132は、ユーザの装着したメガネ141のディスプレイに表示する仮想オブジェクトの管理を行う。仮想オブジェクトは、メモリ133に格納されたデータである。具体的には、例えば、ユーザの装着したメガネ141のディスプレイには、図5に示す表示データ150が表示される。表示データ150に含まれるPC画像151は、カメラ142によって撮影された実画像(実オブジェクト)である。
例えば、ユーザがPC120のマウス129を移動させた場合、図5に示すPC画像151内に表示されたマウスカーソル152aは、PC画像151の外側まで移動して、仮想オブジェクトとしてのマウスカーソル152bが表示される。
図4に示すユーザ100は、例えば図5に示す実オブジェクトと仮想オブジェクトとの合成画像をメガネ141のディスプレイにおいて観察することができる。図5に示すPC画像151はカメラ142によって撮影された実オブジェクトである。PC画像151内のマウスカーソル152aもPC画像151内に実際に表示されている情報であり実オブジェクトである。なお、ここでは、カメラ142によって撮影される実世界に存在し、カメラで撮影可能なオブジェクトを実オブジェクトとして説明する。
図5に示すPC画像151の外側のマウスカーソル152bは、現実世界のオブジェクト(実オブジェクト)ではない。このマウスカーソル152bは、複合現実感(MR)生成装置130の生成した仮想オブジェクトである。実世界には存在しないが、ユーザの装着したメガネ141のディスプレイに表示されたオブジェクトである。
このようなマウスカーソルの表示処理を行う処理シーケンスについて、図6に示すフローチャートを参照して説明する。なお、ユーザは、図4に示すPC120に接続されたマウス129の操作を行っているものとする。操作情報は、マウスドライバに入力される。この処理以降、図6に示すフローチャートのステップS101以下の処理が行われる。
図6に示すフローチャートのステップS101〜S105の処理は、図4に示すPC120の処理である。
ステップS106〜S109の処理は、図4に示す複合現実感(MR)生成装置130の処理である。
ステップS101において、PC120のマウス座標処理モジュール122がマウスドライバ121からマウスの変位(dX,dY)情報を入力する。
ステップS102において、マウス座標処理モジュール122が、以前のマウスカーソル位置(XP,YP)と、マウスの変位(dX,dY)情報とから、更新後のマウスカーソル位置(XQ,YQ)を算出する。
ステップS103において、マウス座標処理モジュール122が、更新後のマウスカーソル位置(XQ,YQ)が表示部外であるか否かを判定する。更新後のマウスカーソル位置(XQ,YQ)が表示部領域内であれば、ステップS104に進み、PC内の通常のマウスカーソル表示更新処理を実行する。更新後のマウスカーソル位置(XQ,YQ)が表示部領域外の場合は、ステップS105に進む。
ステップS105では、メモリに格納されたマウスカーソル位置情報(XQ,YQ)が、通信部を介して複合現実感(MR)生成装置130に転送される。なお、本実施例では、PC120から複合現実感(MR)生成装置130に転送する位置情報は、マウスカーソルの位置情報のみであり、位置情報がマウスカーソルの位置情報であることは、複合現実感(MR)生成装置130に予め設定済みであるとする。その他のオブジェクトについての位置情報等を転送する場合は、各オブジェクトの識別情報、あるいはオブジェクトの描画データを転送することが必要となる。
ステップS106以降は、複合現実感(MR)生成装置130の処理として行われる。
まず、ステップS106において、複合現実感(MR)生成装置130はPC120から転送されたマウスカーソル位置情報(XQ,YQ)を複合現実感(MR)生成装置130側のメモリ133に格納する。PC120から非表示データ(マウスカーソル描画データ)またはその識別子を受信している場合は、受信データについても複合現実感(MR)生成装置130側のメモリ133に格納する。
次に、ステップS107において、複合現実感(MR)生成装置130の仮想オブジェクト管理モジュール132は、メモリ133に格納されたデータ、すなわち、非表示データ(マウスカーソル描画データ)と位置情報(XQ,YQ)を取得する。
ステップS108において、仮想オブジェクト管理モジュール132は、メモリ133から取得した非表示データ(マウスカーソル)の位置情報を三次元情報解析部131から取得したカメラ撮影画像に対応するカメラ座標系に変換する処理を行う。
この処理について、図7を参照して説明する。三次元情報解析部131はカメラ撮影画像に含まれるPCの表示部200の4隅のマーカー201a〜201dの三次元位置情報を取得している。図7に示すように、
マーカー201a=(xa,ya,za)
マーカー201b=(xb,yb,zb)
マーカー201c=(xc,yc,zc)
マーカー201d=(xd,yd,zd)
これらの位置情報が取得されている。
なお、この位置情報は、カメラ座標系(x,y,z)における位置情報である。
一方、PC120から受領するマウスカーソルの位置情報(XQ,YQ)は、PC表示部平面座標系であり、図7に示すように、例えば表示部の左上端を原点(X,Y)=(0,0)として横方向をX、縦方向をYとする座標面における位置情報である。
仮想オブジェクト管理表示モジュール132は、マーカー201a〜dの三次元位置情報に基づいて、カメラ座標系におけるPCの表示部の平面を算出し、その算出した平面上に、PC120から取得した非表示データ(マウスカーソル描画データ)の設定位置を決定する。この処理のため、PC120から取得した表示部平面座標系(X,Y)で示された位置情報(XQ,YQ)の座標変換を実行して、カメラ座標系(x,y,z)におけるマウスカーソル211qの表示位置(xq,yq,zq)を算出する。
マウスカーソル211qの表示位置(xq,yq,zq)は、
図7に示す表示部200の4隅のマーカー201a〜201dの形成する表示面の平面上の位置に設定される。まず、この表示部200の4隅のマーカー201a〜201dの形成する表示面を求める。
この表示面は、表示部200の4隅のマーカー201a〜201dの4座標から任意の3座標を用いて規定することができる。例えば、
マーカー201a=(xa,ya,za)
マーカー201b=(xb,yb,zb)
マーカー201c=(xc,yc,zc)
上記の3点の座標を用いて規定することができる。
表示面を通るxyz平面(カメラ座標系(x,y,z)における平面)は、これらの3点の座標を用いて下式(式1)のように示すことができる。
(x−xa)(yb−ya)(zc−za)+(xb−xa)(yc−ya)(z−za)+(xc−xa)(y−ya)(zb−za)−(xc−xa)(yb−ya)(z−za)−(xb−xa)(y−ya)(zc−za)−(x−xa)(yc−ya)(zb−za)=0
・・・(式1)
仮想オブジェクト管理表示モジュール132は、PC120から取得した表示部平面座標系(X,Y)で示された位置情報(XQ,YQ)を、カメラ座標系(x,y,z)における上記xyz平面上の位置座標(xq,yq,zq)に変換する処理を行う。
求める座標を図7に示すマウスカーソル211qのカメラ座標系(x,y,z)における座標位置(xq,yq,zq)とする。
また、
マーカー201a=(xa,ya,za)
マーカー201b=(xb,yb,zb)
マーカー201c=(xc,yc,zc)
上記の3点の表示部平面座標系(X,Y)での位置を、それぞれ以下のようにする。
マーカー201a=(0,0)
マーカー201b=(XB,0)
マーカー201c=(0,YC)
表示部平面座標系(X,Y)における以下の各座標、すなわち、
マーカー201a=(0,0)
マーカー201b=(XB,0)
マーカー201c=(0,YC)
マウスカーソル211pの位置(XP,YP)
マウスカーソル211qの位置(XQ,YQ)
これらの位置関係と、
カメラ座標系(x,y,z)における以下の各座標、すなわち、
マーカー201a=(xa,ya,za)
マーカー201b=(xb,yb,zb)
マーカー201c=(xc,yc,zc)
マウスカーソル211pの位置(xp,yp,zp)
マウスカーソル211qの位置(xq,yq,zq)
これらの位置関係は、同じ位置関係にある。
従って、下式が成立する。
(0−XQ)/(0−XB)=(xa−xq)/(xa−xb)
(0−YQ)/(0−YC)=(ya−yq)/(ya−yc)
上記式から、
xq=xa−XQ(xa−xb)/XB ・・・(式2)
yq=ya−YQ(ya−yb)/YC ・・・(式3)
上記関係式(式2),(式3)が導かれる。
上記関係式(式2)、(式3)を前述の式(式1)に代入することで、zqが導かれる。このようにして、マウスカーソル211qの位置(xq,yq,zq)を算出する。
仮想オブジェクト管理モジュール132は、このようにして、図6のフローに示すステップS108において、メモリ133から取得した非表示データの位置情報(XQ,YQ)を三次元情報解析部131から取得したカメラ撮影画像に対応するカメラ座標系の位置(xq,yq,zq)に変換する処理を行う。
次に、ステップS109において、仮想オブジェクト管理モジュール132は、生成したカメラ座標系対応の座標位置(xq,yq,zq)にマウスカーソルを配置して表示する。なお、PC120からマウスカーソル描画データを受信しメモリ133に格納している場合は、メモリ133の格納データに含まれる非表示データ、すなわち、PC120から転送された非表示データ(マウスカーソル描画データ)を、生成したカメラ座標系対応の座標位置(xq,yq,zq)に配置して表示する。
この処理によって、図5に示す表示データ150が、ユーザ100の装着したメガネ141のディスプレイに表示される。図5に示す表示データ150は、実オブジェクトとしてのPC画像151と、仮想オブジェクトとしてのマウスカーソル152bが併せて表示された合成画像である。仮想オブジェクト管理モジュール132は、仮想オブジェクトの表示位置を、図5に示すように、PC表示部の外部空間に設定する。このような表示処理によって、ユーザは、マウスカーソルの移動範囲をPC表示部内に限定されることなく、PC表示部外の空間まで広げることが可能となり、より大きな作業領域を利用したデータ処理を行うことが可能となる。
なお、図6に示すフローチャートを参照して説明した処理は、ユーザがPC120のマウス129を操作し、マウスカーソルの位置が変更されるたびに行われる。マウス座標処理モジュール122は、マウスカーソルの位置が変更される毎に更新データを複合現実感(MR)生成装置130に送信する。複合現実感(MR)生成装置130は更新されたデータに基づいて仮想オブジェクト(マウスカーソル)の表示位置を変更する処理をリアルタイム処理として実行する。
[3.本発明の情報処理装置の第2実施例の構成および処理について]
次に、本発明の情報処理装置の第2実施例として、先に図2を参照して説明した処理を実行する装置の構成と処理の詳細について説明する。実施例2は、図2を参照して説明したように、ユーザのマウス操作によってオブジェクト21を指定し、さらに図2(a)(b)に示す移動ライン22に従ってマウスカーソル11aを移動させることで、図2(b)に示すようにオブジェクト21を表示部10の外側の空間に移動させる処理を実現する構成例である。
本実施例は、第1実施例と同様、図4に示す構成を持つ装置によって実行される。図4の例において、ユーザ100はPC(パーソナルコンピュータ)120を操作しており、カメラ142は、ユーザ100の操作するPC(パーソナルコンピュータ)120を撮影している。従って、ユーザ100の装着したメガネ141のディスプレイには、実世界画像として、例えば、ユーザ100の操作するPC(パーソナルコンピュータ)120のディスプレイ(表示部128)とその周囲の様々な実オブジェクトを含む画像が表示される。さらに、この実世界画像に複合現実感(MR)生成装置130の生成した仮想オブジェクトが重ねて表示される。ユーザ100の動きに応じて、カメラ142の向きも変更される。
ユーザ100が、PC120の画面に向かって処理を行っている場合、カメラ142はPC120の画面の画像を中心とした画像を撮影する。この結果、例えば図8に示すような表示データ250が、ユーザ100の装着したメガネ141のディスプレイに表示される。この図8に示す表示データ250は、実オブジェクトと仮想オブジェクトの合成画像である。
表示データ250に含まれるPC画像251は、カメラ142によって撮影された実画像(実オブジェクト)である。例えば、ユーザが図4に示すPC120のマウス129を移動させた場合の処理を図8に示している。図8に示すPC画像251内に表示されたオブジェクト252aをマウスカーソル271aによって指定した後、PC画像251の外側まで移動すると、オブジェクト252とマウスカーソル271は共に移動する。移動を続けることで、仮想オブジェクトとしてのオブジェクト252bとマウスカーソル271bがPC画像251外に表示される。
図4に示すユーザ100は、例えば図8に示す実オブジェクトと仮想オブジェクトとの合成画像をメガネ141のディスプレイにおいて観察することができる。図8に示すPC画像251はカメラ142によって撮影された実オブジェクトである。PC画像251内のオブジェクト252aもマウスカーソル271aもPC画像151内に実際に表示されている情報であり実オブジェクトである。一方、図8に示すPC画像251の外側のオブジェクト252bとマウスカーソル271bは、現実世界のオブジェクト(実オブジェクト)ではない。このオブジェクト252bとマウスカーソル271bは、複合現実感(MR)生成装置130の生成した仮想オブジェクトである。実世界には存在しないが、ユーザの装着したメガネ141のディスプレイに表示されたオブジェクトである。
このような仮想オブジェクト表示処理を行う処理シーケンスについて、図9に示すフローチャートを参照して説明する。なお、ユーザは、図4に示すPC120に接続されたマウス129の操作を行っているものとする。
なお、図8に示す表示データ250からも理解されるように、本実施例においても第1実施例と同様、仮想オブジェクトとしてのマウスカーソル271bの表示処理を行う。このマウスカーソル271bの表示処理を行うためのシーケンスは、図6を参照して説明したと同様のシーケンスで実行される。
本実施例2においては、さらに、マウスによって指定されたオブジェクト252の表示処理が追加されることになる。図9に示すフローチャートは、このマウス指定オブジェクトの表示シーケンスのみを説明するフローである。すなわち、図8に示す表示データ250を生成して表示する場合には、図6に示すフローに従った処理と、図9に示すフローに従った処理とが併せて実行される。
図9に示すフローチャートのステップS201〜S204の処理は、図4に示すPC120の処理である。
ステップS205〜S208の処理は、図4に示す複合現実感(MR)生成装置130の処理である。
ステップS201において、PC120のマウス129によって指定したオブジェクト情報をPC120側のメモリ127に格納する。なお、メモリ127に格納するオブジェクト情報には、オブジェクトの描画用データと位置情報が含まれる。位置情報は、例えばオブジェクトの基準となる中心位置の座標、あるいは輪郭を定義する複数の位置情報などである。
例えば、図10に示すオブジェクト301aのように矩形データの場合は、4頂点PQRSの各座標情報がオブジェクト情報の構成要素としてメモリに格納される。なお、位置情報は、オブジェクトを特定の位置に描画可能な位置情報であればよく、4頂点PQRSのすべてではなく1点Pの座標情報のみをメモリに格納する設定としてもよい。オブジェクトの形状を示すオブジェクト描画データもメモリに格納されるため、1点、例えば点Pの座標のみを位置情報としてメモリに格納しても、Pを起点としてオブジェクトの描画処理(表示処理)が可能であるからである。
ステップS202において、ユーザ操作によるPC120のマウス129の移動により、マウス指定オブジェクト領域に表示部外領域が発生したか否かを検証する。この処理は、PC120のアプリケーション実行部125が、マウス座標処理モジュール122の取得した移動先のマウスカーソル位置とオブジェクト形状に基づいて検証する。
ステップS202の判定がNo、すなわち、マウス指定オブジェクト領域に表示部外領域が発生していない場合は、ステップS203に進み、PC120のアプリケーション実行部125が、マウス指定オブジェクトをPC120内の表示部内に表示する。
一方、ステップS202の判定がYes、すなわち、マウス指定オブジェクト領域に表示部外領域が発生している場合は、ステップS204に進む。この場合は、例えば、図10に示すオブジェクト301bの位置、あるいは図11に示すオブジェクト301cの位置などにユーザ操作によってオブジェクトが移動した場合である。なお、図10、図11に示すオブジェクト301b,301cは、少なくとも一部が仮想オブジェクトとしてユーザの装着したメガネのディスプレイに表示された例を示している。
ステップS204では、メモリに記録されたデータ(非表示データ(オブジェクト描画データ))と位置情報を複合現実感(MR)生成装置130に送信する。例えば、図10に示す例では、オブジェクト301bの時計の描画データと、オブジェクト301bの4頂点PQRSの座標データがPC120側メモリ127から取得されて複合現実感(MR)生成装置130に送信される。
なお、転送される位置情報は、先の実施例1と同様、PC表示部平面座標系であり、図10に示すように、例えば表示部の左上端を原点(X,Y)=(0,0)として横方向をX、縦方向をYとする座標面における位置情報である。図10に示す例では、
P=(XP,YP)
Q=(XQ,YQ)
R=(XR,YR)
S=(XS,YS)
これらの4頂点座標情報が転送される。
ステップS205以降は、複合現実感(MR)生成装置130の処理として行われる。
まず、ステップS205において、複合現実感(MR)生成装置130はPC120からの受信データ、すなわち、非表示データ(オブジェクト描画データ)と位置情報(PQRSの座標情報)を複合現実感(MR)生成装置130側のメモリ133に格納する。
次に、ステップS206において、複合現実感(MR)生成装置130の仮想オブジェクト管理モジュール132は、メモリ133に格納されたデータ、すなわち、非表示データ(オブジェクト描画データ)と位置情報(PQRSの座標情報)を取得する。
次に、ステップS207において、仮想オブジェクト管理モジュール132は、メモリ133から取得した位置情報PQRSを三次元情報解析部131から取得したカメラ撮影画像に対応するカメラ座標系に変換する処理を行う。
この座標変換処理は、先の第1実施例で説明したマウスカーソルの座標変換処理と同様の処理として実行されるものであるので、詳細は省略する。
例えば、図10に示す例では、
オブジェクト301bの表示部平面座標系(X,Y)におけるPQRSの各座標は、カメラ座標系(x,y,z)における各座標に以下のように変換される。
P=(XP,YP)→(xp,yp,zp)
Q=(XQ,YQ)→(xq,yq,zq)
R=(XR,YR)→(xr,yr,zr)
S=(XS,YS)→(xs,ys,zs)
仮想オブジェクト管理モジュール132は、このように、図9のフローに示すステップS207において、メモリ133から取得した非表示データの位置情報を三次元情報解析部131から取得したカメラ撮影画像に対応するカメラ座標系の位置(xq,yq,zq)に変換する処理を行う。
次に、ステップS208において、仮想オブジェクト管理モジュール132は、メモリ133の格納データに含まれる非表示データ(オブジェクト描画用データ)を取得し、図10に示すように、生成したカメラ座標系対応の座標位置にオブジェクトを描画、すなわち表示する。
この処理によって、図8に示す表示データ250が、ユーザ100の装着したメガネ141のディスプレイに表示される。図8に示す表示データ250は、実オブジェクトとしてのPC画像251と、仮想オブジェクトとしてのオブジェクト252b、さらにマウスカーソル271bが併せて表示された合成画像である。仮想オブジェクト管理モジュール132は、仮想オブジェクトの表示位置を、図8に示すように、PC表示部の外部空間に設定する。このような表示処理によって、ユーザは、様々なオブジェクトをPC表示部内に限定されることなく、PC表示部外の空間に表示することが可能となり、より大きな作業領域を利用したデータ処理を行うことが可能となる。
なお、図9に示すフローチャートを参照して説明した処理は、ユーザがPC120のマウス129を操作し、マウスカーソルの位置が変更されるたびに行われる。アプリケーション実行部125は、マウスカーソルの位置が変更される毎に更新データを複合現実感(MR)生成装置130に送信する。複合現実感(MR)生成装置130は更新されたデータに基づいて仮想オブジェクト(時計)の表示位置を変更する処理をリアルタイム処理として実行する。
なお、図9に示すフローチャートのステップS202の判定処理において、Yesとなる場合は、例えば図11に示すオブジェクト301cの位置においても発生する。すなわち、ステップS202の判定は、マウス指定オブジェクトの一部でも、PC表示部の表示領域外となった場合にYesと判定される。
この場合も、オブジェクト301cの位置情報として、図11に示すPQRSの位置情報がPC120から、複合現実感(MR)生成装置130に転送される。複合現実感(MR)生成装置130において、オブジェクト301cをPCの表示部に一部重複する形態で表示すればよい。
なお、この場合は、図11に示すオブジェクト301c中の表示部外の領域UQRVのみを仮想オブジェクトとして表示し、領域PUVSのオブジェクト部分は、仮想オブジェクトとして表示せず、PCの表示部に表示された実オブジェクト、すなわちカメラ撮影画像そのものをユーザの装着するメガネのディスプレイに表示する設定としてもよい。
この処理を行う場合は、複合現実感(MR)生成装置130の仮想オブジェクト管理モジュール132は、仮想オブジェクトの表示処理に際して、図11に示すUQRVの部分データのみからなる仮想オブジェクト表示データを生成して表示する。すなわちPCから受信したオブジェクト描画データのPUVSの部分データは透明化する処理を行うことになる。
[4.本発明の情報処理装置の第3実施例の構成および処理について]
次に、本発明の情報処理装置の第3実施例として、先に図3を参照して説明した処理を実行する装置の構成と処理の詳細について説明する。実施例3は、図3を参照して説明したように、ユーザのマウス操作によってPC表示部外の実空間にあるオブジェクト31を指定することで、図3(b)に示すようにオブジェクト情報31cを表示する処理を実現する構成例である。
本実施例は、図12に示す構成を持つ装置によって実行される。PC120の構成は、先に実施例1において図4を参照して説明した構成と同様の構成である。複合現実感(MR)生成装置130は、三次元情報解析部131、仮想オブジェクト管理モジュール132、メモリ133、通信部134、オブジェクト情報取得部135、オブジェクト情報データベース136を有する。なお、オブジェクト情報データベース136は複合現実感(MR)生成装置130内に設定することは必須ではなく、複合現実感(MR)生成装置130の通信部を介してアクセス可能な例えばネットワーク接続可能なデータベースであればよい。
三次元情報解析部131、仮想オブジェクト管理モジュール132、メモリ133、通信部134、これらの構成は、第1実施例において図4を参照して説明した構成と同様である。ただし、通信部134はネットワークを介して外部サーバ140やオブジェクト情報データベース136との通信を実行する。
オブジェクト情報取得部135は、ユーザ100の装着したカメラ142の撮影画像から様々な実オブジェクトの画像を取得し、オブジェクト情報データベース136に格納されたデータとの照合処理を実行し、類似する画像を選別し、その選択画像に対応付けられたオブジェクト情報を取得する。
例えば、実オブジェクト画像が音楽CDのジャケット画像である場合、オブジェクト情報は、そのCDの曲名やジャンル、アーティスト、価格といった様々な情報である。これらのオブジェクト情報は、オブジェクト画像に対応付けられてオブジェクト情報データベース136に格納されている。
なお、サーバ140もオブジェクト情報データベース136に格納された情報と同様の情報を保持している。複合現実感(MR)生成装置130は、通信部134を介して、ユーザ100の装着したカメラ142の撮影画像をまたは撮影画像から選択した実オブジェクト画像(例えばCDジャケット画像)をサーバに送信する。サーバは、受信画像から対応するオブジェクト情報を抽出して、複合現実感(MR)生成装置130に提供する。
このようにして、複合現実感(MR)生成装置130はオブジェクト情報データベース136、またはサーバ140からオブジェクト情報を取得して取得した情報をカメラ142の撮影した実オブジェクト画像データとともにPC120に提供する。PC120はこれらの取得情報を用いて、PCの表示部に取得情報を表示する。
この結果として、例えば図13に示すような表示データ450が、ユーザ100の装着したメガネ141のディスプレイに表示される。表示データ450に含まれるPC画像451は、カメラ142によって撮影された実画像(実オブジェクト)である。PC画像451外のオブジェクト471aも実オブジェクトである。マウスカーソル480aは仮想オブジェクトである。
PC画像451内に表示されたオブジェクト画像471bと、オブジェクト情報471cはPC120のアプリケーション実行部125において表示部128に表示したデータである。従って、図13に示す表示データ450中、マウスカーソル480a以外の情報は、ユーザ100のメガネ141のディスプレイに表示される画像であるとともに、メガネを装着しないユーザも観察可能な情報である。
すなわち、PC画像451内に表示されたオブジェクト画像471bとオブジェクト情報471cはPC120の表示部の表示データであり、だれでも観察することが可能となる。
このようなデータ処理を行う処理シーケンスについて、図14に示すフローチャートを参照して説明する。なお、ユーザは、図12に示すPC120に接続されたマウス129の操作を行っているものとする。
なお、図13に示す表示データ450からも理解されるように、本実施例においても第1実施例、第2実施例と同様、仮想オブジェクトとしてのマウスカーソル480aの表示処理を行う。このマウスカーソル480aの表示処理を行うためのシーケンスは、図6を参照して説明したと同様のシーケンスで実行される。
本実施例3においては、さらに、マウスによって指定された実オブジェクトに対する処理が追加されることになる。図14に示すフローチャートは、このマウス指定オブジェクトに対する処理シーケンスのみを説明するフローである。すなわち、図13に示す表示データ450を生成して表示する場合には、図6に示すフローに従った処理と、図14に示すフローに従った処理とが併せて実行される。
図14に示すフローチャートのステップS301の処理は、図12に示すPC120と複合現実感(MR)生成装置130の双方の処理を伴う処理であり、ステップS302〜S309の処理は、図12に示す複合現実感(MR)生成装置130の処理である。ステップS310の処理は、図12に示すPC120の処理である。
ステップS301の処理の前に、先の第1実施例で説明した図6に示すフローに従った処理が実行され、マウスカーソルはPCの表示部外領域に設定されている。例えば、図13に示すマウスカーソル480aの位置にあるものとする。
ステップS301において、マウス操作により実オブジェクト指定がなされたか否かを判定する。実オブジェクト指定がなされた場合は、ステップS302に進み、なされていない場合は処理を終了する。実オブジェクト指定がなされた場合の処理は以下の通りである。まずマウスクリックの操作情報がPC120のマウスドライバ121を介してアプリケーション実行部125に入力されると、アプリケーション実行部125は、マウス操作(クリック)情報を、通信部124を介して複合現実感(MR)生成装置130に通知する。複合現実感(MR)生成装置130は通信部134を介してマウス操作情報を受領し、仮想オブジェクト管理モジュール132に通知する。
ステップS302では、仮想オブジェクト管理モジュール132は、指定された実オブジェクトのオブジェクト領域にPC表示部外領域が含まれ、かつカメラ撮像範囲にあるか否かを判定する。カメラはユーザ100に装着されたカメラ142である。ステップS302の判定がNoの場合は処理を終了する。ステップS302の判定がYesの場合はステップS303に進む。
ステップS303では、ユーザ100に装着されたカメラ142により、マウス指定オブジェクトを含む画像を撮影し、撮影画像をメモリに格納する。この処理は、仮想オブジェクト管理モジュール132の制御によって行われる。
次のステップS304〜S306の処理は、オブジェクト情報をオブジェクト情報データベース136から取得する場合の処理であり、ステップS307〜S308の処理は、オブジェクト情報をサーバ140から取得する場合の処理である。これらの処理はいずれか一方の処理を行ってもよいし、双方の処理を実行する設定としてもよい。
まず、オブジェクト情報をオブジェクト情報データベース136から取得するステップS304〜S306の処理について説明する。
ステップS304では、メモリに格納されたマウス指定オブジェクト画像を検索キーとして、オブジェクト情報データベース(DB)136を検索する。この処理は、オブジェクト情報取得部135の処理として実行される。
オブジェクト情報データベース(DB)136には様々な実オブジェクトの画像データとその画像データに対応するオブジェクトのオブジェクト情報が登録されている。例えば、CDジャケットの画像とそのCDに関する曲名、価格などのオブジェクト情報である。
オブジェクト情報取得部135は、ステップS305において、オブジェクト情報データベース(DB)136の検索を行う。すなわちマウス指定オブジェクト画像と一致または類似する登録画像データがオブジェクト情報データベース(DB)136に登録されているか否かを判定する。一致または類似する登録画像が抽出されない場合は処理を終了する。一致または類似する登録画像が抽出された場合はステップS306に進む。
ステップS306では、オブジェクト情報取得部135は、オブジェクト情報データベース(DB)136から、マウス指定オブジェクト画像と一致または類似する登録画像に対応する登録データ、すなわちオブジェクト画像とオブジェクト情報を取得する。
次に、サーバ140を利用した処理であるステップS307〜S308の処理について説明する。ステップS307において、オブジェクト情報取得部135は、通信部134を介してメモリに格納されたマウス指定オブジェクト画像をサーバ140に送信する。
ステップS308では、オブジェクト情報取得部135はサーバ140から、サーバの登録情報に基づいて選択されたオブジェクト画像とオブジェクト情報を取得する。サーバ140は、オブジェクト情報取得部135と同様の処理を行い、サーバ140のデータベースを検索してマウス指定オブジェクトの画像を検索キーとして、オブジェクト情報を抽出する。なお、抽出できなかった場合はエラーメッセージが通知される。
ステップS309では、複合現実感(MR)生成装置130は、サーバまたはデータベースから取得したオブジェクト情報と、オブジェクト画像データをPC120に送信する。なお、オブジェクト画像データについては、サーバまたはデータベースから取得したオブジェクト画像であってもよいし、カメラ142の撮影画像であってもよい。
最後のステップS310の処理はPC120の処理である。ステップS310において、PC側アプリケーションの処理により、複合現実感(MR)生成装置130からの取得データをPC側表示部に表示する。
この結果として、図13に示す表示データ450が、ユーザ100の装着したメガネ141のディスプレイに表示される。先にも説明したように、PC画像451内に表示されたオブジェクト画像471bと、オブジェクト情報471cはPC120のアプリケーション実行部125において表示部128に表示したデータである。従って、図13に示す表示データ450は、マウスカーソル480aを除いて、メガネを装着しないユーザも観察可能な情報である。
[5.本開示の構成のまとめ]
以上、特定の実施例を参照しながら、本開示の実施例について詳解してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本開示の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
なお、本明細書において開示した技術は、以下のような構成をとることができる。
(1) カメラ撮影画像である実オブジェクトと、仮想オブジェクトとの合成画像を生成するデータ処理部を有し、
前記データ処理部は、
前記カメラ撮影画像に情報端末の表示部である端末表示部が含まれる場合、
実オブジェクトである前記端末表示部の表示データと、仮想オブジェクトである前記表示データの関連データを含み、前記関連データの表示領域を前記表示データの表示領域外に設定した合成画像を生成して合成画像表示部に出力する情報処理装置。
(2)前記情報処理装置は、前記データ処理部の生成した合成画像を表示する合成画像表示部を有する前記(1)に記載の情報処理装置。
(3)前記合成画像表示部は、頭部装着可能なメガネ型の表示部である前記(1)または(2)に記載の情報処理装置。
(4)前記端末表示部は、携帯情報端末の表示部であり、前記データ処理部は、携帯情報端末の表示部に表示されたデータの関連データを仮想オブジェクトに設定した合成画像を生成して前記合成画像表示部に出力する前記(1)〜(3)いずれかに記載の情報処理装置。
(5)前記データ処理部は、前記端末表示部の表示データの関連データからなる仮想オブジェクトの出力位置を、前記端末表示部の領域外に設定した合成画像を生成して前記表示部に出力する前記(1)〜(4)いずれかに記載の情報処理装置。
(6)前記データ処理部は、前記端末表示部の表示データに連続するデータからなる仮想オブジェクトの出力位置を前記端末表示部の表示データに連続する領域に設定した合成画像を生成する前記(1)〜(5)いずれかに記載の情報処理装置。
(7)前記データ処理部は、前記端末表示部の表示データに対するユーザ操作に応じて、前記表示データを前記端末表示部外に移動させて仮想オブジェクトとして出力した合成画像を生成する前記(1)〜(6)いずれかに記載の情報処理装置。
(8)前記データ処理部は、前記端末表示部の表示データである位置指示子に対するユーザ操作に応じて、位置指示子を前記端末表示部外に移動させて仮想オブジェクトとして出力した合成画像を生成する前記(1)〜(7)いずれかに記載の情報処理装置。
(9)前記データ処理部は、前記合成画像表示部に表示された仮想オブジェクトに対するユーザ操作によって仮想オブジェクト位置が前記端末表示部の表示領域内に移動した場合、該仮想オブジェクト対応データを前記端末表示部に表示させるための表示要求を前記情報端末に出力する前記(1)〜(8)いずれかに記載の情報処理装置。
(10)前記データ処理部は、前記合成画像表示部に表示されたカメラ撮影画像である実オブジェクトに対するユーザ操作によって実オブジェクト位置が前記端末表示部の表示領域に移動した場合、実オブジェクト対応データを前記端末表示部に表示させるための表示要求を前記情報端末に出力する前記(1)〜(9)いずれかに記載の情報処理装置。
(11)前記データ処理部は、前記端末表示部または前記合成画像表示部に表示されたデータに対応する音楽情報を前記合成画像表示部に表示する前記(1)〜(10)いずれかに記載の情報処理装置。
(12)前記データ処理部は、前記端末表示部または前記合成画像表示部に表示されたデータが、特定の音楽コンテンツを識別可能なデータである場合、識別された音楽コンテンツに対応する音楽情報を前記合成画像表示部に表示する前記(1)〜(11)いずれかに記載の情報処理装置。
(13)前記データ処理部は、前記端末表示部または前記合成画像表示部に表示されたデータが、音楽コンテンツを格納したメディアまたはメディアケースの画像データである場合、該画像データに基づいて特定される音楽コンテンツの関連音楽情報を前記合成画像表示部に表示する前記(1)〜(12)いずれかに記載の情報処理装置。
(14)前記音楽情報は、音楽コンテンツの曲名、アーティスト、ジャンルまたは価格のいずれかの情報を含む前記(11)〜(13)いずれかに記載の情報処理装置。
(15)前記合成画像表示部は、カメラを備えたメガネ型の構成を有する前記(1)〜(14)いずれかに記載の情報処理装置。
(16)前記合成画像表示部は、通信部を備えたメガネ型の構成を有する前記(1)〜(15)いずれかに記載の情報処理装置。
(17)前記データ処理部は、前記関連データをデータベースまたはサーバをから取得する前記(1)〜(16)いずれかに記載の情報処理装置。
(18)前記データ処理部は、前記関連データの取得に失敗した場合は、エラーメッセージ通知を実行する前記(1)〜(17)いずれかに記載の情報処理装置。
(19)前記データ処理部の実行する処理は、前記情報処理装置の記憶部にインストール可能なプログラムに従って実行される前記(1)〜(18)いずれかに記載の情報処理装置。
(20)カメラ撮影画像である実オブジェクトと、仮想オブジェクトとの合成画像を生成させるプログラムを記録した情報記録媒体であり、
前記プログラムは、情報処理装置のデータ処理部に、
前記カメラ撮影画像に情報端末の表示部である端末表示部が含まれる場合、
実オブジェクトである前記端末表示部の表示データと、仮想オブジェクトである前記表示データの関連データを含み、前記関連データの表示領域を前記表示データの表示領域外に設定した合成画像を生成して合成画像表示部に出力する処理を実行させるプログラムである情報記録媒体。
(21)前記プログラムは、前記データ処理部に、前記情報処理装置に備えられた合成画像表示部に合成画像の表示処理を実行させる前記(20)に記載の情報記録媒体。
(22)前記プログラムは、前記データ処理部に、頭部装着可能なメガネ型の合成画像表示部に合成画像の表示処理を実行させる前記(20)または(21)に記載の情報記録媒体。
(23)前記端末表示部は、携帯情報端末の表示部であり、前記プログラムは、前記データ処理部に、携帯情報端末の表示部に表示されたデータの関連データを仮想オブジェクトに設定した合成画像を生成して前記合成画像表示部に出力させる前記(20)〜(22)いずれかに記載の情報記録媒体。
(24)前記プログラムは、前記データ処理部に、前記端末表示部の表示データの関連データからなる仮想オブジェクトの出力位置を、前記端末表示部の領域外に設定した合成画像を生成して前記表示部に出力させる前記(20)〜(23)いずれかに記載の情報記録媒体。
(25)前記プログラムは、前記データ処理部に、前記端末表示部の表示データに連続するデータからなる仮想オブジェクトの出力位置を前記端末表示部の表示データに連続する領域に設定した合成画像を生成させる前記(20)〜(24)いずれかに記載の情報記録媒体。
(26)前記プログラムは、前記データ処理部に、前記端末表示部の表示データに対するユーザ操作に応じて、前記表示データを前記端末表示部外に移動させて仮想オブジェクトとして出力した合成画像を生成させる前記(20)〜(25)いずれかに記載の情報記録媒体。
(27)前記プログラムは、前記データ処理部に、前記端末表示部の表示データである位置指示子に対するユーザ操作に応じて、位置指示子を前記端末表示部外に移動させて仮想オブジェクトとして出力した合成画像を生成させる前記(20)〜(26)いずれかに記載の情報記録媒体。
(28)前記プログラムは、前記データ処理部に、前記合成画像表示部に表示された仮想オブジェクトに対するユーザ操作によって仮想オブジェクト位置が前記端末表示部の表示領域内に移動した場合、該仮想オブジェクト対応データを前記端末表示部に表示させるための表示要求を前記情報端末に出力させる前記(20)〜(27)いずれかに記載の情報記録媒体。
(29)前記プログラムは、前記データ処理部に、前記合成画像表示部に表示されたカメラ撮影画像である実オブジェクトに対するユーザ操作によって実オブジェクト位置が前記端末表示部の表示領域に移動した場合、実オブジェクト対応データを前記端末表示部に表示させるための表示要求を前記情報端末に出力させる前記(20)〜(28)いずれかに記載の情報記録媒体。
(30)前記プログラムは、前記データ処理部に、前記端末表示部または前記合成画像表示部に表示されたデータに対応する音楽情報を前記合成画像表示部に表示させる前記(20)〜(29)いずれかに記載の情報記録媒体。
(31)前記プログラムは、前記データ処理部に、前記端末表示部または前記合成画像表示部に表示されたデータが、特定の音楽コンテンツを識別可能なデータである場合、識別された音楽コンテンツに対応する音楽情報を前記合成画像表示部に表示させる前記(20)〜(30)いずれかに記載の情報記録媒体。
(32)前記プログラムは、前記データ処理部に、前記端末表示部または前記合成画像表示部に表示されたデータが、音楽コンテンツを格納したメディアまたはメディアケースの画像データである場合、該画像データに基づいて特定される音楽コンテンツの関連音楽情報を前記合成画像表示部に表示させる前記(20)〜(31)いずれかに記載の情報記録媒体。
(33)前記音楽情報は、音楽コンテンツの曲名、アーティスト、ジャンルまたは価格のいずれかの情報を含む前記(30)〜(32)いずれかに記載の情報記録媒体。
(34)前記プログラムは、前記データ処理部に、カメラを備えたメガネ型の構成を有する合成画像表示部に合成画像の表示を実行させる前記(20)〜(33)いずれかに記載の情報記録媒体。
(35)前記プログラムは、前記データ処理部に、通信部を備えたメガネ型の構成を有する合成画像表示部に合成画像の表示を実行させる前記(20)〜(34)いずれかに記載の情報記録媒体。
(36)前記プログラムは、前記データ処理部に、前記関連データをデータベースまたはサーバをから取得させる前記(20)〜(35)いずれかに記載の情報記録媒体。
(37)前記プログラムは、前記データ処理部に、前記関連データの取得に失敗した場合、エラーメッセージ通知を実行させる前記(20)〜(36)いずれかに記載の情報記録媒体。
(38)前記プログラムは、前記情報記録媒体にインストールされたプログラムである前記(20)〜(37)いずれかに記載の情報記録媒体。
(39)情報処理装置において情報処理を実行する情報処理方法であり、
前記情報処理装置は、カメラ撮影画像である実オブジェクトと、仮想オブジェクトとの合成画像を生成するデータ処理部を有し、
前記データ処理部は、
前記カメラ撮影画像に情報端末の表示部である端末表示部が含まれる場合、
実オブジェクトである前記端末表示部の表示データと、仮想オブジェクトである前記表示データの関連データを含み、前記関連データの表示領域を前記表示データの表示領域外に設定した合成画像を生成して合成画像表示部に出力する処理を実行する情報処理方法。
また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
以上、説明したように、本発明の一実施例の構成によれば、PCなどの表示部の外側領域にはみ出したカーソルまたはオブジェクトを仮想オブジェクトとして表示する。例えばユーザの装着したメガネのディスプレイにPCなどの表示装置とその外部領域の画像を表示する。ユーザ操作に応じて移動したと想定されるカーソルまたはオブジェクトの三次元位置を算出し、算出した位置に仮想オブジェクトとして表示する。またカーソルによって指定されたオブジェクトに対応するオブジェクト情報を取得して提示する。本構成により、表示部の外に出てしまったデータを常に観察して確認することが可能となり、データ処理効率を高めることができる。
10 表示部
11 マウスカーソル
12 移動ライン
21 オブジェクト
22 移動ライン
31a,31b オブジェクト
31c オブジェクト情報
100 ユーザ
120 PC(パーソンナルコンピュータ)
121 マウスドライバ
122 マウス座標処理モジュール
123 GUI部
124 通信部
125 アプリケーション実行部
126 制御部
127 メモリ
128 表示部
129 マウス
130 複合現実感(MR)生成装置
131 三次元情報解析部
132 仮想オブジェクト管理モジュール
133 メモリ
134 通信部
135 オブジェクト情報取得部
136 オブジェクト情報データベース
140 サーバ
141 メガネ
142 カメラ
150 表示データ
151 PC画像
152 マウスカーソル
200 表示部
201 マーカー
211 マウスカーソル
250 表示データ
251 PC画像
252 オブジェクト
271 マウスカーソル
301 オブジェクト
450 表示データ
451 PC画像
471a,471b オブジェクト
471c オブジェクト情報

Claims (39)

  1. カメラ撮影画像である実オブジェクトと、仮想オブジェクトとの合成画像を生成するデータ処理部を有し、
    前記データ処理部は、
    前記カメラ撮影画像に情報端末の表示部である端末表示部が含まれる場合、
    実オブジェクトである前記端末表示部の表示データと、仮想オブジェクトである前記表示データの関連データを含み、前記関連データの表示領域を前記表示データの表示領域外に設定した合成画像を生成して合成画像表示部に出力する情報処理装置。
  2. 前記情報処理装置は、
    前記データ処理部の生成した合成画像を表示する合成画像表示部を有する請求項1に記載の情報処理装置。
  3. 前記合成画像表示部は、頭部装着可能なメガネ型の表示部である請求項1に記載の情報処理装置。
  4. 前記端末表示部は、携帯情報端末の表示部であり、
    前記データ処理部は、携帯情報端末の表示部に表示されたデータの関連データを仮想オブジェクトに設定した合成画像を生成して前記合成画像表示部に出力する請求項1に記載の情報処理装置。
  5. 前記データ処理部は、
    前記端末表示部の表示データの関連データからなる仮想オブジェクトの出力位置を、前記端末表示部の領域外に設定した合成画像を生成して前記表示部に出力する請求項1に記載の情報処理装置。
  6. 前記データ処理部は、
    前記端末表示部の表示データに連続するデータからなる仮想オブジェクトの出力位置を前記端末表示部の表示データに連続する領域に設定した合成画像を生成する請求項1に記載の情報処理装置。
  7. 前記データ処理部は、
    前記端末表示部の表示データに対するユーザ操作に応じて、前記表示データを前記端末表示部外に移動させて仮想オブジェクトとして出力した合成画像を生成する請求項1に記載の情報処理装置。
  8. 前記データ処理部は、
    前記端末表示部の表示データである位置指示子に対するユーザ操作に応じて、位置指示子を前記端末表示部外に移動させて仮想オブジェクトとして出力した合成画像を生成する請求項1に記載の情報処理装置。
  9. 前記データ処理部は、
    前記合成画像表示部に表示された仮想オブジェクトに対するユーザ操作によって仮想オブジェクト位置が前記端末表示部の表示領域内に移動した場合、該仮想オブジェクト対応データを前記端末表示部に表示させるための表示要求を前記情報端末に出力する請求項1に記載の情報処理装置。
  10. 前記データ処理部は、
    前記合成画像表示部に表示されたカメラ撮影画像である実オブジェクトに対するユーザ操作によって実オブジェクト位置が前記端末表示部の表示領域に移動した場合、実オブジェクト対応データを前記端末表示部に表示させるための表示要求を前記情報端末に出力する請求項1に記載の情報処理装置。
  11. 前記データ処理部は、
    前記端末表示部または前記合成画像表示部に表示されたデータに対応する音楽情報を前記合成画像表示部に表示する請求項1に記載の情報処理装置。
  12. 前記データ処理部は、
    前記端末表示部または前記合成画像表示部に表示されたデータが、特定の音楽コンテンツを識別可能なデータである場合、識別された音楽コンテンツに対応する音楽情報を前記合成画像表示部に表示する請求項1に記載の情報処理装置。
  13. 前記データ処理部は、
    前記端末表示部または前記合成画像表示部に表示されたデータが、音楽コンテンツを格納したメディアまたはメディアケースの画像データである場合、該画像データに基づいて特定される音楽コンテンツの関連音楽情報を前記合成画像表示部に表示する請求項1に記載の情報処理装置。
  14. 前記音楽情報は、音楽コンテンツの曲名、アーティスト、ジャンルまたは価格のいずれかの情報を含む請求項11に記載の情報処理装置。
  15. 前記合成画像表示部は、カメラを備えたメガネ型の構成を有する請求項1に記載の情報処理装置。
  16. 前記合成画像表示部は、通信部を備えたメガネ型の構成を有する請求項1に記載の情報処理装置。
  17. 前記データ処理部は、
    前記関連データをデータベースまたはサーバをから取得する請求項1に記載の情報処理装置。
  18. 前記データ処理部は、
    前記関連データの取得に失敗した場合は、エラーメッセージ通知を実行する請求項1に記載の情報処理装置。
  19. 前記データ処理部の実行する処理は、前記情報処理装置の記憶部にインストール可能なプログラムに従って実行される請求項1に記載の情報処理装置。
  20. カメラ撮影画像である実オブジェクトと、仮想オブジェクトとの合成画像を生成させるプログラムを記録した情報記録媒体であり、
    前記プログラムは、情報処理装置のデータ処理部に、
    前記カメラ撮影画像に情報端末の表示部である端末表示部が含まれる場合、
    実オブジェクトである前記端末表示部の表示データと、仮想オブジェクトである前記表示データの関連データを含み、前記関連データの表示領域を前記表示データの表示領域外に設定した合成画像を生成して合成画像表示部に出力する処理を実行させるプログラムである情報記録媒体。
  21. 前記プログラムは、前記データ処理部に、前記情報処理装置に備えられた合成画像表示部に合成画像の表示処理を実行させる請求項20に記載の情報記録媒体。
  22. 前記プログラムは、前記データ処理部に、頭部装着可能なメガネ型の合成画像表示部に合成画像の表示処理を実行させる請求項20に記載の情報記録媒体。
  23. 前記端末表示部は、携帯情報端末の表示部であり、
    前記プログラムは、前記データ処理部に、携帯情報端末の表示部に表示されたデータの関連データを仮想オブジェクトに設定した合成画像を生成して前記合成画像表示部に出力させる請求項20に記載の情報記録媒体。
  24. 前記プログラムは、前記データ処理部に、前記端末表示部の表示データの関連データからなる仮想オブジェクトの出力位置を、前記端末表示部の領域外に設定した合成画像を生成して前記表示部に出力させる請求項20に記載の情報記録媒体。
  25. 前記プログラムは、前記データ処理部に、前記端末表示部の表示データに連続するデータからなる仮想オブジェクトの出力位置を前記端末表示部の表示データに連続する領域に設定した合成画像を生成させる請求項20に記載の情報記録媒体。
  26. 前記プログラムは、前記データ処理部に、前記端末表示部の表示データに対するユーザ操作に応じて、前記表示データを前記端末表示部外に移動させて仮想オブジェクトとして出力した合成画像を生成させる請求項20に記載の情報記録媒体。
  27. 前記プログラムは、前記データ処理部に、前記端末表示部の表示データである位置指示子に対するユーザ操作に応じて、位置指示子を前記端末表示部外に移動させて仮想オブジェクトとして出力した合成画像を生成させる請求項20に記載の情報記録媒体。
  28. 前記プログラムは、前記データ処理部に、前記合成画像表示部に表示された仮想オブジェクトに対するユーザ操作によって仮想オブジェクト位置が前記端末表示部の表示領域内に移動した場合、該仮想オブジェクト対応データを前記端末表示部に表示させるための表示要求を前記情報端末に出力させる請求項20に記載の情報記録媒体。
  29. 前記プログラムは、前記データ処理部に、前記合成画像表示部に表示されたカメラ撮影画像である実オブジェクトに対するユーザ操作によって実オブジェクト位置が前記端末表示部の表示領域に移動した場合、実オブジェクト対応データを前記端末表示部に表示させるための表示要求を前記情報端末に出力させる請求項20に記載の情報記録媒体。
  30. 前記プログラムは、前記データ処理部に、前記端末表示部または前記合成画像表示部に表示されたデータに対応する音楽情報を前記合成画像表示部に表示させる請求項20に記載の情報記録媒体。
  31. 前記プログラムは、前記データ処理部に、前記端末表示部または前記合成画像表示部に表示されたデータが、特定の音楽コンテンツを識別可能なデータである場合、識別された音楽コンテンツに対応する音楽情報を前記合成画像表示部に表示させる請求項20に記載の情報記録媒体。
  32. 前記プログラムは、前記データ処理部に、前記端末表示部または前記合成画像表示部に表示されたデータが、音楽コンテンツを格納したメディアまたはメディアケースの画像データである場合、該画像データに基づいて特定される音楽コンテンツの関連音楽情報を前記合成画像表示部に表示させる請求項20に記載の情報記録媒体。
  33. 前記音楽情報は、音楽コンテンツの曲名、アーティスト、ジャンルまたは価格のいずれかの情報を含む請求項30に記載の情報記録媒体。
  34. 前記プログラムは、前記データ処理部に、カメラを備えたメガネ型の構成を有する合成画像表示部に合成画像の表示を実行させる請求項20に記載の情報記録媒体。
  35. 前記プログラムは、前記データ処理部に、通信部を備えたメガネ型の構成を有する合成画像表示部に合成画像の表示を実行させる請求項20に記載の情報記録媒体。
  36. 前記プログラムは、前記データ処理部に、前記関連データをデータベースまたはサーバをから取得させる請求項20に記載の情報記録媒体。
  37. 前記プログラムは、前記データ処理部に、前記関連データの取得に失敗した場合、エラーメッセージ通知を実行させる請求項20に記載の情報記録媒体。
  38. 前記プログラムは、前記情報記録媒体にインストールされたプログラムである請求項20に記載の情報記録媒体。
  39. 情報処理装置において情報処理を実行する情報処理方法であり、
    前記情報処理装置は、カメラ撮影画像である実オブジェクトと、仮想オブジェクトとの合成画像を生成するデータ処理部を有し、
    前記データ処理部は、
    前記カメラ撮影画像に情報端末の表示部である端末表示部が含まれる場合、
    実オブジェクトである前記端末表示部の表示データと、仮想オブジェクトである前記表示データの関連データを含み、前記関連データの表示領域を前記表示データの表示領域外に設定した合成画像を生成して合成画像表示部に出力する処理を実行する情報処理方法。
JP2013082909A 2013-04-11 2013-04-11 情報処理装置、および情報処理方法、並びに情報記録媒体 Expired - Fee Related JP5472509B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013082909A JP5472509B2 (ja) 2013-04-11 2013-04-11 情報処理装置、および情報処理方法、並びに情報記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013082909A JP5472509B2 (ja) 2013-04-11 2013-04-11 情報処理装置、および情報処理方法、並びに情報記録媒体

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2009170118A Division JP5263049B2 (ja) 2009-07-21 2009-07-21 情報処理装置、および情報処理方法、並びにプログラム

Publications (2)

Publication Number Publication Date
JP2013168167A true JP2013168167A (ja) 2013-08-29
JP5472509B2 JP5472509B2 (ja) 2014-04-16

Family

ID=49178458

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013082909A Expired - Fee Related JP5472509B2 (ja) 2013-04-11 2013-04-11 情報処理装置、および情報処理方法、並びに情報記録媒体

Country Status (1)

Country Link
JP (1) JP5472509B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11093804B1 (en) 2020-03-06 2021-08-17 Fujifilm Business Innovation Corp. Information processing apparatus and non-transitory computer readable medium storing program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11196345A (ja) * 1997-10-07 1999-07-21 Masanobu Kujirada 表示システム
JP2001175374A (ja) * 1999-12-21 2001-06-29 Sony Corp 情報入出力システム及び情報入出力方法
JP2004030284A (ja) * 2002-06-26 2004-01-29 Takenaka Komuten Co Ltd シームレスポインティングシステム
JP2005321870A (ja) * 2004-05-06 2005-11-17 Alpine Electronics Inc 操作入力装置および操作入力方法
JP2006154902A (ja) * 2004-11-25 2006-06-15 Olympus Corp 手書き画像表示システム及び空間手書き用携帯情報端末

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11196345A (ja) * 1997-10-07 1999-07-21 Masanobu Kujirada 表示システム
JP2001175374A (ja) * 1999-12-21 2001-06-29 Sony Corp 情報入出力システム及び情報入出力方法
JP2004030284A (ja) * 2002-06-26 2004-01-29 Takenaka Komuten Co Ltd シームレスポインティングシステム
JP2005321870A (ja) * 2004-05-06 2005-11-17 Alpine Electronics Inc 操作入力装置および操作入力方法
JP2006154902A (ja) * 2004-11-25 2006-06-15 Olympus Corp 手書き画像表示システム及び空間手書き用携帯情報端末

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11093804B1 (en) 2020-03-06 2021-08-17 Fujifilm Business Innovation Corp. Information processing apparatus and non-transitory computer readable medium storing program

Also Published As

Publication number Publication date
JP5472509B2 (ja) 2014-04-16

Similar Documents

Publication Publication Date Title
JP5263049B2 (ja) 情報処理装置、および情報処理方法、並びにプログラム
US10095458B2 (en) Information processing apparatus, information processing method, non-transitory computer-readable storage medium, and system
CN110073313B (zh) 使用母设备和至少一个伴随设备与环境交互
US20240290049A1 (en) Displaying Content in an Augmented Reality System
JP5991423B2 (ja) 表示装置、表示方法、表示プログラムおよび位置設定システム
US8850337B2 (en) Information processing device, authoring method, and program
JP5807686B2 (ja) 画像処理装置、画像処理方法及びプログラム
US20140313228A1 (en) Image processing device, and computer program product
US11030808B2 (en) Generating time-delayed augmented reality content
CN104871214A (zh) 用于具扩增实境能力的装置的用户接口
JP2016122392A (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
Irlitti et al. Tangible interaction techniques to support asynchronous collaboration
US20140142900A1 (en) Information processing apparatus, information processing method, and program
JP5472509B2 (ja) 情報処理装置、および情報処理方法、並びに情報記録媒体
JP2012073776A (ja) 電力情報表示装置
KR102467017B1 (ko) 다중 사용자 간의 증강현실 커뮤니케이션 방법
JP4703744B2 (ja) コンテンツ表現制御装置、コンテンツ表現制御システム、コンテンツ表現制御用基準物体およびコンテンツ表現制御プログラム
JP7401245B2 (ja) 画像合成装置、画像合成装置の制御方法およびプログラム
JP2010250696A (ja) 情報処理装置、情報処理方法、およびプログラム
JP2007249561A (ja) 画面遷移図の表示システム及びプログラム
Poh et al. Facilitating mechanical design with augmented reality
JP2007179565A (ja) 携帯機器
JP2008186207A (ja) 動体シミュレーション向け地図処理装置
JP3392080B2 (ja) ユーザインタフェース方法、ユーザインタフェース装置、空間描画装置、ワークステーション装置およびプログラム記憶媒体

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140120

LAPS Cancellation because of no payment of annual fees