JP5263049B2 - 情報処理装置、および情報処理方法、並びにプログラム - Google Patents

情報処理装置、および情報処理方法、並びにプログラム Download PDF

Info

Publication number
JP5263049B2
JP5263049B2 JP2009170118A JP2009170118A JP5263049B2 JP 5263049 B2 JP5263049 B2 JP 5263049B2 JP 2009170118 A JP2009170118 A JP 2009170118A JP 2009170118 A JP2009170118 A JP 2009170118A JP 5263049 B2 JP5263049 B2 JP 5263049B2
Authority
JP
Japan
Prior art keywords
display unit
information
cursor
display
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009170118A
Other languages
English (en)
Other versions
JP2011028309A (ja
JP2011028309A5 (ja
Inventor
晃一 松田
正樹 福地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009170118A priority Critical patent/JP5263049B2/ja
Priority to TW099119746A priority patent/TW201108037A/zh
Priority to BR112012000913A priority patent/BR112012000913A2/pt
Priority to US13/383,511 priority patent/US8751969B2/en
Priority to RU2012101245/08A priority patent/RU2524836C2/ru
Priority to CN2010800317740A priority patent/CN102473068B/zh
Priority to EP10802154A priority patent/EP2458486A1/en
Priority to PCT/JP2010/061161 priority patent/WO2011010533A1/ja
Priority to KR1020127000896A priority patent/KR20120069654A/ko
Publication of JP2011028309A publication Critical patent/JP2011028309A/ja
Publication of JP2011028309A5 publication Critical patent/JP2011028309A5/ja
Application granted granted Critical
Publication of JP5263049B2 publication Critical patent/JP5263049B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts

Description

本発明は、情報処理装置、および情報処理方法、並びにプログラムに関する。さらに詳細には、実世界の実物体と電子的な表示を融合させた複合現実感(MR:Mixed Reality)を利用したデータ処理を行う情報処理装置、および情報処理方法、並びにプログラムに関する。
例えばユーザがPC(パーソナルコンピュータ)を利用したデータ処理を行う場合、ユーザは、PCの表示部(ディスプレイ)の表示データに対する処理を行う。しかし、限定された範囲の表示部のみを対象としたデータ処理には以下のような問題がある。
(1)PC等の表示部に表示したマウスカーソルをマウスで操作すると、表示部の画面領域の端部でその移動が止まってしまう。このため、マウスカーソルで表示部内のオブジェクトやウィンドウを操作していても表示部の画面領域外に移動させることができない。
(2)PC等の表示部の表示領域がユーザの利用するウィンドウなどで一杯になった場合、多数のウィンドウが重なって表示されることにあり、下にあるウィンドウを見たい場合は、ユーザが下側のウィンドウを選択して上側に表示する処理や、重なったウィンドウをアイコン化するなどの操作が必要となる。しかし前者の処理を行えば、下に持って行かれたウィンドウ、後者の場合にはアイコン化されたウィンドウの内容を見ることができなくなる。
このような問題がある。なお、PC等の表示部のサイズ以上の領域を利用するための処理として以下の処理が可能である。
(a)新たな物理的なディスプレイを用意し、ユーザの操作するコンピュータに接続して、複数のディスプレイを利用可能とする。
(b)1つの表示部内に仮想デスクトップを設定して利用する。
しかし、前者(a)の場合は、ディスプレイを追加するためのコスト、スペースが必要となるという問題がある。また、後者(b)は実際に表示部に表示されている以外の部分にアクセスするために、ユーザ操作によるコマンド入力や、トレイなどに表示されるアイコンの操作が必要であるという問題がある。
本発明は、このような問題を、例えば複合現実感(MR:Mixed Reality)を利用したデータ処理を利用して解決するものである。なお、複合現実感について説明した従来技術としては、例えば特許文献1(特開2008−304268号公報)や、特許文献2(特開2008−304269号公報)がある。これらの文献には、カメラによって撮影された画像を利用して実世界の三次元マップを作成する処理について記載している。
特開2008−304268号公報 特開2008−304269号公報
本発明は、複合現実感(MR:Mixed Reality)を利用した処理により、例えばPCなどの表示部(ディスプレイ)に限定されることなく、表示部以外の空間領域を有効に利用したデータ処理を可能とした情報処理装置、および情報処理方法、並びにプログラムを提供することを目的とする。
本発明の第1の側面は、
第1表示部に表示された位置指示子であるカーソルの位置が前記第1表示部の領域内であるか領域外であるかを判定し、領域外である場合はカーソル位置情報を仮想オブジェクト管理部に出力する座標処理モジュールと、
前記第1表示部を含む実オブジェクトからなる画像を撮影するカメラと、
カメラ撮影画像に含まれる実オブジェクトの三次元位置を解析する三次元情報解析部と、
前記カメラ撮影画像を表示する第2表示部と、
前記カメラ撮影画像に含まれる実オブジェクトと異なる仮想オブジェクトを生成し、生成した仮想オブジェクトと前記実オブジェクトを含む合成画像を生成して前記第2表示部に表示する仮想オブジェクト管理部を有し、
前記仮想オブジェクト管理部は、
前記座標処理モジュールから入力したカーソル位置情報に基づいてカーソルの三次元位置を算出し、算出した位置にカーソルを仮想オブジェクトとして設定した合成画像を前記第2表示部に表示する情報処理装置にある。
さらに、本発明の情報処理装置の一実施態様において、前記情報処理装置は、前記位置指示子によって指定された指定オブジェクトに対する処理を行うアプリケーション実行部を有し、前記アプリケーション実行部は、前記指定オブジェクトが前記第1表示部の領域内であるか領域外であるかを判定し、領域外である場合はオブジェクト位置情報を仮想オブジェクト管理部に出力し、前記仮想オブジェクト管理部は、前記座標処理モジュールから入力したオブジェクト位置情報に基づいてオブジェクトの三次元位置を算出し、算出した位置にオブジェクトを仮想オブジェクトとして設定した合成画像を前記第2表示部に表示する。
さらに、本発明の情報処理装置の一実施態様において、前記仮想オブジェクト管理部は、前記座標処理モジュールから入力したオブジェクト位置情報に基づいて算出したオブジェクトの三次元位置が前記第1表示部の表示領域を含む場合、該前記第1表示部の表示領域に重なるオブジェクト領域画像を消去した合成画像を前記第2表示部に表示する。
さらに、本発明の情報処理装置の一実施態様において、前記情報処理装置は、さらに、前記仮想オブジェクトとして設定したカーソルによって指定された実オブジェクトの画像データを取得し、取得した画像データに基づくデータ検索を行ってオブジェクト情報の取得処理を行うオブジェクト情報取得部を有し、前記オブジェクト情報取得部は、取得したオブジェクト情報を前記第1表示部への表示データとして出力する処理を行う。
さらに、本発明の情報処理装置の一実施態様において、前記オブジェクト情報取得部は、実オブジェクトの画像データとオブジェクト情報を対応付けたデータベース、またはサーバに対するアクセスを実行して、前記実オブジェクトの画像データに基づく検索処理によりオブジェクト情報を取得する。
さらに、本発明の情報処理装置の一実施態様において、前記仮想オブジェクト管理部は、前記カメラ撮影画像に含まれる第1表示部の構成部位の三次元位置情報に基づいて第1表示部の表示面を含む平面を算出し、該平面上に前記カーソルの位置が設定されるように、前記カーソルの三次元位置を算出する処理を行う。
さらに、本発明の情報処理装置の一実施態様において、前記カーソルはマウス操作によって移動するマウスカーソルであり、前記座標処理モジュールは、マウス操作によるマウスカーソルの変位情報を入力して、マウスカーソルの位置が前記第1表示部の領域内であるか領域外であるかを判定する処理を行う。
さらに、本発明の第2の側面は、
情報処理装置において実行する情報処理方法であり、
座標処理モジュールが、第1表示部に表示された位置指示子であるカーソルの位置が前記第1表示部の領域内であるか領域外であるかを判定し、領域外である場合はカーソル位置情報を仮想オブジェクト管理部に出力する座標処理ステップと、
カメラが、前記第1表示部を含む実オブジェクトからなる画像を撮影する撮影ステップと、
三次元情報解析部が、カメラ撮影画像に含まれる実オブジェクトの三次元位置を解析する三次元情報解析ステップと、
仮想オブジェクト管理部が、前記カメラ撮影画像に含まれる実オブジェクトと異なる仮想オブジェクトを生成し、生成した仮想オブジェクトと前記実オブジェクトを含む合成画像を生成して第2表示部に表示する仮想オブジェクト管理ステップを有し、
前記仮想オブジェクト管理ステップは、
前記座標処理モジュールから入力したカーソル位置情報に基づいてカーソルの三次元位置を算出し、算出した位置にカーソルを仮想オブジェクトとして設定した合成画像を前記第2表示部に表示するステップである情報処理方法にある。
さらに、本発明の第3の側面は、
情報処理装置において情報処理を実行させるプログラムであり、
座標処理モジュールに、第1表示部に表示された位置指示子であるカーソルの位置が前記第1表示部の領域内であるか領域外であるかを判定させて、領域外である場合はカーソル位置情報を仮想オブジェクト管理部に出力させる座標処理ステップと、
カメラに、前記第1表示部を含む実オブジェクトからなる画像を撮影させる撮影ステップと、
三次元情報解析部に、カメラ撮影画像に含まれる実オブジェクトの三次元位置を解析させる三次元情報解析ステップと、
仮想オブジェクト管理部に、前記カメラ撮影画像に含まれる実オブジェクトと異なる仮想オブジェクトを生成させて、生成した仮想オブジェクトと前記実オブジェクトを含む合成画像を生成して第2表示部に表示させる仮想オブジェクト管理ステップを有し、
前記仮想オブジェクト管理ステップは、
前記座標処理モジュールから入力したカーソル位置情報に基づいてカーソルの三次元位置を算出させ、算出した位置にカーソルを仮想オブジェクトとして設定した合成画像を前記第2表示部に表示させるステップであるプログラムにある。
なお、本発明のプログラムは、例えば、様々なプログラム・コードを実行可能な画像処理装置やコンピュータ・システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、画像処理装置やコンピュータ・システム上でプログラムに応じた処理が実現される。
本発明のさらに他の目的、特徴や利点は、後述する本発明の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
本発明の一実施例の構成によれば、PCなどの表示部の外側領域にはみ出したカーソルまたはオブジェクトを仮想オブジェクトとして表示する。例えばユーザの装着したメガネのディスプレイにPCなどの表示装置とその外部領域の画像を表示する。ユーザ操作に応じて移動したと想定されるカーソルまたはオブジェクトの三次元位置を算出し、算出した位置に仮想オブジェクトとして表示する。またカーソルによって指定されたオブジェクトに対応するオブジェクト情報を取得して提示する。本構成により、表示部の外に出てしまったデータを常に観察して確認することが可能となり、データ処理効率を高めることができる。
本発明の情報処理装置の実行する一処理例について説明する図である。 本発明の情報処理装置の実行する一処理例について説明する図である。 本発明の情報処理装置の実行する一処理例について説明する図である。 本発明の情報処理装置の構成例について説明する図である。 本発明の情報処理装置の処理によってユーザの装着したメガネのディスプレイに表示される表示データの例について説明する図である。 本発明の情報処理装置の実行する処理シーケンスについて説明するフローチャートを示す図である。 本発明の情報処理装置の実行する処理の一例を示す具体的な処理例について説明する図である。 本発明の情報処理装置の処理によってユーザの装着したメガネのディスプレイに表示される表示データの例について説明する図である。 本発明の情報処理装置の実行する処理シーケンスについて説明するフローチャートを示す図である。 本発明の情報処理装置の実行する処理の一例を示す具体的な処理例について説明する図である。 本発明の情報処理装置の実行する処理の一例を示す具体的な処理例について説明する図である。 本発明の情報処理装置の構成例について説明する図である。 本発明の情報処理装置の処理によってユーザの装着したメガネのディスプレイに表示される表示データの例について説明する図である。 本発明の情報処理装置の実行する処理シーケンスについて説明するフローチャートを示す図である。
以下、図面を参照しながら本発明の情報処理装置、および情報処理方法、並びにプログラムの詳細について説明する。
本発明について以下の項目に従って順次説明する。
1.本発明の情報処理装置の実行する処理の概要について
2.本発明の情報処理装置の第1実施例の構成および処理について
3.本発明の情報処理装置の第2実施例の構成および処理について
4.本発明の情報処理装置の第3実施例の構成および処理について
[1.本発明の情報処理装置の実行する処理の概要について]
まず、本発明の情報処理装置の実行する処理の概要について、図1〜図3を参照して説明する。本発明は、複合現実感(MR:Mixed Reality)を利用した処理により、例えばPCなどの表示部(ディスプレイ)以外の空間領域を有効に利用したデータ処理を可能とするものである。
図1は、本発明の情報処理装置の実行する処理の一例を示す図である。図1には、ユーザの操作する例えばPCなどの表示部10を示している。なお、詳細構成については後述するが、ユーザは複合現実感(MR:Mixed Reality)生成装置の生成画像を表示するディスプレイを有するメガネを装着してPCの操作を行っている。
メガネには周囲の環境を撮影するカメラが備えられ、メガネのディスプレイには、カメラの撮影画像と複合現実感(MR:Mixed Reality)生成装置の生成する仮想オブジェクトの合成画像が表示される。図1(a),(b)の各図は、ユーザの装着したメガネのディスプレイに表示され、ユーザが観察する画像である。
ユーザは、例えば図1(a)に示すように表示部10に文書を表示して、文書作成を行っている。この処理は一般的なPCの操作である。図1(a)に示す表示部10には、ユーザの操作するマウスに対応して移動する位置指示子としてのマウスカーソル11aが表示されている。
ユーザは、マウスを操作することで、マウスカーソル11aを移動させることができる。従来装置では、マウスカーソルの移動範囲は表示部10の表示領域に限定される。しかし、本発明の構成を適用すると、マウスカーソルの移動範囲は表示部10の表示領域に限定されない。
例えば、ユーザのマウス操作によって図1(a)に示す移動ライン12に従ってマウスカーソル11aを移動させると、図1(b)に示すように、マウスカーソルは、表示部10の外側の空間に移動させることができる。図1(b)に示すマウスカーソル11bである。この図1(b)に示すマウスカーソル11bは、複合現実感(MR)生成装置の生成する仮想オブジェクトである。ユーザは、ユーザの装着したメガネのディスプレイに表示される仮想オブジェクトであるマウスカーソル11bを観察する。このように、本発明の構成を適用すると、表示部10の内外を問わず、自在にマウスカーソル11を移動させることが可能となる。
図2も、本発明の情報処理装置の実行する処理の一例を示す図である。図2にも、図1と同様、ユーザの操作する例えばPCなどの表示部10を示している。ユーザは、複合現実感(MR:Mixed Reality)生成装置の生成する画像を表示するディスプレイを備えたメガネを装着している。図2(a),(b)の各図は、ユーザの装着したメガネのディスプレイに表示され、ユーザが観察する画像である。
図2(a)に示す表示部10には、マウスカーソル11aと、マウスカーソル11aによって指定されたオブジェクト21aが表示されている。この例において、オブジェクト21aは、PC内部にある時計表示アプリケーションの実行によって表示部10に表示されたオブジェクトである。
ユーザは、マウス操作によってマウスカーソル11aをオブジェクト21a上に移動させて、マウス操作を行いオブジェクト指定処理を実行して、さらに、図2(a)に示す移動ライン22に従ってマウスカーソル11aを移動させる。
この処理によって、マウスカーソルと指定されたオブジェクト21を表示部10の外側の空間に移動させることができる。図2(b)に示すオブジェクト21bである。この図2(b)に示すオブジェクト21bは、複合現実感(MR)生成装置の生成する仮想オブジェクトである。ユーザは、ユーザの装着したメガネのディスプレイに表示されるオブジェクト21bを観察する。このように、本発明の構成を適用すると、マウスカーソルのみならず、表示部10に表示されたオブジェクトを表示部の内外を問わず、自在に移動させることが可能となる。
図3も、本発明の情報処理装置の実行する処理の一例を示す図である。図3にも、図1、図2と同様、ユーザの操作する例えばPCなどの表示部10を示している。ユーザは、複合現実感(MR:Mixed Reality)生成装置の生成する画像を表示するディスプレイを備えたメガネを装着している。図3(a),(b)の各図は、ユーザの装着したメガネのディスプレイに表示され、ユーザが観察する画像である。
図3(a)には、先に図1を参照して説明した操作によって、表示部10外に設定されたマウスカーソル11aと、マウスカーソル11aによって指定された実オブジェクト31aを示している。この例において、オブジェクト31aは、空間上に実際に存在する実オブジェクトであり、この例では音楽データを格納したディスクであるCDのジャケット写真である。
ユーザは、マウス操作によってマウスカーソル11aをオブジェクト31a上に設定し、マウス操作を行い、オブジェクトの指定処理を実行する。このオブジェクト指定処理によって指定されたオブジェクトに関する情報、すなわちオブジェクト情報などをデータベースやサーバから取得する。取得したオブジェクト情報を表示部10に表示させる。図3(b)に示すオブジェクト画像31bやオブジェクト情報31cである。
このように、本発明の構成を適用すると、実空間にある様々な実オブジェクトを仮想オブジェクトであるマウスカーソルで指定し、指定オブジェクトの関連情報を取得して、取得データをPC等の情報処理装置の処理データとして取り込み、PC内のアプリケーションの実行によって表示部10に表示させることが可能となる。
[2.本発明の情報処理装置の第1実施例の構成および処理について]
次に、本発明の情報処理装置の第1実施例として図1を参照して説明した処理を実行する装置の構成と処理の詳細について説明する。実施例1は、図1に示すように、ユーザのマウス操作によって図1(a)に示す移動ライン12に従ってマウスカーソル11aを移動させることで、図1(b)に示すようにマウスカーソルを表示部10の外側の空間に移動させる処理を実現する構成例である。
図4は、上記処理を実行する本発明の一実施例に係る情報処理装置の構成を示す図である。ユーザ100は、PC(パーソナルコンピュータ)120を操作して各種のデータ処理を行う。PC120は、図に示すように、マウスドライバ121、マウス座標処理モジュール122、GUI部123、通信部124、アプリケーション実行部125、制御部126、メモリ127、表示部128を有する。また、図の上部に示すマウス129を有する。
マウスドライバ121は、マウス129からの入力情報である位置情報、操作情報を入力する。マウス座標処理モジュール122は、マウスドライバ121を介して入力するマウス129の位置情報に応じて、マウスカーソルの表示位置を決定する。なお、本発明の構成では、マウスカーソルの表示位置は表示部128の表示領域に限らない。
GUI部123は、ユーザからの入力情報の処理、ユーザに対する出力情報の処理などを行うユーザインタフェースである。通信部124は、複合現実感(MR:Mixed Reality)生成装置130との通信処理を行う。
アプリケーション実行部125は、PC120内で実行する様々なデータ処理に対応するアプリケーションを実行する。制御部126は、PC120内で実行する処理の統括的制御を行う。メモリ127はプログラム、データ処理パラメータなどを格納するRAM,ROM等によって構成されるメモリである。表示部128は、例えばLCD等によって構成される表示部である。
ユーザ100は、仮想オブジェクトを表示するディスプレイを有するメガネ141を装着している。メガネ141には周囲の環境を撮影するカメラ142が備えられている。メガネ141とカメラ142は、複合現実感(MR:Mixed Reality)生成装置130に接続されている。ユーザ100はメガネ141に設けられたディスプレイの表示画像を観察しながら作業を行う。
メガネ141のディスプレイには、カメラ142の撮影画像である実世界画像を表示し、さらに複合現実感(MR)生成装置130の生成した仮想オブジェクトを実世界画像に併せて表示する。
図4の例において、ユーザ100はPC(パーソナルコンピュータ)120を操作しており、カメラ142は、ユーザ100の操作するPC(パーソナルコンピュータ)120を撮影している。従って、メガネ141のディスプレイには、実世界画像として、例えば、ユーザ100の操作するPC(パーソナルコンピュータ)120のディスプレイ(表示部128)とその周囲の様々な実オブジェクトを含む画像が表示される。さらに、この実世界画像に複合現実感(MR)生成装置130の生成した仮想オブジェクトが重ねて表示される。ユーザ100の動きに応じて、カメラ142の向きも変更される。
ユーザ100が、PC120の画面に向かって処理を行っている場合、カメラ142はPC120の画面の画像を中心とした画像を撮影する。この結果、例えば図5に示すような表示データ150が、ユーザ100の装着したメガネ141のディスプレイに表示される。この図5に示す表示データ150は、実オブジェクトと仮想オブジェクトの合成画像である。
次に、図4に示す複合現実感(MR)生成装置130の構成について説明する。複合現実感(MR)生成装置130は、図4に示すように、三次元情報解析部131、仮想オブジェクト管理モジュール132、メモリ133、通信部134を有する。
三次元情報解析部131は、ユーザの装着したカメラ142の撮影画像を入力し、撮影画像に含まれるオブジェクトの三次元位置を解析する処理を行う。この三次元位置解析処理は、例えば、SLAM(simultaneous localization and mapping)を適用した処理として行われる。SLAMは、カメラの撮影画像に含まれる様々な実オブジェクトから特徴点を選択し、選択した特徴点の位置とカメラの位置姿勢を併せて検出する処理である。なお、SLAMについては、前述の特許文献1(特開2008−304268号公報)や、特許文献2(特開2008−304269号公報)に記載されている。なお、SLAMの基本的な処理については、論文[Andrew J.Davison,"Real−time simultaneous localisation and mapping with a single camera",Proceedings of the 9th International Conference on Computer Vision,Ninth,(2003)]に記載がある。
三次元情報解析部131は、例えば上記のSLAMを適用してユーザの装着したカメラ142の撮影画像に含まれる実オブジェクトの三次元位置を算出する。ただし三次元情報解析部131は、上記のSLAMに限らず、その他の方法でカメラ撮影画像に含まれるオブジェクトの三次元位置を求める設定であってもよい。
仮想オブジェクト管理モジュール132は、ユーザの装着したメガネ141のディスプレイに表示する仮想オブジェクトの管理を行う。仮想オブジェクトは、メモリ133に格納されたデータである。具体的には、例えば、ユーザの装着したメガネ141のディスプレイには、図5に示す表示データ150が表示される。表示データ150に含まれるPC画像151は、カメラ142によって撮影された実画像(実オブジェクト)である。
例えば、ユーザがPC120のマウス129を移動させた場合、図5に示すPC画像151内に表示されたマウスカーソル152aは、PC画像151の外側まで移動して、仮想オブジェクトとしてのマウスカーソル152bが表示される。
図4に示すユーザ100は、例えば図5に示す実オブジェクトと仮想オブジェクトとの合成画像をメガネ141のディスプレイにおいて観察することができる。図5に示すPC画像151はカメラ142によって撮影された実オブジェクトである。PC画像151内のマウスカーソル152aもPC画像151内に実際に表示されている情報であり実オブジェクトである。なお、ここでは、カメラ142によって撮影される実世界に存在し、カメラで撮影可能なオブジェクトを実オブジェクトとして説明する。
図5に示すPC画像151の外側のマウスカーソル152bは、現実世界のオブジェクト(実オブジェクト)ではない。このマウスカーソル152bは、複合現実感(MR)生成装置130の生成した仮想オブジェクトである。実世界には存在しないが、ユーザの装着したメガネ141のディスプレイに表示されたオブジェクトである。
このようなマウスカーソルの表示処理を行う処理シーケンスについて、図6に示すフローチャートを参照して説明する。なお、ユーザは、図4に示すPC120に接続されたマウス129の操作を行っているものとする。操作情報は、マウスドライバに入力される。この処理以降、図6に示すフローチャートのステップS101以下の処理が行われる。
図6に示すフローチャートのステップS101〜S105の処理は、図4に示すPC120の処理である。
ステップS106〜S109の処理は、図4に示す複合現実感(MR)生成装置130の処理である。
ステップS101において、PC120のマウス座標処理モジュール122がマウスドライバ121からマウスの変位(dX,dY)情報を入力する。
ステップS102において、マウス座標処理モジュール122が、以前のマウスカーソル位置(XP,YP)と、マウスの変位(dX,dY)情報とから、更新後のマウスカーソル位置(XQ,YQ)を算出する。
ステップS103において、マウス座標処理モジュール122が、更新後のマウスカーソル位置(XQ,YQ)が表示部外であるか否かを判定する。更新後のマウスカーソル位置(XQ,YQ)が表示部領域内であれば、ステップS104に進み、PC内の通常のマウスカーソル表示更新処理を実行する。更新後のマウスカーソル位置(XQ,YQ)が表示部領域外の場合は、ステップS105に進む。
ステップS105では、メモリに格納されたマウスカーソル位置情報(XQ,YQ)が、通信部を介して複合現実感(MR)生成装置130に転送される。なお、本実施例では、PC120から複合現実感(MR)生成装置130に転送する位置情報は、マウスカーソルの位置情報のみであり、位置情報がマウスカーソルの位置情報であることは、複合現実感(MR)生成装置130に予め設定済みであるとする。その他のオブジェクトについての位置情報等を転送する場合は、各オブジェクトの識別情報、あるいはオブジェクトの描画データを転送することが必要となる。
ステップS106以降は、複合現実感(MR)生成装置130の処理として行われる。
まず、ステップS106において、複合現実感(MR)生成装置130はPC120から転送されたマウスカーソル位置情報(XQ,YQ)を複合現実感(MR)生成装置130側のメモリ133に格納する。PC120から非表示データ(マウスカーソル描画データ)またはその識別子を受信している場合は、受信データについても複合現実感(MR)生成装置130側のメモリ133に格納する。
次に、ステップS107において、複合現実感(MR)生成装置130の仮想オブジェクト管理モジュール132は、メモリ133に格納されたデータ、すなわち、非表示データ(マウスカーソル描画データ)と位置情報(XQ,YQ)を取得する。
ステップS108において、仮想オブジェクト管理モジュール132は、メモリ133から取得した非表示データ(マウスカーソル)の位置情報を三次元情報解析部131から取得したカメラ撮影画像に対応するカメラ座標系に変換する処理を行う。
この処理について、図7を参照して説明する。三次元情報解析部131はカメラ撮影画像に含まれるPCの表示部200の4隅のマーカー201a〜201dの三次元位置情報を取得している。図7に示すように、
マーカー201a=(xa,ya,za)
マーカー201b=(xb,yb,zb)
マーカー201c=(xc,yc,zc)
マーカー201d=(xd,yd,zd)
これらの位置情報が取得されている。
なお、この位置情報は、カメラ座標系(x,y,z)における位置情報である。
一方、PC120から受領するマウスカーソルの位置情報(XQ,YQ)は、PC表示部平面座標系であり、図7に示すように、例えば表示部の左上端を原点(X,Y)=(0,0)として横方向をX、縦方向をYとする座標面における位置情報である。
仮想オブジェクト管理表示モジュール132は、マーカー201a〜dの三次元位置情報に基づいて、カメラ座標系におけるPCの表示部の平面を算出し、その算出した平面上に、PC120から取得した非表示データ(マウスカーソル描画データ)の設定位置を決定する。この処理のため、PC120から取得した表示部平面座標系(X,Y)で示された位置情報(XQ,YQ)の座標変換を実行して、カメラ座標系(x,y,z)におけるマウスカーソル211qの表示位置(xq,yq,zq)を算出する。
マウスカーソル211qの表示位置(xq,yq,zq)は、
図7に示す表示部200の4隅のマーカー201a〜201dの形成する表示面の平面上の位置に設定される。まず、この表示部200の4隅のマーカー201a〜201dの形成する表示面を求める。
この表示面は、表示部200の4隅のマーカー201a〜201dの4座標から任意の3座標を用いて規定することができる。例えば、
マーカー201a=(xa,ya,za)
マーカー201b=(xb,yb,zb)
マーカー201c=(xc,yc,zc)
上記の3点の座標を用いて規定することができる。
表示面を通るxyz平面(カメラ座標系(x,y,z)における平面)は、これらの3点の座標を用いて下式(式1)のように示すことができる。
(x−xa)(yb−ya)(zc−za)+(xb−xa)(yc−ya)(z−za)+(xc−xa)(y−ya)(zb−za)−(xc−xa)(yb−ya)(z−za)−(xb−xa)(y−ya)(zc−za)−(x−xa)(yc−ya)(zb−za)=0
・・・(式1)
仮想オブジェクト管理表示モジュール132は、PC120から取得した表示部平面座標系(X,Y)で示された位置情報(XQ,YQ)を、カメラ座標系(x,y,z)における上記xyz平面上の位置座標(xq,yq,zq)に変換する処理を行う。
求める座標を図7に示すマウスカーソル211qのカメラ座標系(x,y,z)における座標位置(xq,yq,zq)とする。
また、
マーカー201a=(xa,ya,za)
マーカー201b=(xb,yb,zb)
マーカー201c=(xc,yc,zc)
上記の3点の表示部平面座標系(X,Y)での位置を、それぞれ以下のようにする。
マーカー201a=(0,0)
マーカー201b=(XB,0)
マーカー201c=(0,YC)
表示部平面座標系(X,Y)における以下の各座標、すなわち、
マーカー201a=(0,0)
マーカー201b=(XB,0)
マーカー201c=(0,YC)
マウスカーソル211pの位置(XP,YP)
マウスカーソル211qの位置(XQ,YQ)
これらの位置関係と、
カメラ座標系(x,y,z)における以下の各座標、すなわち、
マーカー201a=(xa,ya,za)
マーカー201b=(xb,yb,zb)
マーカー201c=(xc,yc,zc)
マウスカーソル211pの位置(xp,yp,zp)
マウスカーソル211qの位置(xq,yq,zq)
これらの位置関係は、同じ位置関係にある。
従って、下式が成立する。
(0−XQ)/(0−XB)=(xa−xq)/(xa−xb)
(0−YQ)/(0−YC)=(ya−yq)/(ya−yc)
上記式から、
xq=xa−XQ(xa−xb)/XB ・・・(式2)
yq=ya−YQ(ya−yb)/YC ・・・(式3)
上記関係式(式2),(式3)が導かれる。
上記関係式(式2)、(式3)を前述の式(式1)に代入することで、zqが導かれる。このようにして、マウスカーソル211qの位置(xq,yq,zq)を算出する。
仮想オブジェクト管理モジュール132は、このようにして、図6のフローに示すステップS108において、メモリ133から取得した非表示データの位置情報(XQ,YQ)を三次元情報解析部131から取得したカメラ撮影画像に対応するカメラ座標系の位置(xq,yq,zq)に変換する処理を行う。
次に、ステップS109において、仮想オブジェクト管理モジュール132は、生成したカメラ座標系対応の座標位置(xq,yq,zq)にマウスカーソルを配置して表示する。なお、PC120からマウスカーソル描画データを受信しメモリ133に格納している場合は、メモリ133の格納データに含まれる非表示データ、すなわち、PC120から転送された非表示データ(マウスカーソル描画データ)を、生成したカメラ座標系対応の座標位置(xq,yq,zq)に配置して表示する。
この処理によって、図5に示す表示データ150が、ユーザ100の装着したメガネ141のディスプレイに表示される。図5に示す表示データ150は、実オブジェクトとしてのPC画像151と、仮想オブジェクトとしてのマウスカーソル152bが併せて表示された合成画像である。仮想オブジェクト管理モジュール132は、仮想オブジェクトの表示位置を、図5に示すように、PC表示部の外部空間に設定する。このような表示処理によって、ユーザは、マウスカーソルの移動範囲をPC表示部内に限定されることなく、PC表示部外の空間まで広げることが可能となり、より大きな作業領域を利用したデータ処理を行うことが可能となる。
なお、図6に示すフローチャートを参照して説明した処理は、ユーザがPC120のマウス129を操作し、マウスカーソルの位置が変更されるたびに行われる。マウス座標処理モジュール122は、マウスカーソルの位置が変更される毎に更新データを複合現実感(MR)生成装置130に送信する。複合現実感(MR)生成装置130は更新されたデータに基づいて仮想オブジェクト(マウスカーソル)の表示位置を変更する処理をリアルタイム処理として実行する。
[3.本発明の情報処理装置の第2実施例の構成および処理について]
次に、本発明の情報処理装置の第2実施例として、先に図2を参照して説明した処理を実行する装置の構成と処理の詳細について説明する。実施例2は、図2を参照して説明したように、ユーザのマウス操作によってオブジェクト21を指定し、さらに図2(a)(b)に示す移動ライン22に従ってマウスカーソル11aを移動させることで、図2(b)に示すようにオブジェクト21を表示部10の外側の空間に移動させる処理を実現する構成例である。
本実施例は、第1実施例と同様、図4に示す構成を持つ装置によって実行される。図4の例において、ユーザ100はPC(パーソナルコンピュータ)120を操作しており、カメラ142は、ユーザ100の操作するPC(パーソナルコンピュータ)120を撮影している。従って、ユーザ100の装着したメガネ141のディスプレイには、実世界画像として、例えば、ユーザ100の操作するPC(パーソナルコンピュータ)120のディスプレイ(表示部128)とその周囲の様々な実オブジェクトを含む画像が表示される。さらに、この実世界画像に複合現実感(MR)生成装置130の生成した仮想オブジェクトが重ねて表示される。ユーザ100の動きに応じて、カメラ142の向きも変更される。
ユーザ100が、PC120の画面に向かって処理を行っている場合、カメラ142はPC120の画面の画像を中心とした画像を撮影する。この結果、例えば図8に示すような表示データ250が、ユーザ100の装着したメガネ141のディスプレイに表示される。この図8に示す表示データ250は、実オブジェクトと仮想オブジェクトの合成画像である。
表示データ250に含まれるPC画像251は、カメラ142によって撮影された実画像(実オブジェクト)である。例えば、ユーザが図4に示すPC120のマウス129を移動させた場合の処理を図8に示している。図8に示すPC画像251内に表示されたオブジェクト252aをマウスカーソル271aによって指定した後、PC画像251の外側まで移動すると、オブジェクト252とマウスカーソル271は共に移動する。移動を続けることで、仮想オブジェクトとしてのオブジェクト252bとマウスカーソル271bがPC画像251外に表示される。
図4に示すユーザ100は、例えば図8に示す実オブジェクトと仮想オブジェクトとの合成画像をメガネ141のディスプレイにおいて観察することができる。図8に示すPC画像251はカメラ142によって撮影された実オブジェクトである。PC画像251内のオブジェクト252aもマウスカーソル271aもPC画像151内に実際に表示されている情報であり実オブジェクトである。一方、図8に示すPC画像251の外側のオブジェクト252bとマウスカーソル271bは、現実世界のオブジェクト(実オブジェクト)ではない。このオブジェクト252bとマウスカーソル271bは、複合現実感(MR)生成装置130の生成した仮想オブジェクトである。実世界には存在しないが、ユーザの装着したメガネ141のディスプレイに表示されたオブジェクトである。
このような仮想オブジェクト表示処理を行う処理シーケンスについて、図9に示すフローチャートを参照して説明する。なお、ユーザは、図4に示すPC120に接続されたマウス129の操作を行っているものとする。
なお、図8に示す表示データ250からも理解されるように、本実施例においても第1実施例と同様、仮想オブジェクトとしてのマウスカーソル271bの表示処理を行う。このマウスカーソル271bの表示処理を行うためのシーケンスは、図6を参照して説明したと同様のシーケンスで実行される。
本実施例2においては、さらに、マウスによって指定されたオブジェクト252の表示処理が追加されることになる。図9に示すフローチャートは、このマウス指定オブジェクトの表示シーケンスのみを説明するフローである。すなわち、図8に示す表示データ250を生成して表示する場合には、図6に示すフローに従った処理と、図9に示すフローに従った処理とが併せて実行される。
図9に示すフローチャートのステップS201〜S204の処理は、図4に示すPC120の処理である。
ステップS205〜S208の処理は、図4に示す複合現実感(MR)生成装置130の処理である。
ステップS201において、PC120のマウス129によって指定したオブジェクト情報をPC120側のメモリ127に格納する。なお、メモリ127に格納するオブジェクト情報には、オブジェクトの描画用データと位置情報が含まれる。位置情報は、例えばオブジェクトの基準となる中心位置の座標、あるいは輪郭を定義する複数の位置情報などである。
例えば、図10に示すオブジェクト301aのように矩形データの場合は、4頂点PQRSの各座標情報がオブジェクト情報の構成要素としてメモリに格納される。なお、位置情報は、オブジェクトを特定の位置に描画可能な位置情報であればよく、4頂点PQRSのすべてではなく1点Pの座標情報のみをメモリに格納する設定としてもよい。オブジェクトの形状を示すオブジェクト描画データもメモリに格納されるため、1点、例えば点Pの座標のみを位置情報としてメモリに格納しても、Pを起点としてオブジェクトの描画処理(表示処理)が可能であるからである。
ステップS202において、ユーザ操作によるPC120のマウス129の移動により、マウス指定オブジェクト領域に表示部外領域が発生したか否かを検証する。この処理は、PC120のアプリケーション実行部125が、マウス座標処理モジュール122の取得した移動先のマウスカーソル位置とオブジェクト形状に基づいて検証する。
ステップS202の判定がNo、すなわち、マウス指定オブジェクト領域に表示部外領域が発生していない場合は、ステップS203に進み、PC120のアプリケーション実行部125が、マウス指定オブジェクトをPC120内の表示部内に表示する。
一方、ステップS202の判定がYes、すなわち、マウス指定オブジェクト領域に表示部外領域が発生している場合は、ステップS204に進む。この場合は、例えば、図10に示すオブジェクト301bの位置、あるいは図11に示すオブジェクト301cの位置などにユーザ操作によってオブジェクトが移動した場合である。なお、図10、図11に示すオブジェクト301b,301cは、少なくとも一部が仮想オブジェクトとしてユーザの装着したメガネのディスプレイに表示された例を示している。
ステップS204では、メモリに記録されたデータ(非表示データ(オブジェクト描画データ))と位置情報を複合現実感(MR)生成装置130に送信する。例えば、図10に示す例では、オブジェクト301bの時計の描画データと、オブジェクト301bの4頂点PQRSの座標データがPC120側メモリ127から取得されて複合現実感(MR)生成装置130に送信される。
なお、転送される位置情報は、先の実施例1と同様、PC表示部平面座標系であり、図10に示すように、例えば表示部の左上端を原点(X,Y)=(0,0)として横方向をX、縦方向をYとする座標面における位置情報である。図10に示す例では、
P=(XP,YP)
Q=(XQ,YQ)
R=(XR,YR)
S=(XS,YS)
これらの4頂点座標情報が転送される。
ステップS205以降は、複合現実感(MR)生成装置130の処理として行われる。
まず、ステップS205において、複合現実感(MR)生成装置130はPC120からの受信データ、すなわち、非表示データ(オブジェクト描画データ)と位置情報(PQRSの座標情報)を複合現実感(MR)生成装置130側のメモリ133に格納する。
次に、ステップS206において、複合現実感(MR)生成装置130の仮想オブジェクト管理モジュール132は、メモリ133に格納されたデータ、すなわち、非表示データ(オブジェクト描画データ)と位置情報(PQRSの座標情報)を取得する。
次に、ステップS207において、仮想オブジェクト管理モジュール132は、メモリ133から取得した位置情報PQRSを三次元情報解析部131から取得したカメラ撮影画像に対応するカメラ座標系に変換する処理を行う。
この座標変換処理は、先の第1実施例で説明したマウスカーソルの座標変換処理と同様の処理として実行されるものであるので、詳細は省略する。
例えば、図10に示す例では、
オブジェクト301bの表示部平面座標系(X,Y)におけるPQRSの各座標は、カメラ座標系(x,y,z)における各座標に以下のように変換される。
P=(XP,YP)→(xp,yp,zp)
Q=(XQ,YQ)→(xq,yq,zq)
R=(XR,YR)→(xr,yr,zr)
S=(XS,YS)→(xs,ys,zs)
仮想オブジェクト管理モジュール132は、このように、図9のフローに示すステップS207において、メモリ133から取得した非表示データの位置情報を三次元情報解析部131から取得したカメラ撮影画像に対応するカメラ座標系の位置(xq,yq,zq)に変換する処理を行う。
次に、ステップS208において、仮想オブジェクト管理モジュール132は、メモリ133の格納データに含まれる非表示データ(オブジェクト描画用データ)を取得し、図10に示すように、生成したカメラ座標系対応の座標位置にオブジェクトを描画、すなわち表示する。
この処理によって、図8に示す表示データ250が、ユーザ100の装着したメガネ141のディスプレイに表示される。図8に示す表示データ250は、実オブジェクトとしてのPC画像251と、仮想オブジェクトとしてのオブジェクト252b、さらにマウスカーソル271bが併せて表示された合成画像である。仮想オブジェクト管理モジュール132は、仮想オブジェクトの表示位置を、図8に示すように、PC表示部の外部空間に設定する。このような表示処理によって、ユーザは、様々なオブジェクトをPC表示部内に限定されることなく、PC表示部外の空間に表示することが可能となり、より大きな作業領域を利用したデータ処理を行うことが可能となる。
なお、図9に示すフローチャートを参照して説明した処理は、ユーザがPC120のマウス129を操作し、マウスカーソルの位置が変更されるたびに行われる。アプリケーション実行部125は、マウスカーソルの位置が変更される毎に更新データを複合現実感(MR)生成装置130に送信する。複合現実感(MR)生成装置130は更新されたデータに基づいて仮想オブジェクト(時計)の表示位置を変更する処理をリアルタイム処理として実行する。
なお、図9に示すフローチャートのステップS202の判定処理において、Yesとなる場合は、例えば図11に示すオブジェクト301cの位置においても発生する。すなわち、ステップS202の判定は、マウス指定オブジェクトの一部でも、PC表示部の表示領域外となった場合にYesと判定される。
この場合も、オブジェクト301cの位置情報として、図11に示すPQRSの位置情報がPC120から、複合現実感(MR)生成装置130に転送される。複合現実感(MR)生成装置130において、オブジェクト301cをPCの表示部に一部重複する形態で表示すればよい。
なお、この場合は、図11に示すオブジェクト301c中の表示部外の領域UQRVのみを仮想オブジェクトとして表示し、領域PUVSのオブジェクト部分は、仮想オブジェクトとして表示せず、PCの表示部に表示された実オブジェクト、すなわちカメラ撮影画像そのものをユーザの装着するメガネのディスプレイに表示する設定としてもよい。
この処理を行う場合は、複合現実感(MR)生成装置130の仮想オブジェクト管理モジュール132は、仮想オブジェクトの表示処理に際して、図11に示すUQRVの部分データのみからなる仮想オブジェクト表示データを生成して表示する。すなわちPCから受信したオブジェクト描画データのPUVSの部分データは透明化する処理を行うことになる。
[4.本発明の情報処理装置の第3実施例の構成および処理について]
次に、本発明の情報処理装置の第3実施例として、先に図3を参照して説明した処理を実行する装置の構成と処理の詳細について説明する。実施例3は、図3を参照して説明したように、ユーザのマウス操作によってPC表示部外の実空間にあるオブジェクト31を指定することで、図3(b)に示すようにオブジェクト情報31cを表示する処理を実現する構成例である。
本実施例は、図12に示す構成を持つ装置によって実行される。PC120の構成は、先に実施例1において図4を参照して説明した構成と同様の構成である。複合現実感(MR)生成装置130は、三次元情報解析部131、仮想オブジェクト管理モジュール132、メモリ133、通信部134、オブジェクト情報取得部135、オブジェクト情報データベース136を有する。なお、オブジェクト情報データベース136は複合現実感(MR)生成装置130内に設定することは必須ではなく、複合現実感(MR)生成装置130の通信部を介してアクセス可能な例えばネットワーク接続可能なデータベースであればよい。
三次元情報解析部131、仮想オブジェクト管理モジュール132、メモリ133、通信部134、これらの構成は、第1実施例において図4を参照して説明した構成と同様である。ただし、通信部134はネットワークを介して外部サーバ140やオブジェクト情報データベース136との通信を実行する。
オブジェクト情報取得部135は、ユーザ100の装着したカメラ142の撮影画像から様々な実オブジェクトの画像を取得し、オブジェクト情報データベース136に格納されたデータとの照合処理を実行し、類似する画像を選別し、その選択画像に対応付けられたオブジェクト情報を取得する。
例えば、実オブジェクト画像が音楽CDのジャケット画像である場合、オブジェクト情報は、そのCDの曲名やジャンル、アーティスト、価格といった様々な情報である。これらのオブジェクト情報は、オブジェクト画像に対応付けられてオブジェクト情報データベース136に格納されている。
なお、サーバ140もオブジェクト情報データベース136に格納された情報と同様の情報を保持している。複合現実感(MR)生成装置130は、通信部134を介して、ユーザ100の装着したカメラ142の撮影画像をまたは撮影画像から選択した実オブジェクト画像(例えばCDジャケット画像)をサーバに送信する。サーバは、受信画像から対応するオブジェクト情報を抽出して、複合現実感(MR)生成装置130に提供する。
このようにして、複合現実感(MR)生成装置130はオブジェクト情報データベース136、またはサーバ140からオブジェクト情報を取得して取得した情報をカメラ142の撮影した実オブジェクト画像データとともにPC120に提供する。PC120はこれらの取得情報を用いて、PCの表示部に取得情報を表示する。
この結果として、例えば図13に示すような表示データ450が、ユーザ100の装着したメガネ141のディスプレイに表示される。表示データ450に含まれるPC画像451は、カメラ142によって撮影された実画像(実オブジェクト)である。PC画像451外のオブジェクト471aも実オブジェクトである。マウスカーソル480aは仮想オブジェクトである。
PC画像451内に表示されたオブジェクト画像471bと、オブジェクト情報471cはPC120のアプリケーション実行部125において表示部128に表示したデータである。従って、図13に示す表示データ450中、マウスカーソル480a以外の情報は、ユーザ100のメガネ141のディスプレイに表示される画像であるとともに、メガネを装着しないユーザも観察可能な情報である。
すなわち、PC画像451内に表示されたオブジェクト画像471bとオブジェクト情報471cはPC120の表示部の表示データであり、だれでも観察することが可能となる。
このようなデータ処理を行う処理シーケンスについて、図14に示すフローチャートを参照して説明する。なお、ユーザは、図12に示すPC120に接続されたマウス129の操作を行っているものとする。
なお、図13に示す表示データ450からも理解されるように、本実施例においても第1実施例、第2実施例と同様、仮想オブジェクトとしてのマウスカーソル480aの表示処理を行う。このマウスカーソル480aの表示処理を行うためのシーケンスは、図6を参照して説明したと同様のシーケンスで実行される。
本実施例3においては、さらに、マウスによって指定された実オブジェクトに対する処理が追加されることになる。図14に示すフローチャートは、このマウス指定オブジェクトに対する処理シーケンスのみを説明するフローである。すなわち、図13に示す表示データ450を生成して表示する場合には、図6に示すフローに従った処理と、図14に示すフローに従った処理とが併せて実行される。
図14に示すフローチャートのステップS301の処理は、図12に示すPC120と複合現実感(MR)生成装置130の双方の処理を伴う処理であり、ステップS302〜S309の処理は、図12に示す複合現実感(MR)生成装置130の処理である。ステップS310の処理は、図12に示すPC120の処理である。
ステップS301の処理の前に、先の第1実施例で説明した図6に示すフローに従った処理が実行され、マウスカーソルはPCの表示部外領域に設定されている。例えば、図13に示すマウスカーソル480aの位置にあるものとする。
ステップS301において、マウス操作により実オブジェクト指定がなされたか否かを判定する。実オブジェクト指定がなされた場合は、ステップS302に進み、なされていない場合は処理を終了する。実オブジェクト指定がなされた場合の処理は以下の通りである。まずマウスクリックの操作情報がPC120のマウスドライバ121を介してアプリケーション実行部125に入力されると、アプリケーション実行部125は、マウス操作(クリック)情報を、通信部124を介して複合現実感(MR)生成装置130に通知する。複合現実感(MR)生成装置130は通信部134を介してマウス操作情報を受領し、仮想オブジェクト管理モジュール132に通知する。
ステップS302では、仮想オブジェクト管理モジュール132は、指定された実オブジェクトのオブジェクト領域にPC表示部外領域が含まれ、かつカメラ撮像範囲にあるか否かを判定する。カメラはユーザ100に装着されたカメラ142である。ステップS302の判定がNoの場合は処理を終了する。ステップS302の判定がYesの場合はステップS303に進む。
ステップS303では、ユーザ100に装着されたカメラ142により、マウス指定オブジェクトを含む画像を撮影し、撮影画像をメモリに格納する。この処理は、仮想オブジェクト管理モジュール132の制御によって行われる。
次のステップS304〜S306の処理は、オブジェクト情報をオブジェクト情報データベース136から取得する場合の処理であり、ステップS307〜S308の処理は、オブジェクト情報をサーバ140から取得する場合の処理である。これらの処理はいずれか一方の処理を行ってもよいし、双方の処理を実行する設定としてもよい。
まず、オブジェクト情報をオブジェクト情報データベース136から取得するステップS304〜S306の処理について説明する。
ステップS304では、メモリに格納されたマウス指定オブジェクト画像を検索キーとして、オブジェクト情報データベース(DB)136を検索する。この処理は、オブジェクト情報取得部135の処理として実行される。
オブジェクト情報データベース(DB)136には様々な実オブジェクトの画像データとその画像データに対応するオブジェクトのオブジェクト情報が登録されている。例えば、CDジャケットの画像とそのCDに関する曲名、価格などのオブジェクト情報である。
オブジェクト情報取得部135は、ステップS305において、オブジェクト情報データベース(DB)136の検索を行う。すなわちマウス指定オブジェクト画像と一致または類似する登録画像データがオブジェクト情報データベース(DB)136に登録されているか否かを判定する。一致または類似する登録画像が抽出されない場合は処理を終了する。一致または類似する登録画像が抽出された場合はステップS306に進む。
ステップS306では、オブジェクト情報取得部135は、オブジェクト情報データベース(DB)136から、マウス指定オブジェクト画像と一致または類似する登録画像に対応する登録データ、すなわちオブジェクト画像とオブジェクト情報を取得する。
次に、サーバ140を利用した処理であるステップS307〜S308の処理について説明する。ステップS307において、オブジェクト情報取得部135は、通信部134を介してメモリに格納されたマウス指定オブジェクト画像をサーバ140に送信する。
ステップS308では、オブジェクト情報取得部135はサーバ140から、サーバの登録情報に基づいて選択されたオブジェクト画像とオブジェクト情報を取得する。サーバ140は、オブジェクト情報取得部135と同様の処理を行い、サーバ140のデータベースを検索してマウス指定オブジェクトの画像を検索キーとして、オブジェクト情報を抽出する。なお、抽出できなかった場合はエラーメッセージが通知される。
ステップS309では、複合現実感(MR)生成装置130は、サーバまたはデータベースから取得したオブジェクト情報と、オブジェクト画像データをPC120に送信する。なお、オブジェクト画像データについては、サーバまたはデータベースから取得したオブジェクト画像であってもよいし、カメラ142の撮影画像であってもよい。
最後のステップS310の処理はPC120の処理である。ステップS310において、PC側アプリケーションの処理により、複合現実感(MR)生成装置130からの取得データをPC側表示部に表示する。
この結果として、図13に示す表示データ450が、ユーザ100の装着したメガネ141のディスプレイに表示される。先にも説明したように、PC画像451内に表示されたオブジェクト画像471bと、オブジェクト情報471cはPC120のアプリケーション実行部125において表示部128に表示したデータである。従って、図13に示す表示データ450は、マウスカーソル480aを除いて、メガネを装着しないユーザも観察可能な情報である。
以上、特定の実施例を参照しながら、本発明について詳解してきた。しかしながら、本発明の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本発明の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
以上、説明したように、本発明の一実施例の構成によれば、PCなどの表示部の外側領域にはみ出したカーソルまたはオブジェクトを仮想オブジェクトとして表示する。例えばユーザの装着したメガネのディスプレイにPCなどの表示装置とその外部領域の画像を表示する。ユーザ操作に応じて移動したと想定されるカーソルまたはオブジェクトの三次元位置を算出し、算出した位置に仮想オブジェクトとして表示する。またカーソルによって指定されたオブジェクトに対応するオブジェクト情報を取得して提示する。本構成により、表示部の外に出てしまったデータを常に観察して確認することが可能となり、データ処理効率を高めることができる。
10 表示部
11 マウスカーソル
12 移動ライン
21 オブジェクト
22 移動ライン
31a,31b オブジェクト
31c オブジェクト情報
100 ユーザ
120 PC(パーソンナルコンピュータ)
121 マウスドライバ
122 マウス座標処理モジュール
123 GUI部
124 通信部
125 アプリケーション実行部
126 制御部
127 メモリ
128 表示部
129 マウス
130 複合現実感(MR)生成装置
131 三次元情報解析部
132 仮想オブジェクト管理モジュール
133 メモリ
134 通信部
135 オブジェクト情報取得部
136 オブジェクト情報データベース
140 サーバ
141 メガネ
142 カメラ
150 表示データ
151 PC画像
152 マウスカーソル
200 表示部
201 マーカー
211 マウスカーソル
250 表示データ
251 PC画像
252 オブジェクト
271 マウスカーソル
301 オブジェクト
450 表示データ
451 PC画像
471a,471b オブジェクト
471c オブジェクト情報

Claims (12)

  1. 第1表示部を含むカメラの撮影画像である実オブジェクトと、前記実オブジェクトに含まれない仮想オブジェクトとの合成画像を生成して第2表示部に表示する画像表示制御を実行するデータ処理部を有し、
    前記データ処理部は、
    前記第1表示部に表示された位置指示子であるカーソルの位置が前記第1表示部の領域内であるか領域外であるかを判定し、領域外である場合はカーソルを仮想オブジェクトとして設定した合成画像を前記第2表示部に表示する情報処理装置。
  2. 前記データ処理部は、
    第1表示部に表示された位置指示子であるカーソルの位置が前記第1表示部の領域内であるか領域外であるかを判定し、領域外である場合はカーソル位置情報を仮想オブジェクト管理部に出力する座標処理モジュールと、
    メラ撮影画像に含まれる実オブジェクトの三次元位置を解析する三次元情報解析部と、
    記カメラ撮影画像に含まれる実オブジェクトと異なる仮想オブジェクトを生成し、生成した仮想オブジェクトと前記実オブジェクトを含む合成画像を生成して前記第2表示部に表示する仮想オブジェクト管理部を有し、
    前記仮想オブジェクト管理部は、
    前記座標処理モジュールから入力したカーソル位置情報に基づいてカーソルの三次元位置を算出し、算出した位置にカーソルを仮想オブジェクトとして設定した合成画像を前記第2表示部に表示する請求項1に記載の情報処理装置。
  3. 前記データ処理部は、
    前記位置指示子によって指定された指定オブジェクトに対する処理を行うアプリケーション実行部を有し、
    前記アプリケーション実行部は、前記指定オブジェクトが前記第1表示部の領域内であるか領域外であるかを判定し、領域外である場合はオブジェクト位置情報を仮想オブジェクト管理部に出力し、
    前記仮想オブジェクト管理部は、
    前記座標処理モジュールから入力したオブジェクト位置情報に基づいてオブジェクトの三次元位置を算出し、算出した位置にオブジェクトを仮想オブジェクトとして設定した合成画像を前記第2表示部に表示する請求項に記載の情報処理装置。
  4. 前記仮想オブジェクト管理部は、
    前記座標処理モジュールから入力したオブジェクト位置情報に基づいて算出したオブジェクトの三次元位置が前記第1表示部の表示領域を含む場合、該前記第1表示部の表示領域に重なるオブジェクト領域画像を消去した合成画像を前記第2表示部に表示する請求項に記載の情報処理装置。
  5. 前記データ処理部は、さらに、
    前記仮想オブジェクトとして設定したカーソルによって指定された実オブジェクトの画像データを取得し、取得した画像データに基づくデータ検索を行ってオブジェクト情報の取得処理を行うオブジェクト情報取得部を有し、
    前記オブジェクト情報取得部は、取得したオブジェクト情報を前記第1表示部への表示データとして出力する処理を行う請求項に記載の情報処理装置。
  6. 前記オブジェクト情報取得部は、
    実オブジェクトの画像データとオブジェクト情報を対応付けたデータベース、またはサーバに対するアクセスを実行して、前記実オブジェクトの画像データに基づく検索処理によりオブジェクト情報を取得する請求項に記載の情報処理装置。
  7. 前記仮想オブジェクト管理部は、
    前記カメラ撮影画像に含まれる第1表示部の構成部位の三次元位置情報に基づいて第1表示部の表示面を含む平面を算出し、該平面上に前記カーソルの位置が設定されるように、前記カーソルの三次元位置を算出する処理を行う請求項に記載の情報処理装置。
  8. 前記カーソルはマウス操作によって移動するマウスカーソルであり、
    前記座標処理モジュールは、マウス操作によるマウスカーソルの変位情報を入力して、マウスカーソルの位置が前記第1表示部の領域内であるか領域外であるかを判定する処理を行う請求項に記載の情報処理装置。
  9. 情報処理装置において実行する情報処理方法であり、
    データ処理部が、第1表示部を含むカメラの撮影画像である実オブジェクトと、前記実オブジェクトに含まれない仮想オブジェクトとの合成画像を生成して第2表示部に表示する画像表示制御を実行するデータ処理ステップを実行し、
    前記データ処理ステップは、
    前記第1表示部に表示された位置指示子であるカーソルの位置が前記第1表示部の領域内であるか領域外であるかを判定し、領域外である場合はカーソルを仮想オブジェクトとして設定した合成画像を前記第2表示部に表示するステップである情報処理方法。
  10. 前記データ処理ステップは、
    座標処理モジュールが、第1表示部に表示された位置指示子であるカーソルの位置が前記第1表示部の領域内であるか領域外であるかを判定し、領域外である場合はカーソル位置情報を仮想オブジェクト管理部に出力する座標処理ステップと、
    カメラが、前記第1表示部を含む実オブジェクトからなる画像を撮影する撮影ステップと、
    三次元情報解析部が、カメラ撮影画像に含まれる実オブジェクトの三次元位置を解析する三次元情報解析ステップと、
    仮想オブジェクト管理部が、前記カメラ撮影画像に含まれる実オブジェクトと異なる仮想オブジェクトを生成し、生成した仮想オブジェクトと前記実オブジェクトを含む合成画像を生成して第2表示部に表示する仮想オブジェクト管理ステップを有し、
    前記仮想オブジェクト管理ステップは、
    前記座標処理モジュールから入力したカーソル位置情報に基づいてカーソルの三次元位置を算出し、算出した位置にカーソルを仮想オブジェクトとして設定した合成画像を前記第2表示部に表示するステップである請求項9に記載の情報処理方法。
  11. 情報処理装置において情報処理を実行させるプログラムであり、
    データ処理部に、第1表示部を含むカメラの撮影画像である実オブジェクトと、前記実オブジェクトに含まれない仮想オブジェクトとの合成画像を生成して第2表示部に表示する画像表示制御を実行するデータ処理ステップを実行させ、
    前記データ処理ステップにおいて、
    前記第1表示部に表示された位置指示子であるカーソルの位置が前記第1表示部の領域内であるか領域外であるかを判定する処理と、領域外である場合はカーソルを仮想オブジェクトとして設定した合成画像を前記第2表示部に表示する処理を実行させるプログラム。
  12. 前記プログラムは、前記データ処理ステップにおいて、
    座標処理モジュールに、第1表示部に表示された位置指示子であるカーソルの位置が前記第1表示部の領域内であるか領域外であるかを判定させて、領域外である場合はカーソル位置情報を仮想オブジェクト管理部に出力させる座標処理ステップと、
    カメラに、前記第1表示部を含む実オブジェクトからなる画像を撮影させる撮影ステップと、
    三次元情報解析部に、カメラ撮影画像に含まれる実オブジェクトの三次元位置を解析させる三次元情報解析ステップと、
    仮想オブジェクト管理部に、前記カメラ撮影画像に含まれる実オブジェクトと異なる仮想オブジェクトを生成させて、生成した仮想オブジェクトと前記実オブジェクトを含む合成画像を生成して第2表示部に表示させる仮想オブジェクト管理ステップを実行させ、
    前記仮想オブジェクト管理ステップにおいて、
    前記座標処理モジュールから入力したカーソル位置情報に基づいてカーソルの三次元位置を算出させ、算出した位置にカーソルを仮想オブジェクトとして設定した合成画像を前記第2表示部に表示させる請求項11に記載のプログラム。
JP2009170118A 2009-07-21 2009-07-21 情報処理装置、および情報処理方法、並びにプログラム Expired - Fee Related JP5263049B2 (ja)

Priority Applications (9)

Application Number Priority Date Filing Date Title
JP2009170118A JP5263049B2 (ja) 2009-07-21 2009-07-21 情報処理装置、および情報処理方法、並びにプログラム
TW099119746A TW201108037A (en) 2009-07-21 2010-06-17 Information processing device, information processing method, and program
US13/383,511 US8751969B2 (en) 2009-07-21 2010-06-30 Information processor, processing method and program for displaying a virtual image
RU2012101245/08A RU2524836C2 (ru) 2009-07-21 2010-06-30 Информационный процессор, способ обработки и программа
CN2010800317740A CN102473068B (zh) 2009-07-21 2010-06-30 信息处理器、处理方法和程序
EP10802154A EP2458486A1 (en) 2009-07-21 2010-06-30 Information processing device, information processing method, and program
BR112012000913A BR112012000913A2 (pt) 2009-07-21 2010-06-30 processador de informação, método de processamento de informação, e, programa.
PCT/JP2010/061161 WO2011010533A1 (ja) 2009-07-21 2010-06-30 情報処理装置、および情報処理方法、並びにプログラム
KR1020127000896A KR20120069654A (ko) 2009-07-21 2010-06-30 정보 처리 장치, 정보 처리 방법 및 프로그램

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009170118A JP5263049B2 (ja) 2009-07-21 2009-07-21 情報処理装置、および情報処理方法、並びにプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2013082909A Division JP5472509B2 (ja) 2013-04-11 2013-04-11 情報処理装置、および情報処理方法、並びに情報記録媒体

Publications (3)

Publication Number Publication Date
JP2011028309A JP2011028309A (ja) 2011-02-10
JP2011028309A5 JP2011028309A5 (ja) 2012-07-19
JP5263049B2 true JP5263049B2 (ja) 2013-08-14

Family

ID=43499009

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009170118A Expired - Fee Related JP5263049B2 (ja) 2009-07-21 2009-07-21 情報処理装置、および情報処理方法、並びにプログラム

Country Status (9)

Country Link
US (1) US8751969B2 (ja)
EP (1) EP2458486A1 (ja)
JP (1) JP5263049B2 (ja)
KR (1) KR20120069654A (ja)
CN (1) CN102473068B (ja)
BR (1) BR112012000913A2 (ja)
RU (1) RU2524836C2 (ja)
TW (1) TW201108037A (ja)
WO (1) WO2011010533A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11500510B2 (en) 2020-12-21 2022-11-15 Fujifilm Business Innovation Corp. Information processing apparatus and non-transitory computer readable medium

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8594467B2 (en) * 2008-12-19 2013-11-26 Microsoft Corporation Interactive virtual display system for ubiquitous devices
JP2012212340A (ja) 2011-03-31 2012-11-01 Sony Corp 情報処理装置、画像表示装置、および情報処理方法
JP2013016116A (ja) 2011-07-06 2013-01-24 Sony Corp 情報処理装置、画像表示装置、および情報処理方法
JP5821526B2 (ja) * 2011-10-27 2015-11-24 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
KR101574099B1 (ko) * 2011-12-20 2015-12-03 인텔 코포레이션 다수의 장치에 걸친 증강 현실 표현
JP6044079B2 (ja) 2012-02-06 2016-12-14 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2013174642A (ja) * 2012-02-23 2013-09-05 Toshiba Corp 映像表示装置
JP5580855B2 (ja) * 2012-06-12 2014-08-27 株式会社ソニー・コンピュータエンタテインメント 障害物回避装置および障害物回避方法
US10523899B2 (en) * 2013-06-26 2019-12-31 Touchcast LLC System and method for providing and interacting with coordinated presentations
CN104683683A (zh) * 2013-11-29 2015-06-03 英业达科技有限公司 拍摄影像的系统及其方法
JP6357843B2 (ja) * 2014-04-10 2018-07-18 凸版印刷株式会社 アプリケーション検査システム、アプリケーション検査装置及びアプリケーション検査プログラム
JP6280435B2 (ja) * 2014-04-28 2018-02-14 富士通コンポーネント株式会社 プログラム、中継装置及び情報処理装置
US9904055B2 (en) 2014-07-25 2018-02-27 Microsoft Technology Licensing, Llc Smart placement of virtual objects to stay in the field of view of a head mounted display
US10451875B2 (en) 2014-07-25 2019-10-22 Microsoft Technology Licensing, Llc Smart transparency for virtual objects
US9858720B2 (en) 2014-07-25 2018-01-02 Microsoft Technology Licensing, Llc Three-dimensional mixed-reality viewport
US10416760B2 (en) 2014-07-25 2019-09-17 Microsoft Technology Licensing, Llc Gaze-based object placement within a virtual reality environment
US9865089B2 (en) 2014-07-25 2018-01-09 Microsoft Technology Licensing, Llc Virtual reality environment with real world objects
US9766460B2 (en) 2014-07-25 2017-09-19 Microsoft Technology Licensing, Llc Ground plane adjustment in a virtual reality environment
US10311638B2 (en) 2014-07-25 2019-06-04 Microsoft Technology Licensing, Llc Anti-trip when immersed in a virtual reality environment
US20160027214A1 (en) * 2014-07-25 2016-01-28 Robert Memmott Mouse sharing between a desktop and a virtual world
JP6197801B2 (ja) * 2015-01-30 2017-09-20 コニカミノルタ株式会社 データ入力システム、データ入力装置、データ入力方法およびデータ入力プログラム
JP6390785B2 (ja) 2015-03-27 2018-09-19 富士通株式会社 表示方法、プログラム及び表示制御装置
US10437070B2 (en) 2016-12-23 2019-10-08 Realwear, Inc. Interchangeable optics for a head-mounted display
US11507216B2 (en) 2016-12-23 2022-11-22 Realwear, Inc. Customizing user interfaces of binary applications
US10620910B2 (en) * 2016-12-23 2020-04-14 Realwear, Inc. Hands-free navigation of touch-based operating systems
US11099716B2 (en) 2016-12-23 2021-08-24 Realwear, Inc. Context based content navigation for wearable display
US10393312B2 (en) 2016-12-23 2019-08-27 Realwear, Inc. Articulating components for a head-mounted display
US10936872B2 (en) 2016-12-23 2021-03-02 Realwear, Inc. Hands-free contextually aware object interaction for wearable display
WO2018217470A1 (en) * 2017-05-23 2018-11-29 Pcms Holdings, Inc. System and method for prioritizing ar information based on persistence of real-life objects in the user's view
US10983663B2 (en) * 2017-09-29 2021-04-20 Apple Inc. Displaying applications
CN111433710A (zh) * 2017-12-04 2020-07-17 索尼公司 信息处理装置、信息处理方法以及记录介质
US11049322B2 (en) 2018-06-18 2021-06-29 Ptc Inc. Transferring graphic objects between non-augmented reality and augmented reality media domains
US11366514B2 (en) 2018-09-28 2022-06-21 Apple Inc. Application placement based on head position
US11853533B1 (en) * 2019-01-31 2023-12-26 Splunk Inc. Data visualization workspace in an extended reality environment
US11644940B1 (en) 2019-01-31 2023-05-09 Splunk Inc. Data visualization in an extended reality environment
US11055918B2 (en) * 2019-03-15 2021-07-06 Sony Interactive Entertainment Inc. Virtual character inter-reality crossover
EP3928192B1 (en) 2019-09-26 2023-10-18 Apple Inc. Wearable electronic device presenting a computer-generated reality environment
CN116360601A (zh) 2019-09-27 2023-06-30 苹果公司 用于提供扩展现实环境的电子设备、存储介质和方法
JP2021140085A (ja) 2020-03-06 2021-09-16 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
CN116438503A (zh) * 2020-12-17 2023-07-14 三星电子株式会社 电子装置和电子装置的操作方法
EP4295314A1 (en) 2021-02-08 2023-12-27 Sightful Computers Ltd Content sharing in extended reality
EP4288856A1 (en) 2021-02-08 2023-12-13 Sightful Computers Ltd Extended reality for productivity
JP2024509722A (ja) 2021-02-08 2024-03-05 サイトフル コンピューターズ リミテッド エクステンデッドリアリティにおけるユーザ相互作用
WO2023009580A2 (en) 2021-07-28 2023-02-02 Multinarity Ltd Using an extended reality appliance for productivity
WO2023028571A1 (en) * 2021-08-27 2023-03-02 Chinook Labs Llc System and method of augmented representation of an electronic device
US11948263B1 (en) 2023-03-14 2024-04-02 Sightful Computers Ltd Recording the complete physical and extended reality environments of a user
US20230334795A1 (en) 2022-01-25 2023-10-19 Multinarity Ltd Dual mode presentation of user interface elements
US11822941B2 (en) * 2023-08-28 2023-11-21 International Business Machines Corporation Mobile computing device projected visualization interaction

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5305435A (en) * 1990-07-17 1994-04-19 Hewlett-Packard Company Computer windows management system and method for simulating off-screen document storage and retrieval
JP3287312B2 (ja) 1998-08-13 2002-06-04 日本電気株式会社 ポインティング装置
US6909443B1 (en) * 1999-04-06 2005-06-21 Microsoft Corporation Method and apparatus for providing a three-dimensional task gallery computer interface
JP4178697B2 (ja) * 1999-11-18 2008-11-12 ソニー株式会社 携帯型情報処理端末、情報入出力システム及び情報入出力方法
FI20010958A0 (fi) * 2001-05-08 2001-05-08 Nokia Corp Menetelmä ja järjestely laajennetun käyttöliittymän muodostamiseksi
FI117488B (fi) * 2001-05-16 2006-10-31 Myorigo Sarl Informaation selaus näytöllä
US7369102B2 (en) * 2003-03-04 2008-05-06 Microsoft Corporation System and method for navigating a graphical user interface on a smaller display
JP2006172423A (ja) * 2004-11-18 2006-06-29 Canon Inc 遠隔操作システム、遠隔操作装置、被操作装置、遠隔操作方法、コンピュータプログラム、記憶媒体
JP2006154902A (ja) * 2004-11-25 2006-06-15 Olympus Corp 手書き画像表示システム及び空間手書き用携帯情報端末
EP1686554A3 (en) * 2005-01-31 2008-06-18 Canon Kabushiki Kaisha Virtual space generating system, image processing apparatus and information processing method
RU2008110056A (ru) * 2005-08-15 2009-09-27 Конинклейке Филипс Электроникс Н.В. (Nl) Система, устройство и способ для очков расширенной реальности для программирования конечным пользователем
US20070052672A1 (en) * 2005-09-08 2007-03-08 Swisscom Mobile Ag Communication device, system and method
SE0601216L (sv) * 2006-05-31 2007-12-01 Abb Technology Ltd Virtuell arbetsplats
US8277316B2 (en) * 2006-09-14 2012-10-02 Nintendo Co., Ltd. Method and apparatus for using a common pointing input to control 3D viewpoint and object targeting
JP2008304269A (ja) * 2007-06-06 2008-12-18 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP5380789B2 (ja) 2007-06-06 2014-01-08 ソニー株式会社 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP4909851B2 (ja) * 2007-09-25 2012-04-04 日立アプライアンス株式会社 洗濯乾燥機
US20090221368A1 (en) * 2007-11-28 2009-09-03 Ailive Inc., Method and system for creating a shared game space for a networked game
JP5531616B2 (ja) * 2007-12-07 2014-06-25 ソニー株式会社 制御装置、入力装置、制御システム、制御方法及びハンドヘルド装置
WO2009117450A1 (en) * 2008-03-18 2009-09-24 Invism, Inc. Enhanced immersive soundscapes production
US8176434B2 (en) * 2008-05-12 2012-05-08 Microsoft Corporation Virtual desktop view scrolling

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11500510B2 (en) 2020-12-21 2022-11-15 Fujifilm Business Innovation Corp. Information processing apparatus and non-transitory computer readable medium

Also Published As

Publication number Publication date
RU2012101245A (ru) 2013-07-27
US20120124509A1 (en) 2012-05-17
KR20120069654A (ko) 2012-06-28
EP2458486A1 (en) 2012-05-30
CN102473068A (zh) 2012-05-23
JP2011028309A (ja) 2011-02-10
TW201108037A (en) 2011-03-01
BR112012000913A2 (pt) 2016-03-01
US8751969B2 (en) 2014-06-10
CN102473068B (zh) 2013-12-25
RU2524836C2 (ru) 2014-08-10
WO2011010533A1 (ja) 2011-01-27

Similar Documents

Publication Publication Date Title
JP5263049B2 (ja) 情報処理装置、および情報処理方法、並びにプログラム
CN110073313B (zh) 使用母设备和至少一个伴随设备与环境交互
US10095458B2 (en) Information processing apparatus, information processing method, non-transitory computer-readable storage medium, and system
JP5991423B2 (ja) 表示装置、表示方法、表示プログラムおよび位置設定システム
US9996982B2 (en) Information processing device, authoring method, and program
US20200388080A1 (en) Displaying content in an augmented reality system
CN103377487B (zh) 信息处理设备、显示控制方法以及程序
JP4137078B2 (ja) 複合現実感情報生成装置および方法
TWI469622B (zh) Information processing devices, information processing methods, and program products
JP2011028309A5 (ja)
JPWO2015107665A1 (ja) 作業支援用データ作成プログラム
JP2016122392A (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
JP2021018710A (ja) 現場連携システムおよび管理装置
JP5472509B2 (ja) 情報処理装置、および情報処理方法、並びに情報記録媒体
JP2020009008A (ja) 情報処理システム及び情報処理システム用プログラム
JP5175794B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP7401245B2 (ja) 画像合成装置、画像合成装置の制御方法およびプログラム
JP6732082B1 (ja) 画像生成装置、画像生成方法、および画像生成プログラム
JP7179633B2 (ja) 計測方法、計測装置、およびプログラム
JP2009259254A (ja) コンテンツ表現制御装置、コンテンツ表現制御システム、コンテンツ表現制御用基準物体およびコンテンツ表現制御プログラム
JP4330637B2 (ja) 携帯機器
Poh et al. Facilitating mechanical design with augmented reality
JP2022155553A (ja) 業務管理支援装置、業務管理支援システム、業務管理支援方法および業務管理支援プログラム
JP2021047923A (ja) 情報処理システム及び情報処理システム用プログラム
JP2005115467A (ja) 仮想オブジェクト操作プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120601

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120601

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130415

LAPS Cancellation because of no payment of annual fees