JP2010257123A - 情報処理装置、および情報処理方法、並びにプログラム - Google Patents

情報処理装置、および情報処理方法、並びにプログラム Download PDF

Info

Publication number
JP2010257123A
JP2010257123A JP2009105294A JP2009105294A JP2010257123A JP 2010257123 A JP2010257123 A JP 2010257123A JP 2009105294 A JP2009105294 A JP 2009105294A JP 2009105294 A JP2009105294 A JP 2009105294A JP 2010257123 A JP2010257123 A JP 2010257123A
Authority
JP
Japan
Prior art keywords
display
unit
virtual object
data
display unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009105294A
Other languages
English (en)
Other versions
JP5158006B2 (ja
Inventor
Koichi Matsuda
晃一 松田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009105294A priority Critical patent/JP5158006B2/ja
Priority to TW99106017A priority patent/TWI469622B/zh
Priority to CN201080016939.7A priority patent/CN102395948B/zh
Priority to PCT/JP2010/054541 priority patent/WO2010122859A1/ja
Priority to EP10766918.6A priority patent/EP2423789B1/en
Priority to BRPI1015167A priority patent/BRPI1015167A2/pt
Priority to US13/264,133 priority patent/US8994721B2/en
Priority to RU2011141838/08A priority patent/RU2536363C2/ru
Priority to KR1020117024242A priority patent/KR20120008030A/ko
Publication of JP2010257123A publication Critical patent/JP2010257123A/ja
Application granted granted Critical
Publication of JP5158006B2 publication Critical patent/JP5158006B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】表示部に表示されないデータを仮想オブジェクトとして常に観察可能な構成を実現する。
【解決手段】表示部を持つPCや携帯電話などの様々な表示装置において、表示部外の領域にはみ出した非表示データを表示部の表示データに連続する位置に仮想オブジェクトとして表示する構成を実現する。この構成により、ユーザはPCなとの限定された表示領域の表示データのみならず、表示部の外に出てしまったデータを常に観察して確認することが可能となり、データ処理効率を高めることができる。
【選択図】図2

Description

本発明は、情報処理装置、および情報処理方法、並びにプログラムに関する。さらに詳細には、実世界の実物体と電子的な表示を融合させた複合現実感(MR:Mixed Reality)を利用したデータ処理を行う情報処理装置、および情報処理方法、並びにプログラムに関する。
例えばユーザがPC(パーソナルコンピュータ)を利用したデータ処理を行う場合、ユーザは、PCの表示部(ディスプレイ)の表示データに対する処理を行う。しかし、例えば文書作成を行う場合、その文書作成に適用している用紙の表示サイズが、PCの表示部のサイズ(例えばウィンドウサイズ)よりも大きくなった場合、用紙全体をPC画面内に表示することかできず、用紙の一部のみを画面に表示して作業を行うことが必要となる。
すなわち、画面からはみ出した情報はPCの画面内では表示されなくなってしまう。PC画面からはみ出した領域を表示する場合には、スクロール処理を行って表示することは可能であるが、スクロールの結果として今まで表示されていた領域が隠れてしまうという問題が発生する。全体を表示するためには例えば全体を縮小して表示する処理や、画面を2分割して表示するとっいった処理も可能ではあるが、このような処理を行うと、例えば文字サイズが小さくなり作業が行いにくくなるという問題が発生する。
本発明は、このような問題を、例えば複合現実感(MR:Mixed Reality)を利用したデータ処理を利用して解決するものである。なお、複合現実感について説明した従来技術としては、例えば特許文献1(特開2008−304268号公報)や、特許文献2(特開2008−304269号公報)がある。これらの文献には、カメラによって撮影された画像を利用して実世界の三次元マップを作成する処理について記載している。
特開2008−304268号公報 特開2008−304269号公報
本発明は、複合現実感(MR:Mixed Reality)を利用したデータ処理により、例えばPCなどの表示部(ディスプレイ)以外の領域に、様々なデータを電子的に貼り付けた合成画像を生成して、この合成画像を観察可能とすることで、主要ワーク領域として利用する表示部以外の空間領域を有効に利用可能とした情報処理装置、および情報処理方法、並びにプログラムを提供することを目的とする。
本発明の第1の側面は、
第1表示部を利用したデータ処理において前記第1表示部の表示データに連続する非表示データと該非表示データの位置情報をメモリに格納するアプリケーション実行部と、
カメラ撮影画像に含まれる前記第1表示部を含む実オブジェクトの三次元位置を解析する三次元情報解析部と、
前記メモリに格納された非表示データと該非表示データの位置情報と、前記三次元情報解析部の解析した前記第1表示部の三次元位置情報を入力し、前記カメラ撮影画像に含まれる実オブジェクトと、前記非表示データからなる仮想オブジェクトからなる合成画像を生成して第2表示部に表示する仮想オブジェクト管理部を有し、
前記仮想オブジェクト管理部は、
前記第2表示部における前記仮想オブジェクトの表示位置を、前記第2表示部に表示する前記第1表示部の表示データの境界から第1表示部外に延長した方向の位置に設定する情報処理装置にある。
さらに、本発明の情報処理装置の一実施態様において、前記仮想オブジェクト管理部は、前記メモリに格納された非表示データの位置情報である座標データを、前記第2表示部の表示画像における表示位置の指標となるカメラ座標系に変換し、該変換後の座標データを適用して前記仮想オブジェクトの表示位置を決定する。
さらに、本発明の情報処理装置の一実施態様において、前記オブジェクト管理部は、カメラ座標系に変換した前記仮想オブジェクトの表示位置と、カメラ撮影画像に含まれる実オブジェクトの形成面とが交差するか否かを判定し、交差する場合には、前記変換後の座標データを、前記実オブジェクトの形成面上に位置するように座標再変換処理を実行し、再変換処理後の座標データを適用して前記仮想オブジェクトの表示位置を決定する。
さらに、本発明の情報処理装置の一実施態様において、前記情報処理装置は、前記アプリケーション実行部を有する第1の装置と、前記三次元情報解析部と、前記仮想オブジェクト管理部とを有する第2の装置によって構成され、前記アプリケーション実行部が第1の装置内の第1メモリに格納したデータを通信部を介して前記第2の装置に転送し、前記第2装置において、前記三次元情報解析部と、前記仮想オブジェクト管理部とが受信データを利用した処理を行う。
さらに、本発明の第2の側面は、
情報処理装置において実行する情報処理方法であり、
アプリケーション実行部が、第1表示部を利用したデータ処理において前記第1表示部の表示データに連続する非表示データと該非表示データの位置情報をメモリに格納するアプリケーション実行ステップと、
三次元情報解析部が、カメラ撮影画像に含まれる前記第1表示部を含む実オブジェクトの三次元位置を解析する三次元情報解析ステップと、
仮想オブジェクト管理部が、前記メモリに格納された非表示データと該非表示データの位置情報と、前記三次元情報解析部の解析した前記第1表示部の三次元位置情報を入力し、前記カメラ撮影画像に含まれる実オブジェクトと、前記非表示データからなる仮想オブジェクトからなる合成画像を生成して第2表示部に表示する仮想オブジェクト管理ステップを有し、
前記仮想オブジェクト管理ステップは、
前記第2表示部における前記仮想オブジェクトの表示位置を、前記第2表示部に表示する前記第1表示部の表示データの境界から第1表示部外に延長した方向の位置に設定する処理を行なうステップを有する情報処理方法にある。
さらに、本発明の第3の側面は、
情報処理装置において情報処理を実行させるプログラムであり、
アプリケーション実行部に、第1表示部を利用したデータ処理において前記第1表示部の表示データに連続する非表示データと該非表示データの位置情報をメモリに格納させるアプリケーション実行ステップと、
三次元情報解析部に、カメラ撮影画像に含まれる前記第1表示部を含む実オブジェクトの三次元位置を解析させる三次元情報解析ステップと、
仮想オブジェクト管理部に、前記メモリに格納された非表示データと該非表示データの位置情報と、前記三次元情報解析部の解析した前記第1表示部の三次元位置情報を入力させ、前記カメラ撮影画像に含まれる実オブジェクトと、前記非表示データからなる仮想オブジェクトからなる合成画像を生成して第2表示部に表示させる仮想オブジェクト管理ステップを有し、
前記仮想オブジェクト管理ステップは、
前記第2表示部における前記仮想オブジェクトの表示位置を、前記第2表示部に表示する前記第1表示部の表示データの境界から第1表示部外に延長した方向の位置に設定する処理を行なわせるステップを有するプログラムにある。
なお、本発明のプログラムは、例えば、様々なプログラム・コードを実行可能な画像処理装置やコンピュータ・システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、画像処理装置やコンピュータ・システム上でプログラムに応じた処理が実現される。
本発明のさらに他の目的、特徴や利点は、後述する本発明の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
本発明の一実施例の構成によれば、表示部を持つPCや携帯電話などの様々な表示装置において、表示部外の領域にはみ出した非表示データを表示部の表示データに連続する位置に仮想オブジェクトとして表示する構成を実現する。この構成により、ユーザはPCなとの限定された表示領域の表示データのみならず、表示部の外に出てしまったデータを常に観察して確認することが可能となり、データ処理効率を高めることができる。
本発明の情報処理装置の一実施例構成について説明する図である。 本発明の情報処理装置の実行する仮想オブジェクトの表示例について説明する図である。 本発明の情報処理装置の実行する一処理例について説明する図である。 本発明の情報処理装置の実行する処理の一例を示す具体的な処理例について説明する図である。 本発明の情報処理装置の実行する処理の一例を示す具体的な処理例について説明する図である。 本発明の情報処理装置の実行する処理シーケンスについて説明するフローチャートを示す図である。 本発明の情報処理装置の実行する処理の一例を示す具体的な処理例について説明する図である。 本発明の情報処理装置の実行する処理の一例を示す具体的な処理例について説明する図である。 本発明の情報処理装置の実行する処理の一例を示す具体的な処理例について説明する図である。 本発明の情報処理装置の実行する処理の一例を示す具体的な処理例について説明する図である。 本発明の情報処理装置の実行する処理シーケンスについて説明するフローチャートを示す図である。 本発明の情報処理装置の実行する処理の一例を示す具体的な処理例について説明する図である。 本発明の情報処理装置の実行する処理の一例を示す具体的な処理例について説明する図である。 本発明の情報処理装置の実行する処理の一例を示す具体的な処理例について説明する図である。
以下、図面を参照しながら本発明の情報処理装置、および情報処理方法、並びにプログラムの詳細について説明する。
本発明について以下の項目に従って順次説明する。
1.本発明の情報処理装置の構成例と処理例について(実施例1)
2.実世界のオブジェクト形状に適合させた仮想オブジェクトの表示処理(実施例2)
3.その他の表示装置を利用した処理例
[1.本発明の情報処理装置の構成例と処理例について]
本発明の情報処理装置の構成例と処理例について図1以下を参照して説明する。図1は、本発明の情報処理装置の一構成例を示す図である。
ユーザ100は、PC(パーソナルコンピュータ)120を操作して各種のデータ処理を行う。PC120は、図に示すように、アプリケーション実行部121、メモリ122、通信部123を有する。アプリケーション実行部121では、ユーザの選択したアプリケーションプログラムが実行される。例えば文書作成アプリケーションや描画アプリケーションなどである。メモリ122は、RAM,ROM等によって構成され、アプリケーションプログラムの格納領域やワークエリアとして利用される。例えば、以下において説明するスクロール処理などによってPCの表示部(ディスプレイ)に表示されなくなった非表示データおよび非表示データの位置情報などの格納領域としても利用される。通信部123は、複合現実間(MR:Mixed Reality)生成装置130との通信処理を行う。
ユーザ100は、仮想オブジェクトを表示するディスプレイを有するメガネ141を装着している。メガネ141には周囲の環境を撮影するカメラ142が備えられている。メガネ141とカメラ142は、複合現実間(MR:Mixed Reality)生成装置130に接続されている。ユーザ100はメガネ141に設けられたディスプレイの表示画像を観察しながら作業を行う。
メガネ141のディスプレイには、カメラ142の撮影画像である実世界画像を表示し、さらに複合現実感(MR)生成装置130の生成した仮想オブジェクトを実世界画像に併せて表示する。
図1の例において、ユーザ100はPC(パーソナルコンピュータ)120を操作しており、カメラ142は、ユーザ100の操作するPC(パーソナルコンピュータ)120を撮影している。従って、メガネ141のディスプレイには、実世界画像として、例えば、ユーザ100の操作するPC(パーソナルコンピュータ)120のディスプレイとその周囲の様々な実オブジェクトを含む画像が表示される。さらに、この実世界画像に複合現実感(MR)生成装置130の生成した仮想オブジェクトが重ねて表示される。ユーザ100の動きに応じて、カメラ142の向きも変更され、例えばユーザが自分の手を見た場合、手の画像が実世界画像としてメガネ141のディスプレイに表示され、その実世界画像に仮想オブジェクトが併せて表示されることになる。
ユーザ100が、PC120の画面に向かって処理を行っている場合、カメラ142はPC120の画面の画像を中心とした画像を撮影する。この結果、例えば図2に示すようなディスプレイ表示画像200が、ユーザ100の装着したメガネ141のディスプレイに表示される。この図2に示すディスプレイ表示画像150は、実オブジェクトと仮想オブジェクトの合成画像である。
図2についての説明の前に、図1に示す複合現実感(MR)生成装置130の構成について説明する。複合現実感(MR)生成装置130は、図1に示すように、三次元情報解析部131、仮想オブジェクト管理モジュール132、メモリ133、通信部134を有する。
三次元情報解析部131は、ユーザの装着したカメラ142の撮影画像を入力し、撮影画像に含まれるオブジェクトの三次元位置を解析する処理を行う。この三次元位置解析処理は、例えば、SLAM(simultaneous localization and mapping)を適用した処理として行われる。SLAMは、カメラの撮影画像に含まれる様々な実オブジェクトから特徴点を選択し、選択した特徴点の位置とカメラの位置姿勢を併せて検出する処理である。なお、SLAMについては、前述の特許文献1(特開2008−304268号公報)や、特許文献2(特開2008−304269号公報)に記載されている。なお、SLAMの基本的な処理については、論文[Andrew J.Davison,"Real−time simultaneous localisation and mapping with a single camera",Proceedings of the 9th International Conference on Computer Vision,Ninth,(2003)]に記載がある。
三次元情報解析部131は、例えば上記のSLAMを適用してユーザの装着したカメラ142の撮影画像に含まれる実オブジェクトの三次元位置を算出する。ただし三次元情報解析部131は、上記のSLAMに限らず、その他の方法でカメラ撮影画像に含まれるオブジェクトの三次元位置を求める設定であってもよい。
仮想オブジェクト管理モジュール132は、ユーザの装着したメガネ141のディスプレイに表示する仮想オブジェクトの管理を行う。仮想オブジェクトは、メモリ133に格納されたデータである。具体的には、例えば、ユーザの装着したメガネ141のディスプレイには、図2に示すディスプレイ表示画像150が表示される。ディスプレイ表示画像150に含まれるPC画像151は、カメラ142によって撮影された実画像(実オブジェクト)である。この実画像(実オブジェクト)に対して図2に示す仮想オブジェクト161が併せて表示される。
図1に示すユーザ100は、例えば図2に示す実オブジェクトと仮想オブジェクトとの合成画像をメガネ141のディスプレイにおいて観察することができる。図2に示すPC画像151はカメラ142によって撮影された実オブジェクトである。PC画像151内のPC表示部152も実画像である。このPC表示部152には、ユーザが作成中の文書の一部が表示されている。
一方、図2に示す表示画像150に含まれる仮想オブジェクト161は、現実世界のオブジェクト(実オブジェクト)ではない。図2に示す仮想オブジェクト161は、PC画像151内のPC表示部152内に示されるユーザが処理対象としている用紙の一部である。
ユーザは、図1に示すPC120の操作を行い、用紙のサイズを設定し、設定したサイズの用紙に対して文字などを入力しているが、用紙サイズが大きくてPC120の表示領域からはみ出してしまい、用紙全体がPCのディスプレイには表示されない。図2に示す仮想オブジェクト221は、PC120の表示領域からはみ出した非表示データである。PC120のアプリケーション実行部121は、非表示データの発生を検出すると、非表示データと、その位置情報をPC120内のメモリ122に格納する。
メモリ122に格納されたデータは、PC120の通信部123と、複合現実感(MR)生成装置130の通信部134との通信によって、複合現実感(MR)生成装置130に送信される。複合現実感(MR)生成装置130は、PC120からの受信データを複合現実感(MR)生成装置130内のメモリ133に格納する。
複合現実感(MR)生成装置130の仮想オブジェクト管理モジュール132は、メモリ133に格納されたデータを仮想オブジェクトとしてユーザの装着したメガネ141のディスプレイに表示する処理を行う。具体的には、例えば仮想オブジェクトの表示位置を決定して、決定した表示位置に仮想オブジェクトを表示する処理を行う。
図2に示す例では、仮想オブジェクト161を、実オブジェクト画像として表示されるPC画像151のPC表示部152の上部に表示した例を示している。この表示位置は、PC120のアプリケーション実行部121が非表示データとともにメモリ122に格納した位置情報を適用して、仮想オブジェクト管理モジュール132が決定する。この位置情報も通信によってPC120から複合現実間(MR)生成装置130に送信される。
図2に示す仮想オブジェクト161は、ユーザ100によるPC120の操作によって、PC120の表示部(ディスプレイ)の領域外にはみ出した非表示データである。この非表示データがその位置情報とともに通信によって複合現実感(MR)生成装置130に送信され、複合現実感(MR)生成装置130のメモリ133に格納される。複合現実感(MR)生成装置130の仮想オブジェクト管理モジュール132は、メモリ133に格納されたデータを仮想オブジェクトとして、仮想オブジェクトの表示位置を決定する処理を行ない、ユーザの装着したメガネ141のディスプレイに表示する。
なお、図1に示す装置では、PC120と、複合現実感(MR)生成装置130の2つの装置を別の装置として両装置間のデータ通信を行う構成としているが、PC120と、複合現実感(MR)生成装置130を1つの装置として構成することも可能であり、この場合、図1に示す各装置の通信部は省略できる。例えばPC120に複合現実感(MR)生成装置130の三次元情報解析部131、仮想オブジェクト管理モジュール132を設定して、1つのPC内で処理を行なう構成とすることも可能である。
すなわち、図1には、PC(パーソナルコンピュータ)120と複合現実間(MR:Mixed Reality)生成装置130の2つの装置を個別に示しているが、本発明の情報処理装置は、図1に示す複合現実間(MR:Mixed Reality)生成装置130単独の装置としてもよいし、複合現実間(MR:Mixed Reality)生成装置130とPC120の2つの装置から構成される装置であってもよい。あるいは2つの装置の機能を合わせ持つ1つの装置によって構成することもできる。
図1の構成を適用した具体的な処理例について図3以下を参照して説明する。ユーザ100は、PC120のアプリケーション実行部121において文書作成アプリケーションを実行しており、図3(a)に示すようにPC120の表示部201に作成文書を表示して文書を作成している。PC120の表示部120には、作成対象の文書の用紙202aが表示され、ユーザは、この用紙202aに文字などを入力している。表示部201には、用紙202aの半分程度が表示され残りは隠れている。
文書作成が進むと、ユーザは用紙202aを上方向に移動(スクロール)させ、下半分を表示せて入力作業を継続する。すなわち、図3(b)に示すように、作成対象の文書用紙202bの下側を表示し、ユーザは、この文書用紙202bに文字などを入力することができる。しかし、この図3(b)に示す状態では、表示部201には、用紙202bの下半分のみが表示され残りの上側の領域は表示部201の領域外となり、ユーザは確認することができない。
本発明の装置では、表示部201領域外に出たデータ、すなわち、非表示データをその位置情報とともに、一旦、PC120のメモリ122に格納する。その後、この非表示データを位置情報とともに通信部123を介して複合現実感(MR)生成装置130に送信する。複合現実感(MR)生成装置130は、PC120からの受信データ、すなわち非表示データと位置情報を複合現実感(MR)生成装置130内のメモリ133に格納する。
複合現実感(MR)生成装置130の三次元情報解析部131は、ユーザ100に装着したカメラ142の撮影画像を入力し、例えば前述のSLAMを適用して撮影画像に含まれるオブジェクトの三次元位置を算出する。例えば図3に示すPCのディスプレイの4隅に設定されたマーカー321a〜dを特徴点として選択し、これらの特徴点の三次元位置を算出する。
なお、図3に示す例は、特徴点の識別のためにマーカー321a〜dを設定した例を示しているが、このようなマーカーを設定することは必須ではなく、実オブジェクトの形状、例えば画像に含まれる実オブジェクトの角部(コーナー)を検出し、検出した角部(コーナー)を特徴点として選択して、その特徴点の三次元位置を判定することも可能である。なお、角部(コーナー)の検出処理は、既存のハリスコーナーディテクター(Harris Corner Detector)を用いた特徴点抽出処理によって実行可能である。
なお、三次元情報解析部131は、撮影画像から特定のオブジェクトを検出する機能を持つ構成としてもよい。具体的には、例えばPCの形状や特徴情報を予め登録し、この登録情報を適用してPCの画面領域を判別する構成とすれば、撮影画像から、正確にかつ迅速にPCの画面領域を判別することができる。
仮想オブジェクト管理モジュール132は、三次元情報解析部131からカメラ撮影画像に含まれる実オブジェクトの三次元位置情報を取得する。例えばPCの表示部の周囲の4点の位置情報を取得する。さらに、仮想オブジェクト管理モジュール132は、メモリ133に格納された非表示データ、すなわちPC120の操作においてPC画面からはみ出てしまった非表示データを取得し、取得したデータを仮想オブジェクトとしてユーザ100のメガネ141のディスプレイに表示する。
仮想オブジェクトの表示位置は、仮想オブジェクト管理モジュール132が決定する。PC120から受信した非表示データの位置情報と、三次元情報解析部131から取得したカメラ撮影画像中の実オブジェクトの三次元位置情報を適用して決定する。本例では、PC表示部の周囲に設定されることになる。
仮想オブジェクト管理モジュール132は、ユーザ100のメガネ141のディスプレイに対する仮想オブジェクトの表示位置を、メガネ141のディスプレイに表示するPCの表示部の表示データの境界からPCの表示部外に延長した方向に設定する。すなわち、図2の表示データ150のような位置に仮想オブジェクト161を設定した合成画像を生成して表示する。このような表示処理によって、ユーザは、違和感を感ずることなく処理対象としている用紙全体を観察することができる。
図4を参照して、PC120のアプリケーション実行部121が、メモリ122に格納する非表示データの位置情報について説明する。
PC120のアプリケーション実行部121は、例えばスクロール操作によって画面に表示されなくなった非表示データが生じた場合、その非表示データをメモリ122に格納する。図4の例では、点線枠で示す非表示データ330のデータ内容がPC120のメモリ122に格納される。
さらに、PC120のアプリケーション実行部121は、PCの表示部201を形成する平面をxy平面として、特定の位置を原点に設定する。図に示す例では、表示部201の左上部の点を原点350としている。
水平方向をx軸、縦方向をy軸とした表示部201に平行な平面を設定する。この座標系をPC表示部対応座標系とする。アプリケーション実行部121は、このPC表示部対応座標系における非表示データ330の位置を求める。
図4に示す非表示データ330の4隅の座標は、図に示すように、
(x10,y10)
(x11,y11)
(x12,y12)
(x13,y13)
この4点の座標となる。なお、図4に示す例では、非表示データの位置情報を、非表示データの4隅の座標としているが、非表示データの形状に応じて、必要とする位置情報は異なる。アプリケーション実行部121は、非表示データを仮想データとして表示する場合に必要となる非表示データの形状に応じた位置情報を取得してメモリ122に格納する処理を実行する。
図4に示すような矩形形の非表示データ330の場合は、その4隅の座標データを非表示データの位置情報として取得する。その後の処理について図5を参照して説明する。図5に示すように、アプリケーション実行部121は、この4つの座標データを非表示データの位置情報として、非表示データの実体データとともに、メモリ122に格納する。
PC120側のメモリ122に格納された非表示データとその位置情報は、通信部を介して複合現実感(MR)生成装置130に送信され、複合現実感(MR)生成装置130のメモリ133に格納される。
複合現実感(MR)生成装置130の仮想オブジェクト管理モジュール132は、このようにしてPC120から受信した非表示データの位置情報と、三次元情報解析部131から取得したカメラ撮影画像中の実オブジェクトの三次元位置情報を適用して、仮想オブジェクト(非表示データ)の表示位置を決定する。この処理によって、先に図2を参照して説明した表示データ150が生成され、ユーザ100のメガネ141に設定されたディスプレイに表示されることになる。
図6に示すフローチャートを参照して、本発明の情報処理装置の処理シーケンスについて説明する。
図6に示すフローチャートのステップS101〜S103の処理は、図1に示すPC120の処理である。
ステップS104〜S107の処理は、図1に示す複合現実感(MR)生成装置130の処理である。
まず、PC120のアプリケーション実行部121は、ステップS101において、PCの表示部の領域外にはみ出した非表示データの発生を検出すると、ステップS102において、非表示データの実体データと、その位置情報をPC120のメモリ122に格納する。この処理は、図4、図5を参照して説明した処理である。非表示データの位置情報は、例えば、PC表示部平面における非表示データの4隅の座標データである。
次に、ステップS103において、メモリに格納された非表示データと位置情報が、通信部を介して複合現実感(MR)生成装置130に転送される。
ステップS104以降は、複合現実感(MR)生成装置130の処理として行われる。
まず、ステップS104において、複合現実感(MR)生成装置130はPC120から転送された非表示データとその位置情報を複合現実感(MR)生成装置130側のメモリ133に格納する。
次に、ステップS105において、複合現実感(MR)生成装置130の仮想オブジェクト管理モジュール132は、メモリ133に格納されたデータ、すなわち、非表示データとその位置情報を取得する。
ステップS106において、仮想オブジェクト管理モジュール132は、メモリ133から取得した非表示データの位置情報を三次元情報解析部131から取得したカメラ撮影画像に対応するカメラ座標系に変換する処理を行う。
この処理について、図7を参照して説明する。三次元情報解析部131はカメラ撮影画像に含まれるPC120の表示部の4隅のマーカー321a〜321dの三次元位置情報を取得している。図7に示すように、
マーカー321a=(Xa,Ya,Za)
マーカー321b=(Xb,Yb,Zb)
マーカー321c=(Xc,Yc,Zc)
マーカー321d=(Xd,Yd,Zd)
これらの位置情報が取得されている。
仮想オブジェクト管理表示モジュール132は、この三次元位置情報に基づいて、カメラ座標系における実オブジェクトであるPCの表示部の平面を算出し、その算出した平面上に、PC120から取得した非表示データ330を設定するように、座標変換を実行する。カメラ撮影画像にはPC表示部内の用紙位置も含まれ、カメラから取得されたPC表示部内の用紙位置に併せてPC120から取得した非表示データ330を設定するように座標変換を実行する。なお、カメラ座標系を、図7に示すように、カメラ撮影画像におけるPC表示部平面をXY平面としてPC表示部の垂直方向をZ軸として設定すれば、4つのマーカーのZ座標は全て0となるので、Z座標は使用しない設定とすることができる。
図7に示すPCの表示部平面によって形成さるXY平面上に、先にPC120から受信した非表示データの4隅の座標が設定されるように座標変換を実行すればよい。図7に示すように、PC表示部対応座標系(x,y)における非表示データ330の4隅の位置座標は、カメラ座標系(X,Y)の座標として以下のように変換される。
(x10,y10)→(X10,Y10)
(x11,y11)→(X11,Y11)
(x12,y12)→(X12,Y12)
(x13,y13)→(X13,Y13)
仮想オブジェクト管理モジュール132は、この座標を仮想オブジェクトの表示位置として設定する。このようにして、仮想オブジェクト管理モジュール132は、図6に示すフローチャートのステップS106において、メモリ133から取得した非表示データの位置情報を三次元情報解析部131から取得したカメラ撮影画像に対応するカメラ座標系に変換する処理を行う。
ステップS107では、仮想オブジェクト管理モジュール132は、メモリ133から取得した非表示データを仮想オブジェクトとして、ステップS106において算出した仮想オブジェクトの表示位置に表示する処理を実行する。
この処理によって、図8に示す表示データ400が、ユーザ100の装着したメガネ141のディスプレイに表示される。図8に示す表示データ400は、実オブジェクトとしてのPC401と、仮想オブジェクト402が併せて表示される合成画像である。仮想オブジェクト管理モジュール132は、仮想オブジェクトの表示位置を、図8に示すように、PC表示部の表示データの境界からPCの表示部外への延長方向に設定する。このような表示処理によって、ユーザは、違和感を感ずることなく処理対象としている用紙全体を観察することができる。
この処理により、ユーザ100は、PCの表示部に表示されたデータとともに、PCの表示部外にはみ出した非表示データについても仮想オブジェクトとして常時確認することが可能となる。
なお、図6に示すフローチャートを参照して説明した処理は、ユーザがPC120を操作し、例えばスクロール処理などによって非表示データの範囲が変更されるたびに行われる。アプリケーション実行部121は、非表示データの領域や内容が変更される毎にメモリ122の記憶データの更新を実行し、更新データが複合現実感(MR)生成装置130に送信され、複合現実感(MR)生成装置130は更新されたデータに基づいて仮想オブジェクトの表示態様を変更する処理をリアルタイム更新処理として実行する。
[2.実世界のオブジェクト形状に適合させた仮想オブジェクトの表示処理]
次に、本発明の第2実施例として、実世界のオブジェクト形状に適合させた仮想オブジェクトの表示処理について説明する。
上述した実施例では、仮想オブジェクトの表示をPCの画面に対応する平面を拡大して表示する構成としていた。しかし、例えば、図9に示すように、実世界において、PCの表示部の平面が、壁521によってさえぎられている場合がある。このような場合、上述した仮想オブジェクトの表示処理を実行すると、仮想オブジェクトは、壁を突き抜けて表示されることになり、ユーザは違和感のあるデータを観察することになる。
以下では、図9に示すような表示データ500を生成してユーザに提示する。すなわち、仮想オブジェクト512を実世界の実オブジェクト(例えば図9に示す壁521a,521b)の形状に併せて表示する。
本実施例は、仮想オブジェクト512は、実世界のオブジェクトに沿って表示することを可能とする実施例である。例えば図9に示すように、仮想オブジェクト512を、実オブジェクトである壁521bの表面に沿ってれ表示することを可能とする。なお、本実施例においても、装置構成は、図1を参照して説明した構成を適用する。
図10を参照して、本実施例において、PC120のアプリケーション実行部121が、メモリ122に格納する非表示データの位置情報について説明する。PC120のアプリケーション実行部121は、例えばスクロール操作によって画面に表示されなくなった非表示データが生じた場合、その非表示データをメモリ122に格納する。図10の例では、点線枠で示す非表示データ530のデータ内容がPC120のメモリ122に格納される。
さらに、PC120のアプリケーション実行部121は、先に説明した実施例と同様、表示部201の左上部の点を原点とし、水平方向をx軸、縦方向をy軸とした表示部201に平行な平面を設定する。この座標系をPC表示部対応座標系とする。アプリケーション実行部121は、このPC表示部対応座標系における非表示データ530の位置を求める。
図10に示す非表示データ530の4隅の座標は、図に示すように、
(x10,y10)
(x11,y11)
(x12,y12)
(x13,y13)
この4点の座標となる。
PC120側のメモリ122に格納された非表示データとその位置情報は、通信部を介して複合現実感(MR)生成装置130に送信され、複合現実感(MR)生成装置130のメモリ133に格納される。
複合現実感(MR)生成装置130の仮想オブジェクト管理モジュール132は、このようにしてPC120から受信した非表示データの位置情報と、三次元情報解析部131から取得したカメラ撮影画像中の実オブジェクトの三次元位置情報を適用して、仮想オブジェクト(非表示データ)の表示位置を決定する。
本実施例では、図9を参照して説明した表示データ500を生成する。すなわち仮想オブジェクトが実オブジェクトの表面に沿って表示されるように仮想オブジェクトの表示位置を決定する。
図11に示すフローチャートを参照して、本発明の情報処理装置の処理シーケンスについて説明する。
図11に示すフローチャートのステップS201〜S203の処理は、図1に示すPC120の処理である。
ステップS204〜S209の処理は、図1に示す複合現実感(MR)生成装置130の処理である。
まず、PC120のアプリケーション実行部121は、ステップS201において、PCの表示部の領域外にはみ出した非表示データの発生を検出すると、ステップS202において、非表示データの実体データと、その位置情報をPC120のメモリ122に格納する。この処理は、図10を参照して説明した処理である。非表示データの位置情報は、例えば、PC表示部平面における非表示データの4隅の座標データである。
次に、ステップS203において、メモリに格納された非表示データと位置情報が、通信部を介して複合現実感(MR)生成装置130に転送される。
ステップS204以降は、複合現実感(MR)生成装置130の処理として行われる。
まず、ステップS204において、複合現実感(MR)生成装置130はPC120から転送された非表示データとその位置情報を複合現実感(MR)生成装置130側のメモリ133に格納する。
次に、ステップS205において、複合現実感(MR)生成装置130の仮想オブジェクト管理モジュール132は、メモリ133に格納されたデータ、すなわち、非表示データとその位置情報を取得する。
ステップS206において、仮想オブジェクト管理モジュール132は、メモリ133から取得した非表示データの位置情報を三次元情報解析部131から取得したカメラ撮影画像に対応するカメラ座標系に変換する処理を行う。
この処理は、先に第1実施例の処理として説明した図6に示すフローチャートのステップS106の処理と同様の処理である。
すなわち、三次元情報解析部131がカメラ撮影画像に含まれるPC120の表示部の4隅のマーカー321a〜321dの三次元位置情報を取得する。先に図7を参照して説明したように、
マーカー321a=(Xa,Ya,Za)
マーカー321b=(Xb,Yb,Zb)
マーカー321c=(Xc,Yc,Zc)
マーカー321d=(Xd,Yd,Zd)
これらの位置情報を取得する。
仮想オブジェクト管理表示モジュール132は、この三次元位置情報に基づいて、カメラ座標系における実オブジェクトであるPCの表示部の平面を算出し、その算出した平面上に、PC120から取得した非表示データ530を設定するように、座標変換を実行する。カメラ撮影画像にはPC表示部内の用紙位置も含まれ、カメラから取得されたPC表示部内の用紙位置に併せてPC120から取得した非表示データ330を設定するように座標変換を実行する。
この座標変換では、PCの表示部平面によって形成さるXY平面上に、先にPC120から受信した非表示データの4隅の座標が設定されるように座標変換を実行する。PC表示部対応座標系(x,y,z)における非表示データ330の4隅の位置座標は、カメラ座標系(X,Y,Z)の座標として以下のように変換される。
(x10,y10,z10)→(X10,Y10,Z10)
(x11,y11,z11)→(X11,Y11,Z11)
(x12,y12,z12)→(X12,Y12,Z12)
(x13,y13,z13)→(X13,Y13,Z13)
なお、本実施例では、先の実施例と異なり、Z方向についても考慮した処理を行う。
仮想オブジェクト管理表示モジュール132は、ステップS207において、ステップS206の変換処理によって得た仮想オブジェクトの表示位置を示すカメラ座標系の4つの座標によって得られる面が、実オブジェクトの面と交差していないかを判定する。実オブジェクトの面、三次元情報解析部131の取得する実オブジェクトの三次元位置情報から取得される。
仮想オブジェクトの表示面が、実オブジェクトの面と交差していない場合は、ステップS207の判定はNoとなる。この場合は、ステップS209に進み、ステップS206において算出した変換座標を適用して、仮想オブジェクトを表示する。この処理は、先に説明した第1実施例と同様の処理となり、PC表示部の平面を拡大した平面上に、仮想オブジェクトを表示する。
一方、ステップS207において、ステップS206の変換処理によって得た仮想オブジェクトの表示位置を示すカメラ座標系の4つの座標によって得られる面が、実オブジェクトの面と交差していると判定した場合は、ステップS208に進む。
すなわち、図9に示すような状態の場合である。この様な場合は、ステップS208において、仮想オブジェクトの表示位置を示す座標を再変換する処理を行う。すなわちステップS206において算出した仮想オブジェクトの表示位置を示す4つの座標を再度変換する処理を行う、
この変換処理は、仮想オブジェクトの表示位置を示す4つの座標を、実オブジェクトを形成する面に設定するように変換する処理として行なわれる。この処理について、図12を参照して説明する。
ステップS206において、算出した仮想オブジェクトの表示位置である4隅の座標が、図12に示す点541〜544である。これらの座標は、図に示すように、以下の座標である。
点541=(X10,Y10,Z10)
点542=(X11,Y11,Z11)
点543=(X13,Y13,Z13)
点544=(X12,Y12,Z12)
しかしこの4点によって掲載される面は、実オブジェクトである壁521の面と交差している。なお、実オブジェクトである壁521の形成面は、三次元情報解析部131の解析によって得られる。例えば図12に示す壁の4隅の点を特徴点として検出し、この4つの特徴点によって構成される面を、実オブジェクトである壁521の形成面と判定する。
図12に示す例では、壁521bの平面は、4隅の座標である以下の4つの座標によって定義される。
(X30,Y30,Z30)
(X31,Y31,Z31)
(X32,Y32,Z32)
(X33,Y33,Z33)
仮想オブジェクト管理モジュール132は、図12に示す仮想オブジェクトの4点541〜544を上記の壁521bの形成面に展開するように、仮想オブジェクトの4点541〜544の座標を変換する。この結果として、図に示すような変換座標が得られる。
点541(X10,Y10,Z10)→変換後(X10v,Y10v,Z10v)(=点541)
点542(X11,Y11,Z11)→変換後(X11v,Y11v,Z11v)(=点552)
点543(X13,Y13,Z13)→変換後(X13v,Y13v,Z13v)(=点553)
点544(X12,Y12,Z12)→変換後(X12v,Y12v,Z12v)(=点542)
このように4つの変換座標を算出する。なお、図から理解されるように点541と点542は、変換前後の座標位置に変化はない。
壁521bを突き抜けた位置にあった点542と点543は、壁521bの平面上の位置に変換する処理が行なわれる。
ステップS208において、このような座標変換処理の後、ステップS209に進む。ステップS209では、仮想オブジェクト管理モジュール132は、メモリ133から取得した非表示データを仮想オブジェクトとして、ステップS208において算出した仮想オブジェクトの表示位置に表示する処理を実行する。
この処理によって、例えば図13に示す表示データ500が、ユーザ100の装着したメガネ141のディスプレイに表示される。図13に示す表示データ500は、実オブジェクトとしてのPC511と、仮想オブジェクト512が併せて表示される合成画像である。
ユーザ100は、PCの表示部に表示されたデータとともに、PCの表示部外にはみ出した非表示データについても仮想オブジェクトとして常時確認することが可能となる。
なお、図11に示すフローチャートを参照して説明した処理は、ユーザがPC120を操作し、例えばスクロール処理などによって非表示データの範囲が変更されるたびに行われる。アプリケーション実行部121は、非表示データの領域や内容が変更される毎にメモリ122の記憶データの更新を実行し、更新データが複合現実感(MR)生成装置130に送信され、複合現実感(MR)生成装置130は更新されたデータに基づいて仮想オブジェクトの表示態様を変更する処理をリアルタイム更新処理として実行する。
[3.その他の表示装置を利用した処理例]
上述した実施例では、ユーザがPCを操作する場合にPCの表示画面に表示されなくなったデータを仮想オブジェクトとして観察することを可能とした構成を説明した。
しかし、本発明を適用した処理、すなわち、仮想オブジェクト表示処理は、PCにおける処理データばかりではなく、様々な表示部を有する装置において利用できる。例えば図14に示すように携帯電話600の表示部に表示するデータの、表示領域以外の観察を行う場合にも、上述した仮想オブジェクト表示処理を行う個とで、図14に示すような表示データ700をユーザ100の装着したメガネ141のディスプレイに表示することができる。
表示データ700にはユーザの所有する実オブジェクトとしての携帯電話画像701と、地図データとしての仮想オブジェクト702が表示され、ユーザは、携帯電話の表示部の外の部分の広い地図情報を確認することが可能となる。
本発明の構成によれば、例えば、PCなどの表示部の画面外にスクロールされた情報がそのまま実世界に表示されるので、情報を表示するのにスクロールバーを操作する必要がなく、広い領域のデータを常時確認することが可能となる。また、画面外への仮想オブジェクトの表示は、ユーザ操作を行っている画面に連続して表示されるため、視覚的な違和感を生じることなく、広い領域の情報を常時確認することが可能となる。
以上、特定の実施例を参照しながら、本発明について詳解してきた。しかしながら、本発明の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本発明の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
以上、説明したように、本発明の一実施例の構成によれば、表示部を持つPCや携帯電話などの様々な表示装置において、表示部外の領域にはみ出した非表示データを表示部の表示データに連続する位置に仮想オブジェクトとして表示する構成を実現する。この構成により、ユーザはPCなとの限定された表示領域の表示データのみならず、表示部の外に出てしまったデータを常に観察して確認することが可能となり、データ処理効率を高めることができる。
100 ユーザ
120 PC(パーソンナルコンピュータ)
121 アプリケーション実行部
122 メモリ
123 通信部
130 複合現実感(MR)生成装置
131 三次元情報解析部
132 仮想オブジェクト管理モジュール
133 メモリ
134 通信部
141 メガネ
142 カメラ
150 ディスプレイ表示画像
151 PC画像
152 PC表示部
161 仮想オブジェクト
201 表示部
202 用紙
321a〜321d マーカー
330 非表示データ
350 原点
401 PC
402 仮想ブジェクト
500 表示データ
511 PC
512 仮想オブジェクト
521 壁
530 非表示データ
600 携帯電話
700 表示データ
701 携帯電話画像(実オブジェクト)
702 仮想オブジェクト

Claims (6)

  1. 第1表示部を利用したデータ処理において前記第1表示部の表示データに連続する非表示データと該非表示データの位置情報をメモリに格納するアプリケーション実行部と、
    カメラ撮影画像に含まれる前記第1表示部を含む実オブジェクトの三次元位置を解析する三次元情報解析部と、
    前記メモリに格納された非表示データと該非表示データの位置情報と、前記三次元情報解析部の解析した前記第1表示部の三次元位置情報を入力し、前記カメラ撮影画像に含まれる実オブジェクトと、前記非表示データからなる仮想オブジェクトからなる合成画像を生成して第2表示部に表示する仮想オブジェクト管理部を有し、
    前記仮想オブジェクト管理部は、
    前記第2表示部における前記仮想オブジェクトの表示位置を、前記第2表示部に表示する前記第1表示部の表示データの境界から第1表示部外に延長した方向の位置に設定する情報処理装置。
  2. 前記仮想オブジェクト管理部は、
    前記メモリに格納された非表示データの位置情報である座標データを、前記第2表示部の表示画像における表示位置の指標となるカメラ座標系に変換し、該変換後の座標データを適用して前記仮想オブジェクトの表示位置を決定する請求項1に記載の情報処理装置。
  3. 前記オブジェクト管理部は、
    カメラ座標系に変換した前記仮想オブジェクトの表示位置と、カメラ撮影画像に含まれる実オブジェクトの形成面とが交差するか否かを判定し、交差する場合には、前記変換後の座標データを、前記実オブジェクトの形成面上に位置するように座標再変換処理を実行し、再変換処理後の座標データを適用して前記仮想オブジェクトの表示位置を決定する請求項2に記載の情報処理装置。
  4. 前記情報処理装置は、
    前記アプリケーション実行部を有する第1の装置と、
    前記三次元情報解析部と、前記仮想オブジェクト管理部とを有する第2の装置によって構成され、
    前記アプリケーション実行部が第1の装置内の第1メモリに格納したデータを通信部を介して前記第2の装置に転送し、前記第2装置において、前記三次元情報解析部と、前記仮想オブジェクト管理部とが受信データを利用した処理を行う請求項1〜3いずれかに記載の情報処理装置。
  5. 情報処理装置において実行する情報処理方法であり、
    アプリケーション実行部が、第1表示部を利用したデータ処理において前記第1表示部の表示データに連続する非表示データと該非表示データの位置情報をメモリに格納するアプリケーション実行ステップと、
    三次元情報解析部が、カメラ撮影画像に含まれる前記第1表示部を含む実オブジェクトの三次元位置を解析する三次元情報解析ステップと、
    仮想オブジェクト管理部が、前記メモリに格納された非表示データと該非表示データの位置情報と、前記三次元情報解析部の解析した前記第1表示部の三次元位置情報を入力し、前記カメラ撮影画像に含まれる実オブジェクトと、前記非表示データからなる仮想オブジェクトからなる合成画像を生成して第2表示部に表示する仮想オブジェクト管理ステップを有し、
    前記仮想オブジェクト管理ステップは、
    前記第2表示部における前記仮想オブジェクトの表示位置を、前記第2表示部に表示する前記第1表示部の表示データの境界から第1表示部外に延長した方向の位置に設定する処理を行なうステップを有する情報処理方法。
  6. 情報処理装置において情報処理を実行させるプログラムであり、
    アプリケーション実行部に、第1表示部を利用したデータ処理において前記第1表示部の表示データに連続する非表示データと該非表示データの位置情報をメモリに格納させるアプリケーション実行ステップと、
    三次元情報解析部に、カメラ撮影画像に含まれる前記第1表示部を含む実オブジェクトの三次元位置を解析させる三次元情報解析ステップと、
    仮想オブジェクト管理部に、前記メモリに格納された非表示データと該非表示データの位置情報と、前記三次元情報解析部の解析した前記第1表示部の三次元位置情報を入力させ、前記カメラ撮影画像に含まれる実オブジェクトと、前記非表示データからなる仮想オブジェクトからなる合成画像を生成して第2表示部に表示させる仮想オブジェクト管理ステップを有し、
    前記仮想オブジェクト管理ステップは、
    前記第2表示部における前記仮想オブジェクトの表示位置を、前記第2表示部に表示する前記第1表示部の表示データの境界から第1表示部外に延長した方向の位置に設定する処理を行なわせるステップを有するプログラム。
JP2009105294A 2009-04-23 2009-04-23 情報処理装置、および情報処理方法、並びにプログラム Expired - Fee Related JP5158006B2 (ja)

Priority Applications (9)

Application Number Priority Date Filing Date Title
JP2009105294A JP5158006B2 (ja) 2009-04-23 2009-04-23 情報処理装置、および情報処理方法、並びにプログラム
TW99106017A TWI469622B (zh) 2009-04-23 2010-03-02 Information processing devices, information processing methods, and program products
PCT/JP2010/054541 WO2010122859A1 (ja) 2009-04-23 2010-03-17 情報処理装置、および情報処理方法、並びにプログラム
EP10766918.6A EP2423789B1 (en) 2009-04-23 2010-03-17 Information processing device, information processing method, and program
CN201080016939.7A CN102395948B (zh) 2009-04-23 2010-03-17 信息处理设备、信息处理方法以及程序
BRPI1015167A BRPI1015167A2 (pt) 2009-04-23 2010-03-17 aparelho e método de processamento de informação, e, programa
US13/264,133 US8994721B2 (en) 2009-04-23 2010-03-17 Information processing apparatus, information processing method, and program for extending or expanding a viewing area of content displayed on a 2D workspace into a 3D virtual display screen
RU2011141838/08A RU2536363C2 (ru) 2009-04-23 2010-03-17 Устройство обработки информации, способ обработки информации и программа
KR1020117024242A KR20120008030A (ko) 2009-04-23 2010-03-17 정보 처리 장치, 정보 처리 방법 및 프로그램

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009105294A JP5158006B2 (ja) 2009-04-23 2009-04-23 情報処理装置、および情報処理方法、並びにプログラム

Publications (2)

Publication Number Publication Date
JP2010257123A true JP2010257123A (ja) 2010-11-11
JP5158006B2 JP5158006B2 (ja) 2013-03-06

Family

ID=43010982

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009105294A Expired - Fee Related JP5158006B2 (ja) 2009-04-23 2009-04-23 情報処理装置、および情報処理方法、並びにプログラム

Country Status (9)

Country Link
US (1) US8994721B2 (ja)
EP (1) EP2423789B1 (ja)
JP (1) JP5158006B2 (ja)
KR (1) KR20120008030A (ja)
CN (1) CN102395948B (ja)
BR (1) BRPI1015167A2 (ja)
RU (1) RU2536363C2 (ja)
TW (1) TWI469622B (ja)
WO (1) WO2010122859A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9007401B1 (en) 2014-02-20 2015-04-14 Lg Electronics Inc. Head mounted display and method for controlling the same
JP2015176578A (ja) * 2014-03-18 2015-10-05 任天堂株式会社 情報処理システム、情報処理装置、情報処理プログラム、および情報処理方法
WO2017057467A1 (ja) * 2015-09-29 2017-04-06 株式会社会津ラボ 関連情報表示装置
US10013795B2 (en) 2015-09-14 2018-07-03 Fujitsu Limited Operation support method, operation support program, and operation support system
CN109840042A (zh) * 2017-11-28 2019-06-04 奥兰治公司 在混合现实中显示虚拟对象的方法以及相关终端和系统

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2980005A1 (fr) * 2011-09-09 2013-03-15 Movea Procede de controle d'un curseur par des mesures d'attitude d'un pointeur et pointeur mettant en oeuvre ledit procede
CN103959344B (zh) * 2011-12-20 2017-03-01 英特尔公司 跨越多个设备的增强现实表示
US9164972B2 (en) * 2012-06-07 2015-10-20 Microsoft Technology Licensing, Llc Managing objects in panorama display to navigate spreadsheet
WO2014069248A1 (ja) * 2012-11-02 2014-05-08 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
CN103676172B (zh) * 2013-12-23 2017-04-19 Tcl集团股份有限公司 一种3d电子沙盘显示装置及方法
US10001645B2 (en) * 2014-01-17 2018-06-19 Sony Interactive Entertainment America Llc Using a second screen as a private tracking heads-up display
US9696549B2 (en) * 2014-12-22 2017-07-04 International Business Machines Corporation Selectively pairing an application presented in virtual space with a physical display
US9952656B2 (en) 2015-08-21 2018-04-24 Microsoft Technology Licensing, Llc Portable holographic user interface for an interactive 3D environment
US10353564B2 (en) * 2015-12-21 2019-07-16 Sap Se Graphical user interface with virtual extension areas
JP6602743B2 (ja) 2016-12-08 2019-11-06 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および情報処理方法
US11366514B2 (en) 2018-09-28 2022-06-21 Apple Inc. Application placement based on head position
US11379033B2 (en) * 2019-09-26 2022-07-05 Apple Inc. Augmented devices
CN113711175A (zh) * 2019-09-26 2021-11-26 苹果公司 呈现计算机生成现实环境的可穿戴电子设备
DE112020001415T5 (de) 2019-09-27 2021-12-09 Apple Inc. Umgebung für Fernkommunikation
TWI757824B (zh) 2020-08-10 2022-03-11 宏碁股份有限公司 擴增實境螢幕系統及擴增實境螢幕顯示方法
US11175791B1 (en) * 2020-09-29 2021-11-16 International Business Machines Corporation Augmented reality system for control boundary modification
GB2620175A (en) * 2022-06-30 2024-01-03 Sony Interactive Entertainment Europe Ltd Representing virtual objects outside of a display screen

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006154902A (ja) * 2004-11-25 2006-06-15 Olympus Corp 手書き画像表示システム及び空間手書き用携帯情報端末

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6407817B1 (en) * 1993-12-20 2002-06-18 Minolta Co., Ltd. Measuring system with improved method of reading image data of an object
JP3287312B2 (ja) * 1998-08-13 2002-06-04 日本電気株式会社 ポインティング装置
FI117488B (fi) * 2001-05-16 2006-10-31 Myorigo Sarl Informaation selaus näytöllä
JP4393169B2 (ja) * 2003-12-04 2010-01-06 キヤノン株式会社 複合現実感提示方法および装置
JP4125252B2 (ja) * 2004-03-02 2008-07-30 株式会社東芝 画像生成装置、画像生成方法、及び画像生成プログラム
US20050285878A1 (en) * 2004-05-28 2005-12-29 Siddharth Singh Mobile platform
JP4434890B2 (ja) * 2004-09-06 2010-03-17 キヤノン株式会社 画像合成方法及び装置
JP2006105640A (ja) * 2004-10-01 2006-04-20 Hitachi Ltd ナビゲーション装置
JP4533087B2 (ja) * 2004-10-28 2010-08-25 キヤノン株式会社 画像処理方法、画像処理装置
JP4933164B2 (ja) * 2005-07-01 2012-05-16 キヤノン株式会社 情報処理装置、情報処理方法、プログラムおよび記憶媒体
JP2008304269A (ja) 2007-06-06 2008-12-18 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP5380789B2 (ja) 2007-06-06 2014-01-08 ソニー株式会社 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
KR100927009B1 (ko) * 2008-02-04 2009-11-16 광주과학기술원 증강 현실에서의 햅틱 상호 작용 방법 및 그 시스템
US20100208033A1 (en) * 2009-02-13 2010-08-19 Microsoft Corporation Personal Media Landscapes in Mixed Reality
JP5499762B2 (ja) * 2010-02-24 2014-05-21 ソニー株式会社 画像処理装置、画像処理方法、プログラム及び画像処理システム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006154902A (ja) * 2004-11-25 2006-06-15 Olympus Corp 手書き画像表示システム及び空間手書き用携帯情報端末

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9007401B1 (en) 2014-02-20 2015-04-14 Lg Electronics Inc. Head mounted display and method for controlling the same
WO2015126006A1 (en) * 2014-02-20 2015-08-27 Lg Electronics Inc. Head mounted display and method for controlling the same
JP2015176578A (ja) * 2014-03-18 2015-10-05 任天堂株式会社 情報処理システム、情報処理装置、情報処理プログラム、および情報処理方法
US10013795B2 (en) 2015-09-14 2018-07-03 Fujitsu Limited Operation support method, operation support program, and operation support system
WO2017057467A1 (ja) * 2015-09-29 2017-04-06 株式会社会津ラボ 関連情報表示装置
CN109840042A (zh) * 2017-11-28 2019-06-04 奥兰治公司 在混合现实中显示虚拟对象的方法以及相关终端和系统

Also Published As

Publication number Publication date
RU2011141838A (ru) 2013-05-10
US8994721B2 (en) 2015-03-31
TWI469622B (zh) 2015-01-11
EP2423789B1 (en) 2020-04-29
EP2423789A1 (en) 2012-02-29
KR20120008030A (ko) 2012-01-25
EP2423789A4 (en) 2014-12-03
CN102395948B (zh) 2015-06-24
RU2536363C2 (ru) 2014-12-20
BRPI1015167A2 (pt) 2016-04-19
US20120032955A1 (en) 2012-02-09
JP5158006B2 (ja) 2013-03-06
WO2010122859A1 (ja) 2010-10-28
CN102395948A (zh) 2012-03-28
TW201103312A (en) 2011-01-16

Similar Documents

Publication Publication Date Title
JP5158006B2 (ja) 情報処理装置、および情報処理方法、並びにプログラム
JP5871345B2 (ja) 3次元ユーザインタフェース装置及び3次元操作方法
JP5936155B2 (ja) 3次元ユーザインタフェース装置及び3次元操作方法
JP5263049B2 (ja) 情報処理装置、および情報処理方法、並びにプログラム
CN105659295B (zh) 用于在移动设备上的真实环境的视图中表示兴趣点的方法以及用于此方法的移动设备
KR101816041B1 (ko) 시스루 스마트 안경 및 그 투시 방법
US20210113172A1 (en) Lesion Detection Method, Apparatus and Device, and Storage Medium
JP2011028309A5 (ja)
WO2013035758A1 (ja) 情報表示システム、情報表示方法、及び記憶媒体
JP2016194799A (ja) 画像解析装置及び画像解析方法
JP5158007B2 (ja) 情報処理装置、および情報処理方法、並びにプログラム
CN111033573A (zh) 信息处理装置、系统、图像处理方法、计算机程序及存储介质
JP2022058753A (ja) 情報処理装置、情報処理方法及びプログラム
US20130187852A1 (en) Three-dimensional image processing apparatus, three-dimensional image processing method, and program
CN106125937B (zh) 一种信息处理方法和处理器
JP5510529B2 (ja) 情報処理装置、記憶媒体、情報処理システム、および情報処理方法、並びにプログラム
JP5683402B2 (ja) 画像合成装置及び画像合成方法
JP2009146140A (ja) 3次元画像表示装置
JP2014010684A (ja) 情報処理装置
TW201112047A (en) System for operating interactive user interface and method thereof
WO2008029531A1 (fr) Dispositif de synthèse d'images vidéo stéréoscopiques, procédé de production de données de forme et programme correspondant
JP2014078861A (ja) 表示制御装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121022

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121126

R151 Written notification of patent or utility model registration

Ref document number: 5158006

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151221

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees