JP2010257359A - 情報処理装置、および情報処理方法、並びにプログラム - Google Patents

情報処理装置、および情報処理方法、並びにプログラム Download PDF

Info

Publication number
JP2010257359A
JP2010257359A JP2009108777A JP2009108777A JP2010257359A JP 2010257359 A JP2010257359 A JP 2010257359A JP 2009108777 A JP2009108777 A JP 2009108777A JP 2009108777 A JP2009108777 A JP 2009108777A JP 2010257359 A JP2010257359 A JP 2010257359A
Authority
JP
Japan
Prior art keywords
virtual object
data
information
display
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009108777A
Other languages
English (en)
Other versions
JP5158007B2 (ja
Inventor
Koichi Matsuda
晃一 松田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009108777A priority Critical patent/JP5158007B2/ja
Priority to TW099104512A priority patent/TWI423075B/zh
Priority to PCT/JP2010/054542 priority patent/WO2010125868A1/ja
Priority to EP10769568A priority patent/EP2426578A4/en
Priority to US13/266,301 priority patent/US9772683B2/en
Priority to CN201080018132.7A priority patent/CN102414640B/zh
Publication of JP2010257359A publication Critical patent/JP2010257359A/ja
Application granted granted Critical
Publication of JP5158007B2 publication Critical patent/JP5158007B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Position Input By Displaying (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】表示部に表示されないデータを仮想オブジェクトとして常に観察可能な構成を実現する。
【解決手段】例えばPCを適用したデータ処理において、削除処理やコピー処理の対象としたデータなどPCの表示部に表示されないデータを仮想オブジェクトとして設定し、ユーザの手の指などに貼り付けて、常に観察することを可能な構成とした。本構成によれば、PCの表示領域に表示されないデータをPCの表示領域以外の空間に貼り付けて表示して観察することが可能となり、データ処理の効率を高めることが可能となる。
【選択図】図2

Description

本発明は、情報処理装置、および情報処理方法、並びにプログラムに関する。さらに詳細には、実世界の実物体と電子的な表示を融合させた複合現実感(MR:Mixed Reality)を利用したデータ処理を行う情報処理装置、および情報処理方法、並びにプログラムに関する。
例えばユーザがPC(パーソナルコンピュータ)を利用したデータ処理を行う場合、ユーザは、PCの表示部(ディスプレイ)の表示データに対する処理を行う。例えばデータのコピーやカット(削除)を行う場合を例として説明する。この場合、ユーザは、表示部(ディスプレイ)に表示した文字列あるいは画像領域などを指定し、指定処理の後、コマンド入力によりデータをカット(削除)する処理、あるいは他の領域にコピーする処理を行う。
このようなカットやコピー処理の対象とした処理データは、PC内のメモリに格納されるが、処理過程で表示領域からは消えてしまう場合がある。ユーザが、これらのカットやコピー対象とした処理データの内容を確認したい場合の処理としては、例えば以下の処理が必要となる。
(a)処理データを表示部(ディスプレイ)の一部領域に常に表示する。
(b)処理データをコピーバッファに格納し、ユーザ操作によってコピーバッファの格納データを読み出して表示部(ディスプレイ)に表示する。
(c)処理データをユーザ操作によって表示部(ディスプレイ)内の指定領域にペースト(貼り付け)して表示する。
例えば、上記のような方法を行えば、カット処理やコピー処理の処理データについて、その内容を確認することができる。
しかし、上記手法において、(a)の手法は、処理データを、常時表示部に表示することが必要となり、表示部の少なくとも一部領域が占有されてしまう。その結果、ユーザが表示部内で利用する主要ワーク領域、例えば文書作成画面の領域が狭くなってしまうといった問題が発生する。また、(b)の手法はコピーバッファの格納データを表示させるというユーザ操作が必要となり、ユーザの処理負担が増加するという問題がある。また(c)の手法もユーザ操作が必要であり、また処理データをペースト(貼り付け)した後に、ペーストしたデータの間違いに気づいた場合には削除処理や、やり直し(UNDO)といった新たな処理が必要となるという問題がある。
本発明は、このような問題を、例えば複合現実感(MR:Mixed Reality)を利用したデータ処理を利用して解決するものである。なお、複合現実感について説明した従来技術としては、例えば特許文献1(特開2008−304268号公報)や、特許文献2(特開2008−304269号公報)がある。これらの文献には、カメラによって撮影された画像を利用して実世界の三次元マップを作成する処理について記載している。
特開2008−304268号公報 特開2008−304269号公報
本発明は、複合現実感(MR:Mixed Reality)を利用したデータ処理により、例えばPCなどの表示部(ディスプレイ)以外の領域に、様々なデータを電子的に貼り付けた合成画像を生成して、この合成画像を観察可能とすることで、主要ワーク領域として利用する表示部以外の空間領域を有効に利用可能とした情報処理装置、および情報処理方法、並びにプログラムを提供することを目的とする。
本発明の第1の側面は、
第1表示部を利用したデータ処理において生成した処理データを格納するメモリと、
カメラ撮影画像に含まれる実オブジェクトの三次元位置を解析する三次元情報解析部と、
前記三次元情報解析部の解析情報を入力し、前記実オブジェクトの構成部位を仮想オブジェクト表示位置として決定し、前記実オブジェクトと前記仮想オブジェクトを合成した合成画像を第2表示部に表示する仮想オブジェクト管理部を有し、
前記仮想オブジェクト管理部は、
前記第2表示部に表示された仮想オブジェクトに対する処理要求の入力に応じて、処理要求のなされた仮想オブジェクトに対応するデータを前記第1表示部を適用したデータ処理を行うデータ処理装置または該データ処理装置のアクセス可能なメモリに出力する処理を行う情報処理装置にある。
さらに、本発明の情報処理装置の一実施態様において、前記情報処理装置は、通信部を有し、前記第1表示部を適用したデータ処理を行うデータ処理装置との通信を実行して、前記第1表示部を適用したデータ処理用のデータを送受信する。
さらに、本発明の情報処理装置の一実施態様において、前記三次元情報解析部は、カメラ撮影画像に含まれるユーザの手の各指を認識する手認識モジュールを有し、手認識モジュールにおいて認識されたユーザの手の各指の三次元位置を解析する構成であり、前記仮想オブジェクト管理部は、ユーザの手の各指の位置を前記仮想オブジェクト表示位置として決定し、ユーザの手の各指の位置に前記仮想オブジェクトを合成した合成画像を第2表示部に表示する処理を行う。
さらに、本発明の情報処理装置の一実施態様において、前記メモリに格納されるデータは、前記第1表示部を適用したデータ処理において実行されたデータ削除処理またはデータコピー処理の対象となったデータである。
さらに、本発明の情報処理装置の一実施態様において、前記仮想オブジェクト管理部は、前記三次元情報解析部の解析情報を入力し、前記第2表示部の表示画像に含まれる実オブジェクトの構成部位を仮想オブジェクト表示位置として決定し、決定情報を仮想オブジェクト情報管理テーブルに登録する処理を行う。
さらに、本発明の情報処理装置の一実施態様において、前記仮想オブジェクト管理部は、前記仮想オブジェクト情報管理テーブルに登録された仮想オブジェクト表示位置に対応する前記第2表示部の表示位置に仮想オブジェクトが表示中であるか否かを示す状態情報を登録する処理を行う。
さらに、本発明の情報処理装置の一実施態様において、前記仮想オブジェクト管理部は、前記仮想オブジェクト情報管理テーブルの前記状態情報を参照して、新たな仮想オブジォクトの表示可否を判定し、ユーザ入力に応じて前記第2表示部に表示中の仮想オブジェクトの削除処理を行う。
さらに、本発明の第2の側面は、
情報処理装置において実行する情報処理方法であり、
制御部が、第1表示部を利用したデータ処理に適用する処理データをメモリに格納するステップと、
三次元情報解析部が、カメラ撮影画像に含まれる実オブジェクトの三次元位置を解析する三次元情報解析ステップと、
仮想オブジェクト管理部が、前記三次元情報解析部の解析情報を入力し、前記実オブジェクトの構成部位を仮想オブジェクト表示位置として決定し、前記実オブジェクトと前記仮想オブジェクトを合成した合成画像を第2表示部に表示するステップと、
前記仮想オブジェクト管理部が、前記第2表示部に表示された仮想オブジェクトに対する処理要求の入力に応じて、処理要求のなされた仮想オブジェクトに対応するデータを、前記第1表示部を適用したデータ処理を行うデータ処理装置または該データ処理装置のアクセス可能なメモリに出力する処理を行うステップと、
を有する情報処理方法にある。
さらに、本発明の第3の側面は、
情報処理装置において情報処理を実行させるプログラムであり、
制御部に、第1表示部を利用したデータ処理に適用する処理データをメモリに格納させるステップと、
三次元情報解析部に、カメラ撮影画像に含まれる実オブジェクトの三次元位置を解析させる三次元情報解析ステップと、
仮想オブジェクト管理部に、前記三次元情報解析部の解析情報を入力させて、前記実オブジェクトの構成部位を仮想オブジェクト表示位置として決定させ、前記実オブジェクトと前記仮想オブジェクトを合成した合成画像を第2表示部に表示させるステップと、
前記仮想オブジェクト管理部に、前記第2表示部に表示された仮想オブジェクトに対する処理要求の入力に応じて、処理要求のなされた仮想オブジェクトに対応するデータを、前記第1表示部を適用したデータ処理を行うデータ処理装置または該データ処理装置のアクセス可能なメモリに出力する処理を行わせるステップと、
を実行させるプログラムにある。
なお、本発明のプログラムは、例えば、様々なプログラム・コードを実行可能な画像処理装置やコンピュータ・システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、画像処理装置やコンピュータ・システム上でプログラムに応じた処理が実現される。
本発明のさらに他の目的、特徴や利点は、後述する本発明の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
本発明の一実施例の構成によれば、例えばPCを適用したデータ処理において、削除処理やコピー処理の対象としたデータなどPCの表示部に表示されないデータを仮想オブジェクトとして設定し、ユーザの手の指などに貼り付けて、常に観察することを可能な構成とした。本構成によれば、PCの表示領域に表示されないデータをPCの表示領域以外の空間に貼り付けて表示して観察することが可能となり、データ処理の効率を高めることが可能となる。
本発明の情報処理装置の一実施例構成について説明する図である。 本発明の情報処理装置の実行する仮想オブジェクトの表示例について説明する図である。 本発明の情報処理装置の実行する一処理例について説明する図である。 本発明の情報処理装置の実行する仮想オブジェクトの表示例について説明する図である。 本発明の情報処理装置の実行する仮想オブジェクト貼り付け位置の設定登録処理シーケンスについて説明するフローチャートを示す図である。 本発明の情報処理装置の実行する仮想オブジェクト貼り付け位置の設定登録において利用するテーブルの構成例について説明する図である。 本発明の情報処理装置の実行する仮想オブジェクト貼り付け処理シーケンスについて説明するフローチャートを示す図である。 本発明の情報処理装置の実行する仮想オブジェクト対応データを利用したデータ処理シーケンスについて説明するフローチャートを示す図である。 本発明の情報処理装置の実行する仮想オブジェクト対応データを利用したデータ処理シーケンスについて説明するフローチャートを示す図である。 本発明の情報処理装置の実行する仮想オブジェクトの表示例について説明する図である。 本発明の情報処理装置の実行する仮想オブジェクト貼り付け位置の設定登録において利用するテーブルの構成例について説明する図である。
以下、図面を参照しながら本発明の情報処理装置、および情報処理方法、並びにプログラムの詳細について説明する。
本発明について以下の項目に従って順次説明する。
1.本発明の情報処理装置の構成例と処理例について
2.本発明の情報処理装置の実行する処理のシーケンス例について
3.仮想オブジェクトの貼り付け対象とする実オブジェクトの例について
[1.本発明の情報処理装置の構成例と処理例について]
本発明の情報処理装置の構成例と処理例について図1以下を参照して説明する。図1は、本発明の情報処理装置の一構成例を示す図である。
ユーザ100は、PC(パーソナルコンピュータ)120を操作して、各種のデータ処理を行うことができる。PC120は、図に示すように、アプリケーション実行部121、メモリ122、通信部123を有する。アプリケーション実行部121では、ユーザの選択したアプリケーションプログラムが実行される。例えば文書作成アプリケーションや描画アプリケーションなどである。メモリ122は、RAM,ROM等によって構成され、アプリケーションプログラムの格納領域やワークエリアとして利用される。例えば、以下において説明するコピー処理やカット処理などにおける処理データの格納領域としても利用される。通信部123は、複合現実間(MR:Mixed Reality)生成装置130との通信処理を行う。
ユーザ100は、仮想オブジェクトを表示するディスプレイを有するメガネ141を装着している。メガネ141には周囲の環境を撮影するカメラ142が備えられている。メガネ141とカメラ142は、複合現実間(MR:Mixed Reality)生成装置130に接続されている。ユーザ100はメガネ141に設けられたディスプレイの表示画像を観察しながら作業を行う。
メガネ141のディスプレイには、カメラ142の撮影画像である実世界画像を表示し、さらに複合現実感(MR)生成装置130の生成した仮想オブジェクトを実世界画像に併せて表示する。
図1の例において、ユーザ100はPC(パーソナルコンピュータ)120を操作しており、カメラ142は、ユーザ100の操作するPC(パーソナルコンピュータ)120を撮影している。従って、メガネ141のディスプレイには、実世界画像として、例えば、ユーザ100の操作するPC(パーソナルコンピュータ)120のディスプレイとその周囲の様々な実オブジェクトを含む画像が表示される。さらに、この実世界画像に複合現実感(MR)生成装置130の生成した仮想オブジェクトが重ねて表示される。ユーザ100の動きに応じて、カメラ142の向きも変更され、例えばユーザが自分の手を見た場合、手の画像が実世界画像としてメガネ141のディスプレイに表示され、その実世界画像に仮想オブジェクトが併せて表示されることになる。例えば図2に示すような実オブジェクトと仮想オブジェクトの合成画像がディスプレイ表示画像200として表示される。
図2についての説明の前に、図1に示す複合現実感(MR)生成装置130の構成について説明する。複合現実感(MR)生成装置130は、図1に示すように、三次元情報解析部131、仮想オブジェクト管理モジュール132、メモリ133、通信部134を有する。
三次元情報解析部131は、ユーザの装着したカメラ142の撮影画像を入力し、撮影画像に含まれるオブジェクトの三次元位置を解析する処理を行う。この三次元位置解析処理は、例えば、SLAM(simultaneous localization and mapping)を適用した処理として行われる。SLAMは、カメラの撮影画像に含まれる様々な実オブジェクトから特徴点を選択し、選択した特徴点の位置とカメラの位置姿勢を併せて検出する処理である。なお、SLAMについては、前述の特許文献1(特開2008−304268号公報)や、特許文献2(特開2008−304269号公報)に記載されている。なお、SLAMの基本的な処理については、論文[Andrew J.Davison,"Real−time simultaneous localisation and mapping with a single camera",Proceedings of the 9th International Conference on Computer Vision,Ninth,(2003)]に記載がある。
三次元情報解析部131は、例えば上記のSLAMを適用してユーザの装着したカメラ142の撮影画像に含まれる実オブジェクトの三次元位置を算出する。ただし三次元情報解析部131は、上記のSLAMに限らず、その他の方法でカメラ撮影画像に含まれるオブジェクトの三次元位置を求める設定であってもよい。
仮想オブジェクト管理モジュール132は、ユーザの装着したメガネ141のディスプレイに表示する仮想オブジェクトの管理を行う。仮想オブジェクトは、メモリ133に格納されたデータである。具体的には、例えば、ユーザの装着したメガネ141のディスプレイには、図2に示すディスプレイ表示画像200が表示される。ディスプレイ表示画像200に含まれる手の画像は、カメラ142によって撮影された実画像(実オブジェクト)である。この実画像(実オブジェクト)に対して図2に示す仮想オブジェクト201〜203が併せて表示される。
図1に示すユーザ100は、ユーザ100の手に図1に示す仮想オブジェクト150が張り付いた画像をメガネ141のディスプレイによって観察することができる。図1に示す仮想オブジェクト150は、図2に示す仮想オブジェクト201〜203に対応し現実世界のオブジェクト(実オブジェクト)ではない。
図1に示す仮想オブジェクト150に対応するデータである図2に示す仮想オブジェクト201〜203は、ユーザ100によるPC120の操作によって、コピー処理やカット処理のなされた処理データである。この処理データは、ユーザ100のPC120に対する操作に従い、PC120のアプリケーション実行部121の処理によって、PC120内のメモリ122に格納される。
メモリ122に格納されたデータは、PC120の通信部123と、複合現実感(MR)生成装置130の通信部134との通信によって、複合現実感(MR)生成装置130に送信される。複合現実感(MR)生成装置130は、PC120からの受信データを複合現実感(MR)生成装置130内のメモリ133に格納する。
複合現実感(MR)生成装置130の仮想オブジェクト管理モジュール132は、メモリ133に格納されたデータを仮想オブジェクトとしてユーザの装着したメガネ141のディスプレイに表示する処理を行う。具体的には、例えば仮想オブジェクトの表示位置を決定して、決定した表示位置に仮想オブジェクトを表示する処理を行う。
図2に示す例では、3つの仮想オブジェクト201〜203を、実世界画像として表示されるユーザの[手]のそれぞれの指の指先に表示位置を設定して表示した例を示している。
仮想オブジェクト201[Change]、
仮想オブジェクト202[Yes,we can]、
仮想オブジェクト203[写真画像]、
これらは、いずれもユーザ100によるPC120の操作によって、カットあるいはコピー対象データとしてPC120のメモリ122に格納されたデータである。これらのデータが通信によって複合現実感(MR)生成装置130に送信され、複合現実感(MR)生成装置130のメモリ133に格納される。複合現実感(MR)生成装置130の仮想オブジェクト管理モジュール132は、メモリ133に格納されたデータを仮想オブジェクトとして、各仮想オブジェクトの表示位置を決定する処理を行ない、ユーザの装着したメガネ141のディスプレイに表示する。
なお、図1に示す装置では、PC120と、複合現実感(MR)生成装置130の2つの装置を別の装置として両装置間のデータ通信を行う構成としているが、PC120と、複合現実感(MR)生成装置130を1つの装置として構成することも可能であり、この場合、図1に示す各装置の通信部は省略できる。例えばPC120に複合現実感(MR)生成装置130の三次元情報解析部131、仮想オブジェクト管理モジュール132を設定して、1つのPC内で処理を行なう構成とすることも可能である。
すなわち、図1には、PC(パーソナルコンピュータ)120と複合現実間(MR:Mixed Reality)生成装置130を示しているが、本発明の情報処理装置は、図1に示す複合現実間(MR:Mixed Reality)生成装置130単独の装置としてもよいし、複合現実間(MR:Mixed Reality)生成装置130とPC120の2つの装置から構成される装置であってもよい。あるいは2つの装置の機能を合わせ持つ1つの装置によって構成することもできる。
図1の構成を適用した具体的な処理例について図3以下を参照して説明する。例えばユーザ100は、PC120のアプリケーション実行部121において文書作成アプリケーションを実行し、図3に示すような文書を作成している。ここでデータ領域301を設定して、カットコマンドを入力するとデータ領域301のデータは、PC120のメモリ122に格納される。その後、このデータは、通信処理によって、複合現実感(MR)生成装置130に送信され、複合現実感(MR)生成装置130内のメモリ133に格納される。
複合現実感(MR)生成装置130の三次元情報解析部131は、ユーザ100に装着したカメラ142の撮影画像を入力し、例えばSLAMを適用して撮影画像に含まれるオブジェクトの三次元位置を算出する。例えば図3に示すPCのディスプレイの4隅に設定されたマーカー321a〜dを特徴点として選択し、これらの特徴点の三次元位置を算出する。
なお、図3に示す例は、特徴点の識別のためにマーカー321a〜dを設定した例を示しているが、このようなマーカーを設定することは必須ではなく、オブジェクトの形状、例えば画像からオブジェクトの角部(コーナー)を検出し、検出した角部(コーナー)を特徴点として選択して、その特徴点の三次元位置を判定することも可能である。なお、角部(コーナー)の検出処理は、既存のハリスコーナーディテクター(Harris Corner Detector)を用いた特徴点抽出処理によって実行可能である。
なお、三次元情報解析部131は、撮影画像から特定のオブジェクトを検出する機能を持つ構成としてもよい。具体的には、人の手や指を認識する手認識モジュールを供える構成とすることが可能である。手認識モジュールは、画像の解析により、人の手や指と判断されるオブジェクトを検出するモジュールである。このような特定オブジェクト検出モジュールは、特定のオブジェクト(例えば人の手や指)の特徴情報を保持し、その特徴情報を持つオブジェクトを画像から検出た場合にその検出オブジェクトを特定オブジェクトと判定する処理を行う。
なお、指の認識アルゴリズムを開示した文献として以下の文献がある。[Handy AR: Markerless Inspection of Augmented Reality Objects Using Fingertip Tracking]。例えば、三次元情報解析部131を、この文献に記載されたアルゴリズムを実行するモジュールを備えた構成とし、人の手や指を認識する処理を実行する構成とする。
カメラ142によって撮影された画像からユーザの手の各指の三次元位置を算出し、その位置に仮想オブジェクトを貼り付けて表示することで、先に図2を参照して説明したディスプレイ表示画像200が生成可能となる。
仮想オブジェクト管理モジュール132は、三次元情報解析部131からカメラ撮影画像に含まれる実オブジェクトの三次元位置情報を取得する。例えばユーザの各指の位置情報を取得する。さらに、仮想オブジェクト管理モジュール132は、メモリ133に格納されたコピーデータやカットデータを取得し、取得したデータを仮想オブジェクトとして、ユーザの各指の位置に貼り付けた画像をユーザ100の装着したメガネ141のディスプレイに表示する処理を行う。
図3に示すデータ領域301が、ユーザによってカットされ、仮想オブジェクトとして設定された場合、ユーザ100の装着したメガネ141のディスプレイに表示されるデータの例を図4に示す。図4に示すディスプレイ表示画像350は、ユーザ100の装着したメガネ141のディスプレイに表示される画像である。
マーカー321a〜dの設定されたディスプレイの画像は、ユーザ100の操作するPC120の実画像である。カメラ142の撮影した実画像である。また、手360もユーザの実際の手の画像ある。この実画像に対して、仮想オブジェクト371が併せて表示される。仮想オブジェクト371は、ユーザ100によるPC120に対する処理において処理対象としたデータ、例えばカット処理やコピー処理としたデータである。
この仮想オブジェクト371は、複合現実感(MR)生成装置130のメモリ133に格納されたデータである。仮想オブジェクト管理モジュール132は、三次元情報解析部131からカメラ撮影画像に含まれる実オブジェクト(ユーザの手の指)の三次元位置情報を取得し、取得した実オブジェクトの位置に対応する位置に仮想オブジェクト371の表示位置を設定して表示処理を実行する。
これらの処理によって、ユーザ100は、PC120の表示領域から消去されてしまったデータを、仮想オブジェクト371として常時、確認することが可能となる。
[2.本発明の情報処理装置の実行する処理のシーケンス例について]
次に、図5以下のフローチャートを参照して、ユーザの各指を仮想オブジェクト貼り付け表示位置として設定する処理、および仮想オブジェクトの表示処理などの処理シーケンスについて説明する。以下において説明する処理シーケンスは以下の通りである。
(a)ユーザの各指を仮想オブジェクト貼り付け表示位置として設定登録する処理(図5)
(b)ユーザの各指に仮想オブジェクトを貼り付けて表示する処理(図7)
(c)ユーザの指に設定した仮想オブジェクトをPCにおける処理データとして利用(ペースト)する際の複合現実感(MR)生成装置130の処理(図8)
(d)ユーザの指に設定した仮想オブジェクトをPCにおける処理データとして利用(ペースト)する際のPC120の処理(図9)
(a)ユーザの各指を仮想オブジェクト貼り付け表示位置として設定登録する処理
まず図5に示すフローチャートを参照して、ユーザの各指を仮想オブジェクト貼り付け表示位置として設定登録する処理について説明する。この処理は、複合現実感(MR)生成装置130側の処理として実行する。
まず、ステップS101において、複合現実感(MR)生成装置130を貼り付け先登録処理モードに設定する。なお、図1に示す複合現実感(MR)生成装置130には示していないが、複合現実感(MR)生成装置130はモード設定などを行う入力部があり、ユーザの操作によってモード設定が可能である。
次に、ステップS102おいて、三次元情報解析部(手認識モジュール)131がカメラ142からの入力画像を解析し、画像に含まれる実オブジェクトの三次元位置を解析する。本例では三次元位置の解析対象とする実オブジェクトは、ユーザの手の各指である。三次元情報解析部(手認識モジュール)131は、ユーザの一方の手の各指を識別するとともに、各指の三次元位置の解析を行う。
ステップS103において、ユーザが、もう一方の手の指で貼り付け対象となる指を指示(触る)すると、三次元情報解析部(手認識モジュール)131は、ステップS104において、画像の解析によって、どの指が指示されたかを認識する。三次元情報解析部(手認識モジュール)131は予め人の指の識別情報を有しており、ユーザによって指示された指が親指であるすか指であるか等の識別を行うことができる。三次元情報解析部(手認識モジュール)131は、ユーザによつて仮想オブジェクトの貼り付け位置として指定された指の情報を仮想オブジェクト管理モジュール132に出力する。
次に、ステップS105において、仮想オブジェクト管理モジュール132が、三次元情報解析部(手認識モジュール)131から入力した仮想オブジェクトの貼り付け位置として指定された指を登録する。なお、指定された指が、すでに仮想オブジェクトの貼り付け位置として登録済みである場合は、登録済みであることをユーザに通知する。処理を行うことなく無視する。
仮想オブジェクト管理モジュール132は、仮想オブジェクトの貼り付け位置として登録された位置情報と、その貼り付け位置に仮想オブジェクトが既に貼り付けられているか否かを示す状態情報を管理情報として含む仮想オブジェクト情報管理テーブルをメモリ133に保持して管理している。例えば図6に示すような情報を格納した管理テーブルである。仮想オブジェクト管理モジュール132は、このような仮想オブジェクト情報管理テーブルを適宜、更新し参照しながら処理を行う。
ステップS106では、貼り付け先登録処理モードが継続中であるか否かを判定し、継続中である場合は、ステップS102以下の処理を繰り返し実行する。テップS106では、貼り付け先登録処理モードが継続中でないと判定されると、登録処理が終了する。
なお、図5の処理は、仮想オブジェクトの貼り付け先を手の指に設定した処理であるが、その他の任意のオブジェクトを仮想オブジェクトの貼り付け先として設定することが可能である。例えば、後段で説明するが図10に示すようにPCの枠を仮想オブジェクトの貼り付け位置として設定するといった処理を行なうことも可能である。
次に、図5に示すフローに従って登録された仮想オブジェクト貼り付け先を利用した仮想オブジェクト貼り付け処理シーケンスについて、図7に示すフローチャートを参照して説明する。図7に示すフローは、ユーザの各指に仮想オブジェクトを貼り付けてユーザ100の装着しているメガネ141のディスプレイに表示する処理である。この処理は、図1に示す複合現実感(MR)生成装置130側の処理として実行する。
まず、ステップS151において、複合現実感(MR)生成装置130の仮想オブジェクト管理モジュール132は、複合現実感(MR)生成装置130のメモリ133に格納されたデータを取得する。なお、このデータは、複合現実感(MR)生成装置130の制御部の制御の下に通信部134を介してPC120から受信した処理データである。すなわちPC120に対するユーザのデータ処理によってカットやコピー対象となったデータである。
次にステップS152において、仮想オブジェクト管理モジュール132は、仮想オブジェクトを貼り付けていない貼り付け可能位置の有無を調べる。この処理は、三次元情報解析部131がカメラ142の取得画像に基づく解析情報を利用して実行してもよいし、先に図6を参照して説明した仮想オブジェクト情報管理テーブルを参照して行う構成としてもよい。
ステップS153では、仮想オブジェクトが、すべての登録済みの仮想オブジェクト貼り付け位置に貼りついているか否かを判定する。すべての登録済みの仮想オブジェクト貼り付け位置に仮想オブジェクトが貼りついている場合は、ステップS153の判定がYesとなり、ステップS156に進む。一方、仮想オブジェクト貼り付け可能位置が残っている場合は、ステップS153の判定がNoとなり、ステップS154に進む。
例えば、図6に示す登録情報が設定された仮想オブジェクト情報管理テーブルを参照した場合、エントリ(3)以降が、現時点で仮想オブジェクトが貼り付けられていない仮想オブジェクト貼り付け可能位置として検出されることになる。この場合は、仮想オブジェクト貼り付け可能位置が残っているのでステップS153の判定がNoとなり、ステップS154に進む。
ステップS154においては、空いている貼り付け位置の登録順(例えば親指,人差し指,中指の順)で貼り付け先を決定する。なお、貼り付け位置の設定はユーザの選択可能な構成としてもよい。
次に、ステップS155に進み、仮想オブジェクト管理モジュール132は、選択された仮想オブジェクト貼り付け位置に、先のステップS151においてメモリから取得したデータの貼り付け処理を実行する。
三次元情報解析部131は、随時カメラ142からの入力画像の解析を行い、実オブジェクトである手の各指の三次元位置を把握している。仮想オブジェクト管理モジュール132は、三次元情報解析部131から入力する指の位置情報に応じて仮想オブジェクトの表示位置を動的に変更しながら、実オブジェクトと仮想オブジェクトの合成画像をユーザ100の装着したメガネ141のディスプレイに表示する処理を行う。
この処理によって、例えば図2や図4を参照して説明した仮想オブジェクトの貼り付け表示データが、ユーザの装着したメガネ141のディスプレイに表示される。
次に、ステップS153においてYesの判定がなされた場合の処理について説明する。この場合は、すべての登録済みの仮想オブジェクト貼り付け位置に仮想オブジェクトが貼りついている場合であり、ステップS153の判定がYesとなりステップS156に進む。
ステップS156では、ユーザに対する問い合わせを行う。すなわち、ユーザに仮想オブジェクトの削除を実行してよいか否かについて問い合わせを行う。この問い合わせは、例えばユーザの操作しているPC120に対して通信部を介してメッセージを送信し、PCのディスプレイに表示する。あるいは、複合現実感(MR)生成装置130の出力部(スピーカあるいはディスプレイ)を利用してメッセージを出力するといった方法で行う。なお、削除対象とする仮想オブジェクトの選択処理としては、例えば最も古い貼り付け処理が行われた仮想オブジェクトから順次、削除可否をユーザに問い合わせる処理と設定としてもよい。あるいは貼り付けられた複数の仮想オブジェクトから、ユーザが削除してよいと判断した仮想オブジェクトを指定し、その指定情報によって削除対象を選択する処理を行う構成としてもよい。
ユーザからの削除OKの入力が得られた場合は、ステップS157に進み、仮想オブジェクトの削除を実行する。なお、ユーザの入力は、PC120を介して行ってもよいし、複合現実感(MR)生成装置130の入力部を介して行ってもよい。あるいは、複合現実感(MR)生成装置130の三次元情報解析部131が取得するカメラ142の画像に基づく解析、例えばユーザの指定した削除可能な仮想オブジェクトの指定情報を利用して実行してもよい。
この削除処理が行われると、ステップS155に進む。ステップS155では、仮想オブジェクト管理モジュール132は、削除処理によって設定された仮想オブジェクト貼り付け可能位置に、先のステップS151においてメモリから取得したデータの貼り付け処理を実行する。この処理によって、例えば図2や図4を参照して説明した仮想オブジェクトの貼り付け表示データが、ユーザの装着したメガネ141のディスプレイに表示される。
一方、ステップS156において、ユーザからの削除OKの入力が得られなかった場合は、ステップS158に進む。ステップS158では、新たな貸そうブジェクトの貼り付け表示処理が実行できない旨をユーザに通知する処理を行って処理を終了する。このユーザ通知処理は、例えばユーザの操作しているPC120に対して通信部を介してメッセージを送信し、PCのディスプレイに表示する。あるいは、複合現実感(MR)生成装置130の出力部(スピーカあるいはディスプレイ)を利用してメッセージを出力するといった方法で行う。
次に、仮想オブジェクトをPCにおける処理データとして利用(ペースト)する処理シーケンスについて、図8、図9に示すフローチャートを参照して説明する。この処理は、複合現実感(MR)生成装置130側の処理と、PC120側の処理とによって行われる。
まず、図8に示すフローチャートを参照して、複合現実感(MR)生成装置130の処理について説明する。まず、ステップS201において、複合現実感(MR)生成装置130は、仮想オブジェクト貼り付け位置(例えば指F)の指示情報を解析する。
ユーザ100は、メガネ141のディスプレイを観察しながら、例えば図2に示すようなユーザの指に貼り付けられた複数の仮想オブジェクトから、1つの仮想オブジェクトをもう一方の手の指で指示する。三次元情報解析部(手認識モジュール)131がカメラ142からの入力画像を解析し、画像に含まれるユーザの指示した位置とその位置にある実オブジェクトである指がどの指であるかを解析する。この情報は、仮想オブジェクト管理モジュール132に提供される。
次にステップS202において、仮想オブジェクト管理モジュール132は、三次元情報解析部(手認識モジュール)131の解析したユーザの指示位置(例えばユーザの指のいずれか)に貼り付けられた仮想オブジェクトがあるか否かを判定する。この処理は、例えば図6を参照して説明した仮想オブジェクト情報管理テーブルを参照して行うことができる。
ユーザの指示位置に仮想オブジェクトが貼り付けられている場合は、ステップS203の判定がYesとなり、ステップS204に進む。
ステップS204では、ユーザの指示位置に貼り付けられた仮想オブジェクトに対応するデータをメモリ133から取得して、通信部134を介してPC120に送信する。
仮想オブジェクト管理モジュール132は、ユーザ100のメガネ141のディスプレイに表示された仮想オブジェクトに対する処理要求の入力に応じて、処理要求のなされた仮想オブジェクトに対応するデータをPC120を適用したデータ処理を行うデータ処理装置またはPC120のアクセス可能なメモリに出力する処理を行う。
図1に示す構成において、複合現実感(MR)生成装置130は通信部134を介してデータをPC120側に出力する。PC120は、複合現実感(MR)生成装置130側からデータを受信し、PC120側のメモリ122に格納する。
一方、ユーザの指示位置に仮想オブジェクトが貼り付けられている場合は、ステップS203の判定がNoとなり、ステップS205に進む。
ステップS205では、ユーザの指示位置には、仮想オブジェクトが貼り付けられていないことを通知する。この通知は、PC120または複合現実感(MR)生成装置130の出力部を介して行う。
次に、図8に示す複合現実感(MR)生成装置130側の処理の終了後に、PC120側で実行する処理のシーケンスについて図9に示すフローチャートを参照して説明する。PC120は、複合現実感(MR)生成装置130側から、処理対象データであるデータを受信し、PC側のメモリ122に格納している。
PC120は、まずステップS301において、ユーザによる画面位置指示情報を入力する。これは仮想オブジェクトに対応するデータをペーストする位置である。例えばマウスやキーボードの操作によって指定する。あるいはタッチディスプレイである場合は、ユーザの指で画面をタッチしタッチ位置情報を算出する。
ステップS302において、PC120のアプリケーション実行部121は、ユーザの指示したディスプレイ上の位置座標(x,y)を算出する。
ステップS303において、指示位置(x,y)に対応する場所をデータの挿入先と決定する。例えば、文字と文字の間などである。
ステップS304では、PC120内のメモリ122に複合現実感(MR)生成装置130側から受領した処理対象データが存在するか否かを判定する。処理対象データが存在する場合は、ステップS304の判定がYesとなり、ステップS305において、アプリケーション実行部121がメモリ122からデータを取り出して、決定した挿入先にデータペーストを実行する。処理対象データが存在しない場合は、ステップS304においてNoの判定となり、ステップS305の処理を行うことなく、処理を終了する。
このようにして、ユーザ100の装着したメガネ141に表示された仮想オブジェクトが、ユーザが現実世界で操作しているPC120の処理データとして利用される。
[3.仮想オブジェクトの貼り付け対象とする実オブジェクトの例について]
上述の実施例では、仮想オブジェトの貼り付け先としてユーザの手の指を利用した処理例について説明したが、仮想オブジェトの貼り付け先はユーザの手の指に限らず、ユーザ100の装着したメガネ141に表示される様々な実オブジェクトを利用することができる。
例えば、図10に示すようにPC120の外枠を仮想オブジェクトの貼り付け位置として設定するといった処理も可能である。図10には、図4を参照して説明したと同様、ユーザ100の装着したメガネ141のディスプレイに表示されるディスプレイ表示画像350を示している。
マーカー321a〜dの設定されたディスプレイの画像は、ユーザ100の操作するPC120の実画像であり、カメラ142の撮影した実画像である。この実画像に対して、仮想オブジェクト401〜403が併せて表示される。仮想オブジェクト401〜403は、ユーザ100によるPC120に対する処理において処理対象としたデータ、例えばカット処理やコピー処理としたデータである。
図10に示す例では、これらの仮想オブジェクト401〜403の貼り付け位置をPC321の右側のマーカー321aとマーカー321bの区間としている。すなわち、図10に矢印で示す仮想オブジェクト貼り付け区間380を設定している。マーカー321aの実空間における座標(xa,ya,za)とマーカー321bの実空間における座標(xb,yb,zb)を求めた後、この区間(xa,ya,za)〜(xb,yb,zb)を複数区間に均等に分割し、それぞれの分割領域を仮想オブジェクト貼り付け領域として設定する。
この場合の仮想オブジェクト情報管理テーブルは、例えば図11に示す設定となる。なお、図11に示すテーブルには、参考データとして実際の貼り付け仮想オブジェクトも示している。このように、仮想オブジェクトの貼り付け位置は、ユーザの手に駆らず、様々なオブジェクトを利用することができる。
本発明の構成によれば、情報提示画面を狭めたり,コピーバッファをいちいち表示したり、一度ペーストしてUNDOしたりすることなく,コピーされている内容を確認することができる。また、指や自分の身体をコピーバッファとして使用した場合、ある情報提示画面からコピーした内容を離れた場所にある別の情報提示画面にペーストする場合に、自分がその画面にまで移動して、ペーストすることができるので、直感的にペースト作業を行うことができる。また、3Dオブジェクトは実世界で3Dオブジェクトとしてインスタンス化され表示されるのでその形状などを直感的に理解しやすく、ペースト時に向きなども指定しやすい。
以上、特定の実施例を参照しながら、本発明について詳解してきた。しかしながら、本発明の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本発明の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
以上、説明したように、本発明の一実施例の構成によれば、例えばPCを適用したデータ処理において、削除処理やコピー処理の対象としたデータなどPCの表示部に表示されないデータを仮想オブジェクトとして設定し、ユーザの手の指などに貼り付けて、常に観察することを可能な構成とした。本構成によれば、PCの表示領域に表示されないデータをPCの表示領域以外の空間に貼り付けて表示して観察することが可能となり、データ処理の効率を高めることが可能となる。
100 ユーザ
120 PC(パーソンナルコンピュータ)
121 アプリケーション実行部
122 メモリ
123 通信部
130 複合現実感(MR)生成装置
131 三次元情報解析部
132 仮想オブジェクト管理モジュール
133 メモリ
134 通信部
141 メガネ
142 カメラ
150 仮想オブジェクト
200 ディスプレイ表示画像
201〜203 仮想オブジェクト
321a〜321d マーカー
350 ディスプレイ表示画像
360 手
371 仮想オブジェクト
380 仮想オブジェクト貼り付け区間
401〜403 仮想オブジェクト

Claims (9)

  1. 第1表示部を利用したデータ処理において生成した処理データを格納するメモリと、
    カメラ撮影画像に含まれる実オブジェクトの三次元位置を解析する三次元情報解析部と、
    前記三次元情報解析部の解析情報を入力し、前記実オブジェクトの構成部位を仮想オブジェクト表示位置として決定し、前記実オブジェクトと前記仮想オブジェクトを合成した合成画像を第2表示部に表示する仮想オブジェクト管理部を有し、
    前記仮想オブジェクト管理部は、
    前記第2表示部に表示された仮想オブジェクトに対する処理要求の入力に応じて、処理要求のなされた仮想オブジェクトに対応するデータを前記第1表示部を適用したデータ処理を行うデータ処理装置または該データ処理装置のアクセス可能なメモリに出力する処理を行う情報処理装置。
  2. 前記情報処理装置は、通信部を有し、
    前記第1表示部を適用したデータ処理を行うデータ処理装置との通信を実行して、前記第1表示部を適用したデータ処理用のデータを送受信する請求項1に記載の情報処理装置。
  3. 前記三次元情報解析部は、カメラ撮影画像に含まれるユーザの手の各指を認識する手認識モジュールを有し、手認識モジュールにおいて認識されたユーザの手の各指の三次元位置を解析する構成であり、
    前記仮想オブジェクト管理部は、
    ユーザの手の各指の位置を前記仮想オブジェクト表示位置として決定し、ユーザの手の各指の位置に前記仮想オブジェクトを合成した合成画像を第2表示部に表示する処理を行う請求項1に記載の情報処理装置。
  4. 前記メモリに格納されるデータは、前記第1表示部を適用したデータ処理において実行されたデータ削除処理またはデータコピー処理の対象となったデータである請求項1に記載の情報処理装置。
  5. 前記仮想オブジェクト管理部は、
    前記三次元情報解析部の解析情報を入力し、前記第2表示部の表示画像に含まれる実オブジェクトの構成部位を仮想オブジェクト表示位置として決定し、決定情報を仮想オブジェクト情報管理テーブルに登録する処理を行う請求項1に記載の情報処理装置。
  6. 前記仮想オブジェクト管理部は、
    前記仮想オブジェクト情報管理テーブルに登録された仮想オブジェクト表示位置に対応する前記第2表示部の表示位置に仮想オブジェクトが表示中であるか否かを示す状態情報を登録する処理を行う請求項5に記載の情報処理装置。
  7. 前記仮想オブジェクト管理部は、
    前記仮想オブジェクト情報管理テーブルの前記状態情報を参照して、新たな仮想オブジォクトの表示可否を判定し、ユーザ入力に応じて前記第2表示部に表示中の仮想オブジェクトの削除処理を行う請求項6に記載の情報処理装置。
  8. 情報処理装置において実行する情報処理方法であり、
    制御部が、第1表示部を利用したデータ処理に適用する処理データをメモリに格納するステップと、
    三次元情報解析部が、カメラ撮影画像に含まれる実オブジェクトの三次元位置を解析する三次元情報解析ステップと、
    仮想オブジェクト管理部が、前記三次元情報解析部の解析情報を入力し、前記実オブジェクトの構成部位を仮想オブジェクト表示位置として決定し、前記実オブジェクトと前記仮想オブジェクトを合成した合成画像を第2表示部に表示するステップと、
    前記仮想オブジェクト管理部が、前記第2表示部に表示された仮想オブジェクトに対する処理要求の入力に応じて、処理要求のなされた仮想オブジェクトに対応するデータを、前記第1表示部を適用したデータ処理を行うデータ処理装置または該データ処理装置のアクセス可能なメモリに出力する処理を行うステップと、
    を有する情報処理方法。
  9. 情報処理装置において情報処理を実行させるプログラムであり、
    制御部に、第1表示部を利用したデータ処理に適用する処理データをメモリに格納させるステップと、
    三次元情報解析部に、カメラ撮影画像に含まれる実オブジェクトの三次元位置を解析させる三次元情報解析ステップと、
    仮想オブジェクト管理部に、前記三次元情報解析部の解析情報を入力させて、前記実オブジェクトの構成部位を仮想オブジェクト表示位置として決定させ、前記実オブジェクトと前記仮想オブジェクトを合成した合成画像を第2表示部に表示させるステップと、
    前記仮想オブジェクト管理部に、前記第2表示部に表示された仮想オブジェクトに対する処理要求の入力に応じて、処理要求のなされた仮想オブジェクトに対応するデータを、前記第1表示部を適用したデータ処理を行うデータ処理装置または該データ処理装置のアクセス可能なメモリに出力する処理を行わせるステップと、
    を実行させるプログラム。
JP2009108777A 2009-04-28 2009-04-28 情報処理装置、および情報処理方法、並びにプログラム Active JP5158007B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2009108777A JP5158007B2 (ja) 2009-04-28 2009-04-28 情報処理装置、および情報処理方法、並びにプログラム
TW099104512A TWI423075B (zh) 2009-04-28 2010-02-11 Information processing apparatus, and information processing method, and program
PCT/JP2010/054542 WO2010125868A1 (ja) 2009-04-28 2010-03-17 情報処理装置、および情報処理方法、並びにプログラム
EP10769568A EP2426578A4 (en) 2009-04-28 2010-03-17 INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS AND PROGRAM
US13/266,301 US9772683B2 (en) 2009-04-28 2010-03-17 Information processing apparatus to process observable virtual objects
CN201080018132.7A CN102414640B (zh) 2009-04-28 2010-03-17 信息处理装置、信息处理方法和程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009108777A JP5158007B2 (ja) 2009-04-28 2009-04-28 情報処理装置、および情報処理方法、並びにプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2012252065A Division JP5510529B2 (ja) 2012-11-16 2012-11-16 情報処理装置、記憶媒体、情報処理システム、および情報処理方法、並びにプログラム

Publications (2)

Publication Number Publication Date
JP2010257359A true JP2010257359A (ja) 2010-11-11
JP5158007B2 JP5158007B2 (ja) 2013-03-06

Family

ID=43032021

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009108777A Active JP5158007B2 (ja) 2009-04-28 2009-04-28 情報処理装置、および情報処理方法、並びにプログラム

Country Status (6)

Country Link
US (1) US9772683B2 (ja)
EP (1) EP2426578A4 (ja)
JP (1) JP5158007B2 (ja)
CN (1) CN102414640B (ja)
TW (1) TWI423075B (ja)
WO (1) WO2010125868A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014207971A1 (ja) * 2013-06-26 2014-12-31 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ ユーザインタフェース装置及び表示オブジェクト操作方法
JP2017147001A (ja) * 2011-05-06 2017-08-24 マジック リープ, インコーポレイテッド 広範囲同時遠隔ディジタル提示世界
US11093804B1 (en) 2020-03-06 2021-08-17 Fujifilm Business Innovation Corp. Information processing apparatus and non-transitory computer readable medium storing program
JP2021521559A (ja) * 2018-08-24 2021-08-26 北京微播視界科技有限公司Beijing Microlive Vision Technology Co.,Ltd. 画像合成方法及び装置
JP2022028692A (ja) * 2017-04-28 2022-02-16 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理装置の制御方法、及びプログラム

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10228242B2 (en) 2013-07-12 2019-03-12 Magic Leap, Inc. Method and system for determining user input based on gesture
CN103631503B (zh) * 2013-11-15 2017-12-22 北京智谷睿拓技术服务有限公司 信息交互方法及信息交互装置
CN105844705B (zh) * 2016-03-29 2018-11-09 联想(北京)有限公司 一种三维虚拟对象模型生成方法及电子设备
JP7005224B2 (ja) * 2017-08-22 2022-01-21 キヤノン株式会社 情報処理装置、システム、画像処理方法、コンピュータプログラム、及び記憶媒体
FI129042B (en) * 2017-12-15 2021-05-31 Oy Mapvision Ltd Computer vision system with a computer-generated virtual reference object
JP2020173656A (ja) * 2019-04-11 2020-10-22 ソニー株式会社 情報処理装置、情報処理方法、及び記録媒体
JP2021002288A (ja) * 2019-06-24 2021-01-07 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置、コンテンツ処理システム、および画像処理方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002247602A (ja) * 2001-02-15 2002-08-30 Mixed Reality Systems Laboratory Inc 画像生成装置及びその制御方法並びにそのコンピュータプログラム
JP2003256876A (ja) * 2002-03-04 2003-09-12 Sony Corp 複合現実感表示装置及び方法、記憶媒体、並びにコンピュータ・プログラム
JP2006154902A (ja) * 2004-11-25 2006-06-15 Olympus Corp 手書き画像表示システム及び空間手書き用携帯情報端末
JP2007042073A (ja) * 2005-07-01 2007-02-15 Canon Inc 映像提示システム、映像提示方法、該映像提示方法をコンピュータに実行させるためのプログラム、および記憶媒体

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001005144A1 (fr) * 1999-07-08 2001-01-18 Matsushita Electric Industrial Co., Ltd. Procede de commande d'affichage video, systeme de traitement d'affichage video, dispositif de traitement d'affichage video, et dispositif d'affichage sur ecran
US6771294B1 (en) * 1999-12-29 2004-08-03 Petri Pulli User interface
JP2004151085A (ja) * 2002-09-27 2004-05-27 Canon Inc 情報処理方法及び情報処理装置
US7263383B2 (en) * 2004-09-15 2007-08-28 Inventec Appliances Corp. Apparatus and a method for extending phone book records of a subscriber identification module (SIM) card
US7971156B2 (en) * 2007-01-12 2011-06-28 International Business Machines Corporation Controlling resource access based on user gesturing in a 3D captured image stream of the user
JP5380789B2 (ja) 2007-06-06 2014-01-08 ソニー株式会社 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP2008304269A (ja) 2007-06-06 2008-12-18 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP4986043B2 (ja) 2007-06-07 2012-07-25 愛知時計電機株式会社 電磁流量計
JP2010537302A (ja) * 2007-08-19 2010-12-02 リングボウ エルティディ. 指に装着される装置とその使用方法
CN101231752B (zh) * 2008-01-31 2011-03-23 北京航空航天大学 无标记真三维全景显示与交互装置
JP2010145861A (ja) * 2008-12-19 2010-07-01 Brother Ind Ltd ヘッドマウントディスプレイ
US20100208033A1 (en) * 2009-02-13 2010-08-19 Microsoft Corporation Personal Media Landscapes in Mixed Reality

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002247602A (ja) * 2001-02-15 2002-08-30 Mixed Reality Systems Laboratory Inc 画像生成装置及びその制御方法並びにそのコンピュータプログラム
JP2003256876A (ja) * 2002-03-04 2003-09-12 Sony Corp 複合現実感表示装置及び方法、記憶媒体、並びにコンピュータ・プログラム
JP2006154902A (ja) * 2004-11-25 2006-06-15 Olympus Corp 手書き画像表示システム及び空間手書き用携帯情報端末
JP2007042073A (ja) * 2005-07-01 2007-02-15 Canon Inc 映像提示システム、映像提示方法、該映像提示方法をコンピュータに実行させるためのプログラム、および記憶媒体

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017147001A (ja) * 2011-05-06 2017-08-24 マジック リープ, インコーポレイテッド 広範囲同時遠隔ディジタル提示世界
WO2014207971A1 (ja) * 2013-06-26 2014-12-31 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ ユーザインタフェース装置及び表示オブジェクト操作方法
JPWO2014207971A1 (ja) * 2013-06-26 2017-02-23 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America ユーザインタフェース装置及び表示オブジェクト操作方法
US9836199B2 (en) 2013-06-26 2017-12-05 Panasonic Intellectual Property Corporation Of America User interface device and display object operating method
US10466880B2 (en) 2013-06-26 2019-11-05 Panasonic Intellectual Property Corporation Of America User interface device and display object operating method
JP2022028692A (ja) * 2017-04-28 2022-02-16 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理装置の制御方法、及びプログラム
US11896893B2 (en) 2017-04-28 2024-02-13 Sony Interactive Entertainment Inc. Information processing device, control method of information processing device, and program
JP2021521559A (ja) * 2018-08-24 2021-08-26 北京微播視界科技有限公司Beijing Microlive Vision Technology Co.,Ltd. 画像合成方法及び装置
US11308655B2 (en) 2018-08-24 2022-04-19 Beijing Microlive Vision Technology Co., Ltd Image synthesis method and apparatus
JP7212067B2 (ja) 2018-08-24 2023-01-24 北京微播視界科技有限公司 画像合成方法及び装置
US11093804B1 (en) 2020-03-06 2021-08-17 Fujifilm Business Innovation Corp. Information processing apparatus and non-transitory computer readable medium storing program

Also Published As

Publication number Publication date
CN102414640A (zh) 2012-04-11
EP2426578A1 (en) 2012-03-07
TWI423075B (zh) 2014-01-11
US9772683B2 (en) 2017-09-26
WO2010125868A1 (ja) 2010-11-04
TW201042536A (en) 2010-12-01
CN102414640B (zh) 2016-01-20
US20120092333A1 (en) 2012-04-19
JP5158007B2 (ja) 2013-03-06
EP2426578A4 (en) 2013-04-03

Similar Documents

Publication Publication Date Title
JP5158007B2 (ja) 情報処理装置、および情報処理方法、並びにプログラム
JP5158006B2 (ja) 情報処理装置、および情報処理方法、並びにプログラム
KR101325757B1 (ko) 가상 마커 생성을 이용한 증강 현실 제공 장치 및 방법
US8751969B2 (en) Information processor, processing method and program for displaying a virtual image
Seo et al. Direct hand touchable interactions in augmented reality environments for natural and intuitive user experiences
JP5807686B2 (ja) 画像処理装置、画像処理方法及びプログラム
US20210287439A1 (en) 3d cutout image modification
JP6022732B2 (ja) コンテンツ作成ツール
JP2020024752A (ja) 情報処理装置及びその制御方法、プログラム
KR20150010432A (ko) 디스플레이 디바이스 및 그 제어 방법
US10372229B2 (en) Information processing system, information processing apparatus, control method, and program
JP2013037675A5 (ja)
KR101036280B1 (ko) 수동 조작 도구를 이용한 3차원 메뉴 시스템
JP2014215752A (ja) 電子機器および手書きデータ処理方法
JP2013164697A (ja) 画像処理装置、画像処理方法、プログラム及び画像処理システム
JP2016122392A (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
JP5510529B2 (ja) 情報処理装置、記憶媒体、情報処理システム、および情報処理方法、並びにプログラム
KR101211178B1 (ko) 증강 현실 컨텐츠 재생 시스템 및 방법
KR20180071492A (ko) 키넥트 센서를 이용한 실감형 콘텐츠 서비스 시스템
JP6256545B2 (ja) 情報処理装置、その制御方法、及びプログラム、並びに、情報処理システム、その制御方法、及びプログラム
JP6968950B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP2022009606A (ja) 情報処理装置、情報処理方法およびプログラム
JP2004310348A (ja) 情報検索装置
JP2018190439A (ja) 情報処理装置、その制御方法、及びプログラム
JP2015191541A (ja) 情報処理装置、その制御方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120925

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121022

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121126

R151 Written notification of patent or utility model registration

Ref document number: 5158007

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151221

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250