WO2016136311A1 - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
WO2016136311A1
WO2016136311A1 PCT/JP2016/050837 JP2016050837W WO2016136311A1 WO 2016136311 A1 WO2016136311 A1 WO 2016136311A1 JP 2016050837 W JP2016050837 W JP 2016050837W WO 2016136311 A1 WO2016136311 A1 WO 2016136311A1
Authority
WO
WIPO (PCT)
Prior art keywords
information processing
processing apparatus
virtual
information
generation unit
Prior art date
Application number
PCT/JP2016/050837
Other languages
English (en)
French (fr)
Inventor
佳恵 永野
智裕 石井
宣彰 河合
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US15/551,144 priority Critical patent/US10672187B2/en
Priority to EP16755061.5A priority patent/EP3264246A4/en
Priority to JP2017501973A priority patent/JP6569726B2/ja
Priority to CN201680011069.1A priority patent/CN107408003A/zh
Publication of WO2016136311A1 publication Critical patent/WO2016136311A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0325Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2012Colour editing, changing, or manipulating; Use of colour codes

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】より直感的な3DCGアプリケーションの操作環境を提供することが可能な情報処理装置、情報処理方法及びプログラムを提供する。 【解決手段】仮想空間における仮想オブジェクトに対応する第1の実オブジェクトについて検出された第1の操作情報と、前記仮想空間における仮想的な道具に対応する第2の実オブジェクトについて検出された第2の操作情報とに基づいて、前記仮想空間の表示を行うための表示制御情報を生成する生成部、を備える情報処理装置。

Description

情報処理装置、情報処理方法及びプログラム
 本開示は、情報処理装置、情報処理方法及びプログラムに関する。
 近年、3次元コンピュータグラフィックス(3DCG)が様々な分野で活用されている。ユーザは、3DCGアプリケーションを操作することで、仮想空間内に3DCGを生成したり、仮想空間を任意の視点から鑑賞したりすることができる。その際、ユーザは、仮想空間における位置をX座標、Y座標及びZ座標の3つの座標で特定したり、様々なパラメータを指定したりする等、複雑な操作を要されていた。このため、3DCGアプリケーションの操作環境をより良くするための技術が開発されている。
 例えば、下記特許文献1では、実空間における機器の姿勢に応じて、仮想空間内に定義された視点の位置を決定する技術が開示されている。
特開2014-109802号公報
 しかし、上記特許文献1では、実空間における機器の姿勢により、仮想空間における視点が操作可能になるに留まっていた。仮想空間では、視点などのユーザの操作対象となる作用点の他に、仮想オブジェクトが存在する。この仮想オブジェクトも、実空間における直感的な操作により操作可能になることが望ましい。そこで、本開示では、より直感的な3DCGアプリケーションの操作環境を提供することが可能な、新規かつ改良された情報処理装置、情報処理方法及びプログラムを提案する。
 本開示によれば、仮想空間における仮想オブジェクトに対応する第1の実オブジェクトについて検出された第1の操作情報と、前記仮想空間における仮想的な道具に対応する第2の実オブジェクトについて検出された第2の操作情報とに基づいて、前記仮想空間の表示を行うための表示制御情報を生成する生成部、を備える情報処理装置が提供される。
 また、本開示によれば、仮想空間における仮想オブジェクトに対応する第1の実オブジェクトについて検出された第1の操作情報と、前記仮想空間における仮想的な道具に対応する第2の実オブジェクトについて検出された第2の操作情報とに基づいて、前記仮想空間の表示を行うための表示制御情報を生成すること、を含むプロセッサにより実行される情報処理方法が提供される。
 また、本開示によれば、コンピュータを、仮想空間における仮想オブジェクトに対応する第1の実オブジェクトについて検出された第1の操作情報と、前記仮想空間における仮想的な道具に対応する第2の実オブジェクトについて検出された第2の操作情報とに基づいて、前記仮想空間の表示を行うための表示制御情報を生成する生成部、として機能させるためのプログラムが提供される。
 以上説明したように本開示によれば、より直感的な3DCGアプリケーションの操作環境を提供することが可能である。なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
3DCGアプリケーションにおける操作環境を説明するための図である。 3DCGアプリケーションにおける操作環境を説明するための図である。 本実施形態に係る情報処理システムの外観構成の一例を示す図である。 本実施形態に係る操作用ペンの外観構成の一例を示す図である。 本実施形態に係る情報処理装置の論理的な構成の一例を示すブロック図である。 本実施形態に係る情報処理装置の概要を説明するための図である。 本実施形態に係る情報処理装置において実行される表示処理の流れの一例を示すフローチャートである。 本実施形態に係る情報処理装置の概要を説明するための図である。 本実施形態に係る情報処理装置の概要を説明するための図である。 本実施形態に係る情報処理装置において実行される表示処理の流れの一例を示すフローチャートである。 本実施形態に係る情報処理装置において実行される表示処理の流れの一例を示すフローチャートである。 本実施形態に係る情報処理装置の概要を説明するための図である。 本実施形態に係る情報処理装置の概要を説明するための図である。 本実施形態に係る情報処理装置において実行される表示処理の流れの一例を示すフローチャートである。 本実施形態に係る情報処理装置において実行される表示処理の流れの一例を示すフローチャートである。 本実施形態に係る情報処理装置の概要を説明するための図である。 本実施形態に係る手振れ補正機能の一例を説明するための図である。 本実施形態に係る手振れ補正機能の一例を説明するための図である。 本実施形態に係る情報処理装置のハードウェア構成の一例を示すブロック図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 また、本明細書及び図面において、実質的に同一の機能構成を有する要素を、同一の符号の後に異なるアルファベットを付して区別する場合もある。例えば、実質的に同一の機能構成を有する複数の要素を、必要に応じて情報処理装置100A、100B及び100Cのように区別する。ただし、実質的に同一の機能構成を有する複数の要素の各々を特に区別する必要がない場合、同一符号のみを付する。例えば、情報処理装置100A、100B及び100Cを特に区別する必要が無い場合には、単に情報処理装置100と称する。
 なお、説明は以下の順序で行うものとする。
  1.概要
   1.1.はじめに
   1.2.技術的課題
  2.構成例
   2.1.外観構成例
   2.2.機能構成例
  3.第1の実施形態
   3.1.技術的特徴
   3.2.動作処理例
  4.第2の実施形態
   4.1.技術的特徴
   4.2.動作処理例
  5.第3の実施形態
   5.1.技術的特徴
   5.2.動作処理例
  6.第4の実施形態
  7.第5の実施形態
  8.ハードウェア構成例
  9.まとめ
 <<1.概要>>
  <1.1.はじめに>
 まず、図1及び図2を参照して、3DCGアプリケーションにおける操作環境について説明する。図1及び図2は、3DCGアプリケーションにおける操作環境を説明するための図である。
 図1では、3DCGアプリケーションの仮想空間の一例を示している。ユーザは、マニピュレーター10を操作することで、多様な作用を仮想空間に与えることができる。マニピュレーター10は、方向性を有し、マニピュレーター10の向く方向へ作用を与えることができる。また、マニピュレーター10は、仮想的な道具として機能し得る。例えば、図1に示した例では、マニピュレーター10は、ライトとして機能するライト用マニピュレーターであり、マニピュレーター10の位置から仮想オブジェクト20に向けてスポットライトを照射することが可能である。ユーザは、ライト用マニピュレーターの他、移動用、変形用又は着色用のマニピュレーターといった、多様な種類のマニピュレーターを用いて、仮想オブジェクト20の移動、変形又は着色といった多様な作用を仮想空間に与えることができる。
 図2に示すように、マニピュレーター10の方向13は、原点11及び注視点12によって特定される。そのため、ユーザは、マニピュレーター10の方向13を操作するために、原点11及び注視点12の座標(X座標、Y座標及びZ座標)をそれぞれ指定していた。
  <1.2.技術的課題>
 ここで、ユーザがマウス又はキーボード等で操作する場合、原点11及び注視点12を同時に操作することは困難であった。また、原点11及び注視点12を操作するためには、X座標、Y座標及びZ座標の3つの座標をそれぞれ指定することが要される。このため、マニピュレーター10の方向13を制御するための操作は煩雑であった。
 また、仮想オブジェクト20に関しては、ユーザは、例えば移動用マニピュレーターを介して仮想オブジェクト20を移動させる等の操作を行っていた。このため、仮想オブジェクト20を操作することも、マニピュレーター10と同様に煩雑になり得る。さらに、マニピュレーター10をライト等の仮想的な道具として機能させて、ライトの位置及び向きを操作しながら仮想オブジェクト20の位置及び向きを操作するような、マニピュレーター10及び仮想オブジェクト20を別々且つ同時に操作することは困難であった。
 そこで、上記事情を一着眼点として、本開示の一実施形態に係る情報処理システムを創作するに至った。本実施形態に係る情報処理システムは、より直感的な3DCGアプリケーションの操作環境を提供することが可能である。
 <<2.構成例>>
 以下では、図3~図5を参照して、各実施形態に共通する情報処理システムの構成例を説明する。
  <2.1.外観構成例>
 図3は、本実施形態に係る情報処理システム1の外観構成の一例を示す図である。図3に示すように、情報処理装置100及び操作用ペン200を含む。
 情報処理装置100は、可動式のアーム160をひとつ以上有する。アーム160A及び160Bは、それぞれセンサ部110A及び110B、並びに表示部120A及び120Bを有する。センサ部110A及び110Bは、画像(静止画像/動画像)を撮像可能な画像センサ、及び深度情報(奥行き方向の距離)を取得可能な深度センサを含み、テーブル180上の認識範囲190の様子を検出可能である。画像センサは、例えばRGBカメラにより実現されてもよく、深度センサは、例えばIR(infrared)ステレオカメラにより実現されてもよい。
 表示部120A及び120Bは、例えばプロジェクタにより実現され、投影面170に画像を投影する。投影される画像は、例えば3DCGアプリケーションの操作画面である。投影面170は、タッチパネルとしての機能を有していてもよく、操作用ペン200による接触を感知してもよい。プロジェクタ120A及び120Bは、同じ画像を互いに投影位置を合わせて投影面170に投影する。異なる位置から複数の投影光が照射されるので、投影面170の上に存在するユーザの手等の障害物があっても、投影面170の上に存在するユーザの手等の障害物によって出来る影が薄くなるため、影の位置にある投影面上の画像の視認性を向上させることが出来る。
 情報処理装置100は、表示部120Cをさらに有していてもよい。表示部120Cは、例えばディスプレイにより実現され、画像を表示する。表示される画像は、例えば3DCGアプリケーションの操作画面である。プロジェクタ120A及び120Bとディスプレイ120Cとは、それぞれ異なる画像を表示してもよいし、同一の画像を表示してもよい。例えば、図3に示した例では、プロジェクタ120A及び120Bとディスプレイ120Cとは、車の仮想オブジェクト20を異なる角度から見た様子を表示している。
 操作用ペン200は、ユーザにより操作される装置である。操作用ペン200は、図3に示したようにユーザの手で持たれてもよいし、投影面170上に置かれてもよいし、三脚等の任意の支持器により支持されてもよい。以下、図4を参照して、操作用ペン200の外観構成例を詳しく説明する。
 図4は、本実施形態に係る操作用ペン200の外観構成の一例を示す図である。図4に示すように、操作用ペン200には、複数の入力部210及び複数の発光部220が設けられている。
 入力部210は、ユーザ入力を受け付ける機能を有する。図4に示した例では、入力部210はボタンである。例えば、ボタン210Aは、マウスの左クリックに相当する。ボタン210Bは、マウスの右クリックに相当する。ボタン210Cは、任意の機能が割り当てられる汎用ボタンである。他にも、入力部210は、タッチセンサやトグル、スライダー等により実現されてもよい。
 発光部220は、発光する機能を有する。例えば、発光部220は、LED(light emitting diode)又はIR LED等により実現される。発光部220が発光することで、発光しない場合と比較して、センサ部110による操作用ペン200の姿勢の検出が容易になる。なお、操作用ペン200の姿勢の検出が容易にするために、発光部220に代えて、又は併せて、バーコード等のパッシブマーカーが操作用ペン200に付されていてもよい。
 操作用ペン200は、他にも、加速度センサ及びジャイロセンサ等の慣性センサ、速度センサ、振動センサ、生体センサ等を有していてもよい。また、操作用ペン200は、無線LAN(Local Area Network)、Wi-Fi(登録商標)又はBluetooth(登録商標)等の任意の通信方式を用いて無線通信可能な通信部を有してもよく、情報処理装置100と各種データの送受信を行ってもよい。
 ユーザは、投影面170に投影された、又は表示部120に表示された3DCGアプリケーションの操作画面を操作用ペン200でタッチしたり、タッチしながら動かしたりすることで、直感的に3DCGアプリケーションの操作を行うことができる。さらに、ユーザは、認識範囲190内で操作用ペン200を操作することで、操作用ペン200の位置及び姿勢に応じた直感的な3DCGアプリケーションの操作を行うことができる。
 以上、操作用ペン200の外観構成例を説明した。続いて、図5を参照して、情報処理装置100の機能構成例を説明する。
  <2.2.機能構成例>
 図5は、本実施形態に係る情報処理装置100の論理的な構成の一例を示すブロック図である。図5に示すように、情報処理装置100は、センサ部110、表示部120、通信部130、記憶部140及び制御部150を含む。
 センサ部110は、認識範囲190の状態を検出する機能を有する。上述したように、センサ部110は、例えば画像センサ及び深度センサを含み、認識範囲190内に存在する操作用ペン200等の実オブジェクトに関する画像情報及び深度情報を検出する。センサ部110は、検出した情報を制御部150へ出力する。
 表示部120は、情報を表示する機能を有する。上述したように、表示部120は、プロジェクタ及びディスプレイにより実現され得る。表示部120は、制御部150による制御に基づき、3DCGアプリケーションの操作画面等を出力する。
 通信部130は、有線/無線により外部機器との間でデータの送受信を行うための通信モジュールである。通信部130は、無線LAN、Wi-Fi又はBluetooth等の任意の通信方式を用いて操作用ペン200と通信する。例えば、通信部130は、入力部210への入力情報や、操作用ペン200に内蔵された慣性センサにより検出された情報を受信し得る。通信部130は、受信した情報を制御部150へ出力する。
 記憶部140は、所定の記録媒体に対してデータの記録再生を行う部位である。例えば、記憶部140は、ユーザにからの記憶指示に基づいて、操作内容を示す情報を記憶する。
 制御部150は、演算処理装置及び制御装置として機能し、各種プログラムに従って情報処理装置100内の動作全般を制御する。図5に示すように、制御部150は、取得部151、記憶制御部153、生成部155及び表示制御部157として機能する。取得部151は、ユーザによる操作の内容を示す操作情報を取得する機能を有する。記憶制御部153は、記憶部140に情報を記憶したり、記憶部140に記憶された情報を読み出したりする機能を有する。生成部155は、表示部120に表示させる内容を規定した表示制御情報を生成する機能を有する。なお、表示制御情報は、RGB信号又はHDMI(登録商標)信号等の画像表示のための信号であってもよいし、HTMLファイル等であってもよい。表示制御部157は、生成部155により生成された表示制御情報に基づく表示を行うよう表示部120を制御する機能を有する。
 なお、情報処理装置100は、3DCGアプリケーションから座標を取得して、取得した座標に基づいて各種情報処理を行う。制御部150と3DCGアプリケーションとの間で行われる座標の入力及び出力等の通信は、3DCGアプリケーションのAPI又はプラグイン等により行われ得る。
 以上、本実施形態に係る情報処理装置100の機能構成例を説明した。続いて、各実施形態について詳細に説明する。
 <<3.第1の実施形態>>
 まず、図6を参照して、本実施形態に係る情報処理装置100の概要を説明する。
 図6は、本実施形態に係る情報処理装置100の概要を説明するための図である。図6に示すように、ユーザは、認識範囲190内で操作用ペン200を操作する。また、ディスプレイ120Cには、車の仮想オブジェクト20を側面後方から見た様子が表示され、投影面170には車の仮想オブジェクト20を上から見た様子が表示されている。本実施形態は、認識範囲190における操作用ペン200の位置及び姿勢が、マニピュレーター10の位置及び姿勢に反映される形態である。
 以下、本実施形態に係る情報処理装置100が有する技術的特徴を説明する。
  <3.1.技術的特徴>
  (操作情報取得機能)
 情報処理装置100(例えば、取得部151)は、ユーザによる操作の内容を示す操作情報を取得する機能を有する。本実施形態における操作情報は、操作用ペン200等のユーザにより操作される実オブジェクトの実空間における位置及び姿勢を示す情報を含む。
 例えば、取得部151は、センサ部110により検出された画像情報から操作用ペン200を画像認識したり、センサ部110により検出された深度情報から操作用ペン200の高さを認識したりすることで、操作用ペン200の位置及び姿勢を取得してもよい。その際、取得部151は、操作用ペン200の両端(発光部220A及び220B)の座標を特定することで、操作用ペン200の位置及び姿勢を取得してもよい。
 また、取得部151は、通信部130により受信された、操作用ペン200が内蔵するセンサにより検出された情報から、操作用ペン200の姿勢を取得してもよい。例えば、取得部151は、重力加速度の検出結果から操作用ペン200の姿勢を取得する。
 他にも、取得部151は、通信部130により受信された、操作用ペン200の入力部210への入力情報や、操作用ペン200に内蔵されたセンサにより検出された加速度や速度等の情報を、操作情報として取得し得る。
 また、例えばユーザの指等の他の実オブジェクトが、操作用ペン200として機能してもよい。その場合、操作情報は、ユーザの指及び姿勢を示す情報となる。取得部151は、ユーザの指の付け根と先端の座標を、操作用ペン200の両端と同様に特定することで、操作情報を取得し得る。
  (座標変換機能)
 情報処理装置100(例えば、生成部155)は、実空間における座標を、仮想空間における座標に変換する機能を有する。
 例えば、生成部155は、実空間における操作用ペン200の両端の座標を、仮想空間におけるマニピュレーター10の原点11及び注視点12の座標に変換する。より詳しくは、生成部155は、マニピュレーター10の位置及び姿勢(原点11及び注視点12の座標)に、操作用ペン200の位置及び姿勢(発光部220A及び220Bの座標)を反映させる。例えば、生成部155は、実空間における操作用ペン200の発光部220Bの座標をマニピュレーター10の原点11の座標に変換して、発光部220Aの座標をマニピュレーター10の注視点12の座標に変換する。これにより、ユーザは、操作用ペン200を手に持って認識範囲190内で動かすことで、あたかもマニピュレーター10を手に持って仮想空間内で動かすかのように操作することが可能となる。
 なお、変換先の座標は、特に言及しない限りグローバル座標であるものとする。なお、グローバル座標とは、仮想空間における絶対的な位置を示す座標である。これに対し、ローカル座標とは、仮想空間における任意の位置(単なる座標、又は仮想オブジェクト)を基準とした相対的な位置を示す座標である。
 生成部155は、仮想空間の表示の拡大又は縮小に合わせた座標変換を行ってもよい。例えば、生成部155は、認識範囲190内における操作用ペン200の移動距離を、仮想空間の縮尺に合わせた仮想空間内の移動距離に変換する。例えば、仮想空間を拡大して仮想オブジェクト20の一部を表示している場合、マニピュレーター10の可動域はその一部に限定され、仮想空間を縮小して仮想オブジェクト20の全体を表示している場合、マニピュレーター10の可動域はその全体に渡る。
  (仮想空間表示機能)
 情報処理装置100(例えば、生成部155及び表示制御部157)は、仮想空間の表示を行う機能を有する。以下では、生成部155が表示制御情報を生成して、表示制御部157が表示制御情報に基づく表示を行うよう表示部120を制御することを、単に表示を行う、とも称する。
 例えば、生成部155は、操作用ペン200(第2の実オブジェクト)について検出された操作情報(第2の操作情報)に基づいて、仮想空間の表示を行うための表示制御情報を生成する機能を有する。具体的には、生成部155は、座標変換機能により操作用ペン200の位置及び姿勢をマニピュレーター10に反映させた表示を行うための表示制御情報を生成する。これにより、ユーザは、操作用ペン200を手に持って認識範囲190内で動かすことで、あたかもマニピュレーター10を手に持って仮想空間内で動かしたかのような表示を、情報処理装置100にさせることができる。なお、操作用ペン200のペン軸方向の回転は、マニピュレーター10に反映されてもよいし反映されなくてもよい。反映されるか否かは、ユーザにより設定されてもよい。また、操作用ペン200の所定の軸(方向)に対しての移動(変化)をマニピュレーター10の移動に変換される割合を、小さくする、大きくする又はゼロにする(動かさない)といった調整が任意になされてもよい。
 さらに、生成部155は、操作用ペン200を仮想空間における仮想的な道具に対応させてもよい。具体的には、生成部155は、マニピュレーター10に仮想的な道具としての機能をもたせてもよい。そして、生成部155は、仮想オブジェクト20への仮想的な道具の使用を反映させた表示を行うための表示制御情報を生成してもよい。仮想的な道具は多様に考えられる。
 例えば、仮想的な道具は、ライトであってもよい。例えば、情報処理装置100は、マニピュレーター10にライトとしての機能を持たせて、マニピュレーター10の原点11及び注視点12をライトの原点及び注視点に設定する。これにより、実空間における操作用ペン200の位置(発光部220Bの位置)に対応する仮想空間の位置(原点11)から、実空間における操作用ペン200の姿勢(発光部220Aの位置)に対応する仮想空間の方向(注視点12)へ、ライトが照らされる。例えば、情報処理装置100は、この仮想的なライトにより仮想オブジェクト20が照らされた様子を表示することができる。例えば、図6に示した例では、マニピュレーター10がライトとして機能し、車の仮想オブジェクト20の後部を照らす光(符号21)が表示されている。
 例えば、仮想的な道具は、カメラであってもよい。例えば、情報処理装置100は、マニピュレーター10にカメラとしての機能を持たせて、マニピュレーター10の原点11及び注視点12をカメラの原点及び注視点に設定する。これにより、実空間における操作用ペン200の位置(発光部220Bの位置)に対応する仮想空間の位置(原点11)から、実空間における操作用ペン200の姿勢(発光部220Aの位置)に対応する仮想空間の方向(注視点12)へ、カメラが向けられる。例えば、情報処理装置100は、この仮想的なカメラにより撮像された仮想オブジェクト20を表示することができる。
 例えば、仮想的な道具は、パーティクル放出器具であってもよい。パーティクル放出器具としては、例えばペイント塗料を噴射するエアブラシや、炎又は煙を放出する火炎放射器、タバコ、及び花火等が挙げられる。例えば、情報処理装置100は、マニピュレーター10にエアブラシとしての機能を持たせて、マニピュレーター10の原点11及び注視点12をエアブラシの原点及び注視点に設定する。これにより、実空間における操作用ペン200の位置(発光部220Bの位置)に対応する仮想空間の位置(原点11)から、実空間における操作用ペン200の姿勢(発光部220Aの位置)に対応する仮想空間の方向(注視点12)へ、エアブラシが向けられる。例えば、情報処理装置100は、この仮想的なエアブラシによりペイントされた仮想オブジェクト20を表示することができる。また、操作用ペン200の位置や姿勢の他、加速度等が反映されてもよく、仮想空間において物理演算が行われてもよい。例えば、ユーザが操作用ペン200を振ると、その加速度に応じてマニピュレーター10の注視点12から塗料が飛んでもよい。また、塗料が仮想空間における重力に従って落下して仮想オブジェクト20に飛散してもよい。
 なお、生成部155は、マニピュレーター10に仮想的な道具としての機能を複数もたせてもよい。例えば、マニピュレーター10がライトとして機能しつつ、カメラとして機能してもよい。その場合、カメラの撮影範囲がライトで照らされたカメラ画像の表示が行われ得る。
 生成部155は、仮想的な道具の作用に関するパラメータを反映させた表示を行うための表示制御情報を生成してもよい。これにより、情報処理装置100は、仮想的な道具の作用を制御することができる。このパラメータは、ユーザにより指定され得る。また、パラメータは多様に考えられる。
 ライトに関するパラメータとしては、例えばライトの種類、ライトの色、強度、コーンアングル、周縁部の角度、ドロップオフ、シャドウの色、及びエフェクト等が挙げられる。なお、コーンアングルとは、スポットライトの傘の角度である。周縁部の角度とは、ライトのエッジ周辺でぼける光の角度である。ドロップオフとは、ライトの中心から外側に向かう減衰率である。エフェクトには、グロー、レンズフレア等の種類がある。
 カメラに関するパラメータとしては、例えばカメラの種類、カメラの画角、焦点距離、被写界深度、及びズーム等が挙げられる。また、他のパラメータとして、カメラの重さが挙げられる。例えば、生成部155は、カメラの重さ、操作用ペン200の速度及び加速度等に応じて、カメラに遠心力が掛かって一度目標物を通り過ぎた後にまた戻るカメラワークを再現してもよい。このようなカメラワークは、リアルタイムに再現されてもよいし、後からカメラの重さ等のパラメータが調整されて、戻る量や手振れ量が調整されてもよい。
 パーティクル放出器具に関するパラメータとしては、例えばパーティクル放出器具の種類が挙げられる。また、例えばエアブラシに関するパラメータとしては、パーティクルの形状、サイズ、放出数、放出方向、放出角度、放出速度、放出レート、重力、及び粘性等が挙げられる。炎又は煙に関するパラメータとしては、火の量、明るさ、拡散角度、放出直後の半径、消滅直前の半径、火の移動方向、火の移動速度、煙の不透明度、及び乱気流等が挙げられる。
 なお、マニピュレーター10の原点及び注視点の座標も、パラメータとして捉えてもよい。
 また、操作用ペン200にスライダー等が設けられてもよく、例えばライトの強度やコーンアングル等のパラメータがスライダーの位置に応じて動的に設定されてもよい。
  (記憶/再現機能)
 情報処理装置100(例えば、記憶制御部153及び記憶部140)は、操作用ペン200により操作された仮想空間の状況を記憶し、再現する機能を有する。
 例えば、記憶制御部153は、マニピュレーター10の位置及び姿勢を示す情報を記憶部140に記憶させる。そして、生成部155は、記憶制御部153により記憶部140から取得された過去のマニピュレーター10の位置及び姿勢を示す情報に基づいて、表示制御情報を生成する。これにより、ユーザは、例えば気に入ったライトの当て方を記憶しておき、後から参照することが可能となる。
 マニピュレーター10の位置及び姿勢を示す情報は、連続的に記憶されてもよいし、離散的に記憶されてもよい。例えば、記憶制御部153は、操作用ペン200のボタン210Cが押下された期間はマニピュレーター10の座標を連続的に記憶してもよく、ボタン210Cが離散的に押下されたタイミングでマニピュレーター10の座標を記憶してもよい。例えば、連続的に記憶される場合、生成部155は、連続的に記憶された位置及び姿勢を示す情報に従って、マニピュレーター10の位置及び姿勢をそのまま再現し得る。一方で、離散的に記憶される場合、生成部155は、離散的に記憶された位置及び姿勢を示す情報を時間軸に沿って繋ぐことで、マニピュレーター10の位置及び姿勢を再現し得る。
 以上、本実施形態に係る情報処理装置100の技術的特徴を説明した。続いて、図7を参照して、本実施形態に係る情報処理装置100の動作処理例を説明する。
  <3.2.動作処理例>
 図7は、本実施形態に係る情報処理装置100において実行される表示処理の流れの一例を示すフローチャートである。本フローは、マニピュレーター10が仮想的なライトとして機能する場合の処理例である。
 図7に示すように、まず、ステップS102で、情報処理装置100は、ライト制御モードに遷移する。例えば、ユーザは、ボタン210Bを押下して動作モード選択画面を投影面170上に表示させ、ライト制御モードを選択する。動作モードには、例えばマニピュレーター10を仮想的な描画具として機能させるドローイングモードや、仮想的なカメラとして機能させるカメラ制御モード等が含まれ得る。取得部151は、このようにしてユーザによりライト制御モードが選択されたことを示す情報を取得する。これに従い、生成部155は、マニピュレーター10を仮想的なライトとして機能させる。
 次いで、ステップS104で、情報処理装置100は、仮想空間の表示をデフォルトに戻す。例えば、生成部155及び表示制御部157は、回転又は拡縮等されていた仮想空間を元に戻した表示を行う。
 次に、ステップS106で、情報処理装置100は、仮想的なライトを生成する。例えば、ユーザは、ライトの種類の選択画面を投影面170上に表示させ、ディレクショナルライト、アンビエントライト、スポットライト、ポイントライト等の中から、使用したい種類のライトを選択する。ユーザは、複数のライトを同時に使用可能である。また、ユーザは、パラメータを自身で指定して新しい種類のライトを作成可能である。ユーザによる選択の他、デフォルトのライトが選択されてもよい。取得部151は、このようにして指定されたパラメータを示す情報を取得する。これに従い、生成部155は、仮想的なライトの作用を決定する。
 次いで、ステップS108で、情報処理装置100は、操作用ペン200の位置及び姿勢を取得する。例えば、取得部151は、操作情報取得機能により、操作用ペン200の位置及び姿勢を取得する。
 次に、ステップS110で、情報処理装置100は、操作用ペン200の位置及び姿勢を仮想空間の座標系に変換する。例えば、生成部155は、座標変換機能により、実空間における操作用ペン200の発光部220A及び220Bの座標を、仮想空間の座標系における座標に変換する。
 次いで、ステップS112で、情報処理装置100は、操作用ペン200の両端を仮想的なライトの原点及び注視点に設定する。例えば、生成部155は、マニピュレーター10の原点11の座標を、仮想空間の座標系に変換した発光部220Bの座標に設定する。また、生成部155は、マニピュレーター10の注視点12の座標を、仮想空間の座標系に変換した発光部220Aの座標に設定する。そして、生成部155は、仮想空間表示機能により、マニピュレーター10の原点11及び注視点12をライトの原点及び注視点に設定する。
 次に、ステップS114で、情報処理装置100は、仮想空間に仮想的なライトによる光を反映させる。例えば、情報処理装置100は、仮想空間表示機能により、原点11から注視点12の方向へライトを照らした様子を表示する。
 次いで、ステップS116で、記憶制御部153は、記憶するか否かを判定する。例えば、ボタン210Cが押下されたことを示す情報が取得された場合、記憶制御部153は記憶すると判定し(ステップS116/YES)、処理はステップS118へ進む。一方で、ボタン210Cが押下されたことを示す情報が取得されない場合、記憶制御部153は記憶しないと判定し、処理はステップS120へ進む(ステップS116/NO)。
 ステップS118では、情報処理装置100は、仮想的なライトの情報を記憶する。例えば、記憶制御部153は、ライトのパラメータ、位置及び姿勢を示す情報を記憶する。
 次に、ステップS120で、情報処理装置100は、ライト制御モードを終了するか否かを判定する。例えば、ユーザは、投影面170上に表示されたメニューからライト制御モードを終了させる。ユーザによるライト制御モードの終了指示が取得された場合(S120/YES)、生成部155は、ライト制御モードを終了して仮想的なライトを切る。一方で、ユーザによるライト制御モードの終了指示が取得されない場合(S120/NO)、処理は再度ステップS108へ戻る。
 以上、第1の実施形態について説明した。
 <<4.第2の実施形態>>
 まず、図8及び図9を参照して、本実施形態に係る情報処理装置100の概要を説明する。
 図8及び図9は、本実施形態に係る情報処理装置100の概要を説明するための図である。図8に示すように、ユーザは、認識範囲190内で操作用ペン200及び操作用キューブ300を操作する。また、ディスプレイ120Cには、車の仮想オブジェクト20を側面後方から見た様子が表示され、投影面170には車の仮想オブジェクト20を上から見た様子が表示されている。本実施形態は、認識範囲190における操作用ペン200及び操作用キューブ300の位置及び姿勢が、マニピュレーター10及び仮想オブジェクト20の位置及び姿勢に反映される形態である。例えば、ユーザは、図9に示すように、操作用キューブ300に上から操作用ペン200を向けたり、下から操作用ペン200を向けたりする操作が可能となる。これにより、例えば、仮想空間において、仮想オブジェクト20に上からライトが照らされたり、下からライトが照らされたりする。例えば、図8に示した例では、操作用キューブ300の後ろから操作用ペン200が向けられているので、車の仮想オブジェクト20の後部を照らす光(符号21)が表示されている。
 操作用キューブ300は、ユーザにより操作される実オブジェクトである。操作用キューブ300は、図8に示したように投影面170上に置かれてもよいし、ユーザの手で持たれてもよいし、三脚等の任意の支持器により支持されてもよい。操作用キューブ300は、姿勢を検出可能になるよう、各面を識別するためのバーコード等のパッシブマーカーやAR(Augmented Reality)マーカー等が各面に付されていてもよい。
 操作用キューブ300は、他にも、加速度センサ及びジャイロセンサ等の慣性センサ、速度センサ、振動センサ、生体センサ等を有していてもよい。また、操作用キューブ300は、無線LAN、Wi-Fi又はBluetooth等の任意の通信方式を用いて無線通信可能な通信部を有してもよく、情報処理装置100と各種データの送受信を行ってもよい。
 以下、本実施形態に係る情報処理装置100が有する技術的特徴を説明する。なお、本実施形態に係る情報処理装置100は、上述した実施形態において説明した技術的特徴を有しているものとする。
  <4.1.技術的特徴>
  (操作情報取得機能)
 本実施形態における操作情報は、操作用ペン200及び操作用キューブ300の実空間における位置及び姿勢を示す情報を含む。操作用ペン200に関しては上記説明した通りであるので、以下では操作用キューブ300について説明する。
 例えば、取得部151は、センサ部110により検出された画像情報から操作用キューブ300を画像認識したり、センサ部110により検出された深度情報から操作用キューブ300の高さを認識したりすることで、操作用キューブ300の位置及び姿勢を取得してもよい。その際、取得部151は、操作用キューブ300の各面に付された識別情報を認識したり、操作用キューブ300の頂点位置を認識したり、ARアルゴリズムを用いてARマーカーの姿勢を推定することで、操作用キューブ300の位置及び姿勢を取得してもよい。
 また、取得部151は、通信部130により受信された、操作用キューブ300が内蔵するセンサにより検出された情報から、操作用キューブ300の姿勢を取得してもよい。例えば、取得部151は、重力加速度の検出結果から操作用キューブ300の姿勢を取得する。
 他にも、取得部151は、通信部130により受信された、操作用キューブ300に内蔵されたセンサにより検出された加速度や速度等の情報を、操作情報として取得し得る。
  (座標変換機能)
 情報処理装置100(例えば、生成部155)は、実空間における操作用ペン200及び操作用キューブ300の座標を、仮想空間における座標に変換する機能を有する。生成部155は、操作用ペン200及び操作用キューブ300の絶対的な位置を用いて座標変換してもよいし、相対的な位置を用いて座標変換してもよい。
  ・絶対的な位置を使用する場合
 例えば、生成部155は、仮想空間における仮想オブジェクト20の位置及び姿勢に操作用キューブ300の位置及び姿勢を反映させ、仮想空間におけるマニピュレーター10の位置及び姿勢に操作用ペン200の位置及び姿勢を反映させてもよい。例えば、生成部155は、実空間における操作用キューブ300の各頂点の座標を仮想オブジェクト20の対応する点のグローバル座標に変換する。また、生成部155は、実空間における操作用ペン200の発光部220Bの座標をマニピュレーター10の原点11のグローバル座標に変換して、発光部220Aの座標をマニピュレーター10の注視点12のグローバル座標に変換する。これにより、ユーザは、操作用ペン200及び操作用キューブ300を手に持って認識範囲190内で動かすことで、あたかもマニピュレーター10及び仮想オブジェクト20を手に持って仮想空間内で動かすかのように操作することが可能となる。
  ・相対的な位置を使用する場合
 例えば、生成部155は、仮想空間における仮想オブジェクト20とマニピュレーター10との相対的な位置及び姿勢に、操作用キューブ300と操作用ペン200との相対的な位置及び姿勢の関係性を反映させてもよい。例えば、生成部155は、実空間における操作用キューブ300を基準とした操作用ペン200の発光部220B及び220Aの相対的な座標を、仮想オブジェクト20のグローバル座標に加算することで、マニピュレーター10の原点11及び注視点12のグローバル座標を算出する。もちろん、生成部155は、実空間における操作用ペン200を基準とした操作用キューブ300の相対的な座標を操作用ペン200のグローバル座標に加算することで、仮想オブジェクト20のグローバル座標を算出してもよい。これにより、ユーザは、操作用ペン200及び操作用キューブ300の相対的な位置及び姿勢の関係を、マニピュレーター10及び仮想オブジェクト20の相対的な位置及び姿勢の関係に反映させることができる。
  (仮想空間表示機能)
 操作用ペン200に関しては上記説明した通りであるので、以下では操作用キューブ300について説明する。
 本実施形態では、生成部155は、操作用キューブ300(第1の実オブジェクト)について検出された操作情報(第1の操作情報)に基づいて、仮想空間の表示を行うための表示制御情報を生成する機能を有する。具体的には、生成部155は、座標変換機能により操作用キューブ300の位置及び姿勢を仮想オブジェクト20に反映させた表示を行うための表示制御情報を生成する。これにより、ユーザは、操作用キューブ300を手に持って認識範囲190内で動かすことで、あたかも仮想オブジェクト20を手に持って仮想空間内で動かしたかのような表示を、情報処理装置100にさせることができる。
  (記憶/再現機能)
 操作用ペン200に関しては上記説明した通りであるので、以下では操作用キューブ300について説明する。
 情報処理装置100(例えば、記憶制御部153及び記憶部140)は、操作用ペン200及び操作用キューブ300により操作された仮想空間の状況を記憶し、再現する機能を有する。
 例えば、記憶制御部153は、仮想オブジェクト20の位置及び姿勢を示す情報を記憶部140に記憶する。そして、生成部155は、記憶制御部153により記憶部140から取得された過去の仮想オブジェクト20の位置及び姿勢を示す情報に基づいて、表示制御情報を生成する。これにより、ユーザは、例えば気に入った仮想オブジェクト20の動かし方を記憶しておき、後から参照することが可能となる。
 以上、本実施形態に係る情報処理装置100の技術的特徴を説明した。続いて、図10及び図11を参照して、本実施形態に係る情報処理装置100の動作処理例を説明する。
  <4.2.動作処理例>
 まず、図10を参照して、座標変換機能において絶対的な位置が使用される場合の処理例を説明する。
 図10は、本実施形態に係る情報処理装置100において実行される表示処理の流れの一例を示すフローチャートである。本フローは、マニピュレーター10が仮想的なライトとして機能する場合の処理例である。
 図10に示すように、まず、ステップS202で、情報処理装置100は、表示された仮想オブジェクト20の上に置かれた操作用キューブ300に、仮想空間における仮想オブジェクト20のグローバル座標を紐付ける。例えば、ユーザは、投影面170に投影された仮想オブジェクト20の上に、操作用キューブ300を置く。生成部155は、取得部151により取得された画像情報及び深度情報から仮想オブジェクト20の上に操作用キューブ300が置かれたことを認識し、仮想オブジェクト20と操作用キューブ300とを対応付ける。
 次いで、ステップS204で、情報処理装置100は、ライト制御モードに遷移する。例えば、情報処理装置100は、ユーザによる選択に従ってライト制御モードに遷移してもよいし、操作用キューブ300に付されたマーカーの認識結果に従ってライト制御モードに移行してもよい。
 次に、ステップS206で、情報処理装置100は、仮想的なライトを生成する。
 次いで、ステップS208で、情報処理装置100は、操作用ペン200及び操作用キューブ300の位置及び姿勢を取得する。例えば、取得部151は、操作情報取得機能により、操作用ペン200及び操作用キューブ300の位置及び姿勢を取得する。
 次に、ステップS210で、情報処理装置100は、操作用ペン200及び操作用キューブ300の位置及び姿勢を仮想空間のグローバル座標系に変換する。例えば、生成部155は、座標変換機能により、実空間における操作用ペン200及び操作用キューブ300の座標を、仮想空間の座標系におけるグローバル座標に変換する。
 次いで、ステップS212で、情報処理装置100は、操作用キューブ300の位置及び姿勢を仮想オブジェクト20の位置及び姿勢に反映させる。例えば、生成部155は、仮想空間の座標系に変換した操作用キューブ300のグローバル座標に、紐付けた仮想オブジェクト20のグローバル座標を移動させ、操作用キューブ300の姿勢(回転)を仮想オブジェクト20の姿勢に反映させる。
 次に、ステップS214で、情報処理装置100は、操作用ペン200の両端を仮想的なライトの原点及び注視点に設定する。
 次いで、ステップS216で、情報処理装置100は、仮想空間に仮想的なライトによる光を反映させる。
 次いで、ステップS218で、記憶制御部153は、記憶するか否かを判定する。記憶すると判定された場合(ステップS218/YES)、処理はステップS220へ進み、記憶しないと判定された場合、処理はステップS222へ進む(ステップS218/NO)。
 ステップS220では、情報処理装置100は、仮想的なライト及び仮想オブジェクト20の情報を記憶する。例えば、記憶制御部153は、ライトのパラメータ、位置及び姿勢を示す情報、並びに仮想オブジェクト20の位置及び姿勢を示す情報を記憶する。
 次に、ステップS222で、情報処理装置100は、ライト制御モードを終了するか否かを判定する。例えば、ユーザによるライト制御モードの終了指示が取得された場合(S222/YES)、生成部155は、ライト制御モードを終了して仮想的なライトを切る。一方で、ユーザによるライト制御モードの終了指示が取得されない場合(S222/NO)、処理は再度ステップS208へ戻る。
 以上、座標変換機能において絶対的な位置が使用される場合の処理例を説明した。続いて、図11を参照して、座標変換機能において相対的な位置が使用される場合の処理例を説明する。
 図11は、本実施形態に係る情報処理装置100において実行される表示処理の流れの一例を示すフローチャートである。本フローは、マニピュレーター10が仮想的なライトとして機能する場合の処理例である。
 図11に示すように、まず、ステップS302~S308で、図10を参照して上記説明したステップS202~S208における処理と同様の処理が行われる。
 その後、ステップS310で、情報処理装置100は、操作用ペン200の操作用キューブ300に対する相対的な位置及び姿勢を算出する。例えば、生成部155は、実空間における操作用キューブ300を基準とした操作用ペン200の発光部220B及び220Aの相対的な座標を算出する。
 次いで、ステップS312で、情報処理装置100は、算出した相対的な位置及び姿勢を、仮想空間のグローバル座標系に変換する。例えば、生成部155は、上記ステップS310において算出した相対的な座標を、仮想オブジェクト20のグローバル座標に加算することで、マニピュレーター10のグローバル座標を特定する。
 その後、ステップS314~S322で、図10を参照して上記説明したステップS214~S222における処理と同様の処理が行われる。
 以上、第2の実施形態について説明した。
 <<5.第3の実施形態>>
 まず、図12及び図13を参照して、本実施形態に係る情報処理装置100の概要を説明する。
 図12は、本実施形態に係る情報処理装置100の概要を説明するための図である。図12に示すように、ユーザは、認識範囲190内にモデル物体400を置き、操作用ペン200を操作する。モデル物体400は、上述した操作用キューブ300として機能する実オブジェクトである。図12に示すように、モデル物体400は車の形状をしており、車のテクスチャ(模様や色等)がプロジェクションマッピングされる。図12に示した例は、マニピュレーター10がカメラとして機能する例である。図12に示すように、モデル物体400の正面に操作用ペン200が向けられているので、ディスプレイ120Cには、仮想オブジェクト20を正面から見たカメラ画像が表示されている。
 図13は、本実施形態に係る情報処理装置100の概要を説明するための図である。図13に示すように、モデル物体400は車の形状をしており、車のテクスチャがプロジェクションマッピングされる。本図に示した例は、マニピュレーター10がライトとして機能する例である。図13に示すように、モデル物体400の正面に操作用ペン200が向けられているので、ディスプレイ120Cには、仮想オブジェクト20の正面を照らす光(符号21)が表示されている。また、モデル物体400には、正面に当てられた光(符号401)がプロジェクションマッピングされている。
 以下、本実施形態に係る情報処理装置100が有する技術的特徴を説明する。なお、本実施形態に係る情報処理装置100は、上述した実施形態において説明した技術的特徴を有しているものとする。
  <5.1.技術的特徴>
  (プロジェクションマッピング機能)
 本実施形態に係る情報処理装置100(例えば、生成部155)は、プロジェクションマッピングするための表示制御情報を生成する機能を有する。プロジェクションマッピングの対象となる実オブジェクトは多様に考えられる。例えば、認識範囲190に存在する、ユーザの手、操作用ペン200、操作用キューブ300又はモデル物体400等の任意の実オブジェクトにプロジェクションマッピングされてもよい。ここで、プロジェクションマッピングとは、立体的な形状を有する実オブジェクトに画像を投影することを指すものとする。例えば、生成部155は、まず、モデル物体400等の実オブジェクトの立体形状を、画像情報及び深度情報等を用いて認識する。次いで、生成部155は、立体形状の認識結果に基づいて、プロジェクタ120から投影される画像を制御するための表示制御情報を生成する。そして、表示制御部157は、生成された表示制御情報に基づく投影を行うようプロジェクタ120を制御する。このようにして、実オブジェクトへのプロジェクションマッピングが実現される。
 情報処理装置100は、仮想オブジェクト20に対応する実オブジェクトにプロジェクションマッピングしてもよい。そのような実オブジェクトとしては、図12及び図13に示したモデル物体400の他、操作用キューブ300等が挙げられる。これにより、ユーザは、実オブジェクトに対応する仮想オブジェクトの内容(例えば、車であること)を、より直感的に把握することが可能となる。なお、プロジェクションマッピングは、3DCGアプリケーション側で行われてもよい。
  (仮想空間表示機能)
 本実施形態に係る情報処理装置100(例えば、生成部155)は、仮想オブジェクト20に対応する実オブジェクトにプロジェクションマッピングされたテクスチャに応じた表示を行ってもよい。図12に示した例では、モデル物体400に車のテクスチャがプロジェクションマッピングされている。そのため、生成部155は、プロジェクションマッピングされたテクスチャが表面に描画された仮想オブジェクト20を表示するための表示制御情報を生成してもよい。その場合、図12に示した例では、ディスプレイ120Cには、プロジェクションマッピングされたテクスチャが表面に描画された仮想オブジェクト20を正面から見たカメラ画像が表示されることとなる。ライト等に関しても同様である。これにより、情報処理装置100は、実空間の様子と仮想空間の様子との差を縮めることができる。
 なお、生成部155は、どのようなテクスチャがプロジェクションマッピングされているかを、プロジェクションマッピングを行う主体(例えば、表示制御部157又は3DCGアプリケーション)から取得してもよいし、画像認識結果から取得してもよい。
  (パラメータ表示機能)
 情報処理装置100(例えば、生成部155及び表示制御部157)は、上述した仮想的な道具のパラメータを表示する機能を有していてもよい。
 例えば、生成部155は、パラメータを操作用ペン200に関連する場所に表示するための前記表示制御情報を生成してもよい。パラメータを操作用ペン200に関連する場所としては、例えば操作用ペン200自身、操作用ペン200を持つユーザの手が挙げられる。例えば、プロジェクタ120は、操作用ペン200を持つユーザの手に、パラメータをプロジェクションマッピングする。これにより、ユーザは、マニピュレーター10の座標情報やライトの強度等を、操作用ペン200を操作しながら容易に把握することができる。
 以上、本実施形態に係る情報処理装置100の技術的特徴を説明した。続いて、図14及び図15を参照して、本実施形態に係る情報処理装置100の動作処理例を説明する。
  <5.2.動作処理例>
 図14は、本実施形態に係る情報処理装置100において実行される表示処理の流れの一例を示すフローチャートである。本フローは、マニピュレーター10が仮想的なカメラとして機能する場合の処理例である。
 図14に示すように、まず、ステップS402で、情報処理装置100は、カメラ制御モードに遷移する。例えば、情報処理装置100は、ユーザによる選択に従ってカメラ制御モードに遷移してもよい。
 次いで、ステップS404で、情報処理装置100は、仮想的なカメラを生成する。例えば、ユーザは、カメラの焦点距離等のパラメータを投影面170に表示させ、パラメータを指定する。ユーザによる指定の他、デフォルトのパラメータが用いられてもよい。取得部151は、指定されたパラメータを示す情報を取得する。これに従い、生成部155は、仮想的なカメラの作用を決定する。
 次に、ステップS406で、情報処理装置100は、テーブル180上に置かれたモデル物体400の位置及び姿勢を取得する。例えば、取得部151は、操作情報取得機能により、モデル物体400の位置及び姿勢を取得する。
 次いで、ステップS408で、情報処理装置100は、モデル物体400に仮想オブジェクトをマッピングする。その際、情報処理装置100は、モデル物体400に任意のテクスチャをプロジェクションマッピングしてもよい。また、マッピングされるテクスチャは、例えばGUIメニューからユーザにより選択されてもよい。
 次に、ステップS410で、情報処理装置100は、操作用ペン200の位置及び姿勢を取得する。
 次いで、ステップS412で、情報処理装置100は、操作用ペン200とモデル物体400との位置及び姿勢の関係を仮想空間の座標系に変換する。このとき、情報処理装置100は、操作用ペン200及びモデル物体400の絶対的な位置を使用して座標変換してもよいし、相対的な位置を使用して座標変換してもよい。
 次に、ステップS414で、情報処理装置100は、操作用ペン200の両端を仮想的なカメラの原点及び注視点に設定する。例えば、生成部155は、仮想空間表示機能により、マニピュレーター10の原点11及び注視点12をカメラの原点及び注視点に設定する。
 次いで、ステップS416で、情報処理装置100は、仮想空間のカメラビューに反映させる。例えば、生成部155は、仮想空間表示機能により、原点11から注視点12の方向へ向けた仮想的なカメラにより撮像された仮想空間の様子を表示する。
 次いで、ステップS418で、記憶制御部153は、記憶するか否かを判定する。記憶すると判定された場合(ステップS418/YES)、処理はステップS420へ進み、記憶しないと判定された場合、処理はステップS422へ進む(ステップS418/NO)。
 ステップS420では、情報処理装置100は、仮想的なカメラ及び仮想オブジェクト20の情報を記憶する。例えば、記憶制御部153は、カメラのパラメータ、位置及び姿勢を示す情報、並びに仮想オブジェクト20の位置及び姿勢を示す情報を記憶する。
 次に、ステップS422で、情報処理装置100は、カメラ制御モードを終了するか否かを判定する。例えば、ユーザによるカメラ制御モードの終了指示が取得された場合(S422/YES)、生成部155は、カメラ制御モードを終了して仮想的なカメラを切る。一方で、ユーザによるカメラ制御モードの終了指示が取得されない場合(S422/NO)、処理は再度ステップS410へ戻る。
 以上、マニピュレーター10が仮想的なカメラとして機能する場合の処理例を説明した。続いて、図15を参照して、マニピュレーター10が仮想的なライトとして機能する場合の処理例を説明する。
 図15は、本実施形態に係る情報処理装置100において実行される表示処理の流れの一例を示すフローチャートである。
 図15に示すように、まず、ステップS502で、情報処理装置100は、ライト制御モードに遷移する。次いで、ステップS504で、情報処理装置100は、仮想的なライトを生成する
 その後、ステップS506~S512で、図14を参照して上記説明したステップS406~S412における処理と同様の処理が行われる。
 次に、ステップS514で、情報処理装置100は、操作用ペン200の両端を仮想的なライトの原点及び注視点に設定する。
 次いで、ステップS516で、情報処理装置100は、仮想空間に仮想的なライトによる光を反映させる。
 その後、ステップS518~S522で、図14を参照して上記説明したステップS418~S422における処理と同様の処理が行われる。
 以上、第3の実施形態について説明した。
 <<6.第4の実施形態>>
 まず、図16を参照して、本実施形態に係る情報処理装置100の概要を説明する。
 図16は、本実施形態に係る情報処理装置100の概要を説明するための図である。図16に示すように、ユーザは、認識範囲190内で操作用ペン200A及び200Bを操作する。図16に示した例は、操作用ペン200Aに対応するマニピュレーター10がカメラとして機能し、操作用ペン200Bに対応するマニピュレーター10がライトとして機能する例である。図16に示すように、投影面170に表示された仮想オブジェクト20の側面後方に操作用ペン200Aが向けられているので、ディスプレイ120Cには、仮想オブジェクト20を側面後方から見たカメラ画像が表示されている。また、投影面170に表示された仮想オブジェクト20へ後ろから操作用ペン200が向けられているので、仮想オブジェクト20の後部を照らす光(符号21)が表示されている。
 本実施形態に係る生成部155は、複数の操作用ペン200について検出された複数の操作情報の各々に基づいて表示制御情報を生成する。これにより、図16に示したように、複数の操作用ペン200を用いた操作を反映した仮想空間の表示が可能となる。図16に示した例では、複数のマニピュレーター10に異なる仮想的な道具として機能したが、本技術はかかる例に限定されない。複数のマニピュレーター10が、同一の仮想的な道具として機能してもよい。
 <<7.第5の実施形態>>
 本実施形態は、手振れ補正を行う形態である。
 上述したように、情報処理装置100は、記憶/再現機能を有し、記憶部140に記憶した仮想空間の状況を示す情報(例えば、仮想的なライトやカメラ、仮想オブジェクト20の情報)を参照して、仮想空間の状況を再現することができる。本実施形態に係る情報処理装置100は、手振れ補正機能により、仮想空間の状況を滑らかに記憶し又は再現することができる。
 まず、図17を参照して、記憶時の手振れ補正機能について説明する。図17は、本実施形態に係る手振れ補正機能の一例を説明するための図である。図17に示すように、ユーザは、操作用ペン200を指で握っている。情報処理装置100が、例えば図4に示した操作用ペン200のボタン210Bが押下された場合にマニピュレーター10の座標を記憶する場合、ユーザがボタン210Bを押下する際に操作用ペン200が揺れて記憶する座標に影響が生じ得る。そのため、記憶制御部153は、ユーザが操作用ペン200に沿えていた指を離したタイミングでマニピュレーター10の座標を記憶してもよい。図17に示すように、操作用ペン200は、タッチセンサ210Dを有していてもよく、指が接しているか離れたかを検出することが可能であるものとする。これにより、操作用ペン200の揺れが軽減され、手振れが軽減される。記憶制御部153は、3DCGアプリケーションの座標空間のグリッドに沿うように、座標を補正して記憶してもよい。その場合、さらに手振れ補正機能が向上する。
 続いて、図18を参照して、再生時の手振れ補正機能について説明する。図18は、本実施形態に係る手振れ補正機能の一例を説明するための図である。図18に示すように、離散した座標401~404の情報が記憶部140に記憶されているものとする。例えば、情報処理装置100は、実際の手の動きが軌道410を通っていた場合に、各座標の間をスプライン曲線等で補間することで、再現時の軌道420を生成し得る。そして、情報処理装置100は、この軌道420に従って、仮想空間の様子を再現してもよい。
 情報処理装置100は、記憶/再生機能の他、操作情報取得機能に関する手振れ補正機能を有していてもよい。
 例えば、情報処理装置100(例えば、生成部155)は、操作用ペン200の現在位置と1ステップ前の状態をもとに、カルマンフィルターで動き予測を行い、手振れを補正してもよい。また、情報処理装置100は、手振れ補正機能による補正度合を、仮想空間の縮尺に合わせて動的に制御してもよい。
 例えば、情報処理装置100は、操作用ペン200の高さに合わせて10段階等の効果音を鳴らしたり、操作用キューブ300に操作用ペン200又は操作用キューブ300の位置を示す情報をプロジェクションマッピングしたりしてもよい。これにより、ユーザは、水平に動かす等の座標を意識した操作を、直感的かつ細やかに行うことが可能となる。
 なお、これらの手振れ補正機能のON/OFF、及び補正度合等は、ユーザにより任意に設定されてもよい。
 <<8.ハードウェア構成例>>
 最後に、図19を参照して、本実施形態に係る情報処理装置のハードウェア構成について説明する。図19は、本実施形態に係る情報処理装置のハードウェア構成の一例を示すブロック図である。なお、図19に示す情報処理装置900は、例えば、図5に示した情報処理装置100を実現し得る。本実施形態に係る情報処理装置100による情報処理は、ソフトウェアと、以下に説明するハードウェアとの協働により実現される。
 図19に示すように、情報処理装置900は、CPU(Central Processing Unit)901、ROM(Read Only Memory)902、RAM(Random Access Memory)903及びホストバス904aを備える。また、情報処理装置900は、ブリッジ904、外部バス904b、インタフェース905、入力装置906、出力装置907、ストレージ装置908、ドライブ909、接続ポート911及び通信装置913を備える。情報処理装置900は、CPU901に代えて、又はこれとともに、DSP若しくはASIC等の処理回路を有してもよい。
 CPU901は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置900内の動作全般を制御する。また、CPU901は、マイクロプロセッサであってもよい。ROM902は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM903は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。CPU901は、例えば、図5に示す制御部150を形成し得る。
 CPU901、ROM902及びRAM903は、CPUバスなどを含むホストバス904aにより相互に接続されている。ホストバス904aは、ブリッジ904を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス904bに接続されている。なお、必ずしもホストバス904a、ブリッジ904および外部バス904bを分離構成する必要はなく、1つのバスにこれらの機能を実装してもよい。
 入力装置906は、例えば、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチ及びレバー等、ユーザによって情報が入力される装置によって実現される。また、入力装置906は、画像を撮像可能な画像センサ、及び深度情報を取得可能な深度センサ等の、センシング範囲におけるユーザ又は実オブジェクトの動作を検出する装置であってもよい。また、入力装置906は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理装置900の操作に対応した携帯電話やPDA等の外部接続機器であってもよい。さらに、入力装置906は、例えば、上記の入力手段を用いてユーザにより入力された情報に基づいて入力信号を生成し、CPU901に出力する入力制御回路などを含んでいてもよい。情報処理装置900のユーザは、この入力装置906を操作することにより、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりすることができる。入力装置906は、例えば、図5に示すセンサ部110を形成し得る。
 出力装置907は、取得した情報をユーザに対して視覚的又は聴覚的に通知することが可能な装置で形成される。このような装置として、レーザープロジェクタ、LEDプロジェクタ、CRTディスプレイ装置、液晶ディスプレイ装置、プラズマディスプレイ装置、ELディスプレイ装置及びランプ等の表示装置や、スピーカ及びヘッドホン等の音声出力装置や、プリンタ装置等がある。出力装置907は、例えば、情報処理装置900が行った各種処理により得られた結果を出力する。具体的には、表示装置は、情報処理装置900が行った各種処理により得られた結果を、テキスト、イメージ、表、グラフ等、様々な形式で視覚的に表示する。他方、音声出力装置は、再生された音声データや音響データ等からなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。上記表示装置は、例えば、図5に示す表示部120を形成し得る。
 ストレージ装置908は、情報処理装置900の記憶部の一例として形成されたデータ格納用の装置である。ストレージ装置908は、例えば、HDD等の磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等により実現される。ストレージ装置908は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。このストレージ装置908は、CPU901が実行するプログラムや各種データ及び外部から取得した各種のデータ等を格納する。ストレージ装置908は、例えば、図5に示す記憶部140を形成し得る。
 ドライブ909は、記憶媒体用リーダライタであり、情報処理装置900に内蔵、あるいは外付けされる。ドライブ909は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体に記録されている情報を読み出して、RAM903に出力する。また、ドライブ909は、リムーバブル記憶媒体に情報を書き込むこともできる。
 接続ポート911は、外部機器と接続されるインタフェースであって、例えばUSB(Universal Serial Bus)などによりデータ伝送可能な外部機器との接続口である。
 通信装置913は、例えば、ネットワーク920に接続するための通信デバイス等で形成された通信インタフェースである。通信装置913は、例えば、有線若しくは無線LAN(Local Area Network)、LTE(Long Term Evolution)、Bluetooth(登録商標)又はWUSB(Wireless USB)用の通信カード等である。また、通信装置913は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ又は各種通信用のモデム等であってもよい。この通信装置913は、例えば、インターネットや他の通信機器との間で、例えばTCP/IP等の所定のプロトコルに則して信号等を送受信することができる。通信装置913は、例えば、図5に示す通信部130を形成し得る。
 なお、ネットワーク920は、ネットワーク920に接続されている装置から送信される情報の有線、または無線の伝送路である。例えば、ネットワーク920は、インターネット、電話回線網、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、ネットワーク920は、IP-VPN(Internet Protocol-Virtual Private Network)などの専用回線網を含んでもよい。
 以上、本実施形態に係る情報処理装置900の機能を実現可能なハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて実現されていてもよいし、各構成要素の機能に特化したハードウェアにより実現されていてもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用するハードウェア構成を変更することが可能である。
 なお、上述のような本実施形態に係る情報処理装置900の各機能を実現するためのコンピュータプログラムを作製し、PC等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ等である。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信されてもよい。
 <<9.まとめ>>
 以上、図1~図19を参照して、本開示の一実施形態について詳細に説明した。上記説明したように、本実施形態に係る情報処理装置100は、仮想空間における仮想オブジェクトに対応する実オブジェクト(例えば、操作用キューブ300又はモデル物体400)について検出された操作情報と、仮想空間における仮想的な道具に対応する実オブジェクト(例えば、操作用ペン200)について検出された第2の操作情報に基づいて、仮想空間の表示を行う。これにより、ユーザは、例えば操作用キューブ300と操作用ペン200との位置関係を用いて、仮想空間における仮想オブジェクト20及びマニピュレーター10を直感的且つ容易に操作することが可能となる。また、ユーザは、操作用ペン200を操作してライトの位置及び向きを変えながら、操作用キューブ300を操作して仮想オブジェクト20の位置及び向きを変えるといった、マニピュレーター10及び仮想オブジェクト20を別々且つ同時に操作することが可能となる。
 また、本実施形態に係る情報処理装置100は、実オブジェクトにプロジェクションマッピングしてもよい。さらに、情報処理装置100は、プロジェクションマッピングされたテクスチャに応じた表示を行ってもよい。これにより、ユーザは、テクスチャがマッピングされたモデル物体400を用いた、より直感的な操作環境で3DCGアプリケーションを使用することが可能となる。
 また、本実施形態に係る情報処理装置100は、仮想オブジェクトへの仮想的な道具の使用を反映させた表示を行ってもよい。例えば、ユーザは、操作用ペン200に対応するマニピュレーター10をライトとして機能させたりカメラとして機能させたりすることができる。そのため、本技術は、例えば建築模型の中で人の目線からの見え方を確認するなど、視点確認が容易となり、制作用途の他、クライアントへのプレゼンテーション用途にも使用可能である。また、本技術は、例えば体腔内での内視鏡からの見え方を確認する等、医療用途にも使用可能である。また、本技術は、マニピュレーター10をドラムスティックとして機能させることで、例えば楽器の試奏用途にも使用可能である。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 なお、本明細書において説明した各装置は、単独の装置として実現されてもよく、一部または全部が別々の装置として実現されても良い。例えば、図5に示した情報処理装置100の機能構成例のうち、記憶部140及び制御部150が、センサ部110、表示部120及び通信部130とネットワーク等で接続されたサーバ等の装置に備えられていても良い。
 また、本明細書においてフローチャート及びシーケンス図を用いて説明した処理は、必ずしも図示された順序で実行されなくてもよい。いくつかの処理ステップは、並列的に実行されてもよい。また、追加的な処理ステップが採用されてもよく、一部の処理ステップが省略されてもよい。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 仮想空間における仮想オブジェクトに対応する第1の実オブジェクトについて検出された第1の操作情報と、前記仮想空間における仮想的な道具に対応する第2の実オブジェクトについて検出された第2の操作情報とに基づいて、前記仮想空間の表示を行うための表示制御情報を生成する生成部、
を備える情報処理装置。
(2)
 前記第1の操作情報は前記第1の実オブジェクトの位置及び姿勢を示す情報を含み、前記第2の操作情報は前記第2の実オブジェクトの位置及び姿勢を示す情報を含む、前記(1)に記載の情報処理装置。
(3)
 前記生成部は、前記第1の実オブジェクトにプロジェクションマッピングするための前記表示制御情報を生成する、前記(2)に記載の情報処理装置。
(4)
 前記生成部は、前記第1の実オブジェクトの立体形状の認識結果に基づいて、プロジェクタから投影される画像を制御するための前記表示制御情報を生成する、前記(3)に記載の情報処理装置。
(5)
 前記生成部は、前記第1の実オブジェクトにプロジェクションマッピングされたテクスチャに応じた表示を行うための前記表示制御情報を生成する、前記(3)又は(4)に記載の情報処理装置。
(6)
 前記生成部は、前記仮想的な道具の作用に関するパラメータを反映させた前記表示制御情報を生成する、前記(2)~(5)のいずれか一項に記載の情報処理装置。
(7)
 前記生成部は、前記パラメータを前記第2の実オブジェクトに関連する場所に表示するための前記表示制御情報を生成する、前記(6)に記載の情報処理装置。
(8)
 前記生成部は、前記仮想オブジェクトへの前記仮想的な道具の使用を反映させた表示を行うための前記表示制御情報を生成する、前記(2)~(7)のいずれか一項に記載の情報処理装置。
(9)
 前記仮想的な道具は、ライトである、前記(8)に記載の情報処理装置。
(10)
 前記道具の作用に関するパラメータは、ライトの種類、ライトの色、強度、コーンアングル、周縁部の角度、ドロップオフ、シャドウの色、及びエフェクトの内いずれか一つを含む、前記(9)に記載の情報処理装置。
(11)
 前記仮想的な道具は、カメラである、前記(8)に記載の情報処理装置。
(12)
 前記道具の作用に関するパラメータは、カメラの種類、カメラの画角、カメラの焦点距離、カメラの被写界深度、ズーム、およびカメラの重さのうちいずれか一つを含む、前記(11)に記載の情報処理装置。
(13)
 前記仮想的な道具は、パーティクル放出器具である、前記(8)に記載の情報処理装置。
(14)
 前記道具の作用に関するパラメータは、パーティクル放出器具の種類、パーティクルの形状、サイズ、放出数、放出方向、放出角度、放出速度、放出レート、重力、及び粘性のうちいずれか一つを含む
 前記(13)に記載の情報処理装置。
(15)
 前記生成部は、前記仮想空間における前記仮想オブジェクトと前記仮想的な道具との相対的な位置及び姿勢に、前記第1の実オブジェクトと前記第2の実オブジェクトとの相対的な位置及び姿勢の関係性を反映させる、前記(2)~(14)のいずれか一項に記載の情報処理装置。
(16)
 前記生成部は、前記仮想空間における前記仮想オブジェクトの位置及び姿勢に前記第1の実オブジェクトの位置及び姿勢を反映させ、前記仮想空間における前記仮想的な道具の位置及び姿勢に前記第2の実オブジェクトの位置及び姿勢を反映させる、前記(2)~(15)のいずれか一項に記載の情報処理装置。
(17)
 前記情報処理装置は、前記仮想オブジェクト及び前記仮想的な道具の位置及び姿勢を示す情報を記憶部に記憶させる記憶制御部をさらに備え、
 前記生成部は、前記記憶制御部により前記記憶部から取得された過去の情報に基づいて前記表示制御情報を生成する、前記(2)~(16)のいずれか一項に記載の情報処理装置。
(18)
 前記生成部は、複数の前記第2の実オブジェクトについて検出された複数の前記第2の操作情報の各々に基づいて前記表示制御情報を生成する、前記(2)~(17)のいずれか一項に記載の情報処理装置。
(19)
 仮想空間における仮想オブジェクトに対応する第1の実オブジェクトについて検出された第1の操作情報と、前記仮想空間における仮想的な道具に対応する第2の実オブジェクトについて検出された第2の操作情報とに基づいて、前記仮想空間の表示を行うための表示制御情報を生成すること、
を含むプロセッサにより実行される情報処理方法。
(20)
 コンピュータを、
 仮想空間における仮想オブジェクトに対応する第1の実オブジェクトについて検出された第1の操作情報と、前記仮想空間における仮想的な道具に対応する第2の実オブジェクトについて検出された第2の操作情報とに基づいて、前記仮想空間の表示を行うための表示制御情報を生成する生成部、
として機能させるためのプログラム。
 1  情報処理システム
 10  マニピュレーター
 11  原点
 12  注視点
 13  方向
 20  仮想オブジェクト
 100  情報処理装置
 110  センサ部
 120  表示部
 130  通信部
 140  記憶部
 150  制御部
 151  取得部
 153  記憶制御部
 155  生成部
 157  表示制御部
 160  アーム
 170  投影面
 180  テーブル
 190  認識範囲
 200  操作用ペン
 210  ボタン
 220  発光部
 300  操作用キューブ
 400  モデル物体

Claims (20)

  1.  仮想空間における仮想オブジェクトに対応する第1の実オブジェクトについて検出された第1の操作情報と、前記仮想空間における仮想的な道具に対応する第2の実オブジェクトについて検出された第2の操作情報とに基づいて、前記仮想空間の表示を行うための表示制御情報を生成する生成部、
    を備える情報処理装置。
  2.  前記第1の操作情報は前記第1の実オブジェクトの位置及び姿勢を示す情報を含み、前記第2の操作情報は前記第2の実オブジェクトの位置及び姿勢を示す情報を含む、請求項1に記載の情報処理装置。
  3.  前記生成部は、前記第1の実オブジェクトにプロジェクションマッピングするための前記表示制御情報を生成する、請求項2に記載の情報処理装置。
  4.  前記生成部は、前記第1の実オブジェクトの立体形状の認識結果に基づいて、プロジェクタから投影される画像を制御するための前記表示制御情報を生成する、請求項3に記載の情報処理装置。
  5.  前記生成部は、前記第1の実オブジェクトにプロジェクションマッピングされたテクスチャに応じた表示を行うための前記表示制御情報を生成する、請求項3に記載の情報処理装置。
  6.  前記生成部は、前記仮想的な道具の作用に関するパラメータを反映させた前記表示制御情報を生成する、請求項2に記載の情報処理装置。
  7.  前記生成部は、前記パラメータを前記第2の実オブジェクトに関連する場所に表示するための前記表示制御情報を生成する、請求項6に記載の情報処理装置。
  8.  前記生成部は、前記仮想オブジェクトへの前記仮想的な道具の使用を反映させた表示を行うための前記表示制御情報を生成する、請求項2に記載の情報処理装置。
  9.  前記仮想的な道具は、ライトである、請求項8に記載の情報処理装置。
  10.  前記道具の作用に関するパラメータは、ライトの種類、ライトの色、強度、コーンアングル、周縁部の角度、ドロップオフ、シャドウの色、及びエフェクトの内いずれか一つを含む、請求項9に記載の情報処理装置。
  11.  前記仮想的な道具は、カメラである、請求項8に記載の情報処理装置。
  12.  前記道具の作用に関するパラメータは、カメラの種類、カメラの画角、カメラの焦点距離、カメラの被写界深度、ズーム、およびカメラの重さのうちいずれか一つを含む、請求項11に記載の情報処理装置。
  13.  前記仮想的な道具は、パーティクル放出器具である、請求項8に記載の情報処理装置。
  14.  前記道具の作用に関するパラメータは、パーティクル放出器具の種類、パーティクルの形状、サイズ、放出数、放出方向、放出角度、放出速度、放出レート、重力、及び粘性のうちいずれか一つを含む
     請求項13に記載の情報処理装置。
  15.  前記生成部は、前記仮想空間における前記仮想オブジェクトと前記仮想的な道具との相対的な位置及び姿勢に、前記第1の実オブジェクトと前記第2の実オブジェクトとの相対的な位置及び姿勢の関係性を反映させる、請求項2に記載の情報処理装置。
  16.  前記生成部は、前記仮想空間における前記仮想オブジェクトの位置及び姿勢に前記第1の実オブジェクトの位置及び姿勢を反映させ、前記仮想空間における前記仮想的な道具の位置及び姿勢に前記第2の実オブジェクトの位置及び姿勢を反映させる、請求項2に記載の情報処理装置。
  17.  前記情報処理装置は、前記仮想オブジェクト及び前記仮想的な道具の位置及び姿勢を示す情報を記憶部に記憶させる記憶制御部をさらに備え、
     前記生成部は、前記記憶制御部により前記記憶部から取得された過去の情報に基づいて前記表示制御情報を生成する、請求項2に記載の情報処理装置。
  18.  前記生成部は、複数の前記第2の実オブジェクトについて検出された複数の前記第2の操作情報の各々に基づいて前記表示制御情報を生成する、請求項2に記載の情報処理装置。
  19.  仮想空間における仮想オブジェクトに対応する第1の実オブジェクトについて検出された第1の操作情報と、前記仮想空間における仮想的な道具に対応する第2の実オブジェクトについて検出された第2の操作情報とに基づいて、前記仮想空間の表示を行うための表示制御情報を生成すること、
    を含むプロセッサにより実行される情報処理方法。
  20.  コンピュータを、
     仮想空間における仮想オブジェクトに対応する第1の実オブジェクトについて検出された第1の操作情報と、前記仮想空間における仮想的な道具に対応する第2の実オブジェクトについて検出された第2の操作情報とに基づいて、前記仮想空間の表示を行うための表示制御情報を生成する生成部、
    として機能させるためのプログラム。
PCT/JP2016/050837 2015-02-27 2016-01-13 情報処理装置、情報処理方法及びプログラム WO2016136311A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US15/551,144 US10672187B2 (en) 2015-02-27 2016-01-13 Information processing apparatus and information processing method for displaying virtual objects in a virtual space corresponding to real objects
EP16755061.5A EP3264246A4 (en) 2015-02-27 2016-01-13 Information processing apparatus, information processing method, and program
JP2017501973A JP6569726B2 (ja) 2015-02-27 2016-01-13 情報処理装置、情報処理方法及びプログラム
CN201680011069.1A CN107408003A (zh) 2015-02-27 2016-01-13 信息处理设备、信息处理方法和程序

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-039549 2015-02-27
JP2015039549 2015-02-27

Publications (1)

Publication Number Publication Date
WO2016136311A1 true WO2016136311A1 (ja) 2016-09-01

Family

ID=56788345

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/050837 WO2016136311A1 (ja) 2015-02-27 2016-01-13 情報処理装置、情報処理方法及びプログラム

Country Status (5)

Country Link
US (1) US10672187B2 (ja)
EP (1) EP3264246A4 (ja)
JP (1) JP6569726B2 (ja)
CN (1) CN107408003A (ja)
WO (1) WO2016136311A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019121158A (ja) * 2018-01-04 2019-07-22 凸版印刷株式会社 データ表示装置、方法、およびプログラム
JP7281576B1 (ja) 2022-03-31 2023-05-25 Kddi株式会社 映像投影システム及び映像投影方法

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6674192B2 (ja) * 2014-05-28 2020-04-01 ソニー株式会社 画像処理装置と画像処理方法
USD822060S1 (en) * 2014-09-04 2018-07-03 Rockwell Collins, Inc. Avionics display with icon
US10922878B2 (en) * 2017-10-04 2021-02-16 Google Llc Lighting for inserted content
US11188154B2 (en) * 2018-05-30 2021-11-30 International Business Machines Corporation Context dependent projection of holographic objects
EP3996052B1 (en) * 2019-07-02 2024-05-08 Sony Group Corporation Information processing system, information processing method, and program
CN112132918B (zh) * 2020-08-28 2022-08-05 稿定(厦门)科技有限公司 基于粒子的聚光灯效果实现方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007293413A (ja) * 2006-04-21 2007-11-08 Canon Inc 情報処理方法および装置
JP2014164003A (ja) * 2013-02-21 2014-09-08 Nec Networks & System Integration Corp 仮想屋内空間表示装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2558984B2 (ja) * 1991-03-12 1996-11-27 松下電器産業株式会社 3次元情報会話システム
US5745387A (en) * 1995-09-28 1998-04-28 General Electric Company Augmented reality maintenance system employing manipulator arm with archive and comparison device
US6500008B1 (en) * 1999-03-15 2002-12-31 Information Decision Technologies, Llc Augmented reality-based firefighter training system and method
US6791574B2 (en) * 2000-08-29 2004-09-14 Sony Electronics Inc. Method and apparatus for optimized distortion correction for add-on graphics for real time video
ATE428154T1 (de) * 2005-05-03 2009-04-15 Seac02 S R L Augmented-reality-system mit identifizierung der realen markierung des objekts
WO2008139251A2 (en) * 2006-04-14 2008-11-20 Patrick Levy Rosenthal Virtual video camera device with three-dimensional tracking and virtual object insertion
US8823733B2 (en) * 2006-05-04 2014-09-02 Nintendo Co., Ltd. Enhanced virtual suction tool
CN101650749A (zh) * 2009-09-02 2010-02-17 上海理工大学 用于网上博览会的带有3d虚拟要素动态拖建模块系统
US8549418B2 (en) * 2009-12-23 2013-10-01 Intel Corporation Projected display to enhance computer device use
US8485904B2 (en) * 2010-02-09 2013-07-16 Sony Corporation Operation device
US8947455B2 (en) * 2010-02-22 2015-02-03 Nike, Inc. Augmented reality design system
GB2481366B (en) * 2010-06-03 2014-05-28 Sony Comp Entertainment Europe Entertainment device and entertainment methods
US8643569B2 (en) * 2010-07-14 2014-02-04 Zspace, Inc. Tools for use within a three dimensional scene
JP5741160B2 (ja) * 2011-04-08 2015-07-01 ソニー株式会社 表示制御装置、表示制御方法、およびプログラム
JP2013127774A (ja) * 2011-11-16 2013-06-27 Canon Inc 画像処理装置、画像処理方法及びプログラム
JP5857946B2 (ja) 2012-11-30 2016-02-10 カシオ計算機株式会社 画像処理装置、画像処理方法およびプログラム
US9325943B2 (en) * 2013-02-20 2016-04-26 Microsoft Technology Licensing, Llc Providing a tele-immersive experience using a mirror metaphor
US10168873B1 (en) * 2013-10-29 2019-01-01 Leap Motion, Inc. Virtual interactions for machine control

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007293413A (ja) * 2006-04-21 2007-11-08 Canon Inc 情報処理方法および装置
JP2014164003A (ja) * 2013-02-21 2014-09-08 Nec Networks & System Integration Corp 仮想屋内空間表示装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3264246A4 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019121158A (ja) * 2018-01-04 2019-07-22 凸版印刷株式会社 データ表示装置、方法、およびプログラム
JP7206591B2 (ja) 2018-01-04 2023-01-18 凸版印刷株式会社 データ表示装置、方法、およびプログラム
JP7281576B1 (ja) 2022-03-31 2023-05-25 Kddi株式会社 映像投影システム及び映像投影方法
JP2023151126A (ja) * 2022-03-31 2023-10-16 Kddi株式会社 映像投影システム及び映像投影方法

Also Published As

Publication number Publication date
EP3264246A1 (en) 2018-01-03
US10672187B2 (en) 2020-06-02
CN107408003A (zh) 2017-11-28
US20180033195A1 (en) 2018-02-01
EP3264246A4 (en) 2018-09-05
JPWO2016136311A1 (ja) 2017-12-07
JP6569726B2 (ja) 2019-09-04

Similar Documents

Publication Publication Date Title
JP6569726B2 (ja) 情報処理装置、情報処理方法及びプログラム
KR102308937B1 (ko) 혼합 현실 디바이스에서의 가상 및 실제 객체 레코딩
US20210327142A1 (en) Directional instructions in an hybrid-reality system
CN111344749B (zh) 引向用户关注
WO2016203792A1 (ja) 情報処理装置、情報処理方法及びプログラム
GB2553607A (en) Virtual reality
US20210255328A1 (en) Methods and systems of a handheld spatially aware mixed-reality projection platform
WO2018163637A1 (ja) 情報処理装置、情報処理方法及び記録媒体
US11151804B2 (en) Information processing device, information processing method, and program
WO2015162991A1 (ja) 画像融合システム、情報処理装置、情報端末、および情報処理方法
WO2019077897A1 (ja) 情報処理装置、情報処理方法、およびプログラム
US20230308495A1 (en) Asymmetric Presentation of an Environment
CN110461427A (zh) 变焦设备和相关方法
US20220415342A1 (en) Methods and systems for visualizing audio properties of objects
US10319346B2 (en) Method for communicating via virtual space and system for executing the method
JP2017086542A (ja) 画像変更システム、方法、及びプログラム
US11698578B2 (en) Information processing apparatus, information processing method, and recording medium
US11216179B2 (en) Information processing apparatus and information processing method
US11221684B2 (en) Information processing device, information processing method, and recording medium
WO2023021757A1 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2019082520A1 (ja) 情報処理装置、情報処理方法、およびプログラム
CN115004132A (zh) 信息处理装置、信息处理系统和信息处理方法
WO2018216327A1 (ja) 情報処理装置、情報処理方法、及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16755061

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017501973

Country of ref document: JP

Kind code of ref document: A

REEP Request for entry into the european phase

Ref document number: 2016755061

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE