JP7010223B2 - 情報処理装置、方法、および、コンピュータプログラム - Google Patents

情報処理装置、方法、および、コンピュータプログラム Download PDF

Info

Publication number
JP7010223B2
JP7010223B2 JP2018531763A JP2018531763A JP7010223B2 JP 7010223 B2 JP7010223 B2 JP 7010223B2 JP 2018531763 A JP2018531763 A JP 2018531763A JP 2018531763 A JP2018531763 A JP 2018531763A JP 7010223 B2 JP7010223 B2 JP 7010223B2
Authority
JP
Japan
Prior art keywords
space
user
information
virtual
virtual object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018531763A
Other languages
English (en)
Other versions
JPWO2018025511A1 (ja
Inventor
裕介 瀬下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2018025511A1 publication Critical patent/JPWO2018025511A1/ja
Application granted granted Critical
Publication of JP7010223B2 publication Critical patent/JP7010223B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • A63F13/655Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition by importing photos, e.g. of the player
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/55Details of game data or player data management
    • A63F2300/5546Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history
    • A63F2300/5553Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history user representation in the game field, e.g. avatar
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Architecture (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本開示は、情報処理装置、方法、および、コンピュータプログラムに関する。
現在、仮想空間を用いたゲームなどを実行する情報処理装置が開発されている。ユーザは、所定の操作を行うことによって仮想空間に対する操作または仮想空間内の仮想オブジェクトに対する操作を行い、仮想空間を利用したゲームなどを楽しむことができる。
特許文献1には、現実空間に基づく仮想空間である拡張現実空間内の仮想オブジェクトに対して所定の処理を実行する情報処理装置が開示されている。特許文献1では、例えばユーザが情報処理装置本体を操作することにより、仮想オブジェクトが仮想空間内に配置されることが記載されている。
特開2011-186536号公報
上述した特許文献1に開示された情報処理装置では、仮想空間に対するユーザの操作は、情報処理装置本体を用いて行われている。しかしながら、仮想空間に対する操作は多様であり、特許文献1に開示されている技術では、ユーザの仮想空間に対する操作が煩雑となってしまう。そこで本開示では、ユーザが仮想空間に対する多様な操作を容易に行うことが可能な、情報処理装置、方法、および、コンピュータプログラムを提案する。
本開示によれば、第1の空間に関する情報を生成する第1の空間情報生成部と、前記第1の空間よりも小さい第2の空間を前記第1の空間内に配置するように前記第2の空間に関する情報を生成する第2の空間情報生成部と、前記第2の空間に対するユーザの操作に基づいて、前記第1の空間に対する操作情報を処理する操作情報処理部と、を備える、情報処理装置が提供される。
また、本開示によれば、第1の空間情報生成部が、第1の空間に関する情報を生成することと、第2の空間情報生成部が、前記第1の空間よりも小さい第2の空間を前記第1の空間内に配置するように前記第2の空間に関する情報を生成することと、操作情報処理部が、前記第2の空間に対してユーザが操作を行うことにより、前記第1の空間に対する操作情報を処理することと、を含み、前記第2の空間は前記第1の空間内に配置される、方法が提供される。
また、本開示によれば、第1の空間情報生成部に第1の空間に関する情報を生成させ、第2の空間情報生成部に前記第1の空間よりも小さい第2の空間を前記第1の空間内に配置するように前記第2の空間に関する情報を生成させ、操作情報処理部に前記第2の空間に対するユーザの操作に基づいて、前記第1の空間に対する操作情報を処理させる、コンピュータプログラムが提供される。
以上説明したように本開示によれば、ユーザは仮想空間に対する多様な操作を容易に行うことができる。
なお、上記の効果は必ずしも限定されず、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
図1は、本開示の実施形態においてユーザの位置および動きなどを検知するユーザ情報検知部の一例を示す図である。 図2は、本開示の実施形態の情報処理装置の構成の一例を示すブロック図である。 図3は、本開示の実施形態における仮想空間および仮想空間内に配置される小空間の一例を示す図である。 図4は、本開示の実施形態における仮想空間および仮想空間内に配置される小空間の一例を示す図である。 図5は、本開示の実施形態において仮想空間内に配置される小空間の形態の例を示す図である。 図6は、本開示の実施形態において仮想空間内に配置される小空間の形態の例を示す図である。 図7は、本開示の実施形態において、ユーザが小空間を用いて仮想空間内のオブジェクトに対して行う操作の一例を示す図である。 図8は、本開示の実施形態において、ユーザが小空間を用いて仮想空間内の仮想オブジェクトに対して行う操作の一例を示す図である。 図9は、本開示の実施形態において、ユーザが小空間を用いて仮想空間内の仮想オブジェクトに対して行う操作の一例を示す図である。 図10は、本開示の実施形態において、ユーザが小空間を用いて仮想空間内の仮想オブジェクトに対して行う操作の一例を示す図である。 図11は、本開示の実施形態において、ユーザが小空間を用いて仮想空間内の仮想オブジェクトに対して行う操作の一例を示す図である。 図12は、本開示の実施形態において、ユーザが小空間を用いて仮想空間内の仮想オブジェクトに対して行う操作の一例を示す図である。 図13は、本開示の実施形態の情報処理装置において実行される処理の一例を示すフロー図である。 図14は、本開示の実施形態において、道具を用いて小空間に対する操作を行うことを示す図である。 図15は、本開示の実施形態において、ユーザが小空間を用いて仮想空間内の仮想オブジェクトに対して行う操作の一例を示す図である。 図16は、本開示の実施形態における、小空間内の擬似仮想オブジェクトの表示方法の例を示す図である。 図17は、本開示の実施形態における、小空間内の擬似仮想オブジェクトの表示方法の例を示す図である。 図18は、本開示の実施形態において、ユーザが小空間を用いて小空間に対して行う操作の一例を示す図である。 図19は、本開示の実施形態において、ユーザが小空間を用いて小空間に対して行う操作の一例を示す図である。 図20は、本開示の実施形態において、ユーザが小空間を用いて小空間に対して行う操作の一例を示す図である。 図21は、本開示の実施形態において、ユーザが小空間を用いて小空間に対して行う操作の一例を示す図である。 図22は、図21において小空間に対する操作が行われた後の小空間を示す図である。 図23は、図21において小空間に対する操作が行われた後の小空間を示す図である。 図24は、複数の小空間が配置された仮想空間を示す図である。 図25は、本開示の実施形態において、ユーザが小空間を用いて仮想空間に対して行う操作の一例を示す図である。 図26は、本開示の実施形態において、ユーザが小空間を用いて仮想空間に対して行う操作の一例を示す図である。 図27は、本開示の実施形態において、仮想空間内に表示される階層表示の例を示す図である。 図28は、本開示の実施形態における、小空間の表示方法の例を示す図である。 図29は、本開示の実施形態における、小空間の表示方法の例を示す図である。 図30は、本開示の実施形態における、小空間の表示方法の例を示す図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行う。
1.情報処理装置の構成
2.仮想空間および小空間の構成
3.小空間を用いた操作方法
3-1.仮想オブジェクトの移動
3-2.擬似仮想オブジェクトの小空間からの引き出し
3-3.ユーザ仮想オブジェクトに対する操作
3-4.擬似ユーザ仮想オブジェクトの小空間からの引き出し
4.仮想空間における小空間を用いた操作の処理例
5.小空間が用いられるその他の操作方法
6.小空間内の擬似仮想オブジェクトの表示方法
7.小空間に対する操作方法
7-1.小空間の大きさを変更する操作方法
7-2.小空間内のスケールを変更する操作および小空間内のスクロール操作
8.異なる態様の仮想空間に移行するための小空間を用いた操作方法
9.複数の階層を有する仮想空間内での小空間を用いた操作方法
10.小空間を削除および表示するための操作方法
11.拡張現実空間(AR空間)への適用例
12.補足
13.むすび
<<1.情報処理装置の構成>>
図1および図2を用いて、本開示の実施形態の情報処理装置について説明される。本開示の情報処理装置は、ユーザ100を検知するユーザ情報検知部102を備える。また本開示の情報処理装置は、ユーザ情報検知部102が検知したユーザ100に関する情報に基づいて、仮想空間内にユーザ100の仮想オブジェクトを配置する。また本開示の情報処理装置は、ユーザ情報検知部102が検知したユーザ100に関する情報に基づいて、仮想空間に対するユーザ100の操作を処理する。なお、本開示の技術は、ゲーム機器などの仮想空間を用いる情報処理装置に適用されてもよい。また情報処理装置は、汎用型コンピュータであってもよく、スマートフォンなどの通信手段を有する携帯端末であってもよい。また、仮想空間は、第1のオブジェクトの一例である仮想オブジェクトを含む第1の空間の一例である。
図1は、情報処理装置に用いられるユーザ情報検知部102の例を示す図である。図1では、ユーザ情報検知部102は撮像装置であり、例えば、ユーザ100の動き、形状、位置などのユーザ100に関する情報を取得するために4つ設置される。また、ユーザ情報検知部102は、例えば、全周囲を撮像する撮像装置であってもよく、この場合撮像装置は1つであってもよい。なお、ユーザ情報検知部102は、ユーザ100に関する情報を取得する装置であればよく、撮像装置に限られない。例えば、ユーザ情報検知部102は、赤外線等の光をユーザ100に照射し、その反射光を検出することによってユーザ100に関する情報を取得する装置であってもよい。
図2は、本開示の情報処理装置の構成を示すブロック図である。本開示の情報処理装置はさらに、ユーザモデル生成部104と、ユーザ視点検知部106と、仮想空間情報生成部108と、小空間情報生成部110と、操作情報処理部112と、記憶部114と、を有する。
ユーザモデル生成部104は、ユーザ情報検知部102が取得したユーザ100に関する情報に基づいて、仮想空間内に配置されるユーザ仮想オブジェクトを生成する。ユーザモデル生成部104が生成するユーザ仮想オブジェクトは、現実空間のユーザ100の形態を模倣した形態であってもよく、また現実空間のユーザ100とは形態が異なってもよい。例えばユーザモデル生成部104は、現実空間のユーザ100とは服装が異なるユーザオ仮想ブジェクトを生成してもよい。
ユーザ視点検知部106は、ユーザ100が向いている方向を検知する。例えば、ユーザ視点検知部106は、ユーザ100の頭に装着される装置(例えばヘッドギアのような装置)であってもよい。この場合、ユーザ視点検知部106は撮像部を備え、撮像部によって撮像された画像に基づいてユーザ100の視点が検知されてもよい。また、ユーザ視点検知部106はジャイロセンサおよび/または加速度センサを備え、当該センサが検知する角速度、角加速度、加速度に基づいて、ユーザ100の視点が検知されてもよい。また、上述したユーザ情報検知部102の機能は、ユーザ視点検知部106の機能を包含してもよい。ユーザ情報検知部102が撮像装置である場合、当該撮像装置がユーザ100の目を検知することによって、ユーザ100の視点が検知されてもよい。
仮想空間情報生成部108は、記憶部114に記憶された情報などに基づいて仮想空間に関する情報を生成する。仮想空間情報生成部108が生成する仮想空間に関する情報には、仮想空間内に配置される仮想オブジェクトに関する情報が含まれる。また、仮想空間情報生成部108は、ユーザモデル生成部104が生成したユーザ仮想オブジェクトを仮想空間内に配置する。なお、ユーザ仮想オブジェクトは、仮想オブジェクトの一例であり、仮想オブジェクトに含まれる。なお、仮想空間情報生成部108は、第1の空間の一例である仮想空間に関する情報を生成する第1の空間情報生成部の一例である。
小空間情報生成部110は、後述される、仮想空間内に配置される小空間に関する情報を生成する。小空間は、仮想空間の少なくとも一部をコピーした空間であってもよく、この場合小空間情報生成部110は、仮想空間情報生成部108から仮想空間に関する情報を受け取る。そして小空間情報生成部110は、仮想空間情報生成部108から受け取った情報に基づいて小空間に関する情報を生成する。また小空間情報生成部110は、生成した小空間に関する情報を仮想空間情報生成部108に送り、仮想空間情報生成部108は、当該情報に基づいて小空間を仮想空間内に配置する。なお、小空間情報生成部110は、第2の空間の一例である小空間に関する情報を生成する第2の空間情報生成部の一例である。
上述したように、小空間が仮想空間の少なくとも一部をコピーする場合、仮想空間情報生成部108と小空間情報生成部110は、互いに情報をやり取りする。また、小空間情報生成部110は、仮想空間をコピーすることなく、記憶部114に記憶されている情報に基づいて小空間に関する情報を生成してもよい。また、小空間情報生成部110は、仮想空間情報生成部108からの情報と、記憶部114に記憶されている情報と、に基づいて小空間に関する情報を生成してもよい。
操作情報処理部112は、小空間に対するユーザ100の操作に基づいて、仮想空間に対する操作情報を処理する。操作情報処理部112は、ユーザ情報検知部102からのユーザ100の動きに関する情報に基づいて、ユーザ100が小空間に対して操作を行っていることを認識する。そして操作情報処理部112は、認識されたユーザ100の小空間に対する操作に基づいて、仮想空間に対する操作情報を処理する。仮想空間情報生成部108は、操作情報処理部112が処理した操作情報に基づいて、仮想空間に関する情報を生成する。
なお、図1では、ユーザ情報検知部102は、撮像装置として示された。しかしユーザ情報検知部102は、ユーザ100の手で操作される操作装置であってもよく、またはユーザ100の手に装着されるような構成の操作装置であってもよい。操作情報処理部112は、上述したような構成のユーザ情報検知部102からの情報に基づいて操作情報を処理してもよい。
本開示の情報処理装置はさらに、映像信号生成部116と、映像表示部118と、を備える。映像信号生成部116は、仮想空間情報生成部108が生成した仮想空間に関する情報に基づいて、映像信号を生成する。ここで、仮想空間情報生成部108が生成する仮想空間に関する情報には、小空間情報生成部110が生成した小空間に関する情報が含まれる。
映像表示部118は、映像信号生成部116が生成した映像信号に基づいて、仮想空間の映像を表示する。映像表示部118は、例えば通常のモニタであってもよく、またヘッドマウントディスプレイのように、ユーザ100により仮想空間に対する没入間を与えるような、ユーザ100に装着される表示装置であってもよい。また映像表示部118は、液晶ディスプレイを備えてもよく、有機EL(Electro Luminescence)ディスプレイを備えてもよい。
<<2.仮想空間および小空間の構成>>
以上では、本開示の情報処理装置の構成について説明された。以下では、本開示の情報処理装置において表示される仮想空間および仮想空間内に配置され、後述するようにユーザ100の操作に用いられる小空間の構成について説明される。
図3は、仮想空間情報生成部108が生成する情報に基づく仮想空間200の構成を表す図である。仮想空間200には仮想オブジェクトが含まれ、例えば、ユーザ100の仮想オブジェクト202(以下、ユーザ仮想オブジェクトとも称する)と、ユーザ100とは異なる人の仮想オブジェクト204(以下、人仮想オブジェクトとも称する)、物の仮想オブジェクト206および208(以下、物仮想オブジェクトとも称する)が含まれる。ユーザ仮想オブジェクト202は、ユーザ100が操作する仮想オブジェクトである。この操作は、ユーザ情報検知部102が検知するユーザ100の動き等に基づいて行われる。
また、仮想空間200内には、小空間情報生成部110が生成する情報に基づく小空間300が配置される。小空間300は、例えば仮想空間200の構成を完全にコピーするように構成されてもよく、また仮想空間200の構成を一部だけコピーするように構成されてもよく、また仮想空間200の構成とは異なる構成を含むように構成されてもよい。それにより小空間300には、仮想空間200内の仮想オブジェクトに対応する擬似仮想オブジェクトが含まれてもよい。なお、図3において点線の円で囲まれた図は、仮想空間200内に配置される小空間300を拡大して示す図である。なお、擬似仮想オブジェクトは、第2の空間の一例である小空間300内に含まれる第2のオブジェクトの一例である。
図3では、仮想空間200の構成と小空間300の構成とが、完全に同一である例を示す。図3において小空間300内には、ユーザ仮想オブジェクト202に対応する擬似ユーザ仮想オブジェクト302と、人仮想オブジェクト204に対応する擬似人仮想オブジェクト304が含まれる。また、小空間300には、物仮想オブジェクト206および208のそれぞれに対応する擬似物仮想オブジェクト306および308が含まれる。
なお、図3において小空間300内の擬似仮想オブジェクトは、仮想空間200内の仮想オブジェクトと同様の位置関係で表示されている。しかし小空間300は、例えば擬似ユーザ仮想オブジェクト302のような特定の擬似仮想オブジェクトが小空間300の中心に表示されるように構成されてもよい。このように小空間300が構成されることで、ユーザ100はより直感的に仮想空間200内での特定の仮想オブジェクトに対する位置関係を認識することができる。
また、小空間300は、仮想空間200と縮尺(スケール)が異なるように構成されてもよい。つまり小空間300内のスケールは、仮想空間200内のスケールと等しくてもよく、また仮想空間200内のスケールより大きくても小さくてもよい。図3では、小空間300内のスケールが、仮想空間200内のスケールに比べて小さい例が示される。よって小空間300内の擬似仮想オブジェクトは、仮想空間200内の仮想オブジェクトに比べて小さく表示される。
なお、小空間300は、小空間300の境界を示すために小空間300の周囲に対して、小空間300を区別するための表示を行うように構成されてもよい。例えば、小空間300は、定期的に小空間300の周囲の全体または一部が変化するように構成されてもよい。また小空間300は、光る輪が定期的に小空間300の外枠のある編の端から端まで(例えば上端から下端、または左端から右端まで)移動することで示されてもよく、小空間300の全体が定期的に光ることで示されてもよい。また、小空間300の周囲は、テクスチャによる変化で示されてもよい。つまり小空間300は、半透明で表示されてもよく、ポリゴンで表示されてもよく、ワイヤーフレームで表示されてもよく、輝度を高くして表示されてもよい。
図3では、仮想空間200を俯瞰するように仮想空間200が表示される例が示された。しかし、仮想空間200は、ユーザ視点で表示されてもよい。図4は、ユーザ視点で表示される仮想空間200の例を示す図である。図4では、ユーザ仮想オブジェクト202の全体像が表示されず、ユーザ仮想オブジェクト202の腕の部分202aが表示される。しかしながらこのとき図4に示されるように、小空間300内には、仮想空間200内のユーザ仮想オブジェクト202に対応する擬似ユーザ仮想オブジェクト302の全体が表示されてもよい。なお、図4において点線の円で囲まれた図は、仮想空間200内に配置される小空間300を拡大して示す図である。
図5は、小空間300が表示される態様の他の例を示す図である。図3および図4では、小空間300は立方体であったが、図5に示されるように小空間300は円柱型の小空間300aでもよく、三角錐型の小空間300bであってもよい。つまり小空間300の形状は任意の形状であってもよい。また、図3から図5では、小空間300は3次元であったが、図6に示されるように小空間300は、小空間300が上面から投影された2次元の平面300cまたは小空間300が側面から投影された2次元の平面300dのように表現されてもよく、また1次元で表現されてもよい。
<<3.小空間を用いた操作方法>>
<3-1.仮想オブジェクトの移動>
以上では、本開示の情報処理装置において表示される仮想空間200および小空間300の構成について説明された。以下では、小空間300を用いてユーザ100が行う仮想空間200に対する操作の多様な例が説明される。以下で説明される操作方法は、例えば広大な仮想空間200を用いるゲームにおいて、ユーザ100が操作を行う場合に有用である。図7および図8は、ユーザ100が小空間300内の擬似仮想オブジェクトを小空間300内で移動させる操作を行うことにより、仮想空間200内の仮想オブジェクトを移動させる過程を示す図である。
ユーザ仮想オブジェクト202は、ユーザ100が現実空間において動くことによって、または任意の操作装置を操作することによって、仮想空間200内で移動させられる。図7に示されるように、ユーザ100の操作によって、ユーザ仮想オブジェクト202の腕が小空間300内に入ると、小空間300内に入ったユーザ仮想オブジェクト202の腕に対応する部分202aが、仮想空間200内の対応する位置に表示される。
図8によって示されるように、ユーザ100の操作によって小空間300内の擬似人仮想オブジェクト304が操作される。ここでユーザ100は、仮想ユーザオブジェクト202が、小空間300内の擬似人仮想オブジェクト304を掴み、擬似人仮想オブジェクト304を移動させるように操作を行う。そして擬似人仮想オブジェクト304が操作されると仮想空間200内のユーザ仮想オブジェクト202は、小空間300内で擬似人仮想オブジェクト304が移動することに対応して、図8で示されるように移動する。図8では、移動前のユーザ仮想オブジェクト202が2点鎖線で示され、移動後のユーザ仮想オブジェクト202が実線で示される。
このように小空間300を用いた操作方法によって、ユーザ100は、仮想空間200内でユーザ仮想オブジェクト202から遠くに存在する仮想オブジェクトを容易に操作することができる。なお、以上では小空間300内に入ったユーザ仮想オブジェクト202の腕に対応する部分202aが、仮想空間200内に表示される例が説明された。しかし、小空間300内に入ったユーザ仮想オブジェクト202の腕に対応する部分202aは、表示されなくてもよい。
<3-2.擬似仮想オブジェクトの小空間からの引き出し>
以上では、ユーザ100が擬似仮想オブジェクトを小空間300内で移動させる操作を行うことにより、仮想空間200内の仮想オブジェクトを移動させる操作方法が説明された。以下では、ユーザ100が小空間300内の擬似仮想オブジェクトを小空間300内から引き出す操作を行うことにより、仮想空間200内の仮想オブジェクトを移動させる操作方法が説明される。
図9に示されるように、ユーザ100の操作によって、小空間300内の擬似人仮想オブジェクト304が上方に移動させられると、仮想空間200内の人仮想オブジェクト204は、擬似人仮想オブジェクト304の移動に対応して仮想空間200内で上方に移動する。そして擬似人仮想オブジェクト304の一部が小空間300から引き出されると、小空間300から引き出された擬似人仮想オブジェクト304の一部(図9では上半身)は、仮想空間200のスケールに合わせて大きく表示される。また、このとき小空間300から引き出された擬似人仮想オブジェクト304の一部(図9では上半身)に対応する人仮想オブジェクト204の部分は、表示されない。
図10は、図9で示された状態の後に、ユーザ100の操作によって擬似人仮想オブジェクト304が小空間300から完全に引き出された状態を表す図である。図10で示されるように、小空間300から完全に引き出された擬似人仮想オブジェクト304は人仮想オブジェクト204に変換され、仮想空間200に配置される。このような操作方法によって、ユーザ100は、仮想空間200内でユーザ仮想オブジェクト202から遠くに存在する仮想オブジェクトを、容易にユーザ仮想オブジェクト202の周囲に移動させることができる。
<3-3.ユーザ仮想オブジェクトに対する操作>
以上では、ユーザ100が小空間300内の擬似仮想オブジェクトを小空間300内から引き出す操作を行うことにより、仮想空間200内の仮想オブジェクトを移動させる操作方法が説明された。以下では、ユーザ仮想オブジェクト202に対する操作方法について説明される。上述したように、仮想空間200内のユーザ仮想オブジェクト202は、ユーザ100を表す仮想オブジェクトであり、他の仮想オブジェクトと異なる性質を有してもよい。図11は、小空間300内で擬似ユーザ仮想オブジェクト302が移動されることにより、対応してユーザ仮想オブジェクト202が仮想空間200内で移動する操作方法を示す図である。
上述された操作方法と同様に、ユーザ100が小空間300内の擬似ユーザ仮想オブジェクト302を移動させると、対応して仮想空間200内のユーザ仮想オブジェクト202も移動する。しかしこのとき、小空間300がユーザ仮想オブジェクト202と共に移動しないと、ユーザ仮想オブジェクト202が移動することに伴い、ユーザ仮想オブジェクト202の手と小空間300との相対的な位置関係が変わってしまう。ユーザ仮想オブジェクト202の手と小空間300との相対的な位置関係が変わってしまうと、当然ながらユーザ100は小空間300を用いて操作ができなくなる。
この問題を解決するため、図11に示されるように、ユーザ仮想オブジェクト202が移動する場合は、小空間300もユーザ仮想オブジェクト202の移動に伴って、ユーザ仮想オブジェクト202と共に移動する。このような操作方法によって、ユーザ100は仮想空間200内の離れた場所に容易にユーザ仮想オブジェクト202を移動させることができる。また、ユーザ仮想オブジェクト202が移動する場合であっても、ユーザ100は継続して小空間300を用いた操作を行うことができる。なお、図11では、移動前のユーザ仮想オブジェクト202が2点鎖線で示され、移動後のユーザ仮想オブジェクト202が実線で示される。
また、上述した問題を解決するため、小空間300の擬似ユーザ仮想オブジェクト302に対する操作を即時に反映させず、ユーザ100が操作の確定処理を行ったときに操作が確定するように構成されてもよい。例えば、ユーザ100が擬似ユーザ仮想オブジェクト302を掴み、移動させた後に擬似ユーザ仮想オブジェクト302を離したことによって、操作が確定されてもよい。
<3-4.擬似ユーザ仮想オブジェクトの小空間からの引き出し>
以上では、擬似ユーザ仮想オブジェクト302が、小空間300内で移動される操作方法について説明された。以下では、図12を用いて擬似ユーザ仮想オブジェクト302が小空間300から引き出される操作方法について説明される。上述された操作方法と同様に、小空間300内の擬似ユーザ仮想オブジェクト302が上方に引き上げられると、対応して仮想空間200内のユーザ仮想オブジェクト202も上方に移動する。
そして、図12に示されるように擬似ユーザ仮想オブジェクト302が小空間300から完全に引き出されると、ユーザ100は、仮想空間200からログアウトする。例えば、仮想空間200がゲーム機器等によって表示されるゲームに関する仮想空間200である場合、ユーザ100が擬似ユーザ仮想オブジェクト302を小空間300から引き出す操作を行うことにより、ユーザ100は、仮想空間200からログアウトし、ゲームを終了する。なお、上述した例では、擬似ユーザ仮想オブジェクト302が小空間300から完全に引き出されることによって、ユーザ100は仮想空間200からログアウトされた。しかし、擬似ユーザ仮想オブジェクト302の一部が小空間300から引き出されることによって、ユーザ100は仮想空間200からログアウトされてもよい。このような操作方法により、ユーザ100はより容易に仮想空間200からログアウトできる。
<<4.仮想空間における小空間を用いた操作の処理例>>
以上では、仮想空間200における小空間300を用いた基本的な操作方法について説明された。以下では、図13を用いて、上述した仮想空間200における小空間300を用いた操作の処理例が説明される。
最初にS100において、ユーザ情報検知部102は、現実空間におけるユーザ100の動き、位置などのユーザ100に関する情報を取得する。次にS102において、仮想空間情報生成部108は、ユーザモデル生成部104、記憶部114および小空間情報生成部110からの情報に基づき仮想空間200に関する情報を生成する。また、小空間情報生成部110は、仮想空間情報生成部108および記憶部114からの情報に基づき、小空間300に関する情報を生成する。
次にS104において、操作情報処理部112は、ユーザ情報検知部102および仮想空間情報生成部108からの情報に基づいて、小空間300内の擬似仮想オブジェクトが操作されているか否かを判断する。S104において操作情報処理部112が擬似仮想オブジェクトが操作されていないと判断すると、処理はS116に進む。
そして、S116において映像信号生成部116は、仮想空間情報生成部108が生成した情報に基づいて映像信号を生成する。次にS118において映像表示部118は、映像信号生成部116が生成した映像信号に基づいて、仮想空間200の映像を表示する。
S104において、操作情報処理部112が擬似仮想オブジェクトが操作されていると判断すると、処理はS106に進む。S106において操作情報処理部112は、擬似仮想オブジェクトが操作されたことに基づく物理的な影響量を算出する。次にS108において操作情報処理部112は、操作対象物である擬似仮想オブジェクトの移動量および操作された擬似仮想オブジェクトに対応する仮想オブジェクトの移動量を算出する。
次にS110において操作情報処理部112は、操作対象物の移動先が小空間300の外であるか否か、および操作対象物が擬似ユーザ仮想オブジェクト302であるか否か、を判断する。S110において、操作情報処理部112が、操作対象物の移動先が小空間300の外であり、かつ操作対象物が擬似ユーザ仮想オブジェクト302であると判断すると、処理はS112に進む。そしてS112においてユーザ100は、仮想空間200からログアウトする。
S110において、操作情報処理部112が、操作対象物の移動先が小空間300の外ではない、または操作対象物が擬似ユーザ仮想オブジェクト302ではないと判断すると、処理はS114に進む。S114において操作情報処理部112は、S108で算出された移動量を仮想空間情報生成部108および小空間情報生成部110に送る。そして仮想空間情報生成部108および小空間情報生成部110は、受け取った移動量に基づいて操作対象物が移動された後の仮想空間200および小空間300に関する情報を生成する。そして処理はS116およびS118に進み、映像表示部118は、操作対象物が移動された後の仮想空間200を表示する。
<<5.小空間が用いられるその他の操作方法>>
以上では、仮想空間200における小空間300を用いた操作の処理例が説明された。以下では、小空間300が用いられるその他の操作方法について説明される。図14は、小空間300内の擬似仮想オブジェクトが、道具を用いて操作される例を示す図である。
上述したように小空間300には、仮想空間200内の仮想オブジェクトなどの構成が縮小された擬似仮想オブジェクトが含まれてもよい。この場合、小空間300内に含まれる擬似仮想オブジェクトの大きさが小さくなってしまい、ユーザ100が擬似仮想オブジェクトを操作することが困難になってしまうことが考えられる。
よってユーザ100は、図14で示されるようにピンセット210などの道具を用いて、小空間300内の擬似仮想オブジェクトを操作する。このように道具を用いて擬似仮想オブジェクトが操作されることによって、ユーザ100は、小さい擬似仮想オブジェクトをより正確に操作することができる。なお、道具は、仮想空間200内に表示されるツールバーを用いて選択されてもよい。また、ピンセット210は道具の一例であり、これに限られない。例えば、道具は長い針であってもよく、ユーザ100は、擬似仮想オブジェクトを針で刺すようにして操作してもよい。
また、ユーザ100は、小空間300内で領域を指定し、その領域に含まれる擬似仮想オブジェクトをまとめて操作してもよい。図15は、この操作方法を示した図であり、ユーザ100は、ユーザ仮想オブジェクト202を介して小空間300内で領域312を指定する。そして領域312が指定された後に、ユーザ100が領域312内に含まれる3つの擬似物仮想オブジェクト310のうちの1つを操作すると、3つの擬似物仮想オブジェクトが操作される。
このとき、領域312の指定は、ユーザ仮想オブジェクト202の指によって指定されてもよい。例えばユーザ仮想オブジェクト202の人差し指で領域312をなぞることにより領域312が指定されてもよい。また、上述した道具を用いて領域312が指定されてもよい。また、領域312が指定されることにより、操作対象となった擬似仮想オブジェクトは、操作対象となったことがユーザ100にわかるように、表示態様が変化してもよい。例えば、領域312が指定されることにより操作対象となった擬似仮想オブジェクトは、色が変化してもよい。
<<6.小空間内の擬似仮想オブジェクトの表示方法>>
以上では、多様な小空間300内の擬似仮想オブジェクトの操作方法が説明された。以下では、擬似仮想オブジェクトの他の表示方法について説明される。図16は、擬似物仮想オブジェクト314の後ろに、擬似ユーザ仮想オブジェクト302と擬似人仮想オブジェクト304とが配置される例を示す図である。このように擬似仮想オブジェクトの後ろに擬似仮想オブジェクトが配置される場合、ユーザ100は、擬似物仮想オブジェクト314の後ろに配置される擬似仮想オブジェクトの存在を認識できない。よって、図16で示されるように、擬似仮想オブジェクトの後ろに擬似仮想オブジェクトが配置され、後ろの擬似仮想オブジェクトが隠れてしまう場合、図16において楕円で示されるように、前方に表示される擬似仮想オブジェクトの一部が半透明で表示されてもよい。これによってユーザ100は、隠される擬似仮想オブジェクトの存在を認識することができる。
なお、隠される擬似仮想オブジェクトが重要な擬似仮想オブジェクトである場合に、上述したように擬似仮想オブジェクトの一部が半透明で表示されてもよい。例えば、隠される側の擬似仮想オブジェクトが、ユーザ100が操作可能な擬似仮想オブジェクトである場合に、隠す側の擬似仮想オブジェクトの一部が半透明で表示されてもよい。また、擬似ユーザ仮想オブジェクト302が隠される場合のみ、隠す側の擬似仮想オブジェクトの一部が半透明で表示されてもよい。
以上では、擬似仮想オブジェクトの一部が半透明で表示される例が説明された。以下では、操作不可能である仮想オブジェクトに対応する擬似仮想オブジェクトが、小空間300内に表示されない例が説明される。図17は、人仮想オブジェクト204および物仮想オブジェクト208が操作不可能であるため、小空間300内に対応する擬似仮想オブジェクトが表示されない例を示す図である。この場合、小空間300内には、擬似ユーザ仮想オブジェクト302と、擬似物仮想オブジェクト306が表示される。
このように操作不可能である仮想オブジェクトに対応する擬似仮想オブジェクトが小空間300内に表示されないので、ユーザ100は、操作可能である仮想オブジェクトを容易に認識することができる。なお、操作不可能である仮想オブジェクトに対応する擬似仮想オブジェクトは、図16に示されたように表示態様が変更されてもよい。つまり、操作可能な仮想オブジェクトが図16においてユーザ仮想オブジェクト302および人仮想オブジェクト304である場合、操作可能な仮想オブジェクトがユーザ100に認識されやすいように、他の操作不可能な仮想オブジェクト(図16では物仮想オブジェクト314)が透過して表示されてもよい。このとき、操作できない仮想オブジェクトに対応する擬似仮想オブジェクトは、ユーザ100が操作しようとしてもユーザ仮想オブジェクト202の腕がすり抜けるなどして、操作できないように構成されてもよい。
また、操作可能である擬似仮想オブジェクトが、他の多様な方法で示されてもよい。例えば、操作可能である擬似仮想オブジェクトは、定期的に擬似仮想オブジェクトの全体または一部が変化することによって示されてもよい。また操作可能である擬似仮想オブジェクトは、光る輪が定期的に擬似仮想オブジェクトの端から端まで移動することで示されてもよく、擬似仮想オブジェクトの全体が定期的に光ることで示されてもよい。また、操作可能である擬似仮想オブジェクトは、テクスチャによる変化で示されてもよい。つまり操作可能である擬似仮想オブジェクトは、半透明で表示されてもよく、ポリゴンで表示されてもよく、ワイヤーフレームで表示されてもよく、輝度を高くして表示されてもよい。
また、操作可能である擬似仮想オブジェクトは、擬似仮想オブジェクトの大きさが変化することによって示されてもよい。つまり操作可能である擬似仮想オブジェクトは、擬似仮想オブジェクトが大きくなったり小さくなったりすることで示されてもよい。また操作可能である擬似仮想オブジェクトは、擬似仮想オブジェクトの周辺が変化することで示されてもよい。つまり操作可能である擬似仮想オブジェクトは、擬似仮想オブジェクトの周囲にもやがかかったような表現を施されることによって示されてもよい。
<<7.小空間に対する操作方法>>
<7-1.小空間の大きさを変更する操作方法>
以上では、多様な小空間300内の擬似仮想オブジェクトの表示方法について説明された。以下では、小空間300に対する操作方法について説明される。図18および図19は、ユーザ100が、ユーザ仮想オブジェクト202を介して小空間300の大きさを変更する操作を行う操作方法の例を示す図である。
最初に図18に示すように、ユーザ仮想オブジェクト202は小空間300の一端に触れる、または小空間300の一端を持つ。次に図19に示すように、ユーザ仮想オブジェクト202が小空間300の一端を引き上げる動作を行うことによって、小空間300の大きさを大きくすることができる。このとき小空間300は大きさが大きくなり、さらに小空間300の大きさの変更に対応して小空間300内のスケールも変更されてもよい。
つまり、図19で示される小空間300内の擬似ユーザ仮想オブジェクト302および擬似人仮想オブジェクト304は、図18で示される小空間300内の擬似ユーザ仮想オブジェクト302および擬似人仮想オブジェクト304よりも大きくなっている。理解されるように、同様の操作方法で、ユーザ100は小空間300を小さくしてもよい。このような操作方法によって、ユーザ100は、仮想空間200内の構成に応じたスケールで小空間300を表示させることができる。例えば、仮想空間200内に多くの仮想オブジェクトが存在する場合、小空間300を大きくすることによって、小空間300内の擬似仮想オブジェクトを操作しやすくできる。
また上述した例では、小空間300の大きさの変更に伴って、小空間300内のスケールが変更された。しかし、小空間300の大きさが変更された場合であっても、小空間300内のスケールは変更されなくてもよい。例えば、小空間300の大きさが大きくなった場合、小空間300内のスケールは変更されず、小空間300内で表示される範囲が広くなってもよい。このような操作方法によって、ユーザ100は、より広い範囲の仮想空間200内の構成を把握することができる。
また、図20に示すように、小空間300の大きさが変更されることによって、小空間300内のスケールが仮想空間200内のスケールよりも大きくなってもよい。つまり、図20に示されるように、小空間300内の擬似ユーザ仮想オブジェクト302が、仮想空間200内のユーザ仮想オブジェクト202よりも大きく表示されてもよい。このような操作方法によって、ユーザ100は、仮想オブジェクトの一部をより詳細に操作することができる。例えば図20の例では、ユーザ100は、ユーザ仮想オブジェクト202の一部、例えば服などをより細かく、より正確に操作することができる。
<7-2.小空間内のスケールを変更する操作および小空間内のスクロール操作>
以上では、小空間300の大きさを変更する操作方法について説明された。以下では、小空間300内のスケールを変更する操作および小空間内のスクロール操作について説明される。図21に示されるように、小空間300内の地面または壁などの所定の領域において、ユーザ100がユーザ仮想オブジェクト202を介して矢印400で示されるようなピンチアウトのような動作を行うことにより、小空間300内のスケールを拡大させてもよい。また小空間300内の地面または壁などの所定の領域において、ユーザ100がユーザ仮想オブジェクト202を介して矢印402で示されるようなスクロールのような動作を行うことにより、小空間300内の表示領域を変更させてもよい。
図22は、図21の矢印400で示されるピンチアウトのような操作によって、小空間300内のスケールが大きくされた後の小空間300の状態を表す図である。図22からわかるように、図22の小空間300内のスケールは図21の小空間300内のスケールよりも大きくなるので、図22の擬似ユーザ仮想オブジェクト302および擬似人仮想オブジェクト304は、図21の小空間300内の擬似ユーザ仮想オブジェクト302および擬似人仮想オブジェクト304よりも大きく表示される。
図23は、図21の矢印402で示されるスクロールのような操作によって、小空間300内の表示領域が変更された後の小空間300の状態を表す図である。図23からわかるように、スクロールの操作によって、図21では小空間300の左端に存在した擬似ユーザ仮想オブジェクト302および擬似人仮想オブジェクト304が、図23では小空間300の右端に位置している。なお、このような操作の場合、小空間300内の表示態様は変更されるものの、小空間300の仮想空間200内における大きさは変更されない。このような操作方法によってユーザ100は、簡易な操作方法で小空間300内のスケールを変更でき、また小空間300の表示領域を変更することができる。
<<8.異なる態様の仮想空間に移行するための小空間を用いた操作方法>>
以上では、小空間300に対する操作方法について説明された。以下では、小空間300を用いた異なる態様の仮想空間200に移行するための操作方法について説明される。図24は、小空間300内の構成が異なる2つの小空間300e、300fが仮想空間200内に配置されている例を示す図である。
第1の小空間300eは、現在の仮想空間200内の構成をコピーした小空間300であり、仮想空間200内のユーザ仮想オブジェクト202に対応する擬似ユーザ仮想オブジェクト302を含む。第2の小空間300fは、現在の仮想空間200内の構成とは異なる構成を含む小空間300であり、例えば記憶部114に記憶された情報に基づいている。第2の小空間300fは、擬似人仮想オブジェクト304および擬似物仮想オブジェクト308などの、現在の仮想空間200内には含まれない仮想オブジェクトに対応する擬似仮想オブジェクトを含む。
そして図25に示すようにユーザ100は、第1の小空間300eを第2の小空間300fに接触させる操作を行うことにより、第2の小空間300fの状態に仮想空間200を遷移させることができる。このような操作方法により、ユーザ100は、記憶部114に記憶されている任意の構成を含む小空間300の構成を含むように仮想空間200を遷移させることができる。
なお、第2の小空間300fに関する記憶部114に記憶されている情報は、予めユーザ100によって作成された情報であってもよい。例えば、ユーザ100は、ユーザ100の操作によって任意の擬似仮想オブジェクトを含む第2の小空間300fの情報を作成してもよい。また、第2の小空間300fに関する記憶部114に記憶されている情報は、過去の仮想空間200の状態に関する情報であってもよい。この場合、ユーザ100が上述した操作を行うことにより、過去の仮想空間200の状態が記憶部114から読み出され、仮想空間200は過去の状態に遷移する。
過去の時点の選択方法に関して、ユーザ100が仮想空間200内に表示される時系列を表すバーを用いて選択してもよい。また、ユーザ100は第2の小空間300fを回転させるなどして過去の時点を選択してもよい。このとき第2の小空間300fでは、第2の小空間300fが回転させられることに応じて、過去の仮想空間200の状態が再生されてもよい。例えば、第2の小空間300fが1回転することにより、1時間前の仮想空間200の状態が第2の小空間300fにおいて再現されてもよく、同様に第2の小空間300fが2回転することにより、2時間前の仮想空間200の状態が第2の小空間300fにおいて再現されてもよい。
また、仮想空間200の状態は連続的に記憶されてもよく、定期的に記憶されてもよく、ユーザ100による所定の操作に基づいて記憶されてもよく、または仮想空間200内の特定のイベントに基づいて記憶されてもよい。ここで特定のイベントとは、例えば仮想空間200内でユーザ仮想オブジェクト202が特定の場所に入った場合、または仮想空間200内でユーザ仮想オブジェクト202が特定の仮想オブジェクトに触れた場合などである。
<<9.複数の階層を有する仮想空間内での小空間を用いた操作方法>>
以上では、異なる態様の仮想空間200に移行するための小空間300を用いた操作方法が説明された。以下では、複数の階層を有する仮想空間200内での小空間300を用いた操作方法が説明される。
仮想空間200は複数の階層を有してもよく、ユーザ100は、図26に示されるように、ユーザ仮想オブジェクト202が小空間300に入り込むような操作を行ってもよい。ユーザ100がこのような操作を行うことにより、仮想空間200は、異なる階層の仮想空間200に遷移してもよい。
図27は、第3の階層の仮想空間200にユーザ仮想オブジェクト202が存在する場合の例を示す図である。仮想空間200内にユーザ100が没入すると、仮想空間200の階層を認識することは困難である。よって、図27に示すように、現在の仮想空間200の階層を示す階層表示212が、仮想空間200内に表示されてもよい。また、仮想空間200の階層に応じて、表示される小空間300の表示態様が変更されてもよい。例えば第1の階層であれば小空間300は立方体で表示され、第2の階層であれば小空間300は三角錐で表示され、第3の階層であれば小空間300は円柱で表示されてもよい。このような構成により、ユーザ100は、現在の仮想空間200がどの階層であるかを、容易に認識することができる。
<<10.小空間を削除および表示するための操作方法>>
以上では、複数の階層を有する仮想空間200内での小空間300を用いた操作方法が説明された。以下では、小空間300を削除するための操作方法および表示するための操作方法について説明される。
上述したように、小空間300を用いた操作方法は仮想空間200内における仮想オブジェクトを操作するために有用である。しかしながら、小空間300が邪魔になる場合があるため、小空間300は一時的に仮想空間200から消されてもよい。例えば図28で示されるように、小空間300が、ユーザ仮想オブジェクト202の手のひらの上に置かれ、ユーザ100がユーザ仮想オブジェクト202のもう一方の腕で払いのける操作を行うことによって、小空間300は消されてもよい。また小空間300は、ユーザ仮想オブジェクト202の手のひらの上に置かれた状態から、ユーザ100が手のひらを下に向ける操作を行うことによって、小空間300は消されてもよい。また、小空間300は、ユーザ100がユーザ仮想オブジェクト202の足で小空間300を踏みつける操作を行うことによって、小空間300は消されてもよい。
なお、消された小空間300は、ユーザ100の操作によって再度表示されてもよく、そのための操作方法は多様にある。例えば、ユーザ100が、ユーザ仮想オブジェクト202の手のひらを上に向ける操作を行うことにより、小空間300は表示されてもよい。
また、図29および図30で示されるように、ユーザ100が、ユーザ仮想オブジェクト202の手を合わせ、その後にユーザ仮想オブジェクト202の手を開く操作を行うことにより、小空間300は表示されてもよい。
このような構成により、小空間300が仮想空間200内で邪魔になる場合に、ユーザ100は容易に小空間300を消すことができる。また、ユーザ100が小空間300を消した後に小空間300を用いて操作を行うときに、ユーザ100は容易に小空間300を表示させることができる。
<<11.拡張現実空間(AR空間)への適用例>>
以上では、仮想空間200における小空間300が用いられる操作方法について説明された。以下では、上述した小空間300が用いられる操作方法がAR空間に適用される例について説明される。
AR空間は、透過型ディスプレイ等を通して現実環境に情報が付加された仮想空間または現実環境に情報が削除された仮想空間である。例えば、撮像装置等を介して取得される現実空間の部屋の画像に対して現実空間には無い家具等が付加されたAR空間が、ディスプレイを介してユーザ100に提示されてもよい。
本開示の小空間300を用いた操作方法がAR空間での操作方法に適用されることによって、ユーザ100はAR空間内の仮想オブジェクトを容易に操作することができる。またさらにユーザ100は、AR空間内の小空間300を用いてAR空間内の仮想オブジェクトに対する操作を行うことにより、AR空間内の仮想オブジェクトに対応する現実空間のオブジェクトに対して操作を行うことができる。
例えば、現実空間に照明器具があり、AR空間に当該照明器具に対応する仮想オブジェクトがある場合、ユーザ100は、小空間300内の照明器具に対応する擬似仮想オブジェクトを操作することによって、現実空間の照明器具を操作してもよい。例えば、ユーザ100が小空間300内の照明器具に対応する擬似仮想オブジェクトに対してスイッチをオンにする操作を行った場合、現実空間の照明器具のスイッチがオンになってもよい。このような操作によって、ユーザ100は、現実空間でユーザ100から離れた位置にあるオブジェクトを容易に操作することができる。
また、理解されるように、現実空間には存在しないがAR空間に付加された情報に対して、ユーザ100は小空間300を用いて操作ができてもよい。例えば現実空間にはソファーが存在せず、AR空間にソファーが付加されてAR空間が表示される場合、ユーザ100は小空間300を用いて付加されたソファーを操作してもよい。このような操作によってユーザ100は、AR空間において現実空間には無いオブジェクトを容易に操作できる。
<<12.補足>>
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属する。
例えば、上述した図24の例では、異なる構成を有する複数の小空間300が仮想空間200内に配置される例が説明された。しかし、同一の構成を有する複数の小空間300が仮想空間200内に配置されてもよい。例えばユーザ100は、1つの小空間300を回転させ、他の小空間300と異なる角度から現在の仮想空間200の構成を把握してもよい。この構成によってユーザ100は、違う角度から同時に現在の仮想空間200の状態を把握することができる。また、ユーザ100は複数の小空間300を接触させ、接触させた面を介して擬似仮想オブジェクトを他の小空間300内に移動させてもよい。このような操作により、ユーザ100は容易に擬似仮想オブジェクトを小空間300の端から端に移動させることができる。
また、上述した図9の例では、小空間300から擬似仮想オブジェクトを引き出す操作方法について説明された。しかし、逆に仮想空間200内の仮想オブジェクトを小空間300内に入れる操作が行われてもよい。この操作方法によって、ユーザ100は、手元にある仮想オブジェクトを容易に仮想空間200内の遠くの場所に配置することができる。
また、図27および28において、仮想空間200が複数の階層を有する例が説明された。このとき、仮想空間200の階層表示を仮想空間200内に表示することによって、ユーザ100に仮想空間200の階層を提示する例が示された。しかし、仮想空間200への過度の没入を防ぐため、所定の階層以上への再没入が禁止されてもよい。
また、仮想空間情報生成部108、小空間情報生成部110および操作情報処理部112を上述したように動作させるためのコンピュータプログラムが提供されてもよい。また、このようなプログラムが記憶された記憶媒体が提供されてもよい。
<<13.むすび>>
以上説明したように、本開示の情報処理装置では、ユーザ100は、擬似仮想オブジェクトを含む小空間300を用いて仮想空間200内の仮想オブジェクトを容易に操作することができる。これによってユーザ100は、仮想空間200内の仮想オブジェクトを容易に遠くに配置したり、ユーザ仮想オブジェクト202の手元に配置したりできる。またユーザ100は、小空間300内の擬似ユーザ仮想オブジェクト302を操作することによって、仮想空間200内のユーザ仮想オブジェクト202を操作することができる。これによってユーザ100は、仮想空間200内でユーザ仮想オブジェクト202を遠くに移動させることができ、またユーザ100を仮想空間200からログアウトさせることができる。
また、本開示の実施形態に係る情報処理装置では、操作できない仮想オブジェクトに対応する擬似仮想オブジェクトは、態様を変えて表示されてもよい。また操作できない仮想オブジェクトに対応する擬似仮想オブジェクトは、表示されなくてもよい。このような構成により、ユーザ100は、仮想空間200内で操作できる仮想オブジェクトを容易に認識することができる。
また、本開示の実施形態に係る情報処理装置では、道具を用いて小空間300内の擬似仮想オブジェクトが操作されてもよい。このような構成によって、ユーザ100は、小空間300内の小さい擬似仮想オブジェクトを容易に操作することができる。
また、本明細書に記載された効果は、あくまで例示であって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
第1のオブジェクトを含む第1の空間に関する情報を生成する第1の空間情報生成部と、
前記第1の空間よりも小さく、前記第1の空間内の前記第1のオブジェクトを含む第2の空間を前記第1の空間内に配置するように前記第2の空間に関する情報を生成する第2の空間情報生成部と、
前記第2の空間に対するユーザの操作に基づいて、前記第1の空間に対する操作情報を処理する操作情報処理部と、を備える、情報処理装置。
(2)
前記第1の空間は、仮想空間である、前記(1)に記載の情報処理装置。
(3)
前記第1の空間情報生成部は、第1のオブジェクトを前記第1の空間内に含むように前記第1の空間に関する情報を生成し、
前記第2の空間情報生成部は、前記第1の空間内の前記第1のオブジェクトに対応する、第2のオブジェクトを前記第2の空間内に含むように、前記第2の空間に関する情報を生成する、前記(2)に記載の情報処理装置。
(4)
前記ユーザの前記操作による前記第2のオブジェクトの動きに対応して、前記第1のオブジェクトは動く、前記(3)に記載の情報処理装置。
(5)
前記第2の空間に対する前記ユーザの操作は、前記第2の空間内の前記第2のオブジェクトを前記第2の空間の外に移動させることを含む、前記(3)または前記(4)に記載の情報処理装置。
(6)
前記第2の空間に対する前記ユーザの操作は、前記第1の空間内の前記第1のオブジェクトを前記第2の空間内に移動させることを含む、前記(3)から前記(5)のいずれか1項に記載の情報処理装置。
(7)
前記第2の空間に対する前記ユーザの操作は、前記第2の空間内の前記ユーザの前記第2のオブジェクトを操作することを含む、前記(3)から前記(6)のいずれか1項に記載の情報処理装置。
(8)
前記第2の空間に対する前記ユーザの操作は、前記第2の空間内の前記ユーザの前記第2のオブジェクトを前記第2の空間外に移動させることを含み、
前記第2の空間内の前記ユーザの前記第2のオブジェクトが前記第2の空間外に移動させられると、前記仮想空間からログアウトする、前記(3)に記載の情報処理装置。
(9)
前記第2の空間情報生成部は、前記ユーザの前記操作に応じて前記第2の空間の大きさを変更するように、前記第2の空間に関する情報を生成する、前記(2)から前記(8)のいずれか1項に記載の情報処理装置。
(10)
前記第2の空間情報生成部は、前記ユーザの前記操作に応じて前記第2の空間内の縮尺を変更するように、前記第2の空間に関する情報を生成する、前記(2)から前記(9)のいずれか1項に記載の情報処理装置。
(11)
前記第2の空間情報生成部は、複数の前記第2の空間を前記第1の空間内に配置するように、前記第2の空間に関する情報を生成する、前記(2)から前記(10)のいずれか1項に記載の情報処理装置。
(12)
前記第1の空間の状態を記憶する記憶部をさらに備え、
前記第2の空間情報生成部は、前記記憶部に記憶された前記第1の空間の状態が再現された前記第2の空間に関する情報を生成する、前記(2)から前記(11)のいずれか1項に記載の情報処理装置。
(13)
前記記憶部に記憶された前記第1の空間の状態が再現された前記第2の空間に対して前記ユーザが特定の操作を行うことに基づき、前記第1の空間情報生成部は、前記記憶部に記憶された前記第1の空間の状態が再現された前記第1の空間に関する情報を生成する、前記(12)に記載の情報処理装置。
(14)
複数の前記第2の空間が前記第1の空間内に配置され、
前記記憶部に記憶された前記第1の空間の状態が再現された前記第2の空間に対する前記ユーザの前記特定の操作は、前記ユーザが前記複数の第2の空間のうちの一方を前記複数の第2の空間のうちの他方に接触させることである、前記(13)に記載の情報処理装置。
(15)
前記第2の空間情報生成部は、前記第2の空間または前記第2の空間の周囲に対して、前記第1の空間と前記第2の空間を区別するための表示を行うように、前記第2の空間に関する情報を生成する、前記(2)から前記(14)のいずれか1項に記載の情報処理装置。
(16)
前記第2の空間情報生成部は、前記第2の空間内にある前記第2のオブジェクトの一部を前記第2のオブジェクトのうちの他のオブジェクトと表示態様を変更して表示するように、前記第2の空間に関する情報を生成する、前記(3)から前記(15)のいずれか1項に記載の情報処理装置。
(17)
前記第2の空間情報生成部は、前記ユーザが操作可能でない前記第1の空間内にある前記第1のオブジェクトを前記第2の空間に表示しないように、前記第2の空間に関する情報を生成する、前記(16)に記載の情報処理装置。
(18)
前記第2の空間に対する前記ユーザの前記操作は、特定の道具を用いて行われる、前記(2)から前記(17)のいずれか1項に記載の情報処理装置。
(19)
第1の空間情報生成部が、第1の空間に関する情報を生成することと、
第2の空間情報生成部が、前記第1の空間よりも小さい第2の空間を前記第1の空間内に配置するように前記第2の空間に関する情報を生成することと、
操作情報処理部が、前記第2の空間に対してユーザが操作を行うことにより、前記第1の空間に対する操作情報を処理することと、を含み、
前記第2の空間は前記第1の空間内に配置される、方法。
(20)
第1の空間情報生成部に第1の空間に関する情報を生成させ、
第2の空間情報生成部に前記第1の空間よりも小さい第2の空間を前記第1の空間内に配置するように前記第2の空間に関する情報を生成させ、
操作情報処理部に前記第2の空間に対するユーザの操作に基づいて、前記第1の空間に対する操作情報を処理させる、コンピュータプログラム。
100 ユーザ
102 ユーザ情報検知部
104 ユーザモデル生成部
106 ユーザ視点検知部
108 仮想空間情報生成部
110 小空間情報生成部
112 操作情報処理部
114 記憶部
116 映像信号生成部
118 映像表示部
200 仮想空間
202 ユーザ仮想オブジェクト
204 人仮想オブジェクト
206、208 物仮想オブジェクト
300 小空間
302 擬似ユーザ仮想オブジェクト
304 擬似人仮想オブジェクト
306、308 擬似物仮想オブジェクト

Claims (9)

  1. 第1の空間に関する情報を生成する第1の空間情報生成部と、
    前記第1の空間よりも小さい第2の空間を前記第1の空間内に配置するように前記第2の空間に関する情報を生成する第2の空間情報生成部と、
    前記第2の空間に対するユーザの操作に基づいて、前記第1の空間に対する操作情報を処理する操作情報処理部と、
    を備え、
    前記第1の空間情報生成部は、第1のオブジェクトを前記第1の空間内に含むように前記第1の空間に関する情報を生成し、
    前記第2の空間情報生成部は、前記第1の空間内の前記第1のオブジェクトに対応する第2のオブジェクトを前記第2の空間内に含むように、前記第2の空間に関する情報を生成し、
    前記第2の空間に対する前記ユーザの操作は、前記第2の空間内の前記ユーザの前記第2のオブジェクトを前記第2の空間外に移動させることを含み、
    前記第2の空間内の前記ユーザの前記第2のオブジェクトが前記第2の空間外に移動させられると、前記第1の空間からログアウトする、
    情報処理装置。
  2. 第1の空間に関する情報を生成する第1の空間情報生成部と、
    前記第1の空間よりも小さい第2の空間を前記第1の空間内に配置するように前記第2の空間に関する情報を生成する第2の空間情報生成部と、
    前記第2の空間に対するユーザの操作に基づいて、前記第1の空間に対する操作情報を処理する操作情報処理部と、
    前記第1の空間の状態を記憶する記憶部と、
    を備え、
    前記第2の空間情報生成部は、前記記憶部に記憶された前記第1の空間の状態が再現された前記第2の空間に関する情報を生成し、
    前記記憶部に記憶された前記第1の空間の状態が再現された前記第2の空間に対して前記ユーザが特定の操作を行うことに基づき、前記第1の空間情報生成部は、前記記憶部に記憶された前記第1の空間の状態が再現された前記第1の空間に関する情報を生成し、
    複数の前記第2の空間が前記第1の空間内に配置され、
    前記記憶部に記憶された前記第1の空間の状態が再現された前記第2の空間に対する前記ユーザの前記特定の操作は、前記ユーザが前記複数の第2の空間のうちの一方を前記複数の第2の空間のうちの他方に接触させることである、
    情報処理装置。
  3. 第1の空間に関する情報を生成する第1の空間情報生成部と、
    前記第1の空間よりも小さい第2の空間を前記第1の空間内に配置するように前記第2の空間に関する情報を生成する第2の空間情報生成部と、
    前記第2の空間に対するユーザの操作に基づいて、前記第1の空間に対する操作情報を処理する操作情報処理部と、
    を備え、
    前記第1の空間情報生成部は、第1のオブジェクトを前記第1の空間内に含むように前記第1の空間に関する情報を生成し、
    前記第2の空間情報生成部は、前記第1の空間内の前記第1のオブジェクトに対応する第2のオブジェクトを前記第2の空間内に含み、かつ、前記ユーザが操作可能でない前記第1の空間内にある前記第1のオブジェクトに対応する第2のオブジェクトを前記第2の空間に表示しないように、前記第2の空間に関する情報を生成する、
    情報処理装置。
  4. 第1の空間情報生成部が、第1の空間に関する情報を生成することと、
    第2の空間情報生成部が、前記第1の空間よりも小さい第2の空間を前記第1の空間内に配置するように前記第2の空間に関する情報を生成することと、
    操作情報処理部が、前記第2の空間に対してユーザが操作を行うことにより、前記第1の空間に対する操作情報を処理することと、
    を含み、
    前記第1の空間情報生成部は、第1のオブジェクトを前記第1の空間内に含むように前記第1の空間に関する情報を生成し、
    前記第2の空間情報生成部は、前記第1の空間内の前記第1のオブジェクトに対応する第2のオブジェクトを前記第2の空間内に含むように、前記第2の空間に関する情報を生成し、
    前記第2の空間に対する前記ユーザの操作は、前記第2の空間内の前記ユーザの前記第2のオブジェクトを前記第2の空間外に移動させることを含み、
    前記第2の空間内の前記ユーザの前記第2のオブジェクトが前記第2の空間外に移動させられると、前記第1の空間からログアウトする、
    方法。
  5. 第1の空間情報生成部が、第1の空間に関する情報を生成することと、
    第2の空間情報生成部が、前記第1の空間よりも小さい第2の空間を前記第1の空間内に配置するように前記第2の空間に関する情報を生成することと、
    操作情報処理部が、前記第2の空間に対してユーザが操作を行うことにより、前記第1の空間に対する操作情報を処理することと、
    記憶部が、前記第1の空間の状態を記憶することと、
    を含み、
    前記第2の空間情報生成部は、前記記憶部に記憶された前記第1の空間の状態が再現された前記第2の空間に関する情報を生成し、
    前記記憶部に記憶された前記第1の空間の状態が再現された前記第2の空間に対して前記ユーザが特定の操作を行うことに基づき、前記第1の空間情報生成部は、前記記憶部に記憶された前記第1の空間の状態が再現された前記第1の空間に関する情報を生成し、
    複数の前記第2の空間が前記第1の空間内に配置され、
    前記記憶部に記憶された前記第1の空間の状態が再現された前記第2の空間に対する前記ユーザの前記特定の操作は、前記ユーザが前記複数の第2の空間のうちの一方を前記複数の第2の空間のうちの他方に接触させることである、
    方法。
  6. 第1の空間情報生成部が、第1の空間に関する情報を生成することと、
    第2の空間情報生成部が、前記第1の空間よりも小さい第2の空間を前記第1の空間内に配置するように前記第2の空間に関する情報を生成することと、
    操作情報処理部が、前記第2の空間に対してユーザが操作を行うことにより、前記第1の空間に対する操作情報を処理することと、
    を含み、
    前記第1の空間情報生成部は、第1のオブジェクトを前記第1の空間内に含むように前記第1の空間に関する情報を生成し、
    前記第2の空間情報生成部は、前記第1の空間内の前記第1のオブジェクトに対応する第2のオブジェクトを前記第2の空間内に含み、かつ、前記ユーザが操作可能でない前記第1の空間内にある前記第1のオブジェクトに対応する第2のオブジェクトを前記第2の空間に表示しないように、前記第2の空間に関する情報を生成する、
    方法。
  7. 第1の空間情報生成部に第1の空間に関する情報を生成させ、
    第2の空間情報生成部に前記第1の空間よりも小さい第2の空間を前記第1の空間内に配置するように前記第2の空間に関する情報を生成させ、
    操作情報処理部に前記第2の空間に対するユーザの操作に基づいて、前記第1の空間に対する操作情報を処理させ、
    前記第1の空間情報生成部に、第1のオブジェクトを前記第1の空間内に含むように前記第1の空間に関する情報を生成させ、
    前記第2の空間情報生成部に、前記第1の空間内の前記第1のオブジェクトに対応する第2のオブジェクトを前記第2の空間内に含むように、前記第2の空間に関する情報を生成させ、
    前記第2の空間に対する前記ユーザの操作は、前記第2の空間内の前記ユーザの前記第2のオブジェクトを前記第2の空間外に移動させることを含み、
    前記第2の空間内の前記ユーザの前記第2のオブジェクトが前記第2の空間外に移動させられると、前記第1の空間からログアウトさせる、
    コンピュータプログラム。
  8. 第1の空間情報生成部に第1の空間に関する情報を生成させ、
    第2の空間情報生成部に前記第1の空間よりも小さい第2の空間を前記第1の空間内に配置するように前記第2の空間に関する情報を生成させ、
    操作情報処理部に前記第2の空間に対するユーザの操作に基づいて、前記第1の空間に対する操作情報を処理させ、
    記憶部に前記第1の空間の状態を記憶させ、
    前記第2の空間情報生成部に、前記記憶部に記憶された前記第1の空間の状態が再現された前記第2の空間に関する情報を生成させ、
    前記記憶部に記憶された前記第1の空間の状態が再現された前記第2の空間に対して前記ユーザが特定の操作を行うことに基づき、前記第1の空間情報生成部に、前記記憶部に記憶された前記第1の空間の状態が再現された前記第1の空間に関する情報を生成させ、
    複数の前記第2の空間が前記第1の空間内に配置され、
    前記記憶部に記憶された前記第1の空間の状態が再現された前記第2の空間に対する前記ユーザの前記特定の操作は、前記ユーザが前記複数の第2の空間のうちの一方を前記複数の第2の空間のうちの他方に接触させることである、
    コンピュータプログラム。
  9. 第1の空間情報生成部に第1の空間に関する情報を生成させ、
    第2の空間情報生成部に前記第1の空間よりも小さい第2の空間を前記第1の空間内に配置するように前記第2の空間に関する情報を生成させ、
    操作情報処理部に前記第2の空間に対するユーザの操作に基づいて、前記第1の空間に対する操作情報を処理させ、
    前記第1の空間情報生成部に、第1のオブジェクトを前記第1の空間内に含むように前記第1の空間に関する情報を生成させ、
    前記第2の空間情報生成部に、前記第1の空間内の前記第1のオブジェクトに対応する第2のオブジェクトを前記第2の空間内に含み、かつ、前記ユーザが操作可能でない前記第1の空間内にある前記第1のオブジェクトに対応する第2のオブジェクトを前記第2の空間に表示しないように、前記第2の空間に関する情報を生成させる、
    コンピュータプログラム。
JP2018531763A 2016-08-05 2017-06-14 情報処理装置、方法、および、コンピュータプログラム Active JP7010223B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016154517 2016-08-05
JP2016154517 2016-08-05
PCT/JP2017/021969 WO2018025511A1 (ja) 2016-08-05 2017-06-14 情報処理装置、方法、および、コンピュータプログラム

Publications (2)

Publication Number Publication Date
JPWO2018025511A1 JPWO2018025511A1 (ja) 2019-05-30
JP7010223B2 true JP7010223B2 (ja) 2022-01-26

Family

ID=61072907

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018531763A Active JP7010223B2 (ja) 2016-08-05 2017-06-14 情報処理装置、方法、および、コンピュータプログラム

Country Status (5)

Country Link
US (1) US10867454B2 (ja)
EP (1) EP3496045A4 (ja)
JP (1) JP7010223B2 (ja)
CN (1) CN109564703B (ja)
WO (1) WO2018025511A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11144114B2 (en) * 2017-05-11 2021-10-12 Sony Corporation Information processing apparatus and information processing method
EP3598284A1 (en) * 2018-07-18 2020-01-22 Hololab Sp. z o.o. A method and a system for generating a multidimensional graphical user interface
JP7194752B2 (ja) 2018-12-13 2022-12-22 マクセル株式会社 表示端末、表示制御システムおよび表示制御方法
US20240005619A1 (en) * 2020-11-30 2024-01-04 Maxell, Ltd. Augmented reality processing system, information display device, and augmented reality processing method
US11362848B1 (en) * 2021-03-30 2022-06-14 Snap Inc. Administrator-based navigating of participants between rooms within a virtual conferencing system
WO2023007927A1 (ja) * 2021-07-26 2023-02-02 株式会社Nttドコモ 仮想空間提供装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001300131A (ja) 2000-04-26 2001-10-30 Namco Ltd ゲームシステム及び情報記憶媒体
JP2012138087A (ja) 2010-12-24 2012-07-19 Dassault Systemes オーサリングシステムによる再生可能なシーンの生成

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090106671A1 (en) * 2007-10-22 2009-04-23 Olson Donald E Digital multimedia sharing in virtual worlds
JP5573238B2 (ja) 2010-03-04 2014-08-20 ソニー株式会社 情報処理装置、情報処理法方法およびプログラム
CN102859470B (zh) * 2011-03-15 2015-12-02 松下电器(美国)知识产权公司 对象控制装置、对象控制方法以及集成电路
JP2012216073A (ja) * 2011-03-31 2012-11-08 Konami Digital Entertainment Co Ltd 画像処理装置、画像処理装置の制御方法、及びプログラム
US8933970B2 (en) * 2012-09-11 2015-01-13 Longsand Limited Controlling an augmented reality object
US9766713B2 (en) * 2015-09-08 2017-09-19 Unity IPR ApS System and method for providing user interface tools
US10620779B2 (en) * 2017-04-24 2020-04-14 Microsoft Technology Licensing, Llc Navigating a holographic image
US20190188918A1 (en) * 2017-12-14 2019-06-20 Tsunami VR, Inc. Systems and methods for user selection of virtual content for presentation to another user
US10438414B2 (en) * 2018-01-26 2019-10-08 Microsoft Technology Licensing, Llc Authoring and presenting 3D presentations in augmented reality

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001300131A (ja) 2000-04-26 2001-10-30 Namco Ltd ゲームシステム及び情報記憶媒体
JP2012138087A (ja) 2010-12-24 2012-07-19 Dassault Systemes オーサリングシステムによる再生可能なシーンの生成

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Richad Stoakley,外2名,"Virtual Reality on a WIM: Interactive Worlds in Miniature",CHI '95 Proceedings of the SIGCHI Conference on Human Factors in Computing Systems,ACM,1995年,p.265-272

Also Published As

Publication number Publication date
EP3496045A4 (en) 2019-07-31
WO2018025511A1 (ja) 2018-02-08
CN109564703B (zh) 2023-06-23
US20190236849A1 (en) 2019-08-01
JPWO2018025511A1 (ja) 2019-05-30
CN109564703A (zh) 2019-04-02
EP3496045A1 (en) 2019-06-12
US10867454B2 (en) 2020-12-15

Similar Documents

Publication Publication Date Title
JP7010223B2 (ja) 情報処理装置、方法、および、コンピュータプログラム
US12026806B2 (en) Systems and methods for utilizing a living entity as a marker for augmented reality content
US10678340B2 (en) System and method for providing user interface tools
US10019131B2 (en) Two-handed object manipulations in virtual reality
US9952656B2 (en) Portable holographic user interface for an interactive 3D environment
Ha et al. WeARHand: Head-worn, RGB-D camera-based, bare-hand user interface with visually enhanced depth perception
JP5807686B2 (ja) 画像処理装置、画像処理方法及びプログラム
EP3458942B1 (en) Display of three-dimensional model information in virtual reality
EP3814876B1 (en) Placement and manipulation of objects in augmented reality environment
US11023035B1 (en) Virtual pinboard interaction using a peripheral device in artificial reality environments
CN107407959A (zh) 基于姿势的三维图像的操纵
JP7480388B2 (ja) ヘッドマウント情報処理装置
US11023036B1 (en) Virtual drawing surface interaction using a peripheral device in artificial reality environments
TWI766258B (zh) 用於選擇在設備的顯示媒介上的交互物件的方法
EP3953793A1 (en) Method, arrangement, and computer program product for three-dimensional visualization of augmented reality and virtual reality environments
US20240104875A1 (en) Systems and methods of creating and editing virtual objects using voxels
Flasar et al. Manipulating objects behind obstacles

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190208

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190214

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190515

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200608

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200608

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210413

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210611

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211227