JP6217747B2 - 情報処理装置及び情報処理方法 - Google Patents

情報処理装置及び情報処理方法 Download PDF

Info

Publication number
JP6217747B2
JP6217747B2 JP2015512346A JP2015512346A JP6217747B2 JP 6217747 B2 JP6217747 B2 JP 6217747B2 JP 2015512346 A JP2015512346 A JP 2015512346A JP 2015512346 A JP2015512346 A JP 2015512346A JP 6217747 B2 JP6217747 B2 JP 6217747B2
Authority
JP
Japan
Prior art keywords
virtual object
real
user
virtual
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015512346A
Other languages
English (en)
Other versions
JPWO2014171200A1 (ja
Inventor
山本 一幸
一幸 山本
育英 細田
育英 細田
城井 学
学 城井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2014171200A1 publication Critical patent/JPWO2014171200A1/ja
Application granted granted Critical
Publication of JP6217747B2 publication Critical patent/JP6217747B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/215Input arrangements for video game devices characterised by their sensors, purposes or types comprising means for detecting acoustic signals, e.g. using a microphone
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/24Constructional details thereof, e.g. game controllers with detachable joystick handles
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/26Output arrangements for video game devices having at least one additional display device, e.g. on the game controller or outside a game booth
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/28Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
    • A63F13/285Generating tactile feedback signals via the game input device, e.g. force feedback
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/92Video game devices specially adapted to be hand-held while playing
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/217Input arrangements for video game devices characterised by their sensors, purposes or types using environment-related information, i.e. information generated otherwise than by the player, e.g. ambient temperature or humidity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/55Details of game data or player data management
    • A63F2300/5546Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history
    • A63F2300/5553Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history user representation in the game field, e.g. avatar
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Cardiology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Optics & Photonics (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Analysis (AREA)

Description

本明細書で開示する技術は、拡張現実画像内で現実画像に合成された仮想画像に関する処理を行なう情報処理装置及び情報処理方法、表示装置及び表示方法、並びに情報処理システムに係り、特に、仮想物体と現実空間とのインタラクションを提示する情報処理装置及び情報処理方法、表示装置及び表示方法、並びに情報処理システムに関する。
2D若しくは3Dゲームのキャラクターや、プレイヤー(ユーザー)本人の化身であるアバター、さらには、コンピューターのユーザー・インターフェースとして、情報処理の記述分野で、仮想生物が広く利用されている。この種の仮想生物は、情報処理装置上で動作が生成され、画面上を自由に動き回ったり、音声を発したりする。
また最近では、拡張現実感(Augmented Reality:AR)若しくは複合現実感のように、仮想的な画像を現実画像に重ね合わせて見せる技術が浸透しつつある。現実画像に重ね合わせる仮想画像には、ゲームのキャラクターや、プレイヤー(ユーザー)本人の化身であるアバター、仮想ペット、コンピューターのユーザー・インターフェースといった仮想生物、あるいは自動車などの仮想的な移動体が挙げられる。
例えば、ユーザーと対話することが可能で、仮想画面上を歩き回る仮想ペットを、実環境の画像と合成して表示するエンタテイメント装置について提案がなされている(例えば、特許文献1を参照のこと)。このエンタテイメント装置は、システム・ユニットで生成した仮想ペットをビデオ・カメラで捕捉した実画像にレンダリングして、ディスプレイとスピーカーを有するモニターやテレビセットのようなディスプレイ・サウンド出力装置に表示する。しかしながら、仮想ペットは画面内でのみ移動し、その行動やリアクションを表現する音声などがディスプレイ・サウンド出力装置の設置場所から出力されるだけであり、仮想ペットと現実空間とのインタラクションをリアルに表現するには限界がある。
また、実物体が通過する奥行き位置に、DFD(Depth Fusion Display)型の3次元表示装置により表示される3次元立体像の奥行き位置を一致させ、仮想物体が観察者にとってあたかも同じ空間に立体的に存在し、両者がインタラクションを持つかのような感覚を呈示するオブジェクト表示装置について提案がなされている(例えば、特許文献2を参照のこと)。しかしながら、このオブジェクト表示装置が与えることができるのは、視覚的なインタラクションの効果に限定される。また、インタラクションの効果が及ぶのは、仮想物体を表示するオブジェクト表示装置の設置場所に限定される。
また、仮想物体を含んだ仮想空間の映像を現実空間に重畳させてヘッド・マウント・ディスプレイで提示する画像処理方法について提案がなされている(例えば、特許文献3を参照のこと)。この画像処理方法によれば、仮想物体が仮想空間中を動き回る音などの効果音をスピーカーから出力する。しかしながら、効果音は、仮想物体の仮想空間中でのインタラクションを表現したものであり、仮想物体の現実空間とのインタラクションを提示するものではない。
また、実視野内の皮膚の上に仮想ペットが虚像として現れるように、仮想ペットの画像を表示させる情報端末装置について提案がなされている(例えば、特許文献4を参照のこと)。仮想ペットが手などの皮膚の動きに合わせて動くことにより、あたかも皮膚の動きに仮想ペットが反応しているような印象を与える。すなわち、この情報端末装置によれば、現実空間にいるユーザーは仮想ペットに対するアクションを行なうことができるが、逆に仮想ペットが現実空間でアクションを行なうことはできない。すなわち、仮想ペットと現実空間とのインタラクションを提示するものではない。
本明細書で開示する技術の目的は、仮想物体と現実空間とのインタラクションを好適に提示することができる、優れた情報処理装置及び情報処理方法、表示装置及び表示方法、並びに情報処理システムを提供することにある。
本願は、上記課題を参酌してなされたものであり、請求項1に記載の技術は、
実在物体に動作を加える出力部と、
仮想物体が前記実在物体に対して行なった動作、又は、前記実在物体が前記仮想物体に対して行なう動作に応じて、前記出力部からの出力を制御する制御部と、
を具備する情報処理装置である。
本願の請求項2に記載の技術によれば、請求項1に記載の情報処理装置は、前記情報処理装置を識別するための識別情報をさらに備えている。
本願の請求項3に記載の技術によれば、請求項1に記載の情報処理装置は、前記仮想物体が前記実在物体に対して行なう動作の検出結果を受信する受信部をさらに備えている。そして、前記制御部は、受信した前記検出結果に従って、前記出力部からの出力を制御するように構成されている。
本願の請求項4に記載の技術によれば、請求項1に記載の情報処理装置は、前記仮想物体の動作を制御する仮想物体制御部をさらに備えている。そして、前記制御部は、前記仮想物体制御部により制御される前記仮想物体の動作に応じて、前記出力部からの出力を制御するように構成されている。
本願の請求項5に記載の技術によれば、請求項1に記載の情報処理装置の前記出力部は、前記実在物体の中に組み込まれた、振動デバイス、パルス発生デバイス、発熱デバイス、冷却デバイス、送風デバイス、音響デバイス、発光デバイス、移動デバイスのうち少なくとも1つの出力デバイスを備えている。
また、本願の請求項6に記載の技術は、
仮想物体が前記実在物体に対して行なった動作、又は、前記実在物体が前記仮想物体に対して行なう動作を取得するステップと、
前記仮想物体が前記実在物体に対して行なった動作、又は、前記実在物体が前記仮想物体に対して行なう動作に応じて、前記実在物体に動作を加えるステップと、
を有する情報処理方法である。
また、本願の請求項7に記載の技術は、
特定の実在物体を検出する検出部と、
前記特定の実在物体を検出したことに応じて、仮想物体を表示する表示部と、
を具備する表示装置である。
本願の請求項8に記載の技術によれば、請求項7に記載の表示装置の前記検出部は、前記実在物体を識別し、前記表示部は、識別した前記実在物体に対応した前記仮想物体を表示するように構成されている。
本願の請求項9に記載の技術によれば、請求項7に記載の表示装置の前記検出部は、前記実在物体が備える識別情報に基づいて前記実在物体を識別し、又は、物体認識により前記実在物体を識別するように構成されている。
本願の請求項10に記載の技術によれば、請求項7に記載の表示装置の前記検出部は、ユーザーの視界内から前記実在物体を検出し、前記表示部は、前記実在物体に重ね合わせて前記仮想物体を表示するように構成されている。
本願の請求項11に記載の技術によれば、請求項7に記載の表示装置は、前記仮想物体の動作を制御する仮想物体制御部をさらに備えている。
本願の請求項12に記載の技術によれば、請求項11に記載の表示装置の前記仮想物体制御部は、ユーザーの行動に応じて前記仮想物体の出現又は消滅を制御するように構成されている。
本願の請求項13に記載の技術によれば、請求項11に記載の表示装置の前記仮想物体制御部は、ユーザーの行動又は状況、時間帯に応じて、前記表示部が表示する前記仮想物体の情報量を制御するように構成されている。
本願の請求項14に記載の技術によれば、請求項11に記載の表示装置の前記仮想物体制御部は、前記仮想物体の前記実在物体に対する動作を制御し、又は、前記仮想物体が前記実在物体から受ける動作に応じて、前記仮想物体の動作を制御するように構成されている。
本願の請求項15に記載の技術によれば、請求項11に記載の表示装置の前記検出部は、前記仮想物体の前記実在物体に対する動作、又は、前記仮想物体が前記実在物体から受ける動作を検出し、前記仮想物体制御部は、前記検出部の検出結果に基づいて、前記仮想物体の動作を制御するように構成されている。
本願の請求項16に記載の技術によれば、請求項11に記載の表示装置の前記仮想物体制御部は、前記実在物体の動作と同期するように、前記仮想物体の動作を制御するように構成されている。
本願の請求項17に記載の技術によれば、請求項7に記載の表示装置の前記表示部は、ユーザーの頭部又は顔部に装着して用いられ、ユーザーの頭部又は顔部の位置並びに姿勢を検出する位置姿勢検出部をさらに備えている。そして、前記表示部は、ユーザーの頭部又は顔部の位置又は姿勢の変化とは逆方向に、前記仮想物体の表示を修正するように構成されている。
また、本願の請求項18に記載の技術は、
特定の実在物体を検出する検出ステップと、
前記特定の実在物体を検出したことに応じて、仮想物体を表示する表示ステップと、
を有する表示方法である。
また、本願の請求項19に記載の技術は、
仮想物体の動作を制御する制御装置と、
実在物体を検出して、対応する仮想物体を表示する表示装置と、
仮想物体が前記実在物体に対して行なった動作、又は、前記実在物体が前記仮想物体に対して行なう動作に応じて、実在物体に動作を加える出力装置と、
を具備する情報処理システムである。
但し、ここで言う「システム」とは、複数の装置(又は特定の機能を実現する機能モジュール)が論理的に集合した物のことを言い、各装置や機能モジュールが単一の筐体内にあるか否かは特に問わない(以下同様)。
また、本願の請求項20に記載の技術は、
実在物体を検出して、対応する仮想物体を表示するとともに、仮想物体の動作を制御する表示装置と、
仮想物体が前記実在物体に対して行なった動作、又は、前記実在物体が前記仮想物体に対して行なう動作に応じて、実在物体に動作を加える出力装置と、
を具備する情報処理システムである。
本明細書で開示する技術によれば、仮想物体と現実空間とのインタラクションを好適に提示することができる、優れた情報処理装置及び情報処理方法、表示装置及び表示方法、並びに情報処理システムを提供することができる。
本明細書で開示する技術のさらに他の目的、特徴や利点は、後述する実施形態や添付する図面に基づくより詳細な説明によって明らかになるであろう。
図1は、拡張現実感画像をユーザーに提示する情報処理システム100の機能的構成を模式的に示した図である。 図2は、情報処理システムの具体的に構成例100−2を示した図である。 図3は、情報処理システム100−2内の通信シーケンス例を示した図である。 図4は、情報処理システムの具体的に構成例100−4を示した図である。 図5は、図4に示した情報処理システムの変形例100−5を示した図である。 図6は、情報処理システム100−4内の通信シーケンス例を示した図である。 図7は、本明細書に開示する技術に適用可能な画像表示装置700の外観構成を示した図である。 図8は、ユーザーが装着した状態の画像表示装置700を上方から眺めた様子を示した図である。 図9は、画像表示装置700の内部構成例を示した図である。 図10は、専用のハードウェア装置として構成される出力装置202の内部構成例を模式的に示した図である。 図11は、アクチュエーター部1020の構成例を模式的に示した図である。 図12Aは、出力装置202の具体例を示した図である。 図12Bは、出力装置202の具体例を示した図である。 図12Cは、出力装置202の具体例を示した図である。 図13は、振動デバイス1101の構成例を示した図である。 図14は、図13に示した振動デバイス1101の動作例を示した図である。 図15は、図13に示した振動デバイス1101の動作例を示した図である。 図16は、図12Cに示した出力装置202の動作例を示した図である。 図17は、図12Cに示した出力装置202の動作例を示した図である。 図18は、図12Cに示した出力装置202の動作例を示した図である。 図19は、図12Cに示した出力装置202の動作例を示した図である。 図20は、図12Cに示した出力装置202の動作例を示した図である。 図21は、ユーザーの頭部の動きに追従して仮想物体150を提示する様子を示した図である。 図22は、ユーザーの頭部の動きに追従させずに仮想物体150を提示する様子を示した図である。 図23は、ユーザーの頭部の動きに対して、仮想物体150の画像の動きが遅延している様子を示した図である。 図24Aは、ユーザーがヘッド・マウント・ディスプレイ2401越しに実在物体151を観察している様子を示した図である。 図24Bは、ユーザーがヘッド・マウント・ディスプレイ2401越しに仮想物体150を観察している様子を示した図である。 図25は、各ユーザーがヘッド・マウント・ディスプレイ2501、2502、2503、…越しに仮想物体150A、150B、150C、…を観察する様子を示した図である。 図26は、室内の識別情報152が配設された領域が実在物体になる例を示した図である。 図27は、ユーザーの身体の一部が実在物体になる例を示した図である。 図28は、ユーザーの身体の一部が実在物体になる例を示した図である。 図29は、図4に示した情報処理システムのさらなる変形例100−29を示した図である。
以下、図面を参照しながら本明細書で開示する技術の実施形態について詳細に説明する。
図1には、仮想的な画像を現実画像に重ね合わせた拡張現実感又は複合現実感の画像をユーザーに提示する情報処理システム100の機能的構成を模式的に示している。図示の情報処理システム100は、仮想的な画像として、仮想物体150を現実空間に合成して提示するが、仮想物体制御部101と、仮想物体生成部102と、表示部103と、検出部104と、出力部105と、出力制御部106と、環境検出部107と、状態検出部108を備えている。
本実施形態で言う「仮想物体」とは、例えばユーザーの化身などのアバターや、2D若しくは3Dゲームのキャラクター、コンピューターのユーザー・インターフェースなどである。仮想物体150は、人物である必要はなく、仮想ペットなど動物であってもよい。また、仮想物体150は生物である必要はなく、自動車やヘリコプター、船舶などの移動体であってもよい。あるいは、仮想物体150は、物の画像ではなく、テキストであってもよい。あるいは、仮想物体150は、(画像の表示を伴わない)音声(音声アシスタントなど)であってもよい。仮想物体150を、物の画像と音声の組み合わせで表現する場合には、画像の出現場所と音声の発生場所を一致させる必要がある。以下では、説明の便宜上、人物の仮想物体150として扱う。また、仮想物体を現実画像に合成する方法として、シースルーのヘッド・マウント・ディスプレイで観察されるユーザーの視界である現実空間に仮想画像を重ね合わせる方法や、ビデオシースルーのヘッド・マウント・ディスプレイのようにカメラで撮影された現実空間の画像に仮想画像を重ね合わせる方法がある。
仮想物体制御部101は、仮想物体150の(現実空間への)出現並びに(現実空間からの)消滅、(現実空間中に)出現中の仮想物体150の動作や行動を制御する。基本的には、ユーザーが実在物体151を見たことに応じて、又は、見付けたことに応じて、仮想物体制御部101は、その実在物体151に対応する仮想物体150を出現させる(但し、実在物体151に仮想物体150があらかじめ対応付けられていることが前提となる)。
ここで、実在物体151には、ICタグやバーコード(QRコード(登録商標)、ドット・コードでもよい)などの識別情報152が配設されている。実在物体151がスマートフォンのように表示部を持つ情報端末の場合、識別情報152はバーコードなどの表示画像であってもよい。実在物体151は、印刷物でもよいし、特徴を持った(言い換えれば、画像認識し易い)物体でもよく、ICタグなどの識別情報152を必ずしも含んでいなくてもよい。上記の「実在物体151を見たことに応じて」又は「見付けたことに応じて」とは、実際には、実在物体151に配設された識別情報152を認識したり、画像の物体認識により実在物体151を特定したりする処理で実現される。識別情報152毎に、対応する仮想物体150の情報がライブラリー化されている。
また、仮想物体150を出現させる方法は、ユーザーがジェスチャーやその他の入力操作などにより出現を要求したことに応じて出現するプル(PULL)型と、ユーザーの意図とは関係なく、システム側で所定のイベントが発生したことにより出現するプッシュ(PUSH)型に分類される。
上述した、実在物体151に対応する仮想物体150が出現させる方法は、PULL型の出現に該当する。また、ユーザーが仮想物体150若しくは実在物体151が存在する領域から目線を外す(又は、目線を外してから所定時間が経過する)、ユーザーが仮想物体150に関心を示さなくなる(例えば、所定時間以上話し掛けない)といったイベントが発生すると、仮想物体制御部101は仮想物体150を消滅させる。
一方、PUSH型の場合、出現形態が画像、テキスト、音声のいずれであれ、ユーザーの心地の良いタイミングで心地の良い出現方法で、仮想物体150が出現することが望ましい。例えば、ユーザーの行動認識を行ないながら、仮想物体150の出現タイミングと出現方法を制御する。ユーザーの行動や状況、時間帯などに応じて、仮想物体150の情報量を制御する必要もある(例えば、ユーザーが電車の中で座っているときには、仮想物体150は画像付きのリッチ・コンテンツでもよいが、人混みの中を歩いているときには、音声だけの仮想物体150にする)。また、PUSH型で出現する仮想物体150を、例えばユーザーの操作によって消滅させるようにしてもよい(例えば、表示された仮想物体150をユーザーが摘まんで動かす、指先で弾き飛ばすなどのジェスチャーで、消滅させるようにしてもよい)。勿論、PULL型で出現する仮想物体150に対しても、同様の消滅方法を適用してもよい。
また、仮想物体制御部101は、仮想物体150の動作又は行動として、実在物体151に対するアクションを行なわせる。仮想物体制御部101は、仮想物体150の動作や行動を、例えば以下の(1)〜(6)のうちいずれか1つの制御ルール、又は、(1)〜(6)のうち2以上の組み合わせからなる制御ルールに基づいて、制御する。要するに、仮想物体150は、自律動作する場合もあれば、ユーザーの操作で動作する場合もある。
(1)ユーザーが現在行なっているゲームのルールなどに従う自律動作
(2)ユーザーが現実世界で行なっている行動若しくは動作
(3)ユーザーが仮想空間で行なう行動若しくは動作(例えばマウスやタッチパネル、その他の入力デバイスを介して行なうゲームの操作)
(4)現実空間(若しくは仮想空間)におけるユーザーの現在の状態
(5)仮想物体150がいる現実空間(若しくは仮想空間)における環境
(6)実在物体151(出力部105)が仮想物体150に対して行なうアクション又はリアクション
仮想物体生成部102は、仮想物体制御部101で出現と消滅、動作や行動が制御される、人物や動物などの仮想物体150の画像を生成する。仮想物体150の画像データの生成には、テクスチャー・マッピングや、光源、シェーディングなど、さまざまなレンダリング技術を適用することができるが、本明細書では詳細な説明を省略する。また、仮想物体生成部102は、仮想物体150の画像とともにテキストや音声を生成することや、画像を伴わない、テキスト又は音声のみからなる仮想物体150を生成することもある(前述)。
表示部103は、仮想物体生成部102で生成した仮想物体150の画像を、現実画像と重なり合うように合成して、画面に表示出力する。表示部103が、ユーザーの頭部又は顔部に装着して用いられる画像表示装置(ヘッド・マウント・ディスプレイ)として構成される場合(後述)、ユーザーの視界内に仮想物体150の画像を、ユーザーの視界である現実空間に重ね合わせてシースルー表示し、又は、カメラで撮影された現実空間の画像に重ね合わせてビデオシースルー表示する。あるいは、表示部103に投影型の画像装置を適用して、現実空間上の物体に仮想物体150を投影するようにしてもよい。例えば、ユーザーが実在物体151を見たことに応じて、又は、見付けたことに応じて、仮想物体150が出現する場合(前述)、後述するように、仮想物体150は実在物体151に重ね合わせて表示される。
検出部104は、現実空間又は仮想空間で発生するイベントを検出する。例えば、検出部104は、カメラを備え、カメラで撮影したユーザーの視界の画像を認識処理して、例えばその形状などに基づいて仮想物体150がアクションの対象となっている実在物体151を特定する。あるいは、実在物体151にICタグやバーコード(QRコード(登録商標)、ドット・コードでもよい)などの識別情報152が配設されている場合には、検出部104は、識別情報152を読み取って、実在物体151を特定することができる。実在物体151が特定されると、これに対応する仮想物体150が出現する。
本実施形態では、仮想物体150と現実空間に存在する実在物体151の間でインタラクションを行なうことを想定している。検出部104は、このようなインタラクション、すなわち、仮想物体150が実在物体151に対して行なうアクションや実在物体151からのリアクション、実在物体151が仮想物体150に対して行なうアクションや仮想物体150からのリアクションの検出も行なう。仮想物体150が実在物体151に対して行なうアクションとは、例えば仮想物体150が実在物体151に乗り上げる、実在物体151上で足踏みをする、実在物体151を叩くなどの物理的な操作である。検出部104は、仮想物体150と実在物体151間のインタラクションを常時モニタリングする必要がある。但し、仮想物体150が出現していない間はモニタリングする必要がないので、カメラの動作をオフにして、消費電力を低減するようにしてもよい。
また、検出部104は、表示部103に表示される仮想物体150の画像を解析して、仮想物体150が実在物体151に対して行なっているアクションを検出してもよいし、あるいは、アクションに関する情報を、仮想物体150の動作若しくは行動を制御する仮想物体制御部101から直接取得するようにしてもよい。
また、検出部104は、出力部105が実在物体151を通じて仮想物体150に対して行なうアクション(後述)も検出する。例えば、実在物体151に重ね合わせて表示した仮想物体150の画像の解析結果や、カメラの撮像画像の認識結果などに基づいて、実在物体151が行なうアクションを検出することができる。あるいは、検出部104は、出力部105に仮想物体150に対して行なわせたアクションを、出力制御部106からフィードバックを受けてもよい。この検出結果は、仮想物体制御部101に通知される。仮想物体制御部101は、出力部105が行なったアクションに対して、仮想物体150のリアクションを制御する。
また、検出部104は、ユーザーと仮想物体150間のインタラクションも検出する(例えば、ユーザーの身体の一部が実在物体151となる場合など)。ユーザーが行なうアクション又はリアクションの検出には、モーション・キャプチャー技術を応用したジェスチャー認識や、音声認識などが用いられる。
検出部104は、表示部103に表示される仮想物体150の表情、あるいは、仮想物体150がとった行動などのコンテキストに基づいて、仮想物体150の精神状態(興奮している、又は、冷めている)やその他の状態を判断するようにしてもよい。あるいは、検出部104は、仮想物体制御部101から仮想物体150の精神状態に関する情報を取得して、出力制御部106に通知するようにしてもよい。これによって、出力制御部106は、出力部105の動作を制御して、仮想物体150の精神状態に応じたアクション又はリアクション、ユーザーへの触感フィードバック(後述)を行なうことができる。
出力部105は、仮想物体150がアクションを行なう対象となっている実在物体151に対して、振動や、電気パルス、発熱又は冷却、風、音、発光、移動、跳躍などの出力を生じさせ、実在物体151によるリアクションを実現する。出力部105は、このような出力を行なうために、振動デバイス、パルス発生デバイス、発熱デバイス、冷却デバイス、送風デバイス、音響デバイス、発光デバイス、車輪などの移動デバイスのうち少なくとも一部の出力デバイスを備えている。あるいは、これらの出力デバイスを備えた出力部105が実在物体151の中に組み込まれている(言い換えれば、実在物体151の中には、出力部105を内蔵したものがある)。以下では、便宜上、実在物体151は出力部105を内蔵しているものとして説明する。
出力制御部106は、検出部104が検出した、仮想物体150が実在物体151に対して行なっているアクションに応じたリアクションとして、出力部105を構成する各出力デバイスの駆動を制御する。例えば、仮想物体150が実在物体151上で足踏みする力(あるいは叩く力)の強弱に応じて、出力制御部106は、振動の振幅や周期、発熱量、音声又は音響の音量、発光量など出力部105の各出力デバイス1101〜1108(後述並びに図11を参照のこと)からの出力を調整して、実在物体151によるリアクションを行なうことによって、仮想物体150と現実空間とのインタラクションを表現する。出力制御部106は、仮想物体150が行なうアクション(すなわち、表示部103が表示する仮想物体150の動作)と正確に同期をとりながら、出力部105のリアクションを行なわせることによって、仮想物体150がリアルにその場所に存在するという感じを演出する。
また、出力制御部106は、出力部105を用いて、仮想物体150のアクションに対するリアクションではなく、仮想物体150に対するアクションを行なうこともできる。例えば、仮想物体150を揺する、加熱する、冷やす、風を吹くなど、逆に仮想物体150に対するアクションを行なうこともできる。
環境検出部107は、仮想物体150やユーザーを取り巻く現実空間の環境に関する情報を検出する。仮想物体制御部101は、環境検出部107で検出された環境情報を必要に応じて入力して、仮想物体150の動作や行動の制御に利用するようにしてもよい。また、出力制御部106も、環境情報に応じて出力部105の出力を調整して、仮想物体150と実在物体151とのインタラクションの表現に環境の影響を付加するようにしてもよい。
環境検出部107は、環境情報として、例えば、環境光強度、音響強度、位置若しくは場所、温度、天気、時刻、周囲画像、外側にいる人数などを検出する。環境検出部は、このような環境情報を検出するために、光量センサーや、マイクロフォン、GPS(Global Positioning System)センサー、温度センサー、湿度センサー、時計、イメージ・センサー(カメラ)、放射線センサーなどの各種の環境センサーを備えている。
状態検出部108は、仮想物体150を利用する(若しくは仮想物体150を観察する)ユーザーの状態を検出する。仮想物体制御部101は、状態検出部108で検出された状態情報を必要に応じて入力して、仮想物体150の出現・消滅のタイミング制御、仮想物体150の動作や行動の制御に利用する。また、出力制御部106も、状態情報に応じて出力部105の出力を調整して、仮想物体150と現実空間とのインタラクションの表現にユーザーの状態の影響を付加するようにしてもよい。
状態検出部108は、ユーザーの頭部動作を追跡するために、例えばユーザーの頭部の位置及び姿勢の情報又は姿勢の情報を取得する。ユーザーの頭部動作を追跡するために、状態検出部108は、例えば3軸ジャイロ・センサー、3軸加速度センサー、3軸地磁気センサーの合計9軸を検出可能なセンサーとする。また、状態検出部108は、GPS(Global Positioning System)センサー、ドップラー・センサー、赤外線センサー、電波強度センサーなどのいずれか1つ又は2以上のセンサーをさらに組み合わせて用いてもよい。
また、状態検出部108は、位置情報の取得に、携帯電話基地局情報やPlaceEngine(登録商標)情報(無線LANアクセスポイントからの電測情報)など、各種インフラストラクチャーから提供される情報を組み合わせて用いるようにしてもよい。
また、状態検出部108は、ユーザーの作業状態や行動状態(静止、歩行、走行などの移動状態、瞼の開閉状態、視線方向)、精神状態(ユーザーが仮想物体を観察中に没頭若しくは集中しているかなどの感動度、興奮度、覚醒度、感情や情動など)、さらには生理状態を検出する。状態検出部108は、これらの状態情報をユーザーから取得するために、ユーザーの顔を撮影するカメラ、ジャイロ・センサー、加速度センサー、速度センサー、圧力センサー、体温又は気温を検知する温度センサー、発汗センサー、筋電位センサー、眼電位センサー、脳波センサー、呼気センサー、ガス・センサーなどの各種の状態センサー、タイマーを備えていてもよい。
環境検出部107並びに状態検出部108は、情報処理システム100の任意の構成要素である。仮想物体制御部101が環境情報や状態情報に基づいて仮想物体150の動作又は行動を制御するかどうかは任意である。
図1に示したような構成の情報処理システム100は、1台の装置で実現する場合もあれば、物理的に独立しネットワークなどで相互接続される2台以上の装置で実現する場合もある。
図2には、情報処理システムの具体的な構成例100−2を示している。図示の例では、情報処理システム100−2は、仮想物体150を現実空間に合成して表示する表示装置201と、仮想物体150が現実空間で行なったインタラクションを表現する出力装置202という2台の物理的に独立した装置で構成される。
表示装置201は、例えばゲーム機本体などであり、仮想物体制御部101と、仮想物体生成部102と、表示部103と、検出部104を備えている。
仮想物体制御部101は、ゲームなどのルールに従って仮想物体150の出現や消滅、その動作若しくは行動を制御する。仮想物体生成部102は、仮想物体150の画像を生成する。そして、表示部103は、仮想物体生成部102で生成した仮想物体150の画像を、現実画像と重なり合うように合成して、画面に表示出力する。また、検出部104は、仮想物体制御部101で制御される仮想物体150の動作や行動を常時監視して、仮想物体150が現実空間で(若しくは仮想空間で)行なうアクションを検出する。
なお、図2では省略したが、表示装置201は、環境検出部107と状態検出部108のうち少なくとも一方を備えていてもよい。仮想物体制御部101は、検出された環境情報や状態情報に影響を受けたように、仮想物体150の動作若しくは行動、実在物体151に対して行なうアクションを変化させるようにしてもよい。
出力装置202は、実在物体151内に内蔵された、出力制御部106と出力部105を備えている。出力制御部106は、仮想物体150が実在物体151に対して行なっているアクションに応じて、出力部105を構成する各出力デバイスの駆動を制御して、仮想物体150に対するリアクションを表現する。あるいは、逆に、出力制御部106は、出力装置202が仮想物体150に対してアクションを行なうための出力制御を、出力部105に対して行なう。
表示装置201と出力装置202は、それぞれ通信部211、212を備えている。例えば、表示装置201は、検出部104が検出した仮想物体150のアクションに関する情報、あるいは、仮想物体制御部101が指示した仮想物体150のアクションに関する情報を、通信部211を介して出力装置202に送信する。一方、出力装置202側では、通信部212が表示装置201からアクションに関する情報を受信すると、出力制御部106は、仮想物体150が実在物体151に行なっているアクションに対するリアクションとして、出力部105を構成する各出力デバイスの駆動を制御する。
通信部211、212間は無線又は有線通信など、任意の通信手段を用いて接続される。ここで言う通信手段として、MHL(Mobile High−definition Link)やUSB(Universal Serial Bus)、HDMI(登録商標)(High Definition Multimedia Interface)、Wi−Fi(登録商標)、Bluetooth(登録商標)通信やBLE(Bluetooth(登録商標) Low Energy)通信、ANTなどの超低消費電力無線通信、IEEE802.11sなどで規格化されたメッシュ・ネットワーク、赤外線通信、人体通信、導電性繊維を介した信号伝送などを挙げることができる。
また、出力装置202は、環境検出部213をさらに備えていてもよい。環境検出部213は、実在物体151にアクションを行なっている仮想物体150を取り巻く現実空間に関する情報を検出する。このような場合、出力制御部106は、環境情報に応じて出力部105の出力を調整して、仮想物体150と現実空間とのインタラクションの表現に環境の影響を付加することができる。
出力装置202は、例えば、仮想物体150が現実空間で行なったインタラクションを表現する、専用のハードウェア装置として構成することができる。この場合の出力部105は、仮想物体150が行なったアクションに対するリアクションを、実在物体151の振動や、発熱又は冷却、風、音、発光、移動、跳躍などさまざまな形態で表現するために、振動デバイス、パルス発生デバイス、発熱デバイス、冷却デバイス、送風デバイス、音響デバイス、発光デバイス、移動デバイスなど多種類の出力デバイスで構成される。また、出力装置202は、これらの出力デバイスを用いて、仮想物体150のアクションに対するリアクションではなく、仮想物体150に対するアクションを行なうこともできる。例えば、仮想物体150を揺する、加熱する、冷やす、風を吹くなど、逆に仮想物体150に対するアクションを行なうこともできる。
あるいは、出力装置202は、専用のハードウェア装置としてではなく、例えばバイブレーション機能とスピーカーを備えたスマートフォン、多機能端末など、既存の電子機器を代用して構成することもできる。このような場合、出力部105として装備する出力デバイスの種類は限定的であり、仮想物体150と実在物体151とのインタラクションを表現する方法も限定されることになる。
仮想物体150と実在物体151の間で行なうアクションとリアクションが正確に同期している、言い換えれば、表示部103で表示する仮想物体150の動作と、出力装置202側の出力部105の駆動とが正確に同期していることが、リアルなインタラクションとして見せる上で重要である。逆に、アクションに対してリアクションの遅延時間が長過ぎるなど、うまく同期がとれていないと、不自然なインタラクションになってしまう。なお、仮想物体150を常時動作させていると、ユーザーにはリアルタイムでインタラクションを行なっているように映り易くなる。
図3には、情報処理システム100−2内の通信シーケンス例を示している。
表示装置201は、識別情報152の読み取りや物体に認識などにより実在物体151を特定すると、特定した実在物体151に対応する仮想物体150を現実空間に合成して表示する(SEQ301)。表示装置201は、所定の制御周期で仮想物体150の動作又は行動をリフレッシュする。
また、表示装置201は、仮想物体150が実在物体151に対して行なったアクションを検出すると、その検出結果を含んだメッセージを、例えば所定の時間間隔で出力装置202に送信する(SEQ302)。但し、表示装置201は、仮想物体150のアクションに関する情報ではなく、仮想物体150のアクションに対するリアクションを実在物体151で表現するための指示、あるいは、出力部105の制御情報に変換して送信するようにしてもよい。
これに対し、出力装置202は、表示装置201からメッセージを受け取る度に、実在物体151側のリアクションとして出力部105を動作させて(SEQ303)、仮想物体150と実在物体151とのインタラクションを表現する。ここで、実在物体151のリアクションは、仮想物体150が実在物体151に対して行なうアクションと正確に同期して実施されると、ユーザーにはインタラクションがリアルであるような印象を与えることができる。
また、出力装置202は、表示装置201からのメッセージに対する確認応答や、リアクションの出力(インタラクション)の完了報告などを、表示装置201に返すようにしてもよい(SEQ304)。
また、逆に、出力装置202は、仮想物体150のアクションに対する実在物体151のリアクションとしてではなく、仮想物体150に対するアクションを行なうこともできる(SEQ305)。このような場合、仮想物体150がリアクションを行なうように、出力装置202は、出力部105で行なったアクションに関する情報を表示装置201に送信するようにしてもよい(SEQ306)。
表示装置201は、出力装置202から仮想物体150に対するアクションの情報を受け取ると、これに対するリアクションをとる仮想物体150の画像を生成し、現実空間上の実在物体151に合成して表示する。仮想物体150のリアクションは、出力装置202すなわち実在物体151が行なうアクションと正確に同期して(若しくは、小さな遅延時間で)実施されると、インタラクションがリアルに行なわれているような印象をユーザーに与えることができる。
図4には、情報処理システムの他の具体的な構成例100−4を示している。図示の例では、情報処理システム100−4は、仮想物体150の出現や消滅、その動作若しくは行動を制御する制御装置401と、仮想物体150を現実空間に合成して表示する表示装置402と、仮想物体150と現実空間とのインタラクションを表現する出力装置403という3台の物理的に独立した装置で構成される。
例えば、制御装置401は家庭内若しくはクラウド上に設置されたサーバー、表示装置402はそのサーバーにログインするユーザー端末であってもよい。同じサーバーに、複数のユーザー端末が同時にログインしている場合もある。このような場合、複数のユーザー端末が1台の出力装置403を共用することも想定される(図25並びに後述を参照のこと)。例えば、ユーザー端末毎に対応した仮想物体が出現し、1台の出力装置403が各々の仮想物体に対してリアクションをとるができる。
図示しないが、制御装置401と表示装置402間、表示装置402と出力装置403間、並びに、出力装置403と制御装置401間は、無線又は有線の通信手段で相互接続されているものとする。接続には、ホーム・ネットワークなどのLAN(Local Area Network)や、インターネットなどの広域ネットワークなどの通信媒体(図示しない)を使用することができる。
制御装置401は、仮想物体制御部101を備え、例えばゲームなどのルールや、ユーザーの行動のコンテキストなどに従って、仮想物体150の出現や消滅、その動作若しくは行動を制御する。あるいは、制御装置401を、インターネット上に設置された1台のサーバー装置、あるいは複数台のサーバー装置の組み合わせで構成することもできる。
表示装置402は、仮想物体生成部102と、表示部103と、検出部104を備えている。仮想物体生成部102は、制御装置402から仮想物体150の動作若しくは行動に関する情報を受け取ると、仮想物体150の画像を生成する。そして、表示部103は、仮想物体生成部102で生成した仮想物体150の画像を、対応する実在物体151と重なり合うように合成して、画面に表示出力する。また、検出部104は、仮想物体制御部101で制御される仮想物体150の動作や行動(若しくは、表示部103が表示する仮想物体150の画像)を常時監視して、仮想物体150が実在物体151に対して行なうアクションを検出する。
なお、表示装置402は、環境検出部と状態検出部のうち少なくとも一方を備えていてもよい。図示の例では、表示装置402は状態検出部414を備えている。仮想物体制御部101は、表示装置402で検出された環境情報や状態情報を受け取ると、仮想物体150が環境や状態から影響を受けて動作若しくは行動するかのように、実在物体151に対して行なうアクションを変化させるようにしてもよい。状態検出部414は、例えば、加速度センサーやジャイロ・センサーなどの表示装置402の位置及び姿勢を検出するセンサーを備えている。視界の動きに応じて仮想物体150の表示位置を画面上で移動させるために、加速度センサーやジャイロ・センサーなどの検出結果が利用される。
出力装置403は、実在物体151内に内蔵された出力制御部106と出力部105を備えている。出力制御部106は、仮想物体150が実在物体151に行なっているアクションに対する実在物体151のリアクションとして、出力部105を構成する各出力デバイスの駆動を制御する。出力装置403は、表示装置402などから仮想物体150のアクションの検出結果を受け取るか、又は、制御装置401から直接、仮想物体150の動作若しくは行動などアクションに関する情報を受け取ると、これに基づいて、出力部105で仮想物体150に対するリアクションの出力を行ない、仮想物体150と現実空間とのインタラクションを表現する。
また、出力装置403は、環境検出部413をさらに備えていてもよい。環境検出部413は、実在物体151に対してアクションを行なっている仮想物体150を取り巻く現実空間に関する情報を検出する。このような場合、出力制御部106は、環境情報に応じて出力部105の出力を調整して、仮想物体150と行なうインタラクションの表現に、環境からの影響を付加することができる。
また、出力装置202は、状態検出部415をさらに備えていてもよい。状態検出部415は、例えばジャイロ・センサーを含み、仮想物体150に対してアクション又はリアクションを行なったときに生じる実在物体151の位置や姿勢の変化を検出する。制御装置401側では、実在物体151のこのような位置又は姿勢の変化に応じて、その上に載っている仮想物体150のアクションを制御して、仮想物体150と実在物体151とのインタラクションをよりリアルなものにすることができる。
図5には、図4に示した情報処理システムの変形例100−5を示している。図4に示した例では、表示装置402内に仮想物体生成部102が装備されるのに対し、図5に示す例では、ゲーム機本体などの制御装置401内に仮想物体生成部102が装備される点で相違する。図示しないが、制御装置401と表示装置402間、表示装置402と出力装置403間、並びに、出力装置403と制御装置401間は、無線又は有線の通信手段で相互接続されているものとする。
図4、図5のいずれも、表示装置202を1台しか描いていないが、情報処理システム100−4、100−5内に複数台の表示装置202が存在するというシステム構成例も想定される。このような場合、1台の制御装置402が各々の表示装置に個別の仮想物体の動作若しくは行動に関する情報、又は、個別の仮想物体の画像を送信することも考えられる。例えば、ゲーム機本体としての制御装置401が、ゲームに参加する複数のユーザーの各々が所持するゲーム・コントローラーとしての表示装置402に対して、同じ仮想物体、ユーザー毎に固有の仮想物体(アバターやゲームのキャラクターなど)の情報を送信するようにしてもよい。また、制御装置401は、ユーザー本人のアバターとともに、周囲にいる他ユーザーのアバターなど、各々表示装置に対して、複数の仮想物体(各ユーザーの仮想物体)の情報を送信するようにしてもよい(図25並びに後述を参照のこと)。
仮想物体150と実在物体151の間で行なうアクションとリアクションが正確に同期していること、言い換えれば、表示部103で表示する仮想物体150の動作と、出力装置202側の出力部105の駆動とが正確に同期していることが、仮想物体150と実在物体151とのインタラクションがよりリアルであるような印象を与える上で重要である。逆に、アクションに対してリアクションの遅延時間が長過ぎるなど、うまく同期がとれていないと、不自然なインタラクションになってしまう。仮想物体150を常時動作させていると、リアルタイムでリアクションをとっているような印象をユーザーに与え易くなる。
図6には、情報処理システム100−4(又は、100−5)内の通信シーケンス例を示している。
表示装置402は、例えばユーザーの視界内で、識別情報152の読み取りや物体認識などにより実在物体151を特定すると(SEQ601)、制御装置401に通知する(SEQ602)。
これに対し、制御装置401は、読み取った識別情報152に対応した仮想物体150を出現させ(SEQ603)、仮想物体150の動作又は行動の情報、又は、その情報から導出される仮想物体150の画像データを、表示装置402に送信する(SEQ604)。また、制御装置401は、所定の制御周期で仮想物体150の動作又は行動をリフレッシュする。そして、表示装置402は、現実空間に合成して、特定した実在物体151に対応する仮想物体150の画像を表示する(SEQ605)。
表示装置402は、表示装置402自体、又は、表示装置402を利用しているユーザーの状態やユーザーを取り巻く環境情報を検出すると(SEQ606)、その検出結果を制御装置401に送信する(SEQ607)。そして、制御装置401側では、受信した状態情報に応じて画像の更新処理を行ない(SEQ608)、表示装置402に必要な情報を送信する(SEQ609)。
ここで、表示装置402を使用するユーザーの位置又は姿勢の変化に応じて、表示装置402越しにシースルー表示又はビデオシースルー表示される現実画像が移動する。例えば表示装置402がヘッド・マウント・ディスプレイのようにユーザーが装着して用いるタイプの装置の場合、あるいは移動体上に搭載された装置の場合には、実在物体151の上に仮想物体150を重ね合わせるには、ユーザーの視界の動きを検出するとともに、ユーザーの視界の動きとは逆の向きに仮想物体150の表示位置を画面上で移動させる必要がある。頭部の動きを打ち消すように仮想物体150の表示領域を移動させることで、ユーザーの頭部の動きに追従した仮想物体150の動きを提示することができる。
このため、表示装置402は、加速度センサーやジャイロ・センサーなどの表示装置402の位置及び姿勢を検出するセンサーを備えている。表示装置402は、加速度センサーやジャイロ・センサーなどで位置及び姿勢を検出すると(SEQ610)、その検出結果を制御装置401に送信する(SEQ611)。そして、制御装置401側では、ユーザーの頭部の動きを打ち消すように仮想物体150の表示領域を移動させて、現実空間の適切な場所(例えば、実在物体151の上)に仮想物体150が重なり合うように、画像の修正処理を行なう(SEQ612)。あるいは、このような画像の修正処理を表示装置402側で行なうようにしてもよい。
また、ユーザーの頭部の動きを打ち消すように仮想物体150の表示領域を移動させるという画像修整をかけたとしても、レイテンシーの問題があり、ユーサーの首振り運動などによる視界の動きに追従できずに、ずれた場所に仮想物体150が表示されてしまうことが懸念される。そこで、本実施形態では、サーボ制御(例えば、PID制御のうち、D(微分)制御)や動き予測をかけて、仮想物体150の表示位置のずれがある時間で0に収束するようにしている。
そして、制御装置401は、画像修正後の仮想物体150の情報を、表示装置402に送信し(SEQ613)、表示装置402は、修正後の仮想物体150を表示する(SEQ614)(同上)。
また、表示装置402は、仮想物体150が実在物体151に対して行なったアクションを検出すると(SEQ615)、その検出結果を含んだメッセージを、例えば所定の時間間隔で出力装置403に送信する(SEQ616)。あるいは、制御装置401は、仮想物体150にアクションを指示したことを(SEQ617)、出力装置403に通知する(SEQ618)。
これに対し、出力装置403は、表示装置402又は制御装置401からメッセージを受け取る度に、実在物体151側のリアクションとして出力部105を動作させて(SEQ619)、仮想物体150と現実空間とのインタラクションを表現する。ここで、実在物体151のリアクションは、仮想物体150が実在物体151に対して行なうアクションと正確に同期して実施されると、仮想物体150とのインタラクションが現実空間でリアルに行なわれているような印象をユーザーに与えることができる。
また、出力装置403は、表示装置402や制御部401からのメッセージに対する確認応答や、リアクションの出力(インタラクション)の完了報告などを、表示装置402や制御部401に返すようにしてもよい(SEQ620、SEQ621)。
また、逆に、出力装置202は、仮想物体150のアクションに対する実在物体151のリアクションとしてではなく、仮想物体150に対するアクションを行なうこともできる(SEQ622)。このような場合、仮想物体150がリアクションを行なうように、出力装置403は、出力部105で行なったアクションに関する情報を制御装置401や表示装置402に送信するようにしてもよい(SEQ623、SEQ624)。
このような場合、制御装置401が、実在物体151のアクションに対するリアクションを仮想物体150に行なわせることで、仮想物体150と現実空間とのインタラクションを表現することができる(SEQ625)。仮想物体150のリアクションは、出力装置202すなわち実在物体151が行なうアクションと正確に同期して実施されると、ユーザーにはインタラクションがリアルに映る。
図4に示した情報処理システムのさらなる変形例100−29を、図29に示しておく。図29では、仮想物体制御部101などの制御装置401の機能が出力装置403と一体化されている。図4では、制御装置401をクラウド上のサーバーと想定した(前述)。これに対し、図29では、出力装置403は家庭内に設置されたゲーム機本体、表示装置402はそのゲーム機本体に接続されるゲーム・コントローラーであることも想定される。1台のゲーム機本体に、複数のユーザーのゲーム・コントローラーが接続されることも想定される。
出力装置403内の仮想物体制御部101は、例えばゲームなどのルールに従って仮想物体150の出現や消滅、その動作若しくは行動を制御する。
一方、表示装置402内の仮想物体生成部102は、仮想物体制御部101から仮想物体150の動作若しくは行動に関する情報を受け取ると、仮想物体150の画像を生成する。そして、表示部103は、仮想物体生成部102で生成した仮想物体150の画像を、現実画像と重なり合うように合成して、画面に表示出力する。
また、出力装置403内の出力制御部106は、仮想物体150が実在物体151に行なっているアクションに関する情報を仮想物体制御部101から受け取ると、実在物体151のリアクションとして、出力部105を構成する各出力デバイスの駆動を制御する。
図29に示すようなシステム構成例では、図6に示した通信シーケンス中の、制御装置401と出力装置403間の通信動作は、出力装置403内部での情報転送動作に置き換わる。
仮想物体150と実在物体151の間で行なうアクションとリアクションが正確に同期していること、言い換えれば、表示部103で表示する仮想物体150の動作と、出力装置202側の出力部105の駆動とが正確に同期していることが、インタラクションがリアルに行なわれている印象をユーザーに与える上で重要である。逆に、アクションに対してリアクションの遅延時間が長過ぎるなど、うまく同期がとれていないと、インタラクションが不自然であるという印象をユーザーに与えてしまう。仮想物体150を常時動作させていると、ユーザーにはリアルタイムでリアクションをとっているように映り易くなる。
なお、仮想物体150は、図2、図4、図5、図29に示したように画像として出現する以外に、仮想物体150が話す言葉など音声が画像に伴う場合や、画像は表示されず、所定の方位から発される音声のみが出現する場合など、仮想物体150の出現形態はさまざまである。また、仮想物体150は、ユーザーがジェスチャーやその他の入力操作などにより出現を要求したことに応じて出現するプル(PULL)型の出現の他に、ユーザーの意図とは関係なく、システム側で所定のイベントが発生したことにより出現するプッシュ(PUSH)型の出現方法が想定される。
図2に示した表示装置201や、図4、図5、図29に示した表示装置402は、ユーザーの頭部又は顔部に装着して用いる画像表示装置(ヘッド・マウント・ディスプレイ)として構成することができる。
図24Aには、識別情報152が貼設された実在物体151をユーザーがヘッド・マウント・ディスプレイ2401越しに観察している様子を示している。上述したように、ユーザーが実在物体151を見たことに応じて、又は、見付けたことに応じて、実在物体151(又は、識別情報152)に対応付けられた仮想物体150が出現する。図24Bには、出現した仮想物体150を、ユーザーがヘッド・マウント・ディスプレイ2401越しに観察している様子を示している。
上述したように、同じサーバーに複数のユーザー端末が同時にログインして、各ユーザー端末に対応する仮想物体が同じ実在物体の上に同時に出現することも想定される。このような場合、複数のユーザー端末が1台の出力装置403を共用することになる。図24に示した例に当て嵌めると、図25に示すように、それぞれヘッド・マウント・ディスプレイ2501、2502、2503、…を装着した複数のユーザーが同じ実在物体151を眺めているというシーンである。ユーザー毎に異なる仮想物体150A、150B、150C、…が実在物体151(又は、識別情報152)に対応付けられ、各ユーザーはそれぞれ自分のヘッド・マウント・ディスプレイ2501、2502、2503、…越しに自分及び他ユーザーの仮想物体150A、150B、150C、…を観察することができる。また、各仮想物体150A、150B、150C、…はそれぞれ実在物体151とインタラクションを行なうとともに、仮想物体150A、150B、150C、…同士でインタラクションを行なうこともある。
勿論、ヘッド・マウント・ディスプレイ2501、2502、2503、…越しに同じ実在物体151を眺める各ユーザーが、それぞれ自分の仮想物体しか表示されない(すなわち、ユーザー毎の仮想物体は同時に出現するが、他ユーザーの仮想物体は見えない)、という実施形態も考えられる。この場合、仮想物体毎に実在物体151とのインタラクションは行なうが、仮想物体同士でのインタラクションは行なわない。
図7には、本明細書で開示する技術の一実施形態に係る画像表示装置700の外観構成を示している。画像表示装置700は、ユーザーが頭部又は顔部に装着して用いられるヘッド・マウント・ディスプレイであり、左右の眼毎に画像を表示する。図示の画像表示装置700は、透過性すなわちシースルーのタイプであり、画像を表示している間も、ユーザーは、画像越しに現実世界の風景を眺める(すなわち、シースルーする)ことができる。したがって、仮想物体150を始めとするAR(Augmented Reality:拡張現実感)画像を現実世界の風景に重ね合わせて見せることができる。また、表示画像は、外側(すなわち他人)からは見えないので、情報表示に際してプライバシーが守られ易い。この画像表示装置700は、図2に示した表示装置201や、図4、図5、図29に示した表示装置402として活用することができる。
図示の画像表示装置700は、視力矯正用の眼鏡に類似した構造からなる。画像表示装置700本体のユーザーの左右の眼に対向する位置には、透明な導光部などからなる虚像光学部701L、701Rが配設され、各虚像光学部701L、701Rの内側には、ユーザーが観察する画像(図示しない)が表示される。各虚像光学部701L、701Rは、例えば、眼鏡フレームに類似した形状の支持体702によって支持されている。
眼鏡フレーム状の支持体702のほぼ中央には、周囲画像(ユーザーの視界)入力用の外側カメラ712が設置されている。外側カメラ712は、例えばユーザーの視線方向の風景を撮影することができる。視差情報を利用して、周囲画像の3次元情報を取得できるように、外側カメラ712を複数台のカメラで構成することができる。また、1台のカメラでも、SLAM(Simultaneous Locallization and Mapping)画像認識を用いて、カメラを移動させながら撮影を行ない、時間的に前後する複数のフレーム画像を用いて視差情報を算出し(例えば、特許文献5を参照のこと)、算出した視差情報から周囲画像の3次元情報を取得することもできる。本実施形態では、例えば、仮想物体150を目線で追うユーザーの視界を外側カメラ712で撮影する。画像表示装置700の基本的動作として、外側カメラ712で実在物体151を捕捉すると、これに対応する仮想物体150が各虚像光学部701L、701Rの少なくとも一方に表示される。
また、支持体702の左右の両端付近にそれぞれマイクロフォン703L、703Rが設置されている。左右ほぼ対称的にマイクロフォン703L、703Rを持つことで、中央に定位した音声(ユーザーの声)だけを認識して、周囲の雑音や他人の話声と分離することができる。例えば、マイクロフォン703L、703Rからの音声入力による操作を行なうときに、ユーザー以外の声を拾う誤動作を防止することができる。
図8には、ユーザーが装着した状態の画像表示装置700を上方から眺めた様子を示している。図示のように、画像表示装置700の左右両端には、左眼用及び右眼用の画像をそれぞれ表示出力する表示パネル704L、704Rが配設されている。各表示パネル704L、704Rは、液晶ディスプレイ又は有機EL素子などのマイクロ・ディスプレイや、網膜直描ディスプレイなどのレーザー走査方式のディスプレイからなる。表示パネル704L、704Rから出力される左右の表示画像は、虚像光学部701L、701Rによって左右それぞれの眼付近まで導光され、その拡大虚像がユーザーの瞳に結像される。詳細な図示を省略するが、虚像光学部701L、701Rはそれぞれ、マイクロ・ディスプレイからの照射光を集光する光学系と、光学系の通過光を入射する位置に配設された導光板と、導光板への入射光を反射する偏向フィルターと、導光板内を全反射して伝播された光をユーザーの眼に向かって出射させる偏向フィルターを備えている。
本実施形態では、AR画像の1つとして仮想物体150をシースルー表示するのに、表示パネル704L、704Rが用いられる。なお、ユーザーの頭部又は顔部に装着して用いられる画像表示装置700は、シースルーではなく、ビデオシースルーにより仮想物体150を表示するようにしてもよい。
図9には、画像表示装置700の内部構成例を示している。以下、各部について説明する。
制御部901は、ROM(Read Only Memory)901AやRAM(Random Access Memory)901Bを備えている。ROM901A内には、制御部901で実行するプログラム・コードや各種データを格納している。制御部901は、RAM901Bへロードしたプログラムを実行することで、画像の表示制御を始め、画像表示装置700全体の動作を統括的にコントロールする。
ROM901Aに格納するプログラムやデータとして、画像の表示制御プログラムや、仮想物体150を生成し又は表示制御するための制御プログラム、仮想物体150が現実空間上で行なうアクションを検出する(例えば、仮想物体150が物理操作を行なっている実在物体151を特定し、実在物体151に対し行なっている行為を検出する)検出プログラム、インターネット上のサーバー(図示しない)など外部機器との通信処理プログラム)、実在物体151毎に対応する仮想物体150のライブラリー、当該装置700に固有の識別情報152などを挙げることができる。但し、仮想物体150のライブラリーは、画像表示装置700がローカルに保持せず、インターネット上のサーバー(図示しない)から逐次取得するようにしてもよい。
入力操作部902は、キーやボタン、スイッチなど、ユーザーが入力操作を行なう1以上の操作子を備え、操作子を介したユーザーの指示を受け付けて、制御部901に出力する。また、入力操作部902は、リモコン受信部903で受信したリモコン・コマンドからなるユーザーの指示を同様に受け付けて、制御部901に出力する。
本実施形態では、仮想物体150の表示の出現や消滅、仮想物体150に対する操作を、ユーザーが入力操作部902を介して行なうこともある。
状態情報取得部904は、当該画像処理装置700本体、又は当該装置700を装着したユーザーの状態情報を取得する機能モジュールである。状態情報取得部904は、自ら状態情報を検出するための各種センサーを装備していてもよいし、これらのセンサー類の一部又は全部を備えた外部機器(例えば、ユーザーが身に付けているスマートフォンや腕時計、その他の多機能端末)から通信部905(後述)を介して状態情報を取得するようにしてもよい。
状態情報取得部904は、ユーザーの頭部動作を追跡するために、例えばユーザーの頭部の位置及び姿勢の情報又は姿勢の情報を取得する。ユーザーの頭部動作を追跡するために、状態情報取得部904は、例えば3軸ジャイロ・センサー、3軸加速度センサー、3軸地磁気センサーの合計9軸を検出可能なセンサーとする。また、状態情報取得部304は、GPS(Global Positioning System)センサー、ドップラー・センサー、赤外線センサー、電波強度センサーなどのいずれか1つ又は2以上のセンサーをさらに組み合わせて用いてもよい。また、状態情報取得部904は、位置姿勢情報の取得に、携帯電話基地局情報やPlaceEngine(登録商標)情報(無線LANアクセスポイントからの電測情報)など、各種インフラストラクチャーから提供される情報をさらに組み合わせて用いるようにしてもよい。図9に示す例では、頭部動作追跡のための状態取得部904は、画像表示装置700としてのヘッド・マウント・ディスプレイに内蔵されるが、ヘッド・マウント・ディスプレイに外付けされるアクセサリー部品などで構成するようにしてもよい。後者の場合、外付け接続される状態取得部904は、頭部の姿勢情報を例えば回転マトリックスの形式で表現し、Bluetooth(登録商標)通信などの無線通信やUSB(Universal Serial Bus)のような高速な有線インフェース経由でヘッド・マウント・ディスプレイ本体に送信する。
また、状態情報取得部904は、上述したユーザーの頭部動作の追跡の他に、当該画像表示装置700を装着したユーザーの状態情報として、例えば、ユーザーの作業状態(画像表示装置700の装着の有無)や、ユーザーの行動状態(静止、歩行、走行などの移動状態、瞼の開閉状態、視線方向、瞳孔の大小、仮想物体150に対して行なうアクション又はリアクションなどの物理操作)、精神状態(ユーザーが表示画像を観察中に没頭若しくは集中しているかなどの感動度、興奮度、覚醒度、感情や情動など)、さらには生理状態を取得する。また、状態情報取得部904は、これらの状態情報をユーザーから取得するために、機械スイッチなどからなる装着センサーや、ユーザーの顔を撮影する内側カメラ、ジャイロ・センサー、加速度センサー、速度センサー、圧力センサー、体温又は気温を検知する温度センサー、発汗センサー、筋電位センサー、眼電位センサー、脳波センサー、呼気センサー、ガス・イオン濃度センサーなどの各種の状態センサー、タイマー(いずれも図示しない)を備えていてもよい。
本実施形態では、状態情報取得部904が取得した状態又は状態の変化に基づいて、仮想物体150の表示の出現や消滅、仮想物体150の動作、実在物体151の仮想物体150に対する操作を制御することもある。
環境情報取得部916は、当該画像処理装置700本体、又は当該装置700を装着したユーザーを取り巻く1以上の環境因子に関する情報を取得する機能モジュールである。ここで言う環境因子として、当該装置700又はユーザーが浴びる電磁波(紫外線、ブルーライト、電波)、熱線(赤外線)、放射線、大気中を漂う有害化学物質、騒音、マイナスイオンなどである。
環境情報取得部916は、このような環境因子を検出するための各種センサーを装備していてもよい。あるいは、環境情報取得部916は、これらのセンサー類の一部又は全部を備えた外部機器(例えば、ユーザーが身に付けているスマートフォンや腕時計、その他の多機能端末)や、環境情報を収集するサーバーから通信部905(後述)を介して環境因子に関する情報を取得するようにしてもよい。
本実施形態では、環境情報取得部916が取得した環境又は環境の変化に基づいて、仮想物体150の表示の出現や消滅、仮想物体150の動作、実在物体151の仮想物体150に対する操作を制御することもある。
外側カメラ912は、例えば画像表示装置700本体前面のほぼ中央に配置され(図7中の外側カメラ712を参照のこと)、周囲画像を撮影することができる。また、状態情報取得部904で検出したユーザーの視線方向に合わせて外側カメラ912のパン、チルト、ロール方向の姿勢制御を行なうことで、外側カメラ912でユーザーの自分目線の画像すなわちユーザーの視線方向の画像を撮影することができる。視差情報を利用して、周囲画像の3次元情報を取得できるように、外側カメラ912を複数台のカメラで構成することができる。また、1台のカメラでも、SLAM(Simultaneous Locallization and Mapping)画像認識を用いて、カメラを移動させながら撮影を行ない、時間的に前後する複数のフレーム画像を用いて視差情報を算出し(例えば、特許文献5を参照のこと)、算出した視差情報から周囲画像の3次元情報を取得することもできる。ユーザーは、入力操作部902の操作、内部カメラで認識される瞳孔の大小や音声入力を通じて、外側カメラ912のズームを調整することができるものとする。外側カメラ912の撮影画像を、表示部909に表示出力することができ、また、記憶部906に格納することもできる。
仮想物体150を目線で追うユーザーの視界を外側カメラ912で捕捉することができる。したがって、本実施形態では、外側カメラ912を上記の検出部104として活用することもできる。例えば、実在物体151に貼り付けられたバーコードなどの識別情報152を外側カメラ912の撮影画像から読み取る、あるいは、外側カメラ912の撮影画像から物体認識することによって、実在物体151を特定することができる。
通信部905は、他の画像表示装置や多機能端末、インターネット上のサーバー(図示しない)などの外部機器との通信処理、並びに通信信号の変復調並びに符号化復号処理を行なう。また、制御部901は、外部機器への送信データを通信部905から送出する。通信部905の構成は任意である。例えば、通信相手となる外部機器との送受信動作に使用する通信方式に応じて、通信部905を構成することができる。通信方式は、有線、無線のいずれの形態であってもよい。ここで言う通信規格として、MHL(Mobile High−definition Link)やUSB(Universal Serial Bus)、HDMI(登録商標)(High Definition Multimedia Interface)、Wi−Fi(登録商標)、Bluetooth(登録商標)通信やBLE(Bluetooth(登録商標) Low Energy)通信、ANTなどの超低消費電力無線通信、IEEE802.11sなどで規格化されたメッシュ・ネットワーク、赤外線通信、人体通信、導電性繊維を介した信号伝送などを挙げることができる。
あるいは、通信部905は、例えばW−CDMA(Wideband Code Division Multiple Access)、LTE(Long Term Evolution)などの標準規格に従って動作する、セルラー無線送受信機であってもよい。
本実施形態では、画像表示装置700内部で生成した仮想物体150の情報、取得した状態情報や環境情報を、通信部905を介して外部の装置に送信することがある。あるいは、外部のサーバーなどで生成された、仮想物体150の表示を制御するための情報(ライブラリーなど)を、通信部905を介して受信することもある。
記憶部906は、SSD(Solid State Drive)などで構成される大容量記憶装置である。記憶部906は、制御部901で実行するアプリケーション・プログラムや各種データを記憶している。例えば、制御部901で表示制御している仮想物体150の情報(ライブラリーなど)や、表示部909に表示した仮想物体150の表示画像を、記憶部906内に記憶するようにしてもよい。
画像処理部907は、制御部901から出力される画像信号に対して画質補正などの信号処理をさらに行なうとともに、表示部909の画面に合わせた解像度に変換する。そして、表示駆動部908は、表示部909の画素を行毎に順次選択するとともに線順次走査して、信号処理された画像信号に基づく画素信号を供給する。
表示部909は、例えば有機EL(Electro−Luminescence)素子や液晶ディスプレイなどのマイクロ・ディスプレイ、あるいは、網膜直描ディスプレイなどのレーザー走査方式ディスプレイで構成される表示パネルを有する。虚像光学部910は、表示部909の表示画像を拡大投影して、ユーザーには拡大虚像として観察させる。本実施形態では、虚像光学部910を通じて、仮想物体150やその他のAR画像をユーザーに観察させるようになっている。
外側表示部915は、表示画面が画像表示装置700の外側(装着したユーザーの顔とは反対の方向)に向けられており、表示部909と同じ画像又は異なる画像を、周囲にいる他のユーザーに表示することができる。例えば、表示部909に表示している仮想物体150の画像を外側表示部915でも表示すると、周囲にいる他ユーザーとの間で仮想現実感を共有することができる。なお、外側表示部915の詳細な構成については、例えば本出願人に既に譲渡されている特願2012−200902号明細書、特願2012−200903号明細書を参照されたい。
音声処理部913は、制御部901から出力される音声信号に対して音質補正や音声増幅、入力された音声信号などの信号処理をさらに行なう。そして、音声入出力部914は、音声処理後の音声を外部出力、並びにマイクロフォン(前述)からの音声入力を行なう。本実施形態では、音声入出力部914はバイノーラル音源を出力できるものとする。
上記では、ユーザーが実在物体151を見たことに応じて、又は、見付けたことに応じて、仮想物体150が出現するのが基本動作である、と説明した。表示装置201又は表示装置402がヘッド・マウント・ディスプレイとして構成される場合、外側カメラ912でユーザーの視界を捕捉し、その撮影画像を解析することによって識別情報152を読み取り、又は、物体認識により実在物体151を特定することができ、これに応じて表示部909で仮想物体150が出現する。
なお、図7乃至図9には、ヘッド・マウント・ディスプレイとして実現される表示装置201又は表示装置402の構成例を示したが、本明細書で開示する技術はこれに限定されるものではない。例えば、カメラの撮影画像をスルー表示するスマートフォンやディジタルカメラなどの情報機器(例えば、特許文献6を参照のこと)を用いて、表示装置201又は表示装置402を構成することもできる。
図10には、専用のハードウェア装置として構成される出力装置202又は403の内部構成例を模式的に示している。既に述べたように、出力装置202は、仮想物体150が現実空間で行なったインタラクションを表現するハードウェア装置であり、例えば実在物体151と一体若しくは内蔵される。出力装置202は、仮想物体150のアクションに対するリアクションを行なったり、仮想物体150に対するアクションを行なったりする。
図示の出力装置202は、制御部1001と、通信部1002と、状態検出部1003と、環境検出部1004と、アクチュエーター部1020と、駆動制御部1010を備えている。
制御部1001は、ROM1001AやRAM1001Bを備えている。ROM901A内には、制御部1001で実行するプログラム・コードや各種データを格納している。制御部1001は、RAM1001Bへロードしたプログラムを実行することで、駆動制御部1010を介してアクチュエーター部1020の動作をコントロールする。
ROM1001Aに格納するプログラムとして、仮想物体150が実在物体151に対して行なったアクションに対するリアクションや、実在物体151が仮想物体150に対して行なうアクションなどを表現するための、アクチュエーター部1020の動作を制御する制御プログラムである。また、実在物体151を通じて仮想物体150に行ないたいアクション又はリアクションを表現するためのアクチュエーター部1020の動作パターンなどのデータを、ROM100Aに格納しておいてもよい。
状態検出部1003は、出力装置202を搭載する実在物体151の状態又は状態の変化を検出する。状態検出部1003は、例えばジャイロ・センサー、加速度センサー、速度センサー、圧力センサー、体温又は気温を検知する温度センサー、発汗センサー、筋電位センサー、眼電位センサー、脳波センサー、呼気センサー、ガス・イオン濃度センサーなどの、1以上の状態センサーを備えている。
環境検出部1004は、出力装置202を搭載する実在物体151、あるいは、実在物体151に対して物理操作を行なっている仮想物体150を取り巻く1以上の環境因子又はその変化を検出する。
アクチュエーター部1020は、仮想物体150に対する実在物体151のリアクション又はアクションを出力するための1以上の出力デバイス群からなる。
図11には、アクチュエーター部1020の構成例を模式的に示している。アクチュエーター部1020は、振動デバイス1101、発熱デバイス1102、冷却デバイス1103、ファンなどの送風デバイス1104、スピーカーなどの音響デバイス1105、発光デバイス1106、車輪などの移動デバイス1107、パルス発生デバイス1108のうち少なくとも一部の出力デバイスを備えている。制御部1001は、駆動制御部1010を通じて、これらの出力デバイス1101〜1108の動作を制御することができる。そして、アクチュエーター部1020は、仮想物体150に対するリアクション又はアクションとして、仮想物体150がアクションを行なう対象となっている実在物体151に対して、振動や、発熱又は冷却、風、音、発光、移動、跳躍などの出力を生じさせることができる。アクチュエーター部1020が装備する出力デバイスの種類が多く、且つ、複数の出力デバイスを組み合わせて動作させると、より多様なインタラクションを提示することができる。
制御部1001は、通信部1002を介して、表示装置201、402などから、仮想物体150が現実空間で行なうアクション(例えば、実在物体151に対して行なう物理操作)の検出結果を受信すると、そのアクションに対するリアクションを計算して、駆動制御部1010を介してアクチュエーター部1020の動作をコントロールする。あるいは、制御部1001は、通信部1002を介して、表示装置201、402などからリアクションの計算結果を受信すると、これに従ってアクチュエーター部1020の動作を制御する。
また、制御部1001は、通信部1002を介して、表示装置201、402などから、ユーザーの状態や状態の変化に関する情報、又は、表示装置201、402やユーザーを取り巻く環境や環境の変化に関する情報を受信すると、状態や状態の変化、又は、環境や環境の変化に対応した実在物体151のリアクション又はアクションを計算して、駆動制御部1010を介してアクチュエーター部1020の動作をコントロールする。あるいは、制御部1001は、通信部1002を介して、表示装置201、402などから状態や環境に応じたリアクション又はアクションの計算結果を受信すると、これに従ってアクチュエーター部1020の動作を制御する。
なお、ここで言うユーザーの状態には、ユーザー自身が仮想物体150に対して行なうアクション又はリアクションなどの物理操作が含まれる。
また、制御部1001は、状態検出部1003で検出された実在物体151の状態又は状態の変化や、状態検出部1004で検出された仮想物体150を取り巻く環境因子又はその変化に応じたリアクション又はアクションを計算し、これに従ってアクチュエーター部1020の動作を制御する。
制御部1001は、アクチュエーター部1020を用いて実施した実在物体151のアクション又はリアクションを、通信部1002を介して表示装置201、402などにフィードバックするようにしてもよい。
出力装置202、若しくは出力装置202を搭載する実在物体151の形状やサイズは任意である(以下では、出力装置202と、出力装置202を搭載する実在物体151を、統一して「出力装置202」と呼ぶことにする)。
例えば、アバターのような人の形をした仮想物体150が歩いて乗り上がる、上で足踏みをするといった物理操作を行なうことを想定すると、図12Aに示すように座布団のような平板状の出力装置202や、図12Bに示すような円盤状の出力装置202が考えられる。
また、アクションを行ない又はリアクションを受ける仮想物体150のサイズに応じて、出力装置202の適正なサイズも異なる。例えば、仮想物体150が手のひらサイズの場合には、図12Cに示すように、出力装置202も手のひらサイズであってもよい。
図12A〜図12Cの各図に例示した出力装置202において、上面は物理操作(仮想物体150が行なうアクション、並びに、出力装置202が仮想物体150に対して行なうリアクション)を行なう操作面1201であり、仮想物体150は、操作面1201上に乗って、歩く、走る、ジャンプする、楽器を演奏するなど、さまざまな活動を行なう。
なお、図12A〜図12Cに示す例では、1つの出力装置202(実在物体151)上に、単一の仮想物体150しか出現していないが、図25にも示したように2以上の仮想物体が同時に出現して共存するというシーンも想定される。例えば、複数の仮想物体のうち1つは、ユーザー本人のアバターや、ユーザーがプレイしているゲームのキャラクターであり、それ以外の仮想物体は、その他のユーザーのアバターやゲームのキャラクターである。
図1、図2、図4、図5の各々に示したシステム構成では、実在物体151は、出力部105を搭載し、又は、出力部105と一体となっており、実在物体151上に出現した仮想物体150のアクションに対してリアクションしたり、あるいは仮想物体150に対してアクションを行なったりすることができる。しかしながら、最も簡素なシステム構成は、実在物体151は出力部105を備えず、単に識別情報152が配設され又は物体認識が可能な物体であり、仮想物体150が出現するステージでしかなく、インタラクションは行なわない。
あるいは、実在物体151は、図26に示すように室内などで識別情報152が配設された領域2601や、画像認識などにより特定することが可能な場所であってもよい。ユーザーがヘッド・マウント・ディスプレイ2602越しに識別情報152を眺めると、領域2601内に重なるように仮想物体150が表示される。識別情報152が配設された場所は、仮想物体150を呼び出すためのアンカーに過ぎず、仮想物体150に対して物理操作は行なわない(仮想物体150とのインタラクションは行なわない)。
また、ユーザーの手のひらや右肩など、ユーザーの身体の一部であってもよい。図27に示すように、ヘッド・マウント・ディスプレイ2701を頭部に装着したユーザーが右を向き、右肩を見つめる。ユーザーが右を向いたことは、例えば外側カメラ912の撮影画像の認識処理や、ジャイロ・センサーなどセンサー出力に基づいて検出することができる。そして、ヘッド・マウント・ディスプレイ2701は、ユーザーの右肩の上に直接載るように、仮想物体150を表示する。ユーザーが仮想物体150を表示させたいときに(あるいは、仮想物体150と対話したいとき)、右を向くという出現の仕方は、PULL型(前述)に相当する。
例えば、バイノーラル音源などを利用して、ユーザーの右肩付近から仮想物体150が話しかける音声を発生させる。そして、ユーザーが右側を振り向くと、これに応答して、仮想物体150を表示し始める。右肩などいつも決まった方向から仮想物体150が話しかけてくるのが、自然なインタラクションである。仮想物体150が出現したくなったときに、自律的にユーザーに話しかけるという出現の仕方は、PUSH型(前述)に分類される。また、ユーザーが右肩から眼をそらし、右肩に載っている仮想物体150が視界から外れると、仮想物体150の表示を消滅させる。
なお、ユーザーが右肩を見たことを検出するには、ユーザーが胴体ごと姿勢を変えて右側を向いたのか、胴体の姿勢は一定のままで頭部だけを動かしたのかを判別する必要がある。
あるいは、図28に示すように、ヘッド・マウント・ディスプレイ2801を頭部に装着したユーザーが自分の手のひら2802を見つめたことを検出すると、ヘッド・マウント・ディスプレイ2801は、ユーザーの手のひら2802の上に直接載るように、仮想物体150を表示する。その際、ユーザーが見つめたのがユーザー本人の手のひらかどうかは、例えば外側カメラ912で撮影した指紋の認証処理などにより確認するようにしてもよい。あるいは、ユーザー本人の手のひらかどうかといった個人認証ではなく、右手か左手かを判別して、右手であれば仮想物体150を表示する、特定の姿勢をした手のひらを発見して仮想物体150を表示する、というアバウトな方法であってもよい。機械学習により手のひらを判別することができる。また、ユーザーが手のひらを引っ込める、あるいは手を握ることによって、仮想物体150の表示を消滅させるようにしてもよい。
図27や図28に示したように、右肩や手のひらなど、実在物体151が人体の一部で構成される場合、アクチュエーター部1020のようなハードウェア・デバイスの駆動ではなく、右肩を上げ下げする、右肩を震わせる、手のひらを上げ下げする、手を結ぶ、といった人的作業によって、仮想物体150に対するアクションを行なうことができる。外側カメラ912の撮影画像などに基づいて、ユーザーが仮想物体150に対して行なったアクションは、例えば外側カメラ912の撮影画像などに基づいて検出することができる。仮想物体制御部101は、検出された仮想物体150へのアクションに対応して、右肩や手のひら上でステップする、ジャンプする、転げ落ちるなど、仮想物体150のリアクション動作を制御するようにすればよい。
続いて、出力装置202を用いて仮想物体150に対して行なうリアクション又はアクションの動作について説明する。
振動デバイス1101は、圧電素子のように、電気信号を力や機械的な歪みに変換する1以上のデバイスの組み合わせで構成される。図13に示す例では、出力装置202の操作面1201を、3以上の圧電素子1301、1302、1303で支持するように配置している。そして、図14に示すように、各圧電素子1301、1302、1303のストロークを異ならせるように動作することで、図15に示すように、操作面1201で自由空間を表現することができる。
図15に示すような動作は、操作面1201上に載っている仮想物体150に対し、床が傾く、というアクションを与えることができる。これに対し、例えば歩行型の仮想物体150は、前傾する、足の接地位置を変える、ジャンプするなどの動作をさせなければ、操作面1201から転げ落ちてしまう。
検出部104は、外側カメラ912の撮像画像の認識結果などに基づいて、実在物体151の操作面120が傾くという、出力装置202(実在物体151)の仮想物体150に対するアクションを検出する。あるいは、検出部104は、操作面120を傾けるようにアクチュエーター部1020を動作させたという通知を、出力制御部106から受け取る。そして、検出部104は、出力装置202が仮想物体150に対して行なったアクションを、仮想物体制御部101に通知する。これに対し、仮想物体制御部101は、床から転げ落ちないように移動したり姿勢を変化させたりする、あるいは、姿勢を変えるなど何ら行なわずに床から転げ落ちてしまうなど、仮想物体150のリアクションを制御する。そして、表示部103は、リアクションをとる仮想物体150を表示する。
図12Cに示したように、手のひらなどユーザーの身体に付けるタイプの出力装置202の場合、アクチュエーター部1020の動作は、仮想物体150に対するアクションだけでなく、ユーザーへの触感フィードバックにもなる。
例えば、図16に示すように、ユーザーの手のひらに置いた出力装置202(実在物体151)上で、アバターのような仮想物体150が足踏みをすると、振動デバイス1101が振動して、足踏みしている触覚1601を出力装置202(実在物体151)の下面から手のひらに伝える。それと同時に、音響デバイス1105が足踏み音(「ドン、ドン」などの擬音)1602を発生して、臨場感を高めるようにしてもよい。また、発熱デバイス1106が熱を発生して、仮想物体150から物理操作を受けていることを温度で表現するようにしてもよい。また、仮想物体150の足踏みを続けるなど、常時動作させる仮想物体150を表示すると、仮想物体150が遅延なくインタラクションを行なっているような印象を与えることができる。
また、図17に示すように、仮想物体150が出力装置202(実在物体151)上を駆け抜けるときには、上記の振動デバイス1101の振動1701や音響デバイス1105によるより大きな足踏み音1702を発生するとともに、送風デバイス1104が疾風1703を発生したり、発熱デバイス1102が熱を発生したり、発光デバイス1106が閃光1704を発したりして、仮想物体150が現実に通り過ぎる演出を行なうようにしてもよい。また、仮想物体150の足踏みを続けるなど、常時動作させる仮想物体150を表示すると、仮想物体150が遅延なくインタラクションを行なっているような印象を与えることができる。
また、出力装置202は、発熱デバイス1102と冷却デバイス1103を用い、仮想物体150の精神状態を温度でユーザーの手のひらに伝えることができる。例えば、仮想物体150が興奮しているとき(若しくは激怒しているとき)には、発熱デバイス1102が熱を発して、その熱気1801で仮想物体150の興奮状態を、手のひらからユーザーに伝えることができる(図18を参照のこと)。また、仮想物体150が怯えているとき(若しくは冷静なとき)には、冷却デバイス1103がユーザーの手のひらを冷却して、その冷気1901で仮想物体150が冷めた(凍えた)状態を、手のひらからユーザーに伝えることができる(図19を参照のこと)。
また、出力装置202は、音響デバイス1105を用いて、仮想物体150が行なうアクションやリアクションに効果音などを付加して、臨場感を与えることができる。例えば、仮想物体150がバイオリン2000などの楽器を演奏しているときには、他の楽器2001、2002、…の音を音響デバイス1105から発声して、演奏の効果を上げることができる(図20を参照のこと)。また、状態情報取得部904などで、仮想物体150の演奏にユーザーが感銘を受けたタイミングに同期して、拍手喝采2010の音を音響デバイス1105から発することで、雰囲気をさらに盛り上げることができる。
図10並びに図11には、複数の出力デバイス1101、1102、…を装備したハイスペックな出力装置202の構成例を示した。アクチュエーター部1020が多種類の出力デバイスを装備していれば、図16乃至図20を参照しても分かるように、仮想物体150の現実空間でのアクションやリアクションをより多様に表現することができる。但し、限られた出力デバイスしか装備していない情報端末で出力装置202を代用することもできる。例えば、偏心モーターなどのバイブレーター機能を装備したスマートフォンなどの平型で手のひらサイズの情報処理装置(例えば、特許文献7を参照のこと)を、本実施形態に係る出力装置202として代用することもできる。
仮想物体150は、出力装置403が行なうアクションやリアクションと同期して動作しなければ、不自然な動作になる。表示装置402がヘッド・マウント・ディスプレイとして構成される場合には、ユーザーが首振り動作したときには、ジャイロ・センサーなどで検出した頭部の動きを打ち消すように、仮想物体150の表示領域を移動させることで、ユーザーの頭部の動きに追従した仮想物体150を提示することができる。
図21に示すように、ユーザーが右に振り向き、ヘッド・マウント・ディスプレイ2101越しに見える視界が右側に移動するのに伴って、仮想物体150の表示領域をその逆の左側に移動させると、仮想物体150が出現場所である実在物体151の上に留まっているので、ユーザーには仮想物体150が現実空間に存在しているかのように映る。これに対し、図22に示すように、ユーザーの頭部の動きすなわち視界の移動に仮想物体150の表示領域を追従させないと(すなわち、仮想物体150を元の実在物体151の場所まで戻さないと)、仮想物体150はヘッド・マウント・ディスプレイ2101の表示画像としての印象が強く、現実空間に存在しているようには映らない。
ここで、ユーザーの頭部の動きを打ち消すように仮想物体150の表示領域を移動させるという画像修整をかけたとしても、レイテンシーの問題がある。レイテンシーのために、ユーザーの頭部の動きと仮想物体150の表示領域の変化が同期をとることができなければ、不自然な表示になってしまう。例えば、外側カメラ912の撮影画像の画像認識により、ヘッド・マウント・ディスプレイを装着したユーザーの頭部の動きを検出しようとすると、時間遅れてしか正しい値が分からない。付言すれば、図4、図5、図29に示したように、仮想物体150を制御する制御装置401と、仮想物体150を表示する表示装置402が、物理的に独立した装置で構成される場合には、通信処理による遅延も生じるため、レイテンシーの問題はより深刻になる。
図23には、ユーザーの頭部の動きに対して、仮想物体150の画像の動きが遅延している様子を示している。同図中、ユーザーの頭部の実際の動きを実線2301で示し、カメラの撮影画像から認識される頭部の動きの検出量を一点鎖線2302で示している。図示のように、画像認識による動き検出では、時間遅れでしか正しい値が分からない。
ユーザーの頭部の動き自体は、ジャイロ・センサー(前述)などのセンサーにより検出することができる。図23中で、ジャイロ・センサーなどのセンサーによる頭部の動きの検出量を点線2303で示している。
そこで、仮想物体生成部102又は仮想物体制御部101が行なう処理として、ジャイロ・センサーなどのセンサーにより検出されるユーザーの頭部の動きを打ち消すように、仮想物体150の表示領域を移動させるという画像修整をかける。
但し、ジャイロ・センサーは相対センサーなので、単位時間当たりのユーザーの頭部の動きを検出することはできるが、絶対座標が分からず、やがてずれていくことが懸念される。この対策として、ずれ量に対しては、参照番号2302で示される画像認識の結果を利用して、正しい値に合わせ込むという処理を並行して行なうようにすればよい。具体的には、ジャイロ・センサーによる頭部の動きの検出量が画像認識による検出量との差分がゼロになるようにサーボをかけ、ある時間で差分がゼロに収束するか(画像を参照して、絶対座標に吸着させる)、あるいは頭部が止まっているときに差分がゼロになるように合わせ込むようにする。あるいは、ジャイロ・センサーの検出量を微分制御(微分信号を重畳するという、微分制御のフィードフォワード的使用などの動き予測)であっても、一定の効果がある。
また、実在物体151のアクションに対して、仮想物体150がリアクションをとる場合も、同様に、レイテンシーの問題がある。例えば、仮想物体150が載っている実在物体151が傾くのに対し(図15を参照のこと)、仮想物体150が、前傾する、足の接地位置を変える、ジャンプする、あるいは転げ落ちるというリアクションをとる場合、実在物体151の動きに対し、仮想物体150がリアクションをとるまでの遅延時間が大き過ぎると、仮想物体150の動作がリアクションには見えず、不自然な画像になってしまう。実在物体151をカメラで撮影して画像認識によりその動きを検出しようとすると、時間遅れでしか正しい値が分からない。勿論、表示装置402内の検出部104がカメラの撮影画像などから実在物体151のアクションを検出し、制御装置401でそのアクションに対応する仮想物体150のアクションを生成して、表示装置402で表示を行なう場合、各装置401、402での演算処理と装置401、402間の通信処理による遅延が生じる。
そこで、仮想物体生成部102又は仮想物体制御部101が行なう処理として、出陸装置403が状態検出部415として備えるジャイロ・センサー(前述)により検出される、実在物体151の位置又は姿勢の変化に対応した仮想物体150の動作を制御するようにすればよい。例えば、仮想物体150が、前傾する、足の接地位置を変える、ジャンプする、あるいは転げ落ちるというリアクションをとらせる。
但し、ジャイロ・センサーは相対センサーなので、単位時間当たりのユーザーの頭部の動きを検出することはできるが、絶対座標が分からないので、画像情報とのすり合わせを行なうようにする(同上)。
特開2010−49690号公報 特開2005−12385号公報 特開2005−165776号公報 特開2006−262980号公報 特開2008−304268号公報 特開2012−248930号公報 特開2012−155655号公報
以上、特定の実施形態を参照しながら、本明細書で開示する技術について詳細に説明してきた。しかしながら、本明細書で開示する技術の要旨を逸脱しない範囲で当業者が該実施形態の修正や代用を成し得ることは自明である。
本明細書で開示する技術は、仮想物体と現実空間とのインタラクションを提示する技術に関するものであり、本明細書では当該技術を実現するシステム構成として、図2、図4、図5、図29を例示したが、実現形態はこれらに限定されない。
また、本明細書では、ユーザーに仮想物体を提示する表示装置として、ヘッド・マウント・ディスプレイを挙げたが、本明細書で開示する技術はこれに限定されるものではない。スマートフォンやタブレット端末、ゲーム・コントローラーなど、表示画面を持つさまざまな情報端末を表示装置に用いることができる。
また、本明細書では、仮想物体が出現する実在物体として、図12、図26、図27、図28を挙げたが、本明細書で開示する技術はこれらに限定されるものではない。
要するに、例示という形態により本明細書で開示する技術について説明してきたのであり、本明細書の記載内容を限定的に解釈するべきではない。本明細書で開示する技術の要旨を判断するためには、特許請求の範囲を参酌すべきである。
なお、本明細書の開示の技術は、以下のような構成をとることも可能である。
(1)実在物体に動作を加える出力部と、
仮想物体が前記実在物体に対して行なった動作、又は、前記実在物体が前記仮想物体に対して行なう動作に応じて、前記出力部からの出力を制御する制御部と、
を具備する情報処理装置。
(2)前記情報処理装置を識別するための識別情報をさらに備える、
上記(1)に記載の情報処理装置。
(3)前記仮想物体が前記実在物体に対して行なう動作の検出結果を受信する受信部をさらに備え、
前記制御部は、受信した前記検出結果に従って、前記出力部からの出力を制御する、
上記(1)に記載の情報処理装置。
(4)前記仮想物体の動作を制御する仮想物体制御部をさらに備え、
前記制御部は、前記仮想物体制御部により制御される前記仮想物体の動作に応じて、前記出力部からの出力を制御する、
上記(1)に記載の情報処理装置。
(5)前記仮想物体制御部は、前記仮想物体の出現と消滅を制御する、
上記(4)に記載の情報処理装置。
(6)前記出力部は、前記実在物体の中に組み込まれた、振動デバイス、パルス発生デバイス、発熱デバイス、冷却デバイス、送風デバイス、音響デバイス、発光デバイス、移動デバイスのうち少なくとも1つの出力デバイスを備える、
上記(1)に記載の情報処理装置。
(7)前記制御部は、表示装置が表示する前記仮想物体の動作と同期して、前記出力部からの出力を制御する、
上記(1)に記載の情報処理装置。
(8)仮想物体が前記実在物体に対して行なった動作、又は、前記実在物体が前記仮想物体に対して行なう動作を取得するステップと、
前記仮想物体が前記実在物体に対して行なった動作、又は、前記実在物体が前記仮想物体に対して行なう動作に応じて、前記実在物体に動作を加えるステップと、
を有する情報処理方法。
(9)特定の実在物体を検出する検出部と、
前記特定の実在物体を検出したことに応じて、仮想物体を表示する表示部と、
を具備する表示装置。
(10)前記検出部は、前記実在物体を識別し、
前記表示部は、識別した前記実在物体に対応した前記仮想物体を表示する、
上記(9)に記載の表示装置。
(11)前記検出部は、前記実在物体が備える識別情報に基づいて前記実在物体を識別し、又は、物体認識により前記実在物体を識別する、
上記(9)に記載の表示装置。
(12)前記検出部は、ユーザーの視界内から前記実在物体を検出し、
前記表示部は、前記実在物体に重ね合わせて前記仮想物体を表示する、
上記(9)に記載の表示装置。
(13)前記仮想物体の動作を制御する仮想物体制御部をさらに備える、
上記(9)に記載の表示装置。
(14)前記仮想物体制御部は、前記仮想物体の出現と消滅を制御する、
上記(13)に記載の表示装置。
(15)前記仮想物体制御部は、ユーザーの行動に応じて前記仮想物体の出現又は消滅を制御する、
上記(13)に記載の表示装置。
(16)前記仮想物体制御部は、ユーザーの行動又は状況、時間帯に応じて、前記表示部が表示する前記仮想物体の情報量を制御する、
上記(13)に記載の表示装置。
(17)前記仮想物体制御部は、前記仮想物体の前記実在物体に対する動作を制御する、
上記(13)に記載の表示装置。
(18)前記仮想物体制御部は、前記仮想物体が前記実在物体から受ける動作に応じて、前記仮想物体の動作を制御する、
上記(13)に記載の表示装置。
(19)前記検出部は、前記仮想物体の前記実在物体に対する動作、又は、前記仮想物体が前記実在物体から受ける動作を検出し、
前記仮想物体制御部は、前記検出部の検出結果に基づいて、前記仮想物体の動作を制御する、
上記(13)に記載の表示装置。
(20)前記仮想物体制御部は、前記実在物体の動作と同期するように、前記仮想物体の動作を制御する、
上記(13)に記載の表示装置。
(21)前記検出部の検出結果を外部の装置に送信する送信部をさらに備える、
上記(9)に記載の表示装置。
(22)前記表示部で表示する前記仮想物体を常時動作させる、
上記(9)に記載の表示装置。
(23)前記表示部は、ユーザーの頭部又は顔部に装着して用いられる、
上記(9)に記載の表示装置。
(24)ユーザーの頭部又は顔部の位置並びに姿勢を検出する位置姿勢検出部をさらに備え、
前記表示部は、ユーザーの頭部又は顔部の位置又は姿勢の変化とは逆方向に、前記仮想物体の表示を修正する、
上記(23)に記載の表示装置。
(25)特定の実在物体を検出する検出ステップと、
前記特定の実在物体を検出したことに応じて、仮想物体を表示する表示ステップと、
を有する表示方法。
(26)仮想物体の動作を制御する制御装置と、
実在物体を検出して、対応する仮想物体を表示する表示装置と、
仮想物体が前記実在物体に対して行なった動作、又は、前記実在物体が前記仮想物体に対して行なう動作に応じて、実在物体に動作を加える出力装置と、
を具備する情報処理システム。
(27)実在物体を検出して、対応する仮想物体を表示するとともに、仮想物体の動作を制御する表示装置と、
仮想物体が前記実在物体に対して行なった動作、又は、前記実在物体が前記仮想物体に対して行なう動作に応じて、実在物体に動作を加える出力装置と、
を具備する情報処理システム。
101…仮想物体制御部、102…仮想物体生成部
103…表示部、104…検出部
105…出力部、105…出力制御部
107…環境検出部、108…状態検出部
150…仮想物体、151…実在物体、152…識別情報
201…表示装置、202…出力装置、213…環境検出部
401…制御装置、402…表示装置、403…出力装置
413…環境検出部、414…状態検出部、415…状態検出部
700…画像表示装置(透過型)
701L、701R…虚像光学部、702…支持体
703L、703R…マイクロフォン、704L、704R…表示パネル
901…制御部、901A…ROM、901B…RAM
902…入力操作部、903…リモコン受信部
904…状態情報取得部、905…通信部、906…記憶部
907…画像処理部、908…表示駆動部
909…表示部、910…虚像光学部、912…外側カメラ
913…音声処理部、914…音声入出力部
915…外側表示部、916…環境情報取得部
1001…制御部、1001A…ROM、1001B…RAM
1002…通信部、1003…状態検出部、1004…環境検出部
1010…駆動制御部、1020…アクチュエーター部
1101…振動デバイス、1102…発熱デバイス
1103…冷却デバイス、1104…送風デバイス
1105…音響デバイス、1106…発光デバイス
1107…移動デバイス、1108…パルス発生デバイス

Claims (16)

  1. 特定の実在物体を検出する検出部と、
    前記実在物体を検出したことに応じて、表示装置に表示する仮想物体の動作を制御する仮想物体制御部と、
    外部の装置と通信する通信部と、
    を具備し、
    前記仮想物体制御部により制御される前記仮想物体の前記実在物体に対する動作に応じて、前記実在物体に動作を加える出力装置を制御する信号を前記通信部から出力する、
    情報処理装置。
  2. 前記出力装置における出力に関する情報を受信し、
    前記仮想物体制御部は、前記出力に関する情報に応じて前記仮想物体の動作を制御する、
    請求項1に記載の情報処理装置。
  3. 前記仮想物体制御部は、ゲームのルールに従って前記仮想物体の動作を制御する、
    請求項1に記載の情報処理装置。
  4. 前記検出部は、前記実在物体を識別し、
    前記仮想物体制御部は、識別した前記実在物体に対応した前記仮想物体を前記表示装置に表示させる、
    請求項1に記載の情報処理装置。
  5. 前記検出部は、前記実在物体が備える識別情報に基づいて前記実在物体を識別し、又は、物体認識により前記実在物体を識別する、
    請求項1に記載の情報処理装置。
  6. 前記検出部は、ユーザーの視界内から前記実在物体を検出し、
    前記仮想物体制御部は、前記実在物体に重ね合わせて前記仮想物体を表示させる、
    請求項1に記載の情報処理装置。
  7. 前記仮想物体制御部は、ユーザーの行動に応じて前記仮想物体の出現又は消滅を制御する、
    請求項1に記載の情報処理装置。
  8. 前記仮想物体制御部は、ユーザーの行動又は状況、時間帯に応じて、前記表示部が表示する前記仮想物体の情報量を制御する、
    請求項1に記載の情報処理装置。
  9. 前記仮想物体制御部は、前記仮想物体が前記実在物体から受ける動作に応じて、前記仮想物体の動作を制御する、
    請求項1に記載の情報処理装置。
  10. 前記検出部は、前記仮想物体が前記実在物体から受ける動作を検出し、
    前記仮想物体制御部は、前記検出部の検出結果に基づいて、前記仮想物体の動作を制御する、
    請求項1に記載の情報処理装置。
  11. 前記仮想物体制御部は、前記実在物体の動作と同期するように、前記仮想物体の動作を制御する、
    請求項1に記載の情報処理装置。
  12. 前記表示装置をさらに備える、
    請求項1に記載の情報処理装置。
  13. 前記表示装置は、ユーザーの頭部又は顔部に装着して用いられ、
    ユーザーの頭部又は顔部の位置並びに姿勢を検出する位置姿勢検出部をさらに備え、
    前記仮想物体制御部は、ユーザーの頭部又は顔部の位置又は姿勢の変化とは逆方向に、前記仮想物体の表示を修正する、
    請求項12に記載の情報処理装置。
  14. 前記出力装置をさらに備える、
    請求項1に記載の情報処理装置。
  15. 前記出力装置は、前記実在物体の中に組み込まれた、振動デバイス、パルス発生デバイス、発熱デバイス、冷却デバイス、送風デバイス、音響デバイス、発光デバイス、移動デバイスのうち少なくとも1つの出力デバイスを備える、
    請求項14に記載の情報処理装置。
  16. 特定の実在物体を検出する検出ステップと、
    前記実在物体を検出したことに応じて、表示装置に表示する仮想物体の動作を制御する仮想物体制御ステップと、
    前記仮想物体制御ステップにおいて制御される前記仮想物体の前記実在物体に対する動作に応じて、前記実在物体に動作を加える出力装置を制御する信号を出力する出力ステップと、
    を有する情報処理方法。
JP2015512346A 2013-04-16 2014-03-04 情報処理装置及び情報処理方法 Active JP6217747B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013086023 2013-04-16
JP2013086023 2013-04-16
PCT/JP2014/055352 WO2014171200A1 (ja) 2013-04-16 2014-03-04 情報処理装置及び情報処理方法、表示装置及び表示方法、並びに情報処理システム

Publications (2)

Publication Number Publication Date
JPWO2014171200A1 JPWO2014171200A1 (ja) 2017-02-16
JP6217747B2 true JP6217747B2 (ja) 2017-10-25

Family

ID=51731161

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015512346A Active JP6217747B2 (ja) 2013-04-16 2014-03-04 情報処理装置及び情報処理方法

Country Status (6)

Country Link
US (1) US10269180B2 (ja)
EP (1) EP2988275A4 (ja)
JP (1) JP6217747B2 (ja)
CN (1) CN105144248B (ja)
BR (1) BR112015025869A2 (ja)
WO (1) WO2014171200A1 (ja)

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6138566B2 (ja) * 2013-04-24 2017-05-31 川崎重工業株式会社 部品取付作業支援システムおよび部品取付方法
WO2016002673A1 (ja) * 2014-07-01 2016-01-07 シャープ株式会社 姿勢制御装置、ロボット、およびプログラム
EP2990085B1 (en) * 2014-08-29 2022-08-10 Nintendo Co., Ltd. Method and apparatus for estimating the value of an input in presence of a perturbing factor
US9715865B1 (en) * 2014-09-26 2017-07-25 Amazon Technologies, Inc. Forming a representation of an item with light
US11010726B2 (en) * 2014-11-07 2021-05-18 Sony Corporation Information processing apparatus, control method, and storage medium
CN107111314B (zh) * 2014-11-07 2021-10-08 索尼公司 控制系统、控制方法以及存储介质
US10298876B2 (en) * 2014-11-07 2019-05-21 Sony Corporation Information processing system, control method, and storage medium
US10664975B2 (en) * 2014-11-18 2020-05-26 Seiko Epson Corporation Image processing apparatus, control method for image processing apparatus, and computer program for generating a virtual image corresponding to a moving target
US20160189427A1 (en) * 2014-12-31 2016-06-30 Immersion Corporation Systems and methods for generating haptically enhanced objects for augmented and virtual reality applications
US9568994B2 (en) 2015-05-19 2017-02-14 Spotify Ab Cadence and media content phase alignment
US9536560B2 (en) 2015-05-19 2017-01-03 Spotify Ab Cadence determination and media content selection
CN106412469B (zh) * 2015-08-03 2019-05-24 中强光电股份有限公司 投影系统、投影装置与投影系统的投影方法
JP6275087B2 (ja) * 2015-08-03 2018-02-07 株式会社オプティム ヘッドマウントディスプレイ、データ出力方法、及びヘッドマウントディスプレイ用プログラム。
US20170038829A1 (en) * 2015-08-07 2017-02-09 Microsoft Technology Licensing, Llc Social interaction for remote communication
JP6367166B2 (ja) 2015-09-01 2018-08-01 株式会社東芝 電子機器及び方法
DE102015014450B4 (de) * 2015-11-07 2017-11-23 Audi Ag Virtual-Reality-Brille und Verfahren zum Betreiben einer Virtual-Reality-Brille
US10583361B2 (en) * 2016-02-04 2020-03-10 Disney Enterprises, Inc. Incorporating and coordinating multiple home systems into a play experience
US10163198B2 (en) * 2016-02-26 2018-12-25 Samsung Electronics Co., Ltd. Portable image device for simulating interaction with electronic device
CN109069927A (zh) * 2016-06-10 2018-12-21 Colopl株式会社 用于提供虚拟空间的方法、用于使计算机实现该方法的程序以及用于提供虚拟空间的系统
US10235809B2 (en) 2016-06-30 2019-03-19 Microsoft Technology Licensing, Llc Reality to virtual reality portal for dual presence of devices
CN106293876A (zh) * 2016-08-04 2017-01-04 腾讯科技(深圳)有限公司 基于虚拟现实场景的信息认证方法和装置
CN107835288A (zh) * 2016-09-16 2018-03-23 天津思博科科技发展有限公司 应用智能终端实现的互动娱乐装置
GB2554914B (en) * 2016-10-14 2022-07-20 Vr Chitect Ltd Virtual reality system and method
KR102369905B1 (ko) * 2016-10-31 2022-03-03 주식회사 테그웨이 피드백 디바이스 및 이를 이용하는 열적 피드백 제공 방법
CN107357416A (zh) * 2016-12-30 2017-11-17 长春市睿鑫博冠科技发展有限公司 一种人机交互装置及交互方法
JP2018082308A (ja) * 2016-11-16 2018-05-24 ソニー株式会社 情報処理装置、方法及びプログラム
JP6329616B1 (ja) * 2016-11-28 2018-05-23 株式会社スクウェア・エニックス プログラム、コンピュータ装置、及び、判定方法
JP6908053B2 (ja) * 2016-12-19 2021-07-21 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
CN109863471A (zh) * 2016-12-20 2019-06-07 三星电子株式会社 显示装置及其显示方法
JP6866646B2 (ja) * 2017-01-16 2021-04-28 オムロン株式会社 センサ支援システム、端末、センサおよびセンサ支援方法
CN106843532A (zh) * 2017-02-08 2017-06-13 北京小鸟看看科技有限公司 一种虚拟现实场景的实现方法和装置
US10627895B2 (en) * 2017-03-21 2020-04-21 Lenovo (Singapore) Pte Ltd Providing a virtual control
US10251011B2 (en) 2017-04-24 2019-04-02 Intel Corporation Augmented reality virtual reality ray tracing sensory enhancement system, apparatus and method
US11054894B2 (en) 2017-05-05 2021-07-06 Microsoft Technology Licensing, Llc Integrated mixed-input system
CN109274977B (zh) 2017-07-18 2022-03-25 腾讯科技(深圳)有限公司 虚拟道具分配方法、服务器及客户端
US20190038978A1 (en) * 2017-08-01 2019-02-07 Intel Corporation Extendable platforms for transfer of data between physical objects and a virtual environment
WO2019123744A1 (ja) * 2017-12-22 2019-06-27 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
CN108334192A (zh) * 2018-01-02 2018-07-27 联想(北京)有限公司 一种信息处理方法、穿戴式装置及存储介质
US11262838B2 (en) * 2018-01-30 2022-03-01 Sony Corporation Information processing device and information processing method
CN111819518A (zh) * 2018-03-13 2020-10-23 索尼公司 信息处理设备、信息处理方法和记录介质
GB2571956B (en) 2018-03-14 2022-04-27 Sony Interactive Entertainment Inc Head-mountable apparatus and methods
CN108509043B (zh) * 2018-03-29 2021-01-15 联想(北京)有限公司 一种交互控制方法及系统
US10679393B2 (en) 2018-07-24 2020-06-09 Snap Inc. Conditional modification of augmented reality object
CN111083391A (zh) * 2018-10-19 2020-04-28 舜宇光学(浙江)研究院有限公司 虚实融合系统及其方法
CN111103967A (zh) * 2018-10-25 2020-05-05 北京微播视界科技有限公司 虚拟对象的控制方法和装置
US20220049947A1 (en) * 2019-03-26 2022-02-17 Sony Group Corporation Information processing apparatus, information processing method, and recording medium
CN110766788B (zh) * 2019-10-15 2023-03-24 三星电子(中国)研发中心 将虚拟物体映射到现实世界的方法及装置
US11195339B2 (en) * 2019-11-11 2021-12-07 Spin Master Ltd. Augmented reality system
US11360733B2 (en) 2020-09-10 2022-06-14 Snap Inc. Colocated shared augmented reality without shared backend
CN114820835A (zh) * 2021-01-28 2022-07-29 索尼半导体解决方案公司 信息处理方法、信息处理装置和非易失性存储介质

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000184398A (ja) * 1998-10-09 2000-06-30 Sony Corp 仮想画像立体合成装置、仮想画像立体合成方法、ゲ―ム装置及び記録媒体
JP3517639B2 (ja) * 2000-09-27 2004-04-12 キヤノン株式会社 複合現実感提示装置及びその方法並びに記憶媒体
JP2002184398A (ja) 2000-12-13 2002-06-28 Shin Etsu Chem Co Ltd ニッケル水素電池の正極作成用スラリー、ニッケル水素電池の正極及びその製造方法
JP2002304246A (ja) 2001-04-04 2002-10-18 Nippon Telegr & Teleph Corp <Ntt> 力覚提示装置及び仮想空間システム
JP4137714B2 (ja) 2003-06-18 2008-08-20 日本電信電話株式会社 オブジェクト表示方法およびオブジェクト表示装置
JP2005165776A (ja) 2003-12-03 2005-06-23 Canon Inc 画像処理方法、画像処理装置
JP3841806B2 (ja) * 2004-09-01 2006-11-08 株式会社ソニー・コンピュータエンタテインメント 画像処理装置および画像処理方法
JP2006262980A (ja) 2005-03-22 2006-10-05 Olympus Corp 情報端末装置及び仮想ペット表示方法
JP5380789B2 (ja) 2007-06-06 2014-01-08 ソニー株式会社 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP4989383B2 (ja) * 2007-09-10 2012-08-01 キヤノン株式会社 情報処理装置、情報処理方法
NL1035303C2 (nl) * 2008-04-16 2009-10-19 Virtual Proteins B V Interactieve virtuele reality eenheid.
EP2157545A1 (en) 2008-08-19 2010-02-24 Sony Computer Entertainment Europe Limited Entertainment device, system and method
WO2011119118A1 (en) * 2010-03-26 2011-09-29 Agency For Science, Technology And Research A haptic system, a method of forming a haptic system and a method of controlling a haptic system
KR101194957B1 (ko) * 2010-09-13 2012-10-25 한양대학교 산학협력단 마커 기반 증강 현실에서 촉감을 제공하는 시스템 및 방법
JP2012155655A (ja) 2011-01-28 2012-08-16 Sony Corp 情報処理装置、報知方法及びプログラム
US8493353B2 (en) * 2011-04-13 2013-07-23 Longsand Limited Methods and systems for generating and joining shared experience
JP5778481B2 (ja) 2011-05-25 2015-09-16 京セラ株式会社 携帯端末、表示制御プログラムおよび表示制御方法
US8894462B2 (en) * 2011-12-22 2014-11-25 Activision Publishing, Inc. Interactive video game with visual lighting effects
US8963805B2 (en) * 2012-01-27 2015-02-24 Microsoft Corporation Executable virtual objects associated with real objects
US9183676B2 (en) * 2012-04-27 2015-11-10 Microsoft Technology Licensing, Llc Displaying a collision between real and virtual objects
US9741145B2 (en) * 2012-06-29 2017-08-22 Disney Enterprises, Inc. Augmented reality simulation continuum
TWI501109B (zh) * 2012-11-05 2015-09-21 Univ Nat Taiwan 擬真觸覺力回饋裝置及其方法
US9286725B2 (en) * 2013-11-14 2016-03-15 Nintendo Co., Ltd. Visually convincing depiction of object interactions in augmented reality images

Also Published As

Publication number Publication date
US20160093107A1 (en) 2016-03-31
CN105144248A (zh) 2015-12-09
WO2014171200A1 (ja) 2014-10-23
EP2988275A4 (en) 2016-11-30
BR112015025869A2 (pt) 2017-07-25
JPWO2014171200A1 (ja) 2017-02-16
CN105144248B (zh) 2019-08-06
EP2988275A1 (en) 2016-02-24
US10269180B2 (en) 2019-04-23

Similar Documents

Publication Publication Date Title
JP6217747B2 (ja) 情報処理装置及び情報処理方法
US10262461B2 (en) Information processing method and apparatus, and program for executing the information processing method on computer
US10453248B2 (en) Method of providing virtual space and system for executing the same
JP6263252B1 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
US10546407B2 (en) Information processing method and system for executing the information processing method
US10313481B2 (en) Information processing method and system for executing the information method
US20160379413A1 (en) Image display device and image display method
JP6470796B2 (ja) 情報処理方法、プログラム及びコンピュータ
US20180322681A1 (en) Information processing method, program, virtual space delivering system and apparatus therefor
US20190018479A1 (en) Program for providing virtual space, information processing apparatus for executing the program, and method for providing virtual space
WO2016013269A1 (ja) 画像表示装置及び画像表示方法、並びにコンピューター・プログラム
JP6290467B1 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるプログラム
US10410395B2 (en) Method for communicating via virtual space and system for executing the method
US20180348987A1 (en) Method executed on computer for providing virtual space, program and information processing apparatus therefor
JP6201028B1 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
US20180299948A1 (en) Method for communicating via virtual space and system for executing the method
JP2018192107A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
US10564801B2 (en) Method for communicating via virtual space and information processing apparatus for executing the method
JP2018125003A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるプログラム
JP2018124981A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP6368404B1 (ja) 情報処理方法、プログラム及びコンピュータ
US10319346B2 (en) Method for communicating via virtual space and system for executing the method
JP2018092635A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP2018092592A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP2019016358A (ja) 情報処理方法、プログラム及びコンピュータ

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170801

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170822

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170823

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170829

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170911

R151 Written notification of patent or utility model registration

Ref document number: 6217747

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250