JP2017220032A - 情報処理装置、情報処理方法、およびコンピュータプログラム - Google Patents

情報処理装置、情報処理方法、およびコンピュータプログラム Download PDF

Info

Publication number
JP2017220032A
JP2017220032A JP2016113855A JP2016113855A JP2017220032A JP 2017220032 A JP2017220032 A JP 2017220032A JP 2016113855 A JP2016113855 A JP 2016113855A JP 2016113855 A JP2016113855 A JP 2016113855A JP 2017220032 A JP2017220032 A JP 2017220032A
Authority
JP
Japan
Prior art keywords
mounted display
head mounted
image
hmd
data processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016113855A
Other languages
English (en)
Other versions
JP6668170B2 (ja
Inventor
達明 橋本
Tatsuaki Hashimoto
達明 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment LLC
Original Assignee
Sony Interactive Entertainment LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment LLC filed Critical Sony Interactive Entertainment LLC
Priority to JP2016113855A priority Critical patent/JP6668170B2/ja
Priority to US15/433,240 priority patent/US10303244B2/en
Publication of JP2017220032A publication Critical patent/JP2017220032A/ja
Application granted granted Critical
Publication of JP6668170B2 publication Critical patent/JP6668170B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/215Input arrangements for video game devices characterised by their sensors, purposes or types comprising means for detecting acoustic signals, e.g. using a microphone
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/22Setup operations, e.g. calibration, key configuration or button assignment
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/33Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using wide area network [WAN] connections
    • A63F13/332Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using wide area network [WAN] connections using wireless networks, e.g. cellular phone networks
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/424Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving acoustic input signals, e.g. by using the results of pitch or rhythm extraction or voice recognition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • A63F13/49Saving the game status; Pausing or ending the game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/105Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals using inertial sensors, e.g. accelerometers, gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1081Input via voice recognition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • A63F2300/1093Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera using visible light
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/40Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of platform network
    • A63F2300/406Transmission via wireless network, e.g. pager or GSM
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted

Abstract

【課題】ヘッドマウントディスプレイを装着したユーザに対して好適な操作入力方法を提供する。【解決手段】情報処理装置10は、HMD100を装着したユーザによるHMD100の筐体外面に対する所定の接触行為に起因してHMD100で検出される振動のパターンと、HMD100に関するデータ処理の種類との対応関係を記憶する。情報処理装置10は、HMD100で検出された振動に関する情報を取得し、上記対応関係にしたがって、HMD100で検出された振動に対応する種類のデータ処理を実行する。【選択図】図1

Description

この発明は、データ処理技術に関し、特に情報処理装置、情報処理方法、およびコンピュータプログラムに関する。
ヘッドマウントディスプレイ(以下「HMD」とも呼ぶ。)はユーザの頭部に装着されて仮想現実(VR)の世界をユーザに提供する。最近ではユーザがHMDに表示された画面を見ながらゲームをプレイできるアプリケーションも登場している。テレビなどの従来型の据え置き型のディスプレイでは画面外側にもユーザの視野範囲が広がるため、ユーザが画面に集中できなかったり、ゲームへの没入感を欠くことがある。その点、HMDを装着すると、HMDに表示される映像しかユーザは見ないため、映像世界への没入感が高まり、ゲームのエンタテインメント性を一層高める効果がある。
両目を覆う非透過型のHMDを装着すると、ユーザは外界を見ることがほぼできなくなる。そのため、HMDを装着したユーザは、把持するコントローラを介して、HMDのシステムに対して操作を入力することが困難になることがあると本発明者は考えた。
本発明は、本発明者の上記課題認識に基づいてなされたものであり、主たる目的は、ヘッドマウントディスプレイを装着したユーザに対して好適な操作入力方法を提供する技術を提供することである。
上記課題を解決するために、本発明のある態様の情報処理装置は、ヘッドマウントディスプレイを装着したユーザによるヘッドマウントディスプレイの筐体外面に対する所定の接触行為に起因してヘッドマウントディスプレイで検出される振動のパターンと、ヘッドマウントディスプレイに関するデータ処理の種類との対応関係、および/または、ヘッドマウントディスプレイを装着したユーザによるヘッドマウントディスプレイ近傍での所定のジェスチャー行為に起因してヘッドマウントディスプレイを撮像する装置から出力される画像のパターンと、ヘッドマウントディスプレイに関するデータ処理の種類との対応関係を保持する記憶部と、ヘッドマウントディスプレイで検出された振動に関する情報を取得し、および/または、撮像する装置から出力された画像を取得する取得部と、記憶部に保持された対応関係にしたがって、ヘッドマウントディスプレイで検出された振動に対応する種類のデータ処理を実行し、および/または、撮像する装置から出力された画像に対応する種類のデータ処理を実行するデータ処理部と、を備える。
本発明の別の態様は、情報処理方法である。この方法は、ヘッドマウントディスプレイで検出された振動に関する情報を取得し、および/または、ヘッドマウントディスプレイを撮像する装置から出力された画像を取得するステップと、ヘッドマウントディスプレイを装着したユーザによるヘッドマウントディスプレイの筐体外面に対する所定の接触行為に起因してヘッドマウントディスプレイで検出される振動のパターンと、ヘッドマウントディスプレイに関するデータ処理の種類とを予め対応付けたデータにしたがって、取得するステップで取得された情報が示す振動に対応する種類のデータ処理を実行し、および/または、ヘッドマウントディスプレイを装着したユーザによるヘッドマウントディスプレイ近傍での所定のジェスチャー行為に起因して撮像する装置から出力される画像のパターンと、ヘッドマウントディスプレイに関するデータ処理の種類とを予め対応付けたデータにしたがって、取得するステップで取得された画像に対応する種類のデータ処理を実行するステップと、をコンピュータが実行する。
なお、以上の構成要素の任意の組合せ、本発明の表現をシステム、プログラム、プログラムを格納した記録媒体などの間で変換したものもまた、本発明の態様として有効である。
本発明によれば、ヘッドマウントディスプレイを装着したユーザに対して好適な操作入力方法を提供することができる。
実施例における情報処理システムの構成例を示す図である。 情報処理装置におけるレンダリング処理の説明図である。 HMDの外観形状の例を示す図である。 HMDの機能ブロックを示す図である。 情報処理装置の機能ブロックを示す図である。 画像記憶部に記憶されるパノラマ画像データを説明するための図である。 表示画像を示す図である。 表示画像を示す図である。 表示画像を示す図である。 入力装置の上面、奥側側面を示す図である。 第1実施例のHMDの機能ブロックを示す図である。 画像生成部の詳細な機能ブロックを示す図である。 表示画像を示す図である。 表示画像を示す図である。 第2実施例の情報処理装置の機能ブロックを示す図である。 第3実施例の情報処理装置の機能ブロックを示す図である。 第4実施例の情報処理装置の機能ブロックを示す図である。 ジェスチャーの例を示す図である。 表示画像を示す図である。 表示画像を示す図である。
(前提技術)
図1は、実施例における情報処理システム1の構成例を示す。情報処理システム1は、情報処理装置10と、ユーザが頭部に装着するヘッドマウントディスプレイ装置(HMD)100と、ユーザが手指で操作する入力装置6と、HMD100を装着したユーザを撮影する撮像装置7と、画像を表示する出力装置4とを備える。
実施例において情報処理装置10は、処理装置12、出力制御装置14を備える。ここで処理装置12は、ユーザにより操作された入力装置6の操作情報を受けて、ゲームなど様々なアプリケーションを実行する端末装置である。処理装置12と入力装置6とはケーブルで接続されても、既知の無線通信技術により接続されてもよい。出力制御装置14はHMD100に対して画像データを出力する処理ユニットである。出力制御装置14とHMD100とはケーブルで接続されても、既知の無線通信技術により接続されてもよい。
撮像装置7はHMD100を装着したユーザを撮影して、処理装置12に提供する。撮像装置7はステレオカメラであってよい。後述するがHMD100には、ユーザ頭部のトラッキングを実現するためのマーカ(トラッキング用LED)が搭載されており、処理装置12は、撮影したマーカの位置にもとづいて、HMD100の動きを検出する。なおHMD100には姿勢センサ(加速度センサ、ジャイロセンサ)も搭載され、処理装置12は、姿勢センサで検出されたセンサ情報をHMD100から取得することで、マーカの撮影画像の利用とあわせて、高精度のトラッキング処理を実現する。
情報処理システム1において、ユーザはHMD100に表示された画像を見るため、出力装置4は必ずしも必要ではないが、出力制御装置14または処理装置12は、HMD100に表示させる画像と同じ画像を、出力装置4から出力させてもよい。これによりユーザがHMD100で見ている画像を、別のユーザが出力装置4で見ることができる。なお後述するがHMD100に表示させる画像には、光学レンズの歪み補正が施されているため、歪み補正を行っていない画像が出力装置4から出力される必要がある。
情報処理システム1において、処理装置12、出力装置4、入力装置6および撮像装置7は、従来型のゲームシステムを構築してよい。この場合、処理装置12は、ゲームなどのアプリケーションを実行するゲーム装置であり、入力装置6はゲームコントローラ、キーボード、マウス、ジョイスティックなど処理装置12にユーザの操作情報を供給する機器であってよい。このゲームシステムの構成要素に、出力制御装置14およびHMD100を追加することで、仮想現実(VR)アプリケーションを実行する情報処理システム1が構成される。
なお出力制御装置14による機能は、VRアプリケーションの一部の機能として処理装置12に組み込まれてもよい。つまり情報処理装置10は、1台の処理装置12から構成されても、また処理装置12および出力制御装置14から構成されてもよい。以下においては、VRアプリケーションの実現に必要な処理装置12、出力制御装置14の機能をまとめて、情報処理装置10の機能として説明する。
情報処理装置10はHMD100に表示させる画像データを生成する。実施例において情報処理装置10は、全天球カメラで撮影された上下左右全方位の360度パノラマ画像を用意し、ユーザの頭部に装着されたHMD100の姿勢から定まる視線方向にもとづいて生成した画像をHMD100に表示させる。なお表示コンテンツは、静止画または動画のいずれであってもよい。また実撮影された画像に限るものでもなく、ゲームアプリケーションによりリアルタイムで描画されたものであってもよい。
HMD100は、ユーザが頭に装着することによりその眼前に位置する表示パネルに、光学レンズを通して画像を表示する表示装置である。HMD100は、表示パネルの左半分には左目用の画像を、右半分には右目用の画像をそれぞれ独立して表示する。これらの画像は、左右の視点から見た視差画像を形成し、表示パネルを2分割してなる左右の領域にそれぞれ表示させることで、画像を立体視させることができる。なおユーザは光学レンズを通して表示パネルを見るために、情報処理装置10は、予めレンズによる光学歪みを補正した画像データをHMD100に供給する。情報処理装置10において、この光学歪みの補正処理は、処理装置12、出力制御装置14のいずれが行ってもよい。
図2は、情報処理装置10におけるレンダリング処理の説明図である。実施例のVRアプリケーションでは、ユーザが球体の中心に位置し、視線の方向を変更することで、見える画像が変更される仮想環境を実現する。画像素材であるコンテンツ画像は、ユーザが位置する中心点9を中心とする仮想球体の内周面に貼り付けられている。ここでコンテンツ画像は、全天球カメラで撮影された上下左右全方位の360度パノラマ画像であり、コンテンツ画像の天地と仮想球体の天地とが一致するように仮想球体の内周面に貼り付けられる。これによりユーザの実世界の天地と、HMD100に提供される映像世界の天地とが揃えられ、リアルな映像世界を再現するVRアプリケーションが実現される。
情報処理装置10は、ユーザのヘッドトラッキング処理を行うことで、ユーザ頭部(実際にはHMD100)の回転角度および傾きを検出する。ここでHMD100の回転角度とは、水平面の基準方向に対する回転角度であり、基準方向は、たとえばHMD100の電源がオンされたときに向いている方向として設定されてよい。またHMD100の傾きとは、水平面に対する傾斜角度である。ヘッドトラッキング処理として既知の技術が利用されてよく、情報処理装置10は、HMD100の姿勢センサが検出したセンサ情報のみから、HMD100の回転角度および傾きを検出でき、さらに撮像装置7で撮影したHMD100のマーカ(トラッキング用LED)を画像解析することで、高精度にHMD100の回転角度および傾きを検出できる。
情報処理装置10は、検出したHMD100の回転角度および傾きにしたがって、仮想球体における仮想カメラ8の姿勢を定める。仮想カメラ8は、仮想球体の中心点9から仮想球体の内周面を撮影するように配置されており、情報処理装置10は、検出した回転角度および傾きと、仮想球体における仮想カメラ8の光軸の回転角度および傾きを一致させる。情報処理装置10は、仮想カメラ8の撮影画像5を取得し、つまりレンダリング処理を行って、光学レンズ用の光学歪み補正を施し、HMD100に画像データを供給する。なお図2においては1つの仮想カメラ8が示されているが、実際には左目用と右目用の2つの仮想カメラ8が配置されて、それぞれの画像データが生成される。
図3は、HMD100の外観形状の例を示す。この例においてHMD100は、出力機構部102および装着機構部104から構成される。装着機構部104は、ユーザが被ることにより頭部を一周してHMD100を頭部に固定する装着バンド106を含む。装着バンド106はユーザの頭囲に合わせて長さの調節が可能な素材または構造とする。
出力機構部102は、HMD100をユーザが装着した状態において左右の目を覆う形状の筐体108を含み、内部には装着時に目に正対する位置に表示パネルを備える。表示パネルは、VR画像をユーザの視野に提示する表示部である。表示パネルは、既知のディスプレイ装置であってよく、例えば液晶パネルや有機ELパネルなどで実現してもよい。筐体108内部にはさらに、HMD100装着時に表示パネルとユーザの目との間に位置し、ユーザの視野角を拡大する左右一対の光学レンズが備えられる。HMD100はさらに、装着時にユーザの耳に対応する位置にスピーカーやイヤホンを備えてよい。
筐体108の外面には、発光マーカ110a、110b、110c、110dが備えられる。この例ではトラッキング用LEDが発光マーカ110を構成するが、その他の種類のマーカであってよく、いずれにしても撮像装置7により撮影されて、情報処理装置10が画像解析可能なものであればよい。発光マーカ110の数や配置は特に限定されないが、撮影されて画像解析されることで、HMD100の姿勢(回転角度および傾き)が検出されるような数および配置である必要があり、図示した例では筐体108の前面の4隅に設けている。さらにユーザが撮像装置7に対して背を向けたときにも撮像できるように、発光マーカ110は装着バンド106の側部や後部に設けられてもよい。
HMD100は、情報処理装置10にケーブルで接続されても、既知の無線通信技術により接続されてもよい。HMD100は、姿勢センサが検出したセンサ情報を情報処理装置10に送信し、また情報処理装置10で生成された画像データを受信して、表示パネルに表示する。
なお図3に示すHMD100は、両目を完全に覆う没入型(非透過型)のディスプレイ装置を示すが、透過型のディスプレイ装置であってもよい。また形状としては、図示されるような帽子型であってもよいが、眼鏡型であってもよい。
図4は、HMD100の機能ブロックを示す。制御部120は、画像データ、音声データ、センサ情報などの各種データや、命令を処理して出力するメインプロセッサである。記憶部122は、制御部120が処理するデータや命令などを一時的に記憶する。姿勢センサ124は、HMD100の回転角度や傾きなどの姿勢情報を検出する。姿勢センサ124は、少なくとも3軸の加速度センサおよび3軸のジャイロセンサを含む。発光マーカ110は、LEDであって、HMD100の装着バンド106や筐体108に複数取り付けられる。
マイク126は、音(すなわち空気振動)を検出し、検出した音を電気信号に変換するマイクロホンである。マイク126は、HMD100を装着したユーザが他のユーザとボイスチャットを行うために搭載されたものであり、ユーザの声を電気信号に変換した音声データを出力する。図3には不図示だが、マイク126は、筐体108における発光マーカ110cと発光マーカ110dの間に内蔵される。マイク126は、ステレオマイクであることが好ましいが、モノラルマイクでもよい。
通信制御部128は、ネットワークアダプタまたはアンテナを介して、有線または無線通信により、制御部120から入力されるデータを外部の情報処理装置10に送信する。また通信制御部128は、ネットワークアダプタまたはアンテナを介して、有線または無線通信により、情報処理装置10からデータを受信し、制御部120に出力する。
制御部120は、画像データや音声データを情報処理装置10から受け取ると、表示パネル130に供給して表示させ、また音声出力部132に供給して音声出力させる。また制御部120は、姿勢センサ124からのセンサ情報や、マイク126からの音声データを、通信制御部128から情報処理装置10に送信させる。
図5は、情報処理装置10の機能ブロックを示す。情報処理装置10は、外部との入力インタフェースとして、センサ情報取得部20、撮影画像取得部22、指示取得部24、音声取得部42を備える。
センサ情報取得部20は、HMD100の姿勢センサ124から所定の周期でセンサ情報を取得する。撮影画像取得部22は、撮像装置7から所定の周期でHMD100を撮像した撮影画像を取得する。たとえば撮像装置7は(1/120)秒ごとに撮影し、撮影画像取得部22は、(1/120)秒ごとに撮影画像を取得する。指示取得部24は、入力装置6から、ユーザが入力した指示を取得する。
音声取得部42は、HMD100から出力された音声データ(HMD100のマイク126で検出された音声に基づく信号)を取得する。また、音声取得部42は、不図示の通信部および通信網(インターネット等)を介して、他の情報処理装置(典型的にはHMDを装着した他のユーザにより操作される情報処理装置)から送信された音声データも取得する。
情報処理装置10は、HMD100に出力させる画像データおよび音声データを生成するデータ処理であり、また、生成した画像データおよび音声データをHMD100へ送信するデータ処理を実行するデータ処理部48をさらに備える。データ処理部48は、動き検出部30、視線方向決定部32、画像生成部34、画像提供部36、音声転送部44、音声提供部46を備える。
動き検出部30は、ユーザの頭部に装着されたHMD100の姿勢を検出する。視線方向決定部32は、動き検出部30により検出されたHMD100の姿勢に応じて視線方向を定める。画像生成部34は、検出されたHMD100の姿勢に応じて画像を生成し、具体的には、視線方向決定部32が定めた視線方向にもとづく画像を生成する。画像提供部36は、生成した画像をHMD100に提供する。
音声転送部44は、音声取得部42で取得された音声データのうち、HMD100から入力された音声データを他の情報処理装置へ送信する。音声提供部46は、音声取得部42で取得された音声データのうち、他の情報処理装置から入力された音声データをHMD100へ送信する。これにより、HMD100を装着したユーザと、他のユーザとのボイスチャットを実現する。
図5において、さまざまな処理を行う機能ブロックとして記載される各要素は、ハードウェア的には、回路ブロック、メモリ、その他のLSIで構成することができ、ソフトウェア的には、メモリにロードされたプログラムなどによって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
画像記憶部40は、予め撮影された360度パノラマ画像データを記憶する。画像記憶部40は複数のコンテンツ画像を記憶してよく、コンテンツ画像は静止画像であっても、動画像であってもよい。実施例の画像記憶部40は、上下左右全方位のパノラマ画像データを記憶しており、情報処理装置10は、HMD100を装着したユーザに、全方位のパノラマ画像を提供する。したがってユーザが首を左または右に回し(ユーザが体ごと左回りまたは右回りに回転してもよい)水平方向の視線を左または右に回転させることで、左方向または右方向のパノラマ画像がHMD100の表示パネル130に表示され、またユーザが首を上または下に傾けて、垂直方向に視線を傾けることで、上方向または下方向のパノラマ画像がHMD100の表示パネル130に表示されるようになる。
図6は、画像記憶部40に記憶されるパノラマ画像データを説明するための図である。なお説明の便宜上、図6は、上下左右全方位のパノラマ画像データの一部を示し、水平面から下向きの画像の一部、および左右方向の画像の一部を省略している。図2に関して説明したように、HMD100の表示パネル130には、仮想球体の内周面に貼り付けられたパノラマ画像をレンダリングした画像が表示され、ユーザがHMD100の回転角度および傾きを動かして視線方向を変化させることで、表示されるパノラマ画像が視線方向に応じて動かされる。
HMD100において通信制御部128は、所定の周期で、姿勢センサ124により取得したセンサ情報を情報処理装置10に送信する。また撮像装置7は、HMD100を所定の周期で撮像し、撮影画像を情報処理装置10に送信する。図5を参照して、センサ情報取得部20は、姿勢センサ124のセンサ情報を取得し、動き検出部30に供給する。また撮影画像取得部22は、撮影画像を取得し、動き検出部30に供給する。
動き検出部30は、HMD100の姿勢を検出することで、HMD100を装着したユーザの頭部の姿勢を検出するヘッドトラッキング処理を行う。このヘッドトラッキング処理は、ユーザの頭部の姿勢に、HMD100の表示パネル130に表示する視野を連動させるために行われる。実施例のヘッドトラッキング処理では、HMD100の水平基準方向に対する回転角度と、水平面に対する傾き角度とが検出される。水平基準方向は、たとえばHMD100の電源がオンされたときに向いている方向として設定されてよい。水平基準方向は、パノラマ画像データにより形成される仮想現実空間(以下「VR空間」とも呼ぶ。)の原点位置、原点方向とも言える。
このヘッドトラッキング処理は既知の手法を利用し、動き検出部30は、姿勢センサ124のセンサ情報のみからHMD100の水平基準方向に対する回転角度と、水平面に対する傾き角度とを検出してよいが、トラッキング用の発光マーカ110の撮影結果をさらに利用して、検出精度を高めることが好ましい。動き検出部30は、所定の周期で回転角度および傾き角度を検出する。たとえばHMD100に供給する画像が120fpsであれば、動き検出部30の検出処理も(1/120)秒の周期で実行されることが好ましい。
視線方向決定部32は、動き検出部30により検出されたHMD100の姿勢に応じて、視線方向を定める。この視線方向は、ユーザの視線方向であり、ひいては仮想球体の中心点9に配置される仮想カメラ8の視線方向(光軸方向)である(図2参照)。ここで視線方向決定部32は、動き検出部30により検出された回転角度および傾き角度を、そのまま仮想カメラ8の視線方向(光軸方向)として決定してもよく、また何らかの補正処理を行って仮想カメラ8の視線方向を決定してもよい。たとえばセンサ情報にノイズがのるなどして、安定したセンサ情報が動き検出部30に提供されない場合、動き検出部30は、ユーザ頭部が動いてないにもかかわらず、振動するような動きを検出する可能性がある。そのような場合、視線方向決定部32は、動き検出部30により検出された動きを平滑補正して、視線方向を定めてもよい。
また人間の視野は上下が非対称で、視線の上側より下側が若干広くなっている。そのため視線方向決定部32は、動き検出部30により検出された傾き角度を若干下側に傾けて、仮想カメラ8の視線方向を定めてもよい。
画像生成部34は、動き検出部30が検出したHMD100の姿勢に応じて画像を生成し、具体的には視線方向決定部32が定めた仮想カメラ8の視線方向にもとづく画像を生成する。画像生成部34は、視線方向により特定される左目用の視野と右目用の視野とを画定し、左目用と右目用の画像をそれぞれレンダリングして生成する。このとき画像生成部34は、表示パネルからの画像光が光学レンズを通過することによる歪みを補正したパノラマ画像を生成する。
実施例のHMD100は、水平方向に約100度、垂直方向に約100度の視野をユーザに提供する。図2を参照して、仮想球体において撮影画像5は、水平方向に約100度、垂直方向に約100度の画角で撮影され、HMD100の表示パネル130に表示される。なお上記したように人間の視野は、視線の上側より下側が若干広くなっていることから、HMD100において光学レンズおよび表示パネル130は、目の正対方向に対して5度傾けられて、上側45度、下側55度の垂直視野を、光学レンズおよび表示パネル130の配置により実現してもよい。
図7は、画像生成部34により生成される表示画像200aを示す。なお以下の図面においては、パノラマ画像全体の中での表示画像の位置関係の理解を容易にするために、表示画像をパノラマ画像において切り出す画像として表現している。
画像生成部34は、視線方向決定部32が定めた視線方向202aにもとづく画像を生成する。なお実際には画像生成部34は、左目用の表示画像と右目用の表示画像をそれぞれレンダリングして生成し、これらの表示画像は互いに視差を含む異なる画像であるが、以下では両目用の画像をそれぞれ生成することについて特に説明しない。画像提供部36は、画像生成部34が生成した表示画像200aをHMD100に提供する。HMD100において制御部120は表示画像200aを表示パネル130に表示させ、これによりユーザは、表示パネル130に表示される表示画像200aを見ることができる。
図8は、画像生成部34により生成される表示画像200bを示す。視線方向決定部32はHMD100の姿勢に応じて視線方向を定め、画像生成部34は、定めた視線方向にもとづいて画像を生成する。この例では、ユーザが水平方向に首を左回りに回して、視線が視線方向202aから視線方向202bに連続して変化した様子を示す。ここではユーザが頭部を左回りに約60度回転し、この回転動作により、画像生成部34は、表示画像200aから左回り方向に連続してパノラマ画像を動かす画像を(1/120)秒の周期で生成する。画像提供部36は、生成された画像を(1/120)秒の周期でHMD100に提供する。
図8の視線方向202aは、VR空間における水平基準方向であってもよい。すなわち、ユーザの頭部の向きが初期値(傾きおよび回転がない)のときに真正面となる方向であり、言わば原点位置であってもよい。この場合、画像生成部34は、VR空間における水平基準方向(言い換えれば原点)に対するHMD100の姿勢(回転角度および傾き角度)に応じた画像を生成する。
図9は、画像生成部34により生成される表示画像200cを示す。視線方向決定部32はHMD100の姿勢に応じて視線方向を定め、画像生成部34は、定めた視線方向にもとづいて画像を生成する。この例では、表示画像200aが表示パネル130に表示された状態からユーザが上向きに首を傾けて、視線が視線方向202aから視線方向202cに連続して変化した様子を示す。ここではユーザが頭部を上向きに約30度傾け、この傾斜動作により、画像生成部34は、表示画像200aから上向き方向に連続してパノラマ画像を動かす画像を(1/120)秒の周期で生成する。画像提供部36は、生成された画像を(1/120)秒の周期でHMD100に提供する。
このようにユーザは頭部を動かすことで視線方向を変化させ、情報処理装置10が、見たい方向のパノラマ画像をHMD100に提供して、表示パネル130に表示させる。頭部を動かすことで視線方向を変化させることは現実世界の動作と同じであり、ユーザの感覚に合致する。このときHMD100がユーザに広視野角を提供することで、パノラマ画像に対する没入感をさらに高められる。
図10(a)は、入力装置6の上面を示す。ユーザは左手で左側把持部78bを把持し、右手で右側把持部78aを把持して、入力装置6を操作する。入力装置6の筐体上面には、入力部である方向ボタン71、アナログスティック77a、77bと、操作ボタン76が設けられている。方向ボタン71は、上ボタン71a、左ボタン71b、下ボタン71cおよび右ボタン71dを含む。右アナログスティック77aおよび左アナログスティック77bは、傾動されて方向および傾動量を入力するために用いられる。なお右アナログスティック77aおよび左アナログスティック77bは、ユーザが押すことで下方に沈み込み、またユーザが手を離すと元の位置に復帰する押下式ボタンとしても機能する。筐体上面上において、方向ボタン71と操作ボタン76の間の平坦な領域には、タッチパッド79が設けられる。タッチパッド79は、ユーザが押すことで下方に沈み込み、またユーザが手を離すと元の位置に復帰する押下式ボタンとしても機能する。
右アナログスティック77aおよび左アナログスティック77bの間にはホームボタン80が設けられる。ホームボタン80は入力装置6の電源をオンし、同時に情報処理装置10と無線接続する通信機能をアクティブにするために使用される。SHAREボタン81は、タッチパッド79の左側に設けられる。SHAREボタン81は、情報処理装置10におけるOSないしはシステムソフトウェアに対するユーザからの指示を入力するために利用される。OPTIONSボタン82は、タッチパッド79の右側に設けられる。OPTIONSボタン82は、情報処理装置10において実行されるアプリケーション(ゲーム)に対するユーザからの指示を入力するために利用される。SHAREボタン81およびOPTIONSボタン82は、いずれもプッシュ式ボタンとして形成されてよい。
図10(b)は、入力装置6の奥側側面を示す。入力装置6の筐体奥側側面の上側には、タッチパッド79が筐体上面から折れ曲がって延設されており、筐体奥側側面の下側には、横長の発光部85が設けられる。発光部85は、赤(R)、緑(G)、青(B)のLEDを有し、情報処理装置10から送信される発光色情報にしたがって点灯する。上側のR1ボタン83a、L1ボタン83bはプッシュ式ボタンとして構成され、下側のR2ボタン84a、L2ボタン84bは回動支持されたトリガー式のボタンとして構成されてよい。
例えば、入力装置6の操作部材のうち、左アナログスティック77bを、視線方向の切替指示の入力に使用してもよい。左アナログスティック77bを左に傾けると、視線方向を左に動かし、また右に傾けると視線方向を右に動かしてもよい。このように左アナログスティック77bは、ユーザが直観的に視線方向を変更するのに適している。なお、他の操作部材、たとえば右アナログスティック77a、方向ボタン71などが、視線方向の切替指示の入力に使用されてもよい。
(第1実施例〜第4実施例に関する共通説明)
HMD100を装着したユーザは、外界がほぼ見えなくなり手元の確認も困難になる。そのため、HMD100にて映像等のコンテンツを視聴するユーザが、多くの入力部(ボタン、スティック等)を備える入力装置6を介して、情報処理装置10やHMD100へ適切な操作を入力することは困難なことがある。その一方、コンテンツの中には、限られた種類の操作しか必要としないものもある。例えば、映画やドラマ等のコンテンツでは再生開始と再生停止の操作ができればよい。
このような課題を解決するために、第1実施例〜第4実施例に亘り、操作用の新たなデバイスを設けることなく、HMD100を装着したユーザが簡易な操作を手軽に入力可能な仕組みを提案する。第1実施例〜第4実施例の情報処理システム1の構成は前提技術(図1)と同様であり、以下、前提技術で説明済みの内容は適宜省略する。
具体的には、第1実施例〜第3実施例では、HMD100を装着したユーザは、情報処理システム1に対する操作入力として、HMD100の筐体108の外面を叩く、なでる等の接触行為を行う。また、第4実施例では、HMD100を装着したユーザが、情報処理システム1に対する操作入力として、HMD100の近傍において手を広げる等のジェスチャーを行う。情報処理システム1は、このようなユーザの行為を前提技術で説明した既存のデバイスを用いて検出し、ユーザの行為に応じたデータ処理を実行する。
(第1実施例)
第1実施例では、ユーザによる接触行為を検知する手段として、HMD100が備えるマイク126を活用する。マイク126は、ユーザの接触行為に起因して生じた振動であり、具体的には空気の振動である音声を検出する。言い換えれば、マイク126は、ユーザの接触行為に起因して生じた振動を音声として検出する。マイク126により検出された音声のデータは、通信制御部128を介して情報処理装置10へ送信される。情報処理装置10は、HMD100から通知された音声データに基づいて、ユーザによる操作入力を検出する。
図11は、第1実施例の情報処理装置10の機能ブロックを示す図である。第1実施例のHMD100は、前提技術の機能ブロックに加えて、音声パターン記憶部50と操作識別部52をさらに備える。
音声パターン記憶部50は、HMD100の筐体108(出力機構部102、装着バンド106、装着機構部104を含む)の外面に対するユーザの接触行為に起因してHMD100のマイク126で検出される音声のパターンと、HMD100に関するデータ処理の種類との対応関係を保持する。音声パターン記憶部50に保持される音声のパターンは、空気振動のパターンとも言え、以下「操作音声パターン」と呼ぶ。
操作音声パターンは、音声取得部42で取得される音声データと比較する基準データである。操作音声パターンは、HMD100の筐体108の外面に対する特定の接触行為(例えば筐体108の前方左側を叩くこと)により生じる音声の波形に関するデータであってもよい。例えば、振幅のピーク、継続時間等の特性を示すデータであってもよい。また、操作音声パターンは、周波数の特性に関するデータであってもよく、例えばパワースペクトルのデータであってもよい。
操作識別部52は、HMD100から送信された音声データを音声取得部42から取得する。音声取得部42は、音声データを取得した場合に、その音声データを音声転送部44と操作識別部52の両方へ出力してもよい。操作識別部52は、音声パターン記憶部50に保持された対応関係にしたがって、HMD100で検出された音声に対応するデータ処理の種類を識別する。操作識別部52は、識別したデータ処理の種類を示す情報を画像生成部34へ通知する。画像生成部34は、操作識別部52により識別された種類のデータ処理を実行し、すなわち、HMD100で検出された音声に対応する種類のデータ処理を実行する。
例えば、操作識別部52は、公知の音声認識処理を実行して、音声取得部42で取得された音声データに操作音声パターンの成分が含まれるか否かを判定する。言い換えれば、操作識別部52は、HMD100から出力された音声データと操作音声パターンとが一致するか否かを判定する。操作識別部52は、音声取得部42で取得された音声データに操作音声パターンの成分が含まれる場合、言い換えれば、音声データと操作音声パターンとが一致する場合、その操作音声パターンに対応づけられたデータ処理の種類を識別する。
本実施例では、音声パターン記憶部50は、操作音声パターンと、情報処理装置10またはHMD100におけるデータ処理を指示する操作の種類とを対応付けて保持する。操作識別部52は、HMD100で検出された音声に対応する操作の種類を識別する。画像生成部34は、操作識別部52により識別された操作が入力されたと判定し、その操作に応じたデータ処理を実行する。
音声パターン記憶部50は、複数種類の操作音声パターンと、複数種類の操作とを対応づけて保持してもよい。操作識別部52は、HMD100から出力された音声データに応じて、複数種類の操作の中からいずれかを識別してもよい。具体的には、音声パターン記憶部50は、HMD100の筐体108の外面の異なる位置に対する接触行為に起因してHMD100のマイク126で検出されることが想定される複数種類の操作音声パターンと、複数種類の操作とを対応付けて保持してもよい。
例えば、筐体108の前面右側を叩く操作により生じる操作音声パターンと、決定操作(または「はい」の入力操作)とを対応づけて保持してもよい。また、筐体108の前面左側を叩く操作により生じる操作音声パターンと、キャンセル操作(または「いいえ」の入力操作)とを対応づけて保持してもよい。また、装着機構部104(筐体108後面)を叩く操作により生じる操作音声パターンと、オプション表示操作(または「戻る」操作)とを対応づけて保持してもよい。
また、音声パターン記憶部50は、HMD100の筐体108の外面の同じ位置に対する互いに異なる複数種類の接触行為に起因してHMD100のマイク126で検出されることが想定される複数種類の操作音声パターンと、複数種類の操作とを対応づけて保持してもよい。例えば、筐体108の前面右側を指の腹で叩く操作により生じる操作音声パターンと決定操作とを対応づけて保持してもよい。また、筐体108の前面右側を指の爪で叩く操作により生じる操作音声パターンとキャンセル操作とを対応づけて保持してもよい。また、筐体108の前面の右側を指でなでる操作(またはフリック操作)により生じる操作音声パターンとオプション表示操作とを対応づけて保持してもよい。
情報処理システム1では、筐体108の外面に対するユーザの接触行為(例えば叩く)に対して、ただ1つの操作を割り当てることも可能である。例えば、表示開始と表示終了、再生開始と再生停止、またはOK等の単一操作(言わばブーリアン値)を割り当ててもよい。また、上記のように、HMD100の筐体108の外面に対するユーザの接触位置と接触態様の組み合わせにより、複数種類の操作入力が可能になる。例えば、2種類の操作入力として、「決定」「キャンセル」の選択操作や二者択一操作が可能になる。また、3種類の操作入力として、「はい」「いいえ」「キャンセル」の選択操作や、「位置シーク(順方向)」「位置シーク(逆方向)」「再生開始および再生停止」の選択操作が可能になる。
HMD100の筐体108の外面においてユーザが選択的に接触すべき複数の位置は、マイク126により異なる音声が検出される位置に定めることが好ましい。例えば、複数の位置は、(1)マイク126との距離が異なる位置、(2)筐体108の材質が異なる位置、(3)ステレオマイクであれば複数のマイクで異なる音声が検出される位置を含んでもよい。さらに具体的には、筐体108の前面右側(例えば図3の発光マーカ110aと発光マーカ110cの間)と、筐体108の前面中央と、筐体108の前面左側(例えば図3の発光マーカ110bと発光マーカ110dの間)と、装着機構部104(筐体108の後面)を含んでもよい。音声パターン記憶部50は、各位置で発生する音に対応する操作音声パターンと操作との組み合わせを保持すればよい。
また、HMD100の筐体108外面に対するユーザによる複数種類の接触行為は、マイク126により異なる音声が検出される行為であることが望ましい。例えば、接触行為の種類として、指の腹で叩く、指の爪で叩く、指の腹でゆっくりなでる、指の腹で素早くなでる(フリック)等を許容してもよい。また、指1本で叩く、指2本で叩くといった行為を許容してもよい。音声パターン記憶部50は、各種類の接触行為に対応する操作音声パターンと操作との組み合わせを保持すればよい。
次に、本実施例の操作入力方法の使用例として、HMD100の姿勢調整に関する構成を説明する。
音声パターン記憶部50は、所定の操作音声パターン(ここでは「姿勢変更用パターン」と呼ぶ。)と、姿勢変更操作とを対応づけて保持する。姿勢変更操作は、HMD100における表示画像を回転させる操作とも言え、VR空間における視線方向を回転させる操作とも言える。操作識別部52は、HMD100から出力された音声データが、姿勢変更用パターンの成分を含む場合、姿勢変更操作が入力されたことを検出する。
前提技術にて既述したように、画像生成部34は、HMD100の姿勢に応じて、HMD100に表示させるVR空間の画像を生成する。第1実施例の画像生成部34は、操作識別部52から姿勢変更操作が入力されると、HMD100の姿勢が変更されたこととして、VR空間の画像を変化させる。具体的には、前提技術の図8で示したように、画像生成部34は、姿勢変更操作が示す方向へ視線方向が変化したと判定し、変化後の視線方向に基づいてVR空間の新たな表示画像を生成する。例えば、姿勢変更操作が入力される都度、その操作が示す向きに姿勢を30°回転させてもよい。
音声パターン記憶部50は、姿勢変更用パターンを、振り返り用姿勢変更操作と対応づけて保持してもよい。振り返り用姿勢変更操作は、視線方向を180°回転させる操作であり、言い換えれば、後ろを見ることを指示する操作である。画像生成部34は、操作識別部52から振り返り用姿勢変更操作が入力されると、HMD100の姿勢(言い換えればVR空間における視線方向)が180°回転したと認識し、VR空間の画像を変化させる。例えば、仮想球体における仮想カメラ8の向きを180°回転させ、それまでの背面にあたる位置の画像を生成し、表示させてもよい。
また、音声パターン記憶部50は、姿勢変更用パターンを、姿勢リセット操作と対応づけて保持してもよい。姿勢リセット操作は、HMD100の姿勢(VR空間における視線方向)を原点位置と正対する向きへ戻す操作である。画像生成部34は、操作識別部52から姿勢リセット操作が入力されると、HMD100の姿勢(VR空間における視線方向)を、VR空間で予め定められた原点位置に戻し、原点位置と正対した視線方向に基づいてVR空間の新たな表示画像を生成する。
例えば、音声パターン記憶部50では、HMD100の筐体108の前面左側を1回叩く行為に起因する音声を定めた操作音声パターンが、姿勢変更操作(左回転)に対応付けられてもよい。また、HMD100の筐体108の前面右側を1回叩く行為に起因する音声を定めた操作音声パターンが、姿勢変更操作(右回転)に対応付けられてもよい。また、HMD100の装着機構部104を1回叩く行為に起因する音声を定めた操作音声パターンが、振り返り用姿勢変更操作に対応付けられてもよい。また、HMD100の装着機構部104を2回叩く行為に起因する音声を定めた操作音声パターンが、姿勢リセット操作に対応付けられてもよい。
ユーザは、筐体108の前面左側、筐体108の前面右側、または装着機構部104を1回叩くことで、実際に自身の首を動かすことなく、VR空間における視線方向を回転させ、所望の方向の空間画像を手軽に見ることができる。その後、ユーザは、装着機構部104を2回叩くことで、視線方向をVR空間内の原点方向へ戻し、言い換えれば、VR空間において真正面を見つめた状態へ手軽に戻すことができる。
また、音声パターン記憶部50は、所定の操作音声パターン(ここでは「原点リセット用パターン」と呼ぶ。)と、原点リセット操作とを対応づけて保持する。この原点は、VR空間の原点を意味し、HMD100の姿勢が初期状態(回転、傾きがない状態)である場合の視線方向に正対する位置と言える、また、図2の仮想球体において初期姿勢の仮想カメラ8の真正面に当たる位置とも言える。操作識別部52は、HMD100から出力された音声データが、原点リセット用パターンの成分を含む場合、原点リセット操作が入力されたことを検出する。
前提技術にて既述したように、画像生成部34は、VR空間において予め定められた原点位置(例えば図8の視線方向202a)に対するHMD100の姿勢(回転角度および傾き角度)に応じてVR空間の画像を生成する。第1実施例の画像生成部34は、操作識別部52から原点リセット操作が入力されると、VR空間の原点を、HMD100の現在の姿勢へリセットし、言い換えれば、VR空間における現在の視線方向に正対する位置へリセットする。
例えば、音声パターン記憶部50は、HMD100の装着機構部104を1回叩く行為に起因する音声を定めた操作音声パターンと、原点リセット操作とを対応付けてもよい。情報処理システム1では、HMD100に描画するVR空間の原点が、ユーザの真正面の位置から徐々にずれていくことがあるが、ユーザは、装着機構部104を1回叩くことで、VR空間の原点をリセットできる。この態様によると、ユーザは手軽な操作でVR空間の原点を正しい位置に調整することができる。
次に、本実施例の操作入力方法の使用例として、VR空間(仮想的な3次元空間)におけるポインティングデバイス(言わば3次元マウス)を実現する構成を説明する。
音声パターン記憶部50は、所定の操作音声パターンと、VR空間に存在する(描画された)仮想的なオブジェクトに対する操作(以下「オブジェクト操作」と呼ぶ。)の種類とを対応づけて保持する。操作対象となるオブジェクトは、例えば、ゲームのキャラクタ、アイテム、建造物、またはギミックであってもよい。オブジェクト操作の種類は、選択操作、決定操作、キャンセル操作、またはオプション表示操作であってもよく、また、VR空間におけるオブジェクトの表示態様を変化させる操作であってよい。
例えば、筐体108の前面右側を1回叩く行為により生じる音声を定めた操作音声パターンが選択操作に対応付けられてもよい。また、筐体108の前面右側を2回叩く行為が、決定操作に対応付けられてもよい。また、筐体108の前面左側を1回叩く行為が、オプション表示操作に対応付けられてもよい。
操作識別部52は、HMD100から入力された音声データが操作音声パターンに整合する場合、その操作音声パターンに対応付けられたオブジェクト操作を識別し、画像生成部34へ通知する。
前提技術に記載したように、画像生成部34は、視線方向決定部32により定められた視線方向に応じて、HMD100に表示させるVR空間の画像を生成する。第1実施例の画像生成部34は、操作識別部52からオブジェクト操作が通知されると、そのときVR空間において視線方向に存在するオブジェクトを識別する。言い換えれば、ポインティングデバイスとしてのポインタが指す方向に存在するオブジェクトを識別する。画像生成部34は、識別したオブジェクトに対して、操作識別部52から通知されたオブジェクト操作を実行し、VR空間の画像を更新する。例えば、画像生成部34は、視線方向に存在するキャラクタを選択した状態を示す画像、そのキャラクタに対して決定操作を行った結果を示す画像等を生成し、すなわち視線方向に存在するキャラクタの表示態様を変化させる。
この態様によると、VR空間における3次元マウスを実現でき、VR空間に存在する各種オブジェクトに対する直観的な操作入力環境をユーザへ提供できる。例えば、ユーザは、VR空間において操作したいオブジェクトの方を見て、HMD100の筐体108を叩くことにより、そのオブジェクトに対する所望の操作を入力できる。
次に、本実施例の操作入力方法の使用例として、情報処理装置10にインストールされたシステムソフトウェアに対する操作と、アプリケーションソフトウェアに対する操作を実現する構成を説明する。
システムソフトウェアは、情報処理装置10とHMD100の稼働や使用そのものをサポートするソフトウェアであり、例えば情報処理装置10のカーネルやシェル(情報処理装置10のホーム画面の表示等)を含む。アプリケーションソフトウェアは、システムソフトウェア上で動作するゲームソフトウェアやメディアプレーヤー等であり、HMD100に表示されるエンターテインメントコンテンツの描画処理等を実行する。
音声パターン記憶部50は、複数の操作音声パターンと複数種類の操作とを対応づけて保持し、複数種類の操作は、システムソフトウェアに対する操作(以下「システム操作」と呼ぶ。)と、アプリケーションソフトウェアに対する操作(以下「App操作」と呼ぶ。)の両方を含む。システム操作は、例えば、情報処理装置10のホーム画面に対する操作や、アプリケーションソフトウェアの実行開始操作、実行中のアプリケーションソフトウェアの強制終了操作を含む。App操作は、例えば、ゲーム等の実行中のコンテンツに対する決定操作、キャンセル操作、姿勢調整操作を含む。
図12は、画像生成部34の詳細な機能ブロックを示す図である。画像生成部34は、システム画像生成部90とApp画像生成部92を含む。システム画像生成部90は、情報処理装置10のCPUまたはGPUがシステムソフトウェアを実行することにより実現される。App画像生成部92は、情報処理装置10のCPUまたはGPUがアプリケーションソフトウェアを実行することにより実現される。
システム画像生成部90は、操作識別部52がHMD100から入力された音声データに基づいて入力操作としてシステム操作を識別した場合に、そのシステム操作に応じたシステム画面の画像を生成する。例えば、操作識別部52により識別されたシステム操作を反映した情報処理装置10のホーム画面の画像を生成する。App画像生成部92は、操作識別部52がHMD100から入力された音声データに基づいて入力操作としてApp操作を識別した場合に、そのApp操作に応じたアプリケーション画面の画像を生成する。例えば、操作識別部52により識別されたApp操作を反映したアプリケーション画面の画像(ゲームのVR空間画像等)を生成する。
例えば、音声パターン記憶部50は、HMD100の筐体108の前方部(出力機構部102側)を叩くことに起因する音声のパターンをApp操作に対応付け、HMD100の筐体108の後方部(装着機構部104側)を叩くことに起因する音声のパターンをシステム操作に対応付けてもよい。これにより、ユーザは、視界が制限された状態でも、直観的な操作によりシステム操作とApp操作を区別して入力でき、誤操作を抑制することができる。
また、音声パターン記憶部50は、所定の操作音声パターンに対応付けるシステム操作として、アプリケーションソフトウェアの実行を中断させる操作(言わば強制終了操作)を対応付けてもよい。また、所定の操作音声パターンと、VR空間画像の表示を中断させる操作とを対応付けてもよい。システム画像生成部90は、操作識別部52がHMD100から入力された音声データに基づいて入力操作として上記の実行中断操作を識別した場合に、HMD100におけるアプリケーション画面の画像(例えばVR空間画像)の表示を中断させてもよい。それとともにシステム画像生成部90は、システム画面の画像(例えばホーム画面の画像)を生成し、画像提供部36は、それまでのアプリケーション画面の画像に代えて、システム画面の画像をHMD100に表示させてもよい。
この態様によると、HMD100の筐体108を叩く等の所定操作に基づいて緊急アクションを実現できる。例えば、HMD100を装着したユーザがVR空間画像を見て酔った場合に、HMD100の筐体108を叩くことで、VR空間画像の表示を中断させることができる。
図11に戻り、HMD100を装着したユーザが適切な操作を入力できるように支援するためのガイドをユーザへ提示する構成を説明する。
音声パターン記憶部50は、操作音声パターンとユーザ操作の組に対して、その操作音声パターンがHMD100の筐体108上のどの位置に対する操作(接触行為)かを示すデータ(以下「操作位置データ」と呼ぶ。)をさらに対応づけて保持する。操作識別部52は、HMD100から入力された音声データに基づいて、ある操作音声パターンに対応付けられた操作種類を識別した場合に、その操作音声パターンに対応付けられた操作位置データをさらに識別し、操作種類を示す情報と操作位置データとを画像生成部34へ出力する。
画像生成部34は、操作識別部52により識別された操作種類に該当するデータ処理を実行する際に、その操作種類を示すメッセージを含む表示画像200aを生成する。また画像生成部34は、操作識別部52から入力された操作位置データに基づいて、HMD100の筐体108上でのユーザの操作位置を示す情報を含む表示画像200aを生成する。これにより、適切な操作が入力できたか否かをユーザに把握させることができ、ユーザから情報処理装置10またはHMD100への操作入力を支援できる。
図13は、表示画像200aを示す図である。ここでは、ユーザが筐体108の左前面を叩いたこととし、また、その行為はキャンセル操作に対応付けられていることとする。この場合、画像生成部34は、HMD100の外観を示すHMD画像210を表示画像200aに設定し、HMD画像210においてユーザが叩いた位置(操作位置データが示す位置)に、操作入力の位置を報知する操作位置画像212を設定する。さらに画像生成部34は、ユーザの接触行為に基づいて入力が検出された操作を示すメッセージであり、言い換えれば、ユーザの接触行為に基づいて実行されるデータ処理の内容を示すメッセージである操作メッセージ214を表示画像200aに設定する。
図14も、表示画像200aを示す図である。ここでは、ユーザが筐体108の後方部(すなわち装着機構部104)を2回叩いたこととし、また、その行為は姿勢リセット操作に対応付けられていることとする。この場合、画像生成部34は、HMD100の姿勢情報をリセットし、VR空間画像の内容を変化させる際に、HMD画像210、操作位置画像212、操作メッセージ214を表示画像200aに設定する。なお、同図の操作位置画像212は、ユーザによる操作入力位置(叩いた位置)を矢印で示し、また、ユーザの操作入力態様(叩いた回数)を示す情報を含む。
以上の構成による第1実施例の情報処理装置10の動作を説明する。前提技術で記載したように、センサ情報取得部20は、HMD100から出力されたセンサ情報を取得し、撮影画像取得部22は、撮像装置7から出力された撮影画像を取得する。動き検出部30は、センサ情報と撮影画像に基づいてHMD100の姿勢を検出し、視線方向決定部32は、HMD100の姿勢に応じてVR空間におけるユーザの視線方向を定める。画像生成部34は、視線方向決定部32が定めた視線方向に基づくVR空間画像を生成する。画像提供部36は、生成した画像をHMD100へ提供して、HMD100の出力機構部102で表示させる。
HMD100を装着してVR空間画像を視聴中のユーザは、情報処理装置10のシステムを操作したい場合、または、情報処理装置10で実行中のアプリケーションを操作したい場合に、予め定められた態様でHMD100の筐体108の外面に接触する(典型的には叩く)。HMD100のマイク126は、そのユーザの行為に起因して生じた音を検出し、その音声データを情報処理装置10へ送信する。
音声取得部42は、HMD100から出力された音声データを取得する。操作識別部52は、取得された音声データと予め定められた操作音声パターンとが一致する場合に、その操作音声パターンに対応付けられた操作種類を識別する。画像生成部34は、操作識別部52により識別された種類の操作を、ユーザにより入力された操作として認識し、その操作に応じたデータ処理を実行する。そして画像生成部34は、データ処理の実行結果を反映した画像(例えばシステム画面やVR空間画像)を生成する。画像提供部36は、生成した画像をHMD100へ提供する。これにより、HMD100の筐体108を叩くというユーザの操作入力を反映した画像がHMD100に表示される。
第1実施例の情報処理システム1によると、ユーザがHMD100の筐体108の外面に接触するという行為により生じた音をマイクにより検出して、ユーザの接触行為の態様(接触位置、接触の仕方等)に応じた種類のデータ処理を実行する。これにより、外界が見えないため入力装置6の操作が困難なユーザに対して、直観的で、かつ、シンプルな操作入力環境を提供できる。
(第2実施例)
第2実施例では、ユーザの接触行為を検知する手段として、HMD100が備える姿勢センサ124(具体的には加速度センサおよびジャイロセンサ)を活用する。姿勢センサ124は、ユーザの接触行為に起因して生じた振動(HMD100自体の振動)を検出し、言い換えれば、ユーザの接触行為に起因するHMD100の動きを検出する。姿勢センサ124は、HMD100に生じた振動を検知する振動センサとも言える。HMD100の通信制御部128は、姿勢センサ124により取得したセンサ情報を情報処理装置10へ送信する。情報処理装置10は、HMD100から入力されたセンサ情報に基づいて、ユーザによる操作入力を検知する。HMD100から入力されるセンサ情報は、姿勢センサ124が検出した振動・動きを示す電気信号を含み、以下「振動データ」と呼ぶ。
図15は、第2実施例の情報処理装置10の機能ブロックを示す図である。第2実施例のHMD100は、前提技術の機能ブロックに加えて、振動パターン記憶部54と操作識別部56をさらに備える。振動パターン記憶部54は、第1実施例の音声パターン記憶部50に対応し、操作識別部56は、第1実施例の操作識別部52に対応する。
振動パターン記憶部54は、HMD100の筐体108(出力機構部102、装着バンド106、装着機構部104を含む)の外面に対するユーザの接触行為に起因してHMD100の姿勢センサ124で検出される振動のパターンと、HMD100に関するデータ処理の種類との対応関係を保持する。
振動パターン記憶部54に保持される振動のパターンを、以下「操作振動パターン」と呼ぶ。操作振動パターンは、センサ情報取得部20で取得される振動データと比較する基準データである。操作振動パターンは、HMD100の筐体108の外面に対する特定の接触行為(例えば筐体108の前方左側を叩くこと)により生じる振動の特徴を示すデータであってもよい。例えば、操作振動パターンは、振動の波形に関するデータ(振幅のピーク、継続時間等の特性を示すデータ)であってもよい。また、振動の周波数の特性に関するデータ(パワースペクトルのデータ)であってもよい。
操作識別部56は、HMD100から送信された振動データをセンサ情報取得部20から取得する。センサ情報取得部20は、振動データを取得した場合に、その振動データを動き検出部30と操作識別部56の両方へ出力してもよい。操作識別部56は、振動パターン記憶部54に保持された対応関係にしたがって、HMD100で検出された振動に対応するデータ処理の種類を識別する。
例えば、操作識別部56は、公知のパターンマッチング処理を実行して、センサ情報取得部20で取得された振動データに操作振動パターンの成分が含まれるか否かを判定してもよい。言い換えれば、操作識別部56は、公知のパターンマッチング処理を実行して、HMD100から出力された振動データと操作振動パターンとが一致するか否かを判定してもよい。操作識別部56は、センサ情報取得部20で取得された振動データに操作振動パターンの成分が含まれる場合、言い換えれば、振動データと操作振動パターンとが一致する場合、その操作振動パターンに対応づけられたデータ処理の種類を識別する。
操作識別部56は、識別したデータ処理の種類を示す情報を画像生成部34へ通知する。画像生成部34は、操作識別部56により識別された種類のデータ処理を実行し、すなわち、HMD100で検出された振動に対応する種類のデータ処理を実行する。
第1実施例の情報処理装置10は、HMD100のマイク126で検出された音(空気振動)に基づいてユーザの操作を検知する一方、第2実施例の情報処理装置10は、HMD100の姿勢センサ124で検出された振動に基づいてユーザの操作を検知する点で異なるが、その余の構成は同様である。したがって、第1実施例の音声データを第2実施例では振動データに置き換え、第1実施例の操作音声パターンを第2実施例では操作振動パターンに置き換えることで、第1実施例に記載の構成および動作を第2実施例に当てはめることができる。また、第2実施例においても第1実施例と同様の効果を奏する。
(第3実施例)
第3実施例では、ユーザの接触行為を検知する手段として、HMD100が備えるマイク126と姿勢センサ124(具体的には加速度センサおよびジャイロセンサ)の両方を活用する。
図16は、第3実施例の情報処理装置10の機能ブロックを示す図である。第3実施例のHMD100は、前提技術の機能ブロックに加えて、音声パターン記憶部50、振動パターン記憶部54、第1操作識別部58、第2操作識別部60、照合部62をさらに備える。第3実施例の音声パターン記憶部50、第1操作識別部58は、第1実施例の音声パターン記憶部50、操作識別部52と同じである。第3実施例の振動パターン記憶部54、第2操作識別部60は、第2実施例の振動パターン記憶部54、操作識別部56と同じである。
照合部62は、HMD100から入力された音声データに基づき第1操作識別部58が識別した操作種類(ここでは「第1の操作種類」と呼ぶ。)と、HMD100から入力された振動データに基づいて第2操作識別部60が識別した操作種類(ここでは「第2の操作種類」)とを照合し、両者が一致するか否かを判定する。第1の操作種類と第2の操作種類とが一致する場合、照合部62は、第1の操作種類(または第2の操作種類)を示す情報を画像生成部34へ入力する。画像生成部34は、第1の操作種類(または第2の操作種類)に応じたデータ処理を実行し、そのデータ処理を反映した画像を生成する。
その一方、第1の操作種類と第2の操作種類が不一致の場合、または、第1の操作種類と第2の操作種類の少なくとも一方が未入力である場合、照合部62は、第1の操作種類(または第2の操作種類)を示す情報を画像生成部34へ入力することを抑制する。すなわち、HMD100から入力された音声データと振動データを、操作入力のデータとしては無効なものとして扱う。
このように第3実施例では、HMD100で検知された音声に基づいて識別した操作と、HMD100で検知された振動に基づいて識別した操作とが一致することを条件として、識別した操作に基づくデータ処理を実行する。その余の構成は、第1実施例および第2実施例と同様であり、第1実施例および第2実施例に記載の構成および動作を第3実施例に当てはめることができることはもちろんである。第3実施例によると、第1実施例の効果に加えて、ユーザによるHMD100への接触行為を正しい操作入力にマッピングする正確度を高めることができる。言い換えれば、ユーザが意図しない操作を情報処理装置10が検出し、実行してしまうことを抑制できる。
(第4実施例)
第4実施例では、ユーザによるHMD100の近傍位置でのジェスチャー行為を検知する手段として撮像装置7を活用する。撮像装置7は、ユーザのジェスチャー行為を反映した撮影画像を情報処理装置10へ出力する。情報処理装置10は、撮像装置7から入力された撮影画像により特定されるHMD100とユーザのジェスチャー行為(典型的にはユーザの手)との位置関係に基づいて、ユーザによる操作入力を検出する。
図17は、第4実施例の情報処理装置10の機能ブロックを示す図である。第4実施例の情報処理装置10は、前提技術の機能ブロックに加えて、画像パターン記憶部64と操作識別部66をさらに備える。
画像パターン記憶部64は、HMD100の近傍位置でのユーザのジェスチャー行為に起因して撮像装置7から出力される撮影画像のパターン(以下「操作画像パターン」と呼ぶ。)と、HMD100に関するデータ処理の種類との対応関係を保持する。本実施例では、画像パターン記憶部64は、操作画像パターンと、情報処理装置10またはHMD100におけるデータ処理を指示する操作の種類とを対応付けて保持する。
ジェスチャー行為は、(1)HMD100の上方で片手を広げること、(2)HMD100の左側面で片手を広げることであってもよい。またジェスチャー行為は、(3)HMD100の前面左側を手で覆う(発光マーカ110bと110dを隠すように覆う)こと、(4)HMD100の前面右側を手で覆う(発光マーカ110aと110cを隠すように覆う)こと、(5)HMD100の前面全体を手で覆う(発光マーカ110a、110b、110c、110dの全てを隠すように覆う)ことであってもよい。
操作画像パターンは、撮影画像取得部22で取得される撮影画像と比較する基準データである。操作画像パターンは、HMD100の近傍で特定のジェスチャーがなされた場合のHMD100の外観を示す画像であり、そのジェスチャー行為時に撮像装置7から出力されることが想定される画像データであってもよい。また、操作画像パターンは、特定のジェスチャー行為がなされた場合の撮影画像の外観上の特徴を定めたデータであってもよい。
具体的には、操作画像パターンは、HMD100とジェスチャーとの位置関係を定めたデータであってもよい。また、操作画像パターンは、発光マーカ110a、110b、110c、110dに対するオブジェクト(典型的にはユーザの手であり、以下「操作オブジェクト」と呼ぶ。)との位置関係を示すデータであってもよい。また、操作画像パターンは、発光マーカ110a、110b、110c、110dが検出されたか否かを示すデータであってもよく、さらに各発光マーカの検出状態と操作オブジェクトとの位置関係とを組み合わせたデータであってもよい。
操作識別部66は、撮像装置7から送信された撮影画像を撮影画像取得部22から取得する。撮影画像取得部22は、撮影画像を取得した場合に、その撮影画像を動き検出部30と操作識別部66の両方へ出力してもよい。操作識別部66は、画像パターン記憶部64に保持された対応関係にしたがって、撮影画像に対応するデータ処理の種類を識別する。本実施例では、操作識別部66は、撮像装置7から出力された撮影画像に対応付けられた操作の種類を識別する。操作識別部66は、識別したデータ処理の種類(本実施例では操作の種類)を示す情報を画像生成部34へ通知する。
操作識別部52は、公知のテンプレートマッチング処理を実行して、撮影画像取得部22で取得された撮影画像に操作画像パターンの成分が含まれるか否かを判定し、言い換えれば、撮影画像と操作画像パターンとが一致するか否かを判定してもよい。また、操作識別部66は、撮影画像取得部22で取得された撮影画像に操作画像パターンの成分が含まれる場合、言い換えれば、撮影画像と操作画像パターンとが一致する場合、その操作画像パターンに対応づけられたデータ処理の種類を識別してもよい。
さらにまた、操作識別部66は、撮像装置7から出力された撮影画像が示すHMD100とジェスチャーとの位置関係に対応するデータ処理の種類を識別してもよい。例えば、操作識別部66は、HMD100の位置を発光マーカ110a、110b、110c、110dの位置に基づいて特定し、撮像装置7からの距離が撮像装置7から発光マーカへの距離に近似する物体を操作オブジェクトとして識別し、HMD100と操作オブジェクトとの位置関係を特定してもよい。さらにまた、操作識別部66は、HMD100からの距離、言い換えれば、少なくとも1つの発光マーカからの距離が所定の範囲内に存在する物体を操作オブジェクトとして識別してもよい。さらにまた、操作識別部66は、HMD100を装着したユーザの輪郭を撮影画像から検出し、ユーザの輪郭と連結された物体を操作オブジェクトとして識別してもよい。
さらにまた、操作識別部66は、撮像装置7から出力された撮影画像が示す発光マーカ110a、110b、110c、110dそれぞれの検出状態(検出有無)に合致する操作画像パターンを識別し、その操作画像パターンに対応付けられた操作種類を実行対象の操作として識別してもよい。また、操作識別部66は、各発光マーカの検出状態と、HMD100と操作オブジェクトとの位置関係との組み合わせを撮影画像から特定して、その組み合わせに合致する操作画像パターンに対応付けられた操作種類を実行対象の操作として識別してもよい。
画像生成部34は、操作識別部66により識別された種類のデータ処理を実行し、すなわち、撮像装置7から出力された撮影画像に対応する種類のデータ処理を実行する。本実施例では、画像生成部34は、操作識別部66により識別された操作が入力されたと判定し、その操作に応じたデータ処理を実行する。
第1実施例の情報処理装置10は、HMD100のマイク126で検出された音(空気振動)に基づいてユーザの操作を検知する一方、第4実施例の情報処理装置10は、撮像装置7により撮影された画像に基づいてユーザの操作を検知する点で異なるが、その余の構成は同様である。したがって、第1実施例の音声データを第4実施例では撮影画像に置き換え、第1実施例の操作音声パターンを第4実施例では操作画像パターンに置き換えることで、第1実施例に記載の構成を第4実施例に当てはめることができる。
例えば、画像パターン記憶部64は、複数種類の操作画像パターンと、HMD100に関する複数種類のデータ処理(HMD100または情報処理装置10に対する操作)の識別情報とを対応づけて保持してもよい。操作識別部66は、撮像装置7から出力された撮影画像と操作画像パターンとの照合結果に応じて、複数種類のデータ処理の中からいずれかを識別してもよい。画像生成部34は、操作識別部66により識別された種類のデータ処理を実行して、その実行結果を反映したVR空間画像を生成してもよい。
また、画像パターン記憶部64は、所定の操作画像パターンに対応付けるシステム操作として、実行中のアプリケーションソフトウェアの強制中断操作を対応付けてもよい。画像生成部34(図12のシステム画像生成部90)は、撮像装置7から所定の操作画像パターンの撮影画像が出力され、操作識別部66が上記の強制中断操作を識別した場合に、HMD100におけるアプリケーション画面の画像(例えばVR空間画像)の表示を中断させてもよい。そして画像生成部34は、システム画面の画像(例えばホーム画面の画像)を生成し、画像提供部36は、それまでのアプリケーション画面の画像に代えて、システム画面の画像をHMD100に表示させてもよい。
図18は、ジェスチャーの例を示す。同図に示す、HMD100の出力機構部102の前面全体を覆うようなジェスチャー(言い換えれば4つの発光マーカを全て覆い隠すようなジェスチャー)が上記の強制中断操作と対応付けられてもよい。例えば、画像パターン記憶部64は、4つの発光マーカ全ての発光が未検出であることを示す操作画像パターンと、上記の強制中断操作とを対応付けて保持してもよい。
図17に戻り、第4実施例においても適切な操作入力を支援するガイドを表示させてもよい。具体的には、画像パターン記憶部64は、操作音声パターンと操作種類の組に対して、HMD100とジェスチャーとの位置関係を示すデータ(以下「ジェスチャー位置データ」と呼ぶ。)をさらに対応づけて保持する。ジェスチャー位置データは、撮影画像を基に検出された操作オブジェクト(例えばユーザの手)の位置を示すデータでもよく、HMD100を基準とした場合の操作オブジェクトの相対位置を示すデータででもよい。
操作識別部66は、撮像装置7から入力された撮影画像に基づいて、ある操作画像パターンに対応付けられた操作種類を識別した場合に、その操作画像パターンに対応付けられたジェスチャー位置データをさらに識別する。操作識別部66は、操作種類の情報とジェスチャー位置データとを画像生成部34へ出力する。
画像生成部34は、操作識別部66により識別された操作種類に基づくデータ処理を実行する際に、その操作種類を示すメッセージを含む表示画像200aを生成する。また画像生成部34は、操作識別部66から入力されたジェスチャー位置データに基づいて、HMD100に対するジェスチャー位置を示す情報を含む表示画像200aを生成する。これにより、適切な操作が入力できたか否かをユーザに把握させることができ、ユーザから情報処理装置10またはHMD100への操作入力を支援できる。
図19は、表示画像200aを示す図である。ここでは、ユーザがHMD100の左前方部を手で覆ったこととし、また、そのジェスチャーはキャンセル操作に対応付けられていることとする。この場合、画像生成部34は、HMD100の外観を示すHMD画像210を表示画像200aに設定し、HMD画像210において操作オブジェクトが検出された位置(ジェスチャー位置データが示す位置)にジェスチャー位置画像216を設定する。さらに画像生成部34は、ユーザのジェスチャーに基づいて入力が検出された操作を示すメッセージであり、言い換えれば、ユーザのジェスチャーに基づいて実行されるデータ処理の内容を示す操作メッセージ214を表示画像200aに設定する。
図20も、表示画像200aを示す図である。ここでは、図18で示したように、ユーザがHMD100の前面全体を手で覆ったこととし、また、そのジェスチャーはアプリケーションの実行を強制的に中断させる操作に対応付けられていることとする。この場合、画像生成部34は、アプリケーションが描画したVR空間の表示からシステム画面の表示へ戻す際に、HMD画像210、ジェスチャー位置画像216、操作メッセージ214を表示画像200aに設定する。
なお、第1実施例に記載の姿勢調整処理、3次元マウス用のデータ処理、システム操作およびApp操作についても、それらの操作やデータ処理を操作画像パターンと対応付けることで、それらの操作やデータ処理をユーザのジェスチャーを契機として実行できる。
第4実施例の情報処理システム1によると、ユーザがHMD100の近傍で所定のジェスチャーを行ったことを撮像装置7の撮影画像で検出し、ユーザのジェスチャーの態様(ジェスチャーの位置や形態、HMD100の発光マーカの検出状況等)に応じた種類のデータ処理を実行する。これにより、外界の確認が困難なユーザに対して、直観的で、かつ、シンプルな操作入力環境を提供できる。また、第4実施例の操作入力方法によると、ユーザはHMD100に直接触れる必要がなく、HMD100のずれが生じないというメリットがある。
以上、本発明を第1実施例〜第4実施例をもとに説明した。これらの実施例は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
上記実施例では言及していないが、各実施例における操作音声パターン、操作振動パターン、操作画像パターンは、既存の入力装置6において入力可能な操作種類と対応付けて記憶されてもよい。例えば、第1実施例の音声パターン記憶部50は、複数種類の操作音声パターンを、入力装置6における複数種類の入力部の操作と対応付けて記憶してもよい。複数種類の入力部の操作は、例えば、上ボタン71aの押下操作、△ボタン75の押下操作、右アナログスティック77aを右に倒す操作を含む。
操作識別部52は、HMD100から入力された音声データに整合する操作音声パターンを識別し、その操作音声パターンに対応する入力装置6の操作種類を画像生成部34へ渡す。この場合、画像生成部34は、操作識別部52から入力された入力装置6の操作種類を、指示取得部24からの入力と同様に取り扱って、入力された操作種類に応じたデータ処理を実行してもよい。
例えば、HMD100の装着機構部104を2回叩くことに対応する操作音声パターンに、アプリケーション画面からシステムのホーム画面へ戻すことを指示する入力装置6の所定ボタン(ホームボタン80とする)の押下操作が対応付けられてもよい。この場合、操作識別部52は、HMD100から入力された音声データに整合する操作音声パターンを識別し、ホームボタン80の押下操作を画像生成部34に指示してもよい。画像生成部34は、ホームボタン80の押下操作が入力されたと認識し、それまでのアプリケーション画面に代えて、システムのホーム画面を生成し、表示させてもよい。
また、上記実施例では、HMD100に対するユーザの接触またはジェスチャーに応じたデータ処理を、HMD100とは別の情報処理装置10が実行した。変形例として、HMD100に対するユーザの接触またはジェスチャーに応じたデータ処理をHMD100が実行してもよい。例えば、上記実施例における情報処理装置10の機能ブロックを含むチップまたはコンピュータプログラムがHMD100に組み込まれてもよい。
また、上記実施例では、HMD100を装着したユーザが、HMD100または情報処理装置10に対する操作を入力するために、HMD100に対して所定の接触行為やジェスチャーを行った。上記実施例に記載の技術の対象はHMD100に制限されない。例えば、マイクおよび/または姿勢センサ(加速度センサ、ジャイロセンサ)を備える携帯情報端末(携帯型ゲーム機等)にも適用可能である。また、カメラを備える携帯情報端末にも適用可能である。これらの携帯情報端末に、各実施例で記載した情報処理装置10の機能が実装されればよい。
ユーザは、携帯情報端末を予め定められた態様で叩く、またはなでるという直観的な操作で、所望のデータ処理を携帯情報端末に実行させることができる。同様に、ユーザは、携帯情報端末の近傍(カメラの画角内)で予め定められたジェスチャーを行うという直観的な操作で、所望のデータ処理を携帯情報端末に実行させることができる。
上述した実施例および変形例の任意の組み合わせもまた本発明の実施の形態として有用である。組み合わせによって生じる新たな実施の形態は、組み合わされる実施例および変形例それぞれの効果をあわせもつ。
例えば、第1実施例(または第2実施例、第3実施例)と第4実施例との組み合わせもまた本発明の実施の形態として有用である。具体的には、情報処理装置10は、第1実施例の機能ブロック(図11)に加えて、画像パターン記憶部64、操作識別部66(図17)をさらに備えてもよい。この場合、情報処理装置10は、HMD100のマイク126で検出された音声に基づいて実行対象のデータ処理の種類を識別し、そのデータ処理操作を実行することと、撮像装置7から出力された撮影画像に基づいて実行対象のデータ処理の種類を識別し、そのデータ処理操作を実行することとを並行実行してもよい。すなわち、情報処理装置10は、第1実施例に記載した操作検出およびデータ処理と、第4実施例に記載した操作検出およびデータ処理とを別個に独立して実行してもよい。
また、音声(または振動)と画像をアンド条件としてデータ処理を実行してもよい。例えば、情報処理装置10は、HMD100のマイク126で検出された音声に基づいて識別したデータ処理の種類と、撮像装置7から出力された撮影画像に基づいて識別したデータ処理の種類とが一致する場合に、当該データ処理を実行してもよい。その一方、音声に基づいて識別したデータ処理の種類と、撮影画像に基づいて識別したデータ処理の種類とが不一致の場合、いずれのデータ処理の実行も抑制してもよい。すなわち、情報処理装置10は、第1実施例の方法で入力を検出した操作と、第4実施例の方法で入力を検出した操作とが一致することを条件に、その操作入力に対応するデータ処理を実行してもよい。ここでの第1実施例の処理は、第2実施例の処理または第3実施例の処理に置き換え可能である。
請求項に記載の各構成要件が果たすべき機能は、上述した実施例および変形例において示された各構成要素の単体もしくはそれらの連携によって実現されることも当業者には理解されるところである。
10 情報処理装置、 20 センサ情報取得部、 22 撮影画像取得部、 30 動き検出部、 32 視線方向決定部、 42 音声取得部、 48 データ処理部、 100 HMD、 108 筐体、 126 マイク。

Claims (12)

  1. ヘッドマウントディスプレイを装着したユーザによる前記ヘッドマウントディスプレイの筐体外面に対する所定の接触行為に起因して前記ヘッドマウントディスプレイで検出される振動のパターンと、前記ヘッドマウントディスプレイに関するデータ処理の種類との対応関係、および/または、前記ヘッドマウントディスプレイを装着したユーザによる前記ヘッドマウントディスプレイ近傍での所定のジェスチャー行為に起因して前記ヘッドマウントディスプレイを撮像する装置から出力される画像のパターンと、前記ヘッドマウントディスプレイに関するデータ処理の種類との対応関係を保持する記憶部と、
    前記ヘッドマウントディスプレイで検出された振動に関する情報を取得し、および/または、前記撮像する装置から出力された画像を取得する取得部と、
    前記記憶部に保持された対応関係にしたがって、前記ヘッドマウントディスプレイで検出された振動に対応する種類のデータ処理を実行し、および/または、前記撮像する装置から出力された画像に対応する種類のデータ処理を実行するデータ処理部と、
    を備えることを特徴とする情報処理装置。
  2. 前記記憶部は、前記ヘッドマウントディスプレイの筐体外面の異なる位置に対する接触行為に起因して前記ヘッドマウントディスプレイで検出される複数種類の振動のパターンと、前記ヘッドマウントディスプレイに関する複数種類のデータ処理との対応関係を保持し、
    前記データ処理部は、前記ヘッドマウントディスプレイで検出された振動に応じて、前記複数種類のデータ処理の中からいずれかを実行することを特徴とする請求項1に記載の情報処理装置。
  3. 前記記憶部は、前記ヘッドマウントディスプレイの筐体外面の同じ位置に対する複数種類の接触行為に起因して前記ヘッドマウントディスプレイで検出される複数種類の振動のパターンと、前記ヘッドマウントディスプレイに関する複数種類のデータ処理との対応関係を保持し、
    前記データ処理部は、前記ヘッドマウントディスプレイで検出された振動に応じて、前記複数種類のデータ処理の中からいずれかを実行することを特徴とする請求項1または2に記載の情報処理装置。
  4. 前記ヘッドマウントディスプレイの姿勢を検出する検出部をさらに備え、
    前記データ処理部は、前記ヘッドマウントディスプレイの姿勢に応じて、前記ヘッドマウントディスプレイに表示させる仮想空間の画像を生成し、前記ヘッドマウントディスプレイで所定パターンの振動が検出された場合、前記ヘッドマウントディスプレイの姿勢が変化したこととして前記仮想空間の画像を変化させることを特徴とする請求項1から3のいずれかに記載の情報処理装置。
  5. 前記ヘッドマウントディスプレイで表示される仮想空間の原点に対する前記ヘッドマウントディスプレイの姿勢を検出する検出部をさらに備え、
    前記データ処理部は、前記ヘッドマウントディスプレイの姿勢に応じて前記仮想空間の画像を生成し、前記ヘッドマウントディスプレイで所定パターンの振動が検出された場合、前記仮想空間の原点をリセットすることを特徴とする請求項1から3のいずれかに記載の情報処理装置。
  6. 前記ヘッドマウントディスプレイの姿勢を検出する検出部と、
    前記検出部により検出されたヘッドマウントディスプレイの姿勢に応じて、視線方向を定める視線方向決定部と、をさらに備え、
    前記データ処理部は、
    前記視線方向決定部により定められた視線方向に応じて、前記ヘッドマウントディスプレイに表示させる仮想空間の画像を生成し、
    前記ヘッドマウントディスプレイで所定パターンの振動が検出された場合、前記仮想空間において視線方向に存在するオブジェクトに関する所定のデータ処理を実行することを特徴とする請求項1から3のいずれかに記載の情報処理装置。
  7. 前記記憶部は、前記所定の接触行為に起因して前記ヘッドマウントディスプレイで検出される振動のパターンとして、前記ヘッドマウントディスプレイのマイクで検出される音声のパターンを保持し、
    前記取得部は、前記ヘッドマウントディスプレイのマイクで検出された音声に関する情報を取得し、
    前記データ処理部は、前記ヘッドマウントディスプレイのマイクで検出された音声に対応する種類のデータ処理を実行することを特徴とする請求項1から6のいずれかに記載の情報処理装置。
  8. 前記記憶部は、前記画像のパターンとして、前記ジェスチャー行為と前記ヘッドマウントディスプレイとの位置関係を定めたデータを保持し、
    前記データ処理部は、前記撮像する装置から出力された画像が示す前記ジェスチャー行為と前記ヘッドマウントディスプレイとの位置関係に対応する種類のデータ処理を実行することを特徴とする請求項1から7のいずれかに記載の情報処理装置。
  9. 前記記憶部は、前記ヘッドマウントディスプレイ近傍における複数種類のジェスチャー行為に起因して前記撮像する装置から出力される複数種類の画像のパターンと、前記ヘッドマウントディスプレイに関する複数種類のデータ処理との対応関係を保持し、
    前記データ処理部は、前記撮像する装置から出力された画像に応じて、前記複数種類のデータ処理の中からいずれかを実行することを特徴とする請求項1から8のいずれかに記載の情報処理装置。
  10. 前記データ処理部は、仮想空間の画像を前記ヘッドマウントディスプレイに表示させ、前記撮像する装置から所定パターンの画像が出力された場合、前記ヘッドマウントディスプレイにおける前記仮想空間の画像の表示を中断させることを特徴とする請求項1から9のいずれかに記載の情報処理装置。
  11. ヘッドマウントディスプレイで検出された振動に関する情報を取得し、および/または、前記ヘッドマウントディスプレイを撮像する装置から出力された画像を取得するステップと、
    前記ヘッドマウントディスプレイを装着したユーザによる前記ヘッドマウントディスプレイの筐体外面に対する所定の接触行為に起因して前記ヘッドマウントディスプレイで検出される振動のパターンと、前記ヘッドマウントディスプレイに関するデータ処理の種類とを予め対応付けたデータにしたがって、前記取得するステップで取得された情報が示す振動に対応する種類のデータ処理を実行し、および/または、前記ヘッドマウントディスプレイを装着したユーザによる前記ヘッドマウントディスプレイ近傍での所定のジェスチャー行為に起因して前記撮像する装置から出力される画像のパターンと、前記ヘッドマウントディスプレイに関するデータ処理の種類とを予め対応付けたデータにしたがって、前記取得するステップで取得された画像に対応する種類のデータ処理を実行するステップと、
    をコンピュータが実行することを特徴とする情報処理方法。
  12. ヘッドマウントディスプレイで検出された振動に関する情報を取得し、および/または、前記ヘッドマウントディスプレイを撮像する装置から出力された画像を取得する機能と、
    前記ヘッドマウントディスプレイを装着したユーザによる前記ヘッドマウントディスプレイの筐体外面に対する所定の接触行為に起因して前記ヘッドマウントディスプレイで検出される振動のパターンと、前記ヘッドマウントディスプレイに関するデータ処理の種類とを予め対応付けたデータにしたがって、前記取得する機能により取得された情報が示す振動に対応する種類のデータ処理を実行し、および/または、前記ヘッドマウントディスプレイを装着したユーザによる前記ヘッドマウントディスプレイ近傍での所定のジェスチャー行為に起因して前記撮像する装置から出力される画像のパターンと、前記ヘッドマウントディスプレイに関するデータ処理の種類とを予め対応付けたデータにしたがって、前記取得する機能により取得された画像に対応する種類のデータ処理を実行する機能と、
    をコンピュータに実現させるためのコンピュータプログラム。
JP2016113855A 2016-06-07 2016-06-07 情報処理装置、情報処理方法、およびコンピュータプログラム Active JP6668170B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016113855A JP6668170B2 (ja) 2016-06-07 2016-06-07 情報処理装置、情報処理方法、およびコンピュータプログラム
US15/433,240 US10303244B2 (en) 2016-06-07 2017-02-15 Information processing apparatus, information processing method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016113855A JP6668170B2 (ja) 2016-06-07 2016-06-07 情報処理装置、情報処理方法、およびコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2017220032A true JP2017220032A (ja) 2017-12-14
JP6668170B2 JP6668170B2 (ja) 2020-03-18

Family

ID=60483184

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016113855A Active JP6668170B2 (ja) 2016-06-07 2016-06-07 情報処理装置、情報処理方法、およびコンピュータプログラム

Country Status (2)

Country Link
US (1) US10303244B2 (ja)
JP (1) JP6668170B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020108098A (ja) * 2018-12-28 2020-07-09 キヤノン株式会社 電子機器及びその制御方法
JP2020107270A (ja) * 2018-12-28 2020-07-09 キヤノン株式会社 電子機器及びその制御方法
US11256097B2 (en) 2018-05-30 2022-02-22 Sony Interactive Entertainment Inc. Image generation apparatus, image display system, image generation method, and computer program
JP7039672B1 (ja) 2020-10-29 2022-03-22 ソフトバンク株式会社 制御装置、プログラム、及び制御方法
US20220404175A1 (en) * 2021-06-16 2022-12-22 Microsoft Technology Licensing, Llc Surface sensing via resonant sensor
WO2023063161A1 (ja) * 2021-10-12 2023-04-20 ソニーグループ株式会社 情報処理システム、制御方法及び制御プログラム

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102280169B1 (ko) * 2017-03-06 2021-07-21 삼성전자주식회사 영상을 처리하는 방법 및 장치
KR102330264B1 (ko) * 2017-08-04 2021-11-23 삼성전자주식회사 움직임 정보에 기반하여 동영상을 재생하기 위한 장치 및 그의 동작 방법
FR3075985B1 (fr) * 2017-12-21 2019-11-15 Thales Procede et systeme d'harmonisation duale d'un systeme d'affichage tete haute porte pour rendre conforme l'affichage d'informations de pilotage d'un aeronef avec le monde reel exterieur
US10606364B2 (en) * 2018-06-14 2020-03-31 Dell Products, L.P. Two-handed gesture sequences in virtual, augmented, and mixed reality (xR) applications
CN115407676A (zh) 2018-06-15 2022-11-29 谷歌有限责任公司 使用增强现实可视化的智能家居设备放置和安装
US10871939B2 (en) * 2018-11-07 2020-12-22 Nvidia Corporation Method and system for immersive virtual reality (VR) streaming with reduced audio latency
CN109770489A (zh) * 2019-01-31 2019-05-21 歌尔科技有限公司 应用于游戏手环的表带、游戏手环及游戏控制方法
US11960086B2 (en) * 2019-02-22 2024-04-16 Sony Interactive Entertainment Inc. Image generation device, head-mounted display, and image generation method
US11622100B2 (en) * 2021-02-17 2023-04-04 flexxCOACH VR 360-degree virtual-reality system for dynamic events

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63278100A (ja) * 1987-04-30 1988-11-15 株式会社東芝 音声認識装置
JP2006025079A (ja) * 2004-07-07 2006-01-26 Nec Tokin Corp ヘッドセット及び無線通信システム
JP2010026731A (ja) * 2008-07-17 2010-02-04 Nec Saitama Ltd 文字入力装置、文字入力方法、文字入力システム、文字入力サーバー及び端末
WO2014147989A1 (ja) * 2013-03-22 2014-09-25 トヨタ自動車株式会社 コミュニケーションシステム及びロボット
WO2014197231A2 (en) * 2013-06-07 2014-12-11 Sony Computer Entertainment Inc. Switching mode of operation in a head mounted display
WO2014197338A2 (en) * 2013-06-08 2014-12-11 Sony Computer Entertainment Inc. Systems and methods for customizing optical representation of views provided by a head mounted display based on optical prescription of a user
WO2015136952A1 (ja) * 2014-03-12 2015-09-17 コニカミノルタ株式会社 ジェスチャー認識装置、ヘッドマウントディスプレイ、および携帯端末
WO2016021252A1 (ja) * 2014-08-05 2016-02-11 ソニー株式会社 情報処理装置及び情報処理方法、並びに画像表示システム
US20160077651A1 (en) * 2014-09-17 2016-03-17 Fxgear Inc. Head-mounted display controlled by tapping, method for controlling the same and computer program product for controlling the same
JP2016081476A (ja) * 2014-10-22 2016-05-16 株式会社ソニー・コンピュータエンタテインメント ヘッドマウントディスプレイ、携帯情報端末、画像処理装置、表示制御プログラム、表示制御方法、及び表示システム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8319746B1 (en) * 2011-07-22 2012-11-27 Google Inc. Systems and methods for removing electrical noise from a touchpad signal
US10073201B2 (en) * 2012-10-26 2018-09-11 Qualcomm Incorporated See through near-eye display

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63278100A (ja) * 1987-04-30 1988-11-15 株式会社東芝 音声認識装置
JP2006025079A (ja) * 2004-07-07 2006-01-26 Nec Tokin Corp ヘッドセット及び無線通信システム
JP2010026731A (ja) * 2008-07-17 2010-02-04 Nec Saitama Ltd 文字入力装置、文字入力方法、文字入力システム、文字入力サーバー及び端末
WO2014147989A1 (ja) * 2013-03-22 2014-09-25 トヨタ自動車株式会社 コミュニケーションシステム及びロボット
WO2014197231A2 (en) * 2013-06-07 2014-12-11 Sony Computer Entertainment Inc. Switching mode of operation in a head mounted display
US20140361976A1 (en) * 2013-06-07 2014-12-11 Sony Computer Entertainment Inc. Switching mode of operation in a head mounted display
WO2014197338A2 (en) * 2013-06-08 2014-12-11 Sony Computer Entertainment Inc. Systems and methods for customizing optical representation of views provided by a head mounted display based on optical prescription of a user
WO2015136952A1 (ja) * 2014-03-12 2015-09-17 コニカミノルタ株式会社 ジェスチャー認識装置、ヘッドマウントディスプレイ、および携帯端末
WO2016021252A1 (ja) * 2014-08-05 2016-02-11 ソニー株式会社 情報処理装置及び情報処理方法、並びに画像表示システム
US20160077651A1 (en) * 2014-09-17 2016-03-17 Fxgear Inc. Head-mounted display controlled by tapping, method for controlling the same and computer program product for controlling the same
WO2016043515A1 (ko) * 2014-09-17 2016-03-24 (주)에프엑스기어 두드림에 의해 제어되는 헤드 마운트형 디스플레이 장치, 이의 제어 방법 및 이의 제어를 위한 컴퓨터 프로그램
JP2016081476A (ja) * 2014-10-22 2016-05-16 株式会社ソニー・コンピュータエンタテインメント ヘッドマウントディスプレイ、携帯情報端末、画像処理装置、表示制御プログラム、表示制御方法、及び表示システム

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11256097B2 (en) 2018-05-30 2022-02-22 Sony Interactive Entertainment Inc. Image generation apparatus, image display system, image generation method, and computer program
JP2020108098A (ja) * 2018-12-28 2020-07-09 キヤノン株式会社 電子機器及びその制御方法
JP2020107270A (ja) * 2018-12-28 2020-07-09 キヤノン株式会社 電子機器及びその制御方法
JP7204482B2 (ja) 2018-12-28 2023-01-16 キヤノン株式会社 電子機器及びその制御方法
JP7208002B2 (ja) 2018-12-28 2023-01-18 キヤノン株式会社 電子機器及びその制御方法
JP7039672B1 (ja) 2020-10-29 2022-03-22 ソフトバンク株式会社 制御装置、プログラム、及び制御方法
JP2022072285A (ja) * 2020-10-29 2022-05-17 ソフトバンク株式会社 制御装置、プログラム、及び制御方法
US20220404175A1 (en) * 2021-06-16 2022-12-22 Microsoft Technology Licensing, Llc Surface sensing via resonant sensor
US11614345B2 (en) * 2021-06-16 2023-03-28 Microsoft Technology Licensing, Llc Surface sensing via resonant sensor
WO2023063161A1 (ja) * 2021-10-12 2023-04-20 ソニーグループ株式会社 情報処理システム、制御方法及び制御プログラム

Also Published As

Publication number Publication date
US10303244B2 (en) 2019-05-28
JP6668170B2 (ja) 2020-03-18
US20170351325A1 (en) 2017-12-07

Similar Documents

Publication Publication Date Title
JP6668170B2 (ja) 情報処理装置、情報処理方法、およびコンピュータプログラム
JP6346131B2 (ja) 情報処理装置および画像生成方法
WO2017043399A1 (ja) 情報処理装置および画像生成方法
JP6511386B2 (ja) 情報処理装置および画像生成方法
WO2018150831A1 (ja) 情報処理装置、情報処理方法及び記録媒体
JP6845111B2 (ja) 情報処理装置および画像表示方法
US11481025B2 (en) Display control apparatus, display apparatus, and display control method
US20190026950A1 (en) Program executed on a computer for providing virtual space, method and information processing apparatus for executing the program
US10515481B2 (en) Method for assisting movement in virtual space and system executing the method
WO2020026419A1 (ja) 画像生成装置および画像生成方法
JP6556295B2 (ja) 情報処理装置および画像生成方法
US10369468B2 (en) Information processing apparatus, image generating method, and program
WO2020189450A1 (ja) 複数のマーカを備えたデバイス
US10319346B2 (en) Method for communicating via virtual space and system for executing the method
JP2022164728A (ja) 情報処理装置および画像生成方法
US11882172B2 (en) Non-transitory computer-readable medium, information processing method and information processing apparatus
JP2020181321A (ja) 情報処理装置およびデバイス情報導出方法
JP2019219702A (ja) 仮想空間における仮想カメラの制御方法
JP6683862B2 (ja) 表示制御装置及び表示制御方法
WO2020213363A1 (ja) 複数のマーカを備えたデバイス
JP2023177951A (ja) ヘッドマウントディスプレイおよびコンテンツ表示システム
JP2020115366A (ja) 表示制御装置及び表示制御方法
JP2019125397A (ja) 表示制御装置及び表示制御方法
JP2018207517A (ja) ヘッドマウントデバイスにおける表示を制御するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラム、および情報処理装置
JP2019133677A (ja) 仮想空間におけるキャラクタの制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190917

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190911

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200226

R150 Certificate of patent or registration of utility model

Ref document number: 6668170

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150