JP2021060627A - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
JP2021060627A
JP2021060627A JP2018020137A JP2018020137A JP2021060627A JP 2021060627 A JP2021060627 A JP 2021060627A JP 2018020137 A JP2018020137 A JP 2018020137A JP 2018020137 A JP2018020137 A JP 2018020137A JP 2021060627 A JP2021060627 A JP 2021060627A
Authority
JP
Japan
Prior art keywords
controller
user
information processing
unit
position estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018020137A
Other languages
English (en)
Inventor
嵩明 加藤
Takaaki Kato
嵩明 加藤
俊一 本間
Shunichi Honma
俊一 本間
雄也 山口
Yuya Yamaguchi
雄也 山口
福地 正樹
Masaki Fukuchi
正樹 福地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2018020137A priority Critical patent/JP2021060627A/ja
Priority to PCT/JP2019/001223 priority patent/WO2019155840A1/ja
Priority to US16/964,589 priority patent/US11443540B2/en
Publication of JP2021060627A publication Critical patent/JP2021060627A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes

Abstract

【課題】インサイドアウト方式のウェアラブルデバイスに対応したコントローラの位置推定を行うことが可能な情報処理装置、情報処理方法、およびプログラムを提供する。【解決手段】ユーザに装着されたウェアラブルデバイスに設けられた第1の撮像部により撮像された第1の撮像画像に基づいて、前記ユーザの周辺の環境情報を認識し、実空間上における前記ユーザの位置推定を行うユーザ位置推定部と、前記ユーザが操作するコントローラに設けられた第2の撮像部により撮像された第2の撮像画像に基づいて、前記認識した環境情報を参照し、前記コントローラの位置推定を行うコントローラ位置推定部と、を備える、情報処理装置。【選択図】図1

Description

本開示は、情報処理装置、情報処理方法、およびプログラムに関する。
近年、外界を遮断する構造により頭部に装着されるディスプレイ、所謂HMD(Head Mounted Display)により、仮想空間への没入感を楽しむことができるVR(Virtual Reality)や、HMDのディスプレイが透過型になったシースルーHMDを用いて、ディスプレイを介して見える外界に仮想画像が重畳表示される所謂AR(Virtual Reality)を楽しむことが可能な技術が開発されている。
特にVRの場合、仮想空間への没入感をより高めるため、実空間におけるユーザの動きをより正確にトラッキングすることが重要となる。実空間におけるユーザの位置および姿勢は、例えばユーザが装着しているHMDに設けられたマーカーを周辺の外部カメラにより捉えてトラッキングするアウトサイドイン方式が知られている。
一方で、一般的にユーザが操作するコントローラに関する技術としては、例えば下記特許文献1が挙げられる。下記特許文献1では、据え置き型のディスプレイに設けられた外部カメラにより、当該ディスプレイに向かってコントローラを操作しているユーザを撮像し、撮像画像に写るコントローラのLEDの位置を取得して、取得した位置情報をゲームアプリケーションの処理に反映するゲームシステムが開示されている。
特開2007−244534号公報
ここで、近年のHMDを装着したユーザの位置推定に関しては、上述したように外部カメラを用いたトラッキングが主要であり、併せて用いるコントローラも、外部カメラによりトラッキングを前提とするものであった。すなわち、例えばコントローラに発光部が設けられ、外部カメラにより当該コントローラの発光部を認識して位置推定が行われていた。
しかしながら、HMDを装着したユーザの位置推定は、アウトサイドイン方式に限定されず、外部カメラを必要とせずに、HMD自体に設けられたカメラを用いて行うインサイドアウト方式により実現することが可能であるが、このような方式を用いるシステムを前提としたコントローラに関しては、まだ十分に開発されていなかった。
そこで、本開示では、インサイドアウト方式のウェアラブルデバイスに対応したコントローラの位置推定を行うことが可能な情報処理装置、情報処理方法、およびプログラムを提案する。
本開示によれば、ユーザに装着されたウェアラブルデバイスに設けられた第1の撮像部により撮像された第1の撮像画像に基づいて、前記ユーザの周辺の環境情報を認識し、実空間上における前記ユーザの位置推定を行うユーザ位置推定部と、前記ユーザが操作するコントローラに設けられた第2の撮像部により撮像された第2の撮像画像に基づいて、前記認識した環境情報を参照し、前記コントローラの位置推定を行うコントローラ位置推定部と、を備える、情報処理装置を提案する。
本開示によれば、プロセッサが、ユーザに装着されたウェアラブルデバイスに設けられた第1の撮像部により撮像された第1の撮像画像に基づいて、前記ユーザの周辺の環境情報を認識し、実空間上における前記ユーザの位置推定を行うことと、前記ユーザが操作するコントローラに設けられた第2の撮像部により撮像された第2の撮像画像に基づいて、前記認識した環境情報を参照し、前記コントローラの位置推定を行うことと、を含む、情報処理方法を提案する。
本開示によれば、コンピュータを、ユーザに装着されたウェアラブルデバイスに設けられた第1の撮像部により撮像された第1の撮像画像に基づいて、前記ユーザの周辺の環境情報を認識し、実空間上における前記ユーザの位置推定を行うユーザ位置推定部と、前記ユーザが操作するコントローラに設けられた第2の撮像部により撮像された第2の撮像画像に基づいて、前記認識した環境情報を参照し、前記コントローラの位置推定を行うコントローラ位置推定部と、として機能させるための、プログラムを提案する。
以上説明したように本開示によれば、インサイドアウト方式のウェアラブルデバイスに対応したコントローラの位置推定を行うことが可能となる。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態による情報処理システムの概要について説明する図である。 本実施形態によるHMDおよびコントローラの基本的な内部構成例を示すブロック図である。 第1の実施例によるHMDの機能構成の一例を示すブロック図である。 第1の実施例による情報処理システムの制御の流れの一例を示すシーケンス図である。 第2の実施例によるHMDの機能構成の一例を示すブロック図である。 第2の実施例による情報処理システムの制御の流れの一例を示すシーケンス図である。 第3の実施例によるコントローラのデータ送信制御の一例を示すフローチャートである。 第3の実施例によるHMDの位置推定処理の一例を示すフローチャートである。 第4の実施例によるコントローラのHMDから受信した情報に応じた動作制御の一例を示すフローチャートである。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、説明は以下の順序で行うものとする。
1.本開示の一実施形態による情報処理システムの概要
2.構成
2−1.HMDの構成
2−2.コントローラの構成
3.各実施例
3−1.第1の実施例
3−2.第2の実施例
3−3.第3の実施例
3−4.第4の実施例
4.補足
5.まとめ
<<1.本開示の一実施形態による情報処理システムの概要>>
図1は、本開示の一実施形態による情報処理システムの概要について説明する図である。図1に示すように、本実施形態による情報処理システムは、ユーザの頭部に装着されるHMD20と、当該ユーザが操作するコントローラ10とを含む。
HMD20は、図1に示すようにユーザの頭部に装着され、装着された際にユーザの眼前にはディスプレイ(表示部250)が位置する。表示部250は透過型であってもよいし、非透過型であってもよい。表示部250には、コンテンツ映像、例えば仮想空間の映像が表示され得る。仮想空間の映像は、3D映像であってもよい。また、HMD20はイヤホン(音声出力部260)をさらに備えていてもよい。図1に示す例では、HMD20に設けられる音声出力部260の一例として一対のイヤホンを図示しているが、本実施形態はこれに限定されず、例えばヘッドホンであってもよいし、オープン型のイヤホンであってもよい。非透過型のディスプレイとイヤホン等により外界の情報を遮断して仮想空間の映像及び音声を提示することで、仮想空間への没入感をより高めることが可能となる。
本実施形態によるHMD20は、ポジショントラッキングの手法としてインサイドアウト方式が用いられるため、HMD20には、外界を撮像するためのカメラ210が複数設けられている。カメラ210の数および配置については特に限定しない。HMD20は、カメラ210により撮像された撮像画像を解析して周辺の環境情報を認識し(環境マップの生成)、自己位置推定、すなわちHMD20を装着したユーザの位置(頭部位置)を推定することが可能である。これにより、外部カメラ(環境側カメラ)が不要となるため、ユーザは、行動範囲の限界を気にせずに自由に動き回ることが可能となる。
上述したように、このようなインサイドアウト方式を前提としたHMD20と組み合わせて用いるコントローラの開発は、従来は十分に行われていなかった。すなわち、HMD20と組み合わせて用いるコントローラとしては、例えば外部カメラを前提としてコントローラのLEDの位置を認識する方式が用いられていた。また、HMD20に設けたカメラを外部カメラとしてコントローラのLEDの位置(相対位置)を認識する方式も考え得るが、この場合はHMD20のカメラの画角内にコントローラが入っていなければならず、ユーザがコントローラを下ろした場合等、画角外の動きを認識することが困難であった。
そこで、本開示では、インサイドアウト方式を前提としたHMD20と組み合わせて用いるコントローラ10を提案する。
本実施形態によるコントローラ10には、周辺を撮像する単数または複数のカメラ110が設けられている。カメラの数および配置は特に限定しない。コントローラ10は、カメラ110により撮像した撮像画像を、無線/有線によりHMD20に送信する。
次いで、HMD20は、コントローラ10から受信した撮像画像に基づいて、生成した環境マップを用いて、コントローラ10の位置および姿勢を推定する。このように、本実施形態では、インサイドアウト方式のHMD20に対応したコントローラの位置推定を、外部カメラを必要とせずに行うことが可能となる。
以上、本実施形態によるHMD20およびコントローラ10の概要について説明した。なお、図1に示すHMD20およびコントローラ10の外観形状は一例であって、本実施形態はこれに限定されない。HMD20は、一般に眼鏡型、あるいは頭部装着型とされる装着ユニットで形成されればよく、少なくとも本実施の形態としては、ユーザの眼の前方に近接して表示部250が設けられていればよい。また表示部250は、両眼に対応して一対設けられる他、片側の眼に対応して1つ設けられる構成でもよい。
また、HMD20は、頭部装着型ディスプレイの一例であるが、本実施形態はこれに限定されず、少なくとも外界を撮像するカメラ210が設けられたユーザ装着型のウェアラブルデバイス(ディスプレイを有さないデバイスを含む)と、コントローラ10を含むシステム構成であってもよい。
<<2.構成例>>
続いて、図2を参照して本システムの基本的な内部構成について具体的に説明する。図2は、本実施形態によるHMD20およびコントローラ10の基本的な内部構成例を示すブロック図である。以下、順次説明する。
<2−1.HMD20の構成>
図2に示すように、本実施形態によるHMD20は、制御部200、カメラ210、姿勢センサ220、操作入力部230、通信部240、表示部250、音声出力部260、および記憶部270を有する。
制御部200は、演算処理装置および制御装置として機能し、各種プログラムに従ってHMD20内の動作全般を制御する。制御部200は、例えばCPU(Central Processing Unit)、マイクロプロセッサ等の電子回路によって実現される。また、制御部200は、使用するプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、及び適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)を含んでいてもよい。
本実施形態による制御部200の具体的な機能構成については、複数の実施例を用いて後述する。
カメラ210は、撮像レンズ、絞り、ズームレンズ、およびフォーカスレンズ等により構成されるレンズ系、レンズ系に対してフォーカス動作やズーム動作を行わせる駆動系、レンズ系で得られる撮像光を光電変換して撮像信号を生成する固体撮像素子アレイ等を有する。固体撮像素子アレイは、例えばCCD(Charge Coupled Device)センサアレイや、CMOS(Complementary Metal Oxide Semiconductor)センサアレイにより実現されてもよい。また、カメラ210は、可動式であってもよい。また、カメラ210は、撮像画像や赤外線等を用いて深度情報を取得することが可能な深度センサ等が構成として組み合わされてもよい。
姿勢センサ220は、HMD20が装着されたユーザの姿勢(頭部の向きを含む)を検出する機能を有する。例えば姿勢センサ220は、3軸の角度(または角速度)と加速度を検出するIMU(inertial measurement unit)により実現される。若しくは、姿勢センサ220は、3軸ジャイロセンサ(角速度(回転速度)の検出)、3軸加速度センサ(Gセンサとも称す。移動時の加速度の検出)、および3軸地磁気センサ(コンパス、絶対方向(方位)の検出)を含む9軸センサであってもよい。なおこれらは姿勢センサ220の一例であって、姿勢センサ220は、例えば加速度センサまたはジャイロセンサのいずれかを用いるものであってもよい。
操作入力部230は、ユーザによる操作指示を受付け、その操作内容を制御部200に出力する。操作入力部230は、タッチセンサ、圧力センサ、若しくは近接センサであってもよい。あるいは、操作入力部230は、ボタン、スイッチ、およびレバーなど、物理的構成であってもよい。
通信部240は、有線または無線により外部装置と通信接続し、データの送受信を行う。例えば通信部240は、有線/無線LAN(Local Area Network)、またはWi−Fi(登録商標)、Bluetooth(登録商標)、赤外線通信、近距離無線通信、携帯通信網(LTE(Long Term Evolution)、または3G(第3世代の移動体通信方式))等によりネットワークや周辺の装置(例えばコントローラ10)と通信接続する。
例えば通信部240は、コントローラ10から撮像画像および姿勢センサ情報を受信する。
表示部250は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機EL((Electro Luminescence)ディスプレイなどの表示装置により形成される。また、表示部250は、透過型または非透過型であってもよい。若しくは、表示部250の透過率は、制御部200により制御されてもよい。
音声出力部260は、音声信号を再生するスピーカと、スピーカに対するアンプ回路を有する。
記憶部270は、制御部200の処理に用いられるプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、および適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)により実現される。
以上、HMD20の基本的な内部構成例について説明した。なおHMD20の構成は図2に示す例に限定されず、例えば音声入力部(マイクロホン)をさらに有する構成であってもよい。
<2−2.コントローラ10の構成>
図2に示すように、本実施形態によるコントローラ10は、制御部100、カメラ110、姿勢センサ120、および通信部130を有する。
制御部100は、演算処理装置および制御装置として機能し、各種プログラムに従ってコントローラ10内の動作全般を制御する。制御部100は、例えばCPU(Central Processing Unit)、マイクロプロセッサ等の電子回路によって実現される。また、制御部100は、使用するプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、及び適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)を含んでいてもよい。
カメラ110は、撮像レンズ、絞り、ズームレンズ、およびフォーカスレンズ等により構成されるレンズ系、レンズ系に対してフォーカス動作やズーム動作を行わせる駆動系、レンズ系で得られる撮像光を光電変換して撮像信号を生成する固体撮像素子アレイ等を有する。固体撮像素子アレイは、例えばCCD(Charge Coupled Device)センサアレイや、CMOS(Complementary Metal Oxide Semiconductor)センサアレイにより実現されてもよい。また、カメラ110は、可動式であってもよい。また、カメラ110の数および配置については、特に限定しない。カメラ110は、単数であってもよいし、複数であってもよい。複数のカメラ110を用いる場合、各カメラ110は、個々に単独で動作するようにしてもよいし、連携して動作するようにしてもよい。
姿勢センサ120は、コントローラ10の姿勢(向きを含む)を検出する機能を有する。例えば姿勢センサ120は、3軸の角度(または角速度)と加速度を検出するIMU(inertial measurement unit)により実現される。若しくは、姿勢センサ120は、3軸ジャイロセンサ(角速度(回転速度)の検出)、3軸加速度センサ(Gセンサとも称す。移動時の加速度の検出)、および3軸地磁気センサ(コンパス、絶対方向(方位)の検出)を含む9軸センサであってもよい。なおこれらは姿勢センサ120の一例であって、姿勢センサ120は、例えば加速度センサまたはジャイロセンサのいずれかを用いるものであってもよい。
通信部130は、有線または無線により外部装置と通信接続し、データの送受信を行う。例えば通信部130は、有線/無線LAN(Local Area Network)、またはWi−Fi(登録商標)、Bluetooth(登録商標)、赤外線通信、近距離無線通信等により周辺の装置(例えばHMD20)と通信接続する。
例えば通信部130は、カメラ110により撮像した周辺の撮像画像や、姿勢センサ120により検出した姿勢センサ情報をHMD20に送信する。
以上、コントローラ10の基本的な内部構成例について説明した。なおコントローラ10の構成は図2に示す例に限定されず、例えば音声入力部(マイクロホン)や、振動部、発光部、スピーカ等をさらに有する構成であってもよい。また、図示していないが、コントローラ10には、ボタンやスイッチ等の操作入力部が設けられていてもよい。
<<3.各実施例>>
続いて、本実施形態による情報処理システムについて複数の実施例を用いて具体的に説明する。
<3−1.第1の実施例>
第1の実施例では、HMD20において、インサイドアウト方式のポジショントラッキング、すなわち、HMD20に設けられたカメラ210により撮像された撮像画像を用いて環境認識を行って、HMD20の位置推定(自己位置推定)を行うと共に、コントローラ10により撮像された撮像画像を用いて、当該環境認識の結果を参照し、コントローラ10の位置推定も行い得る。これにより、位置推定に外部カメラを不要とするため自由に動くことができ、また、HMD20のカメラでコントローラ10や手を映す必要がない。また、認識対象は環境全体であるため、特定の形状を予めシステムが知っておく必要がない。また、HMD20側のプロセッサに十分な演算能力があれば、安価なコントローラを実現することができる。
(3−1−1.構成)
図3は、本実施例によるHMD20−1の機能構成の一例を示すブロック図である。図3に示すように、HMD20−1は、環境マッピング部201、ユーザ位置推定部202、コントローラ位置推定部203、およびコンテンツ表示制御部204として機能する。
なお、本実施例によるHMD20−1は、自己位置推定の手法として、自己位置推定と地図構築を同時に行い得る、いわゆるSLAM(simultaneous localization and mapping)を用いてもよい。SLAMのアルゴリズムについては特に限定しないが、例えば、地図に点座標で表現されたランドマークを使用するLandmark based SLAMを用いてもよい。Landmark based SLAMでは、特徴的な物体をランドマークとして認識し、そのランドマークの地図を生成する。そして、そのランドマークの座標情報を用いて自己位置推定にフィードバックを行う。以下、各機能構成について具体的に説明する。
環境マッピング部201は、HMD20−1のカメラ210により撮像された周辺の撮像画像に基づいて、周辺の環境認識(物体認識)を行い、環境マップの生成を行う。例えば環境マッピング部201は、撮像画像を解析して特徴的な情報から3Dランドマークを推定する(三角測量の原理に基づいて距離情報を算出)。生成された環境マップは、環境マップ記憶部271に蓄積される。なお環境マッピング部201は、環境マップ作成時に、さらに姿勢センサ220により検出された姿勢センサ情報を参照することも可能である。また、環境マッピング部201は、さらにコントローラ10のカメラ110により撮像された撮像画像を用いて環境マップの生成を行うことも可能である。これによりHMD20のカメラ210だけでは把握できない角度や高さの映像(環境情報)を取得することが可能となる。
ユーザ位置推定部202は、HMD20−1の自己位置、すなわちHMD20−1を装着したユーザの(頭部の)位置および姿勢を推定する(ポジショントラッキングおよびヘッドトラッキング)。位置推定は、上述したように例えばSLAMを用いて行い得る。例えば、ユーザ位置推定部202は、カメラ210により撮像された撮像画像を解析して特徴点をトラッキングし、上記生成した環境マップを参照して、3Dランドマークとトラッキングした2D情報から位置および姿勢の推定を行い得る。なお、ここで用いるSLAM技術は、特徴点トラッキング(離散特徴点の追跡)に限定されず、特徴点トラッキング以外のSLAM技術を用いてもよい。例えば、エッジ点(画像から抽出したエッジ上の点)や、深度センサから得たポイントクラウドの追跡に基づいて自己位置推定と地図構築を行うことも可能である。また、ユーザ位置推定部202は、さらに姿勢センサ220により検出された姿勢センサ情報を参照してユーザの位置および姿勢の推定を行うようにしてもよい。
コントローラ位置推定部203は、ユーザが操作しているコントローラ10の位置および姿勢を推定する。具体的には、コントローラ位置推定部203は、コントローラ10に設けられたカメラ110により撮像された撮像画像を解析して特徴点をトラッキングし、上記生成した環境マップを参照して、3Dランドマークとトラッキングした2D情報からコントローラ10の位置および姿勢の推定を行い得る。なおコントローラ位置推定部203は、さらにコントローラ10に設けられた姿勢センサ120により検出された姿勢センサ情報を参照してコントローラ10の位置および姿勢の推定を行うようにしてもよい。
また、本実施形態によるコントローラ位置推定部203は、コントローラ10がユーザに把持されていること(コントローラと頭が大きく離れていないこと)を前提として、コントローラ位置の推定を行うことが可能である。例えば、コントローラ位置推定部203は、HMD20の方向に応じて、コントローラ位置推定を行う際の、候補点の絞り込みを行い得る。また、コントローラ位置推定部203は、SLAMを用いて、画像と姿勢センサデータの両方に基づいてコントローラ位置を推定することが可能であるが、この際、画像情報を用いてコントローラのバイアスを推定することも可能である。
コンテンツ表示制御部204は、コンテンツ記憶部272から取得した仮想空間のコンテンツに基づいて、映像を生成し、HMD20の表示部250に表示するよう制御する。ユーザに提供される仮想空間のコンテンツは、全天球コンテンツ、自由視点コンテンツ、またはゲームコンテンツ等である。自由視点コンテンツとは、複数のカメラを用いて撮像した映像を用いて、任意の位置に仮想カメラを置いた際の映像を生成し、あらゆる視点からの映像視聴を可能としたものである。本明細書で使用する「仮想空間」との用語は、実際のユーザが、1つ以上の表示装置を介して感知し得る、および/または1つ以上のユーザインタフェースを介してインタラクトしうる、1つ以上のプロセッサによってシミュレートされるインタラクションのルールを有する現実または架空の環境の表現を指す。本明細書で使用する「ユーザインタフェース」との用語は、ユーザが仮想世界との間で、入力を送信するか出力を受信することができる実際のデバイスを指す(例えば、HMD20)。仮想空間内では、ユーザがアバターによって表現されてもよいし、ディスプレイにアバターを表示せずに、アバターの視点から仮想空間の世界を表示してもよい。本明細書において、仮想空間におけるユーザの(またはアバターの)視点とは、仮想カメラの視界とみなすことができる。本明細書で使用する「仮想カメラ」とは、仮想空間内の視点を指し、仮想空間内で三次元シーンの二次元画像を描画するために使用され得る。
また、本実施例によるコンテンツ表示制御部204は、実際の空間におけるユーザの前後左右の移動や姿勢(頭部の向き等)に応じて、仮想空間でも同じ移動量で前後左右に移動したり、姿勢(頭部の向き)に対応させることで、没入感の高いVR体験を提供することができる。より具体的には、コンテンツ表示制御部204は、ユーザ位置推定部202により推定されたリアルタイムのユーザの(頭部の)位置および姿勢に応じて、仮想空間の映像を生成し、表示部250に表示する。
また、コンテンツ表示制御部204は、ユーザの意図をコントローラ10から取得し、映像に反映させることが可能である。また、仮想空間におけるユーザの視界には、コントローラ10に対応する仮想物体が映る場合も想定される。コンテンツ表示制御部204は、コントローラ位置推定部203により推定されたリアルタイムのコントローラ10の位置および姿勢に応じて映像を生成することで、実際の空間におけるコントローラ10の動きをリアルタイムで仮想空間に対応させることができ、さらに没入感を高めることができる。また、コントローラ10に対応する表示制御としては、例えば、ゲーム内オブジェクトの位置の決定、次の手の動きの指示、表示部250のシースルーへの切り替え等が挙げられる。
(3−1−2.動作処理)
図4は、本実施例による情報処理システムの制御の流れの一例を示すシーケンス図である。図4に示すように、まず、HMD20は、HMD20のカメラ210により周辺画像を取得(撮像)し(ステップS103)、環境マッピング部201により環境マップの生成を行う(ステップS106)。生成した環境マップは、環境マップ記憶部271に記憶される。
次に、コントローラ10は、コントローラ10のカメラ110により周辺画像を取得(撮像)すると共に(ステップS109)、姿勢センサによるセンシングを行う(ステップS112)。
次いで、コントローラ10は、は周辺画像(撮像画像)および姿勢センサデータをHMD20に送信する(ステップS115)。
一方、HMD20は、HMD20の周辺画像をカメラ210から、および姿勢センサデータを姿勢センサ220から取得し(ステップS121)、環境マップを用いて、ユーザ位置(すなわちHMD20の自己位置)を推定する(ステップS124)。
また、HMD20は、コントローラ10から受信した周辺画像(撮像画像)および姿勢センサデータに基づいて、コントローラ位置の推定を行う。
そして、HMD20は、ユーザ位置およびコントローラ位置の推定結果に基づいて、HMD20の表示部250に表示する仮想空間コンテンツの映像を生成する(ステップS127)。
以上、本実施例による動作処理について具体的に説明した。
<3−2.第2の実施例>
続いて、本実施形態による第2の実施例について図5〜図6を参照して説明する。本実施例では、推定したユーザ位置やコントロール位置を、さらに最新の姿勢センサデータを用いて修正することで、レイティングを防止することを可能とする。
(3−2−1.構成)
図5は、第2の実施例によるHMD20−2の機能構成の一例を示すブロック図である。図5に示すように、HMD20−2は、環境マッピング部201、ユーザ位置推定部202、コントローラ位置推定部203、ユーザ位置修正部206、コントローラ位置修正部207、およびコンテンツ表示制御部204として機能する。第1の実施例と同符号の構成については、ここでの詳細な説明は省略する。
ユーザ位置修正部206は、ユーザ位置推定部202により推定されたユーザ位置に対し、当該ユーザ位置の推定に用いた撮像画像および姿勢センサデータの取得よりも後に姿勢センサ220により取得した、最新の姿勢センサデータに基づいて、ユーザ位置の修正を行い得る。
コントローラ位置修正部207は、コントローラ位置推定部203により推定されたコントローラ位置に対し、当該コントローラ位置の推定に用いた撮像画像および姿勢センサデータの取得よりも後に姿勢センサ120により取得した、最新の姿勢センサデータに基づいて、コントローラ位置の修正を行い得る。
(3−2−2.動作処理)
図6は、本実施例による情報処理システムの制御の流れの一例を示すシーケンス図である。図6に示すステップS103〜S124は、図4を参照して説明した同符号の処理と同様であり、HMD20は、各周辺画像および姿勢センサデータに基づいて、ユーザ位置推定およびコントローラ位置推定を行い得る。
次に、コントローラ10は、姿勢センサによるセンシングを行い(ステップS133)、姿勢センサデータをHMD20に送信する(ステップS136)。
次いで、HMD20は、最新の姿勢センサデータに基づいて、推定したコントローラ位置を修正する(ステップS139)。
また、HMD20は、ユーザ位置に関しても同様に修正を行う。すなわち、HMD20は、HMDの姿勢センサデータを姿勢センサ220により取得すると(ステップS141)、推定したユーザ位置の修正を行う(ステップS144)。
そして、HMD20は、ユーザ位置およびコントローラ位置の修正結果に基づいて、HMD20の表示部250に表示する仮想空間コンテンツの映像を生成する(ステップS147)。
以上、本実施例による動作処理について具体的に説明した。
<3−3.第3の実施例>
続いて、本実施形態の第3の実施例について、図7〜図8を参照して具体的に説明する。上述した各実施例では、コントローラ10からHMD20に送信するデータの選択等については特に言及していないが、コントローラ10は、所定の条件に応じてHMD20に送信するデータを制御することが可能である。
図7は、本実施例によるコントローラ10のデータ送信制御の一例を示すフローチャートである。
図7に示すように、まず、コントローラ10は、周辺画像および姿勢センサデータを取得する(ステップS203)。
次に、コントローラ10は、所定の条件を満たすか否かを判断する(ステップS206)。
次いで、コントローラ10は、所定の条件を満たす場合(ステップS206/Yes)、姿勢センサデータのみをHMD20に送信する(ステップS209)。
一方、コントローラ10は、所定の条件を満たさない場合(ステップS206/No)、周辺画像および姿勢センサデータをHMD20に送信する(ステップS212)。
ここで、「所定の条件」とは、例えば下記のような条件が想定される。いずれも、条件を満たす場合は周辺画像を送信しても位置推定に十分に利用することができないため、コントローラ10は、姿勢センサデータのみを送信している。
・動きが早いか?
・画面が暗いか?
・特徴点が少ないか?
・画面のflowが大きいか?
・人に握られているか?(カメラ110の部分が握られているか?)
・モノとの距離が近いか?(カメラ110がモノに近過ぎるか?)
また、本実施例によるコントローラ10は、さらに下記のデータを送信することが可能であり、適宜状況に応じて送信制御するようにしてもよい。
・RGB画像
・RGBD画像
・特徴点
・深度情報
・Exposure、Gain
・IMU加速度、角速度、温度等
・顔、人などの認識結果
一方、このようにコントローラ10から送信される情報に応じたHMD20側の位置推定処理の一例について、図8を参照して説明する。
図8は、本実施例によるHMD20の位置推定処理の一例を示すフローチャートである。図8に示すように、まず、HMD20は、コントローラ10から上方を受信すると(ステップS223)、姿勢センサデータのみか、周辺画像も含まれているかを判断する(ステップS226)。
次に、周辺画像も含む場合(ステップS226/画像を含む)、HMD20は、上述したように、環境マップを用いてコントローラ位置の推定を行う(ステップS229)。また、周辺画像が含まれている場合、HMD20は、新たな周辺画像に基づいて、環境マップの更新を行ってもよい。
一方、姿勢センサデータのみの場合(ステップS226/視線センサデータのみ)、HMD20は、例えばINS(Inertial Navigation System)を用いて、コントローラ位置の推定を行うことが可能となる。
<3−4.第4の実施例>
さらに本実施形態によるコントローラ10は、HMD20から受信した情報に応じて所定の動作制御を行ってもよい。以下、図9を参照して具体的に説明する。
図9は、本実施例によるコントローラ10のHMD20から受信した情報に応じた動作制御の一例を示すフローチャートである。HMD20からコントローラ10に送信する情報の例としては、例えば、コントローラ位置/分散、仮想オブジェクトとの衝突判定結果、障害物との距離、およびHMD20の情報等が想定される。ここでは一例として「仮想オブジェクトとの衝突判定結果」がHMD20から送信される場合について説明する。
図9に示すように、まず、コントローラ10は、HMD20から、仮想オブジェクトとの衝突判定結果を受信する(ステップS243)。
次に、コントローラ10は、仮想オブジェクトとの衝突する場合(ステップS246/Yes)、コントローラ10を振動させる処理を行う(ステップS249)。これにより、仮想空間の状況をコントローラ10に対応させることができ、仮想空間への没入感をより高めることが可能となる。
なお、HMD20からの受信情報に応じたコントローラ10の動作制御は、上述した例に限定されず、例えば、HMD20で推定されるコントローラ位置の分散が大きい場合に、コントローラ10がカメラ110を起動させるようにしてもよい。より具体的には、例えば普段はコントローラ10側からは姿勢センサデータのみをHMD20に送信するように制御し、HMD20側で推定しているコントローラ位置の正確性が下がった場合には、コントローラ10が一時的にカメラ110を起動して撮像画像を送信するようにすることで、カメラ110の消費電力を抑えることが可能となる。
また、コントローラ10から送信したカメラ110のExposureが、HMD20のカメラ210のExposureと異なる結果の場合、コントローラ10は、カメラ110のExposureの調整、若しくは目隠し状態を振動でユーザに通知する。
<<4.補足>>
以上、本実施形態による情報処理システムについて具体的に説明した。なお、本実施形態によるシステム構成は、図1および図2に示すHMD20とコントローラ10とを含む構成に限定されず、例えば、HMD20の機能を、外部装置(据え置き型の専用端末、PC、スマートフォン、サーバ等)により実行するようにしてもよい。
外部装置は、例えば図3または図5に示す機能構成を有し、HMD20の位置(ユーザ位置)およびコントローラ10の位置推定を行い得る。
また、仮想空間の映像をユーザに提示するディスプレイは、HMD20のようなウェアラブルデバイスに限定されず、例えばスマートフォン、PC、TV装置、またはプロジェクタ等であってもよい。
<<5.まとめ>>
上述したように、本開示の実施形態による情報処理システムでは、インサイドアウト方式のウェアラブルデバイスに対応したコントローラの位置推定を行うことが可能となる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本技術はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上述したHMD20、またはコントローラ10に内蔵されるCPU、ROM、およびRAM等のハードウェアに、HMD20、またはコントローラ10の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムを記憶させたコンピュータ読み取り可能な記憶媒体も提供される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、本技術は以下のような構成も取ることができる。
(1)
ユーザに装着されたウェアラブルデバイスに設けられた第1の撮像部により撮像された第1の撮像画像に基づいて、前記ユーザの周辺の環境情報を認識し、実空間上における前記ユーザの位置推定を行うユーザ位置推定部と、
前記ユーザが操作するコントローラに設けられた第2の撮像部により撮像された第2の撮像画像に基づいて、前記認識した環境情報を参照し、前記コントローラの位置推定を行うコントローラ位置推定部と、
を備える、情報処理装置。
(2)
前記ユーザ位置推定部は、前記ユーザの姿勢推定を含み、
前記コントローラ位置推定部は、前記コントローラの姿勢推定を含む、前記(1)に記載の情報処理装置。
(3)
前記情報処理装置は、
前記第1の撮像画像に基づいて、前記ユーザの周辺の環境情報を環境マップとして生成するマッピング部と、
前記生成した環境マップを記憶する記憶部と、
をさらに備える、前記(2)に記載の情報処理装置。
(4)
前記マッピング部は、さらに、前記第2の撮像画像を用いて前記環境マップを生成する、前記(3)に記載の情報処理装置。
(5)
前記ユーザ位置推定部は、
前記第1の撮像画像に基づいて、前記ユーザの位置を推定するSLAM(simultaneous localization and mapping)を実行する、前記(3)または(4)に記載の情報処理装置。
(6)
前記ウェアラブルデバイスは、前記ユーザの頭部に装着される頭部装着型ディスプレイであり、
前記情報処理装置は、
前記推定した前記ユーザの位置、姿勢、および、前記コントローラの位置、姿勢に基づいて生成したコンテンツ画像を、前記頭部装着型ディスプレイに表示するよう制御する表示制御部をさらに備える、前記(3)〜(5)のいずれか1項に記載の情報処理装置。
(7)
前記情報処理装置は、前記ウェアラブルデバイスにより実現される、前記(6)に記載の情報処理装置。
(8)
前記コントローラ位置推定部は、
前記環境マップを参照し、前記第2の撮像画像内の特徴点の位置から前記コントローラの位置を推定する際に、前記ユーザの方向に応じて、前記環境マップから候補点の絞り込みを行う、前記(3)〜(7)のいずれか1項に記載の情報処理装置。
(9)
前記コントローラ位置推定部は、前記コントローラに設けられた姿勢センサにより検知された姿勢情報をさらに参照して、前記コントローラの位置および姿勢を推定する、前記(1)〜(8)のいずれか1項に記載の情報処理装置。
(10)
前記姿勢センサは、ジャイロ加速度センサである、前記(9)に記載の情報処理装置。
(11)
前記情報処理装置は、
前記コントローラ位置推定部により推定した前記コントローラの位置および姿勢を、前記コントローラから再度取得した新たな姿勢情報に基づいて修正する位置修正部をさらに備える、前記(9)または(10)に記載の情報処理装置。
(12)
前記コントローラ位置推定部は、前記コントローラからジャイロ加速度情報のみが送信された場合、INS(Inertial Navigation System)を用いて前記コントローラの位置および姿勢を推定する、前記(1)〜(11)のいずれか1項に記載の情報処理装置。
(13)
前記情報処理装置は、
前記推定した前記コントローラの位置情報を前記コントローラに送信する、前記(1)〜(12)のいずれか1項に記載の情報処理装置。
(14)
プロセッサが、
ユーザに装着されたウェアラブルデバイスに設けられた第1の撮像部により撮像された第1の撮像画像に基づいて、前記ユーザの周辺の環境情報を認識し、実空間上における前記ユーザの位置推定を行うことと、
前記ユーザが操作するコントローラに設けられた第2の撮像部により撮像された第2の撮像画像に基づいて、前記認識した環境情報を参照し、前記コントローラの位置推定を行うことと、
を含む、情報処理方法。
(15)
コンピュータを、
ユーザに装着されたウェアラブルデバイスに設けられた第1の撮像部により撮像された第1の撮像画像に基づいて、前記ユーザの周辺の環境情報を認識し、実空間上における前記ユーザの位置推定を行うユーザ位置推定部と、
前記ユーザが操作するコントローラに設けられた第2の撮像部により撮像された第2の撮像画像に基づいて、前記認識した環境情報を参照し、前記コントローラの位置推定を行うコントローラ位置推定部と、
として機能させるための、プログラム。
10 コントローラ
100 制御部
110 カメラ
120 姿勢センサ
130 通信部
20 HMD
200 制御部
201 環境マッピング部
202 ユーザ位置推定部
203 コントローラ位置推定部
204 コンテンツ表示制御部
206 ユーザ位置修正部
207 コントローラ位置修正部
210 カメラ
220 姿勢センサ
230 操作入力部
240 通信部
250 表示部
260 音声出力部
270 記憶部
271 環境マップ記憶部
272 コンテンツ記憶部

Claims (15)

  1. ユーザに装着されたウェアラブルデバイスに設けられた第1の撮像部により撮像された第1の撮像画像に基づいて、前記ユーザの周辺の環境情報を認識し、実空間上における前記ユーザの位置推定を行うユーザ位置推定部と、
    前記ユーザが操作するコントローラに設けられた第2の撮像部により撮像された第2の撮像画像に基づいて、前記認識した環境情報を参照し、前記コントローラの位置推定を行うコントローラ位置推定部と、
    を備える、情報処理装置。
  2. 前記ユーザ位置推定部は、前記ユーザの姿勢推定を含み、
    前記コントローラ位置推定部は、前記コントローラの姿勢推定を含む、請求項1に記載の情報処理装置。
  3. 前記情報処理装置は、
    前記第1の撮像画像に基づいて、前記ユーザの周辺の環境情報を環境マップとして生成するマッピング部と、
    前記生成した環境マップを記憶する記憶部と、
    をさらに備える、請求項2に記載の情報処理装置。
  4. 前記マッピング部は、さらに、前記第2の撮像画像を用いて前記環境マップを生成する、請求項3に記載の情報処理装置。
  5. 前記ユーザ位置推定部は、
    前記第1の撮像画像に基づいて、前記ユーザの位置を推定するSLAM(simultaneous localization and mapping)を実行する、請求項3に記載の情報処理装置。
  6. 前記ウェアラブルデバイスは、前記ユーザの頭部に装着される頭部装着型ディスプレイであり、
    前記情報処理装置は、
    前記推定した前記ユーザの位置、姿勢、および、前記コントローラの位置、姿勢に基づいて生成したコンテンツ画像を、前記頭部装着型ディスプレイに表示するよう制御する表示制御部をさらに備える、請求項3に記載の情報処理装置。
  7. 前記情報処理装置は、前記ウェアラブルデバイスにより実現される、請求項6に記載の情報処理装置。
  8. 前記コントローラ位置推定部は、
    前記環境マップを参照し、前記第2の撮像画像内の特徴点の位置から前記コントローラの位置を推定する際に、前記ユーザの方向に応じて、前記環境マップから候補点の絞り込みを行う、請求項3に記載の情報処理装置。
  9. 前記コントローラ位置推定部は、前記コントローラに設けられた姿勢センサにより検知された姿勢情報をさらに参照して、前記コントローラの位置および姿勢を推定する、請求項1に記載の情報処理装置。
  10. 前記姿勢センサは、ジャイロ加速度センサである、請求項9に記載の情報処理装置。
  11. 前記情報処理装置は、
    前記コントローラ位置推定部により推定した前記コントローラの位置および姿勢を、前記コントローラから再度取得した新たな姿勢情報に基づいて修正する位置修正部をさらに備える、請求項9に記載の情報処理装置。
  12. 前記コントローラ位置推定部は、前記コントローラからジャイロ加速度情報のみが送信された場合、INS(Inertial Navigation System)を用いて前記コントローラの位置および姿勢を推定する、請求項1に記載の情報処理装置。
  13. 前記情報処理装置は、
    前記推定した前記コントローラの位置情報を前記コントローラに送信する、請求項1に記載の情報処理装置。
  14. プロセッサが、
    ユーザに装着されたウェアラブルデバイスに設けられた第1の撮像部により撮像された第1の撮像画像に基づいて、前記ユーザの周辺の環境情報を認識し、実空間上における前記ユーザの位置推定を行うことと、
    前記ユーザが操作するコントローラに設けられた第2の撮像部により撮像された第2の撮像画像に基づいて、前記認識した環境情報を参照し、前記コントローラの位置推定を行うことと、
    を含む、情報処理方法。
  15. コンピュータを、
    ユーザに装着されたウェアラブルデバイスに設けられた第1の撮像部により撮像された第1の撮像画像に基づいて、前記ユーザの周辺の環境情報を認識し、実空間上における前記ユーザの位置推定を行うユーザ位置推定部と、
    前記ユーザが操作するコントローラに設けられた第2の撮像部により撮像された第2の撮像画像に基づいて、前記認識した環境情報を参照し、前記コントローラの位置推定を行うコントローラ位置推定部と、
    として機能させるための、プログラム。
JP2018020137A 2018-02-07 2018-02-07 情報処理装置、情報処理方法、およびプログラム Pending JP2021060627A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018020137A JP2021060627A (ja) 2018-02-07 2018-02-07 情報処理装置、情報処理方法、およびプログラム
PCT/JP2019/001223 WO2019155840A1 (ja) 2018-02-07 2019-01-17 情報処理装置、情報処理方法、およびプログラム
US16/964,589 US11443540B2 (en) 2018-02-07 2019-01-17 Information processing apparatus and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018020137A JP2021060627A (ja) 2018-02-07 2018-02-07 情報処理装置、情報処理方法、およびプログラム

Publications (1)

Publication Number Publication Date
JP2021060627A true JP2021060627A (ja) 2021-04-15

Family

ID=67548907

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018020137A Pending JP2021060627A (ja) 2018-02-07 2018-02-07 情報処理装置、情報処理方法、およびプログラム

Country Status (3)

Country Link
US (1) US11443540B2 (ja)
JP (1) JP2021060627A (ja)
WO (1) WO2019155840A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022511458A (ja) * 2018-11-30 2022-01-31 株式会社ソニー・インタラクティブエンタテインメント Hmdに対するコントローラの動きを判定するためのシステム及び方法
WO2024048195A1 (ja) * 2022-09-02 2024-03-07 株式会社Nttドコモ 表示制御装置

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021060627A (ja) * 2018-02-07 2021-04-15 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP7355840B2 (ja) * 2019-10-18 2023-10-03 株式会社Nttドコモ Arシステム及び端末
CN115004128A (zh) 2020-01-27 2022-09-02 奇跃公司 基于注视计时器的用户输入设备的功能增强

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5089060B2 (ja) 2006-03-14 2012-12-05 株式会社ソニー・コンピュータエンタテインメント エンタテインメントシステムおよびゲームコントローラ
AU2011220382A1 (en) * 2010-02-28 2012-10-18 Microsoft Corporation Local advertising content on an interactive head-mounted eyepiece
US9123135B2 (en) 2012-06-14 2015-09-01 Qualcomm Incorporated Adaptive switching between vision aided INS and vision only pose
JP6355978B2 (ja) * 2014-06-09 2018-07-11 株式会社バンダイナムコエンターテインメント プログラムおよび画像生成装置
US10191561B2 (en) * 2015-06-15 2019-01-29 Facebook Technologies, Llc Tracking controllers of a virtual reality system
JP6586834B2 (ja) 2015-09-14 2019-10-09 富士通株式会社 作業支援方法、作業支援プログラム、及び作業支援システム
JP2017129904A (ja) 2016-01-18 2017-07-27 ソニー株式会社 情報処理装置、情報処理方法、及び記録媒体
US10365712B2 (en) * 2016-05-17 2019-07-30 Google Llc Object tracking in a head mounted reference frame in an augmented and/or virtual reality environment
US20170352184A1 (en) * 2016-06-06 2017-12-07 Adam G. Poulos Optically augmenting electromagnetic tracking in mixed reality
US10757400B2 (en) * 2016-11-10 2020-08-25 Manor Financial, Inc. Near eye wavefront emulating display
US10365784B2 (en) * 2017-03-08 2019-07-30 Colopl, Inc. Information processing method and apparatus for executing the information processing method
JP2021060627A (ja) * 2018-02-07 2021-04-15 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2021002301A (ja) * 2019-06-24 2021-01-07 株式会社リコー 画像表示システム、画像表示装置、画像表示方法、プログラム、及び頭部装着型画像表示装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022511458A (ja) * 2018-11-30 2022-01-31 株式会社ソニー・インタラクティブエンタテインメント Hmdに対するコントローラの動きを判定するためのシステム及び方法
JP7337161B2 (ja) 2018-11-30 2023-09-01 株式会社ソニー・インタラクティブエンタテインメント Hmdに対するコントローラの動きを判定するためのシステム及び方法
WO2024048195A1 (ja) * 2022-09-02 2024-03-07 株式会社Nttドコモ 表示制御装置

Also Published As

Publication number Publication date
WO2019155840A1 (ja) 2019-08-15
US11443540B2 (en) 2022-09-13
US20210042513A1 (en) 2021-02-11

Similar Documents

Publication Publication Date Title
US11796309B2 (en) Information processing apparatus, information processing method, and recording medium
EP3469458B1 (en) Six dof mixed reality input by fusing inertial handheld controller with hand tracking
TWI722280B (zh) 用於多個自由度之控制器追蹤
US9824497B2 (en) Information processing apparatus, information processing system, and information processing method
WO2019155840A1 (ja) 情報処理装置、情報処理方法、およびプログラム
WO2017115618A1 (en) Information processing apparatus, information processing method, and program
WO2015180497A1 (zh) 一种基于立体视觉的动作采集和反馈方法及系统
JP6558839B2 (ja) 媒介現実
KR20150093831A (ko) 혼합 현실 환경에 대한 직접 상호작용 시스템
JP2013258614A (ja) 画像生成装置および画像生成方法
TW201447375A (zh) 擴增實境之頭戴式電子裝置及方法
WO2017213070A1 (ja) 情報処理装置および方法、並びに記録媒体
KR20220120649A (ko) 인공 현실 콘텐츠의 가변 초점 디스플레이를 갖는 인공 현실 시스템
US11086392B1 (en) Devices, systems, and methods for virtual representation of user interface devices
US11609428B2 (en) Information processing apparatus and information processing method
US11151804B2 (en) Information processing device, information processing method, and program
US10838515B1 (en) Tracking using controller cameras
JP2023126474A (ja) 拡張現実のためのシステムおよび方法
WO2020110659A1 (ja) 情報処理装置、情報処理方法、およびプログラム
US20200341284A1 (en) Information processing apparatus, information processing method, and recording medium
US11944897B2 (en) Device including plurality of markers
US11042747B2 (en) Masking method for augmented reality effects
WO2017163647A1 (ja) 頭部装着装置
US20230252691A1 (en) Passthrough window object locator in an artificial reality system
KR101487490B1 (ko) 웨어러블 단말의 영상 분석 방법