JP7368489B2 - サーモパイルアレイフュージョントラッキング - Google Patents
サーモパイルアレイフュージョントラッキング Download PDFInfo
- Publication number
- JP7368489B2 JP7368489B2 JP2021553090A JP2021553090A JP7368489B2 JP 7368489 B2 JP7368489 B2 JP 7368489B2 JP 2021553090 A JP2021553090 A JP 2021553090A JP 2021553090 A JP2021553090 A JP 2021553090A JP 7368489 B2 JP7368489 B2 JP 7368489B2
- Authority
- JP
- Japan
- Prior art keywords
- user device
- thermal
- location
- data
- space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01K—MEASURING TEMPERATURE; MEASURING QUANTITY OF HEAT; THERMALLY-SENSITIVE ELEMENTS NOT OTHERWISE PROVIDED FOR
- G01K7/00—Measuring temperature based on the use of electric or magnetic elements directly sensitive to heat ; Power supply therefor, e.g. using thermoelectric elements
- G01K7/42—Circuits effecting compensation of thermal inertia; Circuits for predicting the stationary value of a temperature
- G01K7/427—Temperature calculation based on spatial modeling, e.g. spatial inter- or extrapolation
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/211—Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/212—Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/217—Input arrangements for video game devices characterised by their sensors, purposes or types using environment-related information, i.e. information generated otherwise than by the player, e.g. ambient temperature or humidity
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/22—Setup operations, e.g. calibration, key configuration or button assignment
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/24—Constructional details thereof, e.g. game controllers with detachable joystick handles
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/25—Output arrangements for video game devices
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
- A63F13/428—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
- A63F13/525—Changing parameters of virtual cameras
- A63F13/5255—Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/251—Fusion techniques of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/143—Sensing or illuminating at different wavelengths
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
- G06V10/245—Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Ecology (AREA)
- Environmental Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Biodiversity & Conservation Biology (AREA)
- Artificial Intelligence (AREA)
- Environmental & Geological Engineering (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Bioinformatics & Computational Biology (AREA)
- Cardiology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- User Interface Of Digital Computer (AREA)
- Navigation (AREA)
Description
本願は、参照によりその全体が本明細書に組み込まれる、2019年3月8日に出願された米国特許出願第16/297,292号の利益を主張する。
ユーザーデバイスがコンピューティングハブと有する場合があるインタラクションの1つは、3D空間内でのその場所を決定し、場所をコンピューティングハブに送信することである。ユーザーデバイスは、ユーザーデバイスの熱センサアレイを利用することによってその場所を決定できる。熱センサアレイは、物理的な空間内に配置された(例えば、ゲームルームの壁に固着された)1つ以上のサーマルビーコン(例えば、IR LED)から温度信号を受信するように構成され得る。熱センサアレイから受信した温度データに基づいて、ユーザーデバイスは、3D空間内でのその場所を決定し、その場所をコンピューティングハブに送信できる。また、ユーザーデバイスは、その場所を決定するために他のセンサとともに温度データを使用してもよい。
この較正プロセスは、ユーザーデバイス104が、3D空間の3Dモデルを構築し、ユーザーデバイス104に格納することを可能にでき、3D空間は、ルーム126の少なくとも一部分に対応し、そこでは、ユーザー102は、中でユーザーデバイス104を操作できる。また、較正プロセスは、サーモパイルアレイの視野が、ルーム126内の3D空間内の特定の点から少なくとも2つの信号を検出できることも検証できる。他の実施形態では、及びSLAMアプリケーションのタイプ(例えば、ルーム126内のユーザーデバイスを対象とした使用範囲)に応じて、2つ以上のサーマルビーコンが、ユーザーデバイス104がその場所を決定するために物理的な空間126内に配置され得る。
方向は、回転及び向きから導出される。運動ベクトルは、運動の距離及び方向を定義し、それによってX軸、Y軸、及びZ軸に沿ったヘッドセット200の並進運動の追跡を可能にする。したがって、運動ベクトルの中の慣性データ、距離、及び方向を定義することによって、ユーザーのヘッドセット200の動きを経時的に追跡することができる。したがって、慣性データに基づいて、及び時間に関して積分(複数可)を実行することによって、ヘッドセット200の場所は、3D空間内の特定の点について決定され得る。IMU214の処理ユニット(例えば、信号プロセッサ)は、そのようなIMUセンサが検知するデータから場所データを生成できる。
いくつかの実施形態では、サーモパイルアレイ218に接続された処理ユニット(例えば、サーモパイルアレイ218と統合される信号プロセッサ)は、サーモパイルアレイ218の要素によって出力される電圧に基づいて、ユーザーデバイス200からサーマルビーコン204、206までの距離に対応する温度データを送信できる。いくつかの実施形態では、サーモパイルは、単一の要素(例えば、ピクセル)、二重要素などから成る場合がある。
他の実施形態では、サーモパイルは、ピクセルのリニア(例えば、16、32)アレイまたはエリア(例えば、32x32)アレイであってよい。本明細書に説明する実施形態はサーモパイルアレイを説明しているが、本開示は、そのように限定的であると解釈されるべきではない。いくつかの実施形態では、サーモパイルアレイ218の任意の所与のピクセル(複数可)は、サーマルビーコンがピクセルの視野内にあるのであれば、所与のときに1つ以上のサーマルビーコンから温度信号を検出することができる場合がある。上述のように、及び図3に関して以下にさらに説明するように、サーモパイルアレイ218から生成される温度データは、ユーザーデバイス200と少なくとも2つのサーマルビーコン204、206との間の距離を三角測量して物理的な空間126内のユーザーデバイス200の3D場所を決定するために使用できる。いくつかの実施形態では、サーマルパイルアレイからの温度データは、物理的な空間126内のユーザーデバイス200の3D場所を出力するためにIMUデータと結合してもよい。
一実施形態では、及び図1のゲームルーム126を例として使用すると、(3Dワイヤフレームモデルとして表できる)3Dモデルは、ユーザー102が、中でユーザーデバイス104を操作するつもりである3D空間に対応する。例えば、ユーザーは、中心に近い(人間が届くことが可能である、ある距離、中心から放射状に広がる)ゲームルームの一部分内でのみユーザーデバイス104を操作するつもりである場合がある。較正モジュール308は、デバイスを(例えば、ユーザーがおもにデバイスを操作するつもりである)部屋の中心128に移動させることによって、較正を開始し、次に立って、その場で回転しながら、部屋を360度視野スイープ(ビジュアルスイープ:visual sweep)するように(あるいは、360度にわたる視野が得られるよう回転するように)デバイス104を動かすことをユーザーに指示でき、360度視野スイープは、より小さい弧のセグメント(例えば、90度の回転)に分割される。各セグメントでは、上述のように、ユーザーデバイス104は、少なくとも2つのサーマルビーコンがサーモアイルの視野内にあることを検証できる。
さらに、ユーザーデバイス104は、ユーザーデバイス104と、弧セグメント内に見える各サーマルビーコン204、206との間の距離を決定し、メモリ304に格納できる。ユーザーデバイス104が部屋のスイープを完了すると、較正モジュール308は、3D空間の3Dモデルを構築するために、ユーザーデバイス104とビーコン110~124の各々との間で決定された(部屋の中心128に対する)場所データを使用できる。いくつかの実施形態では、X軸、Y軸、及びZ軸の原点は、ユーザー102が較正中にユーザーデバイス104を最初に配置した位置(例えば、中心128)にある場合がある。いくつかの実施形態では、較正を実行するために、完全な360度の視覚スイープは必要とされない場合がある。例えば、ユーザー104が、通常、テレビ108に向かって前方を向いてユーザーデバイス104を操作する場合、較正は、部屋の部分的な(例えば、180度の)スイープしか推奨しない場合がある。その場合、3Dモデルを構築するために必要とされる室内に事前に配置するサーマルビーコンの数は、より少ない場合がある。
信頼値は、サーモパイルアレイの視野内で検出されるサーマルビーコンの数(例えば、取得された距離値の数)に応じて増減できる。例えば、1つしかサーマルビーコンが検出されない場合でも、サーモパイルアレイアルゴリズムモジュール314は場所値を出力できるが、対応する信頼値は低くなる場合がある。逆に、2つ以上のサーマルビーコンが視野内で検出される場合、モジュール314は、高い信頼値を出力できる。いくつかの実施形態では、ユーザーデバイス302は、特定の周波数でサーモパイルアレイアルゴリズムモジュール314を実行できる。例えば、モジュール314は、120Hzで(約8.33ミリ秒ごとに)実行できる。通常、温度データに基づいて更新された場所を生成する周波数がより高いと、位置追跡精度は向上する。例えば、温度データとIMUデータ(以下にさらに説明する)とを融合するとき、温度データに基づいたより頻繁な場所情報が、IMUデータ内のドリフト誤差に対して補正するのに役立つ。
ゲーミングアプリケーションのタイプに応じて、ビデオゲームコンソール106は、どのくらい多くのサーマルビーコンを使用する必要があるのか、及びどの程度のカバレージ(例えば、360度、180度など)が推奨されるのかに関してユーザーに指示できる。例えば、ユーザー102が、ゲームプレイ中に、ルーム126の外周の360度の視覚スイープでビデオゲームコントローラ104(例えば、ヘッドセット)を移動できることを、アプリケーションが必要とする場合には、ユーザー102は、図1に示すように、サーマルビーコンを部屋の外周の周りに配置することを推奨される場合がある。例えば、サーマルビーコン110~124は、4つの壁112、116、120、124の中心に、及び壁の角110、114、118、122の近くにの両方に配置され得る。このようにして、ゲーム環境内のヘッドセット104の所与の位置について、ヘッドセット104のサーモパイルアレイ218は、視野内の少なくとも2つのサーマルビーコン204、206から温度信号を検出できる場合がある。
いくつかの実施形態では、モジュール312は、3D空間内のパドルの場所を決定するために(較正プロセスの間に以前に格納された)ゲームルーム126内の3D空間の3Dモデルを使用してよい。いくつかの実施形態では、パドルは、その場所を決定するために(例えば、サーモパイルアレイアルゴリズムモジュール314によって生成された)信頼値を利用できる。例えば、特定のときに、1つのサーマルビーコンしか検出されなかった場合、信頼値はより低くなる場合がある。したがって、パドルは、その場所値を無視する、それを他の場所データと結合させて精度を向上させる、または任意の他の適切な挙動を実行することを決定する場合がある。
いくつかの実施形態では、パドルは、パドルの場所を決定するために(他のセンサデータは別として)温度データだけしか利用しない場合があることを理解されたい。しかしながら、他の実施形態では、パドルは、(図6に以下に説明するように)結合のためにセンサフュージョンアルゴリズム312にさらに入力され得るパドルの場所を決定するために、温度データに加えて他のセンサ入力(例えば、IMUデータ)及び/または変数を利用できる。
いくつかの実施形態では、センサフュージョンアルゴリズムが操作602及び606から受け取ったデータの各々は、実質的に同じ時点でのユーザーデバイスの場所を測定するデータに対応してよい。しかしながら、他の実施形態では、センサフュージョンアルゴリズムが操作602及び606から受け取ったデータは、異なる時間間隔でユーザーデバイスの場所を測定するデータと対応してもよい。また、一例では、操作502に関して上述したのと同様に、サーモパイルアレイアルゴリズム314は、120Hzの周波数でのサーモパイルアレイ318からの温度データに基づいてユーザーデバイスの場所を決定できる(例えば、8.33ミリ秒ごとに更新する)。
例えば、これとは対照的に、20HzのIMUは、50ミリ秒にわたってIMUの総移動を表すサンプル期間の加速速度及び回転速度を出力できる。センサフュージョンアルゴリズム312は、IMU場所データ内のドリフト誤差を補正するために、ドリフト補正係数として、サーモパイルアレイから導出した場所データを使用できる。また、センサフュージョンアルゴリズムは、上述のように、アルゴリズムの精度を高めるために操作604からの以前の場所データを利用してもよい。
記憶装置715は、アプリケーション及びデータに不揮発性記憶装置及び他のコンピュータ可読媒体を提供し、固定ディスクドライブ、リムーバブルディスクドライブ、フラッシュメモリデバイス、及びCD-ROM、DVD-ROM、Blu-ray(登録商標)、HD-DVD、または他の光学記憶装置、ならびに信号伝送及び記憶媒体を含んでもよい。ユーザー入力デバイス720は、1人以上のユーザーからコンピュータシステム700にユーザー入力を通信し、その例は、キーボード、マウス、ジョイスティック、タッチパッド、タッチスクリーン、静止カメラもしくはビデオカメラ、及び/またはマイクロフォンを含み得る。ネットワークインタフェース725は、コンピュータシステム700が、電子通信ネットワーク経由で他のコンピュータシステムと通信することを可能にし、ローカルエリアネットワークまたはインターネットなどの広域ネットワークを介する有線通信または無線通信を含み得る。
音声プロセッサ755は、CPU705、メモリ710、及び/または記憶装置715によって提供される命令及び/またはデータから、アナログまたはデジタルの音声出力を生成するように適合される。CPU705、メモリ710、データ記憶装置715、ユーザー入力デバイス720、ネットワークインタフェース725、及び音声プロセッサ755を含むコンピュータシステム700のコンポーネントは、1つ以上のデータバス760経由で接続される。
他の形態では、CPU705は、GPU735に所望の出力画像を定義するデータ及び/または命令を与え、そこからGPU735は1つ以上の出力画像のピクセルデータを生成する。所望の出力画像を定義するデータ及び/または命令は、メモリ710及び/またはグラフィックメモリ740に格納できる。一実施形態では、GPU735は、シーンの形状、照明、陰影、テクスチャ、運動、及び/またはカメラのパラメータを定義する命令及びデータから出力画像のピクセルデータを生成するための3Dレンダリング機能を含む。GPU735は、シェーダプログラムを実行できる1つ以上のプログラム可能な実行ユニットをさらに含む場合がある。
Claims (15)
- ビデオゲームシステムであって、
ビデオゲームコンソールと、
複数のサーマルビーコンと、
前記ビデオゲームコンソールと通信で結合されたユーザーデバイスとを備え、
前記ユーザーデバイスは、
サーモパイルアレイと、
プロセッサと、
命令を格納するメモリと、を備え、
前記命令は、前記プロセッサにより実行されると、前記プロセッサに、
前記サーモパイルアレイから温度データを受け取らせ、前記温度データは、前記複数のサーマルビーコンのうち相異なるサーマルビーコンからそれぞれ発せられて前記サーモパイルアレイによって検出される温度信号に対応するものであり、
前記温度データと、前記サーマルビーコンの数に関連付けられた信頼値とに基づいて、3次元(3D)空間内の前記ユーザーデバイスの場所を決定させ、 前記ユーザーデバイスの前記場所を前記ビデオゲームコンソールに送信させるものである、ビデオゲームシステム。 - 前記ユーザーデバイスは、慣性計測装置(IMU)をさらに備え、前記命令は、前記実行がなされることで、さらに、前記プロセッサに、
前記IMUからIMUデータを受け取らせ、前記IMUデータは、前記3D空間内の前記ユーザーデバイスの加速度に対応する加速度データ、及び前記3D空間内の前記ユーザーデバイスの回転速度に対応する方位データを含むものであり、
前記温度データ、前記IMUデータ、及び以前の場所データをセンサフュージョンアルゴリズムに入力することによって、前記3D空間内の前記のユーザーデバイスの前記場所を決定させるものである、請求項1に記載のビデオゲームシステム。 - 前記温度データは前記複数のサーマルビーコンのうちの第1サーマルビーコンからの第1温度信号に対応し、前記命令は、前記実行がなされることで、さらに、前記プロセッサに、
前記サーモパイルアレイから第2の温度データを受け取らせ、前記第2の温度データは、前記複数のサーマルビーコンのうちの第2のサーマルビーコンから発せられて前記サーモパイルアレイによって検出される第2の温度信号に対応し、前記サーマルビーコン及び前記第2のサーマルビーコンは、同時に前記サーモパイルアレイの視野内にあり、前記ユーザーデバイスの前記場所が、前記第2の温度データに基づいてさらに決定される、請求項1に記載のビデオゲームシステム。 - 前記温度信号は、サーマルビーコンに固有の識別子を備え、前記識別子は、前記複数のサーマルビーコンから前記サーマルビーコンを識別するために前記サーモパイルアレイによって使用される、請求項1に記載の前記ビデオゲームシステム。
- 前記複数のサーマルビーコンの各サーマルビーコンは、ゲーム環境に配置され、前記3D空間が前記ゲーム環境の一部分にマッピングされ、前記サーマルビーコンは、前記3D空間内の前記ユーザーデバイスの特定の位置について、前記サーモパイルアレイが少なくとも2つのサーマルビーコンから温度信号を検出できるように配置される、請求項1に記載のビデオゲームシステム。
- ユーザーデバイスであって、
サーモパイルアレイと、
プロセッサと、
命令を格納するメモリと、を備え、
前記命令は、前記プロセッサにより実行されると、前記プロセッサに、
前記サーモパイルアレイから温度データを受け取らせ、前記温度データは、複数のサーマルビーコンのうち相異なるサーマルビーコンのそれぞれから発せられて前記サーモパイルアレイによって検出される温度信号に対応するものであり、
前記温度データと、前記複数のサーマルビーコンの数に関連付けられた信頼値とに基づいて、3次元(3D)空間内の前記ユーザーデバイスの場所を決定させ、
前記ユーザーデバイスの前記場所をビデオゲームコンソールに送信させる、ユーザーデバイス。 - 前記ユーザーデバイスは、慣性計測装置(IMU)をさらに備え、前記命令は、前記実行がなされることで、さらに、前記プロセッサに、
前記IMUからIMUデータを受け取らせ、前記IMUデータは、前記3D空間内の前記ユーザーデバイスの加速度に対応する加速度データ、及び前記3D空間内の前記ユーザーデバイスの回転速度に対応する方位データを含むものであり、
前記温度データ、前記IMUデータ、及び以前の場所データをセンサフュージョンアルゴリズムに入力することによって、前記3D空間内の前記のユーザーデバイスの前記場所を決定させるものである、請求項6に記載のユーザーデバイス。 - 前記センサフュージョンアルゴリズムは、前記温度データに対応する前記信頼値を生成し、前記信頼値は、前記サーモパイルアレイの視野内にある前記サーマルビーコンの数に基づくものであり、かつ、前記信頼値は、前記場所を決定するために前記センサフュージョンアルゴリズムによって使用される、請求項7に記載のユーザーデバイス。
- 前記複数のサーマルビーコンの各ビーコンは赤外線ダイオードである、請求項6に記載のユーザーデバイス。
- 前記複数のサーマルビーコンの各サーマルビーコンは、ゲーム環境に配置され、前記3D空間が前記ゲーム環境の一部分にマッピングされ、前記サーマルビーコンは、前記3D空間内の前記ユーザーデバイスの特定の位置について、前記サーモパイルアレイの1つ以上の熱センサが少なくとも2つのサーマルビーコンから温度信号を検出できるように配置される、請求項6に記載のユーザーデバイス。
- 命令を格納したコンピュータ可読記憶媒体であって、前記命令は、ユーザーデバイスにより実行されると、ユーザーデバイスに、
複数のサーマルビーコンのうち相異なるサーマルビーコンからそれぞれ発せられてサーモパイルアレイの1つ以上の熱センサによって検出される温度信号に対応する温度データを、前記サーモパイルアレイによって生成させる動作を実行させ、
前記温度データと、前記サーマルビーコンの数に関連付けられた信頼値とに基づいて、3次元(3D)空間内の前記ユーザーデバイスの場所を決定させる動作を実行させ、かつ、
ビデオゲームコンソールと通信で結合された前記ユーザーデバイスによって、前記ユーザーデバイスの前記場所を前記ビデオゲームコンソールに送信させる動作を実行させるように、前記ユーザーデバイスを構成するものである、コンピュータ可読記憶媒体。 - 前記動作では、さらに、
前記ユーザーデバイスの慣性計測装置(IMU)からIMUデータを受け取り、前記IMUデータは、前記3D空間内の前記ユーザーデバイスの加速度に対応する加速度データ、及び前記3D空間内の前記ユーザーデバイスの回転速度に対応する方位データを含むものであり、
前記温度データ、前記IMUデータ、及び以前の場所データをセンサフュージョンアルゴリズムに入力することによって、前記3D空間内の前記のユーザーデバイスの前記場所を決定する、請求項11に記載のコンピュータ可読記憶媒体。 - 前記センサフュージョンアルゴリズムがカルマンフィルタを利用する、請求項12に記載のコンピュータ可読記憶媒体。
- 前記動作では、さらに、
前記3D空間内に配置された前記複数のサーマルビーコンのうちのサーマルビーコンの第1のセットから発せられる第1の温度信号に対応する第1の温度データに基づいて前記ユーザーデバイスの第1の場所を決定し、
前記3D空間内に配置された前記複数のサーマルビーコンのうちのサーマルビーコンの第2のセットから発せられる第2の温度信号に対応する第2の温度データに基づいて前記ユーザーデバイスの第2の場所を決定し、
前記ユーザーデバイスによって、前記第1の場所及び前記第2の場所に基づいて、前記3D空間の3Dモデルを生成し、
前記ユーザーデバイスによって前記3Dモデルを格納することで、較正を実行する、請求項11に記載のコンピュータ可読記憶媒体。 - 前記較正の前記実行では、さらに、
ユーザーに前記ユーザーデバイスを前記第1の場所に移動させるように要求する命令を、前記ユーザーデバイスによって受け取り、
前記第1の場所を前記決定したことに応えて、前記ユーザーに前記ユーザーデバイスを前記第2の場所に移動させるように要求する命令を、前記ユーザーデバイスによって受け取る、請求項14に記載のコンピュータ可読記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/297,292 | 2019-03-08 | ||
US16/297,292 US10786729B1 (en) | 2019-03-08 | 2019-03-08 | Thermopile array fusion tracking |
PCT/US2020/018584 WO2020185356A1 (en) | 2019-03-08 | 2020-02-18 | Thermopile array fusion tracking |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022524099A JP2022524099A (ja) | 2022-04-27 |
JP7368489B2 true JP7368489B2 (ja) | 2023-10-24 |
Family
ID=72336809
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021553090A Active JP7368489B2 (ja) | 2019-03-08 | 2020-02-18 | サーモパイルアレイフュージョントラッキング |
Country Status (5)
Country | Link |
---|---|
US (2) | US10786729B1 (ja) |
EP (1) | EP3934777A4 (ja) |
JP (1) | JP7368489B2 (ja) |
CN (1) | CN113784767A (ja) |
WO (1) | WO2020185356A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10786729B1 (en) | 2019-03-08 | 2020-09-29 | Sony Interactive Entertainment Inc. | Thermopile array fusion tracking |
KR20210128269A (ko) * | 2020-04-16 | 2021-10-26 | 삼성전자주식회사 | 증강 현실(ar) 디바이스 및 증강 현실 디바이스에서 포즈를 예측하는 방법 |
EP4180100A1 (en) * | 2021-11-11 | 2023-05-17 | Playoke GmbH | System for providing a single- or multi- player game experience |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002512069A (ja) | 1998-04-17 | 2002-04-23 | マサチューセッツ インスティテュート オブ テクノロジー | 動き追跡システム |
JP2006185109A (ja) | 2004-12-27 | 2006-07-13 | Hitachi Ltd | 画像計測装置及び画像計測方法 |
JP2009093612A (ja) | 2007-04-17 | 2009-04-30 | Avago Technologies Ecbu Ip (Singapore) Pte Ltd | 光学ナビゲーションのために画像データのフレーム内の特徴クラスタにラベル付けするシステムおよび方法 |
JP2009195707A (ja) | 2008-02-21 | 2009-09-03 | Palo Alto Research Center Inc | 位置認識混合現実感ゲームプラットフォーム |
JP2010509000A (ja) | 2006-11-10 | 2010-03-25 | エムティヴィ・ネットワークス | ユーザの足の動きを検出して組み込む電子ゲーム |
JP2016531276A (ja) | 2013-06-13 | 2016-10-06 | ビーエーエスエフ ソシエタス・ヨーロピアBasf Se | 少なくとも1つの物体の方位を光学的に検出する検出器 |
JP2017509864A (ja) | 2014-01-07 | 2017-04-06 | フィリップス ライティング ホールディング ビー ヴィ | 位置決めシステムにおけるビーコニングの制御 |
JP2017144234A (ja) | 2016-02-16 | 2017-08-24 | エヌエイチエヌ エンターテインメント コーポレーションNHN Entertainment Corporation | IoT機器を利用して拡張現実を実現した戦場オンラインゲーム |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7203384B2 (en) | 2003-02-24 | 2007-04-10 | Electronic Scripting Products, Inc. | Implement for optically inferring information from a planar jotting surface |
US7961909B2 (en) * | 2006-03-08 | 2011-06-14 | Electronic Scripting Products, Inc. | Computer interface employing a manipulated object with absolute pose detection component and a display |
WO2009038797A2 (en) | 2007-09-20 | 2009-03-26 | Evolution Robotics | Robotic game systems and methods |
GB2506688A (en) * | 2012-10-08 | 2014-04-09 | Bae Systems Plc | Detection of a target in a scene using hyperspectral imaging |
EP2920773A4 (en) | 2012-11-16 | 2016-07-06 | Flir Systems | SYNCHRONIZED INFRARED BAKE / INFRARED DETECTION SYSTEM |
CN106030458B (zh) * | 2013-12-31 | 2020-05-08 | 谷歌有限责任公司 | 用于基于凝视的媒体选择和编辑的系统和方法 |
US9622208B2 (en) | 2015-09-02 | 2017-04-11 | Estimote, Inc. | Systems and methods for object tracking with wireless beacons |
KR102447635B1 (ko) | 2015-12-29 | 2022-09-27 | 에스케이플래닛 주식회사 | 빌딩 내에서의 위치 추정 방법, 이를 위한 장치 및 시스템 |
US10565723B2 (en) * | 2016-02-02 | 2020-02-18 | Samsung Electronics Co., Ltd. | Systems and methods for drift correction |
US10254546B2 (en) * | 2016-06-06 | 2019-04-09 | Microsoft Technology Licensing, Llc | Optically augmenting electromagnetic tracking in mixed reality |
US10078377B2 (en) * | 2016-06-09 | 2018-09-18 | Microsoft Technology Licensing, Llc | Six DOF mixed reality input by fusing inertial handheld controller with hand tracking |
US20180085673A1 (en) * | 2016-08-31 | 2018-03-29 | Ole Birkedal | Vest and Motion Sensitive Wand for Interactive Game Play |
CN107545589A (zh) * | 2017-07-06 | 2018-01-05 | 王福来 | 一种空间定位系统及方法 |
US10481699B2 (en) * | 2017-07-27 | 2019-11-19 | Facebook Technologies, Llc | Armband for tracking hand motion using electrical impedance measurement |
US10786729B1 (en) | 2019-03-08 | 2020-09-29 | Sony Interactive Entertainment Inc. | Thermopile array fusion tracking |
-
2019
- 2019-03-08 US US16/297,292 patent/US10786729B1/en active Active
-
2020
- 2020-02-18 WO PCT/US2020/018584 patent/WO2020185356A1/en active Application Filing
- 2020-02-18 JP JP2021553090A patent/JP7368489B2/ja active Active
- 2020-02-18 EP EP20769252.6A patent/EP3934777A4/en active Pending
- 2020-02-18 CN CN202080032803.9A patent/CN113784767A/zh active Pending
- 2020-09-28 US US17/034,864 patent/US11554316B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002512069A (ja) | 1998-04-17 | 2002-04-23 | マサチューセッツ インスティテュート オブ テクノロジー | 動き追跡システム |
JP2006185109A (ja) | 2004-12-27 | 2006-07-13 | Hitachi Ltd | 画像計測装置及び画像計測方法 |
JP2010509000A (ja) | 2006-11-10 | 2010-03-25 | エムティヴィ・ネットワークス | ユーザの足の動きを検出して組み込む電子ゲーム |
JP2009093612A (ja) | 2007-04-17 | 2009-04-30 | Avago Technologies Ecbu Ip (Singapore) Pte Ltd | 光学ナビゲーションのために画像データのフレーム内の特徴クラスタにラベル付けするシステムおよび方法 |
JP2009195707A (ja) | 2008-02-21 | 2009-09-03 | Palo Alto Research Center Inc | 位置認識混合現実感ゲームプラットフォーム |
JP2016531276A (ja) | 2013-06-13 | 2016-10-06 | ビーエーエスエフ ソシエタス・ヨーロピアBasf Se | 少なくとも1つの物体の方位を光学的に検出する検出器 |
JP2017509864A (ja) | 2014-01-07 | 2017-04-06 | フィリップス ライティング ホールディング ビー ヴィ | 位置決めシステムにおけるビーコニングの制御 |
JP2017144234A (ja) | 2016-02-16 | 2017-08-24 | エヌエイチエヌ エンターテインメント コーポレーションNHN Entertainment Corporation | IoT機器を利用して拡張現実を実現した戦場オンラインゲーム |
Also Published As
Publication number | Publication date |
---|---|
EP3934777A4 (en) | 2022-12-21 |
US20210023438A1 (en) | 2021-01-28 |
US20200282303A1 (en) | 2020-09-10 |
JP2022524099A (ja) | 2022-04-27 |
US10786729B1 (en) | 2020-09-29 |
WO2020185356A1 (en) | 2020-09-17 |
CN113784767A (zh) | 2021-12-10 |
EP3934777A1 (en) | 2022-01-12 |
US11554316B2 (en) | 2023-01-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10905950B2 (en) | Head-mounted display tracking | |
US11858628B2 (en) | Image space motion planning of an autonomous vehicle | |
US11861892B2 (en) | Object tracking by an unmanned aerial vehicle using visual sensors | |
JP7368489B2 (ja) | サーモパイルアレイフュージョントラッキング | |
US20240062663A1 (en) | User Interaction With An Autonomous Unmanned Aerial Vehicle | |
US20220374013A1 (en) | Fitness And Sports Applications For An Autonomous Unmanned Aerial Vehicle | |
JP7181316B2 (ja) | Hmd環境での高速中心窩レンダリングのための予測及びgpuに対する最新の更新を伴う視線追跡 | |
KR101881620B1 (ko) | 게임플레이에서의 3차원 환경 모델 사용 | |
US10248118B2 (en) | Remotely controlling a self-propelled device in a virtualized environment | |
US9904982B2 (en) | System and methods for displaying panoramic content | |
CN105190703A (zh) | 使用光度立体来进行3d环境建模 | |
WO2018113759A1 (zh) | 基于定位系统和ar/mr的探测系统及探测方法 | |
KR102101587B1 (ko) | 골프용 드론 및 볼마커를 이용한 퍼팅 라인 제공 방법 및 장치 | |
TW202234023A (zh) | 通過建立定位點描述立體空間的方法與系統 | |
CN117666852A (zh) | 虚拟现实空间中的目标对象确定方法、装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211012 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221115 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230116 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230404 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230601 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230912 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231012 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7368489 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |