JP7315489B2 - 周辺機器追跡システムおよび方法 - Google Patents

周辺機器追跡システムおよび方法 Download PDF

Info

Publication number
JP7315489B2
JP7315489B2 JP2020008105A JP2020008105A JP7315489B2 JP 7315489 B2 JP7315489 B2 JP 7315489B2 JP 2020008105 A JP2020008105 A JP 2020008105A JP 2020008105 A JP2020008105 A JP 2020008105A JP 7315489 B2 JP7315489 B2 JP 7315489B2
Authority
JP
Japan
Prior art keywords
images
image
camera
group
peripherals
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020008105A
Other languages
English (en)
Other versions
JP2020144847A (ja
Inventor
ウィネシュ ラゴーバーダヤル シャーウィン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of JP2020144847A publication Critical patent/JP2020144847A/ja
Application granted granted Critical
Publication of JP7315489B2 publication Critical patent/JP7315489B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/039Accessories therefor, e.g. mouse pads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/72Combination of two or more compensation controls

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Biophysics (AREA)
  • Cardiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Optics & Photonics (AREA)
  • Studio Devices (AREA)
  • Position Input By Displaying (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Description

本開示は、周辺機器追跡システムおよび方法に関する。
ユーザがより自然な入力を提供できるようにするための周辺機器が長年使用されてきたが、そのようなデバイスの数が最近増加している。たとえば、多くのデバイスは、加速度計やその他のハードウェアモーションセンサを使用して、周辺機器の動きを検出する。この追跡されたモーションをユーザによる入力として使用してもよく、コンテンツの没入感を高めるために、ボタンを押す代わりに、より自然なモーション(ゲームコントローラを動かしてゴルフスイングをシミュレートするなど)を使用できるようになる。
このような入力方法とデバイスへの関心は、ユーザがバーチャルリアリティ(VR)または拡張現実(AR)コンテンツを体験できるヘッドマウントディスプレイユニット(HMD)の開発によって近年推進されてきた。このような体験へのユーザの没入レベルが、表示されたコンテンツを楽しむために重要であると考えられていることから、モーション追跡される周辺機器を使用することが望ましいと見られている。
多くの実施の形態では、周辺機器の動きが追跡されることで十分である。絶対位置(つまり、実環境での位置)はほとんど影響しないであろう。たとえば、ゴルフゲームでは、ユーザが部屋でスイングをどこで実行するかは重要ではない。重要なのは、場所ではなくユーザがアクションを模倣することであることから、「ゴルフクラブ」(つまり、ゴルフクラブを表す周辺機器)の動きこそがそのアクションの実行にとって重要である。
しかしながら、他の実施の形態では、周辺機器の絶対位置を入力として使用することが考えられる。ただし、位置を追跡するときに、加速度計やその他のハードウェアのモーション検出器を使用すると、多くの場合(センサのドリフトなどにより)エラーが発生しやすくなるため、このような情報を取得することは困難である。これにより、大きなエラーが比較的急速に増加し、検出された周辺機器の位置が実際の周辺機器の位置と大幅に異なることがある。
提案されている1つの解決策は、周辺機器に関連付けられている処理デバイス(ゲームコントローラに関連付けられているSony(登録商標)PlayStation(登録商標)4など)にあるカメラを使用して周辺機器を追跡することである。そのような方法は、周辺機器の位置の追加の測定値が得られ、必要に応じてハードウェア動き検出器からの検出された動きを補正するために使用できるという点で有利である。しかしながら、そのような方法に関連する多くの欠点があり、例えば、オクルージョンという潜在的な問題や提供されるべき追加のハードウェアに対する潜在的な要件などがある。
本発明が生じるのは、上記の問題の文脈においてである。
本発明の前述の一般的な説明および以下の詳細な説明の両方は、本発明の例示であり、本発明を限定するものではないことを理解されたい。本開示は、請求項1によって定義される。
本開示のさらなるそれぞれの態様および特徴は、添付の特許請求の範囲で定義される。
以下の詳細な説明を添付の図面と併せて参照することにより、その開示がよりよく理解されるので、本開示およびその付随する利点の多くのより完全な理解が容易に得られるであろう。
HMDを着用しているユーザを概略的に示す。 HMDに関連付けられたカメラによって取り込まれた画像を概略的に示す。 HMDに関連付けられたカメラによって取り込まれた画像を概略的に示す。 画像取込みシーケンスを概略的に示す図である。 追跡の実施の形態を概略的に示す図である。 追跡の実施の形態を概略的に示す図である。 画像取込みシーケンスを概略的に示す図である。 周辺機器追跡方法を概略的に示す図である。 周辺機器追跡装置を概略的に示す図である。
ここで図面を参照すると、同様の参照番号は、いくつかの図を通して同一または対応する部分を示し、本開示の実施の形態が説明される。これらの実施の形態の特徴は、説明された例示的な構成においてのみ適切であると考えられるのではなく、適切に組み合わされてもよいことが理解されるべきである。
図1は、基本デバイスの例として、Sony(登録商標)PlayStation 3(登録商標)ゲームコンソール100に接続されたHMD20を着用しているユーザを概略的に示す。ゲームコンソール100は、主電源110および(オプションとして)主表示画面(図示せず)に接続される。上述のケーブル82、84として機能する(したがって、電源ケーブルと信号ケーブルの両方として機能する)ケーブルは、HMD20をゲームコンソール100にリンクし、例えば、コンソール100のUSBソケット120に差し込まれる。本実施の形態では、ケーブル82、84の機能を満たす単一の物理ケーブルが提供されることに留意されたい。図1には、現在実行されているゲームプログラムに関連するゲーム操作を制御する(または制御に貢献する)ためにゲームコンソール100と無線で通信する、例えば、ソニー(登録商標)Move(登録商標)コントローラのようなハンドヘルドコントローラ130を保持するユーザも示されている。
HMD20内のビデオディスプレイは、ゲームコンソール100によって生成された画像を表示するように構成され、HMD20内のイヤホンは、ゲームコンソール100によって生成されたオーディオ信号を再生するように構成される。USBタイプのケーブルが使用される場合、この信号は、HMD20に到達したときにデジタル形式であることから、HMD20は、少なくともオーディオ信号をアナログ形式に変換して再生するためのデジタルアナログ変換器(DAC)を備えることに留意されたい。
HMD20に取り付けられたカメラ122からの画像は、ケーブル82、84を介してゲームコンソール100に戻される。これらの画像は、モーショントラッキング、ユーザへの提示、あるいはこれらまたは他の目的の任意の組み合わせに使用されてもよい。光源(例えば、赤外線光源または可視光源)の動き追跡を支援するためにこれらの画像が提供されてもよい。いくつかの実施の形態では、カメラ122は、深度カメラまたは立体カメラ構成であってもよい。同様に、モーションまたは他のセンサがHMD20で提供される場合、それらのセンサからの信号は、HMD20で少なくとも部分的に処理されてもよく、および/またはゲームコンソール100で少なくとも部分的に処理されてもよい。このような信号の使用および処理を以下でさらに説明する。
ゲームコンソール100からのUSB接続はまた、USB規格に従ってHMD20に電力を提供するが、電力を任意の数の代替または追加の供給源から受け取ってもよい。
上記のように、HMDの位置の追跡は、HMDに関連付けられたカメラによってキャプチャされた画像を使用して実行されてもよい。この追跡データは、加速度計またはジャイロスコープによって生成されたものなど、追加のモーション追跡データによって改良またはさもなければ補充することができる。
図2Aおよび2Bは、HMDに取り付けられたカメラによってキャプチャされた画像を概略的に示す。
図2Aは、カメラによってキャプチャされた第1の画像を示す。画像は部屋の上隅である。天井200は、壁210の上にある。窓220は、左の壁210上で検出される特徴の例を提供するが、もちろん、取り込まれた画像における参照点として任意の適切な特徴を使用することができる。
図2Bは、カメラによってキャプチャされた第2の画像を示す。この画像は、図2Aよりも後にキャプチャされている。矢印230は、取り込まれた画像の一部ではなく、むしろ、それらは前の画像に対する画像内の特徴の動きを示すのに役立つ。この画像では、各特徴が固定量だけ左にシフトしていることがわかる。これは、特徴自体の動きではなく、カメラ(およびHMDとユーザの頭)の右への回転または平行移動を示すものと見なすことができる。
画像間の特徴の動きの分析を実行することにより、HMDの動きの正確な測定値を決定することができ、したがって、HMDの追跡を実行することができる。
HMDの動きを明示的に追跡するのではなく、いくつかの実施の形態では、HMDの位置を各画像フレームで導き出すことが可能である。いくつかの例では、これは、画像の参照として環境の事前定義されたマッピングを使用することによって達成できる。特徴の識別は各画像で実行され、環境マッピングからの既知の特徴と比較されて、特徴とHMDの相対位置が識別される。もちろん、そのような方法は、適切な場合に特徴の画像間の動きを測定する方法と併せて使用されて、例えば、位置特定プロセスをより頻繁に実行しないことによって処理負担を軽減することができる。
所定のマッピングを使用するのではなく、いくつかの実施の形態では、代わりに、マッピング技法を利用して地図を生成することができる。たとえば、Simultaneous Localisation and Mapping(SLAM)技術を使用して、環境の地図を生成すると同時に、その環境内のHMDの場所を特定することができる。
HMDとともに使用される1つまたは複数の周辺機器の追跡も実行できることが有利であると考えられる。これは、たとえばゲームコンソールなどに配置された追加のカメラ、または加速度計などのハードウェアモーション検出を使用して実行できるが、HMDトラッキングのために使用されているのと同じカメラによってこのトラッキングが実行されるなら、エンターテインメントシステムの複雑さが軽減される。ただし、HMDと周辺機器のトラッキングを実行するときの技術的な考慮事項が異なるため、これには多くの問題がある。これらの考慮事項は、たとえば、異なる露出および/またはピクセルの感度が異なる光の波長を使用して環境と周辺機器の画像をキャプチャすることによって、1つの画像で解決することができるが、すべての目的に適しているとは限らない。
図3は、インタリーブ形式で異なるパラメータを使用して画像がキャプチャされる画像キャプチャスキームの一部を示す。ここでは2セットの画像(AとB)のみを示すが、もちろんこれを適切な数の画像セットに拡張することもできる。この例では、画像AからAはHMD追跡に関連し、画像BからBは周辺機器追跡に関連していると考えられる。ここには示されていない他の画像セットも、画像キャプチャスキームの一部を形成することがある。これらの画像は、ユーザへの表示や追加の周辺機器の追跡のために画像をキャプチャするなど、他の目的で使用することもあり、機能上の目的では全く使用しないこともある。
もちろん、画像がキャプチャされる順序を変更してもよく、画像が各方式を使用して1:1の比率でキャプチャされることは必須ではない。たとえば、A、A、B、A、A、BまたはA、A、B、B、A、A、B、Bなどの画像キャプチャスキームを使用することができる。同じセットに属する連続した画像フレーム(または、同じセットに属する連続した画像フレームがない場合は単一の画像フレーム)は、そのセットに属する一つのグループを構成する。たとえば、この段落の2つの例にはそれぞれ4つのグループがある。「A、A」は第1、「B」または「B、B」は第2、「A、A」は第3、「B」または「B、B」は最後のグループである。セットAとセットBの画像キャプチャパラメータの違いの例を以下に説明するが、これらは非限定的であると考えられるべきであり、これらのパラメータを特定の実施のために適切に修正してもよいことに注意すべきである。
画像取込み順序の不規則な配置も、いくつかの実施の形態では適切であると見なされる。これには、たとえば、A、A、B、A、B、A、B、Bなどの配置が含まれる。画像取込み順序のそのような配置は、場合によっては、疑似ランダムな方法で生成されてもよく、あるいは異なるサイズのグループが含まれる事前定義されたパターンに単に従ってもよい。
所与のグループで複数の画像が提供される場合、たとえば、グループ内の各画像に対する検出を平均することによって、単一の位置検出(「B」グループの場合はカメラから周辺機器への位置、または「A」グループの場合は環境内カメラの位置)がその所与のグループから生成される。あるいは、グループ内の各画像に対して個別の検出を行い、たとえばカメラ位置の場合は、カメラから周辺機器への位置の検出に時間的に最も近い検出として代表的な検出を選択することができる(その結果、たとえば、配置例A、A、B、A、A、B、A、Aでは、画像Bに対して行われた検出に関して使用されるカメラ位置検出はA、Aからのものであり、画像Bに対して行われた検出に関して使用されるカメラ位置検出はA、Aからのものである)。
画像セットAおよび画像セットBに加えて第3の画像セットが取り込まれる場合、第3の画像セットは、任意の適切な方法で最初の2つの画像セットとインタリーブ(交互に配置)されてもよい。例えば、Dが第3のセットの1つまたは複数の画像のグループを表す場合、ABDABD、ABDABABD、ADBDADBDまたは任意の他のインタリービングが適切に使用される。
画像AからAを使用して実行されるHMD追跡に対して、画像内の環境の特徴の識別を可能にするように画像が十分に明るいことが有利であると考えられる。これは、露出時間の延長、および環境を照らすための光源(HMDまたはHMDに関連付けられたコンソールに搭載されているものなど)の使用の一方または両方を用いて実現することができる。画像キャプチャの例は、図4Aに示され、HMDに取り付けられた光源400は、環境を照明するために起動される。
画像BからBを用いて行われる周辺機器追跡に対して、画像から周辺機器を容易に特定できるという利点があると考えられる。図4Bに示されるように、これは、図4Aに示されるようなHMDに関連する光源400ではなく、周辺機器を制御して光を発することを含んでもよい。これにより、しばしば周辺機器が環境内で最も明るいオブジェクトになり、そのため、キャプチャした画像で周辺機器を識別しやすくなる可能性がある。上述の照明構成の代わりに、またはそれに加えて、画像を取り込むときの露出時間を短くすることもできる。周辺装置は、常に発光するように制御することも、セットBに属する画像フレームをキャプチャする場合にのみ発光するように制御することもできる(たとえば、カメラを制御する装置から周辺装置に送信されるタイミング信号によって調整される)。後者は、Aフレームを使用したHMDの拡張追跡処理を有効にする可能性がある。いくつかの例では、周辺機器によって断続的に放出されるそのような照明は、ユーザに主観的な妨害を引き起こさないように、不可視範囲(たとえば、赤外線照明)にあってもよい。
HMDの追跡に使用するカメラと同じカメラを使用して周辺機器を追跡する場合、周辺機器の位置はHMDのみを基準にして決定されてもよい。周辺機器の実際の(実環境の)位置を取得するには、その時点でのHMD位置の検出を考慮に入れる必要がある。ただし、上で説明した交互の画像キャプチャ方式のため、周辺機器追跡の正確な時間におけるHMDの位置情報は利用可能ではない。
画像Aから得られたHMD位置情報を画像Bから得られた周辺機器位置情報と組み合わせて使用すると、HMD位置がこの時点での履歴データと見なされるため、周辺機器に対する位置データが不正確になり、ジッタが発生する可能性がある。これは周辺機器位置の妥当な概算を提供するが、精度の高い位置データを必要とするアプリケーションには適さないかもしれない。
図5は、周辺機器位置データCによって表される第3の位置情報の生成を概略的に示す。この周辺機器位置データは、画像Bから生成された位置データに基づいて、画像AおよびAから生成されたHMD位置データの関数(言い換えれば、所与の画像グループに先行する第1の画像セットにおける画像グループに対応する第1の位置情報と、所与の画像グループに続く第1の画像セットにおける画像グループに対応する第1の位置情報との関数)を用いて生成される。これは、周辺機器追跡方法において1つのカメラフレームのレイテンシをもたらす一方、有利には、追跡の滑らかさとともに周辺機器追跡の精度を改善することができる。この第3の位置情報は、B画像から得られた位置情報を使用することによって識別される1つまたは複数の周辺機器の単なる画像位置ではなく、環境内の1つまたは複数の周辺機器の位置を示す。
画像AおよびAから生成されたHMD位置データの関数は、2組の位置データに基づいて位置を導出するための任意の適切な関数であってもよい。例えば、関数が2組の位置データの平均値を取ることを要求するようにして、位置データの平均が生成されてもよい。場合によっては、たとえば、目的の時間に最も近くキャプチャされた位置データに対する関数の寄与を増やすために、これは加重平均になることがある。
あるいは、またはさらに、HMD加速度の測定値を使用して重み付け値を生成してもよい。たとえば、画像AとAのキャプチャの間に正の加速が実行された場合、キャプチャされた画像間の中間の時間におけるユーザの位置は、それらの画像に関連付けられたそれぞれの位置間の中間点であるとは限らない。この場合、前の画像に関連付けられた位置データの重み係数は増加するが、減速の場合、後の画像に関連付けられた位置データの重み係数が大きくなる。
そのような実施の形態では、位置データは、B画像または画像グループのそれぞれに対してこのようにして生成されてもよい。例えば、周辺機器位置データCは、画像AおよびAから生成されたHMD位置データと、画像Bから生成された周辺機器位置データとの組み合わせを使用して生成されてもよい。
ある実施の形態では、周辺機器追跡データCは、B画像がキャプチャされるのと同じ速度で(すなわち、図5の例では1つおきのフレームで)生成される。しかしながら、他の実施の形態では、周辺機器追跡データCは、それぞれA画像フレームおよびB画像フレームから得られた位置データのローリング平均を使用して画像取込み速度と同じ速度で生成されてもよい。ある実施の形態では、アプリケーションまたはシナリオに応じていずれかの方法を選択できるアプローチが実装されてもよい。例えば、より高いサンプリングレートが周辺機器追跡に役立つ場合(特定のタスクまたは入力など)、後者のアプローチは、少なくともユーザのインタラクションのサブセットに対して行うことができる。
図6は、実環境においてユーザによって操作可能な1つまたは複数の周辺機器を追跡する方法を概略的に示す。
ステップ600は、ユーザ、例えば、ユーザが装着することのできるHMDに取り付け可能なカメラを用いて実環境の画像をキャプチャすることを含む。
ステップ610は、カメラによってキャプチャされた第1の画像セットに属する画像の特徴を識別することを含む。
ステップ620は、カメラによってキャプチャされた第2の画像セットに属する1つまたは複数の画像における1つまたは複数の周辺機器の画像位置を識別することを含み、カメラによってキャプチャされた第1の画像セットおよび第2の画像セットは、各セットからの1つまたは複数の画像グループが順番にキャプチャされるようにインタリーブされる。
ステップ630は、識別された特徴の1つまたは複数に応じて、実環境におけるカメラの第1の位置情報を生成することを含む。このステップは、特徴識別ステップ610が実行される画像のキャプチャに対応する時間に実行される。つまり、カメラ(カメラがHMDに取り付けられている場合はHMD)の位置情報の生成は、上記の図5の例のフレームAの特徴検出時に実行される。
ステップ640は、1つまたは複数の周辺機器の識別された画像位置に応じて、カメラに対する1つまたは複数の周辺機器のそれぞれの第2の位置情報を生成することを含む。このステップは、周辺機器識別ステップ620が実行される画像のキャプチャに対応する時間に実行される。つまり、周辺機器の位置情報の生成は、上記の例では画像フレームBの特徴検出時に行われる。
ステップ630および640において、画像キャプチャに対応する時間は、画像キャプチャの時間、またはキャプチャされた画像が処理される前に遅延がある場合、この直後の時間であってもよい。たとえば、画像がHMDを介して処理するためにカメラから関連する処理デバイス(ゲームコンソールなど)に送信される場合、画像キャプチャと画像処理の間に遅延が発生する。
ステップ650は、第2の画像セット内の所与の画像グループに対応する第1の平均を用いた所与の画像の第2の位置情報を、所与の画像グループに先行する画像グループに対応する第1の位置情報と、所与の画像グループに続く第1の画像セット内の画像グループに対応する第1の位置情報との関数と組み合わせることにより、実環境における1つまたは複数の周辺機器の位置を識別する第3の位置情報を生成することを含む。
このステップは、特徴識別ステップ610が実行される後続の画像のキャプチャに対応する時間に実行される。つまり、上記の図5の例では、フレームAの特徴検出時に第3の位置情報の生成が実行される。いくつかの実施の形態では、関数は位置情報の平均である。上記のように、これは適切な場合は加重平均であってもよい。
図7は、実環境においてユーザが操作可能な1つまたは複数の周辺機器を追跡するためのシステムを概略的に示し、このシステムは、カメラ700、特徴識別部710、周辺機器識別部720、および位置決定部730を備える。
ユーザおよび/またはHMDに取り付け可能なカメラ700は、実環境および/または1つまたは複数の周辺機器の画像をキャプチャするように動作可能である。ある実施の形態では、画像は、1つまたは複数のキャプチャされた画像の異なるセットに対して異なる露光時間でキャプチャされる。例えば、上述のように、周辺機器追跡のために周辺機器の画像を取り込むときよりも、HMD追跡のために環境の画像を取り込むときの方が、より長い露光時間が使用されてもよい。ある実施の形態では、カメラ700は、画像を取り込むための広角レンズ(魚眼レンズ、または視野が60°を超える任意のレンズなど)を含む。
ある実施の形態では、システムはまた、カメラが環境のより明るい画像を取り込むことを可能にするために、1つまたは複数の画像キャプチャフレームの少なくとも第1のセットに対して環境を照明するように動作可能である光源(図4Aの参照符号400など)を備える。これにより、特徴の認識が向上する可能性がある。
ある実施の形態では、カメラは、周辺機器に関連付けられたライトが照明されているときに周辺機器の画像をキャプチャするように動作可能である。上述のように、ある実施の形態では、周辺機器は、環境を照明するように動作可能な光源がアクティブではないフレームにおいて(たとえば、周辺機器上のLEDによって)照明されるように動作可能である。
特徴識別部710は、カメラによってキャプチャされた第1の画像セットに属する画像の特徴を識別するように動作可能である。
周辺機器識別部720は、カメラによってキャプチャされた第2の画像セットに属する1つまたは複数の画像における1つまたは複数の周辺機器の画像位置を識別するように動作可能であり、特徴識別部および周辺機器識別部は、1つまたは複数のキャプチャされた画像のインタリーブされたセット上でそれぞれの識別プロセスを実行する。図6のステップ620を参照して説明したように、カメラによってキャプチャされた第1の画像セットおよび第2の画像セットは、各セットからの1つまたは複数の画像のグループが順にキャプチャされるようにインタリーブされる。
上記のように、1つまたは複数の画像のインタリーブセットの例には、ABAB形式またはAABBAABB形式への画像の配置が含まれる。ここでAとBは、異なるセットに属する画像を表す。ある実施の形態では、このセットは、上述のAABAABフォーマットなどのように、セット内に異なる数のキャプチャされた画像フレームを有してもよい。
位置決定部730は、識別された特徴の1つまたは複数に応じて実環境におけるカメラの第1の位置情報を生成し、1つまたは複数の周辺機器の識別された画像位置に応じてカメラに対する1つまたは複数の周辺機器のそれぞれの第2の位置情報を生成するように動作可能である。
位置決定部730はまた、第2の画像セット内の所与の画像グループに対応する第2の位置情報を、所与の画像グループに先行する第1の画像セット内の画像グループに対応する第1の位置情報と、所与の画像グループに続く第1の画像セット内の画像グループに対応する第1の位置情報との関数と組み合わせることにより、実環境における1つまたは複数の周辺機器の位置を識別する第3の位置情報を生成するように動作可能である。
ある実施の形態では、位置決定部730は、所与の画像グループの直前の第1の画像セット内の画像グループに対応する第1の位置情報と、所与の画像グループの直後の第1の画像セット内の画像グループに対応する第1の位置情報とを用いて第3の位置情報を生成するように動作可能である。
ある実施の形態では、位置決定部730は、環境の地図を使用して位置情報を生成するように動作可能である。例えば、地図は、SLAM処理を用いて生成されてもよい。
代替的に、または追加的に、システムは、動き追跡情報を生成するためにカメラ700に関連付けられた1つまたは複数のハードウェア動き検出器を備えてもよい。そのようなハードウェア動き検出器の例には、加速度計とジャイロスコープが含まれる。
上記のシステムに対する多くの変形が、本開示において考慮される。
ある実施の形態では、カメラ700は、第3の画像セットをキャプチャするように動作可能である。上記のように、これらの画像は、ユーザへの表示または追加の周辺機器の追跡のために画像をキャプチャするなど、他の目的で使用することも、機能上の目的では全く使用しないこともある。ある実施の形態では、3つの画像セットのそれぞれは、異なる数の画像のグループを含み、各機能の画像のグループの数の間に1:1:1の比がないようにする。ある実施の形態では、第1、第2および第3の画像セットは、それぞれの異なる数の画像のグループを含むことも想定される。
ある実施の形態では、グループは、各セットについて異なる数の画像を含む。つまり、各グループを形成する画像の数は、周辺機器追跡に対してではなくHMD追跡に対して異なってもよい。これは、優先順位付けされたデバイスの追跡の頻度を増やすのに有利である。また、画像セットに属するグループは、様々な数の画像を含んでもよいと考えられる。たとえば、AABABAABAAAB配置では、Aグループ内の画像フレームの数は、そのセットに属するグループ間で異なる。より一般的な用語では、ある実施の形態では、グループのうちの少なくとも2つは、各グループについて異なる数の画像を含む。3つの画像セットがキャプチャされる実施の形態では、第1、第2、および第3の画像セットの少なくとも1つに属するグループは、グループ毎に異なる数の画像を含む。
上述の技法は、ハードウェア、ソフトウェア、またはその2つの組み合わせで実装されてもよい。ソフトウェア制御データ処理装置を使用して実施の形態の1つまたは複数の機能を実装する場合、そのようなソフトウェア、およびそのようなソフトウェアが提供される非一時的機械可読記憶媒体などの記憶媒体または伝送媒体もまた本開示の実施の形態と見なされることが理解されるであろう。
したがって、前述の議論は、本発明の単なる例示的な実施の形態を開示および説明する。当業者によって理解されるように、本発明は、その精神または本質的な特徴から逸脱することなく、他の特定の形態で実施されてもよい。したがって、本発明の開示は、例示を意図したものであり、本発明の範囲および他の請求項を限定するものではない。本明細書の教示の容易に識別可能な変形を含む開示は、発明の主題が公に捧げられないように、前述の請求項の用語の範囲を部分的に定義する。

Claims (15)

  1. 実環境においてユーザが操作可能な1つまたは複数の周辺機器を追跡するためのシステムであって、
    ユーザに取り付け可能であり、前記実環境の画像をキャプチャするように動作可能であるカメラと、
    前記カメラによってキャプチャされた第1の画像セットに属する画像の特徴を識別するように動作可能である特徴識別部と、
    前記カメラによってキャプチャされた第2の画像セットに属する1つまたは複数の画像における1つまたは複数の周辺機器の画像位置を識別するように動作可能である周辺機器識別部と、
    前記識別された特徴の1つまたは複数に応じて前記実環境における前記カメラの第1の位置情報を生成し、前記1つまたは複数の周辺機器の前記識別された画像位置に応じて前記カメラに対する前記1つまたは複数の周辺機器のそれぞれの第2の位置情報を生成するように動作可能である位置決定部とを含み、
    前記カメラによってキャプチャされた前記第1の画像セットおよび前記第2の画像セットは、各セットからの1つまたは複数の画像グループが順番にキャプチャされるようにインタリーブされ、
    前記位置決定部は、前記第2の画像セット内の所与の画像グループに対応する前記第2の位置情報を、前記所与の画像グループに先行する前記第1の画像セット内の画像グループに対応する前記第1の位置情報と、前記所与の画像グループに続く前記第1の画像セット内の画像グループに対応する前記第1の位置情報との関数と組み合わせることにより、前記実環境における前記1つまたは複数の周辺機器の位置を識別する第3の位置情報を生成するように動作可能である、システム。
  2. 1つまたは複数の画像キャプチャフレームの少なくとも第1のセットに対して前記環境を照明するように動作可能である光源を含む、請求項1に記載のシステム。
  3. 前記カメラは、前記周辺機器に関連付けられたライトが照明されているときに前記周辺機器の画像をキャプチャするように動作可能である、請求項1に記載のシステム。
  4. 1つまたは複数のキャプチャされた画像の異なるセットに対して異なる露出時間で画像がキャプチャされる、請求項1に記載のシステム。
  5. 前記関数は前記位置情報の平均である、請求項1に記載のシステム。
  6. 前記位置決定部は、前記環境の地図を使用して位置情報を生成するように動作可能である、請求項1に記載のシステム。
  7. 前記位置決定部は、前記所与の画像グループの直前の前記第1の画像セット内の画像グループに対応する前記第1の位置情報と、前記所与の画像グループの直後の前記第1の画像セット内の画像グループに対応する前記第1の位置情報とを用いて前記第3の位置情報を生成するように動作可能である、請求項1に記載のシステム。
  8. 動き追跡情報を生成するために前記カメラに関連付けられた1つまたは複数のハードウェア動き検出器を含む、請求項1に記載のシステム。
  9. 前記カメラは、第3の画像セットをキャプチャするように動作可能である、請求項1に記載のシステム。
  10. 前記第1、前記第2および前記第3の画像セットは、それぞれの異なる数の画像のグループを含む、請求項9に記載のシステム。
  11. 前記グループのうちの少なくとも2つは、各グループについて異なる数の画像を含む、請求項1に記載のシステム。
  12. 前記第1、前記第2、および前記第3の画像セットの少なくとも1つに属するグループは、グループ毎に異なる数の画像を含む、請求項9に記載のシステム。
  13. 実環境においてユーザによって操作可能な1つまたは複数の周辺機器を追跡する方法であって、
    ユーザに取り付け可能なカメラを用いて前記実環境の画像をキャプチャするステップと、
    前記カメラによってキャプチャされた第1の画像セットに属する画像の特徴を識別するステップと、
    前記カメラによってキャプチャされた第2の画像セットに属する1つまたは複数の画像における1つまたは複数の周辺機器の画像位置を識別するステップであって、前記カメラによってキャプチャされた前記第1の画像セットおよび前記第2の画像セットは、各セットからの1つまたは複数の画像グループが順番にキャプチャされるようにインタリーブされる、ステップと、
    前記識別された特徴の1つまたは複数に応じて、前記実環境における前記カメラの第1の位置情報を生成するステップと、
    前記1つまたは複数の周辺機器の前記識別された画像位置に応じて、前記カメラに対する前記1つまたは複数の周辺機器のそれぞれの第2の位置情報を生成するステップと、
    前記第2の画像セット内の所与の画像グループに対応する前記第2の位置情報を、前記所与の画像グループに先行する画像グループに対応する前記第1の位置情報と、前記所与の画像グループに続く前記第1の画像セット内の画像グループに対応する前記第1の位置情報との関数と組み合わせることにより、前記実環境における前記1つまたは複数の周辺機器の位置を識別する第3の位置情報を生成するステップとを含む、方法。
  14. コンピュータによって実行されるとき、前記コンピュータに請求項13の方法を実行させるコンピュータソフトウェア。
  15. 請求項14に記載のコンピュータソフトウェアを格納する非一時的機械読み取り可能な記録媒体。
JP2020008105A 2019-01-29 2020-01-22 周辺機器追跡システムおよび方法 Active JP7315489B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
GB1901188.1 2019-01-29
GB1901188.1A GB2580915B (en) 2019-01-29 2019-01-29 Peripheral tracking system and method

Publications (2)

Publication Number Publication Date
JP2020144847A JP2020144847A (ja) 2020-09-10
JP7315489B2 true JP7315489B2 (ja) 2023-07-26

Family

ID=65997837

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020008105A Active JP7315489B2 (ja) 2019-01-29 2020-01-22 周辺機器追跡システムおよび方法

Country Status (4)

Country Link
US (1) US11602684B2 (ja)
EP (1) EP3689427A1 (ja)
JP (1) JP7315489B2 (ja)
GB (1) GB2580915B (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2582657B (en) * 2019-03-29 2021-09-15 Sony Interactive Entertainment Inc User tracking system using a camera mounted on the user and an external camera
US11854223B2 (en) * 2021-05-28 2023-12-26 Microsoft Technology Licensing, Llc Mixed-reality device positioning based on shared location

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013521544A (ja) 2010-03-01 2013-06-10 キィ リー、ムーン 拡張現実のポインティング装置
US20180108149A1 (en) 2016-10-19 2018-04-19 Seiko Epson Corporation Computer program, object tracking method, and object tracking device
US20190318501A1 (en) 2018-04-16 2019-10-17 Microsoft Technology Licensing, Llc Tracking pose of handheld object

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016041088A1 (en) * 2014-09-19 2016-03-24 Sulon Technologies Inc. System and method for tracking wearable peripherals in augmented reality and virtual reality applications
US10373304B2 (en) * 2014-11-05 2019-08-06 Illinois Tool Works Inc. System and method of arranging welding device markers
US10286308B2 (en) * 2014-11-10 2019-05-14 Valve Corporation Controller visualization in virtual and augmented reality environments
US20160232715A1 (en) * 2015-02-10 2016-08-11 Fangwei Lee Virtual reality and augmented reality control with mobile devices
US9898091B2 (en) * 2015-06-03 2018-02-20 Oculus Vr, Llc Virtual reality system with head-mounted display, camera and hand-held controllers
JP6363587B2 (ja) * 2015-12-14 2018-07-25 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および警告提示方法
US10712900B2 (en) * 2018-06-06 2020-07-14 Sony Interactive Entertainment Inc. VR comfort zones used to inform an In-VR GUI editor

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013521544A (ja) 2010-03-01 2013-06-10 キィ リー、ムーン 拡張現実のポインティング装置
US20180108149A1 (en) 2016-10-19 2018-04-19 Seiko Epson Corporation Computer program, object tracking method, and object tracking device
US20190318501A1 (en) 2018-04-16 2019-10-17 Microsoft Technology Licensing, Llc Tracking pose of handheld object

Also Published As

Publication number Publication date
US11602684B2 (en) 2023-03-14
GB201901188D0 (en) 2019-03-20
GB2580915B (en) 2021-06-09
EP3689427A1 (en) 2020-08-05
US20200238164A1 (en) 2020-07-30
GB2580915A (en) 2020-08-05
JP2020144847A (ja) 2020-09-10

Similar Documents

Publication Publication Date Title
JP5512804B2 (ja) オブジェクトの位置及び向きを用いた追跡システムの較正
KR101489235B1 (ko) 트래킹 시스템에서의 각도 에러 정정
JP5469179B2 (ja) 最小限のユーザ入力による追跡システムの較正
JP6484340B2 (ja) ヘッドマウントディスプレイを用いた仮想または拡張現実シーン内のユーザ対話の方法及びシステム
EP2435957B1 (en) Color calibration for object tracking
TWI517881B (zh) 決定附球控制器的位置與移動
US8142288B2 (en) Base station movement detection and compensation
US9774989B2 (en) Position and rotation of a portable device relative to a television screen
JP7315489B2 (ja) 周辺機器追跡システムおよび方法
US10946271B2 (en) Controlling data processing
CN110324594A (zh) 一种投影画面防抖方法、装置及投影仪
US10564801B2 (en) Method for communicating via virtual space and information processing apparatus for executing the method
US11367298B2 (en) Tracking system and method
US20180028861A1 (en) Information processing device and information processing method
JP5396486B2 (ja) 画像内の形状のブルーミングの補償
KR20190126368A (ko) 줌 장치 및 관련된 방법
WO2020071029A1 (ja) 情報処理装置、情報処理方法、及び記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230627

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230628

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230713

R150 Certificate of patent or registration of utility model

Ref document number: 7315489

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150