JP6381092B2 - 摂動因子存在下で入力の値を推定する方法及び装置 - Google Patents

摂動因子存在下で入力の値を推定する方法及び装置 Download PDF

Info

Publication number
JP6381092B2
JP6381092B2 JP2017510886A JP2017510886A JP6381092B2 JP 6381092 B2 JP6381092 B2 JP 6381092B2 JP 2017510886 A JP2017510886 A JP 2017510886A JP 2017510886 A JP2017510886 A JP 2017510886A JP 6381092 B2 JP6381092 B2 JP 6381092B2
Authority
JP
Japan
Prior art keywords
input
input value
history
value
estimating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017510886A
Other languages
English (en)
Other versions
JP2017532642A (ja
Inventor
フランソワ グザヴィエ パスキエ
フランソワ グザヴィエ パスキエ
セバスチャン グイド
セバスチャン グイド
ジェイノス ブーデ
ジェイノス ブーデ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Original Assignee
Nintendo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd filed Critical Nintendo Co Ltd
Publication of JP2017532642A publication Critical patent/JP2017532642A/ja
Application granted granted Critical
Publication of JP6381092B2 publication Critical patent/JP6381092B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/53Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers details of basic data processing
    • A63F2300/534Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers details of basic data processing for network load management, e.g. bandwidth optimization, latency reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/371Image reproducers using viewer tracking for tracking viewers with different interocular distances; for tracking rotational head movements around the vertical axis

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Description

本発明は、リアルタイムシステムにおいて入力の値を推定する方法及び装置に関し、特に、第1のセンサ、典型的にはカメラ、を用いて入力を追跡するリアルタイム対話型システム、に関する。
リアルタイム対話型システムは、キープレス、アナログ入力などのユーザ入力と、表示、音声等のフィードバックの両者を必要とする。理想的なシステムにおいては、ユーザ入力を瞬時に考慮に入れることが可能であり、瞬間的に計算を行ってから遅延なしに出力する。なお、ユーザ入力は必ずしも自発的な入力である必要はない。顔の位置などのものごとは、ユーザはそれ自体をユーザ入力だと見做さないが、監視され得る。
現存するリアルタイムシステムにおいては、遅延は決してゼロとならず、遅延が大きくなる傾向があるほどシステムの動作はより違和感のあるものになる。
例えばビデオゲームにおいては、キープレスあるいはパッド操作と所望の画面上の効果が得られるまでの間の待ち時間を最適化しなければならない。待ち時間の最適化は、ユーザが可能な限り最良のゲーム感覚を味わえるようにするのに役立つ。ユーザ入力のあるものは、2値の押鍵状況とは対照的に、連続的な入力である。これは、例えばハンドル操作の場合がそうである。この場合、ユーザは瞬時にハンドルを別の角度に変えることができないし、回転速度を無限大にすることもできない。カメラ、IRセンサ、超音波センサなどの非接触センサで測定したユーザの動き(頭部、手、胴体等)を利用するシステムでは、実際の身体の動きとシステムの認識との間に待ち時間を導入する何らかの処理及び/又はフィルタリングが行われることが多い。
典型的なリアルタイムシステムにおいては、任意の時刻tに情報が取り込まれる。当該システムは、連続入力の値をこの情報から算出する。したがって、この値がその後システムで利用可能となる。ひとたび利用可能になると、この入力の値は、フィードバックを生成するのに使われる。フィードバックが実際に発生する際、それは、時刻tに取り込まれた情報から算出された値に基づく。したがって、システムの待ち時間は、入力の値を算出する時間にフィードバックを生成する時間を加えた時間となる。
連続入力に関する待ち時間を改善する1つの方法は、入力が十分円滑に行われるとみなすことである。このようにみなせば、何らかの線形予測モデルを用いて将来の入力値を推定できる。そのようなシステムにおいては、任意の時刻tに連続入力の値が算出され、同時に当該入力の先行する値から時刻t+1における次回値が推定される。そして、その推定は時刻t+1でフィードバック関数を算出するのに用いられる。フィードバックが発生する際、それは、過去における連続入力の算出値ではなく、その瞬間の連続入力の値の推定値に基づく。連続入力の進展が十分線形であるとすれば、算出済みの古くなった値よりも、この推定値のほうがフィードバック時の入力の実際値により正確に対応すると考えられるからである。システムの待ち時間は、このように補償されてユーザのリアルタイムの体験が改善されてきた。
しかし、連続系の線形性が何らかの摂動因子によって乱されるという事態が生じることがある。その場合、線形モデルに基づく、連続入力の未来予測が精度を失う。その結果、リアルタイムシステムの全体的な劣化が生じる。例えば、下記の実施形態の詳細では、リアルタイムシステムは携帯ゲーム機である。このゲーム機はカメラと3D画面を備えている。ユーザの良好な体験のために、3D画面のパラメータの中にはユーザの顔の位置に基づいて適合させられなければならないものがある。この適合を達成するために、ゲーム機に対するユーザの顔の相対的位置がリアルタイムで追跡される。この位置が、ゲーム機によって考慮される連続入力である。ゲーム機前方のユーザの頭部の動きは十分直線的であることがあり、したがって線形モデルを用いてその位置を正確に推定できてよい。しかし実際には、ユーザはゲームをしながらゲーム機を動かす。この動きは、プレーヤーの頭部の動きよりはるかに速く、直線的でないことがある。こうした動きが、顔位置追跡の性能を低下させる摂動因子を構成する。
本発明は、上述の問題点の少なくとも一つに対処すべくなされたものである。本発明は、摂動因子の存在下でのリアルタイムシステムにおける連続入力の推定を向上させることに関する。摂動因子は第2のセンサを用いて推定される。この推定に基づいて、入力算出値における摂動因子による成分が除去される。その後、摂動因子が除去された、先行する算出済みの入力値に基づき次の入力値が推定される。ついで、この推定は、摂動因子の推定を適用し戻すことによって訂正される。
本発明の第1の態様によれば、リアルタイムシステムにおいて入力値を推定する方法であって、当該方法は、前記リアルタイムシステムを実現する装置により:
当該装置に組み込まれた少なくとも第1のセンサからの入力値を算出し;
当該算出された入力値を前記装置上の算出された入力値の履歴に保存し:
前記装置に組み込まれた少なくとも第2のセンサからの前記入力値の摂動因子成分を推定し;
算出された入力値の前記履歴に保存された各入力値から前記摂動因子成分を除去することにより、入力値の修正された履歴を求め;
入力値の当該修正された履歴から前記入力値を推定する
ことからなることを特徴とする方法が提供される。
したがって、前記入力値は前記摂動因子から独立に推定されてよい。
一態様においては、前記方法は、前記推定された入力値に前記推定された摂動因子成分を加え戻すことをさらに含む。
したがって、前記推定された入力値は、前記摂動因子の影響が積算される。
一態様においては、入力値の前記修正された履歴からの第1の入力値の推定は、これらの入力値の経時的進展のモデルに基づく。
一態様においては、前記経時的進展のモデルは線形モデルである。
一態様においては、前記修正された履歴からの第1の入力値の前記推定は、入力値の当該修正された履歴に適用されるべき一組の係数を最小2乗法を用いて求めることにある。
一態様においては、前記入力は、前記装置に組み込まれたカメラによって取り込まれた画像における当該装置前方の被写体の投影である。
一態様においては、前記被写体は前記装置のユーザの両目である。
一態様においては、前記摂動因子は装置の動きである。
一態様においては、前記少なくとも1つの第2のセンサは少なくとも1つのジャイロスコープからなる。
一態様においては、前記入力値の摂動因子成分を推定することは、前記ジャイロスコープの出力値の積算を行う演算子を適用することからなる。
本発明の他の態様によれば、リアルタイムシステムにおいてフィードバックを求める方法であって、当該方法は、前記リアルタイムシステムを実現する装置により:本発明に応じて入力値を推定し;そして当該推定された入力値に基づき前記フィードバックを求めることからなることを特徴とする方法が提供される。
本発明の他の態様によれば、装置において視差バリアを調整するための入力を求める方法であって、当該方法は:
少なくとも、前記装置内のカメラによって取り込まれた画像に基づき、将来のある時刻において前記視差バリアを調整するための第1の値を予測し;
前記装置内のジャイロスコープからの第2の値であって、当該装置の動きの成分を示す第2の値を受信し;そして
−前記予測された第1の値から前記装置の動きの成分を除去して当該装置における前記視差バリアを調整するための更新された値を求める
ことからなることを特徴とする方法が提供される。
本発明の他の態様によれば、
カメラ;
ジャイロスコープ;
視差バリア;
実行可能な命令を記憶するメモリ;そして
前記メモリと通信して前記命令を実行するように構成されたプロセッサを備え、前記実行可能な命令は:
少なくとも、前記装置の前記カメラにより取り込まれた画像に基づき、将来のある時刻において前記視差バリアを調節するための第1の値を予測し;
前記装置内のジャイロスコープからの第2の値であって、当該装置の動きの成分を示す第2の値を受信し;そして
前記予測された第1の値から前記装置の動きの成分を除去して当該装置における前記視差バリアを調整するための更新された値を求めることを特徴とする装置が提供される。
本発明の他の態様によれば、リアルタイムシステムを実現する装置であって、当該リアルタイムシステムにおいて入力値を推定するために、当該装置は:
当該装置に組み込まれた、少なくとも第1のセンサと;
当該装置に組み込まれた、少なくとも第2のセンサと;
前記少なくとも第1のセンサからの前記入力値を算出する手段と;
前記算出された入力値を算出された入力値の履歴に保存する手段と:
前記少なくとも第2のセンサからの前記入力値の摂動因子成分を推定する手段と;
算出された入力値の前記履歴に保存された各入力値から前記摂動因子成分を除去することにより、入力値の修正された履歴を求める手段と;
入力値の前記修正された履歴から前記入力値を推定する手段と
からなることを特徴とする装置が提供される。
一態様においては、前記装置は、前記推定された入力値に基づきフィードバックを求める手段をさらに備える。
一態様においては、前記フィードバックは3D画面の視差バリアの調整であり、前記入力値は前記装置前方のユーザの両目の位置である。
本発明の他の態様によれば、プログラム可能な装置のためのコンピュータプログラム製品であって、前記プログラム可能な装置に展開され、当該装置によって実行されるときに、本発明に係る方法を実現するための一連の命令からなるコンピュータプログラムが提供される。
本発明の他の態様によれば、本発明に係る方法を実現するためのコンピュータプログラムの命令を記憶するコンピュータ読み取り可能な記憶媒体が提供される。
本発明に係る方法の少なくとも一部は、コンピュータ実現可能であってよい。したがって、本発明は全てハードウェア的な実施形態、全てソフトウェア的な実施形態(ファームウェア、常駐ソフトウェア、マイクロコードなどを含む)、あるいは、全て一般に「回路」、「モジュール」、又は「システム」と本明細書中において称されたソフトウェアとハードウェアの両態様を結合した態様の形をとってよい。さらに、本発明は、コンピュータ使用可能なプログラムコードが具体化される、如何なる有形の表現媒体においてでも具体化されたコンピュータプログラムの形を取ってもよい。
本発明はソフトウェアとして実現可能なので、適切なキャリア媒体上で、プログラム可能な装置に供給されるコンピュータ読み取り可能なコードとして実現できる。有形で、非一時的なキャリア媒体には、フロッピー(登録商標)ディスク、CD−ROM、ハードディスクドライブ、磁気テープ装置、ソリッドステートメモリ装置などの記憶媒体が含まれてよい。一時的なキャリア媒体には、電気信号、電子信号、光信号、音響信号、磁気信号、あるいは電磁気信号、例えばマイクロウェーブまたはRF信号、などの信号が含まれてよい。
本発明の特定の実施形態を説明するのに有用なシステムを示す図である。 本発明の一実施形態において使用される3D画面の構造を示す図である。 本発明の一実施形態における、ユーザの顔の位置の予測に基づく調整処理を示す図である。 本発明の一実施形態において使用される最小2乗法を示す図である。 本発明の一実施形態において装置の動きによって生じる被写体の動きを示す図である。 本発明の一実施形態における、3つの回転軸に対する組み込みジャイロスコープの回転を示す図である。 摂動因子の存在下での入力を予測する本発明の一実施形態に係る一般的な方法のステップを示す図である。 本発明の一つまたは複数の実施形態を実施するための演算装置の概略ブロック図である。
図1は、本発明の特定の実施形態を説明するのに用いられるシステムを示している。なお、本発明はこの特定のシステムに限定されるものではなく、同様の問題を有する多くのシステムにも適用可能である。
ユーザ1.1は、携帯ゲーム機、携帯電話機、タブレットコンピュータなどの携帯装置1.2を使用している。この携帯装置1.2は、一般に、表示画面1.4、カメラ1.3などからなる。カメラ1.3は、ゲーム機周囲の通常の画像、典型的には連続映像、を撮影可能である。ゲーム機の通常の使用の場合、ユーザ1.1は表示画面1.4を見るために、頭部1.5をゲーム機のおおよそ前方に置く。これは、ユーザの頭部1.5の画像がカメラ1.3によって取り込まれ得ることを意味する。周知の追跡アルゴリズムの中には、カメラ1.3が取り込む画像中のユーザの頭部1.5を追跡し、特にこれらの画像中の両目1.6の位置を特定できるようにするものがある。そのような追跡アルゴリズムの例は、E. Osuna、R. Freund、 F.
Girosi著 「Training support vector machines: an
application to face detection」( Computer Vision and
Pattern Recognition,1997. Proceedings., 1997 IEEE Computer Society Conference
on , vol., no., pp.130,136, 17-19 Jun 1997)、P.N. Belhumeur、
J.P. Hespanha、 D. Kriegman著「Eigenfaces vs. Fisherfaces: recognition using class specific linear
projection」(Pattern Analysis and Machine Intelligence,
IEEE Transactions on , vol.19,no.7, pp.711,720, Jul 1997)、あるいは H.A. Rowley、 S. Baluja、 T. Kanade著 「Neural network-based face
detection」(Pattern Analysis and Machine Intelligence,IEEE
Transactions on , vol.20, no.1, pp.23,38, Jan 1998)に見られる。
ここに説明する特定の実施形態においては、画面1.4は3次元立体画面である。図2はこの画面の構造を示している。実画面2.1は、各々2つの部分に分割された画素からなる。1つの部分は、ユーザの左目に見える左画像を表示するのに用いられ、もう1つの部分は、ユーザの右目に見える右画像を表示するのに用いられる。優れた立体感を出すには、画素の右部分はユーザの左目に対して遮蔽され、他方、左部分はユーザの右目に対して遮蔽されなければならない。遮蔽手段2.2は一般に画面内に設けられる。本例では、この遮蔽手段は電子的に隠され得る細い縞2.5で出来ている。隠される細い縞が、画面の前方で変位可能な視差バリアを構成する。各画素の正しい部分を適切に遮蔽するためには、ユーザの目2.6の実際の位置に応じて、バリアの位置が調節されなければならない。
ユーザに良好な3D体験をもたらすために、ゲーム機はカメラが取り込んだ画像の中のユーザの頭部の位置をリアルタイムで追跡している。顔追跡アルゴリズムにより、画像内の顔の位置を特定し、両目の位置を見つけ出す。一般的には、両目の間にある中心点が基準点とされる。この中心点の位置から、画面中のバリアの正しい位置を算出して、取り込まれた画像内の自分の顔の位置を知るユーザのための正しい立体感のある画像を得ることができる。
取り込まれた画像内のユーザの顔の位置に関する情報が知られ、3D画面の調整に使用される際、算出時間のために、実際には顔は動いてしまっているかもしれない。すなわち、調整は、取り込み時の顔の位置に従って行われるので、ユーザの頭部の動きに関しては遅すぎてしまう可能性がある。
この不都合を克服するため、システムは、最後に取り込んだ画像中のユーザの顔の位置だけではなく、近い将来のユーザの顔の位置の予測値も算出する。この予測値は、3D画面の調整の瞬間におけるユーザの頭部の実際の位置により良く対応すると思われるので、3D画面の調整のために使用される。
図3は、ユーザの顔の位置の予測に基づく調整処理を示す。
ステップ3.1で、装置は任意の時刻tにおいて入力の算出を行う。本実施形態では、当該入力はユーザの顔の位置に相当する。この算出された入力は、経時的な入力値の履歴に保存される。
次に、ステップ3.2で、近い将来の時刻t+1における入力値の推定値が算出される。この推定は、入力値の保存された履歴から、例えばそれらの値の進展のモデルを用いて行われる。このモデルは、後述するように、典型的には線形である。
次に、ステップ3.3で、装置は時刻t+1におけるフィードバックを生成する。本例では、フィードバックは3D画面のバリアの調整に相当する。当該フィードバックは、その正確な時刻t+1における入力の推定値に基づいて算出されるものであって、過去において時刻tに算出された正確な入力値ではない。
予測が正確であれば、フィードバックは、ユーザに素晴らしいリアルタイム体験を待ち時間なしに与える入力の推定値に正確に合致する。予測の精度はモデルの精度に依存する。本実施形態のケースにおいては、なかんずくユーザの頭部の動きの円滑度に依存する。
線形適応予測は、これまでの位置の履歴に基づく正確な予測を立てる一般的な方法である。それは一組の係数―又は重みーを見つけて、現在の履歴に基づいて次の位置を予測する試みからなる。それらの係数は、現実に対する予測の誤差を最小化するように決定される。問題を解決する方法は少なくとも2つある。第1の解決法は最小2乗法であり、第2の解決法はブロイデン法である。
最小2乗法は、この種の線形問題を解決するための標準的な手法であり、その解決法が閉形式であるという利点を持つ。欠点は、履歴に変動がない場合、すなわち縮退の場合には、行列反転が失敗する可能性があるということである。
それに比して、ブロイデン法を活かした手法は、縮退のリスクのない反復プロセスである。この手法は、係数に最小の修正を加えることにより予測誤差を最小化しようとする。この最小の修正は、2組の係数の2乗ノルムを最小化するという意味に定義される。ブロイデン法については、“C. G. Broyden著「 On the discovery of the “good Broyden” method」 Math. Program., 87(2, Ser. B):209-213, 2000. Studies in algorithmic
optimization”を参照されたい。
最小2乗法は図4で示すように機能する。ここでは、3D基底4.4が装置にリンクされていることとする。なお、装置は世界内で動かず、したがって基底4.4は世界の基底とみなすこともできる。
世界内の被写体4.2は、自身の基底4.5、すなわち
Figure 0006381092
を有する画面空間4.1に投影される。被写体4.2の投影は画像ベースの点4.3となる。投影オペーレータはカメラである。換言すると、点4.3は、任意の時刻tにおける取り込まれた画像中の被写体4.2の位置である。
本実施形態の例では、被写体4.2は、ユーザの顔、より正確には両目の間の基準点であり、投影4.3は画面空間における当該点の取り込み画像中の位置である。
時刻iの、画面空間投影中の、装置に対する絶対被写体位置をXiとすると、先行するn個の位置の履歴Pi及びn個の係数Cは以下のように規定される。
Figure 0006381092
解決すべき問題は、履歴Piに基づいて時刻iにおける被写体の新しい
Figure 0006381092
を推定することである。
線形モデルに基づき、推定される
Figure 0006381092
したがって、この問題は、位置の全履歴Pが与えられたとして、係数Cを算出することである。ベクトルCは、すべての位置Pを「最もよく」予測する一組の係数により定義される。そのようにCは全履歴にわたる予測の2乗誤差を最小化する。
Figure 0006381092
最新の履歴に基づき、この履歴を「説明する」最良の基礎モデルを算出し、それからこのモデルを使用して新しい位置の予測を行うことができる。
このモデルを更新して、顔追跡アルゴリズムによって与えられる新たに算出された各位置を考慮に入れることが好都合である。
固定装置であれば、上記の方法は満足のいく結果をもたらす。ユーザの頭部の動きは、良好な予測を可能にし、したがってユーザに良好な3D体感をもたらすことができるほど円滑であることがある。あいにく、手持ち式の装置の場合は、ユーザはゲームをしながら装置に余分の動きを与えてしまう。例えば、ユーザはキーパッドを押す際に装置を動かしてしまうことが多い。こうした動きは、多くの場合、さもなければ線形予測可能なユーザの頭部の動きを摂動させる。装置の動きは、画面空間に投影される被写体の見かけの動きに強い加速度を生じさせる。
装置空間で推論すると、装置空間における被写体の動きは2つの動きが合成された結果と解釈してもよい。第1の動きは、装置空間における世界の動きと合成された世界内の被写体の動きに相当する。なお、装置空間における世界の動きは、実際には世界における装置の動きである。しかし、演算と画面空間における被写体の投影は装置空間で生じるので、装置空間における外界の動きを考察する。このことは、下記式のようにまとめられる。
Figure 0006381092
被写体、本例ではユーザの頭部、の世界内の動きが極めてかなり平滑で、したがって線形モデルにより精度よく予測可能なときには、装置空間における世界の動きの方がはるかに不規則である。この動きは、予測の精度を低下させる摂動因子として働く。したがって、ユーザの頭部の動きの予測精度を高めるには、この摂動因子をいかに処理するかが問題となる。
提案される解決法は、世界の動きを知るために装置に内蔵されたセンサをうまく利用することである。装置空間における世界の動きを推定できれば、この成分を世界内の被写体の動きから分離し、その後で世界内の被写体の動きを正確に予測することが可能になる。このセンサは、ジャイロスコープ、加速度計、カメラ、コンパス、テレメータ、IRセンサ、圧力センサなどの異なるタイプのセンサであってよいが、それらに限定されない。実際、装置の動きに関する情報を伝えることのできるセンサであればいかなるセンサも利用可能である。本実施形態の詳細では、使用されるセンサはジャイロスコープである。
手持ち式装置の内蔵センサは、世界に対する装置の動きに関する情報を与える。この情報は、世界内の装置の動きにより発生した、画面空間内における被写体の投影の動きを推定するのに使用してよい。
図5(a)、5(b)、及び5(c)は、世界空間5.1に対する装置5.3の動きによって発生する被写体5.4の装置空間5.2及び画面空間5.7における動きを示している。図5(b)及び5(c)において、点線の被写体5.6は装置空間又は画面空間における被写体5.4の前回位置を示す。矢印5.5は、装置空間又は画面空間における被写体5.4の見かけの動きを示す。本例では、被写体5.4は世界空間5.1内に固定されているとみなされる。
図6は、装置空間の3つの回転軸X,Y,Zに対する組み込みジャイロスコープによって与えられる相対的な回転を示している。
Figure 0006381092
Figure 0006381092
ゲイン(K)が正しければ、装置が世界に対して相対的に動いた場合、この演算により世界内の固定被写体の動きを画面空間において表すことができる。現実のシステムでは、ゲインはメーカーによって指定されているが、完全に正確なわけでは決してなく、センサ値のドリフトから保護されているわけでもない。
本発明では、これらの結果に基づき、センサ入力を予測と一体化する新しいモデルが導入される。この新モデルは、装置の動きに堅牢性をもたらすことにより予測の精度を向上させる。このモデルは完全には較正されていないセンサに対して堅牢であることも判明している。
世界内を移動する被写体の状況を考えてみる。この被写体の位置は、モバイル装置に接続された第1のセンサ、典型的にはカメラ、により取り込まれる。モバイル装置自体も外界において移動する。前述したように、本発明の関心事は、モバイル装置に対する被写体の相対的な動きを予測することである。より厳密に言えば、関心があるのは、モバイル装置にリンクした画面空間内への被写体の投影の動きである。投影は、カメラで連続画像を取り込むという動作である。
図7は、摂動因子の存在下での入力を予測する本発明の一実施形態に係る一般的な方法のステップを示している。
ステップ7.1では、任意の瞬間tにおいて、装置は第1のセンサからの入力を算出する。本実施例では、当該入力はユーザの顔の両目の位置に対応する。この算出された入力値は経時的な入力値の履歴に保存される。
ステップ7.2では、摂動成分が上記履歴に保存されている値から除去される。この除去は、摂動因子のせいで生じる入力の成分を推定することによって行われる。この推定は、主に、少なくとも第2のセンサに基づいて行われる。履歴に保存されている各値は、摂動因子の影響を抑制することによって修正される。
次に、ステップ7.3で、近い将来の時刻t+1における入力の値の最初の推定値が算出される。この推定は、入力値の進展のモデルを用いて、入力値の修正後の履歴に基づいて行われる。したがって、この推定は、摂動因子が存在しないかのように行われる。
ステップ7.4では、第2のセンサに基づいて推定された摂動因子の影響の推定値が前記入力の最初の推定値に加算される。これにより、入力の推定値に摂動因子の影響を再導入して、摂動因子の存在下の将来の入力の高精度の推定値を得ることができる。実施形態のあるものにおいては摂動因子から独立に入力値を推定することが関心事となり得ることを考慮して、このステップは適宜省略可能としてよい。
この高精度の推定値は、ステップ7.5において、正確な時刻t+1にフィードバックを生成するのに使用される。
したがって、入力が摂動因子を伴っていない場合のように、入力の推定値は当該入力の線形推定に基づく。摂動因子の影響は後に再導入され、入力の最終推定値が得られる。摂動因子の線形推定への影響が除去される。摂動因子の非線形性が、予測を劣化させることがなくなる。
実施形態の詳細では、前述のように、被写体のすべての算出された位置の履歴が保存される。
Figure 0006381092
本実施形態の目的は、依然として、被写体の動きが、世界空間内における装置そのものの動きと合成された被写体自身の世界空間内での動きにより生じるとした場合に、画面空間における被写体の投影の次の
Figure 0006381092
装置空間に関して言えば、世界内での装置の動きは、装置空間に対する世界の相対的な動きと見てよい。
1つの態様は、保存された位置Piの履歴中の、世界の動きに起因する動きの成分を除去することである。これは、世界に対する装置の最終的な位置、すなわち時刻xi-1の装置の位置に当該装置を静止させることを計算し、履歴に保存されたすべての位置を、すべての位置が算出された時に装置が固定されていれば取ったであろう位置に修正することとみなすことができる。
その処理のために、システム変換演算子STn(x)は以下のように定義される。
Figure 0006381092
nは適用されるステップの数を表す。それは履歴の序列であり、入力が取り込まれてから装置が動いた回数に対応する。この演算子は、ジャイロスコープの出力値の積算を行うことにより動作する。それにより、演算のnステップ前まで遡る、装置空間に対する世界の相対的な動きが得られる。
位置の履歴を修正し装置の動きを除去するために、
Figure 0006381092
なお、
Figure 0006381092
これは、装置の位置が動かず最後の位置に対応するという事実のせいである。
装置の動きを考慮に入れない、被写体の投影の画面空間における位置の予測を表す時刻iにおける次の
Figure 0006381092
装置の世界内での動きにより構成される摂動因子を考慮にいれずに、画面空間における被写体の投影の位置がひとたび推定されると、
Figure 0006381092
なお、ジャイロスコープのゲインKは、ジャイロスコープの入力から装置の世界内での動きを推定するために用いられる演算子STの定義には使用されない。これは、センサを完全に較正する必要がないという、提案している方法の更なる利点の1つである。ジャイロスコープの不十分な較正のせいで装置の世界内での動きの予測に不正確が持ち込まれても、その動きを線形予測することにより補償できるからである。もちろん、不十分な較正は装置の動きの不十分な予測になり、その結果、装置の動きの除去が不十分になり、結局、そのより大きな部分が線形予測によって補われるべき線形部分に残ってしまうことになる。これは、ある程度、線形推定の精度を下げる。したがって、ほぼ完全に較正されたジャイロスコープを用いるのが好ましい。とは言え、提案される方法はセンサの較正のある程度の精度の悪さに対して堅牢である。実際、センサによってもたらされる結果に生じ得るドリフトを考慮するための定期的な較正ステップを実行する必要はない。
したがって、提案される方法は、画面空間における被写体の投影の次の位置の予測値を推定することを可能にする。すなわち、装置前方のユーザの両目の位置を追跡できる。その次の位置は、それに応じて3D画面の視差バリアを調整するために推定されてもよい。
装置の動きによって構成される摂動因子の存在下でのカメラによるユーザの顔の追跡に関して説明したが、異なる状況において同様の方法が適用されてもよい。リアルタイムシステムにおける入力がフィードバックを生成するのに使用され、かつ当該入力の線形の進展がある因子によって摂動される場合には、上記の方法を同様に適用してよい。
図8は、本発明の一つまたは複数の実施形態を実現するための演算装置8.0の概略ブロック図である。演算装置8.0は、マイクロコンピュータ、ワークステーション、光ポータブルデバイスなどの装置であってよい。演算装置8.0は、通信バスを有し、当該通信バスは以下のものに接続されている:
―CPUと表記されている、マイクロコンピュータなどの中央演算処理装置8.1;
―RAMと表記されている、本発明の実施形態の方法を実行可能なコード並びに本発明の実施形態に応じて、画像の少なくとも一部を符号化又は復号化する方法を実現するのに必要な変数やパラメータを記録するのに適合したレジスタを記憶し、そのメモリ容量が、例えば拡張ポートに接続されるオプションのRAMにより拡張可能であるランダムアクセスメモリ8.2;
―ROMと表記されている、本発明の実施形態を実現するためのコンピュータプログラムを記憶するリードオンリーメモリ8.3;
―ネットワークインターフェース8.4は、主として、処理されるデジタルデータが送受信される通信ネットワークに接続される。ネットワークインターフェース8.4は単一のネットワークインターフェースであり得、一組の異なるネットワークインターフェース(例えば、有線と無線のインターフェース、あるいは異なる種類の有線または無線のインターフェース)からなるものでもあり得る。データパケットは、CPU8.1で実行されるソフトウェアアプリケーションの制御下で、送信の際にはネットワークインターフェースに書き込まれ、受信の際にはネットワークインターフェースから読み取られる;
―ユーザインターフェース8.5は、ユーザからの入力を受け付けたり、ユーザのために情報を表示するのに使用されてよい;
―HDと表記されているハードディスク8.6は、大容量記憶装置として設けられてよい;
―I/Oモジュール8.7は、ビデオ源やディスプレイなどの外部装置とのデータのやり取りに使用される。
実行可能なコードはリードオンリーメモリ8.3か、ハードディスク8.6か、あるいはディスクなどの着脱可能なデジタル媒体のいずれかに記憶されてよい。変形例としては、プログラムの実行可能なコードは、ネットワークインターフェース8.4を介して通信ネットワークにより受信され、実行される前にハードディスク8.6などの通信装置8.0の記憶手段の1つに記憶される。
中央演算処理装置8.1は、本発明の実施形態に係る単一もしくは複数のプログラムの各命令又はソフトウェアコードの各部分の実行を制御し、命令するのに適合している。それらの命令は前記の記憶手段の1つに記憶される。電源投入後、CPU8.1は、ソフトウェアアプリケーションに関する命令を例えばプログラムROM8.3又はハードディスク(HD)8.6から主たるRAMメモリ8.2に展開して、そこから当該命令を実行することができる。そのようなソフトウェアアプリケーションがCPU8.1によって実行されることによって、図7のフローチャートの各ステップが実行される。
図7のアルゴリズムのステップはいずれも、プログラム可能な計算機、例えばPC(パーソナルコンピュータ)、DSP(デジタルシグナルプロセッサ)、マイクロコントローラなどが一組の命令又はプログラムを実行することにより、ソフトウェアで実現されてもよいし、機械又はFPGA(フィールドプログラマブルゲートアレイ)若しくはASIC
(特定用途向け集積回路)などの専用コンポーネントによりハードウェアで実現されてもよい。
以上具体的な実施形態を参照しながら本発明を説明したが、本発明はこれらの実施形態に限定されるものではなく、本発明の精神および範囲を逸脱しないかぎり変更が可能であることは、当業者には明らかであろう。
また、前述の実施形態はあくまで例として説明されたにすぎず、したがって本発明の範囲を制限するものではなく、さらに多くの修正や変形が上述の説明のために実施形態を参照することにより可能であることも当業者には明らかであろう。本発明の範囲は、添付された請求項によってのみ決定される。特に、異なる実施形態の異なる特徴は適宜入れ替えてもよい。
また、請求項における「〜からなる」という文言は、他の要素や工程を排除するものではなく、「複数の」と記述されていなくても要素が複数であることを排除するものではない。異なる特徴が互いに異なる従属項において列挙されているということだけで、それらの特徴の組み合わせが好都合に使用できないということを示しているものではない。

Claims (15)

  1. リアルタイムシステムにおいて入力値を推定する方法であって、
    当該方法は、前記リアルタイムシステムを実現する装置により:
    −当該装置に組み込まれた少なくとも第1のセンサからの入力値を算出し;
    −当該算出された入力値を前記装置上の算出された入力値の履歴に保存し:
    −前記装置に組み込まれた少なくとも第2のセンサからの前記入力値の摂動因子成分を
    推定し;
    −算出された入力値の前記履歴に保存された入力値から前記摂動因子成分を除去することにより、入力値の修正された履歴を求め;
    −入力値の当該修正された履歴から前記入力値を推定し:
    −前記推定された入力値に前記推定された摂動因子成分を加算する
    ことからなることを特徴とする方法。
  2. 入力値の前記修正された履歴からの第1の入力値の推定は、これらの入力値の経時的進展のモデルに基づくことを特徴とする請求項1記載の方法。
  3. 前記経時的進展のモデルは線形モデルであることを特徴とする請求項記載の方法。
  4. 前記修正された履歴からの第1の入力値の前記推定は、入力値の当該修正された履歴に適用されるべき一組の係数を最小2乗法を用いて求めることにあることを特徴とする請求項3記載の方法。
  5. 前記入力は、前記装置に組み込まれたカメラによって取り込まれた画像における当該装置前方の被写体の投影であることを特徴とする請求項1ないし4のいずれかに記載の方法。
  6. 前記被写体は前記装置のユーザの両目であることを特徴とする請求項記載の方法。
  7. 前記摂動因子は装置の動きであることを特徴とする請求項1ないし6のいずれかに記載の方法。
  8. 前記少なくとも1つの第2のセンサは少なくとも1つのジャイロスコープからなることを特徴とする請求項記載の方法。
  9. 前記入力値の摂動因子成分を推定することは:
    −前記ジャイロスコープの出力値の積算を行う演算子を適用することからなることを特徴とする請求項8記載の方法。
  10. リアルタイムシステムにおいてフィードバックを求める方法であって、
    当該方法は、前記リアルタイムシステムを実現する装置により:
    −請求項1ないし7のいずれかに応じて入力値を推定し;そして
    −当該推定された入力値に基づき前記フィードバックを求める
    ことからなることを特徴とする方法。
  11. リアルタイムシステムを実現する装置であって、当該リアルタイムシステムにおいて入力値を推定するために、当該装置は:
    −当該装置に組み込まれた、少なくとも第1のセンサと;
    −当該装置に組み込まれた、少なくとも第2のセンサと;
    −前記少なくとも第1のセンサからの前記入力値を算出する手段と;
    −前記算出された入力値を算出された入力値の履歴に保存する手段と:
    −前記少なくとも第2のセンサからの前記入力値の摂動因子成分を推定する手段と;
    −算出された入力値の前記履歴に保存された各入力値から前記摂動因子成分を除去することにより、入力値の修正された履歴を求める手段と;
    −入力値の前記修正された履歴から前記入力値を推定する手段と:
    −前記推定された入力値に前記推定された摂動因子成分を加算する手段と
    からなることを特徴とする装置
  12. 前記推定された入力値に基づきフィードバックを求める手段を
    さらに備えることを特徴とする請求項11記載の装置。
  13. 前記フィードバックは3D画面の視差バリアの調整であり、前記入力値は前記装置前方のユーザの両目の位置であることを特徴とする請求項12記載の装置。
  14. プログラム可能な装置のためのコンピュータプログラム製品であって、前記プログラム可能な装置に展開され、当該装置によって実行されるときに、請求項1ないし10のいずれかに係る方法を実現するための一連の命令からなるコンピュータプログラム。
  15. 請求項1ないし10のいずれかに係る方法を実現するためのコンピュータプログラムの命令を記憶するコンピュータ読み取り可能な記憶媒体。
JP2017510886A 2014-08-29 2015-08-27 摂動因子存在下で入力の値を推定する方法及び装置 Active JP6381092B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP14306332.9 2014-08-29
EP14306332.9A EP2990085B1 (en) 2014-08-29 2014-08-29 Method and apparatus for estimating the value of an input in presence of a perturbing factor
PCT/EP2015/069710 WO2016030493A2 (en) 2014-08-29 2015-08-27 Method and apparatus for estimating the value of an input in presence of a perturbing factor

Publications (2)

Publication Number Publication Date
JP2017532642A JP2017532642A (ja) 2017-11-02
JP6381092B2 true JP6381092B2 (ja) 2018-08-29

Family

ID=51494241

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017510886A Active JP6381092B2 (ja) 2014-08-29 2015-08-27 摂動因子存在下で入力の値を推定する方法及び装置

Country Status (4)

Country Link
US (1) US10238966B2 (ja)
EP (1) EP2990085B1 (ja)
JP (1) JP6381092B2 (ja)
WO (1) WO2016030493A2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6895837B2 (ja) * 2017-07-25 2021-06-30 三菱電機株式会社 表示装置
WO2021065826A1 (ja) * 2019-09-30 2021-04-08 京セラ株式会社 3次元表示装置、3次元表示システム、ヘッドアップディスプレイ、および移動体

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6554706B2 (en) * 2000-05-31 2003-04-29 Gerard Jounghyun Kim Methods and apparatus of displaying and evaluating motion data in a motion game apparatus
US20070100666A1 (en) * 2002-08-22 2007-05-03 Stivoric John M Devices and systems for contextual and physiological-based detection, monitoring, reporting, entertainment, and control of other devices
JP5041728B2 (ja) 2006-05-08 2012-10-03 任天堂株式会社 ゲームプログラムおよびゲームシステム
JPWO2008129843A1 (ja) * 2007-03-27 2010-07-22 新世代株式会社 タイミング制御装置、情報処理装置及び動作指示装置
JP4691071B2 (ja) * 2007-07-05 2011-06-01 ヤフー株式会社 ページアクション起動装置、ページアクション起動制御方法、および、ページアクション起動制御プログラム
JP5224832B2 (ja) 2008-01-21 2013-07-03 任天堂株式会社 情報処理プログラムおよび情報処理装置
GB2471905B (en) * 2009-07-17 2011-08-31 Sony Comp Entertainment Europe User interface and method of user interaction
US9174123B2 (en) * 2009-11-09 2015-11-03 Invensense, Inc. Handheld computer systems and techniques for character and command recognition related to human movements
JP5478205B2 (ja) * 2009-11-13 2014-04-23 任天堂株式会社 ゲーム装置、ゲームプログラム、ゲームシステムおよびゲーム制御方法
JP5882569B2 (ja) * 2010-09-09 2016-03-09 株式会社三共 遊技機
JP2012212237A (ja) * 2011-03-30 2012-11-01 Namco Bandai Games Inc 画像生成システム、サーバシステム、プログラム及び情報記憶媒体
US9285586B2 (en) * 2011-05-13 2016-03-15 Sony Corporation Adjusting parallax barriers
US9498720B2 (en) * 2011-09-30 2016-11-22 Microsoft Technology Licensing, Llc Sharing games using personal audio/visual apparatus
JP2013098840A (ja) * 2011-11-02 2013-05-20 Sony Corp 情報処理装置、表示制御方法およびプログラム
US9648310B2 (en) * 2011-11-09 2017-05-09 Qualcomm Incorporated Systems and methods for mask adjustment in 3D display
CN202472131U (zh) * 2012-03-14 2012-10-03 京东方科技集团股份有限公司 一种显示装置和终端
US8998717B2 (en) * 2013-01-17 2015-04-07 Ppg Technologies, Inc. Device and method for reconstructing and analyzing motion of a rigid body
US9480911B2 (en) * 2013-02-28 2016-11-01 Steelseries Aps Method and apparatus for monitoring and calibrating performances of gamers
WO2014171200A1 (ja) * 2013-04-16 2014-10-23 ソニー株式会社 情報処理装置及び情報処理方法、表示装置及び表示方法、並びに情報処理システム

Also Published As

Publication number Publication date
EP2990085A1 (en) 2016-03-02
US10238966B2 (en) 2019-03-26
EP2990085B1 (en) 2022-08-10
WO2016030493A2 (en) 2016-03-03
US20170282068A1 (en) 2017-10-05
JP2017532642A (ja) 2017-11-02
WO2016030493A3 (en) 2016-05-06

Similar Documents

Publication Publication Date Title
KR101950641B1 (ko) 향상된 안구 추적을 위한 장면 분석
CN107801045B (zh) 当播放增强现实场景时自动变焦的方法、设备和系统
US9100575B2 (en) Method and apparatus for video stabilization by compensating for view direction of camera
US10415975B2 (en) Motion tracking with reduced on-body sensors set
KR102006043B1 (ko) 깊이 카메라를 이용한 머리 포즈 추적 기법
JP6534664B2 (ja) カメラ動き予測及び修正のための方法
JP6456347B2 (ja) 平面固有の特徴のターゲットのinsitu生成
WO2017092339A1 (zh) 一种收集传感器数据的处理方法和装置
WO2016041088A1 (en) System and method for tracking wearable peripherals in augmented reality and virtual reality applications
CN104737205B (zh) 自适应尺度及/或重力估计
KR20160111008A (ko) 비제약형 slam을 위한 센서-기반 카메라 모션 검출
KR20160003066A (ko) 일반적인 카메라 움직임 및 파노라마 카메라 움직임을 갖는 단안 시각 slam
JP7103354B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6381092B2 (ja) 摂動因子存在下で入力の値を推定する方法及び装置
US20230290101A1 (en) Data processing method and apparatus, electronic device, and computer-readable storage medium
KR20210146265A (ko) 골프 스윙에 관한 정보를 추정하기 위한 방법, 디바이스 및 비일시성의 컴퓨터 판독 가능한 기록 매체
KR101741150B1 (ko) 영상에디팅을 수행하는 영상촬영장치 및 방법
JP2014103490A (ja) ロボットカメラ制御装置、そのプログラム及び多視点ロボットカメラシステム
KR101725932B1 (ko) 영상에디팅을 수행하는 영상촬영장치 및 방법
CN114860076A (zh) 一种控制机器人的方法、装置及电子设备
KR20220083166A (ko) 인체 추정 방법 및 장치
JP2020071228A (ja) 被写体の運動軌跡を算出するための方法、システムおよび非一過性のコンピュータ読み取り可能記録媒体
JP2021051512A (ja) Vr空間画像補正システム、vr空間画像補正方法、及びvr空間画像補正方法を実行するプログラム
TW202433244A (zh) 用於在同時定位和映射設備中執行幀率調整的方法及裝置,以及包括計算機可讀指令的非暫時性計算機可讀介質
CN115272574A (zh) 图像处理方法及其装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180614

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180727

R150 Certificate of patent or registration of utility model

Ref document number: 6381092

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250