JP7277829B2 - カメラパラメータ推定装置、カメラパラメータ推定方法及びカメラパラメータ推定プログラム - Google Patents

カメラパラメータ推定装置、カメラパラメータ推定方法及びカメラパラメータ推定プログラム Download PDF

Info

Publication number
JP7277829B2
JP7277829B2 JP2021554527A JP2021554527A JP7277829B2 JP 7277829 B2 JP7277829 B2 JP 7277829B2 JP 2021554527 A JP2021554527 A JP 2021554527A JP 2021554527 A JP2021554527 A JP 2021554527A JP 7277829 B2 JP7277829 B2 JP 7277829B2
Authority
JP
Japan
Prior art keywords
camera
subject
trajectories
cameras
parameter estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021554527A
Other languages
English (en)
Other versions
JPWO2021090467A1 (ja
Inventor
信哉 志水
英明 木全
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Publication of JPWO2021090467A1 publication Critical patent/JPWO2021090467A1/ja
Application granted granted Critical
Publication of JP7277829B2 publication Critical patent/JP7277829B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/245Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Description

本発明は、カメラパラメータ推定装置、カメラパラメータ推定方法及びカメラパラメータ推定プログラムに関する。
スポーツ等のイベントにおいて人の関節の3次元位置が推定されることによって、その人のパフォーマンスが分析される場合がある。また、推定された3次元位置に基づいて、イベント等のシーンがコンピュータグラフィックス等で再現される場合がある。これによって、ユーザは、再現されたシーンを観ることができる。
反射マーカ又は慣性センサを使用するモーションキャプチャの結果に基づいて、人の関節の3次元位置が推定される方法がある。また、複数のカメラによる多視点の動画像に基づいて、人の関節の3次元位置が推定される方法がある。
装着型のモーションキャプチャシステムでは、対象者の関節の3次元位置が高精度に推定可能である。しかしながら、対象者は専用装置を装着する必要がある。例えば、試合中のスポーツ選手が対象者である場合、又は、不特定多数の人が対象者である場合、装着型のモーションキャプチャシステムを使用することはできない。
複数のカメラによる多視点の動画像に基づいて3次元位置が推定される方法では、各カメラによって撮影された動画像における関節位置の2次元座標に基づいて、三角測量が行われる。三角測量では、各カメラの位置を示す外部パラメータと、レンズの焦点距離等を表す内部パラメータと、レンズ歪みのパラメータとが必要である。
以下、カメラのパラメータを導出することを「カメラキャリブレーション」という。カメラの外部パラメータを導出することを「外部キャリブレーション」という。
外部キャリブレーションの方法には、複数のカメラに共通する視野に設置された参照物体(既知の構造を有する物体)が参照される方法(参考文献1:Zhengyou Zhang, “A Flexible New Technique for Camera Calibration”, IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 22, Issue 11, pp.1330-1334, Nov. 2000.)と、複数のカメラに共通する視野に存在する物体の表面に定められた各特徴点(自然特徴点)の対応関係に基づく方法(参考文献2:Sameer Agarwal, et al., “Building Rome in a Day”, Communications of the ACM, Vol. 54, Issue 10, pp.105-112, Oct. 2011.)とがある。
しかしながら、試合中のスポーツ選手の動作が解析される場合、複数のカメラに共通する視野となるフィールドに参照物体(チェスボード等)を設置することは困難である。また、自然特徴点の画像特徴量は、カメラの向き等に応じて変化し易い。例えば、対象者の真正面から撮影された自然特徴点と、対象者の横から撮影された自然特徴点とでは、自然特徴点の画像特徴量が大きく変化する。このため、自然特徴点に基づいて対応点を導出することは困難である。
これらの問題に対して非特許文献1では、複数のカメラによって撮影された人の関節の位置を対応点として利用し、2次元画像における関節画像の座標に基づいてカメラの外部パラメータを推定する方法が提案されている。この方法では、参照物体の設置は不要である。また、自然特徴点が利用される代わりに、関節を有する人型の3次元モデルが、複数のカメラに共通して利用されている。このため、2次元画像における人の見え方がカメラごとに大きく異なる場合でも、対応点を導出することができる。
さらに、2次元画像における人の関節の位置を学習し、学習結果に基づいて関節の位置を推定する方法が、非特許文献2に開示されている。
Kosuke Takahashi, et al., "Human Pose as Calibration Pattern; 3D Human Pose Estimation with Multiple Unsynchronized and Uncalibrated Cameras", IEEE, CVSports (CVPRW), June, 2018. Zhe Cao, et al., "Realtime Multi-Person 2D Pose Estimation Using Part Affinity Fields", 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 1302-1310, 2017.
しかしながら、複数のカメラに共通する視野に複数の被写体が存在する場合には、被写体ごとの関節点の画像が、動画像の各フレーム内に存在する。この場合、各フレーム内に存在する各関節点がいずれの被写体の関節点であるかを表す情報が、動画像の各フレームに撮影された全ての被写体に対する煩雑な手作業によってカメラパラメータ推定装置に与えられなければ、カメラパラメータ推定装置がカメラパラメータを推定することができないという問題がある。
上記事情に鑑み、本発明は、複数のカメラに共通する視野に複数の被写体が存在する場合でも、一定以上の精度でカメラパラメータを推定することが可能であるカメラパラメータ推定装置、カメラパラメータ推定方法及びカメラパラメータ推定プログラムを提供することを目的としている。
本発明の一態様は、複数のカメラに共通する視野に存在する複数の被写体の画像を含む時系列のフレームを、前記カメラごとに取得する取得部と、前記時系列のフレームにおける前記被写体の画像に定められた関節点の座標を、前記被写体の画像ごとに推定する点推定部と、前記時系列のフレームの間における、前記関節点の軌跡を、前記カメラごとに推定する運動軌跡推定部と、前記カメラのペアからそれぞれ取得された前記フレームの間における、前記軌跡の組を推定するカメラ間対応推定部と、前記軌跡の組に基づいて、カメラパラメータを前記カメラごとに推定するパラメータ推定部とを備えるカメラパラメータ推定装置である。
本発明により、複数のカメラに共通する視野に複数の被写体が存在する場合でも、一定以上の精度でカメラパラメータを推定することが可能である。
実施形態における、カメラパラメータ推定システムの構成例を示す図である。 実施形態における、カメラパラメータ推定装置のハードウェア構成例を示す図である。 実施形態における、軌跡の例を示す図である。 実施形態における、カメラパラメータ推定装置の動作例を示すフローチャートである。 実施形態における、軌跡の組を推定する動作の例を示すフローチャートである。
本発明の実施形態について、図面を参照して詳細に説明する。
図1は、カメラパラメータ推定システム1の構成例を示す図である。カメラパラメータ推定システム1は、複数のカメラについてカメラパラメータを推定するシステムである。カメラパラメータは、外部パラメータと、内部パラメータと、レンズ歪みのパラメータと含む。外部パラメータは、カメラの位置及び向き(姿勢)を表すパラメータであって、例えば、カメラの位置を表す並進ベクトルと、カメラの姿勢を表す回転行列とを表すパラメータである。内部パラメータは、例えば、焦点距離を表す値と、光学中心(主点)の位置を表す値と、せん断係数とを表すパラメータである。
カメラパラメータ推定システム1は、複数のカメラ2と、カメラパラメータ推定装置3とを備える。カメラ2の位置及び向きは、カメラ2ごとに異なる。なお、物理的なカメラ2が取得部30に接続される代わりに、撮影された動画像が記録された記憶装置等が取得部30に接続されてもよい。その際、カメラごとの記憶装置が用意される必要は無く、カメラごとに録画された動画像が1台の記憶装置から取得部30に出力されてもよい。
カメラパラメータ推定装置3は、複数のカメラについてカメラパラメータを推定する装置である。カメラパラメータ推定装置3は、取得部30と、記憶部31と、点推定部32と、運動軌跡推定部33と、カメラ間対応推定部34と、パラメータ推定部35とを備える。
図2は、カメラパラメータ推定装置3のハードウェア構成例を示す図である。カメラパラメータ推定装置3は、記憶部31と、プロセッサ100と、通信部200とを備える。
取得部30と点推定部32と運動軌跡推定部33とカメラ間対応推定部34とパラメータ推定部35とのうちの一部又は全部は、CPU(Central Processing Unit)等のプロセッサ100が、不揮発性の記録媒体(非一時的な記録媒体)を有する記憶部31に記憶されたプログラムを実行することにより、ソフトウェアとして実現される。プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM(Read Only Memory)、CD-ROM(Compact Disc Read Only Memory)等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置などの非一時的な記録媒体である。プログラムは、電気通信回線を経由して、通信部200によって受信されてもよい。
取得部30と点推定部32と運動軌跡推定部33とカメラ間対応推定部34とパラメータ推定部35とのうちの一部又は全部は、例えば、LSI(Large Scale Integration circuit)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)又はFPGA(Field Programmable Gate Array)等を用いた電子回路(electronic circuit又はcircuitry)を含むハードウェアを用いて実現されてもよい。
図1に戻り、カメラパラメータ推定システム1の説明を続ける。
カメラ2は、時系列のフレームを生成する。各フレームは、動画像を構成する各2次元画像でもよいし、連写された静止画である各2次元画像でもよい。カメラ2は、複数のカメラ2に共通する視野(以下「共通視野」という。)に存在する複数の被写体を撮影する。複数のカメラ2は、互いに異なる方向から、共通視野を撮影する、これによって、複数のカメラ2は、共通視野に対する多視点の時系列のフレームを生成する。
被写体は、関節など意味的に定義可能かつ画像から検出可能な特徴的な点を有する物体であれば、特定の物体に限定されない。例えば、被写体は、人、人体の関節構造とは異なる関節構造を持つ脊椎動物等の生命体、ロボット(アンドロイド等)、ヨット若しくはウィンドサーフィンに用いられるセイル、又は、車椅子でもよい。
複数のカメラ2に共通する3次元モデルが、被写体に対して仮定される。例えば、被写体が人である場合、各関節を有する人型の3次元モデルが仮定される。すなわち、被写体が撮影されている画像から、特徴点として、人型の3次元モデルの関節点が検出される。
取得部30は、時系列の複数枚のフレームを、カメラ2ごとに取得する。これによって、取得部30は、多視点の時系列のフレームを、複数台のカメラ2から取得する。異なるカメラ2によって生成されたフレーム同士では、撮影時刻の同期が取れている。すなわち、異なるカメラ2において同じフレーム番号が割り当てられた各フレームは、同じ時刻において撮影されたフレームである。記憶部31は、時系列の複数枚のフレームを、カメラ2ごとに記憶する。
点推定部32は、時系列のフレームにおける被写体の画像に定められた1個以上の関節点の座標を、被写体の画像ごとに推定する。
運動軌跡推定部33は、時系列のフレームの間における、関節点(2次元の座標)の軌跡を、カメラ2ごとに推定する。運動軌跡推定部33は、時系列のフレームの間における、関節点の軌跡に基づいて、時系列のフレームの間における各被写体の画像の軌跡を推定する。
図3は、軌跡の例を示す図である。フレーム300-1及び300-2は、一例として、カメラ2-1から取得された時系列のフレームである。フレーム400-1及び400-2は、一例として、カメラ2-Nから取得された時系列のフレームである。フレーム300-1及びフレーム400-1は、互いに同じ時刻に撮影されたフレームである。フレーム300-2及びフレーム400-2は、互いに同じ時刻に撮影されたフレームである。以下、フレームにおいて被写体の画像を含む領域を「被写体領域」という。被写体領域は、被写体の画像に定められた各関節点を内包する。
フレーム300は、被写体領域311と、被写体領域321とを含む。被写体領域311は、被写体画像310を含む。被写体画像310は、人の画像である。被写体画像310には、関節点312が定められている。被写体領域321は、被写体画像320を含む。被写体画像320は、被写体画像310の人とは異なる人の画像である。被写体画像320には、関節点322が定められている。
カメラ2-1に関して、被写体画像310の関節点の軌跡を表す情報は、カメラの識別子「2-1」と、開始フレーム番号「300-1」と、関節点312-1の座標(2次元)と、終了フレーム番号「300-2」と、関節点312-2の座標(2次元)とを含む。以下では、関節点の軌跡を表す情報は、開始フレームから終了フレームまでの各フレームにおける関節点の座標を更に含む。
カメラ2-1に関して、被写体画像320の関節点の軌跡を表す情報は、カメラの識別子「2-1」と、開始フレーム番号「300-1」と、関節点322-1の座標(2次元)と、終了フレーム番号「300-2」と、関節点322-2の座標(2次元)とを含む。
フレーム400は、被写体領域411と、被写体領域421とを含む。被写体領域411は、被写体画像410を含む。被写体画像410は、被写体画像310の人と同一人物の画像である。被写体画像410には、関節点412が定められている。被写体領域421は、被写体画像420を含む。被写体画像420は、被写体画像320の人と同一人物の画像である。被写体画像420には、関節点422が定められている。
カメラ2-Nに関して、被写体画像410の関節点の軌跡を表す情報は、カメラの識別子「2-N」と、開始フレーム番号「400-1」と、関節点412-1の座標(2次元)と、終了フレーム番号「400-2」と、関節点412-2の座標(2次元)とを含む。
カメラ2-Nに関して、被写体画像420の関節点の軌跡を表す情報は、カメラの識別子「2-N」と、開始フレーム番号「400-1」と、関節点422-1の座標(2次元)と、終了フレーム番号「400-2」と、関節点422-2の座標(2次元)とを含む。
図1に戻り、カメラパラメータ推定システム1の説明を続ける。
カメラ間対応推定部34は、カメラ2によってそれぞれ生成されたフレームの間における、被写体の軌跡の複数のカメラ間の対応関係を推定する。すなわち、カメラ間対応推定部34は、カメラ2からそれぞれ取得されたフレームの間における、同一被写体の関節点の軌跡の組(対応トラック)を推定する。また、カメラ間対応推定部34は、軌跡の組の集合(対応トラック集合)を推定してもよい。
カメラ間対応推定部34は、軌跡の組に基づいて、カメラ2のペア間における基礎行列を導出する。カメラ間対応推定部34は、導出された基礎行列に基づいて、軌跡の組を更新してもよい。
カメラ間対応推定部34は、軌跡の組の集合に基づいて、カメラ2のペア間における基礎行列を導出してもよい。カメラ間対応推定部34は、導出された基礎行列に基づいて、軌跡の組の集合を更新してもよい。
パラメータ推定部35は、軌跡の組に基づいて、カメラパラメータをカメラ2ごとに推定する。すなわち、パラメータ推定部35は、軌跡の組に基づいて、カメラキャリブレーションを実行する。パラメータ推定部35は、更新された軌跡の組に基づいて、カメラパラメータをカメラ2ごとに推定してもよい。
パラメータ推定部35は、軌跡の組の集合に基づいて、カメラパラメータをカメラ2ごとに推定してもよい。すなわち、パラメータ推定部35は、軌跡の組の集合に基づいて、カメラキャリブレーションを実行してもよい。パラメータ推定部35は、更新された軌跡の組の集合に基づいて、カメラパラメータをカメラ2ごとに推定してもよい。
次に、カメラパラメータ推定装置3の動作例を説明する。
図4は、カメラパラメータ推定装置3の動作例(カメラキャリブレーションの例)を示すフローチャートである。取得部30は共通領域に存在する複数の被写体の画像を含む時系列の複数枚のフレームをカメラ2ごとに取得し、記憶部31は時系列の複数枚のフレームをカメラ2ごとに記憶する(ステップS101)。
点推定部32は、時系列のフレームにおける被写体の画像の関節点の座標(2次元)を、被写体の画像ごとに推定する(ステップS102)。関節点の座標を推定する方法は、特定の方法に限定されない。
例えば、非特許文献2に開示されているように、ニューラルネットワークは、関節点の座標を推定する方法を、関節の2次元位置の正解データセットを用いて学習してもよい。正解データセットにおける関節の2次元位置は、人の手作業によって定められる。学習済のニューラルネットワークは、時系列のフレームにおける被写体の画像の関節点の座標を推定する。
例えば、点推定部32は、被写体領域を推定してもよい。点推定部32は、フレームにおける関節点の座標を、被写体領域ごとに推定してもよい。
なお、関節点の数及び位置の定義は、任意の定義でよい。関節点の座標の推定処理において、関節点の数及び位置の定義は変更されない。
運動軌跡推定部33は、時系列のフレームの間における被写体の画像に定められた関節点の軌跡を、カメラ2ごとに推定する(ステップS103)。すなわち、運動軌跡推定部33は、時系列のフレームの間における被写体の画像の対応関係を、カメラ2ごとに推定する。運動軌跡推定部33は、ステップS102において推定された関節点の座標(2次元)を、カメラと被写体の組み合わせごとに時系列で連結する。
時系列のフレームの間における、関節点の軌跡(被写体の時系列のフレーム間の対応関係)が推定される方法は、特定の方法に限定されない。例えば、運動軌跡推定部33は、時系列のフレームの間における被写体の画像のペアごとに、被写体同士の類似度又は乖離度を導出する。運動軌跡推定部33は、類似度の合計値が最大化するように、関節点の軌跡を推定する。運動軌跡推定部33は、乖離度の合計値を最小化するように、関節点の軌跡を推定してもよい。
なお、類似度の合計値の最大化と、乖離度の合計値の最小化とは、2部グラフの最大マッチング問題として定義可能である。このため、運動軌跡推定部33は、最大フロー最小カット定理に基づく各種アルゴリズムを用いて、類似度又は乖離度の合計値の厳密解を導出してもよい。運動軌跡推定部33は、貪欲法を用いて、類似度又は乖離度の合計値の近似解を導出してもよい。
ここで、類似度又は乖離度の定義は、任意でよい。例えば、類似度は、時系列のフレームの間で、被写体領域が重複する画素の個数(面積)と定義されてもよい。また、類似度は、被写体領域が重複する画素の個数(面積)と被写体領域が重複しない画素の個数(面積)との合計面積に対する、被写体領域が重複する画素の個数(面積)の比と定義されてもよい。
被写体領域の形状は、例えば、矩形である。被写体領域の形状は、被写体の画像の領域がセマンティック・セグメンテーションによって推定された結果に基づいて定められてもよい。ステップS102における、関節点の座標(2次元)の推定において、一部の関節点の座標の推定が失敗することがある。このため、被写体領域の形状が矩形である場合には、時系列のフレームの間で被写体の画像のペアごとに共通する関節点のみに基づいて、被写体領域の形状が定義されてもよい。
時系列のフレームの間で被写体の画像のペアごとに共通する関節点の個数が一定数未満である場合、その被写体の画像のペアに対する類似度を最小の類似度として設定してもよい。時系列のフレームの間で特定の関節点が共通していない場合、その被写体の画像のペアに対する類似度を最小の類似度として設定してもよい。以下では、特定の関節点とは、軌跡の推定精度が高い関節点であり、例えば、人体における首、腰及び頭等である。
乖離度は、時系列のフレームの間で、被写体の画像のペアにおける同じ関節点同士の距離の和、平均、最大値又は最小値を用いて定義されてもよい。同じ関節点同士の距離は、任意に定義された距離であり、例えば、ユークリッド距離、二乗距離(L2ノルム)、マンハッタン距離である。時系列の特定のフレーム間について乖離度が導出される場合、共通の定義が用いられる。
運動軌跡推定部33は、各関節点の座標の推定精度又は信頼度を利用してもよい。運動軌跡推定部33は、関節点同士の距離に重みを付けてもよい。この重みは、推定精度又は信頼度が高い場合に小さくなり、推定精度又は信頼度が低い場合に大きくなる。推定精度及び信頼度の導出方法は、特定の導出方法に限られないが、例えば非特許文献2のように関節点を推定する際のコンフィデンス・マップ(Confidence Map)の値として導出されてもよい。運動軌跡推定部33は、一定以上の推定精度又は信頼度を有する関節点のみを対象として、乖離度を導出してもよい。
なお、ステップS102における、関節点の座標(2次元)の推定において、一部の関節点の座標の推定が失敗することがある。このため、運動軌跡推定部33は、座標が推定された関節点のみを対象として、乖離度を導出してもよい。運動軌跡推定部33は、時系列のフレームの間における一方または両方について関節点の座標の推定が失敗した関節点同士の距離を、所定の最長距離としてもよい。なお、運動軌跡推定部33は、座標が推定されない関節点を除外して乖離度を導出する場合、単純な距離の和を用いることはできない。
時系列のフレームの間で被写体の画像のペアごとに共通する関節点の個数が一定数未満である場合、運動軌跡推定部33は、その被写体の画像のペアの乖離度を最大の乖離度として設定してもよい。時系列のフレームの間で特定の関節点が共通していない場合、運動軌跡推定部33は、その被写体の画像ペアの乖離度を最大の乖離度として設定してもよい。
運動軌跡推定部33は、フレームにおける関節点の座標(2次元)に基づいて類似度又は乖離度を導出する代わりに、被写体の画像のペアにおける関節点同士の画像信号(画像特徴量)に基づいて類似度又は乖離度を導出してもよい。例えば、運動軌跡推定部33は、各関節点の画像特徴量ベクトルを導出する。運動軌跡推定部33は、画像特徴量ベクトル同士の距離に基づいて、類似度又は乖離度を導出してもよい。画像特徴量ベクトルは、例えば、スケール不変特徴変換(Scale Invariant Feature Transform : SIFT)、HOG(Histogram of oriented gradient)又はSURF(Speeded-Up Robust Features)である。
運動軌跡推定部33は、座標が推定された関節点のみを対象として、被写体の画像のペアにおける関節点同士の画像信号に基づいた類似度又は乖離度を導出してもよい。運動軌跡推定部33は、各関節点の座標の推定精度又は信頼度を用いて、被写体の画像のペアにおける関節点同士の画像信号に基づいた類似度又は乖離度に重みを付けてもよい。運動軌跡推定部33は、一定以上の推定精度又は信頼度を有する関節点のみを対象として、被写体の画像のペアにおける関節点同士の画像信号に基づいた類似度又は乖離度を導出してもよい。
運動軌跡推定部33は、関節点ごとに画像特徴量ベクトルを導出する代わりに、被写体の画像を含む矩形又は多角形の被写体領域ごとに画像特徴量ベクトルを導出してもよい。運動軌跡推定部33は、矩形の被写体領域ごとに画像特徴量ベクトルを導出する場合、例えば、特定のデータセットを用いて学習済となった畳み込みニューラルネットワーク(Convolutional Neural Network : CNN)の潜在空間ベクトルを用いて、画像特徴量ベクトルを導出してもよい。
運動軌跡推定部33は、フレームにおける関節点の座標(2次元)に基づいて導出された類似度又は乖離度と、被写体の画像のペアにおける関節点同士の画像信号(画像特徴量)に基づいて導出された類似度又は乖離度との両方に基づいて、最終的な類似度又は乖離度を導出してもよい。
運動軌跡推定部33は、時系列のフレームの間における距離が一定以下となっている被写体の画像のペアのみに基づいて、類似度又は乖離度を導出する。すなわち、時系列のフレームの間における距離が一定を超えている被写体の画像のペアにおいて、類似度又は乖離度は定義されなくてもよい。運動軌跡推定部33は、類似度を導出する場合、時系列のフレームの間における距離が一定を超えている被写体の画像のペアに、所定の最短距離を与えてもよい。運動軌跡推定部33は、乖離度を導出する場合、時系列のフレームの間における距離が一定を超えている被写体の画像のペアに、所定の最長距離を与えてもよい。
時系列のフレームの間における被写体の画像同士の距離は、被写体の画像に定められた代表的な関節点同士の距離でもよい。被写体の画像同士の距離は、時系列のフレームの間で、被写体の画像のペアにおいて共通する関節点の距離の平均でもよい。被写体の画像同士の距離は、時系列のフレームの間で、被写体領域において共通する領域の面積を用いても導出されてもよい。
時系列のフレームの間における被写体の画像のペア(対応関係)をステップS103において運動軌跡推定部33が導出する際に、複数の被写体が接触又は重複してカメラ2から見える場合、誤った被写体の画像をペアとして運動軌跡推定部33が導出してしまう可能性がある。その際に、運動軌跡推定部33は、ステップS103において時系列のフレームの間における被写体の画像のペア(対応関係)を導出する場合、被写体の画像の正しいペアを導出する可能性が低下したとしても、被写体の画像の誤ったペアを導出する可能性を優先的に低くするために、一部の被写体の画像ペアに対する類似度又は乖離度を変更してもよい。例えば、第1フレームにおける1つの被写体の画像と、第2フレームにおける複数の被写体の画像との間について、一定値以上の類似度又は一定値以下の乖離度が導出される場合、運動軌跡推定部33は、複数の被写体の画像のうちの少なくとも一つのペアの類似度又は乖離度を未定義に変更してもよい。第1フレームにおける1個の被写体の画像と、第2フレームにおける複数の被写体の画像との間について、一定値以上の類似度が導出される場合、運動軌跡推定部33は、少なくとも一つのペアの被写体の画像同士の距離を、所定の最短距離に変更してもよい。第1フレームにおける1個の被写体の画像と、第2フレームにおける複数の被写体の画像との間について、一定値以下の乖離度が導出される場合、運動軌跡推定部33は、少なくとも一つのペアの被写体の画像同士の距離を、所定の最長距離に変更してもよい。このようにすることで、いずれかの被写体の画像に関して、時系列のフレームの間における被写体の画像のペア(対応関係)が導出されなくてもよい。同様に、いずれかの被写体の画像に関して、時系列のフレームの間における被写体の画像のペアが、時間方向で途切れてもよい。
なお、単体の被写体の画像と複数の被写体の画像との間に一定値以上の類似度又は一定値以下の乖離度が導出される場合、被写体の画像同士の距離が変更されない場合があってもよい。例えば、導出された最大の類似度と2番目に大きな類似度との比が閾値以上になった場合、運動軌跡推定部33は、被写体の画像同士の距離を変更してもよい。例えば、導出された最小の乖離度と2番目に小さな乖離度との比が閾値以上になった場合、運動軌跡推定部33は、被写体の画像同士の距離を変更してもよい。
なお、被写体の画像に定められた各関節点の軌跡の集合を表す情報は、カメラの識別子と、開始フレームの番号と、終了フレームの番号と、開始フレームから終了フレームまでの各関節点の座標の集合とを含む。
カメラ間対応推定部34は、カメラ2からそれぞれ取得されたフレームの間における、軌跡の組(対応関係)を推定する(ステップS104)。カメラ間対応推定部34が軌跡の組(対応関係)を推定する方法は、特定の方法に限定されない。カメラ間対応推定部34は、カメラ2からそれぞれ取得されたフレームの間における、軌跡の組(対応関係)を、例えば図5に記載の動作によって推定してもよい。
パラメータ推定部35は、軌跡の組に基づいて、カメラパラメータをカメラ2ごとに推定する(ステップS105)。パラメータ推定部35は、軌跡の組が複数である場合、軌跡の組の集合に基づいて、カメラパラメータをカメラ2ごとに推定してもよい。
例えば、カメラ2における、軌跡の組に応じて、同じフレーム内の同じ被写体の画像に定められた同じ関節点の座標同士の組が得られる。このため、パラメータ推定部35は、対応点の集合を、カメラ2に含まれるカメラのペアごとに導出する。パラメータ推定部35は、8ポイントアルゴリズム(参考文献3:Richard Hartley and Andrew Zisserman, “Multiple View Geometry in Computer Vision Second Edition”, Cambridge University Press, 2003.)を用いて、カメラ2のペアごとに基礎行列を導出する。パラメータ推定部35は、導出された基礎行列を分解することによって、カメラパラメータをカメラ2ごとに導出してもよい。
例えば、パラメータ推定部35は、各カメラ2のカメラパラメータと、各時刻(フレーム)における三次元空間上での被写体の関節点の座標(3次元)とを、パラメータとして用いてもよい。パラメータ推定部35は、バンドル・アジャストメント(参考文献4:Bill Triggs, et al., “Bundle Adjustment - a Modern Synthesis”, ICCV99, Proceedings of the International Workshop on Vision Algorithms: Theory and Practice. Springer, pp.298-372, 1999.)による非線形最適化を用いて、カメラパラメータを導出してもよい。すなわち、パラメータ推定部35は、三次元空間上での被写体の関節点の各カメラ2における推定観測座標と、軌跡の組に含まれる各カメラ2における実際の関節点の観測座標との誤差(再投影誤差)が最小になるように、パラメータを導出することで、カメラパラメータをカメラ2ごとに導出してもよい。
図5は、軌跡の組を推定する動作(ステップS104の詳細)の例を示すフローチャートである。カメラ間対応推定部34は、N台のカメラ2のうちから、ペアを構成するカメラ2を、任意に定められた基準で選択する(ステップS201)。以下では、ペアを構成するカメラ2のうちの第1のカメラ2は「A」と表記される。ペアを構成するカメラ2のうちの第2のカメラ2は「B」と表記される。
例えば、カメラ間対応推定部34は、時系列のフレームにおける、複数の関節点のうちの代表点の軌跡の長さの最大値が大きい順に、カメラ2のペアを選択してもよい。カメラ間対応推定部34は、時系列のフレームにおける、関節点の軌跡がカバーする面積の最大値が大きい順に、カメラ2のペアを選択してもよい。カメラ間対応推定部34は、時系列のフレームにおける、関節点の軌跡がカバーする面積の合計値が大きい順に、カメラ2のペアを選択してもよい。なお、関節点の軌跡がカバーする面積とは、軌跡を構成する全ての関節点が含まれる最小の矩形領域の面積である。関節点の軌跡がカバーする面積は、軌跡を構成する代表の関節点が含まれる最小の矩形領域の面積でもよい。
なお、ペアを構成するカメラ2の間における、軌跡のペア(対応関係)の集合が閾値以上の精度で既に導出されている場合、カメラ間対応推定部34は、それらのペアを構成するカメラ2を候補から除外してもよい。これによって、カメラ間対応推定部34は、処理の回数を減らすことができる。
カメラ間対応推定部34は、選択されたペアを構成するカメラ2の間で、軌跡のペアを定義可能(設定可能)であるか否かを判定する(ステップS202)。
軌跡のペアを定義できない場合(ステップS202:NO)、カメラ間対応推定部34は、選択されたペアを構成するカメラ2「A」及び「B」の間で、軌跡のペアの集合(初期集合)を導出する(ステップS203)。
尤もらしい軌跡のペアの初期集合が導出できるのであれば、軌跡のペアの初期集合を導出する方法は、特定の方法に限定されない。例えば、カメラ間対応推定部34は、ペアを構成するカメラ2の間における、軌跡のペアの全てに対して、軌跡のペアの尤もらしさを評価してもよい。軌跡のペアの尤もらしさを導出する方法は、特定の方法に限定されない。例えば、軌跡のペアを仮定して求められるカメラ間の基礎行列を用いてその他の軌跡の対応関係が求められる際に、所定の誤差の範囲内で対応関係が得られた関節点の個数が、軌跡のペアの尤もらしさとされてもよい。また、全ての関節点に対する対応関係が得られた関節点の割合が、軌跡のペアの尤もらしさとされてもよい。カメラ間対応推定部34は、一定数の軌跡のペアを、評価が高いペアから順に、軌跡のペアの初期集合に含めてもよい。カメラ間対応推定部34は、基準以上の評価を有する軌跡のペアを全て、軌跡のペアの初期集合に含めてもよい。なお、カメラ間対応推定部34は、軌跡のペアを1個以上選択し、選択されたペアを軌跡のペアの初期集合に含める。カメラ間対応推定部34は、ステップS204に処理を進める。
選択されたペアを構成するカメラ2「A」及び「B」の間で軌跡のペアの集合を定義できる場合(ステップS202:YES)、カメラ間対応推定部34は、軌跡のペアに共通するフレームにおいて共通する関節点のペアの集合を、対応点の集合として導出する。カメラ間対応推定部34は、関節点のペアの集合(対応点の集合)に基づいて、選択されたペアを構成するカメラ2「A」及び「B」の間の基礎行列「FA,B」を導出する(ステップS204)。
なお、ペアを構成するカメラ2「A」及び「B」の間の基礎行列FA,Bは、カメラ「A」から取得されたフレームにおける点「p」と、カメラ「B」から取得されたフレームにおける点「p」とが、3次元空間上の同じ点(対応点)を表す場合、「p A,B=0」が成立する行列である。ここで、「p」は、ベクトルpの転置ベクトルを表す。基礎行列を導出する方法は、特定の方法に限定されない。例えば、カメラ間対応推定部34は、8ポイントアルゴリズムを用いて、基礎行列「FA,B」を導出する。カメラ間対応推定部34は、RANSAC等のロバスト推定を8ポイントアルゴリズムに組み合わせて、基礎行列「FA,B」を導出してもよい。
カメラ間対応推定部34は、ペアを構成するカメラ2「A」及び「B」の間における、軌跡のペアを、基礎行列「FA,B」に基づいて軌跡のペアの集合に追加する(ステップS205)。すなわち、カメラ間対応推定部34は、基礎行列を用いて新たに対応付けられたペアを構成するカメラ2「A」及び「B」の間における、軌跡のペアを、軌跡のペアの集合に追加する。軌跡のペアを軌跡のペアの集合に追加する方法(軌跡のペアの集合を更新する方法)は、特定の方法に限定されない。
例えば、カメラ間対応推定部34は、カメラ2「A」から取得された時系列のフレームにおける軌跡と、カメラ2「B」から取得された時系列のフレームにおける軌跡との全ての組み合わせについて、所定条件を満たす軌跡のペアを、軌跡のペアの集合に追加してもよい。
例えば、軌跡のペアに基づいて導出された複数の対応点のうちで、基礎行列を用いて、ミスマッチであると判定される対応点の個数の割合が所定割合未満である軌跡のペアを、軌跡のペアの集合に追加してもよい。
カメラ間対応推定部34は、更新された軌跡のペアの集合に基づいて、軌跡のペアに共通するフレームにおいて共通する関節点のペアの集合を、対応点の集合として導出する。カメラ間対応推定部34は、ステップS204のように、関節点のペアの集合(対応点の集合)に基づいて基礎行列「FA,B」を導出する。これによって、カメラ間対応推定部34は、基礎行列「FA,B」を更新する(ステップS206)。
カメラ間対応推定部34は、軌跡のペアの集合に含まれている軌跡のペアを、更新された基礎行列「FA,B」に基づいて再評価する。軌跡のペアを再評価するする方法は、特定の方法に限定されない。例えば、カメラ間対応推定部34は、ステップS205と同じ方法を実行することによって、軌跡のペアを再評価する。カメラ間対応推定部34は、ステップS205と同じ方法を実行する場合、基準のみを変更してから、軌跡のペアを再評価してもよい。カメラ間対応推定部34は、基準を満たしていない軌跡のペアを、基礎行列「FA,B」に基づいて軌跡のペアの集合から除外する(ステップS207)。
カメラ間対応推定部34は、軌跡のペアの集合に基づいて軌跡を統合する(ステップS208)。例えば、カメラ間対応推定部34は、カメラ2「A」から取得されたフレームにおける複数の軌跡と、カメラ2「B」から取得されたフレームにおける1本の軌跡とが対応付けられた場合、カメラ2「A」から取得されたフレームにおける複数の軌跡を、1本の軌跡に統合する。同様に、カメラ2「B」から取得されたフレームにおける複数の軌跡と、カメラ2「A」から取得されたフレームにおける1本の軌跡とが対応付けられた場合、カメラ間対応推定部34は、カメラ2「B」から取得されたフレームにおける複数の軌跡を、1本の軌跡に統合する。なお、カメラ間対応推定部34は、カメラ2「A」とカメラ2「B」以外の軌跡についても統合を行う。つまり、例えば、カメラ2「A」の複数の軌跡が1つに統合されることによって、カメラ2「B」以外のカメラの軌跡についても、1対多の対応が生じた場合、カメラ間対応推定部34は、軌跡の統合を行う。
カメラ間対応推定部34は、軌跡のペアの集合の品質が閾値以上であるか否かを判定する(ステップS209)。軌跡のペアの集合の品質を判定する方法は、特定の方法に限定されない。例えば、カメラ間対応推定部34は、ステップS204からステップS208までの処理が実行された回数が閾値以上である場合、軌跡のペアの集合の品質が閾値以上であると判定する。カメラ間対応推定部34は、軌跡のペアの集合に含まれている関節点の個数が閾値以上である場合、軌跡のペアの集合の品質が閾値以上であると判定してもよい。カメラ間対応推定部34は、フレームにおける全ての関節点の個数に対する、軌跡のペアの集合に含まれている関節点の個数の割合が閾値以上である場合、軌跡のペアの集合の品質が閾値以上であると判定してもよい。
軌跡のペアの集合の品質が閾値未満であると判定された場合(ステップS209:NO)、カメラ間対応推定部34は、ステップS204に処理を戻す。軌跡のペアの集合の品質が閾値以上であると判定された場合(ステップS209:YES)、カメラ間対応推定部34は、基礎行列の品質が閾値以上であるか否かを全てのカメラのペアに対する基礎行列について判定する(ステップS210)。
基礎行列の品質が閾値以上であるか否かを判定する方法は、特定の方法に限定されない。例えば、基礎行列「FA,B」に対応するペアを構成するカメラ2について、ステップS201からステップS209までの処理が実行された回数が閾値以上である場合、全ての基礎行列「FA,B」の品質が閾値以上であると判定する。カメラ間対応推定部34は、最新の基礎行列におけるミスマッチの割合と、軌跡のペアの追加によって更新された基礎行列におけるミスマッチの割合との比に基づいて、基礎行列「FA,B」の品質が閾値以上であるか否かを判定してもよい。
いずれかの基礎行列の品質が閾値未満であると判定された場合(ステップS210:NO)、カメラ間対応推定部34は、ステップS201に処理を戻す。全ての基礎行列の品質が閾値以上であると判定された場合(ステップS210:YES)、カメラ間対応推定部34は、図5に示された処理を終了する。
以上のように、実施形態の取得部30は、複数のカメラ2に共通する視野に存在する複数の被写体の画像を含む時系列のフレームを、カメラ2ごとに取得する。点推定部32は、時系列のフレームにおける被写体の画像に定められた関節点の座標を、被写体の画像ごとに推定する。運動軌跡推定部33は、時系列のフレームの間における、関節点の軌跡(被写体の運動軌跡)を、カメラ2ごとに推定する。カメラ間対応推定部34は、カメラ2のペアからそれぞれ取得されたフレームの間における、軌跡の組を推定する。パラメータ推定部35は、カメラ2のペアからそれぞれ取得されたフレームの間における、軌跡の組に基づいて、カメラパラメータをカメラごとに推定する。
このように、カメラ2から取得された時系列のフレーム(2次元画像)における被写体の画像に定められた関節点の座標を推定するために、時系列のフレームの間における被写体の画像に定められた関節点の軌跡(運動軌跡)が用いられる。これによって、複数のカメラに共通する視野に複数の被写体が存在する場合でも、一定以上の精度でカメラパラメータを推定することが可能である。
また、いずれかの被写体の画像に関して時系列のフレームの間における被写体の画像が時間方向で途切れた場合でも、カメラ間対応推定部34が、被写体の関節位置の軌跡のカメラ間の対応を推定する過程で、被写体の画像の時間方向での接続を同時に復元することで、1つのカメラ内での被写体追跡が困難な場合でも、ロバストにカメラパラメータを推定することが可能である。
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
本発明は、動画像を撮影するカメラの位置及び向きを表すカメラパラメータを推定する装置に適用可能である。
1…カメラパラメータ推定システム、2…カメラ、3…カメラパラメータ推定装置、30…取得部、31…記憶部、32…点推定部、33…運動軌跡推定部、34…カメラ間対応推定部、35…パラメータ推定部、100…プロセッサ、200…通信部、300…フレーム、310…被写体画像、311…被写体領域、312…関節点、320…被写体画像、321…被写体領域、322…関節点、400…フレーム、410…被写体画像、411…被写体領域、420…被写体画像、421…被写体領域、422…関節点

Claims (4)

  1. 複数のカメラに共通する視野に存在する複数の被写体の画像を含む時系列のフレームを、前記カメラごとに取得する取得部と、
    前記時系列のフレームにおける前記被写体の画像に定められた関節点の座標を、前記被写体の画像ごとに推定する点推定部と、
    前記時系列のフレームの間における、前記関節点の軌跡を、前記カメラごとに推定する運動軌跡推定部と、
    前記カメラのペアからそれぞれ取得された前記フレームの間における、前記軌跡の組を推定するカメラ間対応推定部と、
    前記軌跡の組に基づいて、カメラパラメータを前記カメラごとに推定するパラメータ推定部と
    を備え
    前記カメラ間対応推定部は、前記カメラのペアの間における基礎行列を前記軌跡の組の尤もらしさに基づいて導出し、導出された基礎行列に基づいて前記軌跡の組を更新し、
    前記パラメータ推定部は、更新された前記軌跡の組に基づいて、カメラパラメータを前記カメラごとに推定する、カメラパラメータ推定装置。
  2. 前記カメラ間対応推定部は、前記カメラのペアからそれぞれ取得された前記フレームの間における前記軌跡の組に基づいて、前記フレームにおける複数の前記軌跡を統合する、請求項1に記載のカメラパラメータ推定装置。
  3. カメラパラメータ推定装置が実行するカメラパラメータ推定方法であって、
    複数のカメラに共通する視野に存在する複数の被写体の画像を含む時系列のフレームを、前記カメラごとに取得する取得ステップと、
    前記時系列のフレームにおける前記被写体の画像に定められた関節点の座標を、前記被写体の画像ごとに推定する点推定ステップと、
    前記時系列のフレームの間における、前記関節点の軌跡を、前記カメラごとに推定する運動軌跡推定ステップと、
    前記カメラのペアからそれぞれ取得された前記フレームの間における、前記軌跡の組を推定するカメラ間対応推定ステップと、
    前記軌跡の組に基づいて、カメラパラメータを前記カメラごとに推定するパラメータ推定ステップと
    を含み、
    前記カメラ間対応推定ステップは、前記カメラのペアの間における基礎行列を前記軌跡の組の尤もらしさに基づいて導出し、導出された基礎行列に基づいて前記軌跡の組を更新することを含み、
    前記パラメータ推定ステップは、更新された前記軌跡の組に基づいて、カメラパラメータを前記カメラごとに推定することを含む、
    カメラパラメータ推定方法。
  4. 請求項1又は請求項に記載のカメラパラメータ推定装置としてコンピュータを機能させるためのカメラパラメータ推定プログラム。
JP2021554527A 2019-11-08 2019-11-08 カメラパラメータ推定装置、カメラパラメータ推定方法及びカメラパラメータ推定プログラム Active JP7277829B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/043796 WO2021090467A1 (ja) 2019-11-08 2019-11-08 カメラパラメータ推定装置、カメラパラメータ推定方法及びカメラパラメータ推定プログラム

Publications (2)

Publication Number Publication Date
JPWO2021090467A1 JPWO2021090467A1 (ja) 2021-05-14
JP7277829B2 true JP7277829B2 (ja) 2023-05-19

Family

ID=75848303

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021554527A Active JP7277829B2 (ja) 2019-11-08 2019-11-08 カメラパラメータ推定装置、カメラパラメータ推定方法及びカメラパラメータ推定プログラム

Country Status (3)

Country Link
US (1) US20240127479A1 (ja)
JP (1) JP7277829B2 (ja)
WO (1) WO2021090467A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011080900A1 (ja) 2009-12-28 2011-07-07 パナソニック株式会社 移動体検出装置および移動体検出方法
JP2019041261A (ja) 2017-08-25 2019-03-14 株式会社 日立産業制御ソリューションズ 画像処理システムおよび画像処理システムの設定方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011080900A1 (ja) 2009-12-28 2011-07-07 パナソニック株式会社 移動体検出装置および移動体検出方法
JP2019041261A (ja) 2017-08-25 2019-03-14 株式会社 日立産業制御ソリューションズ 画像処理システムおよび画像処理システムの設定方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
高橋 康輔 他,人体関節を用いた多視点カメラの外部キャリブレーション法に関する検討,情報処理学会研究報告,Vol.2017-DCC-17, No.30,2017年11月01日,pp.1-8

Also Published As

Publication number Publication date
JPWO2021090467A1 (ja) 2021-05-14
WO2021090467A1 (ja) 2021-05-14
US20240127479A1 (en) 2024-04-18

Similar Documents

Publication Publication Date Title
US10789765B2 (en) Three-dimensional reconstruction method
JP6816058B2 (ja) パラメータ最適化装置、パラメータ最適化方法、プログラム
JP6854780B2 (ja) 三次元空間のモデリング
Weinzaepfel et al. Learning to detect motion boundaries
CN110070611B (zh) 一种基于深度图像融合的人脸三维重建方法和装置
JP4951498B2 (ja) 顔画像認識装置、顔画像認識方法、顔画像認識プログラムおよびそのプログラムを記録した記録媒体
US10957068B2 (en) Information processing apparatus and method of controlling the same
JP5012615B2 (ja) 情報処理装置、および画像処理方法、並びにコンピュータ・プログラム
JP2016099982A (ja) 行動認識装置、行動学習装置、方法、及びプログラム
Tang et al. Joint multi-view people tracking and pose estimation for 3D scene reconstruction
JP6894707B2 (ja) 情報処理装置およびその制御方法、プログラム
JP2018113021A (ja) 情報処理装置およびその制御方法、プログラム
US11948312B2 (en) Object detection/tracking device, method, and program recording medium
Roy et al. On Triangulation as a Form of Self-Supervision for 3D Human Pose Estimation
CN110651274A (zh) 可移动平台的控制方法、装置和可移动平台
WO2020149149A1 (en) Information processing apparatus, information processing method, and program
JP7277829B2 (ja) カメラパラメータ推定装置、カメラパラメータ推定方法及びカメラパラメータ推定プログラム
JP3401512B2 (ja) 移動物体追跡装置
JP6659095B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2023065296A (ja) 平面検出装置及び方法
CN111476828A (zh) 多视点动物群体跟踪方法及装置
Garau et al. Unsupervised continuous camera network pose estimation through human mesh recovery
CN115953813B (zh) 一种表情驱动方法、装置、设备及存储介质
WO2024009377A1 (ja) 情報処理装置、自己位置推定方法、及び非一時的なコンピュータ可読媒体
Nakatsuka et al. Stable 3d human pose estimation in low-resolution videos with a few views

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230417

R150 Certificate of patent or registration of utility model

Ref document number: 7277829

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150