JP7395189B2 - Motion capture camera system and calibration method - Google Patents

Motion capture camera system and calibration method Download PDF

Info

Publication number
JP7395189B2
JP7395189B2 JP2020557612A JP2020557612A JP7395189B2 JP 7395189 B2 JP7395189 B2 JP 7395189B2 JP 2020557612 A JP2020557612 A JP 2020557612A JP 2020557612 A JP2020557612 A JP 2020557612A JP 7395189 B2 JP7395189 B2 JP 7395189B2
Authority
JP
Japan
Prior art keywords
camera
mounter
coordinate system
motion capture
parameters
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020557612A
Other languages
Japanese (ja)
Other versions
JPWO2020105697A1 (en
Inventor
仁彦 中村
洋介 池上
文香 山田
大輝 小原
智行 堀川
亮矢 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Tokyo NUC
Original Assignee
University of Tokyo NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Tokyo NUC filed Critical University of Tokyo NUC
Publication of JPWO2020105697A1 publication Critical patent/JPWO2020105697A1/en
Application granted granted Critical
Publication of JP7395189B2 publication Critical patent/JP7395189B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules

Description

本発明は、モーションキャプチャ用のカメラシステムに関するものである。 The present invention relates to a camera system for motion capture.

モーションキャプチャ技術は、様々な運動計測に広く利用されている。しかしながら、チームスポーツにおいて、試合中の各選手の運動をキャプチャして動作解析を行うようなことは行われていない。例えば、サッカー、ラグビー、野球、バレーボール、ハンドボール等のスポーツの試合の動画を取得して、取得した動画に基づいて各選手の動作解析を行うことは行われていない。 Motion capture technology is widely used for various motion measurements. However, in team sports, the movements of each player during a match are not captured and analyzed. For example, it has not been done to acquire videos of sports matches such as soccer, rugby, baseball, volleyball, and handball, and to analyze the motions of each player based on the acquired videos.

チームスポーツにおいて、試合中の各選手の運動をキャプチャして動作解析を行うためには、(a)モーションキャプチャが選手のパフォーマンスを低下させないこと、(b)モーションキャプチャがサポーティングオペレーション(テレビ放映、チームスタッフ、観客等)の妨げとならないこと、(c)大記憶容量、(d)距離が離れたハイスピードカメラ間の同期、(e)大量のデータをリアルタイムで受信する能力、(f)長時間稼働できる性能を備えた安定的なシステム、(g)正確な3次元再構成のためのカメラキャリブレーション、等の条件をクリアする必要がある。 In team sports, in order to capture the movements of each player during a match and perform motion analysis, it is necessary to (a) make sure that motion capture does not degrade the performance of the players, and (b) ensure that motion capture does not affect supporting operations (TV broadcasts, team (c) large storage capacity, (d) synchronization between high-speed cameras over long distances, (e) ability to receive large amounts of data in real time, and (f) long hours. It is necessary to satisfy conditions such as a stable system with operational performance, and (g) camera calibration for accurate 3D reconstruction.

従来の典型的なモーションキャプチャ技術としては、光学式モーションキャプチャや慣性センサを用いたモーションキャプチャが知られている。これらのモーションキャプチャは、反射マーカや慣性センサを対象の身体に装着するための計測準備に時間を要するという欠点があり、さらに、該マーカや該センサが対象の円滑な動きの妨げになり得ることから試合中の各選手の動作取得に用いることができない。また、これらのモーションキャプチャは計測空間も限定的である。赤外線光源を用いた光学式モーションキャプチャでは、外光の影響を受けないカメラで囲まれた空間で計測を行う必要があり、センサデータを無線で受信する場合には、無線信号が届く限られた空間で計測する必要があった。 As typical conventional motion capture techniques, optical motion capture and motion capture using an inertial sensor are known. These motion capture methods have the disadvantage that it takes time to prepare the reflective markers and inertial sensors for measurement by attaching them to the subject's body, and furthermore, the markers and sensors can interfere with the smooth movement of the subject. Therefore, it cannot be used to capture the movements of each player during a match. Furthermore, the measurement space for these motion captures is limited. Optical motion capture using an infrared light source requires measurements to be taken in a space surrounded by cameras that are not affected by external light, and when receiving sensor data wirelessly, there is a limited amount of wireless signal reach. It was necessary to measure in space.

最近では、いわゆるマーカレスモーションキャプチャ技術が登場している。例えば、ビデオモーションキャプチャ技術(非特許文献1)は、複数台のRGBカメラの映像から完全非拘束でモーションキャプチャを行うもので、屋内の居住空間から、屋外でのスポーツフィールドの広い空間まで、原理的には映像が取得できれば、動作計測が可能となる技術である。 Recently, so-called markerless motion capture technology has appeared. For example, video motion capture technology (Non-Patent Document 1) captures motion from images from multiple RGB cameras in a completely unrestricted manner. In short, it is a technology that makes it possible to measure motion if images can be obtained.

複数のカメラを用いたモーションキャプチャにおいては、複数のカメラ画像を3次元再構成するためのカメラパラメータを取得する必要がある。カメラパラメータには、レンズの歪みなどの光学的パラメータ、焦点距離や光学的中心等の内部パラメータ、カメラが設置された空間におけるカメラの位置・姿勢を表す外部パラメータがある。従来のカメラキャリブレーションは、これら全てのパラメータのキャリブレーションを、既知の形状や寸法のキャリブレーション器具(チェッカーボードやキャリブレーションワンド等)を1台または複数台のカメラで撮影することで行っている。 In motion capture using multiple cameras, it is necessary to obtain camera parameters for three-dimensional reconstruction of multiple camera images. Camera parameters include optical parameters such as lens distortion, internal parameters such as focal length and optical center, and external parameters that represent the position and orientation of the camera in the space in which it is installed. Traditional camera calibration calibrates all of these parameters by photographing a calibration device of known shape and dimensions (such as a checkerboard or calibration wand) with one or more cameras. .

しかしながら、スポーツフィールドのような広い空間では、動作計測のための3次元再構成を行うためには、対象から遠く離れたカメラの高精度なキャリブレーションが必要となり、従来のモーションキャプチャシステムとは異なるシステム構成や比較的近距離でのカメラキャリブレーションとは異なるキャリブレーション法が必要となる。カメラパラメータのうち、レンズ歪みを含む光学パラメータ及び焦点距離などの内部パラメータのキャリブレーションは、カメラとレンズが確定すれば事前にキャリブレーションを行うことができるが、カメラの空間における位置姿勢に関する外部パラメータのキャリブレーションは、カメラが設置された現場で行う必要がある。 However, in a large space such as a sports field, performing 3D reconstruction for motion measurement requires highly accurate calibration of a camera that is far away from the target, which is different from traditional motion capture systems. This requires a different calibration method than the system configuration and camera calibration at relatively short distances. Among camera parameters, optical parameters including lens distortion and internal parameters such as focal length can be calibrated in advance once the camera and lens are determined, but external parameters related to the position and orientation of the camera in space can be calibrated in advance. Calibration must be performed on site where the camera is installed.

スポーツフィールドや屋外における人やロボットの計測は、計測領域が大空間となるという特徴がある。従来のように、キャリブレーション器具(チェッカーボードやキャリブレーションワンド等)を用いてキャリブレーションを行うことは原理的に可能であるが、キャリブレーションの精度は撮像素子画の画素数に依存するため、撮影対象までの距離が数十メートルとなると、キャリブレーション精度が低下し、モーションキャプチャにおける三次元再構成には適しない。従来に比べて大型のキャリブレーション器具(例えば、大型のチェッカーボードや大型のキャリブレーションワンド等)を用意し、これを使用することも考えられるが、カメラの撮影範囲が水平方向及び高さ方向において広範囲に及ぶ場合には、このような広範囲をカバーするように大型のキャリブレーション器具を異なる位置及び姿勢で移動させることは現実的でない。 Measurement of people or robots on sports fields or outdoors is characterized by the fact that the measurement area is a large space. Although it is theoretically possible to calibrate using a conventional calibration device (checkerboard, calibration wand, etc.), the accuracy of calibration depends on the number of pixels in the image sensor. When the distance to the object is several tens of meters, the calibration accuracy decreases, making it unsuitable for three-dimensional reconstruction in motion capture. It is possible to prepare and use a larger calibration device (for example, a large checkerboard or a large calibration wand) compared to the conventional one, but if the shooting range of the camera is horizontal and vertical, When a large area is covered, it is not practical to move a large-sized calibration instrument to different positions and postures to cover such a wide area.

米国特許第8625086号US Patent No. 8,625,086 WO2005/059473WO2005/059473 特許第3965781号Patent No. 3965781

T. Ohashi, Y. Ikegami, K. Yamamoto, W. Takano and Y. Nakamura, Video Motion Capture from the Part Confidence Maps of Multi-Camera Images by Spatiotemporal Filtering Using the Human Skeletal Model, 2018 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), Madrid, 2018, pp. 4226-4231.T. Ohashi, Y. Ikegami, K. Yamamoto, W. Takano and Y. Nakamura, Video Motion Capture from the Part Confidence Maps of Multi-Camera Images by Spatiotemporal Filtering Using the Human Skeletal Model, 2018 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), Madrid, 2018, pp. 4226-4231. ハイブリッドビデオセオドライトシステムの人体の歩行解析への応用 穴井 哲治、近津 博文 写真測量とリモートセンシング40巻(2001)2号Application of hybrid video theodolite system to human gait analysis Tetsuji Anai, Hirofumi Chikazu Photogrammetry and Remote Sensing Vol. 40 (2001) No. 2

本発明は、モーションキャプチャの撮像空間が大空間であっても簡便かつ高精度にカメラのキャリブレーションを行うことを目的とするものである。 An object of the present invention is to easily and accurately calibrate a camera even if the imaging space for motion capture is large.

本発明に係るモーションキャプチャ・カメラシステムは、
1つあるいは複数のカメラからなる複数のカメラユニットと、
各カメラユニットが搭載される複数のカメラマウンタと、
各カメラ画像を3次元再構成するためのカメラパラメータを取得するキャリブレーション手段と、
測角機能を備えた1つあるいは複数の測量機と、
を備え、
前記カメラパラメータは、グローバル座標系における各カメラの位置・姿勢を表す外部パラメータを含み、
前記キャリブレーション手段は、グローバル座標系における各カメラマウンタの位置及び姿勢を用いて前記外部パラメータを取得するものであり、前記グローバル座標系におけるカメラマウンタの位置及び姿勢は、前記1つあるいは複数の測量機を用いて取得される。
1つの態様では、前記1つあるいは複数の測量機のうちの1つあるいは複数の測量機は、測距機能を備えている。
測角機能を備えた測量機としては、セオドライト、トータルステーションを例示することができる。
測角機能及び測距機能を備えた測量機としては、トータルステーションを例示することができる。
The motion capture camera system according to the present invention includes:
a plurality of camera units consisting of one or more cameras;
multiple camera mounters on which each camera unit is mounted;
Calibration means for acquiring camera parameters for three-dimensionally reconstructing each camera image;
one or more surveying instruments equipped with an angle measurement function;
Equipped with
The camera parameters include external parameters representing the position and orientation of each camera in the global coordinate system,
The calibration means acquires the external parameters using the position and orientation of each camera mounter in the global coordinate system, and the position and orientation of the camera mounter in the global coordinate system are determined by the one or more surveying methods. It is obtained using a machine.
In one aspect, one or more of the one or more surveying instruments has a distance measurement function.
Examples of surveying instruments with an angle measurement function include theodolites and total stations.
A total station can be exemplified as a surveying instrument equipped with an angle measurement function and a distance measurement function.

1つの態様では、前記複数のカメラマウンタの一部あるいは全部は、前記測量機である。
1つの態様では、1つのカメラマウンタがトータルステーションから構成され、残りのカメラマウンタがセオドライトから構成される。
カメラマウンタを構成する測量機は整準されている。
In one aspect, some or all of the plurality of camera mounters are the surveying instruments.
In one embodiment, one camera mounter is comprised of a total station and the remaining camera mounters are comprised of theodolites.
The surveying instruments that make up the camera mounter are leveled.

1つの態様では、前記複数のカメラマウンタの一部あるいは全部は、前記測量機によって測量可能な複数のマーカ(特徴点)を備えている。
1つの態様では、全てのカメラマウンタが、マーカを備えたカメラマウンタである。
1つの態様では、前記カメラマウンタは、3つ以上のマーカ(例えば、4つの測量マーカ)を備えた平面を有している。
In one aspect, some or all of the plurality of camera mounters include a plurality of markers (feature points) that can be measured by the surveying instrument.
In one aspect, all camera mounters are marker equipped camera mounters.
In one aspect, the camera mounter has a flat surface with three or more markers (eg, four survey markers).

1つの態様では、前記キャリブレーション手段は、各カメラの撮像空間に位置する複数の特徴点のグローバル座標系での位置情報(3次元位置情報)と、各カメラ画像での各特徴点の位置情報(2次元位置情報)と、を用いるものであり、
前記複数の特徴点のグローバル座標系での位置情報は、前記測量機を用いて取得される。
1つの態様では、前記特徴点は、各カメラの撮像空間に位置する不動点であり、例えば、コート上のラインの交点(角部を含む)や交差部や、ゴールポスト上の点(ポストとクロスバーの交差部やポストの下端)を特徴点として利用することができる。
1つの態様では、前記特徴点の3次元位置情報及び2次元位置情報は、外部パラメータを取得する際の最適化計算に用いられる。
In one aspect, the calibration means includes position information (three-dimensional position information) in a global coordinate system of a plurality of feature points located in the imaging space of each camera, and position information of each feature point in each camera image. (two-dimensional position information),
Position information of the plurality of feature points in a global coordinate system is acquired using the surveying instrument.
In one embodiment, the feature point is a fixed point located in the imaging space of each camera, such as an intersection (including a corner) or an intersection of lines on the court, or a point on a goal post (a point on a goal post). Intersections of crossbars and bottom ends of posts) can be used as feature points.
In one aspect, the three-dimensional position information and two-dimensional position information of the feature points are used for optimization calculation when acquiring external parameters.

1つの態様では、前記キャリブレーション手段は、各カメラマウンタ座標系における当該カメラマウンタに搭載された各カメラの位置・姿勢(例えば、カメラマウントに対するカメラの位置・姿勢が既知の場合)を用いる。
1つの態様では、前記キャリブレーション手段は、各カメラマウンタ座標系における当該カメラマウンタに搭載された各カメラの位置・姿勢を取得する手段を備える。
1つの態様では、前記カメラマウンタは前記測量機から構成されており、
前記カメラマウンタ座標系における前記カメラの位置及び姿勢の取得において、前記測量機が用いられる。
1つの態様では、各カメラマウンタ座標系における当該カメラマウンタに搭載された各カメラの位置・姿勢は既知ないし予め取得されている。
In one aspect, the calibration means uses the position and orientation of each camera mounted on the camera mounter in each camera mounter coordinate system (for example, when the position and orientation of the camera with respect to the camera mount are known).
In one aspect, the calibration means includes means for acquiring the position and orientation of each camera mounted on the camera mounter in each camera mounter coordinate system.
In one aspect, the camera mounter is comprised of the surveying instrument,
The surveying instrument is used to obtain the position and orientation of the camera in the camera mounter coordinate system.
In one aspect, the position and orientation of each camera mounted on the camera mounter in each camera mounter coordinate system is known or obtained in advance.

1つの態様では、前記キャリブレーション手段は、最適化計算によって前記外部パラメータを取得する。
1つの態様では、最適化計算において、前記グローバル座標系におけるカメラマウンタの位置及び姿勢、及び、前記特徴点の前記3次元位置情報及び前記2次元位置情報が用いられる。
1つの態様では、前記最適化計算において、グローバル座標系の位置情報が未知の1つあるいは複数の特徴点に対応する各カメラ画像の位置情報が用いられる。
In one aspect, the calibration means obtains the external parameter by optimization calculation.
In one aspect, the position and orientation of the camera mounter in the global coordinate system, and the three-dimensional position information and two-dimensional position information of the feature points are used in the optimization calculation.
In one aspect, in the optimization calculation, position information of each camera image corresponding to one or more feature points whose position information in the global coordinate system is unknown is used.

1つの態様において、前記カメラパラメータは、光学パラメータ、内部パラメータを含み、前記キャリブレーション手段は、最適化計算によって前記外部パラメータ、前記光学パラメータ、内部パラメータの一部あるいは全部を取得する。
光学パラメータ及び内部パラメータは、従来手法(キャリブレーション器具を用いる)によって取得してもよい。
例えば、前記カメラマウンタが前記測量機から構成されている場合には、光学パラメータ及び内部パラメータの取得において、前記測量機を用いてもよい。
外部パラメータの取得において、取得した光学パラメータ及び内部パラメータの一部あるいは全部を用いてもよい。
In one embodiment, the camera parameters include optical parameters and internal parameters, and the calibration means obtains some or all of the external parameters, the optical parameters, and the internal parameters through optimization calculation.
Optical and internal parameters may be obtained using conventional techniques (using calibration instruments).
For example, when the camera mounter includes the surveying instrument, the surveying instrument may be used to obtain the optical parameters and internal parameters.
In acquiring the external parameters, part or all of the acquired optical parameters and internal parameters may be used.

本発明は、1つあるいは複数のカメラからなる複数のカメラユニットと、
各カメラユニットが搭載される複数のカメラマウンタと、
を備えたモーションキャプチャ・カメラシステムにおいて、前記複数のカメラ画像を3次元再構成するためのカメラパラメータを取得するキャリブレーション方法であって、
前記カメラパラメータは、グローバル座標系における各カメラの位置・姿勢を表す外部パラメータを含み、
測角機能を備えた1つあるいは複数の測量機を用いて、グローバル座標系における各カメラマウンタの位置及び姿勢を取得すること、
グローバル座標系における各カメラマウンタの位置及び姿勢を用いて前記外部パラメータを取得すること、
を含む。
The present invention includes a plurality of camera units each including one or more cameras;
multiple camera mounters on which each camera unit is mounted;
A calibration method for obtaining camera parameters for three-dimensionally reconstructing the plurality of camera images in a motion capture camera system comprising:
The camera parameters include external parameters representing the position and orientation of each camera in the global coordinate system,
obtaining the position and orientation of each camera mounter in a global coordinate system using one or more surveying instruments equipped with an angle measurement function;
obtaining the external parameters using the position and orientation of each camera mounter in a global coordinate system;
including.

1つの態様では、前記複数のカメラマウンタの一部あるいは全部は、前記測量機であり、複数の計測点(特徴点)の測量データを用いてグローバル座標系における各カメラマウンタの位置及び姿勢を取得する。
1つの態様では、前記複数の計測点は、各測量機から測量可能な2つの特徴点A、B(間隔が既知、例えば、垂直の測量用ポール上の点Aと点B)と、各カメラマウンタ上の特徴点(例えば、振り子錘の下端)と、を含む。
測量機で前記2つの特徴点A、Bを測量することで、各カメラマウンタ座標系の原点から点A、点Bまでのベクトルを取得することができる。例えば、該ベクトルの水平角と同じ水平角の水平軸をz軸、垂直軸をx軸とする。
各測量機で他のカメラマウンタ上の特徴点を測量することで、各マウンタ座標系間の角度を取得することができる。
グローバル座標系のz軸とx軸を、1つのマウンタの座標系のz軸とx軸に一致させ、点Aと点B間の距離と上記設定情報を用いることで、三角法によって、各カメラマウンタのグローバル座標系における位置及び姿勢を取得する。
In one aspect, some or all of the plurality of camera mounters are the surveying instruments, and the position and orientation of each camera mounter in a global coordinate system are acquired using survey data of a plurality of measurement points (feature points). do.
In one aspect, the plurality of measurement points include two feature points A and B (with a known interval, for example, points A and B on a vertical surveying pole) that can be measured from each surveying instrument, and each camera. A feature point on the mounter (for example, the lower end of a pendulum weight).
By surveying the two feature points A and B with a surveying instrument, vectors from the origin of each camera mounter coordinate system to points A and B can be obtained. For example, the horizontal axis with the same horizontal angle as the horizontal angle of the vector is the z-axis, and the vertical axis is the x-axis.
By measuring feature points on other camera mounters with each surveying instrument, it is possible to obtain the angle between the coordinate systems of each mounter.
By aligning the z-axis and x-axis of the global coordinate system with the z-axis and x-axis of one mounter's coordinate system, and using the distance between points A and B and the above setting information, each camera can be adjusted by trigonometry. Obtain the position and orientation of the mounter in the global coordinate system.

1つの態様では、前記複数のカメラマウンタの一部あるいは全部は、前記測量機によって測量可能な複数のマーカ(特徴点)を備えており、複数のマーカの測量データを用いてグローバル座標系におけるカメラマウンタの位置及び姿勢を取得する。
1つの態様では、前記カメラマウンタは、3つ以上のマーカ(例えば、4つの測量マーカ)を備えた平面を有している。
1つの態様では、3つ以上のマーカ間の距離が既知であり、かつ、これらのマーカが垂直面上に設けてあり、測量機(例えば、測角機能及び測距機能を備える)で3つのマーカを測量し、測量機の中心を原点としてグローバル座標系を設定することで、測量情報と三角法を用いることで、各カメラマウンタのグローバル座標系における位置及び姿勢を取得する。
In one aspect, some or all of the plurality of camera mounters include a plurality of markers (feature points) that can be measured by the surveying instrument, and the camera mounters in the global coordinate system are equipped with a plurality of markers (feature points) that can be measured by the surveying instrument. Obtain the position and orientation of the mounter.
In one aspect, the camera mounter has a flat surface with three or more markers (eg, four survey markers).
In one embodiment, the distances between three or more markers are known, the markers are provided on a vertical plane, and a surveying instrument (e.g., with angle measurement and ranging capabilities) By surveying markers and setting a global coordinate system with the center of the surveying instrument as the origin, the position and orientation of each camera mounter in the global coordinate system is obtained using survey information and trigonometry.

1つの態様では、前記外部パラメータの取得において、各カメラの撮像空間に位置する複数の特徴点のグローバル座標系での位置情報と、各カメラ画像での各特徴点の位置情報と、が用いられ、
前記複数の特徴点のグローバル座標系での位置情報は、前記測量機を用いて取得される。
1つの態様では、前記特徴点は、各カメラの撮像空間に位置する不動点であり、例えば、コート上のラインの交点(角部を含む)や交差部や、ゴールポスト上の点(ポストとクロスバーの交差部やポストの下端)を特徴点として利用することができる。
1つの態様では、前記特徴点の3次元位置情報及び2次元位置情報は最適化計算に用いられる。
In one aspect, in acquiring the external parameters, position information in a global coordinate system of a plurality of feature points located in the imaging space of each camera and position information of each feature point in each camera image are used. ,
Position information of the plurality of feature points in a global coordinate system is acquired using the surveying instrument.
In one embodiment, the feature point is a fixed point located in the imaging space of each camera, such as an intersection (including a corner) or an intersection of lines on the court, or a point on a goal post (a point on a goal post). Intersections of crossbars and bottom ends of posts) can be used as feature points.
In one aspect, the three-dimensional position information and two-dimensional position information of the feature points are used for optimization calculation.

1つの態様では、前記外部パラメータの取得において、各カメラマウンタ座標系における当該カメラマウンタに搭載された各カメラの位置・姿勢を用いる。
1つの態様では、前記キャリブレーション手段は、各カメラマウンタ座標系における当該カメラマウンタに搭載された各カメラの位置・姿勢を取得する手段を備える。
1つの態様では、前記カメラマウンタは前記測量機から構成されており、
前記カメラマウンタ座標系における前記カメラの位置及び姿勢は、前記測量機を用いて取得される。
1つの態様では、前記測量機を用いてカメラマウンタ座標系の位置が既知な複数の特徴点を設定し(図15参照)、
各カメラ画像における各特徴点の位置情報を取得し、
前記特徴点のカメラマウンタ座標系の位置情報とカメラ画像における位置情報を用いて、前記カメラマウンタ座標系における前記カメラの位置及び姿勢を取得する。
1つの態様では、各カメラマウンタ座標系における当該カメラマウンタに搭載された各カメラの位置・姿勢は既知ないし予め取得されている。
In one aspect, in acquiring the external parameters, the position and orientation of each camera mounted on the camera mounter in each camera mounter coordinate system is used.
In one aspect, the calibration means includes means for acquiring the position and orientation of each camera mounted on the camera mounter in each camera mounter coordinate system.
In one aspect, the camera mounter is comprised of the surveying instrument,
The position and orientation of the camera in the camera mounter coordinate system are acquired using the surveying instrument.
In one aspect, the surveying instrument is used to set a plurality of feature points whose positions in the camera mount coordinate system are known (see FIG. 15),
Obtain the position information of each feature point in each camera image,
The position and orientation of the camera in the camera mounter coordinate system are obtained using the position information of the feature point in the camera mounter coordinate system and the position information in the camera image.
In one aspect, the position and orientation of each camera mounted on the camera mounter in each camera mounter coordinate system is known or obtained in advance.

1つの態様では、最適化計算によって前記外部パラメータを取得する。
1つの態様では、最適化計算において、前記グローバル座標系におけるカメラマウンタの位置及び姿勢、及び、前記特徴点の3次元位置情報及び2次元位置情報が用いられる。
1つの態様では、前記最適化計算において、グローバル座標系の位置情報が未知の1つあるいは複数の特徴点に対応する各カメラ画像の位置情報が用いられる。
1つの態様では、各カメラは同期されており、各カメラで異なる位置・姿勢にあるキャリブレーション器具を撮影し、キャリブレーショ器具上の複数の特徴点の各カメラ画像での位置情報が用いられる。
In one aspect, the external parameters are obtained by optimization calculation.
In one aspect, the position and orientation of the camera mounter in the global coordinate system, and the three-dimensional position information and two-dimensional position information of the feature points are used in the optimization calculation.
In one aspect, in the optimization calculation, position information of each camera image corresponding to one or more feature points whose position information in the global coordinate system is unknown is used.
In one aspect, each camera is synchronized, each camera photographs the calibration instrument at a different position/orientation, and position information of a plurality of feature points on the calibration instrument in each camera image is used.

1つの態様において、前記カメラパラメータは、光学パラメータ、内部パラメータを含み、前記キャリブレーション手段は、最適化計算によって前記外部パラメータ、前記光学パラメータ、内部パラメータの一部あるいは全部を取得する。
光学パラメータ及び内部パラメータは、従来手法(キャリブレーション器具を用いる)によって取得してもよい。
例えば、前記カメラマウンタが前記測量機から構成されている場合には、光学パラメータ及び内部パラメータの取得において、前記測量機を用いてもよい。
外部パラメータの取得において、取得した光学パラメータ及び内部パラメータの一部あるいは全部を用いてもよい。
In one embodiment, the camera parameters include optical parameters and internal parameters, and the calibration means obtains some or all of the external parameters, the optical parameters, and the internal parameters through optimization calculation.
Optical and internal parameters may be obtained using conventional techniques (using calibration instruments).
For example, when the camera mounter includes the surveying instrument, the surveying instrument may be used to obtain the optical parameters and internal parameters.
In acquiring the external parameters, part or all of the acquired optical parameters and internal parameters may be used.

本発明は、カメラのキャリブレーションにおいて、測量機で計測した高精度の測量データを用いることで、モーションキャプチャの撮像空間が大空間であっても簡便かつ高精度にカメラのキャリブレーションを行うことができる。
したがって、屋内外スポーツフィールド、屋内外コート、アリーナ、ドーム、体育館等で行われるスポーツの試合を撮影することで、試合中の各選手の運動を3次元再構成してモーションキャプチャを行い、動作解析を行うことができる。
The present invention uses highly accurate survey data measured by a surveying instrument to calibrate the camera, thereby making it possible to easily and accurately calibrate the camera even if the imaging space for motion capture is large. can.
Therefore, by filming sports matches held on indoor and outdoor sports fields, indoor and outdoor courts, arenas, domes, gymnasiums, etc., we can perform motion capture and three-dimensional reconstruction of the movements of each player during the match, and perform motion analysis. It can be performed.

本実施形態に係るモーションキャプチャ・カメラシステムをサッカーコートを撮影するように配置した態様を示す概念図である。FIG. 2 is a conceptual diagram showing a mode in which the motion capture camera system according to the present embodiment is arranged to photograph a soccer court. 本実施形態に係るモーションキャプチャ・カメラシステムをバレーボールコートを撮影するように配置した態様を示す概念図である。FIG. 2 is a conceptual diagram showing a mode in which the motion capture camera system according to the present embodiment is arranged to photograph a volleyball court. 本実施形態に係るカメラネットワークの概略図である。FIG. 1 is a schematic diagram of a camera network according to the present embodiment. 本実施形態に係るカメラマウンタの一例を示す図であり、カメラマウンタとしてのセオドライトと、セオドライト上に搭載された3つのカメラを示している。FIG. 2 is a diagram showing an example of a camera mounter according to the present embodiment, showing a theodolite as a camera mounter and three cameras mounted on the theodolite. 本実施形態に係るカメラマウンタの一例を示す図であり、カメラマウンタとしてのフラットプレートと、フラットプレートの四隅に設けた4つのマーカ、フラットプレートの幅方向中央部位下端に搭載した1つのカメラを示している。FIG. 2 is a diagram showing an example of a camera mount according to the present embodiment, showing a flat plate as a camera mount, four markers provided at the four corners of the flat plate, and one camera mounted at the lower end of the center portion of the flat plate in the width direction. ing. 本実施形態に係る測量機として例示するトータルステーションを示す図である。1 is a diagram showing a total station exemplified as a surveying instrument according to the present embodiment. バレーボールコートの周囲に配置した複数個のカメラ及びそれらのFOV、及び、ケーブルの配線を示す図である。FIG. 3 is a diagram showing a plurality of cameras arranged around a volleyball court, their FOVs, and cable wiring. バレーボールコート上の空間でのターゲットボールの軌道を示し、バンドル調整のためのカメラ画像データの取得に用いられる。It shows the trajectory of the target ball in space above the volleyball court and is used to acquire camera image data for bundle adjustment. バレーボールコート上の18個の特徴点を示す図である。It is a diagram showing 18 feature points on a volleyball court. 測量されたコート上の特徴点及びカメラマウンタの位置を示す図である。FIG. 3 is a diagram showing the measured feature points on the court and the position of the camera mounter. カメラ座標系とOpenCV上の画像面との関係を示す図である。It is a diagram showing the relationship between the camera coordinate system and the image plane on OpenCV. セオドライトを用いた三角測量を示す図である。FIG. 3 is a diagram showing triangulation using a theodolite. セオドライトを用いた三角側量を示す図である。It is a figure which shows the triangular side volume using the theodolite. トータルステーションを用いた、マーカ付きカメラマウンタの位置・姿勢を測量を説明する図である。FIG. 2 is a diagram illustrating the measurement of the position and orientation of a camera mounter with a marker using a total station. 相対外部パラメータのキャリブレーションを説明する図である。FIG. 3 is a diagram illustrating calibration of relative external parameters. モーションキャプチャシステムの全体図である。1 is an overall diagram of a motion capture system. モーションキャプチャを用いた動作分析の工程を示すフローチャートである。It is a flowchart showing the process of motion analysis using motion capture.

[A]モーションキャプチャ・カメラシステム
[A-1]全体構成
本実施形態に係るモーションキャプチャ・カメラシステムは、スポーツフィールドやアリーナ等の大空間で行われるチームスポーツを複数のカメラで撮影するものであり、各カメラで取得された撮影画像を用いて各選手のモーションキャプチャを行うものである。本実施形態で用いるモーションキャプチャは、ビデオモーションキャプチャ技術(非特許文献1)であり、その具体的な内容は後述する。
[A] Motion capture camera system [A-1] Overall configuration The motion capture camera system according to this embodiment uses multiple cameras to film team sports played in large spaces such as sports fields and arenas. , motion capture of each player is performed using images captured by each camera. The motion capture used in this embodiment is a video motion capture technique (non-patent document 1), and its specific details will be described later.

モーションキャプチャ・カメラシステムは、1つあるいは複数のカメラからなる複数のカメラユニットと、各カメラユニットが搭載される複数のカメラマウンタと、を備える。例えば、図1は、サッカーの試合を撮影するモーションキャプチャ・カメラシステムの概念図であり、4台のカメラを備えた4台のカメラユニットがサッカーコートを囲むように配置される。各カメラから対象である選手までの距離は数十メートルとなる。 A motion capture camera system includes a plurality of camera units including one or more cameras, and a plurality of camera mounters on which each camera unit is mounted. For example, FIG. 1 is a conceptual diagram of a motion capture camera system that photographs a soccer match, and four camera units each having four cameras are arranged to surround a soccer court. The distance from each camera to the target player is several tens of meters.

図1に示すモーションキャプチャ・カメラシステムは、4つのカメラユニットCU1、CU2、CU3、CU4を備え、カメラユニットCU1は4つのカメラC11、C12、C13、C14、カメラユニットCU2は4つのカメラC21、C22、C23、C24、カメラユニットCU3は4つのカメラC31、C32、C33、C34、カメラユニットCU4は4つのカメラC41、C42、C43、C44を備えている。カメラユニットCU1はカメラマウンタCM1に搭載されており、カメラユニットCU2はカメラマウンタCM2に搭載されており、カメラユニットCU3はカメラマウンタCM3に搭載されており、カメラユニットCU4はカメラマウンタCM4に搭載されている。図1では便宜上、4つのカメラユニットを示したが、実際には、より多くのカメラユニットが配置され得ることになるであろう。なお、1台のカメラユニットに搭載されるカメラの数は限定されない。The motion capture camera system shown in FIG. 1 includes four camera units CU 1 , CU 2 , CU 3 , and CU 4 , and the camera unit CU 1 has four cameras C 11 , C 12 , C 13 , C 14 , and a camera. Unit CU 2 has four cameras C 21 , C 22 , C 23 , C 24 , camera unit CU 3 has four cameras C 31 , C 32 , C 33 , C 34 , camera unit CU 4 has four cameras C 41 , It has C 42 , C 43 , and C 44 . Camera unit CU 1 is mounted on camera mounter CM 1 , camera unit CU 2 is mounted on camera mounter CM 2 , camera unit CU 3 is mounted on camera mounter CM 3, and camera unit CU 4 is mounted on camera mounter CM 3 . It is installed in the camera mounter CM 4 . Although four camera units are shown in FIG. 1 for convenience, in reality, more camera units could be arranged. Note that the number of cameras mounted on one camera unit is not limited.

図2は、バレーボールの試合を撮影するモーションキャプチャ・カメラシステムの概念図であり、1台のカメラを備えた4台のカメラユニットがバレーボールコートを囲むように配置される。図2に示すように、モーションキャプチャ・カメラシステムは、4つのカメラユニットCU1、CU2、CU3、CU4を備え、カメラユニットCU1は1つのカメラC11、カメラユニットCU2は1つのカメラC21、カメラユニットCU3は1つのカメラC31、カメラユニットCU4は1つのカメラC41を備えている。カメラユニットCU1はカメラマウンタCM1に搭載されており、カメラユニットCU2はカメラマウンタCM2に搭載されており、カメラユニットCU3はカメラマウンタCM3に搭載されており、カメラユニットCU4はカメラマウンタCM4に搭載されている。なお、1台のカメラユニットに搭載されるカメラの数は限定されない。FIG. 2 is a conceptual diagram of a motion capture camera system that photographs a volleyball match, and four camera units each including one camera are arranged to surround a volleyball court. As shown in FIG. 2, the motion capture camera system includes four camera units CU 1 , CU 2 , CU 3 , and CU 4 , where camera unit CU 1 has one camera C 11 and camera unit CU 2 has one camera C 11 . Camera C 21 , camera unit CU 3 includes one camera C 31 , and camera unit CU4 includes one camera C 41 . Camera unit CU 1 is mounted on camera mounter CM 1 , camera unit CU 2 is mounted on camera mounter CM 2 , camera unit CU 3 is mounted on camera mounter CM 3, and camera unit CU 4 is mounted on camera mounter CM 3 . It is installed in the camera mounter CM 4 . Note that the number of cameras mounted on one camera unit is not limited.

後述する実験例では、図7に示すように、1台のカメラを備えた10台カメラユニットがバレーボールコートを囲むように配置される。バレーボールコートの寸法は18m×9mの長方形であり、その周囲に幅3mのフリーゾーンが設けてある。各カメラは、少なくも、フリーゾーンを含む領域で高さ3mの空間を撮影できるように配置される。各カメラは、所定位置に整準した三脚に搭載したり、手すりに固定することで配置される。各カメラは位置・姿勢を固定した状態で事前にキャリブレーションが行われ、撮影中は位置・姿勢が維持される。 In an experimental example to be described later, ten camera units each including one camera are arranged to surround a volleyball court, as shown in FIG. The size of the volleyball court is a rectangle of 18 m x 9 m, with a free zone 3 m wide around it. Each camera is arranged so as to be able to photograph a space with a height of at least 3 m in an area including the free zone. Each camera is mounted on a tripod leveled at a predetermined position or fixed to a handrail. Each camera is calibrated in advance with a fixed position and orientation, and the position and orientation are maintained during shooting.

図7で示したモーションキャプチャ・カメラシステムのカメラネットワークを図3に示す。カメラネットワークは12台のカメラが接続可能であるが、実施例では10台のカメラが用いている点に留意されたい。本実施形態に係るカメラネットワークは複数台のカメラと、送信ボックスと、カメラハブと、1台あるいは複数台のコンピュータと、電源と、同期信号を生成する波形発生器と、を備えている。各カメラは送信ボックスと電気的に接続されており、送信ボックスとカメラハブは、hybrid copper/fiber cableで電気的に接続されており、カメラハブとコンピュータは電気的に接続されている。各カメラは同期している。 FIG. 3 shows the camera network of the motion capture camera system shown in FIG. 7. Note that although 12 cameras can be connected to the camera network, 10 cameras are used in the embodiment. The camera network according to this embodiment includes a plurality of cameras, a transmission box, a camera hub, one or more computers, a power source, and a waveform generator that generates a synchronization signal. Each camera is electrically connected to a transmission box, the transmission box and camera hub are electrically connected with a hybrid copper/fiber cable, and the camera hub and computer are electrically connected. Each camera is synchronized.

各カメラは、120Hzで解像度1920x1200の画像を取得する。各カメラはUSB3.0インターフェースを備えており、画像信号の伝送には、USB3 to Fiber Optic Extenderが用いられる。送信ボックスには、USB3 to Fiber Optic ExtenderのTransmitterが設けられ、カメラハブには、USB3 to Fiber Optic ExtenderのReceiverが設けてあり、画像信号は、USB3 to Fiber Optic Extenderを介してコンピュータに送信される。コンピュータは、データ受信部、処理部、記憶部を備えており、データ受信部で受信された画像データは、処理部で適宜データ圧縮されて、記憶部に格納される。 Each camera acquires images with a resolution of 1920x1200 at 120Hz. Each camera is equipped with a USB3.0 interface, and a USB3 to Fiber Optic Extender is used to transmit image signals. The transmission box is equipped with a USB3 to Fiber Optic Extender Transmitter, the camera hub is equipped with a USB3 to Fiber Optic Extender Receiver, and the image signal is sent to the computer via the USB3 to Fiber Optic Extender. . The computer includes a data receiving section, a processing section, and a storage section, and image data received by the data receiving section is appropriately compressed by the processing section and stored in the storage section.

各カメラは、カメラマウンタに搭載されており、カメラマウンタに対して各カメラの位置・姿勢が固定されている。キャリブレーションによって、カメラの内部パラメータ、外部パラメータ、歪み係数が得られており、これらのカメラパラメータはコンピュータの記憶部に格納される。カメラパラメータは、各カメラ画像を用いた対象の運動の3次元再構成に用いられる。 Each camera is mounted on a camera mounter, and the position and orientation of each camera are fixed with respect to the camera mounter. The internal parameters, external parameters, and distortion coefficients of the camera have been obtained through calibration, and these camera parameters are stored in the storage section of the computer. The camera parameters are used for three-dimensional reconstruction of the object's motion using each camera image.

本実施形態に係るモーションキャプチャ・カメラシステムは、さらに、キャリブレーション手段と、測角機能を備えた1つあるいは複数の測量機と、を備えている。キャリブレーション手段は、コンピュータ(入力部、演算部、記憶部、出力部等を備える)から構成される。キャリブレーション手段は、各カメラ画像を3次元再構成するためのカメラパラメータを取得する。本実施形態に係るキャリブレーションは、キャリブレーションの計算において、測量機の測量データを用いる点に特徴を備えている。より具体的には、該キャリブレーション手段は、グローバル座標系における各カメラマウンタの位置及び姿勢を用いて外部パラメータを取得するものであり、前記グローバル座標系におけるカメラマウンタの位置及び姿勢は、1つあるいは複数の測量機を用いて取得される。1つの態様では、モーションキャプチャ時には、カメラの位置・姿勢は固定され、測量機は用いない。典型的には、キャリブレーション手段は、最適化計算によってカメラパラメータを取得するものであり、キャリブレーション手段は、最適化計算を実行する最適化計算部を含んでいる。 The motion capture camera system according to this embodiment further includes a calibration means and one or more surveying instruments equipped with an angle measurement function. The calibration means is composed of a computer (comprising an input section, a calculation section, a storage section, an output section, etc.). The calibration means acquires camera parameters for three-dimensionally reconstructing each camera image. The calibration according to this embodiment is characterized in that survey data from a surveying instrument is used in the calibration calculation. More specifically, the calibration means acquires external parameters using the position and orientation of each camera mounter in the global coordinate system, and the position and orientation of the camera mounter in the global coordinate system are one. Alternatively, it is obtained using multiple surveying instruments. In one aspect, during motion capture, the position and orientation of the camera are fixed, and a surveying instrument is not used. Typically, the calibration means acquires camera parameters by optimization calculation, and the calibration means includes an optimization calculation section that performs optimization calculation.

屋外の広い空間における高精度な測量技術として、セオドライトやトータルステーションが知られている。セオドライトは代表的な測角機能を備えた角度測量機であり、水平回動・上下回動可能な可動部(望遠鏡を備える)を備え、水平角・高度角を高精度で計測することができる。トータルステーションは、測角機能を備えたセオドライトに測距機能(レーザ計測)が備わった機器である。後述する実験で用いたトータルステーションは、パン角度(水平角度)及びチルト角度(垂直角度)の精度は、20 secondsであり、レーザレンジファインダの精度は、28.8mにおいて±1mmである。 Theodolites and total stations are known as high-precision surveying techniques for large outdoor spaces. Theodolite is a typical angle measuring instrument with an angle measurement function.It has a movable part (equipped with a telescope) that can rotate horizontally and vertically, and can measure horizontal angles and altitude angles with high precision. . A total station is a device that includes a theodolite with an angle measurement function and a distance measurement function (laser measurement). The accuracy of the pan angle (horizontal angle) and tilt angle (vertical angle) of the total station used in the experiment described below is 20 seconds, and the accuracy of the laser range finder is ±1 mm at 28.8 m.

本発明は、大空間における計測に用いるモーションキャプチャ・カメラシステムにおいて、測量機、具体的には、セオドライトやトータルステーション、及び、必要に応じて、これらの計測に用いられる測量器具(反射プリズムや反射マーカ等)、を含むカメラシステムを構成することで、大空間でも簡便かつ高精度にカメラパラメータのキャリブレーションを行うことを可能とする。 The present invention is a motion capture camera system used for measurements in large spaces, which includes a surveying instrument, specifically a theodolite and a total station, and, if necessary, surveying instruments used for these measurements (reflective prisms and reflective markers). etc.), it is possible to easily and accurately calibrate camera parameters even in a large space.

[A-2]カメラマウンタが測量機から構成される場合
カメラマウンタの第1の実施形態では、1つあるいは複数のカメラからなる各カメラユニットのカメラマウンタは、セオドライトやトータルステーションの測量機から構成される。図1に示す態様では、カメラマウンタCM1、CM2、CM3、CM4は測量機から構成されている。各カメラユニットは、測量機の可動部に搭載されており、測角時に可動部と一体で水平方向及び縦方向に回動可能となっている。具体的には、1台あるいは複数のカメラを搭載したカメラ台を、セオドライトやトータルステーションに固定して設置する。セオドライトやトータルステーションは、例えば、整準した三脚に整準して搭載されており、その上にカメラユニットが搭載される(図4参照)。
[A-2] When the camera mounter is composed of a surveying instrument In the first embodiment of the camera mounter, the camera mounter of each camera unit consisting of one or more cameras is composed of a theodolite or a total station surveying instrument. Ru. In the embodiment shown in FIG. 1, camera mounters CM 1 , CM 2 , CM 3 , and CM 4 are constructed from surveying instruments. Each camera unit is mounted on the movable part of the surveying instrument, and can rotate horizontally and vertically together with the movable part during angle measurement. Specifically, a camera stand equipped with one or more cameras is fixed and installed on a theodolite or total station. For example, the theodolite and total station are mounted on a leveled tripod, and a camera unit is mounted on top of the tripod (see FIG. 4).

カメラマウンタを測量機から構成することで、測量技術を用いて、カメラマウンタのグローバル座標系における姿勢・位置を取得することができる。各カメラユニット、カメラ台と、カメラ台に搭載された複数個のカメラから構成され、カメラ台が測量機に搭載される。例えば、4台のカメラが、各カメラの光軸が同一平面内に位置し、全てのカメラの光軸が一点で交差するように等角度で放射状に配置される。別の例では、各カメラは正多角錘の側面に配置され、全てのカメラの光軸が正多角錐の軸上の一点で交差する。各カメラユニットのカメラの台数や配置態様は限定されない。複数のカメラマウンタを測量機から構成する場合には、1つの態様では、全てのカメラマウンタが測量機から構成される。他の態様では、複数のカメラマウンタの一部が測量機から構成される。2つ以上のカメラマウンタが測量機から構成される場合に、少なくとも1つのカメラマウンタがトータルステーションから構成されてもよい。 By configuring the camera mounter from a surveying instrument, the attitude and position of the camera mounter in the global coordinate system can be obtained using surveying technology. It consists of each camera unit, a camera stand, and a plurality of cameras mounted on the camera stand, and the camera stand is mounted on the surveying instrument. For example, four cameras are arranged radially at equal angles so that the optical axes of each camera are located in the same plane and the optical axes of all cameras intersect at one point. In another example, each camera is placed on the side of a regular polygonal pyramid, and the optical axes of all cameras intersect at a point on the axis of the regular polygonal pyramid. The number and arrangement of cameras in each camera unit are not limited. When a plurality of camera mounters are composed of surveying instruments, in one aspect, all the camera mounters are composed of surveying instruments. In other aspects, a portion of the plurality of camera mounters is comprised of a surveying instrument. When two or more camera mounters are comprised of surveying instruments, at least one camera mounter may be comprised of a total station.

ここで、カメラを備えたセオドライトは、例えば、特許文献1-3、非特許文献2に開示されており、また、ビデオセオドライトとして知られている。従来のビデオセオドライトにおけるカメラは、通常の使用時には回動可能な状態にあり、測角部の回動と共にカメラも回動し、測角情報と共にカメラ画像情報を用いるものである。これに対して、本実施形態における測量機をカメラマウンタとしたカメラユニットでは、カメラのキャリブレーションにおいてのみ測量機の測角機能が用いられ、使用時(モーションキャプチャ時)にはカメラの位置が固定され、セオドライトの測角機能は用いられない。なお、本発明において、モーションキャプチャ時に測量機の測角機能を用いることは排除されるものではなく、後述する動的キャリブレーションでは、測角機能を用いてもよい。 Here, a theodolite equipped with a camera is disclosed in, for example, Patent Documents 1 to 3 and Non-Patent Document 2, and is also known as a video theodolite. The camera in a conventional video theodolite is in a rotatable state during normal use, and the camera also rotates as the angle measurement section rotates, and the camera image information is used together with the angle measurement information. On the other hand, in the camera unit in this embodiment in which the surveying instrument is used as a camera mount, the angle measurement function of the surveying instrument is used only for camera calibration, and the camera position is fixed during use (motion capture). The angle measurement function of the theodolite is not used. Note that in the present invention, it is not excluded that the angle measurement function of the surveying instrument is used during motion capture, and the angle measurement function may be used in dynamic calibration, which will be described later.

[A-3]カメラマウンタが測量機により測量可能なマーカを備えている場合
カメラマウンタの第2の実施形態では、カメラマウンタには複数のマーカ(特徴点)が設けてあり、測量機によってマーカが測量可能となっている。より具体的には、カメラマウンタは、所定形状・寸法の平面を有するプレート(例えば、30cm×30cmないし40cm×40cmの正方形)を備え、プレートの平面部には、セオドライトやトータルステーションのターゲットとなる反射マーカを3個以上(例えば4個)設ける。図2に示す態様では、カメラマウンタCM1、CM2、CM3、CM4は、複数の反射マーカを有する平面を備えたプレートから構成されている。
[A-3] When the camera mounter is equipped with a marker that can be measured by a surveying device In the second embodiment of the camera mounter, the camera mounter is provided with a plurality of markers (feature points), and the marker can be measured by a surveying device. can be measured. More specifically, the camera mount includes a plate (for example, a 30 cm x 30 cm to 40 cm x 40 cm square) having a flat surface with a predetermined shape and dimensions, and the flat surface of the plate has a reflective surface that serves as a target for the theodolite or total station. Three or more (for example, four) markers are provided. In the embodiment shown in FIG. 2, the camera mounts CM 1 , CM 2 , CM 3 , CM 4 consist of a plate with a flat surface having a plurality of reflective markers.

フラットプレートには、相対的な位置を固定したカメラが搭載されている。例えば、各カメラユニットは1個のカメラを備え、正方形状のフラットプレートの下方部位において、幅方向中央に位置してカメラが固定される。3個以上の反射マーカを備え、カメラと相対的な位置を固定した平板は、カメラと共にカメラ台(雲台)に取り付け、カメラ台は三脚等に固定して設置する。なお、複数のマーカを備えたプレートからなるカメラマウンタにおいて、複数個のカメラを搭載してもよい。 The flat plate is equipped with a camera whose relative position is fixed. For example, each camera unit includes one camera, and the camera is fixed at the center in the width direction below the square flat plate. A flat plate equipped with three or more reflective markers and whose position relative to the camera is fixed is attached to a camera stand (pan head) together with the camera, and the camera stand is fixed and installed on a tripod or the like. Note that a plurality of cameras may be mounted on a camera mount made of a plate provided with a plurality of markers.

測量技術を用いることで、カメラマウンタ(フラットプレート)のグローバル座標系における姿勢・位置を取得することができる。カメラマウンタが測量機により測量可能なマーカを備えている場合において、該マーカの測量には、測角機能及び測距機能を備えた測量機(典型的にはトータルステーション)を用いることが有利である。 By using surveying technology, it is possible to obtain the attitude and position of the camera mounter (flat plate) in the global coordinate system. When the camera mounter is equipped with a marker that can be measured by a surveying instrument, it is advantageous to use a surveying instrument (typically a total station) equipped with an angle measurement function and a distance measurement function to measure the marker. .

測量機を用いるにあたり、測量技術で用いられているその他の器具、測量手法、計算方法を用い得ることが当業者に理解される。セオドライト、トータルステーション以外の測量器具としては、三脚、アルミスタッフ、アルミロッド、ポール、水準器、オートレベル、反射プリズム、プリズムポールを例示することができる。 It will be understood by those skilled in the art that in using the surveying instrument, other instruments, surveying methods, and calculation methods used in the surveying technology may be used. Examples of surveying instruments other than theodolites and total stations include tripods, aluminum staffs, aluminum rods, poles, spirit levels, autolevels, reflective prisms, and prism poles.

[B]カメラのキャリブレーション
大空間モーションキャプチャにおける3次元再構成のためのカメラキャリブレーションについて説明する。以下に第1手法、第2手法、第3手法の3つの手法について説明する。第1手法は公知の手法であるが、第3手法は、第1手法と第2手法を組み合わせたものであることから、カメラパラメータの説明と合わせて第1手法についても言及する。
[B] Camera Calibration Camera calibration for three-dimensional reconstruction in large space motion capture will be explained. Three methods, the first method, the second method, and the third method, will be explained below. Although the first method is a known method, the third method is a combination of the first method and the second method, so the first method will also be mentioned in conjunction with the explanation of camera parameters.

[B-1]位置が未知の特徴点群を用いた一般的なバンドル調整(第1手法)
本実施形態で用いるカメラシステムの各カメラのキャリブレーションについて説明する。ここで、バンドル調整とは、3次元特徴点からカメラへの光線の束(bundle)が、3次元特徴点とカメラの位置・姿勢の両方に対して最適に調整される(adjustment)ことをいう。この最適化は一般的に、特徴点の再投影誤差を最小化する非線形最適化問題として解かれる。
[B-1] General bundle adjustment using a group of feature points with unknown positions (first method)
Calibration of each camera of the camera system used in this embodiment will be explained. Here, bundle adjustment means that the bundle of light rays from the 3D feature point to the camera is optimally adjusted for both the 3D feature point and the position/orientation of the camera. . This optimization is generally solved as a nonlinear optimization problem that minimizes the reprojection error of feature points.

特徴点の再投影には、最もシンプルなカメラモデルであるピンホールカメラモデルに基づく透視投影変換行列を用いる。この透視投影変換行列は各カメラごとに次のように表せる。

Figure 0007395189000001
ここで、iはカメラ番号、行列X=(x1・・・xn)はn個の特徴点のグローバル座標系での位置xi=(xi yi zj 1)T、行列iY=(iy1・・・iyn)はn個の特徴点の画像平面でのピクセル単位の位置iyj=(iuj ivj 1)T、行列iS=diag{is1,・・・,isn}は画像平面に投影するためのスケールisj=(001)iAiBxjを指す。A perspective projection transformation matrix based on a pinhole camera model, which is the simplest camera model, is used to reproject the feature points. This perspective projection transformation matrix can be expressed for each camera as follows.
Figure 0007395189000001
Here, i is the camera number, matrix X = (x 1 ... x n ) is the position of n feature points in the global coordinate system x i = (x i y i z j 1) T , matrix i Y =( i y 1 ... i y n ) is the pixel unit position of n feature points on the image plane i y j =( i u j i v j 1) T , matrix i S=diag{ i s 1 ,..., i s n } refers to the scale i s j =(001) i AiBx j for projection onto the image plane.

カメラの内部パラメータ、外部パラメータをそれぞれ表す行列iA,iBについては、次のように表せる。

Figure 0007395189000002
ここで、ifxifyは画像平面上のx軸、y軸それぞれのピクセル単位の焦点距離、icxicyは画像平面での主点(画像平面と光軸の交点)の位置、行列iRはカメラ座標系におけるグローバル座標系の姿勢、itはカメラ座標系におけるグローバル座標系の原点の位置を表す。コンピュータビジョンで一般的に使用される座標軸において、3次元空間から画像平面への投影を図11に示す。これにしたがい、次の式でカメラの内部パラメータ行列Aを定義する。
Figure 0007395189000003
ここで、行列iAについては、ifxifyifとし、icxicyを画像平面の中心とすることで、最適化変数の数を減らすことができる。受光素子の大きさの縦横比は1:1、かつ、画像平面の中心で光軸と交わっている、と仮定できるからである。行列iRについては、オイラー角で表記する場合には、iR(iθα,iθβ,iθγ)として3変数として扱える。本明細書では、この回転行列の表記としてZYXオイラー角iR(iθα,iθβ,iθγ)= RZ(iθα)RY (iθβ)RX (iθγ) を採用する。The matrices i A and i B representing the camera's internal parameters and external parameters, respectively, can be expressed as follows.
Figure 0007395189000002
Here , IF _ _ _ _ _ ), the matrix i R represents the orientation of the global coordinate system in the camera coordinate system, and i t represents the position of the origin of the global coordinate system in the camera coordinate system. FIG. 11 shows the projection from three-dimensional space onto the image plane in coordinate axes commonly used in computer vision. According to this, the camera's internal parameter matrix A is defined using the following formula.
Figure 0007395189000003
Here, for the matrix i A, the number of optimization variables can be reduced by setting i f x = i f y = i f and making i c x and i c y the center of the image plane. This is because it can be assumed that the aspect ratio of the light receiving element is 1:1 and that it intersects the optical axis at the center of the image plane. When the matrix i R is expressed in Euler angles, it can be treated as three variables as i R( i θ α , i θ β , i θ γ ). In this specification, this rotation matrix is expressed as ZYX Euler angle i R( i θ α , i θ β , i θ γ )= R Z ( i θ α )R Y ( i θ β )R X ( i θ γ ) is adopted.

カメラ複数台における特徴点の再投影誤差を最小化する非線形最小自乗問題は次のように表せる。

Figure 0007395189000004
ここで、最適化変数である焦点距離ifx,ifyとカメラ位置itは、片方を固定しなければもう片方が定まらないような関係にある。そのため、片方を固定するか、それぞれに上限・下限を狭く設定するか、どちらかの必要がある。The nonlinear least squares problem for minimizing the reprojection error of feature points in multiple cameras can be expressed as follows.
Figure 0007395189000004
Here, the optimization variables focal lengths i f x , i f y and camera position i t are in such a relationship that unless one is fixed, the other cannot be determined. Therefore, it is necessary to either fix one side or set narrow upper and lower limits for each.

マルチカメラキャリブレーションのために得られるデータが、複数台のカメラにおけるタイポイント(グローバル座標系での位置が未知の特徴点群。例えばカラーボールの中心位置の軌跡など)の画像平面でのピクセル位置iYtieだけであったとする。このとき、特徴点群のグローバル座標系での位置Xtieは、複数台のカメラの位置・姿勢に依存して定まる。このバンドル調整は次のように表せる。

Figure 0007395189000005
ここで、上記非線形方程式系は、Levenberg-Marquardt法を用いて解くことができる。The data obtained for multi-camera calibration is the pixel position on the image plane of tie points (a group of feature points whose positions are unknown in the global coordinate system, such as the locus of the center position of a color ball) for multiple cameras. Suppose there was only i Y tie . At this time, the position X tie of the feature point group in the global coordinate system is determined depending on the positions and orientations of the plurality of cameras. This bundle adjustment can be expressed as follows.
Figure 0007395189000005
Here, the above nonlinear equation system can be solved using the Levenberg-Marquardt method.

[B-2]測量機による直接計測に基づくバンドル調整(第2手法)
キャリブレーションのために得られるデータが、コントロールポイント(グローバル座標系での位置が既知の特徴点の特徴点群、例えば測量機で計測したコート上特徴点など)のグローバル座標系での位置iXcontrolと、画像平面でのピクセル位置iYcontrol、そして、カメラのマウンタの位置・姿勢iBmの3つであったとする。測量機を用いて直接計測を行って、コントロールポイント、及び、カメラのマウンタの位置・姿勢iBmの値を得た。このとき、カメラ間に拘束がないため、カメラごとに最適化できる。このバンドル調整は次のように表せる。

Figure 0007395189000006
ここで、上記非線形方程式は、Levenberg-Marquardt法、ないし、Trust-Region-Reflective法を用いて解くことができる。Trust-Region-Reflective法では、最適化変数に対して、
Figure 0007395189000007
のような範囲制約を設定できる。得られたカメラのマウンタの位置・姿勢iBmを基準に、最適化変数の初期値と狭い範囲制約を設定することで、前述の焦点距離ifx,ifyとカメラ位置itの関係に対して測量的に妥当な制約を加えることができる。[B-2] Bundle adjustment based on direct measurement using a surveying instrument (second method)
The data obtained for calibration is the position i control , the pixel position i Y control on the image plane, and the position/orientation i B m of the camera mounter. Direct measurement was performed using a surveying instrument to obtain the values of the control points and the position and orientation of the camera mounter i B m . At this time, since there are no restrictions between cameras, optimization can be performed for each camera. This bundle adjustment can be expressed as follows.
Figure 0007395189000006
Here, the above nonlinear equation can be solved using the Levenberg-Marquardt method or the Trust-Region-Reflective method. In the Trust-Region-Reflective method, for optimization variables,
Figure 0007395189000007
You can set range constraints like . Based on the obtained camera mounter position and orientation i B m , by setting the initial values and narrow range constraints of the optimization variables, the focal lengths i f x , i f y and camera position i t described above can be calculated. Measurementally valid constraints can be placed on the relationship.

カメラの歪み係数は、格子点の間隔が既知の距離をもつチェッカーボードに対して、様々な距離・角度で撮影した複数枚の画像を用いて、OpenCVの関数cv::calibrateCameraを用いて内部パラメータと共に求める。本実施形態では、内部パラメータもバンドル調整の変数として最適化している。最適化ソルバとして、MATLABのOptimization Toolboxにある、非線形最小二乗問題を解く関数lsqnonlinを用いて最適化を行った。 The distortion coefficient of the camera is calculated using internal parameters using the OpenCV function cv::calibrateCamera using multiple images taken at various distances and angles against a checkerboard with grid points with known distances. Ask with. In this embodiment, internal parameters are also optimized as variables for bundle adjustment. Optimization was performed using the function lsqnonlin, which solves nonlinear least squares problems, in MATLAB's Optimization Toolbox as an optimization solver.

[B-3]位置が未知の特徴点群と測量値を併用したバンドル調整(第3手法)
キャリブレーションのために得られるデータが、タイポイントの画像平面でのピクセル位置iYtie、コントロールポイントのグローバル座標系での位置iXcontrol と画像平面でのピクセル位置iYcontrol、そして、カメラのマウンタの位置・姿勢iBmの4つであったとする。このバンドル調整は次のように表せる。

Figure 0007395189000008
ここで、ntie, ncontrolはそれぞれ、タイポイント、コントロールポイントの個数、ktie, kcontrolはktie>0,kcontrol>0となる2種の特徴点群に対する重みを指す。本実施形態では、ktie=kcontrol=0.5とする。上記非線形方程式は、Levenberg-Marquardt法を用いて解くことができる。[B-3] Bundle adjustment using a combination of feature points whose positions are unknown and survey values (third method)
The data obtained for calibration are the pixel position i Y tie in the image plane of the tie point, the position i X control in the global coordinate system of the control point and the pixel position i Y control in the image plane, and Assume that there are four positions and orientations of the mounter: i, B , and m . This bundle adjustment can be expressed as follows.
Figure 0007395189000008
Here, n tie and n control indicate the number of tie points and control points, respectively, and k tie and k control indicate weights for two types of feature point groups such that k tie >0 and k control >0. In this embodiment, k tie = k control = 0.5. The above nonlinear equation can be solved using the Levenberg-Marquardt method.

[B-4]実験例
バレーボールの試合におけるモーションキャプチャについて、以下の3種類のマルチカメラキャリブレーションを行った。
(a)位置が未知の特徴点群を用いた一般的なバンドル調整(第1手法)、
(b)測量機による直接計測に基づくバンドル調整(第2手法)、そして、
(c)位置が未知の特徴点群と測量機による直接計測を併用したバンドル調整(第3手法)。
これらの計測に用いた複数カメラの配置を図7に示す。実験では、10台のカメラのうち、6台のカメラに対してキャリブレーションを行った。
[B-4] Experimental Example The following three types of multi-camera calibration were performed for motion capture in a volleyball match.
(a) General bundle adjustment using a group of feature points whose positions are unknown (first method),
(b) Bundle adjustment based on direct measurement by a surveying instrument (second method), and
(c) Bundle adjustment using a group of feature points whose positions are unknown and direct measurement using a surveying instrument (third method).
Figure 7 shows the arrangement of multiple cameras used for these measurements. In the experiment, calibration was performed on 6 cameras out of 10 cameras.

(a)同期済みカメラ複数台でのカラーボールの軌跡の画像位置情報を用いて、カメラ複数台のバンドル調整を行い、カメラの位置・姿勢を求めた。実験では、計測範囲であるバレーボールコート内にて黄色いカラーボールを図8ように動かし、その軌跡を同期済みの複数のカメラにて撮影した。OpenCVを用いてカラーボールの中心の画像平面での位置・半径を算出し、MATLAB上で外れ値を除外する処理を行った。カラーボールの中心位置は外れ値を除いて2223フレーム取得することができた。このデータをタイポイントとする。式(4)を解くことでキャリブレーションを行う。 (a) Using the image position information of the trajectory of the color ball from multiple synchronized cameras, we performed bundle adjustment for multiple cameras and determined the position and orientation of the cameras. In the experiment, a yellow colored ball was moved as shown in Figure 8 within the measurement range of a volleyball court, and its trajectory was photographed using multiple synchronized cameras. The position and radius of the center of the color ball on the image plane were calculated using OpenCV, and processing to exclude outliers was performed on MATLAB. We were able to obtain 2223 frames for the center position of the color ball, excluding outliers. This data will be used as a tie point. Calibration is performed by solving equation (4).

(b)コート上特徴点とカメラマウンタの位置・姿勢を測量機を用いて求め、カメラ1台ずつのバンドル調整を行い、カメラ位置・姿勢を求めた。実験で使用した測量マーカ付きカメラマウンタ、測量機を、それぞれ、図5、図6に示す。測量機は、トータルステーション(角度測量計・レーザ距離計)であり、カメラマウンタは40cm×40cmのフラットプレートであり、4隅に測量マーカが設けてある。図9は、18点のコート上特徴点(白線交点)を示す。これらの特徴点のグローバル座標系における位置情報は、測量機を用いて取得される。 (b) The position and orientation of the feature points on the court and the camera mounter were determined using a surveying instrument, and bundle adjustments were made for each camera to determine the camera position and orientation. The camera mounter with a surveying marker and the surveying instrument used in the experiment are shown in Figures 5 and 6, respectively. The surveying instrument is a total station (angle surveyor/laser distance meter), and the camera mount is a 40cm x 40cm flat plate with surveying markers on the four corners. FIG. 9 shows 18 on-court feature points (white line intersections). Position information of these feature points in the global coordinate system is acquired using a surveying instrument.

グローバル座標系は、コート上特徴点の番号0を原点とし、X軸が原点からコート上特徴点の番号9に向かう方向を正、Z軸がトータルステーションの整準で定められた鉛直上向き方向を正としている。この定義に沿うように、最適化により得られる結果の座標系の軸を回転させ、測量により得られた3次元位置も平行移動・回転させている。これにより、グローバル座標系での位置が既知であるコート上特徴点をコントロールポイントとする。また、測量マーカ付きカメラマウンタのグローバル座標系での位置・姿勢をカメラマウンタのローカル座標系に変換させ、それをカメラの外部パラメータ行列の初期値とする。式(5)を解くことでキャリブレーションを行う。また、測量機による直接計測に基づいて、カメラ毎に最適化を行っているが、測量機による直接計測に基づいて、複数カメラのバンドル調整を行ってもよい。これは、評価関数

Figure 0007395189000009
を最小化する問題として扱うことができる。In the global coordinate system, the origin is the on-court feature point number 0, the X-axis is the positive direction from the origin to the on-court feature point number 9, and the Z-axis is the vertical upward direction determined by the leveling of the total station. It is said that In line with this definition, the axes of the coordinate system obtained through optimization are rotated, and the three-dimensional position obtained through surveying is also translated and rotated. As a result, a feature point on the court whose position in the global coordinate system is known is set as a control point. Furthermore, the position and orientation of the camera mounter with a survey marker in the global coordinate system are converted to the local coordinate system of the camera mounter, and these are used as initial values of the external parameter matrix of the camera. Calibration is performed by solving equation (5). Further, although optimization is performed for each camera based on direct measurement by a surveying instrument, bundle adjustment of a plurality of cameras may be performed based on direct measurement by a surveying instrument. This is the evaluation function
Figure 0007395189000009
can be treated as a problem to minimize.

(c)カラーボールの軌跡(位置が未知の特徴点群)と、測量機による直接計測と、を併用したバンドル調整を行い、式(6)を解くことで、カメラ位置・姿勢を求めた。 (c) The camera position and orientation were determined by performing bundle adjustment using a combination of the trajectory of the color ball (a group of feature points whose positions are unknown) and direct measurement using a surveying instrument, and solving Equation (6).

本実験では、カメラキャリブレーションデータと、ビデオモーションキャプチャシステム(非特許文献1参照)と、を用いて、バレーボール試合中の12人の選手の全身の動作を再構成した。本実験では、アリーナで行われたバレーボールの試合を撮影して、試合中のバレーボール選手の動きを取得した。本実施形態に係るモーションキャプチャ・カメラシステムは、スポーツの種類、場所に限定されることなく、あらゆる動作計測に適用することができる。対象となるスポーツとして、サッカー、フットサル、ラグビー、野球、バレーボール、ハンドボール、テニス、体操を例示することができる。撮影場所としては、屋外スポーツフィールド、屋内スポーツフィールド、屋外コート、屋内コート、アリーナ、ドーム、体育館を例示することができる。 In this experiment, the whole body movements of 12 players during a volleyball match were reconstructed using camera calibration data and a video motion capture system (see Non-Patent Document 1). In this experiment, we filmed a volleyball match held in an arena and captured the movements of volleyball players during the match. The motion capture camera system according to this embodiment can be applied to any motion measurement without being limited to the type of sport or location. Examples of target sports include soccer, futsal, rugby, baseball, volleyball, handball, tennis, and gymnastics. Examples of shooting locations include outdoor sports fields, indoor sports fields, outdoor courts, indoor courts, arenas, domes, and gymnasiums.

[B-5]動的キャリブレーション
本実施形態に係るキャリブレーションは、カメラマンが焦点距離、パン・チルトなどをマニュアルで操る放送・記録用の複数台のカメラ映像からのビデオモーションキャプチャに適用することができる。この場合は、光学パラメータ(レンズ歪)、内部パラメータ(焦点距離)、外部パラメータがすべて手動により変動することになる。これらのパラメータを、スポーツフィールドないしコートを形成する要素上の不動特徴点(例えば、ライン上の点やゴール上の点)と、位置未知の特徴点(例えば、球技におけるボール)を用いて、各時刻の全てのパラメータを動的に最適化計算により取得する。
[B-5] Dynamic Calibration Calibration according to this embodiment is applied to video motion capture from multiple camera images for broadcasting and recording in which a cameraman manually controls focal length, pan/tilt, etc. I can do it. In this case, the optical parameters (lens distortion), internal parameters (focal length), and external parameters are all manually varied. These parameters are calculated using fixed feature points on elements forming a sports field or court (for example, points on a line or points on a goal) and feature points with unknown positions (for example, a ball in a ball game). All time parameters are dynamically obtained through optimization calculations.

先ず、モーションキャプチャ前に、測角機能を備えた測量機(測距機能を備えていてもよい)によって複数の不動特徴点のグローバル座標系での位置情報を取得して記憶しておく。不動特徴点は、スポーツフィールドないしコートを形成する要素上の点であり、フィールドないしコート上のラインの交点(角部を含む)や交差部や、ゴールポスト上の点(ポストとクロスバーの交差部やポストの下端)を例示することができる。 First, before motion capture, position information of a plurality of immovable feature points in a global coordinate system is acquired and stored using a surveying instrument equipped with an angle measurement function (which may also be equipped with a distance measurement function). Fixed feature points are points on the elements forming the sports field or court, such as intersections (including corners) and intersections of lines on the field or court, and points on goal posts (intersections of posts and crossbars). (lower end of a post).

モーションキャプチャ時に、前記複数の不動特徴点の各カメラ画像での位置情報と、グローバル座標系の位置情報が未知の1つあるいは複数の特徴点の各カメラ画像での位置情報と、を用いて、最適化計算によって、前記カメラパラメータを取得する。グローバル座標系の位置情報が未知の特徴点としては、球技におけるボールを例示することができる。また、選手が着用しているユニフォーム上の特定の位置のマークやシューズの特定点を位置が未知の特徴点として用いてもよい。 During motion capture, using the position information of the plurality of immobile feature points in each camera image and the position information of one or more feature points whose position information in the global coordinate system is unknown in each camera image, The camera parameters are obtained by optimization calculation. An example of a feature point whose position information in the global coordinate system is unknown is a ball in a ball game. Further, a mark at a specific position on a uniform worn by a player or a specific point on shoes may be used as a feature point whose position is unknown.

最適化計算においては、経験則を用いて、一部のパラメータの変動幅を小さく設定したり、一部のパラメータの変化速度を小さく設定したりしてもよい。また、カメラマウンタを、測角機能を備えた測量機から構成し、測量機を用いて取得したカメラマウンタの姿勢情報を最適化計算に用いてもよい。最適化計算では、測量機の計測値(角度)の時系列情報を取得して記憶したものを用いたり、あるいは、測量機の計測値を最適化計算部が実時間で受信して、実時間で最適化計算を行ってもよい。 In the optimization calculation, empirical rules may be used to set the fluctuation range of some parameters to be small or to set the change rate of some parameters to be small. Alternatively, the camera mounter may be configured from a surveying instrument with an angle measurement function, and posture information of the camera mounter acquired using the surveying instrument may be used for optimization calculations. In the optimization calculation, the time series information of the measured values (angles) of the surveying instrument is acquired and stored, or the optimization calculation section receives the measured values of the surveying instrument in real time and calculates it in real time. Optimization calculations may be performed using

[C]カメラマウンタの位置・姿勢の取得
[C-1]測量機による直接計測
1) 角度測量による測量ポール上の計測点の相対位置・姿勢の定義:
整準されたi番目の角度測量計により、同様に整準された測量ポール上の計測点A、Bと角度測量計の相対位置・姿勢は、図12にしたがって次のように求まる。ここで、点O、A、Bはポール上の計測点(高位、低位)であり、点Oをグローバル座標系の原点(ポールと地面との交点)とする。点Tiはi番目の角度測量計のローカル座標系の原点、点Hiはポール上におけるTiからの垂線の足で、軸XTi、YTi、XTiは角度測量計のローカル座標系の各軸を指す。また、角度θi Aは角度

Figure 0007395189000010
角度θi Bは角度
Figure 0007395189000011
とする。各線分は次のようになる。
Figure 0007395189000012
したがって、ベクトル
Figure 0007395189000013
は、以下のようになる。
Figure 0007395189000014
レーザ距離計により線分TiA、TiB の実測値がある場合には、その値も考慮して最適化によりベクトル
Figure 0007395189000015
求める。[C] Obtaining the position and orientation of the camera mounter [C-1] Direct measurement using a surveying instrument
1) Definition of the relative position and orientation of measurement points on the survey pole by angle measurement:
Using the i-th leveled angle measurement meter, the relative position and orientation of the angle measurement meter and measurement points A and B on the similarly leveled surveying pole can be determined as follows according to FIG. Here, points O, A, and B are measurement points (high and low) on the pole, and point O is the origin of the global coordinate system (the intersection of the pole and the ground). Point T i is the origin of the local coordinate system of the i-th goniometer, point Hi is the foot of the perpendicular line from T i on the pole, and axes X Ti , Y Ti , X Ti are the origin of the local coordinate system of the goniometer Point to each axis. Also, the angle θ i A is the angle
Figure 0007395189000010
Angle θ i B is the angle
Figure 0007395189000011
shall be. Each line segment is as follows.
Figure 0007395189000012
Therefore, the vector
Figure 0007395189000013
becomes as follows.
Figure 0007395189000014
If there are actual measured values of the line segments T i A and T i B using a laser distance meter, the vectors are calculated by optimization taking those values into consideration.
Figure 0007395189000015
demand.

[C-2]グローバル座標系における角度測量計の位置・姿勢
ベースとなる角度測量計T0とし、角度測量計T0のローカル座標系の姿勢をグローバル座標系の姿勢、測量ポール上の原点Oをグローバル座標系の原点とする。このとき、前節で得られたベクトル

Figure 0007395189000016
を用いて、グローバル座標系に対する角度測量計T0のローカル座標系の同次変換行列O 0Hを図13にしたがい次のように定義できる。
Figure 0007395189000017
また、グローバル座標系における他の角度測量計の位置・姿勢についても、次のように定める。
Figure 0007395189000018
ここで、角度θ0 Tiは角度
Figure 0007395189000019
角度θi T0は角度
Figure 0007395189000020
とする。[C-2] Let the angle surveyor T 0 be the position/orientation base of the angle surveyor in the global coordinate system, and let the orientation of the local coordinate system of the angle surveyor T 0 be the orientation of the global coordinate system, and the origin O on the surveying pole. Let be the origin of the global coordinate system. At this time, the vector obtained in the previous section
Figure 0007395189000016
According to FIG. 13, the homogeneous transformation matrix O 0 H of the local coordinate system of the goniometer T 0 with respect to the global coordinate system can be defined as follows.
Figure 0007395189000017
In addition, the positions and orientations of other angle measurement meters in the global coordinate system are also determined as follows.
Figure 0007395189000018
Here, the angle θ 0 Ti is the angle
Figure 0007395189000019
Angle θ i T0 is the angle
Figure 0007395189000020
shall be.

セオドライトをカメラのマウンタとするとき、その位置・姿勢を表す外部パラメータ行列iBmは、次のように定義できる。

Figure 0007395189000021
When a theodolite is used as a camera mounter, the external parameter matrix i B m representing its position and orientation can be defined as follows.
Figure 0007395189000021

[C-3]測量マーカ付きカメラマウンタの位置・姿勢
図14において、測量マーカ付きカメラマウンタのローカル座標系の原点をFiとする。この座標系の、グローバル座標系に対する位置OpFiと姿勢O FiR を最適化により次のように求める。

Figure 0007395189000022
ここで、OpiPj は各測量マーカの点(j=1,…,4)である。
wfrillはマーカ間距離の設計値、iLslopejiLhorizontaljiLverticaljは、レーザ距離計で測ったマーカへの斜距離・水平距離・高低差である。また、角度iθhorizontaljiθverticaljは、角度距離計で測ったマーカへの方向角・高度角を指す。測量マーカ付きカメラマウンタトをカメラのマウンタとするとき、前節と同様に外部バラメータiBmは次のように定義される。
Figure 0007395189000023
[C-3] In the position/orientation diagram of the camera mounter with survey marker 14, let F i be the origin of the local coordinate system of the camera mounter with survey marker. The position O p Fi and orientation O Fi R of this coordinate system with respect to the global coordinate system are determined by optimization as follows.
Figure 0007395189000022
Here, O p iPj is the point of each survey marker (j=1,...,4).
w frill is the design value of the distance between markers, and i L slopej , i L horizontalj , and i L verticalj are the oblique distance, horizontal distance, and height difference to the marker measured with a laser range finder. Further, the angles i θ horizontalj and i θ verticalj refer to the direction angle and altitude angle to the marker measured by the angular distance meter. When a camera mounter with a survey marker is used as a camera mounter, the external parameter i B m is defined as follows, as in the previous section.
Figure 0007395189000023

[C-4]相対外部パラメータの定義と最適化:
カメラの外部パラメータ行列iBに対して、カメラマウンタの外部パラメータ行列iBmのみが測量機で直接計測をすることができる。それらは相対外部パラメ―タ行列

Figure 0007395189000024
を用いて次のように変換できる。
Figure 0007395189000025
相対外部パラメ―タ行列を第2手法で最適化すると、次の問題になる。
Figure 0007395189000026
[C-4] Definition and optimization of relative external parameters:
In contrast to the camera's external parameter matrix i B, only the camera mounter's external parameter matrix i B m can be directly measured by a surveying instrument. They are relative extrinsic parameter matrices
Figure 0007395189000024
It can be converted as follows using .
Figure 0007395189000025
When the relative external parameter matrix is optimized using the second method, the following problem arises.
Figure 0007395189000026

現場での計測だけではなく、相対外部パラメータ行列だけを求めるための事前のキャリブレーションを行えるのであれば、カメラの焦点距離とカメラ-マウンタ間の相対外部パラメータ行列を最適化によって求めるのが好ましい。焦点距離を事前に求めて固定する方が、現場で妥当なカメラ位置を求めることができる。このとき、カメラマウンタとして角度測量計を用いるならば、より厳密にカメラの焦点距離を求めることができる。具体的にその手順について述べる。まず、整準された測量ポールに対して、整準された角度測量計を用いて、前述のようにグローバル座標系を定義する。次に、一定間隔(1°ずつ、±10°の範囲)で動かし、測量ポールを撮影する。そのことで、測量ポール上にコントロールポイントを定義することができる(図15参照)。セオドライトの精度に保証されたコントロールポイントの位置を得ることができる。 If it is possible to perform not only on-site measurement but also prior calibration to determine only the relative extrinsic parameter matrix, it is preferable to determine the camera focal length and the relative extrinsic parameter matrix between the camera and the mounter by optimization. Determining and fixing the focal length in advance allows you to determine a more appropriate camera position on-site. At this time, if an angle measurement meter is used as a camera mounter, the focal length of the camera can be determined more precisely. The procedure will be described in detail. First, a global coordinate system is defined as described above using a leveled angle surveyor with respect to a leveled surveying pole. Next, move it at regular intervals (in 1° increments, within a range of ±10°) and photograph the surveying pole. This allows control points to be defined on the survey pole (see Figure 15). You can obtain control point positions guaranteed to the accuracy of the theodolite.

[D]測量機をカメラマウンタに用いたカメラシステムにおけるカメラキャリブレーション
測量機をカメラマウンタに用いた実施形態におけるキャリブレーションについて詳細に説明する。カメラシステムは、複数個(例えば、4個ないし2個)のカメラからなるカメラユニットを備え、各カメラユニットは測量機(セオドライトないしトータルステーション)に搭載されている。各カメラユニットは、測量機の可動部に搭載されており、測角時に可動部と一体で水平方向及び縦方向に回動可能となっている。1つの態様では、1つのカメラユニットがトータルステーションに搭載されており、他のカメラユニットがセオドライトに搭載されている。もちろん、複数のカメラユニットが複数のトータルステーションに搭載されていてもよい。本セクションの説明において、iはセオドライトの通し番号を示し、jはi番目のセオドライトに搭載されたj番目のカメラを示す。上記セクション[C]では、iはカメラの通し番号を示し、カメラのマウンタ(セオドライトである場合も含む)には、カメラの通し番号が割り当てある点に留意されたい。
[D] Camera Calibration in a Camera System Using a Surveying Instrument as a Camera Mounter Calibration in an embodiment in which a surveying instrument is used as a camera mounter will be described in detail. The camera system includes a camera unit consisting of a plurality of cameras (for example, four to two), and each camera unit is mounted on a surveying instrument (theodolite or total station). Each camera unit is mounted on the movable part of the surveying instrument, and can rotate horizontally and vertically together with the movable part during angle measurement. In one embodiment, one camera unit is mounted on the total station and the other camera unit is mounted on the theodolite. Of course, multiple camera units may be mounted on multiple total stations. In the description of this section, i indicates the serial number of the theodolite, and j indicates the j-th camera mounted on the i-th theodolite. Note that in Section [C] above, i indicates the serial number of the camera, and that the mounter of the camera (even if it is a theodolite) is assigned the serial number of the camera.

[D-1]ワールド座標系におけるセオドライト座標系
ワールド座標系からのセオドライト座標系への同次変換行列の取得について説明する。先ず、セオドライト及びトータルステーションを三脚に搭載する。各三脚を、各カメラの視野に計測範囲が含まれるように立てる。セオドライト及びトータルステーションを、水準器を用いて整準する。計測範囲の中心に測量用ポールを立てる。測量用ポールは、測量で一般に用いられる周知のポールであり、例えば、赤と白のストライプが10cm幅で形成されている。ポール上の上側の計測点をA、下側の計測点をBとする。
[D-1] Theodolite coordinate system in the world coordinate system Obtaining a homogeneous transformation matrix from the world coordinate system to the theodolite coordinate system will be described. First, mount the theodolite and total station on a tripod. Set up each tripod so that the measurement range is included in the field of view of each camera. Level the theodolite and total station using a spirit level. Place a surveying pole in the center of the measurement range. A surveying pole is a well-known pole commonly used in surveying, and has, for example, red and white stripes 10 cm wide. Let the upper measurement point on the pole be A, and the lower measurement point B.

各セオドライトないし各トータルステーションにおいて、ポール上の計測点Aを視準し、YawA及びPitchAを読む。Yawをロックして計測点Bを視準し、PitchBを読む。YawAをセオドライトやトータルステーションの初期Yaw角度として設定する。すなわち、YawAでYawをリセットする。At each theodolite or each total station, aim at measurement point A on the pole and read Yaw A and Pitch A. Lock Yaw, aim at measurement point B, and read Pitch B. Set Yaw A as the initial Yaw angle of the theodolite or total station. In other words, Yaw A resets Yaw.

各セオドライトないし各トータルステーションにおいて、以下のように座標系を設定する。各セオドライトないし各トータルステーションの中心を原点とし、z軸を、Yaw=YawA及びPitch=0(水平)にとり、x軸をPitch=90°の方向(垂直)にとる。In each theodolite or each total station, set the coordinate system as follows. The origin is the center of each theodolite or each total station, the z-axis is set at Yaw=Yaw A and Pitch=0 (horizontal), and the x-axis is set at pitch=90° (vertical).

トータルステーションの座標系を座標系{0}とする。セオドライトの座標系を基準に反時計回りに座標系{1},{2},..,{M}とする。ここで、Mはセオドライトの番号である。M=3である。 Let the coordinate system of the total station be the coordinate system {0}. Let the coordinate system be {1}, {2}, .., {M} counterclockwise based on the coordinate system of the theodolite. Here, M is the theodolite number. M=3.

ポールの計測点Bにおいて、グローバル座標{a}を設定する。z軸とx軸はトータルステーションの座標系{0}のz軸とx軸に一致させる。 Global coordinates {a} are set at measurement point B of the pole. The z-axis and x-axis are made to coincide with the z-axis and x-axis of the total station coordinate system {0}.

カメラマウンタ(例えば、1つのトータルステーションと複数のセオドライト)間のYaw角度をセオドライトないし各トータルステーションを用いて計測する。例えば、座標系{0}から座標系{1}のYaw角度をα01によって表す。この測定においては、ターゲットとなるセオドライトないしトータルステーションの振り子錘の先端をターゲット(特徴点)とする。複数のカメラマウンタ間のYaw角度を計測することで、角度αij(i=0,…,M;J=0,…M;i≠j)を取得する。The Yaw angle between a camera mount (eg, one total station and multiple theodolites) is measured using the theodolite or each total station. For example, the Yaw angle from the coordinate system {0} to the coordinate system {1} is represented by α 01 . In this measurement, the tip of the pendulum weight of the target theodolite or total station is used as the target (feature point). By measuring the Yaw angle between multiple camera mounters, the angle α ij (i=0,…,M;J=0,…M;i≠j) is obtained.

計測点Aと計測点Bの距離が既知であることを用いて、三角法によってワールド座標系からのセオドライト座標系への同次変換行列

Figure 0007395189000027
を取得するUsing the fact that the distance between measurement point A and measurement point B is known, use trigonometry to transform the homogeneous transformation matrix from the world coordinate system to the theodolite coordinate system.
Figure 0007395189000027
get

[D-2]カメラの内部パラメータ
カメラの内部パラメータの取得について説明する。各カメラユニットは、セオドライトないしトータルステーションのYaw回転と一体で回転可能な水平面上の固定された4つのカメラを備えている。カメラは、セクター角度22.5°で扇形状に軸

Figure 0007395189000028
でセットされており、軸はz-x平面に対して対称である。各軸を軸
Figure 0007395189000029
回りに9.65°で回転させる。[D-2] Internal parameters of camera Acquisition of internal parameters of the camera will be explained. Each camera unit has four cameras fixed on a horizontal plane that can rotate in unison with the Yaw rotation of the theodolite or total station. The camera is pivoted in a fan shape with a sector angle of 22.5°.
Figure 0007395189000028
, and the axis is symmetrical about the zx plane. axis each axis
Figure 0007395189000029
Rotate by 9.65°.

カメラは、各トータルステーション及びセオドライトをi=0,…,Mとし、各トータルステーション及びセオドライト上の各カメラをYaw軸時計回りにj=0,1,2,3として、カメラ(i,j)のようにインデックスされる。 The camera is set as camera (i, j) with each total station and theodolite as i=0,...,M, and each camera on each total station and theodolite as j=0,1,2,3 clockwise on the Yaw axis. be indexed.

カメラはしぼり開放とし、∞にフォーカスする。光量はシャッタースピードでコントロールする。チェッカーボードを15の異なる位置及び向きでカメラに見せる。OpenCVのcvCalibrateCamera2を用いて、カメラの内部パラメータPij(i=1,…,M;J=1,2,3,4)を取得する。Set the camera wide open and focus on ∞. The amount of light is controlled by shutter speed. Show the checkerboard to the camera in 15 different positions and orientations. Obtain the camera's internal parameters P ij (i=1,…,M;J=1,2,3,4) using OpenCV's cvCalibrateCamera2.

カメラ座標系における3次元位置

Figure 0007395189000030
は、カメラ画像Iijにおいて、以下の形式で現れる。
Figure 0007395189000031
歪みフリー画像Iij *は、Pijを用いてIijから以下のような形式で生成され、
Figure 0007395189000032
歪みフリー画像は、カメラ座標系の3次元位置
Figure 0007395189000033

Figure 0007395189000034
で示す。3D position in camera coordinate system
Figure 0007395189000030
appears in the camera image I ij in the following format.
Figure 0007395189000031
The distortion-free image I ij * is generated from I ij using P ij in the following format,
Figure 0007395189000032
A distortion-free image is a 3D position in the camera coordinate system.
Figure 0007395189000033
of
Figure 0007395189000034
Indicated by

[D-3]セオドライト/トータルステーション座標系におけるカメラ座標系
セオドライト座標系からのカメラ座標系への同次変換行列の取得について説明する。水準器を用いてポールを垂直に立てる。セオドライト/トータルステーション(i=0,…,M)について、座標系{i}のセオドライトないしトータルステーションを、水準器を用いて垂直に立てる。カメラの高さを水平面から例えば1.7mとし、ポールからカメラまでの距離を例えば10mとする。セオドライト/トータルステーションのpitch角度を0°(水平)に設定する。そして、Yawを調整してポールの中心を視準し、Yaw角度(0°)をリセットする。
[D-3] Camera coordinate system in theodolite/total station coordinate system Obtaining a homogeneous transformation matrix from the theodolite coordinate system to the camera coordinate system will be described. Use a spirit level to set the pole vertically. For theodolite/total station (i=0,...,M), set the theodolite or total station in coordinate system {i} vertically using a spirit level. The height of the camera is, for example, 1.7 m from the horizontal plane, and the distance from the pole to the camera is, for example, 10 m. Set the pitch angle of the theodolite/total station to 0° (horizontal). Then, adjust the Yaw to aim at the center of the pole and reset the Yaw angle (0°).

ポールの軸上に2つの点A、Bを決定し、点A、Bの3次元位置を

Figure 0007395189000035
として三角法で計算する。セオドライトないしトータルステーションの回転角度を、β0=-33.75°、β1=-11.25°、β2=11.25°、β3=33.75°、に設定する。カメラ(j=0,…,M)、及び、角度(k=0,…,20)について、座標系{i}のYawをγjkに設定し、ここで、
Figure 0007395189000036
である。そして、角度(k=0,…,20)を変化させて、カメラ(i,j)の画像Iijkを取得する。
Figure 0007395189000037
上記2つの式を満たすように最適化計算を行って、セオドライト座標系からのカメラ座標系への同次変換行列
Figure 0007395189000038
を取得する。同様に、次のカメラjについて同時変換行列を取得し、次のセオドライトについて同様に計算を行って同時変換行列を取得する。Determine two points A and B on the axis of the pole, and calculate the three-dimensional positions of points A and B.
Figure 0007395189000035
Calculate using trigonometry as . The rotation angles of the theodolite or total station are set to β 0 =-33.75°, β 1 =-11.25°, β 2 = 11.25°, and β 3 = 33.75°. For the camera (j=0,…,M) and the angle (k=0,…,20), set Yaw of the coordinate system {i} to γ jk , where:
Figure 0007395189000036
It is. Then, by changing the angle (k=0,...,20), the image I ijk of the camera (i, j) is obtained.
Figure 0007395189000037
Optimization calculations are performed to satisfy the above two formulas, and a homogeneous transformation matrix from the theodolite coordinate system to the camera coordinate system is created.
Figure 0007395189000038
get. Similarly, a simultaneous transformation matrix is obtained for the next camera j, and a similar calculation is performed for the next theodolite to obtain a simultaneous transformation matrix.

本実施形態に係るキャリブレーションの結果は以下の3つの式で表される。

Figure 0007395189000039
The results of the calibration according to this embodiment are expressed by the following three equations.
Figure 0007395189000039

[E]モーションキャプチャシステム
図16を参照しつつ、本実施形態に係るモーションキャプチャシステムについて説明する。モーションキャプチャシステムは、いわゆるビデオモーションキャプチャシステム(非特許文献1参照)であり、モーションキャプチャ・カメラシステムで取得された複数のカメラの映像から深層学習を用いて推定した関節位置から3次元再構成を行うものであり、対象は、いかなるマーカやセンサを装着する必要がなく、計測空間も限定されない。複数台のRGBカメラの映像から完全非拘束でモーションキャプチャを行うもので、屋内の居住空間から、屋外でのスポーツフィールドの広い空間まで、原理的には映像が取得できれば、動作計測が可能となる技術である。以下に述べるモーションキャプチャシステムは、例示であり、本発明に係るモーションキャプチャ・カメラシステムと共に用いるモーションキャプチャを限定するものではなく、他の手法を採用してもよい。
[E] Motion Capture System The motion capture system according to this embodiment will be described with reference to FIG. 16. The motion capture system is a so-called video motion capture system (see Non-Patent Document 1), which performs 3D reconstruction from joint positions estimated using deep learning from images from multiple cameras acquired by a motion capture camera system. There is no need to attach any markers or sensors to the target, and the measurement space is not limited. Motion capture is performed completely unrestricted from images from multiple RGB cameras, and in principle, if images can be captured from indoor living spaces to large outdoor sports fields, it is possible to measure motion. It's technology. The motion capture system described below is an example and does not limit the motion capture used with the motion capture camera system according to the present invention, and other techniques may be employed.

1枚の画像に含まれる対象の数は限定されない。例えば、競技スポーツでは、カメラによって複数人の人間の動作を撮影することで、各画像には、複数の人間が含まれることになる。各画像において、前記複数の人間から選択された1人あるいは任意数の複数の人間の関節位置を取得する。1枚の画像に複数人が含まれている場合に、例えば、PAFとPCM(Zhe Cao, Tomas Simon, Shih-En Wei, and Yaser Sheikh. Realtime multi-person 2d pose estimation using part affinity fields. In Proceedings IEEE Conference on Computer Vision and Pattern Recognition. CVPR 2017, 2017.)を用いれば、各人毎に関節位置を同時に取得することができる。また、計測初期時に各人毎に関節位置を識別すれば、その後はフレーム間の連続性で関節位置を追跡することで、各人を識別することができる。モーションキャプチャシステムによる動作取得において、対象はリンク構造ないし多関節構造を備えている。典型的には対象は骨格構造を備えた人間であるが、対象はロボットであってもよい。 The number of objects included in one image is not limited. For example, in competitive sports, the actions of multiple people are photographed using a camera, so that each image includes multiple people. In each image, the joint positions of one person or an arbitrary number of people selected from the plurality of people are acquired. When multiple people are included in one image, for example, PAF and PCM (Zhe Cao, Tomas Simon, Shih-En Wei, and Yaser Sheikh. Realtime multi-person 2d pose estimation using part affinity fields. In Proceedings IEEE Conference on Computer Vision and Pattern Recognition. CVPR 2017, 2017.), it is possible to simultaneously obtain joint positions for each person. Furthermore, if the joint positions of each person are identified at the initial stage of measurement, then each person can be identified by tracking the joint positions with continuity between frames. In motion capture using a motion capture system, the object has a linked structure or an articulated structure. Typically the subject is a human with a skeletal structure, but the subject may also be a robot.

ビデオモーションキャプチャシステムは、対象の動作を取得するモーションキャプチャ・カメラシステムと、カメラシステムで取得された画像に基づいて、関節位置を含む特徴点(Keypoints)の位置の確からしさの程度を色強度で表示するヒートマップ情報を取得するヒートマップ取得部と、ヒートマップ取得部で取得されたヒートマップ情報を用いて対象の関節位置を取得する関節位置取得部と、関節位置取得部で取得された関節位置を平滑化する平滑化処理部と、対象の身体の骨格構造、ビデオシステムで取得された画像の時系列データ、関節位置取得部で取得された関節位置の時系列データ等を記憶する記憶部と、カメラシステムで取得された対象の画像や対象のポーズに対応する骨格構造等を表示するディスプレイと、を備えている。 The video motion capture system uses a motion capture camera system that captures the motion of the target, and a color intensity that measures the degree of certainty of the positions of keypoints, including joint positions, based on the images captured by the camera system. A heat map acquisition section that acquires heat map information to be displayed; a joint position acquisition section that acquires target joint positions using the heat map information acquired by the heat map acquisition section; and a joint position acquisition section that acquires target joint positions using the heat map information acquired by the heat map acquisition section. A smoothing processing unit that smoothes the position, and a storage unit that stores the skeletal structure of the target body, time-series data of images acquired by the video system, time-series data of joint positions acquired by the joint position acquisition unit, etc. and a display that displays an image of the target captured by the camera system and a skeletal structure corresponding to the pose of the target.

モーションキャプチャ・カメラシステムは複数のカメラを備え、複数の同期したカメラによって対象者の動作が撮影され、各カメラから所定のフレームレートでRGB画像が出力される。同時刻で取得された複数枚のカメラ画像がヒートマップ取得部に送信される。ヒートマップ取得部は、RGB画像に基づいてヒートマップを生成する。ヒートマップは、身体上の特徴点の位置の確からしさの尤度の空間分布を表す。ヒートマップ取得部は、入力画像に基づいて、各関節位置を含む身体上の特徴点(keypoints)の位置の確からしさの尤度の2次元あるいは3次元の空間分布を生成し、前記尤度の空間分布をヒートマップ形式で表示する。ヒートマップ取得部は、典型的には、畳み込みニューラルネットワーク(CNN)を用いて、入力された単一の画像から対象の身体上の特徴点の位置(典型的には関節位置)を、ヒートマップとして推定する。 A motion capture camera system is equipped with multiple cameras that capture the movements of a subject, and each camera outputs an RGB image at a predetermined frame rate. A plurality of camera images acquired at the same time are transmitted to the heat map acquisition unit. The heat map acquisition unit generates a heat map based on the RGB image. The heat map represents the spatial distribution of the likelihood of the location of feature points on the body. The heat map acquisition unit generates a two-dimensional or three-dimensional spatial distribution of the likelihood of the position of key points on the body including the positions of each joint based on the input image, and Display spatial distribution in heatmap format. The heat map acquisition unit typically uses a convolutional neural network (CNN) to extract the positions of feature points on the subject's body (typically joint positions) from a single input image into a heat map. Estimated as.

生成されたヒートマップ情報は関節位置取得部に送信され、関節位置取得部によって関節位置が取得される。関節位置取得部は、ヒートマップ取得部から取得されたヒートマップ情報を用いて関節位置候補を推定し、当該関節位置候補を用いて逆運動学に基づく最適化計算を実行することで骨格モデルの関節角、関節位置を更新する。関節位置取得部は、ヒートマップデータに基づいて関節位置候補を推定する関節位置候補取得部と、関節位置候補を用いて逆運動学に基づく最適化計算を実行して関節角を算出する逆運動学計算部と、算出された関節角を用いて順運動学計算を実行して関節位置を算出する順運動学計算部と、を備えている。取得された関節位置データは、関節位置の時系列データとして記憶部に格納される。 The generated heat map information is transmitted to the joint position acquisition section, and the joint position is acquired by the joint position acquisition section. The joint position acquisition unit estimates joint position candidates using the heat map information acquired from the heat map acquisition unit, and executes optimization calculations based on inverse kinematics using the joint position candidates to estimate the skeletal model. Update joint angles and joint positions. The joint position acquisition unit includes a joint position candidate acquisition unit that estimates joint position candidates based on heat map data, and an inverse kinematics unit that calculates joint angles by performing optimization calculations based on inverse kinematics using the joint position candidates. and a forward kinematics calculation section that calculates joint positions by performing forward kinematics calculations using the calculated joint angles. The acquired joint position data is stored in the storage unit as time series data of joint positions.

取得された関節位置データは、平滑化処理部に送信され、平滑化関節位置、関節角が取得される。平滑化処理部の平滑化関節位置取得部では、取得された関節位置に対して、過去のフレームにおける関節位置を用いて、平滑化処理を実行することで、関節位置の時間的な動きを滑らかにする。平滑化された特徴点の位置を用いて再度逆運動学に基づく最適化計算を実行して、対象の関節角を取得し、取得した関節角を用いて順運動学計算を実行して、対象の関節位置を取得する。平滑化された関節位置ないし関節角、及び、対象の身体の骨格構造によって対象のポーズが決定され、ポーズの時系列データからなる対象の動作をディスプレイに表示する。 The acquired joint position data is transmitted to the smoothing processing section, and smoothed joint positions and joint angles are acquired. The smooth joint position acquisition unit of the smoothing processing unit smoothes the temporal movement of the joint positions by performing smoothing processing on the acquired joint positions using the joint positions in past frames. Make it. Optimization calculations based on inverse kinematics are performed again using the smoothed feature point positions to obtain the joint angles of the target, and forward kinematics calculations are performed using the obtained joint angles to determine the target joint angles. Get the joint positions of. The pose of the target is determined based on the smoothed joint positions or joint angles and the skeletal structure of the target's body, and the motion of the target consisting of time-series data of the pose is displayed on a display.

図17にモーションキャプチャを用いた動作解析の処理工程を例示する。本実施形態に係るモーションキャプチャにより対象の動作を取得する。取得した関節角及び関節位置の時系列データを取得する。さらにこれに基づいて、逆動力学計算により関節トルクを取得し、前記関節トルクを用いて、筋を模倣したワイヤーを備えた筋骨格モデルにおけるワイヤー張力を最適化計算(2次計画法や線形計画法)により取得し、前記ワイヤー張力を用いて筋活動度を算出し、筋活動度の程度に応じた色が割り当てられた筋骨格画像を生成し、視覚化された筋活動度を伴う筋骨格画像を所定のフレームレートで出力して動画としてディスプレイに表示する。このように、対象の運動の撮影から、運動時の対象の3次元ポーズの取得、運動に必要な筋活動の推定と可視化までを、自動的に効率的に行うことができる。
FIG. 17 illustrates the processing steps of motion analysis using motion capture. The motion of the target is acquired by motion capture according to this embodiment. Obtain time series data of the obtained joint angles and joint positions. Furthermore, based on this, the joint torque is obtained through inverse dynamics calculation, and the joint torque is used to optimize the wire tension in a musculoskeletal model equipped with wires that imitate muscles (quadratic programming or linear programming). method), the degree of muscle activity is calculated using the wire tension, a musculoskeletal image is assigned a color according to the degree of muscle activity, and a musculoskeletal image with the degree of muscle activity is visualized. Outputs images at a predetermined frame rate and displays them on a display as a video. In this way, it is possible to automatically and efficiently perform everything from photographing the movement of the target, obtaining the three-dimensional pose of the target during movement, and estimating and visualizing the muscle activity necessary for the movement.

Claims (24)

1つあるいは複数のカメラからなる複数のカメラユニットと、
各カメラユニットが搭載される複数のカメラマウンタと、
各カメラ画像を3次元再構成するためのカメラパラメータを取得するキャリブレーション手段と、
測角機能を備えた1つあるいは複数の測量機と、
を備えたモーションキャプチャ・カメラシステムであって、
前記カメラパラメータは、グローバル座標系における各カメラの位置・姿勢を表す外部パラメータを含み、
前記キャリブレーション手段は、グローバル座標系における各カメラマウンタの位置及び姿勢を用いて前記外部パラメータを取得するものであり、前記グローバル座標系におけるカメラマウンタの位置及び姿勢は、前記1つあるいは複数の測量機を用いて取得される、
モーションキャプチャ・カメラシステム。
a plurality of camera units consisting of one or more cameras;
multiple camera mounters on which each camera unit is mounted;
Calibration means for acquiring camera parameters for three-dimensionally reconstructing each camera image;
one or more surveying instruments equipped with an angle measurement function;
A motion capture camera system equipped with
The camera parameters include external parameters representing the position and orientation of each camera in the global coordinate system,
The calibration means acquires the external parameters using the position and orientation of each camera mounter in the global coordinate system, and the position and orientation of the camera mounter in the global coordinate system are determined by the one or more surveying methods. obtained using a machine,
Motion capture camera system.
前記1つあるいは複数の測量機のうちの1つあるいは複数の測量機は、測距機能を備えている、請求項1のモーションキャプチャ・カメラシステム。 The motion capture camera system according to claim 1, wherein one or more of the one or more surveying instruments has a distance measurement function. 前記複数のカメラマウンタの一部あるいは全部は、前記測量機である、請求項1、2いずれか1項に記載のモーションキャプチャ・カメラシステム。 The motion capture camera system according to claim 1, wherein some or all of the plurality of camera mounters are the surveying instruments. 前記複数のカメラマウンタの一部あるいは全部は、前記測量機によって測量可能な複数のマーカを備えている、請求項1、2いずれか1項に記載のモーションキャプチャ・カメラシステム。 3. The motion capture camera system according to claim 1, wherein some or all of the plurality of camera mounters are provided with a plurality of markers that can be measured by the surveying instrument. 前記カメラマウンタは、3つ以上のマーカを備えた平面を有している、請求項4に記載のモーションキャプチャ・カメラシステム。 5. The motion capture camera system according to claim 4, wherein the camera mounter has a plane with three or more markers. 前記キャリブレーション手段は、各カメラの撮像空間に位置する複数の特徴点のグローバル座標系での位置情報と、各カメラ画像での各特徴点の位置情報と、を用いるものであり、
前記複数の特徴点のグローバル座標系での位置情報は、前記測量機を用いて取得される、
請求項1~5いずれか1項に記載のモーションキャプチャ・カメラシステム。
The calibration means uses position information in a global coordinate system of a plurality of feature points located in the imaging space of each camera, and position information of each feature point in each camera image,
Position information of the plurality of feature points in a global coordinate system is obtained using the surveying instrument,
The motion capture camera system according to any one of claims 1 to 5.
前記キャリブレーション手段は、各カメラマウンタ座標系における当該カメラマウンタに搭載された各カメラの位置・姿勢を用いる、
請求項1~6いずれか1項に記載のモーションキャプチャ・カメラシステム。
The calibration means uses the position and orientation of each camera mounted on the camera mounter in each camera mounter coordinate system,
The motion capture camera system according to any one of claims 1 to 6.
前記キャリブレーション手段は、各カメラマウンタ座標系における当該カメラマウンタに搭載された各カメラの位置・姿勢を取得する手段を備える、
請求項7に記載のモーションキャプチャ・カメラシステム。
The calibration means includes means for acquiring the position and orientation of each camera mounted on the camera mounter in each camera mounter coordinate system.
The motion capture camera system according to claim 7.
前記カメラマウンタは前記測量機から構成されており、
前記カメラマウンタ座標系における前記カメラの位置及び姿勢は、前記測量機を用いて取得される、
請求項8に記載のモーションキャプチャ・カメラシステム。
The camera mounter is comprised of the surveying instrument,
the position and orientation of the camera in the camera mounter coordinate system are obtained using the surveying instrument;
The motion capture camera system according to claim 8.
前記キャリブレーション手段は、最適化計算によって前記外部パラメータを取得する、
請求項1~9いずれか1項に記載のモーションキャプチャ・カメラシステム。
The calibration means obtains the external parameters by optimization calculation.
The motion capture camera system according to any one of claims 1 to 9.
前記最適化計算において、グローバル座標系の位置情報が未知の1つあるいは複数の特徴点に対応する各カメラ画像の位置情報が用いられる、
請求項10に記載のモーションキャプチャ・カメラシステム
In the optimization calculation, position information of each camera image corresponding to one or more feature points whose position information in the global coordinate system is unknown is used.
Motion capture camera system according to claim 10
前記カメラパラメータは、光学パラメータと内部パラメータを含み、前記キャリブレーション手段は、最適化計算によって前記外部パラメータ及び前記光学パラメータと前記内部パラメータを取得する、請求項10、11いずれか1項に記載のモーションキャプチャ・カメラシステム。 The camera parameters include optical parameters and internal parameters, and the calibration means obtains the external parameters, the optical parameters, and the internal parameters by optimization calculation. Motion capture camera system. 1つあるいは複数のカメラからなる複数のカメラユニットと、
各カメラユニットが搭載される複数のカメラマウンタと、
を備えたモーションキャプチャ・カメラシステムにおいて、複数のカメラ画像を3次元再構成するためのカメラパラメータを取得するキャリブレーション方法であって、
前記カメラパラメータは、グローバル座標系における各カメラの位置・姿勢を表す外部パラメータを含み、
測角機能を備えた1つあるいは複数の測量機を用いて、グローバル座標系における各カメラマウンタの位置及び姿勢を取得すること、
グローバル座標系における各カメラマウンタの位置及び姿勢を用いて前記外部パラメータを取得すること、
を含むキャリブレーション方法。
a plurality of camera units consisting of one or more cameras;
multiple camera mounters on which each camera unit is mounted;
A calibration method for acquiring camera parameters for three-dimensionally reconstructing multiple camera images in a motion capture camera system equipped with
The camera parameters include external parameters representing the position and orientation of each camera in the global coordinate system,
obtaining the position and orientation of each camera mounter in a global coordinate system using one or more surveying instruments equipped with an angle measurement function;
obtaining the external parameters using the position and orientation of each camera mounter in a global coordinate system;
Calibration methods including.
前記1つあるいは複数の測量機のうちの1つあるいは複数の測量機は、測距機能を備えている、請求項13に記載のモーションキャプチャ・カメラシステム。 14. The motion capture camera system according to claim 13, wherein one or more of the one or more surveying instruments has a ranging function. 前記複数のカメラマウンタの一部あるいは全部は、前記測量機であり、複数の測定点の測量データを用いてグローバル座標系における各カメラマウンタの位置及び姿勢を取得する、請求項13、14いずれか1項に記載のキャリブレーション方法。 Any one of claims 13 and 14, wherein some or all of the plurality of camera mounters are the surveying instruments, and obtain the position and orientation of each camera mounter in a global coordinate system using survey data of a plurality of measurement points. The calibration method described in Section 1. 前記複数のカメラマウンタの一部あるいは全部は、前記測量機によって測量可能な複数のマーカを備えており、複数のマーカの測量データを用いてグローバル座標系における当該カメラマウンタの位置及び姿勢を取得する、請求項13、14いずれか1項に記載のキャリブレーション方法。 Some or all of the plurality of camera mounters are equipped with a plurality of markers that can be surveyed by the surveying instrument, and the position and orientation of the camera mounter in the global coordinate system are acquired using survey data of the plurality of markers. The calibration method according to any one of claims 13 and 14. 前記カメラマウンタは、3つ以上のマーカを備えた平面を有している、請求項16に記載のキャリブレーション方法。 17. The calibration method according to claim 16, wherein the camera mounter has a flat surface with three or more markers. 前記外部パラメータの取得において、各カメラの撮像空間に位置する複数の複数の特徴点のグローバル座標系での位置情報と、各カメラ画像での各特徴点の位置情報と、が用いられ、
前記複数の特徴点のグローバル座標系での位置情報は、前記測量機を用いて取得される、
請求項13~17いずれか1項に記載のキャリブレーション方法。
In acquiring the external parameters, position information in a global coordinate system of a plurality of feature points located in the imaging space of each camera and position information of each feature point in each camera image are used,
Position information of the plurality of feature points in a global coordinate system is obtained using the surveying instrument,
The calibration method according to any one of claims 13 to 17.
前記外部パラメータの取得において、各カメラマウンタ座標系における当該カメラマウンタに搭載された各カメラの位置・姿勢を用いる、
請求項13~18いずれか1項に記載のキャリブレーション方法。
In acquiring the external parameters, the position and orientation of each camera mounted on the camera mounter in each camera mounter coordinate system are used;
The calibration method according to any one of claims 13 to 18.
各カメラマウンタ座標系における当該カメラマウンタに搭載された各カメラの位置・姿勢を取得することを含む、
請求項19に記載のキャリブレーション方法。
including obtaining the position and orientation of each camera mounted on the camera mounter in each camera mounter coordinate system;
The calibration method according to claim 19.
前記カメラマウンタは前記測量機から構成されており、
前記カメラマウンタ座標系における前記カメラの位置及び姿勢を、前記測量機を用いて取得する、
請求項20に記載のキャリブレーション方法。
The camera mounter is comprised of the surveying instrument,
acquiring the position and orientation of the camera in the camera mounter coordinate system using the surveying instrument;
The calibration method according to claim 20.
最適化計算によって前記外部パラメータを取得する、請求項13~21いずれか1項に記載のキャリブレーション方法。 The calibration method according to any one of claims 13 to 21, wherein the external parameters are obtained by optimization calculation. 前記最適化計算において、グローバル座標系の位置情報が未知の1つあるいは複数の特徴点に対応する各カメラ画像の位置情報が用いられる、
請求項22に記載のキャリブレーション方法。
In the optimization calculation, position information of each camera image corresponding to one or more feature points whose position information in the global coordinate system is unknown is used.
The calibration method according to claim 22.
前記カメラパラメータは、光学パラメータと内部パラメータを含み、最適化計算によって前記外部パラメータ及び前記光学パラメータと前記内部パラメータを取得する、請求項22、23いずれか1項に記載のキャリブレーション方法。 24. The calibration method according to claim 22, wherein the camera parameters include optical parameters and internal parameters, and the external parameters, the optical parameters, and the internal parameters are obtained by optimization calculation.
JP2020557612A 2018-11-22 2019-11-21 Motion capture camera system and calibration method Active JP7395189B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862770766P 2018-11-22 2018-11-22
US62/770,766 2018-11-22
PCT/JP2019/045552 WO2020105697A1 (en) 2018-11-22 2019-11-21 Motion capture camera system and calibration method

Publications (2)

Publication Number Publication Date
JPWO2020105697A1 JPWO2020105697A1 (en) 2021-10-07
JP7395189B2 true JP7395189B2 (en) 2023-12-11

Family

ID=70774209

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020557612A Active JP7395189B2 (en) 2018-11-22 2019-11-21 Motion capture camera system and calibration method

Country Status (2)

Country Link
JP (1) JP7395189B2 (en)
WO (1) WO2020105697A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113487726A (en) * 2021-07-12 2021-10-08 北京未来天远科技开发有限公司 Motion capture system and method
CN115861592B (en) * 2023-02-16 2023-05-26 之江实验室 Method and system for optimizing speed precision of motion capture system based on neural network

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004053374A (en) 2002-07-19 2004-02-19 Jr Nishi Nippon Consultants Kk Method for measuring deviation of track and system for measuring deviation of track used for the same
JP2004163292A (en) 2002-11-13 2004-06-10 Topcon Corp Survey system and electronic storage medium
JP2011170487A (en) 2010-02-17 2011-09-01 Kddi Corp Virtual point of view image generation method and program based on geometric information of camera placement in large space
JP2011238222A (en) 2010-04-30 2011-11-24 Liberovision Ag Computer execution method for estimating pause of multi-joint object model, computer execution method for rendering virtual image, and computer execution method for determining segmentalization of source image segment
JP2016126425A (en) 2014-12-26 2016-07-11 Kddi株式会社 Free viewpoint image generation device, method and program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3728900B2 (en) * 1997-10-17 2005-12-21 ソニー株式会社 Calibration method and apparatus, and calibration data generation method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004053374A (en) 2002-07-19 2004-02-19 Jr Nishi Nippon Consultants Kk Method for measuring deviation of track and system for measuring deviation of track used for the same
JP2004163292A (en) 2002-11-13 2004-06-10 Topcon Corp Survey system and electronic storage medium
JP2011170487A (en) 2010-02-17 2011-09-01 Kddi Corp Virtual point of view image generation method and program based on geometric information of camera placement in large space
JP2011238222A (en) 2010-04-30 2011-11-24 Liberovision Ag Computer execution method for estimating pause of multi-joint object model, computer execution method for rendering virtual image, and computer execution method for determining segmentalization of source image segment
JP2016126425A (en) 2014-12-26 2016-07-11 Kddi株式会社 Free viewpoint image generation device, method and program

Also Published As

Publication number Publication date
WO2020105697A1 (en) 2020-05-28
JPWO2020105697A1 (en) 2021-10-07

Similar Documents

Publication Publication Date Title
CN108961395B (en) A method of three dimensional spatial scene is rebuild based on taking pictures
US7751651B2 (en) Processing architecture for automatic image registration
KR101308744B1 (en) System for drawing digital map
JP4758842B2 (en) Video object trajectory image composition device, video object trajectory image display device, and program thereof
US20140327676A1 (en) View Point Representation for 3-D Scenes
US20080219509A1 (en) Tracking an object with multiple asynchronous cameras
US20070104361A1 (en) Device and method for calibrating an imaging device for generating three dimensional surface models of moving objects
WO1994029670A1 (en) Apparatus for measuring position of moving object
CN113160325B (en) Multi-camera high-precision automatic calibration method based on evolutionary algorithm
JP7427188B2 (en) 3D pose acquisition method and device
JP7395189B2 (en) Motion capture camera system and calibration method
CN108050928A (en) A kind of vision measurer and a kind of vision measuring method
JP4109075B2 (en) Method for measuring the rotation characteristics and flight characteristics of a sphere, and a device for measuring the rotation characteristics and flight characteristics of a sphere
CN106447733A (en) Cervical vertebra motion degree and motion axial line position determining method, system and device
US11880953B2 (en) Augmented reality system for viewing an event with distributed computing
Kassebaum et al. 3-D target-based distributed smart camera network localization
US11645819B2 (en) Augmented reality system for viewing an event with mode based on crowd sourced images
Teo Video-based point cloud generation using multiple action cameras
JP2005270484A (en) Calibration method
CN111735414A (en) Area metering system and metering method based on panoramic three-dimensional imaging
US20230118280A1 (en) Use of multiple registrations for augmented reality system for viewing an event
Rau et al. Systematic calibration for a backpacked spherical photogrammetry imaging system
Nocerino et al. Low-cost human motion capture system for postural analysis onboard ships
CN112254678B (en) Indoor 3D information acquisition equipment and method
CN112304250B (en) Three-dimensional matching equipment and method between moving objects

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221020

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231101

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231121

R150 Certificate of patent or registration of utility model

Ref document number: 7395189

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150