JP3631266B2 - Measuring device for moving objects - Google Patents

Measuring device for moving objects Download PDF

Info

Publication number
JP3631266B2
JP3631266B2 JP10010294A JP10010294A JP3631266B2 JP 3631266 B2 JP3631266 B2 JP 3631266B2 JP 10010294 A JP10010294 A JP 10010294A JP 10010294 A JP10010294 A JP 10010294A JP 3631266 B2 JP3631266 B2 JP 3631266B2
Authority
JP
Japan
Prior art keywords
target object
image
camera
moving object
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP10010294A
Other languages
Japanese (ja)
Other versions
JPH07306012A (en
Inventor
亨 中村
茂純 桑島
Original Assignee
株式会社応用計測研究所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社応用計測研究所 filed Critical 株式会社応用計測研究所
Priority to JP10010294A priority Critical patent/JP3631266B2/en
Publication of JPH07306012A publication Critical patent/JPH07306012A/en
Application granted granted Critical
Publication of JP3631266B2 publication Critical patent/JP3631266B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【産業上の利用分野】
本発明は、移動物体を撮像してその撮像画像を用いて計測を行う装置に利用する。本発明は特にスポーツ競技のような移動する競技者を撮像し、その競技者の3次元空間座標情報を抽出しその3次元空間位置情報に基づいて各種画像処理を行う装置に利用するに適する。
【0002】
【従来の技術】
移動物体を計測する方法として、移動物体を撮像しその映像信号を処理することにより移動物体の3次元空間位置情報を求めることが行われている。
【0003】
出願人は、このような移動物体を計測する装置として、雲台に載置された撮像装置により得られた映像信号に雲台や撮像装置から得られた情報を位置情報として重畳する技術を特願平5−082178として、移動物体を撮像した信号からその移動物体の3次元空間座標を演算する技術を特願平5−082209、移動物体の動きを予測または計測しておき、カメラ装置を制御する技術を特願平5−138805、得られた移動物体の3次元空間座標情報を映像データに重畳する技術を特願平5−139629、映像信号から移動物体を識別する技術を特願平5−137857、撮像手段の各種パラメータの計測および撮像手段の制御装置に関する技術を特願平5−261223として出願した。また、このような移動物体の3次元空間座標を計測する撮像手段で撮像した画像をその計測した3次元空間座標情報に基づいて任意の空間位置または時間軸上にあるカメラで撮像した画像に変換する技術を特願平5−221363(いずれも本願出願時に未公開)として出願した。
【0004】
【発明が解決しようとする課題】
上述の出願人の出願した技術は、一人の選手につき少なくとも一つの雲台に載置されたカメラのような追尾機能付きカメラヘッドにより追尾する方式を基本とするものであり、そのままでは複数の競技者が同じフィールド上を走り回ったり、3次元空間内を移動するような競技の撮像には向いていない問題がある。
【0005】
その一つは撮像に伴う誤差やエラーが発生することである。
【0006】
例えば、サッカーのように、計測対象となる競技者が多い競技の場合、選手一人あたり2台以上のカメラヘッドを用いると、計測誤差はカメラヘッドの性能まで少なくなるが、高価なカメラヘッドを多数配置する必要がある。また、選手が固定の平面上を移動するとした拘束平面の技術を用いた場合には、撮像対象の対象物体である選手が平面から離れるとこれは誤差となる。特に拘束平面に対して浅い角度で撮像する場合には誤差が大きくなり、サッカーなどの撮像では、競技フィールドの広さに対してカメラの位置が低いため、浅い角度でしか観察できなく、抽出された3次元空間座標情報に誤差が大きくなる問題がある。さらに選手の姿勢も大きく変化するため、選手の位置の誤差が大きくなる問題がある。
【0007】
また、選手が移動するにつれて選手とカメラヘッドとがなす角度も変化し、例えば選手同士が重なりあった場合にも、当該選手を追尾していたカメラヘッドにより撮像された画像から演算された3次元空間情報に誤りが発生することがある。
【0008】
さらに、カメラヘッドは、高精度で、安定した画像を出すことが重要であるが、メカニカルに構成された機構であり、屋外といった比較的環境の悪い場所に設置されることが多いため、定期的な検査が必要となる。この場合、工業用の計測に使用されるものは連続計測が必要であるため、検査のために測定を一時中断する必要があった。
【0009】
本発明の目的は、高価な雲台付きのカメラヘッドの使用数を減少して撮像手段は複数の対象物体を撮像する複数の撮像手段の組み合わせにより、複数の選手を撮像し、複数の撮像手段の画像情報に基づいて各々選手の3次元空間情報を計測できる計測装置を提供することにある。
【0010】
本発明の他の目的は、複数の撮像手段を選手の位置により動的に切り替えながら選手を撮像することにより情報としての冗長度を上げ、移動物体の撮像による誤差やエラーを少なくできる計測装置を提供することにある。
【0011】
本発明の他の目的は、カラーカメラのキャリブレーションを自動的にあるいは定期的に行うことで、照明のむらや気象条件等の環境条件に左右されずに長時間にわたって精度のよい計測を行うことができる計測装置を提供することにある。
【0012】
【課題を解決するための手段】
本発明の第一の観点は、複数の移動物体を少ない撮像手段で撮像して移動物体の3次元空間位置情報を計測する技術であり、複数の移動物体を撮像し、その撮像された移動物体の画像から3次元空間情報を抽出する移動物体の計測装置において、前記移動物体を撮像する撮像手段は3以上設けられ、このそれぞれの撮像手段は、当該撮像手段の視野内に撮像対象となる複数の移動物体を共通に入れて撮像する手段を含み、各撮像手段からの画像内の対象物体の情報に基づいてそれぞれの対象物体の3次元情報を演算する手段を備えることを特徴とする。この構成によりより少ない撮像手段で多くの移動物体の3次元空間位置情報を得ることができる。
【0013】
また、撮像された共通視野内の複数の対象物体の画像について、この対象物体ごとにその対象物体の画像の性質に基づいて対象物体を抽出し複数の対象物体のそれぞれの画像内位置を求める画像内位置計測手段と、この手段で計測した画像内位置情報に基づいて複数の対象物体の3次元空間情報を演算する3次元位置演算手段とを備えることができる。この構成により撮像手段の視野の内に複数の対象物体を入れて撮像し、これらの対象物体の3次元空間情報を得ることができる。
【0014】
また、撮像手段は、そのカメラのパラメータが固定の固定カメラと、カメラのパラメータが可変の追尾機能付きカメラとを含むことができる。これにより高価な追尾機能付きカメラの数を低減することができる。
【0015】
また、画像内位置演算手段は、撮像された複数の対象物体ごとに対象物体の画像を囲むウィンドウを発生し当該ウィンドウを対象物体の動きに合わせて移動させる手段と、撮像手段から見える複数の対象物体の位置関係に基づいて撮像手段ごとに複数のウィンドウの間のプライオリティが1画像単位ごとに設定されたプライオリティテーブルと、このテーブルを参照して、ウィンドウが重なった複数の対象物体については隠れる対象物体の画像情報の出力を抑止する手段とを備えることができる。この構成により、複数の対象物体が重なったような場合の画像処理ができ、計測エラーの発生を抑止できる。
【0016】
また、3以上の撮像手段で撮像された移動物体の画像に基づいて得られた移動物体の少なくとも3以上の3次元空間情報を比較し、計測に間違いがないか否かを判定する手段を含むことができる。この構成により、計測エラーの発生を抑止でき、計測精度を高めることができる。
【0017】
本発明の第二の観点は、撮像手段の動的な切り替えに係る技術であり、移動物体を撮像し、その撮像された移動物体の画像から3次元空間情報を抽出する移動物体の計測装置において、前記移動物体を撮像する撮像手段は3以上組み合わされて少なくとも1個の移動物体を同時に撮像し、計測するに適切な位置の撮像手段になるように、移動物体の移動にしたがって前記3以上の撮像手段の1個の撮像手段を他の適当な位置の撮像手段に切り替えていく手段を備えることを特徴とする。この構成により、データの冗長度を高め、計測エラーの発生を減らすことができる。
【0018】
また、撮像手段を他の適当な位置の撮像手段に切り替えていく手段は、切り替えの条件の境界領域においてヒステリシスをもたせる手段を含むことが好ましい。これにより切り替えが頻発しないようにできる。
【0019】
また前回の切り替えから一定の時間が経過してから切り替えを行うようにする手段を含むことも好ましい。これにより、対象物体の移動速度が小さい場合に切り替えが頻発しないようにでき、画像の切り替えが不自然にならないようにできる。
【0020】
また、撮像手段の切り替えは、3以上の撮像手段の間の角度が広くなるように切り替える。この構成により、全体として計測誤差が小さくなる計測が可能となる。
【0021】
また、切り替えによって新たに参加する撮像手段は、他の撮像手段からの画像に基づいて撮像すべき対象物体を撮像できる角度および画角を求め、かつ画像内の撮像すべき対象物体が存在する領域にウィンドウを設定し、そのウィンドウ内の対象物体を抽出するための検出条件を学習する手段を含むことができる。この構成により撮像手段を切り替える場合に新たに参加する撮像手段の設定を自動的にできる。
【0022】
また、前記撮像手段が切り替えられた前後の画像データに基づいて、測定データを比較し誤り測定があるか否かを判定する手段を含むことができる。これにより切り替え前後のエラーを検出し、故障を発見できる。
【0023】
また、移動物体が複数ある場合に、撮像対象となる移動物体に優先順位を付け優先順位が高い物体に優先的に撮像手段を割り付ける手段を含むことが好ましい。撮像手段の数に制限がある場合、対象物体やシーンによって複数の移動物体に優先順位を設けることで、一番見たい移動物体あるいはシーンが優先的にもっともよい条件のもとで撮像することができる。
【0024】
本発明の第三の観点は、カメラのキャリブレーションに係る技術であり、複数の移動物体を撮像し、その撮像された移動物体の画像から3次元空間情報を抽出する移動物体の計測装置において、前記移動物体を撮像する撮像手段は3以上設けられ、前記撮像手段は、カラーカメラを含み、キャリブレーションポイントの位置の教示および記録手段を持ち、教示位置にある白色のキャリブレーションポイントを自動で撮像し白バランスをとる手段を含むことを特徴とする。これにより照明むらや気象条件等により撮像条件が変動しても、その条件の変動に対応してカメラの白バランスを再調整して精度が高い計測を行うことができる。
【0025】
また、キャリブレーションポイントとして色見本を設け、教示位置にある色見本のキャリブレーションポイントを自動で撮像しこの見本色をサンプリングして対象物体の対象色として記録することもできる。これにより同様に撮像条件の変動に対して精度の高い計測を行うことができる。
【0026】
さらに、キャリブレーションポイントを複数設置することが好ましい。これにより撮像カメラの位置、対象物体の位置等に対応してキャリブレーションを行うことができ、キャリブレーション時間を短縮でき、また照明光線の状況に対応したキャリブレーションを行うことができる。
【0027】
【作用】
対象物体が固定の平面である拘束平面上を移動するとして対象物体の3次元空間位置を計測する場合には、一つの対象物体に対して一つのカメラヘッドで撮像すればよい。しかし、拘束平面の制約を設けずに、対象物体の3次元空間位置を計測するためには、一つの対象物体が複数のカメラヘッドによって撮像される必要がある。この場合、複数の対象物体を同時に計測する場合には、対象物体同士の距離が近い場合には1台のカメラヘッドの視野で複数の対象物体を撮像することが可能である。この1台のカメラヘッドで撮像された画面内の複数の対象物体の画像内位置を求め、さらに複数のカメラヘッド(少なくとも2つのカメラヘッド)により撮像された同一の対象物体の画像内位置情報に基づいて、複数の対象物体の3次元空間情報(以下3次元情報という)を演算することができる。
【0028】
このような同一画像内での複数の対象物体の画像内位置は、対象物体ごとに画像内にウィンドウを設けて、対象物体を色などの特徴抽出によって背景から抽出してその図心を求め、対象物体ごとの画像内位置を演算することによって求める。そして、この画像内位置情報に基づき、複数のカメラからの画像によってそれぞれ求められた対象物体ごとの画像内位置情報と、カメラの位置情報(追尾カメラヘッドの場合には、その追尾によって変動するカメラのパラメータも含む)とから、対象物体ごとの3次元情報を演算できる。このカメラとしては、固定カメラも用いることができ、この場合、追尾機能付きのカメラヘッドに比べて測定精度は劣るが変動のカメラのパラメータを得られないだけであり、3次元情報の演算方式には基本的に相違はない。
【0029】
この場合、複数の対象物体とカメラとの位置関係は、対象物体が移動することにより常に変動するものであるため、演算された対象物体の3次元情報に基づいて、当該カメラから見える複数の対象物体の位置関係を画像単位(例えばフィールドごとに)プライオリティテーブルとして設定し、当該カメラからの画像情報の出力では対象物体によって隠される対象物体の画像情報はマスクするようにして、ウィンドウの重なりによる誤差を少なくするようにする。
【0030】
また対象物体とカメラヘッドとの関係は固定する必要がないため、どのカメラヘッドがどの対象物体を撮像するかの割り当てを動的に変更する。この場合、複数のカメラヘッドの割り当ては、例えば3台のカメラヘッドで対象物体を撮像しておき、その内の一つを意識的に余らせ、他の適切な撮像位置にあるカメラヘッドによる撮像に切り替えることで、対象物体の動きに合わせて動的に変更する。このカメラヘッドの切り替え変更は対象物体と3台のカメラヘッドのなす角度、あるいはカメラヘッドの位置と対象物体との位置などにより、より適切なカメラヘッドによる撮像に連続的に切り替える。これによりカメラヘッドでの撮像情報は冗長度が高くなるため、撮像時のエラーを検出し易くなり、誤差も少なくすることができる。
【0031】
さらに、カメラヘッドが故障したときも情報の冗長度が高くなるため、故障したカメラヘッドを使わずに計測することができる。
【0032】
このカメラヘッドを切り替えたとき、新たに加入するカメラヘッドは、他の現在撮像しているカメラヘッドからの情報に基づいて、対象物体をその視野内にとらえるように角度や画角を設定してその撮像範囲を設定する。そして対象物体の特徴を抽出する検出条件の学習を行って、対象物体を抽出する。
【0033】
また、撮像に際しては白色あるいカラー色のキャリブレーションポイントを設けておき、撮像中に定期的にあるい手動で、白色あるいは色のキャリブレーションを行う。これにより照明むらや太陽光線の変動等の撮影条件の変動があってもこの変動に対応してカメラのパラメータ等を再調整できるので、長時間にわたってより精度の高い計測を行うことができる。
【0034】
【実施例】
以下図面を参照して本発明の実施例を説明する。
【0035】
(第1実施例)
図1は、本発明の第1実施例の撮像手段の配置例を示すもので、複数の撮像対象物体を撮影してその3次元空間位置を演算するものである。この例では、一例としてサッカー競技を配置された6台の追尾ヘッドMH1〜6、6台の固定カメラFC1〜FC6により撮影して選手の3次元情報を計測する例を示している。
このような構成において、本実施例は、複数の移動物体である選手を撮像し、その撮像された選手の画像から選手の3次元情報を抽出する移動物体の計測装置において、本発明の特徴として前記移動物体を撮像する撮像手段としての追尾ヘッドMH1〜6、固定カメラFC1〜FC6は3以上設けられ、この複数のそれぞれの撮像手段である追尾ヘッドMH1〜6、固定カメラFC1〜FC6は、当該カメラの視野内に撮像対象となる複数の選手を共通に入れて撮像する手段を含み、各カメラからの画像内の各選手の情報に基づいてそれぞれの対象物体の3次元情報を演算する手段を備えている。
【0036】
以下本実施例の動作を説明する。
【0037】
サッカーのように対象物体が非常に多く、また動きが広範囲で複雑な場合は、単純に対象物体1つで2台のヘッドとすると非常に多くのヘッドを必要とする。撮影範囲が広い割りには浅い角度でしか撮影できないことが多く、ヘッドから遠い選手が手前の選手の影になって見えなくなる場合もある。そのときは別の方向から観察することが必要となる。
【0038】
3次元位置計測では2台のヘッドで撮影された対象物体が同一である必要があるため、対象物体が複数になると、2台のヘッドで撮影された画像で対応させるなければならない。チームが違えばユニフォームの色などで簡単に見分けられるが、同じチームの選手がごちゃごちゃいると人間でもわからなくなる。そのため2枚の画像での対応付けを間違える可能性がある。ヘッドが2台だけでは対応付けを間違ったとしても検出の方法はないが、3台以上になれば対応付けを間違ったことが検出可能となる。この場合、すべてのヘッドが同じように対応付けを間違う、つまり完全に二人の選手をいれかえることがなければ、少なくともどれかのヘッドの画像が対応付けを間違っていることの検出ができる。3台のヘッドの観察している方向が違えば見え方が異なるため、二人を入れ替える可能性はかなり低い。
【0039】
このようなことからつねに1つの対象物体について別の方向から3台のヘッドで撮影されることが必要である。また、画像としてもデータとしても欲しいのはゴール近く場合が多い。そのため、ゴール近くの精度が得られるようなヘッドの配置が望ましい。
【0040】
図1はヘッドの配置とキャリブレーションポイントの配置の例を示している。この例では6台の追尾ヘッドMH1〜MH6と、6台の固定カメラFC1〜FC6を配置している。追尾ヘッドは、カメラの向き、レンズの画角などを変えることができる。そして通常は3台で一組になって対象物体を計測する。図1の例ではMH1、MH2、MH3の3台が組となっている。このとき測定できるのは3台のヘッドの視野の共有部分で図中のハッチング領域となる。追尾ヘッドのレンズの画角を広く制御すれば広い範囲の計測ができるが、対象物体をできるだけアップで捉え、背景の影響を減らすことで精度の良い安定した計測を実現するのが追尾ヘッドの特徴であるから、あまり画角を広げないで対象物体を撮影する。そのため捉えきれない対象物体ができてしまうことをさけるために固定カメラを併用する。固定カメラは、広角レンズで撮影し、測定対象範囲たとえばコート内は、どこであっても少なくとも2台、通常は3台の視野に入るように調整されている。この例では追尾ヘッドと固定カメラの数と配置が同じであるがその必要はない。
【0041】
図1には4個のキャリブレーションポイントCP1、CP2、CP3、CP4を配置している例が示されている。すべてのヘッドよりどれかのキャリブレーションポイントが撮像できるようにしてある。このキャリブレーションポイントは、ヘッドの位置やレンズのパラメータなどの校正等に使用できるが、ここでは、カラーカメラの白バランスや対象とする移動物体の色見本を設定するために使用する。それぞれのキャリブレーションポイントは、図17のようになっている。必要な見本色の数だけ用意しておけばよいが、ここでは、片方にチームの選手のユニホームの見本色だけ用意してある。COL1は白色の半球、COL2は一方のチームの選手のシャツの見本色の半球、COL3は他方のチームの選手のシャツの見本色の半球というようになっている。
【0042】
対象物体の位置計測の精度は、追尾ヘッドの場合は、観察範囲が小さく、また雲台の精度も良いため対象物体の3次元位置精度はかなり高いものが得られる。それに対して固定カメラの場合、撮像素子に高画素のものを使ってもレンズが広角で広い範囲を観察するためあまり精度はよくない。
【0043】
各選手の位置を平面的に表現する場合、図2のようにその位置の精度も併せて表現することができる。3台以上の追尾カメラの視野の共有部分21内の選手は、その位置が高精度で得られるため符号22のように小さい点で表現するのに対して、それ以外の選手は符号23のように大きな円で位置を表現する。この円の半径は、固定カメラの画素数などできまる精度を表現している。精度の評価は固定カメラの場合、カメラの配置がきまれば、場所に応じた精度が計算できて、3次元座標を求めるときにどの組み合わせを使うか決まれば、それに応じた精度を計算する事ができるため、動的に円の大きさを変更することは可能である。
【0044】
次に1つの追尾ヘッド、あるいはカメラで複数の対象物体を計測する動作を説明する。計測系は、追尾ヘッドと固定カメラでは、カメラパラメータが変化するかどうかが違うだけで基本的な画像処理においては同一でよい。
【0045】
図3に3次元位置計測のブロック図を示す。この例では3台の追尾ヘッド、あるいは固定カメラを一組にしているが、さらに多くを組にすることもできる。また追尾ヘッド同士3台でも、追尾ヘッドと固定カメラを混ぜて3台でもよい。固定カメラを混ぜた場合は、精度は固定カメラできまるため3次元位置の計算では注意が必要である。
【0046】
3台のカメラ31で撮影された画像は、それぞれのカメラに対応した画像内位置計測ユニット32で対象物体の画像内での位置が計測される。対象物体は、1つの画像内で複数存在するため、この画像内での位置データも同時に複数得られる。3次元の座標を求めるためには、少なくとも2つのカメラで得られる画像内位置が必要になる。この例では3台のカメラを使い、3次元座標の計算はその中の2台のデータを使う。組み合わせは3種類あるため、3次元位置計算ユニット34は3組ある。これらからはそれぞれ対象物体の数だけの3次元座標情報35が出力される。図3では画像内位置計測ユニット32の出力と3次元位置計算ユニット34は、組み合わせに対応したような接続33となっているが、実際には3次元位置計算は計算機内でソフトウェアによって行われるため、この図のような配線ではなく、通信回線を使ったものとなる。
【0047】
複数の対象物体を3次元計測する場合に対応が間違っていなければ、3組の3次元位置計算ユニット34の出力は同じはずであるが、対応付けを間違うなど何らかの原因で、3次元位置の計算がきちんとできない場合は、3組のデータは違った値になる。このことを利用して照合ユニット36が、出力される3次元位置が正しいのかどうかを調べ、その情報も位置と同時に出力する。3次元座標の計算には誤差が必ず含まれるから、3組のデータが完全に一致する事はまずない、照合ユニット36ではそのことを考慮の上エラーかどうかの判断を行う。照合ユニット36の出力は対象物体の数だけの3次元情報37と、エラー信号38である。エラー信号38が出力された場合の処理は、たとえば対象物体の対応が間違った場合はそれを修正するような、基本的にはオペレータによるマニュアル処理となるが、同時撮影カメラの数を増やしたりして、どのカメラの画像内でエラーしたのか、などエラーの情報をより多くすることである程度の自動化が可能となる。
【0048】
次に画像内位置計測ユニット32について図4で説明する。この画像内位置計測ユニットは、入力された画像信号から、色彩等の対象物体の特徴を抽出して二値化信号に変換する検出回路(DET0〜DET3)41と、この変換された二値化信号に基づいて、この抽出された二値化信号の組み合わせがセットされたオブジェクトテーブル(OBJ TBL)42と、対象物体ごとにウィンドウを発生するウィンドウジェネレータ(WIND0〜WIND4)43と、設定されたウィンドウの優先度に対応して抽出された対象物体の情報を出力するプライオリティテーブル(PR TBL)44と、出力された対象物体ごとの情報をカウントして、その画像内位置情報を出力する位置カウンタ(0〜4)45と、コントローラ46とを備える。
【0049】
カメラで撮影された画像は、色の違い、輝度の違い、あるいはパターン相関などを使って二値化される(検出回路DET0〜DET3)。たとえば色の違いを使った場合は、図5のような画像が撮影されたとき、両端の選手のシャツの色を抜き出すと図6のようになる。またその選手のトランクスの色を抜き出すと図7のようになる。また真ん中の選手はシャツとトランクスと同じ色のためその色で抜き出すと図8のようになる。選手の画像内の位置としてはこの抜き出された図形の図心を使うことにすると、真ん中の選手と両端の選手で同じにならない。そのためこの抜き出された信号をそのまま使うのではなく、組み合わせて使う。図4のオブジェクトテーブル42がこの働きをする。真ん中の選手は抜き出されたままでよいためテーブルはそのまま通過する。両端の選手については、シャツを抜き出した信号とトランクスを抜き出した信号のORをとるようにオブジェクトテーブル42がセットされる。ORの信号は図9のようになる。この例では画像から3色を抜き出し(D0,D1,D2)、それらから2つの信号を得ている。図4のOD2は使われていない。
【0050】
抜き出された信号は、真ん中の選手のように画面内で対象物体として1つの場合はその図心位置を対象物体の位置とすることができるが、両端の選手のように複数の対象物体がある場合抜き出した信号だけでは区別がつかない。そのためウインドウを使う。図8、図9で点線がウインドウでその内部でそれぞれの図心位置を計算する。このウインドウの位置と大きさをつくるのが図4のウィンドウジェネレータ43である。この例では5つ(WIND0〜WIND4)あるから同時に5個までの対象物体を同一画像で撮影できる。対象物体の図心計算は、ウインドウ内で行われるが、ウインドウにはプライオリティがつけられていてウインドウ同士の重なりに対してウインドウ毎に処理を変えてある。
【0051】
プライオリティを簡単に説明すると図10のように2つの対象物体に対して異なるプライオリティのウインドウがかかっていて重なったとき、図11のようにほかのウインドウがある部分は対象物体が見えないウインドウと、図12のようにほかのウインドウに関係なく対象物体がみえるウインドウというような処理ができる。図11では本来の対象物体は、もう一つのウインドウで隠され図心が少し移動する。また図12では別の対象物体もウインドウ内部に入ってしまい、図13のように両方を加えた図形の図心位置を計測してしまう。対象物体の動きに応じてその図心位置にウインドウを移動させるように制御していると、2つの対象物体が離れたときに図13のようになったウインドウは元々とは別の対象物体を追いかける可能性がある。このため2台のカメラでの対応がつかなくなり3次元演算でエラーとなる。しかし、もしすべてのカメラで同じような対象物体の取り違えが発生するとエラーの検出ができなくなる。そのため、ウインドウのプライオリティはカメラ毎に変えておく。それによって対象物体の取り違えが発生してもカメラ毎に違った状態になりエラーとして検出できるようになる。このプライオリティをつくるのが図4のプライオリティテーブル44である。プライオリティはウインドウの数が3つ以上の場合は順番をつけることもできる。またこのプライオリティテーブル44はフィールド周期で書き換えができるから、選手の3次元位置を元にしてそれぞれのカメラのプライオリティをフィールド周期で変更することもできる。プライオリティテーブル44の出力は位置カウンタ45で積算され画面内の位置として出力される。コントローラ46はこの位置を使ってフィールド毎に次のフィールドのためにウインドウの大きさと位置を更新する。以上の処理をすることによって、1つのカメラ画像で複数の対象物体を、値が正しいかどうかの情報を付加しながら計測することができる。
【0052】
上述の画面内での複数の対象物体の位置計測を行うためのウインドウ技術とその対象物体位置のカウント技術については、先に出願人が提案した動作計測装置(特開平3−26281)に示した技術でも実現できる。すなわち、複数のウインドウを発生させ、このウインドウを対象物体の動作にしたがって移動させる技術およびこの対象物体の座標位置をカウントする技術を用いることにより、複数の対象物体の画像内の座標位置を対象物体ごとに求めることができる。
【0053】
3次元位置計算ユニット34は、例えば先願に係る特願平5−261223に説明した対象物体の3次元空間座標演算技術を用いればよい。この技術は拘束平面を用いる技術であるが、画像位置測定結果に基づいて対象物体をカメラの投影中心から画面内の対象物体の位置(例えば図心)までのベクトルを考え、このベクトルに基づいてあらかじめ測定されているパラメータを用いることで拘束平面上の対象物体の3次元空間座標を演算することができる。拘束平面を用いない場合であっても、画像単位に対象物体の拘束平面に当たる投影面を設定することで3次元空間座標を演算できる。また先願に係る特願平5−82209に記載した対象物体が移動する3次元実空間座標系の領域を設定し、それを二次元領域に写像して対象物体の3次元空間座標を演算する技術を用いることもできる。
【0054】
なお、対象物体の3次元情報を演算するために、あらかじめ値の知られた目標を例えばフィールド内において追尾ヘッドや固定カメラで撮影して3次元情報を演算し、実際の対象物体の撮影時の3次元情報の演算に必要な追尾ヘッドのパラメータや、固定カメラと目標との関係等の係数をあらかじめ求めておくことがよい。
【0055】
サッカーのように広い範囲を動く対象を長時間計測する場合、場所によって照明の状態に差があったり、晴れたり曇ったりして時間的に変動があったりする。このような場合、対象物体の色情報を利用して対象物体の位置を計測していると、対象物体がうまく計測できなくなることがある。このようなときにはカメラの白バランスを調整し直すのが効果がある。また、計測の対象とする色(サッカーの場合でいえばユニホームの色)を再登録することも効果がある。さらには両方することがよい。これを行うためにあらかじめ白色と対象のユニホームの色を見本色として固定の位置においておき、その見本色をモニタリングすることで照明等の変動に適応的についていくことができる。
【0056】
ここでは、キャリブレーションポイントを利用してカメラの白バランスの調整と対象色の登録、再登録を行う。その手順と処理は以下のとおりに行う。
【0057】
1.カメラヘッドの設置時またはシステムの電源投入時にキャリブレーションポイントを視野に入れ、具体的には、手動で雲台を動かしキャリブレーションポイントを視野に入れ、次にカーソルで見本色の半球を指定し、見本色の位置を登録する。必要であれば白バランスの調整、見本色の登録を同時に実行する。
【0058】
2.非計測時に登録された位置で白バランスを自動的に再調整する。この再調整は具体的には1.において手動で行ったと同じ動作を登録されている見本色の半球の位置に対して行えばよい。
【0059】
3.非計測時に登録された色で見本色を自動的に再登録する。
【0060】
4.新規に計測に参加するときにその寸前に2.または3.の再登録を行う。
【0061】
5.定期的にカメラヘッドを非計測状態にして2.または3.を実行する。その間は、ほかのカメラヘッドが計測を代行するか冗長度のない計測状態になる。
【0062】
6.キャリブレーションポイントが複数ある場合にはこれから計測する対象物体に一番近いもので実行する。
【0063】
キャリブレーションを自動または必要に応じて簡単に行うことができるので、長時間にわたる計測を安定して行うことができる。このため照明のむらや変化に強い計測ができる。また気象条件の変化に対しても影響を受けにくいシステムとすることができる。
【0064】
複数のキャリブレーションポイントを配置することで、移動物体の状態になるべく近い条件でモニタリングできるとよい。どのキャリブレーションポイントでキャリブレーションを行うかは対象物体までの距離だけでなく、対象物体の位置や太陽光線の方向などによって適応的に選択するとよい。さらに、キャリブレーションポイントと移動物体とが位置的に近いとキャリブレーションにかかるカメラヘッドの動作時間も短くてすむ。また、カメラヘッドの可動範囲から無理でない位置を簡単に選ぶこともできる。また、複数のキャリブレーションポイントのデータを総合して照明状況の変動分をあらかじめ推測し計測精度の把握に反映させることもできる。これらは広い範囲の計測の場合に特に有効である。
【0065】
(第2実施例)
次に追尾ヘッドの割り当ての変更について説明する。
【0066】
この例では3台のヘッドが1組になって計測を行う。図1の配置では6台のヘッドがあり、そのうちどの3台を使うかを決める。もっとも単純なのは図1のようにこちら側のコートが注目領域の場合はこちら側の3台、向こう側の時は向こう側の3台として切り替える方法である。しかし、これではセンターラインを越えるときに3台同時に切り替わってしまう。3次元計測では必ずいくらかの誤差があるため、切り替えた瞬間にデータが連続でなくなる。特に画像内での位置計測に色でユニフォームなどを抽出しその図心計算をしている場合など、カメラの見る方向が変化すると選手の見え方が変わるため図心の位置は変化してしまう。これが3台同時に切り替わるため3次元座標の計算をすると大きくずれがでる。また、カメラのばらつきや、見る方向で照明のあたり具合が変わったりするため、色で対象物体を抜き出している場合など、条件が変わる可能性もある。さらに自動追尾では、対象物体の3次元位置をつかってサーボをかけるため切り替えを行ったときに3次元座標の連続性を確保する必要がある。このようなことから切り替えに伴う影響を最小限度にするためこの例では一度に切り替えるのは3台のヘッドのうち1台だけとする。何らかの原因で切り替えに失敗しても少なくとも2台のヘッドは連続して計測しているから、3次元位置データはとぎれることがなくリカバリーが可能となる。
【0067】
ヘッドで撮影された画像が重要な場合、たとえば人気選手の映像を撮影する場合などは、選手の姿勢に応じて撮影する方向を選ぶという意味でヘッドを切り替えることもできるが、そのために計測用とは別の撮影用のカメラを計測データを元にコントロールしてもよい。
【0068】
また、ヘッドの据えつけ状態などの関係からヘッドの性能が十分にでない場合、ヘッドから遠いと精度が落ちるようなときは、近くのヘッドとなるように切り替えてもよい。
【0069】
3台のヘッドで対象物体を計測するのは、計測データの信頼性を確認する意味が最も重要である。そのためにはできる限り別の角度から対象物体を捉えるのがよく、この例ではできる限り別の角度から捉えるようにヘッドを切り替える。
【0070】
図14に切り替えの例を示す。この例では、3台のカメラによって撮影されている注目領域が、左上のAから右下のFへ移動するときの切り替えの状態を示す。注目領域がAの場合はヘッド1とヘッド2とヘッド6によって撮影される。注目領域が移動しBの位置にくると今度はヘッド1とヘッド3とヘッド6によって撮影されるようになる。この間にヘッド2だったのがヘッド3に切り替わった。同様にCの位置にくるとヘッド6がヘッド5に切り替わる。さらにDの位置ではヘッド5がヘッド4に切り替わる。Eの位置ではヘッド1がヘッド6に切り替わりFの位置ではヘッド6がヘッド5に切り替わる。このように切り替えは3つのうち必ず1つだけそれも隣に配置されるヘッドにだけ切り替わるようになっている。
【0071】
これは、例えば、対象物体がAからBの位置になると、ヘッド1とヘッド2とがなす角度が小さくなるため、この場合、データの信頼性を高めるために、ヘッド1およびヘッド6とのなす角度が大きくなるヘッド3を選んで切り替えている。この場合、ヘッド3に切り替えた場合に、ヘッド3から見た対象選手の前に他の選手がおり、その選手の背後になるような場合には、ヘッド1のままにして切り替えないこともできる。これは上述の第1実施例のカメラごとに設定したプライオリティテーブルを用いれば容易に判定できるので、このように切り替え領域に入ってもその条件によりヘッドを切り替えないことが可能である。
【0072】
これらのヘッドの切り替えは注目領域の位置によって、どの組み合わせとなるかはあらかじめ計算できるため、単純に注目領域の位置で切り替えることもできる。その場合でも切り替えにはヒステリシスをもたせ切り替わり目でばたばたしないようにする。この例では、ヘッドの配置に対称性があるため、単に注目領域の位置だけではどの3つを使うか確定しない。そのために注目領域の移動方向を考慮し、3台のヘッドのうち1台だけが隣に配置されているヘッドにのみ切り替わるようにしている。さらに、切り替え位置を越えた場合でも注目領域の移動速度が切り替える方向に対して小さい場合は、すぐには切り替えず、一定の時間待つようにしている。また切り替え方向の速度が非常に早い場合は、切り替え位置になる前から切り替え動作を行い、切り替えに一定の時間をかけるようになっている。
【0073】
複数の対象物体を複数のヘッドの組み合わせで追尾する場合には、すべての対象物体を同時に同じ条件たとえばヘッドの数、ヘッド同士のなす角度などを満たすことはできない場合が多い。特にヘッドの数を最低限度とした場合には難しくなる。
【0074】
このような場合、本発明では対象物体に優先順位を付け、優先順位の高い対象物体から条件を満たすようにヘッドを割り付ける。例えば優先順位が一番高い対象物体は常にもっともよい角度の3台のヘッドが割り付けられる。それ以外のヘッドを使って次の優先順位の対象物体を追尾する。このときヘッドの台数は足りる場合でも角度については条件は悪くなる。またさらに優先順位が下がると割り付けるヘッドの数を減らしたり、固定カメラを使ったりする。
【0075】
優先順位は、対象物体について固定的に付することもできるが、シーンに応じて一番見たい対象物体の優先順位を一番高くするように必要に応じてダイナミックに変動させることができる。この場合操作者等により対象物体に対して優先順位を付することができる。優先順位を変更した場合にすぐにすべてのヘッドの割り付けを変化させるとデータの連続性がなくなる可能性がある場合は、対象物体の位置の変化などで一部のヘッドの割り付けが替わる段階で、新しい優先順位に従って割り付けを行うことにして、すぐにすべてのヘッドの割り付けを同時に変更しないようにすることがよい。
【0076】
また、切り替わり目では一時的に4台が観察することになる。その間は異なった3組のデータが同時に得られる。もしその2組のデータにずれがある場合、切り替え時間の間に連続的になるように徐々に修正することでデータの連続性を保つ。このため、切り替えには一定の時間をかけるようになっている。
【0077】
切り替えの場合、今までの3台のヘッドに加えて新規に1台参入してくることになるが、その新規の1台の設定は次のように行う。簡単のため対象物体が1個の場合を図15にその様子を示す。図15のように新規参入ヘッドH2は今までのヘッドH1とは見る角度が異なる。そのためまず角度と画角を決めなければならない。たとえば追尾している1つの対象物体の位置に注目し、その物体が撮影できるような角度と画角をきめる。1つの対象物体であれば、大きさは今まで撮影してきた画像内の面積をつかって予測できるから、それが今までの画像と同様な画面の比率になるような画角を決める。また複数対象物体でウインドウを使っている場合は、ウインドウの大きさが同じくらいになるようにする。このときウインドウの大きさは、画面内での大きさではなく、対象物体がある位置に換算する必要がある。図16にウインドウを使った場合を示す。この図では相手側のヘッドの撮影範囲とウインドウの位置を相互に画像内に表示しているが、このようにすることで切り替わり目の制御のデバッグができる。ウインドウの位置が設定されたら、次は画像内での対象物体の検出条件を設定する。カメラ毎に検出条件を固定しておいてもよいが、色を使った検出で、時間の経過に伴って太陽光から人工光に変わったり、時間によって陰の具合が変わったりすることがあるため、この例では切り替え時に新たに設定している。新規参入ヘッドは今までのヘッドの計測データをつかえば対象物体が画像のどこにどのくらいの大きさで見えるか計算できる。この値をつかってウインドウの設定をするが、そのときに対象物体の代表点をいくつか求める。たとえば3次元位置とした点とその周辺エリアをえらぶ。新規参入ヘッドがこのエリアの位置の色を学習しそれを対象物体の色として抽出条件とする。また、輝度の2値化の場合などはあらたに設定したウインドウ内の輝度ヒストグラムをつかって2値化レベルを新たに設定する。それらの場合にもそれまでのデータから一定の範囲内でしか変動させないようにするなどしてもよい。あるいは、新たにもとめた検出条件と今までの検出条件を比較して、その差が大きいようだったらエラーとすることもできる。これによってヘッドの切り替わりで、同時に検出条件も更新することができる。
【0078】
また、画像を記録する手段と併用すればこの切り替わりの状態だけを記録しておくことで、あとで切り替わりが正しかったかどうかわかる。
【0079】
上述の新規参入ヘッドの検出条件の学習は、例えば出願人が先に出願にしたカラー画像から一定の色を識別して抽出する色識別装置の技術(特願平5−145084)および上述した映像信号から対象物体を分離する技術(特願平5−137857)を用いて行えばよい。
【0080】
以上のようにして、新規参入ヘッドの条件がそろうと、新規参入ヘッドをいれた新しい3台の組での計測を行える。このデータと今までの3台のデータを比較してその差が大きいようであれば、設定をしなおしたり、エラーとして切り替え失敗としてオペレータに注意を促すことができる。連続してエラーした場合は、新規参入ヘッドの故障が考えられる。そのためエラーしても計測を中止せず、切り替え自体をやめたり、あるいはもう一つ隣のヘッドに切り替えることを行うと、ヘッドの故障の影響を最小限度にくい止められ連続したデータが得られる。このような処理をするためにも、注目領域の速度を考慮して切り替えには一定時間をかけるようにした方がよい。
【0081】
【発明の効果】
本発明は、以上説明した構成により次の効果がある。
【0082】
(1)高価な追尾機能をもつカメラヘッドを多数用いることなく多数の競技者が移動するような競技等を少ない撮像用カメラにより撮像し、複数の移動物体の3次元情報を計測することができる。
【0083】
(2)広角度の視野をもつ固定カメラと高い計測精度をもつ追尾カメラヘッドとを組み合わせて対象物体を撮像できるため、必要な撮像用カメラ数を低減できる。
【0084】
(3)移動物体の移動に合わせて撮像用カメラの割り当てを動的に変更できるため、少ない誤差で3次元情報を得ることができる。
【0085】
(4)少なくとも3つの撮像用カメラで同時に対象物体を撮像しているため、たとえ一つの撮像用カメラにエラーが生じてもエラーの生じたことを検出できる。
【0086】
(5)3台以上の撮像用カメラにより撮像を行うため、対象物体について冗長度の高い情報を得ることができるため、エラーが発生しても対応することができる。
【0087】
(6)新規に参入する撮像用カメラは他のカメラの情報を用いてその撮像対象を視野内に入れるように自動的に制御され、またそのカメラも学習によって対象物体を抽出するので、自動的に切り替えることができる。
【0088】
(7)新規に参入した前後でデータのチェックを行うことで、カメラを切り替えたことによるエラーの検出ができる。
【0089】
(8)撮像用カメラの切り替えをヒステリシスをもって行い、あるいは前回の切り替えから一定時間を経過してから切り替えを行って、画像が急激に切り替わることがないため、切り替え境界部分で画像がばたばたと切り替わる状態が生ぜず、画像の切り替えが自然に滑らかにでき、不自然な感じを与えない。
【0090】
(9)対象物体に優先順位を付けてカメラの割り当てを行うため、最も優先順位が高く、精度の高い情報が要求される対象物体について、必要でかつ精度の高い撮像ができ十分な情報を得ることができる。
【0091】
(10)キャリブレーションポイントを設けて定期的にあるいは自動的にカメラの白バランスの再調整や色見本による再調整を行うので、照明むらや太陽光線の変化等の撮像環境条件の変動があっても、長時間にわたって対象物体を計測する場合でも精度のよい計測ができる。
【0092】
(11)複数のキャリブレーションポイントを配置してあるため、カメラのキャリブレーションのための動作時間を短縮でき、また対象物体の状態にもっとも近いキャリブレーションポイントを用いてキャリブレーションができるため撮像環境条件にもっとも適合したキャリブレーションを行うことができる。
【図面の簡単な説明】
【図1】本発明第1実施例のカメラヘッドおよびキャリブレーションポイントの配置例を説明する図。
【図2】撮影した選手の位置ととにもその精度を表現した例を示す図。
【図3】移動物体の3次元位置計測を行う装置構成を示すブロック図。
【図4】画像内位置計測ユニットの構成を説明するブロック図。
【図5】対象物体を撮影した画像の例。
【図6】画像から色の違いによって抜き出したシャツの画像を示す例。
【図7】画像から色の違いによって抜き出したトランクスの画像を示す例。
【図8】ウィンドウの例を示す図。
【図9】ウィンドウの例を示す図。
【図10】二つのウィンドウが重なった例を示す図。
【図11】ウィンドウにプライオリティ処理を行った例。
【図12】ウィンドウにプライオリティ処理を行った例。
【図13】エラーになるウィンドウの例。
【図14】カメラヘッドを対象物体の移動にしたがって切り替えていく組み合わせを説明する図。
【図15】新規参入のカメラヘッドとそれまでのカメラヘッドの視野の関係を示す図。
【図16】それまでのカメラヘッドの画像と新規参入のカメラヘッドの画像を示す図。
【図17】キャリブレーションポイントの例を示す図。
【符号の説明】
21 視野の共有部分
22、23 選手の位置
31 カメラ
32 画像内位置計測ユニット
33 接続
34 3次元位置計算ユニット
35 3次元座標情報
36 照合ユニット
37 3次元位置情報
38 エラー信号
41 検出回路
42 オブジェクトテーブル
43 ウィンドウジェネレータ
44 プライオリティテーブル
45 位置カウンタ
[0001]
[Industrial application fields]
The present invention is used in an apparatus that images a moving object and performs measurement using the captured image. The present invention is particularly suitable for use in an apparatus that images a moving athlete such as a sports competition, extracts the athlete's three-dimensional spatial coordinate information, and performs various image processing based on the three-dimensional spatial position information.
[0002]
[Prior art]
As a method for measuring a moving object, three-dimensional spatial position information of the moving object is obtained by imaging the moving object and processing the video signal.
[0003]
As an apparatus for measuring such a moving object, the applicant specializes in a technique of superimposing information obtained from the camera platform or the imaging device as position information on a video signal obtained by the imaging device placed on the camera platform. Japanese Patent Application No. 5-082178 discloses a technique for calculating a three-dimensional spatial coordinate of a moving object from a signal obtained by imaging the moving object. Japanese Patent Application No. Hei 5-082209 predicts or measures the movement of the moving object and controls the camera device. Japanese Patent Application No. 5-138805, Japanese Patent Application No. 5-139629, which superimposes the obtained three-dimensional spatial coordinate information of a moving object on video data, and Japanese Patent Application No. 5-5 Japanese Patent Application No. 5-261223 filed a technology relating to measurement of various parameters of the imaging means and a control device for the imaging means. In addition, an image captured by an imaging unit that measures the three-dimensional spatial coordinates of such a moving object is converted into an image captured by a camera on an arbitrary spatial position or time axis based on the measured three-dimensional spatial coordinate information. The application was filed as Japanese Patent Application No. 5-221363 (both unpublished at the time of filing this application).
[0004]
[Problems to be solved by the invention]
The technology applied by the above-mentioned applicant is based on a method of tracking by a camera head with a tracking function such as a camera mounted on at least one pan head for each player, and a plurality of competitions as it is. There is a problem that is not suitable for imaging a competition in which a person runs on the same field or moves in a three-dimensional space.
[0005]
One of them is that an error or error associated with imaging occurs.
[0006]
For example, in a competition where there are many athletes to be measured, such as soccer, if two or more camera heads are used per player, the measurement error is reduced to the performance of the camera head, but many expensive camera heads are used. Need to be placed. Further, in the case of using the constraint plane technique in which the player moves on a fixed plane, this is an error if the player who is the target object to be imaged moves away from the plane. In particular, when taking images at a shallow angle with respect to the constrained plane, the error becomes large. In imaging such as soccer, the camera position is low relative to the width of the competition field, so it can only be observed at a shallow angle and extracted. Further, there is a problem that an error becomes large in the three-dimensional space coordinate information. Furthermore, since the posture of the player changes greatly, there is a problem that an error in the position of the player becomes large.
[0007]
Further, as the player moves, the angle formed by the player and the camera head also changes. For example, even when the players overlap each other, the three-dimensional image calculated from the image captured by the camera head tracking the player. An error may occur in the spatial information.
[0008]
In addition, it is important for the camera head to produce a stable image with high accuracy, but it is a mechanically configured mechanism and is often installed in a relatively poor environment such as outdoors. Inspection is required. In this case, since what is used for industrial measurement needs continuous measurement, it was necessary to suspend the measurement for inspection.
[0009]
An object of the present invention is to reduce the number of use of expensive camera heads with a pan head, and the imaging means images a plurality of players by combining a plurality of imaging means for imaging a plurality of target objects, and a plurality of imaging means Another object of the present invention is to provide a measuring apparatus that can measure the three-dimensional spatial information of each player based on the image information.
[0010]
Another object of the present invention is to provide a measuring apparatus capable of increasing redundancy as information by imaging a player while dynamically switching a plurality of imaging means depending on the position of the player, and reducing errors and errors due to imaging of moving objects. It is to provide.
[0011]
Another object of the present invention is to perform accurate measurement over a long period of time without being influenced by environmental conditions such as uneven illumination and weather conditions by automatically or periodically calibrating the color camera. An object of the present invention is to provide a measuring device that can be used.
[0012]
[Means for Solving the Problems]
The first aspect of the present invention is a technique for measuring a plurality of moving objects by imaging a plurality of moving objects with a small number of imaging means, and imaging the plurality of moving objects. In the moving object measuring apparatus for extracting the three-dimensional spatial information from the image, three or more imaging means for imaging the moving object are provided, and each of the imaging means is a plurality of imaging targets in the field of view of the imaging means. And a means for calculating the three-dimensional information of each target object based on the information of the target object in the image from each imaging means. With this configuration, it is possible to obtain the three-dimensional spatial position information of many moving objects with less imaging means.
[0013]
Further, with respect to the images of the plurality of target objects in the common visual field, the target object is extracted for each target object based on the property of the image of the target object, and the position in the image of each of the plurality of target objects is obtained. An internal position measuring means and a 3D position calculating means for calculating 3D spatial information of a plurality of target objects based on the in-image position information measured by the means can be provided. With this configuration, it is possible to capture a plurality of target objects within the field of view of the imaging unit and obtain three-dimensional spatial information of these target objects.
[0014]
Further, the imaging means can include a fixed camera whose camera parameters are fixed, and a camera with a tracking function whose camera parameters are variable. Thereby, the number of expensive cameras with a tracking function can be reduced.
[0015]
The in-image position calculation means generates a window surrounding the target object image for each of the plurality of captured target objects, and moves the window according to the movement of the target object, and a plurality of targets visible from the imaging means. A priority table in which priorities between a plurality of windows are set for each image unit based on the positional relationship of objects for each image unit, and a target that is hidden for a plurality of target objects with overlapping windows by referring to this table Means for inhibiting the output of the image information of the object. With this configuration, it is possible to perform image processing when a plurality of target objects are overlapped, and to suppress the occurrence of measurement errors.
[0016]
Also included is a means for comparing at least three or more three-dimensional spatial information of the moving object obtained based on the image of the moving object imaged by three or more imaging means and determining whether or not there is an error in measurement. be able to. With this configuration, occurrence of measurement errors can be suppressed and measurement accuracy can be improved.
[0017]
According to a second aspect of the present invention, there is provided a technique relating to dynamic switching of imaging means, in a moving object measuring apparatus that images a moving object and extracts three-dimensional spatial information from the captured moving object image. The three or more imaging means for imaging the moving object are combined to image at least one moving object at the same time, so that the imaging means is at an appropriate position for measurement. It is characterized by comprising means for switching one imaging means of the imaging means to an imaging means at another appropriate position. With this configuration, data redundancy can be increased and measurement errors can be reduced.
[0018]
Moreover, it is preferable that the means for switching the imaging means to the imaging means at another appropriate position includes means for providing hysteresis in the boundary region of the switching condition. This prevents frequent switching.
[0019]
It is also preferable to include means for performing switching after a predetermined time has elapsed since the previous switching. Thereby, it is possible to prevent frequent switching when the moving speed of the target object is low, and to prevent unnatural switching of images.
[0020]
Further, the switching of the imaging means is performed so that the angle between the three or more imaging means becomes wide. With this configuration, it is possible to perform measurement with a small measurement error as a whole.
[0021]
In addition, an imaging unit that newly participates by switching obtains an angle and a field angle at which a target object to be captured can be captured based on an image from another imaging unit, and an area in which the target object to be captured exists in the image Means for setting a window and learning a detection condition for extracting a target object in the window. With this configuration, it is possible to automatically set the imaging unit to newly participate when switching the imaging unit.
[0022]
Further, it may include means for comparing measurement data and determining whether there is an error measurement based on image data before and after the imaging means is switched. As a result, errors before and after switching can be detected and a failure can be found.
[0023]
In addition, when there are a plurality of moving objects, it is preferable to include means for assigning priority to moving objects to be imaged and preferentially assigning imaging means to objects with high priority. When there is a limit on the number of imaging means, priority can be given to multiple moving objects depending on the target object or scene, so that the moving object or scene that you want to see most preferentially can be imaged under the best conditions. it can.
[0024]
A third aspect of the present invention is a technique relating to camera calibration, in a moving object measuring apparatus that images a plurality of moving objects and extracts three-dimensional spatial information from the captured moving object image. There are provided three or more imaging means for imaging the moving object, and the imaging means includes a color camera, has a calibration point position teaching and recording means, and automatically images a white calibration point at the teaching position. And white balance means. As a result, even if the imaging conditions fluctuate due to uneven illumination or weather conditions, the white balance of the camera can be readjusted and measurement with high accuracy can be performed in response to the fluctuations in the conditions.
[0025]
It is also possible to provide a color sample as a calibration point, automatically image the calibration point of the color sample at the teaching position, sample this sample color, and record it as the target color of the target object. Accordingly, it is possible to perform highly accurate measurement with respect to fluctuations in imaging conditions.
[0026]
Furthermore, it is preferable to install a plurality of calibration points. As a result, calibration can be performed according to the position of the imaging camera, the position of the target object, etc., the calibration time can be shortened, and calibration corresponding to the state of the illumination light beam can be performed.
[0027]
[Action]
When the three-dimensional spatial position of the target object is measured on the assumption that the target object moves on a fixed plane that is a fixed plane, one target head may be imaged with one camera head. However, in order to measure the three-dimensional spatial position of the target object without providing a constraint on the constraint plane, one target object needs to be imaged by a plurality of camera heads. In this case, when measuring a plurality of target objects at the same time, if the distance between the target objects is short, it is possible to image a plurality of target objects in the field of view of one camera head. The position in the image of a plurality of target objects in the screen imaged by this one camera head is obtained, and the position information in the image of the same target object imaged by a plurality of camera heads (at least two camera heads) is obtained. Based on this, it is possible to calculate three-dimensional spatial information (hereinafter referred to as three-dimensional information) of a plurality of target objects.
[0028]
The position in the image of the plurality of target objects in the same image is obtained by providing a window in the image for each target object, extracting the target object from the background by feature extraction such as color, and obtaining its centroid, It is obtained by calculating the position in the image for each target object. Then, based on the in-image position information, the in-image position information for each target object obtained from images from a plurality of cameras and the position information of the camera (in the case of a tracking camera head, a camera that fluctuates due to the tracking) 3D information for each target object can be calculated. As this camera, a fixed camera can also be used. In this case, the measurement accuracy is inferior to that of a camera head with a tracking function, but only the camera parameters that fluctuate cannot be obtained. There is basically no difference.
[0029]
In this case, since the positional relationship between the plurality of target objects and the camera constantly changes as the target object moves, a plurality of targets that can be seen from the camera based on the calculated three-dimensional information of the target object. The object positional relationship is set as a priority table in units of images (for each field, for example), and the image information output from the camera masks the image information of the target object hidden by the target object. Try to reduce.
[0030]
Since the relationship between the target object and the camera head does not need to be fixed, the assignment of which target image is captured by which camera head is dynamically changed. In this case, the assignment of a plurality of camera heads is performed by, for example, imaging a target object with three camera heads, leaving one of them consciously left, and imaging with a camera head at another appropriate imaging position. By switching to, it dynamically changes according to the movement of the target object. The change of the camera head is continuously switched to imaging by a more appropriate camera head depending on the angle formed by the target object and the three camera heads, or the position of the camera head and the target object. As a result, the information captured by the camera head has a high degree of redundancy, making it easier to detect errors during imaging and reducing errors.
[0031]
Furthermore, since the redundancy of information is increased even when the camera head fails, measurement can be performed without using the failed camera head.
[0032]
When this camera head is switched, the newly added camera head sets the angle and angle of view so that the target object is captured within the field of view based on information from the camera head that is currently imaging. The imaging range is set. Then, the detection condition for extracting the feature of the target object is learned, and the target object is extracted.
[0033]
In addition, a white or color calibration point is provided for imaging, and white or color calibration is performed periodically or manually during imaging. As a result, even if there are fluctuations in shooting conditions such as uneven illumination and fluctuations in sunlight, the camera parameters and the like can be readjusted in response to these fluctuations, so that more accurate measurement can be performed over a long period of time.
[0034]
【Example】
Embodiments of the present invention will be described below with reference to the drawings.
[0035]
(First embodiment)
FIG. 1 shows an example of the arrangement of image pickup means according to the first embodiment of the present invention. In this case, a plurality of image pickup target objects are photographed and their three-dimensional space positions are calculated. In this example, an example is shown in which three-dimensional information of a player is measured by photographing with six tracking heads MH1 to MH6 and six fixed cameras FC1 to FC6 in which a soccer game is arranged.
In such a configuration, the present embodiment is a feature of the present invention in a moving object measuring apparatus that images a player, which is a plurality of moving objects, and extracts three-dimensional information of the player from the captured image of the player. Three or more tracking heads MH1 to MH6 and fixed cameras FC1 to FC6 as imaging means for imaging the moving object are provided, and the tracking heads MH1 to MH6 and fixed cameras FC1 to FC6, which are the respective imaging means, Means for calculating a three-dimensional information of each target object based on information of each player in the image from each camera, including means for commonly imaging a plurality of players to be imaged within the field of view of the camera I have.
[0036]
The operation of this embodiment will be described below.
[0037]
When there are a large number of target objects such as soccer and the movement is wide and complex, if a single target object has two heads, a very large number of heads are required. For a wide shooting range, it is often possible to shoot only at a shallow angle, and a player far from the head may become invisible in the shadow of the player in front. In that case, it is necessary to observe from another direction.
[0038]
In the three-dimensional position measurement, the target objects photographed by the two heads need to be the same. Therefore, when there are a plurality of target objects, it is necessary to correspond with the images photographed by the two heads. If the teams are different, they can be easily identified by the color of the uniform, but if the players of the same team are messed up, people will not understand. Therefore, there is a possibility that the correspondence between the two images is wrong. If there is only two heads, there is no detection method even if the correspondence is wrong. However, if there are three or more heads, it is possible to detect that the correspondence is wrong. In this case, it is possible to detect that the images of at least one of the heads are incorrectly associated unless all the heads are associated with each other in the same manner, that is, unless two players are completely replaced. Since the viewing direction is different if the three heads are observing in different directions, the possibility of exchanging the two is quite low.
[0039]
For this reason, it is always necessary to photograph one target object with three heads from different directions. In many cases, what is desired as an image or data is close to the goal. Therefore, it is desirable to arrange the head so that the accuracy near the goal can be obtained.
[0040]
FIG. 1 shows an example of the arrangement of heads and the arrangement of calibration points. In this example, six tracking heads MH1 to MH6 and six fixed cameras FC1 to FC6 are arranged. The tracking head can change the direction of the camera, the angle of view of the lens, and the like. Usually, three units are used as a set to measure the target object. In the example of FIG. 1, three units MH1, MH2, and MH3 form a set. What can be measured at this time is a hatched area in the figure at a shared portion of the field of view of the three heads. A wide range of measurements is possible if the angle of view of the lens of the tracking head is widely controlled, but the tracking head is characterized by capturing the target object as much as possible and reducing the influence of the background to achieve accurate and stable measurement. Therefore, the target object is photographed without widening the angle of view. For this reason, a fixed camera is used in combination to avoid the formation of a target object that cannot be captured. The fixed camera is photographed with a wide-angle lens, and is adjusted so that at least two, usually three, fields of view are included in the measurement target range, for example, the court. In this example, the number and arrangement of the tracking head and the fixed camera are the same, but this is not necessary.
[0041]
FIG. 1 shows an example in which four calibration points CP1, CP2, CP3, and CP4 are arranged. Any one of the calibration points can be imaged from all the heads. This calibration point can be used for calibration of the head position, lens parameters, and the like. Here, the calibration point is used for setting the white balance of the color camera and the color sample of the target moving object. Each calibration point is as shown in FIG. It is sufficient to prepare as many sample colors as necessary, but here, only the sample colors of the team players' uniforms are prepared on one side. COL1 is a white hemisphere, COL2 is a sample color hemisphere of one team player's shirt, and COL3 is a sample color hemisphere of the other team player's shirt.
[0042]
With respect to the accuracy of the position measurement of the target object, the tracking head has a small observation range and a high precision of the pan head, so that the target object has a considerably high three-dimensional position accuracy. On the other hand, in the case of a fixed camera, even if a high-pixel image sensor is used, the accuracy of the lens is not so good because a wide angle is observed with a lens.
[0043]
When expressing the position of each player in a plane, the accuracy of the position can also be expressed as shown in FIG. The players in the shared portion 21 of the field of view of three or more tracking cameras are expressed by small points as indicated by reference numeral 22 because their positions are obtained with high precision, while the other players are indicated by reference numeral 23. The position is expressed by a large circle. The radius of this circle expresses the accuracy that can be achieved by the number of pixels of the fixed camera. In the case of a fixed camera, the accuracy can be calculated according to the location if the camera is located. If the combination to be used when obtaining the three-dimensional coordinates is determined, the accuracy can be calculated accordingly. Therefore, it is possible to dynamically change the size of the circle.
[0044]
Next, the operation of measuring a plurality of target objects with one tracking head or camera will be described. The measurement system may be the same in basic image processing except that the tracking head and the fixed camera differ in whether or not the camera parameter changes.
[0045]
FIG. 3 shows a block diagram of three-dimensional position measurement. In this example, three tracking heads or fixed cameras are combined into one set, but more can be combined. Further, three tracking heads may be used, or three tracking heads and a fixed camera may be mixed. When fixed cameras are mixed, care must be taken when calculating the three-dimensional position because the accuracy can be fixed.
[0046]
For the images taken by the three cameras 31, the position of the target object in the image is measured by the in-image position measurement unit 32 corresponding to each camera. Since there are a plurality of target objects in one image, a plurality of position data in the image can be obtained simultaneously. In order to obtain the three-dimensional coordinates, positions in the image obtained by at least two cameras are required. In this example, three cameras are used, and three-dimensional coordinate calculation uses two of them. Since there are three types of combinations, there are three sets of three-dimensional position calculation units 34. From these, three-dimensional coordinate information 35 corresponding to the number of target objects is output. In FIG. 3, the output of the in-image position measurement unit 32 and the three-dimensional position calculation unit 34 are connected 33 corresponding to the combination, but in reality, the three-dimensional position calculation is performed by software in the computer. Instead of the wiring as shown in this figure, a communication line is used.
[0047]
If the correspondence is not wrong when three-dimensionally measuring a plurality of target objects, the outputs of the three sets of three-dimensional position calculation units 34 should be the same, but the calculation of the three-dimensional position is caused by some reason such as incorrect correspondence. If you can't do it properly, the three sets of data will have different values. Using this fact, the collation unit 36 checks whether or not the output three-dimensional position is correct, and outputs the information simultaneously with the position. Since an error is always included in the calculation of the three-dimensional coordinates, the three sets of data are unlikely to be completely matched. The collation unit 36 determines whether there is an error in consideration of this fact. The output of the verification unit 36 is three-dimensional information 37 and error signals 38 corresponding to the number of target objects. The processing when the error signal 38 is output is basically manual processing by the operator such as correcting the target object if the correspondence of the target object is wrong, but the number of simultaneous photographing cameras may be increased. Thus, it is possible to automate to some extent by increasing the error information such as in which camera image the error has occurred.
[0048]
Next, the in-image position measurement unit 32 will be described with reference to FIG. The in-image position measurement unit includes a detection circuit (DET0 to DET3) 41 that extracts features of a target object such as a color from an input image signal and converts them into a binarized signal, and the converted binarization. Based on the signal, an object table (OBJ TBL) 42 in which a combination of the extracted binarized signals is set, a window generator (WIND0 to WIND4) 43 that generates a window for each target object, and a set window A priority table (PR TBL) 44 that outputs information on the target object extracted corresponding to the priority of the position, and a position counter that counts the information for each output target object and outputs the position information in the image ( 0-4) 45 and a controller 46.
[0049]
An image photographed by the camera is binarized using a difference in color, a difference in luminance, pattern correlation, or the like (detection circuits DET0 to DET3). For example, when different colors are used, when an image as shown in FIG. 5 is taken, the shirt colors of the players at both ends are extracted as shown in FIG. Fig. 7 shows the trunk color of the player. The middle player is the same color as the shirt and trunks. If the centroid of this extracted figure is used as the position in the player's image, the middle player and the players at both ends will not be the same. Therefore, the extracted signals are not used as they are, but are used in combination. The object table 42 of FIG. 4 performs this function. Since the middle player can remain extracted, the table passes as it is. For the players at both ends, the object table 42 is set so that the OR of the signal from which the shirt is extracted and the signal from which the trunks are extracted is taken. The OR signal is as shown in FIG. In this example, three colors are extracted from the image (D0, D1, D2), and two signals are obtained from them. OD2 in FIG. 4 is not used.
[0050]
When the extracted signal is one target object in the screen like the middle player, the centroid position can be set as the target object position. In some cases, the extracted signal alone is indistinguishable. Therefore, use a window. In FIG. 8 and FIG. 9, the dotted line is a window, and the respective centroid positions are calculated within the window. The window generator 43 in FIG. 4 creates the position and size of this window. In this example, since there are five (WIND0 to WIND4), up to five target objects can be photographed simultaneously with the same image. The centroid calculation of the target object is performed in the window, but the windows are given priority, and the processing is changed for each window with respect to the overlapping of the windows.
[0051]
The priority will be briefly described. When windows having different priorities are overlapped on two target objects as shown in FIG. 10 and overlapped with each other, a portion where there is another window as shown in FIG. As shown in FIG. 12, processing such as a window in which the target object can be seen regardless of other windows can be performed. In FIG. 11, the original target object is hidden by another window and the centroid moves slightly. In FIG. 12, another target object also enters the window, and the centroid position of the figure including both is measured as shown in FIG. If the window is moved to the centroid position in accordance with the movement of the target object, the window shown in FIG. 13 when the two target objects are separated from each other has a different target object. There is a possibility of chasing. For this reason, the correspondence between the two cameras is lost, and an error occurs in the three-dimensional calculation. However, if the same target object is mistaken for all cameras, the error cannot be detected. Therefore, the window priority is changed for each camera. As a result, even if the target object is mixed up, it becomes different for each camera and can be detected as an error. The priority table 44 in FIG. 4 creates this priority. The priority can also be set when the number of windows is three or more. Since the priority table 44 can be rewritten in the field cycle, the priority of each camera can be changed in the field cycle based on the three-dimensional position of the player. The output of the priority table 44 is integrated by the position counter 45 and output as a position in the screen. The controller 46 uses this position to update the window size and position for the next field for each field. By performing the above processing, it is possible to measure a plurality of target objects with one camera image while adding information about whether the value is correct.
[0052]
The window technique for measuring the positions of a plurality of target objects in the above-mentioned screen and the technique for counting the positions of the target objects are shown in the motion measurement device (JP-A-3-26281) previously proposed by the applicant. It can be realized with technology. That is, by using a technique for generating a plurality of windows and moving the windows according to the movement of the target object and a technique for counting the coordinate positions of the target object, the coordinate positions in the images of the target objects are determined as the target object. Can be determined for each.
[0053]
The three-dimensional position calculation unit 34 may use, for example, the three-dimensional spatial coordinate calculation technique of the target object described in Japanese Patent Application No. 5-261223 related to the prior application. This technology uses a constrained plane. Based on the image position measurement result, the target object is considered to be a vector from the projection center of the camera to the position of the target object in the screen (for example, the centroid). By using parameters measured in advance, the three-dimensional space coordinates of the target object on the constraint plane can be calculated. Even when the constraint plane is not used, the three-dimensional space coordinates can be calculated by setting a projection plane corresponding to the constraint plane of the target object for each image. Further, a region of the three-dimensional real space coordinate system in which the target object moves described in Japanese Patent Application No. 5-82209 described in the prior application is set, and this is mapped to a two-dimensional region to calculate the three-dimensional space coordinates of the target object. Technology can also be used.
[0054]
In order to calculate the three-dimensional information of the target object, a target whose value is known in advance is imaged with a tracking head or a fixed camera in the field, for example, and the three-dimensional information is calculated. It is preferable to obtain in advance parameters such as the tracking head parameters necessary for the calculation of the three-dimensional information and the relationship between the fixed camera and the target.
[0055]
When measuring an object that moves over a wide range, such as soccer, for a long time, there are differences in lighting conditions depending on the location, and there are variations in time due to sunny or cloudy conditions. In such a case, if the position of the target object is measured using the color information of the target object, the target object may not be measured well. In such a case, it is effective to readjust the white balance of the camera. It is also effective to re-register the color to be measured (the color of the uniform in the case of soccer). It is better to do both. In order to do this, the colors of white and the target uniform are set in fixed positions as sample colors in advance, and by monitoring the sample colors, it is possible to keep up with changes in illumination and the like.
[0056]
Here, adjustment of the white balance of the camera and registration and re-registration of the target color are performed using calibration points. The procedure and processing are as follows.
[0057]
1. At the time of camera head installation or system power-on, put the calibration point in the field of view, specifically move the pan head manually to bring the calibration point into the field of view, then specify the sample color hemisphere with the cursor, Register the position of the sample color. If necessary, white balance adjustment and sample color registration are executed simultaneously.
[0058]
2. The white balance is automatically readjusted at the registered position when not measuring. Specifically, this readjustment is as follows. It is sufficient to perform the same operation as that performed manually at the position of the registered sample hemisphere.
[0059]
3. The sample color is automatically re-registered with the color registered during non-measurement.
[0060]
4). 1. Immediately before entering a new measurement 2. Or 3. Re-register.
[0061]
5. 1. Regularly set the camera head to the non-measurement state. Or 3. Execute. In the meantime, the other camera head substitutes for measurement or enters a measurement state without redundancy.
[0062]
6). When there are a plurality of calibration points, the calibration point is closest to the target object to be measured.
[0063]
Since calibration can be performed automatically or simply as necessary, measurement over a long period of time can be performed stably. For this reason, it is possible to perform measurement that is resistant to uneven illumination and changes. In addition, the system can be made less susceptible to changes in weather conditions.
[0064]
By arranging a plurality of calibration points, it is desirable to monitor under conditions as close as possible to the state of the moving object. The calibration point to be calibrated may be selected adaptively depending not only on the distance to the target object but also on the position of the target object and the direction of the sunlight. Furthermore, if the calibration point and the moving object are close in position, the operation time of the camera head for calibration can be shortened. It is also possible to easily select an unreasonable position from the movable range of the camera head. It is also possible to estimate the variation of the lighting condition in advance by combining the data of a plurality of calibration points and reflect this in grasping the measurement accuracy. These are particularly effective for a wide range of measurements.
[0065]
(Second embodiment)
Next, a change in tracking head allocation will be described.
[0066]
In this example, three heads are used as one set for measurement. In the arrangement of FIG. 1, there are six heads, and it is decided which three of them are used. As shown in FIG. 1, the simplest method is to switch to three on this side when the coat on this side is the area of interest as shown in FIG. 1, and to switch to three on the other side when on the other side. However, in this case, when the center line is crossed, three units are switched simultaneously. Since there is always some error in 3D measurement, the data is not continuous at the moment of switching. In particular, when a uniform or the like is extracted by color for position measurement in the image and the centroid is calculated, the position of the centroid changes because the appearance of the player changes when the camera viewing direction changes. Since these three units are switched at the same time, a large deviation occurs when the three-dimensional coordinates are calculated. In addition, the condition of illumination may change depending on the variation of the camera and the lighting condition depending on the viewing direction. Furthermore, in automatic tracking, it is necessary to ensure the continuity of the three-dimensional coordinates when switching is performed in order to apply the servo using the three-dimensional position of the target object. For this reason, in order to minimize the influence of switching, in this example, only one of the three heads is switched at a time. Even if the switching fails for some reason, at least two heads continuously measure, so that the three-dimensional position data is not interrupted and can be recovered.
[0067]
If the image taken with the head is important, for example, when shooting a video of a popular player, the head can be switched in the sense of selecting the shooting direction according to the posture of the player, but for that purpose, May control another shooting camera based on the measurement data.
[0068]
In addition, when the performance of the head is not sufficient due to the installation state of the head or the like, when the accuracy is lowered if the head is far from the head, the head may be switched to a nearby head.
[0069]
Measuring the target object with the three heads is most important in terms of confirming the reliability of the measurement data. For this purpose, it is preferable to capture the target object from a different angle as much as possible. In this example, the head is switched so as to capture from a different angle as much as possible.
[0070]
FIG. 14 shows an example of switching. In this example, a state of switching when the attention area captured by three cameras moves from A in the upper left to F in the lower right is shown. When the attention area is A, images are taken by the head 1, the head 2, and the head 6. When the region of interest moves and comes to the position B, the head 1, head 3, and head 6 are now photographed. During this time, head 2 switched to head 3. Similarly, the head 6 is switched to the head 5 at the position C. Further, at the position D, the head 5 is switched to the head 4. At the position E, the head 1 is switched to the head 6, and at the position F, the head 6 is switched to the head 5. As described above, only one of the three switching modes is switched to the head arranged next to it.
[0071]
This is because, for example, when the target object is in the position from A to B, the angle formed by the head 1 and the head 2 becomes small. In this case, in order to increase the reliability of data, the head 1 and the head 6 are used. The head 3 that increases the angle is selected and switched. In this case, when switching to the head 3, there is another player in front of the target player viewed from the head 3, and if the player is behind the player, the head 1 can be left and not switched. . This can be easily determined by using the priority table set for each camera of the first embodiment described above. Therefore, even if the switching area is entered in this way, it is possible not to switch the head depending on the condition.
[0072]
Since the switching of these heads can be calculated in advance depending on the position of the attention area, it is also possible to simply switch at the position of the attention area. Even in such a case, the switching is provided with hysteresis so that it does not flutter at the switching point. In this example, since there is symmetry in the arrangement of the heads, it is not determined which three to use only by the position of the region of interest. Therefore, in consideration of the moving direction of the region of interest, only one of the three heads is switched to the next head. Further, even when the switching position is exceeded, if the moving speed of the region of interest is smaller than the switching direction, the region of interest is not switched immediately but waits for a certain time. When the speed in the switching direction is very fast, the switching operation is performed before the switching position is reached, and a certain time is taken for switching.
[0073]
When tracking a plurality of target objects with a combination of a plurality of heads, it is often the case that all the target objects cannot simultaneously satisfy the same condition, for example, the number of heads and the angle formed by the heads. This is particularly difficult when the number of heads is minimized.
[0074]
In such a case, in the present invention, priorities are assigned to the target objects, and the heads are assigned so as to satisfy the conditions from the target objects having higher priorities. For example, the target object with the highest priority is always assigned three heads with the best angle. Use the other heads to track the target object of the next priority. At this time, even if the number of heads is sufficient, the condition for the angle becomes worse. If the priority is further lowered, the number of heads to be allocated is reduced or a fixed camera is used.
[0075]
Although the priority order can be fixedly assigned to the target object, it can be dynamically changed as necessary so that the priority order of the target object that is most desired to be seen is highest according to the scene. In this case, a priority order can be given to the target object by an operator or the like. If there is a possibility that data continuity may be lost if you change the assignment of all the heads immediately after changing the priority order, at the stage where the assignment of some heads changes due to changes in the position of the target object, etc. It is preferable that the assignment is performed according to the new priority order so that the assignment of all the heads is not changed immediately.
[0076]
In addition, at the switching point, four vehicles are temporarily observed. In the meantime, three different sets of data are obtained simultaneously. If there is a discrepancy between the two sets of data, the continuity of the data is maintained by gradually correcting it so that it becomes continuous during the switching time. For this reason, switching takes a certain amount of time.
[0077]
In the case of switching, one new unit will be entered in addition to the three conventional heads. The setting of the new unit is performed as follows. FIG. 15 shows the case where there is one target object for simplicity. As shown in FIG. 15, the newly entered head H2 has a different viewing angle from the conventional head H1. Therefore, the angle and the angle of view must be determined first. For example, paying attention to the position of one target object that is being tracked, the angle and angle of view at which the object can be photographed are determined. For a single target object, the size can be predicted using the area in the image that has been taken so far, and therefore the angle of view is determined so that it has the same screen ratio as the previous image. In addition, when a window is used with a plurality of target objects, the windows are set to have the same size. At this time, the size of the window needs to be converted into a position where the target object is located, not the size in the screen. FIG. 16 shows a case where a window is used. In this figure, the shooting range of the other party's head and the position of the window are displayed in the image, but in this way, the control of the switching point can be debugged. After the position of the window is set, next, a detection condition for the target object in the image is set. Detection conditions may be fixed for each camera, but detection using color may change from sunlight to artificial light over time, or shade conditions may change over time. In this example, a new setting is made at the time of switching. Newly-entered heads can calculate where and how large the target object will appear in the image using the measurement data of the existing heads. The window is set using this value, and at that time, several representative points of the target object are obtained. For example, select a three-dimensional position and its surrounding area. The new entry head learns the color of the position in this area and uses it as the extraction condition as the color of the target object. Further, in the case of binarization of luminance, a binarization level is newly set using a luminance histogram in a newly set window. In these cases, the data may be changed only within a certain range from the previous data. Alternatively, the newly detected detection condition is compared with the previous detection condition, and if the difference is large, an error may be generated. As a result, the detection condition can be updated at the same time as the head is switched.
[0078]
In addition, if it is used together with a means for recording an image, it is possible to know whether or not the switching is correct later by recording only the switching state.
[0079]
The above-described learning of detection conditions for a new entry head is performed by, for example, the technology of a color identification device (Japanese Patent Application No. 5-145084) for identifying and extracting a certain color from a color image previously filed by the applicant and the above-described video What is necessary is just to use the technique (Japanese Patent Application No. 5-137857) which isolate | separates a target object from a signal.
[0080]
As described above, when the conditions for a new entry head are met, measurement can be performed with a new set of three units including the new entry head. If the difference between this data and the three data so far seems to be large, it can be reset, or the operator can be alerted as an error as a switching failure. If there are consecutive errors, it is possible that a new entry head has failed. Therefore, even if an error occurs, if the measurement is not stopped, the switching itself is stopped, or the switching to another adjacent head is performed, the influence of the head failure can be minimized and continuous data can be obtained. In order to perform such processing, it is preferable to take a certain time for switching in consideration of the speed of the region of interest.
[0081]
【The invention's effect】
The present invention has the following effects by the configuration described above.
[0082]
(1) Without using many expensive camera heads having a tracking function, it is possible to capture a competition in which a large number of athletes move by using a small number of imaging cameras and measure the three-dimensional information of a plurality of moving objects. .
[0083]
(2) Since a target object can be imaged by combining a fixed camera with a wide field of view and a tracking camera head with high measurement accuracy, the number of necessary imaging cameras can be reduced.
[0084]
(3) Since the assignment of the imaging camera can be dynamically changed according to the movement of the moving object, three-dimensional information can be obtained with a small error.
[0085]
(4) Since the target object is imaged simultaneously by at least three imaging cameras, it is possible to detect the occurrence of an error even if an error occurs in one imaging camera.
[0086]
(5) Since imaging is performed by three or more imaging cameras, information with a high degree of redundancy can be obtained for the target object, so that an error can be dealt with.
[0087]
(6) Newly entered imaging cameras are automatically controlled so that their imaging target is within the field of view using information from other cameras, and the camera also automatically extracts the target object through learning. You can switch to
[0088]
(7) By checking the data before and after entering the market, it is possible to detect errors caused by switching cameras.
[0089]
(8) The state where the image is switched at the switching boundary because the image is not switched suddenly by switching the imaging camera with hysteresis or after a certain time has elapsed since the previous switching. Does not occur, and the switching of images can be performed smoothly and smoothly without giving an unnatural feeling.
[0090]
(9) Cameras are assigned with priorities assigned to the target objects, so that necessary and accurate imaging can be performed and sufficient information can be obtained with respect to target objects that require the highest priority and highly accurate information. be able to.
[0091]
(10) Since calibration points are provided and the white balance of the camera is readjusted regularly or automatically using color samples, there are fluctuations in imaging environment conditions such as uneven illumination and changes in sunlight. However, accurate measurement can be performed even when the target object is measured for a long time.
[0092]
(11) Since a plurality of calibration points are arranged, the operation time for camera calibration can be shortened, and the calibration can be performed using the calibration point closest to the state of the target object. Can be calibrated most closely.
[Brief description of the drawings]
FIG. 1 is a diagram for explaining an arrangement example of camera heads and calibration points according to a first embodiment of the present invention.
FIG. 2 is a diagram showing an example in which the accuracy of the photographed player position is expressed.
FIG. 3 is a block diagram showing the configuration of an apparatus for measuring a three-dimensional position of a moving object.
FIG. 4 is a block diagram illustrating a configuration of an in-image position measurement unit.
FIG. 5 shows an example of an image obtained by photographing a target object.
FIG. 6 is an example showing an image of a shirt extracted from an image by a color difference.
FIG. 7 shows an example of an image of trunks extracted from an image by a color difference.
FIG. 8 is a diagram showing an example of a window.
FIG. 9 is a diagram showing an example of a window.
FIG. 10 is a diagram showing an example in which two windows overlap each other.
FIG. 11 shows an example in which priority processing is performed on a window.
FIG. 12 shows an example in which priority processing is performed on a window.
FIG. 13 shows an example of a window that causes an error.
FIG. 14 is a diagram illustrating a combination in which camera heads are switched according to movement of a target object.
FIG. 15 is a diagram showing the relationship between the field of view of a newly entered camera head and the camera head so far.
FIG. 16 is a diagram illustrating an image of a camera head up to that point and an image of a camera head of a new entry.
FIG. 17 is a diagram illustrating an example of calibration points.
[Explanation of symbols]
21 Shared field of view
22, 23 Player position
31 Camera
32 In-image position measurement unit
33 connections
34 3D position calculation unit
35 3D coordinate information
36 Verification unit
37 3D position information
38 Error signal
41 Detection circuit
42 Object Table
43 Window generator
44 Priority table
45 Position counter

Claims (7)

移動物体を撮像し、その撮像された移動物体の画像から3次元空間情報を抽出する移動物体の計測装置において、前記移動物体を撮像する撮像手段は3以上組み合わされて少なくとも1個の移動物体を同時に撮像し、計測するに適切な位置の撮像手段が割り当てられるように、移動物体の移動にしたがって前記3以上の撮像手段の1個の撮像手段を他の適当な位置の撮像手段に切り替えていく手段を備えることを特徴とする移動物体の計測装置。 In a moving object measuring apparatus that images a moving object and extracts three-dimensional spatial information from the image of the picked moving object, three or more imaging means for picking up the moving object are combined to obtain at least one moving object. One imaging means of the three or more imaging means is switched to an imaging means at another appropriate position according to the movement of the moving object so that an imaging means at an appropriate position for simultaneous imaging and measurement is assigned. An apparatus for measuring a moving object, comprising: means. 他の適当な位置の撮像手段に切り替えていく手段は、切り替えの条件の境界領域においてヒステリシスを持たせる手段を含む請求項1記載の移動物体の計測装置。 2. The moving object measuring apparatus according to claim 1, wherein the means for switching to the imaging means at another appropriate position includes means for providing hysteresis in a boundary region of the switching condition . 他の適当な位置の撮像手段に切り替えていく手段は、前回の切り替えから一定の時間が経過してから切り替えを行うようにする手段を含む請求項1記載の移動物体の計測装置。 2. The moving object measuring apparatus according to claim 1 , wherein the means for switching to the imaging means at another appropriate position includes means for switching after a predetermined time has elapsed since the previous switching . 撮像手段の切り替えは、3以上の撮像手段の間の角度が広くなるように切り替える請求項1ないし3のいずれか記載の移動物体の計測装置。 The apparatus for measuring a moving object according to any one of claims 1 to 3, wherein the imaging means is switched so that an angle between the three or more imaging means is widened . 切り替えによって新たに参加する撮像手段は、他の撮像手段からの画像に基づいて撮像すべき対象物体を撮像できる角度および画角を求め、かつ画像内の撮像すべき対象物体が存在する領域にウィンドウを設定し、そのウィンドウ内の対象物体を抽出するための検出条件を学習する手段を含む請求項1ないし4のいずれか記載の移動物体の計測装置。 The imaging means that newly participates by switching obtains an angle and a field angle at which a target object to be imaged can be captured based on an image from another imaging means, and opens a window in an area in the image where the target object to be imaged exists. The moving object measuring apparatus according to claim 1 , further comprising means for learning a detection condition for extracting a target object in the window . 前記撮像手段が切り替えられた前後の画像データに基づいて、測定データを比較し誤り測定があるか否かを判定する手段を含む請求項1ないし5のいずれか記載の移動物体の計測装置。 6. The moving object measuring apparatus according to claim 1, further comprising means for comparing measurement data and determining whether or not there is an error measurement based on image data before and after the imaging means is switched . 移動物体は複数であり、撮像対象となる移動物体に優先順位を付け優先順位が高い物体に優先的に撮像手段を割り付ける手段を含む請求項1ないし6のいずれか記載の移動物体の計測装置。 The apparatus for measuring a moving object according to claim 1 , comprising a plurality of moving objects, and means for assigning priority to moving objects to be imaged and preferentially assigning imaging means to objects with high priority .
JP10010294A 1994-05-13 1994-05-13 Measuring device for moving objects Expired - Fee Related JP3631266B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10010294A JP3631266B2 (en) 1994-05-13 1994-05-13 Measuring device for moving objects

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10010294A JP3631266B2 (en) 1994-05-13 1994-05-13 Measuring device for moving objects

Publications (2)

Publication Number Publication Date
JPH07306012A JPH07306012A (en) 1995-11-21
JP3631266B2 true JP3631266B2 (en) 2005-03-23

Family

ID=14265035

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10010294A Expired - Fee Related JP3631266B2 (en) 1994-05-13 1994-05-13 Measuring device for moving objects

Country Status (1)

Country Link
JP (1) JP3631266B2 (en)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2351628B (en) * 1999-04-14 2003-10-01 Canon Kk Image and sound processing apparatus
US7117157B1 (en) 1999-03-26 2006-10-03 Canon Kabushiki Kaisha Processing apparatus for determining which person in a group is speaking
GB9908545D0 (en) 1999-04-14 1999-06-09 Canon Kk Image processing apparatus
JP4306397B2 (en) 2003-10-08 2009-07-29 株式会社日立製作所 Recognition processing system
JP4138642B2 (en) * 2003-12-18 2008-08-27 三菱電機株式会社 Target position detection device
JP4533037B2 (en) * 2003-12-26 2010-08-25 日本放送協会 Offside line detection device and program thereof
JP4714078B2 (en) * 2006-05-24 2011-06-29 株式会社日立国際電気 Moving object detection system
JP2008196891A (en) * 2007-02-09 2008-08-28 Mitsubishi Precision Co Ltd Multi-eye camera
JP5052254B2 (en) * 2007-08-07 2012-10-17 セイコータイムシステム株式会社 Three-dimensional measurement system and three-dimensional measurement method
JP6720587B2 (en) 2016-03-08 2020-07-08 富士通株式会社 Video processing device, video processing method, and video processing program
JP7048347B2 (en) * 2018-02-23 2022-04-05 成典 田中 Positional relationship determination device
JP6915016B2 (en) * 2018-03-07 2021-08-04 キヤノン株式会社 Information processing equipment and methods, information processing systems, and programs
JP7241546B2 (en) * 2019-01-16 2023-03-17 三菱電機株式会社 3D reconstruction device, 3D reconstruction system, 3D reconstruction method, and 3D reconstruction program

Also Published As

Publication number Publication date
JPH07306012A (en) 1995-11-21

Similar Documents

Publication Publication Date Title
JP3631266B2 (en) Measuring device for moving objects
CN109831660B (en) Depth image acquisition method, depth image acquisition module and electronic equipment
KR100940142B1 (en) Method and apparatus for providing immersive surveillance
JP7051315B2 (en) Methods, systems, and non-temporary computer-readable recording media for measuring ball rotation.
US20070098250A1 (en) Man-machine interface based on 3-D positions of the human body
CN110142785A (en) A kind of crusing robot visual servo method based on target detection
EP0662600A1 (en) Apparatus for measuring position of moving object
CN108351523A (en) Stereocamera and the depth map of structure light are used using head-mounted display
KR20150050172A (en) Apparatus and Method for Selecting Multi-Camera Dynamically to Track Interested Object
US9881377B2 (en) Apparatus and method for determining the distinct location of an image-recording camera
KR20180092495A (en) Apparatus and method for Object of Interest-centric Best-view Generation in Multi-camera Video
KR101480410B1 (en) Apparatus and method for correcting sports posture in digital image processing device
JP4214291B1 (en) Grounding point estimation device, grounding point estimation method, flow line display system, and server
KR20170133730A (en) Camera sensing device for obtaining three-dimensional information of object and virtual golf simulation apparatus using the same
JP7076955B2 (en) Methods, systems, and non-temporary computer-readable recording media for correcting the brightness of the ball's image.
Jeges et al. Measuring human height using calibrated cameras
CN105865423B (en) Binocular distance-finding method, device and Panorama Mosaic method and its system
CN113767418A (en) Lens calibration system
CN114120168A (en) Target running distance measuring and calculating method, system, equipment and storage medium
GB2509783A (en) System and method for foot tracking
JP4227037B2 (en) Imaging system and calibration method
US20040142772A1 (en) Ball trajectory measuring apparatus
KR20160031464A (en) System for tracking the position of the shooting camera for shooting video films
JP5213883B2 (en) Composite display device
CN106713960B (en) A kind of intelligent video monitoring system based on recognition of face

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040127

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040324

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20041116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20041216

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081224

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees