JP6525453B2 - Object position estimation system and program thereof - Google Patents

Object position estimation system and program thereof Download PDF

Info

Publication number
JP6525453B2
JP6525453B2 JP2014238775A JP2014238775A JP6525453B2 JP 6525453 B2 JP6525453 B2 JP 6525453B2 JP 2014238775 A JP2014238775 A JP 2014238775A JP 2014238775 A JP2014238775 A JP 2014238775A JP 6525453 B2 JP6525453 B2 JP 6525453B2
Authority
JP
Japan
Prior art keywords
image
ball
camera
trajectory
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014238775A
Other languages
Japanese (ja)
Other versions
JP2016099941A (en
Inventor
高橋 正樹
正樹 高橋
山内 結子
結子 山内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2014238775A priority Critical patent/JP6525453B2/en
Publication of JP2016099941A publication Critical patent/JP2016099941A/en
Application granted granted Critical
Publication of JP6525453B2 publication Critical patent/JP6525453B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、複数のカメラによる映像を並列処理して、映像内の特定のオブジェクトを追跡可能とするオブジェクト位置推定システム、及びそのプログラムに関する。   The present invention relates to an object position estimation system capable of tracking a specific object in an image by parallel processing of images from a plurality of cameras, and a program thereof.

映像内の特定のオブジェクトを追跡可能とするオブジェクト位置推定システムは、例えば、スポーツ映像を解析し、自動審判、スポーツ番組の放送、スポーツデータ生成・配信、コーチングなどのサービスに利用することができる。また、監視カメラ映像解析に基づいたセキュリティシステムなど、様々なサービスにも利用することができる。   An object position estimation system capable of tracking a specific object in a video can analyze sports video, and can be used for services such as automatic umpire, broadcast of sports programs, sports data generation / distribution, and coaching. In addition, it can be used for various services such as a security system based on surveillance camera image analysis.

近年、パターン認識技術や計算機速度の向上により、映像内の特定オブジェクトを検出・追跡する技術の性能が高まっている。この映像解析技術の発展は特にスポーツシーン解析において顕著であり、例えばカメラをセンサとした様々なアプリケーションが提案されている。ウィンブルドンでも使用されているテニスのホークアイシステムは、複数の固定カメラ映像をセンサとしてテニスボールを3次元的に追跡し、ジャッジに絡むIN/OUTの判定を行っている。また2014年のFIFAワールドカップでは、ゴールラインテクノロジーと称して、数台の固定カメラの映像を解析し、ゴールの判定を自動化している。更に、サッカースタジアムヘ多数のステレオカメラを設置し、フィールド内の全選手をリアルタイムに追跡するTRACABシステムなど、スポーツにおけるリアルタイム映像解析技術の高度化が進んでいる。   In recent years, with the improvement of pattern recognition technology and computer speed, the performance of technology for detecting and tracking a specific object in a video has been enhanced. The development of this video analysis technology is particularly remarkable in sports scene analysis, and for example, various applications using a camera as a sensor have been proposed. The Hawkeye system of tennis, which is also used in Wimbledon, three-dimensionally tracks a tennis ball using a plurality of fixed camera images as sensors, and performs IN / OUT judgment involving a judge. Also, in 2014 FIFA World Cup, called the goal line technology, it analyzes the images of several fixed cameras and automates the determination of goals. Furthermore, advancements in real-time video analysis technology in sports, such as the TRACAB system that installs a large number of stereo cameras in a football stadium and tracks all players in the field in real time, are advancing.

そのリアルタイム映像解析技術の一例として、サッカーボールの領域検出に先立って、被写体領域の抽出にかかる処理負担の軽減及び被写体領域以外の領域の抽出の防止を図るため、画像特徴より画像の前景と背景を効果的に分離する技法が開示されている(例えば、特許文献1参照)。   As an example of the real-time video analysis technology, in order to reduce the processing load for extracting the subject area and to prevent the extraction of the area other than the subject area prior to the area detection of the soccer ball, the foreground and background of the image There is disclosed a technique for effectively separating the two (see, for example, Patent Document 1).

一方、現実世界の空間に配置したボールオブジェクトをタブレット端末に接続したカメラで認識・追跡可能に射影変換し、その追跡結果をタブレット端末内のアプリケーションの動作に反映させる技法が開示されている(例えば、特許文献2参照)。   On the other hand, there is disclosed a technique for projective transformation of a ball object arranged in the real world space so that it can be recognized and traced by a camera connected to a tablet terminal, and the tracking result is reflected in the operation of an application in the tablet terminal (for example, , Patent Document 2).

また、複数カメラによる人物追跡技法として、或るカメラの認識処理結果について他カメラの認識処理結果を用いて処理負荷を軽減させ、マーキングされた人物をマーク表示する技法が開示されている(例えば、特許文献3参照)。   Also, as a person tracking technique using a plurality of cameras, a technique is disclosed for reducing the processing load using the recognition processing result of another camera with respect to the recognition processing result of a certain camera, and displaying the marked person as a mark (for example, Patent Document 3).

特開2012−9980号公報Unexamined-Japanese-Patent No. 2012-9980 特表2013−532337号公報Japanese Patent Application Publication No. 2013-532337 特開2006−229465号公報JP, 2006-229465, A

前述したようなテニスボールを3次元的に追跡する技法や、フィールド内の全選手をリアルタイムに追跡するTRACABシステムなどの技法では、予測可能なテニスボール、ゴール付近のみを撮影した映像からのサッカーボール、移動速度が遅く追跡が比較的容易なサッカー選手などを対象としている。しかしながら、フィールド内の任意位置でのサッカーボールは、その軌道予測が難しく、高速で移動し、オクルージョン(隠薇)が発生する頻度が高いため、このようなサッカーボールを安定的に追跡する技法は未だ確立されていない。   Techniques such as three-dimensional tracking of tennis balls as described above and the TRACAB system that tracks all players in the field in real time, such as a predictable tennis ball and a soccer ball from a video taken only near the goal It is intended for soccer players, etc. who are slow in moving speed and relatively easy to track. However, a soccer ball at an arbitrary position in the field is difficult to predict its trajectory, travels at a high speed, and there is a high frequency of occurrence of occlusion (metaphor), so a technique for stably tracking such a soccer ball is It has not been established yet.

特に、特許文献1の技法では、映像内の被写体領域を抽出するために、画像特徴より画像の前景と背景を効果的に分離するよう構成されているが、サッカーボール領域検出に画像特徴を扱っているものの、機械学習など安定した認識処理を施しておらず、高速で移動し、オクルージョン(隠薇)が発生する頻度が高いサッカーボールを安定的に追跡するのは困難である。   In particular, the technique of Patent Document 1 is configured to effectively separate the foreground and the background of the image from the image features in order to extract the subject region in the video, but the image features are handled in soccer ball region detection. However, it is difficult to stably track a soccer ball which moves at high speed and has a high frequency of occurrence of occlusion (metaphor) without stable recognition processing such as machine learning.

また、特許文献2の技法では、現実世界の空間認識に射影変換も利用しているが、射影変換後の画像について、対象とするオブジェクトに関する検出が容易となるよう自由に加工可能に構成することが前提にあり、サッカースタジアムなどの広いフィールドを任意位置で撮像する映像に対して、リアルタイムにボール追跡する用途に適用することは困難である。   In the technique of Patent Document 2, projective transformation is also used for space recognition in the real world, but the image after projective transformation can be freely processed so as to facilitate detection of an object of interest. It is difficult to apply to the application of tracking a ball in real time to an image taken at an arbitrary position, such as a soccer stadium, at a wide position.

また、特許文献3の技法では、複数カメラによる人物追跡技法として、或るカメラの認識処理結果について他カメラの認識処理結果を用いて処理負荷を軽減させることができるが、射影変換などにより被写体を同一空間で追跡しておらず、サッカースタジアムなどの広いフィールドを任意位置で撮像する映像に対して、リアルタイムにオブジェクト追跡するにあたり、高速で移動し、オクルージョン(隠薇)が発生する頻度が高いオブジェクトを安定的に追跡するのは困難である。   Further, in the technique of Patent Document 3, the processing load can be reduced by using the recognition processing result of another camera with respect to the recognition processing result of a certain camera as a person tracking technique by a plurality of cameras. Objects that are not tracked in the same space and move in high-speed in tracking an object in real time with respect to an image taken at an arbitrary position such as a football stadium, etc. It is difficult to keep track of

したがって、以上のような既存の技法では、バウンドや選手からの跳ね返りによって軌道が予測できず、選手の影に隠れるオクルージョンが発生しやすく、シュート時には高速移動する、など追跡に困難を伴うサッカーボールのような特定のオブジェクトの位置を推定し、追跡することは実現できていない。   Therefore, with the above-mentioned existing techniques, it is not possible to predict the trajectory due to bounce or bounce from a player, occlusion is likely to occur in the player's shadow, and it is difficult to track such as moving fast when shooting. It has not been possible to estimate and track the position of such specific objects.

本発明の目的は、上述の問題を鑑みて為されたものであり、複数のカメラによる映像を並列処理して、映像内の特定のオブジェクトを追跡可能とするオブジェクト位置推定システム、及びそのプログラムを提供することにある。   SUMMARY OF THE INVENTION The object of the present invention is made in view of the above problems, and an object position estimation system capable of tracking a specific object in an image by parallel processing of an image by a plurality of cameras, and a program thereof It is to provide.

上記課題を解決するために、本発明のオブジェクト位置推定システムは、複数のカメラによる映像を並列処理して、映像内の特定のオブジェクトを追跡可能とするために、個々のカメラ映像に対して追跡対象のオブジェクト領域を自動検出し機械学習を用いた安定したオブジェクト位置推定処理を施すと共に、各カメラ映像のオブジェクト位置推定処理結果を統合して再度オブジェクトの実空間上の位置を推定することで、より安定化させたオブジェクト位置推定を実現する。このように構成した本発明のオブジェクト位置推定システムは、各カメラ映像に対する推定処理を同一の空間に射影変換し最終的なオブジェクト位置を推定処理しており、各カメラ映像に対する推定処理を相補的に利用することで、追跡対象のオブジェクトを高精度で追跡可能とする。   In order to solve the above problems, the object position estimation system of the present invention performs tracking on individual camera images in order to parallel process images from a plurality of cameras to enable tracking of specific objects in the images. By automatically detecting the object region of interest and performing stable object position estimation processing using machine learning, and integrating the object position estimation processing results of each camera image to estimate the position of the object in the real space again, Implement more stabilized object position estimation. The object position estimation system of the present invention configured as described above performs projective transformation of estimation processing for each camera image into the same space, and estimates the final object position, and complements estimation processing for each camera image. By using it, tracking object can be traced with high accuracy.

例えば、本発明のオブジェクト位置推定システムでは、スタジアムに設置した複数の固定カメラ映像からボール領域を個々に検出・追跡し、それらの追跡結果を統合することで安定したボール追跡を可能とする。ボールの検出には機械学習の理論を用いて、ノイズの影響を抑えた正確なボール検出を可能とし、ボールが選手の影に隠れた場合に通常であれば追跡不能な状況となっても、複数のカメラで処理し各カメラの追跡状況と統合することで、安定したボール追跡を可能とする。特に、追跡結果の統合においては、各カメラ映像を射影変換でフィールドを真上から見た同一の画像空間上へと配置し、選手の密集領域を考慮した頑健なボール推定処理を実現する。尚、本発明は、サッカーボールの位置推定に特に有効であるが、サッカー以外でもテニス、バレーボール、バスケットボール、卓球など幅広い球技に応用可能な技術である。また追跡対象は、ボールに限らず様々なオブジェクトの位置を推定することも可能である。   For example, in the object position estimation system of the present invention, stable ball tracking is enabled by individually detecting and tracking the ball area from a plurality of fixed camera images installed in a stadium and integrating the tracking results. The theory of machine learning is used to detect balls, allowing accurate ball detection with reduced effects of noise, and if the balls are hidden behind a player's shadows, even if they would normally become untrackable, Processing with multiple cameras and integration with the tracking status of each camera enables stable ball tracking. In particular, in the integration of the tracking results, each camera image is placed on the same image space viewed from directly above the field by projective transformation, and a robust ball estimation process is realized in consideration of the player's dense area. The present invention is particularly effective for estimating the position of a soccer ball, but is a technology applicable to a wide range of ball games such as tennis, volleyball, basketball, and table tennis other than soccer. Moreover, it is also possible to estimate the position of various objects, not only the ball, but the tracking object.

即ち、本発明のオブジェクト位置推定システムは、複数のカメラによる映像を並列処理して、映像内の特定のオブジェクトを追跡可能とするオブジェクト位置推定システムであって、各カメラからフレーム単位で連続する映像を入力してフレーム間差分画像を生成し、現在のフレームにおけるオブジェクト候補領域を差分画像で区分された領域に基づく低レベル特徴により決定するオブジェクト候補領域抽出手段と、各カメラから得られる当該オブジェクト候補領域のうち、追跡対象のオブジェクトを含むとして想定される領域を機械学習に基づく高レベル特徴により特定するオブジェクト候補領域認識手段と、各カメラから得られる当該高レベル特徴により特定されたオブジェクト候補領域について、フレーム間で関連付けたボール候補領域の軌跡を生成するオブジェクト軌跡生成手段と、各カメラから得られる当該オブジェクト候補領域の軌跡のうち、カメラ毎に予め定めた指標に基づき最も高い値を持つ軌跡を追跡対象のオブジェクトの軌跡として選定するオブジェクト軌跡選定手段と、各カメラから得られる当該現在のフレームの画像と、カメラ毎に選定されたオブジェクト候補領域の軌跡の画像座標を所定の射影変換画像へ変換して統合する射影変換手段と、前記射影変換画像についてブロック分割し、各ブロック内で当該追跡対象のオブジェクトと相関性が高いものとして予め定めた当該追跡対象のオブジェクト以外のオブジェクトによって表される特徴量を算出して比較し、該特徴量が所定値以下のブロックを排除し、未排除のブロックに位置するオブジェクト候補座標を選定するブロック判定手段と、当該選定されたオブジェクト候補座標について所定時間以上に継続しているボール候補座標を最終的なボール位置座標として決定するオブジェクト位置推定手段と、を備えることを特徴とする。   That is, the object position estimation system according to the present invention is an object position estimation system capable of tracking a specific object in an image by parallel processing of images by a plurality of cameras, and an image which is continuous in frame units from each camera To generate an inter-frame difference image, and object candidate region extraction means for determining object candidate regions in the current frame by low-level features based on regions divided by the difference image, and the object candidates obtained from each camera Object candidate area recognition means for specifying an area assumed to include an object to be tracked among the areas by a high level feature based on machine learning, and an object candidate area specified by the high level feature obtained from each camera , Ball candidate domain associated between frames Among the trajectories of the object candidate area obtained from each camera, the trajectory having the highest value based on the index previously determined for each camera is selected as the trajectory of the object to be tracked among the trajectories of the object candidate region obtained from each camera Object trajectory selection means, projection conversion means for converting the image of the current frame obtained from each camera and the image coordinates of the trajectory of the object candidate area selected for each camera into a predetermined projective transformation image and integrating them; The projective transformation image is divided into blocks, and within each block, feature amounts represented by objects other than the object to be tracked, which are predetermined to be highly correlated with the object to be tracked, are calculated and compared. Object candidates located in unremoved blocks after excluding blocks whose feature amount is less than a predetermined value The apparatus is characterized by comprising block determination means for selecting a mark, and object position estimation means for determining, as a final ball position coordinate, ball candidate coordinates continuing for a predetermined time or more with respect to the selected object candidate coordinates. Do.

また、本発明のオブジェクト位置推定システムにおいて、前記オブジェクト候補領域認識手段は、色ヒストグラム特徴量とローカルバイナリーパターン特徴量の二重特徴量により認識されるボール候補領域を機械学習に基づく高レベル特徴により特定することを特徴とする。   Further, in the object position estimation system of the present invention, the object candidate area recognition means uses a high-level feature based on machine learning to recognize a ball candidate area recognized by a dual feature of a color histogram feature and a local binary pattern feature. It is characterized by specifying.

また、本発明のオブジェクト位置推定システムにおいて、前記オブジェクト軌跡選定手段は、カメラ毎に予め定めた指標として、前記射影変換画像上でのオブジェクト候補領域の速度、移動量、及び追跡時間のうち1つ以上を指標として選定することを特徴とする。   Further, in the object position estimation system according to the present invention, the object trajectory selection means may use one of the velocity, the movement amount, and the tracking time of the object candidate area on the projective transformation image as an index previously determined for each camera. It is characterized by selecting the above as an index.

また、本発明のオブジェクト位置推定システムにおいて、前記ブロック判定手段は、当該追跡対象のオブジェクトと相関性が高いものとして人物を対象とし、当該追跡対象のオブジェクト以外のオブジェクトによって表される特徴量として当該人物の占有率を対象とすることを特徴とする。   Further, in the object position estimation system according to the present invention, the block determination unit targets a person as having high correlation with the object to be tracked, and sets the feature amount represented by an object other than the object to be tracked. It is characterized in that the occupancy rate of a person is targeted.

また、本発明のオブジェクト位置推定システムにおいて、前記オブジェクト位置推定手段は、当該選定されたオブジェクト候補座標について、各軌跡の追跡終了フレームからの経過時間を基に、所定時間以上に継続しているボール候補座標を最終的なボール位置座標として決定することを特徴とする。   Further, in the object position estimation system according to the present invention, the object position estimation means is configured to continue the ball for a predetermined time or more based on an elapsed time from a tracking end frame of each trajectory for the selected object candidate coordinates. The candidate coordinates are determined as final ball position coordinates.

更に、本発明、本発明に係るオブジェクト位置推定システムにて前記オブジェクト候補領域抽出手段、前記オブジェクト候補領域認識手段、前記オブジェクト軌跡生成手段、及び前記オブジェクト軌跡選定手段の各機能を実現させるために、当該並列処理における処理対象のカメラの映像から前記特定のオブジェクトに関するオブジェクト候補領域の軌跡を個別に選定するコンピュータに、処理対象のカメラからフレーム単位で連続する映像を入力してフレーム間差分画像を生成し、現在のフレームにおけるオブジェクト候補領域を差分画像で区分された領域に基づく低レベル特徴により決定するステップと、処理対象のカメラから得られる当該オブジェクト候補領域のうち、追跡対象のオブジェクトを含むとして想定される領域を機械学習に基づく高レベル特徴により特定するステップと、処理対象のカメラから得られる当該高レベル特徴により特定されたオブジェクト候補領域について、フレーム間で関連付けたボール候補領域の軌跡を生成するステップと、処理対象のカメラから得られる当該オブジェクト候補領域の軌跡のうち、カメラ毎に予め定めた指標に基づき最も高い値を持つ軌跡を追跡対象のオブジェクトの軌跡として選定するステップと、をプログラムにより実行させた上で、
本発明に係るオブジェクト位置推定システムにて前記射影変換手段、前記ブロック判定手段、及び前記オブジェクト位置推定手段の各機能を実現させるために、当該複数のカメラの映像からそれぞれ抽出された特定のオブジェクトに関するオブジェクト候補領域を統合して当該特定のオブジェクトを追跡可能とするコンピュータに、前記プログラムによって実行された各ステップを経て各カメラから得られる当該現在のフレームの画像と、カメラ毎に選定されたオブジェクト候補領域の軌跡の画像座標を所定の射影変換画像へ変換して統合するステップと、前記射影変換画像についてブロック分割し、各ブロック内で当該追跡対象のオブジェクトと相関性が高いものとして予め定めた当該追跡対象のオブジェクト以外のオブジェクトによって表される特徴量を算出して比較し、該特徴量が所定値以下のブロックを排除し、未排除のブロックに位置するオブジェクト候補座標を選定するステップと、当該選定されたオブジェクト候補座標について所定時間以上に継続しているボール候補座標を最終的なボール位置座標として決定するステップと、を実行させるためのプログラムを構成する。
Furthermore, the present invention, the object candidate area extracting means with the object position estimation system according to the present invention, said object candidate region recognizing means, the object trajectory generation unit, and in order to implement the functions of the object trajectory selection means To the computer for individually selecting the locus of the object candidate area relating to the specific object from the image of the camera to be processed in the parallel processing, a continuous image is input in units of frames from the camera to be processed to obtain an interframe difference image. Generating and determining an object candidate area in the current frame by a low-level feature based on the area divided by the difference image, and including an object to be tracked among the object candidate areas obtained from the camera to be processed Mechanics the assumed area Identifying with a high-level feature based on H., generating a trajectory of a ball candidate region associated between frames for an object candidate region identified with the high-level feature obtained from the camera to be processed; Selecting a locus having the highest value based on a predetermined index for each camera among the loci of the object candidate area obtained from the camera as the locus of the object to be traced by the program ;
The present invention relates to a specific object extracted from images of a plurality of cameras in order to realize the functions of the projective transformation means, the block determination means, and the object position estimation means in the object position estimation system according to the present invention. An image of the current frame obtained from each camera through each step executed by the program and an object candidate selected for each camera on a computer capable of tracking the specific object by integrating the object candidate area Converting the image coordinates of the locus of the area into a predetermined projective transformation image and integrating the projective transformation image, and dividing the projection transformation image into blocks, which are predetermined as having high correlation with the object to be tracked in each block By objects other than the object being tracked Calculating and comparing the feature quantities to be selected, excluding blocks whose feature quantity is equal to or less than a predetermined value, and selecting object candidate coordinates located in the non-excluded block; and predetermined time for the selected object And determining a continuing ball candidate coordinate as a final ball position coordinate.

本発明によれば、高い精度で実空間上のオブジェクト位置を推定することができる。   According to the present invention, an object position in real space can be estimated with high accuracy.

本発明による一実施形態のオブジェクト位置推定システムの構成例を示すブロック図である。It is a block diagram showing an example of composition of an object position estimating system of one embodiment by the present invention. 本発明による一実施形態のオブジェクト位置推定システムの動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation | movement of the object position estimation system of one Embodiment by this invention. 本発明による一実施形態のオブジェクト位置推定システムにおけるオブジェクトの候補領域抽出処理の説明図である。It is explanatory drawing of the candidate area | region extraction process of the object in the object position estimation system of one Embodiment by this invention. (A),(B)は、本発明による一実施形態のオブジェクト位置推定システムにおける低レベル特徴によるオブジェクトの候補認識処理の説明図である。(A), (B) is explanatory drawing of the candidate recognition process of the object by the low level feature in the object position estimation system of one Embodiment by this invention. (A),(B)は、それぞれ本発明による一実施形態のオブジェクト位置推定システムにおける高レベル特徴によるオブジェクトの候補認識処理に用いる機械学習用の正例及び負例を例示する図である。(A), (B) is a figure which illustrates the positive example and the negative example for machine learning used for the candidate recognition processing of the object by the high level feature in the object position estimation system of one embodiment by the present invention, respectively. 本発明による一実施形態のオブジェクト位置推定システムにおける高レベル特徴によるオブジェクトの候補認識処理に用いる色ヒストグラムを例示する図である。It is a figure which illustrates the color histogram used for the candidate recognition process of the object by the high level feature in the object position estimation system of one Embodiment by this invention. 本発明による一実施形態のオブジェクト位置推定システムにおけるオブジェクトの軌跡生成処理及び軌跡選定処理の処理結果に関する説明図である。It is explanatory drawing regarding the process result of the locus | trajectory production | generation process of an object in the object position estimation system of one Embodiment by this invention, and a locus | trajectory selection process. (A),(B)は、本発明による一実施形態のオブジェクト位置推定システムにおける射影変換処理に関する説明図である。(A), (B) is explanatory drawing regarding the projective transformation process in the object position estimation system of one Embodiment by this invention. 本発明による一実施形態のオブジェクト位置推定システムにおける射影変換画像を例示する図である。It is a figure which illustrates the projective transformation image in the object position estimation system of one Embodiment by this invention. 本発明による一実施形態のオブジェクト位置推定システムにおけるオブジェクトのブロック判定処理に関する説明図である。It is explanatory drawing regarding the block determination process of the object in the object position estimation system of one Embodiment by this invention. 本発明による一実施形態のオブジェクト位置推定システムにおけるオブジェクトの位置推定処理に関する説明図である。It is explanatory drawing regarding the position estimation process of the object in the object position estimation system of one Embodiment by this invention. 本発明による一実施形態のオブジェクト位置推定システムにおける高レベル特徴の識別精度及び処理時間を対比説明する図である。It is a figure which contrasts the identification precision and processing time of the high level feature in the object position estimation system of one Embodiment by this invention. 本発明による一実施形態のオブジェクト位置推定システムにおける推定誤差を対比説明する図である。It is a figure which contrasts the estimation error in the object position estimation system of one Embodiment by this invention. (A),(B)は、本発明による一実施形態のオブジェクト位置推定システムにおけるオブジェクトの推定位置の領域半径に対する適合確率に関する説明図である。(A), (B) is explanatory drawing regarding the fitting probability with respect to the area | region radius of the presumed position of the object in the object position estimation system of one Embodiment by this invention.

(オブジェクト位置推定システムの構成)
以下、図面を参照して、本発明による一実施形態のオブジェクト位置推定システム1を説明する。図1は、本発明による一実施形態のオブジェクト位置推定システム1の構成例を示すブロック図である。
(Configuration of object position estimation system)
An object position estimation system 1 according to an embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing a configuration example of an object position estimation system 1 according to an embodiment of the present invention.

図1に例示するオブジェクト位置推定システム1は、個別のカメラ映像をそれぞれ入力し、独立に並列処理して個別のオブジェクト位置を推定する複数の対象オブジェクト検出・追跡装置2と、該複数の対象オブジェクト検出・追跡装置2の処理結果を統合してオブジェクト位置を推定する対象オブジェクト位置統合装置3とを備える。対象オブジェクト検出・追跡装置2は、オブジェクト候補領域抽出部21、オブジェクト候補領域認識部22、オブジェクト軌跡生成部23、及びオブジェクト軌跡選定部24を備える。また、対象オブジェクト位置統合装置3は、射影変換部31、ブロック判定部32、及びオブジェクト位置推定部33を備える。   The object position estimation system 1 illustrated in FIG. 1 inputs a plurality of target object detection / tracking devices 2 each of which inputs individual camera images and independently processes them in parallel to estimate the individual object positions, and the plurality of target objects A target object position integration device 3 which integrates the processing results of the detection / tracking device 2 to estimate the object position. The target object detection / tracking device 2 includes an object candidate area extraction unit 21, an object candidate area recognition unit 22, an object trajectory generation unit 23, and an object trajectory selection unit 24. Further, the target object position integration device 3 includes a projection transformation unit 31, a block determination unit 32, and an object position estimation unit 33.

複数の対象オブジェクト検出・追跡装置2は、それぞれ同様に構成され、リアルタイムに個別のカメラ映像をそれぞれ入力し並列処理するように構成されている。本例では、4台のカメラ(第1乃至第4カメラ)から得られるカメラ映像(特に、各カメラから得られるフレーム画像を2D(dimensional)画像と称する。)が、それぞれの対象オブジェクト検出・追跡装置2に入力され、それぞれの対象オブジェクト検出・追跡装置2は、各2D画像内のオブジェクト位置を推定し、その処理結果を対象オブジェクト位置統合装置3に出力する。したがって、対象オブジェクト位置統合装置3は、複数の対象オブジェクト検出・追跡装置2から入力される処理結果を各カメラのカメラ映像と同期させて最終的なオブジェクト位置を推定処理するように構成されている。   The plurality of target object detection / tracking devices 2 are respectively configured in the same manner, and configured to input and parallel process individual camera images in real time. In this example, camera images obtained from four cameras (first to fourth cameras) (in particular, a frame image obtained from each camera is referred to as a 2D (dimensional) image) are subject object detection and tracking. Each target object detection / tracking device 2 is input to the device 2, estimates the object position in each 2D image, and outputs the processing result to the target object position integration device 3. Therefore, the target object position integration device 3 is configured to synchronize the processing results input from the plurality of target object detection / tracking devices 2 with the camera images of the cameras and estimate the final object position. .

そして、複数の対象オブジェクト検出・追跡装置2、及び対象オブジェクト位置統合装置3は、それぞれパーソナルコンピュータにより実現することができる。例えば、本実施形態の対象オブジェクト検出・追跡装置2及び対象オブジェクト位置統合装置3は、それぞれの各構成要素の機能について、コンピュータにより実現することができ、当該コンピュータに、本発明に係る各構成要素を実現させるためのプログラムは、当該コンピュータの内部又は外部に備えられるメモリ(図示せず)に記憶される。コンピュータに備えられる中央演算処理装置(CPU)などの制御で、各構成要素の機能を実現するための処理内容が記述されたプログラムを、適宜、メモリから読み込んで実行することにより、本実施形態の対象オブジェクト検出・追跡装置2及び対象オブジェクト位置統合装置3の構成要素の機能をコンピュータにより実現させることができる。ここで、各構成要素の機能をハードウェアの一部で実現してもよい。   The plurality of target object detection / tracking devices 2 and the target object position integration device 3 can be realized by personal computers. For example, the target object detection / tracking device 2 and the target object position integration device 3 of the present embodiment can be realized by a computer with respect to the function of each component, and each component according to the present invention The program for realizing the above is stored in a memory (not shown) provided inside or outside the computer. By controlling a central processing unit (CPU) or the like included in a computer, a program in which processing content for realizing the function of each component is described is read from memory and executed as appropriate. The functions of the components of the target object detection / tracking device 2 and the target object position integration device 3 can be realized by a computer. Here, the function of each component may be realized by part of hardware.

以下では、サッカースタジアムに配設された4台のカメラ(第1乃至第4カメラ)からのカメラ映像を解析して、サッカーボール(以下、単に「ボール」とも略す。)を追跡対象のオブジェクトとする例を説明する。尚、カメラ台数は、多ければ多いほどよいが、複数台のカメラであれば本発明に係るオブジェクト位置推定システム1を構成することができる。   In the following, camera images from four cameras (first to fourth cameras) disposed at a soccer stadium are analyzed, and a soccer ball (hereinafter, also simply referred to as a “ball”) is regarded as an object to be tracked. An example will be described. The more the number of cameras, the better, but if there are a plurality of cameras, the object position estimation system 1 according to the present invention can be configured.

まず、対象オブジェクト検出・追跡装置2が備えるオブジェクト候補領域抽出部21、オブジェクト候補領域認識部22、オブジェクト軌跡生成部23、及びオブジェクト軌跡選定部24の機能について説明する。   First, the functions of the object candidate area extraction unit 21, the object candidate area recognition unit 22, the object trajectory generation unit 23, and the object trajectory selection unit 24 included in the target object detection / tracking device 2 will be described.

オブジェクト候補領域抽出部21は、対応するカメラからフレーム単位で連続する映像(2D画像)を入力してフレーム間差分画像を生成し、現在のフレーム(以下、「現2D画像」と称する。)におけるオブジェクト候補領域(本例では、ボール候補領域)を差分画像で区分された領域に基づく低レベル特徴により決定する処理(オブジェクト候補領域抽出処理)を実行する機能を有する。   The object candidate area extraction unit 21 receives a continuous image (2D image) from the corresponding camera in frame units to generate an inter-frame difference image, and the current frame (hereinafter referred to as "the current 2D image") is generated. It has a function of executing a process (object candidate area extraction process) of determining an object candidate area (in this example, a ball candidate area) based on low-level features based on the areas divided by the difference image.

オブジェクト候補領域認識部22は、オブジェクト候補領域抽出部21によって決定された現2D画像におけるボール候補領域について、追跡対象のオブジェクトを含むとして想定される領域を機械学習に基づく高レベル特徴により特定する処理(オブジェクト候補領域認識処理)を実行する機能を有する。特に、オブジェクト候補領域認識部22は、色ヒストグラム特徴量とローカルバイナリーパターン(LBP:Local Binary Pattern)特徴量の二重特徴量により認識されるボール候補領域を抽出することで追跡対象のオブジェクトを含むとして想定される領域を特定する。   The object candidate area recognition unit 22 is a process of specifying an area assumed to include an object to be tracked by a high-level feature based on machine learning for the ball candidate area in the current 2D image determined by the object candidate area extraction unit 21 It has a function of executing (object candidate area recognition processing). In particular, the object candidate area recognition unit 22 includes an object to be tracked by extracting a ball candidate area recognized by a double feature of a color histogram feature and a local binary pattern (LBP) feature. Identify the area assumed as

オブジェクト軌跡生成部23は、オブジェクト候補領域認識部22によって特定されたボール候補領域について、フレーム間(即ち、現2D画像と連続する1以上の過去の2D画像(以下、「過去2D画像」と称する。)との間)で関連付けたボール候補領域の軌跡を生成する処理(オブジェクト軌跡生成処理)を実行する機能を有する。   The object trajectory generation unit 23 refers to the ball candidate area identified by the object candidate area recognition unit 22 between frames (that is, one or more past 2D images continuous with the current 2D image (hereinafter referred to as “past 2D image”) ) And the function of generating the trajectory of the ball candidate area associated with the object trajectory generation processing).

オブジェクト軌跡選定部24は、オブジェクト軌跡生成部23によって複数に生成されうるボール候補領域の軌跡のうち、後述する予め定めた指標に基づき最も高い値を持つ軌跡を選定し、現2D画像とともに当該選定した軌跡の各フレームにおけるボール候補領域の画像座標(以下、「ボール候補座標」とも称する。)を追跡対象のオブジェクト(本例では、ボール)の軌跡として決定して、対象オブジェクト位置統合装置3に出力する処理(オブジェクト軌跡選定処理)を実行する機能を有する。   The object trajectory selection unit 24 selects a trajectory having the highest value based on a predetermined index described later among the trajectories of the ball candidate regions that can be generated in plurality by the object trajectory generation unit 23 and selects the trajectory together with the current 2D image. The image coordinates (hereinafter also referred to as “ball candidate coordinates”) of the ball candidate area in each frame of the determined trajectory is determined as the trajectory of the object to be tracked (in this example, the ball). It has a function of executing a process to output (object trajectory selection process).

次に、対象オブジェクト位置統合装置3が備える射影変換部31、ブロック判定部32、及びオブジェクト位置推定部33の機能について説明する。   Next, the functions of the projection conversion unit 31, the block determination unit 32, and the object position estimation unit 33 included in the target object position integration device 3 will be described.

射影変換部31は、各対象オブジェクト検出・追跡装置2から、2D画像(即ち、現2D画像)と、当該選定された軌跡のボール候補座標を入力し、各ボール候補座標を反映する所定の射影変換画像へそれぞれ変換して統合する処理(射影変換処理)を実行する機能を有する。   The projective transformation unit 31 receives a 2D image (that is, a current 2D image) and ball candidate coordinates of the selected trajectory from each target object detection / tracking device 2 and performs predetermined projection reflecting the ball candidate coordinates. It has a function of executing processing (projective conversion processing) for converting and integrating each into a converted image.

ブロック判定部32は、射影変換部31によって得られる射影変換画像について所定ブロック数でブロック分割し、各ブロック内で当該ボールのオブジェクトと相関性が高いものとして予め定めた当該ボール以外のオブジェクトによって表される特徴量を算出して比較し、該特徴量が所定値以下のブロックを排除し、未排除のブロックに位置するボール候補座標を選定することにより、当該射影変換画像から得られる各ボール候補座標を選択する処理(ブロック判定処理)を実行する機能を有する。例えば、各ブロック内の当該ボール以外のオブジェクトによって表される特徴量として、人物領域の占有率とすることができる。即ち、ブロック判定処理として、射影変換画像から得られる各ブロックの人物領域の占有率を算出し、人物領域の占有率を基に、人物領域の占有率が高いブロック内のボール候補座標を優先的に選択する。   The block determination unit 32 divides the projective transformation image obtained by the projective transformation unit 31 into blocks according to a predetermined number of blocks, and displays a table by an object other than the ball which is predetermined as having high correlation with the object of the ball in each block. Each of the ball candidates obtained from the projective transformation image by calculating and comparing the feature quantities to be calculated, excluding blocks having the feature quantity equal to or less than a predetermined value, and selecting ball candidate coordinates located in the non-excluded blocks. It has a function of executing a process of selecting coordinates (block determination process). For example, the occupancy rate of a person area can be used as a feature quantity represented by an object other than the ball in each block. That is, as block determination processing, the occupancy rate of the person area of each block obtained from the projective transformation image is calculated, and based on the occupancy rate of the person area, ball candidate coordinates in blocks having high occupancy rate of the person area are prioritized Select to

オブジェクト位置推定部33は、ブロック判定部32によって選択された各ボール候補座標について、各軌跡の「追跡終了フレームからの経過時間」を基に、所定時間以上(所定のフレーム数以上)に継続しているボール候補座標を最終的なボール位置座標として決定する処理(ボール位置推定処理)を実行する機能を有する。当該決定された最終的なボール位置座標は、当該射影変換画像における位置座標を示す態様で、図示しない所定の画像表示部へと表示させ、この表示を連続させることで、当該最終的に推定したボール位置の軌跡を当該射影変換画像上にて表示させることができる。そして、所定時間以上(所定のフレーム数以上)に継続しているボール候補座標を最終的なボール位置座標として決定することで、例えば、ブロック判定部32によって選択された各ボール候補座標が或るフレームにて複数ある場合や全く検出されない場合も、複数フレームで連続的に射影変換された各射影変換画像上にて連続表示させると、概ね1つの推定されたボール位置の軌跡が認識される。   The object position estimation unit 33 continues, for each ball candidate coordinate selected by the block determination unit 32, for a predetermined time or more (a predetermined number of frames or more) based on the "time elapsed from the tracking end frame" of each trajectory. It has a function of executing processing (ball position estimation processing) of determining the ball candidate coordinates that are being played as the final ball position coordinates. The determined final ball position coordinates are displayed on a predetermined image display unit (not shown) in a manner indicating the position coordinates in the projective transformation image, and the display is continuously performed to estimate the final position. The trajectory of the ball position can be displayed on the projective transformation image. Then, by determining ball candidate coordinates continuing for a predetermined time or more (predetermined number of frames or more) as final ball position coordinates, for example, each ball candidate coordinate selected by the block determination unit 32 is present Even in the case where there are a plurality of frames or no frame is detected at all, when one frame is continuously displayed on each of the projective transformation images continuously projectively transformed in a plurality of frames, approximately one estimated ball position trajectory is recognized.

(オブジェクト位置推定システムの動作例)
以下、図2乃至図11を参照して、本発明による一実施形態のオブジェクト位置推定システム1の動作の一例をより詳細にする。尚、カメラ映像に関する2D画像を示す各図面はグレイスケール表示で図示しているが、特筆しない限りRGBカラー情報で処理されるものとする。図2は、本発明による一実施形態のオブジェクト位置推定システムの動作の一例を示すフローチャートである。
(Operation example of object position estimation system)
Hereinafter, an example of the operation of the object position estimation system 1 according to an embodiment of the present invention will be described in more detail with reference to FIGS. Although each drawing showing a 2D image related to a camera image is illustrated in gray scale, it is assumed to be processed with RGB color information unless otherwise specified. FIG. 2 is a flow chart showing an example of the operation of the object position estimation system according to an embodiment of the present invention.

まず、対象オブジェクト検出・追跡装置2の各々は、対応するカメラからフレーム単位で連続する映像(2D画像)を入力する(ステップS1)。   First, each of the target object detection / tracking device 2 inputs continuous video (2D image) in frame units from the corresponding camera (step S1).

次に、対象オブジェクト検出・追跡装置2の各々は、オブジェクト候補領域抽出部21により、対応するカメラから入力されたフレーム単位で連続する映像(2D画像)についてフレーム間差分画像を生成し、現2D画像におけるボール候補領域を差分画像で区分された領域に基づく低レベル特徴により決定する(ステップS2)。   Next, each of the target object detection / tracking device 2 generates an inter-frame difference image for continuous video (2D image) in frame units input from the corresponding camera by the object candidate area extraction unit 21 and the current 2D The ball candidate area in the image is determined by the low level feature based on the area divided by the difference image (step S2).

より具体的には、オブジェクト候補領域抽出部21により、フレーム間差分画像を生成し、低レベルの画像特徴を基準としてボール候補領域を粗く抽出する。フレーム間差分画像とは隣り合う映像フレームの画素ごとの差分値をピクセル値とした画像であり、映像内で動きが生じた部分のみ値が増加する。追跡時のボールは常に動いているため、フレーム間差分画像内で高い値(絶対値)を有する画素のみを処理対象とすることで、効率的にボールを検出することができる。そして、特定のしきい値で2値化したフレーム間差分画像にラベリング処理を施し、ラベル(連結領域)ごとに低レベル特徴を算出する。低レベル特徴は、ラベル内の色、形(円形度)及び画素数とし、予め設定した範囲外の特徴量を持つラベルをボール候補から除外することで、ボール候補領域を決定する。   More specifically, the object candidate area extraction unit 21 generates an inter-frame difference image, and roughly extracts ball candidate areas based on low-level image features. The inter-frame difference image is an image in which the difference value for each pixel of an adjacent video frame is used as a pixel value, and the value increases only in a portion where motion occurs in the image. Since the ball at the time of tracking always moves, the ball can be efficiently detected by processing only pixels having a high value (absolute value) in the inter-frame difference image. Then, the inter-frame difference image binarized with a specific threshold value is subjected to labeling processing, and low-level features are calculated for each label (connected area). The low-level feature is a color, a shape (degree of circularity), and the number of pixels in the label, and a label having a feature amount outside the preset range is excluded from the ball candidate to determine the ball candidate region.

より詳細に図3及び図4を参照して説明するに、図3は、本発明による一実施形態のオブジェクト位置推定システム1におけるオブジェクト候補領域抽出部21によるオブジェクトの候補領域抽出処理の説明図である。図4(A),(B)は、本発明による一実施形態のオブジェクト位置推定システムにおける低レベル特徴によるオブジェクト候補領域抽出部21によるオブジェクトの候補認識処理の説明図である。例えば、図3に示すように、動きのあるオブジェクトObを含む第nフレーム及び第n−1フレーム間の差分を取ることで、フレーム間差分画像を生成することができる。フレーム間差分画像内には、高い値(絶対値)を有する画素の領域にラベルL1,L2を付与する。尚、フレーム間差分画像にモノフォロジー演算によるフィルタ処理を施した後、ラベルを付すように構成してもよい。   More specifically, with reference to FIG. 3 and FIG. 4, FIG. 3 is an explanatory view of object candidate area extraction processing by the object candidate area extraction unit 21 in the object position estimation system 1 of one embodiment according to the present invention. is there. FIGS. 4A and 4B are explanatory diagrams of object candidate recognition processing by the object candidate area extraction unit 21 based on low-level features in the object position estimation system according to the embodiment of the present invention. For example, as shown in FIG. 3, it is possible to generate an inter-frame difference image by taking the difference between the n-th frame and the (n-1) -th frame including the moving object Ob. In the inter-frame difference image, labels L1 and L2 are attached to the areas of pixels having high values (absolute values). It is to be noted that the inter-frame difference image may be configured to be labeled after being subjected to filter processing by monomorphic calculation.

このようにして、第nフレーム(現2D画像Fr)を例示する図4(A)について、図4(B)に示すように抽出された各領域にラベルL1〜L19を付すことができ、更に、ラベル(連結領域)ごとに低レベル特徴を算出して、予め設定した範囲外の特徴量を持つラベルをボール候補から除外することで、ボール候補領域を決定することができる。図4(B)では、ボール候補領域から除外された領域(ラベル)L1,L4〜L8,L12〜L17と、ボール候補領域として抽出された領域(ラベル)L2,L3,L9〜L11,L18,L19とに分類し、ボール候補領域を決定することができる旨を例示している。尚、ラベル1は、当該フレーム間差分画像で抽出した領域が所定量以上密集しているときは1つの領域とみなしており、ボール候補領域から除外することができる。   In this manner, in FIG. 4 (A) exemplifying the n-th frame (the current 2D image Fr), labels L1 to L19 can be attached to the respective regions extracted as shown in FIG. 4 (B). The ball candidate area can be determined by calculating low-level features for each label (connected area) and excluding labels having feature quantities outside the preset range from the ball candidates. In FIG. 4B, the areas (labels) L1, L4 to L8, L12 to L17 excluded from the ball candidate area and the areas (labels) L2, L3, L9 to L11, L18, extracted as ball candidate areas. It categorizes into L19 and illustrates that the ball candidate area can be determined. The label 1 is regarded as one area when the areas extracted in the inter-frame difference image are dense in a predetermined amount or more, and can be excluded from the ball candidate areas.

次に、対象オブジェクト検出・追跡装置2の各々は、オブジェクト候補領域認識部22により、オブジェクト候補領域抽出部21によって決定された現2D画像におけるボール候補領域について、追跡対象のオブジェクトを含むとして想定される領域を機械学習に基づく高レベル特徴により特定する(ステップS3)。特に、オブジェクト候補領域認識部22は、色ヒストグラム特徴量とローカルバイナリーパターン(LBP)特徴量の二重特徴量により認識されるボール候補領域を抽出することで追跡対象のオブジェクトを含むとして想定される領域を特定する。   Next, each of the target object detection / tracking device 2 is assumed to include an object to be tracked for the ball candidate region in the current 2D image determined by the object candidate region extraction unit 21 by the object candidate region recognition unit 22 Region is identified by high-level features based on machine learning (step S3). In particular, the object candidate area recognition unit 22 is assumed to include an object to be tracked by extracting a ball candidate area recognized by a double feature of a color histogram feature and a local binary pattern (LBP) feature. Identify the area.

より具体的には、オブジェクト候補領域認識部22により、より高い精度でボール候補を絞り込む。このために、ボールの認識には教師あり学習のフレームワークを用いるのが好適である。まず、予めサッカーの映像から多数のボール画像(12×12画素)と非ボール画像(12× 12画素)を収集する。図5(A),(B)は、それぞれ本発明による一実施形態のオブジェクト位置推定システム1における高レベル特徴によるオブジェクトの候補認識処理に用いる機械学習用の正例(ボール画像)及び負例(非ボール画像)を例示する図である。収集した正例及び負例の画像から、色ヒストグラム特徴量とLBP特徴量を抽出する。   More specifically, the object candidate area recognition unit 22 narrows down ball candidates with higher accuracy. To this end, it is preferable to use a supervised learning framework for ball recognition. First, a large number of ball images (12 × 12 pixels) and non-ball images (12 × 12 pixels) are collected in advance from a soccer video. FIGS. 5A and 5B respectively show a positive example (ball image) and a negative example (ball image) for machine learning used in object candidate recognition processing by high-level features in the object position estimation system 1 according to an embodiment of the present invention. It is a figure which illustrates a (non-ball image). Color histogram feature quantities and LBP feature quantities are extracted from the collected positive and negative example images.

図6は、本発明による一実施形態のオブジェクト位置推定システム1における高レベル特徴によるオブジェクトの候補認識処理に用いる色ヒストグラムを例示する図である。図6に示すように、色ヒストグラム特徴量は、RGB色空間を3×3×3の27次元に分割し、正例及び負例の画像内の各画素の色頻度で表すことができる。   FIG. 6 is a view exemplifying a color histogram used for object candidate recognition processing by high-level features in the object position estimation system 1 according to an embodiment of the present invention. As shown in FIG. 6, the color histogram feature value can be expressed by dividing the RGB color space into 27 dimensions of 3 × 3 × 3 and by the color frequency of each pixel in the positive and negative example images.

また、LBP特徴量は、テクスチャ解析で用いられるパターンベースの特徴量であり、識別精度の高さや計算コストの低さから近年注目されている(例えば、『寺島,喜田、“勾配情報を用いたLocal Binary Patternの改良”,DEIM Forum 2014, F5‐4』を参照)。LBP特徴量は、ラスタスキャンによって算出され、注目画素の周囲の半径をR、近傍領域の画素数をPとして式(1)を基に求めることができる。   The LBP feature is a pattern-based feature used in texture analysis, and has recently been attracting attention because of high identification accuracy and low calculation cost (for example, “Terajima, Kida,” using gradient information) "Improvement of Local Binary Pattern", DEIM Forum 2014, F5-4). The LBP feature value is calculated by raster scan, and can be determined based on Equation (1), where R is the radius of the pixel of interest and P is the number of pixels in the vicinity region.

ここで,g は注目画素の画素値を示し,g は参照点の画素値を表す。近傍領域はR=1のとき近傍領域は3×3であり,Pの最大は8となる。LBP特徴量は注目画素gと近傍領域の画素値gの大小比較によってパターンLBPP,R が算出され、その種類は2のP乗となる。LBP特徴量はこのパターンの頻度を記述したヒストグラムの特徴量である。一例として、R=1, P=8の256次元のLBPとすることができる。色ヒストグラム特徴量とLBP特徴量の二重特徴量により、その合計次元数は283(=27+256)となる。この283次元の特徴量であれば、機械学習による認識処理負荷を比較的軽減させることができ、リアルタイムに入力される2D画像に対する実時間内処理を実現することができる。 Here, g c represents the pixel value of the target pixel, and g p represents the pixel value of the reference point. When R = 1, the near region is 3 × 3 and the maximum of P is 8. The patterns LBP P and R are calculated by comparing the size of the pixel of interest g c with the pixel value g p of the neighboring region, and the type of L BP feature amount is P <2>. The LBP feature is a feature of a histogram describing the frequency of this pattern. As an example, a 256-dimensional LBP of R = 1 and P = 8 can be used. The total number of dimensions is 283 (= 27 + 256) due to the dual feature amount of the color histogram feature amount and the LBP feature amount. With this 283-dimensional feature quantity, the recognition processing load by machine learning can be relatively reduced, and real-time processing on a 2D image input in real time can be realized.

そして、この機械学習として、当該283次元の二重特徴量による高レベル特徴を用いた、教師あり学習の枠組みで2値のサポート・ベクタ・マシン(SVM: Support Vector Machine)を構成する。このサポート・ベクタ・マシンによる識別器を用いることで、前述した低レベル特徴による抽出よりも高い精度でボール候補領域の是非を判定し、リアルタイムに入力される2D画像に対する実時間内処理で、ボールを含むとして想定されるボール候補領域の数を絞り込むことができる。   Then, as this machine learning, a binary support vector machine (SVM: Support Vector Machine) is configured in a supervised learning framework using high-level features by the 283-dimensional dual feature amount. By using the classifier based on this support vector machine, the ball candidate area is judged with higher accuracy than the extraction based on the low level feature described above, and the ball is processed in real time with the 2D image input in real time. It is possible to narrow down the number of ball candidate areas assumed to include.

即ち、サポート・ベクタ・マシンによる識別処理には処理時間を要するため、本発明に係るオブジェクト位置推定システム1では、低レベル特徴によるボール領域抽出で領域数を減らした後、高レベル特徴による認識処理を行うよう2段階抽出する構成とすることで、高精度、且つ実時間内処理を実現している。   That is, since the identification process by the support vector machine requires processing time, in the object position estimation system 1 according to the present invention, after the number of areas is reduced by the ball area extraction by the low level feature, the recognition process by the high level feature is performed. The high-precision and real-time processing is realized by adopting a configuration in which the two-stage extraction is performed to perform the

次に、対象オブジェクト検出・追跡装置2の各々は、オブジェクト軌跡生成部23により、オブジェクト候補領域認識部22によって特定されたボール候補領域について、現2D画像と1以上の連続する過去2D画像との間(即ち、隣接フレーム間)で関連付けたボール候補領域の軌跡を生成する(ステップS4)。   Next, each of the target object detection / tracking devices 2 performs the current 2D image and one or more consecutive past 2D images for the ball candidate area identified by the object candidate area recognition unit 22 by the object trajectory generation unit 23. A trajectory of a ball candidate area associated with each other (that is, between adjacent frames) is generated (step S4).

より具体的には、オブジェクト軌跡生成部23により、当該低レベル特徴及び高レベル特徴で抽出したボール候補領域に対し、その位置座標を時間軸上で規定数(例えば3点)以上連結した移動軌跡を生成する。例えば、現2D画像のフレームiで抽出したボール候補領域がm個存在し、過去2D画像のフレームi−1までに追跡しているボール候補領域がn個存在するとする。この際、フレームiで新たに抽出したボール候補領域をフレームi−1までに追跡しているボール候補領域のどの軌跡に割り当てるかを、各軌跡までの距離と低レベル特徴の類似度を基準として判断する。   More specifically, for the ball candidate area extracted as the low-level feature and the high-level feature by the object-trajectory generating unit 23, a movement locus obtained by connecting the position coordinates of a predetermined number (for example, three points) or more on the time axis. Generate For example, it is assumed that there are m ball candidate areas extracted in frame i of the current 2D image and n ball candidate areas tracked by frame i-1 in the past 2D image. Under the present circumstances, it is based on the distance to each locus and the similarity of a low level feature to which locus of the ball candidate area currently traced by frame i to which a ball candidate area newly extracted by frame i is assigned. to decide.

そして、各軌跡は、フレームi−1までに追跡しているボール候補領域の低レベル特徴が関連付けて保持されているものとする。フレームiで抽出したボール候補領域が、各軌跡に関連付けて保持されている低レベル特徴に対して所定値以上に類似度が高く、且つ所定範囲内で距離が近いとするボール候補領域が存在する場合、追跡成功として当該軌跡にそのボール候補領域を追加する。一方、所定値以上に類似度が高く、且つ所定範囲内で距離が近いとするボール候補領域が存在しない場合、当該フレームiで抽出したボール候補領域を新規オブジェクトとみなし、現2D画像のフレームiから新たな軌跡を生成する。オブジェクト軌跡生成部23により生成される各軌跡は、ボール候補領域の検出に成功したフレームでの画像座標を保持している。また、規定フレーム数以上で追跡に失敗した軌跡は、追跡対象から削除する。   Then, it is assumed that low-level features of the ball candidate area tracked by frame i-1 are associated with each trajectory and held. There is a ball candidate area in which the ball candidate area extracted in frame i has a similarity higher than a predetermined value with respect to low-level features held in association with the trajectories, and the distance is short within a predetermined range. In the case, the ball candidate area is added to the trajectory as tracking success. On the other hand, if there is no ball candidate area whose similarity is higher than a predetermined value and the distance is short within the predetermined range, the ball candidate area extracted in the frame i is regarded as a new object, and the frame 2 of the current 2D image is considered. Generate a new trajectory from. Each trajectory generated by the object trajectory generation unit 23 holds image coordinates in a frame in which the ball candidate region has been successfully detected. In addition, trajectories for which tracking failed for a specified number of frames or more are deleted from the tracking targets.

次に、対象オブジェクト検出・追跡装置2の各々は、オブジェクト軌跡選定部24により、オブジェクト軌跡生成部23によって複数に生成されうるボール候補領域の軌跡のうち、現2D画像のフレームを基準にして1以上のフレームで構成されるそれぞれの軌跡について予め定めた指標に基づき最も高い値を持つ軌跡を選定し、現2D画像とともに当該選定した軌跡の各フレームにおけるボール候補座標を、追跡対象のオブジェクト(即ち、ボール)の軌跡として決定する(ステップS5)。   Next, each of the target object detection / tracking devices 2 causes the object trajectory selection unit 24 to generate a plurality of trajectory candidate ball candidates that can be generated by the object trajectory generation unit 23 based on the frame of the current 2D image. The trajectory having the highest value is selected based on a predetermined index for each trajectory composed of the above frames, and the ball candidate coordinates in each frame of the selected trajectory are selected along with the current 2D image, , And the ball) are determined (step S5).

より具体的には、オブジェクト軌跡選定部24により、予め定めた指標に基づき最も高い値を持つ軌跡を選定し、対応するカメラの現2D画像での最終的なボール位置を決定する。オブジェクト軌跡生成部23により生成された各軌跡は、ボール候補領域の検出に成功したフレームでの画像座標を保持している。尚、これら画像座標は、後述する射影変換によって実空間座標へ変換することが可能である。オブジェクト軌跡選定部24は、各軌跡の位置座標の履歴から、実空間上(即ち、射影変換画像上)でのボール候補領域の速度、移動量、及び追跡時間のうち1つ以上を指標として求める。   More specifically, the object trajectory selection unit 24 selects a trajectory having the highest value based on a predetermined index, and determines the final ball position in the current 2D image of the corresponding camera. Each trajectory generated by the object trajectory generation unit 23 holds image coordinates in a frame in which the ball candidate region has been successfully detected. These image coordinates can be converted to real space coordinates by projective transformation described later. The object trajectory selection unit 24 obtains, from the history of position coordinates of each trajectory, one or more of the velocity, movement amount, and tracking time of the ball candidate region in real space (that is, on the projective transformation image) as an index .

例えば、現2D画像のフレームを基準にして得られるそれぞれの軌跡について、各軌跡を構成する各フレームでの画像座標を基にフレーム単位で移動量を算出し、フレーム単位で算出した移動量を各軌跡の長さに相当するフレーム数(追跡時間)で平均化することで当該指標の評価値(これは、平均動きベクトル長に相当する。)とし、この平均動きベクトル長が最も長いものを、最もボールの動きに近い軌跡として選定する。或いは、現2D画像のフレームを基準にして得られるそれぞれの軌跡について、各軌跡を構成する各フレームでの画像座標を基にフレーム単位で速度及び移動量を算出し、フレーム単位で算出した速度を各軌跡の長さに相当するフレーム数(追跡時間)で平均化することで当該指標の評価値を得ることができる。或いはまた、各軌跡のフレーム数で勘案した平均速度や平均移動量、及び追跡時間について重み付け加算した値で当該指標の評価値を得ることができる。定性的には、当該平均速度が最も速いもの、当該平均移動量が最も大きいもの、及び追跡時間が最も長いものが最もボールの動きに近い軌跡として選定される。そして、現2D画像とともに当該選定した軌跡の各フレームにおけるボール候補座標を、対象オブジェクト検出・追跡装置2の各々の最終値として決定する。尚、当該指標に閾値を設け、全ての軌跡が該閾値以下の指標である場合、即ちボールの動きに近い軌跡が存在しないと判断する場合、当該カメラ映像でのボール候補領域の追跡は失敗とみなし、当該選定した軌跡の各フレームにおけるボール候補座標の代わりにNULLを出力する。   For example, for each locus obtained on the basis of the frame of the current 2D image, the movement amount is calculated in frame units based on the image coordinates in each frame constituting each locus, and the movement amount calculated in frame units is calculated By averaging with the number of frames (tracking time) corresponding to the length of the locus, the evaluation value of the index (which corresponds to the average motion vector length) is obtained, and the one with the longest average motion vector length is Select as the trajectory closest to the movement of the ball. Alternatively, for each trajectory obtained based on the frame of the current 2D image, the velocity and movement amount are calculated in frame units based on the image coordinates in each frame constituting each trajectory, and the velocity calculated in frame units is calculated The evaluation value of the index can be obtained by averaging the number of frames (tracking time) corresponding to the length of each trajectory. Alternatively, it is possible to obtain an evaluation value of the index by a weighted addition of the average velocity and the average moving amount and the tracking time taken into consideration in the number of frames of each trajectory. Qualitatively, the one with the highest average velocity, the one with the highest average movement amount, and the one with the longest tracking time is selected as the trajectory closest to the movement of the ball. Then, the ball candidate coordinates in each frame of the selected trajectory together with the current 2D image are determined as final values of each of the target object detection / tracking device 2. Note that if the index is provided with a threshold and all the trajectories are below the threshold, that is, if it is determined that there is no trajectory close to the movement of the ball, tracking of the ball candidate area in the camera image is considered as failure. It considers and outputs NULL instead of the ball candidate coordinates in each frame of the selected trajectory.

更に、オブジェクト軌跡生成部23は、オブジェクト軌跡選定部24による軌跡の選定に関わらず、当該複数に生成された際の全てのボール候補領域の軌跡を継続的に追跡している。したがって、オブジェクト軌跡選定部24は、一旦、最もボールの動きに近い軌跡として選定されたボール候補座標の軌跡が途切れた場合(即ち、当該軌跡に割り当てられるボール候補座標が無くなってしまう場合)も、その途切れた時点のフレームにおける最も距離的に近接する他のボール候補領域の画像座標を当該最もボールの動きに近い軌跡のボール候補座標とみなして規定フレーム数まで追跡して出力する。このとき、オブジェクト軌跡選定部24は、その途切れた時点の「追跡終了フレームからの経過時間」を補助情報として付与して追跡対象のオブジェクト(即ち、ボール)の軌跡とともに出力する。各軌跡は必ず「追跡終了フレームからの経過時間」を補助情報として有するように構成され、追跡対象のオブジェクトの追跡開始から現2D画像まで常に追跡できていた時には、「追跡終了フレームからの経過時間」は“0”を意味する。   Furthermore, regardless of the selection of the trajectory by the object trajectory selection unit 24, the object trajectory generation unit 23 continuously tracks the trajectories of all the ball candidate areas when the plurality of ball candidate regions are generated. Therefore, the object trajectory selection unit 24 also temporarily cancels the trajectory of the ball candidate coordinates selected as the trajectory closest to the movement of the ball (that is, when the ball candidate coordinates assigned to the trajectory disappear), The image coordinates of the other ball candidate area closest to the distance in the frame at the interrupted time point are regarded as the ball candidate coordinates of the trajectory closest to the movement of the ball, and tracked and output up to the specified frame number. At this time, the object trajectory selection unit 24 adds “the elapsed time from the tracking end frame” at the time of the interruption as the auxiliary information, and outputs it along with the trajectory of the object to be tracked (that is, the ball). Each trajectory is always configured to have "elapsed time from the tracking end frame" as auxiliary information, and when it is possible to always track from the tracking start of the tracking target object to the current 2D image, "elapsed time from the tracking end frame "" Means "0".

通常、全ての軌跡は、連続するフレームでボール候補座標が無くなることがあり、ボール候補座標が無くなった場合でも最も距離的に近接する他のボール候補領域の画像座標を出力するよう構成することで、オブジェクト軌跡選定部24によって当該最終的に選定するボール候補領域の軌跡を規定フレーム数まで追跡表示させることが可能となり、その追跡能力を向上させることができる。そして、その途切れた時点の「追跡終了フレームからの経過時間」を補助情報として付与することで、後述する最終的なボール位置座標の選定時における精度を向上させることができる。   Normally, all the trajectories may lose ball candidate coordinates in consecutive frames, and even if the ball candidate coordinates are lost, the image coordinates of another ball candidate area closest in distance can be output by outputting the image coordinates. The trajectory of the ball candidate area finally selected by the object trajectory selection unit 24 can be traced and displayed up to the specified number of frames, and the tracking ability can be improved. Then, by adding “the elapsed time from the tracking end frame” at the time of the interruption as the auxiliary information, it is possible to improve the accuracy at the time of selecting the final ball position coordinate described later.

オブジェクト軌跡選定部24により選定した軌跡の例を図7に示す。図7は、本発明による一実施形態のオブジェクト位置推定システム1におけるオブジェクトの軌跡生成処理及び軌跡選定処理の処理結果に関する説明図である。オブジェクト軌跡選定部24により選定した軌跡は、図7に示すように、現2D画像のフレームFrにおける当該選定された軌跡のボール候補座標Bnは、現2D画像Frより過去のフレームに関するボール候補座標を基に、軌跡TLnとして表すことができる。   An example of the locus selected by the object locus selection unit 24 is shown in FIG. FIG. 7 is an explanatory diagram of processing results of an object trajectory generation process and a trajectory selection process in the object position estimation system 1 according to the embodiment of the present invention. As the trajectory selected by the object trajectory selection unit 24, as shown in FIG. 7, the ball candidate coordinates Bn of the selected trajectory in the frame Fr of the current 2D image are the ball candidate coordinates for the past frames from the current 2D image Fr. Can be expressed as a locus TLn.

次に、対象オブジェクト位置統合装置3は、対象オブジェクト検出・追跡装置2の各々から、それぞれの現2D画像と、当該選定された軌跡の各フレームにおけるボール候補座標(或いは当該NULL)を入力する(ステップS6)。   Next, the target object position integration device 3 inputs the current 2D image of each and the ball candidate coordinates (or the NULL) in each frame of the selected trajectory from each of the target object detection / tracking device 2 ( Step S6).

次に、対象オブジェクト位置統合装置3は、射影変換部31により、各対象オブジェクト検出・追跡装置2から入力された、2D画像(即ち、現2D画像)と、当該選定された軌跡のボール候補座標について、各ボール候補座標を反映する所定の射影変換画像へそれぞれ変換して統合する(ステップS7)。   Next, in the target object position integration device 3, the 2D image (that is, the current 2D image) input from each target object detection / tracking device 2 by the projective transformation unit 31 and the ball candidate coordinates of the selected trajectory Are converted and integrated into predetermined projective transformation images reflecting the ball candidate coordinates (step S7).

より具体的には、射影変換部31により、各対象オブジェクト検出・追跡装置2から得られた2D画像と、当該選定された軌跡のボール候補座標を実空間座標へと射影変換する。射影変換とは、平面から平面へ写像する、式(2),(3)で表わされる画像上の変換である(例えば、『高橋,沼徳,青木,近藤、“東映画像の幾何補正に関する実験的検討”,計測自動制御学会東北支部 第235回研究集会,資料番号235―5,2007』を参照)。   More specifically, the projective transformation unit 31 projective-transforms the 2D image obtained from each target object detection / tracking device 2 and the ball candidate coordinates of the selected trajectory into real space coordinates. Projective transformation is a transformation on an image represented by equations (2) and (3), which maps from plane to plane (for example, “experiment on geometric correction of Toei image,“ Takahashi, Numa, Aoki, Kondo ” Examination ”, the Tohoku Section of the Institute of Measurement and Control Engineers, No. 235, Conference No. 235-5, 2007.

ここで、座標(x, y)は変換前、座標(x, y)は変換後の座標とする。本例における射影変換は、平面から平面への写像であるため変換後も2次元座標となるが、2次元フィールド座標では高さを省略できるため、実空間上での高さ成分をゼロ(z=0)とみなしている。h,…,hは射影変換パラメータであり、射影変換行列Hは式(4)で表される。 Here, coordinates (x c , y c ) are coordinates before conversion, and coordinates (x p , y p ) are coordinates after conversion. The projective transformation in this example is a mapping from a plane to a plane and therefore becomes two-dimensional coordinates even after transformation, but since height can be omitted in two-dimensional field coordinates, the height component in real space is zero (z = 0) is considered. h 1 ,..., h 8 are projective transformation parameters, and the projective transformation matrix H is expressed by equation (4).

式(4)における8つのパラメータは、画像間の4点以上の対応関係が得られれば求めることができる。例えば、固定撮影映像からフィールドの四隅など特徴的な点を4点以上指定し、フィールドを真上から見た映像へ変換する射影変換行列を事前に作成しておく。この射影変換行列を算出することで、例えば、図8(A)に示す或るカメラのフレーム画像Fr(n)(及びボール候補座標)を、図8(B)に示す2次元フィールド座標系の画像IFr(及び射影変換後のボール候補座標)へと変換することが可能となる。尚、図8(A),(B)は、サッカーフィールドの右サイドを撮影した画像を、この真上座標系へ射影変換した画像例を示している。さらに、サッカーフィールドの右サイドを撮影した画像を真上座標系へ射影変換したものと、サッカーフィールドの左サイドを撮影した画像を射影変換したものとを合成することで、例えば図9に例示する画像を得ることができる。即ち、対象オブジェクト検出・追跡装置2の各々から得られるフレーム画像及び当該選定された軌跡のボール候補座標は、同一の空間(例えば、真上画像座標系に相当するフィールド座標)に射影変換される。以降の処理は、この射影変換した真上画像座標系で処理が進められる。   The eight parameters in Equation (4) can be obtained if the correspondence between four or more points between images is obtained. For example, four or more characteristic points such as the four corners of the field are specified from the fixed captured video, and a projection transformation matrix is created in advance to transform the field into a video viewed from directly above. By calculating this projective transformation matrix, for example, a frame image Fr (n) (and ball candidate coordinates) of a certain camera shown in FIG. 8A can be displayed in the two-dimensional field coordinate system shown in FIG. It becomes possible to convert into an image IFr (and ball candidate coordinates after projective transformation). FIGS. 8A and 8B show an example of an image obtained by projective conversion of an image obtained by photographing the right side of the soccer field to the directly above coordinate system. Furthermore, it is illustrated, for example, in FIG. 9, for example, by combining an image obtained by project-transforming an image obtained by capturing the right side of the soccer field into the directly upper coordinate system and one obtained by project-transformed images obtained by capturing the left side of the soccer field. You can get an image. That is, the frame image obtained from each of the target object detection / tracking device 2 and the ball candidate coordinates of the selected trajectory are projective transformed into the same space (for example, field coordinates corresponding to the directly above image coordinate system) . The subsequent processing is performed in the projection coordinate system directly above.

次に、対象オブジェクト位置統合装置3は、ブロック判定部32により、射影変換部31によって得られる射影変換画像について所定ブロック数でブロック分割し、各ブロック内で当該ボールのオブジェクトと相関性が高いものとして予め定めた当該ボール以外のオブジェクトによって表される特徴量を算出して比較し、該特徴量が所定値以下のブロックを排除し、未排除のブロックに位置するボール候補座標を選定することにより、当該射影変換画像から得られる各ボール候補座標を選択する。例えば、各ブロック内の当該ボール以外のオブジェクトによって表される特徴量として、人物領域の占有率とすることができる。即ち、ブロック判定部32のブロック判定処理として、射影変換画像から得られる各ブロックの人物領域の占有率を算出し、人物領域の占有率を基に、人物領域の占有率が高いブロック内のボール候補座標を優先的に選択する。   Next, in the target object position integration device 3, the block determination unit 32 divides the projective transformed image obtained by the projective transform unit 31 into blocks by a predetermined number of blocks, and has high correlation with the object of the ball in each block. By calculating and comparing feature quantities represented by objects other than the ball, which are predetermined as the above, excluding blocks whose feature quantities are equal to or less than a predetermined value, and selecting ball candidate coordinates located in unremoved blocks Each ball candidate coordinate obtained from the projective transformation image is selected. For example, the occupancy rate of a person area can be used as a feature quantity represented by an object other than the ball in each block. That is, as the block determination processing of the block determination unit 32, the occupancy rate of the person area of each block obtained from the projective transformation image is calculated, and based on the occupancy rate of the person area, the ball in the block having a high occupancy rate of the person area Select candidate coordinates with priority.

より具体的には、ブロック判定部32により、例えば、図9のように射影変換した画像IFrについて、図10に示すように、12ブロックに分割し、各ブロック内で人物領域hの占有率を算出する。占有率の算出式を式(5)に示す。   More specifically, for example, as shown in FIG. 10, the block determination unit 32 divides the image IFr project-transformed as shown in FIG. 9 into 12 blocks, and the occupancy rate of the person area h in each block is calculate. An equation for calculating the occupancy rate is shown in equation (5).

=m/p (5) O i = m i / p i (5)

ここで、Oはブロック番号Bkにおける人物領域の占有率であり、mは人物領域の合計画素数、pはブロックBk内のトータル画素数である。一般に、ボールは選手が密集しているブロックに位置することが多い。そこで、或るカメラ映像で人物領域の占有率が低いブロックからボールを検出した場合、その検出を却下することで、安定したボール位置推定を実現することができる。尚、各ブロック内の当該ボール以外のオブジェクトによって表される特徴量(人物領域)の算出は、厳密性を要するものではなく、各ブロック間の差異を基に判別可能とするものであれば、例えば前述した色ヒストグラムによる解析など任意の画像解析処理を用いることができる。例えば、図10では、Bk(0,1),Bk(0,2),Bk(1,1),Bk(1,2),Bk(2,1),Bk(2,2)以外のブロックBkがボール推定位置から排除される。 Here, O i is the occupancy of the human region in the block number Bk, m i is the total number of pixels in the person area, p i is the total number of pixels in the block Bk. In general, balls are often located in blocks where players are closely packed. Therefore, when a ball is detected from a block having a low occupancy rate of a person area in a certain camera image, a stable ball position estimation can be realized by rejecting the detection. Note that the calculation of the feature amount (person area) represented by an object other than the ball in each block does not require strictness, and it can be determined based on the difference between the blocks. For example, arbitrary image analysis processing such as analysis using the color histogram described above can be used. For example, in FIG. 10, blocks other than Bk (0, 1), Bk (0, 2), Bk (1, 1), Bk (1, 2), Bk (2, 1), Bk (2, 2) Bk is excluded from the ball estimated position.

次に、対象オブジェクト位置統合装置3は、オブジェクト位置推定部33により、ブロック判定部32によって選択された各ボール候補座標について、各軌跡の「追跡終了フレームからの経過時間」を基に、所定時間以上(所定のフレーム数以上)に継続しているボール候補座標を最終的なボール位置座標として決定する(ステップS9)。各軌跡は必ず「追跡終了フレームからの経過時間」を補助情報として有するように構成され、追跡対象のオブジェクトの追跡開始から現2D画像まで常に追跡できていた時には、「追跡終了フレームからの経過時間」は“0”を意味する。   Next, in the target object position integration device 3, for each of the ball candidate coordinates selected by the block determination unit 32 by the object position estimation unit 33, based on the “elapsed time from the tracking end frame” of each trajectory, a predetermined time The ball candidate coordinates continuing above (more than the predetermined number of frames) are determined as the final ball position coordinates (step S9). Each trajectory is always configured to have "elapsed time from the tracking end frame" as auxiliary information, and when it is possible to always track from the tracking start of the tracking target object to the current 2D image, "elapsed time from the tracking end frame "" Means "0".

より具体的には、オブジェクト位置推定部33により、真上座標系での各カメラのボール候補座標を統合し、最終的なボール位置座標を決定するため、実空間座標(2次元フィールド座標)に射影変換した各カメラ映像のボール座候補座標について、式(6)に従い、追跡終了フレームからの経過時間に基づく重み付き線形和で最終的なボール位置座標Pを算出する。 More specifically, the object position estimation unit 33 integrates the ball candidate coordinates of each camera in the directly upper coordinate system, and determines the final ball position coordinates, so that the real space coordinates (two-dimensional field coordinates) are used. The final ball position coordinates P F are calculated by weighted linear sum based on the elapsed time from the tracking end frame according to the equation (6) for the ball seat candidate coordinates of each camera video projective transformed.

ここで、フレーム番号cを要素として、t(c)は追跡終了フレームからの経過時間、P(c)はそれぞれの対象オブジェクト検出・追跡装置2からブロック判定部32を経て選択されて得られているボール候補座標、Tは「追跡終了フレームからの経過時間t(c)」の最大値として定義した固定時間(例えば3秒)である。実空間座標(2次元フィールド座標)の画像上でのボール位置推定例を図11に示す。図中の丸印が最終的に推定し得られたボール位置座標点であり、黒点が実際のボール位置の座標点を表している。また4台のカメラ映像毎の処理で得られていたボール候補座標の位置が、好適には同一箇所を示すことになるが、図11に示すように、複数の異なる箇所でボール候補座標の位置を示す場合も想定され、それぞれのカメラ番号を表す数字で示されている。図11において、カメラ番号2が最も追跡終了フレームからの経過時間t(c)が長いことを示しており、式(6)によれば、“T−t(c)”が当該カメラで得られた軌跡の重みを意味するところとなり、追跡終了フレームからの経過時間t(c)がより長いボール候補座標が最終的なボール位置座標Pとして長く表示される。 Here, with frame number c as an element, t (c) is an elapsed time from the tracking end frame, and P F (c) is obtained by being selected from each target object detection / tracking device 2 via the block determination unit 32 The ball candidate coordinates in question, T is a fixed time (for example, 3 seconds) defined as the maximum value of “the elapsed time t (c) from the tracking end frame”. An example of ball position estimation on an image of real space coordinates (two-dimensional field coordinates) is shown in FIG. Circles in the figure are the ball position coordinate points finally obtained by estimation, and black dots represent the coordinate points of the actual ball position. Also, although the positions of the ball candidate coordinates obtained in the processing for each of the four camera images preferably indicate the same portion, as shown in FIG. 11, the positions of the ball candidate coordinates at a plurality of different portions Is also assumed, and is indicated by a number representing each camera number. In FIG. 11, the camera number 2 indicates that the elapsed time t (c) from the tracking end frame is the longest, and according to Equation (6), “T−t (c)” is obtained by the camera. The ball candidate coordinates having a longer elapsed time t (c) from the tracking end frame are displayed longer as the final ball position coordinates P F.

即ち、当該決定された最終的なボール位置座標は、当該射影変換画像における位置座標を示す態様で、図示しない所定の画像表示部へと表示させ、この表示を連続させることで、当該最終的に推定したボール位置の軌跡を当該射影変換画像上にて表示させることができる。そして、「追跡終了フレームからの経過時間」を基に、所定時間以上(例えば、3フレーム以上とするなどの所定のフレーム数以上)に継続しているボール候補座標を最終的なボール位置座標として決定する。これにより、例えば、ブロック判定部32によって選択された各ボール候補座標が或るフレームにて複数ある場合や全く検出されない場合も、複数フレームで連続的に射影変換された各射影変換画像上にて連続表示させると、概ね1つの推定されたボール位置の軌跡が認識される。   That is, the determined final ball position coordinates are displayed on a predetermined image display unit (not shown) in a manner of indicating the position coordinates in the projective transformation image, and the display is continuously performed, thereby the final The trajectory of the estimated ball position can be displayed on the projective transformation image. Then, based on "the elapsed time from the tracking end frame", ball candidate coordinates continuing for a predetermined time or more (for example, a predetermined number of frames such as 3 frames or more) are set as final ball position coordinates. decide. Thus, for example, even in the case where there are a plurality of ball candidate coordinates selected by the block determination unit 32 in a certain frame or none of them are detected at all, it is possible to continuously project transformed images in a plurality of frames. When continuously displayed, a track of approximately one estimated ball position is recognized.

尚、ブロック判定部32の処理後にも複数のボール候補座標の軌跡が認められる場合に、これを1つの軌跡に絞りたいときには、最も優先度の高いブロック(例えば、最も人物の占有率の高いブロック)内で、「追跡終了フレームからの経過時間」が最も長いボール候補座標を最終的なボール位置座標Pとして決定するよう構成してもよい。 Note that if trajectories of a plurality of ball candidate coordinates are recognized even after the processing of the block determination unit 32, the block with the highest priority (for example, the block with the highest occupancy rate of the person) In the above, the ball candidate coordinates having the longest “time elapsed from the tracking end frame” may be determined as the final ball position coordinates P F.

また、「追跡終了フレームからの経過時間」を基にする式(6)の代わりに、ボール位置の状態推定アルゴリズムとしてカルマンフィルタを用いることもできる。カルマンフィルタは、離散的な誤差のある観測から、時々刻々と時間変化する量(例えばある物体の位置と速度)を推定するために用いられる(例えば、『西山、“カルマンフィルタ”、電子情報通信学会「知識ベース」1群(信号・システム)‐5編(信号理論)‐6章,2011』を参照)。ただし、後述する実験結果に示すように、カルマンフィルタよりも式(6)のように定義した状態推定式のほうがリアルタイムのボール位置推定に優れた結果が得られている。   Also, a Kalman filter can be used as a ball position state estimation algorithm instead of the equation (6) based on the "time elapsed from the tracking end frame". The Kalman filter is used to estimate the time-varying amount (for example, the position and velocity of an object) from observation with discrete error (for example, “Nishiyama,“ Kalman filter ”, Institute of Electronics, Information and Communication Engineers,“ Knowledge base, 1 group (signals and systems)-5 (signal theory)-Chapter 6, chapter 2011). However, as shown in the experimental results described later, the state estimation equation defined as equation (6) is superior to the Kalman filter in real-time ball position estimation.

以下、本実施形態のオブジェクト位置推定システム1と、従来技法とを比較検証した実験結果について説明する。   An experimental result comparing and verifying the object position estimation system 1 of the present embodiment with the conventional technique will be described below.

(実験条件)
本実施形態のオブジェクト位置推定システム1の有効性を確認するため、サッカーの試合映像を用いた検証実験を行った。2014年天皇杯全日本サッカー選手権にて、フィールドを固定撮影した4台のカメラ映像を検証に用いた。各カメラ前半の映像を学習し、後半の映像を評価に利用した。2次元フィールド画像上のボール位置を10フレーム毎に目視確認し、ボール位置の正解データとした。
(Experimental conditions)
In order to confirm the effectiveness of the object position estimation system 1 of the present embodiment, a verification experiment using a soccer match video was performed. At the 2014 Emperor's Cup All-Japan Soccer Championship, 4 camera images of the field fixedly shot were used for verification. We learned the video of the first half of each camera and used the video of the second half for evaluation. The ball position on the two-dimensional field image was visually checked every 10 frames and used as the correct data of the ball position.

(ボール検出精度)
まず、本発明に係るオブジェクト候補領域抽出部21の低レベル特徴による抽出を経て得られるオブジェクト候補領域認識部22の高レベル特徴の抽出処理についての性能評価を行った。約9,000枚のボール画像(正例)と非ボール画像(負例)を利用し、その半数を学習用とし、残りの半数を評価用とした。2値判定による識別精度、及び識別に要した1画像あたりの処理時間を図12に示した。比較対象として、モーメント、色ヒストグラム単体、LBP単体、ORB、SURF、及びSIFTを示している。本実験に係る「モーメント」は、画像や形状の特徴を定量的に表現する技法の一つであり、本例では0次の空間モーメント、中心モーメント、正規化された中心モーメント、及び並進・回転に不変な7つのHuモーメント不変量を合わせて10次元の特徴量とした。本実験に係る「色ヒストグラム」は、RGB色空間を3×3×3の27次元の特徴量とした。本実験に係る「LBP」は、式(1)に基づくR=1, P=8の256次元の特徴量とした。「ORB」、「SURF」、及び「SIFT」は画像内の局所勾配による特徴量として従来から知られたものであり、その特徴次元をビンとしたヒストグラムで識別を行った。
(Ball detection accuracy)
First, the performance evaluation of the high-level feature extraction process of the object candidate area recognition unit 22 obtained through the low-level feature extraction of the object candidate area extraction unit 21 according to the present invention was performed. Using about 9,000 ball images (positive example) and non-ball images (negative example), half of them were used for learning and the other half were used for evaluation. The discrimination accuracy by binary determination and the processing time per image required for discrimination are shown in FIG. For comparison, moments, color histograms alone, LBP alone, ORB, SURF, and SIFT are shown. The “moment” in this experiment is one of the techniques for quantitatively expressing the features of images and shapes, and in this example, the zero-order spatial moment, central moment, normalized central moment, and translation and rotation The seven invariant Hu moment invariants are combined into 10 dimensional feature quantities. In the “color histogram” according to this experiment, the RGB color space is a 27 × 3 × 3 × 3 feature amount. “LBP” according to this experiment is a 256-dimensional feature quantity of R = 1, P = 8 based on the equation (1). “ORB”, “SURF”, and “SIFT” are conventionally known as features due to local gradients in an image, and identification was performed using a histogram with bins of the feature dimensions.

本実験に係る図12に示す「本発明」は、オブジェクト候補領域認識部22の高レベル特徴による抽出として色ヒストグラム特徴量(27次元)とLBP特徴量(256次元)の二重特徴量による283次元の特徴量である。図12に示すように、LBP及び色ヒストグラムの識別性能は単体でも他の技法に比べて高精度となり、本実施形態のオブジェクト位置推定システム1のようにその両者を組み合わせた二重特徴量では最も高精度となる値となった。本実施形態のオブジェクト位置推定システム1の処理速度に関しては、LBP単体及び色ヒストグラム単体と比べて若干遅くなるものの、リアルタイム処理を実現できる範囲内の負荷で実現されることが確認できた。   The “present invention” shown in FIG. 12 according to the present experiment is 283 based on the double feature quantity of the color histogram feature quantity (27 dimensions) and the LBP feature quantity (256 dimensions) as extraction based on high level features of the object candidate area recognition unit 22. It is a feature of dimension. As shown in FIG. 12, the discrimination performance of the LBP and the color histogram is higher than that of the other techniques even if it is a single device, and the double feature amount combining the both as in the object position estimation system 1 of this embodiment is the best. It became a high precision value. It has been confirmed that the processing speed of the object position estimation system 1 of the present embodiment can be realized with a load within a range where real time processing can be realized although it is slightly slower than LBP alone and color histogram alone.

(ボール位置推定精度)
続いて、本実施形態のオブジェクト位置推定システム1によるボール位置の推定精度を検証した。試合後半の映像から2次元フィールド座標上でのボールの正解位置と推定位置の誤差を算出した。代表的なオブジェクト追跡技法であるカルマンフィルタと比較した結果を図13に示している。
(Ball position estimation accuracy)
Subsequently, the estimation accuracy of the ball position by the object position estimation system 1 of the present embodiment was verified. The error between the correct position and the estimated position of the ball on the two-dimensional field coordinates was calculated from the video of the second half of the game. The result compared with the Kalman filter which is a typical object tracking technique is shown in FIG.

推定誤差を実空間のメートルに換算したところ、本実施形態のオブジェクト位置推定システム1では、誤差の平均値は5.42mであった。一方、カルマンフィルタの場合では、誤差の平均値は10.55mとなり、本実施形態のオブジェクト位置推定システム1はカルマンフィルタと比較しても誤差は低く抑えられており、高い精度でボール位置を推定可能となることを確認できた。推定誤差が所定半径の円内に収まる確率も識別精度の重要な要素して考察するに、例えば、図14(A)では、カメラ番号3のボール候補座標で最終的なボール位置座標として推定され、実際のボール位置と一致している場合を示している。また、図14(B)では、カメラ番号1,4のボール候補座標のうちカメラ番号4のボール候補座標で最終的なボール位置座標として推定され、実際のボール位置とは若干のずれが生じている。この推定誤差が所定半径の円内に収まる確率も図13に示しており、当該試合の約9割の時間帯で半径10mの以内の誤差を達成できていることを確認した。   When the estimation error was converted into meters in the real space, in the object position estimation system 1 of the present embodiment, the average value of the errors was 5.42 m. On the other hand, in the case of the Kalman filter, the average value of the errors is 10.55 m, and the object position estimation system 1 of this embodiment suppresses the error low compared to the Kalman filter, and can estimate the ball position with high accuracy. It could be confirmed that The probability that the estimation error falls within a circle of a predetermined radius is also considered as an important factor of identification accuracy. For example, in FIG. , Shows the case where it matches the actual ball position. Further, in FIG. 14B, the ball candidate coordinates of camera number 4 among the ball candidate coordinates of camera numbers 1 and 4 are estimated as final ball position coordinates, and a slight deviation from the actual ball position occurs. There is. The probability that this estimation error falls within a circle of a predetermined radius is also shown in FIG. 13, and it was confirmed that an error within a radius of 10 m could be achieved in about 90% of the time slot of the game.

本実施形態のオブジェクト位置推定システム1では、特に、各カメラ映像に対して機械学習を用いた高精度なボール検出処理を行っている点、軌跡からボールの動きに近いオブジェクトを効果的に選択できている点、及び複数のカメラ映像に対する処理結果を相補的に統合している点が、当該高精度化に貢献したものと考えられる。   In the object position estimation system 1 of the present embodiment, in particular, it is possible to effectively select an object close to the movement of the ball from the locus, in that high precision ball detection processing using machine learning is performed on each camera image. And the point that the processing results for a plurality of camera images are complementarily integrated are considered to have contributed to the high accuracy.

以上、特定の実施形態の例を挙げて本発明を説明したが、本発明は前述の実施形態に限定されるものではなく、その技術思想を逸脱しない範囲で種々変形可能である。例えば、本実施形態のオブジェクト位置推定システム1では、複数の対象オブジェクト検出・追跡装置2と、対象オブジェクト位置統合装置3とを個別の装置で構成する例を説明したが、複数の対象オブジェクト検出・追跡装置2のうちの1つに対象オブジェクト位置統合装置3の機能を組み入れるように構成してもよい。また、用途によっては、複数の対象オブジェクト検出・追跡装置2と、対象オブジェクト位置統合装置3の各機能を1つの装置に組み入れて構成してもよい。したがって、複数の対象オブジェクト検出・追跡装置2、及び対象オブジェクト位置統合装置3は、それぞれパーソナルコンピュータにより実現することができ、個別のプログラムで動作するよう構成することができるほか、単一のプログラムとして構成することもできる。   Although the present invention has been described above by giving an example of a specific embodiment, the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the technical concept thereof. For example, in the object position estimation system 1 according to the present embodiment, an example in which the plurality of target object detection / tracking devices 2 and the target object position integration device 3 are configured as separate devices has been described. One of the tracking devices 2 may be configured to incorporate the function of the target object position integration device 3. Also, depending on the application, the functions of the plurality of target object detection / tracking devices 2 and the target object position integration device 3 may be incorporated into one device. Therefore, the plurality of target object detection / tracking devices 2 and the target object position integration device 3 can be realized by personal computers, can be configured to operate with individual programs, and can be implemented as a single program. It can also be configured.

また、上述した例において、ブロック判定部32は、追跡対象のオブジェクトとして相関性が高いものとして予め定めることが可能な他のオブジェクトについて、複数の人物による占有率を例に説明したが、例えば卓球など競技者数が限られている場合は、各ブロックでその競技者自体が占める割合で判別するよう構成してもよい。   Also, in the above-described example, the block determination unit 32 has described, as an example, occupancy rates by a plurality of persons for other objects that can be predetermined as objects to be tracked that are highly correlated. If the number of athletes is limited, for example, each block may be configured to determine the proportion occupied by the athlete itself.

また、上述した例では、射影変換画像として2次元フィールド画像とする例を説明したが、3次元空間から2次元空間へと定義づけることができる座標系であれば任意の射影変換画像を形成することができる。   In the above-described example, the projective transformation image is described as a two-dimensional field image, but any projective transformation image is formed as long as it can be defined from a three-dimensional space to a two-dimensional space. be able to.

本発明によれば、高い精度で実空間上のオブジェクト位置を推定することができるので、スポーツ映像解析技術、特に、自動審判、スポーツ番組の放送、スポーツデータ生成・配信、コーチングなどのサービスに利用することが可能である。また追跡対象を特定オブジェクトに拡張すれば、監視カメラ映像解析に基づぃたセキュリティシステムなど、様々なサービスにも応用可能である。したがって、高い精度での実空間上のオブジェクト位置の推定を要する用途に有用である。   According to the present invention, it is possible to estimate the object position in real space with high accuracy, so it is used for sports video analysis technology, in particular, services such as automatic refereeing, sports program broadcasting, sports data generation / distribution, and coaching. It is possible. If the tracking target is expanded to a specific object, it can be applied to various services such as a security system based on surveillance camera image analysis. Therefore, it is useful for the application which requires estimation of the object position in real space with high accuracy.

1 オブジェクト位置推定システム
2 対象オブジェクト検出・追跡装置
3 対象オブジェクト位置統合装置
21 オブジェクト候補領域抽出部
22 オブジェクト候補領域認識部
23 オブジェクト軌跡生成部
24 オブジェクト軌跡選定部
31 射影変換部
32 ブロック判定部
33 オブジェクト位置推定部
DESCRIPTION OF SYMBOLS 1 object position estimation system 2 target object detection and tracking device 3 target object position integration device 21 object candidate region extraction unit 22 object candidate region recognition unit 23 object trajectory generation unit 24 object trajectory selection unit 31 projection conversion unit 32 block determination unit 33 object Position estimation unit

Claims (6)

複数のカメラによる映像を並列処理して、映像内の特定のオブジェクトを追跡可能とするオブジェクト位置推定システムであって、
各カメラからフレーム単位で連続する映像を入力してフレーム間差分画像を生成し、現在のフレームにおけるオブジェクト候補領域を差分画像で区分された領域に基づく低レベル特徴により決定するオブジェクト候補領域抽出手段と、
各カメラから得られる当該オブジェクト候補領域のうち、追跡対象のオブジェクトを含むとして想定される領域を機械学習に基づく高レベル特徴により特定するオブジェクト候補領域認識手段と、
各カメラから得られる当該高レベル特徴により特定されたオブジェクト候補領域について、フレーム間で関連付けたボール候補領域の軌跡を生成するオブジェクト軌跡生成手段と、
各カメラから得られる当該オブジェクト候補領域の軌跡のうち、カメラ毎に予め定めた指標に基づき最も高い値を持つ軌跡を追跡対象のオブジェクトの軌跡として選定するオブジェクト軌跡選定手段と、
各カメラから得られる当該現在のフレームの画像と、カメラ毎に選定されたオブジェクト候補領域の軌跡の画像座標を所定の射影変換画像へ変換して統合する射影変換手段と、
前記射影変換画像についてブロック分割し、各ブロック内で当該追跡対象のオブジェクトと相関性が高いものとして予め定めた当該追跡対象のオブジェクト以外のオブジェクトによって表される特徴量を算出して比較し、該特徴量が所定値以下のブロックを排除し、未排除のブロックに位置するオブジェクト候補座標を選定するブロック判定手段と、
当該選定されたオブジェクト候補座標について所定時間以上に継続しているボール候補座標を最終的なボール位置座標として決定するオブジェクト位置推定手段と、
を備えることを特徴とするオブジェクト位置推定システム。
An object position estimation system capable of processing an image by a plurality of cameras in parallel to enable tracking of a specific object in the image,
Object candidate area extraction means for inputting a continuous image in frame units from each camera to generate an inter-frame difference image, and determining object candidate areas in the current frame by low-level features based on areas divided by the difference image; ,
Object candidate area recognition means for specifying an area assumed to include an object to be tracked among the object candidate areas obtained from each camera by high-level feature based on machine learning,
Object trajectory generating means for generating a trajectory of a ball candidate region associated between frames for an object candidate region specified by the high level feature obtained from each camera;
Object trajectory selection means for selecting, as a trajectory of an object to be tracked, a trajectory having the highest value based on a predetermined index for each camera among trajectories of the object candidate area obtained from each camera;
Projection transformation means for transforming the image of the current frame obtained from each camera and the image coordinates of the locus of the object candidate area selected for each camera into a predetermined projective transformation image and integrating them;
The projective transformation image is divided into blocks, and within each block, feature amounts represented by objects other than the object to be tracked, which are predetermined to be highly correlated with the object to be tracked, are calculated and compared. Block determination means for excluding blocks having a feature amount equal to or less than a predetermined value and selecting object candidate coordinates located in unremoved blocks;
Object position estimation means for determining, as final ball position coordinates, ball candidate coordinates continuing for a predetermined time or more with respect to the selected object candidate coordinates;
An object position estimation system comprising:
前記オブジェクト候補領域認識手段は、色ヒストグラム特徴量とローカルバイナリーパターン特徴量の二重特徴量により認識されるボール候補領域を機械学習に基づく高レベル特徴により特定することを特徴とする、請求項1に記載のオブジェクト位置推定システム。   The object candidate area recognition means specifies a ball candidate area recognized by a dual feature quantity of a color histogram feature quantity and a local binary pattern feature quantity by a high level feature based on machine learning. Object position estimation system described in. 前記オブジェクト軌跡選定手段は、カメラ毎に予め定めた指標として、前記射影変換画像上でのオブジェクト候補領域の速度、移動量、及び追跡時間のうち1つ以上を指標として選定することを特徴とする、請求項1又は2に記載のオブジェクト位置推定システム。   The object trajectory selection means is characterized in that one or more of the velocity, the movement amount, and the tracking time of the object candidate area on the projective transformation image is selected as an index determined in advance for each camera. The object position estimation system according to claim 1 or 2. 前記ブロック判定手段は、当該追跡対象のオブジェクトと相関性が高いものとして人物を対象とし、当該追跡対象のオブジェクト以外のオブジェクトによって表される特徴量として当該人物の占有率を対象とすることを特徴とする、請求項1から3のいずれか一項に記載のオブジェクト位置推定システム。   The block determination unit targets a person as having high correlation with the object to be tracked, and targets an occupancy rate of the person as a feature represented by an object other than the object to be tracked. The object position estimation system according to any one of claims 1 to 3, wherein 前記オブジェクト位置推定手段は、当該選定されたオブジェクト候補座標について、各軌跡の追跡終了フレームからの経過時間を基に、所定時間以上に継続しているボール候補座標を最終的なボール位置座標として決定することを特徴とする、請求項1から4のいずれか一項に記載のオブジェクト位置推定システム。   The object position estimation means determines, as the final ball position coordinates, ball candidate coordinates continuing for a predetermined time or more based on the elapsed time from the tracking end frame of each trajectory for the selected object candidate coordinates. The object position estimation system according to any one of claims 1 to 4, characterized in that: 請求項1に記載のオブジェクト位置推定システムにて前記オブジェクト候補領域抽出手段、前記オブジェクト候補領域認識手段、前記オブジェクト軌跡生成手段、及び前記オブジェクト軌跡選定手段の各機能を実現させるために、当該並列処理における処理対象のカメラの映像から前記特定のオブジェクトに関するオブジェクト候補領域の軌跡を個別に選定するコンピュータに、
処理対象のカメラからフレーム単位で連続する映像を入力してフレーム間差分画像を生成し、現在のフレームにおけるオブジェクト候補領域を差分画像で区分された領域に基づく低レベル特徴により決定するステップと、
処理対象のカメラから得られる当該オブジェクト候補領域のうち、追跡対象のオブジェクトを含むとして想定される領域を機械学習に基づく高レベル特徴により特定するステップと、
処理対象のカメラから得られる当該高レベル特徴により特定されたオブジェクト候補領域について、フレーム間で関連付けたボール候補領域の軌跡を生成するステップと、
処理対象のカメラから得られる当該オブジェクト候補領域の軌跡のうち、カメラ毎に予め定めた指標に基づき最も高い値を持つ軌跡を追跡対象のオブジェクトの軌跡として選定するステップと、をプログラムにより実行させた上で、
請求項1に記載のオブジェクト位置推定システムにて前記射影変換手段、前記ブロック判定手段、及び前記オブジェクト位置推定手段の各機能を実現させるために、当該複数のカメラの映像からそれぞれ抽出された特定のオブジェクトに関するオブジェクト候補領域を統合して当該特定のオブジェクトを追跡可能とするコンピュータに、
前記プログラムによって実行された各ステップを経て各カメラから得られる当該現在のフレームの画像と、カメラ毎に選定されたオブジェクト候補領域の軌跡の画像座標を所定の射影変換画像へ変換して統合するステップと、
前記射影変換画像についてブロック分割し、各ブロック内で当該追跡対象のオブジェクトと相関性が高いものとして予め定めた当該追跡対象のオブジェクト以外のオブジェクトによって表される特徴量を算出して比較し、該特徴量が所定値以下のブロックを排除し、未排除のブロックに位置するオブジェクト候補座標を選定するステップと、
当該選定されたオブジェクト候補座標について所定時間以上に継続しているボール候補座標を最終的なボール位置座標として決定するステップと、を実行させるためのプログラム。
The object position estimation system according to claim 1, wherein the object candidate area extraction unit, the object candidate area recognition unit, the object trajectory generation unit, and the parallel processing of the object trajectory selection unit are realized. A computer individually selecting trajectories of an object candidate area relating to the specific object from images of a camera to be processed in
Generating a frame-to-frame difference image by inputting a continuous image in frame units from a camera to be processed, and determining an object candidate region in the current frame according to a low-level feature based on a region divided by the difference image;
Identifying a region assumed to include the object to be tracked among the object candidate regions obtained from the camera to be processed, using a high-level feature based on machine learning;
Generating a trajectory of a ball candidate area associated between frames for an object candidate area specified by the high level feature obtained from the camera to be processed;
Of trajectory of the object candidate area obtained from the processing target camera, comprising the steps of selecting a trajectory with the highest value on the basis of the predetermined metric for each camera as the locus of the tracking target object was executed by the program Above,
The object position estimation system according to claim 1, wherein the projection conversion means, the block determination means, and the object position estimation means are realized by the respective features extracted from the images of the plurality of cameras. On a computer that integrates object candidate areas related to objects and enables tracking of the specific object;
The step of integrating by converting the image of the current frame obtained from the camera through the steps executed by the program, the image coordinates of the trajectory of the object candidate region is selected for each camera to a predetermined projection transformation image When,
The projective transformation image is divided into blocks, and within each block, feature amounts represented by objects other than the object to be tracked, which are predetermined to be highly correlated with the object to be tracked, are calculated and compared. Removing blocks having a feature amount equal to or less than a predetermined value, and selecting object candidate coordinates located in unremoved blocks;
A program for causing a ball candidate coordinate continuing for a predetermined time or more with respect to the selected object candidate coordinate to be determined as a final ball position coordinate.
JP2014238775A 2014-11-26 2014-11-26 Object position estimation system and program thereof Active JP6525453B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014238775A JP6525453B2 (en) 2014-11-26 2014-11-26 Object position estimation system and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014238775A JP6525453B2 (en) 2014-11-26 2014-11-26 Object position estimation system and program thereof

Publications (2)

Publication Number Publication Date
JP2016099941A JP2016099941A (en) 2016-05-30
JP6525453B2 true JP6525453B2 (en) 2019-06-05

Family

ID=56075842

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014238775A Active JP6525453B2 (en) 2014-11-26 2014-11-26 Object position estimation system and program thereof

Country Status (1)

Country Link
JP (1) JP6525453B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230177757A1 (en) * 2021-12-02 2023-06-08 Fujifilm Business Innovation Corp. Information processing apparatus and data structure of moving image file

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6598746B2 (en) * 2016-08-22 2019-10-30 Kddi株式会社 Apparatus, program, and method for tracking an object in consideration of an image area of another object
KR102536945B1 (en) 2016-08-30 2023-05-25 삼성전자주식회사 Image display apparatus and operating method for the same
WO2018235256A1 (en) * 2017-06-23 2018-12-27 株式会社日立製作所 Stereo measurement device and system
JP6822906B2 (en) 2017-06-23 2021-01-27 株式会社東芝 Transformation matrix calculation device, position estimation device, transformation matrix calculation method and position estimation method
US10431000B2 (en) * 2017-07-18 2019-10-01 Sony Corporation Robust mesh tracking and fusion by using part-based key frames and priori model
US11638068B2 (en) 2017-10-05 2023-04-25 Panasonic Intellectual Property Management Co., Ltd. Mobile entity tracking device and method for tracking mobile entity
JP6962145B2 (en) * 2017-11-13 2021-11-05 富士通株式会社 Image processing programs, image processing methods and information processing equipment
CN110443834A (en) * 2018-05-04 2019-11-12 大猩猩科技股份有限公司 A kind of distributed object tracking system
CN110765814B (en) * 2018-07-26 2023-07-14 杭州海康威视数字技术股份有限公司 Blackboard writing behavior recognition method and device and camera
US11763467B2 (en) 2018-09-28 2023-09-19 Intel Corporation Multi-cam ball location method and apparatus
CN111179305B (en) * 2018-11-13 2023-11-14 晶睿通讯股份有限公司 Object position estimation method and object position estimation device thereof
CN111380529B (en) * 2018-12-28 2023-10-03 浙江菜鸟供应链管理有限公司 Mobile device positioning method, device and system and mobile device
US11153492B2 (en) 2019-04-16 2021-10-19 At&T Intellectual Property I, L.P. Selecting spectator viewpoints in volumetric video presentations of live events
US11074697B2 (en) 2019-04-16 2021-07-27 At&T Intellectual Property I, L.P. Selecting viewpoints for rendering in volumetric video presentations
US10970519B2 (en) 2019-04-16 2021-04-06 At&T Intellectual Property I, L.P. Validating objects in volumetric video presentations
US11012675B2 (en) 2019-04-16 2021-05-18 At&T Intellectual Property I, L.P. Automatic selection of viewpoint characteristics and trajectories in volumetric video presentations
CN110060276B (en) * 2019-04-18 2023-05-16 腾讯科技(深圳)有限公司 Object tracking method, tracking processing method, corresponding device and electronic equipment
CN111833375B (en) * 2019-04-23 2024-04-05 舟山诚创电子科技有限责任公司 Method and system for tracking animal group track
JP7334058B2 (en) * 2019-05-09 2023-08-28 エヌ・ティ・ティ・コミュニケーションズ株式会社 Geometric parameter estimation device, geometric parameter estimation system, geometric parameter estimation method, and computer program
JP7373352B2 (en) 2019-10-10 2023-11-02 日本放送協会 Location estimation device, location learning device and program
CN113763435A (en) * 2020-06-02 2021-12-07 精标科技集团股份有限公司 Tracking shooting method based on multiple cameras
CN112258573B (en) * 2020-10-16 2022-11-15 腾讯科技(深圳)有限公司 Method and device for acquiring throwing position, computer equipment and storage medium
CN113033384A (en) * 2021-03-23 2021-06-25 清华大学 Wheelchair curling motion state detection and target tracking system
CN115120950B (en) * 2021-03-25 2023-11-17 南方科技大学 Training assistance system, projection method, projection device and computer readable storage medium
CN113315914B (en) * 2021-05-25 2022-05-17 上海哔哩哔哩科技有限公司 Panoramic video data processing method and device
CN114596337B (en) * 2022-03-03 2022-11-25 捻果科技(深圳)有限公司 Self-recognition target tracking method and system based on linkage of multiple camera positions
WO2023181580A1 (en) * 2022-03-22 2023-09-28 キヤノン株式会社 Image processing device, control method thereof, program, system, and training data generation method
CN114897973B (en) * 2022-07-15 2022-09-16 腾讯科技(深圳)有限公司 Trajectory detection method and apparatus, computer device and storage medium

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001273500A (en) * 2000-03-23 2001-10-05 Hitachi Ltd Moving object measuring instrument, ball game analytic system and data service system
WO2011084130A1 (en) * 2009-12-16 2011-07-14 Thomson Licensing Human interaction trajectory-based system
WO2014080613A1 (en) * 2012-11-22 2014-05-30 日本電気株式会社 Color correction device, method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230177757A1 (en) * 2021-12-02 2023-06-08 Fujifilm Business Innovation Corp. Information processing apparatus and data structure of moving image file

Also Published As

Publication number Publication date
JP2016099941A (en) 2016-05-30

Similar Documents

Publication Publication Date Title
JP6525453B2 (en) Object position estimation system and program thereof
US11789545B2 (en) Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data
JP7003628B2 (en) Object tracking program, object tracking device, and object tracking method
US9672634B2 (en) System and a method for tracking objects
US10212324B2 (en) Position detection device, position detection method, and storage medium
JP6641163B2 (en) Object tracking device and its program
WO2014156733A1 (en) People counting device, and people counting method
EP2930690B1 (en) Apparatus and method for analyzing a trajectory
Ren et al. Multi-camera video surveillance for real-time analysis and reconstruction of soccer games
JP6590609B2 (en) Image analysis apparatus and image analysis method
CN111402294A (en) Target tracking method, target tracking device, computer-readable storage medium and computer equipment
Morais et al. A multiple camera methodology for automatic localization and tracking of futsal players
EP3267395B1 (en) Person tracking method and person tracking device
JP2006285878A (en) Video analyzing device and video analyzing program
JP2009163639A (en) Object trajectory identification device, object trajectory identification method, and object trajectory identification program
JP6873644B2 (en) Image processing equipment, image processing methods, and programs
US11544926B2 (en) Image processing apparatus, method of processing image, and storage medium
JP2007241477A (en) Image processor
CN111382606A (en) Tumble detection method, tumble detection device and electronic equipment
Shere et al. 3D Human Pose Estimation From Multi Person Stereo 360 Scenes.
JP6558831B2 (en) Object tracking apparatus, method and program
Li et al. Evaluating the performance of systems for tracking football players and ball
JP4533037B2 (en) Offside line detection device and program thereof
JP6289027B2 (en) Person detection device and program
Wang et al. A new method for robust object tracking system based on scale invariant feature transform and camshift

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171002

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190409

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190502

R150 Certificate of patent or registration of utility model

Ref document number: 6525453

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250