JP7022040B2 - Object identification device, method and program - Google Patents
Object identification device, method and program Download PDFInfo
- Publication number
- JP7022040B2 JP7022040B2 JP2018179892A JP2018179892A JP7022040B2 JP 7022040 B2 JP7022040 B2 JP 7022040B2 JP 2018179892 A JP2018179892 A JP 2018179892A JP 2018179892 A JP2018179892 A JP 2018179892A JP 7022040 B2 JP7022040 B2 JP 7022040B2
- Authority
- JP
- Japan
- Prior art keywords
- camera
- orientation
- degree
- image
- procedure
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Description
本発明は、視点の異なる複数のカメラで撮影したカメラ映像上で各オブジェクトに固有のIDを認識し、ID認識の結果を基に各オブジェクトを識別するオブジェクト識別装置、方法およびプログラムに関する。 The present invention relates to an object identification device, a method, and a program that recognize an ID unique to each object on camera images taken by a plurality of cameras having different viewpoints and identify each object based on the result of the ID recognition.
従来、カメラで撮影した映像を基に、人物に代表される何らかのオブジェクトを抽出し、識別する技術が提案されてきた。この識別を実現するためには、例えばオブジェクトがスポーツ選手であれば背番号や顔、車であればナンバープレートの番号等を映像中から正確に抽出し、かつ抽出した部分から選手の背番号等の情報を正しく認識し、識別を実現する必要がある。 Conventionally, a technique has been proposed in which some object represented by a person is extracted and identified based on an image taken by a camera. In order to realize this identification, for example, if the object is an athlete, the uniform number and face, if it is a car, the license plate number, etc. are accurately extracted from the video, and the athlete's uniform number, etc. are extracted from the extracted part. It is necessary to correctly recognize the information of and realize the identification.
例えばスポーツ映像の中で、各選手の識別を正確に実現することができれば、各選手の動きを正確に画像だけから捉えることができ、戦術の分析等に役立てることが可能となる。 For example, if the identification of each player can be accurately realized in a sports image, the movement of each player can be accurately captured only from the image, which can be useful for tactical analysis and the like.
オブジェクト識別の手段としては、近年、高精度な識別を実現できるという理由から深層学習を用いる識別技術が注目されている。深層学習を用いてスポーツ選手の背番号を高精度に識別する技術が非特許文献1に開示されている。非特許文献1では、ある背番号画像を、訓練した畳み込みニューラルネットワークにより認識することで、約83%の精度で正解の番号を認識することができたことが示されている。
As a means of object identification, an identification technique using deep learning has been attracting attention in recent years because it can realize highly accurate identification. Non-Patent
一方、シーン中で常に識別を行うためには、顔や背番号といった固有の識別部分が高い頻度でカメラに映っていなければならない。故に、1台のカメラの利用だけではロバストな識別を行う上で限界が存在していた。 On the other hand, in order to always identify in the scene, the unique identification part such as the face and the uniform number must be frequently reflected on the camera. Therefore, there is a limit to robust identification by using only one camera.
このような技術課題を解決するために、複数のカメラを用いて効率的にオブジェクトの識別を行うアプローチについて提案が成されてきた。特許文献1は、複数のカメラを使用し、特定の人物に対して複数の方向から撮像した人物の画像を用いて個人の同定を行っている。特許文献1では、画像間の相対的な方位の関係を基に複数の画像を登録画像と比較することで、高い精度の識別を実現していた。
In order to solve such technical problems, proposals have been made for an approach for efficiently identifying objects using a plurality of cameras.
非特許文献1では、深層学習を用いて高精度の背番号認識が行えることが示されている。しかしながら、映像の中で識別対象となる部位が常に見え続けるということは少ない。例えばスポーツ選手の背番号であればカメラに対する選手の立つ角度や、選手同士の重なり等の問題から、常に背番号をカメラの中に捉えるということは困難である。車のナンバープレートでも、ナンバープレートが見える角度は限定されるという問題がある。しかしながら、非特許文献1では、このような状況においても高精度で識別を実行する手段については開示されていない。
Non-Patent
一方、特許文献1は複数カメラを用いるため、前述の識別対象が見える頻度が少ないという問題を解決することができる。しかしながら、特許文献1は主に人物の顔(頭部)を対象に認識を行う技術であり、顔を対象とした識別では識別が可能なレベルで顔が鮮明にカメラに映っている必要がある。
On the other hand, since
しかしながら、スタジアムのような広い領域を対象に、比較的少ないカメラでフィールド全体の選手の識別を行う場合、スタジアム全体が映り込むような画角で撮影を行う必要がある。しかしながら、このような撮影環境で顔を鮮明に映し出すことは一般的なカメラの解像度では困難であるため、広域空間には適用しづらいという問題があった。 However, when identifying players in the entire field with a relatively small number of cameras for a wide area such as a stadium, it is necessary to shoot at an angle of view that reflects the entire stadium. However, since it is difficult to clearly project a face in such a shooting environment with the resolution of a general camera, there is a problem that it is difficult to apply it to a wide area.
加えて、顔を対象にした認識は、例えばアメリカンフットボールのような、顔全体や頭部にプロテクターを付ける可能性のある競技には適用が難しい。また、特許文献1では顔(頭部)のみならず背番号領域を識別に用いることが可能ではあるものの、特許文献1のアルゴリズムは、識別に使用する特徴部が複数のカメラから見えることを前提として効率的な識別を実現するものであるが故に、背番号のように特定のカメラからしか見えない可能性が高い識別対象に対して、効果的に適用することが難しいという問題も存在していた。
In addition, face recognition is difficult to apply to competitions such as American football where a protector may be attached to the entire face or head. Further, although it is possible to use not only the face (head) but also the uniform number region for identification in
また、複数のカメラから対象を捉える際に、他のオブジェクトによって遮蔽されることによって対象が映らなかった場合に、精度が大きく低下してしまう懸念がある。しかしながら、この問題の解決法については特許文献1の中では明確に開示されていない。
In addition, when capturing an object from a plurality of cameras, if the object is not projected due to being shielded by another object, there is a concern that the accuracy will be greatly reduced. However, the solution to this problem is not clearly disclosed in
本発明の目的は、上記の技術課題を解決し、各オブジェクトの他のオブジェクトによる遮蔽度をカメラごとに求め、オブジェクトごとに遮蔽度の小さいカメラ映像を対象にID認識を実行することでオブジェクト識別の精度が向上するオブジェクト認識装置、方法およびプログラムを提供することにある。 An object of the present invention is to solve the above-mentioned technical problems, obtain the degree of obstruction by another object of each object for each camera, and perform ID recognition for a camera image having a small degree of obstruction for each object to identify an object. It is to provide an object recognition device, a method and a program which improve the accuracy of the object.
上記の目的を達成するために、本発明は、カメラ映像に基づいてオブジェクトを識別するオブジェクト識別装置、方法およびプログラムにおいて、以下の構成を具備した点に特徴がある。 In order to achieve the above object, the present invention is characterized in that the object identification device, method and program for identifying an object based on a camera image are provided with the following configurations.
(1) オブジェクトを複数の異なる視点で撮影したカメラ映像を取得する手段と、各オブジェクトの位置を推定する手段と、各カメラの視点および各オブジェクトの位置に基づいてオブジェクト同士の遮蔽度をカメラごとに計算する手段と、前記遮蔽度に基づいて各オブジェクトの識別に用いるカメラを選定する手段と、オブジェクト毎に前記選定したカメラのカメラ映像に基づいて各オブジェクトを識別する手段とを具備した。 (1) Means for acquiring camera images of objects taken from multiple different viewpoints, means for estimating the position of each object, and the degree of shielding between objects based on the viewpoint of each camera and the position of each object for each camera. It is provided with a means for calculating the above, a means for selecting a camera to be used for identifying each object based on the degree of shielding, and a means for identifying each object based on the camera image of the selected camera for each object.
(2) オブジェクトがカメラ映像から認識できるIDを保持し、カメラごとにそのカメラ映像に基づいて各オブジェクトの向きを推定する手段をさらに具備し、前記カメラを選定する手段は、各オブジェクトの向きおよび遮蔽度に基づいてオブジェクト毎にそのIDを認識するカメラを選定するようにした。 (2) The object holds an ID that can be recognized from the camera image, and each camera is further equipped with a means for estimating the direction of each object based on the camera image, and the means for selecting the camera is the direction of each object and the means for selecting the camera. A camera that recognizes the ID of each object is selected based on the degree of obstruction.
(3) カメラを選定する手段は、オブジェクトごとにID指向方向を計算する手段と、各オブジェクトのID指向方向ごとに候補ベクトルを算出する手段と、オブジェクトごとに、指向方向の角度差が所定の閾値を下回る2つの候補ベクトルを統合して一の候補ベクトルを新たに生成し、これを繰り返す手段と、前記統合された2つの候補ベクトルの信頼度を反映して前記新たに生成した一の候補ベクトルの信頼度を設定する手段とを具備し、信頼度の高さが所定の条件を満たす候補ベクトルに基づいてカメラを選定するようにした。 (3) The means for selecting a camera are a means for calculating the ID direction direction for each object, a means for calculating a candidate vector for each ID direction direction of each object, and a predetermined angle difference in the direction direction for each object. A means of integrating two candidate vectors below the threshold to newly generate one candidate vector and repeating this, and the newly generated one candidate reflecting the reliability of the two integrated candidate vectors. It is equipped with a means for setting the reliability of the vector, and the camera is selected based on the candidate vector whose high reliability satisfies a predetermined condition.
(4) オブジェクトを識別する手段は、オブジェクトのカメラ映像からオブジェクトのIDを含む識別領域を抽出する手段をさらに具備し、抽出した識別領域を対象にID認識を実行するようにした。 (4) The means for identifying the object is further equipped with a means for extracting the identification area including the ID of the object from the camera image of the object, and the ID recognition is executed for the extracted identification area.
(5) 各オブジェクトの向きを推定する手段は、カメラ映像から取得したオブジェクト画像に基づいて各オブジェクトの向きを推定する手段および各オブジェクトの移動ベクトルに基づいて各オブジェクトの向きを推定する手段の少なくとも一方を含むようにした。 (5) The means for estimating the orientation of each object is at least a means for estimating the orientation of each object based on the object image acquired from the camera image and a means for estimating the orientation of each object based on the movement vector of each object. I tried to include one.
(6) 各オブジェクトの向きを推定する手段は、各向き推定結果の信頼度を取得する手段をさらに具備した。 (6) The means for estimating the orientation of each object is further provided with means for acquiring the reliability of each orientation estimation result.
本発明によれば、以下のような効果が達成される。 According to the present invention, the following effects are achieved.
(1) オブジェクト同士の遮蔽度をカメラごとに求め、各オブジェクトの遮蔽度に基づいてオブジェクト識別の尤度が高いと推定されるカメラをオブジェクトごとに選定し、各オブジェクトの識別を、当該選定されたカメラのカメラ映像を対象に行うので、オブジェクト同士の遮蔽による誤認識の影響を排除した高精度なオブジェクト識別が可能になる。 (1) Obtain the degree of shielding between objects for each camera, select a camera for each object that is estimated to have a high probability of object identification based on the degree of shielding of each object, and identify each object. Since the target is the camera image of the same camera, it is possible to identify objects with high accuracy by eliminating the influence of erroneous recognition due to shielding between objects.
(2) オブジェクトに付されたIDを認識し、当該認識結果を基にオブジェクトを識別するにあたり、オブジェクトの向きを推定することでIDの指向方向を判断し、この指向方向を基にカメラを選定するので、ID認識の精度が向上し、オブジェクト同士の遮蔽による誤認識の影響を排除した高精度なオブジェクト識別が可能になる。 (2) When recognizing the ID attached to an object and identifying the object based on the recognition result, the direction of the ID is determined by estimating the direction of the object, and the camera is selected based on this direction of direction. Therefore, the accuracy of ID recognition is improved, and highly accurate object identification is possible by eliminating the influence of erroneous recognition due to shielding between objects.
(3) 各オブジェクトの向き推定に、カメラ映像に基づく推定結果のみならず、移動ベクトルに基づく推定結果も反映させたので、精度の高い向き推定が可能になる。 (3) Since the orientation estimation of each object reflects not only the estimation result based on the camera image but also the estimation result based on the movement vector, highly accurate orientation estimation becomes possible.
(4) 向き推定の結果ごとにその信頼度を取得し、オブジェクトごとに各向き推定の結果とその信頼度に基づいて最終的な向きを推定するようにしたので、精度の高い向き推定が可能になる。 (4) Since the reliability is acquired for each orientation estimation result and the final orientation is estimated based on the orientation estimation result and its reliability for each object, highly accurate orientation estimation is possible. become.
(5) 移動ベクトルに基づく向き推定結果の信頼度をオブジェクトの移動速度に基づいて求めるようにしたので、移動ベクトルに基づく向き推定結果の信頼度を簡単かつ正確に求められるようになる。 (5) Since the reliability of the orientation estimation result based on the movement vector is obtained based on the movement speed of the object, the reliability of the orientation estimation result based on the movement vector can be obtained easily and accurately.
(6) オブジェクトごとにID認識を実行するカメラを選定する際に、カメラ映像ごとに得られる各オブジェクトの指向方向を表す候補ベクトルのうち、角度差の小さい候補ベクトルは統合し、統合された各候補ベクトルの信頼度を統合により生成された新しい候補ベクトルに設定し、最終的に信頼度の高い候補ベクトルに基づいてカメラを選定するので、外れ値の候補ベクトルがカメラ選定に与える影響を排除できるようになる。 (6) When selecting a camera to perform ID recognition for each object, among the candidate vectors representing the direction of orientation of each object obtained for each camera image, the candidate vectors with a small angle difference are integrated and integrated. Since the reliability of the candidate vector is set to the new candidate vector generated by the integration and the camera is finally selected based on the highly reliable candidate vector, the influence of the outlier candidate vector on the camera selection can be eliminated. It will be like.
(7) オブジェクトごとに、各候補ベクトルの向きと各カメラの向きとに基づいて各カメラに推奨度のスコア付けを行い、これを全ての候補ベクトルについて繰り返すことで得られた累積スコアに基づいてカメラを選定するので、ID認識の尤度が高いカメラを選定できるようになる。 (7) For each object, score the recommendation level for each camera based on the orientation of each candidate vector and the orientation of each camera, and repeat this for all candidate vectors based on the cumulative score obtained. Since the camera is selected, it becomes possible to select a camera with a high probability of ID recognition.
(8) オブジェクト画像からIDを含む識別領域を抽出し、識別領域を対象にID認識を実行するのでID認識の範囲を予め狭めることができ、高速かつ高精度のID認識ひいてはオブジェクト識別を実現できるようになる。 (8) Since the identification area including the ID is extracted from the object image and ID recognition is executed for the identification area, the range of ID recognition can be narrowed in advance, and high-speed and high-precision ID recognition and thus object identification can be realized. It will be like.
以下、図面を参照して本発明の実施の形態について詳細に説明する。図1は、本発明の一実施形態に係るオブジェクト識別装置の主要部の構成を、各構成間で授受される信号/情報の内容と共に示した図である。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is a diagram showing a configuration of a main part of an object identification device according to an embodiment of the present invention together with the contents of signals / information exchanged between the configurations.
本発明のオブジェクト識別装置は、汎用のコンピュータに、後述する各機能を実現するアプリケーション(プログラム)を実装することで構成できる。あるいは、アプリケーションの一部がハードウェア化またはROM化された専用機や単能機として構成することもできる。 The object identification device of the present invention can be configured by mounting an application (program) that realizes each function described later on a general-purpose computer. Alternatively, a part of the application can be configured as a dedicated machine or a single-purpose machine that is made into hardware or ROM.
本実施形態では、オブジェクトとして人物を想定し、各人物オブジェクトをその識別情報(ID)を基に識別する。本実施形態ではIDとして背番号を想定して説明するが、顔をIDとして識別しても良いし、オブジェクトが車両であれば、そのナンバープレートやゼッケンをIDとして識別しても良い。また、オブジェクトの識別は各カメラ映像に対してフレーム単位で連続して行われるが、ここでは1フレームの処理に限定して説明する。フレーム間での識別結果の追跡には、周知の追跡手法を適用することができる。 In the present embodiment, a person is assumed as an object, and each person object is identified based on the identification information (ID). In the present embodiment, the uniform number is assumed as the ID, but the face may be identified as the ID, and if the object is a vehicle, the license plate or the bib may be identified as the ID. Further, although the object identification is continuously performed for each camera image in frame units, the description here is limited to the processing of one frame. Well-known tracking techniques can be applied to track discrimination results between frames.
カメラ映像取得部1は、設置されている位置や向きが明らかであって、視点(立脚点)の異なる複数台(本実施形態では、n台)のカメラcam1,cam2…camNからカメラ映像Icam1,Icam2…IcamNを取得する。
The camera
オブジェクト位置推定部2は、各カメラ映像Icamから抽出した各オブジェクトの位置の推定を行う。位置推定には、非特許文献2に示される視体積交差法を用いることができる。
The object
視体積交差法は、図2に示したように、複数のカメラ映像Icamから抽出したオブジェクトのシルエットが形作る錐体の積集合を求めることで当該オブジェクトの3Dモデルを生成する手法であり、生成された3Dモデルの存在する位置から各オブジェクトの位置推定が可能である。このとき、生成された3Dモデルが一定以上の大きさを持つ場合に、その位置にオブジェクトが存在するものとして位置推定を行うことができる。 As shown in FIG. 2, the visual volume crossing method is a method of generating a 3D model of an object by obtaining a product set of pyramids formed by silhouettes of the objects extracted from a plurality of camera images Icam. It is possible to estimate the position of each object from the position where the 3D model exists. At this time, if the generated 3D model has a certain size or more, the position can be estimated assuming that the object exists at that position.
視体積交差法以外にも、画像内から人物抽出を行うことができる非特許文献3のような深層学習ベースの手法を用いて画像中の各オブジェクトの位置を特定した後に、画像中の位置をフィールド上の位置に射影することで各オブジェクトの位置を特定する手法を採用することも可能である。あるいは、各オブジェクトにセンサ等の位置を推定できるデバイスを付けることで位置情報を推定するようにしてもよい。
In addition to the visual volume crossing method, after identifying the position of each object in the image using a deep learning-based method such as
前記オブジェクト位置推定部2は、空間中の全てのオブジェクトの位置を特定するものとし、この位置の推定結果は、図3のように2次元的に特定が成されてもよいし、3次元座標として位置が示されてもよい。
The object
オブジェクト向き推定部3は、オブジェクト画像取得部301、分類部302、移動ベクトル計算部303および信頼度取得部304を含み、カメラ映像ごとに各オブジェクトの向きの推定を行う。オブジェクトの向きの推定結果は、後段のカメラ選定部5において、各オブジェクトに固有のID(本実施形態では、背番号)が映り込んでいる可能性が高いカメラを選択するために用いられる。
The object
本実施形態は、視点の異なるカメラ映像ごとに各オブジェクトの向き推定の結果を算出することを特徴としており、オブジェクト画像取得部301は、前記オブジェクト位置推定部2で得られる各オブジェクトの位置情報を基に、図4に示したように各オブジェクトの画像A1~A4を取得する。
The present embodiment is characterized in that the result of orientation estimation of each object is calculated for each camera image having a different viewpoint, and the object
分類部302は、例えば非特許文献4に開示されているように、オブジェクトの向きごとに訓練画像を用意しておき、その特徴を基に向き推定を行う。本実施形態では、図5に示したように、事前に向き推定を行う方向を8方向に限定して訓練画像を用意し、取得したオブジェクトの画像から抽出した特徴量と各向きの訓練画像の特徴量とを比較することで各オブジェクト画像をいずれかの向きに分類する。
As disclosed in
本実施形態では、向き推定に畳み込みニューラルネットワークなどの深層学習を用いることを想定しているが、その他の方法として、HOG(Histograms of Oriented Gradients)特徴量と、その特徴量を基に学習させたSVM(Support Vector Machine)などを用いて訓練と識別を行ってもよい。 In this embodiment, it is assumed that deep learning such as a convolutional neural network is used for orientation estimation, but as another method, HOG (Histograms of Oriented Gradients) features and learning based on the features are trained. Training and identification may be performed using SVM (Support Vector Machine) or the like.
あるいは、非特許文献5に開示されているように、スケルトンを検出する手法で得られた関節の位置を基に、ある特定の関節が見えるかどうかや、関節の位置を特徴点として畳み込みニューラルネットワークやSVMに学習を行わせることによって向き推定を実施しても良い。
Alternatively, as disclosed in
移動ベクトル計算部303は、前記深層学習による向き推定の正確性を高めるために、移動ベクトルを用いる別のアプローチで更に向き推定を行う。本実施形態では、例えば非特許文献6に開示されているように、フレーム間でオブジェクトの追跡を行うアルゴリズムを用いて移動ベクトルを取得する。
The movement
移動ベクトルが取得されると、オブジェクトの向きはその移動方向と一致することが多い。後退りしながら移動するケース等もあることから必ずしも正確ではないが、移動ベクトルを基にした向き推定の結果も加えることで、オブジェクトの向き推定の正確性を高めることができる。 Once the movement vector is obtained, the orientation of the object often coincides with its movement direction. It is not always accurate because there are cases where the object moves while retreating, but the accuracy of the orientation estimation of the object can be improved by adding the result of the orientation estimation based on the movement vector.
本実施形態では、n台のカメラが存在する環境下を想定するので、各カメラ映像から得られるオブジェクトの画像に対して深層学習を実施して得られるn個の向き推定結果と、追跡が成功している場合には移動ベクトルによって得られる一つの向き推定結果との計n+1個の向き推定結果が、オブジェクトごとに得られることになる。 In this embodiment, since it is assumed that there are n cameras, n orientation estimation results obtained by performing deep learning on the image of the object obtained from each camera image and tracking are successful. If this is the case, a total of n + 1 orientation estimation results, including one orientation estimation result obtained by the movement vector, will be obtained for each object.
信頼度取得部304は、各向き推定結果の信頼度Riを取得する。ここで、iは向き推定結果のインデックスを表しており、本実施形態ではオブジェクトごとにiが1~n+1までの値を取ることになる。信頼度Riは、例えばニューラルネットワークによる向き推定結果であれば、出力層の関数から出力される確率を基に算出できる。
The
また、移動ベクトルによる向き推定では、一般的に移動速度が速ければ速いほど、方向転換や後退りなどの想定外の動きをしている可能性が小さくなることから、選手の移動速度を基にRiを求めてもよい。例えば、移動速度が速いほど信頼度が高いものとし、ここではRiが0~1の値に正規化される。 In addition, in the direction estimation by the movement vector, in general, the faster the movement speed, the less likely it is that the player is making an unexpected movement such as turning or retreating. Therefore, Ri is based on the movement speed of the player. May be asked. For example, the faster the moving speed, the higher the reliability, and here Ri is normalized to a value of 0 to 1.
オブジェクト遮蔽度計算部4は、前記向き推定やIDの認識を実行する前に、前記オブジェクト位置推定部2で位置が推定された各オブジェクトが、その前方に位置する他のオブジェクトにより遮蔽されている否かの判定をカメラごとに行い、最終的にオブジェクトごとに遮蔽度Ojを算出する(jは、カメラ識別子である)。
In the object obstruction
遮蔽度Ojも、0~1の値に正規化されるものとし、値が1に近いほど遮蔽度が大きく、0に近いほど遮蔽度が少ないことを表す度数として定義される。遮蔽度Ojが最大値の1であれば、注目しているオブジェクトが他のオブジェクトにより完全に遮蔽されていることを意味する。 The degree of shielding Oj is also normalized to a value of 0 to 1, and is defined as a frequency indicating that the closer the value is to 1, the larger the degree of shielding, and the closer the value is to 0, the smaller the degree of shielding. If the degree of occlusion Oj is 1 of the maximum value, it means that the object of interest is completely obscured by other objects.
本実施形態では、図6に示したように、カメラcamごとに注目オブジェクトの前方に他のオブジェクトがどれだけ存在しているかを基に遮蔽度Ojが算出される。遮蔽度Ojは、例えば視体積の逆投影マスクを用いることで算出できるが、前記オブジェクト位置推定部2がオブジェクトの視体積を計算し、その視体積を基に位置推定を行っていれば、各対象オブジェクトの視体積の計算結果を利用できる。
In the present embodiment, as shown in FIG. 6, the degree of shielding Oj is calculated based on how many other objects exist in front of the object of interest for each camera cam. The degree of obstruction Oj can be calculated by using, for example, a back projection mask of the visual volume, but if the object
視体積の計算結果を利用するのであれば、図6にハッチングで示したように、初めに注目オブジェクトと重なる他のオブジェクト(遮蔽オブジェクト)の存在領域が定義される。当該存在領域は事前にユーザが定義するものとし、例えばカメラの視野内で注目オブジェクトの左右に長さLの存在幅を定義し、当該幅2Lを底辺、カメラを頂点とする三角形の領域内に他オブジェクトが存在するか否かを判断する。 If the calculation result of the visual volume is used, as shown by hatching in FIG. 6, the existing area of another object (shielding object) that overlaps with the object of interest is defined first. The existing area is defined by the user in advance. For example, the existing width of the length L is defined on the left and right of the object of interest in the field of view of the camera, and the width 2L is defined as the base and the area of the triangle with the camera as the apex. Determine if another object exists.
次いで、この存在領域内に存在すると判断された各オブジェクトの視体積からカメラのスクリーンに逆投影したマスクM1、および注目オブジェクトの視体積からカメラのスクリーンに逆投影したマスクM2を計算する。そして、マスクM2の全体面積(ピクセル数)Pallと、マスクM2に対してマスクM1が重なっているピクセル数Psとを求め、Ps/Pallの計算結果が遮蔽度Ojとされる。 Next, the mask M1 back-projected onto the camera screen from the visual volume of each object determined to exist in this existing area, and the mask M2 back-projected onto the camera screen from the visual volume of the object of interest are calculated. Then, the total area (number of pixels) Pal of the mask M2 and the number of pixels Ps in which the mask M1 overlaps the mask M2 are obtained, and the calculation result of Ps / Pall is the shielding degree Oj.
なお、本実施形態では便宜的に「遮蔽」と表現しているが、カメラに対して他のオブジェクトが注目オブジェクトの前方ではなく後方に存在し、当該後方に存在する他のオブジェクトが注目オブジェクトの認識結果に影響を与えそうな場合には、前記存在領域を対象オブジェクトの後方まで拡大して同様に計算を行ってもよい。 In this embodiment, although it is expressed as "shielding" for convenience, another object exists behind the object of interest instead of in front of the camera, and the other object existing behind the object of interest is the object of interest. If it is likely to affect the recognition result, the existing area may be expanded to the rear of the target object and the calculation may be performed in the same manner.
遮蔽度Ojの算出方法は上記の方法に限定されるものではなく、画像の特徴量や深層学習ベースで対象オブジェクトの抽出を行った際に、オブジェクトのバウンディングボックスを求めて遮蔽度の計算を行ってもよい。このとき、対象オブジェクトのバウンディングボックスの面積をPall、他オブジェクトのバウンディングボックスが注目オブジェクトのバウンディングボックスと重なっている部分の面積をPsとすることで、上記と同様の手順で遮蔽度Ojを計算できる。 The method of calculating the degree of obstruction Oj is not limited to the above method, and when the target object is extracted based on the feature amount of the image or deep learning, the bounding box of the object is calculated and the degree of obstruction is calculated. You may. At this time, by setting the area of the bounding box of the target object to Pall and the area of the part where the bounding box of another object overlaps the bounding box of the object of interest to Ps, the shielding degree Oj can be calculated by the same procedure as above. ..
カメラ選定部5は、オブジェクト向き推定部3が推定した各オブジェクトの向き、およびオブジェクト遮蔽度計算部4が計算した遮蔽度Ojを基に、オブジェクトの識別に使用するカメラをオブジェクトごとに選定する。本実施例では、前記深層学習によりカメラごとに得られたn個の信頼度Riおよび移動ベクトルを基に得られた1つの信頼度Riを、オブジェクトごとに取得済みであるものとして説明する。
The
カメラ選定部5において、ID指向方向計算部501は、オブジェクトごとに前記n+1個の向き推定結果を基にIDの指向方向を計算する。ID指向方向とは、IDが背番号であれば当該背番号と正対する方向、換言すればオブジェクトの背中から垂直に延びる方向である。
In the
一般に、向き推定結果が0度であれば、そのカメラは背番号と正対し、当該背番号を高確率で映し出していると言える。一方、向き推定結果が、例えば90度であると、そのカメラから得られた画像は背番号を映し出している可能性が低いが、図7に示したように、向き推定で得られた方向ベクトルを90度回転させた方向にあるカメラは背番号と正対し、当該背番号を明瞭に映し出している可能性が高い。したがって、当該90度回転させた方向が指向方向とされる。 Generally, if the orientation estimation result is 0 degrees, it can be said that the camera faces the uniform number and projects the uniform number with high probability. On the other hand, if the orientation estimation result is, for example, 90 degrees, it is unlikely that the image obtained from the camera reflects the uniform number, but as shown in FIG. 7, the direction vector obtained by the orientation estimation It is highly possible that the camera in the direction of rotating 90 degrees faces the uniform number and clearly projects the uniform number. Therefore, the direction rotated by 90 degrees is regarded as the directivity direction.
このような観点から、本実施形態ではカメラ映像ごとに得られるn個の向き推定結果からn個のID指向方向が計算される。さらに、本実施例ではオブジェクトごとに、その移動ベクトルを用いた方向推定も実施されているが、この推定結果に関しては、オブジェクトの移動方向の反対方向(180度回転させた方向)を背番号と正対するID指向方向とした。 From such a viewpoint, in the present embodiment, n ID directivity directions are calculated from the n orientation estimation results obtained for each camera image. Further, in this embodiment, direction estimation using the movement vector of each object is also performed, but for this estimation result, the direction opposite to the movement direction of the object (direction rotated by 180 degrees) is used as the uniform number. The ID-oriented direction is set to face each other.
なお、本実施形態ではカメラごとに視線の方向が異なるので、前記オブジェクト向き推定部3で推定された各オブジェクトの向きを共通の方位で取り扱うことができない。例えば、cam1の画像上で向きが0°と推定されたオブジェクトA1とcam2の画像上で向きが0°と推定されたオブジェクトA2とは、フィールド上では同じ向きとならず、各カメラcam1,cam2の視線方向の差に応じた角度差が生じる。
In this embodiment, since the direction of the line of sight is different for each camera, the orientation of each object estimated by the object
一方、本実施形態では各カメラの視線方向が既知なので、これ以降の説明では、各カメラの視線方向を基に各オブジェクトの向き推定結果を較正することで、前記オブジェクト向き推定部3が推定する向きとフィールド上での向きとが一致しているものとして説明を続ける。
On the other hand, since the line-of-sight direction of each camera is known in the present embodiment, in the following description, the object
候補ベクトル算出部502は、前記n+1個のID指向方向を基に各ID指向方向を表すn+1個の候補ベクトルを算出する。カメラ評価部503は、オブジェクトごとに前記n+1個の候補ベクトルを基に各カメラを評価する。
The candidate
本実施形態では、前記カメラ評価部503によるカメラの評価のアプローチとして、以下に詳述する2種類の方法、「候補ベクトルを統合する方法」および「各カメラに対してスコア付けを行う方法」のいずれかを採用できる。
In the present embodiment, as an approach for evaluating a camera by the
方法A.[候補ベクトルを統合する方法]
オブジェクトごとに得られたn+1個の向き推定結果を基に最終的に一つの向きを決定する際に、n+1個の向きの平均を求めただけでは、図8に示したように、推定値が大きく外れた候補ベクトル(図8では、「カメラ4による候補ベクトル」)が含まれていた場合に、推定結果が当該外れ値に強く影響されてしまい、推定精度が低下する。
Method A. [How to integrate candidate vectors]
When finally determining one orientation based on the n + 1 orientation estimation results obtained for each object, simply calculating the average of the n + 1 orientations will result in an estimated value as shown in FIG. When a candidate vector having a large deviation (“candidate vector by
このような外れ値が少数現れる場合は、向き推計結果が誤りである可能性が高く、特に、遮蔽が生じている可能性の高いカメラからの推定結果である可能性が高い。そこで、本実施形態ではこのような外れ値を排除すべく、以下に詳述するように、各候補ベクトルを所定の条件下で統合し、これを繰り返すことで最終的に一つの候補ベクトルを獲得するようにしている。 If a small number of such outliers appear, it is highly likely that the orientation estimation result is incorrect, and in particular, it is likely that the estimation result is from a camera that is likely to be shielded. Therefore, in the present embodiment, in order to eliminate such outliers, as described in detail below, each candidate vector is integrated under predetermined conditions, and by repeating this, one candidate vector is finally obtained. I try to do it.
図9,10は、候補ベクトルの統合方法を示した図であり、図11,12は、その手順を示したフローチャートである。 9 and 10 are diagrams showing a method of integrating candidate vectors, and FIGS. 11 and 12 are flowcharts showing the procedure.
ステップS1では、オブジェクトごとに各指向方向がベクトル化されて候補ベクトルが計算される。ステップS2では、指向方向の近い候補ベクトルを統合する際の閾値(統合閾値)θthが定義される。ステップS3では、各候補ベクトル間の角度∠(図8では、∠A~∠E)が計算される。 In step S1, each directivity direction is vectorized for each object and a candidate vector is calculated. In step S2, a threshold value (integration threshold value) θth for integrating candidate vectors having close directivity directions is defined. In step S3, the angle ∠ between each candidate vector (∠A to ∠E in FIG. 8) is calculated.
ステップS4では、最も小さい角度θminを求め、この最小角度θminが前記統合閾値θthと比較される。最小角度θminが統合閾値θthを下回っていればステップS5へ進み、当該最小角度θminをなす2つの候補ベクトルが統合されて新たな一の候補ベクトルが生成される。図9の例では、∠Bが最小角度θminであり、かつ∠B<最小角度θminなので、「カメラcam2による候補ベクトル」と「カメラcam3による候補ベクトル」とを統合すべくステップS5へ進む。 In step S4, the smallest angle θmin is obtained, and this minimum angle θmin is compared with the integrated threshold value θth. If the minimum angle θmin is less than the integration threshold θth, the process proceeds to step S5, and the two candidate vectors forming the minimum angle θmin are integrated to generate a new candidate vector. In the example of FIG. 9, since ∠B is the minimum angle θmin and ∠B <minimum angle θmin, the process proceeds to step S5 to integrate the “candidate vector by the camera cam2” and the “candidate vector by the camera cam3”.
図12は、前記ステップS5における候補ベクトルの統合手順を示したフローチャートであり、ステップS101では、統合対象の2つの候補ベクトルに関して、次式(1)にしたがってスコアSiが算出される。ここで、iは候補ベクトルのインデックスであり、jはインデックスiの候補ベクトルを算出するのに用いたカメラのインデックスである。 FIG. 12 is a flowchart showing the procedure for integrating the candidate vectors in step S5. In step S101, the score Si is calculated according to the following equation (1) for the two candidate vectors to be integrated. Here, i is the index of the candidate vector, and j is the index of the camera used to calculate the candidate vector of the index i.
Si=Ri × (1-Oj) …(1) Si = Ri × (1-Oj)… (1)
Riは前記各方向推定結果の信頼度であり、Ojは遮蔽度である。ただし、移動ベクトルから求めた指向方向定のように遮蔽度を考慮できない推定結果に関しては Ojを定値としてよい。 Ri is the reliability of the estimation result in each direction, and Oj is the shielding degree. However, Oj may be used as a constant value for estimation results that cannot take the degree of shielding into consideration, such as the directivity constant obtained from the movement vector.
ステップS102では、前記スコアSの計算結果を基に、統合により新たに生成する一の候補ベクトルの指向方向を決定するための角度分割が実施される。本実施形態では、図9に示したように、統合される一方の候補ベクトルのスコアをS1、他方の候補ベクトルのスコアをS2としたとき、これら2つの候補ベクトルが挟む角度∠Bが、一方の候補ベクトル側から他方の候補ベクトル側にS2:S1の比で分割した角度が新しい統合ベクトルの指向方向とされる。 In step S102, angle division for determining the directivity direction of one candidate vector newly generated by integration is performed based on the calculation result of the score S. In the present embodiment, as shown in FIG. 9, when the score of one candidate vector to be integrated is S1 and the score of the other candidate vector is S2, the angle ∠B between these two candidate vectors is one. The angle divided by the ratio of S2: S1 from the candidate vector side of is to the other candidate vector side is the directing direction of the new integrated vector.
図9では、統合される一方の候補ベクトル(カメラ2の候補ベクトル)のスコアS2が0.4であり、他方の候補ベクトル(カメラ3の候補ベクトル)のスコアS3が0.6なので、∠Bが一方側から他方側に0.6:0.4の割合で分割される。 In FIG. 9, the score S2 of one candidate vector to be integrated (candidate vector of camera 2) is 0.4, and the score S3 of the other candidate vector (candidate vector of camera 3) is 0.6, so ∠B. Is divided from one side to the other at a ratio of 0.6: 0.4.
ステップS103では、当該分割された角度が統合後の新たな候補ベクトルの指向方向となり、新しいインデックスi(ここでは、i=6)が付される。ステップS104では、統合後の新たな候補ベクトルのスコアS6が、前記統合された2つの候補ベクトルのスコアの和(=S2+S3)として計算される。 In step S103, the divided angle becomes the directivity direction of the new candidate vector after integration, and a new index i (here, i = 6) is attached. In step S104, the score S6 of the new candidate vector after integration is calculated as the sum of the scores of the two integrated candidate vectors (= S2 + S3).
図11へ戻り、2つの候補ベクトルの統合が完了するとステップS3へ戻り、前記統合により生じた新たな候補ベクトルを含めて上記の各処理が、前記ステップS4において統合閾値θthを下回る角度が存在しなくなるまで繰り返される。図10に示したように、統合閾値θthを下回る角度がなくなるとステップS6へ進む。 Returning to FIG. 11, when the integration of the two candidate vectors is completed, the process returns to step S3, and each of the above processes including the new candidate vector generated by the integration has an angle below the integration threshold θth in the step S4. Repeat until it runs out. As shown in FIG. 10, when there is no angle below the integration threshold value θth, the process proceeds to step S6.
ステップS6では、当該時点でスコアSの最も大きい候補ベクトルの指向方向が最終的なID指向方向として確定される。ステップS7では、前記確定したID指向方向を基に当該IDの認識に用いるカメラが選定される。 In step S6, the directivity direction of the candidate vector having the largest score S at that time is determined as the final ID directivity direction. In step S7, a camera used for recognizing the ID is selected based on the determined ID directivity direction.
本実施形態では、確定したID指向方向に最も近い角度のカメラ1台を選択してもよいし、ID指向方向から±φ度の角度範囲内に存在するカメラを全て選定するようにしても良い。複数台のカメラが選ばれた場合には、後に詳述するように、認識尤度の高い一方のカメラから取得した認識結果が最終的な一つの識別結果とされる。 In the present embodiment, one camera having an angle closest to the determined ID directivity direction may be selected, or all cameras existing within an angle range of ± φ degrees from the ID directivity direction may be selected. .. When a plurality of cameras are selected, the recognition result acquired from one camera having a high recognition likelihood is regarded as one final identification result, as will be described in detail later.
また、ID指向方向が確定しても、必ずしも当該指向方向に正対するカメラが存在するとは限らない。このような観点から、IDの指向方向に正対する角度と実際のカメラの角度がどれだけ離れているかを計算しておき、後段のオブジェクト識別部の計算の際の尤度に組み込んでもよい。 Further, even if the ID directivity direction is determined, there is not always a camera facing the directivity direction. From this point of view, it is possible to calculate how far the angle facing the direction of the ID is from the actual camera angle, and incorporate it into the likelihood when calculating the object identification unit in the subsequent stage.
B.[各カメラに対してスコア付けを行う方法]
上記の方法Aでは、各候補ベクトルに対してスコア付けを行ったが、本方法Bでは、各カメラにスコア付けを行う点に特徴がある。方法Bでは、候補ベクトルと正対する方向を向くカメラが最も認識に適しているカメラであるという観点から、候補ベクトルごとに、正対するカメラのスコアが最大となるスコア付けを順次に行う。
B. [How to score each camera]
In the above method A, each candidate vector is scored, but in the present method B, each camera is scored. In the method B, from the viewpoint that the camera facing the direction facing the candidate vector is the most suitable camera for recognition, the scoring that maximizes the score of the camera facing the candidate vector is sequentially performed for each candidate vector.
図13は、本方式Bによる各カメラのスコア付け方法を示した図であり、図14は、その手順を示したフローチャートである。 FIG. 13 is a diagram showing a scoring method for each camera by the present method B, and FIG. 14 is a flowchart showing the procedure.
ステップS21では、注目する一の候補ベクトルが選択される。ステップS22では、スコア計算対象のカメラが選択される。ステップS23では、次式(2)にしたがって当該カメラの評価値Piが計算される。本実施形態では、正対しているカメラであるか否かを評価する指標として内積に着目し、内積値の小さいカメラほど、よりスコアが高くなる関数を採用している。 In step S21, one candidate vector of interest is selected. In step S22, the camera to be scored is selected. In step S23, the evaluation value Pi of the camera is calculated according to the following equation (2). In this embodiment, the inner product is focused on as an index for evaluating whether or not the camera is facing the camera, and a function is adopted in which the smaller the inner product value, the higher the score.
Pi=Ri×((1-Oj)×(-cos(Φi-C)) …(2) Pi = Ri × ((1-Oj) × (-cos (Φi-C))… (2)
ここで、Riは前記各向き推定結果の信頼度であり、Ojは遮蔽度である。Φiは注目する候補ベクトルの指向方向であり、Cはカメラの向いている方向を表している。cos部分の計算は内積値の計算を行うことを意味しており(ここでは、各ベクトルは単位ベクトルであるという前提で計算している)、正対する方向であればあるほど望ましいという観点から、内積としては-1となるケースが最も望ましいため、cosの頭にマイナスを付与することで正の値に変換している。 Here, Ri is the reliability of the estimation result for each direction, and Oj is the shielding degree. Φi is the directivity direction of the candidate vector of interest, and C is the direction in which the camera is facing. The calculation of the cos part means that the inner product value is calculated (here, each vector is calculated on the assumption that it is a unit vector), and from the viewpoint that the more facing the direction is, the more desirable it is. Since the case where the inner product is -1 is the most desirable, it is converted to a positive value by adding a minus to the head of cos.
ステップS24では、前記スコアPiが注目カメラの総スコアΣPiに加算されて当該総スコアΣPiが更新される。ステップS25では、全てのカメラに関して今回の候補ベクトルに関するスコア付けが完了したか否かが判断される。完了していなければステップS22へ戻り、スコア計算対象のカメラを切り換えて上記の各処理が繰り返される。 In step S24, the score Pi is added to the total score ΣPi of the camera of interest, and the total score ΣPi is updated. In step S25, it is determined whether or not the scoring for the current candidate vector is completed for all the cameras. If it is not completed, the process returns to step S22, the camera for which the score is calculated is switched, and each of the above processes is repeated.
その後、今回の候補ベクトルに関して全てのカメラに対するスコア付けが完了するとステップS26へ進む。ステップS26では、全ての候補ベクトルに関して各カメラへのスコア付けが完了したか否かが判断される。完了していなければステップS21へ戻り、注目する候補ベクトルを切り換えながら上記の各処理が繰り返される。 After that, when the scoring for all the cameras with respect to the candidate vector this time is completed, the process proceeds to step S26. In step S26, it is determined whether or not the scoring for each camera is completed for all the candidate vectors. If it is not completed, the process returns to step S21, and each of the above processes is repeated while switching the candidate vector of interest.
全ての候補ベクトルに関して各カメラへのスコア付けが完了するとステップS27へ進み、各カメラの総スコアΣPを基に推奨カメラが選定される。推奨カメラは、総スコアΣPが最も大きい一つのカメラのみを選定しても良いし、所定の閾値を超えた全てのカメラを選定しても良い。あるいは、上位Nベストのカメラを選定するようにしても良い。 When the scoring for each camera is completed for all the candidate vectors, the process proceeds to step S27, and the recommended camera is selected based on the total score ΣP of each camera. As the recommended camera, only one camera having the largest total score ΣP may be selected, or all cameras exceeding a predetermined threshold value may be selected. Alternatively, the top N best camera may be selected.
なお、上記の説明では、注目した候補ベクトルごとに全てのカメラを対象にスコアを計算するものとして説明したが、本発明はこれのみに限定されるものではなく、予め候補ベクトルごとに、スコアが高いと予測される一部のカメラを前記内積計算等により事前に選定しておいても良い。 In the above description, the score is calculated for all the cameras for each candidate vector of interest, but the present invention is not limited to this, and the score is calculated for each candidate vector in advance. Some cameras that are expected to be expensive may be selected in advance by the internal product calculation or the like.
その場合、当該事前選定されたカメラのみを対象に上記のスコア付けを行うこととし、図13に示したように、カメラごとに得られるスコアのうち、同一カメラについて得られたスコアは加算し、最終的に総スコアが最大となるカメラを選定しても良い。 In that case, the above scoring is performed only for the preselected cameras, and as shown in FIG. 13, among the scores obtained for each camera, the scores obtained for the same camera are added. Finally, the camera with the maximum total score may be selected.
オブジェクト識別部6は識別領域抽出部601を含み、当該識別領域抽出部601が抽出した識別領域を対象にID認識を実行し、各オブジェクトをIDの認識結果を基に識別する。
The
識別領域の抽出対象とされる画像は、前記カメラ選定部5が選定したカメラが映し出すオブジェクトの画像であり、カメラ選定部5が複数のカメラを選択したオブジェクトについては、各カメラ映像から識別領域がそれぞれ抽出される。識別領域は、背番号をIDとするのであれば背番号部分、車のナンバープレートをIDとするのであればナンバープレートの部分である。
The image to be extracted from the identification area is an image of an object projected by the camera selected by the
図15は、IDが背番号である場合の識別領域の抽出方法を示した図であり、オブジェクトの向き推定で使用された全身画像から背番号部分が抽出される。 FIG. 15 is a diagram showing a method of extracting the identification area when the ID is a uniform number, and the uniform number portion is extracted from the whole body image used in the orientation estimation of the object.
識別領域の抽出方法には、人物の骨格情報を基に識別領域を抽出する方法、対象オブジェクトの画像の上半分などの予め決められた領域を抽出する手法、識別領域を抽出するために再度深層学習等を行って抽出する方法、作成した対象オブジェクトの視体積を各カメラ映像に逆投影した際にできるシルエットの重心位置の情報を基に抽出する方法などがある。ここでは、人物の骨格情報を基に識別領域を抽出する例を説明する。 The identification area extraction method includes a method of extracting the identification area based on the skeleton information of the person, a method of extracting a predetermined area such as the upper half of the image of the target object, and a deep layer again to extract the identification area. There are a method of extracting by performing learning and the like, and a method of extracting based on the information of the center of gravity of the silhouette created when the visual volume of the created target object is back-projected on each camera image. Here, an example of extracting an identification area based on the skeleton information of a person will be described.
特許文献5には、画像のみから人物のボーン(骨格)を計算できる技術が開示されており、この技術を対象オブジェクトに適用することで、概ね各部位の位置を知ることができる。背番号であれば、概ね腰の位置が分かれば背番号部分を高精度に抽出することができる。
また、カメラ選定部5のID指向方向計算部501が最終的に計算したID指向方向とカメラの向いている方向との間に角度のズレがある場合は、この角度をパラメータとして、抽出された識別領域部分の画像にアフィン変換等を行うなどの画像処理を行い、IDの認識精度を向上させる機能を追加しても良い。
If there is an angle difference between the ID direction direction finally calculated by the ID direction
オブジェクト識別部6が、前記抽出された識別領域を対象にID認識を実行する方法としては、非特許文献1に記載されるように、機械学習を用いて背番号の認識を行う手法がある。背番号認識に機械学習を採用する場合は、背番号の映った画像を入力すると、予測した認識結果(背番号が何番であるかという推測結果)を取得できるモデルを作成する必要があるため、最初に学習画像を用いて背番号認識用のモデルの生成を行う。
As a method for the
このモデルの作成は、予め行っておくことが望ましい。例えば大量の学習画像を用意し、畳み込みニューラルネットワークを用いて背番号認識用のモデルを作成する。学習画像の生成については、背番号が映っている画像を大量に用意して正解ラベルを手動で付与してもよいし、任意の背景画像に数字の入ったフォントによる文字等を重ねて、人工的に学習画像を生成してもよい。後者の方法は自動で正解ラベルの付与された学習画像を生成できるため、手動で正解ラベルを割り付ける必要がなく効率的である。 It is desirable to create this model in advance. For example, a large number of training images are prepared, and a model for number recognition is created using a convolutional neural network. For the generation of the learning image, you may prepare a large number of images showing the uniform number and manually attach the correct answer label, or you can superimpose the characters in the font with numbers on any background image and artificially. A learning image may be generated. The latter method is efficient because it is possible to automatically generate a learning image with a correct answer label, so that it is not necessary to manually assign a correct answer label.
また、初めからフォントを回転させたり、歪ませたり、サイズの調節をしてさまざまな学習画像を生成しておけば、抽出された画像の背番号が多少斜めを向いていたり、綺麗に切り取られていなくても、精度の高い認識が可能となる。 Also, if you rotate the font, distort it, and adjust the size to generate various learning images from the beginning, the spine numbers of the extracted images will be slightly diagonal or will be cut out neatly. Even if it is not, highly accurate recognition is possible.
また、モデルの生成方法は畳み込みニューラルネットワークを用いる方法に限定されず、背番号の認識が可能であればテンプレートマッチングのようなアプローチや、画像の特徴量とSVMとを組み合わせて学習させた学習器を用いて識別を行うなどの手法を取ってもよい。 In addition, the model generation method is not limited to the method using a convolutional neural network, and if it is possible to recognize the number, an approach such as template matching or a learner that trains by combining image features and SVM. You may take a method such as performing identification using.
なお、前記カメラ選定部で2つ以上のカメラが選定されたために2以上の識別領域が抽出され、それぞれに対してID認識を実行した結果、同一の認識結果が得られていれば良いが、例えば一方のカメラの認識結果が「38」、他方のカメラの認識結果が「39」といったように、認識結果に食い違いの生じる可能性がある。 Since two or more cameras are selected by the camera selection unit, two or more identification areas are extracted, and ID recognition is executed for each of them. As a result, the same recognition result may be obtained. For example, the recognition result of one camera is "38", the recognition result of the other camera is "39", and so on, there is a possibility that the recognition results may be inconsistent.
この場合、より正しい認識結果を選択するためのアプローチとして、背番号の認識を行う際に、例えば畳み込みニューラルネットワークで背番号を認識するのであれば、背番号認識用のモデルの出力層の活性化関数にsoftmax関数を用いることで、認識結果の確率を算出することができる。 In this case, as an approach for selecting a more correct recognition result, when recognizing the uniform number, for example, if the uniform number is recognized by a convolutional neural network, the output layer of the model for uniform number recognition is activated. By using the softmax function as the function, the probability of the recognition result can be calculated.
同様に、テンプレートマッチングやSVMなどであっても、認識結果ごとに尤度を算出することが可能である。よって、得られる尤度を基に、複数のカメラで結果が食い違う場合に、最終的に一つのIDを決定するような機能を具備していてもよい。 Similarly, even with template matching and SVM, it is possible to calculate the likelihood for each recognition result. Therefore, it may be provided with a function of finally determining one ID when the results are different in a plurality of cameras based on the obtained likelihood.
加えて、複数のカメラが選択されたために2以上のID認識結果が得られた場合、その尤度計算に前記オブジェクト遮蔽度計算部4が計算した遮蔽度Ojを反映させてもよい。例えば、遮蔽の生じる可能性が高いカメラからのID認識の結果は誤る可能性が高いため、その尤度を遮蔽度Ojに応じて低下させることで、なるべく採用されないようにする措置を講じることができる。
In addition, when two or more ID recognition results are obtained because a plurality of cameras are selected, the degree of obstruction Oj calculated by the object obstruction
この処理には、オブジェクト向き推定部3での尤度計算の際に用いた遮蔽度Ojをそのまま用いても良いし、識別領域抽出部601が抽出した識別領域に対する遮蔽度Ijを新たに計算し直しても良い。
For this process, the shielding degree Oj used in the likelihood calculation in the object
例えば、識別領域抽出部601が抽出した背番号部分と推定される画像領域部分のみに対して、オブジェクト遮蔽度計算部4が視体積を逆投影した際の重なり度を求めることによって、抽出された背番号領域がどれだけ遮蔽されているかという遮蔽度Ijを計算できる。
For example, it was extracted by obtaining the degree of overlap when the object shielding
結果出力部7は、前記オブジェクト位置推定部2が推定した各オブジェクトのフレーム画像上の位置座標と、前記オブジェクト識別部6が識別した当該オブジェクトのIDとを対応付けてID認識の結果表示を行う。
The result output unit 7 displays the result of ID recognition in association with the position coordinates on the frame image of each object estimated by the object
結果表示の方法には様々あり、コンソール上に各オブジェクトの位置座標およびIDを数値として表示させるだけでもよいが、図15に一例を示したように、各オブジェクトの位置に当該オブジェクトのIDを紐付けてグラフィカルに平面マップとして表示しても良い。 There are various methods for displaying the result, and it is sufficient to display the position coordinates and ID of each object as numerical values on the console. However, as shown in FIG. 15, the ID of the object is linked to the position of each object. It may be attached and displayed graphically as a plane map.
図16では、サッカーフィールドの半面を模した背景の上に、各オブジェクト(選手)の位置座標を示す丸型マーカを配置すると共に、各マーカ上に背番号を示すIDを重ねて表示している。 In FIG. 16, a round marker indicating the position coordinates of each object (player) is arranged on a background imitating one side of a soccer field, and an ID indicating a uniform number is superimposed and displayed on each marker. ..
このような平面マップを、映像のフレームごとに出力して動画的に動かすような表示方法も可能である。また、この表示の際に、例えば画像からユニフォームの色の情報を取得することで選手の所属チームを判断し、その結果でマーカの色を変化させて平面マップに反映させてもよい。さらに、色情報を基に審判と判定されたオブジェクトについては、選手ではないと判断して結果の表示から除外したり、あるいはIDを付さないことで視覚的に審判であると容易に判別できるようにしても良い。 It is also possible to display such a plane map by outputting it for each frame of the video and moving it like a moving image. Further, at the time of this display, for example, the team to which the player belongs may be determined by acquiring the uniform color information from the image, and the color of the marker may be changed and reflected on the plane map as a result. Furthermore, an object that is judged to be a referee based on color information can be easily identified as a referee by judging that it is not a player and excluding it from the display of the result, or by not attaching an ID. You may do so.
1…カメラ映像取得部,2…オブジェクト位置推定部,3…オブジェクト向き推定部,4…オブジェクト遮蔽度計算部,5…カメラ選定部,6…オブジェクト識別部,7…結果出力部,301…オブジェクト画像取得部,302…分類部,303…移動ベクトル計算部,304…信頼度取得部,501…ID指向方向計算部,502…候補ベクトル算出部,503…カメラ評価部,601…識別領域抽出部 1 ... camera image acquisition unit, 2 ... object position estimation unit, 3 ... object orientation estimation unit, 4 ... object shielding degree calculation unit, 5 ... camera selection unit, 6 ... object identification unit, 7 ... result output unit, 301 ... object Image acquisition unit, 302 ... Classification unit, 303 ... Movement vector calculation unit, 304 ... Reliability acquisition unit, 501 ... ID direction direction calculation unit, 502 ... Candidate vector calculation unit, 503 ... Camera evaluation unit, 601 ... Identification area extraction unit
Claims (15)
オブジェクトを複数の異なる視点で撮影したカメラ映像を取得する手段と、
各オブジェクトの位置を推定する手段と、
各カメラの視点および各オブジェクトの位置に基づいてオブジェクト同士の遮蔽度をカメラごとに計算する手段と、
前記遮蔽度に基づいて各オブジェクトの識別に用いるカメラをオブジェクトごとに選定する手段と、
オブジェクト毎に前記選定したカメラのカメラ映像に基づいて各オブジェクトを識別する手段とを具備したことを特徴とするオブジェクト識別装置。 In an object identification device that identifies objects based on camera images
A means of acquiring camera images of objects taken from multiple different perspectives,
A means of estimating the position of each object,
A means to calculate the degree of occlusion between objects for each camera based on the viewpoint of each camera and the position of each object,
A means for selecting a camera to be used for identifying each object based on the degree of shielding for each object, and
An object identification device comprising a means for identifying each object based on a camera image of the selected camera for each object.
カメラ映像に基づいて各オブジェクトの向きを推定する手段をさらに具備し、
前記カメラを選定する手段は、各オブジェクトの向きおよび遮蔽度に基づいて各オブジェクトのIDを認識するカメラを選定することを特徴とする請求項1に記載のオブジェクト識別装置。 The object holds an ID that can be recognized from the camera image,
Further equipped with a means to estimate the orientation of each object based on the camera image,
The object identification device according to claim 1, wherein the means for selecting the camera is to select a camera that recognizes the ID of each object based on the orientation and the degree of shielding of each object.
カメラ映像から取得したオブジェクト画像に基づいて各オブジェクトの向きを推定する手段および各オブジェクトの移動ベクトルに基づいて各オブジェクトの向きを推定する手段の少なくとも一方を含むことを特徴とする請求項2に記載のオブジェクト識別装置。 The means for estimating the orientation of each object is
The second aspect of claim 2 comprises at least one of a means for estimating the orientation of each object based on an object image acquired from a camera image and a means for estimating the orientation of each object based on a movement vector of each object. Object identification device.
オブジェクトごとにID指向方向を計算する手段と、
各オブジェクトのID指向方向ごとに候補ベクトルを算出する手段と、
各候補ベクトルを、前記遮蔽度および信頼度に基づいてスコア付けする手段と、
オブジェクトごとに、指向方向の角度差が所定の閾値を下回る2つの候補ベクトルを統合して一の候補ベクトルを新たに生成し、これを繰り返す手段と、
前記統合された2つの候補ベクトルのスコアを基に前記新たに生成した一の候補ベクトルをスコア付けする手段とを具備し、
スコアが所定の条件を満たす候補ベクトルに基づいてカメラを選定することを特徴とする請求項4ないし6のいずれかに記載のオブジェクト識別装置。 The means for selecting the camera is
A means to calculate the ID orientation direction for each object,
A means to calculate a candidate vector for each ID-oriented direction of each object,
A means for scoring each candidate vector based on the degree of obstruction and reliability, and
For each object, a means of integrating two candidate vectors whose directivity angle difference is less than a predetermined threshold value to generate a new candidate vector and repeating this process.
A means for scoring the newly generated candidate vector based on the scores of the two integrated candidate vectors is provided.
The object identification device according to any one of claims 4 to 6, wherein a camera is selected based on a candidate vector whose score satisfies a predetermined condition.
オブジェクトごとにID指向方向を計算する手段と、
各オブジェクトのID指向方向ごとに候補ベクトルを算出する手段と、
オブジェクトごとに、候補ベクトルの向きと各カメラの向きとに基づいて各カメラに推奨度のスコア付けを行い、これを全ての候補ベクトルについて繰り返して推奨度の累積スコアを求める手段を具備し、
累積スコアが所定の条件を満たす候補ベクトルに基づいてカメラを選定することを特徴とする請求項4ないし6のいずれかに記載のオブジェクト識別装置。 The means for selecting the camera is
A means to calculate the ID orientation direction for each object,
A means to calculate a candidate vector for each ID-oriented direction of each object,
For each object, each camera is scored based on the orientation of the candidate vector and the orientation of each camera, and this is repeated for all the candidate vectors to obtain the cumulative score of the recommendation.
The object identification device according to any one of claims 4 to 6, wherein a camera is selected based on a candidate vector whose cumulative score satisfies a predetermined condition.
前記抽出した識別領域を対象にID認識を実行することを特徴とする請求項2ないし9のいずれかに記載のオブジェクト識別装置。 The means for identifying the object further includes means for extracting an identification area including the ID of the object from the camera image of the object.
The object identification device according to any one of claims 2 to 9, wherein ID recognition is executed for the extracted identification area.
オブジェクトを複数の異なる視点で撮影したカメラ映像を取得する手順と、
各オブジェクトの位置を推定する手順と、
各カメラの視点および各オブジェクトの位置に基づいてオブジェクト同士の遮蔽度をカメラごとに計算する手順と、
前記遮蔽度に基づいて各オブジェクトの識別に用いるカメラをオブジェクトごとに選定する手順と、
オブジェクト毎に前記選定したカメラのカメラ映像に基づいて各オブジェクトを識別する手順とを含むことを特徴とするオブジェクト識別方法。 In an object identification method in which a computer identifies an object based on camera images.
The procedure for acquiring camera images of objects taken from multiple different viewpoints,
The procedure for estimating the position of each object and
The procedure for calculating the degree of occlusion between objects based on the viewpoint of each camera and the position of each object, and the procedure for each camera.
The procedure for selecting a camera to be used for identifying each object based on the degree of shielding for each object, and
An object identification method including a procedure for identifying each object based on a camera image of the selected camera for each object.
オブジェクトを複数の異なる視点で撮影したカメラ映像を取得する手順と、
各オブジェクトの位置を推定する手順と、
各カメラの視点および各オブジェクトの位置に基づいてオブジェクト同士の遮蔽度をカメラごとに計算する手順と、
前記遮蔽度に基づいて各オブジェクトの識別に用いるカメラをオブジェクトごとに選定する手順と、
オブジェクト毎に前記選定したカメラのカメラ映像に基づいて各オブジェクトを識別する手順とを、コンピュータに実行させるオブジェクト識別プログラム。 In an object identification program that identifies objects based on camera images
The procedure for acquiring camera images of objects taken from multiple different viewpoints,
The procedure for estimating the position of each object and
The procedure for calculating the degree of occlusion between objects based on the viewpoint of each camera and the position of each object, and the procedure for each camera.
The procedure for selecting a camera to be used for identifying each object based on the degree of shielding for each object, and
An object identification program that causes a computer to perform a procedure for identifying each object based on the camera image of the selected camera for each object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018179892A JP7022040B2 (en) | 2018-09-26 | 2018-09-26 | Object identification device, method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018179892A JP7022040B2 (en) | 2018-09-26 | 2018-09-26 | Object identification device, method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020052600A JP2020052600A (en) | 2020-04-02 |
JP7022040B2 true JP7022040B2 (en) | 2022-02-17 |
Family
ID=69997187
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018179892A Active JP7022040B2 (en) | 2018-09-26 | 2018-09-26 | Object identification device, method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7022040B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220121105A (en) * | 2021-02-24 | 2022-08-31 | 삼성전자주식회사 | A method for tracking a location of an object in a tarrget area and an electronic device performing the same |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005260753A (en) | 2004-03-12 | 2005-09-22 | Ntt Docomo Inc | Device and method for selecting camera |
WO2007074671A1 (en) | 2005-12-28 | 2007-07-05 | Matsushita Electric Industrial Co., Ltd. | Object detecting device, object detecting method and object detecting computer program |
JP2007226512A (en) | 2006-02-23 | 2007-09-06 | Fujifilm Corp | Method, device, and program for deciding face in specific direction |
US8279286B2 (en) | 2007-09-05 | 2012-10-02 | Sony Corporation | Apparatus and method of object tracking |
JP2015114950A (en) | 2013-12-13 | 2015-06-22 | 富士通株式会社 | Movement determination method, movement determination device, and movement determination program |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016054409A (en) * | 2014-09-03 | 2016-04-14 | キヤノン株式会社 | Image recognition device, image recognition method, and program |
-
2018
- 2018-09-26 JP JP2018179892A patent/JP7022040B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005260753A (en) | 2004-03-12 | 2005-09-22 | Ntt Docomo Inc | Device and method for selecting camera |
WO2007074671A1 (en) | 2005-12-28 | 2007-07-05 | Matsushita Electric Industrial Co., Ltd. | Object detecting device, object detecting method and object detecting computer program |
JP2007226512A (en) | 2006-02-23 | 2007-09-06 | Fujifilm Corp | Method, device, and program for deciding face in specific direction |
US8279286B2 (en) | 2007-09-05 | 2012-10-02 | Sony Corporation | Apparatus and method of object tracking |
JP2015114950A (en) | 2013-12-13 | 2015-06-22 | 富士通株式会社 | Movement determination method, movement determination device, and movement determination program |
Non-Patent Citations (3)
Title |
---|
Abhinav Gupta, 外2名,"COST: An Approach for Camera Selection and Multi-Object Inference Ordering in Dynamic Scenes",2007 IEEE 11th International Conference on Computer Vision,IEEE,2007年,p.1-8 |
Changsong Shen, 外2名,"A Multi-Camera Surveillance System that Estimates Quality-of-View Measurement",2007 IEEE International Conference on Image Processing,IEEE,2007年,p.(III-193)-(III-196) |
山崎綾哉, 外3名,"フィールドスポーツにおける同期多カメラを用いた複数選手のチーム識別と背番号認識による実時間個人識別",映像情報メディア学会技術報告,日本,(一社)映像情報メディア学会,2012年08月27日,第36巻, 第34号,p.59-62 |
Also Published As
Publication number | Publication date |
---|---|
JP2020052600A (en) | 2020-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9437012B2 (en) | Multiple-object tracking and team identification for game strategy analysis | |
JP6525453B2 (en) | Object position estimation system and program thereof | |
EP2707834B1 (en) | Silhouette-based pose estimation | |
US9898651B2 (en) | Upper-body skeleton extraction from depth maps | |
US8477995B2 (en) | Image processing device and method | |
US9275472B2 (en) | Real-time player detection from a single calibrated camera | |
CN103810475B (en) | A kind of object recognition methods and device | |
CN110717445B (en) | Front vehicle distance tracking system and method for automatic driving | |
JP2009064445A (en) | Image processor and method | |
Bandlow et al. | Fast image segmentation, object recognition and localization in a robocup scenario | |
Sternig et al. | Multi-camera multi-object tracking by robust hough-based homography projections | |
JP2010123019A (en) | Device and method for recognizing motion | |
JP2011513876A (en) | Method and system for characterizing the motion of an object | |
JP2010049297A (en) | Image monitoring device | |
JP7022040B2 (en) | Object identification device, method and program | |
JP7096175B2 (en) | Object extraction method and device | |
JP2019096062A (en) | Object tracking device, object tracking method, and object tracking program | |
KR101703316B1 (en) | Method and apparatus for measuring velocity based on image | |
JP6953292B2 (en) | Object identification device and method | |
JP2002008043A (en) | Device and method for analyzing action | |
Lo et al. | Vanishing point-based line sampling for real-time people localization | |
US20210165999A1 (en) | Method and system for head pose estimation | |
CN107292932A (en) | Head-on video frequency speed-measuring method based on image expansion rate | |
KR102614770B1 (en) | Non-face-to-face golf teaching system through object detection and behavior pattern analysis | |
TWI775637B (en) | Golf swing analysis system, golf swing analysis method and information memory medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200806 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210819 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210901 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211019 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220126 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220204 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7022040 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |