JP2019175063A - Object identification device - Google Patents

Object identification device Download PDF

Info

Publication number
JP2019175063A
JP2019175063A JP2018061567A JP2018061567A JP2019175063A JP 2019175063 A JP2019175063 A JP 2019175063A JP 2018061567 A JP2018061567 A JP 2018061567A JP 2018061567 A JP2018061567 A JP 2018061567A JP 2019175063 A JP2019175063 A JP 2019175063A
Authority
JP
Japan
Prior art keywords
identification
race
unit
identification device
score
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018061567A
Other languages
Japanese (ja)
Other versions
JP6902492B2 (en
Inventor
良亮 渡邊
Ryosuke Watanabe
良亮 渡邊
敬介 野中
Keisuke Nonaka
敬介 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2018061567A priority Critical patent/JP6902492B2/en
Publication of JP2019175063A publication Critical patent/JP2019175063A/en
Application granted granted Critical
Publication of JP6902492B2 publication Critical patent/JP6902492B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

To accurately identify a target object even when a plurality of target objects photographed by a camera are overlapped and even when a plurality of jockeys wearing the same color hat or the same color cloth.SOLUTION: An object identification device comprises an object identification unit for identifying a target object for each identification element, for eventually identifying the object by aggregating identification results for each identification element of the target object. The object identification device determines a weight to aggregate the identification results for each identification element according to identification scores of a plurality of candidate objects.SELECTED DRAWING: Figure 1

Description

本発明は、動いている対象物を含む画像をカメラによって撮影し、撮影された画像に基づいて画像中の対象物を同定するオブジェクト同定装置に関する。   The present invention relates to an object identification device that captures an image including a moving object with a camera and identifies the object in the image based on the captured image.

従来より、センサーを用いず、カメラからの映像だけを基に、レース競技において競走対象の位置を推定し、同定を行う競走馬位置情報解析装置が提案されてきた(例えば、特許文献1参照)。   Conventionally, there has been proposed a racehorse position information analysis device that estimates and identifies the position of a race target in a race based on only images from a camera without using a sensor (see, for example, Patent Document 1). .

国際公開第2007/037350号パンフレットInternational Publication No. 2007/037350 Pamphlet

このような装置を用いて対象の位置を特定し、特定した結果をマップ上などにプロットし、スマートフォンなどの端末に配信することで、ユーザはレースにおける各競走対象の位置を知ることができる。また、競馬や競輪等に代表される賭博要素を持つ競技では、過去のレースにおける展開や競走対象の動きを分析したいというユーザが多く、解析して表示した結果はレースの展開などの分析の用途にも役立てることが可能である。そのような技術の中でも、特にカメラのみを用いた位置推定と対象の同定を行う技術は、競走対象へのセンサーの取り付けや通信環境の整備等が不要であり、レース場への導入や運用が簡単であることから、カメラのみを用いた位置推定や対象の同定を行うことのメリットは大きい。   The user can know the position of each race target in the race by specifying the position of the target using such a device, plotting the specified result on a map, etc., and distributing the result to a terminal such as a smartphone. In addition, in competitions with gambling elements such as horse racing and bicycle racing, many users want to analyze the development of past races and the movement of the race target, and the analysis and display results are used for analysis such as race development. It can also be useful. Among such technologies, especially the technology that uses only cameras to perform position estimation and target identification does not require the installation of sensors to the race target or the establishment of a communication environment. Since it is simple, the merit of performing position estimation and target identification using only a camera is great.

特許文献1は、レース場の周囲に設けられたカメラからの映像を解析し競走馬を追尾することで、特定の競走馬のレースにおける位置や移動軌跡を解析・表示する発明に関するものである。位置推定と同定の実現のために、各競走馬のサイズに合わせた6角形状のテンプレートを用いて、前フレームの対象物体との類似度を測定することで各馬の動きを追尾する。この類似度の測定に関しては、前記テンプレート部分の色の分析を行うことで類似度を判定するが、色に基づく類似度の判定を行う際に、比較的特徴が表れやすい騎手部分や、馬体部分の色分析をした結果に対し大きく重み付けすることで、競走馬の同定を行うことを特徴としている。   Patent Document 1 relates to an invention that analyzes and displays the position and movement trajectory of a specific racehorse in a race by analyzing a video from a camera provided around the racetrack and tracking the racehorse. In order to realize position estimation and identification, the movement of each horse is tracked by measuring the similarity to the target object of the previous frame using a hexagonal template that matches the size of each racehorse. Regarding the measurement of the similarity, the similarity is determined by analyzing the color of the template part. When determining the similarity based on the color, a jockey part or a horse body whose features are relatively easy to appear. It is characterized by identifying the racehorse by weighting the result of color analysis of the part.

特許文献1のように位置の推定を行う上でテンプレートを用いて追尾を行うことは、対象が他の対象と離れて移動しているときには大きな効果を発揮するが、レース競技では常に競走対象が分離してカメラに映し出されるわけではなく、並走や追い抜きなどが発生する場面では対象同士が重なって映ることが多い。このように対象同士が重なるような場面では、対象の一部が見えなくなることが原因で類似度の測定精度が低下するため、追跡にミスが生じやすくなる。   As described in Patent Document 1, tracking using a template for estimating the position is very effective when the object is moving away from other objects. They are not separated and projected on the camera, but often appear in overlapping situations when parallel running or overtaking occurs. In such a situation where the objects overlap with each other, the accuracy of similarity measurement decreases due to the fact that some of the objects become invisible.

特許文献1の手法は追尾を行うことで競走馬の同定(出走馬の番号を明らかにすること)を行うため、当然その時点での同定精度も低下してしまうという課題があった。さらに、競馬では騎手の服は馬主ごとに定められており、同一レースに同一馬主の馬が走る可能性があることに加え、馬主が違っていても似たような配色の服も多い。また、帽子の色についても枠順に基づき決定されるものであり、1レースの頭数が多い場合には同一色の馬が2〜3頭走るケースも発生する。   Since the method of Patent Document 1 identifies a racehorse by clarifying the track (identifying the number of the racehorse), there is a problem that the identification accuracy at that time naturally decreases. Furthermore, in horse racing, the clothes of jockeys are determined for each owner, and in addition to the possibility that the horse of the same owner runs in the same race, there are many clothes of similar colors even if the owners are different. Also, the color of the hat is determined based on the frame order. When there are a large number of horses in one race, there are cases where two or three horses of the same color run.

馬体に関しても白毛や芦毛などの一部目立つ色はあるものの、類似した色の競走馬が走ることも多く、色の類似度に基づいて同定すると、たとえ対象物体が完全に見える状況においても誤認識が発生することが避けられない場合がある。また、特に色情報に基づく分析には、当日の天候の違いによる色の見え方の違いなどの環境の違いにも影響されがちであるという課題も存在していた。   Although there are some conspicuous colors such as white hair and eyelashes with respect to the horse body, racehorses of similar colors often run, and identification based on the similarity of colors makes it possible to see the target object completely. In some cases, erroneous recognition is unavoidable. In particular, the analysis based on color information also has a problem that it tends to be influenced by environmental differences such as differences in color appearance due to differences in weather on the day.

本発明は、動いている対象物を同定するために、複数の同定要素の結果を組み合わせて同定結果を確定させる際に、候補となるオブジェクトの特徴に基づき、同定要素ごとの重み付けを、複数の候補オブジェクトごとに動的に変更することにより、高精度な対象同定を実現することを目的とする。   In the present invention, in order to identify a moving object, when the result of a plurality of identification elements is combined to determine the identification result, the weight for each identification element is set based on the characteristics of the candidate object. An object of the present invention is to realize highly accurate target identification by dynamically changing each candidate object.

(1) 本発明に係るオブジェクト同定装置は、対象オブジェクトの同定に用いる部位を画像から抽出するオブジェクト部位抽出部と、対象オブジェクトの位置を推定するオブジェクト位置推定部と、対象オブジェクトについて各同定要素ごとに同定を行い、対象オブジェクトの各同定要素ごとの同定結果を集計することで最終的にオブジェクトの同定を行うオブジェクト同定部と、前記オブジェクト部位抽出部及び前記オブジェクト同定部が使用する各候補オブジェクトの部位の特徴を事前に学習するオブジェクト特徴学習部と、前記オブジェクト同定部が対象オブジェクトの各同定要素ごとの同定結果を集計する際の重みを動的に決定する同定パラメータ決定部と、前記オブジェクト同定部の最終的なオブジェクトの同定結果の表示を行う結果表示部と、を有する。   (1) An object identification device according to the present invention includes an object part extraction unit that extracts a part used for identification of a target object from an image, an object position estimation unit that estimates the position of the target object, and each identification element for the target object. The object identification unit that finally identifies the object by counting the identification results for each identification element of the target object, and each candidate object used by the object part extraction unit and the object identification unit An object feature learning unit that learns the features of a part in advance, an identification parameter determination unit that dynamically determines a weight when the object identification unit aggregates identification results for each identification element of the target object, and the object identification Display the final object identification result It has a result display unit.

(2) (1)に記載のオブジェクト同定装置において、前記同定パラメータ決定部が、抽出に成功した同定要素の中で、候補オブジェクト同士の同定を行いやすい同定要素に大きく重み付けをしてもよい。   (2) In the object identification device according to (1), the identification parameter determination unit may weight the identification elements that can easily identify candidate objects among the identification elements that have been successfully extracted.

(3) (1)又は(2)に記載のオブジェクト同定装置において、前記同定パラメータ決定部が、候補オブジェクト同士の同定を行いやすい要素に大きく重み付けをするために、全ての候補オブジェクトの同定要素の特徴をクラスタリングした際のクラスタ数と、各クラスタの代表値の分散と、抽出要素の要素信頼度と、の三つのパラメータを組み合わせることで、候補オブジェクト同士の同定を行いやすい同定要素に大きく重み付けをしてもよい。   (3) In the object identification device according to (1) or (2), in order for the identification parameter determination unit to heavily weight elements that can easily identify candidate objects, the identification elements of all candidate objects By combining three parameters: the number of clusters when features are clustered, the variance of the representative value of each cluster, and the element reliability of the extracted elements, the identification elements that make it easy to identify candidate objects are greatly weighted. May be.

(4) (1)から(3)のいずれか1項に記載のオブジェクト同定装置において、前記オブジェクト同定部が最終同定スコアを算出する際に、一定の条件を満たすスコアを示した候補オブジェクトを次の候補オブジェクトとして定め、前記同定パラメータ決定部にて繰り返し重み付けを変更しながら候補オブジェクトを絞り込んでいってもよい。   (4) In the object identification device according to any one of (1) to (3), when the object identification unit calculates a final identification score, a candidate object that indicates a score that satisfies a certain condition is The candidate objects may be narrowed down while the weighting is repeatedly changed by the identification parameter determination unit.

(5) (1)から(4)のいずれか1項に記載のオブジェクト同定装置において、同定パラメータ決定部が、オブジェクト同定のための重みを設定する際に、候補オブジェクトの数が多い場合には、各重み間の差が小さくなるような調整を加えてもよい。   (5) In the object identification device according to any one of (1) to (4), when the number of candidate objects is large when the identification parameter determination unit sets the weight for object identification. An adjustment may be made so that the difference between the weights becomes small.

(6) (1)から(5)のいずれか1項に記載のオブジェクト同定装置において、前記オブジェクト部位抽出部が、同定のために複数の部位を抽出し、前記オブジェクト同定部が、抽出に成功した部位の数の多い対象オブジェクトから順にオブジェクトの同定を行うことで、同定を行いやすい対象オブジェクトから順に候補オブジェクトの数を減らして行き、同定精度を高めてもよい。   (6) In the object identification device according to any one of (1) to (5), the object part extraction unit extracts a plurality of parts for identification, and the object identification unit succeeds in extraction. By identifying the objects in order from the target object having the largest number of parts, the number of candidate objects may be decreased in order from the target object that is easy to identify, and the identification accuracy may be increased.

(7) (1)から(6)のいずれか1項に記載のオブジェクト同定装置において、前記オブジェクト位置推定部での位置推定の際に、対象オブジェクト同士が近傍に存在しており、奥の対象オブジェクトが手前の対象オブジェクトにより一部覆い隠されている場合に、覆い隠されていない部位を検出し、当該部位が複数検出されたことを基に対象オブジェクトの数と位置を推定することで、重なりがある場合にも位置推定を正確に行ってもよい。   (7) In the object identification device according to any one of (1) to (6), when the object position estimation unit estimates the position, the target objects exist in the vicinity, and the target in the back When the object is partially obscured by the target object in front, by detecting the part that is not obscured and estimating the number and position of the target object based on the detection of multiple parts, Even when there is an overlap, the position estimation may be performed accurately.

(8) (1)から(7)のいずれか1項に記載のオブジェクト同定装置において、前記オブジェクト同定装置が、レースに出場しているオブジェクトを同定するオブジェクト同定装置であって、前記同定パラメータ決定部が重みを決定するために参照する事前情報データベースを備ており、前記オブジェクト特徴学習部は、レース前に前記事前情報データベースに登録されている静的な情報だけでなく、レース前の対象オブジェクトの様子を映像として捉え、その映像に対しオブジェクトの部位を抽出し、レース直前のリアルタイムな特徴情報を学習してもよい。   (8) The object identification device according to any one of (1) to (7), wherein the object identification device identifies an object participating in a race, and the identification parameter determination is performed. The object feature learning unit includes not only the static information registered in the prior information database before the race but also the target before the race. The state of the object may be captured as a video, the part of the object may be extracted from the video, and real-time feature information immediately before the race may be learned.

(9) (8)に記載のオブジェクト同定装置において、前記オブジェクト特徴学習部が学習するレース直前のリアルタイムな特徴情報として、レース直前の映像から候補オブジェクトの部位の抽出を行い、当該部位に対して色範囲を動的に変化させたときに抽出される当該部位の領域の外接矩形サイズが、レース前に設定された当該部位の大きさに近づくように色閾値を調整してもよい。   (9) In the object identification device according to (8), the part of the candidate object is extracted from the video immediately before the race as the real-time characteristic information immediately before the race learned by the object feature learning unit. The color threshold value may be adjusted so that the circumscribed rectangle size of the region of the part extracted when the color range is dynamically changed approaches the size of the part set before the race.

(10) (8)に記載のオブジェクト同定装置において、前記オブジェクト特徴学習部が、レース直前の映像から対象オブジェクトの部位の抽出を行い、学習するレース直前のリアルタイムな特徴情報として、当該部位のカラーヒストグラムを予め計算しておく機構を備え、かつ前記オブジェクト同定部が、このカラーヒストグラムとの類似度を調べることによってオブジェクト同定のスコアを算出してもよい。   (10) In the object identification device according to (8), the object feature learning unit extracts a part of the target object from a video immediately before the race, and uses the color of the part as real-time feature information immediately before the race to learn. A mechanism for calculating a histogram in advance may be provided, and the object identification unit may calculate the object identification score by examining the similarity to the color histogram.

(11) (1)から(10)のいずれか1項に記載のオブジェクト同定装置において、前記オブジェクト同定装置が、レースに出場しているオブジェクトを同定するオブジェクト同定装置であって、前記オブジェクト同定部で同定を行う同定要素の一つとして、競走中の対象オブジェクトの相対位置を用い、過去のフレームで同定された複数の候補オブジェクトの中で、現フレームでの対象オブジェクトの相対位置との距離が近い相対位置を有する候補オブジェクトに、大きな同定スコアを付与してもよい。   (11) The object identification device according to any one of (1) to (10), wherein the object identification device is an object identification device that identifies an object participating in a race, and the object identification unit As one of the identification elements to be identified in, the relative position of the target object in the race is used, and the distance from the relative position of the target object in the current frame among the multiple candidate objects identified in the past frame is A large identification score may be given to a candidate object having a close relative position.

(12) (11)に記載のオブジェクト同定装置において、競走中の対象オブジェクトの相対位置は、競走中の先頭と最後方に存在する対象オブジェクトの間と、最内と最外に存在する対象オブジェクトの間の空間にて正規化された量として計算され、コース形状に沿うように座標軸を取ってもよい。   (12) In the object identification device according to (11), the relative position of the target object during the race is between the target object existing at the beginning and the end during the race, and the target object existing at the innermost and outermost positions. May be calculated as a normalized quantity in the space between and coordinate axes may be taken along the course shape.

(13) (1)から(12)のいずれか1項に記載のオブジェクト同定装置において、前記オブジェクト同定部において特定部位に対し番号認識を用いてスコアを算出する際に、認識結果として完全に一致している番号のみにスコア付けをするのではなく、事前に判明している条件や傾向に基づいて、特定の桁のみが一致している場合にも一定のスコアを与えることで、番号の誤認識に基づいたスコアを算出する可能性を減少させてもよい。   (13) In the object identification device according to any one of (1) to (12), when the object identification unit calculates a score using number recognition for a specific part, the recognition result is completely one. Rather than scoring only the numbers that have been assigned, by giving a certain score even when only certain digits match based on previously known conditions and trends, The possibility of calculating a score based on recognition may be reduced.

(14) (1)から(13)のいずれか1項に記載のオブジェクト同定装置において、前記オブジェクト同定部において特定部位に対し番号認識を用いてスコアを算出する際に、撮影に用いるカメラと番号認識を行う部分の間の距離を算出し、距離が遠い場合の同定スコアが低くなるように重みを付けて同定スコアを算出してもよい。   (14) In the object identification device according to any one of (1) to (13), a camera and a number used for photographing when the object identification unit calculates a score using number recognition for a specific part. The distance between the parts to be recognized may be calculated, and the identification score may be calculated by assigning a weight so that the identification score is low when the distance is long.

(15) (1)から(14)のいずれか1項に記載のオブジェクト同定装置において、前記オブジェクト同定部において特定部位に対し文字認識を用いてスコアを算出する際に、文字そのものの認識が難しい場合には、文字部分の形状や色情報を基に文字部分の文字数を読み取り、文字部分の文字数に基づく対象オブジェクトの同定の際のスコア付けを行ってもよい。   (15) In the object identification device according to any one of (1) to (14), it is difficult to recognize a character itself when the object identification unit calculates a score using character recognition for a specific part. In this case, the number of characters in the character portion may be read based on the shape and color information of the character portion, and scoring may be performed when identifying the target object based on the number of characters in the character portion.

(16) (1)から(15)のいずれか1項に記載のオブジェクト同定装置において、前記オブジェクト同定装置が、レースに出場しているオブジェクトを同定するオブジェクト同定装置であって、前記オブジェクト位置推定部が、対象オブジェクトによって作り出される影、足跡、又は波に代表される対象オブジェクトの痕跡を利用して複数の対象オブジェクトの存在を検知し、対象オブジェクトの位置を推定してもよい。   (16) The object identification device according to any one of (1) to (15), wherein the object identification device identifies an object participating in a race, and the object position estimation The unit may detect the presence of a plurality of target objects using a shadow of the target object represented by a shadow, a footprint, or a wave created by the target object, and estimate the position of the target object.

(17) (1)から(16)のいずれか1項に記載のオブジェクト同定装置において、前記オブジェクト同定装置が、レースに出場しているオブジェクトを同定するオブジェクト同定装置であって、前記オブジェクト部位抽出部が、背景差分法に基づいて背景と前景領域を分離する機能を有し、レース前に決定されている出走時刻を基に、レース直前の画面内に対象オブジェクトが全く存在しないことを感知して、レース開始直前の背景の特徴を学習することにより、照明条件や天候の変化にも対応して前景抽出を実現してもよい。   (17) The object identification device according to any one of (1) to (16), wherein the object identification device identifies an object participating in a race, and the object part extraction Has a function to separate the background and foreground area based on the background subtraction method, and based on the start time determined before the race, it senses that no target object exists in the screen immediately before the race. Thus, foreground extraction may be realized in response to changes in lighting conditions and weather by learning the characteristics of the background immediately before the start of the race.

(18) (1)から(17)のいずれか1項に記載のオブジェクト同定装置において、前記オブジェクト同定装置が、レースに出場しているオブジェクトを同定するオブジェクト同定装置であって、オブジェクトの追跡を行うことが可能なオブジェクト追跡部をさらに有し、前記オブジェクト追跡部は追跡が成功した際に、追跡先の位置に同定結果と過去の同定スコアを引き継ぐことを可能とし、追跡中にも一定の頻度で再度オブジェクト同定を行い、追跡開始フレームから現フレームまでの同定スコアを加算した中で最大となる番号を同定結果として出力してもよい。   (18) In the object identification device according to any one of (1) to (17), the object identification device is an object identification device that identifies an object participating in a race, and tracks the object. The object tracking unit further includes an object tracking unit capable of performing the identification result and the past identification score at the tracking destination position when the tracking is successful. Object identification may be performed again at a frequency, and the largest number among the addition of the identification scores from the tracking start frame to the current frame may be output as the identification result.

(19) (13)に記載のオブジェクト同定装置において、前記オブジェクト同定装置が、競走馬の同定を行うオブジェクト同定装置であって、前記事前に判明している条件や傾向として、騎手の足によって競走馬のゼッケンの一部が隠されることがあるという傾向を利用し、カメラの位置と向きから見えづらい桁を考慮して、特定の桁のみが一致している場合にも一定のスコアを与えることで、番号の誤認識に基づいたスコアを算出する可能性を減少させてもよい。   (19) In the object identification device according to (13), the object identification device is an object identification device that identifies a racehorse, and according to the conditions and trends that are known in advance, Using the tendency that a part of the racehorse number may be hidden, taking into account the digits that are difficult to see from the camera position and orientation, give a certain score even when only certain digits match Thus, the possibility of calculating a score based on misrecognition of the number may be reduced.

(20) (1)から(19)のいずれか1項に記載のオブジェクト同定装置において、前記オブジェクト同定装置が、競走馬の同定を行うオブジェクト同定装置であって、前記オブジェクト部位抽出部にて抽出を行う部位を
(1)競走馬のゼッケン (2)騎手の服 (3)騎手の帽子 (4)馬の顔部分(馬が被るメンコやブリンカー、シャドーロールを含む) (5)バンデージ (6)馬体
の以上6項目とし、
前記オブジェクト同定部で、(7)競走馬の相対位置を加えた計7要素について、
(1)は番号認識と文字認識、(2)〜(6)は色情報の類似度、(7)は距離を基に同定スコアを算出し、前記同定パラメータ決定部で得られる重みに基づいてオブジェクト同定を行ってもよい。
(20) In the object identification device according to any one of (1) to (19), the object identification device is an object identification device that identifies a racehorse, and is extracted by the object part extraction unit. (1) Racehorse bib (2) Jockey's clothes (3) Jockey's hat (4) Horse face part (including mencos, blinkers and shadow rolls worn by the horse) (5) Bandage (6) With 6 items of horse body,
In the object identification unit, (7) for a total of 7 elements including the relative position of the racehorse,
(1) is number recognition and character recognition, (2) to (6) are color information similarities, and (7) is an identification score based on distance, and based on the weight obtained by the identification parameter determination unit Object identification may be performed.

(21) (1)から(20)のいずれか1項に記載のオブジェクト同定装置において、前記オブジェクト同定装置が、競走馬の同定を行うオブジェクト同定装置であって、前記オブジェクト特徴学習部がレース前に判明している競走馬のゼッケンの色情報から、当該ゼッケンを抽出できる色範囲を設定し、前記オブジェクト部位抽出部は、その色範囲を基に抽出して得られた全ての領域に対し外接矩形を計算し、外接矩形の大きさがゼッケンのサイズと類似していることを基にゼッケン部分の抽出を行い、抽出されたゼッケン部分の位置を基準として、画像中での各部位の位置関係に基づいて各部位を抽出してもよい。   (21) In the object identification device according to any one of (1) to (20), the object identification device is an object identification device that identifies a racehorse, and the object feature learning unit performs pre-race The color range in which the race bib can be extracted is set from the color information of the race horse race bib that has been identified in the above, and the object part extraction unit circumscribes all regions obtained by extraction based on the color range. The rectangle is calculated, the number of the number is extracted based on the size of the circumscribed rectangle being similar to the size of the number, and the positional relationship of each part in the image based on the position of the extracted number Each part may be extracted based on the above.

(22) (8)に記載のオブジェクト同定装置において、前記オブジェクト同定装置が、競走馬の同定を行うオブジェクト同定装置であって、前記オブジェクト特徴学習部で用いるレース前の対象オブジェクトの映像とは、レース前に入手できるパドックの映像と、レーススタート前にスタート地点まで走っていく際の馬の映像と、スタート直前にゲートに収まっている馬の映像であってもよい。   (22) In the object identification device according to (8), the object identification device is an object identification device that identifies a racehorse, and the image of the target object before the race used in the object feature learning unit is: A video of a paddock that can be obtained before the race, a video of a horse running to the starting point before the start of the race, and a video of a horse that is in the gate just before the start may be used.

本発明によれば、対象オブジェクトの同定に際し、候補オブジェクトごとに、複数の同定要素から算出される同定スコアを統合することで最終同定スコアの算出を行う。その際、複数の候補オブジェクトごとに重視する同定要素を動的に変更することにより、精度の高い対象同定を実現することができる。   According to the present invention, when identifying a target object, a final identification score is calculated by integrating identification scores calculated from a plurality of identification elements for each candidate object. At that time, it is possible to realize highly accurate target identification by dynamically changing the identification element to be emphasized for each of the plurality of candidate objects.

実施形態に係るオブジェクト同定装置の機能構成を示す図である。It is a figure which shows the function structure of the object identification device which concerns on embodiment. 実施形態に係るオブジェクト同定装置の機能構成を示す図である。It is a figure which shows the function structure of the object identification device which concerns on embodiment. 背景領域と前景領域の分離の例を示す図である。It is a figure which shows the example of isolation | separation of a background area | region and a foreground area | region. 実施形態における抽出部位の位置関係を示す図である。It is a figure which shows the positional relationship of the extraction site | part in embodiment. 色範囲と外接矩形に基づくゼッケン領域の抽出例を示す図である。It is a figure which shows the example of extraction of a number area based on a color range and a circumscribed rectangle. オブジェクト特徴学習部における色範囲の調整を示す図である。It is a figure which shows adjustment of the color range in an object feature learning part. 対象オブジェクトの画像位置の特定を示す図である。It is a figure which shows specification of the image position of a target object. 帽子を基に対象オブジェクトの重なりを推定できる例を示す図である。It is a figure which shows the example which can estimate the overlap of a target object based on a hat. 番号(13番)が騎手の足部分に隠される例を示す図である。It is a figure which shows the example where a number (No. 13) is hidden by a jockey's leg part. 文字の数を認識する例を示す図である。It is a figure which shows the example which recognizes the number of characters. 直線上の相対位置の算出例を示す図である。It is a figure which shows the example of calculation of the relative position on a straight line. カーブでの相対位置の算出例を示す図である。It is a figure which shows the example of calculation of the relative position in a curve. オブジェクト同定部の処理フローを示す図である。It is a figure which shows the processing flow of an object identification part. 同定スコアの算出例を示す図である。It is a figure which shows the calculation example of an identification score. 動的重み算出に基づく同定スコアの算出例を示す図である。It is a figure which shows the example of calculation of the identification score based on dynamic weight calculation. 結果表示の例を示す図である。It is a figure which shows the example of a result display.

以後は、動いている対象物を競馬の馬に具体化して、本発明のオブジェクト同定装置の一実施形態について説明する。   In the following, an embodiment of the object identification device of the present invention will be described by embodying a moving object as a horse of horse racing.

「対象オブジェクト」とは、これから同定しようとする対象物のことである。
「候補オブジェクト」とは、対象オブジェクトを同定する際の候補となるオブジェクトのことである。一般に、対象オブジェクトの同定を行う際には、候補オブジェクトは複数である。
「同定要素」とは、馬体の色、騎手の帽子の色、ゼッケンの番号、及びゼッケンに記載された馬の名前など、オブジェクトの特徴的な部分であり、オブジェクトを特定するために有効な材料となり得る部分である。対象オブジェクトの同定要素とよく似た同定要素を有する候補オブジェクトには、同定要素ごとに高いスコアが付与される。
The “target object” is a target object to be identified.
A “candidate object” is an object that is a candidate for identifying a target object. Generally, when a target object is identified, there are a plurality of candidate objects.
An “identification element” is a characteristic part of an object, such as the color of a horse, the color of a jockey's hat, the number of a bib, and the name of a horse described in the bib, and is effective for identifying the object. It can be a material. A candidate object having an identification element very similar to the identification element of the target object is given a high score for each identification element.

競走中の対象オブジェクトの同定を行うに際し、特許文献1の方法では対象オブジェクト同士に重なりが生じた場合や、似たような色情報を持つ対象オブジェクトが存在している場合に同定精度が低下すると述べた。この課題に対し、本発明では対象オブジェクトの候補を選定し、複数の候補オブジェクトごとに同定に用いる同定要素から算出される同定スコアの重み付けを動的に変更することで、高精度な対象同定を実現する。   When identifying a target object during a race, if the method of Patent Document 1 causes an overlap between target objects or if there is a target object having similar color information, the identification accuracy decreases. Stated. In response to this problem, the present invention selects a target object candidate, and dynamically changes the weighting of the identification score calculated from the identification element used for identification for each of the plurality of candidate objects, thereby achieving highly accurate target identification. Realize.

本手法ではレース中のある特定のフレームにおいて、画像中の対象オブジェクトの部位を抽出する。ここで示す部位とは、例えば競走馬であれば騎手の帽子や騎手の服、競走馬のゼッケンなどのオブジェクトの同定を行うに際し、利用しやすい部位を示している。どの部位を抽出対象とするかについては、競馬や競艇、競輪、カーレースなどのように競技ごとに事前に決定しておくものとする。   In this method, the part of the target object in the image is extracted at a specific frame in the race. For example, in the case of a racehorse, the part shown here indicates a part that is easy to use when identifying objects such as a jockey's hat, a jockey's clothes, and a racehorse number. Which part is to be extracted is determined in advance for each competition, such as horse racing, boat racing, bicycle racing, car racing, and the like.

こうして抽出された部位の位置を基に、オブジェクトの位置の推定を行う。その後、位置推定が成された各対象オブジェクトに対し、各対象オブジェクトの部位や、そのときの走行位置に基づいて同定結果をスコア付けし、統合することで最終的な同定スコアを算出する。通常、レース競技は会場の観客が遠くから対象を同定できるように、番号や色に代表される同定可能な情報を複数持つ場合が多く、その特性を利用している。この際に、本発明では、特許文献1と違って、色情報だけでなく、ゼッケンに代表される番号認識や文字認識の結果も組み合わせることで同定精度を高める。   Based on the position of the extracted part, the position of the object is estimated. After that, for each target object for which position estimation has been performed, the identification result is scored based on the part of each target object and the travel position at that time, and integrated to calculate a final identification score. In general, a race competition often has a plurality of pieces of identifiable information represented by numbers and colors so that the audience at the venue can identify the object from a distance, and uses the characteristics. In this case, in the present invention, unlike Patent Document 1, the identification accuracy is improved by combining not only color information but also the results of number recognition and character recognition represented by bib numbers.

このときに、似たような色情報を持つ対象オブジェクトが存在している場合に同定精度が下がるという特許文献1の課題を解決するために、どの同定要素から得られる同定スコアに重きを置くかという重み付けを、事前に入手可能な出場する対象オブジェクトに関する特徴に基づいて、その時の複数の候補オブジェクトごとに動的に変更することにより精度の高い対象同定を実現する。   At this time, in order to solve the problem of Patent Document 1 in which the identification accuracy is lowered when there is a target object having similar color information, which identification element is to be emphasized Based on the characteristics relating to the target object that can be obtained in advance, the weighting is dynamically changed for each of the plurality of candidate objects at that time, thereby realizing highly accurate target identification.

また、ここで挙げる「事前情報」とは、事前に判明している「帽子の色は赤、馬体は栗毛」のような文字情報に留まらず、競走馬であればパドックの映像や、レース直前にスタート地点まで走っていく際の競走馬の映像、ゲートに収まっている際の馬の映像などを分析することで得られる情報も「事前情報」に含むこととする。また、色情報に基づく分析は当日の天候の違いなどによる色の見え具合の違いなどの環境の違いにも影響されがちであるという課題についても述べたが、本課題を解決するために、前述の映像により得られる事前情報を基に、特定部位の抽出を行う際の抽出色の範囲を動的に変更し、抽出を行いやすくする機構を備えてもよい。   In addition, the “advance information” mentioned here is not limited to text information such as “the hat color is red and the horse body is chestnut hair”, which is known in advance. “Preliminary information” also includes information obtained by analyzing the image of a racehorse when running to the start point immediately before, the image of a horse when it is in the gate, etc. In addition, although the problem that analysis based on color information tends to be influenced by environmental differences such as the difference in color appearance due to the difference in weather on the day, the above-mentioned problem was solved. A mechanism may be provided that makes it easy to perform extraction by dynamically changing the extraction color range when extracting a specific part based on prior information obtained from the video.

本発明は、例えば競馬場やサーキットに代表される会場に設置された、動画又は静止画を撮影するカメラから撮影した画像に基づいて対象の同定を行い、表示することを可能とするオブジェクト同定装置である。静止画を撮影するカメラの場合、複数の静止画を連写するカメラであってもよい。カメラの設置場所としては、コースから少し離れた競馬場のスタンドやパトロールタワーなどに設置することを想定している。1台のカメラが映し出す領域は広くないので、コースの全域にて対象の同定を実現するという用途を考えるならば、数百メートルおきにカメラを配置するなど、複数台のカメラを利用する必要がある。しかし、複数台のカメラにより撮影した結果を繋ぎ合わせることは技術的に難しくないことと、各カメラから得られる映像に対して行う処理は独立していることから、ここではカメラ1台に限定して説明を行うものとする。以下では、本装置の機能構成について説明した後に、実際に競馬場に設置されたカメラから対象オブジェクト(競走馬)の同定を行う実施例の中で、各部の機能の詳細について説明を行うものとする。   The present invention is an object identification device that can identify and display a target based on an image taken from a camera that takes a moving image or a still image, for example, installed in a venue represented by a racetrack or a circuit. It is. In the case of a camera that shoots still images, a camera that continuously shoots a plurality of still images may be used. It is assumed that the camera will be installed on a racetrack stand or patrol tower a little away from the course. Since the area projected by one camera is not large, if you consider the use of identifying objects throughout the course, you need to use multiple cameras, such as placing cameras every few hundred meters. is there. However, since it is not technically difficult to connect the results obtained by a plurality of cameras, and the processing performed on the video obtained from each camera is independent, it is limited to one camera here. Will be described. In the following, after describing the functional configuration of the present apparatus, the details of the function of each part will be described in the embodiment in which the target object (racing horse) is identified from the camera actually installed on the racetrack. To do.

以下、本発明の実施形態の一例について説明する。
図1は、本実施形態のオブジェクト同定装置1の機能構成を示す図である。
本実施形態は、動画又は静止画を撮影する設置されたカメラの情報のみから対象の位置を推定し、対象の同定を行う装置である。動画の場合に、所定の単位時間(例えば、1秒間、1分間等)に何枚の画像を撮影するか(フレームレート)は、どのような速度で動く対象物を撮影するかに応じて決定すればよい。まず、カメラから得られた映像20について、オブジェクト部位抽出部120にて対象部位を抽出する。この際に特定の特徴を参照することで部位の抽出を行う場合があるが、この抽出に用いる特徴については、レース前の映像情報10等を基にオブジェクト特徴学習部110にて決定され、事前情報データベース50に格納される。この事前情報データベース50には、レース前の映像情報10等から解析されるリアルタイムな特徴だけではなく、事前に登録されている情報や、ネットワークを介して入手可能な部位の色などに代表される特徴も登録されているものとする。
Hereinafter, an example of an embodiment of the present invention will be described.
FIG. 1 is a diagram illustrating a functional configuration of an object identification device 1 according to the present embodiment.
The present embodiment is an apparatus that estimates the position of a target only from information of a camera installed to shoot a moving image or a still image, and identifies the target. In the case of a moving image, the number of images (frame rate) to be captured in a predetermined unit time (for example, 1 second, 1 minute, etc.) is determined depending on the speed at which the moving object is captured. do it. First, for the video 20 obtained from the camera, the object part extraction unit 120 extracts a target part. At this time, there is a case where a part is extracted by referring to a specific feature. The feature used for this extraction is determined by the object feature learning unit 110 based on the video information 10 before the race, and the like. It is stored in the information database 50. This pre-information database 50 is represented not only by the real-time features analyzed from the pre-race video information 10 and the like, but also by information registered in advance and the colors of the parts available via the network. It is assumed that features are also registered.

次に、抽出した部位の情報を基にオブジェクト位置推定部130にて、抽出した対象部位を基に、対象オブジェクトの重なりを考慮したオブジェクト位置を確定させる。こうして位置推定がされたオブジェクトに対し、オブジェクト同定部140にて、番号認識や色、馬の相対位置の分析に基づく各オブジェクトの同定を行う。このオブジェクト同定に際し、事前情報データベース50に記された情報を基に、複数の候補オブジェクトごとに重視する要素を動的に変更、決定するのが同定パラメータ決定部150である。また、オブジェクト同定部140は、オブジェクト同定した結果と、その同定対象の位置を分析結果データベース60へと保存する。そして、最後に同定された結果を表示するのが結果表示部160である。   Next, based on the extracted part information, the object position estimation unit 130 determines the object position considering the overlap of the target objects based on the extracted target part. For each object whose position has been estimated in this manner, the object identification unit 140 identifies each object based on number recognition, color, and analysis of the relative position of the horse. At the time of object identification, the identification parameter determination unit 150 dynamically changes and determines elements to be emphasized for each of a plurality of candidate objects based on information recorded in the prior information database 50. Further, the object identification unit 140 stores the result of object identification and the position of the identification target in the analysis result database 60. The result display unit 160 displays the last identified result.

ここまでの処理を各フレームに対して毎回実行してもよいが、毎回オブジェクトの重複分析や同定を行うことは計算コストの面で無駄が大きいことから、オブジェクトの追跡を行うことが望ましい。オブジェクト追跡部170を含む場合の機能構成を図2に示す。追跡を行うための過去の馬位置や同定結果、追跡に必要となる画像中の矩形領域などの情報は分析結果データベース60に格納されるものとする。追跡が成功している場合には、追跡成功位置に過去の同定結果を引き継ぐ処理を行う。
以下では、競馬場にて競走馬の位置推定と同定を行う場合を例に、実施例の中で各部の詳細について説明を行う。
Although the processing up to this point may be executed for each frame each time, it is desirable to perform object tracking because it is wasteful in terms of calculation cost to perform duplicate analysis and identification of objects each time. A functional configuration when the object tracking unit 170 is included is shown in FIG. Information such as past horse positions and identification results for tracking and rectangular areas in images necessary for tracking are stored in the analysis result database 60. If the tracking is successful, a process of taking over the past identification result at the tracking success position is performed.
Below, the case where the position estimation and identification of a racehorse are performed in a racetrack is made into an example, and the detail of each part is demonstrated in an Example.

[オブジェクト部位抽出部]
オブジェクト部位抽出部120では、カメラで撮影された画像から対象オブジェクト(競走馬)の部位を抽出する。本実施形態で対象とする部位としては「<1>競走馬のゼッケン <2>騎手の服 <3>騎手の帽子 <4>馬の顔(馬が被るメンコやブリンカー、シャドーロールを含む) <5>脚に巻くバンデージ <6>馬体の色」の計6項目を抽出対象とした。一般にレース競技では、遠くから観戦する観客が対象を同定できるように、複数の同定に役立つ部位が存在していることが多い。抽出部位がどこであるかは計算時間と精度を鑑み、事前に手動で設定されているものとする。
[Object part extraction part]
The object part extraction unit 120 extracts the part of the target object (race horse) from the image taken by the camera. As a target part in this embodiment, “<1> racehorse race bib <2> jockey clothes <3> jockey hat <4> horse face (including mencos, blinkers, and shadow rolls worn by horses) < A total of six items, “5> Bandage wound around leg <6> Horse body color”, were extracted. In general, in racing competitions, there are often a plurality of parts useful for identification so that a spectator watching from a distance can identify the target. It is assumed that the extraction site is manually set in advance in consideration of calculation time and accuracy.

本実施形態では、部位を抽出するにあたり、誤抽出を避けることと計算領域を制限することを目的として、図3のように背景領域と競走馬が存在する前景領域を事前に分割し、背景領域については計算を行わないこととした。背景の分離手法としては背景差分法に代表される既存の背景分離手法を用いることができる。このとき、カメラから得られる背景の色は刻一刻と変化することから、極力、レース直前に競走馬が走っていない場面で背景の特徴を学習しておくことが望ましい。   In the present embodiment, when extracting a part, for the purpose of avoiding erroneous extraction and limiting the calculation area, the background area and the foreground area where the racehorse is present are divided in advance as shown in FIG. No calculation was made for. As the background separation method, an existing background separation method represented by the background difference method can be used. At this time, since the background color obtained from the camera changes every moment, it is desirable to learn the background characteristics in a scene where the racehorse is not running immediately before the race.

これは事前に分かる出走時間に基づき直前に学習を行ってもよいし、その際に馬が走っていないことを確認して、再度背景を学習し直すような機構を備えてもよい。また、実際にはカメラから撮影される画像にはノイズが生じることや、風によるコース上の芝の揺らぎ、雨天時の雨粒の影響などから、完璧な背景領域の分離を行うことは難しい。よって、背景分離後の画像に対し、小さな塊などのノイズの除去をする機能を備えてもよい。細かなノイズの除去を行う処理としては、背景差分法で得られた領域に対して、モルフォロジ処理を行うことで、輪郭を削る方法などがある。   This may be performed immediately before based on the starting time that can be known in advance, or may be provided with a mechanism that confirms that the horse is not running and learns the background again. Actually, it is difficult to perform perfect background region separation due to noise generated in the image taken from the camera, fluctuation of the grass on the course due to the wind, and the influence of raindrops in the rain. Therefore, the image after background separation may be provided with a function of removing noise such as small chunks. As a process for performing fine noise removal, there is a method of cutting an outline by performing a morphological process on an area obtained by the background difference method.

また、背景領域の分離に際しては、対象オブジェクトが通過する際に生じる影の影響は無視できず、影も前景領域として判定されてしまうという課題が存在している。よって、インターネット等から得られるレース直前の気象条件に基づき、対象物体のどちら側に影が生じるかを推定することに加え、前レースやレース直前に対象オブジェクトがカメラの前を通過したときに予め影の色を学習しておき、影の色情報と生じる位置を基に影領域を分離することにしてもよい。   Further, when the background area is separated, there is a problem that the influence of the shadow generated when the target object passes cannot be ignored, and the shadow is also determined as the foreground area. Therefore, based on the weather conditions immediately before the race obtained from the Internet, etc., in addition to estimating which side of the target object the shadow will occur, in advance when the target object passes in front of the camera immediately before the previous race or race The shadow color may be learned, and the shadow area may be separated based on the shadow color information and the position where it occurs.

この背景領域を分離した画像に対し、前景部分のみを対象に部位抽出を行う。部位抽出を行う方法として最もシンプルなものは、前景領域として切り離された部分の相対位置関係から、対象部位を抽出する方法である。本実施形態では、競走馬の各部が対象オブジェクトの全体形状のどのあたりに現れるかということは既知である。例えばコースに対して真横にカメラが設置されているとすれば、図4のように、騎手の帽子や服は対象オブジェクトの上方に、ゼッケンは中央付近に、足に付けるバンデージは下部に現れる。   Part extraction is performed on only the foreground portion of the image from which the background region is separated. The simplest method for extracting a part is a method for extracting a target part from the relative positional relationship between parts separated as a foreground region. In this embodiment, it is known where each part of the racehorse appears in the overall shape of the target object. For example, if the camera is installed directly beside the course, as shown in FIG. 4, the jockey's hat and clothes appear above the target object, the bib appears near the center, and the bandage attached to the foot appears below.

しかし、対象オブジェクト同士に重なりなどが生じているケースでは、画像中の位置だけで上手く部分抽出ができないことも多い。そういった状況を補う方法としては、事前に各部位の画像を基に学習を行い、深層学習を用いた物体抽出アルゴリズムなどを適用して部位抽出を行うことなどが考えられる。しかし、深層学習を用いる場合、計算時間が大きくなりがちであることから、本実施形態では重なりが生じていそうなサイズの大きい前景領域に対しては、色情報を主体に部位抽出を行うこととした。   However, in the case where the target objects are overlapped with each other, there are many cases where the partial extraction cannot be successfully performed only at the position in the image. As a method for supplementing such a situation, it is conceivable that learning is performed based on images of respective parts in advance, and part extraction is performed by applying an object extraction algorithm or the like using deep learning. However, when deep learning is used, the calculation time tends to be long, so in the present embodiment, for the large foreground area where overlap is likely to occur, the part extraction is mainly performed with color information. did.

例えば競走馬のゼッケンの抽出においては、ゼッケンの色はレースの等級によって決まり、事前に既知のものである。よってRGBやHSVなどの色空間にて事前にゼッケンの色を示す色の範囲を与えておき、前景領域に対して色の範囲を抜き出し、抜き出した領域に対して外接矩形を計算した際に、ゼッケンのサイズに近いものを抽出することで、図5のようにゼッケンの抽出を行うことが可能である。   For example, in the extraction of a racehorse race bib, the color of the race bib is determined by the race grade and is known in advance. Therefore, when a color range indicating the color of the bib is given in advance in a color space such as RGB or HSV, the color range is extracted from the foreground area, and the circumscribed rectangle is calculated for the extracted area. By extracting the number close to the size of the bib, it is possible to extract the bib as shown in FIG.

このときに、コーナー抽出などを行うことでゼッケン領域の推定精度を高めてもよい。また、その他の抽出法としては、事前に各形状のテンプレートを用意しておき、テンプレートマッチングにて対象領域を抽出するという手段が考えられる。テンプレートマッチングは比較的計算量が増大しやすい手法であるため、前述の色情報で求められたゼッケン領域からの画像上の位置の相対関係を基に、部位が存在する可能性の高い領域を絞り、その領域に対しテンプレートマッチングを用いてもよい。   At this time, the estimation accuracy of the race bib area may be increased by performing corner extraction or the like. As another extraction method, a method of preparing a template of each shape in advance and extracting a target region by template matching is conceivable. Since template matching is a technique that is relatively easy to increase the amount of calculation, narrow down the area where there is a high possibility that the part exists based on the relative position of the image number from the bib area obtained from the color information described above. Template matching may be used for the area.

また、騎手の部分を抽出する手段としては、人物抽出に有効とされるHOG特徴量などの代表的な特徴量に基づいて騎手部分を抽出してもよい。また、オブジェクト部位抽出部120では必ずしも全ての指定された部位を抽出する必要はなく、例えば前述の色情報で抽出した外接矩形の大きさや、テンプレートマッチングのマッチング率、あるいは深層学習で導き出される尤度が目標とする値の範囲外の場合には、結果を部位抽出失敗としてもよい。   As a means for extracting a jockey part, a jockey part may be extracted based on a representative feature amount such as a HOG feature amount effective for person extraction. The object part extraction unit 120 does not necessarily need to extract all the specified parts. For example, the size of the circumscribed rectangle extracted by the color information described above, the matching rate of template matching, or the likelihood derived by deep learning Is outside the target value range, the result may be a part extraction failure.

また、本実施形態では、競馬場に設置されたカメラから得られる映像を対象とすることを想定している。通常、カメラを用いて撮影された画像はカメラのレンズにより歪みが生じるなど、現実空間の位置を正確に映し出しているとは限らないため、キャリブレーションを行うことが望ましい。よって、事前に既知のカメラキャリブレーション技術や、使用するカメラの情報に基づいてキャリブレーションパラメータを測定しておき、オブジェクト部位抽出処理を行う前にキャリブレーションを行ってもよい。このカメラキャリブレーションに関しては、歪みの影響が少なければ必ずしも実施する必要はないが、実施することによって歪みが少なくなるため、位置推定の精度が高まることが考えられる。   In the present embodiment, it is assumed that an image obtained from a camera installed on a racetrack is targeted. Usually, an image taken with a camera does not always accurately reflect the position in the real space, such as distortion caused by the camera lens, so it is desirable to perform calibration. Therefore, calibration parameters may be measured in advance based on a known camera calibration technique or information on the camera to be used, and the calibration may be performed before performing the object part extraction process. This camera calibration does not necessarily have to be performed if the influence of distortion is small, but it is conceivable that the accuracy of position estimation is improved because the distortion is reduced by performing the camera calibration.

[オブジェクト特徴学習部]
オブジェクト部位抽出部120において、色を用いて部位を抽出するのは有効な手段であると述べた。このような競走馬のゼッケンや騎手の帽子の色については、事前に「白地に黒の文字」「黄色の帽子」などのように、静的な情報としての色は想定できるものの、実際のレースにおいてはその日の天候や、時間帯によって移り変わる太陽の傾きなどに代表される環境の変化により、抽出すべき色の輝度値にも変化が及んでしまう。よって、事前に抽出する色の範囲は、そのレースの条件に合わせて微調整が行われる方が望ましい。部位を抽出する(あるいは後述するオブジェクト同定に用いる)ための色情報等に代表されるオブジェクトの特徴を、レース直前の対象オブジェクトの映像から学習するのが、オブジェクト特徴学習部110である。
[Object feature learning unit]
It has been described that it is an effective means to extract a part using a color in the object part extraction unit 120. Regarding the colors of racehorse race bibs and jockey hats, although it is possible to assume the color as static information in advance, such as “black letters on a white background” and “yellow hat”, the actual race In this case, the luminance value of the color to be extracted also changes due to environmental changes represented by the weather of the day and the inclination of the sun that changes depending on the time of day. Therefore, it is desirable that the color range to be extracted in advance is finely adjusted according to the race conditions. The object feature learning unit 110 learns the characteristics of an object represented by color information or the like for extracting a part (or used for object identification described later) from the video of the target object immediately before the race.

具体的な手段としては、レース直前の対象オブジェクトの映像を利用する。競馬の場合、レースの前にはパドックが行われ、スタート直前にはスタート地点まで走っていく馬の映像や、あるいはスタート直前のゲートに収まっている馬の映像を得ることが可能である。これは、例えばパドックなどであれば別のカメラが必要となるが、スタート直前にスタート地点まで走っていく馬の映像であれば、同じカメラで実現することが可能である。   As a specific means, the video of the target object immediately before the race is used. In the case of horse racing, a paddock is performed before the race, and it is possible to obtain an image of a horse that runs to the start point immediately before the start, or an image of a horse that is in the gate just before the start. For example, if a paddock or the like is used, another camera is required, but if it is a horse image that runs to the start point immediately before the start, it can be realized with the same camera.

このときに、オブジェクト部位抽出部120で述べたような部位抽出手法を用いて部位の抽出を実施する。ただしオブジェクト特徴学習部110では、レース中と異なりリアルタイムで処理の実行を目指す必要はないことから、対象オブジェクトが映った1フレームに対して、深層学習に代表されるような、精度は高いが計算コストの大きい抽出アルゴリズムを用いて部位抽出を行うことを特徴としてもよい。こうして抽出された部位から、オブジェクト同定を行う際の比較対象として用いる特徴を事前に計算し、事前情報データベース50に登録しておく。   At this time, the part extraction is performed using the part extraction method described in the object part extraction unit 120. However, since the object feature learning unit 110 does not need to aim at execution of processing in real time unlike during a race, calculation is performed with high accuracy as represented by deep learning for one frame in which the target object is reflected. It is good also as performing the part extraction using the extraction algorithm with large cost. A feature used as a comparison target when performing object identification is calculated in advance from the extracted part and registered in the prior information database 50.

例えば、オブジェクト部位抽出部120やオブジェクト同定部140でヒストグラムの類似度を用いて解析を行う場合には、オブジェクト特徴学習部110にてレース直前の映像から対象部位を抽出し、その部位のヒストグラムを用意しておく。そして、実際にレースが始まった際には、この用意したヒストグラムを、オブジェクト部位抽出部120で作成した対象オブジェクトのヒストグラムと比較することで、オブジェクトの同定を行う。   For example, when the object part extraction unit 120 or the object identification unit 140 performs analysis using the similarity of the histogram, the object feature learning unit 110 extracts the target part from the video immediately before the race, and the histogram of the part is obtained. Have it ready. When the race actually starts, the prepared histogram is compared with the histogram of the target object created by the object part extraction unit 120 to identify the object.

また、色の範囲を用いて対象部位を切り取る場合には、図6のようにゼッケンを抽出できたときに、領域に対し、抽出色範囲を動的に変化させ、抽出できる領域のサイズを確認する。その際に、外接矩形サイズが想定されるゼッケンサイズに最も近づくときの色の範囲を、抽出に用いる色範囲として決定することで、そのレースの環境に応じた抽出に用いる色範囲を動的に決定することが可能となる。   In addition, when the target part is cut out using the color range, when the bib can be extracted as shown in FIG. 6, the extracted color range is dynamically changed with respect to the area, and the size of the area that can be extracted is confirmed. To do. At that time, by determining the color range when the circumscribed rectangle size is closest to the assumed bib size as the color range used for the extraction, the color range used for the extraction according to the environment of the race is dynamically changed. It becomes possible to decide.

同様に、オブジェクト同定部140で騎手の服の模様等の類似度を測るために形状に基づく特徴量を用いることが想定されているのであれば、オブジェクト特徴学習部110にて対象オブジェクトの騎手の服部分の特徴量を事前に取得しておき、同定の際の比較に用いることとする。
なお、色範囲を規定する際の色の境界の値を、「色閾値」という。
Similarly, if the object identification unit 140 is assumed to use a feature quantity based on the shape to measure the similarity of the jockey's clothes and the like, the object feature learning unit 110 may use the jockey of the target object. The feature amount of the clothing part is acquired in advance and used for comparison at the time of identification.
The value of the color boundary when defining the color range is referred to as “color threshold value”.

[オブジェクト位置推定部]
オブジェクト部位抽出部120で得た前景領域と、抽出された部位情報を基に各対象オブジェクトの位置を推定する。
まず、図7のように切り離された前景領域(太い点線の範囲)ごとに頭数を判断する。このときに、前景領域の大きさと、特定の抽出部位の数を基に重なりを抽出する。例えば、図8のように馬同士が重なっている場面においても、特定の部位(例えば、騎手の帽子)に関しては見えていることが多い。よって、特定の部位が複数あることを理由に、競走馬が2頭いるということを検出する。この際に、抽出された部位の位置情報を基にオブジェクトの位置を確定させる。この際に確定させる位置として、例えば競走馬の鼻先などの代表点を事前に決定しておき、その位置を競走馬位置とする。オブジェクト位置推定部130では、オブジェクトの位置と共に、その位置のオブジェクトに抽出部位が紐づく形で登録され、後段のオブジェクト同定部140へと渡される。
[Object position estimation unit]
The position of each target object is estimated based on the foreground region obtained by the object part extraction unit 120 and the extracted part information.
First, the number of heads is determined for each foreground region (the range of the thick dotted line) separated as shown in FIG. At this time, the overlap is extracted based on the size of the foreground area and the number of specific extraction parts. For example, even in a scene where horses overlap each other as shown in FIG. 8, a specific part (for example, a jockey's hat) is often visible. Therefore, it detects that there are two racehorses because there are a plurality of specific parts. At this time, the position of the object is determined based on the extracted position information of the part. As a position to be determined at this time, for example, a representative point such as a nose of a racehorse is determined in advance, and the position is set as a racehorse position. In the object position estimation unit 130, the position of the object is registered in a form in which the extracted part is linked to the object at that position, and is passed to the object identification unit 140 in the subsequent stage.

また、オブジェクト部位抽出部120の背景の分離にて、影領域を分離することに関して述べたが、逆に競走馬が作る影を基に馬の重なりの判定精度を高めてもよい。ただし、この手法は天候が晴れの場合かつ、影を見た方が分離しやすいという条件下においてのみ精度向上に寄与する。また、その他の情報を使う例としては、ダートコースでの馬の足跡を基に位置推定を行うことが考えられる。この考え方は、例えば競艇において、船の作り出す波の形状を参考に位置を特定するなどの他競技への応用も考えられる。   In addition, the shadow region is separated by the background separation of the object part extraction unit 120, but conversely, the determination accuracy of the horse overlap may be improved based on the shadow created by the racehorse. However, this method contributes to improving accuracy only when the weather is fine and the shadow is more easily separated. As another example of using other information, it is conceivable to perform position estimation based on a horse footprint on a dirt course. This concept can be applied to other competitions, for example, in a boat race, in which the position is specified with reference to the shape of the waves generated by the ship.

[オブジェクト同定部]
オブジェクト同定部140は、部位抽出を完了した対象のオブジェクトの同定を行う部分である。同定とは、各対象オブジェクトに対して、競馬で1番〜18番までの馬番号の馬が出走しているレースであれば、その対象オブジェクトが1〜18番の中の何番に該当するのかを明らかにすることを示す。そのために、複数の同定要素に対して、要素同定スコアの算出を行い、この要素同定スコアそれぞれに重み付けをした値を加算することで、最終同定スコアの算出を行う。
[Object identification part]
The object identification unit 140 is a part that identifies a target object whose part extraction has been completed. Identification is a race in which horses with horse numbers 1 to 18 are running for each target object, and the target object corresponds to what number among 1 to 18 It is shown to clarify. Therefore, the element identification score is calculated for a plurality of identification elements, and the final identification score is calculated by adding a weighted value to each element identification score.

この要素同定スコアを算出する要素としては、[1]競走馬のゼッケンに記載される番号 [2]馬名を示す文字 [3]騎手の帽子の色 [4]騎手の服の色 [5]馬体の色 [6]競走馬の被るメンコやブリンカーの色 [7]競走馬が足に巻くバンデージの色 [8]過去の相対位置情報、を対象とした。その際に[1]であれば番号認識、[2]であれば文字認識、[3]〜[7]であれば色の分析、[8]であれば距離に基づく分析を行うなど、分析方法は部位ごとに事前に決定されているものとする。なお、競走馬の同定の場合にはゼッケンがあるので番号認識や文字認識を行うが、例えば表面に番号や文字がないような対象オブジェクトを同定する際には、必ずしも番号認識や文字認識を組み入れる必要はない。   The elements for calculating this element identification score are: [1] Number written on the racehorse number [2] Letter indicating the horse name [3] Color of the jockey hat [4] Color of the jockey clothes [5] Horse color [6] Menco and blinker colors worn by racehorses [7] Colors of bandages around racehorses [8] Past relative position information. At that time, if [1], number recognition, [2] character recognition, [3]-[7] color analysis, [8] distance based analysis, etc. The method shall be determined in advance for each part. In the case of identification of racehorses, number recognition and character recognition are performed because there is a race bib. However, for example, when identifying a target object having no numbers or characters on the surface, number recognition or character recognition is necessarily incorporated. There is no need.

また、オブジェクト部位抽出部120において、部位抽出が不可能だった部分について同定スコアを算出する必要はなく、分析を行うことが可能だった部分に関してのみ、同定スコアの算出を行う。また後述するオブジェクト追跡部170でオブジェクトの追跡が成功しており、その追跡オブジェクトが既に過去に同定された結果を保持している場合には、再度同定を行う必要はない。あるいは追跡結果と、新たにオブジェクト同定部140で得た結果の同定スコアを比較し、優先する同定結果を決める機構を持ち合わせてもよい。   Further, the object part extraction unit 120 does not need to calculate an identification score for a part where the part cannot be extracted, and calculates an identification score only for a part that can be analyzed. If the object tracking unit 170 described later has successfully tracked the object and the tracked object already holds the result of identification in the past, it is not necessary to perform identification again. Alternatively, a mechanism for determining a priority identification result by comparing the tracking result with the identification score of the result newly obtained by the object identification unit 140 may be provided.

オブジェクト位置推定部130でオブジェクトの位置を推定すると、一般に複数の対象オブジェクトの位置が推定できる。これら複数の対象オブジェクトについては、部位抽出が可能だった部分の数に差があるのが一般的である。部位抽出が可能だった部分の数が多い対象オブジェクトの方が、部位抽出が可能だった部分の数が少ない対象オブジェクトよりもより正確に同定できると考えられる。例えば、図8では、手前の対象オブジェクトの方が、奥の対象オブジェクトよりもより正確に同定できると考えられる。したがって、オブジェクト同定部140では、部位抽出が可能だった部分の数が多い対象オブジェクトの順に同定することが好ましい。一つの対象オブジェクトの同定が完了すれば、候補オブジェクトの数が一つ減ることは明らかである。   When the position of the object is estimated by the object position estimation unit 130, generally the positions of a plurality of target objects can be estimated. In general, there is a difference in the number of parts that can be extracted for the plurality of target objects. It can be considered that a target object having a large number of parts that can be extracted can be identified more accurately than a target object having a small number of parts that can be extracted. For example, in FIG. 8, it is considered that the front target object can be identified more accurately than the back target object. Therefore, it is preferable that the object identification unit 140 identify the target objects in order of the number of parts that can be extracted. It is clear that the number of candidate objects decreases by one when the identification of one target object is completed.

ここでは、初めに各要素同定スコアの算出方法について説明する。その後に、各要素同定スコアから最終同定スコアを計算し、結果を一つに確定させるまでの手順を示すこととする。   Here, first, a method of calculating each element identification score will be described. After that, the final identification score is calculated from each element identification score, and the procedure until the result is fixed to one is shown.

(1) 各要素同定スコアの算出方法
(A) 番号認識に基づく同定
オブジェクト部位抽出部120で得られた番号の記載された部位に対して番号認識を行う。本実施形態では畳み込みニューラルネットワークに代表される深層学習手法をベースとして、事前に番号の振られた画像を基に、番号の分類が可能なモデルを事前に作成し、そのモデルに対してゼッケン部分の画像を認識させることで番号認識を行う。競走馬の出走頭数は中央競馬では最大18頭のため、1〜18の数字の分類が可能なモデルを作成し、そのレースの出走頭数以上の数字が認識された場合には認識失敗とすることにした。実際には頭数ごとにモデルを作成し、レースの出走頭数を基に使用するモデルを変更してもよい。
(1) Calculation method of each element identification score (A) Identification based on number recognition Number recognition is performed on the part where the number obtained by the object part extraction unit 120 is described. In this embodiment, based on a deep learning method represented by a convolutional neural network, a model that can be classified in number is created in advance based on a numbered image in advance, and a bib portion is added to the model. The number is recognized by recognizing the image. Since the maximum number of race horses is 18 in the central race, a model that can classify numbers from 1 to 18 is created, and if a number greater than the number of races in the race is recognized, the recognition failure shall be made. I made it. Actually, a model may be created for each head, and the model to be used may be changed based on the number of heads in the race.

番号認識の同定スコア付けの方法としては、自動化することを考えるのであれば、例えば出力される確率を用いる方法がある。畳み込みニューラルネットワークの出力関数にsoftmax関数等を用いた場合、そのゼッケンがどの番号らしいかという値を確率として算出することが可能である。このことから、例えばあるゼッケン画像を通した際に3が69%、13が31%と認識された場合に、3に69点、13に31点のように、自動で点数付けを行うことが可能である。   As an identification scoring method for number recognition, if automation is considered, for example, there is a method using an output probability. When the softmax function or the like is used as the output function of the convolutional neural network, it is possible to calculate the value of which number is the number as the probability. From this, for example, when 3 is recognized as 69% and 13 as 31% when passing through a certain bib image, scoring is automatically performed, such as 69 in 3 and 31 in 13. Is possible.

また、このスコア付けは、事前に判明している前提条件から手動で決定されていてもよい。例えば、出願前に実験を行ったところ、競走馬のゼッケンの番号認識においては、例えば「13」番の馬がいたときに、図9のように十の位の「1」が騎手の足によって見えづらくなるケースがあり「13」番を「3」番と誤認識してしまう、あるいは「3」番を「13」番と誤認識してしまうようなケースが多いことが判明した。この事実から、例えば「3」と認識された場合に「3」番と「13」番のどちらかである可能性が高いと判断し、「3」に100点、「13」に70点、他の数字は0点といったように、既に判明している誤認識の傾向に基づいて傾斜をつけて、下1桁の認識結果を重視してスコア付けをしてもよい。   Also, this scoring may be manually determined from pre-recognized preconditions. For example, when an experiment was conducted prior to filing, in the number recognition of the racehorse number, for example, when there was a “13” horse, “1” in the tens place was shown by the jockey's feet as shown in FIG. It has been found that there are many cases in which it is difficult to see and the number “13” is misrecognized as “3”, or the number “3” is misrecognized as “13”. From this fact, for example, when it is recognized as “3”, it is determined that there is a high possibility that it is either “3” or “13”, and “3” is 100 points, “13” is 70 points, Other numbers, such as 0, may be graded based on the already known misrecognition tendency and scored with emphasis on the recognition result of the last one digit.

また、番号認識の結果は、番号がより鮮明に映っている場合の方が、認識精度が高くなりやすい傾向にある。このことから、番号認識において抽出したゼッケン位置とカメラの間の距離を基に、距離が遠いものの同定スコアが低くなるように重み付けをするような機構を備えていてもよい。また、番号認識の手法としては、深層学習を用いずに、テンプレートマッチング等に代表されるマッチング手法を用いて番号を認識してもよい。   As a result of the number recognition, the recognition accuracy tends to be higher when the number is clearly displayed. Therefore, a mechanism may be provided that performs weighting so that the identification score of a long distance is low based on the distance between the camera number extracted in number recognition and the camera. Further, as a number recognition method, the number may be recognized using a matching method represented by template matching or the like without using deep learning.

(B) 文字認識に基づく同定
競馬のゼッケンには番号だけでなく馬名も記されることから、ゼッケンの文字認識に基づき、当該馬を判定することも可能である。文字認識の手法としては、番号認識と同様に、各文字に対して機械学習等に代表される分類手法で文字を判定することが可能である。ところが、前述した通り、本実施形態では離れた位置からカメラで撮影することを想定しているため、遠距離から撮影したカメラでは、その文字を正確に読み取ることは困難である。
(B) Identification Based on Character Recognition Since a horse race number has a horse name as well as a number, the horse can be determined based on the character recognition of the number. As a character recognition method, it is possible to determine a character by a classification method represented by machine learning or the like for each character, as in number recognition. However, as described above, in the present embodiment, it is assumed that the image is taken with a camera from a distant position, so it is difficult to accurately read the character with a camera taken from a long distance.

しかしながら、馬名が何文字であるのかについては図10のようにゼッケンの馬名部分の色情報などを基に大まかな文字数を測定することが可能であった。日本では競走馬の名前は2文字以上、9文字以内と定められているが、おおよその文字数を判定し、近い文字数の競走馬に一定の同定スコアを割り付けることで、同定の精度を高めるような機構を備えていてもよい。   However, as for the number of characters in the horse name, it was possible to roughly measure the number of characters based on the color information of the horse number portion of the bib number as shown in FIG. In Japan, the name of a racehorse is defined as two or more characters and no more than nine characters. However, by determining the approximate number of characters and assigning a certain identification score to the racehorses with a similar number of characters, the accuracy of identification is improved. A mechanism may be provided.

(C) 色情報に基づく同定
各部位の色情報を分析し何番の競走馬に近いのかを判定することも有益な手段である。例えば騎手の帽子であれば、18頭のレースでは1番と2番の馬が白の帽子を付けると決まっている。また、騎手の服の色に関しても馬主によって決定される既知の情報であり、馬体の色情報についても突然競走馬の馬体の色が大幅に変化することは考えづらく、事前に入手することが可能な既知の情報である。
(C) Identification Based on Color Information It is also a useful means to analyze the color information of each part and determine what number the racehorse is closest to. For example, in the case of a jockey's hat, the first and second horses are supposed to wear white hats in 18 races. Also, the color of the jockey's clothing is known information determined by the owner, and it is hard to imagine that the color of the racehorse's body will change suddenly. Is known information.

よって、例えば帽子部分が抽出できているのであれば、事前に用意しておいた各色の帽子画像(あるいは想定される帽子の色の輝度値)とのヒストグラム類似度を計算し、最も類似度が近いものを同定結果とすることで、色の判定が可能である。今回はRGBで得た画像をHSVに変換し、HSV色空間にてヒストグラムの類似度の計算を行った。類似度としては、相関係数を用いた手法を利用した。相関係数を求める式を以下に示す。

Figure 2019175063
Figure 2019175063
Therefore, for example, if the hat portion can be extracted, the histogram similarity with the hat image of each color prepared in advance (or the luminance value of the assumed hat color) is calculated, and the highest similarity is obtained. The color can be determined by using an identification result that is close. This time, an RGB image was converted to HSV, and histogram similarity was calculated in the HSV color space. As the similarity, a method using a correlation coefficient was used. The formula for obtaining the correlation coefficient is shown below.
Figure 2019175063
Figure 2019175063

上記のNはヒストグラムのビンの総数を表し、Hrは比較する参照画像のヒストグラムを、Hは対象画像のヒストグラムを表している。競走馬の同定では帽子の色は8種類であるためHrを8種類用意し、抽出部位の対象画像Hとの相関を求め、最も相関が大きいものを認識結果とした。また、この参照画像としては、オブジェクト特徴学習部110にて事前の映像を基に帽子の部位を抽出し、その抽出した画像を参照画像として用いることが望ましい。 The above N represents the total number of bins in the histogram, the histogram of the reference image H r is to be compared, H t denotes the histogram of the target image. The color of hat in identification of racehorses a H r for a eight by eight prepared, a correlation between the target image H t of the extraction region determined, and the recognition result most things correlation is large. In addition, as the reference image, it is desirable that the object feature learning unit 110 extracts the part of the hat based on the previous video and uses the extracted image as the reference image.

また、ヒストグラムの類似度以外にも色の分析をする方法としては、候補オブジェクトの各帽子の色を示す輝度値の範囲を登録しておき、その範囲内に含まれる画素の数を基に、最も近い帽子の色を判定する方法や、対象領域の画像の輝度値の平均などを基に同定をおこなってもよい。また、騎手の服の色の判定などの際に、服の模様などの考慮をするために、HOG(Histograms of Oriented Gradients)やEOH(Edge of Orientation Histograms)などに代表される形状特徴量の一致度などを基に分類を行ってもよい。   Further, as a method of analyzing colors other than the similarity of the histogram, a range of luminance values indicating the color of each hat of the candidate object is registered, and based on the number of pixels included in the range, Identification may be performed based on a method of determining the closest hat color, an average of luminance values of images in the target region, or the like. In addition, when judging the color of jockey's clothing, the shape feature values represented by HOG (Histograms of Oriented Gradients) and EOH (Edge of Orientation Histograms) are used to consider the clothing pattern. Classification may be performed based on the degree.

(D) 過去の相対位置情報に基づく同定
一般にレース競技が行われる場合、大幅な対象オブジェクトの競走位置の変動が、急に起こることは考えづらい。例えば、最後方を走っていた競走馬が、急に先頭に躍り出たり、外側を走っていた馬が、急にコースの内側を走り出したりすることは頻繁に発生することではない。競馬においては、形成された馬群を保ったまま、レースが進んでいくことが多い。よって、複数の対象オブジェクトが形成する集団の中で、当該対象オブジェクトが現在どの位置に存在しているかという情報は、過去の位置情報と照らし合わせて、同定の際の有益な情報になり得る。この観点から、レースにおける対象オブジェクトの相対位置を同定の際の要素の一つとした。
(D) Identification Based on Past Relative Position Information In general, when a race competition is performed, it is difficult to think of a sudden change in the race position of the target object. For example, it is not a frequent occurrence that a racehorse that ran to the end suddenly jumps to the beginning, or a horse that ran outside suddenly starts to run inside the course. In horse racing, races often proceed while keeping the formed horse group. Therefore, in the group formed by a plurality of target objects, information indicating where the target objects are currently located can be useful information for identification in comparison with past position information. From this point of view, the relative position of the target object in the race is one of the elements for identification.

相対位置の算出方法は図11のように、コース形状に対して水平、垂直な座標軸を定義することで実現する。このとき、前後を表す軸をp軸とし、先頭をp=0、最後方をp=1で正規化する。同様に内外を表す軸をv軸とし、内側をv=0、外側をv=1で正規化した。直線の場合は図11のようになるが、コース形状が曲線でも図12のように、コース形状に沿うように軸を配置し、相対位置を算出する。   The method for calculating the relative position is realized by defining horizontal and vertical coordinate axes with respect to the course shape as shown in FIG. At this time, the axis representing front and back is normalized as p-axis, the top is normalized by p = 0, and the last is normalized by p = 1. Similarly, the axis representing the inside and outside was designated as the v axis, the inside was normalized with v = 0, and the outside with v = 1. In the case of a straight line, as shown in FIG. 11, even if the course shape is a curve, the axes are arranged along the course shape as shown in FIG.

オブジェクト同定部140は、オブジェクトの同定が完了した際に、対象オブジェクトの位置と同定最終結果を基に、オブジェクトの相対位置を分析結果データベース60に記録する。この記録が過去のフレームにて行われているとすると、同定したい対象オブジェクトが現在p=0.5、v=0.5という位置にいる場合には、過去にp=0.5、v=0.5に近い位置にいた番号の同定スコアを高める形で同定スコアを算出する。式としては、同定したい対象オブジェクトの位置が(T,T)であり、スコアを算出したい候補オブジェクトの過去フレームでの相対位置が(C,C)で示されるとき、対象オブジェクトの位置(T,T)と、候補オブジェクトの過去フレームでの相対位置(C,C)との間の距離dは次のように計算される。

d=k|T−C|+k|T−C
When the object identification is completed, the object identification unit 140 records the relative position of the object in the analysis result database 60 based on the position of the target object and the final identification result. Assuming that this recording has been performed in the past frame, if the target object to be identified is currently located at p = 0.5 and v = 0.5, p = 0.5 and v = The identification score is calculated in a form that increases the identification score of the number located near 0.5. As a formula, when the position of the target object to be identified is (T p , T v ) and the relative position in the past frame of the candidate object whose score is to be calculated is indicated by (C p , C v ), The distance d between the position (T p , T v ) and the relative position (C p , C v ) of the candidate object in the past frame is calculated as follows.

d = k 1 | T p -C p | + k 2 | T v -C v |

ただし、kとkは前後と内外のどちらの結果を重視するかを決める係数であり、手動で定めてもよいが、p=0からp=1までの実距離と、v=0からv=1までの実距離に比例する形で定めてもよい(ただしk+k=1とする)。このとき距離dは、相対位置が近ければ近いほど0に近づき、相対位置が遠ければ遠いほど大きくなることから、全ての対象番号に関する距離dを計算し、距離dが最小となるもののスコアを100、距離dが最大となるもののスコアを0となるように、正規化してスコア付けすることとした。 However, k 1 and k 2 are coefficients that determine whether to place importance on the result of front and back or inside and outside, and may be determined manually, but the actual distance from p = 0 to p = 1, and v = 0 It may be determined in a form proportional to the actual distance up to v = 1 (provided that k 1 + k 2 = 1). At this time, the closer the relative position is, the closer the distance d is to 0, and the farther the relative position is, the larger the distance d is. Therefore, the distances d for all the object numbers are calculated, and the score of the one having the smallest distance d is 100. The score of the one with the maximum distance d is normalized and scored so that the score becomes zero.

(2) 同定結果の決定方法
ここでは、各要素同定スコアから最終的な同定結果を確定させる場合の処理を示す。本発明では、候補オブジェクトによって動的に重みを変更し、対象オブジェクトの同定を行うことを特徴としている。
本手法での最終同定スコアの算出方法は、ある要素同定スコア(要素番号j)のある番号iの候補オブジェクトに対する得点がpijで示されるとき、

Figure 2019175063
上記のように計算される。 (2) Determination method of identification result Here, the process in the case of finalizing a final identification result from each element identification score is shown. The present invention is characterized in that the target object is identified by dynamically changing the weight according to the candidate object.
The calculation method of the final identification score in this method is that when a score for a candidate object of a number i having a certain element identification score (element number j) is indicated by p ij ,
Figure 2019175063
Calculated as above.

ただしsは番号iの候補オブジェクトの最終同定スコアを示し、Jは要素同定スコアが算出できた要素数(部位抽出に失敗した部位などは含まれない)を、jは要素同定スコアの算出に成功した部位の番号を示しており、例えばゼッケン部分はj=0、騎手の帽子の色はj=1などの形で振られる番号である。また、wは部位ごとに決定される重みを示している。wの算出方法については、同定パラメータ決定部150で動的な重み決定を行うことから、ここでは説明を省略する。 Here, s i represents the final identification score of the candidate object of number i, J represents the number of elements for which the element identification score can be calculated (parts that failed to extract the part are not included), and j represents the calculation of the element identification score The number of the successful part is shown. For example, the number of the race bib is j = 0, the color of the jockey's hat is j = 1, and the like. W j represents a weight determined for each part. The calculation method of w j is not described here because the identification parameter determination unit 150 performs dynamic weight determination.

ここで示されたsの算出については、一度の実施で候補オブジェクトを一つに絞り込めなかった場合には、複数回実施して候補オブジェクトの数を少なくしていくことが望ましい。このときの処理フローを図13に示す。 The calculation of s i shown here is preferably performed a plurality of times to reduce the number of candidate objects when the candidate objects cannot be narrowed down to one by a single implementation. The processing flow at this time is shown in FIG.

複数回実施する上で、候補オブジェクトごとの最終同定スコアを算出した際に、全てのsの中の最大値をsmaxとする。このsmaxに対し、一定の割合以上のスコアを記録したものを新しい候補オブジェクトとして設定し、候補オブジェクトが最終的に一つになるか、候補オブジェクトの数が変化しなくなるまで繰り返す。この間、候補オブジェクトが絞られていくにつれて、その絞られた候補オブジェクト同士を同定するにあたり最適なパラメータが同定パラメータ決定部150より出力される。 When the final identification score is calculated for each candidate object when performing multiple times, the maximum value among all s i is set as s max . For this smax , a score recorded at a certain ratio or higher is set as a new candidate object, and the process is repeated until the number of candidate objects finally becomes one or the number of candidate objects does not change. During this time, as the candidate objects are narrowed down, the optimum parameter for identifying the narrowed candidate objects is output from the identification parameter determination unit 150.

重みwが算出されたという前提で、最終同定スコアの算出を行う場合の計算を図14に示す。ただし簡単のため、要素同定スコアはゼッケンの番号と騎手の帽子、馬体の色、相対位置の4項目とした。このケースではsmaxが161となり、smaxの50%以上の値のスコアのものを次の候補オブジェクトとすることに定めた。よって馬番号j=3、4、5、6、8が次の候補オブジェクトとなり、再度重みwの計算が行われ、重みwを基にしたスコア算出が行われる。以後これを繰り返すことで、最終的な候補を一つに定める。 FIG. 14 shows the calculation when the final identification score is calculated on the assumption that the weight w j is calculated. However, for the sake of simplicity, the element identification score is set to four items: a bib number, a jockey hat, a horse color, and a relative position. Next s max in this case is 161, defined those scores more than 50% of the value of s max to the next candidate object. Therefore, the horse numbers j = 3, 4, 5, 6, and 8 become the next candidate objects, the weight w j is calculated again, and the score is calculated based on the weight w j . Thereafter, this is repeated to determine one final candidate.

[同定パラメータ決定部]
この同定パラメータ決定部150は、オブジェクト同定部140において同定スコアの計算を行う際の重みwを候補オブジェクトごとに決定するための、重みの算出を行う機構を有する。
一般に、複数の要素同定スコアを足し合わせて最終同定スコアを算出することは信頼度の高いオブジェクト同定を行う上で有益である。しかしながら候補オブジェクトが絞れる場合に、毎回同じ重み付けを利用することは不適切であり、候補オブジェクト同士の間で同定しやすいパラメータを用いることが望ましい。
[Identification parameter determination unit]
The identification parameter determination unit 150 has a mechanism for calculating a weight for determining the weight w j for calculating the identification score in the object identification unit 140 for each candidate object.
In general, adding a plurality of element identification scores to calculate a final identification score is useful for performing highly reliable object identification. However, when candidate objects can be narrowed down, it is inappropriate to use the same weighting every time, and it is desirable to use parameters that are easy to identify between candidate objects.

例えば、候補となる馬が3頭おり、そのような条件下で候補の1頭は馬体が白であり、他の2頭は馬体が黒である場合、馬体の情報はこれらの候補の中で同定を行う上で有益な情報になり得る。しかしながら、候補3頭について全て馬体が黒に近い色である場合には、他の部位の情報を参照し、馬体の情報についてはなるべく見ないことが望ましい。よって、オブジェクト同定部140から得られる候補オブジェクトに合わせ、動的に変化させた重みを提供するのが同定パラメータ決定部150である。   For example, if there are three candidate horses, and one of the candidates has a white horse and the other two have a black horse under such conditions, the information on the horse will be those candidates. This can be useful information for identification. However, when the horse body is a color close to black for all three candidates, it is desirable to refer to information on other parts and not to see the horse information as much as possible. Therefore, the identification parameter determination unit 150 provides weights that are dynamically changed in accordance with candidate objects obtained from the object identification unit 140.

ある同定要素(番号j)について、その同定要素の重みwを算出する手法として、本実施例ではクラスタ数Cと、各クラスタの代表値の分散Vと、要素から得られる同定スコアにどの程度の信頼がおけるかを示す要素信頼度Rを以下のように乗算して算出することとした。

=(C/N)×V×R
As a technique for calculating the weight w j of an identification element (number j), in this embodiment, the number of clusters C j , the variance V j of the representative value of each cluster, and the identification score obtained from the element are used. The element reliability R j indicating how much reliability can be obtained is calculated by multiplying as follows.

w j = (C j / N) × V j × R j

ここでNは今回扱う候補オブジェクトの数を表している。
ここでは、それぞれのパラメータについて例を踏まえながら説明を行う。例えば、ここで与えられている候補オブジェクトが6番、16番と17番の3頭であり、要素同定スコアの計算に成功している要素がゼッケン番号(j=0)、騎手の帽子部分(j=1)、馬体の色(j=2)、過去の相対位置(j=3)であるとする。図15にこの例の各部位の情報と同定スコアについて示す。この同定スコアに説明を加えると、ゼッケンは6と16の数字の形状が似通っているため、高いスコア(100と50)で同定された。また、18頭の出走頭数のレースでは帽子は6番(赤)、16番(桃)、17番(桃)で、比較的色の情報が似ていることから全て高いスコアとなった。馬体に関しては6番の馬が白い馬であり、他の馬は黒に近い色であった。また、相対位置に関しては6番、16番、17番共に比較的近い位置を過去に走っていたため、全てが高いスコアを示した。
Here, N represents the number of candidate objects handled this time.
Here, each parameter will be described based on an example. For example, the candidate objects given here are the six heads of No. 6, No. 16 and No. 17, and the elements that have succeeded in calculating the element identification score are the No. number (j = 0), the hat part of the jockey ( j = 1), horse color (j = 2), and past relative position (j = 3). FIG. 15 shows the information and identification score of each part in this example. When explanation is added to this identification score, the bib number was identified with a high score (100 and 50) because the shapes of the numbers 6 and 16 are similar. In the 18 races, the hats were No. 6 (red), No. 16 (peach), and No. 17 (peach), and all of the scores were relatively high due to relatively similar color information. Regarding the horse body, the 6th horse was a white horse, and the other horses had a color close to black. As for the relative positions, all of No. 6, No. 16, and No. 17 had been running relatively close in the past, and all showed high scores.

このときクラスタ数Cは、ある特徴についてクラスタリングを行った際のクラスタ数である。一般にある部位を見たときに、一度に候補を絞れる部位の方が、同定に際し優れた部位であると言うことができる。例えば図15のケースでは、ゼッケン番号はそれだけで3頭を分類することができるため、C=3と示される。同様に、帽子は6番(赤)、16番(桃)、17番(桃)と2種類から構成されるためC=2である。このように事前に何種類に分かれるかが明確なものについては、ネットワーク等を介して事前情報として入手できるそのレースの出走頭数等の情報を基に定めてしまうこととした。 At this time, the cluster number C j is the number of clusters when clustering is performed for a certain feature. In general, when looking at a certain part, it can be said that a part where candidates can be narrowed down at a time is an excellent part for identification. For example, in the case of FIG. 15, the number number can be classified by itself so that C j = 3. Similarly, since the hat is composed of 6 types (red), 16 (peach), and 17 (peach), C j = 2. In this way, it is decided that the number of types that can be clearly divided will be determined based on information such as the number of runners of the race that can be obtained as advance information via a network or the like.

同様に騎手の服も馬主に紐づくものであるから、馬主名を基にクラスタリングを行ってもよいが、他のアイディアとしては、例えば騎手の服の画像を事前に用意し、それらのヒストグラムの類似度を計算し、類似度の高いものから順に同一のクラスタとしていくことを、類似度が一定の閾値を下回るまで繰り返した際にできるクラスタ数をCと定めてもよい。 Similarly, jockey's clothing is tied to the owner, so clustering may be performed based on the name of the owner, but other ideas include, for example, preparing images of jockey's clothing in advance. The number of clusters that can be obtained when the similarity is calculated and repeated in the order of decreasing similarity until the similarity falls below a certain threshold may be defined as C j .

また、過去の相対位置についても、距離の近いものから順に同一クラスタと見なしていく中で、それらの距離が一定の閾値を下回るまで繰り返した際にできるクラスタ数をCと定める。ただし、C=1の場合には同定に向かないパラメータということなので、重みは0とする。図15の例では、馬の相対位置は全て似通っているため、C=1となり重み計算は行っていない。 Also, regarding the past relative positions, the number of clusters formed when the distance is repeated until the distance falls below a certain threshold is determined as C j while considering the same cluster in order from the closest distance. However, when C j = 1, the parameter is not suitable for identification, and the weight is set to 0. In the example of FIG. 15, since the relative positions of all the horses are similar, C 3 = 1 and weight calculation is not performed.

次に、各クラスタの代表値の分散Vを算出する。これは、例えクラスタ数Cが大きかったとしても、それぞれのクラスタの特徴が大きく違っていない場合には誤認識が発生する可能性があり、同定に際して優れた部位とは言えないことに基づいている。ここでは、事前に算出された要素同定スコアpijについて、各クラスタの平均値を算出し、その平均値に関しての分散を算出することとした。こうして求められた同定要素ごとの分散Vについて、最大を1で正規化することとした。 Next, the variance V j of the representative value of each cluster is calculated. This is based on the fact that even if the number of clusters C j is large, erroneous recognition may occur if the features of the respective clusters are not significantly different, and it cannot be said that it is an excellent part for identification. Yes. Here, for the element identification score p ij calculated in advance, the average value of each cluster is calculated, and the variance with respect to the average value is calculated. The variance V j for each identification element thus obtained is normalized by 1 at the maximum.

この算出を図15の帽子部分を基に説明すると、帽子部分は6番(クラスタ1)と、16番と17番(クラスタ2)に分けられる。クラスタ1の帽子部分のスコア平均は100、クラスタ2の帽子部分のスコア平均は60であるため、100と60の分散を計算することとなる。   This calculation will be described based on the hat portion of FIG. 15. The hat portion is divided into No. 6 (cluster 1), No. 16 and No. 17 (cluster 2). Since the average score of the hat portion of cluster 1 is 100 and the average score of the hat portion of cluster 2 is 60, the variance of 100 and 60 is calculated.

図15の馬体部分について説明すると、馬体部分は6番(クラスタ1)と、16番と17番(クラスタ2)に分けられる。クラスタ1の馬体部分のスコア平均は10、クラスタ2の馬体部分のスコア平均は95であるため、10と95の分散を計算することとなる。   15 will be described. The horse part is divided into No. 6 (cluster 1), No. 16 and No. 17 (cluster 2). Since the score average of the horse part of cluster 1 is 10 and the score average of the horse part of cluster 2 is 95, the variance of 10 and 95 is calculated.

要素信頼度Rは、その要素から得られる同定スコアにどの程度の信頼がおけるかを示すスコアであり、信頼性が高いほど大きい値が入る。当然ながら一般に部位の抽出や認識を行うにあたり、抽出が成功しやすい部位や、同定スコアに信頼性がおける部位かどうかには差が存在している。このRは部位の抽出しやすさや信頼性に基づくものであるため、事前に設定される静的なものでもよい。 The element reliability R j is a score indicating how much the identification score obtained from the element is reliable, and a larger value is entered as the reliability is higher. Of course, in general, when extracting and recognizing a part, there is a difference between a part where extraction is likely to be successful and a part where the identification score is reliable. Since this R j is based on the ease of extracting the part and the reliability, it may be a static one set in advance.

帽子は画像の中でも非常に小さく、抽出に失敗するケースがあるため、図15ではRの値を小さくしている。一方、Rを自動化するアイディアとしては、部位の抽出であれば抽出完了した部位に対して、事前に用意したテンプレートとのテンプレートマッチングを行い、一致率を求めその値をRとすることや、要素として対象の相対位置を用いる場合であれば、当該フレームよりも過去のフレームであればあるほど状況に変化が生じていると考えられるため、相対位置を比較したフレームとの時間差に基づき減少していくようなRを設定することが考えられる。 Since the hat is very small in the image and there are cases where the extraction fails, the value of R j is reduced in FIG. On the other hand, as an idea for automating R j , in the case of part extraction, template matching with a template prepared in advance is performed on a part that has been extracted, and a matching rate is obtained and the value is set to R j. If the relative position of the target is used as an element, the situation is considered to change as the frame is earlier than the current frame, so it decreases based on the time difference from the frame with the relative position compared. It is conceivable to set R j so that

こうしてwは複数の候補オブジェクトごとに動的に計算されるが、この動的な重み付けは候補オブジェクト数が多い場合には、特定の重みが大きくなりすぎてしまい上手く働かない可能性がある。例えば18頭の候補オブジェクトを扱う場合、ゼッケン番号についてはC=18となるが、特徴的な毛色の馬が1頭だけおり、他は似たような毛色の馬の場合には馬体に関してはC=2となってしまい、馬体部分の重みが非常に小さくなってしまう。よって、候補オブジェクトが多いケースでは、ゼッケン番号のような決まった要素の重み付けが毎回大きくなりすぎてしまい、ゼッケン番号部分で誤認識が発生すると、他の要素のスコアに関わらず誤った結果が選ばれやすくなる。本実施形態では候補オブジェクトを少しずつ絞り込んでいくことができるので、最初から一つの重みに大きく依存するような同定を行うことは望ましくない。 Thus, w j is dynamically calculated for each of a plurality of candidate objects. However, when the number of candidate objects is large, this dynamic weighting may not work well because a specific weight becomes too large. For example, when 18 candidate objects are handled, the number number is C j = 18, but there is only one horse with a characteristic hair color, and the other is a horse with a similar hair color. Will be C j = 2 and the weight of the horse will be very small. Therefore, in cases where there are many candidate objects, the weight of a fixed number such as a bib number will be too large every time, and if a recognition error occurs in the bib number part, the wrong result will be selected regardless of the score of other elements It becomes easy to be. In this embodiment, candidate objects can be narrowed down little by little, so it is not desirable to perform identification that greatly depends on one weight from the beginning.

よって、この動的な重み付けに関しては、候補オブジェクトの数が多い内は、各重み間の差が小さくなるような調整を加えることが望ましい。これを自動で実現するために、以下のように候補オブジェクト数が大きいほど、重みの平均値の周りに調整後の各重みが集まるような調整を行うことにした。

′=wave+(w−wave)/(N−1)
Therefore, with respect to this dynamic weighting, it is desirable to make an adjustment so that the difference between the weights becomes smaller while the number of candidate objects is large. In order to realize this automatically, the adjustment is performed so that the weights after adjustment are gathered around the average value of the weights as the number of candidate objects is larger as follows.

w j ′ = w ave + (w j −w ave ) / (N−1)

ただし、waveは全ての重みの平均値を示しており、Nは候補オブジェクト数である。この調整を行った場合には、w′を最終的な重みとしてオブジェクト同定部140でのオブジェクト同定に用いる。
とは異なる部位の重みをwとし、wの調整後の重みをw′とすると、上式より、

′−w′=(w−w)/(N−1)

となるので、各重み間の差が、1/(N−1)に縮んでいる。
However, w ave indicates the average value of all weights, and N is the number of candidate objects. When this adjustment is performed, w j ′ is used as the final weight for object identification in the object identification unit 140.
and w k the weights of different sites and w j, the weights after adjustment of w k and w k ', from the above equation,

w j ′ −w k ′ = (w j −w k ) / (N−1)

Therefore, the difference between the weights is reduced to 1 / (N−1).

この計算により図15のように最終的な重みが決定される。図15の例では、重みを全て1として加算をした場合、最終同定スコアは、馬番号6が310、馬番号16が300、馬番号17が260となるため馬番号6が選ばれることとなる。しかし、本発明にて算出した重み付けでは、馬体部分に大きく重み付けをすることで6番の馬体の色が対象オブジェクトと大きく違っているということが重要視され、最終同定スコアとしては16番が選択されている。   By this calculation, the final weight is determined as shown in FIG. In the example of FIG. 15, when all weights are set to 1, the final identification score is 310 for horse number 6, 300 for horse number 16, and 260 for horse number 17, so horse number 6 is selected. . However, in the weighting calculated in the present invention, it is emphasized that the weight of the horse No. 6 is greatly different from the target object by weighting the horse part greatly, and the final identification score is No. 16 Is selected.

[結果表示部]
結果表示部160では、ここまでの位置推定と同定の結果を表示する。ここでは図16のようにコースの形状を模した平面マップ上に結果表示を行うこととする。この際に位置だけではなく、追跡結果を基に競走馬の軌跡を表示してもよいし、各馬を示すマーカーは枠の色で表示される形としてもよい。画像上の位置から、コースを上から俯瞰した平面マップに位置を得る手段としては、画像中のある画素位置が、平面マップ上のどの位置に対応するのかという対応情報や変換式を予め用意しておけばよい。
[Result display area]
The result display unit 160 displays the position estimation and identification results so far. Here, the result is displayed on a plane map simulating the shape of the course as shown in FIG. At this time, not only the position but also the track of the racehorse may be displayed based on the tracking result, and the marker indicating each horse may be displayed in the color of the frame. As a means of obtaining the position on the planar map that overlooks the course from the top from the position on the image, correspondence information on which position on the planar map the pixel position in the image corresponds to and a conversion formula are prepared in advance. Just keep it.

この対応情報は手動で用意してもよいし、直線形状であればコース形状を示す四辺形と、平面マップ上の位置を示す四辺形の間のホモグラフィ行列を推定し、位置を決定する変換式を得る例もある。平面マップ上の位置と対応させる競走馬の位置については、競走馬の頭の部分としても良いし、足元部分としてもよいが、どの部分を用いるかについては事前に決定されているものとする。   This correspondence information may be prepared manually, or in the case of a linear shape, a transformation that determines the position by estimating the homography matrix between the quadrilateral indicating the course shape and the quadrilateral indicating the position on the plane map There is also an example of obtaining an expression. The position of the racehorse corresponding to the position on the plane map may be the head part of the racehorse or the foot part, but which part is used is determined in advance.

[オブジェクト追跡部]
本発明の装置は、オブジェクトの追跡アルゴリズムを組み込んだ方が高速かつ高精度の認識が行える可能性が高い。
オブジェクト追跡部170では、過去のフレームの情報を基に現フレームのオブジェクトへの追跡を行う。追跡の手法としては前フレームからの移動距離を求め、近い候補オブジェクトを同一オブジェクトとする方法もあるが、それ以外にもオブジェクト位置推定部130で推定された画像中の対象オブジェクト全体、あるいは一部を含む矩形領域を設定し、その矩形領域の特徴を基に追跡することが考えられる。
[Object tracking part]
The apparatus of the present invention is more likely to perform high-speed and high-accuracy recognition if an object tracking algorithm is incorporated.
The object tracking unit 170 tracks the current frame object based on the past frame information. As a tracking method, there is a method in which the moving distance from the previous frame is obtained and the closest candidate object is made the same object, but in addition to that, the entire target object in the image estimated by the object position estimation unit 130 or a part It is conceivable to set a rectangular area including “” and track based on the characteristics of the rectangular area.

後者の手法としては、例えばMedianFlowやKCFなどの既存追跡手法を適用することが考えられる。このときに、例えば競走馬であればレース中は直線的に前方に進んでいくことが多く、大きく方向転換することは少ないことから、追跡した結果が大きく方向転換するなど疑わしい場合には、追跡失敗としてオブジェクト位置推定部130に結果を渡してもよい。   As the latter method, for example, it is possible to apply an existing tracking method such as MediaFlow or KCF. At this time, for example, if it is a racehorse, it will often go straight forward during the race, and it will rarely change direction. The result may be passed to the object position estimation unit 130 as a failure.

また、追跡成功時にはオブジェクト同定部140で決定された同定番号を引き継ぐことで、追跡成功中は再度候補オブジェクトの同定を行わないようにしてもよい。あるいは、追跡中も数フレームに一度は再度、オブジェクトの同定を行い、その際に再度同定スコアを計算するような実装も考えられる。特に、後者の追跡中にも数フレームに一度、オブジェクト同定を行うケースでは、追跡中にも同定スコアを随時加算して、追跡開始フレームから現在までの同定スコアを加算した中で最大となる番号を同定結果として出力する機構を備えていてもよい。   Further, when the tracking is successful, the identification number determined by the object identification unit 140 may be taken over so that the candidate object is not identified again during the tracking success. Alternatively, an implementation may be considered in which the object is identified again once every few frames during tracking and the identification score is calculated again. In particular, in the case where object identification is performed once every few frames even during the latter tracking, the identification score is added as needed during tracking, and the highest number among the identification scores from the tracking start frame to the present is added. May be provided as a result of identification.

以上、本発明の実施形態について説明したが、本発明は前述した実施形態に限るものではない。また、本実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本実施形態に記載されたものに限定されるものではない。   As mentioned above, although embodiment of this invention was described, this invention is not restricted to embodiment mentioned above. Further, the effects described in the present embodiment are merely a list of the most preferable effects resulting from the present invention, and the effects of the present invention are not limited to those described in the present embodiment.

本実施形態では、競馬を一例として取り上げたが、本発明は、競輪、競艇、カーレースなどの他のレースにも適用可能である。また、レースに限らず、任意の動いている対象物(例えば、運動会で遊戯をしている生徒、サッカー等の競技においてプレーしている選手など)をカメラで撮影して同定する分野に適用することができる。   In the present embodiment, horse racing is taken as an example, but the present invention can also be applied to other races such as bicycle races, boat races, and car races. In addition, the present invention is not limited to a race, and is applied to a field in which an arbitrary moving object (for example, a student playing at an athletic meet, a player playing in a competition such as soccer) is photographed with a camera and identified. be able to.

本発明のオブジェクト同定装置における各処理は、ソフトウェアにより実現される。ソフトウェアにより実現される場合には、このソフトウェアを構成するプログラムが、情報処理装置(コンピュータ)にインストールされる。また、これらのプログラムは、CD−ROMのようなリムーバブルメディアに記録されてユーザに配布されてもよいし、ネットワークを介してユーザのコンピュータにダウンロードされることにより配布されてもよい。さらに、これらのプログラムは、ダウンロードされることなく、ネットワークを介したWebサービスとして、ユーザのコンピュータに提供されてもよい。   Each process in the object identification device of the present invention is realized by software. When realized by software, a program constituting the software is installed in an information processing apparatus (computer). These programs may be recorded on a removable medium such as a CD-ROM and distributed to the user, or may be distributed by being downloaded to the user's computer via a network. Furthermore, these programs may be provided to the user's computer as a Web service via a network without being downloaded.

1 オブジェクト同定装置
2 オブジェクト同定装置
10 カメラ映像
20 カメラ映像
50 事前情報データベース
60 分析結果データベース
110 オブジェクト特徴学習部
120 オブジェクト部位抽出部
130 オブジェクト位置推定部
140 オブジェクト同定部
150 同定パラメータ決定部
160 結果表示部
DESCRIPTION OF SYMBOLS 1 Object identification apparatus 2 Object identification apparatus 10 Camera image | video 20 Camera image | video 50 Prior information database 60 Analysis result database 110 Object feature learning part 120 Object site | part extraction part 130 Object position estimation part 140 Object identification part 150 Identification parameter determination part 160 Result display part

Claims (22)

対象オブジェクトの同定に用いる部位を画像から抽出するオブジェクト部位抽出部と、
対象オブジェクトの位置を推定するオブジェクト位置推定部と、
対象オブジェクトについて各同定要素ごとに同定を行い、対象オブジェクトの各同定要素ごとの同定結果を集計することで最終的にオブジェクトの同定を行うオブジェクト同定部と、
前記オブジェクト部位抽出部及び前記オブジェクト同定部が使用する各候補オブジェクトの部位の特徴を事前に学習するオブジェクト特徴学習部と、
前記オブジェクト同定部が対象オブジェクトの各同定要素ごとの同定結果を集計する際の重みを動的に決定する同定パラメータ決定部と、
前記オブジェクト同定部の最終的なオブジェクトの同定結果の表示を行う結果表示部と、
を有することを特徴としたオブジェクト同定装置。
An object part extraction unit for extracting a part used for identification of a target object from an image;
An object position estimation unit for estimating the position of the target object;
An object identification unit that performs identification for each identification element for the target object, and finally identifies the object by aggregating the identification results for each identification element of the target object;
An object feature learning unit that learns in advance the feature of each candidate object used by the object part extraction unit and the object identification unit;
An identification parameter determination unit that dynamically determines a weight when the object identification unit aggregates identification results for each identification element of the target object;
A result display unit for displaying a final object identification result of the object identification unit;
An object identification device characterized by comprising:
前記同定パラメータ決定部が、抽出に成功した同定要素の中で、候補オブジェクト同士の同定を行いやすい同定要素に大きく重み付けをすること
を特徴とした請求項1に記載のオブジェクト同定装置。
The object identification device according to claim 1, wherein the identification parameter determination unit weights an identification element that can easily identify candidate objects among identification elements that have been successfully extracted.
前記同定パラメータ決定部が、候補オブジェクト同士の同定を行いやすい要素に大きく重み付けをするために、
全ての候補オブジェクトの同定要素の特徴をクラスタリングした際のクラスタ数と、
各クラスタの代表値の分散と、
抽出要素の要素信頼度と、
の三つのパラメータを組み合わせることで、候補オブジェクト同士の同定を行いやすい同定要素に大きく重み付けをすること
を特徴とした請求項2に記載のオブジェクト同定装置。
In order for the identification parameter determination unit to heavily weight elements that can easily identify candidate objects,
The number of clusters when clustering the features of the identification elements of all candidate objects,
The variance of the representative value of each cluster,
The element reliability of the extracted element,
The object identification device according to claim 2, wherein a combination of the three parameters gives a large weight to identification elements that facilitate identification of candidate objects.
前記オブジェクト同定部が最終同定スコアを算出する際に、一定の条件を満たすスコアを示した候補オブジェクトを次の候補オブジェクトとして定め、前記同定パラメータ決定部にて繰り返し重み付けを変更しながら候補オブジェクトを絞り込んでいくこと
を特徴とした請求項1から3のいずれかに記載のオブジェクト同定装置。
When the object identification unit calculates a final identification score, a candidate object that shows a score that satisfies a certain condition is determined as the next candidate object, and the identification parameter determination unit narrows down the candidate objects while repeatedly changing the weighting. The object identification device according to claim 1, wherein
同定パラメータ決定部が、オブジェクト同定のための重みを設定する際に、候補オブジェクトの数が多い場合には、各重み間の差が小さくなるような調整を加えること
を特徴とした請求項1から4のいずれかに記載のオブジェクト同定装置。
The identification parameter determination unit, when setting weights for object identification, makes adjustments so as to reduce the difference between the weights when the number of candidate objects is large. 5. The object identification device according to any one of 4.
前記オブジェクト部位抽出部が、同定のために複数の部位を抽出し、
前記オブジェクト同定部が、抽出に成功した部位の数の多い対象オブジェクトから順にオブジェクトの同定を行うことで、同定を行いやすい対象オブジェクトから順に候補オブジェクトの数を減らして行き、同定精度を高めることを特徴とする請求項1から5のいずれかに記載のオブジェクト同定装置。
The object part extraction unit extracts a plurality of parts for identification,
The object identification unit reduces the number of candidate objects in order from the target object that is easy to identify by identifying the object in order from the target object having the largest number of successfully extracted parts, and increases the identification accuracy. The object identification device according to claim 1, wherein the object identification device is a device.
前記オブジェクト位置推定部での位置推定の際に、対象オブジェクト同士が近傍に存在しており、奥の対象オブジェクトが手前の対象オブジェクトにより一部覆い隠されている場合に、覆い隠されていない部位を検出し、当該部位が複数検出されたことを基に対象オブジェクトの数と位置を推定することで、重なりがある場合にも位置推定を正確に行うこと
を特徴とした請求項1から6のいずれかに記載のオブジェクト同定装置。
When the position estimation is performed by the object position estimation unit, when the target objects exist in the vicinity and the target object in the back is partially obscured by the target object in front, the part that is not obscured The position is accurately estimated even when there is an overlap by estimating the number and position of the target objects based on detection of a plurality of the parts. The object identification device according to any one of the above.
レースに出場しているオブジェクトを同定するオブジェクト同定装置であって、
前記同定パラメータ決定部が重みを決定するために参照する事前情報データベースを備ており、
前記オブジェクト特徴学習部は、レース前に前記事前情報データベースに登録されている静的な情報だけでなく、レース前の対象オブジェクトの様子を映像として捉え、その映像に対しオブジェクトの部位を抽出し、レース直前のリアルタイムな特徴情報を学習すること
を特徴とする請求項1から7のいずれかに記載のオブジェクト同定装置。
An object identification device for identifying an object participating in a race,
A pre-information database that the identification parameter determination unit refers to determine a weight;
The object feature learning unit captures not only the static information registered in the prior information database before the race but also the state of the target object before the race as a video, and extracts the part of the object from the video. The object identification device according to claim 1, wherein real-time feature information immediately before the race is learned.
前記オブジェクト特徴学習部が学習するレース直前のリアルタイムな特徴情報として、レース直前の映像から候補オブジェクトの部位の抽出を行い、当該部位に対して色範囲を動的に変化させたときに抽出される当該部位の領域の外接矩形サイズが、レース前に設定された当該部位の大きさに近づくように色閾値を調整すること
を特徴とする請求項8に記載のオブジェクト同定装置。
As the real-time feature information immediately before the race learned by the object feature learning unit, the part of the candidate object is extracted from the video immediately before the race and the color range is dynamically changed with respect to the part. 9. The object identification apparatus according to claim 8, wherein the color threshold is adjusted so that the circumscribed rectangle size of the region of the part approaches the size of the part set before the race.
前記オブジェクト特徴学習部が、レース直前の映像から対象オブジェクトの部位の抽出を行い、学習するレース直前のリアルタイムな特徴情報として、当該部位のカラーヒストグラムを予め計算しておく機構を備え、
かつ前記オブジェクト同定部が、このカラーヒストグラムとの類似度を調べることによってオブジェクト同定のスコアを算出すること
を特徴とする請求項8に記載のオブジェクト同定装置。
The object feature learning unit includes a mechanism for extracting a part of the target object from the video immediately before the race and pre-calculating a color histogram of the part as real-time feature information immediately before the race to learn,
9. The object identification device according to claim 8, wherein the object identification unit calculates an object identification score by examining a similarity to the color histogram.
レースに出場しているオブジェクトを同定するオブジェクト同定装置であって、
前記オブジェクト同定部で同定を行う同定要素の一つとして、競走中の対象オブジェクトの相対位置を用い、過去のフレームで同定された複数の候補オブジェクトの中で、現フレームでの対象オブジェクトの相対位置との距離が近い相対位置を有する候補オブジェクトに、大きな同定スコアを付与すること
を特徴とする請求項1から10のいずれかに記載のオブジェクト同定装置。
An object identification device for identifying an object participating in a race,
The relative position of the target object in the current frame among the plurality of candidate objects identified in the past frame using the relative position of the target object in the race as one of identification elements to be identified by the object identification unit 11. The object identification device according to claim 1, wherein a large identification score is assigned to a candidate object having a relative position that is close to a distance from the object object.
競走中の対象オブジェクトの相対位置は、競走中の先頭と最後方に存在する対象オブジェクトの間と、最内と最外に存在する対象オブジェクトの間の空間にて正規化された量として計算され、コース形状に沿うように座標軸を取ること
を特徴とする請求項11に記載のオブジェクト同定装置。
The relative position of the target object during the race is calculated as a normalized value in the space between the target object existing at the beginning and the end of the race and the target object existing at the innermost and outermost points. The object identification apparatus according to claim 11, wherein coordinate axes are taken along the course shape.
前記オブジェクト同定部において特定部位に対し番号認識を用いてスコアを算出する際に、認識結果として完全に一致している番号のみにスコア付けをするのではなく、事前に判明している条件や傾向に基づいて、特定の桁のみが一致している場合にも一定のスコアを与えることで、番号の誤認識に基づいたスコアを算出する可能性を減少させること
を特徴とする請求項1から12のいずれかに記載のオブジェクト同定装置。
When calculating a score using number recognition for a specific part in the object identification unit, a score or condition that is known in advance is not used for scoring only numbers that are completely consistent as a recognition result. 13. The possibility of calculating a score based on misrecognition of a number is reduced by giving a constant score even when only a specific digit is matched based on The object identification device according to any one of the above.
前記オブジェクト同定部において特定部位に対し番号認識を用いてスコアを算出する際に、撮影に用いるカメラと番号認識を行う部分の間の距離を算出し、距離が遠い場合の同定スコアが低くなるように重みを付けて同定スコアを算出すること
を特徴とする請求項1から13のいずれかに記載のオブジェクト同定装置。
When calculating the score using the number recognition for the specific part in the object identification unit, the distance between the camera used for shooting and the part that performs the number recognition is calculated, so that the identification score when the distance is long is lowered. The object identification device according to claim 1, wherein an identification score is calculated by weighting the object.
前記オブジェクト同定部において特定部位に対し文字認識を用いてスコアを算出する際に、文字そのものの認識が難しい場合には、文字部分の形状や色情報を基に文字部分の文字数を読み取り、文字部分の文字数に基づく対象オブジェクトの同定の際のスコア付けを行うこと
を特徴とする請求項1から14のいずれかに記載のオブジェクト同定装置。
When calculating the score using character recognition for a specific part in the object identification unit, if it is difficult to recognize the character itself, the number of characters in the character part is read based on the shape and color information of the character part. The object identification device according to claim 1, wherein scoring is performed when the target object is identified based on the number of characters.
レースに出場しているオブジェクトを同定するオブジェクト同定装置であって、
前記オブジェクト位置推定部が、対象オブジェクトによって作り出される影、足跡、又は波に代表される対象オブジェクトの痕跡を利用して複数の対象オブジェクトの存在を検知し、対象オブジェクトの位置を推定すること
を特徴とする請求項1から15のいずれかに記載のオブジェクト同定装置。
An object identification device for identifying an object participating in a race,
The object position estimation unit detects the presence of a plurality of target objects by using a trace of a target object represented by a shadow, footprint, or wave created by the target object, and estimates the position of the target object. The object identification device according to any one of claims 1 to 15.
レースに出場しているオブジェクトを同定するオブジェクト同定装置であって、
前記オブジェクト部位抽出部が、背景差分法に基づいて背景と前景領域を分離する機能を有し、レース前に決定されている出走時刻を基に、レース直前の画面内に対象オブジェクトが全く存在しないことを感知して、レース開始直前の背景の特徴を学習することにより、照明条件や天候の変化にも対応して前景抽出を実現すること
を特徴とする請求項1から16のいずれかに記載のオブジェクト同定装置。
An object identification device for identifying an object participating in a race,
The object part extraction unit has a function of separating the background and the foreground area based on the background difference method, and there is no target object in the screen immediately before the race based on the start time determined before the race. The foreground extraction is realized in response to changes in lighting conditions and weather by learning the background characteristics immediately before the start of the race. Object identification device.
レースに出場しているオブジェクトを同定するオブジェクト同定装置であって、
オブジェクトの追跡を行うことが可能なオブジェクト追跡部をさらに有し、
前記オブジェクト追跡部は追跡が成功した際に、追跡先の位置に同定結果と過去の同定スコアを引き継ぐことを可能とし、追跡中にも一定の頻度で再度オブジェクト同定を行い、追跡開始フレームから現フレームまでの同定スコアを加算した中で最大となる番号を同定結果として出力すること
を特徴とした請求項1から17のいずれかに記載のオブジェクト同定装置。
An object identification device for identifying an object participating in a race,
An object tracking unit capable of tracking the object;
When the tracking is successful, the object tracking unit can transfer the identification result and the past identification score to the position of the tracking destination, identify the object again at a constant frequency during the tracking, and start the current tracking from the tracking start frame. 18. The object identification device according to claim 1, wherein the largest number among the identification scores up to the frame is output as an identification result.
競走馬の同定を行うオブジェクト同定装置であって、前記事前に判明している条件や傾向として、騎手の足によって競走馬のゼッケンの一部が隠されることがあるという傾向を利用し、カメラの位置と向きから見えづらい桁を考慮して、特定の桁のみが一致している場合にも一定のスコアを与えることで、番号の誤認識に基づいたスコアを算出する可能性を減少させること
を特徴とする請求項13に記載のオブジェクト同定装置。
An object identification device for identifying a racehorse, using a tendency that a part of a racehorse number is hidden by a jockey's foot as a condition or tendency that is known in advance, and a camera Taking into account digits that are difficult to see from the position and orientation of the, it is possible to reduce the possibility of calculating a score based on misrecognition of numbers by giving a certain score even when only certain digits match The object identification device according to claim 13.
競走馬の同定を行うオブジェクト同定装置であって、前記オブジェクト部位抽出部にて抽出を行う部位を
(1)競走馬のゼッケン (2)騎手の服 (3)騎手の帽子 (4)馬の顔部分(馬が被るメンコやブリンカー、シャドーロールを含む) (5)バンデージ (6)馬体
の以上6項目とし、
前記オブジェクト同定部で、(7)競走馬の相対位置を加えた計7要素について、
(1)は番号認識と文字認識、(2)〜(6)は色情報の類似度、(7)は距離を基に同定スコアを算出し、前記同定パラメータ決定部で得られる重みに基づいてオブジェクト同定を行うこと
を特徴とした請求項1から19のいずれかに記載のオブジェクト同定装置。
An object identification device for identifying a racehorse, in which the object part extraction unit (1) racehorse number (2) jockey clothes (3) jockey hat (4) horse face Parts (including mencos, blinkers, and shadow rolls worn by horses) (5) Bandage (6) Over 6 items of horse body,
In the object identification unit, (7) for a total of 7 elements including the relative position of the racehorse,
(1) is number recognition and character recognition, (2) to (6) are color information similarities, and (7) is an identification score based on distance, and based on the weight obtained by the identification parameter determination unit The object identification device according to claim 1, wherein the object identification is performed.
競走馬の同定を行うオブジェクト同定装置であって、前記オブジェクト特徴学習部がレース前に判明している競走馬のゼッケンの色情報から、当該ゼッケンを抽出できる色範囲を設定し、前記オブジェクト部位抽出部は、その色範囲を基に抽出して得られた全ての領域に対し外接矩形を計算し、外接矩形の大きさがゼッケンのサイズと類似していることを基にゼッケン部分の抽出を行い、抽出されたゼッケン部分の位置を基準として、画像中での各部位の位置関係に基づいて各部位を抽出すること
を特徴とした請求項1から20のいずれかに記載のオブジェクト同定装置。
An object identification device for identifying a racehorse, wherein the object feature learning unit sets a color range in which the number can be extracted from the color information of the number of the racehorse known before the race, and the object part extraction The unit calculates the circumscribed rectangle for all the areas obtained by extraction based on the color range, and extracts the bib portion based on the size of the circumscribed rectangle being similar to the bib size. 21. The object identification device according to claim 1, wherein each part is extracted based on a positional relationship of each part in the image with reference to the position of the extracted bib portion.
競走馬の同定を行うオブジェクト同定装置であって、前記オブジェクト特徴学習部で用いるレース前の対象オブジェクトの映像とは、レース前に入手できるパドックの映像と、レーススタート前にスタート地点まで走っていく際の馬の映像と、スタート直前にゲートに収まっている馬の映像であること
を特徴とした請求項8に記載のオブジェクト同定装置。
An object identification device for identifying a racehorse, which is a video of a target object before a race used in the object feature learning unit, and a video of a paddock that can be obtained before a race, and runs to a starting point before a race starts. The object identification device according to claim 8, wherein the image of the horse at the time and the image of a horse that is housed in the gate immediately before the start.
JP2018061567A 2018-03-28 2018-03-28 Object identification device Active JP6902492B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018061567A JP6902492B2 (en) 2018-03-28 2018-03-28 Object identification device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018061567A JP6902492B2 (en) 2018-03-28 2018-03-28 Object identification device

Publications (2)

Publication Number Publication Date
JP2019175063A true JP2019175063A (en) 2019-10-10
JP6902492B2 JP6902492B2 (en) 2021-07-14

Family

ID=68168895

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018061567A Active JP6902492B2 (en) 2018-03-28 2018-03-28 Object identification device

Country Status (1)

Country Link
JP (1) JP6902492B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112528755A (en) * 2020-11-19 2021-03-19 上海至冕伟业科技有限公司 Intelligent identification method for fire-fighting evacuation facilities
CN117292283A (en) * 2023-11-24 2023-12-26 成都庆龙航空科技有限公司 Target identification method based on unmanned aerial vehicle

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11501582B2 (en) * 2019-12-01 2022-11-15 Active Track, Llc Artificial intelligence-based timing, imaging, and tracking system for the participatory athletic event market

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09298740A (en) * 1996-04-30 1997-11-18 Plus Mic:Kk Video discriminating device
WO2007037350A1 (en) * 2005-09-29 2007-04-05 Plusmic Corporation Horse position information analyzing and displaying method
JP2011113360A (en) * 2009-11-27 2011-06-09 Toyota Motor Corp Object identification apparatus
JP2013192871A (en) * 2012-03-22 2013-09-30 Fujitsu Frontech Ltd Passage order input system, passage order input method, and passage order determination support apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09298740A (en) * 1996-04-30 1997-11-18 Plus Mic:Kk Video discriminating device
WO2007037350A1 (en) * 2005-09-29 2007-04-05 Plusmic Corporation Horse position information analyzing and displaying method
JP2011113360A (en) * 2009-11-27 2011-06-09 Toyota Motor Corp Object identification apparatus
JP2013192871A (en) * 2012-03-22 2013-09-30 Fujitsu Frontech Ltd Passage order input system, passage order input method, and passage order determination support apparatus

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112528755A (en) * 2020-11-19 2021-03-19 上海至冕伟业科技有限公司 Intelligent identification method for fire-fighting evacuation facilities
CN117292283A (en) * 2023-11-24 2023-12-26 成都庆龙航空科技有限公司 Target identification method based on unmanned aerial vehicle
CN117292283B (en) * 2023-11-24 2024-02-13 成都庆龙航空科技有限公司 Target identification method based on unmanned aerial vehicle

Also Published As

Publication number Publication date
JP6902492B2 (en) 2021-07-14

Similar Documents

Publication Publication Date Title
US10885372B2 (en) Image recognition apparatus, learning apparatus, image recognition method, learning method, and storage medium
TWI679612B (en) Image tracking method
Yang et al. Robust superpixel tracking
CN109145708B (en) Pedestrian flow statistical method based on RGB and D information fusion
US8340420B2 (en) Method for recognizing objects in images
US8401248B1 (en) Method and system for measuring emotional and attentional response to dynamic digital media content
CN103413120B (en) Tracking based on object globality and locality identification
US8107679B2 (en) Horse position information analyzing and displaying method
JP6902492B2 (en) Object identification device
CN108985170A (en) Transmission line of electricity hanger recognition methods based on Three image difference and deep learning
TWI687159B (en) Fry counting system and fry counting method
CN109684919B (en) Badminton service violation distinguishing method based on machine vision
CN110458100A (en) Based on target detection and the identification of the table tennis drop point of tracking and methods of marking and system
CN110633671A (en) Bus passenger flow real-time statistical method based on depth image
CN113435336A (en) Running intelligent timing system and method based on artificial intelligence
US11631251B2 (en) Method and system for jockey and horse recognition and tracking
JP7096175B2 (en) Object extraction method and device
KR20190009006A (en) Real time multi-object tracking device and method by using global motion
TWI696958B (en) Image adaptive feature extraction method and its application
CN112101076A (en) Method and device for identifying pigs
Boonsim Racing bib number localization on complex backgrounds
Hayashi et al. Head and upper body pose estimation in team sport videos
CN106980864A (en) A kind of pedestrian&#39;s recognition methods again based on support sample indirect type
Ivanov et al. Error weighted classifier combination for multi-modal human identification
Chen et al. A new image co-segmentation method using saliency detection for surveillance image of coal miners

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210316

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210601

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210621

R150 Certificate of patent or registration of utility model

Ref document number: 6902492

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150