JP2020098441A - Arrival order determination method, arrival order determination device and program - Google Patents

Arrival order determination method, arrival order determination device and program Download PDF

Info

Publication number
JP2020098441A
JP2020098441A JP2018235987A JP2018235987A JP2020098441A JP 2020098441 A JP2020098441 A JP 2020098441A JP 2018235987 A JP2018235987 A JP 2018235987A JP 2018235987 A JP2018235987 A JP 2018235987A JP 2020098441 A JP2020098441 A JP 2020098441A
Authority
JP
Japan
Prior art keywords
image
goal
color
player
determination target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018235987A
Other languages
Japanese (ja)
Other versions
JP7161717B2 (en
Inventor
譲二 島川
Joji Shimakawa
譲二 島川
栗須 基弘
Motohiro Kurisu
基弘 栗須
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hirotech Inc
Original Assignee
Hirotech Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hirotech Inc filed Critical Hirotech Inc
Priority to JP2018235987A priority Critical patent/JP7161717B2/en
Publication of JP2020098441A publication Critical patent/JP2020098441A/en
Application granted granted Critical
Publication of JP7161717B2 publication Critical patent/JP7161717B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

To provide an arrival order determination method, an arrival order determination device and a program capable of automatically determining the arrival order of athletes from a goal scene image acquired by a slit camera with high accuracy.SOLUTION: An arrival order determination device 100a includes: an image storage unit 30 for storing a goal scene image obtained by a slit camera installed at a goal position; a clothing color region recognition unit 70 for recognizing a color region of each athlete's clothing color in the goal scene image as a body part of the athlete; a goal determination target region extraction unit 80 for extracting a goal determination target region including a specific part of an athlete boarding object from the goal scene image based on the position of the body part of each athlete; an image matching unit 90 for obtaining specific position coordinates subjected to goal determination by matching the extracted image of the goal determination target region with a reference image subjected to goal determination; and an arrival order output unit 95 for determining arrival orders of the plurality of athletes based on the specific position coordinates, and for outputting them.SELECTED DRAWING: Figure 1

Description

本発明は、競技における着順判定方法、着順判定装置およびプログラムに関する。 The present invention relates to a method of determining an order of arrival in a competition, an apparatus for determining an order of arrival and a program.

一般に、競輪、競馬等の公営競技における着順判定には審判員の目視とともに写真判定が利用されている。 Generally, in order to determine the order of arrival in public competitions such as bicycle races and horse racing, visual judgment as well as visual judgment by the referee are used.

特許文献1には、競馬のレース中に審判員が判断した通過順位を着順表示盤に表示させる際、審判員による通過順位の誤入力を低減することを課題として、審判員による目視判定を支援するために、撮像部で撮影した映像を映像解析部が解析して上位3位までの通過順位の馬番データを表示部に表示させる技術を開示している。
特許文献2には、陸上競技、氷上競技、ボート競技等において着順を電子的に判定する着順判定装置の測定結果の出力操作を確実且つ簡便化することを課題として、スリットカメラから得られるスリットカメラ画像に、時間軸に沿って移動可能なカーソルを重ねて、ゴールタイム(通過時間)を求める技術を開示している。
In Patent Document 1, when the passing order determined by the referee during a horse racing race is displayed on the arrival order display panel, the visual judgment by the referee is made to reduce the erroneous input of the passing order by the referee. In order to assist, a technique is disclosed in which a video analysis unit analyzes a video image captured by an imaging unit and causes the display unit to display horse number data of passage ranks up to the top three.
Patent Document 2 provides a slit camera, which has a problem of reliably and simplifying an output operation of a measurement result of a landing order determination device that electronically determines the landing order in athletics, ice competitions, boat competitions, and the like. Disclosed is a technique for obtaining a goal time (passing time) by overlaying a cursor that can move along the time axis on a slit camera image.

特許文献3には、競輪等の着順とタイムを競う競技において、記録画像全体の確認と判定業務が同時に行えるようにすることを課題として、ラインセンサによりゴールライン上で撮像した画像をカラービデオモニタに表示させ、それを見て競輪などにおける着順とタイムを判定する際、ゴールラインに最初に到着した先頭の走者(自転車)を含む判定用の部分画像と、複数の走者の全体が写っている記録画像全体の縮小画像を同時に表示させるようにし、且つ、縮小画像には、部分画像を指示する枠が表示されるようにした電子式着順およびタイム判定装置が開示されている。 In Patent Document 3, in a competition in which the order of arrival and time are competed such as a bicycle race, it is an object to make it possible to simultaneously check the entire recorded image and make a determination work, and a color video image captured on a goal line by a line sensor. When displaying it on a monitor and judging the order of arrival and time in a bicycle race etc. by looking at it, a partial image for judgment including the first runner (bicycle) who first arrived at the goal line and the whole of multiple runners are shown. An electronic arrival order and time determination device is disclosed in which a reduced image of the entire recorded image is displayed at the same time, and a frame indicating a partial image is displayed in the reduced image.

特開2013−192871号公報JP, 2013-192871, A 実用新案登録第3030178号公報Utility model registration No. 3030178 特開2008−22963号公報JP 2008-22963 A

上述した写真判定や特許文献2,3における着順判定はスリットカメラの出力画像を利用するとはいえ、本質的には人間が目視により着順を判断するものである。 Although the above-described photographic determination and the arrival order determination in Patent Documents 2 and 3 use the output image of the slit camera, in essence, a person visually determines the arrival order.

この点、特許文献1に記載の先行技術は、審判員の支援目的ではあるが、映像解析部による画像解析により着順を判定している。この先行技術では、馬番をアラビア数字で表した比較的大きなゼッケンが馬体の側部に装着され、基本的にはその番号を画像認識してその馬番を識別するものである。特許文献1は、選手の勝負服の胴の柄および袖の柄(必要に応じて地の色および柄の色)、帽子色、馬の毛色の認識・判定を併用することに言及しているが、これらの情報は直接的に馬番に対応するものではないばかりか、それらの判定処理は比較的困難であり、高精度な判定結果は期待できない。 In this regard, the prior art described in Patent Document 1 is for the purpose of supporting the referee, but determines the order of arrival by image analysis by the video analysis unit. In this prior art, a relatively large number indicating the horse number in Arabic numerals is attached to the side of the horse body, and basically the number is image-recognized to identify the horse number. Patent Document 1 mentions that the recognition/judgment of the trunk pattern and sleeve pattern (ground color and pattern color as required), hat color, and horse hair color of a player's competition clothes is used together. However, not only these pieces of information do not directly correspond to horse numbers, but their judgment processing is relatively difficult, and highly accurate judgment results cannot be expected.

一方、競輪等では選手が装着した衣服(着衣色または勝負服)に付された番号は比較的小さく、かつ、撮影画像上では傾斜したりゆがんだり一部しか見えなかったりするため、画像処理による番号の正確な認識は必ずしも容易ではない。また、特許文献1では、通過順位確定支援装置におけるプロセッサの画像認識処理の開始直後に「n位の画像切り出し」(n=1から開始して順次増分)を行っているが、そもそも接戦の場合にどの馬が「n位」かの判定が人間では困難となるからこそ写真判定が必要とされるにもかかわらず、「n位の画像切り出し」が画像処理によりどのように自動的かつ正確に実行されるかについては明示されていない。 On the other hand, in bicycle races, the number attached to the clothes worn by the athlete (clothing color or competition clothes) is relatively small, and the image is tilted, distorted, or only partially visible on the captured image. Accurate recognition of numbers is not always easy. Further, in Patent Document 1, immediately after the image recognition processing of the processor in the passage order determination support device is started, “n-th image cutout” (starting from n=1 and sequentially incrementing) is performed. Although it is difficult for humans to determine which horse is "nth", it is necessary to perform photo determination, but how "next image cropping" is performed automatically and accurately by image processing. It is not specified whether it will be executed.

本発明はこのような背景においてなされたものであり、その目的は、スリットカメラで取得したゴールシーン画像から競技選手の着順を高精度に自動判定することができる着順判定方法、着順判定装置およびプログラムを提供することにある。 The present invention has been made in such a background, and an object thereof is a finish order determination method and a finish order determination method capable of automatically determining the finish order of athletes from a goal scene image acquired by a slit camera with high accuracy. To provide a device and a program.

本発明による着順判定方法は、複数の選手がそれぞれ異なる色の着衣を装着した競技において、ゴール位置に設置されたスリットカメラにより得られたゴールシーン画像をコンピュータで画像処理することにより、当該複数の選手がゴールする際の着順判定を行う着順判定方法である。この着順判定方法は、ゴールシーン画像に基づいて、各選手の着衣色の色領域を当該選手の胴体部として認識する工程と、各選手の前記胴体部の位置に基づいて、当該選手が搭乗している搭乗物の特定部分を含むゴール判定対象領域を抽出する工程と、前記抽出されたゴール判定対象領域の画像をゴール判定対象の基準画像とマッチングすることによりゴール判定対象の特定位置座標を取得する工程と、複数の選手について求められた前記特定位置座標に基づいて、当該複数の選手の着順を決定する工程とを備えたものである。 In the competition order determination method according to the present invention, in a competition in which a plurality of athletes wear clothes of different colors, the goal scene image obtained by the slit camera installed at the goal position is subjected to image processing by a computer, thereby Is a method of determining the order of arrival when a player of (1) makes a goal. This method of determining the order of arrival is the step of recognizing the color region of the clothing color of each player as the body of the player based on the goal scene image, and the boarding of the player based on the position of the body of each player. The step of extracting the goal determination target area including the specific portion of the boarding object, and the specific position coordinates of the goal determination target by matching the image of the extracted goal determination target area with the reference image of the goal determination target It is provided with a step of acquiring and a step of determining the order of arrival of the plurality of players based on the specific position coordinates obtained for the plurality of players.

この着順判定方法において、前記ゴールシーン画像に基づいて、前記ゴールシーン画像の背景に相当する背景画像を生成する工程と、ゴールシーン画像に基づいて各選手を含む移動体部分か否かを表す二値画像を生成する工程と、前記ゴールシーン画像と前記二値画像とに基づいて移動体部分画像を生成する工程とをさらに備え、前記着衣色の色領域を認識する工程は、前記移動体部分画像に基づいて色領域を認識するようにしてもよい。 In this arrival order determination method, a step of generating a background image corresponding to the background of the goal scene image based on the goal scene image, and whether or not it is a moving body part including each player based on the goal scene image The method further comprises a step of generating a binary image and a step of generating a moving body partial image based on the goal scene image and the binary image, wherein the step of recognizing the color region of the clothing color includes the moving body. You may make it recognize a color area based on a partial image.

前記背景画像を生成する工程の一態様において、前記ゴールシーン画像の、前記移動体部分が含まれないことが保証される1ラインの画像を複製することにより背景画像を生成することができる。 In one aspect of the step of generating the background image, the background image can be generated by copying an image of one line of the goal scene image, which is guaranteed not to include the moving body portion.

前記ゴール判定対象領域を抽出する工程は、その一態様において、前記胴体部から所定の位置関係にある所定のサイズの矩形領域を当該選手のゴール判定対象領域として定める工程を含むことができる。 In one aspect thereof, the step of extracting the goal determination target area may include the step of defining a rectangular area of a predetermined size in a predetermined positional relationship from the body as the goal determination target area of the player.

前記着衣色の色領域を認識する工程は、他の態様において、前記ゴールシーン画像に基づいて色領域を認識することができる。 In another aspect, the step of recognizing the color area of the clothing color can recognize the color area based on the goal scene image.

前記着衣色の色領域を認識する工程は、その一態様において、画像内の各画素の色を、予め定められた着衣色判定時の許容範囲設定用パラメータに照らして当該画素の各着衣色への該当/非該当を判断する工程と、該当すると判断された画素群からノイズを除去する工程とを含んでもよい。 The step of recognizing the color region of the clothing color is, in one aspect thereof, changing the color of each pixel in the image to each clothing color of the pixel in consideration of a predetermined range setting parameter at the time of clothing color determination. It may include a step of determining whether the pixel is applicable or not, and a step of removing noise from the pixel group determined to be applicable.

本発明による着順判定装置は、複数の選手がそれぞれ異なる色の着衣を装着した競技において、当該複数の選手がゴールする際の着順判定を行う着順判定装置であって、ゴール位置に設置されたスリットカメラにより得られたゴールシーン画像を記憶する画像記憶部と、前記ゴールシーン画像において、各選手の着衣色の色領域を当該選手の胴体部として認識する着衣色領域認識部と、各選手の前記胴体部の位置に基づいて、前記ゴールシーン画像から当該選手が搭乗している搭乗物の特定部分を含むゴール判定対象領域を抽出するゴール判定対象領域抽出部と、前記抽出されたゴール判定対象領域の画像をゴール判定対象の基準画像とマッチングすることによりゴール判定対象の特定位置座標を求める画像マッチング部と、複数の選手について求められた前記特定位置座標に基づいて、当該複数の選手の着順を決定して出力する着順出力部とを備えたものである。 The arrival order determination device according to the present invention is a arrival order determination device that determines the arrival order when a plurality of players wear clothes of different colors, and is installed at the goal position. An image storage unit for storing the goal scene image obtained by the slit camera, and a clothing color region recognition unit for recognizing the color region of the clothing color of each player as the body of the player in the goal scene image; A goal determination target area extraction unit that extracts a goal determination target area including a specific portion of the boarding object on which the player is riding from the goal scene image based on the position of the body of the player, and the extracted goal An image matching unit that obtains the specific position coordinates of the goal determination target by matching the image of the determination target region with the reference image of the goal determination target, and the plurality of players based on the specific position coordinates obtained for the plurality of players. And an arrival order output unit that determines and outputs the arrival order of the.

この着信判定装置は、その一態様において、前記ゴールシーン画像の背景に相当する画像を前記ゴールシーン画像から生成する背景画像生成部と、前記ゴールシーン画像に基づいて各選手を含む移動体部分か否かを表す二値画像を生成する二値画像生成部と、前記ゴールシーン画像と前記二値画像とに基づいて移動体部分画像を生成するゴール判定対象領域抽出部とをさらに備え、前記着衣色領域認識部は、前記移動体部分画像に基づいて色領域を認識するようにしてもよい。 In one aspect thereof, the incoming call determination device includes a background image generation unit that generates an image corresponding to the background of the goal scene image from the goal scene image, and a moving body part including each player based on the goal scene image. The clothing further includes a binary image generation unit that generates a binary image indicating whether or not there is a goal determination target region extraction unit that generates a moving body partial image based on the goal scene image and the binary image. The color area recognition unit may recognize the color area based on the moving body partial image.

前記背景画像生成部は、その一態様として、前記ゴールシーン画像の、前記移動体部分が含まれないことが保証される1ラインの画像を複製することにより生成することができる。 As one mode thereof, the background image generation unit can generate the background scene image by copying an image of one line in which it is guaranteed that the moving body portion is not included.

前記ゴール判定対象領域抽出部は、その一態様として、前記胴体部から所定の位置関係にある所定のサイズの矩形領域を当該選手のゴール判定対象領域として定めることができる。 As one aspect of the goal determination target area extraction unit, a rectangular area of a predetermined size in a predetermined positional relationship from the body portion can be set as the goal determination target area of the player.

前記着衣色領域認識部は、その一態様として、前記ゴールシーン画像に基づいて色領域を認識することができる。 As one mode, the clothing color area recognition unit can recognize a color area based on the goal scene image.

前記着衣色領域認識部は、その一態様として、画素の色を、予め定められた着衣色判定時の許容範囲設定用パラメータに照らして当該画素の各着衣色への該当/非該当を判断し、該当すると判断された画素群からノイズを除去することができる。 As one mode thereof, the clothing color area recognition unit determines whether the pixel corresponds to each clothing color or not by comparing the color of the pixel with a predetermined parameter for setting an allowable range at the time of determining the clothing color. , Noise can be removed from the pixel group determined to be applicable.

本発明は、また、プログラムとしても把握される。このプログラムは、複数の選手がそれぞれ異なる色の着衣を装着した競技において、ゴール位置に設置されたスリットカメラにより得られたゴールシーン画像をコンピュータで画像処理することにより、当該複数の選手がゴールする際の着順判定を行うプログラムであって、コンピュータに、ゴールシーン画像に基づいて、各選手の着衣色の色領域を当該選手の胴体部として認識する工程と、選手の前記胴体部の位置に基づいて、当該選手が搭乗している搭乗物の特定部分を含むゴール判定対象領域を抽出する工程と、記抽出されたゴール判定対象領域の画像をゴール判定対象の基準画像とマッチングすることによりゴール判定対象の特定位置座標を取得する工程と、複数の選手について求められた前記特定位置座標に基づいて、当該複数の選手の着順を決定する工程とを実行させるものである。 The present invention is also understood as a program. This program uses a computer to image-process a goal scene image obtained by a slit camera installed at the goal position in a competition in which multiple players wear clothing of different colors, and the multiple players score a goal. A program for determining the order of arrival at the time, the step of recognizing the color area of the clothing color of each player as the body part of the player based on the goal scene image, and the position of the body part of the player. Based on this, a step of extracting a goal determination target area including a specific portion of the boarding object on which the player is boarding, and a goal by matching the extracted image of the goal determination target area with the reference image of the goal determination target The step of acquiring the specific position coordinates of the determination target and the step of determining the order of arrival of the plurality of players based on the specific position coordinates obtained for the plurality of players are executed.

本発明の着順判定方法、着順判定装置およびプログラムによれば、スリットカメラで取得したゴールシーン画像から競技選手の着順を高精度に自動判定することができる。 According to the arrival order determination method, the arrival order determination device, and the program of the present invention, it is possible to automatically determine the arrival order of the athlete with high accuracy from the goal scene image acquired by the slit camera.

本発明の実施形態による第1の着順判定装置の各種機能およびそれらの相互の関係を表した機能ブロック図である。It is a functional block diagram showing various functions of the 1st arrival order judging device by an embodiment of the present invention, and their mutual relation. 本発明の実施形態の第2の着順判定装置の機能ブロック図である。It is a functional block diagram of the 2nd arrival order judging device of an embodiment of the present invention. 本発明の実施形態の第3の着順判定装置の機能ブロック図である。It is a functional block diagram of the 3rd arrival order judging device of an embodiment of the present invention. 図1〜図3に示した着順判定装置の各機能ブロックを実現するためのデータ処理装置のハードウェア構成例を示すブロック図である。It is a block diagram which shows the hardware structural example of the data processing apparatus for implement|achieving each functional block of the arrival order determination apparatus shown in FIGS. 図1に示した着順判定装置の機能ブロック図の各機能を、図4に示したデータ処理装置が実行するための着順判定処理の第1のフローチャートである。5 is a first flow chart of arrival order determination processing for the data processing apparatus shown in FIG. 4 to execute each function of the functional block diagram of the arrival order determination apparatus shown in FIG. 1. 図2に示した着順判定装置の機能ブロック図の各機能を、図4に示したデータ処理装置が実行するための着順判定処理の第2のフローチャートである。4 is a second flowchart of the arrival order determination process for the data processing device illustrated in FIG. 4 to execute each function of the functional block diagram of the arrival order determination device illustrated in FIG. 2. 図3に示した着順判定装置の機能ブロック図の各機能を、図4に示したデータ処理装置が実行するための着順判定処理の第3のフローチャートである。5 is a third flowchart of the arrival order determination process for the data processing device illustrated in FIG. 4 to execute each function of the functional block diagram of the arrival order determination device illustrated in FIG. 3. 図8(a)はGS画像の例を示す図であり、図8(b)はBG画像の例を示す図である。FIG. 8A is a diagram showing an example of a GS image, and FIG. 8B is a diagram showing an example of a BG image. 図9(a)はRCnの候補画素の例を示す図であり、図9(b)はerode処理後の画像例を示す図であり、図9(c)はdilate処理後のRCnの画像例を示す図である。FIG. 9A is a diagram showing an example of RCn candidate pixels, FIG. 9B is a diagram showing an image example after the erode processing, and FIG. 9C is an image example of RCn after the dilate processing. FIG. 重心座標CCnに基づいてゴール判定対象領域HZnを設定した例を示す図である。It is a figure which shows the example which set the goal determination object area|region HZn based on the gravity center coordinate CCn. n番目の選手に対応する前方車輪の領域HZnの画像と基準画像RIとの対比の例を示す図である。It is a figure which shows the example of comparison of the image of the area|region HZn of the front wheel corresponding to the nth player, and the reference|standard image RI. 図12(a)は図8のGS画像に対応するMP画像の例を示す図であり、図12(b)は図8(a)のGS画像に対応するRB画像の例を示す図である。12A is a diagram showing an example of an MP image corresponding to the GS image of FIG. 8, and FIG. 12B is a diagram showing an example of an RB image corresponding to the GS image of FIG. 8A. .. n番目の選手に対応する前方車輪の領域HZnの画像と基準画像RIとの対比の例を示す図である。It is a figure which shows the example of comparison of the image of the area|region HZn of the front wheel corresponding to the nth player, and the reference|standard image RI.

以下、本発明の実施の形態について詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail.

従来、写真判定にはスリットカメラと呼ばれる撮影装置が利用される。スリットカメラは、ラインセンサのような撮像デバイスを用い、ゴールに対応する基準線を通過する個体を撮像して、基準線に整合するスリット状の要素毎に画像を取り込み、各要素を時間軸に沿って配列してスリットカメラ画像を合成するための装置である。 Conventionally, a photographing device called a slit camera is used for the photo determination. A slit camera uses an imaging device such as a line sensor to capture an image of an individual passing through a reference line corresponding to a goal, capture an image for each slit-shaped element that matches the reference line, and use each element as the time axis. It is an apparatus for arranging along and combining a slit camera image.

スリットカメラ画像に基づいて競技(レース)の着順判定を行うためには、ゴールしたと判断される移動体の部分すなわちゴール判定対象部分(例えば競輪やオートレースでは車両の前輪の先端部、ボートレースではボートの先端部、等)の領域をスリットカメラ画像の中から認識する必要がある。しかし、そのような移動体の部分(領域)を画像処理により直接的に分離することは必ずしも容易ではない。また、分離できたとしてもその移動体の番号が分からなければ着順の判定は行えない。上述したように、番号(数字)が着衣に表示されているとしても、必ずしもすべての番号が撮影画像に基づいて正確に認識されることは期待できない。 In order to determine the order of arrival in a competition (race) based on the slit camera image, the part of the moving body that is judged to have reached the goal, that is, the part to be judged for the goal (for example, in the case of a bicycle race or an auto race, the tip of the front wheel of the vehicle, the boat). In the race, it is necessary to recognize the area of the boat tip, etc.) from the slit camera image. However, it is not always easy to directly separate such a moving body portion (area) by image processing. Even if they can be separated, the order of arrival cannot be determined unless the number of the moving body is known. As described above, even if the numbers (numerals) are displayed on the clothing, it cannot be expected that all the numbers will be correctly recognized based on the captured image.

そこで、本願発明者は、競技に出場する選手がいわゆる勝負服として(例えば競輪等では車番毎に)互いに異なる色の衣服(例えばパーカー)を装着していることに着目した。すなわち、各選手の着衣の色(着衣色)を識別することにより、選手の着衣等に記された番号(車番、挺番等)を認識することができる。 Therefore, the inventor of the present application paid attention to the fact that the athletes participating in the competition wear clothes (for example, hoodies) of different colors as so-called competition clothes (for example, for each car number in a bicycle race etc.). That is, by identifying the color of each player's clothing (clothing color), it is possible to recognize the number (vehicle number, order number, etc.) written on the clothing of the athlete.

しかし、スリットカメラ画像内の画素の色に基づいて着衣色の領域を検出しても選手の輪郭は茫漠としたものであり、かつ、競輪等の競技ではゴール判定対象は選手自身ではなくその搭乗物である。したがって、検出された選手の領域自体に基づいて直ちに着順の判定は行えない。そこで、まずはスリットカメラ画像において、各選手の着衣色の色領域を当該選手の胴体部として認識する。これによって各選手の大凡の位置を識別できる。次いで、その選手が搭乗している搭乗物の所定の箇所すなわちゴール判定対象の特定箇所(例えば、競輪では自転車の前輪の前端部)を包含する所定のサイズおよび形状の画像領域を抽出する。搭乗物の特定箇所の位置は当該選手の胴体部と所定の位置関係にあることが既知なので、当該特定箇所を包含する画像領域を確実に切り出すことができる。さらに、この切り出された画像領域を既知の基準画像とマッチングすることにより当該ゴール判定対象の特定箇所の座標を求めることができる。このようにして得られた、各選手の当該特定箇所の座標を比較することにより、選手の番号(数字)を読みとる必要なく着順を決定することができる。 However, even if the clothing color area is detected based on the color of the pixel in the slit camera image, the contour of the player is vague, and in competitions such as bicycle races, the goal judgment target is not the player himself but the boarding target. It is a thing. Therefore, it is not possible to immediately determine the order of finish based on the detected player area itself. Therefore, first, in the slit camera image, the color region of the clothing color of each player is recognized as the body of the player. This allows the approximate position of each player to be identified. Next, an image area of a predetermined size and shape that includes a predetermined portion of the boarding object on which the athlete is riding, that is, a specific portion to be the goal determination target (for example, the front end portion of the front wheel of the bicycle in a bicycle race) is extracted. Since it is known that the position of the specific portion of the boarding object has a predetermined positional relationship with the body of the player, it is possible to reliably cut out the image region including the specific portion. Furthermore, the coordinates of the specific location of the goal determination target can be obtained by matching the cut-out image area with a known reference image. By comparing the coordinates of the specific location of each player obtained in this way, the order of arrival can be determined without having to read the number (number) of the player.

以下、このような考え方に基づく、具体的な実施形態を提示する。以下では競技の一例として競輪について説明する。 Hereinafter, specific embodiments based on such an idea will be presented. A bicycle race will be described below as an example of a competition.

<第1の着順判定装置>
図1は、本実施形態による第1の着順判定装置100aの各種機能およびそれらの相互の関係を表した機能ブロック図である。
<First arrival order determination device>
FIG. 1 is a functional block diagram showing various functions of the first arrival order determination device 100a according to the present embodiment and their mutual relationship.

この着順判定装置100aは、色採取部10、許容範囲設定用パラメータ生成部20、画像記憶部30、着衣色領域認識部70、ゴール判定対象領域抽出部80、画像マッチング部90、および着順出力部95を備えて構成される。 The wearing order determination device 100a includes a color collecting unit 10, an allowable range setting parameter generation unit 20, an image storage unit 30, a clothing color region recognition unit 70, a goal determination target region extraction unit 80, an image matching unit 90, and a wearing order. The output unit 95 is provided.

色採取部10は、競技のスタート位置に整列した当該競技の全出場選手の静止画または動画を撮影するスタート位置カメラ(図4で後述)により得られた画像を受けて、各選手の番号に対応した着衣色のデータを採取する色採取手段である。着衣色とは選手の着衣の色である。選手の着衣は例えばパーカー(フード付きの上着)である。着衣色は柄や模様のない単色(無地)であることが好ましいが、一部に地色と異なる数字などが含まれていてもよい。色分けの例としては、例えば競輪における移動体の番号(車番)と色の対応は、1:白、2:黒、3:赤、4:青、5:黄、6:緑、7:橙、8:桃、9:紫、である。 The color sampling unit 10 receives the images obtained by the start position cameras (described later in FIG. 4) that capture the still images or moving images of all the players in the competition aligned at the start position of the competition, and assigns the number to each player. It is a color sampling means for sampling the corresponding clothing color data. The clothing color is the color of the clothing of the athlete. A player's clothing is, for example, a hoodie (a jacket with a hood). The clothing color is preferably a single color (plain) without a pattern or pattern, but a part of the clothing color may be different from the background color. As an example of the color classification, for example, the correspondence between the number (vehicle number) of a moving body in a bicycle race and the color is 1: white, 2: black, 3: red, 4: blue, 5: yellow, 6: green, 7: orange. , 8: peach, 9: purple.

採取した各選手の着衣色の色データはこの例ではRGB各8bit/着衣色である。色領域の特定は自動的に行うことが好ましいが、操作者の支援(例えば当該領域内のポイントの指定)を受けて実行するものであってもよい。 In this example, the color data of the clothing color of each player collected is RGB 8 bits/clothing color in this example. The color area is preferably specified automatically, but may be executed with the support of the operator (for example, designation of points in the area).

着衣色のRGBデータは、本例では、後続の処理に好都合なデータ形式の一種であるHSVデータであるPCn(nth ParkaColor)に変換の上、後述の画像記憶部に記憶(登録)する。ここに、nは出場選手番号、PCnはn番選手のHSV着衣色を表している。また、Hは色相(Hue)、Sは彩度(Saturation)、Vは明度(Value)を表す。
PCn (Hn,Sn,Vn) (各値は16進値で00〜FF)
In this example, the clothing color RGB data is converted into PCn (nth ParkaColor), which is HSV data that is a kind of data format convenient for subsequent processing, and then stored (registered) in an image storage unit described later. Here, n represents the participating player number, and PCn represents the HSV clothing color of the nth player. Further, H represents hue (Hue), S represents saturation (V), and V represents lightness (Value).
PCn (Hn, Sn, Vn) (each value is a hexadecimal value from 00 to FF)

なお、着衣色が競技毎に変わらず、一定である場合にはスタート位置カメラによらず、予め着衣色のデータを取得して記憶しておいたものを使用してもよい。また、色データの形式は必ずしもHSVに限定するものではない。 If the clothing color does not change for each competition and is constant, the clothing color data that has been acquired and stored in advance may be used regardless of the start position camera. Further, the format of color data is not necessarily limited to HSV.

許容範囲設定用パラメータ生成部20は、スリットカメラにより得られたゴールシーンGS(Goal Scene)の画像内の各画素が各色データPCnの色に該当するか否かを判定するためのパラメータを生成する手段である。ゴールシーンGSの画像は、所定のサイズ、この例では1000 x 1000pixel、RGB各8bit/pixelの画像である。このパラメータは、着衣色判定時の許容範囲設定用パラメータであり、画像を構成する各画素に対して、各色データPCnの色に所定の幅をもたせて、その近似色も該当色として認識されるように設定する。すなわち、パラメータに照らして当該画素の各着衣色への該当/非該当が判断される。 The allowable range setting parameter generation unit 20 generates a parameter for determining whether or not each pixel in the image of the goal scene GS (Goal Scene) obtained by the slit camera corresponds to the color of each color data PCn. It is a means. The image of the goal scene GS is an image of a predetermined size, 1000 x 1000 pixels in this example, and 8 bits/pixel for each of RGB. This parameter is a parameter for setting an allowable range at the time of determining the clothing color, and for each pixel forming the image, the color of each color data PCn is given a predetermined width, and its approximate color is also recognized as the corresponding color. To set. That is, it is determined whether or not the pixel is applicable to each clothing color according to the parameter.

許容範囲設定用パラメータ生成部20の具体的な処理例については後述する。 A specific processing example of the allowable range setting parameter generation unit 20 will be described later.

画像記憶部30は、スリットカメラから出力されたスリットカメラ画像を受け付けて一時的に記憶するメモリ等の記憶手段である。 The image storage unit 30 is a storage unit such as a memory that receives and temporarily stores the slit camera image output from the slit camera.

着衣色領域認識部70は、画像内の各着衣色の領域を認識する手段であり、より具体的には、GS画像を許容範囲設定用パラメータに照らして、各着衣色(の近似色)の画素群からなる着衣色クラスタRCn(nth RacerCluster)(本例ではn番選手の着衣色の近似色を持つ領域)を生成する手段である。着衣色領域認識部70は、各着衣色クラスタRCnからその重心の座標CCnも求める。ここに、CCn(nth ClusterCenter)は、n番選手の着衣色の近似色を持つ領域の重心の座標である。この代わりに、重心は後段のゴール判定対象領域抽出部80で求めるようにしてもよい。 The clothing color area recognizing unit 70 is a means for recognizing each clothing color area in the image. More specifically, the clothing color area recognizing unit 70 compares each clothing color (approximate color) of the clothing color with the allowable range setting parameter. This is a means for generating a clothing color cluster RCn (nth RacerCluster) composed of pixel groups (in this example, a region having an approximate color to the clothing color of the nth player). The clothing color area recognition unit 70 also obtains the coordinates CCn of the center of gravity of each clothing color cluster RCn. Here, CCn (nth Cluster Center) is the coordinate of the center of gravity of the area having the approximate color of the clothing color of the nth player. Alternatively, the center of gravity may be obtained by the goal determination target area extraction unit 80 in the subsequent stage.

この処理は本例ではGS画像から直接行う。 In this example, this process is performed directly from the GS image.

ゴール判定対象領域抽出部80は、着衣色クラスタRCn(の重心座標CCn)とゴールシーンGSとに基づいて、ゴール判定対象領域HZn(nth HeadZone:本例ではn番選手の自転車の前方車輪(前輪)先端部を含む矩形領域)を抽出する手段である。より具体的には、領域HZnは、重心座標CCnを原点とした相対座標(x,y)が(A,B),(C,B),(A,D),(C,D)の4座標で囲まれる矩形領域である。ここに、x軸はゴールシーンGS画像の横(水平)方向、y軸はその縦(垂直)方向を表す。 The goal determination target area extraction unit 80 determines the goal determination target area HZn (nth HeadZone: in this example, the front wheel (front wheel) of the nth player's bicycle based on the clothing color cluster RCn (the center of gravity CCn of the clothing color cluster CCn) and the goal scene GS. ) A rectangular area including the tip). More specifically, in the region HZn, the relative coordinates (x, y) with the barycentric coordinate CCn as the origin are (A, B), (C, B), (A, D), and (C, D). It is a rectangular area surrounded by coordinates. Here, the x-axis represents the horizontal (horizontal) direction of the goal scene GS image, and the y-axis represents the vertical (vertical) direction thereof.

画像マッチング部90は、各選手のゴール判定対象領域HZnの画像と基準画像RIとを対照して、それぞれの特定位置座標WPn(nth WheelPosition)を求める手段である。ここに、特定位置座標WPnとは各選手のゴール判定対象となる画像部分の座標であり、本例ではn番選手の自転車の前方車輪先端部の位置座標(Xnh,Ynh)である。この座標は、ゴールシーンGSの矩形の左上を原点(0,0)とした絶対座標である。また、RI(ReferenceImage)は、予め用意したゴール判定対象の典型的な画像としての基準画像である。基準画像RIは、本例では自転車前方車輪の先端部を含む画像であり、例えば、前方車輪の先端側半分(または右半分または右上1/4)の画像である。この処理の具体例については後述する。 The image matching unit 90 is a unit that compares the image of the goal determination target area HZn of each player with the reference image RI and obtains each specific position coordinate WPn (nth Wheel Position). Here, the specific position coordinates WPn are the coordinates of the image portion that is the goal determination target of each player, and in this example are the position coordinates (Xnh, Ynh) of the front wheel tip of the bicycle of the nth player. These coordinates are absolute coordinates with the origin (0, 0) at the upper left of the rectangle of the goal scene GS. Further, RI (Reference Image) is a reference image as a typical image of a goal determination target prepared in advance. In this example, the reference image RI is an image including the tip of the bicycle front wheel, and is, for example, an image of the tip half of the front wheel (or the right half or the upper right ¼). A specific example of this processing will be described later.

着順出力部95は、特定位置座標WPnのX座標の大小に基づいて順序づけられた車番の列を着順として決定し、出力する部位である。 The arrival order output unit 95 is a part that determines and outputs a sequence of vehicle numbers ordered based on the magnitude of the X coordinate of the specific position coordinates WPn as the arrival order.

<第2の着順判定装置>
図2に、本実施形態の第2の着順判定装置100bの機能ブロック図を示す。図1に示したと同様の要素には同じ参照符号を付して、重複した説明は省略する。この第2の着順判定装置100bは、着順判定装置100aの構成要素に加えて、さらに、背景画像生成部40、二値画像生成部50を備えている。
<Second arrival order determination device>
FIG. 2 shows a functional block diagram of the second arrival order determination device 100b of the present embodiment. The same elements as those shown in FIG. 1 are designated by the same reference numerals, and duplicated description will be omitted. The second arrival order determination device 100b further includes a background image generation unit 40 and a binary image generation unit 50 in addition to the constituent elements of the arrival order determination device 100a.

背景画像生成部40は、画像記憶部30から得られたGS画像(スリットカメラ画像)に基づいて、GS画像の背景に相当する背景画像BG(BackGround)を生成する手段である。この背景画像BGは、例えば、ゴールシーンGSの先頭(通常右端)の1画素分の縦領域(1ライン)を後側へ必要数だけ複製することにより生成された、ゴールシーンGSと同サイズの画像である。複製の元となる1ラインはゴールシーンGSの先頭としたが、移動体が含まれないことが保証されるラインであれば先頭でなくてもよい。 The background image generation unit 40 is means for generating a background image BG (BackGround) corresponding to the background of the GS image, based on the GS image (slit camera image) obtained from the image storage unit 30. This background image BG has the same size as the goal scene GS, for example, generated by duplicating a required vertical region (1 line) of one pixel at the beginning (usually the right end) of the goal scene GS to the rear side. It is an image. Although one line that is the source of the duplication is the head of the goal scene GS, it may not be the head as long as it is a line that does not include a moving object.

二値画像生成部50は、GS画像内に存在する移動体部分MP(MovingPart)の領域をGS画像から分離した二値画像を生成する手段である。移動体部分MPとは、背景に対する前景であって、競技において移動する部分であり、例えば競輪の場合には選手と自転車とを合体した領域である。本例で得られるMP画像は、移動体部分MPが存在する領域を「真("1")」、存在しない領域を「偽("0")」とする二値画像であり、ゴールシーンGSと背景BGが不一致となる画素群で構成される。 The binary image generation unit 50 is a unit that generates a binary image by separating the area of the moving body part MP (MovingPart) existing in the GS image from the GS image. The moving body portion MP is a foreground with respect to the background and is a portion that moves in the competition. For example, in the case of a bicycle race, it is an area where a player and a bicycle are combined. The MP image obtained in this example is a binary image in which the area where the moving body part MP exists is “true (“1”)” and the area where it does not exist is “false (“0”)”. And the background BG are inconsistent.

この第2の着順判定装置100bでは、ゴール判定対象領域抽出部80は、ゴールシーンGSの画像に代えた二値画像であるMP画像と、着衣色クラスタRCn(の重心座標CCn)とに基づいて、ゴール判定対象領域HZn(本例ではn番選手の自転車の前方車輪先端部を含む矩形領域)を抽出する。また、第2の着順判定装置100bにおいて、好ましくは、画像マッチング部90で用いる基準画像RIは二値画像とする。他の構成は第1の着順判定装置100aと同様である。 In the second wearing order determination device 100b, the goal determination target area extraction unit 80 is based on the MP image, which is a binary image in place of the image of the goal scene GS, and the clothing color cluster RCn (the barycentric coordinate CCn of the clothing color cluster RCn). Then, the goal determination target region HZn (in this example, a rectangular region including the front wheel tip of the nth player's bicycle) is extracted. Further, in the second arrival order determination device 100b, preferably, the reference image RI used in the image matching unit 90 is a binary image. Other configurations are similar to those of the first arrival order determination device 100a.

<第3の着順判定装置>
図3に、本実施形態の第3の着順判定装置100cの機能ブロック図を示す。図1、図2に示したと同様の要素には同じ参照符号を付して、重複した説明は省略する。この第3の着順判定装置100cは、第2の着順判定装置100bの構成要素に対して、さらに、移動体部分画像生成部60を備えている。
<Third arrival order determination device>
FIG. 3 shows a functional block diagram of the third arrival order determination apparatus 100c of this embodiment. The same elements as those shown in FIGS. 1 and 2 are designated by the same reference numerals, and the duplicated description will be omitted. The third arrival order determination device 100c further includes a moving body partial image generation unit 60 in addition to the constituent elements of the second arrival order determination device 100b.

移動体部分画像生成部60は、GS画像とMP画像とに基づいて、ゴールシーンGS中の移動体部分のみ切り抜いた移動体部分画像RB(Racer+Bicycle)を生成する手段である。換言すれば、GS画像をMP画像でマスクすることにより、GS画像から移動体部分画像RBを切り出した画像が生成される。 The moving body partial image generation unit 60 is means for generating a moving body partial image RB (Racer+Bicicle) in which only the moving body portion in the goal scene GS is cut out based on the GS image and the MP image. In other words, by masking the GS image with the MP image, an image obtained by cutting out the moving body partial image RB from the GS image is generated.

MP画像とRB画像は互いに類似しているが、MP画像は白黒の二値画像であるのに対して、RB画像はカラー画像である点で異なる。 Although the MP image and the RB image are similar to each other, the MP image is a monochrome binary image, whereas the RB image is a color image.

この第3の着順判定装置100cでは、着衣色領域認識部70は、ゴールシーンGS画像に代えて、移動体部分画像生成部60の出力する移動体部分画像RBを受けて着衣色クラスタRCn(の重心座標CCn)の生成を行う。この処理では、GS画像から背景画像を除去したRB画像に基づいて行うことにより、その処理精度を向上させることができる。 In the third wearing order determination device 100c, the clothing color area recognition unit 70 receives the moving body partial image RB output from the moving body partial image generating unit 60 instead of the goal scene GS image, and receives the clothing color cluster RCn(. The center of gravity coordinates CCn) of the are generated. By performing this processing based on the RB image in which the background image is removed from the GS image, the processing accuracy can be improved.

また、第3の着信判定装置100cでは、ゴール判定対象領域抽出部80は、着衣色クラスタRCn(の重心座標CCn)とともに入力する画像として、ゴールシーンGSまたは二値画像MPを用いる。ゴールシーンGSを用いる場合には、好ましくは画像マッチング部90で用いる基準画像RIはカラー画像とする。二値画像MPを用いる場合には、好ましくは画像マッチング部90で用いる基準画像RIは二値画像とする。他の構成は着順判定装置100bと同様である。 Further, in the third incoming call determination device 100c, the goal determination target area extraction unit 80 uses the goal scene GS or the binary image MP as an image to be input together with (the center of gravity coordinates CCn of the clothing color cluster RCn). When using the goal scene GS, the reference image RI used in the image matching unit 90 is preferably a color image. When using the binary image MP, the reference image RI used in the image matching unit 90 is preferably a binary image. Other configurations are the same as those of the arrival order determination device 100b.

<ハードウェア構成例>
図4は、本実施形態の図1〜図3に示した着順判定装置100a〜100cの各機能ブロックを実現するためのデータ処理装置200のハードウェア構成例を示す。
<Hardware configuration example>
FIG. 4 shows a hardware configuration example of the data processing device 200 for realizing each functional block of the arrival order determination devices 100a to 100c shown in FIGS. 1 to 3 of the present embodiment.

データ処理装置200はコンピュータに相当し、典型的には、中央処理装置(CPU)210、メモリ220、表示制御部230、ストレージ250、入力インタフェース(I/F)部260を備える。中央処理装置(CPU)210は、バス205を介して、データ処理装置200の各部を制御し、その動作を司るプロセッサである。メモリ220は、CPUの実行するオペレーティングシステム(OS)やプログラムやデータを格納する領域221,223およびワーク領域225を含む記憶デバイス(記憶手段)である。図1〜図3に示した画像記憶部30はメモリ220により構成しうる。表示制御部230は、CPU210の制御下で画像や映像、テキスト等の表示情報を表示部310の表示画面上に表示する表示制御手段である。ストレージ250は、プログラムやデータ等を不揮発的に記憶する大容量の記憶手段である。入力インタフェース(I/F)部260は、外部の入力装置をバス205に接続する手段であり、この例では、ゴール地点に設置されるスリットカメラ320、スタート位置に設置される、静止画または動画を撮像するカメラ330、および操作者の操作を受け付ける操作部340が接続される。入力インタフェース部260に代えて、または加えて、通信インタフェース部を備えてもよい。 The data processing device 200 corresponds to a computer, and typically includes a central processing unit (CPU) 210, a memory 220, a display control unit 230, a storage 250, and an input interface (I/F) unit 260. The central processing unit (CPU) 210 is a processor that controls each unit of the data processing device 200 via the bus 205 and controls its operation. The memory 220 is a storage device (storage unit) including areas 221 and 223 for storing an operating system (OS) executed by the CPU, programs and data, and a work area 225. The image storage unit 30 shown in FIGS. 1 to 3 can be configured by the memory 220. The display control unit 230 is a display control unit that displays display information such as an image, video, and text on the display screen of the display unit 310 under the control of the CPU 210. The storage 250 is a large-capacity storage unit that stores programs and data in a nonvolatile manner. The input interface (I/F) unit 260 is a means for connecting an external input device to the bus 205, and in this example, a slit camera 320 installed at a goal point, a still image or a moving image installed at a start position. A camera 330 for picking up an image and an operation unit 340 for accepting an operation of an operator are connected. A communication interface unit may be provided instead of or in addition to the input interface unit 260.

<第1のフローチャート>
図5は、図1に示した着順判定装置100aの機能ブロック図の各機能を、図4に示したデータ処理装置200が実行するための着順判定処理の第1のフローチャートである。以下、競輪を例として画像例を挙げて説明する。
<First flowchart>
FIG. 5 is a first flowchart of the arrival order determination process for the data processing apparatus 200 illustrated in FIG. 4 to execute each function of the functional block diagram of the arrival order determination device 100a illustrated in FIG. Hereinafter, an example of an image will be described by taking a bicycle race as an example.

この処理は競技開始時に起動され、まず、スタート位置(所定整列位置)に設置されたカメラ330の撮像画像に基づいて、競技に参加している各選手の着衣色PCnを採取する(S1)。この工程は図1に示した色採取部10の動作に対応する。上述したように、固定の着衣色PCnを用いる場合には、この工程S1および次の工程S2は省略することができる。 This process is started at the start of the competition, and first, the clothing color PCn of each athlete participating in the competition is collected based on the image captured by the camera 330 installed at the start position (predetermined alignment position) (S1). This step corresponds to the operation of the color sampling unit 10 shown in FIG. As described above, when the fixed clothing color PCn is used, this step S1 and the next step S2 can be omitted.

次いで、各選手の着衣色PCnの近似色と判断できる許容範囲を設定する(S2)。この工程は、図1に示した許容範囲設定用パラメータ生成部20の動作に対応する。 Next, a permissible range in which it can be determined that the color is close to the clothing color PCn of each player is set (S2). This step corresponds to the operation of the allowable range setting parameter generation unit 20 shown in FIG.

例えば、各選手の着衣色PCnの近似色と判断できる許容範囲の設定の具体例は次のとおりである。 For example, the following is a specific example of the setting of the permissible range in which it can be determined that the clothing color PCn of each player is an approximate color.

まず、PCnの測定値から同色判定のための閾値(PCn max, Cn min)を次式により決定する。
PCn max = [Hn + Δh, Sn + Δs, Vn + Δv]
PCn min = [Hn - Δh', Sn - Δs', Vn - Δv']
Δh,Δh'は狭く、Δs,Δs'、Δv,Δv'は広く設定しておく。
First, the thresholds (PCn max, Cn min) for determining the same color are determined from the measured values of PCn by the following equation.
PCn max = [Hn + Δh, Sn + Δs, Vn + Δv]
PCn min = [Hn-Δh', Sn-Δs', Vn-Δv']
Δh and Δh′ are set narrow, and Δs, Δs′, Δv and Δv′ are set wide.

これらのパラメータは次段階での各選手の位置検出に使用するが、PCn max、PCn minの適正な設定により、天候変化、光源変化、陰影などの外乱への耐性を得ることができる。 These parameters are used to detect the position of each player in the next stage, but by appropriately setting PCn max and PCn min, it is possible to obtain resistance to disturbances such as weather changes, light source changes, and shadows.

なお、許容範囲を定める各Δ値は各色域のヒストグラムからを定めることができる。好ましくは、Δh,Δh'は狭く、Δs,Δs'、Δv,Δv'は広く設定する。これにより、着衣色の誤検出の可能性を低減する効果が期待される。例えば、Δh,Δh'はヒストグラムのピークから上下1σ程度、Δs,Δs'、Δv,Δv'は上下2σ程度を許容範囲とする。ΔhとΔh'とは同じ値であってもよいし、若干異なる値であってもよい。ΔsとΔs'、ΔvとΔv'についても同様である。また、彩度Sを所定の閾値で判定し、彩度Sが当該閾値より小さいとき、色相Hの許容範囲をより広く取り、着衣色が白及び黒の場合の判定精度を向上させるようにしてもよい。 Each Δ value that defines the allowable range can be determined from the histogram of each color gamut. Preferably, Δh and Δh′ are set narrow, and Δs, Δs′, Δv and Δv′ are set wide. This is expected to have the effect of reducing the possibility of false detection of clothing color. For example, Δh and Δh′ are about 1σ above and below the peak of the histogram, and Δs, Δs′, Δv and Δv′ are about 2σ above and below the allowable range. Δh and Δh′ may be the same value or may be slightly different values. The same applies to Δs and Δs′ and Δv and Δv′. Further, the saturation S is determined by a predetermined threshold value, and when the saturation S is smaller than the threshold value, the allowable range of the hue H is widened to improve the determination accuracy when the clothing color is white and black. Good.

その後、スリットカメラ320から得られたGS画像を取得し、画像記憶部30に保存する(S3)。図8(a)にGS画像の例を示す。 After that, the GS image obtained from the slit camera 320 is acquired and stored in the image storage unit 30 (S3). FIG. 8A shows an example of the GS image.

次いで、各選手の着衣色クラスタRCn(およびその重心座標CCn)をゴールシーンGSから抽出する(S7)。この処理は、erode/dilate後に最大の連続領域を抽出する手法によってもよいし、この代わりに、Blur処理に続き二値化処理をした後の最大の連続領域を抽出する手法によってもよい。この工程は図1に示した着衣色領域認識部70の処理に対応する。 Next, the clothing color cluster RCn (and its barycentric coordinate CCn) of each player is extracted from the goal scene GS (S7). This processing may be performed by a method of extracting the maximum continuous area after erod/dilate, or alternatively, a method of extracting the maximum continuous area after the binarization processing after the Blur processing. This step corresponds to the processing of the clothing color area recognition unit 70 shown in FIG.

erode処理とは、モルフォロジー処理の一種で、画像中の白色雑音(ノイズ)を除去したり連結している複数の物体を分割したりするために行われる収縮処理である。dilate処理とは、モルフォロジー処理の一種で、収縮処理と逆に前景物体のサイズを増加させる膨張処理である。erode処理と組み合わせて用いることにより、ノイズの除去を効果的に行うことが可能となる。 The erode process is a kind of morphology process, and is a contraction process performed to remove white noise (noise) in an image or to divide a plurality of connected objects. Dilate processing is a kind of morphology processing, and is expansion processing that increases the size of the foreground object, contrary to contraction processing. By using it in combination with the erode process, it becomes possible to effectively remove noise.

Blur処理とは、画像をぼかすための処理であり、ノイズ除去に利用できる。例えば、二値画像にblur処理をかけた上、閾値を設けて再度二値化することにより離散した微小領域が激減し、二値化後の画像中の連続した最大領域を求めることが容易になる。erode/dilate処理やBlur処理によれば、演算負荷の削減と、対象とする着衣色クラスタRCnに属さない領域を誤認することを避ける効果がある。 The Blur process is a process for blurring an image and can be used for noise removal. For example, the binary image is subjected to blur processing, and then a threshold value is set to perform binarization again to drastically reduce discrete minute areas, and it is easy to obtain a continuous maximum area in the binarized image. Become. According to the erode/dilate processing and the Blur processing, it is possible to reduce the calculation load and avoid erroneously recognizing a region that does not belong to the target clothing color cluster RCn.

以下に、工程S7の具体例を示す。 Below, the specific example of process S7 is shown.

(erode/dilate後に最大の連続領域を抽出する場合)
ゴールシーンGSの各画素の色(HSV値)が上記閾値(上下限値)の範囲内に入る場合、これらの画素を個々の着衣色クラスタRCnに属する画素点とし、各着衣色クラスタに属する点群の重心位置を求める。ただし閾値内に入る画素が本来対応する選手の位置以外にも存在し得るため、n個からなる各着衣色クラスタRCnの画像を3〜8画素分erode処理し、さらに同量のdilate処理をした上、重心(の座標)を求める。これを全ての着衣色クラスタに対して行う。
(When extracting the largest continuous area after erode/dilate)
When the color (HSV value) of each pixel of the goal scene GS falls within the range of the above threshold value (upper and lower limit values), these pixels are set as pixel points belonging to each clothing color cluster RCn, and points belonging to each clothing color cluster. Find the center of gravity of the group. However, since pixels that fall within the threshold value may exist at positions other than the position of the corresponding player, the image of each clothing color cluster RCn consisting of n pieces is subjected to 3-8 pixel erode processing, and further the same amount of dilate processing is performed. Top, the center of gravity (coordinates) is calculated. Do this for all clothing color clusters.

なお、かなり近似した着衣色がある場合、個別分離が困難な場合がありうる。このような場合、erode/dilate処理をしても1つの着衣色クラスタに属する点群が複数個残りうる。このような問題を回避するため各着衣色クラスタに属する点群は連続した領域でかつ最も面積の最も広いもののみに絞る処理を行うようにしてもよい。(例えば、OpenCVのcv2.connectedComponents()などで連続領域を抽出後最大のものを選択する。) In addition, when there are clothes colors that are quite similar to each other, it may be difficult to separate them individually. In such a case, even if erode/dilate processing is performed, a plurality of point groups belonging to one clothing color cluster may remain. In order to avoid such a problem, the point group belonging to each clothing color cluster may be subjected to a process of narrowing it down to a continuous region having the widest area. (For example, the largest one is selected after extracting a continuous region with cv2.connectedComponents() of OpenCV.)

(Blur処理後に最大の連続領域を抽出する場合)
上記のerode/dilate処理を行わず、各着衣色クラスタRCnに属する点群として、連続した領域でかつ最も面積の最も広いものを選択する処理を行う。各着衣色クラスタRCn毎に選択された領域の重心の座標CCnを求める。(OpenCVのcv2.connectedComponents()など)
(When extracting the largest continuous region after Blur processing)
The point group belonging to each clothing color cluster RCn is selected as the point group belonging to each clothing color cluster RCn without performing the above-mentioned eode/dilate processing. The coordinates CCn of the center of gravity of the selected area are obtained for each clothing color cluster RCn. (OpenCV cv2.connectedComponents() etc.)

図9(a)に着衣色クラスタRCnの候補画素の例を示し、図9(b)にerode処理後の画像例、図9(c)にdilate処理後のRCnの画像例を示す。図9(a)〜(c)の画像を対比すると、図9(b)の画像では図9(a)の画像内のノイズが軽減され、一旦縮小した主要領域が図9(c)で復元していることが分かる。 FIG. 9A shows an example of candidate pixels of the clothing color cluster RCn, FIG. 9B shows an image example after eode processing, and FIG. 9C shows an image example of RCn after dilate processing. When the images of FIGS. 9A to 9C are compared with each other, noise in the image of FIG. 9A is reduced in the image of FIG. 9B, and the once reduced main region is restored in FIG. 9C. You can see that

次いで、ゴール判定対象領域HZnの画像、すなわち各選手の車両の前方車輪先端部が含まれる領域HZn画像の抽出を行う(S8)。この抽出元としては、本例ではGS画像を使用する。この工程は図1に示したゴール判定対象領域抽出部80の処理に対応する。 Next, an image of the goal determination target area HZn, that is, an area HZn image including the front wheel tip of each player's vehicle is extracted (S8). In this example, a GS image is used as the extraction source. This step corresponds to the processing of the goal determination target area extraction unit 80 shown in FIG.

以下に具体例を示す。 Specific examples are shown below.

各着衣色クラスタRCnの重心座標CCnを(Xn,Yn)とし、(Xn+A,Yn+B),(Xn+C,Yn+B),(Xn+A,Yn+D),(Xn+C,Yn+D)で囲まれた領域HZnをゴールシーンGSからクロップする(切り出す)。この矩形領域HZnを各選手の前方車輪先端部が確実に含まれる領域とすべく変数A,B,C,Dの値を選定する。変数A,B,C,Dの値の例としてはそれぞれ30,30,100,110前後が挙げられる(ゴールシーンGSが1000 x 1000pixel 画像の場合)。 A barycenter coordinate CCn of each clothing color cluster RCn is (Xn, Yn), and a region HZn surrounded by (Xn+A, Yn+B), (Xn+C, Yn+B), (Xn+A, Yn+D), (Xn+C, Yn+D) is the goal scene GS. Crop (cut out) from. The values of the variables A, B, C, D are selected so that this rectangular area HZn is an area in which the front wheel tip of each player is surely included. Examples of the values of the variables A, B, C, and D are around 30, 30, 100, and 110 (when the goal scene GS is a 1000 x 1000 pixel image).

図10に、重心座標CCnに基づいてゴール判定対象領域HZnを設定した例を示す。 FIG. 10 shows an example in which the goal determination target area HZn is set based on the barycentric coordinates CCn.

次いで、各ゴール判定対象領域HZnの画像を基準画像RIと対照する画像マッチングを行い、特定位置座標Wpn(Xnh,Ynh)を求める(S9)。この処理は、伸縮テンプレートマッチングによるものであってもよいし、特徴量マッチングによるものであってもよい。この工程は図2に示した画像マッチング部90の処理に対応する。 Next, image matching is performed by comparing the image of each goal determination target region HZn with the reference image RI to obtain the specific position coordinates Wpn(Xnh, Ynh) (S9). This processing may be based on expansion/contraction template matching or may be based on feature amount matching. This step corresponds to the processing of the image matching unit 90 shown in FIG.

以下に具体例を示す。 Specific examples are shown below.

(伸縮テンプレートマッチングによる前方車輪先端部の位置取得の場合)
AKAZEなどの特徴量を使用せず、基準画像RIをテンプレートとし、前方車輪先端部を含む領域HZnの画像に対しテンプレートマッチングを行うことにより前方車輪先端部の絶対位置(Xnh,Ynh)を特定する。そのために、まずは、HZn画像内において基準画像RIに対応する画像領域を求める。基準画像RIを定める段階で基準画像RIの枠内での車輪先端位置が既知なので、基準画像RIに対応するHZn画像内の画像枠が定まれば両画像の写像関係からHZn画像内の車輪先端部の位置が定まる。
(When acquiring the position of the front wheel tip by expansion/contraction template matching)
The absolute position (Xnh, Ynh) of the front wheel tip portion is specified by performing template matching on the image of the region HZn including the front wheel tip portion using the reference image RI as a template without using a feature amount such as AKAZE. .. For that purpose, first, an image region corresponding to the reference image RI in the HZn image is obtained. Since the wheel tip position within the frame of the reference image RI is known at the stage of defining the reference image RI, if the image frame in the HZn image corresponding to the reference image RI is determined, the wheel tip in the HZn image is determined from the mapping relationship between both images. The position of the section is determined.

より具体的には、基準画像RIとHZn画像内のRIと同形の領域(とりあえずZとする)を比較しながらHZn全域をカバーするまで領域Zを順次移動させて最も近似度が高い移動位置(対応する各画素値の2乗誤差の和が最小となる位置)を見つける。その後、領域HZn内で基準画像RIとのマッチング(相互相関の極大点)が取れた点と領域HZnの左上角点(この領域内の原点)との距離が得られる。この距離ベクトルを(Xnc,Ync)とすると、前方車輪先端部の絶対位置(Xnh,Ynh)は(Xn+A+Xnc,Yn+B+Ync)となる。この絶対位置は基準画像RIとの関係で得られる数値であって車輪先端部のX位置そのものではない(正確にはRIとマッチングが取れたX位置に、画像RIの左端と画像RI内の車輪右端までの距離を加えたものである)。但し、全選手間の相対的な位置関係は上記(Xn+A+Xnc,Yn+B+Ync)で表現されているため、これに基づいて着順は決定できる。 More specifically, while comparing the reference image RI and a region of the same shape as RI in the HZn image (for the time being referred to as Z), the region Z is sequentially moved until the entire region of HZn is covered, and the moving position with the highest degree of approximation ( Find the position where the sum of the squared errors of the corresponding pixel values is the minimum). Then, the distance between the point in the region HZn where the matching with the reference image RI (maximum cross-correlation point) is obtained and the upper left corner point of the region HZn (the origin in this region) is obtained. When this distance vector is (Xnc, Ync), the absolute position (Xnh, Ynh) of the front wheel tip portion is (Xn+A+Xnc, Yn+B+Ync). This absolute position is a numerical value obtained in relation to the reference image RI and is not the X position itself of the wheel tip portion (to be exact, at the X position that matches RI, the left end of the image RI and the wheels in the image RI). It is the sum of the distance to the right edge). However, since the relative positional relationship among all the players is expressed by the above (Xn+A+Xnc, Yn+B+Ync), the order of finish can be determined based on this.

テンプレートマッチングの回転脆弱性はこの場合問題にならないが、選手間の距離差を考慮する必要があるためスケーリング耐性を追加する。すなわち、各選手の前方車輪先端部を含む領域画像HZnについて、スケールファクタを変えてスケーリング(伸縮)しながら基準画像RIとテンプレートマッチングを行って車輪先端位置を特定し、各選手間の相互比較を行って着順を判定する。HZnをスケーリングしながら上記の処理を繰り返し、画像RIと領域Zの近似度が最も高いスケーリングファクタ時の移動位置と当該スケーリングファクタから目的の座標を得る。 The rotation vulnerability of template matching is not a problem in this case, but scaling tolerance is added because it is necessary to consider the distance difference between players. That is, with respect to the region image HZn including the front wheel tip of each player, the wheel tip position is specified by performing template matching with the reference image RI while scaling (expanding and contracting) by changing the scale factor, and the mutual comparison between the players is performed. Go and determine the order of arrival. The above process is repeated while scaling HZn, and the target coordinates are obtained from the moving position and the scaling factor when the image RI and the region Z have the highest degree of approximation.

図11に、n番目の選手に対応する前方車輪の領域HZnの画像と基準画像RIとの対比の例を示す。本例の基準画像RIは前方車輪のほぼ右前1/4の領域を含む矩形領域の画像である。本例の領域HZnの画像はGS画像から得たものである。図中、HZn画像中、基準画像RIに対応する画像部分として検出された領域が枠Fで示されている。前方車輪の下部が手前の選手により遮られる場合があり、「右上1/4」とすることにより、そのような場合の誤判定を避けることができるという効果が得られる。 FIG. 11 shows an example of comparison between the image of the front wheel region HZn corresponding to the nth player and the reference image RI. The reference image RI of the present example is an image of a rectangular area including a substantially right front quarter of the front wheel. The image of the region HZn in this example is obtained from the GS image. In the figure, in the HZn image, a region F detected as an image portion corresponding to the reference image RI is shown by a frame F. The lower part of the front wheel may be obstructed by the player in front, and by setting "upper right 1/4", it is possible to avoid the erroneous determination in such a case.

(特徴量マッチングによる前方車輪先端部の位置取得の場合)
特徴量としては、例えば、AKAZE、SIFT、またはORBを使用することができる。本例では、基準画像RIとして、例えば自転車前方車輪の右上1/4が含まれた画像とする。いずれにせよ、基準画像RIは、前方車輪先端部を含むものであって、適正なマッチングが行われることを保証するサイズであれば足りる。各選手の自転車の前方車輪先端部を含む矩形領域HZn毎に基準画像RIとの特徴量マッチングを行い両方の画像から対応する点群を抽出する。より具体的には、基準画像RIから抽出した特徴点とHZn画像から抽出した特徴点をそれぞれの特徴量で比較し、十分な対応点が得られたら基準画像RIと前方車輪先端部領域HZn内で一定以上近接した点群同士の射影変換、すなわち基準画像RIと前方車輪先端部領域HZnの画像への変換行列を求める(例えばOpenCVのcv2.findHomography()などにより)。この行列と、各着衣色クラスタRCnの重心座標CCn(Xn,Yn)に基づいて、当該車両の前方車輪先端部の絶対位置(Xnh,Ynh)を特定する。このようにして、矩形領域HZn内の、基準画像RIに最も適合する領域を特定し、前方車輪先端部の絶対位置の座標のx成分を求める。
(When acquiring the position of the front wheel tip by feature amount matching)
As the feature amount, for example, AKAZE, SIFT, or ORB can be used. In this example, the reference image RI is, for example, an image including the upper right quarter of the front wheel of the bicycle. In any case, the reference image RI is sufficient as long as it includes the front wheel tip portion and ensures that proper matching is performed. The feature amount matching with the reference image RI is performed for each rectangular region HZn including the front wheel tip of each athlete's bicycle, and the corresponding point cloud is extracted from both images. More specifically, the feature points extracted from the reference image RI and the feature points extracted from the HZn image are compared with each other, and when sufficient corresponding points are obtained, the reference image RI and the front wheel tip region HZn are compared. At, a projective transformation of point groups that are close to each other by a certain amount or more, that is, a transformation matrix into an image of the reference image RI and the front wheel tip region HZn is obtained (for example, by cv2.findHomography() of OpenCV). The absolute position (Xnh, Ynh) of the front wheel tip portion of the vehicle is specified based on this matrix and the barycentric coordinates CCn (Xn, Yn) of each clothing color cluster RCn. In this way, the region that best fits the reference image RI within the rectangular region HZn is specified, and the x component of the coordinates of the absolute position of the front wheel tip is determined.

最後に、各選手の順位(着順)を決定し、出力する(S10)。具体的には、各選手の順位をXnhの降順で番号を振る。着順の出力の態様としては、表示部310へのテキストおよび/またはイメージによる表示、通信インタフェース部を介して外部へのデータ出力があり得る。この工程は図1に示した着順出力部95の処理に相当する。 Finally, the ranking (order of arrival) of each player is determined and output (S10). Specifically, the rank of each player is numbered in descending order of Xnh. The output mode of the order of arrival may include displaying text and/or images on the display unit 310 and outputting data to the outside via the communication interface unit. This step corresponds to the processing of the arrival order output unit 95 shown in FIG.

なお、上記各工程の実行順序は支障のない範囲で前後しても構わない。また、前方車輪最先端部が手前の選手によって完全に隠れてしまう等、ゴールシーンGS内に得られたいずれかの矩形領域HZnについて基準画像RIとの画像マッチングが成功しない場合が生じうる。このような問題に対しては、ゴール位置のスリットカメラと反対側にミラーを設け、ミラーに写った反射画像についてもスリットカメラ画像を得て上記と同様の処理を並行して実行し、非反射画像の処理結果を補うことが可能である。本実施形態では画像中の数字を認識する訳ではないので、画像が反転しても特に問題はない。また、スリットカメラから見て、ミラーは選手の裏側の像を写すので、基準画像RIは同じものを利用可能である。反転画像と非反転画像の両方で画像マッチングが成功して両者の着順判定結果が異なる場合には着順判定装置のオペレータ等にその旨を告知する手段を備えてもよい。ミラーの代わりに別個のスリットカメラを設けて、このスリットカメラの出力に対して上記と同様の処理を変更に実行してもよい。この場合、基準画像RIを反転するか、またはスリットカメラの出力画像を反転する。 In addition, the order of performing the above-described steps may be changed before or after the step does not hinder. Further, there may be a case where the image matching with the reference image RI does not succeed for any of the rectangular regions HZn obtained in the goal scene GS, for example, the frontmost part of the front wheels is completely hidden by the player in front. To solve this problem, a mirror is provided on the opposite side of the slit camera at the goal position, the slit camera image is obtained for the reflection image reflected on the mirror, the same processing as above is executed in parallel, and the non-reflection It is possible to supplement the image processing result. In this embodiment, since the numbers in the image are not recognized, there is no particular problem even if the image is reversed. Further, as seen from the slit camera, the mirror shows an image of the back side of the player, so that the same reference image RI can be used. When image matching is successful for both the reversed image and the non-reversed image and the arrival order determination results of the both are different, a means for notifying the operator of the arrival order determination device or the like may be provided. A separate slit camera may be provided instead of the mirror, and the same processing as the above may be changed for the output of this slit camera. In this case, the reference image RI is inverted or the output image of the slit camera is inverted.

<第2のフローチャート>
図6は、図2に示した着順判定装置100bの機能ブロック図の各機能を、図4に示したデータ処理装置200が実行するための着順判定処理の第2のフローチャートを示す。図1に示した工程と同様の工程には同じ参照符号を付し、重複した説明は省略する。
<Second flowchart>
FIG. 6 shows a second flowchart of the arrival order determination process for the data processing apparatus 200 shown in FIG. 4 to execute each function of the functional block diagram of the arrival order determination device 100b shown in FIG. The same steps as those shown in FIG. 1 are designated by the same reference numerals, and the duplicated description will be omitted.

この第2のフローチャートでは、工程S3の後、GS画像の背景画像BGを生成する(S4)。具体的には、上述のとおり、スリットカメラ画像の最初の縦ラインを横方向に複製した画像を作り背景BGとする。図8(b)にBG画像の例を示す。この工程は図2に示した背景画像生成部40の動作に対応する。 In the second flowchart, after step S3, the background image BG of the GS image is generated (S4). Specifically, as described above, an image in which the first vertical line of the slit camera image is duplicated in the horizontal direction is created and used as the background BG. FIG. 8B shows an example of a BG image. This step corresponds to the operation of the background image generation unit 40 shown in FIG.

次いで、ゴールシーンGS画像から移動体部分(選手+自転車)を分離した二値画像MPを生成する(S5)。この工程は図2に示した二値画像生成部50の動作に対応する。図12(a)に、図8のGS画像に対応するMP画像の例を示す。 Next, a binary image MP in which the moving body part (player+bicycle) is separated from the goal scene GS image is generated (S5). This step corresponds to the operation of the binary image generation unit 50 shown in FIG. FIG. 12A shows an example of an MP image corresponding to the GS image of FIG.

この工程S5の後、工程S7を介して工程S8へ移行する。 After this step S5, the process proceeds to step S8 via step S7.

本例の工程S8では、各着衣色クラスタRCnの重心座標CCnに基づいて領域HZnをMP画像からクロップする。領域HZnのサイズを定める変数A,B,C,Dについては上記のとおりである。 In step S8 of this example, the region HZn is cropped from the MP image based on the barycentric coordinates CCn of each clothing color cluster RCn. The variables A, B, C and D that determine the size of the region HZn are as described above.

図13に、n番目の選手に対応する前方車輪の領域HZnの画像と基準画像RIとの対比の例を示す。本例では、この基準画像RIは前方車輪のほぼ前方半分の領域を含む矩形領域の二値画像である。本例の領域HZnの画像はMP画像から得たものである。他の工程については、図5の第1のフローチャートと同じである。 FIG. 13 shows an example of a comparison between the image of the front wheel region HZn corresponding to the nth player and the reference image RI. In the present example, the reference image RI is a binary image of a rectangular area including a substantially front half area of the front wheel. The image of the region HZn in this example is obtained from the MP image. Other steps are the same as those in the first flowchart of FIG.

<第3のフローチャート>
図7は、図3に示した着順判定装置100cの機能ブロック図の各機能を、図4に示したデータ処理装置200が実行するための着順判定処理の第3のフローチャートを示す。図1、図2に示した工程と同様の工程には同じ参照符号を付し、重複した説明は省略する。
<Third flowchart>
FIG. 7 shows a third flowchart of the arrival order determination process for the data processing apparatus 200 shown in FIG. 4 to execute each function of the functional block diagram of the arrival order determination device 100c shown in FIG. The same steps as those shown in FIGS. 1 and 2 are designated by the same reference numerals, and a duplicate description will be omitted.

この第3のフローチャートでは、第2のフローチャートの工程S5の後に、ゴールシーンGSと移動体部分の二値画像MP(選手+自転車)とに基づいて、移動体部分画像RBを生成する(S6)。換言すれば、GS画像をMP画像でマスクし、GS画像から移動体部分画像RBを生成する。この工程は図3に示した移動体部分画像生成部60の処理に対応する。図12(b)に、図8(a)のGS画像に対応するRB画像の例を示す。 In the third flowchart, after the step S5 of the second flowchart, the moving body partial image RB is generated based on the goal scene GS and the binary image MP (player + bicycle) of the moving body portion (S6). .. In other words, the GS image is masked with the MP image, and the moving body partial image RB is generated from the GS image. This step corresponds to the process of the moving body partial image generating unit 60 shown in FIG. FIG. 12B shows an example of an RB image corresponding to the GS image of FIG. 8A.

なお、この工程の処理は、全画素の比較によってもよいし、所定の複数個の画素単位(例えば横3画素単位)の比較によってもよい。 The process in this step may be performed by comparing all the pixels or by comparing a plurality of predetermined pixel units (for example, horizontal 3 pixel units).

以下に具体例を示す。 Specific examples are shown below.

(全画素比較の場合)
GS画像およびBG画像の両画像を画素毎に対比し色相HnのMSBが一致する画素を"1"、しない画素を"0"とする二値画像MPを得る。
(When comparing all pixels)
Both the GS image and the BG image are compared pixel by pixel, and a binary image MP is obtained in which pixels in which the MSBs of hue Hn match are set to "1" and pixels which do not are set to "0".

(横3画素単位で比較の場合)
GS画像を各ライン毎に、右端3画素分の領域と左側にあるライン上の画素を3画素単位で比較し、一致度が閾値以下の部分を抽出する。すなわち、GS画像を高さ1画素分の横長画像に分け、各横長画像に対応する右端の1x3のパターンをカーネルKとし、カーネルKのノルムと、左の横長画像から1画素ずつ順に抜き出した1x3のパターンのノルムの差が閾値以上の場合"1"、その他は"0"とする二値画像MPを生成する。
(When comparing in units of 3 horizontal pixels)
For each line of the GS image, the region of the rightmost 3 pixels and the pixels on the left side line are compared in units of 3 pixels, and the portion where the degree of coincidence is less than or equal to the threshold is extracted. That is, the GS image is divided into horizontal images each having a height of 1 pixel, the rightmost 1x3 pattern corresponding to each horizontal image is set as a kernel K, and the norm of the kernel K and 1x3 extracted in order from the left horizontal image one pixel at a time. A binary image MP having "1" when the difference between the norms of the patterns is equal to or larger than the threshold value and "0" in other cases is generated.

工程S6に続く工程S7aでは、各選手の着衣色クラスタRCn(およびその重心)を移動体部分RBから抽出する。さらに本例の工程S8では、各着衣色クラスタRCnの重心座標CCnを(Xn,Yn)とし、(Xn+A,Yn+B),(Xn+C,Yn+B),(Xn+A,Yn+D),(Xn+C,Yn+D)の4点で囲まれた領域HZnをMP画像またはGS画像からクロップする。他の工程は、図6の第2のフローチャートと同じである。 In step S7a following step S6, the clothing color cluster RCn (and its center of gravity) of each player is extracted from the moving body portion RB. Further, in step S8 of this example, the barycentric coordinates CCn of each clothing color cluster RCn are set to (Xn, Yn), and (Xn+A, Yn+B), (Xn+C, Yn+B), (Xn+A, Yn+D), (Xn+C, Yn+D) 4 are obtained. The area HZn surrounded by the dots is cropped from the MP image or the GS image. Other steps are the same as those in the second flowchart in FIG.

<変形例>
以上説明した実施形態は説明のための例示であり、本発明は必ずしも上記の構成および動作に限定されるものではなく、種々の変形、変更を行うことが可能である。
<Modification>
The embodiments described above are examples for the purpose of description, and the present invention is not necessarily limited to the above configurations and operations, and various modifications and changes can be made.

例えば、本発明は必ずしも競輪に限るものではなく、選手(競技参加者)が搭乗物とともに移動する競技であれば適用が可能である。そのような競技としては、競輪以外に例えばオートレース、競艇等が挙げられる。オートレースの場合には、搭乗物はオートバイであり、そのゴール判定対象は競輪と同様に前輪の先端部である。競艇の場合には、搭乗物はボートであり、そのゴール判定対象はボートの先端部である。競艇の場合の基準画像はボート先端部の画像とする。競馬については、現状とは異なるが騎手が馬番対応の異なる色の勝負服を装着すれば適用可能である。その場合の判定対象は典型的な馬の横顔(鼻)である。さらには、競技は公営競技に限るものでもない。 For example, the present invention is not necessarily limited to bicycle races, but can be applied to any competition in which an athlete (competition participant) moves with a boarded object. Such races include, for example, auto racing and boat racing, in addition to bicycle races. In the case of auto racing, the loaded object is a motorcycle, and the target of the goal determination is the front end portion of the front wheel as in the race. In the case of a boat race, the boarding object is a boat, and the goal determination target is the tip of the boat. In the case of boat racing, the reference image is the image of the tip of the boat. Although it is different from the current situation, it is applicable to horse racing if the jockey wears different colored clothing corresponding to the horse number. In that case, the determination target is a typical horse profile (nose). Furthermore, the competition is not limited to public competitions.

10 色採取部
20 許容範囲設定用パラメータ生成部
30 画像記憶部
40 背景画像生成部
50 二値画像生成部
60 移動体部分画像生成部
70 着衣色領域認識部
80 ゴール判定対象領域抽出部
90 画像マッチング部
95 着順出力部
100a〜100c 着順判定装置
200 データ処理装置
200 データ処理装置
205 バス
220 メモリ
221 OS/プログラム領域
223 データ領域
225 ワーク領域
230 表示制御部
250 ストレージ
260 入出力I/F部(通信I/F部)
310 表示部
320 スリットカメラ
330 カメラ
340 操作部
BG 背景
CCn n番選手の着衣色
GS ゴールシーン
HZn n番選手のゴール判定対象領域(前方車輪先端部領域、矩形領域)
MP 移動体部分(選手+自転車、前景、二値画像)
PCn n番選手の着衣色
RB ゴールシーンGS中の移動体部分MPを切り抜いた画像
RCn n番選手の着衣色の近似色を持つ領域
RI 基準画像
WPn n番選手の特定位置座標(前方車輪先端部の位置の座標)
10 Color collection unit 20 Allowable range setting parameter generation unit 30 Image storage unit 40 Background image generation unit 50 Binary image generation unit 60 Moving body partial image generation unit 70 Clothing color area recognition unit 80 Goal determination target area extraction unit 90 Image matching Unit 95 Arrival order output unit 100a to 100c Arrival order determination device 200 Data processing device 200 Data processing device 205 Bus 220 Memory 221 OS/Program area 223 Data area 225 Work area 230 Display control section 250 Storage 260 Input/output I/F section ( Communication I/F part)
310 Display unit 320 Slit camera 330 Camera 340 Operation unit BG Background CCn nth player's clothing color GS Goal scene HZn nth player's goal determination target region (front wheel tip region, rectangular region)
MP moving body part (player + bicycle, foreground, binary image)
PCn nth player's clothing color RB Image cropped out of moving body part MP in goal scene GS RCn Region RI having approximate color of nth player's clothing color Reference image WPn nth player's specific position coordinates (front wheel tip Position coordinates)

Claims (13)

複数の選手がそれぞれ異なる色の着衣を装着した競技において、ゴール位置に設置されたスリットカメラにより得られたゴールシーン画像をコンピュータで画像処理することにより、当該複数の選手がゴールする際の着順判定を行う着順判定方法であって、
ゴールシーン画像に基づいて、各選手の着衣色の色領域を当該選手の胴体部として認識する工程と、
各選手の前記胴体部の位置に基づいて、当該選手が搭乗している搭乗物の特定部分を含むゴール判定対象領域を抽出する工程と、
前記抽出されたゴール判定対象領域の画像をゴール判定対象の基準画像とマッチングすることによりゴール判定対象の特定位置座標を取得する工程と、
複数の選手について求められた前記特定位置座標に基づいて、当該複数の選手の着順を決定する工程と
を備えた着順判定方法。
In a competition in which multiple athletes wear clothing of different colors, the goal scene image obtained by the slit camera installed at the goal position is processed by a computer, and the order of arrival when the athletes finish A method of judging the order of arrival,
Based on the goal scene image, the step of recognizing the color region of each player's clothing color as the body of the player,
Based on the position of the body of each player, a step of extracting a goal determination target region including a specific portion of the boarding object on which the player is boarding,
A step of obtaining specific position coordinates of the goal determination target by matching the image of the extracted goal determination target region with a reference image of the goal determination target;
A step of determining the order of arrival of the plurality of players based on the specific position coordinates obtained for the plurality of players.
前記ゴールシーン画像に基づいて、前記ゴールシーン画像の背景に相当する背景画像を生成する工程と、
ゴールシーン画像に基づいて各選手を含む移動体部分か否かを表す二値画像を生成する工程と、
前記ゴールシーン画像と前記二値画像とに基づいて移動体部分画像を生成する工程とをさらに備え、
前記着衣色の色領域を認識する工程は、前記移動体部分画像に基づいて色領域を認識する請求項1に記載の着順判定方法。
Generating a background image corresponding to the background of the goal scene image based on the goal scene image;
A step of generating a binary image representing whether or not a moving body part including each player based on the goal scene image,
Further comprising a step of generating a moving body partial image based on the goal scene image and the binary image,
The wearing order determination method according to claim 1, wherein the step of recognizing the color area of the clothing color recognizes the color area based on the moving body partial image.
前記背景画像を生成する工程では、前記ゴールシーン画像の、前記移動体部分が含まれないことが保証される1ラインの画像を複製することにより背景画像が生成される請求項2に記載の着順判定方法。 The background image is generated by copying the one-line image of the goal scene image that is guaranteed not to include the moving body portion in the step of generating the background image. Order judgment method. 前記ゴール判定対象領域を抽出する工程は、前記胴体部から所定の位置関係にある所定のサイズの矩形領域を当該選手のゴール判定対象領域として定める工程を含む請求項1から3のいずれかに記載の着順判定方法。 4. The step of extracting the goal determination target area includes the step of defining a rectangular area of a predetermined size in a predetermined positional relationship from the body as a goal determination target area of the player. How to determine the arrival order. 前記着衣色の色領域を認識する工程は、前記ゴールシーン画像に基づいて色領域を認識する請求項1に記載の着順判定方法。 The wearing order determination method according to claim 1, wherein the step of recognizing the color area of the clothing color recognizes the color area based on the goal scene image. 前記着衣色の色領域を認識する工程は、
画像内の各画素の色を、予め定められた着衣色判定時の許容範囲設定用パラメータに照らして当該画素の各着衣色への該当/非該当を判断する工程と、
該当すると判断された画素群からノイズを除去する工程と
を含む請求項1から5のいずれかに記載の着順判定方法。
The step of recognizing the color region of the clothing color includes
A step of judging whether the color of each pixel in the image corresponds to each clothing color of the pixel by referring to a predetermined allowable range setting parameter at the time of judging the clothing color;
6. The arrival order determination method according to claim 1, further comprising the step of removing noise from the pixel group determined to be applicable.
複数の選手がそれぞれ異なる色の着衣を装着した競技において、当該複数の選手がゴールする際の着順判定を行う着順判定装置であって、
ゴール位置に設置されたスリットカメラにより得られたゴールシーン画像を記憶する画像記憶部と、
前記ゴールシーン画像において、各選手の着衣色の色領域を当該選手の胴体部として認識する着衣色領域認識部と、
各選手の前記胴体部の位置に基づいて、前記ゴールシーン画像から当該選手が搭乗している搭乗物の特定部分を含むゴール判定対象領域を抽出するゴール判定対象領域抽出部と、
前記抽出されたゴール判定対象領域の画像をゴール判定対象の基準画像とマッチングすることによりゴール判定対象の特定位置座標を求める画像マッチング部と、
複数の選手について求められた前記特定位置座標に基づいて、当該複数の選手の着順を決定して出力する着順出力部と
を備えた着順判定装置。
In a competition in which a plurality of athletes wear clothes of different colors, it is an arrival order determination device that determines the arrival order when the plurality of athletes make a goal,
An image storage unit that stores the goal scene image obtained by the slit camera installed at the goal position,
In the goal scene image, a clothing color region recognition unit for recognizing the color region of each player's clothing color as the body of the player,
Based on the position of the body of each player, a goal determination target area extraction unit that extracts a goal determination target area including a specific portion of the boarding object on which the player is riding from the goal scene image,
An image matching unit that obtains specific position coordinates of the goal determination target by matching the extracted image of the goal determination target region with a reference image of the goal determination target,
A finish order determination device comprising: a finish order output unit that determines and outputs a finish order of the plurality of players based on the specific position coordinates obtained for the plurality of players.
前記ゴールシーン画像の背景に相当する画像を前記ゴールシーン画像から生成する背景画像生成部と、
前記ゴールシーン画像に基づいて各選手を含む移動体部分か否かを表す二値画像を生成する二値画像生成部と、
前記ゴールシーン画像と前記二値画像とに基づいて移動体部分画像を生成するゴール判定対象領域抽出部とを備え、
前記着衣色領域認識部は、前記移動体部分画像に基づいて色領域を認識する
請求項7に記載の着順判定装置。
A background image generation unit that generates an image corresponding to the background of the goal scene image from the goal scene image,
A binary image generation unit that generates a binary image indicating whether or not a moving body portion including each player based on the goal scene image,
A goal determination target area extraction unit that generates a moving body partial image based on the goal scene image and the binary image,
The wearing order determination device according to claim 7, wherein the clothing color area recognition unit recognizes a color area based on the moving body partial image.
前記背景画像生成部は、前記ゴールシーン画像の、前記移動体部分が含まれないことが保証される1ラインの画像を複製することにより生成する請求項8に記載の着順判定装置。 The arrival order determination device according to claim 8, wherein the background image generation unit generates the background scene image by copying an image of one line in which it is guaranteed that the moving body portion is not included. 前記ゴール判定対象領域抽出部は、前記胴体部から所定の位置関係にある所定のサイズの矩形領域を当該選手のゴール判定対象領域として定める請求項7から9のいずれかに記載の着順判定装置。 10. The finish order determination device according to claim 7, wherein the goal determination target area extraction unit determines a rectangular area of a predetermined size in a predetermined positional relationship from the body portion as a goal determination target area of the player. .. 前記着衣色領域認識部は、前記ゴールシーン画像に基づいて色領域を認識する請求項8に記載の着順判定装置。 The wearing order determination device according to claim 8, wherein the clothing color area recognition unit recognizes a color area based on the goal scene image. 前記着衣色領域認識部は、画像内の各画素の色を、予め定められた着衣色判定時の許容範囲設定用パラメータに照らして当該画素の各着衣色への該当/非該当を判断し、該当すると判断された画素群からノイズを除去する請求項7から11のいずれかに記載の着順判定装置。 The clothing color area recognizing unit determines whether the color of each pixel in the image corresponds to each clothing color of the pixel by referring to a predetermined parameter for allowable range setting at the time of clothing color determination, The arrival order determination device according to any one of claims 7 to 11, wherein noise is removed from a pixel group determined to be applicable. 複数の選手がそれぞれ異なる色の着衣を装着した競技において、ゴール位置に設置されたスリットカメラにより得られたゴールシーン画像をコンピュータで画像処理することにより、当該複数の選手がゴールする際の着順判定を行うプログラムであって、
コンピュータに、
ゴールシーン画像に基づいて、各選手の着衣色の色領域を当該選手の胴体部として認識する工程と、
各選手の前記胴体部の位置に基づいて、当該選手が搭乗している搭乗物の特定部分を含むゴール判定対象領域を抽出する工程と、
前記抽出されたゴール判定対象領域の画像をゴール判定対象の基準画像とマッチングすることによりゴール判定対象の特定位置座標を取得する工程と、
複数の選手について求められた前記特定位置座標に基づいて、当該複数の選手の着順を決定する工程と
を実行させるプログラム。
In a competition in which multiple athletes wear clothing of different colors, the goal scene image obtained by the slit camera installed at the goal position is processed by a computer, and the order of arrival when the athletes finish It is a program that makes a judgment,
On the computer,
Based on the goal scene image, the step of recognizing the color region of each player's clothing color as the body of the player,
Based on the position of the body of each player, a step of extracting a goal determination target region including a specific portion of the boarding object on which the player is boarding,
A step of obtaining specific position coordinates of the goal determination target by matching the image of the extracted goal determination target region with a reference image of the goal determination target;
And a step of determining the order of arrival of the plurality of players based on the specific position coordinates obtained for the plurality of players.
JP2018235987A 2018-12-18 2018-12-18 Arrival order determination method, arrival order determination device, and program Active JP7161717B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018235987A JP7161717B2 (en) 2018-12-18 2018-12-18 Arrival order determination method, arrival order determination device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018235987A JP7161717B2 (en) 2018-12-18 2018-12-18 Arrival order determination method, arrival order determination device, and program

Publications (2)

Publication Number Publication Date
JP2020098441A true JP2020098441A (en) 2020-06-25
JP7161717B2 JP7161717B2 (en) 2022-10-27

Family

ID=71106516

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018235987A Active JP7161717B2 (en) 2018-12-18 2018-12-18 Arrival order determination method, arrival order determination device, and program

Country Status (1)

Country Link
JP (1) JP7161717B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108109055A (en) * 2018-01-08 2018-06-01 中国石油大学(华东) A kind of across scene costume retrieval method based on image rendering
JP7449019B1 (en) 2023-09-08 2024-03-13 株式会社SEtech Imaging device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002511718A (en) * 1998-04-10 2002-04-16 リンクス システム デベロッパーズ インコーポレイテッド Camera with object recognition function and data output
JP2004194904A (en) * 2002-12-18 2004-07-15 Hitachi Kokusai Electric Inc Order-of-arrival and time determining device
WO2007037350A1 (en) * 2005-09-29 2007-04-05 Plusmic Corporation Horse position information analyzing and displaying method
JP2015150104A (en) * 2014-02-13 2015-08-24 株式会社日立システムズ Passing time tabulation system, and passing time tabulation method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002511718A (en) * 1998-04-10 2002-04-16 リンクス システム デベロッパーズ インコーポレイテッド Camera with object recognition function and data output
JP2004194904A (en) * 2002-12-18 2004-07-15 Hitachi Kokusai Electric Inc Order-of-arrival and time determining device
WO2007037350A1 (en) * 2005-09-29 2007-04-05 Plusmic Corporation Horse position information analyzing and displaying method
JP2015150104A (en) * 2014-02-13 2015-08-24 株式会社日立システムズ Passing time tabulation system, and passing time tabulation method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
横倉 三郎: "短距離競走の勝敗を決する計測システム −フライング判定とフィニッシュ判定−", 計測と制御, vol. 第38巻 第4号, JPN6022041733, 10 April 1999 (1999-04-10), JP, pages 274 - 280, ISSN: 0004886856 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108109055A (en) * 2018-01-08 2018-06-01 中国石油大学(华东) A kind of across scene costume retrieval method based on image rendering
CN108109055B (en) * 2018-01-08 2021-04-30 中国石油大学(华东) Cross-scene clothing retrieval method based on image rendering
JP7449019B1 (en) 2023-09-08 2024-03-13 株式会社SEtech Imaging device

Also Published As

Publication number Publication date
JP7161717B2 (en) 2022-10-27

Similar Documents

Publication Publication Date Title
Liu et al. Learning deep models for face anti-spoofing: Binary or auxiliary supervision
CN111667520B (en) Registration method and device for infrared image and visible light image and readable storage medium
US11922615B2 (en) Information processing device, information processing method, and storage medium
US9807316B2 (en) Method for image segmentation
CN112287866B (en) Human body action recognition method and device based on human body key points
CN109087328A (en) Shuttlecock drop point site prediction technique based on computer vision
KR101781358B1 (en) Personal Identification System And Method By Face Recognition In Digital Image
US10079974B2 (en) Image processing apparatus, method, and medium for extracting feature amount of image
JP6351243B2 (en) Image processing apparatus and image processing method
JP4373840B2 (en) Moving object tracking method, moving object tracking program and recording medium thereof, and moving object tracking apparatus
EP3241151A1 (en) An image face processing method and apparatus
CN109271937A (en) Athletic ground Marker Identity method and system based on image procossing
KR20100138202A (en) System and method of tracking object using different kind camera
CN112287867B (en) Multi-camera human body action recognition method and device
JP6410450B2 (en) Object identification device, object identification method, and program
JP6855872B2 (en) Face recognition device
JP7161717B2 (en) Arrival order determination method, arrival order determination device, and program
CN109359577A (en) A kind of Complex Background number detection system based on machine learning
WO2005055143A1 (en) Person head top detection method, head top detection system, and head top detection program
JP4993615B2 (en) Image recognition method and apparatus
CN113569793A (en) Fall identification method and device
CN107705279B (en) Image data real-time processing method and device for realizing double exposure and computing equipment
JPWO2017061106A1 (en) Information processing apparatus, image processing system, image processing method, and program
JPH08287216A (en) In-face position recognizing method
JP2002049912A (en) System for acquiring person image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210916

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220929

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221005

R150 Certificate of patent or registration of utility model

Ref document number: 7161717

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150