JP7161717B2 - 着順判定方法、着順判定装置およびプログラム - Google Patents

着順判定方法、着順判定装置およびプログラム Download PDF

Info

Publication number
JP7161717B2
JP7161717B2 JP2018235987A JP2018235987A JP7161717B2 JP 7161717 B2 JP7161717 B2 JP 7161717B2 JP 2018235987 A JP2018235987 A JP 2018235987A JP 2018235987 A JP2018235987 A JP 2018235987A JP 7161717 B2 JP7161717 B2 JP 7161717B2
Authority
JP
Japan
Prior art keywords
image
goal
color
player
order
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018235987A
Other languages
English (en)
Other versions
JP2020098441A (ja
Inventor
譲二 島川
基弘 栗須
Original Assignee
ヒロテック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヒロテック株式会社 filed Critical ヒロテック株式会社
Priority to JP2018235987A priority Critical patent/JP7161717B2/ja
Publication of JP2020098441A publication Critical patent/JP2020098441A/ja
Application granted granted Critical
Publication of JP7161717B2 publication Critical patent/JP7161717B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、競技における着順判定方法、着順判定装置およびプログラムに関する。
一般に、競輪、競馬等の公営競技における着順判定には審判員の目視とともに写真判定が利用されている。
特許文献1には、競馬のレース中に審判員が判断した通過順位を着順表示盤に表示させる際、審判員による通過順位の誤入力を低減することを課題として、審判員による目視判定を支援するために、撮像部で撮影した映像を映像解析部が解析して上位3位までの通過順位の馬番データを表示部に表示させる技術を開示している。
特許文献2には、陸上競技、氷上競技、ボート競技等において着順を電子的に判定する着順判定装置の測定結果の出力操作を確実且つ簡便化することを課題として、スリットカメラから得られるスリットカメラ画像に、時間軸に沿って移動可能なカーソルを重ねて、ゴールタイム(通過時間)を求める技術を開示している。
特許文献3には、競輪等の着順とタイムを競う競技において、記録画像全体の確認と判定業務が同時に行えるようにすることを課題として、ラインセンサによりゴールライン上で撮像した画像をカラービデオモニタに表示させ、それを見て競輪などにおける着順とタイムを判定する際、ゴールラインに最初に到着した先頭の走者(自転車)を含む判定用の部分画像と、複数の走者の全体が写っている記録画像全体の縮小画像を同時に表示させるようにし、且つ、縮小画像には、部分画像を指示する枠が表示されるようにした電子式着順およびタイム判定装置が開示されている。
特開2013-192871号公報 実用新案登録第3030178号公報 特開2008-22963号公報
上述した写真判定や特許文献2,3における着順判定はスリットカメラの出力画像を利用するとはいえ、本質的には人間が目視により着順を判断するものである。
この点、特許文献1に記載の先行技術は、審判員の支援目的ではあるが、映像解析部による画像解析により着順を判定している。この先行技術では、馬番をアラビア数字で表した比較的大きなゼッケンが馬体の側部に装着され、基本的にはその番号を画像認識してその馬番を識別するものである。特許文献1は、選手の勝負服の胴の柄および袖の柄(必要に応じて地の色および柄の色)、帽子色、馬の毛色の認識・判定を併用することに言及しているが、これらの情報は直接的に馬番に対応するものではないばかりか、それらの判定処理は比較的困難であり、高精度な判定結果は期待できない。
一方、競輪等では選手が装着した衣服(着衣色または勝負服)に付された番号は比較的小さく、かつ、撮影画像上では傾斜したりゆがんだり一部しか見えなかったりするため、画像処理による番号の正確な認識は必ずしも容易ではない。また、特許文献1では、通過順位確定支援装置におけるプロセッサの画像認識処理の開始直後に「n位の画像切り出し」(n=1から開始して順次増分)を行っているが、そもそも接戦の場合にどの馬が「n位」かの判定が人間では困難となるからこそ写真判定が必要とされるにもかかわらず、「n位の画像切り出し」が画像処理によりどのように自動的かつ正確に実行されるかについては明示されていない。
本発明はこのような背景においてなされたものであり、その目的は、スリットカメラで取得したゴールシーン画像から競技選手の着順を高精度に自動判定することができる着順判定方法、着順判定装置およびプログラムを提供することにある。
本発明による着順判定方法は、複数の選手がそれぞれ異なる色の着衣を装着した競技において、ゴール位置に設置されたスリットカメラにより得られたゴールシーン画像をコンピュータで画像処理することにより、当該複数の選手がゴールする際の着順判定を行う着順判定方法である。この着順判定方法は、ゴールシーン画像に基づいて、各選手の着衣色の色領域を当該選手の胴体部として認識する工程と、各選手の前記胴体部の位置に基づいて、当該選手が搭乗している搭乗物の特定部分を含むゴール判定対象領域を抽出する工程と、前記抽出されたゴール判定対象領域の画像をゴール判定対象の基準画像とマッチングすることによりゴール判定対象の特定位置座標を取得する工程と、複数の選手について求められた前記特定位置座標に基づいて、当該複数の選手の着順を決定する工程とを備えたものである。
この着順判定方法において、前記ゴールシーン画像に基づいて、前記ゴールシーン画像の背景に相当する背景画像を生成する工程と、ゴールシーン画像に基づいて各選手を含む移動体部分か否かを表す二値画像を生成する工程と、前記ゴールシーン画像と前記二値画像とに基づいて移動体部分画像を生成する工程とをさらに備え、前記着衣色の色領域を認識する工程は、前記移動体部分画像に基づいて色領域を認識するようにしてもよい。
前記背景画像を生成する工程の一態様において、前記ゴールシーン画像の、前記移動体部分が含まれないことが保証される1ラインの画像を複製することにより背景画像を生成することができる。
前記ゴール判定対象領域を抽出する工程は、その一態様において、前記胴体部から所定の位置関係にある所定のサイズの矩形領域を当該選手のゴール判定対象領域として定める工程を含むことができる。
前記着衣色の色領域を認識する工程は、他の態様において、前記ゴールシーン画像に基づいて色領域を認識することができる。
前記着衣色の色領域を認識する工程は、その一態様において、画像内の各画素の色を、予め定められた着衣色判定時の許容範囲設定用パラメータに照らして当該画素の各着衣色への該当/非該当を判断する工程と、該当すると判断された画素群からノイズを除去する工程とを含んでもよい。
本発明による着順判定装置は、複数の選手がそれぞれ異なる色の着衣を装着した競技において、当該複数の選手がゴールする際の着順判定を行う着順判定装置であって、ゴール位置に設置されたスリットカメラにより得られたゴールシーン画像を記憶する画像記憶部と、前記ゴールシーン画像において、各選手の着衣色の色領域を当該選手の胴体部として認識する着衣色領域認識部と、各選手の前記胴体部の位置に基づいて、前記ゴールシーン画像から当該選手が搭乗している搭乗物の特定部分を含むゴール判定対象領域を抽出するゴール判定対象領域抽出部と、前記抽出されたゴール判定対象領域の画像をゴール判定対象の基準画像とマッチングすることによりゴール判定対象の特定位置座標を求める画像マッチング部と、複数の選手について求められた前記特定位置座標に基づいて、当該複数の選手の着順を決定して出力する着順出力部とを備えたものである。
この着信判定装置は、その一態様において、前記ゴールシーン画像の背景に相当する画像を前記ゴールシーン画像から生成する背景画像生成部と、前記ゴールシーン画像に基づいて各選手を含む移動体部分か否かを表す二値画像を生成する二値画像生成部と、前記ゴールシーン画像と前記二値画像とに基づいて移動体部分画像を生成するゴール判定対象領域抽出部とをさらに備え、前記着衣色領域認識部は、前記移動体部分画像に基づいて色領域を認識するようにしてもよい。
前記背景画像生成部は、その一態様として、前記ゴールシーン画像の、前記移動体部分が含まれないことが保証される1ラインの画像を複製することにより生成することができる。
前記ゴール判定対象領域抽出部は、その一態様として、前記胴体部から所定の位置関係にある所定のサイズの矩形領域を当該選手のゴール判定対象領域として定めることができる。
前記着衣色領域認識部は、その一態様として、前記ゴールシーン画像に基づいて色領域を認識することができる。
前記着衣色領域認識部は、その一態様として、画素の色を、予め定められた着衣色判定時の許容範囲設定用パラメータに照らして当該画素の各着衣色への該当/非該当を判断し、該当すると判断された画素群からノイズを除去することができる。
本発明は、また、プログラムとしても把握される。このプログラムは、複数の選手がそれぞれ異なる色の着衣を装着した競技において、ゴール位置に設置されたスリットカメラにより得られたゴールシーン画像をコンピュータで画像処理することにより、当該複数の選手がゴールする際の着順判定を行うプログラムであって、コンピュータに、ゴールシーン画像に基づいて、各選手の着衣色の色領域を当該選手の胴体部として認識する工程と、選手の前記胴体部の位置に基づいて、当該選手が搭乗している搭乗物の特定部分を含むゴール判定対象領域を抽出する工程と、記抽出されたゴール判定対象領域の画像をゴール判定対象の基準画像とマッチングすることによりゴール判定対象の特定位置座標を取得する工程と、複数の選手について求められた前記特定位置座標に基づいて、当該複数の選手の着順を決定する工程とを実行させるものである。
本発明の着順判定方法、着順判定装置およびプログラムによれば、スリットカメラで取得したゴールシーン画像から競技選手の着順を高精度に自動判定することができる。
本発明の実施形態による第1の着順判定装置の各種機能およびそれらの相互の関係を表した機能ブロック図である。 本発明の実施形態の第2の着順判定装置の機能ブロック図である。 本発明の実施形態の第3の着順判定装置の機能ブロック図である。 図1~図3に示した着順判定装置の各機能ブロックを実現するためのデータ処理装置のハードウェア構成例を示すブロック図である。 図1に示した着順判定装置の機能ブロック図の各機能を、図4に示したデータ処理装置が実行するための着順判定処理の第1のフローチャートである。 図2に示した着順判定装置の機能ブロック図の各機能を、図4に示したデータ処理装置が実行するための着順判定処理の第2のフローチャートである。 図3に示した着順判定装置の機能ブロック図の各機能を、図4に示したデータ処理装置が実行するための着順判定処理の第3のフローチャートである。 図8(a)はGS画像の例を示す図であり、図8(b)はBG画像の例を示す図である。 図9(a)はRCnの候補画素の例を示す図であり、図9(b)はerode処理後の画像例を示す図であり、図9(c)はdilate処理後のRCnの画像例を示す図である。 重心座標CCnに基づいてゴール判定対象領域HZnを設定した例を示す図である。 n番目の選手に対応する前方車輪の領域HZnの画像と基準画像RIとの対比の例を示す図である。 図12(a)は図8のGS画像に対応するMP画像の例を示す図であり、図12(b)は図8(a)のGS画像に対応するRB画像の例を示す図である。 n番目の選手に対応する前方車輪の領域HZnの画像と基準画像RIとの対比の例を示す図である。
以下、本発明の実施の形態について詳細に説明する。
従来、写真判定にはスリットカメラと呼ばれる撮影装置が利用される。スリットカメラは、ラインセンサのような撮像デバイスを用い、ゴールに対応する基準線を通過する個体を撮像して、基準線に整合するスリット状の要素毎に画像を取り込み、各要素を時間軸に沿って配列してスリットカメラ画像を合成するための装置である。
スリットカメラ画像に基づいて競技(レース)の着順判定を行うためには、ゴールしたと判断される移動体の部分すなわちゴール判定対象部分(例えば競輪やオートレースでは車両の前輪の先端部、ボートレースではボートの先端部、等)の領域をスリットカメラ画像の中から認識する必要がある。しかし、そのような移動体の部分(領域)を画像処理により直接的に分離することは必ずしも容易ではない。また、分離できたとしてもその移動体の番号が分からなければ着順の判定は行えない。上述したように、番号(数字)が着衣に表示されているとしても、必ずしもすべての番号が撮影画像に基づいて正確に認識されることは期待できない。
そこで、本願発明者は、競技に出場する選手がいわゆる勝負服として(例えば競輪等では車番毎に)互いに異なる色の衣服(例えばパーカー)を装着していることに着目した。すなわち、各選手の着衣の色(着衣色)を識別することにより、選手の着衣等に記された番号(車番、挺番等)を認識することができる。
しかし、スリットカメラ画像内の画素の色に基づいて着衣色の領域を検出しても選手の輪郭は茫漠としたものであり、かつ、競輪等の競技ではゴール判定対象は選手自身ではなくその搭乗物である。したがって、検出された選手の領域自体に基づいて直ちに着順の判定は行えない。そこで、まずはスリットカメラ画像において、各選手の着衣色の色領域を当該選手の胴体部として認識する。これによって各選手の大凡の位置を識別できる。次いで、その選手が搭乗している搭乗物の所定の箇所すなわちゴール判定対象の特定箇所(例えば、競輪では自転車の前輪の前端部)を包含する所定のサイズおよび形状の画像領域を抽出する。搭乗物の特定箇所の位置は当該選手の胴体部と所定の位置関係にあることが既知なので、当該特定箇所を包含する画像領域を確実に切り出すことができる。さらに、この切り出された画像領域を既知の基準画像とマッチングすることにより当該ゴール判定対象の特定箇所の座標を求めることができる。このようにして得られた、各選手の当該特定箇所の座標を比較することにより、選手の番号(数字)を読みとる必要なく着順を決定することができる。
以下、このような考え方に基づく、具体的な実施形態を提示する。以下では競技の一例として競輪について説明する。
<第1の着順判定装置>
図1は、本実施形態による第1の着順判定装置100aの各種機能およびそれらの相互の関係を表した機能ブロック図である。
この着順判定装置100aは、色採取部10、許容範囲設定用パラメータ生成部20、画像記憶部30、着衣色領域認識部70、ゴール判定対象領域抽出部80、画像マッチング部90、および着順出力部95を備えて構成される。
色採取部10は、競技のスタート位置に整列した当該競技の全出場選手の静止画または動画を撮影するスタート位置カメラ(図4で後述)により得られた画像を受けて、各選手の番号に対応した着衣色のデータを採取する色採取手段である。着衣色とは選手の着衣の色である。選手の着衣は例えばパーカー(フード付きの上着)である。着衣色は柄や模様のない単色(無地)であることが好ましいが、一部に地色と異なる数字などが含まれていてもよい。色分けの例としては、例えば競輪における移動体の番号(車番)と色の対応は、1:白、2:黒、3:赤、4:青、5:黄、6:緑、7:橙、8:桃、9:紫、である。
採取した各選手の着衣色の色データはこの例ではRGB各8bit/着衣色である。色領域の特定は自動的に行うことが好ましいが、操作者の支援(例えば当該領域内のポイントの指定)を受けて実行するものであってもよい。
着衣色のRGBデータは、本例では、後続の処理に好都合なデータ形式の一種であるHSVデータであるPCn(nth ParkaColor)に変換の上、後述の画像記憶部に記憶(登録)する。ここに、nは出場選手番号、PCnはn番選手のHSV着衣色を表している。また、Hは色相(Hue)、Sは彩度(Saturation)、Vは明度(Value)を表す。
PCn (Hn,Sn,Vn) (各値は16進値で00~FF)
なお、着衣色が競技毎に変わらず、一定である場合にはスタート位置カメラによらず、予め着衣色のデータを取得して記憶しておいたものを使用してもよい。また、色データの形式は必ずしもHSVに限定するものではない。
許容範囲設定用パラメータ生成部20は、スリットカメラにより得られたゴールシーンGS(Goal Scene)の画像内の各画素が各色データPCnの色に該当するか否かを判定するためのパラメータを生成する手段である。ゴールシーンGSの画像は、所定のサイズ、この例では1000 x 1000pixel、RGB各8bit/pixelの画像である。このパラメータは、着衣色判定時の許容範囲設定用パラメータであり、画像を構成する各画素に対して、各色データPCnの色に所定の幅をもたせて、その近似色も該当色として認識されるように設定する。すなわち、パラメータに照らして当該画素の各着衣色への該当/非該当が判断される。
許容範囲設定用パラメータ生成部20の具体的な処理例については後述する。
画像記憶部30は、スリットカメラから出力されたスリットカメラ画像を受け付けて一時的に記憶するメモリ等の記憶手段である。
着衣色領域認識部70は、画像内の各着衣色の領域を認識する手段であり、より具体的には、GS画像を許容範囲設定用パラメータに照らして、各着衣色(の近似色)の画素群からなる着衣色クラスタRCn(nth RacerCluster)(本例ではn番選手の着衣色の近似色を持つ領域)を生成する手段である。着衣色領域認識部70は、各着衣色クラスタRCnからその重心の座標CCnも求める。ここに、CCn(nth ClusterCenter)は、n番選手の着衣色の近似色を持つ領域の重心の座標である。この代わりに、重心は後段のゴール判定対象領域抽出部80で求めるようにしてもよい。
この処理は本例ではGS画像から直接行う。
ゴール判定対象領域抽出部80は、着衣色クラスタRCn(の重心座標CCn)とゴールシーンGSとに基づいて、ゴール判定対象領域HZn(nth HeadZone:本例ではn番選手の自転車の前方車輪(前輪)先端部を含む矩形領域)を抽出する手段である。より具体的には、領域HZnは、重心座標CCnを原点とした相対座標(x,y)が(A,B),(C,B),(A,D),(C,D)の4座標で囲まれる矩形領域である。ここに、x軸はゴールシーンGS画像の横(水平)方向、y軸はその縦(垂直)方向を表す。
画像マッチング部90は、各選手のゴール判定対象領域HZnの画像と基準画像RIとを対照して、それぞれの特定位置座標WPn(nth WheelPosition)を求める手段である。ここに、特定位置座標WPnとは各選手のゴール判定対象となる画像部分の座標であり、本例ではn番選手の自転車の前方車輪先端部の位置座標(Xnh,Ynh)である。この座標は、ゴールシーンGSの矩形の左上を原点(0,0)とした絶対座標である。また、RI(ReferenceImage)は、予め用意したゴール判定対象の典型的な画像としての基準画像である。基準画像RIは、本例では自転車前方車輪の先端部を含む画像であり、例えば、前方車輪の先端側半分(または右半分または右上1/4)の画像である。この処理の具体例については後述する。
着順出力部95は、特定位置座標WPnのX座標の大小に基づいて順序づけられた車番の列を着順として決定し、出力する部位である。
<第2の着順判定装置>
図2に、本実施形態の第2の着順判定装置100bの機能ブロック図を示す。図1に示したと同様の要素には同じ参照符号を付して、重複した説明は省略する。この第2の着順判定装置100bは、着順判定装置100aの構成要素に加えて、さらに、背景画像生成部40、二値画像生成部50を備えている。
背景画像生成部40は、画像記憶部30から得られたGS画像(スリットカメラ画像)に基づいて、GS画像の背景に相当する背景画像BG(BackGround)を生成する手段である。この背景画像BGは、例えば、ゴールシーンGSの先頭(通常右端)の1画素分の縦領域(1ライン)を後側へ必要数だけ複製することにより生成された、ゴールシーンGSと同サイズの画像である。複製の元となる1ラインはゴールシーンGSの先頭としたが、移動体が含まれないことが保証されるラインであれば先頭でなくてもよい。
二値画像生成部50は、GS画像内に存在する移動体部分MP(MovingPart)の領域をGS画像から分離した二値画像を生成する手段である。移動体部分MPとは、背景に対する前景であって、競技において移動する部分であり、例えば競輪の場合には選手と自転車とを合体した領域である。本例で得られるMP画像は、移動体部分MPが存在する領域を「真("1")」、存在しない領域を「偽("0")」とする二値画像であり、ゴールシーンGSと背景BGが不一致となる画素群で構成される。
この第2の着順判定装置100bでは、ゴール判定対象領域抽出部80は、ゴールシーンGSの画像に代えた二値画像であるMP画像と、着衣色クラスタRCn(の重心座標CCn)とに基づいて、ゴール判定対象領域HZn(本例ではn番選手の自転車の前方車輪先端部を含む矩形領域)を抽出する。また、第2の着順判定装置100bにおいて、好ましくは、画像マッチング部90で用いる基準画像RIは二値画像とする。他の構成は第1の着順判定装置100aと同様である。
<第3の着順判定装置>
図3に、本実施形態の第3の着順判定装置100cの機能ブロック図を示す。図1、図2に示したと同様の要素には同じ参照符号を付して、重複した説明は省略する。この第3の着順判定装置100cは、第2の着順判定装置100bの構成要素に対して、さらに、移動体部分画像生成部60を備えている。
移動体部分画像生成部60は、GS画像とMP画像とに基づいて、ゴールシーンGS中の移動体部分のみ切り抜いた移動体部分画像RB(Racer+Bicycle)を生成する手段である。換言すれば、GS画像をMP画像でマスクすることにより、GS画像から移動体部分画像RBを切り出した画像が生成される。
MP画像とRB画像は互いに類似しているが、MP画像は白黒の二値画像であるのに対して、RB画像はカラー画像である点で異なる。
この第3の着順判定装置100cでは、着衣色領域認識部70は、ゴールシーンGS画像に代えて、移動体部分画像生成部60の出力する移動体部分画像RBを受けて着衣色クラスタRCn(の重心座標CCn)の生成を行う。この処理では、GS画像から背景画像を除去したRB画像に基づいて行うことにより、その処理精度を向上させることができる。
また、第3の着信判定装置100cでは、ゴール判定対象領域抽出部80は、着衣色クラスタRCn(の重心座標CCn)とともに入力する画像として、ゴールシーンGSまたは二値画像MPを用いる。ゴールシーンGSを用いる場合には、好ましくは画像マッチング部90で用いる基準画像RIはカラー画像とする。二値画像MPを用いる場合には、好ましくは画像マッチング部90で用いる基準画像RIは二値画像とする。他の構成は着順判定装置100bと同様である。
<ハードウェア構成例>
図4は、本実施形態の図1~図3に示した着順判定装置100a~100cの各機能ブロックを実現するためのデータ処理装置200のハードウェア構成例を示す。
データ処理装置200はコンピュータに相当し、典型的には、中央処理装置(CPU)210、メモリ220、表示制御部230、ストレージ250、入力インタフェース(I/F)部260を備える。中央処理装置(CPU)210は、バス205を介して、データ処理装置200の各部を制御し、その動作を司るプロセッサである。メモリ220は、CPUの実行するオペレーティングシステム(OS)やプログラムやデータを格納する領域221,223およびワーク領域225を含む記憶デバイス(記憶手段)である。図1~図3に示した画像記憶部30はメモリ220により構成しうる。表示制御部230は、CPU210の制御下で画像や映像、テキスト等の表示情報を表示部310の表示画面上に表示する表示制御手段である。ストレージ250は、プログラムやデータ等を不揮発的に記憶する大容量の記憶手段である。入力インタフェース(I/F)部260は、外部の入力装置をバス205に接続する手段であり、この例では、ゴール地点に設置されるスリットカメラ320、スタート位置に設置される、静止画または動画を撮像するカメラ330、および操作者の操作を受け付ける操作部340が接続される。入力インタフェース部260に代えて、または加えて、通信インタフェース部を備えてもよい。
<第1のフローチャート>
図5は、図1に示した着順判定装置100aの機能ブロック図の各機能を、図4に示したデータ処理装置200が実行するための着順判定処理の第1のフローチャートである。以下、競輪を例として画像例を挙げて説明する。
この処理は競技開始時に起動され、まず、スタート位置(所定整列位置)に設置されたカメラ330の撮像画像に基づいて、競技に参加している各選手の着衣色PCnを採取する(S1)。この工程は図1に示した色採取部10の動作に対応する。上述したように、固定の着衣色PCnを用いる場合には、この工程S1および次の工程S2は省略することができる。
次いで、各選手の着衣色PCnの近似色と判断できる許容範囲を設定する(S2)。この工程は、図1に示した許容範囲設定用パラメータ生成部20の動作に対応する。
例えば、各選手の着衣色PCnの近似色と判断できる許容範囲の設定の具体例は次のとおりである。
まず、PCnの測定値から同色判定のための閾値(PCn max, Cn min)を次式により決定する。
PCn max = [Hn + Δh, Sn + Δs, Vn + Δv]
PCn min = [Hn - Δh', Sn - Δs', Vn - Δv']
Δh,Δh'は狭く、Δs,Δs'、Δv,Δv'は広く設定しておく。
これらのパラメータは次段階での各選手の位置検出に使用するが、PCn max、PCn minの適正な設定により、天候変化、光源変化、陰影などの外乱への耐性を得ることができる。
なお、許容範囲を定める各Δ値は各色域のヒストグラムからを定めることができる。好ましくは、Δh,Δh'は狭く、Δs,Δs'、Δv,Δv'は広く設定する。これにより、着衣色の誤検出の可能性を低減する効果が期待される。例えば、Δh,Δh'はヒストグラムのピークから上下1σ程度、Δs,Δs'、Δv,Δv'は上下2σ程度を許容範囲とする。ΔhとΔh'とは同じ値であってもよいし、若干異なる値であってもよい。ΔsとΔs'、ΔvとΔv'についても同様である。また、彩度Sを所定の閾値で判定し、彩度Sが当該閾値より小さいとき、色相Hの許容範囲をより広く取り、着衣色が白及び黒の場合の判定精度を向上させるようにしてもよい。
その後、スリットカメラ320から得られたGS画像を取得し、画像記憶部30に保存する(S3)。図8(a)にGS画像の例を示す。
次いで、各選手の着衣色クラスタRCn(およびその重心座標CCn)をゴールシーンGSから抽出する(S7)。この処理は、erode/dilate後に最大の連続領域を抽出する手法によってもよいし、この代わりに、Blur処理に続き二値化処理をした後の最大の連続領域を抽出する手法によってもよい。この工程は図1に示した着衣色領域認識部70の処理に対応する。
erode処理とは、モルフォロジー処理の一種で、画像中の白色雑音(ノイズ)を除去したり連結している複数の物体を分割したりするために行われる収縮処理である。dilate処理とは、モルフォロジー処理の一種で、収縮処理と逆に前景物体のサイズを増加させる膨張処理である。erode処理と組み合わせて用いることにより、ノイズの除去を効果的に行うことが可能となる。
Blur処理とは、画像をぼかすための処理であり、ノイズ除去に利用できる。例えば、二値画像にblur処理をかけた上、閾値を設けて再度二値化することにより離散した微小領域が激減し、二値化後の画像中の連続した最大領域を求めることが容易になる。erode/dilate処理やBlur処理によれば、演算負荷の削減と、対象とする着衣色クラスタRCnに属さない領域を誤認することを避ける効果がある。
以下に、工程S7の具体例を示す。
(erode/dilate後に最大の連続領域を抽出する場合)
ゴールシーンGSの各画素の色(HSV値)が上記閾値(上下限値)の範囲内に入る場合、これらの画素を個々の着衣色クラスタRCnに属する画素点とし、各着衣色クラスタに属する点群の重心位置を求める。ただし閾値内に入る画素が本来対応する選手の位置以外にも存在し得るため、n個からなる各着衣色クラスタRCnの画像を3~8画素分erode処理し、さらに同量のdilate処理をした上、重心(の座標)を求める。これを全ての着衣色クラスタに対して行う。
なお、かなり近似した着衣色がある場合、個別分離が困難な場合がありうる。このような場合、erode/dilate処理をしても1つの着衣色クラスタに属する点群が複数個残りうる。このような問題を回避するため各着衣色クラスタに属する点群は連続した領域でかつ最も面積の最も広いもののみに絞る処理を行うようにしてもよい。(例えば、OpenCVのcv2.connectedComponents()などで連続領域を抽出後最大のものを選択する。)
(Blur処理後に最大の連続領域を抽出する場合)
上記のerode/dilate処理を行わず、各着衣色クラスタRCnに属する点群として、連続した領域でかつ最も面積の最も広いものを選択する処理を行う。各着衣色クラスタRCn毎に選択された領域の重心の座標CCnを求める。(OpenCVのcv2.connectedComponents()など)
図9(a)に着衣色クラスタRCnの候補画素の例を示し、図9(b)にerode処理後の画像例、図9(c)にdilate処理後のRCnの画像例を示す。図9(a)~(c)の画像を対比すると、図9(b)の画像では図9(a)の画像内のノイズが軽減され、一旦縮小した主要領域が図9(c)で復元していることが分かる。
次いで、ゴール判定対象領域HZnの画像、すなわち各選手の車両の前方車輪先端部が含まれる領域HZn画像の抽出を行う(S8)。この抽出元としては、本例ではGS画像を使用する。この工程は図1に示したゴール判定対象領域抽出部80の処理に対応する。
以下に具体例を示す。
各着衣色クラスタRCnの重心座標CCnを(Xn,Yn)とし、(Xn+A,Yn+B),(Xn+C,Yn+B),(Xn+A,Yn+D),(Xn+C,Yn+D)で囲まれた領域HZnをゴールシーンGSからクロップする(切り出す)。この矩形領域HZnを各選手の前方車輪先端部が確実に含まれる領域とすべく変数A,B,C,Dの値を選定する。変数A,B,C,Dの値の例としてはそれぞれ30,30,100,110前後が挙げられる(ゴールシーンGSが1000 x 1000pixel 画像の場合)。
図10に、重心座標CCnに基づいてゴール判定対象領域HZnを設定した例を示す。
次いで、各ゴール判定対象領域HZnの画像を基準画像RIと対照する画像マッチングを行い、特定位置座標Wpn(Xnh,Ynh)を求める(S9)。この処理は、伸縮テンプレートマッチングによるものであってもよいし、特徴量マッチングによるものであってもよい。この工程は図2に示した画像マッチング部90の処理に対応する。
以下に具体例を示す。
(伸縮テンプレートマッチングによる前方車輪先端部の位置取得の場合)
AKAZEなどの特徴量を使用せず、基準画像RIをテンプレートとし、前方車輪先端部を含む領域HZnの画像に対しテンプレートマッチングを行うことにより前方車輪先端部の絶対位置(Xnh,Ynh)を特定する。そのために、まずは、HZn画像内において基準画像RIに対応する画像領域を求める。基準画像RIを定める段階で基準画像RIの枠内での車輪先端位置が既知なので、基準画像RIに対応するHZn画像内の画像枠が定まれば両画像の写像関係からHZn画像内の車輪先端部の位置が定まる。
より具体的には、基準画像RIとHZn画像内のRIと同形の領域(とりあえずZとする)を比較しながらHZn全域をカバーするまで領域Zを順次移動させて最も近似度が高い移動位置(対応する各画素値の2乗誤差の和が最小となる位置)を見つける。その後、領域HZn内で基準画像RIとのマッチング(相互相関の極大点)が取れた点と領域HZnの左上角点(この領域内の原点)との距離が得られる。この距離ベクトルを(Xnc,Ync)とすると、前方車輪先端部の絶対位置(Xnh,Ynh)は(Xn+A+Xnc,Yn+B+Ync)となる。この絶対位置は基準画像RIとの関係で得られる数値であって車輪先端部のX位置そのものではない(正確にはRIとマッチングが取れたX位置に、画像RIの左端と画像RI内の車輪右端までの距離を加えたものである)。但し、全選手間の相対的な位置関係は上記(Xn+A+Xnc,Yn+B+Ync)で表現されているため、これに基づいて着順は決定できる。
テンプレートマッチングの回転脆弱性はこの場合問題にならないが、選手間の距離差を考慮する必要があるためスケーリング耐性を追加する。すなわち、各選手の前方車輪先端部を含む領域画像HZnについて、スケールファクタを変えてスケーリング(伸縮)しながら基準画像RIとテンプレートマッチングを行って車輪先端位置を特定し、各選手間の相互比較を行って着順を判定する。HZnをスケーリングしながら上記の処理を繰り返し、画像RIと領域Zの近似度が最も高いスケーリングファクタ時の移動位置と当該スケーリングファクタから目的の座標を得る。
図11に、n番目の選手に対応する前方車輪の領域HZnの画像と基準画像RIとの対比の例を示す。本例の基準画像RIは前方車輪のほぼ右前1/4の領域を含む矩形領域の画像である。本例の領域HZnの画像はGS画像から得たものである。図中、HZn画像中、基準画像RIに対応する画像部分として検出された領域が枠Fで示されている。前方車輪の下部が手前の選手により遮られる場合があり、「右上1/4」とすることにより、そのような場合の誤判定を避けることができるという効果が得られる。
(特徴量マッチングによる前方車輪先端部の位置取得の場合)
特徴量としては、例えば、AKAZE、SIFT、またはORBを使用することができる。本例では、基準画像RIとして、例えば自転車前方車輪の右上1/4が含まれた画像とする。いずれにせよ、基準画像RIは、前方車輪先端部を含むものであって、適正なマッチングが行われることを保証するサイズであれば足りる。各選手の自転車の前方車輪先端部を含む矩形領域HZn毎に基準画像RIとの特徴量マッチングを行い両方の画像から対応する点群を抽出する。より具体的には、基準画像RIから抽出した特徴点とHZn画像から抽出した特徴点をそれぞれの特徴量で比較し、十分な対応点が得られたら基準画像RIと前方車輪先端部領域HZn内で一定以上近接した点群同士の射影変換、すなわち基準画像RIと前方車輪先端部領域HZnの画像への変換行列を求める(例えばOpenCVのcv2.findHomography()などにより)。この行列と、各着衣色クラスタRCnの重心座標CCn(Xn,Yn)に基づいて、当該車両の前方車輪先端部の絶対位置(Xnh,Ynh)を特定する。このようにして、矩形領域HZn内の、基準画像RIに最も適合する領域を特定し、前方車輪先端部の絶対位置の座標のx成分を求める。
最後に、各選手の順位(着順)を決定し、出力する(S10)。具体的には、各選手の順位をXnhの降順で番号を振る。着順の出力の態様としては、表示部310へのテキストおよび/またはイメージによる表示、通信インタフェース部を介して外部へのデータ出力があり得る。この工程は図1に示した着順出力部95の処理に相当する。
なお、上記各工程の実行順序は支障のない範囲で前後しても構わない。また、前方車輪最先端部が手前の選手によって完全に隠れてしまう等、ゴールシーンGS内に得られたいずれかの矩形領域HZnについて基準画像RIとの画像マッチングが成功しない場合が生じうる。このような問題に対しては、ゴール位置のスリットカメラと反対側にミラーを設け、ミラーに写った反射画像についてもスリットカメラ画像を得て上記と同様の処理を並行して実行し、非反射画像の処理結果を補うことが可能である。本実施形態では画像中の数字を認識する訳ではないので、画像が反転しても特に問題はない。また、スリットカメラから見て、ミラーは選手の裏側の像を写すので、基準画像RIは同じものを利用可能である。反転画像と非反転画像の両方で画像マッチングが成功して両者の着順判定結果が異なる場合には着順判定装置のオペレータ等にその旨を告知する手段を備えてもよい。ミラーの代わりに別個のスリットカメラを設けて、このスリットカメラの出力に対して上記と同様の処理を変更に実行してもよい。この場合、基準画像RIを反転するか、またはスリットカメラの出力画像を反転する。
<第2のフローチャート>
図6は、図2に示した着順判定装置100bの機能ブロック図の各機能を、図4に示したデータ処理装置200が実行するための着順判定処理の第2のフローチャートを示す。図1に示した工程と同様の工程には同じ参照符号を付し、重複した説明は省略する。
この第2のフローチャートでは、工程S3の後、GS画像の背景画像BGを生成する(S4)。具体的には、上述のとおり、スリットカメラ画像の最初の縦ラインを横方向に複製した画像を作り背景BGとする。図8(b)にBG画像の例を示す。この工程は図2に示した背景画像生成部40の動作に対応する。
次いで、ゴールシーンGS画像から移動体部分(選手+自転車)を分離した二値画像MPを生成する(S5)。この工程は図2に示した二値画像生成部50の動作に対応する。図12(a)に、図8のGS画像に対応するMP画像の例を示す。
この工程S5の後、工程S7を介して工程S8へ移行する。
本例の工程S8では、各着衣色クラスタRCnの重心座標CCnに基づいて領域HZnをMP画像からクロップする。領域HZnのサイズを定める変数A,B,C,Dについては上記のとおりである。
図13に、n番目の選手に対応する前方車輪の領域HZnの画像と基準画像RIとの対比の例を示す。本例では、この基準画像RIは前方車輪のほぼ前方半分の領域を含む矩形領域の二値画像である。本例の領域HZnの画像はMP画像から得たものである。他の工程については、図5の第1のフローチャートと同じである。
<第3のフローチャート>
図7は、図3に示した着順判定装置100cの機能ブロック図の各機能を、図4に示したデータ処理装置200が実行するための着順判定処理の第3のフローチャートを示す。図1、図2に示した工程と同様の工程には同じ参照符号を付し、重複した説明は省略する。
この第3のフローチャートでは、第2のフローチャートの工程S5の後に、ゴールシーンGSと移動体部分の二値画像MP(選手+自転車)とに基づいて、移動体部分画像RBを生成する(S6)。換言すれば、GS画像をMP画像でマスクし、GS画像から移動体部分画像RBを生成する。この工程は図3に示した移動体部分画像生成部60の処理に対応する。図12(b)に、図8(a)のGS画像に対応するRB画像の例を示す。
なお、この工程の処理は、全画素の比較によってもよいし、所定の複数個の画素単位(例えば横3画素単位)の比較によってもよい。
以下に具体例を示す。
(全画素比較の場合)
GS画像およびBG画像の両画像を画素毎に対比し色相HnのMSBが一致する画素を"1"、しない画素を"0"とする二値画像MPを得る。
(横3画素単位で比較の場合)
GS画像を各ライン毎に、右端3画素分の領域と左側にあるライン上の画素を3画素単位で比較し、一致度が閾値以下の部分を抽出する。すなわち、GS画像を高さ1画素分の横長画像に分け、各横長画像に対応する右端の1x3のパターンをカーネルKとし、カーネルKのノルムと、左の横長画像から1画素ずつ順に抜き出した1x3のパターンのノルムの差が閾値以上の場合"1"、その他は"0"とする二値画像MPを生成する。
工程S6に続く工程S7aでは、各選手の着衣色クラスタRCn(およびその重心)を移動体部分RBから抽出する。さらに本例の工程S8では、各着衣色クラスタRCnの重心座標CCnを(Xn,Yn)とし、(Xn+A,Yn+B),(Xn+C,Yn+B),(Xn+A,Yn+D),(Xn+C,Yn+D)の4点で囲まれた領域HZnをMP画像またはGS画像からクロップする。他の工程は、図6の第2のフローチャートと同じである。
<変形例>
以上説明した実施形態は説明のための例示であり、本発明は必ずしも上記の構成および動作に限定されるものではなく、種々の変形、変更を行うことが可能である。
例えば、本発明は必ずしも競輪に限るものではなく、選手(競技参加者)が搭乗物とともに移動する競技であれば適用が可能である。そのような競技としては、競輪以外に例えばオートレース、競艇等が挙げられる。オートレースの場合には、搭乗物はオートバイであり、そのゴール判定対象は競輪と同様に前輪の先端部である。競艇の場合には、搭乗物はボートであり、そのゴール判定対象はボートの先端部である。競艇の場合の基準画像はボート先端部の画像とする。競馬については、現状とは異なるが騎手が馬番対応の異なる色の勝負服を装着すれば適用可能である。その場合の判定対象は典型的な馬の横顔(鼻)である。さらには、競技は公営競技に限るものでもない。
10 色採取部
20 許容範囲設定用パラメータ生成部
30 画像記憶部
40 背景画像生成部
50 二値画像生成部
60 移動体部分画像生成部
70 着衣色領域認識部
80 ゴール判定対象領域抽出部
90 画像マッチング部
95 着順出力部
100a~100c 着順判定装置
200 データ処理装置
200 データ処理装置
205 バス
220 メモリ
221 OS/プログラム領域
223 データ領域
225 ワーク領域
230 表示制御部
250 ストレージ
260 入出力I/F部(通信I/F部)
310 表示部
320 スリットカメラ
330 カメラ
340 操作部
BG 背景
CCn n番選手の着衣色
GS ゴールシーン
HZn n番選手のゴール判定対象領域(前方車輪先端部領域、矩形領域)
MP 移動体部分(選手+自転車、前景、二値画像)
PCn n番選手の着衣色
RB ゴールシーンGS中の移動体部分MPを切り抜いた画像
RCn n番選手の着衣色の近似色を持つ領域
RI 基準画像
WPn n番選手の特定位置座標(前方車輪先端部の位置の座標)

Claims (13)

  1. 複数の選手がそれぞれ異なる色の着衣を装着した競技において、ゴール位置に設置されたスリットカメラにより得られたゴールシーン画像をコンピュータで画像処理することにより、当該複数の選手がゴールする際の着順判定を行う着順判定方法であって、
    ゴールシーン画像に基づいて、各選手の着衣色の色領域を当該選手の胴体部として認識する工程と、
    各選手の前記胴体部の位置に基づいて、当該選手が搭乗している搭乗物の特定部分を含むゴール判定対象領域を抽出する工程と、
    前記抽出されたゴール判定対象領域の画像をゴール判定対象の基準画像とマッチングすることによりゴール判定対象の特定位置座標を取得する工程と、
    複数の選手について求められた前記特定位置座標に基づいて、当該複数の選手の着順を決定する工程と
    を備えた着順判定方法。
  2. 前記ゴールシーン画像に基づいて、前記ゴールシーン画像の背景に相当する背景画像を生成する工程と、
    ゴールシーン画像に基づいて各選手を含む移動体部分か否かを表す二値画像を生成する工程と、
    前記ゴールシーン画像と前記二値画像とに基づいて移動体部分画像を生成する工程とをさらに備え、
    前記着衣色の色領域を認識する工程は、前記移動体部分画像に基づいて色領域を認識する請求項1に記載の着順判定方法。
  3. 前記背景画像を生成する工程では、前記ゴールシーン画像の、前記移動体部分が含まれないことが保証される1ラインの画像を複製することにより背景画像が生成される請求項2に記載の着順判定方法。
  4. 前記ゴール判定対象領域を抽出する工程は、前記胴体部から所定の位置関係にある所定のサイズの矩形領域を当該選手のゴール判定対象領域として定める工程を含む請求項1から3のいずれかに記載の着順判定方法。
  5. 前記着衣色の色領域を認識する工程は、前記ゴールシーン画像に基づいて色領域を認識する請求項1に記載の着順判定方法。
  6. 前記着衣色の色領域を認識する工程は、
    画像内の各画素の色を、予め定められた着衣色判定時の許容範囲設定用パラメータに照らして当該画素の各着衣色への該当/非該当を判断する工程と、
    該当すると判断された画素群からノイズを除去する工程と
    を含む請求項1から5のいずれかに記載の着順判定方法。
  7. 複数の選手がそれぞれ異なる色の着衣を装着した競技において、当該複数の選手がゴールする際の着順判定を行う着順判定装置であって、
    ゴール位置に設置されたスリットカメラにより得られたゴールシーン画像を記憶する画像記憶部と、
    前記ゴールシーン画像において、各選手の着衣色の色領域を当該選手の胴体部として認識する着衣色領域認識部と、
    各選手の前記胴体部の位置に基づいて、前記ゴールシーン画像から当該選手が搭乗している搭乗物の特定部分を含むゴール判定対象領域を抽出するゴール判定対象領域抽出部と、
    前記抽出されたゴール判定対象領域の画像をゴール判定対象の基準画像とマッチングすることによりゴール判定対象の特定位置座標を求める画像マッチング部と、
    複数の選手について求められた前記特定位置座標に基づいて、当該複数の選手の着順を決定して出力する着順出力部と
    を備えた着順判定装置。
  8. 前記ゴールシーン画像の背景に相当する画像を前記ゴールシーン画像から生成する背景画像生成部と、
    前記ゴールシーン画像に基づいて各選手を含む移動体部分か否かを表す二値画像を生成する二値画像生成部と、
    前記ゴールシーン画像と前記二値画像とに基づいて移動体部分画像を生成するゴール判定対象領域抽出部とを備え、
    前記着衣色領域認識部は、前記移動体部分画像に基づいて色領域を認識する
    請求項7に記載の着順判定装置。
  9. 前記背景画像生成部は、前記ゴールシーン画像の、前記移動体部分が含まれないことが保証される1ラインの画像を複製することにより生成する請求項8に記載の着順判定装置。
  10. 前記ゴール判定対象領域抽出部は、前記胴体部から所定の位置関係にある所定のサイズの矩形領域を当該選手のゴール判定対象領域として定める請求項7から9のいずれかに記載の着順判定装置。
  11. 前記着衣色領域認識部は、前記ゴールシーン画像に基づいて色領域を認識する請求項8に記載の着順判定装置。
  12. 前記着衣色領域認識部は、画像内の各画素の色を、予め定められた着衣色判定時の許容範囲設定用パラメータに照らして当該画素の各着衣色への該当/非該当を判断し、該当すると判断された画素群からノイズを除去する請求項7から11のいずれかに記載の着順判定装置。
  13. 複数の選手がそれぞれ異なる色の着衣を装着した競技において、ゴール位置に設置されたスリットカメラにより得られたゴールシーン画像をコンピュータで画像処理することにより、当該複数の選手がゴールする際の着順判定を行うプログラムであって、
    コンピュータに、
    ゴールシーン画像に基づいて、各選手の着衣色の色領域を当該選手の胴体部として認識する工程と、
    各選手の前記胴体部の位置に基づいて、当該選手が搭乗している搭乗物の特定部分を含むゴール判定対象領域を抽出する工程と、
    前記抽出されたゴール判定対象領域の画像をゴール判定対象の基準画像とマッチングすることによりゴール判定対象の特定位置座標を取得する工程と、
    複数の選手について求められた前記特定位置座標に基づいて、当該複数の選手の着順を決定する工程と
    を実行させるプログラム。
JP2018235987A 2018-12-18 2018-12-18 着順判定方法、着順判定装置およびプログラム Active JP7161717B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018235987A JP7161717B2 (ja) 2018-12-18 2018-12-18 着順判定方法、着順判定装置およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018235987A JP7161717B2 (ja) 2018-12-18 2018-12-18 着順判定方法、着順判定装置およびプログラム

Publications (2)

Publication Number Publication Date
JP2020098441A JP2020098441A (ja) 2020-06-25
JP7161717B2 true JP7161717B2 (ja) 2022-10-27

Family

ID=71106516

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018235987A Active JP7161717B2 (ja) 2018-12-18 2018-12-18 着順判定方法、着順判定装置およびプログラム

Country Status (1)

Country Link
JP (1) JP7161717B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108109055B (zh) * 2018-01-08 2021-04-30 中国石油大学(华东) 一种基于图像渲染的跨场景服装检索方法
JP7449019B1 (ja) 2023-09-08 2024-03-13 株式会社SEtech 撮像装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002511718A (ja) 1998-04-10 2002-04-16 リンクス システム デベロッパーズ インコーポレイテッド 対象物認識機能及びデータ出力を有するカメラ
JP2004194904A (ja) 2002-12-18 2004-07-15 Hitachi Kokusai Electric Inc 着順およびタイム判定装置
WO2007037350A1 (ja) 2005-09-29 2007-04-05 Plusmic Corporation 馬位置情報解析並びに表示方法
JP2015150104A (ja) 2014-02-13 2015-08-24 株式会社日立システムズ 通過時刻集計システム、通過時刻集計方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002511718A (ja) 1998-04-10 2002-04-16 リンクス システム デベロッパーズ インコーポレイテッド 対象物認識機能及びデータ出力を有するカメラ
JP2004194904A (ja) 2002-12-18 2004-07-15 Hitachi Kokusai Electric Inc 着順およびタイム判定装置
WO2007037350A1 (ja) 2005-09-29 2007-04-05 Plusmic Corporation 馬位置情報解析並びに表示方法
JP2015150104A (ja) 2014-02-13 2015-08-24 株式会社日立システムズ 通過時刻集計システム、通過時刻集計方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
横倉 三郎,短距離競走の勝敗を決する計測システム -フライング判定とフィニッシュ判定-,計測と制御,日本,社団法人計測自動制御学会,1999年04月10日,第38巻 第4号,pp.274-280

Also Published As

Publication number Publication date
JP2020098441A (ja) 2020-06-25

Similar Documents

Publication Publication Date Title
US9036917B2 (en) Image recognition based on patterns of local regions
JP5976198B2 (ja) 人数計数装置および人数計数方法
US11024036B2 (en) Extracting an object region from an extraction target image including a display surface
JP4373840B2 (ja) 動物体追跡方法、動物体追跡プログラムおよびその記録媒体、ならびに、動物体追跡装置
CN109271937A (zh) 基于图像处理的运动场地标志物识别方法及系统
JP7161717B2 (ja) 着順判定方法、着順判定装置およびプログラム
KR101510798B1 (ko) 휴대용 얼굴 표정 연습 장치와 그 방법.
KR20100038168A (ko) 구도 해석 방법, 구도 해석 기능을 구비한 화상 장치, 구도 해석 프로그램 및 컴퓨터 판독 가능한 기록 매체
KR20100138202A (ko) 이종 카메라를 이용한 객체 추적 시스템 및 방법
CN112069988A (zh) 一种基于枪球联动的驾驶员安全驾驶行为检测方法
CN113569793A (zh) 一种跌倒识别方法及装置
CN107705279B (zh) 实现双重曝光的图像数据实时处理方法及装置、计算设备
JP2002049912A (ja) 人物画像取得システム
JP3844989B2 (ja) ストローク情報測定装置及びストローク情報測定方法
CN114375177A (zh) 身体测量装置及其控制方法
JP2009205283A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
CN110781712A (zh) 一种基于人脸检测与识别的人头空间定位方法
JP5272775B2 (ja) 電子スチルカメラ
US9323981B2 (en) Face component extraction apparatus, face component extraction method and recording medium in which program for face component extraction method is stored
JPH0765149A (ja) 人物認識装置
US20220207261A1 (en) Method and apparatus for detecting associated objects
CN115272417A (zh) 图像数据的处理方法、图像处理设备以及可读存储介质
JP5051885B2 (ja) 人物検索装置及び人物検索方法
CN108121963B (zh) 视频数据的处理方法、装置及计算设备
JP7048347B2 (ja) 位置関係決定装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210916

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220929

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221005

R150 Certificate of patent or registration of utility model

Ref document number: 7161717

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150