JP2021114288A - 深層学習に基づく馬速計算システム及び方法 - Google Patents

深層学習に基づく馬速計算システム及び方法 Download PDF

Info

Publication number
JP2021114288A
JP2021114288A JP2021003199A JP2021003199A JP2021114288A JP 2021114288 A JP2021114288 A JP 2021114288A JP 2021003199 A JP2021003199 A JP 2021003199A JP 2021003199 A JP2021003199 A JP 2021003199A JP 2021114288 A JP2021114288 A JP 2021114288A
Authority
JP
Japan
Prior art keywords
horse
speed
target
flow field
optical flow
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021003199A
Other languages
English (en)
Other versions
JP7168153B2 (ja
Inventor
レウン クワン、クォック
Kwok Leung Kwan
レウン クワン、クォック
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Target Information Co Ltd
Original Assignee
Target Information Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Target Information Co Ltd filed Critical Target Information Co Ltd
Publication of JP2021114288A publication Critical patent/JP2021114288A/ja
Application granted granted Critical
Publication of JP7168153B2 publication Critical patent/JP7168153B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • G06V20/42Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30221Sports video; Sports image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Operations Research (AREA)
  • Probability & Statistics with Applications (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

【課題】より科学的な方法で馬を観察したり、馬の速度を計算したりするために、人工知能技術を使用して、深層学習に基づく馬速計算システムおよび方法を提供する。【解決手段】深層学習に基づく馬速計算システムにおける方法は、カメラによって競技前にフィールドを歩き回っている馬の映像を取得して、オプティカルフロー場の計算、深層学習に基づくオブジェクトの検出、オプティカルフロー場の濾過、カメラ速度の計算、馬の変位でカメラ速度への調整及び単位変換によって、最後に対象馬の平均速度を取得する。【選択図】なし

Description

本発明は、深層学習の技術分野に関し、特に深層学習に基づく馬速計算システムおよび方法に関する。
乗馬スポーツは、スポーツ、フィットネス、レジャーを統合したスポーツであり、近年、ますます多くの人々に愛されている。乗馬スポーツに基づくスピード競馬は、競技イベントに発展し、スピードとライディングスキルで勝ち、ライダーの総合的なレベルをテストする。現在、馬のランキングを予測する際には、一般的に馬の状態(疲労の程度、発汗量、動作など)を視覚的に観察することに基づいて推定している。より正確な科学的かつインテリジェントな手段がまだ欠如している。
先行技術の欠点に鑑みて、本発明は、より科学的な方法で馬を観察したり、馬の速度を計算したりするために、人工知能技術を使用して、深層学習に基づく馬速計算システムおよび方法を提供することを目的とする。
上記の目的を達成するために、本発明は以下の技術的解決手段を採用する:
深層学習に基づく馬速計算システムの方法であって、以下のステップを含む:
S1、競技開始前に、競技に参加する馬が競技場を歩き回っており、カメラは、競技場を歩き回っている対象馬の映像を撮影してオプティカルフロー場計算モジュールに送信し、撮影中に、カメラは対象馬を撮影範囲内に維持するように回転する。
S2、カメラにより取得された映像に対して画像抽出を実行し、連続する画像間のオプティカルフロー場を計算する。
オプティカルフロー場計算モジュールは、カメラにより入力された映像を単独のフレームにデコードして、所定数Nのフレームごとに画像を抽出し、つまり、2枚の連続する画像間にN個のフレームがあり、2枚の連続する画像間のオプティカルフロー場を計算する。
S3、映像に対してオブジェクト人工知能検出を実行する。
オブジェクト人工知能検出モジュールは、映像に出現したオブジェクトを検出し、対象馬の位置とサイズを含む、検出された各オブジェクトの位置とサイズを保存し、オブジェクトの位置は中心点の位置であり、サイズは長さと幅を含む。
S4、オプティカルフロー場濾過モジュールは、ステップS3で検出されたオブジェクトに基づいて、ステップS2で得られたオプティカルフロー場からすべての移動オブジェクトを濾除する。
S5、カメラ速度計算モジュールは、ステップS4で濾過後のオプティカルフロー場に基づいてカメラの方向と速度を計算する。
S6、2枚の連続する画像間の対象馬速を計算する。
オブジェクト人工知能検出モジュールにより検出された対象馬の位置に基づいて、対象馬の現在画像における位置から1枚前の画像における位置を差し引くことによって、2枚の連続する画像間の対象馬の変位を算出し、変位の単位はピクセル/Nフレームであり、よって、対象馬速計算モジュールは、ピクセル/Nフレームを単位とする最終的なカメラ速度、つまり対象馬速Hを以下[数1]のように算出し:
Figure 2021114288
ωはピクセル/Nフレームを単位とするカメラの角速度であり、
Figure 2021114288
[数2]は1枚前の画像における対象馬の中心位置であり、dは現在画像における対象馬の中心位置である。
S7、出力モジュールは、算出された2つの連続する画像間の対象馬速のすべてを平均して、対象馬の平均速度を取得する。
さらに、ステップS2において、設定されたフレーム数は、5フレームである。
さらに、ステップS2において、オプティカルフロー場は、Farneback方法を使用して算出される。
さらに、ステップS3において、オブジェクト人工知能検出モジュールは、YOLOv3ネットワークを使用してオブジェクトの人工知能検出を実現する。
さらに、ステップS6において、Hを単位変換して、馬の長さ/秒を単位とする対象馬速を取得する。
まず、以下のように、Hに基づいてピクセル/秒を単位とする対象馬速[数3]
Figure 2021114288
を算出する:
Figure 2021114288
fpsは映像の1秒あたりのフレーム数である。
次に、ピクセルを馬の長さに変換して、以下のように馬の長さ/秒を単位とする対象馬速Vを算出する。
Figure 2021114288
Figure 2021114288
[数6]は、ピクセル/秒を単位とする対象馬速であり、Pixelsはピクセル/馬の長さを単位とする馬の長さのピクセル数である。
さらに、人工知能検出モジュールにより検出された対象馬の長さに対しては、異常状態検出方法RANSACを使用して、検出された馬の長さをチェックし、対象馬が映像の開始後の短い時間内に正常に歩くと仮定すると、新しいデータポイントの出現に伴って、新しい回帰モデルは、このサンプルデータ群に基づいて更新され、新しい回帰モデルと照合して新しいデータポイントをチェックし、既存の回帰モデルの高品質のデータポイントと照合することによって、すべての異常なデータ値が除去されて、既知の有効長に置き換えられる。
本発明はさらに深層学習に基づく馬速計算システムを提供し、このシステムは、
競技場に配置されており、競技前に競技場を歩き回っている対象馬の映像を撮影し、撮影中に、対象馬を撮影範囲内に維持するように回転するためのカメラと、
カメラにより取得された映像から画像を抽出し、連続する画像間のオプティカルフロー場を計算するためのオプティカルフロー場計算モジュールと、
人工知能を使用して、映像内のオブジェクトの位置とサイズを検出して保存するためのオブジェクト人工知能検出モジュールと、
オブジェクト人工知能検出モジュールの検出結果に従って、オプティカルフロー場計算モジュールにより算出されたオプティカルフロー場を濾過し、すべての移動物体を濾除するためのオプティカルフロー場濾過モジュールと、
オプティカルフロー場濾過モジュールにより濾過されたオプティカルフロー場を使用して、カメラの方向と速度を計算するためのカメラ速度計算モジュールと、
オブジェクト人工知能検出モジュールにより検出された対象馬の位置に基づいて、対象馬の現在画像における位置から1枚前の画像における位置を差し引くことによって、2枚の連続する画像間の対象馬の変位を算出し、馬の変位を使用してカメラ速度計算モジュールにより算出された2つの連続する画像間のカメラ速度を調整することによって対象馬速Hを取得し、調整式は、
Figure 2021114288
であり、ωはピクセル/Nフレームを単位とするカメラの角速度であり、
Figure 2021114288
[数8]は1枚前の画像における対象馬の中心位置であり、dは現在画像における対象馬の中心位置である目標馬速計算モジュールと、
取得された2つの連続する画像間の対象馬速のすべてを平均して、対象馬の平均速度を取得して輸出するための出力モジュールと、
を含む。
本発明の有益な効果は、本発明が人工知能技術を使用してより科学的な方法で馬を観察したり、馬度を計算したりすることを実現し、その結果、馬の競争ランキングを効果的に予測できることである。
YOLOv3のネットワークアーキテクチャの概略図である。 移動物体から光流ベクトルが除去されたときのオプティカルフロー場のヒストグラムへの影響を示す概略図である。 異なる姿勢での異なる馬の長さを示す概略図である。 本発明に係る実施形態の試験結果の概略図である。 本発明に係る実施形態の試験結果の概略図である。
本発明は、添付の図面と併せて以下にさらに説明される。本実施形態は本技術的解決手段を前提条件として詳細な実施方式および特定の操作手順を提供するが、本発明の保護範囲は、この実施形態に限定されないことに留意されたい。
<実施形態1>
本実施形態は、深層学習に基づく馬速計算システムの方法を提供し、以下の手順を含む:
S1、競技開始前に、競技に参加する馬が競技場を歩き回っており、カメラは、競技場を歩き回っている対象馬の映像を撮影してオプティカルフロー場計算モジュールに送信し、撮影中に、上記カメラは対象馬を撮影範囲内に維持するように回転する。
映像は通常、AVIまたはMP4エンコーディングで記録されるが、リアルタイムRTSPストリーミングも利用できる。映像は毎秒23〜26フレームである。
S2、カメラにより取得された映像に対して画像抽出を実行し、連続する画像間のオプティカルフロー場を計算する。
カメラの回転速度ωは、カメラが変化するラジアンレートΦを時間tで割った値に等しくなり、対象馬の直線速度(カメラの視野内にあると仮定)は、カメラと対象馬との間の距離の係数に比例する。しかし、希望の出力が馬の長さで表される且つカメラの配置(ズームレベル、距離など)が固定されないため、本実施形態では、1秒あたりのピクセル数、すなわちピクセル変位を使用してカメラの回転速度を表す。
本実施形態では、ピクセル変位を得るために、2枚の連続する画像間の光流れ(Horn and Schunck)を計算する。本実施形態では、オプティカルフロー場計算モジュールは、カメラにより入力された映像を単独のフレームにデコードして、5フレームごとに画像を抽出し、つまり、2枚の連続する画像間に5つのフレームがある。乗馬速度が比較的遅いため、カメラの回転速度も遅いので、精度に影響を与えることなくフレームをスキップすることで全体的なパフォーマンスを向上させることができる。光流れは、2つの関連する画像間の移動を、例えば、画像速度や離散オブジェクト変位(Beaucheminand Barron)など、推定するために使用される。1枚目の画像におけるピクセルのそれぞれにとっては価値がある。2つの画像間の時間が非常に短いと仮定すると、2枚目の画像におけるピクセル値は次のようになる:
Figure 2021114288
I(x,y,t)は、2枚目の画像における特定のピクセルのピクセル値を表し、xとyは、ピクセルのx軸とy軸における座標値をそれぞれ表し、tは時間を表し、Δx、Δy、Δtは、2枚目の画像における特定のピクセルの、1枚目の画像における対応のピクセルに対する、x軸における座標値の変化値、y軸における座標値の変化値および時間の変化値を表す。
光流れの目的は、2つの画像間の対応するピクセルを見つけて、それらを方向と長さ(方向は角度として表され、長さはピクセル数として表される。)として表すためである。オプティカルフロー場を計算する方法はいくつかある。本実施形態では、ファーンバック(Farneback)法が採用されている。
2つの画像は次のようにモデル化できる:
Figure 2021114288
Figure 2021114288
ここで、φ(x,y,t)とη(x,y,t)、i=1,2,...,nはそれぞれ、2つの画像のn個のプロセスモデルの基本関数であり、Aは、各プロセスモデルの空間と時間の変化の係数である。
(u,v)が測定の偏差項、E(u,v)が平滑化項、αが平滑化の加重係数であると仮定すると、2つの画像のオプティカルフロー場は、データの合計および加重の平滑化項の最小化である:
Figure 2021114288
E(u,v)は、2つの画像のオプティカルフロー場を表す。
S3、映像に対してオブジェクト人工知能検出を実行する。
得られたオプティカルフロー場には様々なノイズが含まれているため、他の物体(主に人や馬)の移動に起因するノイズを除去する必要がある。
オブジェクト人工知能検出モジュールは、映像に表示されたオブジェクトを検出し、検出された各オブジェクトの位置とサイズ(対象馬の位置とサイズが含まれる。)を保存する。その中で、検出位置は、関連するオブジェクトの光流れベクトルを濾過するために使用される。対象馬の位置とサイズは、馬の長さを補正と計算するためにオブジェクト変位として保存される。
本実施形態では、オブジェクト検出人工知能はYOLOv3に由来し、YOLOv3は、RedmonとFarhadiによって開発されたDark−netに由来する。他のオブジェクト検出モデルと同様に、YOLOv3は、完全に畳み込みのニューラルネットワーク(CNN)であり、残りのレイヤーとスキップコネクション技術を利用して、異なる深さのレイヤーを可能にし、推論結果に寄与する。このネットワークは、推論を行うために、53個の畳み込み層と最後の完全接続層で構成されている。図1は、YOLOv3のネットワークレイアウトを示す。
他の従来のオブジェクト検出人工知能と比べて、YOLOv3の利点は、一回だけの推論が必要であるため、他の多次元/マルチパスモデルよりもはるかに速いことにある。
入力画像には13×13のグリッドを打ち込み、各グリッドは最大5つのオブジェクトを予測する。それぞれのバウンディングボックスに対しては、ネットワークが5つの座標t、t、t、t、tを予測する。そのうち、t、tはそれぞれ、バウンディングボックスの中心点のx軸座標とy軸座標であり、t、tはそれぞれ、バウンディングボックスの幅と高さであり、tは、バウンディングボックスの信頼水準である。そうすると、列xと行yに位置する、座標が(c,c)である各グリッドの境界ボックスの幅と高さはp,pであり、オブジェクトの境界ボックスの予測は次のようになる:
Figure 2021114288
Figure 2021114288
Figure 2021114288
Figure 2021114288
Figure 2021114288
その中で、α()は論理活性化関数または正規化関数であり、結果値ε[0、1]。Pr(object)はオブジェクトの確率であり、IOU(b,Object)は、バウンディングボックスの精度である。これらの座標に加えて、各予測にはさらにそれに関連付けられるタイプを有する。本実施形態で使用されるYOLOv3ネットワークは、既に人間および馬に関する微調整訓練を受けており、ネットワークが人間および馬をより正確に検出できるように、最後の完全接続層で転移学習を行うことによって訓練を実現する。
各フレームの予測により、各オブジェクトの位置(中心点)とサイズ(長さと幅)が提供される。これらの情報は、オプティカルフロー場からのノイズを低減し、対象馬の変位とサイズを計算するために、下記の部分で使用される。
S4、オプティカルフロー場フィルターモジュールは、ステップS3で検出されたオブジェクトに基づいて、ステップS2で取得したオプティカルフロー場から、すべての移動オブジェクトを濾除する(ゼロに戻る)。このとき、オプティカルフロー場の最大成分は、5フレームごとにおける、ピクセルを単位とするカメラ速度となる。図2は、移動しているオブジェクトから光流れベクトルを除去した場合の、オプティカルフロー場のヒストグラムへの影響を示す。そのうち、図2(a)は濾過前の振幅ヒストグラム、図2(b)は濾過後の振幅ヒストグラムである。
S5、カメラ速度計算モジュールは、ステップS4で濾過後のオプティカルフロー場に基づいてカメラの方向と速度を計算する:
各光流れベクトルは、方向(角度)と速度(ピクセル)という2つの部分で構成される:
1.方向:カメラの方向値ωφがオプティカルフロー場の方向ヒストグラムの最大成分に等しい
2.速度:カメラの速度値ωがオプティカルフロー場の速度ヒストグラムの最大成分に等しい(逆方向を除去済)。
Figure 2021114288
Figure 2021114288
ここで、ωφとωは、カメラの方向と速度(変位)であり、Dは、オプティカルフロー場の方向ヒストグラムであり、Mは、オプティカルフロー場の速度ヒストグラムであり、Fωφは、方向についてのベクトルフィルターである。
S6、2枚の連続する画像間の対象馬速を計算する。
対象馬速が変化する可能性もあるし、カメラが対象を視野の中心に維持する可能性も低いため、この偏差は結果に影響を与えることがある。この影響を低減するために、対象馬の変位を計算することによって、算出されたカメラ速度を調整することができる。このような調整は、前の画像(つまり、5フレーム前)に対する現在の画像における対象馬の変位に基づくことであり、単位がピクセル/5フレームである。
具体的には、ステップS3において、オブジェクト人工知能検出モジュールは、対象馬の位置およびサイズを含む、各オブジェクト(人間および馬)の位置およびサイズを検出する。対象馬の現在位置から過去位置を差し引くことによって、対象馬の変位を算出する(ピクセル/5フレームを単位とする)。これによって、対象馬速計算モジュールは、ピクセルを単位とする最終的なカメラ速度、つまり対象馬速Hを以下のように算出する:
Figure 2021114288
ωはカメラの角速度(ピクセル/5フレームを単位とする)であり、
Figure 2021114288
[数21]は対象馬の中心の過去位置であり、dは対象馬の中心の現在位置である。希望の結果は馬の長さ/秒を単位とするため、Hを変換する必要がある。まず、時間単位を5フレームから1秒に変換する。fpsは映像の1秒あたりのフレーム数である。そうすると、ピクセル/秒を単位とする対象馬速[数22]
Figure 2021114288
は以下である:
Figure 2021114288
次に、ピクセル/秒を単位とする対象馬速を、馬の長さ/秒を単位とする対象馬速に変換する。
ステップS2.2において、オブジェクト人工知能検出モジュールは、対象馬の位置とサイズを検出する。ただし、位置とは異なり、対象馬のサイズはその姿勢に依存し、馬の長さの正確さもその姿勢に大きく依存する。図3(a)と(b)は異なる馬の姿勢を示しており、2つの異なる姿勢での馬の長さの差異を明らかに見える。オブジェクト人工知能検出モジュールがオブジェクトを検出できない場合は、以前に知られている馬の長さが使用される。
このような状況を軽減するために、本実施形態は、異常状態検出方法RANSACを使用して、検出された馬の長さをチェックする。対象馬が映像の開始後の短い時間内に正常に歩くと仮定すると、新しいデータポイントの出現に伴って、新しい回帰モデルは、このサンプルデータ群に基づいて更新される。新しい回帰モデルと照合して新しいデータポイントをチェックし、既存の回帰モデルの高品質のデータポイントと照合することによって、すべての異常なデータ値が除去されて、既知の有効長に置き換えられる。ピクセルを馬の長さに変換して、馬の長さ/秒を単位とする対象馬速Vを算出する:
Figure 2021114288
Figure 2021114288
[数25]はピクセル/秒を単位とする目標馬速であり、Pixelsはピクセル/馬の長さを単位とする馬の長さのピクセル数である。
S7、出力モジュールは、算出された2枚の連続する画像間の対象馬速のすべてを平均して、対象馬の平均速度を取得する。平均速度は、馬の長さ/秒で表される。最終的な結果は、リアルタイム映像に表示したり、ファイルに出力したりすることができる。
予測によって得られた各馬の平均速度に基づいて、競技のランキングを効果的に予測することができる。
以下、試験を通して本実施形態に係る方法の性能をさらに説明する。
このテストには3000を超えるサンプル映像があり、3000を超える映像クリップからランダムに競技会場Aからの40個の映像クリップと競技会場Bからの40個の映像クリップをサンプリングする。各映像の長さは30〜45秒である。図4には会場Bのテスト結果を示し、図5には会場Aのテスト結果を示す。X軸は5%を間隔とするエラー率を表し、Y軸はエラー率内の結果の数を表す。エラー率は、推定結果と実際の結果との差を実際の結果の絶対値で割ったものである:
Figure 2021114288
εはエラー(パーセンテージ)であり、Rは実際の結果(馬の長さ/秒)であり、Rは本実施形態に係る方法による予測結果である。
人工で観測された実際の速度値は、距離が既知である映像内の2点間の時間を測定することで推定できる。また、馬の長さは、対象馬の実際の長さではなく、競走馬の平均長度(2.4m)を使用する。実際の速度は次のように計算される:
Figure 2021114288
=実際の速度(馬の体/秒)
D=砂円における2つの既知点の間の距離(m)
T=経過時間(秒)
L=競走馬の平均長度(2.4m/馬の体)
結果に示すように、テストサンプルの86%(69/80)以上がエラーの10%以内に収まっており、そして、テストサンプルの1.5%(1/80)未満だけが20%のエラー範囲外に落ちる。
これから分かるように、実施形態1に係る方法の精度は、期待値に匹敵する。正解率は90%を超え、リコール率は86%を超えている。さらに、異なる競技会場の環境も通常、非常に異なる(背景、移動物体/障害物の数、および観察距離)。したがって、実施形態1に係る方法は、異なる砂円条件に対してロバストを持ち、異なる視点にも適応することができる。
<実施形態2>
本実施形態は、深層学習に基づく馬速計算システムを提供し、以下を含む:
カメラは、競技場に設置されており、競技前に競技場を歩き回っている対象馬の映像を撮影するために使用される。撮影中に、上記カメラは対象馬を撮影範囲内に維持するように回転する。
オプティカルフロー場計算モジュールは、カメラにより取得された映像から画像を抽出して、連続する画像間のオプティカルフロー場を計算するために使用される。
オブジェクト人工知能検出モジュールは、YOLOv3ネットワークを利用して映像内のオブジェクトの位置とサイズを検出して保存するために使用される。
オプティカルフロー場濾過モジュールは、オブジェクト人工知能検出モジュールの検出結果によって、オプティカルフロー場計算モジュールにより算出されたオプティカルフロー場を濾過し、すべての移動オブジェクトを濾除するために使用される。
カメラ速度計算モジュールは、オプティカルフロー場濾過モジュールにより濾過された光フローフィールドを利用して、カメラの方向と速度を計算するために使用される。
目標馬速計算モジュールは、オブジェクト人工知能検出モジュールの対象馬の位置に基づいて、対象馬の現在画像における位置から1枚前の画像における位置を差し引くことによって、2枚の連続する画像間の馬の変位を計算し、馬の変位を利用してカメラ速度計算モジュールにより算出された2枚の連続する画像間のカメラ速度を補正し、これによって2枚の連続する画像間のピクセルで表される対象馬速を取得し、その後、ピクセルで表される対象馬速に対して単位変換を行うために使用される。
出力モジュールは、取得した2枚の連続する画像間の対象馬速のすべてを平均して、対象馬の平均速度を取得して出力するために使用される。平均速度の単位は、馬の長さ/秒である。
当業者にとっては、上記の技術的解決手段およびアイデアに基づいて、対応する様々な変更および修正を提供することができる。これらの変更および修正のすべても、本発明の特許請求の範囲に含まれるべきである。

Claims (7)

  1. 競技開始前に、競技に参加する馬が競技場を歩き回っており、カメラは、競技場を歩き回っている対象馬の映像を撮影してオプティカルフロー場計算モジュールに送信し、撮影中に、前記カメラは対象馬を撮影範囲内に維持するように回転するステップと、
    前記カメラにより取得された映像に対して画像抽出を実行し、連続する画像間のオプティカルフロー場を計算するステップであって、前記オプティカルフロー場計算モジュールは、前記カメラにより入力された映像を単独のフレームにデコードして、前記連続する画像間において所定数Nのフレームごとに画像を抽出し、前記連続する画像間のオプティカルフロー場を計算するステップと、
    前記映像に対してオブジェクト人工知能検出を実行し、オブジェクト人工知能検出モジュールは、前記映像に出現したオブジェクトを検出し、前記対象馬の位置とサイズを有する、検出された各オブジェクトの位置とサイズを保存するステップであって、前記オブジェクトの位置は中心点の位置であり、前記サイズは長さと幅を含む、保存するステップと、
    オプティカルフロー場濾過モジュールは、前記保存するステップで検出された前記オブジェクトによって、前記オプティカルフロー場を計算するステップで得られたオプティカルフロー場からすべての移動オブジェクトを濾除するステップと、
    カメラ速度計算モジュールは、前記濾除するステップ後のオプティカルフロー場に基づいて前記カメラの方向と速度を計算するステップと、
    前記連続する画像間の対象馬速を計算し、前記オブジェクト人工知能検出モジュールにより検出された前記対象馬の位置に基づいて、前記対象馬の現在画像における位置から1枚前の画像における位置を差し引くことによって、前記連続する画像間の前記対象馬の変位を算出し、前記変位の単位はピクセル/Nフレームであり、よって、対象馬速計算モジュールは、ピクセル/Nフレームを単位とする最終的なカメラ速度である対象馬速Hを[数1]によって算出するステップと、
    出力モジュールは、算出された2つの連続する画像間の対象馬速のすべてを平均して、対象馬の平均速度を取得するステップと、
    を含む、深層学習に基づく馬速計算システムの方法であって、
    Figure 2021114288
    Figure 2021114288
    ωはピクセル/Nフレームを単位とする前記カメラの角速度であり、上記[数2]は1枚前の画像における対象馬の中心位置であり、dは現在画像における対象馬の中心位置である、馬速計算システムの方法。
  2. 前記オプティカルフロー場を計算するステップにおいて、設定されたフレーム数は、5フレームである、請求項1に記載の馬速計算システムの方法。
  3. 前記オプティカルフロー場を計算するステップにおいて、前記オプティカルフロー場は、Farneback方法を使用して算出される、請求項1または2に記載の馬速計算システムの方法。
  4. 前記保存するステップにおいて、オブジェクト人工知能検出モジュールは、YOLOv3ネットワークを使用してオブジェクトの人工知能検出を実現する請求項1から3のいずれか一項に記載の馬速計算システムの方法。
  5. 前記算出するステップにおいて、前記対象馬速Hを単位変換して、馬の長さ/秒を単位とする対象馬速を取得し、
    [数3]のように、前記対象馬速Hに基づいてピクセル/秒を単位とする対象馬速[数4]を算出し、
    ピクセルを馬の長さに変換して、[数5]によって馬の長さ/秒を単位とする対象馬速Vを算出する、馬速計算システムの方法であって、
    Figure 2021114288
    Figure 2021114288
    Figure 2021114288

    fpsは映像の1秒あたりのフレーム数であり、Pixelsはピクセル/馬の長さを単位とする馬の長さのピクセル数である、請求項1から4のいずれか一項に記載の馬速計算システムの方法。
  6. 人工知能検出モジュールにより検出された対象馬の長さに対しては、異常状態検出方法RANSACを使用して、検出された馬の長さをチェックし、対象馬が映像の開始後の短い時間内に正常に歩くと仮定すると、新しいデータポイントの出現に伴って、新しい回帰モデルは、このサンプルデータ群に基づいて更新され、新しい回帰モデルと照合して新しいデータポイントをチェックし、既存の回帰モデルの高品質のデータポイントと照合することによって、すべての異常なデータ値が除去されて、既知の有効長に置き換えられる、請求項5に記載の馬速計算システムの方法。
  7. 競技場に配置されており、競技前に競技場を歩き回っている対象馬の映像を撮影することに用いられ、撮影中に、前記対象馬を撮影範囲内に維持するように回転するカメラと、
    前記カメラにより取得された映像から画像を抽出し、連続する画像間のオプティカルフロー場を計算するオプティカルフロー場計算モジュールと、
    人工知能を使用して、映像内のオブジェクトの位置とサイズを検出して保存するためのオブジェクト人工知能検出モジュールと、
    前記オブジェクト人工知能検出モジュールの検出結果に従って、オプティカルフロー場計算モジュールにより算出されたオプティカルフロー場を濾過し、すべての移動物体を濾除するオプティカルフロー場濾過モジュールと、
    前記オプティカルフロー場濾過モジュールによって濾過されたオプティカルフロー場を使用して、前記カメラの方向と速度を計算するカメラ速度計算モジュールと、
    前記オブジェクト人工知能検出モジュールにより検出された前記対象馬の位置に基づいて、前記対象馬の現在画像における位置から1枚前の画像における位置を差し引くことによって、連続する画像間の前記対象馬の変位を算出し、前記対象馬の変位を使用して前記カメラ速度計算モジュールにより算出された前記連続する画像間のカメラ速度を調整式[数6]によって調整することで対象馬速Hを取得する目標馬速計算モジュールであって、
    Figure 2021114288
    Figure 2021114288
    ωはピクセル/Nフレームを単位とする前記カメラの角速度であり、上記[数7]は1枚前の画像における前記対象馬の中心位置であり、dは現在画像における前記対象馬の中心位置である、目標馬速計算モジュールと、
    取得された前記連続する画像間の対象馬速のすべてを平均し、前記対象馬の平均速度を取得して出力する出力モジュールと、
    を含む、深層学習に基づく馬速計算システム。
JP2021003199A 2020-01-13 2021-01-13 深層学習に基づく馬速計算システム及び方法 Active JP7168153B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010030062 2020-01-13
CN202010030062.2 2020-01-13

Publications (2)

Publication Number Publication Date
JP2021114288A true JP2021114288A (ja) 2021-08-05
JP7168153B2 JP7168153B2 (ja) 2022-11-09

Family

ID=71001742

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021003199A Active JP7168153B2 (ja) 2020-01-13 2021-01-13 深層学習に基づく馬速計算システム及び方法

Country Status (5)

Country Link
EP (1) EP4105819A4 (ja)
JP (1) JP7168153B2 (ja)
CN (1) CN111274914B (ja)
AU (1) AU2021200218B2 (ja)
WO (1) WO2021143716A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111274914B (zh) * 2020-01-13 2023-04-18 目骉资讯有限公司 一种基于深度学习的马匹速度计算系统及方法
CN112364796B (zh) * 2020-11-18 2023-08-01 合肥湛达智能科技有限公司 一种基于深度学习的目标速度检测方法及系统
US11532099B2 (en) * 2021-02-03 2022-12-20 BetMIX, LLC Method and system for compiling performance metrics for racing competitors

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050177802A1 (en) * 2003-01-25 2005-08-11 Mostert Paul S. Methods and computer-readable medium for navigating between a plurality of discrete images
JP2008527854A (ja) * 2005-01-07 2008-07-24 ジェスチャー テック,インコーポレイテッド オプティカルフローに基づく傾きセンサー
JP2010198634A (ja) * 2010-05-14 2010-09-09 Casio Computer Co Ltd 画像処理装置および画像処理のプログラム
JP2019125933A (ja) * 2018-01-17 2019-07-25 キヤノン株式会社 像振れ補正装置、撮像装置、像振れ補正装置の制御方法およびプログラム
JP2019144830A (ja) * 2018-02-20 2019-08-29 Kddi株式会社 複数の認識エンジンを用いて人物の行動を認識するプログラム、装置及び方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5513103A (en) * 1991-01-10 1996-04-30 Charlson; Cary Method of acquiring and disseminating handicapping information
JP2002074369A (ja) * 2000-08-28 2002-03-15 Ntt Data Corp 動画像による監視システム、方法及びコンピュータ読み取り可能な記録媒体
US10480939B2 (en) * 2016-01-15 2019-11-19 Fugro Roadware Inc. High speed stereoscopic pavement surface scanning system and method
CN107038713A (zh) * 2017-04-12 2017-08-11 南京航空航天大学 一种融合光流法和神经网络的运动目标捕捉方法
CN107274433B (zh) * 2017-06-21 2020-04-03 吉林大学 基于深度学习的目标跟踪方法、装置及存储介质
CN108592992B (zh) * 2018-03-22 2021-01-26 京东方科技集团股份有限公司 马匹骑行的监测方法及装置
CN109030854B (zh) * 2018-06-08 2020-11-10 电子科技大学 一种基于rgb图像的步速测量方法
CN109766752B (zh) * 2018-11-28 2023-01-03 西安电子科技大学 一种基于深度学习的目标匹配和定位方法及系统、计算机
CN111274914B (zh) * 2020-01-13 2023-04-18 目骉资讯有限公司 一种基于深度学习的马匹速度计算系统及方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050177802A1 (en) * 2003-01-25 2005-08-11 Mostert Paul S. Methods and computer-readable medium for navigating between a plurality of discrete images
JP2008527854A (ja) * 2005-01-07 2008-07-24 ジェスチャー テック,インコーポレイテッド オプティカルフローに基づく傾きセンサー
JP2010198634A (ja) * 2010-05-14 2010-09-09 Casio Computer Co Ltd 画像処理装置および画像処理のプログラム
JP2019125933A (ja) * 2018-01-17 2019-07-25 キヤノン株式会社 像振れ補正装置、撮像装置、像振れ補正装置の制御方法およびプログラム
JP2019144830A (ja) * 2018-02-20 2019-08-29 Kddi株式会社 複数の認識エンジンを用いて人物の行動を認識するプログラム、装置及び方法

Also Published As

Publication number Publication date
AU2021200218B2 (en) 2022-12-01
WO2021143716A1 (zh) 2021-07-22
JP7168153B2 (ja) 2022-11-09
CN111274914A (zh) 2020-06-12
CN111274914B (zh) 2023-04-18
EP4105819A1 (en) 2022-12-21
EP4105819A4 (en) 2024-05-15
AU2021200218A1 (en) 2021-08-05

Similar Documents

Publication Publication Date Title
JP2021114288A (ja) 深層学習に基づく馬速計算システム及び方法
Haque et al. Heartbeat rate measurement from facial video
JP5001260B2 (ja) オブジェクト追跡方法及びオブジェクト追跡装置
KR101071352B1 (ko) 좌표맵을 이용한 팬틸트줌 카메라 기반의 객체 추적 장치 및 방법
CN111553274A (zh) 一种基于轨迹分析的高空抛物检测方法及装置
WO2009112790A1 (en) Image processing method and image processing apparatus
JP6217635B2 (ja) 転倒検知装置および転倒検知方法、転倒検知カメラ、並びにコンピュータ・プログラム
TWI615026B (zh) 基於人體資訊的機器人監控系統及方法
Min et al. Human fall detection using normalized shape aspect ratio
Chen et al. Neuromorphic vision-based fall localization in event streams with temporal–spatial attention weighted network
CN109492588A (zh) 一种基于人工智能的快速车辆检测与分类方法
JP2021071794A (ja) 主被写体判定装置、撮像装置、主被写体判定方法、及びプログラム
CN114187656A (zh) 一种动作检测方法、装置、设备及存储介质
CN110472614A (zh) 一种晕倒行为的识别方法
CN110738601A (zh) 一种基于三维人脸模型低分辨率人脸图像超分辨率重建方法
CN115565130A (zh) 一种无人值守系统及其基于光流的监控方法
CN114792429A (zh) 多视角摔倒检测方法、装置及存储介质
CN110111368B (zh) 一种基于人体姿态识别的相似移动目标的检测跟踪方法
JP4643856B2 (ja) ストローク情報測定装置及びストローク情報測定方法
Uddin et al. A thermal camera-based activity recognition using discriminant skeleton features and rnn
JP2021149687A (ja) 物体認識装置、物体認識方法及び物体認識プログラム
Brieva et al. An intelligent human fall detection system using a vision-based strategy
KR102468648B1 (ko) 영상에 대한 원격 광용적맥파신호를 이용하여 사람의 심박수를 산출하는 방법
CN111127355A (zh) 一种对缺损光流图进行精细补全的方法及其应用
CN112906548B (zh) 一种基于边缘计算的跌倒检测方法及系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210413

AA79 Non-delivery of priority document

Free format text: JAPANESE INTERMEDIATE CODE: A24379

Effective date: 20210525

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220426

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220909

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220927

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221017

R150 Certificate of patent or registration of utility model

Ref document number: 7168153

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150