JP2017091092A - 画像処理方法、画像処理プログラムおよび画像処理装置 - Google Patents

画像処理方法、画像処理プログラムおよび画像処理装置 Download PDF

Info

Publication number
JP2017091092A
JP2017091092A JP2015218623A JP2015218623A JP2017091092A JP 2017091092 A JP2017091092 A JP 2017091092A JP 2015218623 A JP2015218623 A JP 2015218623A JP 2015218623 A JP2015218623 A JP 2015218623A JP 2017091092 A JP2017091092 A JP 2017091092A
Authority
JP
Japan
Prior art keywords
image data
image processing
ball
image
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015218623A
Other languages
English (en)
Other versions
JP6606985B2 (ja
Inventor
佐々木 和雄
Kazuo Sasaki
和雄 佐々木
矢吹 彰彦
Akihiko Yabuki
彰彦 矢吹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2015218623A priority Critical patent/JP6606985B2/ja
Priority to US15/289,428 priority patent/US10115020B2/en
Publication of JP2017091092A publication Critical patent/JP2017091092A/ja
Application granted granted Critical
Publication of JP6606985B2 publication Critical patent/JP6606985B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • G06V20/42Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/30Clipping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30221Sports video; Sports image
    • G06T2207/30224Ball; Puck
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/44Event detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

【課題】利用者が所望する画像を効率よく検索すること。【解決手段】画像処理装置100は、判定部160と、特定部170と、切り出し部180とを有する。判定部160は、カメラ50によって撮影された連続する複数の画像データを取得し、複数の画像データに含まれる画像データの部分領域に、所定の特徴を有する物体が存在するか否かを判定する。特定部170は、部分領域に物体が存在する場合に、物体の存在する画像データよりも前に撮影された画像データから、物体を検出する処理を繰り返し実行する。特定部170は、複数の画像データから検出した物体の位置および複数の画像データの時刻に基づいて、物体の移動軌跡を算出し、移動軌跡の開始位置および開始時刻を特定する。切り出し部180は、特定部170の特定結果を基にして、利用者の所望する画像データを切り出す。【選択図】図2

Description

本発明は、画像処理方法等に関する。
近年、センサ技術や映像処理技術が発達し、各種のスポーツの分野で利用されている。例えば、サッカー、バスケット、バレーボール等のチームスポーツにおいて、センサ技術または映像処理技術を利用し、試合中の選手やボールの動きをトラッキングする従来技術がある。以下では一例として、従来技術1,2について説明する。
従来技術1は、複数のカメラで選手がプレーするコートを撮影し、マッチング等の画像処理によって、ボールを検出する。そして、従来技術1は、ステレオ画像の原理に基づき、ボールの位置を算出する。また、従来技術1では、ボールの場合と同様にして、画像処理によって、選手を検出することで、ステレオ画像の原理に基づき、選手の位置を算出することもできる。
従来技術2は、ボールにセンサを付与し、付与したセンサと通信を行って、ボールの位置を算出する。同様に、選手にセンサを付与すれば、選手の位置を算出することもできる。
従来技術には、上記の従来技術1,2等を用いて、ボールまたは選手の位置を算出する処理を繰り返し実行してトラッキングを行い、ボールまたは選手のトラッキング結果を表示するものがある。図20は、従来技術によるトラッキング結果の一例を示す図である。図20に示す例では、コート1上に存在する第1チームの各選手の2次元位置と、第2チームの各選手の2次元位置とが、識別可能に表示されている。
また、図20に示したトラッキング結果とは別に、各カメラで撮影された映像データをデータベースに保存しておき、試合終了後に、選手自身が、シュート時の映像を検索し、シュート時のフォームを確認することも行われている。
特表2014−531588号公報 特開2003−174609号公報 実登第3012003号公報 特開平3−139374号公報
しかしながら、上述した従来技術では、利用者が所望する画像を効率よく検索することができないという問題がある。
上述した従来技術1,2は、選手やボールの位置を検出するものであり、利用者が所望する特定の映像データを検出するものではない。このため、利用者がシュート時のフォームを確認する場合には、データベースに保存された映像データを利用者自身が確認し、シュートを放った時間帯の映像データを、利用者自身が特定することが一般的であり、利用者に係る負担が大きい。
また、仮に、従来技術1を利用して、画像処理により、シュート時の映像データを特定しようとすると、同一画像上に複数の選手が存在する場合や、練習時に複数の選手が異なるボールを持つ場合など様々なパターンが存在するため、処理負荷が大きくなり、精度も低くなる。なお、従来技術2では、複数の選手が存在していても、ボールの位置を検出できるものの、センサを備える特殊なボールを用いることになるので、公式の試合中には用いることができない。
1つの側面では、本発明は、利用者が所望する画像を効率よく検索することができる画像処理方法、画像処理プログラムおよび画像処理装置を提供することを目的とする。
第1の案では、コンピュータが下記の処理を実行する。コンピュータは、撮影装置によって撮影された連続する複数の画像データを取得し、複数の画像データに含まれる画像データの部分領域に、所定の特徴を有する物体が存在するか否かを判定する。コンピュータは、部分領域に前記物体が存在する場合に、物体の存在する画像データよりも前に撮影された画像データから、物体を検出する処理を繰り返し実行する。コンピュータは、複数の画像データから検出した物体の位置に基づいて、物体の移動軌跡を算出し、移動軌跡の開始位置を特定する。
利用者が所望する画像を効率よく検索することができる。
図1は、本実施例に係る画像処理装置の処理を説明するための図である。 図2は、本実施例に係る画像処理装置の構成を示す機能ブロック図である。 図3は、画像フレームテーブルのデータ構造の一例を示す図である。 図4は、トラッキングテーブルのデータ構造の一例を示す図である。 図5は、シュートデータテーブルのデータ構造の一例を示す図である。 図6は、ボール軌跡のデータ構造の一例を示す図である。 図7は、本実施例に係る判定部の処理を説明するための図(1)である。 図8は、カメラの設置位置を示す図である。 図9は、平行ステレオによる座標系を示す図である。 図10は、本実施例に係る特定部の処理を説明するための図(1)である。 図11は、本実施例に係る特定部の処理を説明するための図(2)である。 図12は、本実施例に係る切り出し部の処理を説明するための図である。 図13は、本実施例に係る画像処理装置の処理手順を示すフローチャートである。 図14は、シュート検出処理の処理手順を示すフローチャートである。 図15は、ボール軌跡の表示画面の一例を示す図である。 図16は、トラッキングテーブルのその他のデータ構造の一例を示す図である。 図17は、画像処理装置のその他の処理を説明するための図である。 図18は、特定部のその他の処理を説明するための図である。 図19は、画像処理プログラムを実行するコンピュータの一例を示す図である。 図20は、従来技術によるトラッキング結果の一例を示す図である。
以下に、本願の開示する画像処理方法、画像処理プログラムおよび画像処理装置の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。
本実施例に係る画像処理装置の処理について説明する。図1は、本実施例に係る画像処理装置の処理を説明するための図である。画像処理装置は、選手によってシュートされたボールのみが通過する部分領域10aを画像フレーム10に設定する。例えば、部分領域10aは、バスケットゴール10b周辺に設定される。
画像処理装置は、部分領域10a内に、ボールが存在するか否かを判定する。例えば、画像処理装置は、ボールの形状やサイズを定義したテンプレートを用いて、部分領域10aにボールが存在するか否かを判定する。図1に示す例では、画像処理装置は、部分領域10aから、ボール5を検出する。画像処理装置は、部分領域10aからボール5を検出すると、ステレオ画像の原理に基づいて、ボール5の3次元座標を算出する。
画像処理装置は、部分領域10aからボール5を検出すると、画像処理装置は、画像フレーム10よりも1、2枚前の画像フレーム11を取得し、画像フレーム11から、ボール5を検出する。画像処理装置は、画像フレーム11から検出したボール5の3次元座標を、ステレオ画像の原理に基づいて算出する。
画像処理装置は、画像フレーム10で検出したボール5の位置を手がかりとして、画像フレーム11からボール5を検出しても良い。画像処理装置は、画像フレーム10,11から検出した各ボール5の3次元座標を基にして、ボール5の軌跡5aを推定する。画像処理装置は、軌跡5aに基づいて、軌跡5aの開始位置6と、ボール5が、開始位置6に存在していた時刻を推定する。以下の説明では、適宜、ボール5が開始位置6に存在していた時刻を、「開始時刻」と表記する。
画像処理装置は、開始時刻に対応する画像フレーム12を取得し、開始位置6から、ボール5を検出する。画像処理装置は、画像フレーム12で検出したボール5の3次元座標を、ステレオ画像の原理に基づいて算出する。画像処理装置は、ボール5の3次元座標に存在する選手7を特定する。
上記のように、画像処理装置は、シュートされたボール5だけが通過する部分領域10aからボール5を検出した場合に、ボール5の位置から画像フレームを遡って、シュートの発生場所に対応する開始位置6を特定し、シュート時の画像フレームを特定する。例えば、図1に示す例では、画像フレーム12に続く複数の画像フレームが、選手がシュートしてからの一連の動作を含む映像データとなる。このため、画像処理装置によれば、利用者が所望する画像を効率よく検索することができる。
次に、本実施例にかかる画像処理装置の構成の一例について説明する。図2は、本実施例に係る画像処理装置の構成を示す機能ブロック図である。図2に示すように、この画像処理装置100は、カメラ50a〜50dおよびトラッキング装置55に接続される。画像処理装置100は、記憶部110と、記憶部120と、記憶部130とを有する。画像処理装置100は、トラッキングデータ取得部140と、キャプチャ部150と、判定部160と、特定部170と、切り出し部180とを有する。
カメラ50a〜50dは、選手がプレーするコート上の映像を撮影するカメラである。カメラ50a〜50dをまとめて、適宜、カメラ50と表記する。カメラ50a〜50dのうち、少なくとも2台以上のカメラ50は、シュートされたボールだけが通過する部分領域が撮影範囲に含まれるように設定される。カメラ50は、撮影した映像データを、画像処理装置100に出力する。映像データは、複数の画像フレームが連続するデータである。本実施例では、一例として、カメラ50a〜50dを示すが、更に、その他のカメラを用いて、コート上の映像を撮影し、画像処理装置100に映像データを出力しても良い。
トラッキング装置55は、コート上の選手の位置を検出する処理を繰り返し実行することで、選手の位置と時刻とを対応付けたトラッキングデータを生成する処理部である。トラッキング装置55は、トラッキングデータを画像処理装置100に出力する。トラッキング装置55は、如何なる従来技術に基づいて、トラッキングデータを生成しても良い。例えば、各選手にセンサを取り付けて、各センサとデータ通信を実行し、トラッキングデータを生成しても良いし、カメラ50から得られる映像データを基にした画像処理によって、トラッキングデータを生成しても良い。
記憶部110は、画像フレームテーブル110aを有する。記憶部120は、トラッキングテーブル120aおよび映像データ120bを有する。記憶部130は、シュートデータテーブル130aおよびシュートシーン映像データ130bを有する。例えば、記憶部110,120,130は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子や、HDD(Hard Disk Drive)などの記憶装置に対応する。
画像フレームテーブル110aは、各カメラ50で撮影された映像データ(連続する画像フレーム)を記憶するテーブルである。図3は、画像フレームテーブルのデータ構造の一例を示す図である。図3に示すように、この画像フレームテーブル110aは、時刻と、カメラ50から取得した画像フレームとを対応付ける。
トラッキングテーブル120aは、トラッキング装置55により生成されるトラッキングデータを保持するテーブルである。図4は、トラッキングテーブルのデータ構造の一例を示す図である。図4に示すように、このトラッキングテーブル120aは、時刻と、選手の3次元座標とを対応付ける。
映像データ120bは、カメラ50によって撮影された映像データである。例えば、映像データ120bは、複数のカメラ50のうち、コート全体を撮影範囲に含むカメラ50の映像データや、コート全体のうち、一部の領域を撮影範囲に含むカメラ50の映像データを含む。
シュートデータテーブル130aは、選手がボールをシュートした映像に関する情報を保持するテーブルである。図5は、シュートデータテーブルのデータ構造の一例を示す図である。図5に示すように、このシュートデータテーブル130aは、開始時刻と、終了時刻と、選手識別情報と、ボール軌跡と、映像ファイル名とを対応付ける。
シュートシーン映像データ130bは、選手のシュートシーンの映像データを示すものである。例えば、シュートシーン映像データ130bは、映像ファイル名と、映像データとを対応付けた情報を有する。シュートシーン映像データ130bは、後述する切り出し部180により、映像データ120bから切り出される。
開始時刻は、選手がボールをシュートした時刻であり、例えば、図1で説明した開始時刻に対応する。終了時刻は、例えば、開始時刻から所定時間後の時刻に対応する。選手識別情報は、選手を一意に識別する情報である。ボール軌跡は、開始時刻から終了時刻までの、ボールの3次元座標と時刻とを対応付けた情報である。映像ファイル名は、開始時刻から終了時刻までの映像データのファイル名を示す。
図6は、ボール軌跡のデータ構造の一例を示す図である。図6に示すように、ボール軌跡は、時刻とボールの3次元座標とを対応付ける。
図2の説明に戻る。トラッキングデータ取得部140は、トラッキング装置55からトラッキングデータを取得する処理部である。例えば、トラッキングデータには、選手の3次元座標と時刻とを対応付けた情報が含まれているものとする。トラッキングデータ取得部140は、トラッキングデータを、トラッキングテーブル120aに格納する。
キャプチャ部150は、カメラ50から映像データを取得する処理部である。映像データは、連続する複数の画像フレームを有する。また、各画像フレームには、時刻の情報が付与されているものとする。キャプチャ部150は、映像データを、画像フレームテーブル110aに格納する。また、キャプチャ部150は、映像データを、判定部160に出力する。また、キャプチャ部140は、映像データ120bを、記憶部120に格納する。
判定部160は、キャプチャ部150から、映像データを取得し、映像データに含まれる画像フレームの部分領域にボールが存在するか否かを判定する処理部である。判定部160は、ボールを検出した場合に、ボールの3次元座標と、このボールを検出した画像フレームの時刻とを対応付けて、特定部170に出力する。
図7は、本実施例に係る判定部の処理を説明するための図である。図7に示す画像フレーム20Lを、カメラ50aが撮影した画像フレームとし、画像フレーム20Rを、カメラ50bが撮影した画像フレームとする。例えば、カメラ50aの右側に、カメラ50bが設置されているものとする。
判定部160は、画像フレーム20Lに部分領域15Lを設定する。部分領域15Lの左上の座標を(xL01,yL01)とし、部分領域15Lの右下の座標を(xL02,yL02)とする。例えば、判定部160は、ボールの形状および大きさを定義したテンプレートマッチングを行うことで、部分領域15Lからボール5を検出する。部分領域15Lから検出したボール5の座標を(xL1,yL1)とする。
判定部160は、画像フレーム20Rに部分領域15Rを設定する。部分領域15Rの左上の座標を(xR01,yR01)とし、部分領域15Rの右下の座標を(xR02,yR02)とする。例えば、判定部160は、ボールの形状および大きさを定義したテンプレートマッチングを行うことで、部分領域15Rからボール5を検出する。部分領域15Rから検出したボール5の座標を(xR1,yR1)とする。
判定部160は、ステレオ画像の原理により、ボール5の3次元座標を算出する。ここでは、簡単化のため、光軸が平行な平行ステレオ画像を例にして、2次元座標を3次元座標に変換する処理の一例について説明する。図8は、カメラの設置位置を示す図である。図8に示すように、カメラ50aの光軸2aと、カメラ50bの光軸2bとが平行になっているものとする。
図9は、平行ステレオによる座標系を示す図である。例えば、左のカメラ50aの投影中心を3aとし、右のカメラ50bの投影中心を3bとする。投影中心3a,3bの間隔をbとする。また、各カメラ50a,50bの画像面4a,4bが、投影中心3a,3bからf離れた3次元空間中の同一平面上に存在するものとする。
画像面4a上の注目物体の座標を(x,y)とし、画像面4b上の注目物体の座標を(x,y)とすると、注目物体の3次元座標(X,Y,Z)は、式(1)、(2)、(3)によって表される。
Figure 2017091092
Figure 2017091092
Figure 2017091092
判定部160は、式(1)〜式(3)を基にして、ボール5の2次元座標を、3次元座標に変換する。例えば、図7に示すように、左の画像フレーム20Lのボール5の座標を(xL1,yL1)、右の画像フレーム20Rのボール5の座標を(xR1,yR1)とすると、ボール5の3次元座標(XS1,YS1,ZS1)は、式(1a)、(2a)、(3a)により算出される。なお、画像フレーム20Lおよび画像フレーム20Rが撮影された時刻を、Ts1とする。
S1=xL1b/(xL1−xR1)・・・(1a)
S1=yL1b/(xL1−xR1)・・・(2a)
S1=fb/(xL1−xR1)・・・(3a)
上記処理により、判定部160は、ボール5の3次元座標(XS1,YS1,ZS1)を算出する。判定部160は、ボール5の3次元座標(XS1,YS1,ZS1)、時刻TS1、2次元座標(xL1,yL1)、(xR1,yR1)の情報を、特定部170に出力する。
図2の説明に戻る。特定部170は、部分領域にボールが存在すると判定された画像フレームよりも前の画像フレームからボールを検出する処理を繰り返し実行し、各ボールの位置に基づいて、ボールの移動軌跡を算出する。また、特定部170は、移動軌跡の開始位置を特定する。以下において、特定部170が、前の画像フレームからボールを検出する処理、ボールの移動軌跡を算出して開始位置を特定する処理について説明する。
特定部170が、前の画像フレームからボールを検出する処理について説明する。図10は、本実施例に係る特定部の処理を説明するための図(1)である。特定部170は、時刻TS1よりも所定時間前のTS2において、カメラ50aで撮影された画像フレーム25Lと、カメラ50bで撮影された画像フレーム25Rとを、画像フレームテーブル110aから取得する。
画像フレーム25Lに対する特定部170の処理について説明する。特定部170は、前の画像フレーム20Lで検出されたボール5の2次元座標(xL1,yL1)から所定距離離れた検出領域16Lを設定する。特定部170は、ボールの形状および大きさを定義したテンプレートマッチングを行うことで、検出領域16Lからボール5を検出する。検出領域16Lから検出したボール5の座標を(xL2,yL2)とする。
画像フレーム25Rに対する特定部170の処理について説明する。特定部170は、前の画像フレーム20Rで検出されたボール5の2次元座標(xR1,yR1)から所定距離離れた検出領域16Rを設定する。特定部170は、ボールの形状および大きさを定義したテンプレートマッチングを行うことで、検出領域16Rからボール5を検出する。検出領域16Rから検出したボール5の座標を(xR2,yR2)とする。
特定部170は、判定部160と同様にして、時刻TS2におけるボール5の3次元座標を算出する。図10に示すように、左の画像フレーム25Lのボール5の座標を(xL2,yL2)、右の画像フレーム25Rのボール5の座標を(xR2,yR2)とする。そうすると、時刻TS2における、ボール5の3次元座標(XS2,YS2,ZS2)は、式(1b)、(2b)、(3b)により算出される。
S2=xL2b/(xL2−xR2)・・・(1b)
S2=yL2b/(xL2−xR2)・・・(2b)
S2=fb/(xL2−xR2)・・・(3b)
次に、特定部170が、ボールの移動軌跡を算出して開始位置を特定する処理について説明する。図11は、本実施例に係る特定部の処理を説明するための図(2)である。図11に示すように、時刻TS1におけるボール5の3次元座標を(XS1,YS1,ZS1)とし、時刻TS2におけるボール5の3次元座標を(XS2,YS2,ZS2)とする。特定部170は、上記情報を基にしてシュートの開始位置(XSS,YSS,ZSS)および開始時刻TSSを算出する。
特定部170は、XSSを、式(4)に基づいて算出する。特定部170は、YSSの値を固定値とする。YSSは、地面に相当するY座標となる。特定部170は、ZSSを式(5)に基づいて算出する。特定部170は、開始時刻TSSを、式(6)により算出する。
SS=XS1−VXS1×T・・・(4)
SS=ZS1−VZS1×T・・・(5)
SS=TS1−T・・・(6)
上記の式(4)、(5)や、後述する式(10)に含まれるVXS1,VYS1,VZS1は、時刻TS1におけるX軸、Y軸、Z軸方向の速度を示すものである。VXS1は、式(7)により示される。VYS1は、式(8)により示される。VZS1は、式(9)により示される。また、Tは、式(10)により示される。特定部170は、VXS1,VYS1,VZS1,Tを式(7)〜(10)に基づいて算出する。
XS1=(XS1−XS2)/(TS1−TS2)・・・(7)
YS1=(YS1−YS2)/(TS1−TS2)・・・(8)
ZS1=(ZS1−ZS2)/(TS1−TS2)・・・(9)
Figure 2017091092
特定部170は、上記処理を実行することで、開始位置(XSS,YSS,ZSS)および開始時刻TSSを算出する。特定部170は、開始位置(XSS,YSS,ZSS)および開始時刻TSSの情報を、切り出し部180に出力する。また、特定部170は、時刻TS1におけるボールの3次元座標、時刻TS2におけるボールの3次元座標の情報を、切り出し部180に出力する。
ここで、特定部170は、算出した開始位置を補正する処理を実行しても良い。特定部170は、開始時刻TSSに対応する画像フレームを、画像フレームテーブル110aから取得し、補正前の開始位置を起点として、テンプレートマッチングを行い、画像フレームからボールを検出する。そして、特定部170は、ボールを検出した場合に、ステレオ画像の原理に基づいてボールの3次元座標を算出し、算出した3次元座標により、開始位置を補正しても良い。
切り出し部180は、開始位置(XSS,YSS,ZSS)および開始時刻TSSと、トラッキングテーブル120aとを基にして、シュートデータテーブル130aに格納する情報を生成する処理部である。また、切り出し部180は、開始時刻から所定時間後までの映像データを映像データ120bから切り出し、映像ファイル名を付与して、シュートシーン映像データ130bに格納する。
ここで、切り出し部180が、図5に説明したシュートデータテーブル130aに、開始時刻、終了時刻、選手識別情報、ボール軌跡、映像ファイル名を登録する処理の一例について説明する。
切り出し部180は、開始時刻として、特定部170から取得する開始時刻TSSをシュートデータテーブル130aに登録する。切り出し部180は、開始時刻から所定時間経過後の時刻を、終了時刻として特定し、特定した終了時刻を、シュートデータテーブル130aに登録する。
続いて、切り出し部180が、シュートを放った選手の選手識別情報を特定する処理の一例について説明する。切り出し部180は、開始時刻TSSと、トラッキングテーブル120aとを比較して、開始時刻TSSにおける各選手の3次元座標を、取得する。切り出し部180は、各選手の3次元座標と、開始位置(XSS,YSS,ZSS)とを比較して、最も開始位置に近い選手の選手識別情報を特定する。切り出し部180は、特定した選手識別情報を、シュートデータテーブル130aに登録する。
図12は、本実施例に係る切り出し部の処理を説明するための図である。図12において、横軸はX方向の軸であり、縦軸はZ軸方向の軸である。ボール5の3次元座標を(XSS,YSS,ZSS)とする。例えば、切り出し部180は、ボール5の3次元座標を基準とした半径1mの領域を、検出領域30として設定する。切り出し部180は、検出領域30に含まれる選手の選手識別情報を特定する。図12に示す例では、選手識別情報は「選手B」となる。なお、検出領域30に複数の選手が存在する場合には、ボール5に最も近い選手の選手識別情報を特定する。
切り出し部180は、各時刻のボールの3次元座標の情報を、ボール軌跡のデータとして、シュートデータテーブル130aに登録する。例えば、切り出し部180は、時刻TS1、TS2、TSSにおけるボールの3次元座標を、ボール軌跡のデータとする。
切り出し部180は、シュートデータテーブル130aに登録した開始時刻から終了時刻までの映像データを、映像データ120bから切り出し、切り出した映像データに映像ファイル名を設定し、シュートシーン映像データ130bに格納する。また、切り出し部180は、切り出した映像データに設定した映像ファイル名を、シュートデータテーブル130aに登録する。
ところで、切り出し部180は、検出領域30に選手が存在しない場合には、特定部170に対して、開始時刻および開始位置の再計算を要求しても良い。特定部170は、再計算の要求を受け付けた場合には、開始時刻TSSよりも更に前の時刻TSS’の画像フレームを、画像フレームテーブル110aから取得し、取得した画像フレームからボールの3次元座標を検出する。特定部170は、時刻TSS’と、新たに検出したボールの開始位置の情報を、切り出し部180に出力する。切り出し部180は、時刻TSS’と、新たに検出したボールの開始位置の情報を基にして、選手を検出する処理を再度実行する。
次に、本実施例に係る画像処理装置100の処理手順の一例について説明する。図13は、本実施例に係る画像処理装置の処理手順を示すフローチャートである。図13に示すように、画像処理装置100は、各カメラ50から映像データの取得を開始する(ステップS101)。画像処理装置100は、イベントを検知する(ステップS102)。
画像処理装置100は、検知したイベントが終了選択である場合には(ステップS103,Yes)、各カメラ50から映像データの取得を終了する(ステップS104)。一方、画像処理装置100は、検知したイベントが終了選択でない場合には(ステップS103,No)、シュート検出処理を実行し(ステップS105)、ステップS102に移行する。
続いて、図13のステップS105に示したシュート検出処理の処理手順の一例について説明する。図14は、シュート検出処理の処理手順を示すフローチャートである。図14に示すように、画像処理装置100のキャプチャ部150は、各カメラ50から画像フレームを取得し、記憶部110に保存する(ステップS201)。
画像処理装置100の判定部160は、カメラ50毎に定義された部分領域内にボールが存在するか否かを判定する(ステップS202)。判定部160は、2台以上のカメラ50でボールを検出してない場合には(ステップS203,No)、シュート検出処理を終了する。判定部160は、2台以上のカメラ50でボールを検出した場合には(ステップS203,Yes)、ステップS204に移行する。
判定部160は、各画像フレームのボールの2次元座標に基づいて、ボールの3次元座標を算出する(ステップS204)。画像処理装置100の特定部170は、ボールを検出した時刻TS1から、数フレーム分前までの画像フレームを画像フレームテーブル110aから読み出す(ステップS205)。
特定部170は、読み出した画像フレームについて、既に算出したボールの2次元座標の周辺からボールを検出し(ステップS206)、ボールに対する複数の3次元座標を算出する(ステップS207)。特定部170は、複数の3次元座標と競技におけるボールの軌道の特徴から、ボールの開始位置および開始時刻を推定する(ステップS208)。例えば、ステップS208において、特定部170は、競技がバスケットボールであり、ボールが放物線状に移動する場合には、式(4)〜式(10)に基づいて、開始位置および開始時刻を推定する。特定部170は、その他の競技についても、競技の種別に応じて、ボールの軌道を変更し、ボールの開始位置および開始時刻を推定する。例えば、球技がバレーボール等のように直線的に変化する場合には、ボールの軌道を直線状に設定する。
特定部170は、推定した開始時刻の画像フレームを記憶部120から読み出し、開始位置周辺のボールを検出する(ステップS209)。特定部170は、検出したボールの3次元座標を計算する(ステップS210)。画像処理装置100の切り出し部180は、開始位置とトラッキングデータの選手の位置とを比較して、開始位置に基づく検出範囲に選手が存在するか否かを判定する(ステップS211)。
切り出し部180は、検出範囲に選手が存在しないと判定した場合には(ステップS212,No)、特定部170は、更に時間をさかのぼった開始時刻と開始位置とを推定し(ステップS213)、ステップS209に移行する。
一方、切り出し部180は、検出範囲に選手が存在すると判定した場合には(ステップS212,Yes)、シュートデータテーブル130aに各情報を登録し、シュートシーン映像データ130bを切り出す(ステップS214)。
次に、本実施例に係る画像処理装置100の効果について説明する。画像処理装置100は、シュートされたボールだけが通過する部分領域からボールを検出した場合に、検出したボールの位置から画像フレームを溯ってシュートの開始位置および開始時刻を特定するので、利用者が所望する画像フレームを効率よく検索することができる。
例えば、画像処理装置100は、シュート時のボールが通過する部分領域からボールを検出したことを契機にして、シュートの開始位置および開始時刻の推定を開始するため、処理負荷を軽減することができる。また、部分領域には、複数のボールが同時に検出されることが少ないので、一部の選手がシュート練習をし、他の選手がボールを使った他の練習を同時に行っても、精度良く、シュートの開始位置および開始時刻を特定することができる。
画像処理装置100は、一部の画像データから検出したボールの3次元座標を基にして、ボールの移動軌跡を推定し、シュートの開始位置および開始時刻を推定する。このため、途中のボール軌道上において、ボールを検出する処理を省略でき、処理負荷を軽減することができる。
画像処理装置100は、シュートの開始位置と、開始時刻と同時刻に撮影された画像データに含まれる複数の選手の位置とを比較して、シュートを行った選手を特定する。このため、シュートを行った選手を精度良く特定することができる。
次に、本実施例に係る画像処理装置100のその他の処理について説明する。
画像処理装置100の判定部160は、カメラ50によって撮影される画像フレーム上に部分領域を設定し、部分領域にボールが存在しているか否かを判定していたがこれに限定されるものではない。例えば、ゴール付近に深度カメラまたは距離センサ等を設定し、判定部160は、深度カメラまたは距離センサから得られる情報を基にして、ゴール付近に、ボールが存在するか否かを判定しても良い。
画像処理装置100の判定部160および特定部170は、例えば、テンプレートマッチングにより、画像フレームからボールを検出していたが、部分領域からボールを検出する場合と、その他の領域からボールを検出する場合の検出条件を調整してもよい。例えば、部分領域には、ボール以外の物体が存在する可能性が低いので、ボールの検出条件を厳しくする。これに対して、地上近くの領域では、ボール以外に選手が含まれる場合が多いので、ボールの検出条件を緩く設定する。
例えば、判定部160は、画像フレーム上の部分領域に存在する物体と、テンプレートマッチングを行い、マッチング率がM%以上の場合に、物体がボールであると判定する。これに対して、特定部170が、地上付近の画像フレーム上に存在する物体と、テンプレートマッチングを行い、マッチング率がN%以上の場合に、物体がボールであると判定する。ここで、MとNの大小関係を「M>N」とする。
画像処理装置100の特定部170は、判定部160が、部分領域からボールを検出したことを契機にして、画像フレームからボールを検出する処理を実行していたがこれに限定されるものではない。例えば、特定部170は、判定部160がボールを検出したか否かにかかわらず、カメラ50から取得する画像フレームからリアルタイムに、ボールを検出しても良い。このように、特定部170が、常時、画像フレームからボールを検出しておくことで、判定部160が、ボールを検出してから、ボールの検出を開始する場合と比較して、処理を高速化することができる。
画像処理装置100の切り出し部180は、シュートの開始位置および開始時刻の情報を、特定部170から取得した場合に、シュートが成功したか否かに関わらず、映像データを切り出して、記憶部130に登録していたが、これに限定されるものではない。例えば、切り出し部180は、シュートが成功した場合に、シュートの成功したシュートの開始時刻からシュートが成功するまでの映像データを切り出して、記憶部130に登録しても良い。同様に、切り出し部180は、シュートが成功した場合にのみ、シュートデータテーブル130aに各情報を登録しても良い。例えば、切り出し部180は、シュート成功時にボールが必ず通過する領域をセンシングするセンサを利用して、シュートの成功/失敗を判定する。このような処理を行うことで、記憶部130に記憶させるデータ量を削減することができる。
画像処理装置100は、図示しない入力装置から、選手識別情報を指定して、ボール軌跡の表示要求を受け付けた場合には、シュートデータテーブル130aを参照し、選手識別情報に対応するボール軌跡の表示画面を生成して表示しても良い。図15は、ボール軌跡の表示画面の一例を示す図である。図15に示す例では、表示画面60に、選手がシュートしたボール軌跡60a,60b,60cが表示されている。画像処理装置100は、ボール軌跡に関連付けて、開始時刻や開始位置の情報を表示しても良い。また、画像処理装置100は、表示画面60の情報をプリンタ等に出力して、表示画面60の情報を印刷させても良い。
なお、本実施例で説明したトラッキングテーブル120aのデータ構造の一例として、図4を用いて説明したが、トラッキングテーブル120aのデータ構造は、図4に限定されるものではない。例えば、初期段階において、選手の名前に紐付かない所定のIDを割り振ってトラッキングを行っておき、選手の名前と、IDとが対応付いたタイミングで、IDを選手識別情報に置き換えても良い。図16は、トラッキングテーブルのその他のデータ構造の一例を示す図である。図16に示すトラッキングテーブル121aは、時刻と、IDとが対応付けられている。
ここで、画像処理装置100のその他の処理について説明する。図17は、画像処理装置のその他の処理を説明するための図である。図17に示すように、画像処理装置100は、プリンタ100bに接続されているものとする。例えば、選手Aが、画像処理装置100に選手識別情報を入力して、プリンタ100bからシュート軌跡に関する情報をプリントアウトする操作を行ったものとする。この際に、選手Aの位置と、選手Aの選手識別情報との関係がわかるため、画像処理装置100は、IDを選手Aの選手識別情報に変換する処理を行う。例えば、選手Aが、時刻「1:32:41:62」の時点で、位置(x3、y3、z3)の位置に存在していたとすると、図16の「ID1」と、選手Aの選手識別情報とを対応付けることができる。
画像処理装置100の特定部170の説明では、一例として、競技の種別がバスケットボールであり、ボールの軌跡の特徴が、図1に示した軌跡5aで有ることを前提に説明を行った。例えば、特定部170は、式(4)〜式(10)等を用いて、ボールの開始位置、開始時刻を求めていた。ここで、競技の種別が、バスケットボール以外である場合には、ボールの軌跡の特徴に応じて、利用する式を切り替えて、ボールの軌跡を推定しても良い。例えば、競技の種別がバレーボール等であり、ボールの軌跡が直線的に変化する場合には、図18に示すような、軌跡6aを推定し、着地位置、着地時間を推定しても良い。図18は、特定部のその他の処理を説明するための図である。
図18に示すように、特定部170は、異なる時刻TV1,TV2の画像フレームから、ボール5を検出し、各ボールの位置をそれぞれ(XV1,YV1,ZV1)、(XV2,YV2,ZV2)とする。特定部170は、(XV1,YV1,ZV1)、(XV2,YV2,ZV2)を通る直線を、ボールの軌跡6aとして特定する。特定部170は、軌跡6aと地面との交点位置(XVV,YVV,ZVV)を、着地位置として判定する。また、着地時刻TVVは、時刻TV1におけるボールのY軸方向の速度と、時刻TV1におけるボールのY軸方向の高さを基に算出すればよい。
次に、上記実施例に示した画像処理装置100と同様の機能を実現する画像処理プログラムを実行するコンピュータの一例について説明する。図19は、画像処理プログラムを実行するコンピュータの一例を示す図である。
図19に示すように、コンピュータ200は、カメラ50a,50b,50c,50d、トラッキング装置55、表示デバイス56に接続される。コンピュータ200は、各種演算処理を実行するCPU201と、各種情報を一時記憶する一次記憶部202と、ディスプレイ等の表示部203と、入力装置等の操作部204とを有する。コンピュータ200は、トラッキング装置55とデータをやり取りするネットワークIF205を有する。コンピュータ200は、カメラ50a〜50dとデータをやり取りするデバイスIF206を有する。コンピュータ200は、表示デバイス56とデータをやり取りするデバイスIF207を有する。また、コンピュータ200は、ハードディスクドライブ等に対応する二次記憶部208を有する。
二次記憶部208は、画像処理プログラム208aと、エリア定義ファイル208bと、トラッキングデータ208cと、シュートデータ208dと、シュート映像208eとを有する。画像処理プログラム208aは、CPU201に読み出され、実行されることで、図2の判定部160、特定部170、切り出し部180に対応する処理を行う。エリア定義ファイル208bは、部分領域を定義する情報である。トラッキングデータ208cは、トラッキング装置55から取得する情報である。シュートデータ208dおよびシュート映像208eは、画像処理プログラム208aが実行されることで生成する情報である。例えば、シュートデータテーブル130a、シュートシーン映像データ130bに対応する情報である。
なお、画像処理プログラム208a,エリア定義ファイル208bについては、必ずしも最初から二次記憶部208に記憶させておかなくても良い。例えば、コンピュータ200に挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させておく。そして、コンピュータ200が画像処理プログラム208a,エリア定義ファイル208bを読み出して実行するようにしてもよい。
以上の各実施例を含む実施形態に関し、さらに以下の付記を開示する。
(付記1)コンピュータが実行する画像処理方法であって、
撮影装置によって撮影された連続する複数の画像データを取得し、前記複数の画像データに含まれる画像データの部分領域に、所定の特徴を有する物体が存在するか否かを判定し、
前記部分領域に前記物体が存在する場合に、前記物体の存在する画像データよりも前に撮影された画像データから、前記物体を検出する処理を繰り返し実行し、
複数の画像データから検出した前記物体の位置および前記複数の画像データの時刻に基づいて、前記物体の移動軌跡を算出し、前記移動軌跡の開始位置および開始時刻を特定する
処理を実行することを特徴とする画像処理方法。
(付記2)前記移動軌跡の開始時刻から所定時間後の終了時刻までの間に、前記撮影装置に撮影された画像データを切り出す処理を更に実行することを特徴とする付記1に記載の画像処理方法。
(付記3)前記開始位置と、前記開始時刻と同時刻に前記撮影装置に撮影された画像データに含まれる複数の人物の位置とを比較して、前記物体に関連する人物を特定する処理を更に実行することを特徴とする付記1または2に記載の画像処理方法。
(付記4)前記所定の特徴は、前記物体の形状および大きさを示し、前記部分領域は、画像データ上に存在する、球技に用いられるゴール位置周辺に設定されることを特徴とする付記1、2または3に記載の画像処理方法。
(付記5)前記部分領域から前記所定の特徴を有する物体を検出する精度よりも、前記部分領域以外の領域から前記所定の特徴を有する物体を検出する検出精度を低く設定することを特徴とする付記1〜4のいずれか1つに記載の画像処理方法。
(付記6)前記物体の移動軌跡を算出する処理は、球技の種別に応じて、前記移動軌跡を変更することを特徴とする付記1〜5のいずれか1つに記載の画像処理方法。
(付記7)コンピュータに、
撮影装置によって撮影された連続する複数の画像データを取得し、前記複数の画像データに含まれる画像データの部分領域に、所定の特徴を有する物体が存在するか否かを判定し、
前記部分領域に前記物体が存在する場合に、前記物体の存在する画像データよりも前に撮影された画像データから、前記物体を検出する処理を繰り返し実行し、
複数の画像データから検出した前記物体の位置および前記複数の画像データの時刻に基づいて、前記物体の移動軌跡を算出し、前記移動軌跡の開始位置および開始時刻を特定する
処理を実行させることを特徴とする画像処理プログラム。
(付記8)前記移動軌跡の開始時刻から所定時間後の終了時刻までの間に、前記撮影装置に撮影された画像データを切り出す処理を更に実行することを特徴とする付記7に記載の画像処理プログラム。
(付記9)前記開始位置と、前記開始時刻と同時刻に前記撮影装置に撮影された画像データに含まれる複数の人物の位置とを比較して、前記物体に関連する人物を特定する処理を更にコンピュータに実行させることを特徴とする付記7または8に記載の画像処理プログラム。
(付記10)前記所定の特徴は、前記物体の形状および大きさを示し、前記部分領域は、画像データ上に存在する、球技に用いられるゴール位置周辺に設定されることを特徴とする付記7、8または9に記載の画像処理プログラム。
(付記11)前記物体を検出する処理は、前記部分領域から前記所定の特徴を有する物体を検出する精度よりも、前記部分領域以外の領域から前記所定の特徴を有する物体を検出する検出精度を低く設定することを特徴とする付記7〜10のいずれか1つに記載の画像処理プログラム。
(付記12)前記物体の移動軌跡を算出する処理は、球技の種別に応じて、前記移動軌跡を変更することを特徴とする付記7〜11のいずれか1つに記載の画像処理プログラム。
(付記13)撮影装置によって撮影された連続する複数の画像データを取得し、前記複数の画像データに含まれる画像データの部分領域に、所定の特徴を有する物体が存在するか否かを判定する判定部と、
前記部分領域に前記物体が存在する場合に、前記物体の存在する画像データよりも前に撮影された画像データから、前記物体を検出する処理を繰り返し実行し、複数の画像データから検出した前記物体の位置および前記複数の画像データの時刻に基づいて、前記物体の移動軌跡を算出し、前記移動軌跡の開始位置および開始時刻を特定する特定部と
を有することを特徴とする画像処理装置。
(付記14)前記移動軌跡の開始時刻から所定時間後の終了時刻までの間に、前記撮影装置に撮影された画像データを切り出す切り出し部を更に有することを特徴とする付記13に記載の画像処理装置。
(付記15)前記切り出し部は、前記開始位置と、前記開始時刻と同時刻に前記撮影装置に撮影された画像データに含まれる複数の人物の位置とを比較して、前記物体に関連する人物を特定する処理を更に実行することを特徴とする付記13または14に記載の画像処理装置。
(付記16)前記所定の特徴は、前記物体の形状および大きさを示し、前記部分領域は、画像データ上に存在する、球技に用いられるゴール位置周辺に設定されることを特徴とする付記13、14または15に記載の画像処理装置。
(付記17)前記特定部は、前記部分領域から前記所定の特徴を有する物体を検出する精度よりも、前記部分領域以外の領域から前記所定の特徴を有する物体を検出する検出精度を低く設定することを特徴とする付記13〜16のいずれか1つに記載の画像処理装置。
(付記18)前記特定部は、球技の種別に応じて、前記移動軌跡を変更することを特徴とする付記13〜17のいずれか1つに記載の画像処理装置。
50a,50b,50c,50d カメラ
55 トラッキング装置
100 画像処理装置
110,120,130 記憶部
140 トラッキングデータ取得部
150 キャプチャ部
160 判定部
170 特定部
180 切り出し部

Claims (8)

  1. コンピュータが実行する画像処理方法であって、
    撮影装置によって撮影された連続する複数の画像データを取得し、前記複数の画像データに含まれる画像データの部分領域に、所定の特徴を有する物体が存在するか否かを判定し、
    前記部分領域に前記物体が存在する場合に、前記物体の存在する画像データよりも前に撮影された画像データから、前記物体を検出する処理を繰り返し実行し、
    複数の画像データから検出した前記物体の位置および前記複数の画像データの時刻に基づいて、前記物体の移動軌跡を算出し、前記移動軌跡の開始位置および開始時刻を特定する
    処理を実行することを特徴とする画像処理方法。
  2. 前記移動軌跡の開始時刻から所定時間後の終了時刻までの間に、前記撮影装置に撮影された画像データを切り出す処理を更に実行することを特徴とする請求項1に記載の画像処理方法。
  3. 前記開始位置と、前記開始時刻と同時刻に前記撮影装置に撮影された画像データに含まれる複数の人物の位置とを比較して、前記物体に関連する人物を特定する処理を更に実行することを特徴とする請求項1または2に記載の画像処理方法。
  4. 前記所定の特徴は、前記物体の形状および大きさを示し、前記部分領域は、画像データ上に存在する、球技に用いられるゴール位置周辺に設定されることを特徴とする請求項1、2または3に記載の画像処理方法。
  5. 前記物体を検出する処理は、前記部分領域から前記所定の特徴を有する物体を検出する精度よりも、前記部分領域以外の領域から前記所定の特徴を有する物体を検出する検出精度を低く設定することを特徴とする請求項1〜4のいずれか1つに記載の画像処理方法。
  6. 前記物体の移動軌跡を算出する処理は、球技の種別に応じて、前記移動軌跡を変更することを特徴とする請求項1〜5のいずれか1つに記載の画像処理方法。
  7. コンピュータに、
    撮影装置によって撮影された連続する複数の画像データを取得し、前記複数の画像データに含まれる画像データの部分領域に、所定の特徴を有する物体が存在するか否かを判定し、
    前記部分領域に前記物体が存在する場合に、前記物体の存在する画像データよりも前に撮影された画像データから、前記物体を検出する処理を繰り返し実行し、
    複数の画像データから検出した前記物体の位置および前記複数の画像データの時刻に基づいて、前記物体の移動軌跡を算出し、前記移動軌跡の開始位置および開始時刻を特定する
    処理を実行させることを特徴とする画像処理プログラム。
  8. 撮影装置によって撮影された連続する複数の画像データを取得し、前記複数の画像データに含まれる画像データの部分領域に、所定の特徴を有する物体が存在するか否かを判定する判定部と、
    前記部分領域に前記物体が存在する場合に、前記物体の存在する画像データよりも前に撮影された画像データから、前記物体を検出する処理を繰り返し実行し、複数の画像データから検出した前記物体の位置および前記複数の画像データの時刻に基づいて、前記物体の移動軌跡を算出し、前記移動軌跡の開始位置および開始時刻を特定する特定部と
    を有することを特徴とする画像処理装置。
JP2015218623A 2015-11-06 2015-11-06 画像処理方法、画像処理プログラムおよび画像処理装置 Active JP6606985B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015218623A JP6606985B2 (ja) 2015-11-06 2015-11-06 画像処理方法、画像処理プログラムおよび画像処理装置
US15/289,428 US10115020B2 (en) 2015-11-06 2016-10-10 Image processing method, non-transitory computer-readable recording medium, and image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015218623A JP6606985B2 (ja) 2015-11-06 2015-11-06 画像処理方法、画像処理プログラムおよび画像処理装置

Publications (2)

Publication Number Publication Date
JP2017091092A true JP2017091092A (ja) 2017-05-25
JP6606985B2 JP6606985B2 (ja) 2019-11-20

Family

ID=58663493

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015218623A Active JP6606985B2 (ja) 2015-11-06 2015-11-06 画像処理方法、画像処理プログラムおよび画像処理装置

Country Status (2)

Country Link
US (1) US10115020B2 (ja)
JP (1) JP6606985B2 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019091187A (ja) * 2017-11-13 2019-06-13 富士通株式会社 画像処理プログラム、画像処理方法および情報処理装置
WO2019225415A1 (ja) * 2018-05-21 2019-11-28 パナソニックIpマネジメント株式会社 球技映像解析装置、及び、球技映像解析方法
WO2020071092A1 (ja) * 2018-10-04 2020-04-09 パナソニックIpマネジメント株式会社 プレイ分析装置、及び、プレイ分析方法
JP2020054747A (ja) * 2018-10-04 2020-04-09 パナソニックIpマネジメント株式会社 プレイ分析装置、及び、プレイ分析方法
JP2020054748A (ja) * 2018-10-04 2020-04-09 パナソニックIpマネジメント株式会社 プレイ分析装置、及び、プレイ分析方法
WO2020255716A1 (ja) * 2019-06-20 2020-12-24 パナソニックIpマネジメント株式会社 プレイ分析装置、プレイ分析方法、及び、コンピュータプログラム
WO2021187193A1 (ja) * 2020-03-16 2021-09-23 パナソニックIpマネジメント株式会社 球技映像解析装置、球技映像解析システム、球技映像解析方法、及び、コンピュータプログラム
JP7074244B1 (ja) 2021-09-14 2022-05-24 トヨタ自動車株式会社 データ収集装置、データ収集方法及びデータ収集プログラム
JP7402078B2 (ja) 2020-02-20 2023-12-20 株式会社Nttドコモ シュート推定システム
WO2024024161A1 (ja) * 2022-07-29 2024-02-01 株式会社カーメイト 投擲物の速度測定方法及び投擲物の速度測定システム
JP7466287B2 (ja) 2018-10-30 2024-04-12 ラップソード ピーティーイー リミテッド 学習ベースの地上位置推定

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017081839A1 (ja) * 2015-11-13 2017-05-18 パナソニックIpマネジメント株式会社 移動体追跡方法、移動体追跡装置、およびプログラム
US10489656B2 (en) * 2017-09-21 2019-11-26 NEX Team Inc. Methods and systems for ball game analytics with a mobile device
US10748376B2 (en) * 2017-09-21 2020-08-18 NEX Team Inc. Real-time game tracking with a mobile device using artificial intelligence
US10558844B2 (en) * 2017-12-18 2020-02-11 Datalogic Ip Tech S.R.L. Lightweight 3D vision camera with intelligent segmentation engine for machine vision and auto identification
US10643492B2 (en) * 2018-06-20 2020-05-05 NEX Team Inc. Remote multiplayer interactive physical gaming with mobile computing devices
US11861907B2 (en) 2019-08-13 2024-01-02 Intel Corporation Technology to automatically locate ball-holding players in multi-camera video feeds
US11157742B2 (en) 2019-09-04 2021-10-26 NEX Team Inc. Methods and systems for multiplayer tagging for ball game analytics generation with a mobile computing device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030073518A1 (en) * 2001-09-12 2003-04-17 Pillar Vision Corporation Trajectory detection and feedback system
WO2006077806A1 (ja) * 2005-01-24 2006-07-27 Matsushita Electric Industrial Co., Ltd. シーン区間分割装置
JP2008219489A (ja) * 2007-03-05 2008-09-18 Nippon Hoso Kyokai <Nhk> 映像オブジェクトの軌跡画像合成装置およびそのプログラム
JP2014187484A (ja) * 2013-03-22 2014-10-02 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0696051B2 (ja) 1989-10-26 1994-11-30 日本トーター株式会社 電子式即時判定装置
JP3012003U (ja) 1994-12-02 1995-06-06 株式会社アイマックス サッカーゲーム装置
US20030053659A1 (en) * 2001-06-29 2003-03-20 Honeywell International Inc. Moving object assessment system and method
US8409024B2 (en) * 2001-09-12 2013-04-02 Pillar Vision, Inc. Trajectory detection and feedback system for golf
JP2003174609A (ja) 2001-12-07 2003-06-20 Victor Co Of Japan Ltd 映像信号記録再生装置
US8335345B2 (en) * 2007-03-05 2012-12-18 Sportvision, Inc. Tracking an object with multiple asynchronous cameras
US20090265105A1 (en) * 2008-04-21 2009-10-22 Igt Real-time navigation devices, systems and methods
US8170283B2 (en) * 2009-09-17 2012-05-01 Behavioral Recognition Systems Inc. Video surveillance system configured to analyze complex behaviors using alternating layers of clustering and sequencing
WO2013041124A1 (de) 2011-09-20 2013-03-28 Friedrich-Alexander-Universitaet Erlangen-Nuernberg System und verfahren zum erfassen eines benutzerabhängigen zustandes eines sportgegenstandes
US20140169758A1 (en) * 2012-08-09 2014-06-19 Michael Sapoznikow Systems and Methods for Tracking Players based on Video data and RFID data

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030073518A1 (en) * 2001-09-12 2003-04-17 Pillar Vision Corporation Trajectory detection and feedback system
WO2006077806A1 (ja) * 2005-01-24 2006-07-27 Matsushita Electric Industrial Co., Ltd. シーン区間分割装置
JP2008219489A (ja) * 2007-03-05 2008-09-18 Nippon Hoso Kyokai <Nhk> 映像オブジェクトの軌跡画像合成装置およびそのプログラム
JP2014187484A (ja) * 2013-03-22 2014-10-02 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019091187A (ja) * 2017-11-13 2019-06-13 富士通株式会社 画像処理プログラム、画像処理方法および情報処理装置
WO2019225415A1 (ja) * 2018-05-21 2019-11-28 パナソニックIpマネジメント株式会社 球技映像解析装置、及び、球技映像解析方法
JP7113336B2 (ja) 2018-10-04 2022-08-05 パナソニックIpマネジメント株式会社 プレイ分析装置、及び、プレイ分析方法
JP2020054747A (ja) * 2018-10-04 2020-04-09 パナソニックIpマネジメント株式会社 プレイ分析装置、及び、プレイ分析方法
JP2020054748A (ja) * 2018-10-04 2020-04-09 パナソニックIpマネジメント株式会社 プレイ分析装置、及び、プレイ分析方法
JP7113335B2 (ja) 2018-10-04 2022-08-05 パナソニックIpマネジメント株式会社 プレイ分析装置、及び、プレイ分析方法
WO2020071092A1 (ja) * 2018-10-04 2020-04-09 パナソニックIpマネジメント株式会社 プレイ分析装置、及び、プレイ分析方法
JP7466287B2 (ja) 2018-10-30 2024-04-12 ラップソード ピーティーイー リミテッド 学習ベースの地上位置推定
WO2020255716A1 (ja) * 2019-06-20 2020-12-24 パナソニックIpマネジメント株式会社 プレイ分析装置、プレイ分析方法、及び、コンピュータプログラム
JP7402078B2 (ja) 2020-02-20 2023-12-20 株式会社Nttドコモ シュート推定システム
WO2021187193A1 (ja) * 2020-03-16 2021-09-23 パナソニックIpマネジメント株式会社 球技映像解析装置、球技映像解析システム、球技映像解析方法、及び、コンピュータプログラム
JP7437652B2 (ja) 2020-03-16 2024-02-26 パナソニックIpマネジメント株式会社 球技映像解析装置、球技映像解析システム、球技映像解析方法、及び、コンピュータプログラム
JP7074244B1 (ja) 2021-09-14 2022-05-24 トヨタ自動車株式会社 データ収集装置、データ収集方法及びデータ収集プログラム
JP2023042400A (ja) * 2021-09-14 2023-03-27 トヨタ自動車株式会社 データ収集装置、データ収集方法及びデータ収集プログラム
WO2024024161A1 (ja) * 2022-07-29 2024-02-01 株式会社カーメイト 投擲物の速度測定方法及び投擲物の速度測定システム

Also Published As

Publication number Publication date
JP6606985B2 (ja) 2019-11-20
US10115020B2 (en) 2018-10-30
US20170132470A1 (en) 2017-05-11

Similar Documents

Publication Publication Date Title
JP6606985B2 (ja) 画像処理方法、画像処理プログラムおよび画像処理装置
JP6641163B2 (ja) オブジェクト追跡装置及びそのプログラム
US20190068945A1 (en) Information processing device, control method of information processing device, and storage medium
US8599317B2 (en) Scene recognition methods for virtual insertions
CN107438173A (zh) 视频处理装置、视频处理方法和存储介质
US20130094696A1 (en) Integrated Background And Foreground Tracking
JP6701930B2 (ja) オーサリング装置、オーサリング方法およびオーサリングプログラム
JP2020031406A (ja) 判定システム、及び判定方法
US20160055366A1 (en) Information processing system, information processing method, and storage medium
US20210168411A1 (en) Storage medium, video image generation method, and video image generation system
JPWO2018122956A1 (ja) スポーツ動作解析支援システム、方法およびプログラム
US11354849B2 (en) Information processing apparatus, information processing method and storage medium
JP4659722B2 (ja) 人体特定領域抽出・判定装置、人体特定領域抽出・判定方法、人体特定領域抽出・判定プログラム
US11468258B2 (en) Information processing apparatus, information processing method, and storage medium
JP2019096062A (ja) 物体追跡装置、物体追跡方法、および、物体追跡プログラム
JP6989877B2 (ja) 位置座標算出方法及び位置座標算出装置
JP2018028864A (ja) カメラのキャリブレーション装置、方法及びプログラム
JP2007212216A (ja) オブジェクト高さ算出装置およびそれを用いたオブジェクト検索装置ならびにオブジェクト高さ算出方法
JP5155841B2 (ja) 得点可能性定量化装置及び得点可能性定量化プログラム
JP2005209148A (ja) オフサイドライン検出装置及びそのプログラム、並びに、選手位置検出装置
Leong et al. Computer vision approach to automatic linesman
US11244457B2 (en) Method, apparatus and computer program for image processing including generating a different image of at least one object
JP6965975B2 (ja) 映像処理装置、マルチカメラシステム、映像処理方法、及び映像処理プログラム
JP2016168258A (ja) 判定プログラム、判定方法および判定装置
US20220319028A1 (en) Information processing apparatus, information processing method, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180706

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190723

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190924

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191007

R150 Certificate of patent or registration of utility model

Ref document number: 6606985

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150