JP2017187969A - 画像処理装置、画像処理プログラム、及び画像処理方法 - Google Patents

画像処理装置、画像処理プログラム、及び画像処理方法 Download PDF

Info

Publication number
JP2017187969A
JP2017187969A JP2016077227A JP2016077227A JP2017187969A JP 2017187969 A JP2017187969 A JP 2017187969A JP 2016077227 A JP2016077227 A JP 2016077227A JP 2016077227 A JP2016077227 A JP 2016077227A JP 2017187969 A JP2017187969 A JP 2017187969A
Authority
JP
Japan
Prior art keywords
area
batter
image
region
pitcher
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016077227A
Other languages
English (en)
Inventor
遠藤 進
Susumu Endo
進 遠藤
正樹 石原
Masaki Ishihara
正樹 石原
昌彦 杉村
Masahiko Sugimura
昌彦 杉村
武部 浩明
Hiroaki Takebe
浩明 武部
馬場 孝之
Takayuki Baba
孝之 馬場
上原 祐介
Yusuke Uehara
祐介 上原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2016077227A priority Critical patent/JP2017187969A/ja
Priority to US15/457,138 priority patent/US20170293802A1/en
Publication of JP2017187969A publication Critical patent/JP2017187969A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • G06V20/42Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30221Sports video; Sports image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】映像中の投球場面を表す画像を特定する画像処理装置、画像処理プログラム、及び画像処理方法を提供する。
【解決手段】記憶部111は、投球場面を表す画像内において投手が写っていると推測される投手領域を示す領域情報121を記憶する。特定部112は、映像に含まれる第1時刻における第1画像と、第2時刻における第2画像との差分を表す差分画像から、エッジ画素を検出し、差分画像内で複数のエッジ画素が所定方向に並んでいるエッジ領域を特定する。判定部113は、差分画像内において領域情報が示す投手領域に含まれるエッジ領域の大きさと、差分画像内において所定領域に含まれるエッジ領域の大きさとに基づいて、差分画像が投球場面を表していると判定する。
【選択図】図3

Description

本発明は、画像処理装置、画像処理プログラム、及び画像処理方法に関する。
テレビ放送等において、プロ野球中継を行うために野球の試合が撮影され、その映像が蓄積されることがある。蓄積された試合の映像は、再放送等で利用される。また、野球の試合を撮影した映像に対する様々な画像処理も知られている(例えば、特許文献1〜特許文献3を参照)。
特開2003−52003号公報 特開2006−203498号公報 特開2015−139015号公報
野球の試合を撮影した映像から投球場面を表す画像を抽出する際、映像の内容によっては投球場面の判定が困難になることがある。
なお、かかる問題は、野球の試合を撮影した映像に限らず、投球動作を含む他の映像から投球場面を表す画像を抽出する場合においても生ずるものである。
1つの側面において、本発明は、映像中の投球場面を表す画像を特定することを目的とする。
1つの案では、画像処理装置は、記憶部、特定部、及び判定部を含む。記憶部は、投球場面を表す画像内において投手が写っていると推測される投手領域を示す領域情報を記憶する。
特定部は、映像に含まれる第1時刻における第1画像と、第2時刻における第2画像との差分を表す差分画像から、エッジ画素を検出し、差分画像内で複数のエッジ画素が所定方向に並んでいるエッジ領域を特定する。
判定部は、差分画像内において領域情報が示す投手領域に含まれるエッジ領域の大きさと、差分画像内において所定領域に含まれるエッジ領域の大きさとに基づいて、差分画像が投球場面を表していると判定する。
実施形態によれば、映像中の投球場面を表す画像を特定することができる。
画像処理装置の機能的構成図である。 画像処理のフローチャートである。 画像処理装置の具体例を示す機能的構成図である。 投手領域及び打者領域を示す図である。 画像処理の第1の具体例を示すフローチャートである。 差分画像を示す図である。 エッジ領域生成処理を示す図である。 判定処理のフローチャートである。 第1の選択処理のフローチャートである。 第2の選択処理のフローチャートである。 画像処理の第2の具体例を示すフローチャートである。 打席情報を示す図である。 情報処理装置の構成図である。
以下、図面を参照しながら、実施形態を詳細に説明する。
野球の試合の視聴者は、映像に含まれる特定の場面の視聴を望む場合がある。例えば、ある選手のファンが、映像に含まれるその選手のすべての打球場面を見たいと望んでいる場合、打席に立った選手に対して投球が開始された時刻を示す情報が取得できれば、その打球場面の頭出し再生を行うことができる。また、ある球団において、試合相手の球団の選手に対する対策を検討する際に、特定の投手の投球動作を連続して見たり、特定の打者のスイングを連続して見たりすることを望む場合もある。
このような場合、投手が投球を開始した瞬間を示す時刻情報を取得することが望ましい。現在の野球放送では、投球等の情報を記録したスコアブックが作成されているが、投球開始時刻は記録されていない。その理由は、すべての投球に対して、投球開始時刻を間違いなく遅延もなしに記録することは、記録者にとって作業負荷が大きいためである。記録者の人数を増やせば、投球開始時刻をスコアブックに記録できる場合もあるが、十分な人数の記録者を必ずしも確保できるとは限らない。そこで、映像を解析して投球開始時刻を示す情報を取得する技術が望まれる。
映像の切れ目であるカットを検出し、検出したカットが投球開始に対応するか否かを判別する方法も考えられる。野球放送では、投球場面におけるカメラアングルはほぼ決まっており、投手の右斜め後方から映像が撮影されることが多く、さらに投球開始前に別のカメラアングルの映像が挿入されることが多い。そこで、カメラアングルを推定することで、検出したカットの画像が投球場面を表すか否かを判定し、投球場面を表す映像の開始時刻を投球開始時刻として用いることができる。
しかしながら、映像によっては、投球開始前にカットが存在しない場合もある。例えばメジャーリーグの試合では、試合時間を短縮するために投球間隔の規制を行っており、投球から次の投球までの時間が短い投手が多い。このように短い間隔で投手が投球を行った場合、別のカメラアングルの映像を挿入する時間的な余裕がなくなる。日本のプロ野球の試合においても試合時間の短縮が推進されており、メジャーリーグと同様に、投球開始前にカットが存在しない映像が増える可能性がある。投球開始前にカットが存在しない場合、カットに基づいて投球開始時刻を検出することは困難になる。
図1は、実施形態の画像処理装置の機能的構成例を示している。図1の画像処理装置101は、記憶部111、特定部112、及び判定部113を含む。記憶部111は、投球場面を表す画像内において投手が写っていると推測される投手領域を示す領域情報121を記憶する。特定部112は、映像を用いて所定の処理を行い、判定部113は、領域情報121を用いて所定の処理を行う。
図2は、図1の画像処理装置101が行う画像処理の例を示すフローチャートである。まず、特定部112は、映像に含まれる第1時刻における第1画像と、第2時刻における第2画像との差分を表す差分画像から、エッジ画素を検出する(ステップ201)。次に、特定部112は、差分画像内で複数のエッジ画素が所定方向に並んでいるエッジ領域を特定する(ステップ202)。
次に、判定部113は、差分画像内において領域情報が示す投手領域に含まれるエッジ領域の大きさと、差分画像内において所定領域に含まれるエッジ領域の大きさとに基づいて、差分画像が投球場面を表していると判定する(ステップ203)。
このような画像処理装置101によれば、映像中の投球場面を表す画像を特定することができる。
図3は、図1の画像処理装置101の具体例を示している。図3の画像処理装置101は、記憶部111、特定部112、判定部113、及び取得部301を含む。特定部112は、差分画像生成部311、エッジ検出部312、及び領域生成部313を含む。
記憶部111は、領域情報121及び映像322を記憶する。領域情報121は、投手領域を示すとともに、投球場面を表す画像において打者が写っていると推測される打者領域も示す。
映像322は、複数の時刻それぞれにおける複数の画像を含み、各時刻における画像はフレームと呼ばれることもある。各画像は、カラー画像であってもよく、モノクロ画像であってもよい。画像がカラー画像である場合、画素値はRGB形式であってもよく、YUV形式であってもよい。
取得部301は、投球場面において打者が右打者又は左打者のいずれであるかを示す打者情報321を取得して、記憶部111に格納する。野球中継において、試合開始時に各チームのメンバーは公開されており、試合のスコアブックも記録される。取得部301は、このスコアブックから、各イニングで打者が立った打席が右打席又は左打席のいずれであるかを示す打席情報を取得し、打席情報から打者情報321を生成することができる。打者情報321の生成方法については、図11及び図12を参照しながら後述することにする。
差分画像生成部311は、映像322から動く物体を検出するために、映像322に含まれる2時刻それぞれにおける2枚の画像の差分を表す差分画像を生成する。投球場面の2枚の画像から生成される差分画像には、球場のフィールド上における投手、打者、捕手、審判等の動きを表す差分画素値が含まれる。また、カメラが動いた場合等には、フィールド上の一塁線及び三塁線、フィールドとバックネット又はフェンスとの境界線等の動きを表す差分画素値が含まれることもある。
エッジ検出部312は、差分画像内における画素値の差分を計算することで、エッジ画素を検出する。領域生成部313は、差分画像内で複数のエッジ画素が所定方向に並んでいる部分を表すエッジ領域323を生成して、記憶部111に格納する。
投球場面の差分画像では、一塁線、三塁線、フィールドとバックネット又はフェンスとの境界線等の背景の動きは、横方向のエッジ画素として現れる。一方、投手はフィールド上に立っているため、投手の身体の動きは、縦方向のエッジ画素として現れる。
そこで、背景の動きを検出せずに投手の動きを検出するために、領域生成部313は、画像の縦方向を所定方向として用いることができる。この場合、フィールドの地面に対して垂直な方向と画像の縦方向とが成す角度は、所定角度よりも小さくなり、エッジ画素が縦方向に並んでいる部分によって特定される領域が、エッジ領域323として抽出される。エッジ領域323としては、例えば、エッジ画素の縦方向のつながりが複数個互いに近接して存在する領域を用いることができる。
判定部113は、領域生成部313が生成したエッジ領域323と領域情報121とを用いて、差分画像が投球場面を表しているか否かを判定する。差分画像が投球場面を表している場合、判定部113は、差分画像の生成に用いられた画像が投球場面を表すことを示す判定結果324を生成して、記憶部111に格納する。判定部113は、例えば、以下の条件が満たされる場合に、差分画像が投球場面を表していると判定することができる。
(a)差分画像内において領域情報121が示す投手領域に含まれるエッジ領域323の大きさが第1閾値よりも大きい。
(b)差分画像内において所定領域に含まれるエッジ領域323の大きさが第2閾値以下である。
このとき、判定部113は、投球場面を表す画像から、領域情報121が示す投手領域及び打者領域を除いた残りの領域を、上記(b)の所定領域として用いる。
図4は、投球場面を表す画像における投手領域及び打者領域の例を示している。図4(a)に示す画像401には、マウンド上で投球動作を開始した投手、左打席に立っている打者、打者の後ろにいる捕手及び審判が写っている。
この場合、領域情報121には、投手領域411、右打者領域412、及び左打者領域413を示す情報が含まれる。右打者は、右打ちの打者であり、左打者は、左打ちの打者である。投手領域411は、投手が写っていると推測される領域であり、右打者領域412は、右打者が写っていると推測される領域であり、左打者領域413は、左打者が写っていると推測される領域である。
投球場面では、投手の右斜め上方から映像322が撮影されることが多いため、投手の身体は、画像401内の左側で少し下寄りの位置に写る。アンダースローの投手等が手を大きく横に伸ばす場合もあるが、この場合は手の動きが横方向のエッジ画素として現れる。したがって、縦方向のエッジ画素に基づいて投手の動きを検出する画像処理では、手を大きく横に伸ばす場合を考慮しなくても問題はない。そこで、投手領域411は、画像401内の左側で少し下寄りの位置に設定される。
打者は投手の右側の位置に写るため、右打者領域412及び左打者領域413は、画像401内の少し右寄りの位置に設定される。右打者領域412及び左打者領域413には、捕手及び審判が写っていると推測される領域も含まれている。
判定部113は、打者情報321が右打者を示している場合、右打者領域412を打者領域として用い、打者情報321が左打者を示している場合、左打者領域413を打者領域として用いて、上記(b)の所定領域を求める。
図4(b)に示す画像402では、投手領域411に写っている投手が大きく動いており、左打者領域413に写っている打者、捕手、及び審判にも小さな動きが見られる。しかし、画像402から投手領域411及び左打者領域413を除いた残りの領域には、動く物体が写っていない。したがって、投手領域411内のエッジ領域323の大きさが第1閾値よりも大きく、投手領域411及び左打者領域413を除いた残りの領域内のエッジ領域323の大きさが第2閾値以下である場合、差分画像が投球場面を表している可能性が高いと言える。
図3の画像処理装置101によれば、投球開始前にカットが存在しない場合であっても、エッジ領域323及び領域情報121に基づいて、映像322から投球場面を表す画像を抽出することができる。また、投球開始時刻及び投球場面の判定が同時に行われるため、高速かつ高精度に投球場面を検出することができる。
図5は、図3の画像処理装置101が行う画像処理の第1の具体例を示すフローチャートである。まず、差分画像生成部311は、映像322から2時刻における2枚の画像を抽出し(ステップ501)、それらの画像の差分を表す差分画像を生成する(ステップ502)。
映像322に含まれる各時刻の画像において、横方向をx軸、縦方向をy軸とするxy座標系を定義し、i番目(iは1以上の整数)の画像の座標(x,y)における画素値をp(x,y)とする。この場合、連続する2時刻の画像間における差分画素値D(x,y)は、次式により表される。
(x,y)=|pi+1(x,y)−p(x,y)| (1)
差分画像生成部311は、式(1)のD(x,y)を座標(x,y)における画素値とする差分画像を生成する。なお、フレームレートが高い場合等には、差分画像生成部311は、1枚以上の画像を跨いだ2時刻の画像間における差分画像を生成してもよい。以下では、記載を簡略化するため、i番目の差分画像の画素値D(x,y)を、単にD(x,y)と記載することがある。
次に、エッジ検出部312は、差分画像内における横方向の画素値の差分Pe(x,y)を計算することで、エッジ画素を検出する(ステップ503)。Pe(x,y)は、例えば、次式により計算される。
Pe(x,y)
=D(x,y)−min[x−d1≦a≦x+d1](D(a,y)) (2)
式(2)のd1は、横方向の画素数を表し、min[x−d1≦a≦x+d1](D(a,y))は、変数aをx−d1≦a≦x+d1の範囲で変化させたときのD(a,y)の最小値を表す。例えば、d1=1の場合、D(x−1,y)、D(x,y)、及びD(x+1,y)の最小値とD(x,y)との差分がPe(x,y)として求められる。
差分画像内において、画素値が横方向にあまり変化しない領域ではPe(x,y)が0になり、画素値が横方向に大きく変化する位置ではPe(x,y)が0以外の値になる。この場合、Pe(x,y)が0以外の値を有する画素がエッジ画素として検出される。
図6は、差分画像の例を示している。図6(a)に示す差分画像には、D(x,y)が0以外の値を有する縦長の領域601が含まれている。領域601は、投手のような縦長の物体が横方向に高速に動いた場合に現れる。
図6(b)に示す差分画像には、D(x,y)が0以外の値を有する横長の領域602が含まれている。領域602は、フィールドとバックネットとの境界線のような横長の物体が縦方向に動いた場合に現れる。
図6(c)に示す差分画像には、D(x,y)が0以外の値を有する画素が密集した領域603が含まれている。領域603は、バックネットのような物体が動いた場合に現れる。
式(2)のPe(x,y)を用いることで、領域601のように、0でないD(x,y)が縦方向につながった領域が検出されやすくなり、領域602及び領域603が検出され難くなる。したがって、背景の動きを検出せずに投手の動きを検出することが可能になる。
エッジ検出部312は、式(2)の代わりに、モルフォロジ演算を用いてPe(x,y)を計算することもできる。画素値D(x,y)に対するモルフォロジ演算は、例えば、次式により表される。
Dilatation(D(x,y),R)
=min[(a,b)∈R](D(a,b)) (3)
Erosion(D(x,y),R)
=max[(a,b)∈R](D(a,b)) (4)
Open(D(x,y),R)
=Dilatation(Erosion(D(x,y),R),R) (5)
Close(D(x,y),R)
=Erosion(Dilatation(D(x,y),R),R) (6)
TopHat(D(x,y),R)
=D(x,y)−Open(D(x,y),R) (7)
式(3)のDilatation(D(x,y),R)は、膨張演算を表し、Rは、座標(x,y)を基準とする所定領域を表す。min[(a,b)∈R](D(a,b))は、座標(a,b)を領域R内で変化させたときのD(a,b)の最小値を表す。例えば、(x,y)の上下左右1画素の範囲で(a,b)を変化させる場合、領域Rの範囲は、x−1≦a≦x+1及びy−1≦b≦y+1により表される。
式(4)のErosion(D(x,y),R)は、縮小演算を表し、max[(a,b)∈R](D(a,b))は、座標(a,b)を領域R内で変化させたときのD(a,b)の最大値を表す。
式(5)のOpen(D(x,y),R)は、領域R内で縮小演算を行ってから膨張演算を行うオープニング演算を表し、式(6)のClose(D(x,y),R)は、領域R内で膨張演算を行ってから縮小演算を行うクロージング演算を表す。
式(7)のTopHat(D(x,y),R)は、D(x,y)からOpen(D(x,y),R)を減算するトップハット演算を表す。トップハット演算では、まず、縮小演算を行ってから膨張演算を行うことで、領域R内における小さな画素値が基準値として求められ、元の画素値から基準値を減算することで、基準値に対する元の画素値の差分が求められる。このトップハット演算を用いて、次式によりPe(x,y)を計算することができる。
Pe(x,y)=TopHat(D(x,y),Re) (8)
Pe(x,y)は横方向の画素値の差分を表すため、式(8)の領域Reとしては、横長の領域が用いられる。例えば、領域Reの範囲は、1以上の整数kを用いて表されるx−k≦a≦x+k及びb=yの範囲であってもよい。
次に、領域生成部313は、複数のエッジ画素が縦方向に並んでいる部分を、縦方向のつながりとして抽出する(ステップ504)。座標(x,y)におけるエッジ画素が縦方向につながっている度合いを示す指標Pv(x,y)は、例えば、次式により計算される。
Pv(x,y)=min[y−d2≦b≦y+d2](Pe(x,b)) (9)
式(9)のd2は、縦方向の画素数を表し、min[y−d2≦b≦y+d2](Pe(x,b))は、変数bをy−d2≦b≦y+d2の範囲で変化させたときのPe(x,b)の最小値を表す。
y−d2≦b≦y+d2の範囲のPe(x,b)がすべて0以外の値であり、エッジ画素を表している場合、Pv(x,y)も0以外の値になる。一方、その範囲のいずれかのPv(x,y)が0であり、エッジ画素ではない画素が含まれている場合、Pv(x,y)は0になる。したがって、Pv(x,y)が0以外の値を有する画素が、エッジ画素の縦方向のつながりに属する画素として抽出される。
ただし、式(9)を用いた場合、y−d2≦b≦y+d2の範囲でエッジ画素が1個でも欠落すると、Pv(x,y)が0になり、縦方向のつながりが抽出されない。そこで、Pe(x,b)の最小値の代わりに、小さい方からn番目(nは2以上の整数)の値をPv(x,y)として用いてもよい。
領域生成部313は、式(9)の代わりに、次式によりPv(x,y)を計算することもできる。
Pv(x,y)=Close(Pe(x,y),Rv) (10)
式(10)のクロージング演算では、領域Rv内で膨張演算を行ってから縮小演算が行われるため、領域Rv内における大きなPe(x,y)の値がPv(x,y)として求められる。これにより、領域Rv内において、ある程度の個数のエッジ画素が欠落している場合であっても、Pv(x,y)が0になることはなく、縦方向のつながりを抽出することができる。
縦方向のつながりを抽出するため、式(10)の領域Rvとしては、縦長の領域が用いられる。例えば、領域Rvの範囲は、1以上の整数kを用いて表されるa=x及びy−k≦b≦y+kの範囲であってもよい。kの値は、画像の大きさに応じて変更することができ、例えば、k=3であってもよい。
次に、領域生成部313は、Pv(x,y)を用いてエッジ領域323を生成する(ステップ505)。座標(x,y)において、複数個の縦方向のつながりが互いに近接して存在する度合いを示す指標PL(x,y)は、例えば、次式により計算される。
PL(x,y)
=Median[(a,b)∈RL](Pv(a,b)) (11)
式(11)の領域RLの範囲は、x−d3≦a≦x+d3及びy−d4≦b≦y+d4の範囲であり、d3及びd4は、それぞれ、横方向及び縦方向の画素数を表す。Median[(a,b)∈RL](Pv(a,b))は、座標(a,b)を領域RL内で変化させたときのPv(a,b)の中央値を表す。ある程度広い範囲で縦方向のつながりを抽出するため、d3及びd4としてはd2よりも大きな値を用いることが好ましい。例えば、d3=d4=15であってもよい。d3及びd4の値は、画像の大きさに応じて変更することができる。
なお、中央値を求める際に、領域RL内における厳密な中央値の代わりに、例えば、領域RLの1/3等の部分領域内における中央値を用いてもよい。また、Pv(a,b)の中央値の代わりに、Pv(a,b)の平均値を用いてもよい。
領域RL内にPv(a,b)=0の画素が多いほど、PL(x,y)は0に近くなり、Pv(a,b)≠0の画素が多いほど、PL(x,y)は大きくなる。この場合、領域生成部313は、PL(x,y)が所定の閾値TL以上である画素を、エッジ領域323の画素として抽出する。例えば、領域生成部313は、閾値TLを用いて次式によりPL(x,y)を二値化することで、二値画像を生成する。
PB(x,y)=1 (PL(x,y)≧TL) (12)
PB(x,y)=0 (PL(x,y)<TL) (13)
式(12)及び式(13)のPB(x,y)は、生成された二値画像の画素値を表し、PB(x,y)=1の画素が分布する領域が、複数個の縦方向のつながりが互いに近接して存在するエッジ領域323を表す。
領域生成部313は、式(11)の代わりに、次式によりPL(x,y)を計算することもできる。
PL(x,y)=Close(Pv(x,y),RL) (14)
次に、領域生成部313は、二値画像に対するラベリング処理を行って、エッジ領域323を抽出する(ステップ506)。このラベリング処理は、二値画像内でPB(x,y)=1の画素が連結している領域を求める処理であり、例えば、以下の手順で行われる。
(1)領域生成部313は、二値画像の画素数と同じ個数のラベル番号をそれぞれの画素の座標と対応付けて記録する領域を、記憶部111内に確保し、各ラベル番号に0を設定する。ラベル番号が0である画素は、未だラベリングされていない画素に対応する。そして、領域生成部313は、ラベル番号を表す変数LNに0を設定する。
(2)領域生成部313は、二値画像を左上の画素から順にスキャンし、PB(x,y)=1の画素が見つかった場合、その画素に対応するラベル番号をチェックする。
(3)見つかった画素のラベル番号が0である場合、領域生成部313は、LNを1だけインクリメントする。
(4)領域生成部313は、見つかった画素から上下左右に画素を探索し、PB(x,y)=1の画素が連結している連結領域を求める。そして、領域生成部313は、求めた連結領域内のすべての画素のラベル番号を、LNが表す値に書き換える。
(5)領域生成部313は、二値画像内のすべての画素のラベル番号が書き換えられるまで、上記(2)〜(4)の処理を繰り返す。
このようなラベリング処理により、差分画像内の1つ以上のエッジ領域323に対して、それぞれ異なるラベル番号が付与され、各エッジ領域323に含まれる画素が決定される。なお、ラベリング処理の高速化のために、上記(1)〜(5)とは異なる手順を用いてもよい。
図7は、エッジ領域生成処理の例を示している。図7(a)は、図4(a)の画像401から生成された差分画像内における画素値の差分Pe(x,y)の分布を示し、図7(b)は、Pe(x,y)から計算された縦方向のつながりを示す指標Pv(x,y)の分布を示す。
図7(c)は、Pv(x,y)から計算されたエッジ領域323を示す指標PL(x,y)の分布を示し、図7(d)は、PL(x,y)を二値化した二値画像を示す。図7(d)の二値画像では、投手領域411内に、投手の身体を表すエッジ領域323が生成されており、左打者領域413内に、打者、捕手、及び審判の身体を表すエッジ領域323が生成されている。
次に、判定部113は、差分画像内の投手領域に含まれるエッジ領域323の大きさと、所定領域に含まれるエッジ領域323の大きさとを評価することで、差分画像が投球場面を表しているか否かを判定する(ステップ507)。
各エッジ領域323の大きさとしては、エッジ領域323の横方向又は縦方向の長さを用いることもでき、エッジ領域323の面積を用いることもできる。エッジ領域323の横方向の長さは、そのエッジ領域323のラベル番号を有する画素のx座標の最大値及び最小値の差分により表される。また、エッジ領域323の縦方向の長さは、そのエッジ領域323のラベル番号を有する画素のy座標の最大値及び最小値の差分により表される。エッジ領域323の面積は、そのエッジ領域323のラベル番号を有する画素の総数により表される。
所定値よりも小さいエッジ領域323はノイズを表す可能性が高いため、判定部113は、このようなエッジ領域323を処理対象から除外してもよい。
図8は、図5のステップ507における判定処理の例を示すフローチャートである。まず、判定部113は、領域情報121が示す右打者領域又は左打者領域のうちいずれか一方を、打者領域BAとして選択する(ステップ801)。そして、判定部113は、領域情報121が示す投手領域PA内に、閾値よりも大きなエッジ領域323が存在するか否かをチェックする(ステップ802)。
例えば、エッジ領域323の大きさとして面積を用いた場合、判定部113は、エッジ領域323の画素の総数Pcountを、次式により計算する。
そして、判定部113は、Pcountが閾値TPよりも大きい場合、投手領域PA内に閾値よりも大きなエッジ領域323が存在すると判定し、PcountがTP以下である場合、投手領域PA内に閾値よりも大きなエッジ領域323が存在しないと判定する。
投手領域PA内に閾値よりも大きなエッジ領域323が存在する場合(ステップ802,YES)、判定部113は、差分画像から投手領域PA及び打者領域BAを除いた残りの領域XA内に存在するエッジ領域323の大きさを求める(ステップ803)。そして、判定部113は、求めたエッジ領域323の大きさを閾値と比較する(ステップ804)。
例えば、判定部113は、領域XA内に存在するエッジ領域323の画素の総数Xcountを、次式により計算する。
そして、判定部113は、Xcountが閾値TXよりも大きい場合、求めたエッジ領域323の大きさが閾値よりも大きいと判定し、XcountがTX以下である場合、求めたエッジ領域323の大きさが閾値以下であると判定する。所定値よりも小さいエッジ領域323が処理対象から除外されており、ノイズが含まれる可能性が低い場合は、TXとして小さな整数を用いることができる。この場合、TX=0であってもよい。
求めたエッジ領域323の大きさが閾値以下である場合(ステップ804,YES)、判定部113は、差分画像が投球場面を表していると判定する。そして、判定部113は、差分画像の生成に用いられた画像を、投球場面として判定結果324に記録する(ステップ805)。
投手領域PA内に閾値よりも大きなエッジ領域323が存在しない場合(ステップ802,NO)、判定部113は、差分画像が投球場面を表していないと判定し、処理を終了する。また、領域XA内のエッジ領域323の大きさが閾値よりも大きい場合(ステップ804,NO)、判定部113は、差分画像が投球場面を表していないと判定し、処理を終了する。
ステップ802において、判定部113は、エッジ領域323の大きさの上限値及び下限値を設定して、エッジ領域323の大きさが上限値以下であり、かつ、下限値よりも大きいという条件を用いることもできる。この場合、判定部113は、投手領域PA内に条件を満たすエッジ領域323が存在するか否かをチェックする。これにより、投手領域PAとして比較的広い領域が設定されており、投手領域PA全体に投手の身体が写っているという想定が不自然である場合に、大き過ぎるエッジ領域323を投手とみなす誤判定を防止することができる。
画像処理装置101は、映像322に含まれる各時刻の画像に対して図5の画像処理を繰り返すことで、各画像が投球場面を表しているか否かを判定することができる。
なお、投球場面においては、連続する数枚の画像に渡って同じような差分画像が生成されることが多い。そこで、判定精度を向上させるために、判定部113は、連続する数枚の差分画像に対する判定結果に基づいて、判定結果324を生成してもよい。この場合、判定部113は、数枚の差分画像に対する判定結果が投球場面を示していれば、それらの差分画像の生成に用いられた画像を、投球場面として判定結果324に記録する。判定の際に、連続した数枚が投球場面と判定された場合だけでなく、連続した数枚中数枚(例えば5枚中3枚等)が投球場面と判定された場合等としてもよい。
図9は、図8のステップ801における第1の選択処理の例を示すフローチャートである。まず、判定部113は、記憶部111から打者情報321を取得して(ステップ901)、打者情報321が示す打者が右打者又は左打者のいずれであるかを判定する(ステップ902)。そして、判定部113は、領域情報121が示す右打者領域又は左打者領域のうち、判定結果に対応する打者領域を選択する(ステップ903)。
図9の選択処理によれば、取得部301が取得した打者情報321に基づいて、差分画像内で打者が写っている可能性が高い領域を選択することができる。
図10は、図8のステップ801における第2の選択処理の例を示すフローチャートである。まず、判定部113は、領域情報121が示す右打者領域内に存在するエッジ領域323の大きさと、領域情報121が示す左打者領域内に存在するエッジ領域323の大きさとを求める(ステップ1001)。そして、判定部113は、右打者領域又は左打者領域のうち、大きい方のエッジ領域323を含む領域を、打者領域として選択する(ステップ1002)。
例えば、エッジ領域323の大きさとして面積を用いた場合、判定部113は、右打者領域BRA内に存在するエッジ領域323の画素の総数BRcountを、次式により計算する。
また、判定部113は、左打者領域BLA内に存在するエッジ領域323の画素の総数BLcountを、次式により計算する。
そして、判定部113は、BLcountよりもBRcountの方が大きい場合、右打者領域BRAを選択し、BRcountよりもBLcountの方が大きい場合、左打者領域BLAを選択する。
図10の選択処理によれば、打者情報321を用いることなく、差分画像内で打者が写っている可能性が高い領域を選択することができる。したがって、図10の選択処理を採用する場合、図3の取得部301を省略することができる。
なお、右打者領域BRAの大きさと左打者領域BLAの大きさが異なる場合、判定部113は、右打者領域BRAの画素の総数に対するBRcountの比率と、左打者領域BLAの画素の総数に対するBLcountの比率とを比較してもよい。
図4の例では、右打者領域412及び左打者領域413が設定されているが、これらの領域を統合した単一の打者領域を設定することも可能である。この場合、ステップ801において、判定部113は、設定された打者領域をそのまま使用する。
図11は、図3の画像処理装置101が行う画像処理の第2の具体例を示すフローチャートである。このフローチャートには、取得部301が打席情報から打者情報321を生成する処理も示されている。まず、取得部301は、スコアブックから打席情報を取得する(ステップ1101)。このとき、ユーザがスコアブックの情報を画像処理装置101に入力してもよい。
図12は、スコアブックから取得される打席情報の例を示している。図12の打席情報は、イニング、チーム、スコア1、スコア2、アウト、ランナー、打者、及び打席の項目を含む。スコア1は、表チームのスコアを表し、スコア2は、裏チームのスコアを表し、アウトは、アウトを宣告された選手の人数を表す。ランナーは、ランナーの有無を表し、打者は、打者の名前を表し、打席は、打者が立った打席(右打席又は左打席)を表す。
ランナーの有無は、一塁、二塁、及び三塁にそれぞれ対応する3ビットの2進数で表現することができる。第1ビット〜第3ビットは、それぞれ、三塁〜一塁に対応し、ビット値“1”はランナーが存在することを表し、ビット値“0”はランナーが存在しないことを表す。例えば、“000”は、一塁〜三塁のいずれにもランナーが存在しないことを表し、“111”は、満塁を表し、“100”は、三塁のみにランナーが存在することを表し、“101”は、一塁及び三塁にランナーが存在することを表す。
なお、図12には、イニング“1”の情報のみが示されているが、ステップ1101では、全イニングに渡る打席情報が取得される。ただし、スコア1、スコア2、アウト、ランナー、及び打者の項目については、必ずしも必要な情報ではないため、これらの項目の一部又は全部を省略しても構わない。
次に、取得部301は、映像322から最初の時刻における画像を抽出し(ステップ1102)、その画像を解析して、画面上に表示されるスコアボードの情報を取得する(ステップ1103)。
野球放送の場合、試合中に記録されたスコアが、スコアボードとして画面上に表示される。しかし、画面上のスコアボードには、各イニングのスコアが即座に反映されないことが多く、スコアボードが表示されない時間が長く続くこともある。このため、スコアボードの情報は、投球開始時刻の検出には適していないが、打者の切り替わりの検出には利用することができる。試合中に打者が切り替わった場合、以下のいずれかの事象が発生すると考えられる。
(E1)イニング又はチーム(表/裏)が切り替わる。
(E2)スコア、アウト、又はランナーが増加する。
そこで、取得部301は、映像322に含まれるスコアボードの情報からこれらの事象を抽出することにより、打者の切り替わりを検出することができる。画面上でスコアボードが表示される領域は予め決められているため、その領域の画像に対して光学文字認識(Optical Character Recognition:OCR)技術を適用することで、スコアボードの情報を読み取ることも可能である。
また、スコアボード内のスコア等が、“○”のような所定の記号の個数で表示されることもある。この場合、類似画像検索技術を適用することで、スコアボードの情報を抽出することができる。例えば、取得部301は、ステップ1102で抽出した画像から、スコアボード内における記号の表示位置の画像を抽出し、抽出した画像とその記号を表すテンプレート画像との類似度を計算する。そして、取得部301は、類似度が所定値以上である場合、その記号が表示されていると判定する。
このとき、取得部301は、画像の色レイアウト特徴等を特徴量として用いて、類似度を計算することができる。色レイアウト特徴は、画像を複数の小領域に分割した場合の各小領域における平均色を表す。また、取得部301は、2つの画像の特徴量を表す2つの特徴量ベクトルの間の距離を計算し、距離が所定値以下である場合、類似度が所定値以上であると判定することもできる。
次に、取得部301は、取得したスコアボードの情報から事象を抽出し(ステップ1104)、抽出した事象に基づいて、打者が切り替わったか否かを判定する(ステップ1105)。例えば、取得部301は、上記(E1)又は(E2)の事象が抽出された場合、打者が切り替わったと判定する。
打者が切り替わった場合(ステップ1105,YES)、取得部301は、ステップ1101で取得した打席情報を参照して、次の打者が右打者又は左打者のいずれであるかを特定する(ステップ1106)。そして、取得部301は、特定した打者を示す打者情報321を生成する。
次に、画像処理装置101は、図5のステップ502〜ステップ507と同様の処理を行うことで、差分画像を生成し、差分画像が投球場面を表しているか否かを判定する(ステップ1107)。そして、取得部301は、映像322に含まれる最後の画像を抽出したか否かをチェックする(ステップ1108)。
最後の画像を抽出していない場合(ステップ1108,NO)、取得部301は、映像322から次の時刻の画像を抽出して(ステップ1109)、ステップ1103以降の処理を繰り返す。打者が切り替わっていない場合(ステップ1105,NO)、取得部301は、ステップ1109以降の処理を繰り返す。そして、最後の画像を抽出した場合(ステップ1108,YES)、取得部301は、処理を終了する。
なお、ステップ1103において取得したスコアボードの情報は、ステップ1101においてスコアブックから取得した打席情報と必ずしも整合するとは限らない。例えば、一方の情報におけるアウトの個数が他方の情報におけるアウトの個数よりも少ない場合、アウトの抽出漏れが発生している可能性がある。
そこで、取得部301は、スコアボードの情報から抽出したスコア、アウト、ランナー等の事象を、打席情報に記録されている事象と比較して、両者が一致しない場合、いずれか一方の情報を他方の情報に合わせて訂正してもよい。これにより、誤った事象の抽出又は事象の抽出漏れに起因する、打者情報321の精度低下が防止される。
ステップ1106において、特定した打者がスイッチヒッターである場合、取得部301は、投手が右投げ又は左投げのいずれであるかを示す情報に基づいて、打者が右打者又は左打者のいずれであるかを特定することもできる。投手が右投げの場合、打者は左打席に立ち、投手が左投げの場合、打者は右打席に立つと想定される。あるいは、取得部301は、右打者兼左打者であることを示す打者情報321を生成し、判定部113は、その打者情報321に基づいて、右打者領域及び左打者領域を統合した打者領域を用いてもよい。
図9のステップ901において判定部113が処理に用いる打者情報321は、図5の画像処理が開始される前に、取得部301によって生成される。この打者情報321の生成方法も、ステップ1101〜ステップ1106の処理と同様である。
図1及び図3の画像処理装置101の構成は一例に過ぎず、画像処理装置101の用途又は条件に応じて一部の構成要素を省略又は変更してもよい。例えば、打者情報321が予め生成されて記憶部111に格納されている場合は、図3の取得部301を省略することができる。右打者領域及び左打者領域の代わりに単一の打者領域が設定されている場合、又は図10の選択処理を採用する場合も、取得部301を省略することができる。
図2、図5、及び図8〜図11のフローチャートは一例に過ぎず、画像処理装置101の構成又は条件に応じて一部の処理を省略又は変更してもよい。例えば、右打者領域及び左打者領域の代わりに単一の打者領域が設定されている場合は、図8のステップ801の処理を省略することができる。
図4の画像、投手領域、右打者領域、左打者領域、及び図7の計算結果は一例に過ぎず、画像、投手領域、右打者領域、左打者領域、及び計算結果は、処理対象の映像、画像処理装置101の構成又は条件に応じて変化する。例えば、映像322は、野球の試合を撮影した映像に限らず、投球動作を含む他の映像であってもよい。投手領域、右打者領域、及び左打者領域の形状は、矩形以外の形状であってもよい。
図12の打席情報は一例に過ぎず、画像処理装置101の構成又は条件に応じて別の打席情報を用いてもよい。式(1)〜式(24)の計算式は一例に過ぎず、画像処理装置101の構成又は条件に応じて別の計算式を用いてもよい。
図1及び図3の画像処理装置101は、例えば、図13に示すような情報処理装置(コンピュータ)を用いて実装することができる。図13の情報処理装置は、Central Processing Unit(CPU)1301、メモリ1302、入力装置1303、出力装置1304、補助記憶装置1305、媒体駆動装置1306、及びネットワーク接続装置1307を含む。これらの構成要素はバス1308により互いに接続されている。
メモリ1302は、例えば、Read Only Memory(ROM)、Random Access Memory(RAM)、フラッシュメモリ等の半導体メモリであり、画像処理に用いられるプログラム及びデータを格納する。メモリ1302は、図1及び図3の記憶部111として用いることができる。
CPU1301(プロセッサ)は、例えば、メモリ1302を利用してプログラムを実行することにより、図1及び図3の特定部112、判定部113、取得部301、差分画像生成部311、エッジ検出部312、及び領域生成部313として動作する。
入力装置1303は、例えば、キーボード、ポインティングデバイス等であり、オペレータ又はユーザからの指示又は情報の入力に用いられる。出力装置1304は、例えば、表示装置、プリンタ、スピーカ等であり、オペレータ又はユーザへの問い合わせ又は指示、及び処理結果の出力に用いられる。処理結果は、図3の判定結果324であってもよい。
補助記憶装置1305は、例えば、磁気ディスク装置、光ディスク装置、光磁気ディスク装置、テープ装置等である。補助記憶装置1305は、ハードディスクドライブであってもよい。情報処理装置は、補助記憶装置1305にプログラム及びデータを格納しておき、それらをメモリ1302にロードして使用することができる。補助記憶装置1305は、図1及び図3の記憶部111として用いることができる。
媒体駆動装置1306は、可搬型記録媒体1309を駆動し、その記録内容にアクセスする。可搬型記録媒体1309は、メモリデバイス、フレキシブルディスク、光ディスク、光磁気ディスク等である。可搬型記録媒体1309は、Compact Disk Read Only Memory(CD−ROM)、Digital Versatile Disk(DVD)、Universal Serial Bus(USB)メモリ等であってもよい。オペレータ又はユーザは、この可搬型記録媒体1309にプログラム及びデータを格納しておき、それらをメモリ1302にロードして使用することができる。
このように、画像処理に用いられるプログラム及びデータを格納するコンピュータ読み取り可能な記録媒体は、メモリ1302、補助記憶装置1305、又は可搬型記録媒体1309のような、物理的な(非一時的な)記録媒体である。
ネットワーク接続装置1307は、Local Area Network、Wide Area Network等の通信ネットワークに接続され、通信に伴うデータ変換を行う通信インタフェースである。情報処理装置は、プログラム及びデータを外部の装置からネットワーク接続装置1307を介して受信し、それらをメモリ1302にロードして使用することができる。
情報処理装置は、ネットワーク接続装置1307を介して、ユーザ端末から映像322及び処理要求を受信し、判定結果324をユーザ端末へ送信することもできる。
なお、情報処理装置が図13のすべての構成要素を含む必要はなく、用途又は条件に応じて一部の構成要素を省略することも可能である。例えば、情報処理装置がユーザ端末から通信ネットワーク経由で処理要求を受信する場合は、入力装置1303及び出力装置1304を省略してもよい。また、可搬型記録媒体1309又は通信ネットワークを使用しない場合は、媒体駆動装置1306又はネットワーク接続装置1307を省略してもよい。
開示の実施形態とその利点について詳しく説明したが、当業者は、特許請求の範囲に明確に記載した本発明の範囲から逸脱することなく、様々な変更、追加、省略をすることができるであろう。
図1乃至図13を参照しながら説明した実施形態に関し、さらに以下の付記を開示する。
(付記1)
投球場面を表す画像内において投手が写っていると推測される投手領域を示す領域情報を記憶する記憶部と、
映像に含まれる第1時刻における第1画像と、第2時刻における第2画像との差分を表す差分画像から、エッジ画素を検出し、前記差分画像内で複数のエッジ画素が所定方向に並んでいるエッジ領域を特定する特定部と、
前記差分画像内において前記領域情報が示す前記投手領域に含まれる前記エッジ領域の大きさと、前記差分画像内において所定領域に含まれる前記エッジ領域の大きさとに基づいて、前記差分画像が前記投球場面を表していると判定する判定部と、
を備えることを特徴とする画像処理装置。
(付記2)
前記領域情報は、前記投球場面を表す前記画像において打者が写っていると推測される打者領域をさらに示し、
前記投球場面において地面に対して垂直な方向と前記所定方向とが成す角度は、所定角度よりも小さく、
前記所定領域は、前記投球場面を表す前記画像から前記投手領域と前記打者領域とを除いた残りの領域であり、
前記判定部は、前記投手領域に含まれる前記エッジ領域の大きさが第1閾値よりも大きく、前記所定領域に含まれる前記エッジ領域の大きさが第2閾値以下である場合に、前記差分画像が前記投球場面を表していると判定することを特徴とする付記1記載の画像処理装置。
(付記3)
前記投球場面において前記打者が右打者又は左打者のいずれであるかを示す打者情報を取得する取得部をさらに備え、
前記領域情報が示す前記打者領域は、前記右打者が写っていると推測される右打者領域と、前記左打者が写っていると推測される左打者領域とを含み、
前記判定部は、前記打者情報が前記右打者を示している場合、前記差分画像から前記投手領域と前記右打者領域とを除いた残りの領域を前記所定領域として用い、前記打者情報が前記左打者を示している場合、前記差分画像から前記投手領域と前記左打者領域とを除いた残りの領域を前記所定領域として用いることを特徴とする付記2記載の画像処理装置。
(付記4)
前記領域情報が示す前記打者領域は、右打者が写っていると推測される右打者領域と、左打者が写っていると推測される左打者領域とを含み、
前記判定部は、前記差分画像内において前記右打者領域に含まれる前記エッジ領域の大きさが前記左打者領域に含まれる前記エッジ領域の大きさよりも大きい場合、前記差分画像から前記投手領域と前記右打者領域とを除いた残りの領域を前記所定領域として用い、前記左打者領域に含まれる前記エッジ領域の大きさが前記右打者領域に含まれる前記エッジ領域の大きさよりも大きい場合、前記差分画像から前記投手領域と前記左打者領域とを除いた残りの領域を前記所定領域として用いることを特徴とする付記2記載の画像処理装置。
(付記5)
映像に含まれる第1時刻における第1画像と、第2時刻における第2画像との差分を表す差分画像から、エッジ画素を検出し、
前記差分画像内で複数のエッジ画素が所定方向に並んでいるエッジ領域を特定し、
投球場面を表す画像内において投手が写っていると推測される投手領域を示す領域情報を参照し、前記差分画像内において前記投手領域に含まれる前記エッジ領域の大きさと、前記差分画像内において所定領域に含まれる前記エッジ領域の大きさとに基づいて、前記差分画像が前記投球場面を表していると判定する、
処理をコンピュータに実行させる画像処理プログラム。
(付記6)
前記領域情報は、前記投球場面を表す前記画像において打者が写っていると推測される打者領域をさらに示し、
前記投球場面において地面に対して垂直な方向と前記所定方向とが成す角度は、所定角度よりも小さく、
前記所定領域は、前記投球場面を表す前記画像から前記投手領域と前記打者領域とを除いた残りの領域であり、
前記コンピュータは、前記投手領域に含まれる前記エッジ領域の大きさが第1閾値よりも大きく、前記所定領域に含まれる前記エッジ領域の大きさが第2閾値以下である場合に、前記差分画像が前記投球場面を表していると判定することを特徴とする付記5記載の画像処理プログラム。
(付記7)
前記領域情報が示す前記打者領域は、前記右打者が写っていると推測される右打者領域と、前記左打者が写っていると推測される左打者領域とを含み、
前記コンピュータは、前記投球場面において前記打者が右打者又は左打者のいずれであるかを示す打者情報を取得し、前記打者情報が前記右打者を示している場合、前記差分画像から前記投手領域と前記右打者領域とを除いた残りの領域を前記所定領域として用い、前記打者情報が前記左打者を示している場合、前記差分画像から前記投手領域と前記左打者領域とを除いた残りの領域を前記所定領域として用いることを特徴とする付記6記載の画像処理プログラム。
(付記8)
前記領域情報が示す前記打者領域は、右打者が写っていると推測される右打者領域と、左打者が写っていると推測される左打者領域とを含み、
前記コンピュータは、前記差分画像内において前記右打者領域に含まれる前記エッジ領域の大きさが前記左打者領域に含まれる前記エッジ領域の大きさよりも大きい場合、前記差分画像から前記投手領域と前記右打者領域とを除いた残りの領域を前記所定領域として用い、前記左打者領域に含まれる前記エッジ領域の大きさが前記右打者領域に含まれる前記エッジ領域の大きさよりも大きい場合、前記差分画像から前記投手領域と前記左打者領域とを除いた残りの領域を前記所定領域として用いることを特徴とする付記6記載の画像処理プログラム。
(付記9)
コンピュータが、
映像に含まれる第1時刻における第1画像と、第2時刻における第2画像との差分を表す差分画像から、エッジ画素を検出し、
前記差分画像内で複数のエッジ画素が所定方向に並んでいるエッジ領域を特定し、
投球場面を表す画像内において投手が写っていると推測される投手領域を示す領域情報を参照し、前記差分画像内において前記投手領域に含まれる前記エッジ領域の大きさと、前記差分画像内において所定領域に含まれる前記エッジ領域の大きさとに基づいて、前記差分画像が前記投球場面を表していると判定する、
ことを特徴とする画像処理方法。
(付記10)
前記領域情報は、前記投球場面を表す前記画像において打者が写っていると推測される打者領域をさらに示し、
前記投球場面において地面に対して垂直な方向と前記所定方向とが成す角度は、所定角度よりも小さく、
前記所定領域は、前記投球場面を表す前記画像から前記投手領域と前記打者領域とを除いた残りの領域であり、
前記コンピュータは、前記投手領域に含まれる前記エッジ領域の大きさが第1閾値よりも大きく、前記所定領域に含まれる前記エッジ領域の大きさが第2閾値以下である場合に、前記差分画像が前記投球場面を表していると判定することを特徴とする付記9記載の画像処理方法。
(付記11)
前記領域情報が示す前記打者領域は、前記右打者が写っていると推測される右打者領域と、前記左打者が写っていると推測される左打者領域とを含み、
前記コンピュータは、前記投球場面において前記打者が右打者又は左打者のいずれであるかを示す打者情報を取得し、前記打者情報が前記右打者を示している場合、前記差分画像から前記投手領域と前記右打者領域とを除いた残りの領域を前記所定領域として用い、前記打者情報が前記左打者を示している場合、前記差分画像から前記投手領域と前記左打者領域とを除いた残りの領域を前記所定領域として用いることを特徴とする付記10記載の画像処理方法。
(付記12)
前記領域情報が示す前記打者領域は、右打者が写っていると推測される右打者領域と、左打者が写っていると推測される左打者領域とを含み、
前記コンピュータは、前記差分画像内において前記右打者領域に含まれる前記エッジ領域の大きさが前記左打者領域に含まれる前記エッジ領域の大きさよりも大きい場合、前記差分画像から前記投手領域と前記右打者領域とを除いた残りの領域を前記所定領域として用い、前記左打者領域に含まれる前記エッジ領域の大きさが前記右打者領域に含まれる前記エッジ領域の大きさよりも大きい場合、前記差分画像から前記投手領域と前記左打者領域とを除いた残りの領域を前記所定領域として用いることを特徴とする付記10記載の画像処理方法。
101 画像処理装置
111 記憶部
112 特定部
113 判定部
121 領域情報
301 取得部
311 差分画像生成部
312 エッジ検出部
313 領域生成部
321 打者情報
322 映像
323 エッジ領域
324 判定結果
401、402 画像
411 投手領域
412 右打者領域
413 左打者領域
601〜603 領域
1301 CPU
1302 メモリ
1303 入力装置
1304 出力装置
1305 補助記憶装置
1306 媒体駆動装置
1307 ネットワーク接続装置
1308 バス
1309 可搬型記録媒体
次に、判定部113は、差分画像内において領域情報121が示す投手領域に含まれるエッジ領域の大きさと、差分画像内において所定領域に含まれるエッジ領域の大きさとに基づいて、差分画像が投球場面を表していると判定する(ステップ203)。
y−d2≦b≦y+d2の範囲のPe(x,b)がすべて0以外の値であり、エッジ画素を表している場合、Pv(x,y)も0以外の値になる。一方、その範囲のいずれかのP(x,y)が0であり、エッジ画素ではない画素が含まれている場合、Pv(x,y)は0になる。したがって、Pv(x,y)が0以外の値を有する画素が、エッジ画素の縦方向のつながりに属する画素として抽出される。

Claims (6)

  1. 投球場面を表す画像内において投手が写っていると推測される投手領域を示す領域情報を記憶する記憶部と、
    映像に含まれる第1時刻における第1画像と、第2時刻における第2画像との差分を表す差分画像から、エッジ画素を検出し、前記差分画像内で複数のエッジ画素が所定方向に並んでいるエッジ領域を特定する特定部と、
    前記差分画像内において前記領域情報が示す前記投手領域に含まれる前記エッジ領域の大きさと、前記差分画像内において所定領域に含まれる前記エッジ領域の大きさとに基づいて、前記差分画像が前記投球場面を表していると判定する判定部と、
    を備えることを特徴とする画像処理装置。
  2. 前記領域情報は、前記投球場面を表す前記画像において打者が写っていると推測される打者領域をさらに示し、
    前記投球場面において地面に対して垂直な方向と前記所定方向とが成す角度は、所定角度よりも小さく、
    前記所定領域は、前記投球場面を表す前記画像から前記投手領域と前記打者領域とを除いた残りの領域であり、
    前記判定部は、前記投手領域に含まれる前記エッジ領域の大きさが第1閾値よりも大きく、前記所定領域に含まれる前記エッジ領域の大きさが第2閾値以下である場合に、前記差分画像が前記投球場面を表していると判定することを特徴とする請求項1記載の画像処理装置。
  3. 前記投球場面において前記打者が右打者又は左打者のいずれであるかを示す打者情報を取得する取得部をさらに備え、
    前記領域情報が示す前記打者領域は、前記右打者が写っていると推測される右打者領域と、前記左打者が写っていると推測される左打者領域とを含み、
    前記判定部は、前記打者情報が前記右打者を示している場合、前記差分画像から前記投手領域と前記右打者領域とを除いた残りの領域を前記所定領域として用い、前記打者情報が前記左打者を示している場合、前記差分画像から前記投手領域と前記左打者領域とを除いた残りの領域を前記所定領域として用いることを特徴とする請求項2記載の画像処理装置。
  4. 前記領域情報が示す前記打者領域は、右打者が写っていると推測される右打者領域と、左打者が写っていると推測される左打者領域とを含み、
    前記判定部は、前記差分画像内において前記右打者領域に含まれる前記エッジ領域の大きさが前記左打者領域に含まれる前記エッジ領域の大きさよりも大きい場合、前記差分画像から前記投手領域と前記右打者領域とを除いた残りの領域を前記所定領域として用い、前記左打者領域に含まれる前記エッジ領域の大きさが前記右打者領域に含まれる前記エッジ領域の大きさよりも大きい場合、前記差分画像から前記投手領域と前記左打者領域とを除いた残りの領域を前記所定領域として用いることを特徴とする請求項2記載の画像処理装置。
  5. 映像に含まれる第1時刻における第1画像と、第2時刻における第2画像との差分を表す差分画像から、エッジ画素を検出し、
    前記差分画像内で複数のエッジ画素が所定方向に並んでいるエッジ領域を特定し、
    投球場面を表す画像内において投手が写っていると推測される投手領域を示す領域情報を参照し、前記差分画像内において前記投手領域に含まれる前記エッジ領域の大きさと、前記差分画像内において所定領域に含まれる前記エッジ領域の大きさとに基づいて、前記差分画像が前記投球場面を表していると判定する、
    処理をコンピュータに実行させる画像処理プログラム。
  6. コンピュータが、
    映像に含まれる第1時刻における第1画像と、第2時刻における第2画像との差分を表す差分画像から、エッジ画素を検出し、
    前記差分画像内で複数のエッジ画素が所定方向に並んでいるエッジ領域を特定し、
    投球場面を表す画像内において投手が写っていると推測される投手領域を示す領域情報を参照し、前記差分画像内において前記投手領域に含まれる前記エッジ領域の大きさと、前記差分画像内において所定領域に含まれる前記エッジ領域の大きさとに基づいて、前記差分画像が前記投球場面を表していると判定する、
    ことを特徴とする画像処理方法。
JP2016077227A 2016-04-07 2016-04-07 画像処理装置、画像処理プログラム、及び画像処理方法 Pending JP2017187969A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016077227A JP2017187969A (ja) 2016-04-07 2016-04-07 画像処理装置、画像処理プログラム、及び画像処理方法
US15/457,138 US20170293802A1 (en) 2016-04-07 2017-03-13 Image processing device and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016077227A JP2017187969A (ja) 2016-04-07 2016-04-07 画像処理装置、画像処理プログラム、及び画像処理方法

Publications (1)

Publication Number Publication Date
JP2017187969A true JP2017187969A (ja) 2017-10-12

Family

ID=59998770

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016077227A Pending JP2017187969A (ja) 2016-04-07 2016-04-07 画像処理装置、画像処理プログラム、及び画像処理方法

Country Status (2)

Country Link
US (1) US20170293802A1 (ja)
JP (1) JP2017187969A (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111046727B (zh) * 2019-10-31 2023-10-20 咪咕文化科技有限公司 视频特征提取方法及装置、电子设备及存储介质
CN113744273B (zh) * 2021-11-08 2022-02-18 武汉逸飞激光股份有限公司 软包电芯折边检测方法、装置、电子设备及存储介质

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5010292B2 (ja) * 2007-01-18 2012-08-29 株式会社東芝 映像属性情報出力装置、映像要約装置、プログラムおよび映像属性情報出力方法
US8238719B2 (en) * 2007-05-08 2012-08-07 Cyberlink Corp. Method for processing a sports video and apparatus thereof
US8659663B2 (en) * 2010-12-22 2014-02-25 Sportvision, Inc. Video tracking of baseball players to determine the start and end of a half-inning
US9007463B2 (en) * 2010-12-22 2015-04-14 Sportsvision, Inc. Video tracking of baseball players which identifies merged participants based on participant roles
WO2013002653A1 (en) * 2011-06-27 2013-01-03 Chan Shun Heng Method of analysing a video of sports motion
JP4922472B1 (ja) * 2011-09-29 2012-04-25 楽天株式会社 情報処理装置、情報処理方法、情報処理装置用プログラム、および、記録媒体
JP6260292B2 (ja) * 2014-01-20 2018-01-17 富士通株式会社 情報処理プログラム、方法、及び装置、並びに野球映像メタ情報作成装置、方法、及びプログラム
US10019806B2 (en) * 2015-04-15 2018-07-10 Sportsmedia Technology Corporation Determining x,y,z,t biomechanics of moving actor with multiple cameras

Also Published As

Publication number Publication date
US20170293802A1 (en) 2017-10-12

Similar Documents

Publication Publication Date Title
US11803749B2 (en) Method and device for identifying key time point of video, computer apparatus and storage medium
US20210106893A1 (en) Virtual environment construction apparatus, video presentation apparatus, model learning apparatus, optimal depth decision apparatus, methods for the same, and program
US9473748B2 (en) Video tracking of baseball players to determine the end of a half-inning
US10382704B2 (en) Image processing device that generates a composite image
US9892320B2 (en) Method of extracting attack scene from sports footage
US9681200B2 (en) Data processing method and device
US9530061B2 (en) Extraction method for extracting a pitching scene and device for the same
JP4886707B2 (ja) オブジェクト軌道識別装置、オブジェクト軌道識別方法、及びオブジェクト軌道識別プログラム
JP2016107001A (ja) 抽出プログラム、方法、及び装置
JPWO2015190071A1 (ja) 映像処理方法、映像処理装置
JP2017187969A (ja) 画像処理装置、画像処理プログラム、及び画像処理方法
US8300894B2 (en) Method for decomposition and rendering of video content and user interface for operating the method thereof
JP2021087186A (ja) 映像生成プログラム、映像生成方法及び映像生成システム
Lee et al. A vision-based mobile augmented reality system for baseball games
JP4546762B2 (ja) 映像イベント判別用学習データ生成装置及びそのプログラム、並びに、映像イベント判別装置及びそのプログラム
US10200764B2 (en) Determination method and device
JP2016048853A (ja) 情報処理プログラム、方法、及び装置
JP7083332B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP6771521B2 (ja) ゴルフスイングの分析システム、プログラム及び方法
US9538244B2 (en) Extraction method for extracting a pitching scene and device for the same
JP7083333B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP7083334B2 (ja) 画像処理装置、画像処理方法、及びプログラム
Huang et al. A novel algorithm for shuttlecock tracking
JP5276609B2 (ja) 画像処理装置及びプログラム
JP2024074507A (ja) 画像処理装置、画像処理方法、およびプログラム