JPWO2016142965A1 - 映像処理装置、映像処理方法及び映像処理プログラムを記憶する記録媒体 - Google Patents

映像処理装置、映像処理方法及び映像処理プログラムを記憶する記録媒体 Download PDF

Info

Publication number
JPWO2016142965A1
JPWO2016142965A1 JP2017504298A JP2017504298A JPWO2016142965A1 JP WO2016142965 A1 JPWO2016142965 A1 JP WO2016142965A1 JP 2017504298 A JP2017504298 A JP 2017504298A JP 2017504298 A JP2017504298 A JP 2017504298A JP WO2016142965 A1 JPWO2016142965 A1 JP WO2016142965A1
Authority
JP
Japan
Prior art keywords
motion
motion vector
video
video processing
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017504298A
Other languages
English (en)
Inventor
朕 王
朕 王
健太 徳満
健太 徳満
慶一 蝶野
慶一 蝶野
裕三 仙田
裕三 仙田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2016142965A1 publication Critical patent/JPWO2016142965A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination

Landscapes

  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Image Analysis (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Abstract

映像において異なる動きをする部分を検出する精度を向上させることができる映像処理装置を提供する。本発明の一態様に係る映像処理装置は、映像の動きベクトル推移の組の相違の大きさを算出する相違算出手段と、前記映像において異なる動きを代表する動きベクトル推移の組の位置を前記相違の大きさに基づいて抽出する動き抽出手段とを備える。

Description

本発明は、映像を処理する技術に関する。
コンクリート等を使用して構築された構造物のひび割れを検出する方法が、例えば特許文献1に開示されている。特許文献1のひび割れ検出システムは、ひび割れが検出される構造物の表面に存在する複数の標本点から、少なくとも3つの標本点の組である要素を形成する。標本点は、例えば、構造物の表面の構造又は模様などによって位置が定まる点である。そのひび割れ検出システムは、その構造物の表面が撮影された画像において、標本点の位置を検出する。そのひび割れ検出システムは、構造物の変形の大きさを、検出された、標本点の位置の変化の大きさによって判定する。
特開2006−162548号公報
特定された標本点の位置における誤差が大きい場合、算出される、標本点の位置の変化量における誤差も大きい。構造物の表面の構造及び模様によって標本点の位置を特定することが難しい場合、標本点の位置の変化の大きさを特定することはできない。特許文献1の技術では、標本点の位置を精度よく検出できない場合、ひび割れが発生した箇所を精度よく検出することはできない。ひび割れによって分離した構造物を撮影した映像は、異なる動きをする部分を含む。特許文献1の技術では、そのような映像において異なる動きをする部分を精度よく検出することはできない。
本発明の目的の1つは、映像において異なる動きをする部分を検出する精度を向上させることができる映像処理装置を提供することにある。
本発明の一態様に係る映像処理装置は、映像の動きベクトル推移の組の相違の大きさを算出する相違算出手段と、前記映像において異なる動きを代表する動きベクトル推移の組の位置を前記相違の大きさに基づいて抽出する動き抽出手段とを備える。
本発明の一態様に係る映像処理方法は、映像の動きベクトル推移の組の相違の大きさを算出し、前記映像において異なる動きを代表する動きベクトル推移の組の位置を前記相違の大きさに基づいて抽出する。
本発明の一態様に係る記録媒体は、コンピュータを、映像の動きベクトル推移の組の相違の大きさを算出する相違算出手段と、前記映像において異なる動きを代表する動きベクトル推移の組の位置を前記相違の大きさに基づいて抽出する動き抽出手段として動作させる映像処理プログラムを記憶する。本発明は、その記録媒体が記憶する、映像処理プログラムによっても実現可能である。
本発明には、映像において異なる動きをする部分を検出する精度を向上させることができるという効果がある。
図1は、本発明の第1の実施形態の映像処理システム1の構成の例を表すブロック図である。 図2は、本発明の第1の実施形態の映像処理システム1の動作の例を表すフローチャートである。 図3は、本発明の第2の実施形態の映像処理システム1Aの構成の例を表すブロック図である。 図4は、本発明の第2の実施形態の映像処理システム1Aの動作を表すフローチャートである。 図5は、本発明の第2の実施形態の映像処理システム1Aの、特徴位置抽出処理における動作の例を表すフローチャートである。 図6は、本発明の第2の実施形態の変形例の映像処理システム1Bの構成の例を表すブロック図である。 図7は、本発明の第3の実施形態の映像処理装置100Cの構成を表すブロック図である。 図8は、本発明の各実施形態に係る映像処理装置及び分離検出装置を実現することができる、コンピュータ1000のハードウェア構成の一例を表す図である。
次に、本発明の実施形態について、図面を参照して詳細に説明する。
<第1の実施形態>
図1は、本発明の第1の実施形態の映像処理システム1の構成の例を表すブロック図である。図1を参照すると、映像処理システム1は、映像処理装置100と、映像入力装置200と、出力先装置300とを含む。映像処理装置100は、映像入力装置200及び出力先装置300と、通信可能に接続されている。
映像処理装置100は、動き系列生成部101と、相違算出部102と、動き抽出部103と、動き出力部104と、映像取得部105と、映像記憶部106と、動き推定部107と、動きベクトル記憶部108とを含む。
映像入力装置200は、映像のデータを、映像処理装置100に入力する。映像は、例えば、対象物が撮影されている映像である。対象物は、例えば、コンクリートや金属等によって構築された、橋梁又はビルなどの建造物の少なくとも一部分であってもよい。対象物は、例えば、正常時には剛体と見なすことができ、破壊された場合に、剛体と見なすことができる部分が分離し得る物体であってもよい。映像は、例えば、連続して撮影された静止画像のデータであってもよい。映像は、複数の静止画像のデータを生成できる動画像のデータであってもよい。以下の説明では、映像を、「連続画像」と表記することもある。連続する静止画像のデータである映像に含まれる静止画像(映像のフレームに相当する)を、「フレーム」とも表記する。また、映像のデータを操作すること(例えば映像のデータを入力すること)を、映像を操作する(例えば、映像を入力する)と表記する。
映像入力装置200は、例えば、対象物を撮影し、撮影することによって得られた映像を、映像処理装置100に送信する撮影装置であってもよい。映像入力装置200は、撮影装置によって撮影された対象物の映像を記憶し、記憶している映像を映像処理装置100に送信する、映像サーバ装置であってもよい。
映像取得部105は、映像入力装置200から、映像を受信する。映像取得部105は、受信した映像を、映像記憶部106に格納する。
映像記憶部106は、映像入力装置200から入力された映像を記憶する。
動き推定部107は、映像に含まれる複数のフレームについて、フレームにおいてあらかじめ定められている複数の位置における動きベクトルを推定する。この場合、動きベクトルは、その動きベクトルが推定される位置を含む領域の移動の方向及び大きさを表す。動きベクトルは、フレームに設定されている座標系において、平面内の動きを表す値である。動きベクトルは、例えば、要素数が2であるベクトルによって表される。以下の説明において、推定された動きベクトルが移動の方向及び大きさを表す位置は、「動きベクトルの位置」、又は、「動きベクトルが推定された位置」等とも表記される。
動き推定部107は、動きベクトルを推定するフレームと、参照フレームとを比較することによって、動きベクトルを推定する。参照フレームは、映像において、動きベクトルを推定するフレームより前の(例えば直前の)フレームである。動き推定部107が動きベクトルを推定する方法として、画素値に基づく相関を使用する方法、位相の相関を使用する方法などの、既存のさまざまな方法を適用できる。動きベクトルを推定する位置は、例えば、動き推定部107が動きベクトルを推定する方法において動きベクトルを推定できる領域に含まれる、所定の間隔の位置である。所定の間隔の位置は、例えば、フレーム面に設定されるいずれかの種類の平面格子の格子点の位置である。動きベクトルを推定する位置は、例えば、動き推定部107が動きベクトルを推定する方法において動きベクトルを推定できる領域に含まれる各画素の位置であってもよい。
動き推定部107は、推定した動きベクトルに、その動きベクトルが推定された位置を関連付ける。動き推定部107は、位置が関連付けられている動きベクトルを、動きベクトルを推定したフレーム毎に、動きベクトル記憶部108に格納する。動きベクトルに関連付けられる位置は、例えば、その動きベクトルが推定された場所の座標である。本発明の各実施形態の説明において、1つのフレームの複数の位置において推定された動きベクトルの集合を、「動きベクトル場」とも表記する。動き推定部107は、言い換えると、例えば、フレーム毎に、動きベクトル場を、動きベクトル記憶部108に格納する。動き推定部107は、例えば、動きベクトル記憶部108に格納する動きベクトル場に、その動きベクトル場に含まれる動きベクトルが推定されたフレームの、映像における順番を特定する値(以下では、「時間値」とも表記)を関連付ければよい。映像におけるフレームの順番は、例えば、そのフレームが撮影された順番である。時間値は、例えば、映像に含まれるフレームの各々に、フレームが撮影された順番に従って付与される、フレーム番号であってもよい。時間値は、例えば、映像が撮影されてから経過した時間であってもよい。時間値は、映像に含まれるフレームの各々が撮影された時刻であってもよい。以下の説明では、時間値は、フレーム番号である。また、映像に含まれるフレームの各々において推定された動きベクトル場の、動きベクトル場が抽出されたフレームの順番を特定できる集合を、「動きベクトル場の時系列」とも表記する。
動きベクトル記憶部108は、動きベクトルが推定されたフレーム毎に、例えば推定された位置が関連付けられている動きベクトルの集合である、動きベクトル場を記憶する。
動き系列生成部101は、動きベクトル記憶部108に格納されている、動きベクトルが推定されたフレーム毎の動きベクトル場に基づいて、同じ位置において推定された動きベクトルの集合である、動き系列を生成する。動き系列に含まれる動きベクトルは、その動きベクトルが推定されたフレームの映像における順番に従って並んでいてもよい。動き系列に含まれる動きベクトルの各々には、フレーム番号が関連付けられていてもよい。本発明の各実施形態の説明において、動き系列は、「動きベクトル推移」又は「動きベクトル時系列」とも表記される。
数1に示す式は、動きベクトルを表す。
Figure 2016142965
数1に示す式において、fは、フレーム番号を表す。映像において動きベクトルが推定されたフレームの数がFとすると、fは1以上F以下の整数である。また、mは、動きベクトルが推定された場所を表す番号である。動きベクトルが推定される位置の数をMとすると、mは1以上M以下の整数である。数1に示す式において、MV(T,x,y)は、時間値がTであるフレームの、座標が(x,y)である位置において推定された動きベクトルを表す。座標(x,y)は、m番目の、動きベクトルが推定される位置の座標である。動きベクトルが推定される位置の番号は、あらかじめ決められていればよい。さらに、数1に示す式の右辺において、ΔU(T,x,y)は、動きベクトルMV(T,x,y)のx軸方向の成分であるx成分を表す。同様に、ΔV(T,x,y)は、動きベクトルMV(T,x,y)のy軸方向の成分であるy成分を表す。
数2に示す式は、動き系列の例を表す。
Figure 2016142965
数2に示すPは、1番目からF番目までのフレーム(すなわち、映像において動きベクトルが推定されたフレーム)の各々の、m番目の位置において推定された、動きベクトルの集合(すなわちm番目の動き系列)を表す。動き系列生成部101は、1からMまでのそれぞれのmについて、動き系列Pを生成する。
例えば、対象物が、異なる動きをし得る複数の部分に分離されている場合、撮影された映像のフレームにおける、異なる部分の像の領域(以下、異物体領域と表記)内の位置において推定される動きベクトルは、異なる可能性がある。分離されていない対象物又は同一の部分の像の領域(以下、同一物体領域と表記)内の、複数の位置において推定される動きベクトルは、同じ又は似ている可能性が高い。推定される動きベクトルに誤差が存在する場合であっても、同一物体領域内の、複数の位置において推定される動きベクトルの推移は、異物体領域内の位置において推定される動きベクトルの推移より似ている可能性が高い。
動き系列Pは、1番目からF番目までのフレームの、m番目の位置において推定された、動きベクトルの時系列を表す。従って、動き系列Pは、映像のm番目の位置における、撮影された対象物の動きの推移を表すと言える。本実施形態では、以下のように、2つの動き系列の間の相違の大きさを特定することによって、その大きさを使用して、その2つの動き系列が推定された位置が、同一物体領域に含まれるか否かを判定することができる。なお、動き系列が推定された位置は、その動き系列に含まれる動きベクトルが推定された位置を表す。
相違算出部102は、動き系列の間の相違の程度を表す値である相違値(以下、「第1の相違値」とも表記する)を算出する。相違算出部102は、第1の相違値を、前記動き系列に含まれる、同じ時間値に関連付けられている動きベクトルの間の相違の程度を表す値である相違値(以下、「第2の相違値」とも表記する)に基づいて算出する。相違値の算出方法については、後で詳細に説明する。
動き抽出部103は、動き系列の間の相違の程度を表す値である相違値が、最も相違していることを表す、2つの動き系列の各々の、動きベクトルが推定された位置を、前述の複数の固定された位置から抽出する。「固定された位置」は、位置が映像の全てのフレームで同じであることを表す。位置は座標によって表される。複数の固定された位置は、あらかじめ指定されていればよい。本発明の各実施形態では、上述のように、動き系列の間の相違の程度を表す値である相違値は、「第1の相違値」とも表記される。
数3に示す式は、相違算出部102が算出する、動き系列の間の相違の程度を表す値である相違値の例を表す。
Figure 2016142965
数3に示す式は、動き系列に対して定義されたL1ノルムによって表される、動き系列Pと動き系列Pとの間の相違の程度を表す相違値(すなわち、L1ノルムに基づく相違値)の例である。数3に示す相違値は、同じフレームの、u番目の位置とv番目の位置において推定された、2つの動きベクトルの差の大きさの、1番目からF番目までのフレームについての総和である。数3に示す式では、同じフレームの、u番目の位置とv番目の位置において推定された、2つの動きベクトルの差の大きさが、それらの動きベクトルの相違の程度を表す相違値(すなわち、上述の第2の相違値)である。数3に示す式では、fはフレーム番号を表し、u及びvは、上述の固定されている複数の位置における、位置の番号を表す。
数4は、動き抽出部103は、数3に例示する相違値を使用して抽出する、2つの位置を表す。数3に示す式と同様に、数4に示す式では、u及びvは、上述の固定されている複数の位置における、位置の番号を表す。
Figure 2016142965
数4は、それぞれ位置の番号であるm1とm2との組み合わせが、それぞれ1以上M以下の整数である、互いに異なるuとvとの組み合わせにおいて、数3に示す相違値が最も大きいuとvとの組み合わせであることを表す。番号m1及びm2は、動き抽出部103によって抽出される、動き系列の間の相違の程度を表す値である相違値が、最も相違していることを表す、2つの動き系列の各々の、動きベクトルが推定された位置を表す。すなわち、相違値として、数3に例示する相違値を使用する場合、動き抽出部103は、数4の示す式に従って、2つの位置を抽出する。
数5に示す式は、相違算出部102が算出する、動き系列の間の相違の程度を表す値である相違値の他の例を表す。
Figure 2016142965
数3に示す式は、動き系列に対して定義されたL2ノルムによって表される、動き系列Pと動き系列Pとの間の相違の程度を表す相違値(すなわち、L2ノルムに基づく相違値)の例である。数5に示す相違値は、同じフレームの、u番目の位置とv番目の位置において推定された、2つの動きベクトルの差の大きさの2乗の、1番目からF番目までのフレームについての総和の平方根である。数5に示す式では、同じフレームの、u番目の位置とv番目の位置において推定された、2つの動きベクトルの差の大きさが、それらの動きベクトルの相違の程度を表す相違値(すなわち、上述の第2の相違値)である。数5に示す式でも、同様に、fはフレーム番号を表し、u及びvは、上述の固定されている複数の位置における、位置の番号を表す。
数6は、動き抽出部103は、数5に例示する相違値を使用して抽出する、2つの位置を表す。数3に示す式と同様に、数6に示す式では、u及びvは、上述の固定されている複数の位置における、位置の番号を表す。
Figure 2016142965
数6は、それぞれ位置の番号であるm1とm2との組み合わせが、それぞれ1以上M以下の整数である、互いに異なるuとvとの組み合わせにおいて、数5に示す相違値が最も大きいuとvとの組み合わせであることを表す。番号m1及びm2は、動き抽出部103によって抽出される、動き系列の間の相違の程度を表す値である相違値が、最も相違していることを表す、2つの動き系列の各々の、動きベクトルが推定された位置を表す。すなわち、相違値として、数5に例示する相違値を使用する場合、動き抽出部103は、数6の示す式に従って、2つの位置を抽出してもよい。
Figure 2016142965
数7は、それぞれ位置の番号であるm1とm2との組み合わせが、それぞれ1以上M以下の整数である、互いに異なるuとvとの組み合わせにおいて、数5に示す相違値の2乗が最も大きいuとvとの組み合わせであること表す。相違値として、数5に例示する相違値を使用する場合、動き抽出部103は、数7の示す式に従って、2つの位置を抽出してもよい。その場合、数5に示す相違値を算出する際、平方根の算出を省略できる。
相違算出部102は、第2の相違値として、同じフレームの、u番目の位置とv番目の位置において推定された、2つの動きベクトルの相関係数を算出してもよい。そして、相違算出部102は、第1の相違値として、1番目からF番目までのフレームについての第2の相違値の総和を算出してもよい。
動き出力部104は、動き抽出部103によって抽出された2つの位置を、出力先装置300に出力する。動き出力部104は、動き抽出部103によって抽出された2つの位置に加えて、それらの2つの位置において推定された動き系列を出力してもよい。上述のように、動き系列は、動きベクトル場が推定されたフレームである、1番目からF番目までのフレームの、同じ場所において推定された、動きベクトルを表す。動き抽出部103によって抽出された2つの位置において推定された動き系列は、1番目からF番目までのフレームの、動きベクトルの相違が最も大きい2つの場所において推定された、動きベクトルを表す。動き抽出部103は、位置が抽出された2つの動き系列のそれぞれに含まれる、関連付けられている時間値が同じ順番を表す動きベクトルを、時間値によって特定される順番のフレームの2つの特徴動きベクトルとして抽出してもよい。そして、動き出力部104は、動きベクトル場が推定された複数のフレームの各々についての、前述の2つの特徴動きベクトルを、出力先装置300に出力してもよい。動き出力部104は、相違が最も大きい動き系列の、相違の大きさを表す相違値を、出力先装置300に出力してもよい。
出力先装置300は、例えば、表示装置であってもよい。出力先装置300は、映像処理装置100の出力に基づいて、ひび割れを検出する動作などの他の動作を行う装置であってもよい。図1に示す例では、出力先装置300は、映像処理装置100とは別の装置であるが、出力先装置300は、映像処理装置100が含む、他の部又は回路であってもよい。
次に、本実施形態の映像処理システム1の動作について、図面を参照して詳細に説明する。
図2は、本実施形態の映像処理システム1の動作の例を表すフローチャートである。
図2を参照すると、まず、映像取得部105が、映像入力装置200から、映像を取得する(ステップS101)。映像取得部105は、取得した映像を、例えば、映像記憶部106に格納する。次に、動き推定部107が、例えば映像記憶部106に格納されている映像に基づいて、動きベクトル場の時系列を推定する(ステップS102)。動き推定部107は、動きベクトルの時系列を、動きベクトル記憶部108に格納する。
次に、動き系列生成部101が、動きベクトル記憶部108が記憶する動きベクトル場の時系列に基づいて、複数の固定された位置における動き系列を生成する(ステップS103)。次に、相違算出部102が、複数の固定された位置に含まれる、異なる2つの位置の組み合わせの各々について、2つの位置において推定された動き系列の相違の大きさを表す相違値を算出する(ステップS104)。次に、動き抽出部103が、算出された相違値に基づいて、相違が最も大きい、2つの動き系列が推定された位置を抽出する(ステップS105)。動き抽出部103は、さらに、映像のうち、動きベクトル場が推定されたフレームの各々について、上述の2つの特徴動きベクトルを抽出してもよい(ステップS106)。動き出力部104は、抽出された2つの位置を、出力先装置300に出力する(ステップS107)。ステップS107において、動き出力部104は、映像のうち、動きベクトル場が推定されたフレームの各々についての、2つの特徴動きベクトルを、出力先装置300に出力してもよい。
以上で説明した本実施形態には、映像において異なる動きをする部分を検出する精度を向上させることができるという第1の効果がある。
その理由は、動き系列生成部101が、複数の固定された位置において推定された動きベクトルの集合である動き系列を生成するからである。そして、動き抽出部103が、動き系列の間の相違の程度を表す値である第1の相違値が、最も相違していることを表す、2つの動き系列の各々の、動きベクトルが推定された位置を、複数の固定された位置から抽出するからである。
映像にノイズが多いフレームが含まれている場合などに、同じ位置において推定される動きベクトルに、誤差が大きい動きベクトルが含まれることがある。また、画素値には量子化誤差も存在する。例えば、推定される動きベクトルの相違が最も大きい位置の組み合わせを検出する場合、ノイズや、画素値の量子化誤差などによる動きベクトルの誤差の増加によって、フレームにおける動きの相違が最も大きい位置の検出誤差が増加する。
同じ位置において推定される動きベクトルに、誤差が大きい動きベクトルが含まれている場合であっても、複数の動きベクトルの集合である動き系列の相違を算出することによって、誤差が大きい動きベクトルによる悪影響を軽減できる。従って、推定される動き系列の相違が最も大きい位置の組み合わせを検出することによって、映像において撮影されている対象物の、その映像における動きの相違が最も大きい位置を検出する精度を向上させることができる。
また、本実施形態には、対象物が撮影された映像に基づいてその対象物の分離を検出する精度を向上させることができるという第2の効果がある。
その理由は、動きの相違が最も大きい2つの位置を精度よく抽出することができれば、例えば、それらの2つの位置を起点に、同じ動きをする領域を拡張していくことによって、異なる動きをする2つの部分の像の領域を、精度よく推定することができる。すなわち、対象物が撮影された映像に基づいてその対象物の分離を検出する精度を向上させることができる。
<第2の実施形態>
次に、本発明の第2の実施形態について、図面を参照して詳細に説明する。本実施形態は、第1の実施形態の応用例である。
図3は、本実施形態の映像処理システム1Aの構成の例を表すブロック図である。
図3を参照すると、本実施形態の映像処理システム1Aは、映像処理装置100Aと、映像入力装置200Aと、表示装置300Aとを含む。映像処理装置100Aは、映像入力装置200A及び表示装置300Aと、通信可能に接続されている。本実施形態の映像処理装置100Aは、以下に示す相違を除いて、第1の実施形態の映像処理装置100と同じである。本実施形態の映像処理装置100Aの、第1の実施形態の映像処理装置100の構成要素と同じ構成要素には、同じ番号を付与し、その説明を省略する。
図3と図1とを比較すると、本実施形態の映像処理装置100Aは、第1の実施形態の映像処理装置100の各構成要素に加えて、分離判定部109と、領域分割部110と、分離検出部111と、分離出力部112とを含む。
本実施形態の相違算出部102は、さらに、算出した相違値のうち、相違が最も大きいことを表す相違値を、分離判定部109に送信する。
本実施形態の動き出力部104は、動き抽出部103によって抽出された2つの位置と、その2つの位置の各々において推定された動き系列とを、領域分割部110に送信する。動き出力部104は、動き系列の代わりに、動きベクトル場が推定された複数のフレームの各々についての、前述の2つの特徴動きベクトルを、領域分割部110に送信してもよい。前述のように、これらの特徴動きベクトルは、推定された動き系列から生成される。動き出力部104が、動き系列を領域分割部110に送信するように設計されている場合、領域分割部110は、受信した動き系列から、動きベクトル場が推定された複数のフレームの各々についての、2つの特徴動きベクトルを生成するよう設計されていればよい。以下の説明では、動き出力部104は、動き抽出部103によって抽出された、2つの位置と、動きベクトル場が推定された複数のフレームの各々についての、前述の2つの特徴動きベクトルとを、領域分割部110に送信する。
分離判定部109は、相違算出部102から受信した、相違が最も大きいことを表す第1の相違値に基づいて、映像において撮影されている対象物が、複数の部分に分離しているか否かを判定する。分離判定部109は、受信した第1の相違値と、例えばあらかじめ実験的に定められた閾値とを比較すればよい。そして、分離判定部109は、受信した第1の相違値が表す相違の大きさが、閾値が表す相違の大きさより大きい場合、対象物が複数の部分に分離していると判定し、そうでない場合、対象物は分離していないと判定すればよい。
領域分割部110は、例えば、動きベクトル場の各動きベクトルを、その動きベクトル場に含まれる2つの特徴ベクトルの各々との近さに応じて分類することによって、そのベクトル場が推定されたフレームを、2つの領域に分割する、領域分割を行う。
領域分割部110は、例えば、以下のように、領域分割を行ってもよい。領域分割部110は、まず、動きベクトル場に含まれる動きベクトルと、2つの動きベクトルのそれぞれとの差の大きさを算出する。領域分割部110は、その動きベクトルを、差の大きさが小さい方の特徴動きベクトルのグループに分類する。領域分割部110は、動きベクトル場に含まれる各動きベクトルを、2つの特徴動きベクトルのグループのいずれかに分類する。さらに、領域分割部110は、同じグループに含まれる動きベクトルの、動きベクトルが推定された位置の周辺領域(以下、動きベクトルの周辺領域と表記)のうち、隣接する周辺領域を連結する。周辺領域は、異なる動きベクトルの周辺領域が重ならないように、フレームを分割することによって得られる領域であればよい。以下、連結された周辺領域を連結領域と表記する。領域分割部110は、連結領域の境界線の平滑化、面積が所定値以下の連結領域の除去など、既存のさまざまな領域の整形方法によって、フレームにおいて、動きベクトルの1つのグループについて1つの連結領域になるように、連結領域の整形を行う。
領域分割部110は、例えば、以下のように、領域分割を行ってもよい。領域分割部110は、まず、2つの特徴動きベクトルの各々について、特徴ベクトルの周辺領域を、その特徴ベクトルのグループの連結領域とする。そして、領域分割部110は、特徴動きベクトルのグループの連結領域に、周辺領域が隣接する動きベクトルと、その特徴動きベクトルとの差の大きさを算出する。算出された差の大きさが所定の閾値より小さい場合、領域分割部110は、その動きベクトルの周辺領域を、その特徴動きベクトルのグループの連結領域に連結する。領域分割部110は、特徴動きベクトルのグループの連結領域に、周辺領域が隣接する動きベクトルに、その特徴動きベクトルに対する差の大きさが所定値より小さい動きベクトルが存在しなくなるまで、動きベクトルの周辺領域と連結領域との連結を繰り返す。領域分割部110は、連結領域の境界線の平滑化などの、連結領域の整形を行ってもよい。
領域分割部110は、以上で説明した方法ではない方法によって、2つの特徴動きベクトルの各々についての連結領域を生成してもよい。
以上のように生成された一方の連結領域は、一方の特徴動きベクトルが推定された場所を含み、他方の連結領域は、他方の特徴動きベクトルが推定された場所を含む。そして、連結領域には、その連結領域に推定された場所が含まれる特徴動きベクトルとの近さに応じて分類された、複数の動きベクトルが推定された場所が含まれる。以下、推定された場所が連結領域に含まれる動きベクトルを、その連結領域の動きベクトルと表記する。2つの連結領域の各々について算出される、動きベクトルの平均ベクトルが異なっている場合、一方の連結領域に像が含まれる対象物の少なくとも一部と、他方の連結領域に像が含まれる対象物の少なくとも一部と、異なる方向に動いていると見なせる。そのような2つの連結領域を、「動きが異なる」2つの連結領域と表記する。相違が最も大きい動き系列から生成される、同じフレームにおいて推定された2つの特徴動きベクトルの差の大きさは、そのフレームにおいて推定された動きベクトルから選択された2つの動きベクトルの差の大きさの中で、上位にあることが期待される。領域分割部110が、動きベクトル場が推定されたフレームにおいて生成する(すなわちそのフレームから抽出する)2つの連結領域は、動きが異なる連結領域であると言える。
領域分割部110は、動きベクトル場が推定された複数のフレームの各々について、2つの連結領域を生成すればよい。
分離検出部111は、上述の2つの連結領域が隣接している場合、例えば、2つの連結領域の間の境界、又は、その境界から所定距離以内の、その境界を含む領域を、対象物が分離している場所の領域として検出してもよい。分離検出部111は、上述の2つの連結領域が隣接していない場合、例えば、2つの連結領域に挟まれた、2つの連結領域の双方の境界から所定距離以内の領域を、対象物が分離している場所の領域として検出してもよい。分離検出部111は、動きベクトル場が推定された複数のフレームの各々について、対象物が分離している場所の領域を検出すればよい。
分離出力部112は、対象物が分離している場所の領域が検出されたフレームについて、対象物が分離している場所の領域を、表示装置300Aに表示する。分離出力部112は、例えば、対象物が分離している場所の領域が検出されたフレームに、そのフレームにおいて検出された対象物が分離している場所の領域を示す表示を重畳してもよい。そして、分離出力部112は、対象物が分離している場所の領域を示す表示が重畳されたフレームを、表示装置300Aに出力してもよい。分離出力部112は、対象物が分離している場所の領域が検出された全てのフレームについて、対象物が分離している場所の領域を、表示装置300Aに表示してもよい。分離出力部112は、対象物が分離している場所の領域が検出されたフレームのうち、ユーザが入力装置(図示されない)を使用して選択したフレームについて、対象物が分離している場所の領域を、表示装置300Aに表示してもよい。
次に、本実施形態の映像処理システム1Aの動作について、図面を参照して詳細に説明する。
図4は、本実施形態の映像処理システム1Aの動作を表すフローチャートである。
図4を参照すると、映像処理システム1Aは、特徴位置抽出処理を行う(ステップS201)。映像処理システム1Aは、特徴位置抽出処理によって、相違が最も大きい2つの動き系列を抽出する。映像処理システム1Aは、特徴位置抽出処理によって、さらに、相違が最も大きい2つの動き系列の相違の大きさを表す相違値を算出する。映像処理システム1Aは、特徴位置抽出処理によって、さらに、その2つの動き系列が推定された位置を抽出する。上述のように、抽出された動き系列は、ベクトル場が推定されたフレームの各々の、上述の2つの特徴動きベクトルを表す。特徴位置抽出処理については、後述される。
次に、分離判定部109が、相違が最も大きい2つの動き系列の相違の大きさを表す相違値に基づいて、対象物の分離の有無を判定する(ステップS202)。分離が存在しないと判定された場合(ステップS202においてNO)、分離出力部112は、対象物に分離が存在しないことを示す表示を、表示装置300Aに表示してもよい。そして、映像処理装置100Aは、図4に示す動作を終了する。
分離が存在すると判定された場合(ステップS202においてYES)、領域分割部110は、抽出された位置及び特徴動きベクトルに基づいて、動きベクトル場が推定されたフレームから、動きが異なる2つの連結領域を抽出する(ステップS204)。次に、分離検出部111は、抽出された2つの連結領域に基づいて、分離の場所を推定する(ステップS205)。分離出力部112は、推定された分離の場所を、表示装置300Aに表示する(ステップS206)。
次に、本実施形態の映像処理システム1Aの、特徴位置抽出処理における動作について、図面を参照して詳細に説明する。
図5は、本実施形態の映像処理システム1Aの、特徴位置抽出処理における動作の例を表すフローチャートである。
図5に示す各ステップの動作は、図2に示す、第1の実施形態の映像処理システム1の動作における、同じ符号が付与されているステップの動作と同じである。
以上で説明した本実施形態には、第1の実施形態と同じ効果がある。その理由は、第1の実施形態の効果が生じる理由と同じである。
<第2の実施形態の変形例>
次に、第2の実施形態の変形例に係る映像処理システム1Bについて、図面を参照して詳細に説明する。
図6は、本変形例の映像処理システム1Bの構成の例を表すブロック図である。
図6を参照すると、本変形例の映像処理システム1Bは、映像処理装置100と、分離検出装置100Bと、映像入力装置200Aと、表示装置300Aとを含む。分離検出装置100Bは、映像処理装置100、映像入力装置200A、及び、表示装置300Aと、通信可能に接続されている。
本変形例の映像処理装置100は、以下で説明する相違を除いて、第1の実施形態の映像処理装置100と同じである。本変形例では、分離検出装置100Bが、第1の実施形態における映像入力装置200及び出力先装置300に相当する。本実施形態の映像処理装置100は、映像に基づいて推定した動きベクトル場の時系列を、分離検出装置100Bに送信する。
本変形例の映像入力装置200Aは、例えば、対象物を撮影し、対象物が撮影されている映像を出力する、撮影装置である。
分離検出装置100Bは、映像取得部105Bと、映像記憶部106Bと、送受信部113と、分離判定部109と、領域分割部110と、分離検出部111と、分離出力部112とを含む。
映像取得部105Bは、映像入力装置200Aから映像を取得し、取得した映像を、映像記憶部106Bに格納する。映像取得部105Bは、取得した映像を、送受信部113を介して、映像処理装置100に送信する。映像取得部105Bは、映像記憶部106Bに格納されている映像を映像記憶部106Bから読みだし、読み出した映像を、送受信部113を介して、映像処理装置100に送信してもよい。
映像記憶部106Bは、映像入力装置200Aから取得した映像を記憶する。
送受信部113は、映像を映像処理装置100に送信する。また、送受信部113は、映像処理装置100から、映像処理装置100が抽出した、相違が最も大きい2つの動き系列の、相違の大きさを表す相違値を受信する。送受信部113は、映像処理装置100から、映像処理装置100が抽出した、相違が最も大きい2つの動き系列が推定された位置を受信する。送受信部113は、映像処理装置100から、さらに、相違が最も大きい2つの動き系列から生成された、動きベクトル場が推定された複数のフレームの各々の、前述の2つの特徴動きベクトルを受信してもよい。送受信部113は、映像処理装置100から、特徴動きベクトルの代わりに、映像処理装置100が抽出した、相違が最も大きい2つの動き系列を受信してもよい。送受信部113は、映像処理装置100から、さらに、映像に基づいて推定された動きベクトル場の時系列を受信する。
本実施形態の分離判定部109、領域分割部110、分離検出部111、及び、分離出力部112は、それぞれ、第1の実施形態の映像処理装置100Aの、分離判定部109、領域分割部110、分離検出部111、及び、分離出力部112と同じである。ただし、分離判定部109は、送受信部113を介して、映像処理装置100から、相違が最も大きい2つの動き系列の、相違の大きさを表す相違値を受信する。領域分割部110は、送受信部113を介して、映像処理装置100から、映像に基づいて推定された動きベクトル場の時系列を受信する。領域分割部110は、映像処理装置100から、さらに、相違が最も大きい2つの動き系列が推定された位置を受信する。領域分割部110は、映像処理装置100から、さらに、相違が最も大きい2つの動き系列から生成された、動きベクトル場が推定された複数のフレームの各々の、前述の2つの特徴動きベクトルを受信する。
次に、本変形例の映像処理システム1Bの動作について、図面を参照して詳細に説明する。
図4は、本変形例の映像処理システム1Bの動作を表すフローチャートである。本変形例の映像処理システム1Bの動作は、第2の変形例の映像処理システム1Aの動作と同じである。図5は、本変形例の映像処理システム1Bの、特徴位置抽出処理における動作を表すフローチャートである。本変形例の映像処理システム1Bの、特徴位置抽出処理における動作は、第2の変形例の映像処理システム1Aの、特徴位置抽出処理における動作と同じである。
<第3の実施形態>
次に、本発明の第3の実施形態について、図面を参照して詳細に説明する。本実施形態は、以上で説明した本発明の各実施形態の最小構成を表す。
図7は、本発明の第3の実施形態の映像処理装置100Cの構成を表すブロック図である。図7に示す、相違算出部102と動き抽出部103とを含む映像処理装置100Cが、上述の最小構成を表す。
本実施形態の映像処理装置100Cは、映像の動きベクトル推移の組の相違の大きさを算出する相違算出部102と、前記映像において異なる動きを代表する動きベクトル推移の組の位置を前記相違の大きさに基づいて抽出する動き抽出部103とを備える。
以上で説明した本実施形態には、第1の実施形態の第1の効果と同じ効果がある。その理由は、第1の実施形態の第1の効果が生じる理由と同じである。
<他の実施形態>
本発明の各実施形態に係る映像処理装置は、それぞれ、コンピュータ及びコンピュータを制御するプログラム、専用のハードウェア、又は、コンピュータ及びコンピュータを制御するプログラムと専用のハードウェアの組合せにより実現することができる。本発明の第2の実施形態の変形例の分離検出装置100Bも、コンピュータ及びコンピュータを制御するプログラム、専用のハードウェア、又は、コンピュータ及びコンピュータを制御するプログラムと専用のハードウェアの組合せにより実現することができる。
図8は、上述の実施形態に係る映像処理装置100、100A、100C及び分離検出装置100Bを実現することができる、コンピュータ1000のハードウェア構成の一例を表す図である。図8を参照すると、コンピュータ1000は、プロセッサ1001と、メモリ1002と、記憶装置1003と、I/O(Input/Output)インタフェース1004とを含む。また、コンピュータ1000は、記録媒体1005にアクセスすることができる。メモリ1002と記憶装置1003は、例えば、RAM(Random Access Memory)、ハードディスクなどの記憶装置である。記録媒体1005は、例えば、RAM、ハードディスクなどの記憶装置、ROM(Read Only Memory)、可搬記録媒体である。記憶装置1003が記録媒体1005であってもよい。プロセッサ1001は、メモリ1002と、記憶装置1003に対して、データやプログラムの読み出しと書き込みを行うことができる。プロセッサ1001は、I/Oインタフェース1004を介して、例えば、映像入力装置200及び出力先装置300、又は、映像入力装置200A及び表示装置300Aにアクセスすることができる。プロセッサ1001は、記録媒体1005にアクセスすることができる。記録媒体1005には、コンピュータ1000を、映像処理装置100、映像処理装置100A、映像処理装置100C、又は、分離検出装置100Bとして動作させるプログラムが格納されている。
プロセッサ1001は、記録媒体1005に格納されている、コンピュータ1000を、映像処理装置100、映像処理装置100A、映像処理装置100C、又は、分離検出装置100Bとして動作させるプログラムを、メモリ1002にロードする。そして、プロセッサ1001が、メモリ1002にロードされたプログラムを実行することにより、コンピュータ1000は、映像処理装置100、映像処理装置100A、映像処理装置100C、又は、分離検出装置100Bとして動作する。
後述の第1のグループの各部は、例えば、プログラムを記憶する記録媒体1005からメモリ1002に読み込まれた、各部の機能を実現することができる専用のプログラムと、そのプログラムを実行するプロセッサ1001により実現することができる。第1のグループは、動き系列生成部101、相違算出部102、動き抽出部103、動き出力部104、映像取得部105、及び、動き推定部107である。第1のグループは、さらに、分離判定部109、領域分割部110、分離検出部111、及び、分離出力部112を含んでいてもよい。第1のグループは、さらに、映像取得部105B、及び、送受信部113を含んでいてもよい。また、後述の第2のグループの各部は、コンピュータ1000が含むメモリ1002やハードディスク装置等の記憶装置1003により実現することができる。第2のグループは、映像記憶部106、及び、動きベクトル記憶部108である。第2のグループは、さらに、映像記憶部106Bを含んでいてもよい。あるいは、第1のグループに含まれる部及び第2のグループに含まれる部の一部又は全部を、各部の機能を実現する専用の回路によって実現することもできる。
また、上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
映像の動きベクトル推移の組の相違の大きさを算出する相違算出手段と、
前記映像において異なる動きを代表する動きベクトル推移の組の位置を前記相違の大きさに基づいて抽出する動き抽出手段と
を備える映像処理装置。
(付記2)
前記動き抽出手段は、前記相違の大きさが最も大きい動きベクトル推移の組の位置を前記異なる動きを代表する動きベクトル推移の組の位置として抽出する
付記1に記載の映像処理装置。
(付記3)
指定された座標の前記動きベクトルの推移を生成する動き系列生成手段
をさらに備える付記1又は2に記載の映像処理装置。
(付記4)
前記ベクトル推移は、前記映像のフレームの前記固定された位置において推定された動きベクトルの集合であり、
前記相違算出手段は、同じ前記フレームにおける前記動きベクトルの相違に基づいて、前記動きベクトル推移の組の間の前記相違の大きさを算出する
付記3に記載の映像処理装置。
(付記5)
前記動き抽出手段は、前記異なる動きを代表する動きベクトル推移の組の位置における前記フレームの動きベクトルを、前記フレームの特徴ベクトルとして抽出し、
前記映像処理装置は、前記フレームの特徴ベクトルとの近さに応じて前記フレームの動きベクトルを分類することによって、前記フレームから動きが異なる領域を抽出する映像分割手段をさらに備える
付記1乃至4のいずれか1項に記載の映像処理装置。
(付記6)
対象物が撮影された前記映像から抽出された前記領域を、前記対象物が分離した部分の像の少なくとも一部として検出する分離検出手段
をさらに備える付記5に記載の映像処理装置。
(付記7)
前記異なる動きを代表する動きベクトル推移の組の前記相違の大きさに基づいて、前記動きが異なる領域の存在を判定する分離判定手段
をさらに備える付記5又は6に記載の映像処理装置。
(付記8)
映像の動きベクトル推移の組の相違の大きさを算出し、
前記映像において異なる動きを代表する動きベクトル推移の組の位置を前記相違の大きさに基づいて抽出する
映像処理方法。
(付記9)
前記相違の大きさが最も大きい動きベクトル推移の組の位置を前記異なる動きを代表する動きベクトル推移の組の位置として抽出する
付記8に記載の映像処理方法。
(付記10)
指定された座標の前記動きベクトルの推移を生成する
付記8又は9に記載の映像処理方法。
(付記11)
前記ベクトル推移は、前記映像のフレームの前記固定された位置において推定された動きベクトルの集合であり、
同じ前記フレームにおける前記動きベクトルの相違に基づいて、前記動きベクトル推移の組の間の前記相違の大きさを算出する
付記10に記載の映像処理方法。
(付記12)
前記異なる動きを代表する動きベクトル推移の組の位置における前記フレームの動きベクトルを、前記フレームの特徴ベクトルとして抽出し、
前記フレームの特徴ベクトルとの近さに応じて前記フレームの動きベクトルを分類することによって、前記フレームから動きが異なる領域を抽出する
付記8乃至11のいずれか1項に記載の映像処理方法。
(付記13)
対象物が撮影された前記映像から抽出された前記領域を、前記対象物が分離した部分の像の少なくとも一部として検出する
付記12に記載の映像処理方法。
(付記14)
前記異なる動きを代表する動きベクトル推移の組の前記相違の大きさに基づいて、前記動きが異なる領域の存在を判定する
付記12又は13に記載の映像処理方法。
(付記15)
コンピュータを、
映像の動きベクトル推移の組の相違の大きさを算出する相違算出手段と、
前記映像において異なる動きを代表する動きベクトル推移の組の位置を前記相違の大きさに基づいて抽出する動き抽出手段と
して動作させる映像処理プログラムを記憶する記録媒体。
(付記16)
コンピュータを、
前記相違の大きさが最も大きい動きベクトル推移の組の位置を前記異なる動きを代表する動きベクトル推移の組の位置として抽出する前記動き抽出手段と
して動作させる付記15に記載の映像処理プログラムを記憶する記録媒体。
(付記17)
コンピュータを、
指定された座標の前記動きベクトルの推移を生成する動き系列生成手段と
して動作させる付記15又は16に記載の映像処理プログラムを記憶する記録媒体。
(付記18)
前記ベクトル推移は、前記映像のフレームの前記固定された位置において推定された動きベクトルの集合であり、
コンピュータを、
同じ前記フレームにおける前記動きベクトルの相違に基づいて、前記動きベクトル推移の組の間の前記相違の大きさを算出する前記相違算出手段と、
して動作させる付記17に記載の映像処理プログラムを記憶する記録媒体。
(付記19)
コンピュータを、
前記異なる動きを代表する動きベクトル推移の組の位置における前記フレームの動きベクトルを、前記フレームの特徴ベクトルとして抽出する前記動き抽出手段と、
前記フレームの特徴ベクトルとの近さに応じて前記フレームの動きベクトルを分類することによって、前記フレームから動きが異なる領域を抽出する映像分割手段と
して動作させる付記15乃至18のいずれか1項に記載の映像処理プログラムを記憶する記録媒体。
(付記20)
コンピュータを、
対象物が撮影された前記映像から抽出された前記領域を、前記対象物が分離した部分の像の少なくとも一部として検出する分離検出手段と
して動作させる付記19に記載の映像処理プログラムを記憶する記録媒体。
(付記21)
コンピュータを、
前記異なる動きを代表する動きベクトル推移の組の前記相違の大きさに基づいて、前記動きが異なる領域の存在を判定する分離判定手段と
して動作させる付記19又は20に記載の映像処理プログラムを記憶する記録媒体。
以上、実施形態を参照して本発明を説明したが、本発明は上記実施形態に限定されるものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
1 映像処理システム
1A 映像処理システム
1B 映像処理システム
100 映像処理装置
100A 映像処理装置
100B 分離検出装置
100C 映像処理装置
101 動き系列生成部
102 相違算出部
103 動き抽出部
104 動き出力部
105 映像取得部
105B 映像取得部
106 映像記憶部
106B 映像記憶部
107 動き推定部
108 動きベクトル記憶部
109 分離判定部
110 領域分割部
111 分離検出部
112 分離出力部
113 送受信部
200 映像入力装置
200A 映像入力装置
300 出力先装置
300A 表示装置
1000 コンピュータ
1001 プロセッサ
1002 メモリ
1003 記憶装置
1004 I/Oインタフェース
1005 記録媒体

Claims (13)

  1. 映像の動きベクトル推移の組の相違の大きさを算出する相違算出手段と、
    前記映像において異なる動きを代表する動きベクトル推移の組の位置を前記相違の大きさに基づいて抽出する動き抽出手段と
    を備える映像処理装置。
  2. 前記動き抽出手段は、前記相違の大きさが最も大きい動きベクトル推移の組の位置を前記異なる動きを代表する動きベクトル推移の組の位置として抽出する
    請求項1に記載の映像処理装置。
  3. 指定された座標の前記動きベクトルの推移を生成する動き系列生成手段
    をさらに備える請求項1又は2に記載の映像処理装置。
  4. 前記ベクトル推移は、前記映像のフレームの前記固定された位置において推定された動きベクトルの集合であり、
    前記相違算出手段は、同じ前記フレームにおける前記動きベクトルの相違に基づいて、前記動きベクトル推移の組の間の前記相違の大きさを算出する
    請求項3に記載の映像処理装置。
  5. 前記動き抽出手段は、前記異なる動きを代表する動きベクトル推移の組の位置における前記フレームの動きベクトルを、前記フレームの特徴ベクトルとして抽出し、
    前記映像処理装置は、前記フレームの特徴ベクトルとの近さに応じて前記フレームの動きベクトルを分類することによって、前記フレームから動きが異なる領域を抽出する映像分割手段をさらに備える
    請求項1乃至4のいずれか1項に記載の映像処理装置。
  6. 対象物が撮影された前記映像から抽出された前記領域を、前記対象物が分離した部分の像の少なくとも一部として検出する分離検出手段
    をさらに備える請求項5に記載の映像処理装置。
  7. 前記異なる動きを代表する動きベクトル推移の組の前記相違の大きさに基づいて、前記動きが異なる領域の存在を判定する分離判定手段
    をさらに備える請求項5又は6に記載の映像処理装置。
  8. 映像の動きベクトル推移の組の相違の大きさを算出し、
    前記映像において異なる動きを代表する動きベクトル推移の組の位置を前記相違の大きさに基づいて抽出する
    映像処理方法。
  9. 前記相違の大きさが最も大きい動きベクトル推移の組の位置を前記異なる動きを代表する動きベクトル推移の組の位置として抽出する
    請求項8に記載の映像処理方法。
  10. 指定された座標の前記動きベクトルの推移を生成する
    請求項8又は9に記載の映像処理方法。
  11. コンピュータを、
    映像の動きベクトル推移の組の相違の大きさを算出する相違算出手段と、
    前記映像において異なる動きを代表する動きベクトル推移の組の位置を前記相違の大きさに基づいて抽出する動き抽出手段と
    して動作させる映像処理プログラムを記憶する記録媒体。
  12. コンピュータを、
    前記相違の大きさが最も大きい動きベクトル推移の組の位置を前記異なる動きを代表する動きベクトル推移の組の位置として抽出する前記動き抽出手段と
    して動作させる請求項11に記載の映像処理プログラムを記憶する記録媒体。
  13. コンピュータを、
    指定された座標の前記動きベクトルの推移を生成する動き系列生成手段と
    して動作させる請求項11又は12に記載の映像処理プログラムを記憶する記録媒体。
JP2017504298A 2015-03-10 2015-03-10 映像処理装置、映像処理方法及び映像処理プログラムを記憶する記録媒体 Pending JPWO2016142965A1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/001307 WO2016142965A1 (ja) 2015-03-10 2015-03-10 映像処理装置、映像処理方法及び映像処理プログラムを記憶する記録媒体

Publications (1)

Publication Number Publication Date
JPWO2016142965A1 true JPWO2016142965A1 (ja) 2017-12-21

Family

ID=56878665

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017504298A Pending JPWO2016142965A1 (ja) 2015-03-10 2015-03-10 映像処理装置、映像処理方法及び映像処理プログラムを記憶する記録媒体

Country Status (2)

Country Link
JP (1) JPWO2016142965A1 (ja)
WO (1) WO2016142965A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6777150B2 (ja) 2016-08-02 2020-10-28 日本電気株式会社 劣化検出装置、劣化検出方法、及びプログラム
WO2019163556A1 (ja) * 2018-02-22 2019-08-29 パナソニックIpマネジメント株式会社 検査装置及び検査方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005321902A (ja) * 2004-05-07 2005-11-17 Sony Corp 画像処理装置および方法、記録媒体、並びにプログラム
JP2010517416A (ja) * 2007-01-26 2010-05-20 テレフオンアクチーボラゲット エル エム エリクソン(パブル) 発見フレーム領域についての動き推定
JP2010141813A (ja) * 2008-12-15 2010-06-24 Canon Inc 映像処理装置および映像処理装置の制御方法
JP2013038747A (ja) * 2011-08-11 2013-02-21 Jvc Kenwood Corp 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム
JP2014116919A (ja) * 2012-11-14 2014-06-26 Nippon Telegr & Teleph Corp <Ntt> 映像再生装置、映像再生方法、および映像再生用プログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3988758B2 (ja) * 2004-08-04 2007-10-10 日産自動車株式会社 移動体検出装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005321902A (ja) * 2004-05-07 2005-11-17 Sony Corp 画像処理装置および方法、記録媒体、並びにプログラム
US20050265453A1 (en) * 2004-05-07 2005-12-01 Yasushi Saito Image processing apparatus and method, recording medium, and program
JP2010517416A (ja) * 2007-01-26 2010-05-20 テレフオンアクチーボラゲット エル エム エリクソン(パブル) 発見フレーム領域についての動き推定
JP2010141813A (ja) * 2008-12-15 2010-06-24 Canon Inc 映像処理装置および映像処理装置の制御方法
JP2013038747A (ja) * 2011-08-11 2013-02-21 Jvc Kenwood Corp 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム
JP2014116919A (ja) * 2012-11-14 2014-06-26 Nippon Telegr & Teleph Corp <Ntt> 映像再生装置、映像再生方法、および映像再生用プログラム

Also Published As

Publication number Publication date
WO2016142965A1 (ja) 2016-09-15

Similar Documents

Publication Publication Date Title
JP5272886B2 (ja) 動体検出装置と動体検出方法およびコンピュータ・プログラム
JP3944647B2 (ja) 物体計測装置、物体計測方法、およびプログラム
US9652861B2 (en) Estimating device and estimation method
US9436981B2 (en) Dictionary creation device, image processing device, image processing system, dictionary creation method, image processing method, and program
EP2591460A1 (en) Method, apparatus and computer program product for providing object tracking using template switching and feature adaptation
JP6024658B2 (ja) 物体検出装置、物体検出方法及びプログラム
US20150146006A1 (en) Display control apparatus and display control method
US10249058B2 (en) Three-dimensional information restoration device, three-dimensional information restoration system, and three-dimensional information restoration method
EP2352128A1 (en) Mobile body detection method and mobile body detection apparatus
US11138711B2 (en) Degradation detection device, degradation detection method, and computer-readable recording medium
KR20120044484A (ko) 이미지 처리 시스템에서 물체 추적 장치 및 방법
JP2012234466A (ja) 状態追跡装置、方法、及びプログラム
JP2017130042A (ja) 映像処理装置、映像処理方法、及びプログラム
WO2016142965A1 (ja) 映像処理装置、映像処理方法及び映像処理プログラムを記憶する記録媒体
JP2010257267A (ja) 物体領域検出装置、物体領域検出方法および物体領域検出プログラム
CN106922194B (zh) 异常检测装置以及异常检测方法
JP2012185655A (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP6388507B2 (ja) 画像処理装置
JP2006215655A (ja) 動きベクトル検出方法、動きベクトル検出装置、動きベクトル検出プログラム及びプログラム記録媒体
JP2006215657A (ja) 動きベクトル検出方法、動きベクトル検出装置、動きベクトル検出プログラム及びプログラム記録媒体
JP6098320B2 (ja) 画像処理装置、画像処理方法、および画像処理プログラム
JP2018059767A (ja) 画像処理装置、画像処理方法およびプログラム
JP2009266169A (ja) 情報処理装置及び方法、並びにプログラム
JP2007156954A (ja) 信頼度テーブル作成方法、オプティカルフロー推定方法、信頼度テーブル作成装置、オプティカルフロー推定装置、及びプログラム
JP2010039968A (ja) オブジェクト検出装置及び検出方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170907

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170907

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190129