JP2004334818A - 動画像切り出し装置および方法並びにプログラム - Google Patents

動画像切り出し装置および方法並びにプログラム Download PDF

Info

Publication number
JP2004334818A
JP2004334818A JP2003165026A JP2003165026A JP2004334818A JP 2004334818 A JP2004334818 A JP 2004334818A JP 2003165026 A JP2003165026 A JP 2003165026A JP 2003165026 A JP2003165026 A JP 2003165026A JP 2004334818 A JP2004334818 A JP 2004334818A
Authority
JP
Japan
Prior art keywords
frames
frame
mask
moving object
mask frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003165026A
Other languages
English (en)
Other versions
JP4307910B2 (ja
Inventor
Sukekazu Kameyama
祐和 亀山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP2003165026A priority Critical patent/JP4307910B2/ja
Priority to US10/794,299 priority patent/US7463788B2/en
Publication of JP2004334818A publication Critical patent/JP2004334818A/ja
Priority to US12/273,248 priority patent/US7751649B2/en
Application granted granted Critical
Publication of JP4307910B2 publication Critical patent/JP4307910B2/ja
Priority to US12/782,295 priority patent/US8050457B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Studio Circuits (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】背景を含む動画像であっても、動体の移動軌跡を含む合成画像を得ることができるようにする。
【解決手段】サンプリング手段1が動画像データD0からフレームFr1〜Fr4をサンプリングし、第1のマスクフレーム算出手段2がフレームFr1〜Fr4の動体の位置に対応するマスク領域を含むマスクフレームM1〜M3を算出する。第2のマスクフレーム算出手段3が、マスクフレームM1〜M3を累積し、さらに二値化処理して基準マスクフレームFrc1を算出する。領域切り出し手段4が、フレームFr1〜Fr4をマスクフレームM1〜M3および基準マスクフレームFrc1によりマスク処理して、各フレームFr1〜Fr4から動体X0に対応する動体領域A1〜A4を切り出す。合成手段5が動体領域A1〜A4をフレームFr1上に時系列順に上書きして動体の移動軌跡を含む合成画像G0を得る。
【選択図】 図1

Description

【0001】
【発明の属する技術分野】
本発明は、動画像からサンプリングされた複数のフレームのそれぞれに含まれる動体を、1つのフレーム上に合成して、動体の移動軌跡を含む合成画像を得る動画像切り出し装置および方法並びに動画像切り出し方法をコンピュータに実行させるためのプログラムに関するものである。
【0002】
【従来の技術】
近年、デジタルビデオカメラの普及により、動画像を1フレーム単位で扱うことが可能となってきており、さらに、撮像した動画像をパソコンに取り込んで、編集や加工を自由に行うことができるようになっている。また、1枚の静止画像中に移動する物体すなわち動体の移動軌跡が現れるように、動画像からサンプリングされたフレームを加工することも提案されている(特許文献1参照)。
【0003】
特許文献1に記載された方法は、基準となる信号(基準信号)と複数の入力信号との差分信号をそれぞれ算出し、算出された差分信号を時系列順に基準信号に加算することにより合成信号を生成するものである。このような合成信号を得る際に、動体が重なり合うと信号値のレベルが映像信号のレベルの上限値を超えてしまうことを防止するために、差信号の信号値を1/2にした後に基準信号に加算するようにしている。
【0004】
【特許文献1】
特開平5−316418号公報
【0005】
【発明が解決しようとする課題】
しかしながら、上記特許文献1に記載された方法では、合成に用いられる信号は背景のない動体のみを含む信号であるため、日常的な撮影により得られる背景および動体の双方を含む複数のフレームに上記特許文献1に記載された方法を適用した場合、動体のみをフレームから抽出することができず、その結果、動体の移動軌跡を含む合成信号を得ることができないという問題がある。また、上記特許文献1に記載された方法は、差信号の信号値を1/2にした後に基準信号に加算しているため、合成信号を再生することにより得られる合成画像における動体の領域が背景と重なってしまい、動体のコントラストが低下してしまうという問題がある。
【0006】
本発明は上記事情に鑑みなされたものであり、背景を含む動画像であっても、動体の移動軌跡を含む合成画像を得ることができるようにすることを目的とする。
【0007】
【課題を解決するための手段】
本発明による動画像切り出し装置は、動体を含む動画像から連続する複数のフレームをサンプリングするサンプリング手段と、
該複数のフレームのそれぞれにおける前記動体の位置を特定するマスク領域を含むマスクフレームを前記複数のフレームのそれぞれに対応付けて算出するマスクフレーム算出手段と、
前記複数のフレームの全部または一部を対応するマスクフレームによりマスク処理して、該複数のフレームの全部または一部から前記動体に対応する動体領域を切り出す領域切り出し手段とを備えたことを特徴とするものである。
【0008】
なお、本発明による動画像切り出し装置においては、前記マスクフレーム算出手段を、前記複数のフレームのうち基準となる1つの基準フレームと該基準フレーム以外の他のフレームのそれぞれとの相対応する画素間における差分値の絶対値を算出し、該絶対値を第1のしきい値に基づいて二値化処理して前記他のフレームのそれぞれにおける前記動体の位置を特定するマスク領域を含む他のマスクフレームを前記他のフレームのそれぞれに対応付けて算出する手段とし、
前記領域切り出し手段を、前記他のフレームのそれぞれを対応する他のマスクフレームによりマスク処理して、該他のフレームのそれぞれから前記動体に対応する動体領域を切り出す手段としてもよい。
【0009】
この場合、前記マスクフレーム算出手段を、前記差分値の絶対値に対してノイズを除去するフィルタリング処理を施し、該フィルタリング処理が施された前記絶対値を前記二値化処理する手段としてもよい。
【0010】
またこの場合、前記複数のフレームのそれぞれについて画素値のレベルを表す前記画素値の代表値を算出し、該代表値に基づいて前記第1のしきい値を前記差分値の絶対値毎に補正するしきい値補正手段をさらに備えるものとし、
前記マスクフレーム算出手段を、前記差分値の絶対値毎に補正された前記第1のしきい値に基づいて前記二値化処理を行う手段としてもよい。
【0011】
また、本発明による動画像切り出し装置においては、前記マスクフレーム算出手段を、前記複数のフレームのうち基準となる1つの基準フレームと該基準フレーム以外の他のフレームのそれぞれとの相対応する画素間における差分値の絶対値を算出し、該絶対値を第1のしきい値に基づいて二値化処理して前記他のフレームのそれぞれにおける前記動体の位置を特定するマスク領域を含む他のマスクフレームを前記他のフレームのそれぞれに対応付けて算出する第1のマスクフレーム算出手段と、
前記複数の他のマスクフレームの情報に基づいて、前記基準フレームにおける前記動体の位置を特定するマスク領域を含む基準マスクフレームを算出する第2のマスクフレーム算出手段とを備えるものとし、
前記領域切り出し手段を、前記基準フレームを前記基準マスクフレームによりマスク処理して、該基準フレームから前記動体に対応する動体領域を切り出す手段としてもよい。
【0012】
また、本発明による動画像切り出し装置においては、前記マスクフレーム算出手段を、前記複数のフレームのうち基準となる1つの基準フレームと該基準フレーム以外の他のフレームのそれぞれとの相対応する画素間における差分値の絶対値を算出し、該絶対値を第1のしきい値に基づいて二値化処理して前記他のフレームのそれぞれにおける前記動体の位置を特定するマスク領域を含む他のマスクフレームを前記他のフレームのそれぞれに対応付けて算出する第1のマスクフレーム算出手段と、
前記複数の他のマスクフレームの情報に基づいて、前記基準フレームにおける前記動体の位置を特定するマスク領域を含む基準マスクフレームを算出する第2のマスクフレーム算出手段とを備えるものとし、
前記領域切り出し手段を、前記他のフレームのそれぞれを対応する他のマスクフレームによりマスク処理するとともに、前記基準フレームを前記基準マスクフレームによりマスク処理して、該複数のフレームのそれぞれから前記動体に対応する動体領域を切り出す手段としてもよい。
【0013】
この場合、前記第1のマスクフレーム算出手段を、前記差分値の絶対値に対してノイズを除去するフィルタリング処理を施し、該フィルタリング処理が施された前記絶対値を前記二値化処理する手段としてもよい。
【0014】
「フィルタリング処理」に用いられるフィルタとしては、ノイズを除去するフィルタであれば、ローパスフィルタ、メディアンフィルタ、最大値フィルタまたは最小値フィルタ等、種々のフィルタを用いることができる。
【0015】
またこの場合、前記複数のフレームのそれぞれについて画素値のレベルを表す前記画素値の代表値を算出し、該代表値に基づいて前記第1のしきい値を前記差分値の絶対値毎に補正するしきい値補正手段をさらに備えるものとし、
前記第1のマスクフレーム算出手段を、前記差分値の絶対値毎に補正された前記第1のしきい値に基づいて前記二値化処理を行う手段としてもよい。
【0016】
また、第2のマスクフレーム算出手段を備えた場合、前記第2のマスクフレーム算出手段を、前記複数の他のマスクフレームから選択された選択マスクフレームの相対応する画素同士を累積または加重累積し、該累積された選択マスクフレームを第2のしきい値によりさらに二値化処理して、前記基準マスクフレームを算出する手段としてもよい。
【0017】
また、動体の移動速度が遅く、他のマスクフレームおよび基準マスクフレームにおいてマスク領域が非常に小さくなる場合には、動体領域を切り出すことができない場合がある。このため、本発明による動画像切り出し装置においては、第2のマスクフレーム算出手段を備えた場合、前記他のマスクフレームのそれぞれにおける前記マスク領域のサイズを第3のしきい値と比較し、該マスク領域のサイズが前記第3のしきい値を越えた他のマスクフレームを前記選択マスクフレームとして選択する選択手段をさらに備えるものとしてもよい。
【0018】
また、前記第2のマスクフレーム算出手段を、前記累積された選択マスクフレームに対してノイズを除去するフィルタリング処理を施し、該フィルタリング処理が施された前記累積された選択マスクフレームを前記二値化処理する手段としてもよい。
【0019】
「フィルタリング処理」に用いられるフィルタとしては、ノイズを除去するフィルタであれば、ローパスフィルタ、メディアンフィルタ、最大値フィルタまたは最小値フィルタ等、種々のフィルタを用いることができる。
【0020】
なお、サンプリング手段がサンプリングしたフレームが2つのみである場合や、動体の移動速度が遅く、累積された選択マスクフレームにおいて動体同士が重なる領域が多い場合等には、マスクフレームおよび基準マスクフレームによっても動体領域を切り出すことができない場合がある。
【0021】
このため、本発明による動画像切り出し装置においては、第2のマスクフレーム算出手段を備えた場合、前記第2のマスクフレーム算出手段を、前記基準マスクフレームのマスク領域に対応する前記基準フレーム上の領域の色情報を算出し、該色情報に近似する色情報を有する領域に対応する前記累積された選択マスクフレーム上の領域を重み付けし、該重み付けされた累積された選択マスクフレームを前記第2のしきい値により二値化処理して、前記基準マスクフレームを再算出する手段としてもよい。
【0022】
また、本発明による動画像切り出し装置においては、前記複数の他のフレームを重ねた場合において、前記基準フレームにおける前記動体に対応する領域と重ならない前記動体に対応する領域を有する前記他のフレームの数を表す第1のフレーム数、前記基準フレームにおける前記動体に対応する領域と重なる前記動体に対応する領域を有する前記他のフレームの数を表す第2のフレーム数、および前記動体に対応する領域同士が重なる前記他のフレームの数を表す第3のフレーム数の入力を受け付ける入力手段と、
該入力された第1のフレーム数、第2のフレーム数および第3のフレーム数の間に、第1のフレーム数>第2のフレーム数>第3のフレーム数の関係があるか否かを判定し、該関係がある場合にのみ前記領域切り出し手段に前記動体領域の切り出しを実行させる判定手段とをさらに備えるものであってもよい。
【0023】
また、本発明による動画像切り出し装置においては、前記複数のフレームにおける前記動体領域以外の背景領域の位置合せを行う位置合せ手段をさらに備え、
前記マスクフレーム算出手段を、前記位置合せ後の前記複数のフレームから前記マスクフレームを算出する手段としてもよい。
【0024】
また、本発明による動画像切り出し装置においては、前記複数のフレームのそれぞれについて画素値のレベルを表す前記画素値の平均値、メディアン値、ヒストグラムの最大頻度値等の代表値を算出し、該代表値が略一致するように前記複数のフレームの画素値を補正するフレーム補正手段をさらに備え、
前記マスクフレーム算出手段を、前記補正後の前記複数のフレームから前記マスクフレームを算出する手段としてもよい。
【0025】
また、本発明による動画像切り出し装置においては、前記領域切り出し手段が前記複数のフレームのそれぞれから切り出した動体領域を、前記複数のフレームのうちの一のフレームにおける該動体領域のそれぞれが対応する位置に時系列順に上書きすることにより、前記複数のフレームの合成画像を得る合成手段をさらに備えるものとしてもよい。
【0026】
本発明による動画像切り出し方法は、動体を含む動画像から連続する複数のフレームをサンプリングし、
該複数のフレームのそれぞれにおける前記動体の位置を特定するマスク領域を含むマスクフレームを前記複数のフレームのそれぞれに対応付けて算出し、
前記複数のフレームの全部または一部を対応するマスクフレームによりマスク処理して、該複数のフレームの全部または一部から前記動体に対応する動体領域を切り出すことを特徴とするものである。
【0027】
なお、本発明による動画像切り出し方法をコンピュータに実行させるためのプログラムとして提供してもよい。
【0028】
【発明の効果】
本発明によれば、サンプリング手段が動画像から連続する複数のフレームをサンプリングし、マスクフレーム算出手段が、複数のフレームのそれぞれにおける動体の位置を特定するマスク領域を含むマスクフレームを、複数のフレームのそれぞれに対応付けて算出する。ここで、マスク領域は各フレームにおける動体領域に対応するものとなる。そして、領域切り出し手段が、複数のフレームの全部または一部を対応するマスクフレームによりマスク処理して、複数のフレームの全部または一部から動体に対応する動体領域を切り出す。
【0029】
これにより、動画像が背景および動体の双方を含んでいても、各フレームから適切に動体領域を切り出すことができる。したがって、切り出した動体領域を用いて、動体の移動軌跡を含む合成画像を容易に得ることができる。
【0030】
また、マスクフレーム算出手段は複数のフレームのマスク領域を含むマスクフレームの算出、領域切り出し手段はマスク処理という比較的単純な処理を行っているため、フレームから簡易に動体領域を切り出すことができる。
【0031】
なお、本発明による動画像切り出し装置を、請求項2のように、マスクフレーム算出手段が、複数のフレームのうち基準となる1つの基準フレームとこの基準フレーム以外の他のフレームのそれぞれとの相対応する画素間における差分値の絶対値を算出し、絶対値を第1のしきい値に基づいて二値化処理して他のフレームのそれぞれにおける動体の位置を特定するマスク領域を含む他のマスクフレームを、他のフレームのそれぞれに対応付けて算出し、領域切り出し手段が、他のフレームのそれぞれを対応する他のマスクフレームによりマスク処理して、他のフレームのそれぞれから動体に対応する動体領域を切り出すものとしてもよい。
【0032】
これにより、動画像が背景および動体の双方を含んでいても、他のフレームから適切に動体領域を切り出すことができる。したがって、切り出した動体領域を用いて、動体の移動軌跡を含む合成画像を容易に得ることができる。
【0033】
また、マスクフレーム算出手段は差分値の絶対値の算出および二値化処理、領域切り出し手段はマスク処理という比較的単純な処理を行っているため、他のフレームから簡易に動体領域を切り出すことができる。
【0034】
なお、請求項3の動画像切り出し装置によれば、マスクフレーム算出手段は、差分値の絶対値に対してノイズを除去するフィルタリング処理を施し、フィルタリング処理が施された絶対値を二値化処理する。ここで、絶対値が比較的大きい値となる領域は、本来であれば基準フレームおよび他のフレームに含まれる動体に対応する領域であるが、各フレームには撮影時のノイズや、動体の動きに起因するノイズが含まれるため、絶対値が比較的大きくなる領域に絶対値が小さくなる小領域が含まれる場合がある。逆に絶対値が小さくなる領域に絶対値が比較的大きくなる小領域が含まれる場合もある。このため、差分値の絶対値に対してノイズを除去するフィルタリング処理を施すことにより、このような小領域に起因するノイズを絶対値から除去することができる。したがって、ノイズの影響を低減して精度よく他のマスクフレームを算出することができる。
【0035】
また、本発明による動画像切り出し装置を、請求項5のように、第1のマスクフレーム算出手段が、複数のフレームのうち基準となる1つの基準フレームとこの基準フレーム以外の他のフレームのそれぞれとの相対応する画素間における差分値の絶対値を算出し、絶対値を第1のしきい値に基づいて二値化処理して他のフレームのそれぞれにおける動体の位置を特定するマスク領域を含む他のマスクフレームを、他のフレームのそれぞれに対応付けて算出し、第2のマスクフレーム算出手段が、複数の他のマスクフレームの情報に基づいて基準マスクフレームを算出し、領域切り出し手段が、基準フレームを基準フレームによりマスク処理して、基準フレームから動体に対応する動体領域を切り出すものとしてもよい。
【0036】
これにより、動画像が背景および動体の双方を含んでいても、基準フレームから適切に動体領域を切り出すことができる。したがって、切り出した動体領域を用いて、動体の移動軌跡を含む合成画像を容易に得ることができる。
【0037】
また、第1のマスクフレーム算出手段は差分値の絶対値の算出および二値化処理、第2のマスクフレーム算出手段は累積および二値化処理、領域切り出し手段はマスク処理という比較的単純な処理を行っているため、基準フレームから簡易に動体領域を切り出すことができる。
【0038】
また、本発明による動画像切り出し装置を、請求項6のように、マスクフレーム算出手段を、複数のフレームのうち基準となる1つの基準フレームとこの基準フレーム以外の他のフレームのそれぞれとの相対応する画素間における差分値の絶対値を算出し、この絶対値を第1のしきい値に基づいて二値化処理して他のフレームのそれぞれにおける動体の位置を特定するマスク領域を含む他のマスクフレームを、他のフレームのそれぞれに対応付けて算出する第1のマスクフレーム算出手段、および複数のマスクフレームの情報に基づいて、基準フレームにおける動体の位置を特定するマスク領域を含む基準マスクフレームを算出する第2のマスクフレーム算出手段を備えるものとすることにより、差分値の絶対値の算出および二値化処理という簡易な処理により他のマスクフレームを算出することができる。
【0039】
なお、請求項7の動画像切り出し装置によれば、第1のマスクフレーム算出手段は、差分値の絶対値に対してノイズを除去するフィルタリング処理を施し、フィルタリング処理が施された絶対値を二値化処理する。ここで、絶対値が比較的大きい値となる領域は、本来であれば基準フレームおよび他のフレームに含まれる動体に対応する領域であるが、各フレームには撮影時のノイズや、動体の動きに起因するノイズが含まれるため、絶対値が比較的大きくなる領域に絶対値が小さくなる小領域が含まれる場合がある。逆に絶対値が小さくなる領域に絶対値が比較的大きくなる小領域が含まれる場合もある。このため、差分値の絶対値に対してノイズを除去するフィルタリング処理を施すことにより、このような小領域に起因するノイズを絶対値から除去することができる。したがって、ノイズの影響を低減して精度よく他のマスクフレームを算出することができる。
【0040】
また、請求項4,8の動画像切り出し装置によれば、しきい値補正手段が、複数のフレームのそれぞれについて画素値のレベルを表す画素値の代表値を算出し、代表値に基づいて差分値の絶対値毎に第1のしきい値を補正する。そして、マスクフレーム算出手段または第1のマスクフレーム算出手段は、差分値の絶対値毎に補正された第1のしきい値に基づいて二値化処理を行う。ここで、動画像を撮影するビデオカメラの明るさ調整機能がうまく作用しなかったり、晴天時における屋外での撮影中に突然曇ってきた場合には、サンプリングされたフレーム間において全体の明るさが異なるものとなる。したがって、マスクフレーム算出手段または第1のマスクフレーム算出手段がこのようなフレームを用いて基準フレームと他のフレームのそれぞれとの相対応する画素間において差分値の絶対値を算出すると、動体に対応しない背景領域においても絶対値が比較的大きな値を有することとなるため、二値化処理により動体にのみ対応するマスク領域を有するマスクフレームを適切に算出することができない。
【0041】
このため、請求項4,8の動画像切り出し装置のように、差分値の絶対値毎に第1のしきい値を補正して二値化処理を行うことにより、絶対値が比較的大きな値を有していても、動体にのみ対応するマスク領域を有するマスクフレームを適切に算出することができる。
【0042】
また、第2のマスクフレーム算出手段を備えた場合、第2のマスクフレーム算出手段を、複数の他のマスクフレームから選択された選択マスクフレームの相対応する画素同士を累積し、累積された選択マスクフレームを第2のしきい値によりさらに二値化処理して基準マスクフレームを算出する手段とすることにより、累積および二値化処理という簡易な処理により基準マスクフレームを算出することができる。
【0043】
また、動体の動きが遅く、他のマスクフレームのそれぞれにおけるマスク領域があまりに小さいと、基準マスクフレームにおけるマスク領域がフレームに含まれる動体領域に対応しなくなる場合がある。このため、請求項10の動画像切り出し装置のように、選択手段が他のマスクフレームのそれぞれにおけるマスク領域のサイズを第3のしきい値と比較し、マスク領域のサイズが第3のしきい値を越えた他のマスクフレームを選択マスクフレームとして選択することにより、動体領域に対応するマスク領域を含む基準マスクフレームを算出することができる。
【0044】
また、請求項11の動画像切り出し装置によれば、第2のマスクフレーム算出手段は、累積された選択マスクフレームに対してノイズを除去するフィルタリング処理を施し、フィルタリング処理が施された選択マスクフレームを二値化処理する。ここで、累積された選択マスクフレームの値が比較的大きい値となる領域は、本来であれば基準フレームおよび他のフレームに含まれる動体に対応する領域であるが、各フレームには撮影時のノイズや、動体の動きに起因するノイズが含まれるため、累積された選択マスクフレームの値が比較的大きくなる領域に累積された選択マスクフレームの値が小さくなる小領域が含まれる場合がある。逆に累積された選択マスクフレームの値が小さくなる領域に累積された選択マスクフレームの値が比較的大きくなる小領域が含まれる場合もある。このため、累積された選択マスクフレームに対してノイズを除去するフィルタリング処理を施すことにより、このような小領域に起因するノイズを累積された選択マスクフレームから除去することができる。したがって、ノイズの影響を低減して精度よく基準マスクフレームを算出することができる。
【0045】
また、請求項12のように基準マスクフレームのマスク領域に対応する基準フレーム上の領域の色情報を算出し、この色情報に近似する色情報を有する領域に対応する、累積された選択マスクフレーム上の領域を重み付けし、重み付けされた累積された選択マスクフレームを第2のしきい値により二値化処理して基準マスクフレームを再算出することにより、基準フレームから動体に対応する動体領域を確実に切り出すことができる。
【0046】
なお、複数のフレームを重ねた場合において、基準フレームにおける動体に対応する領域と重ならない動体に対応する領域を有する他のフレームの数を第1のフレーム数、基準フレームにおける動体に対応する領域と重なる動体に対応する領域を有する他のフレームの数を第2のフレーム数、および動体に対応する領域同士が重なる他のフレームの数を第3のフレーム数とした場合において、第1のフレーム数>第2のフレーム数>第3のフレーム数の関係を満たす場合にのみ、全てのフレームから動体領域を切り出すことができる。したがって、請求項13の動画像切り出し装置のように、入力手段が第1から第3のフレーム数の入力を受け付け、判定手段が第1のフレーム数>第2のフレーム数>第3のフレーム数の関係があるか否かを判定し、その関係がある場合にのみ領域切り出し手段に動体領域の切り出しを実行させるようにすれば、各フレームから確実に動体に対応する動体領域を切り出すことができる。
【0047】
また、請求項14の動画像切り出し装置によれば、位置合せ手段が複数のフレームにおける背景領域の位置合せを行い、マスクフレーム算出手段を位置合せ後の複数のフレームからマスクフレームを算出する手段とすることにより、撮影時における手ぶれ等に起因する背景領域の動きの影響をフレームから除去することができる。したがって、背景領域の動きの影響を無くして、各フレームから正確に動体領域を切り出すことができる。
【0048】
また、請求項15の動画像切り出し装置によれば、フレーム補正手段が、複数のフレームのそれぞれについて画素値のレベルを表す画素値の代表値を算出し、代表値が略一致するように複数のフレームの画素値を補正する。そして、マスクフレーム算出手段は、補正後のフレームからマスクフレームを算出する。ここで、動画像を撮影するビデオカメラの明るさ調整機能がうまく作用しなかったり、晴天時における屋外での撮影中に突然曇ってきた場合には、サンプリングされたフレーム間において全体の明るさが異なるものとなる。したがって、マスクフレーム算出手段がこのようなフレームを用いて基準フレームと他のフレームのそれぞれとの相対応する画素間において差分値の絶対値を算出すると、動体に対応しない背景領域においても絶対値が比較的大きな値を有することとなるため、動体にのみ対応するマスク領域を有するマスクフレームを適切に算出することができない。
【0049】
このため、請求項15の動画像切り出し装置のように、複数のフレームの画素値を補正することにより、各フレームにおける全体の明るさを略同一とすることができるため、動体に対応しない背景領域においては絶対値がそれほど大きな値を有することがなくなり、これにより、動体にのみ対応するマスク領域を有するマスクフレームを適切に算出することができる。
【0050】
また、請求項16の動画像切り出し装置によれば、合成手段が、領域切り出し手段により切り出された複数のフレームの全部または一部に対応する動体領域を、複数のフレームのうちの一のフレームにおける動体領域のそれぞれが対応する位置に時系列順に上書きする。このため、動体と背景とのコントラストを低減させることなく、動体の移動軌跡を含む合成画像を得ることができる。
【0051】
【発明の実施の形態】
以下図面を参照して本発明の実施形態について説明する。図1は本発明の第1の実施形態による動画像切り出し装置を備えた動画像合成装置の構成を示す概略ブロック図である。図1に示すように、本発明の第1の実施形態による動画像合成装置は、サンプリング手段1と、第1のマスクフレーム算出手段2と、第2のマスクフレーム算出手段3と、領域切り出し手段4と、合成手段5とを備える。
【0052】
サンプリング手段1は、入力された動画像データD0から複数のフレームFri(i=1〜N)をサンプリングする。第1の実施形態においては、円形の動体X0が移動している動画像を表す動画像データD0から、図2に示すように4つのフレームFr1〜Fr4をサンプリングするものとする。なお、フレームFriは時間が経過するほどiの値が大きくなるものとする。
【0053】
第1のマスクフレーム算出手段2は、差分手段2Aと二値化手段2Bとを備える。
【0054】
差分手段2Aは、下記の式(1)により、複数のフレームFr1〜Fr4のうち、基準となる1つの基準フレーム(第1の実施形態においては、フレームFr4)と基準フレームFr4以外の他のフレームFr1〜Fr3との相対応する画素間における差分値の絶対値|di(x,y)|(i=1〜3)を算出する。
|di(x,y)|=|Fri(x,y)−Fr4(x,y)| (1)
但し、(x,y)はフレームFriとFr4との相対応する画素の座標位置
【0055】
なお、動画像データD0ひいてはフレームFr1〜Fr4は、RGBの色データまたはYCC輝度色差データからなる。このため、RGBまたはYCCの各成分について基準フレームFr4と他のフレームFr1〜Fr3との差分値の絶対値を算出し、各成分に対して重み付けを行った後に各成分のユークリッド距離を求め、これを差分値の絶対値として用いてもよい。例えば、フレームFr1〜Fr4がYCC輝度色差データからなり、輝度Y、色差Cb,Crについて算出された差分値の絶対値をそれぞれYd、Cbd、Crdとした場合、下記の式(2)により各画素位置における差分値の絶対値|di(x,y)|を算出すればよい。
Figure 2004334818
【0056】
二値化手段2Bは、差分値の絶対値|di(x,y)|をしきい値Th1に基づいて二値化処理する。すなわち、差分値の絶対値|di(x,y)|がしきい値Th1より大きい画素については1を、しきい値Th1以下の画素については0の値を付与して、値が1となる画素をマスク領域とする他のフレームFr1〜Fr3のそれぞれに対応するマスクフレームM1〜M3を算出する。このようにして算出されたマスクフレームM1〜M3を図3に示す。なお、図3においては、斜線部分がマスク領域を表す。すなわち、マスクフレームM1はマスク領域R1A,R1Bを有し、マスクフレームM2はマスク領域R2A,R2Bを有し、マスクフレームM3はマスク領域R3A,R3Bを有する。ここで、マスクフレームM1〜M3において、マスク領域R1A,R2A,R3Aは、各フレームFr1〜Fr3における動体X0の領域に対応し、マスク領域R1B,R2B,R3Bは、基準フレームFr4における動体X0の領域に対応する。
【0057】
第2のマスクフレーム算出手段3は、累積手段3Aと二値化手段3Bとを備える。
【0058】
累積手段3Aは、下記の式(3)により、マスクフレームM1〜M3の全てについて相対応する画素同士を累積して累積フレームFrcを算出する。なお、第1の実施形態においては、マスクフレームM1〜M3の全てが後述する基準マスクフレームFrc1の算出のために選択されるものとする。
Frc(x,y)=ΣMi(x,y)(i=1〜3)
【0059】
なお、マスクフレームM1〜M3を加重累積して基準マスクフレームFrc1を算出してもよい。
【0060】
図4は累積フレームFrcを示す図である。図4に示すように、累積フレームFrcにおいては、マスクフレームM1のマスク領域R1Aにのみ対応する領域は1、マスクフレームM2のマスク領域R2Aにのみ対応する領域は1、マスクフレームM3のマスク領域R3Aにのみ対応する領域は1、マスクフレームM1のマスク領域R1BおよびマスクフレームM2のマスク領域R2Bに対応する領域(すなわち、マスクフレームM3においてマスク領域R3AとR3Bとが重なって値が0となっている領域)は2、マスクフレームM1のマスク領域R1B、マスクフレームM2のマスク領域R2BおよびマスクフレームM3のマスク領域R3Bに対応する領域は3の値を有するものとなる。
【0061】
二値化手段3Bは、累積フレームFrcをしきい値Th2に基づいて二値化処理する。ここで、しきい値Th2としては例えば1(総フレーム数−k、k=3とした場合)の値を使用し、累積フレームFrcにおいて画素値がしきい値Th2より大きい画素値については1を、しきい値Th1以下の画素については0の値を付与して、値が1となる画素をマスク領域とする基準マスクフレームFrc1を算出する。このようにして算出された基準マスクフレームFrc1を図5に示す。なお、図5においては、斜線部分の領域R4Aがマスク領域を表す。なお、基準マスクフレームFrc1におけるマスク領域は、基準フレームFr4における動体X0の領域に対応する。
【0062】
領域切り出し手段4は、フレームFr1〜Fr3のそれぞれを対応するマスクフレームM1〜M3によりマスク処理するとともに、基準フレームFr4を基準マスクフレームFrc1によりマスク処理して、複数のフレームFr1〜Fr4のそれぞれから動体X0に対応する動体領域を切り出す。すなわち、フレームFr1については、マスクフレームM1における画素値が1となるマスク領域R1A,R1Bに対応する領域を動体領域A1A,A1B(以下A1で代表させることもある)として切り出す。フレームFr2については、マスクフレームM2における値が1となるマスク領域R2A,R2Bに対応する領域を動体領域A2A,A2B(以下A2で代表させることもある)として切り出す。フレームFr3については、マスクフレームM3における値が1となるマスク領域R3A,R3Bに対応する領域を動体領域A3A,A3B(以下A3で代表させることもある)として切り出す。
【0063】
なお、動体領域A1B,A2B,A3Bは、フレームFr1〜Fr3においては、動体X0の領域ではなく背景の領域に対応する。このため、切り出された動体領域A1B,A2B,A3Bは、略同一の画像を表すものとなる。
【0064】
一方、基準フレームFr4については、基準マスクフレームFrc1における値が1となるマスク領域R4Aに対応する領域を動体領域A4A(以下A4で代表させることもある)として切り出す。
【0065】
合成手段5は、動体領域A1〜A4を、フレームFr1〜Fr4のうちの一のフレーム(ここではFr1とする)における動体領域A1〜A4のそれぞれが対応する位置に時系列順に上書きして、複数のフレームFr1〜Fr4の合成画像G0を得る。
【0066】
次いで、第1の実施形態において行われる処理について説明する。図6は、第1の実施形態において行われる処理を示すフローチャート、図7は第1の実施形態において行われる処理をフレームを用いて説明した図である。まず、サンプリング手段1が動画像データD0から4つのフレームFr1〜Fr4をサンプリングする(ステップS1)。次いで、第1のマスクフレーム算出手段2の差分手段2が複数のフレームFr1〜Fr4のうち、基準フレームFr4と基準フレームFr4以外の他のフレームFr1〜Fr3との相対応する画素間における差分値の絶対値|di(x,y)|を算出する(ステップS2)。そして、二値化手段2Bが差分値の絶対値をしきい値Th1に基づいて二値化処理してマスクフレームM1〜M3を算出する(ステップS3)。
【0067】
次いで、第2のマスクフレーム算出手段3の累積手段3Aが、マスクフレームM1〜M3の全てについて相対応する画素同士を累積して累積フレームFrcを算出する(ステップS4)。そして、二値化手段3Bが累積フレームFrcをしきい値Th2に基づいて二値化処理して基準マスクフレームFrc1を算出する(ステップS5)。
【0068】
続いて、領域切り出し手段4が、フレームFr1〜Fr3のそれぞれを対応するマスクフレームM1〜M3によりマスク処理するとともに、基準フレームFr4を基準マスクフレームFrc1によりマスク処理して、複数のフレームFr1〜Fr4のそれぞれから動体X0に対応する動体領域A1〜A4を切り出す(ステップS6)。
【0069】
そして、合成手段5が、動体領域A1〜A4を、フレームFr1〜Fr4のうちの一のフレームFr1における動体領域A1〜A4のそれぞれが対応する位置に、時系列順に上書きして複数のフレームFr1〜Fr4の合成画像G0を得(ステップS7)、処理を終了する。
【0070】
具体的には、図7の最下段に示すように、フレームFr1にフレームFr1から切り出した動体領域A1A,A1Bを上書きして第1の合成画像GFr1を得る。なお、第1の実施形態においては、フレームFr1に動体領域A1〜A4を上書きするため、フレームFr1に対する動体領域A1A,A1Bの上書きは省略することができる。なお、フレームFr1においては動体領域A1Aが動体X0の領域に対応し、動体領域A1BがフレームFr4における動体X0の領域に対応する。
【0071】
次いで、第1の合成画像GFr1に、フレームFr2から切り出した動体領域A2A,A2Bを上書きして第2の合成画像GFr1+2を得る。なお、フレームFr2においては動体領域A2Aが動体X0の領域に対応し、動体領域A2BがフレームFr4における動体X0の領域に対応する。このため、合成画像GFr1における動体領域A1Bは動体領域A2Bにより上書きされるが、動体領域A1Bと動体領域A2Bとは略同一の画像を表すため、実質的に合成画像GFr1における動体領域A1Bの部分の画像は変更されない。
【0072】
次いで、第2の合成画像GFr1+2に、フレームFr3から切り出した動体領域A3A,A3Bを上書きして第3の合成画像GFr1+2+3を得る。なお、フレームFr3においては動体領域A3Aが動体X0の領域に対応し、動体領域A3BがフレームFr4における動体X0の領域に対応する。このため、合成画像GFr1+2における動体領域A2Bは動体領域A3Bによりその一部が上書きされるが、動体領域A2Bと動体領域A3Bとは略同一の画像を表すため、実質的に合成画像GFr1+2における動体領域A2Bの部分の画像は変更されない。
【0073】
最後に、第3の合成画像GFr1+2+3に、フレームFr4から切り出した動体領域A4Aを上書きして第4の合成画像GFr1+2+3+4すなわち最終的な合成画像G0を得る。なお、フレームFr4においては動体領域A4Aが動体X0の領域に対応する。このため、合成画像GFr3における動体領域A3Bおよび動体領域A3Aの円形の欠けに対応する領域は動体領域A4Aにより上書きされる。これにより、合成画像G0には動体X0の移動軌跡が現れる。
【0074】
このように、第1の実施形態において算出されるマスクフレームM1〜M3のマスク領域は、各フレームFr1〜Fr3に含まれる動体X0の領域を、基準マスクフレームFrc1は基準フレームFr4に含まれる動体X0の領域をそれぞれ表すものとなる。このため、マスクフレームM1〜M3によりフレームFr1〜Fr3を、および基準マスクフレームFrc1により基準フレームFr4をそれぞれマスク処理することにより、動画像データD0が背景および動体X0の双方を含んでいても、各フレームFr1〜Fr4から適切に動体領域A1〜A4を切り出すことができる。したがって、切り出した動体領域A1〜A4を用いて、動体X0の移動軌跡を含む合成画像G0を容易に得ることができる。
【0075】
また、第1のマスクフレーム算出手段2は差分値の絶対値の算出および二値化処理、第2のマスクフレーム算出手段3は累積および二値化処理、領域切り出し手段4はマスク処理という比較的単純な処理を行っているため、フレームFr1〜Fr4から簡易に動体領域A1〜A4を切り出すことができる。
【0076】
次いで、本発明の第2の実施形態について説明する。図8は本発明の第2の実施形態による動画像切り出し装置を備えた動画像合成装置の構成を示す概略ブロック図である。なお、第2の実施形態において第1の実施形態と同一の構成については同一の参照番号を付し、詳細な説明は省略する。
【0077】
第2の実施形態による動画像合成装置は、複数のフレームFr1〜Fr4を重ねた場合において、基準フレームFr4における動体X0に対応する領域と重ならない動体X0に対応する領域を有する他のフレームの数を表す第1のフレーム数C1、基準フレームFr4における動体X0に対応する領域と重なる動体X0に対応する領域を有する他のフレームの数を表す第2のフレーム数C2、および動体X0に対応する領域同士が重なる他のフレームの数を表す第3のフレーム数C3の入力を受け付ける入力手段6と、入力された第1のフレーム数C1、第2のフレーム数C2および第3のフレーム数C3の間に、C1>C2>C3の関係があるか否かを判定し、この関係がある場合にのみ領域切り出し手段4による動体領域の切り出しを実行する判定手段7と、基準マスクフレームFrc1を得る際に得られる累積フレームFrcを表示するモニタ8とをさらに備えた点が第1の実施形態と異なる。
【0078】
入力手段6からは第2の実施形態による動画像合成装置を操作するオペレータがモニタ8に表示された累積フレームFrcを観察することにより得た、基準フレームFr4における動体X0に対応する領域と重ならない動体X0に対応する領域を有する他のフレームの数を表す第1のフレーム数C1、基準フレームFr4における動体X0に対応する領域と重なる動体X0に対応する領域を有する他のフレームの数を表す第2のフレーム数C2、および動体X0に対応する領域同士が重なる他のフレームの数を表す第3のフレーム数C3のオペレータによる入力を受け付ける。なお、モニタ8には累積フレームFrcのみならず、フレームFr1〜Fr4を重ね合わせた画像を表示してもよい。
【0079】
ここで、上記第1の実施形態においては、4つのフレームFr1〜Fr4から合成画像G0を求めており、基準フレームFr4における動体X0に対応する領域と重ならない動体X0に対応する領域を有する他のフレームの数を表す第1のフレーム数C1は2、基準フレームFr4における動体X0に対応する領域と重なる動体X0に対応する領域を有する他のフレームの数を表す第2のフレーム数C2は1、動体X0に対応する領域同士が重なる他のフレームの数を表す第3のフレーム数C3は0であり、C1>C2>C3の関係は2>1>0となり成立する。したがって、第2の実施形態において、オペレータが入力手段6からC1=2、C2=1、C3=0の値を入力すると、判定手段7がC1>C2>C3の関係を満たすと判定し、領域切り出し手段4に動体領域の切り出しを実行させる。
【0080】
一方、6つのフレームFr1〜Fr6から得られた累積フレームFrcの例を図9に示す。なお、図9に示す累積フレームFrcにおいて、基準フレームは時系列順で最も新しい時間のフレームFr6とし、動体X0は図面上左から右に移動しているものとする。また、累積フレームFrc中の数字は累積値を示す。図9に示す例においては、第1のフレーム数C1は3、第2のフレーム数C2は2、第3のフレーム数C3は1となり、C1>C2>C3の関係が成立する。したがって、オペレータが入力手段6からC1=3、C2=2、C3=1の値を入力すると、判定手段7がC1>C2>C3の関係を満たすと判定し、領域切り出し手段4に動体領域の切り出しを実行させる。
【0081】
また、3つのフレームFr1〜Fr3から得られた累積フレームFrcの例を図10(a)に、2つのフレームFr1〜Fr2から得られた累積フレームFrcの例を図10(b)に示す。図10(a)、(b)に示す累積フレームFrcにおいて、基準フレームは時系列順で最も新しい時間のフレームFr3,Fr2とし、動体X0は図面上左から右に移動しているものとする。
【0082】
図10(a)に示す例においては、第1のフレーム数C1は1、第2のフレーム数C2は1、第3のフレーム数C3は1となり、C1>C2>C3の関係は成立しない。したがって、オペレータが入力手段6からC1=1、C2=1、C3=1の値を入力すると、判定手段7がC1>C2>C3の関係を満たさないと判定し、領域切り出し手段4には動体領域の切り出しを実行させない。また、図10(b)に示す例においては、第1のフレーム数C1は0、第2のフレーム数C2は1、第3のフレーム数C3は0となり、C1>C2>C3の関係は成立しない。したがって、オペレータが入力手段6からC1=0、C2=1、C3=0の値を入力すると、判定手段7がC1>C2>C3の関係を満たさないと判定し、領域切り出し手段4には動体領域の切り出しを実行させない。
【0083】
このように、第2の実施形態においては、入力手段6が第1〜第3のフレーム数C1〜C3の入力を受け付け、判定手段7がC1>C2>C3の関係があるか否かを判定し、C1>C2>C3の関係がある場合にのみ領域切り出し手段4に動体領域の切り出しを実行させるようにしているため、各フレームから確実に動体X0に対応する動体領域を切り出すことができる。
【0084】
次いで、本発明の第3の実施形態について説明する。図11は本発明の第3の実施形態による動画像合成装置の構成を示す概略ブロック図である。なお、第3の実施形態において第1の実施形態と同一の構成については同一の参照番号を付し、詳細な説明は省略する。
【0085】
第3の実施形態による動画像合成装置は、第1の実施形態による動画像合成装置に加えて、マスクフレームのそれぞれにおけるマスク領域のサイズを第3のしきい値Th3と比較し、マスク領域のサイズが第3のしきい値Th3を越えたマスクフレームを選択する選択手段9をさらに備え、選択手段9が選択したマスクフレームのみ用いて第2のマスクフレーム算出手段3が基準マスクフレームFrc1を算出するようにした点が第1の実施形態と異なる。
【0086】
ここで、図12に示すような5つのフレームFr1〜Fr5を用いて合成画像G0を求めることを考える。基準フレームをフレームFr5とすると、フレームFr1〜Fr4に対応するマスクフレームM1〜M4は図13に示すものとなる。一方、累積フレームFrcは図14(a)に示すものとなり、累積フレームFrcをしきい値Th2=2により二値化することにより得られる基準マスクフレームFrc1は図14(b)に示すものとなる。
【0087】
このようにして得られたマスクフレームM1〜M4および基準マスクフレームFrc1による合成画像G0の算出を図15を用いて説明する。フレームFr1にフレームFr1から切り出した動体領域A1A,A1Bを上書きして第1の合成画像GFr1を得る。なお、フレームFr1においては動体領域A1Aが動体X0の領域に対応し、動体領域A1BがフレームFr5における動体X0の領域に対応する。
【0088】
次いで、第1の合成画像GFr1に、フレームFr2から切り出した動体領域A2A,A2Bを上書きして第2の合成画像GFr1+2を得る。なお、フレームFr2においては動体領域A2Aが動体X0の領域に対応し、動体領域A2BがフレームFr5における動体X0の領域に対応する。このため、合成画像GFr1における動体領域A1Bは動体領域A2Bにより上書きされる。
【0089】
次いで、第2の合成画像GFr1+2に、フレームFr3から切り出した動体領域A3A,A3Bを上書きして第3の合成画像GFr1+2+3を得る。なお、フレームFr3においては動体領域A3Aが動体X0の領域に対応し、動体領域A3BがフレームFr5における動体X0の領域に対応する。このため、合成画像GFr1+2における動体領域A2Bはその一部が動体領域A3Bにより上書きされる。
【0090】
さらに、第3の合成画像GFr1+2+3に、フレームFr4から切り出した動体領域A4A,A4Bを上書きして第4の合成画像GFr1+2+3+4を得る。なお、フレームFr4においては動体領域A3Aが動体X0の一部の領域に対応し、動体領域A4BがフレームFr5における動体X0の一部の領域に対応する。このため、合成画像GFr1+2+3における動体領域A2Bはその一部が動体領域A3Bにより上書きされる。
【0091】
最後に、第4の合成画像GFr1+2+3+4に、フレームFr5から切り出した動体領域A5Aを上書きして第5の合成画像GFr1+2+3+4+5すなわち最終的な合成画像G0を得る。
【0092】
ここで、このようにして得られた合成画像G0においては、基準マスクフレームFrc1において円形の動体X0の一部が欠けているため、動体領域A3A,A4A,A5Aが互いに重なり合う部分において動体X0が存在しない領域K0が現れてしまう。
【0093】
このため、第3の実施形態においては、選択手段9がマスクフレームM1〜M4におけるマスク領域のサイズをしきい値Th3と比較し、マスク領域のサイズがしきい値Th3以下となるマスクフレームを基準マスクフレームFrc1の算出から除外して、マスク領域のサイズがしきい値Th3を越えるマスクフレームのみを基準マスクフレームFrc1の算出に用いるために選択する。
【0094】
ここで、図13に示すマスクフレームM1〜M4のそれぞれにおいて、マスク領域のサイズをみると、マスクフレームM4のマスク領域が最も小さい。したがって、しきい値Th3の値を適切な値(例えばマスクフレームM1〜M4における個々のマスク領域の面積の最大値/2)に設定しておくことにより、選択手段9はマスクフレームM4以外のマスクフレームM1〜M3を基準マスクフレームFrc1の算出のためマスクフレームとして選択する。
【0095】
そして、第2のマスクフレーム算出手段3は、選択されたマスクフレームM1〜M3を累積して累積フレームFrcを算出する。マスクフレームM1〜M3から得られた累積フレームFrcを図16(a)に示す。そして、図16(a)に示す累積フレームFrcをしきい値Th2=1により二値化することにより得られる基準マスクフレームFrc1は図16(b)に示すものとなる。
【0096】
このようにして算出された基準マスクフレームFrc1によりフレームFr5から動体領域A5Aを切り出すと、フレームFr5に含まれる動体X0が欠けることなく動体領域A5Aを切り出すことができる。したがって、第4の合成画像GFr1+2+3+4に、フレームFr5から切り出した動体領域A5Aを上書きして得られる第5の合成画像GFr1+2+3+4+5すなわち最終的な合成画像G0は、図17に示すように最後のフレームFr5における動体X0が欠けることがないものとなる。したがって、動体X0の欠けがないように、動体X0の移動軌跡を含む合成画像G0を得ることができる。
【0097】
なお、上記第3の実施形態においては、さらに上記第2の実施形態のように入力手段6、判定手段7およびモニタ8を備えるものとし、第1のフレーム数C1、第2のフレーム数C2および第3のフレーム数C3の入力を受け付けて、C1>C2>C3の関係を満たす場合にのみ領域切り出し手段4において各フレームから動体領域を切り出すようにしてもよい。
【0098】
次いで、本発明の第4の実施形態について説明する。図18は本発明の第4の実施形態による動画像切り出し装置を備えた動画像合成装置の構成を示す概略ブロック図である。なお、第4の実施形態において第1の実施形態と同一の構成については同一の参照番号を付し、詳細な説明は省略する。
【0099】
第4の実施形態による動画像合成装置は、第1の実施形態による動画像合成装置に加えて、基準マスクフレームFrc1のマスク領域に対応する基準フレーム上の領域の色情報を算出し、算出した色情報に近似する色情報を有する領域に対応する累積フレームFrc上の領域を重み付けする色情報算出手段20をさらに備え、重み付けされた累積フレームFrcをしきい値Th2に基づいて二値化処理して基準マスクフレームFrc1を再算出するようにした点が第1の実施形態と異なる。
【0100】
ここで、上記第3の実施形態と同様に、図12に示すような5つのフレームFr1〜Fr5を用いて合成画像G0を求めることを考えた場合、基準フレームをフレームFr5とすると、フレームFr1〜Fr4に対応するマスクフレームM1〜M4は図13に示すものとなる。一方、累積フレームFrcは図14(a)に示すものとなり、累積フレームFrcをしきい値Th2(ここではTh=2とする)により二値化することにより得られる基準マスクフレームFrc1は図14(b)に示すものとなる。
【0101】
したがって、この基準マスクフレームFrc1を用いて得られた合成画像G0においては、基準マスクフレームFrc1において円形の動体X0の一部が欠けているため、上述したように動体領域A3A,A4A,A5Aが互いに重なり合う部分において動体X0が存在しない領域K0が現れてしまう。
【0102】
このため、第4の実施形態においては、動体X0が略同一の色を有するという前提において、色情報算出手段20が、一旦算出された基準マスクフレームFrc1により基準フレームFr5から動体領域A5Aを切り出し、動体領域A5Aの色情報を算出し、この色情報を用いて基準マスクフレームFrc1を再算出するようにしたものである。
【0103】
具体的には、色情報算出手段20は、切り出した動体領域A5Aのヒストグラムを求め、このヒストグラムのメディアン値により表される色を動体領域A5Aの色情報として算出する。なお、動画像データD0ひいてはフレームFr1〜Fr5は、RGBの色データまたはYCC輝度色差データからなる。このため、RGBの各成分またはYCCのうちの色差成分を用いてヒストグラムのメディアン値を算出し、各成分のメディアン値からなる色を色情報として算出する。なお、ヒストグラムのメディアン値に代えて、ヒストグラムの平均値や、ヒストグラムにおいて所定値以上の頻度を有する色を算出してもよい。
【0104】
次いで、色情報算出手段20は、基準フレームFr5上における、算出した色情報に近似する色を有する色領域を求める。具体的には色空間上において算出した色情報を中心とする所定の色空間範囲に含まれる色を有する領域を色領域として求める。ここで、図14(b)に示す基準マスクフレームFrc1により基準フレームFr5から切り出した動体領域A5Aは、円形の動体X0の一部が欠けたものとなる。しかしながら、動体領域A5Aの色情報は動体X0の色を表すものであるため、算出された色情報により求められた色領域は、図19に示すように円形の物体X0に対応するものとなる。
【0105】
続いて、色情報算出手段20は、累積フレームFrc上における色領域に対応する領域に累積値を加算することにより累積フレームFrcを重み付けする。なお、ここでは累積値として1を加算するものとする。累積値が加算された累積フレームFrcを図20(a)に示す。そして、図20(a)に示す累積フレームFrcをしきい値Th2=2により二値化することにより得られる基準マスクフレームFrc1は図20(b)に示すものとなる。
【0106】
このようにして再算出された基準マスクフレームFrc1によりフレームFr5から動体領域A5Aを切り出すと、フレームFr5に含まれる動体X0が欠けることなく動体領域A5Aを切り出すことができる。したがって、第4の合成画像GFr1+2+3+4に、フレームFr5から切り出した動体領域A5Aを上書きして得られる第5の合成画像GFr1+2+3+4+5すなわち最終的な合成画像G0は、図17に示すように最後のフレームFr5における動体X0が欠けることがないものとなる。したがって、動体X0の欠けがないように、動体X0の移動軌跡を含む合成画像G0を得ることができる。
【0107】
なお、上記第4の実施形態においては、さらに上記第2の実施形態のように入力手段6、判定手段7およびモニタ8を備えるものとし、第1のフレーム数C1、第2のフレーム数C2および第3のフレーム数C3の入力を受け付けて、C1>C2>C3の関係を満たす場合にのみ領域切り出し手段4において各フレームから動体領域を切り出すようにしてもよい。
【0108】
次いで、本発明の第5の実施形態について説明する。図21は本発明の第5の実施形態による動画像切り出し装置を備えた動画像合成装置の構成を示す概略ブロック図である。なお、第5の実施形態において第1の実施形態と同一の構成については同一の参照番号を付し、詳細な説明は省略する。
【0109】
第5の実施形態による動画像合成装置は、第1の実施形態による動画像合成装置に加えて、サンプリング手段1がサンプリングした複数のフレームFriの位置合せを行う位置合せ手段10と、位置合せされた複数のフレームFriの画素値のレベルを補正するフレーム補正手段11とを備え、さらに第1のマスクフレーム算出手段2が差分手段2Aが算出した差分値の絶対値|di(x,y)|にフィルタリング処理を施すフィルタリング手段2Cを備えた点が第1の実施形態と異なる。
【0110】
なお、以降の説明においては、第1の実施形態と同様に4つのフレームFr1〜Fr4がサンプリングされたものとして説明するが、これに限定されるものではない。
【0111】
位置合せ手段10は、基準フレームFr4以外の他のフレームFr1〜Fr3を基準フレームFr4に位置合せする。図22は位置合せ手段10における位置合せを説明するための図である。なお、ここではフレームFr1とフレームFr4との位置合せについて説明する。図22に示すように、フレームFr1,Fr4には、円形の動体X0および直方体の背景B0が含まれている。撮影時においては背景B0を移動しないようにしているが、実際には手ぶれ等により動体X0のみならず背景B0もフレームFr1,Fr4間において移動する。しかしながら、背景B0の移動量は動体X0の移動量とは異なる。一方、動体X0の移動量と背景B0の移動量とが一致していれば、動体X0は静止していることとなる。なお、図22においては、説明を容易にするため、背景B0の移動量を誇張して示している。
【0112】
位置合せ手段10は、フレームFr1をフレームFr4に対して平行移動し、フレームFr1の各画素Fr1(x,y)とフレームFr4の各画素Fr4(x,y)の画素値の相関が最も高くなったときのフレームFr4の移動量および移動方向を、フレームFr1についての動ベクトルV1として算出する。そして、動ベクトルV1とは逆の移動方向すなわち動ベクトル−V1の方向にフレームFr1を平行移動してフレームFr1をフレームFr4に位置合せする。ここで、動体X0は背景B0と比較して領域が小さいため、相関値に影響を与えるのは動体X0よりも背景B0である。したがって、位置合せ手段10により、フレームFr1とフレームFr4との背景領域のみが位置合せされることとなる。
【0113】
なお、位置合せ手段10は、フレームFr1,Fr4間の画素値の差の2乗の累積和または絶対値の累積和が最小となったときに最も相関が高いものと判断する。
【0114】
なお、ここでは、動ベクトルV1を算出してフレームFr1を平行移動してフレームFr1,Fr4の位置合せを行っているが、アフィン変換や特願2002−249212号に記載された方法等の他の手法によりフレームFr1,Fr4の位置合せを行ってもよい。特願2002−249212号に記載された方法とは、基準フレーム(すなわちフレームFr4)上に1または複数の矩形領域からなる基準パッチを配置し、この基準パッチと同様のパッチを他のフレーム(すなわちフレームFr1)上に配置し、パッチ内の画像が基準パッチ内の画像と一致するように、パッチをフレームFr1上において移動および/または変形し、移動および/または変形後のパッチおよび基準パッチに基づいて、フレームFr1上のパッチ内の画素とフレームFr4上の基準パッチ内の画素との対応関係を推定し、この対応関係に基づいて位置合せを行う方法である。
【0115】
また、フレームFr1〜Fr4がYCC輝度色差成分からなる場合には、全ての成分についてのみならず、Y成分についてのみ位置合せを行い、他の成分についてはY成分と同様に位置合せを行うようにしてもよい。また、フレームFr1〜Fr4がRGB成分からなる場合には、全ての成分についてのみならず、RGBのうちの1つの成分についてのみ位置合せを行い、他の成分については位置合せを行った成分と同様に位置合せを行うようにしてもよい。
【0116】
なお、位置合せにより、位置合せ後のフレームFr1〜Fr3には、画素が信号値を有さない領域(例えば図22の位置合せ後のフレームFr1における斜線部の領域)が現れる。このため、位置合せ手段10の後段のフレーム補正手段11、第1のマスクフレーム算出手段2および第2のマスクフレーム算出手段3は、画素が信号値を有する領域についてのみフレーム補正、マスクフレームの算出および基準マスクフレームの算出を行うものとする。
【0117】
フレーム補正手段11は、位置合せ前または後のフレームFr1〜Fr3および基準フレームFr4のそれぞれについて画素値のレベルを表す画素値の平均値を算出し、平均値が略一致するように複数のフレームFr1〜Fr4の画素値を補正する。
【0118】
具体的には、下記の式(4)により、フレームFr1〜Fr3(位置合せ後のもの)および基準フレームFr4について、全画素値の平均値FrM1〜FrM4を算出する。
FrMi=ΣFri(x,y)/(m×n) (4)
但し、m×nは位置合せ前または後のフレームFriにおいて画素値を有する全画素数
【0119】
そして、フレームFr1〜Fr3について、全画素値の平均値FrMiが基準フレームの全画素値の平均値FrM4に一致するように、フレームFr1〜Fr3の画素値を下記の式(5)により補正する。
Figure 2004334818
但し、FriH(x,y)は補正されたフレームの画素値、i=1〜3
【0120】
なお、フレームFr1〜Fr4がYCC輝度色差成分からなる場合には、全ての成分についてのみならず、Y成分についてのみ補正を行うようにしてもよい。
【0121】
また、平均値に代えて、全画素のメディアン値、ヒストグラムの最大頻度値等、フレームFr1〜Fr3の全画素を代表する値であればいかなる値を用いてもよい。
【0122】
フィルタリング手段2Cは、差分手段2Aが算出した基準フレームFr4と基準フレームFr4以外の他のフレームFr1〜Fr3(位置合せ済み、画素値の補正済みのもの)との相対応する画素間における差分値の絶対値に対して、フィルタリング処理を施す。図23はフィルタリング手段2Cが用いるフィルタの例を示す図である。図23に示すフィルタF1は、自身を含め隣接する8つの画素の画素値の平均値を自身の画素値とするローパスフィルタである。
【0123】
ここで、絶対値が比較的大きい値となる領域は本来であれば基準フレームFr4および他のフレームFr1〜Fr3に含まれる動体X0に対応する領域であるが、各フレームFr1〜Fr4には撮影時のノイズや、動体X0の動きに起因するノイズが含まれるため、絶対値が比較的大きくなる領域に絶対値が小さくなる小領域が含まれる場合がある。逆に絶対値が小さくなる領域に絶対値が比較的大きくなる小領域が含まれる場合もある。このため、差分値の絶対値に対して図23に示すようなフィルタF1によりフィルタリング処理を施すことにより、このような小領域に起因するノイズを絶対値から除去することができる。したがって、ノイズの影響を低減して精度よくマスクフレームM1〜M3を算出することができる。
【0124】
なお、ここでは3×3のローパスフィルタを用いるものとしたが、5×5あるいはそれ以上のサイズのローパスフィルタを用いてもよい。また、メディアンフィルタ、最大値フィルタまたは最小値フィルタを用いてもよい。
【0125】
次いで、第5の実施形態において行われる処理について説明する。図24は、第5の実施形態において行われる処理を示すフローチャートである。なお、ここでは第1の実施形態と同様に4つのフレームFr1〜Fr4がサンプリングされたものとして説明する。
【0126】
まず、サンプリング手段1が動画像データD0から4つのフレームFr1〜Fr4をサンプリングする(ステップS11)。次いで、位置合せ手段10が、フレームFr1〜Fr3を基準フレームFr4に位置合せする(ステップS12)。そして、フレーム補正手段11が、位置合せ後(位置合せ前でもよい)のフレームFr1〜Fr4の画素値を補正する(ステップS13)。
【0127】
次いで、第1のマスクフレーム算出手段2の差分手段2が位置合せおよび補正がなされた複数のフレームFr1〜Fr4のうち、基準フレームFr4と基準フレームFr4以外の他のフレームFr1〜Fr3との相対応する画素間における差分値の絶対値|di(x,y)|を算出する(ステップS14)。次いで、フィルタリング手段2Cが、差分値の絶対値に対して図23に示すフィルタF1によりフィルタリング処理を施し(ステップS15)、二値化手段2Bがフィルタリング処理後の差分値の絶対値をしきい値Th1に基づいて二値化処理してマスクフレームM1〜M3を算出する(ステップS16)。
【0128】
次いで、第2のマスクフレーム算出手段3の累積手段3Aが、マスクフレームM1〜M3の全てについて相対応する画素同士を累積して累積フレームFrcを算出する(ステップS17)。そして、二値化手段3Bが累積フレームFrcをしきい値Th2に基づいて二値化処理して基準マスクフレームFrc1を算出する(ステップS18)。
【0129】
続いて、領域切り出し手段4が、フレームFr1〜Fr3のそれぞれを対応するマスクフレームM1〜M3によりマスク処理するとともに、基準フレームFr4を基準マスクフレームFrc1によりマスク処理して、複数のフレームFr1〜Fr4のそれぞれから動体X0に対応する動体領域A1〜A4を切り出す(ステップS19)。
【0130】
そして、合成手段5が、動体領域A1〜A4を、フレームFr1〜Fr4のうちの一のフレームFr1における動体領域A1〜A4のそれぞれが対応する位置に、時系列順に上書きして複数のフレームFr1〜Fr4の合成画像G0を得(ステップS20)、処理を終了する。
【0131】
このように、第5の実施形態においては、位置合せ手段10が複数のフレームFr1〜Fr4における背景領域の位置合せを行っているため、撮影時における手ぶれ等に起因するフレーム全体の動きの影響をフレームFr1〜Fr4から除去することができる。したがって、フレーム全体の動きの影響を無くして、各フレームから正確に動体領域を切り出すことができる。
【0132】
ここで、動画像を撮影するビデオカメラの明るさ調整機能がうまく作用しなかったり、晴天時における屋外での撮影中に突然曇ってきた場合には、サンプリングされたフレーム間において全体の明るさが異なるものとなる。したがって、第1のマスクフレーム算出手段2がこのようなフレームを用いて基準フレームFr4と他のフレームFr1〜Fr4とのそれぞれとの相対応する画素間において差分値の絶対値|di(x,y)|を算出すると、動体X0に対応しない背景領域においても絶対値|di(x,y)|が比較的大きな値を有することとなるため、動体X0にのみ対応するマスク領域を有するマスクフレームM1〜M3を適切に算出することができない。
【0133】
このため、フレーム補正手段11により、フレームFr1〜Fr4の画素値を補正することにより、各フレームにおける全体の明るさを略同一とすることができるため、動体X0に対応しない背景領域においては絶対値|di(x,y)|がそれほど大きな値を有することがなくなり、これにより、動体X0にのみ対応するマスク領域を有するマスクフレームM1〜M3を適切に算出することができる。
【0134】
また、第1のマスクフレーム算出手段2のフィルタリング手段2Cが、差分値の絶対値|di(x,y)|に対してノイズを除去するフィルタリング処理を行っているため、絶対値|di(x,y)|からノイズを除去することができ、これにより、ノイズの影響を低減して精度よくマスクフレームM1〜M3を算出することができる。
【0135】
なお、上記第5の実施形態において、図25に示す第6の実施形態のように、入力手段6、判定手段7およびモニタ8を備えるものとしてもよい。
【0136】
また、上記第5の実施形態において、図26に示す第7の実施形態のように、第2のマスクフレーム算出手段3に、累積手段3Aが算出した累積フレームFrcに対して、図23に示すフィルタF1によりフィルタリング処理を施すフィルタリング手段3Cを設けてもよい。
【0137】
これにより、累積フレームFrcから撮影時のノイズや、動体X0の動きに起因するノイズを除去することができる。したがって、ノイズの影響を低減して精度よく基準マスクフレームFrc1を算出することができる。
【0138】
また、上記第5の実施形態においては、位置合せ手段10において、フレーム間の動ベクトルV1を算出してフレームの位置合せを行っているが、この際、フレームに含まれる動体X0と背景B0とを分離し、背景B0のみにより動ベクトルを算出してもよい。以下、位置合せ手段10において、フレームから動体X0と背景B0とを分離して位置合せを行う場合の処理について第8の実施形態として説明する。なお、ここでは図22に示すようにフレームFr1とフレームFr4との位置合せについて説明する。
【0139】
まず、位置合せ手段10は、フレームFr1とフレームFr4との相対応する画素間における差分値の絶対値を算出して差分フレームFrsを求める。この差分値の絶対値の算出は、上記式(1)により行えばよい。
【0140】
図27(a)は差分フレームFrsを示す図である。図27(a)の斜線部分に示すように差分フレームFrsにおいては、フレームFr1,Fr4間において動きがあった部分に大きな値を有するものとなっている。具体的には、動体X0に対応する領域および直方体の背景B0に対応する領域の移動量を表す部分に大きな値を有するものとなっている。
【0141】
次いで、位置合せ手段10は、差分フレームFrsに対してモフォロジー処理を施す。以下、モフォロジー処理について説明する。
【0142】
モフォロジー処理は、とくに乳癌における特徴的形態である微小石灰化像を検出するのに有効な手法として研究されているが、対象画像としてはこのようなマンモグラムにおける微小石灰化像に限るものではなく、検出しようとする特定の画像部分(異常陰影、ノイズ等)の大きさや形状が予めある程度分かっているものについては、いかなる画像に対しても適用することができる(特開平8−272961号公報、同9−248291号公報、同9−91421号公報等)。このモフォロジー処理を、濃淡画像を例にして以下に簡単に説明する。
【0143】
モフォロジー処理は、所定のオフセット値を有する原点について対象な所定サイズを有するモフォロジーエレメントを使用して、対象となる画像を操作する処理であり、ダイレーション処理、イロージョン処理、オープニング処理およびクロージング処理がある。
【0144】
ダイレーション処理は、注目画素を中心とした、±m(モフォロジーエレメントに応じて決定される値であって、モフォロジーエレメントのサイズに相当する)の幅の範囲内の最大値を探索する処理であり、ダイレーション処理により画像内の明るい領域が拡大され、暗い領域が縮小される。
【0145】
イロージョン処理は、注目画素を中心とした、±mの幅の範囲内の最小値を探索する処理であり、イロージョン処理により画像内の明るい領域が縮小され、暗い領域が拡大される。
【0146】
オープニング処理はイロージョン処理後にダイレーション処理を行う処理、すなわち最小値の探索の後に最大値を探索する処理であり、オープニング処理により画像内の余分な明るい細部、細い線および微小領域が除去される。
【0147】
クロージング処理は、ダイレーション処理後にイロージョン処理を行う処理、すなわち最大値の探索の後に最小値を探索する処理であり、クロージング処理により画像内の余分な暗い細部、細い線および微少領域が除去される。
【0148】
第8の実施形態においては、差分フレームFrsに対してオープニング処理を施すことにより、差分フレームFrs内の明るい細部、細い線および微小領域を除去する。ここで、フレームFr1,Fr4に含まれる動体X0は移動量が大きいため、図27(a)に示すように、差分フレームFrs内においてはその円形の形状を確認することができるが、直方体の背景B0は移動量が小さいため、差分フレームFrs内においてその形状を確認することはできず、直方体の輪郭に沿って狭小な領域B1が存在するのみである。したがって、差分フレームFrsに対してオープニング処理を施すことにより、処理後の差分フレームFrs0には、図27(b)に示すように、差分フレームFrsに含まれた狭小な領域B1が除去され、動体X0に対応する領域X1,X2のみが存在することとなる。
【0149】
次いで、位置合せ手段10は、図28に示すように、フレームFr1,Fr4のそれぞれから、処理後の差分フレームFrs0における動体X0に対応する領域X1,X2を除去し、領域X1,X2を除去した後のフレームFr1をフレームFr4に対して平行移動して、上記と同様にフレームFr1についての動ベクトルV1を算出し、動ベクトル−V1の方向にフレームFr1を平行移動してフレームFr1をフレームFr4に位置合せする。
【0150】
このように、フレームFr1,Fr4から動体X0に対応する領域X1,X2を除去してフレームFr1,Fr4の位置合せを行うことにより、背景B0よりも動きの大きい動体X0の影響を除去して、動ベクトルV1を正確に求めることができ、これによりフレームFr1,Fr4の位置合せを正確に行うことができる。
【0151】
なお、上記各実施形態においては、基準フレーム以外のフレームを用いてのマスクフレームを算出するために、差分手段2Aにおいて、各フレームと基準フレームとの差分値の絶対値を算出しているが、時間的に隣接するフレーム間の差分値の絶対値を算出してマスクフレームを算出してもよい。以下、これを第9の実施形態として説明する。
【0152】
図29は第9の実施形態において行われる処理をフレームを用いて説明した図である。なお、第9の実施形態においては、第1の実施形態と同様に、4つのフレームFr1〜Fr4を用いた処理について説明する。第9の実施形態においては、図29に示すようにフレームFr1とフレームFr2との差分値の絶対値、フレームFr2とフレームFr3との差分値の絶対値およびフレームFr3とフレームFr4との差分値の絶対値を算出した後に二値化処理を行って、マスクフレームM1′〜M3′を算出する。マスクフレームM1′はマスク領域R1A′,R1B′を有し、マスクフレームM2′はマスク領域R2A′,R2B′を有し、マスクフレームM3′はマスク領域R3A′,R3B′を有する。ここで、マスクフレームM1′〜M3′において、マスク領域R1A′,R2A′,R3A′は、各フレームFr1〜Fr3における動体X0の領域に対応し、マスク領域R1B′,R2B′,R3B′は、それぞれ隣接するフレームにおける動体X0の領域に対応する。
【0153】
そして、フレームFr1〜Fr3のそれぞれを対応するマスクフレームM1′〜M3′によりマスク処理するとともに、基準フレームFr4を基準マスクフレームFrc1によりマスク処理して、複数のフレームFr1〜Fr4のそれぞれから動体X0に対応する動体領域を切り出す。すなわち、フレームFr1については、マスクフレームM1′における画素値が1となるマスク領域R1A′,R1B′に対応する領域を動体領域A1A′,A1B′(以下A1′で代表させることもある)として切り出す。フレームFr2については、マスクフレームM2′における値が1となるマスク領域R2A′,R2B′に対応する領域を動体領域A2A′,A2B′(以下A2′で代表させることもある)として切り出す。フレームFr3については、マスクフレームM3′における値が1となるマスク領域R3A′,R3B′に対応する領域を動体領域A3A′,A3B′(以下A3′で代表させることもある)として切り出す。
【0154】
一方、基準フレームFr4については、基準マスクフレームFrc1における値が1となるマスク領域R4A′に対応する領域を動体領域A4A′(以下A4′で代表させることもある)として切り出す。
【0155】
ここで、基準マスクフレームFrc1は、上記第1の実施形態と同様にして、各フレームと基準フレームとの差分値の絶対値に基づいて算出されたマスクフレームM1〜M3の累積フレームFrc算出し、これを二値化処理することにより算出する。
【0156】
そして、動体領域A1′〜A4′を、フレームFr1〜Fr4のうちの一のフレーム(ここではFr1とする)における動体領域A1′〜A4′のそれぞれが対応する位置に時系列順に上書きして、複数のフレームFr1〜Fr4の合成画像G0′を得る。
【0157】
なお、上記第5の実施形態においてはフレーム補正手段11により複数のフレームFr1〜Fr4のそれぞれについて画素値のレベルを表す画素値の平均値を算出し、この平均値が略一致するように複数のフレームFr1〜Fr4の画素値を補正することにより、各フレームにおける全体の明るさを略同一として、動体X0に対応しない背景領域においては絶対値|di(x,y)|がそれほど大きな値を有することをなくして、動体X0にのみ対応するマスク領域を有するマスクフレームM1〜M3を適切に算出するようにしているが、第1のマスクフレーム算出手段2の二値化手段2Bにおいて二値化処理に用いられるしきい値Th1を補正することによっても同様の効果が得られる。以下、しきい値Th1を補正する実施形態を第10の実施形態として説明する。
【0158】
図30は本発明の第10の実施形態による動画像切り出し装置を備えた動画像合成装置の構成を示す概略ブロック図である。なお、第10の実施形態において第1の実施形態と同一の構成については同一の参照番号を付し、詳細な説明は省略する。
【0159】
第10の実施形態による動画像合成装置は、第1のマスクフレーム算出手段2に二値化手段2Bにおいて用いられる二値化処理のしきい値Th1を差分値の絶対値|di(x,y)|毎に補正するしきい値補正手段2Dを設けた点が第1の実施形態と異なる。以下、しきい値Th1の補正について説明する。なお、第10の実施形態においても、動画像データD0から4つのフレームFr1〜Fr4をサンプリングするものとする。
【0160】
まず、しきい値補正手段2Dは、上記式(4)により、フレームFr1〜Fr3および基準フレームFr4について、全画素値の平均値FrM1〜FrM4を算出する。そして、基準フレームFr4についての平均値FrM4と基準フレームFr4以外の他のフレームFr1〜Fr4についての平均値FrM1〜FrM3のそれぞれとの差分値の絶対値を補正係数αi(i=1〜3)として下記の式(6)により算出する。
αi=|FrM4−FrMi| (6)
【0161】
ここで、二値化手段2Bにおいては、上記式(1)または(2)により算出された差分値の絶対値|di(x,y)|をしきい値Th1に基づいて二値化処理しているが、第10の実施形態においては差分値の絶対値|di(x,y)|毎にしきい値Th1を補正して補正しきい値Th1′i(i=1〜3)を求め、補正しきい値Th1′iにより二値化処理を行う。補正しきい値Th1′iは下記の式(7)により算出する。
Th1′i=Th1+αi (7)
【0162】
二値化手段2Bは、差分値の絶対値|di(x,y)|を補正しきい値Th1′iにより二値化処理する。すなわち、差分値の絶対値|di(x,y)|が補正しきい値Th1′iより大きい画素については1を、補正しきい値Th1′i以下の画素については0の値を付与して、値が1となる画素をマスク領域とする他のフレームFr1〜Fr3のそれぞれに対応するマスクフレームM1〜M3を算出する。
【0163】
具体的には、フレームFr1と基準フレームFr4とから算出した差分値の絶対値|d1(x,y)|については、平均値FrM4と平均値FrM1とから求めた補正係数α1によりしきい値Th1を補正することに算出された補正しきい値Th1′1により二値化処理を行い、フレームFr2と基準フレームFr4とから算出した差分値の絶対値|d2(x,y)|については、平均値FrM4と平均値FrM2とから求めた補正係数α2によりしきい値Th1を補正することに算出された補正しきい値Th1′2により二値化処理を行い、フレームFr3と基準フレームFr4とから算出した差分値の絶対値|d3(x,y)|については、平均値FrM3と平均値FrM1とから求めた補正係数α3によりしきい値Th1を補正することに算出された補正しきい値Th1′3により二値化処理を行う。
【0164】
なお、第10の実施形態においては、補正係数αiを求める際に各フレームFr1〜Fr4の平均値を算出しているが、平均値に代えて、全画素のメディアン値、ヒストグラムの最大頻度値等、フレームFr1〜Fr4の全画素を代表する値であればいかなる値を用いてもよい。
【0165】
また、第10の実施形態においては、フレームFr1〜Fr4がYCC輝度色差成分からなる場合には、全ての成分についてのみならず、Y成分についてのみ補正係数αiを算出してしきい値Th1の補正を行うようにしてもよい。
【0166】
なお、上記第1から第3、第5、第6、第8および第9の実施形態において、位置合せ手段10、フレーム補正手段11およびフィルタリング手段2Cのうちの少なくとも1つの手段を備えるようにしてもよい。
【0167】
また、上記第10の実施形態において、位置合せ手段10およびフィルタリング手段2Cのうちのいずれかの手段を備えるようにしてもよい。
【図面の簡単な説明】
【図1】本発明の第1の実施形態による動画像切り出し装置を備えた動画像合成装置の構成を示す概略ブロック図
【図2】サンプリングされたフレームの例を示す図
【図3】マスクフレームを示す図
【図4】累積フレームを示す図
【図5】基準マスクフレームを示す図
【図6】第1の実施形態において行われる処理を示すフローチャート
【図7】第1の実施形態において行われる処理をフレームを用いて説明した図
【図8】本発明の第2の実施形態による動画像切り出し装置を備えた動画像合成装置の構成を示す概略ブロック図
【図9】6つのフレームから得られた累積フレームの例を示す図
【図10】(a)は3つのフレームから得られた累積フレームの例を示す図、(b)は2つのフレームから得られた累積フレームの例を示す図
【図11】本発明の第3の実施形態による動画像切り出し装置を備えた動画像合成装置の構成を示す概略ブロック図
【図12】サンプリングされたフレームの例を示す図
【図13】マスクフレームを示す図
【図14】(a)は累積フレームを示す図、(b)は基準マスクフレームを示す図
【図15】合成画像の算出を説明するための図
【図16】(a)は累積フレームを示す図、(b)は基準マスクフレームを示す図
【図17】合成画像の算出を説明するための図
【図18】本発明の第4の実施形態による動画像切り出し装置を備えた動画像合成装置の構成を示す概略ブロック図
【図19】第4の実施形態において求められる色領域を示す図
【図20】(a)は累積フレームを示す図、(b)は基準マスクフレームを示す図
【図21】本発明の第5の実施形態による動画像切り出し装置を備えた動画像合成装置の構成を示す概略ブロック図
【図22】位置合せ手段における位置合せを説明するための図
【図23】フィルタリング手段が用いるフィルタの例を示す図
【図24】第5の実施形態において行われる処理を示すフローチャート
【図25】本発明の第6の実施形態による動画像切り出し装置を備えた動画像合成装置の構成を示す概略ブロック図
【図26】本発明の第7の実施形態による動画像切り出し装置を備えた動画像合成装置の構成を示す概略ブロック図
【図27】(a)は差分フレームを示す図、(b)はオープニング処理後の差分フレームを示す図
【図28】第8の実施形態において位置合せ手段における位置合せを説明するための図
【図29】第9の実施形態において行われる処理をフレームを用いて説明した図
【図30】本発明の第10の実施形態による動画像切り出し装置を備えた動画像合成装置の構成を示す概略ブロック図
【符号の説明】
1 サンプリング手段
2 第1のマスクフレーム算出手段
2A 差分手段
2B 二値化手段
2C フィルタリング手段
2D しきい値補正手段
3 第2のマスクフレーム算出手段
3A 累積手段
3B 二値化手段
3C フィルタリング手段
4 領域切り出し手段
5 合成手段
6 入力手段
7 判定手段
8 モニタ
9 選択手段
10 位置合せ手段
11 フレーム補正手段
20 色情報算出手段

Claims (18)

  1. 動体を含む動画像から連続する複数のフレームをサンプリングするサンプリング手段と、
    該複数のフレームのそれぞれにおける前記動体の位置を特定するマスク領域を含むマスクフレームを前記複数のフレームのそれぞれに対応付けて算出するマスクフレーム算出手段と、
    前記複数のフレームの全部または一部を対応するマスクフレームによりマスク処理して、該複数のフレームの全部または一部から前記動体に対応する動体領域を切り出す領域切り出し手段とを備えたことを特徴とする動画像切り出し装置。
  2. 前記マスクフレーム算出手段が、前記複数のフレームのうち基準となる1つの基準フレームと該基準フレーム以外の他のフレームのそれぞれとの相対応する画素間における差分値の絶対値を算出し、該絶対値を第1のしきい値に基づいて二値化処理して前記他のフレームのそれぞれにおける前記動体の位置を特定するマスク領域を含む他のマスクフレームを前記他のフレームのそれぞれに対応付けて算出する手段であり、
    前記領域切り出し手段が、前記他のフレームのそれぞれを対応する他のマスクフレームによりマスク処理して、該他のフレームのそれぞれから前記動体に対応する動体領域を切り出す手段であることを特徴とする請求項1記載の動画像切り出し装置。
  3. 前記マスクフレーム算出手段は、前記差分値の絶対値に対してノイズを除去するフィルタリング処理を施し、該フィルタリング処理が施された前記絶対値を前記二値化処理する手段であることを特徴とする請求項2記載の動画像切り出し装置。
  4. 前記複数のフレームのそれぞれについて画素値のレベルを表す前記画素値の代表値を算出し、該代表値に基づいて前記第1のしきい値を前記差分値の絶対値毎に補正するしきい値補正手段をさらに備え、
    前記マスクフレーム算出手段は、前記差分値の絶対値毎に補正された前記第1のしきい値に基づいて前記二値化処理を行う手段であることを特徴とする請求項2または3記載の動画像切り出し装置。
  5. 前記マスクフレーム算出手段が、前記複数のフレームのうち基準となる1つの基準フレームと該基準フレーム以外の他のフレームのそれぞれとの相対応する画素間における差分値の絶対値を算出し、該絶対値を第1のしきい値に基づいて二値化処理して前記他のフレームのそれぞれにおける前記動体の位置を特定するマスク領域を含む他のマスクフレームを前記他のフレームのそれぞれに対応付けて算出する第1のマスクフレーム算出手段と、
    前記複数の他のマスクフレームの情報に基づいて、前記基準フレームにおける前記動体の位置を特定するマスク領域を含む基準マスクフレームを算出する第2のマスクフレーム算出手段とを備え、
    前記領域切り出し手段が、前記基準フレームを前記基準マスクフレームによりマスク処理して、該基準フレームから前記動体に対応する動体領域を切り出す手段であることを特徴とする請求項1記載の動画像切り出し装置。
  6. 前記マスクフレーム算出手段が、前記複数のフレームのうち基準となる1つの基準フレームと該基準フレーム以外の他のフレームのそれぞれとの相対応する画素間における差分値の絶対値を算出し、該絶対値を第1のしきい値に基づいて二値化処理して前記他のフレームのそれぞれにおける前記動体の位置を特定するマスク領域を含む他のマスクフレームを前記他のフレームのそれぞれに対応付けて算出する第1のマスクフレーム算出手段と、
    前記複数の他のマスクフレームの情報に基づいて、前記基準フレームにおける前記動体の位置を特定するマスク領域を含む基準マスクフレームを算出する第2のマスクフレーム算出手段とを備え、
    前記領域切り出し手段が、前記他のフレームのそれぞれを対応する他のマスクフレームによりマスク処理するとともに、前記基準フレームを前記基準マスクフレームによりマスク処理して、該複数のフレームのそれぞれから前記動体に対応する動体領域を切り出す手段であることを特徴とする請求項1記載の動画像切り出し装置。
  7. 前記第1のマスクフレーム算出手段は、前記差分値の絶対値に対してノイズを除去するフィルタリング処理を施し、該フィルタリング処理が施された前記絶対値を前記二値化処理する手段であることを特徴とする請求項5または6記載の動画像切り出し装置。
  8. 前記複数のフレームのそれぞれについて画素値のレベルを表す前記画素値の代表値を算出し、該代表値に基づいて前記第1のしきい値を前記差分値の絶対値毎に補正するしきい値補正手段をさらに備え、
    前記第1のマスクフレーム算出手段は、前記差分値の絶対値毎に補正された前記第1のしきい値に基づいて前記二値化処理を行う手段であることを特徴とする特徴とする請求項5から7のいずれか1項記載の動画像切り出し装置。
  9. 前記第2のマスクフレーム算出手段が、前記複数の他のマスクフレームから選択された選択マスクフレームの相対応する画素同士を累積または加重累積し、該累積された選択マスクフレームを第2のしきい値によりさらに二値化処理して、前記基準マスクフレームを算出する手段であることを特徴とする請求項5から8のいずれか1項記載の動画像切り出し装置。
  10. 前記他のマスクフレームのそれぞれにおける前記マスク領域のサイズを第3のしきい値と比較し、該マスク領域のサイズが前記第3のしきい値を越えた他のマスクフレームを前記選択マスクフレームとして選択する選択手段をさらに備えたことを特徴とする請求項9記載の動画像切り出し装置。
  11. 前記第2のマスクフレーム算出手段は、前記累積された選択マスクフレームに対してノイズを除去するフィルタリング処理を施し、該フィルタリング処理が施された前記累積された選択マスクフレームを前記二値化処理する手段であることを特徴とする請求項9または10記載の動画像切り出し装置。
  12. 前記第2のマスクフレーム算出手段が、前記基準マスクフレームのマスク領域に対応する前記基準フレーム上の領域の色情報を算出し、該色情報に近似する色情報を有する領域に対応する前記累積された選択マスクフレーム上の領域を重み付けし、該重み付けされた累積された選択マスクフレームを前記第2のしきい値により二値化処理して、前記基準マスクフレームを再算出する手段であることを特徴とする請求項9から11のいずれか1項記載の動画像切り出し装置。
  13. 前記複数の他のフレームを重ねた場合において、前記基準フレームにおける前記動体に対応する領域と重ならない前記動体に対応する領域を有する前記他のフレームの数を表す第1のフレーム数、前記基準フレームにおける前記動体に対応する領域と重なる前記動体に対応する領域を有する前記他のフレームの数を表す第2のフレーム数、および前記動体に対応する領域同士が重なる前記他のフレームの数を表す第3のフレーム数の入力を受け付ける入力手段と、
    該入力された第1のフレーム数、第2のフレーム数および第3のフレーム数の間に、第1のフレーム数>第2のフレーム数>第3のフレーム数の関係があるか否かを判定し、該関係がある場合にのみ前記領域切り出し手段に前記動体領域の切り出しを実行させる判定手段とをさらに備えたことを特徴とする請求項2から12のいずれか1項記載の動画像切り出し装置。
  14. 前記複数のフレームにおける前記動体領域以外の背景領域の位置合せを行う位置合せ手段をさらに備え、
    前記マスクフレーム算出手段は、前記位置合せ後の前記複数のフレームから前記マスクフレームを算出する手段であることを特徴とする請求項1から13のいずれか1項記載の動画像切り出し装置。
  15. 前記複数のフレームのそれぞれについて画素値のレベルを表す前記画素値の代表値を算出し、該代表値が略一致するように前記複数のフレームの画素値を補正するフレーム補正手段をさらに備え、
    前記マスクフレーム算出手段は、前記補正後の前記複数のフレームから前記マスクフレームを算出する手段であることを特徴とする請求項1から3、5から7、9から14のいずれか1項記載の動画像切り出し装置。
  16. 前記領域切り出し手段が前記複数のフレームの全部または一部から切り出した動体領域を、前記複数のフレームのうちの一のフレームにおける該動体領域のそれぞれが対応する位置に時系列順に上書きすることにより、前記複数のフレームの合成画像を得る合成手段をさらに備えたことを特徴とする請求項1から15のいずれか1項記載の動画像切り出し装置。
  17. 動体を含む動画像から連続する複数のフレームをサンプリングし、
    該複数のフレームのそれぞれにおける前記動体の位置を特定するマスク領域を含むマスクフレームを前記複数のフレームのそれぞれに対応付けて算出し、
    前記複数のフレームの全部または一部を対応するマスクフレームによりマスク処理して、該複数のフレームの全部または一部から前記動体に対応する動体領域を切り出すことを特徴とする動画像切り出し方法。
  18. 動体を含む動画像から連続する複数のフレームをサンプリングする手順と、
    該複数のフレームのそれぞれにおける前記動体の位置を特定するマスク領域を含むマスクフレームを前記複数のフレームのそれぞれに対応付けて算出する手順と、
    前記複数のフレームの全部または一部を対応するマスクフレームによりマスク処理して、該複数のフレームの全部または一部から前記動体に対応する動体領域を切り出す手順とを有することを特徴とする動画像切り出し方法をコンピュータに実行させるためのプログラム。
JP2003165026A 2003-03-07 2003-06-10 動画像切り出し装置および方法並びにプログラム Expired - Fee Related JP4307910B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2003165026A JP4307910B2 (ja) 2003-03-07 2003-06-10 動画像切り出し装置および方法並びにプログラム
US10/794,299 US7463788B2 (en) 2003-03-07 2004-03-08 Method, device and program for cutting out moving image
US12/273,248 US7751649B2 (en) 2003-03-07 2008-11-18 Method, device and program for cutting out moving image
US12/782,295 US8050457B2 (en) 2003-03-07 2010-05-18 Method, device and program for cutting out moving image

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003061046 2003-03-07
JP2003165026A JP4307910B2 (ja) 2003-03-07 2003-06-10 動画像切り出し装置および方法並びにプログラム

Publications (2)

Publication Number Publication Date
JP2004334818A true JP2004334818A (ja) 2004-11-25
JP4307910B2 JP4307910B2 (ja) 2009-08-05

Family

ID=32929703

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003165026A Expired - Fee Related JP4307910B2 (ja) 2003-03-07 2003-06-10 動画像切り出し装置および方法並びにプログラム

Country Status (2)

Country Link
US (3) US7463788B2 (ja)
JP (1) JP4307910B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006203500A (ja) * 2005-01-20 2006-08-03 Ikegami Tsushinki Co Ltd 移動物体抽出用画像作成方法
JP2013062741A (ja) * 2011-09-14 2013-04-04 Ricoh Co Ltd 画像処理装置および撮像装置、ならびに画像処理方法
JP2013214181A (ja) * 2012-04-02 2013-10-17 Jvc Kenwood Corp 画像処理装置、画像処理方法、及びプログラム
JPWO2021117233A1 (ja) * 2019-12-13 2021-06-17

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7224847B2 (en) * 2003-02-24 2007-05-29 Microsoft Corp. System and method for real-time whiteboard streaming
JP4307910B2 (ja) * 2003-03-07 2009-08-05 富士フイルム株式会社 動画像切り出し装置および方法並びにプログラム
WO2005076210A1 (ja) * 2004-02-05 2005-08-18 Vodafone K.K. 画像処理方法、画像処理装置及び移動通信端末装置
CN100536046C (zh) * 2005-02-25 2009-09-02 京瓷株式会社 复合生片的加工方法
US7616203B1 (en) * 2006-01-20 2009-11-10 Adobe Systems Incorporated Assigning attributes to regions across frames
US8125522B2 (en) * 2006-03-24 2012-02-28 Siemens Industry, Inc. Spurious motion filter
TWI381719B (zh) * 2008-02-18 2013-01-01 Univ Nat Taiwan 穩定全幅式視訊之方法
AU2008200966B2 (en) * 2008-02-28 2012-03-15 Canon Kabushiki Kaisha Stationary object detection using multi-mode background modelling
JP4591576B2 (ja) * 2008-08-18 2010-12-01 ソニー株式会社 画像処理装置、画像処理方法、プログラム
US8639032B1 (en) 2008-08-29 2014-01-28 Freedom Scientific, Inc. Whiteboard archiving and presentation method
KR101318756B1 (ko) * 2009-02-20 2013-10-16 엘지디스플레이 주식회사 터치정보 처리방법 및 장치와 이를 이용한 평판표시장치
JP5324391B2 (ja) * 2009-10-22 2013-10-23 キヤノン株式会社 画像処理装置およびその制御方法
US8750645B2 (en) * 2009-12-10 2014-06-10 Microsoft Corporation Generating a composite image from video frames
JP4973756B2 (ja) * 2010-03-30 2012-07-11 カシオ計算機株式会社 画像処理装置およびプログラム
US20120002112A1 (en) * 2010-07-02 2012-01-05 Sony Corporation Tail the motion method of generating simulated strobe motion videos and pictures using image cloning
US8842974B2 (en) * 2010-10-01 2014-09-23 Sony Corporation Content transmission apparatus, content transmission method, content reproduction apparatus, content reproduction method, program, and content delivery system
CN103597843B (zh) * 2011-06-15 2017-10-20 索尼公司 接收设备、终端设备、控制方法和通信系统
JP5868053B2 (ja) * 2011-07-23 2016-02-24 キヤノン株式会社 画像処理方法、画像処理装置、およびプログラム
JP2013162333A (ja) * 2012-02-06 2013-08-19 Sony Corp 画像処理装置、画像処理方法、プログラムおよび記録媒体
US20130207992A1 (en) * 2012-02-10 2013-08-15 Emil Alexander WASBERGER Method, apparatus and computer readable medium carrying instructions for mitigating visual artefacts
US9031319B2 (en) * 2012-05-31 2015-05-12 Apple Inc. Systems and methods for luma sharpening
JP2014007680A (ja) * 2012-06-27 2014-01-16 Xacti Corp 画像生成装置
KR102116791B1 (ko) * 2013-06-04 2020-06-09 삼성전자주식회사 깊이 정보를 사용한 움직인 물체 검출 장치, 방법 및 컴퓨터 판독 가능한 기록 매체
US9609236B2 (en) * 2013-09-16 2017-03-28 Kyle L. Baltz Camera and image processing method
JP7114081B2 (ja) * 2019-03-20 2022-08-08 株式会社アクセルスペース 情報処理装置、情報処理方法及びプログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5111410A (en) * 1989-06-23 1992-05-05 Kabushiki Kaisha Oh-Yoh Keisoku Kenkyusho Motion analyzing/advising system
JPH05316418A (ja) 1992-05-13 1993-11-26 Matsushita Electric Ind Co Ltd ストロボ効果装置
EP1045340A3 (en) 1995-03-29 2000-10-25 Fuji Photo Film Co., Ltd. Image processing method and apparatus
US5644508A (en) 1995-06-05 1997-07-01 Hughes Electronics Detection of moving objects
JPH0991421A (ja) 1995-09-28 1997-04-04 Fuji Photo Film Co Ltd 画像処理方法および装置
JP3669455B2 (ja) 1996-03-15 2005-07-06 富士写真フイルム株式会社 画像処理方法および画像処理装置
US5960111A (en) * 1997-02-10 1999-09-28 At&T Corp Method and apparatus for segmenting images prior to coding
US5999639A (en) * 1997-09-04 1999-12-07 Qualia Computing, Inc. Method and system for automated detection of clustered microcalcifications from digital mammograms
US6665342B1 (en) * 1999-07-02 2003-12-16 International Business Machines Corporation System and method for producing a still image representation of a motion video
GB2358098A (en) * 2000-01-06 2001-07-11 Sharp Kk Method of segmenting a pixelled image
WO2003024095A1 (en) * 2001-09-07 2003-03-20 Intergraph Hardware Technologies Company Image stabilization using color matching
US7120297B2 (en) * 2002-04-25 2006-10-10 Microsoft Corporation Segmented layered image system
US7024054B2 (en) * 2002-09-27 2006-04-04 Eastman Kodak Company Method and system for generating a foreground mask for a composite image
JP4307910B2 (ja) * 2003-03-07 2009-08-05 富士フイルム株式会社 動画像切り出し装置および方法並びにプログラム

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006203500A (ja) * 2005-01-20 2006-08-03 Ikegami Tsushinki Co Ltd 移動物体抽出用画像作成方法
JP4614778B2 (ja) * 2005-01-20 2011-01-19 池上通信機株式会社 移動物体抽出用画像作成方法
JP2013062741A (ja) * 2011-09-14 2013-04-04 Ricoh Co Ltd 画像処理装置および撮像装置、ならびに画像処理方法
US9129401B2 (en) 2011-09-14 2015-09-08 Ricoh Company, Ltd. Image processing apparatus, imaging apparatus, and image processing method, configured to process reduced-size images
JP2013214181A (ja) * 2012-04-02 2013-10-17 Jvc Kenwood Corp 画像処理装置、画像処理方法、及びプログラム
JPWO2021117233A1 (ja) * 2019-12-13 2021-06-17
WO2021117233A1 (ja) * 2019-12-13 2021-06-17 三菱電機株式会社 動画分離装置、プログラム及び動画分離方法
JP7003342B2 (ja) 2019-12-13 2022-02-10 三菱電機株式会社 動画分離装置、プログラム及び動画分離方法

Also Published As

Publication number Publication date
US7463788B2 (en) 2008-12-09
US20100226591A1 (en) 2010-09-09
US20090074325A1 (en) 2009-03-19
US7751649B2 (en) 2010-07-06
JP4307910B2 (ja) 2009-08-05
US20040175035A1 (en) 2004-09-09
US8050457B2 (en) 2011-11-01

Similar Documents

Publication Publication Date Title
JP4307910B2 (ja) 動画像切り出し装置および方法並びにプログラム
JP5113841B2 (ja) 内視鏡からの映像を用いるコンピュータ支援解析
JP5397481B2 (ja) 画像選別装置及び画像選別方法
JP2009031939A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
CN108965647B (zh) 一种前景图像获得方法及装置
CN109658447B (zh) 基于边缘细节保持的夜间图像去雾方法
CN108961299B (zh) 一种前景图像获得方法及装置
JP6932402B2 (ja) スマートホームシーン向けのマルチジェスチャー精分割方法
CN116012232A (zh) 图像处理方法、装置及存储介质、电子设备
JP4780564B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
CN110705492A (zh) 一种舞台移动机器人障碍目标检测方法
RU2542876C2 (ru) Устройство выделения высокодетализированных объектов на изображении сцены
CN108961258B (zh) 一种前景图像获得方法及装置
CN115965603A (zh) 内窥镜图像的图像处理方法、装置、终端及可读存储介质
JP2004295416A (ja) 画像処理装置
JPH10214328A (ja) 画像情報解析装置及び画像情報解析プログラムを有する記憶媒体
JPH0729007A (ja) 映像特徴処理方法
JP2004145592A (ja) 移動ベクトル抽出装置及び方法及びプログラム及びその記録媒体
CN113221909B (zh) 图像处理方法、装置及计算机可读存储介质
Vincent et al. Shadow detection: A review of various approaches to enhance image quality
CN113888657B (zh) 一种屏幕颜色采集方法、装置、摄像设备以及存储介质
CN108961248A (zh) 一种应用于包含复杂信息的机箱表面划痕检测方法
Sathyabhama et al. Shadow based Time Prediction in Video Sequences using Hough Transform
Ghewari et al. Analysis of model based shadow detection and removal in color images
JP2002208013A (ja) 画像領域抽出装置及び画像領域抽出方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060303

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20061205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090327

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090428

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090430

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120515

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130515

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140515

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees