JP2009217425A - 情報処理装置および方法、並びにプログラム - Google Patents

情報処理装置および方法、並びにプログラム Download PDF

Info

Publication number
JP2009217425A
JP2009217425A JP2008059044A JP2008059044A JP2009217425A JP 2009217425 A JP2009217425 A JP 2009217425A JP 2008059044 A JP2008059044 A JP 2008059044A JP 2008059044 A JP2008059044 A JP 2008059044A JP 2009217425 A JP2009217425 A JP 2009217425A
Authority
JP
Japan
Prior art keywords
image
tracking point
tracking
field
processed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008059044A
Other languages
English (en)
Other versions
JP4513035B2 (ja
Inventor
Tetsujiro Kondo
哲二郎 近藤
Kenji Takahashi
健治 高橋
Tomoyuki Otsuki
知之 大月
Kunio Kawaguchi
邦雄 川口
Koichi Fujishima
幸一 藤島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2008059044A priority Critical patent/JP4513035B2/ja
Priority to US12/398,688 priority patent/US8340350B2/en
Priority to CN2009101265032A priority patent/CN101533516B/zh
Publication of JP2009217425A publication Critical patent/JP2009217425A/ja
Application granted granted Critical
Publication of JP4513035B2 publication Critical patent/JP4513035B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/223Analysis of motion using block-matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Television Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

【課題】動画像内の追尾対象をより正確に追尾することができるようにする。
【解決手段】不連続性検出部103は、入力された動画像の時間的に連続するフィールドの各画像が時間的に不連続であるか否かを判定する。補間処理部131は、入力された動画像が時間的に不連続な画像を含まないと判定された場合、前第1フィールドおよび現第1フィールドにおける追尾点の位置の中間点を、現第2フィールドの追尾点の位置として特定する。また、入力された動画像が時間的に不連続な画像を含むと判定された場合、補間処理部131は、前第1フィールドと現第1フィールドのうち、現第2フィールドと同じ時刻の画像のフィールドの追尾点の位置を、現第2フィールドの追尾点の位置とする。本発明は、例えば、追尾処理装置に適用することができる。
【選択図】図6

Description

本発明は、情報処理装置および方法、並びにプログラムに関し、特に、動画像内の追尾対象をより正確に追尾することができるようにした情報処理装置および方法、並びにプログラムに関する。
従来、画像の内容を解析し、その検出結果を画像処理等に利用することが考えられている。例えば、ビデオカメラによる撮影画像のような動画像において、各フレーム画像の中で所望の部分を追尾点として特定し、その追尾点を追尾するように、画像を拡大したり、ビデオカメラ動作を制御したりすることが考えられている(例えば、特許文献1参照)。
動画像中に含まれるユーザが指定した対象を追尾する手法は、様々な方法が提案されている。例えば、ブロックマッチング処理により追尾する方法がある。
ブロックマッチングは、現在のフィールド(またはフレーム)画像と、1フィールド(または1フレーム)隣の画像を用い、それらブロックの差分値(評価値)から動きベクトルを求める手法として知られている。さらに追尾を実現するには、最初にユーザが指示した位置を起点として、フィールド(またはフレーム)毎に算出される動きベクトルを積算している。
図1は、このような追尾処理を、インタレース方式の動画像に対して行う場合の様子を模式的に示したものである。図1に示されるように、この動画像においてフレーム画像であるフレーム11は、第1フィールド11−1および第2フィールド11−2の2つのフィールド画像により構成される。同様に、フレーム11に続くフレーム12は、第1フィールド12−1および第2フィールド12−2により構成され、フレーム12に続くフレーム13は、第1フィールド13−1および第2フィールド13−2により構成される。
このような動画像における追尾処理のブロックマッチングは、一般的に、連続するフィールド間(例えば、第1フィールド11−1と第2フィールド11−2)で行われるのではなく、隣り合うフレームの同一フィールド同士(例えば、第1フィールド11−1と第1フィールド12−1)で行われる。さらに、処理コスト削減等のために、各フレームのいずれか一方のフィールドのみブロックマッチングが行われ、他方のフィールドについては、前後に隣接するフィールドの値を用いて補間する(例えば前後のフィールドの平均値を適用する)ようになされている。つまり、第1フィールドまたは第2フィールドのいずれか一方が、ブロックマッチングするフィールドとして予め設定され、そのフィールドについては、連続するフレーム間の同一フィールド同士でブロックマッチングが行われ、その結果を用いて動きベクトルが算出されるが、他方のフィールドについては、時間的に前後に隣接するフィールドにおいて求められた動きベクトルの平均値等が補間されるようになされている。
例えば、あるフレームの第1フィールドにおける追尾点の位置をP(t−1)、ブロックマッチングによって算出された動きをVとすると、そのフレームの第2フィールドでの位置P'(t−1)および次のフレームの第1フィールドでの位置P(t)は、次の式(1)および式(2)のようになる。
P(t)=P(t−1)+V ・・・(1)
P’(t−1)=P(t−1)+V/2
={P(t−1)+P(t)}/2 ・・・(2)
なお、一般的には、プログレッシブ方式の動画像の場合も同様に、ブロックマッチングは1フレーム飛ばしで行われる場合が多い。
ところで、例えば映画のような、24フレーム毎秒のプログレッシブ方式の動画像(以下、24p画像と称する)を、例えばテレビジョン放送などで利用される60フィールド毎秒のインタレース方式の動画像(以下、60i画像と称する)に変換することは、1枚のフレーム画像を2枚のフィールド画像または3枚のフィールド画像に分割することから、一般に2−3プルダウンと呼ばれている。
図2に2−3プルダウンの様子の例を示す。図2に示されるように、24p画像のある時刻のフレーム画像であるフレーム21は、2つのフィールド画像にフィールド分割され、第1フィールドが60i画像のフレーム31の第1フィールド31−1とされ、第2フィールドが第2フィールド31−2とされる。また、フレーム21の次のフレーム22は、同様に2つのフィールド画像にフィールド分割され、第1フィールドが60i画像の、フレーム31の次のフレーム32の第1フィールド32−1と、フレーム32の次のフレーム33の第1フィールド33−1とされ、第2フィールドがフレーム32の第2フィールド32−2とされる。
さらに、フレーム22の次のフレーム23は、同様に2つのフィールド画像にフィールド分割され、第1フィールドが60i画像の、フレーム33の次のフレーム34の第1フィールド34−1とされ、第2フィールドがフレーム33の第2フィールド33−2とされる。また、フレーム23の次のフレーム24は、同様に2つのフィールド画像にフィールド分割され、第1フィールドがフレーム34の次のフレーム35の第1フィールド35−1とされ、第2フィールドが60i画像の、フレーム34の第2フィールド34−2と、フレーム35の第2フィールド35−2とされる。
以上のように、2−3プルダウンにより、24p画像の各フレーム画像は、60i画像の2フィールドまたは3フィールドに変換される。
同様に、30フレーム毎秒のプログレッシブ方式の動画像(以下、30p画像と称する)を、60i画像に変換することは、1枚のフレーム画像を2枚のフィールド画像に分割することから、一般に2−2プルダウンと呼ばれている。
図3は、2−2プルダウンの様子の例を示す図である。図3に示されるように、30p画像のある時刻のフレーム画像であるフレーム41は、2つのフィールド画像にフィールド分割され、それぞれ60i画像のフレーム51の第1フィールド51−1、第2フィールド51−2とされる。同様に、30p画像のフレーム41に続くフレーム42、フレーム43、およびフレーム44も、それぞれフィールド分割され、60i画像のフレーム52の第1フィールド画像52−1および第2フィールド画像52−2、フレーム53の第1フィールド画像53−1および第2フィールド画像53−2、並びに、フレーム54の第1フィールド画像54−1および第2フィールド画像54−2に変換される。
このような変換処理は他にも様々なものがあり、例えば、フィールド分割せずに、2−3または2−2と並べて60フレーム毎秒のプログレッシブ方式の動画像(以下、60p画像と称する)に変換するものもある。
いずれの変換の場合も、生成された動画像の各フィールド画像(またはフレーム画像)は、元の動画像の時間的に連続するフレーム画像を、(フィールド分割して)並び替えたものであり、時間的に不連続なものとなっている。
例えば、図1の例において、第1フィールド11−1と第2フィールド11−2の画像は互いに異なる時刻の画像であるが、図2の第1フィールド31−1と第2フィールド31−2は、同一のフレーム画像21より生成されているので、互いに同時刻の画像である。このように、プルダウンにより生成された動画像において、連続するフィールド画像(またはフレーム画像)は、必ずしも時間的に連続していない。
特開2005−303983号公報
しかしながら、このような時間的に不連続な画像についてブロックマッチングを行う場合、補間処理による追尾結果が本来の追尾対象よりずれてしまう恐れがあった。
図4は、2−3プルダウンにより生成された画像において追尾処理を行う場合について説明する図である。図4は、中央付近の点線を挟んで上段と下段に分けられ、上段の左側から右側、下段の左側から右側に進む順を時系列としている。上段および下段のそれぞれの上側に示されるフレーム61乃至フレーム65が2−3プルダウン前の時間的に連続するフレーム画像(例えば24p画像)を示している。例えば、フレーム61が時刻tのフレーム画像であり、同様に、フレーム62が時刻(t+1)のフレーム画像であり、フレーム65が時刻(t+4)のフレーム画像である。
上段および下段のそれぞれの下側に示されるフィールド71−1乃至フィールド76−1が2−3プルダウン後の時間的に連続するフィールド画像(例えば60i画像)を示している。矢印は、2−3プルダウンによるフレームとフィールドの相対関係を示している。例えば、60i画像のフレーム71の第1フィールドであるフィールド71−1と、フレーム71の第2フィールドであるフィールド71−2は、24p画像のフレーム61が変換されて生成されたものである。
同様に、60i画像のフレーム72の第1フィールドであるフィールド72−1、フレーム72の第2フィールドであるフィールド72−2、およびフレーム73の第1フィールドであるフィールド73−1は、24p画像のフレーム62が変換されて生成されたものである。また、60i画像のフレーム73の第2フィールドであるフィールド73−2と、フレーム74の第1フィールドであるフィールド74−1は、24p画像のフレーム63が変換されて生成されたものである。さらに、60i画像のフレーム74の第2フィールドであるフィールド74−2、フレーム75の第1フィールドであるフィールド75−1、およびフレーム75の第2フィールドであるフィールド75−2は、24p画像のフレーム64が変換されて生成されたものである。そして60i画像のフレーム76の第1フィールドであるフィールド76−1は、24p画像のフレーム65が変換されて生成されたものである。
各フレームおよびフィールドに示される星型の画像である追尾対象81は、追尾処理により追尾する画像である。P(t)は、フレーム61における(時刻tにおける)追尾対象の位置を示しており、P(t+1)は、フレーム62における(時刻t+1における)追尾対象の位置を示しており、P(t+2)は、フレーム63における(時刻t+2における)追尾対象の位置を示しており、P(t+3)は、フレーム64における(時刻t+3における)追尾対象の位置を示しており、P(t+4)は、フレーム65における(時刻t+4における)追尾対象の位置を示している。
また、フィールド71−1乃至フィールド76−1に黒丸で示される追尾点82は、追尾処理の処理結果(その時点における追尾先)を示している。なお、ここでは、各フレームの第1フィールドについてブロックマッチングを用いて追尾を行い、第2フィールドについては、前後に連続する第1フィールドの追尾点の平均値を用いて補間することにより追尾を行うものとする。
このような図4の例において、各フレームの第1フィールドであるフィールド71−1、フィールド72−1、フィールド73−1、フィールド74−1、フィールド75−1、およびフィールド76−1においては、ブロックマッチングにより追尾先が求められるため、追尾対象81と追尾点82の位置は基本的に一致する。
これに対して第2フィールドの追尾点82は、補間処理により求められている。従って、例えば、フィールド71−2において、追尾対象81の位置は、フィールド71−1と同様にP(t)であるにも関わらず、追尾点82の位置は、フィールド71−1における追尾点82の位置P(t)と、フィールド72−1における追尾点82の位置P(t+1)の平均値、すなわち、{P(t)+P(t+1)}/2になる。従って、図4に示されるように、フィールド71−2においては、追尾点82の位置が追尾対象81からずれてしまっている。同様の原理から、フィールド73−2、フィールド74−2、およびフィールド75−2においては、追尾点82と追尾対象81の位置にずれが生じてしまう。
以上のように、連続するフィールドまたはフレームが、時間的に不連続な画像により構成される動画像においては、追尾処理の精度が低下する恐れがあった。
例えば、図5に示されるように、図4の各フィールドにおいて、求められた追尾点82を中心とする部分画像を拡大して表示するような場合、その追尾点82を中心点とする拡大画像において、追尾対象81の位置がフィールド毎に変化し、安定的に定まらない恐れがあった。
図5に示される拡大画像91−1は、図4のフィールド71−1より、追尾点82を中心とする所定の範囲の領域を抽出し、拡大したものである。同様に、拡大画像91−2は、図4のフィールド71−2より、追尾点82を中心とする所定の範囲の領域を抽出し、拡大したものである。拡大画像92−1乃至拡大画像96−1も同様に、それぞれ、図4のフィールド72−1乃至フィールド76−1より抽出し、拡大したものである。つまり、図5において、拡大画像91−1、拡大画像91−2、拡大画像92−1、拡大画像92−2、拡大画像93−1、拡大画像93−2、拡大画像94−1、拡大画像94−2、拡大画像95−1、拡大画像95−2、および拡大画像96−1は、この順に連続するフィールド画像である。
このような各画像よりなる動画像を実時間で見ると、上述したような追尾対象81と追尾点82の位置のずれにより、追尾対象81の位置が細かく振動して見え、ユーザにとって不快な画像となる恐れがあった。
本発明はこのような問題を解決するためのものであり、時間的に連続するフィールド画像またはフレーム画像の内容が時間的に不連続である動画像の場合においても、追尾対象をより正確に追尾することができるようにするものである。
本発明の一側面は、時間的に連続する複数の画像の内容が時間的に不連続である動画像において、追尾対象である追尾点の画像を追尾する情報処理装置であって、前記動画像の一部の画像について、処理対象の画像と、前記処理対象の画像より時間的に前の画像とを比較するブロックマッチングを行い、前記処理対象の画像における前記追尾点の位置を特定するブロックマッチング手段と、前記ブロックマッチング手段により前記ブロックマッチングが行われない画像について、前記動画像において処理対象の画像の前または後の画像であって、内容が前記処理対象の画像と同時刻の画像における前記追尾点の位置を、前記処理対象の画像における前記追尾点の位置とする補間処理を行う補間手段と、前記ブロックマッチング手段または前記補間手段により特定された前記処理対象の画像における前記追尾点の位置に基づいて、前記処理対象の画像より時間的に前の画像から前記処理対象の画像への前記追尾点の動きベクトルを求める動きベクトル算出手段とを備える情報処理装置である。
前記動画像は、1枚のフレーム画像を2枚のフィールド画像または3枚のフィールド画像に分割する2−3プルダウン変換された動画像であることができる。
前記動画像は、1枚のフレーム画像を2枚のフィールド画像に分割する2−2プルダウン変換された動画像であることができる。
前記動きベクトル算出手段は、前記補間手段により特定された処理対象の画像における前記追尾点の位置に基づいて、前記処理対象の画像より時間的に前の画像から前記処理対象の画像への前記追尾点の動きベクトルを求める第1の動きベクトル算出手段と、前記ブロックマッチング手段により特定された処理対象の画像における前記追尾点の位置、および、前記補間手段により特定された前記処理対象の画像より前の画像における前記追尾点の位置に基づいて、前記前の画像から前記処理対象の画像への前記追尾点の動きベクトルを求める第2の動きベクトル算出手段とを備えることができる。
前記動きベクトル算出手段により算出された前記動きベクトルを積算する動きベクトル積算手段をさらに備えることができる。
前記動きベクトル積算手段により算出された前記動きベクトルの積算結果を、前記ブロックマッチング手段、前記補間手段、および前記動きベクトル算出手段に供給し、それぞれの前記追尾点の位置に関する設定を更新させる設定制御手段をさらに備えることができる。
本発明の一側面は、また、時間的に連続する複数の画像の内容が時間的に不連続である動画像において、追尾対象である追尾点の画像を追尾する情報処理装置の情報処理方法であって、前記動画像の一部の画像について、処理対象の画像と、前記処理対象の画像より時間的に前の画像とを比較するブロックマッチングを行い、前記処理対象の画像における前記追尾点の位置を特定し、前記ブロックマッチングが行われない画像について、前記動画像において処理対象の画像の前または後の画像であって、内容が前記処理対象の画像と同時刻の画像における前記追尾点の位置を、前記処理対象の画像における前記追尾点の位置とする補間処理を行い、特定された前記処理対象の画像における前記追尾点の位置に基づいて、前記処理対象の画像より時間的に前の画像から前記処理対象の画像への前記追尾点の動きベクトルを求めるステップを含む情報処理方法である。
本発明の一側面は、さらに、時間的に連続する複数の画像の内容が時間的に不連続である動画像において、追尾対象である追尾点の画像を追尾するプログラムにおいて、前記動画像の一部の画像について、処理対象の画像と、前記処理対象の画像より時間的に前の画像とを比較するブロックマッチングを行い、前記処理対象の画像における前記追尾点の位置を特定するブロックマッチングステップと、前記ブロックマッチングステップの処理により前記ブロックマッチングが行われない画像について、前記動画像において処理対象の画像の前または後の画像であって、内容が前記処理対象の画像と同時刻の画像における前記追尾点の位置を、前記処理対象の画像における前記追尾点の位置とする補間処理を行う補間ステップと、前記ブロックマッチングステップの処理、または、前記補間ステップの処理により特定された前記処理対象の画像における前記追尾点の位置に基づいて、前記処理対象の画像より時間的に前の画像から前記処理対象の画像への前記追尾点の動きベクトルを求める動きベクトル算出ステップとをコンピュータに実行させるプログラムである。
本発明の他の側面は、動画像において、追尾対象である追尾点の画像を追尾する情報処理装置であって、前記動画像の一部の画像について、処理対象の画像と、前記処理対象の画像より時間的に前の画像とを比較するブロックマッチングを行い、前記処理対象の画像における前記追尾点の位置を特定するブロックマッチング手段と、前記動画像の時間的に連続する複数の画像の内容について、時間的な不連続性を検出する不連続性検出手段と、前記不連続性検出手段により時間的な不連続性が検出された場合、前記ブロックマッチング手段により前記ブロックマッチングが行われない画像について、前記動画像において処理対象の画像の前または後の画像であって、内容が前記処理対象の画像と同時刻の画像における前記追尾点の位置を、前記処理対象の画像における前記追尾点の位置とし、前記不連続性検出手段により時間的な不連続性が検出されなかった場合、前記ブロックマッチング手段により前記ブロックマッチングが行われない画像について、前記動画像において処理対象の画像の前の画像における前記追尾点の位置と、前記動画像において処理対象の画像の後の画像における前記追尾点の位置との中間点を、前記処理対象の画像における前記追尾点の位置とする補間処理を行う補間手段と、前記ブロックマッチング手段または前記補間手段により特定された前記処理対象の画像における前記追尾点の位置に基づいて、前記処理対象の画像より時間的に前の画像から前記処理対象の画像への前記追尾点の動きベクトルを求める動きベクトル算出手段とを備える情報処理装置である。
前記不連続性検出手段により時間的な不連続性が検出された動画像は、1枚のフレーム画像を2枚のフィールド画像または3枚のフィールド画像に分割する2−3プルダウン変換された動画像であることができる。
前記不連続性検出手段により時間的な不連続性が検出された動画像は、1枚のフレーム画像を2枚のフィールド画像に分割する2−2プルダウン変換された動画像であることができる。
前記動きベクトル算出手段は、前記補間手段により特定された処理対象の画像における前記追尾点の位置に基づいて、前記処理対象の画像より時間的に前の画像から前記処理対象の画像への前記追尾点の動きベクトルを求める第1の動きベクトル算出手段と、前記ブロックマッチング手段により特定された処理対象の画像における前記追尾点の位置、および、前記補間手段により特定された前記処理対象の画像より前の画像における前記追尾点の位置に基づいて、前記前の画像から前記処理対象の画像への前記追尾点の動きベクトルを求める第2の動きベクトル算出手段とを備えることができる。
前記動きベクトル算出手段により算出された前記動きベクトルを積算する動きベクトル積算手段をさらに備えることができる。
前記動きベクトル積算手段により算出された前記動きベクトルの積算結果を、前記ブロックマッチング手段、前記補間手段、および前記動きベクトル算出手段に供給し、それぞれの前記追尾点の位置に関する設定を更新させる設定制御手段をさらに備えることができる。
本発明の他の側面は、また、動画像において、追尾対象である追尾点の画像を追尾する情報処理装置の情報処理方法であって、前記動画像の一部の画像について、処理対象の画像と、前記処理対象の画像より時間的に前の画像とを比較するブロックマッチングを行い、前記処理対象の画像における前記追尾点の位置を特定し、前記動画像の時間的に連続する複数の画像の内容について、時間的な不連続性を検出し、時間的な不連続性が検出された場合、前記ブロックマッチングが行われない画像について、前記動画像において処理対象の画像の前または後の画像であって、内容が前記処理対象の画像と同時刻の画像における前記追尾点の位置を、前記処理対象の画像における前記追尾点の位置とし、時間的な不連続性が検出されなかった場合、前記ブロックマッチングが行われない画像について、前記動画像において処理対象の画像の前の画像における前記追尾点の位置と、前記動画像において処理対象の画像の後の画像における前記追尾点の位置との中間点を、前記処理対象の画像における前記追尾点の位置とする補間処理を行い、特定された前記処理対象の画像における前記追尾点の位置に基づいて、前記処理対象の画像より時間的に前の画像から前記処理対象の画像への前記追尾点の動きベクトルを求めるステップを含む情報処理方法である。
本発明の他の側面は、さらに、動画像において、追尾対象である追尾点の画像を追尾するプログラムにおいて、前記動画像の一部の画像について、処理対象の画像と、前記処理対象の画像より時間的に前の画像とを比較するブロックマッチングを行い、前記処理対象の画像における前記追尾点の位置を特定するブロックマッチングステップと、前記動画像の時間的に連続する複数の画像の内容について、時間的な不連続性を検出する不連続性検出ステップと、前記不連続性検出ステップの処理により時間的な不連続性が検出された場合、前記ブロックマッチングステップの処理により前記ブロックマッチングが行われない画像について、前記動画像において処理対象の画像の前または後の画像であって、内容が前記処理対象の画像と同時刻の画像における前記追尾点の位置を、前記処理対象の画像における前記追尾点の位置とし、前記不連続性検出ステップの処理により時間的な不連続性が検出されなかった場合、前記ブロックマッチングステップの処理により前記ブロックマッチングが行われない画像について、前記動画像において処理対象の画像の前の画像における前記追尾点の位置と、前記動画像において処理対象の画像の後の画像における前記追尾点の位置との中間点を、前記処理対象の画像における前記追尾点の位置とする補間処理を行う補間ステップと、前記ブロックマッチングステップの処理、または、前記補間ステップの処理により特定された前記処理対象の画像における前記追尾点の位置に基づいて、前記処理対象の画像より時間的に前の画像から前記処理対象の画像への前記追尾点の動きベクトルを求める動きベクトル算出ステップとをコンピュータに実行させるプログラムである。
本発明の一側面においては、時間的に連続する複数の画像の内容が時間的に不連続である動画像の一部の画像について、処理対象の画像と、処理対象の画像より時間的に前の画像とを比較するブロックマッチングが行われ、処理対象の画像における追尾点の位置が特定され、ブロックマッチングが行われない画像について、動画像において処理対象の画像の前または後の画像であって、内容が処理対象の画像と同時刻の画像における追尾点の位置が、処理対象の画像における追尾点の位置とされ、特定された処理対象の画像における追尾点の位置に基づいて、処理対象の画像より時間的に前の画像から処理対象の画像への追尾点の動きベクトルが求められる。
本発明の他の側面においては、動画像の一部の画像について、処理対象の画像と、処理対象の画像より時間的に前の画像とを比較するブロックマッチングが行われ、処理対象の画像における追尾点の位置が特定され、動画像の時間的に連続する複数の画像の内容について、時間的な不連続性が検出され、時間的な不連続性が検出された場合、ブロックマッチングが行われない画像について、動画像において処理対象の画像の前または後の画像であって、内容が処理対象の画像と同時刻の画像における追尾点の位置が、処理対象の画像における追尾点の位置とされ、時間的な不連続性が検出されなかった場合、ブロックマッチングが行われない画像について、動画像において処理対象の画像の前の画像における追尾点の位置と、動画像において処理対象の画像の後の画像における追尾点の位置との中間点が、処理対象の画像における追尾点の位置とされる補間処理が行われ、特定された処理対象の画像における追尾点の位置に基づいて、処理対象の画像より時間的に前の画像から処理対象の画像への追尾点の動きベクトルが求められる。
本発明によれば、情報を処理することができる。特に、時間的に連続するフィールド画像またはフレーム画像の内容が時間的に不連続である動画像の場合においても、追尾対象をより正確に追尾することができる。
図6は、本発明を適用した追尾処理装置の主な構成例を示すブロック図である。図6に示される追尾処理装置100は、入力された動画像データの画像内に含まれる追尾対象をフィールド(またはフレーム)毎に追尾し、その動きベクトルを求め、追尾結果として出力する装置である。
なお、以下において、説明の便宜上、処理対象の動画像はインタレース方式であり、追尾処理装置100には、フィールド単位で入力され、フィールド毎に処理されるものとする。もちろん、入力画像をプログレッシブ方式とし、フレーム単位で追尾処理装置100に入力され、処理されるようにしてもよい。その場合も、以下に説明する各処理は、フィールドをフレームに置き換えるだけ(以下の説明におけるフレームは、時間的に連続する2フレームということになる)で、基本的にインタレース方式の場合と同様に行われる、したがって、以下の説明は、特に、インタレース方式の動画像とプログレッシブ方式の動画像とで分けて説明しない限り、プログレッシブ方式の動画像を処理する場合についても適用可能であるものとする。
追尾処理装置100は、第1フィールドの画像が入力される度に、追尾処理を行う。つまり、ある第1フレームの第2フィールドと、その次の第2フレームの第1フィールドが入力されると、追尾処理装置100は、追尾処理を行う。そして、第2フレームの第2フィールドが入力され、さらに、第3フレームの第1フィールドが入力されると、次の追尾処理が開始される。
このような追尾処理において、今回入力される第1フィールドを現第1フィールドと称し、今回入力される第2フィールドを現第2フィールドと称する。つまり、現第2フィールドは、現第1フィールドのフレームの時間的に1つ前のフレームの画像である。また、現第2フィールドと同じフレームの第1フィールド(既に入力されている第1フィールド)を前第1フィールドと称する。
また、画像内に含まれる追尾対象を追尾点とし、その追尾点を含む所定の領域を追尾ブロックとする。このブロックは、フィールド画像の一部の領域を構成する部分画像である。このブロックの画像サイズおよび形状は、予め定められていればどのようなサイズおよび形状であってもよいが、例えば32画素×32画素のような矩形の領域である場合が多い。
また、以下においては、第1フィールドの追尾処理は、ブロックマッチングにより行われ、第2にフィールドの追尾処理は、補間処理により行われるものとして説明する。もちろん、第2フィールドの追尾処理をブロックマッチングにより行い、第1フィールドの追尾処理を補間処理により行うようにしてもよい。
ここで、ブロックマッチングの手法は一般的に多数存在するが、追尾点の位置の動きベクトルを求めることができるものであれば基本的にどれを用いてもよいが、以下においては、前第1フィールドの注目ブロックと現第1フィールドの比較対象ブロックを比較し、互いの画像の類似度を求め、注目ブロックに最も類似する比較対象ブロックを求める処理をブロックマッチングと称する。
なお、このブロックマッチングにおいて、注目ブロックは比較元のブロックのことを示し、比較対象ブロックは、比較先のブロック(注目ブロックに対する類似度が算出されるブロック)を示す。また、ブロックには、基準となる点(基準点)が1つ設定される。ブロックとその基準点の位置関係は予め定められており、どのブロックにおいても共通とされる。以下において、注目ブロックの基準点を注目点と称し、比較対象ブロックの基準点を比較点とする。また、以下においては、基準点は、対応するブロックの中心点であるものとする。
図6に示されるように、追尾処理装置100は、画像保持部101、第1フィールド追尾処理部102、不連続性検出部103、第2フィールド追尾処理部104、動きベクトル積算部105、および設定制御部106を有する。
画像保持部101は、例えば半導体メモリ等の記憶媒体により構成され、追尾処理装置100に入力される入力動画像の各フィールド画像を必要数分保持する。
第1フィールド追尾処理部102は、第1フィールドにおいて追尾点の位置を特定する追尾処理を行う。第1フィールド追尾処理部102は、前第1フィールドと現第1フィールドの画像を取得し、ブロックマッチングを行う。
つまり、第1フィールド追尾処理部102は、ブロックマッチングにより、既に求められている前第1フィールドにおける追尾ブロックに対する類似度が最も高い比較対象ブロックを現第1フィールドにおいて特定し、その比較対象ブロックの比較点を、現第1フィールドにおける追尾点として特定し、さらに、現第2フィールドにおいて追尾点が特定された後、現第2フィールドと現第1フィールドとの間の、追尾点の位置の動きを表す動きベクトルを求める。第1フィールド追尾処理部102は、求めた動きベクトルを動きベクトル積算部105に供給する。
このような第1フィールド追尾処理部102は、図1に示されるように、ブロックマッチング部111および動きベクトル算出部112を有する。
ブロックマッチング部111は、画像保持部101より前第1フィールドおよび現第1フィールドの画像をそれぞれ取得し、設定制御部106より供給された追尾結果に関する情報に基づいて、前第1フィールドにおける追尾ブロックを注目ブロックとして(追尾点を注目点として)入力された動画像の一部の画像(第1フィールド)について、処理対象の画像(現第1フィールド)と、処理対象の画像より時間的に前の画像(前第1フィールド)とを比較するブロックマッチングを行う。
一般に、ブロックマッチング処理は画像処理において広く利用される技術であるので、例えば、装置内の他の画像処理においてブロックマッチング処理が行われているような場合、そのアルゴリズムを流用することもできる。なお、例えば、他の装置や他の処理部において行われる処理において、同様のブロックマッチング処理が行われる場合、ブロックマッチング部111が、その処理結果を利用することも可能である。
ブロックマッチング部111は、注目点に最もマッチした比較点(比較対象ブロック)についての情報(現第1フィールドにおける追尾点の位置情報)を動きベクトル算出部112および第2フィールド追尾処理部104に供給する。
動きベクトル算出部112は、第2フィールド追尾処理部104の動きベクトル算出部132により、前第1フィールドから現第2フィールドへの追尾点の動きベクトルが求められた後で、その動きベクトル算出部132より、前第1フィールドから現第2フィールドへの追尾点の動きベクトルを取得し、ブロックマッチング処理部111より供給された、現第1フィールドの比較点(比較対象ブロック)の情報を用いて、現第2フィールドから現第1フィールドへの追尾点の動きベクトルを算出し、その動きベクトルの情報を動きベクトル積算部105に供給する。
不連続性検出部103は、画像保持部101より連続する複数のフィールド画像を取得すると、それらに基づいて、例えば特開2007−82040号公報に記載されている方法を用い、入力された動画像の時間的に連続するフィールドの各画像が時間的に不連続であるか否かを判定し、動画像の時間的に連続する複数の画像の内容について、時間的な不連続性を検出する。不連続性検出部103は、評価値特徴量算出部121および状態推定部122を有する。
評価値特徴量算出部121は、入力された動画像の時間的に連続する複数のフィールドの画像の時間的な連続性の判定に関する情報、例えば、評価値、閾値、および特徴量等の所定の情報を求め、それらの情報を状態推定部122に供給する。
状態推定部122は、評価値特徴量算出部121より供給された情報に基づいて、入力された動画像が時間的に不連続な画像を含むか否か、入力された動画像が変換されたものであるか否か、どの様な変換が行われたか、および、現第2フィールドがその変換パターンにおけるどの状態(フィールド)にあたるかを推定する。例えば、状態推定部122は、評価値特徴量算出部121より供給された情報に基づいて、入力された動画像が、時間的に不連続な画像を含み、24p画像を2−3プルダウンして得られた60i画像であり、現第2フィールドが、図2に示される2−3プルダウンの変換パターンの第2フィールド33−2に該当するということを推定する。状態推定部122は、その推定結果を第2フィールド追尾処理部104の補間処理部131に供給する。
第2フィールド追尾処理部104は、状態推定部122より供給された情報に基づいて、周囲のフィールドの動きベクトルを用いた補間処理により現第2フィールドにおける追尾点の動きベクトルを求める。
第2フィールド追尾処理部104は、補間処理部131および動きベクトル算出部132を有する。補間処理部131は、状態推定部122より供給された情報に応じた方法で、時間的に前または後に連続するフィールドの追尾点の位置を参考にして追尾点を決定する。
例えば、入力された動画像が時間的に不連続な画像を含まないと判定された場合(つまり、時間的な不連続性が検出されなかった場合)、補間処理部131は、設定制御部106より供給された追尾ベクトルの積算値の情報(前第1フィールドにおける追尾点の位置情報)、および、ブロックマッチング111より供給された現第1フィールドにおける追尾点の位置情報に基づいて、前第1フィールドおよび現第1フィールドにおける追尾点の位置の中間点を、現第2フィールドの追尾点の位置として特定する。
また、入力された動画像が時間的に不連続な画像を含むと判定された場合(つまり、時間的な不連続性が検出された場合)、補間処理部131は、状態推定部122より供給された、現第2フィールドが変換パターンのどのフィールドにあたるかを示す情報に基づいて、前第1フィールドと現第1フィールドのうち、現第2フィールドと同じ時刻の画像の方を選択し、設定制御部106より供給された前第1フィールドにおける追尾点の位置情報、または、ブロックマッチング部111より供給された現第1フィールドにおける追尾点の位置情報に基づいて、そのフィールドの追尾点の位置を、現第2フィールドの追尾点の位置とする。
動きベクトル算出部132は、設定制御部106より供給された追尾ベクトルの積算値の情報(前第1フィールドにおける追尾点の位置情報)、および、以上のように特定された現第2フィールドの追尾点の位置に基づいて、前第1フィールドから現第2フィールドへの追尾点の動きベクトルを算出する。動きベクトル算出部132は、以上のように算出した動きベクトルを動きベクトル積算部105に供給するとともに、動きベクトル算出部112に供給する。
なお、動きベクトル算出部112は、動きベクトル算出部132の処理結果(動きベクトル)を利用するように説明したが、補間処理部131の処理結果(現第2フィールドの追尾点の位置)を取得し、それを用いて現第2フィールドから現第1フィールドへの追尾点の動きベクトルを算出するようにしてもよい。また、動きベクトル算出部112と動きベクトル132を1つの処理部としてもよい。
動きベクトル積算部105は、第1フィールド追尾処理部102または第2フィールド追尾処理部104よりフィールド毎に供給される動きベクトルを積算(それまでに算出された動きベクトルの積算結果に加算)し、その積算結果を追尾結果として追尾処理装置100の外部に出力するとともに、設定制御部106に供給する。また、動きベクトル積算部105は、その積算結果を次の動きベクトルの積算に利用するために保持する。
設定制御部106は、動きベクトル積算部105より供給される追尾結果に基づいて、追尾点(および追尾ブロック)の位置情報を第1フィールド追尾処理部102および第2フィールド追尾処理部104に供給する。
次に、図7のフローチャートを参照して、図6の追尾処理装置100により実行される追尾処理の流れの例を説明する。
第2フィールド画像と、その次のフレームの第1フィールド画像が入力されると、追尾処理装置100は、追尾処理を開始する。画像保持部101は、ステップS1において、入力されたフィールド画像(入力画像)のデータを保持する。ステップS2において、第1フィールド追尾処理部102のブロックマッチング部111は、ブロックマッチング追尾処理を行う。このブロックマッチング追尾処理の詳細については後述する。
ステップS3において、不連続性検出部103は、追尾処理装置100に入力された入力画像について不連続性の検出を行う。この不連続性検出処理の詳細については後述する。不連続性検出処理が終了すると、第2フィールド追尾処理部104は、ステップS4において、ステップS3の処理により得られた検出結果に応じて、補間処理を行う。この補間処理の詳細については後述する。ステップS4の処理が終了されると、第1フィールド追尾処理部104の動きベクトル算出部112は、ステップS5において、現第2フィールドから現第1フィールドへの追尾点の動きベクトルを求める。
ステップS6において、動きベクトル積算部105は、ステップS4またはステップS5の処理結果として得られた追尾点の動きベクトルを、これまでに得られた追尾点の動きベクトルの積算結果にさらに加算することにより積算する。
ステップS7において、設定制御部106は、追尾結果(ステップS6において算出された動きベクトルの積算結果)を、第1フィールド追尾処理部102および第2フィールド追尾処理部104に供給し、それぞれの追尾点の設定に反映させる。
ステップS7の処理を終了すると、設定制御部106は、追尾処理を終了する。
追尾処理装置100は、第1フィールド画像が入力されるたびに、以上のような追尾処理を繰り返す。
次に、図8のフローチャートを参照して、図7のステップS2において実行されるブロックマッチング追尾処理の流れの詳細な例を説明する。
ブロックマッチング追尾処理が開始されると、ブロックマッチング部111は、ステップS21において、前第1フィールドにおいて追尾点および追尾ブロックを特定する。
ステップS22において、ブロックマッチング部111は、連続するフレーム間で第1フィールド同士(すなわち、前第1フィールドと現第1フィールド)のブロックマッチングを行い、現第1フィールドにおける追尾点を特定する。ブロックマッチング部111は、前第1フィールドと現第1フィールドでブロックマッチングを行うことにより、前第1フィールドの追尾ブロックに対する類似度が最も高い比較対象ブロックを現第1フィールドにおいて特定し、その比較対象ブロックの比較点を現第1フィールドにおける追尾点として特定する。
現第1フィールドにおいて追尾点の位置が特定されると、ブロックマッチング部111は、ブロックマッチング追尾処理を終了させ、処理を図7のステップS2に戻し、ステップS3以降の処理を実行させる。
次に、図9のフローチャートを参照して、図7のステップS3において実行される不連続性検出処理の詳細な流れの例を説明する。
不連続性検出処理が開始されると、評価値特徴量算出部121は、ステップS41において、例えば特開2007−82040号公報に記載されている方法を用い、評価値、閾値、および特徴量等の、不連続性の検出に必要な所定の情報を求める。情報が得られると、状態推定部122は、ステップS42において、ステップS41の処理により得られた情報に基づいて、例えば特開2007−82040号公報に記載されている方法を用い、変換の有無、変換方式、および現在の状態を推定する。
ステップS42の処理を終了すると、状態推定部122は、不連続性検出処理を終了し、処理を図7のステップS3に戻し、ステップS4以降の処理を実行する。
次に、図7のステップS4において実行される補間処理について、図10のフローチャートを参照して説明する。
補間処理が開始されると、第2フィールド追尾処理部104の補間処理部131は、ステップS61において、図9のステップS42において得られた推定結果に基づいて、入力画像のフィールド間に不連続性が検出されたか否かを判定する。不連続性が検出されたと判定した場合、補間処理部131は、処理をステップS62に進め、図9のステップS42において得られた推定結果に基づいて、現第2フィールドの画像の時刻が、前第1フィールドの画像の時刻と一致するか否かを判定する。
前第1フィールドと現第2フィールドの画像が同一のフレーム画像より作成されており、時刻が一致すると判定した場合、補間処理部131は、処理をステップS63に進め、現第2フィールドの追尾点の位置を前第1フィールドと同じ位置に設定する。つまり、この場合、前第1フィールドと現第2フィールドとで追尾点の位置が変化しないので、動きベクトル算出部132は、ステップS64において、前第1フィールドから現第2フィールドへの追尾点の位置の動きベクトルを「0」とし、補間処理を終了し、処理を図7のステップS4に戻し、ステップS5以降の処理を実行させる。
また、ステップS62において、現第2フィールドの画像の時刻が、前第1フィールドの画像の時刻と一致しないと判定された場合、補間処理部131は、処理をステップS65に進める。この場合、現第2フィールドの画像は現第1フィールドの画像と同一のフレーム画像より作成されている。つまり、現第2フィールドの画像の時刻は、現第1フィールドの画像の時刻と一致する。そこで、補間処理部131は、ステップS65において、現第2フィールドの追尾点の位置を現第1フィールドと同じ位置に設定する。この場合、前第1フィールドと現第2フィールドとで追尾点の位置が変化する可能性があるので、動きベクトル算出部132は、ステップS66において、前第1フィールドからの動きベクトルを求める。ちなみに、この場合、図7のステップS5において算出される現第2フィールドから現第1フィールドへの追尾点の位置の動きベクトルは「0」となる。動きベクトルを求めると、動きベクトル算出部132は、補間処理を終了し、処理を図7のステップS4に戻し、ステップS5以降の処理を実行させる。
また、ステップS61において、入力画像のフィールド間に不連続性が検出されなかったと判定した場合、補間処理部131は、処理をステップS67に進め、現第2フィールドの追尾点の位置を、前第1フィールドおよび現第1フィールドのそれぞれにおける追尾点の位置の中間に設定し、処理をステップS66に戻される。ステップS66において、動きベクトル算出部132は、前第1フィールドから現第2フィールドへの追尾点の動きベクトルを求める。
以上のように、ステップS64の処理またはステップS66の処理が行われると、動きベクトル算出部132は、補間処理を終了する。
以上のように、追尾処理装置100は、フィールド画像が連続しない場合、1つ前のフィールドまたは1つ後のフィールドのうち、時刻が同一である方のフィールドを参照して追尾点の位置を決定する。このようにすることにより、追尾処理装置100は、時間的に連続するフィールド画像またはフレーム画像の内容が時間的に不連続である動画像の場合においても、追尾対象をより正確に追尾することができる。
図11および図12を参照して、このような、時間的に連続するフィールドまたはフレームが、時間的に不連続な画像により構成される動画像の場合における追尾の様子の具体的な例を説明する。
図11は、24p画像が2−3プルダウンされて得られた60i画像の場合の例を示している。図11は、図4に対応する図である。
図11は、図4と同様に、中央付近の点線を挟んで上段と下段に分けられ、上段の左側から右側、下段の左側から右側に進む順を時系列としている。上段および下段のそれぞれの上側に示されるフレーム161乃至フレーム165が2−3プルダウン前の時間的に連続するフレーム画像を示している。例えば、フレーム161が時刻tのフレーム画像であり、同様に、フレーム162が時刻(t+1)のフレーム画像であり、フレーム165が時刻(t+4)のフレーム画像である。
上段および下段のそれぞれの下側に示されるフィールド171−1乃至フィールド176−1が2−3プルダウン後の時間的に連続するフィールド画像を示している。矢印は、2−3プルダウンによるフレームとフィールドの相対関係を示している。例えば、60i画像のフレーム171の第1フィールドであるフィールド171−1と、フレーム171の第2フィールドであるフィールド171−2は、24p画像のフレーム161が変換されて生成されたものである。
同様に、60i画像のフレーム172の第1フィールドであるフィールド172−1、フレーム172の第2フィールドであるフィールド172−2、およびフレーム173の第1フィールドであるフィールド173−1は、24p画像のフレーム162が変換されて生成されたものである。また、60i画像のフレーム173の第2フィールドであるフィールド173−2と、フレーム174の第1フィールドであるフィールド174−1は、24p画像のフレーム163が変換されて生成されたものである。さらに、60i画像のフレーム174の第2フィールドであるフィールド174−2、フレーム175の第1フィールドであるフィールド175−1、およびフレーム175の第2フィールドであるフィールド175−2は、24p画像のフレーム164が変換されて生成されたものである。そして60i画像のフレーム176の第1フィールドであるフィールド176−1は、24p画像のフレーム165が変換されて生成されたものである。
各フレームおよびフィールドに示される星型の画像である追尾対象181は、追尾処理により追尾する画像である。P(t)は、フレーム161における(時刻tにおける)追尾対象181の位置を示しており、P(t+1)は、フレーム162における(時刻t+1における)追尾対象181の位置を示しており、P(t+2)は、フレーム163における(時刻t+2における)追尾対象181の位置を示しており、P(t+3)は、フレーム164における(時刻t+3における)追尾対象181の位置を示しており、P(t+4)は、フレーム165における(時刻t+4における)追尾対象181の位置を示している。
また、フィールド171−1乃至フィールド176−1に黒丸で示される追尾点182は、追尾処理の処理結果(その時点における追尾結果)を示している。なお、ここでは、各フレームの第1フィールドについてブロックマッチングを用いて追尾を行い、第2フィールドについては、前後に連続する第1フィールドの追尾点を用いて補間することにより追尾を行うものとする。
このような図11の例において、各フレームの第1フィールドであるフィールド171−1、フィールド172−1、フィールド173−1、フィールド174−1、フィールド175−1、およびフィールド176−1においては、ブロックマッチングにより追尾先が求められるため、追尾対象181と追尾点182の位置は基本的に一致する。
ところが、2−3プルダウンされた図11に示される動画像はフィールドが不連続であるので、上述したような追尾処理により、第2フィールドの、例えばフィールド171−2の追尾点182は、フィールド171−2と同時刻の画像であるフィールド171−1における追尾点182の位置に設定される。
また、同様に、フィールド172−2の追尾点182は、同時刻の画像であるフィールド172−1における追尾点182の位置に設定され、フィールド173−2の追尾点182は、同時刻の画像であるフィールド174−1における追尾点182の位置に設定され、フィールド174−2の追尾点182は、同時刻の画像であるフィールド175−1における追尾点182の位置に設定され、フィールド175−2の追尾点182は、同時刻の画像であるフィールド175−1における追尾点182の位置に設定される。
したがって、第1フィールドだけでなく第2フィールドにおいても、追尾点182の位置が追尾対象181に一致する。
図12は、30p画像が2−2プルダウンされて得られた60i画像の場合の例を示している。図12は、図11に対応する図である。
図12は、図11と同様に、中央付近の点線を挟んで上段と下段に分けられ、上段の左側から右側、下段の左側から右側に進む順を時系列としている。上段および下段のそれぞれの上側に示されるフレーム261乃至フレーム265が2−2プルダウン前の時間的に連続するフレーム画像を示している。例えば、フレーム261が時刻tのフレーム画像であり、同様に、フレーム262が時刻(t+1)のフレーム画像であり、フレーム265が時刻(t+4)のフレーム画像である。
上段および下段のそれぞれの下側に示されるフィールド271−1乃至フィールド275−2が2−2プルダウン後の時間的に連続するフィールド画像を示している。矢印は、2−2プルダウンによるフレームとフィールドの相対関係を示している。例えば、フィールド271−1およびフィールド271−2は、フレーム261が変換されて生成されたものである。
各フレームおよびフィールドに示される星型の画像である追尾対象281は、追尾処理により追尾する画像である。P(t)は、フレーム261における(時刻tにおける)追尾対象281の位置を示しており、P(t+1)は、フレーム262における(時刻t+1における)追尾対象281の位置を示しており、P(t+2)は、フレーム263における(時刻t+2における)追尾対象281の位置を示しており、P(t+3)は、フレーム264における(時刻t+3における)追尾対象281の位置を示しており、P(t+4)は、フレーム265における(時刻t+4における)追尾対象281の位置を示している。
また、フィールド271−1乃至フィールド275−2に黒丸で示される追尾点282は、追尾処理の処理結果(その時点における追尾結果)を示している。なお、ここでは、各フレームの第1フィールドについてブロックマッチングを用いて追尾を行い、第2フィールドについては、前後に連続する第1フィールドの追尾点を用いて補間することにより追尾を行うものとする。
このような図12の例において、各フレームの第1フィールドであるフィールド271−1、フィールド272−1、フィールド273−1、フィールド274−1、およびフィールド275−1においては、ブロックマッチングにより追尾先が求められるため、追尾対象281と追尾点282の位置は基本的に一致する。
ところが、2−2プルダウンされた図12に示される動画像はフィールドが不連続であるので、上述したような追尾処理により、第2フィールドの、例えばフィールド271−2の追尾点182は、フィールド271−2と同時刻の画像であるフィールド271−1における追尾点282の位置に設定される。
また、同様に、フィールド272−2の追尾点282は、同時刻の画像であるフィールド272−1における追尾点282の位置に設定され、フィールド273−2の追尾点282は、同時刻の画像であるフィールド273−1における追尾点282の位置に設定され、フィールド274−2の追尾点282は、同時刻の画像であるフィールド274−1における追尾点282の位置に設定され、フィールド275−2の追尾点282は、同時刻の画像であるフィールド275−1における追尾点282の位置に設定される。
したがって、第1フィールドだけでなく第2フィールドにおいても、追尾点282の位置が追尾対象281に一致する。
以上のように、追尾処理装置100は、プルダウンの方式に関わらず、追尾対象をより正確に追尾することができる。
以上のような、追尾処理装置100を追尾処理部とし、他の処理を行う装置に組み込むようにしてもよい。
図13は、本発明を適用した監視カメラ装置の構成例を示すブロック図である。図13に示される監視カメラ装置300は、所定の部屋や区域等を映像で監視するために用いられる装置であり、撮像画像に対する、上述したような追尾処理結果をカメラの制御処理に利用する装置である。
監視カメラ装置300は、例えばCCDビデオカメラ等よりなる撮像部311により撮像された画像を画像ディスプレイ312に表示させる。ユーザ(監視人)は、その画像ディスプレイ312に表示された画像を閲覧することにより、撮像部311が撮像する空間の様子を把握する(監視する)。
追尾処理部313は、撮像部311により入力された画像に対して、上述したような追尾処理を行い、現画像において所定の追尾対象を検出し、その検出結果をカメラ駆動部314に供給する。カメラ駆動部314は、その追尾対象を追うように撮像部311を駆動し、例えば、ズームやフォーカスの調整を行ったり、チルトやパン等を行ったり、静止画撮影を実行させたりする。
上述したように、追尾処理部313は、時間的に連続するフィールド画像またはフレーム画像の内容が時間的に不連続である動画像の場合においても、追尾対象をより正確に追尾することができ、カメラ駆動部314は、より適切に撮像部311を駆動することができる。つまり、監視カメラ装置300は、より適切な監視行動を行うことができる。
もちろん、本発明を適用した追尾処理部は、不連続性検出結果を利用した処理を行う装置であれば、監視カメラ装置以外のどのような装置にも適用可能である。
上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウエアにより実行させることもできる。この場合、例えば、図14に示されるようなパーソナルコンピュータとして構成されるようにしてもよい。
図14において、パーソナルコンピュータ400のCPU(Central Processing Unit)401は、ROM(Read Only Memory)402に記憶されているプログラム、または記憶部413からRAM(Random Access Memory)403にロードされたプログラムに従って各種の処理を実行する。RAM403にはまた、CPU401が各種の処理を実行する上において必要なデータなども適宜記憶される。
CPU401、ROM402、およびRAM403は、バス404を介して相互に接続されている。このバス404にはまた、入出力インタフェース410も接続されている。
入出力インタフェース410には、キーボード、マウスなどよりなる入力部411、CRT(Cathode Ray Tube)やLCD(Liquid Crystal Display)などよりなるディスプレイ、並びにスピーカなどよりなる出力部412、ハードディスクなどより構成される記憶部413、モデムなどより構成される通信部414が接続されている。通信部414は、インターネットを含むネットワークを介しての通信処理を行う。
入出力インタフェース410にはまた、必要に応じてドライブ415が接続され、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア421が適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じて記憶部413にインストールされる。
上述した一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、ネットワークや記録媒体からインストールされる。
この記録媒体は、例えば、図14に示されるように、装置本体とは別に、ユーザにプログラムを配信するために配布される、プログラムが記録されている磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc - Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini Disc)を含む)、もしくは半導体メモリなどよりなるリムーバブルメディア421により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに配信される、プログラムが記録されているROM402や、記憶部413に含まれるハードディスクなどで構成される。
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、本明細書において、システムとは、複数のデバイス(装置)により構成される装置全体を表すものである。
なお、以上において、1つの装置として説明した構成を分割し、複数の装置として構成するようにしてもよい。逆に、以上において複数の装置として説明した構成をまとめて1つの装置として構成されるようにしてもよい。また、各装置の構成に上述した以外の構成を付加するようにしてももちろんよい。さらに、システム全体としての構成や動作が実質的に同じであれば、ある装置の構成の一部を他の装置の構成に含めるようにしてもよい。つまり、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
インタレース方式の動画像の追尾処理の様子の例を示す図である。 2−3プルダウンの様子の例を示す図である。 2−2プルダウンの様子の例を示す図である。 2−3プルダウンにより生成された動画像の追尾処理の例を示す図である。 図4の例における追尾点を中心とする拡大画像の例を示す図である。 本発明を適用した追尾処理装置の主な構成例を示すブロック図である。 追尾処理の流れの例を説明するフローチャートである。 ブロックマッチング追尾処理の流れの例を説明するフローチャートである。 不連続性検出処理の流れの例を説明するフローチャートである。 補間処理の流れの例を説明するフローチャートである。 24p画像を2−3プルダウンした60i画像の例を示す図である。 30p画像を2−2プルダウンした60i画像の例を示す図である。 本発明を適用した監視カメラ装置の主な構成例を示すブロック図である。 本発明を適用したパーソナルコンピュータの構成例を示すブロック図である。
符号の説明
100 追尾処理装置, 101 画像保持部, 102 第1フィールド追尾処理部, 103 不連続性検出部, 104 第2フィールド追尾処理部, 105 動きベクトル積算部, 106 設定制御部, 111 ブロックマッチング部, 112 動きベクトル算出部, 121 評価値特徴量算出部, 122 状態推定部, 131 補間処理部, 132 動きベクトル算出部

Claims (16)

  1. 時間的に連続する複数の画像の内容が時間的に不連続である動画像において、追尾対象である追尾点の画像を追尾する情報処理装置であって、
    前記動画像の一部の画像について、処理対象の画像と、前記処理対象の画像より時間的に前の画像とを比較するブロックマッチングを行い、前記処理対象の画像における前記追尾点の位置を特定するブロックマッチング手段と、
    前記ブロックマッチング手段により前記ブロックマッチングが行われない画像について、前記動画像において処理対象の画像の前または後の画像であって、内容が前記処理対象の画像と同時刻の画像における前記追尾点の位置を、前記処理対象の画像における前記追尾点の位置とする補間処理を行う補間手段と、
    前記ブロックマッチング手段または前記補間手段により特定された前記処理対象の画像における前記追尾点の位置に基づいて、前記処理対象の画像より時間的に前の画像から前記処理対象の画像への前記追尾点の動きベクトルを求める動きベクトル算出手段と
    を備える情報処理装置。
  2. 前記動画像は、1枚のフレーム画像を2枚のフィールド画像または3枚のフィールド画像に分割する2−3プルダウン変換された動画像である
    請求項1に記載の情報処理装置。
  3. 前記動画像は、1枚のフレーム画像を2枚のフィールド画像に分割する2−2プルダウン変換された動画像である
    請求項1に記載の情報処理装置。
  4. 前記動きベクトル算出手段は、
    前記補間手段により特定された処理対象の画像における前記追尾点の位置に基づいて、前記処理対象の画像より時間的に前の画像から前記処理対象の画像への前記追尾点の動きベクトルを求める第1の動きベクトル算出手段と、
    前記ブロックマッチング手段により特定された処理対象の画像における前記追尾点の位置、および、前記補間手段により特定された前記処理対象の画像より前の画像における前記追尾点の位置に基づいて、前記前の画像から前記処理対象の画像への前記追尾点の動きベクトルを求める第2の動きベクトル算出手段と
    を備える請求項1に記載の情報処理装置。
  5. 前記動きベクトル算出手段により算出された前記動きベクトルを積算する動きベクトル積算手段をさらに備える
    請求項1に記載の情報処理装置。
  6. 前記動きベクトル積算手段により算出された前記動きベクトルの積算結果を、前記ブロックマッチング手段、前記補間手段、および前記動きベクトル算出手段に供給し、それぞれの前記追尾点の位置に関する設定を更新させる設定制御手段をさらに備える
    請求項5に記載の情報処理装置。
  7. 時間的に連続する複数の画像の内容が時間的に不連続である動画像において、追尾対象である追尾点の画像を追尾する情報処理装置の情報処理方法であって、
    前記動画像の一部の画像について、処理対象の画像と、前記処理対象の画像より時間的に前の画像とを比較するブロックマッチングを行い、前記処理対象の画像における前記追尾点の位置を特定し、
    前記ブロックマッチングが行われない画像について、前記動画像において処理対象の画像の前または後の画像であって、内容が前記処理対象の画像と同時刻の画像における前記追尾点の位置を、前記処理対象の画像における前記追尾点の位置とする補間処理を行い、
    特定された前記処理対象の画像における前記追尾点の位置に基づいて、前記処理対象の画像より時間的に前の画像から前記処理対象の画像への前記追尾点の動きベクトルを求める
    ステップを含む情報処理方法。
  8. 時間的に連続する複数の画像の内容が時間的に不連続である動画像において、追尾対象である追尾点の画像を追尾するプログラムにおいて、
    前記動画像の一部の画像について、処理対象の画像と、前記処理対象の画像より時間的に前の画像とを比較するブロックマッチングを行い、前記処理対象の画像における前記追尾点の位置を特定するブロックマッチングステップと、
    前記ブロックマッチングステップの処理により前記ブロックマッチングが行われない画像について、前記動画像において処理対象の画像の前または後の画像であって、内容が前記処理対象の画像と同時刻の画像における前記追尾点の位置を、前記処理対象の画像における前記追尾点の位置とする補間処理を行う補間ステップと、
    前記ブロックマッチングステップの処理、または、前記補間ステップの処理により特定された前記処理対象の画像における前記追尾点の位置に基づいて、前記処理対象の画像より時間的に前の画像から前記処理対象の画像への前記追尾点の動きベクトルを求める動きベクトル算出ステップと
    をコンピュータに実行させるプログラム。
  9. 動画像において、追尾対象である追尾点の画像を追尾する情報処理装置であって、
    前記動画像の一部の画像について、処理対象の画像と、前記処理対象の画像より時間的に前の画像とを比較するブロックマッチングを行い、前記処理対象の画像における前記追尾点の位置を特定するブロックマッチング手段と、
    前記動画像の時間的に連続する複数の画像の内容について、時間的な不連続性を検出する不連続性検出手段と、
    前記不連続性検出手段により時間的な不連続性が検出された場合、前記ブロックマッチング手段により前記ブロックマッチングが行われない画像について、前記動画像において処理対象の画像の前または後の画像であって、内容が前記処理対象の画像と同時刻の画像における前記追尾点の位置を、前記処理対象の画像における前記追尾点の位置とし、前記不連続性検出手段により時間的な不連続性が検出されなかった場合、前記ブロックマッチング手段により前記ブロックマッチングが行われない画像について、前記動画像において処理対象の画像の前の画像における前記追尾点の位置と、前記動画像において処理対象の画像の後の画像における前記追尾点の位置との中間点を、前記処理対象の画像における前記追尾点の位置とする補間処理を行う補間手段と、
    前記ブロックマッチング手段または前記補間手段により特定された前記処理対象の画像における前記追尾点の位置に基づいて、前記処理対象の画像より時間的に前の画像から前記処理対象の画像への前記追尾点の動きベクトルを求める動きベクトル算出手段と
    を備える情報処理装置。
  10. 前記不連続性検出手段により時間的な不連続性が検出された動画像は、1枚のフレーム画像を2枚のフィールド画像または3枚のフィールド画像に分割する2−3プルダウン変換された動画像である
    請求項9に記載の情報処理装置。
  11. 前記不連続性検出手段により時間的な不連続性が検出された動画像は、1枚のフレーム画像を2枚のフィールド画像に分割する2−2プルダウン変換された動画像である
    請求項9に記載の情報処理装置。
  12. 前記動きベクトル算出手段は、
    前記補間手段により特定された処理対象の画像における前記追尾点の位置に基づいて、前記処理対象の画像より時間的に前の画像から前記処理対象の画像への前記追尾点の動きベクトルを求める第1の動きベクトル算出手段と、
    前記ブロックマッチング手段により特定された処理対象の画像における前記追尾点の位置、および、前記補間手段により特定された前記処理対象の画像より前の画像における前記追尾点の位置に基づいて、前記前の画像から前記処理対象の画像への前記追尾点の動きベクトルを求める第2の動きベクトル算出手段と
    を備える請求項9に記載の情報処理装置。
  13. 前記動きベクトル算出手段により算出された前記動きベクトルを積算する動きベクトル積算手段をさらに備える
    請求項9に記載の情報処理装置。
  14. 前記動きベクトル積算手段により算出された前記動きベクトルの積算結果を、前記ブロックマッチング手段、前記補間手段、および前記動きベクトル算出手段に供給し、それぞれの前記追尾点の位置に関する設定を更新させる設定制御手段をさらに備える
    請求項13に記載の情報処理装置。
  15. 動画像において、追尾対象である追尾点の画像を追尾する情報処理装置の情報処理方法であって、
    前記動画像の一部の画像について、処理対象の画像と、前記処理対象の画像より時間的に前の画像とを比較するブロックマッチングを行い、前記処理対象の画像における前記追尾点の位置を特定し、
    前記動画像の時間的に連続する複数の画像の内容について、時間的な不連続性を検出し、
    時間的な不連続性が検出された場合、前記ブロックマッチングが行われない画像について、前記動画像において処理対象の画像の前または後の画像であって、内容が前記処理対象の画像と同時刻の画像における前記追尾点の位置を、前記処理対象の画像における前記追尾点の位置とし、時間的な不連続性が検出されなかった場合、前記ブロックマッチングが行われない画像について、前記動画像において処理対象の画像の前の画像における前記追尾点の位置と、前記動画像において処理対象の画像の後の画像における前記追尾点の位置との中間点を、前記処理対象の画像における前記追尾点の位置とする補間処理を行い、
    特定された前記処理対象の画像における前記追尾点の位置に基づいて、前記処理対象の画像より時間的に前の画像から前記処理対象の画像への前記追尾点の動きベクトルを求める
    ステップを含む情報処理方法。
  16. 動画像において、追尾対象である追尾点の画像を追尾するプログラムにおいて、
    前記動画像の一部の画像について、処理対象の画像と、前記処理対象の画像より時間的に前の画像とを比較するブロックマッチングを行い、前記処理対象の画像における前記追尾点の位置を特定するブロックマッチングステップと、
    前記動画像の時間的に連続する複数の画像の内容について、時間的な不連続性を検出する不連続性検出ステップと、
    前記不連続性検出ステップの処理により時間的な不連続性が検出された場合、前記ブロックマッチングステップの処理により前記ブロックマッチングが行われない画像について、前記動画像において処理対象の画像の前または後の画像であって、内容が前記処理対象の画像と同時刻の画像における前記追尾点の位置を、前記処理対象の画像における前記追尾点の位置とし、前記不連続性検出ステップの処理により時間的な不連続性が検出されなかった場合、前記ブロックマッチングステップの処理により前記ブロックマッチングが行われない画像について、前記動画像において処理対象の画像の前の画像における前記追尾点の位置と、前記動画像において処理対象の画像の後の画像における前記追尾点の位置との中間点を、前記処理対象の画像における前記追尾点の位置とする補間処理を行う補間ステップと、
    前記ブロックマッチングステップの処理、または、前記補間ステップの処理により特定された前記処理対象の画像における前記追尾点の位置に基づいて、前記処理対象の画像より時間的に前の画像から前記処理対象の画像への前記追尾点の動きベクトルを求める動きベクトル算出ステップと
    をコンピュータに実行させるプログラム。
JP2008059044A 2008-03-10 2008-03-10 情報処理装置および方法、並びにプログラム Expired - Fee Related JP4513035B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2008059044A JP4513035B2 (ja) 2008-03-10 2008-03-10 情報処理装置および方法、並びにプログラム
US12/398,688 US8340350B2 (en) 2008-03-10 2009-03-05 Information processing device and method, and program
CN2009101265032A CN101533516B (zh) 2008-03-10 2009-03-10 信息处理设备和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008059044A JP4513035B2 (ja) 2008-03-10 2008-03-10 情報処理装置および方法、並びにプログラム

Publications (2)

Publication Number Publication Date
JP2009217425A true JP2009217425A (ja) 2009-09-24
JP4513035B2 JP4513035B2 (ja) 2010-07-28

Family

ID=41053627

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008059044A Expired - Fee Related JP4513035B2 (ja) 2008-03-10 2008-03-10 情報処理装置および方法、並びにプログラム

Country Status (3)

Country Link
US (1) US8340350B2 (ja)
JP (1) JP4513035B2 (ja)
CN (1) CN101533516B (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4922418B2 (ja) * 2010-02-16 2012-04-25 株式会社東芝 再生装置および再生装置の制御方法
JP6526589B2 (ja) * 2016-03-14 2019-06-05 株式会社東芝 画像処理デバイス及び画像処理プログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001204023A (ja) * 1999-12-02 2001-07-27 Stmicroelectronics Srl ピクチャのインターレース又はプログレッシブキャラクタを認識するための動きベクトルヒストグラムの処理
JP2007129400A (ja) * 2005-11-02 2007-05-24 Sharp Corp フィルムモード検出装置及び映像表示装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5353119A (en) * 1990-11-15 1994-10-04 Sony United Kingdom Limited Format conversion of digital video signals, integration of digital video signals into photographic film material and the like, associated signal processing, and motion compensated interpolation of images
JP2947400B2 (ja) * 1994-05-31 1999-09-13 日本ビクター株式会社 フレーム周波数変換装置
JP3649469B2 (ja) * 1995-05-12 2005-05-18 株式会社ソニー・コンピュータエンタテインメント アニメーションデータの作成方法および作成装置
CA2279797C (en) * 1999-08-06 2010-01-05 Demin Wang A method for temporal interpolation of an image sequence using object-based image analysis
US6442203B1 (en) * 1999-11-05 2002-08-27 Demografx System and method for motion compensation and frame rate conversion
KR100360893B1 (ko) * 2001-02-01 2002-11-13 엘지전자 주식회사 영상 움직임 보상 장치 및 방법
JP4198550B2 (ja) * 2002-09-10 2008-12-17 株式会社東芝 フレーム補間方法およびこのフレーム補間方法を用いた装置
JP4725105B2 (ja) 2004-01-06 2011-07-13 ソニー株式会社 画像処理装置および方法、プログラム並びに記録媒体
JP4928451B2 (ja) * 2004-07-30 2012-05-09 ユークリッド・ディスカバリーズ・エルエルシー ビデオデータを処理する装置および方法
CN1312924C (zh) * 2004-12-16 2007-04-25 上海交通大学 基于纹理信息的视频图象运动检测方法
KR20070055212A (ko) * 2005-11-25 2007-05-30 삼성전자주식회사 프레임 보간장치, 프레임 보간방법 및 움직임 신뢰성평가장치
JP4369948B2 (ja) * 2006-09-20 2009-11-25 シャープ株式会社 画像表示装置及び方法、画像処理装置及び方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001204023A (ja) * 1999-12-02 2001-07-27 Stmicroelectronics Srl ピクチャのインターレース又はプログレッシブキャラクタを認識するための動きベクトルヒストグラムの処理
JP2007129400A (ja) * 2005-11-02 2007-05-24 Sharp Corp フィルムモード検出装置及び映像表示装置

Also Published As

Publication number Publication date
CN101533516A (zh) 2009-09-16
US20090226039A1 (en) 2009-09-10
US8340350B2 (en) 2012-12-25
JP4513035B2 (ja) 2010-07-28
CN101533516B (zh) 2012-05-02

Similar Documents

Publication Publication Date Title
US8233769B2 (en) Content data processing device, content data processing method, program, and recording/ playing device
JP5777311B2 (ja) 低解像度ビデオから高解像度ビデオを生成する方法
US8274602B2 (en) Image processing apparatus and image processing method with redundant frame detection
JP2004343715A (ja) フレームレート変換時のフレーム補間方法およびその装置
US20050249288A1 (en) Adaptive-weighted motion estimation method and frame rate converting apparatus employing the method
JP2003163894A (ja) 適応動き補償型フレーム及び/又はフィールドレート変換装置及びその方法
JPWO2008143167A1 (ja) シーンチェンジ検出方法および装置、並びに画像差分検出方法および装置
WO2011067870A1 (ja) 画像処理装置および画像処理方法
JP2009253506A (ja) 画像処理装置、画像処理方法、手振れ範囲推定装置、手振れ範囲推定方法、及びプログラム
WO2005022922A1 (en) Temporal interpolation of a pixel on basis of occlusion detection
JP2006513661A (ja) バックグラウンド動きベクトル検出方法及び装置
JP2005012798A (ja) 動きベクトルの生成装置及び方法
KR20060083978A (ko) 움직임 벡터 필드 리-타이밍
EP2161687A1 (en) Video signal processing device, video signal processing method, and video signal processing program
JP2005176381A (ja) 適応的動き補償の補間方法及び装置
JP2009081574A (ja) 画像処理装置、方法およびプログラム
JP2005506626A (ja) 動き推定ユニット及び方法並びにかような動き推定ユニットを備えた画像処理装置
JP2009290713A (ja) 画像処理装置および画像処理方法、並びにプログラム
JP4513035B2 (ja) 情報処理装置および方法、並びにプログラム
JP2004519901A (ja) 動き推定の容易化
JP2009003598A (ja) 画像生成装置および方法、学習装置および方法、並びにプログラム
JP2004356747A (ja) 画像のマッチング方法および装置
JP2009027300A (ja) 画像処理装置、画像処理方法、及びプログラム、並びに表示装置
JP2007510213A (ja) 小さな高速移動物体を追跡するための動きベクトル場の改良
JP2009239698A (ja) 映像変換装置及び映像変換方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100315

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100415

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100428

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130521

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees