JP4432274B2 - 画像処理装置および方法、記録媒体、並びにプログラム - Google Patents

画像処理装置および方法、記録媒体、並びにプログラム Download PDF

Info

Publication number
JP4432274B2
JP4432274B2 JP2001113421A JP2001113421A JP4432274B2 JP 4432274 B2 JP4432274 B2 JP 4432274B2 JP 2001113421 A JP2001113421 A JP 2001113421A JP 2001113421 A JP2001113421 A JP 2001113421A JP 4432274 B2 JP4432274 B2 JP 4432274B2
Authority
JP
Japan
Prior art keywords
image
reference image
region
boundary
comparison
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001113421A
Other languages
English (en)
Other versions
JP2002312791A (ja
Inventor
光晴 大木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2001113421A priority Critical patent/JP4432274B2/ja
Priority to US10/121,065 priority patent/US6924836B2/en
Publication of JP2002312791A publication Critical patent/JP2002312791A/ja
Priority to US11/104,184 priority patent/US6980237B2/en
Application granted granted Critical
Publication of JP4432274B2 publication Critical patent/JP4432274B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • H04N5/145Movement estimation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6811Motion detection based on the image signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6812Motion detection based on additional sensors, e.g. acceleration sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/683Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Description

【0001】
【発明の属する技術分野】
本発明は、画像処理装置および方法、記録媒体、並びにプログラムに関し、例えば、連続して撮影された複数の画像間における動きベクトルを検出する場合に用いて好適な画像処理装置および方法、記録媒体、並びにプログラムに関する。
【0002】
【従来の技術】
従来、ビデオカメラを三脚などで固定することなく、手に持って撮影をおこなった場合、手振れに起因して撮影した動画像が上下左右に振動し、再生したときに見難い画面となってしまう問題があった。そのような問題を解決する方法として、画面が振動する動画像を、画面が振動しない動画像に変換する処理、いわゆるスタビライザ処理が知られている。
【0003】
スタビライザ処理について、図1乃至図6を参照して説明する。図1乃至図3は、それぞれ、手振れに起因して画面に振動が生じている動画像のうちのタイミングt 1 乃至タイミングt3の画像P1乃至画像P3を示している。当該動画像は、移動しない机とドアの間を画面の左側から右側に移動する人物の様子が撮影されたものである。
【0004】
スタビライザ処理では、始めに、図1に示したタイミングt1の画像P1(以下、基準画像P1と記述する)における所定のサイズの特徴がある領域(例えば、机のように移動しない物体のエッジを含む領域)が指定される。例えば、基準画像P1の原点(0,0)から距離(X1,Y1)の位置にある破線で囲まれた領域R1が指定される。以下、指定された領域R1をリファレンス領域R1と記述する。
【0005】
次に、領域として、図2のタイミングt2の画像P2(以下、参照画像P2と記述する)の中で、基準画像P1のリファレンス領域R1に対応するマッチング領域(図2の領域M1)がブロックマッチング法によって検出される。
【0006】
ブロックマッチング法では、参照画像P2の全体を探索範囲として、リファレンス領域R1の各画素と対応する画素との「2乗誤差の合計値」または「絶対値誤差の合計値」が最小となる領域、あるいは「正規化された相互相関値(normalized cross correlation)」が最大となる領域が探索されて、リファレンス領域R1に対応するマッチング領域M1が検出される。
【0007】
ただし、ブロックマッチング法における演算量を削減するために、参照画像P2の全体を探索範囲とせず、より狭い領域を探索範囲とすることが行われる。例えば、画像間の動きベクトルが10画素程度であることがわかっている場合、リファレンス領域R1よりも上下左右に10画素程度大きい領域が探索範囲とされる。
【0008】
なお、ブロックマッチング法の詳細については、「ディジタル画像処理:(株)近代科学社発行、監訳者:長尾真」の「8.3章マッチング(整合)」に記載されている。
【0009】
検出されたマッチング領域M1は、参照画像P2の原点(0,0)から距離(X2,Y2)の位置にある。同様に、図3のタイミングt3の画像P3(以下、参照画像P3と記述する)の中で、リファレンス領域R1に対応するマッチング領域(図3のマッチング領域M2)がブロックマッチング法によって検出される。マッチング領域M2は、参照画像P3の原点(0,0)から距離(X3,Y3)の位置にある。
【0010】
次に、基準画像P1と参照画像P2との間の動きベクトルV12(X1−X2,Y1−Y2)と、基準画像P1と参照画像P3との間の動きベクトルV13(X1−X3,Y1−Y3)が演算される。次に、基準画像P1はそのまま補正画像P1’とされ、参照画像P2は全体が動きベクトルV12(X1−X2,Y1−Y2)だけずらされて補正画像P2’に変換され、参照画像P3は全体が動きベクトルV13(X1−X3,Y1−Y3)だけずらされて補正画像P3’に変換される。
【0011】
以上説明したように、スタビライザ処理によれば、基準画像P1、および参照画像P2,P3が、それぞれ図4乃至は図6に示す補正画像P1’乃至補正画像P3’に変換される。図4乃至図6に示すように、変換された補正画像P1’乃至補正画像P3’では、机、椅子、およびドアなどの移動しない物体が画面上の同一の座標に位置している。なお、実際には、画像P1乃至画像P3以外の元の動画像を構成する全ての画像も同様に変換される。したがって、変換された複数の連続する画像を再生した場合、画面が振動しない動画像となる。
【0012】
【発明が解決しようとする課題】
ところで、基準画像P1において領域R1がリファレンス領域に指定されれば、上述したブロックマッチング法によって、リファレンス領域に対応する参照画像の中のマッチング領域が検出され、適切な動きベクトルが求められる。しかしながら、基準画像P1において不適切な領域がリファレンス領域に指定された場合、参照画像の中から、基準画像P1のリファレンス領域に対応するマッチング領域が検出されないことがある。そのような場合、基準画像P1と参照画像との動きベクトルを求めることができないので、画面が振動する動画像を補正することができない。
【0013】
例えば、基準画像P1において領域R2がリファレンス領域に指定された場合、リファレンス領域R2は、移動しない机のエッジなどの特徴的な部分(前景またはフォアグランドとも記述する)と、その他の背景(バックグランドとも記述する)から構成されているが、基準画像P1のリファレンス領域R2に対応する領域として検出されるべき参照画像P2のマッチング領域には、移動中の人物が含まれているので、当該領域をリファレンス領域R2に対応するマッチング領域として検出することができない課題があった。
【0014】
本発明はこのような状況に鑑みてなされたものであり、基準画像におけるリファレンス領域の前景を線分によって区分けすることにより、基準画像のリファレンス領域に対応する参照画像のマッチング領域を確実に検出できるようにすることを目的とする。
【0015】
【課題を解決するための手段】
本発明の画像処理装置は、基準画像と参照画像を入力する画像入力手段と、ユーザの操作を受け付ける受付手段と、受付手段が受け付けたユーザの操作に従って、基準画像における第1の基準領域を設定する基準領域設定手段と、受付手段が受け付けたユーザの操作に従って、第1の基準領域を前景部分と背景部分に区分する境界を設定する区分手段と、参照画像に複数の比較領域を設定する比較領域設定手段と、第1の基準領域の前景部分と、複数の比較領域との相関度を示す第1の適切度を算出する第1の算出手段と、第1の基準領域の境界の付近を、境界に対して垂直方向に微分して第2の基準領域を生成する生成手段と、第2の基準領域の境界の付近と、複数の比較領域との相関度を示す第2の適切度を算出する第2の算出手段と、第1および第2の適切度の加算値に基づき、複数の比較領域の中から、第1の基準領域に対応するマッチング領域を決定する決定手段と、基準画像における第1の基準領域の位置と、参照画像におけるマッチング領域の位置に基づき、基準画像と参照画像との間の動きベクトルを演算する演算手段とを含むことを特徴とする。
【0016】
前記受付手段は、ユーザの描線の操作を受け付けるようにすることができ、前記区分手段は、ユーザが描線した少なくとも1本以上の線分を、第1の基準領域を前景部分と背景部分に区分する境界に設定するようにすることができる。
【0017】
本発明の画像処理装置は、動きベクトルに基づき、参照画像の全体を移動することによって補正画像を生成する補正手段をさらに含むことを特徴とする。
【0018】
本発明の画像処理方法は、基準画像と参照画像を入力する画像入力ステップと、ユーザの操作を受け付ける受付ステップと、受付ステップの処理で受け付けられたユーザの操作に従って、基準画像における第1の基準領域を設定する基準領域設定ステップと、受付ステップの処理で受け付けられたユーザの操作に従って、第1の基準領域を前景部分と背景部分に区分する境界を設定する区分ステップと、参照画像に複数の比較領域を設定する比較領域設定ステップと、第1の基準領域の前景部分と、複数の比較領域との相関度を示す第1の適切度を算出する第1の算出ステップと、第1の基準領域の境界の付近を、境界に対して垂直方向に微分して第2の基準領域を生成する生成ステップと、第2の基準領域の境界の付近と、複数の比較領域との相関度を示す第2の適切度を算出する第2の算出ステップと、第1および第2の適切度の加算値に基づき、複数の比較領域の中から、第1の基準領域に対応するマッチング領域を決定する決定ステップと、基準画像における第1の基準領域の位置と、参照画像におけるマッチング領域の位置に基づき、基準画像と参照画像との間の動きベクトルを演算する演算ステップとを含むことを特徴とする。
【0019】
本発明の記録媒体のプログラムは、基準画像と参照画像を入力する画像入力ステップと、ユーザの操作を受け付ける受付ステップと、受付ステップの処理で受け付けられたユーザの操作に従って、基準画像における第1の基準領域を設定する基準領域設定ステップと、受付ステップの処理で受け付けられたユーザの操作に従って、第1の基準領域を前景部分と背景部分に区分する境界を設定する区分ステップと、参照画像に複数の比較領域を設定する比較領域設定ステップと、第1の基準領域の前景部分と、複数の比較領域との相関度を示す第1の適切度を算出する第1の算出ステップと、第1の基準領域の境界の付近を、境界に対して垂直方向に微分して第2の基準領域を生成する生成ステップと、第2の基準領域の境界の付近と、複数の比較領域との相関度を示す第2の適切度を算出する第2の算出ステップと、第1および第2の適切度の加算値に基づき、複数の比較領域の中から、第1の基準領域に対応するマッチング領域を決定する決定ステップと、基準画像における第1の基準領域の位置と、参照画像におけるマッチング領域の位置に基づき、基準画像と参照画像との間の動きベクトルを演算する演算ステップとを含むことを特徴とする。
【0020】
本発明のプログラムは、基準画像と参照画像を入力する画像入力ステップと、ユーザの操作を受け付ける受付ステップと、受付ステップの処理で受け付けられたユーザの操作に従って、基準画像における第1の基準領域を設定する基準領域設定ステップと、受付ステップの処理で受け付けられたユーザの操作に従って、第1の基準領域を前景部分と背景部分に区分する境界を設定する区分ステップと、参照画像に複数の比較領域を設定する比較領域設定ステップと、第1の基準領域の前景部分と、複数の比較領域との相関度を示す第1の適切度を算出する第1の算出ステップと、第1の基準領域の境界の付近を、境界に対して垂直方向に微分して第2の基準領域を生成する生成ステップと、第2の基準領域の境界の付近と、複数の比較領域との相関度を示す第2の適切度を算出する第2の算出ステップと、第1および第2の適切度の加算値に基づき、複数の比較領域の中から、第1の基準領域に対応するマッチング領域を決定する決定ステップと、基準画像における第1の基準領域の位置と、参照画像におけるマッチング領域の位置に基づき、基準画像と参照画像との間の動きベクトルを演算する演算ステップとをコンピュータに実行させることを特徴とする。
【0021】
本発明の画像処理装置および方法、並びにプログラムにおいては、基準画像と参照画像が入力され、ユーザの操作が受け付けられ、受け付けられたユーザの操作に従って基準画像における第1の基準領域が設定され、受け付けられたユーザの操作に従って第1の基準領域を前景部分と背景部分に区分する境界が設定される。また、参照画像に複数の比較領域が設定され、第1の基準領域の前景部分と、複数の比較領域との相関度を示す第1の適切度が算出される。さらに、第1の基準領域の境界の付近を境界に対して垂直方向に微分して第2の基準領域が生成され、第2の基準領域の境界の付近と、複数の比較領域との相関度を示す第2の適切度が算出される。さらに、第1および第2の適切度の加算値に基づき、複数の比較領域の中から、第1の基準領域に対応するマッチング領域が決定され、基準画像における第1の基準領域の位置と、参照画像におけるマッチング領域の位置に基づき、基準画像と参照画像との間の動きベクトルが演算される。
【0022】
【発明の実施の形態】
本発明の一実施の形態である画像処理装置の構成例について、図7を参照して説明する。この画像処理装置2は、撮影装置1から供給される動画像(連続して撮影された静止画像)を、画面が振動しない動画像に変換して表示装置3に出力するものである。なお、画像処理装置2には、図1乃至図3に示した基準画像P1、および参照画像P2,P3を含む動画像が撮影装置1から供給されるものとする。
【0023】
画像処理装置2において、制御部11は、操作入力部13から入力されるユーザからの操作の情報に対応し、バス12を介して画像処理装置2の各部を制御する。操作入力部13は、ユーザの操作、例えば、基準画像P1における所定のサイズの特徴的なリファレンス領域Rを指定する操作と、リファレンス領域Rの中の前景(例えば、図1における不動の机)を指定するための複数の線分(例えば、2本の線分L1,L2)を指定する操作などを受け付け、その操作の情報を、バス12を介して制御部11に出力する。入力部14は、撮影装置1から入力される動画像を、バス12を介して画像メモリ15に出力する。画像メモリ15は、入力部14からバス12を介して供給される動画像(連続して撮影された静止画像)を記憶する。
【0024】
動きベクトル検出部16は、画像メモリ15が記憶する動画像を構成する静止画像を順次読み出し、例えば、先頭の画像を基準画像P1とし、ユーザの操作に従ってリファレンス領域Rを設定し、さらに、リファレンス領域Rの中の前景を設定する。さらに、動きベクトル検出部16は、以降に読み出す画像を参照画像Pn(n=2,3,4,・・・)とし、基準画像P1のリファレンス領域Rに対応する参照画像Pnのマッチング領域を検出して、基準画像P1と参照画像Pnとの動きベクトルV1n(X1−Xn,Y1−Yn)を算出し、算出した動きベクトルV1nを、バス12を介して画像補正部17に出力する。
【0025】
画像補正部17は、画像メモリ15から基準画像P1を読み出し、そのまま補正画像P1’として、バス12を介して出力部18に供給する。また、画像補正部17は、画像メモリ15から参照画像Pnを読み出し、読み出した参照画像Pnを動きベクトルV1nだけずらして補正画像Pn’に変換し、バス12を介して出力部18に供給する。出力部18は、基準画像P1においてリファレンス領域Rを指定する操作や、リファレンス領域Rの中の前景を指定する操作のために、基準画像P1や操作中の画面を表示装置3に出力する。また、出力部18は、画像補正部17からバス12を介して供給される補正画像P1’,Pn’(n=2,3,4,・・・)をバッファリングし、所定のレートで後段の表示装置3に出力する。
【0026】
次に、画像処理装置2による補正処理について、図7のフローチャートを参照して説明する。なお、画像処理装置2の画像メモリ15には、入力部1およびバス12を介して撮影装置1から入力された動画像(連続して撮影された複数の静止画像)が記憶されているものとする。
【0027】
ステップS1において、動きベクトル検出部16は、画像メモリ15が記憶する動画像(連続する複数の画像)のうち、先頭の画像を読み出して基準画像P1とし、操作入力部13に対するユーザの操作に従ってリファレンス領域Rを設定する。ステップS2において、動きベクトル検出部16は、ユーザが描画する線分によって指定された部分をリファレンス領域Rにおける不動の前景部分(参照画像の対応する部分においても変化しない部分)に設定する。
【0028】
ステップS1,S2におけるユーザの操作について、図9および図10を参照して具体的に説明する。図9は、表示装置3に表示される基準画像P1の表示例を示している。ユーザは、図9に示すように、基準画像P1に重畳して破線で表示される矩形を移動させ、リファレンス領域Rを指定する。さらに、例えば、図10に示すように、線分L1,L2を描線することにより、線分L1,L2とリファレンス領域Rを示す破線とで囲まれた部分を、リファレンス領域Rにおける不動の前景部分(参照画像の対応する部分においても変化しない部分)として指定する。なお、前景部分を指定する線分は、2本に限定されるものではなく、1本であってもよいし、3本以上であってもよい。
【0029】
図8に戻り、ステップS3において、動きベクトル検出部16は、基準画像P1に続く参照画像P2を画像メモリ15から読み出し、参照画像P2を探索範囲としてリファレンス領域と同じサイズの比較領域Ci(i=1,2,・・・,m)を数画素ごとに移動して設定し、リファレンス領域Rのうちの前景部分の各画素と、比較領域Ciの対応する各画素との適切度T1iを算出する。なお、適切度T1iは、「2乗誤差の合計値」または「絶対値誤差の合計値」が最小となる、あるいは「正規化された相互相関値」が最大となることに基づいて算出される。
【0030】
ステップS4において、動きベクトル検出部16は、リファレンス領域Rのうちの線分L1の付近を、線分L1に対して垂直な方向に微分する。以下、線分L1の付近が線分L1に対して垂直な方向に微分されているリファレンス領域Rを、第1の差分リファレンス領域RL1と記述する。また、動きベクトル検出部16は、参照画像P2の比較領域Ciを、線分L1に対して垂直な方向に微分する。以下、線分L1に対して垂直な方向に微分されている比較領域Ciを、第1の差分比較領域CiL1と記述する。
【0031】
さらに、動きベクトル検出部16は、第1の差分リファレンス領域RL1の各画素と、第1の差分比較領域CiL1の対応する各画素との適切度T2iを算出する。なお、適切度T2iは、「2乗誤差の合計値」または「絶対値誤差の合計値」が最小となる、あるいは「正規化された相互相関値」が最大となることに基づいて算出される。
【0032】
ステップS5において、動きベクトル検出部16は、リファレンス領域Rのうちの線分L2の付近を、線分L2に対して垂直な方向に微分する。以下、線分L2付近が線分L2に対して垂直な方向に微分されているリファレンス領域Rを、第2の差分リファレンス領域RL2と記述する。また、動きベクトル検出部16は、参照画像P2の比較領域Ciを、線分L2に対して垂直な方向に微分する。以下、線分L2に対して垂直な方向に微分されている比較領域Ciを、第2の差分比較領域CiL2と記述する。
【0033】
さらに、動きベクトル検出部16は、第2の差分リファレンス領域RL2の各画素と、第2の差分比較領域CiL2の対応する各画素との適切度T3iを算出する。なお、適切度T3iは、「2乗誤差の合計値」または「絶対値誤差の合計値」が最小となる、あるいは「正規化された相互相関値」が最大となることに基づいて算出される。
【0034】
ステップS6において、動きベクトル検出部16は、比較領域Ciに対して算出した適切値T1i,T2i,T3iを加算して適切値Tsiを算出する。ステップS7において、動きベクトル検出部16は、適切値Tsiの最大値を検出し、適切値Tsiの最大値に対応する比較領域Ciを、リファレンス領域Rに対応する参照画像P2のマッチング領域に決定する。
【0035】
ステップS8において、動きベクトル検出部16は、基準画像P1と参照画像P2との動きベクトルV12を算出し、算出した動きベクトルV1nを、バス12を介して画像補正部17に出力する。ステップS9において、画像補正部17は、画像メモリ15から参照画像P2を読み出し、読み出した参照画像P2を動きベクトルV12だけずらして補正画像P2’に変換し、バス12を介して出力部18に供給する。
【0036】
なお、参照画像P2に続く参照画像Pnに対しては、ステップS3乃至ステップS9の処理が施されて補正画像Pn’に変換される。
【0037】
以上説明したように、本発明の一実施の形態である画像処理装置2によれば、リファレンス領域Rに対応するマッチング領域を検出するとき、前景部分と前景部分と背景部分の境界にだけ着目して、背景部分については考慮しないので、背景が時間の経過とともに変化したとしても正確にマッチング領域を検出することができる。したがって、正確な動きベクトルを求めることができるので、画面が振動する動画像を、画面が振動しない動画像に変換することができる。
【0038】
ところで、上述した一連の処理は、画像処理装置2のようなハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、記録媒体からインストールされる。
【0039】
この記録媒体は、図11に示すように、コンピュータとは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディスク31(フロッピディスクを含む)、光ディスク32(CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)を含む)、光磁気ディスク33(MD(Mini Disc)を含む)、もしくは半導体メモリ34などよりなるパッケージメディアにより構成されるだけでなく、コンピュータに予め組み込まれた状態でユーザに提供される、プログラムが記録されているROM22や記憶部28に含まれるハードディスクなどで構成される。
【0040】
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に従って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
【0041】
また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
【0042】
【発明の効果】
以上のように、本発明の画像処理装置および方法、並びにプログラムによれば、受け付けたユーザの操作に従って第1の基準領域を前景部分と背景部分に区分する境界を設定し、第1の基準領域の前景部分と、複数の比較領域との相関度を示す第1の適切度を算出し、第2の基準領域の境界の付近と、複数の比較領域との相関度を示す第2の適切度を算出し、第1および第2の適切度の加算値に基づき、複数の比較領域の中から、第1の基準領域に対応するマッチング領域を決定するようにしたので、第1の基準領域に対応する参照画像のマッチング領域を確実に検出することが可能となる。
【図面の簡単な説明】
【図1】従来のスタビライザ処理を説明するための図である。
【図2】従来のスタビライザ処理を説明するための図である。
【図3】従来のスタビライザ処理を説明するための図である。
【図4】従来のスタビライザ処理を説明するための図である。
【図5】従来のスタビライザ処理を説明するための図である。
【図6】従来のスタビライザ処理を説明するための図である。
【図7】本発明の一実施の形態である画像処理装置2の構成例を示すブロック図である。
【図8】画像処理装置2による補正処理を説明するフローチャートである。
【図9】リファレンス領域を設定するユーザの操作を説明するための図である。
【図10】リファレンス領域のうちの前景部分を指定するユーザの操作を説明するための図である。
【図11】汎用のパーソナルコンピュータの構成例を示すブロック図である。
【符号の説明】
2 画像処理装置, 11 制御部, 12 バス, 13 操作入力部, 14 入力部, 15 画像メモリ, 16 動きベクトル検出部, 17 画像補正部, 18 出力部, 21 CPU, 31 磁気ディスク, 32 光ディスク, 33 光磁気ディスク, 34 半導体メモリ

Claims (6)

  1. 基準画像と参照画像との間の動きベクトルを検出する画像処理装置において、
    前記基準画像と前記参照画像を入力する画像入力手段と、
    ユーザの操作を受け付ける受付手段と、
    前記受付手段が受け付けた前記ユーザの操作に従って、前記基準画像における第1の基準領域を設定する基準領域設定手段と、
    前記受付手段が受け付けた前記ユーザの操作に従って、前記第1の基準領域を前景部分と背景部分に区分する境界を設定する区分手段と、
    前記参照画像に複数の比較領域を設定する比較領域設定手段と、
    前記第1の基準領域の前記前景部分と、複数の前記比較領域との相関度を示す第1の適切度を算出する第1の算出手段と、
    前記第1の基準領域の前記境界の付近を、前記境界に対して垂直方向に微分して第2の基準領域を生成する生成手段と、
    前記第2の基準領域の前記境界の付近と、複数の前記比較領域との相関度を示す第2の適切度を算出する第2の算出手段と、
    前記第1および第2の適切度の加算値に基づき、前記複数の比較領域の中から、前記第1の基準領域に対応するマッチング領域を決定する決定手段と、
    前記基準画像における前記第1の基準領域の位置と、前記参照画像における前記マッチング領域の位置に基づき、前記基準画像と前記参照画像との間の前記動きベクトルを演算する演算手段と
    を含むことを特徴とする画像処理装置。
  2. 前記受付手段は、前記ユーザの描線の操作を受け付け、
    前記区分手段は、前記ユーザが描線した少なくとも1本以上の線分を、前記第1の基準領域を前記前景部分と前記背景部分に区分する前記境界に設定する
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記動きベクトルに基づき、前記参照画像の全体を移動することによって補正画像を生成する補正手段を
    さらに含むことを特徴とする請求項1に記載の画像処理装置。
  4. 基準画像と参照画像との間の動きベクトルを検出する画像処理装置の画像処理方法において、
    前記基準画像と前記参照画像を入力する画像入力ステップと、
    ユーザの操作を受け付ける受付ステップと、
    前記受付ステップの処理で受け付けられた前記ユーザの操作に従って、前記基準画像における第1の基準領域を設定する基準領域設定ステップと、
    前記受付ステップの処理で受け付けられた前記ユーザの操作に従って、前記第1の基準領域を前景部分と背景部分に区分する境界を設定する区分ステップと、
    前記参照画像に複数の比較領域を設定する比較領域設定ステップと、
    前記第1の基準領域の前記前景部分と、複数の前記比較領域との相関度を示す第1の適切度を算出する第1の算出ステップと、
    前記第1の基準領域の前記境界の付近を、前記境界に対して垂直方向に微分して第2の基準領域を生成する生成ステップと、
    前記第2の基準領域の前記境界の付近と、複数の前記比較領域との相関度を示す第2の適切度を算出する第2の算出ステップと、
    前記第1および第2の適切度の加算値に基づき、前記複数の比較領域の中から、前記第1の基準領域に対応するマッチング領域を決定する決定ステップと、
    前記基準画像における前記第1の基準領域の位置と、前記参照画像における前記マッチング領域の位置に基づき、前記基準画像と前記参照画像との間の前記動きベクトルを演算する演算ステップと
    を含むことを特徴とする画像処理方法。
  5. 基準画像と参照画像との間の動きベクトルを検出するプログラムであって、
    前記基準画像と前記参照画像を入力する画像入力ステップと、
    ユーザの操作を受け付ける受付ステップと、
    前記受付ステップの処理で受け付けられた前記ユーザの操作に従って、前記基準画像における第1の基準領域を設定する基準領域設定ステップと、
    前記受付ステップの処理で受け付けられた前記ユーザの操作に従って、前記第1の基準領域を前景部分と背景部分に区分する境界を設定する区分ステップと、
    前記参照画像に複数の比較領域を設定する比較領域設定ステップと、
    前記第1の基準領域の前記前景部分と、複数の前記比較領域との相関度を示す第1の適切度を算出する第1の算出ステップと、
    前記第1の基準領域の前記境界の付近を、前記境界に対して垂直方向に微分して第2の基準領域を生成する生成ステップと、
    前記第2の基準領域の前記境界の付近と、複数の前記比較領域との相関度を示す第2の適切度を算出する第2の算出ステップと、
    前記第1および第2の適切度の加算値に基づき、前記複数の比較領域の中から、前記第1の基準領域に対応するマッチング領域を決定する決定ステップと、
    前記基準画像における前記第1の基準領域の位置と、前記参照画像における前記マッチング領域の位置に基づき、前記基準画像と前記参照画像との間の前記動きベクトルを演算する演算ステップと
    を含むことを特徴とするコンピュータが読み取り可能なプログラムが記録されている記録媒体。
  6. 基準画像と参照画像との間の動きベクトルを検出するコンピュータに、
    前記基準画像と前記参照画像を入力する画像入力ステップと、
    ユーザの操作を受け付ける受付ステップと、
    前記受付ステップの処理で受け付けられた前記ユーザの操作に従って、前記基準画像における第1の基準領域を設定する基準領域設定ステップと、
    前記受付ステップの処理で受け付けられた前記ユーザの操作に従って、前記第1の基準領域を前景部分と背景部分に区分する境界を設定する区分ステップと、
    前記参照画像に複数の比較領域を設定する比較領域設定ステップと、
    前記第1の基準領域の前記前景部分と、複数の前記比較領域との相関度を示す第1の適切度を算出する第1の算出ステップと、
    前記第1の基準領域の前記境界の付近を、前記境界に対して垂直方向に微分して第2の基準領域を生成する生成ステップと、
    前記第2の基準領域の前記境界の付近と、複数の前記比較領域との相関度を示す第2の適切度を算出する第2の算出ステップと、
    前記第1および第2の適切度の加算値に基づき、前記複数の比較領域の中から、前記第1の基準領域に対応するマッチング領域を決定する決定ステップと、
    前記基準画像における前記第1の基準領域の位置と、前記参照画像における前記マッチング領域の位置に基づき、前記基準画像と前記参照画像との間の前記動きベクトルを演算する演算ステップと
    を実行させるプログラム。
JP2001113421A 2001-04-12 2001-04-12 画像処理装置および方法、記録媒体、並びにプログラム Expired - Fee Related JP4432274B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2001113421A JP4432274B2 (ja) 2001-04-12 2001-04-12 画像処理装置および方法、記録媒体、並びにプログラム
US10/121,065 US6924836B2 (en) 2001-04-12 2002-04-11 Image processing apparatus, image processing method, recording medium, and program
US11/104,184 US6980237B2 (en) 2001-04-12 2005-04-12 Image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001113421A JP4432274B2 (ja) 2001-04-12 2001-04-12 画像処理装置および方法、記録媒体、並びにプログラム

Publications (2)

Publication Number Publication Date
JP2002312791A JP2002312791A (ja) 2002-10-25
JP4432274B2 true JP4432274B2 (ja) 2010-03-17

Family

ID=18964643

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001113421A Expired - Fee Related JP4432274B2 (ja) 2001-04-12 2001-04-12 画像処理装置および方法、記録媒体、並びにプログラム

Country Status (2)

Country Link
US (2) US6924836B2 (ja)
JP (1) JP4432274B2 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4432274B2 (ja) * 2001-04-12 2010-03-17 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP2003339029A (ja) * 2002-05-20 2003-11-28 Sony Corp 動きベクトル補正回路及び方法
US7295232B2 (en) * 2003-01-15 2007-11-13 Canon Kabushiki Kaisha Camera and program
JP4566591B2 (ja) * 2004-03-19 2010-10-20 キヤノン株式会社 画像変形推定方法および画像変形推定装置
US20060001647A1 (en) * 2004-04-21 2006-01-05 David Carroll Hand-held display device and method of controlling displayed content
CN100423551C (zh) * 2005-01-28 2008-10-01 广达电脑股份有限公司 数字图像稳定方法与装置
TWI271998B (en) * 2005-09-21 2007-01-21 Inventec Appliances Corp Image processing method and apparatus thereof
US8144247B2 (en) * 2007-06-21 2012-03-27 Samsung Electronics Co., Ltd. Detection and interpolation of still objects in a video sequence
US8126063B2 (en) * 2007-06-21 2012-02-28 Samsung Electronics Co., Ltd. System and method for still object detection based on normalized cross correlation
JP5290915B2 (ja) * 2009-09-03 2013-09-18 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
US9530222B2 (en) * 2015-03-30 2016-12-27 Ca, Inc. Detecting divergence or convergence of related objects in motion and applying asymmetric rules
US10163219B2 (en) * 2016-06-24 2018-12-25 Fca Us Llc Machine vision cargo monitoring in a vehicle

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0476603B1 (en) * 1990-09-20 1997-06-18 Nec Corporation Method and apparatus for coding moving image signal
JP4596201B2 (ja) * 2001-02-01 2010-12-08 ソニー株式会社 画像処理装置および方法、並びに記録媒体
JP4596202B2 (ja) * 2001-02-05 2010-12-08 ソニー株式会社 画像処理装置および方法、並びに記録媒体
JP4106874B2 (ja) * 2001-02-05 2008-06-25 ソニー株式会社 画像処理装置および方法、並びに記録媒体
GB2372658A (en) * 2001-02-23 2002-08-28 Hewlett Packard Co A method of creating moving video data from a static image
US8134613B2 (en) * 2001-04-10 2012-03-13 Sony Corporation Image processing apparatus and method, and image pickup apparatus
JP4432274B2 (ja) * 2001-04-12 2010-03-17 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4150949B2 (ja) * 2001-05-30 2008-09-17 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
CN1251148C (zh) * 2001-06-05 2006-04-12 索尼公司 图像处理设备
EP1396819A4 (en) * 2001-06-15 2006-08-09 Sony Corp IMAGE PROCESSING APPARATUS AND METHOD AND IMAGING APPARATUS
JP4596216B2 (ja) * 2001-06-20 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4596219B2 (ja) * 2001-06-25 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4596222B2 (ja) * 2001-06-26 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4596221B2 (ja) * 2001-06-26 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4596226B2 (ja) * 2001-06-27 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4596227B2 (ja) * 2001-06-27 2010-12-08 ソニー株式会社 通信装置および方法、通信システム、記録媒体、並びにプログラム
JP4596223B2 (ja) * 2001-06-27 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム

Also Published As

Publication number Publication date
US20050185059A1 (en) 2005-08-25
US6980237B2 (en) 2005-12-27
US6924836B2 (en) 2005-08-02
JP2002312791A (ja) 2002-10-25
US20020172286A1 (en) 2002-11-21

Similar Documents

Publication Publication Date Title
US6980237B2 (en) Image processing method
US10277812B2 (en) Image processing to obtain high-quality loop moving image
JP5906028B2 (ja) 画像処理装置、画像処理方法
US7856145B2 (en) Image processing system and method therefor, image processing apparatus and method, image capturing apparatus and method, program recording medium, and program
US8717504B2 (en) Picture processing apparatus, processing method for use therewith, and program
EP3562143A1 (en) Image processing device, image processing method, and program
JP2013058828A (ja) 笑顔判定装置及び方法
WO2005079062A1 (ja) 画像処理装置と画像処理方法およびプログラム
JPWO2008129875A1 (ja) 検出装置、検出方法および検出用集積回路
TW200913687A (en) Moving body image extraction apparatus and program
JP2002351603A (ja) 携帯情報処理装置
TW201330611A (zh) 影像處理裝置、影像處理方法、程式
KR20110089655A (ko) 촬영 구도를 유도하는 디지털 영상 촬영 장치 및 방법
KR20140043665A (ko) 화상 처리 장치, 화상 처리 방법 및 기록 매체
KR20100064162A (ko) 디지털 영상 처리기에서 스포츠 자세 교정 장치 및 방법
JP2010114752A (ja) 撮像装置及び撮像方法及びプログラム
US9311522B2 (en) Apparatus and method for improving face recognition ratio
JP2012073997A (ja) 物体追尾装置、物体追尾方法およびそのプログラム
JP2012068948A (ja) 顔属性推定装置およびその方法
KR100945555B1 (ko) 증강현실 공간을 제공하는 장치 및 방법
CN110313176A (zh) 图像处理装置、方法及程序
JP2000214992A (ja) 方向指示装置および方向推定方法、並びにその方法にかかるプログラムを記録したコンピュ―タ読み取り可能な記録媒体
WO2023233638A1 (ja) トラッキング方法、トラッキングプログラムおよび情報処理装置
JP4795314B2 (ja) フリッカ補正装置及びフリッカ補正方法
JPH02123877A (ja) 移動物体の自動追尾装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070305

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091201

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091214

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130108

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees