JP2012022655A - 画像処理方法、画像処理装置、およびプログラム - Google Patents

画像処理方法、画像処理装置、およびプログラム Download PDF

Info

Publication number
JP2012022655A
JP2012022655A JP2010162293A JP2010162293A JP2012022655A JP 2012022655 A JP2012022655 A JP 2012022655A JP 2010162293 A JP2010162293 A JP 2010162293A JP 2010162293 A JP2010162293 A JP 2010162293A JP 2012022655 A JP2012022655 A JP 2012022655A
Authority
JP
Japan
Prior art keywords
image
feature point
motion vector
point
reliability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010162293A
Other languages
English (en)
Other versions
JP2012022655A5 (ja
JP5791241B2 (ja
Inventor
Yuji Akiyama
勇治 秋山
Hisanori Washimi
尚紀 鷲見
Manabu Yamazoe
学 山添
Yoshitoku Kawai
良徳 河合
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010162293A priority Critical patent/JP5791241B2/ja
Priority to US13/178,978 priority patent/US9202284B2/en
Publication of JP2012022655A publication Critical patent/JP2012022655A/ja
Publication of JP2012022655A5 publication Critical patent/JP2012022655A5/ja
Application granted granted Critical
Publication of JP5791241B2 publication Critical patent/JP5791241B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20164Salient point detection; Corner detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

【課題】基準画像の特徴点に対応する比較画像中の対応点を求める際に、対応候補点が多数存在する場合や対応点が存在しない場合などに正しい動きベクトルを定義することができない場合がある。
【解決手段】複数の画像のうちの第1の画像の特徴点を抽出し、抽出された特徴点に対応する第2の画像の対応点を特定して、動きベクトルを決定する。その際に、第1の画像の特徴点と第2の画像の対応点との一致度に応じて、第1の画像に含まれる当該特徴点とは異なる特徴点に対して決定した動きベクトルを参照することにより、当該特徴点に対応する動きベクトルを決定する。
【選択図】図3

Description

本発明は、複数の画像間の動きベクトルを演算する画像処理方法、画像処理装置、およびプログラムに関する。
従来、動画フレーム間の動きベクトルを計算して、フレーム間の位置合わせを行う技術が開示されている。そして、画像に含まれる各画素の動きベクトルを求める方法として、画像の特徴を示す特徴点の動きベクトルを求め、この動きベクトルを画像の各画素に反映させる技術が提案されている。また、特許文献1には、1つの画像に含まれる複数の特徴点間の色の差や、各特徴点に対して仮算出した動きベクトルの差を、特徴点間の相関度とすることが記載されている。そして、その相関度を用いたベクトルスムージングによって特徴点の動きベクトルを取得し、フレーム間の位置合わせを行う。
特許第03935500号公報
更に、上記の特許文献1に記載の技術では、1つの画像に含まれる複数の特徴点の相関度を動きベクトルの算出に反映させているが、そもそも当該画像に含まれる特徴点と類似する領域が他の画像に含まれているとは限らない。例えば、カメラを移動して撮影する場合など基準画像にあった被写体が比較画像では存在しないときや、対象とする被写体が回転して対応点が隠れるなどが起こるときなど、基準画像の特徴点に対応する点が比較画像から欠落することがある。そのため、フレーム間で画像が大きく異なる場合のフレーム合成では、動きベクトルを定義すること自体ができない特徴点が発生する。従って、上記の特許文献1に記載の技術において当該画像における特徴点の相関度を動きベクトルの算出に反映させたとしても、上記のようなフレーム間で画像が大きく異なる場合のフレーム合成では、精度の良い動きベクトルの精度が低下する場合がある。
本発明は、上記の課題を鑑み、画像の特徴点の動きベクトルを精度良く決定する画像処理方法、画像処理装置、およびプログラムを提供する。
上記課題を解決するために、本発明の画像処理方法は、複数の画像を取得する取得ステップと、前記取得ステップにおいて取得された、複数の画像のうちの第1の画像の特徴点を抽出する抽出ステップと、前記抽出ステップにおいて抽出された前記第1の画像の特徴点との一致度に応じて、前記複数の画像のうちの第2の画像に含まれる、前記第1の画像の前記特徴点に対応する対応点を特定する特定ステップと、前記特定ステップにおいて特定された対応点の前記第2の画像における位置に基づき、前記第1の画像の特徴点に対応する動きベクトルを決定する決定ステップと、を備え、前記決定ステップでは、前記第1の画像の特徴点と前記第2の画像の対応点との一致度に応じて、前記第1の画像に含まれる当該特徴点とは異なる特徴点に対して決定した動きベクトルを参照することにより、当該特徴点に対応する動きベクトルを決定することを特徴とする。
本発明は、基準画像の特徴点に対応する比較画像中の対応点の候補が多数存在する場合や、ある程度以上画像が大きく異なるフレーム間における動きベクトル推定においても、全体的に破綻が少なく、結果的に精度が高まる動きベクトルを決定することが可能となる。
画像処理システムのブロック構成の一例を示す図である。 フレーム多重画像作成方法の概要を示す概念図である。 本発明の画像処理のフローチャートを示す図である。 特徴点抽出に用いるフィルタの一例を示す図である。 特徴点と判断する際の画素条件を示す図である。 特徴点を判断した結果を示す図である。 ブロックマッチングに用いる判定エリアを示す図である。 基準画像と比較画像を示す図である。 ブロックマッチングにおける色差と動きベクトル信頼度の関係を示す図である。 基準画像の特徴点と比較画像の対応点から求めた各特徴点における動きベクトルを示す図である。 基準画像の特徴点、比較画像の対応点および動きベクトルを示す図である。 抽出特徴点と追加特徴点で構成される基準画像の領域分割を示す一例を示す図である。 三角形の面積補間による注目画素の動きベクトルの算出方法を示す図である。 別の実施例における基準画像と参照画像示す図である。
以下、本発明の実施の形態について詳細に説明する。
[実施形態1]
図1に本発明で使用する画像処理方法のブロック図を示す。画像処理に使用する装置として、PCを使用すると想定して説明する。CPU101は、中央演算ユニット(Central Processing Unit)のことであり、他の機能ブロックや装置の制御を行う。ブリッジ部102は、CPU101と他の機能ブロックの間でデータのやり取りを制御する機能を提供している。
ROM(Read Only Memory)103は読み込み専用の不揮発メモリであり、通常はBIOS(Basic Input/Output System)と呼ばれるプログラムが格納されている。BIOSは画像処理装置が起動したときに最初に実行されるプログラムであり、二次記憶装置105、表示装置107、入力装置109、出力装置110などの周辺機器の基本入出力機能を制御する。RAM(ランダムアクセスメモリ)104は、高速の読み/書きが可能である。
二次記憶装置105は、例えば大容量の記憶が可能なHDD(Hard Disk Drive)とすることができるが、これに限られない。BIOSが実行されると、HDD105に格納されているOS(Operating System)が実行される。OSはすべてのアプリケーションで利用可能な基本的な機能や、アプリケーションの管理、基本GUI(Graphical User Interface)のためのインタフェースを提供する。アプリケーションは、OSが提供するGUIの機能などを使用して、各々独自の機能を実現するためのUIを提供することができる。OSおよびアプリケーションの実行プログラムや、作業用に使用するデータは、必要に応じてRAM105または二次記憶装置105に格納される。
表示制御部106は、OSやアプリケーションに対して行われるユーザの操作の結果をGUIの画像データとして生成し、表示装置107で表示するための制御を行う。表示装置107としては、例えば液晶ディスプレイや、CRT(Cathode Ray Tube)ディスプレイを使用することができるが、これに限られない。I/O制御部108は、複数の入力装置109、出力装置110とのインタフェースを提供する。代表的なインタフェースとして、USB(Universal Serial Bus)やPS/2(Personal System/2)などを使用することができる。
入力装置109には、キーボード、マウスといったユーザの指示を画像処理装置に入力する装置が含まれる。さらに、デジタルカメラ、USBメモリ、CF(Compact Flash)メモリ、SD(Secure Digital)メモリカードといった記憶機能を有する装置などを接続し、画像データを受け取ることも可能である。出力装置110にはプリンターが含まれ、所望の印刷結果を得ることが可能である。本発明を実現する画像補正アプリケーションは、二次記憶装置105に格納され、ユーザの操作で起動させることができる。
図2は、本発明の複数のフレーム画像を処理するフレーム多重画像作成方法の概要を示す概念図である。ビデオデータ201から指定された範囲内でN枚のフレーム202を選択して、これらフレーム間の画像の位置関係を推定して多重画像205を作成する。なお、図2では、3枚(N=3)のフレームが選択されている様子を示しているが、これに限られずシステムに応じて任意の枚数とすることができる。ここで便宜上、ユーザの指定したフレーム203を特に基準画像、その近傍にあるフレーム204を比較画像と呼ぶ。
図3は、本発明のフレーム多重画像作成の処理のフローチャートである。以下このフローチャートの処理ステップに従って、本実施形態の処理を詳細に説明する。本実施形態では、特徴点を用いて動きベクトルを算出し、フレームを合成する。なお、この図3のフローチャートに示す処理は、ROM103に格納されているプログラムをCPU101が実行することにより実現できる。
まず、基準画像203を解析して特徴点を抽出する(S301)。通常、画像の特徴として比較画像と対応関係を特定しやすいところを特徴点とする。例えば、エッジとエッジが交わる点(建物の窓の4隅などコーナー部分など)や、局所的な特異点などを特徴点とする。本実施例において特徴点は以下のようにして求める。
図4は特徴点抽出に用いるフィルタであり、フィルタサイズは3画素×3画素から構成される。基準画像中の各画素に対してこのフィルタを用いてフィルタ中心位置の解析対象画素401と、その周囲8画素402との色差を求める。色差とはRGBやYCC色空間の信号値の距離や、Lab色空間上のΔE、輝度の差の絶対値から求めることができる。ここでは、RGBの信号値を用いた色差を用いる。色差は基準画素の信号値をRstd(レッド)、Gstd(グリーン)、Bstd(ブルー)、比較画素の信号値をRref(レッド)、Gref(グリーン)、Bref(ブルー)、とすると下記の式(1)で求めることができる。
色差=√((Rstd − Rref )^2 + (Gstd − Gref )^2 + (Bstd − Bref )^2)) 式(1)
ここで「^」はべき乗を表す。
図5は特徴点と判断する際の画素条件を示す図である。解析する画素Aと周囲画素BおよびCとが図5(a)〜図5(d)の4つの比較位置関係すべてにおいて予め定めた一定の閾値以上の色差である場合に特徴点と判断する。また、画素Aと画素B間、画素Aと画素C間の色差のどちらか一方が図5(a)〜図5(d)の4つの比較位置関係全てにおいて予め定めた所定の閾値以上である場合においても特徴点と判断することもできる。上記、図4のフィルタを用いることでエッジとエッジとが交わる、いわゆるコーナー部位を判断し、特徴点として抽出することができる。
図6は図4のフィルタを用いて特徴点か否かを判断する例を示す図である。この判断には、フィルタの解析エリア601を使用する。図6(a)に示す例は、図5を参照して説明した条件を満足しているためコーナー部位と判断され、特徴点として抽出される。一方、図6(b)および図6(c)に示す例では、図5を参照して説明した条件を満足しないため特徴点としては抽出されない。次に抽出された基準画像内の各々の特徴点に対応する、比較画像204内の点である対応点をブロックマッチングの手法などを用いて特定する。このとき、比較画像の座標値と基準画像の座標値の差分が動きベクトルとして仮決定される(S302)。動画の場合、カメラを動かすと構図そのものが変化し、さらに、通常は被写体自体も動くので必ずしも基準画像で抽出した特徴点の対応点が、比較画像の同じ座標点に存在するとは限らない。このため、比較画像における対応点の(座標の)特定が必要となる。
次に比較画像の対応点を求める方法の例として、ブロックマッチングの方法について説明する。図7はブロックマッチングに用いる判定エリアを示している。図7においてa、b、c、d、e、f、g、hおよびiの9画素に対して、基準画像と比較画像における色差を算出する。基準画像と比較画像の各画素間の色差は先に説明した式(1)により求めることができる。
各画素間の色差をa、b、c、d、e、f、g、hおよびiの9画素分加算することでブロックマッチング判定エリア内の色差すなわち一致度を求めることができる。加算した色差が小さいほど基準画像と比較画像のブロックマッチング判定エリアの一致度が高いことを示す。
図8は基準画像と比較画像を示しおり、図8(a)は基準画像、図8(b)は比較画像のそれぞれ対応するエリアを示す図である。エリア801は基準画像の特徴点を中心としたブロックマッチング判定エリアを示している。図8(b)の比較画像においてブロックマッチング判定エリアとしてエリア802、エリア803のように順次特定のエリアを選択する。選択されたエリアについて各画素を中心として基準画像のブロックマッチング判定エリア801との色差を判断し、最も色差が低く一致度が高いエリアを求める。この最も色差が低く一致度が高いと判断されたブロックマッチング判定エリアの中心画素が基準画像の特徴点に対応する対応点とする。この基準画像の特徴点とブロックマッチングにより求めた対応点とを結ぶ差分が動きベクトルとなる。対応点についてはあくまでも推定点であるため、ブロックマッチングで求めた色差に基づく一致度に基づいて動きベクトルの信頼度を決定することができる。
次に動きベクトルの信頼度決定(S303)について説明する。ブロックマッチングにおける色差と動きベクトル信頼度との関係は図9のように考えることができる。例えば、図9(a)に示すように色差から信頼度を線形関係となるものと仮定しても良いし、図9(b)に示すように色差が大きくなるほど急激に信頼度が低くなる非線形関係で定めても良い。また、図9(c)に示すように所定閾値以上の色差については信頼度を最も高くし、所定閾値以下の場合には信頼度を急激に落としても良い。次に信頼度により動きベクトルのスムージング処理を行う(S304)。
図10は上述の基準画像の特徴点と比較画像の対応点とから求めた各特徴点における動きベクトルを示している。図10(a)はスムージング処理を行う前の動きベクトルの状態を示している。図10(a)を参照すると、動きベクトル1002および1004が周囲の他の動きベクトルのベクトル方向と異なっており、かつ信頼度が低くなっている。予め定めた信頼度よりも低い信頼度を持つ動きベクトルに対しては、所定範囲1006内にある他の信頼度の高い動きベクトルを参照して加重平均を行うことで、信頼度の低い動きベクトルをスムージングにより補正することができる。
スムージング処理に用いる動きベクトルをV1、V2、V3、・・・Vnとし、それぞれの信頼度をα1、α2、α3、・・・αn とすると、式(2)の加重平均によりスムージング後の動きベクトルVを求めることができる。
V=(α1・V1+α2・V2+α3・V3+・・・+αn・Vn)/(α1+α2+α3+・・・+αn) 式(2)
また、スムージングを行う動きベクトルは全てではなく、信頼度が所定値以下の場合のみ処理実行させるようにしても良い。
図10(b)はスムージング処理後の動きベクトルを示しており、周囲と極端に異なる方向を示す動きベクトルが減少していることがわかる。すなわち、本実施形態のスムージング処理の一例により、上述の動きベクトル1002および1004は、図10(b)ではそれぞれ動きベクトル1007および1008となる。
このベクトルスムージング処理を行った結果、最終的な動きベクトルを決定することができる(S305)。この処理を行うことで、全体的に破綻が少なく結果的に精度が高まる動きベクトルを決定することが可能となる。次に、基準画像の特徴点で画像の領域分割を行う。このとき、特徴点は任意の場所に出現するため、領域を複数の三角形で分割する(S306)。これは一例としてドローネ三角形分割の手法を利用すれば実現できる。なお、本実施例では画像を三角形の領域に分割する例を示すが、四角形等、他の多角形の領域に分割してもよい。
ここで、すべての画像領域を処理するために、画像の4隅は(特徴点として抽出されていなければ)特徴点として追加すればよい。追加した特徴点に対応する動きベクトルは、比較画像との対応関係で特定してもよいが、もともと特徴点として抽出されておらず、対応関係が特定しにくいため、近傍に存在する少なくともひとつの抽出特徴点の動きベクトルを利用して設定してもよい。
図12は、抽出特徴点および追加特徴点で構成される基準画像の領域分割を示す一例である。各三角形の頂点1201ないし1203が特徴点を示している。図12に示すように、画像の4隅1210を特徴点として追加することによって、画像を構成するすべての画素はいずれかの三角形領域に属することが分かる。さらに、分割された三角形領域に基づいて、基準画像の各画素に関して比較画像の対応画素を決定する。図13は三角形の面積補間による注目画素の動きベクトルの算出方法を示す図である。注目画素1301が属する三角形を構成する頂点1311ないし1313が特徴点を示しており、それぞれに動きベクトルが設定されている。
したがって、注目画素1301の動きベクトルは、3つの特徴点1311ないし1313の動きベクトル(V1,V2,V3)を、注目画素1301が三角形を分割する3つの面積(S1,S2,S3)で加重平均して求めればよい(S307)。すなわち、それぞれの動きベクトル要素に、自分自身を特徴点として含まない辺をもつ三角形の面積を重みとして掛け合わせて全面積で割ればよい。
最後に、基準画像の注目画素1301の座標に、補間算出された動きベクトル分だけ移動した比較画像の画素値を、基準画像に合成する(S308)。このように、位置関係を合わせて、基準画像と比較画像を合成することで、例えば暗い場所で撮影した動画フレームに対して、ノイズ低減の効果が期待できる。
以上のように、本実施形態によれば、基準画像に含まれる特徴点に対する動きベクトルの信頼度を算出して、その信頼度に応じて、周囲の動きベクトルを参照して当該特徴点の動きベクトルを決定する。これにより、基準画像の特徴点が比較画像に含まれない場合であっても、精度の良い動きベクトルを決定することができる。
なお、特徴点の動きベクトルの信頼度を求めた結果、所定の信頼度よりも低い場合(例えば信頼度がゼロの場合)、当該特徴点に対して仮決定された動きベクトルを参照せずに、周囲の動きベクトルのみを用いて、当該特徴点の動きベクトルを決定してもよい。
また、この図3に示した例では、基準画像から抽出した特徴点と、比較画像の対応点から動きベクトルを仮決定し、特徴点の信頼度に応じて、仮決定した動きベクトルを、他の動きベクトルにより補正する例を示した。しかしながら、これに限らず、例えば比較画像内で対応点を求めた際に、特徴点と一致度が低かった場合には、その特徴点の動きベクトルを決定しなくてもよい。そして、信頼度が高かった特徴点の動きベクトルを求めた後に、その動きベクトルを参照することによって、信頼度が低かった特徴点を決定してもよい。
[実施形態2]
本実施形態は、上述の実施形態1で基準画像の特徴点に対応する比較画像において1つであった対応点が、複数抽出された場合に対応するものである。したがって、以下、対応点が複数抽出された場合の比較画像に対する動きベクトルの仮決定(S302)および動きベクトルの信頼度決定方法(S303)を中心に説明する。図11は基準画像の特徴点、比較画像の対応点および動きベクトルを示す図である。
図11は、基準画像の特徴点1101に対応して、比較画像内に3つの対応点1102、1103および1104が特定された場合について示している。この場合、対応点1102、1103および1104についての上述のブロックマッチングの色差に基づく一致度は同一またはほぼ同等となっている。
このような場合には、複数の対応点のいずれか一つあるいは複数の対応点の中心位置にある画素、またはブロックマッチング時の色差が一番小さい画素点が対応点とする。そして基準画像の特徴点と比較画像の対応点との差分を動きベクトルとして仮決定する。しかしながら隣接した位置に複数の対応点の候補が存在するということは、その対応点の信頼度が低いことを示していることから、その分、動きベクトルの信頼度を低くする。具体的には、対応点の候補がn点存在するときには信頼度を1/nとする。あるいは極めて信頼度が低いと判断し、信頼度をゼロとしてしまっても良い。
以上のような処理により、図11(a)に示す特徴点1101に対応する対応点は、図11(b)に示す対応点1103と特定され、図11(c)に示すような動きベクトル1105を得ることができる。
以上のようにして、1つの対応点を特定し、動きベクトルおよびその信頼度を決定して、上述の実施形態1のようにフレーム合成処理を行うことにより、複数の対応点が特定された場合の処理を行うことができる。
[実施形態3]
本実施形態では、上述の各実施形態の処理の精度を向上させるための追加の処理を行うものである。すなわち、全画像領域を精度良く処理するために、画像の四隅に特徴点を追加する。また、上述のドローネ三角形分割の手法を用いた補間精度を向上させるために意図して特徴点を追加し、この追加した特徴点について、動きベクトルを仮決定し、および動きベクトルの信頼度を決定する。特に、特徴点抽出により求めた特徴点が画像周囲に存在する場合の動きベクトルの信頼度に関する動きベクトルの仮決定、動きベクトルの信頼度決定方法について説明する。
図14は、基準画像と比較画像を示す図である。図14(a)は基準画像1401を示しており、図14(b)は比較画像1402を示している。基準画像1401に対し、比較画像1402は撮影時にカメラや被写体が大きく動いたなどの理由で被写体の位置が基準画像1401と変化している。特に基準画像四隅に近い部分の画素についてはカメラの移動や被写体の移動などにより比較画像中に対応点が存在しない場合が多々ある。このような場合にも適切な動きベクトルを得られるように特徴点1404を処理のために加えるが、特徴点1405はもともと特徴点抽出により求めた特徴点である。
図14(c)において、欠落領域1403はカメラが動いたことにより基準画像に存在したが、比較画像では欠落した領域を示している。特徴点1404および1405に対応する対応点は、欠落領域1403に含まれる対応点1406および1407となる。すなわち特徴点に対応する比較画像中の対応点は存在しないことになる。このような場合を考慮し、もともと予め意図して追加した特徴点は特徴点として抽出されたものではないから信頼度を低く設定する必要がある。すなわち、上述の各実施例のように比較画像の対応点をブロックマッチングで求める際の色差に基づく一致度から信頼度を算出するが、意図して追加した特徴点の対応点については、算出された信頼度よりも低い信頼度を設定する。追加した特徴点の動きベクトルの信頼度はゼロとすることがより好ましい。追加した特徴点から動きベクトルを得る場合は、比較画像内の対応点を用いてもよいが、もともと対応関係が特定しにくいものである。このため、近傍に存在する少なくとも1つの特徴点から得られた動きベクトルをそのまま利用してもよい。
また、上述の例えば実施形態1の方法で抽出された特徴点においても、比較画像において対応点が欠落する可能性を考慮してそのような特徴点の周囲領域の特徴点から得られる動きベクトルの信頼度を低く設定しても良い。たとえば、ブロックマッチングで求められた色差に基づく一致度から算出した信頼度の1/2あるいはゼロに設定する。
このように動きベクトルの信頼度を低くすることでこの特徴点による位置合わせの誤判定を防止することが可能となる。
[その他の実施形態]
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。また、本発明は、複数のプロセッサが連携して処理を行うことによっても実現できるものである。

Claims (9)

  1. 複数の画像を取得する取得ステップと、
    前記取得ステップにおいて取得された、複数の画像のうちの第1の画像の特徴点を抽出する抽出ステップと、
    前記抽出ステップにおいて抽出された前記第1の画像の特徴点との一致度に応じて、前記複数の画像のうちの第2の画像に含まれる、前記第1の画像の前記特徴点に対応する対応点を特定する特定ステップと、
    前記特定ステップにおいて特定された対応点の前記第2の画像における位置に基づき、前記第1の画像の特徴点に対応する動きベクトルを決定する決定ステップと、
    を備え、
    前記決定ステップは、前記第1の画像の特徴点と前記第2の画像の対応点との一致度に応じて、前記第1の画像に含まれる当該特徴点とは異なる特徴点に対して決定した動きベクトルを参照することにより、当該特徴点に対応する動きベクトルを決定することを特徴とする画像処理方法。
  2. 前記抽出ステップにおいて抽出された前記第2の画像の対応点との一致度に応じて、前記第1の画像の特徴点に対する動きベクトルの信頼度を決定する信頼度決定ステップをさらに備え、
    前記決定ステップは、前記特定ステップにおいて特定された対応点の前記第2の画像における位置に基づき前記第1の画像の特徴点に対応する動きベクトルを仮決定し、前記信頼度決定ステップにおいて決定された信頼度の低い仮決定の動きベクトルを、近傍の動きベクトルにより補正することにより、動きベクトルを決定することを特徴とする請求項1に記載の画像処理方法。
  3. 前記信頼度決定ステップは、1つの前記特徴点に対応する前記対応点が一定の数より多い場合には、前記特徴点と前記対応点と一致度から決定される信頼度の値よりも低い値を前記信頼度として決定することを特徴とする請求項2に記載の画像処理方法。
  4. 前記抽出ステップにおいて抽出された特徴点に加え、前記第1の画像に特徴点を設定するステップをさらに備え、
    前記信頼度決定ステップは、前記設定ステップにおいて設定された特徴点については、前記徴点と前記対応点との一致度から決定した信頼度の値よりも低い値を前記信頼度として決定することを特徴とする請求項2または3に記載の画像処理方法。
  5. 前記信頼度決定ステップは、第1の画像の予め定めた周囲領域に存在する特徴点については、前記徴点と前記対応点との一致度から決定した信頼度の値よりも低い値を前記信頼度として決定することを特徴とする請求項1乃至4のいずれかに記載の画像処理方法。
  6. 前記決定ステップは、前記特徴点と前記対応点の一致度が予め定めた値以下である場合には、前記第1の画像に含まれる当該特徴点に対応する前記第2の画像の対応点を参照せずに、当該特徴点と異なる特徴点に対して決定した動きベクトルを参照することにより、当該特徴点に対応する動きベクトルを決定することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理方法。
  7. 前記決定ステップにより決定された前記第1の画像に含まれる特徴点の動きベクトルを用いて前記第1の画像と前記第2の画像の位置合わせを行うことにより、前記第1の画像と前記第2の画像とを合成する合成ステップを有することを特徴とする請求項1乃至6のいずれか1項に記載の画像処理方法。
  8. 請求項1乃至7のいずれか1項に記載の画像処理方法をコンピュータに実行させるためのプログラム。
  9. 複数の画像を取得する取得手段と、
    前記取得手段により取得された、複数の画像のうちの第1の画像の特徴点を抽出する抽出手段と、
    前記抽出手段により抽出された前記第1の画像の特徴点との一致度に応じて、前記複数の画像のうちの第2の画像に含まれる、前記第1の画像の前記特徴点に対応する対応点を特定する特定手段と、
    前記特定手段により特定された対応点の前記第2の画像における位置に基づき、前記第1の画像の特徴点に対応する動きベクトルを決定する決定手段と、
    を備え、
    前記決定手段は、前記第1の画像の特徴点と前記第2の画像の対応点との一致度に応じて、前記第1の画像に含まれる当該特徴点とは異なる特徴点に対して決定した動きベクトルを参照することにより、当該特徴点に対応する動きベクトルを決定することを特徴とする画像処理装置。
JP2010162293A 2010-07-16 2010-07-16 画像処理方法、画像処理装置、およびプログラム Active JP5791241B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010162293A JP5791241B2 (ja) 2010-07-16 2010-07-16 画像処理方法、画像処理装置、およびプログラム
US13/178,978 US9202284B2 (en) 2010-07-16 2011-07-08 Image processing method, image processing apparatus and non-transitory computer-readable storage medium therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010162293A JP5791241B2 (ja) 2010-07-16 2010-07-16 画像処理方法、画像処理装置、およびプログラム

Publications (3)

Publication Number Publication Date
JP2012022655A true JP2012022655A (ja) 2012-02-02
JP2012022655A5 JP2012022655A5 (ja) 2013-08-29
JP5791241B2 JP5791241B2 (ja) 2015-10-07

Family

ID=45467026

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010162293A Active JP5791241B2 (ja) 2010-07-16 2010-07-16 画像処理方法、画像処理装置、およびプログラム

Country Status (2)

Country Link
US (1) US9202284B2 (ja)
JP (1) JP5791241B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015087941A (ja) * 2013-10-30 2015-05-07 オリンパス株式会社 特徴点マッチング処理装置、特徴点マッチング処理方法、およびプログラム
JP2015130082A (ja) * 2014-01-08 2015-07-16 富士ゼロックス株式会社 画像処理装置及び画像処理プログラム
WO2016185832A1 (ja) * 2015-05-21 2016-11-24 オリンパス株式会社 画像処理装置、画像処理方法およびプログラム
JP2018151689A (ja) * 2017-03-09 2018-09-27 キヤノン株式会社 画像処理装置及びその制御方法、プログラム、記憶媒体

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6071289B2 (ja) 2012-07-09 2017-02-01 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JP6012310B2 (ja) 2012-07-09 2016-10-25 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JP5956860B2 (ja) 2012-07-09 2016-07-27 キヤノン株式会社 画像処理装置、画像処理方法、プログラム
JP6039942B2 (ja) 2012-07-09 2016-12-07 キヤノン株式会社 情報処理装置及びその制御方法及びプログラム
US10937195B2 (en) * 2013-02-11 2021-03-02 Google Llc Label based approach for video encoding
JP6221283B2 (ja) * 2013-03-19 2017-11-01 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
US10136063B2 (en) * 2013-07-12 2018-11-20 Hanwha Aerospace Co., Ltd Image stabilizing method and apparatus
EP3034000A1 (en) * 2014-12-16 2016-06-22 Agfa Healthcare Motion correction method in dual energy radiography
US10198976B2 (en) 2015-07-31 2019-02-05 Canon Kabushiki Kaisha Display set and display method
EP3340605B1 (en) * 2015-08-19 2019-08-21 Fujifilm Corporation Imaging device, imaging method, program, and non-temporary recording medium
US10284875B2 (en) * 2016-08-08 2019-05-07 Qualcomm Incorporated Systems and methods for determining feature point motion
CN109316202B (zh) * 2018-08-23 2021-07-02 苏州佳世达电通有限公司 影像校正方法及检测装置
WO2020041999A1 (en) * 2018-08-29 2020-03-05 Intel Corporation Apparatus and method for feature point tracking using inter-frame prediction

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003224854A (ja) * 2002-01-29 2003-08-08 Hitachi Ltd 動きベクトル検出装置及び画像処理装置並びにコンピュータ・ソフトウエア
JP3435084B2 (ja) * 1998-05-21 2003-08-11 三洋電機株式会社 オプティカルフロー推定方法および画像合成方法
JP2007122751A (ja) * 2007-01-30 2007-05-17 Monolith Co Ltd 画像処理のための方法、装置、プログラム
JP2009188837A (ja) * 2008-02-07 2009-08-20 Olympus Corp 撮像装置及び撮像方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6694051B1 (en) 1998-06-24 2004-02-17 Canon Kabushiki Kaisha Image processing method, image processing apparatus and recording medium
US20050196107A1 (en) * 2004-03-04 2005-09-08 Gongen Gu Optical multiplexer with improved manufacturability
DE102004026597A1 (de) * 2004-06-01 2005-12-29 Micronas Gmbh Verfahren zur Ermittlung von Bewegungsvektoren, die Bildbereichen eines Bildes zugeordnet sind
EP1843294B1 (en) 2005-01-14 2010-09-15 Morpho Inc. Motion vector calculation method, hand-movement correction device using the method, imaging device, and motion picture generation device
JP4398925B2 (ja) * 2005-03-31 2010-01-13 株式会社東芝 補間フレーム生成方法、補間フレーム生成装置および補間フレーム生成プログラム
JP4752407B2 (ja) * 2005-09-09 2011-08-17 ソニー株式会社 画像処理装置および方法、プログラム、並びに記録媒体
JP4620607B2 (ja) * 2006-02-24 2011-01-26 株式会社モルフォ 画像処理装置
JP4417918B2 (ja) * 2006-03-30 2010-02-17 株式会社東芝 補間フレーム作成装置、動きベクトル検出装置、補間フレーム作成方法、動きベクトル検出方法、補間フレーム作成プログラムおよび動きベクトル検出プログラム
KR20080066486A (ko) * 2007-01-12 2008-07-16 삼성전자주식회사 움직임 벡터 추정 장치 및 방법
US20080278633A1 (en) * 2007-05-09 2008-11-13 Mikhail Tsoupko-Sitnikov Image processing method and image processing apparatus
JP5048542B2 (ja) * 2008-02-07 2012-10-17 オリンパス株式会社 画像処理装置及び画像処理プログラム
JP4623122B2 (ja) * 2008-04-03 2011-02-02 ソニー株式会社 画像信号処理装置、画像信号処理方法、およびプログラム
JP4600530B2 (ja) * 2008-06-17 2010-12-15 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
JP5075757B2 (ja) * 2008-08-05 2012-11-21 オリンパス株式会社 画像処理装置、画像処理プログラム、画像処理方法、および電子機器
JP5390828B2 (ja) 2008-10-17 2014-01-15 キヤノン株式会社 画像処理装置、及び、画像処理方法
JP5700968B2 (ja) * 2010-07-16 2015-04-15 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3435084B2 (ja) * 1998-05-21 2003-08-11 三洋電機株式会社 オプティカルフロー推定方法および画像合成方法
JP2003224854A (ja) * 2002-01-29 2003-08-08 Hitachi Ltd 動きベクトル検出装置及び画像処理装置並びにコンピュータ・ソフトウエア
JP2007122751A (ja) * 2007-01-30 2007-05-17 Monolith Co Ltd 画像処理のための方法、装置、プログラム
JP2009188837A (ja) * 2008-02-07 2009-08-20 Olympus Corp 撮像装置及び撮像方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015087941A (ja) * 2013-10-30 2015-05-07 オリンパス株式会社 特徴点マッチング処理装置、特徴点マッチング処理方法、およびプログラム
JP2015130082A (ja) * 2014-01-08 2015-07-16 富士ゼロックス株式会社 画像処理装置及び画像処理プログラム
WO2016185832A1 (ja) * 2015-05-21 2016-11-24 オリンパス株式会社 画像処理装置、画像処理方法およびプログラム
US10516825B2 (en) 2015-05-21 2019-12-24 Olympus Corporation Image processing device, image processing method, and computer program product for correcting a motion vector of a low-reliability block
JP2018151689A (ja) * 2017-03-09 2018-09-27 キヤノン株式会社 画像処理装置及びその制御方法、プログラム、記憶媒体

Also Published As

Publication number Publication date
JP5791241B2 (ja) 2015-10-07
US9202284B2 (en) 2015-12-01
US20120014565A1 (en) 2012-01-19

Similar Documents

Publication Publication Date Title
JP5791241B2 (ja) 画像処理方法、画像処理装置、およびプログラム
JP7429542B2 (ja) 拡張現実、仮想現実、ロボティクスに適したグラフィカルな基準マーカ識別
CN112348815B (zh) 图像处理方法、图像处理装置以及非瞬时性存储介质
US8718324B2 (en) Method, apparatus and computer program product for providing object tracking using template switching and feature adaptation
JP6716996B2 (ja) 画像処理プログラム、画像処理装置、及び画像処理方法
WO2019042419A1 (zh) 图像跟踪点获取方法、设备及存储介质
US7747072B2 (en) Image processing method, image processing program, its storage medium, and image processing device for extracting points from a color image
JP5700968B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP2015197816A (ja) 画像処理装置、画像処理方法
US10424068B2 (en) Image processing apparatus and image processing method for person identification
EP3726458A1 (en) System and a method for stitching images using non-linear optimization and multi-constraint cost function minimization
JP7188201B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP6331761B2 (ja) 判定装置、判定方法及び判定プログラム
JP5558949B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP5661359B2 (ja) 画像処理装置、画像処理方法、およびプログラム
CN115984856A (zh) 文档图像矫正模型的训练方法、文档图像的矫正方法
WO2015146728A1 (ja) 物体検出装置
JP7003617B2 (ja) 推定装置、推定方法、及び推定プログラム
WO2022087846A1 (zh) 图像的处理方法、装置、设备以及存储介质
JP6818485B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2012022653A (ja) 画像処理装置および画像処理方法
AU2014277851A1 (en) Detecting a gap between text columns from text line fragments
US20230215050A1 (en) Information processing apparatus, method, and storage medium to generate a color-difference map
JP6142701B2 (ja) 画像処理装置及びプログラム
JP2015057730A (ja) 画像処理装置および画像処理方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130712

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130712

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140328

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140707

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150420

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20150428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150707

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150804

R151 Written notification of patent or utility model registration

Ref document number: 5791241

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151