JP6511980B2 - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP6511980B2
JP6511980B2 JP2015123594A JP2015123594A JP6511980B2 JP 6511980 B2 JP6511980 B2 JP 6511980B2 JP 2015123594 A JP2015123594 A JP 2015123594A JP 2015123594 A JP2015123594 A JP 2015123594A JP 6511980 B2 JP6511980 B2 JP 6511980B2
Authority
JP
Japan
Prior art keywords
feature point
dispersion
degree
image
acquiring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015123594A
Other languages
English (en)
Other versions
JP2017011431A (ja
JP2017011431A5 (ja
Inventor
正雄 松原
正雄 松原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2015123594A priority Critical patent/JP6511980B2/ja
Priority to US15/065,603 priority patent/US10140688B2/en
Priority to CN201610157198.3A priority patent/CN106257910B/zh
Publication of JP2017011431A publication Critical patent/JP2017011431A/ja
Publication of JP2017011431A5 publication Critical patent/JP2017011431A5/ja
Application granted granted Critical
Publication of JP6511980B2 publication Critical patent/JP6511980B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6811Motion detection based on the image signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Adjustment Of Camera Lenses (AREA)

Description

本発明は、画像処理装置、画像処理方法及びプログラムに関する。
エピポーラ幾何を応用して動画に手ぶれ補正を施す技術が知られている。例えば、非特許文献1は、動画が含むフレーム(画像)間のエピポーラ幾何関係を表す基礎行列に基づいて動画に手ぶれ補正を施す技術を開示している。
Amit Goldstein and. Raanan Fattal, " Video Stabilization using Epipolar Geometry ", ACM Transactions on Graphics (TOG), Volume 31, Issue 5, August 2012, Article No.126.
しかしながら、非特許文献1の技術では、フレームの一部分のエピポーラ幾何関係を表すように最適化された(局所的に最適化された)基礎行列を取得してしまうことを防止できない。局所的に最適化された基礎行列は、フレーム全体のエピポーラ幾何関係を表すように最適化されていない、精度の悪い基礎行列である虞がある。精度の悪い基礎行列に基づいて画像処理、例えば、手ぶれ補正を実行すると、動画が含むフレームがいびつに変形されてしまい、手ぶれ補正後の動画にぶれが発生してしまう。
本発明は、上記の課題に鑑みてなされたものであり、精度の良い基礎行列に基づいて画像処理を実行する画像処理装置、画像処理方法及びプログラムを提供することを目的とする。
上記目的を達成するため、本発明に係る画像処理装置は、
画像中の複数の特徴点で構成される特徴点群を取得する特徴点群取得手段と、
前記画像中において、特徴点がどの程度散らばって分布しているかを示す分散度を取得する分散度取得手段と、
前記特徴点群取得手段が取得した特徴点群を構成する特徴点の座標と、前記分散度取得手段が取得した分散度と、に基づいて、前記画像と該画像を含む動画中の他の画像との間のエピポーラ幾何関係を表す基礎行列を取得する基礎行列取得手段と、
前記基礎行列取得手段が取得した基礎行列に基づいて、前記動画に対して画像処理を施す処理手段と、
を備える、
ことを特徴とする。
本発明によれば、精度の良い基礎行列に基づいて画像処理を実行できる。
本発明の第1実施形態に係る画像処理装置の構成例を示すブロック図である。 分散度の一例を説明するための図である。 仮想特徴点軌道の構築を説明するための図である。 手ぶれ補正後の特徴点軌道の構築を説明するための図である。 本発明の第1実施形態に係る画像処理装置が実行する手ぶれ補正処理を説明するためのフローチャートである。 本発明の第1実施形態に係る画像処理装置が実行する基礎行列取得処理を説明するためのフローチャートである。 本発明の第2実施形態に係る画像処理装置の構成例を示すブロック図である。 本発明の第2実施形態に係る画像処理装置が実行する基礎行列取得処理を説明するためのフローチャートである。 分散度の別例を説明するための図である。 分散度のさらに別例を説明するための図である。
(第1実施形態)
以下、本発明の実施形態に係る画像処理装置の機能及び動作を、図面を参照しながら説明する。
本実施形態においては、画像処理装置1は、画像処理の一例として、ターゲット動画に対して手ぶれ補正を施すことにより、補正後動画を生成する。ターゲット動画(手ぶれ補正対象の動画)及び補正後動画(手ぶれ補正後の動画)は、時間的に連続して撮像された複数のフレーム(画像)を含む。
画像処理装置1は、図1に示すように、制御部10と、RAM(Random Access Memory)20と、ROM(Read Only Memroy)30と、入力部40と、表示部50と、外部インタフェース60と、を備える。
制御部10は、CPU(Central Processing Unit)を備え、ROM30に記憶された各種プログラムを実行する。具体的に、制御部10は、ROM30に記憶された制御プログラムを実行することにより、画像処理装置1全体を制御する。また、制御部10は、ROM30に記憶された画像処理プログラムを実行することにより、図1に示すように、特徴点抽出部101、特徴点群取得部102、仮基礎行列取得部103、距離取得部104、分散度取得部105、基礎行列取得部106及び処理部107として機能する。
特徴点抽出部101は、特徴点軌道Pを構築する。特徴点軌道Pは、ターゲット動画の複数フレームにわたる特徴点pの軌跡であり、ターゲット動画を撮像した撮像装置の手ぶれの影響を受けた動きを表す。以下、第sフレームが含む特徴点を特徴点pと表記する。どのフレームが含む特徴点であるか特定する必要がない場合には、単に特徴点pと表記する。
具体的に、特徴点抽出部101は、任意の公知技術(例えば、KLT法、Harris/Plessey法、Hessian法)を用いて、ターゲット動画のフレームから特徴点pを抽出する(特徴点pの座標を取得する)。そして、特徴点抽出部101は、抽出した特徴点pを、任意の公知技術(例えば、ブロックマッチングや濃度勾配を利用したアルゴリズム)を用いて時間的に追跡することにより特徴点軌道Pを構築する。
特徴点群取得部102は、フレーム中の複数の特徴点pで構成される特徴点群を複数取得する。
具体的に、特徴点群取得部102は、互いに異なる2つのフレーム(以下、説明のため、互いに異なる2つのフレームの例として第sフレームと第tフレームを用いて説明する)における、同一の特徴点軌道Pの構成点である特徴点p、pを組み合わせることにより、1つの特徴点対を取得する。特徴点群取得部102は、異なる特徴点軌道Pを順次選択しながらこの処理を繰り返すことにより、複数の特徴点対を取得する。そして、取得した複数の特徴点対のうち8対を選択し、これらの特徴点対を構成する特徴点p、pのうち同一のフレーム(本実施形態では、第tフレーム)に含まれる8個の特徴点pを組み合わせることにより、1つの特徴点群を取得する。特徴点群取得部102は、この処理を所定回数(本実施形態では、500回)繰り返すことにより、所定数(本実施形態では、500個)の特徴点群を取得する。
仮基礎行列取得部103は、特徴点群取得部102が取得した複数の特徴点群について、各特徴点群を構成する特徴点pの座標に基づいて、各特徴点群に対応する仮基礎行列F’を取得する。
仮基礎行列F’は、2つのフレーム(第sフレームと第tフレーム)の間のエピポーラ幾何関係を表し、下記の式(1)を満たす。式(1)中、mは第sフレームが含む任意の点であり、mは第tフレームが含むmに対応する点である。式(1)が示すように、仮基礎行列F’は、f1〜f8の8個の要素を有する。仮基礎行列取得部103は、1つの特徴点群が含む8個の特徴点pと、これらの特徴点pそれぞれと共に特徴点対を構成する特徴点pと、の座標を対応点の座標として式(1)へ代入し要素f1〜f8を取得することにより、この特徴点群に対応する仮基礎行列F’を取得する。以下、第sフレームと第tフレームとの間のエピポーラ幾何関係を表す仮基礎行列F’を、F’s、tと表記する。
距離取得部104は、仮基礎行列取得部103が取得した仮基礎行列F’に基づいて、特徴点pが投影するエピポーラ線と、この特徴点pに対応する特徴点pと、の間の距離を取得する。
第tフレームが含む任意の点m=(x、y、1)が第sフレームに投影するエピポーラ線は、2つのフレームの間のエピポーラ幾何関係を表す仮基礎行列F’s、tを用いて、下記の式(2)により表される。式(2)中、f1〜f8は、式(1)で示される仮基礎行列F’s、tの要素である。式(2)で表されるエピポーラ線と、第sフレーム中の任意の点m=(x、y、1)と、の間の距離distは、下記の式(3)で表される。式(3)中、a〜cは、式(2)で示されるエピポーラ線の係数である。仮基礎行列F’がある点とその対応点との間のエピポーラ幾何関係を正確に表しているほど、この点が投影するエピポーラ線とこの点の対応点との間の距離は小さい。
分散度取得部105は、分散度を取得する。分散度は、特徴点pがフレーム中においてどの程度散らばって分布しているかを示す。
本実施形態で、分散度取得部105は、仮基礎行列取得部103が取得した仮基礎行列F’それぞれに対応する分散度を取得する。ある仮基礎行列F’に対応する分散度は、フレームに含まれる複数の特徴点pのうち、この仮基礎行列F’に基づいて距離取得部104が取得した距離が閾値以下である特徴点pのこのフレームにおける分散度を示す。
上述した通り、仮基礎行列F’がある点とその対応点との間のエピポーラ幾何関係を正確に表しているほど、この仮基礎行列F’に基づいて距離取得部104が取得した、この点が投影するエピポーラ線とこの点の対応点との間の距離は小さい。すなわち、ある仮基礎行列F’に基づいて距離取得部104が取得した距離が閾値以下である特徴点pは、この仮基礎行列F’がエピポーラ幾何関係を一定レベル以上に正確に表している特徴点pである。ある仮基礎行列F’に対応する分散度は、この仮基礎行列F’が正確に対応点との間のエピポーラ幾何関係を正確に表している特徴点pが、フレーム中においてどの程度散らばって分布しているかを示す。
具体的に、分散度取得部105は、距離取得部104が取得した距離が閾値(本実施形態では、0.1ピクセル)以下の全ての特徴点pを基準として仮想領域を生成する。本実施形態では、図2に示すように、各特徴点pを中心とする所定半径R(本実施形態では、R=32ピクセル)の円を仮想領域として生成する。分散度取得部105は、生成した全ての仮想領域の面積の重複のない合計値を、これらの特徴点pの分散度(すなわち、仮基礎行列F’に対応する分散度)として取得する。なお、仮想領域の面積の重複のない合計値は、仮想領域の面積を、複数の仮想領域が重なっている領域の面積を一度だけ算入するように合計した値である。なお、仮想領域は、円に限らず、任意の形状であってよい。また、本実施形態では仮想領域の中心と特徴点p(または仮想特徴点v)とが一致しているが、これは一例に過ぎない。仮想領域の位置と、特徴点p(または仮想特徴点v)の位置と、の対応関係は任意に設定できる。
基礎行列取得部106は、特徴点群取得部102が取得した特徴点群を構成する特徴点pの座標と、分散度取得部105が取得した分散度と、に基づいて基礎行列Fを取得する。基礎行列Fは、2つのフレームの間のエピポーラ幾何関係を表す。
本実施形態において、基礎行列取得部106は、仮基礎行列取得部103が取得した複数の仮基礎行列F’のうち、分散度取得部105が取得した分散度が最も大きい仮基礎行列F’を、基礎行列Fとして取得する。ある仮基礎行列F’に対応する分散度が大きいほど、この仮基礎行列F’が対応点との間のエピポーラ幾何関係を正確に表している特徴点pはフレーム中に広く散らばって分布している。すなわち、この仮基礎行列F’が正確にエピポーラ幾何関係を表しているフレーム中の範囲が広い。基礎行列取得部106は、分散度の最も大きい仮基礎行列F’を取得することにより、フレーム内の最も広い範囲にわたって最適化された(最も精度の良い)仮基礎行列F’を基礎行列Fとして取得する。
処理部107は、基礎行列取得部106が取得した基礎行列Fに基づいて、ターゲット動画に対して画像処理を施す。本実施形態において、処理部107は、図1に示すように、特徴点生成部107aと、平滑化部107bと、画像処理部107cと、を備え、基礎行列取得部106が取得した基礎行列Fに基づいてターゲット動画に手ぶれ補正を施すことにより補正後動画を生成する。
具体的に、処理部107は、下記の(A)〜(D)の処理を実行することにより、基礎行列Fに基づいた手ぶれ補正をターゲット動画に施す。
(A)基礎行列Fに基づいて、仮想特徴点軌道Vを構築する。
(B)仮想特徴点軌道Vを平滑化することにより、手ぶれ補正後の仮想特徴点軌道V’を構築する。
(C)特徴点軌道Pと、基礎行列F”と、に基づいて、手ぶれ補正後の特徴点軌道P’を構築する。
(D)特徴点軌道Pと、手ぶれ補正後の特徴点軌道P’と、に基づいて画像処理を実行し、補正後動画を生成する。
以下、各処理の詳細について説明する。
(A)の処理は、特徴点生成部107aによって実行される。特徴点生成部107aは、図3に示すように、ターゲット動画のフレーム(第tフレーム)に、ターゲット動画の、このフレームの直前に撮像された10フレーム(第(t−1)〜第(t−10)フレーム)が含む仮想特徴点vt−1〜vt−10がそれぞれ投影するエピポーラ線を、基礎行列Ft、t−1〜Ft、t−10に基づいて取得し、これらのエピポーラ線の交点の座標の平均値を、仮想特徴点vの座標として取得する(仮想特徴点vを生成する)。特徴点生成部107aは、仮想特徴点vを第tフレームにおける構成点として取得することにより、仮想特徴点軌道Vを構築する。
仮想特徴点軌道Vは、ターゲット動画の複数フレームにわたる仮想特徴点vの軌跡であり、ターゲット動画を撮像した撮像装置の、手ぶれの影響を受けた動きを表している。仮想特徴点軌道Vと同じく撮像装置の、手ぶれの影響を受けた動きを表している特徴点軌道Pがフレームから抽出された特徴点pで構成されるのに対し、仮想特徴点軌道Vは、理論的に算出された仮想特徴点vで構成される。このため、特徴点pが物体の背後に隠れたりフレームアウトしたりした場合や、トラッキングエラーが起こった場合等、特徴点pをフレームから抽出できず、特徴点軌道Pが途切れる状況においても仮想特徴点軌道Vは途切れない。すなわち、仮想特徴点軌道Vは、特徴点軌道Pより長い範囲にわたって連続している。従って、撮像装置の、手ぶれの影響を受けた動きを仮想特徴点軌道Vで定義することにより、後述する(C)の処理において、特徴点軌道Pで定義した場合よりも大規模なフィルタを用いて平滑化を行い、より滑らかな手ぶれ補正後の撮像装置の動きを取得できる。
(B)の処理は、平滑化部107bによって実行される。平滑化部107bは、(A)の処理で構築された仮想特徴点軌道Vを、任意の公知技術(例えば、ガウシアンカーネルやラプラシアンカーネルを用いた平滑化)を用いて時間的に平滑化することにより、手ぶれ補正後の仮想特徴点軌道V’を構築する。手ぶれ補正後の仮想特徴点軌道V’は、補正後動画の複数フレームにわたる手ぶれ補正後の仮想特徴点v’の軌跡であり、手ぶれの影響を除去したターゲット動画を撮像した撮像装置の動きを表す。本実施形態で、平滑化部107bは、σ=50のガウシアンカーネルを用いて、仮想特徴点軌道Vを平滑化する。
(B)の処理が実行された後、基礎行列取得部106が、(A)の処理で構築した仮想特徴点軌道Vと、(B)の処理で構築した手ぶれ補正後の仮想特徴点軌道V’と、に基づいて、ターゲット動画中のフレームと、補正後動画中のフレームと、の間のエピポーラ幾何関係を表す基礎行列F”を取得する。すなわち、仮想特徴点軌道Vと手ぶれ補正後の仮想特徴点軌道V’とに基づいて、手ぶれ補正前後のフレームの関係を定義する。
(C)の処理は、特徴点生成部107aによって実行される。特徴点生成部107aは、図4に示すように、補正後動画のフレーム(第sフレーム)に、ターゲット動画の、このフレームの前後に撮像された5フレーム(第(s−5)〜第(s+5)フレーム)が含む特徴点ps−5〜ps+5がそれぞれ投影するエピポーラ線を、基礎行列F”s、s−5〜F”s、s+5に基づいて取得し、これらのエピポーラ線の交点の座標の平均値を、手ぶれ補正後の特徴点p’の座標として取得する。特徴点生成部107aは、手ぶれ補正後の特徴点p’を第sフレームにおける構成点として取得することにより、手ぶれ補正後の特徴点軌道P’を構築する。
(D)の処理は、画像処理部107cによって実行される。画像処理部107cは、ターゲット動画の各フレームが含む全ての画素に対し、特徴点軌道Pのこのフレームにおける構成点である特徴点pを、手ぶれ補正後の特徴点軌道P’の構成点であり、この特徴点pに対応する手ぶれ補正後の特徴点p’へ移す画像処理を、任意の公知技術(例えば、ヘルマート変換、アフィン変換、射影変換)を用いて施すことにより、各フレームに手ぶれ補正を施す。
図1に戻って、RAM20は、データやプログラムを一時的に記憶する。RAM20は、制御部10が各種プログラムを実行する際、ワークメモリとして機能する。
ROM30は、データやプログラムを固定的に記憶する。具体的に、本実施形態において、ROM30は、外部装置から取得したターゲット動画(手ぶれ補正対象の動画)を予め記憶している。また、ROM30は、制御プログラムや画像処理プログラムを含む各種プログラムを記憶している。
入力部40は、ユーザの操作に従って入力を受け付ける。入力部40は、受け付けた入力を制御部10へ供給する。
表示部50は、ディスプレイ(例えば、LCD(Liquid Crystal Display))を備え、制御部10から供給された画像を表示する。例えば、表示部50は、制御部10から供給されたターゲット動画や補正後動画を表示する。
外部インタフェース60は、外部装置との間でデータをやり取りする。例えば、外部インタフェース60は、外部装置からターゲット動画を取得する。また、外部インタフェース60は、補正後動画を外部装置へ出力する。
以下、上述の構成を有する画像処理装置1が実行する手ぶれ補正処理を、図5のフローチャートを参照しながら説明する。
画像処理装置1のROM30は、手ぶれ補正の対象となるターゲット動画を、予め外部から取得して記憶している。
手ぶれ補正処理の実行を所望するユーザは、入力部40を操作することにより、画像処理装置1が備える複数の動作モードの一つである「手ぶれ補正モード」を選択する。制御部10は、「手ぶれ補正モード」が選択されたことに応答して、画像処理プログラムをROM30から取得し、RAM20に展開する。また、制御部10は、ターゲット動画をROM30から取得し、RAM20に展開する。
ユーザは、入力部40を操作することにより、手ぶれ補正処理の開始を指示する。制御部10は、手ぶれ補正処理の開始が指示されたことに応答して、図5のフローチャートに示す手ぶれ補正処理を開始する。
手ぶれ補正処理を開始すると、まず、特徴点抽出部101が、特徴点pをターゲット動画の全フレームにわたって時間的に追跡することにより、所定数(本実施形態では、100本)の特徴点軌道Pを構築する(ステップS101)。
次に、制御部10が、ターゲット動画の開始フレームを第tフレームとして指定する(ステップS102)。ターゲット動画の開始フレームは、ターゲット動画が含む複数のフレームのうち最も撮像時刻が古いフレームである。次に、制御部10は、ターゲット動画の第(t−10)フレームを第Aフレームとして指定する(ステップS103)。第(t−10)フレームは、第tフレームより10フレーム前のフレームである。
特徴点群取得部102〜基礎行列取得部106は、基礎行列取得処理を実行することにより、基礎行列Ft、A(ターゲット動画の第tフレームと第Aフレームとの間のエピポーラ幾何関係を表す基礎行列)を取得する(ステップS104)。以下、ステップS104の基礎行列取得処理の詳細を、図6のフローチャートを参照しながら説明する。
ステップS104の基礎行列取得処理を開始すると、まず、特徴点群取得部102が、同一の特徴点軌道Pの第tフレーム及び第Aフレームそれぞれにおける特徴点p、pを組み合わせて1つの特徴点対を取得する処理を繰り返し、複数の特徴点対を取得する(ステップS201)。
特徴点群取得部102は、ステップS201で取得した複数の特徴点対のうち8対をランダムに選択し、これらの特徴点対を構成する第tフレーム中の特徴点pのみを組み合わせることにより1つの特徴点群を取得する処理を繰り返して、所定数(本実施形態では、500個)の特徴点群を取得する(ステップS202)。
仮基礎行列取得部103が、ステップS202で取得された500個の特徴点群それぞれに対応する仮基礎行列F’t、Aを取得する(ステップS203)。
分散度取得部105は、ステップS203で取得された500個の仮基礎行列F’t、Aのうち何れか一つを選択する(ステップS204)。以下、ステップS205〜S211の処理を実行することにより、ステップS204で選択した仮基礎行列F’t、Aに対応する分散度を取得する。
距離取得部104は、ターゲット動画の第tフレームが含む複数の特徴点pのうち何れか一つを選択する(ステップS205)。
距離取得部104は、ステップS205で選択した特徴点pがターゲット動画の第Aフレームに投影するエピポーラ線を、ステップS204で選択した仮基礎行列F’t、Aに基づいて取得する(ステップS206)。
距離取得部104は、ステップS205で選択した特徴点pに対応する第Aフレーム中の特徴点pと、ステップS206で取得したエピポーラ線と、の間の距離を取得する(ステップS207)。
分散度取得部105は、ステップS207で取得した距離が所定の閾値(本実施形態では、0.1ピクセル)以下であるか否か判別する(ステップS208)。距離が0.1ピクセルより大きいと判別すると(ステップS208;NO)、処理はステップS210へ移る。
距離が0.1ピクセル以下であると判別すると(ステップS208;YES)、分散度取得部105は、ステップS205で選択した特徴点pを中心とする所定半径R(本実施形態では、R=32ピクセル)の円を仮想領域として生成する(ステップS209)。なお、ステップS209において、ステップS205で選択した特徴点pではなく、この特徴点pに対応する特徴点pを中心とする所定半径Rの円を仮想領域として生成してもよい。
分散度取得部105は、ターゲット動画の第tフレームが含む全ての特徴点pを選択済みか否か判別する(ステップS210)。未だ選択していない特徴点pがあると判別すると(ステップS210;NO)、処理はステップS205へ戻り、未選択の特徴点pのうち何れか一つが選択される。分散度取得部105は、全ての特徴点pが選択済みであると判別されるまでステップS205〜S210の処理を繰り返すことにより、ターゲット動画の第tフレーム中の特徴点pのうち、ステップS204で選択した仮基礎行列F’t、Aが対応点との間のエピポーラ幾何関係を一定レベル以上に正確に表している全ての特徴点pを中心として仮想領域を生成する。
全ての特徴点pを選択済みと判別すると(ステップS210;YES)、分散度取得部105が、生成された全ての仮想領域の面積を重複無く足し合わせることによって得られた合計値を、ステップS204で選択した仮基礎行列F’t、Aに対応する分散度として取得する(ステップS211)。
分散度取得部105は、ステップS203で取得した500個の仮基礎行列F’t、Aを全て選択済みか否か判別する(ステップS212)。未だ選択していない仮基礎行列F’t、Aがあると判別すると(ステップS212;NO)、処理はステップS204へ戻り、未選択の仮基礎行列F’t、Aのうち何れか一つが選択される。分散度取得部105は、全ての仮基礎行列F’t、Aを選択済みと判別されるまでステップS204〜S212の処理を繰り返すことにより、ステップS203で取得した全てのF’t、Aに対応する分散度を取得する。
仮基礎行列F’t、Aを全て選択済みと判別すると(ステップS212;YES)、基礎行列取得部106が、分散度が最も大きい仮基礎行列Ft、A’を基礎行列Ft,Aとして取得し(ステップS213)、基礎行列取得処理を終了する。
図5のフローチャートに戻って、ステップS104の基礎行列取得処理が終了した後、制御部10は、値Aを1だけインクリメントする(ステップS105)。すなわち、制御部10は、ステップS104の基礎行列取得処理の対象である第Aフレームを、次に撮像時刻が新しいフレームに変更する。例えば、直前に実行した基礎行列取得処理においてターゲット動画の第(t−10)フレームが第Aフレームとして指定されていた場合、制御部10は、第(t−10)フレームの次に撮像時刻が新しいフレームである第(t−9)フレームを新たに第Aフレームとして指定する。
制御部10は、インクリメント後の値Aと値tとが一致するか否か判別する(ステップS106)。すなわち、制御部10は、第Aフレームと第tフレームとが一致するか否か判別する。一致しないと判別すると(ステップS106;NO)、処理はステップS104へ戻る。制御部10は、値Aと値tとが一致すると判別されるまでステップS104〜S106の処理を繰り返すことにより、ターゲット動画の第tフレームと第tフレームの直前の10フレーム(第(t−10)〜第(t−1)フレーム)との間のエピポーラ幾何関係を表す基礎行列Ft、t−10〜Ft、t−1を取得する。
値Aと値tとが一致すると判別すると(ステップS106;YES)、制御部10は値tを1だけインクリメントする(ステップS107)。制御部10は、インクリメント後の第tフレームとターゲット動画の終了フレームとが一致するか否か判別する(ステップS108)。ターゲット動画の終了フレームは、ターゲット動画が含む複数のフレームのうち撮像時刻が最も新しいフレームである。一致しないと判別すると(ステップS108;NO)、処理はステップS103へ戻る。制御部10は、第tフレームと終了フレームとが一致すると判別されるまでステップS103〜S108の処理を繰り返すことにより、ターゲット動画の全てのフレームについて、直前の10フレームそれぞれとの間のエピポーラ幾何関係を表す基礎行列Fを取得する。
第tフレームと終了フレームとが一致すると判別すると(ステップS108;YES)、特徴点生成部107aが、基礎行列Fに基づいて、仮想特徴点軌道Vを構築する(ステップS109)。平滑化部107bは、ステップS109で構築された仮想特徴点軌道Vを平滑化することにより、手ぶれ補正後の仮想特徴点軌道V’を構築する(ステップS110)。
次に、制御部10が、補正後動画の開始フレームを第sフレームとして指定する(ステップS111)。制御部10は、ターゲット動画の第(s−5)フレームを第Bフレームとして指定する(ステップS112)。
特徴点群取得部102〜基礎行列取得部106は、基礎行列取得処理を実行することにより、基礎行列F”s、B(補正後動画の第sフレームとターゲット動画の第Bフレームとの間のエピポーラ幾何関係を表す基礎行列)を取得する(ステップS113)。
ステップS113の基礎行列取得処理は、上述したステップS104の基礎行列取得処理と同様の処理であるため、詳細な説明は省略する。なお、ステップS113の基礎行列取得処理では、図6のフローチャートのステップS201において、互いに対応する仮想特徴点vと手ぶれ補正後の仮想特徴点v’とで構成される特徴点対が取得される。具体的には、特徴点群取得部102が、仮想特徴点軌道Vの構成点である仮想特徴点vと、この仮想特徴点軌道Vを平滑化することにより構築された手ぶれ補正後の仮想特徴点軌道V’の構成点である手ぶれ補正後の仮想特徴点v’と、を組み合わせることにより特徴点対を取得する。
図5のフローチャートに戻って、ステップS113の基礎行列取得処理が終了した後、制御部10が、値Bを1だけインクリメントする(ステップS114)。制御部10は、インクリメント後の値Bと値(s+6)とが一致するか否か判別する(ステップS115)。一致しないと判別すると(ステップS115;NO)、処理はステップS113へ戻る。制御部10は、値Bと値(s+6)とが一致すると判別されるまでステップS113〜S115の処理を繰り返すことにより、補正後動画の第sフレームとターゲット動画の第(s−5)〜第(s+5)フレームそれぞれとの間のエピポーラ幾何関係を表す基礎行列F”s、s−5〜F”s、s+5を取得する。
値Bと値(s+6)とが一致すると判別すると(ステップS115;YES)、制御部10が、値sを1だけインクリメントする(ステップS116)。制御部10は、インクリメント後の第sフレームと補正後動画の終了フレームとが一致するか否か判別する(ステップS117)。一致しないと判別すると(ステップS117;NO)、処理はステップS112へ戻る。制御部10は、第sフレームと終了フレームとが一致すると判別されるまでステップS112〜S117の処理を繰り返すことにより、補正動画の全てのフレームについて、ターゲット動画の前後5フレームそれぞれとの間のエピポーラ幾何関係を表す基礎行列F”を取得する。
第sフレームと終了フレームとが一致すると判別すると(ステップS117;YES)、特徴点生成部107aが、ステップS101で構築した特徴点軌道Pと基礎行列F”とに基づいて、手ぶれ補正後の特徴点軌道P’を構築する。(ステップS118)。
画像処理部107cが、ターゲット動画の各フレームに対し、特徴点軌道Pと手ぶれ補正後の特徴点軌道P’とに基づいて手ぶれ補正を施し(ステップS119)、手ぶれ補正処理を終了する。
以上説明したように、本実施形態に係る画像処理装置1は、分散度が最大の仮基礎行列を基礎行列として取得することにより、最も精度の良い仮基礎行列を基礎行列として取得する。画像処理装置1は、この基礎行列に基づいて動画に手ぶれ補正を施す。すなわち、画像処理装置1は、精度の良い基礎行列に基づいて手ぶれ補正を実行することができる。
(第2実施形態)
第1実施形態に係る画像処理装置1は、仮基礎行列に対応する分散度に基づき、精度の良い基礎行列を取得した。しかし、これは一例に過ぎず、本発明に係る画像処理装置は、特徴点pに関する他の分散度に基づき、精度の良い基礎行列を取得することもできる。以下、特徴点群を構成する特徴点pの分散度に基づいて精度の良い基礎行列を取得する画像処理装置1’の機能及び動作について説明する。
画像処理装置1’は、図7に示すように、画像処理装置1とほぼ同一の構成を備えている。しかし、画像処理装置1’は、画像処理装置1とは異なり、仮基礎行列取得部103及び距離取得部104を備えていない。また、画像処理装置1’の分散度取得部105及び基礎行列取得部106の機能は、画像処理装置1の分散度取得部105及び基礎行列所得部106の機能と異なる。
具体的に、画像処理装置1’の分散度取得部105は、特徴点群取得部102が取得した各特徴点群に対応する分散度を取得する。特徴点群に対応する分散度は、特徴点群を構成する特徴点pがフレーム中にどの程度散らばって分布しているかを示す。
基礎行列取得部106は、特徴点群取得部102が取得した複数の特徴点群のうち、分散度が最も大きい特徴点群を構成する特徴点pの座標に基づいて、2つのフレーム(第sフレーム及び第tフレーム)の間のエピポーラ幾何関係を表す基礎行列Fを取得する。具体的に、基礎行列取得部106は、分散度が最も大きい特徴点群が含む8個の特徴点pと、これらの特徴点pと共に特徴点対を構成する特徴点pと、の座標を式(1)へ代入することにより、基礎行列Fを取得する。
基礎行列Fは、この基礎行列Fを取得するために座標を用いた8対の互いに対応する特徴点p、pのエピポーラ幾何関係を正確に表す。従って、基礎行列Fの取得に座標を用いた特徴点pがフレーム(第tフレーム)中に広く散らばって分布しているほど、この基礎行列Fが正確に対応点との間のエピポーラ幾何関係を表している特徴点pが第tフレーム中に広く散らばって分布しており、この基礎行列Fが正確にエピポーラ幾何関係を表している第tフレーム中の範囲は広い。基礎行列取得部106は、分散度が最も大きい特徴点群を構成する特徴点pの座標に基づいて基礎行列Fを取得することにより、フレーム内の最も広い範囲にわたって最適化された(最も精度の良い)基礎行列Fを取得する。
以下、上述の構成を有する画像処理装置1’が実行する手ぶれ補正処理について詳細に説明する。画像処理装置1’は、図5のフローチャートに示す手ぶれ補正処理とほぼ同一の手ぶれ補正処理を実行する。しかし、画像処理装置1’は、ステップS104及びステップS113において、図6のフローチャートに示す基礎行列取得処理の代わりに、図8のフローチャートに示す基礎行列取得処理を実行する。以下、図8のフローチャートに示す基礎行列取得処理について説明する。
図8のフローチャートの基礎行列取得処理を開始すると、まず、特徴点群取得部102が、図5のフローチャートのステップS101で構築された特徴点軌道Pのうち同一の特徴点軌道Pの第tフレーム及び第Aフレームにおける構成点である互いに対応する特徴点p、pを組み合わせて1つの特徴点対を取得する処理を繰り返し、複数の特徴点対を取得する(ステップS301)。
特徴点群取得部102は、ステップS301で取得した複数の特徴点対のうち8対をランダムに選択し、これらの特徴点対を構成する第tフレーム中の特徴点pを組み合わせることにより1つの特徴点群を取得する処理を繰り返して、所定数(本実施形態では、500個)の特徴点群を取得する(ステップS302)。
分散度取得部105が、ステップS302で取得した500個の特徴点群のうち何れか一つを選択する(ステップS303)。
分散度取得部105は、ステップS303で選択した特徴点群を構成する各特徴点pを中心とする所定半径Rの円を、仮想領域として生成する(ステップS304)。
分散度取得部105は、生成した全ての仮想領域の面積を重複なく足し合わせることにより得られた合計値を、ステップS303で選択した特徴点群に対応する分散度として取得する(ステップS305)。
分散度取得部105は、全ての特徴点群を選択済みか否か判別する(ステップS306)。未選択の特徴点群があると判別すると(ステップS306;NO)、処理はステップS303へ戻り、未選択の特徴点群のうち何れか一つが選択される。
全ての特徴点群を選択済みであると判別すると(ステップS306;YES)、基礎行列取得部106が、分散度の最も大きい特徴点群を構成する特徴点pの座標に基づいて、基礎行列Fを取得し(ステップS307)、基礎行列取得処理を終了する。
以上説明したように、本実施形態に係る画像処理装置1’は、特徴点群に対応する分散度に基づいて、精度の良い基礎行列を取得する。画像処理装置1’は、取得した基礎行列に基づいて、ターゲット動画に手ぶれ補正を施す。すなわち、画像処理装置1’は、精度の良い基礎行列に基づいて、手ぶれ補正を実行することができる。
画像処理装置1’は、第1実施形態に係る画像処理装置1とは異なり、仮基礎行列の算出や、エピポーラ線の取得、距離の取得を行わない。このため、画像処理装置1と比べて小さな処理負荷で、精度の良い基礎行列を用いた手ぶれ補正を実行できる。
以上、本発明の実施形態について説明したが、これらの実施形態は一例であり、本発明の適用範囲はこれに限られない。すなわち、本発明の実施形態は種々の応用が可能であり、あらゆる実施の形態が本発明の範囲に含まれる。
上述の実施形態において、画像処理装置1は、ターゲット動画を予め外部装置から取得し、記憶していた。しかし、これは一例に過ぎず、画像処理装置1は、ターゲット動画を自ら生成してもよい。この場合、画像処理装置1は撮像部を備える。撮像部は、被写体を撮像することによりターゲット動画を生成する。
上述の実施形態では、複数の特徴点pを基準として生成した仮想領域の面積を重複なく足し合わせて得られる合計値を、これらの特徴点pの分散度として取得した。しかし、これは一例に過ぎず、この他の値を、特徴点pの分散度として取得してもよい。
例えば、複数の特徴点pの座標の値の分散または標準偏差を、これらの特徴点pの分散度として取得してもよい。この態様によれば、仮想領域を生成し、生成した仮想領域の面積を重複なく足し合わせる処理が必要ないため、上述の実施形態に比べて演算負荷が軽減される。
また、複数の特徴点pの間の距離の平均値または中間値を、これらの特徴点pの分散度として取得してもよい。この態様によれば、仮想領域を生成し、生成した仮想領域の面積を重複なく足し合わせる処理が必要ないため、上述の実施形態に比べて演算負荷が軽減される。
また、図9に示すように、複数の特徴点pを互いに連結する直線(連結線)によって構成され、これらの特徴点pを包摂する閉曲線の長さ、またはこの閉曲線が囲む領域の面積を、これらの特徴点pの分散度として取得してもよい。この態様によれば、仮想領域を生成し、生成した仮想領域の面積を重複なく足し合わせる処理が必要ないため、上述の実施形態に比べて演算負荷が軽減される。なお、連結線によって構成され、特徴点pを包摂する閉曲線の形状は、任意の公知技術に用いて取得すればよい。例えば、非特許文献2(大内 隆志、阿部 正英,川又 政征、「ドロネー三角形分割を用いた不連続な輪郭線を構成する点の連結」、平成12年度電気関係学会東北支部連合大会講演論文集、2000年、8月、p.159)には、複数の点を互いに連結する直線によって構成され、これらの点を包摂する閉曲線の形状を、ドロネー三角形分割を用いて取得する技術が開示されている。
また、図10に示すように、フレームを複数の領域(区画)に分割し、特徴点pを含む区画の数を、これらの特徴点pの分散度として取得してもよい。この態様によれば、仮想領域を生成し、生成した仮想領域の面積を重複なく足し合わせる処理が必要ないため、上述の実施形態に比べて演算負荷が軽減される。
本発明に係る画像処理装置は、スマートフォンやコンピュータ、デジタルカメラ、PDA(Personal Digital Assistance)等の任意の電子機器によって実現できる。
具体的には、スマートフォン、コンピュータ、デジタルカメラ、PDA等の電子機器を本発明に係る画像処理装置として動作させるためのプログラムを、これらの電子機器が読み取り可能な記録媒体(例えば、メモリカードやCD−ROM(Compact Disc Read−Only Memory)、DVD−ROM(Digital Versatile Disc Read−Only Memory)等)に格納して配布し、インストールすることにより本発明に係る画像処理装置を実現することができる。
あるいは、上記プログラムを、インターネット等の通信ネットワーク上のサーバ装置が有する記憶装置(例えば、ディスク装置等)に格納しておき、スマートフォン、コンピュータ、デジタルカメラ、PDA等がこのプログラムをダウンロードすることによって本発明に係る画像処理装置を実現してもよい。
また、本発明に係る画像処理装置の機能を、オペレーティングシステム(OS:Operating System)とアプリケーションプログラムとの協働又は分担により実現する場合には、アプリケーションプログラム部分のみを記録媒体や記憶装置に格納してもよい。
また、アプリケーションプログラムを搬送波に重畳し、通信ネットワークを介して配信してもよい。例えば、通信ネットワーク上の掲示板(BBS:Bulletin Board System)にアプリケーションプログラムを掲示し、ネットワークを介してアプリケーションプログラムを配信してもよい。そして、このアプリケーションプログラムをコンピュータにインストールして起動し、OSの制御下で、他のアプリケーションプログラムと同様に実行することにより、本発明に係る画像処理装置を実現してもよい。
以上、本発明の好ましい実施の形態について説明したが、本発明は係る特定の実施の形態に限定されるものではなく、本発明には、特許請求の範囲に記載された発明とその均等の範囲が含まれる。以下に、本願出願当初の特許請求の範囲に記載された発明を付記する。
(付記1)
画像中の複数の特徴点で構成される特徴点群を取得する特徴点群取得手段と、
前記画像中において、特徴点がどの程度散らばって分布しているかを示す分散度を取得する分散度取得手段と、
前記特徴点群取得手段が取得した特徴点群を構成する特徴点の座標と、前記分散度取得手段が取得した分散度と、に基づいて、前記画像と該画像を含む動画中の他の画像との間のエピポーラ幾何関係を表す基礎行列を取得する基礎行列取得手段と、
前記基礎行列取得手段が取得した基礎行列に基づいて、前記動画に対して画像処理を施す処理手段と、
を備える、
ことを特徴とする画像処理装置。
(付記2)
前記特徴点群取得手段が取得した特徴点群を構成する特徴点の座標に基づいて、前記画像と前記他の画像との間のエピポーラ幾何関係を表す仮基礎行列を取得する仮基礎行列取得手段と、
前記仮基礎行列取得手段が取得した仮基礎行列に基づいて、前記画像に含まれる特徴点が前記他の画像に投影するエピポーラ線と、該特徴点に対応する前記他の画像中の特徴点と、の間の距離を取得する距離取得手段と、
をさらに備え、
前記分散度取得手段は、
前記画像に含まれる複数の特徴点のうち、前記仮基礎行列に基づいて前記距離取得手段が取得した距離が閾値内の特徴点の前記画像における分散度を示す仮基礎行列に対応する分散度を取得し、
前記基礎行列取得手段は、
前記仮基礎行列取得手段が取得した複数の仮基礎行列のうち、前記分散度取得手段が取得した仮基礎行列に対応する分散度が最も大きい仮基礎行列を、前記基礎行列として取得する、
ことを特徴とする付記1に記載の画像処理装置。
(付記3)
前記分散度取得手段は、
前記特徴点群取得手段が取得した特徴点群を構成する特徴点の前記画像における分散度を示す特徴点群に対応する分散度を取得し、
前記基礎行列取得手段は、
前記特徴点群取得手段が取得した複数の特徴点群のうち、前記分散度取得手段が取得した特徴点群に対応する分散度が最も大きい特徴点群を構成する特徴点の座標に基づいて、前記基礎行列を取得する、
ことを特徴とする付記1に記載の画像処理装置。
(付記4)
前記分散度取得手段は、
特徴点を基準として生成された仮想領域の面積に基づいて、前記分散度を取得する、
ことを特徴とする付記1乃至3の何れか一つに記載の画像処理装置。
(付記5)
前記分散度取得手段は、
特徴点の座標の値の分散または標準偏差に基づいて、前記分散度を取得する、
ことを特徴とする付記1乃至3の何れか一つに記載の画像処理装置。
(付記6)
前記分散度取得手段は、
特徴点の間の距離の平均値または中間値に基づいて、前記分散度を取得する、
ことを特徴とする付記1乃至3の何れか一つに記載の画像処理装置。
(付記7)
前記分散度取得手段は、
複数の特徴点を互いに連結する直線によって構成され、該複数の特徴点を包摂する閉曲線の形状に基づいて、前記分散度を取得する、
ことを特徴とする付記1乃至3の何れか一つに記載の画像処理装置。
(付記8)
前記分散度取得手段は、
前記画像を複数の領域に分割したときに特徴点を含む領域の数に基づいて、前記分散度を取得する、
ことを特徴とする付記1乃至3の何れか一つに記載の画像処理装置。
(付記9)
画像中の複数の特徴点で構成される特徴点群を取得する特徴点群取得ステップと、
前記画像中において、特徴点がどの程度散らばって分布しているかを示す分散度を取得する分散度取得ステップと、
前記特徴点群取得ステップにおいて取得した特徴点群を構成する特徴点の座標と、前記分散度取得ステップにおいて取得した分散度と、に基づいて、前記画像と該画像を含む動画に含まれる他の画像との間のエピポーラ幾何関係を表す基礎行列を取得する基礎行列取得ステップと、
前記基礎行列取得ステップにおいて取得した基礎行列に基づいて、前記動画に対して画像処理を施す処理ステップと、
を含む、
ことを特徴とする画像処理方法。
(付記10)
コンピュータを、
画像中の複数の特徴点で構成される特徴点群を取得する特徴点群取得手段、
前記画像中において、特徴点がどの程度散らばって分布しているかを示す分散度を取得する分散度取得手段、
前記特徴点群取得手段が取得した特徴点群を構成する特徴点の座標と、前記分散度取得手段が取得した分散度と、に基づいて、前記画像と該画像を含む動画に含まれる他の画像との間のエピポーラ幾何関係を表す基礎行列を取得する基礎行列取得手段、
前記基礎行列取得手段が取得した基礎行列に基づいて、前記動画に対して画像処理を施す処理手段、
として機能させるためのプログラム。
1、1’…画像処理装置、10…制御部、20…RAM、30…ROM、40…入力部、50…表示部、60…外部インタフェース、101…特徴点抽出部、102…特徴点群取得部、103…仮基礎行列取得部、104…距離取得部、105…分散度取得部、106…基礎行列取得部、107…処理部、107a…特徴点生成部、107b…平滑化部、107c…画像処理部

Claims (11)

  1. 画像中の複数の特徴点で構成される特徴点群を取得する特徴点群取得手段と、
    前記画像中において、特徴点がどの程度散らばって分布しているかを示す分散度を取得する分散度取得手段と、
    前記特徴点群取得手段が取得した特徴点群を構成する特徴点の座標と、前記分散度取得手段が取得した分散度と、に基づいて、前記画像と該画像を含む動画中の他の画像との間のエピポーラ幾何関係を表す基礎行列を取得する基礎行列取得手段と、
    前記基礎行列取得手段が取得した基礎行列に基づいて、前記動画に対して画像処理を施す処理手段と、
    を備える、
    ことを特徴とする画像処理装置。
  2. 前記特徴点群取得手段が取得した特徴点群を構成する特徴点の座標に基づいて、前記画像と前記他の画像との間のエピポーラ幾何関係を表す仮基礎行列を取得する仮基礎行列取得手段と、
    前記仮基礎行列取得手段が取得した仮基礎行列に基づいて、前記画像に含まれる特徴点が前記他の画像に投影するエピポーラ線と、該特徴点に対応する前記他の画像中の特徴点と、の間の距離を取得する距離取得手段と、
    をさらに備え、
    前記分散度取得手段は、
    前記画像に含まれる複数の特徴点のうち、前記仮基礎行列に基づいて前記距離取得手段が取得した距離が閾値内の特徴点の前記画像における分散度を示す仮基礎行列に対応する分散度を取得し、
    前記基礎行列取得手段は、
    前記仮基礎行列取得手段が取得した複数の仮基礎行列のうち、前記分散度取得手段が取得した仮基礎行列に対応する分散度が最も大きい仮基礎行列を、前記基礎行列として取得する、
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記分散度取得手段は、
    前記特徴点群取得手段が取得した特徴点群を構成する特徴点の前記画像における分散度を示す特徴点群に対応する分散度を取得し、
    前記基礎行列取得手段は、
    前記特徴点群取得手段が取得した複数の特徴点群のうち、前記分散度取得手段が取得した特徴点群に対応する分散度が最も大きい特徴点群を構成する特徴点の座標に基づいて、前記基礎行列を取得する、
    ことを特徴とする請求項1に記載の画像処理装置。
  4. 前記分散度取得手段は、
    特徴点を基準として生成された仮想領域の面積に基づいて、前記分散度を取得する、
    ことを特徴とする請求項1乃至3の何れか一項に記載の画像処理装置。
  5. 前記分散度取得手段は、
    特徴点の座標の値の分散または標準偏差に基づいて、前記分散度を取得する、
    ことを特徴とする請求項1乃至3の何れか一項に記載の画像処理装置。
  6. 前記分散度取得手段は、
    特徴点の間の距離の平均値または中間値に基づいて、前記分散度を取得する、
    ことを特徴とする請求項1乃至3の何れか一項に記載の画像処理装置。
  7. 前記分散度取得手段は、
    複数の特徴点を互いに連結する直線によって構成され、該複数の特徴点を包摂する閉曲線の形状に基づいて、前記分散度を取得する、
    ことを特徴とする請求項1乃至3の何れか一項に記載の画像処理装置。
  8. 前記分散度取得手段は、
    前記画像を複数の領域に分割したときに特徴点を含む領域の数に基づいて、前記分散度を取得する、
    ことを特徴とする請求項1乃至3の何れか一項に記載の画像処理装置。
  9. 前記画像処理は、手ぶれ補正処理であることを特徴とする請求項1乃至8の何れか一項に記載の画像処理装置。
  10. 画像中の複数の特徴点で構成される特徴点群を取得する特徴点群取得ステップと、
    前記画像中において、特徴点がどの程度散らばって分布しているかを示す分散度を取得する分散度取得ステップと、
    前記特徴点群取得ステップにおいて取得した特徴点群を構成する特徴点の座標と、前記分散度取得ステップにおいて取得した分散度と、に基づいて、前記画像と該画像を含む動画に含まれる他の画像との間のエピポーラ幾何関係を表す基礎行列を取得する基礎行列取得ステップと、
    前記基礎行列取得ステップにおいて取得した基礎行列に基づいて、前記動画に対して画像処理を施す処理ステップと、
    を含む、
    ことを特徴とする画像処理方法。
  11. コンピュータを、
    画像中の複数の特徴点で構成される特徴点群を取得する特徴点群取得手段、
    前記画像中において、特徴点がどの程度散らばって分布しているかを示す分散度を取得する分散度取得手段、
    前記特徴点群取得手段が取得した特徴点群を構成する特徴点の座標と、前記分散度取得手段が取得した分散度と、に基づいて、前記画像と該画像を含む動画に含まれる他の画像との間のエピポーラ幾何関係を表す基礎行列を取得する基礎行列取得手段、
    前記基礎行列取得手段が取得した基礎行列に基づいて、前記動画に対して画像処理を施す処理手段、
    として機能させるためのプログラム。
JP2015123594A 2015-06-19 2015-06-19 画像処理装置、画像処理方法及びプログラム Active JP6511980B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015123594A JP6511980B2 (ja) 2015-06-19 2015-06-19 画像処理装置、画像処理方法及びプログラム
US15/065,603 US10140688B2 (en) 2015-06-19 2016-03-09 Image processing apparatus for image processing based on accurate fundamental matrix
CN201610157198.3A CN106257910B (zh) 2015-06-19 2016-03-18 图像处理装置、图像处理方法和记录介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015123594A JP6511980B2 (ja) 2015-06-19 2015-06-19 画像処理装置、画像処理方法及びプログラム

Publications (3)

Publication Number Publication Date
JP2017011431A JP2017011431A (ja) 2017-01-12
JP2017011431A5 JP2017011431A5 (ja) 2018-07-05
JP6511980B2 true JP6511980B2 (ja) 2019-05-15

Family

ID=57587074

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015123594A Active JP6511980B2 (ja) 2015-06-19 2015-06-19 画像処理装置、画像処理方法及びプログラム

Country Status (3)

Country Link
US (1) US10140688B2 (ja)
JP (1) JP6511980B2 (ja)
CN (1) CN106257910B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11386636B2 (en) 2019-04-04 2022-07-12 Datalogic Usa, Inc. Image preprocessing for optical character recognition

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6536169B2 (ja) * 2015-05-21 2019-07-03 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
CN108108700B (zh) * 2017-12-27 2020-02-21 江苏大学 一种基于弦轴变换的猪的特征区域识别方法
US11113793B2 (en) * 2019-11-20 2021-09-07 Pacific future technology (Shenzhen) Co., Ltd Method and apparatus for smoothing a motion trajectory in a video
JP7477043B2 (ja) * 2021-03-03 2024-05-01 日本電気株式会社 基本行列生成装置、制御方法、及びプログラム
WO2022190224A1 (ja) * 2021-03-09 2022-09-15 日本電気株式会社 基礎行列生成装置、制御方法、及びコンピュータ可読媒体
CN113222113B (zh) * 2021-04-19 2023-10-31 西北大学 一种基于反缩放卷积层的信号生成方法及装置
CN113686264B (zh) * 2021-08-02 2022-08-02 中国科学院长春光学精密机械与物理研究所 一种基于极线几何的三维测量方法及系统

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7352386B1 (en) * 1999-06-22 2008-04-01 Microsoft Corporation Method and apparatus for recovering a three-dimensional scene from two-dimensional images
KR100526817B1 (ko) * 2003-04-22 2005-11-08 학교법인 중앙대학교 스테레오 영상 구현 시 기본행렬을 구하는 방법
US7244010B2 (en) * 2004-03-31 2007-07-17 Fujifilm Corporation Image processing method and apparatus, and image forming apparatus
JP2009237878A (ja) * 2008-03-27 2009-10-15 Dainippon Printing Co Ltd 複合映像生成システム、重畳態様決定方法、映像処理装置及び映像処理プログラム
US8355601B2 (en) * 2010-01-15 2013-01-15 Seiko Epson Corporation Real-time geometry aware projection and fast re-calibration
FR2955409B1 (fr) * 2010-01-18 2015-07-03 Fittingbox Procede d'integration d'un objet virtuel dans des photographies ou video en temps reel
WO2012044218A1 (en) * 2010-10-01 2012-04-05 Saab Ab A method and an apparatus for image-based navigation
EP2638524A2 (en) * 2010-11-09 2013-09-18 The Provost, Fellows, Foundation Scholars, & the other members of Board, of the College of the Holy & Undiv. Trinity of Queen Elizabeth near Dublin Method and system for recovery of 3d scene structure and camera motion from a video sequence
JP5977591B2 (ja) * 2012-06-20 2016-08-24 オリンパス株式会社 画像処理装置及びそれを備えた撮像装置、画像処理方法、並びに画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体
JP5901447B2 (ja) * 2012-06-27 2016-04-13 オリンパス株式会社 画像処理装置及びそれを備えた撮像装置、画像処理方法、並びに画像処理プログラム
US9466009B2 (en) * 2013-12-09 2016-10-11 Nant Holdings Ip. Llc Feature density object classification, systems and methods
CN105303189B (zh) * 2014-07-29 2019-08-20 阿里巴巴集团控股有限公司 一种用于检测预定区域中特定标识图像的方法及装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11386636B2 (en) 2019-04-04 2022-07-12 Datalogic Usa, Inc. Image preprocessing for optical character recognition

Also Published As

Publication number Publication date
CN106257910B (zh) 2020-01-07
US20160371817A1 (en) 2016-12-22
CN106257910A (zh) 2016-12-28
JP2017011431A (ja) 2017-01-12
US10140688B2 (en) 2018-11-27

Similar Documents

Publication Publication Date Title
JP6511980B2 (ja) 画像処理装置、画像処理方法及びプログラム
CN107920257B (zh) 视频关键点实时处理方法、装置及计算设备
CN107967693B (zh) 视频关键点处理方法、装置、计算设备及计算机存储介质
US8842906B2 (en) Body measurement
US8897539B2 (en) Using images to create measurements of structures through the videogrammetric process
CN108876804B (zh) 抠像模型训练和图像抠像方法、装置和系统及存储介质
JP6464938B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
US10147240B2 (en) Product image processing method, and apparatus and system thereof
JP2013239074A (ja) 情報処理装置および情報処理方法、並びにプログラム
TW202201348A (zh) 自單目影像產生立體影像資料
CN107851331A (zh) 平滑对象的三维模型以减轻伪影
CN111437604A (zh) 游戏的显示控制方法、装置、电子设备及存储介质
CN115439607A (zh) 一种三维重建方法、装置、电子设备及存储介质
US10600202B2 (en) Information processing device and method, and program
CN110189252B (zh) 生成平均脸图像的方法和装置
CN111061421A (zh) 一种画面投影方法、装置及计算机存储介质
AU2021235397B2 (en) Determining traversable space from single images
US9672423B2 (en) Object tracking apparatus and method thereof
CN116778094B (zh) 一种基于优选视角拍摄的建筑物变形监测方法及装置
CN113034582A (zh) 位姿优化装置及方法、电子设备及计算机可读存储介质
CN114627206A (zh) 网格绘制方法、装置、电子设备及计算机可读存储介质
CN109685015B (zh) 图像的处理方法、装置、电子设备和计算机存储介质
JP6451300B2 (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
US20210104096A1 (en) Surface geometry object model training and inference
KR102312363B1 (ko) 수의 계약으로 건축 공사에 대한 시공사를 선정하기 위한 방법 및 장치

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180523

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180523

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190325

R150 Certificate of patent or registration of utility model

Ref document number: 6511980

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150