JP5977591B2 - 画像処理装置及びそれを備えた撮像装置、画像処理方法、並びに画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体 - Google Patents

画像処理装置及びそれを備えた撮像装置、画像処理方法、並びに画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体 Download PDF

Info

Publication number
JP5977591B2
JP5977591B2 JP2012138569A JP2012138569A JP5977591B2 JP 5977591 B2 JP5977591 B2 JP 5977591B2 JP 2012138569 A JP2012138569 A JP 2012138569A JP 2012138569 A JP2012138569 A JP 2012138569A JP 5977591 B2 JP5977591 B2 JP 5977591B2
Authority
JP
Japan
Prior art keywords
corresponding points
unit
basic matrix
image processing
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012138569A
Other languages
English (en)
Other versions
JP2014003520A (ja
JP2014003520A5 (ja
Inventor
坂田 誠一郎
誠一郎 坂田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2012138569A priority Critical patent/JP5977591B2/ja
Priority to CN201380032255.XA priority patent/CN104396231B/zh
Priority to PCT/JP2013/053883 priority patent/WO2013190862A1/ja
Publication of JP2014003520A publication Critical patent/JP2014003520A/ja
Priority to US14/573,040 priority patent/US9760999B2/en
Publication of JP2014003520A5 publication Critical patent/JP2014003520A5/ja
Application granted granted Critical
Publication of JP5977591B2 publication Critical patent/JP5977591B2/ja
Priority to US15/673,961 priority patent/US10366504B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6811Motion detection based on the image signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/683Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Description

本発明は、画像処理装置及びそれを備えた撮像装置、画像処理方法、並びに画像処理プ
ログラムを記録したコンピュータ読み取り可能な記録媒体に関する。
一般に、同一被写体を異なる方向から撮像した複数の画像について、これら画像を取得したカメラの、画像を取得した際の位置及び姿勢の違いは、これら画像に基づいて得られることが知られている。すなわち、画像間の差異に基づいて基礎行列が得られ、この基礎行列に基づいて上述のカメラの位置及び姿勢の関係が算出されることが知られている。例えば特許文献1には、複数の画像から算出された基礎行列及びその基礎行列から算出された基本行列に基づいて、これら画像間の動き情報を算出し、この動き情報に基づいて、画像の防振補正を行う技術が開示されている。ここで基礎行列は、対象とする画像間で互いに対応する対応点に基づいて算出されている。
特開2008−259076号公報
基礎行列を高精度に得るためには、算出に用いる対応点の選択が重要な役割を果たすことが知られている。例えば、その被写体が存在する空間における奥行きがなく平面上に位置する点に相当する画像上の点が対応点として選択された場合、基礎行列は算出され得ない。また、この奥行きが小さい場合、算出される基礎行列の精度は低くなる。
そこで本発明は、精度が高い基礎行列を得ることができる画像処理装置及びそれを備えた撮像装置、画像処理方法、並びに画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体を提供することを目的とする。
前記目的を果たすため、本発明の一態様によれば、画像処理装置は、複数の画像を取得する画像取得部と、複数の前記画像間で互いに対応する複数の第1の対応点を取得する対応点取得部と、複数の前記第1の対応点に基づいて第1の基礎行列を算出する第1の基礎行列算出部と、前記第1の基礎行列に基づいて複数の前記第1の対応点に対する奥行きを算出する奥行き算出部と、前記奥行きに基づいて、複数の前記第1の対応点のうちから複数の第2の対応点を抽出する対応点抽出部と、複数の前記第2の対応点に基づいて第2の基礎行列を算出する基礎行列決定部とを具備し、前記対応点抽出部により抽出される複数の前記第2の対応点は、前記奥行きに基づいて、前記第1の対応点のうちから、最近の対応点と最奥の対応点とを含む対応点が抽出される
前記目的を果たすため、本発明の一態様によれば、撮像装置は、被写体の画像を撮像する撮像部と、同一の前記被写体に関して異なる時間に撮像された複数の前記画像を取得する画像取得部と、複数の前記画像において互いに対応する複数の第1の対応点を取得する対応点取得部と、複数の前記第1の対応点に基づいて第1の基礎行列を算出する第1の基礎行列算出部と、前記第1の基礎行列に基づいて奥行きを算出する奥行き算出部と、前記奥行きに基づいて、複数の前記第1の対応点のうちから複数の第2の対応点を抽出する対応点抽出部と、複数の前記第2の対応点に基づいて第2の基礎行列を算出する基礎行列決定部と、前記第2の基礎行列に基づいて、前記複数の画像の間に存在するブレを補正する補正部とを具備し、前記対応点抽出部により抽出される複数の前記第2の対応点は、前記奥行きに基づいて、前記第1の対応点のうちから、最近の対応点と最奥の対応点とを含む対応点が抽出される
前記目的を果たすため、本発明の一態様によれば、画像処理方法は、複数の画像を取得することと、複数の前記画像間で、互いに対応する複数の第1の対応点を取得することと、複数の前記第1の対応点に基づいて第1の基礎行列を算出することと、前記第1の基礎行列に基づいて複数の前記第1の対応点に対する奥行きを算出することと、前記奥行きに基づいて、複数の前記第1の対応点のうちから複数の第2の対応点を抽出することと、複数の前記第2の対応点に基づいて第2の基礎行列を算出することとを具備し、前記抽出された複数の前記第2の対応点は、前記奥行きに基づいて、前記第1の対応点のうちから、最近の対応点と最奥の対応点とを含む対応点が抽出される
前記目的を果たすため、本発明の一態様によれば、画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体は、複数の画像を取得することと、複数の前記画像間で、互いに対応する複数の第1の対応点を取得することと、複数の前記第1の対応点に基づいて第1の基礎行列を算出することと、前記第1の基礎行列に基づいて複数の前記第1の対応点に対する奥行きを算出することと、前記奥行きに基づいて、複数の前記第1の対応点のうちから複数の第2の対応点を抽出することと、複数の前記第2の対応点に基づいて第2の基礎行列を算出することと、複数の前記第2の対応点として、前記奥行きに基づいて、前記第1の対応点のうちから、最近の対応点と最奥の対応点とを含む対応点を抽出することとをコンピュータに実行させる。
本発明によれば、第1の基礎行列から得られる対応点の奥行きに基づいて、奥行差が大きくなるように選択された対応点を用いて基礎行列が決定されるので、精度が高い基礎行列を得ることができる画像処理装置及びそれを備えた撮像装置、画像処理方法、並びに画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体を提供できる。
第1の実施形態に係る画像処理装置の構成例を示すブロック図。 第1の実施形態に係る基礎行列算出部の構成例を示すブロック図。 第1の実施形態に係る第1の基礎行列算出部の構成例を示すブロック図。 第1の実施形態に係る画像処理部の構成例を示すブロック図。 第1の実施形態に係るブレ補正処理の一例を示すフローチャート。 第1の実施形態に係る特徴点追跡処理の一例を示すフローチャート。 第1の実施形態に係る特徴点追跡処理を説明するための図であって、処理対象の画像例を示す模式図。 第1の実施形態に係る特徴点追跡処理を説明するための図であって、処理対象の画像における特徴点の一例を示す模式図。 第1の実施形態に係る特徴点追跡処理を説明するための図であって、処理対象の画像における特徴点の対応の一例を示す模式図。 第1の実施形態に係る姿勢推定処理の一例を示すフローチャート。 第1の実施形態に係る第1の基礎行列算出処理の一例を示すフローチャート。 第1の実施形態に係るインライア個数算出処理の一例を示すフローチャート。 第1の実施形態に係る姿勢推定処理を説明するための図であって、奥行きに対するインライア対応点個数の関係の一例を示す図。 第2の実施形態に係る画像処理装置を備えたデジタルカメラの構成例を示すブロック図。 第3の実施形態に係る画像処理部の構成例を示すブロック図。
[第1の実施形態]
本発明の第1の実施形態について図面を参照して説明する。本実施形態に係る画像処理装置10の構成例の概略を図1に示す。画像処理装置10は、入力された複数の画像を含む画像情報に対して処理を行い、各画像を取得したカメラの位置及び姿勢の差に係る情報を算出し、この差の情報を用いた結果を出力する装置である。
画像処理装置10は、画像処理部100と、制御部11と、画像取得部12と、圧縮伸長部13と、第1の記憶部14と、第2の記憶部15と、出力部16とを備える。各部は、バス17を介して互いに接続されている。画像処理部100は、後に詳述するとおり、この画像処理装置10に係る処理の中心を担う。画像処理部100は、対応点取得部110と、基礎行列算出部122と、出力作成部130とを有する。対応点取得部110は、画像取得部12等から取得され、バス17を介して画像処理部100に入力された複数の画像間で、複数の互いに対応する点を第1の対応点として取得する。基礎行列算出部122は、入力された複数の画像の関係を表す基礎行列を算出する。基礎行列算出部122は、第1の基礎行列算出部123と、第2の基礎行列算出部124とを含む。出力作成部130は、基礎行列算出部122が算出した基礎行列に基づいて、入力された画像に係る出力情報を作成する。
制御部11は、例えばCPUを含み、画像処理装置10の各部の動作を制御し、また各種演算を行う。画像取得部12は、画像処理装置10で処理する複数の画像(動画像)を含む画像情報(画像データ)を取得する。圧縮伸長部13は、画像情報の圧縮及び伸長を行う。第1の記憶部14は、例えばRAMを含み、各種処理及び演算に必要な一時記憶を行う。第2の記憶部15は、例えばROMを含み、画像処理装置10の制御や演算に必要な各種プログラム等を記憶する。出力部16は、画像処理部100で作成された出力情報を出力する。
なお、第1の記憶部14と第2の記憶部15は、本実施例においては別構成としたが、1つの記憶部としても構わない。
基礎行列算出部122についてさらに詳細に説明する。第1の基礎行列算出部123の構成例を図3に示す。この図に示すように、第1の基礎行列算出部123は、対応点抽出部1231と、仮基礎行列算出部1232と、インライア算出部1233と、繰り返し判定部1234と、第1の基礎行列決定部1235とを有する。対応点抽出部1231は、対応点取得部110が取得した第1の対応点のうちから、例えば8点をランダムに抽出する。仮基礎行列算出部1232は、対応点抽出部1231により抽出された8点の第1の対応点に基づいて、基礎行列を算出する。ここで、ランダムに抽出された8点から算出した基礎行列を仮基礎行列と称することにする。インライア算出部1233は、対応点取得部110が取得した各第1の対応点について、仮基礎行列算出部1232が算出した仮基礎行列に基づいてエピポーラ線を算出し、このエピポーラ線と当該第1の対応点との距離を算出する。インライア算出部1233は、第1の対応点それぞれに対し、エピポーラ線との距離が所定の閾値より小さいか否かを判断し、所定の閾値未満(以下でもよい)の対応点をインライア対応点とし、第1の対応点のうちインライア対応点となる対応点の数を数える。繰り返し判定部1234は、各仮基礎行列に対応するインライア対応点の数の算出、つまり対応点抽出部1231の処理からインライア算出部1233までの処理を、所定の回数又は所定の条件を満たすまで繰り返させ、複数の仮基礎行列と当該仮基礎行列に対するインライア対応点の数を取得する。第1の基礎行列決定部1235は、各仮基礎行列に対するインライア対応点の数を比較し、最もインライア対応点の数が多い仮基礎行列を第1の基礎行列として決定する。
第2の基礎行列算出部124は、図2に示されるように、奥行き算出部1242と、第2の対応点抽出部1244と、基礎行列決定部1246とを有する。奥行き算出部1242は、第1の基礎行列に基づいて、各インライア対応点の3次元座標の復元を行う。第2の対応点抽出部1244は、インライア対応点の中から、奥行き方向の深さが深くなるように、8点を抽出する。この8点を第2の対応点と称する。基礎行列決定部1246は、第2の対応点に基づいて第2の基礎行列を算出する。
このように、インライア対応点から3次元座標を復元することで、正確な対応点からの3次元座標の復元が可能となるため、繰り返し演算をすることなく、正確な第2の対応点の抽出から第2の基礎行列を算出することが可能となる。
以降、画像処理装置10は、入力された動画像に対してブレを除去する処理を施し、ブレが除去された動画像を出力する装置であるものとして、具体的に説明する。すなわち、画像取得部12は、複数の画像(動画像)データを取得する。この画像データは、後述する図7等に示されるように被写体の情報を含んだ画像である。画像処理部100は、ブレ補正部として機能する。この実施形態に係る画像処理部100の構成例の概略を図4に示す。画像処理部100は、対応点取得部110と、基礎行列算出部122を有する姿勢推定部120と、出力作成部130とを含む。
対応点取得部110は、画像取得部12が取得した画像における特徴点に基づいて対応点を算出する特徴点追跡部112を有する。特徴点追跡部112は、特徴点検出部1122と、特徴量算出部1124と、マッチング算出部1126とを有する。特徴点検出部1122は、画像取得部12が取得した画像データ(動画像)を、バス17を介して入力され、当該動画像のNフレーム目の画像とN+1フレーム目の画像(連続する画像間)とのそれぞれの特徴点の候補を検出する。特徴量算出部1124は、特徴点検出部1122で検出された各特徴点の候補の特徴量を算出し、特徴量の高い点を特徴点として決定する。マッチング算出部1126は、特徴量算出部1124によって決定された特徴点について、Nフレーム目の特徴点とN+1フレーム目の特徴点との対応関係を取得する。対応関係が取得された特徴点を第1の対応点と称することにする。
姿勢推定部120は、上述の基礎行列算出部122と、基本行列算出部126と、回転・並進算出部128とを有する。基本行列算出部126は、第2の基礎行列に基づいて、基本行列を算出する。回転・並進算出部128は、基本行列に基づいて、Nフレーム目を撮影した撮像装置に対するN+1フレーム目を撮影した撮像装置の回転及び並進を算出する。
出力作成部130は、ブレを補正する補正部132を有する。補正部132は、姿勢推定部120が算出した撮像装置の回転及び並進に基づいて、Nフレーム目の画像とN+1フレーム目の画像との間にあるブレを除去する補正を行う。出力部16は、ブレを除去した動画像を出力する。
次に、本実施形態に係る画像処理装置10によるブレの除去に係る動作を説明する。画像処理装置10におけるブレ補正処理を、図5に示すフローチャートを参照して説明する。画像取得部12により取得した画像データ(動画像データ)が、バス17を介して画像処理部(ブレ補正部)100に入力される。ステップS101において画像処理部(ブレ補正部)100は、動画像を取得して、フレームの番号を表す変数Nを1に設定する。ステップS102において画像処理部(ブレ補正部)100の特徴点追跡部112は、Nフレーム目とN+1フレーム目との間の特徴点の追跡を行う特徴点追跡処理を行う。
特徴点追跡処理を図6に示すフローチャート及び図7乃至9に示す模式図を参照して説明する。ここで図7(a)はNフレーム目の画像を示し、図7(b)はN+1フレーム目の画像を示す。この図に示す例は、手前に花があり、奥に家があり、飛行機が飛んでいる場面の画像である。図7の場合、Nフレーム目の画像に対してN+1フレーム目の画像では、これらを撮影した撮像部が右奥方向に回り込んで撮影されている。
図6に示すように、本発明の特徴点追跡処理では、先ず、ステップS201において特徴点追跡部112内の特徴点検出部1122が、Nフレーム目の特徴点の候補の検出を行う。特徴点検出部1122は、例えば画像における物体の角や線の交わり(コーナー)等を特徴点の候補として検出する。この特徴点の候補の検出には、例えば一般的に知られているHarrisオペレータを用いた方法が利用される。また、例えばエッジを検出するSUSAN(Smallest Univalue Segment Assimilating Nucleus)オペレータを用いた方法が利用されてもよい。HarrisオペレータやSUSANオペレータは一例であり、他の手法も用いられ得る。
ステップS202において、特徴点追跡部112内の特徴量算出部1124によって、ステップS201で検出された各特徴点の候補の特徴量を算出する。ここで、特徴量は、例えば一般に知られているSIFT(Scale Invariant Feature Transform)やSURF(Speeded Up Robust Features)を用いて算出される。SIFTやSURFは一例であり、他の手法も用いられ得る。特徴量算出部1124は、特徴量に基づいて、特徴点の候補のうち確からしい特徴点を特徴点として決定する。例えばNフレーム目の画像が図7(a)に示された画像の場合、ステップS202の結果、例えば図8(a)に模式的に○印で示されるような特徴点が決定される。なお、通常であれば、特徴点の量は数千点にも及ぶことがあるが、ここでは説明を簡単にするため、数点の特徴点のみを例示する。
ステップS203において、特徴点追跡部112内の特徴点検出部1122によって、N+1フレーム目の特徴点の候補の検出を、ステップS201の場合と同様に行う。ステップS204において、特徴量算出部1124は、ステップS202の場合と同様にN+1フレーム目の特徴点の候補の特徴量を算出し、特徴点を決定する。例えば、N+1フレーム目の画像が図7(b)に示された画像の場合、ステップS204の結果、例えば図8(b)に模式的に△印で示されるような特徴点が決定される。
これらNフレームの特徴点とN+1フレームの特徴点が決定された後、次に、ステップS205において、特徴点追跡部112内のマッチング算出部1126によって、Nフレーム目とN+1フレーム目との特徴点及びそれらの特徴量を用いて、Nフレーム目とN+1フレーム目との特徴点の対応関係を決定する。つまり、画像間で被写体同一点となる関係にある対応点を決定する。例えば、図7に示されたNフレーム目の画像とN+1フレーム目の画像との場合、対応関係をN+1フレーム目の画像にベクトル表示すると、図9の模式図のようになる。このようにして決定されたNフレーム目とN+1フレーム目との対応関係が得られた特徴点を第1の対応点と称することにする。ステップS205の後、処理は図5を参照して説明しているブレ補正処理に戻る。
なお、後述の通り、Nの値を1ずつ増加させながら順に特徴点追跡処理を行う。したがって、N≧2における特徴点追跡処理においては、Nフレーム目の特徴点及び特徴量は、N−1フレーム目の特徴点追跡処理の際に算出されている。ステップS201及びステップS202では、N−1フレームの特徴点追跡処理において算出されたNフレーム目の特徴点と特徴量とを読み出してもよい。
図5に戻って説明を続ける。ステップS103において画像処理部(ブレ補正部)100の姿勢推定部120は、Nフレーム目に対するN+1フレーム目の姿勢を推定する姿勢推定処理を行う。姿勢推定処理を図10に示すフローチャートを参照して説明する。ステップS301において姿勢推定部120の第1の基礎行列算出部123は、第1の基礎行列算出処理を行う。この処理は、例えばRANSAC(RANdom SAmple Consensus)を用いた方法で行われる。
この第1の基礎行列算出処理を図11に示すフローチャートを参照して説明する。ステップS401において、第1の基礎行列算出部123の対応点抽出部1231は、特徴点追跡処理で決定された第1の対応点のうち、複数点(本実施形態では8点)の第1の対応点をランダムに抽出する。ステップS402において、第1の基礎行列算出部123の仮基礎行列算出部1232は、抽出した8点の第1の対応点に基づいて、例えば公知の8点アルゴリズムを用いて基礎行列を算出する。ここで算出された基礎行列を仮基礎行列と称することにする。
ステップS403において、第1の基礎行列算出部123のインライア算出部1233は、インライア個数算出処理を行う。インライア個数算出処理では、Nフレーム目とN+1フレーム目との2枚の画像に係るエピポーラ幾何を考える。このとき、特徴点追跡処理で求まった各第1の対応点について、仮基礎行列から求まるエピポーラ線(評価線)との距離が所定の閾値より小さいとき、その対応点をインライア(評価が高い)とする。インライア個数算出処理では、複数の第1の対応点のうちインライアである対応点の個数が求められる。
インライア個数算出処理を図12に示すフローチャートを参照して説明する。ステップS501においてインライア算出部1233は、インライアの個数を表す変数Iを8に設定する。これは、本実施形態では仮基礎行列の算出に用いた第1の対応点をインライアとしてカウントするためである。
続いて特徴点追跡処理で求まった全ての第1の対応点について以下の処理を行う。ステップS502において、インライア算出部1233は、仮基礎行列から求まるエピポーラ線と対象とする各第1の対応点との距離を算出する。ステップS503において、インライア算出部1233は、ステップS502で算出されたエピポーラ線との距離が所定の閾値未満(以下でもよい)であるか否かを判定する。距離が閾値未満であると判定されたとき、ステップS504においてインライア算出部1233は、インライアの個数を表す変数Iを1増加させる。第1の対応点のうち、エピポーラ線との距離が所定の閾値未満である対応点をインライア対応点と称することにする。その後処理はステップS505に進む。ステップS503の判定で距離が所定の閾値以上であると判定されたとき処理はステップS505に進む。
ステップS505においてインライア算出部1233は、全ての第1の対応点についてステップS502乃至ステップS504の処理がなされたか否かを判定する。処理がなされていないと判定されたとき、処理はステップS502に戻り、次の第1の対応点について同様の処理を行う。ステップS505の判定において、処理がなされたと判定されたとき、変数Iを戻り値として、処理は第1の基礎行列算出処理に戻る。
このようにして、全ての第1の対応点のうち第1の仮基礎行列に対してインライアである第1の対応点の個数Iが算出される。ここで、インライア対応点の個数が多い仮基礎行列ほど、Nフレーム目の画像とN+1フレーム目の画像との関係を適切に表す基礎行列であるといえる。
図11に戻って説明を続ける。ステップS404において第1の基礎行列算出部123の繰り返し判定部1234は、ステップS401乃至ステップS403の処理が所定回数行われたか否かを判定する。所定の回数行われていないとき、処理はステップS401に戻る。ステップS404において所定の回数処理が行われたと判定されたとき、処理はステップS405に進む。ステップS405において第1の基礎行列算出部123の第1の基礎行列決定部1235は、インライア対応点の個数Iが最も大きい仮基礎行列を第1の基礎行列として決定する。この第1の基礎行列におけるインライア対応点は、例えば図7における飛行機のような動体に対応する対応点は削除され、静止物体である家及び花の対応点が抽出されることになる。
ここでは、ステップS404の判断によるインライア対応点の個数を算出する仮基礎行列の数を所定数としている。しかしながらこれに限らず、所定の終了条件が満たされるまで、仮基礎行列についてインライア対応点の個数を算出するようにしてもよい。ステップS405の後、処理は第1の基礎行列を戻り値として姿勢推定処理に戻る。
図10に戻って説明を続ける。ステップS302乃至ステップS304において、姿勢推定部120の第2の基礎行列算出部124は、第1の基礎行列算出処理で求められた第1の基礎行列に基づいて、第2の基礎行列を算出する。すなわち、ステップS302において、第2の基礎行列算出部124の奥行き算出部1242は、第1の基礎行列算出部123(ステップS301の処理)で決定した第1の基礎行列を用いてインライア対応点の3次元の座標の復元を行う。一般に基礎行列を用いると、画像中の各点の被写体が存在する空間に対応する3次元座標が求まることが知られている。その結果、例えば図7のような画像の場合、図13にヒストグラムで示すような、奥行きを表す距離とインライア対応点の個数との関係が得られる。なお、図7において飛行機に検出された対応点は、飛行機が移動しているためインライア対応点とはならず図13には示されていない。
ステップS303において第2の基礎行列算出部124の第2の対応点抽出部1244は、インライア対応点の中から複数(本実施形態では8点)の第2の対応点を選択(抽出)する。このステップS303による選択において、第2の対応点抽出部1244は、復元した3次元座標に基づいて、奥行きが離れたインライア対応点を選択する。第2の対応点抽出部1244は、例えば最も手前側(最近)の近い4点のインライア対応点と、最も奥側(最奥)の遠い4点のインライア対応点を第2の対応点として選択(抽出)する。
なお、第2の対応点に用いる対応点は、最も手前側の近い4点のインライア対応点と、最も奥側の遠い4点のインライア対応点とに限定されない。第2の対応点の奥行き差が大きくなる種々の抽出方法が用いられ得る。例えば、最近のインライア対応点から順に所定の条件を満たすものが選択的に抽出され、さらに最奥のインライア対応点から順に所定の条件を満たすものが選択的に抽出されてもよい。この所定の条件が最近から4点及び最奥から4点であれば、上述の実施形態となる。また、この所定の条件は、例えば順に1,3,5,7番目など規則的に抽出されるものでもよい。また、所定の条件として、例えば画像平面を4つの領域に区切ってそれぞれの領域から1点ずつ抽出されるようにしてもよい。また、手前側から順に信頼性を満たす4点が抽出され、奥側から順に信頼性を満たす4点が抽出されるようにしてもよい。ここで信頼性の判断には、例えばインライア個数算出処理で用いた閾値よりも厳しい第2の閾値が用いられてもよい。すなわち、エピポーラ線とインライア対応点との距離がこの第2の閾値よりも小さいものであって、最も手前側の4点と最も奥側の4点とが第2の対応点として選択されてもよい。また、奥行き方向に離れているだけでなく、画像平面において離れた点を用いることが好ましい。信頼性が判断され、また、画像平面において離れた点が用いられるようにすると、後述の得られる第2の基礎行列の精度がより向上する。また、第2の対応点は、手前側と奥側とそれぞれ4点でなくてもよい。ただし、第2の対応点は、手前側と奥側とそれぞれ4点であることが好ましい。
ステップS304において第2の基礎行列算出部124の基礎行列決定部1246は、ステップS303で選択された8点の第2の対応点に基づいて、第2の基礎行列を算出する。第2の基礎行列の算出は、ステップS402における仮基礎行列の算出手法と同様である。ステップS305において姿勢推定部120の基本行列算出部126は、第2の基礎行列に基づいて、基本行列を算出する。基礎行列から基本行列を算出するには、一般に知られている手法が用いられる。ステップS306において、姿勢推定部120の回転・並進算出部128は、ステップS305で算出された基本行列に基づいて回転行列及び並進ベクトルを算出する。ここで、この回転行列及び並進ベクトルは、Nフレーム目の画像を取得したカメラの位置及び姿勢とN+1フレーム目の画像を取得したカメラの位置及び姿勢との差を表す。すなわち、この回転行列及び並進ベクトルは、Nフレーム目の画像を取得してからN+1フレーム目の画像を取得するまでのそれら画像を取得したカメラブレ量を表す。その後、処理は図5を参照して説明しているブレ補正処理に戻る。
図5に戻って説明を続ける。ステップS104において、画像処理部(ブレ補正部)100の補正部132は、姿勢推定処理で算出された回転行列及び並進ベクトルに基づいてブレの補正量を算出する。すなわち、出力作成部130の補正部132は、ステップS306で算出された回転行列及び並進ベクトルとして求まったNフレーム目とN+1フレーム目との間に生じたカメラのブレを相殺するために適切な画像の補正量を算出する。この際、例えばローパスフィルタ等を用いて、急激な補正が行われずに滑らかな補正となるように補正量は決定される。ステップS105において補正部132は、ステップS104で算出した補正量に基づいて画像変換を行い、画像のブレを除去する。このようにして、Nフレーム目とN+1フレーム目との間に生じたブレが除去された画像が作成される。
ステップS106において画像処理部(ブレ補正部)100は、次フレームがあるか否かを判定する。次フレームがあると判定されたとき、ステップS107において画像処理部(ブレ補正部)100は、変数NにN+1を代入する。その後処理はステップS102に戻る。ステップS107の判定で次フレームがないと判定されたとき、ブレ補正処理は終了する。ブレが除去された画像は、出力部16を介して出力される。なお、上記のブレ除去処理は、画像取得部12から入力されたフレームごとに順次行われ、ブレが除去された画像が順次出力部16から出力されてもよい。
このように、例えば画像取得部12は、複数の画像を取得する画像取得部として機能する。例えば対応点取得部110は、複数の前記画像間で、互いに対応する複数の第1の対応点を取得する対応点取得部として機能する。例えば第1の基礎行列算出部123は、複数の前記第1の対応点に基づいて第1の基礎行列を算出する第1の基礎行列算出部として機能する。例えば奥行き算出部1242は、前記第1の基礎行列に基づいて複数の前記第1の対応点に対する奥行きを算出する奥行き算出部として機能する。例えば第2の対応点抽出部1244は、前記奥行きに基づいて、複数の前記第1の対応点のうちから複数の第2の対応点を抽出する対応点抽出部として機能する。例えば基礎行列決定部1246は、複数の前記第2の対応点に基づいて第2の基礎行列を算出する基礎行列決定部として機能する。例えば補正部132は、前記第2の基礎行列に基づいて、前記複数の画像の間に存在するブレを補正する補正部として機能する。
本実施形態によれば画像処理装置10は、入力された動画像のブレを除去し、ブレのない画像を出力することができる。本実施形態では、入力画像のみに基づいてブレの除去が行われるので、例えば手振れ補正機構として画像処理装置10がデジタルカメラに実装される場合などに、他のセンサや駆動機構などを必要としない。
一般に、画像から基礎行列を求める際に、被写体における奥行きがない対応点に基づくと基礎行列は算出され得ず、また奥行きが浅い対応点に基づくと算出される基礎行列の誤差は大きくなり精度が低下することが知られている。本実施形態によれば、一般的な手法で算出された第1の基礎行列に基づいて被写体の3次元座標が復元され、この3次元座標に基づいて奥行きが深くなるように選択された第2の対応点に基づいて基礎行列が算出される。したがって、例えばRANSACのみを用いるときのように基礎行列の算出に用いられる対応点がランダムに選択されて制御がされない場合に比較して、本実施形態によれば算出される基礎行列の精度が向上する。
なお、本実施形態では、Nフレーム目とN+1フレーム目との間の、すなわち隣接するフレーム間の画像の差異に基づいてブレを除去する例が示されている。しかしながらこれに限らず、数フレーム離れた画像の方が、その差異を精度よく抽出できる場合など、数フレーム離れたフレーム間の画像の差異に基づいてブレを除去してもよい。
[第1の実施形態の変形例]
第1の実施形態の変形例について説明する。ここでは、第1の実施形態との相違点について説明し、同一の部分については、同一の符号を付してその説明を省略する。第1の実施形態では、対応点取得部110内の特徴点追跡部112が特徴点に基づいて2画像のマッチングを行っている。これに対して本変形例では、特徴点追跡部112に代わって、マッチング探索部が2画像のマッチングを行う。マッチング探索部は、例えば一般に知られているブロックマッチングによって、第1の実施形態における第1の対応点として機能する対応点を算出する。
その他の構成は、第1の実施形態の場合と同様である。本実施形態によれば画像処理装置10は、第1の実施形態の場合と同様に動作し、同様の効果を得ることができる。このように、対応点取得部110は、Nフレーム目の画像とN+1フレーム目の画像との間で対応する点が得られれば、どのような手法を用いて対応点を取得してもよい。すなわち、対応点取得部110による第1の対応点の取得方法には、特徴ベースマッチングの何れの手法が用いられても、領域ベースマッチングの何れの手法が用いられても、それらの組み合わせの手法が用いられてもよい。
[第2の実施形態]
第2の実施形態について説明する。ここでは、第1の実施形態との相違点について説明し、同一の部分については、同一の符号を付してその説明を省略する。本実施形態は、第1の実施形態の画像処理装置10を備えるデジタルカメラ1に係る。本実施形態に係るデジタルカメラ1の構成例を図14に示す。デジタルカメラ1は、ブレ補正部として機能する画像処理部100を有する画像処理装置10を備える。また、デジタルカメラ1は、CPU20と、撮像光学系22と、撮像素子24と、AFE(Analog Front End)26と、信号画像処理部28と、圧縮伸長部30と、RAM(Random Access Memory)32と、ROM(Read Only Memory)34と、操作部36と、記録部38と、表示処理部40と、表示部42とを備える。
CPU20は、制御部として機能し、デジタルカメラ1の各部を制御する。撮像光学系22は、レンズや絞り等を含み、被写体像を撮像素子24に導く。撮像素子24は、撮像光学系22を介して導かれた被写体像を電気信号に変換する。AFE26は、相関二重サンプリング、アナログゲインコントロール、A/D変換等のアナログ信号処理を行う。信号画像処理部28は、AFE26から出力されたデジタル画像信号に対して、色分解、ホワイトバランス、ガンマ変換等の画像処理を行う。圧縮伸長部30は、画像の圧縮や伸長等を行う。RAM32は、各種処理及び演算に必要な一時記憶を行う。ROM34は、デジタルカメラ1の制御や演算に必要な各種プログラム等を記憶する。操作部36は、ユーザからのデジタルカメラ1の操作に係る指示の入力を受け付ける。記録部38は、例えばデジタルカメラ1に取り外し可能に接続されており、デジタルカメラ1で取得した画像を記録する。表示処理部40は、表示部42に表示させるための画像処理を行う。表示部42は、例えば液晶ディスプレイ等を含み、表示処理部40で処理された画像を表示する。
撮像光学系22を介して撮像素子24に入射して電気信号に変換された被写体の画像信号は、AFE26及び信号画像処理部28で画像処理される。これらの画像信号は、画像処理装置10に順次入力される。画像処理装置10は、入力された画像に対して順次第1の実施形態で説明したブレ補正処理を行う。ブレの除去がなされた画像の信号は、画像処理装置10から出力される。このブレが除去された画像の信号は、表示処理部40を介して表示部42に表示される。また、ブレが除去された画像信号は、記録部38に記録される。
本実施形態によれば、画像処理装置10において第1の実施形態で説明したとおりブレの除去が行われる。したがって、デジタルカメラ1を操作するユーザの手振れ等による画像のブレが除去され、記録部38に記録される画像や、表示部42に表示される画像は、画像処理装置10を備えないカメラで取得された画像よりも品質が高い。
[第3の実施形態]
第3の実施形態について説明する。ここでは、第1の実施形態との相違点について説明し、同一の部分については、同一の符号を付してその説明を省略する。本実施形態に係る画像処理装置10は、同一被写体を異なる方向から撮影した複数の画像に基づいて、その被写体の3次元再構成を行う装置である。本実施形態に係る画像処理部100の構成例を図15に示す。本実施形態において、図15に示す例では対応点取得部110は、第1の実施形態の変形例と同様にマッチング探索部114を有する。マッチング探索部114でなく、第1の実施形態と同様の特徴点追跡部112が用いられてもよい。本実施形態では、マッチング探索部114から出力された対応点に基づいて、基礎行列算出部122は、第1の実施形態の場合と同様に第2の基礎行列を算出する。また、本実施形態では、出力作成部130は、3次元再構成部134を有する。3次元再構成部134は、第2の基礎行列に基づいて、被写体の3次元再構成を行う。
本実施形態に係る画像処理装置10の動作を簡単に説明する。本実施形態では、画像取得部12は、同一被写体を異なる方向から撮影した例えば2枚の画像を取得する。対応点取得部110は、2枚の画像の第1の対応点を取得する。基礎行列算出部122は、第2の基礎行列を算出する。すなわち、第1の実施形態の場合と同様に、第1の基礎行列算出部123は、対応点取得部110が取得した第1の対応点に基づいて、第1の基礎行列を算出する。第2の基礎行列算出部124の奥行き算出部1242は、第1の基礎行列に基づいて、第1の対応点の3次元座標を算出する。第2の対応点抽出部1244は、第1の対応点の3次元座標に基づいて、深さが深くなるように、第2の対応点を抽出する。基礎行列決定部1246は、第2の対応点に基づいて、第2の基礎行列を決定する。
3次元再構成部134は、第2の基礎行列に基づいて、公知の方法を用いて入力画像の各点の3次元座標を決定し、3次元再構成を行う。例えば3次元再構成部134は、3次元再構成画像を作成してもよい。3次元再構成の結果は、出力部16を介して出力される。このように、例えば3次元再構成部134は、前記第2の基礎行列に基づいて、前記被写体の3次元再構成を行う3次元再構成部として機能する。
本実施形態によれば、画像処理装置10は、画像を取得したカメラの位置情報がなくても2枚の画像に基づいて3次元再構成を行うことができる。本実施形態によれば、基礎行列算出部122は、第1の基礎行列に基づいて第2の基礎行列を算出しているので、得られる基礎行列の精度は高い。したがって、画像処理装置10は、高い精度の3次元再構成を行うことができる。
なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除しても、発明が解決しようとする課題の欄で述べられた課題が解決でき、かつ、発明の効果が得られる場合には、この構成要素が削除された構成も発明として抽出され得る。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
1…デジタルカメラ、10…画像処理装置、11…制御部、12…画像取得部、13…圧縮伸長部、14…第1の記憶部、15…第2の記憶部、16…出力部、17…バス、20…CPU、22…撮像光学系、24…撮像素子、26…AFE、28…信号画像処理部、30…圧縮伸長部、32…RAM、34…ROM、36…操作部、38…記録部、40…表示処理部、42…表示部、100…画像処理部、110…対応点取得部、112…特徴点追跡部、1122…特徴点検出部、1124…特徴量算出部、1126…マッチング算出部、114…マッチング探索部、120…姿勢推定部、122…基礎行列算出部、123…第1の基礎行列算出部、1231…対応点抽出部、1232…仮基礎行列算出部、1233…インライア算出部、1234…判定部、1235…第1の基礎行列決定部、124…第2の基礎行列算出部、1242…奥行き算出部、1244…第2の対応点抽出部、1246…基礎行列決定部、126…基本行列算出部、128…回転・並進算出部、130…出力作成部、132…補正部、134…3次元再構成部。

Claims (18)

  1. 複数の画像を取得する画像取得部と、
    複数の前記画像間で互いに対応する複数の第1の対応点を取得する対応点取得部と、
    複数の前記第1の対応点に基づいて第1の基礎行列を算出する第1の基礎行列算出部と、
    前記第1の基礎行列に基づいて複数の前記第1の対応点に対する奥行きを算出する奥行き算出部と、
    前記奥行きに基づいて、複数の前記第1の対応点のうちから複数の第2の対応点を抽出する対応点抽出部と、
    複数の前記第2の対応点に基づいて第2の基礎行列を算出する基礎行列決定部と
    を具備し、
    前記対応点抽出部により抽出される複数の前記第2の対応点は、前記奥行きに基づいて、前記第1の対応点のうちから、最近の対応点と最奥の対応点とを含む対応点が抽出される
    画像処理装置。
  2. 前記対応点抽出部により抽出される複数の前記第2の対応点は、前記奥行きに基づいて、前記第1の対応点のうちから、最近の対応点から順に選択的に抽出され、さらに最奥の対応点から順に選択的に抽出される
    請求項1に記載の画像処理装置。
  3. 前記対応点抽出部は、前記第1の基礎行列に基づいて前記第1の対応点の信頼性を評価し、前記信頼性に基づいて前記第2の対応点を抽出する
    請求項1に記載の画像処理装置。
  4. 複数の前記画像は、同一の被写体に関して異なる時間に撮像された画像であり、
    前記第2の基礎行列に基づいて、前記複数の画像の間に存在するブレを補正する補正部をさらに具備する
    請求項1に記載の画像処理装置。
  5. 前記第2の基礎行列に基づいて、前記画像の3次元再構成を行う3次元再構成部をさらに具備する
    請求項1に記載の画像処理装置。
  6. 前記第1の基礎行列算出部は、前記第1の対応点の中から所定数の対応点をランダムに選択して行う繰り返し演算によって前記第1の基礎行列を算出する
    請求項1に記載の画像処理装置。
  7. 被写体の画像を撮像する撮像部と、
    同一の前記被写体に関して異なる時間に撮像された複数の前記画像を取得する画像取得部と、
    複数の前記画像において互いに対応する複数の第1の対応点を取得する対応点取得部と、
    複数の前記第1の対応点に基づいて第1の基礎行列を算出する第1の基礎行列算出部と、
    前記第1の基礎行列に基づいて奥行きを算出する奥行き算出部と、
    前記奥行きに基づいて、複数の前記第1の対応点のうちから複数の第2の対応点を抽出する対応点抽出部と、
    複数の前記第2の対応点に基づいて第2の基礎行列を算出する基礎行列決定部と、
    前記第2の基礎行列に基づいて、前記複数の画像の間に存在するブレを補正する補正部と
    を具備し、
    前記対応点抽出部により抽出される複数の前記第2の対応点は、前記奥行きに基づいて、前記第1の対応点のうちから、最近の対応点と最奥の対応点とを含む対応点が抽出される
    撮像装置。
  8. 前記対応点抽出部により抽出される複数の前記第2の対応点は、前記奥行きに基づいて、前記第1の対応点のうちから、最近の対応点から順に選択的に抽出され、さらに最奥の対応点から順に選択的に抽出される
    請求項7に記載の撮像装置。
  9. 前記対応点抽出部は、前記第1の基礎行列に基づいて前記第1の対応点の信頼性を評価し、前記信頼性に基づいて前記第2の対応点を抽出する
    請求項7に記載の撮像装置。
  10. 前記第2の基礎行列に基づいて、前記画像の3次元再構成を行う3次元再構成部をさらに具備する
    請求項7に記載の撮像装置。
  11. 前記第1の基礎行列算出部は、前記第1の対応点の中から所定数の対応点をランダムに選択して行う繰り返し演算によって前記第1の基礎行列を算出する
    請求項1に記載の画像処理装置。
  12. 複数の画像を取得することと、
    複数の前記画像間で、互いに対応する複数の第1の対応点を取得することと、
    複数の前記第1の対応点に基づいて第1の基礎行列を算出することと、
    前記第1の基礎行列に基づいて複数の前記第1の対応点に対する奥行きを算出することと、
    前記奥行きに基づいて、複数の前記第1の対応点のうちから複数の第2の対応点を抽出することと、
    複数の前記第2の対応点に基づいて第2の基礎行列を算出することと
    を具備し、
    前記抽出された複数の前記第2の対応点は、前記奥行きに基づいて、前記第1の対応点のうちから、最近の対応点と最奥の対応点とを含む対応点が抽出される
    画像処理方法。
  13. 前記抽出された複数の前記第2の対応点は、前記奥行きに基づいて、前記第1の対応点のうちから、最近の対応点から順に選択的に抽出され、さらに最奥の対応点から順に選択的に抽出される
    請求項12に記載の画像処理方法。
  14. 前記第2の対応点を抽出することは、
    前記第1の基礎行列に基づいて前記第1の対応点の信頼性を評価することと、
    前記信頼性に基づいて前記第2の対応点を抽出することと
    を含む
    請求項12に記載の画像処理方法。
  15. 複数の前記画像は、同一の被写体に関して異なる時間に撮像された画像であり、
    前記第2の基礎行列に基づいて、前記複数の画像の間に存在するブレを補正することをさらに具備する
    請求項12に記載の画像処理方法。
  16. 前記第2の基礎行列に基づいて、前記画像の3次元再構成を行うことをさらに具備する
    請求項12に記載の画像処理方法。
  17. 前記第1の基礎行列を算出することは、前記第1の対応点の中から所定数の対応点をランダムに選択して行う繰り返し演算によって前記第1の基礎行列を算出することを含む
    請求項12に記載の画像処理方法。
  18. 複数の画像を取得することと、
    複数の前記画像間で、互いに対応する複数の第1の対応点を取得することと、
    複数の前記第1の対応点に基づいて第1の基礎行列を算出することと、
    前記第1の基礎行列に基づいて複数の前記第1の対応点に対する奥行きを算出することと、
    前記奥行きに基づいて、複数の前記第1の対応点のうちから複数の第2の対応点を抽出することと、
    複数の前記第2の対応点に基づいて第2の基礎行列を算出することと、
    複数の前記第2の対応点として、前記奥行きに基づいて、前記第1の対応点のうちから、最近の対応点と最奥の対応点とを含む対応点を抽出することと
    をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2012138569A 2012-06-20 2012-06-20 画像処理装置及びそれを備えた撮像装置、画像処理方法、並びに画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体 Active JP5977591B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2012138569A JP5977591B2 (ja) 2012-06-20 2012-06-20 画像処理装置及びそれを備えた撮像装置、画像処理方法、並びに画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体
CN201380032255.XA CN104396231B (zh) 2012-06-20 2013-02-18 图像处理装置和图像处理方法
PCT/JP2013/053883 WO2013190862A1 (ja) 2012-06-20 2013-02-18 画像処理装置及び画像処理方法
US14/573,040 US9760999B2 (en) 2012-06-20 2014-12-17 Image processing apparatus, imaging apparatus, and image processing method
US15/673,961 US10366504B2 (en) 2012-06-20 2017-08-10 Image processing apparatus and image processing method for performing three-dimensional reconstruction of plurality of images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012138569A JP5977591B2 (ja) 2012-06-20 2012-06-20 画像処理装置及びそれを備えた撮像装置、画像処理方法、並びに画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体

Publications (3)

Publication Number Publication Date
JP2014003520A JP2014003520A (ja) 2014-01-09
JP2014003520A5 JP2014003520A5 (ja) 2015-06-25
JP5977591B2 true JP5977591B2 (ja) 2016-08-24

Family

ID=49768472

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012138569A Active JP5977591B2 (ja) 2012-06-20 2012-06-20 画像処理装置及びそれを備えた撮像装置、画像処理方法、並びに画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体

Country Status (4)

Country Link
US (2) US9760999B2 (ja)
JP (1) JP5977591B2 (ja)
CN (1) CN104396231B (ja)
WO (1) WO2013190862A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6376873B2 (ja) * 2014-07-16 2018-08-22 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP6336353B2 (ja) * 2014-08-19 2018-06-06 株式会社オーエム製作所 工作機械
KR102281184B1 (ko) * 2014-11-20 2021-07-23 삼성전자주식회사 영상 보정 방법 및 장치
JP6511980B2 (ja) * 2015-06-19 2019-05-15 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
JP6894725B2 (ja) * 2017-03-09 2021-06-30 キヤノン株式会社 画像処理装置及びその制御方法、プログラム、記憶媒体
EP3664749B1 (en) 2017-08-11 2023-07-26 Edwards Lifesciences Corporation Sealing element for prosthetic heart valve
KR102434574B1 (ko) 2017-08-14 2022-08-22 삼성전자주식회사 이미지에 포함된 특징 포인트의 시간 또는 공간의 움직임에 기초하여 이미지에 존재하는 피사체를 인식하는 장치 및 방법
JP2019062340A (ja) * 2017-09-26 2019-04-18 キヤノン株式会社 像振れ補正装置および制御方法
US10594940B1 (en) * 2018-01-12 2020-03-17 Vulcan Inc. Reduction of temporal and spatial jitter in high-precision motion quantification systems
US11044404B1 (en) 2018-11-28 2021-06-22 Vulcan Inc. High-precision detection of homogeneous object activity in a sequence of images
US10872400B1 (en) 2018-11-28 2020-12-22 Vulcan Inc. Spectral selection and transformation of image frames
CN113875221A (zh) * 2019-08-27 2021-12-31 Oppo广东移动通信有限公司 图像处理方法和装置、电子设备、计算机可读存储介质
CN113160044B (zh) * 2020-01-23 2023-12-26 百度在线网络技术(北京)有限公司 深度图像超分辨率方法、训练方法及装置、设备、介质

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5798762A (en) * 1995-05-10 1998-08-25 Cagent Technologies, Inc. Controlling a real-time rendering engine using a list-based control mechanism
US5748199A (en) * 1995-12-20 1998-05-05 Synthonics Incorporated Method and apparatus for converting a two dimensional motion picture into a three dimensional motion picture
US6388672B1 (en) * 1996-02-02 2002-05-14 Kabushiki Kaisha Toshiba Graphic translate engine, floating point arithmetic unit and floating point multiply-add calculation unit
JP3221384B2 (ja) * 1998-01-07 2001-10-22 日本電気株式会社 三次元座標計測装置
JP3745117B2 (ja) * 1998-05-08 2006-02-15 キヤノン株式会社 画像処理装置及び画像処理方法
DE69812591T2 (de) * 1998-05-20 2004-03-25 Texas Instruments France Autostereoskopische Anzeigevorrichtung
US6525737B1 (en) * 1998-08-20 2003-02-25 Apple Computer, Inc. Graphics processor with pipeline state storage and retrieval
JP4136652B2 (ja) * 2002-12-27 2008-08-20 株式会社リコー 画像処理装置、画像処理方法、画像処理プログラム、記録媒体及び電子機器
JP4764169B2 (ja) * 2003-09-10 2011-08-31 シャープ株式会社 撮影レンズ位置制御装置
US7343035B1 (en) * 2003-10-20 2008-03-11 Open Invention Network Llc Method and system for three-dimensional feature attribution through synergy of rational polynomial coefficients and projective geometry
US7929801B2 (en) * 2005-08-15 2011-04-19 Sony Corporation Depth information for auto focus using two pictures and two-dimensional Gaussian scale space theory
US8197070B2 (en) * 2006-01-24 2012-06-12 Seiko Epson Corporation Color-based feature identification
JP4943034B2 (ja) * 2006-03-23 2012-05-30 株式会社デンソーアイティーラボラトリ ステレオ画像処理装置
WO2007148219A2 (en) * 2006-06-23 2007-12-27 Imax Corporation Methods and systems for converting 2d motion pictures for stereoscopic 3d exhibition
US9008378B2 (en) * 2006-12-20 2015-04-14 The Board Of Trustees Of The Leland Stanford Junior University Arrangement and imaging of biological samples
JP4714176B2 (ja) * 2007-03-29 2011-06-29 富士フイルム株式会社 立体撮影装置及び光軸調節方法
JP4958610B2 (ja) 2007-04-06 2012-06-20 キヤノン株式会社 画像防振装置、撮像装置及び画像防振方法
NZ567986A (en) * 2008-05-02 2010-08-27 Auckland Uniservices Ltd Real-time stereo image matching system
US20100097444A1 (en) * 2008-10-16 2010-04-22 Peter Lablans Camera System for Creating an Image From a Plurality of Images
US8339616B2 (en) * 2009-03-31 2012-12-25 Micrometric Vision Technologies Method and apparatus for high-speed unconstrained three-dimensional digitalization
DE102009023896B4 (de) * 2009-06-04 2015-06-18 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Erfassen einer Pflanze
KR20110057629A (ko) * 2009-11-24 2011-06-01 엘지전자 주식회사 Ui 제공 방법 및 디지털 방송 수신기
SG172487A1 (en) * 2009-12-07 2011-07-28 Sony Corp A three-dimensional imaging apparatus and a method of generating a three-dimensional image of an object
US8134719B2 (en) * 2010-03-19 2012-03-13 Carestream Health, Inc. 3-D imaging using telecentric defocus
US9743020B2 (en) * 2010-03-23 2017-08-22 California Institute Of Technology Super resolution optofluidic microscopes for 2D and 3D imaging
JP5024410B2 (ja) 2010-03-29 2012-09-12 カシオ計算機株式会社 三次元モデリング装置、三次元モデリング方法、ならびに、プログラム
JP5467993B2 (ja) * 2010-03-30 2014-04-09 富士フイルム株式会社 画像処理装置、複眼デジタルカメラ、及びプログラム
KR101630307B1 (ko) * 2010-05-12 2016-06-14 삼성전자주식회사 디지털 촬영 장치, 그 제어 방법, 및 컴퓨터 판독가능 저장매체
JP5739624B2 (ja) * 2010-07-01 2015-06-24 キヤノン株式会社 光学機器、撮像装置、及び制御方法
US9344701B2 (en) * 2010-07-23 2016-05-17 3Dmedia Corporation Methods, systems, and computer-readable storage media for identifying a rough depth map in a scene and for determining a stereo-base distance for three-dimensional (3D) content creation
KR101700363B1 (ko) * 2010-09-08 2017-01-26 삼성전자주식회사 적절한 밝기를 갖는 입체 영상을 생성하는 디지털 영상 촬영 장치 및 이의 제어 방법
JP5891424B2 (ja) * 2010-09-17 2016-03-23 パナソニックIpマネジメント株式会社 立体映像作成装置および立体映像作成方法
JP5917017B2 (ja) * 2011-05-11 2016-05-11 キヤノン株式会社 画像処理装置及びその制御方法、並びにプログラム
CN102447927B (zh) * 2011-09-19 2013-11-06 四川虹微技术有限公司 一种有摄像机标定参数的三维图像变换方法
CN103297677B (zh) * 2012-02-24 2016-07-06 卡西欧计算机株式会社 生成重构图像的图像生成装置以及图像生成方法
JP5901447B2 (ja) * 2012-06-27 2016-04-13 オリンパス株式会社 画像処理装置及びそれを備えた撮像装置、画像処理方法、並びに画像処理プログラム
JP5997645B2 (ja) * 2013-03-26 2016-09-28 キヤノン株式会社 画像処理装置及び方法、及び撮像装置

Also Published As

Publication number Publication date
CN104396231A (zh) 2015-03-04
JP2014003520A (ja) 2014-01-09
US10366504B2 (en) 2019-07-30
WO2013190862A1 (ja) 2013-12-27
US20150103145A1 (en) 2015-04-16
US20170358100A1 (en) 2017-12-14
CN104396231B (zh) 2018-05-01
US9760999B2 (en) 2017-09-12

Similar Documents

Publication Publication Date Title
JP5977591B2 (ja) 画像処理装置及びそれを備えた撮像装置、画像処理方法、並びに画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体
CN110264509B (zh) 确定图像捕捉设备的位姿的方法、装置及其存储介质
US10311595B2 (en) Image processing device and its control method, imaging apparatus, and storage medium
JP5901447B2 (ja) 画像処理装置及びそれを備えた撮像装置、画像処理方法、並びに画像処理プログラム
JP6570296B2 (ja) 画像処理装置、画像処理方法およびプログラム
KR102169309B1 (ko) 정보 처리장치 및 그 제어방법
TW201118791A (en) System and method for obtaining camera parameters from a plurality of images, and computer program products thereof
JP6976733B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP7159384B2 (ja) 画像処理装置、画像処理方法、及びプログラム
WO2012029658A1 (ja) 撮像装置、画像処理装置、画像処理方法及び画像処理プログラム
KR101966920B1 (ko) 다시점 영상의 시차 정보를 이용하여 영상의 움직임을 추정하는 방법 및 장치
CN111476812A (zh) 地图分割方法、装置、位姿估计方法和设备终端
JP6429483B2 (ja) 情報処理装置、撮像装置、情報処理システム、情報処理方法およびプログラム
JP6395429B2 (ja) 画像処理装置、その制御方法及び記憶媒体
JP6576179B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP5953142B2 (ja) 画像処理装置及びそれを備えた撮像装置、画像処理方法、並びに画像処理プログラム
JP6601893B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP6910622B2 (ja) 画像処理システム
US20220230342A1 (en) Information processing apparatus that estimates object depth, method therefor, and storage medium holding program therefor
JP5636966B2 (ja) 誤差検出装置及び誤差検出プログラム
KR101088722B1 (ko) 물체의 깊이 검출 방법 및 장치
JP6525693B2 (ja) 画像処理装置及び画像処理方法
JP2023080290A (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
CN115294358A (zh) 特征点提取方法、装置、计算机设备及可读存储介质
CN116843752A (zh) 一种视频路线信息的确定方法、装置和设备

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150511

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150511

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160722

R151 Written notification of patent or utility model registration

Ref document number: 5977591

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250