JP5954712B2 - 画像処理装置、画像処理方法、及びそのプログラム - Google Patents

画像処理装置、画像処理方法、及びそのプログラム Download PDF

Info

Publication number
JP5954712B2
JP5954712B2 JP2012519262A JP2012519262A JP5954712B2 JP 5954712 B2 JP5954712 B2 JP 5954712B2 JP 2012519262 A JP2012519262 A JP 2012519262A JP 2012519262 A JP2012519262 A JP 2012519262A JP 5954712 B2 JP5954712 B2 JP 5954712B2
Authority
JP
Japan
Prior art keywords
image
feature point
sub
feature
feature points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012519262A
Other languages
English (en)
Other versions
JPWO2012096163A1 (ja
Inventor
整 山田
整 山田
シェン シェンメイ
シェン シェンメイ
リ ボー
リ ボー
オン チンペク
オン チンペク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of JPWO2012096163A1 publication Critical patent/JPWO2012096163A1/ja
Application granted granted Critical
Publication of JP5954712B2 publication Critical patent/JP5954712B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows

Description

本発明は、画像処理装置等に関する。特に、画像の位置合わせをする画像処理装置等に関する。
画像から特徴点を検出する技術、及び検出した特徴点から所定の条件を満たす特徴点を抽出する技術が知られている。以後、特徴点の検出及び抽出を、単に、特徴点の抽出ともいう。特徴点を抽出する技術は、例えば、画像のマッチング、画像に含まれる特定オブジェクトの認識、画像の位置合わせ、及び3D画像生成時のキャリブレーションなどの分野において広く用いられている。
これらの分野においては、同一の物体を異なる視点から撮影した複数の画像のそれぞれに対して、特徴点を抽出した後、異なる画像間で対応する特徴点のペアであるマッチングポイントを見つける。
すなわち、マッチングポイントとは、異なる画像間において同一の空間位置を表す点のペアである。
例えば、所定の視差を有する2枚の画像から立体視用の画像を生成する場合を考える。ここで、2枚の画像には、立体視に必要な、視聴者から見た水平方向の視差に加え、レンズの組み付け誤差や撮影時のブレ等により生じる垂直方向の視差が含まれうる。垂直方向の視差は、快適な立体視を妨げる要因となる。したがって、垂直方向の視差を抑制するように一方の画像を他方の画像にあわせて変換する処理が一般に行われる。具体的には、対応する特徴点間の垂直位置の差がより小さくなるように、一定の条件に基づいて一方の画像を他方にワープするためのワープ行列を生成することが必要である。
したがって、画像の位置合わせにおいては、まず、2枚の画像それぞれから特徴点を抽出する。次に、抽出した特徴点のうち、2枚の画像間で対応するマッチングペアを見つける。その後、マッチングペアに含まれる垂直視差を抑制するようにワープ行列を生成する。最後に、一方の画像にワープ行列による変換処理を施す。これにより、好適な立体視画像を生成できる。
画像から特徴点を抽出するには多くの方法が知られている。例えば、回転及び拡大・縮小等の変換に不変な特徴量であるSIFT(Scale Invariant Feature Transform)特徴量、又はSURF(Speeded−up Robust Feature)特徴量等を用いた、種々の特徴点の抽出方法が知られている。
例えば、特許文献1(米国特許出願公開第2009/0052780号明細書)には、マルチプロセッサシステム用に画像を複数の領域に分割する技術が記載されている。この文献では、SIFTによる特徴の抽出にDoG(Difference of Gaussian)を用いている。ここでは、各領域から抽出される特徴点の数は可変であり、これはDoGの閾値によって決定される。
また、特許文献2(米国特許第5731851号明細書)には、特徴点に基づく動き補償方式が記載されている。移動オブジェクトの特徴点をある領域内で検索し、これらの特徴点に関連付けられているグリッドが、符号化用に階層構造で形成される。
また、特許文献3(米国特許第5617459号明細書)には、1つのオブジェクトの輪郭における複数の特徴点を抽出する方法が記載されている。
米国特許出願公開第2009/0052780号明細書 米国特許第5731851号明細書 米国特許第5617459号明細書
しかしながら、上記いずれの従来技術によっても、1枚の画像から抽出される特徴点の画像内における位置の分布が不均一となるために、画像の位置合わせの精度が低下するという課題がある。
従来技術に係る特徴点の抽出処理においては、まず画像に含まれる複数の点における特徴量を算出する。その後、特徴量の値が所定の閾値よりも大きな点を、特徴点として抽出する。
ここで、ある点におけるコントラストが高いほど、当該点の特徴量の値は大きくなる。したがって、1枚の画像において、コントラストが高い部分からは多くの特徴点が抽出されるが、コントラストが低い部分からはほとんど特徴点が抽出されない。その結果、ほとんど特徴点が抽出されなかった部分において、画像の位置合わせの精度が低下してしまう。
そこで、本発明は、画像の位置合わせの精度をより向上させる画像処理装置を提供することを目的とする。
本発明に係る画像処理装置の一態様は、同一の物体を異なる視点から撮影した画像である第1画像と第2画像との垂直方向の視差を抑制する位置合わせをするための特徴点を抽出する画像処理装置であって、前記第1画像及び前記第2画像のそれぞれを、複数のサブ領域へ分割する分割部と、前記サブ領域ごとに、特徴点の抽出処理を行う抽出部とを備え、前記抽出部は、前記抽出処理により抽出される前記特徴点の数の、前記複数のサブ領域間におけるばらつき度合いを示す値が、事前に定められた値以下となるように、前記特徴点の抽出処理を行い、前記抽出部は、前記複数のサブ領域の各々において、当該サブ領域に含まれる複数の画素のそれぞれに対応する特徴量を算出する特徴量算出部と、前記複数の画素のうち、対応する特徴量が事前に定められた特徴点閾値以上となる画素を特徴点として抽出する特徴点抽出部と、前記複数のサブ領域の各々において、前記特徴点抽出部によって抽出された特徴点の数と事前に定められた数Nとの差が前記所定値以下となるように、当該サブ領域における前記特徴点閾値の大きさを調整する調整部と、前記調整部により前記特徴点閾値の大きさを調整しても前記特徴点抽出部において前記Nとの差が所定値以下となる個数だけ前記特徴点の抽出処理ができない場合、前記特徴点抽出部によって抽出された前記特徴点に基づいて、前記複数のサブ領域のうち第1サブ領域に仮想特徴点を生成する仮想特徴点生成部とを有し、前記仮想特徴点生成部は、前記第1サブ領域において、抽出された特徴点の数と前記仮想特徴点の数との合計値と、前記Nとの差が前記所定値以下となる個数だけ、前記仮想特徴点を生成する画像処理装置である。
この構成によると、画像処理装置は、サブ領域ごとに抽出される特徴点の数にばらつきを抑えるように、特徴点を抽出する。したがって、画像内で均一に分布するように特徴点を抽出することができる。その結果、画像処理装置は、画像の位置合わせの精度をより向上させることができる。
なお、本発明は、このような画像処理装置として実現できるだけでなく、画像処理装置に含まれる特徴的な手段をステップとする画像処理方法として実現したり、そのような特徴的なステップをコンピュータに実行させるプログラムとして実現したりすることもできる。そして、そのようなプログラムは、CD−ROM(Compact Disc Read Only Memory)等の記録媒体及びインターネット等の伝送媒体を介して流通させることができるのはいうまでもない。
さらに、本発明は、このような画像処理装置の機能の一部又は全てを実現する半導体集積回路(LSI)として実現したり、このような画像処理装置を含む画像処理システムとして実現したりできる。
画像内で均一に分布するように特徴点を抽出することにより、画像の位置合わせの精度をより向上させる画像処理装置を提供できる。
図1は、画像内に分布する強い特徴と弱い特徴とを示す概念図である。 図2は、本発明の実施の形態1に係る画像処理装置の機能ブロックを示す図である。 図3は、本発明の実施の形態1に係る画像処理装置が行う全体の処理を示すフローチャートである。 図4Aは、ある画像に含まれる複数の特徴点の位置を示す図である。 図4Bは、従来技術により図4Aに示される画像から特徴点を抽出した結果を示す図である。 図4Cは、本発明の実施の形態1に係る画像処理装置により、図4Aに示される画像から特徴点を抽出した結果を示す図である。 図5は、本発明の実施の形態1に係る抽出部の機能ブロックを示す図である。 図6は、本発明の実施の形態1に係る画像処理装置の処理の流れをより詳細に説明するフローチャートである。 図7は、図6のステップS308aにおいて抽出部が行う処理をより詳細に説明するフローチャートである。 図8は、調整部がコントラストを調整することにより適応的に特徴点を抽出する場合における、画像処理装置が行う処理の流れを示すフローチャートである。 図9は、図8のステップS308bにおいて抽出部が行う処理をより詳細に説明するフローチャートである。 図10は、参照画像と対象画像との視差を補正する処理の流れを説明するフローチャートである。 図11は、本発明の実施の形態2に係る画像処理装置が行う、仮想特徴点を生成する処理を説明する概念図である。 図12は、実施の形態2に係る画像処理装置が備える抽出部の機能ブロックを示す図である。 図13は、仮想特徴点生成部の機能ブロックを示す図である。 図14は、仮想特徴点生成部が行う処理を詳細に説明する概念図である。 図15は、実施の形態2に係る画像処理装置が行う、仮想特徴点を用いた画像の位置合わせ処理の一例を示す詳細なフローチャートである。 図16Aは、実施の形態1に係る画像処理装置による特徴点抽出の結果を示す図である。 図16Bは、図16Aで示される特徴点に対して、特徴点のマッチングを行った結果を示す図である。 図16Cは、マッチングさせた特徴点のペアによりズレを修正した2枚の画像を重ね合わせた画像を示す図である。 図17は、本発明の実施の形態1及び2に係る画像処理装置を実現するコンピュータシステムのハードウェア構成を示すブロック図である。
本発明に係る画像処理装置の一態様は、同一の物体を異なる視点から撮影した画像である第1画像と第2画像との垂直方向の視差を抑制する位置合わせをするための特徴点を抽出する画像処理装置であって、前記第1画像及び前記第2画像のそれぞれを、複数のサブ領域へ分割する分割部と、前記サブ領域ごとに、特徴点の抽出処理を行う抽出部とを備え、前記抽出部は、前記抽出処理により抽出される前記特徴点の数の、前記複数のサブ領域間におけるばらつき度合いを示す値が、事前に定められた値以下となるように、前記特徴点の抽出処理を行う。
この構成によると、画像処理装置は、サブ領域ごとに抽出される特徴点の数にばらつきを抑えるように、特徴点を抽出する。したがって、画像内で均一に分布するように特徴点を抽出することができる。その結果、画像処理装置は、画像の位置合わせの精度をより向上させることができる。
具体的には、さらに、前記特徴点に基づいて、前記第1画像と前記第2画像との位置合わせを行う位置合わせ部を備え、前記位置合わせ部は、前記第1画像及び前記第2画像の一方の画像に含まれる特徴点と、これに対応する特徴点であって、他方の画像に含まれる特徴点とをマッチングさせ、マッチングされた特徴点同士の垂直方向の座標値の差がより小さくなるように、少なくとも一方の画像に対して座標変換を施すとしてもよい。
これによると、画像処理装置は、各サブ領域から抽出する特徴点の数を、一定の範囲に保つことができる。
より具体的には、前記抽出部は、前記複数のサブ領域の各々において、当該サブ領域から抽出した特徴点の数と事前に定められた数Nとの差が所定値以下となる個数だけ、前記特徴点の抽出処理を行うとしてもよい。
これによると、画像処理装置100は、サブ領域ごとに特徴点閾値の大きさを調整することにより、当該サブ領域から抽出される特徴点の数を調整することができる。
また、前記抽出部は、前記複数のサブ領域の各々において、当該サブ領域に含まれる複数の画素のそれぞれに対応する特徴量を算出する特徴量算出部と、前記複数の画素のうち、対応する特徴量が事前に定められた特徴点閾値以上となる画素を特徴点として抽出する特徴点抽出部と、前記複数のサブ領域の各々において、前記特徴点抽出部によって抽出された特徴点の数と前記Nとの差が前記所定値以下となるように、当該サブ領域における前記特徴点閾値の大きさを調整する調整部とを有するとしてもよい。
これによると、画像処理装置は、不足する特徴点に代わりに、仮想的な特徴点を生成することができる。したがって、コントラストの変化が少ない画像など、所定の数だけ特徴点を抽出することが困難な画像に対しても、より精度よく画像の位置合わせを行うことができる。
具体的には、前記抽出部は、さらに、前記特徴点抽出部によって抽出された前記特徴点に基づいて、前記複数のサブ領域のうち第1サブ領域に仮想特徴点を生成する仮想特徴点生成部を有し、前記仮想特徴点生成部は、前記第1サブ領域において、抽出された特徴点の数と前記仮想特徴点の数との合計値と、前記Nとの差が前記所定値以下となる個数だけ、前記仮想特徴点を生成するとしてもよい。
これによると、画像処理装置は、第1画像で既に抽出された2点に基づき、第1画像及び第2画像において仮想特徴点を生成することができる。
また、前記仮想特徴点生成部は、前記第1画像に含まれる特徴点である第1特徴点と第2特徴点とに基づいて、当該第1画像中の仮想特徴点である第1仮想点を生成する第1仮想点生成部と、当該第1画像における、前記第1仮想点と前記第1特徴点との距離、及び当該第1仮想点と前記第2特徴点との距離の各々を含む参照情報を取得する参照情報取得部と、前記第1特徴点に対応する前記第2画像中の点である第3特徴点と、前記第2特徴点に対応する前記第2画像中の点である第4特徴点とを取得する対応点取得部と、前記参照情報を参照することにより、前記第2画像において前記第1仮想点に対応する仮想特徴点として第2仮想点を生成する第2仮想点生成部とを有するとしてもよい。
これによると、画像処理装置100は、特徴点閾値を調整する代わりにサブ領域ごとに画像のコントラストを調整することで、抽出される特徴点の数を調整することができる。
また、前記抽出部は、前記複数のサブ領域の各々において、当該サブ領域に含まれる複数の画素のそれぞれに対応する特徴量を算出する特徴量算出部と、前記複数の画素のうち、対応する特徴量が事前に定められた特徴点閾値以上となる画素を特徴点として抽出する特徴点抽出部と、前記複数のサブ領域の各々において、前記特徴点抽出部によって抽出された特徴点の数と前記Nとの差が前記所定値以下となるように、当該サブ領域における画像コントラストの大きさを調整する調整部とを有するとしてもよい。
これによると、画像処理装置は、各サブ領域から抽出された特徴点の数のサブ領域ごとの差が一定範囲に収まるように、特徴点を抽出することができる。
また、前記抽出部は、前記複数のサブ領域に含まれる第1のサブ領域から抽出された特徴点の数と、前記第1のサブ領域とは異なる第2のサブ領域から抽出された特徴点の数との差が、事前に定められた閾値以下となるように、前記第1のサブ領域及び前記第2のサブ領域から特徴点の抽出処理を行うとしてもよい。
以下、本発明に係る画像処理装置の実施の形態について、図面を参照しながら詳細に説明する。
なお、以下で説明する実施の形態は、いずれも本発明の好ましい一具体例を示すものである。以下の実施の形態で示される数値、形状、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。本発明は、請求の範囲だけによって限定される。よって、以下の実施の形態における構成要素のうち、本発明の最上位概念を示す独立請求項に記載されていない構成要素については、本発明の課題を達成するのに必ずしも必要ではないが、より好ましい形態を構成するものとして説明される。
(実施の形態1)
図1は、画像内に強い特徴と弱い特徴とが分布する様子を示す。ここで、本発明において、画像の特徴には任意の特徴が利用可能である。例えば、画素ごとのコントラスト値などを画像の特徴として利用することが考えられる。
従来の特徴点抽出においては、ある所定の閾値に基づいて、強い特徴を有する特徴点のみが画像から抽出される。これは、抽出される特徴点の数が多すぎないようにすることを目的としている。
しかし、前述のように、強い特徴が画像内において偏在している場合、画像の一部の領域のみから特徴点が抽出されてしまう。その結果、位置合わせの精度が低下するという問題が生じる。
図2は、この課題を解決する、本実施の形態に係る画像処理装置の機能ブロックを示す。
図2に示される画像処理装置100は、同一の物体を異なる視点から撮影した画像である第1画像と第2画像とを位置合わせをするために、第1画像と第2画像とから特徴点を抽出する画像処理装置である。第1画像及び第2画像は、例えば、立体視用の左眼用画像及び右眼用画像である。
画像処理装置100は、分割部102と、抽出部104と、位置合わせ部106とを備える。
分割部102は、画像データとして取得した第1画像及び第2画像のそれぞれを、複数のサブ領域へ分割する。
抽出部104は、サブ領域ごとに、特徴点の抽出処理を行う。より詳細には、抽出部104は、抽出された特徴点の数の、複数のサブ領域間におけるばらつき度合いを示す値が事前に定められた値以下となるように、特徴点の抽出処理を行う。具体的には、抽出部104は、サブ領域ごとに、抽出処理により当該サブ領域から抽出される特徴点の数と事前に定められた数Nとの差が所定値以下となる個数だけ、特徴点の抽出処理を行う。また、抽出部104は、抽出した各特徴点について、特徴記述子を算出する。なお、抽出部104が行う具体的な処理については、後述する。
位置合わせ部106は、抽出された特徴点に基づいて、第1画像と第2画像との垂直方向の視差がより小さくなるように位置合わせを行う。
具体的には、位置合わせ部106は、まず、第1画像及び第2画像の一方の画像に含まれる特徴点と、これに対応する特徴点であって、他方の画像に含まれる特徴点とをマッチングさせる。ここで対応する特徴点とは、同じ空間位置を表す特徴点である。
例えば、第1画像を基準とする場合、位置合わせ部106は、第1画像に含まれる特徴点の各々に対して、第2画像に含まれる特徴点のうちで特徴記述子が最も類似する特徴点を探索することで、両画像間の特徴点同士をマッチングさせる。
次に、位置合わせ部106は、マッチングされた特徴点同士の垂直方向の座標値の差がより小さくなるように、少なくとも一方の画像に対して座標変換を施す。なお、ここでは、第1画像を基準として、第2画像に対して座標変換を施したとする。その後、位置合わせ部106は、第1画像、及び座標変換された第2画像を表すデータを出力する。
なお、画像処理装置100は、位置合わせ部106を備えなくてもよい。この場合、画像処理装置100は、第1の画像及び第2の画像のそれぞれについて抽出した特徴点の座標値を出力する。位置合わせ部106が行う処理は、従来技術に係る処理であるため、例えば、画像処理装置100の外部装置が、位置合わせ部106に相当する処理を行うことで、同様の発明の効果を奏する。また、位置合わせ部106は、両画像間の特徴点同士をマッチングさせた後に、座標変換を行わなくてもよい。この場合、位置合わせ部106は、マッチングさせた特徴点の座標値のペアを出力する。
図3は、画像処理装置100が行う全体の処理の一例を示すフローチャートである。
まず、ステップS100において、画像処理装置100に複数の画像(例えば、第1画像及び第2画像)が入力される。
次に、ステップS102において、分割部102は、入力された各画像を複数のサブ領域に分割する。分割数は特に限定されない。また、第1画像と第2画像とで同様に分割してもよく、又は第1画像と第2画像とで異なる分割を行ってもよい。
次に、ステップS104において、抽出部104は、サブ領域ごとに適応的に変更した閾値を用いて、各サブ領域から連続又は並行して特徴点の抽出処理を行う。
さらに、ステップS106において、抽出部104は、先のステップで抽出された各特徴点に対して、特徴記述子を算出する。
次に、ステップS108において、位置合わせ部106は、異なる画像間で特徴点をマッチングさせる。具体的には、第1の画像に含まれる特徴点の中から選択された、ある特徴点の特徴量記述子と最も類似する特徴量記述子を有する特徴点を、第2の画像に含まれる特徴点の中から選択する。こうして選択された2つの特徴点を、マッチングされた特徴点とする。
その後、ステップS110において、マッチングされた特徴点の座標値のペアを出力する。なお、位置合わせ部106は、ステップS108において、特徴点のマッチングに代わり、特徴点のトラッキングを行ってもよい。
なお、画像処理装置100は、ステップS108及びステップS110の少なくとも一方の処理を省略してもよい。この場合、外部装置が省略されたステップに相当する処理を行うことで、同様の発明の効果を奏する。
次に、図4A〜図4Cを参照して、従来技術により抽出された特徴点と、画像処理装置100が備える抽出部104により抽出された特徴点とを比較する。
図4Aは、ある画像200に含まれる特徴点の位置を示す。図4Aにおいて、特徴点222のように、塗りつぶされた三角形で示される特徴点は、特徴が強い(すなわち、特徴点の特徴量が大きい)特徴点を示す。また、特徴点224のように、ドットがうたれた三角形で示される特徴点は、特徴が中程度(すなわち、特徴点の特徴量の大きさが中程度)の特徴点を示す。また、特徴点226のように、白抜きの三角形で示される特徴点は、特徴が弱い(すなわち、特徴点の特徴量が小さい)特徴点を示す。
図4Bは、従来技術により画像200から特徴点を抽出した結果を示す。従来技術によると、抽出される特徴点の大部分は、特徴が強い特徴点が占めている。これは、従来技術においては、画像200全体において、所定の閾値以上の特徴量を有する点を特徴点として抽出するためである。その結果、図4Bに示されるように、抽出された特徴点が画像200の右上を中心に偏在している。したがって、このような特徴点を、画像の位置合わせ等の何らかの用途の変換行列の生成に用いると、特徴点の分布が不均一であることによって画像全体が不正確に表わされる。
一方、図4Cは、本実施の形態に係る画像処理装置100により、画像200から特徴点を抽出した結果を示す。画像処理装置100によると、画像全体からまんべんなく特徴点が抽出されている。抽出された特徴点は、強い特徴点と、比較的強い(すなわち中程度の)特徴点と、弱い特徴点とを含む。図4Cに示されるように、抽出された特徴点の分布が均一であれば、特徴点に基づく画像の位置合わせがより頑健になり、かつ安定する。
次に、図5〜図9を参照して、画像処理装置100が備える抽出部104について、より詳細に説明する。
図5は、本実施の形態に係る抽出部104の機能ブロックを示す。
図5に示される様に、抽出部104は、特徴量算出部112と、特徴点抽出部114と、調整部116とを有する。
特徴量算出部112は、分割部102によって分割された複数のサブ領域の各々において、当該サブ領域に含まれる複数の画素のそれぞれに対応する特徴量を算出する。前述の通り、特徴量は任意のものが使用できるが、特徴量算出部112は、例えば、画素のコントラスト値等を利用して特徴量を算出する。より具体的には、SIFT特徴量、又はSURF特徴量等の勾配ベースの特徴量等を利用することが考えられる。
特徴点抽出部114は、複数の画素のうち、対応する特徴量が事前に定められた特徴点閾値以上となる画素を特徴点として抽出する。その後、特徴点抽出部114は抽出した特徴点の座標値を出力する。
調整部116は、複数のサブ領域の各々において、特徴点抽出部114によって抽出された特徴点の数と抽出すべき特徴点の目標数として事前に定められた値Nとの差が所定値以下となるように、当該サブ領域における特徴点閾値の大きさを調整する。
具体的には、調整部116は、特徴点抽出部114によって抽出された特徴点の数がNよりも小さかった場合には、特徴点閾値の大きさをより小さくする。逆に、特徴点抽出部114によって抽出された特徴点の数がNよりも大きかった場合には、特徴点閾値の大きさをより大きくする。
図6は、画像処理装置100の処理の流れをより詳細に説明するフローチャートである。
図6において、まず、ステップS302において、分割部102が、参照画像及び対象画像を複数のサブ領域に分割する。なお、前述の第1画像及び第2画像のうち、一方が参照画像に対応し、他方が対象画像に対応する。
次に、ステップS304において、抽出部104は、参照画像及び対象画像それぞれに含まれる各サブ領域に対してコントラスト値を算出する。抽出部104は、このコントラスト値に基づき、ステップS306において、所定の特徴点閾値を用いてサブ領域ごとに特徴点の抽出処理を行う。なお、この特徴点の抽出処理は、抽出部104により、サブ領域ごとに連続して処理してもよく、又はサブ領域同士で並列的に処理してもよい。
次に、ステップS308aにおいて、抽出部104は、特徴点閾値を適応的に調整することにより、各サブ領域が十分な数の特徴点を有するようにする。なお、抽出部104は、サブ領域に含まれる特徴点の数のサブ領域ごとの差が所定値以下となるように、特徴点閾値を調整してもよい。
次に、ステップS310において、抽出部104は、抽出された各特徴点に対して特徴記述子を算出する。特徴記述子とは、例えば、抽出された各特徴点において、方向ごとに特徴量を表現した情報である。特徴量は、例えば、方向ごとに算出した輝度値の勾配を示す情報等である。
次に、ステップS312において、位置合わせ部106は、参照画像と対象画像との間で同じ空間位置を表す、対応する特徴点同士をマッチングする。
最後に、ステップS314において、位置合わせ部106は、マッチングされた特徴点の座標値のペアを出力する。
図7は、図6のステップS308aにおいて抽出部104が行う処理をより詳細に説明するフローチャートである。
まず、ステップS402において、抽出部104は、複数のサブ領域のうちの任意の1つのサブ領域を選択する。その後、特徴量算出部112は、選択されたサブ領域に含まれる複数の点について、特徴量を算出する。例えば、特徴量算出部112は、サブ領域内の全ての画素について特徴量を算出してもよく、又は、サブ領域内で偏りなくサンプリングされた複数の画素について特徴量を算出してもよい。
次に、ステップS404において、特徴点抽出部114は、選択されたサブ領域において、所定の特徴点閾値を用いて特徴点を抽出する。
次に、ステップS406において、調整部116は、抽出された特徴点の数が、Nに達しているか又はNに近いかを判定する。言いかえれば、調整部116は、抽出された特徴点の数と、Nとの差が所定値以下であるか否かを判定する。
ここで、特徴点の数がNに達するか又はNに近い場合(ステップS406でyes)、調整部116は、当該サブ領域において抽出した特徴点を出力する。
その後、ステップS410において、抽出部104は、複数のサブ領域のうちステップS402において未だ選択されていないサブ領域が存在しないか否か(すなわち、ステップS402において選択されたサブ領域が、抽出部104によって処理されるべき最後のサブ領域であるか否か)を判定する。ここで、ステップS402において選択されたサブ領域が、処理されるべき最後のサブ領域ではない場合(S410でno)、抽出部104は、次のサブ領域を選択し、同様の処理を行う(S402)。また、ステップS402において選択されたサブ領域が、処理されるべき最後のサブ領域である場合(S410でyes)、ステップS412において、抽出部104は、全てのサブ領域について、抽出された特徴点の座標を出力する。
一方、調整部116は、抽出された特徴点の数とNとの差が所定値を超えている場合(ステップS406でno)、ステップS408において、対象のサブ領域に対して新たな特徴点閾値を設定する。具体的には、抽出された特徴点の数がNよりも大きい場合、特徴点閾値をより大きくする。また、抽出された特徴点の数がNよりも小さい場合、特徴点閾値をより小さくする。
その後、抽出部104は、再度、特徴点抽出部114に当該サブ領域において特徴点を抽出させる(S404)。
なお、図7のフローチャートにおいて、調整部116は、サブ領域ごとに特徴点閾値を調整することにより、特徴点を抽出した。しかし、調整部116は、特徴点閾値を調整する代わりに、サブ領域ごとに画像のコントラストを調整することにより、特徴点を抽出してもよい。以下、図8及び図9を参照して、より詳細に説明する。
図8は、調整部116がコントラストを調整することにより適応的に特徴点を抽出する場合における、画像処理装置100が行う処理の流れを示すフローチャートである。
なお、図8に示される各処理は、ステップS308bを除き、図6と共通する。よって、ここでは、ステップS308bの処理について説明する。
ステップS308bにおいて、調整部116は、サブ領域ごとに画像コントラストを適応的に調整することで、弱い特徴を鮮明にする。この処理により、特徴点抽出部114は、弱い特徴を抽出しやすくなる。その結果、抽出部104は、各サブ領域が十分な数の特徴点を確実に含むように、特徴点の抽出処理を行うことが可能である。なお、抽出部104は、サブ領域に含まれる特徴点の数のサブ領域ごとの差が所定値以下となるように、特徴点閾値を調整してもよい。
図9は、図8のステップS308bにおいて抽出部104が行う処理をより詳細に説明するフローチャートである。なお、抽出部104が行う処理のうち、図7との違いは、ステップS409のみである。よって、ステップS409の処理を中心に説明する。
調整部116は、抽出された特徴点の数とNとの差が所定値を超えている場合(ステップS406でno)、ステップS409において、対象のサブ領域におけるコントラストを調整する。具体的には、調整部116は、抽出された特徴点の数がNよりも少ない場合には、コントラスト値をより大きくする。逆に、抽出された特徴点の数がNよりも多い場合には、コントラスト値をより小さくする。このように、調整部116は、サブ領域ごとに、コントラストを適応的に調整する。
その後、抽出部104は、再度、特徴点抽出部114に当該サブ領域において特徴点を抽出させる(S404)。
すなわち、抽出部104は、複数のサブ領域の各々において、当該サブ領域に含まれる複数の画素のそれぞれに対応する特徴量を算出する特徴量算出部112と、複数の画素のうち、対応する特徴量が事前に定められた特徴点閾値以上となる画素を特徴点として抽出する特徴点抽出部114と、複数のサブ領域の各々において、特徴点抽出部114によって抽出された特徴点の数とNとの差が所定値以下となるように、当該サブ領域における画像コントラストの大きさを調整する調整部116とを有してもよい。
次に、図10を参照して、画像処理装置100が参照画像に座標変換処理を施すことにより、位置合わせがなされた2枚の画像を生成する場合の処理の流れについて説明する。
図10は、画像処理装置100が、参照画像と対象画像との視差を補正する処理の流れを説明するフローチャートである。
まず、ステップS502において、分割部102は、参照画像及び対象画像を複数のサブ領域に分割する。
次に、ステップS504において、抽出部104は、各画像に対してコントラスト値を算出する。このコントラスト値に基づき、ステップS506において、抽出部104は、所定の閾値を用いて、サブ領域ごとに特徴点の抽出処理を行う。
通常、均一に分布した特徴点が画像から確実に抽出されるような閾値を事前に決定することは困難である。したがって、抽出部104は、ステップS508において、適応的に閾値を調整することにより、位置合わせに十分な数であり、かつ、各サブ領域同士で同じ数となる特徴点を各サブ領域から抽出する。
次に、ステップS510において、抽出部104は、抽出された各特徴点について特徴記述子を算出する。
次に、ステップS512において、位置合わせ部106は、参照画像と対象画像との間で特徴点をマッチングさせる。
次に、ステップS512において、位置合わせ部106は、マッチングさせた特徴点に基づいてワープ行列を算出する。位置合わせ部106は、例えば、マッチングさせたそれぞれの特徴点の座標値のうち、画像に対して垂直方向の差を抑制するような行列をワープ行列として算出する。したがって、ワープ行列は、例えばアフィン変換行列、又は回転行列等の形で表される。
最後に、ステップS514において、位置合わせ部106は、ワープ行列を参照画像に適用することにより、参照画像と対象画像との位置関係を、立体視に適するように調整する。
以上述べたように、本実施の形態に係る画像処理装置100は、1枚の画像をサブ領域に分け、各サブ領域において抽出される特徴点の数が偏らないように、特徴点を抽出するために使用する閾値をサブ領域ごとに調整する。
その結果、画像内で均一に分布するように特徴点を抽出することができる。したがって、画像処理装置100によると、画像の位置合わせの精度をより向上させることができる。
また、特徴点の抽出後におけるマッチング処理をサブ領域ごとに行うことで、マッチング処理時の探索を並行処理により行うことができる。その結果、画像処理装置100は、画像の位置合わせをより高速に行うことができる。
(実施の形態2)
実施の形態1に係る画像処理装置100においても、例えばコントラストの差がほとんどない領域等においては、閾値の調整により適切な特徴点を抽出することは困難となる。
実施の形態2に係る画像処理装置は、この課題を解決するため、仮想特徴点を生成する。以下、より詳細に説明する。
図11は、仮想特徴点を生成する処理を説明する概念図である。ここでは、FP1及びFP2は、参照画像において抽出された2つの真の特徴点であるとする。No_Tはテクスチャを含まないサブ領域(テクスチャレス領域)である。また、No_Tには、生成された仮想特徴点FakePtが示されている。ここで、仮想特徴点FakePtの位置は、FakePtとFP1との距離d1、及びFakePtとFP2との距離d2を特定することにより、抽出された真の2つの特徴点を用いて導き出された点である。
さらに、同じ手法を対象画像にも適用する。これは、参照画像内の2つの真の特徴点とそれぞれマッチングする、対象画像内において抽出された2つの真の特徴点から、それぞれ距離d1、及びd2と同じ距離に仮想特徴点を配置することで行われる。
その結果、仮想特徴点を、対象画像及び参照画像に含まれるテクスチャレス領域において生成させることができる。
図12は、本実施の形態に係る画像処理装置が備える抽出部104Aの機能ブロックを示す。
図12に示されるように、抽出部104Aは、特徴量算出部112と、特徴点抽出部114Aと、調整部116と、仮想特徴点生成部118とを有する。なお、以下の説明では、図5に示される抽出部104と異なる構成要素を中心に説明する。
特徴点抽出部114Aは、調整部116による特徴点閾値の調整によっても、必要な数の特徴点が抽出できないと判断した場合には、仮想特徴点生成部118に仮想特徴点を生成させる。
仮想特徴点生成部118は、特徴点抽出部114Aによって抽出された特徴点に基づいて、複数のサブ領域に含まれる第1のサブ領域に仮想特徴点を生成する。より詳細には、仮想特徴点生成部118は、第1のサブ領域において、抽出された特徴点の数と仮想特徴点の数との合計値と、事前に定められた数Nとの差が所定値以下となる個数だけ、仮想特徴点を生成する。
ここで、第1のサブ領域は、輝度変化が小さいために調整部116によって必要な数の特徴点が抽出できなかったサブ領域である。例えば図11でNo_Tとして示されるサブ領域が該当する。
図13は、仮想特徴点生成部118の機能ブロックを示す。
図13に示されるように、仮想特徴点生成部118は、第1仮想点生成部122と、参照情報取得部124と、対応点取得部126と、第2仮想点生成部128とを有する。
第1仮想点生成部122は、特徴点抽出部114Aにより第1画像の中から抽出された特徴点である第1特徴点と第2特徴点とに基づいて、第1画像の中に仮想特徴点を生成する。この仮想特徴点を第1仮想点ともいう。
参照情報取得部124は、当該第1画像における、第1仮想点と第1特徴点との距離、及び当該第1仮想点と第2特徴点との距離の各々を含む参照情報を取得する。
対応点取得部126は、第1特徴点に対応する第2画像の中の点である第3特徴点と、第2特徴点に対応する第2画像の中の点である第4特徴点とを取得する。
第2仮想点生成部128は、参照情報を参照することにより、第2画像において、第1仮想点に対応する仮想特徴点として第2仮想点を生成する。
より具体的には、図14を参照して、まず、第1仮想点生成部122は、複数のサブ領域のうち、抽出された特徴点の数が事前に定められた数Nに満たないサブ領域として第1のサブ領域を選択する。さらに、第1仮想点生成部122は、例えば、第1のサブ領域から所定の距離以内の、抽出部104Aにより抽出された特徴点の中から、第1特徴点(FP1ともいう)と第2特徴点(FP2ともいう)とを選択する。例えば、第1仮想点生成部122は、第1サブ領域外のサブ領域に含まれる特徴点であって、第1サブ領域から最も近い特徴点をFP1とし、2番目に近い特徴点をFP2として選択してもよい。
次に、第1仮想点生成部122は、FP1とFP2とを結ぶ線分を所定の比で分割する点として、仮想特徴点を生成する。ここで、第1仮想点生成部122は、FP1とFP2とを結ぶ線分を分割する比を、例えばFP1及びFP2の特徴の強さ(特徴量の大きさ)に比例するように決定してもよい。又は、特徴点が抽出されていないサブ領域内に仮想特徴点が位置するように決定してもよい。又は、FP1及びFP2の中点として決定してもよい。
次に、参照情報取得部124は、第1画像において、FP1と仮想特徴点との距離d1、及びFP2と仮想特徴点との距離d2を取得する。d1及びd2を含む情報を参照情報と呼ぶ。
次に、対応点取得部126は、第2画像において抽出された特徴点であって、それぞれFP1及びFP2に対応する点である第3特徴点(FP3ともいう)及び第4特徴点(FP4ともいう)を取得する。すなわち、FP3とFP1とは同じ空間位置に対応する。また、FP4とFP2とは同じ空間位置に対応する。
最後に、第2仮想点生成部128は、参照情報を参照して、FP3からd1の距離にあり、かつ、FP4からd2の距離にある点を仮想特徴点とする。なお、第2仮想点生成部128は、FP3からd1の距離にあり、かつ、FP4からd2の距離にある点を中心に、一定領域に含まれる点のうち、仮想特徴点と最も類似する特徴記述子を有する点を、仮想特徴点としてもよい。
図15は、本実施の形態における仮想特徴点を用いた画像の位置合わせ処理の一例を示す。
ステップS702において、入力された画像対に対して画像フィルタを適用し、その応答を算出する。画像フィルタとしては、例えばローパスフィルタ、バンドパスフィルタ等が考えられる。
次に、ステップS704において、分割部102は、画像を複数のサブ領域に分ける。なお、分割部102は、画像のサブ領域への分割を、これより前に行っていてもよい。
次に、ステップS706において、抽出部104Aは、各サブ領域から特徴点の抽出処理を行う。さらに、ステップS708において、抽出部104Aは、抽出された特徴点が十分であるか、及び画像全体に均一に分布しているか否かを確認する。ここで、十分な数の特徴点が画像全体から均一に抽出できたと抽出部104Aが判断した場合(ステップS708でyes)、位置合わせ部106は、ステップS716においてこの抽出された特徴点に対して、マッチング処理を行う。続けて、ステップS718において、ステップS716でマッチングされた対応する特徴点同士のペアを用いてワープ行列を生成する。最後に、位置合わせ部106は、ステップS720において画像対の位置合わせを行う。
一方、十分な数の特徴点が画像全体から均一に抽出できていないと抽出部104Aが判断した場合(ステップS708でno)、抽出部104Aは、ステップS710において、特徴点閾値を調整してより弱い特徴を有する特徴点を抽出する。
その結果、十分な数の特徴点が画像全体から均一に抽出できたと抽出部104Aが判断した場合(S711でyes)、ステップS716の処理へ進む。
一方、抽出された特徴点の数が不十分の場合には(ステップS711でno)、抽出部104Aは、ステップS712において、特徴点閾値の調整を既定回数以上行ったか否かを判定する。ここで、まだ既定回数に達していない場合には(ステップS712でno)、抽出部104Aは、ステップS710において再度、特徴点閾値の調整を行う。また、既定回数に達した場合には(ステップS712でyes)、仮想特徴点生成部118が、ステップS713において仮想特徴点を生成する。
以上述べたように、本実施の形態に係る画像処理装置は、特徴点を抽出することが困難なほどコントラストが弱いサブ領域等を含む画像においては、既に抽出できた特徴点に基づき、第1仮想点及びこれに対応する第2仮想点のペアとして仮想特徴点を生成する。その結果、画像処理装置は、抽出部104によって抽出された真の特徴点のペアに加え、仮想特徴点のペアを併用することにより、より精度よく画像の位置合わせを行うことができる。
次に図16A〜図16Cを参照して、本発明に係る画像処理装置による画像位置合わせの結果と、従来の方法による画像位置合わせの結果との比較を一例として示す。
図16Aに示す画像802、図16Bに示す画像804、及び図16Cに示す画像806は、本発明に係る画像処理装置による特徴点抽出の結果を示す。一方、図16Aに示す画像808、図16Bに示す画像810、及び図16Cに示す画像812は、従来の方法によって、フレーム全体に含まれる画素値に基づいて特徴点を抽出した結果を示す。
まず図16Aを参照して、画像802におけるサブ領域822からは、特徴点が抽出されているが、画像808のサブ領域882からは、特徴点が1つも抽出されていない。また、画像802は、画像全体において、画像808の場合よりも特徴点がより均一に分布するよう抽出されている。具体的には、画像808における特徴点は、画像の右側に多く集まっている。このように特徴点の分布が不均一であると、以下に述べるように特徴のマッチング及び画像の位置合わせの結果に影響を及ぼす。
図16Bは、特徴点のマッチングを行った結果を示す。画像に示される白線は、マッチングされたペアの特徴点間の位置のズレを示す。より詳細には、画像804は、本発明に係る画像処理装置を用いて特徴点を抽出した2枚の画像(例えば左眼用画像及び右眼用画像)において、特徴点のマッチングを行った結果を示す。また、画像810は、従来技術を用いて特徴点を抽出した2枚の画像において、特徴点のマッチングを行った結果を示す。
画像804におけるマッチングの結果は、従来の方法によって抽出された特徴点によるマッチングの結果を示す画像810よりも、画像内でより均一に分布している。特徴点ペア842は、参照画像と対象画像との間でマッチングされた特徴点の1つのペアを示す。
図16Cは、マッチングさせた特徴点のペアによりズレを修正した2枚の画像を重ね合わせた画像を示す。より詳細には、画像806は、本発明に係る画像処理装置を用いて位置合わせをした2枚の画像を重ね合わせた画像である。また、画像812は、従来技術を用いて位置合わせをした2枚の画像を重ね合わせた画像である。画像806においては、本発明に係る特徴点抽出に基づく画像の位置合わせの結果がより合理的で画像全体にわたって一貫している。具体的には、遠いオブジェクトは小さな視差を有し、かつ近いオブジェクトはより大きな視差を有している。一方、画像812では、従来の特徴点抽出に基づく画像の位置合わせの結果が不正確であり、画像全体にわたって一貫していない。具体的には、遠いオブジェクトが大きな視差を有している。このように、多くの場合、本発明による画像の位置合わせにおいて質の高い結果が得られる。これは、本発明において説明した画像処理装置による特徴点抽出方法によって抽出された均一な特徴点の分布が役立つことを示す。
なお、上記実施の形態1及び2に係る画像処理装置は、取得した参照画像及び対象画像に対して、まず、サブ領域に分割する処理を行った。しかし、画像処理装置は、サブ領域ごとに特徴点を抽出する前に、1枚の画像全体に対して特徴点を抽出し、抽出された特徴点の分布に偏りがある場合にのみ、当該画像を複数のサブ領域に分割してもよい。例えば、図6を参照して、ステップS302において分割部102が参照画像及び対象画像のそれぞれを複数の領域に分ける前の段階で、抽出部104が参照画像及び対象画像それぞれの全画像領域から、特徴点を抽出する。その後、抽出部104は、抽出された特徴点の、各画像における分布位置の偏りが事前に定められた閾値以上であれば、ステップS302以降の処理を行ってもよい。
このように全画像領域における分布の適切性を最初に判断することにより、画像処理装置が行う処理の無駄を省くことができる。
また、上記実施の形態1及び2に係る抽出部は、サブ領域ごとに抽出された特徴点の数と事前に定められた数Nとを比較し、その差が所定値以下となるように、特徴点閾値を調整した。しかし、抽出部は、サブ領域ごとに抽出された特徴点の数の、サブ領域間におけるばらつき度合いが、事前に定められた値以下となるように特徴点を抽出できれば、他の方法により特徴点閾値を調整してもよい。
例えば、抽出部は、複数のサブ領域のうち、第1のサブ領域から抽出された特徴点の数と、第1のサブ領域とは異なる第2のサブ領域から抽出された特徴点の数との差が、事前に定められた閾値以下となるように、第1のサブ領域及び第2のサブ領域から特徴点を抽出してもよい。さらに、この場合であっても、抽出部は、第1のサブ領域又は第2のサブ領域から抽出された特徴点の数が事前に定められた値M以下であれば、複数のサブ領域の各々において、当該サブ領域から抽出した特徴点の数と事前に定められた数Nとの差が所定値以下となる個数だけ、特徴点を抽出してもよい。
これにより、複数のサブ領域の各々から、偏りなく、かつ、画像の位置合わせを精度よく行うために必要な数の特徴点を抽出することができる。
なお、実施形態1及び2で説明した画像処理装置は、コンピュータにより実現することも可能である。図17は、本発明に係る画像処理装置を実現するコンピュータシステムのハードウェア構成を示すブロック図である。
本発明に係る画像処理装置は、コンピュータ34と、コンピュータ34に指示を与えるためのキーボード36及びマウス38と、コンピュータ34の演算結果等の情報を提示するためのディスプレイ32と、コンピュータ34で実行されるプログラムを読み取るためのCD−ROM(Compact Disc−Read Only Memory)装置40及び通信モデム(図示せず)とを含む。
本発明に係る画像処理装置が行う処理であるプログラムは、コンピュータで読取可能な媒体であるCD−ROM42に記憶され、CD−ROM装置40で読み取られる。又は、コンピュータネットワークを通じて通信モデム52で読み取られる。
コンピュータ34は、CPU(Central Processing Unit)44と、ROM(Read Only Memory)46と、RAM(Random Access Memory)48と、ハードディスク50と、通信モデム52と、バス54とを含む。
CPU44は、CD−ROM装置40又は通信モデム52を介して読み取られたプログラムを実行する。ROM46は、コンピュータ34の動作に必要なプログラムやデータを記憶する。RAM48は、プログラム実行時のパラメタなどのデータを記憶する。ハードディスク50は、プログラムやデータなどを記憶する。通信モデム52は、コンピュータネットワークを介して他のコンピュータとの通信を行う。バス54は、CPU44、ROM46、RAM48、ハードディスク50、通信モデム52、ディスプレイ32、キーボード36、マウス38及びCD−ROM装置40を相互に接続する。
さらに、上記の各装置を構成する構成要素の一部又は全部は、1個のシステムLSI(Large Scale Integrated Circuit:大規模集積回路)から構成されているとしてもよい。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM、RAMなどを含んで構成されるコンピュータシステムである。RAMには、コンピュータプログラムが記憶されている。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、システムLSIは、その機能を達成する。
さらにまた、上記の各装置を構成する構成要素の一部又は全部は、各装置に脱着可能なICカード又は単体のモジュールから構成されているとしてもよい。ICカード又はモジュールは、マイクロプロセッサ、ROM、RAMなどから構成されるコンピュータシステムである。ICカード又はモジュールは、上記の超多機能LSIを含むとしてもよい。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、ICカード又はモジュールは、その機能を達成する。このICカード又はこのモジュールは、耐タンパ性を有するとしてもよい。
また、本発明は、上記に示す方法であるとしてもよい。また、これらの方法をコンピュータにより実現するコンピュータプログラムであるとしてもよい。また、コンピュータプログラムからなるデジタル信号であるとしてもよい。
さらに、本発明は、上記コンピュータプログラム又は上記デジタル信号をコンピュータ読み取り可能な記録媒体、例えば、フレキシブルディスク、ハードディスク、CD−ROM、MO、DVD、DVD−ROM、DVD−RAM、BD(Blu−ray Disc(登録商標))、USBメモリ、SDカードなどのメモリカード、半導体メモリなどに記録したものとしてもよい。また、これらの記録媒体に記録されている上記デジタル信号であるとしてもよい。
また、本発明は、上記コンピュータプログラム又は上記デジタル信号を、電気通信回線、無線又は有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送してもよい。
また、本発明は、マイクロプロセッサとメモリを備えたコンピュータシステムであって、上記メモリは、上記コンピュータプログラムを記憶しており、上記マイクロプロセッサは、上記コンピュータプログラムに従って動作するとしてもよい。
また、上記プログラム又は上記デジタル信号を上記記録媒体に記録して移送することにより、又は上記プログラム又は上記デジタル信号を、上記ネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより実施するとしてもよい。
さらに、上記実施の形態及び上記変形例をそれぞれ組み合わせるとしてもよい。
今回開示された実施の形態は全ての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて請求の範囲によって示され、請求の範囲と均等の意味及び範囲内での全ての変更が含まれることが意図される。
本発明は、画像処理装置に適用でき、特に画像の位置合わせをする画像処理装置等に適用できる。
32 ディスプレイ
34 コンピュータ
36 キーボード
38 マウス
40 CD−ROM装置
42 CD−ROM
44 CPU
46 ROM
48 RAM
50 ハードディスク
52 通信モデム
54 バス
100 画像処理装置
102 分割部
104、104A 抽出部
106 位置合わせ部
112 特徴量算出部
114、114A 特徴点抽出部
116 調整部
118 仮想特徴点生成部
122 第1仮想点生成部
124 参照情報取得部
126 対応点取得部
128 第2仮想点生成部
200、802、804、806、808,810、812 画像
222、224、226 特徴点
822、882 サブ領域
842 特徴点ペア

Claims (8)

  1. 同一の物体を異なる視点から撮影した画像である第1画像と第2画像との垂直方向の視差を抑制する位置合わせをするための特徴点を抽出する画像処理装置であって、
    前記第1画像及び前記第2画像のそれぞれを、複数のサブ領域へ分割する分割部と、
    前記第1画像に含まれる複数のサブ領域の各々と、前記第2画像に含まれる複数のサブ領域の各々とにおいて、特徴点の抽出処理を行う抽出部とを備え、
    前記抽出部は、前記抽出処理により抽出される前記特徴点の数の、前記複数のサブ領域間におけるばらつき度合いを示す値が、事前に定められた値以下となるように、前記特徴点の抽出処理を行い、
    前記抽出部は、
    前記複数のサブ領域の各々において、当該サブ領域に含まれる複数の画素のそれぞれに対応する特徴量を算出する特徴量算出部と、
    前記複数の画素のうち、対応する特徴量が事前に定められた特徴点閾値以上となる画素を特徴点として抽出する特徴点抽出部と、
    前記複数のサブ領域の各々において、前記特徴点抽出部によって抽出された特徴点の数と事前に定められた数Nとの差が所定値以下となるように、当該サブ領域における前記特徴点閾値の大きさを調整する調整部と、
    前記調整部により前記特徴点閾値の大きさを調整しても前記特徴点抽出部において前記Nとの差が前記所定値以下となる個数だけ前記特徴点の抽出処理ができない場合、前記特徴点抽出部によって抽出された前記特徴点に基づいて、前記複数のサブ領域のうち第1サブ領域に仮想特徴点を生成する仮想特徴点生成部とを有し、
    前記仮想特徴点生成部は、前記第1サブ領域において、抽出された特徴点の数と前記仮想特徴点の数との合計値と、前記Nとの差が前記所定値以下となる個数だけ、前記仮想特徴点を生成する
    画像処理装置。
  2. さらに、前記特徴点に基づいて、前記第1画像と前記第2画像との位置合わせを行う位置合わせ部を備え、
    前記位置合わせ部は、
    前記第1画像及び前記第2画像の一方の画像に含まれる特徴点と、これに対応する特徴点であって、他方の画像に含まれる特徴点とをマッチングさせ、
    マッチングされた特徴点同士の垂直方向の座標値の差がより小さくなるように、少なくとも一方の画像に対して座標変換を施す
    請求項1に記載の画像処理装置。
  3. 前記仮想特徴点生成部は、
    前記第1画像に含まれる特徴点である第1特徴点と第2特徴点とに基づいて、当該第1画像中の仮想特徴点である第1仮想点を生成する第1仮想点生成部と、
    当該第1画像における、前記第1仮想点と前記第1特徴点との距離、及び当該第1仮想点と前記第2特徴点との距離の各々を含む参照情報を取得する参照情報取得部と、
    前記第1特徴点に対応する前記第2画像中の点である第3特徴点と、前記第2特徴点に対応する前記第2画像中の点である第4特徴点とを取得する対応点取得部と、
    前記参照情報を参照することにより、前記第2画像において前記第1仮想点に対応する仮想特徴点として第2仮想点を生成する第2仮想点生成部とを有する
    請求項1または2に記載の画像処理装置。
  4. 前記抽出部は、前記複数のサブ領域に含まれる第1のサブ領域から抽出された特徴点の数と、前記第1のサブ領域とは異なる第2のサブ領域から抽出された特徴点の数との差が、事前に定められた閾値以下となるように、前記第1のサブ領域及び前記第2のサブ領域から特徴点の抽出処理を行う
    請求項1から3のいずれか1項に記載の画像処理装置。
  5. 同一の物体を異なる視点から撮影した画像である第1画像と第2画像との垂直方向の視差を抑制する位置合わせをするための特徴点を抽出する画像処理装置であって、
    前記第1画像及び前記第2画像のそれぞれを、複数のサブ領域へ分割する分割部と、
    前記第1画像に含まれる複数のサブ領域の各々と、前記第2画像に含まれる複数のサブ領域の各々とにおいて、特徴点の抽出処理を行う抽出部とを備え、
    前記抽出部は、前記抽出処理により抽出される前記特徴点の数の、前記複数のサブ領域間におけるばらつき度合いを示す値が、事前に定められた値以下となるように、前記特徴点の抽出処理を行い、
    前記抽出部は、
    前記複数のサブ領域の各々において、当該サブ領域に含まれる複数の画素のそれぞれに対応する特徴量を算出する特徴量算出部と、
    前記複数の画素のうち、対応する特徴量が事前に定められた特徴点閾値以上となる画素を特徴点として抽出する特徴点抽出部と、
    前記複数のサブ領域の各々において、前記特徴点抽出部によって抽出された特徴点の数と事前に定められた数Nとの差が所定値以下となるように、当該サブ領域における画像コントラストの大きさを調整する調整部と、を有する
    画像処理装置。
  6. 同一の物体を異なる視点から撮影した画像である第1画像と第2画像との垂直方向の視差を抑制する位置合わせをするための特徴点を抽出する画像処理方法であって、
    前記第1画像及び前記第2画像のそれぞれを、複数のサブ領域へ分割する分割ステップと、
    前記第1画像に含まれる複数のサブ領域の各々と、前記第2画像に含まれる複数のサブ領域の各々とにおいて、特徴点の抽出処理を行う抽出ステップとを含み、
    前記抽出ステップにおいては、前記抽出処理により抽出される前記特徴点の数の、前記複数のサブ領域間におけるばらつき度合いが、事前に定められた値以下となるように、前記特徴点の抽出処理を行い、
    前記抽出ステップは、
    前記複数のサブ領域の各々において、当該サブ領域に含まれる複数の画素のそれぞれに対応する特徴量を算出する特徴量算出ステップと、
    前記複数の画素のうち、対応する特徴量が事前に定められた特徴点閾値以上となる画素を特徴点として抽出する特徴点抽出ステップと、
    前記複数のサブ領域の各々において、前記特徴点抽出ステップにおいて抽出された特徴点の数と事前に定められた数Nとの差が所定値以下となるように、当該サブ領域における前記特徴点閾値の大きさを調整する調整ステップと、
    前記調整ステップにおいて前記特徴点閾値の大きさを調整しても前記特徴点抽出ステップにおいて前記Nとの差が前記所定値以下となる個数だけ前記特徴点の抽出処理ができない場合、前記特徴点抽出ステップにおいて抽出された前記特徴点に基づいて、前記複数のサブ領域のうち第1サブ領域に仮想特徴点を生成する仮想特徴点生成ステップとを含み、
    前記仮想特徴点生成ステップでは、前記第1サブ領域において、抽出された特徴点の数と前記仮想特徴点の数との合計値と、前記Nとの差が前記所定値以下となる個数だけ、前記仮想特徴点を生成する
    画像処理方法。
  7. 請求項に記載の画像処理方法をコンピュータに実行させる
    プログラム。
  8. 同一の物体を異なる視点から撮影した画像である第1画像と第2画像との垂直方向の視差を抑制する位置合わせをするための特徴点を抽出する画像処理装置に用いられる集積回路であって、
    前記第1画像及び前記第2画像のそれぞれを、複数のサブ領域へ分割する分割部と、
    前記第1画像に含まれる複数のサブ領域の各々と、前記第2画像に含まれる複数のサブ領域の各々とにおいて、特徴点の抽出処理を行う抽出部とを備え、
    前記抽出部は、前記抽出処理により抽出される前記特徴点の数の、前記複数のサブ領域間におけるばらつき度合いを示す値が、事前に定められた値以下となるように、前記特徴点の抽出処理を行い、
    前記抽出部は、
    前記複数のサブ領域の各々において、当該サブ領域に含まれる複数の画素のそれぞれに対応する特徴量を算出する特徴量算出部と、
    前記複数の画素のうち、対応する特徴量が事前に定められた特徴点閾値以上となる画素を特徴点として抽出する特徴点抽出部と、
    前記複数のサブ領域の各々において、前記特徴点抽出部によって抽出された特徴点の数と事前に定められた数Nとの差が所定値以下となるように、当該サブ領域における前記特徴点閾値の大きさを調整する調整部と、
    前記調整部により前記特徴点閾値の大きさを調整しても前記特徴点抽出部において前記Nとの差が前記所定値以下となる個数だけ前記特徴点の抽出処理ができない場合、前記特徴点抽出部によって抽出された前記特徴点に基づいて、前記複数のサブ領域のうち第1サブ領域に仮想特徴点を生成する仮想特徴点生成部とを有し、
    前記仮想特徴点生成部は、前記第1サブ領域において、抽出された特徴点の数と前記仮想特徴点の数との合計値と、前記Nとの差が前記所定値以下となる個数だけ、前記仮想特徴点を生成する
    集積回路。
JP2012519262A 2011-01-13 2012-01-11 画像処理装置、画像処理方法、及びそのプログラム Active JP5954712B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011004937 2011-01-13
JP2011004937 2011-01-13
PCT/JP2012/000106 WO2012096163A1 (ja) 2011-01-13 2012-01-11 画像処理装置、画像処理方法、及びそのプログラム

Publications (2)

Publication Number Publication Date
JPWO2012096163A1 JPWO2012096163A1 (ja) 2014-06-09
JP5954712B2 true JP5954712B2 (ja) 2016-07-20

Family

ID=46507072

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012519262A Active JP5954712B2 (ja) 2011-01-13 2012-01-11 画像処理装置、画像処理方法、及びそのプログラム

Country Status (4)

Country Link
US (1) US9070042B2 (ja)
JP (1) JP5954712B2 (ja)
CN (1) CN102859555B (ja)
WO (1) WO2012096163A1 (ja)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5746550B2 (ja) * 2011-04-25 2015-07-08 キヤノン株式会社 画像処理装置、画像処理方法
US8666169B2 (en) * 2011-10-24 2014-03-04 Hewlett-Packard Development Company, L.P. Feature descriptors
EP2677733A3 (en) * 2012-06-18 2015-12-09 Sony Mobile Communications AB Array camera imaging system and method
JP5993233B2 (ja) * 2012-07-11 2016-09-14 オリンパス株式会社 画像処理装置及び画像処理方法
KR102001148B1 (ko) * 2012-12-10 2019-10-01 엘지전자 주식회사 입력 기기 및 그의 이미지 처리 방법
JP6261187B2 (ja) * 2013-05-21 2018-01-17 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
CN105659287B (zh) * 2013-08-28 2018-08-17 株式会社理光 图像处理装置、图像处理方法和成像系统
TW201531960A (zh) * 2013-11-14 2015-08-16 Sicpa Holding Sa 用於驗證產品的圖像分析
KR102113813B1 (ko) * 2013-11-19 2020-05-22 한국전자통신연구원 정합 쌍을 이용한 신발 영상 검색 장치 및 방법
JP2015179426A (ja) * 2014-03-19 2015-10-08 富士通株式会社 情報処理装置、パラメータの決定方法、及びプログラム
JP6329413B2 (ja) * 2014-03-28 2018-05-23 株式会社Subaru 車外環境認識装置
CN105224582B (zh) * 2014-07-03 2018-11-09 联想(北京)有限公司 信息处理方法和设备
US9659384B2 (en) * 2014-10-03 2017-05-23 EyeEm Mobile GmbH. Systems, methods, and computer program products for searching and sorting images by aesthetic quality
KR102281184B1 (ko) * 2014-11-20 2021-07-23 삼성전자주식회사 영상 보정 방법 및 장치
US10931933B2 (en) * 2014-12-30 2021-02-23 Eys3D Microelectronics, Co. Calibration guidance system and operation method of a calibration guidance system
CN105447857B (zh) * 2015-11-17 2018-05-04 电子科技大学 脉冲涡流红外热图像的特征提取方法
CN105574873B (zh) * 2015-12-16 2018-05-22 西安空间无线电技术研究所 一种数量可控的图像特征点检测方法
CN105740802A (zh) * 2016-01-28 2016-07-06 北京中科慧眼科技有限公司 基于视差图的障碍物检测方法和装置及汽车驾驶辅助系统
US10453204B2 (en) * 2016-12-06 2019-10-22 Adobe Inc. Image alignment for burst mode images
CN106910210B (zh) * 2017-03-03 2018-09-11 百度在线网络技术(北京)有限公司 用于生成图像信息的方法和装置
MX2019012706A (es) 2017-04-24 2019-12-16 Patek Philippe Sa Geneve Metodo para identificar un reloj.
KR102325690B1 (ko) * 2017-06-14 2021-11-15 현대모비스 주식회사 어라운드 뷰 모니터링 시스템의 카메라 각도 추정 방법
US10855918B2 (en) 2018-05-09 2020-12-01 Canon Kabushiki Kaisha Image processing device, image processing method, image pickup apparatus, and program storage medium that calculates a matching degree between an estimated target of interest and tracked feature points, then selects a feature point to which tracking is continued according to the matching degree
CN108717069B (zh) * 2018-05-29 2020-08-11 电子科技大学 一种基于行变步长分割的高压容器热成像缺陷检测方法
CN110660090B (zh) * 2019-09-29 2022-10-25 Oppo广东移动通信有限公司 主体检测方法和装置、电子设备、计算机可读存储介质
FI20196125A1 (en) * 2019-12-23 2021-06-24 Truemed Oy A method for identifying the authenticity of an object
CN113298187B (zh) * 2021-06-23 2023-05-12 展讯通信(上海)有限公司 图像处理方法及装置、计算机可读存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1115951A (ja) * 1997-06-24 1999-01-22 Sharp Corp ずれ検出装置および画像合成装置
JP2000331160A (ja) * 1999-05-24 2000-11-30 Nec Corp 画像マッチング装置、画像マッチング方法及び画像マッチング用プログラムを記録した記録媒体
WO2004077356A1 (ja) * 2003-02-28 2004-09-10 Fujitsu Limited 画像結合装置、画像結合方法
JP2007102458A (ja) * 2005-10-04 2007-04-19 Yamaguchi Univ 画像処理による注目部分を自動描出する方法及びそのための装置並びにプログラムを記録した記録媒体
JP2010145186A (ja) * 2008-12-17 2010-07-01 Topcon Corp 形状測定装置およびプログラム
WO2010140513A1 (ja) * 2009-06-02 2010-12-09 株式会社トプコン ステレオ画像撮影装置及びその方法

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2679423B2 (ja) * 1991-02-05 1997-11-19 日本ビクター株式会社 多次元画像圧縮伸張方式
EP0692772A1 (fr) 1994-07-12 1996-01-17 Laboratoires D'electronique Philips S.A.S. Procédé et dispositif pour détecter des points clés situés sur le contour d'un objet
KR0181029B1 (ko) 1995-03-15 1999-05-01 배순훈 에지를 이용한 특징점 선정장치
JPH09282080A (ja) * 1996-04-16 1997-10-31 Canon Inc 情報入力方法とその装置
JP3534551B2 (ja) * 1996-09-20 2004-06-07 シャープ株式会社 動き検出装置
US6215914B1 (en) * 1997-06-24 2001-04-10 Sharp Kabushiki Kaisha Picture processing apparatus
US6873723B1 (en) * 1999-06-30 2005-03-29 Intel Corporation Segmenting three-dimensional video images using stereo
US7103211B1 (en) * 2001-09-04 2006-09-05 Geometrix, Inc. Method and apparatus for generating 3D face models from one camera
US20050196070A1 (en) 2003-02-28 2005-09-08 Fujitsu Limited Image combine apparatus and image combining method
EP1840832A4 (en) * 2005-01-19 2013-02-06 Nec Corp PRINTING INFORMATION RECORDING APPARATUS, METHOD AND PROGRAM THEREOF, FILTERING SYSTEM
JP4961850B2 (ja) * 2006-06-15 2012-06-27 ソニー株式会社 動き検出方法、動き検出方法のプログラム、動き検出方法のプログラムを記録した記録媒体及び動き検出装置
JP4321645B2 (ja) * 2006-12-08 2009-08-26 ソニー株式会社 情報処理装置および情報処理方法、認識装置および情報認識方法、並びに、プログラム
JP4967666B2 (ja) * 2007-01-10 2012-07-04 オムロン株式会社 画像処理装置および方法、並びに、プログラム
JP4989308B2 (ja) * 2007-05-16 2012-08-01 キヤノン株式会社 画像処理装置及び画像検索方法
US8306366B2 (en) 2007-08-23 2012-11-06 Samsung Electronics Co., Ltd. Method and apparatus for extracting feature points from digital image
JP4362528B2 (ja) * 2007-09-10 2009-11-11 シャープ株式会社 画像照合装置、画像照合方法、画像データ出力処理装置、プログラム、及び記録媒体
US8260061B2 (en) * 2007-09-21 2012-09-04 Sharp Kabushiki Kaisha Image data output processing apparatus and image data output processing method
JP5487970B2 (ja) * 2007-11-08 2014-05-14 日本電気株式会社 特徴点配置照合装置及び画像照合装置、その方法及びプログラム
JP4852591B2 (ja) * 2008-11-27 2012-01-11 富士フイルム株式会社 立体画像処理装置、方法及び記録媒体並びに立体撮像装置
JP5166230B2 (ja) * 2008-12-26 2013-03-21 富士フイルム株式会社 画像処理装置および方法並びにプログラム
JP4752918B2 (ja) * 2009-01-16 2011-08-17 カシオ計算機株式会社 画像処理装置、画像照合方法、および、プログラム
JP5269707B2 (ja) * 2009-07-01 2013-08-21 富士フイルム株式会社 画像合成装置及び方法
US8385689B2 (en) * 2009-10-21 2013-02-26 MindTree Limited Image alignment using translation invariant feature matching
US8791996B2 (en) * 2010-03-31 2014-07-29 Aisin Aw Co., Ltd. Image processing system and position measurement system
JP5661359B2 (ja) * 2010-07-16 2015-01-28 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
US8571350B2 (en) * 2010-08-26 2013-10-29 Sony Corporation Image processing system with image alignment mechanism and method of operation thereof
US8494254B2 (en) * 2010-08-31 2013-07-23 Adobe Systems Incorporated Methods and apparatus for image rectification for stereo display
TWI433530B (zh) * 2010-11-01 2014-04-01 Ind Tech Res Inst 具有立體影像攝影引導的攝影系統與方法及自動調整方法
US8554016B2 (en) * 2010-11-10 2013-10-08 Raytheon Company Image registration system and method for registering images for deformable surfaces
WO2012115009A1 (ja) * 2011-02-21 2012-08-30 日産自動車株式会社 周期的静止物検出装置及び周期的静止物検出方法
JP5768684B2 (ja) * 2011-11-29 2015-08-26 富士通株式会社 ステレオ画像生成装置、ステレオ画像生成方法及びステレオ画像生成用コンピュータプログラム
KR20130127868A (ko) * 2012-05-15 2013-11-25 삼성전자주식회사 점 대응을 찾기 위한 방법, 상기 방법을 수행할 수 있는 장치, 및 이를 포함하는 시스템

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1115951A (ja) * 1997-06-24 1999-01-22 Sharp Corp ずれ検出装置および画像合成装置
JP2000331160A (ja) * 1999-05-24 2000-11-30 Nec Corp 画像マッチング装置、画像マッチング方法及び画像マッチング用プログラムを記録した記録媒体
WO2004077356A1 (ja) * 2003-02-28 2004-09-10 Fujitsu Limited 画像結合装置、画像結合方法
JP2007102458A (ja) * 2005-10-04 2007-04-19 Yamaguchi Univ 画像処理による注目部分を自動描出する方法及びそのための装置並びにプログラムを記録した記録媒体
JP2010145186A (ja) * 2008-12-17 2010-07-01 Topcon Corp 形状測定装置およびプログラム
WO2010140513A1 (ja) * 2009-06-02 2010-12-09 株式会社トプコン ステレオ画像撮影装置及びその方法

Also Published As

Publication number Publication date
US9070042B2 (en) 2015-06-30
JPWO2012096163A1 (ja) 2014-06-09
WO2012096163A1 (ja) 2012-07-19
CN102859555A (zh) 2013-01-02
CN102859555B (zh) 2016-04-20
US20130004079A1 (en) 2013-01-03

Similar Documents

Publication Publication Date Title
JP5954712B2 (ja) 画像処理装置、画像処理方法、及びそのプログラム
JP6767743B2 (ja) 映像補正方法及び装置
RU2612378C1 (ru) Способ замены объектов в потоке видео
US9214013B2 (en) Systems and methods for correcting user identified artifacts in light field images
US10789765B2 (en) Three-dimensional reconstruction method
CN102474573B (zh) 图像处理装置以及图像处理方法
KR101706216B1 (ko) 고밀도 삼차원 영상 재구성 장치 및 방법
JP5923713B2 (ja) 画像処理装置、撮像装置および画像処理方法
CN107798702B (zh) 一种用于增强现实的实时图像叠加方法以及装置
JP6570296B2 (ja) 画像処理装置、画像処理方法およびプログラム
US20140340486A1 (en) Image processing system, image processing method, and image processing program
CN109525786B (zh) 视频处理方法、装置、终端设备及存储介质
JP2010152521A (ja) 画像立体化処理装置及び方法
WO2013035457A1 (ja) 立体画像処理装置、立体画像処理方法、及びプログラム
JP2014035597A (ja) 画像処理装置、コンピュータプログラム、記録媒体及び画像処理方法
CN110120012A (zh) 基于双目摄像头的同步关键帧提取的视频拼接方法
US10096116B2 (en) Method and apparatus for segmentation of 3D image data
JP6156922B2 (ja) 三次元データ生成装置、三次元データ生成方法、及びプログラム
CN112053434B (zh) 视差图的生成方法、三维重建方法及相关装置
KR101581586B1 (ko) 깊이 영상의 노이즈를 보정하는 방법
TWI535263B (zh) 3d影像深度圖之產生方法
CN108171739A (zh) 基于运动信息的双目视觉立体匹配方法
JPH11203476A (ja) エピポーララインの合わせ方法、ステレオ画像装置
KR20140118370A (ko) 입체 영상 제작 시스템 및 다시점 영상 정렬방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140922

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20141006

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160524

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160606

R151 Written notification of patent or utility model registration

Ref document number: 5954712

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151