JP2013156722A - 画像処理装置、画像処理方法、学習装置、学習方法およびプログラム - Google Patents

画像処理装置、画像処理方法、学習装置、学習方法およびプログラム Download PDF

Info

Publication number
JP2013156722A
JP2013156722A JP2012014872A JP2012014872A JP2013156722A JP 2013156722 A JP2013156722 A JP 2013156722A JP 2012014872 A JP2012014872 A JP 2012014872A JP 2012014872 A JP2012014872 A JP 2012014872A JP 2013156722 A JP2013156722 A JP 2013156722A
Authority
JP
Japan
Prior art keywords
image
feature point
conversion
unit
lens distortion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012014872A
Other languages
English (en)
Inventor
Takehiro Hamada
健宏 濱田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2012014872A priority Critical patent/JP2013156722A/ja
Priority to US13/744,805 priority patent/US20130195351A1/en
Priority to CN2013100226751A priority patent/CN103226811A/zh
Publication of JP2013156722A publication Critical patent/JP2013156722A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T5/80

Abstract

【課題】入力画像に合成画像を良好に合成可能とする。
【解決手段】レンズ歪みを考慮した参照画像の特徴点辞書を用いて、入力画像と参照画像の特徴点のマッチングを行う。マッチングで見つけられた対応点について、入力画像の特徴点の座標をレンズ歪データに基づいて補正した後、各対応点に基づいてホモグラフィ(射影関係)を算出する。入力画像にレンズ歪みが存在する場合にあっても、入力画像に合成画像を良好に合成できる。また、入力画像にレンズ歪補正を行うものではなく、入力画像の特徴点の座標にレンズ歪補正を行うものであり、計算量の大幅な抑制が可能となる。
【選択図】図2

Description

本技術は、画像処理装置、画像処理方法、学習装置、学習方法およびプログラムに関し、特に、入力画像の指定領域に所定の画像を合成し得る画像処理装置等に関する。
近年、拡張現実感に対するニーズが生じてきた。拡張現実感を実現するためにいくつかの方法がある。例えば、GPS(Global Positioning System)などの位置情報を用いたものや、画像解析を用いたものなどが挙げられる。その1つに、特定物体認識の技術を用いて、特定物体の姿勢・位置を基準にCG(Computer Graphics)の合成を行う拡張現実感がある。例えば、特許文献1には、姿勢・位置の推定結果に基づく画像処理装置が記載されている。
拡張現実感の品質を決める主な要素として、幾何学的整合性が挙げられる。幾何学的整合性とは、幾何的に違和感なく映像中にCGを合成することである。「幾何的に違和感が無い」とは、例えば、特定物体の姿勢・位置の推定の正確さのことであり、対象の領域が移動する場合に、追従してCGを動かす、または、カメラが動いたときに動きに追従してCGを動かすことである。
簡単のために、以下ではCGに画像を想定して、指定の平面領域に画像を貼り付けることを考える。例えば、屋外の広告看板を指定領域として、その上に画像を貼り付けるような場合である。幾何的整合性を達成するには、画像を貼り付けるための指定の領域の位置を推定することが必要である。特定の領域は、マーカーと呼ばれる特殊な2次元コードや任意の画像で定めるのが一般的である。以下では、指定領域をマーカーと呼ぶ。
マーカーを認識して画像を貼り付けるためのアルゴリズムでは、マーカーのデータを参照用の画像(参照画像)や、その特徴を表した辞書としてプログラムに記憶させておき、参照画像と入力画像を照合して、入力画像中のマーカーを探し出すという枠組みが一般に用いられる。マーカーの位置を認識する手法は、大きくわけて、(1)参照画像と入力画像間の各画像の密な濃淡の差分評価に基づく手法、(2)参照画像の事前学習に基づく手法の2つがある。
(1)の手法は、推定精度の面では有利だが、計算量が多く、リアルタイム処理に適さない。一方、(2)の手法は、事前に行う学習で多くの計算を行い、参照画像を解析する。そのため、各時刻の入力映像に対する認識処理が少ない計算で済むので、リアルタイムでの動作が期待される。
図19は、撮像画像に合成画像を合成し得る画像処理装置400の構成例を示している。この画像処理装置400は、特徴点抽出部401と、マッチング部402と、ホモグラフィ算出部403と、合成画像座標変換部404と、出力画像生成部405と、記憶部406を有している。
特徴点抽出部401は、入力画像(撮像画像)の特徴点を抽出する。ここで、特徴点とは、輝度値を見たときに角(コーナー)となるような画素のことをいう。マッチング部402は、記憶部406に記憶されている、事前学習で作成された参照画像の特徴点辞書に基づいて、マッチング処理、つまり入力画像の特徴点が参照画像の特徴点に対応しているかを計算し、2画像間の特徴点の対応点を得る。
ホモグラフィ算出部403は、マッチング部402で求められた2つの画像の対応点を用いて、2画像間の画像変換であるホモグラフィを算出する。合成画像座標変換部404は、記憶部406に記憶されている合成画像を、ホモグラフィを用いて変換する。出力画像生成部405は、入力画像に変換された合成画像を合成して、出力画像を得る。
図20のフローチャートは、図19に示す画像処理装置400における処理の流れの一例を示している。まず、画像処理装置400は、ステップST1において、処理を開始し、その後に、ステップST2において、入力画像(撮像画像)を入力し、その後に、ステップST3の処理に移る。
画像処理装置400は、ステップST3において、特徴点抽出部401により、入力画像の特徴点を抽出する。次に、画像処理装置400は、ステップST4において、マッチング部402により、記憶部406に記憶されている参照画像の特徴点辞書と、特徴点抽出部401で抽出された入力画像の特徴点に基づいて、入力画像と参照画像の間で特徴点をマッチングする。このマッチング処理により、入力画像および参照画像の特徴点の対応点が求められる、
次に、画像処理装置400は、ステップST5において、ホモグラフィ算出部403により、マッチング部402で求められた2つの画像の対応点を用いて、2画像間の画像変換であるホモグラフィを算出する。そして、画像処理装置400は、ステップST6において、ホモグラフィ行列を算出できたか否かを判断する。
ホモグラフィ行列を算出できたとき、画像処理装置400は、ステップST7において、このホモグラフィ行列に基づき、記憶部406に記憶されている合成画像を、ステップST5で算出されたホモグラフィ行列を用いて変換する。そして、画像処理装置400は、ステップST8において、出力画像生成部405により、変換された合成画像を入力画像に合成して、出力画像を得る。
次に、画像処理装置400は、ステップST9において、ステップST8で得られた出力画像を出力し、その後に、ステップST10において、処理を終了する。一方、ステップST6でホモグラフィ行列を算出できなかったとき、画像処理装置400は、ステップST11において、入力画像をそのまま出力し、その後に、ステップST10において、処理を終了する。
上述のマッチング処理において、マーカーが回転などして姿勢が変化しても頑強(ロバスト)に対応点を得ることができるかが技術的なポイントとなり、姿勢に頑強に対応点を得るための手法が様々提案されている。マーカーの姿勢変化にロバストな手法として、例えば、(1)非特許文献1に記載されるSIFT特徴量、(2)非特許文献2に記載される“Random Ferns”の2つが挙げられる。
SIFT特徴量は、特徴点周辺の画素の勾配方向を用いて特徴点を記述することで、マーカーの回転にロバストに認識を行うことができる。また、“Random Ferns”は、ベイズ統計を利用して参照画像を画像変換して事前に学習することでマーカーの姿勢変化にロバストに認識を行うことができる。
特開2007−219764号公報
D. G. Lowe, "Object recognition from localscale invariant features", Proc. of IEEE International M. ?zuysal, M. Calonder, V. Lepetit, P. Fua Fast KeypointRecognition using Random Ferns IEEE Transactions on Pattern Analysis andMachine Intelligence, Vol. 32, Nr. 3, pp. 448 - 461, March 2010
従来手法の問題点の一つとして、入力画像がインターレースの場合やレンズ歪がある場合に対応していない点が挙げられる。この問題に起因するデメリットは、特徴点抽出の前処理として入力画像に対してIP変換や、歪補正を行う必要があり、計算量が大幅に増加することにある。
この問題の原因は、事前学習に基づいた手法では、認識対象の画像上での見え方を考慮して学習を行うが、画像上での見え方は認識対象の姿勢変化とカメラの姿勢変化、特性によって決定されるのに対して、従来手法ではカメラの姿勢変化、特性を考慮していない点にある。このうち、認識対象の姿勢変化とカメラの姿勢変化は、相対的でありカメラの姿勢変化は認識対象の姿勢変化によって表現することができる。したがって、従来手法の問題点の原因は、カメラの特性を考慮していないことに集約される。
図21の画像処理装置400Aは、特徴点抽出の前処理として入力画像(インターレース画像)に対してIP変換や歪補正を行うようにした画像処理装置400Aの構成例を示している。この図21において、図19と対応する部分には同一符号を付し、適宜、その詳細説明は省略する。
この画像処理装置400Aは、特徴点抽出部401の前段に、IP変換部411およびレンズ歪み補正部412を有する。IP変換部411は、入力画像をインターレース画像からプログレッシブ画像に変換する。また、レンズ歪補正部412は、記憶部406に記憶されているレンズ歪データに基づいて、プログレッシブ画像に変換された入力画像のレンズ歪みを補正する。この場合のレンズ歪データは、入力画像を撮像したカメラのレンズ歪を示すデータであり、予め測定されて、記憶部406に記憶されている。
また、この画像処理装置400Aは、出力画像生成部405の後段に、レンズ歪変換部413およびPI変換部414を有する。レンズ歪変換部413は、記憶部406に記憶されているレンズ歪データに基づいて、出力画像生成部405で生成された出力画像にレンズ歪みが付加されるように、レンズ歪変換を行う。上述したようレンズ歪補正部412により出力画像生成部405で生成された出力画像はレンズ歪みが除去されたものとなっている。
レンズ歪補正部413では、このように除去されたレンズ歪みを元の状態に戻し、撮影者が意図して撮影した画像に戻すためのものである。PI変換部414は、レンズ歪変換された出力画像をプログレッシブ画像からインターレース画像に変換して出力する。詳細説明は省略するが、この図21に示す画像処理装置400Aのその他は、図19に示す画像処理装置400と同様に構成されている。
図22のフローチャートは、図21に示す画像処理装置400Aにおける処理の流れを示している。この図22において、図20と対応するステップには同一符号を付し、適宜、その詳細説明は省略する。画像処理装置400Aは、ステップST1において、処理を開始し、ステップST2において、インターレース画像である入力画像(撮像画像)を入力し、その後に、ステップST21の処理に移る。このステップST21において、画像処理装置400Aは、入力画像をインターレース画像からプログレッシブ画像に変換する。
次に、画像処理装置400Aは、ステップST22において、レンズ歪み補正部412により、記憶部406に記憶されているレンズ歪データに基づいて、プログレッシブ画像に変換された入力画像のレンズ歪みを補正する。そして、画像処理装置400Aは、ステップST3において、IP変換およびレンズ歪補正された入力画像の特徴点を抽出する。
また、画像処理装置400Aは、ステップST8の処理の後、ステップST23において、レンズ歪変換部413により、記憶部406に記憶されているレンズ歪データに基づいて、得られた出力画像にレンズ歪変換を行ってレンズ歪みを付加する。次に、画像処理装置400Aは、ステップST24において、レンズ歪変換された出力画像をプログレッシブ画像からインターレース画像に変換する。
そして、画像処理装置400Aは、ステップST9において、レンズ歪変換およびPI変換が施された出力画像を出力する。詳細説明は省略するが、図22のフローチャートのその他のステップは、図20のフローチャートと同様である。
本技術の目的は、入力画像に合成画像を良好に合成可能とすることにある。
本技術の概念は、
カメラの撮像画像を入力画像とし、該入力画像の特徴点を抽出する特徴点抽出部と、
参照画像から上記カメラのレンズ歪みを考慮して生成された特徴点辞書を用いて、上記特徴点抽出部で抽出された入力画像の特徴点と上記参照画像の特徴点との対応関係を決定する対応関係決定部と、
上記対応関係決定部で決定された、上記参照画像の特徴点に対応した上記入力画像の特徴点の座標を、上記カメラのレンズ歪データに基づいて補正する特徴点座標歪補正部と、
上記対応関係決定部で決定された対応関係で、上記参照画像の特徴点の座標と上記特徴点座標歪補正部で補正された上記入力画像の特徴点の座標に基づいて、上記入力画像と上記参照画像の射影関係を算出する射影関係算出部と、
上記射影関係算出部で算出された射影関係と上記カメラのレンズ歪データに基づいて、合成画像から貼り合わせ用の合成画像を生成する合成画像座標変換部と、
上記入力画像に上記合成画像座標変換部で生成された貼り合わせ用の合成画像を合成して出力画像を得る出力画像生成部とを備える
画像処理装置にある。
本技術において、特徴点抽出部により、入力画像の特徴点が抽出される。この入力画像は、カメラの撮像画像であり、例えば、カメラから直接得られるか、あるいはストレージから読み出されて得られるものである。対応関係決定部により、抽出された入力画像の特徴点と参照画像の特徴点との対応関係が決定される。すなわち、この対応関係決定部では、入力画像および参照画像の特徴点のマッチングが行われて対応点が得られる。この対応関係の決定は、参照画像からカメラのレンズ歪みを考慮して生成された特徴点辞書を用いて行われる。
特徴点座標歪補正部により、対応関係決定部で決定された、参照画像の特徴点に対応した入力画像の特徴点の座標が、カメラのレンズ歪データに基づいて補正される。そして、射影関係算出部により、決定された対応関係で、参照画像の特徴点の座標と特徴点座標変換部で変換された入力画像の特徴点の座標に基づいて、入力画像と参照画像の射影関係(ホモグラフィ)が算出される。そして、合成画像座標変換部により、算出された射影関係とカメラのレンズ歪データに基づいて、合成画像から貼り合わせ用の合成画像が生成される。そして、出力画像生成部により、入力画像に生成された貼り合わせ用の合成画像が合成され、出力画像が得られる。
このように本技術においては、レンズ歪みを考慮した参照画像の特徴点辞書を用いて特徴点のマッチングが行われるものであり、入力画像にレンズ歪みが存在する場合にあっても、入力画像と参照画像の特徴点の対応点を良好に見つけることができ、入力画像に合成画像を良好に合成できる。この場合、入力画像にレンズ歪補正を行うものではなく、入力画像の特徴点の座標にレンズ歪補正を行うものであり、計算量の大幅な抑制が可能となる。
なお、本技術において、例えば、特徴点辞書は、カメラのレンズ歪みの他に、さらにインターレース画像を考慮して生成されていてもよい。この場合、インターレース画像を考慮した参照画像の特徴点辞書を用いて特徴点のマッチングが行われるものであり、入力画像がインターレース画像であっても、入力画像と参照画像の特徴点の対応点を良好に見つけることができ、入力画像に合成画像を良好に合成できる。この場合、インターレースの入力画像をプログレッシブ画像に変換するものではなく、計算量の大幅な抑制が可能となる。
なお、本技術の他の概念は、
参照画像に少なくとも変換パラメータによる幾何変換およびレンズ歪データによるレンズ歪変換を施す画像変換部と、
上記画像変換部で変換された複数の変換画像に基づいて所定数の特徴点を抽出して辞書に登録する辞書登録部とを備える
学習装置にある。
本技術においては、画像変換部により、参照画像に少なくとも変換パラメータによる幾何変換およびレンズ歪データによるレンズ歪変換が施される。そして、辞書登録部により、変換された複数の変換画像に基づいて所定数の特徴点が抽出されて辞書に登録される。
例えば、辞書登録部は、画像変換部で変換された参照画像の特徴点を求める特徴点計算部と、この画像変換部で変換された画像の特徴点を求める特徴点計算部と、この特徴点計算部で求められた特徴点の座標を参照画像上の座標に変換する特徴点座標変換部と、画像変換部で変換された参照画像毎の特徴点座標変換部で変換された特徴点座標に基づいて、各特徴点の出現頻度を更新する出現頻度更新部と、この出現頻度更新部で出現頻度が更新された各特徴点のうち、出現頻度が上位から任意の数の特徴点を取り出して辞書に登録する特徴点登録部を有する、ようにされてもよい。
このように本技術においては、レンズ歪変換が施された複数の変換画像に基づいて所定数の特徴点が抽出されて辞書の登録が行われる。そのため、カメラのレンズ歪みを考慮した参照画像の特徴点辞書を良好に得ることができる。
なお、本技術において、例えば、画像変換部は、参照画像に、幾何変換およびレンズ歪変換と共に、プログレッシブ画像からインターレース画像に変換するプログレッシブ/インターレース変換を選択的に施して複数の変換画像を生成する、ようにされてもよい。この場合、カメラのレンズ歪みと、プログレッシブおよびインターレースの双方の画像を考慮した特徴点辞書を良好に得ることができる。
また、本技術において、例えば、画像変換部は、複数のレンズ歪みデータからランダムに選択されたレンズ歪データに基づいてレンズ歪み変換を施して複数の変換画像を生成する、ようにされてもよい。この場合、複数のカメラのレンズ歪みを考慮した特徴点辞書を良好に得ることができる。
本技術によれば、入力画像に合成画像を良好に合成できる。
この発明の実施の形態としての画像処理システムの構成例を示すブロック図である。 画像処理システムを構成する画像処理装置の構成例を示すブロック図である。 画像処理装置における処理の流れの一例を示すフローチャートである。 入力画像および参照画像の一例を示す図である。 入力画像および参照画像の特徴点のマッチング例を示す図である。 合成画像および出力画像の一例を示す図である。 画像処理システムを構成する学習装置の構成例を示すブロック図である。 学習装置を構成する特徴点抽出部の構成例を示すブロック図である。 特徴点の出現頻度を説明するための図である。 特徴点抽出部における処理の流れの一例を示すフローチャートである。 学習装置を構成する画像特徴学習部の構成例を示すブロック図である。 画像特徴学習部における処理の流れの一例を示すフローチャートである。 PI変換を行うか否かの判断処理を入れる場合における特徴点抽出部の処理の流れの一例を示すフローチャートである。 PI変換を行うか否かの判断処理を入れる場合における画像特徴学習部の処理の流れの一例を示すフローチャートである。 複数のカメラのレンズ歪変換が施された変換画像を用いる場合における特徴点抽出部の処理の流れの一例を示すフローチャートである。 複数のカメラのレンズ歪変換が施された変換画像を用いる場合における画像特徴学習部の処理の流れの一例を示すフローチャートである。 PI変換を行うか否かの判断処理を入れると共に、複数のカメラのレンズ歪変換が施された変換画像を用いる場合における特徴点抽出部の処理の流れの一例を示すフローチャートである。 PI変換を行うか否かの判断処理を入れると共に、複数のカメラのレンズ歪変換が施された変換画像を用いる場合における画像特徴学習部の処理の流れの一例を示すフローチャートである。 撮像画像に合成画像を合成し得る画像処理装置の構成例を示すブロック図である。 画像処理装置における処理の流れの一例を示すフローチャートである。 撮像画像に合成画像を合成し得る画像処理装置の他の構成例を示すブロック図である。 他の構成例の画像処理装置における処理の流れの一例を示すフローチャートである。
以下、発明を実施するための形態(以下、「実施の形態」とする)について説明する。なお、説明を以下の順序で行う。
1.実施の形態
2.変形例
<1.実施の形態>
[画像処理システムの構成例]
図1は、実施の形態としての画像処理システム10の構成例を示している。この画像処理システム10は、画像処理装置100と学習装置200により構成されている。
学習装置200は、参照画像の画像特徴を抽出してデータベースとしての特徴点辞書を生成する。このとき、認識対象の姿勢変形とカメラの特性を考慮して画像特徴を抽出する。このように学習装置200で参照画像の解析を行うことにより、認識対象の姿勢変化にロバストでカメラの特性に適した認識処理を行うことができる。この学習装置における処理は、オフライン処理であり、リアルタイム性は要求されない。画像処理装置100は、特徴点辞書を用いて、入力画像の認識対象の位置を検出して、その位置に合成画像を重畳して出力画像を生成する。この画像処理装置100における処理は、オンライン処理であり、リアルタイム性が要求される。
[画像処理装置の詳細]
画像処理装置100の詳細を説明する。最初に、画像処理装置100における処理の概要を述べる。画像処理装置100での目標は、入力画像内の認識対象(マーカー)に対して、合成画像を貼り合わせて、出力画像を生成することである。どのように貼り合わせを行えばよいかを決めるためには、参照画像から入力画像内の認識対象への幾何的な変換を求めて、その変換を合成画像に対して行えばよい。
本技術では、認識対象を平面とするので、上述の幾何的な変換は、ホモグラフィと呼ばれる3*3の行列で表現される。ホモグラフィは、入力画像内の認識対象と参照画像で、4つ以上の対応する点(同一である点)があれば求められることが知られている。点同士の対応関係を探す処理は、一般にマッチングと呼ばれる。マッチングは、学習装置200で得られた辞書を用いて行う。また、点には、マッチングの精度を良くするために、特徴点と呼ばれる輝度で見て角(コーナー)となる点を用いる。したがって、入力画像、参照画像に対して特徴点を抽出する処理が必要となる。ここで、参照画像の特徴点に関しては、学習装置200で事前に求めておく。
次に、画像処理装置100の詳細構成を説明する。図2は、画像処理装置100の構成例を示している。この画像処理装置100は、特徴点抽出部101と、マッチング部102と、特徴点座標歪補正部103と、ホモグラフィ算出部104と、合成画像座標変換部105と、出力画像生成部106を有している。なお、画像処理装置100は、カメラ等の画像入力装置と一体に構成されてもよく、あるいはディスプレイなどの画像表示装置と一体に構成されてもよい。
特徴点抽出部101は、入力画像(撮像画像)の特徴点を抽出して、特徴点の座標を得る。この場合、特徴点抽出部101は、入力画像のある時刻のフレームを対象として特徴点を抽出する。特徴点抽出の手法として、例えば、ハリスコーナー(Harris Corner)やSIFT(Scale Invariant FeatureTransform)などの様々な手法が提案されている。ここでは、任意の手法を用いることができる。
マッチング部102は、記憶部107に記憶されている、学習装置200において事前学習で作成された参照画像の特徴点辞書に基づいて、マッチング処理、つまり入力画像の特徴点が参照画像の特徴点に対応しているかを計算し、2画像間の特徴点の対応点を得る。ここで、特徴点辞書は、カメラのレンズ歪みと、インターレース画像およびプログレッシブ画像の双方を考慮して生成されたものである。
マッチング処理として様々な方法が提案されている。ここでは、例えば、一般に良く知られるベイズ統計に基づいた方法を用いる。このベイズ統計に基づいた方法では、以下の(1)式を満たす参照画像の特徴点を対応点とする。
ここで、I_kをk番目の特徴点とする。f_1,・・・,f_Nは、特徴点に対するテストを表している。テストとは特徴点周りのテクスチャを表すための操作で、例えば、特徴点周辺の2点間の大小関係が用いられ、f_1からf_NまでのN組の2点間の大小関係が比較される。テストには、他にも差分絶対値和(SAD)やヒストグラムの比較など様々な手法が考えられる。ここでも、任意の手法を用いることができる。
(1)式が意味することは、入力画像のある特徴点に対して、f_1,・・・,f_Nのテスト(大小判定)を行い、その結果から確率分布Pが最も大きくなる参照画像の特徴点I_kを対応点とする。このとき、Pの分布が必要となるが、これは、学習装置200において事前に求めておく。このPの分布を辞書と呼ぶ。(1)式をそのまま用いると、辞書のデータ量が膨大になるので、一般にP0(f_1),・・・,P(f_N)に対して、統計的独立やそれに準ずる仮定をして、同時分布の積などによって近似を行う。ここでは、そのような近似を用いることもできる。
特徴点座標歪補正部103は、マッチング部102で対応点が見つかった入力画像の特徴点に対して、記憶部107に記憶されているカメラのレンズ歪データに基づいて、座標値の歪み補正を行う。ホモグラフィ算出部104は、マッチング部102で見つかった対応点で、参照画像の特徴点の座標と、補正された入力画像の特徴点の座標に基づいて、入力画像と参照画像のホモグラフィ(射影関係)を算出する。ホモグラフィの求め方としては様々な手法が提案されている。ここでは、任意の手法を用いることができる。
合成画像座標変換部105は、ホモグラフィ算出部104で算出されたホモグラフィと、記憶部107に記憶されているカメラのレンズ歪データに基づいて、記憶部107に記憶されている合成画像から貼り合わせ用の合成画像を生成する。この場合、合成画像の3次元座標をXg、ホモグラフィをH、レンズ歪変換をTRとすると、座標変換後の座標X′gは、以下の(2)式のようになる。ただし、この(2)式において、TMは、以下の(3)式で表される。
この場合、座標変換後の合成画像S′gは、以下の(4)式のようになる。
出力画像生成部106は、入力画像に、合成画像座標変換部105で生成された変換された貼り合わせ用の合成画像を合成して、出力画像を得る。この場合、入力画像をS、合成のブレンド比率をαとすると、出力画像Soは、以下の(5)式のようになる。
画像処理装置100の各構成要素は、回路ロジックなどのハードウェアおよび/またはプログラムなどのソフトウェアとして構成される。ソフトウェアとして構成される構成要素は、例えば、図示しないCPU上でプログラムを実行することにより実現される。
図3のフローチャートは、図2に示す画像処理装置100における処理の流れの一例を示している。まず、画像処理装置100は、ステップST31において、処理を開始し、その後に、ステップST32において、入力画像(撮像画像)を入力し、その後に、ステップST33の処理に移る。図4(a)は、入力画像I1の一例を示している。この入力画像I1には、マーカーMとして斜めに吊り下げられた地図画像が含まれている。
画像処理装置100は、ステップST33において、特徴点抽出部101により、入力画像の特徴点を抽出する。次に、画像処理装置100は、ステップST34において、マッチング部102により、記憶部107に記憶されている参照画像の特徴点辞書と、特徴点抽出部101で抽出された入力画像の特徴点に基づいて、入力画像と参照画像の間で特徴点をマッチングする。このマッチング処理により、入力画像および参照画像の特徴点の対応点が求められる。
図4(b)は、参照画像Rの一例を示している。また、図5は、特徴点のマッチング例を示している。この例では、入力画像I1中の特定領域(マーカーM)は、日本周辺の地図画像を示す参照画像Rにより指定されている。入力画像I1は、斜めに吊り下げられた地図画像(マーカーM)を斜め前方から捉えている。参照画像Rは、正立した状態のマーカーMに対応する地図画像であり、輝度値のエッジ成分等、9つの特徴点P1〜P9が予め抽出されている。
なお、図では、便宜上、地図画像の輝度画像ではなく地図画像自体に特徴点Pが示されている。この例では、参照画像Rと入力画像I1の間で、対応関係にある同一の特徴点P(対応点)同士を結ぶ線分で示されるように、9つの特徴点P1〜P9のうち5つの特徴点P1〜P5がマッチングされたことを示している。
次に、画像処理装置100は、ステップST35において、特徴点座標歪補正部103により、マッチングされた入力画像の特徴点の座標を、記憶部107に記憶されているカメラのレンズ歪データに基づいて補正する。そして、画像処理装置100は、ステップST36において、参照画像の特徴点の座標と、補正された入力画像の特徴点の座標に基づいて、入力画像と参照画像のホモグラフィ行列を算出する。
次に、画像処理装置100は、ステップST37において、ホモグラフィ行列を算出できたか否かを判断する。ホモグラフィ行列を算出できたとき、画像処理装置100は、ステップST38において、このホモグラフィ行列に基づき、記憶部107に記憶されている合成画像を、ステップST36で算出されたホモグラフィ行列および記憶部107に記憶されているカメラのレンズ歪データに基づいて変換し、貼り付け用の合成画像を得る。
次に、画像処理装置100は、ステップST39において、出力画像生成部106により、ステップST38で生成された変換後の合成画像(貼り付け用の合成画像)を入力画像に合成して、出力画像を得る。図6(a)は、合成画像の一例を示している。また、図6(b)は、入力画像I1に、変換された合成画像が合成されて得られた出力画像の一例を示している。
また、画像処理装置100は、ステップST40において、ステップST39で得られた出力画像を出力し、その後に、ステップST41において、処理を終了する。一方、ステップST37でホモグラフィ行列を算出できなかったとき、画像処理装置100は、ステップST42において、入力画像をそのまま出力し、その後に、ステップST41において、処理を終了する。
上述したように、図2に示す画像処理装置100においては、マッチング部102で用いられる特徴点辞書は、カメラのレンズ歪みを考慮したものである。そのため、この画像処理装置100においては、入力画像にレンズ歪みが存在する場合にあっても、そのレンズ歪みを考慮して特徴点のマッチングが行われるものであり、入力画像と参照画像の特徴点の対応点を良好に見つけることができ、入力画像に合成画像を良好に合成できる。また、この場合、入力画像にレンズ歪補正を行うものではなく、特徴点座標歪補正部103で入力画像の特徴点の座標にレンズ歪補正を行うものであり、計算量の大幅な抑制が可能となる。
また、マッチング部102で用いられる特徴点辞書は、インターレース画像を考慮して生成されたものである。そのため、この画像処理装置100においては、入力画像がインターレース画像であっても、インターレース画像を考慮して特徴点のマッチングが行われるものであり、入力画像と参照画像の特徴点の対応点を良好に見つけることができ、入力画像に合成画像を良好に合成できる。また、この場合、インターレースの入力画像をプログレッシブ画像に変換するものではなく、計算量の大幅な抑制が可能となる。
[学習装置の詳細]
学習装置200の詳細を説明する。学習装置200は、図7に示すように、特徴点抽出部200Aおよび画像特徴学習部200Bにより構成されている。特徴点抽出部200Aは、認識対象の姿勢変化やカメラの特性にロバストな特徴点の集合を算出する。画像特徴学習部200Bでは、特徴点抽出部200Aで得られた各特徴点に対して、その周辺のテクスチャを解析することで、辞書を作成する。
「特徴点抽出部の詳細」
特徴点抽出部200Aについて説明をする。特徴点抽出部200Aでは、ロバストな特徴点の集合を算出することが目的である。そのために、参照画像に対して各種の変換を行った上で特徴点を求めることを、変換のパラメータをランダムに変化させながら複数回行う。複数回行った中で、出現頻度が高い特徴点をロバストな特徴点として辞書に登録する。
図8は、特徴点抽出部200Aの構成例を示している。この特徴点抽出部200Aは、変換パラメータ生成部201と、幾何変換部202と、レンズ歪変換部203と、PI変換部204と、特徴点計算部205と、特徴点座標変換部206と、特徴点出現頻度更新部207と、特徴点登録部208と、記憶部209を有している。
変換パラメータ生成部201は、幾何変換部202で用いる変換パラメータH(回転角や拡大率に相当)、レンズ歪変換部203で用いるδx, δy(レンズ中心)のパラメータ、さらに、PI変換部204で用いるδi(奇数と偶数のどちらのフィールドを用いるか)のパラメータをそれぞれ生成する。この場合、各パラメータは、乱数を用いてランダム値として生成される。
幾何変換部202は、変換パラメータHに基づいて、追跡対象の姿勢変化に相当する変換THで、記憶部209に記憶されている参照画像Sの回転、拡大等を行って、変換後の画像SH=TH(S,H)を得る。変換THには、想定する姿勢変化のクラスによって、アフィン変換やホモグラフィ変換などが用いられる。変換のパラメータは、想定する姿勢変化内でランダムに決められる。
レンズ歪変換部203は、画像SHに対して、記憶部209に記憶されているレンズ歪データに基づいて、カメラのレンズ歪に相当する変換TRを行って、変換後の画像SR=TR(SH,δx, δy)を得る。このとき、レンズ中心を参照画像の中心からx方向にδx、y方向にδy移動したとして変換を行う。δx, δyのパラメータは、想定するレンズ中心の変化内でランダムに決められる。なお、レンズ歪変換部203は、変換TRを、予めレンズ歪の測定を行って求めておく。
PI変換部204は、画像SRに対して、プログレッシブ画像からインターレース画像への変換TIを行って、変換後の画像SI=TI(SR,δi)を得る。この場合、変換TIは、ダウンサンプリングとなり、各種の実装(フィルタなど)を用いることができる。このとき、δiの値によって、奇数と偶数のどちらのフィールドを用いるかを決定する。特徴点計算部205は、画像SIの特徴点を算出する。特徴点座標変換部206は、画像SIの各特徴点に対して、TH,TR,TIの逆変換を行って、参照画像S上での特徴点座標を求める。
特徴点出現頻度更新部207は、参照画像S上での各座標において、特徴点の出現頻度を更新する。出現頻度は、図9に示すように、各特徴点の出現回数のヒストグラムである。ある特徴点が何番目の特徴点であるかは、参照画像S上での特徴点座標によって判定する。これは、参照画像S上での特徴点座標は、変換のパラメータによらず不変な量となるためである。特徴点登録部208は、N回の変換画像に対する特徴点抽出結果による各特徴点の出現頻度に基づいて、上位から任意の数の特徴点を、記憶部209の特徴点辞書に登録する。
特徴点抽出部200Aの各構成要素は、回路ロジックなどのハードウェアおよび/またはプログラムなどのソフトウェアとして構成される。ソフトウェアとして構成される構成要素は、例えば、図示しないCPU上でプログラムを実行することにより実現される。
図10のフローチャートは、図8に示す特徴点抽出部200Aにおける処理の流れの一例を示している。まず、特徴点抽出部200Aは、ステップST51において、処理を開始し、その後に、ステップST52において、変換パラメータ生成部201により、変換パラメータを、乱数を用いてランダム値として生成する。ここで、生成される変換パラメータは、幾何変換部202で用いる変換パラメータH(回転角や拡大率に相当)、レンズ歪変換部203で用いるδx, δy(レンズ中心)のパラメータ、さらに、PI変換部204で用いるδi(奇数と偶数のどちらのフィールドを用いるか)のパラメータである。
次に、特徴点抽出部200Aは、ステップST53において、幾何変換部202により、変換パラメータHに基づいて、追跡対象の姿勢変化に相当する変換THで、参照画像Sの回転、拡大等を行って、変換後の画像SH=TH(S,H)を得る。また、特徴点抽出部200Aは、ステップST54において、画像SHに対して、カメラのレンズ歪に相当する変換TRを行って、変換後の画像SR=TR(SH,δx, δy)を得る。さらに、特徴点抽出部200Aは、ステップST55において、画像SRに対して、プログレッシブ画像からインターレース画像への変換TIを行って、変換後の画像SI=TI(SR,δi)を得る。
次に、特徴点抽出部200Aは、ステップST56において、特徴点計算部205により、ステップST55で得られた画像SIの特徴点を算出する。そして、特徴点抽出部200Aは、ステップST57において、特徴点座標変換部206により、ステップST56で求められた画像SIの各特徴点に対して、TH,TR,TIの逆変換を行って、参照画像S上での特徴点座標を求める。そして、特徴点抽出部200Aは、ステップST58において、特徴点出力頻度更新部207により、参照画像S上での各座標において、特徴点の出現頻度を更新する。
次に、特徴点抽出部200Aは、ステップS59において、N回目の処理が終了したか否かを判断する。N回目に至っていないとき、特徴点抽出部200Aは、ステップST52の処理に戻り、上述したと同様の処理を繰り返す。一方、N回目の処理が終了したとき、特徴点抽出部200Aは、ステップST60において、特徴点登録部208により、各特徴点の出現頻度に基づいて、上位から任意の数の特徴点を、辞書に登録する。その後、特徴点抽出部200Aは、ステップST61において、処理を終了する。
「画像特徴学習部の詳細」
画像特徴学習部200Bについて説明をする。画像特徴学習部200Bは、特徴点抽出部200Aで得られた各特徴点に対して、その周辺の画像特徴を解析して、辞書を作成することを目的とする。このとき、特徴点抽出部200Aと同様に参照画像に対して各種の変換を行って辞書を作成することによって、姿勢変化やカメラの特性に対して、ロバストな認識を行うことができる。
画像特徴学習部200Bは、変換パラメータ生成部211と、幾何変換部212と、レンズ歪変換部213と、PI変換部214と、確率更新部215と、記憶部216を有している。変換パラメータ生成部211は、幾何変換部212で用いる変換パラメータH(回転角や拡大率に相当)、レンズ歪変換部213で用いるδx, δy(レンズ中心)のパラメータ、さらに、PI変換部214で用いるδi(奇数と偶数のどちらのフィールドを用いるか)のパラメータをそれぞれ生成する。この場合、各パラメータは、乱数を用いてランダム値として生成される。
詳細説明は省略するが、幾何変換部212、レンズ歪変換部213およびPI変換部214は、それぞれ、図8に示す特徴点抽出部200Aにおける幾何変換部202、レンズ歪変換部203およびPI変換部204と同様に構成されている。
確率更新部215は、変換画像SIにおいて、特徴点抽出部200Aで得られた各特徴点に対して、図2に示す画像処理装置100のマッチング部102で述べたのと同様のテストを行って、記憶部216に記憶されている各特徴点の確率(辞書)を更新していく。確率更新部215は、N回の変換画像SIのそれぞれで各特徴点の確率(辞書)を更新していく。これにより、記憶部216には、特徴点と確率のデータをまとめた特徴点辞書が生成される。
上述の画像処理装置100でのマッチング処理における確率の最大化はベイズ統計を用いて、以下の(6)式のように書ける。このことから、P(f_1,f_2,…,f_N | I_k)とP(I_k)が分かれば最大化が達成される。
ここで、P(f_1,f_2,…,f_N | I_k)は、特徴点I_kに関してテストが取りうる確率、P(I_k)は、I_kの出現確率を表している。前者に関しては、上述の各特徴点に対するテストを行えば求めることができ、後者は特徴点抽出部200Aの特徴点出現頻度がそれに値する。全特徴点に関してテスト処理を行う。
画像特徴学習部200Bの各構成要素は、回路ロジックなどのハードウェアおよび/またはプログラムなどのソフトウェアとして構成される。ソフトウェアとして構成される構成要素は、例えば、図示しないCPU上でプログラムを実行することにより実現される。
図12のフローチャートは、図11に示す画像特徴学習部200Bにおける処理の流れの一例を示している。まず、画像特徴学習部200Bは、ステップST71において、処理を開始し、その後に、ステップST72において、変換パラメータ生成部211により、変換パラメータを、乱数を用いてランダム値として生成する。ここで、生成される変換パラメータは、幾何変換部212で用いる変換パラメータH(回転角や拡大率に相当)、レンズ歪変換部213で用いるδx, δy(レンズ中心)のパラメータ、さらに、PI変換部214で用いるδi(奇数と偶数のどちらのフィールドを用いるか)のパラメータである。
次に、画像特徴学習部200Bは、ステップST73において、幾何変換部212により、変換パラメータHに基づいて、追跡対象の姿勢変化に相当する変換THで、参照画像Sの回転、拡大等を行って、変換後の画像SH=TH(S,H)を得る。また、画像特徴学習部200Bは、ステップST74において、画像SHに対して、カメラのレンズ歪に相当する変換TRを行って、変換後の画像SR=TR(SH,δx, δy)を得る。さらに、画像特徴学習部200Bは、ステップST75において、画像SRに対して、プログレッシブ画像からインターレース画像への変換TIを行って、変換後の画像SI=TI(SR,δi)を得る。
次に、画像特徴学習部200Bは、ステップST76において、確率更新部215により、ステップST75で得られた変換画像SIにおいて、特徴点抽出部200Aで得られた各特徴点に対してテストを行って、記憶部216に記憶されている特徴点の確率(辞書)を更新する。
そして、画像特徴学習部200Bは、ステップST77において、全特徴点を処理したか否かを判断する。全特徴点を処理していないとき、ステップST76に戻って、特徴点の確率を更新することを繰り返す。一方、全特徴点を処理したとき、画像特徴学習部200Bは、ステップST78において、N回目の処理が終了したか否かを判断する。N回目に至っていないとき、画像特徴学習部200Bは、ステップST72の処理に戻り、上述したと同様の処理を繰り返す。一方、N回目の処理が終了したとき、画像特徴学習部200Bは、ステップST79において、処理を終了する。
上述したように、図7に示す学習装置200においては、レンズ歪変換が施された複数の変換画像に基づいて所定数の特徴点が抽出されて辞書の登録が行われる。そのため、カメラのレンズ歪みを考慮した参照画像の特徴点辞書を良好に得ることができる。また、図7に示す学習装置200においては、プログレッシブからインターレースに画像変換された変換画像に基づいて所定数の特徴点が抽出されて辞書の登録が行われる。そのため、インターレースの画像を考慮した特徴点辞書を良好に得ることができる。
<2.変形例>
「変形例1」
なお、上述の図7に示す学習装置200においては、プログレッシブからインターレースに画像変換された変換画像に基づいて所定数の特徴点を抽出して辞書の登録を行うことで、インターレースの画像を考慮した特徴点辞書を得る例を示した。しかし、PI変換を行うか否かの判断処理を入れることで、プログレッシブとインターレースのどちらの形式にも対応した辞書を作成することが可能となる。
図13のフローチャートは、PI変換を行うか否かの判断処理を入れる場合における特徴点抽出部200Aの処理の流れの一例を示している。この図13のフローチャートにおいて、図10と対応するステップには同一符号を付し、適宜、その詳細説明は省略する。
特徴点抽出部200Aは、ステップST51において、処理を開始し、その後に、ステップST52Aにおいて、変換パラメータ生成部201により、変換パラメータを、乱数を用いてランダム値として生成する。ここで、ランダムに生成される変換パラメータは、幾何変換部202で用いる変換パラメータH、レンズ歪変換部203で用いるδx, δyのパラメータ、PI変換部204で用いるδiのパラメータと共に、PI変換を行うか否かを示すパラメータである。特徴点抽出部200Aは、このステップST52Aの処理の後に、ステップST53の処理に移る。
また、特徴点抽出部200Aは、ステップST54の処理の後に、ステップST81の処理に移る。このステップST81において、特徴点抽出部200Aは、ステップST52Aで生成されたPI変換を行うか否かのパラメータに基づいて、PI変換を行うか否かを判断する。PI変換を行うとき、特徴点抽出部200Aは、ステップST55において、ステップST54で得られた変換画像SRに対して、プログレッシブ画像からインターレース画像への変換TIを行って、変換後の画像SI=TI(SR,δi)を得る。
特徴点抽出部200Aは、ステップST55の処理の後、ステップST56の処理に移る。一方、ステップST81でPI変換を行わないとき、特徴点抽出部200Aは、直ちに、ステップST56の処理に移る。詳細説明は省略するが、図13のフローチャートのその他のステップは、図10のフローチャートと同様である。
また、図14のフローチャートは、PI変換を行うか否かの判断処理を入れる場合における画像特徴学習部200Bの処理の流れの一例を示している。この図14のフローチャートにおいて、図12と対応するステップには同一符号を付し、適宜、その詳細説明は省略する。
画像特徴学習部200Bは、ステップST71において、処理を開始した後に、ステップST72Aにおいて、変換パラメータ生成部211により、変換パラメータを、乱数を用いてランダム値として生成する。ここで、ランダムに生成される変換パラメータは、幾何変換部212で用いる変換パラメータH、レンズ歪変換部213で用いるδx, δyのパラメータ、PI変換部214で用いるδiのパラメータと共に、PI変換を行うか否かを示すパラメータである。画像特徴学習部200Bは、このステップST72Aの処理の後に、ステップST73の処理に移る。
また、画像特徴学習部200Bは、ステップST74の処理の後に、ステップST82の処理に移る。このステップST82において、画像特徴学習部200Bは、ステップST72Aで生成されたPI変換を行うか否かのパラメータに基づいて、PI変換を行うか否かを判断する。PI変換を行うとき、画像特徴学習部200Bは、ステップST75において、ステップST74で得られた変換画像SRに対して、プログレッシブ画像からインターレース画像への変換TIを行って、変換後の画像SI=TI(SR,δi)を得る。
画像特徴学習部200Bは、ステップST75の処理の後、ステップST76の処理に移る。一方、ステップST82でPI変換を行わないとき、画像特徴学習部200Bは、直ちに、ステップST76の処理に移る。詳細説明は省略するが、図14のフローチャートのその他のステップは、図12のフローチャートと同様である。
このように、PI変換を行うか否かの判断処理を入れることで、インターレースおよびプログレッシブの双方の画像を考慮した特徴点辞書を得ることができる。図2に示す画像処理装置100においては、この特徴点辞書を用いることにより、入力画像がインターレースおよびプログレッシブのどちらであっても対処でき、入力画像の形式を設定する必要がなくなる。つまり、入力画像がインターレースおよびプログレッシブのどちらであっても、入力画像と参照画像の特徴点の対応点を良好に見つけることができ、入力画像に合成画像を良好に合成できる。
「変形例2」
また、上述の図7に示す学習装置200においては、あるカメラのレンズ歪変換が施された変換画像に基づいて所定数の特徴点を抽出して辞書の登録を行うことで、そのカメラのレンズ歪みを考慮した特徴点辞書を得る例を示した。しかし、複数のカメラのレンズ歪変換が施された変換画像を用いることで、それら複数のカメラのレンズ歪みに対応した辞書を作成することが可能となる。
図15のフローチャートは、複数のカメラのレンズ歪変換が施された変換画像を用いる場合における特徴点抽出部200Aの処理の流れの一例を示している。この図15のフローチャートにおいて、図10と対応するステップには同一符号を付し、適宜、その詳細説明は省略する。
特徴点抽出部200Aは、ステップST51において、処理を開始し、その後に、ステップST52Bにおいて、変換パラメータ生成部201により、変換パラメータを、乱数を用いてランダム値として生成する。ここで、ランダムに生成される変換パラメータは、幾何変換部202で用いる変換パラメータH、レンズ歪変換部203で用いるδx, δyのパラメータ、PI変換部204で用いるδiのパラメータと共に、複数のカメラのレンズ歪データのうちどのレンズ歪みデータを用いるかを示すパラメータである。なお、複数のカメラのレンズ歪データは、予め測定され、記憶部209に登録しておく。特徴点抽出部200Aは、このステップST52Bの処理の後に、ステップST53の処理に移る。
また、特徴点抽出部200Aは、ステップST53の処理の後に、ステップST54Bの処理に移る。特徴点抽出部200Aは、このステップST54Bにおいて、ステップST53の処理で得られた画像SHに対して、レンズ歪変換の処理を行う。この場合、特徴点抽出部200Aは、どのレンズ歪みデータを用いるかのパラメータが示すレンズ歪データに基づいて、カメラのレンズ歪に相当する変換TRを行って、変換後の画像SRを得る。特徴点抽出部200Aは、このステップST54Bの処理の後に、ステップST55の処理に移る。詳細説明は省略するが、図15のフローチャートのその他のステップは、図10のフローチャートと同様である。
また、図16のフローチャートは、複数のカメラのレンズ歪変換が施された変換画像を用いる場合における画像特徴学習部200Bの処理の流れの一例を示している。この図16のフローチャートにおいて、図12と対応するステップには同一符号を付し、適宜、その詳細説明は省略する。
画像特徴学習部200Bは、ステップST71において、処理を開始し、その後に、ステップST72Bにおいて、変換パラメータ生成部211により、変換パラメータを、乱数を用いてランダム値として生成する。ここで、ランダムに生成される変換パラメータは、幾何変換部212で用いる変換パラメータH、レンズ歪変換部213で用いるδx, δyのパラメータ、PI変換部214で用いるδiのパラメータと共に、複数のカメラのレンズ歪データのうちどのレンズ歪みデータを用いるかを示すパラメータである。なお、複数のカメラのレンズ歪データは、予め測定され、記憶部216に登録しておく。画像特徴学習部200Bは、このステップST72Bの処理の後に、ステップST73の処理に移る。
また、画像特徴学習部200Bは、ステップST73の処理の後に、ステップST74Bの処理に移る。画像特徴学習部200Bは、このステップST74Bにおいて、ステップST73の処理で得られた画像SHに対して、レンズ歪変換の処理を行う。この場合、画像特徴学習部200Bは、どのレンズ歪みデータを用いるかのパラメータが示すレンズ歪データに基づいて、カメラのレンズ歪に相当する変換TRを行って、変換後の画像SRを得る。画像特徴学習部200Bは、このステップST74Bの処理の後に、ステップST75の処理に移る。詳細説明は省略するが、図16のフローチャートのその他のステップは、図12のフローチャートと同様である。
このように、複数のカメラのレンズ歪変換が施された変換画像を用いることで、それら複数のカメラのレンズ歪みを考慮した特徴点辞書を得ることができる。図2に示す画像処理装置100においては、この特徴点辞書を用いることにより、複数のレンズ歪みのいずれにも対処できる。つまり、入力画像がそれら複数のレンズ歪みのいずれを持つ場合にあっても、入力画像と参照画像の特徴点の対応点を良好に見つけることができ、入力画像に合成画像を良好に合成できる。
「変形例3」
上述の変形例1のようにPI変換を行うか否かの判断処理を入れることでプログレッシブとインターレースのどちらの形式にも対応した辞書を作成することが可能となる。また、上述の変形例2のように複数のカメラのレンズ歪変換が施された変換画像を用いることで、それら複数のカメラのレンズ歪みに対応した辞書を作成することが可能となる。
図17のフローチャートは、PI変換を行うか否かの判断処理を入れると共に、複数のカメラのレンズ歪変換が施された変換画像を用いる場合における特徴点抽出部200Aの処理の流れの一例を示している。この図17のフローチャートにおいて、図10と対応するステップには同一符号を付し、適宜、その詳細説明は省略する。
特徴点抽出部200Aは、ステップST51において、処理を開始し、その後に、ステップST52Cにおいて、変換パラメータ生成部201により、変換パラメータを、乱数を用いてランダム値として生成する。ここで、ランダムに生成される変換パラメータは、幾何変換部202で用いる変換パラメータH、レンズ歪変換部203で用いるδx, δyのパラメータ、PI変換部204で用いるδiのパラメータである。
さらに、ここで、ランダムに生成される変換パラメータは、PI変換を行うか否かを示すパラメータおよび複数のカメラのレンズ歪データのうちどのレンズ歪みデータを用いるかを示すパラメータである。なお、複数のカメラのレンズ歪データは、予め測定され、記憶部209に登録しておく。特徴点抽出部200Aは、このステップST52Cの処理の後に、ステップST53の処理に移る。
また、特徴点抽出部200Aは、ステップST53の処理の後に、ステップST54Cの処理に移る。特徴点抽出部200Aは、このステップST54Cにおいて、ステップST53の処理で得られた画像SHに対して、レンズ歪変換の処理を行う。この場合、特徴点抽出部200Aは、どのレンズ歪みデータを用いるかのパラメータが示すレンズ歪データに基づいて、カメラのレンズ歪に相当する変換TRを行って、変換後の画像SRを得る。
また、特徴点抽出部200Aは、ステップST54Cの処理の後に、ステップST81の処理に移る。このステップST81において、特徴点抽出部200Aは、ステップST52Cで生成されたPI変換を行うか否かのパラメータに基づいて、PI変換を行うか否かを判断する。PI変換を行うとき、特徴点抽出部200Aは、ステップST55において、ステップST54Cで得られた変換画像SRに対して、プログレッシブ画像からインターレース画像への変換TIを行って、変換後の画像SI=TI(SR,δi)を得る。
特徴点抽出部200Aは、ステップST55の処理の後、ステップST56の処理に移る。一方、ステップST81でPI変換を行わないとき、特徴点抽出部200Aは、直ちに、ステップST56の処理に移る。詳細説明は省略するが、図17のフローチャートのその他のステップは、図10のフローチャートと同様である。
図18のフローチャートは、PI変換を行うか否かの判断処理を入れると共に、複数のカメラのレンズ歪変換が施された変換画像を用いる場合における画像特徴学習部200Bの処理の流れの一例を示している。この図18のフローチャートにおいて、図12と対応するステップには同一符号を付し、適宜、その詳細説明は省略する。
画像特徴学習部200Bは、ステップST71において、処理を開始し、その後に、ステップST72Cにおいて、変換パラメータ生成部211により、変換パラメータを、乱数を用いてランダム値として生成する。ここで、ランダムに生成される変換パラメータは、幾何変換部212で用いる変換パラメータH、レンズ歪変換部213で用いるδx, δyのパラメータ、PI変換部214で用いるδiのパラメータである。
さらに、ここで、ランダムに生成される変換パラメータは、PI変換を行うか否かを示すパラメータおよび複数のカメラのレンズ歪データのうちどのレンズ歪みデータを用いるかを示すパラメータである。なお、複数のカメラのレンズ歪データは、予め測定され、記憶部209に登録しておく。画像特徴学習部200Bは、このステップST72Cの処理の後に、ステップST73の処理に移る。
また、画像特徴学習部200Bは、ステップST73の処理の後に、ステップST74Cの処理に移る。画像特徴学習部200Bは、このステップST74Cにおいて、ステップST73の処理で得られた画像SHに対して、レンズ歪変換の処理を行う。この場合、画像特徴学習部200Bは、どのレンズ歪みデータを用いるかのパラメータが示すレンズ歪データに基づいて、カメラのレンズ歪に相当する変換TRを行って、変換後の画像SRを得る。
また、画像特徴学習部200Bは、ステップST74Cの処理の後に、ステップST82の処理に移る。このステップST82において、画像特徴学習部200Bは、ステップST72Cで生成されたPI変換を行うか否かのパラメータに基づいて、PI変換を行うか否かを判断する。PI変換を行うとき、画像特徴学習部200Bは、ステップST75において、ステップST74Cで得られた変換画像SRに対して、プログレッシブ画像からインターレース画像への変換TIを行って、変換後の画像SI=TI(SR,δi)を得る。
画像特徴学習部200Bは、ステップST75の処理の後、ステップST76の処理に移る。一方、ステップST82でPI変換を行わないとき、画像特徴学習部200Bは、直ちに、ステップST76の処理に移る。詳細説明は省略するが、図18のフローチャートのその他のステップは、図12のフローチャートと同様である。
このように、PI変換を行うか否かの判断処理を入れることで、インターレースおよびプログレッシブの双方の画像を考慮した特徴点辞書を得ることができる。また、複数のカメラのレンズ歪変換が施された変換画像を用いることで、それら複数のカメラのレンズ歪みを考慮した特徴点辞書を得ることができる。
図2に示す画像処理装置100においては、この特徴点辞書を用いることにより、入力画像がインターレースおよびプログレッシブのどちらであっても対処でき、また、複数のレンズ歪みのいずれにも対処できる。つまり、カメラの特性によらず、入力画像と参照画像の特徴点の対応点を良好に見つけることができ、入力画像に合成画像を良好に合成できる。したがって、ユーザはカメラの特性(インターレース/プログレッシブ、レンズ歪み)を特定のものに設定しなくてもよくなり、利便性が向上する。
また、本技術は、以下のような構成をとることもできる。
(1)カメラの撮像画像を入力画像とし、該入力画像の特徴点を抽出する特徴点抽出部と、
参照画像から上記カメラのレンズ歪みを考慮して生成された特徴点辞書を用いて、上記特徴点抽出部で抽出された入力画像の特徴点と上記参照画像の特徴点との対応関係を決定する対応関係決定部と、
上記対応関係決定部で決定された、上記参照画像の特徴点に対応した上記入力画像の特徴点の座標を、上記カメラのレンズ歪データに基づいて補正する特徴点座標歪補正部と、
上記対応関係決定部で決定された対応関係で、上記参照画像の特徴点の座標と上記特徴点座標歪補正部で補正された上記入力画像の特徴点の座標に基づいて、上記入力画像と上記参照画像の射影関係を算出する射影関係算出部と、
上記射影関係算出部で算出された射影関係と上記カメラのレンズ歪データに基づいて、合成画像から貼り合わせ用の合成画像を生成する合成画像座標変換部と、
上記入力画像に上記合成画像座標変換部で生成された貼り合わせ用の合成画像を合成して出力画像を得る出力画像生成部とを備える
画像処理装置。
(2)上記特徴点辞書は、上記カメラのレンズ歪みの他に、さらにインターレース画像を考慮して生成されている
前記(1)に記載の画像処理装置。
(3)カメラの撮像画像を入力画像とし、該入力画像の特徴点を抽出する特徴点抽出ステップと、
参照画像から上記カメラのレンズ歪みを考慮して生成された特徴点辞書を用いて、上記特徴点抽出ステップで抽出された特徴点と上記参照画像の特徴点との対応関係を決定する対応関係決定ステップと、
上記対応関係決定ステップで決定された、上記参照画像の特徴点に対応した上記入力画像の特徴点の座標を、上記カメラのレンズ歪データに基づいて補正する特徴点座標歪補正ステップと、
上記対応関係決定ステップで決定された対応関係で、上記参照画像の特徴点の座標と上記特徴点座標歪補正ステップで補正された上記入力画像の特徴点の座標に基づいて、上記入力画像と上記参照画像の射影関係を算出する射影関係算出ステップと、
上記射影関係算出ステップで算出された射影関係と上記カメラのレンズ歪データに基づいて、合成画像から貼り合わせ用の合成画像を生成する合成画像座標変換ステップと、
上記入力画像に上記合成画像座標変換ステップで生成された貼り合わせ用の合成画像を合成して出力画像を得る出力画像生成ステップとを備える
画像処理方法。
(4)コンピュータを、
カメラの撮像画像を入力画像とし、該入力画像の特徴点を抽出する特徴点抽出手段と、
参照画像から上記カメラのレンズ歪みを考慮して生成された特徴点辞書を用いて、上記特徴点抽出手段で抽出された特徴点と上記参照画像の特徴点との対応関係を決定する対応関係決定手段と、
上記対応関係決定手段で決定された、上記参照画像の特徴点に対応した上記入力画像の特徴点の座標を、上記カメラのレンズ歪データに基づいて補正する特徴点座標歪補正手段と、
上記対応関係決定手段で決定された対応関係で、上記参照画像の特徴点の座標と上記特徴点座標歪補正手段で補正された上記入力画像の特徴点の座標に基づいて、上記入力画像と上記参照画像の射影関係を算出する射影関係算出手段と、
上記射影関係算出手段で算出された射影関係と上記カメラのレンズ歪データに基づいて、合成画像から貼り合わせ用の合成画像を生成する合成画像座標変換手段と、
上記入力画像に上記合成画像座標変換手段で生成された貼り合わせ用の合成画像を合成して出力画像を得る出力画像生成手段と
して機能させるプログラム。
(5)参照画像に少なくとも変換パラメータによる幾何変換およびレンズ歪データによるレンズ歪変換を施す画像変換部と、
上記画像変換部で変換された複数の変換画像に基づいて所定数の特徴点を抽出して辞書に登録する辞書登録部とを備える
学習装置。
(6)上記辞書登録部は、
上記画像変換部で変換された画像の特徴点を求める特徴点計算部と、
上記特徴点計算部で求められた特徴点の座標を上記参照画像上の座標に変換する特徴点座標変換部と、
上記画像変換部で変換された参照画像毎の上記特徴点座標変換部で変換された特徴点座標に基づいて、各特徴点の出現頻度を更新する出現頻度更新部と、
上記出現頻度更新部で出現頻度が更新された各特徴点のうち、出現頻度が上位から任意の数の特徴点を取り出して上記辞書に登録する特徴点登録部を有する
前記(5)に記載の学習装置。
(7)上記画像変換部は、
上記参照画像に、上記幾何変換および上記レンズ歪変換と共に、プログレッシブ画像からインターレース画像に変換するプログレッシブ/インターレース変換を選択的に施して上記複数の変換画像を生成する
前記(5)または(6)に記載の学習装置。
(8)上記画像変換部は、
複数のレンズ歪データからランダムに選択されたレンズ歪データに基づいて上記レンズ歪変換を施して上記複数の変換画像を生成する
前記(5)から(7)のいずれかに記載の学習装置。
(9)参照画像に少なくとも変換パラメータによる幾何変換およびレンズ歪データによるレンズ歪変換を施す画像変換ステップと、
上記画像変換ステップで変換された複数の変換画像に基づいて所定数の特徴点を抽出して辞書に登録する辞書登録ステップとを備える
学習方法。
(10)コンピュータを、
参照画像に少なくとも変換パラメータによる幾何変換およびレンズ歪データによるレンズ歪変換を施す画像変換手段と、
上記画像変換手段で変換された複数の変換画像に基づいて所定数の特徴点を抽出して辞書に登録する辞書登録手段と
して機能させるプログラム。
10・・・画像処理システム
100・・・画像処理装置
101・・・特徴点抽出部
102・・・マッチング部
103・・・特徴点座標補正部
104・・・ホモグラフィ算出部
105・・・合成画像座標変換部
106・・・出力画像生成部
200・・・学習装置
200A・・・特徴点抽出部
200B・・・画像特徴学習部
201・・・変換パラメータ生成部
202・・・幾何変換部
203・・・レンズ歪変換部
204・・・PI変換部
205・・・特徴点計算部
206・・・特徴点座標変換部
207・・・特徴点出現頻度更新部
208・・・特徴点登録部
209・・・記憶部
211・・・変換パラメータ生成部
212・・・幾何変換部
213・・・レンズ歪変換部
214・・・PI変換部
215・・・確率更新部
216・・・記憶部

Claims (10)

  1. カメラの撮像画像を入力画像とし、該入力画像の特徴点を抽出する特徴点抽出部と、
    参照画像から上記カメラのレンズ歪みを考慮して生成された特徴点辞書を用いて、上記特徴点抽出部で抽出された入力画像の特徴点と上記参照画像の特徴点との対応関係を決定する対応関係決定部と、
    上記対応関係決定部で決定された、上記参照画像の特徴点に対応した上記入力画像の特徴点の座標を、上記カメラのレンズ歪データに基づいて補正する特徴点座標歪補正部と、
    上記対応関係決定部で決定された対応関係で、上記参照画像の特徴点の座標と上記特徴点座標歪補正部で補正された上記入力画像の特徴点の座標に基づいて、上記入力画像と上記参照画像の射影関係を算出する射影関係算出部と、
    上記射影関係算出部で算出された射影関係と上記カメラのレンズ歪データに基づいて、合成画像から貼り合わせ用の合成画像を生成する合成画像座標変換部と、
    上記入力画像に上記合成画像座標変換部で生成された貼り合わせ用の合成画像を合成して出力画像を得る出力画像生成部とを備える
    画像処理装置。
  2. 上記特徴点辞書は、上記カメラのレンズ歪みの他に、さらにインターレース画像を考慮して生成されている
    請求項1に記載の画像処理装置。
  3. カメラの撮像画像を入力画像とし、該入力画像の特徴点を抽出する特徴点抽出ステップと、
    参照画像から上記カメラのレンズ歪みを考慮して生成された特徴点辞書を用いて、上記特徴点抽出ステップで抽出された特徴点と上記参照画像の特徴点との対応関係を決定する対応関係決定ステップと、
    上記対応関係決定ステップで決定された、上記参照画像の特徴点に対応した上記入力画像の特徴点の座標を、上記カメラのレンズ歪データに基づいて補正する特徴点座標歪補正ステップと、
    上記対応関係決定ステップで決定された対応関係で、上記参照画像の特徴点の座標と上記特徴点座標歪補正ステップで補正された上記入力画像の特徴点の座標に基づいて、上記入力画像と上記参照画像の射影関係を算出する射影関係算出ステップと、
    上記射影関係算出ステップで算出された射影関係と上記カメラのレンズ歪データに基づいて、合成画像から貼り合わせ用の合成画像を生成する合成画像座標変換ステップと、
    上記入力画像に上記合成画像座標変換ステップで生成された貼り合わせ用の合成画像を合成して出力画像を得る出力画像生成ステップとを備える
    画像処理方法。
  4. コンピュータを、
    カメラの撮像画像を入力画像とし、該入力画像の特徴点を抽出する特徴点抽出手段と、
    参照画像から上記カメラのレンズ歪みを考慮して生成された特徴点辞書を用いて、上記特徴点抽出手段で抽出された特徴点と上記参照画像の特徴点との対応関係を決定する対応関係決定手段と、
    上記対応関係決定手段で決定された、上記参照画像の特徴点に対応した上記入力画像の特徴点の座標を、上記カメラのレンズ歪みデータに基づいて補正する特徴点座標歪補正手段と、
    上記対応関係決定手段で決定された対応関係で、上記参照画像の特徴点の座標と上記特徴点座標歪補正手段で補正された上記入力画像の特徴点の座標に基づいて、上記入力画像と上記参照画像の射影関係を算出する射影関係算出手段と、
    上記射影関係算出手段で算出された射影関係と上記カメラのレンズ歪データに基づいて、合成画像から貼り合わせ用の合成画像を生成する合成画像座標変換手段と、
    上記入力画像に上記合成画像座標変換手段で生成された貼り合わせ用の合成画像を合成して出力画像を得る出力画像生成手段と
    して機能させるプログラム。
  5. 参照画像に少なくとも変換パラメータによる幾何変換およびレンズ歪データによるレンズ歪変換を施す画像変換部と、
    上記画像変換部で変換された複数の変換画像に基づいて所定数の特徴点を抽出して辞書に登録する辞書登録部とを備える
    学習装置。
  6. 上記辞書登録部は、
    上記画像変換部で変換された画像の特徴点を求める特徴点計算部と、
    上記特徴点計算部で求められた特徴点の座標を上記参照画像上の座標に変換する特徴点座標変換部と、
    上記画像変換部で変換された参照画像毎の上記特徴点座標変換部で変換された特徴点座標に基づいて、各特徴点の出現頻度を更新する出現頻度更新部と、
    上記出現頻度更新部で出現頻度が更新された各特徴点のうち、出現頻度が上位から任意の数の特徴点を取り出して上記辞書に登録する特徴点登録部を有する
    請求項5に記載の学習装置。
  7. 上記画像変換部は、
    上記参照画像に、上記幾何変換および上記レンズ歪変換と共に、プログレッシブ画像からインターレース画像に変換するプログレッシブ/インターレース変換を選択的に施して上記複数の変換画像を生成する
    請求項5に記載の学習装置。
  8. 上記画像変換部は、
    複数のレンズ歪データからランダムに選択されたレンズ歪データに基づいて上記レンズ歪変換を施して上記複数の変換画像を生成する
    請求項5に記載の学習装置。
  9. 参照画像に少なくとも変換パラメータによる幾何変換およびレンズ歪データによるレンズ歪変換を施す画像変換ステップと、
    上記画像変換ステップで変換された複数の変換画像に基づいて所定数の特徴点を抽出して辞書に登録する辞書登録ステップとを備える
    学習方法。
  10. コンピュータを、
    参照画像に少なくとも変換パラメータによる幾何変換およびレンズ歪データによるレンズ歪変換を施す画像変換手段と、
    上記画像変換手段で変換された複数の変換画像に基づいて所定数の特徴点を抽出して辞書に登録する辞書登録手段と
    して機能させるプログラム。
JP2012014872A 2012-01-27 2012-01-27 画像処理装置、画像処理方法、学習装置、学習方法およびプログラム Pending JP2013156722A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012014872A JP2013156722A (ja) 2012-01-27 2012-01-27 画像処理装置、画像処理方法、学習装置、学習方法およびプログラム
US13/744,805 US20130195351A1 (en) 2012-01-27 2013-01-18 Image processor, image processing method, learning device, learning method and program
CN2013100226751A CN103226811A (zh) 2012-01-27 2013-01-22 图像处理器、图像处理方法、学习设备、学习方法和程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012014872A JP2013156722A (ja) 2012-01-27 2012-01-27 画像処理装置、画像処理方法、学習装置、学習方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2013156722A true JP2013156722A (ja) 2013-08-15

Family

ID=48837246

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012014872A Pending JP2013156722A (ja) 2012-01-27 2012-01-27 画像処理装置、画像処理方法、学習装置、学習方法およびプログラム

Country Status (3)

Country Link
US (1) US20130195351A1 (ja)
JP (1) JP2013156722A (ja)
CN (1) CN103226811A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019139234A1 (ko) * 2018-01-15 2019-07-18 주식회사 스트리스 어안 렌즈 및 전방위 영상의 왜곡 제거를 위한 장치 및 방법
US10937134B2 (en) 2016-12-28 2021-03-02 Ricoh Company, Ltd. Image processing apparatus, image capturing system, image processing method, and recording medium
JP2023529786A (ja) * 2021-05-07 2023-07-12 テンセント・アメリカ・エルエルシー パノラマ画像におけるグラウンド上のマーカを認識することによってカメラ間のポーズグラフおよび変換マトリクスを推定する方法

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102144394B1 (ko) * 2013-08-20 2020-08-13 한화테크윈 주식회사 영상 정합 장치 및 이를 이용한 영상 정합 방법
CN104732225B (zh) * 2013-12-24 2018-12-18 中国科学院深圳先进技术研究院 图像旋转处理方法
JP6316330B2 (ja) * 2015-04-03 2018-04-25 コグネックス・コーポレーション ホモグラフィの修正
JP6744747B2 (ja) * 2016-04-01 2020-08-19 キヤノン株式会社 情報処理装置およびその制御方法
US10481740B2 (en) * 2016-08-01 2019-11-19 Ams Sensors Singapore Pte. Ltd. Projecting a structured light pattern onto a surface and detecting and responding to interactions with the same
EP3504663A4 (en) 2016-08-26 2020-04-22 Nokia Technologies Oy METHOD, APPARATUS AND COMPUTER PROGRAM PRODUCT FOR REMOVING METEOROLOGICAL ELEMENTS FROM IMAGES
US11039121B2 (en) * 2017-06-20 2021-06-15 Sony Interactive Entertainment Inc. Calibration apparatus, chart for calibration, chart pattern generation apparatus, and calibration method
CN107729824B (zh) * 2017-09-28 2021-07-13 湖北工业大学 一种用于中餐宴会台面摆台智能评分的单目视觉定位方法
US11127129B2 (en) 2017-12-14 2021-09-21 The Joan and Irwin Jacobs Technion-Cornell Institute Techniques for identifying hazardous site conditions in geo-localized enhanced floor plans
US11010966B2 (en) * 2017-12-14 2021-05-18 The Joan and Irwin Jacobs Technion-Cornell Institute System and method for creating geo-localized enhanced floor plans
US10783649B2 (en) * 2018-09-17 2020-09-22 Adobe Inc. Aligning digital images by selectively applying pixel-adjusted-gyroscope alignment and feature-based alignment models
US11190803B2 (en) * 2019-01-18 2021-11-30 Sony Group Corporation Point cloud coding using homography transform
CN111210410A (zh) * 2019-12-31 2020-05-29 深圳市优必选科技股份有限公司 一种信号灯状态检测方法与装置
CN111260565B (zh) * 2020-01-02 2023-08-11 北京交通大学 基于畸变分布图的畸变图像矫正方法及系统
CN113409373B (zh) * 2021-06-25 2023-04-07 浙江商汤科技开发有限公司 图像处理方法及相关终端、设备和存储介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7313289B2 (en) * 2000-08-30 2007-12-25 Ricoh Company, Ltd. Image processing method and apparatus and computer-readable storage medium using improved distortion correction
JP5018404B2 (ja) * 2007-11-01 2012-09-05 ソニー株式会社 画像識別装置および画像識別方法、並びに、プログラム
US20090232415A1 (en) * 2008-03-13 2009-09-17 Microsoft Corporation Platform for the production of seamless orthographic imagery
US8340453B1 (en) * 2008-08-29 2012-12-25 Adobe Systems Incorporated Metadata-driven method and apparatus for constraining solution space in image processing techniques

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10937134B2 (en) 2016-12-28 2021-03-02 Ricoh Company, Ltd. Image processing apparatus, image capturing system, image processing method, and recording medium
WO2019139234A1 (ko) * 2018-01-15 2019-07-18 주식회사 스트리스 어안 렌즈 및 전방위 영상의 왜곡 제거를 위한 장치 및 방법
KR20190086964A (ko) * 2018-01-15 2019-07-24 주식회사 스트리스 어안 렌즈 및 전방위 영상의 왜곡 제거를 위한 장치 및 방법
KR102028469B1 (ko) 2018-01-15 2019-10-04 주식회사 스트리스 어안 렌즈 및 전방위 영상의 왜곡 제거를 위한 장치 및 방법
JP2023529786A (ja) * 2021-05-07 2023-07-12 テンセント・アメリカ・エルエルシー パノラマ画像におけるグラウンド上のマーカを認識することによってカメラ間のポーズグラフおよび変換マトリクスを推定する方法

Also Published As

Publication number Publication date
CN103226811A (zh) 2013-07-31
US20130195351A1 (en) 2013-08-01

Similar Documents

Publication Publication Date Title
JP2013156722A (ja) 画像処理装置、画像処理方法、学習装置、学習方法およびプログラム
US8126206B2 (en) Image processing apparatus, image processing method, and program
Rogez et al. Mocap-guided data augmentation for 3d pose estimation in the wild
JP6507730B2 (ja) 座標変換パラメータ決定装置、座標変換パラメータ決定方法及び座標変換パラメータ決定用コンピュータプログラム
JP5940453B2 (ja) 画像のシーケンス内のオブジェクトのリアルタイム表現のハイブリッド型追跡のための方法、コンピュータプログラム、および装置
US8379986B2 (en) Device, method, and computer-readable storage medium for recognizing an object in an image
US20140204084A1 (en) Systems and Methods for Animating the Faces of 3D Characters Using Images of Human Faces
US8644551B2 (en) Systems and methods for tracking natural planar shapes for augmented reality applications
CN110866953A (zh) 地图构建方法及装置、定位方法及装置
US20060193535A1 (en) Image matching method and image interpolation method using the same
JP2007257287A (ja) 画像レジストレーション方法
CN112435338B (zh) 电子地图的兴趣点的位置获取方法、装置及电子设备
CN104885098A (zh) 基于移动装置的文本检测及跟踪
JP6420605B2 (ja) 画像処理装置
JP5503510B2 (ja) 姿勢推定装置および姿勢推定プログラム
JP3940690B2 (ja) 画像処理装置及びその方法
JP6931267B2 (ja) 原画像を目標画像に基づいて変形した表示画像を生成するプログラム、装置及び方法
CN109598675B (zh) 多重复纹理图像的拼接方法
JP7118729B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2011070283A (ja) 顔画像高解像度化装置、及びプログラム
Wang et al. Markerless body motion capturing for 3d character animation based on multi-view cameras
JP4380376B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
Gao et al. Multi-frame super-resolution reconstruction based on global motion estimation using a novel CNN descriptor
Bastos et al. Automatic camera pose initialization, using scale, rotation and luminance invariant natural feature tracking
Lu et al. Pose guided image generation from misaligned sources via residual flow based correction