JP2017208591A - 画像処理装置、画像処理方法およびプログラム - Google Patents

画像処理装置、画像処理方法およびプログラム Download PDF

Info

Publication number
JP2017208591A
JP2017208591A JP2016097610A JP2016097610A JP2017208591A JP 2017208591 A JP2017208591 A JP 2017208591A JP 2016097610 A JP2016097610 A JP 2016097610A JP 2016097610 A JP2016097610 A JP 2016097610A JP 2017208591 A JP2017208591 A JP 2017208591A
Authority
JP
Japan
Prior art keywords
composition
image
virtual
calculating
interest
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016097610A
Other languages
English (en)
Other versions
JP6675584B2 (ja
Inventor
崇之 原
Takayuki Hara
崇之 原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2016097610A priority Critical patent/JP6675584B2/ja
Publication of JP2017208591A publication Critical patent/JP2017208591A/ja
Application granted granted Critical
Publication of JP6675584B2 publication Critical patent/JP6675584B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】本発明は、入力された画像から構図を3次元的に探索することができる画像処理装置を提供することを目的とする。【解決手段】本発明によれば、入力画像から構図を探索する画像処理装置であって、入力画像から注目領域を抽出する注目領域抽出部と、仮想的なカメラで前記入力画像の前記注目領域を含む領域を撮影してなる仮想的な撮影画像の構図を注目構図として設定する構図設定部であって、該仮想的なカメラの所定のカメラパラメータを所定の探索範囲内で変更して複数の前記注目構図を設定する、構図設定部と、前記仮想的な撮影画像と目標とする構図を持つテンプレート画像の類似度に基づいて、該仮想的な撮影画像に対応する前記注目構図の評価値を算出する構図評価部と、前記評価値が最大となる前記注目構図を探索する構図探索部と、を含む、画像処理装置が提供される。【選択図】図1

Description

本発明は、画像処理装置、画像処理方法およびプログラムに関する。
従来、入力される画像から抽出した注目領域や特徴量に基づいて、入力された画像から視覚的に優れた構図を探索する技術が種々提案されている。
この点につき、特許文献1は、画像から顕著性を抽出し、予め決められた構図の法則を提供して画像のクロッピングを行う技術を開示する。特許文献2は、注目領域を抽出し、絵画や写真から得た基準構図との相関を参照して画像をクロッピングする技術を開示する。特許文献3は、注目領域と不要領域を抽出し、注目領域を含み、不要領域を除いた構図を生成する技術を開示する。特許文献4は、主被写体の位置、興味領域の位置、注目領域の一致性、オブジェクトの保存性に基づいてトリミング範囲を評価する方法を開示する。特許文献5は、注目領域と背景領域のエッジに対して適応的に重みを設定し、構図のグリッドとの相関演算で構図の良否の評価を行う技術を開示する。
しかしながら、従来の技術は、専ら、入力された画像から視覚的に優れた構図を2次元的に探索するものでしかなかった。
本発明は、上記に鑑みてなされたものであり、入力された画像から構図を3次元的に探索することができる画像処理装置を提供することを目的とする。
本発明者は、入力された画像から構図を3次元的に探索することができる画像処理装置につき鋭意検討した結果、以下の構成に想到し、本発明に至ったのである。
すなわち、本発明によれば、入力画像から構図を探索する画像処理装置であって、入力画像から注目領域を抽出する注目領域抽出部と、仮想的なカメラで前記入力画像の前記注目領域を含む領域を撮影してなる仮想的な撮影画像の構図を注目構図として設定する構図設定部であって、該仮想的なカメラの所定のカメラパラメータを所定の探索範囲内で変更して複数の前記注目構図を設定する、構図設定部と、前記仮想的な撮影画像と目標とする構図を持つテンプレート画像の類似度に基づいて、該仮想的な撮影画像に対応する前記注目構図の評価値を算出する構図評価部と、前記評価値が最大となる前記注目構図を探索する構図探索部と、
を含む、画像処理装置が提供される。
上述したように、本発明によれば、入力された画像から構図を3次元的に探索することができる画像処理装置が提供される。
本実施形態の画像処理装置の機能ブロック図。 本実施形態の画像処理装置が実行する処理を示すフローチャート。 構図設定部が実行する処理を説明するための概念図。 構図テンプレートを示す図。 エッジ算出部が実行する処理を説明するための概念図。 Equirectangular形式(正距円筒図法)の画像を説明するための概念図。 構図設定部が実行する処理を説明するための概念図。 構図設定部が実行する処理を説明するための概念図。 リトルプラネットの構図テンプレートを示す図。 主要直線算出部が実行する処理を説明するための概念図。 構図評価部が実行する処理を説明するための概念図。 本実施形態の画像処理装置のハードウェア構成図。
以下、本発明を、実施形態をもって説明するが、本発明は後述する実施形態に限定されるものではない。なお、以下に参照する各図においては、共通する要素について同じ符号を用い、適宜、その説明を省略するものとする。
本発明の実施形態である画像処理装置100は、入力画像から視覚的に優れた構図を探索する機能を有する装置である。以下、図1に示す機能ブロック図に基づいて、本実施形態の画像処理装置100の機能構成を説明する。
図1に示すように、画像処理装置100は、画像入力部101と、注目領域抽出部102と、構図設定部103と、エッジ算出部104と、主要直線算出部105と、構図評価部106と、構図探索部107と、画像出力部108とを含んで構成される。
画像入力部101は、処理対象となる画像を入力する手段である。
注目領域抽出部102は、処理対象となる画像から注目領域を抽出する手段である。
構図設定部103は、仮想的なカメラで処理対象となる画像を撮影してなる仮想的な撮影画像の構図を注目構図として設定する手段である。
エッジ算出部104は、仮想的な撮影画像のエッジ情報を算出する手段である。
主要直線算出部105は、仮想的な撮影画像から算出されたエッジ情報に基づいて主要直線を算出する手段である。
構図評価部106は、仮想的な撮影画像と目標とする構図を持つテンプレート画像の類似度に基づいて、仮想的な撮影画像に対応する注目構図の評価値を算出する手段である。
構図探索部107は、評価値が最大となる注目構図を探索する手段である。
画像出力部108は、評価値が最大となった注目構図で処理対象となる画像を切り出して出力する手段である。
なお、本実施形態では、画像処理装置100を構成するコンピュータが所定のプログラムを実行することにより、画像処理装置100が上述した各手段として機能する。
以上、本実施形態の画像処理装置100の機能構成について説明してきたが、続いて、画像処理装置100が実行する処理の内容を図2に示すフローチャートに基づいて説明する。
まず、ステップ101では、画像入力部101が、任意の記憶手段から処理対象となる画像を読み込んで入力する。以下、入力した画像を“入力画像”という。
続くステップ102では、注目領域抽出部102が、入力画像から注目領域を抽出する。ここで、注目領域の抽出は、顔や人物などの物体を画像中から検出する物体検出または顕著性マップに基づいて行うことができる。顕著性マップに基づく注目領域の抽出は、例えば、L. Itti, et al., "A model of saliency-based visual attention for rapid scene analysis," IEEE Transactions on Pattern Analysis & Machine Intelligence 11 pp. 1254-1259, 1998.(非特許文献1)や、R. Zhao, et al., "Saliency detection by multi-context deep learning," Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2015.(非特許文献2)が開示する方法によって行うことができる。なお、本実施形態において、“注目領域”とは、面積を有する領域のみならず、面積を有しない点(注目点)を含む概念である。
続くステップ103では、構図設定部103が、仮想的なカメラ(以下、仮想カメラという)で先のステップ102で抽出した注目領域を含む矩形の領域を撮影してなる仮想的な撮影画像(以下、仮想撮影画像という)の構図を“注目構図”として設定する。以下、注目構図を設定する手順を図3に基づいて説明する。
本実施形態では、まず、入力画像を撮影した実カメラの投影中心Oと共通の投影中心を有する仮想カメラを定義する。その上で、図3(a)に示すように、注目領域の重心を算出し、投影中心Oと仮想カメラの撮影面(以下、仮想カメラ撮影面という)の中心を通る光軸aが注目領域の重心を通るような仮想カメラの3次元回転パラメータを求める。続いて、求めた3次元回転パラメータを使用して入力画像を透視投影変換することにより仮想撮影画像を生成する。本実施形態では、このとき得られた仮想撮影画像の構図を“基準構図”とする。
ここで、仮想カメラの3次元回転パラメータを求めるためには、入力画像を撮影した実カメラの内部パラメータ(焦点距離、光軸中心、レンズ歪み係数、画角など)が既知(校正済み)であることが前提となる。実カメラの内部パラメータが既知(校正済み)であれば、実カメラの投影中心Oから見た入力画像上の注目領域の重心の3次元方向を知ることができ、これにより、その光軸aが注目領域の重心を通るために必要な仮想カメラの3次元回転パラメータが求まる。
なお、本実施形態においては、実カメラの内部パラメータを、入力画像のexifタグから取得しても良いし、Z. Zhang, “A flexible new technique for camera calibration,” IEEE Transactions on Pattern Analysis and Machine Intelligence, 22, 11, pp. 1330-1334, 2000.(非特許文献3)に開示されるような既知のカメラ校正法を用いて取得しても良い。また、実カメラの正確な内部パラメータを取得できない場合は、便宜的に、標準的な焦点距離(たとえば35mm版換算で50mm)を用いて、仮想カメラの3次元回転パラメータを求めるようにしてもよい。
なお、本実施形態においては、仮想カメラの3次元回転パラメータを探索する範囲(以下、探索範囲という)を予め設定しておく。具体的には、図3(b)に示すように、投影中心Oと注目領域の重心を通る直線Lと仮想カメラの光軸aのなす角度θがdθ以内となる範囲を探索範囲として設定した上で、当該探索範囲内で角度θを離散化することにより、N個(Nは2以上の整数。以下同様。)の角度条件を予め定義しておく。
その上で、ステップ103では、N個の角度条件の中から順番に1つずつ角度条件を選択し、選択した角度条件を満たす仮想カメラの仮想撮影画像の構図を“注目構図”として設定する。なお、ステップ103では、仮想カメラの3次元回転パラメータ以外のパラメータ(焦点距離、画角等)を固定としておく。
続くステップ104では、先のステップ103で設定した注目構図に対応する仮想撮影画像の特徴量を算出する。本実施形態では、画像のエッジ情報を特徴量として算出することができる。その場合、エッジ算出部104は、先のステップ103で設定した注目構図に対応する仮想撮影画像の中で、画像のエッジ(画素値の変化点)を検出し、そのエッジ情報(エッジの強度と方向)を仮想撮影画像の特徴量として算出する。なお、エッジ検出は、ソーベルフィルタや微分演算の空間フィルタ(ガボールフィルタなど)を用いた既知の方法で行うことができる。
続くステップ105では、構図評価部106が、先のステップ104でエッジ情報を算出した注目構図について、その視覚的な優位性を評価する評価値を算出し、算出した評価値とその注目構図を対応付けて一時記憶手段に保存する。本実施形態においては、目標とする構図を持つテンプレート画像を予め用意しておき、当該テンプレート画像と仮想撮影画像の類似度に基づく評価値を所定の評価関数を用いて算出する。以下、本実施形態に適用可能な評価関数について説明する。
本実施形態では、下記式(1)に示す評価関数Jを用いることができる。
上記式(1)に示す評価関数Jは、注目領域が注目構図の中心に存在し、また、画像のエッジが水平となっている構図が高く評価されるように設計されている。
また、本実施形態では、下記式(2)に示す評価関数Jを用いることができる。
上記式(2)において、e(i,j)は、評価の対象となる注目構図の位置(i,j)におけるエッジベクトルを示し、o(i,j)は、テンプレート画像の位置(i,j)におけるエッジベクトルを示す。ここで、エッジベクトルとは、水平・垂直方向の画素値の勾配を要素に持つ縦ベクトルであり、グレースケール画像の場合は2次元のベクトルとなり、RGB画像の場合は6次元のベクトルとなる。
さらに、本実施形態では、下記式(3)に示すように、テンプレート画像のエッジベクトルo(i,j)と、注目構図のエッジベクトルe(i,j)の内積の和を評価関数Jとして用いることができる。
なお、上述した評価関数J、J、Jは、いずれも構図の評価が高くなるほどその評価値の値が大きくなるように設計されている。
図4は、本実施形態に適用可能な6種類のテンプレート画像の構図(日の丸構図、三分割構図、水平構図、垂直構図、放射構図、斜線構図)を例示的に示す。本実施形態においては、1種類のテンプレートを用いて評価値を算出しても良いし、任意のM種類(Mは2以上の整数。以下同様)のテンプレートを用いてM個の評価値を算出しても良い。ただし、1つの仮想撮影画像(注目構図)に対して、M個の評価値を算出する場合、M個の評価値の中の最小値を当該注目構図の評価値とする。
なお、グレースケールの場合、水平構図、垂直構図および放射構図のテンプレート画像のエッジベクトルo(i,j)の具体的表現は、それぞれ、下記式(4)〜(6)のようになる。
ここで、上記式(6)において、cx、cyはそれぞれ構図の中心位置のx座標とy座標を示し、N(x)はスカラー倍によって引数ベクトルxのL2ノルムを1にする正規化作用素である。
以上、本実施形態に適用可能な評価関数について説明してきたが、上述した評価関数は例示であって、その他の距離尺度を用いた評価関数を採用しても良い。
続くステップ106では、構図探索部107が、予め設定した探索範囲内の全構図を探索したか否かを判断する。この時点では、探索すべき構図が残っているので(ステップ106、No)、処理は再びステップ103に戻る。
続くステップ103では、構図設定部103が、残った角度条件の中から選択された次の角度条件を満たす仮想カメラの仮撮影画像を新たな注目構図として設定し、続くステップ104で、エッジ算出部104が、設定した注目構図からエッジ情報を算出し、続くステップ105では、構図評価部106が、算出した仮撮影画像のエッジ情報とテンプレート画像のエッジ情報に基づいて、当該仮撮影画像に対応する注目構図の評価値を算出する。以降、探索範囲内の全ての構図を探索するまで(ステップ106、No)、ステップ103〜106を繰り返し実行する。
ここで、ステップ103〜106を繰り返し実行するにあたって、エッジ算出部104は、2巡目以降のステップ104において、1巡目のステップ104で算出したエッジ情報を3次元変換することによって、該当する注目構図に係るエッジ情報を算出することが好ましい。
具体的には、一つの撮像面で検出されたエッジは、3次元空間中では、図5に示すように、投影中心Oからの位置ベクトルとエッジの方向ベクトルの組で表現することができるので、2巡目以降のステップ104では、1巡目のステップ104で検出したエッジ(位置ベクトルと方向ベクトルの組)を、仮想カメラの3次元回転パラメータを用いて透視投影変換することにより、仮撮影画像のエッジ情報を直接的に算出することができる。この方法によれば、2巡目以降のステップ104において、仮撮影画像の生成とフィルタ処理が不要になるので、その分、計算コストが低減される。なお、この場合は、誤差を低減する観点から、1巡目のステップ104で、基準構図の仮撮影画像からエッジ情報を算出することが好ましい。
ステップ103〜106を繰り返し実行し、探索範囲内の全構図を探索を終えると(ステップ106、Yes)、処理はステップ107に進む。この時点でN個の注目構図とその評価値が一時記憶手段に保存されているので、ステップ107では、構図探索部107が、そのN個の評価値の中から最大の評価値を有する注目構図を決定する。
最後に、ステップ108では、画像出力部108が、先のステップ107で決定した注目構図で入力画像を切り出して出力する。具体的には、画像出力部108は、先のステップ107で決定した注目構図に対応する仮撮影画像(透視投影変換画像)を出力して、処理を終了する。
なお、これまで、仮想的カメラの3次元回転パラメータを所定の探索範囲内で変更することにより複数の注目構図を設定する態様を説明してきたが、本実施形態では、焦点距離、光軸中心、レンズ歪み係数、画角、並進といった、その他のカメラパラメータを所定の探索範囲内で変更することによって複数の注目構図を設定しても良い。
以上、説明したように、本実施形態によれば、注目領域を含む基準構図の近傍で仮想カメラのカメラパラメータを変動させることにより、入力画像が撮影された3次元空間における3次元的な回転・並進を考慮して構図を3次元的に探索することができる。これにより、例えば、一度撮影した画像の構図を変更して美観を向上させることなどが可能になる。また、本実施形態によれば、探索範囲を基準構図を中心とした所定の範囲に限定することによって、低い計算コストで構図を探索することが可能となる。
なお、本実施形態によれば、同様の手順で、パノラマ画像に代表されるような広角画像から視覚的に優れた構図を持つ部分画像を切り出すことが可能となる。以下、この点について説明する。
Equirectangular形式(正距円筒図法)は、主にパノラマ撮影に使われる画像の表現形式であり、図6に示すように、画素の3次元方向を緯度と経度に分解し、正方格子状に対応する画素値を並べた画像形式である。Equirectangular形式の画像からは、経度緯度の座標値から任意の3次元方向の画素値を得ることができ、概念的には、単位球に画素値がプロットされたものとして捉えることができる。
入力画像がEquirectangular形式の画像である場合、構図設定部103は、図7に示すように、仮想カメラの光軸が注目領域の重心を通る構図を基準構図として設定し、基準構図の近傍に探索範囲を設定し、その探索範囲内で仮想カメラのカメラパラメータを離散化してN個の候補構図を作成する。なお、探索するパラメータには、焦点距離、光軸中心、レンズひずみ係数、3次元回転の他に、投影中心Oを含めることができる。この場合、図8(a)、(b)に示すように、探索範囲内で投影中心Oを変更することよって異なる候補構図を作成することができる。
構図設定部103は、N個の候補構図の中から1つずつ順番に注目構図を選択し、エッジ算出部104は、選択された注目構図の画像のエッジ情報(エッジの強度と方向)を算出し、構図評価部106は、算出したエッジ情報とテンプレート画像のエッジ情報を上述した評価関数に投入して、当該注目構図の評価値を算出する。入力画像がEquirectangular形式の画像の場合、図4に例示したテンプレート画像に加えて、図9に示すパノラマ画像に特有なリトルプラネットと呼ばれる構図を持つテンプレート画像を用いてもよい。なお、リトルプラネットの構図を持つテンプレート画像のエッジベクトルo(i,j)の具体的表現は、それぞれ、下記式(7)のようになる。
以上、説明したように、本実施形態によれば、Equirectangular形式などで表現される広角画像から視覚的に優れた構図の部分画像を低い計算コストでクロッピングすることが可能となる。
これまで、仮想撮影画像のエッジ情報を特徴量として構図を評価する態様について説明してきたが、本実施形態では、仮想撮影画像の主要直線を特徴量として構図を評価することもできる。その場合、先のステップ104(図2参照)では、主要直線算出部105が、先のステップ103(図2参照)で設定した注目構図に対応する仮想撮影画像からエッジ情報を算出し、算出したエッジ情報に基づいてハフ変換により主要直線を算出する。このとき、主要直線算出部105は、図10に示すように、3次元空間において、検出した主要直線と投影中心Oを含む平面sを規定し、検出した主要直線を平面sの法線ベクトルとして表現する。
続くステップ105(図2参照)では、構図評価部106が、仮想撮影画像から算出した主要直線(法線ベクトル)と、テンプレート画像の主要直線に基づいて当該仮想撮影画像に対応する注目構図の評価値を算出する。ここで、本実施形態においては、直線に関する構図を持つテンプレート画像は、直線群の単位法線ベクトル群で表現されており、図11に示すように、3次元空間中の単位球面で特定の分布を取る。本実施形態では、テンプレート画像の構図(ここでは、垂直構図を例示している)に係る直線群の分布と、注目構図を持つ仮想撮影画像から算出された主要直線の単位球面上での分布の類似度に基づく評価値を適切な評価関数を用いて算出する。本実施形態では、たとえば、単位球面上で分布間の積和を取る評価関数を用いても良いし、その際、特定の直線に対して重み付けを行っても良い。
このように、仮想撮影画像の主要直線を特徴量として用いて評価値を算出することにより、ノイズに対するロバスト性を向上させることができる。なお、仮想撮影画像の主要直線を算出する場合も、仮想撮影画像のエッジ情報を算出する場合と同様に、2巡目以降のステップ104(図2参照)では、1巡目のステップ104で算出した主要直線をカメラパラメータを用いて3次元変換して、該当する注目構図に係る主要直線を直接的に算出することにより、計算コストを低減することができる。なお、この場合も、誤差を低減する観点から、1巡目のステップ104で、基準構図の仮撮影画像から主要直線を算出することが好ましい。
最後に、図12に基づいて本実施形態の画像処理装置100を構成するコンピュータのハードウェア構成について説明する。
図12に示すように、本実施形態の画像処理装置100を構成するコンピュータは、装置全体の動作を制御するプロセッサ10と、ブートプログラムやファームウェアプログラムなどを保存するROM12と、プログラムの実行空間を提供するRAM14と、画像処理装置100を上述した各手段として機能させるためのプログラムやオペレーティングシステム(OS)等を保存するための補助記憶装置15と、外部入出力装置を接続するための入出力インタフェース16と、ネットワークに接続するためのネットワーク・インターフェース18とを備えている。
なお、上述した実施形態の各機能は、C、C++、C#、Java(登録商標)などで記述されたプログラムにより実現でき、本実施形態のプログラムは、ハードディスク装置、CD−ROM、MO、DVD、フレキシブルディスク、EEPROM、EPROMなどの記録媒体に格納して頒布することができ、また他の装置が可能な形式でネットワークを介して伝送することができる。
以上、本発明について実施形態をもって説明してきたが、本発明は上述した実施形態に限定されるものではなく、当業者が推考しうる実施態様の範囲内において、本発明の作用・効果を奏する限り、本発明の範囲に含まれるものである。
10…プロセッサ
12…ROM
14…RAM
15…補助記憶装置
16…入出力インタフェース
18…ネットワーク・インターフェース
100…画像処理装置
101…画像入力部
102…注目領域抽出部
103…構図設定部
104…エッジ算出部
104…構図評価部
105…主要直線算出部
106…構図評価部
107…構図探索部
108…画像出力部
特表2004−520735号公報 特許3482923号公報 特開2007−157063号公報 特開2009−212929号公報 特許5731033号公報

Claims (15)

  1. 入力画像から構図を探索する画像処理装置であって、
    入力画像から注目領域を抽出する注目領域抽出部と、
    仮想的なカメラで前記入力画像の前記注目領域を含む領域を撮影してなる仮想的な撮影画像の構図を注目構図として設定する構図設定部であって、該仮想的なカメラの所定のカメラパラメータを所定の探索範囲内で変更して複数の前記注目構図を設定する、構図設定部と、
    前記仮想的な撮影画像と目標とする構図を持つテンプレート画像の類似度に基づいて、該仮想的な撮影画像に対応する前記注目構図の評価値を算出する構図評価部と、
    前記評価値が最大となる前記注目構図を探索する構図探索部と、
    を含む、
    画像処理装置。
  2. 前記画像処理装置は、
    前記仮想的な撮影画像のエッジ情報を算出するエッジ情報算出部を含み、
    前記構図評価部は、
    前記仮想的な撮影画像のエッジ情報と前記テンプレート画像のエッジ情報の類似度に基づいて前記評価値を算出する、
    請求項1に記載の画像処理装置。
  3. 前記構図設定部は、
    その光軸が前記注目領域の重心を通る前記仮想的なカメラが撮影した前記仮想的な撮影画像の構図を基準構図として設定し、
    前記エッジ情報算出部は、
    前記基準構図を持つ前記仮想的な撮影画像から算出したエッジ情報を前記カメラパラメータを用いて3次元変換することにより複数の前記注目画像のエッジ情報を算出する、
    請求項2に記載の画像処理装置。
  4. 前記画像処理装置は、
    前記仮想的な撮影画像から算出されたエッジ情報に基づいて主要直線を算出する主要直線算出部を含み、
    前記構図評価部は、
    前記仮想的な撮影画像から算出された主要直線と前記テンプレート画像の主要直線の類似度に基づいて前記評価値を算出する、
    請求項1に記載の画像処理装置。
  5. 前記構図設定部は、
    その光軸が前記注目領域の重心を通る前記仮想的なカメラが撮影した前記仮想的な撮影画像の構図を基準構図として設定し、
    前記主要直線算出部は、
    前記基準構図を持つ前記仮想的な撮影画像から算出した主要直線を前記カメラパラメータを用いて3次元変換することにより前記注目画像の主要直線を算出する、
    請求項4に記載の画像処理装置。
  6. 前記カメラパラメータは、
    焦点距離、光軸中心、3次元回転、並進およびレンズ歪み係数からなる群から選択される少なくとも1つのパラメータである、
    請求項1〜5のいずれか一項に記載の画像処理装置。
  7. 前記注目領域抽出部は、
    物体検出または顕著性マップに基づいて前記注目領域を抽出する、
    請求項1〜6のいずれか一項に記載の画像処理装置。
  8. 入力画像から構図を探索する方法であって、
    入力画像から注目領域を抽出するステップと、
    仮想的なカメラで前記入力画像の前記注目領域を含む領域を撮影してなる仮想的な撮影画像の構図を注目構図として設定するステップであって、該仮想的なカメラの所定のカメラパラメータを所定の探索範囲内で変更して複数の前記注目構図を設定する、ステップと、
    前記仮想的な撮影画像と目標とする構図を持つテンプレート画像の類似度に基づいて、該仮想的な撮影画像に対応する前記注目構図の評価値を算出するステップと、
    前記評価値が最大となる前記注目構図を探索するステップと、
    を含む、
    方法。
  9. 前記方法は、
    前記仮想的な撮影画像のエッジ情報を算出するステップを含み、
    前記評価値を算出するステップは、
    前記仮想的な撮影画像のエッジ情報と前記テンプレート画像のエッジ情報の類似度に基づいて前記評価値を算出するステップを含む、
    請求項8に記載の方法。
  10. 前記注目構図を設定するステップは、
    その光軸が前記注目領域の重心を通る前記仮想的なカメラが撮影した前記仮想的な撮影画像の構図を基準構図として設定するステップを含み、
    前記エッジ情報を算出するステップは、
    前記基準構図を持つ前記仮想的な撮影画像から算出したエッジ情報を前記カメラパラメータを用いて3次元変換することにより複数の前記注目画像のエッジ情報を算出するステップを含む、
    請求項9に記載の方法。
  11. 前記方法は、
    前記仮想的な撮影画像から算出されたエッジ情報に基づいて主要直線を算出するステップを含み、
    前記評価値を算出するステップは、
    前記仮想的な撮影画像から算出された主要直線と前記テンプレート画像の主要直線の類似度に基づいて前記評価値を算出するステップを含む、
    請求項8に記載の方法。
  12. 前記注目構図を設定するステップは、
    その光軸が前記注目領域の重心を通る前記仮想的なカメラが撮影した前記仮想的な撮影画像の構図を基準構図として設定するステップを含み、
    前記主要直線を算出するステップは、
    前記基準構図を持つ前記仮想的な撮影画像から算出した主要直線を前記カメラパラメータを用いて3次元変換することにより前記注目画像の主要直線を算出するステップを含む、
    請求項11に記載の方法。
  13. 前記カメラパラメータは、
    焦点距離、光軸中心、3次元回転、並進およびレンズ歪み係数からなる群から選択される少なくとも1つのパラメータである、
    請求項8〜12のいずれか一項に記載の方法。
  14. 前記注目領域を抽出するステップは、
    物体検出または顕著性マップに基づいて前記注目領域を抽出するステップを含む、
    請求項8〜13のいずれか一項に記載の方法。
  15. コンピュータに、請求項8〜14のいずれか一項に記載の方法の各ステップを実行させるためのプログラム。
JP2016097610A 2016-05-16 2016-05-16 画像処理装置、画像処理方法およびプログラム Active JP6675584B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016097610A JP6675584B2 (ja) 2016-05-16 2016-05-16 画像処理装置、画像処理方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016097610A JP6675584B2 (ja) 2016-05-16 2016-05-16 画像処理装置、画像処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2017208591A true JP2017208591A (ja) 2017-11-24
JP6675584B2 JP6675584B2 (ja) 2020-04-01

Family

ID=60415522

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016097610A Active JP6675584B2 (ja) 2016-05-16 2016-05-16 画像処理装置、画像処理方法およびプログラム

Country Status (1)

Country Link
JP (1) JP6675584B2 (ja)

Also Published As

Publication number Publication date
JP6675584B2 (ja) 2020-04-01

Similar Documents

Publication Publication Date Title
US10334168B2 (en) Threshold determination in a RANSAC algorithm
JP6091560B2 (ja) 画像解析方法
US11087169B2 (en) Image processing apparatus that identifies object and method therefor
US20130051626A1 (en) Method And Apparatus For Object Pose Estimation
US20150262346A1 (en) Image processing apparatus, image processing method, and image processing program
JP5631086B2 (ja) 情報処理装置及びその制御方法、プログラム
JP2018022360A (ja) 画像解析装置、画像解析方法およびプログラム
JP4709668B2 (ja) 3次元物体認識システム
JP2009020761A (ja) 画像処理装置及びその方法
JP2016099982A (ja) 行動認識装置、行動学習装置、方法、及びプログラム
JP2009230703A (ja) オブジェクト検出方法、オブジェクト検出装置、およびオブジェクト検出プログラム
JP2019114103A (ja) 物体認識処理装置、物体認識処理方法及びプログラム
JP2018128897A (ja) 対象物の姿勢等を検出する検出方法、検出プログラム
EP3093822A1 (en) Displaying a target object imaged in a moving picture
JP2018055199A (ja) 画像処理プログラム、画像処理装置、及び画像処理方法
CN110443228B (zh) 一种行人匹配方法、装置、电子设备及存储介质
CN114612352A (zh) 多聚焦图像融合方法、存储介质和计算机
JP2016099318A (ja) ステレオマッチング装置とステレオマッチングプログラムとステレオマッチング方法
JP6118976B2 (ja) 頭部姿勢の推定装置、頭部姿勢の推定方法およびコンピュータに頭部姿勢の推定方法を実行させるためのプログラム
JP7312026B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2006113832A (ja) ステレオ画像処理装置およびプログラム
KR101673144B1 (ko) 부분 선형화 기반의 3차원 영상 정합 방법
CN116051736A (zh) 一种三维重建方法、装置、边缘设备和存储介质
JPH11248431A (ja) 3次元モデル生成装置および3次元モデル生成プログラムを記録したコンピュータ読取可能な記録媒体
Yang et al. Design flow of motion based single camera 3D mapping

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200223

R151 Written notification of patent or utility model registration

Ref document number: 6675584

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151