JP6675584B2 - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP6675584B2
JP6675584B2 JP2016097610A JP2016097610A JP6675584B2 JP 6675584 B2 JP6675584 B2 JP 6675584B2 JP 2016097610 A JP2016097610 A JP 2016097610A JP 2016097610 A JP2016097610 A JP 2016097610A JP 6675584 B2 JP6675584 B2 JP 6675584B2
Authority
JP
Japan
Prior art keywords
composition
interest
image
captured image
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016097610A
Other languages
Japanese (ja)
Other versions
JP2017208591A (en
Inventor
崇之 原
崇之 原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2016097610A priority Critical patent/JP6675584B2/en
Publication of JP2017208591A publication Critical patent/JP2017208591A/en
Application granted granted Critical
Publication of JP6675584B2 publication Critical patent/JP6675584B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理装置、画像処理方法およびプログラムに関する。   The present invention relates to an image processing device, an image processing method, and a program.

従来、入力される画像から抽出した注目領域や特徴量に基づいて、入力された画像から視覚的に優れた構図を探索する技術が種々提案されている。   2. Description of the Related Art Conventionally, various techniques have been proposed for searching for a visually superior composition from an input image based on a region of interest or a feature amount extracted from the input image.

この点につき、特許文献1は、画像から顕著性を抽出し、予め決められた構図の法則を提供して画像のクロッピングを行う技術を開示する。特許文献2は、注目領域を抽出し、絵画や写真から得た基準構図との相関を参照して画像をクロッピングする技術を開示する。特許文献3は、注目領域と不要領域を抽出し、注目領域を含み、不要領域を除いた構図を生成する技術を開示する。特許文献4は、主被写体の位置、興味領域の位置、注目領域の一致性、オブジェクトの保存性に基づいてトリミング範囲を評価する方法を開示する。特許文献5は、注目領域と背景領域のエッジに対して適応的に重みを設定し、構図のグリッドとの相関演算で構図の良否の評価を行う技術を開示する。   In this regard, Patent Literature 1 discloses a technique of extracting saliency from an image, providing a predetermined composition rule, and cropping the image. Patent Document 2 discloses a technique of extracting a region of interest and cropping an image with reference to a correlation with a reference composition obtained from a painting or a photograph. Patent Document 3 discloses a technique of extracting a region of interest and an unnecessary region, and generating a composition including the region of interest and excluding the unnecessary region. Patent Literature 4 discloses a method for evaluating a trimming range based on the position of a main subject, the position of a region of interest, the coincidence of a region of interest, and the preservability of an object. Patent Literature 5 discloses a technique in which weights are adaptively set for edges of an attention area and a background area, and the quality of a composition is evaluated by a correlation operation with a composition grid.

しかしながら、従来の技術は、専ら、入力された画像から視覚的に優れた構図を2次元的に探索するものでしかなかった。   However, the conventional technique only searches for a visually superior composition two-dimensionally from an input image.

本発明は、上記に鑑みてなされたものであり、入力された画像から構図を3次元的に探索することができる画像処理装置を提供することを目的とする。   The present invention has been made in view of the above, and an object of the present invention is to provide an image processing apparatus capable of three-dimensionally searching for a composition from an input image.

本発明者は、入力された画像から構図を3次元的に探索することができる画像処理装置につき鋭意検討した結果、以下の構成に想到し、本発明に至ったのである。   The inventor of the present invention has intensively studied an image processing apparatus capable of three-dimensionally searching for a composition from an input image. As a result, the present inventor has arrived at the following configuration and has arrived at the present invention.

すなわち、本発明によれば、入力画像から構図を探索する画像処理装置であって、入力画像から注目領域を抽出する注目領域抽出部と、仮想的なカメラで前記入力画像の前記注目領域を含む領域を撮影してなる仮想的な撮影画像の構図を注目構図として設定する構図設定部であって、該仮想的なカメラの所定のカメラパラメータを所定の探索範囲内で変更して複数の前記注目構図を設定する、構図設定部と、前記仮想的な撮影画像と目標とする構図を持つテンプレート画像の類似度に基づいて、該仮想的な撮影画像に対応する前記注目構図の評価値を算出する構図評価部と、前記評価値が最大となる前記注目構図を探索する構図探索部と、
を含む、画像処理装置が提供される。
That is, according to the present invention, there is provided an image processing apparatus for searching for a composition from an input image, including an attention area extraction unit that extracts an attention area from the input image, and a virtual camera including the attention area of the input image. A composition setting unit that sets a composition of a virtual photographed image obtained by photographing an area as a composition of interest, and changes a plurality of the attention by changing a predetermined camera parameter of the virtual camera within a predetermined search range. A composition setting unit that sets a composition, and calculates an evaluation value of the composition of interest corresponding to the virtual captured image based on a similarity between the virtual captured image and a template image having a target composition. A composition evaluation unit, and a composition search unit that searches for the composition of interest that maximizes the evaluation value;
An image processing apparatus is provided.

上述したように、本発明によれば、入力された画像から構図を3次元的に探索することができる画像処理装置が提供される。   As described above, according to the present invention, an image processing apparatus capable of three-dimensionally searching for a composition from an input image is provided.

本実施形態の画像処理装置の機能ブロック図。FIG. 2 is a functional block diagram of the image processing apparatus according to the embodiment. 本実施形態の画像処理装置が実行する処理を示すフローチャート。5 is a flowchart illustrating processing executed by the image processing apparatus according to the embodiment. 構図設定部が実行する処理を説明するための概念図。FIG. 3 is a conceptual diagram for describing a process executed by a composition setting unit. 構図テンプレートを示す図。The figure which shows a composition template. エッジ算出部が実行する処理を説明するための概念図。FIG. 4 is a conceptual diagram for describing a process executed by an edge calculation unit. Equirectangular形式(正距円筒図法)の画像を説明するための概念図。Conceptual diagram for explaining images in Equirectangular format (Equidistant cylindrical projection). 構図設定部が実行する処理を説明するための概念図。FIG. 3 is a conceptual diagram for describing a process executed by a composition setting unit. 構図設定部が実行する処理を説明するための概念図。FIG. 3 is a conceptual diagram for describing a process executed by a composition setting unit. リトルプラネットの構図テンプレートを示す図。The figure which shows the composition template of a little planet. 主要直線算出部が実行する処理を説明するための概念図。FIG. 4 is a conceptual diagram for describing a process executed by a main straight line calculation unit. 構図評価部が実行する処理を説明するための概念図。FIG. 4 is a conceptual diagram for describing a process executed by a composition evaluation unit. 本実施形態の画像処理装置のハードウェア構成図。FIG. 2 is a hardware configuration diagram of the image processing apparatus according to the embodiment.

以下、本発明を、実施形態をもって説明するが、本発明は後述する実施形態に限定されるものではない。なお、以下に参照する各図においては、共通する要素について同じ符号を用い、適宜、その説明を省略するものとする。   Hereinafter, the present invention will be described with reference to embodiments, but the present invention is not limited to the embodiments described below. In the drawings referred to below, the same reference numerals are used for common elements, and the description thereof will be appropriately omitted.

本発明の実施形態である画像処理装置100は、入力画像から視覚的に優れた構図を探索する機能を有する装置である。以下、図1に示す機能ブロック図に基づいて、本実施形態の画像処理装置100の機能構成を説明する。   The image processing apparatus 100 according to the embodiment of the present invention is an apparatus having a function of searching for a visually excellent composition from an input image. Hereinafter, a functional configuration of the image processing apparatus 100 according to the present embodiment will be described based on a functional block diagram illustrated in FIG.

図1に示すように、画像処理装置100は、画像入力部101と、注目領域抽出部102と、構図設定部103と、エッジ算出部104と、主要直線算出部105と、構図評価部106と、構図探索部107と、画像出力部108とを含んで構成される。   As shown in FIG. 1, the image processing apparatus 100 includes an image input unit 101, a region of interest extraction unit 102, a composition setting unit 103, an edge calculation unit 104, a main straight line calculation unit 105, a composition evaluation unit 106, , A composition search unit 107 and an image output unit 108.

画像入力部101は、処理対象となる画像を入力する手段である。   The image input unit 101 is a unit for inputting an image to be processed.

注目領域抽出部102は、処理対象となる画像から注目領域を抽出する手段である。   The attention area extraction unit 102 is a unit that extracts an attention area from an image to be processed.

構図設定部103は、仮想的なカメラで処理対象となる画像を撮影してなる仮想的な撮影画像の構図を注目構図として設定する手段である。   The composition setting unit 103 is a unit that sets a composition of a virtual captured image obtained by capturing an image to be processed by a virtual camera as a composition of interest.

エッジ算出部104は、仮想的な撮影画像のエッジ情報を算出する手段である。   The edge calculation unit 104 is a unit that calculates edge information of a virtual captured image.

主要直線算出部105は、仮想的な撮影画像から算出されたエッジ情報に基づいて主要直線を算出する手段である。   The main straight line calculation unit 105 is a unit that calculates a main straight line based on edge information calculated from a virtual captured image.

構図評価部106は、仮想的な撮影画像と目標とする構図を持つテンプレート画像の類似度に基づいて、仮想的な撮影画像に対応する注目構図の評価値を算出する手段である。   The composition evaluation unit 106 is a unit that calculates the evaluation value of the composition of interest corresponding to the virtual captured image based on the similarity between the virtual captured image and the template image having the target composition.

構図探索部107は、評価値が最大となる注目構図を探索する手段である。   The composition search unit 107 is a unit that searches for a composition of interest with the highest evaluation value.

画像出力部108は、評価値が最大となった注目構図で処理対象となる画像を切り出して出力する手段である。   The image output unit 108 is a unit that cuts out and outputs an image to be processed in the composition of interest with the highest evaluation value.

なお、本実施形態では、画像処理装置100を構成するコンピュータが所定のプログラムを実行することにより、画像処理装置100が上述した各手段として機能する。   In the present embodiment, when the computer constituting the image processing apparatus 100 executes a predetermined program, the image processing apparatus 100 functions as each unit described above.

以上、本実施形態の画像処理装置100の機能構成について説明してきたが、続いて、画像処理装置100が実行する処理の内容を図2に示すフローチャートに基づいて説明する。   The functional configuration of the image processing apparatus 100 according to the present embodiment has been described above. Next, the content of processing executed by the image processing apparatus 100 will be described with reference to the flowchart illustrated in FIG.

まず、ステップ101では、画像入力部101が、任意の記憶手段から処理対象となる画像を読み込んで入力する。以下、入力した画像を“入力画像”という。   First, in step 101, the image input unit 101 reads and inputs an image to be processed from an arbitrary storage unit. Hereinafter, the input image is referred to as an “input image”.

続くステップ102では、注目領域抽出部102が、入力画像から注目領域を抽出する。ここで、注目領域の抽出は、顔や人物などの物体を画像中から検出する物体検出または顕著性マップに基づいて行うことができる。顕著性マップに基づく注目領域の抽出は、例えば、L. Itti, et al., "A model of saliency-based visual attention for rapid scene analysis," IEEE Transactions on Pattern Analysis & Machine Intelligence 11 pp. 1254-1259, 1998.(非特許文献1)や、R. Zhao, et al., "Saliency detection by multi-context deep learning," Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2015.(非特許文献2)が開示する方法によって行うことができる。なお、本実施形態において、“注目領域”とは、面積を有する領域のみならず、面積を有しない点(注目点)を含む概念である。   In the following step 102, the attention area extraction unit 102 extracts an attention area from the input image. Here, the region of interest can be extracted based on an object detection that detects an object such as a face or a person from an image or a saliency map. The extraction of the attention area based on the saliency map is described in, for example, L. Itti, et al., "A model of saliency-based visual attention for rapid scene analysis," IEEE Transactions on Pattern Analysis & Machine Intelligence 11 pp. 1254-1259. , 1998. (Non-Patent Document 1) and R. Zhao, et al., "Saliency detection by multi-context deep learning," Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2015. Can be performed by the method disclosed in In the present embodiment, the “region of interest” is a concept including not only a region having an area but also a point having no area (a point of interest).

続くステップ103では、構図設定部103が、仮想的なカメラ(以下、仮想カメラという)で先のステップ102で抽出した注目領域を含む矩形の領域を撮影してなる仮想的な撮影画像(以下、仮想撮影画像という)の構図を“注目構図”として設定する。以下、注目構図を設定する手順を図3に基づいて説明する。   In a subsequent step 103, the composition setting unit 103 captures a virtual captured image (hereinafter, referred to as a virtual camera) formed by capturing a rectangular area including the attention area extracted in the previous step 102 with a virtual camera (hereinafter, referred to as a virtual camera). The composition (referred to as a virtual photographed image) is set as a “composition of interest”. Hereinafter, a procedure for setting the composition of interest will be described with reference to FIG.

本実施形態では、まず、入力画像を撮影した実カメラの投影中心Oと共通の投影中心を有する仮想カメラを定義する。その上で、図3(a)に示すように、注目領域の重心を算出し、投影中心Oと仮想カメラの撮影面(以下、仮想カメラ撮影面という)の中心を通る光軸aが注目領域の重心を通るような仮想カメラの3次元回転パラメータを求める。続いて、求めた3次元回転パラメータを使用して入力画像を透視投影変換することにより仮想撮影画像を生成する。本実施形態では、このとき得られた仮想撮影画像の構図を“基準構図”とする。   In the present embodiment, first, a virtual camera having a common projection center with the projection center O of the real camera that has captured the input image is defined. Then, as shown in FIG. 3A, the center of gravity of the region of interest is calculated, and the optical axis a passing through the projection center O and the center of the imaging plane of the virtual camera (hereinafter referred to as the virtual camera imaging plane) is defined as the area of interest. Of the virtual camera passing through the center of gravity of the virtual camera. Subsequently, a virtual captured image is generated by performing perspective projection transformation on the input image using the obtained three-dimensional rotation parameters. In the present embodiment, the composition of the virtual captured image obtained at this time is referred to as a “reference composition”.

ここで、仮想カメラの3次元回転パラメータを求めるためには、入力画像を撮影した実カメラの内部パラメータ(焦点距離、光軸中心、レンズ歪み係数、画角など)が既知(校正済み)であることが前提となる。実カメラの内部パラメータが既知(校正済み)であれば、実カメラの投影中心Oから見た入力画像上の注目領域の重心の3次元方向を知ることができ、これにより、その光軸aが注目領域の重心を通るために必要な仮想カメラの3次元回転パラメータが求まる。   Here, in order to obtain the three-dimensional rotation parameters of the virtual camera, the internal parameters (focal length, optical axis center, lens distortion coefficient, angle of view, etc.) of the real camera that captured the input image are known (calibrated). It is assumed that If the internal parameters of the real camera are known (calibrated), it is possible to know the three-dimensional direction of the center of gravity of the attention area on the input image viewed from the projection center O of the real camera. A three-dimensional rotation parameter of the virtual camera required to pass through the center of gravity of the attention area is obtained.

なお、本実施形態においては、実カメラの内部パラメータを、入力画像のexifタグから取得しても良いし、Z. Zhang, “A flexible new technique for camera calibration,” IEEE Transactions on Pattern Analysis and Machine Intelligence, 22, 11, pp. 1330-1334, 2000.(非特許文献3)に開示されるような既知のカメラ校正法を用いて取得しても良い。また、実カメラの正確な内部パラメータを取得できない場合は、便宜的に、標準的な焦点距離(たとえば35mm版換算で50mm)を用いて、仮想カメラの3次元回転パラメータを求めるようにしてもよい。   In this embodiment, the internal parameters of the real camera may be obtained from the exif tag of the input image, or may be obtained from Z. Zhang, “A flexible new technique for camera calibration,” IEEE Transactions on Pattern Analysis and Machine Intelligence. , 22, 11, pp. 1330-1334, 2000. (Non-Patent Document 3). Further, when it is not possible to obtain the accurate internal parameters of the real camera, the three-dimensional rotation parameters of the virtual camera may be obtained using a standard focal length (for example, 50 mm in 35 mm conversion) for convenience. .

なお、本実施形態においては、仮想カメラの3次元回転パラメータを探索する範囲(以下、探索範囲という)を予め設定しておく。具体的には、図3(b)に示すように、投影中心Oと注目領域の重心を通る直線Lと仮想カメラの光軸aのなす角度θがdθ以内となる範囲を探索範囲として設定した上で、当該探索範囲内で角度θを離散化することにより、N個(Nは2以上の整数。以下同様。)の角度条件を予め定義しておく。   In the present embodiment, a range for searching for the three-dimensional rotation parameter of the virtual camera (hereinafter referred to as a search range) is set in advance. Specifically, as shown in FIG. 3B, a range in which the angle θ between the projection center O, the straight line L passing through the center of gravity of the attention area, and the optical axis a of the virtual camera is within dθ is set as the search range. Above, by discretizing the angle θ within the search range, N (N is an integer of 2 or more; the same applies hereinafter) angle conditions are defined in advance.

その上で、ステップ103では、N個の角度条件の中から順番に1つずつ角度条件を選択し、選択した角度条件を満たす仮想カメラの仮想撮影画像の構図を“注目構図”として設定する。なお、ステップ103では、仮想カメラの3次元回転パラメータ以外のパラメータ(焦点距離、画角等)を固定としておく。   Then, in step 103, the angle conditions are selected one by one from the N angle conditions in order, and the composition of the virtual photographed image of the virtual camera that satisfies the selected angle condition is set as the “composition of interest”. In step 103, parameters (focal length, angle of view, etc.) other than the three-dimensional rotation parameters of the virtual camera are fixed.

続くステップ104では、先のステップ103で設定した注目構図に対応する仮想撮影画像の特徴量を算出する。本実施形態では、画像のエッジ情報を特徴量として算出することができる。その場合、エッジ算出部104は、先のステップ103で設定した注目構図に対応する仮想撮影画像の中で、画像のエッジ(画素値の変化点)を検出し、そのエッジ情報(エッジの強度と方向)を仮想撮影画像の特徴量として算出する。なお、エッジ検出は、ソーベルフィルタや微分演算の空間フィルタ(ガボールフィルタなど)を用いた既知の方法で行うことができる。   In the following step 104, the feature amount of the virtual photographed image corresponding to the composition of interest set in the previous step 103 is calculated. In the present embodiment, edge information of an image can be calculated as a feature amount. In this case, the edge calculation unit 104 detects an edge of the image (a change point of the pixel value) in the virtual captured image corresponding to the composition of interest set in the previous step 103, and detects the edge information (the edge intensity and the edge intensity). Direction) is calculated as the feature amount of the virtual captured image. Note that edge detection can be performed by a known method using a Sobel filter or a spatial filter (Gabor filter or the like) for differential operation.

続くステップ105では、構図評価部106が、先のステップ104でエッジ情報を算出した注目構図について、その視覚的な優位性を評価する評価値を算出し、算出した評価値とその注目構図を対応付けて一時記憶手段に保存する。本実施形態においては、目標とする構図を持つテンプレート画像を予め用意しておき、当該テンプレート画像と仮想撮影画像の類似度に基づく評価値を所定の評価関数を用いて算出する。以下、本実施形態に適用可能な評価関数について説明する。   In the following step 105, the composition evaluation unit 106 calculates an evaluation value for evaluating the visual superiority of the target composition for which edge information has been calculated in the previous step 104, and associates the calculated evaluation value with the target composition. And store it in temporary storage means. In the present embodiment, a template image having a target composition is prepared in advance, and an evaluation value based on the similarity between the template image and the virtual captured image is calculated using a predetermined evaluation function. Hereinafter, an evaluation function applicable to the present embodiment will be described.

本実施形態では、下記式(1)に示す評価関数Jを用いることができる。 In the present embodiment, it is possible to use an evaluation function J 1 of the following formula (1).

上記式(1)に示す評価関数Jは、注目領域が注目構図の中心に存在し、また、画像のエッジが水平となっている構図が高く評価されるように設計されている。 The evaluation function J 1 shown in the above formula (1), the region of interest is present in the center of attention composition, also designed as composition of the edges of the image is in the horizontal is highly appreciated.

また、本実施形態では、下記式(2)に示す評価関数Jを用いることができる。 Further, in the present embodiment, it is possible to use an evaluation function J 2 of the following formula (2).

上記式(2)において、e(i,j)は、評価の対象となる注目構図の位置(i,j)におけるエッジベクトルを示し、o(i,j)は、テンプレート画像の位置(i,j)におけるエッジベクトルを示す。ここで、エッジベクトルとは、水平・垂直方向の画素値の勾配を要素に持つ縦ベクトルであり、グレースケール画像の場合は2次元のベクトルとなり、RGB画像の場合は6次元のベクトルとなる。   In the above equation (2), e (i, j) indicates the edge vector at the position (i, j) of the target composition to be evaluated, and o (i, j) indicates the position (i, j) of the template image. 13 shows an edge vector in j). Here, the edge vector is a vertical vector having a gradient of pixel values in the horizontal and vertical directions as elements, and is a two-dimensional vector in the case of a grayscale image, and a six-dimensional vector in the case of an RGB image.

さらに、本実施形態では、下記式(3)に示すように、テンプレート画像のエッジベクトルo(i,j)と、注目構図のエッジベクトルe(i,j)の内積の和を評価関数Jとして用いることができる。 Furthermore, in the present embodiment, as shown in the following formula (3), the edge vector o (i, j) of the template image and evaluate a sum of the inner product of interest composition of edge vectors e (i, j) function J 3 Can be used as

なお、上述した評価関数J、J、Jは、いずれも構図の評価が高くなるほどその評価値の値が大きくなるように設計されている。 The above-described evaluation functions J 1 , J 2 , and J 3 are all designed so that the higher the evaluation of the composition, the larger the value of the evaluation value.

図4は、本実施形態に適用可能な6種類のテンプレート画像の構図(日の丸構図、三分割構図、水平構図、垂直構図、放射構図、斜線構図)を例示的に示す。本実施形態においては、1種類のテンプレートを用いて評価値を算出しても良いし、任意のM種類(Mは2以上の整数。以下同様)のテンプレートを用いてM個の評価値を算出しても良い。ただし、1つの仮想撮影画像(注目構図)に対して、M個の評価値を算出する場合、M個の評価値の中の最小値を当該注目構図の評価値とする。   FIG. 4 exemplarily shows the composition of six types of template images applicable to the present embodiment (the composition of the sun, the three-piece composition, the horizontal composition, the vertical composition, the radial composition, and the oblique composition). In the present embodiment, the evaluation values may be calculated using one type of template, or M evaluation values may be calculated using arbitrary M types (M is an integer of 2 or more; the same applies hereinafter). You may. However, when calculating M evaluation values for one virtual photographed image (composition of interest), the minimum value among the M evaluation values is used as the evaluation value of the composition of interest.

なお、グレースケールの場合、水平構図、垂直構図および放射構図のテンプレート画像のエッジベクトルo(i,j)の具体的表現は、それぞれ、下記式(4)〜(6)のようになる。   In the case of the gray scale, the specific expressions of the edge vectors o (i, j) of the template images of the horizontal composition, the vertical composition, and the radial composition are expressed by the following equations (4) to (6), respectively.

ここで、上記式(6)において、cx、cyはそれぞれ構図の中心位置のx座標とy座標を示し、N(x)はスカラー倍によって引数ベクトルxのL2ノルムを1にする正規化作用素である。   Here, in the above equation (6), cx and cy indicate the x and y coordinates of the center position of the composition, respectively, and N (x) is a normalization operator that sets the L2 norm of the argument vector x to 1 by a scalar multiplication. is there.

以上、本実施形態に適用可能な評価関数について説明してきたが、上述した評価関数は例示であって、その他の距離尺度を用いた評価関数を採用しても良い。   The evaluation function applicable to the present embodiment has been described above. However, the evaluation function described above is an example, and an evaluation function using another distance scale may be employed.

続くステップ106では、構図探索部107が、予め設定した探索範囲内の全構図を探索したか否かを判断する。この時点では、探索すべき構図が残っているので(ステップ106、No)、処理は再びステップ103に戻る。   In the following step 106, the composition search unit 107 determines whether or not all the compositions within the preset search range have been searched. At this point, since the composition to be searched remains (step 106, No), the process returns to step 103 again.

続くステップ103では、構図設定部103が、残った角度条件の中から選択された次の角度条件を満たす仮想カメラの仮撮影画像を新たな注目構図として設定し、続くステップ104で、エッジ算出部104が、設定した注目構図からエッジ情報を算出し、続くステップ105では、構図評価部106が、算出した仮撮影画像のエッジ情報とテンプレート画像のエッジ情報に基づいて、当該仮撮影画像に対応する注目構図の評価値を算出する。以降、探索範囲内の全ての構図を探索するまで(ステップ106、No)、ステップ103〜106を繰り返し実行する。   In the following step 103, the composition setting unit 103 sets a provisionally shot image of the virtual camera that satisfies the next angle condition selected from the remaining angle conditions as a new composition of interest. In the following step 104, the edge calculation unit 104 calculates edge information from the set composition of interest, and in a subsequent step 105, the composition evaluation unit 106 corresponds to the provisional captured image based on the calculated edge information of the provisional captured image and the edge information of the template image. The evaluation value of the composition of interest is calculated. Thereafter, steps 103 to 106 are repeatedly executed until all the compositions within the search range are searched (step 106, No).

ここで、ステップ103〜106を繰り返し実行するにあたって、エッジ算出部104は、2巡目以降のステップ104において、1巡目のステップ104で算出したエッジ情報を3次元変換することによって、該当する注目構図に係るエッジ情報を算出することが好ましい。   Here, in repeatedly executing steps 103 to 106, the edge calculation unit 104 performs three-dimensional conversion of the edge information calculated in step 104 in the first round in step 104 in the second and subsequent rounds to obtain a corresponding attention. It is preferable to calculate edge information related to the composition.

具体的には、一つの撮像面で検出されたエッジは、3次元空間中では、図5に示すように、投影中心Oからの位置ベクトルとエッジの方向ベクトルの組で表現することができるので、2巡目以降のステップ104では、1巡目のステップ104で検出したエッジ(位置ベクトルと方向ベクトルの組)を、仮想カメラの3次元回転パラメータを用いて透視投影変換することにより、仮撮影画像のエッジ情報を直接的に算出することができる。この方法によれば、2巡目以降のステップ104において、仮撮影画像の生成とフィルタ処理が不要になるので、その分、計算コストが低減される。なお、この場合は、誤差を低減する観点から、1巡目のステップ104で、基準構図の仮撮影画像からエッジ情報を算出することが好ましい。   Specifically, an edge detected on one imaging plane can be expressed in a three-dimensional space by a set of a position vector from the projection center O and a direction vector of the edge, as shown in FIG. In the second and subsequent steps 104, provisional imaging is performed by performing perspective projection transformation of the edge (a set of position vector and direction vector) detected in the first step 104 using the three-dimensional rotation parameters of the virtual camera. The edge information of the image can be calculated directly. According to this method, the generation of the provisionally photographed image and the filtering process are not required in the second and subsequent steps 104, so that the calculation cost is reduced accordingly. In this case, from the viewpoint of reducing the error, it is preferable to calculate the edge information from the provisionally shot image of the reference composition in step 104 of the first cycle.

ステップ103〜106を繰り返し実行し、探索範囲内の全構図を探索を終えると(ステップ106、Yes)、処理はステップ107に進む。この時点でN個の注目構図とその評価値が一時記憶手段に保存されているので、ステップ107では、構図探索部107が、そのN個の評価値の中から最大の評価値を有する注目構図を決定する。   When steps 103 to 106 are repeatedly executed, and the search has been completed for all the compositions within the search range (step 106, Yes), the process proceeds to step 107. At this point, the N compositions of interest and their evaluation values are stored in the temporary storage means, so in step 107, the composition search unit 107 causes the composition of interest to have the largest evaluation value among the N evaluation values. To determine.

最後に、ステップ108では、画像出力部108が、先のステップ107で決定した注目構図で入力画像を切り出して出力する。具体的には、画像出力部108は、先のステップ107で決定した注目構図に対応する仮撮影画像(透視投影変換画像)を出力して、処理を終了する。   Finally, in step 108, the image output unit 108 cuts out and outputs the input image with the composition of interest determined in the previous step 107. Specifically, the image output unit 108 outputs a provisionally shot image (perspective projection transformed image) corresponding to the composition of interest determined in the previous step 107, and ends the processing.

なお、これまで、仮想的カメラの3次元回転パラメータを所定の探索範囲内で変更することにより複数の注目構図を設定する態様を説明してきたが、本実施形態では、焦点距離、光軸中心、レンズ歪み係数、画角、並進といった、その他のカメラパラメータを所定の探索範囲内で変更することによって複数の注目構図を設定しても良い。   In the above, the mode in which a plurality of compositions of interest are set by changing the three-dimensional rotation parameter of the virtual camera within a predetermined search range has been described. However, in the present embodiment, the focal length, the optical axis center, A plurality of target compositions may be set by changing other camera parameters such as a lens distortion coefficient, an angle of view, and translation within a predetermined search range.

以上、説明したように、本実施形態によれば、注目領域を含む基準構図の近傍で仮想カメラのカメラパラメータを変動させることにより、入力画像が撮影された3次元空間における3次元的な回転・並進を考慮して構図を3次元的に探索することができる。これにより、例えば、一度撮影した画像の構図を変更して美観を向上させることなどが可能になる。また、本実施形態によれば、探索範囲を基準構図を中心とした所定の範囲に限定することによって、低い計算コストで構図を探索することが可能となる。   As described above, according to the present embodiment, by changing the camera parameters of the virtual camera near the reference composition including the attention area, the three-dimensional rotation and the three-dimensional rotation in the three-dimensional space where the input image is captured are obtained. The composition can be searched three-dimensionally in consideration of the translation. As a result, for example, it is possible to change the composition of the image that has been shot once to improve the beauty. Further, according to the present embodiment, the composition can be searched at a low calculation cost by limiting the search range to a predetermined range centered on the reference composition.

なお、本実施形態によれば、同様の手順で、パノラマ画像に代表されるような広角画像から視覚的に優れた構図を持つ部分画像を切り出すことが可能となる。以下、この点について説明する。   According to the present embodiment, it is possible to cut out a partial image having a visually excellent composition from a wide-angle image typified by a panoramic image by the same procedure. Hereinafter, this point will be described.

Equirectangular形式(正距円筒図法)は、主にパノラマ撮影に使われる画像の表現形式であり、図6に示すように、画素の3次元方向を緯度と経度に分解し、正方格子状に対応する画素値を並べた画像形式である。Equirectangular形式の画像からは、経度緯度の座標値から任意の3次元方向の画素値を得ることができ、概念的には、単位球に画素値がプロットされたものとして捉えることができる。   The Equirectangular format (equidistant cylindrical projection) is a representation format of an image mainly used for panoramic photography. As shown in FIG. 6, the three-dimensional direction of a pixel is decomposed into latitude and longitude to correspond to a square grid. This is an image format in which pixel values are arranged. From the image in the Equirectangular format, pixel values in an arbitrary three-dimensional direction can be obtained from the coordinate values of longitude and latitude, and can be conceptually regarded as pixel values plotted on a unit sphere.

入力画像がEquirectangular形式の画像である場合、構図設定部103は、図7に示すように、仮想カメラの光軸が注目領域の重心を通る構図を基準構図として設定し、基準構図の近傍に探索範囲を設定し、その探索範囲内で仮想カメラのカメラパラメータを離散化してN個の候補構図を作成する。なお、探索するパラメータには、焦点距離、光軸中心、レンズひずみ係数、3次元回転の他に、投影中心Oを含めることができる。この場合、図8(a)、(b)に示すように、探索範囲内で投影中心Oを変更することよって異なる候補構図を作成することができる。   When the input image is an image in the Equirectangular format, as shown in FIG. 7, the composition setting unit 103 sets a composition in which the optical axis of the virtual camera passes through the center of gravity of the attention area as a reference composition, and searches near the reference composition. A range is set, and camera parameters of the virtual camera are discretized within the search range to create N candidate compositions. The search parameters may include the projection center O in addition to the focal length, the optical axis center, the lens distortion coefficient, and the three-dimensional rotation. In this case, as shown in FIGS. 8A and 8B, different candidate compositions can be created by changing the projection center O within the search range.

構図設定部103は、N個の候補構図の中から1つずつ順番に注目構図を選択し、エッジ算出部104は、選択された注目構図の画像のエッジ情報(エッジの強度と方向)を算出し、構図評価部106は、算出したエッジ情報とテンプレート画像のエッジ情報を上述した評価関数に投入して、当該注目構図の評価値を算出する。入力画像がEquirectangular形式の画像の場合、図4に例示したテンプレート画像に加えて、図9に示すパノラマ画像に特有なリトルプラネットと呼ばれる構図を持つテンプレート画像を用いてもよい。なお、リトルプラネットの構図を持つテンプレート画像のエッジベクトルo(i,j)の具体的表現は、それぞれ、下記式(7)のようになる。   The composition setting unit 103 sequentially selects a composition of interest one by one from the N candidate compositions, and the edge calculation unit 104 calculates edge information (edge strength and direction) of the image of the selected composition of interest. Then, the composition evaluation unit 106 inputs the calculated edge information and the edge information of the template image into the above-described evaluation function, and calculates an evaluation value of the composition of interest. When the input image is an image in the Equirectangular format, a template image having a composition called a little planet unique to the panoramic image shown in FIG. 9 may be used in addition to the template image shown in FIG. The specific expression of the edge vector o (i, j) of the template image having the composition of the little planet is as shown in the following equation (7).

以上、説明したように、本実施形態によれば、Equirectangular形式などで表現される広角画像から視覚的に優れた構図の部分画像を低い計算コストでクロッピングすることが可能となる。   As described above, according to this embodiment, it is possible to crop a partial image having a visually excellent composition from a wide-angle image expressed in the Equirectangular format or the like at a low calculation cost.

これまで、仮想撮影画像のエッジ情報を特徴量として構図を評価する態様について説明してきたが、本実施形態では、仮想撮影画像の主要直線を特徴量として構図を評価することもできる。その場合、先のステップ104(図2参照)では、主要直線算出部105が、先のステップ103(図2参照)で設定した注目構図に対応する仮想撮影画像からエッジ情報を算出し、算出したエッジ情報に基づいてハフ変換により主要直線を算出する。このとき、主要直線算出部105は、図10に示すように、3次元空間において、検出した主要直線と投影中心Oを含む平面sを規定し、検出した主要直線を平面sの法線ベクトルとして表現する。   So far, an aspect has been described in which the composition is evaluated using the edge information of the virtual captured image as a feature amount. However, in the present embodiment, the composition can be evaluated using the main straight line of the virtual captured image as the feature amount. In that case, in step 104 (see FIG. 2), the main straight line calculation unit 105 calculates and calculates edge information from the virtual photographed image corresponding to the composition of interest set in step 103 (see FIG. 2). A main straight line is calculated by Hough transform based on the edge information. At this time, as shown in FIG. 10, the main straight line calculation unit 105 defines a plane s including the detected main straight line and the projection center O in the three-dimensional space, and sets the detected main straight line as a normal vector of the plane s. Express.

続くステップ105(図2参照)では、構図評価部106が、仮想撮影画像から算出した主要直線(法線ベクトル)と、テンプレート画像の主要直線に基づいて当該仮想撮影画像に対応する注目構図の評価値を算出する。ここで、本実施形態においては、直線に関する構図を持つテンプレート画像は、直線群の単位法線ベクトル群で表現されており、図11に示すように、3次元空間中の単位球面で特定の分布を取る。本実施形態では、テンプレート画像の構図(ここでは、垂直構図を例示している)に係る直線群の分布と、注目構図を持つ仮想撮影画像から算出された主要直線の単位球面上での分布の類似度に基づく評価値を適切な評価関数を用いて算出する。本実施形態では、たとえば、単位球面上で分布間の積和を取る評価関数を用いても良いし、その際、特定の直線に対して重み付けを行っても良い。   In the following step 105 (see FIG. 2), the composition evaluation unit 106 evaluates the composition of interest corresponding to the virtual captured image based on the main straight line (normal vector) calculated from the virtual captured image and the main straight line of the template image. Calculate the value. Here, in the present embodiment, a template image having a composition related to a straight line is represented by a unit normal vector group of a straight line group, and as shown in FIG. I take the. In the present embodiment, the distribution of the straight line group related to the composition of the template image (here, a vertical composition is illustrated) and the distribution of the main straight line calculated from the virtual photographed image having the composition of interest on the unit spherical surface. An evaluation value based on the similarity is calculated using an appropriate evaluation function. In the present embodiment, for example, an evaluation function that takes the product sum between distributions on a unit spherical surface may be used, and in this case, a specific straight line may be weighted.

このように、仮想撮影画像の主要直線を特徴量として用いて評価値を算出することにより、ノイズに対するロバスト性を向上させることができる。なお、仮想撮影画像の主要直線を算出する場合も、仮想撮影画像のエッジ情報を算出する場合と同様に、2巡目以降のステップ104(図2参照)では、1巡目のステップ104で算出した主要直線をカメラパラメータを用いて3次元変換して、該当する注目構図に係る主要直線を直接的に算出することにより、計算コストを低減することができる。なお、この場合も、誤差を低減する観点から、1巡目のステップ104で、基準構図の仮撮影画像から主要直線を算出することが好ましい。   As described above, by calculating the evaluation value using the main straight line of the virtual captured image as the feature amount, it is possible to improve robustness against noise. Also, when calculating the main straight line of the virtual captured image, similarly to the case of calculating the edge information of the virtual captured image, in the step 104 (see FIG. 2) after the second round, the calculation is performed in the step 104 of the first round. The three-dimensional conversion of the obtained main straight line using the camera parameters and directly calculating the main straight line related to the relevant composition of interest can reduce the calculation cost. Also in this case, from the viewpoint of reducing errors, it is preferable to calculate the main straight line from the provisionally shot image of the reference composition in step 104 of the first cycle.

最後に、図12に基づいて本実施形態の画像処理装置100を構成するコンピュータのハードウェア構成について説明する。   Finally, a hardware configuration of a computer constituting the image processing apparatus 100 according to the present embodiment will be described with reference to FIG.

図12に示すように、本実施形態の画像処理装置100を構成するコンピュータは、装置全体の動作を制御するプロセッサ10と、ブートプログラムやファームウェアプログラムなどを保存するROM12と、プログラムの実行空間を提供するRAM14と、画像処理装置100を上述した各手段として機能させるためのプログラムやオペレーティングシステム(OS)等を保存するための補助記憶装置15と、外部入出力装置を接続するための入出力インタフェース16と、ネットワークに接続するためのネットワーク・インターフェース18とを備えている。   As shown in FIG. 12, the computer constituting the image processing apparatus 100 of the present embodiment provides a processor 10 for controlling the operation of the entire apparatus, a ROM 12 for storing a boot program, a firmware program, and the like, and an execution space for the program. RAM 14, an auxiliary storage device 15 for storing a program and an operating system (OS) for causing the image processing apparatus 100 to function as each unit described above, and an input / output interface 16 for connecting an external input / output device And a network interface 18 for connecting to a network.

なお、上述した実施形態の各機能は、C、C++、C#、Java(登録商標)などで記述されたプログラムにより実現でき、本実施形態のプログラムは、ハードディスク装置、CD−ROM、MO、DVD、フレキシブルディスク、EEPROM、EPROMなどの記録媒体に格納して頒布することができ、また他の装置が可能な形式でネットワークを介して伝送することができる。   Each function of the above-described embodiment can be realized by a program described in C, C ++, C #, Java (registered trademark), or the like. The program of the present embodiment includes a hard disk device, a CD-ROM, an MO, a DVD, and the like. Can be stored in a recording medium such as a flexible disk, an EEPROM, or an EPROM and distributed, and can be transmitted via a network in a format that can be used by other devices.

以上、本発明について実施形態をもって説明してきたが、本発明は上述した実施形態に限定されるものではなく、当業者が推考しうる実施態様の範囲内において、本発明の作用・効果を奏する限り、本発明の範囲に含まれるものである。   As described above, the present invention has been described with the embodiment. However, the present invention is not limited to the above-described embodiment, and as long as the functions and effects of the present invention are exerted within a range of an embodiment that can be estimated by those skilled in the art. Are included in the scope of the present invention.

10…プロセッサ
12…ROM
14…RAM
15…補助記憶装置
16…入出力インタフェース
18…ネットワーク・インターフェース
100…画像処理装置
101…画像入力部
102…注目領域抽出部
103…構図設定部
104…エッジ算出部
104…構図評価部
105…主要直線算出部
106…構図評価部
107…構図探索部
108…画像出力部
10 Processor 12 ROM
14 ... RAM
15 Auxiliary storage device 16 Input / output interface 18 Network interface 100 Image processing device 101 Image input unit 102 Attention area extraction unit 103 Composition setting unit 104 Edge calculation unit 104 Composition evaluation unit 105 Main straight line Calculation unit 106: composition evaluation unit 107: composition search unit 108: image output unit

特表2004−520735号公報JP-T-2004-520735 特許3482923号公報Japanese Patent No. 3482923 特開2007−157063号公報JP 2007-157063 A 特開2009−212929号公報JP 2009-212929 A 特許5731033号公報Japanese Patent No. 5731033

Claims (9)

入力画像から構図を探索する画像処理装置であって、
入力画像から注目領域を抽出する注目領域抽出部と、
仮想的なカメラで前記入力画像の前記注目領域を含む領域を撮影してなる仮想的な撮影画像の構図を注目構図として設定する構図設定部であって、該仮想的なカメラの所定のカメラパラメータを所定の探索範囲内で変更して複数の前記注目構図を設定する、構図設定部と、
前記仮想的な撮影画像と目標とする構図を持つテンプレート画像の類似度に基づいて、該仮想的な撮影画像に対応する前記注目構図の評価値を算出する構図評価部と、
前記評価値が最大となる前記注目構図を探索する構図探索部と、
前記仮想的な撮影画像のエッジ情報を算出するエッジ情報算出部と
を含み、
前記構図設定部は、
その光軸が前記注目領域の重心を通る前記仮想的なカメラが撮影した前記仮想的な撮影画像の構図を基準構図として設定し、
前記構図評価部は、
前記仮想的な撮影画像のエッジ情報と前記テンプレート画像のエッジ情報の類似度に基づいて前記評価値を算出し、
前記エッジ情報算出部は、
前記基準構図を持つ前記仮想的な撮影画像から算出したエッジ情報を前記カメラパラメータを用いて3次元変換することにより複数の前記注目構図のエッジ情報を算出する
画像処理装置。
An image processing device that searches for a composition from an input image,
An attention area extraction unit that extracts an attention area from the input image;
A composition setting unit that sets, as a composition of interest, a composition of a virtual captured image obtained by capturing an area including the area of interest of the input image with a virtual camera, and a predetermined camera parameter of the virtual camera. Is changed within a predetermined search range to set a plurality of the composition of interest, a composition setting unit,
A composition evaluation unit that calculates an evaluation value of the composition of interest corresponding to the virtual captured image based on a similarity between the virtual captured image and a template image having a target composition;
A composition search unit that searches for the composition of interest that maximizes the evaluation value;
An edge information calculation unit that calculates edge information of the virtual captured image;
Including
The composition setting unit,
The composition of the virtual captured image taken by the virtual camera whose optical axis passes through the center of gravity of the attention area is set as a reference composition,
The composition evaluation unit,
Calculating the evaluation value based on the similarity between the edge information of the virtual captured image and the edge information of the template image,
The edge information calculation unit,
Calculating edge information of the plurality of target compositions by three-dimensionally converting edge information calculated from the virtual captured image having the reference composition using the camera parameters ;
Image processing device.
入力画像から構図を探索する画像処理装置であって、
入力画像から注目領域を抽出する注目領域抽出部と、
仮想的なカメラで前記入力画像の前記注目領域を含む領域を撮影してなる仮想的な撮影画像の構図を注目構図として設定する構図設定部であって、該仮想的なカメラの所定のカメラパラメータを所定の探索範囲内で変更して複数の前記注目構図を設定する、構図設定部と、
前記仮想的な撮影画像と目標とする構図を持つテンプレート画像の類似度に基づいて、該仮想的な撮影画像に対応する前記注目構図の評価値を算出する構図評価部と、
前記評価値が最大となる前記注目構図を探索する構図探索部と、
前記仮想的な撮影画像から算出されたエッジ情報に基づいて主要直線を算出する主要直線算出部と
を含み、
前記構図設定部は、
その光軸が前記注目領域の重心を通る前記仮想的なカメラが撮影した前記仮想的な撮影画像の構図を基準構図として設定し、
前記構図評価部は、
前記仮想的な撮影画像から算出された主要直線と前記テンプレート画像の主要直線の類似度に基づいて前記評価値を算出し、
前記主要直線算出部は、
前記基準構図を持つ前記仮想的な撮影画像から算出した主要直線を前記カメラパラメータを用いて3次元変換することにより前記注目構図の主要直線を算出する
画像処理装置。
An image processing device that searches for a composition from an input image,
An attention area extraction unit that extracts an attention area from the input image;
A composition setting unit that sets, as a composition of interest, a composition of a virtual captured image obtained by capturing an area including the area of interest of the input image with a virtual camera, and a predetermined camera parameter of the virtual camera. Is changed within a predetermined search range to set a plurality of the composition of interest, a composition setting unit,
A composition evaluation unit that calculates an evaluation value of the composition of interest corresponding to the virtual captured image based on a similarity between the virtual captured image and a template image having a target composition;
A composition search unit that searches for the composition of interest that maximizes the evaluation value;
A main straight line calculation unit that calculates a main straight line based on the edge information calculated from the virtual captured image;
Including
The composition setting unit,
The composition of the virtual captured image taken by the virtual camera whose optical axis passes through the center of gravity of the attention area is set as a reference composition,
The composition evaluation unit,
Calculating the evaluation value based on the similarity between the main straight line calculated from the virtual captured image and the main straight line of the template image,
The main straight line calculation unit,
Calculating a main straight line of the composition of interest by subjecting the main straight line calculated from the virtual captured image having the reference composition to three-dimensional conversion using the camera parameters ;
Image processing device.
前記カメラパラメータは、
焦点距離、光軸中心、3次元回転、並進およびレンズ歪み係数からなる群から選択される少なくとも1つのパラメータである、
請求項1または2に記載の画像処理装置。
The camera parameters are:
At least one parameter selected from the group consisting of focal length, optical axis center, three-dimensional rotation, translation, and lens distortion coefficient;
The image processing apparatus according to claim 1 or 2.
前記注目領域抽出部は、
物体検出または顕著性マップに基づいて前記注目領域を抽出する、
請求項1〜のいずれか一項に記載の画像処理装置。
The attention area extraction unit includes:
Extracting the region of interest based on an object detection or saliency map,
The image processing apparatus according to any one of claims 1-3.
入力画像から構図を探索する方法であって、
入力画像から注目領域を抽出するステップと、
仮想的なカメラで前記入力画像の前記注目領域を含む領域を撮影してなる仮想的な撮影画像の構図を注目構図として設定するステップであって、該仮想的なカメラの所定のカメラパラメータを所定の探索範囲内で変更して複数の前記注目構図を設定する、ステップと、
前記仮想的な撮影画像と目標とする構図を持つテンプレート画像の類似度に基づいて、該仮想的な撮影画像に対応する前記注目構図の評価値を算出するステップと、
前記評価値が最大となる前記注目構図を探索するステップと、
前記仮想的な撮影画像のエッジ情報を算出するステップと
を含み、
前記注目構図を設定するステップは、
その光軸が前記注目領域の重心を通る前記仮想的なカメラが撮影した前記仮想的な撮影画像の構図を基準構図として設定するステップを含み、
前記評価値を算出するステップは、
前記仮想的な撮影画像のエッジ情報と前記テンプレート画像のエッジ情報の類似度に基づいて前記評価値を算出するステップを含み、
前記エッジ情報を算出するステップは、
前記基準構図を持つ前記仮想的な撮影画像から算出したエッジ情報を前記カメラパラメータを用いて3次元変換することにより複数の前記注目構図のエッジ情報を算出するステップを含む
方法。
A method for searching for a composition from an input image,
Extracting a region of interest from the input image;
Setting, as a composition of interest, a composition of a virtual captured image obtained by capturing an area including the area of interest of the input image with a virtual camera, and setting a predetermined camera parameter of the virtual camera to a predetermined composition. Setting a plurality of the noted composition by changing within the search range of,
Calculating an evaluation value of the composition of interest corresponding to the virtual captured image based on a similarity between the virtual captured image and a template image having a target composition;
Searching for the composition of interest in which the evaluation value is maximum;
Calculating edge information of the virtual captured image;
Including
The step of setting the composition of interest includes:
Setting the composition of the virtual captured image taken by the virtual camera whose optical axis passes through the center of gravity of the attention area as a reference composition,
The step of calculating the evaluation value includes:
Including calculating the evaluation value based on the similarity between the edge information of the virtual captured image and the edge information of the template image,
Calculating the edge information,
Calculating the edge information of the plurality of target compositions by performing three-dimensional conversion on the edge information calculated from the virtual captured image having the reference composition using the camera parameters .
Method.
入力画像から構図を探索する方法であって、
入力画像から注目領域を抽出するステップと、
仮想的なカメラで前記入力画像の前記注目領域を含む領域を撮影してなる仮想的な撮影画像の構図を注目構図として設定するステップであって、該仮想的なカメラの所定のカメラパラメータを所定の探索範囲内で変更して複数の前記注目構図を設定する、ステップと、
前記仮想的な撮影画像と目標とする構図を持つテンプレート画像の類似度に基づいて、該仮想的な撮影画像に対応する前記注目構図の評価値を算出するステップと、
前記評価値が最大となる前記注目構図を探索するステップと、
前記仮想的な撮影画像から算出されたエッジ情報に基づいて主要直線を算出するステップと
を含み、
前記注目構図を設定するステップは、
その光軸が前記注目領域の重心を通る前記仮想的なカメラが撮影した前記仮想的な撮影画像の構図を基準構図として設定するステップを含み、
前記評価値を算出するステップは、
前記仮想的な撮影画像から算出された主要直線と前記テンプレート画像の主要直線の類似度に基づいて前記評価値を算出するステップを含み、
前記主要直線を算出するステップは、
前記基準構図を持つ前記仮想的な撮影画像から算出した主要直線を前記カメラパラメータを用いて3次元変換することにより前記注目構図の主要直線を算出するステップを含む
方法。
A method for searching for a composition from an input image,
Extracting a region of interest from the input image;
Setting, as a composition of interest, a composition of a virtual captured image obtained by capturing an area including the area of interest of the input image with a virtual camera, and setting a predetermined camera parameter of the virtual camera to a predetermined composition. Setting a plurality of the noted composition by changing within the search range of,
Calculating an evaluation value of the composition of interest corresponding to the virtual captured image based on a similarity between the virtual captured image and a template image having a target composition;
Searching for the composition of interest in which the evaluation value is maximum;
Calculating a main straight line based on the edge information calculated from the virtual photographed image;
Including
The step of setting the composition of interest includes:
Setting the composition of the virtual captured image taken by the virtual camera whose optical axis passes through the center of gravity of the attention area as a reference composition,
The step of calculating the evaluation value includes:
Including calculating the evaluation value based on the similarity between the main straight line calculated from the virtual captured image and the main straight line of the template image,
The step of calculating the main straight line,
Calculating a main straight line of the target composition by three-dimensionally converting a main straight line calculated from the virtual captured image having the reference composition using the camera parameters .
Method.
前記カメラパラメータは、
焦点距離、光軸中心、3次元回転、並進およびレンズ歪み係数からなる群から選択される少なくとも1つのパラメータである、
請求項5または6に記載の方法。
The camera parameters are:
At least one parameter selected from the group consisting of focal length, optical axis center, three-dimensional rotation, translation, and lens distortion coefficient;
The method according to claim 5 .
前記注目領域を抽出するステップは、
物体検出または顕著性マップに基づいて前記注目領域を抽出するステップを含む、
請求項のいずれか一項に記載の方法。
Extracting the attention area,
Including extracting the region of interest based on an object detection or saliency map,
The method according to any one of claims 5 to 7 .
コンピュータに、請求項のいずれか一項に記載の方法の各ステップを実行させるためのプログラム。 A program for causing a computer to execute each step of the method according to any one of claims 5 to 8 .
JP2016097610A 2016-05-16 2016-05-16 Image processing apparatus, image processing method, and program Active JP6675584B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016097610A JP6675584B2 (en) 2016-05-16 2016-05-16 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016097610A JP6675584B2 (en) 2016-05-16 2016-05-16 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2017208591A JP2017208591A (en) 2017-11-24
JP6675584B2 true JP6675584B2 (en) 2020-04-01

Family

ID=60415522

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016097610A Active JP6675584B2 (en) 2016-05-16 2016-05-16 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP6675584B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007282877A (en) * 2006-04-18 2007-11-01 Mitsubishi Electric Corp Positioning device and method of irradiation object part
JP4844657B2 (en) * 2009-07-31 2011-12-28 カシオ計算機株式会社 Image processing apparatus and method
JP2015002484A (en) * 2013-06-17 2015-01-05 ソニー株式会社 Display control device, display control method, program, and imaging device

Also Published As

Publication number Publication date
JP2017208591A (en) 2017-11-24

Similar Documents

Publication Publication Date Title
US10334168B2 (en) Threshold determination in a RANSAC algorithm
JP6091560B2 (en) Image analysis method
US8467596B2 (en) Method and apparatus for object pose estimation
JP6798183B2 (en) Image analyzer, image analysis method and program
JP5771413B2 (en) Posture estimation apparatus, posture estimation system, and posture estimation method
CN103959307B (en) The method of detection and Expressive Features from gray level image
JP6345147B2 (en) Method for detecting an object in a pair of stereo images
US20130251246A1 (en) Method and a device for training a pose classifier and an object classifier, a method and a device for object detection
JP5631086B2 (en) Information processing apparatus, control method therefor, and program
CN113850865A (en) Human body posture positioning method and system based on binocular vision and storage medium
CN108428224B (en) Animal body surface temperature detection method and device based on convolutional neural network
CN116664394B (en) Three-dimensional human eye image generation method and device, electronic equipment and storage medium
JP2018128897A (en) Detection method and detection program for detecting attitude and the like of object
JP2018055199A (en) Image processing program, image processing device, and image processing method
CN114612352A (en) Multi-focus image fusion method, storage medium and computer
CN116051736A (en) Three-dimensional reconstruction method, device, edge equipment and storage medium
JP2015121524A (en) Image processing apparatus, control method thereof, imaging apparatus, and program
JP6118976B2 (en) Head posture estimation apparatus, head posture estimation method, and program for causing computer to execute head posture estimation method
KR101673144B1 (en) Stereoscopic image registration method based on a partial linear method
JP6675584B2 (en) Image processing apparatus, image processing method, and program
CN110135474A (en) A kind of oblique aerial image matching method and system based on deep learning
JP6717049B2 (en) Image analysis apparatus, image analysis method and program
Yang et al. Design flow of motion based single camera 3D mapping
JP7326965B2 (en) Image processing device, image processing program, and image processing method
Zhang et al. Research on binocular real-time ranging method in window area

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200223

R151 Written notification of patent or utility model registration

Ref document number: 6675584

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151