JP2009159023A - Image processor, image processing method, and image processing program - Google Patents

Image processor, image processing method, and image processing program Download PDF

Info

Publication number
JP2009159023A
JP2009159023A JP2007331928A JP2007331928A JP2009159023A JP 2009159023 A JP2009159023 A JP 2009159023A JP 2007331928 A JP2007331928 A JP 2007331928A JP 2007331928 A JP2007331928 A JP 2007331928A JP 2009159023 A JP2009159023 A JP 2009159023A
Authority
JP
Japan
Prior art keywords
composition
image
image processing
storage unit
coefficient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007331928A
Other languages
Japanese (ja)
Inventor
Tetsuo Ishita
哲夫 井下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2007331928A priority Critical patent/JP2009159023A/en
Publication of JP2009159023A publication Critical patent/JP2009159023A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To enhance estimation precision of an interest region in an input image. <P>SOLUTION: An image processor 10 includes an image analysis section 121, a composition determination section 122, a region estimation section 123 and an output control section 129. The image analysis section 121 detects at least one feature pattern by analyzing an input image. The composition determination section 122 calculates the degree of association between the composition and the feature pattern as an evaluation value, and determines the composition of an input image based on the evaluation value. The region estimation section 123 estimate an interest region in an input image by using the composition thus determined. The output control section 129 outputs a local image of the interest region thus estimated. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、一画像の中の興味領域を推定し、この興味領域の画像を表示する技術に関する。   The present invention relates to a technique for estimating a region of interest in one image and displaying an image of this region of interest.

デジタルカメラ付き携帯電話機などの小型機器の搭載ディスプレイに撮像画像などの高解像度画像が表示される場合、搭載ディスプレイの有効表示領域の解像度が低いため、ユーザは、高解像度画像の中の、自己に関心のある興味領域を見つけ出すのに非常に時間と手間がかかるという問題があった。ユーザはその興味領域を見つけ出すために、たとえば、小型機器を操作して高解像度画像をディスプレイに縮小表示させ、その縮小表示画像の中のおおまかな位置を指定し、その指定位置における局所画像をディスプレイに拡大表示させる。その後、ユーザは、方向キーを押下してその拡大画像の表示位置を数画素単位で移動(スクロール)させつつ、その表示位置を興味領域に移動させる。しかしながら、画像サイズが大きくなる程に、表示位置が興味領域に達するまでに多くの操作時間を要していた。   When a high-resolution image such as a captured image is displayed on a small device mounted display such as a mobile phone with a digital camera, the resolution of the effective display area of the mounted display is low. There was a problem that it took a lot of time and effort to find the interested area of interest. In order to find the region of interest, for example, the user operates a small device to reduce the high-resolution image on the display, designates a rough position in the reduced display image, and displays the local image at the designated position. To zoom in. Thereafter, the user presses the direction key to move (scroll) the display position of the enlarged image in units of several pixels and move the display position to the region of interest. However, the larger the image size, the more operation time is required until the display position reaches the region of interest.

このような問題を解決するために、高解像度画像の中の興味領域を自動的に推定し、その興味領域の局所画像をディスプレイに拡大表示してユーザに提示し得る技術が存在する。たとえば、特許文献1(特開2006−277038号公報)、特許文献2(特開2006−261711号公報)、特許文献3(特開2003−44511号公報)、特許文献4(特開平11−345340号公報)および特許文献5(特表2004−520735号公報)には、興味領域を推定、検索または分類する技術が開示されている。
特開2006−277038号公報 特開2006−261711号公報 特開2003−44511号公報 特開平11−345340号公報 特表2004−520735号公報
In order to solve such a problem, there is a technique capable of automatically estimating a region of interest in a high-resolution image, displaying a local image of the region of interest on a display, and presenting it to a user. For example, Patent Literature 1 (Japanese Patent Laid-Open No. 2006-277038), Patent Literature 2 (Japanese Patent Laid-Open No. 2006-261711), Patent Literature 3 (Japanese Patent Laid-Open No. 2003-44511), Patent Literature 4 (Japanese Patent Laid-Open No. 11-345340). No.) and Patent Document 5 (Japanese Patent Publication No. 2004-520735) disclose techniques for estimating, searching or classifying a region of interest.
JP 2006-277038 A JP 2006-261711 A JP 2003-44511 A JP-A-11-345340 Japanese translation of PCT publication No. 2004-520735

しかしながら、上記特許文献1〜5に開示された従来技術では、推定された興味領域がユーザが視覚的に確認したい領域と一致しない場合があり、興味領域の推定精度が低いという問題がある。   However, in the conventional techniques disclosed in Patent Documents 1 to 5, there are cases where the estimated region of interest does not match the region that the user wants to visually confirm, and there is a problem that the estimation accuracy of the region of interest is low.

たとえば、特許文献1,2には、画像の中に現れている顔の画像をオブジェクトとして検出し、検出されたオブジェクトに対して重要度を設定し、高い重要度が設定されたオブジェクトを表示する技術が開示されている。しかしながら、人の顔に限らず、車両の画像などのオブジェクトを表示する画像領域が常に興味領域に関係するとは限らない。このため、多数の人が集まる競技場などの場所を撮像した場合には、撮像画像中の判別不能な多数のオブジェクトの中から特定のオブジェクトを選択しこれに対して重要度を設定することが難しい。   For example, in Patent Documents 1 and 2, an image of a face appearing in an image is detected as an object, an importance is set for the detected object, and an object with a high importance is displayed. Technology is disclosed. However, an image area for displaying an object such as a vehicle image is not always related to a region of interest, not limited to a human face. For this reason, when shooting a place such as a stadium where a large number of people gather, it is possible to select a specific object from among a large number of indistinguishable objects in the captured image and set the importance for this. difficult.

上記に鑑みて、本発明の目的は、撮像画像などの入力画像の中の興味領域を高い精度で推定し得る画像処理装置、画像処理方法および画像処理プログラムを提供することである。   In view of the above, an object of the present invention is to provide an image processing device, an image processing method, and an image processing program capable of estimating a region of interest in an input image such as a captured image with high accuracy.

本発明によれば、入力画像を解析して前記入力画像から少なくとも1つの特徴パターンを検出する画像解析部と、予め用意された複数の構図の各々と前記特徴パターンとの間の関連度を評価値として算出し、前記評価値に基づいて前記入力画像の構図を決定する構図決定部と、当該決定された構図を使用して前記入力画像中の興味領域を推定する領域推定部と、当該推定された興味領域の局所画像を出力する出力制御部と、を備えた画像処理装置が提供される。   According to the present invention, an image analysis unit that analyzes an input image and detects at least one feature pattern from the input image, and evaluates a degree of association between each of a plurality of prepared compositions and the feature pattern A composition determination unit that calculates a value and determines the composition of the input image based on the evaluation value, a region estimation unit that estimates a region of interest in the input image using the determined composition, and the estimation And an output control unit that outputs a local image of the region of interest.

本発明によれば、入力画像を解析して前記入力画像から少なくとも1つの特徴パターンを検出するステップと、予め用意された複数の構図の各々と前記特徴パターンとの間の関連度を評価値として算出し、前記評価値に基づいて前記入力画像の構図を決定するステップと、当該決定された構図を使用して前記入力画像中の興味領域を推定するステップと、当該推定された興味領域の局所画像を出力するステップと、を備えた画像処理方法が提供される。   According to the present invention, the step of analyzing the input image to detect at least one feature pattern from the input image, and the degree of association between each of a plurality of prepared compositions and the feature pattern is used as an evaluation value. Calculating and determining a composition of the input image based on the evaluation value; estimating a region of interest in the input image using the determined composition; and localizing the estimated region of interest An image processing method comprising: outputting an image.

本発明によれば、入力画像を解析して前記入力画像から少なくとも1つの特徴パターンを検出する画像解析処理と、予め用意された複数の構図の各々と前記特徴パターンとの間の関連度を評価値として算出し、前記評価値に基づいて前記入力画像の構図を決定する構図決定処理と、当該決定された構図を使用して前記入力画像中の興味領域を推定する領域推定処理と、当該推定された興味領域の局所画像を出力する出力制御処理と、をコンピュータに実行させる画像処理プログラムが提供される。   According to the present invention, an image analysis process that analyzes an input image and detects at least one feature pattern from the input image, and evaluates a degree of association between each of a plurality of prepared compositions and the feature pattern A composition determination process that calculates a composition of the input image based on the evaluation value, a region estimation process that estimates a region of interest in the input image using the determined composition, and the estimation An image processing program for causing a computer to execute an output control process for outputting a local image of the region of interest is provided.

本発明による画像処理装置、画像処理方法および画像処理プログラムは、予め用意された構図の各々と、入力画像から検出された特徴パターンとを比較して各構図と特徴パターンとの間の関連度を算出する。この関連度に基づいて入力画像の構図が決定されるので、当該決定された構図を使用して入力画像中の興味領域を高い精度で検出することが可能となる。   An image processing apparatus, an image processing method, and an image processing program according to the present invention compare each prepared composition with a feature pattern detected from an input image, and determine the degree of association between each composition and the feature pattern. calculate. Since the composition of the input image is determined based on this degree of association, it is possible to detect a region of interest in the input image with high accuracy using the determined composition.

以下、本発明の種々の実施形態を図面を参照しつつ説明する。なお、全ての図面において、同一機能を有する構成要素には同一符号が付されており、その詳細な説明を適宜省略する。   Hereinafter, various embodiments of the present invention will be described with reference to the drawings. In all the drawings, components having the same function are denoted by the same reference numerals, and detailed description thereof is omitted as appropriate.

(第1の実施形態)
図1は、本発明の第1の実施形態に係る画像処理装置10の概略構成を示す機能ブロック図である。図1に示されるように、この画像処理装置10は、撮像部110、データ処理部120、データ記憶部130およびディスプレイ140を有している。データ処理部120は、画像解析部121、構図決定部122、領域推定部123および表示制御部(出力制御部)129を含む。
(First embodiment)
FIG. 1 is a functional block diagram showing a schematic configuration of an image processing apparatus 10 according to the first embodiment of the present invention. As illustrated in FIG. 1, the image processing apparatus 10 includes an imaging unit 110, a data processing unit 120, a data storage unit 130, and a display 140. The data processing unit 120 includes an image analysis unit 121, a composition determination unit 122, a region estimation unit 123, and a display control unit (output control unit) 129.

画像解析部121は、入力画像を解析してこの入力画像から少なくとも1つの特徴パターンgを検出する機能を有している。構図決定部122は、予め用意された複数の構図C,C,…,C(pは3以上の整数)の各々と特徴パターンgとの間の関連度(または一致度)E,E,…,Eを評価値として算出し、これら評価値に基づいて入力画像の構図を決定する機能を有している。領域推定部123は、画像解析部121によって決定された構図を使用して入力画像中の興味領域を推定する機能を有している。そして、表示制御部129は、領域推定部123によって推定された興味領域の局所画像を出力する機能を有している。 The image analysis unit 121 analyzes the input image has a function of detecting at least one feature pattern g n from the input image. Composition determining unit 122, a plurality of composition C 1 prepared in advance, C 2, ..., C p (p is an integer of 3 or more) degree of relevance between each and feature pattern g n (or degree of coincidence) E 1 , E 2 ,..., Ep are calculated as evaluation values, and the composition of the input image is determined based on these evaluation values. The region estimation unit 123 has a function of estimating a region of interest in the input image using the composition determined by the image analysis unit 121. The display control unit 129 has a function of outputting a local image of the region of interest estimated by the region estimation unit 123.

データ記憶部130は、構図記憶部131と構図係数記憶部132を含む。構図記憶部131は、参照用の構図C,C,…,Cを表すデータセット(以下、構図データセットと呼ぶ。)を格納している。後述するように、構図決定部122は、構図記憶部131から構図データセットを取得しこれを評価値E,E,…,Eを算出するために使用する。構図係数記憶部132は、予め用意された構図C,C,…,Cにそれぞれ対応する構図係数λ,λ,…,λを記憶している。後述するようにこれら構図係数λ,λ,…,λは、それぞれ対応する構図C,C,…,Cに対する重み係数である。ユーザは、画像処理装置10の入力操作部(図示せず)を操作して、これら構図係数λ,λ,…,λの値を所定の数値範囲内の任意の値に設定することができる。 The data storage unit 130 includes a composition storage unit 131 and a composition coefficient storage unit 132. The composition storage unit 131 stores data sets (hereinafter referred to as composition data sets) representing reference compositions C 1 , C 2 ,..., C p . As described below, the composition determining unit 122, evaluation value obtains the composition data set from the composition memory unit 131 E 1, E 2, ... , is used to calculate the E p. Composition coefficient storage unit 132 stores composition C 1, C 2 prepared in advance, ..., composition coefficients lambda 1 respectively corresponding to the C p, lambda 2, ..., the lambda p. These Composition coefficients lambda 1 as described below, λ 2, ..., the lambda p, the corresponding composition C 1, C 2, ..., a weighting factor for C p. The user operates an input operation unit (not shown) of the image processing apparatus 10 to set the values of the composition coefficients λ 1 , λ 2 ,..., Λ p to arbitrary values within a predetermined numerical range. Can do.

なお、「画像の構図」とは、視覚的に安定した美観を与え得る、一画像の全体構成を表すものである。このため、一画像の中に現れる顔画像などのオブジェクトは、必ずしも画像の全体構成を表現するものではなく、構図であるとはいえない。後述する第2〜第4の実施形態においても同様である。   The “image composition” represents the entire configuration of one image that can give a visually stable aesthetic appearance. For this reason, an object such as a face image that appears in one image does not necessarily represent the entire configuration of the image, and cannot be said to be a composition. The same applies to the second to fourth embodiments described later.

各構図は、所定数の画素単位で重みが設定された1画面に相当する多階調パターンである。構図記憶部131には構図C,C,…,Cをそれぞれ表す構図データセットが格納されている。基本構図としては、たとえば、三分割構図(画面の縦方向と横方向とをそれぞれ三分割する基準線に重みが集中した構図)、日の丸構図(画面中央に重みが集中した構図)、三角構図(三角形の基準線または基準体に重みが集中した構図)、対象構図(画面の左右方向または上下方向に対称に配置された基準線または基準体に重みが集中した構図)、曲線構図(所定の曲線上に重みが集中した構図)、水平構図(画面内に配置された水平方向の基準線に重みが集中した構図)、放射線構図(画面内に放射状に分布する基準線または基準体に重みが集中した構図)および色面構図(画面に含まれる1つ以上の色面に重みが設定された構図)が挙げられる。図2(A)に三分割構図の典型例を、図2(B)に日の丸構図の典型例を、図2(C)に三角構図の典型例を、図2(D)に対称構図の典型例を、図2(E)に曲線構図の典型例を、図2(F)に水平構図の典型例を、図2(G)に放射線構図の典型例を、それぞれ示す。構図記憶部131に記憶される構図は、この種の基本構図、あるいは2以上の基本構図を重ね合わせて得られる合成構図であればよい。 Each composition is a multi-tone pattern corresponding to one screen in which a weight is set in units of a predetermined number of pixels. The composition storage unit 131 stores composition data sets representing the compositions C 1 , C 2 ,..., C p . Basic composition includes, for example, a three-part composition (composition in which weights are concentrated on a reference line that divides the vertical and horizontal directions of the screen into three parts), a Hinomaru composition (composition in which weights are concentrated in the center of the screen), and a triangular composition ( Triangular reference line or composition in which weights are concentrated on the reference body), target composition (composition in which weights are concentrated on the reference line or reference body symmetrically arranged in the horizontal or vertical direction of the screen), curved composition (predetermined curve) Composition with weights concentrated on top), horizontal composition (compositions with weights concentrated on a horizontal reference line arranged in the screen), radiation compositions (radiation composition on the reference line or reference body distributed radially in the screen) Composition) and color plane composition (composition in which weights are set for one or more color planes included in the screen). 2A shows a typical example of a three-part composition, FIG. 2B shows a typical example of a Hinomaru composition, FIG. 2C shows a typical example of a triangular composition, and FIG. 2D shows a typical example of a symmetric composition. FIG. 2E shows a typical example of a curved composition, FIG. 2F shows a typical example of a horizontal composition, and FIG. 2G shows a typical example of a radiation composition. The composition stored in the composition storage unit 131 may be this type of basic composition or a composite composition obtained by superimposing two or more basic compositions.

データ記憶部130は、揮発性メモリまたは不揮発性メモリなどの記録媒体(たとえば、半導体メモリや磁気記録媒体)と、この記録媒体に対してデータの書込と読出を行うための回路またはプログラムとで構成することができる。構図記憶部131と構図係数記憶部132は、予め記録媒体の所定の記憶領域上に構成されていてもよいし、あるいは、画像処理装置10の動作時に割り当てられる適当な記憶領域上に構成されてもよい。   The data storage unit 130 includes a recording medium such as a volatile memory or a non-volatile memory (for example, a semiconductor memory or a magnetic recording medium), and a circuit or program for writing and reading data on the recording medium. Can be configured. The composition storage unit 131 and the composition coefficient storage unit 132 may be configured in advance on a predetermined storage area of the recording medium, or may be configured on an appropriate storage area assigned when the image processing apparatus 10 is operated. Also good.

画像解析部121は、撮像部110から入力された撮像画像の色相や空間周波数を解析してこの撮像画像の特徴パターンを検出することができる。特徴パターンとしては、たとえば、顔や車両などのオブジェクトの位置または分布を示す多階調パターン、あるいは、オブジェクトのエッジを示す多階調パターンが挙げられる。撮像部110は、CCD撮像素子またはCMOS撮像素子などの固体撮像素子と、この固体撮像素子に被写体からの入射光を集光させるフォーカスシステムと、固体撮像素子の出力に画像処理を施す信号処理部とを有する。   The image analysis unit 121 can detect the feature pattern of the captured image by analyzing the hue and spatial frequency of the captured image input from the imaging unit 110. Examples of the feature pattern include a multi-tone pattern that indicates the position or distribution of an object such as a face or a vehicle, or a multi-tone pattern that indicates the edge of an object. The imaging unit 110 includes a solid-state imaging device such as a CCD imaging device or a CMOS imaging device, a focus system that collects incident light from a subject on the solid-state imaging device, and a signal processing unit that performs image processing on the output of the solid-state imaging device. And have.

構図決定部122は、構図記憶部131から構図データセットを取得するとともに、各構図C,C,…,Cにそれぞれ対応する構図係数λ,λ,…,λを構図係数記憶部132から取得する。画像解析部121でm個の特徴パターンg〜gが検出されたとき、構図決定部122は、参照用の構図C,C,…,Cの各々と特徴パターンg〜gとの間の関連度E,E,…,Eを評価値として算出する。具体的には、次の第1の評価式に従って評価値E,E,…,Eを算出することができる。 Composition determining unit 122 acquires the composition data set from the composition memory unit 131, the composition C 1, C 2, ..., composition coefficients lambda 1 respectively corresponding to the C p, lambda 2, ..., composition and lambda p coefficients Obtained from the storage unit 132. When the image analysis unit 121 detects m feature patterns g 1 to g m , the composition determination unit 122 uses each of the reference compositions C 1 , C 2 ,..., C p and the feature patterns g 1 to g. The degrees of association E 1 , E 2 ,..., Ep with m are calculated as evaluation values. Specifically, the evaluation value in accordance with a first evaluation formula of the following E 1, E 2, ..., it is possible to calculate the E p.

Figure 2009159023
Figure 2009159023

ここで、C(i,j),C(i,j),…,C(i,j)は、それぞれ、画面上i行j列目の画素位置における構図C,C,…,Cを表す値であり、g(i,j),g(i,j),…,g(i,j)は、それぞれ、画面上i行j列目の画素位置における特徴パターンg,g,…,gの画素値(たとえば、所定の色空間上の輝度値または色差値に相当する値)である。上記評価式中、C(i,j),C(i,j),…,C(i,j)には、それぞれ対応する構図係数λ,λ,…,λが重み付けされている。 Here, C 1 (i, j), C 2 (i, j),..., C p (i, j) are the composition C 1 , C 2 , .., C p , and g 1 (i, j), g 2 (i, j),..., G m (i, j) are respectively at the pixel position of the i-th row and j-th column on the screen. feature pattern g 1, g 2, ..., a pixel value of g m (e.g., a value corresponding to the luminance value or color difference value of the predetermined color space). In the above evaluation formula, C 1 (i, j) , C 2 (i, j), ..., the C p (i, j), the composition coefficient lambda 1 respectively corresponding, λ 2, ..., λ p is the weighting Has been.

構図決定部122は、算出された評価値E,E,…,Eに基づいて撮像画像の構図を決定する。決定される構図の数は、1個もしくは複数個となり得る。たとえば、算出された評価値E,E,…,Eのうちの最も高い値を有する構図を撮像画像の構図として決定してもよいし、あるいは、算出された評価値E,E,…,Eのうち閾値以上の値を有する2個以上の構図を撮像画像の構図として決定してもよい。 Composition determining unit 122, the calculated evaluation value E 1, E 2, ..., to determine the composition of the captured image based on E p. The number of compositions to be determined can be one or more. For example, the calculated evaluation value E 1, E 2, ..., may be determined as the composition of the captured image the composition having the highest value among the E p, or calculated evaluation value E 1, E 2, ..., two or more of the composition with a threshold value greater than of the E p may be determined as the composition of the captured image.

領域推定部123は、決定された構図を使用して撮像画像中の興味領域を推定し、その推定結果を表示制御部129に与える。領域推定部123は、当該決定された構図の多階調パターンのうちの比較的大きな値を有する領域に対応する画像領域を興味領域として選択することができる。より好ましくは、興味領域を抽出するために、次の第2の評価式に従って各画素につき評価値F(i,j)を算出すればよい。 The region estimation unit 123 estimates the region of interest in the captured image using the determined composition, and gives the estimation result to the display control unit 129. The region estimation unit 123 can select, as a region of interest, an image region corresponding to a region having a relatively large value in the determined multi-gradation pattern of the composition. More preferably, in order to extract a region of interest, an evaluation value F s (i, j) may be calculated for each pixel according to the following second evaluation formula.

Figure 2009159023
Figure 2009159023

この評価値F(i,j)は、決定された構図Cについての評価値である。領域推定部123は、評価値F(i,j)の1画面中の2次元分布(評価パターン)に基づいて興味領域を推定できる。たとえば、評価パターンのうち比較的大きな値を有する領域に対応する画像領域を興味領域として推定すればよい。 This evaluation value F s (i, j) is an evaluation value for the determined composition C s . The region estimation unit 123 can estimate the region of interest based on the two-dimensional distribution (evaluation pattern) in one screen of the evaluation value F s (i, j). For example, an image region corresponding to a region having a relatively large value in the evaluation pattern may be estimated as the region of interest.

構図決定部122が複数の構図を決定したときは、領域推定部123は、これら構図にそれぞれ対応する複数の評価値に基づいて各画素につき1つの全体評価値を算出することができる。領域推定部123は、全体評価値の1画面中の2次元分布(評価パターン)に基づいて興味領域を推定すればよい。たとえば、構図決定部122が撮像画像の構図として3個の構図C,C,Cを決定したとき、評価値F(i,j),F(i,j),F(i,j)の加算値または平均値を全体評価値としてもよいし、あるいは、複数の評価値分布にフィルタリングを施して1つの評価パターンを生成してもよい。 When the composition determination unit 122 determines a plurality of compositions, the region estimation unit 123 can calculate one overall evaluation value for each pixel based on a plurality of evaluation values respectively corresponding to these compositions. The region estimation unit 123 may estimate the region of interest based on a two-dimensional distribution (evaluation pattern) of the entire evaluation value in one screen. For example, when the composition determination unit 122 determines three compositions C 1 , C 2 , and C 3 as the composition of the captured image, the evaluation values F 1 (i, j), F 2 (i, j), and F 3 ( The added value or average value of i, j) may be used as the overall evaluation value, or one evaluation pattern may be generated by filtering a plurality of evaluation value distributions.

表示制御部129は、領域推定部123によって推定された興味領域の局所画像を抽出し、この局所画像をディスプレイ140に出力する。このとき、表示制御部129は、ユーザが視覚的に確認しやすいように、抽出された局所画像の解像度をより大きな解像度に変換することができる。あるいは、表示制御部129は、興味領域の局所画像と他の画像との合成画像をディスプレイ140に出力してもよい。   The display control unit 129 extracts a local image of the region of interest estimated by the region estimation unit 123 and outputs this local image to the display 140. At this time, the display control unit 129 can convert the resolution of the extracted local image into a larger resolution so that the user can easily confirm visually. Alternatively, the display control unit 129 may output a composite image of the local image of the region of interest and another image to the display 140.

複数の興味領域が推定された場合、表示制御部129は、これら興味領域の局所画像を拡大した画像を、高い評価値を有する画像から順番にディスプレイ140に表示させてもよいし、あるいは、これら興味領域の局所画像を低解像度のサムネイル画像に変換し、これらサムネイル画像の一覧をディスプレイ140に表示させてもよい。   When a plurality of regions of interest are estimated, the display control unit 129 may cause the display 140 to display images obtained by enlarging local images of these regions of interest on the display 140 in order from an image having a high evaluation value. The local image of the region of interest may be converted into a low-resolution thumbnail image, and a list of these thumbnail images may be displayed on the display 140.

上記構成を有する画像処理装置10の動作例を図3を参照しつつ以下に説明する。図3は、画像処理装置10による興味領域抽出の処理手順を概略的に示すフローチャートである。   An operation example of the image processing apparatus 10 having the above configuration will be described below with reference to FIG. FIG. 3 is a flowchart schematically showing a processing procedure for extracting the region of interest by the image processing apparatus 10.

ユーザが押しボタンやスイッチなどの入力操作部(図示せず)を操作すると、これに応じて撮像部110は、被写体を撮像して高解像度の撮像画像をデータ処理部120に出力する(ステップS10)。   When the user operates an input operation unit (not shown) such as a push button or a switch, the imaging unit 110 captures a subject and outputs a high-resolution captured image to the data processing unit 120 (step S10). ).

画像解析部121は、上記の通り、入力された撮像画像を解析して複数の特徴パターンg〜gを検出する(ステップS11)。次に、構図決定部122は、構図記憶部131から構図データセットを取得するとともに、構図係数記憶部132から構図データセットに対応する構図係数λ〜λを取得する(ステップS12)。そして、構図決定部122は、構図データセットと構図係数λ〜λとを用いて、構図C,C,…,Cの各々と特徴パターンg〜gとの間の関連度を表す評価値E,E,…,Eを算出して撮像画像の構図を決定する(ステップS13)。 As described above, the image analysis unit 121 analyzes the input captured image and detects a plurality of feature patterns g 1 to g m (step S11). Next, the composition determination unit 122 acquires a composition data set from the composition storage unit 131 and also acquires composition coefficients λ 1 to λ p corresponding to the composition data set from the composition coefficient storage unit 132 (step S12). Then, the composition determining unit 122 uses the composition data set and the composition coefficients λ 1 to λ p to relate the composition C 1 , C 2 ,..., C p to the feature patterns g 1 to g m. evaluation value E 1, E 2 representing the degree, ..., determine the composition of the captured image to calculate the E p (step S13).

図4(A),(B)および(C)は、それぞれ、参照用の三分割構図C、日の丸構図Cおよび三角構図Cを概略的に例示する図である。三分割構図Cでは、1画面を縦方向と横方向とにそれぞれ三分割する4本の基準線BL,BL,BL,BLに重みが設定されており、これら基準線の交点CPには、さらに大きな重みが設定されている。日の丸構図Cでは、画面中央の点A1に一番大きな重みが設定され、この中央の点A1を囲む領域A2に点A1よりも小さな重みが設定され、この領域A2を囲む領域A3に領域A2よりも小さな重みが設定されている。三角構図Cでは、逆V字状の基準線BL1に重みが設定され、この基準線BL1に隣接する基準線BL2に基準線BL1よりも小さな重みが設定されている。 FIGS. 4A, 4B, and 4C are diagrams schematically illustrating a reference three-part composition C 1 , a Hinomaru composition C 2, and a triangular composition C 3 , respectively. In tripartite composition C 1, 4 reference lines BL to each trisection one screen in the vertical direction and the horizontal direction, BL, BL, is set with weights to BL, the intersections CP of these reference lines, A larger weight is set. In Japanese flag Composition C 2, greater weight most is set in the center of the screen at the point A1, than the area A2 two points A1 surrounding the point A1 of the central set is small weight, area A2 to the area A3 surrounding the region A2 A smaller weight is set. In the triangular composition C 3, the weight is set in the reverse V-shaped reference line BL1, which is set smaller weights than the reference line BL1 to the reference line BL2 adjacent to the reference line BL1.

図5は、撮像画像の一例を概略的に示す図である。画像解析部121が図5の撮像画像を解析したとき、図6(A)〜(F)に示される特徴パターンg〜gを検出できる。図6(A)〜(D)の特徴パターンg,g,g,gは、撮像画像の中から同一色または同一輝度の領域を抽出して得たもの、図6(E)の特徴パターンgは、画像のエッジ成分を抽出して得たもの、そして、図6(F)は、花画像のオブジェクトを抽出して得たものである。 FIG. 5 is a diagram schematically illustrating an example of a captured image. When the image analysis unit 121 analyzes the captured image of FIG. 5, the feature patterns g 1 to g 6 shown in FIGS. 6A to 6F can be detected. The characteristic patterns g 1 , g 2 , g 3 , and g 4 in FIGS. 6A to 6D are obtained by extracting regions of the same color or the same luminance from the captured image, FIG. 6E. the characteristic pattern g 5 of those obtained by extracting an edge of an image component, and, FIG. 6 (F) are those obtained by extracting the object flower image.

構図決定部122は、上記第1の評価式に従って、図4(A)〜(C)の構図C〜Cの各々と図6の特徴パターンg〜gとの間の関連度E〜Eを算出することができる。条件を適当に設定すれば、三分割構図Cに対する評価値Eを170、日の丸構図Cに対する評価値Eを120、構図Cに対する評価値Eを50としてそれぞれ算出することができる。この場合、構図決定部122は、最も高い評価値Eを有する三分割構図Cを撮像画像の構図として決定することができる(ステップS13)。 Composition determining unit 122 according to the first evaluation formula, relevance E between the characteristic pattern g 1 to g 6 each and 6 of the composition C 1 -C 3 in FIG. 4 (A) ~ (C) it is possible to calculate the 1 to E 3. By suitably setting the conditions, the evaluation value E 1 for tripartite composition C 1 170, the evaluation value E 2 for HINOMARU Composition C 2 120, the evaluation value E 3 for composition C 3 can be calculated respectively as 50 . In this case, the composition determining unit 122 may determine a tripartite composition C 1 having the highest evaluation value E 1 as the composition of the captured image (step S13).

撮像画像の構図決定(ステップS13)の後は、領域推定部123は、上記第2の評価式に従い、当該決定された構図を使用して興味領域を推定する(ステップS14)。ここで、構図係数λ,λ,…,λについては、比較的高い頻度で使用される構図に対しては大きな重み係数(たとえば、0.8の値)を、比較的低い頻度で使用される構図に対しては小さな重み係数(たとえば、0.2の値)を、それぞれ設定することができる。あるいは、ユーザにとって比較的高い重要度を有する構図に対しては大きな重み係数を、ユーザにとって比較的低い重要度を有する構図に対しては小さな重み係数を、それぞれ設定してもよい。 After determining the composition of the captured image (step S13), the region estimation unit 123 estimates the region of interest using the determined composition according to the second evaluation formula (step S14). Here, for the composition coefficients λ 1 , λ 2 ,..., Λ p , a large weight coefficient (for example, a value of 0.8) is used at a relatively low frequency for a composition that is used at a relatively high frequency. A small weighting factor (for example, a value of 0.2) can be set for each composition used. Alternatively, a large weight coefficient may be set for a composition having a relatively high importance for the user, and a small weight coefficient may be set for a composition having a relatively low importance for the user.

前述の通り、構図決定部122が、図4(A)〜(C)の構図C〜Cの各々と図6の特徴パターンg〜gとの間の関連度E〜Eを算出して三分割構図Cを撮像画像の構図として決定した場合、領域推定部123で使用される評価式は次の通りになる。 As described above, the composition determining unit 122, relevance E 1 to E 3 between the characteristic pattern g 1 to g 6 each and 6 of the composition C 1 -C 3 in FIG. 4 (A) ~ (C) If the tripartite composition C 1 is calculated and determined as the composition of the captured image, evaluation formula used by the region estimation unit 123 is as follows.

Figure 2009159023
Figure 2009159023

ただし、この評価式につき、画像解析部121は、図6(A),(B),(E)の特徴パターンg,g,gのみを検出し、他の特徴パターンg,g,gを検出しないものとした。評価値F(i,j)を変数i,jの全ての値について算出することによって評価パターンを得ることができる。たとえば、この評価式の右辺第1項C(i,j)・g(i,j)の値は、図7(A)の2次元分布を形成するように、右辺第2項C(i,j)・g(i,j)の値は、図7(B)の2次元分布を形成するように、右辺第3項C(i,j)・g(i,j)の値は、図7(C)の2次元分布を形成するように、それぞれ算出できる。このとき、評価値F(i,j)は、図8の2次元分布すなわち評価パターンを形成するように算出される。 However, for this evaluation formula, the image analysis unit 121 detects only the feature patterns g 1 , g 2 , and g 5 in FIGS. 6A, 6B, and 6E, and the other feature patterns g 3 , g 5. 4, was assumed not detect the g 6. An evaluation pattern can be obtained by calculating the evaluation value F 1 (i, j) for all values of the variables i and j. For example, the value of the first term C 1 (i, j) · g 1 (i, j) on the right side of this evaluation formula is the second term C 1 on the right side so as to form the two-dimensional distribution of FIG. The values of (i, j) · g 2 (i, j) are set to the third term C 1 (i, j) · g 5 (i, j) on the right side so as to form the two-dimensional distribution of FIG. ) Can be calculated so as to form the two-dimensional distribution of FIG. At this time, the evaluation value F 1 (i, j) is calculated so as to form the two-dimensional distribution of FIG. 8, that is, the evaluation pattern.

領域推定部123は、図8の評価パターンの中の比較的大きな値を有する領域に対応する画像領域を興味領域として推定できる(ステップS14)。そして、表示制御部129は、領域推定部123によって推定された興味領域の局所画像を撮像画像から抽出し、この局所画像を解像度変換してディスプレイ140に出力する(ステップS15)。領域推定部123は、複数の興味領域が推定されたとき、各興味領域における評価値F(i,j)の総和に応じた順位を当該興味領域に割り当てることができる。興味領域は、高い順位を有する程にユーザにとっての関心度が高いものと推定することができるので、表示制御部129は、比較的高い順位をもつ興味領域の画像を優先的にディスプレイ140に表示させることが望ましい。 The region estimation unit 123 can estimate an image region corresponding to a region having a relatively large value in the evaluation pattern of FIG. 8 as a region of interest (step S14). Then, the display control unit 129 extracts a local image of the region of interest estimated by the region estimation unit 123 from the captured image, converts the resolution of the local image, and outputs it to the display 140 (step S15). When a plurality of regions of interest are estimated, the region estimation unit 123 can assign a rank corresponding to the sum of the evaluation values F s (i, j) in each region of interest to the region of interest. Since it is possible to estimate that the interest area has a higher rank, the higher the degree of interest for the user, the display control unit 129 preferentially displays an image of the interest area having a relatively high rank on the display 140. It is desirable to make it.

あるいは、表示制御部129は、図9に示される合成画像DSをディスプレイ140に表示させることができる。合成画像DSには、複数の興味領域のサムネイル画像が「1」、「2」、「3」、「4」という順位を付されて一覧表示されている。また、表示位置確認領域の画像(すなわち、撮像画像の解像度を小さいものに変換して得た縮小画像)V1が表示されており、この画像V1には、複数の興味領域の中からユーザが選択した興味領域の画像の位置を表す枠T1が示されている。さらに、枠T1に対応する拡大画像が、画質確認領域の画像V2として表示されている。ユーザが入力操作部を操作して興味領域のいずれかを選択すると、当該選択された興味領域の局所画像の位置が、表示位置確認領域の画像V1中に枠T1によって示される。同時に、興味領域の拡大画像が画質確認領域の画像V2として表示されることとなる。   Alternatively, the display control unit 129 can display the composite image DS shown in FIG. 9 on the display 140. In the composite image DS, thumbnail images of a plurality of regions of interest are displayed in a list with an order of “1”, “2”, “3”, “4”. Further, an image V1 of the display position confirmation area (that is, a reduced image obtained by converting the resolution of the captured image to a smaller one) V1 is displayed, and the user selects from among a plurality of regions of interest in this image V1. A frame T1 representing the position of the image of the region of interest is shown. Further, an enlarged image corresponding to the frame T1 is displayed as an image V2 in the image quality confirmation area. When the user operates the input operation unit to select any of the regions of interest, the position of the local image of the selected region of interest is indicated by a frame T1 in the image V1 of the display position confirmation region. At the same time, an enlarged image of the region of interest is displayed as an image V2 of the image quality confirmation region.

上記第1の実施形態に係る画像処理装置10の効果は以下の通りである。構図決定部122は、構図記憶部131に予め記憶された構図C,C,…,Cの各々と、検出された特徴パターンg〜gとの間の関連度E,E,…,Eを推定評価値として算出する。構図決定部122は、これら推定評価値E,E,…,Eに基づいて撮像画像の構図を決定するので、領域推定部123は、当該決定された構図を使用して撮像画像中の興味領域を高い精度で検出することが可能である。すなわち、当該決定された構図を判断基準として、撮像画像中の特徴パターン(たとえば、オブジェクト)が興味領域に該当するか否かを正確に推定することができる。 The effects of the image processing apparatus 10 according to the first embodiment are as follows. The composition determination unit 122 has degrees of association E 1 , E between each of the compositions C 1 , C 2 ,..., C p stored in advance in the composition storage unit 131 and the detected feature patterns g 1 to g m. 2 ,..., Ep are calculated as estimated evaluation values. Composition determining unit 122, they estimated evaluation value E 1, E 2, ..., because it determines the composition of the captured image on the basis of E p, the region estimating unit 123 in the captured image using the composition which is the determined It is possible to detect the region of interest with high accuracy. That is, it is possible to accurately estimate whether or not a feature pattern (for example, an object) in the captured image corresponds to the region of interest using the determined composition as a criterion.

また、上記第1の評価式に示したように、領域推定部123は、構図係数λ,λ,…,λを、それぞれ、構図C,C,…,Cに重み付けて評価値E,E,…,Eを算出することができる。重要度または使用頻度の比較的低い構図に対する評価値には小さな重み係数を設定し、重要度または使用頻度の比較的高い構図に対する評価値には大きな重み係数を設定することにより、興味領域の推定精度の向上が可能となる。 Further, as shown in the first evaluation expression, the area estimation unit 123, composition coefficients lambda 1, lambda 2, ..., the lambda p, respectively, the composition C 1, C 2, ..., Te weighting C p evaluation value E 1, E 2, ..., it is possible to calculate the E p. Estimate the region of interest by setting a small weighting factor for the evaluation value for a composition with relatively low importance or usage frequency and setting a large weighting factor for the evaluation value for a composition with relatively high importance or usage frequency The accuracy can be improved.

したがって、ユーザは、撮像画像において構図上重要な位置にある興味領域の画像を容易に確認することができる。   Therefore, the user can easily confirm the image of the region of interest at the important position in the composition in the captured image.

(第2の実施形態)
次に、本発明の第2の実施形態について説明する。図10は、第2の実施形態に係る画像処理装置11の概略構成を示す機能ブロック図である。この画像処理装置11は、データ処理部120Aおよびデータ記憶部130Aを有している。
(Second Embodiment)
Next, a second embodiment of the present invention will be described. FIG. 10 is a functional block diagram illustrating a schematic configuration of the image processing apparatus 11 according to the second embodiment. The image processing apparatus 11 includes a data processing unit 120A and a data storage unit 130A.

図10に示されるようにデータ処理部120Aは、構図決定部122Aと領域推定部123との間に係数設定部124を有しており、この係数設定部124は、構図決定部122Aの処理結果に基づいて、データ記憶部130Aの中の構図係数記憶部132に記憶されている構図係数λ〜λを更新する機能を有している。 As shown in FIG. 10, the data processing unit 120A includes a coefficient setting unit 124 between the composition determination unit 122A and the region estimation unit 123. The coefficient setting unit 124 is a processing result of the composition determination unit 122A. The composition coefficients λ 1 to λ p stored in the composition coefficient storage unit 132 in the data storage unit 130A are updated.

データ記憶部130Aは、履歴記憶部133を有しており、この履歴記憶部133は、構図C,C,…,Cそれぞれの累積使用回数N,N,…,Nを記憶している。構図決定部122Aは、図1の構図決定部122と同じ機能を有しており、この機能に加えて、履歴記憶部133に記憶されている累積使用回数N,N,…,Nを更新する機能を有している。係数設定部124は、更新後の累積使用回数N,N,…,Nに基づいて、構図係数記憶部132に記憶されている構図係数λ〜λを更新する。 Data storage unit 130A has a history storage unit 133, the history storage unit 133, composition C 1, C 2, ..., C p of each cumulative use frequency N 1, N 2, ..., a N p I remember it. The composition determining unit 122A has the same function as that of the composition determining unit 122 in FIG. 1, and in addition to this function, the cumulative number of use times N 1 , N 2 ,..., N p stored in the history storage unit 133. It has a function to update. The coefficient setting unit 124 updates the composition coefficients λ 1 to λ p stored in the composition coefficient storage unit 132 based on the updated accumulated number of times N 1 , N 2 ,..., N p .

上記画像処理装置11の動作例を図11を参照しつつ以下に説明する。図11は、画像処理装置11による処理手順を概略的に示すフローチャートである。   An example of the operation of the image processing apparatus 11 will be described below with reference to FIG. FIG. 11 is a flowchart schematically showing a processing procedure performed by the image processing apparatus 11.

図11のステップS10〜S13は、図3のステップS10〜S13と同じである。すなわち、撮像部110は被写体を撮像し(ステップS10)、画像解析部121は入力撮像画像を解析して複数の特徴パターンg〜gを検出し(ステップS11)、構図決定部122Aは、構図記憶部131から構図データセットを取得するとともに、構図係数記憶部132から構図係数λ〜λを取得する(ステップS12)。そして、構図決定部122Aは、構図データセットと構図係数λ〜λとを用いて、構図C,C,…,Cの各々と特徴パターンg〜gとの間の関連度を表す評価値E,E,…,Eを算出して撮像画像の構図を決定する(ステップS13)。 Steps S10 to S13 in FIG. 11 are the same as steps S10 to S13 in FIG. That is, the imaging unit 110 images a subject (step S10), the image analysis unit 121 analyzes the input captured image to detect a plurality of feature patterns g 1 to g m (step S11), and the composition determination unit 122A The composition data set is acquired from the composition storage unit 131, and the composition coefficients λ 1 to λ p are acquired from the composition coefficient storage unit 132 (step S12). Then, the composition determination unit 122A uses the composition data set and the composition coefficients λ 1 to λ p to relate the composition C 1 , C 2 ,..., C p to the feature patterns g 1 to g m. evaluation value E 1, E 2 representing the degree, ..., determine the composition of the captured image to calculate the E p (step S13).

その後、構図決定部122Aは、履歴記憶部133に記憶されている累積使用回数N,N,…,Nを更新する(ステップS20)。たとえば、構図決定部122Aが撮像画像の構図として構図Cを決定したとき、構図Cの累積使用回数Nが1だけインクリメントされる(N←N+1)。 Thereafter, the composition determining unit 122A is cumulative use stored in the history storage unit 133 the number N 1, N 2, ..., updates the N p (step S20). For example, when the composition determining unit 122A decides the composition C 1 as the composition of the captured image, the cumulative number of uses N 1 of the composition C 1 is incremented by 1 (N 1 ← N 1 +1 ).

係数設定部124は、構図決定部122Aによる構図の決定結果に基づいて、構図係数λ〜λを再計算し(ステップS21)、当該計算された構図係数λ〜λを構図係数記憶部132に記憶させることにより構図係数λ〜λを更新する(ステップS22)。このとき、係数設定部124は、累積使用回数が大きいほどに、対応する構図係数を大きな値に設定し、累積使用回数が小さいほどに、対応する構図係数を小さい値に設定することが望ましい。たとえば、ある構図Cの累積使用回数Nは、全構図の累積使用回数N〜Nの総和(=S=N+N+…+N)に対する累積使用回数Nの比率(=N/S)とすることができる。 The coefficient setting unit 124 recalculates the composition coefficients λ 1 to λ p based on the composition determination result by the composition determination unit 122A (step S21), and stores the calculated composition coefficients λ 1 to λ p in the composition coefficient storage. The composition coefficients λ 1 to λ p are updated by being stored in the unit 132 (step S22). At this time, it is desirable that the coefficient setting unit 124 sets the corresponding composition coefficient to a larger value as the cumulative number of uses increases, and sets the corresponding composition coefficient to a smaller value as the cumulative number of uses decreases. For example, the cumulative number of uses N r of a composition C r is the sum of the cumulative number of uses N 1 to N p of the total composition (= S = N 1 + N 2 + ... + N p) ratio of the cumulative use frequency N r for (= Nr / S).

また、たとえば、下記表1,2に示されるように構図A,B,C,D(A〜Dは、C,C,…,Cのいずれか)の累積使用回数が1回に設定され、構図係数がいずれも0.25に設定されている場合を想定する。 Also, for example, as shown in Tables 1 and 2 below, the cumulative number of uses of composition A, B, C, D (A to D is any one of C 1 , C 2 ,..., C p ) is one. It is assumed that all of the composition coefficients are set to 0.25.

Figure 2009159023
Figure 2009159023

Figure 2009159023
Figure 2009159023

この場合に、構図決定部122Aが撮像画像の構図として構図Aを決定したとき、下記表3,4に示されるように構図Aの累積使用回数が2回に設定され、構図Aの構図係数は0.4(=2/(2+1+1+1))に設定され、構図B〜Dの構図係数はいずれも0.2(=1/(2+1+1+1))に設定され得る。   In this case, when the composition determining unit 122A determines the composition A as the composition of the captured image, the cumulative use number of the composition A is set to 2 as shown in Tables 3 and 4 below, and the composition coefficient of the composition A is 0.4 (= 2 / (2 + 1 + 1 + 1)), and any of the composition coefficients of compositions B to D can be set to 0.2 (= 1 / (2 + 1 + 1 + 1)).

Figure 2009159023
Figure 2009159023

Figure 2009159023
Figure 2009159023

上記ステップS22の後、上記第1の実施形態と同様にステップS14,S15(図3)が実行される。   After step S22, steps S14 and S15 (FIG. 3) are executed in the same manner as in the first embodiment.

なお、本実施形態では、ステップS20〜S22が終了した後に、ステップS14,S15が実行されたが、これに限らず、ステップS20〜S22と並行にステップS14,S15が実行されてもよいし、あるいは、ステップS20〜S22の前にステップS14,S15が実行されてもよい。   In this embodiment, steps S14 and S15 are executed after steps S20 to S22 are completed. However, the present invention is not limited to this, and steps S14 and S15 may be executed in parallel with steps S20 to S22. Alternatively, steps S14 and S15 may be executed before steps S20 to S22.

上記第2の実施形態に係る画像処理装置11は、第1の実施形態と同様の効果を有し、さらに以下の効果を有している。すなわち、画像処理装置11においては、構図決定部122Aが構図C〜Cの使用履歴を履歴記憶部133に記録し(ステップS20)、係数設定部124がその使用履歴に基づき構図係数λ〜λを再計算して構図係数記憶部132の記憶内容を更新する(ステップS21,S22)。したがって、画像処理装置11は、ユーザの嗜好性を学習し、この嗜好性を反映した最適な構図を撮像画像の構図として決定することができる。それ故、興味領域の推定精度の更なる向上が可能となる。 The image processing apparatus 11 according to the second embodiment has the same effects as those of the first embodiment, and further has the following effects. That is, in the image processing apparatus 11, the composition determination unit 122A records the usage history of the compositions C 1 to C p in the history storage unit 133 (step S20), and the coefficient setting unit 124 uses the composition history λ 1 based on the usage history. recalculate the to [lambda] p and updates the storage contents of the composition coefficient storage unit 132 (step S21, S22). Therefore, the image processing apparatus 11 can learn the user's preference and can determine the optimum composition reflecting this preference as the composition of the captured image. Therefore, it is possible to further improve the estimation accuracy of the region of interest.

(第3の実施形態)
次に、本発明の第3の実施形態について説明する。図12は、第3の実施形態に係る画像処理装置12の概略構成を示す機能ブロック図である。この画像処理装置12は、データ処理部120Bおよびデータ記憶部130Bを有している。
(Third embodiment)
Next, a third embodiment of the present invention will be described. FIG. 12 is a functional block diagram illustrating a schematic configuration of the image processing apparatus 12 according to the third embodiment. The image processing apparatus 12 includes a data processing unit 120B and a data storage unit 130B.

図12に示されるようにデータ処理部120Bは、領域推定部123と表示制御部129との間にオブジェクト検出部125と画像補正部126を有している。領域推定部123は、上記の通りに推定された興味領域を特定する位置情報をオブジェクト検出部125に与える。オブジェクト検出部125は、データ記憶部130Bの中のオブジェクトデータ記憶部134を参照して、興味領域の局所画像中のオブジェクト(たとえば、顔、車両、草花、色構成を示す画像)を検出する機能を有している。   As illustrated in FIG. 12, the data processing unit 120 </ b> B includes an object detection unit 125 and an image correction unit 126 between the region estimation unit 123 and the display control unit 129. The region estimation unit 123 provides the object detection unit 125 with position information that identifies the region of interest estimated as described above. The object detection unit 125 refers to the object data storage unit 134 in the data storage unit 130B and detects an object (for example, an image showing a face, a vehicle, a flower, a color configuration) in a local image of the region of interest. have.

オブジェクトデータ記憶部134は、少なくとも1つの参照用オブジェクトの特徴を表すオブジェクトデータを格納している。オブジェクト検出部125は、バッファメモリ(図示せず)から興味領域の局所画像を読み出し、オブジェクトデータ記憶部134からオブジェクトデータを取得する。オブジェクト検出部125は、当該取得されたオブジェクトデータと興味領域の局所画像とをパターンマッチングすることによってオブジェクトの検出を試みる。その検出結果は画像補正部126に与えられる。   The object data storage unit 134 stores object data representing the characteristics of at least one reference object. The object detection unit 125 reads a local image of the region of interest from a buffer memory (not shown), and acquires object data from the object data storage unit 134. The object detection unit 125 attempts to detect an object by pattern matching the acquired object data and a local image of the region of interest. The detection result is given to the image correction unit 126.

画像補正部126は、画質補正データ記憶部135を参照して、検出オブジェクトに応じて局所画像の画質補正を実行する機能を有している。画質補正データ記憶部135には、参照用オブジェクトにそれぞれ対応する画質補正データセットが格納されている。画像補正部126は、画質補正データ記憶部135から、検出オブジェクトに対応する画質補正データセットを取得しこれを用いて局所画像の画質を補正することができる。   The image correction unit 126 has a function of referring to the image quality correction data storage unit 135 and executing image quality correction of the local image according to the detected object. The image quality correction data storage unit 135 stores image quality correction data sets respectively corresponding to the reference objects. The image correction unit 126 can acquire the image quality correction data set corresponding to the detected object from the image quality correction data storage unit 135 and use this to correct the image quality of the local image.

上記画像処理装置12の動作例を図13を参照しつつ以下に説明する。図13は、画像処理装置12による処理手順を概略的に示すフローチャートである。   An example of the operation of the image processing apparatus 12 will be described below with reference to FIG. FIG. 13 is a flowchart schematically showing a processing procedure performed by the image processing apparatus 12.

図13のステップS10〜S14は、図3のステップS10〜S14と同じである。すなわち、撮像部110は被写体を撮像し(ステップS10)、画像解析部121は入力撮像画像を解析して複数の特徴パターンg〜gを検出し(ステップS11)、構図決定部122は、構図記憶部131から構図データセットを取得するとともに、構図係数記憶部132から構図係数λ〜λを取得する(ステップS12)。また、構図決定部122は、構図データセットと構図係数λ〜λとを用いて、構図C,C,…,Cの各々と特徴パターンg〜gとの間の関連度を表す評価値E,E,…,Eを算出して撮像画像の構図を決定する(ステップS13)。そして、領域推定部123は、当該決定された構図を使用して興味領域を推定する(ステップS14)。 Steps S10 to S14 in FIG. 13 are the same as steps S10 to S14 in FIG. That is, the imaging unit 110 images a subject (step S10), the image analysis unit 121 analyzes the input captured image to detect a plurality of feature patterns g 1 to g m (step S11), and the composition determination unit 122 The composition data set is acquired from the composition storage unit 131, and the composition coefficients λ 1 to λ p are acquired from the composition coefficient storage unit 132 (step S12). In addition, the composition determination unit 122 uses the composition data set and the composition coefficients λ 1 to λ p to relate to each of the compositions C 1 , C 2 ,..., C p and the feature patterns g 1 to g m. evaluation value E 1, E 2 representing the degree, ..., determine the composition of the captured image to calculate the E p (step S13). Then, the region estimation unit 123 estimates a region of interest using the determined composition (step S14).

その後、オブジェクト検出部125は、オブジェクトデータ記憶部134を参照して、推定された興味領域の局所画像中のオブジェクトを検出する(ステップS30)。さらに画像補正部126は、画質補正データ記憶部135を参照して当該検出されたオブジェクトに応じて局所画像の画質を適正に補正する(ステップS31)。たとえば、検出されたオブジェクトが顔画像である場合には、画像補正部126は、画質補正データ記憶部135から顔画像用の画質補正データセットを取得しこれを用いて画質を補正する。このとき、画像補正部126は、検出された顔画像の肌色に応じて、当該顔画像の肌色を好ましい肌色へ色変換することができる。あるいは、検出されたオブジェクトが空の画像である場合、画像補正部126は、当該画像が青色に近い空色であれば、当該画像の色をより青色に、当該画像が赤色に近い空色であれば、当該画像の色を更なる夕焼け色に、それぞれ色変換することができる。   Thereafter, the object detection unit 125 refers to the object data storage unit 134 to detect an object in the local image of the estimated region of interest (step S30). Further, the image correction unit 126 appropriately corrects the image quality of the local image according to the detected object with reference to the image quality correction data storage unit 135 (step S31). For example, when the detected object is a face image, the image correction unit 126 acquires the image quality correction data set for the face image from the image quality correction data storage unit 135 and corrects the image quality using this. At this time, the image correcting unit 126 can color-convert the skin color of the face image into a preferable skin color according to the detected skin color of the face image. Alternatively, when the detected object is a sky image, the image correction unit 126 determines that the color of the image is a blue color if the image is a sky blue color close to blue, and if the image is a sky blue color close to red. The color of the image can be converted to a further sunset color.

上記ステップS31の後、上記第1の実施形態と同様にステップS15(図3)が実行される。なお、オブジェクト検出部125が局所画像中のオブジェクトを検出しないときも、上記第1の実施形態と同様にステップS15(図3)が実行される。   After step S31, step S15 (FIG. 3) is executed in the same manner as in the first embodiment. Even when the object detection unit 125 does not detect an object in the local image, step S15 (FIG. 3) is executed as in the first embodiment.

上記第3の実施形態に係る画像処理装置12は、第1の実施形態と同様の効果を有し、さらに以下の効果を有している。すなわち、画像補正部126は、興味領域の局所画像内のオブジェクト(被写体)の特性に合わせて興味領域の画質を適正に補正することができる。画像処理装置12がデジタルカメラであるとき、ユーザが事前に撮影モードを設定しなくても、興味領域の画質が適正かつ自動的に補正されるので、ユーザは、興味領域の画像を視覚的に容易に確認することが可能である。   The image processing apparatus 12 according to the third embodiment has the same effects as those of the first embodiment, and further has the following effects. That is, the image correction unit 126 can appropriately correct the image quality of the region of interest in accordance with the characteristics of the object (subject) in the local image of the region of interest. When the image processing device 12 is a digital camera, the image quality of the region of interest is appropriately and automatically corrected without the user setting the shooting mode in advance. It can be easily confirmed.

(第4の実施の形態)
次に、本発明の第4の実施形態について説明する。図14は、第4の実施形態に係る画像処理装置13の概略構成を示す機能ブロック図である。この画像処理装置13は、データ処理部120Cおよびデータ記憶部130Cを有している。
(Fourth embodiment)
Next, a fourth embodiment of the present invention will be described. FIG. 14 is a functional block diagram illustrating a schematic configuration of the image processing apparatus 13 according to the fourth embodiment. The image processing apparatus 13 includes a data processing unit 120C and a data storage unit 130C.

図14に示されるようにデータ処理部120Cは、構図決定部122と領域推定部123との間に構図生成部127を有しており、この構図生成部127は、構図決定部122によって決定された構図に基づいて新たな構図を生成する機能と、この新たに生成された構図に対応する構図係数を新たに設定する機能とを有している。構図記憶部131は、新たに生成された構図を記憶し、構図係数記憶部132は、新たに設定された構図係数を記憶する。   As illustrated in FIG. 14, the data processing unit 120 </ b> C includes a composition generation unit 127 between the composition determination unit 122 and the region estimation unit 123. The composition generation unit 127 is determined by the composition determination unit 122. A function of generating a new composition based on the composition, and a function of newly setting a composition coefficient corresponding to the newly generated composition. The composition storage unit 131 stores the newly generated composition, and the composition coefficient storage unit 132 stores the newly set composition coefficient.

上記画像処理装置13の動作例を図15を参照しつつ以下に説明する。図15は、画像処理装置13による処理手順を概略的に示すフローチャートである。   An example of the operation of the image processing apparatus 13 will be described below with reference to FIG. FIG. 15 is a flowchart schematically showing a processing procedure by the image processing apparatus 13.

図15のステップS10〜S13は、図3のステップS10〜S13と同じである。すなわち、撮像部110は被写体を撮像し(ステップS10)、画像解析部121は入力撮像画像を解析して複数の特徴パターンg〜gを検出し(ステップS11)、構図決定部122は、構図記憶部131から構図データセットを取得するとともに、構図係数記憶部132から構図係数λ〜λを取得する(ステップS12)。 Steps S10 to S13 in FIG. 15 are the same as steps S10 to S13 in FIG. That is, the imaging unit 110 images a subject (step S10), the image analysis unit 121 analyzes the input captured image to detect a plurality of feature patterns g 1 to g m (step S11), and the composition determination unit 122 The composition data set is acquired from the composition storage unit 131, and the composition coefficients λ 1 to λ p are acquired from the composition coefficient storage unit 132 (step S12).

さらに構図決定部122は、構図データセットと構図係数λ〜λとを用いて、構図C,C,…,Cの各々と特徴パターンg〜gとの間の関連度を表す評価値E,E,…,Eを算出して撮像画像の構図を決定する(ステップS13)。ここで、構図決定部122は、比較的高い評価値を有する2以上の構図を撮像画像の構図として選択し決定するものとする。 Further, the composition determination unit 122 uses the composition data set and the composition coefficients λ 1 to λ p to determine the degree of association between each of the compositions C 1 , C 2 ,..., C p and the feature patterns g 1 to g m. evaluation value representative of E 1, E 2, ..., to determine the composition of the captured image to calculate the E p (step S13). Here, it is assumed that the composition determination unit 122 selects and determines two or more compositions having relatively high evaluation values as the composition of the captured image.

その後、構図生成部127は、ステップS13で決定された2以上の構図のうち、互いの評価値が所定の閾値(しきい値)以下となる構図が存在するか否かを判定する(ステップS40)。たとえば、2個の構図C,Cが撮像画像の構図として決定されたとき(ステップS13)、評価値E,E間の差分絶対値(=|E−E|)が閾値以下となるか否かが判別される(ステップS40)。下記表5に示されるように4つの構図A,B,C,Dがそれぞれ120、118、20、10の評価値を有する場合、閾値が10であれば、構図A,Bの評価値間の差分絶対値が閾値以下となる。 Thereafter, the composition generation unit 127 determines whether or not there is a composition whose evaluation value is equal to or less than a predetermined threshold (threshold value) among the two or more compositions determined in step S13 (step S40). ). For example, when two compositions C 1 and C 2 are determined as the composition of the captured image (step S13), the difference absolute value (= | E 1 −E 2 |) between the evaluation values E 1 and E 2 is a threshold value. It is determined whether or not the following is true (step S40). As shown in Table 5 below, when the four compositions A, B, C, and D have evaluation values of 120, 118, 20, and 10, respectively, if the threshold is 10, between the evaluation values of the compositions A and B The difference absolute value is less than or equal to the threshold value.

Figure 2009159023
Figure 2009159023

互いの評価値間の差分絶対値が所定の閾値以下となる構図が存在しないと判定したときは(ステップS40)、構図生成部127は、処理をステップS14に移行させる。その後、上記第1の実施形態と同様にステップS14,S15(図3)が実行される。   When it is determined that there is no composition in which the absolute difference between the evaluation values is equal to or less than the predetermined threshold (step S40), the composition generation unit 127 shifts the processing to step S14. Thereafter, steps S14 and S15 (FIG. 3) are executed as in the first embodiment.

他方、互いの評価値間の差分絶対値が所定の閾値以下となる構図が存在すると判定したとき(ステップS40)、構図生成部127は、これら構図に基づいて新たな構図Cp+1を生成する(ステップS41)。たとえば、図16に示すように、三分割構図Cと日の丸構図Cとを画素毎に加算することにより新たな構図Cを生成することができる。このとき、三分割構図Cと日の丸構図Cにそれぞれ重みを付けて(構図C,Cにそれぞれ係数を乗算して)当該重み付けされた構図C,Cを加算してもよい。 On the other hand, when it is determined that there is a composition in which the absolute value of the difference between the evaluation values is equal to or less than a predetermined threshold (step S40), the composition generation unit 127 generates a new composition C p + 1 based on these compositions ( Step S41). For example, as shown in FIG. 16, a new composition C x can be generated by adding the three-part composition C 1 and the Hinomaru composition C 2 for each pixel. At this time, the weighted compositions C 1 and C 2 may be added by weighting each of the three-part composition C 1 and the Hinomaru composition C 2 (by multiplying the compositions C 1 and C 2 by respective coefficients). .

その後、構図生成部127は、新たに生成された構図Cp+1を構図記憶部131に記憶させる(ステップS42)。さらに構図生成部127は、構図Cp+1に対応する構図係数λp+1と構図係数λ〜λとを再計算する(ステップS43)。そして、構図生成部127は、これら構図係数λ〜λp+1を構図係数記憶部132に記憶させて構図係数を更新する(ステップS44)。 After that, the composition generation unit 127 stores the newly generated composition C p + 1 in the composition storage unit 131 (step S42). Furthermore the composition generating unit 127 recalculates the composition C p Composition coefficients corresponding to + 1 λ p + 1 and the composition coefficient lambda 1 to [lambda] p (step S43). Then, the composition generation unit 127 stores the composition coefficients λ 1 to λ p + 1 in the composition coefficient storage unit 132 and updates the composition coefficient (step S44).

上記ステップS44の後、上記第1の実施形態と同様にステップS14,S15(図3)が実行される。ステップS14では、新たに生成された構図が使用されてもよいし、あるいは、ステップS13で決定された複数の構図が使用されてもよい。   After step S44, steps S14 and S15 (FIG. 3) are executed in the same manner as in the first embodiment. In step S14, a newly generated composition may be used, or a plurality of compositions determined in step S13 may be used.

上記第4の実施形態に係る画像処理装置13は、第1の実施形態と同様の効果を有し、さらに以下の効果を有している。すなわち、画像処理装置13においては、構図生成部127は、互いの評価値の差分絶対値が小さい構図、言い換えれば、比較的互いに類似する構図に基づいて新たな構図を生成し(ステップS41)、この新たな構図に対応する構図係数を計算し(ステップS43)、構図記憶部131と構図係数記憶部132とに記憶されている構図と構図係数を更新する(ステップS42,S44)。よって、ユーザの嗜好性をより良く反映した構図を生成し利用することができるので、興味領域の推定精度の更なる向上が可能となる。   The image processing apparatus 13 according to the fourth embodiment has the same effects as those of the first embodiment, and further has the following effects. That is, in the image processing apparatus 13, the composition generation unit 127 generates a new composition based on a composition having a small absolute difference value between evaluation values, in other words, a composition that is relatively similar to each other (step S41). A composition coefficient corresponding to the new composition is calculated (step S43), and the composition and composition coefficient stored in the composition storage unit 131 and the composition coefficient storage unit 132 are updated (steps S42 and S44). Therefore, since it is possible to generate and use a composition that better reflects the user's preference, it is possible to further improve the estimation accuracy of the region of interest.

以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。たとえば、表示制御部129は、ディスプレイ140に局所画像を出力するが、これに限定されるものではない。表示制御部129が、局所画像を、通信ネットワーク、通信回線または接続ケーブルを介して外部機器に送信する機能を有していてもよい。   As mentioned above, although embodiment of this invention was described with reference to drawings, these are the illustrations of this invention, Various structures other than the above are also employable. For example, the display control unit 129 outputs a local image to the display 140, but is not limited to this. The display control unit 129 may have a function of transmitting a local image to an external device via a communication network, a communication line, or a connection cable.

また、データ処理部120,120A,120B,120Cには、撮像部110で撮像された画像が入力されたが、これに限らず、記録媒体から読み出された画像が入力されてもよく、あるいは、通信ネットワーク、通信回線または接続ケーブルを介して外部機器から受信された画像が入力されてもよい。   Further, the data processing units 120, 120A, 120B, and 120C are input with images captured by the imaging unit 110. However, the present invention is not limited to this, and an image read from a recording medium may be input. An image received from an external device via a communication network, a communication line, or a connection cable may be input.

上記第1の実施形態において、撮像部110、データ処理部120、データ記憶部130およびディスプレイ140は、デジタルカメラ内蔵の携帯電話のような機器に組み込まれていてもよいし、あるいは、これら構成要素110〜140の全部または一部が、通信ネットワークを介して相互接続された複数の機器に分散して組み込まれていてもよい。通信ネットワークとしては、パケット交換網(たとえば、インターネットやイントラネット)や小規模ネットワーク(たとえば、有線または無線LAN)が挙げられる。あるいは、構成要素110〜140の全部または一部が、SCSI(Small Computer System Interface)などのバス規格に準拠した接続ケーブルを介して接続されていてもよい。上記第2〜第4の実施形態に係る画像処理装置11〜13の構成要素についても同様である。   In the first embodiment, the imaging unit 110, the data processing unit 120, the data storage unit 130, and the display 140 may be incorporated in a device such as a mobile phone with a built-in digital camera, or these components. All or a part of 110 to 140 may be distributed and incorporated in a plurality of devices interconnected via a communication network. Examples of the communication network include a packet switching network (for example, the Internet and an intranet) and a small-scale network (for example, a wired or wireless LAN). Alternatively, all or part of the components 110 to 140 may be connected via a connection cable that conforms to a bus standard such as SCSI (Small Computer System Interface). The same applies to the components of the image processing apparatuses 11 to 13 according to the second to fourth embodiments.

また、上記第1の実施形態において、データ処理部120の機能ブロック121〜123,129の全部または一部が、半導体集積回路などのハードウェアで実現されてもよいし、あるいは、不揮発性メモリや光ディスクなどの記録媒体に記録されたプログラムまたはプログラムコードで実現されてもよい。このようなプログラムまたはプログラムコードは、機能ブロック121〜123,129の全部または一部の処理を、CPUなどのプロセッサを有するコンピュータに実行させるものである。上記第2〜第4の実施形態に係る画像処理装置11〜13の構成要素についても同様である。   In the first embodiment, all or part of the functional blocks 121 to 123 and 129 of the data processing unit 120 may be realized by hardware such as a semiconductor integrated circuit, or may be a nonvolatile memory or You may implement | achieve with the program or program code recorded on recording media, such as an optical disk. Such a program or program code causes a computer having a processor such as a CPU to execute all or part of the processing of the functional blocks 121 to 123 and 129. The same applies to the components of the image processing apparatuses 11 to 13 according to the second to fourth embodiments.

本発明の第1の実施形態に係る画像処理装置の概略構成を示す機能ブロック図である。1 is a functional block diagram illustrating a schematic configuration of an image processing apparatus according to a first embodiment of the present invention. (A)〜(G)は構図の典型例を示す図である。(A)-(G) are figures which show the typical example of a composition. 第1の実施形態に係る画像処理装置による処理手順を概略的に示すフローチャートである。3 is a flowchart schematically illustrating a processing procedure performed by the image processing apparatus according to the first embodiment. (A),(B)および(C)は、それぞれ、参照用の三分割構図、日の丸構図および三角構図を概略的に示す図である。(A), (B), and (C) are diagrams schematically showing a reference three-part composition, a Hinomaru composition, and a triangular composition, respectively. 撮像画像の一例を概略的に示す図である。It is a figure which shows an example of a captured image roughly. (A)〜(F)は、図5の撮像画像から検出された特徴パターンを概略的に示す図である。(A)-(F) is a figure which shows roughly the characteristic pattern detected from the captured image of FIG. (A)〜(C)は、評価式の各項の値が形成する二次元分布を示す図である。(A)-(C) are figures which show the two-dimensional distribution which the value of each term of an evaluation formula forms. 評価値の2次元分布である評価パターンを示す図である。It is a figure which shows the evaluation pattern which is a two-dimensional distribution of an evaluation value. 興味領域の画像の一覧を含む合成画像を示す図である。It is a figure which shows the synthesized image containing the list of the image of an area of interest. 本発明の第2の実施形態に係る画像処理装置の概略構成を示す機能ブロック図である。It is a functional block diagram which shows schematic structure of the image processing apparatus which concerns on the 2nd Embodiment of this invention. 第2の実施形態に係る画像処理装置による処理手順を概略的に示すフローチャートである。10 is a flowchart schematically showing a processing procedure by the image processing apparatus according to the second embodiment. 本発明の第3の実施形態に係る画像処理装置の概略構成を示す機能ブロック図である。It is a functional block diagram which shows schematic structure of the image processing apparatus which concerns on the 3rd Embodiment of this invention. 第3の実施形態に係る画像処理装置による処理手順を概略的に示すフローチャートである。10 is a flowchart schematically illustrating a processing procedure performed by an image processing apparatus according to a third embodiment. 本発明の第4の実施形態に係る画像処理装置の概略構成を示す機能ブロック図である。It is a functional block diagram which shows schematic structure of the image processing apparatus which concerns on the 4th Embodiment of this invention. 第4の実施形態に係る画像処理装置による処理手順を概略的に示すフローチャートである。14 is a flowchart schematically illustrating a processing procedure performed by an image processing apparatus according to a fourth embodiment. 構図生成方法の一例を説明するための図である。It is a figure for demonstrating an example of a composition production | generation method.

符号の説明Explanation of symbols

110 撮像部
10,11,12,13 画像処理装置
120,120A,120B,120C データ処理部
121 画像解析部
122,122A 構図決定部
123 領域推定部
124 係数設定部
125 オブジェクト検出部
126 画像補正部
127 構図生成部
129 表示制御部(出力制御部)
130,130A,130B,130C データ記憶部
131 構図記憶部
132 構図係数記憶部
133 履歴記憶部
134 オブジェクトデータ記憶部
135 画質補正データ記憶部
140 ディスプレイ
DESCRIPTION OF SYMBOLS 110 Imaging part 10, 11, 12, 13 Image processing apparatus 120,120A, 120B, 120C Data processing part 121 Image analysis part 122,122A Composition determination part 123 Area estimation part 124 Coefficient setting part 125 Object detection part 126 Image correction part 127 Composition generator 129 Display controller (output controller)
130, 130A, 130B, 130C Data storage unit 131 Composition storage unit 132 Composition coefficient storage unit 133 History storage unit 134 Object data storage unit 135 Image quality correction data storage unit 140 Display

Claims (24)

入力画像を解析して前記入力画像から少なくとも1つの特徴パターンを検出する画像解析部と、
予め用意された複数の構図の各々と前記特徴パターンとの間の関連度を評価値として算出し、前記評価値に基づいて前記入力画像の構図を決定する構図決定部と、
当該決定された構図を使用して前記入力画像中の興味領域を推定する領域推定部と、
当該推定された興味領域の局所画像を出力する出力制御部と、
を備えることを特徴とする画像処理装置。
An image analysis unit that analyzes the input image and detects at least one feature pattern from the input image;
Calculating a degree of association between each of a plurality of prepared compositions and the feature pattern as an evaluation value, and determining a composition of the input image based on the evaluation value;
A region estimation unit that estimates a region of interest in the input image using the determined composition;
An output control unit that outputs a local image of the estimated region of interest;
An image processing apparatus comprising:
請求項1記載の画像処理装置であって、前記予め用意された複数の構図にそれぞれ対応する構図係数を記憶する構図係数記憶部を更に備え、
前記構図決定部は、前記構図係数記憶部から前記構図係数を取得し、前記各構図に当該対応する構図係数を重み付け、当該重み付けされた構図の各々と前記特徴パターンとの間の関連度を前記評価値として算出することを特徴とする画像処理装置。
The image processing apparatus according to claim 1, further comprising a composition coefficient storage unit that stores composition coefficients respectively corresponding to the plurality of prepared compositions.
The composition determination unit acquires the composition coefficient from the composition coefficient storage unit, weights the composition coefficient corresponding to each composition, and determines the degree of association between each of the weighted composition and the feature pattern. An image processing apparatus characterized by being calculated as an evaluation value.
請求項2記載の画像処理装置であって、
前記構図係数記憶部に記憶されている構図係数を更新する係数設定部と、
前記予め用意された複数の構図それぞれの累積使用回数を記憶する履歴記憶部と、
を更に備え、
前記構図決定部は、前記予め用意された複数の構図の中から前記評価値として比較的高い値を有する構図を前記入力画像の構図として選択するとともに、前記履歴記憶部に記憶されている累積使用回数を更新し、
前記係数設定部は、当該更新後に前記履歴記憶部に記憶されている累積使用回数に基づいて、前記構図係数記憶部に記憶されている構図係数を更新することを特徴とする画像処理装置。
The image processing apparatus according to claim 2,
A coefficient setting unit for updating the composition coefficient stored in the composition coefficient storage unit;
A history storage unit for storing the cumulative number of times of use of each of the plurality of compositions prepared in advance;
Further comprising
The composition determination unit selects a composition having a relatively high value as the evaluation value from the plurality of compositions prepared in advance as the composition of the input image, and the cumulative use stored in the history storage unit Update the number of times,
The image processing apparatus, wherein the coefficient setting unit updates the composition coefficient stored in the composition coefficient storage unit on the basis of the cumulative use count stored in the history storage unit after the update.
請求項3記載の画像処理装置であって、前記係数設定部は、前記累積使用回数が大きいほどに当該対応する構図係数を大きな値に設定し、前記累積使用回数が小さいほどに当該対応する構図係数を小さい値に設定することによって前記構図係数を更新することを特徴とする画像処理装置。   4. The image processing apparatus according to claim 3, wherein the coefficient setting unit sets the corresponding composition coefficient to a larger value as the cumulative number of times of use is larger, and the corresponding composition as the cumulative number of times of use is smaller. An image processing apparatus, wherein the composition coefficient is updated by setting a coefficient to a small value. 請求項1から4のうちのいずれか1項に記載の画像処理装置であって、
前記興味領域中のオブジェクトを検出するオブジェクト検出部と、
当該検出されたオブジェクトに応じて前記局所画像の画質を補正する画像補正部と、
を更に備えることを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 4,
An object detection unit for detecting an object in the region of interest;
An image correction unit that corrects the image quality of the local image according to the detected object;
An image processing apparatus further comprising:
請求項5記載の画像処理装置であって、少なくとも1つの参照用オブジェクトの特徴を表すオブジェクトデータを格納するオブジェクトデータ記憶部を更に備え、
前記オブジェクト検出部は、前記オブジェクトデータ記憶部からオブジェクトデータを取得し、当該取得されたオブジェクトデータと前記興味領域の局所画像とをパターンマッチングすることによって前記オブジェクトを検出することを特徴とする画像処理装置。
6. The image processing apparatus according to claim 5, further comprising an object data storage unit that stores object data representing characteristics of at least one reference object.
The object detection unit acquires object data from the object data storage unit, and detects the object by pattern-matching the acquired object data and a local image of the region of interest. apparatus.
請求項6記載の画像処理装置であって、前記参照用オブジェクトにそれぞれ対応する画質補正データセットを格納する画質補正データ記憶部を更に備え、
前記画像補正部は、前記画質補正データ記憶部から当該対応する画質補正データセットを取得しこれを用いて前記局所画像の画質を補正することを特徴とする画像処理装置。
The image processing apparatus according to claim 6, further comprising an image quality correction data storage unit that stores image quality correction data sets respectively corresponding to the reference objects.
The image processing apparatus, wherein the image correction unit acquires the corresponding image quality correction data set from the image quality correction data storage unit and corrects the image quality of the local image using the acquired image quality correction data set.
請求項1記載の画像処理装置であって、
前記予め用意された複数の構図を表すデータを格納する構図記憶部を更に備え、
前記構図決定部は、前記構図記憶部から前記構図を表すデータを取得して前記評価値を算出することを特徴とする画像処理装置。
The image processing apparatus according to claim 1,
A composition storage unit for storing data representing the plurality of compositions prepared in advance;
The image determination apparatus, wherein the composition determination unit obtains data representing the composition from the composition storage unit and calculates the evaluation value.
請求項8記載の画像処理装置であって、
前記構図決定部によって決定された構図に基づいて新たに構図を生成するとともに、当該生成された構図に対応する構図係数を新たに設定する構図生成部と、
前記予め用意された複数の構図にそれぞれ対応する構図係数を記憶する構図係数記憶部と、
を更に備え、
前記構図記憶部は、前記構図生成部によって新たに生成された構図を表すデータを格納し、前記構図係数記憶部は、前記構図生成部によって新たに設定された構図係数を記憶することを特徴とする画像処理装置。
The image processing apparatus according to claim 8, wherein
A composition generating unit that newly generates a composition based on the composition determined by the composition determining unit and newly sets a composition coefficient corresponding to the generated composition;
A composition coefficient storage unit that stores composition coefficients respectively corresponding to the plurality of compositions prepared in advance;
Further comprising
The composition storage unit stores data representing a composition newly generated by the composition generation unit, and the composition coefficient storage unit stores a composition coefficient newly set by the composition generation unit. An image processing apparatus.
請求項9記載の画像処理装置であって、
前記構図決定部は、前記予め用意された複数の構図の中から2以上の構図を前記入力画像の構図として選択かつ決定し、
前記構図生成部は、当該選択された2以上の構図のうち互いの評価値間の差分絶対値が所定の閾値以下となる構図に基づいて新たに構図を生成することを特徴とする画像処理装置。
The image processing apparatus according to claim 9,
The composition determination unit selects and determines two or more compositions as the composition of the input image from the plurality of prepared compositions.
The composition generation unit newly generates a composition based on a composition in which a difference absolute value between evaluation values of each of the two or more selected compositions is equal to or less than a predetermined threshold value. .
請求項1から10のうちのいずれか1項に記載の画像処理装置であって、前記出力制御部は、前記局所画像をディスプレイに表示させることを特徴とする画像処理装置。   The image processing apparatus according to claim 1, wherein the output control unit displays the local image on a display. 請求項11記載の画像処理装置であって、被写体を撮影して前記入力画像を生成する撮像部と、前記ディスプレイとを更に備えることを特徴とする画像処理装置。   The image processing apparatus according to claim 11, further comprising an imaging unit that captures an image of a subject and generates the input image, and the display. 入力画像を解析して前記入力画像から少なくとも1つの特徴パターンを検出するステップと、
予め用意された複数の構図の各々と前記特徴パターンとの間の関連度を評価値として算出し、前記評価値に基づいて前記入力画像の構図を決定するステップと、
当該決定された構図を使用して前記入力画像中の興味領域を推定するステップと、
当該推定された興味領域の局所画像を出力するステップと、
を備えることを特徴とする画像処理方法。
Analyzing the input image to detect at least one feature pattern from the input image;
Calculating a degree of association between each of a plurality of prepared compositions and the feature pattern as an evaluation value, and determining the composition of the input image based on the evaluation value;
Estimating a region of interest in the input image using the determined composition;
Outputting a local image of the estimated region of interest;
An image processing method comprising:
請求項13記載の画像処理方法であって、前記構図を決定するステップにおいては、
前記予め用意された複数の構図にそれぞれ対応する構図係数を記憶する構図係数記憶部から前記構図係数を取得し、
前記各構図に当該対応する構図係数を重み付け、
当該重み付けされた構図の各々と前記特徴パターンとの間の関連度を前記評価値として算出する、
ことを特徴とする画像処理方法。
The image processing method according to claim 13, wherein in the step of determining the composition,
Obtaining the composition coefficient from a composition coefficient storage unit that stores composition coefficients respectively corresponding to the plurality of prepared compositions;
Weight each corresponding composition with the corresponding composition coefficient,
Calculating the degree of association between each of the weighted compositions and the feature pattern as the evaluation value;
An image processing method.
請求項14記載の画像処理方法であって、前記構図を決定するステップにおいては、
前記予め用意された複数の構図の中から前記評価値として比較的高い値を有する構図を前記入力画像の構図として選択するとともに、履歴記憶部に記憶されている、前記複数の構図それぞれの累積使用回数を更新し、
当該更新後に、前記履歴記憶部に記憶されている累積使用回数に基づいて、前記構図係数記憶部に記憶されている構図係数を更新する、
ことを特徴とする画像処理方法。
15. The image processing method according to claim 14, wherein in the step of determining the composition,
The composition having a relatively high value as the evaluation value is selected as the composition of the input image from the plurality of compositions prepared in advance, and the cumulative use of each of the plurality of compositions stored in the history storage unit Update the number of times,
After the update, the composition coefficient stored in the composition coefficient storage unit is updated based on the cumulative number of times stored in the history storage unit.
An image processing method.
請求項14または15記載の画像処理方法であって、
前記興味領域中のオブジェクトを検出するステップと、
当該検出されたオブジェクトに応じて前記局所画像の画質を補正するステップと、
を更に備えることを特徴とする画像処理方法。
The image processing method according to claim 14 or 15,
Detecting an object in the region of interest;
Correcting the image quality of the local image according to the detected object;
An image processing method, further comprising:
請求項14から16のうちのいずれか1項に記載の画像処理方法であって、前記構図を決定するステップにおいては、前記予め用意された複数の構図を表すデータを格納する構図記憶部から前記構図を表すデータを取得して前記評価値を算出することを特徴とする画像処理方法。   17. The image processing method according to claim 14, wherein in the step of determining the composition, the composition storage unit stores data representing the plurality of compositions prepared in advance. An image processing method characterized by obtaining data representing a composition and calculating the evaluation value. 請求項17記載の画像処理方法であって、
当該決定された構図に基づいて構図を新たに生成するとともに、当該生成された構図に対応する構図係数を新たに設定するステップを更に備え、
当該新たに生成された構図を表すデータは前記構図記憶部に格納され、当該新たに設定された構図係数は前記構図係数記憶部に記憶されることを特徴とする画像処理方法。
The image processing method according to claim 17, comprising:
A step of newly generating a composition based on the determined composition and further setting a composition coefficient corresponding to the generated composition;
An image processing method, wherein data representing the newly generated composition is stored in the composition storage unit, and the newly set composition coefficient is stored in the composition coefficient storage unit.
入力画像を解析して前記入力画像から少なくとも1つの特徴パターンを検出する画像解析処理と、
予め用意された複数の構図の各々と前記特徴パターンとの間の関連度を評価値として算出し、前記評価値に基づいて前記入力画像の構図を決定する構図決定処理と、
当該決定された構図を使用して前記入力画像中の興味領域を推定する領域推定処理と、
当該推定された興味領域の局所画像を出力する出力制御処理と、
をコンピュータに実行させることを特徴とする画像処理プログラム。
Image analysis processing for analyzing the input image and detecting at least one feature pattern from the input image;
Calculating a degree of association between each of a plurality of prepared compositions and the feature pattern as an evaluation value, and determining a composition of the input image based on the evaluation value;
Region estimation processing for estimating a region of interest in the input image using the determined composition;
Output control processing for outputting a local image of the estimated region of interest;
An image processing program for causing a computer to execute.
請求項19記載の画像処理プログラムであって、前記構図決定処理は、
前記予め用意された複数の構図にそれぞれ対応する構図係数を記憶する構図係数記憶部から前記構図係数を取得し、
前記各構図に当該対応する構図係数を重み付け、
当該重み付けされた構図の各々と前記特徴パターンとの間の関連度を前記評価値として算出する処理を含むことを特徴とする画像処理プログラム。
20. The image processing program according to claim 19, wherein the composition determination process includes:
Obtaining the composition coefficient from a composition coefficient storage unit that stores composition coefficients respectively corresponding to the plurality of prepared compositions;
Weight each corresponding composition with the corresponding composition coefficient,
An image processing program comprising a process of calculating a degree of association between each weighted composition and the feature pattern as the evaluation value.
請求項20記載の画像処理プログラムであって、
前記構図決定処理は、前記予め用意された複数の構図の中から前記評価値として比較的高い値を有する構図を前記入力画像の構図として選択するとともに、履歴記憶部に記憶されている、前記複数の構図それぞれの累積使用回数を更新する処理を含み、
前記係数設定処理は、当該更新後に、前記履歴記憶部に記憶されている累積使用回数に基づいて、前記構図係数記憶部に記憶されている構図係数を更新する処理を含む、
ことを特徴とする画像処理プログラム。
An image processing program according to claim 20, wherein
In the composition determination process, the composition having a relatively high value as the evaluation value is selected from the plurality of compositions prepared in advance as the composition of the input image, and is stored in the history storage unit. Including the process of updating the cumulative number of uses for each composition of
The coefficient setting process includes a process of updating the composition coefficient stored in the composition coefficient storage unit based on the cumulative number of times stored in the history storage unit after the update.
An image processing program characterized by that.
請求項19から21のうちのいずれか1項に記載の画像処理プログラムであって、
前記興味領域中のオブジェクトを検出するオブジェクト検出処理と、
当該検出されたオブジェクトに応じて前記局所画像の画質を補正する画像補正処理と、
を更にコンピュータに実行させることを特徴とする画像処理プログラム。
An image processing program according to any one of claims 19 to 21,
An object detection process for detecting an object in the region of interest;
Image correction processing for correcting the image quality of the local image in accordance with the detected object;
Is further executed by a computer.
請求項19から22のうちのいずれか1項に記載の画像処理プログラムであって、前記構図決定処理は、前記予め用意された複数の構図を表すデータを格納する構図記憶部から前記構図を表すデータを取得して前記評価値を算出する処理を含むことを特徴とする画像処理プログラム。   23. The image processing program according to claim 19, wherein the composition determination process represents the composition from a composition storage unit that stores data representing the plurality of compositions prepared in advance. An image processing program comprising a process of acquiring data and calculating the evaluation value. 請求項23記載の画像処理プログラムであって、前記構図決定処理によって決定された構図に基づいて構図を新たに生成するとともに、当該生成された構図に対応する構図係数を新たに設定する構図生成処理を更にコンピュータに実行させ、
前記構図生成処理は、当該新たに生成された構図を表すデータを前記構図記憶部に格納し、当該新たに設定された構図係数を前記構図係数記憶部に記憶させる処理を含むことを特徴とする画像処理プログラム。
24. The image processing program according to claim 23, wherein a composition is newly generated based on the composition determined by the composition determination process, and a composition coefficient corresponding to the generated composition is newly set. Is further executed on the computer,
The composition generation process includes a process of storing data representing the newly generated composition in the composition storage unit and storing the newly set composition coefficient in the composition coefficient storage unit. Image processing program.
JP2007331928A 2007-12-25 2007-12-25 Image processor, image processing method, and image processing program Pending JP2009159023A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007331928A JP2009159023A (en) 2007-12-25 2007-12-25 Image processor, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007331928A JP2009159023A (en) 2007-12-25 2007-12-25 Image processor, image processing method, and image processing program

Publications (1)

Publication Number Publication Date
JP2009159023A true JP2009159023A (en) 2009-07-16

Family

ID=40962607

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007331928A Pending JP2009159023A (en) 2007-12-25 2007-12-25 Image processor, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP2009159023A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2421247A1 (en) 2010-08-19 2012-02-22 Sony Corporation Image processing device, method, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2421247A1 (en) 2010-08-19 2012-02-22 Sony Corporation Image processing device, method, and program
JP2012042720A (en) * 2010-08-19 2012-03-01 Sony Corp Device, method, and program for processing image
US8737768B2 (en) 2010-08-19 2014-05-27 Sony Corporation Image processing device, method, and program

Similar Documents

Publication Publication Date Title
US8682104B2 (en) Image synthesizing apparatus, image synthesizing method, and image synthesizing program
JP5744437B2 (en) TRACKING DEVICE, TRACKING METHOD, AND PROGRAM
US8130278B2 (en) Method for forming an improved image using images with different resolutions
US8111946B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP5306563B2 (en) Imaging apparatus and image generation method
EP1431912A2 (en) Method and system for determining an area of importance in an archival image
US20100238325A1 (en) Image processor and recording medium
WO2011148760A1 (en) Image processing device, image capturing device, program and image processing method
JP2011151569A (en) Image processor, imaging apparatus, program, and image processing method
JP2017069926A (en) Image processing device, and image processing method, and program
JP6521626B2 (en) Object tracking device, method and program
JP2013162347A (en) Image processor, image processing method, program, and device
JP2022179514A (en) Control apparatus, imaging apparatus, control method, and program
JP5803058B2 (en) Image processing apparatus and method, and program
JP5970012B2 (en) Image processing apparatus and control method thereof
JP2005065048A (en) Picture processing method, picture processor and picture processing program
JP5738904B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
Rafinazari et al. Demosaicking algorithm for the Kodak-RGBW color filter array
JP2015035782A (en) Image processing device, imaging device, microscope system, image processing method, and image processing program
JP2009159023A (en) Image processor, image processing method, and image processing program
CN102186020A (en) Image processing apparatus and image processing method
JP2009273072A (en) High-definition image processing device, high-definition image processing method, and program
JP5963166B2 (en) Image restoration apparatus, method, and program
JP5928024B2 (en) Image processing apparatus, image processing method, and program
JP2014175733A (en) Image reproduction apparatus and image reproduction program