JP2009159023A - Image processor, image processing method, and image processing program - Google Patents
Image processor, image processing method, and image processing program Download PDFInfo
- Publication number
- JP2009159023A JP2009159023A JP2007331928A JP2007331928A JP2009159023A JP 2009159023 A JP2009159023 A JP 2009159023A JP 2007331928 A JP2007331928 A JP 2007331928A JP 2007331928 A JP2007331928 A JP 2007331928A JP 2009159023 A JP2009159023 A JP 2009159023A
- Authority
- JP
- Japan
- Prior art keywords
- composition
- image
- image processing
- storage unit
- coefficient
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、一画像の中の興味領域を推定し、この興味領域の画像を表示する技術に関する。 The present invention relates to a technique for estimating a region of interest in one image and displaying an image of this region of interest.
デジタルカメラ付き携帯電話機などの小型機器の搭載ディスプレイに撮像画像などの高解像度画像が表示される場合、搭載ディスプレイの有効表示領域の解像度が低いため、ユーザは、高解像度画像の中の、自己に関心のある興味領域を見つけ出すのに非常に時間と手間がかかるという問題があった。ユーザはその興味領域を見つけ出すために、たとえば、小型機器を操作して高解像度画像をディスプレイに縮小表示させ、その縮小表示画像の中のおおまかな位置を指定し、その指定位置における局所画像をディスプレイに拡大表示させる。その後、ユーザは、方向キーを押下してその拡大画像の表示位置を数画素単位で移動(スクロール)させつつ、その表示位置を興味領域に移動させる。しかしながら、画像サイズが大きくなる程に、表示位置が興味領域に達するまでに多くの操作時間を要していた。 When a high-resolution image such as a captured image is displayed on a small device mounted display such as a mobile phone with a digital camera, the resolution of the effective display area of the mounted display is low. There was a problem that it took a lot of time and effort to find the interested area of interest. In order to find the region of interest, for example, the user operates a small device to reduce the high-resolution image on the display, designates a rough position in the reduced display image, and displays the local image at the designated position. To zoom in. Thereafter, the user presses the direction key to move (scroll) the display position of the enlarged image in units of several pixels and move the display position to the region of interest. However, the larger the image size, the more operation time is required until the display position reaches the region of interest.
このような問題を解決するために、高解像度画像の中の興味領域を自動的に推定し、その興味領域の局所画像をディスプレイに拡大表示してユーザに提示し得る技術が存在する。たとえば、特許文献1(特開2006−277038号公報)、特許文献2(特開2006−261711号公報)、特許文献3(特開2003−44511号公報)、特許文献4(特開平11−345340号公報)および特許文献5(特表2004−520735号公報)には、興味領域を推定、検索または分類する技術が開示されている。
しかしながら、上記特許文献1〜5に開示された従来技術では、推定された興味領域がユーザが視覚的に確認したい領域と一致しない場合があり、興味領域の推定精度が低いという問題がある。
However, in the conventional techniques disclosed in
たとえば、特許文献1,2には、画像の中に現れている顔の画像をオブジェクトとして検出し、検出されたオブジェクトに対して重要度を設定し、高い重要度が設定されたオブジェクトを表示する技術が開示されている。しかしながら、人の顔に限らず、車両の画像などのオブジェクトを表示する画像領域が常に興味領域に関係するとは限らない。このため、多数の人が集まる競技場などの場所を撮像した場合には、撮像画像中の判別不能な多数のオブジェクトの中から特定のオブジェクトを選択しこれに対して重要度を設定することが難しい。
For example, in
上記に鑑みて、本発明の目的は、撮像画像などの入力画像の中の興味領域を高い精度で推定し得る画像処理装置、画像処理方法および画像処理プログラムを提供することである。 In view of the above, an object of the present invention is to provide an image processing device, an image processing method, and an image processing program capable of estimating a region of interest in an input image such as a captured image with high accuracy.
本発明によれば、入力画像を解析して前記入力画像から少なくとも1つの特徴パターンを検出する画像解析部と、予め用意された複数の構図の各々と前記特徴パターンとの間の関連度を評価値として算出し、前記評価値に基づいて前記入力画像の構図を決定する構図決定部と、当該決定された構図を使用して前記入力画像中の興味領域を推定する領域推定部と、当該推定された興味領域の局所画像を出力する出力制御部と、を備えた画像処理装置が提供される。 According to the present invention, an image analysis unit that analyzes an input image and detects at least one feature pattern from the input image, and evaluates a degree of association between each of a plurality of prepared compositions and the feature pattern A composition determination unit that calculates a value and determines the composition of the input image based on the evaluation value, a region estimation unit that estimates a region of interest in the input image using the determined composition, and the estimation And an output control unit that outputs a local image of the region of interest.
本発明によれば、入力画像を解析して前記入力画像から少なくとも1つの特徴パターンを検出するステップと、予め用意された複数の構図の各々と前記特徴パターンとの間の関連度を評価値として算出し、前記評価値に基づいて前記入力画像の構図を決定するステップと、当該決定された構図を使用して前記入力画像中の興味領域を推定するステップと、当該推定された興味領域の局所画像を出力するステップと、を備えた画像処理方法が提供される。 According to the present invention, the step of analyzing the input image to detect at least one feature pattern from the input image, and the degree of association between each of a plurality of prepared compositions and the feature pattern is used as an evaluation value. Calculating and determining a composition of the input image based on the evaluation value; estimating a region of interest in the input image using the determined composition; and localizing the estimated region of interest An image processing method comprising: outputting an image.
本発明によれば、入力画像を解析して前記入力画像から少なくとも1つの特徴パターンを検出する画像解析処理と、予め用意された複数の構図の各々と前記特徴パターンとの間の関連度を評価値として算出し、前記評価値に基づいて前記入力画像の構図を決定する構図決定処理と、当該決定された構図を使用して前記入力画像中の興味領域を推定する領域推定処理と、当該推定された興味領域の局所画像を出力する出力制御処理と、をコンピュータに実行させる画像処理プログラムが提供される。 According to the present invention, an image analysis process that analyzes an input image and detects at least one feature pattern from the input image, and evaluates a degree of association between each of a plurality of prepared compositions and the feature pattern A composition determination process that calculates a composition of the input image based on the evaluation value, a region estimation process that estimates a region of interest in the input image using the determined composition, and the estimation An image processing program for causing a computer to execute an output control process for outputting a local image of the region of interest is provided.
本発明による画像処理装置、画像処理方法および画像処理プログラムは、予め用意された構図の各々と、入力画像から検出された特徴パターンとを比較して各構図と特徴パターンとの間の関連度を算出する。この関連度に基づいて入力画像の構図が決定されるので、当該決定された構図を使用して入力画像中の興味領域を高い精度で検出することが可能となる。 An image processing apparatus, an image processing method, and an image processing program according to the present invention compare each prepared composition with a feature pattern detected from an input image, and determine the degree of association between each composition and the feature pattern. calculate. Since the composition of the input image is determined based on this degree of association, it is possible to detect a region of interest in the input image with high accuracy using the determined composition.
以下、本発明の種々の実施形態を図面を参照しつつ説明する。なお、全ての図面において、同一機能を有する構成要素には同一符号が付されており、その詳細な説明を適宜省略する。 Hereinafter, various embodiments of the present invention will be described with reference to the drawings. In all the drawings, components having the same function are denoted by the same reference numerals, and detailed description thereof is omitted as appropriate.
(第1の実施形態)
図1は、本発明の第1の実施形態に係る画像処理装置10の概略構成を示す機能ブロック図である。図1に示されるように、この画像処理装置10は、撮像部110、データ処理部120、データ記憶部130およびディスプレイ140を有している。データ処理部120は、画像解析部121、構図決定部122、領域推定部123および表示制御部(出力制御部)129を含む。
(First embodiment)
FIG. 1 is a functional block diagram showing a schematic configuration of an
画像解析部121は、入力画像を解析してこの入力画像から少なくとも1つの特徴パターンgnを検出する機能を有している。構図決定部122は、予め用意された複数の構図C1,C2,…,Cp(pは3以上の整数)の各々と特徴パターンgnとの間の関連度(または一致度)E1,E2,…,Epを評価値として算出し、これら評価値に基づいて入力画像の構図を決定する機能を有している。領域推定部123は、画像解析部121によって決定された構図を使用して入力画像中の興味領域を推定する機能を有している。そして、表示制御部129は、領域推定部123によって推定された興味領域の局所画像を出力する機能を有している。
The
データ記憶部130は、構図記憶部131と構図係数記憶部132を含む。構図記憶部131は、参照用の構図C1,C2,…,Cpを表すデータセット(以下、構図データセットと呼ぶ。)を格納している。後述するように、構図決定部122は、構図記憶部131から構図データセットを取得しこれを評価値E1,E2,…,Epを算出するために使用する。構図係数記憶部132は、予め用意された構図C1,C2,…,Cpにそれぞれ対応する構図係数λ1,λ2,…,λpを記憶している。後述するようにこれら構図係数λ1,λ2,…,λpは、それぞれ対応する構図C1,C2,…,Cpに対する重み係数である。ユーザは、画像処理装置10の入力操作部(図示せず)を操作して、これら構図係数λ1,λ2,…,λpの値を所定の数値範囲内の任意の値に設定することができる。
The
なお、「画像の構図」とは、視覚的に安定した美観を与え得る、一画像の全体構成を表すものである。このため、一画像の中に現れる顔画像などのオブジェクトは、必ずしも画像の全体構成を表現するものではなく、構図であるとはいえない。後述する第2〜第4の実施形態においても同様である。 The “image composition” represents the entire configuration of one image that can give a visually stable aesthetic appearance. For this reason, an object such as a face image that appears in one image does not necessarily represent the entire configuration of the image, and cannot be said to be a composition. The same applies to the second to fourth embodiments described later.
各構図は、所定数の画素単位で重みが設定された1画面に相当する多階調パターンである。構図記憶部131には構図C1,C2,…,Cpをそれぞれ表す構図データセットが格納されている。基本構図としては、たとえば、三分割構図(画面の縦方向と横方向とをそれぞれ三分割する基準線に重みが集中した構図)、日の丸構図(画面中央に重みが集中した構図)、三角構図(三角形の基準線または基準体に重みが集中した構図)、対象構図(画面の左右方向または上下方向に対称に配置された基準線または基準体に重みが集中した構図)、曲線構図(所定の曲線上に重みが集中した構図)、水平構図(画面内に配置された水平方向の基準線に重みが集中した構図)、放射線構図(画面内に放射状に分布する基準線または基準体に重みが集中した構図)および色面構図(画面に含まれる1つ以上の色面に重みが設定された構図)が挙げられる。図2(A)に三分割構図の典型例を、図2(B)に日の丸構図の典型例を、図2(C)に三角構図の典型例を、図2(D)に対称構図の典型例を、図2(E)に曲線構図の典型例を、図2(F)に水平構図の典型例を、図2(G)に放射線構図の典型例を、それぞれ示す。構図記憶部131に記憶される構図は、この種の基本構図、あるいは2以上の基本構図を重ね合わせて得られる合成構図であればよい。
Each composition is a multi-tone pattern corresponding to one screen in which a weight is set in units of a predetermined number of pixels. The
データ記憶部130は、揮発性メモリまたは不揮発性メモリなどの記録媒体(たとえば、半導体メモリや磁気記録媒体)と、この記録媒体に対してデータの書込と読出を行うための回路またはプログラムとで構成することができる。構図記憶部131と構図係数記憶部132は、予め記録媒体の所定の記憶領域上に構成されていてもよいし、あるいは、画像処理装置10の動作時に割り当てられる適当な記憶領域上に構成されてもよい。
The
画像解析部121は、撮像部110から入力された撮像画像の色相や空間周波数を解析してこの撮像画像の特徴パターンを検出することができる。特徴パターンとしては、たとえば、顔や車両などのオブジェクトの位置または分布を示す多階調パターン、あるいは、オブジェクトのエッジを示す多階調パターンが挙げられる。撮像部110は、CCD撮像素子またはCMOS撮像素子などの固体撮像素子と、この固体撮像素子に被写体からの入射光を集光させるフォーカスシステムと、固体撮像素子の出力に画像処理を施す信号処理部とを有する。
The
構図決定部122は、構図記憶部131から構図データセットを取得するとともに、各構図C1,C2,…,Cpにそれぞれ対応する構図係数λ1,λ2,…,λpを構図係数記憶部132から取得する。画像解析部121でm個の特徴パターンg1〜gmが検出されたとき、構図決定部122は、参照用の構図C1,C2,…,Cpの各々と特徴パターンg1〜gmとの間の関連度E1,E2,…,Epを評価値として算出する。具体的には、次の第1の評価式に従って評価値E1,E2,…,Epを算出することができる。
ここで、C1(i,j),C2(i,j),…,Cp(i,j)は、それぞれ、画面上i行j列目の画素位置における構図C1,C2,…,Cpを表す値であり、g1(i,j),g2(i,j),…,gm(i,j)は、それぞれ、画面上i行j列目の画素位置における特徴パターンg1,g2,…,gmの画素値(たとえば、所定の色空間上の輝度値または色差値に相当する値)である。上記評価式中、C1(i,j),C2(i,j),…,Cp(i,j)には、それぞれ対応する構図係数λ1,λ2,…,λpが重み付けされている。 Here, C 1 (i, j), C 2 (i, j),..., C p (i, j) are the composition C 1 , C 2 , .., C p , and g 1 (i, j), g 2 (i, j),..., G m (i, j) are respectively at the pixel position of the i-th row and j-th column on the screen. feature pattern g 1, g 2, ..., a pixel value of g m (e.g., a value corresponding to the luminance value or color difference value of the predetermined color space). In the above evaluation formula, C 1 (i, j) , C 2 (i, j), ..., the C p (i, j), the composition coefficient lambda 1 respectively corresponding, λ 2, ..., λ p is the weighting Has been.
構図決定部122は、算出された評価値E1,E2,…,Epに基づいて撮像画像の構図を決定する。決定される構図の数は、1個もしくは複数個となり得る。たとえば、算出された評価値E1,E2,…,Epのうちの最も高い値を有する構図を撮像画像の構図として決定してもよいし、あるいは、算出された評価値E1,E2,…,Epのうち閾値以上の値を有する2個以上の構図を撮像画像の構図として決定してもよい。
領域推定部123は、決定された構図を使用して撮像画像中の興味領域を推定し、その推定結果を表示制御部129に与える。領域推定部123は、当該決定された構図の多階調パターンのうちの比較的大きな値を有する領域に対応する画像領域を興味領域として選択することができる。より好ましくは、興味領域を抽出するために、次の第2の評価式に従って各画素につき評価値Fs(i,j)を算出すればよい。
The
この評価値Fs(i,j)は、決定された構図Csについての評価値である。領域推定部123は、評価値Fs(i,j)の1画面中の2次元分布(評価パターン)に基づいて興味領域を推定できる。たとえば、評価パターンのうち比較的大きな値を有する領域に対応する画像領域を興味領域として推定すればよい。
This evaluation value F s (i, j) is an evaluation value for the determined composition C s . The
構図決定部122が複数の構図を決定したときは、領域推定部123は、これら構図にそれぞれ対応する複数の評価値に基づいて各画素につき1つの全体評価値を算出することができる。領域推定部123は、全体評価値の1画面中の2次元分布(評価パターン)に基づいて興味領域を推定すればよい。たとえば、構図決定部122が撮像画像の構図として3個の構図C1,C2,C3を決定したとき、評価値F1(i,j),F2(i,j),F3(i,j)の加算値または平均値を全体評価値としてもよいし、あるいは、複数の評価値分布にフィルタリングを施して1つの評価パターンを生成してもよい。
When the
表示制御部129は、領域推定部123によって推定された興味領域の局所画像を抽出し、この局所画像をディスプレイ140に出力する。このとき、表示制御部129は、ユーザが視覚的に確認しやすいように、抽出された局所画像の解像度をより大きな解像度に変換することができる。あるいは、表示制御部129は、興味領域の局所画像と他の画像との合成画像をディスプレイ140に出力してもよい。
The
複数の興味領域が推定された場合、表示制御部129は、これら興味領域の局所画像を拡大した画像を、高い評価値を有する画像から順番にディスプレイ140に表示させてもよいし、あるいは、これら興味領域の局所画像を低解像度のサムネイル画像に変換し、これらサムネイル画像の一覧をディスプレイ140に表示させてもよい。
When a plurality of regions of interest are estimated, the
上記構成を有する画像処理装置10の動作例を図3を参照しつつ以下に説明する。図3は、画像処理装置10による興味領域抽出の処理手順を概略的に示すフローチャートである。
An operation example of the
ユーザが押しボタンやスイッチなどの入力操作部(図示せず)を操作すると、これに応じて撮像部110は、被写体を撮像して高解像度の撮像画像をデータ処理部120に出力する(ステップS10)。
When the user operates an input operation unit (not shown) such as a push button or a switch, the
画像解析部121は、上記の通り、入力された撮像画像を解析して複数の特徴パターンg1〜gmを検出する(ステップS11)。次に、構図決定部122は、構図記憶部131から構図データセットを取得するとともに、構図係数記憶部132から構図データセットに対応する構図係数λ1〜λpを取得する(ステップS12)。そして、構図決定部122は、構図データセットと構図係数λ1〜λpとを用いて、構図C1,C2,…,Cpの各々と特徴パターンg1〜gmとの間の関連度を表す評価値E1,E2,…,Epを算出して撮像画像の構図を決定する(ステップS13)。
As described above, the
図4(A),(B)および(C)は、それぞれ、参照用の三分割構図C1、日の丸構図C2および三角構図C3を概略的に例示する図である。三分割構図C1では、1画面を縦方向と横方向とにそれぞれ三分割する4本の基準線BL,BL,BL,BLに重みが設定されており、これら基準線の交点CPには、さらに大きな重みが設定されている。日の丸構図C2では、画面中央の点A1に一番大きな重みが設定され、この中央の点A1を囲む領域A2に点A1よりも小さな重みが設定され、この領域A2を囲む領域A3に領域A2よりも小さな重みが設定されている。三角構図C3では、逆V字状の基準線BL1に重みが設定され、この基準線BL1に隣接する基準線BL2に基準線BL1よりも小さな重みが設定されている。
FIGS. 4A, 4B, and 4C are diagrams schematically illustrating a reference three-part composition C 1 , a Hinomaru composition C 2, and a triangular composition C 3 , respectively. In
図5は、撮像画像の一例を概略的に示す図である。画像解析部121が図5の撮像画像を解析したとき、図6(A)〜(F)に示される特徴パターンg1〜g6を検出できる。図6(A)〜(D)の特徴パターンg1,g2,g3,g4は、撮像画像の中から同一色または同一輝度の領域を抽出して得たもの、図6(E)の特徴パターンg5は、画像のエッジ成分を抽出して得たもの、そして、図6(F)は、花画像のオブジェクトを抽出して得たものである。
FIG. 5 is a diagram schematically illustrating an example of a captured image. When the
構図決定部122は、上記第1の評価式に従って、図4(A)〜(C)の構図C1〜C3の各々と図6の特徴パターンg1〜g6との間の関連度E1〜E3を算出することができる。条件を適当に設定すれば、三分割構図C1に対する評価値E1を170、日の丸構図C2に対する評価値E2を120、構図C3に対する評価値E3を50としてそれぞれ算出することができる。この場合、構図決定部122は、最も高い評価値E1を有する三分割構図C1を撮像画像の構図として決定することができる(ステップS13)。
撮像画像の構図決定(ステップS13)の後は、領域推定部123は、上記第2の評価式に従い、当該決定された構図を使用して興味領域を推定する(ステップS14)。ここで、構図係数λ1,λ2,…,λpについては、比較的高い頻度で使用される構図に対しては大きな重み係数(たとえば、0.8の値)を、比較的低い頻度で使用される構図に対しては小さな重み係数(たとえば、0.2の値)を、それぞれ設定することができる。あるいは、ユーザにとって比較的高い重要度を有する構図に対しては大きな重み係数を、ユーザにとって比較的低い重要度を有する構図に対しては小さな重み係数を、それぞれ設定してもよい。
After determining the composition of the captured image (step S13), the
前述の通り、構図決定部122が、図4(A)〜(C)の構図C1〜C3の各々と図6の特徴パターンg1〜g6との間の関連度E1〜E3を算出して三分割構図C1を撮像画像の構図として決定した場合、領域推定部123で使用される評価式は次の通りになる。
As described above, the
ただし、この評価式につき、画像解析部121は、図6(A),(B),(E)の特徴パターンg1,g2,g5のみを検出し、他の特徴パターンg3,g4,g6を検出しないものとした。評価値F1(i,j)を変数i,jの全ての値について算出することによって評価パターンを得ることができる。たとえば、この評価式の右辺第1項C1(i,j)・g1(i,j)の値は、図7(A)の2次元分布を形成するように、右辺第2項C1(i,j)・g2(i,j)の値は、図7(B)の2次元分布を形成するように、右辺第3項C1(i,j)・g5(i,j)の値は、図7(C)の2次元分布を形成するように、それぞれ算出できる。このとき、評価値F1(i,j)は、図8の2次元分布すなわち評価パターンを形成するように算出される。
However, for this evaluation formula, the
領域推定部123は、図8の評価パターンの中の比較的大きな値を有する領域に対応する画像領域を興味領域として推定できる(ステップS14)。そして、表示制御部129は、領域推定部123によって推定された興味領域の局所画像を撮像画像から抽出し、この局所画像を解像度変換してディスプレイ140に出力する(ステップS15)。領域推定部123は、複数の興味領域が推定されたとき、各興味領域における評価値Fs(i,j)の総和に応じた順位を当該興味領域に割り当てることができる。興味領域は、高い順位を有する程にユーザにとっての関心度が高いものと推定することができるので、表示制御部129は、比較的高い順位をもつ興味領域の画像を優先的にディスプレイ140に表示させることが望ましい。
The
あるいは、表示制御部129は、図9に示される合成画像DSをディスプレイ140に表示させることができる。合成画像DSには、複数の興味領域のサムネイル画像が「1」、「2」、「3」、「4」という順位を付されて一覧表示されている。また、表示位置確認領域の画像(すなわち、撮像画像の解像度を小さいものに変換して得た縮小画像)V1が表示されており、この画像V1には、複数の興味領域の中からユーザが選択した興味領域の画像の位置を表す枠T1が示されている。さらに、枠T1に対応する拡大画像が、画質確認領域の画像V2として表示されている。ユーザが入力操作部を操作して興味領域のいずれかを選択すると、当該選択された興味領域の局所画像の位置が、表示位置確認領域の画像V1中に枠T1によって示される。同時に、興味領域の拡大画像が画質確認領域の画像V2として表示されることとなる。
Alternatively, the
上記第1の実施形態に係る画像処理装置10の効果は以下の通りである。構図決定部122は、構図記憶部131に予め記憶された構図C1,C2,…,Cpの各々と、検出された特徴パターンg1〜gmとの間の関連度E1,E2,…,Epを推定評価値として算出する。構図決定部122は、これら推定評価値E1,E2,…,Epに基づいて撮像画像の構図を決定するので、領域推定部123は、当該決定された構図を使用して撮像画像中の興味領域を高い精度で検出することが可能である。すなわち、当該決定された構図を判断基準として、撮像画像中の特徴パターン(たとえば、オブジェクト)が興味領域に該当するか否かを正確に推定することができる。
The effects of the
また、上記第1の評価式に示したように、領域推定部123は、構図係数λ1,λ2,…,λpを、それぞれ、構図C1,C2,…,Cpに重み付けて評価値E1,E2,…,Epを算出することができる。重要度または使用頻度の比較的低い構図に対する評価値には小さな重み係数を設定し、重要度または使用頻度の比較的高い構図に対する評価値には大きな重み係数を設定することにより、興味領域の推定精度の向上が可能となる。
Further, as shown in the first evaluation expression, the
したがって、ユーザは、撮像画像において構図上重要な位置にある興味領域の画像を容易に確認することができる。 Therefore, the user can easily confirm the image of the region of interest at the important position in the composition in the captured image.
(第2の実施形態)
次に、本発明の第2の実施形態について説明する。図10は、第2の実施形態に係る画像処理装置11の概略構成を示す機能ブロック図である。この画像処理装置11は、データ処理部120Aおよびデータ記憶部130Aを有している。
(Second Embodiment)
Next, a second embodiment of the present invention will be described. FIG. 10 is a functional block diagram illustrating a schematic configuration of the image processing apparatus 11 according to the second embodiment. The image processing apparatus 11 includes a
図10に示されるようにデータ処理部120Aは、構図決定部122Aと領域推定部123との間に係数設定部124を有しており、この係数設定部124は、構図決定部122Aの処理結果に基づいて、データ記憶部130Aの中の構図係数記憶部132に記憶されている構図係数λ1〜λpを更新する機能を有している。
As shown in FIG. 10, the
データ記憶部130Aは、履歴記憶部133を有しており、この履歴記憶部133は、構図C1,C2,…,Cpそれぞれの累積使用回数N1,N2,…,Npを記憶している。構図決定部122Aは、図1の構図決定部122と同じ機能を有しており、この機能に加えて、履歴記憶部133に記憶されている累積使用回数N1,N2,…,Npを更新する機能を有している。係数設定部124は、更新後の累積使用回数N1,N2,…,Npに基づいて、構図係数記憶部132に記憶されている構図係数λ1〜λpを更新する。
上記画像処理装置11の動作例を図11を参照しつつ以下に説明する。図11は、画像処理装置11による処理手順を概略的に示すフローチャートである。 An example of the operation of the image processing apparatus 11 will be described below with reference to FIG. FIG. 11 is a flowchart schematically showing a processing procedure performed by the image processing apparatus 11.
図11のステップS10〜S13は、図3のステップS10〜S13と同じである。すなわち、撮像部110は被写体を撮像し(ステップS10)、画像解析部121は入力撮像画像を解析して複数の特徴パターンg1〜gmを検出し(ステップS11)、構図決定部122Aは、構図記憶部131から構図データセットを取得するとともに、構図係数記憶部132から構図係数λ1〜λpを取得する(ステップS12)。そして、構図決定部122Aは、構図データセットと構図係数λ1〜λpとを用いて、構図C1,C2,…,Cpの各々と特徴パターンg1〜gmとの間の関連度を表す評価値E1,E2,…,Epを算出して撮像画像の構図を決定する(ステップS13)。
Steps S10 to S13 in FIG. 11 are the same as steps S10 to S13 in FIG. That is, the
その後、構図決定部122Aは、履歴記憶部133に記憶されている累積使用回数N1,N2,…,Npを更新する(ステップS20)。たとえば、構図決定部122Aが撮像画像の構図として構図C1を決定したとき、構図C1の累積使用回数N1が1だけインクリメントされる(N1←N1+1)。
Thereafter, the
係数設定部124は、構図決定部122Aによる構図の決定結果に基づいて、構図係数λ1〜λpを再計算し(ステップS21)、当該計算された構図係数λ1〜λpを構図係数記憶部132に記憶させることにより構図係数λ1〜λpを更新する(ステップS22)。このとき、係数設定部124は、累積使用回数が大きいほどに、対応する構図係数を大きな値に設定し、累積使用回数が小さいほどに、対応する構図係数を小さい値に設定することが望ましい。たとえば、ある構図Crの累積使用回数Nrは、全構図の累積使用回数N1〜Npの総和(=S=N1+N2+…+Np)に対する累積使用回数Nrの比率(=Nr/S)とすることができる。
The
また、たとえば、下記表1,2に示されるように構図A,B,C,D(A〜Dは、C1,C2,…,Cpのいずれか)の累積使用回数が1回に設定され、構図係数がいずれも0.25に設定されている場合を想定する。 Also, for example, as shown in Tables 1 and 2 below, the cumulative number of uses of composition A, B, C, D (A to D is any one of C 1 , C 2 ,..., C p ) is one. It is assumed that all of the composition coefficients are set to 0.25.
この場合に、構図決定部122Aが撮像画像の構図として構図Aを決定したとき、下記表3,4に示されるように構図Aの累積使用回数が2回に設定され、構図Aの構図係数は0.4(=2/(2+1+1+1))に設定され、構図B〜Dの構図係数はいずれも0.2(=1/(2+1+1+1))に設定され得る。
In this case, when the
上記ステップS22の後、上記第1の実施形態と同様にステップS14,S15(図3)が実行される。 After step S22, steps S14 and S15 (FIG. 3) are executed in the same manner as in the first embodiment.
なお、本実施形態では、ステップS20〜S22が終了した後に、ステップS14,S15が実行されたが、これに限らず、ステップS20〜S22と並行にステップS14,S15が実行されてもよいし、あるいは、ステップS20〜S22の前にステップS14,S15が実行されてもよい。 In this embodiment, steps S14 and S15 are executed after steps S20 to S22 are completed. However, the present invention is not limited to this, and steps S14 and S15 may be executed in parallel with steps S20 to S22. Alternatively, steps S14 and S15 may be executed before steps S20 to S22.
上記第2の実施形態に係る画像処理装置11は、第1の実施形態と同様の効果を有し、さらに以下の効果を有している。すなわち、画像処理装置11においては、構図決定部122Aが構図C1〜Cpの使用履歴を履歴記憶部133に記録し(ステップS20)、係数設定部124がその使用履歴に基づき構図係数λ1〜λpを再計算して構図係数記憶部132の記憶内容を更新する(ステップS21,S22)。したがって、画像処理装置11は、ユーザの嗜好性を学習し、この嗜好性を反映した最適な構図を撮像画像の構図として決定することができる。それ故、興味領域の推定精度の更なる向上が可能となる。
The image processing apparatus 11 according to the second embodiment has the same effects as those of the first embodiment, and further has the following effects. That is, in the image processing apparatus 11, the
(第3の実施形態)
次に、本発明の第3の実施形態について説明する。図12は、第3の実施形態に係る画像処理装置12の概略構成を示す機能ブロック図である。この画像処理装置12は、データ処理部120Bおよびデータ記憶部130Bを有している。
(Third embodiment)
Next, a third embodiment of the present invention will be described. FIG. 12 is a functional block diagram illustrating a schematic configuration of the
図12に示されるようにデータ処理部120Bは、領域推定部123と表示制御部129との間にオブジェクト検出部125と画像補正部126を有している。領域推定部123は、上記の通りに推定された興味領域を特定する位置情報をオブジェクト検出部125に与える。オブジェクト検出部125は、データ記憶部130Bの中のオブジェクトデータ記憶部134を参照して、興味領域の局所画像中のオブジェクト(たとえば、顔、車両、草花、色構成を示す画像)を検出する機能を有している。
As illustrated in FIG. 12, the
オブジェクトデータ記憶部134は、少なくとも1つの参照用オブジェクトの特徴を表すオブジェクトデータを格納している。オブジェクト検出部125は、バッファメモリ(図示せず)から興味領域の局所画像を読み出し、オブジェクトデータ記憶部134からオブジェクトデータを取得する。オブジェクト検出部125は、当該取得されたオブジェクトデータと興味領域の局所画像とをパターンマッチングすることによってオブジェクトの検出を試みる。その検出結果は画像補正部126に与えられる。
The object
画像補正部126は、画質補正データ記憶部135を参照して、検出オブジェクトに応じて局所画像の画質補正を実行する機能を有している。画質補正データ記憶部135には、参照用オブジェクトにそれぞれ対応する画質補正データセットが格納されている。画像補正部126は、画質補正データ記憶部135から、検出オブジェクトに対応する画質補正データセットを取得しこれを用いて局所画像の画質を補正することができる。
The
上記画像処理装置12の動作例を図13を参照しつつ以下に説明する。図13は、画像処理装置12による処理手順を概略的に示すフローチャートである。
An example of the operation of the
図13のステップS10〜S14は、図3のステップS10〜S14と同じである。すなわち、撮像部110は被写体を撮像し(ステップS10)、画像解析部121は入力撮像画像を解析して複数の特徴パターンg1〜gmを検出し(ステップS11)、構図決定部122は、構図記憶部131から構図データセットを取得するとともに、構図係数記憶部132から構図係数λ1〜λpを取得する(ステップS12)。また、構図決定部122は、構図データセットと構図係数λ1〜λpとを用いて、構図C1,C2,…,Cpの各々と特徴パターンg1〜gmとの間の関連度を表す評価値E1,E2,…,Epを算出して撮像画像の構図を決定する(ステップS13)。そして、領域推定部123は、当該決定された構図を使用して興味領域を推定する(ステップS14)。
Steps S10 to S14 in FIG. 13 are the same as steps S10 to S14 in FIG. That is, the
その後、オブジェクト検出部125は、オブジェクトデータ記憶部134を参照して、推定された興味領域の局所画像中のオブジェクトを検出する(ステップS30)。さらに画像補正部126は、画質補正データ記憶部135を参照して当該検出されたオブジェクトに応じて局所画像の画質を適正に補正する(ステップS31)。たとえば、検出されたオブジェクトが顔画像である場合には、画像補正部126は、画質補正データ記憶部135から顔画像用の画質補正データセットを取得しこれを用いて画質を補正する。このとき、画像補正部126は、検出された顔画像の肌色に応じて、当該顔画像の肌色を好ましい肌色へ色変換することができる。あるいは、検出されたオブジェクトが空の画像である場合、画像補正部126は、当該画像が青色に近い空色であれば、当該画像の色をより青色に、当該画像が赤色に近い空色であれば、当該画像の色を更なる夕焼け色に、それぞれ色変換することができる。
Thereafter, the
上記ステップS31の後、上記第1の実施形態と同様にステップS15(図3)が実行される。なお、オブジェクト検出部125が局所画像中のオブジェクトを検出しないときも、上記第1の実施形態と同様にステップS15(図3)が実行される。
After step S31, step S15 (FIG. 3) is executed in the same manner as in the first embodiment. Even when the
上記第3の実施形態に係る画像処理装置12は、第1の実施形態と同様の効果を有し、さらに以下の効果を有している。すなわち、画像補正部126は、興味領域の局所画像内のオブジェクト(被写体)の特性に合わせて興味領域の画質を適正に補正することができる。画像処理装置12がデジタルカメラであるとき、ユーザが事前に撮影モードを設定しなくても、興味領域の画質が適正かつ自動的に補正されるので、ユーザは、興味領域の画像を視覚的に容易に確認することが可能である。
The
(第4の実施の形態)
次に、本発明の第4の実施形態について説明する。図14は、第4の実施形態に係る画像処理装置13の概略構成を示す機能ブロック図である。この画像処理装置13は、データ処理部120Cおよびデータ記憶部130Cを有している。
(Fourth embodiment)
Next, a fourth embodiment of the present invention will be described. FIG. 14 is a functional block diagram illustrating a schematic configuration of the
図14に示されるようにデータ処理部120Cは、構図決定部122と領域推定部123との間に構図生成部127を有しており、この構図生成部127は、構図決定部122によって決定された構図に基づいて新たな構図を生成する機能と、この新たに生成された構図に対応する構図係数を新たに設定する機能とを有している。構図記憶部131は、新たに生成された構図を記憶し、構図係数記憶部132は、新たに設定された構図係数を記憶する。
As illustrated in FIG. 14, the
上記画像処理装置13の動作例を図15を参照しつつ以下に説明する。図15は、画像処理装置13による処理手順を概略的に示すフローチャートである。
An example of the operation of the
図15のステップS10〜S13は、図3のステップS10〜S13と同じである。すなわち、撮像部110は被写体を撮像し(ステップS10)、画像解析部121は入力撮像画像を解析して複数の特徴パターンg1〜gmを検出し(ステップS11)、構図決定部122は、構図記憶部131から構図データセットを取得するとともに、構図係数記憶部132から構図係数λ1〜λpを取得する(ステップS12)。
Steps S10 to S13 in FIG. 15 are the same as steps S10 to S13 in FIG. That is, the
さらに構図決定部122は、構図データセットと構図係数λ1〜λpとを用いて、構図C1,C2,…,Cpの各々と特徴パターンg1〜gmとの間の関連度を表す評価値E1,E2,…,Epを算出して撮像画像の構図を決定する(ステップS13)。ここで、構図決定部122は、比較的高い評価値を有する2以上の構図を撮像画像の構図として選択し決定するものとする。
Further, the
その後、構図生成部127は、ステップS13で決定された2以上の構図のうち、互いの評価値が所定の閾値(しきい値)以下となる構図が存在するか否かを判定する(ステップS40)。たとえば、2個の構図C1,C2が撮像画像の構図として決定されたとき(ステップS13)、評価値E1,E2間の差分絶対値(=|E1−E2|)が閾値以下となるか否かが判別される(ステップS40)。下記表5に示されるように4つの構図A,B,C,Dがそれぞれ120、118、20、10の評価値を有する場合、閾値が10であれば、構図A,Bの評価値間の差分絶対値が閾値以下となる。
Thereafter, the
互いの評価値間の差分絶対値が所定の閾値以下となる構図が存在しないと判定したときは(ステップS40)、構図生成部127は、処理をステップS14に移行させる。その後、上記第1の実施形態と同様にステップS14,S15(図3)が実行される。
When it is determined that there is no composition in which the absolute difference between the evaluation values is equal to or less than the predetermined threshold (step S40), the
他方、互いの評価値間の差分絶対値が所定の閾値以下となる構図が存在すると判定したとき(ステップS40)、構図生成部127は、これら構図に基づいて新たな構図Cp+1を生成する(ステップS41)。たとえば、図16に示すように、三分割構図C1と日の丸構図C2とを画素毎に加算することにより新たな構図Cxを生成することができる。このとき、三分割構図C1と日の丸構図C2にそれぞれ重みを付けて(構図C1,C2にそれぞれ係数を乗算して)当該重み付けされた構図C1,C2を加算してもよい。
On the other hand, when it is determined that there is a composition in which the absolute value of the difference between the evaluation values is equal to or less than a predetermined threshold (step S40), the
その後、構図生成部127は、新たに生成された構図Cp+1を構図記憶部131に記憶させる(ステップS42)。さらに構図生成部127は、構図Cp+1に対応する構図係数λp+1と構図係数λ1〜λpとを再計算する(ステップS43)。そして、構図生成部127は、これら構図係数λ1〜λp+1を構図係数記憶部132に記憶させて構図係数を更新する(ステップS44)。
After that, the
上記ステップS44の後、上記第1の実施形態と同様にステップS14,S15(図3)が実行される。ステップS14では、新たに生成された構図が使用されてもよいし、あるいは、ステップS13で決定された複数の構図が使用されてもよい。 After step S44, steps S14 and S15 (FIG. 3) are executed in the same manner as in the first embodiment. In step S14, a newly generated composition may be used, or a plurality of compositions determined in step S13 may be used.
上記第4の実施形態に係る画像処理装置13は、第1の実施形態と同様の効果を有し、さらに以下の効果を有している。すなわち、画像処理装置13においては、構図生成部127は、互いの評価値の差分絶対値が小さい構図、言い換えれば、比較的互いに類似する構図に基づいて新たな構図を生成し(ステップS41)、この新たな構図に対応する構図係数を計算し(ステップS43)、構図記憶部131と構図係数記憶部132とに記憶されている構図と構図係数を更新する(ステップS42,S44)。よって、ユーザの嗜好性をより良く反映した構図を生成し利用することができるので、興味領域の推定精度の更なる向上が可能となる。
The
以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。たとえば、表示制御部129は、ディスプレイ140に局所画像を出力するが、これに限定されるものではない。表示制御部129が、局所画像を、通信ネットワーク、通信回線または接続ケーブルを介して外部機器に送信する機能を有していてもよい。
As mentioned above, although embodiment of this invention was described with reference to drawings, these are the illustrations of this invention, Various structures other than the above are also employable. For example, the
また、データ処理部120,120A,120B,120Cには、撮像部110で撮像された画像が入力されたが、これに限らず、記録媒体から読み出された画像が入力されてもよく、あるいは、通信ネットワーク、通信回線または接続ケーブルを介して外部機器から受信された画像が入力されてもよい。
Further, the
上記第1の実施形態において、撮像部110、データ処理部120、データ記憶部130およびディスプレイ140は、デジタルカメラ内蔵の携帯電話のような機器に組み込まれていてもよいし、あるいは、これら構成要素110〜140の全部または一部が、通信ネットワークを介して相互接続された複数の機器に分散して組み込まれていてもよい。通信ネットワークとしては、パケット交換網(たとえば、インターネットやイントラネット)や小規模ネットワーク(たとえば、有線または無線LAN)が挙げられる。あるいは、構成要素110〜140の全部または一部が、SCSI(Small Computer System Interface)などのバス規格に準拠した接続ケーブルを介して接続されていてもよい。上記第2〜第4の実施形態に係る画像処理装置11〜13の構成要素についても同様である。
In the first embodiment, the
また、上記第1の実施形態において、データ処理部120の機能ブロック121〜123,129の全部または一部が、半導体集積回路などのハードウェアで実現されてもよいし、あるいは、不揮発性メモリや光ディスクなどの記録媒体に記録されたプログラムまたはプログラムコードで実現されてもよい。このようなプログラムまたはプログラムコードは、機能ブロック121〜123,129の全部または一部の処理を、CPUなどのプロセッサを有するコンピュータに実行させるものである。上記第2〜第4の実施形態に係る画像処理装置11〜13の構成要素についても同様である。
In the first embodiment, all or part of the
110 撮像部
10,11,12,13 画像処理装置
120,120A,120B,120C データ処理部
121 画像解析部
122,122A 構図決定部
123 領域推定部
124 係数設定部
125 オブジェクト検出部
126 画像補正部
127 構図生成部
129 表示制御部(出力制御部)
130,130A,130B,130C データ記憶部
131 構図記憶部
132 構図係数記憶部
133 履歴記憶部
134 オブジェクトデータ記憶部
135 画質補正データ記憶部
140 ディスプレイ
DESCRIPTION OF
130, 130A, 130B, 130C
Claims (24)
予め用意された複数の構図の各々と前記特徴パターンとの間の関連度を評価値として算出し、前記評価値に基づいて前記入力画像の構図を決定する構図決定部と、
当該決定された構図を使用して前記入力画像中の興味領域を推定する領域推定部と、
当該推定された興味領域の局所画像を出力する出力制御部と、
を備えることを特徴とする画像処理装置。 An image analysis unit that analyzes the input image and detects at least one feature pattern from the input image;
Calculating a degree of association between each of a plurality of prepared compositions and the feature pattern as an evaluation value, and determining a composition of the input image based on the evaluation value;
A region estimation unit that estimates a region of interest in the input image using the determined composition;
An output control unit that outputs a local image of the estimated region of interest;
An image processing apparatus comprising:
前記構図決定部は、前記構図係数記憶部から前記構図係数を取得し、前記各構図に当該対応する構図係数を重み付け、当該重み付けされた構図の各々と前記特徴パターンとの間の関連度を前記評価値として算出することを特徴とする画像処理装置。 The image processing apparatus according to claim 1, further comprising a composition coefficient storage unit that stores composition coefficients respectively corresponding to the plurality of prepared compositions.
The composition determination unit acquires the composition coefficient from the composition coefficient storage unit, weights the composition coefficient corresponding to each composition, and determines the degree of association between each of the weighted composition and the feature pattern. An image processing apparatus characterized by being calculated as an evaluation value.
前記構図係数記憶部に記憶されている構図係数を更新する係数設定部と、
前記予め用意された複数の構図それぞれの累積使用回数を記憶する履歴記憶部と、
を更に備え、
前記構図決定部は、前記予め用意された複数の構図の中から前記評価値として比較的高い値を有する構図を前記入力画像の構図として選択するとともに、前記履歴記憶部に記憶されている累積使用回数を更新し、
前記係数設定部は、当該更新後に前記履歴記憶部に記憶されている累積使用回数に基づいて、前記構図係数記憶部に記憶されている構図係数を更新することを特徴とする画像処理装置。 The image processing apparatus according to claim 2,
A coefficient setting unit for updating the composition coefficient stored in the composition coefficient storage unit;
A history storage unit for storing the cumulative number of times of use of each of the plurality of compositions prepared in advance;
Further comprising
The composition determination unit selects a composition having a relatively high value as the evaluation value from the plurality of compositions prepared in advance as the composition of the input image, and the cumulative use stored in the history storage unit Update the number of times,
The image processing apparatus, wherein the coefficient setting unit updates the composition coefficient stored in the composition coefficient storage unit on the basis of the cumulative use count stored in the history storage unit after the update.
前記興味領域中のオブジェクトを検出するオブジェクト検出部と、
当該検出されたオブジェクトに応じて前記局所画像の画質を補正する画像補正部と、
を更に備えることを特徴とする画像処理装置。 The image processing apparatus according to any one of claims 1 to 4,
An object detection unit for detecting an object in the region of interest;
An image correction unit that corrects the image quality of the local image according to the detected object;
An image processing apparatus further comprising:
前記オブジェクト検出部は、前記オブジェクトデータ記憶部からオブジェクトデータを取得し、当該取得されたオブジェクトデータと前記興味領域の局所画像とをパターンマッチングすることによって前記オブジェクトを検出することを特徴とする画像処理装置。 6. The image processing apparatus according to claim 5, further comprising an object data storage unit that stores object data representing characteristics of at least one reference object.
The object detection unit acquires object data from the object data storage unit, and detects the object by pattern-matching the acquired object data and a local image of the region of interest. apparatus.
前記画像補正部は、前記画質補正データ記憶部から当該対応する画質補正データセットを取得しこれを用いて前記局所画像の画質を補正することを特徴とする画像処理装置。 The image processing apparatus according to claim 6, further comprising an image quality correction data storage unit that stores image quality correction data sets respectively corresponding to the reference objects.
The image processing apparatus, wherein the image correction unit acquires the corresponding image quality correction data set from the image quality correction data storage unit and corrects the image quality of the local image using the acquired image quality correction data set.
前記予め用意された複数の構図を表すデータを格納する構図記憶部を更に備え、
前記構図決定部は、前記構図記憶部から前記構図を表すデータを取得して前記評価値を算出することを特徴とする画像処理装置。 The image processing apparatus according to claim 1,
A composition storage unit for storing data representing the plurality of compositions prepared in advance;
The image determination apparatus, wherein the composition determination unit obtains data representing the composition from the composition storage unit and calculates the evaluation value.
前記構図決定部によって決定された構図に基づいて新たに構図を生成するとともに、当該生成された構図に対応する構図係数を新たに設定する構図生成部と、
前記予め用意された複数の構図にそれぞれ対応する構図係数を記憶する構図係数記憶部と、
を更に備え、
前記構図記憶部は、前記構図生成部によって新たに生成された構図を表すデータを格納し、前記構図係数記憶部は、前記構図生成部によって新たに設定された構図係数を記憶することを特徴とする画像処理装置。 The image processing apparatus according to claim 8, wherein
A composition generating unit that newly generates a composition based on the composition determined by the composition determining unit and newly sets a composition coefficient corresponding to the generated composition;
A composition coefficient storage unit that stores composition coefficients respectively corresponding to the plurality of compositions prepared in advance;
Further comprising
The composition storage unit stores data representing a composition newly generated by the composition generation unit, and the composition coefficient storage unit stores a composition coefficient newly set by the composition generation unit. An image processing apparatus.
前記構図決定部は、前記予め用意された複数の構図の中から2以上の構図を前記入力画像の構図として選択かつ決定し、
前記構図生成部は、当該選択された2以上の構図のうち互いの評価値間の差分絶対値が所定の閾値以下となる構図に基づいて新たに構図を生成することを特徴とする画像処理装置。 The image processing apparatus according to claim 9,
The composition determination unit selects and determines two or more compositions as the composition of the input image from the plurality of prepared compositions.
The composition generation unit newly generates a composition based on a composition in which a difference absolute value between evaluation values of each of the two or more selected compositions is equal to or less than a predetermined threshold value. .
予め用意された複数の構図の各々と前記特徴パターンとの間の関連度を評価値として算出し、前記評価値に基づいて前記入力画像の構図を決定するステップと、
当該決定された構図を使用して前記入力画像中の興味領域を推定するステップと、
当該推定された興味領域の局所画像を出力するステップと、
を備えることを特徴とする画像処理方法。 Analyzing the input image to detect at least one feature pattern from the input image;
Calculating a degree of association between each of a plurality of prepared compositions and the feature pattern as an evaluation value, and determining the composition of the input image based on the evaluation value;
Estimating a region of interest in the input image using the determined composition;
Outputting a local image of the estimated region of interest;
An image processing method comprising:
前記予め用意された複数の構図にそれぞれ対応する構図係数を記憶する構図係数記憶部から前記構図係数を取得し、
前記各構図に当該対応する構図係数を重み付け、
当該重み付けされた構図の各々と前記特徴パターンとの間の関連度を前記評価値として算出する、
ことを特徴とする画像処理方法。 The image processing method according to claim 13, wherein in the step of determining the composition,
Obtaining the composition coefficient from a composition coefficient storage unit that stores composition coefficients respectively corresponding to the plurality of prepared compositions;
Weight each corresponding composition with the corresponding composition coefficient,
Calculating the degree of association between each of the weighted compositions and the feature pattern as the evaluation value;
An image processing method.
前記予め用意された複数の構図の中から前記評価値として比較的高い値を有する構図を前記入力画像の構図として選択するとともに、履歴記憶部に記憶されている、前記複数の構図それぞれの累積使用回数を更新し、
当該更新後に、前記履歴記憶部に記憶されている累積使用回数に基づいて、前記構図係数記憶部に記憶されている構図係数を更新する、
ことを特徴とする画像処理方法。 15. The image processing method according to claim 14, wherein in the step of determining the composition,
The composition having a relatively high value as the evaluation value is selected as the composition of the input image from the plurality of compositions prepared in advance, and the cumulative use of each of the plurality of compositions stored in the history storage unit Update the number of times,
After the update, the composition coefficient stored in the composition coefficient storage unit is updated based on the cumulative number of times stored in the history storage unit.
An image processing method.
前記興味領域中のオブジェクトを検出するステップと、
当該検出されたオブジェクトに応じて前記局所画像の画質を補正するステップと、
を更に備えることを特徴とする画像処理方法。 The image processing method according to claim 14 or 15,
Detecting an object in the region of interest;
Correcting the image quality of the local image according to the detected object;
An image processing method, further comprising:
当該決定された構図に基づいて構図を新たに生成するとともに、当該生成された構図に対応する構図係数を新たに設定するステップを更に備え、
当該新たに生成された構図を表すデータは前記構図記憶部に格納され、当該新たに設定された構図係数は前記構図係数記憶部に記憶されることを特徴とする画像処理方法。 The image processing method according to claim 17, comprising:
A step of newly generating a composition based on the determined composition and further setting a composition coefficient corresponding to the generated composition;
An image processing method, wherein data representing the newly generated composition is stored in the composition storage unit, and the newly set composition coefficient is stored in the composition coefficient storage unit.
予め用意された複数の構図の各々と前記特徴パターンとの間の関連度を評価値として算出し、前記評価値に基づいて前記入力画像の構図を決定する構図決定処理と、
当該決定された構図を使用して前記入力画像中の興味領域を推定する領域推定処理と、
当該推定された興味領域の局所画像を出力する出力制御処理と、
をコンピュータに実行させることを特徴とする画像処理プログラム。 Image analysis processing for analyzing the input image and detecting at least one feature pattern from the input image;
Calculating a degree of association between each of a plurality of prepared compositions and the feature pattern as an evaluation value, and determining a composition of the input image based on the evaluation value;
Region estimation processing for estimating a region of interest in the input image using the determined composition;
Output control processing for outputting a local image of the estimated region of interest;
An image processing program for causing a computer to execute.
前記予め用意された複数の構図にそれぞれ対応する構図係数を記憶する構図係数記憶部から前記構図係数を取得し、
前記各構図に当該対応する構図係数を重み付け、
当該重み付けされた構図の各々と前記特徴パターンとの間の関連度を前記評価値として算出する処理を含むことを特徴とする画像処理プログラム。 20. The image processing program according to claim 19, wherein the composition determination process includes:
Obtaining the composition coefficient from a composition coefficient storage unit that stores composition coefficients respectively corresponding to the plurality of prepared compositions;
Weight each corresponding composition with the corresponding composition coefficient,
An image processing program comprising a process of calculating a degree of association between each weighted composition and the feature pattern as the evaluation value.
前記構図決定処理は、前記予め用意された複数の構図の中から前記評価値として比較的高い値を有する構図を前記入力画像の構図として選択するとともに、履歴記憶部に記憶されている、前記複数の構図それぞれの累積使用回数を更新する処理を含み、
前記係数設定処理は、当該更新後に、前記履歴記憶部に記憶されている累積使用回数に基づいて、前記構図係数記憶部に記憶されている構図係数を更新する処理を含む、
ことを特徴とする画像処理プログラム。 An image processing program according to claim 20, wherein
In the composition determination process, the composition having a relatively high value as the evaluation value is selected from the plurality of compositions prepared in advance as the composition of the input image, and is stored in the history storage unit. Including the process of updating the cumulative number of uses for each composition of
The coefficient setting process includes a process of updating the composition coefficient stored in the composition coefficient storage unit based on the cumulative number of times stored in the history storage unit after the update.
An image processing program characterized by that.
前記興味領域中のオブジェクトを検出するオブジェクト検出処理と、
当該検出されたオブジェクトに応じて前記局所画像の画質を補正する画像補正処理と、
を更にコンピュータに実行させることを特徴とする画像処理プログラム。 An image processing program according to any one of claims 19 to 21,
An object detection process for detecting an object in the region of interest;
Image correction processing for correcting the image quality of the local image in accordance with the detected object;
Is further executed by a computer.
前記構図生成処理は、当該新たに生成された構図を表すデータを前記構図記憶部に格納し、当該新たに設定された構図係数を前記構図係数記憶部に記憶させる処理を含むことを特徴とする画像処理プログラム。 24. The image processing program according to claim 23, wherein a composition is newly generated based on the composition determined by the composition determination process, and a composition coefficient corresponding to the generated composition is newly set. Is further executed on the computer,
The composition generation process includes a process of storing data representing the newly generated composition in the composition storage unit and storing the newly set composition coefficient in the composition coefficient storage unit. Image processing program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007331928A JP2009159023A (en) | 2007-12-25 | 2007-12-25 | Image processor, image processing method, and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007331928A JP2009159023A (en) | 2007-12-25 | 2007-12-25 | Image processor, image processing method, and image processing program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009159023A true JP2009159023A (en) | 2009-07-16 |
Family
ID=40962607
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007331928A Pending JP2009159023A (en) | 2007-12-25 | 2007-12-25 | Image processor, image processing method, and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009159023A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2421247A1 (en) | 2010-08-19 | 2012-02-22 | Sony Corporation | Image processing device, method, and program |
-
2007
- 2007-12-25 JP JP2007331928A patent/JP2009159023A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2421247A1 (en) | 2010-08-19 | 2012-02-22 | Sony Corporation | Image processing device, method, and program |
JP2012042720A (en) * | 2010-08-19 | 2012-03-01 | Sony Corp | Device, method, and program for processing image |
US8737768B2 (en) | 2010-08-19 | 2014-05-27 | Sony Corporation | Image processing device, method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8682104B2 (en) | Image synthesizing apparatus, image synthesizing method, and image synthesizing program | |
JP5744437B2 (en) | TRACKING DEVICE, TRACKING METHOD, AND PROGRAM | |
US8130278B2 (en) | Method for forming an improved image using images with different resolutions | |
US8111946B2 (en) | Image processing apparatus, imaging apparatus, and image processing method | |
JP5306563B2 (en) | Imaging apparatus and image generation method | |
EP1431912A2 (en) | Method and system for determining an area of importance in an archival image | |
US20100238325A1 (en) | Image processor and recording medium | |
WO2011148760A1 (en) | Image processing device, image capturing device, program and image processing method | |
JP2011151569A (en) | Image processor, imaging apparatus, program, and image processing method | |
JP2017069926A (en) | Image processing device, and image processing method, and program | |
JP6521626B2 (en) | Object tracking device, method and program | |
JP2013162347A (en) | Image processor, image processing method, program, and device | |
JP2022179514A (en) | Control apparatus, imaging apparatus, control method, and program | |
JP5803058B2 (en) | Image processing apparatus and method, and program | |
JP5970012B2 (en) | Image processing apparatus and control method thereof | |
JP2005065048A (en) | Picture processing method, picture processor and picture processing program | |
JP5738904B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
Rafinazari et al. | Demosaicking algorithm for the Kodak-RGBW color filter array | |
JP2015035782A (en) | Image processing device, imaging device, microscope system, image processing method, and image processing program | |
JP2009159023A (en) | Image processor, image processing method, and image processing program | |
CN102186020A (en) | Image processing apparatus and image processing method | |
JP2009273072A (en) | High-definition image processing device, high-definition image processing method, and program | |
JP5963166B2 (en) | Image restoration apparatus, method, and program | |
JP5928024B2 (en) | Image processing apparatus, image processing method, and program | |
JP2014175733A (en) | Image reproduction apparatus and image reproduction program |