JP2006013722A - Unit and method for processing image - Google Patents

Unit and method for processing image Download PDF

Info

Publication number
JP2006013722A
JP2006013722A JP2004185480A JP2004185480A JP2006013722A JP 2006013722 A JP2006013722 A JP 2006013722A JP 2004185480 A JP2004185480 A JP 2004185480A JP 2004185480 A JP2004185480 A JP 2004185480A JP 2006013722 A JP2006013722 A JP 2006013722A
Authority
JP
Japan
Prior art keywords
image
processing apparatus
image processing
area
attention
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004185480A
Other languages
Japanese (ja)
Inventor
Masayuki Kimura
雅之 木村
Maki Yamauchi
真樹 山内
Shinji Furuya
晋二 古屋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2004185480A priority Critical patent/JP2006013722A/en
Publication of JP2006013722A publication Critical patent/JP2006013722A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing unit capable of adaptively changing a region extracted according to the request of a user from an image, and extracting a notable region matching the request of the user. <P>SOLUTION: The image processing unit comprises an image input section 11 for acquiring an image; an instruction input section 12 on an attribute of which the region should be extracted from a user as conditions of the extraction of a notable region; and a region specifying section 13 for specifying the region extracted from the image based on an instruction that the instruction input section 12 has acquired. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、画像に対して何らかの領域を設定する画像処理装置および方法に関するものであり、特に、ユーザやシステムの指示に応じて適応的に領域の位置や形状、表示方法などを制御する技術に関する。   The present invention relates to an image processing apparatus and method for setting an area for an image, and more particularly to a technique for adaptively controlling the position and shape of an area, a display method, and the like in accordance with a user or system instruction. .

一般に、画像中から何らかの被写体がある領域や、他の部分に比べて色が大きく異なる領域など、人間の注目を集めやすい領域(以下、これを「注目領域」と称する。)を抽出することは、被写体の認識処理や、画像の効果的な表示など多くの画像処理において有効である。   Generally, extracting an area that is likely to attract human attention (hereinafter referred to as “attention area”), such as an area where some subject exists in an image, or an area that is significantly different in color from other parts. It is effective in many image processing such as subject recognition processing and effective image display.

従来、このような画像中から注目領域を抽出する手法として、例えば、特許文献1で開示されている手法がある。
この特許文献1で開示されている手法は、平滑化に利用する画素数の異なる2種類の平滑化フィルタを画像に適用し、生成される画像の差分を求めて画素値が正となる部分を注目領域に属する画素として抽出するというものである。
特開2002−183713号公報
Conventionally, as a technique for extracting a region of interest from such an image, for example, there is a technique disclosed in Patent Document 1.
The technique disclosed in Patent Document 1 applies two types of smoothing filters having different numbers of pixels used for smoothing to an image, obtains a difference between the generated images, and obtains a portion where the pixel value is positive. Extraction is performed as pixels belonging to the region of interest.
JP 2002-183713 A

しかしながら、上記特許文献1で開示されている手法は、濃淡画像にしか適用することができず、一般のカラー画像には適用できないという問題がある。
また、従来の領域抽出手法は、ある特定の特徴量を画像中から求め、その特徴量に基づいて、抽出する領域を決定するものである。そのため、領域の抽出に対して硬直的であり、ユーザやシステムの要求に対して適応的に対応することができないという問題もある。
However, the method disclosed in Patent Document 1 can be applied only to grayscale images, and cannot be applied to general color images.
In addition, the conventional region extraction method obtains a specific feature amount from an image and determines a region to be extracted based on the feature amount. Therefore, there is a problem that it is rigid with respect to the extraction of the region and cannot adaptively respond to the demands of the user and the system.

そこで、本発明は、上記事由に鑑みて為されたものであり、その目的は、ユーザの要求に応じて画像の各部分に対する注目の度合いを判定する方法や、抽出する領域の決定方法を適応的に変更でき、ユーザの要求に合った注目領域を抽出することができる画像処理装置および画像処理方法を提供することにある。   Therefore, the present invention has been made in view of the above-mentioned reasons, and its purpose is to apply a method for determining the degree of attention to each part of an image and a method for determining an extraction region according to a user request. It is an object of the present invention to provide an image processing apparatus and an image processing method that can change the target area and extract a region of interest that meets the user's request.

上記課題を解決し、上記目的を達成するために、本発明に係る画像処理装置は、画像中に含まれる所定の領域を抽出する画像処理装置であって、前記抽出の条件として、前記画像の属性に関する指示情報を取得する指示取得手段と、前記指示取得手段が取得した指示情報に基づいて、前記画像中から抽出すべき領域を特定する領域特定手段とを備えることを特徴とする。   In order to solve the above-described problems and achieve the above object, an image processing apparatus according to the present invention is an image processing apparatus that extracts a predetermined region included in an image, and the extraction condition includes: An instruction acquisition unit that acquires instruction information about an attribute, and an area specifying unit that specifies an area to be extracted from the image based on the instruction information acquired by the instruction acquisition unit.

これによって、ユーザやシステム側から、画像の属性に関する指示を、注目領域の抽出条件として取得し、その指示に基づいて画像中から注目領域とすべき領域を特定するので、ユーザやシステムの要求に合致した領域を抽出することができる。   As a result, an instruction relating to the attribute of the image is acquired from the user or system side as an attention area extraction condition, and the area to be the attention area is specified from the image based on the instruction. The matched area can be extracted.

ここで、前記指示取得手段は、前記取得した指示情報を解析し、前記領域特定手段は、前記指示情報の解析結果に応じて、抽出すべき領域を変更する。
この構成によれば、ユーザの指示した抽出条件に応じて、抽出すべき領域を適応的に変更することができる画像処理装置を実現することが可能となる。
Here, the instruction acquisition unit analyzes the acquired instruction information, and the region specifying unit changes a region to be extracted according to the analysis result of the instruction information.
According to this configuration, it is possible to realize an image processing apparatus that can adaptively change a region to be extracted according to an extraction condition instructed by a user.

また、前記領域特定手段は、さらに、前記画像に含まれる領域について、注目を集める度合いである注目度を算出する注目度判定部を備え、前記注目度判定部で算出された注目度に応じて、抽出すべき領域を変更するのが好ましく、前記注目度判定部は、さらに、前記画像に含まれる領域について、その領域が有する特性である所定の画像特徴量を抽出する画像特徴量抽出部と、前記画像特徴量に基づいて、前記注目度を算出する注目度算出部とを備えるのがより好ましい。   In addition, the region specifying unit further includes an attention level determination unit that calculates a degree of attention that is a degree of attention for a region included in the image, according to the attention level calculated by the attention level determination unit. Preferably, the region to be extracted is changed, and the attention level determination unit further includes, for the region included in the image, an image feature amount extraction unit that extracts a predetermined image feature amount that is a characteristic of the region. It is more preferable to include an attention level calculation unit that calculates the attention level based on the image feature amount.

これによって、画像特徴量から注目度を算出し、画像中から注目度の高い領域を注目領域として抽出するので、ユーザのあいまいな要求に対しても適切に応答することができる。   Accordingly, the attention level is calculated from the image feature amount, and the region with the high attention level is extracted from the image as the attention region. Therefore, it is possible to appropriately respond to an ambiguous request from the user.

なお、本発明は、このような画像処理装置として実現することができるだけでなく、このような画像処理装置が備える特徴的な手段をステップとする画像処理方法として実現してもよく、それらのステップをパソコンなどのコンピュータで実現させるためのプログラムとして実現してもよい。また、そのようなプログラムをCD−ROMなどの記録媒体や、インターネットに代表される通信媒体を通じて配信できることは言うまでもない。   The present invention can be realized not only as such an image processing apparatus, but also as an image processing method including steps characteristic of the image processing apparatus. May be realized as a program for realizing the above on a computer such as a personal computer. It goes without saying that such a program can be distributed through a recording medium such as a CD-ROM or a communication medium represented by the Internet.

以上説明したように、本発明に係る画像処理装置によれば、ユーザやシステム側からの指示に基づいて、抽出すべき領域を検索するので、画像中からユーザやシステムの要求に合致した注目領域を自動で取得することができる。   As described above, according to the image processing apparatus according to the present invention, an area to be extracted is searched based on an instruction from the user or the system side. Can be acquired automatically.

また、注目領域を意識した画像の表示を行なうので、画像をそのまま見せるよりも、より印象的な効果をユーザに与えることができる。
さらに、注目領域の抽出に関する指示情報として、被写体に関する情報を入力することで、被写体が存在する付近の領域を注目領域として抽出できる。これによって、被写体を認識して表示させる際に、画像中の探索すべき領域を絞り込むことができ、被写体を抽出する精度および速度双方の向上が期待できる。
In addition, since the image is displayed in consideration of the attention area, a more impressive effect can be given to the user than when the image is displayed as it is.
Furthermore, by inputting information about the subject as instruction information relating to the extraction of the attention area, a nearby area where the subject exists can be extracted as the attention area. As a result, when the subject is recognized and displayed, the region to be searched in the image can be narrowed down, and improvement in both accuracy and speed of extracting the subject can be expected.

以下、本発明を実施するための最良の形態について、図面を参照しながら説明する。
(実施の形態)
まず、本発明の実施の形態に係る画像処理装置について説明する。
The best mode for carrying out the present invention will be described below with reference to the drawings.
(Embodiment)
First, an image processing apparatus according to an embodiment of the present invention will be described.

図1は、本実施の形態に係る画像処理装置10の機能ブロック図である。
この画像処理装置10は、画像を装置内に取り込んで、取り込んだ画像に含まれる注目領域をユーザやシステムの要求に適応させて抽出する装置であり、画像入力部11、指示入力部12、領域特定部13、画像変換部17、データベース18および出力部20を備える。
FIG. 1 is a functional block diagram of an image processing apparatus 10 according to the present embodiment.
The image processing apparatus 10 is an apparatus that captures an image in the apparatus and extracts a region of interest included in the captured image in accordance with a request of a user or a system. A specifying unit 13, an image conversion unit 17, a database 18, and an output unit 20 are provided.

画像入力部11は、注目領域の抽出を行なう画像を装置内に取り込むための入力インタフェースであり、USB(Universal Serial Bus)やIEEE(Institute of Electrical and Electronic Engineers)1394等のインタフェースによって実現される。   The image input unit 11 is an input interface for taking an image for extracting a region of interest into the apparatus, and is realized by an interface such as USB (Universal Serial Bus) or IEEE (Institute of Electrical and Electronic Engineers) 1394.

ここで、装置内に取り込まれる画像は、特に制限はなく、デジタル・スチル・カメラなどの撮像装置で撮影した画像や、スキャナなどの画像読取装置から得られた画像、コンピュータ・グラフィック(CG)画像、記録媒体に記録されている画像データなどのいずれであってもよい。なお、記録媒体の例としては、フレキシブルディスクやハードディスク、磁気テープなどの磁気メディア、CD−ROM/R/RW、DVD−ROM/RAMなどの光メディア、SDメモリカード(登録商標)、コンパクトフラッシュ(登録商標)メモリカードに代表される半導体メモリメディア等が挙げられる。   Here, the image captured in the apparatus is not particularly limited, and is an image captured by an imaging apparatus such as a digital still camera, an image obtained from an image reading apparatus such as a scanner, or a computer graphic (CG) image. Any of the image data recorded on the recording medium may be used. Examples of recording media include magnetic media such as a flexible disk, hard disk, and magnetic tape, optical media such as CD-ROM / R / RW, DVD-ROM / RAM, SD memory card (registered trademark), and compact flash ( Examples thereof include semiconductor memory media represented by a registered memory card.

また、装置内に取り込まれる画像の被写体についても特に制限はない。例えば、人の顔を被写体とする顔画像や、風景を被写体とする風景画像などのいずれであってもよい。
指示入力部12は、取り込んだ画像からどのような領域を抽出したいかという抽出条件である指示情報を、キーボードやマウス等の入力インタフェースを介してユーザから取得する。そして、指示入力部12は、取得した指示情報に基づいて、後述する領域特定部13、画像変換部17、ならびに注目領域決定部19の動作を制御する。
There is no particular limitation on the subject of the image captured in the apparatus. For example, any of a face image with a human face as a subject and a landscape image with a landscape as a subject may be used.
The instruction input unit 12 acquires instruction information, which is an extraction condition indicating what region is desired to be extracted from the captured image, from the user via an input interface such as a keyboard or a mouse. Then, the instruction input unit 12 controls operations of an area specifying unit 13, an image converting unit 17, and an attention area determining unit 19, which will be described later, based on the acquired instruction information.

ここで、ユーザから取得する指示情報は、例えば「人の顔が写っている部分」や「手前に写っている部分」などの被写体に関する情報や、例えば「赤っぽい部分」や「派手な部分」などの画像が有する印象に関する情報のような画像の属性に関する情報である。また、ユーザから取得する指示情報は、抽出する領域の個数や大きさ、形状などの、領域の表示方法に関する情報等、あるいは、例えば「旅行の写真からサムネイル(一覧表示のための縮小版画像)を作成する」や「人が写っている部分だけを切り出す」など、ユーザが行いたい処理に関する情報であってもよい。   Here, the instruction information acquired from the user includes information on the subject such as “parts in which a person's face is reflected” and “parts in front”, for example, “reddish part” and “flashy part”. The information regarding the attribute of the image such as the information regarding the impression that the image has. In addition, the instruction information acquired from the user includes information regarding the display method of the region such as the number, size, and shape of the region to be extracted, or, for example, “Travel photo to thumbnail (reduced version image for list display)” It may also be information relating to processing that the user wants to perform, such as “Creating only a part in which a person is shown” or “Creating only a part where a person is shown”.

なお、ユーザから取得する指示情報は、これらの例に限るものではなく、任意の情報を用いることができる。また、ユーザから取得する指示情報は、1種類だけであってもよく、複数の情報を取得してもよい。   Note that the instruction information acquired from the user is not limited to these examples, and arbitrary information can be used. In addition, the instruction information acquired from the user may be only one type or a plurality of information.

ここで、指示入力部12は、キーボードやマウス等の入力インタフェースを介してユーザから指示情報を取得する動作を、省略するとしてもよい。この場合、指示入力部12は、あらかじめ定められた方法で注目領域を自動的に決定し、その決定に基づいて、領域特定部13、画像変換部17、ならびに注目領域決定部19の動作を制御する。   Here, the instruction input unit 12 may omit an operation of acquiring instruction information from the user via an input interface such as a keyboard or a mouse. In this case, the instruction input unit 12 automatically determines a region of interest by a predetermined method, and controls operations of the region specifying unit 13, the image conversion unit 17, and the region of interest determination unit 19 based on the determination. To do.

領域特定部13は、画像入力部11が装置内に取り込んだ画像(入力画像)の中から、指示入力部12から出力される指示情報に従って、所定の算出式に基づいて画像内の領域を特定し、抽出する処理部であり、注目度判定部14と、注目領域決定部19とを備える。なお、領域特定部13が抽出する領域は、1枚の画像に対して1つであっても、複数であってもよい。   The area specifying unit 13 specifies an area in the image based on a predetermined calculation formula in accordance with instruction information output from the instruction input unit 12 from images (input images) captured by the image input unit 11 in the apparatus. And an attention level determination unit 14 and an attention area determination unit 19. In addition, the area | region which the area | region specific part 13 extracts may be one with respect to one image, or multiple.

注目度判定部14は、入力画像の中から、指示入力部12から出力される指示情報に従って、画像内のどの部分がどの程度注目を集めやすいかを表す注目度を求める処理部であり、さらに、画像特徴量抽出部15と注目度算出部16とを備える。なお、注目度判定部14が注目度を求める単位は、入力画像の画素ごとであってもよいし、複数の画素をまとめたブロックごとであってもよい。   The attention level determination unit 14 is a processing unit that calculates a degree of attention that indicates how much attention is attracted to which part in the image according to the instruction information output from the instruction input unit 12 from the input image. The image feature quantity extraction unit 15 and the attention level calculation unit 16 are provided. Note that the unit for the attention level determination unit 14 to calculate the attention level may be for each pixel of the input image, or for each block in which a plurality of pixels are combined.

画像特徴量抽出部15は、入力画像に対して注目度の指標となる画像の特徴量を求める。
ここで、画像特徴量抽出部15が求める特徴量の例としては、各画素のエッジ成分の強さ、各ブロックに対する離散コサイン変換(DCT)もしくはDCTに類する変換の係数、ウェーブレット変換の係数、画像のカラーヒストグラム、各画素の色成分と画像全体もしくは画像の小領域における平均の色成分との距離、画像の小領域における画素値のエントロピー、各画素の奥行き方向の距離、画像内の被写体の位置および種類などによって取得できる任意の特徴量が挙げられる。
The image feature quantity extraction unit 15 obtains a feature quantity of an image that serves as an index of attention to the input image.
Here, as examples of the feature amount obtained by the image feature amount extraction unit 15, the strength of the edge component of each pixel, the coefficient of discrete cosine transform (DCT) or DCT-like transform for each block, the coefficient of wavelet transform, the image Color histogram, distance between the color component of each pixel and the average color component of the entire image or a small area of the image, entropy of pixel values in the small area of the image, distance in the depth direction of each pixel, position of the subject in the image And any feature quantity that can be acquired depending on the type.

なお、求める特徴量は、一種類であって、複数であってもよく、画像特徴量抽出部15は、指示入力部12から出力される指示情報に従って、求める特徴量の種類、および特徴量を求める際のパラメータを決定するとしてもよい。   Note that the feature quantity to be obtained may be one type or plural, and the image feature quantity extraction unit 15 determines the type of feature quantity to be obtained and the feature quantity according to the instruction information output from the instruction input unit 12. The parameter for obtaining may be determined.

例えば、図2(a)に示すような赤いリンゴと橙色のミカンが写っている画像において、指定された色と各画素との色空間上における距離の逆数を、注目度として求めるものとする。指示入力部12でユーザが赤色を指定した場合、リンゴが写っている付近の画素が、色空間上における距離が近い(指定された色に近似する)ので、この領域に高い注目度が割り振られ、結果として図2(b)に示すような領域を得ることができる。同様に、指示入力部12でユーザが橙色を指定した場合、ミカンが写っている付近の画素が、色空間上における距離が近い(指定された色に近似する)ので、この領域に高い注目度が割り振られ、結果として図2(c)に示すような領域を得ることができる。   For example, in an image in which red apples and orange mandarin oranges are shown as shown in FIG. 2A, the reciprocal of the distance between the designated color and each pixel in the color space is obtained as the attention level. When the user designates red in the instruction input unit 12, since a pixel in the vicinity where an apple is reflected is close in color space (approximates a designated color), a high degree of attention is assigned to this area. As a result, a region as shown in FIG. 2B can be obtained. Similarly, when the user designates orange using the instruction input unit 12, the pixels near the mandarin orange are close in distance on the color space (approximate to the designated color). As a result, an area as shown in FIG. 2C can be obtained.

注目度算出部16は、画像特徴量抽出部14で求められた特徴量に基づいて、注目度を決定する。注目度算出部16で注目度を決定する算出式は、下記の数式1のように表すことができる。   The attention level calculation unit 16 determines the attention level based on the feature amount obtained by the image feature amount extraction unit 14. The calculation formula for determining the attention level by the attention level calculation unit 16 can be expressed as the following formula 1.

(数1)
I=f(F1、F2、・・・、Fn、P1、P2、・・・、Pm)
(Equation 1)
I = f (F1, F2,..., Fn, P1, P2,..., Pm)

この数式1は、注目度Iがn個の特徴量F1、F2、・・・、Fn、およびm個のパラメータP1、P2、・・・、Pmを引数とする関数で記述できることを意味する。パラメータを変更することにより、同じ特徴量の値に対して異なる注目度の値を割り振ることが可能となる。   This equation 1 means that the attention degree I can be described by a function having n feature values F1, F2,..., Fn and m parameters P1, P2,. By changing the parameter, it is possible to assign different attention values to the same feature value.

例えば、パラメータとして特定の点の位置を与え、この点から遠ざかるにつれて注目度を減衰させることによって、この点の周りに相対的に高い注目度の値を割り振ることができる。このようにすることで、例えばポートレート写真などの大まかな構図が決まっている画像に対して、より適切な注目領域の抽出を行なうことができる。   For example, by giving the position of a specific point as a parameter and attenuating the attention as the distance from the point increases, a relatively high attention value can be assigned around this point. In this way, it is possible to extract a more appropriate region of interest for an image having a rough composition such as a portrait photograph.

また、あらかじめ決められた画像のカテゴリをパラメータとして与えることで、そのカテゴリにおいて有効な特徴量、あるいはその他のパラメータを選択することができる。例えば、ポートレート写真では顔の辺りを注目度減衰の中心点とすることで、顔の辺りにより高い注目度の値を割り振ることができる。   In addition, by giving a predetermined category of an image as a parameter, it is possible to select an effective feature amount in the category or other parameters. For example, in a portrait photograph, by setting the vicinity of the face as the center point of attenuation of attention, a higher attention value can be assigned to the vicinity of the face.

なお、上記の数式1は、下記の数式2のようにパラメータを省略することもできる。この場合、注目度は、同じ特徴量の値に対して一意に決定されることになる。   In addition, the above formula 1 can omit parameters like the following formula 2. In this case, the attention level is uniquely determined for the same feature value.

(数2)
I=f(F1、F2、・・・Fn)
(Equation 2)
I = f (F1, F2,... Fn)

なお、注目度算出部16は、指示入力部12から出力される指示情報に従って、画像特徴量抽出部15で求めた特徴量のうち注目度の算出に用いる特徴量を決定するとしてもよく、パラメータの値を決定するとしてもよい。   Note that the attention level calculation unit 16 may determine a feature amount used for calculation of the attention level from among the feature amounts obtained by the image feature amount extraction unit 15 in accordance with the instruction information output from the instruction input unit 12. The value of may be determined.

ここで、注目度判定部14は、注目度算出部16を省略して構成することもできる。この場合、注目度判定部14は、画像特徴量抽出部15で得られた特徴量の値そのものを注目度として、注目領域決定部19へ出力することになる。   Here, the attention level determination unit 14 may be configured by omitting the attention level calculation unit 16. In this case, the attention level determination unit 14 outputs the feature value value obtained by the image feature amount extraction unit 15 as the attention level to the attention area determination unit 19.

注目領域決定部19は、注目度判定部14で求められた注目度から、入力画像のどの部分をどのような形で表示するか、すなわち、注目領域を決定する処理部である。この注目領域決定部19における注目領域の決定方法について、図3〜図6を用いて、以下説明する。   The attention area determination section 19 is a processing section that determines which part of the input image is displayed in what form, that is, the attention area, based on the attention degree obtained by the attention degree determination section 14. A method of determining a region of interest in the region of interest determination unit 19 will be described below with reference to FIGS.

例えば、図3(a)に示すような入力画像について、注目度があらかじめ定められた閾値Thを超える画素すべてを包含する矩形領域を、注目領域とすることが考えられる。すなわち、図3(b)に示すように、閾値Thを超える画素(内部が斜線で示されている円)が5箇所存在する場合、図3(c)に示すような注目領域が得られることになる。   For example, with respect to an input image as shown in FIG. 3A, a rectangular area including all pixels having a degree of attention exceeding a predetermined threshold Th can be considered as the attention area. That is, as shown in FIG. 3B, when there are five pixels exceeding the threshold Th (circles whose inside is indicated by diagonal lines), an attention area as shown in FIG. 3C is obtained. become.

なお、ここでは、注目領域の形状を矩形としたが、円形や楕円形など、その他の任意の形状であってもよい。また、閾値Thは、パラメータとして変更可能であり、これによって注目領域決定部18で得られる注目領域の形状を変更することが可能となる。   Here, the shape of the region of interest is a rectangle, but it may be any other shape such as a circle or an ellipse. The threshold value Th can be changed as a parameter, whereby the shape of the attention area obtained by the attention area determination unit 18 can be changed.

また、注目領域の決定方法として、図4(a)に示すような入力画像について、例えば入力画像全体の1/4の大きさなどといった、ある一定の大きさの領域を考え、その内部の画素の注目度が最大になる位置を、注目領域の位置とすることも考えられる。すなわち、図4(b)に示すように、所定の大きさの領域を設定し、その領域を破線で示す矢印の方向に移動させて、注目度の和を順次算出する。そして、注目度の和が最大となる位置を注目領域に決定する。この決定方法によって得られる注目領域の例を図4(c)に示す。   In addition, as a method of determining a region of interest, regarding an input image as shown in FIG. 4A, for example, an area having a certain size such as a quarter of the entire input image is considered, and pixels inside the region are determined. It is also conceivable that the position of the attention area is the position of the attention area. That is, as shown in FIG. 4B, a region having a predetermined size is set, the region is moved in the direction of the arrow indicated by a broken line, and the sum of attention is sequentially calculated. Then, the position where the sum of the attention degrees is maximized is determined as the attention area. An example of a region of interest obtained by this determination method is shown in FIG.

さらに、注目領域の決定方法として、図5(a)に示すような入力画像について、例えば、注目度の高い画素のそれぞれから一定範囲内の領域を選び、その和集合を注目領域とすることも考えられる。すなわち、図5(b)に示すように、注目度の高い画素(内部が斜線で示されている円)が5箇所存在する場合、それぞれの画素を中心とした所定の範囲内の領域の和集合を注目領域とすれば、図5(c)に示すような注目領域を得ることができる。   Further, as a method of determining a region of interest, for example, an input image as shown in FIG. 5A may be selected, for example, by selecting a region within a certain range from each pixel having a high degree of attention, and the union of the regions as a region of interest Conceivable. That is, as shown in FIG. 5B, when there are five pixels of high interest (circles indicated by diagonal lines), the sum of regions within a predetermined range centered on each pixel. If the set is an attention area, an attention area as shown in FIG. 5C can be obtained.

また、その他の注目領域の決定方法として、注目度が上位n番以内の画素を包含する領域を注目領域とすることも考えられる。
続いて、注目領域決定部19における注目領域の表示方法について、以下説明する。
As another method for determining the attention area, an area including the pixels having the attention degree of the top n is considered as the attention area.
Next, a method of displaying the attention area in the attention area determination unit 19 will be described below.

例えば、注目領域の表示方法として、図3(c)に示したように、注目領域の内部のみを表示する方法が挙げられる。このような表示方法とすることで、画像の注目領域をより強調した表示が可能となる。   For example, as a method of displaying the attention area, a method of displaying only the inside of the attention area as shown in FIG. By adopting such a display method, it is possible to display the region of interest of the image more emphasized.

また、その他の注目領域の表示方法として、注目度の高い部分ほど明るく表示する等のように、画素の注目度の値に応じた表示を行なう方法や、注目領域の内部あるいは外部にのみ平滑化や色変換等の画像処理を施して画像を表示したり、注目領域の内部と外部とで異なる画像処理を施して画像を表示したりする方法や、注目領域に向かってズームインしたり、注目領域を切り出して別の画像に合成したり、画像に視覚効果を与える手法、または、これらの手法の組み合わせ等が考えられる。   In addition, as another method of displaying the attention area, a method of performing display according to the value of the attention level of the pixel, such as displaying a brighter part of the attention area, or smoothing only inside or outside the attention area Image processing such as image processing and color conversion, displaying images by performing different image processing inside and outside the attention area, zooming in on the attention area, attention area A method of cutting out and combining with another image, a method of giving a visual effect to the image, or a combination of these methods can be considered.

ここで、注目領域決定部19は、指示入力部12から出力される指示情報に従って、注目領域の決定方法および表示方法を決定するとしてもよい。
例えば、図6(a)に示すように、入力画像に対して注目度を算出した結果、特に注目度の高い点として同図に示すA〜Eが得られ、各点の注目度が順にI(A)=120、I(B)=105、I(C)=95、I(D)=70、I(E)=55であるとする。また、注目領域の決定方法が「注目度が閾値Th以上の点を包含する矩形領域を選択する」であるとする。ここで、指示入力部12でユーザが閾値Thを100に設定した場合、図6(b)のようにA、Bの2点を包含する矩形領域が、注目領域として得られる。同様に、閾値Thを50に設定した場合、図6(c)のようにA〜Eをすべて包含する矩形領域が注目領域として得られることになる。
Here, the attention area determination unit 19 may determine a determination method and a display method of the attention area according to the instruction information output from the instruction input unit 12.
For example, as shown in FIG. 6A, as a result of calculating the attention level with respect to the input image, the points A to E shown in FIG. Assume that (A) = 120, I (B) = 105, I (C) = 95, I (D) = 70, and I (E) = 55. Further, it is assumed that the method of determining the attention area is “selecting a rectangular area that includes a point whose attention degree is equal to or higher than the threshold Th”. Here, when the user sets the threshold value Th to 100 with the instruction input unit 12, a rectangular area including two points A and B is obtained as the attention area as shown in FIG. 6B. Similarly, when the threshold Th is set to 50, a rectangular area including all of A to E as shown in FIG. 6C is obtained as the attention area.

再び、画像処理装置10の構成の説明を続ける。
画像変換部17は、入力画像に対して所定の変換処理を施す処理部である。この画像変換部17は、い、注目度判定部14における処理を精度よく、または、効率よく行なうために、入力画像に対して所定の変換処理を行ない、変換後の画像である変換画像を領域特定部13に出力する。
The description of the configuration of the image processing apparatus 10 will be continued again.
The image conversion unit 17 is a processing unit that performs a predetermined conversion process on the input image. This image conversion unit 17 performs predetermined conversion processing on the input image in order to perform the processing in the attention level determination unit 14 with high accuracy or efficiency, and converts the converted image, which is the converted image, into a region. Output to the identification unit 13.

ここで、入力画像に施される変換の方法としては、拡大または縮小、トリミング、回転、色変換、色補正、輝度補正、平滑化・シャープネス処理、輪郭抽出などの変換処理、およびそれらの組み合わせがある。   Here, conversion methods performed on the input image include enlargement or reduction, trimming, rotation, color conversion, color correction, luminance correction, smoothing / sharpness processing, conversion processing such as contour extraction, and combinations thereof. is there.

なお、画像変換部17による変換の結果は、入力画像に上書きしてもよく、入力画像とは別個に変換画像として記憶してもよい。また、1枚の入力画像に対して複数の異なる変換処理を施し、それぞれ異なる複数の変換画像を得るとしてもよい。このように複数の変換画像から特徴量を抽出することで、1枚の入力画像からより多くの情報を得ることができるようになる。   Note that the result of conversion by the image conversion unit 17 may be overwritten on the input image, or may be stored as a converted image separately from the input image. Alternatively, a plurality of different conversion processes may be performed on one input image to obtain a plurality of different converted images. By extracting feature quantities from a plurality of converted images in this way, more information can be obtained from a single input image.

例えば、入力画像を複数の解像度で縮小して変換画像を生成し、それぞれの変換画像のエッジ強度を特徴量として求める場合を考える。この場合、より縮小率の小さい変換画像からは、より大局的に見た場合のエッジ強度が得られると考えられる。このようにすることで、単一の特徴量抽出手段を用いても意味合いの異なる複数の特徴量を得ることができるので、結果としてより多くの情報を注目領域の設定に利用することができる。   For example, consider a case where a converted image is generated by reducing an input image at a plurality of resolutions, and the edge strength of each converted image is obtained as a feature amount. In this case, it is considered that the edge strength when viewed more globally can be obtained from the converted image having a smaller reduction ratio. In this way, a plurality of feature amounts having different meanings can be obtained even when a single feature amount extraction unit is used. As a result, more information can be used for setting the attention area.

なお、それぞれの変換画像から抽出する特徴量は同じであってもよく、異なるものであってもよい。例えば、入力画像に輪郭抽出を施して得られる変換画像と、注目する被写体の色を強調するような変換を施して得られる変換画像とを利用することで、被写体の形状および色に関する情報をそれぞれの変換画像から取得することができ、それぞれの特徴量を単独で利用する場合に比べてより高い確度で被写体を含む領域を注目領域として設定することができる。   Note that the feature values extracted from the respective converted images may be the same or different. For example, by using a conversion image obtained by performing contour extraction on an input image and a conversion image obtained by performing conversion that emphasizes the color of the subject of interest, information on the shape and color of the subject can be obtained. A region including the subject can be set as a region of interest with higher accuracy than when each feature amount is used alone.

データベース18は、被写体の種類に関する情報や、画像特徴量を求めるための情報などの、注目領域を特定する処理に用いられる情報を格納しておくためのデータベースであり、ハードディスク等の記憶装置によって実現される。   The database 18 is a database for storing information used for processing for specifying a region of interest, such as information on the type of subject and information for obtaining image feature amounts, and is realized by a storage device such as a hard disk. Is done.

画像処理装置10がデータベース18を有することで、例えば、画像特徴量抽出部15がデータベース18に記録されている被写体の種類に関する情報に基づいて、画像内の被写体を特定し、特徴量を求めることができるようになる。また、データベース18にその他の画像特徴量を求めるための情報を記録しておき、その情報に基づいて画像特徴量を求めるとしてもよい。   Since the image processing apparatus 10 includes the database 18, for example, the image feature amount extraction unit 15 identifies a subject in the image based on information on the type of subject recorded in the database 18 and obtains a feature amount. Will be able to. Alternatively, information for obtaining other image feature amounts may be recorded in the database 18 and the image feature amounts may be obtained based on the information.

また、画像処理装置10は、このデータベース18に、指示入力部12から出力される指示情報に対して、画像特徴量抽出部15で求める特徴量の種類や注目度算出部15のパラメータなどの、注目度判定部14の動作を制御する情報を記録してもよく、注目領域決定部19の動作を制御する情報を記録してもよい。さらに、このデータベース18に、注目度判定部14で求めた注目度や、注目領域決定部19で求めた注目領域情報を記録するとしてもよい。   Further, the image processing apparatus 10 stores, in the database 18, the type of feature amount obtained by the image feature amount extraction unit 15 and the parameter of the attention degree calculation unit 15 for the instruction information output from the instruction input unit 12. Information for controlling the operation of the attention level determination unit 14 may be recorded, or information for controlling the operation of the attention area determination unit 19 may be recorded. Furthermore, the attention level obtained by the attention level determination unit 14 and the attention area information obtained by the attention area determination unit 19 may be recorded in the database 18.

出力部20は、注目領域決定部19で得られた注目領域及びその表示方法に従って、ユーザに提示するためのデバイスに、画像を出力するインタフェースである。ここで、出力部20の出力先となるデバイスは、CRTやLCDなどの表示装置、あるいは、プリンタなどの印刷装置などのいずれであってもよい。   The output unit 20 is an interface that outputs an image to a device for presentation to the user in accordance with the attention area obtained by the attention area determination unit 19 and the display method thereof. Here, the output destination device may be a display device such as a CRT or LCD, or a printing device such as a printer.

このように構成される画像処理装置10の処理動作について、以下説明する。
図7は、画像処理装置10がユーザーの要求に応じて適応的に領域を選択するための処理の流れを示すフローチャートである。
The processing operation of the image processing apparatus 10 configured as described above will be described below.
FIG. 7 is a flowchart showing a flow of processing for the image processing apparatus 10 to adaptively select a region in response to a user request.

まず、画像処理装置10は、画像入力部11を介して、注目領域を抽出する画像を装置内に取り込み(ステップS100)、指示入力部12を介して、入力画像に対するユーザからの指示情報を取得する(ステップS101)。ここでは、「旅行に行ったときの写真からサムネイルを作成するために注目領域を取得する」という指示情報を取得した場合を、例に挙げて説明する。なお、指示情報の種類は、上記の例に限られるものではなく、ユーザが行いたい処理などに対する一般的な要求を指示情報として扱うことができる。   First, the image processing apparatus 10 captures an image for extracting a region of interest into the apparatus via the image input unit 11 (step S100), and acquires instruction information from the user for the input image via the instruction input unit 12. (Step S101). Here, a case will be described as an example where instruction information “acquire region of interest to create a thumbnail from a photo taken when traveling” is acquired. Note that the type of instruction information is not limited to the above example, and general requests for processing that the user wants to perform can be handled as instruction information.

次に、画像処理装置10は、指示入力部12において、入力された指示情報を解析し、具体的にどのような領域を抽出するかを決定する(ステップS102)。例えば、上記の例では、「大きさが原画像のおよそ1/2で、かつ人が写っている可能性が高いと思われる領域」が抽出するべき目標領域として決定されると考えられる。なお、ここに挙げた指示情報と実際に抽出する領域との対応は、一例であり、同種の指示情報に対して異なる目標領域を設定してもよい。   Next, the image processing apparatus 10 analyzes the input instruction information in the instruction input unit 12, and determines what region is to be extracted specifically (step S102). For example, in the above example, it is considered that “a region that is approximately ½ the size of the original image and that is likely to include a person” is determined as the target region to be extracted. Note that the correspondence between the instruction information listed here and the area actually extracted is an example, and different target areas may be set for the same type of instruction information.

ここで、ステップS102で指示情報を解析する代わりに、ステップS101で直接「大きさが原画像のおよそ1/2で、かつ人が写っている可能性が高いと思われる領域」などの、どのような領域を抽出するかに関する情報をユーザから取得してもよい。この場合、ステップS102を省略することが可能となる。   Here, instead of analyzing the instruction information in step S102, it is directly selected in step S101, such as “an area that is about half the size of the original image and is likely to contain a person”. Information regarding whether to extract such a region may be acquired from the user. In this case, step S102 can be omitted.

続いて、画像処理装置10は、目標領域の情報に従って、後述する各種処理の実際の内容、およびパラメータを設定する(ステップS103)。パラメータの設定方法として、例えば以下に示す(1)〜(3)の方法が挙げられる。
(1)あらかじめ決められた初期値を設定する
(2)目標の達成度を設定するパラメータの関数として表現し、達成度が最大になるパラメータの値を設定する
(3)データベースから似たような画像に対する抽出結果を参照し、その時のパラメータを設定する
なお、パラメータの設定方法は上記の例に限るものではなく、その他の手法を用いることも可能である。
Subsequently, the image processing apparatus 10 sets actual contents and parameters of various processes to be described later according to the information on the target area (step S103). Examples of the parameter setting method include the following methods (1) to (3).
(1) Set a predetermined initial value (2) Express as a function of a parameter that sets the degree of achievement of the target, and set the parameter value that maximizes the degree of achievement (3) Similar from the database Refer to the extraction result for the image and set the parameters at that time. Note that the parameter setting method is not limited to the above example, and other methods may be used.

そして、画像処理装置10は、ステップS103で設定された結果に従い、注目領域を決定するための処理を行なう。
まず、画像処理装置10は、画像変換部17において、前処理として画像変換処理を施す(ステップS104)。画像変換の内容については、上述した画像変換部17に関する説明で記載しているので、ここでは説明を省略する。
Then, the image processing apparatus 10 performs a process for determining a region of interest according to the result set in step S103.
First, the image processing apparatus 10 performs image conversion processing as preprocessing in the image conversion unit 17 (step S104). Since the contents of the image conversion are described in the description regarding the image conversion unit 17 described above, the description is omitted here.

次に、画像処理装置10は、注目度判定部14において、変換画像に対して、注目度を求める(ステップS105)。ここでの処理の詳細は、先述の注目度判定部14に関する説明に記載しているので、ここでは省略する。   Next, the image processing apparatus 10 obtains the attention level for the converted image in the attention level determination unit 14 (step S105). The details of the processing here are described in the above description regarding the attention level determination unit 14, and are omitted here.

その後、画像処理装置10は、注目領域決定部19において、得られた注目度に基づいて、注目領域と考えられる注目領域候補を抽出する(ステップS106)。ここでの処理の詳細は、先述の注目領域決定部19に関する説明に記載しているので、ここでは省略する。   Thereafter, the image processing apparatus 10 causes the attention area determination unit 19 to extract attention area candidates that are considered to be attention areas based on the obtained attention level (step S106). Details of the processing here are described in the above description of the attention area determination unit 19, and are omitted here.

ここで、画像処理装置10は、領域特定部13において、以上のようにして得られた注目領域候補がステップS102で設定された目標領域の条件を満たすかを判定する(ステップS107)。   Here, the image processing apparatus 10 determines whether the region of interest candidate obtained as described above satisfies the target region condition set in step S102 in the region specifying unit 13 (step S107).

このステップS107における判定方法としては、以下のような方法が挙げられる。上記の例では、目標領域は「大きさが原画像のおよそ1/2で、かつ人が写っている可能性が高いと思われる領域」なので、以下の2点を判定すればよい。
(1)注目領域候補の大きさ
(2)注目領域候補内の画素のうち、肌色と判定される画素の割合
なお、ここに示した目標領域に対する判定項目は一例であり、その他の基準で判定を行ってもよい。
Examples of the determination method in step S107 include the following methods. In the above example, the target area is “an area that is approximately half the size of the original image and that is likely to have a person in it”, so the following two points may be determined.
(1) Size of attention area candidate (2) Ratio of pixels determined to be skin color among pixels in attention area candidate Note that the determination items for the target area shown here are examples, and determination is based on other criteria May be performed.

また、パラメータの再設定の方法としては、以下のような方法が挙げられる。
(1)パラメータを増加、減少の一方向に順に変化させる
(2)目標の達成度をパラメータの関数で表現し、最適化計算の要領で達成度が増加する方向にパラメータを変化させる
なお、ここに示したパラメータの再設定の方法も同様に、この例に限られるものではなく、その他の手法を用いることが可能である。
In addition, as a method for resetting parameters, the following methods can be cited.
(1) Change the parameter in one direction to increase or decrease in order (2) Express the achievement level of the target as a function of the parameter, and change the parameter in the direction to increase the achievement level in the way of optimization calculation Similarly, the parameter resetting method is not limited to this example, and other methods can be used.

ステップS107における判定の結果、条件を満たす場合(ステップS107のYes)、画像処理装置10は、注目領域決定部19が抽出した注目領域候補を、注目領域に決定し(ステップS108)、処理動作を終了する。   As a result of the determination in step S107, if the condition is satisfied (Yes in step S107), the image processing apparatus 10 determines the attention area candidate extracted by the attention area determination unit 19 as the attention area (step S108), and performs the processing operation. finish.

一方、条件を満たさない場合(ステップS107のNo)、画像処理装置10は、再度ステップS103に戻ってパラメータの再設定を行なう。ここで、画像処理装置10は、パラメータの再設定の回数に応じて、ステップS103ではなく、ステップS101に戻って、再度ユーザから指示情報の取得を行なうとしてもよい。   On the other hand, when the condition is not satisfied (No in step S107), the image processing apparatus 10 returns to step S103 again and resets the parameters. Here, the image processing apparatus 10 may return to step S101 instead of step S103 and acquire instruction information from the user again according to the number of parameter resets.

続いて、本発明の実施の形態に係る画像入力装置10の応用例について説明する。
図8は、本実施の形態に係る画像処理装置10の代表的な構成を示すブロック図であり、図9は、上記構成の画像処理装置10の処理動作を示すフローチャートである。
Next, an application example of the image input apparatus 10 according to the embodiment of the present invention will be described.
FIG. 8 is a block diagram showing a typical configuration of the image processing apparatus 10 according to the present embodiment, and FIG. 9 is a flowchart showing a processing operation of the image processing apparatus 10 having the above configuration.

まず、画像処理装置10は、画像入力部11を介して、注目領域を抽出する画像を装置内に取り込む(ステップS200)。このとき、画像処理装置10は、変換画像、ならびに変換画像から抽出される特徴量を特定するカウンタkを「1」に初期化する(ステップS201)。   First, the image processing apparatus 10 takes in an image for extracting a region of interest into the apparatus via the image input unit 11 (step S200). At this time, the image processing apparatus 10 initializes the converted image and the counter k that specifies the feature amount extracted from the converted image to “1” (step S201).

次に、画像処理装置10は、指示入力部12を介して、入力画像に対するユーザからの指示情報を取得し、解析する(ステップS202)。指示情報には、抽出する画像特徴量、ないしは注目度の選択に関わるものと、注目領域の決定および表示方法に関わるものがある。例えば、前者の情報として「人の顔が写っている部分」、「丸い物が写っている部分」、「赤っぽい部分」、「青っぽい部分」、「緑っぽい部分」、「明るい部分」、「暗い部分」、「派手な部分」、「落ち着いた部分」などが、後者の情報として「注目度が最大値の25%以上の画素が注目領域に属する」、「矩形の領域を選択する」、「注目度が高い部分を明るく表示する」などが選択できる。   Next, the image processing apparatus 10 acquires and analyzes instruction information from the user for the input image via the instruction input unit 12 (step S202). The instruction information includes information relating to selection of an image feature amount to be extracted or attention level, and information relating to a method of determining and displaying an attention area. For example, as the former information, “parts where a person's face is reflected”, “parts where a round object is reflected”, “reddish part”, “bluish part”, “greenish part”, “bright part” , “Dark part”, “flashy part”, “calm part”, etc. are selected as the latter information “pixels with a degree of attention of 25% or more of the maximum value belong to the attention area”, “rectangular area” ”,“ Display a portion with a high degree of attention brightly ”, and the like.

なお、ユーザから取得する情報は、「旅行の写真からサムネイル(一覧表示のための縮小版画像)を作成する」や「人が写っている部分だけを切り出す」など、ユーザが行いたい処理に関する情報であってもよく、また、これらの例に限られるものではなく、任意の情報を用いることができ、ユーザから取得する情報は、1種類だけであってもよく、複数の情報を取得してもよい。   The information acquired from the user is information related to the processing that the user wants to perform, such as “create thumbnails (reduced version images for list display) from travel photos” and “cut out only the part where people are shown”. However, the present invention is not limited to these examples, and arbitrary information can be used. Information acquired from the user may be only one type, and a plurality of pieces of information may be acquired. Also good.

ここで、画像処理装置10が、ユーザから指示情報を取得するために表示出力するユーザインタフェース画面の例を、図10〜13に示す。
図10は、ユーザインタフェース画面の第1例を示す図である。
Here, examples of user interface screens that the image processing apparatus 10 displays and outputs in order to acquire instruction information from the user are shown in FIGS.
FIG. 10 is a diagram illustrating a first example of a user interface screen.

画像表示装置10は、図10に示すような表示画面210を表示装置に出力して、ユーザから領域抽出モードの指定を受け付ける。ここで、領域抽出モードとは、注目領域の抽出の手法を意味し、図中の証明写真モードであれば、ユーザから詳細な指示情報を取得することなく、人の顔付近を注目度が高い領域として抽出することになる。ここでは、ユーザから詳細な指示情報を取得するマニュアルモードが選択されている様子が示されているので、ユーザが次ページボタン211を押下する操作を行なうと、画像表示装置10は、図11に示すような画面に表示を切り替える。   The image display device 10 outputs a display screen 210 as shown in FIG. 10 to the display device, and accepts designation of the region extraction mode from the user. Here, the region extraction mode means a method of extracting a region of interest. In the case of the ID photo mode in the figure, attention is high in the vicinity of a person's face without obtaining detailed instruction information from the user. It will be extracted as a region. Here, a state is shown in which a manual mode for acquiring detailed instruction information from the user is selected. Therefore, when the user performs an operation of pressing the next page button 211, the image display device 10 is displayed in FIG. Switch the display to the screen as shown.

図11は、ユーザインタフェース画面の第2例を示す図である。
画像表示装置10は、図11に示すような表示画面220を表示装置に出力して、画像に含まれる被写体の何に注目するか、すなわち、何を注目領域とするかについて、ユーザからの指定を受け付ける。ここでは、ユーザから、「色鮮やかなところ」という指示がテキスト入力されている様子が示されており、ユーザが次ページボタン221を押下する操作を行なうと、画像表示装置10は、図12に示すような画面に表示を切り替える。
FIG. 11 is a diagram illustrating a second example of the user interface screen.
The image display apparatus 10 outputs a display screen 220 as shown in FIG. 11 to the display apparatus, and designates what the subject included in the image is to be focused on, that is, what is the attention area from the user. Accept. Here, a state in which an instruction “colorful place” is input from the user is shown, and when the user performs an operation of pressing the next page button 221, the image display apparatus 10 is displayed in FIG. Switch the display to the screen as shown.

図12は、ユーザインタフェース画面の第3例を示す図である。
画像表示装置10は、図12に示すような表示画面230を表示装置に出力して、ユーザから注目領域の抽出方法について指定を受け付ける。ここでは、ユーザから、「よく見えるように」という指示がテキスト入力されている様子が示されており、ユーザが次ページボタン231を押下する操作を行なうと、画像表示装置10は、図13に示すような画面に表示を切り替える。
FIG. 12 is a diagram illustrating a third example of the user interface screen.
The image display device 10 outputs a display screen 230 as shown in FIG. 12 to the display device, and accepts designation of the attention area extraction method from the user. Here, a state in which an instruction “to make it look good” is input from the user is shown. When the user performs an operation of pressing the next page button 231, the image display device 10 is displayed in FIG. Switch the display to the screen as shown.

図13は、ユーザインタフェース画面の第4例を示す図である。
画像表示装置10は、図13に示すような表示画面240を表示装置に出力して、ユーザから注目領域の表示方法について指定を受け付ける。ここでは、ユーザから、「強調されるように」という指示がテキスト入力されている様子が示されている。そして、ユーザが領域抽出ボタン241を押下する操作を行なうと、画像表示装置10は、ユーザの指示情報を解析して、図9に示したステップS203の処理を行なう。
FIG. 13 is a diagram illustrating a fourth example of the user interface screen.
The image display device 10 outputs a display screen 240 as shown in FIG. 13 to the display device, and receives designation from the user regarding the method of displaying the attention area. Here, a state in which an instruction “to be emphasized” is input from the user as text is shown. When the user performs an operation of pressing the region extraction button 241, the image display apparatus 10 analyzes the user instruction information and performs the process of step S203 shown in FIG.

なお、ここに示したユーザインタフェース画面の表示例は、表示の一例に過ぎず、これらに限定されることを意図するものでないことはいうまでもない。
以下、再び図9を参照しながら図8に示した構成の画像処理装置10の処理動作の説明を続ける。
It should be noted that the display examples of the user interface screen shown here are merely examples of display and are not intended to be limited to these.
Hereinafter, the description of the processing operation of the image processing apparatus 10 having the configuration shown in FIG. 8 will be continued with reference to FIG. 9 again.

画像処理装置10は、ステップS202で解析した結果に基づいて、後述する各種処理の実際の内容、およびパラメータを設定する(ステップS203)。パラメータの設定方法として、例えば、以下の方法が挙げられる。
(1)あらかじめ決められた初期値を設定する
(2)目標の達成度を設定するパラメータの関数として表現し、達成度が最大になるパラメータの値を設定する
(3)データベース18から入力画像に似たような画像に対する抽出結果を参照し、その時のパラメータを設定する
なお、パラメータの設定方法は上記の例に限るものではなく、その他の手法を用いることも可能である。
The image processing apparatus 10 sets actual contents and parameters of various processes to be described later based on the result of analysis in step S202 (step S203). Examples of the parameter setting method include the following methods.
(1) Set a predetermined initial value (2) Express as a function of a parameter for setting the achievement level of the target, and set a parameter value that maximizes the achievement level (3) From the database 18 to the input image Refer to the extraction results for similar images and set the parameters at that time. The parameter setting method is not limited to the above example, and other methods may be used.

続いて、画像処理装置10は、画像変換部17において、入力画像から変換画像を生成する(ステップS204)。画像変換として、例えば以下のような変換を行なう。
(a)入力画像のRGB成分のうち、R成分のみからなる画像を生成する。同様に、G成分のみからなる画像、B成分のみからなる画像を生成する。
(b)入力画像の輝度成分のみからなる画像を生成する。輝度成分Yは、下に示す数式3で求められる。
Subsequently, in the image processing apparatus 10, the image conversion unit 17 generates a converted image from the input image (step S204). As the image conversion, for example, the following conversion is performed.
(A) Of the RGB components of the input image, an image consisting only of the R component is generated. Similarly, an image consisting only of the G component and an image consisting only of the B component are generated.
(B) Generate an image consisting only of the luminance component of the input image. The luminance component Y is obtained by Equation 3 shown below.

(数3)
Y=0.299*R+0.587*G+0.114*B
(Equation 3)
Y = 0.299 * R + 0.587 * G + 0.114 * B

(c)入力画像を2*2、4*4などの小領域に分割し、領域内の各画素の画素値を、領域内の全画素の画素値の平均値に置き換えた画像を生成する。
(d)画像全体に平滑化フィルタを適用した画像を生成する。ここで、平滑化フィルタとして、例えば3*3平均値フィルタを適用することができる。3*3平均値フィルタでは、注目画素の画素値を決定する際に、下に示す表1のように、自身の近傍の画素値を加重平均して注目画素の新たな画素値を決定する。
(C) The input image is divided into small areas such as 2 * 2, 4 * 4, and an image in which the pixel value of each pixel in the area is replaced with the average value of the pixel values of all the pixels in the area is generated.
(D) An image in which a smoothing filter is applied to the entire image is generated. Here, for example, a 3 * 3 average filter can be applied as the smoothing filter. In the 3 * 3 average value filter, when the pixel value of the target pixel is determined, a new pixel value of the target pixel is determined by performing weighted averaging of the pixel values in the vicinity of itself as shown in Table 1 below.

Figure 2006013722
Figure 2006013722

なお、その他の一般に広く知られている平滑化フィルタの例としては、ガウシアンフィルタ(Gaussian Filter)やメディアンフィルタ(Median Filter)等がある。
(e)入力画像の解像度を変換する。
Examples of other generally known smoothing filters include a Gaussian filter and a median filter.
(E) The resolution of the input image is converted.

なお、画像変換部17は、上記した(a)〜(e)の変換方法以外にも、既存の画像処理手法を、画像変換に用いるとしてもよく、ステップS102で入力された指示情報に従って、画像変換を行なうとしてもよい。   In addition to the conversion methods (a) to (e) described above, the image conversion unit 17 may use an existing image processing method for image conversion. According to the instruction information input in step S102, the image conversion unit 17 Conversion may be performed.

画像変換部17は、これらの処理を、カウンタkの値が予め定められた変換画像の枚数nに達するまでカウンタkをインクリメントしながら繰り返す(ステップS205およびステップS206)。   The image conversion unit 17 repeats these processes while incrementing the counter k until the value of the counter k reaches a predetermined number n of converted images (step S205 and step S206).

続いて、画像処理装置10は、画像特徴量抽出部15において、再びカウンタkの値を「1」に初期化し(ステップS207)、生成したn枚の変換画像からそれぞれ画像特徴量を求める(ステップS208)。ここで、画像特徴量抽出部15は、特徴量として、例えば以下のものを求める。
(a)入力画像のR成分のみからなる画像に対して、画像のエッジ成分を求める。G成分のみからなる画像およびB成分のみからなる画像に対しても同様にエッジ成分を求める。エッジ成分を求める方法として、例えば3*3ラプラシアンフィルタ(Laplacian Filter)を適用することができる。3*3ラプラシアンフィルタでは、注目画素のエッジ成分の大きさを決定する際に、自身の近傍の画素を下に示す表2aまたは表2bのように重み付けして足し合わせることで、注目画素のエッジ成分を決定する。
Subsequently, the image processing apparatus 10 initializes the value of the counter k to “1” again in the image feature amount extraction unit 15 (step S207), and obtains the image feature amount from each of the generated n converted images (step S207). S208). Here, the image feature quantity extraction unit 15 obtains, for example, the following as feature quantities.
(A) An edge component of an image is obtained for an image composed only of the R component of the input image. Edge components are obtained in the same manner for images consisting only of the G component and images consisting only of the B component. As a method for obtaining the edge component, for example, a 3 * 3 Laplacian filter can be applied. In the 3 * 3 Laplacian filter, when determining the size of the edge component of the target pixel, the neighboring pixels are weighted and added as shown in Table 2a or Table 2b below, thereby adding the edge of the target pixel. Determine the ingredients.

Figure 2006013722
Figure 2006013722

Figure 2006013722
Figure 2006013722

なお、その他の一般に広く知られているエッジ抽出方法としては、ソーベルフィルタ(Sobel Filter)やプレウィットフィルタ(Prewitt Filter)等のフィルタを適用する方法や、ウェーブレット変換(Wavelet Transform)を利用する方法等がある。
(b)入力画像の輝度成分からなる画像に対して、(a)と同様にしてエッジ成分を求める。
(c)入力画像を8*8のブロックに分割し、各ブロックに対して離散コサイン変換(DCT:Discrete Cosine Transform)を行なう。
(d)入力画像の各画素に対して、特定の色の画素値とのユークリッド距離を求める。
(e)入力画像をいくつかの小領域に分け、各領域に属する画素のRGB値の度数分布を表すカラーヒストグラムを求める。なお、ステップS103で、例えばHSV表色系やHSI表色系など、他の色空間への変換を行い、それらの画素値に対するカラーヒストグラムを求めてもよい。
(f)入力画像全体に対して、例えば顔などの被写体のテンプレートとのマッチングを行い、そのマッチングの度合いを示すスコアを求める。
Other commonly known edge extraction methods include a method of applying a filter such as a Sobel filter or a Prewitt filter, or a method of using a wavelet transform. Etc.
(B) An edge component is obtained for an image composed of luminance components of the input image in the same manner as in (a).
(C) The input image is divided into 8 * 8 blocks, and a discrete cosine transform (DCT) is performed on each block.
(D) The Euclidean distance between each pixel of the input image and the pixel value of a specific color is obtained.
(E) The input image is divided into several small areas, and a color histogram representing the frequency distribution of RGB values of pixels belonging to each area is obtained. In step S103, conversion to another color space such as an HSV color system or an HSI color system may be performed, and a color histogram for these pixel values may be obtained.
(F) The entire input image is matched with a template of a subject such as a face, for example, and a score indicating the degree of matching is obtained.

なお、画像特徴量抽出部15は、上記した(a)〜(f)の画像特徴量抽出方法以外に、既存の画像特徴量抽出手法を用いて、入力画像の特徴量を抽出するとしても良い。また、入力画像に対してこれらの特徴量のすべてを求めてもよく、ステップS202で入力された指示情報に基づき、必要な特徴量のみを求めてもよい。   Note that the image feature quantity extraction unit 15 may extract the feature quantity of the input image using an existing image feature quantity extraction method other than the image feature quantity extraction methods (a) to (f) described above. . Further, all of these feature amounts may be obtained for the input image, or only a necessary feature amount may be obtained based on the instruction information input in step S202.

画像特徴量抽出部15は、ステップS204と同様に、これらの処理を、カウンタkの値が変換画像の枚数nに達するまでカウンタkをインクリメントしながら繰り返す(ステップS209およびステップS210)。   Similarly to step S204, the image feature quantity extraction unit 15 repeats these processes while incrementing the counter k until the value of the counter k reaches the number n of converted images (step S209 and step S210).

続いて、画像処理装置10は、注目度算出部16において、このようにして求めた画像特徴量と、ステップS202で取得した指示情報とに基づいて、注目度を算出する(ステップS211)。   Subsequently, the image processing apparatus 10 calculates the attention level in the attention level calculation unit 16 based on the image feature amount thus obtained and the instruction information acquired in Step S202 (Step S211).

例えば、指示情報が「赤っぽい部分」であった場合、先述の画像特徴量の中から、(1)各画素の画素値と、(R、G、B)=(255、0、0)で表される赤色との距離、(2)入力画像のR成分のエッジ強度、を利用することで、赤色成分の変化が大きく、かつ実際に赤色に近い部分に対して高い注目度を割り当てることができる。   For example, when the instruction information is a “reddish part”, (1) the pixel value of each pixel and (R, G, B) = (255, 0, 0) from the above-described image feature amount. (2) The R component edge strength of the input image is used to assign a high degree of attention to a portion where the change in the red component is large and actually close to red. Can do.

同様に、指示情報が「派手な部分」であった場合、画像特徴量として、(1)8*8ブロックにおけるDCT係数の高周波成分、(2)入力画像の輝度成分のエッジ強度、(3)各画素のHSV表色系における彩度値、を利用することで、色・輝度の変化が激しく、かつ、色が鮮やかな部分に対して高い注目度を割り当てることができる。   Similarly, when the instruction information is “flashy part”, the image feature amount is (1) the high frequency component of the DCT coefficient in the 8 * 8 block, (2) the edge strength of the luminance component of the input image, (3) By using the saturation value in the HSV color system of each pixel, it is possible to assign a high degree of attention to a portion where the color / brightness changes drastically and the color is bright.

なお、ここに挙げた指示情報と画像特徴量との対応関係は一例であり、同様の指示情報に対して異なる画像特徴量を利用することもできる。
ここで、指示情報の中に注目度の算出に関わる情報が含まれていない場合には、注目度算出部16は、例えば各画像特徴量の値をそれぞれ足し合わせて注目度とする等の所定の方法に従って注目度を求める。
Note that the correspondence relationship between the instruction information and the image feature amount given here is merely an example, and different image feature amounts can be used for similar instruction information.
Here, when the instruction information does not include information related to the calculation of the attention level, the attention level calculation unit 16 adds a value of each image feature amount to obtain the attention level, for example. The degree of attention is obtained according to the method.

その後、画像処理装置10は、注目領域決定部19において、ステップS211で求めた注目度に基づいて、画像のどの領域を注目領域とするか、すなわち、注目領域候補を抽出する(ステップS212)。   Thereafter, in the attention area determination unit 19, the image processing apparatus 10 extracts which area of the image is the attention area, that is, a attention area candidate, based on the attention degree obtained in step S211 (step S212).

例えば、注目領域候補の決定方法として、以下のような方法が挙げられる。
まず、各画素に割り当てられた注目度の最大値をSMaxとし、閾値Thを決める。ただし、0≦Th≦1とする。
For example, as a method for determining a region of interest candidate, the following method may be mentioned.
First, the maximum value of the degree of attention assigned to each pixel is set to SMax, and the threshold value Th is determined. However, 0 ≦ Th ≦ 1.

次に、各画素の注目度Sとした時、下記の数式4の関係が成り立つ画素を注目領域に属する画素と判定する。   Next, when the attention level S of each pixel is set, a pixel satisfying the relationship of the following formula 4 is determined as a pixel belonging to the attention area.

(数4)
S≧SMax * Th
(Equation 4)
S ≧ SMax * Th

そして、注目領域に属する画素と判定された画素全体を包含する矩形全体を注目領域候補として抽出する。   Then, the entire rectangle including the entire pixels determined to belong to the attention area is extracted as the attention area candidate.

この抽出方法の動作を模式的に示した図が、上記した図3(a)〜(c)である。すなわち、図3(a)に原画像、図3(b)に注目領域候補の設定例、図3(c)に設定された注目領域候補の内部のみが表示されている例が示されている。   FIGS. 3A to 3C are diagrams schematically showing the operation of this extraction method. 3A shows the original image, FIG. 3B shows an example of setting the attention area candidate, and FIG. 3C shows an example in which only the inside of the attention area candidate set is displayed. .

また、注目領域決定部19は、以下のようにして注目領域候補を抽出することも可能である。
すなわち、各画素に割り当てられた注目度の最大値をSMaxとし、閾値Thを決める。ただし、0≦Th≦1とする。
In addition, the attention area determination unit 19 can also extract attention area candidates as follows.
That is, the maximum value of the degree of attention assigned to each pixel is SMax, and the threshold Th is determined. However, 0 ≦ Th ≦ 1.

次に、各画素の注目度Sとした時、上記数式4の関係が成り立つ画素を注目領域に属する画素と判定する。
そして、注目領域に属する画素と判定された各画素を中心に半径rの円を描き、いずれかの円に属する画素を注目領域候補として抽出する。
Next, when the attention degree S of each pixel is set, a pixel satisfying the relationship of the above mathematical formula 4 is determined as a pixel belonging to the attention area.
Then, a circle with a radius r is drawn around each pixel determined to be a pixel belonging to the attention area, and a pixel belonging to one of the circles is extracted as a attention area candidate.

この抽出方法の動作を模式的に示した図が、上記した図5(a)〜(c)である。すなわち、図5(a)に原画像、図5(b)に注目領域候補の設定例、図5(c)に、最終的に選択される注目領域候補が表示されている例が示されている。   FIGS. 5A to 5C are diagrams schematically showing the operation of this extraction method. That is, FIG. 5A shows an original image, FIG. 5B shows an example of setting an attention area candidate, and FIG. 5C shows an example in which an attention area candidate to be finally selected is displayed. Yes.

なお、注目領域決定部19は、ステップS202で入力された指示情報に従って、注目領域候補の抽出方法や、画像の表示方法を変更してもよい。例えば指示情報が「注目度の高い画素ほど明るく表示する」であった場合、注目度の高い画素の近傍ほど明度が高くなるように表示することで、より印象的な表示が可能になる。   Note that the attention area determination unit 19 may change the extraction method of the attention area candidate and the image display method according to the instruction information input in step S202. For example, when the instruction information is “display a pixel with a higher degree of attention brighter”, the display is made such that the brightness is higher in the vicinity of the pixel with a higher degree of attention, thereby enabling a more impressive display.

その後、画像表示装置10は、注目領域決定部19において、ステップS212で得られた注目領域候補が、ユーザの要求を満足しているか、すなわち、希望の領域が得られたか否かを判定する(S213)。   Thereafter, the image display device 10 determines in the attention area determination unit 19 whether the attention area candidate obtained in step S212 satisfies the user's request, that is, whether a desired area has been obtained ( S213).

希望の領域が得られた場合(ステップS213のYes)、注目領域決定部19は、注目領域候補を注目領域に決定し(S214)、処理動作を終了する。
一方、希望の領域が得られなかった場合(ステップS213のNo)、ステップS203に戻って再度パラメータの設定を行なう。
When the desired area is obtained (Yes in step S213), the attention area determination unit 19 determines the attention area candidate as the attention area (S214), and ends the processing operation.
On the other hand, if the desired area is not obtained (No in step S213), the process returns to step S203 to set the parameters again.

パラメータの再設定の方法としては、例えば以下のような方法が挙げられる。
(1)パラメータを増加、減少の一方向に順に変化させる
(2)目標の達成度をパラメータの関数で表現し、最適化計算の要領で達成度が増加する方向にパラメータを変化させる
なお、パラメータの再設定の方法は上記の例に限るものではなく、その他の手法を用いることも可能である。
Examples of the parameter resetting method include the following methods.
(1) Change the parameter in order to increase or decrease (2) Express the achievement level of the target as a function of the parameter, and change the parameter in the direction of increasing the achievement level in the way of optimization calculation The resetting method is not limited to the above example, and other methods can also be used.

このように、本実施の形態に係る画像表示装置によれば、ユーザやシステム側から注目領域に関する指示を取得して解析し、その指示に基づいて、画像中から注目領域とすべき領域を特定して抽出するので、ユーザやシステムの要求に合致した注目領域を抽出することができる。   As described above, according to the image display device according to the present embodiment, an instruction relating to the attention area is obtained from the user or the system side and analyzed, and the area to be the attention area is specified from the image based on the instruction. Therefore, it is possible to extract a region of interest that matches the requirements of the user and the system.

また、ユーザは、抽出すべき領域の決定方法を、適応的に変更することができるので、画像中から柔軟に注目領域を取得することが可能となる。
さらに、画像特徴量から注目度を算出して注目領域を決定するので、ユーザの曖昧な要求に対しても適切に応答することができる。
In addition, since the user can adaptively change the method for determining the region to be extracted, it is possible to flexibly acquire the region of interest from the image.
Furthermore, since the attention level is calculated from the image feature amount to determine the attention area, it is possible to appropriately respond to an ambiguous request from the user.

以上、本発明に係る画像処理装置について実施の形態に基づいて説明したが、本発明は、この実施の形態に限定されるものではない。
例えば、上記実施の形態では、注目領域決定部19において、注目領域の形状に加えて、その表示方法も決定するとしたが、出力部20で注目領域の表示方法を決定するとしてもよい。
The image processing apparatus according to the present invention has been described based on the embodiment, but the present invention is not limited to this embodiment.
For example, in the above embodiment, the attention area determination unit 19 determines the display method in addition to the shape of the attention area, but the output unit 20 may determine the display method of the attention area.

また、画像処理装置10の処理動作として、図9に示したフローチャートを説明したが、図14に示すフローチャートのようにしてもよい。すなわち、図9のフローチャートでは、入力画像から一旦すべての変換画像を生成した後に、生成された変換画像ごとに特徴量抽出を行なうとしたが、図14のフローチャートのように、入力画像から変換画像を生成する度に、変換画像に対して特徴量抽出を行なうとしてもよい(ステップS304〜ステップS307)。   Further, although the flowchart shown in FIG. 9 has been described as the processing operation of the image processing apparatus 10, the flowchart shown in FIG. 14 may be used. That is, in the flowchart of FIG. 9, after all the converted images are once generated from the input image, the feature amount is extracted for each generated converted image. However, as shown in the flowchart of FIG. The feature amount may be extracted from the converted image each time (Step S304 to Step S307).

また、図9におけるステップS211等で求めた注目度をデータベース18に格納し、別の処理に用いてもよい。
また、図9におけるステップS211等を省略することで、画像特徴量の値そのものから直接注目領域を決定するとしてもよい。
Further, the attention level obtained in step S211 in FIG. 9 may be stored in the database 18 and used for another process.
Further, by omitting step S211 in FIG. 9 and the like, the attention area may be determined directly from the image feature value itself.

また、図9におけるステップS211等で注目度を求める代わりに、データベース18より注目度の値を読み出し、その値に基づいて後段の処理を行なうとしてもよい。
また、図9におけるステップS212等で求めた注目領域に従って、出力部20を介して画像をディスプレイ等の表示装置やプリンタ等の印刷装置に出力してもよい。
Also, instead of obtaining the attention level in step S211 in FIG.
Further, an image may be output to a display device such as a display or a printing device such as a printer via the output unit 20 in accordance with the attention area obtained in step S212 in FIG.

さらに、図9におけるステップS213等を省略することで、最初に設定した処理方法およびパラメータで求めた注目領域をそのまま最終的な出力として扱ってもよい。
また、本発明に係る画像表示装置は、その範囲を逸脱することなく本発明の趣旨に沿って様々の変形または修正が可能であることはいうまでもない。
Furthermore, by omitting step S213 in FIG. 9 or the like, the attention area obtained by the initially set processing method and parameters may be directly handled as the final output.
It goes without saying that the image display apparatus according to the present invention can be variously modified or modified within the spirit of the present invention without departing from the scope thereof.

本発明に係る画像処理装置および画像処理方法は、ユーザおよびシステムの要求に応じて画像内の領域を適応的に選択するための装置、および方法として有用であり、デジタル・スチル・カメラをはじめとする画像の撮像装置および表示装置等に好適である。   The image processing apparatus and the image processing method according to the present invention are useful as an apparatus and a method for adaptively selecting a region in an image according to user and system requirements, including a digital still camera and the like. It is suitable for an image capturing device, a display device, and the like.

本発明の実施の形態に係る画像処理装置の機能ブロック図である。1 is a functional block diagram of an image processing apparatus according to an embodiment of the present invention. ユーザの指示に応じて注目度の値を変化させ、その結果、注目領域が変化することを示した模式図である。It is the schematic diagram which showed that the value of the attention level was changed according to a user's instruction | indication, and, as a result, an attention area | region changes. 第1の注目領域の抽出方法を模式的に示す図である。It is a figure which shows typically the extraction method of the 1st attention area. 第2の注目領域の抽出方法を模式的に示す図である。It is a figure which shows typically the extraction method of the 2nd attention area. 第3の注目領域の抽出方法を模式的に示す図である。It is a figure which shows typically the extraction method of the 3rd attention area. ユーザの指示に応じて閾値を変化させ、その結果、注目領域が変化することを示した模式図である。It is the schematic diagram which changed a threshold value according to a user's instruction | indication, and showed that an attention area changed as a result. 本実施の形態に係る画像処理装置の処理の流れを示すフローチャートである。4 is a flowchart showing a flow of processing of the image processing apparatus according to the present embodiment. 本実施の形態に係る画像処理装置の代表的な構成を示すブロック図である。It is a block diagram which shows the typical structure of the image processing apparatus which concerns on this Embodiment. 図8に示す画像処理装置の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the image processing apparatus shown in FIG. ユーザインタフェース画面の第1例を示す図である。It is a figure which shows the 1st example of a user interface screen. ユーザインタフェース画面の第2例を示す図である。It is a figure which shows the 2nd example of a user interface screen. ユーザインタフェース画面の第3例を示す図である。It is a figure which shows the 3rd example of a user interface screen. ユーザインタフェース画面の第4例を示す図である。It is a figure which shows the 4th example of a user interface screen. 図8に示す画像処理装置の別の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of another process of the image processing apparatus shown in FIG.

符号の説明Explanation of symbols

10 画像処理装置
11 画像入力部
12 指示入力部
13 領域特定部
14 注目度判定部
15 画像特徴量抽出部
16 注目度算出部
17 画像変換部
18 データベース
19 注目領域決定部
20 出力部
210、220、230、240 表示画面
211、221、231 次ページボタン
241 領域抽出ボタン
DESCRIPTION OF SYMBOLS 10 Image processing apparatus 11 Image input part 12 Instruction input part 13 Area | region specific part 14 Attention level determination part 15 Image feature-value extraction part 16 Attention degree calculation part 17 Image conversion part 18 Database 19 Attention area determination part 20 Output part 210,220, 230, 240 Display screen 211, 221, 231 Next page button 241 Area extraction button

Claims (44)

画像中に含まれる所定の領域を抽出する画像処理装置であって、
前記抽出の条件として、前記画像の属性に関する指示情報を取得する指示取得手段と、
前記指示取得手段が取得した指示情報に基づいて、前記画像中から抽出すべき領域を特定する領域特定手段とを備える
ことを特徴とする画像処理装置。
An image processing apparatus for extracting a predetermined area included in an image,
As the extraction condition, instruction acquisition means for acquiring instruction information regarding the attribute of the image;
An image processing apparatus comprising: area specifying means for specifying an area to be extracted from the image based on the instruction information acquired by the instruction acquiring means.
前記指示取得手段は、前記取得した指示情報を解析し、
前記領域特定手段は、前記指示情報の解析結果に応じて、抽出すべき領域を変更する
ことを特徴とする請求項1に記載の画像処理装置。
The instruction acquisition means analyzes the acquired instruction information,
The image processing apparatus according to claim 1, wherein the area specifying unit changes an area to be extracted according to an analysis result of the instruction information.
前記領域特定手段は、さらに、
前記画像に含まれる領域について、注目を集める度合いである注目度を算出する注目度判定部を備え、
前記注目度判定部で算出された注目度に応じて、抽出すべき領域を変更する
ことを特徴とする請求項1または2に記載の画像処理装置。
The region specifying means further includes:
An attention level determination unit that calculates a degree of attention, which is a degree of attracting attention, for the region included in the image,
The image processing apparatus according to claim 1, wherein an area to be extracted is changed according to the attention level calculated by the attention level determination unit.
前記注目度判定部は、さらに、
前記画像に含まれる領域について、その領域が有する特性である所定の画像特徴量を抽出する画像特徴量抽出部と、
前記画像特徴量に基づいて、前記注目度を算出する注目度算出部とを備える
ことを特徴とする請求項3に記載の画像処理装置。
The attention level determination unit further includes:
An image feature amount extraction unit that extracts a predetermined image feature amount that is a characteristic of the region included in the image;
The image processing apparatus according to claim 3, further comprising: an attention level calculation unit that calculates the attention level based on the image feature amount.
前記所定の画像特徴量は、画像の各画素におけるエッジ成分の大きさである
ことを特徴とする請求項4に記載の画像処理装置。
The image processing apparatus according to claim 4, wherein the predetermined image feature amount is a size of an edge component in each pixel of the image.
前記所定の画像特徴量は、画像の周波数成分である
ことを特徴とする請求項4に記載の画像処理装置。
The image processing apparatus according to claim 4, wherein the predetermined image feature amount is a frequency component of an image.
前記所定の画像特徴量は、画像に含まれる所定の領域の色分布である
ことを特徴とする請求項4に記載の画像処理装置。
The image processing apparatus according to claim 4, wherein the predetermined image feature amount is a color distribution of a predetermined region included in the image.
前記所定の画像特徴量は、各画素の色成分と画像全体の平均色との色空間上における距離である
ことを特徴とする請求項4に記載の画像処理装置。
The image processing apparatus according to claim 4, wherein the predetermined image feature amount is a distance in a color space between a color component of each pixel and an average color of the entire image.
前記所定の画像特徴量は、各画素の色成分と画像に含まれる所定の領域の平均色との距離である
ことを特徴とする請求項4に記載の画像処理装置。
The image processing apparatus according to claim 4, wherein the predetermined image feature amount is a distance between a color component of each pixel and an average color of a predetermined area included in the image.
前記所定の画像特徴量は、画像に含まれる所定の領域における画素値のエントロピーである
ことを特徴とする請求項4に記載の画像処理装置。
The image processing apparatus according to claim 4, wherein the predetermined image feature amount is an entropy of a pixel value in a predetermined region included in the image.
前記所定の画像特徴量は、各画素の奥行き方向の距離である
ことを特徴とする請求項4に記載の画像処理装置。
The image processing apparatus according to claim 4, wherein the predetermined image feature amount is a distance in a depth direction of each pixel.
前記所定の画像特徴量は、画像に含まれる被写体の位置である
ことを特徴とする請求項4に記載の画像処理装置。
The image processing apparatus according to claim 4, wherein the predetermined image feature amount is a position of a subject included in the image.
前記所定の画像特徴量は、画像に含まれる被写体の種類である
ことを特徴とする請求項4に記載の画像処理装置。
The image processing apparatus according to claim 4, wherein the predetermined image feature amount is a type of a subject included in the image.
前記所定の画像特徴量は、画像の各画素におけるエッジ成分の大きさ、画像の周波数成分、画像に含まれる所定の領域の色分布、各画素の色成分と画像全体の平均色との色空間上における距離、各画素の色成分と画像に含まれる所定の領域の平均色との距離、画像に含まれる所定の領域における画素値のエントロピー、各画素の奥行き方向の距離、画像に含まれる被写体の位置、および、画像に含まれる被写体の種類のうち、いずれかの組み合わせである
ことを特徴とする請求項4に記載の画像処理装置。
The predetermined image feature amount includes the size of the edge component in each pixel of the image, the frequency component of the image, the color distribution of a predetermined area included in the image, and the color space between the color component of each pixel and the average color of the entire image. Distance above, distance between the color component of each pixel and the average color of the predetermined area included in the image, entropy of the pixel value in the predetermined area included in the image, distance in the depth direction of each pixel, subject included in the image The image processing apparatus according to claim 4, wherein the image processing apparatus is a combination of any of the following positions and the types of subjects included in the image.
前記特徴量抽出部は、
前記指示取得手段が取得した指示情報に基づいて、抽出する画像特徴量の種類を変更する
ことを特徴とする請求項4〜14のいずれか1項に記載の画像処理装置。
The feature amount extraction unit includes:
The image processing apparatus according to any one of claims 4 to 14, wherein the type of image feature amount to be extracted is changed based on the instruction information acquired by the instruction acquisition unit.
前記注目度算出部は、
前記画像特徴量の値に関するパラメータを変更することによって、前記抽出された画像特徴量の値ごとに、前記注目度の値を算出する
ことを特徴とする請求項4〜15のいずれか1項に記載の画像処理装置。
The attention level calculation unit
The value of the degree of attention is calculated for each value of the extracted image feature value by changing a parameter related to the value of the image feature value. The image processing apparatus described.
前記注目度算出部は、
前記指示取得手段が取得した指示情報に基づいて、前記パラメータを変更する
ことを特徴とする請求項16に記載の画像処理装置。
The attention level calculation unit
The image processing apparatus according to claim 16, wherein the parameter is changed based on instruction information acquired by the instruction acquisition unit.
前記注目度算出部は、
前記画像特徴量の値を、前記注目度の値とする
ことを特徴とする請求項4に記載の画像処理装置。
The attention level calculation unit
The image processing apparatus according to claim 4, wherein the value of the image feature amount is the value of the degree of attention.
前記画像処理装置は、さらに、
前記画像に対して所定の変換を施す画像変換手段を備える
ことを特徴とする請求項3〜18のいずれか1項に記載の画像処理装置。
The image processing apparatus further includes:
The image processing apparatus according to claim 3, further comprising an image conversion unit that performs predetermined conversion on the image.
前記所定の変換は、前記画像の拡大または縮小である
ことを特徴とする請求項19に記載の画像処理装置。
The image processing apparatus according to claim 19, wherein the predetermined conversion is enlargement or reduction of the image.
前記所定の変換は、前記画像の一部を切り出すトリミングである
ことを特徴とする請求項19に記載の画像処理装置。
The image processing apparatus according to claim 19, wherein the predetermined conversion is trimming to cut out a part of the image.
前記所定の変換は、前記画像の回転である
ことを特徴とする請求項19に記載の画像処理装置。
The image processing apparatus according to claim 19, wherein the predetermined conversion is rotation of the image.
前記所定の変換は、前記画像の色変換である
ことを特徴とする請求項19に記載の画像処理装置。
The image processing apparatus according to claim 19, wherein the predetermined conversion is a color conversion of the image.
前記所定の変換は、前記画像の色補正である
ことを特徴とする請求項19に記載の画像処理装置。
The image processing apparatus according to claim 19, wherein the predetermined conversion is color correction of the image.
前記所定の変換は、前記画像の輝度補正である
ことを特徴とする請求項19に記載の画像処理装置。
The image processing apparatus according to claim 19, wherein the predetermined conversion is brightness correction of the image.
前記所定の変換は、前記画像の平滑化またはシャープネス処理である
ことを特徴とする請求項19に記載の画像処理装置。
The image processing apparatus according to claim 19, wherein the predetermined conversion is smoothing or sharpness processing of the image.
前記所定の変換は、前記画像に含まれる被写体の輪郭抽出である
ことを特徴とする請求項19に記載の画像処理装置。
The image processing apparatus according to claim 19, wherein the predetermined conversion is extraction of a contour of a subject included in the image.
前記所定の変換は、前記画像の拡大または縮小、前記画像の一部を切り出すトリミング、前記画像の回転、前記画像の色変換、前記画像の色補正、前記画像の輝度補正、前記画像の平滑化またはシャープネス処理、および、前記画像に含まれる被写体の輪郭抽出のうち、いずれかの組み合わせである
ことを特徴とする請求項19に記載の画像処理装置。
The predetermined conversion includes enlargement or reduction of the image, trimming to cut out a part of the image, rotation of the image, color conversion of the image, color correction of the image, luminance correction of the image, smoothing of the image The image processing apparatus according to claim 19, wherein the image processing apparatus is a combination of sharpness processing and contour extraction of a subject included in the image.
前記画像変換手段は、
前記画像に、複数の異なる所定の変換を施して変換画像を生成し、
前記注目度判定部は、
複数の異なる変換画像のそれぞれについて、前記注目度を判定する
ことを特徴とする請求項19〜28のいずれか1項に記載の画像処理装置。
The image conversion means includes
The image is subjected to a plurality of different predetermined conversions to generate a converted image,
The attention level determination unit
The image processing apparatus according to any one of claims 19 to 28, wherein the attention level is determined for each of a plurality of different converted images.
前記画像変換部は、
前記指示取得手段が取得した指示情報に基づいて、前記画像に施す変換の種類を変更する
ことを特徴とする請求項19〜29のいずれか1項に記載の画像処理装置。
The image conversion unit
The image processing apparatus according to any one of claims 19 to 29, wherein a type of conversion applied to the image is changed based on instruction information acquired by the instruction acquisition unit.
前記領域特定手段は、さらに、
前記注目度判定部が算出した注目度に基づいて、前記抽出すべき領域を特定する注目領域決定部を備える
ことを特徴とする請求項3〜30のいずれか1項に記載の画像処理装置。
The region specifying means further includes:
The image processing apparatus according to any one of claims 3 to 30, further comprising an attention area determination unit that identifies the area to be extracted based on the attention level calculated by the attention level determination unit.
前記注目領域決定部は、
前記算出された注目度が所定の閾値を超える画素すべてを包含する領域を、前記抽出すべき領域として特定する
ことを特徴とする請求項31に記載の画像処理装置。
The attention area determination unit
32. The image processing apparatus according to claim 31, wherein an area including all pixels having the calculated degree of attention exceeding a predetermined threshold is specified as the area to be extracted.
前記注目領域決定部は、
前記注目度の値が高い画素から降順に、所定の個数の画素を選択し、選択された画素をすべて包含する領域を、前記抽出すべき領域として特定する
ことを特徴とする請求項31に記載の画像処理装置。
The attention area determination unit
32. The predetermined number of pixels are selected in descending order from the pixel having the highest attention value, and an area including all the selected pixels is specified as the area to be extracted. Image processing apparatus.
前記注目領域決定部は、
前記画像内の任意の位置に所定の大きさの領域を設定し、当該領域内における画素の注目度の総和が最大になる位置の領域を、前記抽出すべき領域として特定する
ことを特徴とする請求項31に記載の画像処理装置。
The attention area determination unit
An area having a predetermined size is set at an arbitrary position in the image, and an area at a position where the sum of the attention degrees of pixels in the area is maximized is specified as the area to be extracted. The image processing apparatus according to claim 31.
前記注目領域決定部は、
前記指示取得手段が取得した指示情報に基づいて、前記抽出すべき領域を特定する手法を変更する
ことを特徴とする請求項31〜34のいずれか1項に記載の画像処理装置。
The attention area determination unit
The image processing apparatus according to any one of claims 31 to 34, wherein a method for specifying the region to be extracted is changed based on the instruction information acquired by the instruction acquisition unit.
前記画像処理装置は、さらに、
前記抽出すべき領域を特定するための情報が記録されている領域特定データベースを備え、
前記注目領域決定部は、当該情報を参照して、前記抽出すべき領域を特定する
ことを特徴とする請求項31〜35のいずれか1項に記載の画像処理装置。
The image processing apparatus further includes:
An area specifying database in which information for specifying the area to be extracted is recorded;
The image processing device according to any one of claims 31 to 35, wherein the attention area determination unit specifies the area to be extracted with reference to the information.
前記画像処理装置は、さらに、
前記注目領域決定部が特定した抽出すべき領域に関する情報を格納するための抽出領域データベースを備える
ことを特徴とする請求項31〜36のいずれか1項に記載の画像処理装置。
The image processing apparatus further includes:
The image processing apparatus according to any one of claims 31 to 36, further comprising an extraction region database for storing information on the region to be extracted that is identified by the attention region determination unit.
前記画像処理装置は、さらに、
前記画像特徴量を抽出するための情報が記録されている特徴量データベースを備え、
前記画像特徴量抽出部は、当該情報を参照して、前記画像特徴量を抽出する
ことを特徴とする請求項4〜37のいずれか1項に記載の画像処理装置。
The image processing apparatus further includes:
A feature amount database in which information for extracting the image feature amount is recorded;
The image processing apparatus according to any one of claims 4 to 37, wherein the image feature amount extraction unit extracts the image feature amount with reference to the information.
前記画像処理装置は、さらに、
前記注目度を算出するための情報が記録されている注目度算出データベースを備え、
前記注目度判定部は、当該情報を参照して、前記注目度を算出する
ことを特徴とする請求項4〜38のいずれか1項に記載の画像処理装置。
The image processing apparatus further includes:
An attention level calculation database in which information for calculating the attention level is recorded;
The image processing apparatus according to any one of claims 4 to 38, wherein the attention level determination unit calculates the attention level with reference to the information.
前記画像処理装置は、さらに、
前記注目度判定部が算出した注目度の値を格納するための注目度データベースを備える
ことを特徴とする請求項3〜39のいずれか1項に記載の画像処理装置。
The image processing apparatus further includes:
The image processing apparatus according to any one of claims 3 to 39, further comprising an attention level database for storing the attention level value calculated by the attention level determination unit.
前記画像処理装置は、さらに、
前記領域特定手段が特定した領域に関する情報に基づいて、前記画像を出力する出力手段を備える
ことを特徴とする請求項1〜40のいずれか1項に記載の画像処理装置。
The image processing apparatus further includes:
The image processing apparatus according to any one of claims 1 to 40, further comprising: an output unit that outputs the image based on information on the region specified by the region specifying unit.
画像中に含まれる所定の領域を抽出する画像処理方法であって、
前記抽出の条件として、前記画像の属性に関する指示情報を取得する指示取得ステップと、
前記指示取得ステップにおいて取得した指示情報に基づいて、前記画像中から抽出すべき領域を特定する領域特定ステップとを含む
ことを特徴とする画像処理方法。
An image processing method for extracting a predetermined area included in an image,
An instruction obtaining step for obtaining instruction information regarding the attribute of the image as the extraction condition;
An area specifying step for specifying an area to be extracted from the image based on the instruction information acquired in the instruction acquiring step.
画像中に含まれる所定の領域を抽出する画像処理装置のためのプログラムであって、
前記抽出の条件として、前記画像の属性に関する指示情報を取得する指示取得ステップと、
前記指示取得ステップにおいて取得した指示情報に基づいて、前記画像中から抽出すべき領域を特定する領域特定ステップとをコンピュータに実行させる
ことを特徴とするプログラム。
A program for an image processing apparatus that extracts a predetermined area included in an image,
An instruction obtaining step for obtaining instruction information regarding the attribute of the image as the extraction condition;
A program for causing a computer to execute an area specifying step for specifying an area to be extracted from the image based on the instruction information acquired in the instruction acquiring step.
プログラムが記録されたコンピュータ読み取り可能な記録媒体であって、
前記抽出の条件として、前記画像の属性に関する指示情報を取得する指示取得ステップと、
前記指示取得ステップにおいて取得した指示情報に基づいて、前記画像中から抽出すべき領域を特定する領域特定ステップとをコンピュータに実行させるプログラムが記録されている
ことを特徴とするコンピュータ読み取り可能な記録媒体。
A computer-readable recording medium on which a program is recorded,
An instruction obtaining step for obtaining instruction information regarding the attribute of the image as the extraction condition;
A computer-readable recording medium in which a program for causing a computer to execute an area specifying step for specifying an area to be extracted from the image is recorded based on the instruction information acquired in the instruction acquiring step. .
JP2004185480A 2004-06-23 2004-06-23 Unit and method for processing image Pending JP2006013722A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004185480A JP2006013722A (en) 2004-06-23 2004-06-23 Unit and method for processing image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004185480A JP2006013722A (en) 2004-06-23 2004-06-23 Unit and method for processing image

Publications (1)

Publication Number Publication Date
JP2006013722A true JP2006013722A (en) 2006-01-12

Family

ID=35780454

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004185480A Pending JP2006013722A (en) 2004-06-23 2004-06-23 Unit and method for processing image

Country Status (1)

Country Link
JP (1) JP2006013722A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007251518A (en) * 2006-03-15 2007-09-27 Ricoh Co Ltd Image processor, image forming apparatus, program, and image processing method
JP2008035152A (en) * 2006-07-28 2008-02-14 Casio Comput Co Ltd Image processing apparatus, image processing method, and image processing program
JP2008192156A (en) * 2007-02-07 2008-08-21 Thomson Licensing Image processing method
JP2009038794A (en) * 2007-07-06 2009-02-19 Panasonic Corp Image processor, image processing method, image processing system, program, recording medium, and integrated circuit
US20090245626A1 (en) * 2008-04-01 2009-10-01 Fujifilm Corporation Image processing method, image processing apparatus, and image processing program
JP2009246920A (en) * 2008-04-01 2009-10-22 Fujifilm Corp Image processing apparatus, image storage device, and program for image processing apparatus
JP2010072982A (en) * 2008-09-19 2010-04-02 Sony Corp Image processing apparatus, method and program therefor
JP2010203889A (en) * 2009-03-03 2010-09-16 Casio Computer Co Ltd Method and device for measuring luminance of display panel
JP2011517226A (en) * 2008-04-11 2011-05-26 トムソン ライセンシング System and method for enhancing the sharpness of an object in a digital picture
JP2011517228A (en) * 2008-04-11 2011-05-26 トムソン ライセンシング System and method for improving visibility of objects in digital images
JP2015088817A (en) * 2013-10-29 2015-05-07 セコム株式会社 Monitoring camera and image monitoring device
JP2017191596A (en) * 2016-04-07 2017-10-19 カシオ計算機株式会社 Image display apparatus, image display control method and program

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007251518A (en) * 2006-03-15 2007-09-27 Ricoh Co Ltd Image processor, image forming apparatus, program, and image processing method
JP4615462B2 (en) * 2006-03-15 2011-01-19 株式会社リコー Image processing apparatus, image forming apparatus, program, and image processing method
JP2008035152A (en) * 2006-07-28 2008-02-14 Casio Comput Co Ltd Image processing apparatus, image processing method, and image processing program
JP4692931B2 (en) * 2006-07-28 2011-06-01 カシオ計算機株式会社 Image processing apparatus, image processing method, and image processing program
JP2008192156A (en) * 2007-02-07 2008-08-21 Thomson Licensing Image processing method
JP2009038794A (en) * 2007-07-06 2009-02-19 Panasonic Corp Image processor, image processing method, image processing system, program, recording medium, and integrated circuit
US20090245626A1 (en) * 2008-04-01 2009-10-01 Fujifilm Corporation Image processing method, image processing apparatus, and image processing program
JP2009246920A (en) * 2008-04-01 2009-10-22 Fujifilm Corp Image processing apparatus, image storage device, and program for image processing apparatus
JP2009246919A (en) * 2008-04-01 2009-10-22 Fujifilm Corp Image processing apparatus, image processing method, and image processing program
US8687887B2 (en) 2008-04-01 2014-04-01 Fujifilm Corporation Image processing method, image processing apparatus, and image processing program
JP2011517228A (en) * 2008-04-11 2011-05-26 トムソン ライセンシング System and method for improving visibility of objects in digital images
JP2011517226A (en) * 2008-04-11 2011-05-26 トムソン ライセンシング System and method for enhancing the sharpness of an object in a digital picture
JP4655238B2 (en) * 2008-09-19 2011-03-23 ソニー株式会社 Image processing apparatus and method, and program
US8520134B2 (en) 2008-09-19 2013-08-27 Sony Corporation Image processing apparatus and method, and program therefor
JP2010072982A (en) * 2008-09-19 2010-04-02 Sony Corp Image processing apparatus, method and program therefor
JP2010203889A (en) * 2009-03-03 2010-09-16 Casio Computer Co Ltd Method and device for measuring luminance of display panel
JP2015088817A (en) * 2013-10-29 2015-05-07 セコム株式会社 Monitoring camera and image monitoring device
JP2017191596A (en) * 2016-04-07 2017-10-19 カシオ計算機株式会社 Image display apparatus, image display control method and program

Similar Documents

Publication Publication Date Title
US10452905B2 (en) System and method for detecting objects in an image
US6711291B1 (en) Method for automatic text placement in digital images
JP5081922B2 (en) Apparatus and method for generating photorealistic image thumbnails
JP5538909B2 (en) Detection apparatus and method
JP2020529068A (en) Facial expression synthesis method, device, electronic device and storage medium
US8792711B2 (en) System and method of foreground-background segmentation of digitized images
JP2008523504A (en) Automatic discrimination of digital image acceptability
JP6818463B2 (en) Image processing equipment, image processing methods and programs
KR20180048627A (en) Method and apparatus for reverse tone mapping
JP2006013722A (en) Unit and method for processing image
US9153013B2 (en) Image processing apparatus, image processing method and computer readable medium
JP2010056827A (en) Apparatus and program for processing image
JP2007122101A (en) Image processor and image processing method
US20060257023A1 (en) Method and system for image border color selection
JP4251217B2 (en) Printing apparatus, image data file processing apparatus, image data file selection method, and computer program
JP3820751B2 (en) Image processing apparatus and method, and recording medium on which image processing program is recorded
WO2019181072A1 (en) Image processing method, computer program, and recording medium
JP2005293367A (en) Image processing method and device
CN112839167B (en) Image processing method, device, electronic equipment and computer readable medium
JP4248947B2 (en) Image color reduction device, image color reduction method, and image color reduction program
JP2011188237A (en) Image processing method and image processing apparatus
JP2022121091A (en) Diagnosis supporting system of oral mucosal diseases, method, and program
JP5903315B2 (en) Image processing apparatus and image processing program
EP2713334B1 (en) Product image processing apparatus, product image processing method, information storing medium, and program
JP2010257423A (en) Method, program and image evaluating apparatus for extraction of area of interest