JP5326776B2 - Image processing apparatus, image processing method, and image processing program - Google Patents

Image processing apparatus, image processing method, and image processing program Download PDF

Info

Publication number
JP5326776B2
JP5326776B2 JP2009106976A JP2009106976A JP5326776B2 JP 5326776 B2 JP5326776 B2 JP 5326776B2 JP 2009106976 A JP2009106976 A JP 2009106976A JP 2009106976 A JP2009106976 A JP 2009106976A JP 5326776 B2 JP5326776 B2 JP 5326776B2
Authority
JP
Japan
Prior art keywords
image
filter
selection
generation unit
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009106976A
Other languages
Japanese (ja)
Other versions
JP2010257256A (en
Inventor
祐司 國米
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2009106976A priority Critical patent/JP5326776B2/en
Publication of JP2010257256A publication Critical patent/JP2010257256A/en
Application granted granted Critical
Publication of JP5326776B2 publication Critical patent/JP5326776B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To easily and precisely extract an assigned object in an image. <P>SOLUTION: This image processor includes a reception part for receiving selection of an area including the object to be extracted in a learning input image, a target image generation part for generating a selection area target image based on the selected area in the learning input image, and a non-selection area target image based on a non-selected area in the learning input image, and a filter generating part for generating an extracting image filter for extracting the object from the learning input image, based on the learning input image, the selection area target image, and the non-selection area target image. An image processing method and an image processing program are also disclosed. <P>COPYRIGHT: (C)2011,JPO&amp;INPIT

Description

本発明は、画像処理装置、画像処理方法、および画像処理プログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and an image processing program.

遺伝的アルゴリズムまたは遺伝的プログラミングといった進化的計算を用いた画像フィルタの生成方法が知られている。この方法では、画像フィルタに対して、交叉、突然変異および選択等の操作を複数回繰り返すことにより、新たな画像フィルタを生成していく。このような進化的計算を用いれば、それぞれの事例に対して最適であって、解析的に得ることが困難な複雑な構造の画像フィルタを、より少ない労力で設計することができる。   Methods for generating image filters using evolutionary computation such as genetic algorithms or genetic programming are known. In this method, a new image filter is generated by repeating operations such as crossover, mutation, and selection for an image filter a plurality of times. By using such evolutionary calculation, it is possible to design an image filter having a complicated structure that is optimal for each case and difficult to obtain analytically with less effort.

特開2007−87306号公報JP 2007-87306 A

前薗正宜 他2名、「遺伝的アルゴリズムによる画像フィルタ設計の研究」、[online]、コンピュータ利用教育協議会、[2008年3月20日検索]、インターネット<URL:http://www.ciec.or.jp/event/2003/papers/pdf/E00086.pdf>Masayoshi Maebuchi and two others, “Study on Image Filter Design Using Genetic Algorithm” [online], Computer Utilization Education Council, [March 20, 2008 search], Internet <URL: http: //www.ciec. or.jp/event/2003/papers/pdf/E00086.pdf>

ところで、このように進化的計算により画像フィルタを生成する場合、目的の画像フィルタが得られるまでに画像フィルタの世代交代を繰り返す。各世代においては、変換対象画像を複数の画像フィルタのそれぞれにより変換して複数の出力画像を生成し、出力画像と目標画像とを比較する。そして、より目標画像と近似した出力画像が得られる画像フィルタを選択して、次世代へ生存させる。   By the way, when the image filter is generated by the evolutionary calculation in this way, the generation change of the image filter is repeated until the target image filter is obtained. In each generation, the conversion target image is converted by each of a plurality of image filters to generate a plurality of output images, and the output image and the target image are compared. Then, an image filter from which an output image closer to the target image can be obtained is selected and survived to the next generation.

ここで、画像内から特定の対象物を抽出する画像フィルタを選択する場合、目標画像を容易に設定できることが望ましい。また、外部(例、ユーザ)から目標画像を設定する場合に、外部から入力される情報を活用して効率よく画像フィルタを生成することが望ましい。   Here, when selecting an image filter for extracting a specific object from the image, it is desirable that the target image can be easily set. Further, when setting a target image from the outside (for example, a user), it is desirable to efficiently generate an image filter by using information input from the outside.

そこで本発明は、上記の課題を解決することのできる画像処理装置、画像処理方法、および画像処理プログラムを提供することを目的とする。この目的は特許請求の範囲における独立項に記載の特徴の組み合わせにより達成される。また従属項は本発明の更なる有利な具体例を規定する。   SUMMARY An advantage of some aspects of the invention is that it provides an image processing apparatus, an image processing method, and an image processing program capable of solving the above-described problems. This object is achieved by a combination of features described in the independent claims. The dependent claims define further advantageous specific examples of the present invention.

上記課題を解決するために、本発明の第1の態様においては、学習用入力画像における抽出すべき対象物を含む領域の選択を受け付ける受付部と、学習用入力画像における選択された領域に基づく選択領域用目標画像と、学習用入力画像における非選択の領域に基づく非選択領域用目標画像とを生成する目標画像生成部と、学習用入力画像、選択領域用目標画像、および非選択領域用目標画像に基づいて、学習用入力画像から対象物を抽出する抽出用画像フィルタを生成するフィルタ生成部とを備える画像処理装置、並びに当該画像処理装置に関する画像処理方法、および画像処理プログラムを提供する。   In order to solve the above-described problem, in the first aspect of the present invention, a reception unit that accepts selection of a region including an object to be extracted in a learning input image and a selected region in the learning input image are used. A target image generating unit that generates a target image for a selection region and a target image for a non-selection region based on a non-selection region in the learning input image; an input image for learning; a target image for a selection region; Provided are an image processing device including a filter generation unit that generates an image filter for extraction that extracts an object from a learning input image based on a target image, an image processing method related to the image processing device, and an image processing program. .

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。   It should be noted that the above summary of the invention does not enumerate all the necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.

本実施形態に係る画像処理装置10の構成を示す。1 shows a configuration of an image processing apparatus 10 according to the present embodiment. 本実施形態に係るフィルタ部品22を直列に組み合わせた構成の画像フィルタ20の一例を示す。An example of the image filter 20 having a configuration in which the filter components 22 according to the present embodiment are combined in series is shown. 本実施形態に係るフィルタ部品22を木構造に組み合わせた構成の画像フィルタ20の一例を示す。An example of the image filter 20 having a configuration in which the filter component 22 according to the present embodiment is combined in a tree structure is shown. 本実施形態に係るフィルタ部品22を直列に組み合わせた構成の画像フィルタ20に対して行われる遺伝的な操作の一例を示す。An example of a genetic operation performed on the image filter 20 having a configuration in which the filter components 22 according to the present embodiment are combined in series is shown. 本実施形態に係るフィルタ部品22を木構造に組み合わせた構成の画像フィルタ20に対して行われる交叉操作の一例を示す。An example of a crossover operation performed on the image filter 20 having a configuration in which the filter component 22 according to the present embodiment is combined in a tree structure is shown. 本実施形態に係るフィルタ部品22を木構造に組み合わせた構成の画像フィルタ20に対して行われる突然変異操作の一例を示す。An example of a mutation operation performed on the image filter 20 having a configuration in which the filter component 22 according to the present embodiment is combined in a tree structure is shown. 本実施形態に係る学習用入力画像700からそれぞれの目標画像および重み画像を生成する場合の一例を示す。An example in which each target image and weight image are generated from the learning input image 700 according to the present embodiment is shown. 本実施形態に係る画像フィルタ20の適合度を表わすパラメータの一例である類似度の算出方法の一例を示す。An example of a similarity calculation method, which is an example of a parameter representing the degree of matching of the image filter 20 according to the present embodiment, is shown. 本実施形態に係る画像処理装置10の動作フローの一例を示す。An example of the operation | movement flow of the image processing apparatus 10 which concerns on this embodiment is shown. 図9のステップS940の選択領域用画像フィルタ生成における画像処理装置10の処理フローの一例を示す。An example of the processing flow of the image processing apparatus 10 in the selection area image filter generation in step S940 of FIG. 9 will be described. 図10のステップS14の選択領域用画像フィルタ生成における画像処理装置10の処理フローの一例を示す。An example of the processing flow of the image processing apparatus 10 in the selection area image filter generation in step S14 of FIG. 10 is shown. 図11のステップS21の選択領域用画像フィルタ生成における重み画像生成部130の処理フローの一例を示す。An example of a processing flow of the weight image generation unit 130 in the selection area image filter generation in step S21 of FIG. 11 is shown. 本実施形態に係る世代毎に更新される重み画像の一例を示す。An example of the weight image updated for every generation which concerns on this embodiment is shown. 本実施形態に係るコンピュータ1900のハードウェア構成の一例を示す。2 shows an exemplary hardware configuration of a computer 1900 according to the present embodiment.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.

図1は、本実施形態に係る画像処理装置10の構成を示す。画像処理装置10は、学習用入力画像における、選択された領域に基づいて生成した選択領域用目標画像および非選択の領域に基づいて生成した非選択領域用目標画像から、学習用入力画像内のユーザが選択した対象物を抽出する抽出用画像フィルタを学習により生成する。画像処理装置10は、受付部100と、目標画像生成部110と、フィルタ生成部120と、重み画像生成部130と、フィルタ格納部140を備える。   FIG. 1 shows a configuration of an image processing apparatus 10 according to the present embodiment. The image processing apparatus 10 uses a selection area target image generated based on a selected area and a non-selection area target image generated based on a non-selected area in the learning input image. An extraction image filter for extracting an object selected by the user is generated by learning. The image processing apparatus 10 includes a reception unit 100, a target image generation unit 110, a filter generation unit 120, a weight image generation unit 130, and a filter storage unit 140.

受付部100は、ユーザが撮影した画像、外部の装置から入力された画像、または画像処理装置10内に設けられた若しくは画像処理装置10に装着された記録媒体に格納された画像を、学習用入力画像として取得する。また、受付部100は、学習用入力画像における抽出すべき対象物を含む領域の選択を受け付ける。受付部100は、一例として、モニタに表示した学習用入力画像から、マウスによる範囲入力、またはキーボードによる座標入力等によってユーザが選択した領域を、選択領域情報として受け付ける。また、受付部100は、複数の領域から選択した情報を、選択領域情報として受け付けてもよい。   The receiving unit 100 uses an image captured by a user, an image input from an external device, or an image stored in a recording medium provided in the image processing device 10 or attached to the image processing device 10 for learning. Obtained as an input image. The accepting unit 100 accepts selection of a region including an object to be extracted in the learning input image. For example, the accepting unit 100 accepts, as selection region information, a region selected by the user from a learning input image displayed on a monitor by a range input using a mouse or a coordinate input using a keyboard. In addition, the reception unit 100 may receive information selected from a plurality of areas as selection area information.

目標画像生成部110は、学習用入力画像における選択された領域であって、受付部100で受け付けた該選択された領域に基づく選択領域用目標画像を生成する。また、目標画像生成部110は、学習用入力画像における非選択の領域であって、受付部100で受け付けた該非選択の領域に基づく非選択領域用目標画像を生成する。   The target image generation unit 110 generates a selection region target image that is a selected region in the learning input image and is based on the selected region received by the reception unit 100. Further, the target image generation unit 110 generates a non-selection region target image that is a non-selection region in the learning input image and is based on the non-selection region received by the reception unit 100.

フィルタ生成部120は、学習用入力画像と、目標画像生成部110が生成した選択領域用目標画像および非選択領域用目標画像とに基づいて、学習用入力画像から対象物を抽出する抽出用の画像フィルタ20を生成する。フィルタ生成部120は、選択領域用フィルタ生成部1200と、非選択領域用フィルタ生成部1210と、抽出用画像フィルタ生成部1220とを有する。   The filter generation unit 120 extracts the target object from the learning input image based on the learning input image and the selection region target image and the non-selection region target image generated by the target image generation unit 110. An image filter 20 is generated. The filter generation unit 120 includes a selection region filter generation unit 1200, a non-selection region filter generation unit 1210, and an extraction image filter generation unit 1220.

選択領域用フィルタ生成部1200は、学習用入力画像を変換した出力画像と選択領域用目標画像との類似度がより大きくなる選択領域用の画像フィルタ20を生成する。非選択領域用フィルタ生成部1210は、学習用入力画像を変換した出力画像と非選択領域用目標画像との類似度がより大きくなる非選択領域用の画像フィルタ20を生成する。抽出用画像フィルタ生成部1220は、選択領域用の画像フィルタ20および非選択領域用の画像フィルタ20に基づいて、抽出用の画像フィルタ20を生成する。この場合、抽出用画像フィルタ生成部1220は、選択領域用フィルタ生成部1200が生成した選択領域用の画像フィルタ20および非選択領域用フィルタ生成部1210が生成した非選択領域用の画像フィルタ20を含む画像フィルタ群を遺伝的処理により進化させて、抽出用の画像フィルタ20を生成する。   The selection region filter generation unit 1200 generates a selection region image filter 20 in which the similarity between the output image obtained by converting the learning input image and the selection region target image is greater. The non-selection region filter generation unit 1210 generates the non-selection region image filter 20 in which the similarity between the output image obtained by converting the learning input image and the non-selection region target image is greater. The extraction image filter generation unit 1220 generates the extraction image filter 20 based on the selection region image filter 20 and the non-selection region image filter 20. In this case, the extraction image filter generation unit 1220 includes the selection region image filter 20 generated by the selection region filter generation unit 1200 and the non-selection region image filter 20 generated by the non-selection region filter generation unit 1210. The image filter group to be extracted is evolved by genetic processing to generate an image filter 20 for extraction.

重み画像生成部130は、学習用入力画像における選択された領域の重みを非選択の領域の重みより大きくした選択領域用重み画像と、学習用入力画像における非選択の領域の重みを選択された領域の重みより大きくした非選択領域用重み画像とを生成する。ここで、重み画像生成部130は、各ピクセルの値(例えば輝度値)によって当該ピクセル位置の重みを表わす重み画像を、重みデータとして生成してもよい。   The weight image generation unit 130 has selected the weight image for the selected area in which the weight of the selected area in the learning input image is larger than the weight of the non-selected area, and the weight of the non-selected area in the learning input image A weight image for the non-selected area that is larger than the weight of the area is generated. Here, the weight image generation unit 130 may generate, as weight data, a weight image that represents the weight of the pixel position by the value of each pixel (for example, a luminance value).

また、重み画像生成部130は、複数の出力画像のうち少なくとも1つの出力画像と、選択領域用目標画像および/または非選択領域用目標画像との差分がより大きい領域の重みを、当該差分がより小さい領域の重みより大きくした重みデータを生成してもよい。さらに、重み画像生成部130は、一例として、世代毎に記憶している重みデータにおける、差分がより大きい領域の重みを差分がより小さい領域の重みより大きくして更新する。   Further, the weight image generation unit 130 determines the weight of an area where the difference between at least one output image of the plurality of output images and the target image for the selection area and / or the target image for the non-selection area is larger. You may generate | occur | produce the weight data made larger than the weight of a smaller area | region. Further, as an example, the weight image generation unit 130 updates the weight data stored for each generation by making the weight of the region having the larger difference larger than the weight of the region having the smaller difference.

フィルタ格納部140は、既に生成された互いに異なる複数の選択領域用の画像フィルタ20、非選択領域用の画像フィルタ20および抽出用の画像フィルタ20、または、フィルタ生成部120が新たに生成した選択領域用の画像フィルタ20、非選択領域用の画像フィルタ20および抽出用の画像フィルタ20を格納する。そして、このような画像処理装置10は、フィルタ生成部120による処理を複数回(例えば複数世代)繰り返す。これによって、画像処理装置10は、学習用入力画像から選択された対象物を抽出する適切な抽出用の画像フィルタ20を生成することができる。   The filter storage unit 140 includes a plurality of differently selected image filters 20 for selected areas, an image filter 20 for non-selected areas and an image filter 20 for extraction, or a selection newly generated by the filter generation unit 120. The image filter 20 for region, the image filter 20 for non-selected region, and the image filter 20 for extraction are stored. And such an image processing apparatus 10 repeats the process by the filter production | generation part 120 in multiple times (for example, multiple generations). Accordingly, the image processing apparatus 10 can generate an appropriate image filter 20 for extraction that extracts a target object selected from the learning input image.

図2は、本実施形態に係るフィルタ部品22を直列に組み合わせた構成の画像フィルタ20の一例を示す。図3は、本実施形態に係るフィルタ部品22を木構造に組み合わせた構成の画像フィルタ20の一例を示す。   FIG. 2 shows an example of the image filter 20 having a configuration in which the filter components 22 according to this embodiment are combined in series. FIG. 3 shows an example of the image filter 20 having a configuration in which the filter component 22 according to the present embodiment is combined in a tree structure.

画像フィルタ20は、受け取った学習用入力画像に対してフィルタ演算処理を施して、出力画像を出力する。画像フィルタ20は、一例として、画像データに対して演算を施すプログラムとする。また、画像フィルタ20は、画像データに対して施すべき演算内容を表わす演算式であってもよい。さらに、画像フィルタ20は、複数のフィルタ部品22を組み合わせた構成を有する。画像フィルタ20は、図2に示されるように、フィルタ部品22を直列に組み合わせた構成を有してよい。また、画像フィルタ20は、図3に示されるように、フィルタ部品22を木構造に組み合わせた構成を有してよい。   The image filter 20 performs a filter calculation process on the received learning input image and outputs an output image. As an example, the image filter 20 is a program that performs an operation on image data. In addition, the image filter 20 may be an arithmetic expression that represents the content of calculation to be performed on the image data. Furthermore, the image filter 20 has a configuration in which a plurality of filter components 22 are combined. As shown in FIG. 2, the image filter 20 may have a configuration in which filter components 22 are combined in series. Further, as shown in FIG. 3, the image filter 20 may have a configuration in which the filter components 22 are combined in a tree structure.

なお、フィルタ部品22が木構造に組み合わされた構成の画像フィルタ20は、木構造の末端(最下位)のフィルタ部品22のそれぞれに、同一の学習用入力画像が与えられ、木構造の最上位のフィルタ部品22から出力画像を出力する。これに代えて、このような画像フィルタ20は、複数の末端のフィルタ部品22のそれぞれに互いに異なる学習用入力画像が与えられてもよい。   Note that the image filter 20 having the structure in which the filter parts 22 are combined in a tree structure is given the same learning input image to each of the end (lowest) filter parts 22 of the tree structure, and the highest level of the tree structure. The output image is output from the filter component 22. Instead of this, such an image filter 20 may be provided with different learning input images for each of the plurality of terminal filter components 22.

本実施形態において、フィルタ生成部120は、入力画像を出力画像にそれぞれ変換する複数のフィルタ部品22を組み合わせて、抽出用の画像フィルタ20を生成する。ここで、画像フィルタ20は、データに対して演算を施すプログラムであるフィルタ部品22を組み合わせた構成であってもよい。また、画像フィルタ20は、データに対して施すべき演算内容を表わす演算式であるフィルタ部品22を組み合わせた構成であってもよい。   In the present embodiment, the filter generation unit 120 generates the image filter 20 for extraction by combining a plurality of filter components 22 that respectively convert an input image into an output image. Here, the image filter 20 may have a configuration in which a filter component 22 that is a program for performing an operation on data is combined. Further, the image filter 20 may have a configuration in which a filter component 22 that is an arithmetic expression representing the content of calculation to be performed on data is combined.

複数のフィルタ部品22のそれぞれは、前段に配置されたフィルタ部品22から出力された画像データを受け取り、受け取った画像データに演算を施して後段に配置されたフィルタ部品22に与える。複数のフィルタ部品22のそれぞれは、プログラムモジュールおよび演算式等であってよく、受け取った画像データに対して2値化演算、ヒストグラム演算、平滑化演算、エッジ検出演算、モルフォロジ演算、及び/または周波数空間での演算(例えば、ローパスフィルタリング演算およびハイパスフィルタリング演算)等の単項演算を施してもよい。   Each of the plurality of filter components 22 receives the image data output from the filter component 22 arranged in the previous stage, performs an operation on the received image data, and gives it to the filter component 22 arranged in the subsequent stage. Each of the plurality of filter components 22 may be a program module, an arithmetic expression, or the like, and performs binarization operation, histogram operation, smoothing operation, edge detection operation, morphology operation, and / or frequency on received image data. Unary operations such as space operations (for example, low-pass filtering operations and high-pass filtering operations) may be performed.

また、複数のフィルタ部品22のそれぞれは、受け取った画像データに対して平均演算、差分演算及び/またはファジー演算(例えば論理和演算、論理積演算、代数和、代数積、限界和、限界積、激烈和および激烈積等)等の二項演算を施してもよい。   In addition, each of the plurality of filter components 22 performs an average operation, a difference operation, and / or a fuzzy operation (for example, logical sum operation, logical product operation, algebraic sum, algebraic product, limit sum, limit product, Binomial operations such as intense sum and intense product) may be performed.

図4は、本実施形態に係るフィルタ部品22を直列に組み合わせた構成の画像フィルタ20に対して行われる遺伝的な操作の一例を示す。図5は、本実施形態に係るフィルタ部品22を木構造に組み合わせた構成の画像フィルタ20に対して行われる交叉操作の一例を示す。図6は、本実施形態に係るフィルタ部品22を木構造に組み合わせた構成の画像フィルタ20に対して行われる突然変異操作の一例を示す。   FIG. 4 shows an example of a genetic operation performed on the image filter 20 having a configuration in which the filter components 22 according to this embodiment are combined in series. FIG. 5 shows an example of a crossover operation performed on the image filter 20 having a configuration in which the filter component 22 according to the present embodiment is combined in a tree structure. FIG. 6 shows an example of a mutation operation performed on the image filter 20 having a configuration in which the filter component 22 according to the present embodiment is combined with a tree structure.

フィルタ生成部120は、一例として、2個またはそれ以上の画像フィルタ20に対して、遺伝的な操作の一例である交叉操作を行って新たな2個またはそれ以上の画像フィルタ20を生成する。フィルタ生成部120は、一例として、図4および図5に示されるように、既に生成された少なくとも1つの一の画像フィルタ20Aの一部のフィルタ部品群24Aを、既に生成された他の画像フィルタ20Bの少なくとも一部のフィルタ部品群24Bと置換して、新たな画像フィルタ20Eおよび20Fを生成する。なお、フィルタ部品群24は、1または複数のフィルタ部品22を組み合わせた部材であってもよい。   As an example, the filter generation unit 120 performs a crossover operation, which is an example of a genetic operation, on two or more image filters 20 to generate two or more new image filters 20. As an example, as illustrated in FIG. 4 and FIG. 5, the filter generation unit 120 converts a part of the filter component group 24 </ b> A of at least one image filter 20 </ b> A that has already been generated into another image filter that has already been generated. New image filters 20E and 20F are generated by replacing at least a part of the filter component group 24B of 20B. The filter component group 24 may be a member in which one or a plurality of filter components 22 are combined.

また、フィルタ生成部120は、一例として、一の画像フィルタ20に対して、遺伝的な操作の一例である突然変異操作を行って新たな一の画像フィルタ20を生成する。フィルタ生成部120は、一例として、図4および図6に示されるように、既に生成された一の画像フィルタ20Cの一部のフィルタ部品群24Cを、ランダムに選択された他のフィルタ部品群24Gに置換して、新たな画像フィルタ20Gを生成する。   For example, the filter generation unit 120 performs a mutation operation, which is an example of a genetic operation, on one image filter 20 to generate a new one image filter 20. As an example, as illustrated in FIG. 4 and FIG. 6, the filter generation unit 120 converts a part of the filter component group 24 </ b> C of one image filter 20 </ b> C that has already been generated into another filter component group 24 </ b> G selected at random. To generate a new image filter 20G.

また、フィルタ生成部120は、現世代の画像フィルタ20をそのまま次世代の画像フィルタ20として残してもよい。フィルタ生成部120は、一例として、図4に示されるように、画像フィルタ20Dのフィルタ部品22の構成をそのまま含む次世代の画像フィルタ20Hを生成する。   Further, the filter generation unit 120 may leave the current generation image filter 20 as the next generation image filter 20 as it is. As an example, the filter generation unit 120 generates a next-generation image filter 20H that includes the configuration of the filter component 22 of the image filter 20D as it is, as shown in FIG.

また、フィルタ生成部120は、フィルタ生成部120によって生成された複数の画像フィルタ20に対して生物の自然淘汰をモデル化した手法により1または複数の画像フィルタ20を選択する。フィルタ生成部120は、複数の画像フィルタ20の中の適合度がより高い画像フィルタ20を優先的に選択してもよい。フィルタ生成部120は、一例として、複数の画像フィルタ20のそれぞれの適合度に基づき、エリート選択およびルーレット選択といった手法に応じて、画像フィルタ20を選択してよい。そして、フィルタ生成部120は、選択した画像フィルタ20を次世代へ生存させるべく当該画像フィルタ20をフィルタ格納部140内に保存し、選択されなかった画像フィルタ20を死滅させるべくフィルタ格納部140内から削除する。   In addition, the filter generation unit 120 selects one or a plurality of image filters 20 by a technique in which a natural selection of living organisms is modeled with respect to the plurality of image filters 20 generated by the filter generation unit 120. The filter generation unit 120 may preferentially select the image filter 20 having a higher degree of matching among the plurality of image filters 20. As an example, the filter generation unit 120 may select the image filter 20 according to a technique such as elite selection and roulette selection based on the degree of fitness of each of the plurality of image filters 20. Then, the filter generation unit 120 saves the selected image filter 20 in the filter storage unit 140 so that the selected image filter 20 survives to the next generation, and saves the unselected image filter 20 in the filter storage unit 140. Delete from.

図7は、本実施形態に係る学習用入力画像700からそれぞれの目標画像および重み画像を生成する場合の一例を示す。目標画像生成部110は、受付部100が受け付けた選択領域に基づいて学習用入力画像700から、選択領域用目標画像710および非選択領域用目標画像720を生成する。   FIG. 7 shows an example of generating each target image and weight image from the learning input image 700 according to the present embodiment. The target image generation unit 110 generates a selection region target image 710 and a non-selection region target image 720 from the learning input image 700 based on the selection region received by the reception unit 100.

この場合、目標画像生成部110は、一例として、学習用入力画像700における選択された領域を残して他の領域を一様とした画像を選択領域用目標画像710として生成する。ここで、目標画像生成部110は、一例として、学習用入力画像700における、選択領域の部分の重みより低い重みの白色画像等を非選択領域に設定した画像を選択領域用目標画像710として生成する。また、目標画像生成部110は、選択された領域および非選択の領域を異なる輝度として区別した画像を非選択領域用目標画像720として生成する。ここで、目標画像生成部110は、一例として、学習用入力画像700における、選択領域の部分の重みを非選択領域の重みより低くまたは0に設定した画像を非選択領域用目標画像720として生成する。   In this case, the target image generation unit 110 generates, as an example, a selection region target image 710 that leaves the selected region in the learning input image 700 and makes other regions uniform. Here, as an example, the target image generation unit 110 generates, as the selection area target image 710, an image in which a white image having a weight lower than the weight of the selection area portion in the learning input image 700 is set as a non-selection area. To do. In addition, the target image generation unit 110 generates an image in which the selected area and the non-selected area are distinguished as different luminances as the non-selected area target image 720. Here, as an example, the target image generation unit 110 generates, as the non-selection region target image 720, an image in which the weight of the selected region portion is set lower than the non-selection region weight or 0 in the learning input image 700. To do.

また、重み画像生成部130は、目標画像生成部110が生成した選択領域用目標画像710における、選択領域の重みを非選択の領域の重みより大きくした画像を、選択領域用重み画像715として生成する。ここで、重み画像生成部130は、一例として、選択領域用目標画像710における、非選択領域の部分の重みを0に設定した画像を、選択領域用重み画像715として生成する。これに代えて、重み画像生成部130は、選択領域用目標画像710における、非選択領域の部分の重みを選択領域の1/2の重みに設定した画像を、選択領域用重み画像715として生成してもよい。   Further, the weight image generation unit 130 generates, as the selection region weight image 715, an image in which the selection region weight in the selection region target image 710 generated by the target image generation unit 110 is larger than the weight of the non-selection region. To do. Here, as an example, the weight image generation unit 130 generates, as the selection region weight image 715, an image in which the weight of the portion of the non-selection region in the selection region target image 710 is set to zero. Instead, the weight image generation unit 130 generates, as the selection region weight image 715, an image in which the weight of the portion of the non-selection region in the selection region target image 710 is set to half the weight of the selection region. May be.

さらに、重み画像生成部130は、目標画像生成部110が生成した非選択領域用目標画像720における、非選択の領域の重みを選択された領域の重みより大きくした画像を、非選択領域用重み画像725として生成する。ここで、重み画像生成部130は、一例として、非選択領域用目標画像720における、選択領域の部分の重みを0に設定した画像を、非選択領域用重み画像725として生成する。これに代えて、重み画像生成部130は、非選択領域用目標画像720における、選択領域の部分の重みを非選択領域の1/2の重みに設定した画像を、非選択領域用重み画像725として生成してもよい。   Further, the weight image generation unit 130 displays an image in which the weight of the non-selected region in the target image 720 for the non-selection region generated by the target image generation unit 110 is larger than the weight of the selected region. Generated as an image 725. Here, as an example, the weight image generation unit 130 generates, as the non-selection region weight image 725, an image in which the weight of the selected region portion in the non-selection region target image 720 is set to zero. Instead, the weight image generation unit 130 uses the non-selection area weight image 725 as the non-selection area target image 720 in which the weight of the portion of the selection area is set to half the weight of the non-selection area. May be generated as

図8は、本実施形態に係る画像フィルタ20の適合度を表わすパラメータの一例である類似度の算出方法の一例を示す。本実施形態において、選択領域用フィルタ生成部1200および非選択領域用フィルタ生成部1210は、当該画像フィルタ20により学習用入力画像を変換させることにより生成された出力画像と、選択領域用目標画像および非選択領域用目標画像とがどれだけ類似しているかを表わす類似度を算出する。この類似度は、画像フィルタ20の適合度を表わすパラメータの一例であって、値がより大きいほど、当該出力画像を生成した画像フィルタ20がより適切であることを示す評価値または指標として用いられる。   FIG. 8 shows an example of a similarity calculation method that is an example of a parameter that represents the degree of matching of the image filter 20 according to the present embodiment. In the present embodiment, the selection region filter generation unit 1200 and the non-selection region filter generation unit 1210, the output image generated by converting the learning input image by the image filter 20, the selection region target image, A similarity indicating how much the target image for the non-selection region is similar is calculated. This similarity is an example of a parameter representing the degree of matching of the image filter 20, and is used as an evaluation value or index indicating that the larger the value is, the more appropriate the image filter 20 that generated the output image is. .

選択領域用フィルタ生成部1200および非選択領域用フィルタ生成部1210は、出力画像の各領域の値と選択領域用目標画像および非選択領域用目標画像のそれぞれ対応する各領域の値とを比較した比較値を算出し、領域毎の比較値に対して重みデータにより指定される重みを乗じる。そして、選択領域用フィルタ生成部1200および非選択領域用フィルタ生成部1210は、重みが乗じられた領域毎の比較値を全領域について平均または合計した値を算出し、算出した値を当該出力画像の類似度として出力する。   The selection region filter generation unit 1200 and the non-selection region filter generation unit 1210 compare the value of each region of the output image with the value of each region corresponding to each of the selection region target image and the non-selection region target image. The comparison value is calculated, and the comparison value for each region is multiplied by the weight specified by the weight data. Then, the selection region filter generation unit 1200 and the non-selection region filter generation unit 1210 calculate a value obtained by averaging or summing the comparison values for each region multiplied by the weight for all regions, and the calculated values are used as the output image. Is output as the similarity.

選択領域用フィルタ生成部1200および非選択領域用フィルタ生成部1210は、一例として、出力画像のピクセル毎の輝度値と、選択領域用目標画像および非選択領域用目標画像の対応するピクセルの輝度値との差分または比率を算出する。そして、選択領域用フィルタ生成部1200および非選択領域用フィルタ生成部1210は、一例として、算出したピクセル毎の差分または比率のそれぞれに、重みデータにより指定される対応する重みを乗じ、重みが乗じられたピクセル毎の差分または比率を合計または平均して、類似度を算出する。   For example, the selection region filter generation unit 1200 and the non-selection region filter generation unit 1210 include the luminance value for each pixel of the output image and the luminance values of the corresponding pixels of the selection region target image and the non-selection region target image. The difference or ratio is calculated. Then, as an example, the selection region filter generation unit 1200 and the non-selection region filter generation unit 1210 multiply the calculated difference or ratio for each pixel by the corresponding weight specified by the weight data, and multiply the weight. The degree of similarity is calculated by summing or averaging the obtained differences or ratios for each pixel.

例えば、重みデータが選択領域用重み画像および非選択領域用重み画像により表わされている場合、選択領域用フィルタ生成部1200および非選択領域用フィルタ生成部1210は、下記式(数1)に示される演算をして、類似度を算出する。なお、この場合において、出力画像、選択領域用目標画像、非選択領域用目標画像、選択領域用重み画像および非選択領域用重み画像のサイズは、同一とされる。   For example, when the weight data is represented by a selection area weight image and a non-selection area weight image, the selection area filter generation unit 1200 and the non-selection area filter generation unit 1210 are expressed by the following equation (Equation 1). The calculation is performed to calculate the similarity. In this case, the output image, the selection area target image, the non-selection area target image, the selection area weight image, and the non-selection area weight image have the same size.

Figure 0005326776
Figure 0005326776

式(数1)において、fは、類似度を表わす。Ymaxは、輝度の最大値を表わす。また、xは、画像の水平方向のピクセル位置を示す変数である。yは、画像の垂直方向のピクセル位置を示す変数である。xmaxは、画像の水平方向のピクセル数を示す定数である。ymaxは、画像の垂直方向のピクセル数を示す定数である。 In the formula (Equation 1), f represents the similarity. Y max represents the maximum luminance value. X is a variable indicating the pixel position in the horizontal direction of the image. y is a variable indicating the pixel position in the vertical direction of the image. xmax is a constant indicating the number of pixels in the horizontal direction of the image. ymax is a constant indicating the number of pixels in the vertical direction of the image.

weight(x,y)は、選択領域用重み画像および非選択領域用重み画像における(x,y)位置のピクセルの輝度値を表わす。Itarget(x,y)は、選択領域用目標画像および非選択領域用目標画像における(x,y)位置のピクセルの輝度値を表わす。Ifilter(x,y)は、出力画像における(x,y)位置のピクセルの輝度値を表わす。 I weight (x, y) represents the luminance value of the pixel at the (x, y) position in the selected region weight image and the non-selected region weight image. I target (x, y) represents the luminance value of the pixel at the position (x, y) in the target image for the selected area and the target image for the non-selected area. I filter (x, y) represents the luminance value of the pixel at the (x, y) position in the output image.

すなわち、式(1)の中カッコ内の分子部分に示されるように、選択領域用フィルタ生成部1200および非選択領域用フィルタ生成部1210は、選択領域用目標画像および非選択領域用目標画像の輝度値から出力画像の輝度値の差の絶対値に対して、選択領域用重み画像および非選択領域用重み画像の輝度値を乗じた重み付き差分値を、画面内の全てのピクセル毎に算出し、算出した重み付き差分値を全ピクセルについて合計した合計重み付け差分値を算出する。さらに、式(1)の中カッコ内の分母部分に示されるように、選択領域用フィルタ生成部1200および非選択領域用フィルタ生成部1210は、重み画像の輝度値を全ピクセルについて合計した合計重みを算出する。   That is, as shown in the numerator part in the curly braces of the expression (1), the selection area filter generation unit 1200 and the non-selection area filter generation unit 1210 include the selection area target image and the non-selection area target image. A weighted difference value obtained by multiplying the absolute value of the difference between the luminance value and the luminance value of the output image by the luminance value of the weight image for the selected area and the weight image for the non-selected area is calculated for every pixel in the screen. Then, a total weighted difference value obtained by summing the calculated weighted difference values for all the pixels is calculated. Furthermore, as shown in the denominator part in the curly braces of Expression (1), the selection region filter generation unit 1200 and the non-selection region filter generation unit 1210 add the total weights of the luminance values of the weighted images for all pixels. Is calculated.

さらに、選択領域用フィルタ生成部1200および非選択領域用フィルタ生成部1210は、合計重み付け差分値を合計重みで除算した除算値(式(1)の中カッコ内)に、輝度値の最大値の逆数(1/Ymax)を乗じて正規化値(式(1)の2番目の項)を算出する。そして、選択領域用フィルタ生成部1200および非選択領域用フィルタ生成部1210は、1から、正規化値を減じた値を、類似度fとして算出する。このようにして、選択領域用フィルタ生成部1200および非選択領域用フィルタ生成部1210は、出力画像と選択領域用目標画像および非選択領域用目標画像との差分を領域毎に重み付けして類似度を算出することができる。   Furthermore, the selection region filter generation unit 1200 and the non-selection region filter generation unit 1210 calculate the maximum luminance value by dividing the total weighted difference value by the total weight (in the braces of the expression (1)). The normalized value (the second term in the equation (1)) is calculated by multiplying the reciprocal (1 / Ymax). Then, the selection region filter generation unit 1200 and the non-selection region filter generation unit 1210 calculate a value obtained by subtracting the normalized value from 1 as the similarity f. In this way, the selection region filter generation unit 1200 and the non-selection region filter generation unit 1210 weight the difference between the output image, the selection region target image, and the non-selection region target image for each region, and calculate the similarity. Can be calculated.

図9は、本実施形態に係る画像処理装置10の動作フローの一例を示す。受付部100は、学習用入力画像を取得して(ステップS900)、ユーザが選択した抽出対象物の領域を受け付ける(S910)。目標画像生成部110は、受付部100が受け付けた選択領域情報に基づいて、選択領域用目標画像および非選択領域用目標画像を生成する(S920)。また、重み画像生成部130は、受付部100が受け付けた選択領域情報に基づいて、選択領域用重み画像および非選択領域用重み画像を生成する(S930)。   FIG. 9 shows an example of an operation flow of the image processing apparatus 10 according to the present embodiment. The receiving unit 100 acquires the learning input image (step S900), and receives the region of the extraction target selected by the user (S910). The target image generation unit 110 generates a selection region target image and a non-selection region target image based on the selection region information received by the reception unit 100 (S920). Further, the weight image generation unit 130 generates a selection region weight image and a non-selection region weight image based on the selection region information received by the reception unit 100 (S930).

そして、選択領域用フィルタ生成部1200は、ステップS920で生成された目標画像およびステップS930で生成された重み画像に基づいて、選択領域用の画像フィルタ20を生成する(S940)。非選択領域用フィルタ生成部1210は、ステップS920で生成された目標画像およびステップS930で生成された重み画像に基づいて、非選択領域用の画像フィルタ20を生成する(S945)。抽出用画像フィルタ生成部1220は、ステップS940で生成された選択領域用の画像フィルタ20、ステップS945で生成された非選択領域用の画像フィルタ20、およびステップS930で生成された重み画像に基づいて、抽出用の画像フィルタ20を生成する(S950)。   The selection region filter generation unit 1200 generates the selection region image filter 20 based on the target image generated in step S920 and the weight image generated in step S930 (S940). The non-selection region filter generation unit 1210 generates the non-selection region image filter 20 based on the target image generated in step S920 and the weight image generated in step S930 (S945). The extraction image filter generation unit 1220 is based on the selection region image filter 20 generated in step S940, the non-selection region image filter 20 generated in step S945, and the weighted image generated in step S930. The image filter 20 for extraction is generated (S950).

図10は、図9のステップS940の選択領域用画像フィルタ生成における画像処理装置10の処理フローの一例を示す。画像処理装置10は、ステップS12〜ステップS16の各処理を、複数回(例えば複数世代)繰返して実行する(S11、S16)。   FIG. 10 shows an example of the processing flow of the image processing apparatus 10 in the selection area image filter generation in step S940 of FIG. The image processing apparatus 10 repeatedly executes the processes in steps S12 to S16 a plurality of times (for example, a plurality of generations) (S11, S16).

各世代の処理において、フィルタ生成部120は、前世代から残存した複数の画像フィルタ20に対して、交叉操作および突然変異操作等の遺伝的な操作を行って、少なくとも一部のフィルタ部品22を他のフィルタ部品22に置換した新たな複数の画像フィルタ20を生成する(S12)。なお、フィルタ生成部120は、一例として、学習用入力画像を出力画像に変換する画像フィルタ20を生成するための初期の画像フィルタ20として、ランダムに生成したまたは既に生成した画像フィルタ20を、予めフィルタ格納部140に格納しておく。   In each generation process, the filter generation unit 120 performs genetic operations such as a crossover operation and a mutation operation on a plurality of image filters 20 remaining from the previous generation, and at least a part of the filter components 22 is obtained. A plurality of new image filters 20 replaced with other filter components 22 are generated (S12). Note that, as an example, the filter generation unit 120 uses, as an initial image filter 20 for generating the image filter 20 that converts the learning input image into the output image, a randomly generated or already generated image filter 20 in advance. Stored in the filter storage unit 140.

続いて、フィルタ生成部120は、前世代から残存した複数の画像フィルタ20およびステップS12で新たに生成された複数の画像フィルタ20のそれぞれにより、学習用入力画像をフィルタ処理して出力画像を生成する(S13)。これにより、フィルタ生成部120は、複数の画像フィルタ20に対応した複数の出力画像を生成することができる。   Subsequently, the filter generation unit 120 generates an output image by filtering the learning input image with each of the plurality of image filters 20 remaining from the previous generation and the plurality of image filters 20 newly generated in step S12. (S13). Thereby, the filter generation unit 120 can generate a plurality of output images corresponding to the plurality of image filters 20.

フィルタ生成部120は、学習用入力画像を抽出用に生成中の画像フィルタ20により変換した変換画像および選択領域用目標画像を重み画像生成部130が生成した選択領域用重み画像により重み付けして比較する。そして、フィルタ生成部120は、出力画像と選択領域用目標画像との類似度を算出し、類似度がより高い出力画像に対応する複数の画像フィルタ20を選択する(S14)。なお、フィルタ生成部120は、最後の世代においては、類似度の最も高い1個の出力画像に対応する1個の画像フィルタ20を選択してもよい。   The filter generation unit 120 compares the converted image obtained by converting the learning input image by the image filter 20 being generated for extraction and the selection region target image by weighting with the selection region weight image generated by the weight image generation unit 130. To do. Then, the filter generation unit 120 calculates the similarity between the output image and the selection area target image, and selects a plurality of image filters 20 corresponding to the output image having a higher similarity (S14). Note that the filter generation unit 120 may select one image filter 20 corresponding to one output image with the highest similarity in the last generation.

さらに、フィルタ生成部120は、ステップS14において選択された1または複数の画像フィルタ20を次世代に残存させ、ステップS14において選択されなかった出力画像を生成した画像フィルタ20を、フィルタ格納部140内における選択領域用画像フィルタのフィルタ群から削除することにより淘汰する(S15)。また、フィルタ生成部120は、新たに生成した複数の画像フィルタ20をフィルタ格納部140に戻して、既に生成された複数の画像フィルタ20に加えて格納させてもよい。   Further, the filter generation unit 120 causes the one or more image filters 20 selected in step S14 to remain in the next generation, and the image filter 20 that has generated the output image not selected in step S14 is stored in the filter storage unit 140. By deleting from the filter group of the image filter for selection area in (S15). The filter generation unit 120 may return the newly generated plurality of image filters 20 to the filter storage unit 140 and store them in addition to the already generated plurality of image filters 20.

画像処理装置10は、以上の処理を複数の世代(例えば数十世代または数百世代)繰返して実行して、第N世代(Nは2以上の整数)または類似度の上昇が収束したら、当該フローを抜ける(S16)。このようにして、画像処理装置10は、学習用入力画像を選択領域用目標画像への変換に適した画像フィルタ20を、進化的計算を用いて生成することができる。   The image processing apparatus 10 repeatedly executes the above processing for a plurality of generations (for example, tens or hundreds of generations), and when the increase in the Nth generation (N is an integer of 2 or more) or similarity converges, The flow is exited (S16). In this manner, the image processing apparatus 10 can generate the image filter 20 suitable for converting the learning input image into the selection region target image using evolutionary calculation.

なお、図10の処理フローは、図9のステップS945の非選択領域用画像フィルタの生成および図9のステップS950の抽出用画像フィルタの生成においても、同様に適用される。この場合、非選択領域用画像フィルタの生成におけるステップS14において、非選択領域用フィルタ生成部1210は、一例として、学習用入力画像を抽出用に生成中の画像フィルタ20により変換した変換画像および非選択領域用目標画像を重み画像生成部130が生成した非選択領域用重み画像により重み付けして比較する。   The processing flow of FIG. 10 is similarly applied to the generation of the non-selection region image filter in step S945 in FIG. 9 and the generation of the extraction image filter in step S950 in FIG. In this case, in step S14 in the generation of the non-selection region image filter, for example, the non-selection region filter generation unit 1210 converts the learning input image by the image filter 20 being generated for extraction and the non-selection image. The selection area target image is weighted and compared with the non-selection area weight image generated by the weight image generation unit 130.

また、抽出用画像フィルタの生成におけるステップS14において、抽出用画像フィルタ生成部1220は、一例として、選択領域用フィルタ生成部1200が生成した選択領域用の画像フィルタ20および非選択領域用フィルタ生成部1210が生成した非選択領域用の画像フィルタ20を含む画像フィルタ群を、初期の画像フィルタ20として遺伝的処理を行う。そして、抽出用画像フィルタ生成部1220は、学習用入力画像を、学習用目標画像へ変換するのに適した画像フィルタ20を生成する。   Further, in step S14 in the generation of the extraction image filter, the extraction image filter generation unit 1220, for example, the selection region image filter 20 and the non-selection region filter generation unit generated by the selection region filter generation unit 1200. The image filter group including the image filter 20 for the non-selected region generated by 1210 is subjected to genetic processing as the initial image filter 20. Then, the extraction image filter generation unit 1220 generates an image filter 20 suitable for converting the learning input image into the learning target image.

抽出用画像フィルタ生成部1220は、学習用目標画像として、選択領域用フィルタ生成部1200の選択用目標画像を用いてよい。これに代えて、抽出用画像フィルタ生成部1220は、学習用目標画像として、選択領域に基づいて生成した他の目標画像を用いてもよい。この場合において、抽出用画像フィルタ生成部1220は、重み画像として、均一の重み画像、選択領域用重み画像、非選択領域用重み画像またはこれらの少なくとも2つを反映した重み画像を用いてもよい。   The extraction image filter generation unit 1220 may use the selection target image of the selection region filter generation unit 1200 as the learning target image. Instead, the extraction image filter generation unit 1220 may use another target image generated based on the selected region as the learning target image. In this case, the extraction image filter generation unit 1220 may use a uniform weight image, a selection region weight image, a non-selection region weight image, or a weight image reflecting at least two of these as the weight image. .

以上において、抽出用画像フィルタ生成部1220は、選択領域用フィルタ生成部1200が選択領域用の画像フィルタ20を生成および非選択領域用フィルタ生成部1210が非選択領域用の画像フィルタ20を生成した後に、それぞれの画像フィルタ20を初期の画像フィルタ群に含めて遺伝的処理を行って抽出用の画像フィルタ20を生成する。これに代えて、フィルタ生成部120は、選択領域用目標画像および非選択領域用目標画像を用いて、抽出用画像フィルタを直接生成してもよい。この場合、フィルタ生成部120は、図9のステップS950において、学習用入力画像を現世代以前の抽出用の画像フィルタ20により変換した出力画像および選択領域用目標画像の類似度と、出力画像および非選択領域用目標画像の類似度の和がより大きくなる次世代の抽出用の画像フィルタ20を生成してもよい。   In the above, in the extraction image filter generation unit 1220, the selection region filter generation unit 1200 generates the selection region image filter 20, and the non-selection region filter generation unit 1210 generates the non-selection region image filter 20. Thereafter, each image filter 20 is included in the initial image filter group and subjected to genetic processing to generate an image filter 20 for extraction. Instead of this, the filter generation unit 120 may directly generate the image filter for extraction using the target image for selection area and the target image for non-selection area. In this case, the filter generation unit 120, in step S950 of FIG. 9, the similarity between the output image obtained by converting the learning input image by the image filter 20 for extraction before the current generation and the target image for the selection area, the output image, and You may generate the image filter 20 for the next generation extraction from which the sum of the similarity of the target image for non-selection areas becomes larger.

図11は、図10のステップS14の選択領域用画像フィルタ生成における画像処理装置10の処理フローの一例を示す。画像処理装置10は、図10に示されるステップS14において、以下の処理を実行する。   FIG. 11 shows an example of the processing flow of the image processing apparatus 10 in the selection area image filter generation in step S14 of FIG. The image processing apparatus 10 executes the following processing in step S14 shown in FIG.

まず、重み画像生成部130は、世代毎に適切な選択領域用重み画像を生成するべく、選択領域用重み画像を更新する(ステップS21)。なお、選択領域用重み画像の生成処理については、後述の図12において詳細を説明する。   First, the weight image generation unit 130 updates the selection area weight image so as to generate an appropriate selection area weight image for each generation (step S21). Details of the selection area weight image generation processing will be described later with reference to FIG.

続いて、フィルタ生成部120は、フィルタ格納部140に格納された複数の画像フィルタ20のそれぞれにより生成された複数の出力画像のそれぞれ毎に、以下のステップS23の処理を実行する(S22、S24)。ステップS23において、フィルタ生成部120は、当該出力画像と選択領域用目標画像とを選択領域用重み画像に応じた重み付けをして比較し、当該出力画像と選択領域用目標画像との類似度を算出する。フィルタ生成部120は、複数の出力画像の全てについて処理を終えると、処理をステップS25に進める(S24)。   Subsequently, the filter generation unit 120 performs the following step S23 for each of the plurality of output images generated by the plurality of image filters 20 stored in the filter storage unit 140 (S22, S24). ). In step S23, the filter generation unit 120 compares the output image with the selection area target image by weighting according to the selection area weight image, and compares the output image with the selection area target image. calculate. When the filter generation unit 120 finishes the process for all of the plurality of output images, the process proceeds to step S25 (S24).

続いて、フィルタ生成部120は、複数の出力画像のそれぞれの類似度に基づき、複数の出力画像の中から選択領域用目標画像により近い出力画像を選択する(S25)。フィルタ生成部120は、一例として、複数の画像フィルタ20により変換された複数の出力画像のうち、類似度がより高い出力画像を優先的に選択する。フィルタ生成部120は、一例として、類似度が基準類似度より高い出力画像を選択する。また、フィルタ生成部120は、類似度が上位から予め定められた範囲の選出力画像を選択してもよい。また、フィルタ生成部120は、類似度がより高い出力画像がより高い確率で選択されるように設定がされている条件下で、ランダムに出力画像を選択してもよい。   Subsequently, the filter generation unit 120 selects an output image closer to the selection area target image from the plurality of output images based on the respective similarities of the plurality of output images (S25). As an example, the filter generation unit 120 preferentially selects an output image with a higher degree of similarity among a plurality of output images converted by the plurality of image filters 20. For example, the filter generation unit 120 selects an output image whose similarity is higher than the reference similarity. Further, the filter generation unit 120 may select a selected output image in a range in which the similarity is determined in advance from the top. In addition, the filter generation unit 120 may randomly select an output image under a condition in which an output image having a higher degree of similarity is set to be selected with a higher probability.

続いて、フィルタ生成部120は、フィルタ生成部120により選択された出力画像を生成する画像フィルタ20を、学習用入力画像を選択領域用目標画像により類似する画像に変換する画像フィルタ20として選択する(S26)。このステップS26の処理を終えると、画像処理装置10は、当該フローを終了する。   Subsequently, the filter generation unit 120 selects the image filter 20 that generates the output image selected by the filter generation unit 120 as the image filter 20 that converts the learning input image into an image similar to the selection region target image. (S26). When the process of step S26 is completed, the image processing apparatus 10 ends the flow.

なお、図11の処理フローは、図9のステップS945の非選択領域用画像フィルタの生成および図9のステップS950の抽出用画像フィルタの生成においても、同様に適用される。この場合、非選択領域用画像フィルタの生成において、非選択領域用フィルタ生成部1210は、一例として、出力画像と非選択領域用目標画像とを非選択領域用重み画像に応じた重み付けをして比較し、出力画像と非選択領域用目標画像との類似度を算出する。そして、非選択領域用フィルタ生成部1210は、複数の出力画像のそれぞれの類似度に基づき、複数の出力画像の中から非選択領域用目標画像により近い出力画像を選択する。   The processing flow of FIG. 11 is similarly applied to the generation of the non-selection region image filter in step S945 of FIG. 9 and the generation of the extraction image filter of step S950 of FIG. In this case, in the generation of the non-selection region image filter, for example, the non-selection region filter generation unit 1210 weights the output image and the non-selection region target image according to the non-selection region weight image. The comparison is performed to calculate the similarity between the output image and the target image for the non-selected area. Then, the non-selection region filter generation unit 1210 selects an output image closer to the non-selection region target image from the plurality of output images based on the respective similarities of the plurality of output images.

また、抽出用画像フィルタの生成において、抽出用画像フィルタ生成部1220は、一例として、選択領域用フィルタ生成部1200が生成した選択領域用の画像フィルタ20および非選択領域用フィルタ生成部1210が生成した非選択領域用の画像フィルタ20を含む画像フィルタ群に基づいて、抽出用の画像フィルタ20を選択する。そして、抽出用画像フィルタ生成部1220は、学習用入力画像を、学習用目標画像へ変換するのに適した画像フィルタ20を生成する。抽出用画像フィルタ生成部1220は、学習用目標画像として、選択領域用フィルタ生成部1200の選択用目標画像、または選択領域に基づいて生成した他の目標画像を用いてもよい。この場合において、抽出用画像フィルタ生成部1220は、重み画像として、均一の重み画像、選択領域用重み画像、非選択領域用重み画像またはこれらの少なくとも2つを反映した重み画像を用いてもよい。   Further, in the generation of the extraction image filter, the extraction image filter generation unit 1220 is generated by the selection region image filter 20 and the non-selection region filter generation unit 1210 generated by the selection region filter generation unit 1200, for example. The image filter for extraction 20 is selected based on the image filter group including the image filter 20 for the non-selected area. Then, the extraction image filter generation unit 1220 generates an image filter 20 suitable for converting the learning input image into the learning target image. The extraction image filter generation unit 1220 may use the selection target image of the selection region filter generation unit 1200 or another target image generated based on the selection region as the learning target image. In this case, the extraction image filter generation unit 1220 may use a uniform weight image, a selection region weight image, a non-selection region weight image, or a weight image reflecting at least two of these as the weight image. .

以上において、抽出用画像フィルタ生成部1220は、選択領域用フィルタ生成部1200が生成した選択領域用の画像フィルタ20および非選択領域用フィルタ生成部1210が生成した非選択領域用の画像フィルタ20を含む画像フィルタ群を用いて、抽出用の画像フィルタ20を選択する。ここで、抽出用画像フィルタ生成部1220は、学習用入力画像を現世代以前の抽出用の画像フィルタ20により変換した出力画像および選択領域用目標画像の類似度と、出力画像および非選択領域用目標画像の類似度の和がより大きくなる画像フィルタ20を、抽出用の画像フィルタ20として選択してもよい。   In the above, the extraction image filter generation unit 1220 includes the selection region image filter 20 generated by the selection region filter generation unit 1200 and the non-selection region image filter 20 generated by the non-selection region filter generation unit 1210. The image filter 20 for extraction is selected using the image filter group including the image filter group. Here, the extraction image filter generation unit 1220, the similarity between the output image obtained by converting the learning input image by the extraction image filter 20 before the current generation and the target image for the selection region, and the output image and the non-selection region You may select the image filter 20 from which the sum of the similarity of a target image becomes larger as the image filter 20 for extraction.

図12は、図11のステップS21の選択領域用画像フィルタ生成における重み画像生成部130の処理フローの一例を示す。重み画像生成部130は、図11に示されたステップS21における選択領域用重み画像の更新処理において、以下のステップS31〜S33の処理を実行する。   FIG. 12 shows an example of the processing flow of the weight image generation unit 130 in the selection area image filter generation in step S21 of FIG. The weight image generation unit 130 executes the following steps S31 to S33 in the selection area weight image update process in step S21 shown in FIG.

まず、重み画像生成部130は、前世代から残存した複数の画像フィルタ20および図10のステップS12において新たに生成された複数の画像フィルタ20のそれぞれにより生成された複数の出力画像のうち、少なくとも1つの出力画像を、選択領域用重み画像更新に用いる出力画像として選択する(S31)。重み画像生成部130は、一例として、複数の画像フィルタ20のうち、前世代において算出された類似度が最も高かった画像フィルタ20により生成された出力画像を抽出する。また、重み画像生成部130は、前世代において算出された類似度が所定値以上の画像フィルタ20により生成された1または複数の出力画像を抽出してもよい。また、重み画像生成部130は、一例として、複数の画像フィルタ20のうち任意の一個の画像フィルタ20により生成された出力画像を抽出する。   First, the weight image generation unit 130 includes at least one of a plurality of output images generated by each of the plurality of image filters 20 remaining from the previous generation and the plurality of image filters 20 newly generated in Step S12 of FIG. One output image is selected as an output image used for updating the selection area weight image (S31). As an example, the weighted image generation unit 130 extracts an output image generated by the image filter 20 having the highest similarity calculated in the previous generation among the plurality of image filters 20. Further, the weight image generation unit 130 may extract one or a plurality of output images generated by the image filter 20 having a similarity calculated in the previous generation of a predetermined value or more. For example, the weight image generation unit 130 extracts an output image generated by any one of the plurality of image filters 20.

続いて、重み画像生成部130は、ステップS31において選択された少なくとも1つの出力画像と選択領域用目標画像との領域毎の差分を算出する(S32)。重み画像生成部130は、一例として、ステップS31において選択された少なくとも1つの出力画像と、選択領域用目標画像とのピクセル毎の差分を算出する。   Subsequently, the weight image generation unit 130 calculates a difference for each region between the at least one output image selected in step S31 and the selection region target image (S32). As an example, the weighted image generation unit 130 calculates a difference for each pixel between the at least one output image selected in step S31 and the selection region target image.

なお、ステップS31において複数の出力画像を抽出した場合には、重み画像生成部130は、一例として、ステップS31において選択された複数の出力画像のそれぞれと一の選択領域用目標画像との複数個の差分のうち、最も大きい1個の差分またはこれら複数個の差分の平均値を、領域毎(例えばピクセル毎)に選択する。   When a plurality of output images are extracted in step S31, the weight image generation unit 130, as an example, includes a plurality of output images selected in step S31 and a plurality of selection area target images. Among the differences, one largest difference or an average value of the plurality of differences is selected for each region (for example, for each pixel).

続いて、重み画像生成部130は、重み画像生成部130に記憶された選択領域用重み画像、すなわち、前世代において用いられた選択領域用重み画像を、ステップS32において算出された領域毎の差分に基づき変更する(S33)。より具体的には、重み画像生成部130は、差分がより大きい領域の重みを当該差分がより小さい領域の重みより大きくするべく、重み画像生成部130に記憶された重みデータを更新する。なお、重み画像生成部130は、一例として、初期の世代の選択領域用重み画像として、領域毎の重みが同一として生成した、または既に生成した選択領域用重み画像を、予め記憶しておく。   Subsequently, the weight image generation unit 130 uses the difference for each region calculated in step S32 for the selection region weight image stored in the weight image generation unit 130, that is, the selection region weight image used in the previous generation. (S33). More specifically, the weight image generation unit 130 updates the weight data stored in the weight image generation unit 130 so that the weight of the region with the larger difference is larger than the weight of the region with the smaller difference. As an example, the weight image generation unit 130 stores in advance a selection area weight image that is generated with the same weight for each area, or has already been generated, as an initial generation selection area weight image.

なお、図12の処理フローは、図9のステップS945の非選択領域用画像フィルタの生成および図9のステップS950の抽出用画像フィルタの生成においても、同様に適用される。この場合、重み画像生成部130は、一例として、非選択領域用画像フィルタの生成においては、非選択領域用重み画像を更新する。また、重み画像生成部130は、抽出用画像フィルタの生成において、重み画像として、均一の重み画像、選択領域用重み画像、非選択領域用重み画像またはこれらの少なくとも2つを反映した重み画像を用いてもよい。   The processing flow of FIG. 12 is similarly applied to the generation of the non-selection region image filter in step S945 of FIG. 9 and the generation of the extraction image filter of step S950 of FIG. In this case, as an example, the weight image generation unit 130 updates the non-selection region weight image when generating the non-selection region image filter. Further, the weight image generation unit 130 generates a weight image that reflects a uniform weight image, a selection region weight image, a non-selection region weight image, or a weight image reflecting at least two of these as a weight image in the generation of the extraction image filter. It may be used.

以上において、重み画像生成部130は、学習入力画像を、学習用目標画像に、より類似する画像に変換する重み画像を生成して、更新する。   In the above, the weight image generation unit 130 generates and updates a weight image for converting the learning input image into an image more similar to the learning target image.

図13は、本実施形態に係る世代毎に更新される重み画像の一例を示す。図12の選択領域用画像フィルタ生成において説明したように、重み画像生成部130は、世代毎に適切な重み画像を生成することができる。   FIG. 13 shows an example of a weight image updated for each generation according to this embodiment. As described in the selection area image filter generation in FIG. 12, the weight image generation unit 130 can generate an appropriate weight image for each generation.

図13に示されるように、重み画像生成部130は、一例として、出力画像と選択領域用目標画像とのピクセル毎の差分を表わす差分画像を生成する。そして、重み画像生成部130は、一例として、生成した差分画像に予め定められた係数を乗じて重み画像生成部130に記憶された選択領域用重み画像に加算することにより、重みデータを更新してよい。このようにして、重み画像生成部130は、差分がより大きい領域の重みをより大きくし、差分がより小さい領域の重みをより小さくするように、選択領域用重み画像を更新することができる。   As illustrated in FIG. 13, as an example, the weight image generation unit 130 generates a difference image representing a difference for each pixel between the output image and the selection region target image. Then, as an example, the weight image generation unit 130 multiplies the generated difference image by a predetermined coefficient and adds the result to the selection area weight image stored in the weight image generation unit 130, thereby updating the weight data. It's okay. In this way, the weight image generation unit 130 can update the selection region weight image so that the weight of the region having the larger difference is increased and the weight of the region having the smaller difference is decreased.

このような本実施形態に係る画像処理装置10によれば、画面の領域毎に適切な重み付けをして出力画像と選択領域用目標画像との類似度を算出することができる。これにより、画像処理装置10によれば、複数の出力画像の中から選択領域用目標画像に類似した出力画像を適切に選択することができる。   According to such an image processing apparatus 10 according to the present embodiment, it is possible to calculate the similarity between the output image and the selection area target image by appropriately weighting each area of the screen. Thereby, according to the image processing apparatus 10, it is possible to appropriately select an output image similar to the selection region target image from among a plurality of output images.

例えば、本実施形態に係る画像処理装置10によれば、次世代に残存させるべき画像フィルタ20を選択することを目的として、複数の画像フィルタ20により生成された複数の出力画像の中から選択領域用目標画像に類似した出力画像を選択する処理において、出力画像と選択領域用目標画像との類似度の算出に用いる重みデータを、世代毎に適切な値に更新することができる。   For example, according to the image processing apparatus 10 according to the present embodiment, a selection region is selected from a plurality of output images generated by the plurality of image filters 20 for the purpose of selecting the image filter 20 to be left in the next generation. In the process of selecting an output image similar to the target image, the weight data used to calculate the similarity between the output image and the selected region target image can be updated to an appropriate value for each generation.

従って、例えば、世代が進んで、複数の画像フィルタ20により生成された複数の出力画像のほとんどが選択領域用目標画像と近くなり、複数の出力画像の間の差が微小となった場合であっても、画像処理装置10によれば、選択領域用目標画像により近い出力画像を適切に判別させることができる。この結果、画像処理装置10によれば、適切な画像フィルタ20を高速に生成することができる。   Therefore, for example, when the generation has progressed, most of the plurality of output images generated by the plurality of image filters 20 have become close to the target image for the selected region, and the difference between the plurality of output images has become minute. However, according to the image processing apparatus 10, it is possible to appropriately determine an output image closer to the selection area target image. As a result, the image processing apparatus 10 can generate an appropriate image filter 20 at high speed.

また、本実施形態の変形例として、重み画像生成部130は、出力画像と選択領域用目標画像との差分に基づき重みデータを生成することに代えて、複数の出力画像のうち何れか2以上の出力画像同士の差分がより大きい領域の重みを、当該差分がより小さい領域の重みより大きくした重みデータを生成してよい。   As a modification of the present embodiment, the weight image generation unit 130 generates any two or more of the plurality of output images instead of generating weight data based on the difference between the output image and the target image for the selection area. The weight data in which the weight of the region where the difference between the output images is larger than the weight of the region where the difference is smaller may be generated.

重み画像生成部130は、一例として、複数の出力画像のうちの2個の出力画像同士の差分がより大きい領域の重みを、当該差分がより小さい領域の重みより大きくした重みデータを生成する。より具体的には、重み画像生成部130は、第1の出力画像と第2の出力画像とのピクセル毎の差分を表わす差分画像を生成し、生成した差分画像に予め定められた係数を乗じて重み画像生成部130に記憶された選択領域用重み画像に加算することにより、重みデータを更新してもよい。   For example, the weight image generation unit 130 generates weight data in which the weight of a region where the difference between two output images of a plurality of output images is larger than the weight of a region where the difference is smaller. More specifically, the weight image generation unit 130 generates a difference image representing a pixel-by-pixel difference between the first output image and the second output image, and multiplies the generated difference image by a predetermined coefficient. The weight data may be updated by adding to the weight image for selection area stored in the weight image generation unit 130.

このような変形例に係る画像処理装置10によれば、例えば、世代が進んで、複数の画像フィルタ20により生成された複数の出力画像のほとんどが選択領域用目標画像と近くなり、複数の出力画像の間の差が微小となった場合であっても、複数の出力画像間の差が強調されるので、選択領域用目標画像により近い出力画像を適切に判別させることができる。この結果、画像処理装置10によれば、適切な画像フィルタ20を高速に生成することができる。   According to the image processing apparatus 10 according to such a modified example, for example, the generation has progressed, and most of the plurality of output images generated by the plurality of image filters 20 are close to the target image for the selection region, and the plurality of output images Even when the difference between the images becomes small, the difference between the plurality of output images is emphasized, so that an output image closer to the target image for the selection area can be appropriately determined. As a result, the image processing apparatus 10 can generate an appropriate image filter 20 at high speed.

図14は、本実施形態に係るコンピュータ1900のハードウェア構成の一例を示す。本実施形態に係るコンピュータ1900は、ホスト・コントローラ2082により相互に接続されるCPU2000、RAM2020、グラフィック・コントローラ2075、及び表示装置2080を有するCPU周辺部と、入出力コントローラ2084によりホスト・コントローラ2082に接続される通信インターフェイス2030、ハードディスク・ドライブ2040、及びDVDドライブ2060を有する入出力部と、入出力コントローラ2084に接続されるROM2010、フレキシブルディスク・ドライブ2050、及び入出力チップ2070を有するレガシー入出力部とを備える。   FIG. 14 shows an example of a hardware configuration of a computer 1900 according to this embodiment. A computer 1900 according to this embodiment is connected to a CPU peripheral unit having a CPU 2000, a RAM 2020, a graphic controller 2075, and a display device 2080 that are connected to each other by a host controller 2082, and to the host controller 2082 by an input / output controller 2084. An input / output unit having a communication interface 2030, a hard disk drive 2040, and a DVD drive 2060, and a legacy input / output unit having a ROM 2010, a flexible disk drive 2050, and an input / output chip 2070 connected to the input / output controller 2084 Is provided.

ホスト・コントローラ2082は、RAM2020と、高い転送レートでRAM2020をアクセスするCPU2000及びグラフィック・コントローラ2075とを接続する。CPU2000は、ROM2010及びRAM2020に格納されたプログラムに基づいて動作し、各部の制御を行う。グラフィック・コントローラ2075は、CPU2000等がRAM2020内に設けたフレーム・バッファ上に生成する画像データを取得し、表示装置2080上に表示させる。これに代えて、グラフィック・コントローラ2075は、CPU2000等が生成する画像データを格納するフレーム・バッファを、内部に含んでもよい。   The host controller 2082 connects the RAM 2020 to the CPU 2000 and the graphic controller 2075 that access the RAM 2020 at a high transfer rate. The CPU 2000 operates based on programs stored in the ROM 2010 and the RAM 2020 and controls each unit. The graphic controller 2075 acquires image data generated by the CPU 2000 or the like on a frame buffer provided in the RAM 2020 and displays it on the display device 2080. Instead of this, the graphic controller 2075 may include a frame buffer for storing image data generated by the CPU 2000 or the like.

入出力コントローラ2084は、ホスト・コントローラ2082と、比較的高速な入出力装置である通信インターフェイス2030、ハードディスク・ドライブ2040、DVDドライブ2060を接続する。通信インターフェイス2030は、ネットワークを介して他の装置と通信する。ハードディスク・ドライブ2040は、コンピュータ1900内のCPU2000が使用するプログラム及びデータを格納する。DVDドライブ2060は、DVD2095からプログラム又はデータを読み取り、RAM2020を介してハードディスク・ドライブ2040に提供する。   The input / output controller 2084 connects the host controller 2082 to the communication interface 2030, the hard disk drive 2040, and the DVD drive 2060, which are relatively high-speed input / output devices. The communication interface 2030 communicates with other devices via a network. The hard disk drive 2040 stores programs and data used by the CPU 2000 in the computer 1900. The DVD drive 2060 reads a program or data from the DVD 2095 and provides it to the hard disk drive 2040 via the RAM 2020.

また、入出力コントローラ2084には、ROM2010と、フレキシブルディスク・ドライブ2050、及び入出力チップ2070の比較的低速な入出力装置とが接続される。ROM2010は、コンピュータ1900が起動時に実行するブート・プログラム、及び/又は、コンピュータ1900のハードウェアに依存するプログラム等を格納する。フレキシブルディスク・ドライブ2050は、フレキシブルディスク2090からプログラム又はデータを読み取り、RAM2020を介してハードディスク・ドライブ2040に提供する。入出力チップ2070は、フレキシブルディスク・ドライブ2050を入出力コントローラ2084へと接続すると共に、例えばパラレル・ポート、シリアル・ポート、キーボード・ポート、マウス・ポート等を介して各種の入出力装置を入出力コントローラ2084へと接続する。   The input / output controller 2084 is connected to the ROM 2010, the flexible disk drive 2050, and the relatively low-speed input / output device of the input / output chip 2070. The ROM 2010 stores a boot program that the computer 1900 executes at startup and / or a program that depends on the hardware of the computer 1900. The flexible disk drive 2050 reads a program or data from the flexible disk 2090 and provides it to the hard disk drive 2040 via the RAM 2020. The input / output chip 2070 connects the flexible disk drive 2050 to the input / output controller 2084 and inputs / outputs various input / output devices via, for example, a parallel port, a serial port, a keyboard port, a mouse port, and the like. Connect to controller 2084.

RAM2020を介してハードディスク・ドライブ2040に提供されるプログラムは、フレキシブルディスク2090、DVD2095、又はICカード等の記録媒体に格納されて利用者によって提供される。プログラムは、記録媒体から読み出され、RAM2020を介してコンピュータ1900内のハードディスク・ドライブ2040にインストールされ、CPU2000において実行される。   A program provided to the hard disk drive 2040 via the RAM 2020 is stored in a recording medium such as the flexible disk 2090, the DVD 2095, or an IC card and provided by the user. The program is read from the recording medium, installed in the hard disk drive 2040 in the computer 1900 via the RAM 2020, and executed by the CPU 2000.

コンピュータ1900にインストールされ、コンピュータ1900を画像処理装置10の制御用コンピュータとして機能させるプログラムは、受付モジュールと、目標画像生成モジュールと、フィルタ生成モジュールと、重み画像生成モジュールとを備える。これらのプログラム又はモジュールは、CPU2000等に働きかけて、コンピュータ1900を、受付部100と、目標画像生成部110と、フィルタ生成部120と、重み画像生成部130としてそれぞれ機能させる。   A program that is installed in the computer 1900 and causes the computer 1900 to function as a computer for controlling the image processing apparatus 10 includes a reception module, a target image generation module, a filter generation module, and a weight image generation module. These programs or modules work on the CPU 2000 or the like to cause the computer 1900 to function as the receiving unit 100, the target image generating unit 110, the filter generating unit 120, and the weighted image generating unit 130, respectively.

これらのプログラムに記述された情報処理は、コンピュータ1900に読込まれることにより、ソフトウェアと上述した各種のハードウェア資源とが協働した具体的手段である受付部100と、目標画像生成部110と、フィルタ生成部120と、重み画像生成部130として機能する。そして、これらの具体的手段によって、本実施形態におけるコンピュータ1900の使用目的に応じた情報の演算又は加工を実現することにより、使用目的に応じた特有の画像処理装置10が構築される。   The information processing described in these programs is read into the computer 1900, whereby the receiving unit 100, which is a specific means in which the software and the various hardware resources described above cooperate, the target image generating unit 110, , Function as a filter generation unit 120 and a weighted image generation unit 130. And the specific image processing apparatus 10 according to the intended use is constructed | assembled by implement | achieving the calculation or processing of the information according to the intended use of the computer 1900 in this embodiment by these concrete means.

一例として、コンピュータ1900と外部の装置等との間で通信を行う場合には、CPU2000は、RAM2020上にロードされた通信プログラムを実行し、通信プログラムに記述された処理内容に基づいて、通信インターフェイス2030に対して通信処理を指示する。通信インターフェイス2030は、CPU2000の制御を受けて、RAM2020、ハードディスク・ドライブ2040、フレキシブルディスク2090、又はDVD2095等の記憶装置上に設けた送信バッファ領域等に記憶された送信データを読み出してネットワークへと送信し、もしくは、ネットワークから受信した受信データを記憶装置上に設けた受信バッファ領域等へと書き込む。このように、通信インターフェイス2030は、DMA(ダイレクト・メモリ・アクセス)方式により記憶装置との間で送受信データを転送してもよく、これに代えて、CPU2000が転送元の記憶装置又は通信インターフェイス2030からデータを読み出し、転送先の2030又は記憶装置へとデータを書き込むことにより送受信データを転送してもよい。   As an example, when communication is performed between the computer 1900 and an external device or the like, the CPU 2000 executes a communication program loaded on the RAM 2020 and executes a communication interface based on the processing content described in the communication program. A communication process is instructed to 2030. Under the control of the CPU 2000, the communication interface 2030 reads transmission data stored in a transmission buffer area or the like provided on a storage device such as the RAM 2020, the hard disk drive 2040, the flexible disk 2090, or the DVD 2095, and transmits it to the network. Alternatively, the reception data received from the network is written into a reception buffer area or the like provided on the storage device. As described above, the communication interface 2030 may transfer transmission / reception data to / from the storage device by a DMA (direct memory access) method. Instead, the CPU 2000 transfers the storage device or the communication interface 2030 as a transfer source. The transmission / reception data may be transferred by reading the data from the data and writing the data to the transfer destination 2030 or the storage device.

また、CPU2000は、ハードディスク・ドライブ2040、DVDドライブ2060(DVD2095)、フレキシブルディスク・ドライブ2050(フレキシブルディスク2090)等の外部記憶装置に格納されたファイルまたはデータベース等の中から、全部または必要な部分をDMA転送等によりRAM2020へと読み込ませ、RAM2020上のデータに対して各種の処理を行う。そして、CPU2000は、処理を終えたデータを、DMA転送等により外部記憶装置へと書き戻す。このような処理において、RAM2020は、外部記憶装置の内容を一時的に保持するものとみなせるから、本実施形態においてはRAM2020および外部記憶装置等をメモリ、記憶部、または記憶装置等と総称する。本実施形態における各種のプログラム、データ、テーブル、データベース等の各種の情報は、このような記憶装置上に格納されて、情報処理の対象となる。なお、CPU2000は、RAM2020の一部をキャッシュメモリに保持し、キャッシュメモリ上で読み書きを行うこともできる。このような形態においても、キャッシュメモリはRAM2020の機能の一部を担うから、本実施形態においては、区別して示す場合を除き、キャッシュメモリもRAM2020、メモリ、及び/又は記憶装置に含まれるものとする。   In addition, the CPU 2000 reads all or necessary portions from files or databases stored in an external storage device such as the hard disk drive 2040, the DVD drive 2060 (DVD 2095), and the flexible disk drive 2050 (flexible disk 2090). The data is read into the RAM 2020 by DMA transfer or the like, and various processes are performed on the data on the RAM 2020. Then, CPU 2000 writes the processed data back to the external storage device by DMA transfer or the like. In such processing, since the RAM 2020 can be regarded as temporarily holding the contents of the external storage device, in the present embodiment, the RAM 2020 and the external storage device are collectively referred to as a memory, a storage unit, or a storage device. Various types of information such as various programs, data, tables, and databases in the present embodiment are stored on such a storage device and are subjected to information processing. Note that the CPU 2000 can also store a part of the RAM 2020 in the cache memory and perform reading and writing on the cache memory. Even in such a form, the cache memory bears a part of the function of the RAM 2020. Therefore, in the present embodiment, the cache memory is also included in the RAM 2020, the memory, and / or the storage device unless otherwise indicated. To do.

また、CPU2000は、RAM2020から読み出したデータに対して、プログラムの命令列により指定された、本実施形態中に記載した各種の演算、情報の加工、条件判断、情報の検索・置換等を含む各種の処理を行い、RAM2020へと書き戻す。例えば、CPU2000は、条件判断を行う場合においては、本実施形態において示した各種の変数が、他の変数または定数と比較して、大きい、小さい、以上、以下、等しい等の条件を満たすかどうかを判断し、条件が成立した場合(又は不成立であった場合)に、異なる命令列へと分岐し、またはサブルーチンを呼び出す。   In addition, the CPU 2000 performs various operations, such as various operations, information processing, condition determination, information search / replacement, etc., described in the present embodiment, specified for the data read from the RAM 2020 by the instruction sequence of the program. Is written back to the RAM 2020. For example, when performing the condition determination, the CPU 2000 determines whether the various variables shown in the present embodiment satisfy the conditions such as large, small, above, below, equal, etc., compared to other variables or constants. When the condition is satisfied (or not satisfied), the program branches to a different instruction sequence or calls a subroutine.

また、CPU2000は、記憶装置内のファイルまたはデータベース等に格納された情報を検索することができる。例えば、第1属性の属性値に対し第2属性の属性値がそれぞれ対応付けられた複数のエントリが記憶装置に格納されている場合において、CPU2000は、記憶装置に格納されている複数のエントリの中から第1属性の属性値が指定された条件と一致するエントリを検索し、そのエントリに格納されている第2属性の属性値を読み出すことにより、所定の条件を満たす第1属性に対応付けられた第2属性の属性値を得ることができる。   Further, the CPU 2000 can search for information stored in a file or database in the storage device. For example, in the case where a plurality of entries in which the attribute value of the second attribute is associated with the attribute value of the first attribute are stored in the storage device, the CPU 2000 displays the plurality of entries stored in the storage device. The entry that matches the condition in which the attribute value of the first attribute is specified is retrieved, and the attribute value of the second attribute that is stored in the entry is read, thereby associating with the first attribute that satisfies the predetermined condition The attribute value of the specified second attribute can be obtained.

以上に示したプログラム又はモジュールは、外部の記録媒体に格納されてもよい。記録媒体としては、フレキシブルディスク2090、DVD2095の他に、DVD又はCD等の光学記録媒体、MO等の光磁気記録媒体、テープ媒体、ICカード等の半導体メモリ等を用いることができる。また、専用通信ネットワーク又はインターネットに接続されたサーバシステムに設けたハードディスク又はRAM等の記憶装置を記録媒体として使用し、ネットワークを介してプログラムをコンピュータ1900に提供してもよい。   The program or module shown above may be stored in an external recording medium. As the recording medium, in addition to the flexible disk 2090 and the DVD 2095, an optical recording medium such as DVD or CD, a magneto-optical recording medium such as MO, a tape medium, a semiconductor memory such as an IC card, and the like can be used. Further, a storage device such as a hard disk or RAM provided in a server system connected to a dedicated communication network or the Internet may be used as a recording medium, and the program may be provided to the computer 1900 via the network.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。   The order of execution of each process such as operations, procedures, steps, and stages in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. It should be noted that the output can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for convenience, it means that it is essential to carry out in this order. It is not a thing.

10 画像処理装置、20 画像フィルタ、22 フィルタ部品、24 フィルタ部品群、100 受付部、110 目標画像生成部、120 フィルタ生成部、130 重み画像生成部、140 フィルタ格納部、700 学習用入力画像、710 選択領域用目標画像、715 選択領域用重み画像、720 非選択領域用目標画像、725 非選択領域用重み画像、1200 選択領域用フィルタ生成部、1210 非選択領域用フィルタ生成部、1220 抽出用画像フィルタ生成部、1900 コンピュータ、2000 CPU、2010 ROM、2020 RAM、2030 通信インターフェイス、2040 ハードディスク・ドライブ、2050 フレキシブルディスク・ドライブ、2060 DVDドライブ、2070 入出力チップ、2075 グラフィック・コントローラ、2080 表示装置、2082 ホスト・コントローラ、2084 入出力コントローラ、2090 フレキシブルディスク、2095 DVD DESCRIPTION OF SYMBOLS 10 Image processing apparatus, 20 Image filter, 22 Filter components, 24 Filter component group, 100 Reception part, 110 Target image generation part, 120 Filter generation part, 130 Weight image generation part, 140 Filter storage part, 700 Input image for learning, 710 Selection area target image, 715 Selection area weight image, 720 Non-selection area target image, 725 Non-selection area weight image, 1200 Selection area filter generation section, 1210 Non-selection area filter generation section, 1220 For extraction Image filter generation unit, 1900 computer, 2000 CPU, 2010 ROM, 2020 RAM, 2030 communication interface, 2040 hard disk drive, 2050 flexible disk drive, 2060 DVD drive, 2070 input / output chip, 2 075 Graphic controller, 2080 Display device, 2082 Host controller, 2084 I / O controller, 2090 Flexible disk, 2095 DVD

Claims (8)

学習用入力画像における抽出すべき対象物を含む領域の選択を受け付ける受付部と、
前記学習用入力画像における選択された領域に基づく選択領域用目標画像と、前記学習用入力画像における非選択の領域に基づく非選択領域用目標画像とを生成する目標画像生成部と、
前記学習用入力画像、前記選択領域用目標画像、および前記非選択領域用目標画像に基づいて、前記学習用入力画像から前記対象物を抽出する抽出用画像フィルタを生成するフィルタ生成部と、
を備え
前記フィルタ生成部は、前記学習用入力画像を前記抽出用画像フィルタにより変換した出力画像および前記選択領域用目標画像の類似度と、前記出力画像および前記非選択領域用目標画像の類似度の和がより大きくなる前記抽出用画像フィルタを生成する画像処理装置。
A reception unit for receiving selection of an area including an object to be extracted in the learning input image;
A target image generating unit that generates a target image for a selected region based on a selected region in the input image for learning and a target image for a non-selected region based on a non-selected region in the input image for learning;
A filter generation unit configured to generate an extraction image filter that extracts the target object from the learning input image based on the learning input image, the selection region target image, and the non-selection region target image;
Equipped with a,
The filter generation unit is a sum of the similarity between the output image obtained by converting the learning input image using the extraction image filter and the selection area target image, and the similarity between the output image and the non-selection area target image. An image processing apparatus that generates the image filter for extraction with a larger value .
前記フィルタ生成部は、入力画像を出力画像にそれぞれ変換する複数のフィルタ部品を組み合わせて、前記抽出用画像フィルタを生成する
請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the filter generation unit generates the extraction image filter by combining a plurality of filter components that respectively convert an input image into an output image.
前記目標画像生成部は、前記学習用入力画像における選択された領域の画像を前記選択領域用目標画像とし、選択された領域および非選択の領域を異なる輝度として区別した画像を前記非選択領域用目標画像とする
請求項1または2に記載の画像処理装置。
The target image generation unit uses an image of a selected area in the learning input image as the selection area target image, and distinguishes the selected area and the non-selected area as different luminances for the non-selection area. The image processing apparatus according to claim 1, wherein the image processing apparatus is a target image.
前記フィルタ生成部は、
前記学習用入力画像を変換した出力画像および前記選択領域用目標画像の類似度がより大きくなる選択領域用画像フィルタを生成する選択領域用フィルタ生成部と、
前記学習用入力画像を変換した出力画像および前記非選択領域用目標画像の類似度がより大きくなる非選択領域用画像フィルタを生成する非選択領域用フィルタ生成部と、
前記選択領域用画像フィルタおよび前記非選択領域用画像フィルタに基づいて、前記抽出用画像フィルタを生成する抽出用画像フィルタ生成部と、
を有する
請求項1からのいずれか1項に記載の画像処理装置。
The filter generation unit
A selection region filter generation unit that generates a selection region image filter in which the similarity between the output image obtained by converting the learning input image and the selection region target image is greater;
A non-selection region filter generation unit for generating a non-selection region image filter in which the similarity between the output image obtained by converting the learning input image and the non-selection region target image is greater;
An extraction image filter generation unit for generating the extraction image filter based on the selection region image filter and the non-selection region image filter;
The image processing apparatus according to any one of claims 1 3 having.
前記抽出用画像フィルタ生成部は、前記選択領域用画像フィルタおよび前記非選択領域用画像フィルタを含む画像フィルタ群を遺伝的処理により進化させて前記抽出用画像フィルタを生成する
請求項に記載の画像処理装置。
Said extracting image filter generation unit according to claim 4 for generating the image for extracting filter evolved by genetic processes an image filter group including the selected area image filter and the non-selected area for an image filter Image processing device.
前記学習用入力画像における、選択された領域の重みを非選択の領域より大きくした選択領域用重み画像と、非選択の領域の重みを選択された領域より大きくした非選択領域用重み画像とを生成する重み画像生成部を更に備え、
前記フィルタ生成部は、前記学習用入力画像を前記抽出用画像フィルタにより変換した変換画像および前記選択領域用目標画像を前記選択領域用重み画像により重み付けして比較し、前記変換画像および前記非選択領域用目標画像を前記非選択領域用重み画像により重み付けして比較する
請求項1からのいずれか1項に記載の画像処理装置。
In the learning input image, a selection area weight image in which the weight of the selected area is larger than that in the non-selection area, and a non-selection area weight image in which the weight of the non-selection area is larger than that in the selected area. Further comprising a weight image generation unit for generating,
The filter generation unit weights and compares the converted image obtained by converting the learning input image with the extraction image filter and the selection region target image with the selection region weight image, and the converted image and the non-selected the image processing apparatus according to any one of 5 the target image area from claim 1 and comparing weighted by the non-selected area for the weighted image.
学習用入力画像における抽出すべき対象物を含む領域の選択を受け付ける受付ステップと、
前記学習用入力画像における選択された領域に基づく選択領域用目標画像と、前記学習用入力画像における非選択の領域に基づく非選択領域用目標画像とを生成する目標画像生成ステップと、
前記学習用入力画像、前記選択領域用目標画像、および前記非選択領域用目標画像に基づいて、前記学習用入力画像から前記対象物を抽出する抽出用画像フィルタを生成するフィルタ生成ステップと、
を備え
前記フィルタ生成ステップは、前記学習用入力画像を前記抽出用画像フィルタにより変換した出力画像および前記選択領域用目標画像の類似度と、前記出力画像および前記非選択領域用目標画像の類似度の和がより大きくなる前記抽出用画像フィルタを生成する画像処理方法。
An accepting step for accepting selection of a region including an object to be extracted in the learning input image;
A target image generation step of generating a selection area target image based on a selected area in the learning input image and a non-selection area target image based on a non-selected area in the learning input image;
A filter generation step of generating an extraction image filter for extracting the object from the learning input image based on the learning input image, the selection region target image, and the non-selection region target image;
Equipped with a,
The filter generation step includes a sum of a similarity between the output image obtained by converting the learning input image by the extraction image filter and the selection area target image, and a similarity between the output image and the non-selection area target image. An image processing method for generating the image filter for extraction in which becomes larger .
画像処理装置として、コンピュータを機能させる画像処理プログラムであって、
前記コンピュータを、
学習用入力画像における抽出すべき対象物を含む領域の選択を受け付ける受付部と、
前記学習用入力画像における選択された領域に基づく選択領域用目標画像と、前記学習用入力画像における非選択の領域に基づく非選択領域用目標画像とを生成する目標画像生成部と、
前記学習用入力画像、前記選択領域用目標画像、および前記非選択領域用目標画像に基づいて、前記学習用入力画像から前記対象物を抽出する抽出用画像フィルタを生成するフィルタ生成部と、
して機能させ
前記フィルタ生成部は、前記学習用入力画像を前記抽出用画像フィルタにより変換した出力画像および前記選択領域用目標画像の類似度と、前記出力画像および前記非選択領域用目標画像の類似度の和がより大きくなる前記抽出用画像フィルタを生成する画像処理プログラム。
An image processing program for causing a computer to function as an image processing apparatus,
The computer,
A reception unit for receiving selection of an area including an object to be extracted in the learning input image;
A target image generating unit that generates a target image for a selected region based on a selected region in the input image for learning and a target image for a non-selected region based on a non-selected region in the input image for learning;
A filter generation unit configured to generate an extraction image filter that extracts the target object from the learning input image based on the learning input image, the selection region target image, and the non-selection region target image;
To function ,
The filter generation unit is a sum of the similarity between the output image obtained by converting the learning input image using the extraction image filter and the selection area target image, and the similarity between the output image and the non-selection area target image. An image processing program for generating the image filter for extraction in which becomes larger .
JP2009106976A 2009-04-24 2009-04-24 Image processing apparatus, image processing method, and image processing program Expired - Fee Related JP5326776B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009106976A JP5326776B2 (en) 2009-04-24 2009-04-24 Image processing apparatus, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009106976A JP5326776B2 (en) 2009-04-24 2009-04-24 Image processing apparatus, image processing method, and image processing program

Publications (2)

Publication Number Publication Date
JP2010257256A JP2010257256A (en) 2010-11-11
JP5326776B2 true JP5326776B2 (en) 2013-10-30

Family

ID=43318081

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009106976A Expired - Fee Related JP5326776B2 (en) 2009-04-24 2009-04-24 Image processing apparatus, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP5326776B2 (en)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006178857A (en) * 2004-12-24 2006-07-06 Yokohama National Univ Image processor
JP2007087306A (en) * 2005-09-26 2007-04-05 Yokohama National Univ Target image designating and generating system
JP2007241945A (en) * 2006-03-13 2007-09-20 Yokohama National Univ Image processor and image processing determination device
US20070230793A1 (en) * 2006-04-03 2007-10-04 Kabushiki Kaisha Toshiba Method and apparatus for pattern matching processing
JP4814679B2 (en) * 2006-04-05 2011-11-16 富士重工業株式会社 Image processing device
JP4961161B2 (en) * 2006-04-27 2012-06-27 株式会社日立ハイテクノロジーズ Inspection device
JP4910090B2 (en) * 2007-02-19 2012-04-04 国立大学法人横浜国立大学 Image processing system

Also Published As

Publication number Publication date
JP2010257256A (en) 2010-11-11

Similar Documents

Publication Publication Date Title
JP5408128B2 (en) Image processing apparatus, image processing method, processing apparatus, and program
EP3428856A1 (en) Information processing method and information processing device
JP2011014051A (en) Generating device, generating method, and generation program
JP5181825B2 (en) Image processing apparatus, image processing method, and program
JP5304401B2 (en) Genetic processing apparatus, genetic processing method and program
JP2016031629A (en) Feature selection device, feature selection system, feature selection method and feature selection program
JP5396977B2 (en) Data processing apparatus, data processing method and program
JP5326776B2 (en) Image processing apparatus, image processing method, and image processing program
JP5417967B2 (en) Genetic processing apparatus, genetic processing method and program
JP5326881B2 (en) Image processing apparatus, image processing method, and image processing program
JP5359622B2 (en) Genetic processing apparatus, genetic processing method, and genetic processing program
JP6835407B2 (en) Image processing equipment, image processing methods and programs
JP5417972B2 (en) Genetic processing apparatus, genetic processing method, and genetic processing program
JP5418052B2 (en) Genetic processing apparatus, genetic processing method and program
JP5417950B2 (en) Genetic processing apparatus, genetic processing method and program
JP5181826B2 (en) Image processing apparatus, image processing method, and program
JP5453937B2 (en) Genetic processing apparatus, genetic processing method, and genetic processing program
JP5365328B2 (en) Genetic processing apparatus, genetic processing method, and genetic processing program
JP5359531B2 (en) Genetic processing apparatus, genetic processing method and program
JP5181821B2 (en) Image processing apparatus, image processing method, and program
JP5359479B2 (en) Genetic processing apparatus, genetic processing method and program
JP2010257067A (en) Apparatus and method for processing hereditary, and program
JP5444822B2 (en) Genetic processing apparatus, genetic processing method and program
JP5088228B2 (en) Image processing apparatus, image processing method, and program
JP5471105B2 (en) Image processing apparatus, image processing method, and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120420

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130307

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130625

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130708

R150 Certificate of patent or registration of utility model

Ref document number: 5326776

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees