JP2011014051A - Generating device, generating method, and generation program - Google Patents

Generating device, generating method, and generation program Download PDF

Info

Publication number
JP2011014051A
JP2011014051A JP2009159254A JP2009159254A JP2011014051A JP 2011014051 A JP2011014051 A JP 2011014051A JP 2009159254 A JP2009159254 A JP 2009159254A JP 2009159254 A JP2009159254 A JP 2009159254A JP 2011014051 A JP2011014051 A JP 2011014051A
Authority
JP
Japan
Prior art keywords
image
filter
unit
input image
filters
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009159254A
Other languages
Japanese (ja)
Inventor
Yuji Kunigome
祐司 國米
Hideki Sasaki
秀貴 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2009159254A priority Critical patent/JP2011014051A/en
Publication of JP2011014051A publication Critical patent/JP2011014051A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a generating device, a generation method and a generation program for more efficiently generating a filter for the conversion processing of a characteristic image into a target image, in genetic processing.SOLUTION: The generating device for generating an adaptive image filter to be adapted to conversion from an input image for learning into a target image is provided with an acceptance section for accepting a designated input image including a partial designated region in the input image for learning and the target image; a generation section for generating a plurality of image filters; a calculation section for calculating the adaptivity of a plurality of output images obtained, by converting the designated input image by each of the plurality of image filters to the target image; and a selection section for selecting the adaptive image filter from among the plurality of image filters, based on the adaptability of each of the plurality of output images.

Description

本発明は、生成装置、生成方法、および生成プログラムに関する。   The present invention relates to a generation device, a generation method, and a generation program.

遺伝的アルゴリズムまたは遺伝的プログラミングといった進化的計算を用いたフィルタまたは変換器の生成方法が知られている(非特許文献1参照)。このような進化的計算を用いたフィルタまたは変換器の生成方法によれば、それぞれの事例に対して最適であって解析的に得ることが困難な複雑な構造のフィルタまたは変換器を、より少ない労力と時間で設計することができる。   A method for generating a filter or a converter using evolutionary computation such as a genetic algorithm or genetic programming is known (see Non-Patent Document 1). According to the method of generating a filter or a converter using such evolutionary computation, fewer filters or converters having a complicated structure that are optimal for each case and difficult to obtain analytically are obtained. It can be designed with effort and time.

前薗正宜 他2名、「遺伝的アルゴリズムによる画像フィルタ設計の研究」、[online]、コンピュータ利用教育協議会、[2008年3月20日検索]、インターネット<URL:http://www.ciec.or.jp/event/2003/papers/pdf/E00086.pdf>Masayoshi Maebuchi and two others, “Study on Image Filter Design Using Genetic Algorithm” [online], Computer Utilization Education Council, [March 20, 2008 search], Internet <URL: http: //www.ciec. or.jp/event/2003/papers/pdf/E00086.pdf>

ところで、このような進化的計算により画像フィルタを生成する方法は、目的の画像フィルタが得られるまでに、膨大な世代数を必要とする。従って、このような方法は、目的の画像フィルタを得るまでの演算コストが膨大となってしまっていた。また、目的の画像へ変換できる画像フィルタを効率よく生成するためには、学習用の目標画像を用意しなければならず、目標画像の作成に手間がかかる場合があった。   By the way, the method of generating an image filter by such evolutionary calculation requires an enormous number of generations until a target image filter is obtained. Therefore, such a method has a huge calculation cost until obtaining the target image filter. Further, in order to efficiently generate an image filter that can be converted into a target image, a target image for learning must be prepared, and it may take time to create the target image.

そこで本発明は、上記の課題を解決することのできる生成装置、生成方法、および生成プログラムを提供することを目的とする。この目的は特許請求の範囲における独立項に記載の特徴の組み合わせにより達成される。また従属項は本発明の更なる有利な具体例を規定する。   Then, an object of this invention is to provide the production | generation apparatus, production | generation method, and production | generation program which can solve said subject. This object is achieved by a combination of features described in the independent claims. The dependent claims define further advantageous specific examples of the present invention.

上記課題を解決するために、本発明の第1の態様においては、学習用入力画像から目標画像への変換に適応させる適応画像フィルタを生成する生成装置であって、学習用入力画像における一部の指定領域を含む指定入力画像と、目標画像とを受け付ける受付部と、複数の画像フィルタを生成する生成部と、複数の画像フィルタのそれぞれにより指定入力画像を変換した複数の出力画像に対して、目標画像との適合度をそれぞれ算出する算出部と、複数の出力画像のそれぞれの適合度に基づいて、複数の画像フィルタの中から適応画像フィルタを選択する選択部と、を備える生成装置、並びに当該生成装置に関する生成方法、および生成プログラムを提供する。   In order to solve the above-described problem, in the first aspect of the present invention, there is provided a generation device that generates an adaptive image filter adapted to conversion from a learning input image to a target image, and includes a part of the learning input image. A receiving unit that receives a designated input image including a designated area, a target image, a generating unit that generates a plurality of image filters, and a plurality of output images obtained by converting the designated input image by each of the plurality of image filters. A generation unit comprising: a calculation unit that calculates the degree of matching with the target image; and a selection unit that selects an adaptive image filter from a plurality of image filters based on the degree of matching of each of the plurality of output images. A generation method and a generation program related to the generation apparatus are also provided.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。   The above summary of the invention does not enumerate all necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.

本実施形態に係る生成装置10の構成を示す。The structure of the production | generation apparatus 10 which concerns on this embodiment is shown. 本実施形態に係るフィルタ部品22を直列に組み合わせた画像フィルタ20の一例を示す。An example of the image filter 20 which combined the filter component 22 which concerns on this embodiment in series is shown. 本実施形態に係るフィルタ部品22を木構造に組み合わせた画像フィルタ20の一例を示す。An example of the image filter 20 in which the filter component 22 according to the present embodiment is combined in a tree structure is shown. 本実施形態に係るフィルタ部品22を直列に組み合わせた画像フィルタ20に対して行われる遺伝的な操作の一例を示す。An example of a genetic operation performed on the image filter 20 in which the filter components 22 according to the present embodiment are combined in series is shown. 本実施形態に係るフィルタ部品22を木構造に組み合わせた画像フィルタ20に対して行われる交叉操作の一例を示す。An example of the crossover operation performed on the image filter 20 in which the filter component 22 according to the present embodiment is combined in a tree structure is shown. 本実施形態に係るフィルタ部品22を木構造に組み合わせた画像フィルタ20に対して行われる突然変異操作の一例を示す。An example of a mutation operation performed on the image filter 20 in which the filter component 22 according to the present embodiment is combined in a tree structure is shown. 本実施形態に係る画像フィルタ20の適合度を表わすパラメータの一例である類似度の算出方法の一例を示す。An example of a similarity calculation method, which is an example of a parameter representing the degree of matching of the image filter 20 according to the present embodiment, is shown. 本実施形態に係る生成装置10の処理フローの一例を示す。An example of the processing flow of the production | generation apparatus 10 which concerns on this embodiment is shown. 図8のステップS14において画像フィルタ20を選択するまでの処理フローの一例を示す。An example of a processing flow until the image filter 20 is selected in step S14 of FIG. 図9のステップS21における重み生成部43による重み画像の更新処理フローの一例を示す。An example of a weight image update processing flow by the weight generation unit 43 in step S21 of FIG. 9 is shown. 本実施形態に係るユーザが指定する場合の指定領域についての一例を示す。An example about the designation | designated area | region in case the user concerning this embodiment designates is shown. 本実施形態に係る形状による自動指定の場合の指定領域についての一例を示す。An example of a designated area in the case of automatic designation by a shape according to the present embodiment will be shown. 本実施形態に係る輝度による自動指定の場合の指定領域についての一例を示す。An example of a designated area in the case of automatic designation by luminance according to the present embodiment will be shown. 本実施形態に係る大きさによる自動指定の場合の指定領域についての一例を示す。An example of a designated area in the case of automatic designation by size according to the present embodiment will be shown. 本実施形態に係る数量による自動指定の場合の指定領域についての一例を示す。An example about the designation | designated area | region in the case of automatic designation | designated by the quantity which concerns on this embodiment is shown. 本実施形態に係る指定領域内における画像から抽出する場合について、特性の選択ウィンドウの一例を示す。An example of a characteristic selection window is shown for extraction from an image in a designated area according to the present embodiment. 本実施形態に係るコンピュータ1900のハードウェア構成の一例を示す。2 shows an exemplary hardware configuration of a computer 1900 according to the present embodiment.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.

図1は、本実施形態に係る生成装置10の構成を示す。生成装置10は、少なくとも1つの画像フィルタ20を含む画像フィルタ群を、進化的計算に基づいて複数世代にわたり進化させる。本実施形態において、各画像フィルタ20は、学習用入力画像を処理して処理結果を出力画像として出力する複数のフィルタ部品の入出力間を組み合わせた構造である。そして、生成装置10は、学習用入力画像を目標画像へ変換するのに適した画像フィルタ20を生成する。生成装置10は、一例として、コンピュータにより実現される。   FIG. 1 shows a configuration of a generation apparatus 10 according to the present embodiment. The generation apparatus 10 evolves an image filter group including at least one image filter 20 over a plurality of generations based on evolutionary computation. In the present embodiment, each image filter 20 has a structure in which inputs and outputs of a plurality of filter components that process a learning input image and output a processing result as an output image are combined. Then, the generation device 10 generates an image filter 20 suitable for converting the learning input image into the target image. The generation device 10 is realized by a computer as an example.

生成装置10は、フィルタ格納部34と、学習用入力画像格納部36と、入力画像表示部56と、特定部54と、受付部58と、フィルタ処理部38と、出力画像格納部40と、目標画像格納部42と、重み生成部43と、算出部44と、選択部46と、更新部48と、生成部50とを備える。フィルタ格納部34は、互いに異なる構成の複数の画像フィルタ20を格納する。   The generation device 10 includes a filter storage unit 34, a learning input image storage unit 36, an input image display unit 56, a specifying unit 54, a reception unit 58, a filter processing unit 38, an output image storage unit 40, A target image storage unit 42, a weight generation unit 43, a calculation unit 44, a selection unit 46, an update unit 48, and a generation unit 50 are provided. The filter storage unit 34 stores a plurality of image filters 20 having different configurations.

学習用入力画像格納部36は、画像フィルタ20の変換対象である複数の学習用入力画像を格納する。学習用入力画像は、一例として、ユーザによって予め撮像された画像および予め生成された画像とする。   The learning input image storage unit 36 stores a plurality of learning input images to be converted by the image filter 20. As an example, the learning input image is an image captured in advance by a user and an image generated in advance.

入力画像表示部56は、学習用入力画像格納部36に格納された1または複数の学習用入力画像を順次に取得する。入力画像表示部56は、取得したそれぞれの学習用入力画像をユーザに対して表示する。   The input image display unit 56 sequentially acquires one or more learning input images stored in the learning input image storage unit 36. The input image display unit 56 displays each acquired learning input image to the user.

特定部54は、学習用入力画像から受付部58が受付けた指定領域を特定する。特定部54は、一例として、学習用入力画像における予め定められた特性を満たす一部の領域を、指定領域とする。ここで、特定部54は、学習用入力画像における形状、大きさ、数量、輝度値等を、領域を指定する特性として特定してよい。これに代えて、特定部54は、学習用入力画像におけるユーザに選択された少なくとも1つの特性を満たす一部の領域を、指定領域としてもよい。   The specifying unit 54 specifies the designated area received by the receiving unit 58 from the learning input image. For example, the specifying unit 54 sets a part of the learning input image that satisfies a predetermined characteristic as the designated area. Here, the specifying unit 54 may specify the shape, size, quantity, luminance value, and the like in the learning input image as characteristics for specifying a region. Instead of this, the specifying unit 54 may set a partial area that satisfies at least one characteristic selected by the user in the learning input image as the designated area.

受付部58は、学習用入力画像における一部の指定領域を含む指定入力画像と、目標画像とを受け付ける。ここで、受付部58は、一例として、学習用入力画像を画像フィルタ20により変換させた変換画像の一部を含む領域を指定領域とした指定入力画像および目標画像を受け付ける。また、受付部58は、予め設定された複数の領域枠の少なくとも1つの領域枠、または特定部54によって特定された少なくとも1つの領域を指定領域とした指定入力画像を受け付けてもよい。   The accepting unit 58 accepts a designated input image including a part of a designated area in the learning input image and a target image. Here, as an example, the accepting unit 58 accepts a designated input image and a target image in which a designated region is a region including a part of a converted image obtained by converting the learning input image by the image filter 20. The accepting unit 58 may accept a designated input image having at least one region frame of a plurality of region frames set in advance or at least one region identified by the identifying unit 54 as a designated region.

また、受付部58は、入力画像表示部56により表示された学習用入力画像をユーザにより変更させて、目標画像を作成させてもよい。この場合、受付部58は、一例として、学習用入力画像内でユーザが自由に指定した領域を受け付けて、目標画像を作成させる。   In addition, the reception unit 58 may cause the learning input image displayed by the input image display unit 56 to be changed by the user to create a target image. In this case, as an example, the receiving unit 58 receives a region freely designated by the user in the learning input image and creates a target image.

フィルタ処理部38は、フィルタ格納部34に格納された1または複数の画像フィルタ20を順次に取得する。フィルタ処理部38は、取得したそれぞれの画像フィルタ20により、学習用入力画像格納部36に格納された学習用入力画像を変換させて、出力画像のそれぞれを生成する。   The filter processing unit 38 sequentially acquires one or a plurality of image filters 20 stored in the filter storage unit 34. The filter processing unit 38 converts each learning input image stored in the learning input image storage unit 36 by each acquired image filter 20 to generate each output image.

出力画像格納部40は、フィルタ処理部38において生成された出力画像を格納する。出力画像格納部40は、一例として、出力画像のそれぞれを、変換した画像フィルタ20に対応付けて格納する。   The output image storage unit 40 stores the output image generated by the filter processing unit 38. For example, the output image storage unit 40 stores each output image in association with the converted image filter 20.

目標画像格納部42は、学習用入力画像を変換して生成される出力画像の目標となる目標画像を格納する。目標画像は、一例として、学習用入力画像から目標とする画像を抽出すべく、受付部58により受け付けられ、またはユーザにより予め生成され、若しくは準備された画像であってよい。   The target image storage unit 42 stores a target image that is a target of an output image generated by converting the learning input image. As an example, the target image may be an image received by the receiving unit 58, or generated or prepared in advance by the user in order to extract a target image from the learning input image.

重み生成部43は、出力画像と目標画像との比較におけるデータ領域毎の重みを表わす重み画像を生成する。重み生成部43は、一例として、出力画像および目標画像と同様にデータが配置された重み画像を生成する。重み生成部43は、出力画像と目標画像との各ピクセルの値(例えば輝度値)によって当該ピクセル位置の重みを表わす重み画像を生成してよい。ここで、重み生成部43は、一例として、出力画像および目標画像のうち少なくとも一組の画像同士についての画像毎の差分がより大きい画像に対する重みを、当該差分がより小さい画像に対する重みより大きくした重み画像を生成する。   The weight generation unit 43 generates a weight image representing the weight for each data area in the comparison between the output image and the target image. For example, the weight generation unit 43 generates a weight image in which data is arranged in the same manner as the output image and the target image. The weight generation unit 43 may generate a weight image representing the weight of the pixel position based on the value of each pixel (for example, luminance value) of the output image and the target image. Here, as an example, the weight generation unit 43 sets the weight for an image having a larger difference for each image between at least one set of the output image and the target image to be larger than the weight for an image having a smaller difference. A weight image is generated.

重み生成部43は、一例として、重み記憶部60と、重み更新部62とを有する。重み記憶部60は、重み画像を記憶する。重み更新部62は、重み画像更新用として抽出された少なくとも1つの出力画像と目標画像との例えばピクセル毎の差分を算出し、当該ピクセル毎の差分がより大きい領域の重みを差分がより小さい領域の重みより大きくすべく、重み記憶部60に記憶された重み画像を更新する。   As an example, the weight generation unit 43 includes a weight storage unit 60 and a weight update unit 62. The weight storage unit 60 stores a weight image. The weight updating unit 62 calculates, for example, a pixel-by-pixel difference between at least one output image extracted for updating the weighted image and the target image, and assigns a weight of an area where the difference for each pixel is larger to an area with a smaller difference. The weight image stored in the weight storage unit 60 is updated so as to be larger than the weight.

重み更新部62は、重み画像の更新を世代毎に行ってよい。ここで、重み更新部62は、一例として、現世代の重み画像における目標画像との差分が閾値より大きいデータに対応する重みに所定値を加算して、現世代の重み画像における目標画像との差分が閾値以下のデータに対応する重みに所定値より小さい値を加算する。   The weight update unit 62 may update the weight image for each generation. Here, as an example, the weight update unit 62 adds a predetermined value to the weight corresponding to data whose difference from the target image in the current generation weight image is larger than the threshold value, and A value smaller than a predetermined value is added to the weight corresponding to the data whose difference is equal to or less than the threshold value.

このようにして、重み更新部62は、次世代の重み画像を生成する。これに代えて、重み更新部62は、現世代の重み画像における、目標画像との差分が閾値より大きいデータに対応する重みに所定値を加算して、目標画像との差分が閾値以下のデータに対応する重みから所定値を減算してもよい。なお、重み記憶部60は、例えば重み更新部62によって重み画像が更新される毎に、更新される前の重み画像を更新された重み画像と区別して記憶してもよい。   In this way, the weight update unit 62 generates the next generation weight image. Instead, the weight updating unit 62 adds a predetermined value to the weight corresponding to data in which the difference from the target image is larger than the threshold in the current generation weight image, and the data in which the difference from the target image is equal to or less than the threshold. A predetermined value may be subtracted from the weight corresponding to. For example, every time the weight image is updated by the weight update unit 62, the weight storage unit 60 may store the weight image before being updated separately from the updated weight image.

算出部44は、フィルタ格納部34に格納された複数の画像フィルタ20のそれぞれにより指定入力画像を変換した複数の出力画像に対して、目標画像との適合度をそれぞれ算出する。ここで、適合度は、学習用入力画像を目標画像へと変換するのに適しているかどうかを表す指標値であり、値が高いほど学習用入力画像を目標画像へと変換するのに適していることを表す。算出部44は、一例として、それぞれの現世代の画像フィルタ20について、学習用入力画像から目標画像への変換に対する適合度を、重み画像により重み付けをして算出する。   The calculation unit 44 calculates the degree of matching with the target image for each of the plurality of output images obtained by converting the designated input image by each of the plurality of image filters 20 stored in the filter storage unit 34. Here, the fitness is an index value indicating whether or not the learning input image is suitable for conversion to the target image, and the higher the value, the more suitable the conversion of the learning input image to the target image. Represents that As an example, the calculation unit 44 calculates the fitness for conversion from the learning input image to the target image for each current-generation image filter 20 by weighting the weighted image.

選択部46は、複数の出力画像のそれぞれの適合度に基づいて、フィルタ格納部34に格納された複数の画像フィルタ20の中から少なくとも1つの適応画像フィルタ20を選択する。ここで、選択部46は、一例として、適合度がより高い出力画像を変換した画像フィルタ20を優先的に選択する。より具体的には、選択部46は、生物の自然淘汰をモデル化した手法により、残存させる少なくとも1つの画像フィルタ20を選択する。また、選択部46は、一例として、フィルタ格納部34に格納された複数の画像フィルタ20のそれぞれの適合度に基づき、エリート選択およびルーレット選択といった遺伝的計算により少なくとも1つの画像フィルタ20を選択する。また、選択部46は、画像フィルタ群が有する複数の画像フィルタ20の中から、適合度に基づいて、適応画像フィルタ20を選択してもよい。   The selection unit 46 selects at least one adaptive image filter 20 from among the plurality of image filters 20 stored in the filter storage unit 34 based on the respective fitness levels of the plurality of output images. Here, as an example, the selection unit 46 preferentially selects the image filter 20 obtained by converting the output image having a higher fitness. More specifically, the selection unit 46 selects at least one image filter 20 to remain by using a technique that models natural selection of living things. Further, as an example, the selection unit 46 selects at least one image filter 20 by genetic calculation such as elite selection and roulette selection based on the fitness of each of the plurality of image filters 20 stored in the filter storage unit 34. . Further, the selection unit 46 may select the adaptive image filter 20 from the plurality of image filters 20 included in the image filter group based on the degree of fitness.

更新部48は、フィルタ格納部34に格納された複数の画像フィルタ20のうち、選択部46により選択された画像フィルタ20を残存させ、選択部46により選択されなかった画像フィルタ20を淘汰する。更新部48は、一例として、画像フィルタ20をフィルタ格納部34から削除することにより淘汰する。   The update unit 48 leaves the image filter 20 selected by the selection unit 46 among the plurality of image filters 20 stored in the filter storage unit 34, and tricks the image filter 20 not selected by the selection unit 46. For example, the update unit 48 hesitates by deleting the image filter 20 from the filter storage unit 34.

生成部50は、学習用入力画像を処理して処理結果を出力画像として出力する複数の画像フィルタ20を生成する。生成部50は、更新部48による更新処理において残存した少なくとも1つの画像フィルタ20を、フィルタ格納部34から取得する。続いて、生成部50は、一例として、取得した少なくとも1つの画像フィルタ20に対して交叉および突然変異等の遺伝的な操作をして、新たな画像フィルタ20を生成する。そして、生成部50は、一例として、生成した新たな画像フィルタ20をフィルタ格納部34に書き込む。これにより、フィルタ格納部34は、更新処理において残存した少なくとも1つの画像フィルタ20および生成部50が生成した新たな画像フィルタ20を、格納することができる。   The generation unit 50 generates a plurality of image filters 20 that process the learning input image and output the processing results as output images. The generation unit 50 acquires from the filter storage unit 34 at least one image filter 20 remaining in the update process by the update unit 48. Subsequently, as an example, the generation unit 50 performs a genetic operation such as crossover and mutation on the acquired at least one image filter 20 to generate a new image filter 20. Then, as an example, the generation unit 50 writes the generated new image filter 20 in the filter storage unit 34. Thereby, the filter storage unit 34 can store at least one image filter 20 remaining in the update process and a new image filter 20 generated by the generation unit 50.

このような生成装置10は、フィルタ処理部38による変換処理、算出部44による適合度の算出処理、選択部46による画像フィルタ20の選択処理、更新部48による更新処理および生成部50による新たな画像フィルタ20の生成処理を、複数回(例えば複数世代)繰り返す。これにより、生成装置10は、学習用入力画像から指定した範囲をより鮮明とする目標画像へ変換するのに適した画像フィルタ20を、進化的計算を用いて生成することができる。   Such a generation apparatus 10 includes a conversion process by the filter processing unit 38, a calculation process of the fitness by the calculation unit 44, a selection process of the image filter 20 by the selection unit 46, an update process by the update unit 48, and a new process by the generation unit 50. The generation process of the image filter 20 is repeated a plurality of times (for example, a plurality of generations). Thus, the generation device 10 can generate the image filter 20 suitable for converting the designated range from the learning input image into a clear target image using evolutionary calculation.

図2は、本実施形態に係るフィルタ部品22を直列に組み合わせた画像フィルタ20の一例を示す。図3は、本実施形態に係るフィルタ部品22を木構造に組み合わせた画像フィルタ20の一例を示す。   FIG. 2 shows an example of the image filter 20 in which the filter components 22 according to the present embodiment are combined in series. FIG. 3 shows an example of the image filter 20 in which the filter component 22 according to the present embodiment is combined in a tree structure.

画像フィルタ20は、図2に示されるような、複数のフィルタ部品22を直列に組み合わせた構成であってよい。また、画像フィルタ20は、図3に示されるような、複数のフィルタ部品22を木構造に組み合わせた構成であってもよい。また、画像フィルタ20は、1つの入力端に対して、複数の出力端を有する構成であってもよい。また、画像フィルタ20は、複数の入力端および複数の出力端を有する構成であってもよい。   The image filter 20 may have a configuration in which a plurality of filter components 22 are combined in series as shown in FIG. The image filter 20 may have a configuration in which a plurality of filter components 22 are combined in a tree structure as shown in FIG. Further, the image filter 20 may have a plurality of output ends with respect to one input end. The image filter 20 may have a configuration having a plurality of input ends and a plurality of output ends.

画像フィルタ20は、受け取った学習用入力画像に対してフィルタ演算処理を施して、出力画像を出力する。画像フィルタ20は、一例として、画像データに対して演算を施すプログラムとする。また、画像フィルタ20は、画像データに対して施すべき演算内容を表わす演算式であってもよい。   The image filter 20 performs a filter calculation process on the received learning input image and outputs an output image. As an example, the image filter 20 is a program that performs an operation on image data. In addition, the image filter 20 may be an arithmetic expression that represents the content of calculation to be performed on the image data.

なお、フィルタ部品22が木構造に組み合わされた構成の画像フィルタ20は、木構造の末端(最下位)のフィルタ部品22のそれぞれに、同一の学習用入力画像が与えられ、木構造の最上位のフィルタ部品22から出力画像を出力する。これに代えて、このような画像フィルタ20は、複数の末端のフィルタ部品22のそれぞれに互いに異なる学習用入力画像が与えられてもよい。   Note that the image filter 20 having the structure in which the filter parts 22 are combined in a tree structure is given the same learning input image to each of the end (lowest) filter parts 22 of the tree structure, and the highest level of the tree structure. The output image is output from the filter component 22. Instead of this, such an image filter 20 may be provided with different learning input images for each of the plurality of terminal filter components 22.

本実施形態において、生成部50は、入力画像を出力画像にそれぞれ変換する複数のフィルタ部品22を含む少なくとも1つの画像フィルタ20を有する画像フィルタ群から、遺伝的処理により新たな画像フィルタ20を生成して画像フィルタ群に加えて複数の画像フィルタ20を生成する。ここで、画像フィルタ20は、画像データに対して演算を施すプログラムであるフィルタ部品22を組み合わせた構成であってもよい。また、画像フィルタ20は、画像データに対して施すべき演算内容を表わす演算式であるフィルタ部品22を組み合わせた構成であってもよい。   In the present embodiment, the generation unit 50 generates a new image filter 20 by genetic processing from an image filter group having at least one image filter 20 including a plurality of filter components 22 that respectively convert an input image into an output image. In addition to the image filter group, a plurality of image filters 20 are generated. Here, the image filter 20 may have a configuration in which a filter component 22 that is a program for performing an operation on image data is combined. Further, the image filter 20 may have a configuration in which a filter component 22 that is an arithmetic expression representing the content of calculation to be performed on image data is combined.

複数のフィルタ部品22のそれぞれは、前段に配置されたフィルタ部品22から出力された画像データを受け取り、受け取った画像データに演算を施して後段に配置されたフィルタ部品22に与える。複数のフィルタ部品22のそれぞれは、プログラムモジュールおよび演算式等であってよく、受け取った画像データに対して2値化演算、ヒストグラム演算、平滑化演算、エッジ検出演算、モルフォロジ演算、及び/または周波数空間での演算(例えば、ローパスフィルタリング演算およびハイパスフィルタリング演算)等の単項演算を施してもよい。   Each of the plurality of filter components 22 receives the image data output from the filter component 22 arranged in the previous stage, performs an operation on the received image data, and gives it to the filter component 22 arranged in the subsequent stage. Each of the plurality of filter components 22 may be a program module, an arithmetic expression, or the like, and performs binarization operation, histogram operation, smoothing operation, edge detection operation, morphology operation, and / or frequency on received image data. Unary operations such as space operations (for example, low-pass filtering operations and high-pass filtering operations) may be performed.

また、複数のフィルタ部品22のそれぞれは、受け取った画像データに対して平均演算、差分演算及び/またはファジー演算(例えば論理和演算、論理積演算、代数和、代数積、限界和、限界積、激烈和および激烈積等)等の二項演算を施してもよい。   In addition, each of the plurality of filter components 22 performs an average operation, a difference operation, and / or a fuzzy operation (for example, logical sum operation, logical product operation, algebraic sum, algebraic product, limit sum, limit product, Binomial operations such as intense sum and intense product) may be performed.

図4は、本実施形態に係るフィルタ部品22を直列に組み合わせた画像フィルタ20に対して行われる遺伝的な操作の一例を示す。図5は、本実施形態に係るフィルタ部品22を木構造に組み合わせた画像フィルタ20に対して行われる交叉操作の一例を示す。図6は、本実施形態に係るフィルタ部品22を木構造に組み合わせた画像フィルタ20に対して行われる突然変異操作の一例を示す。   FIG. 4 shows an example of a genetic operation performed on the image filter 20 in which the filter components 22 according to this embodiment are combined in series. FIG. 5 shows an example of a crossover operation performed on the image filter 20 in which the filter component 22 according to this embodiment is combined in a tree structure. FIG. 6 shows an example of a mutation operation performed on the image filter 20 in which the filter component 22 according to this embodiment is combined in a tree structure.

生成部50は、一例として、2個またはそれ以上の画像フィルタ20に対して、遺伝的な操作の一例である交叉操作を行って新たな2個またはそれ以上の画像フィルタ20を生成する。生成部50は、一例として、図4および図5に示されるように、既に生成された少なくとも1つの一の画像フィルタ20Aの一部のフィルタ部品群24Aを、既に生成された他の画像フィルタ20Bの少なくとも一部のフィルタ部品群24Bと置換して、新たな画像フィルタ20Eおよび20Fを生成する。なお、フィルタ部品群24は、1または複数のフィルタ部品22を組み合わせた部材であってもよい。   For example, the generation unit 50 performs a crossover operation, which is an example of a genetic operation, on two or more image filters 20 to generate two or more new image filters 20. As an example, as illustrated in FIG. 4 and FIG. 5, the generation unit 50 converts a part of the filter component group 24A of at least one image filter 20A that has already been generated into another image filter 20B that has already been generated. Are replaced with at least a part of the filter component group 24B to generate new image filters 20E and 20F. The filter component group 24 may be a member in which one or a plurality of filter components 22 are combined.

また、生成部50は、一例として、一の画像フィルタ20に対して、遺伝的な操作の一例である突然変異操作を行って新たな一の画像フィルタ20を生成する。生成部50は、一例として、図4および図6に示されるように、既に生成された一の画像フィルタ20Cの一部のフィルタ部品群24Cを、ランダムに選択された他のフィルタ部品群24Gに置換して、新たな画像フィルタ20Gを生成する。   Further, for example, the generation unit 50 performs a mutation operation, which is an example of a genetic operation, on one image filter 20 to generate a new one image filter 20. As an example, as illustrated in FIG. 4 and FIG. 6, the generation unit 50 converts a part of the filter component group 24 </ b> C of one image filter 20 </ b> C that has already been generated into another filter component group 24 </ b> G selected at random. A new image filter 20G is generated by replacement.

また、生成部50は、現世代の画像フィルタ20をそのまま次世代の画像フィルタ20として残してもよい。生成部50は、一例として、図4に示されるように、画像フィルタ20Dのフィルタ部品22の構成をそのまま含む次世代の画像フィルタ20Hを生成する。   The generation unit 50 may leave the current generation image filter 20 as the next generation image filter 20 as it is. For example, as illustrated in FIG. 4, the generation unit 50 generates a next-generation image filter 20H that includes the configuration of the filter component 22 of the image filter 20D as it is.

選択部46は、一例として、複数の出力画像のそれぞれの適合度がより高い少なくとも1つの画像フィルタ20を優先的に選択する。続いて、更新部48は、選択された画像フィルタ20を次世代へ生存させるべく当該画像フィルタ20をフィルタ格納部34内に保存し、選択されなかった画像フィルタ20を死滅させるべくフィルタ格納部34内から削除する。   For example, the selection unit 46 preferentially selects at least one image filter 20 having a higher degree of matching of each of the plurality of output images. Subsequently, the update unit 48 stores the image filter 20 in the filter storage unit 34 in order to make the selected image filter 20 survive to the next generation, and the filter storage unit 34 in order to kill the image filter 20 that has not been selected. Delete from within.

図7は、本実施形態に係る画像フィルタ20の適合度を表わすパラメータの一例である類似度の算出方法の一例を示す。本実施形態において、算出部44は、当該画像フィルタ20により学習用入力画像を変換させることにより生成された出力画像と、目標画像とがどれだけ類似しているかを表わす類似度を算出する。この類似度は、画像フィルタ20の適合度を表わすパラメータの一例であって、値がより大きいほど、当該出力画像を生成した画像フィルタ20がより適切であることを示す評価値または指標として用いられる。   FIG. 7 shows an example of a method for calculating similarity, which is an example of a parameter representing the degree of matching of the image filter 20 according to the present embodiment. In the present embodiment, the calculation unit 44 calculates a similarity indicating how similar the output image generated by converting the learning input image by the image filter 20 and the target image are. This similarity is an example of a parameter representing the degree of matching of the image filter 20, and is used as an evaluation value or index indicating that the larger the value is, the more appropriate the image filter 20 that generated the output image is. .

算出部44は、出力画像の各領域の値と目標画像の対応する各領域の値とを比較した比較値を算出し、領域毎の比較値に対して重み画像により指定される重みを乗じる。そして、算出部44は、重みが乗じられた領域毎の比較値を全領域について平均または合計した値を算出し、算出した値を当該出力画像の類似度として出力する。   The calculation unit 44 calculates a comparison value by comparing the value of each region of the output image with the value of each region corresponding to the target image, and multiplies the comparison value for each region by the weight specified by the weight image. Then, the calculation unit 44 calculates a value obtained by averaging or summing the comparison values for each region multiplied by the weight for all regions, and outputs the calculated value as the similarity of the output image.

算出部44は、一例として、出力画像のピクセル毎の輝度値と、目標画像の対応するピクセルの輝度値との差分または比率を算出する。そして、算出部44は、一例として、算出したピクセル毎の差分または比率のそれぞれに、重み画像により指定される対応する重みを乗じ、重みが乗じられたピクセル毎の差分または比率を合計または平均して、類似度を算出する。なお、この場合において、出力画像、目標画像および重み画像のサイズは、同一とされる。   For example, the calculation unit 44 calculates the difference or ratio between the luminance value for each pixel of the output image and the luminance value of the corresponding pixel of the target image. Then, as an example, the calculation unit 44 multiplies each calculated difference or ratio for each pixel by the corresponding weight specified by the weight image, and sums or averages the difference or ratio for each pixel multiplied by the weight. Thus, the similarity is calculated. In this case, the sizes of the output image, the target image, and the weight image are the same.

Figure 2011014051
Figure 2011014051

式(1)において、fは、類似度を表わす。Ymaxは、輝度の最大値を表わす。また、xは、画像の水平方向のピクセル位置を示す変数である。yは、画像の垂直方向のピクセル位置を示す変数である。xmaxは、画像の水平方向のピクセル数を示す定数である。ymaxは、画像の垂直方向のピクセル数を示す定数である。 In the formula (1), f represents the similarity. Y max represents the maximum luminance value. X is a variable indicating the pixel position in the horizontal direction of the image. y is a variable indicating the pixel position in the vertical direction of the image. xmax is a constant indicating the number of pixels in the horizontal direction of the image. ymax is a constant indicating the number of pixels in the vertical direction of the image.

weight(x,y)は、重み画像における(x,y)位置のピクセルの輝度値を表わす。Itarget(x,y)は、目標画像における(x,y)位置のピクセルの輝度値を表わす。Ifilter(x,y)は、出力画像における(x,y)位置のピクセルの輝度値を表わす。 I weight (x, y) represents the luminance value of the pixel at the (x, y) position in the weighted image. I target (x, y) represents the luminance value of the pixel at the (x, y) position in the target image. I filter (x, y) represents the luminance value of the pixel at the (x, y) position in the output image.

すなわち、式(1)の中カッコ内の分子部分に示されるように、算出部44は、目標画像の輝度値から出力画像の輝度値の差の絶対値に対して、重み画像の輝度値を乗じた重み付き差分値を、画面内の全てのピクセル毎に算出し、算出した重み付き差分値を全ピクセルについて合計した合計重み付け差分値を算出する。さらに、式(1)の中カッコ内の分母部分に示されるように、算出部44は、重み画像の輝度値を全ピクセルについて合計した合計重みを算出する。   That is, as indicated by the numerator part in the curly braces of Expression (1), the calculation unit 44 calculates the luminance value of the weighted image with respect to the absolute value of the difference between the luminance value of the target image and the luminance value of the output image. The multiplied weighted difference value is calculated for every pixel in the screen, and a total weighted difference value is calculated by adding the calculated weighted difference values for all pixels. Further, as indicated by the denominator part in the curly braces of Expression (1), the calculation unit 44 calculates a total weight obtained by adding the luminance values of the weighted image for all pixels.

さらに、算出部44は、合計重み付け差分値を合計重みで除算した除算値(式(1)の中カッコ内)に、輝度値の最大値の逆数(1/Ymax)を乗じて正規化値(式(1)の2番目の項)を算出する。そして、算出部44は、1から、正規化値を減じた値を、類似度fとして算出する。このようにして、算出部44は、出力画像と目標画像との差分を領域毎に重み付けして類似度を算出することができる。   Further, the calculation unit 44 multiplies the division value (in the curly braces of the equation (1)) obtained by dividing the total weighted difference value by the total weight by the reciprocal (1 / Ymax) of the maximum value of the luminance value (normalized value). The second term of the formula (1) is calculated. Then, the calculation unit 44 calculates a value obtained by subtracting the normalized value from 1 as the similarity f. In this way, the calculation unit 44 can calculate the similarity by weighting the difference between the output image and the target image for each region.

図8は、本実施形態に係る生成装置10の処理フローの一例を示す。まず、生成装置10は、特定部54によって指定領域を特定して、受付部58によって受け付けた指定領域に基づいた目標画像を生成する(S18)。また、受付部58は、入力画像表示部56においてユーザが指定した座標情報等を、指定領域として受け付けてもよい。   FIG. 8 shows an example of the processing flow of the generation apparatus 10 according to this embodiment. First, the generating apparatus 10 specifies a specified area by the specifying unit 54 and generates a target image based on the specified area received by the receiving unit 58 (S18). The accepting unit 58 may accept coordinate information or the like designated by the user in the input image display unit 56 as a designated area.

そして、生成装置10は、ステップS12〜ステップS15の各処理を、複数回(例えば複数世代)繰返して実行する(S11、S16)。なお、生成装置10は、与えられた学習用入力データを目標データに変換する画像フィルタ20を生成するための初期の画像フィルタ20として、ランダムに生成したまたは既に生成した画像フィルタ20を、予めフィルタ格納部34に格納しておく。   And the production | generation apparatus 10 performs each process of step S12-step S15 repeatedly (for example, multiple generations) repeatedly (S11, S16). The generation device 10 preliminarily filters the randomly generated or already generated image filter 20 as an initial image filter 20 for generating the image filter 20 that converts the given learning input data into target data. Stored in the storage unit 34.

各世代の処理において、生成部50は、前世代から残存した複数の画像フィルタ20に対して、交叉操作および突然変異操作等の遺伝的な操作を行って、少なくとも一部のフィルタ部品22を他のフィルタ部品22に置換した新たな複数の画像フィルタ20を生成する(S12)。なお、生成部50は、一例として、学習用入力画像を出力画像に変換する画像フィルタ20を生成するための初期の画像フィルタ20として、ランダムに生成したまたは既に生成した画像フィルタ20を、予めフィルタ格納部34に格納しておく。   In each generation process, the generation unit 50 performs genetic operations such as a crossover operation and a mutation operation on the plurality of image filters 20 remaining from the previous generation, so that at least some of the filter components 22 are replaced. A plurality of new image filters 20 replaced with the filter component 22 are generated (S12). As an example, the generation unit 50 preliminarily filters the randomly generated or already generated image filter 20 as the initial image filter 20 for generating the image filter 20 that converts the learning input image into the output image. Stored in the storage unit 34.

続いて、フィルタ処理部38は、前世代から残存した複数の画像フィルタ20およびステップS12で新たに生成された複数の画像フィルタ20のそれぞれにより、学習用入力画像をフィルタ処理して出力画像を生成する(S13)。これにより、フィルタ処理部38は、複数の画像フィルタ20に対応した複数の出力画像を生成することができる。   Subsequently, the filter processing unit 38 generates an output image by filtering the learning input image with each of the plurality of image filters 20 remaining from the previous generation and the plurality of image filters 20 newly generated in step S12. (S13). Thereby, the filter processing unit 38 can generate a plurality of output images corresponding to the plurality of image filters 20.

続いて、算出部44は、学習用入力画像を画像フィルタ20により変換した出力画像および目標画像を重み生成部43が生成した重み画像により重み付けして比較する。ここで、算出部44は、複数の出力画像のそれぞれと目標画像との類似度または近似度を適合度として算出する。なお、算出部44は、類似度または近似度に加え、フィルタ部品22の数の少なさ、処理負荷の低さ、および並列度の大きさ等に応じて評価を高めた適合度を算出してもよい。   Subsequently, the calculation unit 44 weights and compares the output image obtained by converting the learning input image by the image filter 20 and the target image with the weight image generated by the weight generation unit 43. Here, the calculation unit 44 calculates the degree of similarity or the degree of similarity between each of the plurality of output images and the target image. Note that the calculation unit 44 calculates the degree of fitness with higher evaluation in accordance with the number of filter components 22, the low processing load, the degree of parallelism, and the like in addition to the similarity or approximation. Also good.

そして、選択部46は、一例として、現世代の画像フィルタ群に含まれる複数の画像フィルタ20のうち、適合度がより高い1または複数の画像フィルタ20を選択する(S14)。また、選択部46は、一例として、適合度がより高い画像フィルタ20がより高い確率で選択されるように設定がされている条件下で、ランダムに画像フィルタ20を選択してもよい。なお、選択部46は、最後の世代においては、適合度の最も高い1個の画像フィルタ20を選択してよい。   Then, as an example, the selection unit 46 selects one or a plurality of image filters 20 having a higher matching degree from the plurality of image filters 20 included in the current generation image filter group (S14). For example, the selection unit 46 may randomly select the image filter 20 under a condition that the image filter 20 having a higher degree of matching is selected with a higher probability. Note that the selection unit 46 may select one image filter 20 having the highest fitness in the last generation.

また、選択部46は、複数の画像フィルタ20のうち適合度が基準値以上の2以上の画像フィルタ20を選択してもよい。この場合、選択部46は、一例として、適合度が基準値以上の画像フィルタ20のうち最上位から2以上の画像フィルタ20を優先的に選択する。これに代えて、選択部46は、基準値以上の画像フィルタ20のうちランダムに2以上の画像フィルタ20を選択してもよい。また、生成装置10は、学習用入力画像を2以上の画像フィルタ20のそれぞれにより変換した2以上の出力画像のそれぞれを入力画像表示部56等を介して表示して、出力画像からユーザにより、選択部46が選択した2以上の画像フィルタ20の中から適応画像フィルタ20を選択させてもよい。   In addition, the selection unit 46 may select two or more image filters 20 having a matching degree equal to or higher than a reference value from among the plurality of image filters 20. In this case, as an example, the selection unit 46 preferentially selects two or more image filters 20 from the top of the image filters 20 having a fitness level equal to or higher than a reference value. Instead of this, the selection unit 46 may randomly select two or more image filters 20 out of the image filters 20 having a reference value or more. Further, the generation device 10 displays each of the two or more output images obtained by converting the learning input image by each of the two or more image filters 20 via the input image display unit 56 or the like. The adaptive image filter 20 may be selected from the two or more image filters 20 selected by the selection unit 46.

さらに、更新部48は、ステップS14において選択された1または複数の画像フィルタ20を次世代に残存させ、ステップS14において選択されなかった出力画像を生成した画像フィルタ20を、フィルタ格納部34内における画像フィルタ群から削除することにより淘汰する(S15)。また、生成部50は、新たに生成した複数の画像フィルタ20をフィルタ格納部34に戻して、既に生成された複数の画像フィルタ20に加えて格納させてもよい。   Further, the update unit 48 causes the one or more image filters 20 selected in step S14 to remain in the next generation, and the image filter 20 that has generated the output image not selected in step S14 is stored in the filter storage unit 34. It is hesitant by deleting from the image filter group (S15). In addition, the generation unit 50 may return the newly generated image filters 20 to the filter storage unit 34 and store them in addition to the already generated image filters 20.

生成装置10は、以上の処理を複数の世代(例えば数十世代または数百世代以上)繰り返して実行して、最後の世代(例えば第N世代、Nは2以上の自然数)まで処理を実行した後に、当該フローを抜ける(S16)。このようにして、生成装置10は、学習用入力画像を目標画像へ変換するのに適した画像フィルタ20を、進化的計算を用いて生成することができる。   The generation apparatus 10 repeatedly executes the above processing for a plurality of generations (for example, tens of generations or hundreds of generations or more), and executes the processing up to the last generation (for example, the Nth generation, where N is a natural number of 2 or more). Later, the flow is exited (S16). In this way, the generation apparatus 10 can generate the image filter 20 suitable for converting the learning input image into the target image using evolutionary calculation.

図9は、図8のステップS14において画像フィルタ20を選択するまでの処理フローの一例を示す。生成装置10は、図8に示されるステップS14において、以下の処理を実行する。   FIG. 9 shows an example of a processing flow until the image filter 20 is selected in step S14 of FIG. The generation device 10 executes the following processing in step S14 shown in FIG.

まず、重み生成部43は、世代毎に適切な重み画像を発生させるべく、重み画像を自動更新する(ステップS21)。なお、重み生成部43による重み画像の更新処理については、後述の図10において詳細を説明する。   First, the weight generation unit 43 automatically updates the weight image so as to generate an appropriate weight image for each generation (step S21). Details of the weight image update processing by the weight generation unit 43 will be described later with reference to FIG.

続いて、算出部44は、フィルタ格納部34に格納された複数の画像フィルタ20のそれぞれにより生成された複数の出力画像のそれぞれ毎に、以下のステップS23の処理を実行する(S22、S24)。ステップS23において、算出部44は、当該出力画像と目標画像とを重み画像に応じた重み付けをした比較をして、当該出力画像と目標画像との類似度または近似度を適合度として算出する。算出部44は、複数の出力画像のすべてについて処理を終えると、処理をステップS25に進める(S24)。   Subsequently, the calculation unit 44 performs the following step S23 for each of the plurality of output images generated by each of the plurality of image filters 20 stored in the filter storage unit 34 (S22, S24). . In step S <b> 23, the calculation unit 44 compares the output image with the target image by weighting according to the weighted image, and calculates the degree of similarity or approximation between the output image and the target image as the fitness. When the calculation unit 44 finishes the process for all of the plurality of output images, the process proceeds to step S25 (S24).

続いて、選択部46は、複数の出力画像のそれぞれの適合度に基づき、複数の出力画像の中から目標画像により近い出力画像を選択する(S25)。選択部46は、一例として、複数の画像フィルタ20により変換された複数の出力画像のうち、適合度がより高い出力画像を優先的に選択する。選択部46は、一例として、適合度が基準適合度より高い出力画像を選択する。また、選択部46は、適合度が上位から予め定められた範囲の選択対象画像を選択してもよい。また、選択部46は、適合度がより高い出力画像がより高い確率で選択されるように設定がされている条件下で、ランダムに出力画像を選択してもよい。   Subsequently, the selection unit 46 selects an output image that is closer to the target image from the plurality of output images based on the degree of matching of each of the plurality of output images (S25). As an example, the selection unit 46 preferentially selects an output image having a higher degree of matching among a plurality of output images converted by the plurality of image filters 20. For example, the selection unit 46 selects an output image having a fitness level higher than the standard fitness level. Further, the selection unit 46 may select a selection target image in a range in which the fitness is predetermined from the top. Further, the selection unit 46 may select the output image at random under the condition that the output image having a higher fitness is selected with a higher probability.

そして、選択部46は、選択された出力画像を生成する画像フィルタ20を、学習用入力画像を目標画像により類似する画像に変換する画像フィルタ20として選択する(S26)。このステップS26の処理を終えると、生成装置10は、当該フローを終了する。このように本実施形態においては、学習用入力画像における一部の指定領域を含む指定入力画像をもとに生成された複数の画像フィルタ20のうち、選択部46によって選択された画像フィルタ20を学習用入力画像に適用させることができる。したがって、指定入力画像に適用済みで、かつ目標画像に対する適合度の高い出力画像に変換する画像フィルタ20を学習用入力画像に適用することによって、演算コスト(例、効率化や時間短縮、など)を低減することができる。   Then, the selecting unit 46 selects the image filter 20 that generates the selected output image as the image filter 20 that converts the learning input image into an image that is more similar to the target image (S26). When the process of step S26 is completed, the generation device 10 ends the flow. As described above, in the present embodiment, the image filter 20 selected by the selection unit 46 among the plurality of image filters 20 generated based on the designated input image including a part of the designated area in the learning input image is selected. It can be applied to an input image for learning. Therefore, by applying to the learning input image the image filter 20 that has been applied to the designated input image and converted to an output image having a high degree of fitness with respect to the target image, the computation cost (eg, efficiency improvement, time reduction, etc.) Can be reduced.

図10は、図9のステップS21における重み生成部43による重み画像の更新処理フローの一例を示す。重み生成部43は、図9に示されたステップS21における重み画像の更新処理において、以下のステップS31〜S33の処理を実行する。   FIG. 10 shows an example of a weight image update processing flow by the weight generation unit 43 in step S21 of FIG. The weight generation unit 43 performs the following steps S31 to S33 in the weight image update processing in step S21 shown in FIG.

まず、重み更新部62は、前世代から残存した複数の画像フィルタ20および図8のステップS12において新たに生成された複数の画像フィルタ20のそれぞれにより生成された複数の出力画像のうち、少なくとも1つの出力画像を、重み画像更新用の出力画像として抽出する(S31)。重み更新部62は、一例として、複数の画像フィルタ20のうち、前世代において算出された適合度が最も高かった画像フィルタ20により生成された出力画像を抽出する。また、重み更新部62は、前世代において算出された適合度が所定値以上の画像フィルタ20により生成された1または複数の出力画像を抽出してもよい。また、重み更新部62は、一例として、複数の画像フィルタ20のうち任意の一個の画像フィルタ20により生成された出力画像を抽出する。   First, the weight update unit 62 includes at least one of a plurality of output images generated by each of the plurality of image filters 20 remaining from the previous generation and the plurality of image filters 20 newly generated in step S12 of FIG. Two output images are extracted as output images for updating the weight image (S31). For example, the weight updating unit 62 extracts an output image generated by the image filter 20 having the highest degree of matching calculated in the previous generation among the plurality of image filters 20. Further, the weight update unit 62 may extract one or a plurality of output images generated by the image filter 20 having a fitness calculated in the previous generation equal to or greater than a predetermined value. For example, the weight update unit 62 extracts an output image generated by any one of the plurality of image filters 20.

続いて、重み更新部62は、ステップS31において選択された少なくとも1つの出力画像と目標画像との領域毎の差分を算出する(S32)。重み更新部62は、一例として、ステップS31において選択された少なくとも1つの出力画像と、目標画像とのピクセル毎の差分を算出する。なお、ステップS31において複数の出力画像を選択した場合には、重み更新部62は、一例として、選択された複数の出力画像のそれぞれと一の目標画像との複数個の差分のうち、最も大きい1個の差分またはこれら複数個の差分の平均値を、領域毎(例えばピクセル毎)に選択する。   Subsequently, the weight updating unit 62 calculates a difference for each region between at least one output image selected in step S31 and the target image (S32). As an example, the weight update unit 62 calculates a difference for each pixel between the target image and at least one output image selected in step S31. When a plurality of output images are selected in step S31, the weight updating unit 62, for example, is the largest of a plurality of differences between each of the selected plurality of output images and one target image. One difference or an average value of the plurality of differences is selected for each region (for example, for each pixel).

続いて、重み更新部62は、重み記憶部60に記憶された重み画像、すなわち、前世代の処理において用いられた重み画像を、ステップS32において算出された領域毎の差分に基づき変更する(S33)。より具体的には、重み更新部62は、差分がより大きい領域の重みを当該差分がより小さい領域の重みより大きくするべく、重み記憶部60に記憶された重み画像を更新する。なお、重み記憶部60は、一例として、初期の世代の重み画像として、領域毎の重みが同一として生成した、または既に生成した重み画像を、予め記憶しておく。   Subsequently, the weight update unit 62 changes the weight image stored in the weight storage unit 60, that is, the weight image used in the previous generation process, based on the difference for each region calculated in step S32 (S33). ). More specifically, the weight update unit 62 updates the weight image stored in the weight storage unit 60 so that the weight of the region with the larger difference is larger than the weight of the region with the smaller difference. For example, the weight storage unit 60 stores in advance, as an initial generation weight image, a weight image generated with the same weight for each region or already generated.

以上において、重み生成部43は、学習用入力画像を、学習用目標画像に、より類似する画像に変換する重み画像を生成して、更新することができる。   In the above, the weight generation unit 43 can generate and update a weight image for converting the learning input image into an image more similar to the learning target image.

図11Aは、本実施形態に係るユーザが指定する場合の指定領域についての一例を示す。図11Bは、本実施形態に係る形状による自動指定の場合の指定領域についての一例を示す。図11Cは、本実施形態に係る輝度による自動指定の場合の指定領域についての一例を示す。図11Dは、本実施形態に係る大きさによる自動指定の場合の指定領域についての一例を示す。図11Eは、本実施形態に係る数量による自動指定の場合の指定領域についての一例を示す。   FIG. 11A shows an example of the designated area when designated by the user according to the present embodiment. FIG. 11B shows an example of the designated area in the case of automatic designation by the shape according to the present embodiment. FIG. 11C shows an example of a designated area in the case of automatic designation by luminance according to the present embodiment. FIG. 11D shows an example of a designated area in the case of automatic designation by size according to the present embodiment. FIG. 11E shows an example of a designated area in the case of automatic designation by quantity according to the present embodiment.

受付部58は、手動領域指定画面1100のとおり、入力画像表示部56により表示された学習用入力画像においてユーザにより指定領域を少なくとも1つ指定させる。この場合、受付部58は、予め設定されている範囲の枠、またはマウスによる範囲入力等により範囲を指定する。   The accepting unit 58 causes the user to designate at least one designated region in the learning input image displayed by the input image display unit 56 as in the manual region designation screen 1100. In this case, the accepting unit 58 designates a range by a frame of a preset range or a range input with a mouse.

自動領域指定(形状)画面1110は、生成装置10に予め設定された形状を検索して、範囲を自動的に指定する場合の一例である。また、受付部58は、2以上の形状を同時に検索して、指定範囲を抽出してもよい。自動領域指定(輝度値)画面1120は、出力画像に対し、生成装置10に予め設定された輝度値から範囲を自動的に指定する場合の一例である。この場合、受付部58は、出力画像内において、設定された範囲の輝度値に該当する対象物の全てを自動指定の対象とする。また、受付部58は、画像領域全体の輝度値の平均値となる領域を範囲指定してもよい。   The automatic area designation (shape) screen 1110 is an example of a case where a shape preset in the generation apparatus 10 is searched and a range is automatically designated. The accepting unit 58 may extract two or more shapes at the same time and extract a designated range. The automatic area designation (brightness value) screen 1120 is an example of a case in which a range is automatically designated from the brightness value preset in the generation device 10 for the output image. In this case, the reception unit 58 sets all the objects corresponding to the luminance values in the set range as targets for automatic specification in the output image. The accepting unit 58 may specify a range of an area that is an average value of luminance values of the entire image area.

自動領域指定(大きさ)画面1130は、生成装置10に予め設定された大きさの図形を自動的に範囲指定する場合の一例である。ここで、受付部58は、一例として、指定した大きさ(例えば面積や画素)以上の図形全てを自動指定の対象とする。これに代えて、受付部58は、ユーザによって指定した範囲の大きさ(例えば面積や画素)の少なくとも1つの図形を指定の対象としてもよい。自動領域指定(数量)画面1140は、出力画像内の対象物が指定数量存在した場合の自動指定の一例である。ここで、受付部58は、出力画像内において同一の図形が一定数量を満たした場合に領域を指定するので、複数の領域を指定する。   The automatic area designation (size) screen 1130 is an example of automatically designating a range of a figure having a size set in advance in the generation apparatus 10. Here, as an example, the accepting unit 58 automatically designates all figures having a specified size (for example, area or pixel) or more. Instead of this, the receiving unit 58 may designate at least one figure having a size (for example, area or pixel) in a range designated by the user as a designation target. The automatic area designation (quantity) screen 1140 is an example of automatic designation when there is a designated quantity of objects in the output image. Here, the accepting unit 58 designates a plurality of regions because the region is designated when the same figure satisfies a certain number in the output image.

また、受付部58は、以上の複数の特徴を組み合わせて範囲を指定してもよい。これによって、生成装置10は、指定した領域において複数の特徴をより抽出するのに適した画像フィルタ20を効率よく生成することができる。   The accepting unit 58 may specify the range by combining the plurality of features described above. Thereby, the generation device 10 can efficiently generate the image filter 20 suitable for extracting a plurality of features in the designated region.

図12は、指定領域内における画像から抽出する場合について、特性の選択ウィンドウの一例を示す。本図のように、受付部58は、指定した特徴をフィルタ変換によって抽出する画像フィルタ20を生成するために、ユーザが設定した特性となるパラメータを記憶しておく。一例として、受付部58は、入力画像表示部56の画面上に設定ウィンドウを表示して、複数用意した設定値をユーザが選択する。   FIG. 12 shows an example of a characteristic selection window when extracting from an image in a designated area. As shown in the figure, the reception unit 58 stores parameters that are characteristics set by the user in order to generate the image filter 20 that extracts the specified feature by filter conversion. As an example, the accepting unit 58 displays a setting window on the screen of the input image display unit 56, and the user selects a plurality of prepared setting values.

ここで、受付部58は、指定対象物に対する形状、数量、大きさおよび平均輝度値の範囲等の複数種類の特性のうちの少なくとも1つの特性をユーザに選択させる。また、受付部58は、学習用入力画像における異なる2以上の特性をそれぞれ複数組み合わせた2以上の領域のそれぞれを、指定領域としてもよい。これに代えて、受付部58は、入力画像表示部56を介してユーザの手動によって範囲指定できる設定に切り替えてもよい。   Here, the accepting unit 58 causes the user to select at least one of a plurality of types of characteristics such as the shape, quantity, size, and average luminance value range for the designated object. In addition, the reception unit 58 may set each of two or more areas obtained by combining a plurality of two or more different characteristics in the learning input image as designated areas. Instead of this, the receiving unit 58 may be switched to a setting that allows the user to manually specify a range via the input image display unit 56.

以上より、生成装置10は、ユーザによって指定した範囲および特徴を抽出するのに適した画像フィルタ20を生成することができる。   As described above, the generation device 10 can generate the image filter 20 suitable for extracting the range and features specified by the user.

図13は、本実施形態に係るコンピュータ1900のハードウェア構成の一例を示す。本実施形態に係るコンピュータ1900は、ホスト・コントローラ2082により相互に接続されるCPU2000、RAM2020、グラフィック・コントローラ2075、及び表示装置2080を有するCPU周辺部と、入出力コントローラ2084によりホスト・コントローラ2082に接続される通信インターフェイス2030、ハードディスク・ドライブ2040、及びDVDドライブ2060を有する入出力部と、入出力コントローラ2084に接続されるROM2010、フレキシブルディスク・ドライブ2050、及び入出力チップ2070を有するレガシー入出力部とを備える。   FIG. 13 shows an example of a hardware configuration of a computer 1900 according to the present embodiment. A computer 1900 according to this embodiment is connected to a CPU peripheral unit including a CPU 2000, a RAM 2020, a graphic controller 2075, and a display device 2080 that are connected to each other by a host controller 2082, and to the host controller 2082 by an input / output controller 2084. An input / output unit having a communication interface 2030, a hard disk drive 2040, and a DVD drive 2060, and a legacy input / output unit having a ROM 2010, a flexible disk drive 2050, and an input / output chip 2070 connected to the input / output controller 2084 Is provided.

ホスト・コントローラ2082は、RAM2020と、高い転送レートでRAM2020をアクセスするCPU2000及びグラフィック・コントローラ2075とを接続する。CPU2000は、ROM2010及びRAM2020に格納されたプログラムに基づいて動作し、各部の制御を行う。グラフィック・コントローラ2075は、CPU2000等がRAM2020内に設けたフレーム・バッファ上に生成する画像データを取得し、表示装置2080上に表示させる。これに代えて、グラフィック・コントローラ2075は、CPU2000等が生成する画像データを格納するフレーム・バッファを、内部に含んでもよい。   The host controller 2082 connects the RAM 2020 to the CPU 2000 and the graphic controller 2075 that access the RAM 2020 at a high transfer rate. The CPU 2000 operates based on programs stored in the ROM 2010 and the RAM 2020 and controls each unit. The graphic controller 2075 acquires image data generated by the CPU 2000 or the like on a frame buffer provided in the RAM 2020 and displays it on the display device 2080. Instead of this, the graphic controller 2075 may include a frame buffer for storing image data generated by the CPU 2000 or the like.

入出力コントローラ2084は、ホスト・コントローラ2082と、比較的高速な入出力装置である通信インターフェイス2030、ハードディスク・ドライブ2040、DVDドライブ2060を接続する。通信インターフェイス2030は、ネットワークを介して他の装置と通信する。ハードディスク・ドライブ2040は、コンピュータ1900内のCPU2000が使用するプログラム及びデータを格納する。DVDドライブ2060は、DVD2095からプログラム又はデータを読み取り、RAM2020を介してハードディスク・ドライブ2040に提供する。   The input / output controller 2084 connects the host controller 2082 to the communication interface 2030, the hard disk drive 2040, and the DVD drive 2060, which are relatively high-speed input / output devices. The communication interface 2030 communicates with other devices via a network. The hard disk drive 2040 stores programs and data used by the CPU 2000 in the computer 1900. The DVD drive 2060 reads a program or data from the DVD 2095 and provides it to the hard disk drive 2040 via the RAM 2020.

また、入出力コントローラ2084には、ROM2010と、フレキシブルディスク・ドライブ2050、及び入出力チップ2070の比較的低速な入出力装置とが接続される。ROM2010は、コンピュータ1900が起動時に実行するブート・プログラム、及び/又は、コンピュータ1900のハードウェアに依存するプログラム等を格納する。フレキシブルディスク・ドライブ2050は、フレキシブルディスク2090からプログラム又はデータを読み取り、RAM2020を介してハードディスク・ドライブ2040に提供する。入出力チップ2070は、フレキシブルディスク・ドライブ2050を入出力コントローラ2084へと接続すると共に、例えばパラレル・ポート、シリアル・ポート、キーボード・ポート、マウス・ポート等を介して各種の入出力装置を入出力コントローラ2084へと接続する。   The input / output controller 2084 is connected to the ROM 2010, the flexible disk drive 2050, and the relatively low-speed input / output device of the input / output chip 2070. The ROM 2010 stores a boot program that the computer 1900 executes at startup and / or a program that depends on the hardware of the computer 1900. The flexible disk drive 2050 reads a program or data from the flexible disk 2090 and provides it to the hard disk drive 2040 via the RAM 2020. The input / output chip 2070 connects the flexible disk drive 2050 to the input / output controller 2084 and inputs / outputs various input / output devices via, for example, a parallel port, a serial port, a keyboard port, a mouse port, and the like. Connect to controller 2084.

RAM2020を介してハードディスク・ドライブ2040に提供されるプログラムは、フレキシブルディスク2090、DVD2095、又はICカード等の記録媒体に格納されて利用者によって提供される。プログラムは、記録媒体から読み出され、RAM2020を介してコンピュータ1900内のハードディスク・ドライブ2040にインストールされ、CPU2000において実行される。   A program provided to the hard disk drive 2040 via the RAM 2020 is stored in a recording medium such as the flexible disk 2090, the DVD 2095, or an IC card and provided by the user. The program is read from the recording medium, installed in the hard disk drive 2040 in the computer 1900 via the RAM 2020, and executed by the CPU 2000.

コンピュータ1900にインストールされ、コンピュータ1900を生成装置10として機能させるプログラムは、フィルタ処理モジュールと、重み生成モジュールと、算出モジュールと、選択モジュールと、更新モジュールと、生成モジュールと、特定モジュールと、受付モジュールと、入力画像表示モジュールとを備える。これらのプログラム又はモジュールは、CPU2000等に働きかけて、コンピュータ1900を、フィルタ処理部38と、重み生成部43と、算出部44と、選択部46と、更新部48と、生成部50と、特定部54と、入力画像表示部56と、受付部58としてそれぞれ機能させる。   A program that is installed in the computer 1900 and causes the computer 1900 to function as the generation device 10 includes a filter processing module, a weight generation module, a calculation module, a selection module, an update module, a generation module, a specific module, and a reception module. And an input image display module. These programs or modules work with the CPU 2000 or the like to identify the computer 1900, the filter processing unit 38, the weight generation unit 43, the calculation unit 44, the selection unit 46, the update unit 48, the generation unit 50, The unit 54, the input image display unit 56, and the reception unit 58 are caused to function.

これらのプログラムに記述された情報処理は、コンピュータ1900に読込まれることにより、ソフトウェアと上述した各種のハードウェア資源とが協働した具体的手段であるフィルタ処理部38と、重み生成部43と、算出部44と、選択部46と、更新部48と、生成部50と、特定部54と、入力画像表示部56と、受付部58として機能する。そして、これらの具体的手段によって、本実施形態におけるコンピュータ1900の使用目的に応じた情報の演算又は加工を実現することにより、使用目的に応じた特有の生成装置10が構築される。   The information processing described in these programs is read into the computer 1900, whereby the filter processing unit 38, which is a specific means in which the software and the various hardware resources described above cooperate, the weight generation unit 43, The calculation unit 44, the selection unit 46, the update unit 48, the generation unit 50, the specification unit 54, the input image display unit 56, and the reception unit 58 function. And the specific production | generation apparatus 10 according to the intended purpose is constructed | assembled by implement | achieving the calculation or processing of the information according to the intended purpose of the computer 1900 in this embodiment by these specific means.

一例として、コンピュータ1900と外部の装置等との間で通信を行う場合には、CPU2000は、RAM2020上にロードされた通信プログラムを実行し、通信プログラムに記述された処理内容に基づいて、通信インターフェイス2030に対して通信処理を指示する。通信インターフェイス2030は、CPU2000の制御を受けて、RAM2020、ハードディスク・ドライブ2040、フレキシブルディスク2090、又はDVD2095等の記憶装置上に設けた送信バッファ領域等に記憶された送信データを読み出してネットワークへと送信し、もしくは、ネットワークから受信した受信データを記憶装置上に設けた受信バッファ領域等へと書き込む。このように、通信インターフェイス2030は、DMA(ダイレクト・メモリ・アクセス)方式により記憶装置との間で送受信データを転送してもよく、これに代えて、CPU2000が転送元の記憶装置又は通信インターフェイス2030からデータを読み出し、転送先の2030又は記憶装置へとデータを書き込むことにより送受信データを転送してもよい。   As an example, when communication is performed between the computer 1900 and an external device or the like, the CPU 2000 executes a communication program loaded on the RAM 2020 and executes a communication interface based on the processing content described in the communication program. A communication process is instructed to 2030. Under the control of the CPU 2000, the communication interface 2030 reads transmission data stored in a transmission buffer area or the like provided on a storage device such as the RAM 2020, the hard disk drive 2040, the flexible disk 2090, or the DVD 2095, and transmits it to the network. Alternatively, the reception data received from the network is written into a reception buffer area or the like provided on the storage device. As described above, the communication interface 2030 may transfer transmission / reception data to / from the storage device by a DMA (direct memory access) method. Instead, the CPU 2000 transfers the storage device or the communication interface 2030 as a transfer source. The transmission / reception data may be transferred by reading the data from the data and writing the data to the transfer destination 2030 or the storage device.

また、CPU2000は、ハードディスク・ドライブ2040、DVDドライブ2060(DVD2095)、フレキシブルディスク・ドライブ2050(フレキシブルディスク2090)等の外部記憶装置に格納されたファイルまたはデータベース等の中から、全部または必要な部分をDMA転送等によりRAM2020へと読み込ませ、RAM2020上のデータに対して各種の処理を行う。そして、CPU2000は、処理を終えたデータを、DMA転送等により外部記憶装置へと書き戻す。このような処理において、RAM2020は、外部記憶装置の内容を一時的に保持するものとみなせるから、本実施形態においてはRAM2020および外部記憶装置等をメモリ、記憶部、または記憶装置等と総称する。本実施形態における各種のプログラム、データ、テーブル、データベース等の各種の情報は、このような記憶装置上に格納されて、情報処理の対象となる。なお、CPU2000は、RAM2020の一部をキャッシュメモリに保持し、キャッシュメモリ上で読み書きを行うこともできる。このような形態においても、キャッシュメモリはRAM2020の機能の一部を担うから、本実施形態においては、区別して示す場合を除き、キャッシュメモリもRAM2020、メモリ、及び/又は記憶装置に含まれるものとする。   In addition, the CPU 2000 reads all or necessary portions from files or databases stored in an external storage device such as the hard disk drive 2040, the DVD drive 2060 (DVD 2095), and the flexible disk drive 2050 (flexible disk 2090). The data is read into the RAM 2020 by DMA transfer or the like, and various processes are performed on the data on the RAM 2020. Then, CPU 2000 writes the processed data back to the external storage device by DMA transfer or the like. In such processing, since the RAM 2020 can be regarded as temporarily holding the contents of the external storage device, in the present embodiment, the RAM 2020 and the external storage device are collectively referred to as a memory, a storage unit, or a storage device. Various types of information such as various programs, data, tables, and databases in the present embodiment are stored on such a storage device and are subjected to information processing. Note that the CPU 2000 can also hold a part of the RAM 2020 in the cache memory and perform reading and writing on the cache memory. Even in such a form, the cache memory bears a part of the function of the RAM 2020. Therefore, in the present embodiment, the cache memory is also included in the RAM 2020, the memory, and / or the storage device unless otherwise indicated. To do.

また、CPU2000は、RAM2020から読み出したデータに対して、プログラムの命令列により指定された、本実施形態中に記載した各種の演算、情報の加工、条件判断、情報の検索・置換等を含む各種の処理を行い、RAM2020へと書き戻す。例えば、CPU2000は、条件判断を行う場合においては、本実施形態において示した各種の変数が、他の変数または定数と比較して、大きい、小さい、以上、以下、等しい等の条件を満たすかどうかを判断し、条件が成立した場合(又は不成立であった場合)に、異なる命令列へと分岐し、またはサブルーチンを呼び出す。   In addition, the CPU 2000 performs various operations, such as various operations, information processing, condition determination, information search / replacement, etc., described in the present embodiment, specified for the data read from the RAM 2020 by the instruction sequence of the program. Is written back to the RAM 2020. For example, when performing the condition determination, the CPU 2000 determines whether or not the various variables shown in the present embodiment satisfy the conditions such as large, small, above, below, equal, etc., compared to other variables or constants. If the condition is satisfied (or not satisfied), the program branches to a different instruction sequence or calls a subroutine.

また、CPU2000は、記憶装置内のファイルまたはデータベース等に格納された情報を検索することができる。例えば、第1属性の属性値に対し第2属性の属性値がそれぞれ対応付けられた複数のエントリが記憶装置に格納されている場合において、CPU2000は、記憶装置に格納されている複数のエントリの中から第1属性の属性値が指定された条件と一致するエントリを検索し、そのエントリに格納されている第2属性の属性値を読み出すことにより、所定の条件を満たす第1属性に対応付けられた第2属性の属性値を得ることができる。   Further, the CPU 2000 can search for information stored in a file or database in the storage device. For example, in the case where a plurality of entries in which the attribute value of the second attribute is associated with the attribute value of the first attribute are stored in the storage device, the CPU 2000 displays the plurality of entries stored in the storage device. The entry that matches the condition in which the attribute value of the first attribute is specified is retrieved, and the attribute value of the second attribute that is stored in the entry is read, thereby associating with the first attribute that satisfies the predetermined condition The attribute value of the specified second attribute can be obtained.

以上に示したプログラム又はモジュールは、外部の記録媒体に格納されてもよい。記録媒体としては、フレキシブルディスク2090、DVD2095の他に、DVD又はCD等の光学記録媒体、MO等の光磁気記録媒体、テープ媒体、ICカード等の半導体メモリ等を用いることができる。また、専用通信ネットワーク又はインターネットに接続されたサーバシステムに設けたハードディスク又はRAM等の記憶装置を記録媒体として使用し、ネットワークを介してプログラムをコンピュータ1900に提供してもよい。   The program or module shown above may be stored in an external recording medium. As the recording medium, in addition to the flexible disk 2090 and the DVD 2095, an optical recording medium such as DVD or CD, a magneto-optical recording medium such as MO, a tape medium, a semiconductor memory such as an IC card, and the like can be used. Further, a storage device such as a hard disk or RAM provided in a server system connected to a dedicated communication network or the Internet may be used as a recording medium, and the program may be provided to the computer 1900 via the network.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。   The order of execution of each process such as operations, procedures, steps, and stages in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. It should be noted that the output can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for convenience, it means that it is essential to carry out in this order. It is not a thing.

10 生成装置、20 画像フィルタ、22 フィルタ部品、24 フィルタ部品群、34 フィルタ格納部、36 学習用入力画像格納部、38 フィルタ処理部、40 出力画像格納部、42 目標画像格納部、43 重み生成部、44 算出部、46 選択部、48 更新部、50 生成部、54 特定部、56 入力画像表示部、58 受付部、60 重み記憶部、62 重み更新部、1100 手動領域指定画面、1110 自動領域指定(形状)画面、1120 自動領域指定(輝度値)画面、1130 自動領域指定(大きさ)画面、1140 自動領域指定(数量)画面、1900 コンピュータ、2000 CPU、2010 ROM、2020 RAM、2030 通信インターフェイス、2040 ハードディスク・ドライブ、2050 フレキシブルディスク・ドライブ、2060 DVDドライブ、2070 入出力チップ、2075 グラフィック・コントローラ、2080 表示装置、2082 ホスト・コントローラ、2084 入出力コントローラ、2090 フレキシブルディスク、2095 DVD DESCRIPTION OF SYMBOLS 10 Generation apparatus, 20 Image filter, 22 Filter component, 24 Filter component group, 34 Filter storage part, 36 Learning input image storage part, 38 Filter processing part, 40 Output image storage part, 42 Target image storage part, 43 Weight generation Unit 44 calculation unit 46 selection unit 48 update unit 50 generation unit 54 identification unit 56 input image display unit 58 reception unit 60 weight storage unit 62 weight update unit 1100 manual area designation screen 1110 automatic Area designation (shape) screen, 1120 automatic area designation (luminance value) screen, 1130 automatic area designation (size) screen, 1140 automatic area designation (quantity) screen, 1900 computer, 2000 CPU, 2010 ROM, 2020 RAM, 2030 communication Interface, 2040 hard disk drive, 2050 Lexical Bull disk drive, 2060 DVD drive, 2070 output chip, 2075 graphic controller, 2080 a display device, 2082 host controller 2084 output controller, 2090 a flexible disk, 2095 DVD

Claims (12)

学習用入力画像から目標画像への変換に適応させる適応画像フィルタを生成する生成装置であって、
前記学習用入力画像における一部の指定領域を含む指定入力画像と、前記目標画像とを受け付ける受付部と、
複数の画像フィルタを生成する生成部と、
前記複数の画像フィルタのそれぞれにより前記指定入力画像を変換した複数の出力画像に対して、前記目標画像との適合度をそれぞれ算出する算出部と、
前記複数の出力画像のそれぞれの前記適合度に基づいて、前記複数の画像フィルタの中から前記適応画像フィルタを選択する選択部と、
を備える生成装置。
A generating device that generates an adaptive image filter adapted to convert from a learning input image to a target image,
A receiving unit that receives a designated input image including a part of a designated area in the learning input image, and the target image;
A generator for generating a plurality of image filters;
A calculation unit that calculates a degree of matching with the target image for a plurality of output images obtained by converting the designated input image by each of the plurality of image filters;
A selection unit that selects the adaptive image filter from the plurality of image filters based on the fitness of each of the plurality of output images;
A generating device comprising:
前記指定領域は、前記学習用入力画像を前記画像フィルタにより変換させた変換画像の一部を含む請求項1に記載の生成装置。   The generation device according to claim 1, wherein the designated area includes a part of a converted image obtained by converting the learning input image by the image filter. 前記学習用入力画像を表示する入力画像表示部を備え、
前記受付部は、前記入力画像表示部により表示された前記学習用入力画像をユーザにより変更させて、前記目標画像を作成させる
請求項1に記載の生成装置。
An input image display unit for displaying the learning input image;
The generation apparatus according to claim 1, wherein the reception unit causes the learning input image displayed by the input image display unit to be changed by a user to create the target image.
前記受付部は、前記入力画像表示部により表示された前記学習用入力画像においてユーザにより前記指定領域を指定させる
請求項3に記載の生成装置。
The generation device according to claim 3, wherein the reception unit causes the user to specify the designated region in the learning input image displayed by the input image display unit.
前記学習用入力画像から前記指定領域を特定する特定部を備える
請求項1から4のいずれかに記載の生成装置。
The generation device according to claim 1, further comprising: a specifying unit that specifies the designated region from the learning input image.
前記特定部は、前記学習用入力画像における予め定められた特性を満たす一部の領域を、前記指定領域とする
請求項5に記載の生成装置。
The generation device according to claim 5, wherein the specifying unit sets a part of the learning input image that satisfies a predetermined characteristic as the designated region.
前記受付部は、複数種類の特性のうちの少なくとも1つの特性をユーザに選択させ、
前記特定部は、前記学習用入力画像におけるユーザに選択された前記少なくとも1つの特性を満たす一部の領域を、前記指定領域とする
請求項6に記載の生成装置。
The reception unit causes the user to select at least one characteristic among a plurality of types of characteristics,
The generation device according to claim 6, wherein the specifying unit sets, as the designated region, a partial region that satisfies the at least one characteristic selected by a user in the learning input image.
前記特定部は、前記学習用入力画像における異なる2以上の特性をそれぞれ満たす2以上の領域のそれぞれを、前記指定領域とする
請求項6または7に記載の生成装置。
The generation device according to claim 6, wherein the specifying unit sets each of two or more regions satisfying two or more different characteristics in the learning input image as the designated region.
前記選択部は、
前記複数の画像フィルタのうち前記適合度が基準値以上の2以上の画像フィルタを選択し、
前記学習用入力画像を前記2以上の画像フィルタのそれぞれにより変換した2以上の前記出力画像のそれぞれを表示し、
ユーザにより、前記選択部が選択した前記2以上の画像フィルタの中から前記適応画像フィルタを選択させる、
請求項1から8のいずれかに記載の生成装置。
The selection unit includes:
Selecting two or more image filters having a fitness equal to or higher than a reference value among the plurality of image filters;
Displaying each of the two or more output images obtained by converting the learning input image by each of the two or more image filters;
The user causes the adaptive image filter to be selected from the two or more image filters selected by the selection unit.
The generation device according to claim 1.
前記生成部は、入力画像を出力画像にそれぞれ変換する複数のフィルタ部品を含む少なくとも1つの前記画像フィルタを有する画像フィルタ群から、遺伝的処理により新たな前記画像フィルタを生成して前記画像フィルタ群に加えて前記複数の画像フィルタを生成し、
前記選択部は、前記画像フィルタ群が有する前記複数の画像フィルタの中から、前記適合度に基づいて、前記適応画像フィルタを選択する
請求項1から9のいずれかに記載の生成装置。
The generation unit generates a new image filter by genetic processing from an image filter group having at least one image filter including a plurality of filter components that respectively convert an input image into an output image, and the image filter group Generating the plurality of image filters in addition to
The generation device according to claim 1, wherein the selection unit selects the adaptive image filter based on the fitness level from the plurality of image filters included in the image filter group.
学習用入力画像から目標画像への変換に適応させる適応画像フィルタを生成する生成方法であって、
前記学習用入力画像における一部の指定領域を含む指定入力画像と、前記目標画像とを受け付ける受付ステップと、
複数の画像フィルタを生成する生成ステップと、
前記複数の画像フィルタのそれぞれにより前記指定入力画像を変換した複数の出力画像に対して、前記目標画像との適合度をそれぞれ算出する算出ステップと、
前記複数の出力画像のそれぞれの前記適合度に基づいて、前記複数の画像フィルタの中から前記適応画像フィルタを選択する選択ステップと、
を備える生成方法。
A generation method for generating an adaptive image filter adapted for conversion from a learning input image to a target image,
A receiving step for receiving a designated input image including a part of a designated area in the learning input image, and the target image;
A generating step for generating a plurality of image filters;
A calculation step for calculating a degree of matching with the target image for a plurality of output images obtained by converting the designated input image by each of the plurality of image filters;
A selection step of selecting the adaptive image filter from the plurality of image filters based on the fitness of each of the plurality of output images;
A generation method comprising:
学習用入力画像から目標画像への変換に適応させる適応画像フィルタを生成する生成装置として、コンピュータを機能させる生成プログラムであって、
前記コンピュータを、
前記学習用入力画像における一部の指定領域を含む指定入力画像と、前記目標画像とを受け付ける受付部と、
複数の画像フィルタを生成する生成部と、
前記複数の画像フィルタのそれぞれにより前記指定入力画像を変換した複数の出力画像に対して、前記目標画像との適合度をそれぞれ算出する算出部と、
前記複数の出力画像のそれぞれの前記適合度に基づいて、前記複数の画像フィルタの中から前記適応画像フィルタを選択する選択部と、
を備える生成装置
として機能させる生成プログラム。
A generation program that causes a computer to function as a generation device that generates an adaptive image filter adapted to conversion from a learning input image to a target image,
The computer,
A receiving unit that receives a designated input image including a part of a designated area in the learning input image, and the target image;
A generator for generating a plurality of image filters;
A calculation unit that calculates a degree of matching with the target image for a plurality of output images obtained by converting the designated input image by each of the plurality of image filters;
A selection unit that selects the adaptive image filter from the plurality of image filters based on the fitness of each of the plurality of output images;
A generation program that functions as a generation device.
JP2009159254A 2009-07-03 2009-07-03 Generating device, generating method, and generation program Pending JP2011014051A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009159254A JP2011014051A (en) 2009-07-03 2009-07-03 Generating device, generating method, and generation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009159254A JP2011014051A (en) 2009-07-03 2009-07-03 Generating device, generating method, and generation program

Publications (1)

Publication Number Publication Date
JP2011014051A true JP2011014051A (en) 2011-01-20

Family

ID=43592843

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009159254A Pending JP2011014051A (en) 2009-07-03 2009-07-03 Generating device, generating method, and generation program

Country Status (1)

Country Link
JP (1) JP2011014051A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015001967A1 (en) * 2013-07-02 2015-01-08 富士通株式会社 Device and method for creating image-processing filter
WO2017109918A1 (en) * 2015-12-24 2017-06-29 富士通株式会社 Image processing device, image processing method, and image processing program
WO2019003474A1 (en) * 2017-06-30 2019-01-03 株式会社島津製作所 Tracking device for radiation treatment, position detection device, and method for tracking moving body
WO2021193099A1 (en) * 2020-03-26 2021-09-30 ソニーセミコンダクタソリューションズ株式会社 Information processing device, information processing method, and program
WO2023175819A1 (en) * 2022-03-17 2023-09-21 日本電気株式会社 Information processing device, information processing system, information processing method, and non-transitory computer-readable medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11184701A (en) * 1997-12-22 1999-07-09 Omron Corp Device for adjusting knowledge of inference system and method therefor and recording medium
JP2006260410A (en) * 2005-03-18 2006-09-28 Sharp Corp Evaluation apparatus and method for image processing algorithm, producing system and method, program for making computer function as evaluation system, and program for making computer function as producing system
JP2006318214A (en) * 2005-05-12 2006-11-24 Omron Corp Featured value acquisition device and conversion device
JP2007200246A (en) * 2006-01-30 2007-08-09 Sharp Corp Method for evaluating image processing algorithm, method, device, and program for generating same algorithm, and recording medium
JP2008204102A (en) * 2007-02-19 2008-09-04 Yokohama National Univ Image processing system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11184701A (en) * 1997-12-22 1999-07-09 Omron Corp Device for adjusting knowledge of inference system and method therefor and recording medium
JP2006260410A (en) * 2005-03-18 2006-09-28 Sharp Corp Evaluation apparatus and method for image processing algorithm, producing system and method, program for making computer function as evaluation system, and program for making computer function as producing system
JP2006318214A (en) * 2005-05-12 2006-11-24 Omron Corp Featured value acquisition device and conversion device
JP2007200246A (en) * 2006-01-30 2007-08-09 Sharp Corp Method for evaluating image processing algorithm, method, device, and program for generating same algorithm, and recording medium
JP2008204102A (en) * 2007-02-19 2008-09-04 Yokohama National Univ Image processing system

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
長尾智晴, 進化的画像処理, JPN6013046658, 15 May 2002 (2002-05-15), JP, pages 79 - 98, ISSN: 0002634989 *
青木 紳也、長尾 智晴: "木構造状画像変換の自動構築法ACTIT", 映像情報メディア学会誌, vol. 53, no. 6, JPN6013031069, 20 June 1999 (1999-06-20), JP, pages 888 - 894, ISSN: 0002565785 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015001967A1 (en) * 2013-07-02 2015-01-08 富士通株式会社 Device and method for creating image-processing filter
JP2015011641A (en) * 2013-07-02 2015-01-19 富士通株式会社 Apparatus and method of creating image processing filter
US9971954B2 (en) 2013-07-02 2018-05-15 Fujitsu Limited Apparatus and method for producing image processing filter
WO2017109918A1 (en) * 2015-12-24 2017-06-29 富士通株式会社 Image processing device, image processing method, and image processing program
JPWO2017109918A1 (en) * 2015-12-24 2018-09-20 富士通株式会社 Image processing apparatus, image processing method, and image processing program
WO2019003474A1 (en) * 2017-06-30 2019-01-03 株式会社島津製作所 Tracking device for radiation treatment, position detection device, and method for tracking moving body
JPWO2019003474A1 (en) * 2017-06-30 2020-04-30 株式会社島津製作所 Radiotherapy tracking device, position detection device, and moving body tracking method
US11224763B2 (en) 2017-06-30 2022-01-18 Shimadzu Corporation Tracking device for radiation treatment, position detection device, and method for tracking moving body
JP7099459B2 (en) 2017-06-30 2022-07-12 株式会社島津製作所 Radiation therapy tracking device, position detection device and moving object tracking method
WO2021193099A1 (en) * 2020-03-26 2021-09-30 ソニーセミコンダクタソリューションズ株式会社 Information processing device, information processing method, and program
WO2023175819A1 (en) * 2022-03-17 2023-09-21 日本電気株式会社 Information processing device, information processing system, information processing method, and non-transitory computer-readable medium

Similar Documents

Publication Publication Date Title
US8761496B2 (en) Image processing apparatus for calculating a degree of similarity between images, method of image processing, processing apparatus for calculating a degree of approximation between data sets, method of processing, computer program product, and computer readable medium
US9697583B2 (en) Image processing apparatus, image processing method, and computer-readable recording medium
US10489710B2 (en) Program generation apparatus and program generation method
RU2006117318A (en) DOCUMENT CHARACTERISTIC ANALYSIS DEVICE FOR A DOCUMENT WHICH SHOULD BE INVESTIGATED
JP2011014051A (en) Generating device, generating method, and generation program
JP2020053073A (en) Learning method, learning system, and learning program
US20210271938A1 (en) Normalization method for machine-learning and apparatus thereof
CN105354228A (en) Similar image searching method and apparatus
JP5181825B2 (en) Image processing apparatus, image processing method, and program
JP5304401B2 (en) Genetic processing apparatus, genetic processing method and program
JP5417967B2 (en) Genetic processing apparatus, genetic processing method and program
JP5396977B2 (en) Data processing apparatus, data processing method and program
JP5326881B2 (en) Image processing apparatus, image processing method, and image processing program
JP5359622B2 (en) Genetic processing apparatus, genetic processing method, and genetic processing program
JP5326776B2 (en) Image processing apparatus, image processing method, and image processing program
JP5417972B2 (en) Genetic processing apparatus, genetic processing method, and genetic processing program
JP5417950B2 (en) Genetic processing apparatus, genetic processing method and program
JP5418052B2 (en) Genetic processing apparatus, genetic processing method and program
JP5181826B2 (en) Image processing apparatus, image processing method, and program
JP5471105B2 (en) Image processing apparatus, image processing method, and image processing program
JP5359531B2 (en) Genetic processing apparatus, genetic processing method and program
JP5444822B2 (en) Genetic processing apparatus, genetic processing method and program
JP5181821B2 (en) Image processing apparatus, image processing method, and program
JP2010257067A (en) Apparatus and method for processing hereditary, and program
JP5359479B2 (en) Genetic processing apparatus, genetic processing method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120628

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130411

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130423

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130603

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130625

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130924