JP2013050837A - Classification processing generation device and classification processing generation method - Google Patents

Classification processing generation device and classification processing generation method Download PDF

Info

Publication number
JP2013050837A
JP2013050837A JP2011188178A JP2011188178A JP2013050837A JP 2013050837 A JP2013050837 A JP 2013050837A JP 2011188178 A JP2011188178 A JP 2011188178A JP 2011188178 A JP2011188178 A JP 2011188178A JP 2013050837 A JP2013050837 A JP 2013050837A
Authority
JP
Japan
Prior art keywords
image
classification
calculation
processing
classification processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011188178A
Other languages
Japanese (ja)
Inventor
Hiroshi Ogi
寛志 荻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dainippon Screen Manufacturing Co Ltd
Original Assignee
Dainippon Screen Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dainippon Screen Manufacturing Co Ltd filed Critical Dainippon Screen Manufacturing Co Ltd
Priority to JP2011188178A priority Critical patent/JP2013050837A/en
Publication of JP2013050837A publication Critical patent/JP2013050837A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To generate effective classification processing and also enable an operator to easily perform interpretation, modification, or the like of classification processing by displaying contents of the classification processing.SOLUTION: An evaluation unit 22 provides classification processing candidates including predetermined image processing calculation and feature quantity calculation, calculates a plurality of feature quantities of a plurality of original images by performing the image processing calculation and the feature quantity calculation on each original image belonging to any image group, and calculates effectiveness of the plurality of feature quantities in classifying the plurality of original images. A calculation content change unit 23 repeats processing for changing contents of the classification processing candidates while calculating the effectiveness by the evaluation unit 22 until satisfying termination conditions. Then, a display control unit 24 displays on a display 16 contents of classification processing of the classification processing candidate of which effectiveness is equal to or more than a threshold. Thus, it is possible to generate effective classification processing and enable an operator to easily perform interpretation, modification, or the like of classification processing by displaying contents of the classification processing.

Description

本発明は、画像を複数の画像グループのいずれかに分類するための分類処理を生成する技術に関する。   The present invention relates to a technique for generating a classification process for classifying an image into any of a plurality of image groups.

従来より、美術史等の研究の場では、絵画等の美術作品を、描かれた年代や、描かれた場所、あるいは、描かれている内容等の観点から解析し、グループ分けすることが行われている。また、非特許文献1では、色彩情報の統計解析により絵画を定量的に分析する手法が開示されている。   Traditionally, in the field of research on art history, etc., art works such as paintings have been analyzed and grouped in terms of the age, place where they were drawn, or the contents drawn. It has been broken. Non-Patent Document 1 discloses a technique for quantitatively analyzing a picture by statistical analysis of color information.

なお、特許文献1では、画像中の人物領域から予め決まったクラス毎の特徴量を検出し、特徴量毎に有効値を求め 、有効値に基づいて個人認識処理で使用する特徴量を選別する手法が開示されている。特許文献2では、効率的な検索を実現する手法が開示されており、本手法では、複数の要素と特徴項目の全ての組み合わせについて、その特徴項目を指定して検索を行ったときの絞り込み量のバラツキの程度が求められ、バラツキが小さいほど絞り込み効果が高いものとして、バラツキの程度に基づいて各特徴項目の絞込みに対する有効度が判断され、特徴項目の順位付けが行われる。そして、当該順位に従って特徴量が入力されるように検索者に報知が行われる。   In Patent Document 1, a feature amount for each predetermined class is detected from a person area in an image, an effective value is obtained for each feature amount, and a feature amount to be used in personal recognition processing is selected based on the effective value. A technique is disclosed. Patent Document 2 discloses a technique for realizing efficient search. In this technique, the amount of refinement when a search is performed by specifying the feature item for all combinations of a plurality of elements and feature items. The degree of variation is determined, and the smaller the variation, the higher the narrowing effect, and the effectiveness for narrowing down the feature items is determined based on the degree of variation, and the feature items are ranked. Then, the searcher is notified so that the feature amount is input according to the order.

また、特許文献3では、検索の有効度を予め把握することが可能な人物検索装置が開示されており、当該装置では、複数のカメラが撮像した撮像画像内の人物の特徴量を示す特徴量情報が取得される。そして、第1のカメラで撮像された第1の人物の特徴量と第2のカメラで撮像された第2の人物の特徴量との差異が人物の特徴毎に算出され、特徴量の差異に基づいて、第1の人物を検索する場合の有効度を示す絞込有効度が人物の特徴毎に算出される。特許文献4および5では、サポートベクターマシンにおいて有意な特徴を識別する手法が開示されている。   Further, Patent Document 3 discloses a person search device capable of grasping in advance the effectiveness of search, and in this device, a feature amount indicating a feature amount of a person in a captured image captured by a plurality of cameras. Information is acquired. Then, the difference between the feature quantity of the first person imaged by the first camera and the feature quantity of the second person imaged by the second camera is calculated for each feature of the person. Based on this, a narrowing-down effectiveness indicating the effectiveness when searching for the first person is calculated for each feature of the person. Patent Documents 4 and 5 disclose techniques for identifying significant features in a support vector machine.

特開2006−293644号公報JP 2006-293644 A 特開2009−20578号公報JP 2009-20578 A 特開2009−42879号公報JP 2009-42879 A 特表2008−524675号公報Special table 2008-524675 特表2008−129657号公報Special table 2008-129657 gazette

車妍、「後期印象派絵画の色彩調和解析について」、[online]、2008年3月、国立大学法人筑波大学、[平成23年8月8日検索]、インターネット<URL:http://www.cs.tsukuba.ac.jp/H19Syuron/200621005.pdf>Kurama, “Color Analysis of Late Impressionist Paintings” [online], March 2008, University of Tsukuba, [August 8, 2011 search], Internet <URL: http: // www. cs.tsukuba.ac.jp/H19Syuron/200621005.pdf>

ところで、大量の作品を自動的に分類するには、グループ分けの判断基準に従った分類処理を生成することが必要である。絵画等の作品を「年代」や「対象物」等の明確な判断基準でグループ分けする場合、分類処理は比較的容易に生成することができるが、「画風」や「タッチ」と呼ばれる、主観的な印象に基づく判断基準にてグループ分けを行う場合、分類における判断基準を明確に定義したり、定量化することが容易ではないため、分類処理を生成することが困難である。特に、抽象画については、その解釈自体が観察者に依存するため、分類処理を生成することが極めて困難である。このような問題により、美術作品の深い研究を行うことができず、美術の理解等の妨げとなっている。   By the way, in order to automatically classify a large number of works, it is necessary to generate a classification process according to the criteria for grouping. When grouping works such as paintings according to clear criteria such as “age” and “object”, the classification process can be generated relatively easily, but the subjectivity called “style” or “touch” When grouping according to a judgment standard based on a general impression, it is difficult to clearly define or quantify a judgment standard in classification, and it is difficult to generate a classification process. In particular, it is extremely difficult to generate a classification process for an abstract image because its interpretation itself depends on the observer. Due to these problems, it is not possible to conduct a deep study of art works, which hinders understanding of art.

本発明は上記課題に鑑みなされたものであり、有効な分類処理を生成するとともに、作業者が分類処理の解釈や修正等を容易に行うことが可能となる技術を提供することを目的としている。   The present invention has been made in view of the above problems, and an object of the present invention is to provide a technique for generating an effective classification process and enabling an operator to easily interpret and correct the classification process. .

請求項1に記載の発明は、画像を複数の画像グループのいずれかに分類するための分類処理を生成する分類処理生成装置であって、所定の画像処理演算および特徴量演算を含む分類処理候補が準備され、前記分類処理候補を用いて、複数の画像グループのそれぞれに属する各元画像に対して前記画像処理演算を行って処理済み画像を生成し、前記処理済み画像に対して前記特徴量演算を行うことにより、複数の元画像の複数の特徴量を求め、前記複数の元画像のそれぞれを前記複数の画像グループのいずれかに分類する際における前記複数の特徴量の有効度を求める評価部と、前記分類処理候補における前記画像処理演算および前記特徴量演算の少なくとも一方の演算の内容を変更しつつ前記評価部にて前記有効度を求める処理を、終了条件を満たすまで繰り返す演算内容変更部と、前記終了条件を満たした際に、前記有効度が閾値以上となる場合の前記分類処理候補を利用可能な分類処理として、前記分類処理における前記少なくとも一方の演算の内容を表示部に表示する表示制御部とを備える。   The invention according to claim 1 is a classification processing generation device that generates a classification process for classifying an image into any of a plurality of image groups, and includes a classification processing candidate including a predetermined image processing calculation and a feature amount calculation. Is prepared, the image processing operation is performed on each original image belonging to each of a plurality of image groups using the classification processing candidates to generate a processed image, and the feature amount is calculated for the processed image Evaluation for obtaining a plurality of feature amounts of a plurality of original images by performing an operation, and determining the effectiveness of the plurality of feature amounts in classifying each of the plurality of original images into any of the plurality of image groups. And a process for determining the effectiveness in the evaluation unit while changing the content of at least one of the image processing calculation and the feature amount calculation in the classification processing candidate, and an end condition A calculation content changing unit that repeats until it is satisfied, and a classification process that can use the classification process candidate when the effectiveness is equal to or greater than a threshold when the end condition is satisfied, A display control unit for displaying the contents on the display unit.

請求項2に記載の発明は、請求項1に記載の分類処理生成装置であって、前記表示制御部が、前記分類処理における前記画像処理演算および前記特徴量演算の双方の内容を前記表示部に表示する。   The invention according to claim 2 is the classification processing generation apparatus according to claim 1, wherein the display control unit displays contents of both the image processing calculation and the feature amount calculation in the classification processing in the display unit. To display.

請求項3に記載の発明は、請求項1または2に記載の分類処理生成装置であって、前記表示制御部が、前記各元画像と、前記各元画像に対して前記分類処理における前記画像処理演算を行って生成された前記処理済み画像とを前記表示部に同時に表示する。   The invention according to claim 3 is the classification processing generation device according to claim 1 or 2, wherein the display control unit is configured to perform the original image and the image in the classification processing with respect to the original image. The processed image generated by performing the processing operation is simultaneously displayed on the display unit.

請求項4に記載の発明は、請求項1または2に記載の分類処理生成装置であって、前記表示制御部が、前記複数の画像グループにそれぞれ対応するとともに前記分類処理における前記画像処理演算により生成された複数の処理済み画像を前記表示部に同時に表示する。   The invention according to claim 4 is the classification processing generation apparatus according to claim 1 or 2, wherein the display control unit corresponds to each of the plurality of image groups and performs the image processing calculation in the classification processing. A plurality of generated processed images are simultaneously displayed on the display unit.

請求項5に記載の発明は、請求項1ないし4のいずれかに記載の分類処理生成装置であって、前記評価部において、複数の分類処理候補が準備され、前記評価部が、前記複数の分類処理候補にそれぞれ対応する複数の有効度を求め、前記演算内容変更部が、前記複数の分類処理候補の少なくとも1つにおける前記少なくとも一方の演算の内容を変更しつつ前記評価部にて前記複数の有効度を求める処理を、前記終了条件を満たすまで繰り返す。   The invention according to claim 5 is the classification processing generation device according to any one of claims 1 to 4, wherein a plurality of classification processing candidates are prepared in the evaluation unit, and the evaluation unit includes the plurality of classification processing candidates. A plurality of validity levels respectively corresponding to the classification process candidates are obtained, and the calculation content changing unit changes the contents of the at least one calculation in at least one of the plurality of classification processing candidates while the plurality of evaluation levels are changed by the evaluation unit. The process of obtaining the effectiveness of is repeated until the end condition is satisfied.

請求項6に記載の発明は、画像を複数の画像グループのいずれかに分類するための分類処理を生成する分類処理生成方法であって、a)所定の画像処理演算および特徴量演算を含む分類処理候補を準備する工程と、b)複数の画像グループのそれぞれに属する各元画像に対して前記画像処理演算を行って処理済み画像を生成する工程と、c)前記処理済み画像に対して前記特徴量演算を行うことにより、複数の元画像の複数の特徴量を求める工程と、d)前記複数の元画像のそれぞれを前記複数の画像グループのいずれかに分類する際における前記複数の特徴量の有効度を求める工程と、e)前記分類処理候補における前記画像処理演算および前記特徴量演算の少なくとも一方の演算の内容を変更しつつ前記b)ないしd)工程を、終了条件を満たすまで繰り返す工程と、f)前記有効度が閾値以上となる場合の前記分類処理候補を利用可能な分類処理として、前記分類処理における前記少なくとも一方の演算の内容を表示部に表示する工程とを備える。   The invention according to claim 6 is a classification processing generation method for generating a classification processing for classifying an image into any of a plurality of image groups, and a) a classification including a predetermined image processing calculation and a feature amount calculation. Preparing a processing candidate; b) generating a processed image by performing the image processing operation on each original image belonging to each of a plurality of image groups; and c) performing the processing on the processed image. A step of obtaining a plurality of feature amounts of the plurality of original images by performing a feature amount calculation; and d) the plurality of feature amounts when each of the plurality of original images is classified into any of the plurality of image groups. And e) steps b) to d) while changing the content of at least one of the image processing calculation and the feature amount calculation in the classification processing candidate. And f) a step of displaying the content of at least one operation in the classification process on a display unit as a classification process that can use the classification process candidate when the effectiveness is equal to or greater than a threshold. Prepare.

請求項7に記載の発明は、請求項6に記載の分類処理生成方法であって、前記f)工程において、前記分類処理における前記画像処理演算および前記特徴量演算の双方の内容が前記表示部に表示される。   The invention according to claim 7 is the classification processing generation method according to claim 6, wherein in the step f), the contents of both the image processing calculation and the feature amount calculation in the classification processing are the display unit. Is displayed.

請求項8に記載の発明は、請求項6または7に記載の分類処理生成方法であって、前記f)工程において、前記各元画像と、前記各元画像に対して前記分類処理における前記画像処理演算を行って生成された前記処理済み画像とが前記表示部に同時に表示される。   The invention according to claim 8 is the classification processing generation method according to claim 6 or 7, wherein, in the step f), the original images and the images in the classification processing for the original images. The processed image generated by performing the processing operation is simultaneously displayed on the display unit.

請求項9に記載の発明は、請求項6または7に記載の分類処理生成方法であって、前記f)工程において、前記複数の画像グループにそれぞれ対応するとともに前記分類処理における前記画像処理演算により生成された複数の処理済み画像が前記表示部に同時に表示される。   The invention according to claim 9 is the classification processing generation method according to claim 6 or 7, wherein in the step f), each of the plurality of image groups corresponds to the image processing operation in the classification processing. The plurality of generated processed images are simultaneously displayed on the display unit.

請求項10に記載の発明は、請求項6ないし9のいずれかに記載の分類処理生成方法であって、前記a)工程において、複数の分類処理候補が準備され、前記b)ないしd)工程により、前記複数の分類処理候補にそれぞれ対応する複数の有効度が求められ、前記e)工程において、前記複数の分類処理候補の少なくとも1つにおける前記少なくとも一方の演算の内容を変更しつつ前記b)ないしd)工程が、前記終了条件を満たすまで繰り返される。   A tenth aspect of the present invention is the classification processing generation method according to any one of the sixth to ninth aspects, wherein a plurality of classification processing candidates are prepared in the step a), and the steps b) to d). Thus, a plurality of validity levels respectively corresponding to the plurality of classification processing candidates are obtained, and in the step e), the content of the at least one operation in at least one of the plurality of classification processing candidates is changed. Steps d) to d) are repeated until the end condition is satisfied.

本発明によれば、有効な分類処理を生成するとともに、分類処理の内容を実質的に表示することにより、作業者が分類処理の解釈や修正等を容易に行うことができる。   According to the present invention, an effective classification process is generated and the contents of the classification process are substantially displayed, so that an operator can easily interpret and correct the classification process.

コンピュータの構成を示す図である。It is a figure which shows the structure of a computer. コンピュータが実現する機能構成を示すブロック図である。It is a block diagram which shows the function structure which a computer implement | achieves. コンピュータが分類処理を生成する動作の流れを示す図である。It is a figure which shows the flow of the operation | movement which a computer produces | generates a classification process. 集団に含まれる分類処理候補を示す図である。It is a figure which shows the classification process candidate contained in a group. 元画像を示す図である。It is a figure which shows an original image. 元画像に対する画像処理演算および特徴量演算の結果を示す図である。It is a figure which shows the result of the image processing calculation with respect to an original image, and the feature-value calculation. 元画像に対する画像処理演算および特徴量演算の結果を示す図である。It is a figure which shows the result of the image processing calculation with respect to an original image, and the feature-value calculation. 元画像に対する画像処理演算および特徴量演算の結果を示す図である。It is a figure which shows the result of the image processing calculation with respect to an original image, and the feature-value calculation. 集団の更新を説明するための図である。It is a figure for demonstrating the update of a group. 集団の更新を説明するための図である。It is a figure for demonstrating the update of a group. 集団の更新を説明するための図である。It is a figure for demonstrating the update of a group. 更新後の集団に含まれる分類処理候補を示す図である。It is a figure which shows the classification process candidate contained in the group after an update. 元画像に対する画像処理演算および特徴量演算の結果を示す図である。It is a figure which shows the result of the image processing calculation with respect to an original image, and the feature-value calculation. 元画像に対する画像処理演算および特徴量演算の結果を示す図である。It is a figure which shows the result of the image processing calculation with respect to an original image, and the feature-value calculation. ディスプレイに表示されるウィンドウを示す図である。It is a figure which shows the window displayed on a display. コンピュータが対象画像を分類する動作の流れを示す図である。It is a figure which shows the flow of the operation | movement which a computer classifies | categorizes a target image. 画像処理演算に係るモジュールを抽象的に示す図である。It is a figure which abstractly shows the module which concerns on an image processing calculation.

図1は、本発明の一の実施の形態に係る分類処理生成装置を実現するコンピュータ1の構成を示す図である。コンピュータ1では、絵画等の画像を複数の画像グループのいずれかに分類するための分類処理が生成される。分類処理は、後述するように画像処理演算および特徴量演算を含むものであり、当該分類処理により分類対象の画像の分類が可能となる。   FIG. 1 is a diagram showing a configuration of a computer 1 that realizes a classification processing generation apparatus according to an embodiment of the present invention. The computer 1 generates a classification process for classifying an image such as a painting into any of a plurality of image groups. As will be described later, the classification process includes an image processing calculation and a feature amount calculation, and the classification process enables classification of images to be classified.

コンピュータ1は、各種演算処理を行うCPU11、基本プログラムを記憶するROM12および各種情報を記憶するRAM13をバスラインに接続した一般的なコンピュータシステムの構成となっている。バスラインにはさらに、情報記憶を行う固定ディスク15、各種情報の表示を行う表示部であるディスプレイ16、操作者からの入力を受け付けるキーボード17aおよびマウス17b、光ディスク、磁気ディスク、光磁気ディスク、フラッシュメモリ等のコンピュータ読み取り可能な記録媒体81から情報の読み取りを行ったり記録媒体81に情報の書き込みを行う読取/書込装置18、並びに、外部との通信を行う通信部19が、適宜、インターフェイス(I/F)を介する等して接続される。   The computer 1 has a general computer system configuration in which a CPU 11 that performs various arithmetic processes, a ROM 12 that stores basic programs, and a RAM 13 that stores various information are connected to a bus line. The bus line further includes a fixed disk 15 that stores information, a display 16 that is a display unit that displays various information, a keyboard 17a and a mouse 17b that accept input from an operator, an optical disk, a magnetic disk, a magneto-optical disk, and a flash. A reading / writing device 18 that reads information from or writes information to a computer-readable recording medium 81 such as a memory, and a communication unit 19 that communicates with the outside appropriately include an interface ( I / F) or the like.

コンピュータ1には、事前に読取/書込装置18を介して記録媒体81からプログラム810が読み出され、固定ディスク15に記憶される。そして、プログラム810がRAM13にコピーされるとともにCPU11がRAM13内のプログラムに従って演算処理を実行することにより(すなわち、コンピュータがプログラムを実行することにより)、コンピュータ1が、分類処理生成装置としての処理を行う。   The computer 1 reads the program 810 from the recording medium 81 in advance via the reading / writing device 18 and stores it in the fixed disk 15. Then, when the program 810 is copied to the RAM 13 and the CPU 11 executes arithmetic processing according to the program in the RAM 13 (that is, when the computer executes the program), the computer 1 performs processing as the classification processing generation device. Do.

図2は、CPU11がプログラム810に従って動作することにより、CPU11、ROM12、RAM13、固定ディスク15等が実現する機能構成を示すブロック図である。図2において、画像入力部21、評価部22、演算内容変更部23および表示制御部24がCPU11等により実現される機能である。なお、これらの機能は専用の電気的回路により実現されてもよく、部分的に電気的回路が用いられてもよい。   FIG. 2 is a block diagram illustrating a functional configuration realized by the CPU 11, the ROM 12, the RAM 13, the fixed disk 15, and the like when the CPU 11 operates according to the program 810. In FIG. 2, an image input unit 21, an evaluation unit 22, an operation content change unit 23, and a display control unit 24 are functions realized by the CPU 11 and the like. Note that these functions may be realized by a dedicated electric circuit, or an electric circuit may be partially used.

図3は、コンピュータ1が分類処理を生成する動作の流れを示す図である。まず、図2の評価部22では、所定の画像処理演算および特徴量演算を含む分類処理候補が準備される(ステップS11)。ここで、本実施の形態では、遺伝的アルゴリズム(genetic algorithm)により後述の画像の分類にて利用可能な分類処理が生成され、ステップS11の処理では、3個の分類処理候補が初期集団に含まれる遺伝子として準備される。遺伝子は、数1のように、任意の画像処理演算Pを複数回適用して、最後に特徴量演算Cを適用する処理の列Gとして表現される。 FIG. 3 is a diagram illustrating a flow of operations in which the computer 1 generates a classification process. First, the evaluation unit 22 of FIG. 2 prepares a classification process candidate including a predetermined image processing calculation and feature amount calculation (step S11). Here, in the present embodiment, a classification process that can be used for image classification, which will be described later, is generated by a genetic algorithm. In the process of step S11, three classification process candidates are included in the initial population. Prepared as a gene. A gene is expressed as a sequence G i of processing in which an arbitrary image processing operation P i is applied a plurality of times and a feature amount operation C i is applied last, as shown in Equation 1.

Figure 2013050837
Figure 2013050837

本実施の形態において用いられる画像処理演算は、表1の左列に示す「グレー値二値化」、「R成分値二値化」、「G成分値二値化」、「B成分値二値化」、「収縮」、「膨張」および「平滑化」である。「グレー値二値化」では、表1の右列における「二値化閾値Th」以上となるグレー値を有する画素に、新たな画素値255が付与され、残りの画素に画素値0が付与される。「R成分値二値化」、「G成分値二値化」および「B成分値二値化」は、それぞれR(赤)成分の画素値、G(緑)成分の画素値およびB(青)成分の画素値が閾値と比較される点を除き、「グレー値二値化」と同様である。「グレー値二値化」における「二値化閾値Th」は20であり、「R成分値二値化」、「G成分値二値化」および「B成分値二値化」における「二値化閾値Th」は50である。「収縮」、「膨張」および「平滑化」のそれぞれでは、表1の右列における「サイズSz」のフィルタを用いて当該処理が行われ、本実施の形態では「サイズSz」は5である。なお、「グレー値二値化」の画像処理演算では、IをR成分の画素値、IをG成分の画素値、IをB成分の画素値として、グレー値は(0.2989×I+0.5870×I+0.1140×I)にて求められる。 The image processing operations used in this embodiment are “gray value binarization”, “R component value binarization”, “G component value binarization”, “B component value binarization” shown in the left column of Table 1. “Value”, “shrink”, “expansion” and “smoothing”. In “gray value binarization”, a new pixel value 255 is assigned to a pixel having a gray value equal to or greater than “binarization threshold Th” in the right column of Table 1, and a pixel value 0 is assigned to the remaining pixels. Is done. “R component value binarization”, “G component value binarization” and “B component value binarization” are respectively the R (red) component pixel value, the G (green) component pixel value and the B (blue component). ) Same as “gray value binarization” except that the pixel value of the component is compared with the threshold value. The “binarization threshold Th” in “gray value binarization” is 20, and “binary” in “R component value binarization”, “G component value binarization”, and “B component value binarization” The threshold value Th ”is 50. In each of “shrinkage”, “expansion”, and “smoothing”, the processing is performed using the filter of “size Sz” in the right column of Table 1, and “size Sz” is 5 in the present embodiment. . In the image processing operation of the "gray value binarization", the I R pixel value of the R component, a pixel value of the I G G component, the I B as a pixel value of the B component, the gray value (0.2989 × determined by I R + 0.5870 × I G + 0.1140 × I B).

Figure 2013050837
Figure 2013050837

また、本実施の形態において用いられる特徴量演算は、表2の左列に示す「領域数」を求める演算、「領域の総面積」を求める演算、および、「円形領域数」を求める演算である。「領域数」、「領域の総面積」および「円形領域数」のそれぞれの演算では、表2の右列における「画素値閾値v」(本実施の形態では、255)以上となる画素値を有するとともに、互いに連続する画素の集合が1つの領域として取り扱われる。そして、「領域数」の演算では領域の個数が求められ、「領域の総面積」の演算では全ての領域の総面積が求められる。また、「円形領域数」の演算では、全ての領域のうち、真円度が、表2の右列における「真円度閾値w」(本実施の形態では、0.9)以上となる領域の個数が求められる。なお、領域面積閾値をさらに追加し、領域面積閾値以上の面積を有する領域のみを対象として、「領域数」、「領域の総面積」および「円形領域数」が求められてよい。   In addition, the feature amount calculation used in the present embodiment is an operation for obtaining “number of regions” shown in the left column of Table 2, an operation for obtaining “total area of regions”, and an operation for obtaining “number of circular regions”. is there. In each calculation of “number of regions”, “total area of regions”, and “number of circular regions”, a pixel value that is equal to or greater than “pixel value threshold v” (255 in the present embodiment) in the right column of Table 2 is used. A set of pixels that are continuous with each other is treated as one region. Then, the number of regions is obtained in the calculation of “number of regions”, and the total area of all regions is obtained in the calculation of “total area of regions”. Further, in the calculation of “the number of circular regions”, among all the regions, the circularity is equal to or more than “roundness threshold w” (0.9 in the present embodiment) in the right column of Table 2. Is required. In addition, a region area threshold value may be further added, and “region number”, “total area of region”, and “circular region number” may be obtained only for regions having an area equal to or larger than the region area threshold value.

Figure 2013050837
Figure 2013050837

以下の処理では、遺伝子が、画像処理演算Pを2回適用して、最後に特徴量演算Cを適用する処理の列Gとして表現される、すなわち、遺伝子が(G=Pi1×Pi2×C)にて表現されるものとする。また、説明の便宜上、1回目の画像処理演算(以下、「先行画像処理演算」という。)Pi1は「グレー値二値化」、「R成分値二値化」、「G成分値二値化」および「B成分値二値化」(以下、「二値化演算」と総称する。)のいずれかに制限され、2回目の画像処理演算(以下、「後続画像処理演算」という。)Pi2は「収縮」、「膨張」および「平滑化」(以下、「フィルタ演算」と総称する。)のいずれかに制限される。もちろん、各遺伝子が1つのまたは3以上の画像処理演算を含んでもよい。 In the following processing, a gene is expressed as a sequence G i of processing in which the image processing operation P is applied twice and the feature amount operation C is applied last, that is, the gene is (G i = P i1 × P i2 × C i ). Further, for convenience of explanation, the first image processing calculation (hereinafter referred to as “preceding image processing calculation”) P i1 is “gray value binarization”, “R component value binarization”, “G component value binary”. And “B component value binarization” (hereinafter collectively referred to as “binarization calculation”), and the second image processing calculation (hereinafter referred to as “subsequent image processing calculation”). P i2 is limited to any one of “shrinkage”, “expansion”, and “smoothing” (hereinafter collectively referred to as “filter operation”). Of course, each gene may contain one or more image processing operations.

具体的には、第1世代(初期世代)の集団に含まれる3個の遺伝子はそれぞれ(G=P11×P12×C)、(G=P21×P22×C)、(G=P31×P32×C)にて表現される。図4に示すように、遺伝子Gにおける先行画像処理演算P11は「グレー値二値化」であり、後続画像処理演算P12は「収縮」であり、特徴量演算Cは「円形領域数」の演算である。遺伝子Gにおける先行画像処理演算P21は「R成分値二値化」であり、後続画像処理演算P22は「膨張」であり、特徴量演算Cは「領域の総面積」の演算である。遺伝子Gにおける先行画像処理演算P31は「G成分値二値化」であり、後続画像処理演算P32は「平滑化」であり、特徴量演算Cは「領域数」の演算である。後述するように、必要に応じて集団(世代)を更新する処理が行われるため、上記遺伝子G、G、Gが、N回目(Nは1以上の整数)の更新後における集団を構成するものであってもよい。 Specifically, the three genes included in the first generation (early generation) population are (G 1 = P 11 × P 12 × C 1 ) and (G 2 = P 21 × P 22 × C 2 ), respectively. , (G 3 = P 31 × P 32 × C 3 ). As shown in FIG. 4, the preceding image processing operation P 11 in the gene G 1 is “gray value binarization”, the subsequent image processing operation P 12 is “shrinkage”, and the feature amount operation C 1 is “circular region”. It is the calculation of “number”. The preceding image processing operation P 21 in the gene G 2 is “R component value binarization”, the subsequent image processing operation P 22 is “expansion”, and the feature amount operation C 2 is an operation of “total area of region”. is there. The preceding image processing operation P 31 in the gene G 3 is “G component value binarization”, the subsequent image processing operation P 32 is “smoothing”, and the feature amount operation C 3 is an operation of “number of regions”. . As will be described later, since the process of updating the population (generation) is performed as necessary, the genes G 1 , G 2 , and G 3 represent the population after the Nth update (N is an integer of 1 or more). It may be configured.

一方、分類処理の生成では、複数の画像グループのそれぞれに属する複数の画像(以下、「元画像」という。)が作業者により主観的に選択されて準備される。本実施の形態における元画像は、各画素がR成分、G成分、B成分のそれぞれの画素値(本実施の形態では、0ないし255のいずれかの値)を有するカラー画像である。   On the other hand, in the generation of the classification process, a plurality of images (hereinafter referred to as “original images”) belonging to each of a plurality of image groups are subjectively selected and prepared by the operator. The original image in the present embodiment is a color image in which each pixel has respective pixel values of R component, G component, and B component (in this embodiment, any value from 0 to 255).

図5は、各画像グループに属する元画像を示す図である。図5に示すように元画像31,41は画像グループAに属し、元画像51,61は画像グループBに属する。元画像31は、4個のオブジェクト(図形)311〜314を含み、矩形のオブジェクト311,313はR成分の画素値が255であり、G成分およびB成分の画素値が共に0である画素(以下、単に「Rの画素」という。)の集合である。また、楕円形または円形のオブジェクト312,314はB成分の画素値が255であり、R成分およびG成分の画素値が共に0である画素(以下、単に「Bの画素」という。)の集合である。図5では、同じ色のオブジェクトに同じハッチングを付している(後述の図6ないし図8、図13、並びに、図14において同様)。   FIG. 5 is a diagram showing original images belonging to each image group. As shown in FIG. 5, the original images 31 and 41 belong to the image group A, and the original images 51 and 61 belong to the image group B. The original image 31 includes four objects (graphics) 311 to 314, and the rectangular objects 311 and 313 have R component pixel values of 255, and G component and B component pixel values are both zero ( Hereinafter, it is simply a set of “R pixels”. The elliptical or circular objects 312 and 314 have a B component pixel value of 255, and a set of pixels in which the R component and G component pixel values are both 0 (hereinafter, simply referred to as “B pixel”). It is. In FIG. 5, the same hatching is given to the object of the same color (the same applies to FIGS. 6 to 8, FIG. 13, and FIG. 14 described later).

元画像41は、5個のオブジェクト411〜415を含み、矩形のオブジェクト411,413,414はRの画素の集合であり、楕円形または円形のオブジェクト412,415はBの画素の集合である。元画像51は、4個のオブジェクト511〜514を含み、楕円形または円形のオブジェクト511,512はRの画素の集合であり、矩形のオブジェクト513,514はBの画素の集合である。元画像61は、5個のオブジェクト611〜615を含み、楕円形または円形のオブジェクト611,612,615はRの画素の集合であり、矩形のオブジェクト613,614はBの画素の集合である。元画像31,41,51,61における背景領域(すなわち、オブジェクト以外の領域)は、R成分、G成分およびB成分の画素値が共に10である画素の集合である。   The original image 41 includes five objects 411 to 415, rectangular objects 411, 413, and 414 are a set of R pixels, and elliptical or circular objects 412 and 415 are a set of B pixels. The original image 51 includes four objects 511 to 514, and elliptical or circular objects 511 and 512 are a set of R pixels, and rectangular objects 513 and 514 are a set of B pixels. The original image 61 includes five objects 611 to 615. Ellipse or circular objects 611, 612, and 615 are a set of R pixels, and rectangular objects 613 and 614 are a set of B pixels. The background area (that is, the area other than the object) in the original images 31, 41, 51, 61 is a set of pixels in which the pixel values of the R component, the G component, and the B component are all 10.

図5の元画像31,41,51,61では、元画像31のオブジェクト311は、元画像41のオブジェクト411、元画像51のオブジェクト513および元画像61のオブジェクト614と同じ形状および大きさであり(ただし、オブジェクト513のみ向きが相違する。)、面積が300となる。元画像31のオブジェクト312は、元画像41のオブジェクト412、元画像51のオブジェクト511、並びに、元画像61のオブジェクト611,612と同じ形状および大きさであり、面積が600となる。元画像31のオブジェクト313は、元画像41のオブジェクト413,414、元画像51のオブジェクト514および元画像61のオブジェクト613と同じ形状および大きさであり(ただし、オブジェクト414のみ向きが相違する。)、面積が600となる。元画像31のオブジェクト314は、元画像41のオブジェクト415、元画像51のオブジェクト512および元画像61のオブジェクト615と同じ形状および大きさであり、面積が300となる。このように、元画像31,41,51,61は4種類の形状のオブジェクトにて構成され、各画像においてオブジェクトの数や配置、角度、色が異なる。なお、Rの画素にて構成されるオブジェクトのグレー値は76であり、Bの画素にて構成されるオブジェクトのグレー値は29であり、背景領域のグレー値は10である。   In the original images 31, 41, 51, 61 of FIG. 5, the object 311 of the original image 31 has the same shape and size as the object 411 of the original image 41, the object 513 of the original image 51, and the object 614 of the original image 61. (However, only the object 513 has a different direction.) The area is 300. The object 312 of the original image 31 has the same shape and size as the object 412 of the original image 41, the object 511 of the original image 51, and the objects 611 and 612 of the original image 61, and has an area of 600. The object 313 of the original image 31 has the same shape and size as the objects 413 and 414 of the original image 41, the object 514 of the original image 51, and the object 613 of the original image 61 (however, only the object 414 has a different direction). , The area is 600. The object 314 of the original image 31 has the same shape and size as the object 415 of the original image 41, the object 512 of the original image 51, and the object 615 of the original image 61, and has an area of 300. As described above, the original images 31, 41, 51, 61 are composed of four types of objects, and the number, arrangement, angle, and color of the objects are different in each image. Note that the gray value of an object composed of R pixels is 76, the gray value of an object composed of B pixels is 29, and the gray value of the background region is 10.

上記元画像31,41,51,61は、画像入力部21により評価部22へと入力され、画像処理演算部221では、各元画像31,41,51,61に対して現在の集団の各遺伝子に含まれる先行画像処理演算および後続画像処理演算が順に行われる(ステップS12)。具体的には、(P11×P12×C)にて表現される遺伝子Gについては、先行画像処理演算P11である「グレー値二値化」が、図6の最も左側の列(上段に「元画像」と記す列)に示す元画像31,41,51,61のそれぞれに対して行われ、図6の左から2番目の列に示す中間画像32a,42a,52a,62aが生成される。また、後続画像処理演算P12である「収縮」が、中間画像32a,42a,52a,62aのそれぞれに対して行われ、図6の左から3番目の列に示す処理済み画像33a,43a,53a,63aが生成される。 The original images 31, 41, 51, 61 are input to the evaluation unit 22 by the image input unit 21, and the image processing calculation unit 221 applies each of the current group to each original image 31, 41, 51, 61. The preceding image processing calculation and the subsequent image processing calculation included in the gene are performed in order (step S12). Specifically, for the gene G 1 represented by (P 11 × P 12 × C 1 ), the “grey value binarization” that is the preceding image processing operation P 11 is the leftmost column in FIG. The intermediate images 32a, 42a, 52a, and 62a shown in the second column from the left in FIG. 6 are performed for each of the original images 31, 41, 51, and 61 shown in (the column labeled “original image” in the upper row). Is generated. Also, a subsequent image processing operations P 12 "contraction" is, the intermediate image 32a, 42a, 52a, made to each 62a, processed image 33a shown in the third column from the left in FIG. 6, 43a, 53a and 63a are generated.

また、(P21×P22×C)にて表現される遺伝子Gについては、先行画像処理演算P21である「R成分値二値化」が、図7の最も左側の列に示す元画像31,41,51,61のそれぞれに対して行われ、図7の左から2番目の列に示す中間画像32b,42b,52b,62bが生成される。また、後続画像処理演算P22である「膨張」が、中間画像32b,42b,52b,62bのそれぞれに対して行われ、図7の左から3番目の列に示す処理済み画像33b,43b,53b,63bが生成される。 For the gene G 2 expressed by (P 21 × P 22 × C 2 ), “R component value binarization” which is the preceding image processing operation P 21 is shown in the leftmost column of FIG. This is performed for each of the original images 31, 41, 51, 61, and intermediate images 32b, 42b, 52b, 62b shown in the second column from the left in FIG. 7 are generated. Also, a subsequent image processing operations P 22 "expansion" is, the intermediate image 32 b, 42b, 52 b, made to each 62b, the processed image 33b shown in the third column from the left in FIG. 7, 43 b, 53b and 63b are generated.

さらに、(P31×P32×C)にて表現される遺伝子Gについては、先行画像処理演算P31である「G成分値二値化」が、図8の最も左側の列に示す元画像31,41,51,61のそれぞれに対して行われ、図8の左から2番目の列に示す中間画像32c,42c,52c,62cが生成される。また、後続画像処理演算P32である「平滑化」が、中間画像32c,42c,52c,62cのそれぞれに対して行われ、図8の左から3番目の列に示す処理済み画像33c,43c,53c,63cが生成される。 Further, for the gene G 3 expressed by (P 31 × P 32 × C 3 ), “G component value binarization” which is the preceding image processing operation P 31 is shown in the leftmost column of FIG. This is performed for each of the original images 31, 41, 51, 61, and intermediate images 32c, 42c, 52c, 62c shown in the second column from the left in FIG. 8 are generated. Further, “smoothing” which is the subsequent image processing calculation P 32 is performed on each of the intermediate images 32c, 42c, 52c, and 62c, and processed images 33c and 43c shown in the third column from the left in FIG. , 53c, 63c are generated.

続いて、特徴量演算部222では、集団の各遺伝子に含まれる特徴量演算が、当該遺伝子に対応する処理済み画像に対して行われる(ステップS13)。遺伝子Gについては、特徴量演算Cである「円形領域数」の演算が図6の左から3番目の列に示す処理済み画像33a,43a,53a,63aのそれぞれに対して行われ、図6の最も右側の列に示すように、処理済み画像33a,43a,53a,63aにおける「円形領域数」が元画像31,41,51,61に対する特徴量Fとして求められる。 Subsequently, in the feature amount calculation unit 222, the feature amount calculation included in each gene of the group is performed on the processed image corresponding to the gene (step S13). For the gene G 1 , the calculation of “number of circular areas”, which is the feature amount calculation C 1 , is performed on each of the processed images 33 a, 43 a, 53 a, 63 a shown in the third column from the left in FIG. As shown in the rightmost column in FIG. 6, the “number of circular areas” in the processed images 33 a, 43 a, 53 a, 63 a is obtained as the feature amount F for the original images 31, 41, 51, 61.

遺伝子Gについては、特徴量演算Cである「領域の総面積」の演算が図7の左から3番目の列に示す処理済み画像33b,43b,53b,63bのそれぞれに対して行われ、図7の最も右側の列に示すように、処理済み画像33b,43b,53b,63bにおける「領域の総面積」が元画像31,41,51,61に対する特徴量Fとして求められる。遺伝子Gについては、特徴量演算Cである「領域数」の演算が図8の左から3番目の列に示す処理済み画像33c,43c,53c,63cのそれぞれに対して行われ、図8の最も右側の列に示すように、処理済み画像33c,43c,53c,63cにおける「領域数」が元画像31,41,51,61に対する特徴量Fとして求められる。 For the gene G 2 , the calculation of “total area of region”, which is the feature amount calculation C 2 , is performed on each of the processed images 33 b, 43 b, 53 b, 63 b shown in the third column from the left in FIG. As shown in the rightmost column of FIG. 7, the “total area of the region” in the processed images 33 b, 43 b, 53 b, 63 b is obtained as the feature amount F for the original images 31, 41, 51, 61. For the gene G 3 , the “number of regions” that is the feature amount calculation C 3 is performed on each of the processed images 33 c, 43 c, 53 c, and 63 c shown in the third column from the left in FIG. As shown in the rightmost column of FIG. 8, the “number of regions” in the processed images 33 c, 43 c, 53 c, and 63 c is obtained as the feature amount F for the original images 31, 41, 51, and 61.

以上のようにして、各遺伝子(分類処理候補)において複数の元画像31,41,51,61に対する複数の特徴量が求められると、有効度演算部223では、各遺伝子について、特徴量を従属変数、画像グループを因子として、一元配置分散分析における有意確率(p値)が表3のように求められる(ステップS14)。   As described above, when a plurality of feature amounts for the plurality of original images 31, 41, 51, 61 are obtained for each gene (classification processing candidate), the effectiveness calculation unit 223 depends on the feature amount for each gene. Using variables and image groups as factors, the significance probability (p value) in the one-way analysis of variance is obtained as shown in Table 3 (step S14).

Figure 2013050837
Figure 2013050837

表3に示すように、集団における遺伝子Gに対する有意確率は0.423であり、遺伝子Gに対する有意確率は1.000であり、遺伝子Gに対する有意確率は計算不能(有意確率の計算式における分母が0となる。)である。ここで、有意確率が小さいほど、画像グループAにおける特徴量の平均値と画像グループBにおける特徴量の平均値との間に有意差があると考えられる。したがって、複数の元画像31,41,51,61のそれぞれを、複数の画像グループA、Bのいずれかに分類する際における複数の特徴量の有効度(または、評価値)、すなわち、画像グループA、Bへの分類における各遺伝子の有効度を、グループ分けに有用なほど高い値となる指標として定義すると、例えば有意確率の逆数等を有効度として用いることができる。このように、ステップS14の処理は、各遺伝子において求められる複数の特徴量の有効度を求める処理である。 As shown in Table 3, significant probability for gene G 1 in the population is 0.423, significant probability for gene G 2 is a 1.000, significant probability for gene G 3 are calculated impossible (the significance probability formula The denominator at 0 is 0). Here, it is considered that there is a significant difference between the average value of the feature values in the image group A and the average value of the feature values in the image group B as the significance probability is smaller. Therefore, the effectiveness (or evaluation value) of the plurality of feature amounts when each of the plurality of original images 31, 41, 51, 61 is classified into any of the plurality of image groups A and B, that is, the image group. If the effectiveness of each gene in the classification into A and B is defined as an index that becomes high enough to be useful for grouping, for example, the reciprocal of the significance probability can be used as the effectiveness. Thus, the process of step S14 is a process for obtaining the effectiveness of a plurality of feature amounts obtained for each gene.

演算内容変更部23では、3個の遺伝子に対する有意確率のうち最小の有意確率を集団評価値として、集団評価値が所定の評価閾値0.05以下であるか否かが確認される。表3の例では、集団評価値が0.423であり、評価閾値よりも大きいため、集団の更新(すなわち、分類処理候補の更新)が行われる(ステップS15)。ステップS15の処理は、有効度が所定の閾値以上である場合を終了条件として、終了条件を満足するか否かを確認する処理であると捉えられる。   In the calculation content changing unit 23, it is confirmed whether or not the group evaluation value is equal to or less than a predetermined evaluation threshold value 0.05 with the minimum significance probability among the significance probabilities for the three genes as the group evaluation value. In the example of Table 3, since the group evaluation value is 0.423, which is larger than the evaluation threshold, the group is updated (that is, the classification process candidate is updated) (step S15). The process in step S15 is regarded as a process for confirming whether or not the end condition is satisfied, with the case where the effectiveness is equal to or greater than a predetermined threshold as the end condition.

集団の更新では、まず、図4に示す現在の集団に含まれる遺伝子G、遺伝子Gおよび遺伝子Gのうち有意確率が最大となるものが集団から削除される(すなわち、遺伝子の淘汰を行う。)(ステップS16)。ここでは、有意確率が計算不能となる遺伝子は有意確率が最大とみなされ、遺伝子Gが集団から削除される。続いて、図9に示すように、有意確率が最小となる遺伝子Gが、遺伝子G1’として複製される(すなわち、遺伝子の増殖を行う。)(ステップS17)。遺伝子G1’は(P11×P12×C)にて表現される。 In updating the group, first, the gene G 1 , the gene G 2, and the gene G 3 included in the current group shown in FIG. 4 are deleted from the group (that is, the gene trap is deleted). (Step S16). Here, the gene significance probability becomes impossible calculation is considered significant probability maximum, gene G 3 is removed from the population. Subsequently, as shown in FIG. 9, the gene G 1 having the minimum significance is replicated as the gene G 1 ′ (that is, the gene is propagated) (step S17). The gene G 1 ′ is expressed by (P 11 × P 12 × C 1 ).

遺伝子G1’が複製されると、図10に示すように、有意確率が2番目に小さい遺伝子Gにおける後続画像処理演算P22および特徴量演算Cと、遺伝子G1’における後続画像処理演算P12および特徴量演算Cとが交換される(すなわち、遺伝子の交叉を行う。)(ステップS18)。これにより、新たな遺伝子Gおよび遺伝子Gが生成される。また、交叉により生成された遺伝子Gおよび遺伝子Gの先行画像処理演算、後続画像処理演算および特徴量演算から1つの演算がランダム(不規則)に選択され、同種の他の演算に変更される(すなわち、遺伝子の突然変異を行う。)(ステップS19)。すなわち、先行画像処理演算が選択された場合には他の二値化演算に変更され、後続画像処理演算が選択された場合には他のフィルタ演算に変更され、特徴量演算が選択された場合には他の種類の特徴量を求める演算に変更される。ここでは、図11中にアンダーラインを付して示す遺伝子Gにおける特徴量演算Cが「領域の総面積」から「領域数」に変更されている。なお、遺伝子Gにおいて突然変異が行われてよい。 When the gene G 1 ′ is duplicated, as shown in FIG. 10, the subsequent image processing operation P 22 and the feature amount operation C 2 in the gene G 2 having the second lowest significance probability, and the subsequent image processing in the gene G 1 ′ . calculating P 12 and the feature and calculating C 1 is exchanged (i.e., performs the crossover gene.) (step S18). Thus, a new gene G 4 and gene G 5 are generated. In addition, one operation is randomly selected from the preceding image processing operation, the subsequent image processing operation, and the feature amount operation of the gene G 4 and the gene G 5 generated by the crossover, and is changed to another operation of the same type. (That is, gene mutation is performed) (step S19). In other words, when the preceding image processing operation is selected, it is changed to another binarization operation, when the subsequent image processing operation is selected, it is changed to another filter operation, and the feature amount operation is selected. Is changed to an operation for obtaining another type of feature amount. Here, the changed feature quantity calculating C 2 in gene G 4 shown underlined in Figure 11 is from the "total area of the region" to "the number of regions". It may take place mutations in gene G 1.

以上の処理により集団の更新が完了し、(P11×P12×C)にて表現される遺伝子G、(P41×P42×C)にて表現される遺伝子G、(P51×P52×C)にて表現される遺伝子Gが、分類処理候補として更新後の集団((N+1)回目の更新後の集団と捉えられてよい。)に含まれる。図12に示すように、遺伝子Gにおける先行画像処理演算P11は「グレー値二値化」であり、後続画像処理演算P12は「収縮」であり、特徴量演算Cは「円形領域数」の演算である。遺伝子Gにおける先行画像処理演算P41は「グレー値二値化」であり、後続画像処理演算P42は「膨張」であり、特徴量演算Cは「領域数」の演算である。遺伝子Gにおける先行画像処理演算P51は「R成分値二値化」であり、後続画像処理演算P52は「収縮」であり、特徴量演算Cは「円形領域数」の演算である。 The update of the population is completed by the above processing, and the gene G 1 expressed by (P 11 × P 12 × C 1 ), the gene G 4 expressed by (P 41 × P 42 × C 4 ), ( The gene G 5 expressed by P 51 × P 52 × C 5 ) is included in the updated group (may be regarded as the (N + 1) th updated group) as a classification processing candidate. As shown in FIG. 12, the preceding image processing calculation P 11 in the gene G 1 is “gray value binarization”, the subsequent image processing calculation P 12 is “shrinkage”, and the feature amount calculation C 1 is “circular region”. It is the calculation of “number”. The preceding image processing operation P 41 in the gene G 4 is “gray value binarization”, the subsequent image processing operation P 42 is “expansion”, and the feature amount operation C 4 is an operation of “number of regions”. The preceding image processing calculation P 51 in the gene G 5 is “R component value binarization”, the subsequent image processing calculation P 52 is “shrinkage”, and the feature amount calculation C 5 is a calculation of “number of circular regions”. .

画像処理演算部221では、各元画像31,41,51,61に対して更新後の集団の各遺伝子に含まれる先行画像処理演算および後続画像処理演算が順に行われる(ステップS12)。具体的には、(P41×P42×C)にて表現される遺伝子Gについては、先行画像処理演算P41である「グレー値二値化」が、図13の最も左側の列に示す元画像31,41,51,61のそれぞれに対して行われ、図13の左から2番目の列に示す中間画像32d,42d,52d,62dが生成される。また、後続画像処理演算P42である「膨張」が、中間画像32d,42d,52d,62dのそれぞれに対して行われ、図13の左から3番目の列に示す処理済み画像33d,43d,53d,63dが生成される。 In the image processing calculation unit 221, a preceding image processing calculation and a subsequent image processing calculation included in each gene of the updated group are sequentially performed on each original image 31, 41, 51, 61 (step S12). Specifically, for the gene G 4 represented by (P 41 × P 42 × C 4 ), the “grey value binarization” that is the preceding image processing operation P 41 is the leftmost column in FIG. The intermediate images 32d, 42d, 52d, and 62d shown in the second column from the left in FIG. 13 are generated for the original images 31, 41, 51, and 61 shown in FIG. Also, a subsequent image processing operations P 42 "expansion" is, the intermediate image 32d, 42d, 52 d, made to each 62d, processed image 33d shown in the third column from the left in FIG. 13, 43d, 53d and 63d are generated.

(P51×P52×C)にて表現される遺伝子Gについては、先行画像処理演算P51である「R成分値二値化」が、図14の最も左側の列に示す元画像31,41,51,61のそれぞれに対して行われ、図14の左から2番目の列に示す中間画像32e,42e,52e,62eが生成される。また、後続画像処理演算P52である「収縮」が、中間画像32e,42e,52e,62eのそれぞれに対して行われ、図14の左から3番目の列に示す処理済み画像33e,43e,53e,63eが生成される。(P11×P12×C)にて表現される遺伝子Gについては、更新前の集団におけるステップS12の処理と同様に、図6の左から3番目の列に示す処理済み画像33a,43a,53a,63aが生成される。 For the gene G 5 represented by (P 51 × P 52 × C 5 ), the “R component value binarization” that is the preceding image processing operation P 51 is the original image shown in the leftmost column of FIG. The intermediate images 32e, 42e, 52e, 62e shown in the second column from the left in FIG. 14 are generated for each of 31, 41, 51, 61. Further, “shrinkage” that is the subsequent image processing operation P 52 is performed on each of the intermediate images 32e, 42e, 52e, and 62e, and processed images 33e, 43e, and 3e shown in the third column from the left in FIG. 53e and 63e are generated. For the gene G 1 represented by (P 11 × P 12 × C 1 ), the processed image 33a, shown in the third column from the left in FIG. 43a, 53a, and 63a are generated.

続いて、特徴量演算部222では、集団の各遺伝子に含まれる特徴量演算が対応する処理済み画像に対して行われる(ステップS13)。遺伝子Gについては、特徴量演算Cである「領域数」の演算が図13の左から3番目の列に示す処理済み画像33d,43d,53d,63dのそれぞれに対して行われ、図13の最も右側の列に示すように、処理済み画像33d,43d,53d,63dにおける「領域数」が各元画像31,41,51,61に対する特徴量Fとして求められる。 Subsequently, in the feature amount calculation unit 222, the feature amount calculation included in each gene of the group is performed on the corresponding processed image (step S13). For the gene G 4 , the “number of regions” that is the feature amount calculation C 4 is performed on each of the processed images 33 d, 43 d, 53 d, and 63 d shown in the third column from the left in FIG. As shown in the rightmost column of FIG. 13, the “number of regions” in the processed images 33 d, 43 d, 53 d, and 63 d is obtained as the feature amount F for each of the original images 31, 41, 51, and 61.

遺伝子Gについては、特徴量演算Cである「円形領域数」の演算が図14の左から3番目の列に示す処理済み画像33e,43e,53e,63eのそれぞれに対して行われ、図14の最も右側の列に示すように、処理済み画像33e,43e,53e,63eにおける「円形領域数」が各元画像31,41,51,61に対する特徴量Fとして求められる。遺伝子Gについては、更新前の集団におけるステップS13の処理と同様に、図6の最も右側の列に示す特徴量Fが求められる。有効度演算部223では、一元配置分散分析における有意確率(p値)が表4のように求められる(ステップS14)。 For the gene G 5 , the “number of circular areas”, which is the feature amount calculation C 5 , is performed on each of the processed images 33 e, 43 e, 53 e, 63 e shown in the third column from the left in FIG. As shown in the rightmost column of FIG. 14, the “number of circular areas” in the processed images 33 e, 43 e, 53 e, 63 e is obtained as the feature amount F for each of the original images 31, 41, 51, 61. The gene G 1, similarly to the processing in step S13 in a population before the update, the feature amount F shown in the rightmost column of FIG. 6 is determined. In the effectiveness calculation unit 223, the significance probability (p value) in the one-way analysis of variance is obtained as shown in Table 4 (step S14).

Figure 2013050837
Figure 2013050837

表4に示すように、集団における遺伝子Gに対する有意確率は0.423であり、遺伝子Gに対する有意確率は0.038であり、遺伝子Gに対する有意確率は0.038である。演算内容変更部23では、3個の遺伝子に対する有意確率の最小値である集団評価値が所定の評価閾値0.05以下であり、終了条件を満たすことが確認されると(ステップS15)、分類処理候補である遺伝子G、遺伝子Gおよび遺伝子Gのうち、有意確率が評価閾値0.05以下となる遺伝子Gおよび遺伝子Gのそれぞれが、画像グループAおよび画像グループBへの画像の分類において利用可能な分類処理として特定される。以上のようにして、作業者が主観的に設定した画像グループAと画像グループBとの相違が、分類処理を用いて自動的に定量化される。各分類処理における演算の内容は表示制御部24に出力され、ディスプレイ16に表示される(ステップS20)。また、各分類処理における演算の内容は図示省略の記憶部にも記憶される。 As shown in Table 4, significant probability for gene G 1 in the population is 0.423, significant probability for gene G 4 are a 0.038, significant probability for gene G 5 is 0.038. When it is confirmed that the group evaluation value, which is the minimum value of significance for the three genes, is equal to or lower than the predetermined evaluation threshold value 0.05 and satisfies the end condition (step S15), the calculation content changing unit 23 performs classification. gene G 1 is a process candidates, among genes G 4 and gene G 5, each gene G 4 and gene G 5 a significant probability is an evaluation threshold 0.05 or less, the image of the image group a and the image group B Are identified as classification processes that can be used. As described above, the difference between the image group A and the image group B subjectively set by the operator is automatically quantified using the classification process. The contents of the calculation in each classification process are output to the display control unit 24 and displayed on the display 16 (step S20). Further, the contents of the calculation in each classification process are also stored in a storage unit (not shown).

図15は、ディスプレイ16に表示されるウィンドウ7を示す図である。図15に示すように、ウィンドウ7内の右上の分類処理選択部71では複数の分類処理のうちの1つの分類処理が選択可能であり、図15では遺伝子Gが「分類処理05」として選択されている。また、分類処理選択部71の下方における分類処理内容表示領域72では、選択された分類処理(以下、「選択分類処理」という。)における処理の列、すなわち、先行画像処理演算、後続画像処理演算および特徴量演算の内容(各種閾値などのパラメータ値を含む。)がテキストにて判りやすく表示される。 FIG. 15 is a diagram showing the window 7 displayed on the display 16. As shown in FIG. 15 selects one classification process of the top right of the classification process selecting portion 71 Multiple classification processing within the window 7 is selectable gene G 5 in FIG. 15 as "classification process 05" Has been. In the classification process content display area 72 below the classification process selection unit 71, a sequence of processes in the selected classification process (hereinafter referred to as “selected classification process”), that is, a preceding image processing calculation and a subsequent image processing calculation. The contents of the feature amount calculation (including parameter values such as various threshold values) are displayed in an easily understandable text.

分類処理内容表示領域72の左側には、2つのグループ表示領域73が縦方向に並んで設けられ、各グループ表示領域73の左上には、表示グループ選択部731が設けられる。各グループ表示領域73には、元画像表示領域732、中間画像表示領域733、処理済み画像表示領域734および特徴量表示領域735が設定される。表示グループ選択部731にて一の画像グループが選択されると、当該画像グループに属する元画像が元画像表示領域732に表示され、選択分類処理の先行画像処理演算により当該元画像から生成される中間画像が中間画像表示領域733に表示される。また、選択分類処理の後続画像処理演算により当該中間画像から生成される処理済み画像が処理済み画像表示領域734に表示され、選択分類処理の特徴量演算により処理済み画像から取得される特徴量が特徴量表示領域735に表示される。このように、ウィンドウ7では、複数の画像グループにそれぞれ対応する複数の元画像、複数の中間画像、複数の処理済み画像および複数の特徴量が同時に表示可能である。実際には、最初に表示されるウィンドウ7では、複数のグループ表示領域73が互いに異なる画像グループに割り当てられる。なお、中間画像および処理済み画像の下には、直前の画像処理演算の名称も表示される。   Two group display areas 73 are arranged in the vertical direction on the left side of the classification processing content display area 72, and a display group selection unit 731 is provided on the upper left of each group display area 73. In each group display area 73, an original image display area 732, an intermediate image display area 733, a processed image display area 734, and a feature amount display area 735 are set. When one image group is selected by the display group selection unit 731, the original image belonging to the image group is displayed in the original image display area 732, and is generated from the original image by the preceding image processing operation of the selection classification process. The intermediate image is displayed in the intermediate image display area 733. Further, a processed image generated from the intermediate image by the subsequent image processing calculation of the selection classification process is displayed in the processed image display area 734, and a feature amount acquired from the processed image by the feature amount calculation of the selection classification process is obtained. It is displayed in the feature amount display area 735. As described above, the window 7 can simultaneously display a plurality of original images, a plurality of intermediate images, a plurality of processed images, and a plurality of feature amounts respectively corresponding to a plurality of image groups. Actually, in the window 7 displayed first, a plurality of group display areas 73 are assigned to different image groups. Note that the name of the immediately preceding image processing operation is also displayed below the intermediate image and the processed image.

また、図15のウィンドウ7では、元画像表示領域732内をスクロールすることにより、表示グループ選択部731にて選択された画像グループに属する他の元画像を表示することも可能である。この場合、当該元画像に対応する中間画像、処理済み画像および特徴量が中間画像表示領域733、処理済み画像表示領域734および特徴量表示領域735にそれぞれ表示される。ウィンドウ7では、同一グループに属する複数の元画像が同時に表示されてよい(中間画像、処理済み画像および特徴量において同様)。また、各分類処理における有意確率(または、有効度)が表示されてもよく、上記処理例のように複数の分類処理が取得される場合に、有意確率に基づく分類処理の順位が表示されてもよい。   Further, in the window 7 of FIG. 15, it is possible to display other original images belonging to the image group selected by the display group selection unit 731 by scrolling in the original image display area 732. In this case, the intermediate image, processed image, and feature amount corresponding to the original image are displayed in the intermediate image display region 733, the processed image display region 734, and the feature amount display region 735, respectively. In the window 7, a plurality of original images belonging to the same group may be displayed at the same time (the same applies to intermediate images, processed images, and feature values). In addition, the significance probability (or effectiveness) in each classification process may be displayed, and when a plurality of classification processes are acquired as in the above processing example, the rank of the classification process based on the significance probability is displayed. Also good.

図15のウィンドウ7を参照することにより、作業者は有効な分類処理を定量的に捉えることができる。例えば、先行画像処理演算P41が「グレー値二値化」であり、後続画像処理演算P42が「膨張」であり、特徴量演算Cが「領域数」の演算である遺伝子Gの分類処理は、オブジェクトが密集して存在するか否かを判断基準として分類するためのものであると捉えられる。また、先行画像処理演算P51が「R成分値二値化」であり、後続画像処理演算P52が「収縮」であり、特徴量演算Cが「円形領域数」の演算である遺伝子Gの分類処理は、赤い円形オブジェクトが多いか否かを判断基準として分類するためのものであると捉えられる。なお、本処理例では、上記のように内容が解釈可能な分類処理が生成されるが、解釈が困難な分類処理が生成されてよく、このような分類処理も後述の画像の分類に用いられてよい。 By referring to the window 7 in FIG. 15, the worker can quantitatively grasp the effective classification process. For example, a preceding image processing operation P 41 is "gray value binarization", the subsequent image processing operations P 42 is "expansion", the feature calculation C 4 of the gene G 4 is an operation of the "region number" The classification process is considered to be for classifying whether or not objects exist densely as a criterion. In addition, the preceding image processing calculation P 51 is “R component value binarization”, the subsequent image processing calculation P 52 is “shrinkage”, and the feature amount calculation C 5 is a calculation of “number of circular regions”. The classification process No. 5 is considered to classify whether there are many red circular objects as a criterion. In this processing example, a classification process capable of interpreting the contents is generated as described above, but a classification process that is difficult to interpret may be generated, and such a classification process is also used for image classification described later. It's okay.

以上の処理により、画像を画像グループAと画像グループBとに分類するための分類処理が生成されると、コンピュータ1では、属すべき画像グループが未知である画像(以下、「対象画像」という。)を当該分類処理を用いて分類する動作が行われる(すなわち、コンピュータ1により画像分類装置が実現される。)。   When the classification process for classifying the images into the image group A and the image group B is generated by the above processing, the computer 1 has an image in which the image group to which it belongs is unknown (hereinafter referred to as “target image”). ) Is performed using the classification process (that is, the image classification device is realized by the computer 1).

図16は、コンピュータ1が対象画像を分類する動作の流れを示す図である。図2の評価部22では、各対象画像に対して一の分類処理に含まれる先行画像処理演算を行って中間画像が生成され、中間画像に対して後続画像処理演算を行って処理済み画像が生成される(ステップS21)。続いて、処理済み画像に対して当該分類処理に含まれる特徴量演算を行うことにより特徴量が求められる(ステップS22)。そして、当該特徴量を所定の閾値と比較することにより、対象画像が画像グループAおよび画像グループBのいずれに属するかが判定される(ステップS23)。これにより、対象画像を精度よく、かつ、高速にグループ分けすることができる。なお、図3の処理により分類処理が生成された後、作業者により分類処理の内容が修正され、修正後の分類処理により、図16の対象画像の分類が行われてもよい。なお、ステップS23の判定は、特徴量を用いて公知の判別分析や事前入手して画像の当該特徴量で学習する分類手法等を用いてもよい。   FIG. 16 is a diagram illustrating a flow of operations in which the computer 1 classifies target images. In the evaluation unit 22 of FIG. 2, an intermediate image is generated by performing a preceding image processing operation included in one classification process for each target image, and a processed image is obtained by performing a subsequent image processing operation on the intermediate image. It is generated (step S21). Subsequently, the feature amount is obtained by performing the feature amount calculation included in the classification process on the processed image (step S22). Then, by comparing the feature amount with a predetermined threshold value, it is determined whether the target image belongs to image group A or image group B (step S23). As a result, the target images can be grouped with high accuracy and at high speed. Note that after the classification process is generated by the process of FIG. 3, the contents of the classification process may be corrected by the worker, and the target image of FIG. 16 may be classified by the corrected classification process. Note that the determination in step S23 may use a known discriminant analysis using a feature amount or a classification method that is obtained in advance and learns with the feature amount of an image.

以上に説明したように、コンピュータ1が実現する分類処理生成装置では、評価部22において、複数の画像グループのそれぞれに属する各元画像に対して、分類処理候補における画像処理演算および特徴量演算を順に行うことにより複数の元画像の複数の特徴量が求められ、画像グループへの分類における当該複数の特徴量の有効度が求められる。また、演算内容変更部23では、分類処理候補における画像処理演算および特徴量演算を対象として演算の内容を変更しつつ評価部22にて有効度を求める処理が、有効度が閾値以上となるまで繰り返され、有効度が閾値以上となる際の分類処理候補が利用可能な分類処理として取得される。これにより、有効な分類処理を容易に生成することができる。そして、有効な分類処理における画像処理演算および特徴量演算の双方の内容が表示制御部24によりディスプレイ16に表示される。このように、有効な分類処理における画像処理演算および特徴量演算の内容を表示することにより、作業者が分類処理の内容を確実に把握することができ、分類処理の解釈や修正等を容易に行うことができる。   As described above, in the classification processing generation apparatus realized by the computer 1, the evaluation unit 22 performs the image processing calculation and the feature amount calculation on the classification processing candidate for each original image belonging to each of the plurality of image groups. By performing in order, a plurality of feature amounts of a plurality of original images are obtained, and the effectiveness of the plurality of feature amounts in classification into image groups is obtained. Further, in the calculation content changing unit 23, the processing for obtaining the validity level by the evaluation unit 22 while changing the content of the calculation for the image processing calculation and the feature amount calculation in the classification processing candidate is performed until the effectiveness level is equal to or higher than the threshold value. Repeatedly, a classification process candidate when the effectiveness is equal to or greater than the threshold value is acquired as a usable classification process. Thereby, an effective classification process can be easily generated. Then, the contents of both the image processing calculation and the feature amount calculation in the effective classification process are displayed on the display 16 by the display control unit 24. In this way, by displaying the contents of the image processing calculation and the feature amount calculation in the effective classification process, the operator can surely understand the contents of the classification process and easily interpret and correct the classification process. It can be carried out.

また、各元画像と、当該元画像に対して分類処理における画像処理演算を行って生成された処理済み画像とがディスプレイ16に同時に表示されることにより、作業者が、元画像および処理済み画像を参照して分類処理の内容を直感的に把握することができ、分類処理の解釈等を容易に行うことができる。さらに、複数の画像グループにそれぞれ対応するとともに、分類処理における画像処理演算により生成された複数の処理済み画像がディスプレイ16に同時に表示される。これにより、作業者が複数の画像グループにそれぞれ対応する複数の処理済み画像を容易に比較することができ、画像グループ間における処理済み画像の相違を容易に把握して、分類処理の解釈等を効率よく行うことができる。   In addition, each original image and a processed image generated by performing image processing calculation in the classification process on the original image are displayed on the display 16 at the same time, so that the operator can select the original image and the processed image. The contents of the classification process can be intuitively understood with reference to, and the classification process can be easily interpreted. Further, a plurality of processed images generated by image processing calculation in the classification process are displayed on the display 16 at the same time, respectively corresponding to the plurality of image groups. As a result, the operator can easily compare a plurality of processed images respectively corresponding to a plurality of image groups, easily understand the difference of processed images between image groups, and interpret classification processing, etc. It can be done efficiently.

分類処理生成装置では、評価部22において複数の分類処理候補が準備され、複数の分類処理候補にそれぞれ対応する複数の有効度がおよそ並行して求められる。そして、複数の分類処理候補に含まれる分類処理候補における演算の内容を変更しつつ評価部22にて複数の有効度を求める処理が、終了条件を満たすまで繰り返される。これにより、有効な分類処理を効率よく生成することができる。   In the classification process generation device, a plurality of classification process candidates are prepared in the evaluation unit 22, and a plurality of effectiveness levels respectively corresponding to the plurality of classification process candidates are obtained approximately in parallel. And the process which calculates | requires several effectiveness in the evaluation part 22, changing the content of the calculation in the classification process candidate contained in a some classification process candidate is repeated until completion | finish conditions are satisfy | filled. Thereby, an effective classification process can be generated efficiently.

以上、本発明の実施の形態について説明してきたが、本発明は上記実施の形態に限定されるものではなく、様々な変形が可能である。   Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various modifications can be made.

上記実施の形態では、画像処理演算が、二値化演算である先行画像処理演算とフィルタ演算である後続画像処理演算とに区別されるが、画像処理演算は、必ずしも先行画像処理演算と後続画像処理演算とに区別される必要はない。例えば、図17に示すように、各画像処理演算が、3個の入力プレーン911のうちの特定の入力プレーン911に対して処理を行い、3個の出力プレーン912のうちの特定の出力プレーン912に演算結果を出力するモジュールとして実現される場合、様々な画像処理演算を自在に組み合わせることが可能となる。なお、最初の画像処理演算における3個の入力プレーン911には、元画像におけるR成分の画像、G成分の画像およびB成分の画像がそれぞれ入力されることが好ましい。既述のように、各分類処理候補は、1つまたは3以上の画像処理演算を含んでよい。   In the above embodiment, the image processing operation is classified into the preceding image processing operation that is a binarization operation and the subsequent image processing operation that is a filter operation. However, the image processing operation is not necessarily the preceding image processing operation and the subsequent image. There is no need to distinguish between processing operations. For example, as shown in FIG. 17, each image processing operation processes a specific input plane 911 among the three input planes 911, and a specific output plane 912 among the three output planes 912. When it is realized as a module for outputting the calculation result, various image processing calculations can be freely combined. Note that it is preferable that an R component image, a G component image, and a B component image in the original image are respectively input to the three input planes 911 in the first image processing calculation. As described above, each classification processing candidate may include one or more image processing operations.

画像処理演算として、他のフィルタ処理やエッジ検出処理等が含められてよい。また、画像を周波数領域に変換(FFT変換)して周波数画像を生成する処理、周波数画像において特定の周波数成分をカットする処理、および、周波数画像を逆FFT変換する処理の組合せ等が、1つの画像処理演算として準備されてよく、これらの処理のそれぞれが1つの画像処理演算として準備されてもよい。   Other filter processing, edge detection processing, and the like may be included as the image processing calculation. In addition, a combination of a process for converting an image into a frequency domain (FFT conversion) to generate a frequency image, a process for cutting a specific frequency component in the frequency image, and a process for performing inverse FFT conversion on the frequency image is one. An image processing operation may be prepared, and each of these processes may be prepared as one image processing operation.

特徴量演算として、モーメント値を求める演算や、周波数画像における特定周波数の強度を求める演算(この場合に、特徴量演算がFFT変換を含んでいてもよい。)等が含められてよい。   The feature amount calculation may include a calculation for obtaining a moment value, a calculation for determining the intensity of a specific frequency in the frequency image (in this case, the feature amount calculation may include FFT conversion), and the like.

分類処理生成装置では、画像を3以上の画像グループのいずれかに分類するための分類処理が生成されてもよい。この場合、図3のステップS14にて有効度を求める際に、例えば、各分類処理候補(遺伝子)に関して一元配置分散分析における多重比較が行われ、3以上の画像グループのうちの2つの画像グループの全ての組合せにおける有意確率が取得され、これらの有意確率のうちの最大のものが、有効度に相当する注目有意確率として取り扱われる。そして、複数の分類処理候補の注目有意確率のうち最小の有意確率を集団評価値として、集団評価値が所定の評価閾値以下となるまで集団の更新(ステップS16〜S19)および有意確率の算出(ステップS12〜S14)が繰り返される(ステップS15)。これにより、画像を3以上の画像グループのいずれかに分類するための分類処理が生成される。   In the classification process generation device, a classification process for classifying an image into any of three or more image groups may be generated. In this case, when determining the effectiveness in step S14 of FIG. 3, for example, multiple comparisons in one-way analysis of variance are performed for each classification processing candidate (gene), and two image groups out of three or more image groups Significance probabilities in all the combinations are acquired, and the largest of these significance probabilities is treated as the attention significance probability corresponding to the effectiveness. Then, using the minimum significant probability among the attention significant probabilities of the plurality of classification processing candidates as a group evaluation value, update of the group (steps S16 to S19) and calculation of the significance probability until the group evaluation value falls below a predetermined evaluation threshold ( Steps S12 to S14) are repeated (step S15). Thereby, a classification process for classifying an image into any of three or more image groups is generated.

また、分類処理候補の有効度は様々な手法にて求めることが可能である。例えば、各分類処理候補においてT種類(Tは1以上の整数)の特徴量演算が含められ、特表2008−524675号公報(特許文献4)の手法を応用する場合、特許文献4の段落0044に記載のbを利用し、各分類処理候補におけるT種類の特徴量演算C、C、・・・、C、・・・、C(pは1以上T以下の任意の整数)のそれぞれ(ただし、各種類の特徴量演算は、画像処理演算を元画像に施すことにより得られる同じ処理済み画像に対して行われる。)により取得される元画像kに対する特徴量Fk1、Fk2、・・・、Fkp、・・・、FkTを用いて、各特徴量演算Cによる特徴量の評価値E(有効度)は数2にて求められる。 In addition, the effectiveness of the classification process candidate can be obtained by various methods. For example, in each classification processing candidate, T types (T is an integer equal to or greater than 1) of feature amount calculation are included, and when applying the technique of JP-T-2008-524675 (Patent Document 4), paragraph 0044 of Patent Document 4 , T types of feature amount computations C 1 , C 2 ,..., C p ,..., C T (p is an arbitrary integer from 1 to T) in each classification processing candidate each (however, each type of feature amount calculation is. to be performed on the same processed image obtained by performing image processing operations on the original image) feature amount with respect to the original image k is acquired by F k1, F k2, ···, F kp, ··· , with F kT, evaluation value E p (effectiveness) of the feature amount by the feature calculation C p is determined by the number 2.

Figure 2013050837
Figure 2013050837

ここでは、T種類の特徴量の評価値のうち最大のものが、注目評価値として取り扱われる。そして、複数の分類処理候補の注目評価値のうち最大のものが所定の閾値以上となるまで集団の更新(ステップS16〜S19)および評価値の算出(ステップS12〜S14)が繰り返され(ステップS15)、当該閾値以上の評価値が得られる特徴量の特徴量演算Cと、その際の画像処理演算とを組み合わせたものが、利用可能な分類処理として用いられる。また、特表2008−129657号公報(特許文献5)の段落0054における式1にて表されるE(Feature)を上記評価値(有効度)として用いることも可能である。 Here, the largest evaluation value of the T types of feature values is handled as the attention evaluation value. Then, the update of the group (steps S16 to S19) and the calculation of the evaluation value (steps S12 to S14) are repeated (step S15) until the maximum of the attention evaluation values of the plurality of classification processing candidates reaches a predetermined threshold value or more. ), A combination of the feature amount calculation C p of the feature amount that provides an evaluation value equal to or higher than the threshold and the image processing calculation at that time is used as an available classification process. Further, E (Feature) represented by Formula 1 in paragraph 0054 of JP-T-2008-129657 (Patent Document 5) can also be used as the evaluation value (effectiveness).

上記実施の形態では、集団の更新(図3:ステップS16〜S19)における遺伝子の淘汰、増殖、交叉および突然変異により2つの分類処理候補の内容が変更されるが、集団の更新において1つの分類処理候補、または、3以上の分類処理候補の内容が変更されてもよい。分類処理生成装置では、複数の分類処理候補の少なくとも1つにおける演算の内容を変更しつつ、評価部22において複数の分類処理候補にそれぞれ対応する複数の有効度をおよそ並行して求めることにより、画像の分類にて利用可能な分類処理(すなわち、有効度が高い分類処理)を効率よく取得することが可能となる。   In the above embodiment, the contents of the two classification processing candidates are changed by gene selection, multiplication, crossover, and mutation in the group update (FIG. 3: steps S16 to S19). The contents of a process candidate or three or more classification process candidates may be changed. In the classification processing generation device, by changing the content of the calculation in at least one of the plurality of classification processing candidates, the evaluation unit 22 obtains a plurality of degrees of validity corresponding to the plurality of classification processing candidates approximately in parallel, It is possible to efficiently acquire a classification process (that is, a classification process with high effectiveness) that can be used for image classification.

また、画像の分類にて利用可能な分類処理は、遺伝的アルゴリズム以外の手法により取得されてもよい。例えば、演算の手順は同じであるが、閾値等のパラメータの値が相違する複数の画像処理演算が準備され、複数の画像処理演算のうちの1つの画像処理演算と、一の特徴量演算との組合せが1つの分類処理候補として準備される(図3:ステップS11)。続いて、分類処理候補を用いた有効度の算出が、分類処理候補における画像処理演算を、当該複数の画像処理演算のうちの他の1つの画像処理演算に変更しつつ繰り返される(ステップS15,S12〜S14)。画像処理演算と特徴量演算との全ての組合せに対して有効度が求められて終了条件が満たされると(ステップS15)、有効度が閾値以上となる場合の分類処理候補を利用可能な分類処理として、分類処理の内容がディスプレイ16に表示される(ステップS20)。これにより、作業者が分類処理の解釈や修正等を容易に行うことができる。なお、特徴量演算は変更されないため、分類処理における画像処理演算の内容のみが表示されてもよく、この場合も、有効な分類処理の内容が実質的に表示されていると捉えることができる。   Further, the classification process that can be used for image classification may be acquired by a technique other than the genetic algorithm. For example, a plurality of image processing calculations having the same calculation procedure but different parameter values such as threshold values are prepared, and one image processing calculation among the plurality of image processing calculations, one feature value calculation, Are prepared as one classification processing candidate (FIG. 3: step S11). Subsequently, the calculation of the effectiveness using the classification processing candidate is repeated while changing the image processing calculation in the classification processing candidate to another one of the plurality of image processing calculations (step S15, S12 to S14). If the effectiveness is obtained for all combinations of the image processing calculation and the feature value calculation and the end condition is satisfied (step S15), the classification processing that can use the classification processing candidate when the effectiveness is equal to or greater than the threshold value The contents of the classification process are displayed on the display 16 (step S20). Thereby, the operator can easily interpret and correct the classification process. Since the feature amount calculation is not changed, only the contents of the image processing calculation in the classification process may be displayed. In this case, it can be understood that the contents of the effective classification process are substantially displayed.

また、上記のように、分類処理候補において画像処理演算および特徴量演算の一方のみを変更しつつ有効度が求められてよく、分類処理生成装置では、分類処理候補における画像処理演算および特徴量演算の少なくとも一方の演算の内容を変更しつつ有効度を求める処理を、終了条件を満たすまで繰り返すことにより、有効な分類処理を生成することが実現される。そして、終了条件を満たした際に、有効度が閾値以上となる場合の分類処理候補を利用可能な分類処理として、分類処理における当該少なくとも一方の演算の内容をディスプレイ16に表示する、すなわち、有効な分類処理の内容を(実質的に)表示することにより、作業者が分類処理の解釈や修正等を容易に行うことができる。   Further, as described above, the effectiveness may be obtained while changing only one of the image processing calculation and the feature amount calculation in the classification processing candidate. In the classification processing generation device, the image processing calculation and the feature amount calculation in the classification processing candidate are performed. It is possible to generate an effective classification process by repeating the process of obtaining the effectiveness while changing the content of at least one of the operations until the end condition is satisfied. Then, when the end condition is satisfied, the content of at least one operation in the classification process is displayed on the display 16 as a classification process that can use the classification process candidate when the effectiveness is equal to or greater than the threshold, that is, the effective By displaying (substantially) the contents of the correct classification process, the operator can easily interpret and correct the classification process.

一方、より有効な分類処理を容易に生成するという観点では、分類処理候補における画像処理演算および特徴量演算の双方を対象として演算の内容を変更しつつ有効度を求める処理を、当該有効度が閾値以上となるまで繰り返し、有効度が閾値以上となる際の分類処理候補を利用可能な分類処理として取得することが好ましい。   On the other hand, from the viewpoint of easily generating a more effective classification process, a process for obtaining the effectiveness while changing the content of the calculation for both the image processing calculation and the feature value calculation in the classification process candidate is performed. It is preferable to repeat the process until the threshold value is equal to or greater than the threshold value, and to acquire the classification process candidate when the effectiveness is equal to or greater than the threshold value as an available classification process.

図3のステップS15では、様々な終了条件を用いることが可能であり、例えば、ステップS16〜S19,S12〜S14の繰返し回数が所定回数に到達した場合に、終了条件を満たすと判定されてよい。また、直前の処理にて求められた集団評価値と、現在の処理にて求められた集団評価値との差が所定値以下となる場合に、または、当該差が所定値以下となる状態が一定回数連続して繰り返される場合に、終了条件を満たすと判定されてよい。   In step S15 in FIG. 3, various end conditions can be used. For example, when the number of repetitions of steps S16 to S19 and S12 to S14 reaches a predetermined number, it may be determined that the end condition is satisfied. . Further, when the difference between the group evaluation value obtained in the immediately preceding process and the group evaluation value obtained in the current process is equal to or less than a predetermined value, or the state where the difference is equal to or less than the predetermined value. It may be determined that the end condition is satisfied when it is repeated continuously for a certain number of times.

各分類処理候補に関して、1つの元画像に対して複数の中間画像が生成される場合には、中間画像表示領域733内をスクロールすることにより、全ての中間画像が表示可能であることが好ましい。   When a plurality of intermediate images are generated for one original image for each classification processing candidate, it is preferable that all intermediate images can be displayed by scrolling in the intermediate image display area 733.

上記分類処理生成装置は、絵画等の美術作品を示す画像以外に、半導体基板やガラス基板上に形成されるパターンの欠陥を示す画像、あるいは、医療の場にて撮像される人体の各種部位を示す画像など、様々な画像を複数の画像グループのいずれかに分類するための分類処理の生成に用いられてよい。また、可視光による画像以外に、X線やテラヘルツ波等による画像が用いられてよく、この場合、撮像される対象物における材料等の相違も反映した分類が可能となる。   In addition to images showing artworks such as paintings, the classification processing generation device can display images showing defects in patterns formed on semiconductor substrates and glass substrates, or various parts of the human body imaged in medical settings. It may be used to generate a classification process for classifying various images, such as images shown, into any of a plurality of image groups. In addition to an image using visible light, an image using X-rays, terahertz waves, or the like may be used. In this case, classification that reflects differences in materials and the like in an object to be imaged is possible.

上記実施の形態および各変形例における構成は、相互に矛盾しない限り適宜組み合わされてよい。   The configurations in the above-described embodiments and modifications may be combined as appropriate as long as they do not contradict each other.

1 コンピュータ
16 ディスプレイ
22 評価部
23 演算内容変更部
24 表示制御部
31,41,51,61 元画像
33a〜33e,43a〜43e,53a〜53e,63a〜63e 処理済み画像
72 分類処理内容表示領域
73 グループ表示領域
732 元画像表示領域
734 処理済み画像表示領域
S11〜S20 ステップ
DESCRIPTION OF SYMBOLS 1 Computer 16 Display 22 Evaluation part 23 Calculation content change part 24 Display control part 31,41,51,61 Original image 33a-33e, 43a-43e, 53a-53e, 63a-63e Processed image 72 Classification process content display area 73 Group display area 732 Original image display area 734 Processed image display area S11 to S20 Steps

Claims (10)

画像を複数の画像グループのいずれかに分類するための分類処理を生成する分類処理生成装置であって、
所定の画像処理演算および特徴量演算を含む分類処理候補が準備され、前記分類処理候補を用いて、複数の画像グループのそれぞれに属する各元画像に対して前記画像処理演算を行って処理済み画像を生成し、前記処理済み画像に対して前記特徴量演算を行うことにより、複数の元画像の複数の特徴量を求め、前記複数の元画像のそれぞれを前記複数の画像グループのいずれかに分類する際における前記複数の特徴量の有効度を求める評価部と、
前記分類処理候補における前記画像処理演算および前記特徴量演算の少なくとも一方の演算の内容を変更しつつ前記評価部にて前記有効度を求める処理を、終了条件を満たすまで繰り返す演算内容変更部と、
前記終了条件を満たした際に、前記有効度が閾値以上となる場合の前記分類処理候補を利用可能な分類処理として、前記分類処理における前記少なくとも一方の演算の内容を表示部に表示する表示制御部と、
を備えることを特徴とする分類処理生成装置。
A classification process generation device that generates a classification process for classifying an image into one of a plurality of image groups,
Classification processing candidates including predetermined image processing calculation and feature amount calculation are prepared, and using the classification processing candidates, the image processing calculation is performed on each original image belonging to each of a plurality of image groups, and processed images And calculating the feature amount on the processed image to obtain a plurality of feature amounts of the plurality of original images, and classifying each of the plurality of original images into one of the plurality of image groups. An evaluation unit for determining the effectiveness of the plurality of feature amounts in performing,
A calculation content changing unit that repeats the process of obtaining the effectiveness in the evaluation unit while changing the content of at least one of the image processing calculation and the feature value calculation in the classification processing candidate until an end condition is satisfied;
Display control for displaying the content of the at least one operation in the classification process on a display unit as a classification process that can use the classification process candidate when the effectiveness is equal to or greater than a threshold when the termination condition is satisfied And
A classification processing generation device comprising:
請求項1に記載の分類処理生成装置であって、
前記表示制御部が、前記分類処理における前記画像処理演算および前記特徴量演算の双方の内容を前記表示部に表示することを特徴とする分類処理生成装置。
The classification processing generation apparatus according to claim 1,
The classification processing generation apparatus, wherein the display control unit displays contents of both the image processing calculation and the feature amount calculation in the classification processing on the display unit.
請求項1または2に記載の分類処理生成装置であって、
前記表示制御部が、前記各元画像と、前記各元画像に対して前記分類処理における前記画像処理演算を行って生成された前記処理済み画像とを前記表示部に同時に表示することを特徴とする分類処理生成装置。
The classification process generation device according to claim 1 or 2,
The display control unit simultaneously displays each original image and the processed image generated by performing the image processing calculation in the classification process on each original image on the display unit. Classification processing generation device to perform.
請求項1または2に記載の分類処理生成装置であって、
前記表示制御部が、前記複数の画像グループにそれぞれ対応するとともに前記分類処理における前記画像処理演算により生成された複数の処理済み画像を前記表示部に同時に表示することを特徴とする分類処理生成装置。
The classification process generation device according to claim 1 or 2,
The classification processing generation apparatus, wherein the display control unit simultaneously displays a plurality of processed images corresponding to the plurality of image groups and generated by the image processing calculation in the classification processing on the display unit. .
請求項1ないし4のいずれかに記載の分類処理生成装置であって、
前記評価部において、複数の分類処理候補が準備され、
前記評価部が、前記複数の分類処理候補にそれぞれ対応する複数の有効度を求め、
前記演算内容変更部が、前記複数の分類処理候補の少なくとも1つにおける前記少なくとも一方の演算の内容を変更しつつ前記評価部にて前記複数の有効度を求める処理を、前記終了条件を満たすまで繰り返すことを特徴とする分類処理生成装置。
A classification processing generation apparatus according to any one of claims 1 to 4,
In the evaluation unit, a plurality of classification processing candidates are prepared,
The evaluation unit obtains a plurality of effectiveness levels corresponding to the plurality of classification processing candidates,
The calculation content changing unit changes the content of the at least one calculation in at least one of the plurality of classification processing candidates while obtaining the plurality of validity levels in the evaluation unit until the end condition is satisfied. A classification processing generation device characterized by repetition.
画像を複数の画像グループのいずれかに分類するための分類処理を生成する分類処理生成方法であって、
a)所定の画像処理演算および特徴量演算を含む分類処理候補を準備する工程と、
b)複数の画像グループのそれぞれに属する各元画像に対して前記画像処理演算を行って処理済み画像を生成する工程と、
c)前記処理済み画像に対して前記特徴量演算を行うことにより、複数の元画像の複数の特徴量を求める工程と、
d)前記複数の元画像のそれぞれを前記複数の画像グループのいずれかに分類する際における前記複数の特徴量の有効度を求める工程と、
e)前記分類処理候補における前記画像処理演算および前記特徴量演算の少なくとも一方の演算の内容を変更しつつ前記b)ないしd)工程を、終了条件を満たすまで繰り返す工程と、
f)前記有効度が閾値以上となる場合の前記分類処理候補を利用可能な分類処理として、前記分類処理における前記少なくとも一方の演算の内容を表示部に表示する工程と、
を備えることを特徴とする分類処理生成方法。
A classification process generation method for generating a classification process for classifying an image into one of a plurality of image groups,
a) preparing a classification processing candidate including predetermined image processing calculation and feature amount calculation;
b) performing the image processing operation on each original image belonging to each of a plurality of image groups to generate a processed image;
c) obtaining a plurality of feature quantities of a plurality of original images by performing the feature quantity computation on the processed image;
d) determining the effectiveness of the plurality of feature amounts when classifying each of the plurality of original images into any of the plurality of image groups;
e) repeating the steps b) to d) until the end condition is satisfied while changing the content of at least one of the image processing calculation and the feature amount calculation in the classification processing candidate;
f) a step of displaying the content of the at least one calculation in the classification process on a display unit as a classification process that can use the classification process candidate when the effectiveness is equal to or higher than a threshold;
A classification processing generation method characterized by comprising:
請求項6に記載の分類処理生成方法であって、
前記f)工程において、前記分類処理における前記画像処理演算および前記特徴量演算の双方の内容が前記表示部に表示されることを特徴とする分類処理生成方法。
The classification processing generation method according to claim 6,
In the step f), the contents of both the image processing calculation and the feature amount calculation in the classification process are displayed on the display unit.
請求項6または7に記載の分類処理生成方法であって、
前記f)工程において、前記各元画像と、前記各元画像に対して前記分類処理における前記画像処理演算を行って生成された前記処理済み画像とが前記表示部に同時に表示されることを特徴とする分類処理生成方法。
The classification processing generation method according to claim 6 or 7,
In the step f), each original image and the processed image generated by performing the image processing operation in the classification process on each original image are simultaneously displayed on the display unit. Classification processing generation method.
請求項6または7に記載の分類処理生成方法であって、
前記f)工程において、前記複数の画像グループにそれぞれ対応するとともに前記分類処理における前記画像処理演算により生成された複数の処理済み画像が前記表示部に同時に表示されることを特徴とする分類処理生成方法。
The classification processing generation method according to claim 6 or 7,
In the step f), a plurality of processed images corresponding to the plurality of image groups and generated by the image processing calculation in the classification processing are simultaneously displayed on the display unit. Method.
請求項6ないし9のいずれかに記載の分類処理生成方法であって、
前記a)工程において、複数の分類処理候補が準備され、
前記b)ないしd)工程により、前記複数の分類処理候補にそれぞれ対応する複数の有効度が求められ、
前記e)工程において、前記複数の分類処理候補の少なくとも1つにおける前記少なくとも一方の演算の内容を変更しつつ前記b)ないしd)工程が、前記終了条件を満たすまで繰り返されることを特徴とする分類処理生成方法。
A classification processing generation method according to any one of claims 6 to 9,
In the step a), a plurality of classification processing candidates are prepared,
Through the steps b) to d), a plurality of effectiveness levels respectively corresponding to the plurality of classification processing candidates are obtained,
In the step e), the steps b) to d) are repeated until the end condition is satisfied while changing the content of the at least one calculation in at least one of the plurality of classification processing candidates. Classification processing generation method.
JP2011188178A 2011-08-31 2011-08-31 Classification processing generation device and classification processing generation method Pending JP2013050837A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011188178A JP2013050837A (en) 2011-08-31 2011-08-31 Classification processing generation device and classification processing generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011188178A JP2013050837A (en) 2011-08-31 2011-08-31 Classification processing generation device and classification processing generation method

Publications (1)

Publication Number Publication Date
JP2013050837A true JP2013050837A (en) 2013-03-14

Family

ID=48012832

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011188178A Pending JP2013050837A (en) 2011-08-31 2011-08-31 Classification processing generation device and classification processing generation method

Country Status (1)

Country Link
JP (1) JP2013050837A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020038637A (en) * 2018-09-03 2020-03-12 東洋製罐グループホールディングス株式会社 Image processing system and image processing program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004038744A (en) * 2002-07-05 2004-02-05 Nippon Telegr & Teleph Corp <Ntt> Image recognition algorithm generation method, image recognition algorithm generation device, image recognition algorithm generation program, and recording medium recorded with image recognition algorithm generation program
JP2009037592A (en) * 2007-07-12 2009-02-19 Ricoh Co Ltd Image processing apparatus, image processing method and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004038744A (en) * 2002-07-05 2004-02-05 Nippon Telegr & Teleph Corp <Ntt> Image recognition algorithm generation method, image recognition algorithm generation device, image recognition algorithm generation program, and recording medium recorded with image recognition algorithm generation program
JP2009037592A (en) * 2007-07-12 2009-02-19 Ricoh Co Ltd Image processing apparatus, image processing method and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020038637A (en) * 2018-09-03 2020-03-12 東洋製罐グループホールディングス株式会社 Image processing system and image processing program
JP7314711B2 (en) 2018-09-03 2023-07-26 東洋製罐グループホールディングス株式会社 Image processing system and image processing program

Similar Documents

Publication Publication Date Title
Gurumoorthy et al. Efficient data representation by selecting prototypes with importance weights
Emmert-Streib et al. Fifty years of graph matching, network alignment and network comparison
JP6641195B2 (en) Optimization method, optimization device, program, and image processing device
JP2016062544A (en) Information processing device, program, information processing method
US20090297044A1 (en) Image processing apparatus, method of image processing, processing apparatus, method of processing, and recording medium
Rajala et al. Detecting multivariate interactions in spatial point patterns with Gibbs models and variable selection
Robin et al. PanelomiX: a threshold-based algorithm to create panels of biomarkers
JP5873764B2 (en) Defect image presentation method
Fuda et al. Artificial intelligence in clinical multiparameter flow cytometry and mass cytometry–key tools and progress
Bhuiyan et al. Hajj pilgrimage video analytics using CNN
JP2017026482A (en) Data processor, determination tree generation method, identification device, and program
Bacardit et al. Hard data analytics problems make for better data analysis algorithms: bioinformatics as an example
JP2013050837A (en) Classification processing generation device and classification processing generation method
US20230086327A1 (en) Systems and methods of interactive visual graph query for program workflow analysis
Mahmoud et al. Early diagnosis and personalised treatment focusing on synthetic data modelling: Novel visual learning approach in healthcare
US20220414936A1 (en) Multimodal color variations using learned color distributions
KR20230170679A (en) Efficient voxelization for deep learning
Černý et al. Statistical evaluation of character support reveals the instability of higher-level dinosaur phylogeny
JP2014006613A (en) Neighborhood search method and similar image search method
Zolkepli et al. Visualizing fuzzy relationship in bibliographic big data using hybrid approach combining fuzzy c-means and Newman-Girvan algorithm
Pokhrel A comparison of AutoML hyperparameter optimization tools for tabular data
New et al. Dynamic visualization of coexpression in systems genetics data
US11734864B2 (en) Histogram bin interval approximation
Walid et al. Comparative Analysis of Transfer Learning Strategies for Automated Identification of Bone Marrow Cell Morphologies
Anandababu et al. Structural similarity measurement with metaheuristic algorithm for content based image retrieval

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140625

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150326

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150413

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150903