JP2011100459A - Learning type image classification device and method, and recording medium imaging device that stores processing program for the same - Google Patents

Learning type image classification device and method, and recording medium imaging device that stores processing program for the same Download PDF

Info

Publication number
JP2011100459A
JP2011100459A JP2010252127A JP2010252127A JP2011100459A JP 2011100459 A JP2011100459 A JP 2011100459A JP 2010252127 A JP2010252127 A JP 2010252127A JP 2010252127 A JP2010252127 A JP 2010252127A JP 2011100459 A JP2011100459 A JP 2011100459A
Authority
JP
Japan
Prior art keywords
image
learning
region
classification
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010252127A
Other languages
Japanese (ja)
Inventor
Fumiyuki Shiratani
文行 白谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2010252127A priority Critical patent/JP2011100459A/en
Publication of JP2011100459A publication Critical patent/JP2011100459A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a learning type image classification device and method, for reducing manual workload in clipping a target area in learning, or designating the target area, and to provide a recording medium for storing a processing program for the same. <P>SOLUTION: The learning type image classification device clips an area from a learning image according to an area clipping mode indicating how to clip a partial area of the learning image, adds a teacher signal, creates a characteristic vector from a characteristic amount of the clipped area, learns a classification parameter for classifying the character vector, determines a classification category of an area of an input image by use of the classification parameter and a characteristic amount extracted from the input image, and adds a category name thereof to the input image. The area clipping mode is a semi-automatic area clipping mode to clip an area obtained by integrating areas selected by a person from a plurality of areas of the automatically divided learning image. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、学習型画像分類装置及び方法並びにその処理プログラムを記録した記録媒体に係り、特に、教師付き学習を利用して画像を自動分類したり、画像検索用のキーワードを自動付与したりする際に、教師用データを効率良く取得する学習型画像分類装置及び方法並びにその処理プログラムを記録した記録媒体に関する。   The present invention relates to a learning type image classification apparatus and method and a recording medium on which the processing program is recorded, and in particular, automatically classifies images using supervised learning and automatically assigns keywords for image search. In particular, the present invention relates to a learning type image classification apparatus and method for efficiently acquiring teacher data and a recording medium on which the processing program is recorded.

データベース中やコンピュータ中あるいは、ネットワーク上に存在する無数の画像を人手で分類整理したり、検索用キーワードを人手で付けたりする作業は、多大な労力を必要とする。
そこで、これらの作業負担を軽減するために、画像の自動分類装置や画像検索用のキーワード自動付与装置が提案されている。
The work of manually sorting and organizing innumerable images in a database, a computer, or on a network, and adding search keywords manually requires a great deal of labor.
Therefore, in order to reduce these work loads, an automatic image classification device and an automatic keyword assignment device for image search have been proposed.

画像を自動的に分類する装置の例としては、特開平11−328422号公報(特許文献1)、また、画像検索用のキーワードを自動的に付与する装置としては、特開平8−249349号公報(特許文献2)、特開平10−49542号公報(特許文献3)、特開平10−55366号公報(特許文献4)等がある。   An example of an apparatus for automatically classifying images is disclosed in JP-A-11-328422 (Patent Document 1), and an apparatus for automatically assigning keywords for image search is disclosed in JP-A-8-249349. (Patent Document 2), JP-A-10-49542 (Patent Document 3), JP-A-10-55366 (Patent Document 4), and the like.

まず、特開平11−328422号公報においては、画像からサンプリングして抽出した特徴量を利用して、例えば、自然画像と人工画像とに自動分類する装置が提案されている。
この装置は、画像全体に一様に分布する特徴によって分類可能な画像については、うまく動作する可能性があるが、画像中に局所的に存在するオブジェクトを分類するには、不充分である。
First, Japanese Patent Application Laid-Open No. 11-328422 proposes an apparatus that automatically classifies a natural image and an artificial image, for example, using feature amounts sampled and extracted from the image.
This device may work well for images that can be classified by features that are uniformly distributed throughout the image, but is not sufficient to classify objects that are present locally in the image.

すなわち、オブジェクトを分類するためには、オブジェクト領域のみを切り出す工夫が必要である。
特開平8−249349号公報、特開平10−49542号公報、特開平10−55366号公報には、そのような工夫が導入されている。
特開平10−49542号公報においては、まず、画像中の色もしくは輝度の変化を利用して領域分割を行い、分割された各領域の特徴を抽出後、領域間の位相関係を解析し、辞書を参照することによって、画像に検索用キーワードを自動付与することが提案されている。
That is, in order to classify objects, it is necessary to devise a method for cutting out only the object area.
JP-A-8-249349, JP-A-10-49542, and JP-A-10-55366 introduce such a device.
In Japanese Patent Application Laid-Open No. 10-49542, first, a region is divided using a change in color or luminance in an image, a feature of each divided region is extracted, a phase relationship between the regions is analyzed, and a dictionary is used. It has been proposed to automatically assign a search keyword to an image by referring to.

また、特開平8−249349号公報、特開平10−55366号公報においては、画像中の色もしくは輝度の変化を利用して領域分割を行い、分割された領域を統合処理して上位階層の概念へ状態遷移させ、より高度な概念をキーワードとして画像に自動付与する装置を提案している。   In Japanese Patent Application Laid-Open Nos. 8-249349 and 10-55366, a region is divided by using a change in color or luminance in an image, and the divided regions are integrated to perform a concept of higher layers. We have proposed a device that automatically transitions the image to an image using a more advanced concept as a keyword.

これらの装置は、画像中のオブジェクトの特徴に基づき、キーワードを自動付与することを狙っており、その処理過程において、青空は画像の上部に位置し、青い色をしている、といった知識辞書を利用している。
従って、知識辞書にないような分類をしたい場合に、分類用パラメータの値をどうやって設定すれば良いかという問題が残る。
These devices aim to automatically assign keywords based on the characteristics of the objects in the image, and in the process, a knowledge dictionary that the blue sky is located at the top of the image and has a blue color is created. We are using.
Accordingly, there remains a problem of how to set the value of the parameter for classification when it is desired to perform classification that is not in the knowledge dictionary.

そのような状況下においても対処できるものとして、教師付き学習機能を備えた分類装置があり、この例として、特開平11−34450号公報(特許文献5)がある。
以下、しばらく、この特開平11−34450号公報による従来例について少し詳しく説明する。
What can be dealt with under such circumstances is a classification device having a supervised learning function, and an example of this is JP-A-11-34450 (Patent Document 5).
Hereinafter, the conventional example according to Japanese Patent Application Laid-Open No. 11-34450 will be described in detail for a while.

図6は、このような従来の教師付き学習機能を備えた分類装置の一例を示すブロック図である。
図6において、参照符号1001は、例えば、ウェハ画像を入力して表示する画像入力・表示部、参照符号1002は、表示された画像をオペレータが監視し、欠陥画像を選択する欠陥画像選択部、参照符号1003は、基準画像からの差異を演算する基準画像との比較演算部、参照符号1004は、基準画像との比較演算部1003の演算結果に閾値処理を施し、欠陥領域を抽出する欠陥領域抽出部、参照符号1005は、学習工程において、抽出された欠陥領域にオペレータが教師信号であるカテゴリ名を付与する教師信号(カテゴリ名)付与部である。
FIG. 6 is a block diagram showing an example of a classification apparatus having such a conventional supervised learning function.
In FIG. 6, reference numeral 1001 is, for example, an image input / display unit that inputs and displays a wafer image, and reference numeral 1002 is a defect image selection unit that monitors the displayed image and selects a defect image. Reference numeral 1003 is a comparison operation section with a reference image that calculates a difference from the reference image, and reference numeral 1004 is a defect area that performs threshold processing on the calculation result of the comparison operation section 1003 with the reference image and extracts a defect area. An extraction unit, reference numeral 1005 is a teacher signal (category name) assigning unit in which an operator assigns a category name which is a teacher signal to the extracted defect area in the learning step.

そして、参照符号1006は、抽出された欠陥領域の特徴量を抽出する特徴抽出部、参照符号1007は、学習工程において、教師信号付きの学習データがうまく分類されるように分類パラメータの学習を行う分類パラメータの学習部である。
また、参照符号1008は、分類工程において、欠陥領域がどのカテゴリに属するかを決定するカテゴリ決定部、参照符号1009は、決定されたカテゴリ名を欠陥画像に付与するカテゴリ名付与部である。
Reference numeral 1006 denotes a feature extraction unit that extracts the feature amount of the extracted defect area, and reference numeral 1007 learns classification parameters so that learning data with a teacher signal is classified well in the learning step. This is a classification parameter learning unit.
Further, reference numeral 1008 is a category determination unit that determines which category the defect area belongs to in the classification step, and reference numeral 1009 is a category name addition unit that assigns the determined category name to the defect image.

次に、動作について説明する。
図7の(a),(b)は、従来の教師付き学習機能を備えた分類装置の動作を説明するために示すフローチャートである。
この分類装置の処理は、学習工程と分類工程に分かれる。
最初に、学習工程の流れについて説明する。
Next, the operation will be described.
FIGS. 7A and 7B are flowcharts for explaining the operation of a conventional classification apparatus having a supervised learning function.
The processing of this classification device is divided into a learning process and a classification process.
First, the flow of the learning process will be described.

まず、画像入力・表示部1001において、例えば、ウェハ画像を入力し、表示する(ステップST1001)。
次に、欠陥画像選択部1002において、オペレータが、教師データ用の欠陥画像を選択する(ステップST1002)。
続いて、基準画像との比較演算部1003において、選択した欠陥画像と基準画像との差を算出する(ステップST1003)。
First, in the image input / display unit 1001, for example, a wafer image is input and displayed (step ST1001).
Next, in the defect image selection unit 1002, the operator selects a defect image for teacher data (step ST1002).
Subsequently, the comparison operation unit 1003 with the reference image calculates a difference between the selected defect image and the reference image (step ST1003).

この算出結果を欠陥領域抽出部1004において、閾値処理して、欠陥領域を抽出する(ステップST1004)。
オペレータは、教師信号(カテゴリ名)付与部1005において、欠陥領域に教師信号であるカテゴリ名を付与する(ステップST1005)。
This calculation result is subjected to threshold processing in the defect area extraction unit 1004 to extract a defect area (step ST1004).
In the teacher signal (category name) assigning unit 1005, the operator assigns a category name that is a teacher signal to the defective area (step ST1005).

次に、特徴抽出部1006において、抽出した欠陥領域から特徴量を抽出する(ステップST1006)。
続いて、分類パラメータの学習部1007において、教師信号付きの学習データがうまく分類されるように分類パラメータの学習を行う(ステップST1007)。
Next, the feature extraction unit 1006 extracts a feature amount from the extracted defect area (step ST1006).
Subsequently, the classification parameter learning unit 1007 learns the classification parameter so that the learning data with the teacher signal is well classified (step ST1007).

こうして、学習工程が完了する。
次に、分類工程について説明する。
分類工程の大まかな流れは、学習工程とほぼ同様なので、異なる処理部分のみ説明する。
まず、学習工程では、教師データ用の欠陥画像を選択したが、分類工程においては、分類対象画像全てが対象となる(ステップST1009)。
Thus, the learning process is completed.
Next, the classification process will be described.
Since the rough flow of the classification process is almost the same as that of the learning process, only different processing parts will be described.
First, in the learning process, a defect image for teacher data is selected, but in the classification process, all classification target images are targeted (step ST1009).

また、当然のことながら、教師信号を付与する必要はない。
その代わり、どのカテゴリに属するかのカテゴリ決定を行い(ステップST1013)、カテゴリ名を付与する(ステップST1014)ことで、分類工程が完了する。
以上、特開平11−34450号公報による教師付き学習機能を備えた分類装置の例を説明した。
Of course, it is not necessary to give a teacher signal.
Instead, the category is determined (step ST1013), and a category name is assigned (step ST1014), thereby completing the classification process.
In the above, the example of the classification apparatus provided with the supervised learning function by Unexamined-Japanese-Patent No. 11-34450 was demonstrated.

特開平11−328422号公報JP 11-328422 A 特開平8−249349号公報JP-A-8-249349 特開平10−49542号公報Japanese Patent Laid-Open No. 10-49542 特開平10−55366号公報Japanese Patent Laid-Open No. 10-55366 特開平11−34450号公報JP-A-11-34450

ところで、上述したような特開平11−34450号公報においては、半導体ウェハ等の欠陥検査における欠陥の分類装置の提案であるので、欠陥のある画像と良品である基準画像との差から、欠陥位置を検出することができるものの、基準画像等のない一般の写真のような画像のオブジェクト領域を分類する場合には、分類対象となる領域のみを検出することは、極めて難しい。   By the way, in the above-mentioned Japanese Patent Application Laid-Open No. 11-34450, since it is a proposal of a defect classification apparatus in defect inspection of a semiconductor wafer or the like, a defect position is determined from a difference between a defective image and a reference image which is a non-defective product. However, when classifying an object region of an image such as a general photograph without a reference image, it is extremely difficult to detect only the region to be classified.

しかるに、画像検索用キーワード自動付与装置、画像の自動分類装置においては、以上のように構成されているので、分類対象領域を検出することが、大きな課題となる。
分類対象領域を検出する一つの方法としては、領域分割した各領域を知識辞書に照らし合わせて、取捨選択、統合していく方法が挙げられるが、知識辞書にないような分類をしたい場合に、分類用パラメータの値をどうやって設定すれば良いかという問題が残る。
However, since the automatic image search keyword assigning device and the automatic image classification device are configured as described above, it is a big problem to detect the classification target region.
One method of detecting the classification target area is a method of sorting and integrating each area divided into the knowledge dictionary, but if you want to classify that is not in the knowledge dictionary, The problem of how to set the value of the classification parameter remains.

学習型の分類装置は、この問題を解決可能であり、学習したものを知識として蓄積していくこともできる。
特開平11−34450号公報による教師付き学習機能を備えた分類装置の構成では、基準画像からの変異を調べる場合には都合が良いが、一般の写真から、学習時においてさえ、分類対象領域を切り出すことは、極めて困難である。
A learning type classification apparatus can solve this problem, and can also accumulate what has been learned as knowledge.
In the configuration of a classification apparatus having a supervised learning function according to Japanese Patent Application Laid-Open No. 11-34450, it is convenient when examining a variation from a reference image. It is extremely difficult to cut out.

このため、学習時に分類対象領域を人手によって、地道に切り出していく作業が考えられるが、これは、多大の労力を必要とするので好ましくない。
本発明は、これらの事情に対処すべくなされたもので、その目的は、画像検索用のキーワードを自動付与できるようにして、学習時の分類対象領域の切り出し、あるいは、分類対象領域の指示等の人手による作業負担を軽減することのできる学習型画像分類装置及び方法並びにその処理プログラムを記録した記録媒体を提供することにある。
For this reason, it is conceivable to manually cut out the region to be classified during learning, but this is not preferable because it requires a great deal of labor.
The present invention has been made to deal with these situations, and its purpose is to automatically assign a keyword for image search so as to cut out a classification target area at the time of learning or to specify a classification target area. It is an object of the present invention to provide a learning type image classification apparatus and method capable of reducing the human work burden and a recording medium recording the processing program.

本発明によると、上記課題を解決するために、学習工程において入力された学習用画像よりどのようにして該学習用画像の一部の領域を切出すかを示す領域切出しモードに従って、上記学習用画像より領域を切出す領域切出し実行手段と、上記切出された領域に対して教師信号を付与するための教師信号付与手段と、上記切出された領域から特徴量を抽出する特徴量抽出手段と、上記抽出された特徴量を用いて特徴ベクトルを作成し、該作成した特徴ベクトルを上記教師信号に従って分類するための分類パラメータを学習して決定する分類パラメータ決定手段と、分類工程において入力された入力画像から抽出された特徴量及び上記分類パラメータを用いて、上記入力画像の領域の分類カテゴリを決定する分類カテゴリ決定手段と、上記決定された分類カテゴリのカテゴリ名を上記入力画像又は上記入力画像の領域に付与するカテゴリ名付与手段と、を有し、上記領域切出しモードは、色または輝度値の変化を利用して自動的に上記学習用画像を複数の領域に分割し、この分割された複数の領域から人によって選択された領域が統合された結果得られた領域を上記学習用画像より切出す半自動領域切り出しモードであることを特徴とする学習型画像分類装置が提供される。   According to the present invention, in order to solve the above-described problem, the above learning learning is performed according to a region extraction mode that indicates how to extract a partial region of the learning image from the learning image input in the learning step. Area extraction executing means for extracting an area from an image, teacher signal providing means for applying a teacher signal to the extracted area, and feature quantity extracting means for extracting a feature quantity from the extracted area A classification parameter determining means for generating a feature vector using the extracted feature quantity and learning and determining a classification parameter for classifying the generated feature vector according to the teacher signal; Classification category determining means for determining a classification category of the region of the input image using the feature amount extracted from the input image and the classification parameter, and the determination Category name assigning means for assigning the category name of the classified category to the input image or the area of the input image, and the area cutout mode automatically uses the change in color or luminance value to The learning image is divided into a plurality of regions, and a region obtained as a result of integrating regions selected by a person from the plurality of divided regions is a semi-automatic region cutout mode for cutting out from the learning image. A feature learning type image classification device is provided.

また、本発明によると、上記課題を解決するために、学習工程において入力された学習用画像よりどのようにして該学習用画像の一部の領域を切出すかを示す領域切出しモードに従って、上記学習用画像より領域を切出す手順と、上記学習用画像より切出された領域に対して教師信号を付与させる手順と、上記切出された領域から特徴量を抽出する手順と、上記抽出された特徴量を用いて特徴ベクトルを作成し、該作成した特徴ベクトルを上記教師信号に従って分類するための分類パラメータを学習して決定する手順と、分類工程において入力された入力画像から抽出された特徴量及び上記分類パラメータを用いて、上記入力画像の領域の分類カテゴリを決定する手順と、上記決定された分類カテゴリのカテゴリ名を上記入力画像又は上記入力画像の領域に付与する手順と、を有し、上記領域切出しモードは、色または輝度値の変化を利用して自動的に上記学習用画像を複数の領域に分割し、この分割された複数の領域から人によって選択された領域が統合された結果得られた領域を上記学習用画像より切出す半自動領域切り出しモードであることを特徴とする学習型画像分類方法が提供される。   Further, according to the present invention, in order to solve the above problem, according to the region extraction mode indicating how to extract a partial region of the learning image from the learning image input in the learning step, A procedure for extracting a region from the learning image, a procedure for giving a teacher signal to the region extracted from the learning image, a procedure for extracting a feature value from the extracted region, and the extraction A feature vector is created using the obtained feature quantity, a procedure for learning and determining a classification parameter for classifying the created feature vector according to the teacher signal, and a feature extracted from the input image input in the classification step The procedure for determining the classification category of the region of the input image using the quantity and the classification parameter, and the category name of the determined classification category are input image or input The region cropping mode automatically divides the learning image into a plurality of regions using a change in color or luminance value, and the divided regions are divided into a plurality of divided regions. A learning type image classification method is provided, which is a semi-automatic region cutout mode in which a region obtained as a result of integrating regions selected by a person from the region is cut out from the learning image.

また、本発明によると、上記課題を解決するために、学習工程において入力された学習用画像よりどのようにして該学習用画像の一部の領域を切出すかを示す領域切出しモードに従って、上記学習用画像より領域を切出す手順と、上記学習用画像より切出された領域に対して教師信号を付与させる手順と、上記切出された領域から特徴量を抽出する手順と、上記抽出された特徴量を用いて特徴ベクトルを作成し、該作成した特徴ベクトルを上記教師信号に従って分類するための分類パラメータを学習して決定する手順と、分類工程において入力された入力画像から抽出された特徴量及び上記分類パラメータを用いて、上記入力画像の領域の分類カテゴリを決定する手順と、上記決定された分類カテゴリのカテゴリ名を上記入力画像又は上記入力画像の領域に付与する手順と、をコンピュータに実行させ、上記領域切出しモードは、色または輝度値の変化を利用して自動的に上記学習用画像を複数の領域に分割し、この分割された複数の領域から人によって選択された領域が統合された結果得られた領域を上記学習用画像より切出す半自動領域切り出しモードであることを特徴とする学習型画像分類プログラムを記録した記録媒体が提供される。   Further, according to the present invention, in order to solve the above problem, according to the region extraction mode indicating how to extract a partial region of the learning image from the learning image input in the learning step, A procedure for extracting a region from the learning image, a procedure for giving a teacher signal to the region extracted from the learning image, a procedure for extracting a feature value from the extracted region, and the extraction A feature vector is created using the obtained feature quantity, a procedure for learning and determining a classification parameter for classifying the created feature vector according to the teacher signal, and a feature extracted from the input image input in the classification step The procedure for determining the classification category of the region of the input image using the quantity and the classification parameter, and the category name of the determined classification category are input image or input In the region extraction mode, the learning image is automatically divided into a plurality of regions using a change in color or luminance value, and the divided image is divided into a plurality of regions. Provided is a recording medium on which a learning type image classification program is recorded, which is a semi-automatic region segmentation mode in which a region obtained by integrating regions selected by a person from a plurality of regions is segmented from the learning image. Is done.

従って、本発明によれば、画像検索用のキーワードを自動付与できるようにして、学習時の分類対象領域の切り出し、あるいは、分類対象領域の指示等の人手による作業負担を軽減することが可能な学習型画像分類装置及び方法並びにその処理プログラムを記録した記録媒体を提供することができる。   Therefore, according to the present invention, it is possible to automatically assign a keyword for image search, and it is possible to reduce a manual work load such as extraction of a classification target area or instruction of a classification target area at the time of learning. It is possible to provide a learning type image classification apparatus and method and a recording medium on which the processing program is recorded.

図1は、本発明の第1の実施形態による学習型画像分類装置の構成を示すブロック図である。FIG. 1 is a block diagram showing a configuration of a learning type image classification apparatus according to the first embodiment of the present invention. 図2の(a),(b)は、この発明の第1の実施の形態による学習型分類装置の動作を説明するために示すフローチャートである。FIGS. 2A and 2B are flowcharts for explaining the operation of the learning type classification apparatus according to the first embodiment of the present invention. 図3の(a),(b),(c)は、図2の領域切り出しモードの種類として、半自動領域切り出しモード、学習利用領域切り出しモード、対話型領域切り出しモードの3つのモードについて説明するために示す図である。(A), (b), and (c) of FIG. 3 are for explaining the three modes of the semi-automatic area extraction mode, the learning use area extraction mode, and the interactive area extraction mode as types of the area extraction mode of FIG. FIG. 図4は、本発明の第2の実施の形態による学習型画像分類装置における領域切り出しモードのうち、学習利用領域切り出しモードの構成を示すブロック図である。FIG. 4 is a block diagram showing the configuration of the learning use area cutout mode in the area cutout mode in the learning type image classification apparatus according to the second embodiment of the present invention. 図5は、本発明の第3の実施の形態による学習型画像分類装置における領域切り出しモードのうち、学習利用領域切り出しモードの構成を示すブロック図である。FIG. 5 is a block diagram showing the configuration of the learning use area cutout mode in the area cutout mode in the learning-type image classification device according to the third embodiment of the present invention. 図6は、従来の教師付き学習機能を備えた分類装置の一例を示すブロック図である。FIG. 6 is a block diagram showing an example of a conventional classification apparatus having a supervised learning function. 図7の(a),(b)は、従来の教師付き学習機能を備えた分類装置の動作を説明するために示すフローチャートである。FIGS. 7A and 7B are flowcharts for explaining the operation of a conventional classification apparatus having a supervised learning function.

以下図面を参照して本発明の実施の形態について説明する。
(第1の実施形態)
図1は、本発明による学習型画像分類装置及び学習型画像分類方法並びに学習型画像分類プログラムを記録した記録媒体を含む第1の実施形態の構成を示すブロック図である。
Embodiments of the present invention will be described below with reference to the drawings.
(First embodiment)
FIG. 1 is a block diagram showing a configuration of a first embodiment including a learning type image classification apparatus, a learning type image classification method, and a recording medium storing a learning type image classification program according to the present invention.

図1において、参照符号101は、画像入力・表示部、参照符号102は、これからどんなカテゴリ分類を行うかをシステムが受け付ける分類カテゴリ内容受付部、参照符号103は、画像中のカテゴリに対応する領域をどんなモードで切り出し処理するかをユーザーまたはシステムが選択する領域切り出しモードの選択部、参照符号103及び104は、カテゴリの学習を行う時に利用する学習用画像選択部、参照符号105は、領域切り出しモードの選択部103で選択したいずれかのモードで画像中からカテゴリに対応する領域を切り出す領域切り出し実行部である。   In FIG. 1, reference numeral 101 is an image input / display unit, reference numeral 102 is a classification category content receiving unit that the system accepts what category classification is to be performed, and reference numeral 103 is an area corresponding to a category in the image A mode or region selection mode selection unit for the user or system to select in which mode is selected, reference numerals 103 and 104 are learning image selection units used when performing category learning, and reference numeral 105 is region extraction. This is a region cutout execution unit that cuts out a region corresponding to a category from an image in any mode selected by the mode selection unit 103.

そして、参照符号106は、分類カテゴリのラベルとなるカテゴリ名を画像あるいは切り出した領域にセットで与える教師信号(カテゴリ名)付与部、参照符号107は、切り出した領域の特徴を定量的に表わす特徴量を抽出する特徴量抽出部、参照符号108は、抽出された特徴量データのセットを教師信号に基づき分類できるようにシステム内のパラメータを調節していく分類パラメータの学習部である。   Reference numeral 106 is a teacher signal (category name) assigning unit that gives a category name as a classification category label as a set to an image or a segmented area, and reference numeral 107 is a feature that quantitatively represents the characteristics of the segmented area. A feature quantity extraction unit for extracting quantities, reference numeral 108 is a classification parameter learning unit that adjusts parameters in the system so that the extracted feature quantity data set can be classified based on a teacher signal.

また、参照符号109は、学習後に分類したい画像を入力する分類対象画像入力部、参照符号110は、学習後に入力された画像をいくつかの領域に分割する領域分割部、参照符号111は、学習後に入力された画像のカテゴリを決定するカテゴリ決定部、参照符号112は、決定したカテゴリ名を画像あるいは領域に付与するカテゴリ名付与部である。   Reference numeral 109 is a classification target image input unit that inputs an image to be classified after learning, reference numeral 110 is an area dividing unit that divides an image input after learning into several areas, and reference numeral 111 is learning. A category determining unit that determines a category of an image input later, and a reference numeral 112 is a category name adding unit that assigns the determined category name to an image or a region.

また、参照符号113は、上記各部で実行される学習型画像分類プログラムを記録した記録媒体である。
次に、動作について説明する。
図2の(a),(b)は、本発明による学習型画像分類装置及び学習型画像分類方法並びに学習型画像分類プログラムを記録した記録媒体を含む第1の実施の形態の動作を説明するために示すフローチャートである。
Reference numeral 113 denotes a recording medium on which a learning type image classification program executed by each unit is recorded.
Next, the operation will be described.
FIGS. 2A and 2B illustrate the operation of the first embodiment including a learning type image classification device, a learning type image classification method, and a recording medium in which a learning type image classification program is recorded according to the present invention. It is a flowchart shown for this purpose.

最初に学習工程について説明する。
まず、画像入力・表示部101において、この装置あるいはシステムに画像を入力し、画面に表示する(ステップST101)。
次に、ユーザーは、画面中に表示された画像群を見ながら、今から、画像をどういうふうに分類したいかを決め、分類カテゴリ内容受付部102で、システムにその内容を伝える(ステップST102)。
First, the learning process will be described.
First, the image input / display unit 101 inputs an image to this apparatus or system and displays it on the screen (step ST101).
Next, the user decides how to classify the image while viewing the group of images displayed on the screen, and conveys the contents to the system by the classification category content receiving unit 102 (step ST102). .

具体的には、システムがある程度の分類ニ−ズを想定し、例えば、人の顔画像を他の画像とは別に分類したい、あるいは、個人レベルの顔画像を区別して扱いたい、等という選択肢の中からユーザーに選択してもらうようにしておく。
次に、領域切り出しモードの選択部103において、人またはシステムが、画像中からカテゴリに対応する領域をどのようなモードで切り出すかを選択する(ステップST103)。
Specifically, assuming that the system needs some sort of classification needs, for example, it is possible to classify human face images separately from other images, or to treat individual-level face images separately. Let the user choose from among them.
Next, in the region cut-out mode selection unit 103, a person or system selects in what mode the region corresponding to the category is cut out from the image (step ST103).

領域切り出しモードの種類としては、例えば、半自動領域切り出しモード、学習利用領域切り出しモード、対話型領域切り出しモード等がある。
以下、しばらく、この3つのモードについて、図3の(a),(b),(c)を用いて説明する。
最初に、図3の(a)に示す半自動領域切り出しモードについて説明する。
Examples of the area cutout mode include a semi-automatic area cutout mode, a learning use area cutout mode, and an interactive area cutout mode.
Hereinafter, for a while, these three modes will be described with reference to (a), (b), and (c) of FIG.
First, the semi-automatic area cutout mode shown in FIG.

まず、領域分割部A1において、色や輝度値の変化を利用して、システムが画
像を自動的に領域分割する。
続いて、領域指定部A2において、人が分割されたいくつかの領域をクリックする。
これにより、領域統合部A3において、システムがこれらの領域を統台処理し、統合領域を領域切り出し結果として採用する。
First, in the area dividing unit A1, the system automatically divides an image into areas using changes in color and luminance values.
Subsequently, in the area designating part A2, several areas divided by the person are clicked.
As a result, in the area integration unit A3, the system consolidates these areas and adopts the integrated area as the area cutout result.

次に、図3の(b)に示す学習利用領域切り出しモードについて説明する。
これは、ユーザーに領域の切り出しを意識させないようなワンタッチ式の領域切り出しモードであって、このモードを用いるには、いくつかの制約がある。
すなわち、今から分類しようとするカテゴリの領域切り出しを既に学習済みのカテゴリの領域検出に帰着させる方法である。
Next, the learning use area cutout mode shown in FIG.
This is a one-touch type region cutout mode that does not make the user aware of region cutout, and there are some restrictions in using this mode.
In other words, this is a method of reducing the area extraction of the category to be classified from now on to the area detection of the already learned category.

これには、まず、カテゴリ間領域関係規定部B1において、学習済みのカテゴリと、今、学習しようとしているカテゴリの領域間の関係を例えば辞書に知識として与えておき、領域間の関係が一致するような場合に、今、学習しようとしているカテゴリの領域の切り出しを学習済みカテゴリの領域の切り出しに帰着させることができる。   In order to do this, first, in the inter-category region relationship defining unit B1, the relationship between the learned category and the region of the category that is about to be learned is given as knowledge to, for example, a dictionary, and the relationship between the regions matches. In such a case, the extraction of the area of the category that is about to be learned can be reduced to the extraction of the area of the learned category.

例えば、人の顔画像を他の画像と区別するような学習を事前に行っていれば、個人レベルの画像を区別する分類を行う場合に、学習済みカテゴリによる領域切り出し実行部B2において、人の顔画像を学習済みのパラメータを用いて切り出し、切り出された顔領域に個人の名前のカテゴリ名を付与していく。   For example, if learning that distinguishes a person's face image from other images has been performed in advance, when performing classification that distinguishes images at the individual level, the region segmentation execution unit B2 based on the learned category performs A face image is cut out using learned parameters, and a category name of an individual name is assigned to the cut out face area.

このモードが使えれば、ユーザーは、学習用の画像を収集し、教師信号を与えるだけで、煩わしい領域切り出し処理を意識しなくて済む。
第3に、図3の(c)に示す対話型領域切り出しモードについて説明する。
これは、例えば、今、学習利用領域切り出しモードにおいて説明した顔領域の切り出し結果を領域切り出し結果表示部C3で表示して、領域切り出し結果採用判断部C4において、切り出し結果での領域検出率をユーザーが目で確認して、学習に用いる画像を取捨選択する方式である。
If this mode can be used, the user only has to collect learning images and give a teacher signal, and does not have to be aware of the troublesome region extraction processing.
Third, the interactive area cutout mode shown in FIG.
This is because, for example, the face segmentation result described in the learning use region segmentation mode is displayed on the region segmentation result display unit C3, and the region detection rate in the segmentation result is determined by the user in the region segmentation result adoption determination unit C4. This is a method of confirming with eyes and selecting images used for learning.

そして、図2に戻って、領域切り出しモードを選択した後、学習用画像選択部104でユーザーが学習用画像を選択し(ステップST104)、領域切り出し実行部105でそれぞれのモードの方式で画像中から分類カテゴリ領域を切り出す(ステップST105)。   Returning to FIG. 2, after selecting the region cutout mode, the user selects a learning image in the learning image selection unit 104 (step ST <b> 104), and the region cutout execution unit 105 selects the image for each mode. The classification category area is cut out from (step ST105).

これに、教師信号(カテゴリ名)付与部106において、顔や田中等の分類カテゴリ名を画像または切り出した領域にセットで与える(ステップST106)。
次に、特徴量抽出部107において、指定された領域から色や形、テクスチャ等の特徴を抽出する(ステップST107)。
To this, the teacher signal (category name) assigning unit 106 assigns classification category names such as face and Tanaka to the image or the cut-out area as a set (step ST106).
Next, the feature quantity extraction unit 107 extracts features such as color, shape, texture, etc. from the designated area (step ST107).

続いて、分類パラメータの学習部108において、抽出された特徴量から特徴ベクトルを作成し、この特徴ベクトルを教師信号に従って分類できるように分類パラメータを学習し、決定する(ステップST108)。
この際、分類に有効な度合いに応じて特徴量を重み付けする等(例えば、特開平9−101970号公報)の処理を利用しても良い。
Subsequently, the classification parameter learning unit 108 creates a feature vector from the extracted feature quantity, and learns and determines the classification parameter so that the feature vector can be classified according to the teacher signal (step ST108).
At this time, processing such as weighting the feature amount in accordance with the degree effective for classification (for example, JP-A-9-101970) may be used.

尚、分類パラメータの学習の結果、例えば、コホネン型のニューラルネットにおいては、ニューロン素子がベクトル量子化における代表ベクトルに相当し、この代表ベクトルに分類カテゴリ名を表わすラベルが付いている状態になっているものとする。
さて、以上で学習が完了し、今度は、分類工程に移行する。
As a result of classification parameter learning, for example, in a Kohonen-type neural network, the neuron element corresponds to a representative vector in vector quantization, and the representative vector is labeled with a classification category name. It shall be.
Now, learning is completed as described above, and this time, the process proceeds to the classification process.

まず、画像入力・表示部101において画像群を入力あるいは表示する(ステップST109)。
次に、分類対象画像入力部109において、分類したい画像を入力し(ステップST110)、続いて、領域分割部110において、色や輝度値の変化を利用して領域を分割する(ステップST111)。
First, an image group is input or displayed on the image input / display unit 101 (step ST109).
Next, the classification target image input unit 109 inputs an image to be classified (step ST110), and then the region dividing unit 110 divides the region using changes in color and luminance values (step ST111).

さらに、特徴抽出部107において、領域分割した各領域について、色や形、テクスチャなどの特徴量を抽出する(ステップST112)。
次に、分類パラメータの学習部108において、まず、各領域で得られた特徴量のセットから特徴ベクトルを生成する。
Further, the feature extraction unit 107 extracts a feature amount such as a color, a shape, and a texture for each divided region (step ST112).
Next, the classification parameter learning unit 108 first generates a feature vector from a set of feature amounts obtained in each region.

次に、各領域の特徴ベクトルを学習済みの分類パラメータを用いて分類し、カテゴリ決定部111において、領域がどのカテゴリに属するかを決定する(ステップST113)。
最後に、カテゴリ名付与部112において、決定されたカテゴリ名を領域、または、画像に付与する(ステップST114)。
Next, the feature vector of each region is classified using the learned classification parameter, and the category determination unit 111 determines which category the region belongs to (step ST113).
Finally, the category name assigning unit 112 assigns the determined category name to the area or image (step ST114).

以上で、学習工程及びその後の分類工程の処理フローを説明したが、上記各部で実行される学習型画像分類プログラムは、記録媒体113に記録されているものとする。
(第2の実施の形態)
図4は、第2の実施の形態による学習型画像分類装置における領域切り出しモードのうち、学習利用領域切り出しモードの構成を示すブロック図である。
The processing flow of the learning process and the subsequent classification process has been described above. It is assumed that the learning type image classification program executed by each unit is recorded in the recording medium 113.
(Second Embodiment)
FIG. 4 is a block diagram showing the configuration of the learning use area cutout mode among the area cutout modes in the learning type image classification apparatus according to the second embodiment.

第2の実施の形態の構成は、第1の実施の形態の構成と概ね似ている。
第1の実施の形態との主な違いは、カテゴリ間領域関係規定部B201、さらに学習済みカテゴリによる領域切り出し実行部B202に加えて、学習済みカテゴリによる領域切り出しの信頼性をシステムが判断する領域切り出しの信頼性判断部B203が備わっている点である。
The configuration of the second embodiment is generally similar to the configuration of the first embodiment.
The main difference from the first embodiment is that the system determines the reliability of area segmentation by the learned category in addition to the inter-category area relationship defining unit B201 and the area segmentation execution unit B202 by the learned category. This is a cutout reliability determination unit B203.

例えば、信頼性を数値化しておき、この数値が高い画像の教師データを利用するようにする。
もしくは、ユーザーが選択した画像群での顔検出の信頼性を表す数値が低ければ、画像中のカテゴリ対応領域の半自動切り出しモードに移行する。
これによって、領域切り出しの作業負担を軽減したために、領域切り出しの精度が悪化してしまうといった事態を回避することができる。
(第3の実施の形態)
図5は、第3の実施の形態による学習型画像分類装置における領域切り出しモードのうち、学習利用領域切り出しモードの構成を示すブロック図である。
For example, the reliability is digitized and teacher data of an image having a high numerical value is used.
Alternatively, if the numerical value representing the reliability of face detection in the image group selected by the user is low, the mode shifts to the semi-automatic segmenting mode of the category corresponding area in the image.
As a result, it is possible to avoid a situation in which the accuracy of area extraction deteriorates because the work load of area extraction is reduced.
(Third embodiment)
FIG. 5 is a block diagram showing a configuration of the learning use area cutout mode in the area cutout mode in the learning-type image classification device according to the third embodiment.

第3の実施の形態の構成は、第1の実施の形態の構成と概ね似ている。
第1の実施の形態との主な違いは、カテゴリ間領域関係規定部B301、さらに学習済みカテゴリによる領域切り出し実行部B302に加えて、さらに学習済みカテゴリによる領域切り出し結果の領域数を数える領域数カウント部B303と、領域数が1つにカウントされる画像を学習用画像の候補とする学習用画像候補選択部B304が備わっている点である。
The configuration of the third embodiment is generally similar to the configuration of the first embodiment.
The main difference from the first embodiment is that, in addition to the inter-category region relationship defining unit B301 and the region segmentation execution unit B302 based on the learned category, the number of regions for counting the number of regions as a result of region segmentation based on the learned category The point is that a counting unit B303 and a learning image candidate selection unit B304 that uses an image whose number of areas is counted as one as a learning image candidate are provided.

例えば、個人の顔レベルの分類を行う場合、事前に人の顔画像を他の風景画像等から分類する学習を実行しておき、この顔領域の切り出しを利用して、個人の顔画像領域の切り出しを行うのであるが、1枚の画像に複数の顔が写っている場合には、どの顔領域を分類しようとしているかをユーザーに指定してもらう必要がある。   For example, when classifying a person's face level, learning for classifying a person's face image from other landscape images or the like is performed in advance, and the cutout of this face area is used to In the case where a plurality of faces are shown in one image, it is necessary to have the user specify which face region is to be classified.

この第3の実施の形態においては、人の顔領域の数が1である場合に限り、学習用画像の候補とするので、ユーザーにどの領域であるかを指定してもらう必要もない。
以上説明したように、本発明の各実施の形態によれば、領域切り出しモードの選択部を備えているので、画像分類の学習工程における人手による対象領域の切り出し処理の負担を大幅に低減することができるという効果がある。
In the third embodiment, only when the number of human face regions is 1, it is determined as a candidate for a learning image, and it is not necessary for the user to specify which region it is.
As described above, according to each embodiment of the present invention, since the region segmentation mode selection unit is provided, it is possible to greatly reduce the burden of the target region segmentation processing performed manually in the image classification learning process. There is an effect that can be.

また、領域切り出しモードの選択部を具備しているので、ユーザーの領域切り出しの負担が少なく、かつ、切り出し性能が良好な領域切り出しのモードを選択できるので、分類性能を劣化させずに、ユーザーの学習時における領域切り出しの負担を軽減できる効果がある。   In addition, since the area segmentation mode selection unit is provided, it is possible to select an area segmentation mode that reduces the burden of segmentation for the user and has good segmentation performance. This has the effect of reducing the burden of region segmentation during learning.

また、学習済みのカテゴリへの画像の分類適合性判断部を具備しているので、適合性の良くない画像を新たなカテゴリ分類の学習データからはずすことが可能となる。
これによって、分類精度を向上できる効果がある。
また、領域数カウント部、及び教師用画像候補選択部を具備しているので、領域数が1である画像のみを教師用画像の候補として選択することによって、人が複数領域のうちから対象領域を選択指示する作業を省くことができ、選択指示までの時間待ちの問題も回避できるという効果がある。
Further, since the image classification suitability determination unit for the learned category is provided, it is possible to remove an image with poor suitability from the learning data of the new category classification.
This has the effect of improving the classification accuracy.
In addition, since the area number counting unit and the teacher image candidate selection unit are provided, by selecting only the image having the number of areas of 1 as a candidate for the teacher image, a person can select the target area from a plurality of areas. Thus, there is an effect that it is possible to omit the work of instructing selection and to avoid the problem of waiting until the selection instruction.

なお、上記各実施の形態では、「学習工程」での領域切り出しに観点をおいているが、本発明は、必ずしも「学習工程」での領域切り出しのみに限定されることなく、すなわち、特には、学習工程に適しているが、これには限定されないものとする。   In each of the embodiments described above, the viewpoint is based on the region extraction in the “learning step”, but the present invention is not necessarily limited to only the region extraction in the “learning step”. It is suitable for the learning process, but is not limited to this.

101…画像入力・表示部、102…分類カテゴリ内容受付部、103…選択する領域切り出しモードの選択部、103、104…学習用画像選択部、105…領域切り出し実行部、106…教師信号(カテゴリ名)付与部、107…特徴量抽出部、108…分類パラメータの学習部、109…分類対象画像入力部、110…領域分割部、111…カテゴリ決定部、112…カテゴリ名付与部、113…記録媒体、B201、B301…カテゴリ間領域関係規定部、B202、B302…学習済みカテゴリによる領域切り出し実行部、B203…信頼性判断部、B303…領域数カウント部、B304…学習用画像候補選択部。   DESCRIPTION OF SYMBOLS 101 ... Image input / display part, 102 ... Classification category content reception part, 103 ... Selection part of area extraction mode to select, 103, 104 ... Image selection part for learning, 105 ... Area extraction execution part, 106 ... Teacher signal (category) Name) assigning unit 107... Feature quantity extracting unit 108... Classification parameter learning unit 109 109 classification target image input unit 110 .. region segmentation unit 111. Category determining unit 112 .. category name assigning unit 113. Medium, B201, B301 ... inter-category region relationship defining unit, B202, B302 ... region segmentation execution unit based on learned category, B203 ... reliability determination unit, B303 ... region number counting unit, B304 ... learning image candidate selection unit.

Claims (4)

学習工程において入力された学習用画像よりどのようにして該学習用画像の一部の領域を切出すかを示す領域切出しモードに従って、上記学習用画像より領域を切出す領域切出し実行手段と、
上記切出された領域に対して教師信号を付与するための教師信号付与手段と、
上記切出された領域から特徴量を抽出する特徴量抽出手段と、
上記抽出された特徴量を用いて特徴ベクトルを作成し、該作成した特徴ベクトルを上記教師信号に従って分類するための分類パラメータを学習して決定する分類パラメータ決定手段と、分類工程において入力された入力画像から抽出された特徴量及び上記分類パラメータを用いて、上記入力画像の領域の分類カテゴリを決定する分類カテゴリ決定手段と、
上記決定された分類カテゴリのカテゴリ名を上記入力画像又は上記入力画像の領域に付与するカテゴリ名付与手段と、
を有し、
上記領域切出しモードは、色または輝度値の変化を利用して自動的に上記学習用画像を複数の領域に分割し、この分割された複数の領域から人によって選択された領域が統合された結果得られた領域を上記学習用画像より切出す半自動領域切り出しモードであることを特徴とする学習型画像分類装置。
An area extraction execution means for extracting an area from the learning image according to an area extraction mode indicating how to extract a partial area of the learning image from the learning image input in the learning step;
Teacher signal giving means for giving a teacher signal to the clipped region;
A feature amount extraction means for extracting a feature amount from the extracted region;
A classification parameter determining means for generating a feature vector using the extracted feature quantity, learning and determining a classification parameter for classifying the generated feature vector according to the teacher signal, and an input input in the classification step Classification category determining means for determining a classification category of the region of the input image using the feature amount extracted from the image and the classification parameter;
Category name giving means for giving the category name of the determined classification category to the input image or the area of the input image;
Have
The region extraction mode is a result of automatically dividing the learning image into a plurality of regions using a change in color or luminance value, and integrating regions selected by a person from the plurality of divided regions. A learning-type image classification device, which is a semi-automatic region cut-out mode for cutting out the obtained region from the learning image.
学習工程において入力された学習用画像よりどのようにして該学習用画像の一部の領域を切出すかを示す領域切出しモードに従って、上記学習用画像より領域を切出す手順と、
上記学習用画像より切出された領域に対して教師信号を付与させる手順と、
上記切出された領域から特徴量を抽出する手順と、
上記抽出された特徴量を用いて特徴ベクトルを作成し、該作成した特徴ベクトルを上記教師信号に従って分類するための分類パラメータを学習して決定する手順と、
分類工程において入力された入力画像から抽出された特徴量及び上記分類パラメータを用いて、上記入力画像の領域の分類カテゴリを決定する手順と、
上記決定された分類カテゴリのカテゴリ名を上記入力画像又は上記入力画像の領域に付与する手順と、
を有し、
上記領域切出しモードは、色または輝度値の変化を利用して自動的に上記学習用画像を複数の領域に分割し、この分割された複数の領域から人によって選択された領域が統合された結果得られた領域を上記学習用画像より切出す半自動領域切り出しモードであることを特徴とする学習型画像分類方法。
A procedure for cutting out the region from the learning image according to a region cutting mode indicating how to cut out a partial region of the learning image from the learning image input in the learning step;
A procedure for giving a teacher signal to a region cut out from the learning image,
A procedure for extracting a feature value from the clipped region;
A procedure for creating a feature vector using the extracted feature quantity, learning and determining a classification parameter for classifying the created feature vector according to the teacher signal,
A procedure for determining a classification category of a region of the input image using the feature amount extracted from the input image input in the classification step and the classification parameter;
A procedure for assigning the category name of the determined classification category to the input image or the region of the input image;
Have
The region extraction mode is a result of automatically dividing the learning image into a plurality of regions using a change in color or luminance value, and integrating regions selected by a person from the plurality of divided regions. A learning type image classification method, wherein the obtained region is a semi-automatic region segmentation mode for segmenting from the learning image.
学習工程において入力された学習用画像よりどのようにして該学習用画像の一部の領域を切出すかを示す領域切出しモードに従って、上記学習用画像より領域を切出す手順と、
上記学習用画像より切出された領域に対して教師信号を付与させる手順と、
上記切出された領域から特徴量を抽出する手順と、
上記抽出された特徴量を用いて特徴ベクトルを作成し、該作成した特徴ベクトルを上記教師信号に従って分類するための分類パラメータを学習して決定する手順と、
分類工程において入力された入力画像から抽出された特徴量及び上記分類パラメータを用いて、上記入力画像の領域の分類カテゴリを決定する手順と、
上記決定された分類カテゴリのカテゴリ名を上記入力画像又は上記入力画像の領域に付与する手順と、
をコンピュータに実行させ、
上記領域切出しモードは、色または輝度値の変化を利用して自動的に上記学習用画像を複数の領域に分割し、この分割された複数の領域から人によって選択された領域が統合された結果得られた領域を上記学習用画像より切出す半自動領域切り出しモードであることを特徴とする学習型画像分類プログラムを記録した記録媒体。
A procedure for cutting out the region from the learning image according to a region cutting mode indicating how to cut out a partial region of the learning image from the learning image input in the learning step;
A procedure for giving a teacher signal to a region cut out from the learning image,
A procedure for extracting a feature value from the clipped region;
A procedure for creating a feature vector using the extracted feature quantity, learning and determining a classification parameter for classifying the created feature vector according to the teacher signal,
A procedure for determining a classification category of a region of the input image using the feature amount extracted from the input image input in the classification step and the classification parameter;
A procedure for assigning the category name of the determined classification category to the input image or the region of the input image;
To the computer,
The region extraction mode is a result of automatically dividing the learning image into a plurality of regions using a change in color or luminance value, and integrating regions selected by a person from the plurality of divided regions. A recording medium on which a learning type image classification program is recorded, which is a semi-automatic region cutout mode for cutting out the obtained region from the learning image.
請求項1における半自動領域切り出しモードにおいて、
上記領域切出し実行手段は、分割した複数の領域のうちの分類対象領域を指定させ、該指定された領域を統合した領域を上記学習用画像より切出すことを特徴とする学習型画像分類装置。
In the semi-automatic area cutout mode according to claim 1,
The region cutout execution unit is configured to specify a region to be classified among a plurality of divided regions, and cut out a region obtained by integrating the designated regions from the learning image.
JP2010252127A 2010-11-10 2010-11-10 Learning type image classification device and method, and recording medium imaging device that stores processing program for the same Pending JP2011100459A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010252127A JP2011100459A (en) 2010-11-10 2010-11-10 Learning type image classification device and method, and recording medium imaging device that stores processing program for the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010252127A JP2011100459A (en) 2010-11-10 2010-11-10 Learning type image classification device and method, and recording medium imaging device that stores processing program for the same

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2000217720A Division JP2002032751A (en) 2000-07-18 2000-07-18 Learning type image classifying device and method and recording medium with its processing program recorded thereon

Publications (1)

Publication Number Publication Date
JP2011100459A true JP2011100459A (en) 2011-05-19

Family

ID=44191539

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010252127A Pending JP2011100459A (en) 2010-11-10 2010-11-10 Learning type image classification device and method, and recording medium imaging device that stores processing program for the same

Country Status (1)

Country Link
JP (1) JP2011100459A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015099559A (en) * 2013-11-20 2015-05-28 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP2017027136A (en) * 2015-07-16 2017-02-02 株式会社ブレイン Store system and program of the same
JP2018163527A (en) * 2017-03-27 2018-10-18 株式会社Screenホールディングス Manufacturing method of classification device, classifying method of image, classification device for image, inspection device for semiconductor, and classification criteria module
WO2020183706A1 (en) * 2019-03-14 2020-09-17 日本電気株式会社 Learning image training data correction method, training data correction device and program

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1063855A (en) * 1996-08-13 1998-03-06 Sanyo Electric Co Ltd Method for extracting picture area

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1063855A (en) * 1996-08-13 1998-03-06 Sanyo Electric Co Ltd Method for extracting picture area

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015099559A (en) * 2013-11-20 2015-05-28 キヤノン株式会社 Image processing apparatus, image processing method, and program
US9934446B2 (en) 2013-11-20 2018-04-03 Canon Kabushiki Kaisha Object detecting apparatus and method
JP2017027136A (en) * 2015-07-16 2017-02-02 株式会社ブレイン Store system and program of the same
JP2018163527A (en) * 2017-03-27 2018-10-18 株式会社Screenホールディングス Manufacturing method of classification device, classifying method of image, classification device for image, inspection device for semiconductor, and classification criteria module
WO2020183706A1 (en) * 2019-03-14 2020-09-17 日本電気株式会社 Learning image training data correction method, training data correction device and program
JPWO2020183706A1 (en) * 2019-03-14 2021-11-18 日本電気株式会社 Teacher data correction method, teacher data correction device and program of learning image
JP7092254B2 (en) 2019-03-14 2022-06-28 日本電気株式会社 Teacher data correction method, teacher data correction device and program of learning image
US11798265B2 (en) 2019-03-14 2023-10-24 Nec Corporation Teaching data correction method for training image, teaching data correction device and program

Similar Documents

Publication Publication Date Title
CN111031346B (en) Method and device for enhancing video image quality
JP2002032751A (en) Learning type image classifying device and method and recording medium with its processing program recorded thereon
US11449542B2 (en) Systems and methods for identifying unwanted photos stored on a device
JP6403261B2 (en) Classifier generation device, visual inspection device, classifier generation method, and program
US8792685B2 (en) Presenting image subsets based on occurrences of persons satisfying predetermined conditions
JP6089886B2 (en) Region dividing method and inspection apparatus
US20130304743A1 (en) Keyword assignment device, information storage device, and keyword assignment method
JP2015087903A (en) Apparatus and method for information processing
CN111553923B (en) Image processing method, electronic equipment and computer readable storage medium
CN104794189B (en) A kind of method for screening images and screening system
CN106502533A (en) A kind of screenshotss method and device
JP2011139366A (en) Image processing apparatus and method, and program
DE102014117895A1 (en) Note-based spot-healing techniques
JP2011100459A (en) Learning type image classification device and method, and recording medium imaging device that stores processing program for the same
JP7063393B2 (en) Teacher data expansion device, teacher data expansion method and program
CN113784171A (en) Video data processing method, device, computer system and readable storage medium
JP2011013898A (en) Image processing apparatus, image processing method, and program
US10957032B2 (en) Flexible visual inspection model composition and model instance scheduling
JP5751184B2 (en) Image processing program, image processing apparatus, and image processing method
KR101920998B1 (en) apparatus and device for extracting contour by connected component labeling in gray images
CN112884866A (en) Coloring method, device, equipment and storage medium for black and white video
JP2010262531A (en) Image information processor, image information processing method and program
US11120541B2 (en) Determination device and determining method thereof
JP2000123173A (en) Image characteristic extracting method, similar image retrieval system and recording medium
JP6819316B2 (en) Threshold setting support program, threshold setting support device and threshold setting support method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120110

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120821