JP6959114B2 - Misidentification possibility evaluation device, misdiscrimination possibility evaluation method and program - Google Patents

Misidentification possibility evaluation device, misdiscrimination possibility evaluation method and program Download PDF

Info

Publication number
JP6959114B2
JP6959114B2 JP2017222856A JP2017222856A JP6959114B2 JP 6959114 B2 JP6959114 B2 JP 6959114B2 JP 2017222856 A JP2017222856 A JP 2017222856A JP 2017222856 A JP2017222856 A JP 2017222856A JP 6959114 B2 JP6959114 B2 JP 6959114B2
Authority
JP
Japan
Prior art keywords
classification
probability
target image
image
ratio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017222856A
Other languages
Japanese (ja)
Other versions
JP2019095910A (en
Inventor
大輝 野嶋
友之 今泉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pasco Corp
Original Assignee
Pasco Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pasco Corp filed Critical Pasco Corp
Priority to JP2017222856A priority Critical patent/JP6959114B2/en
Publication of JP2019095910A publication Critical patent/JP2019095910A/en
Application granted granted Critical
Publication of JP6959114B2 publication Critical patent/JP6959114B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、誤判別可能性評価装置、誤判別可能性評価方法及びプログラムに関する。 The present invention relates to a erroneous discrimination possibility evaluation device, a erroneous discrimination possibility evaluation method, and a program.

手作業によって、あるいは、学習済の機械学習モデルを用いて、画像に表れている樹木種別の判別などといった、画像分類の判別が行われている。このような判別において、判別精度を高めるため熟練者などといった担当者による画像分類の判別結果の確認作業が行われることがある。 Image classification is discriminated, such as by hand or by using a trained machine learning model to discriminate the tree type that appears in the image. In such discrimination, a person in charge such as an expert may confirm the discrimination result of the image classification in order to improve the discrimination accuracy.

また特許文献1には、分光特性や放射特性などによる画像の自動分類の結果に基づいて、センシング画像内の位置と関連付けて保存された判読結果の地物のうちから特異な尤度を有する地物を判読修正候補として出力する技術が記載されている。 Further, Patent Document 1 describes a ground having a peculiar likelihood among features of interpretation results saved in association with a position in a sensing image based on the result of automatic classification of images based on spectral characteristics, radiation characteristics, and the like. A technique for outputting an object as a candidate for interpretation correction is described.

特開2009−251793号公報Japanese Unexamined Patent Publication No. 2009-251793

手作業による判別であっても学習済の機械学習を用いた判別であっても、例えば樹木種別の境界付近を撮影した画像などといった複数の分類の物体が混在して表れている画像については、画像分類の誤判別の可能性が高くなる傾向にある。一方、単一の分類の物体しか表れていない画像については、画像分類の誤判別の可能性は低い。このように、画像分類の誤判別の可能性は画像によってまちまちである。 Regardless of whether the discrimination is performed manually or by using trained machine learning, for an image in which objects of multiple classifications appear in a mixed manner, such as an image taken near the boundary of a tree type. There is a tendency for the possibility of misclassification of image classification to increase. On the other hand, for images in which only objects of a single classification appear, the possibility of misclassification of image classification is low. As described above, the possibility of misclassification of image classification varies depending on the image.

しかし誤判別の可能性の高さとは無関係に担当者による画像分類の判別結果の確認作業はすべての画像について同様に行われており、このことは担当者にとって多大な負荷となっていた。 However, regardless of the high possibility of erroneous discrimination, the work of confirming the discrimination result of the image classification by the person in charge is performed in the same manner for all the images, which is a great burden on the person in charge.

ここで画像分類の誤判別の可能性を的確に評価できれば評価結果に応じた確認作業が可能となるため、画像分類の判別結果の確認作業の効率化が期待できる。 Here, if the possibility of erroneous discrimination of image classification can be accurately evaluated, the confirmation work according to the evaluation result becomes possible, so that the efficiency of the confirmation work of the discrimination result of image classification can be expected.

なお特許文献1に記載の技術では、判読修正候補の特定において判読結果の地物が異なる地物である確率について考慮されておらず、そのため判読結果の地物を判読修正候補とするか否かが的確に評価されないことがあった。 It should be noted that the technique described in Patent Document 1 does not consider the probability that the feature of the interpretation result is a different feature in the identification of the interpretation correction candidate, and therefore whether or not the feature of the interpretation result is a candidate for interpretation correction. Was not evaluated accurately in some cases.

本発明は上記課題に鑑みてなされたものであって、その目的の1つは、画像分類の誤判別の可能性を的確に評価できる誤判別可能性評価装置、誤判別可能性評価方法及びプログラムを提供することにある。 The present invention has been made in view of the above problems, and one of the purposes thereof is an erroneous discrimination possibility evaluation device, a erroneous discrimination possibility evaluation method, and a program capable of accurately evaluating the possibility of erroneous discrimination in image classification. Is to provide.

(1)本発明に係る誤判別可能性評価装置は、分類の判別対象であるターゲット画像を取得するターゲット画像取得手段と、所与の複数の分類のうちのいずれかを、前記ターゲット画像の分類である可能性が最も高い第1分類として判別する第1分類判別手段と、前記第1分類の物体が表れている確率が第1の確率より低く前記複数の分類のうち前記第1分類とは異なる分類の物体が表れている確率が第2の確率より高い前記ターゲット画像内の領域の大きさの、前記ターゲット画像の全体の大きさに対する比率を特定する比率特定手段と、前記比率に基づいて、前記第1分類判別手段の判別結果が誤判別である可能性を示す値を決定する誤判別可能性評価手段と、を含む。 (1) The erroneous discrimination possibility evaluation device according to the present invention classifies the target image by classifying the target image acquisition means for acquiring the target image to be classified and any one of a plurality of given classifications. The first classification discriminating means for discriminating as the first classification having the highest possibility of being, and the first classification among the plurality of classifications in which the probability that the object of the first classification appears is lower than the first probability. Based on the ratio specifying means for specifying the ratio of the size of the region in the target image to the overall size of the target image, in which the probability that objects of different classifications appear is higher than the second probability, and the ratio. , The erroneous discrimination possibility evaluation means for determining a value indicating the possibility that the discrimination result of the first classification discriminating means is erroneous discrimination.

(2)上記(1)に記載の誤判別可能性評価装置において、前記ターゲット画像に基づいて、前記複数の分類のうちから、当該ターゲット画像の分類である可能性が2番目に高い分類を第2分類として判別する第2分類判別手段、をさらに含み、前記比率特定手段は、前記第1分類の物体が表れている確率が前記第1の確率より低く、前記第2分類の物体が表れている確率が前記第2の確率より高い、前記ターゲット画像内の領域の大きさの、前記ターゲット画像の大きさに対する比率を特定する構成とすることができる。 (2) In the misdiscrimination possibility evaluation device according to (1) above, based on the target image, the classification with the second highest possibility of being the classification of the target image is selected from the plurality of classifications. The second classification discriminating means for discriminating as two classifications is further included, and the ratio specifying means has a lower probability that an object of the first classification appears than the first probability, and an object of the second classification appears. It is possible to specify the ratio of the size of the region in the target image to the size of the target image, which has a higher probability of being present than the second probability.

(3)上記(1)又は(2)に記載の誤判別可能性評価装置において、前記比率特定手段は、前記ターゲット画像内の着目領域を占める画像内における、前記第1分類の物体が表れている確率が前記第1の確率より低く前記複数の分類のうち前記第1分類とは異なる分類の物体が表れている確率が前記第2の確率より高い領域の大きさの、当該画像の大きさに対する比率を特定する構成とすることができる。 (3) In the erroneous discrimination possibility evaluation device according to the above (1) or (2), the ratio specifying means appears the object of the first classification in the image occupying the region of interest in the target image. The size of the image in which the probability of being present is lower than the first probability and the probability that an object of a classification different from the first classification appears among the plurality of classifications is higher than the second probability. It can be configured to specify the ratio to.

(4)上記(1)又は(2)に記載の誤判別可能性評価装置において、前記比率特定手段は、前記ターゲット画像内の着目領域を占める画像内における、前記第1分類の物体が表れている確率が前記第1の確率より低く前記複数の分類のうち前記第1分類とは異なる分類の物体が表れている確率が前記第2の確率より高い領域の大きさの、当該画像の大きさに対する比率を第1比率として特定し、前記比率特定手段は、前記ターゲット画像内の前記着目領域以外の領域を占める画像内における、前記第1分類の物体が表れている確率が前記第1の確率より低く前記複数の分類のうち前記第1分類とは異なる分類の物体が表れている確率が前記第2の確率より高い領域の大きさの、当該画像の大きさに対する比率を第2比率として特定し、前記誤判別可能性評価手段は、所定の重みに基づく前記第1比率と前記第2比率との重み付き平均値に基づいて、前記第1分類判別手段の判別結果が誤判別である可能性を示す値を決定する構成とすることができる。 (4) In the erroneous discrimination possibility evaluation device according to the above (1) or (2), in the ratio specifying means, the object of the first classification appears in the image occupying the region of interest in the target image. The size of the image in the size of the region where the probability of being present is lower than the first probability and the probability that an object of a classification different from the first classification appears among the plurality of classifications is higher than the second probability. The ratio to the first ratio is specified as the first ratio, and the ratio specifying means has the first probability that an object of the first classification appears in an image occupying a region other than the region of interest in the target image. The ratio of the size of the region where the probability that an object of the plurality of classifications different from the first classification appears is lower than the second probability to the size of the image is specified as the second ratio. However, in the erroneous discrimination possibility evaluation means, the discrimination result of the first classification discrimination means may be erroneous discrimination based on the weighted average value of the first ratio and the second ratio based on a predetermined weight. It can be configured to determine a value indicating sex.

(5)本発明に係る誤判別可能性評価方法は、分類の判別対象であるターゲット画像を取得するターゲット画像取得ステップと、所与の複数の分類のうちのいずれかを、前記ターゲット画像の分類である可能性が最も高い第1分類として判別する第1分類判別ステップと、前記第1分類の物体が表れている確率が第1の確率より低く前記複数の分類のうち前記第1分類とは異なる分類の物体が表れている確率が第2の確率より高い前記ターゲット画像内の領域の大きさの、前記ターゲット画像の全体の大きさに対する比率を特定する比率特定ステップと、前記比率に基づいて、前記第1分類判別ステップでの判別結果が誤判別である可能性を示す値を決定する誤判別可能性評価ステップと、を含む。 (5) In the erroneous discrimination possibility evaluation method according to the present invention, the target image acquisition step for acquiring the target image to be classified is classified, and any one of a plurality of given classifications is classified into the target image. The first classification determination step for determining as the first classification having the highest possibility of being, and the first classification among the plurality of classifications in which the probability that the object of the first classification appears is lower than the first probability. Based on the ratio specifying step that specifies the ratio of the size of the region in the target image to the overall size of the target image, where the probability that objects of different classifications appear is higher than the second probability, and the ratio. The erroneous discrimination possibility evaluation step of determining a value indicating the possibility that the discrimination result in the first classification discrimination step is erroneous discrimination is included.

(6)本発明に係るプログラムは、分類の判別対象であるターゲット画像を取得するターゲット画像取得手順、所与の複数の分類のうちのいずれかを、前記ターゲット画像の分類である可能性が最も高い第1分類として判別する第1分類判別手順、前記第1分類の物体が表れている確率が第1の確率より低く前記複数の分類のうち前記第1分類とは異なる分類の物体が表れている確率が第2の確率より高い前記ターゲット画像内の領域の大きさの、前記ターゲット画像の全体の大きさに対する比率を特定する比率特定手順、前記比率に基づいて、前記第1分類判別手順での判別結果が誤判別である可能性を示す値を決定する誤判別可能性評価手順、をコンピュータに実行させる。 (6) In the program according to the present invention, it is most likely that the target image acquisition procedure for acquiring the target image to be discriminated by classification or any one of a plurality of given classifications is the classification of the target image. The first classification discrimination procedure for discriminating as a high first classification, the probability that an object of the first classification appears is lower than the first probability, and among the plurality of classifications, an object of a classification different from the first classification appears. In the ratio specifying procedure for specifying the ratio of the size of the region in the target image whose probability of being present is higher than the second probability to the total size of the target image, and in the first classification determination procedure based on the ratio. Have the computer execute a misdiscrimination possibility evaluation procedure for determining a value indicating the possibility that the discriminant result of is misdiscrimination.

本発明によれば、画像の分類の誤判別の可能性を的確に評価できる。 According to the present invention, the possibility of erroneous discrimination of image classification can be accurately evaluated.

本発明の一実施形態に係る画像分類判別装置の構成図である。It is a block diagram of the image classification discrimination apparatus which concerns on one Embodiment of this invention. ターゲット画像の一例を示す図である。It is a figure which shows an example of a target image. 第1分類評価画像の一例を示す図である。It is a figure which shows an example of the 1st classification evaluation image. 対比分類評価画像の一例を示す図である。It is a figure which shows an example of the contrast classification evaluation image. 誤判別評価画像の一例を示す図である。It is a figure which shows an example of a misdiscrimination evaluation image. ターゲット画像の別の一例を示す図である。It is a figure which shows another example of a target image. 第1分類評価画像の別の一例を示す図である。It is a figure which shows another example of the 1st classification evaluation image. 対比分類評価画像の別の一例を示す図である。It is a figure which shows another example of the contrast classification evaluation image. 誤判別評価画像の別の一例を示す図である。It is a figure which shows another example of a misdiscrimination evaluation image. 画像分類判別モジュール、及び、可視化マップ生成モジュールの一例を示す図である。It is a figure which shows an example of an image classification discrimination module and a visualization map generation module. 本発明の一実施形態に係る画像分類判別装置の機能の一例を示す機能ブロック図である。It is a functional block diagram which shows an example of the function of the image classification discrimination apparatus which concerns on one Embodiment of this invention. 図2に示すターゲット画像における着目領域の一例を示す図である。It is a figure which shows an example of the region of interest in the target image shown in FIG. 本発明の一実施形態に係る画像分類判別装置で行われる処理の流れの一例を示すフロー図である。It is a flow figure which shows an example of the flow of the process performed by the image classification discrimination apparatus which concerns on one Embodiment of this invention.

以下、本発明の一実施形態について図面に基づき詳細に説明する。 Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.

図1は、本発明の一実施形態に係る画像分類判別装置10の構成図である。本実施形態に係る画像分類判別装置10は、パーソナルコンピュータなどのコンピュータである。図1に示すように画像分類判別装置10は、例えば、プロセッサ12、記憶部14、表示部16、操作部18を含んでいる。 FIG. 1 is a configuration diagram of an image classification discriminating device 10 according to an embodiment of the present invention. The image classification discrimination device 10 according to the present embodiment is a computer such as a personal computer. As shown in FIG. 1, the image classification determination device 10 includes, for example, a processor 12, a storage unit 14, a display unit 16, and an operation unit 18.

プロセッサ12は、例えば画像分類判別装置10にインストールされるプログラムに従って動作するCPU等のプログラム制御デバイスである。 The processor 12 is, for example, a program control device such as a CPU that operates according to a program installed in the image classification determination device 10.

記憶部14は、ROMやRAM等の記憶素子やハードディスクドライブなどである。記憶部14には、プロセッサ12によって実行されるプログラムなどが記憶される。 The storage unit 14 is a storage element such as a ROM or RAM, a hard disk drive, or the like. The storage unit 14 stores a program or the like executed by the processor 12.

表示部16は、液晶ディスプレイ等の表示デバイスであって、プロセッサ12の指示に従って各種の画像を表示する。 The display unit 16 is a display device such as a liquid crystal display, and displays various images according to the instructions of the processor 12.

操作部18は、キーボードやマウスなどといったユーザインタフェースであって、ユーザの操作入力を受け付けて、その内容を示す信号をプロセッサ12に出力する。 The operation unit 18 is a user interface such as a keyboard or a mouse, receives an operation input of the user, and outputs a signal indicating the contents to the processor 12.

なお、画像分類判別装置10は、ネットワークボードなどの通信インタフェース、DVD−ROMやBlu−ray(登録商標)ディスクなどの光ディスクを読み取る光ディスクドライブ、USB(Universal Serial Bus)ポートなどを含んでいてもよい。 The image classification / discrimination device 10 may include a communication interface such as a network board, an optical disk drive for reading an optical disk such as a DVD-ROM or a Blu-ray (registered trademark) disk, a USB (Universal Serial Bus) port, and the like. ..

本実施形態に係る画像分類判別装置10では、分類の判別対象である画像について、所与の複数の分類のうちのいずれかを、当該画像の分類である可能性が最も高い第1分類として判別する処理が実行される。以下、画像の分類である可能性がn番目に高い分類として判別される分類を第n分類(n=1,2,3,・・・)と呼ぶこととする。また本実施形態に係る画像分類判別装置10では、当該判別の結果が誤判別である可能性を評価する処理が実行される。以下、これらの処理の対象である画像をターゲット画像と呼ぶこととする。 In the image classification discriminating device 10 according to the present embodiment, with respect to the image to be discriminated by classification, any one of a plurality of given classifications is discriminated as the first classification most likely to be the classification of the image. The process to be executed is executed. Hereinafter, the classification determined as the nth most likely classification of images will be referred to as the nth classification (n = 1, 2, 3, ...). Further, in the image classification discrimination device 10 according to the present embodiment, a process of evaluating the possibility that the result of the discrimination is erroneous discrimination is executed. Hereinafter, the image that is the target of these processes will be referred to as a target image.

図2は、ターゲット画像20の一例を示す図である。図2に示すターゲット画像20は、森林等を撮影した航空機画像から縦横それぞれ10メートル間隔で切り出された複数のパッチ画像のうちの1つであってもよい。またターゲット画像20は、1ピクセルが縦横16センチメートルに相当する、縦横それぞれ224ピクセルの画像(縦横35.84メートルに相当)であってもよい。 FIG. 2 is a diagram showing an example of the target image 20. The target image 20 shown in FIG. 2 may be one of a plurality of patch images cut out at intervals of 10 meters in each of the vertical and horizontal directions from an aircraft image obtained by photographing a forest or the like. Further, the target image 20 may be an image of 224 pixels in each of the vertical and horizontal directions (corresponding to 35.84 meters in length and width) in which one pixel corresponds to 16 cm in length and width.

そして本実施形態では例えば、ターゲット画像20に表れている樹木種別の分類を判別する処理、及び、当該判別の結果が誤判別である可能性を評価する処理が実行される。ここで樹木種別の分類の例としては、スギ、ヒノキ、マツ、タケ、落葉広葉樹、常緑広葉樹、森林外などが挙げられる。なお樹木種別の分類の判別において、例えばターゲット画像20の中心付近に表れている樹木種別である可能性が最も高い分類が判別されるようにしてもよい。より具体的には例えば、ターゲット画像20と中心が同じである、ターゲット画像20の一部を占める領域に表れている樹木種別である可能性が最も高い分類が判別されるようにしてもよい。 Then, in the present embodiment, for example, a process of discriminating the classification of the tree type appearing in the target image 20 and a process of evaluating the possibility that the result of the discrimination is erroneous discrimination are executed. Here, examples of classification by tree type include sugi, cypress, pine, bamboo, deciduous broad-leaved trees, evergreen broad-leaved trees, and out-of-forest. In determining the classification of the tree type, for example, the classification most likely to be the tree type appearing near the center of the target image 20 may be determined. More specifically, for example, the classification most likely to be the tree type appearing in the area occupying a part of the target image 20 having the same center as the target image 20 may be determined.

また本実施形態では、ターゲット画像20内の各画素について、当該画素に第1分類の物体が表れている確率が特定される。以下、当該確率を第1分類確率と呼ぶこととする。そして当該第1分類確率が所定の第1の確率より低い領域が表現された、図3に例示する第1分類評価画像22が生成される。第1分類評価画像22では、第1分類確率が第1の確率よりも低い画素が占める領域がドットで示されている。以下、当該領域を第1領域24と呼ぶこととする。第1分類評価画像22の全体の大きさに対する第1領域24の大きさの比率は、ターゲット画像20内において第1分類確率が上述の第1の確率よりも低い画素が占める領域の大きさの、ターゲット画像20の全体の大きさに対する比率に相当する。 Further, in the present embodiment, for each pixel in the target image 20, the probability that an object of the first classification appears in the pixel is specified. Hereinafter, the probability will be referred to as a first classification probability. Then, the first classification evaluation image 22 illustrated in FIG. 3 is generated, in which a region in which the first classification probability is lower than the predetermined first probability is represented. In the first classification evaluation image 22, the area occupied by the pixels whose first classification probability is lower than the first probability is indicated by dots. Hereinafter, the region will be referred to as a first region 24. The ratio of the size of the first region 24 to the total size of the first classification evaluation image 22 is the size of the region occupied by the pixels whose first classification probability is lower than the above-mentioned first probability in the target image 20. , Corresponds to the ratio to the total size of the target image 20.

また本実施形態では例えば、ターゲット画像20内の各画素について、第1分類とは異なる分類(以下、対比分類と呼ぶ。)の物体が表れている確率が特定される。以下、当該確率を対比分類確率と呼ぶこととする。そして当該対比分類確率が所定の第2の確率より高い領域が表現された、図4に例示する対比分類評価画像26が生成される。ここで第2の確率は上述の第1の確率と同じであってもよいし異なっていてもよい。対比分類評価画像26では、対比分類確率が第2の確率よりも高い画素が占める領域がドットで示されている。以下、当該領域を対比領域28と呼ぶこととする。対比分類評価画像26の全体の大きさに対する対比領域28の大きさの比率は、ターゲット画像20内において対比分類確率が上述の第2の確率よりも高い画素が占める領域の大きさの、ターゲット画像20の全体の大きさに対する比率に相当する。ここで対比分類は、ターゲット画像20の分類である可能性が2番目に高い分類として判別される分類(第2分類)であっても構わない。 Further, in the present embodiment, for example, for each pixel in the target image 20, the probability that an object of a classification different from the first classification (hereinafter, referred to as a contrast classification) appears is specified. Hereinafter, the probability will be referred to as a contrast classification probability. Then, the contrast classification evaluation image 26 illustrated in FIG. 4 is generated, in which the region in which the contrast classification probability is higher than the predetermined second probability is represented. Here, the second probability may be the same as or different from the first probability described above. In the contrast classification evaluation image 26, the area occupied by the pixels whose contrast classification probability is higher than the second probability is indicated by dots. Hereinafter, the region will be referred to as a comparison region 28. The ratio of the size of the contrast region 28 to the total size of the contrast classification evaluation image 26 is the size of the region occupied by the pixels whose contrast classification probability is higher than the above-mentioned second probability in the target image 20. Corresponds to the ratio of 20 to the total size. Here, the contrast classification may be a classification (second classification) that is determined as the classification having the second highest possibility of being the classification of the target image 20.

本実施形態に係る第1分類評価画像22、及び、対比分類評価画像26は、ターゲット画像20と同形同サイズ同画素数である。そしてターゲット画像20内の画素は、第1分類評価画像22内の画素と1対1で対応付けられる。またターゲット画像20内の画素は、対比分類評価画像26内の画素と1対1で対応付けられる。 The first classification evaluation image 22 and the comparison classification evaluation image 26 according to the present embodiment have the same shape, the same size, and the same number of pixels as the target image 20. Then, the pixels in the target image 20 are associated with the pixels in the first classification evaluation image 22 on a one-to-one basis. Further, the pixels in the target image 20 are associated with the pixels in the contrast classification evaluation image 26 on a one-to-one basis.

そして本実施形態では、第1分類評価画像22と対比分類評価画像26とに基づいて、図5に例示する誤判別評価画像30が生成される。本実施形態に係る誤判別評価画像30は、ターゲット画像20と同形同サイズ同画素数である。そしてターゲット画像20内の画素は、誤判別評価画像30内の画素とも1対1で対応付けられる。 Then, in the present embodiment, the erroneous discrimination evaluation image 30 illustrated in FIG. 5 is generated based on the first classification evaluation image 22 and the contrast classification evaluation image 26. The misdiscrimination evaluation image 30 according to the present embodiment has the same shape, the same size, and the same number of pixels as the target image 20. Then, the pixels in the target image 20 are also associated with the pixels in the erroneous discrimination evaluation image 30 on a one-to-one basis.

本実施形態では例えば、第1分類評価画像22におけるドット部分と対比分類評価画像26におけるドット部分との論理積が、誤判別評価画像30におけるドット部分として示されている。以下、誤判別評価画像30内においてドット部分が占める領域を誤判別領域32と呼ぶこととする。誤判別領域32内の画素に対応付けられるターゲット画像20内の画素は、第1分類確率が上述の第1の確率よりも低く、かつ、対比分類確率が上述の第2の確率よりも高い画素であることとなる。 In the present embodiment, for example, the logical product of the dot portion in the first classification evaluation image 22 and the dot portion in the contrast classification evaluation image 26 is shown as the dot portion in the erroneous discrimination evaluation image 30. Hereinafter, the area occupied by the dot portion in the erroneous discrimination evaluation image 30 will be referred to as a erroneous discrimination region 32. The pixels in the target image 20 associated with the pixels in the erroneous discrimination region 32 have a first classification probability lower than the first probability described above and a contrast classification probability higher than the second probability described above. Will be.

そして本実施形態では例えば、誤判別領域32の大きさの、誤判別評価画像30の全体の大きさに対する比率に基づいて、ターゲット画像20の分類である可能性が最も高い分類を上述の第1分類とする判別結果が誤判別である可能性を示す値が決定される。 Then, in the present embodiment, for example, based on the ratio of the size of the erroneous discrimination region 32 to the total size of the erroneous discrimination evaluation image 30, the classification most likely to be the classification of the target image 20 is the above-mentioned first classification. A value indicating the possibility that the discrimination result to be classified is erroneous discrimination is determined.

ここで例えば当該比率が所定の閾値よりも大きい場合に上述の判別結果が誤判別である可能性を示す値として1が決定されてもよい。逆に、当該比率が当該所定の閾値よりも小さい場合に上述の判別結果が誤判別である可能性を示す値として0が決定されてもよい。 Here, for example, when the ratio is larger than a predetermined threshold value, 1 may be determined as a value indicating the possibility that the above-mentioned discrimination result is erroneous discrimination. On the contrary, when the ratio is smaller than the predetermined threshold value, 0 may be determined as a value indicating the possibility that the above-mentioned discrimination result is erroneous discrimination.

図5に示す誤判別評価画像30では、誤判別領域32の大きさの、誤判別評価画像30の全体の大きさに対する比率は46.8%である。ここで例えば閾値が30%である場合に、上述の判別結果が誤判別である可能性を示す値として1が決定されてもよい。 In the erroneous discrimination evaluation image 30 shown in FIG. 5, the ratio of the size of the erroneous discrimination region 32 to the total size of the erroneous discrimination evaluation image 30 is 46.8%. Here, for example, when the threshold value is 30%, 1 may be determined as a value indicating the possibility that the above-mentioned discrimination result is erroneous discrimination.

図6は、ターゲット画像20とは別のターゲット画像40の一例を示す図である。図7は、図6に示すターゲット画像40に基づいて生成される第1分類評価画像42の一例を示す図である。図7に示す第1分類評価画像42には、第1領域44が示されている。図8は、図6に示すターゲット画像40に基づいて生成される対比分類評価画像46の一例を示す図である。図8に示す対比分類評価画像46には、対比領域48が示されている。図9は、図7に示す第1分類評価画像42及び図8に示す対比分類評価画像46に基づいて生成される誤判別評価画像50の一例を示す図である。図9に示す誤判別評価画像50には、誤判別領域52が示されている。 FIG. 6 is a diagram showing an example of a target image 40 different from the target image 20. FIG. 7 is a diagram showing an example of a first classification evaluation image 42 generated based on the target image 40 shown in FIG. The first classification evaluation image 42 shown in FIG. 7 shows the first region 44. FIG. 8 is a diagram showing an example of a contrast classification evaluation image 46 generated based on the target image 40 shown in FIG. The contrast region 48 is shown in the contrast classification evaluation image 46 shown in FIG. FIG. 9 is a diagram showing an example of an erroneous discrimination evaluation image 50 generated based on the first classification evaluation image 42 shown in FIG. 7 and the contrast classification evaluation image 46 shown in FIG. The erroneous discrimination evaluation image 50 shown in FIG. 9 shows the erroneous discrimination region 52.

図9に示す誤判別評価画像50では、誤判別領域52の大きさの、誤判別評価画像50の全体の大きさに対する比率は5.8%である。ここで例えば閾値が30%である場合に、上述の判別結果が誤判別である可能性を示す値として0が決定されてもよい。 In the erroneous discrimination evaluation image 50 shown in FIG. 9, the ratio of the size of the erroneous discrimination region 52 to the total size of the erroneous discrimination evaluation image 50 is 5.8%. Here, for example, when the threshold value is 30%, 0 may be determined as a value indicating the possibility that the above-mentioned discrimination result is erroneous discrimination.

以上のようにして本実施形態に係る画像分類判別装置10によれば、画像の分類の誤判別の可能性を的確に評価できることとなる。そのため例えば誤判別である可能性を示す値として1が決定されるターゲット画像を重点的に確認作業の担当者に確認させることで、当該担当者によるターゲット画像の分類の判別結果の確認作業が効率化される。 As described above, according to the image classification discrimination device 10 according to the present embodiment, the possibility of erroneous discrimination of image classification can be accurately evaluated. Therefore, for example, by having the person in charge of the confirmation work mainly confirm the target image in which 1 is determined as a value indicating the possibility of erroneous discrimination, the work of confirming the determination result of the classification of the target image by the person in charge is efficient. Be transformed.

ここで例えば上述のように、航空機画像から縦横それぞれ10メートル間隔で切り出された複数のパッチ画像がターゲット画像として用いられることとする。この場合に、それぞれのターゲット画像について判別された第1分類に対応付けられる色の画素が縦横に配置されたマップが表示部16に表示されるようにしてもよい。そして当該マップにおいて、誤判別である可能性を示す値として1が決定されたターゲット画像に対応付けられる画素は黒枠で囲まれる等の強調表示がされるようにしてもよい。そして確認作業の担当者が表示されたマップを確認するようにしてもよい。 Here, for example, as described above, it is assumed that a plurality of patch images cut out from the aircraft image at intervals of 10 meters in each of the vertical and horizontal directions are used as the target image. In this case, a map in which pixels of colors associated with the first classification determined for each target image are arranged vertically and horizontally may be displayed on the display unit 16. Then, in the map, the pixel associated with the target image in which 1 is determined as a value indicating the possibility of erroneous discrimination may be highlighted such as being surrounded by a black frame. Then, the person in charge of the confirmation work may confirm the displayed map.

また例えば、誤判別領域の大きさの、誤判別評価画像の全体の大きさに対する比率自体が、画像の分類の誤判別の可能性を示す値として決定されてもよい。この場合に、誤判別領域の大きさの、誤判別評価画像の全体の大きさに対する比率を示す値が、ターゲット画像とともに確認作業の担当者に提示されるようにしてもよい。この場合は、当該担当者は、画像の分類の誤判別の可能性を示す値を参照しながらターゲット画像の確認が行えるので、当該担当者によるターゲット画像の分類の判別結果の確認作業が効率化される。 Further, for example, the ratio of the size of the erroneous discrimination region to the overall size of the erroneous discrimination evaluation image may be determined as a value indicating the possibility of erroneous discrimination of the image classification. In this case, a value indicating the ratio of the size of the erroneous discrimination region to the overall size of the erroneous discrimination evaluation image may be presented to the person in charge of the confirmation work together with the target image. In this case, the person in charge can confirm the target image while referring to the value indicating the possibility of erroneous determination of the image classification, so that the person in charge can confirm the determination result of the classification of the target image more efficiently. Will be done.

以下、図2に示すターゲット画像20を題材として、画像分類の判別、及び、画像分類の誤判別の可能性の評価の一例についてさらに説明する。 Hereinafter, an example of determining the image classification and evaluating the possibility of erroneous determination of the image classification will be further described using the target image 20 shown in FIG. 2 as a subject.

図10には、本実施形態に係る画像分類判別装置10において実装される画像分類判別モジュール60及び可視化マップ生成モジュール64の一例が示されている。ここで画像分類判別モジュール60は例えば、ターゲット画像20の分類を判別するモジュールである。また可視化マップ生成モジュール64は例えば、第1分類評価画像22や対比分類評価画像26の基礎となる可視化マップ62を生成するモジュールである。 FIG. 10 shows an example of the image classification discrimination module 60 and the visualization map generation module 64 implemented in the image classification discrimination device 10 according to the present embodiment. Here, the image classification determination module 60 is, for example, a module for determining the classification of the target image 20. Further, the visualization map generation module 64 is, for example, a module that generates a visualization map 62 that is the basis of the first classification evaluation image 22 and the comparison classification evaluation image 26.

画像分類判別モジュール60は、本実施形態では例えば、学習済の畳み込みニューラルネットワーク(CNN)を含んで構成される。このCNNは、例えば、ターゲット画像20と同形同サイズ同画素数の画像を入力データとして含み当該画像の樹木種別に対応付けられるラベルを教師データとして含む学習データを学習した機械学習モデルである。ここで教師データとして、入力データである画像の中心に表れている樹木種別に対応付けられるラベルを含んでいてもよい。 In the present embodiment, the image classification discrimination module 60 includes, for example, a trained convolutional neural network (CNN). This CNN is, for example, a machine learning model in which learning data including an image having the same shape, the same size, and the same number of pixels as the target image 20 as input data and a label associated with the tree type of the image as teacher data is learned. Here, as the teacher data, a label associated with the tree type appearing in the center of the image which is the input data may be included.

そして本実施形態では例えば、特徴抽出部66にターゲット画像20が入力68として入力される。特徴抽出部66は、例えばCNNの畳み込み層やプーリング層を含んで構成される。そして特徴抽出部66は、当該入力68に応じて、それぞれがチャネル(フィルタ)に対応付けられる複数の特徴マップ70を出力する。 Then, in the present embodiment, for example, the target image 20 is input to the feature extraction unit 66 as the input 68. The feature extraction unit 66 includes, for example, a CNN convolution layer and a pooling layer. Then, the feature extraction unit 66 outputs a plurality of feature maps 70, each of which is associated with a channel (filter), in response to the input 68.

特徴抽出部66が出力する特徴マップ70は、画像分類判別モジュール60に含まれる1又は複数の全結合層72に入力される。ここで全結合層72の数は特に問わない。そして全結合層72からの出力が、画像分類判別モジュール60に含まれるソフトマックス層73に入力される。そして、ソフトマックス層73は、画像の分類に対応付けられる確率値を要素として含む確率ベクトルを出力74として出力する。ここで例えば、ターゲット画像20に表れている樹木種別の分類を判別する場面における分類として、スギ、ヒノキ、マツ、タケ、落葉広葉樹、常緑広葉樹、及び、森林外の7個を採用することとする。この場合は、当該7個の確率値を要素として含む確率ベクトルが出力されることとなる。 The feature map 70 output by the feature extraction unit 66 is input to one or a plurality of fully connected layers 72 included in the image classification determination module 60. Here, the number of fully bonded layers 72 is not particularly limited. Then, the output from the fully connected layer 72 is input to the softmax layer 73 included in the image classification determination module 60. Then, the softmax layer 73 outputs a probability vector including a probability value associated with the classification of the image as an element as an output 74. Here, for example, as the classification in the scene of discriminating the classification of the tree type appearing in the target image 20, sugi, cypress, pine, bamboo, deciduous broad-leaved tree, evergreen broad-leaved tree, and seven trees outside the forest are adopted. .. In this case, a probability vector including the seven probability values as elements is output.

そしてこのようにして出力される確率ベクトルにおいて最も大きな確率値が示されている要素に対応する分類が、入力68として入力されたターゲット画像20の分類である可能性が最も高い第1分類として判別される。またここで対比分類も判別される。例えば対比分類が第2分類である場合は、2番目に大きな確率値に対応付けられる分類が対比分類として判別される。また例えば対比分類が第3分類である場合は、3番目に大きな確率値に対応付けられる分類が対比分類として判別される。 Then, the classification corresponding to the element showing the largest probability value in the probability vector output in this way is determined as the first classification most likely to be the classification of the target image 20 input as the input 68. Will be done. The contrast classification is also determined here. For example, when the contrast classification is the second classification, the classification associated with the second largest probability value is determined as the contrast classification. Further, for example, when the contrast classification is the third classification, the classification associated with the third largest probability value is determined as the contrast classification.

そして本実施形態では、可視化マップ生成モジュール64において、CNNの判断根拠を可視化するGrad−cam(Gradient-weighted Class Activation Mapping)の技術等を用いて可視化マップ62が生成される。 Then, in the present embodiment, in the visualization map generation module 64, the visualization map 62 is generated by using the technology of Grad-cam (Gradient-weighted Class Activation Mapping) that visualizes the judgment basis of CNN.

可視化マップ生成モジュール64では、例えば、第1分類に対応する要素が1であり他の分類に対応する要素が0であるone−hotベクトル76と、出力74である確率ベクトルと、の要素積78が計算される。そして計算された要素積78を、出力74である確率ベクトル、ソフトマックス層73、及び、全結合層72に逆伝搬させることで、それぞれがチャネル(フィルタ)に対応付けられる複数の勾配マップ80が生成される。 In the visualization map generation module 64, for example, the element product 78 of the one-hot vector 76 in which the element corresponding to the first classification is 1 and the element corresponding to the other classification is 0, and the probability vector having the output 74. Is calculated. Then, the calculated element product 78 is back-propagated to the probability vector, the softmax layer 73, and the fully connected layer 72, which are the outputs 74, so that a plurality of gradient maps 80, each of which is associated with a channel (filter), are generated. Will be generated.

そして例えばGAP(Global Average Pooling)の技術を用いて、複数の勾配マップ80のそれぞれに対応付けられる代表値(例えば勾配マップ80に含まれる画素の画素値の平均値)を要素として含む代表値ベクトル82が算出される。ここで代表値ベクトル82の要素の数は、特徴マップ70のチャネルの数となる。 Then, for example, using the technology of GAP (Global Average Pooling), a representative value vector including a representative value (for example, the average value of the pixel values of the pixels included in the gradient map 80) associated with each of the plurality of gradient maps 80 as an element. 82 is calculated. Here, the number of elements of the representative value vector 82 is the number of channels of the feature map 70.

そして各チャネルについて、当該チャネルの特徴マップ70に含まれる各画素の画素値に当該特徴マップ70に対応付けられる代表値ベクトル82の要素の値を乗ずることで、当該特徴マップ70に対応する個別マップ84が生成される。そして、すべてのチャネルの個別マップ84を合成した総合マップ86が生成される。ここでは例えば、総合マップ86に含まれる画素の画素値として、すべてのチャネルの個別マップ84についての当該画素に相当する画素の画素値の合計が設定されてもよい。 Then, for each channel, the individual map corresponding to the feature map 70 is obtained by multiplying the pixel value of each pixel included in the feature map 70 of the channel by the value of the element of the representative value vector 82 associated with the feature map 70. 84 is generated. Then, a comprehensive map 86 is generated by synthesizing the individual maps 84 of all channels. Here, for example, as the pixel values of the pixels included in the comprehensive map 86, the total of the pixel values of the pixels corresponding to the pixels for the individual maps 84 of all channels may be set.

そして総合マップ86を正規化線形関数(ReLU)等の活性化関数に入力した際の出力を、0以上1以下となるよう正規化することで、第1分類に対応付けられる可視化マップ62が生成される。このようにすることで当該可視化マップ62においては、負の勾配に対応付けられる画素については画素値が0となる。そのため、第1分類である確率を高めることに寄与する画素のみについて当該可視化マップ62においては正の画素値が設定されることとなる。 Then, by normalizing the output when the comprehensive map 86 is input to the activation function such as the normalized linear function (ReLU) so as to be 0 or more and 1 or less, the visualization map 62 associated with the first classification is generated. Will be done. By doing so, in the visualization map 62, the pixel value becomes 0 for the pixels associated with the negative gradient. Therefore, a positive pixel value is set in the visualization map 62 only for the pixels that contribute to increasing the probability of being the first classification.

そして本実施形態では同様にして、可視化マップ生成モジュール64において、対比分類に対応する要素が1であり他の分類に対応する要素が0であるone−hotベクトル76と、出力74である確率ベクトルと、の要素積78が計算される。そして計算された要素積78を、出力74である確率ベクトル、ソフトマックス層73、及び、全結合層72に逆伝搬させることで、それぞれがチャネル(フィルタ)に対応付けられる複数の勾配マップ80が生成される。そして複数の勾配マップ80のそれぞれに対応付けられる代表値を要素として含む代表値ベクトル82が算出される。 Then, in the same manner in the present embodiment, in the visualization map generation module 64, the one-hot vector 76 in which the element corresponding to the contrast classification is 1 and the element corresponding to the other classification is 0, and the probability vector having the output 74. And the element product 78 of is calculated. Then, the calculated element product 78 is back-propagated to the probability vector, the softmax layer 73, and the fully connected layer 72, which are the outputs 74, so that a plurality of gradient maps 80, each of which is associated with a channel (filter), are generated. Will be generated. Then, the representative value vector 82 including the representative value associated with each of the plurality of gradient maps 80 as an element is calculated.

そして各チャネルについて、当該チャネルの特徴マップ70に含まれる各画素の画素値に当該特徴マップ70に対応付けられる代表値ベクトル82の要素の値を乗ずることで、当該特徴マップ70に対応する個別マップ84が生成される。そして、すべてのチャネルの個別マップ84を合成した総合マップ86が生成される。 Then, for each channel, the individual map corresponding to the feature map 70 is obtained by multiplying the pixel value of each pixel included in the feature map 70 of the channel by the value of the element of the representative value vector 82 associated with the feature map 70. 84 is generated. Then, a comprehensive map 86 is generated by synthesizing the individual maps 84 of all channels.

そして総合マップ86を正規化線形関数等の活性化関数に入力した際の出力を、0以上1以下となるよう正規化することで、対比分類に対応付けられる可視化マップ62が生成される。当該可視化マップ62においても、負の勾配に対応付けられる画素については画素値が0となる。そのため、対比分類である確率を高めることに寄与する画素のみについて当該可視化マップ62においては正の画素値が設定されることとなる。 Then, by normalizing the output when the comprehensive map 86 is input to the activation function such as the normalized linear function so as to be 0 or more and 1 or less, the visualization map 62 associated with the contrast classification is generated. Also in the visualization map 62, the pixel value is 0 for the pixels associated with the negative gradient. Therefore, a positive pixel value is set in the visualization map 62 only for the pixels that contribute to increasing the probability of the contrast classification.

そして本実施形態では例えば、双線形補間等の補間技術を用いて、第1分類に対応付けられる可視化マップ62をターゲット画像20と同じ大きさに拡大した第1拡大可視化画像が生成される。第1拡大可視化画像に含まれる画素は、ターゲット画像20に含まれる画素に1対1で対応付けられることとなる。そして、第1拡大可視化画像に含まれる画素の画素値は、当該画素に対応付けられるターゲット画像20内の画素の第1分類確率を示すこととなる。ここで例えば第1拡大可視化画像に含まれる画素の画素値が1に近いほど当該画素に対応付けられるターゲット画像20内の画素に、第1分類の樹木が表れている確率が高いこととなる。また例えば、第1拡大可視化画像に含まれる画素の画素値が0に近いほど当該画素に対応付けられるターゲット画像20内の画素に、第1分類の樹木が表れている確率が低いこととなる。 Then, in the present embodiment, for example, an interpolation technique such as bilinear interpolation is used to generate a first enlarged visualization image in which the visualization map 62 associated with the first classification is enlarged to the same size as the target image 20. The pixels included in the first enlarged visualization image are associated with the pixels included in the target image 20 on a one-to-one basis. Then, the pixel value of the pixel included in the first enlarged visualization image indicates the first classification probability of the pixel in the target image 20 associated with the pixel. Here, for example, the closer the pixel value of the pixel included in the first enlarged visualization image is to 1, the higher the probability that the tree of the first classification appears in the pixel in the target image 20 associated with the pixel. Further, for example, the closer the pixel value of the pixel included in the first enlarged visualization image is to 0, the lower the probability that the tree of the first classification appears in the pixel in the target image 20 associated with the pixel.

そして本実施形態では例えば、第1拡大可視化画像に基づいて、画素値が示す確率が所定の第1の確率よりも低い画素が占める領域が表現された、図3に例示する第1分類評価画像22が生成される。 Then, in the present embodiment, for example, based on the first enlarged visualization image, the region occupied by the pixels whose probability indicated by the pixel value is lower than the predetermined first probability is represented, and the first classification evaluation image illustrated in FIG. 3 is represented. 22 is generated.

また本実施形態では、双線形補間等の補間技術を用いて、対比分類に対応付けられる可視化マップ62をターゲット画像20と同じ大きさに拡大した対比拡大可視化画像が生成される。対比拡大可視化画像に含まれる画素は、ターゲット画像20に含まれる画素に1対1で対応付けられることとなる。そして、対比拡大可視化画像に含まれる画素の画素値は、当該画素に対応付けられるターゲット画像20内の画素の対比分類確率を示すこととなる。ここで例えば対比拡大可視化画像に含まれる画素の画素値が1に近いほど当該画素に対応付けられるターゲット画像20内の画素に、対比分類の樹木が表れている確率が高いこととなる。また例えば、対比拡大可視化画像に含まれる画素の画素値が0に近いほど当該画素に対応付けられるターゲット画像20内の画素に、対比分類の樹木が表れている確率が低いこととなる。 Further, in the present embodiment, an interpolation technique such as bilinear interpolation is used to generate a contrast magnified visualization image in which the visualization map 62 associated with the contrast classification is enlarged to the same size as the target image 20. The pixels included in the contrast magnified visualization image are associated with the pixels included in the target image 20 on a one-to-one basis. Then, the pixel value of the pixel included in the contrast enlarged visualization image indicates the contrast classification probability of the pixel in the target image 20 associated with the pixel. Here, for example, the closer the pixel value of the pixel included in the contrast enlarged visualization image is to 1, the higher the probability that the tree of the contrast classification appears in the pixel in the target image 20 associated with the pixel. Further, for example, the closer the pixel value of the pixel included in the contrast enlarged visualization image is to 0, the lower the probability that the tree of the contrast classification appears in the pixel in the target image 20 associated with the pixel.

そして本実施形態では例えば、対比拡大可視化画像に基づいて、画素値が示す確率が所定の第2の確率よりも高い画素が占める領域が表現された、図4に例示する対比分類評価画像26が生成される。 Then, in the present embodiment, for example, the contrast classification evaluation image 26 illustrated in FIG. 4 represents a region occupied by pixels whose probability indicated by the pixel value is higher than a predetermined second probability based on the contrast magnified visualization image. Will be generated.

そして上述のように、第1分類評価画像22と対比分類評価画像26とに基づいて生成される誤判別評価画像30に基づいて、ターゲット画像20の分類である可能性が最も高い分類を第1分類とする判別結果が誤判別である可能性を示す値が決定されることとなる。 Then, as described above, the classification most likely to be the classification of the target image 20 is the first classification based on the misdiscrimination evaluation image 30 generated based on the first classification evaluation image 22 and the contrast classification evaluation image 26. A value indicating the possibility that the discrimination result to be classified is erroneous discrimination will be determined.

以下、本実施形態に係る画像分類判別装置10の機能並びに本実施形態に係る画像分類判別装置10で実行される処理についてさらに説明する。 Hereinafter, the functions of the image classification discrimination device 10 according to the present embodiment and the processing executed by the image classification discrimination device 10 according to the present embodiment will be further described.

図11は、本実施形態に係る画像分類判別装置10で実装される機能の一例を示す機能ブロック図である。なお、本実施形態に係る画像分類判別装置10で、図11に示す機能のすべてが実装される必要はなく、また、図11に示す機能以外の機能が実装されていても構わない。 FIG. 11 is a functional block diagram showing an example of the functions implemented in the image classification determination device 10 according to the present embodiment. It should be noted that the image classification determination device 10 according to the present embodiment does not need to be equipped with all the functions shown in FIG. 11, and may be equipped with functions other than the functions shown in FIG.

図11に示すように、本実施形態に係る画像分類判別装置10には、機能的には例えば、ターゲット画像取得部90、分類判別部92、可視化マップ生成部94、比率特定部96、誤判別可能性評価部98、が含まれる。分類判別部92は、図10に示されている画像分類判別モジュール60に相当する。可視化マップ生成部94は、図10に示されている可視化マップ生成モジュール64に相当する。ターゲット画像取得部90、分類判別部92、可視化マップ生成部94、比率特定部96、誤判別可能性評価部98は、プロセッサ12及び記憶部14を主として実装される。 As shown in FIG. 11, functionally, the image classification determination device 10 according to the present embodiment includes a target image acquisition unit 90, a classification determination unit 92, a visualization map generation unit 94, a ratio identification unit 96, and an erroneous determination. Possibility assessment unit 98, is included. The classification / discrimination unit 92 corresponds to the image classification / discrimination module 60 shown in FIG. The visualization map generation unit 94 corresponds to the visualization map generation module 64 shown in FIG. The target image acquisition unit 90, the classification determination unit 92, the visualization map generation unit 94, the ratio identification unit 96, and the erroneous discrimination possibility evaluation unit 98 are mainly equipped with the processor 12 and the storage unit 14.

本実施形態に係る画像分類判別装置10は、ターゲット画像20の分類を判別する装置としての役割だけでなく、当該判別の結果が誤判別である可能性を評価する誤判別可能性評価装置としての役割も担っている。 The image classification discrimination device 10 according to the present embodiment not only serves as a device for discriminating the classification of the target image 20, but also serves as a misclassification possibility evaluation device for evaluating the possibility that the discrimination result is erroneous discrimination. It also plays a role.

以上の機能は、コンピュータである画像分類判別装置10にインストールされた、以上の機能に対応する指令を含むプログラムをプロセッサ12で実行することにより実装されてもよい。このプログラムは、例えば、光ディスク、磁気ディスク、磁気テープ、光磁気ディスク、フラッシュメモリ等のコンピュータ読み取り可能な情報記憶媒体を介して、あるいは、インターネットなどを介して画像分類判別装置10に供給されてもよい。 The above functions may be implemented by executing the program including the commands corresponding to the above functions installed in the image classification determination device 10 which is a computer on the processor 12. This program may be supplied to the image classification discriminating device 10 via a computer-readable information storage medium such as an optical disk, a magnetic disk, a magnetic tape, a magneto-optical disk, or a flash memory, or via the Internet or the like. good.

ターゲット画像取得部90は、本実施形態では例えば、分類の判別対象であるターゲット画像20を取得する。 In the present embodiment, the target image acquisition unit 90 acquires, for example, the target image 20 which is the discrimination target of the classification.

分類判別部92は、本実施形態では例えば、所与の複数の分類のうちのいずれかを、ターゲット画像20の分類である可能性が最も高い第1分類として判別する。ここでターゲット画像20に基づいて、当該ターゲット画像20の分類である可能性が最も高い分類が第1分類として判別されてもよい。 In the present embodiment, the classification discriminating unit 92 discriminates, for example, any one of a plurality of given classifications as the first classification most likely to be the classification of the target image 20. Here, based on the target image 20, the classification most likely to be the classification of the target image 20 may be determined as the first classification.

ここで予め、第n分類が対比分類として定められていることとする。この場合、分類判別部92は、ターゲット画像20の分類である可能性がn番目に高い分類を対比分類として判別する処理も実行する。ここで第2分類が対比分類として判別されてもよいし、第3分類が対比分類として判別されてもよい。 Here, it is assumed that the nth classification is defined in advance as a comparison classification. In this case, the classification discrimination unit 92 also executes a process of discriminating the classification having the nth highest possibility of being the classification of the target image 20 as a comparison classification. Here, the second classification may be discriminated as a contrast classification, or the third classification may be discriminated as a contrast classification.

なお分類判別部92が、複数の分類を対比分類として判別してもよい。具体的には例えば、第2分類及び第3分類が、対比分類として判別されてもよい。 The classification discrimination unit 92 may discriminate a plurality of classifications as comparative classifications. Specifically, for example, the second classification and the third classification may be discriminated as contrast classifications.

また以上の説明では、分類判別部92が画像分類判別モジュール60によって実装されている例について説明したが、分類判別部92が画像分類判別モジュール60によって実装されている必要はない。 Further, in the above description, an example in which the classification discriminating unit 92 is implemented by the image classification discriminating module 60 has been described, but it is not necessary that the classification discriminating unit 92 is implemented by the image classification discriminating module 60.

例えば分類判別部92が、テンプレートマッチング等の他の画像処理技術を用いて、所与の複数の分類のうちのいずれかを、ターゲット画像20の分類である可能性が最も高い第1分類として判別してもよい。また分類判別部92が、テンプレートマッチング等の他の画像処理技術を用いて、ターゲット画像20の対比分類を判別してもよい。 For example, the classification discriminating unit 92 discriminates one of a plurality of given classifications as the first classification most likely to be the classification of the target image 20 by using another image processing technique such as template matching. You may. Further, the classification determination unit 92 may determine the contrast classification of the target image 20 by using another image processing technique such as template matching.

また例えば、操作部18を介して、ユーザが目視にて判別したターゲット画像20の第1分類を表すデータを分類判別部92が受け付けてもよい。そして分類判別部92が、当該データが表す分類を、ターゲット画像20の分類である可能性が最も高い第1分類として判別してもよい。また同様に、操作部18を介して、ユーザが目視にて判別したターゲット画像20の対比分類を表すデータを分類判別部92が受け付けてもよい。そして分類判別部92が、当該データが表す分類を、ターゲット画像20の対比分類として判別してもよい。 Further, for example, the classification determination unit 92 may accept data representing the first classification of the target image 20 visually determined by the user via the operation unit 18. Then, the classification determination unit 92 may determine the classification represented by the data as the first classification most likely to be the classification of the target image 20. Similarly, the classification determination unit 92 may accept data representing the contrast classification of the target image 20 visually determined by the user via the operation unit 18. Then, the classification discrimination unit 92 may discriminate the classification represented by the data as a comparison classification of the target image 20.

可視化マップ生成部94は、本実施形態では例えば、第1分類に対応付けられる可視化マップ62、及び、対比分類に対応付けられる可視化マップ62を生成する。 In the present embodiment, the visualization map generation unit 94 generates, for example, a visualization map 62 associated with the first classification and a visualization map 62 associated with the comparison classification.

可視化マップ生成部94は、例えば上述のように第1分類について生成される総合マップ86をReLU等の活性化関数に入力した際の出力を、0以上1以下となるよう正規化することで、第1分類に対応付けられる可視化マップ62を生成する。 The visualization map generation unit 94 normalizes the output when the comprehensive map 86 generated for the first classification as described above is input to the activation function such as ReLU so as to be 0 or more and 1 or less. A visualization map 62 associated with the first category is generated.

また可視化マップ生成部94は、例えば上述のように対比分類について生成される総合マップ86をReLU等の活性化関数に入力した際の出力を、0以上1以下となるよう正規化することで、対比分類に対応付けられる可視化マップ62を生成する。 Further, the visualization map generation unit 94 normalizes the output when the comprehensive map 86 generated for the contrast classification as described above is input to the activation function such as ReLU so as to be 0 or more and 1 or less. A visualization map 62 associated with the contrast classification is generated.

比率特定部96は、本実施形態では例えば、第1分類確率が第1の確率より低く対比分類確率が第2の確率より高いターゲット画像20内の領域の大きさの、ターゲット画像20の全体の大きさに対する比率を特定する。 In the present embodiment, the ratio specifying unit 96 is, for example, the entire target image 20 having a size of a region in the target image 20 having a first classification probability lower than the first probability and a contrast classification probability higher than the second probability. Identify the ratio to size.

ここで上述の第1拡大可視化画像や対比拡大可視化画像に基づいて第1分類確率が第1の確率より低く対比分類確率が第2の確率より高いターゲット画像20内の領域の大きさの、ターゲット画像20の全体の大きさに対する比率が特定される必要はない。 Here, based on the above-mentioned first magnified visualization image and contrast magnified visualization image, the target of the size of the region in the target image 20 in which the first classification probability is lower than the first probability and the contrast classification probability is higher than the second probability. It is not necessary to specify the ratio of the image 20 to the total size.

例えば比率特定部96が、第1分類に対応付けられる可視化マップ62において、画素値が示す確率が第1の確率よりも低い画素が占める領域が表現された第1分類評価画像22を生成してもよい。また比率特定部96が、対比分類に対応付けられる可視化マップ62において、画素値が示す確率が第2の確率よりも高い画素が占める領域が表現された対比分類評価画像26を生成してもよい。当該第1分類評価画像22と当該対比分類評価画像26は、可視化マップ62と同形同サイズ同画素数となる。 For example, the ratio specifying unit 96 generates the first classification evaluation image 22 in which the area occupied by the pixels whose probability indicated by the pixel value is lower than the first probability is represented in the visualization map 62 associated with the first classification. May be good. Further, the ratio specifying unit 96 may generate a contrast classification evaluation image 26 representing a region occupied by pixels whose probability indicated by the pixel value is higher than the second probability in the visualization map 62 associated with the contrast classification. .. The first classification evaluation image 22 and the comparison classification evaluation image 26 have the same shape, the same size, and the same number of pixels as the visualization map 62.

そして当該第1分類評価画像22と当該対比分類評価画像26とに基づいて、誤判別領域32が設定された誤判別評価画像30が生成されてもよい。当該誤判別評価画像30は、可視化マップ62と同形同サイズ同画素数となる。ここで当該誤判別領域32内の画素に対応する可視化マップ62内の画素は、第1分類確率が上述の第1の確率よりも低く、かつ、対比分類確率が上述の第2の確率よりも高い画素であることとなる。 Then, the erroneous discrimination evaluation image 30 in which the erroneous discrimination region 32 is set may be generated based on the first classification evaluation image 22 and the contrast classification evaluation image 26. The erroneous discrimination evaluation image 30 has the same shape, the same size, and the same number of pixels as the visualization map 62. Here, the pixels in the visualization map 62 corresponding to the pixels in the erroneous discrimination region 32 have a first classification probability lower than the above-mentioned first probability and a contrast classification probability higher than the above-mentioned second probability. It will be a high pixel.

また上述のように複数の分類が対比分類として判別されるとする。この場合に、第1分類確率が第1の確率より低く、複数の対比分類について当該対比分類についての対比分類確率が当該対比分類に対応する所定の確率より高いターゲット画像20内の領域の大きさの、ターゲット画像20の全体の大きさに対する比率が特定されてもよい。例えば第1分類確率が第1の確率より低く第2分類の対比分類確率が第2の確率より高く第3分類の対比分類確率が第3の確率より高いターゲット画像20内の領域の大きさの、ターゲット画像20の全体の大きさに対する比率が特定されてもよい。ここで第3の確率は第1の確率や第2の確率と同じであってもよいし異なっていてもよい。 Further, as described above, it is assumed that a plurality of classifications are discriminated as comparative classifications. In this case, the size of the region in the target image 20 in which the first classification probability is lower than the first probability and the contrast classification probability for the contrast classification is higher than the predetermined probability corresponding to the contrast classification for a plurality of contrast classifications. The ratio of the target image 20 to the total size may be specified. For example, the size of the region in the target image 20 where the first classification probability is lower than the first probability, the contrast classification probability of the second classification is higher than the second probability, and the contrast classification probability of the third classification is higher than the third probability. , The ratio to the total size of the target image 20 may be specified. Here, the third probability may be the same as or different from the first probability and the second probability.

また比率特定部96が例えば、テンプレートマッチング等の画像処理技術を用いて、ターゲット画像20内の各画素について、第1分類確率や対比分類確率を特定してもよい。そしてこのようにして特定される第1分類確率や対比分類確率に基づいて、第1分類確率が第1の確率より低く対比分類確率が第2の確率より高いターゲット画像20内の領域の大きさの、ターゲット画像20の全体の大きさに対する比率が特定されてもよい。 Further, the ratio specifying unit 96 may specify the first classification probability and the contrast classification probability for each pixel in the target image 20 by using an image processing technique such as template matching. Then, based on the first classification probability and the contrast classification probability identified in this way, the size of the region in the target image 20 in which the first classification probability is lower than the first probability and the contrast classification probability is higher than the second probability. The ratio of the target image 20 to the total size may be specified.

誤判別可能性評価部98は、本実施形態では例えば、比率特定部96が特定する比率に基づいて、分類判別部92による、ターゲット画像20の分類である可能性が最も高い分類を第1分類とする判別結果が誤判別である可能性を示す値を決定する。例えば比率特定部96が特定する比率が所定の閾値よりも大きい場合にターゲット画像20の分類である可能性が最も高い分類を第1分類とする判別結果が誤判別である可能性を示す値として1が決定されてもよい。また例えば比率特定部96が特定する比率が所定の閾値よりも小さい場合にターゲット画像20の分類である可能性が最も高い分類を第1分類とする判別結果が誤判別である可能性を示す値として0が決定されてもよい。 In the present embodiment, the erroneous discrimination possibility evaluation unit 98 first classifies the classification most likely to be the classification of the target image 20 by the classification determination unit 92 based on the ratio specified by the ratio identification unit 96, for example. Determine a value indicating the possibility that the discrimination result is erroneous discrimination. For example, when the ratio specified by the ratio specifying unit 96 is larger than a predetermined threshold value, the classification with the highest possibility of being the classification of the target image 20 is set as the first classification. 1 may be determined. Further, for example, when the ratio specified by the ratio specifying unit 96 is smaller than a predetermined threshold value, the classification result in which the classification most likely to be the classification of the target image 20 is the first classification is a value indicating the possibility of erroneous discrimination. 0 may be determined as.

なお可視化マップ生成部94は、例えば第1分類について生成される総合マップ86に含まれるすべての画素について、画素値の正負を反転しても(−1を乗じても)よい。そして画素値の正負を反転させた総合マップ86をReLU等の活性化関数に入力した際の出力を、0以上1以下となるよう正規化することで、第1分類に対応付けられる可視化マップ62を生成してもよい。このようにすることで当該可視化マップ62においては、正の勾配に対応付けられる画素については画素値が0となる。そのため当該可視化マップ62においては、第1分類である確率を低めることに寄与する画素のみについて正の画素値が設定されることとなる。そしてこの場合に比率特定部96が、第1分類確率が第1の確率より高く対比分類確率が第2の確率より高いターゲット画像20内の領域の大きさの、ターゲット画像20の全体の大きさに対する比率を特定してもよい。 The visualization map generation unit 94 may invert the positive / negative of the pixel value (multiply by -1) for all the pixels included in the comprehensive map 86 generated for the first classification, for example. Then, by normalizing the output when the comprehensive map 86 in which the positive and negative of the pixel value is inverted to be input to the activation function such as ReLU is 0 or more and 1 or less, the visualization map 62 associated with the first classification is obtained. May be generated. By doing so, in the visualization map 62, the pixel value becomes 0 for the pixels associated with the positive gradient. Therefore, in the visualization map 62, positive pixel values are set only for the pixels that contribute to lowering the probability of being the first classification. Then, in this case, the ratio specifying unit 96 determines the overall size of the target image 20 of the area in the target image 20 in which the first classification probability is higher than the first probability and the contrast classification probability is higher than the second probability. You may specify the ratio to.

また図12に示すように、比率特定部96が、ターゲット画像20内の着目領域100を占める画像102内における、第1分類確率が第1の確率より低く対比分類確率が第2の確率より高い領域の大きさの、当該画像102の大きさに対する比率を特定してもよい。ここで着目領域100は、ターゲット画像20の中心を含む領域であってもよい。例えば着目領域100が、ターゲット画像20と中心が同じであり、ターゲット画像20を囲む領域の大きさを所定倍に縮小した領域であってもよい。 Further, as shown in FIG. 12, the ratio specifying unit 96 has a first classification probability lower than the first probability and a contrast classification probability higher than the second probability in the image 102 occupying the region of interest 100 in the target image 20. The ratio of the size of the region to the size of the image 102 may be specified. Here, the region of interest 100 may be an region including the center of the target image 20. For example, the region of interest 100 may be a region having the same center as the target image 20 and having the size of the region surrounding the target image 20 reduced by a predetermined time.

また比率特定部96が、着目領域100を占める画像102内における、第1分類確率が第1の確率より低く対比分類確率が第2の確率より高い領域の大きさの、当該画像102の大きさに対する比率を第1比率として特定してもよい。また比率特定部96が、ターゲット画像20内の着目領域100以外の領域を占める画像104内における、第1分類確率が第1の確率より低く対比分類確率が第2の確率より高い領域の大きさの、当該画像104の大きさに対する比率を第2比率として特定してもよい。 Further, the size of the image 102 in which the ratio specifying unit 96 occupies the region of interest 100 and has a region in which the first classification probability is lower than the first probability and the contrast classification probability is higher than the second probability. The ratio to is specified as the first ratio. Further, the size of the region in the image 104 in which the ratio specifying unit 96 occupies a region other than the region of interest 100 in the target image 20, the first classification probability is lower than the first probability and the contrast classification probability is higher than the second probability. The ratio to the size of the image 104 may be specified as the second ratio.

そして誤判別可能性評価部98が、所定の重みに基づく第1比率と第2比率との重み付き平均値に基づいて、分類判別部92による、ターゲット画像20の分類である可能性が最も高い分類を第1分類とする判別結果が誤判別である可能性を示す値を決定してもよい。ここで第1比率に対する重みが第2比率に対する重みよりも大きくてもよい。こうすればターゲット画像20の分類である可能性が最も高い分類を第1分類とする判別結果が誤判別である可能性の評価において第2比率よりも第1比率がより重視されることとなる。 Then, the misdiscrimination possibility evaluation unit 98 is most likely to classify the target image 20 by the classification discriminating unit 92 based on the weighted average value of the first ratio and the second ratio based on a predetermined weight. A value indicating the possibility that the discrimination result with the classification as the first classification may be an erroneous discrimination may be determined. Here, the weight with respect to the first ratio may be larger than the weight with respect to the second ratio. In this way, the first ratio is more important than the second ratio in the evaluation of the possibility that the discrimination result in which the classification with the highest possibility of being the classification of the target image 20 is the first classification is erroneous discrimination. ..

ここで例えば所定の重みに基づく第1比率と第2比率との重み付き平均値が所定の閾値より大きい場合に、ターゲット画像20の分類である可能性が最も高い分類を第1分類とする判別結果が誤判別である可能性を示す値として1が決定されてもよい。また例えば所定の重みに基づく第1比率と第2比率との重み付き平均値が所定の閾値より小さい場合に、ターゲット画像20の分類である可能性が最も高い分類を第1分類とする判別結果が誤判別である可能性を示す値として0が決定されてもよい。 Here, for example, when the weighted average value of the first ratio and the second ratio based on the predetermined weight is larger than the predetermined threshold value, the classification most likely to be the classification of the target image 20 is defined as the first classification. 1 may be determined as a value indicating the possibility that the result is a misjudgment. Further, for example, when the weighted average value of the first ratio and the second ratio based on the predetermined weight is smaller than the predetermined threshold value, the classification having the highest possibility of being the classification of the target image 20 is set as the first classification. 0 may be determined as a value indicating the possibility of erroneous determination.

以下、本実施形態に係る画像分類判別装置10において行われる処理の流れの一例を、図13に例示するフロー図を参照しながら説明する。なお図13に示す処理例においては、第2分類が対比分類であることとする。 Hereinafter, an example of the flow of processing performed in the image classification determination device 10 according to the present embodiment will be described with reference to the flow diagram illustrated in FIG. In the processing example shown in FIG. 13, the second classification is a contrast classification.

まず、ターゲット画像取得部90が、ターゲット画像20を取得する(S101)。 First, the target image acquisition unit 90 acquires the target image 20 (S101).

そして分類判別部92が、S101に示す処理で取得されたターゲット画像20の分類である可能性が最も高い分類を第1分類として判別する(S102)。 Then, the classification determination unit 92 determines the classification most likely to be the classification of the target image 20 acquired by the process shown in S101 as the first classification (S102).

そして分類判別部92が、S101に示す処理で取得されたターゲット画像20の分類である可能性が2番目に高い分類を対比分類として判別する(S103)。 Then, the classification determination unit 92 determines the classification having the second highest possibility of being the classification of the target image 20 acquired by the process shown in S101 as a comparison classification (S103).

そして可視化マップ生成部94が、S102に示す処理で判別された第1分類に対応付けられる可視化マップ62を生成する(S104)。 Then, the visualization map generation unit 94 generates a visualization map 62 associated with the first classification determined by the process shown in S102 (S104).

そして可視化マップ生成部94が、S103に示す処理で判別された対比分類に対応付けられる可視化マップ62を生成する(S105)。 Then, the visualization map generation unit 94 generates a visualization map 62 associated with the contrast classification determined by the process shown in S103 (S105).

そして比率特定部96が、S104に示す処理で生成された可視化マップ62に基づいて、第1拡大可視化画像を生成する(S106)。 Then, the ratio specifying unit 96 generates a first enlarged visualization image based on the visualization map 62 generated by the process shown in S104 (S106).

そして比率特定部96が、S105に示す処理で生成された可視化マップ62に基づいて、対比拡大可視化画像を生成する(S107)。 Then, the ratio specifying unit 96 generates a contrast enlarged visualization image based on the visualization map 62 generated by the process shown in S105 (S107).

そして比率特定部96が、S106に示す処理で生成された第1拡大可視化画像に基づいて、第1分類評価画像22を生成する(S108)。 Then, the ratio specifying unit 96 generates the first classification evaluation image 22 based on the first enlarged visualization image generated by the process shown in S106 (S108).

そして比率特定部96が、S107に示す処理で生成された対比拡大可視化画像に基づいて、対比分類評価画像26を生成する(S109)。 Then, the ratio specifying unit 96 generates a contrast classification evaluation image 26 based on the contrast enlarged visualization image generated by the process shown in S107 (S109).

そして比率特定部96が、S108に示す処理で生成された第1分類評価画像22と、S109に示す処理で生成された対比分類評価画像26と、に基づいて、誤判別評価画像30を生成する(S110)。 Then, the ratio specifying unit 96 generates an erroneous discrimination evaluation image 30 based on the first classification evaluation image 22 generated by the process shown in S108 and the comparison classification evaluation image 26 generated by the process shown in S109. (S110).

そして比率特定部96が、S110に示す処理で生成された誤判別評価画像30内における誤判別領域32の大きさの、誤判別評価画像30の全体の大きさに対する比率を特定する(S111)。 Then, the ratio specifying unit 96 specifies the ratio of the size of the erroneous discrimination region 32 in the erroneous discrimination evaluation image 30 generated by the process shown in S110 to the overall size of the erroneous discrimination evaluation image 30 (S111).

そして誤判別可能性評価部98が、S111に示す処理で特定された比率に基づいて、S102に示す処理で判別された、ターゲット画像20の分類である可能性が最も高い分類を第1分類とする判別結果が誤判別である可能性を示す値を決定する(S112)。そして本処理例に示す処理は終了される。 Then, the classification with the highest possibility of being the classification of the target image 20 determined by the processing shown in S102 based on the ratio specified by the processing shown in S111 by the erroneous discrimination possibility evaluation unit 98 is defined as the first classification. A value indicating the possibility that the discrimination result to be performed is erroneous discrimination is determined (S112). Then, the process shown in this processing example is completed.

なおS101〜S112に示す処理の実行順序は上述のものに限定されず、上述に示す順序とは異なる実行順序でこれらの処理が実行されてもよい。具体的には例えば、S102、S104、S106、及び、S108に示す処理が実行された後で、S103、S105、S107、及び、S109に示す処理が実行されてもよい。 The execution order of the processes shown in S101 to S112 is not limited to the above, and these processes may be executed in an execution order different from the order shown above. Specifically, for example, after the processes shown in S102, S104, S106, and S108 are executed, the processes shown in S103, S105, S107, and S109 may be executed.

なお、本発明は上述の実施形態に限定されるものではない。 The present invention is not limited to the above-described embodiment.

また、本実施形態の適用範囲は、ターゲット画像20に表れている樹木種別の分類を判別する場面に限定されない。例えば人工物、水域、草地、樹木、裸地などといった所与の複数の分類のうちから、ターゲット画像20に表れている土地被覆の分類を判別する場面に本発明が適用されてもよい。 Further, the scope of application of the present embodiment is not limited to the scene of determining the classification of the tree type appearing in the target image 20. For example, the present invention may be applied to a scene in which the classification of the land cover appearing in the target image 20 is discriminated from a plurality of given classifications such as man-made objects, water areas, grasslands, trees, and bare land.

また、上述の具体的な文字列や数値、並びに、図面中の具体的な文字列は例示であり、これらの文字列や数値には限定されない。 Further, the above-mentioned specific character strings and numerical values, and specific character strings in the drawings are examples, and the present invention is not limited to these character strings and numerical values.

10 画像分類判別装置、12 プロセッサ、14 記憶部、16 表示部、18 操作部、20 ターゲット画像、22 第1分類評価画像、24 第1領域、26 対比分類評価画像、28 対比領域、30 誤判別評価画像、32 誤判別領域、40 ターゲット画像、42 第1分類評価画像、44 第1領域、46 対比分類評価画像、48 対比領域、50 誤判別評価画像、52 誤判別領域、60 画像分類判別モジュール、62 可視化マップ、64 可視化マップ生成モジュール、66 特徴抽出部、68 入力、70 特徴マップ、72 全結合層、73 ソフトマックス層、74 出力、76 one−hotベクトル、78 要素積、80 勾配マップ、82 代表値ベクトル、84 個別マップ、86 総合マップ、90 ターゲット画像取得部、92 分類判別部、94 可視化マップ生成部、96 比率特定部、98 誤判別可能性評価部、100 着目領域、102 画像、104 画像。 10 Image classification and discrimination device, 12 Processor, 14 Storage, 16 Display, 18 Operation, 20 Target image, 22 First classification evaluation image, 24 First area, 26 Comparison classification evaluation image, 28 Comparison area, 30 Misclassification Evaluation image, 32 erroneous discrimination area, 40 target image, 42 first classification evaluation image, 44 first area, 46 comparison classification evaluation image, 48 comparison area, 50 erroneous discrimination evaluation image, 52 erroneous discrimination area, 60 image classification discrimination module , 62 visualization map, 64 visualization map generation module, 66 feature extractor, 68 input, 70 feature map, 72 fully connected layer, 73 softmax layer, 74 output, 76 one-hot vector, 78 element product, 80 gradient map, 82 Representative value vector, 84 Individual map, 86 Comprehensive map, 90 Target image acquisition unit, 92 Classification and discrimination unit, 94 Visualization map generation unit, 96 Ratio identification unit, 98 Misdiscrimination possibility evaluation unit, 100 Focus area, 102 images, 104 images.

Claims (6)

分類の判別対象であるターゲット画像を取得するターゲット画像取得手段と、
所与の複数の分類のうちのいずれかを、前記ターゲット画像の分類である可能性が最も高い第1分類として判別する第1分類判別手段と、
前記第1分類の物体が表れている確率が第1の確率より低く前記複数の分類のうち前記第1分類とは異なる分類の物体が表れている確率が第2の確率より高い前記ターゲット画像内の領域の大きさの、前記ターゲット画像の全体の大きさに対する比率を特定する比率特定手段と、
前記比率に基づいて、前記第1分類判別手段の判別結果が誤判別である可能性を示す値を決定する誤判別可能性評価手段と、
を含むことを特徴とする誤判別可能性評価装置。
A target image acquisition means for acquiring a target image to be classified and
A first classification discriminating means for discriminating any one of a plurality of given classifications as the first classification most likely to be the classification of the target image.
In the target image, the probability that an object of the first category appears is lower than the first probability, and the probability that an object of a category different from the first category appears among the plurality of categories is higher than the second probability. A ratio specifying means for specifying the ratio of the size of the region to the total size of the target image, and
An erroneous discrimination possibility evaluation means for determining a value indicating the possibility that the discrimination result of the first classification discriminating means is erroneous discrimination based on the ratio, and
A misdiscrimination possibility evaluation device characterized by including.
前記ターゲット画像に基づいて、前記複数の分類のうちから、当該ターゲット画像の分類である可能性が2番目に高い分類を第2分類として判別する第2分類判別手段、をさらに含み、
前記比率特定手段は、前記第1分類の物体が表れている確率が前記第1の確率より低く、前記第2分類の物体が表れている確率が前記第2の確率より高い、前記ターゲット画像内の領域の大きさの、前記ターゲット画像の大きさに対する比率を特定する、
ことを特徴とする請求項1に記載の誤判別可能性評価装置。
Further including a second classification discriminating means for discriminating the classification having the second highest possibility of being the classification of the target image as the second classification from the plurality of classifications based on the target image.
In the target image, the ratio specifying means has a lower probability that an object of the first category appears than the first probability and a higher probability of an object of the second category appearing than the second probability. Specify the ratio of the size of the region to the size of the target image.
The erroneous discrimination possibility evaluation device according to claim 1.
前記比率特定手段は、前記ターゲット画像内の着目領域を占める画像内における、前記第1分類の物体が表れている確率が前記第1の確率より低く前記複数の分類のうち前記第1分類とは異なる分類の物体が表れている確率が前記第2の確率より高い領域の大きさの、当該画像の大きさに対する比率を特定する、
ことを特徴とする請求項1又は2に記載の誤判別可能性評価装置。
The ratio specifying means has a lower probability that an object of the first category appears in an image occupying a region of interest in the target image than the first probability, and is the first category among the plurality of categories. Specify the ratio of the size of the region where the probability that an object of a different classification appears is higher than the second probability to the size of the image.
The erroneous discrimination possibility evaluation device according to claim 1 or 2.
前記比率特定手段は、前記ターゲット画像内の着目領域を占める画像内における、前記第1分類の物体が表れている確率が前記第1の確率より低く前記複数の分類のうち前記第1分類とは異なる分類の物体が表れている確率が前記第2の確率より高い領域の大きさの、当該画像の大きさに対する比率を第1比率として特定し、
前記比率特定手段は、前記ターゲット画像内の前記着目領域以外の領域を占める画像内における、前記第1分類の物体が表れている確率が前記第1の確率より低く前記複数の分類のうち前記第1分類とは異なる分類の物体が表れている確率が前記第2の確率より高い領域の大きさの、当該画像の大きさに対する比率を第2比率として特定し、
前記誤判別可能性評価手段は、所定の重みに基づく前記第1比率と前記第2比率との重み付き平均値に基づいて、前記第1分類判別手段の判別結果が誤判別である可能性を示す値を決定する、
ことを特徴とする請求項1又は2に記載の誤判別可能性評価装置。
The ratio specifying means has a lower probability that an object of the first category appears in an image occupying a region of interest in the target image than the first probability, and is the first category among the plurality of categories. The ratio of the size of the region where the probability that an object of a different classification appears is higher than the second probability to the size of the image is specified as the first ratio.
In the ratio specifying means, the probability that an object of the first classification appears in an image occupying a region other than the region of interest in the target image is lower than the probability of the first classification, and the first of the plurality of classifications. The ratio of the size of the region where the probability that an object of a classification different from the first classification appears is higher than the second probability to the size of the image is specified as the second ratio.
The misdiscrimination possibility evaluation means determines that the discriminant result of the first classification discriminating means may be misdiscrimination based on the weighted average value of the first ratio and the second ratio based on a predetermined weight. Determine the value to be shown,
The erroneous discrimination possibility evaluation device according to claim 1 or 2.
分類の判別対象であるターゲット画像を取得するターゲット画像取得ステップと、
所与の複数の分類のうちのいずれかを、前記ターゲット画像の分類である可能性が最も高い第1分類として判別する第1分類判別ステップと、
前記第1分類の物体が表れている確率が第1の確率より低く前記複数の分類のうち前記第1分類とは異なる分類の物体が表れている確率が第2の確率より高い前記ターゲット画像内の領域の大きさの、前記ターゲット画像の全体の大きさに対する比率を特定する比率特定ステップと、
前記比率に基づいて、前記第1分類判別ステップでの判別結果が誤判別である可能性を示す値を決定する誤判別可能性評価ステップと、
を含むことを特徴とする誤判別可能性評価方法。
The target image acquisition step to acquire the target image that is the discrimination target of the classification, and
A first classification determination step that determines any one of a plurality of given classifications as the first classification most likely to be the classification of the target image.
In the target image, the probability that an object of the first category appears is lower than the first probability, and the probability that an object of a category different from the first category appears among the plurality of categories is higher than the second probability. The ratio specifying step of specifying the ratio of the size of the region to the total size of the target image, and
Based on the ratio, the erroneous discrimination possibility evaluation step of determining a value indicating the possibility that the discrimination result in the first classification discrimination step is erroneous discrimination, and
A method for evaluating the possibility of misidentification, which comprises.
分類の判別対象であるターゲット画像を取得するターゲット画像取得手順、
所与の複数の分類のうちのいずれかを、前記ターゲット画像の分類である可能性が最も高い第1分類として判別する第1分類判別手順、
前記第1分類の物体が表れている確率が第1の確率より低く前記複数の分類のうち前記第1分類とは異なる分類の物体が表れている確率が第2の確率より高い前記ターゲット画像内の領域の大きさの、前記ターゲット画像の全体の大きさに対する比率を特定する比率特定手順、
前記比率に基づいて、前記第1分類判別手順での判別結果が誤判別である可能性を示す値を決定する誤判別可能性評価手順、
をコンピュータに実行させることを特徴とするプログラム。
Target image acquisition procedure to acquire the target image that is the discrimination target of classification,
A first classification determination procedure for determining any of a given plurality of classifications as the first classification most likely to be the classification of the target image.
In the target image, the probability that an object of the first category appears is lower than the first probability, and the probability that an object of a category different from the first category appears among the plurality of categories is higher than the second probability. Probability specifying procedure for specifying the ratio of the size of the region to the total size of the target image,
An erroneous discrimination possibility evaluation procedure for determining a value indicating the possibility that the discrimination result in the first classification discrimination procedure is erroneous discrimination based on the ratio.
A program characterized by having a computer execute.
JP2017222856A 2017-11-20 2017-11-20 Misidentification possibility evaluation device, misdiscrimination possibility evaluation method and program Active JP6959114B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017222856A JP6959114B2 (en) 2017-11-20 2017-11-20 Misidentification possibility evaluation device, misdiscrimination possibility evaluation method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017222856A JP6959114B2 (en) 2017-11-20 2017-11-20 Misidentification possibility evaluation device, misdiscrimination possibility evaluation method and program

Publications (2)

Publication Number Publication Date
JP2019095910A JP2019095910A (en) 2019-06-20
JP6959114B2 true JP6959114B2 (en) 2021-11-02

Family

ID=66972967

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017222856A Active JP6959114B2 (en) 2017-11-20 2017-11-20 Misidentification possibility evaluation device, misdiscrimination possibility evaluation method and program

Country Status (1)

Country Link
JP (1) JP6959114B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021079441A1 (en) * 2019-10-23 2021-04-29 富士通株式会社 Detection method, detection program, and detection device
KR20220018469A (en) * 2020-08-01 2022-02-15 센스타임 인터내셔널 피티이. 리미티드. Target object recognition method and device
WO2022065367A1 (en) * 2020-09-24 2022-03-31 Assest株式会社 Logging time deteremination program
JP6883829B1 (en) * 2020-09-24 2021-06-09 Assest株式会社 Tree discrimination program
CN114494765B (en) * 2021-12-21 2023-08-18 北京瑞莱智慧科技有限公司 Method and device for identifying true and false smoke discrimination points, electronic equipment and storage medium

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4900356B2 (en) * 2008-09-30 2012-03-21 国立大学法人信州大学 Tree species classification method and tree species classification system, forest status information creation method and forest status information creation system, thinning target area selection method and thinning target area selection system

Also Published As

Publication number Publication date
JP2019095910A (en) 2019-06-20

Similar Documents

Publication Publication Date Title
JP6959114B2 (en) Misidentification possibility evaluation device, misdiscrimination possibility evaluation method and program
CN111052146B (en) System and method for active learning
CN110678875B (en) System and method for guiding a user to take a self-photograph
JP5546317B2 (en) Visual inspection device, visual inspection discriminator generation device, visual inspection discriminator generation method, and visual inspection discriminator generation computer program
US10127199B2 (en) Automatic measure of visual similarity between fonts
CN105849274B (en) Method and system for classification and identification of individual cells in microscopic images
US8615133B2 (en) Process for enhancing images based on user input
CN110892414A (en) Visual analysis system for classifier-based convolutional neural network
US20150278710A1 (en) Machine learning apparatus, machine learning method, and non-transitory computer-readable recording medium
CN108564085B (en) Method for automatically reading of pointer type instrument
TWI526982B (en) Area segmentation method, computer program product and inspection device
US11508173B2 (en) Machine learning prediction and document rendering improvement based on content order
CN112132131B (en) Measuring cylinder liquid level identification method and device
CN110738132B (en) Target detection quality blind evaluation method with discriminant perception capability
JP2016103759A (en) Image processing apparatus, image processing method, and program
CN115048969A (en) Visual analysis system for evaluating, understanding and improving deep neural networks
US20140241618A1 (en) Combining Region Based Image Classifiers
Zhou et al. Handling water reflections for computer vision in aquaculture
CN105354405A (en) Machine learning based immunohistochemical image automatic interpretation system
CN111815582A (en) Two-dimensional code area detection method for improving background prior and foreground prior
US11887355B2 (en) System and method for analysis of microscopic image data and for generating an annotated data set for classifier training
CN114080644A (en) System and method for diagnosing small bowel cleanliness
CN116872961A (en) Control system for intelligent driving vehicle
US20040057618A1 (en) Interactive computer aided analysis of images from sensor combinations
Lyu et al. Deer survey from drone thermal imagery using enhanced faster R-CNN based on ResNets and FPN

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200914

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210915

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210928

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211007

R150 Certificate of patent or registration of utility model

Ref document number: 6959114

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150