JP7293644B2 - Image identification device, classifier learning method, image identification method and program - Google Patents

Image identification device, classifier learning method, image identification method and program Download PDF

Info

Publication number
JP7293644B2
JP7293644B2 JP2018238800A JP2018238800A JP7293644B2 JP 7293644 B2 JP7293644 B2 JP 7293644B2 JP 2018238800 A JP2018238800 A JP 2018238800A JP 2018238800 A JP2018238800 A JP 2018238800A JP 7293644 B2 JP7293644 B2 JP 7293644B2
Authority
JP
Japan
Prior art keywords
image
cropped image
identification
cropped
classifier
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018238800A
Other languages
Japanese (ja)
Other versions
JP2020101927A (en
Inventor
和久 松永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2018238800A priority Critical patent/JP7293644B2/en
Publication of JP2020101927A publication Critical patent/JP2020101927A/en
Application granted granted Critical
Publication of JP7293644B2 publication Critical patent/JP7293644B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、画像識別装置、識別器学習方法、画像識別方法及びプログラムに関する。 The present invention relates to an image identification device, a classifier learning method, an image identification method, and a program.

画像を識別する技術として、識別結果が判明している画像データを学習データとして用いて、ディープニューラルネットワーク(Deep Neural Network:DNN)を学習させ、学習済みのDNNを用いて画像識別する技術が知られている。画像識別技術においては、識別対象となる画像に特段の制限はなく、任意の画像データを識別対象とすることができるが、画像データに目盛り等が一緒に写り込んでいる場合がある。例えば、皮膚疾患等の患部を撮影する場合、患部のサイズを明確にするために目盛り等を一緒に撮影する場合が多い。また、患部の画像に限らず、例えば、花の画像等、対象物のサイズを明確にしたい画像の場合には、目盛り等を一緒に撮影した方がサイズがわかりやすいので、このような場合、学習用の画像データにも目盛り等が一緒に写り込んでいることが多い。 As a technique for identifying an image, a technique for identifying an image by using image data whose identification result is known as learning data to train a deep neural network (DNN) and using the trained DNN is known. It is In the image identification technique, there is no particular restriction on the image to be identified, and arbitrary image data can be used as the identification target. For example, when an affected area such as a skin disease is photographed, a scale or the like is often photographed together in order to clarify the size of the affected area. In addition to images of affected areas, for example, in the case of images such as images of flowers where the size of the object is desired to be clarified, it is easier to understand the size by photographing the scale together. In many cases, scales and the like are also included in the image data for the camera.

この場合、一緒に写り込んだ目盛り等が画像識別に悪影響を与えてしまうことが考えられることから、例えば、非特許文献1においては、疾患領域である前景画像をクロップし、リサイズして画像分類する技術が提案されている。 In this case, it is conceivable that scales and the like appearing together have an adverse effect on image identification. A technique to do so has been proposed.

N. C. F. Codella ; Q. B. Nguyen ; S. Pankanti ; D. A. Gutman ; B. Helba ; A. C. Halpern ; J. R. Smith,“Deep learning ensembles for melanoma recognition in dermoscopy images”,IBM Journal of Research and Development, Volume.61 Issue 4/5, July-Sept. 2017, Pages:5:1-5:15N. C. F. Codella; Q. B. Nguyen; S. Pankanti; D. A. Gutman; B. Helba; A. C. Halpern; July-September 2017, Pages:5:1-5:15

非特許文献1に記載されている技術によれば、疾患領域をクロップし(切り取り)、リサイズすることにより、画像に写り込んだ目盛り等の影響を低減することができるが、元画像のアスペクト比、サイズ等の情報が失われてしまうことから、画像識別の精度が下がってしまうという問題があった。 According to the technique described in Non-Patent Document 1, by cropping (cutting) and resizing the diseased area, it is possible to reduce the influence of scales and the like reflected in the image, but the aspect ratio of the original image Since information such as size is lost, there is a problem that the accuracy of image identification is lowered.

本発明は、上記問題を解決するためになされたものであり、画像識別の精度の向上を図ることができる画像識別装置、識別器学習方法、画像識別方法及びプログラムを提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide an image identification device, a classifier learning method, an image identification method, and a program capable of improving the accuracy of image identification. .

上記目的を達成するため、本発明の一態様の判定装置は、
入力画像から病変領域である識別対象領域を含む画像を切り取る処理であるクロップ処理を行ったクロップ画像を生成するクロップ画像生成部と、
前記入力画像から前記クロップ処理を行っていない非クロップ画像を生成する非クロップ画像生成部と、
前記クロップ画像を識別するクロップ画像識別器と、
前記非クロップ画像を識別する非クロップ画像識別器と、
前記クロップ画像識別器による識別結果と、前記非クロップ画像識別器による識別結果と、の両者を用いて最終的な識別結果を取得する識別結果決定部と、
を備える。
In order to achieve the above object, a determination device according to one aspect of the present invention includes:
a cropped image generation unit that generates a cropped image by performing cropping processing, which is processing for cropping an image including an identification target region, which is a lesion region, from an input image;
a non-cropped image generation unit that generates a non-cropped image that is not subjected to the crop processing from the input image;
a crop image identifier that identifies the crop image;
a non-cropped image identifier that identifies the non-cropped image;
an identification result determination unit that acquires a final identification result using both the identification result of the cropped image classifier and the identification result of the non-cropped image classifier;
Prepare.

本発明によれば、画像識別の精度の向上を図ることができる。 According to the present invention, it is possible to improve the accuracy of image identification.

本発明の実施形態1に係る画像識別装置の機能構成を示す図である。It is a figure which shows the functional structure of the image identification apparatus which concerns on Embodiment 1 of this invention. 実施形態1に係るクロップ画像学習処理のフローチャートである。5 is a flowchart of crop image learning processing according to the first embodiment; 実施形態1に係るクロップ画像生成処理のフローチャートである。5 is a flowchart of cropped image generation processing according to the first embodiment; クロップ画像生成処理を説明する図である。FIG. 10 is a diagram for explaining cropped image generation processing; 実施形態1に係る非クロップ画像学習処理のフローチャートである。5 is a flowchart of non-cropped image learning processing according to the first embodiment; 実施形態1に係る非クロップ画像生成処理のフローチャートである。4 is a flowchart of non-cropped image generation processing according to the first embodiment; 非クロップ画像生成処理を説明する図である。FIG. 10 is a diagram for explaining non-cropped image generation processing; 実施形態1に係る識別処理のフローチャートである。5 is a flowchart of identification processing according to the first embodiment; 実施形態1に係る画像識別装置に病変領域を入力した時のクロップ画像識別器及び非クロップ画像識別器の活性化状況を説明する図である。FIG. 10 is a diagram for explaining activation states of a cropped image classifier and a non-cropped image classifier when a lesion area is input to the image classifier according to the first embodiment; 本発明の変形例2に係る識別結果決定部を説明する図である。It is a figure explaining the identification result determination part based on the modification 2 of this invention. 変形例2に係る全体学習処理のフローチャートである。FIG. 11 is a flowchart of a general learning process according to Modification 2; FIG. 変形例2に係る識別処理のフローチャートである。10 is a flowchart of identification processing according to modification 2;

以下、本発明の実施形態に係る画像識別装置等について、図表を参照して説明する。なお、図中同一又は相当部分には同一符号を付す。 DESCRIPTION OF THE PREFERRED EMBODIMENTS Image identification devices and the like according to embodiments of the present invention will be described below with reference to the drawings. The same reference numerals are given to the same or corresponding parts in the drawings.

(実施形態1)
本発明の実施形態1に係る画像識別装置100は、識別対象の領域をクロップした画像で学習させたDNN識別器と、クロップしない画像で学習させたDNNによる識別器と、を用いて未知の画像を識別する。画像識別装置100は、このような2種類のDNNによる識別器の出力を両方とも用いることで、画像識別の精度を向上させることができる。このような画像識別装置100について、以下に説明する。
(Embodiment 1)
The image identification apparatus 100 according to the first embodiment of the present invention uses a DNN classifier trained with an image obtained by cropping a region to be identified and a DNN classifier trained with an uncropped image to identify an unknown image. identify. The image identification device 100 can improve the accuracy of image identification by using both the outputs of the classifiers based on these two types of DNNs. Such an image identification device 100 will be described below.

実施形態1に係る画像識別装置100は、図1に示すように、制御部10、記憶部20、画像入力部31、出力部32、通信部33、操作入力部34、を備える。 The image identification device 100 according to the first embodiment includes a control unit 10, a storage unit 20, an image input unit 31, an output unit 32, a communication unit 33, and an operation input unit 34, as shown in FIG.

制御部10は、CPU(Central Processing Unit)等で構成され、記憶部20に記憶されたプログラムを実行することにより、後述する各部(クロップ画像生成部11、非クロップ画像生成部12、クロップ画像識別器13、非クロップ画像識別器14、識別結果決定部15)の機能を実現する。 The control unit 10 is composed of a CPU (Central Processing Unit) or the like, and by executing a program stored in the storage unit 20, each unit (crop image generation unit 11, non-crop image generation unit 12, crop image identification 13, the non-cropped image discriminator 14, and the discrimination result determination unit 15).

記憶部20は、ROM(Read Only Memory)、RAM(Random Access Memory)等で構成され、制御部10のCPUが実行するプログラム及び必要なデータを記憶する。 The storage unit 20 includes a ROM (Read Only Memory), a RAM (Random Access Memory), etc., and stores programs executed by the CPU of the control unit 10 and necessary data.

画像入力部31は、学習用の画像データ又は識別する(未知の)画像データを入力するためのデバイスである。制御部10は、画像入力部31を介して画像データを取得する。画像入力部31としては、制御部10が画像データを取得できるなら、任意のデバイスを使用することができる。例えば、記憶部20に画像データを記憶させておき、制御部10が記憶部20を読み出すことによって画像データを取得する場合は、記憶部20が画像入力部31を兼ねることになる。また、制御部10が通信部33を介して外部のサーバ等から画像データを取得する場合は、通信部33が画像入力部31を兼ねることになる。 The image input unit 31 is a device for inputting image data for learning or (unknown) image data to be identified. The control unit 10 acquires image data via the image input unit 31 . Any device can be used as the image input unit 31 as long as the control unit 10 can acquire image data. For example, when image data is stored in the storage unit 20 and the control unit 10 acquires the image data by reading the storage unit 20 , the storage unit 20 also serves as the image input unit 31 . Also, when the control unit 10 acquires image data from an external server or the like via the communication unit 33 , the communication unit 33 also serves as the image input unit 31 .

出力部32は、制御部10が、画像入力部31から入力した画像を識別した結果等を出力するためのデバイスである。例えば、出力部32は、液晶ディスプレイや有機EL(Electoro-Luminescence)ディスプレイである。この場合、出力部32は、表示部として機能する。ただし、画像識別装置100は、出力部32としてこのようなディスプレイ(表示部)を備えてもよいし、外部のディスプレイを接続するためのインタフェースとしての出力部32を備えてもよい。画像識別装置100は、インタフェースとしての出力部32を備える場合は、出力部32を介して接続した外部のディスプレイに識別結果等を表示する。出力部32は、出力手段として機能する。 The output unit 32 is a device for the control unit 10 to output the result of identifying the image input from the image input unit 31 and the like. For example, the output unit 32 is a liquid crystal display or an organic EL (Electro-Luminescence) display. In this case, the output section 32 functions as a display section. However, the image identification device 100 may include such a display (display unit) as the output unit 32, or may include the output unit 32 as an interface for connecting an external display. When the image identification device 100 includes the output unit 32 as an interface, the identification result and the like are displayed on an external display connected via the output unit 32 . The output unit 32 functions as output means.

通信部33は、外部の他の装置(例えば、画像データのデータベースが格納されているサーバ等)とデータの送受信を行うためのデバイス(ネットワークインタフェース等)である。制御部10は、通信部33を介して画像データを取得することができる。 The communication unit 33 is a device (network interface, etc.) for transmitting and receiving data to and from another external device (eg, a server storing a database of image data). The control section 10 can acquire image data via the communication section 33 .

操作入力部34は、画像識別装置100に対するユーザの操作入力を受け付けるデバイスであり、例えば、キーボード、マウス、タッチパネル等である。画像識別装置100は、操作入力部34を介して、ユーザからの指示等を受け付ける。操作入力部34は、操作入力手段として機能する。 The operation input unit 34 is a device that receives a user's operation input to the image identification device 100, and is, for example, a keyboard, mouse, touch panel, or the like. The image identification device 100 receives an instruction or the like from the user via the operation input unit 34 . The operation input unit 34 functions as operation input means.

次に、制御部10の機能について説明する。制御部10は、クロップ画像生成部11、非クロップ画像生成部12、クロップ画像識別器13、非クロップ画像識別器14、識別結果決定部15、の機能を実現する。 Next, functions of the control unit 10 will be described. The control unit 10 implements functions of a cropped image generation unit 11 , a non-cropped image generation unit 12 , a cropped image classifier 13 , a non-cropped image classifier 14 and a classification result determination unit 15 .

クロップ画像生成部11は、画像入力部31を介して入力された入力画像から識別対象領域を取得し、取得した該識別対象領域にマージン領域を加えた正方形画像を切り取り(クロップし)、それをクロップ画像識別器13の入力サイズにリサイズした画像(クロップ画像)を生成する。クロップ画像生成部11が、入力画像から識別対象領域を含む画像を切り取る処理をクロップ処理と言う。 The cropped image generation unit 11 acquires an identification target area from an input image input via the image input unit 31, cuts (crops) a square image obtained by adding a margin area to the acquired identification target area, and divides it into a square image. An image (cropped image) resized to the input size of the cropped image classifier 13 is generated. A process in which the cropped image generation unit 11 cuts out an image including an identification target area from an input image is called cropping process.

非クロップ画像生成部12は、画像入力部31を介して入力された入力画像にHPF(High Pass Filter)処理を施すことによって、エッジを強調した画像(非クロップ画像)を生成する。なお、非クロップ画像生成部12は、HPF処理以外の処理によってエッジを強調した画像を生成してもよい。 The non-cropped image generation unit 12 generates an edge-enhanced image (non-cropped image) by performing HPF (High Pass Filter) processing on the input image input via the image input unit 31 . Note that the non-cropped image generation unit 12 may generate an image in which edges are emphasized by processing other than the HPF processing.

クロップ画像識別器13及び非クロップ画像識別器14は、どちらもDNNの一種である畳み込みニューラルネットワーク(Convolutional Neural Network:CNN)による画像の識別器である。制御部10が、CNNによる識別器を実現するプログラムを実行することにより、制御部10はクロップ画像識別器13としても機能し、また、非クロップ画像識別器14としても機能する。 The cropped image classifier 13 and the non-cropped image classifier 14 are both image classifiers based on a convolutional neural network (CNN), which is a type of DNN. The control unit 10 functions as a cropped image classifier 13 and also as a non-cropped image classifier 14 by executing a program that implements a CNN-based classifier.

クロップ画像識別器13は、クロップ画像生成部11が生成したクロップ画像が入力される入力層と、入力されたクロップ画像の識別結果が出力される出力層と、入力層及び出力層以外の層である中間層と、を有し、クロップ画像を識別した結果を出力層から出力する。 The cropped image identifier 13 has an input layer to which the cropped image generated by the cropped image generator 11 is input, an output layer to which the identification result of the input cropped image is output, and layers other than the input layer and the output layer. and an intermediate layer for outputting the result of identifying the cropped image from the output layer.

非クロップ画像識別器14は、非クロップ画像生成部12が生成した非クロップ画像が入力される入力層と、入力された非クロップ画像の識別結果が出力される出力層と、入力層及び出力層以外の層である中間層と、を有し、非クロップ画像を識別した結果を出力層から出力する。 The non-cropped image identifier 14 has an input layer to which the non-cropped image generated by the non-cropped image generator 12 is input, an output layer to which the identification result of the input non-cropped image is output, an input layer and an output layer. and an intermediate layer, which is a layer other than the intermediate layer, and outputs the result of identifying the non-cropped image from the output layer.

識別結果決定部15は、クロップ画像識別器13からの出力(クロップ画像の識別結果)と、非クロップ画像識別器14からの出力(非クロップ画像の識別結果)と、の両者を用いて最終的な識別結果を得る。基本的には、識別結果決定部15は、クロップ画像識別器13からの出力と非クロップ画像識別器14からの出力とを単純に加算平均して最終的な識別結果を得る。しかし、これに限定されるものではない。識別結果決定部15は、最終的な識別結果を得る際に、クロップ画像識別器13からの出力と非クロップ画像識別器14からの出力とを、それぞれに所定の重みを乗算して、加重平均を取ってもよい。識別結果決定部15は、識別結果決定手段として機能する。 The identification result determination unit 15 uses both the output from the cropped image identifier 13 (cropped image identification result) and the output from the non-cropped image identifier 14 (non-cropped image identification result) to determine the final obtain a good identification result. Basically, the identification result determination unit 15 simply adds and averages the output from the cropped image identifier 13 and the output from the non-cropped image identifier 14 to obtain the final identification result. However, it is not limited to this. When obtaining the final identification result, the identification result determination unit 15 multiplies the output from the cropped image classifier 13 and the output from the non-cropped image classifier 14 by predetermined weights, and obtains a weighted average may be taken. The identification result determination unit 15 functions as identification result determination means.

以上、画像識別装置100の機能構成について説明した。次に、クロップ画像や非クロップ画像を用いてCNN(クロップ画像識別器13及び非クロップ画像識別器14)を学習させる処理について、説明する。 The functional configuration of the image identification device 100 has been described above. Next, processing for learning a CNN (cropped image classifier 13 and non-cropped image classifier 14) using cropped images and non-cropped images will be described.

まず、クロップ画像を用いてクロップ画像識別器13を学習させるクロップ画像学習処理について、図2を参照して説明する。この処理は、クロップ画像識別器13を学習させる際に実行される。また、この処理を実行する前に、正解ラベルを付けた学習用画像データを用意しておく必要がある。正解ラベルとは、その正解ラベルが付いた画像が何の画像かを示すものであり、例えば、疾患画像を入力すると疾患名を出力するCNNを用意したいのであれば、「疾患名」を正解ラベルとして各学習用画像データに付けておく必要がある。別の例として、花の画像の画像を入力するとその花の名称を出力するCNNを用意したいのであれば、「花の名称」を正解ラベルとして各学習用画像データに付けておく必要がある。 First, crop image learning processing for learning the crop image classifier 13 using crop images will be described with reference to FIG. This processing is executed when the cropped image classifier 13 is trained. Also, before executing this process, it is necessary to prepare learning image data with correct labels. The correct label indicates what the image with the correct label is. must be attached to each learning image data as As another example, if you want to prepare a CNN that outputs the name of a flower when an image of a flower is input, it is necessary to attach the "name of the flower" as a correct label to each learning image data.

まず、制御部10は、画像入力部31を介して学習用画像データを取得する(ステップS101)。そして、クロップ画像生成部11は、後述するクロップ画像生成処理を行って、ステップS101で取得した学習用画像データからクロップ画像を生成する(ステップS102)。ステップS102は、クロップ画像生成ステップとも呼ばれる。 First, the control unit 10 acquires learning image data via the image input unit 31 (step S101). Then, the cropped image generation unit 11 performs cropped image generation processing, which will be described later, to generate a cropped image from the learning image data acquired in step S101 (step S102). Step S102 is also called a crop image generation step.

次に、制御部10は、クロップ画像生成部11が生成したクロップ画像をクロップ画像識別器13に入力し、学習用画像データに付けられていた正解ラベルに基づいて、クロップ画像識別器13を学習させる(ステップS103)。ステップS103は、クロップ画像学習ステップとも呼ばれる。 Next, the control unit 10 inputs the cropped image generated by the cropped image generation unit 11 to the cropped image classifier 13, and learns the cropped image classifier 13 based on the correct label attached to the learning image data. (step S103). Step S103 is also called a crop image learning step.

そして、制御部10は、学習を終了するか否かを判定する(ステップS104)。例えば、学習用画像データを予め決められた枚数(例えばM枚)学習させたら学習を終了する。学習させていない学習用画像データが残っている場合等、学習を終了しないなら(ステップS104;No)、ステップS101に戻る。学習を終了するなら(ステップS104;Yes)、クロップ画像学習処理を終了する。 Then, the control unit 10 determines whether or not to end learning (step S104). For example, learning is completed after learning a predetermined number of image data for learning (for example, M). If the learning is not to be ended (step S104; No), such as when there remains image data for learning that has not been learned, the process returns to step S101. If learning is finished (step S104; Yes), the crop image learning process is finished.

次に、上記ステップS102で行われるクロップ画像生成処理について、図3のフローチャートと図4の具体例を参照して説明する。この処理は、与えられた入力画像からクロップ画像を生成する処理である。 Next, the cropped image generation processing performed in step S102 will be described with reference to the flowchart of FIG. 3 and the specific example of FIG. This process is a process of generating a cropped image from a given input image.

まず、クロップ画像生成部11は、与えられた入力画像から、識別対象となる領域を取得する(ステップS111)。与えられた入力画像の例として、図4の左上の図では、識別対象1011(例えば疾患画像)と目盛り1012が写っている入力画像1010が示されている。そして、図4の右上の図では、クロップ画像生成部11が取得した識別対象となる領域1020が示されている。識別対象となる領域の取得方法は任意であるが、例えば、クロップ画像生成部11は、予め機械学習で得られた識別対象領域判定器により自動的に領域1020を抽出(及び取得)する。このような識別対象領域判定器は、例えば、学習用の教師データとして、画像データとその画像に対応する前景マップ(識別対象領域の正解データを人間が作成したもの)を大量に用意しておき、この教師データをCNNに入力して学習させることによって、作成することができる。 First, the cropped image generation unit 11 acquires a region to be identified from a given input image (step S111). As an example of a given input image, the upper left diagram of FIG. 4 shows an input image 1010 in which an identification target 1011 (for example, a disease image) and scales 1012 are shown. In the upper right diagram of FIG. 4, an identification target area 1020 acquired by the cropped image generation unit 11 is shown. Any method can be used to acquire the region to be identified, but for example, the cropped image generation unit 11 automatically extracts (and acquires) the region 1020 using a discrimination target region determiner obtained in advance by machine learning. Such an identification target area determiner prepares, for example, a large amount of image data and a foreground map corresponding to the image (correct data of the identification target area created by a human) as teacher data for learning. , can be created by inputting this teacher data to the CNN for learning.

識別対象となる領域の取得に関しては、上述したような機械学習による方法に限定されるわけではない。ユーザが操作入力部34を介して入力画像1010中の識別対象となる領域1020を指定し、ユーザが指定した領域1020をクロップ画像生成部11が取得してもよい。また、機械学習等により自動的に抽出した領域1020をユーザが操作入力部34を介して修正可能にしておき、ユーザが修正した識別対象領域をクロップ画像生成部11が取得するようにしてもよい。 Acquisition of a region to be identified is not limited to the machine learning method as described above. The user may specify a region 1020 to be identified in the input image 1010 via the operation input unit 34, and the cropped image generation unit 11 may acquire the region 1020 specified by the user. Alternatively, the region 1020 automatically extracted by machine learning or the like may be made modifiable by the user via the operation input unit 34, and the cropped image generation unit 11 may acquire the identification target region corrected by the user. .

次に、クロップ画像生成部11は、ステップS111で取得した識別対象の領域に外接する矩形領域を抽出する(ステップS112)。図4の左真ん中の図では、識別対象1011に外接する矩形領域1030が抽出されている様子が示されている。この矩形領域1030は、正方形でなくてもよい。 Next, the cropped image generation unit 11 extracts a rectangular area that circumscribes the identification target area acquired in step S111 (step S112). The middle left diagram of FIG. 4 shows how a rectangular area 1030 circumscribing the identification target 1011 is extracted. This rectangular area 1030 need not be square.

そして、クロップ画像生成部11は、ステップS112で抽出した矩形領域にマージン領域を付加した正方形領域をクロップ(切り取り)する(ステップS113)。なお、上述の矩形領域1030が長方形だった場合には、マージンの縦横の量を調節することによってクロップする領域を正方形にする。図4の右真ん中の図では、矩形領域1030に斜線で表したマージン領域1041を付加した正方形領域1040が示されているが、この正方形領域1040がクロップされる(切り取られる)ことになる。 Then, the cropped image generator 11 crops (cuts out) a square area obtained by adding a margin area to the rectangular area extracted in step S112 (step S113). If the rectangular area 1030 described above is rectangular, the area to be cropped is made square by adjusting the vertical and horizontal amounts of the margins. The middle right diagram of FIG. 4 shows a square area 1040 obtained by adding a hatched margin area 1041 to the rectangular area 1030, and this square area 1040 is to be cropped.

マージン領域1041の大きさを規定するマージン1042の長さは、矩形領域1030の大きさに応じて変化させてもよいし、一定の長さに設定してもよい。矩形領域1030の大きさに応じて変化させる場合は、例えば「矩形領域1030の一辺の長さの10%」等と設定すればよい。また、矩形領域1030が長辺と短辺とからなる長方形の領域の場合は、例えば「長辺側は矩形領域1030の長辺の長さの10%のマージンを両側に付加し、短辺側はマージンを付加した長辺の長さに合わせるように両側に付加する」等と設定すればよい。 The length of the margin 1042 that defines the size of the margin area 1041 may be changed according to the size of the rectangular area 1030, or may be set to a constant length. When changing according to the size of the rectangular area 1030, for example, "10% of the length of one side of the rectangular area 1030" may be set. When the rectangular area 1030 is a rectangular area having long sides and short sides, for example, "the long side adds a margin of 10% of the length of the long side of the rectangular area 1030 to both sides, and the short side is added to both sides so as to match the length of the long side with the added margin."

そして、クロップ画像生成部11は、ステップS113でクロップした正方形領域を、CNN(クロップ画像識別器13)の入力サイズに合わせてリサイズし(ステップS114)、処理を終了する。このリサイズされた正方形領域の画像がクリップ画像である。図4の左下の図では、リサイズされた正方形領域1050が示されているが、これは、ステップS113で切り出された正方形領域1040がリサイズされて拡大されたものである。正方形領域1050に含まれている識別対象1011も正方形領域1050と同じ倍率でリサイズされるので、拡大された状態になっている。 Then, the cropped image generator 11 resizes the square area cropped in step S113 according to the input size of the CNN (cropped image classifier 13) (step S114), and ends the process. The image of this resized square area is the clipped image. The lower left diagram of FIG. 4 shows a resized square area 1050, which is a resized and enlarged square area 1040 cut out in step S113. Since the identification object 1011 included in the square area 1050 is also resized at the same magnification as the square area 1050, it is in an enlarged state.

以上のクロップ画像生成処理により、入力画像に含まれる識別対象がクローズアップされたクロップ画像が生成される。そして、生成されたクロップ画像を用いて、上述のクロップ画像学習処理により、クロップ画像識別器13が学習されることになる。 Through the cropped image generation processing described above, a cropped image in which the identification target included in the input image is a close-up is generated. Then, using the generated crop image, the crop image classifier 13 is learned by the above-described crop image learning process.

次に、非クロップ画像を用いて非クロップ画像識別器14を学習させる非クロップ画像学習処理について、図5を参照して説明する。この処理は、非クロップ画像識別器14を学習させる際に実行される。上述のクロップ画像学習処理と同様、非クロップ画像学習処理を実行する前に、正解ラベルを付けた学習用画像データを用意しておく必要があるが、この学習データは、上述のクロップ画像学習処理で用いた学習データと同一のデータでよい。 Next, non-cropped image learning processing for learning the non-cropped image classifier 14 using non-cropped images will be described with reference to FIG. This processing is executed when the non-cropped image classifier 14 is trained. As in the cropped image learning process described above, it is necessary to prepare learning image data labeled with correct answers before executing the non-cropped image learning process. The same data as the learning data used in .

まず、制御部10は、画像入力部31を介して学習用画像データを取得する(ステップS201)。そして、非クロップ画像生成部12は、後述する非クロップ画像生成処理を行って、ステップS201で取得した学習用画像データから非クロップ画像を生成する(ステップS202)。ステップS202は、非クロップ画像生成ステップとも呼ばれる。 First, the control unit 10 acquires learning image data via the image input unit 31 (step S201). Then, the non-cropped image generation unit 12 performs non-cropped image generation processing, which will be described later, to generate a non-cropped image from the learning image data acquired in step S201 (step S202). Step S202 is also called a non-cropped image generation step.

次に、制御部10は、非クロップ画像生成部12が生成した非クロップ画像を非クロップ画像識別器14に入力し、学習用画像データに付けられていた正解ラベルに基づいて、非クロップ画像識別器14を学習させる(ステップS203)。ステップS203は、非クロップ画像学習ステップとも呼ばれる。 Next, the control unit 10 inputs the non-cropped image generated by the non-cropped image generating unit 12 to the non-cropped image classifier 14, and identifies the non-cropped image based on the correct label attached to the learning image data. learning the device 14 (step S203). Step S203 is also called a non-crop image learning step.

そして、制御部10は、学習を終了するか否かを判定する(ステップS204)。例えば、学習用画像データを予め決められた枚数(例えばM枚)学習させたら学習を終了する。学習させていない学習用画像データが残っている場合等、学習を終了しないなら(ステップS204;No)、ステップS201に戻る。学習を終了するなら(ステップS204;Yes)、非クロップ画像学習処理を終了する。 Then, the control unit 10 determines whether or not to end learning (step S204). For example, learning is completed after learning a predetermined number of image data for learning (for example, M). If the learning is not to be terminated (step S204; No), such as when there is image data for learning that has not been learned, the process returns to step S201. If learning is finished (step S204; Yes), the non-crop image learning process is finished.

次に、上記ステップS202で行われる非クロップ画像生成処理について、図6のフローチャートと図7の具体例を参照して説明する。この処理は、与えられた入力画像から非クロップ画像を生成する処理である。 Next, the non-cropped image generation processing performed in step S202 will be described with reference to the flowchart of FIG. 6 and the specific example of FIG. This process is a process of generating a non-cropped image from a given input image.

まず、非クロップ画像生成部12は、与えられた入力画像にHPF処理(エッジ強調処理)を行う(ステップS211)。与えられた入力画像の例として、図7の上の図では、識別対象1011(例えば疾患画像)と目盛り1012が写っている入力画像1010が示されている。そして、図7の真ん中の図では、入力画像1010がHPF処理されたことによって、エッジ強調された識別対象1061と、エッジ強調された目盛り1062と、を含む画像1060になったことが示されている。 First, the non-cropped image generation unit 12 performs HPF processing (edge enhancement processing) on a given input image (step S211). As an example of a given input image, the upper diagram in FIG. 7 shows an input image 1010 in which an identification target 1011 (for example, a disease image) and scales 1012 are shown. The middle diagram of FIG. 7 shows that the input image 1010 has undergone HPF processing, resulting in an image 1060 including an edge-enhanced identification target 1061 and an edge-enhanced scale 1062. there is

次に非クロップ画像生成部12は、HPF処理した入力画像の両サイドをカットして(これをサイドカット処理という)、正方形領域を切り出し(ステップS212)、処理を終了する。図7の下の図では、正方形領域1070が示されているが、これは図7の真ん中の図にある画像1060の両サイドを点線1063でカットしたものである。 Next, the non-cropped image generating unit 12 cuts both sides of the HPF-processed input image (this is referred to as side-cut processing), cuts out a square area (step S212), and ends the process. In the bottom view of FIG. 7, a square area 1070 is shown, which is cut by dashed line 1063 on both sides of image 1060 in the middle view of FIG.

以上の非クロップ画像生成処理により、入力画像のエッジが強調された非クロップ画像が生成される。そして、生成された非クロップ画像を用いて、上述の非クロップ画像学習処理により、非クロップ画像識別器14が学習されることになる。 Through the non-cropped image generation processing described above, a non-cropped image in which the edges of the input image are emphasized is generated. Then, using the generated non-cropped image, the non-cropped image classifier 14 is learned by the above-described non-cropped image learning process.

以上のようにして、クロップ画像識別器13と非クロップ画像識別器14を学習させることにより、画像識別装置100は、未知の入力画像を識別できるようになる。次に、未知の入力画像を識別する識別処理について、図8を参照して説明する。この処理は、未知の画像を識別する際に実行される。 By having the cropped image classifier 13 and the non-cropped image classifier 14 learn as described above, the image identifying device 100 can identify an unknown input image. Next, identification processing for identifying an unknown input image will be described with reference to FIG. This process is performed in identifying unknown images.

まず、制御部10は、画像入力部31を介して画像識別装置100に識別を行わせる未知画像を取得する(ステップS301)。 First, the control unit 10 acquires an unknown image to be identified by the image identification device 100 via the image input unit 31 (step S301).

次に、クロップ画像生成部11は、上述したクロップ画像生成処理(図3)により、ステップS301で取得した未知画像からクロップ画像を生成する(ステップS302)。そして、制御部10は、生成されたクロップ画像をクロップ画像識別器13に入力して、クロップ画像識別器13の出力値を取得する(ステップS303)。ステップS303は、クロップ画像識別ステップとも呼ばれる。 Next, the cropped image generation unit 11 generates a cropped image from the unknown image acquired in step S301 by the above-described cropped image generation processing (FIG. 3) (step S302). Then, the control unit 10 inputs the generated cropped image to the cropped image classifier 13 and acquires the output value of the cropped image classifier 13 (step S303). Step S303 is also called a cropped image identification step.

次に、非クロップ画像生成部12は、上述した非クロップ画像生成処理(図6)により、ステップS301で取得した未知画像から非クロップ画像を生成する(ステップS304)。そして、制御部10は、生成された非クロップ画像を非クロップ画像識別器14に入力して、非クロップ画像識別器14の出力値を取得する(ステップS305)。ステップS305は、非クロップ画像識別ステップとも呼ばれる。なお、ステップS302からステップS303の処理と、ステップS304からステップS305の処理とは、並行に処理を進めてもよいし、図8とは逆にステップS304からステップS305の処理を、ステップS302からステップS303の処理に先行して行ってもよい。 Next, the non-cropped image generation unit 12 generates a non-cropped image from the unknown image acquired in step S301 by the above-described non-cropped image generation processing (FIG. 6) (step S304). Then, the control unit 10 inputs the generated non-cropped image to the non-cropped image classifier 14 and acquires the output value of the non-cropped image classifier 14 (step S305). Step S305 is also called a non-cropped image identification step. Note that the processing from step S302 to step S303 and the processing from step S304 to step S305 may be performed in parallel. It may be performed prior to the processing of S303.

そして、識別結果決定部15は、ステップS303で取得したクロップ画像識別器13の出力値とステップS305で取得した非クロップ画像識別器14の出力値とを加算平均して、最終的な識別結果を決定する(ステップS306)。ステップS306は、識別結果決定ステップとも呼ばれる。 Then, the identification result determining unit 15 adds and averages the output value of the cropped image classifier 13 obtained in step S303 and the output value of the non-cropped image classifier 14 obtained in step S305, and obtains the final identification result. Determine (step S306). Step S306 is also called an identification result determination step.

そして、制御部10は、識別結果決定部15が決定した最終的な識別結果を出力部32に出力し(ステップS307)、処理を終了する。なお、ステップS307では、制御部10は、最終的な識別結果だけでなく、クロップ画像識別器13の出力及び非クロップ画像識別器14の出力をも出力部32に出力してもよい。 Then, the control unit 10 outputs the final identification result determined by the identification result determining unit 15 to the output unit 32 (step S307), and ends the process. In step S307, the control unit 10 may output not only the final identification result but also the output of the cropped image classifier 13 and the output of the non-cropped image classifier 14 to the output unit 32.

以上説明した識別処理により、画像識別装置100は、クロップ画像と非クロップ画像を両方とも用いることによって、識別精度の向上を図ることができる。また、クロップ画像生成部11では、識別対象領域をマージン領域を付加して切り出しているため、識別対象領域の端部(例えば病変領域境界のエッジ部分)を失う危険性を大幅に減らすことができる。しかも、クロップ画像生成部11では、クロップ画像の生成時に正方形で切り出しているため、画像のアスペクト比が保たれ、クロップ画像識別器13においては、アスペクト比も識別のための情報として利用できる。 With the identification processing described above, the image identification apparatus 100 can improve identification accuracy by using both cropped images and non-cropped images. In addition, since the cropped image generation unit 11 cuts out the identification target area by adding a margin area, the risk of losing the end of the identification target area (for example, the edge of the lesion area boundary) can be greatly reduced. . Moreover, since the cropped image generator 11 cuts out the cropped image in a square shape, the aspect ratio of the image is maintained, and the cropped image identifier 13 can use the aspect ratio as information for identification.

具体例として、図9に示すように、脂漏性角化症の病変領域1101を含む入力画像1100をクロップ画像識別器13と非クロップ画像識別器14のそれぞれに入力して、CAM(Class Activation Mapping)による活性化マップを作成すると、クロップ画像識別器13では中央領域を中心に活性反応を示し、非クロップ画像識別器14では病変領域全体に活性反応を示すことが確認できる。これは、クロップ画像識別器13の場合は、必ず中央領域に病変領域が存在することが期待されるのに対し、非クロップ画像識別器14では必ずしも中央領域に病変領域が存在することが期待できないので、非クロップ画像識別器14では病変領域判定も含めて処理をしなければならないという違いによるものと考えられる。 As a specific example, as shown in FIG. 9, an input image 1100 including a lesion area 1101 of seborrheic keratosis is input to each of the cropped image classifier 13 and the non-cropped image classifier 14, and CAM (Class Activation) is performed. mapping), it can be confirmed that the cropped image classifier 13 shows an active reaction centering on the central region, and the non-cropped image classifier 14 shows an active reaction over the entire lesion region. This is because, in the case of the cropped image classifier 13, a lesion area is always expected to exist in the central area, whereas in the non-cropped image classifier 14 it is not necessarily expected that a lesion area exists in the central area. Therefore, it is considered that the non-cropped image discriminator 14 must perform processing including lesion area determination.

なお、図9に示す活性化マップ1110は、入力画像1100をクロップ画像識別器13に入力した際の各症例(メラノーマ(MM)、脂漏性角化症(SK)、色素性母斑(NCN))のCAMによる活性化領域を示した図である。そして、図9に示す活性化マップ1120は、入力画像1100を非クロップ画像識別器14に入力した際の各症例のCAMによる活性化領域を示した図である。どちらの図も、活性度が高い領域ほど黒く示されている。また、図9には、各識別器による各症例のスコア(出力値)も示されている。 The activation map 1110 shown in FIG. 9 corresponds to each case (melanoma (MM), seborrheic keratosis (SK), nevus pigmentosum (NCN)) when the input image 1100 is input to the cropped image classifier 13. )) is a diagram showing an activated region by CAM. An activation map 1120 shown in FIG. 9 is a diagram showing an activation region by CAM for each case when the input image 1100 is input to the non-cropped image classifier 14 . In both figures, regions with higher activity are shown darker. FIG. 9 also shows the score (output value) of each case by each discriminator.

図9に示されているように、クロップ画像識別器13による各症例のスコアは、メラノーマ(MM)が0.0890、脂漏性角化症(SK)が0.8681、色素性母斑(NCN))が0.0429であり、非クロップ画像識別器14による各症例のスコアは、メラノーマ(MM)が0.3145、脂漏性角化症(SK)が0.5713、色素性母斑(NCN))が0.1142である。 As shown in FIG. 9, the score of each case by the crop image classifier 13 is 0.0890 for melanoma (MM), 0.8681 for seborrheic keratosis (SK), and pigmented nevi ( NCN)) is 0.0429, and the scores for each case by the non-cropped image classifier 14 are 0.3145 for melanoma (MM), 0.5713 for seborrheic keratosis (SK), and nevus pigmentosum. (NCN)) is 0.1142.

図9に示す症例のように、病変領域の大きい症例画像の場合、(一般的に悪性症例の方が病変領域のサイズが大きいので)非クロップ画像識別器14のスコアは悪性側(MM側)に傾く傾向があり、図9においても、非クロップ画像識別器14によるメラノーマ(MM)のスコア(0.3145)は比較的高い値になっている。しかし、クロップ画像識別器13では、病変領域の大きさが正規化されているため、病変領域の大きさに依存せず、病変領域内部の構造が重視されて識別が行われる。したがって、図9に示す例では、クロップ画像識別器13が、脂漏性角化症(SK)の所見である白い点(稗粒腫様?腫)や、黒い点(面皰様開大)を検出した結果、脂漏性角化症(SK)のスコア(0.8681)が高くなったものと推測される。 In the case of a case image with a large lesion area, such as the case shown in FIG. , and the melanoma (MM) score (0.3145) obtained by the non-cropped image classifier 14 is relatively high in FIG. 9 as well. However, in the cropped image classifier 13, since the size of the lesion area is normalized, discrimination is performed with emphasis on the structure inside the lesion area without depending on the size of the lesion area. Therefore, in the example shown in FIG. 9, the cropped image discriminator 13 detects white dots (milia-like tumors) and black dots (comedone-like dilation), which are findings of seborrheic keratosis (SK). As a result of the detection, it is presumed that the score (0.8681) of seborrheic keratosis (SK) increased.

このように、画像識別装置100は、クロップ画像識別器13が識別対象領域の内部構造を重視して識別を行い、非クロップ画像識別器14が入力画像全体から捉えられる特徴によって識別を行うと考えられ、この両方の識別結果を用いて最終的な識別結果を決定するため、識別精度を向上させることができる。 In this way, in the image identification apparatus 100, the cropped image classifier 13 performs classification with an emphasis on the internal structure of the identification target region, and the non-cropped image classifier 14 performs classification based on features captured from the entire input image. Since both of these identification results are used to determine the final identification result, the identification accuracy can be improved.

(変形例1)
実施形態1では、クロップ画像生成部11は、人手で作成した前景マップを用いて機械学習した識別対象領域判定器により、識別対象となる領域を自動的に抽出した。しかし、識別対象となる領域を自動的に抽出する方法として、図9に示したような活性化マップを用いる方法もある。この変形例1について説明する。
(Modification 1)
In the first embodiment, the cropped image generation unit 11 automatically extracts the region to be identified by the identification target region determiner that performs machine learning using a manually created foreground map. However, as a method for automatically extracting a region to be identified, there is also a method using an activation map as shown in FIG. This modified example 1 will be described.

変形例1に係る画像識別装置100の機能構成は実施形態1と同じく、図1で示されるものである。ただし、変形例1では、制御部10は、クロップ画像学習処理を行う前に、まず、非クロップ画像学習処理(図5)を行って、非クロップ画像識別器14を学習済みにしておく。そして、クロップ画像生成処理(図3)のステップS111において、制御部10は、まず、入力画像を非クロップ画像識別器14に入力して、非クロップ画像識別器14の活性化マップを取得する。そして、活性化マップで、所定の基準値以上に活性化している領域を識別対象領域として抽出する。 The functional configuration of the image identification device 100 according to Modification 1 is the same as that of Embodiment 1, as shown in FIG. However, in Modification 1, before performing the cropped image learning process, the control unit 10 first performs the non-cropped image learning process (FIG. 5) so that the non-cropped image classifier 14 has been trained. Then, in step S111 of the cropped image generation process (FIG. 3), the control unit 10 first inputs the input image to the non-cropped image classifier 14 and acquires the activation map of the non-cropped image classifier 14 . Then, in the activation map, regions that are activated to a predetermined reference value or more are extracted as identification target regions.

活性化マップの生成方法にはいくつかの種類があるが、図9に示したようなCAMによる活性化マップや、Grad-CAM(Gradient-weighted Class Activation Mapping)による活性化マップの場合は、識別クラス毎の活性化マップが得られるので、識別クラス毎に得られた各活性化マップを全て加算して平均を取った活性化マップ(ここでは「総合活性化マップ」と呼ぶことにする)を用いて識別対象領域を抽出する。例えば、総合活性化マップの全ての要素の平均値を求め、総合活性化マップ上で、値が当該平均値以上になっている部分を識別対象領域とする。 There are several methods for generating the activation map. In the case of the activation map by CAM as shown in FIG. 9 and the activation map by Gradient-weighted Class Activation Mapping (Grad-CAM), identification Since the activation map for each class is obtained, the activation map obtained by adding all the activation maps obtained for each identification class and averaging them (herein called the "total activation map") is obtained. is used to extract the identification target region. For example, the average value of all the elements of the general activation map is obtained, and the portion of the general activation map whose value is equal to or greater than the average value is defined as the identification target area.

活性化マップの生成において、CAMやGrad-CAMを用いるのではなく、単純にCNNの出力層の直前の全結合層の直前の中間層の各要素(特徴マップ)をチャネル方向に平均したものを活性化マップとする活性化マップ生成方法もある。このような活性化マップを用いる場合は、この活性化マップを上述の総合活性化マップと同様に扱うことができる。例えば、この活性化マップの全ての要素の平均値を求め、該活性化マップ上で、値が当該平均値以上になっている部分を識別対象領域とする。 In generating the activation map, instead of using CAM or Grad-CAM, simply average each element (feature map) of the intermediate layer immediately before the fully connected layer immediately before the CNN output layer in the channel direction. There is also an activation map generation method that uses an activation map. When using such an activation map, this activation map can be treated in the same manner as the general activation map described above. For example, the average value of all the elements of this activation map is obtained, and the portion of the activation map whose value is equal to or greater than the average value is defined as the identification target area.

変形例1に係る画像識別装置100は、クロップ画像生成処理(図3)のステップS111において、活性化マップを用いて識別対象領域を抽出する点以外は、実施形態1に係る画像識別装置100と同じである。変形例1に係る画像識別装置100は、実施形態1に係る画像識別装置100が備える効果に加え、識別対象領域を抽出するための判定器の学習を別途行う必要がない(非クロップ画像識別器14を学習させることによって、非クロップ画像識別器14が識別対象領域を抽出するための判定器にも利用可能になる)という効果がある。 The image identification device 100 according to Modification 1 is the same as the image identification device 100 according to Embodiment 1, except that in step S111 of the cropped image generation process (FIG. 3), an activation map is used to extract a region to be identified. are the same. The image identification device 100 according to Modification 1 has the advantages of the image identification device 100 according to Embodiment 1. In addition, the image identification device 100 does not need to separately learn the determination device for extracting the identification target region (the non-cropped image identification device 14, the non-cropped image discriminator 14 can also be used as a discriminator for extracting a discrimination target region.

(変形例2)
実施形態1では、識別結果決定部15は、クロップ画像識別器13からの出力と非クロップ画像識別器14からの出力との平均(加算平均や加重平均)を取ることにより最終的な識別結果を得ていた。しかし、これに限定されるものではない。識別結果決定部15は、クロップ画像識別器13の出力層と、非クロップ画像識別器14の出力層と、を連結して全結合層に入力し、該全結合層を介した新たな出力層によって最終的な識別結果を得てもよい。このような変形例2について説明する。
(Modification 2)
In the first embodiment, the identification result determination unit 15 obtains the final identification result by averaging (additional average or weighted average) the output from the cropped image classifier 13 and the output from the non-cropped image classifier 14. I was getting However, it is not limited to this. The identification result determination unit 15 connects the output layer of the cropped image classifier 13 and the output layer of the non-cropped image classifier 14, inputs them to the fully connected layer, and generates a new output layer via the fully connected layer. may obtain the final identification result. Such a modification 2 will be described.

変形例2に係る画像識別装置100の機能構成は実施形態1と同じく、図1で示されるものである。変形例2に係る識別結果決定部15は、図10に示すように、クロップ画像識別器13の出力層1301と、非クロップ画像識別器14の出力層1401と、を連結して全結合層として、新たな出力層1501に接続して最終的な識別結果を得る。 The functional configuration of the image identification device 100 according to Modification 2 is the same as that of Embodiment 1, as shown in FIG. As shown in FIG. 10, the identification result determination unit 15 according to Modification 2 connects the output layer 1301 of the cropped image classifier 13 and the output layer 1401 of the non-cropped image classifier 14 as a fully connected layer. , to a new output layer 1501 to obtain the final identification result.

変形例2では、識別結果決定部15の出力層1501についても、ニューラルネットの学習を行う必要がある。このための全体学習処理について、図11を参照して説明する。この処理は、クロップ画像学習処理(図2)及び非クロップ画像学習処理(図5)が完了した後に行うと、学習時間の短縮を図ることができる。しかし、クロップ画像学習処理(図2)や非クロップ画像学習処理(図5)を行う前に全体学習処理を行うことも可能であり、この場合は、全体学習処理が完了した時点で、クロップ画像識別器13及び非クロップ画像識別器14の学習も完了していることになるため、別途クロップ画像学習処理(図2)及び非クロップ画像学習処理(図5)を行う必要はなくなる。 In modification 2, it is necessary to perform neural network learning for the output layer 1501 of the identification result determination unit 15 as well. The overall learning process for this purpose will be described with reference to FIG. If this process is performed after the cropped image learning process (FIG. 2) and the non-cropped image learning process (FIG. 5) are completed, the learning time can be shortened. However, it is also possible to perform the overall learning process before performing the cropped image learning process (FIG. 2) or the non-cropped image learning process (FIG. 5). Since the learning of the discriminator 13 and the non-cropped image discriminator 14 is also completed, there is no need to separately perform the cropped image learning process (FIG. 2) and the non-cropped image learning process (FIG. 5).

まず、制御部10は、画像入力部31を介して学習用画像データを取得する(ステップS401)。そして、クロップ画像生成部11は、クロップ画像生成処理(図3)を行って、ステップS401で取得した学習用画像データからクロップ画像を生成する(ステップS402)。また、非クロップ画像生成部12は、非クロップ画像生成処理(図6)を行って、ステップS401で取得した学習用画像データから非クロップ画像を生成する(ステップS403)。なお、ステップS402とステップS403とは、並行に処理を進めてもよいし、図11とは逆にステップS403の処理をステップS402の処理より先に行ってもよい。 First, the control unit 10 acquires learning image data via the image input unit 31 (step S401). Then, the cropped image generation unit 11 performs cropped image generation processing (FIG. 3) to generate a cropped image from the learning image data acquired in step S401 (step S402). The non-cropped image generation unit 12 also performs non-cropped image generation processing (FIG. 6) to generate a non-cropped image from the learning image data acquired in step S401 (step S403). Steps S402 and S403 may be performed in parallel, or the process of step S403 may be performed prior to the process of step S402, contrary to FIG.

そして、制御部10は、図10に示すようなクロップ画像識別器13と非クロップ画像識別器14とを接続したCNNにおいて、クロップ画像生成部11が生成したクロップ画像(正方形領域1050)をクロップ画像識別器13に入力し、非クロップ画像生成部12が生成した非クロップ画像(正方形領域1070)を非クロップ画像識別器14に入力し、学習用画像データに付けられていた正解ラベルに基づいて、出力層1301と出力層1401とを連結した全結合層と識別結果決定部15の出力層1501との間の全結合接続の重みを学習させる(ステップS404)。 Then, the control unit 10 converts the cropped image (square area 1050) generated by the cropped image generation unit 11 into a cropped image in the CNN connecting the cropped image classifier 13 and the non-cropped image classifier 14 as shown in FIG. The non-cropped image (square area 1070) generated by the non-cropped image generation unit 12 is input to the classifier 13 and input to the non-cropped image classifier 14. Based on the correct label attached to the learning image data, The weight of the fully-connected connection between the fully-connected layer connecting the output layer 1301 and the output layer 1401 and the output layer 1501 of the identification result determination unit 15 is learned (step S404).

そして、制御部10は、学習を終了するか否かを判定する(ステップS405)。例えば、学習用画像データを予め決められた枚数(例えばM枚)学習させたら学習を終了する。学習させていない学習用画像データが残っている場合等、学習を終了しないなら(ステップS405;No)、ステップS401に戻る。学習を終了するなら(ステップS405;Yes)、全体学習処理を終了する。 Then, the control unit 10 determines whether or not to end learning (step S405). For example, learning is completed after learning a predetermined number of image data for learning (for example, M). If the learning is not to be terminated (step S405; No), such as when there is still image data for learning that has not been learned, the process returns to step S401. If learning is to be ended (step S405; Yes), the overall learning process is ended.

以上のようにして、識別結果決定部15の出力層1501へのニューラルネットを学習させることにより、変形例2に係る画像識別装置100は、未知の入力画像を識別できるようになる。次に、変形例2に係る画像識別装置100で未知の入力画像を識別する識別処理について、図12を参照して説明する。この処理は、未知の画像を識別する際に実行される。 By making the neural network for the output layer 1501 of the identification result determination unit 15 learn as described above, the image identification device 100 according to the modification 2 can identify an unknown input image. Next, identification processing for identifying an unknown input image by the image identification device 100 according to Modification 2 will be described with reference to FIG. This process is performed in identifying unknown images.

まず、制御部10は、画像入力部31を介して画像識別装置100に識別を行わせる未知画像を取得する(ステップS501)。 First, the control unit 10 acquires an unknown image to be identified by the image identification device 100 via the image input unit 31 (step S501).

そして、クロップ画像生成部11は、クロップ画像生成処理(図3)を行って、ステップS501で取得した未知画像からクロップ画像を生成する(ステップS502)。また、非クロップ画像生成部12は、非クロップ画像生成処理(図6)を行って、ステップS501で取得した未知画像から非クロップ画像を生成する(ステップS503)。なお、ステップS502とステップS503とは、並行に処理を進めてもよいし、図12とは逆にステップS503の処理をステップS502の処理より先に行ってもよい。 Then, the cropped image generation unit 11 performs cropped image generation processing (FIG. 3) to generate a cropped image from the unknown image acquired in step S501 (step S502). The non-cropped image generation unit 12 also performs non-cropped image generation processing (FIG. 6) to generate a non-cropped image from the unknown image acquired in step S501 (step S503). Note that steps S502 and S503 may be performed in parallel, or the process of step S503 may be performed prior to the process of step S502, contrary to FIG.

そして、識別結果決定部15は、図10に示すようなクロップ画像識別器13と非クロップ画像識別器14とを接続したCNNにおいて、クロップ画像生成部11が生成したクロップ画像をクロップ画像識別器13に入力し、非クロップ画像生成部12が生成した非クロップ画像を非クロップ画像識別器14に入力する。そして、出力層1501に出力される出力値によって、最終的な識別結果を決定する(ステップS504)。 Then, the identification result determining unit 15 assigns the cropped image generated by the cropped image generating unit 11 to the cropped image classifier 13 in the CNN as shown in FIG. , and the non-cropped image generated by the non-cropped image generator 12 is input to the non-cropped image classifier 14 . Then, the final identification result is determined by the output value output to the output layer 1501 (step S504).

そして、制御部10は、識別結果決定部15が決定した最終的な識別結果を出力部32に出力し(ステップS505)、処理を終了する。なお、ステップS505では、制御部10は、最終的な識別結果だけでなく、クロップ画像識別器13の出力(図10の出力層1301の各要素の値)及び非クロップ画像識別器14の出力(図10の出力層1401の各要素の値)をも出力部32に出力してもよい。 Then, the control unit 10 outputs the final identification result determined by the identification result determination unit 15 to the output unit 32 (step S505), and ends the process. Note that in step S505, the control unit 10 outputs not only the final identification result, but also the output of the cropped image classifier 13 (the value of each element in the output layer 1301 in FIG. 10) and the output of the non-cropped image classifier 14 ( 10) may also be output to the output unit 32.

以上説明した識別処理により、変形例2に係る画像識別装置100は、クロップ画像と非クロップ画像を両方とも用いることによって、識別精度の向上を図ることができる。 With the identification processing described above, the image identification apparatus 100 according to Modification 2 can improve the identification accuracy by using both the cropped image and the non-cropped image.

なお、上述の実施形態及び変形例では、CNNによる識別器を実現するプログラムを制御部10が実行することにより、制御部10はクロップ画像識別器13や非クロップ画像識別器14としても機能することとしていたが、これに限られない。画像識別装置100は、制御部10とは別に(例えば、GPU(Graphics Processing Unit)や、専用のIC(Integrated Circuit)等の)クロップ画像識別器13や非クロップ画像識別器14の機能を実現するデバイスを備えてもよい。 In the above-described embodiment and modification, the control unit 10 also functions as the cropped image classifier 13 and the non-cropped image classifier 14 by executing a program that implements a CNN-based classifier. However, it is not limited to this. The image identification device 100 realizes the functions of a cropped image classifier 13 and a non-cropped image classifier 14 (for example, a GPU (Graphics Processing Unit), a dedicated IC (Integrated Circuit), etc.) separately from the control unit 10. device.

また、上述の実施形態1では主に皮膚の疾患を例にとって説明したが、本発明は皮膚科の分野に限定されるものではなく、広く一般の画像識別の分野において適用可能である。例えば、花の識別、細菌の顕微鏡写真の識別等にも適用できる。 In addition, although the first embodiment has been described mainly taking skin diseases as an example, the present invention is not limited to the field of dermatology, and can be widely applied in the general field of image identification. For example, it can be applied to identification of flowers, identification of microscopic photographs of bacteria, and the like.

また、上述の実施形態及び変形例は適宜組み合わせることができる。例えば、変形例1と変形例2とを組み合わせることにより、活性化マップで識別対象となる領域を自動的に抽出し、図10に示すようにクロップ画像識別器13と非クロップ画像識別器14とを接続して出力層1501から最終的な識別結果を取得する画像識別装置100を構成してもよい。 Also, the above-described embodiments and modifications can be combined as appropriate. For example, by combining Modification 1 and Modification 2, an activation map automatically extracts a region to be identified, and as shown in FIG. may be configured to obtain the final identification result from the output layer 1501 by connecting .

また、上述の実施形態及び変形例では、非クロップ画像生成部12が、入力画像のエッジを強調した画像を生成するものとして説明したが、これに限られない。非クロップ画像生成部12は、入力画像をクロップしないことが重要であり、入力画像をそのまま非クロップ画像としてもよい。 Further, in the above-described embodiment and modified example, the non-cropped image generation unit 12 generates an image in which the edges of the input image are emphasized, but the present invention is not limited to this. It is important that the non-cropped image generator 12 does not crop the input image, and the input image may be used as it is as the non-cropped image.

なお、画像識別装置100の各機能は、通常のPC(Personal Computer)等のコンピュータによっても実施することができる。具体的には、上記実施形態では、画像識別装置100が行う画像識別処理のプログラムが、記憶部20のROMに予め記憶されているものとして説明した。しかし、プログラムを、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory)、DVD(Digital Versatile Disc)、MO(Magneto-Optical Disc)、メモリカード、USB(Universal Serial Bus)メモリ等のコンピュータ読み取り可能な記録媒体に格納して配布し、そのプログラムをコンピュータに読み込んでインストールすることにより、上述の各機能を実現することができるコンピュータを構成してもよい。 Each function of the image identification device 100 can also be implemented by a computer such as a normal PC (Personal Computer). Specifically, in the above embodiment, the program for image identification processing performed by the image identification device 100 is pre-stored in the ROM of the storage unit 20 . However, the program may be stored in a computer-readable storage medium such as a flexible disk, a CD-ROM (Compact Disc Read Only Memory), a DVD (Digital Versatile Disc), a MO (Magneto-Optical Disc), a memory card, or a USB (Universal Serial Bus) memory. By storing and distributing the program in a recording medium, and reading and installing the program in the computer, a computer capable of realizing each of the functions described above may be configured.

以上、本発明の好ましい実施形態について説明したが、本発明は係る特定の実施形態に限定されるものではなく、本発明には、特許請求の範囲に記載された発明とその均等の範囲が含まれる。以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。 Although the preferred embodiments of the present invention have been described above, the present invention is not limited to such specific embodiments, and the present invention includes the invention described in the claims and their equivalents. be The invention described in the original claims of the present application is appended below.

(付記1)
入力画像から識別対象領域を含む画像を切り取る処理であるクロップ処理を行ったクロップ画像を生成するクロップ画像生成部と、
前記入力画像から前記クロップ処理を行っていない非クロップ画像を生成する非クロップ画像生成部と、
前記クロップ画像を識別するクロップ画像識別器と、
前記非クロップ画像を識別する非クロップ画像識別器と、
前記クロップ画像識別器による識別結果と、前記非クロップ画像識別器による識別結果と、の両者を用いて最終的な識別結果を取得する識別結果決定部と、
を備える画像識別装置。
(Appendix 1)
a cropped image generation unit that generates a cropped image by performing cropping processing, which is processing for cutting out an image including an identification target region from an input image;
a non-cropped image generation unit that generates a non-cropped image that is not subjected to the crop processing from the input image;
a crop image identifier that identifies the crop image;
a non-cropped image identifier that identifies the non-cropped image;
an identification result determination unit that acquires a final identification result using both the identification result of the cropped image classifier and the identification result of the non-cropped image classifier;
An image identification device comprising:

(付記2)
前記クロップ画像生成部は、前記入力画像から前記識別対象領域を取得し、前記識別対象領域に所定のマージン領域を含めた画像として、前記クロップ画像を生成する、
付記1に記載の画像識別装置。
(Appendix 2)
The cropped image generating unit acquires the identification target area from the input image, and generates the cropped image as an image including a predetermined margin area in the identification target area.
The image identification device according to appendix 1.

(付記3)
前記クロップ画像生成部は、機械学習で得られた識別対象領域判定器により前記識別対象領域を取得する、
付記2に記載の画像識別装置。
(Appendix 3)
The cropped image generation unit acquires the identification target area by an identification target area determiner obtained by machine learning.
The image identification device according to appendix 2.

(付記4)
前記クロップ画像生成部は、前記非クロップ画像識別器の活性化マップで活性化している領域を抽出することにより前記識別対象領域を取得する、
付記2に記載の画像識別装置。
(Appendix 4)
The cropped image generation unit acquires the identification target area by extracting an area activated by an activation map of the non-cropped image classifier.
The image identification device according to appendix 2.

(付記5)
前記非クロップ画像生成部は、前記入力画像に対してエッジ強調処理及びサイドカット処理を行った画像として、前記非クロップ画像を生成する、
付記1から4のいずれか1つに記載の画像識別装置。
(Appendix 5)
The non-cropped image generation unit generates the non-cropped image as an image obtained by subjecting the input image to edge enhancement processing and sidecut processing.
5. The image identification device according to any one of appendices 1 to 4.

(付記6)
前記非クロップ画像生成部は、前記入力画像を前記非クロップ画像とする、
付記1から4のいずれか1つに記載の画像識別装置。
(Appendix 6)
The non-cropped image generation unit uses the input image as the non-cropped image,
5. The image identification device according to any one of appendices 1 to 4.

(付記7)
前記識別結果決定部は、前記クロップ画像識別器の出力値と前記非クロップ画像識別器の出力値との平均を求めることによって、最終的な識別結果を取得する、
付記1から6のいずれか1つに記載の画像識別装置。
(Appendix 7)
The identification result determination unit acquires a final identification result by averaging the output value of the cropped image classifier and the output value of the non-cropped image classifier.
7. The image identification device according to any one of appendices 1 to 6.

(付記8)
前記識別結果決定部は、前記クロップ画像識別器の出力層と前記非クロップ画像識別器の出力層とを連結して全結合層を構成し、前記全結合層を介した出力層によって、最終的な識別結果を取得する、
付記1から6のいずれか1つに記載の画像識別装置。
(Appendix 8)
The identification result determination unit connects the output layer of the cropped image classifier and the output layer of the non-cropped image classifier to form a fully connected layer, and the output layer via the fully connected layer finally to get a good identification result,
7. The image identification device according to any one of appendices 1 to 6.

(付記9)
さらに、前記クロップ画像識別器の出力値と、前記非クロップ画像識別器の出力値と、を表示する表示部を備える、
付記1から8のいずれか1つに記載の画像識別装置。
(Appendix 9)
Furthermore, a display unit for displaying the output value of the cropped image classifier and the output value of the non-cropped image classifier,
9. The image identification device according to any one of appendices 1 to 8.

(付記10)
前記識別対象領域は病変領域である、
付記1から9のいずれか1つに記載の画像識別装置。
(Appendix 10)
wherein the identification target area is a lesion area;
10. The image identification device according to any one of appendices 1 to 9.

(付記11)
入力画像から識別対象領域を含む画像を切り取る処理であるクロップ処理を行ったクロップ画像を生成するクロップ画像生成ステップと、
前記入力画像から前記クロップ処理を行っていない非クロップ画像を生成する非クロップ画像生成ステップと、
前記クロップ画像でクロップ画像識別器を学習させるクロップ画像学習ステップと、
前記非クロップ画像で非クロップ画像識別器を学習させる非クロップ画像学習ステップと、
を含む識別器学習方法。
(Appendix 11)
a cropped image generation step of generating a cropped image by performing cropping processing, which is processing for cutting out an image including an identification target region from an input image;
a non-cropped image generating step of generating a non-cropped image that is not subjected to the crop processing from the input image;
a cropped image learning step of training a cropped image classifier with the cropped image;
a non-cropped image learning step of training a non-cropped image classifier on the non-cropped image;
A discriminator training method that includes

(付記12)
入力画像から識別対象領域を含む画像を切り取る処理であるクロップ処理を行ったクロップ画像を生成するクロップ画像生成ステップと、
前記入力画像から前記クロップ処理を行っていない非クロップ画像を生成する非クロップ画像生成ステップと、
前記クロップ画像を識別するクロップ画像識別ステップと、
前記非クロップ画像を識別する非クロップ画像識別ステップと、
前記クロップ画像識別ステップによる識別結果と、前記非クロップ画像識別ステップによる識別結果と、の両者を用いて最終的な識別結果を取得する識別結果決定ステップと、
を含む画像識別方法。
(Appendix 12)
a cropped image generation step of generating a cropped image by performing cropping processing, which is processing for cutting out an image including an identification target region from an input image;
a non-cropped image generating step of generating a non-cropped image that is not subjected to the crop processing from the input image;
a crop image identification step of identifying the crop image;
a non-cropped image identification step of identifying the non-cropped image;
an identification result determination step of obtaining a final identification result using both the identification result of the cropped image identification step and the identification result of the non-cropped image identification step;
Image identification method including.

(付記13)
画像識別装置のコンピュータに、
入力画像から識別対象領域を含む画像を切り取る処理であるクロップ処理を行ったクロップ画像を生成するクロップ画像生成ステップ、
前記入力画像から前記クロップ処理を行っていない非クロップ画像を生成する非クロップ画像生成ステップ、
前記クロップ画像を識別するクロップ画像識別ステップ、
前記非クロップ画像を識別する非クロップ画像識別ステップ、及び、
前記クロップ画像識別ステップによる識別結果と、前記非クロップ画像識別ステップによる識別結果と、の両者を用いて最終的な識別結果を取得する識別結果決定ステップ、
を実行させるためのプログラム。
(Appendix 13)
In the computer of the image identification device,
A cropped image generation step of generating a cropped image by performing cropping processing, which is processing for cutting out an image including an identification target region from an input image;
a non-cropped image generating step of generating a non-cropped image not subjected to the crop processing from the input image;
a cropped image identification step for identifying the cropped image;
a non-cropped image identification step of identifying the non-cropped image; and
an identification result determination step of obtaining a final identification result using both the identification result of the cropped image identification step and the identification result of the non-cropped image identification step;
program to run the

10…制御部、11…クロップ画像生成部、12…非クロップ画像生成部、13…クロップ画像識別器、14…非クロップ画像識別器、15…識別結果決定部、20…記憶部、31…画像入力部、32…出力部、33…通信部、34…操作入力部、100…画像識別装置、1010,1100…入力画像、1011,1061…識別対象、1012,1062…目盛り、1020…領域、1030…矩形領域、1040,1050,1070…正方形領域、1041…マージン領域、1042…マージン、1060…画像、1063…点線、1101…病変領域、1110,1120…活性化マップ、1301,1401,1501…出力層 DESCRIPTION OF SYMBOLS 10... Control part 11... Crop image generation part 12... Non-crop image generation part 13... Crop image classifier 14... Non-crop image classifier 15... Identification result determination part 20... Storage part 31... Image Input unit 32 Output unit 33 Communication unit 34 Operation input unit 100 Image identification device 1010, 1100 Input image 1011, 1061 Identification object 1012, 1062 Scale 1020 Area 1030 Rectangular area 1040, 1050, 1070 Square area 1041 Margin area 1042 Margin 1060 Image 1063 Dotted line 1101 Lesion area 1110, 1120 Activation map 1301, 1401, 1501 Output layer

Claims (17)

入力画像から病変領域である識別対象領域を含む画像を切り取る処理であるクロップ処理を行ったクロップ画像を生成するクロップ画像生成部と、
前記入力画像から前記クロップ処理を行っていない非クロップ画像を生成する非クロップ画像生成部と、
前記クロップ画像を識別するクロップ画像識別器と、
前記非クロップ画像を識別する非クロップ画像識別器と、
前記クロップ画像識別器による識別結果と、前記非クロップ画像識別器による識別結果と、の両者を用いて最終的な識別結果を取得する識別結果決定部と、
を備える画像識別装置。
a cropped image generation unit that generates a cropped image by performing cropping processing, which is processing for cropping an image including an identification target region, which is a lesion region, from an input image;
a non-cropped image generation unit that generates a non-cropped image that is not subjected to the crop processing from the input image;
a crop image identifier that identifies the crop image;
a non-cropped image identifier that identifies the non-cropped image;
an identification result determination unit that acquires a final identification result using both the identification result of the cropped image classifier and the identification result of the non-cropped image classifier;
An image identification device comprising:
入力画像から識別対象の領域を含む画像を切り取る処理であるクロップ処理を行ったクロップ画像を生成するクロップ画像生成部と、a cropped image generator that generates a cropped image by performing a cropping process, which is a process of cutting out an image including an identification target area from an input image;
前記入力画像から前記クロップ処理を行っていない非クロップ画像を生成する非クロップ画像生成部と、a non-cropped image generation unit that generates a non-cropped image that is not subjected to the crop processing from the input image;
前記クロップ画像における前記識別対象を識別するクロップ画像識別器と、a cropped image identifier that identifies the identification target in the cropped image;
前記非クロップ画像における前記識別対象を識別する非クロップ画像識別器と、a non-cropped image classifier that identifies the identification target in the non-cropped image;
前記クロップ画像識別器による識別結果と、前記非クロップ画像識別器による識別結果と、の両者を用いて最終的な識別結果を取得する識別結果決定部と、an identification result determination unit that acquires a final identification result using both the identification result of the cropped image classifier and the identification result of the non-cropped image classifier;
を備える画像識別装置。An image identification device comprising:
前記クロップ画像生成部は、前記入力画像から前記識別対象領域を取得し、前記識別対象領域に所定のマージン領域を含めた画像として、前記クロップ画像を生成する、
請求項1又は2に記載の画像識別装置。
The cropped image generation unit acquires the identification target area from the input image, and generates the cropped image as an image including a predetermined margin area in the identification target area.
3. The image identification device according to claim 1 or 2 .
前記クロップ画像生成部は、機械学習で得られた識別対象領域判定器により前記識別対象領域を取得する、
請求項に記載の画像識別装置。
The cropped image generation unit acquires the identification target area by an identification target area determiner obtained by machine learning.
The image identification device according to claim 3 .
前記クロップ画像生成部は、前記非クロップ画像識別器の活性化マップで活性化している領域を抽出することにより前記識別対象領域を取得する、
請求項に記載の画像識別装置。
The cropped image generation unit acquires the region to be identified by extracting the region activated by the activation map of the non-cropped image classifier.
The image identification device according to claim 3 .
前記非クロップ画像生成部は、前記入力画像に対してエッジ強調処理及びサイドカット処理を行った画像として、前記非クロップ画像を生成する、
請求項1からのいずれか1項に記載の画像識別装置。
The non-cropped image generation unit generates the non-cropped image as an image obtained by subjecting the input image to edge enhancement processing and sidecut processing.
The image identification device according to any one of claims 1 to 5 .
前記非クロップ画像生成部は、前記入力画像を前記非クロップ画像とする、
請求項1からのいずれか1項に記載の画像識別装置。
The non-cropped image generation unit uses the input image as the non-cropped image,
The image identification device according to any one of claims 1 to 5 .
前記識別結果決定部は、前記クロップ画像識別器の出力値と前記非クロップ画像識別器の出力値との平均を求めることによって、最終的な識別結果を取得する、
請求項1からのいずれか1項に記載の画像識別装置。
The identification result determination unit acquires a final identification result by averaging the output value of the cropped image classifier and the output value of the non-cropped image classifier.
The image identification device according to any one of claims 1 to 7 .
前記識別結果決定部は、前記クロップ画像識別器の出力層と前記非クロップ画像識別器の出力層とを連結して全結合層を構成し、前記全結合層を介した出力層によって、最終的な識別結果を取得する、
請求項1からのいずれか1項に記載の画像識別装置。
The identification result determination unit connects the output layer of the cropped image classifier and the output layer of the non-cropped image classifier to form a fully connected layer, and the output layer via the fully connected layer finally to get a good identification result,
The image identification device according to any one of claims 1 to 7 .
さらに、前記クロップ画像識別器の出力値と、前記非クロップ画像識別器の出力値と、を表示する表示部を備える、
請求項1からのいずれか1項に記載の画像識別装置。
Furthermore, a display unit for displaying the output value of the cropped image classifier and the output value of the non-cropped image classifier,
The image identification device according to any one of claims 1 to 9 .
前記識別対象領域は病変領域である、
請求項に記載の画像識別装置。
The area to be identified is a lesion area,
The image identification device according to claim 2 .
入力画像から病変領域である識別対象領域を含む画像を切り取る処理であるクロップ処理を行ったクロップ画像を生成するクロップ画像生成ステップと、
前記入力画像から前記クロップ処理を行っていない非クロップ画像を生成する非クロップ画像生成ステップと、
前記クロップ画像でクロップ画像識別器を学習させるクロップ画像学習ステップと、
前記非クロップ画像で非クロップ画像識別器を学習させる非クロップ画像学習ステップと、
を含む識別器学習方法。
A cropped image generation step of generating a cropped image by performing cropping processing, which is processing for cropping an image including an identification target region, which is a lesion region, from an input image;
a non-cropped image generating step of generating a non-cropped image that is not subjected to the crop processing from the input image;
a cropped image learning step of training a cropped image classifier with the cropped image;
a non-cropped image learning step of training a non-cropped image classifier on the non-cropped image;
A discriminator training method that includes
入力画像から識別対象の領域を含む画像を切り取る処理であるクロップ処理を行ったクロップ画像を生成するクロップ画像生成ステップと、a cropped image generation step of generating a cropped image by performing cropping processing, which is processing for cropping an image including an identification target region from an input image;
前記入力画像から前記クロップ処理を行っていない非クロップ画像を生成する非クロップ画像生成ステップと、a non-cropped image generating step of generating a non-cropped image from the input image without performing the crop processing;
前記識別対象を識別するために前記クロップ画像でクロップ画像識別器を学習させるクロップ画像学習ステップと、a cropped image learning step of training a cropped image classifier with the cropped image to identify the identification target;
前記識別対象を識別するために前記非クロップ画像で非クロップ画像識別器を学習させる非クロップ画像学習ステップと、a non-cropped image learning step of training a non-cropped image classifier with the non-cropped image to identify the identification target;
を含む識別器学習方法。A discriminator training method that includes
入力画像から病変領域である識別対象領域を含む画像を切り取る処理であるクロップ処理を行ったクロップ画像を生成するクロップ画像生成ステップと、
前記入力画像から前記クロップ処理を行っていない非クロップ画像を生成する非クロップ画像生成ステップと、
前記クロップ画像を識別するクロップ画像識別ステップと、
前記非クロップ画像を識別する非クロップ画像識別ステップと、
前記クロップ画像識別ステップによる識別結果と、前記非クロップ画像識別ステップによる識別結果と、の両者を用いて最終的な識別結果を取得する識別結果決定ステップと、
を含む画像識別方法。
A cropped image generation step of generating a cropped image by performing cropping processing, which is processing for cropping an image including an identification target region, which is a lesion region, from an input image;
a non-cropped image generating step of generating a non-cropped image that is not subjected to the crop processing from the input image;
a crop image identification step of identifying the crop image;
a non-cropped image identification step of identifying the non-cropped image;
an identification result determination step of obtaining a final identification result using both the identification result of the cropped image identification step and the identification result of the non-cropped image identification step;
Image identification method including.
入力画像から識別対象の領域を含む画像を切り取る処理であるクロップ処理を行ったクロップ画像を生成するクロップ画像生成ステップと、a cropped image generation step of generating a cropped image by performing cropping processing, which is processing for cropping an image including an identification target region from an input image;
前記入力画像から前記クロップ処理を行っていない非クロップ画像を生成する非クロップ画像生成ステップと、a non-cropped image generating step of generating a non-cropped image from the input image without performing the crop processing;
前記クロップ画像における前記識別対象を識別するクロップ画像識別ステップと、a cropped image identification step of identifying the identification target in the cropped image;
前記非クロップ画像における前記識別対象を識別する非クロップ画像識別ステップと、a non-cropped image identification step of identifying the identification target in the non-cropped image;
前記クロップ画像識別ステップによる識別結果と、前記非クロップ画像識別ステップによる識別結果と、の両者を用いて最終的な識別結果を取得する識別結果決定ステップと、an identification result determination step of obtaining a final identification result using both the identification result of the cropped image identification step and the identification result of the non-cropped image identification step;
を含む画像識別方法。Image identification method including.
コンピュータに、
入力画像から病変領域である識別対象領域を含む画像を切り取る処理であるクロップ処理を行ったクロップ画像を生成するクロップ画像生成ステップ、
前記入力画像から前記クロップ処理を行っていない非クロップ画像を生成する非クロップ画像生成ステップ、
前記クロップ画像を識別するクロップ画像識別ステップ、
前記非クロップ画像を識別する非クロップ画像識別ステップ、及び、
前記クロップ画像識別ステップによる識別結果と、前記非クロップ画像識別ステップによる識別結果と、の両者を用いて最終的な識別結果を取得する識別結果決定ステップ、
を実行させるためのプログラム。
to the computer ,
A cropped image generation step of generating a cropped image obtained by performing cropping processing, which is processing for cropping an image including an identification target region, which is a lesion region, from an input image;
a non-cropped image generating step of generating a non-cropped image not subjected to the crop processing from the input image;
a cropped image identification step for identifying the cropped image;
a non-cropped image identification step of identifying the non-cropped image; and
an identification result determination step of obtaining a final identification result using both the identification result of the cropped image identification step and the identification result of the non-cropped image identification step;
program to run the
コンピュータに、to the computer,
入力画像から識別対象の領域を含む画像を切り取る処理であるクロップ処理を行ったクロップ画像を生成するクロップ画像生成ステップ、A cropped image generation step of generating a cropped image obtained by performing cropping processing, which is processing for cutting out an image including an identification target region from an input image;
前記入力画像から前記クロップ処理を行っていない非クロップ画像を生成する非クロップ画像生成ステップ、a non-cropped image generating step of generating a non-cropped image not subjected to the crop processing from the input image;
前記クロップ画像における前記識別対象を識別するクロップ画像識別ステップ、a cropped image identification step of identifying the identification target in the cropped image;
前記非クロップ画像における前記識別対象を識別する非クロップ画像識別ステップ、及び、a non-cropped image identification step of identifying the identification target in the non-cropped image; and
前記クロップ画像識別ステップによる識別結果と、前記非クロップ画像識別ステップによる識別結果と、の両者を用いて最終的な識別結果を取得する識別結果決定ステップ、an identification result determination step of obtaining a final identification result using both the identification result of the cropped image identification step and the identification result of the non-cropped image identification step;
を実行させるためのプログラム。program to run the
JP2018238800A 2018-12-20 2018-12-20 Image identification device, classifier learning method, image identification method and program Active JP7293644B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018238800A JP7293644B2 (en) 2018-12-20 2018-12-20 Image identification device, classifier learning method, image identification method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018238800A JP7293644B2 (en) 2018-12-20 2018-12-20 Image identification device, classifier learning method, image identification method and program

Publications (2)

Publication Number Publication Date
JP2020101927A JP2020101927A (en) 2020-07-02
JP7293644B2 true JP7293644B2 (en) 2023-06-20

Family

ID=71139601

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018238800A Active JP7293644B2 (en) 2018-12-20 2018-12-20 Image identification device, classifier learning method, image identification method and program

Country Status (1)

Country Link
JP (1) JP7293644B2 (en)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018176000A1 (en) 2017-03-23 2018-09-27 DeepScale, Inc. Data synthesis for autonomous control systems
US11157441B2 (en) 2017-07-24 2021-10-26 Tesla, Inc. Computational array microprocessor system using non-consecutive data formatting
US11893393B2 (en) 2017-07-24 2024-02-06 Tesla, Inc. Computational array microprocessor system with hardware arbiter managing memory requests
US11409692B2 (en) 2017-07-24 2022-08-09 Tesla, Inc. Vector computational unit
US10671349B2 (en) 2017-07-24 2020-06-02 Tesla, Inc. Accelerated mathematical engine
US11561791B2 (en) 2018-02-01 2023-01-24 Tesla, Inc. Vector computational unit receiving data elements in parallel from a last row of a computational array
US11215999B2 (en) 2018-06-20 2022-01-04 Tesla, Inc. Data pipeline and deep learning system for autonomous driving
US11361457B2 (en) 2018-07-20 2022-06-14 Tesla, Inc. Annotation cross-labeling for autonomous control systems
US11636333B2 (en) 2018-07-26 2023-04-25 Tesla, Inc. Optimizing neural network structures for embedded systems
US11562231B2 (en) 2018-09-03 2023-01-24 Tesla, Inc. Neural networks for embedded devices
AU2019357615B2 (en) 2018-10-11 2023-09-14 Tesla, Inc. Systems and methods for training machine models with augmented data
US11196678B2 (en) 2018-10-25 2021-12-07 Tesla, Inc. QOS manager for system on a chip communications
US11816585B2 (en) 2018-12-03 2023-11-14 Tesla, Inc. Machine learning models operating at different frequencies for autonomous vehicles
US11537811B2 (en) 2018-12-04 2022-12-27 Tesla, Inc. Enhanced object detection for autonomous vehicles based on field view
US11610117B2 (en) 2018-12-27 2023-03-21 Tesla, Inc. System and method for adapting a neural network model on a hardware platform
US11150664B2 (en) 2019-02-01 2021-10-19 Tesla, Inc. Predicting three-dimensional features for autonomous driving
US10997461B2 (en) 2019-02-01 2021-05-04 Tesla, Inc. Generating ground truth for machine learning from time series elements
US11567514B2 (en) 2019-02-11 2023-01-31 Tesla, Inc. Autonomous and user controlled vehicle summon to a target
US10956755B2 (en) 2019-02-19 2021-03-23 Tesla, Inc. Estimating object properties using visual image data
JP7056698B2 (en) * 2020-08-17 2022-04-19 カシオ計算機株式会社 Feature amount acquisition device, similar image search device, display device, feature amount acquisition method, similar image search method, display method and program
JP2022091269A (en) * 2020-12-09 2022-06-21 ブラザー工業株式会社 Method, system and computer program
WO2022185473A1 (en) * 2021-03-04 2022-09-09 日本電気株式会社 Object detection model generation device, object detection model generation method, object detection device, object detection method, and recording medium

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3620938B2 (en) * 1996-11-15 2005-02-16 沖電気工業株式会社 Personal identification device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
N. C. F. Codella et al.,Deep learning ensembles for melanoma recognition in dermoscopy images,IBM Journal of Research and Development,米国,IBM,2017年09月08日,Vol. 61, No. 4/5,pp. 5:1-5:15,https://ieeexplore.ieee.org/dcument/8030303

Also Published As

Publication number Publication date
JP2020101927A (en) 2020-07-02

Similar Documents

Publication Publication Date Title
JP7293644B2 (en) Image identification device, classifier learning method, image identification method and program
US11861829B2 (en) Deep learning based medical image detection method and related device
US10482603B1 (en) Medical image segmentation using an integrated edge guidance module and object segmentation network
US10410353B2 (en) Multi-label semantic boundary detection system
JP7135504B2 (en) Image identification device, image identification method and program
US10902283B2 (en) Method and device for determining handwriting similarity
JP2023520846A (en) Image processing method, image processing apparatus, computer program and computer equipment based on artificial intelligence
US20240203108A1 (en) Decoupling divide-and-conquer facial nerve segmentation method and device
WO2022088665A1 (en) Lesion segmentation method and apparatus, and storage medium
US11417000B2 (en) Image processing system, image processing method, and non-transitory storage medium
Atici et al. Fully automated determination of the cervical vertebrae maturation stages using deep learning with directional filters
WO2022062770A1 (en) Image segmentation method and apparatus, and electronic device
KR20200137768A (en) A Method and Apparatus for Segmentation of Orbital Bone in Head and Neck CT image by Using Deep Learning and Multi-Graylevel Network
CN110738643A (en) Method for analyzing cerebral hemorrhage, computer device and storage medium
CN113313680B (en) Colorectal cancer pathological image prognosis auxiliary prediction method and system
Jenitta et al. Image retrieval based on local mesh vector co-occurrence pattern for medical diagnosis from MRI brain images
KR102530010B1 (en) Apparatus and method for determining disease severity based on medical image
JP2005275935A (en) Terminal device
Yanling et al. Segmenting vitiligo on clinical face images using CNN trained on synthetic and internet images
JP7049974B2 (en) Information processing equipment, information processing methods, and programs
CN115546149B (en) Liver segmentation method and device, electronic equipment and storage medium
KR101592087B1 (en) Method for generating saliency map based background location and medium for recording the same
CN113379770B (en) Construction method of nasopharyngeal carcinoma MR image segmentation network, image segmentation method and device
Zhang et al. DINs: deep interactive networks for neurofibroma segmentation in neurofibromatosis type 1 on whole-body mri
Li et al. Myocardial segmentation of contrast echocardiograms using random forests guided by shape model

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230303

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230522

R150 Certificate of patent or registration of utility model

Ref document number: 7293644

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150