JP2021033737A - Learning data creation device and method, machine learning device and method - Google Patents
Learning data creation device and method, machine learning device and method Download PDFInfo
- Publication number
- JP2021033737A JP2021033737A JP2019154362A JP2019154362A JP2021033737A JP 2021033737 A JP2021033737 A JP 2021033737A JP 2019154362 A JP2019154362 A JP 2019154362A JP 2019154362 A JP2019154362 A JP 2019154362A JP 2021033737 A JP2021033737 A JP 2021033737A
- Authority
- JP
- Japan
- Prior art keywords
- image
- subject
- learning
- learning data
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 86
- 238000010801 machine learning Methods 0.000 title claims abstract description 42
- 238000003384 imaging method Methods 0.000 claims abstract description 60
- 238000003860 storage Methods 0.000 claims abstract description 42
- 238000005286 illumination Methods 0.000 claims description 122
- 239000003814 drug Substances 0.000 claims description 96
- 229940079593 drug Drugs 0.000 claims description 85
- 238000012545 processing Methods 0.000 claims description 42
- 239000002131 composite material Substances 0.000 claims description 8
- 230000035945 sensitivity Effects 0.000 claims description 5
- 230000002194 synthesizing effect Effects 0.000 claims description 4
- 239000000284 extract Substances 0.000 claims description 3
- 238000004806 packaging method and process Methods 0.000 description 22
- 238000010586 diagram Methods 0.000 description 19
- 239000003795 chemical substances by application Substances 0.000 description 9
- 238000002591 computed tomography Methods 0.000 description 9
- 238000000605 extraction Methods 0.000 description 8
- 238000002595 magnetic resonance imaging Methods 0.000 description 7
- 238000005520 cutting process Methods 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- FWVCSXWHVOOTFJ-UHFFFAOYSA-N 1-(2-chloroethylsulfanyl)-2-[2-(2-chloroethylsulfanyl)ethoxy]ethane Chemical compound ClCCSCCOCCSCCCl FWVCSXWHVOOTFJ-UHFFFAOYSA-N 0.000 description 1
- 238000012550 audit Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000009751 slip forming Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000007723 transport mechanism Effects 0.000 description 1
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は学習データ作成装置及び方法、並びに機械学習装置及び方法に係り、特に学習器を機械学習させる学習データを効率よく作成する技術に関する。 The present invention relates to a learning data creation device and method, and a machine learning device and method, and particularly relates to a technique for efficiently creating learning data for machine learning of a learning device.
従来、学習データを作成する画像出力装置として、特許文献1に記載のものがある。 Conventionally, as an image output device for creating learning data, there is one described in Patent Document 1.
特許文献1に記載の画像出力装置は、対象物を第1の方向から撮影した第1の画像と、対象物を第2の方向から撮影した第2の画像とを取得し、これらの第1の画像と第2の画像とを所定の位置関係で一の画像内に含む合成画像を生成する。 The image output device described in Patent Document 1 acquires a first image of an object taken from a first direction and a second image of an object taken from a second direction, and the first of these. A composite image is generated in which the first image and the second image are included in one image in a predetermined positional relationship.
特許文献1に記載の画像出力装置は、上記のようにして生成した合成画像を、機械学習可能な又は学習結果として得られた学習器の入力データとすることで、対象物を複数方向から撮影した画像の情報を用いた機械学習を可能にし、又は対象物の評価結果を得ることができるようにしている。 The image output device described in Patent Document 1 captures an object from a plurality of directions by using the composite image generated as described above as input data of a learner capable of machine learning or obtained as a learning result. It enables machine learning using the information of the image, or makes it possible to obtain the evaluation result of the object.
特許文献1に画像出力装置は、学習器への入力データとして合成画像を作成するものの、「教師あり学習」させる場合の「学習に使われる出力の正解データ」を作成するものではない。 In Patent Document 1, the image output device creates a composite image as input data to the learner, but does not create "correct answer data of the output used for learning" in the case of "supervised learning".
「教師あり学習」を行う場合、「学習に使用される入力データ」と「学習に使われる出力の正解データ」との組からなる学習データを準備する必要があるが、特許文献1には、正解データの作成方法については記載されていない。一般に学習データの作成に際し、正解データの作成に時間と労力がかかるが、特許文献1に記載の発明はこのような課題を解決していない。 When performing "supervised learning", it is necessary to prepare learning data consisting of a set of "input data used for learning" and "correct answer data of output used for learning". There is no description on how to create correct answer data. Generally, when creating learning data, it takes time and effort to create correct answer data, but the invention described in Patent Document 1 does not solve such a problem.
本発明はこのような事情に鑑みてなされたもので、学習器を「教師あり学習」させる学習データを効率よく作成し、学習器を機械学習させることができる学習データ作成装置及び方法、並びに機械学習装置及び方法を提供することを目的とする。 The present invention has been made in view of such circumstances, and is a learning data creation device and method capable of efficiently creating learning data for "supervised learning" of a learning device and machine learning of the learning device, and a machine. It is an object of the present invention to provide a learning device and a method.
上記目的を達成するために本発明の一の態様に係る学習データ作成装置は、被写体を第1撮影方法で撮影して第1画像を取得する第1画像取得部と、被写体を第1撮影方法とは異なる第2撮影方法で撮影して第2画像を取得する第2画像取得部と、第1画像と第2画像とを組とし、組を学習器の学習データとして記憶部に記憶させる記憶制御部と、を備える。 In order to achieve the above object, the learning data creation device according to one aspect of the present invention includes a first image acquisition unit that captures a subject by a first imaging method and acquires a first image, and a first imaging method for the subject. A storage unit in which a second image acquisition unit that acquires a second image by photographing with a second imaging method different from the above, and a first image and a second image are paired, and the pair is stored in the storage unit as learning data of the learner. It includes a control unit.
本発明の一の態様によれば、例えば、第1画像取得部に取得した第1画像を学習器への入力データとし、第2画像取得部に取得した第2画像を学習器に対する正解データとすることができる。これにより、第1画像と第2画像の組を効率よく作成することができる。 According to one aspect of the present invention, for example, the first image acquired by the first image acquisition unit is used as input data to the learning device, and the second image acquired by the second image acquisition unit is used as correct answer data for the learning device. can do. As a result, a pair of the first image and the second image can be efficiently created.
本発明の他の態様に係る学習データ作成装置において、第2画像取得部は、第2撮影方法で撮影された画像を画像処理して第2画像を生成する画像処理部を含み、記憶制御部は、第1画像を学習器の入力データとし、第2画像を学習器の正解データとして記憶部に記憶させることが好ましい。 In the learning data creation device according to another aspect of the present invention, the second image acquisition unit includes an image processing unit that processes an image captured by the second imaging method to generate a second image, and is a storage control unit. It is preferable that the first image is used as the input data of the learning device and the second image is stored in the storage unit as the correct answer data of the learning device.
本発明の更に他の態様に係る学習データ作成装置において、第2撮影方法で撮影された画像は、被写体への照明の入射方向が異なる複数の画像であり、画像処理部は、複数の画像から被写体に付加された刻印又は印字が強調された第2画像を生成することが好ましい
本発明の更に他の態様に係る学習データ作成装置において、画像処理部は、複数の画像から被写体に付加された刻印又は印字が強調された複数のエッジ画像を生成し、生成した複数のエッジ画像を合成した合成画像を第2画像として生成することが好ましい。
In the learning data creating apparatus according to still another aspect of the present invention, the images taken by the second shooting method are a plurality of images in which the incident directions of the illuminations on the subject are different, and the image processing unit is composed of the plurality of images. In the learning data creation device according to still another aspect of the present invention, it is preferable to generate a second image in which the marking or printing added to the subject is emphasized, the image processing unit is added to the subject from a plurality of images. It is preferable to generate a plurality of edge images in which engraving or printing is emphasized, and to generate a composite image in which the generated plurality of edge images are combined as a second image.
本発明の更に他の態様に係る学習データ作成装置において、画像処理部は、複数の画像を入力画像とし、被写体に付加された刻印又は印字が強調された画像を認識結果として出力する学習済み認識器を含み、複数の画像を認識器に入力し、認識器の認識結果を第2画像として生成することが好ましい。 In the learning data creation device according to still another aspect of the present invention, the image processing unit uses a plurality of images as input images and outputs an image in which the marking or printing emphasized added to the subject is emphasized as a recognition result. It is preferable that a plurality of images including a device are input to the recognizer and the recognition result of the recognizer is generated as a second image.
本発明の更に他の態様に係る学習データ作成装置において、被写体は、刻印又は印字が付加された薬剤であることが好ましい。 In the learning data creating apparatus according to still another aspect of the present invention, the subject is preferably a drug to which a stamp or a print is added.
本発明の更に他の態様に係る学習データ作成装置において、第1撮影方法と第2撮影方法とは、被写体に対する照明方法が異なることが好ましい。 In the learning data creating device according to still another aspect of the present invention, it is preferable that the first photographing method and the second photographing method have different illumination methods for the subject.
本発明の更に他の態様に係る学習データ作成装置において、第1撮影方法の照明方法は、被写体に対して全方向から光を入射させ、第2撮影方法の照明方法は、被写体に対する入射方向が異なる複数の光を順次入射させることが好ましい。 In the learning data creation device according to still another aspect of the present invention, the lighting method of the first photographing method causes light to be incident on the subject from all directions, and the illumination method of the second photographing method has the incident direction to the subject. It is preferable to sequentially inject a plurality of different lights.
本発明の更に他の態様に係る学習データ作成装置において、第1画像取得部及び第2画像取得部は、被写体の周囲の配置された複数の照明光源と、複数の照明光源の点灯を制御する照明制御部とを含み、照明制御部は、第1撮影方法の照明方法として複数の照明光源を同時に点灯させ、第2撮影方法の照明方法として複数の照明光源を順次点灯させることが好ましい。 In the learning data creation device according to still another aspect of the present invention, the first image acquisition unit and the second image acquisition unit control a plurality of illumination light sources arranged around the subject and lighting of the plurality of illumination light sources. It is preferable that the illumination control unit includes the illumination control unit, and the illumination control unit lights a plurality of illumination light sources at the same time as the illumination method of the first imaging method, and sequentially lights the plurality of illumination light sources as the illumination method of the second imaging method.
本発明の更に他の態様に係る学習データ作成装置において、複数の照明光源は、被写体の前方、後方、右方及び左方のうち少なくとも2箇所に配置されたものであることが好ましい。 In the learning data creating device according to still another aspect of the present invention, it is preferable that the plurality of illumination light sources are arranged at at least two of the front, the rear, the right and the left of the subject.
本発明の更に他の態様に係る学習データ作成装置において、第1画像取得部及び第2画像取得部は、被写体を撮影するカメラ部と、カメラ部を制御するカメラ制御部と、画像処理部とを含み、カメラ制御部は、第1撮影方法の照明方法により被写体が照明されると、カメラ部により被写体を撮影させ、第2撮影方法の照明方法により被写体が順次照明されると、順次照明される毎に被写体を撮影させ、画像処理部は、順次照明される毎にカメラ部により撮影された複数の画像を画像処理して第2画像を生成することが好ましい。 In the learning data creation device according to still another aspect of the present invention, the first image acquisition unit and the second image acquisition unit include a camera unit that captures a subject, a camera control unit that controls the camera unit, and an image processing unit. When the subject is illuminated by the lighting method of the first shooting method, the camera control unit causes the camera unit to shoot the subject, and when the subject is sequentially illuminated by the lighting method of the second shooting method, the subject is sequentially illuminated. It is preferable that the subject is photographed each time the subject is photographed, and the image processing unit performs image processing on a plurality of images captured by the camera unit each time the image is sequentially illuminated to generate a second image.
本発明の更に他の態様に係る学習データ作成装置において、被写体は、刻印又は印字が付加され、画像処理部は、被写体に付加された刻印又は印字を強調する画像処理を実施し、刻印又は印字を強調した第2画像を生成することが好ましい。 In the learning data creating device according to still another aspect of the present invention, the subject is engraved or printed, and the image processing unit performs image processing for emphasizing the engraving or printing added to the subject, and the engraving or printing is performed. It is preferable to generate a second image in which the above is emphasized.
本発明の更に他の態様に係る学習データ作成装置において、第1画像取得部及び第2画像取得部は、被写体の周囲の配置された複数の照明光源であって、それぞれ波長帯域が異なる複数の光を被写体に照射する複数の照明光源と、波長帯域が異なる複数の光にそれぞれ感度を有する複数種類の画素を備えたカメラ部とを含み、第1撮影方法は、複数の照明光源により照明された被写体をカメラ部により撮影して第1画像を取得し、第2撮影方法は、複数の照明光源により照明された被写体をカメラ部により撮影し、複数種類の画素に対応して複数の画像を取得し、第2画像取得部は、複数の画像を画像処理して第2画像を取得することが好ましい。 In the learning data creation device according to still another aspect of the present invention, the first image acquisition unit and the second image acquisition unit are a plurality of illumination light sources arranged around the subject, each having a plurality of different wavelength bands. The first shooting method includes a plurality of illumination light sources that irradiate a subject with light and a camera unit having a plurality of types of pixels having sensitivity to a plurality of lights having different wavelength bands, and the first shooting method is illuminated by a plurality of illumination light sources. The first image is acquired by shooting the subject with the camera unit, and the second shooting method is to shoot the subject illuminated by a plurality of illumination light sources with the camera unit and capture a plurality of images corresponding to a plurality of types of pixels. It is preferable that the second image acquisition unit acquires the second image by performing image processing on a plurality of images.
本発明の更に他の態様に係る学習データ作成装置において、被写体は、刻印が付加され、第2画像取得部は、被写体の3次元情報を取得する3次元情報取得部と、画像処理部とを含み、画像処理部は、3次元情報取得部により取得された被写体の3次元情報に基づいて被写体の刻印を抽出し、被写体の刻印を強調した第2画像を生成することが好ましい。 In the learning data creating device according to still another aspect of the present invention, the subject is engraved, and the second image acquisition unit includes a three-dimensional information acquisition unit that acquires three-dimensional information of the subject and an image processing unit. Including, it is preferable that the image processing unit extracts the marking of the subject based on the three-dimensional information of the subject acquired by the three-dimensional information acquisition unit and generates a second image in which the marking of the subject is emphasized.
本発明の更に他の態様に係る学習データ作成装置において、第1撮影方法と第2撮影方法とは、それぞれ異なる撮影モダリティを使用して被写体を撮影する撮影方法であることが好ましい。 In the learning data creating device according to still another aspect of the present invention, it is preferable that the first imaging method and the second imaging method are imaging methods for photographing a subject using different imaging modality.
本発明の更に他の態様に係る学習データ作成装置において、第1撮影方法及び第2撮影方法のうちの一方の撮影方法は、CT装置を使用して被写体を撮影する撮影方法であり、第1撮影方法及び第2撮影方法のうちの他方の撮影方法は、MRI装置を使用して被写体を撮影する撮影方法であることが好ましい。 In the learning data creating apparatus according to still another aspect of the present invention, one of the first imaging method and the second imaging method is an imaging method for photographing a subject using a CT apparatus, and the first imaging method. The other imaging method of the imaging method and the second imaging method is preferably an imaging method in which a subject is photographed using an MRI apparatus.
本発明の更に他の態様に係る機械学習装置は、学習器と、上記の学習データ作成装置の記憶部に記憶された学習データを使用し、組を構成する第1画像を学習器を機械学習させる場合の入力画像とし、組を構成する第2画像を正解データとして学習器を機械学習させる学習制御部と、を備える。 The machine learning device according to still another aspect of the present invention uses the learning device and the learning data stored in the storage unit of the above-mentioned learning data creating device, and machine-learns the first image forming the set from the learning device. It is provided with a learning control unit for machine learning the learner using the second image constituting the set as the correct answer data as the input image for the case of making the data.
本発明の更に他の態様に係る機械学習装置は、被写体を第1撮影方法で撮影して第1画像を取得する第1画像取得部と、被写体を第1撮影方法とは異なる第2撮影方法で撮影して第2画像を取得する第2画像取得部と、学習器と、第1画像と第2画像とを組として、学習器を機械学習させる学習制御部と、を備える。 The machine learning device according to still another aspect of the present invention includes a first image acquisition unit that captures a subject by the first imaging method and acquires a first image, and a second imaging method that captures the subject differently from the first imaging method. It is provided with a second image acquisition unit for acquiring a second image by taking a picture with the image, a learning device, and a learning control unit for machine learning the learning device by combining the first image and the second image.
本発明の更に他の態様に係る学習データ作成方法は、第1画像取得部が、被写体を第1撮影方法で撮影して第1画像を取得するステップと、第2画像取得部が、被写体を第1撮影方法とは異なる第2撮影方法で撮影して第2画像を取得するステップと、記憶制御部が、第1画像と第2画像とを組とし、組を学習器の学習データとして記憶部に記憶させるステップと、を含む。 In the learning data creation method according to still another aspect of the present invention, the first image acquisition unit captures the subject by the first imaging method and acquires the first image, and the second image acquisition unit captures the subject. The step of acquiring a second image by photographing with a second imaging method different from the first imaging method, and the memory control unit sets the first image and the second image as a set and stores the set as learning data of the learner. Includes steps to be stored in the department.
本発明の更に他の態様に係る学習データ作成方法において、被写体は、刻印又は印字が付加された薬剤であることが好ましい。 In the learning data creation method according to still another aspect of the present invention, the subject is preferably a drug to which a stamp or a print is added.
本発明の更に他の態様に係る学習データ作成方法において、第1撮影方法と第2撮影方法とは、被写体に対する照明方法が異なることが好ましい。 In the learning data creation method according to still another aspect of the present invention, it is preferable that the first photographing method and the second photographing method have different illumination methods for the subject.
本発明の更に他の態様に係る機械学習方法は、学習制御部が、上記の学習データ作成方法により作成され、記憶部に記憶された学習データを使用し、組を構成する第1画像を学習器を機械学習させる場合の入力画像とし、組を構成する第2画像を正解データとして学習器を機械学習させるステップを含む。 In the machine learning method according to still another aspect of the present invention, the learning control unit learns the first image constituting the set by using the learning data created by the above-mentioned learning data creation method and stored in the storage unit. It includes a step of making the learner machine-learn by using the second image constituting the set as the correct answer data as the input image when the instrument is machine-learned.
本発明の更に他の態様に係る機械学習方法は、第1画像取得部が、被写体を第1撮影方法で撮影して第1画像を取得するステップと、第2画像取得部が、被写体を第1撮影方法とは異なる第2撮影方法で撮影して第2画像を取得するステップと、学習制御部が、第1画像と第2画像とを組として、学習器を機械学習させるステップと、を含む。 In the machine learning method according to still another aspect of the present invention, the first image acquisition unit takes a picture of the subject by the first shooting method and acquires the first image, and the second image acquisition unit takes the subject. A step of acquiring a second image by shooting with a second shooting method different from the first shooting method, and a step of the learning control unit machine learning the learner by combining the first image and the second image. Including.
本発明によれば、学習器を「教師あり学習」させる学習データを効率よく自動で作成することができる。 According to the present invention, learning data for "supervised learning" of a learning device can be efficiently and automatically created.
以下、添付図面に従って本発明に係る学習データ作成装置及び方法、並びに機械学習装置及び方法の好ましい実施形態について説明する。 Hereinafter, preferred embodiments of the learning data creation device and method and the machine learning device and method according to the present invention will be described with reference to the accompanying drawings.
[機械学習装置の構成]
図1は、本発明に係る機械学習装置の概略構成を示すブロック図である。
[Configuration of machine learning device]
FIG. 1 is a block diagram showing a schematic configuration of a machine learning device according to the present invention.
図1に示す機械学習装置10は、学習データ作成装置10Aと学習器50とを含み、学習器50は、学習データ作成装置10Aにより作成された学習データセットにより機械学習を行う。 The machine learning device 10 shown in FIG. 1 includes a learning data creating device 10A and a learning device 50, and the learning device 50 performs machine learning using a learning data set created by the learning data creating device 10A.
学習データ作成装置10Aは、第1画像取得部20A及び第2画像取得部20Bを含む画像取得部20と、記憶制御部40とから構成されている。 The learning data creation device 10A includes an image acquisition unit 20 including a first image acquisition unit 20A and a second image acquisition unit 20B, and a storage control unit 40.
第1画像取得部20Aは、被写体を第1撮影方法で撮影して第1画像25を取得する部分であり、第2画像取得部20Bは、同じ被写体を第2撮影方法で撮影して第2画像27を取得する部分である。尚、第1画像取得部20Aによる第1撮影方法、及び第2画像取得部20Bによる第2撮影方法の詳細については後述する。 The first image acquisition unit 20A is a portion that captures the subject by the first imaging method and acquires the first image 25, and the second image acquisition unit 20B captures the same subject by the second imaging method and second. This is the part for acquiring the image 27. The details of the first photographing method by the first image acquisition unit 20A and the second photographing method by the second image acquisition unit 20B will be described later.
第1画像取得部20Aにより取得された第1画像25、及び第2画像取得部20Bにより取得された第2画像27は、それぞれ記憶制御部40に出力される。 The first image 25 acquired by the first image acquisition unit 20A and the second image 27 acquired by the second image acquisition unit 20B are output to the storage control unit 40, respectively.
記憶制御部40は、入力する第1画像25と第2画像27とを組とし、記憶部42に記憶させる。記憶部42は、学習データ作成装置10Aに内蔵されたハードディスク装置等のメディアでもよいし、学習データ作成装置10Aに着脱自在なリムーバブルメディアでもよい。 The storage control unit 40 sets the input first image 25 and the second image 27 as a set and stores them in the storage unit 42. The storage unit 42 may be a medium such as a hard disk device built in the learning data creation device 10A, or a removable medium that can be attached to and detached from the learning data creation device 10A.
ここで、第1画像25と第2画像27の組は、学習器50による機械学習時に、第1画像25と第2画像27のうちのいずれか一方の画像(本例では、第1画像25)は、学習器50の学習に使用される入力データとし、他方の画像(本例では第2画像27)を学習器50の学習に使用される正解データとすることができる。 Here, the pair of the first image 25 and the second image 27 is an image of either one of the first image 25 and the second image 27 during machine learning by the learner 50 (in this example, the first image 25). ) Can be input data used for learning of the learning device 50, and the other image (second image 27 in this example) can be used as correct answer data used for learning of the learning device 50.
記憶制御部40は、複数の被写体の各被写体に対して、それぞれ第1画像25と第2画像27とを取得し、第1画像25と第2画像27の複数組の学習データセットを、記憶部42に記憶させる。 The storage control unit 40 acquires the first image 25 and the second image 27 for each subject of the plurality of subjects, and stores a plurality of sets of learning data sets of the first image 25 and the second image 27, respectively. It is stored in the part 42.
学習器50の学習制御部52は、記憶部42に記憶させた学習データセットに基づいて学習器50を機械学習させることができる。 The learning control unit 52 of the learning device 50 can machine-learn the learning device 50 based on the learning data set stored in the storage unit 42.
第1画像を入力画像とし、第2画像を認識結果として出力する学習器50としては、畳み込みニューラルネットワーク(CNN: Convolutional Neural Network))で構成されるものが考えられ、代表的な学習モデルであるVGG16、AlexNetなどを適用することができる。 As the learner 50 that uses the first image as an input image and outputs the second image as a recognition result, it is conceivable that the learner 50 is composed of a convolutional neural network (CNN), which is a typical learning model. VGG16, AlexNet, etc. can be applied.
学習データセットを使用し、学習制御部52により学習器50を「教師あり学習」させる方法は周知であるため、ここでは学習器50の学習方法の説明は省略する。 Since the method of making the learning device 50 "supervised learning" by the learning control unit 52 using the learning data set is well known, the description of the learning method of the learning device 50 is omitted here.
学習済みの学習器(認識器)50は、任意の被写体の画像(例えば、第1画像25に相当する画像)を入力すると、任意の被写体を第2撮影方法で撮影して取得される第2画像27と同等の画像を認識結果として出力する。 When the trained learner (recognition device) 50 inputs an image of an arbitrary subject (for example, an image corresponding to the first image 25), the second image acquired by photographing the arbitrary subject by the second photographing method. An image equivalent to the image 27 is output as a recognition result.
これにより、任意の被写体を第2撮影方法で撮影して取得される第2画像27と同等の画像(認識結果)を、任意の被写体を第2撮影方法で撮影することなく取得することができる。 As a result, an image (recognition result) equivalent to the second image 27 acquired by photographing an arbitrary subject by the second photographing method can be acquired without photographing an arbitrary subject by the second photographing method. ..
<学習データ作成装置の第1実施形態>
図2は、図1に示した学習データ作成装置10Aの第1実施形態の要部ブロック図であり、特に画像取得部20に関して示している。
<First Embodiment of Learning Data Creation Device>
FIG. 2 is a block diagram of a main part of the first embodiment of the learning data creating device 10A shown in FIG. 1, and is particularly shown with respect to the image acquisition unit 20.
本例の被写体は、刻印又は印字が付加された薬剤であり、図2に示す画像取得部20は、薬剤を撮影するカメラ部22と、薬剤を照明する照明光源24と、カメラ部22及び照明光源24を制御する制御部26と、画像処理部30とから構成されている。 The subject of this example is a drug to which a stamp or print is added, and the image acquisition unit 20 shown in FIG. 2 includes a camera unit 22 for photographing the drug, an illumination light source 24 for illuminating the drug, a camera unit 22, and illumination. It is composed of a control unit 26 that controls the light source 24 and an image processing unit 30.
図3及び図4は、カメラ部22(22A、22B)、及び照明光源24(24F,24B,24R,24L)を使用して、分包袋TPの画像を取得する様子を示す側面図及び平面図である。 3 and 4 are side views and a plan view showing how the camera unit 22 (22A, 22B) and the illumination light source 24 (24F, 24B, 24R, 24L) are used to acquire an image of the packaging bag TP. It is a figure.
分包袋TPが連続して構成される薬包帯PBは、ステージ21上に載置され、順次搬送される。ステージ21は、xy平面(水平面)に平行な載置面及び裏面を有する板状部材である。ステージ21は、光透過性を有する材料によって構成されている。ここでは、ステージ21は、x軸方向に130mm、y軸方向に80mmの大きさを有している。 The drug bandage PB in which the sachet TP is continuously formed is placed on the stage 21 and sequentially transported. The stage 21 is a plate-shaped member having a mounting surface and a back surface parallel to the xy plane (horizontal plane). The stage 21 is made of a light-transmitting material. Here, the stage 21 has a size of 130 mm in the x-axis direction and 80 mm in the y-axis direction.
分包袋TPには、それぞれ調剤された1回に服用する複数の薬剤が分包されている。照明光源24の複数の照明光源24F,24B,24R,24Lは、薬包帯PBの上側(図3の+z方向側)及び下側(図3の−z方向側)に、それぞれ前方、後方、右方及び左方の4つの照明光源24F,24B,24R,及び24Lが配置される。尚、図3においては薬包帯PBの右方及び左方の照明光源24R及び24Lの図示を、図4においては薬包帯PBの下側の4つの照明光源24F,24B,24R,及び24Lの図示を、それぞれ省略している。 A plurality of drugs to be taken at one time are packaged in the packaged bag TP. The plurality of illumination light sources 24F, 24B, 24R, 24L of the illumination light source 24 are located on the upper side (+ z direction side in FIG. 3) and the lower side (−z direction side in FIG. 3) of the medicine bandage PB, respectively, forward, backward, and right. Four illumination light sources 24F, 24B, 24R, and 24L on the left side and the left side are arranged. In FIG. 3, the right and left illumination light sources 24R and 24L of the medicine bandage PB are shown, and in FIG. 4, the four illumination light sources 24F, 24B, 24R, and 24L below the medicine bandage PB are shown. Are omitted respectively.
薬包帯PBの上側の4つの照明光源24F,24B,24R,及び24Lは、xy平面視において,それぞれ図4の−x方向、+x方向、+y方向及び、−y方向に斜め上方向から光を照射する。即ち、照明光源24Fの照明方向は、xy平面視において照明光源24Bの照明方向と対向する方向であり、照明光源24Rの照明方向は、xy平面視において照明光源24F,24Bの照明方向と直交する方向であり、照明光源24Lの照明方向と対向する方向である。 The four illumination light sources 24F, 24B, 24R, and 24L on the upper side of the medicine bandage PB emit light from diagonally above in the −x direction, + x direction, + y direction, and −y direction in FIG. 4, respectively, in the xy plan view. Irradiate. That is, the illumination direction of the illumination light source 24F is a direction facing the illumination direction of the illumination light source 24B in the xy plan view, and the illumination direction of the illumination light source 24R is orthogonal to the illumination direction of the illumination light sources 24F and 24B in the xy plan view. It is a direction, which is a direction facing the illumination direction of the illumination light source 24L.
薬包帯PBの下側の照明光源24F,24B,24R,及び24Lについても、同様に配置されている。これにより、照明光源24は、分包袋TP(に分包された薬剤)の表側及び裏側に光を照射する。 The illumination light sources 24F, 24B, 24R, and 24L below the medicine bandage PB are also arranged in the same manner. As a result, the illumination light source 24 irradiates the front side and the back side of the packaging bag TP (the drug packaged in the packaging bag TP) with light.
カメラ部22(2台のカメラ部22A、22B)は、デジタルカメラにより構成される。図3に示すように、一方のカメラ部22Aは薬包帯PBの上側に、他方のカメラ部22Bは薬包帯PBの下側に配置される。カメラ部22A及びカメラ部22Bは、分包袋TP(に分包された薬剤)の表側及び裏側を撮影する。 The camera unit 22 (two camera units 22A and 22B) is composed of a digital camera. As shown in FIG. 3, one camera unit 22A is arranged above the medicine bandage PB, and the other camera unit 22B is arranged below the medicine bandage PB. The camera unit 22A and the camera unit 22B photograph the front side and the back side of the packaging bag TP (the drug packaged in the packaging bag TP).
分包袋TP(薬包帯PB)は、図示しない搬送機構により図4の+x方向(薬包帯PBの長手方向)に搬送される。撮影の際には、分包袋TPの上側の照明光源24F,24B,24R,及び24Lによって分包袋TPの上側が、分包袋TPの下側の照明光源24F,24B,24R,及び24Lによって分包袋TPの下側が、それぞれ前後左右の4方向から照明される。尚、分包袋TPには、撮影の際には照明光源24から照射される光以外の光は照射されないことが好ましい。 The sachet TP (medicine bandage PB) is transported in the + x direction (longitudinal direction of the drug bandage PB) in FIG. 4 by a transport mechanism (not shown). At the time of shooting, the illumination light sources 24F, 24B, 24R, and 24L on the upper side of the packaging bag TP allow the upper side of the packaging bag TP to be the illumination light sources 24F, 24B, 24R, and 24L on the lower side of the packaging bag TP. The lower side of the packaging bag TP is illuminated from four directions, front, back, left and right, respectively. It is preferable that the packaging bag TP is not irradiated with light other than the light emitted from the illumination light source 24 at the time of photographing.
図4に示すように、分包袋TPの上側の照明光源24F,24B,24R,及び24Lのそれぞれと、カメラ部22Aの撮影光軸PAとの間隔(d1、d2、d3、d4)は同じである。つまり、複数の照明光源24F,24B,24R,及び24Lと撮影光軸PAとが等間隔(d1=d2=d3=d4)である。分包袋TPの下側の照明光源24F,24B,24R,及び24Lのそれぞれとカメラ部22Bについても、同様に配置されている。 As shown in FIG. 4, the distances (d1, d2, d3, d4) between the illumination light sources 24F, 24B, 24R, and 24L on the upper side of the packaging bag TP and the photographing optical axis PA of the camera unit 22A are the same. Is. That is, the plurality of illumination light sources 24F, 24B, 24R, and 24L and the photographing optical axis PA are at equal intervals (d1 = d2 = d3 = d4). The illumination light sources 24F, 24B, 24R, and 24L below the packaging bag TP and the camera unit 22B are also arranged in the same manner.
図2に戻って、制御部26は、カメラ部22A,22Bを制御するカメラ制御部と、照明光源24を制御する照明制御部とを含み、分包袋TPの上側を撮影する場合、照明制御部は、分包袋TPの上側の照明光源24F,24B,24R,及び24Lを順次点灯させ、分包袋TPをそれぞれ異なる方向から順次照明する。カメラ制御部は、各照明方向から照明された分包袋TPを、順次照明される毎にカメラ部22Aにより撮影させる。 Returning to FIG. 2, the control unit 26 includes a camera control unit that controls the camera units 22A and 22B and a lighting control unit that controls the illumination light source 24, and when photographing the upper side of the packaging bag TP, the illumination control The unit sequentially lights the illumination light sources 24F, 24B, 24R, and 24L on the upper side of the packaging bag TP, and sequentially illuminates the packaging bag TP from different directions. The camera control unit causes the camera unit 22A to take a picture of the packaging bag TP illuminated from each illumination direction each time it is sequentially illuminated.
また、制御部26の照明制御部は、上側の照明光源24F,24B,24R,及び24Lを同時に点灯させ、均一に(全方向から)照明させ、カメラ制御部は、均一に(全方向から)照明された分包袋TPをカメラ部22Aにより撮影させる。 Further, the illumination control unit of the control unit 26 simultaneously lights the upper illumination light sources 24F, 24B, 24R, and 24L to illuminate them uniformly (from all directions), and the camera control unit uniformly (from all directions) lights them. The illuminated sachet TP is photographed by the camera unit 22A.
分包袋TPの下側を撮影する場合、制御部26は、分包袋TPの下側の照明光源24F,24B,24R,24L、及び下側のカメラ部22Bを上記と同様に制御する。 When photographing the lower side of the packaging bag TP, the control unit 26 controls the illumination light sources 24F, 24B, 24R, 24L on the lower side of the packaging bag TP and the camera unit 22B on the lower side in the same manner as described above.
図5は、分包袋TP内の1つの薬剤(薬剤の一例)への照明方向が異なる5枚の画像を示す図である。 FIG. 5 is a diagram showing five images in which the illumination direction of one drug (an example of the drug) in the sachet TP is different.
図5において、4枚の画像GF,GB,GR及びGLは、薬剤の上側の照明光源24F,24B,24R,及び24Lを順次点灯させ、カメラ部22Aより撮影された画像であり、画像GAは、上側の照明光源24F,24B,24R,及び24Lを同時に点灯させ、カメラ部22Aより撮影された画像である。 5, four images G F, G B, G R and G L, the agent of the upper illumination source 24F, 24B, 24R, and 24L sequentially lighting the, be a captured image from the camera section 22A the image G a, the upper of the illumination light source 24F, 24B, 24R, and at the same time turns on the 24L, an image taken from the camera unit 22A.
図5に示す4枚の画像GF,GB,GR及びGLには、それぞれ照明方向に伴って輝度ムラが発生している。また、図5に示す各画像上の「A」は、刻印Sを示しているが、画像GF,GB,GL及びGRの刻印Sは、薬剤の表面の凹凸形状であり、後述するように照明方向に伴って、刻印Sの影の出方が異なるものとなる。 Four images G F shown in FIG. 5, G B, the G R and G L, luminance unevenness with the illumination directions is generated. Further, "A" on the images shown in FIG. 5 shows a marking S, the image G F, G B, stamped S of G L and G R are irregularities on the surface of the drug, later As a result, the appearance of the shadow of the marking S differs depending on the illumination direction.
一方、4つの照明光源24F,24B,24R,24Lを同時に点灯させて撮影された画像GAには輝度ムラは発生しないが、刻印Sの影が出にくいため、刻印Sは不明瞭になる。尚、図5上では、刻印Sの影の出方や刻印Sが明瞭か不明瞭かは図示されていない。 On the other hand, the four illumination sources 24F, 24B, 24R, the luminance unevenness in image G A which is simultaneously photographed by lighting a 24L is not generated, since it is difficult out shadow marking S, engraved S becomes unclear. It should be noted that in FIG. 5, the appearance of the shadow of the marking S and whether the marking S is clear or unclear are not shown.
図6は、主として図2に示した画像処理部30の具体的な構成を示すブロック図である。 FIG. 6 is a block diagram mainly showing a specific configuration of the image processing unit 30 shown in FIG.
図6に示す画像処理部30は、画像切り出し部32及びエッジ画像生成部34から構成されている。 The image processing unit 30 shown in FIG. 6 is composed of an image cutting unit 32 and an edge image generating unit 34.
カメラ部22A、22Bにより取得された分包袋TPを撮影した画像(本例では、表側の5枚の画像、及び裏側の5枚の画像の合計10枚の画像)は、画像切り出し部32に加えられる。 The images of the packaging bag TP acquired by the camera units 22A and 22B (in this example, the five images on the front side and the five images on the back side, for a total of 10 images) are attached to the image cropping unit 32. Is added.
画像切り出し部32は、分包袋TPの画像から分包袋TPに分包された複数の薬剤の領域をそれぞれ切り出し、複数の薬剤画像を生成する。 The image cutting unit 32 cuts out the regions of the plurality of drugs packaged in the package bag TP from the image of the package bag TP, and generates a plurality of drug images.
図7は、分包袋TPの画像から1つの薬剤の領域を切り出した薬剤画像の一例を示す図である。 FIG. 7 is a diagram showing an example of a drug image obtained by cutting out a region of one drug from the image of the sachet TP.
薬剤画像の切り出しは、薬剤の外形を検出し、薬剤の外形にしたがって切り出すことが好ましい。図7に示す例では、分包袋TPの画像から薬剤の外形が内接する矩形領域を切り出している。このようにして、1つの薬剤について、10枚の薬剤画像が切り出される。 It is preferable to detect the outer shape of the drug and cut out the drug image according to the outer shape of the drug. In the example shown in FIG. 7, a rectangular region inscribed with the outer shape of the drug is cut out from the image of the sachet TP. In this way, 10 drug images are cut out for one drug.
尚、図7に示す薬剤画像は、全方向から光を入射させて撮影した分包袋TPの画像から切り出した、輝度ムラのない画像である。 The drug image shown in FIG. 7 is an image with no uneven brightness cut out from the image of the sachet TP taken by injecting light from all directions.
以下、10枚の薬剤画像のうちの薬剤の上側のカメラ部22Aにより撮影された5枚の薬剤画像を、図5に示した画像GF,GB,GR、GL及びGAとして、これらの画像に対する画像処理について説明する。 Hereinafter, the five drug image captured by the upper camera portion 22A of the drug out of the ten drug image, the image G F shown in FIG. 5, as the G B, G R, G L and G A, Image processing for these images will be described.
図6に示す画像切り出し部32により切り出された画像GAは、被写体(薬剤)に対して全方向から光を入射させて薬剤を撮影した、輝度ムラのない画像であり、本例では、この画像GAが、第1撮影方法により撮影された第1画像25として出力される。即ち、第1撮影方法は、薬剤を均一に照明(全方向から薬剤を照明)する照明方法にて撮影する撮影方法であり、第1撮影方法により撮影された画像GAを第1画像25とする。 Image G A cut out by the image cutting unit 32 shown in FIG. 6, were taken the drug by the incidence of light from all directions with respect to the subject (agent), an image with no luminance unevenness, in this example, this image G A is output as a first image 25 captured by the first imaging method. That is, the first imaging method, agent uniformly illuminating a photographing method for photographing at illumination method (from all directions illuminate the drug) to an image G A taken by the first imaging method and the first image 25 To do.
また、画像切り出し部32により切り出された5枚の画像GF,GB,GR、GL及びGAのうちの照明方向に伴って刻印Sの影の出方が異なる4枚の画像GF,GB,GR、GLは、エッジ画像生成部34に加えられる。 Further, five images G F cut out by the image cutting unit 32, G B, G R, G L and G image G shadow attitude of four different engraved S with the illumination direction of A F, G B, G R, G L is applied to the edge image generation unit 34.
エッジ画像生成部34は、4枚の画像GF,GB,GR、GLからそれぞれ照明方向に応じた方向のエッジ抽出フィルタ(例えば、ソーベルフィルタ)を使用し、4枚のエッジ画像を生成する。 Edge image generating unit 34, four images G F, G B, G R , an edge extraction filter in the direction corresponding to the respective illumination direction from G L (e.g., Sobel filter) using a four edge images To generate.
図8は、薬剤Tの中心を通るx−y平面で切断した薬剤Tの断面構造の模式図であり、1画素分のラインのプロファイルを示している。 FIG. 8 is a schematic view of the cross-sectional structure of the drug T cut along the xy plane passing through the center of the drug T, and shows the profile of the line for one pixel.
図8上の薬剤Tは、直径がDであり、表面には断面がV字状の溝からなる割線である刻印Sが形成されている。刻印Sの溝の幅はWである。尚、刻印Sの溝の幅とは、溝の延伸方向と直交する方向における溝の一方の端から他方の端までの距離であって、薬剤Tの表面における距離をいう。 The drug T on FIG. 8 has a diameter of D, and a marking S, which is a score line having a V-shaped groove in a cross section, is formed on the surface of the drug T. The width of the groove of the engraved S is W. The width of the groove of the marking S is the distance from one end of the groove to the other end in the direction orthogonal to the extending direction of the groove, and refers to the distance on the surface of the drug T.
ここで、照明光源24の照明光源24Fのみを点灯し、照明光LFにより薬剤Tを照明する場合と、照明光源24の照明光源24Bのみを点灯し、照明光LBにより薬剤Tを照明する場合とでは、刻印Sの影の出方が異なる。 Here, lights only illumination light source 24F of the illumination light source 24, in the case of illuminating the drug T illumination light L F, lit only illumination light source 24B of the illumination light source 24 illuminates the drug T illumination light L B Depending on the case, the appearance of the shadow of the engraved S is different.
即ち、照明光LFにより薬剤Tを照明する場合、刻印Sの左側(後方側)の面SBは照明光LFが照射されるが、刻印Sの右側(前方側)の面SFには照明光LFは照射されなくなり、刻印Sの右側の面SFに影が発生する。同様に、照明光LFとは反対方向の照明光LBにより薬剤Tを照明する場合、刻印Sの右側の面SFは照明光LBが照射されるが、刻印Sの左側の面SBには照明光LBは照射されなくなり、刻印Sの左側の面SBに影が発生する。 That is, the illumination light L F is illuminated drug T, although the surface S B illumination light L F on the left side of the stamp S (rear side) is irradiated to the surface S F of the right stamp S (front side) the illuminating light L F is no longer illuminated, shadows are generated in the right side S F engraved S. Similarly, the illumination light L If the F illuminates the drug T illumination light L B in the opposite direction, but the right side S F of the stamp S is illumination light L B is irradiated, the surface of the left marking S S illumination light L B is no longer irradiated to B, a shadow is generated on the surface S B of the left marking S.
図9は、エッジ画像生成部34でのエッジ抽出に使用するソーベルフィルタの一例を示す図である。 FIG. 9 is a diagram showing an example of a sobel filter used for edge extraction in the edge image generation unit 34.
ソーベルフィルタFFは、図8上の右方向(前方)からの照明光LFが照射された薬剤Tの画像GFからエッジ抽出する場合に使用され、ソーベルフィルタFBは、図8上の左方向(後方)から照明光LBが照射された薬剤Tの画像GBからエッジ抽出する場合に使用される。 Sobel filter F F is used to edge extraction from the image G F drugs T illumination light L F is irradiated from the right direction in FIG. 8 (front), the Sobel filter F B, 8 illumination light L B from the left side of the upper (rear) is used when edge extraction from the image G B drugs T irradiated.
図9に示すソーベルフィルタFF、FBのカーネルサイズは、刻印Sの幅W(の画素数)の半分より大きいサイズのソーベルフィルタを用いることが好ましい。例えば、刻印Sの溝の幅の画素数が4画素であれば、その半分の2画素より大きいサイズ(x軸方向3画素×y軸方向3画素等)のソーベルフィルタを用いる。本実施形態では各照明光によりそれぞれ溝の幅の半分の領域に影が発生するため、エッジからの画素数を鑑みたサイズのエッジ抽出フィルタを用いることで、溝を精度よく抽出するとともに、溝の幅よりも小さい表面の模様及び傷等の刻印以外の情報を低減することができる。 Sobel filter F F shown in FIG. 9, the kernel size of the F B, it is preferable to use a larger size Sobel filter than half the width W of the engraved S (number of pixels). For example, if the number of pixels in the width of the groove of the marking S is 4, a sobel filter having a size larger than half that of 2 pixels (3 pixels in the x-axis direction x 3 pixels in the y-axis direction, etc.) is used. In the present embodiment, each illumination light causes a shadow in an area half the width of the groove. Therefore, by using an edge extraction filter having a size considering the number of pixels from the edge, the groove can be extracted accurately and the groove can be extracted. Information other than markings such as surface patterns and scratches smaller than the width of can be reduced.
エッジ画像生成部34は、画像GF、GBに対してそれぞれソーベルフィルタFF、FBを使用し、画像GF、GBに対応するエッジ画像を生成する。また、エッジ画像生成部34は、右方向からの照明光が照射された薬剤Tの画像GR、及び左方向からの照明光が照射された薬剤Tの画像GLに対しても、上記と同様に照明光の方向に応じたソーベルフィルタを使用することで、エッジ画像を生成する。 Edge image generating unit 34, an image G F, respectively Sobel filter to G B F F, using F B, the image G F, to generate an edge image corresponding to the G B. Moreover, the edge image generation unit 34, an image G R drug T in which illumination light from the right direction is irradiated, and also for the image G L agents T which illumination light is irradiated from the left, and the Similarly, an edge image is generated by using a sobel filter according to the direction of the illumination light.
尚、エッジ画像生成部34におけるエッジ抽出フィルタ処理に使用するフィルタとしては、ソーベルフィルタに限らず、ラプラシアンフィルタ、キャニーフィルタ等を使用することができる。 The filter used for the edge extraction filter processing in the edge image generation unit 34 is not limited to the Sobel filter, and a Laplacian filter, a canny filter, or the like can be used.
エッジ画像生成部34は、4枚の画像GF,GB,GR,及びGLに対してそれぞれエッジ画像を生成し、生成した4枚のエッジ画像を合成した合成画像を第2画像27として出力する。この第2画像27は、薬剤に付加された刻印Sを強調した画像である。 Edge image generating unit 34, four images G F, G B, G R , and respectively generates the edge image with respect to G L, the synthetic composite image generation four edge image the second image 27 Output as. The second image 27 is an image emphasizing the marking S added to the drug.
このように画像取得部20の第1画像取得部20Aは、薬剤を均一に照明(全方向から薬剤を照明)する照明方法にて照明された薬剤を撮影する方法(第1撮影方法)により第1画像25(画像GA)を取得する。 In this way, the first image acquisition unit 20A of the image acquisition unit 20 is the first by a method (first imaging method) of photographing the agent illuminated by the illumination method of uniformly illuminating the agent (illuminating the agent from all directions). obtaining one image 25 (image G a).
一方、画像取得部20の第2画像取得部20Bは、第1撮影方法とは異なる第2撮影方法で撮影した第2画像を取得する。即ち、第2画像取得部20Bは、薬剤に対する入射方向が異なる複数の光(前後左右の光)を順次入射させて撮影し、4枚の画像GF,GB,GL、GR及びGAを取得し、薬剤に付加された刻印を強調する画像処理を実施し、刻印を強調した第2画像27を取得する。 On the other hand, the second image acquisition unit 20B of the image acquisition unit 20 acquires the second image captured by the second imaging method different from the first imaging method. That is, the second image acquisition unit 20B, a plurality of light incident direction is different (front, rear, right and left of light) to the drug by sequentially incident shot, four images G F, G B, G L, G R and G A is acquired, image processing for emphasizing the engraving added to the drug is performed, and a second image 27 emphasizing the engraving is acquired.
画像処理部30は、10枚の薬剤画像のうちの薬剤の下側のカメラ部22Bにより撮影された5枚の薬剤画像に基づいて、第1画像25及び第2画像27を取得することは言うまでもない。 Needless to say, the image processing unit 30 acquires the first image 25 and the second image 27 based on the five drug images taken by the camera unit 22B below the drug out of the ten drug images. No.
画像処理部30から出力される第1画像25及び第2画像27は、図1に示した記憶制御部40に加えられる。 The first image 25 and the second image 27 output from the image processing unit 30 are added to the storage control unit 40 shown in FIG.
記憶制御部40は、前述したように第1画像25と第2画像27とを組とし、この組を学習器50の学習データとして記憶部42に記憶させる。 As described above, the storage control unit 40 sets the first image 25 and the second image 27 as a set, and stores this set as learning data of the learning device 50 in the storage unit 42.
尚、本例の照明光源24は、4つの照明光源24F,24B,24R,24Lを有し、被写体の前方、後方、右方及び左方の4箇所に配置されているが、少なくとも2箇所に配置されたものでもよい。 The illumination light source 24 of this example has four illumination light sources 24F, 24B, 24R, and 24L, and is arranged at four locations in front of, behind, to the right, and to the left of the subject, but at least at two locations. It may be arranged.
また、図6に示した画像処理部30(特にエッジ画像生成部34)の代わりに、学習済み認識器を適用してもよい。 Further, the trained recognizer may be applied instead of the image processing unit 30 (particularly the edge image generation unit 34) shown in FIG.
この場合の学習済み認識器は、被写体への照明の入射方向が異なる複数の画像一式(本例では、4枚の画像GF,GB,GL、GR及びGA)を入力画像とし、被写体に付加された刻印又は印字が強調された画像を認識結果として出力するように機械学習されたものである。この認識器への入力データとして、被写体(薬剤)への照明の入射方向が異なる複数の画像一式を認識器に入力させると、認識器は、認識結果である刻印又は印字が強調された画像を第2画像27として生成(出力)することができる。 Trained recognizer in this case, (in this example, four images G F, G B, G L , G R and G A) a plurality of images set of incident direction is different from the illumination on the subject as an input image , The image is machine-learned so as to output an image in which the marking or printing added to the subject is emphasized as a recognition result. When a plurality of image sets having different incident directions of illumination on the subject (drug) are input to the recognizer as input data to the recognizer, the recognizer outputs an image in which the marking or printing which is the recognition result is emphasized. It can be generated (output) as the second image 27.
図10は、記憶部42に記憶された第1画像25、第2画像27の複数組の学習データセットのイメージ図である。 FIG. 10 is an image diagram of a plurality of sets of learning data sets of the first image 25 and the second image 27 stored in the storage unit 42.
記憶部42には、刻印の形状等が異なる複数の薬剤の各薬剤の第1画像25と第2画像27とを1組として複数組記憶される。 In the storage unit 42, a plurality of sets of the first image 25 and the second image 27 of each drug of the plurality of drugs having different marking shapes and the like are stored as one set.
これにより、学習データ作成装置10Aは、学習器50を「教師あり学習」させるための学習データセット(第1画像25と第2画像27の複数組)を効率よく作成し、記憶部42に保存させることができる。 As a result, the learning data creation device 10A efficiently creates a learning data set (a plurality of sets of the first image 25 and the second image 27) for causing the learning device 50 to "learn with supervised learning" and stores it in the storage unit 42. Can be made to.
図1に戻って、学習器50の学習制御部52は、学習データ作成装置10Aにより作成された学習データセット(記憶部42に保存された学習データセット)を使用し、学習器50を機械学習させる。例えば、学習器50のパラメータ(CNN等の学習モデルの各パラメータ)を最適化する学習が実施される。 Returning to FIG. 1, the learning control unit 52 of the learning device 50 uses the learning data set (learning data set stored in the storage unit 42) created by the learning data creation device 10A to machine learn the learning device 50. Let me. For example, learning that optimizes the parameters of the learner 50 (each parameter of a learning model such as CNN) is performed.
本例の学習データセットにより機械学習させた学習器50は、任意の薬剤の1枚の画像を入力すると、その薬剤に付加された刻印又は印字を強調したエッジ画像を認識結果として出力する。この認識結果は、任意の薬剤の鑑別又は監査を行うために使用することができ、また、任意の薬剤の画像にエッジ画像を合成することで、薬剤の刻印等が視認しやすい合成画像の生成に使用することができる。 When the learning device 50 machine-learned by the learning data set of this example inputs one image of an arbitrary drug, it outputs an edge image emphasizing the marking or printing added to the drug as a recognition result. This recognition result can be used to discriminate or audit an arbitrary drug, and by synthesizing an edge image with an image of an arbitrary drug, a composite image in which the marking of the drug is easily visible can be generated. Can be used for.
<学習データ作成装置の第2実施形態>
図11は、図1に示した学習データ作成装置10Aの第2実施形態の要部を示す図であり、特に照明光源に関して示している。
<Second Embodiment of Learning Data Creation Device>
FIG. 11 is a diagram showing a main part of the second embodiment of the learning data creating device 10A shown in FIG. 1, and is particularly shown with respect to an illumination light source.
図11に示す照明光源60は、薬剤Tの周囲の配置された複数の照明光源60A,60B,60Cから構成されており、複数の照明光源60A,60B,60Cは、それぞれ波長帯域が異なる光を、3方向から薬剤Tに照射する。本例では、照明光源60A,60B,60Cは、それぞれ波長帯域λaの赤色(R)、波長帯域λbの緑色(G)、及び波長帯域λcの青色(B)の光を発光するものとする。 The illumination light source 60 shown in FIG. 11 is composed of a plurality of illumination light sources 60A, 60B, 60C arranged around the agent T, and the plurality of illumination light sources 60A, 60B, 60C emit light having different wavelength bands. The drug T is irradiated from three directions. In this example, the illumination light sources 60A, 60B, and 60C are assumed to emit red (R) in the wavelength band λa, green (G) in the wavelength band λb, and blue (B) in the wavelength band λc, respectively.
また、図示しないカメラ部は、波長帯域が異なる複数の光(RGBの光)にそれぞれ感度を有する複数種類の画素を備えた公知のカラーイメージセンサを有する。カラーイメージセンサの複数種類の画素(R画素、G画素、B画素)には、それぞれRGBのカラーフィルタが設けられており、R画素、G画素、B画素は、図12に示すようにそれぞれ波長帯域λa、λb、λcに対応する感度を有している。 Further, the camera unit (not shown) has a known color image sensor having a plurality of types of pixels having sensitivity to a plurality of light (RGB light) having different wavelength bands. Each of the plurality of types of pixels (R pixel, G pixel, B pixel) of the color image sensor is provided with an RGB color filter, and each of the R pixel, G pixel, and B pixel has a wavelength as shown in FIG. It has a sensitivity corresponding to the bands λa, λb, and λc.
第2実施形態において、被写体(薬剤T)を撮影する場合、複数の照明光源60A,60B,60Cを同時に点灯して薬剤TにRGBの光を照射する。 In the second embodiment, when the subject (drug T) is photographed, a plurality of illumination light sources 60A, 60B, and 60C are turned on at the same time to irradiate the drug T with RGB light.
薬剤Tの第1画像を取得する第1撮影方法は、照明光源60A,60B,60Cにより照明された薬剤Tを、カラーイメージセンサを備えたカメラ部により撮影し、薬剤Tのカラー画像(第1画像)を取得する。 In the first imaging method of acquiring the first image of the drug T, the drug T illuminated by the illumination light sources 60A, 60B, 60C is photographed by a camera unit equipped with a color image sensor, and a color image of the drug T (first). Image) is acquired.
薬剤Tの第2画像を取得する第2撮影方法は、第1撮影方法と同様に照明光源60A,60B,60Cにより照明された薬剤Tを、カラーイメージセンサを備えたカメラ部により撮影し、複数種類の画素(RGB画素)に対応して複数の画像(R画像、G画像、B画像)を取得する。そして、第2画像取得部は、R画像、G画像、B画像をそれぞれ画像処理して第2画像を取得する。 In the second photographing method for acquiring the second image of the drug T, the drug T illuminated by the illumination light sources 60A, 60B, 60C is photographed by a camera unit equipped with a color image sensor in the same manner as in the first photographing method. A plurality of images (R image, G image, B image) are acquired corresponding to the types of pixels (RGB pixels). Then, the second image acquisition unit acquires the second image by performing image processing on each of the R image, the G image, and the B image.
R画像、G画像、B画像に対する画像処理は、照明光源60A,60B,60CのR、G、B光の照明方向に応じたエッジ抽出フィルタを使用して3枚のエッジ画像を生成し、3枚のエッジ画像を合成した合成画像を第2画像として生成する。 For image processing on the R image, G image, and B image, three edge images are generated using an edge extraction filter according to the illumination direction of the R, G, and B lights of the illumination light sources 60A, 60B, and 60C, and 3 A composite image obtained by synthesizing the edge images of the sheets is generated as the second image.
第2実施形態によれば、1回の撮影により組を構成する第1画像と第2画像を取得することができる。 According to the second embodiment, the first image and the second image constituting the set can be acquired by one shooting.
<学習データ作成装置の第3実施形態>
図13は、図1に示した学習データ作成装置10Aの第3実施形態の要部を示す図であり、特に第2画像取得部に関して示している。
<Third Embodiment of the learning data creation device>
FIG. 13 is a diagram showing a main part of the third embodiment of the learning data creating device 10A shown in FIG. 1, and particularly shows the second image acquisition unit.
図13に示す第2画像取得部20Bは、被写体の第2画像27を取得する部分であり、3次元測定器70及び画像処理部72から構成されている。尚、被写体の第1画像を取得する第1画像取得部20Aは、例えば、第1実施形態又は第2実施形態のものを使用することができる。 The second image acquisition unit 20B shown in FIG. 13 is a portion for acquiring the second image 27 of the subject, and is composed of a three-dimensional measuring device 70 and an image processing unit 72. As the first image acquisition unit 20A for acquiring the first image of the subject, for example, the one of the first embodiment or the second embodiment can be used.
図13に示す3次元測定器(3次元情報取得部)70は、立体形状を有する被写体(薬剤)の3次元情報を取得する。3次元測定器70は、レーザ光を走査して薬剤の3次元情報を取得するもの、ステレオカメラにより薬剤の3次元情報を取得するものなどが考えられる。 The coordinate measuring device (three-dimensional information acquisition unit) 70 shown in FIG. 13 acquires three-dimensional information of a subject (drug) having a three-dimensional shape. The three-dimensional measuring device 70 may be one that scans a laser beam to acquire three-dimensional information of a drug, one that acquires three-dimensional information of a drug by a stereo camera, or the like.
画像処理部72は、3次元測定器70により取得された薬剤の3次元情報に基づいて薬剤の刻印を抽出し、薬剤の刻印を強調した画像を生成し、生成した画像を第2画像27として出力する。 The image processing unit 72 extracts the marking of the medicine based on the three-dimensional information of the medicine acquired by the coordinate measuring device 70, generates an image emphasizing the marking of the medicine, and uses the generated image as the second image 27. Output.
<学習データ作成装置の第4実施形態>
第4実施形態の第1画像取得部及び第2画像取得部は、それぞれ撮影方法が異なる撮影モダリティを使用して同一の被写体を撮影し、第1画像と第2画像の1組を取得する。
<Fourth Embodiment of the learning data creation device>
The first image acquisition unit and the second image acquisition unit of the fourth embodiment shoot the same subject using shooting modality with different shooting methods, and acquire a set of the first image and the second image.
撮影方法が異なる撮影モダリティとしては、CT(Computed Tomography)装置、MRI(Magnetic Resonance Imaging)装置が考えられる。 As an imaging modality with a different imaging method, a CT (Computed Tomography) apparatus and an MRI (Magnetic Resonance Imaging) apparatus can be considered.
MRI装置は、被写体のボリュームデータを取得することができる。また、CT装置は、所定のピッチで複数枚のCT画像が撮影され、複数枚のCT画像を積層したボリュームデータとして取得することができる。 The MRI apparatus can acquire the volume data of the subject. In addition, the CT apparatus can capture a plurality of CT images at a predetermined pitch and acquire the plurality of CT images as stacked volume data.
したがって、CT装置及びMRI装置により同じ被写体を撮影して得た各ボリュームデータの同じ断面位置の画像を、それぞれ第1画像と第2画像とすることができる。 Therefore, the images at the same cross-sectional position of each volume data obtained by photographing the same subject with the CT device and the MRI device can be used as the first image and the second image, respectively.
尚、CT装置により取得した画像を第1画像、MRI装置により取得した画像を第2画像としてもよいし、MRI装置により取得した画像を第1画像、CT装置により取得した画像を第2画像としてもよい。 The image acquired by the CT device may be used as the first image, the image acquired by the MRI device may be used as the second image, the image acquired by the MRI device may be used as the first image, and the image acquired by the CT device may be used as the second image. May be good.
<機械学習方法>
図14は、本発明に係る機械学習方法の実施形態を示すフローチャートである。
<Machine learning method>
FIG. 14 is a flowchart showing an embodiment of the machine learning method according to the present invention.
尚、図14に示す機械学習方法は、第1実施形態の学習データ作成装置における学習データ作成方法を含む機械学習方法における処理内容を示している。 The machine learning method shown in FIG. 14 shows the processing contents in the machine learning method including the learning data creation method in the learning data creation device of the first embodiment.
図14において、図2に示す制御部26は、照明光源24の全ての照明光源24F,24B,24R,24Lを同時に点灯させ(ステップS10)、全方向から照明された被写体(薬剤)をカメラ部22Aにより撮影させる。これにより、カメラ部22A、照明光源24、及び制御部26を有する画像取得部20のうちの第1画像取得部20Aは、第1画像25を取得する(ステップS12)。 In FIG. 14, the control unit 26 shown in FIG. 2 simultaneously lights all the illumination light sources 24F, 24B, 24R, and 24L of the illumination light source 24 (step S10), and captures the subject (drug) illuminated from all directions as a camera unit. Let's take a picture with 22A. As a result, the first image acquisition unit 20A of the image acquisition units 20 having the camera unit 22A, the illumination light source 24, and the control unit 26 acquires the first image 25 (step S12).
続いて、制御部26は、照明光源24Fのみを点灯させ(ステップS14)、照明光源24Fにより照明された薬剤をカメラ部22Aにより撮影させて薬剤の画像GFを取得する(ステップS16)。 Subsequently, the control unit 26, the illumination light source 24F only is lit (step S14), and the illuminated drug by shooting by the camera unit 22A acquires the image G F drugs by the illumination light source 24F (step S16).
制御部26は、ステップS16、S18と同様にして、照明光源24B,24R,24Lを順次点灯し、順次点灯に同期してカメラ部22Aにより薬剤を撮影させ、薬剤の画像GB,GR,GLを取得する(ステップS20〜S28)。 Control unit 26, as in step S16, S18, illumination sources 24B, 24R, sequentially lit 24L, to shoot the drug by the camera unit 22A in synchronization sequential lighting, drug image G B, G R, acquires G L (step S20~S28).
続いて、エッジ画像生成部34は、ステップS16、S20,S24,S28でそれぞれ取得した4枚の画像GF,GB,GR,及びGLに対し、それぞれ対応するソーベルフィルタを適用して4枚のエッジ画像を生成し、生成した4枚のエッジ画像を合成したエッジ画像を第2画像27として取得する(ステップS30)。この第2画像27は、薬剤に付加された刻印又は印字を強調した画像である。 Then, the edge image generation unit 34, step S16, S20, S24, S28 4 images G F obtained, respectively, G B, with respect to G R, and G L, and apply the corresponding Sobel filter 4 edge images are generated, and the edge image obtained by synthesizing the generated 4 edge images is acquired as the second image 27 (step S30). The second image 27 is an image emphasizing the marking or printing added to the drug.
記憶制御部40は、ステップS12で取得した第1画像25と、ステップS30で取得した第2画像27とを組とし、記憶部42に記憶させる(ステップS32)。 The storage control unit 40 sets the first image 25 acquired in step S12 and the second image 27 acquired in step S30 as a set and stores them in the storage unit 42 (step S32).
上記のステップS10〜S32は、薬剤の上方のカメラ部22Aで薬剤を撮影した複数枚の画像に基づいて第1画像25、第2画像27の組を取得して記憶部42に記憶させるが、薬剤の下方のカメラ部22Bでも薬剤を撮影し、同様に第1画像25、第2画像27の組を取得して記憶部42に記憶させる。また、上記のステップS10〜S32の処理は、種類の異なる他の薬剤(複数の薬剤)に対しても行われ、その結果、複数の薬剤に対応する第1画像25、第2画像27の複数組が記憶部42に記憶されることになる。 In steps S10 to S32 described above, a set of the first image 25 and the second image 27 is acquired based on a plurality of images taken by the camera unit 22A above the drug and stored in the storage unit 42. The drug is also photographed by the camera unit 22B below the drug, and similarly, a set of the first image 25 and the second image 27 is acquired and stored in the storage unit 42. Further, the processing of steps S10 to S32 is also performed on other drugs (plurality of drugs) of different types, and as a result, a plurality of first image 25 and second image 27 corresponding to the plurality of drugs. The set will be stored in the storage unit 42.
学習器50を機械学習させる局面では、学習制御部52は、学習データ作成方法により作成され、記憶部42に記憶された学習データセットを使用し、学習器50を機械学習させる(ステップS34)。 In the phase of machine learning the learning device 50, the learning control unit 52 machine-learns the learning device 50 using the learning data set created by the learning data creation method and stored in the storage unit 42 (step S34).
[その他]
本発明は、本実施形態の機械学習装置及び方法に限らず、機械学習装置及び方法に含まれる学習データ作成装置及び方法も含むことは言うまでもない。
[Other]
Needless to say, the present invention is not limited to the machine learning device and method of the present embodiment, but also includes a learning data creating device and method included in the machine learning device and method.
また、学習データ作成装置により作成された学習データは記憶部に保存されるが、記憶部に保存される学習データは、本発明以外の方法で作成された第1画像と第2画像の組を含んでいてもよい。 Further, the learning data created by the learning data creation device is stored in the storage unit, but the learning data stored in the storage unit is a set of a first image and a second image created by a method other than the present invention. It may be included.
更に、本発明は上述した実施形態に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能であることは言うまでもない。 Furthermore, the present invention is not limited to the above-described embodiment, and it goes without saying that various modifications can be made without departing from the spirit of the present invention.
10 機械学習装置
10A 学習データ作成装置
20 画像取得部
20A 第1画像取得部
20B 第2画像取得部
21 ステージ
22 カメラ部
22A カメラ部
22B カメラ部
24、24B、24F、24L、24R 照明光源
25 第1画像
26 制御部
27 第2画像
30 画像処理部
32 画像切り出し部
34 エッジ画像生成部
40 記憶制御部
42 記憶部
50 学習器
52 学習制御部
60、60A、60B、60C 照明光源
70 3次元測定器
72 画像処理部
FB、FF ソーベルフィルタ
GA、GB、GF、GL、GR 画像
LB、LF 照明光
PA 撮影光軸
PB 薬包帯
S 刻印
S10〜S34 ステップ
T 薬剤
TP 分包袋
λa、λb、λc 波長帯域
10 Machine learning device 10A Learning data creation device 20 Image acquisition unit 20A First image acquisition unit 20B Second image acquisition unit 21 Stage 22 Camera unit 22A Camera unit 22B Camera unit 24, 24B, 24F, 24L, 24R Illumination light source 25 First Image 26 Control unit 27 Second image 30 Image processing unit 32 Image cropping unit 34 Edge image generation unit 40 Storage control unit 42 Storage unit 50 Learner 52 Learning control unit 60, 60A, 60B, 60C Illumination light source 70 Three-dimensional measuring device 72 The image processing unit F B, F F Sobel filter G A, G B, G F , G L, G R image L B, L F illumination PA photographing optical axis PB agents bandage S engraved S10~S34 step T agent TP min Packaging λa, λb, λc Wave band
Claims (23)
前記被写体を前記第1撮影方法とは異なる第2撮影方法で撮影して第2画像を取得する第2画像取得部と、
前記第1画像と前記第2画像とを組とし、前記組を学習器の学習データとして記憶部に記憶させる記憶制御部と、
を備えた学習データ作成装置。 The first image acquisition unit that captures the subject by the first imaging method and acquires the first image,
A second image acquisition unit that acquires a second image by photographing the subject by a second imaging method different from the first imaging method.
A storage control unit in which the first image and the second image are paired and the set is stored in the storage unit as learning data of the learning device.
A learning data creation device equipped with.
前記記憶制御部は、前記第1画像を前記学習器の入力データとし、前記第2画像を前記学習器の正解データとして前記記憶部に記憶させる、請求項1に記載の学習データ作成装置。 The second image acquisition unit includes an image processing unit that processes an image captured by the second imaging method to generate the second image.
The learning data creation device according to claim 1, wherein the storage control unit stores the first image as input data of the learning device and stores the second image as correct answer data of the learning device in the storage unit.
前記画像処理部は、前記複数の画像から前記被写体に付加された刻印又は印字が強調された前記第2画像を生成する、請求項2に記載の学習データ作成装置。 The images taken by the second shooting method are a plurality of images in which the incident directions of the illuminations on the subject are different.
The learning data creation device according to claim 2, wherein the image processing unit generates the second image in which the marking or printing added to the subject is emphasized from the plurality of images.
前記第2撮影方法の照明方法は、前記被写体に対する入射方向が異なる複数の光を順次入射させる請求項7に記載の学習データ作成装置。 In the illumination method of the first photographing method, light is incident on the subject from all directions.
The learning data creation device according to claim 7, wherein the illumination method of the second photographing method sequentially injects a plurality of lights having different incident directions with respect to the subject.
前記照明制御部は、前記第1撮影方法の照明方法として前記複数の照明光源を同時に点灯させ、前記第2撮影方法の照明方法として前記複数の照明光源を順次点灯させる請求項8に記載の学習データ作成装置。 The first image acquisition unit and the second image acquisition unit include a plurality of illumination light sources arranged around the subject and an illumination control unit that controls lighting of the plurality of illumination light sources.
The learning according to claim 8, wherein the illumination control unit simultaneously lights the plurality of illumination light sources as the illumination method of the first imaging method, and sequentially lights the plurality of illumination light sources as the illumination method of the second imaging method. Data creation device.
前記カメラ制御部は、前記第1撮影方法の照明方法により前記被写体が照明されると、前記カメラ部により前記被写体を撮影させ、前記第2撮影方法の照明方法により前記被写体が順次照明されると、前記順次照明される毎に前記被写体を撮影させ、
前記画像処理部は、前記順次照明される毎に前記カメラ部により撮影された複数の画像を画像処理して前記第2画像を生成する請求項8から10のいずれか1項に記載の学習データ作成装置。 The first image acquisition unit and the second image acquisition unit include a camera unit for photographing the subject, a camera control unit for controlling the camera unit, and an image processing unit.
When the subject is illuminated by the lighting method of the first shooting method, the camera control unit causes the camera unit to shoot the subject, and the subject is sequentially illuminated by the lighting method of the second shooting method. , The subject is photographed each time the lighting is sequentially performed.
The learning data according to any one of claims 8 to 10, wherein the image processing unit performs image processing on a plurality of images taken by the camera unit each time the images are sequentially illuminated to generate the second image. Creation device.
前記画像処理部は、前記被写体に付加された前記刻印又は印字を強調する画像処理を実施し、前記刻印又は印字を強調した前記第2画像を生成する請求項11に記載の学習データ作成装置。 The subject is engraved or printed.
The learning data creation device according to claim 11, wherein the image processing unit performs image processing for emphasizing the marking or printing added to the subject, and generates the second image in which the marking or printing is emphasized.
前記第1撮影方法は、前記複数の照明光源により照明された前記被写体を前記カメラ部により撮影して前記第1画像を取得し、
前記第2撮影方法は、前記複数の照明光源により照明された前記被写体を前記カメラ部により撮影し、前記複数種類の画素に対応して複数の画像を取得し、
前記第2画像取得部は、前記複数の画像を画像処理して前記第2画像を取得する請求項1又は2に記載の学習データ作成装置。 The first image acquisition unit and the second image acquisition unit are a plurality of illumination light sources arranged around the subject, and are a plurality of illumination light sources that irradiate the subject with a plurality of lights having different wavelength bands. A camera unit including a plurality of types of pixels each having sensitivity to a plurality of lights having different wavelength bands.
In the first photographing method, the subject illuminated by the plurality of illumination light sources is photographed by the camera unit to acquire the first image.
In the second shooting method, the subject illuminated by the plurality of illumination light sources is photographed by the camera unit, and a plurality of images are acquired corresponding to the plurality of types of pixels.
The learning data creation device according to claim 1 or 2, wherein the second image acquisition unit acquires the second image by image processing the plurality of images.
前記第2画像取得部は、前記被写体の3次元情報を取得する3次元情報取得部と、画像処理部とを含み、
前記画像処理部は、前記3次元情報取得部により取得された前記被写体の3次元情報に基づいて前記被写体の刻印を抽出し、前記被写体の刻印を強調した前記第2画像を生成する請求項1に記載の学習データ作成装置。 The subject is engraved
The second image acquisition unit includes a three-dimensional information acquisition unit that acquires three-dimensional information of the subject and an image processing unit.
The image processing unit extracts the marking of the subject based on the three-dimensional information of the subject acquired by the three-dimensional information acquisition unit, and generates the second image in which the marking of the subject is emphasized. The learning data creation device described in.
請求項1から16のいずれか1項に記載の学習データ作成装置の前記記憶部に記憶された学習データを使用し、前記組を構成する第1画像を前記学習器を機械学習させる場合の入力画像とし、前記組を構成する第2画像を正解データとして前記学習器を機械学習させる学習制御部と、
を備えた機械学習装置。 With a learner
Input when the learning device is machine-learned from the first image constituting the set by using the learning data stored in the storage unit of the learning data creating device according to any one of claims 1 to 16. A learning control unit that makes the learner machine-learn by using an image and a second image constituting the set as correct answer data.
Machine learning device equipped with.
前記被写体を前記第1撮影方法とは異なる第2撮影方法で撮影して第2画像を取得する第2画像取得部と、
学習器と、
前記第1画像と前記第2画像とを組として、前記学習器を機械学習させる学習制御部と、
を備えた機械学習装置。 The first image acquisition unit that captures the subject by the first imaging method and acquires the first image,
A second image acquisition unit that acquires a second image by photographing the subject by a second imaging method different from the first imaging method.
With a learner
A learning control unit that causes the learner to perform machine learning by combining the first image and the second image.
Machine learning device equipped with.
第2画像取得部が、前記被写体を前記第1撮影方法とは異なる第2撮影方法で撮影して第2画像を取得するステップと、
記憶制御部が、前記第1画像と前記第2画像とを組とし、前記組を学習器の学習データとして記憶部に記憶させるステップと、
を含む学習データ作成方法。 The step that the first image acquisition unit captures the subject by the first imaging method and acquires the first image,
A step in which the second image acquisition unit acquires the second image by photographing the subject by a second imaging method different from the first imaging method.
A step in which the storage control unit sets the first image and the second image as a set and stores the set as learning data of the learning device in the storage unit.
How to create learning data including.
第2画像取得部が、前記被写体を前記第1撮影方法とは異なる第2撮影方法で撮影して第2画像を取得するステップと、
学習制御部が、前記第1画像と前記第2画像とを組として、学習器を機械学習させるステップと、
を含む機械学習方法。 The step that the first image acquisition unit captures the subject by the first imaging method and acquires the first image,
A step in which the second image acquisition unit acquires the second image by photographing the subject by a second imaging method different from the first imaging method.
A step in which the learning control unit causes the learner to perform machine learning by combining the first image and the second image.
Machine learning methods including.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019154362A JP7170602B2 (en) | 2019-08-27 | 2019-08-27 | LEARNING DATA CREATION DEVICE AND METHOD, AND MACHINE LEARNING DEVICE AND METHOD |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019154362A JP7170602B2 (en) | 2019-08-27 | 2019-08-27 | LEARNING DATA CREATION DEVICE AND METHOD, AND MACHINE LEARNING DEVICE AND METHOD |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021033737A true JP2021033737A (en) | 2021-03-01 |
JP7170602B2 JP7170602B2 (en) | 2022-11-14 |
Family
ID=74676550
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019154362A Active JP7170602B2 (en) | 2019-08-27 | 2019-08-27 | LEARNING DATA CREATION DEVICE AND METHOD, AND MACHINE LEARNING DEVICE AND METHOD |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7170602B2 (en) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015068765A (en) * | 2013-09-30 | 2015-04-13 | 富士フイルム株式会社 | Drug recognition apparatus and method |
JP2015215330A (en) * | 2014-04-25 | 2015-12-03 | パナソニックIpマネジメント株式会社 | Image forming apparatus and image forming method |
JP2015232477A (en) * | 2014-06-09 | 2015-12-24 | 株式会社キーエンス | Inspection device, inspection method, and program |
JP2018027242A (en) * | 2016-08-18 | 2018-02-22 | 安川情報システム株式会社 | Tablet detection method, tablet detection device, and table detection program |
WO2018048507A1 (en) * | 2016-09-06 | 2018-03-15 | Han Xiao | Neural network for generating synthetic medical images |
WO2019044439A1 (en) * | 2017-08-31 | 2019-03-07 | 富士フイルム株式会社 | Medicine inspection device, image processing device, image processing method, and program |
JP2019121252A (en) * | 2018-01-10 | 2019-07-22 | キヤノン株式会社 | Image processing method, image processing apparatus, image processing program and storage medium |
JP2020162802A (en) * | 2019-03-29 | 2020-10-08 | ゼネラル・エレクトリック・カンパニイ | Ultrasonic device and control program thereof |
-
2019
- 2019-08-27 JP JP2019154362A patent/JP7170602B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015068765A (en) * | 2013-09-30 | 2015-04-13 | 富士フイルム株式会社 | Drug recognition apparatus and method |
JP2015215330A (en) * | 2014-04-25 | 2015-12-03 | パナソニックIpマネジメント株式会社 | Image forming apparatus and image forming method |
JP2015232477A (en) * | 2014-06-09 | 2015-12-24 | 株式会社キーエンス | Inspection device, inspection method, and program |
JP2018027242A (en) * | 2016-08-18 | 2018-02-22 | 安川情報システム株式会社 | Tablet detection method, tablet detection device, and table detection program |
WO2018048507A1 (en) * | 2016-09-06 | 2018-03-15 | Han Xiao | Neural network for generating synthetic medical images |
WO2019044439A1 (en) * | 2017-08-31 | 2019-03-07 | 富士フイルム株式会社 | Medicine inspection device, image processing device, image processing method, and program |
JP2019121252A (en) * | 2018-01-10 | 2019-07-22 | キヤノン株式会社 | Image processing method, image processing apparatus, image processing program and storage medium |
JP2020162802A (en) * | 2019-03-29 | 2020-10-08 | ゼネラル・エレクトリック・カンパニイ | Ultrasonic device and control program thereof |
Non-Patent Citations (1)
Title |
---|
本田 崇幸 他: "近赤外フラッシュを伴うRGB/NIR単板撮像による低照度カラー画像の超解像", 情報処理学会 研究報告 オーディオビジュアル複合情報処理(AVM) 2018−AVM−103 [ON, vol. CS2018-83, IE2018-62 (2018-11), JPN6022032605, 22 November 2018 (2018-11-22), JP, ISSN: 0004843314 * |
Also Published As
Publication number | Publication date |
---|---|
JP7170602B2 (en) | 2022-11-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11381753B2 (en) | Adjusting camera exposure for three-dimensional depth sensing and two-dimensional imaging | |
EP3467432B1 (en) | Method for operating a device for detecting the three-dimensional geometry of objects | |
US8294762B2 (en) | Three-dimensional shape measurement photographing apparatus, method, and program | |
JP5530440B2 (en) | In-camera based method for detecting defects with high accuracy | |
CN110892445B (en) | Drug inspection support device, drug identification device, image processing method, and program | |
KR102335899B1 (en) | Systems, methods, apparatuses, and computer-readable storage media for collecting color information about an object undergoing a 3d scan | |
CN111052145B (en) | Drug inspection support device, image processing device, and image processing method | |
JP2011077764A (en) | Multidimensional image processing device, multidimensional image photographing system, multidimensional image printed matter and multidimensional image processing method | |
CN106408664A (en) | Three-dimensional model curved surface reconstruction method based on three-dimensional scanning device | |
DE102008002725A1 (en) | Distance image generating method for three-dimensional reconstruction of object surface from correspondence of pixels of stereo image, involves pixelwisely setting object surface in proportional to relative image | |
JP2001216518A (en) | Method and device for matching and recording medium | |
CN107705243A (en) | Image processing method and device, electronic installation and computer-readable recording medium | |
JPWO2020105395A1 (en) | Drug identification device, drug identification method and drug identification program | |
JP2021033737A (en) | Learning data creation device and method, machine learning device and method | |
FR2672119A1 (en) | THREE-DIMENSIONAL SURFACE MEASURING SYSTEM TO BE REPRESENTED MATHEMATICALLY, AND A MEASURING METHOD AND CALIBRATION TEMPLATE OF THE MEASURING SYSTEM. | |
IT201900005174A1 (en) | PROCESS OF LASER MARKING OF AN OBJECT AND RELATED EQUIPMENT FOR MARKING | |
JP7375161B2 (en) | Learning data creation device, method, program, and recording medium | |
JP6861825B2 (en) | Drug identification device, image processing device, image processing method and program | |
KR20180040316A (en) | 3D optical scanner | |
EP3018446B1 (en) | Identification device for an object | |
JP2009164949A (en) | Image processor, image processing method, and program | |
JP2014157518A (en) | Three-dimensional data generation method | |
JP2996069B2 (en) | 3D measuring device | |
JP2002260017A (en) | Three-dimensional geometric data generating method and device | |
Evans | Forensic photography and imaging |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210721 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220727 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220804 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220930 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221007 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221101 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7170602 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |