JP7148776B2 - Colony identification system, colony identification method and colony identification program - Google Patents

Colony identification system, colony identification method and colony identification program Download PDF

Info

Publication number
JP7148776B2
JP7148776B2 JP2018145688A JP2018145688A JP7148776B2 JP 7148776 B2 JP7148776 B2 JP 7148776B2 JP 2018145688 A JP2018145688 A JP 2018145688A JP 2018145688 A JP2018145688 A JP 2018145688A JP 7148776 B2 JP7148776 B2 JP 7148776B2
Authority
JP
Japan
Prior art keywords
colony
visible light
light irradiation
irradiation image
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018145688A
Other languages
Japanese (ja)
Other versions
JP2020018249A (en
Inventor
英樹 山村
英俊 安藤
正幸 早川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Yamanashi NUC
Original Assignee
University of Yamanashi NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Yamanashi NUC filed Critical University of Yamanashi NUC
Priority to JP2018145688A priority Critical patent/JP7148776B2/en
Publication of JP2020018249A publication Critical patent/JP2020018249A/en
Application granted granted Critical
Publication of JP7148776B2 publication Critical patent/JP7148776B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Apparatus Associated With Microorganisms And Enzymes (AREA)
  • Measuring Or Testing Involving Enzymes Or Micro-Organisms (AREA)

Description

本発明は、コロニー識別システム、コロニー識別方法およびコロニー識別プログラムに関する。 The present invention relates to a colony identification system, a colony identification method and a colony identification program.

従来、培地が形成されたコロニーを検出、識別する技術が知られている。例えば、特許文献1~3においては、コロニーが形成された培地の画像に基づいてコロニーを検出、識別する技術が開示されている。 Techniques for detecting and identifying colonies in which culture media are formed are conventionally known. For example, Patent Documents 1 to 3 disclose techniques for detecting and identifying colonies based on images of culture media in which colonies are formed.

特許第5850205号公報Japanese Patent No. 5850205 特開2011-212013号公報Japanese Unexamined Patent Application Publication No. 2011-212013 特開2012-135240号公報JP 2012-135240 A

単一の培地にコロニーを形成する微生物の種類は1種類に限られない。また、微生物のコロニーの形状、大きさ、色等の態様は多種多様である。このため、人間が視認している通常の状態を再現した画像(可視光が照射されて可視光を検出するカメラで撮影された画像)においては、異なる種類の微生物のコロニーが類似した像として撮影されることがある。従って、従来技術においては、微生物のコロニーを高精度に識別することが困難であった。
本発明は、前記課題にかんがみてなされたもので、コロニーを形成している微生物が高精度に識別される可能性を高める技術を提供することを目的とする。
The type of microorganisms that form colonies on a single medium is not limited to one type. In addition, the shape, size, color, etc. of the colonies of microorganisms are diverse. For this reason, in an image that reproduces the normal state seen by humans (image taken with a camera that detects visible light when irradiated with visible light), colonies of different types of microorganisms are captured as similar images. may be Therefore, in the conventional technology, it has been difficult to identify colonies of microorganisms with high accuracy.
The present invention has been made in view of the above problems, and an object of the present invention is to provide a technique that increases the possibility of identifying microorganisms forming colonies with high accuracy.

上述の目的を達成するため、コロニー識別システムは、培地に形成された微生物のコロニーに対して可視光が照射された状態で前記コロニーを撮影した画像である可視光照射画像を取得する可視光照射画像取得部と、前記コロニーに対して非可視光が照射された状態で前記コロニーを撮影した画像である非可視光照射画像を取得する非可視光照射画像取得部と、前記可視光照射画像と前記非可視光照射画像とに基づいて、前記コロニーを形成している前記微生物を識別するコロニー識別部と、を備える。 In order to achieve the above object, a colony identification system acquires a visible light irradiation image, which is an image of a colony of microorganisms formed in a medium that is photographed while the colony is irradiated with visible light. an image acquisition unit, a non-visible light irradiation image acquisition unit that acquires a non-visible light irradiation image that is an image of the colony photographed while the colony is irradiated with non-visible light, and the visible light irradiation image. and a colony identification unit that identifies the microorganisms forming the colony based on the invisible light irradiation image.

すなわち、コロニー識別システムにおいては、コロニーに対して可視光が照射された状態で撮影された可視光照射画像、非可視光が照射された状態で撮影された非可視光照射画像のそれぞれにおいて画像を撮影する。そして、コロニー識別システムにおいては、可視光照射画像および非可視光照射画像に基づいてコロニーを形成している微生物を識別する。非可視光が微生物に照射されると、微生物から蛍光が出力される場合や、可視光では得られなかったコントラストが得られる場合など、可視光と異なる測定が可能になる場合がある。従って、コロニー識別システムによれば、可視光照射画像のみに基づいて微生物を識別する構成と比較して、コロニーを形成している微生物が高精度に識別される可能性を高めることができる。 That is, in the colony identification system, an image is obtained in each of a visible light irradiation image photographed while the colony is irradiated with visible light and an invisible light irradiation image photographed while the colony is irradiated with invisible light. to shoot. Then, in the colony identification system, microorganisms forming colonies are identified based on the visible light irradiation image and the non-visible light irradiation image. When non-visible light is applied to microorganisms, it may be possible to perform measurements different from visible light, such as fluorescence output from the microorganisms and contrast that cannot be obtained with visible light. Therefore, according to the colony identification system, it is possible to increase the possibility that microorganisms forming colonies can be identified with high accuracy, compared to a configuration that identifies microorganisms based only on images irradiated with visible light.

図1A、図1Bは、コロニー識別システムによる撮影を示す図である。1A and 1B are diagrams showing images captured by the colony identification system. コロニー識別システムのブロック図である。1 is a block diagram of a colony identification system; FIG. 教師データを説明する図である。FIG. 4 is a diagram for explaining teacher data; 学習対象のモデルを示す図である。It is a figure which shows the model of learning object. 学習対象のモデルを示す図である。It is a figure which shows the model of learning object. モデルからの出力値を説明する図である。It is a figure explaining the output value from a model. 機械学習処理のフローチャートである。4 is a flowchart of machine learning processing; コロニー識別処理のフローチャートである。It is a flowchart of colony identification processing.

ここでは、下記の順序に従って本発明の実施の形態について説明する。
(1)コロニー識別システムの構成:
(2)機械学習処理:
(3)コロニー識別処理:
(4)他の実施形態:
Here, embodiments of the present invention will be described according to the following order.
(1) Configuration of colony identification system:
(2) Machine learning processing:
(3) Colony identification treatment:
(4) Other embodiments:

(1)コロニー識別システムの構成:
図1A、図1Bはコロニー識別システム10の概略構成を示す図である。これらの図において、コロニー識別システム10の要素は数字の符号、撮影等のためにコロニー識別システム10とともに利用される部材等はアルファベットの符号によって示している。本実施形態において、コロニー識別システム10で撮影される対象はシャーレSに形成された平板培地Mである。すなわち、本実施形態においては、平板培地Mの1箇所以上の部位に微生物のコロニーが形成されており、当該コロニーを含む平板培地Mが撮影される。
(1) Configuration of colony identification system:
1A and 1B are diagrams showing a schematic configuration of the colony identification system 10. FIG. In these figures, the elements of the colony identification system 10 are indicated by numerals, and the members used together with the colony identification system 10 for photographing, etc. are indicated by alphabetic characters. In this embodiment, the object to be imaged by the colony identification system 10 is the plate medium M formed on the petri dish S. As shown in FIG. That is, in the present embodiment, colonies of microorganisms are formed in one or more portions of the plate medium M, and the plate medium M containing the colonies is photographed.

本実施形態においてシャーレSは、光を透過する板状の部材である透明板Tに載せられる。透明板Tは、最も広い面が水平面に平行になるように、図示しない支持部に支持される。また、本実施形態においては、透明板Tから一定距離離れた位置に、光を反射する板状の部材である反射板Rが配置される。反射板Rと透明板Tとにおいては、それぞれの最も広い面が平行に向けられる。例えば、反射板Rが台に載せられ、当該台から一定距離離れた位置に透明板Tが支持される構成等によって実現される。 In this embodiment, the petri dish S is placed on a transparent plate T, which is a plate-like member that transmits light. The transparent plate T is supported by a support (not shown) so that the widest surface is parallel to the horizontal plane. Further, in the present embodiment, a reflector R, which is a plate-shaped member that reflects light, is arranged at a position separated from the transparent plate T by a predetermined distance. The widest surfaces of the reflector R and the transparent plate T are oriented parallel to each other. For example, it is realized by a configuration in which the reflector R is placed on a stand and the transparent plate T is supported at a position separated from the stand by a certain distance.

なお、反射板Rは、光を反射することができればよく、例えば、白色の紙等が挙げられる。また、本実施形態においては、水平面をx-y平面と見なし、鉛直上方をz軸方向と見なす。さらに、本実施形態においては、水平面内のある方向をx方向、x方向に垂直な方向をy方向としている。 In addition, the reflecting plate R should be able to reflect light, and examples thereof include white paper. Also, in this embodiment, the horizontal plane is regarded as the xy plane, and the vertically upward direction is regarded as the z-axis direction. Furthermore, in this embodiment, a direction in the horizontal plane is defined as the x-direction, and a direction perpendicular to the x-direction is defined as the y-direction.

本実施形態においては、透明板Tに載せられたシャーレSの上方に可視光カメラ41およびUVカメラ42が配置される。すなわち、可視光カメラ41およびUVカメラ42は、シャーレS内の平板培地Mが視野に含まれるように、図示しない支持部に支持される。可視光カメラ41は、可視光(400nm~750nm)の強度を検出するエリアセンサを備えたカメラである。一方、本実施形態においては、非可視光として紫外線(以後、UVと表記)が利用され、UVカメラ42は、非可視光(400nm以下)の強度を検出するエリアセンサを備えたカメラである。 In this embodiment, a visible light camera 41 and a UV camera 42 are arranged above the petri dish S placed on the transparent plate T. As shown in FIG. That is, the visible light camera 41 and the UV camera 42 are supported by a supporting portion (not shown) so that the plate medium M in the petri dish S is included in the field of view. The visible light camera 41 is a camera with an area sensor that detects the intensity of visible light (400 nm to 750 nm). On the other hand, in the present embodiment, ultraviolet rays (hereinafter referred to as UV) are used as invisible light, and the UV camera 42 is a camera equipped with an area sensor that detects the intensity of invisible light (400 nm or less).

可視光カメラ41およびUVカメラ42は、一体のカメラであっても良いし個別のカメラであっても良い。本実施形態にかかるコロニー識別システム10においては、同一のシャーレSを可視光カメラ41およびUVカメラ42のそれぞれで撮影する。このため、可視光カメラ41およびUVカメラ42が個別のカメラである場合、シャーレSの位置を移動させず、それぞれのカメラの位置を移動させて各カメラでの撮影が行われてもよいし、シャーレSの位置を移動させ、それぞれのカメラの位置を移動させずに各カメラでの撮影が行われてもよい。 The visible light camera 41 and UV camera 42 may be an integrated camera or separate cameras. In the colony identification system 10 according to this embodiment, the same petri dish S is photographed by the visible light camera 41 and the UV camera 42, respectively. Therefore, when the visible light camera 41 and the UV camera 42 are separate cameras, the positions of the respective cameras may be moved without moving the petri dish S, and photographing may be performed with each camera. The position of the petri dish S may be moved, and photography may be performed with each camera without moving the position of each camera.

本実施形態においては、透明板Tの最も広い面を水平方向に延長した方向の2箇所に可視光源41aおよびUV光源42aが配置される。本実施形態において可視光源41aおよびUV光源42aは、共通の筐体内に設けられており、可視光源41aは電圧が印加されることにより可視光(400nm~750nm)を出力する。本実施形態において、UV光源42aは紫外線であるUVA(例えば320nm~400nm)の波長域の光を出力する。 In the present embodiment, the visible light source 41a and the UV light source 42a are arranged at two locations in the horizontal direction of the widest surface of the transparent plate T. As shown in FIG. In this embodiment, the visible light source 41a and the UV light source 42a are provided in a common housing, and the visible light source 41a outputs visible light (400 nm to 750 nm) when a voltage is applied. In this embodiment, the UV light source 42a outputs light in a wavelength range of UVA (eg, 320 nm to 400 nm), which is ultraviolet rays.

本実施形態において、可視光源41aおよびUV光源42aは、一方向に長い筐体内に設けられており、その長手方向はz-y平面に平行であるとともに、z方向およびy方向の双方に対して傾いている。また、可視光源41aおよびUV光源42aは、図1Bに示すようにその筐体の長手方向が透明板Tの上方から透明板Tの下方に渡って存在するように配置されている。本実施形態において可視光源41aおよびUV光源42aは、筐体内部においてその長手方向のほぼ全域に渡って存在する。 In this embodiment, the visible light source 41a and the UV light source 42a are provided in a housing that is long in one direction, the longitudinal direction of which is parallel to the zy plane and in both the z and y directions. leaning The visible light source 41a and the UV light source 42a are arranged so that the longitudinal direction of the housing extends from above the transparent plate T to below the transparent plate T as shown in FIG. 1B. In this embodiment, the visible light source 41a and the UV light source 42a are present over substantially the entire length of the housing inside.

さらに、可視光源41aおよびUV光源42aにおいては、筐体の一面に光の出力穴44が形成されており(図1B参照)、当該出力穴44から光が出力されるが筐体の他の面から光は出力されない。可視光源41aおよびUV光源42aは、透明板Tの両側において、筐体の出力穴44が透明板Tの方向に向くように(対向するように)配置される。従って、本実施形態においてシャーレSは、その上方、下方および側方に存在する光源によって照明される。なお、本実施形態において可視光源41aおよびUV光源42aは、共通の筐体内に設けられているが、撮影が行われる際には、何れか一方の光源から光が出力し、他方の光源から光が出力しない状態で撮影が行われる。 Furthermore, in the visible light source 41a and the UV light source 42a, a light output hole 44 is formed on one surface of the housing (see FIG. 1B), and light is output from the output hole 44, but the light is output from the other surface of the housing. No light is emitted from The visible light source 41a and the UV light source 42a are arranged on both sides of the transparent plate T so that the output holes 44 of the housing face the direction of the transparent plate T (to face each other). Therefore, in this embodiment, the petri dish S is illuminated by light sources present above, below and to the sides. In this embodiment, the visible light source 41a and the UV light source 42a are provided in a common housing. is not output.

シャーレSの上方から平板培地Mに達した光は、平板培地Mに形成されたコロニーによって反射(散乱を含む)し得る。また、透明板Tの下方には反射板Rが設けられているため、鉛直下方に向かう光が反射板Rで反射すると、反射光が透明板Tを透過してシャーレS内の平板培地Mに到達し得る。平板培地Mを透過した透過光は平板培地Mに形成されたコロニーを透過し得る。従って、本実施形態においては、2箇所に設けられた可視光源41aおよびUV光源42aによってコロニーを照明し、可視光カメラ41およびUVカメラ42によってコロニーの画像を撮影すると、コロニーで反射した反射光およびコロニーを透過した透過光に基づいて画像を撮影することができる。 Light reaching the plate medium M from above the petri dish S can be reflected (including scattering) by colonies formed on the plate medium M. In addition, since the reflector R is provided below the transparent plate T, when the light directed vertically downward is reflected by the reflector R, the reflected light passes through the transparent plate T and reaches the plate culture medium M in the petri dish S. can reach. Transmitted light that has passed through the plate medium M can pass through colonies formed on the plate medium M. Therefore, in this embodiment, when the colony is illuminated by the visible light source 41a and the UV light source 42a provided at two locations and the image of the colony is captured by the visible light camera 41 and the UV camera 42, the reflected light reflected by the colony and An image can be taken based on the transmitted light through the colony.

なお、コロニーで光が反射した反射光によって形成された画像は、主に、コロニーが表面上に形成した形状等の特性を反映した画像である。従って、当該画像によれば、コロニーが表面上に形成した形状等の特性(例えば、気菌糸や胞子によって形成された特性)に基づいて識別を行うことが可能である。一方、平板培地Mに形成されるコロニーは、平板培地Mの内部にも達し得る。例えば、放線菌であれば、平板培地Mの内部に基底菌糸が形成され得る。コロニーを透過した透過光は、当該基底菌糸とその上部の気菌糸との双方を透過し得るため、透過光によって形成された画像によれば、コロニーが表面および平板培地Mの内部に形成した形状等の特性に基づいて識別を行うことが可能である。 The image formed by the light reflected by the colony is an image mainly reflecting characteristics such as the shape formed on the surface by the colony. Therefore, according to the image, it is possible to perform identification based on characteristics such as the shape of the colonies formed on the surface (for example, characteristics formed by aerial mycelium or spores). On the other hand, colonies formed on the plate medium M can reach the inside of the plate medium M as well. For example, in the case of actinomycetes, basal hyphae can be formed inside the plate medium M. Transmitted light that has passed through a colony can pass through both the base mycelia and the aerial mycelia above it, so according to the image formed by the transmitted light, the shape that the colony formed on the surface and inside the plate medium M It is possible to perform identification based on characteristics such as.

なお、本実施形態において、可視光源41aとUV光源42aは一体的に構成されているが、むろん、個別の光源が利用されても良い。また、光源の数は限定されない。光の種類毎に個別の筐体を有する光源が利用される場合、一方の光源を配置して光を照射して撮影が行われた後、他方の光源を配置して光を照射して撮影が行われる。 In addition, in this embodiment, the visible light source 41a and the UV light source 42a are configured integrally, but of course, individual light sources may be used. Also, the number of light sources is not limited. When light sources with individual housings are used for each type of light, one light source is placed to irradiate light and an image is taken, and then the other light source is placed to irradiate light and an image is taken. is done.

本実施形態において、可視光カメラ41およびUVカメラ42と、可視光源41aおよびUV光源42aは、制御部20に制御される。図2は、コロニー識別システム10の構成を示すブロック図である。 In this embodiment, the visible light camera 41 , the UV camera 42 , the visible light source 41 a and the UV light source 42 a are controlled by the controller 20 . FIG. 2 is a block diagram showing the configuration of the colony identification system 10. As shown in FIG.

コロニー識別システム10は、上述の可視光カメラ41、UVカメラ42、可視光源41a、UV光源42aに加え、制御部20、表示部43、記憶媒体30を備えている。制御部20は、図示しないCPU,RAM,ROM,GPUを備えており、記憶媒体30等に記憶された各種プログラムを実行することができる。制御部20、記憶媒体30、表示部43は、一体的なコンピュータで構成されていても良いし、少なくとも一部が別の装置であり、USBケーブル等によって接続される構成であっても良い。 The colony identification system 10 includes a control section 20, a display section 43, and a storage medium 30 in addition to the above-described visible light camera 41, UV camera 42, visible light source 41a, and UV light source 42a. The control unit 20 includes a CPU, RAM, ROM, and GPU (not shown), and can execute various programs stored in the storage medium 30 or the like. The control unit 20, the storage medium 30, and the display unit 43 may be configured by an integrated computer, or at least part of them may be separate devices, and may be configured to be connected by a USB cable or the like.

本実施形態において、制御部20は、コロニー識別プログラム21と機械学習プログラム22とを実行することができる。コロニー識別プログラム21は、可視光カメラ41およびUVカメラ42で撮影された画像に基づいてコロニーを形成している微生物を識別する機能を制御部20に実行させるプログラムである。コロニー識別プログラム21が実行されると、制御部20は、可視光照射画像取得部21a、非可視光照射画像取得部21b、コロニー識別部21cとして機能する。 In this embodiment, the control section 20 can execute a colony identification program 21 and a machine learning program 22 . The colony identification program 21 is a program that causes the control unit 20 to execute a function of identifying microorganisms forming colonies based on images captured by the visible light camera 41 and the UV camera 42 . When the colony identification program 21 is executed, the control unit 20 functions as a visible light irradiation image acquisition unit 21a, a non-visible light irradiation image acquisition unit 21b, and a colony identification unit 21c.

本実施形態において、当該識別は予め行われた機械学習の結果に基づいて実行される。機械学習プログラム22は、可視光カメラ41およびUVカメラ42で撮影された画像に基づいてコロニーを形成している微生物の種類を推定するためのモデルを機械学習する機能を制御部20に実行させるプログラムである。機械学習プログラム22が実行されると、制御部20は、機械学習部22aとして機能する。 In this embodiment, the identification is performed based on the results of previously performed machine learning. The machine learning program 22 is a program that causes the control unit 20 to execute a function of machine learning a model for estimating the types of microorganisms forming colonies based on the images captured by the visible light camera 41 and the UV camera 42. is. When the machine learning program 22 is executed, the control section 20 functions as a machine learning section 22a.

(2)機械学習処理:
本実施形態において、機械学習処理は、ニューラルネットワークを形成する訓練モデルを最適化する処理である。ここで、モデルとは、推定対象のデータと推定結果のデータとの対応関係を導出する式を示す情報であり、本実施形態においては微生物の識別結果が推定結果であり、微生物を撮影した画像が推定対象である。この推定を行うためのモデルを学習によって最適化する機械学習処理を行うため、記憶媒体30には予め教師データ30aが記録される。制御部20は、当該教師データ30aに基づいてニューラルネットワークの訓練モデルを最適化し、最適化されたモデルを学習済モデル30bとして記憶媒体30に記憶させる。
(2) Machine learning processing:
In this embodiment, the machine learning process is a process of optimizing a training model forming a neural network. Here, the model is information indicating a formula for deriving a correspondence relationship between the data to be estimated and the data of the estimation result. is the subject of estimation. Teacher data 30 a is recorded in advance in the storage medium 30 in order to perform machine learning processing for optimizing the model for performing this estimation by learning. The control unit 20 optimizes the training model of the neural network based on the teacher data 30a, and stores the optimized model in the storage medium 30 as a trained model 30b.

機械学習は、種々の手法で行われて良いが、ここではYOLO(You Only Look Once)によって機械学習が行われる例を説明する。YOLOによる機械学習を行うため、教師データ30aは、YOLOによる機械学習を実施可能なフォーマットで定義されている。具体的には、教師データ30aは、可視光カメラ41およびUVカメラ42によって撮影された画像と、各画像内に含まれるコロニーを囲む矩形(bounding box)の位置、当該矩形の大きさ、矩形内に微生物がコロニーを形成している確率、微生物の識別結果とを対応づけたデータである。 Machine learning may be performed by various methods, but here an example in which machine learning is performed by YOLO (You Only Look Once) will be described. In order to perform machine learning by YOLO, the teacher data 30a is defined in a format that enables machine learning by YOLO. Specifically, the training data 30a includes images captured by the visible light camera 41 and the UV camera 42, the position of a rectangle (bounding box) surrounding the colony contained in each image, the size of the rectangle, and the This is data in which the probability that microorganisms form a colony is associated with the identification result of microorganisms.

図3は、教師データ30aを説明するための図である。図3においては、平板培地Mに複数の微生物によって複数のコロニーが形成されたシャーレSの画像を示している。この例において、コロニーを形成している微生物は放線菌、放線菌以外のバクテリア、カビであり、以下、これらの3種の識別を行う構成例について説明する。図3においては、各コロニーに対して、コロニーを囲む矩形を付して示している。本実施形態において、平板培地Mは、放線菌を培養可能な培地である。 FIG. 3 is a diagram for explaining the teacher data 30a. FIG. 3 shows an image of a petri dish S in which a plurality of colonies are formed on a plate medium M by a plurality of microorganisms. In this example, the microorganisms forming the colonies are actinomycetes, bacteria other than actinomycetes, and fungi, and an example of configuration for identifying these three types will be described below. In FIG. 3, each colony is shown with a rectangle surrounding the colony. In this embodiment, the plate medium M is a medium capable of cultivating actinomycetes.

すなわち、本実施形態においては、各種の目的(例えば、医薬や農薬等)に役立つか否か研究するために放線菌を分離することを目的としている。ところが、放線菌を培養可能な平板培地Mにおいては放線菌以外のバクテリアやカビが培養され得る。また、バクテリアやカビを分離できれば、これらの微生物を研究対象とすることも可能である。そこで、本実施形態においては、これらの放線菌、バクテリア、カビを識別できるようにするため、予めこれらの識別結果と画像とを対応づけた教師データ30aを定義する。 That is, in the present embodiment, the purpose is to isolate actinomycetes in order to study whether they are useful for various purposes (for example, medicine, agricultural chemicals, etc.). However, in the plate medium M capable of cultivating actinomycetes, bacteria and fungi other than actinomycetes can be cultured. Also, if bacteria and fungi can be isolated, it is possible to study these microorganisms. Therefore, in the present embodiment, in order to be able to identify these actinomycetes, bacteria, and molds, teacher data 30a is defined in advance in which these identification results and images are associated with each other.

YOLOにおいては、画像を複数のグリッドに分割し、各グリッドに存在するコロニーについて識別を行うように構成される。また、各グリッドにおける識別は上述の矩形に基づいて実施される。そこで、本実施形態においては、各グリッドにおいて矩形を定義し、各矩形において、矩形の位置、矩形の大きさ、矩形内に微生物がコロニーを形成している確率、微生物の識別結果が予め特定される。そして、シャーレSの画像に対して、各矩形の位置、矩形の大きさ、矩形内に微生物がコロニーを形成している確率、微生物の識別結果が対応づけられることによって教師データ30aが定義される。 YOLO is configured to divide an image into a plurality of grids and identify colonies present in each grid. Also, the identification in each grid is performed based on the rectangles described above. Therefore, in the present embodiment, a rectangle is defined in each grid, and for each rectangle, the position of the rectangle, the size of the rectangle, the probability that microorganisms form a colony in the rectangle, and the identification result of microorganisms are specified in advance. be. Then, teacher data 30a is defined by associating the position of each rectangle, the size of the rectangle, the probability that microorganisms form a colony in the rectangle, and the identification result of microorganisms with the image of petri dish S. .

なお、教師データ30aにおいては、微生物の識別結果が予め特定されているため、各矩形において、矩形内に微生物がコロニーを形成している確率は0または1(1が100%)であり、微生物のいずれかが1、残りが0となる。例えば、あるグリッドに放線菌のコロニーが存在し、当該コロニーを囲むある矩形の位置がX,Y、大きさが幅W,高さHである状態を想定する。 In the teaching data 30a, the identification results of microorganisms are specified in advance, so the probability that microorganisms form a colony in each rectangle is 0 or 1 (1 is 100%). is 1 and the rest are 0. For example, assume that there is a colony of actinomycetes on a certain grid, and that a rectangle surrounding the colony has X 1 and Y 1 positions, W 1 width and H 1 height.

この場合において、矩形の情報のフォーマットが(矩形のX座標、矩形のY座標、矩形の幅、矩形の高さ、矩形内に微生物がコロニーを形成している確率、識別された微生物が放線菌であることを示すフラグ、識別された微生物がバクテリアであることを示すフラグ、識別された微生物がカビであることを示すフラグ)である場合、当該グリッドにおける矩形のデータには(X,Y,W,H,1,1,0,0)が対応づけられる。なお、本実施形態において幅Wおよび高さHは予め用意された基準の矩形の幅および高さに対する相対値として定義されるが、むろん、相対値以外の手法、例えば、幅および高さを示すピクセル数等で定義されても良い。 In this case, the format of the information on the rectangle is (X coordinate of rectangle, Y coordinate of rectangle, width of rectangle, height of rectangle, probability that microorganisms form a colony in the rectangle, identified microorganism is actinomycete flag indicating that the identified microorganism is bacteria, flag indicating that the identified microorganism is mold), the rectangular data in the grid is (X 1 , Y 1 , W 1 , H 1 , 1, 1, 0, 0) are associated. In this embodiment, the width W1 and the height H1 are defined as relative values with respect to the width and height of a reference rectangle prepared in advance. may be defined by the number of pixels or the like indicating

なお、基準の矩形は1個以上設けられていれば良いが、本実施形態においては、予め5個設けられている。すなわち、X方向の長さおよびY方向の長さが異なる5種類の矩形が予め定義されて、基準の矩形とされている。そこで、本実施形態においては、5種類の基準の矩形のそれぞれについて、矩形の情報が定義される。すなわち、上述の各グリッドに対して、5種類の基準の矩形について矩形の情報が対応づけられて教師データ30aが定義されている。図3においては、教師データ30aにおいて微生物がコロニーを形成している確率が1である矩形を抽出し、白い線で示している。 One or more reference rectangles may be provided, but in this embodiment, five reference rectangles are provided in advance. That is, five types of rectangles having different lengths in the X direction and Y direction are defined in advance and used as reference rectangles. Therefore, in the present embodiment, rectangle information is defined for each of the five types of reference rectangles. That is, the teacher data 30a is defined by associating rectangle information with respect to five types of reference rectangles for each of the grids described above. In FIG. 3, rectangles with a probability of 1 that microorganisms form colonies in the teacher data 30a are extracted and indicated by white lines.

以上のような教師データ30aは、機械学習が行われる前に予め用意される。教師データ30aが用意されると、当該教師データ30aを利用して機械学習を行うことができる。入力データを出力データに変換する限りにおいて、モデルは種々の定義が可能である。本実施形態においては、コロニーを含む画像を入力し、複数の畳み込み層および全結合層を経て各グリッドについての矩形の情報を出力するモデルが予め構築される。 The teacher data 30a as described above is prepared in advance before machine learning is performed. When the teacher data 30a is prepared, machine learning can be performed using the teacher data 30a. A model can be defined in various ways as long as it converts input data into output data. In this embodiment, a model is constructed in advance that inputs an image containing colonies, passes through a plurality of convolution layers and a fully connected layer, and outputs rectangular information for each grid.

本実施形態においては、可視光照射画像と非可視光照射画像とが入力データとなる。ここで、可視光照射画像は、培地に形成された微生物のコロニーに対して可視光が照射された状態でコロニーを撮影した画像である。すなわち、可視光源41aの出力光をシャーレSに照射した状態で、可視光カメラ41によってシャーレSを撮影した画像が可視光照射画像である。 In this embodiment, a visible light irradiation image and an invisible light irradiation image are input data. Here, the visible light irradiation image is an image obtained by photographing the colony of microorganisms formed in the culture medium while the colony is irradiated with visible light. That is, the visible light irradiation image is an image of the petri dish S photographed by the visible light camera 41 while the petri dish S is irradiated with the output light of the visible light source 41a.

また、非可視光照射画像は、コロニーに対して非可視光が照射された状態でコロニーを撮影した画像である。本実施形態において非可視光は紫外線(UV)であるが、非可視光が照射された状態において、可視光カメラ41およびUVカメラ42の双方で画像が撮影される。すなわち、UV光源42aの出力光をシャーレSに照射した状態で、可視光カメラ41およびUVカメラ42のそれぞれによってシャーレSを撮影した画像が非可視光照射画像である。以上のように、本実施形態においては、カメラで検出可能な光の周波数に関わらず、光源から出力される光が可視光、非可視光のいずれであるのかに基づいて、画像を可視光照射画像、非可視光照射画像のいずれかと呼ぶ。表1においては、本実施形態における可視光照射画像と非可視光照射画像について、光源の周波数域とカメラの周波数域を示している。

Figure 0007148776000001
In addition, the invisible light irradiation image is an image of the colony photographed while the colony is irradiated with invisible light. In this embodiment, the invisible light is ultraviolet (UV) light, and images are captured by both the visible light camera 41 and the UV camera 42 when the invisible light is irradiated. That is, an image of the petri dish S photographed by the visible light camera 41 and the UV camera 42 in a state where the petri dish S is irradiated with the output light of the UV light source 42a is the non-visible light irradiation image. As described above, in this embodiment, regardless of the frequency of light that can be detected by a camera, an image is irradiated with visible light based on whether the light output from the light source is visible light or non-visible light. It is called either an image or an invisible light irradiation image. Table 1 shows the frequency range of the light source and the frequency range of the camera for the visible light irradiation image and the invisible light irradiation image in this embodiment.
Figure 0007148776000001

なお、可視光照射画像は、人間がシャーレSを視認する際の像に近い像であるが、非可視光照射画像は、人間がシャーレSを視認する際の像とは異なる。すなわち、人間が通常視認している特徴と異なる特徴が解析対象となる。UV光が照射されたシャーレSを可視光カメラ41で撮影する場合、UV光と同一の周波数の光は撮影されないが、UV光によって微生物が蛍光を出力した場合には撮影される。従って、可視光カメラ41で撮影された非可視光照射画像によれば、蛍光による特徴が解析可能である。このように、コロニーに照射された光の波長域と異なる波長域の光を検出するカメラで撮影された画像を解析対象とする構成によれば、光の単なる反射や透過と異なる反応(蛍光の出力等)を示すコロニーを効果的に画像化し、識別することができる。 Note that the visible light irradiation image is an image close to the image when a person visually recognizes the petri dish S, but the non-visible light irradiation image is different from the image when a person visually recognizes the petri dish S. In other words, features that are different from features normally visually recognized by humans are analyzed. When the petri dish S irradiated with UV light is photographed by the visible light camera 41, light of the same frequency as the UV light is not photographed, but when the microorganisms emit fluorescence due to the UV light, they are photographed. Therefore, according to the non-visible light irradiation image captured by the visible light camera 41, it is possible to analyze the fluorescence characteristics. In this way, according to the configuration in which the object of analysis is an image captured by a camera that detects light in a wavelength range different from the wavelength range of light irradiated to the colony, a reaction different from simple reflection or transmission of light (fluorescence colonies exhibiting output, etc.) can be effectively imaged and identified.

UV光が照射されたシャーレSをUVカメラ42で撮影する場合、人間が視認する可視光と同一の周波数の光は撮影されないが、UV光による照明下の微生物の特徴を可視化して解析可能である。なお、可視光カメラ41は、画素毎にRGB(R:レッド、G:グレーン、B:ブルー)のそれぞれの色チャネルについての強度を出力するため、可視光カメラ41によって撮影された画像を示す画像データは3チャンネルのデータである。 When the Petri dish S irradiated with UV light is photographed by the UV camera 42, the light of the same frequency as the visible light visually recognized by humans is not photographed, but it is possible to visualize and analyze the characteristics of microorganisms under illumination with UV light. be. Note that the visible light camera 41 outputs the intensity of each color channel of RGB (R: red, G: grain, B: blue) for each pixel. The data are 3-channel data.

一方、本実施形態において、UVカメラ42は、UVA(例えば320nm~400nm)を出力するUV光源42aで照明されたシャーレSを撮影する。この場合、UVカメラ42で検出される紫外線の波長域もUVAと同等であり、可視光の波長域より狭い。そこで、本実施形態においては、UVカメラ42からの出力を1チャンネルで表現可能と見なしている。すなわち、UVカメラ42によって撮影された画像を示す画像データは1チャンネルのデータである。 On the other hand, in this embodiment, the UV camera 42 photographs the petri dish S illuminated by the UV light source 42a that outputs UVA (eg, 320 nm to 400 nm). In this case, the wavelength range of ultraviolet rays detected by the UV camera 42 is also the same as that of UVA, and is narrower than the wavelength range of visible light. Therefore, in this embodiment, it is assumed that the output from the UV camera 42 can be represented by one channel. That is, the image data representing the image captured by the UV camera 42 is 1-channel data.

以上のように、本実施形態において可視光カメラ41で撮影された画像を示す画像データは、3チャンネルのデータである。可視光カメラ41は、可視光源41aおよびUV光源42aのそれぞれでシャーレSを照明した状態で撮影し、それぞれが可視光照射画像、非可視光照射画像となる。従って、可視光カメラ41で撮影された可視光照射画像と非可視光照射画像の双方は3チャンネルのデータである(表1参照)。一方、UVカメラ42で撮影された画像を示す画像データは、1チャンネルのデータである。UVカメラ42は、UV光源42aでシャーレSを照明した状態で撮影し、非可視光照射画像を出力する。従って、UVカメラ42で撮影された非可視光照射画像は1チャンネルである(表1参照)。 As described above, the image data representing the image captured by the visible light camera 41 in this embodiment is 3-channel data. The visible light camera 41 takes an image while the petri dish S is illuminated by the visible light source 41a and the UV light source 42a, respectively, and the images are a visible light irradiation image and an invisible light irradiation image, respectively. Therefore, both the visible light irradiation image and the invisible light irradiation image photographed by the visible light camera 41 are 3-channel data (see Table 1). On the other hand, the image data representing the image captured by the UV camera 42 is 1-channel data. The UV camera 42 takes an image while the petri dish S is illuminated by the UV light source 42a, and outputs an invisible light irradiation image. Therefore, the invisible light irradiation image captured by the UV camera 42 has one channel (see Table 1).

本実施形態においては、3チャンネルの可視光照射画像および非可視光照射画像、1チャンネルの非可視光照射画像が入力データとなる。従って、シャーレSを撮影して得られた合計7チャンネルの画像が入力データとなる。本実施形態においては、7チャンネルの全てを畳み込むCNN(Convolutional Neural Network)で処理されるのではなく、3チャンネルの可視光照射画像と、3チャンネルの非可視光照射画像と、1チャンネルの非可視光照射画像とのそれぞれが別のCNNによって並列的に処理される。そして、最後に個別の結果を合成するニューラルネットワークが構成されることにより、出力データが得られる。 In this embodiment, the input data are a 3-channel visible light irradiation image and an invisible light irradiation image, and a 1-channel invisible light irradiation image. Therefore, a total of 7-channel images obtained by photographing the petri dish S serve as input data. In this embodiment, instead of being processed by a CNN (Convolutional Neural Network) that convolves all 7 channels, a 3-channel visible light irradiation image, a 3-channel invisible light irradiation image, and a 1-channel invisible light irradiation image are processed. Each of the illuminated images is processed in parallel by a separate CNN. Finally, output data is obtained by constructing a neural network that synthesizes individual results.

図4および図5は、ニューラルネットワークの例を説明する説明図である。これらの図において図4の左端が入力層であり、図面の右に移動するにつれて層が深くなっていく。図4の右端に記載された層と、図5の左端の記載された層は同一であり、図5の右端が出力層である。図4および図5においては、直方体によって各層での入力データのフォーマットを模式的に示している。図4においては、左端にシャーレSの可視光照射画像と非可視光照射画像の実例を示している。すなわち、3チャンネルの可視光照射画像と、3チャンネルの非可視光照射画像と、1チャンネルの非可視光照射画像とのそれぞれを示している。 4 and 5 are explanatory diagrams for explaining examples of neural networks. In these figures, the left end of FIG. 4 is the input layer, and the layer becomes deeper as it moves to the right of the drawing. The layer described on the right end of FIG. 4 and the layer described on the left end of FIG. 5 are the same, and the right end of FIG. 5 is the output layer. In FIGS. 4 and 5, rectangular parallelepipeds schematically show the format of input data in each layer. In FIG. 4, an example of a visible light irradiation image and an invisible light irradiation image of the petri dish S is shown at the left end. That is, a 3-channel visible light irradiation image, a 3-channel non-visible light irradiation image, and a 1-channel non-visible light irradiation image are shown.

本例においてこれらの画像のサイズは縦横それぞれが1024画素である。図4において示す入力層は、このような画像を模式的に示している。すなわち、最上段の可視光照射画像は、縦横1024画素、3チャンネルのデータであるため、縦横の幅が1024,奥行きが3の直方体で表現される。中段の非可視光照射画像も縦横1024画素、3チャンネルのデータであるため、縦横の幅が1024,奥行きが3の直方体で表現される。一方、下段の非可視光照射画像は縦横1024画素、1チャンネルのデータであるため、縦横の幅が1024,奥行きが1の直方体で表現される。なお、図4および図5に示す例において、直方体の長さのスケールは縦横、奥行き方向のそれぞれにおいて一致しているとは限らない。 In this example, the size of these images is 1024 pixels in each direction. The input layer shown in FIG. 4 schematically shows such an image. That is, since the visible light irradiation image in the uppermost stage is data of 1024 pixels in length and width and 3 channels, it is represented by a rectangular parallelepiped having a width of 1024 and a depth of 3. Since the invisible light irradiation image in the middle row is also data of 1024 pixels in length and width and 3 channels, it is represented by a rectangular parallelepiped with a width of 1024 and a depth of 3. On the other hand, since the invisible light irradiation image in the lower stage is data of 1024 pixels in length and width and 1 channel, it is represented by a rectangular parallelepiped with a width of 1024 and a depth of 1. In the examples shown in FIGS. 4 and 5, the length scales of the rectangular parallelepipeds are not always the same in the vertical, horizontal, and depth directions.

図4においては、各画像データが入力層に入力された後、CNNを経て、すなわち、所定の大きさおよび数のフィルタによる畳み込み演算、活性化関数による演算およびプーリング層の演算を経て512×512×32個の出力値に変換される例を示している。図4においては、この後、所定の大きさおよび数のフィルタによる畳み込み演算、活性化関数による演算およびプーリング層の演算を経て256×256×64個の出力値に変換され、さらに複数の層の演算を経て32×32×1024個の出力値に変換される。 In FIG. 4, after each image data is input to the input layer, it passes through CNN, that is, through a convolution operation with a predetermined size and number of filters, an operation with an activation function, and an operation with a pooling layer. An example of conversion to x32 output values is shown. In FIG. 4, it is then converted into 256×256×64 output values through a convolution operation using a predetermined size and number of filters, an operation using an activation function, and an operation using a pooling layer. It is converted into 32×32×1024 output values through calculation.

このようなCNNの処理は、3チャンネルの可視光照射画像と、3チャンネルの非可視光照射画像と、1チャンネルの非可視光照射画像とのそれぞれについて個別に実行される。このため、本実施形態において制御部20は、少なくとも3個のGPUを備えており、3チャンネルの可視光照射画像と、3チャンネルの非可視光照射画像と、1チャンネルの非可視光照射画像とのそれぞれについての演算を異なるGPUで実行する。なお、以上のようなCNNの演算は、7チャンネルまとめて(又は9チャンネルの状態で)実行されてもよいが、このような演算を実行するためには非常に大きい容量のメモリを備えたGPUが必要になる。しかし、本実施形態のように、3個のGPUによって、3チャンネル、3チャンネル、1チャンネルのそれぞれについての処理を行えば、まとめて演算する場合と比較してメモリの容量を抑えることができるため、安価なGPUを利用して演算を行うことができる。また、まとめて演算する場合と比較して高速に学習を行うことができる。 Such CNN processing is individually performed for each of the 3-channel visible light irradiation image, the 3-channel non-visible light irradiation image, and the 1-channel non-visible light irradiation image. For this reason, in the present embodiment, the control unit 20 includes at least three GPUs, and a three-channel visible light irradiation image, a three-channel non-visible light irradiation image, and a one-channel non-visible light irradiation image. are performed on different GPUs. Note that the above CNN calculations may be executed collectively for 7 channels (or in the state of 9 channels), but in order to execute such calculations, a GPU with a very large capacity memory is required. However, as in the present embodiment, if three GPUs are used to process each of 3 channels, 3 channels, and 1 channel, the memory capacity can be reduced compared to the case of performing calculations collectively. , computation can be performed using an inexpensive GPU. In addition, learning can be performed at high speed compared to the case of performing calculations collectively.

本実施形態においては、以上のようにして並列的に演算された出力値が結合されて、最終的に、教師データ30aにおける矩形の情報のフォーマットに応じた情報が出力されるようにモデルが構築されている。図5は、3チャンネル、3チャンネル、1チャンネルの画像に対して並列的にCNNによる処理が行われた後の結合の様子が示されている。すなわち、CNNによる並列的な処理で得られた32×32×1024個の出力値は、結合されて32×32×3072個の出力値と見なされる。 In this embodiment, the model is constructed so that the output values calculated in parallel as described above are combined, and finally, the information corresponding to the format of the rectangular information in the teacher data 30a is output. It is FIG. 5 shows how 3-channel, 3-channel, and 1-channel images are combined after parallel CNN processing. That is, 32×32×1024 output values obtained by parallel processing by CNN are combined and regarded as 32×32×3072 output values.

そして、この出力値が32×32個のグリッドのそれぞれについて3072個の出力値が得られた状態であると見なされ、各グリッド3072個のデータが入力値となり、40個の出力値が得られる全結合層が定義される。この結果、最終的には、図5に示すように32×32×40個の出力値が得られる。 Then, this output value is regarded as a state in which 3072 output values are obtained for each of 32×32 grids, and 3072 data of each grid are input values, and 40 output values are obtained. A fully connected layer is defined. As a result, 32×32×40 output values are finally obtained as shown in FIG.

当該出力値は、教師データ30aにおける矩形の情報のフォーマットに応じた情報である。図6は当該出力値の構造を示す図である。32×32×40個の出力値のうち、縦横それぞれ32個の情報は、32×32個のグリッドのそれぞれに対応している。一方、奥行き方向に40個並ぶ情報は、8個の情報が5個並ぶことによって構成されている。すなわち、矩形の情報のフォーマットは、(矩形のX座標、矩形のY座標、矩形の幅、矩形の高さ、矩形内に微生物がコロニーを形成している確率、識別された微生物が放線菌であることを示すフラグ、識別された微生物がバクテリアであることを示すフラグ、識別された微生物がカビであることを示すフラグ)であり、1個の矩形に関して8個のデータを有している。 The output value is information according to the format of the rectangular information in the teacher data 30a. FIG. 6 is a diagram showing the structure of the output value. Of the 32×32×40 output values, 32 pieces of information each in the vertical and horizontal directions correspond to each of the 32×32 grids. On the other hand, 40 pieces of information arranged in the depth direction are formed by arranging 5 pieces of 8 pieces of information. That is, the format of the rectangle information is (X coordinate of rectangle, Y coordinate of rectangle, Width of rectangle, Height of rectangle, Probability that microorganisms form a colony in the rectangle, Identified microorganisms are actinomycetes. a flag indicating that the identified microorganisms are bacteria; a flag indicating that the identified microorganisms are fungi), and one rectangle has eight pieces of data.

本実施形態においては、これらのデータが5種類の基準の矩形のそれぞれについて定義されるため、1グリッドあたりに40個の情報が定義される。図6においては、あるグリッドのある矩形についての情報を抜き出し、矩形のX座標をX、矩形のY座標をY、矩形の幅をW、矩形の高さをHとして示している。また、矩形内に微生物がコロニーを形成している確率をPo、識別された微生物が放線菌であることを示すフラグをPa、識別された微生物がバクテリアであることを示すフラグをPb、識別された微生物がカビであることを示すフラグをPmとして示している。なお、本実施形態においては、Poによって微生物がコロニーを形成している確率が示され、Pa,Pb,Pmで微生物の種類が示されるため、本実施形態にかかるニューラルネットワークは、微生物の種類毎にコロニーを形成している確率を出力するモデルであると言える。 In this embodiment, since these data are defined for each of the five types of reference rectangles, 40 pieces of information are defined per grid. In FIG. 6, information about a certain rectangle in a certain grid is extracted, and the X coordinate of the rectangle is X, the Y coordinate of the rectangle is Y, the width of the rectangle is W, and the height of the rectangle is H. In FIG. In addition, Po is the probability that a microorganism forms a colony in the rectangle, Pa is a flag indicating that the identified microorganism is actinomycete, Pb is a flag indicating that the identified microorganism is bacteria, and Pm indicates a flag indicating that the microorganisms detected are fungi. In this embodiment, Po indicates the probability that a microorganism forms a colony, and Pa, Pb, and Pm indicate the type of microorganism. It can be said that it is a model that outputs the probability of forming a colony in

このような8個の出力値が、5種類の矩形のそれぞれについて得られることで40個の出力値となり、当該40個の出力値が32×32個のグリッドのそれぞれについて得られるのが本実施形態における訓練モデルである。すなわち、以上のモデルにおいて、可変パラメータ(例えば、フィルタの重み等)を機械学習することにより、微生物の存在と微生物の種類とを識別する学習済モデル30bを取得することができる。むろん、図4~図6に示すモデルは一例であり、フィルタの大きさや数、種類、活性化関数の種類、パディングやストライドの種類、プーリング層の種類や有無、全結合層の有無等は適宜変更されて良い。 These 8 output values are obtained for each of the 5 types of rectangles, resulting in 40 output values. It is a training model in morphology. That is, in the above model, by machine-learning variable parameters (for example, filter weights, etc.), it is possible to obtain a learned model 30b that distinguishes the presence of microorganisms and the types of microorganisms. Of course, the models shown in FIGS. 4 to 6 are only examples, and the size, number and type of filters, types of activation functions, types of padding and strides, types and presence/absence of pooling layers, presence/absence of fully connected layers, etc. good to be changed.

本実施形態においては、以上のようなモデルに基づいて機械学習処理を実行する。図7は機械学習処理を示すフローチャートである。機械学習処理は、微生物の識別が行われる前に予め実行される。また、機械学習処理が行われる前には、予め教師データ30aが用意される。機械学習処理が開始されると、制御部20は、機械学習部22aの機能により、訓練モデルを取得する(ステップS100)。本実施形態において、制御部20は、シャーレSの画像を入力値とし、図3に示すようにシャーレS内の画像に重ねられる矩形の情報を出力値とする訓練モデル(モデルを示すフィルタや活性化関数等の情報)を取得する。 In this embodiment, machine learning processing is executed based on the above model. FIG. 7 is a flowchart showing machine learning processing. Machine learning processing is pre-performed before microorganism identification is performed. In addition, teacher data 30a is prepared in advance before the machine learning process is performed. When the machine learning process is started, the control unit 20 acquires a training model using the function of the machine learning unit 22a (step S100). In the present embodiment, the control unit 20 uses an image of the petri dish S as an input value, and a training model (a filter or activation model indicating a model) whose output value is information on a rectangle superimposed on the image in the petri dish S as shown in FIG. function).

次に、制御部20は、機械学習部22aの機能により、教師データ30aを取得する(ステップS105)。本実施形態において、教師データ30aは、シャーレSを撮影した表1に示すような可視光照射画像および非可視光照射画像に対して、矩形の情報(矩形の大きさや識別結果等)が対応づけられた情報であり、予め生成されている。 Next, the control unit 20 acquires the teacher data 30a by the function of the machine learning unit 22a (step S105). In the present embodiment, the training data 30a associates rectangle information (rectangle size, identification result, etc.) with visible light irradiation images and non-visible light irradiation images as shown in Table 1 in which petri dish S is photographed. It is information that has been generated in advance.

次に、制御部20は、機械学習部22aの機能により、テストデータを取得する(ステップS110)。本実施形態においては、教師データ30aの一部を抽出し、学習の汎化が行われたか否かを確認するためのテストデータとする。なお、テストデータは、機械学習には使用されない。 Next, the control unit 20 acquires test data using the function of the machine learning unit 22a (step S110). In the present embodiment, a part of the teacher data 30a is extracted and used as test data for confirming whether learning has been generalized. Note that test data is not used for machine learning.

次に、制御部20は、機械学習部22aの機能により、初期値を決定する(ステップS115)。すなわち、制御部20は、ステップS100で取得した訓練モデルのうち、学習対象となる可変のパラメーター(フィルタの重みやバイアス等)に対して初期値を与える。初期値は、種々の手法で決定されて良い。むろん、学習の過程でパラメーターが最適化されるように初期値が調整されても良いし、各種のデータベース等から学習済のパラメーターが取得されて利用されても良い。 Next, the control unit 20 determines an initial value using the function of the machine learning unit 22a (step S115). That is, the control unit 20 gives initial values to the variable parameters to be learned (such as filter weights and biases) in the training model acquired in step S100. The initial value can be determined in various ways. Of course, the initial values may be adjusted so that the parameters are optimized in the process of learning, or learned parameters may be acquired from various databases or the like and used.

次に、制御部20は、機械学習部22aの機能により、学習を行う(ステップS120)。すなわち、制御部20は、ステップS100で取得した訓練モデルにステップS105で取得した教師データ30aの画像を入力し、識別結果を示す情報を出力する。この際、制御部20は、3チャンネルの可視光照射画像と、3チャンネルの非可視光照射画像と、1チャンネルの非可視光照射画像とのそれぞれを、3個のGPUのそれぞれに入力する。 Next, the control unit 20 performs learning using the function of the machine learning unit 22a (step S120). That is, the control unit 20 inputs the image of the teacher data 30a acquired in step S105 to the training model acquired in step S100, and outputs information indicating the identification result. At this time, the control unit 20 inputs the 3-channel visible light irradiation image, the 3-channel non-visible light irradiation image, and the 1-channel non-visible light irradiation image to each of the three GPUs.

GPUのそれぞれは、図4に示すモデルに従って32×32×1024個の出力値を計算する。その後、GPUまたはCPUがこれらの出力値を結合し、全結合層での変換を経て図6に示す32×32×40個の出力値、すなわち、モデルによる最終的な出力値が得られる。最終的な出力値が得られると、制御部20は、当該出力値と、教師データ30aが示す識別結果を示す情報との誤差を示す損失関数によって誤差を特定する。 Each GPU computes 32×32×1024 output values according to the model shown in FIG. After that, the GPU or CPU combines these output values to obtain 32×32×40 output values shown in FIG. When the final output value is obtained, the control unit 20 specifies the error by a loss function indicating the error between the output value and the information indicating the identification result indicated by the teacher data 30a.

すなわち、教師データ30aにおいては、5種類の基準の矩形のそれぞれについて8個、合計40個の矩形の情報が定義され、32×32個の各グリッドに対応づけられている。一方、モデルによる出力値は図6に示すように32×32個のグリッドについて40個得られており、これらの40個の出力値は、5種類の基準の矩形のそれぞれについての矩形の情報である。 That is, in the teacher data 30a, 8 rectangles are defined for each of the 5 types of reference rectangles, for a total of 40 rectangles, and are associated with 32×32 grids. On the other hand, 40 output values from the model are obtained for 32×32 grids as shown in FIG. be.

あるグリッドにおける特定の矩形について着目すると、教師データ30aと出力値との双方において、矩形の情報は位置(X,Y)、大きさ(W,H)、微生物がコロニーを形成している確率(Po)、微生物の識別結果(Pa,Pb,Pm)で表現される。このように、教師データ30aに対応づけられた情報と、モデルによる出力値とは対応しているため、制御部20は、互いに対応する情報の差分を示す損失関数に基づいて誤差を特定する。損失関数Eが得られたら、制御部20は、既定の最適化アルゴリズム、例えば、確率的勾配降下法等によってパラメーターを更新する。すなわち、制御部20は、損失関数Eのパラメーターによる微分に基づいてパラメーターを更新する処理を既定回数繰り返す。 Focusing on a specific rectangle in a certain grid, in both the teacher data 30a and the output value, the information of the rectangle is the position (X, Y), the size (W, H), the probability that the microorganisms are forming a colony ( Po), and is represented by the identification results of microorganisms (Pa, Pb, Pm). In this way, since the information associated with the teacher data 30a and the output value by the model correspond, the control section 20 identifies the error based on the loss function indicating the difference between the corresponding information. Once the loss function E is obtained, the control unit 20 updates the parameters by a predetermined optimization algorithm, such as stochastic gradient descent. That is, the control unit 20 repeats the process of updating the parameters based on the differentiation of the loss function E by the parameters a predetermined number of times.

以上のようにして、既定回数のパラメーターの更新が行われると、制御部20は、訓練モデルの汎化が完了したか否かを判定する(ステップS125)。すなわち、制御部20は、ステップS110で取得したテストデータを訓練モデルに入力して微生物の識別結果を示す出力値を取得する。そして、制御部20は、出力された識別結果と、テストデータに対応づけられた識別結果とが一致している数を取得し、サンプル数で除することで推定精度を取得する。本実施形態において、制御部20は、推定精度が閾値以上である場合に汎化が完了したと判定する。 After the parameters have been updated a predetermined number of times as described above, the control unit 20 determines whether or not the generalization of the training model has been completed (step S125). That is, the control unit 20 inputs the test data acquired in step S110 to the training model and acquires an output value indicating the microorganism identification result. Then, the control unit 20 obtains the number of matches between the output identification result and the identification result associated with the test data, and divides the number by the number of samples to obtain the estimation accuracy. In this embodiment, the control unit 20 determines that the generalization is completed when the estimation accuracy is equal to or higher than the threshold.

なお、汎化性能の評価に加え、ハイパーパラメーターの妥当性の検証が行われてもよい。すなわち、学習対象となる可変のパラメーター以外の可変量であるハイパーパラメーター、例えば、ノードの数等がチューニングされる構成において、制御部20は、検証データに基づいてハイパーパラメーターの妥当性を検証しても良い。検証データは、ステップS110と同様の処理により、教師データ30aから検証データを予め抽出し、訓練に用いないデータとして確保しておくことで取得すれば良い。 In addition to the evaluation of the generalization performance, verification of the validity of the hyperparameters may be performed. That is, in a configuration in which hyperparameters that are variable quantities other than variable parameters to be learned, such as the number of nodes, are tuned, the control unit 20 verifies the validity of the hyperparameters based on the verification data. Also good. The verification data may be obtained by extracting the verification data in advance from the teacher data 30a by the same process as in step S110 and securing it as data that is not used for training.

ステップS125において、訓練モデルの汎化が完了したと判定されない場合、制御部20は、ステップS120を繰り返す。すなわち、さらに学習対象となる可変のパラメーターを更新する処理を行う。一方、ステップS125において、訓練モデルの汎化が完了したと判定された場合、制御部20は、学習済モデルを記録する(ステップS130)。すなわち、制御部20は、訓練モデルを学習済モデル30bとして記憶媒体30に記録する。 If it is determined in step S125 that the generalization of the training model has not been completed, the control unit 20 repeats step S120. That is, the process of updating the variable parameters to be further learned is performed. On the other hand, when it is determined in step S125 that the generalization of the training model has been completed, the control unit 20 records the learned model (step S130). That is, the control unit 20 records the training model in the storage medium 30 as the learned model 30b.

(3)コロニー識別処理:
次に、平板培地Mに形成された未識別のコロニーについて実施されるコロニー識別処理を図8に示すフローチャートに基づいて説明する。コロニーが形成された平板培地Mを含むシャーレSが用意されると、透明板Tにおける可視光カメラ41の視野内の既定の位置にシャーレSがセットされる。この状態で利用者が図示しないマウスやキーボード等の操作部によってコロニー識別処理の開始を指示すると、制御部20は、コロニー識別プログラム21の実行を開始する。
(3) Colony identification treatment:
Next, the colony identification process performed for unidentified colonies formed on the plate medium M will be described based on the flowchart shown in FIG. When the petri dish S containing the plate medium M on which the colonies are formed is prepared, the petri dish S is set at a predetermined position on the transparent plate T within the visual field of the visible light camera 41 . In this state, when the user instructs the start of colony identification processing using an operation unit such as a mouse or a keyboard (not shown), the control unit 20 starts executing the colony identification program 21 .

コロニー識別プログラム21の実行が開始されると、制御部20は、可視光照射画像取得部21aの機能により、シャーレSに可視光を照射させる(ステップS200)。すなわち、制御部20は、可視光源41aに制御信号を出力し、可視光源41aを点灯させる。この際、UV光源42aは消灯した状態とされる。この結果、シャーレSが可視光によって照射され、コロニーを形成する微生物からの反射光と、反射板Rからの光が微生物を透過した透過光とによって可視光カメラ41内の撮像素子に像が形成された状態になる。 When execution of the colony identification program 21 is started, the control unit 20 irradiates the petri dish S with visible light using the function of the visible light irradiation image acquiring unit 21a (step S200). That is, the control unit 20 outputs a control signal to the visible light source 41a to turn on the visible light source 41a. At this time, the UV light source 42a is turned off. As a result, the petri dish S is irradiated with visible light, and an image is formed on the imaging element in the visible light camera 41 by the reflected light from the microorganisms forming the colony and the transmitted light from the reflector R transmitted through the microorganisms. state.

次に、制御部20は、可視光照射画像取得部21aの機能により、可視光カメラ41によって可視光照射画像を撮影する(ステップS205)。すなわち、制御部20は、可視光カメラ41を制御し、可視光が照射されたシャーレSの画像データを取得する。撮影された画像データは、3チャンネルの画像データであり、制御部20は、当該画像データに3チャンネルの可視光照射画像であることを示す情報を対応づけてRAMや記憶媒体30に記録する。 Next, the control unit 20 captures a visible light irradiation image with the visible light camera 41 using the function of the visible light irradiation image acquiring unit 21a (step S205). That is, the control unit 20 controls the visible light camera 41 to obtain image data of the petri dish S irradiated with visible light. The captured image data is 3-channel image data, and the control unit 20 records the image data in the RAM or storage medium 30 in association with information indicating that it is a 3-channel visible light irradiation image.

次に、制御部20は、非可視光照射画像取得部21bの機能により、シャーレSにUV光を照射させる(ステップS210)。すなわち、制御部20は、UV光源42aに制御信号を出力し、UV光源42aを点灯させる。この際、可視光源41aは消灯した状態とされる。この結果、シャーレSがUV光によって照射され、コロニーを形成する微生物からの反射光と、反射板Rからの光が微生物を透過した透過光とによって可視光カメラ41内の撮像素子に像が形成された状態になる。 Next, the control unit 20 causes the petri dish S to be irradiated with UV light using the function of the invisible light irradiation image acquisition unit 21b (step S210). That is, the controller 20 outputs a control signal to the UV light source 42a to turn on the UV light source 42a. At this time, the visible light source 41a is turned off. As a result, the petri dish S is irradiated with UV light, and an image is formed on the imaging element in the visible light camera 41 by the reflected light from the microorganisms forming the colony and the transmitted light from the reflector R transmitted through the microorganisms. state.

次に、制御部20は、非可視光照射画像取得部21bの機能により、可視光カメラ41によって非可視光照射画像を撮影する(ステップS215)。すなわち、制御部20は、可視光カメラ41を制御し、UV光が照射されたシャーレSの画像データを取得する。撮影された画像データは、3チャンネルの画像データであり、制御部20は、当該画像データに3チャンネルの非可視光照射画像であることを示す情報を対応づけてRAMや記憶媒体30に記録する。 Next, the control unit 20 captures an invisible light irradiation image with the visible light camera 41 using the function of the invisible light irradiation image acquiring unit 21b (step S215). That is, the control unit 20 controls the visible light camera 41 to acquire image data of the petri dish S irradiated with UV light. The captured image data is 3-channel image data, and the control unit 20 associates the image data with information indicating that it is a 3-channel invisible light irradiation image, and records the information in the RAM or the storage medium 30. .

本実施形態において、制御部20は、さらに、UVカメラ42によって非可視光照射画像を撮影する。このために利用者は、UV光源42aを一旦消灯させ、可視光カメラ41を取り外し、UVカメラ42を図示しない支持部に固定する。この状態で制御部20は、非可視光照射画像取得部21bの機能により、シャーレSにUV光を照射させる(ステップS216)。すなわち、制御部20は、UV光源42aに制御信号を出力し、UV光源42aを点灯させる。この際、可視光源41aは消灯した状態とされる。この結果、シャーレSがUV光によって照射され、コロニーを形成する微生物からの反射光と、反射板Rからの光が微生物を透過した透過光とによってUVカメラ42内の撮像素子に像が形成された状態になる。 In this embodiment, the control unit 20 further captures an invisible light irradiation image with the UV camera 42 . For this purpose, the user temporarily turns off the UV light source 42a, removes the visible light camera 41, and fixes the UV camera 42 to a supporting portion (not shown). In this state, the control unit 20 causes the petri dish S to be irradiated with UV light using the function of the invisible light irradiation image acquiring unit 21b (step S216). That is, the controller 20 outputs a control signal to the UV light source 42a to turn on the UV light source 42a. At this time, the visible light source 41a is turned off. As a result, the petri dish S is irradiated with UV light, and an image is formed on the imaging device in the UV camera 42 by the reflected light from the colony-forming microorganisms and the transmitted light from the reflector R transmitted through the microorganisms. state.

次に、制御部20は、非可視光照射画像取得部21bの機能により、UVカメラ42によって非可視光照射画像を撮影する(ステップS217)。すなわち、制御部20は、UVカメラ42を制御し、UV光が照射されたシャーレSの画像データを取得する。撮影された画像データは、1チャンネルの画像データであるため、制御部20は、当該画像データに1チャンネルの非可視光照射画像であることを示す情報を対応づけてRAMや記憶媒体30に記録する。 Next, the control unit 20 captures an invisible light irradiation image with the UV camera 42 using the function of the invisible light irradiation image acquiring unit 21b (step S217). That is, the control unit 20 controls the UV camera 42 and acquires image data of the petri dish S irradiated with UV light. Since the captured image data is 1-channel image data, the control unit 20 associates the image data with information indicating that it is a 1-channel invisible light irradiation image, and records the data in the RAM or the storage medium 30. do.

むろん、UVカメラ42で3チャンネルの画像データが取得された後、1チャンネル分に情報が圧縮されても良い。また、可視光照射画像の取得と、非可視光照射画像の取得順序は一例であり、他の順序であっても良い。なお、以上のような識別対象であるシャーレSの画像の撮影条件は、教師データ30aの画像を撮影する際の撮影条件と同一である。 Of course, after the UV camera 42 acquires three-channel image data, the information may be compressed to one channel. Moreover, the acquisition order of the visible light irradiation image and the acquisition order of the non-visible light irradiation image is an example, and other orders may be used. The photographing conditions for the image of the Petri dish S to be identified as described above are the same as the photographing conditions for photographing the image of the teacher data 30a.

以上の処理により、3チャンネルの可視光照射画像と、3チャンネルの非可視光照射画像と、1チャンネルの非可視光照射画像とが取得されると、制御部20は、コロニー識別部21cの機能により、7チャンネルの入力画像を生成する(ステップS220)。すなわち、制御部20は、ステップS205およびステップS215で取得された各画像データから既定の大きさ(上述の例では1024×1024画素)のシャーレSの画像を切り出し、入力画像と見なす。むろん、ここでは、各種の画像処理が行われてもよい。 When the 3-channel visible light irradiation image, the 3-channel non-visible light irradiation image, and the 1-channel non-visible light irradiation image are obtained by the above processing, the control unit 20 performs the functions of the colony identification unit 21c. generates a 7-channel input image (step S220). That is, the control unit 20 cuts out an image of the petri dish S having a predetermined size (1024×1024 pixels in the above example) from each image data acquired in steps S205 and S215, and regards the image as an input image. Of course, various image processing may be performed here.

入力画像が得られると、制御部20は、コロニー識別部21cの機能により、入力画像を学習済モデルに入力する(ステップS225)。すなわち、制御部20は、記憶媒体30に記録された学習済モデル30bを取得し、入力画像を入力とした場合の出力値を取得する。この結果、32×32グリッドのそれぞれにおいて、5種類の基準矩形についての識別結果が得られる。 When the input image is obtained, the control unit 20 inputs the input image to the learned model using the function of the colony identification unit 21c (step S225). That is, the control unit 20 acquires the learned model 30b recorded in the storage medium 30, and acquires the output value when the input image is input. As a result, in each of the 32×32 grids, identification results for five types of reference rectangles are obtained.

次に、制御部20は、コロニー識別部21cの機能により、出力の抑制を行う(ステップS230)。すなわち、制御部20は、識別結果として有意である出力値を残すための処理を行う。出力の抑制は、種々の手法で行われて良い。例えば、矩形内に微生物がコロニーを形成している確率Poが既定の閾値(例えば、0.5)以上である出力値を残す処理によれば、微生物が形成されている可能性が高い矩形を残すことができる。また、2個の矩形が既定比率以上重なっている場合に、両者のいずれかを残し、一方を残さない処理によれば、同じコロニーの検出を複数の矩形で示すことが抑制される。なお、矩形が重なっている比率は、例えば、IOU(Intersection Over Union:2個の矩形の論理積(面積)/2つの矩形の論理和(面積))等によって評価することができる。 Next, the control section 20 suppresses the output by the function of the colony identification section 21c (step S230). That is, the control unit 20 performs processing for leaving significant output values as identification results. Suppression of power output may be accomplished in a variety of ways. For example, according to the process of leaving an output value in which the probability Po that a microorganism forms a colony in a rectangle is equal to or greater than a predetermined threshold value (for example, 0.5), a rectangle with a high possibility of forming a microorganism is selected. can be left. In addition, when two rectangles overlap at a predetermined ratio or more, the process of leaving one of the two and not leaving the other prevents detection of the same colony from being indicated by a plurality of rectangles. The ratio of overlapping rectangles can be evaluated, for example, by IOU (Intersection Over Union: logical product (area) of two rectangles/logical sum (area) of two rectangles).

次に、制御部20は、コロニー識別部21cの機能により、識別結果を表示させる(ステップS235)。すなわち、制御部20は、表示部43を制御し、ステップS230における抑制の結果得られた出力値に基づいて、識別結果を表示する。識別結果の表示態様は、種々の態様であって良く、本実施形態においては、シャーレSの画像に矩形を重ねて表示する態様が採用されている。すなわち、識別結果が表示されると、表示部43において図3に示すような画像が表示される。 Next, the control section 20 displays the identification result by the function of the colony identifying section 21c (step S235). That is, the control unit 20 controls the display unit 43 to display the identification result based on the output value obtained as a result of the suppression in step S230. The identification result may be displayed in various modes, and in the present embodiment, a mode in which the petri dish S image is superimposed with a rectangle is adopted. That is, when the identification result is displayed, an image as shown in FIG. 3 is displayed on the display section 43 .

以上のような本実施形態によれば、シャーレSの可視光照射画像および非可視光照射画像を学習済モデル30bに入力して識別結果を示す情報を出力することにより、任意のシャーレSにおいてコロニーを形成している微生物を識別することができる。従来、放線菌やバクテリア、カビの識別は、画像に基づいて人為的に行われることが多く、長年の経験や専門知識が必要とされていた。しかし、機械学習結果を用いて識別が行われる本実施形態によれば、長年の経験や専門知識がない利用者であっても識別結果を得ることができる。すなわち、所謂人工知能(AI)システムとも言える。 According to the present embodiment as described above, by inputting the visible light irradiation image and the invisible light irradiation image of the petri dish S into the learned model 30b and outputting the information indicating the identification result, the colony in any petri dish S It is possible to identify the microorganisms forming the Conventionally, the identification of actinomycetes, bacteria, and fungi has often been performed artificially based on images, requiring many years of experience and expertise. However, according to this embodiment, in which machine learning results are used for identification, even users without many years of experience or specialized knowledge can obtain identification results. That is, it can be said that it is a so-called artificial intelligence (AI) system.

さらに、長年の経験や専門知識を有する者であっても、個々のコロニーを識別する作業を行うには非常に時間がかかる。しかし、機械学習結果を用いて識別が行われる本実施形態によれば、多数のコロニーに関する識別を短期に実施することができる。 Moreover, even for those with many years of experience and expertise, the task of identifying individual colonies is very time consuming. However, according to this embodiment, in which machine learning results are used for identification, it is possible to identify a large number of colonies in a short period of time.

さらに、本実施形態においては、透明板TにシャーレSが載せられ、透明板Tから一定距離離れた位置に反射板Rが配置される。反射板Rは例えば白い紙等であって光を反射する性質を有し、透明板Tは光を透過させる。そして、平板培地Mは、濃い色であるものの光を透過させる。従って、本実施形態においては、図3に示すように、平板培地Mに光が透過した状態で画像が撮影される。このため、平板培地Mに形成されたコロニーの周囲が過度に濃い色(例えば黒)になることはなく、コロニーの細部(例えば、縁の形状等)が画像に反映された状態で機械学習および識別を行うことができる。従って、本実施形態による照明系によれば、識別精度を向上させることができる。 Furthermore, in the present embodiment, the petri dish S is placed on the transparent plate T, and the reflector R is arranged at a position separated from the transparent plate T by a certain distance. The reflector R is, for example, white paper or the like and has a property of reflecting light, and the transparent plate T allows light to pass therethrough. Although the plate medium M has a dark color, it allows light to pass therethrough. Therefore, in this embodiment, as shown in FIG. 3, an image is taken while light is transmitted through the plate medium M. FIG. For this reason, the periphery of the colony formed on the plate medium M does not become excessively dark (for example, black), and machine learning and processing are performed in a state in which the details of the colony (for example, the shape of the edge, etc.) are reflected in the image. Identification can be done. Therefore, according to the illumination system according to this embodiment, it is possible to improve the identification accuracy.

さらに、本実施形態においては、UV光源42aによって照明されたコロニーを可視光カメラ41で撮影した非可視光照射画像に基づいて識別が行われる。従って、非可視光であるUV光が照射されることによって放線菌または代謝産物が蛍光を示す場合、この蛍光に基づいて識別を行うことが可能になる。さらに、本実施形態においては、UV光源42aによって照明されたコロニーをUVカメラ42で撮影された非可視光照射画像に基づいて識別が行われる。従って、非可視光であるUV光が照射されることによって得られる画像、すなわち、人間が通常視認できない画像に基づいて識別が行われる。このため、長年の経験や専門知識を有する者の知見を超えた特徴に基づいて識別を行うことが可能である。 Furthermore, in the present embodiment, identification is performed based on an invisible light irradiation image of the colony illuminated by the UV light source 42a captured by the visible light camera 41. FIG. Therefore, when actinomycetes or metabolites exhibit fluorescence when irradiated with UV light, which is invisible light, they can be identified based on this fluorescence. Furthermore, in this embodiment, identification is performed based on an invisible light irradiation image captured by the UV camera 42 of the colony illuminated by the UV light source 42a. Therefore, identification is performed based on an image obtained by irradiation with UV light, which is invisible light, that is, an image that is normally invisible to humans. Therefore, it is possible to perform identification based on features beyond the knowledge of those who have many years of experience and specialized knowledge.

(4)他の実施形態:
以上の実施形態は本発明を実施するための一例であり、可視光照射画像と非可視光照射画像とに基づいてコロニーを形成している微生物を識別する限りにおいて、他にも種々の実施形態を採用可能である。例えば、上述の実施形態においては、可視光カメラ41で撮影された3チャンネルの非可視光照射画像と、UVカメラ42で撮影された1チャンネルの非可視光照射画像との双方が利用されていたが、いずれか一方が利用されても良い。
(4) Other embodiments:
The above embodiment is an example for carrying out the present invention, and there are various other embodiments as long as the microorganisms forming colonies are identified based on the visible light irradiation image and the non-visible light irradiation image. can be adopted. For example, in the above-described embodiment, both the 3-channel invisible light irradiation image captured by the visible light camera 41 and the 1-channel invisible light irradiation image captured by the UV camera 42 are used. However, either one may be used.

また、コロニー識別システムは、複数の装置によって実現されても良く、機械学習がサーバで実施され、識別がクライアントで実施されるシステム等であっても良い。さらに、可視光照射画像取得部21a、非可視光照射画像取得部21b、コロニー識別部21c、機械学習部22aの少なくとも一部が複数の装置に分かれて存在してもよい。例えば、コロニー識別部21cにおいて、シャーレSから矩形を抽出する処理と、矩形に含まれるコロニーを識別する処理とが異なる装置で実施される構成等であっても良い。むろん、上述の実施形態の一部の構成が省略されてもよいし、処理の順序が変動または省略されてもよい。例えば、光源の切り替え等が制御部20ではなく手動で行われる構成等が採用されてもよい。 Also, the colony identification system may be implemented by a plurality of devices, or may be a system in which machine learning is performed by a server and identification is performed by a client. Furthermore, at least a part of the visible light irradiation image acquisition unit 21a, the non-visible light irradiation image acquisition unit 21b, the colony identification unit 21c, and the machine learning unit 22a may exist separately in a plurality of devices. For example, in the colony identification unit 21c, the process of extracting rectangles from the petri dish S and the process of identifying colonies included in the rectangles may be performed by different apparatuses. Of course, some configurations of the above-described embodiments may be omitted, and the order of processing may be changed or omitted. For example, a configuration or the like may be employed in which switching of the light source is performed manually instead of the control unit 20 .

可視光照射画像取得部は、培地に形成された微生物のコロニーに対して可視光が照射された状態でコロニーを撮影した画像である可視光照射画像を取得することができればよい。すなわち、人間の目によって認識可能な波長域に含まれる光がコロニーに照射され、その結果コロニーから出力された光によって形成される像が可視光照射画像として取得されれば良い。コロニーから出力された光は、反射光(散乱光を含む)、透過光、蛍光のいずれであっても良いし、これらの光が含まれた光であっても良い。コロニーから出力された光の波長域は可視光の波長域であっても良いし、非可視光の波長域であっても良い。前者であれば可視光を検出可能なカメラで撮影され、後者であれば非可視光を検出可能なカメラで撮影される。 The visible light irradiation image acquisition unit only needs to be able to acquire a visible light irradiation image, which is an image of a colony of microorganisms formed in a culture medium that is photographed while the colony is irradiated with visible light. That is, the colony is irradiated with light in a wavelength range that can be recognized by the human eye, and an image formed by the light output from the colony as a result is acquired as a visible light irradiation image. The light output from the colonies may be reflected light (including scattered light), transmitted light, fluorescence, or light containing these lights. The wavelength range of the light output from the colony may be the wavelength range of visible light or the wavelength range of non-visible light. The former is taken with a camera that can detect visible light, and the latter is taken with a camera that can detect invisible light.

可視光は、人間の目によって認識可能な光であれば良く、例えば、400nm~750nmの波長域の光を可視光とすることができる。可視光の波長域は任意性があって良いが、少なくとも可視光の波長域と非可視光の波長域とに重複していない波長域が含まれ、後者においては、人間の目に認識不可能な光が含まれるように設定される。 Visible light may be light that can be recognized by human eyes, and for example, light in the wavelength range of 400 nm to 750 nm can be considered visible light. The wavelength range of visible light may be arbitrary, but at least the wavelength range of visible light and the wavelength range of non-visible light include a wavelength range that does not overlap, and the latter is unrecognizable to the human eye. is set to include

培地は、識別対象の微生物を培養可能であれば良く、識別対象の微生物に応じて種々の培地が採用されてよい。むろん、識別対象を予め限定することなく未知の微生物の識別が想定されるのであれば、特定の培地ではなく種々の培地が用意されてもよい。さらに、培地はシャーレ等の容器に用意されて良く、平板培地とされてもよい。また、培地に複数のコロニーが形成され得る状態であっても良い。 Any medium may be used as long as the microorganism to be identified can be cultured, and various media may be employed depending on the microorganism to be identified. Of course, if identification of unknown microorganisms is assumed without limiting identification targets in advance, various culture media may be prepared instead of specific culture media. Furthermore, the medium may be prepared in a container such as a petri dish, and may be used as a plate medium. Also, the medium may be in a state in which a plurality of colonies can be formed.

微生物は、培地によって培養されてコロニーを形成する生物であれば良く、放線菌を含む各種の菌(真正細菌、古細菌、真核生物(藻類、原生生物、菌類、粘菌)等)が挙げられるが、極小さい他の生物であっても良い。また、識別対象の微生物は、既知であっても未知であっても良い。 Microorganisms may be any organisms that are cultured in a medium to form colonies, and include various fungi including actinomycetes (eubacteria, archaea, eukaryotes (algae, protists, fungi, slime molds), etc.). can be, but it can also be other very small organisms. Also, the microorganisms to be identified may be known or unknown.

可視光は、種々の状態で照射されて良い。すなわち、可視光は、可視光照射画像が撮影できるようにコロニーに対して照射されれば良く、コロニーと可視光源との位置関係は種々の関係とすることができる。むろん、位置関係が可変であっても良いし、可視光の強度が可変であっても良い。 Visible light may be emitted in various ways. That is, the visible light may be applied to the colonies so that visible light irradiation images can be taken, and the positional relationship between the colonies and the visible light source can be various. Of course, the positional relationship may be variable, and the intensity of visible light may be variable.

可視光照射画像は、可視光の強度が特定の強度である状態で撮影されても良いし、複数の強度である状態で撮影されても良く、種々の態様が採用されてよい。また、可視光照射画像は、微生物のコロニーを撮影した画像であれば良く、少なくとも1個のコロニーが含まれていれば良い。むろん、複数個のコロニーが含まれていても良い。可視光照射画像を表現するためのチャネル数は任意であるが、可視光の波長域を網羅するためには典型的には3チャネルで可視光照射画像が表現されることが好ましい。 The visible light irradiation image may be captured in a state where the intensity of the visible light is a specific intensity, or may be captured in a state where the intensity of the visible light is a plurality of intensities, and various modes may be adopted. Moreover, the image irradiated with visible light may be an image obtained by photographing a colony of microorganisms, as long as at least one colony is included. Of course, it may contain a plurality of colonies. Although the number of channels for expressing the visible light irradiation image is arbitrary, it is preferable that the visible light irradiation image is typically represented by three channels in order to cover the wavelength range of visible light.

また、可視光照射画像は、少なくとも2次元的に広がるコロニーに対して可視光が照射された状態におけるコロニーの2次元的な像であればよく、2次元的な領域を撮影可能なカメラで撮影されれば良い。すなわち、コロニー識別システムにおいては、コロニーの特徴を2次元的な画像で捉えることによって当該画像に基づいてコロニーを形成する微生物を識別することができればよい。 In addition, the visible light irradiation image may be a two-dimensional image of the colony in a state where the colony that spreads two-dimensionally is irradiated with visible light. I wish I could. That is, in the colony identification system, it is sufficient that the characteristics of the colony are captured in a two-dimensional image and the microorganisms forming the colony can be identified based on the image.

非可視光照射画像取得部は、コロニーに対して非可視光が照射された状態でコロニーを撮影した画像である非可視光照射画像を取得することができればよい。すなわち、可視光照射画像が撮影されたコロニーと同一のコロニーについて非可視光照射画像を取得することができればよい。この際、人間の目によって認識不可能な波長域に含まれる光がコロニーに照射され、その結果コロニーから出力された光によって形成される像が非可視光照射画像として取得されれば良い。 The invisible light irradiation image acquiring unit only needs to be able to acquire an invisible light irradiation image, which is an image of a colony photographed while the colony is irradiated with invisible light. In other words, it is sufficient if the non-visible light irradiation image can be obtained for the same colony as the colony for which the visible light irradiation image was captured. At this time, the colony is irradiated with light in a wavelength range that cannot be recognized by the human eye, and an image formed by the light emitted from the colony as a result is obtained as an invisible light irradiation image.

コロニーから出力された光は、反射光(散乱光を含む)、透過光、蛍光のいずれであっても良いし、これらの光が含まれた光であっても良い。コロニーから出力された光の波長域は可視光の波長域であっても良いし、非可視光の波長域であっても良い。前者であれば可視光を検出可能なカメラで撮影され、後者であれば非可視光を検出可能なカメラで撮影される。 The light output from the colonies may be reflected light (including scattered light), transmitted light, fluorescence, or light containing these lights. The wavelength range of the light output from the colony may be the wavelength range of visible light or the wavelength range of non-visible light. The former is taken with a camera that can detect visible light, and the latter is taken with a camera that can detect invisible light.

非可視光は、人間の目によって認識不可能な光であれば良く、紫外線であっても良いし赤外線であっても良いし、紫外線と赤外線の双方であっても良い。紫外線の場合、UVA(例えば320nm~400nm)、UVB(例えば290nm~320nm)、UVC(例えば200nm~290nm)のいずれであっても良いし、複数の波長域の複数の帯域が含まれていても良い。なお、微生物等への影響を低減するためには紫外線の波長が長い方が好ましく、例えば、UVAが選択されてもよい。IRであっても同様の配慮がなされても良い。さらに、微生物から蛍光が出力されることが予想される場合、当該蛍光を出力させる波長が選択されてもよい。 The invisible light may be light that cannot be recognized by human eyes, and may be ultraviolet light, infrared light, or both ultraviolet light and infrared light. In the case of ultraviolet rays, any of UVA (eg, 320 nm to 400 nm), UVB (eg, 290 nm to 320 nm), UVC (eg, 200 nm to 290 nm) may be used, and multiple bands of multiple wavelength ranges may be included. good. In order to reduce the influence on microorganisms, etc., the longer the wavelength of the ultraviolet rays, the better. For example, UVA may be selected. Similar considerations may be made for IR. Furthermore, when fluorescence is expected to be output from microorganisms, a wavelength for outputting the fluorescence may be selected.

非可視光は、種々の状態で照射されて良い。すなわち、非可視光は、非可視光照射画像が撮影できるようにコロニーに対して照射されれば良く、コロニーと非可視光源との位置関係は種々の関係とすることができる。むろん、位置関係が可変であっても良いし、非可視光の強度が可変であっても良い。 Invisible light may be emitted in various ways. In other words, the invisible light may be applied to the colony so that the invisible light irradiation image can be captured, and the positional relationship between the colony and the invisible light source can be various. Of course, the positional relationship may be variable, and the intensity of the invisible light may be variable.

非可視光照射画像は、非可視光の強度が特定の強度である状態で撮影されても良いし、複数の強度である状態で撮影されても良く、種々の態様が採用されてよい。また、非可視光照射画像は、微生物のコロニーを撮影した画像であれば良く、少なくとも1個のコロニーが含まれていれば良い。むろん、複数個のコロニーが含まれていても良い。非可視光照射画像を表現するためのチャネル数は任意である。比較的狭い波長域(例えば、UVA)が利用される場合には、例えば、1チャネルで非可視光照射画像が表現可能である場合が多く、より広い波長域で非可視光照射画像を表現する際には複数チャネルが利用されても良い。 The invisible light irradiation image may be captured with the invisible light having a specific intensity, or may be captured with a plurality of intensities, and various modes may be employed. Also, the invisible light irradiation image may be an image of colonies of microorganisms, as long as at least one colony is included. Of course, it may contain a plurality of colonies. Any number of channels may be used to express the invisible light irradiation image. When a relatively narrow wavelength range (for example, UVA) is used, for example, it is often possible to express an invisible light irradiation image with one channel, and an invisible light irradiation image can be expressed with a wider wavelength range. In some cases, multiple channels may be used.

また、非可視光照射画像は、少なくとも2次元的に広がるコロニーに対して非可視光が照射された状態におけるコロニーの2次元的な像であればよく、2次元的な領域を撮影可能なカメラで撮影されれば良い。すなわち、コロニー識別システムにおいては、コロニーの特徴を2次元的な画像で捉えることによって当該画像に基づいてコロニーを形成する微生物を識別することができればよい。 In addition, the invisible light irradiation image may be a two-dimensional image of the colony in a state where the colony that spreads at least two-dimensionally is irradiated with invisible light, and a camera capable of photographing a two-dimensional area. It should be taken with That is, in the colony identification system, it is sufficient that the characteristics of the colony are captured in a two-dimensional image and the microorganisms forming the colony can be identified based on the image.

コロニー識別部は、可視光照射画像と非可視光照射画像とに基づいて、コロニーを形成している微生物を識別することができればよい。すなわち、コロニー識別部は、コロニーに可視光、非可視光のそれぞれを照射して得られた2次元的な画像に基づいて、コロニーを形成している微生物を識別することができればよい。識別は、可視光照射画像と非可視光照射画像とを解析することによって実施されれば良い。 The colony identification unit only needs to be able to identify microorganisms forming colonies based on the visible light irradiation image and the non-visible light irradiation image. In other words, the colony identification section only needs to be able to identify microorganisms forming colonies based on two-dimensional images obtained by irradiating the colonies with visible light and non-visible light. The identification may be performed by analyzing the visible light irradiation image and the non-visible light irradiation image.

従って、機械学習以外の処理によってコロニーが識別される構成であっても良い。例えば、可視光照射画像と非可視光照射画像とのそれぞれにおけるコロニーの形状、色、大きさ、模様、コントラスト、構成部位の特徴等が取得され、特徴が特定の微生物の特徴である場合に、当該特定の微生物が形成したコロニーであると識別される構成等が挙げられる。 Therefore, a configuration in which colonies are identified by processing other than machine learning may be used. For example, when the shape, color, size, pattern, contrast, features of constituent parts, etc. of a colony in each of the visible light irradiation image and the non-visible light irradiation image are acquired, and the features are the features of a specific microorganism, Examples include a configuration that can be identified as a colony formed by the specific microorganism.

このような構成の場合、特徴は予め定義されていれば良く、画像のパターンとして定義されていても良いし、特徴量として定義されていても良い。いずれにしても、可視光照射画像と非可視光照射画像とから得られたパターンや特徴量が、予め定義された特定の微生物のコロニーにおける画像のパターンや特徴量と一致し、または類似する場合に、当該特定の微生物によってコロニーが形成されていると判定可能である。 In such a configuration, the feature may be defined in advance, and may be defined as an image pattern or as a feature amount. In any case, when the patterns and feature values obtained from the visible light irradiation image and the non-visible light irradiation image match or are similar to the pattern and feature values of the predefined specific microorganism colony. In addition, it can be determined that a colony is formed by the specific microorganism.

識別は、微生物の種類に関する情報の取得であれば良く、特定の微生物であると特定する構成の他、複数の微生物のそれぞれについてコロニーを形成している確率を特定する構成であっても良い。さらに、特定の微生物でないことを推定する構成であっても良い。
ム。
For identification, it is sufficient to acquire information about the type of microorganism, and in addition to identifying a specific microorganism, it may be possible to identify the probability of each of a plurality of microorganisms forming a colony. Furthermore, it may be configured to presume that it is not a specific microorganism.
m.

上述の実施形態において、コロニーに照射された光の波長域と異なる波長域の光を検出するカメラは、コロニーに照射された非可視光の波長域と異なる可視光を検出する可視光カメラであったが、この構成に限定されない。例えば、コロニーに照射された可視光の波長域と異なる非可視光を検出する非可視光カメラによって可視光照射画像が撮影されても良い。 In the above-described embodiments, the camera that detects light in a wavelength range different from the wavelength range of light irradiated to the colonies is a visible light camera that detects visible light that is different from the wavelength range of non-visible light irradiated to the colonies. However, it is not limited to this configuration. For example, a visible light irradiation image may be captured by a non-visible light camera that detects non-visible light different from the wavelength range of the visible light irradiated to the colonies.

上述の実施形態においては、YOLOによって機械学習が行われる構成が採用されているが、むろん、機械学習の手法は、他にも種々の手法を採用可能である。例えば、YOLOで学習されたモデルにおいては、コロニーの位置の特定と微生物の識別との双方を実施可能であるが、これらが別に実施されても良い。具体的には、複数のコロニーが撮影された可視光照射画像および非可視光照射画像からコロニーの選別が行われ、選別されたコロニーのそれぞれについて微生物の種類が識別されても良い。むろん、この場合、コロニーの選別と微生物の種類の識別との双方が機械学習で行われても良いし、少なくとも一方が機械学習で行われてもよい。機械学習によらずに選別や識別が行われる場合、画像のパターンや特徴量の解析等によって自動で選別や識別が行われる構成等を採用可能である。 In the above-described embodiment, a configuration in which machine learning is performed by YOLO is employed, but of course, various other machine learning techniques can be employed. For example, in a model trained by YOLO, both the identification of colonies and the identification of microorganisms can be performed, but these may be performed separately. Specifically, colonies may be selected from visible light irradiation images and non-visible light irradiation images in which a plurality of colonies are photographed, and the type of microorganism may be identified for each of the selected colonies. Of course, in this case, both colony sorting and microorganism type identification may be performed by machine learning, or at least one of them may be performed by machine learning. When selection or identification is performed without relying on machine learning, it is possible to employ a configuration or the like in which selection or identification is automatically performed by analysis of image patterns or feature amounts.

機械学習の態様は限定されず、例えばニューラルネットワークによる機械学習が行われる場合、モデルを構成する層の数やノードの数、活性化関数の種類、損失関数の種類、勾配降下法の種類、勾配降下法の最適化アルゴリズムの種類、ミニバッチ学習の有無やバッチの数、学習率、初期値、過学習抑制手法の種類や有無、畳み込み層の有無、畳み込み演算におけるフィルタのサイズ、フィルタの種類、パディングやストライドの種類、プーリング層の種類や有無、、全結合層の有無、再帰的な構造の有無など、種々の要素を適宜選択して機械学習が行われればよい。むろん、他の機械学習、例えば、深層学習(ディープラーニング)、サポートベクターマシンやクラスタリング、強化学習等によって学習が行われてもよい。 The mode of machine learning is not limited, for example, when machine learning is performed by a neural network, the number of layers and nodes that make up the model, the type of activation function, the type of loss function, the type of gradient descent method, the gradient Type of descent optimization algorithm, presence or absence of mini-batch learning and number of batches, learning rate, initial value, type and presence of overfitting suppression method, presence or absence of convolution layer, size of filter in convolution operation, type of filter, padding , stride type, pooling layer type and presence/absence, fully connected layer presence/absence, recursive structure presence/absence, and other various factors may be appropriately selected to perform machine learning. Of course, learning may be performed by other machine learning, such as deep learning, support vector machine, clustering, reinforcement learning, and the like.

さらに、モデルの構造(例えば、層の数や層毎のノードの数等)が自動的に最適化される機械学習が行われてもよい。さらに、機械学習は、各種の装置で行われて良く、例えば、コロニー識別システムと異なる装置において行われてもよい。この場合、例えば、サーバにおいて機械学習が行われる構成が想定される。この構成においては、例えば、複数のクライアントから教師データが収集され、この教師データに基づいてサーバにおいて機械学習が行われる構成であっても良い。 Furthermore, machine learning may be performed in which the structure of the model (eg, number of layers, number of nodes per layer, etc.) is automatically optimized. Further, machine learning may be performed in a variety of devices, such as in a different device than the colony identification system. In this case, for example, a configuration in which machine learning is performed in the server is assumed. In this configuration, for example, teacher data may be collected from a plurality of clients, and machine learning may be performed in the server based on the teacher data.

さらに、教師データ30aは、種々の手法で用意されて良い。教師データ30aは、コロニーの画像に識別結果を対応づけた情報であるため、通常は、コロニーの画像を撮影することによって生成される。しかし、コロニーは微生物によって形成され、その特徴、例えば、大きさ等を自由に制御することができない。従って、特定の特徴のコロニーを形成することが統計的に困難である場合、当該特徴のコロニーを学習に充分な量になるまで形成させることが困難になり得る。 Furthermore, the teacher data 30a may be prepared by various methods. Since the training data 30a is information in which the identification result is associated with the image of the colony, it is normally generated by photographing the image of the colony. However, colonies are formed by microorganisms, and their characteristics, such as size, cannot be freely controlled. Therefore, if it is statistically difficult to form a colony with a particular characteristic, it may be difficult to form enough colonies with that characteristic for learning.

放線菌等のコロニーにおいては、大きいコロニーと小さいコロニーを多数形成させることが困難であることが判明した。そこで、上限基準以上の大きさのコロニーの画像を、容易に得られる画像から生成しても良い。また、下限基準以下の大きさのコロニーの画像を、容易に得られる画像から生成しても良い。 In colonies of actinomycetes, etc., it was found to be difficult to form a large number of large and small colonies. Therefore, an image of a colony having a size equal to or larger than the upper limit standard may be generated from an easily obtained image. Also, an image of a colony having a size equal to or smaller than the lower limit standard may be generated from an easily obtained image.

なお、容易に得られる画像は、例えば、大きさが下限基準から上限基準の範囲に含まれる画像が想定される。また、画像を生成する際には、画像の拡大や縮小が行われればよい。さらに、拡大や縮小等によって生成される画像は一部であり、残りは実際のコロニーの画像であっても良い。さらに、生成される画像は、可視光照射画像と非可視光照射画像との一方であっても良いし、双方であっても良い。 An image that can be easily obtained is assumed to be an image whose size is within the range from the lower limit reference to the upper limit reference, for example. Moreover, when generating an image, the image may be enlarged or reduced. Furthermore, the image generated by enlargement, reduction, etc. may be part of the image, and the rest may be the actual colony image. Furthermore, the image to be generated may be one or both of the visible light irradiation image and the non-visible light irradiation image.

以上の構成によれば、微生物によって形成されにくい特徴の画像を容易に増加させることができ、容易に教師データを用意することができる。むろん、画像が生成される際には、大きさの変化以外にも種々の処理が行われてよい。例えば、回転や反転などの処理が行われることによって画像が生成されても良い。さらに、上限基準から下限基準に含まれる大きさの画像が水増しによって生成されても良い。なお、上限基準および下限基準は、予め決定されれば良い。上限基準は、当該上限基準以上の大きさの画像が不足するような大きさとして予め定義され、下限基準は、当該下限基準以下の大きさの画像が不足するような大きさとして予め定義される。 According to the above configuration, it is possible to easily increase the number of images having characteristics that are difficult to be formed by microorganisms, and to easily prepare teacher data. Of course, when an image is generated, various processes other than changing the size may be performed. For example, an image may be generated by performing processing such as rotation and inversion. Furthermore, an image having a size that falls between the upper limit criterion and the lower limit criterion may be generated by padding. Note that the upper limit reference and the lower limit reference should be determined in advance. The upper limit standard is defined in advance as a size that will cause an image size greater than or equal to the upper limit standard to be insufficient, and the lower limit standard will be defined in advance as a size that will cause an image size equal to or smaller than the lower limit standard to become insufficient. .

さらに、本発明のように、可視光照射画像と非可視光照射画像とに基づいてコロニーを形成している微生物を識別する手法は、プログラムや方法としても適用可能である。また、以上のようなシステム、プログラム、方法は、単独の装置として実現される場合や、複数の装置によって実現される場合が想定可能であり、各種の態様を含むものである。例えば、以上のような手段を備えた顕微鏡等を提供することが可能である。また、一部がソフトウェアであり一部がハードウェアであったりするなど、適宜、変更可能である。さらに、システムを制御するプログラムの記録媒体としても発明は成立する。むろん、そのソフトウェアの記録媒体は、磁気記録媒体であってもよいし半導体メモリであってもよいし、今後開発されるいかなる記録媒体においても全く同様に考えることができる。 Furthermore, as in the present invention, the technique of identifying microorganisms forming colonies based on images irradiated with visible light and images irradiated with invisible light can also be applied as a program or method. Moreover, the system, program, and method described above can be implemented as a single device or implemented by a plurality of devices, and include various modes. For example, it is possible to provide a microscope or the like equipped with the means described above. In addition, it can be changed as appropriate, such as a part of which is software and a part of which is hardware. Furthermore, the invention is established as a recording medium for a program for controlling the system. Of course, the recording medium for the software may be a magnetic recording medium, a semiconductor memory, or any other recording medium that will be developed in the future.

10…コロニー識別システム、20…制御部、21…コロニー識別プログラム、21a…可視光照射画像取得部、21b…非可視光照射画像取得部、21c…コロニー識別部、22…機械学習プログラム、22a…機械学習部、30…記憶媒体、30a…教師データ、30b…学習済モデル、41…可視光カメラ、41a…可視光源、42…UVカメラ、42a…UV光源、43…表示部、44…出力穴 DESCRIPTION OF SYMBOLS 10... Colony identification system 20... Control part 21... Colony identification program 21a... Visible light irradiation image acquisition part 21b... Non-visible light irradiation image acquisition part 21c... Colony identification part 22... Machine learning program 22a... Machine learning unit 30 Storage medium 30a Teacher data 30b Learned model 41 Visible light camera 41a Visible light source 42 UV camera 42a UV light source 43 Display unit 44 Output hole

Claims (11)

培地に形成された微生物のコロニーに対して可視光が照射された状態で前記コロニーを撮影した画像である可視光照射画像を取得する可視光照射画像取得部と、
前記コロニーに対して非可視光である紫外線が照射された状態で前記コロニーを撮影した画像である非可視光照射画像を取得する非可視光照射画像取得部と、
前記可視光照射画像と前記非可視光照射画像とに基づいて、前記コロニーを形成している前記微生物を識別するコロニー識別部と、
を備え
前記コロニー識別部は、
前記コロニーの前記可視光照射画像および前記非可視光照射画像と当該コロニーを形成している前記微生物の種類とを対応づけた教師データに基づいて機械学習が行われたモデルに対して、識別対象である複数の前記コロニーを撮影した前記可視光照射画像および前記非可視光照射画像を入力し、前記微生物が、識別対象である複数の前記コロニーのそれぞれを形成している確率を、前記微生物の種類毎に同時に出力する、
コロニー識別システム。
a visible light irradiation image acquisition unit that acquires a visible light irradiation image, which is an image of a colony of microorganisms formed in a medium that is photographed while the colony is irradiated with visible light;
an invisible light irradiation image acquisition unit that acquires an invisible light irradiation image that is an image of the colony photographed while the colony is irradiated with ultraviolet light that is invisible light;
a colony identification unit that identifies the microorganisms forming the colony based on the visible light irradiation image and the invisible light irradiation image;
with
The colony identification unit is
A model for which machine learning has been performed based on training data that associates the visible light irradiation image and the invisible light irradiation image of the colony with the types of the microorganisms forming the colony, is identified as an identification target. input the visible light irradiation image and the non-visible light irradiation image obtained by photographing the plurality of colonies, and calculate the probability that the microorganism forms each of the plurality of colonies to be identified. Simultaneously output for each type,
Colony identification system.
前記微生物には放線菌が含まれ、
前記培地は前記放線菌を培養可能である、
請求項1に記載のコロニー識別システム。
The microorganisms include actinomycetes,
The medium is capable of culturing the actinomycete,
Colony identification system according to claim 1.
前記可視光照射画像は、前記可視光が前記コロニーで反射した反射光によって形成され、
前記非可視光照射画像は、前記非可視光が前記コロニーで反射した反射光によって形成される、
請求項1または請求項2に記載のコロニー識別システム。
The visible light irradiation image is formed by reflected light of the visible light reflected by the colony,
The invisible light irradiation image is formed by reflected light of the invisible light reflected by the colony,
A colony identification system according to claim 1 or claim 2.
前記可視光照射画像は、前記可視光が前記コロニーを透過した透過光によって形成され、
前記非可視光照射画像は、前記非可視光が前記コロニーを透過した透過光によって形成される、
請求項1~請求項3のいずれかに記載のコロニー識別システム。
The visible light irradiation image is formed by transmitted light in which the visible light is transmitted through the colony,
The invisible light irradiation image is formed by transmitted light in which the invisible light is transmitted through the colony.
A colony identification system according to any one of claims 1 to 3.
前記可視光照射画像および前記非可視光照射画像の少なくとも一方は、
前記コロニーに照射された光の波長域と異なる波長域の光を検出するカメラで撮影された画像を含む、
請求項1~請求項4のいずれかに記載のコロニー識別システム。
At least one of the visible light irradiation image and the non-visible light irradiation image,
Including an image taken with a camera that detects light in a wavelength range different from the wavelength range of light irradiated to the colony,
A colony identification system according to any one of claims 1 to 4.
前記モデルは、 The model is
識別対象である複数の前記コロニーが形成されている位置と、各コロニーを形成している前記微生物の種類とを同時に出力する、 Simultaneously outputting the positions where the plurality of colonies to be identified are formed and the types of the microorganisms forming each colony;
請求項1~請求項5のいずれかに記載のコロニー識別システム。A colony identification system according to any one of claims 1 to 5.
前記教師データにおいて、
上限基準以上の大きさの前記コロニーの前記可視光照射画像および前記非可視光照射画像と下限基準以下の大きさの前記コロニーの前記可視光照射画像および前記非可視光照射画像との少なくとも一部には、前記上限基準よりも小さく、前記下限基準よりも大きい前記コロニーの画像に基づいて生成された画像が含まれる、
請求項6に記載のコロニー識別システム。
In the teacher data,
At least part of the visible light irradiation image and the invisible light irradiation image of the colony having a size equal to or larger than the upper limit standard and the visible light irradiation image and the invisible light irradiation image of the colony having a size equal to or less than the lower limit standard includes an image generated based on an image of the colony that is less than the upper criterion and greater than the lower criterion.
Colony identification system according to claim 6.
前記モデルは、
前記可視光を検出するカメラで撮影された3チャネルの前記可視光照射画像と、前記可視光を検出するカメラで撮影された3チャネルの前記非可視光照射画像と、前記非可視光を検出するカメラで撮影された1チャネルの前記非可視光照射画像とのそれぞれが別個のニューラルネットワークに入力され、並列的に処理された後に、得られた結果をニューラルネットワークによって合成し、
前記微生物の種類毎に前記コロニーを形成している確率を出力するニューラルネットワークである、
請求項6または請求項に記載のコロニー識別システム。
The model is
The 3-channel visible light irradiation image captured by the camera that detects the visible light, the 3-channel invisible light irradiation image captured by the camera that detects the visible light, and the invisible light are detected. Each of the 1-channel invisible light irradiation image captured by the camera is input to a separate neural network and processed in parallel, and then the obtained results are synthesized by the neural network,
A neural network that outputs the probability of forming the colony for each type of the microorganism,
A colony identification system according to claim 6 or claim 7 .
前記可視光照射画像を撮影する可視光カメラと、 a visible light camera that captures the visible light irradiation image;
前記非可視光照射画像を撮影する非可視光カメラと、 an invisible light camera that captures the invisible light irradiation image;
前記可視光カメラおよび前記非可視光カメラの視野に配置され、前記コロニーを含む前記培地が形成されたシャーレが載せられる透明板と、 A transparent plate placed in the field of view of the visible light camera and the invisible light camera and on which a petri dish on which the culture medium containing the colony is formed is placed;
前記透明板に対して前記可視光カメラおよび前記非可視光カメラと反対側に配置された反射板と、 a reflector disposed on the opposite side of the transparent plate from the visible light camera and the non-visible light camera;
前記透明板の最も広い面を延長した方向に配置され、前記可視光を出力する可視光源と前記非可視光を出力する非可視光源と、をさらに備える、 further comprising a visible light source that outputs the visible light and an invisible light source that outputs the invisible light, which are arranged in a direction extending the widest surface of the transparent plate;
請求項1~請求項8のいずれかに記載のコロニー識別システム。A colony identification system according to any one of claims 1 to 8.
培地に形成された微生物のコロニーに対して可視光が照射された状態で前記コロニーを撮影した画像である可視光照射画像を取得する可視光照射画像取得工程と、
前記コロニーに対して非可視光である紫外線が照射された状態で前記コロニーを撮影した画像である非可視光照射画像を取得する非可視光照射画像取得工程と、
前記可視光照射画像と前記非可視光照射画像とに基づいて、前記コロニーを形成している前記微生物を識別するコロニー識別工程と、
を含み、
前記コロニー識別工程においては、
前記コロニーの前記可視光照射画像および前記非可視光照射画像と当該コロニーを形成している前記微生物の種類とを対応づけた教師データに基づいて機械学習が行われたモデルに対して、識別対象である複数の前記コロニーを撮影した前記可視光照射画像および前記非可視光照射画像を入力し、前記微生物が、識別対象である複数の前記コロニーのそれぞれを形成している確率を、前記微生物の種類毎に同時に出力する、
むコロニー識別方法。
A visible light irradiation image acquisition step of acquiring a visible light irradiation image, which is an image of a colony of microorganisms formed in a medium that is photographed while the colony is irradiated with visible light;
an invisible light irradiation image acquisition step of acquiring an invisible light irradiation image, which is an image of the colony photographed while the colony is irradiated with ultraviolet light, which is invisible light;
a colony identification step of identifying the microorganisms forming the colony based on the visible light irradiation image and the non-visible light irradiation image;
including
In the colony identification step,
A model for which machine learning has been performed based on training data that associates the visible light irradiation image and the invisible light irradiation image of the colony with the types of the microorganisms forming the colony, is identified as an identification target. input the visible light irradiation image and the non-visible light irradiation image obtained by photographing the plurality of colonies, and calculate the probability that the microorganism forms each of the plurality of colonies to be identified. Simultaneously output for each type,
colony identification method.
コンピュータを、
培地に形成された微生物のコロニーに対して可視光が照射された状態で前記コロニーを撮影した画像である可視光照射画像を取得する可視光照射画像取得部、
前記コロニーに対して非可視光である紫外線が照射された状態で前記コロニーを撮影した画像である非可視光照射画像を取得する非可視光照射画像取得部、
前記可視光照射画像と前記非可視光照射画像とに基づいて、前記コロニーを形成している前記微生物を識別するコロニー識別部、
として機能させ、
前記コロニー識別部は、
前記コロニーの前記可視光照射画像および前記非可視光照射画像と当該コロニーを形成している前記微生物の種類とを対応づけた教師データに基づいて機械学習が行われたモデルに対して、識別対象である複数の前記コロニーを撮影した前記可視光照射画像および前記非可視光照射画像を入力し、前記微生物が、識別対象である複数の前記コロニーのそれぞれを形成している確率を、前記微生物の種類毎に同時に出力する、ようにコンピュータを機能させる、
コロニー識別プログラム。
the computer,
a visible light irradiation image acquisition unit that acquires a visible light irradiation image, which is an image of a colony of microorganisms formed in a medium that is photographed while the colony is irradiated with visible light;
an invisible light irradiation image acquisition unit that acquires an invisible light irradiation image that is an image of the colony photographed while the colony is irradiated with ultraviolet light that is invisible light;
a colony identification unit that identifies the microorganisms forming the colony based on the visible light irradiation image and the invisible light irradiation image;
function as
The colony identification unit is
A model for which machine learning has been performed based on training data that associates the visible light irradiation image and the invisible light irradiation image of the colony with the types of the microorganisms forming the colony, is identified as an identification target. input the visible light irradiation image and the non-visible light irradiation image obtained by photographing the plurality of colonies, and calculate the probability that the microorganism forms each of the plurality of colonies to be identified. Make the computer function to output each kind at the same time,
Colony identification program.
JP2018145688A 2018-08-02 2018-08-02 Colony identification system, colony identification method and colony identification program Active JP7148776B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018145688A JP7148776B2 (en) 2018-08-02 2018-08-02 Colony identification system, colony identification method and colony identification program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018145688A JP7148776B2 (en) 2018-08-02 2018-08-02 Colony identification system, colony identification method and colony identification program

Publications (2)

Publication Number Publication Date
JP2020018249A JP2020018249A (en) 2020-02-06
JP7148776B2 true JP7148776B2 (en) 2022-10-06

Family

ID=69589020

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018145688A Active JP7148776B2 (en) 2018-08-02 2018-08-02 Colony identification system, colony identification method and colony identification program

Country Status (1)

Country Link
JP (1) JP7148776B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115066610A (en) 2020-02-05 2022-09-16 住友制药株式会社 Reagent and method for determining TAU pathological changes and dementia-related diseases
JP2022046265A (en) * 2020-09-10 2022-03-23 合同会社H.U.グループ中央研究所 Bacterial species identification support method, multi-colony learning model generation method, bacterial species identification support device and computer program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090197298A1 (en) 2008-01-30 2009-08-06 Alain Rambach Method for detecting microorganisms in a biological sample
JP2014039519A (en) 2012-08-23 2014-03-06 Dainippon Printing Co Ltd Colony detection device, medium information registration system, hygiene control system, and program
JP2017018126A (en) 2011-05-06 2017-01-26 ビオメリューBiomerieux Bio-imaging method
JP2018022216A (en) 2016-08-01 2018-02-08 ソニー株式会社 Information processing device, information processing method, and program
WO2018117273A1 (en) 2016-12-22 2018-06-28 国立大学法人筑波大学 Data creation method and data use method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60184398A (en) * 1984-03-02 1985-09-19 Hitachi Electronics Eng Co Ltd Method of observation of colony and its device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090197298A1 (en) 2008-01-30 2009-08-06 Alain Rambach Method for detecting microorganisms in a biological sample
JP2017018126A (en) 2011-05-06 2017-01-26 ビオメリューBiomerieux Bio-imaging method
JP2014039519A (en) 2012-08-23 2014-03-06 Dainippon Printing Co Ltd Colony detection device, medium information registration system, hygiene control system, and program
JP2018022216A (en) 2016-08-01 2018-02-08 ソニー株式会社 Information processing device, information processing method, and program
WO2018117273A1 (en) 2016-12-22 2018-06-28 国立大学法人筑波大学 Data creation method and data use method

Also Published As

Publication number Publication date
JP2020018249A (en) 2020-02-06

Similar Documents

Publication Publication Date Title
US11861889B2 (en) Analysis device
US11017208B2 (en) System and method for automatically analyzing phenotypical responses of cells
JP6915349B2 (en) Image processing equipment, image processing method, and image processing program
KR102273115B1 (en) Method and system for classifying and identifying individual cells in a microscopy image
US7949181B2 (en) Segmentation of tissue images using color and texture
US8831327B2 (en) Systems and methods for tissue classification using attributes of a biomarker enhanced tissue network (BETN)
JP7135303B2 (en) Computer program, detection device, imaging device, server, detector, detection method and provision method
US20210089749A1 (en) Method for splitting one or more images of a sample into image data split according to dyes, computer program, computer-readable medium storing the program and system for performing the method
JP7148776B2 (en) Colony identification system, colony identification method and colony identification program
Hulse et al. Using deep neural networks to model similarity between visual patterns: Application to fish sexual signals
EP3973447B1 (en) Surface recognition
Madani et al. A soft-computing-based approach to artificial visual attention using human eye-fixation paradigm: toward a human-like skill in robot vision
Fazli et al. Toward simple & scalable 3D cell tracking
US20240070537A1 (en) Microscopy System and Method for Generating a Machine-Learned Model for Processing Microscope Data
EP4325201A2 (en) Apparatuses, computer-implemented methods, and computer program products for improved generation of object identification data
JP7085909B2 (en) Image processing device, cell recognition device, cell recognition method and cell recognition program
Dave A Multiple Input Multiple Output Framework for the Automatic OpticalFractionator-Based Cell Counting in Z-Stacks Using Deep Learning
US20220277571A1 (en) System, method and computer-readable medium for supporting annotation
EP4040383A1 (en) Data processing apparatus and method for processing a digital image having photon arrival-time data
Aladago Classification and quantification of malaria parasites using convolutional neural networks.

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210628

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220511

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220628

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220817

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220902

R150 Certificate of patent or registration of utility model

Ref document number: 7148776

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150