JP7091635B2 - Object detector, image analysis device, object detection method, image analysis method, program, and training data - Google Patents

Object detector, image analysis device, object detection method, image analysis method, program, and training data Download PDF

Info

Publication number
JP7091635B2
JP7091635B2 JP2017220345A JP2017220345A JP7091635B2 JP 7091635 B2 JP7091635 B2 JP 7091635B2 JP 2017220345 A JP2017220345 A JP 2017220345A JP 2017220345 A JP2017220345 A JP 2017220345A JP 7091635 B2 JP7091635 B2 JP 7091635B2
Authority
JP
Japan
Prior art keywords
detection
sample
image
detected
detector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017220345A
Other languages
Japanese (ja)
Other versions
JP2019091308A (en
Inventor
智紀 赤井
勇司 都築
晶 佐波
将慶 籠田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2017220345A priority Critical patent/JP7091635B2/en
Publication of JP2019091308A publication Critical patent/JP2019091308A/en
Application granted granted Critical
Publication of JP7091635B2 publication Critical patent/JP7091635B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Apparatus Associated With Microorganisms And Enzymes (AREA)
  • Image Analysis (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Description

本開示は、検体の画像を分析する技術に関する。 The present disclosure relates to a technique for analyzing an image of a sample.

近年、タイムラプス装置の普及により、検体の経時的な変化を観察することが可能となっている。例えば、特許文献1は、培養容器内の細胞をタイムラプス装置により画像処理する手法を記載している。 In recent years, with the spread of time-lapse devices, it has become possible to observe changes over time in a sample. For example, Patent Document 1 describes a method of image processing cells in a culture vessel with a time-lapse device.

特開2009-152827号公報Japanese Unexamined Patent Publication No. 2009-152827

しかし、特許文献1のように、対象物を照明しつつ撮影画像を取得する方法では、照明の位置や方向との関係で撮影画像における対象物の見え方に差異が生じるため、画像解析の精度が低下してしまうという問題がある。 However, in the method of acquiring a photographed image while illuminating the object as in Patent Document 1, the appearance of the object in the photographed image differs depending on the position and direction of the illumination, so that the accuracy of image analysis is correct. There is a problem that is reduced.

本開示は、照明の影響による検出精度の低下を防止することが可能な画像解析装置を提供することを主な目的とする。 It is a main object of the present disclosure to provide an image analysis apparatus capable of preventing a decrease in detection accuracy due to the influence of lighting.

本願は上記課題を解決する手段を複数含んでいるが、その一例を挙げるならば、検体の撮影画像から、前記検体に含まれる検出対象物を検出する対象物検出器は、学習時に、前記検体の撮影画像である入力データと、当該撮影画像に含まれる前記検出対象物を含む領域を前記検出対象物を含むように複数の部分に分割した分割部分毎に用意された教師データとにより学習を行い、検出時に、実際の検体の撮影画像を入力データとして受け取り、当該撮影画像に含まれる検出対象物の検出結果を出力する。
The present application includes a plurality of means for solving the above-mentioned problems. For example, an object detector that detects a detection object contained in the sample from a photographed image of the sample is a sample at the time of learning. Learning is performed by the input data which is the captured image of the above and the teacher data prepared for each divided portion in which the region including the detection object included in the captured image is divided into a plurality of portions so as to include the detection object. At the time of detection, the captured image of the actual sample is received as input data, and the detection result of the detection target contained in the captured image is output.

本願は上記課題を解決する手段を複数含んでいるが、その他の一例を挙げるならば、検体の撮影画像から、前記検体に含まれる検出対象物を検出する画像解析装置は、前記検体の撮影画像から、当該検体に含まれる検出対象物を検出する対象物検出器を備え、前記対象物検出器は、前記検体の撮影画像である入力データと、当該撮影画像に含まれる前記検出対象物を含む領域を前記検出対象物を含むように複数の部分に分割した分割部分毎に用意された教師データとを含む複数の学習データにより学習済みである。
本願は上記課題を解決する手段を複数含んでいるが、その他の一例を挙げるならば、検体の撮影画像から、前記検体に含まれる検出対象物を検出する画像解析装置は、前記検体の撮影画像から、当該検体に含まれる検出対象物を検出する対象物検出器を備え、前記対象物検出器は、前記検体の撮影画像である入力データと、当該撮影画像に含まれる前記検出対象物を含む領域を複数の部分に分割した分割部分毎に用意された教師データとを含む複数の学習データにより学習済みであり、前記分割部分は、前記検出対象物の構造に起因する画素値の分布を含む。
The present application includes a plurality of means for solving the above problems, but to give another example, an image analysis device for detecting a detection target contained in the sample from the photographed image of the sample is a photographed image of the sample. The object detector is provided with an object detector for detecting an object to be detected contained in the sample, and the object detector includes input data which is a photographed image of the sample and the detection object included in the photographed image. It has been learned by a plurality of training data including the teacher data prepared for each divided portion in which the region is divided into a plurality of portions so as to include the detection target .
The present application includes a plurality of means for solving the above problems, but to give another example, an image analysis device for detecting a detection target contained in the sample from the photographed image of the sample is a photographed image of the sample. The object detector is provided with an object detector for detecting an object to be detected contained in the sample, and the object detector includes input data which is a photographed image of the sample and the detection object included in the photographed image. It has been trained by a plurality of training data including teacher data prepared for each divided portion in which the region is divided into a plurality of portions, and the divided portion includes a distribution of pixel values due to the structure of the detection object. ..

本願は上記課題を解決する手段を複数含んでいるが、その他の一例を挙げるならば、コンピュータを備え、検体の撮影画像から、前記検体に含まれる検出対象物を検出する対象物検出器により実行されるプログラムは、学習時に、前記検体の撮影画像である入力データと、当該撮影画像に含まれる前記検出対象物を含む領域を前記検出対象物を含むように複数の部分に分割した分割部分毎に用意された教師データとにより学習を行う手段、検出時に、実際の検体の撮影画像を入力データとして受け取り、当該撮影画像に含まれる検出対象物の検出結果を出力する手段、として前記コンピュータを機能させる。
The present application includes a plurality of means for solving the above problems, but to give another example, the present application is provided with a computer and executed by an object detector that detects an object to be detected contained in the sample from a photographed image of the sample. At the time of learning, the program to be executed is divided into a plurality of parts so as to include the input data which is a photographed image of the sample and the area including the detection object included in the photographed image. The computer functions as a means for learning based on the teacher data prepared in the above, a means for receiving a photographed image of an actual sample as input data at the time of detection, and a means for outputting the detection result of the detection target contained in the photographed image. Let me.

本願は上記課題を解決する手段を複数含んでいるが、その他の一例を挙げるならば、コンピュータを備え、検体の撮影画像から、前記検体に含まれる検出対象物を検出する画像解析装置によって実行されるプログラムは、前記検体の撮影画像から、当該検体に含まれる検出対象物を検出する対象物検出器として前記コンピュータを機能させ、前記対象物検出器は、前記検体の撮影画像である入力データと、当該撮影画像に含まれる前記検出対象物を含む領域を前記検出対象物を含むように複数の部分に分割した分割部分毎に用意された教師データとを含む複数の学習データにより学習済みである。
本願は上記課題を解決する手段を複数含んでいるが、その他の一例を挙げるならば、コンピュータを備え、検体の撮影画像から、前記検体に含まれる検出対象物を検出する画像解析装置によって実行されるプログラムは、前記検体の撮影画像から、当該検体に含まれる検出対象物を検出する対象物検出器として前記コンピュータを機能させ、前記対象物検出器は、前記検体の撮影画像である入力データと、当該撮影画像に含まれる前記検出対象物を含む領域を複数の部分に分割した分割部分毎に用意された教師データとを含む複数の学習データにより学習済みであり、前記分割部分は、前記検出対象物の構造に起因する画素値の分布を含む。
The present application includes a plurality of means for solving the above problems, but to give another example, it is executed by an image analysis device equipped with a computer and detecting an object to be detected contained in the sample from a photographed image of the sample. Program causes the computer to function as an object detector that detects an object to be detected contained in the sample from the captured image of the sample, and the object detector uses input data that is a captured image of the sample. , The region including the detection target included in the captured image is divided into a plurality of portions so as to include the detection target, and the training data including the teacher data prepared for each divided portion has been learned. ..
The present application includes a plurality of means for solving the above problems, but to give another example, it is executed by an image analysis device equipped with a computer and detecting an object to be detected contained in the sample from a photographed image of the sample. Program causes the computer to function as an object detector that detects an object to be detected contained in the sample from the captured image of the sample, and the object detector uses input data that is a captured image of the sample. , The region including the detection target included in the captured image has been learned by a plurality of learning data including the teacher data prepared for each divided portion divided into a plurality of portions, and the divided portion is the detection. Includes the distribution of pixel values due to the structure of the object.

本願は上記課題を解決する手段を複数含んでいるが、その他の一例を挙げるならば、コンピュータを備え、検体の撮影画像から、前記検体に含まれる検出対象物の個数毎の確率を算出するよう、前記コンピュータを機能させるための学習済みモデルは、第1のニューラルネットワークと、前記第1のニューラルネットワークからの出力が入力されるように結合された第2のニューラルネットワークとから構成され、前記第1のニューラルネットワークが、前記検体の撮影画像である入力データと、当該撮影画像に含まれる前記検出対象物を含む領域を複数の部分に分割した分割部分毎に用意された教師データとを含む複数の学習データにより学習済みであり、前記検体の撮影画像を基に当該撮影画像に含まれる前記検出対象物を含む領域を複数の部分に分割した分割画像を出力するように構成されており、前記第2のニューラルネットワークが、前記対象物検出器により検出対象物が検出された検出情報を含む入力データと、当該検出情報に含まれる前記検出対象物の個数毎の確率を示す教師データとにより学習済みであり、前記対象物検出器により検出対象物が検出された検出情報を基に当該検出情報に含まれる前記検出対象物の個数毎の確率を出力するように構成されている。 The present application includes a plurality of means for solving the above-mentioned problems, but to give another example, a computer is provided, and the probability for each number of detection objects contained in the sample is calculated from the photographed image of the sample. The trained model for operating the computer comprises a first neural network and a second neural network coupled so that the output from the first neural network is input. A plurality of neural networks including 1 input data which is a photographed image of the sample and teacher data prepared for each divided portion in which a region including the detection target included in the captured image is divided into a plurality of portions. It has been learned from the training data of the above, and it is configured to output a divided image in which a region including the detection target object included in the captured image is divided into a plurality of parts based on the captured image of the sample. The second neural network learns from the input data including the detection information in which the detection target is detected by the object detector and the teacher data showing the probability for each number of the detection objects included in the detection information. It has already been completed, and it is configured to output the probability for each number of the detection objects included in the detection information based on the detection information in which the detection object is detected by the object detector.

本願は上記課題を解決する手段を複数含んでいるが、その他の一例を挙げるならば、検体の撮影画像から、前記検体に含まれる検出対象物を検出する対象物検出器により実行される対象物検出方法は、学習時に、前記検体の撮影画像である入力データと、当該撮影画像に含まれる前記検出対象物を含む領域を前記検出対象物を含むように複数の部分に分割した分割部分毎に用意された教師データとにより学習を行う工程と、検出時に、実際の検体の撮影画像を入力データとして受け取り、当該撮影画像に含まれる検出対象物の検出結果を出力する工程と、を備える。
The present application includes a plurality of means for solving the above problems, but to give another example, an object executed by an object detector that detects an object to be detected contained in the sample from a photographed image of the sample. At the time of learning, the detection method is for each divided portion in which the input data which is the captured image of the sample and the region including the detection target included in the captured image are divided into a plurality of portions so as to include the detection target. It includes a step of learning with the prepared teacher data and a step of receiving a photographed image of an actual sample as input data at the time of detection and outputting a detection result of a detection object included in the photographed image.

本願は上記課題を解決する手段を複数含んでいるが、その他の一例を挙げるならば、検体の撮影画像から、前記検体に含まれる検出対象物を検出する画像解析装置によって実行される画像解析方法は、対象物検出器により、前記検体の撮影画像から、当該検体に含まれる検出対象物を検出する対象物検出工程を備え、前記対象物検出器は、前記検体の撮影画像である入力データと、当該撮影画像に含まれる前記検出対象物を含む領域を前記検出対象物を含むように複数の部分に分割した分割部分毎に用意された教師データとを含む複数の学習データにより学習済みである。
本願は上記課題を解決する手段を複数含んでいるが、その他の一例を挙げるならば、検体の撮影画像から、前記検体に含まれる検出対象物を検出する画像解析装置によって実行される画像解析方法は、対象物検出器により、前記検体の撮影画像から、当該検体に含まれる検出対象物を検出する対象物検出工程を備え、前記対象物検出器は、前記検体の撮影画像である入力データと、当該撮影画像に含まれる前記検出対象物を含む領域を複数の部分に分割した分割部分毎に用意された教師データとを含む複数の学習データにより学習済みであり、前記分割部分は、前記検出対象物の構造に起因する画素値の分布を含む。
The present application includes a plurality of means for solving the above problems, but to give another example, an image analysis method executed by an image analysis device that detects an object to be detected contained in the sample from a photographed image of the sample. The object detector comprises an object detection step of detecting an object to be detected contained in the sample from the photographed image of the sample, and the object detector includes input data which is a photographed image of the sample. , The region including the detection target included in the captured image is divided into a plurality of portions so as to include the detection target, and the training data including the teacher data prepared for each divided portion has been learned. ..
The present application includes a plurality of means for solving the above problems, but to give another example, an image analysis method executed by an image analysis device that detects an object to be detected contained in the sample from a photographed image of the sample. The object detector comprises an object detection step of detecting an object to be detected contained in the sample from the photographed image of the sample, and the object detector includes input data which is a photographed image of the sample. , The region including the detection target included in the captured image has been trained by a plurality of learning data including the teacher data prepared for each divided portion divided into a plurality of portions, and the divided portion is the detection. Includes the distribution of pixel values due to the structure of the object.

本開示によれば、画像解析装置において、照明の影響による検出精度の低下を防止することが可能となる。 According to the present disclosure, it is possible to prevent a decrease in detection accuracy due to the influence of lighting in an image analysis device.

実施形態に係る受精卵の画像解析システムの構成を示す。The configuration of the image analysis system of the fertilized egg according to the embodiment is shown. 培養容器及び受精卵の撮影画像の例を示す。An example of a photographed image of a culture vessel and a fertilized egg is shown. 前核数推定処理のフローチャートである。It is a flowchart of the pronucleus number estimation process. 受精卵の検出方法を説明する図である。It is a figure explaining the detection method of a fertilized egg. 前核外周部の検出処理に利用される学習データの例を示す。An example of learning data used for the detection process of the outer periphery of the pronucleus is shown. 前核外周部を検出する第1の検出方法を説明する図である。It is a figure explaining the 1st detection method which detects the peripheral part of the pronucleus. 前核外周部を検出する第2の検出方法を説明する図である。It is a figure explaining the 2nd detection method which detects the peripheral part of the pronucleus. 前核外周部を4分割して機械学習する方法を説明する図である。It is a figure explaining the method of machine learning by dividing the anterior hypothalium outer peripheral part into four. 前核数の確率を算出する方法を説明する図である。It is a figure explaining the method of calculating the probability of the number of pronuclei. 前核数の確率を算出する処理に利用されるデータの例を示す。An example of the data used for the process of calculating the probability of the number of pronuclei is shown. ニューラルネットワークの多段構成を示す図である。It is a figure which shows the multi-stage structure of a neural network. 各時刻での前核数を判定する例を示す。An example of determining the number of pronuclei at each time is shown. 全時刻での前核数の判定結果を示すグラフである。It is a graph which shows the determination result of the number of pronuclei at all time. 前核外周部検出処理の方法に応じた前核数の判定精度を示す表である。It is a table which shows the determination accuracy of the number of pronuclei according to the method of the pronucleus outer peripheral part detection processing. 前核数を離散値により表示した例を示す。An example of displaying the number of pronuclei by discrete values is shown. 前核数を連続値により表示した例である。This is an example of displaying the number of pronuclei by continuous values. 第2の検出方法による前核外周部の検出結果を示す画像の表示例である。This is a display example of an image showing the detection result of the outer peripheral portion of the pronucleus by the second detection method.

以下、本開示の好適な実施形態について説明する。
[システム構成]
図1は、実施形態に係る受精卵の画像解析システムの構成を示す。図示のように、画像解析システム100は、大別して、撮影装置50と、記憶装置55と、画像解析装置60とを備える。
Hereinafter, preferred embodiments of the present disclosure will be described.
[System configuration]
FIG. 1 shows the configuration of an image analysis system for a fertilized egg according to an embodiment. As shown in the figure, the image analysis system 100 is roughly classified into a photographing device 50, a storage device 55, and an image analysis device 60.

撮影装置50は、インキュベータ9を有し、インキュベータ9に設けられた図示しないチャンバ(室)に載置された培養容器10内の受精卵の画像を撮影し、記憶する。各培養容器10内には複数の受精卵が載置されており、撮影装置50は受精卵を識別するための識別情報、例えば、受精卵が収容されているウェルの識別情報などと対応付けて撮影画像を記憶装置55に送信する。具体的には、撮影画像50は、予め培養容器10内の各ウェル位置に対応したXY座標を記録しており、そのXY座標情報から、各ウェルを識別してもよいし、撮影開始時などに、各ウェル位置に対応付けるXY座標を微調整して、個別にウェル位置として座標登録をしてもよい。 The photographing apparatus 50 has an incubator 9 and photographs and stores an image of a fertilized egg in a culture vessel 10 placed in a chamber (chamber) (not shown) provided in the incubator 9. A plurality of fertilized eggs are placed in each culture container 10, and the photographing apparatus 50 associates them with identification information for identifying the fertilized eggs, for example, identification information of a well containing the fertilized eggs. The captured image is transmitted to the storage device 55. Specifically, the captured image 50 records the XY coordinates corresponding to the positions of the wells in the culture vessel 10 in advance, and each well may be identified from the XY coordinate information, or at the start of imaging, etc. In addition, the XY coordinates associated with each well position may be finely adjusted and the coordinates may be individually registered as the well position.

撮影装置50は、光源51と、カメラ52と、制御部53と、通信部54とを備える。光源51は、撮影のために培養容器10内の受精卵を上方から照明する。光源51は、点光源であっても面光源であっても、複数の点光源、面光源であってもよい。光源51による照明は、制御部53により制御される。 The photographing device 50 includes a light source 51, a camera 52, a control unit 53, and a communication unit 54. The light source 51 illuminates the fertilized egg in the culture vessel 10 from above for photographing. The light source 51 may be a point light source, a surface light source, a plurality of point light sources, or a surface light source. The illumination by the light source 51 is controlled by the control unit 53.

カメラ52は、培養容器10の下方に移動可能に配置され、光源51により照明された状態の受精卵を撮影する。カメラ52は図示しないアクチュエータなどにより移動する。アクチュエータによるカメラ52の移動、及び、カメラ52による撮影は、制御部53により制御される。カメラ52は、観察開始から所定時間において、同じ培養容器10内の複数の受精卵を異なる時刻で撮影する。なお、同じ培養容器10内の複数の受精卵を撮影する場合、カメラ52が移動する代わりに培養容器10が移動する構造でもよく、カメラ52と培養容器10のいずれも移動せずに培養容器10内の受精卵全体を撮影する構造であってもよい。 The camera 52 is movably arranged below the culture vessel 10 and photographs the fertilized egg in a state of being illuminated by the light source 51. The camera 52 is moved by an actuator (not shown) or the like. The movement of the camera 52 by the actuator and the shooting by the camera 52 are controlled by the control unit 53. The camera 52 photographs a plurality of fertilized eggs in the same culture vessel 10 at different times at a predetermined time from the start of observation. When photographing a plurality of fertilized eggs in the same culture vessel 10, the culture vessel 10 may move instead of the camera 52, and the culture vessel 10 does not move either the camera 52 or the culture vessel 10. The structure may be such that the entire fertilized egg inside is photographed.

制御部53は、光源51による照明、カメラ52の移動及びカメラ52による撮影を制御する。また、制御部53は、カメラ52から撮影画像を取得した場合、通信部54を制御することで、撮影画像を記憶装置55に送信する。 The control unit 53 controls lighting by the light source 51, movement of the camera 52, and shooting by the camera 52. Further, when the control unit 53 acquires the captured image from the camera 52, the control unit 53 controls the communication unit 54 to transmit the captured image to the storage device 55.

記憶装置55は、図示しない制御部、記憶部、通信部などを有し、各撮影装置50から送信される撮影画像を受信し、受信した撮影画像を記憶する。この場合、例えば、記憶装置55は、撮影装置50に設けられたインキュベータ9ごとにフォルダを設け、撮影画像を対応するフォルダに対応付けて記憶する。なお、記憶装置55は、上述のフォルダに対してチャンバごとのサブフォルダをさらに設け、撮影画像をチャンバごとに分類して記憶してもよい。また、記憶装置55は、画像解析装置60から撮影画像の取得要求を受信した場合に、当該取得要求により指定された撮影画像を画像解析装置60へ送信する。 The storage device 55 has a control unit, a storage unit, a communication unit, and the like (not shown), receives a photographed image transmitted from each photographing device 50, and stores the received photographed image. In this case, for example, the storage device 55 provides a folder for each incubator 9 provided in the photographing device 50, and stores the photographed image in association with the corresponding folder. The storage device 55 may further provide a subfolder for each chamber with respect to the above-mentioned folder, and classify and store captured images for each chamber. Further, when the storage device 55 receives the acquisition request of the captured image from the image analysis device 60, the storage device 55 transmits the captured image specified by the acquisition request to the image analysis device 60.

画像解析装置60は、PC(Personal Computer)などにより構成され、受精卵の撮影画像に基づいて、受精卵に含まれる前核を検出する。受精卵は本開示の「検体」の一例であり、前核は本開示の「検出対象物」の一例である。画像解析装置60は、主に、通信部61と、入力部62と、記憶部63と、表示部64と、制御部65とを備える。 The image analysis device 60 is configured by a PC (Personal Computer) or the like, and detects the pronucleus contained in the fertilized egg based on the photographed image of the fertilized egg. The fertilized egg is an example of the "specimen" of the present disclosure, and the pronucleus is an example of the "detection target" of the present disclosure. The image analysis device 60 mainly includes a communication unit 61, an input unit 62, a storage unit 63, a display unit 64, and a control unit 65.

通信部61は、制御部65の制御に基づき、記憶装置55から受精卵の撮影画像を受信する。入力部62は、キーボード、マウス、回転操作が可能なホイールデバイス、タッチパネル、音声入力装置などであり、後述する前核数推定処理において使用される受精卵やその撮影画像などを指定する入力信号などを生成して制御部65へ供給する。記憶部63は、制御部65が実行するプログラム及びプログラムの実行に必要な情報を記憶する。例えば、記憶部63は、前核数推定処理に必要なプログラムを記憶する。表示部64は、制御部65の制御に基づき、前核数の検出結果を表示する。制御部65は、画像解析装置60の全体の制御を行う。制御部65は本開示の「対象物検出器」、「個数検出器」の一例であり、表示部64は本開示の「結果出力部」の一例である。 The communication unit 61 receives a photographed image of the fertilized egg from the storage device 55 under the control of the control unit 65. The input unit 62 is a keyboard, a mouse, a wheel device capable of rotation operation, a touch panel, a voice input device, and the like, and is an input signal for designating a fertilized egg used in the pronuclear number estimation process described later, a photographed image thereof, and the like. Is generated and supplied to the control unit 65. The storage unit 63 stores the program executed by the control unit 65 and the information necessary for executing the program. For example, the storage unit 63 stores a program required for the pronuclear number estimation process. The display unit 64 displays the detection result of the number of pronuclei based on the control of the control unit 65. The control unit 65 controls the entire image analysis device 60. The control unit 65 is an example of the "object detector" and the "number detector" of the present disclosure, and the display unit 64 is an example of the "result output unit" of the present disclosure.

[撮影画像]
図2は、培養容器10及び受精卵の撮影画像の例を示す。培養容器10は円形の容器であり、中央部に収容部11が形成されている。収容部11内には、複数(図2の例では5×5=25個)のウェル12が形成されている。ウェル12は受精卵を収容するための窪みであり、1つのウェル12に1つの受精卵が収容される。図2(A)に示すように、収容部11は培養液13で満たされている。
[Shooted image]
FIG. 2 shows an example of a photographed image of the culture vessel 10 and the fertilized egg. The culture container 10 is a circular container, and a storage portion 11 is formed in the central portion. A plurality of wells 12 (5 × 5 = 25 in the example of FIG. 2) are formed in the accommodating portion 11. The well 12 is a recess for accommodating a fertilized egg, and one fertilized egg is accommodated in one well 12. As shown in FIG. 2A, the accommodating portion 11 is filled with the culture solution 13.

図2(B)には、1つのウェル12の部分の撮影画像20が示されている。ウェル12内に受精卵が収容されている場合、撮影画像20は、ウェル12と、ウェル12内にある受精卵30とを含む。図2(B)の例では、受精卵30は2つの前核32を含んでいる。撮影装置50は、いわゆるタイムラプス観察により、同一の受精卵(即ち、同一のウェル12)についての撮影画像を所定時間間隔で複数生成し、記憶する。なお、撮影装置50は、ウェル12毎に画像を撮影するものとする。 FIG. 2B shows a captured image 20 of a portion of one well 12. When the fertilized egg is housed in the well 12, the photographed image 20 includes the well 12 and the fertilized egg 30 in the well 12. In the example of FIG. 2B, the fertilized egg 30 contains two pronuclei 32. The photographing apparatus 50 generates and stores a plurality of photographed images of the same fertilized egg (that is, the same well 12) at predetermined time intervals by so-called time-lapse observation. The photographing device 50 shall capture an image for each well 12.

[前核数推定処理]
次に、前核数推定処理について説明する。前核数推定処理は、受精卵の撮影画像に基づいて、受精卵に含まれる前核を検出し、前核の数を推定する処理であり、画像解析装置60により実行される。図3は、前核数推定処理のフローチャートである。この処理は、画像解析装置60の制御部65が、予め用意されたプログラムを実行することにより実現される。
[Pre-nuclear number estimation process]
Next, the pronuclear number estimation process will be described. The pronucleus number estimation process is a process of detecting the pronuclei contained in the fertilized egg based on the photographed image of the fertilized egg and estimating the number of pronuclei, and is executed by the image analysis device 60. FIG. 3 is a flowchart of the pronucleus number estimation process. This process is realized by the control unit 65 of the image analysis device 60 executing a program prepared in advance.

まず、制御部65は、処理の対象となる受精卵の各時刻の撮影画像を記憶装置55から取得する(ステップS11)。具体的には、制御部65は、処理の対象となる受精卵について、受精後所定時間(例えば24時間程度)の間に所定の時間間隔で得られた撮影画像を記憶装置55から取得する。 First, the control unit 65 acquires a photographed image of the fertilized egg to be processed at each time from the storage device 55 (step S11). Specifically, the control unit 65 acquires captured images obtained from the storage device 55 at predetermined time intervals during a predetermined time (for example, about 24 hours) after fertilization for the fertilized egg to be processed.

次に、制御部65は受精卵検出処理を行う(ステップS12)。受精卵検出処理は、ステップS11で得られた各画像から受精卵を検出する処理である。本実施形態では、制御部65は、ハフ変換により受精卵を検出する。ハフ変換とは、画像中から特定の構造(直線、真円、楕円など)を検出する手法であり、部分的に隠れている対象物や、僅かに変形している対象物なども検出することができる。なお、受精卵は真円に近いので、ここでは制御部65はハフ変換により真円を検出する。 Next, the control unit 65 performs a fertilized egg detection process (step S12). The fertilized egg detection process is a process of detecting a fertilized egg from each image obtained in step S11. In the present embodiment, the control unit 65 detects the fertilized egg by Hough transform. The Hough transform is a method for detecting a specific structure (straight line, perfect circle, ellipse, etc.) in an image, and also detects an object that is partially hidden or slightly deformed. Can be done. Since the fertilized egg is close to a perfect circle, the control unit 65 detects the perfect circle by Hough transform here.

図4(A)に受精卵の撮影画像20の一例を示す。制御部65は、ウェル12の内部の画素の明るさ(輝度)を解析し、明るさが隣の画素から急激に変わる画素を円周候補画素として検出する。そして、図4(B)に示すように、制御部65は、円周候補画素と最も多く重なる真円を受精卵30として検出する。なお、制御部65は、一般的な受精卵のサイズの範囲に属する真円を受精卵として検出する。ハフ変換は、円周候補画素との重なりの多少に基づいて検出を行うので、受精卵の一部が隠れていたり、部分的に変形している場合でも、受精卵30を正しく検出することができる。 FIG. 4A shows an example of a photographed image 20 of a fertilized egg. The control unit 65 analyzes the brightness (luminance) of the pixels inside the well 12, and detects a pixel whose brightness suddenly changes from the adjacent pixel as a circumferential candidate pixel. Then, as shown in FIG. 4B, the control unit 65 detects the perfect circle that most overlaps with the circumferential candidate pixels as the fertilized egg 30. The control unit 65 detects a perfect circle belonging to a general fertilized egg size range as a fertilized egg. Since the Hough transform performs detection based on the degree of overlap with the circumferential candidate pixels, it is possible to correctly detect the fertilized egg 30 even if a part of the fertilized egg is hidden or partially deformed. can.

次に、制御部65は検出対象物を含む領域を検出する処理として、前核外周部検出処理を行う(ステップS13)。前核外周部検出処理は、ステップS12で検出された受精卵30内に存在する検出対象物としての前核の外周輪郭形状を定める外周部を含む領域を検出する処理(「前核外周部の検出」と呼ぶ。)である。ここでは、前核外周部の検出には、ニューラルネットワークを用いた機械学習(ディープラーニング)を利用するが、ニューラルネットワークに限定されるものではなく、他の機械学習(例えば、SVM:サポートベクターマシン、RAMDOM FOREST:ランダムフォレスト)のアルゴリズムを用いることもできる。なお、前核は真円や楕円の形状ではないものの、外周形状が滑らかに変化するものが多い。よって、実際は円形ではないものの、前核外周部検出処理においては、円や楕円などのドーナツ状の円形状を当てはめて前核外周部を検出することとしてもよい。以下、前核外周部の検出方法の2つの例を説明する。 Next, the control unit 65 performs a pronucleus peripheral portion detection process as a process of detecting a region including a detection target (step S13). The pronucleus outer peripheral portion detection process is a process of detecting a region including the outer peripheral portion that determines the outer peripheral contour shape of the pronucleus as a detection target existing in the fertilized egg 30 detected in step S12 (“pronucleus outer peripheral portion”). It is called "detection".) Here, machine learning (deep learning) using a neural network is used to detect the outer periphery of the pronucleus, but the present invention is not limited to the neural network, and other machine learning (for example, SVM: support vector machine) is used. , RAMDOM FOREST: Random Forest) algorithm can also be used. Although the pronucleus is not a perfect circle or an ellipse, the outer peripheral shape often changes smoothly. Therefore, although it is not actually circular, in the front nucleus outer peripheral portion detection process, a donut-shaped circular shape such as a circle or an ellipse may be applied to detect the front nucleus outer peripheral portion. Hereinafter, two examples of the detection method of the outer peripheral portion of the pronucleus will be described.

(第1の検出方法)
図5(A)は、第1の検出方法により前核外周部の機械学習に利用する学習データの例を示す。学習データは、学習用入力データと、ニューラルネットワークからの目標出力である教師データとを含む。図示のように、学習用入力データとしては、受精卵30の画像(以下、「受精卵画像」とも呼ぶ。)25を用いる。なお、受精卵画像25は、図4に示すウェル12全体を含む撮影画像20から、受精卵30の部分を切り出した画像である。
(First detection method)
FIG. 5A shows an example of learning data used for machine learning of the outer periphery of the pronucleus by the first detection method. The training data includes training input data and teacher data which is a target output from the neural network. As shown in the figure, as the input data for learning, an image 25 of the fertilized egg 30 (hereinafter, also referred to as “fertilized egg image”) 25 is used. The fertilized egg image 25 is an image obtained by cutting out a portion of the fertilized egg 30 from the photographed image 20 including the entire well 12 shown in FIG.

図6は、第1の検出方法により前核外周部を検出する方法を模式的に示す。前核外周部の検出は、教師あり機械学習により学習したニューラルネットワーク71を利用する。まず、学習時には、図5(A)に示す学習データ、即ち、学習用入力データと教師データとをニューラルネットワーク71に与え、学習させる。この際、具体的には、図6に示すように、受精卵画像25から所定サイズの領域(例えば、30×30画素の領域。以下、「画像パッチ」と呼ぶ。)21を抽出し、画像パッチ21の単位で学習用入力データをニューラルネットワーク71に入力する。画像パッチ21は、受精卵画像25内で1画素ずつ位置をシフトしつつ切り出される。一方、教師データは、1つの画像パッチ21毎に、その中心の画素値(白/黒)として用意される。画像パッチ21毎の目標出力を示す画素値を受精卵画像25の分だけ統合したものが、図5(A)に示す教師データとなる。統合された教師データでは、検出対象物を含む領域として、検出対象物の外周輪郭形状を定める外周部を含む領域を含み、特に外周部を含む領域として、外周部の構造に起因する輝度分布を含む領域(例えば、外周部及び外周部周辺の外周部に起因する明暗が生じる領域、影部分を含む。)を識別できるようにすることが好ましい。このように、制御部65は、予め用意した学習用入力データと教師データを画像パッチ21の単位でニューラルネットワーク71に与えて学習を行う。 FIG. 6 schematically shows a method of detecting the outer peripheral portion of the pronucleus by the first detection method. The detection of the outer periphery of the pronucleus uses a neural network 71 learned by supervised machine learning. First, at the time of learning, the learning data shown in FIG. 5A, that is, the learning input data and the teacher data are given to the neural network 71 and trained. At this time, specifically, as shown in FIG. 6, a region of a predetermined size (for example, a region of 30 × 30 pixels; hereinafter referred to as an “image patch”) 21 is extracted from the fertilized egg image 25, and the image is taken. The training input data is input to the neural network 71 in units of the patch 21. The image patch 21 is cut out while shifting the position one pixel at a time in the fertilized egg image 25. On the other hand, the teacher data is prepared as a pixel value (white / black) at the center of each image patch 21. The teacher data shown in FIG. 5A is obtained by integrating the pixel values indicating the target output for each image patch 21 for the fertilized egg image 25. In the integrated teacher data, the region including the detection target includes the region including the outer peripheral portion that determines the outer peripheral contour shape of the detection target, and particularly the region including the outer peripheral portion, the luminance distribution due to the structure of the outer peripheral portion is obtained. It is preferable to be able to identify the including region (for example, the region where light and darkness is generated due to the outer peripheral portion and the outer peripheral portion around the outer peripheral portion, and the shadow portion). In this way, the control unit 65 gives the learning input data and the teacher data prepared in advance to the neural network 71 in units of the image patch 21 to perform learning.

複数の学習データを用いてニューラルネットワーク71の学習が完了すると、次に、学習済のニューラルネットワーク71を利用して、実際の計算、即ち、受精卵画像25からの前核外周部の検出を行う。具体的には、制御部65は、実際の受精卵画像25を学習済のニューラルネットワーク71に入力し、実際の検出結果を出力する。これにより、図6に示すように、実際の受精卵画像25から、受精卵に含まれる前核外周部32aが検出される。 When the training of the neural network 71 is completed using the plurality of training data, the trained neural network 71 is then used to perform an actual calculation, that is, to detect the outer periphery of the pronucleus from the fertilized egg image 25. .. Specifically, the control unit 65 inputs the actual fertilized egg image 25 into the trained neural network 71, and outputs the actual detection result. As a result, as shown in FIG. 6, the pronucleus outer peripheral portion 32a contained in the fertilized egg is detected from the actual fertilized egg image 25.

(第2の検出方法)
図5(B)は、第2の検出方法により前核外周部の機械学習に利用する学習データの例を示す。学習データは、学習用入力データと、ニューラルネットワークからの目標出力である教師データとを含む。ここで、学習用入力データとしては、第1の検出方法と同様に、受精卵画像25を用いる。一方、教師データとしては、図示のように、前核外周部を4分割した部分(「分割部分」と呼ぶ。)毎に教師データを用意する。具体的には、前核外周部を4分割した左上部分を目標出力とする教師データを「Aチャンネルの教師データ」とし、右上部分を目標出力とする教師データを「Bチャンネルの教師データ」とし、左下部分を目標出力とする教師データを「Cチャンネルの教師データ」とし、右下部分を目標出力とする教師データを「Dチャンネルの教師データ」とする。また、前核外周部以外の部分を目標出力とする教師データを「Eチャンネルの教師データ」とする。なお、Eチャンネルの教師データは必須ではないが、これを利用することにより学習効率を高められる効果がある。ここで、第1の検出方法と同様に、各チャンネルの教師データは、検出対象物を含む領域として、検出対象物の外周輪郭形状を定める外周部を含む領域を含み、特に外周部を含む領域として、外周部の構造に起因する輝度分布を含む領域(例えば、外周部及び外周部周辺の外周部に起因する明暗が生じる領域、影部分を含む。)を識別できるようにすることが好ましい。なお、影部分は、実際には光源51による照明光が検出対象物により強度変調されて生じる明暗として現れる。よって、検出対象物の影部分は、受精卵画像25における画素値、例えば輝度値の分布として示される。そして、1つの学習用入力データについて、A~Eチャンネルの5つの教師データを用いて、ニューラルネットワーク71の学習を行う。
(Second detection method)
FIG. 5B shows an example of learning data used for machine learning of the outer periphery of the pronucleus by the second detection method. The training data includes training input data and teacher data which is a target output from the neural network. Here, as the input data for learning, the fertilized egg image 25 is used as in the first detection method. On the other hand, as the teacher data, as shown in the figure, teacher data is prepared for each portion (referred to as "divided portion") in which the outer peripheral portion of the anterior hypothalium is divided into four parts. Specifically, the teacher data whose target output is the upper left portion of the outer periphery of the anterior nucleus is defined as "A channel teacher data", and the teacher data whose target output is the upper right portion is defined as "B channel teacher data". , The teacher data whose target output is the lower left portion is referred to as "C channel teacher data", and the teacher data whose target output is the lower right portion is referred to as "D channel teacher data". Further, the teacher data whose target output is a portion other than the outer peripheral portion of the anterior hypothalium is referred to as “E-channel teacher data”. Although the teacher data of the E channel is not essential, there is an effect that the learning efficiency can be improved by using the teacher data. Here, as in the first detection method, the teacher data of each channel includes a region including an outer peripheral portion that determines the outer peripheral contour shape of the detection target as a region including the detection target, and particularly a region including the outer peripheral portion. As a result, it is preferable to be able to identify a region including a luminance distribution due to the structure of the outer peripheral portion (for example, a region where light and darkness is generated due to the outer peripheral portion and the outer peripheral portion around the outer peripheral portion, and a shadow portion). The shadow portion actually appears as light and darkness generated by the intensity modulation of the illumination light by the light source 51 by the detection object. Therefore, the shadow portion of the detection target is shown as a distribution of pixel values, for example, luminance values in the fertilized egg image 25. Then, the neural network 71 is trained using the five teacher data of the A to E channels for one learning input data.

図7は、第2の検出方法により前核外周部を検出する方法を模式的に示す。前核外周部の検出は、学習済のニューラルネットワーク71を利用する。学習の段階では、図5(B)に示す学習データ、即ち、学習用入力データと教師データとをニューラルネットワーク71に与え、学習させる。この際、1つの入力データについて、A~Eチャンネルの5つの教師データを用いて、ニューラルネットワーク71の学習を行う。なお、第2の検出方法においても、図7に示すように、所定サイズの画像パッチ21の単位でニューラルネットワーク71に入力データを与えて学習を行う。 FIG. 7 schematically shows a method of detecting the outer peripheral portion of the pronucleus by the second detection method. The learned neural network 71 is used to detect the outer periphery of the pronucleus. At the learning stage, the learning data shown in FIG. 5B, that is, the learning input data and the teacher data are given to the neural network 71 and trained. At this time, the neural network 71 is trained using the five teacher data of the A to E channels for one input data. Also in the second detection method, as shown in FIG. 7, input data is given to the neural network 71 in units of image patches 21 of a predetermined size for learning.

複数の学習データを用いてニューラルネットワーク71の学習が完了すると、次に、学習済のニューラルネットワーク71を利用して、実際の受精卵画像25から前核外周部の検出を行う。具体的には、制御部65は、実際の解析の対象となる受精卵画像25を学習済のニューラルネットワーク71に入力し、実際の検出結果を出力する。これにより、図7に示すように、実際の受精卵画像25から、A~Eチャンネルの各々に対応する検出結果が得られる。 When the learning of the neural network 71 is completed using the plurality of training data, next, the learning of the neural network 71 is used to detect the outer periphery of the pronucleus from the actual fertilized egg image 25. Specifically, the control unit 65 inputs the fertilized egg image 25, which is the target of the actual analysis, into the trained neural network 71, and outputs the actual detection result. As a result, as shown in FIG. 7, detection results corresponding to each of the A to E channels can be obtained from the actual fertilized egg image 25.

第2の検出方法において、前核外周部を分割した分割部分毎に教師データを用意して機械学習を行う理由は以下の通りである。まず第1に、前核外周部を分割することにより、光源51による照明の影響を低減することができる。図8(A)は、光源51により前核32が照明される様子を模式的に示す。撮影装置50において、光源51は固定配置されるので、受精卵30が収容されるウェル12と光源51との位置関係によって、受精卵30内の前核32の周囲及び内部には明るい領域と暗い領域とができる。即ち、図8(A)に示すように、前核32の周囲及び内部のうち、光源51からの光が当たる側は明るい領域となり、それと反対側は暗い領域となる。また、明るい領域と暗い領域との間の領域は、明るさが中程度で変化する領域となる。このように、1つの前核32においても、光源51の位置との関係によって明るさが異なる領域ができるので、それらは機械学習において異なる性質の領域として別々に学習することが好ましい。そこで、第2の検出方法では、前核32の周囲及び内部を含む領域を4分割した分割部分毎に教師データを用意して機械学習を行う。これにより、光源51による照明状態の違いによる検出精度の低下を防止することができる。 In the second detection method, the reason why the teacher data is prepared for each divided portion of the anterior hypothalamic peripheral portion and machine learning is performed is as follows. First, by dividing the outer peripheral portion of the pronucleus, the influence of illumination by the light source 51 can be reduced. FIG. 8A schematically shows how the pronucleus 32 is illuminated by the light source 51. In the photographing apparatus 50, since the light source 51 is fixedly arranged, a bright region and a dark region are formed around and inside the pronucleus 32 in the fertilized egg 30 depending on the positional relationship between the well 12 in which the fertilized egg 30 is housed and the light source 51. There is an area. That is, as shown in FIG. 8A, of the periphery and the inside of the pronucleus 32, the side exposed to the light from the light source 51 is a bright region, and the opposite side is a dark region. Also, the area between the bright area and the dark area is an area where the brightness changes moderately. As described above, even in one pronucleus 32, there are regions having different brightness depending on the relationship with the position of the light source 51, so it is preferable to learn them separately as regions having different properties in machine learning. Therefore, in the second detection method, teacher data is prepared for each divided portion in which the region including the periphery and the inside of the pronucleus 32 is divided into four, and machine learning is performed. This makes it possible to prevent a decrease in detection accuracy due to a difference in the illumination state due to the light source 51.

この場合、理論的には光源51の方向に基づいて前核外周部を分割することが好ましい。例えば、前核外周部を、光源51に近い部分と、その反対側の光源51から遠い部分と、それらの間の2つの中間部分とに分割する。別の方法としては、光源51からの照明光の位置を考慮することなく、前核外周部を均等に分割することにより、照明光の明るさの分布による影響を考慮した学習ができるようにしてもよい。この場合、分割数を増やすのが有効であり、特に4分割以上の分割数が望ましい。例えば、前核外周部を8分割し、分割部分毎の教師データを用いて機械学習を行う。この方法では、実際の光源51の方向を考慮しないが、分割数を増やすことにより、光源51からの照明光の影響を分散させ、各分割部分の検出における影響を低減することができる。 In this case, theoretically, it is preferable to divide the outer peripheral portion of the pronucleus based on the direction of the light source 51. For example, the outer peripheral portion of the anterior hypothalium is divided into a portion close to the light source 51, a portion far from the light source 51 on the opposite side thereof, and two intermediate portions between them. As another method, the outer peripheral portion of the pronucleus is evenly divided without considering the position of the illumination light from the light source 51 so that learning can be performed in consideration of the influence of the brightness distribution of the illumination light. May be good. In this case, it is effective to increase the number of divisions, and it is particularly desirable that the number of divisions is 4 or more. For example, the outer peripheral portion of the anterior hypothalium is divided into eight parts, and machine learning is performed using the teacher data for each divided part. In this method, the direction of the actual light source 51 is not considered, but by increasing the number of divisions, the influence of the illumination light from the light source 51 can be dispersed and the influence on the detection of each division portion can be reduced.

前核外周部を分割して機械学習を行うもう一つの理由は、2つの前核外周部が重なって楕円に見えるような場合の検出精度を確保できるからである。受精卵30内に現れる2つの前核は隣接しているので、それらの一部が重なって、全体として1つの楕円に見えてしまうような場合がある。このような場合、前核に相当する円が2つあるのか、大きな楕円が1つあるのかを区別することは難しい。この点、前核外周部を分割し、分割部分毎に検出を行うことにより、一部が重なって楕円に見えるような2つの前核を正しく検出することが可能となる。 Another reason for performing machine learning by dividing the outer peripheral portion of the pronucleus is that it is possible to secure the detection accuracy when the two outer peripheral portions of the pronucleus overlap and look like an ellipse. Since the two pronuclei appearing in the fertilized egg 30 are adjacent to each other, some of them may overlap and appear as one ellipse as a whole. In such a case, it is difficult to distinguish whether there are two circles corresponding to the pronucleus or one large ellipse. In this respect, by dividing the outer peripheral portion of the pronucleus and performing detection for each divided portion, it is possible to correctly detect two pronuclei that partially overlap and look like an ellipse.

上記の例では、前核外周部を4分割又は8分割しているが、分割数はこれらには限られず、2分割、3分割、6分割など、他の分割数であっても構わない。但し、分割数が増加すると、機械学習や実際の前核外周部の検出における処理負荷が増大するので、処理負荷との関係で分割数を決めることが望ましい。また、上記の例では、前核外周部を均等に分割(例えば、4分割であれば、90度ずつの部分に分割)しているが、各分割部分の大きさが異なっていてもよい。例えば、図8(B)に示すように、照明光による明るさの分布を考慮して、明るい分割部分(Bチャンネル)と暗い分割部分(Cチャンネル)を大きくし、残りの2つの分割部分(AチャンネルとDチャンネル)をその分小さくしてもよい。 In the above example, the outer peripheral portion of the anterior hypothalium is divided into 4 or 8, but the number of divisions is not limited to these, and other divisions such as 2 divisions, 3 divisions, and 6 divisions may be used. However, as the number of divisions increases, the processing load in machine learning and actual detection of the outer periphery of the pronucleus increases, so it is desirable to determine the number of divisions in relation to the processing load. Further, in the above example, the outer peripheral portion of the anterior hypothalium is evenly divided (for example, in the case of four divisions, it is divided into 90 degree portions), but the size of each divided portion may be different. For example, as shown in FIG. 8B, in consideration of the distribution of brightness due to the illumination light, the bright divided portion (B channel) and the dark divided portion (C channel) are enlarged, and the remaining two divided portions (the remaining two divided portions (channel B) are enlarged. A channel and D channel) may be made smaller accordingly.

図3に戻り、前核外周部が検出されると、次に制御部65は前核数確率算出処理を行う(ステップS14)。前核数確率算出処理は、前核数の確率を算出する処理である。ここで、制御部65は、機械学習により前核数の確率を算出する。図9は、前核数の確率を算出する方法を模式的に示す。図10は、前核数確率検出処理における入出力データの例を示す。学習データは、学習用入力データとして、受精卵画像25と、A~Dチャンネルのいずれかの前核外周部の検出結果とを含む。なお、受精卵画像25は必須ではない。教師データは、前核数0個、1個、2個(それぞれ、「0PN」、「1PN」、「2PN」と記す。)の確率である。学習時には、上記の学習データを多数用いてニューラルネットワーク72を学習させる。 Returning to FIG. 3, when the outer peripheral portion of the pronucleus is detected, the control unit 65 then performs the pronuclear number probability calculation process (step S14). The probability calculation process for the number of pronuclei is a process for calculating the probability of the number of pronuclei. Here, the control unit 65 calculates the probability of the number of pronuclei by machine learning. FIG. 9 schematically shows a method of calculating the probability of the number of pronuclei. FIG. 10 shows an example of input / output data in the pronuclear number probability detection process. The learning data includes the fertilized egg image 25 and the detection result of the outer periphery of the pronucleus of any of the channels A to D as input data for learning. The fertilized egg image 25 is not essential. The teacher data has a probability of 0, 1 and 2 pronuclei (denoted as "0PN", "1PN" and "2PN", respectively). At the time of learning, the neural network 72 is trained using a large number of the above learning data.

計算時には、入力データとして、実際の受精卵画像25と、それに対応するA~Dチャンネルのいずれかの実際の前核外周部の検出結果を学習済みのニューラルネットワーク72に入力する。なお、この場合も、受精卵画像25は必須ではない。ニューラルネットワーク72は、実際の受精卵画像25及び実際の前核外周部の検出結果に基づいて前核数の確率を計算し、出力する。こうして、1つの受精卵画像25について、その受精卵画像25に含まれる前核数が0個(0PN)である確率、1個(1PN)である確率、及び、2個(2PN)である確率がそれぞれ得られる。 At the time of calculation, the actual fertilized egg image 25 and the detection result of the actual pronucleus outer periphery of any of the corresponding channels A to D are input to the trained neural network 72 as input data. In this case as well, the fertilized egg image 25 is not essential. The neural network 72 calculates and outputs the probability of the number of pronuclei based on the actual fertilized egg image 25 and the detection result of the actual pronucleus outer periphery. Thus, for one fertilized egg image 25, the probability that the number of pronuclei contained in the fertilized egg image 25 is 0 (0PN), the probability that it is 1 (1PN), and the probability that it is 2 (2PN). Are obtained respectively.

このように、本実施形態では、前核数推定処理において、2つのニューラルネットワークの多段構成を用いている点に特徴を有する。即ち、図11に示すように、学習済みの第1のニューラルネットワーク71は、実際の受精卵画像から実際の前核外周部検出結果を生成し、学習済みの第2のニューラルネットワーク72へ出力する。そして、学習済みの第2のニューラルネットワーク72は、実際の前核外周部検出結果から実際の前核数確率を算出して出力する。 As described above, the present embodiment is characterized in that a multi-stage configuration of two neural networks is used in the pronuclear number estimation process. That is, as shown in FIG. 11, the trained first neural network 71 generates an actual pronucleus outer periphery detection result from an actual fertilized egg image and outputs it to the trained second neural network 72. .. Then, the trained second neural network 72 calculates and outputs the actual probabilistic number of pronuclei from the actual detection result of the outer periphery of the pronucleus.

次に、制御部65は、予め用意された全ての受精卵画像25について、ステップS12~S14の処理が完了したか否かを判定する(ステップS15)。全ての受精卵画像25について処理が完了していない場合(ステップS15:No)、処理はステップS12へ戻り、制御部65は、次の受精卵画像25についてステップS12~S14の処理を実行する。 Next, the control unit 65 determines whether or not the processing of steps S12 to S14 has been completed for all the fertilized egg images 25 prepared in advance (step S15). When the processing is not completed for all the fertilized egg images 25 (step S15: No), the processing returns to step S12, and the control unit 65 executes the processing of steps S12 to S14 for the next fertilized egg image 25.

こうして、全ての受精卵画像25についてステップS12~S14の処理が完了すると(ステップS15:Yes)、制御部65は、各受精卵画像25について算出された前核数の確率を統合し、各時刻での前核数を判定する(ステップS16)。具体的には、まず制御部65は、図10に例示するように全時刻における各前核数(0PN、1PN、2PN)の確率をグラフ化する。次に、制御部65は、各前核数のグラフに基づいて、所定の事前知識(制約条件)の下で最大の確率を有する前核数を決定する。本実施形態では、隠れマルコフモデルにより、全時刻において算出された前核数の確率と、事前知識(制約条件)から、最も確率の高い前核数の推移を計算する。 In this way, when the processing of steps S12 to S14 is completed for all the fertilized egg images 25 (step S15: Yes), the control unit 65 integrates the probabilities of the number of pronuclei calculated for each fertilized egg image 25 and each time. The number of pronuclei in (step S16) is determined. Specifically, first, the control unit 65 graphs the probabilities of the number of pronuclei (0PN, 1PN, 2PN) at all times as illustrated in FIG. Next, the control unit 65 determines the number of pronuclei having the maximum probability under a predetermined prior knowledge (constraint) based on the graph of the number of pronuclears. In this embodiment, the transition of the most probable pronucleus number is calculated from the probability of the pronucleus number calculated at all times and the prior knowledge (constraint condition) by the hidden Markov model.

詳しくは、本実施形態では、受精卵における前核の性質に基づき、以下の少なくとも1つを事前知識(制約条件)として使用する。
(1)起こりうる前核数は0PN、1PN、2PNの3状態であり、観察開始時の前核数は0PNである。
(2)時間の経過によって前核数が増加することはあるが、減少することは無い。
(3)統計的に、前核が発生しやすい時刻、消失しやすい時刻がある。典型的には、前核は観察開始から5時間程度で発生し、20時間程度で消失する。
(4)統計的に、0PN、1PN、2PN、それぞれの発生頻度が既知である。典型的には、0PN、1PN、2PNの発生頻度は、それぞれ10%、10%、80%程度である。
Specifically, in this embodiment, at least one of the following is used as prior knowledge (constraint) based on the nature of the pronucleus in the fertilized egg.
(1) The number of pronuclei that can occur is 0PN, 1PN, and 2PN, and the number of pronuclei at the start of observation is 0PN.
(2) The number of pronuclei may increase with the passage of time, but it does not decrease.
(3) Statistically, there are times when pronuclei are likely to occur and times when pronuclei are likely to disappear. Typically, the pronucleus develops about 5 hours after the start of observation and disappears about 20 hours.
(4) Statistically, the frequency of occurrence of 0PN, 1PN, and 2PN is known. Typically, the frequency of occurrence of 0PN, 1PN, and 2PN is about 10%, 10%, and 80%, respectively.

図12(A)は、上記の事前知識(制約条件)を用いた前核数の判定例を示す。各前核数(0PN、1PN、2PN)の確率の推移が図12(A)の各グラフのように得られたものとする。この例では、観察開始から15~18時間の辺りで一時的に1PNの確率が高くなっているが、上記の事前知識(1)~(4)を考慮すると、判定結果は2PNとすることが妥当である。 FIG. 12A shows an example of determining the number of pronuclei using the above-mentioned prior knowledge (constraint condition). It is assumed that the transition of the probability of each pronucleus number (0PN, 1PN, 2PN) is obtained as shown in each graph of FIG. 12 (A). In this example, the probability of 1PN temporarily increases around 15 to 18 hours from the start of observation, but considering the above prior knowledge (1) to (4), the judgment result may be 2PN. It is reasonable.

図12(B)は、前核数の他の判定例を示す。各前核数(0PN、1PN、2PN)の確率の推移が図12(B)の各グラフのように得られたものとする。この場合、観察開始から12~22時間の期間では確率が1PNと2PNの間で頻繁に入れ替わっているが、上記の事前知識(1)~(4)を考慮すると、判定結果は2PNとすることが妥当である。 FIG. 12B shows another determination example of the number of pronuclei. It is assumed that the transition of the probability of each pronucleus number (0PN, 1PN, 2PN) is obtained as shown in each graph of FIG. 12B. In this case, the probabilities frequently switch between 1PN and 2PN in the period of 12 to 22 hours from the start of observation, but considering the above prior knowledge (1) to (4), the judgment result should be 2PN. Is appropriate.

こうして、制御部65は、隠れマルコフモデルにより、各時刻における前核数を判定する。そして、各時刻における前核数が得られると、次に制御部65は全時刻での最大前核数を出力する(ステップS17)。即ち、制御部65は、全時刻を通した最大前核数を、その受精卵の最終的な前核数として出力する。図13(A)は、ある受精卵について、各時刻における前核数の判定結果を示すグラフの一例である。図13(A)の例では、前時刻を通した最大前核数は2PNであるので、その受精卵の前核数の判定結果は2PNとなる。図13(B)は、他の受精卵について、各時刻における前核数の判定結果を示すグラフである。図13(B)の例では、全時刻を通した最大前核数は1PNであるので、その受精卵の前核数の判定結果は1PNとなる。こうして、1つの受精卵について前核数が推定され、前核数推定処理は終了する。 In this way, the control unit 65 determines the number of pronuclei at each time using the hidden Markov model. Then, when the number of pronuclei at each time is obtained, the control unit 65 then outputs the maximum number of pronuclei at all times (step S17). That is, the control unit 65 outputs the maximum number of pronuclei over the entire time as the final number of pronuclei of the fertilized egg. FIG. 13A is an example of a graph showing the determination result of the number of pronuclei at each time for a fertilized egg. In the example of FIG. 13A, since the maximum number of pronuclei over the previous time is 2PN, the determination result of the number of pronuclei of the fertilized egg is 2PN. FIG. 13B is a graph showing the determination results of the number of pronuclei at each time for other fertilized eggs. In the example of FIG. 13B, since the maximum number of pronuclei over the entire time is 1PN, the determination result of the number of pronuclei of the fertilized egg is 1PN. In this way, the pronucleus number is estimated for one fertilized egg, and the pronuclear number estimation process is completed.

図14は、本実施形態による前核外周部検出処理の方法に応じた前核数の判定精度を示す表である。図14の表において、「元画像」とあるのは、機械学習による前核外周部の検出を行わず、受精卵画像25の画像解析により前核数を検出した結果である。この場合、各前核数の判定の正解率は40~60%程度、2PNの判定の正解率は52%にとどまっている。 FIG. 14 is a table showing the determination accuracy of the number of pronuclei according to the method of detecting the outer peripheral portion of the pronucleus according to the present embodiment. In the table of FIG. 14, the “original image” is the result of detecting the number of pronuclei by image analysis of the fertilized egg image 25 without detecting the outer periphery of the pronucleus by machine learning. In this case, the correct answer rate for determining the number of pronuclei is about 40 to 60%, and the correct answer rate for determining 2PN is only 52%.

次に、「元画像+前核外周部」とあるのは、前核外周部検出処理において前述の第1の検出方法(図6参照)を実行した場合、即ち、前核外周部を分割せずに前核外周部全体として機械学習により前核外周部を検出した場合の結果である。この場合、各前核数の判定の正解率は60%以上、2PNの判定の正解率は74%となっている。よって、前核外周部の検出を行わない場合より判定精度は高くなる。 Next, "original image + pronucleus outer peripheral portion" means that the above-mentioned first detection method (see FIG. 6) is executed in the pronucleus outer peripheral portion detection process, that is, the pronucleus outer peripheral portion is divided. This is the result when the outer peripheral part of the anterior nucleus is detected by machine learning as the entire outer peripheral part of the anterior nucleus. In this case, the correct answer rate for determining the number of pronuclei is 60% or more, and the correct answer rate for determining 2PN is 74%. Therefore, the determination accuracy is higher than that in the case where the outer peripheral portion of the pronucleus is not detected.

次に、「元画像+前核外周部(4分割)」とあるのは、前核外周部検出処理において前述の第2の検出方法(図7参照)を実行した場合、即ち、前核外周部を4分割して機械学習による前核外周部を検出した場合の結果である。この場合、各前核数の判定の正解率は80%以上、2PNの判定の正解率は92%となっている。よって、前核外周部を分割して前核外周部の検出を行えば、判定精度をより高めることができることがわかる。 Next, "original image + pronucleus outer periphery (4 divisions)" means that the above-mentioned second detection method (see FIG. 7) is executed in the pronucleus outer periphery detection process, that is, the forearm outer periphery. This is the result when the part is divided into four parts and the outer peripheral part of the anterior hypothalium is detected by machine learning. In this case, the correct answer rate for determining the number of pronuclei is 80% or more, and the correct answer rate for determining 2PN is 92%. Therefore, it can be seen that the determination accuracy can be further improved by dividing the outer peripheral portion of the anterior nucleus and detecting the outer peripheral portion of the anterior nucleus.

[前核数の表示]
次に、前核数推定処理により得られた前核数の表示例を説明する。制御部65は、前核数推定処理により得られた前核数を画像解析装置60の表示部64に表示する。図15は、前核数を離散値として表示する場合の表示例を示す。図15(A)は、前核数の経時的な推移を折れ線グラフにより示す例である。図15(B)は、前核数の経時的な推移を色分けにより示す例である。図15(C)は、前核数の経時的な推移をグラデーションを伴う色づけにより示す例である。この例では、前核数が変化する期間がグラデーションにより表現されている。図15(D)は、前核数の経時的な推移を色の面積により示す例である。この例では、前核数が変化する期間が面積の変化により表現されている。
[Display of the number of pronuclei]
Next, a display example of the number of pronuclei obtained by the pronuclear number estimation process will be described. The control unit 65 displays the number of pronuclei obtained by the pronuclear number estimation process on the display unit 64 of the image analysis device 60. FIG. 15 shows a display example when the number of pronuclei is displayed as a discrete value. FIG. 15A is an example showing the transition of the number of pronuclei over time by a line graph. FIG. 15B is an example showing the transition of the number of pronuclei over time by color coding. FIG. 15C is an example showing the transition of the number of pronuclei over time by coloring with a gradation. In this example, the period during which the number of pronuclei changes is represented by a gradation. FIG. 15 (D) is an example showing the transition of the number of pronuclei over time by the area of color. In this example, the period during which the number of pronuclei changes is represented by the change in area.

図16は、前核数を連続値により表示した例である。横軸は観察開始からの経過時間を示し、縦軸は前核数を示す。この例では、前核数が確定しにくい時間帯の情報を連続値で示すことにより、胚培養士などの観察者の目視判断に利用可能な情報をより細かく提供することができる。 FIG. 16 is an example in which the number of pronuclei is displayed by continuous values. The horizontal axis shows the elapsed time from the start of observation, and the vertical axis shows the number of pronuclei. In this example, by presenting information on a time zone in which the number of pronuclei is difficult to be determined as a continuous value, it is possible to provide more detailed information that can be used for visual judgment by an observer such as an embryo culture technician.

図17は、前述の第2の検出方法による前核外周部の検出結果を示す画像の例である。具体的には、図7に示す学習済のニューラルネットワーク71を利用して得たA~Dチャンネルの実際の検出結果を1つの画像にして表示したものである。ここでは、各チャンネルの検出結果を観察者が区別できるように異なる表示態様で表示する。図17(A)では、前核外周部を4分割した各分割部分を異なるハッチングで示している。図17(B)は、図17(A)における1つの前核の部分を拡大し、円形により模式的に示したものである。図17(B)に示すように、A~Dチャンネルの実際の検出結果を異なるハッチングで表示している。なお、ここでは図示の便宜上、各分割部分をハッチングにより区別しているが、実際には各分割部分を異なる色などで区別して表示すればよい。このように各分割部分を色分けなどにより区別して表示することにより、2つの前核が重なっているときに前核を見分けやすくなる。また、1つの前核が4色のパターンで表示されるので、そのパターンの数により前核数を容易に検出することができる。また、各前核が同じ4色のパターンで表示されていれば、前核外周部の検出処理が正しく行われていると考えることができるので、この画像を見ることにより、前核数推定処理の信頼性を間接的に確認できるという利点もある。 FIG. 17 is an example of an image showing the detection result of the outer peripheral portion of the pronucleus by the above-mentioned second detection method. Specifically, the actual detection results of the A to D channels obtained by using the trained neural network 71 shown in FIG. 7 are displayed as one image. Here, the detection results of each channel are displayed in different display modes so that the observer can distinguish them. In FIG. 17A, each divided portion in which the outer peripheral portion of the anterior hypothalium is divided into four is shown by different hatching. FIG. 17B is an enlarged view of one pronucleus portion in FIG. 17A, which is schematically shown by a circle. As shown in FIG. 17B, the actual detection results of channels A to D are displayed by different hatching. Here, for convenience of illustration, each divided portion is distinguished by hatching, but in reality, each divided portion may be distinguished and displayed by a different color or the like. By displaying each divided portion separately by color coding or the like in this way, it becomes easy to distinguish the pronuclei when the two pronuclei overlap. Further, since one pronucleus is displayed in a pattern of four colors, the number of pronuclei can be easily detected by the number of the patterns. Further, if each pronucleus is displayed in the same four-color pattern, it can be considered that the detection process of the outer periphery of the pronucleus is performed correctly. Therefore, by looking at this image, the pronucleus number estimation process is performed. There is also the advantage that the reliability of the can be indirectly confirmed.

[変形例]
上記の前核数推定処理では、ステップS14において前核数確率算出処理により前核数の確率を算出し、ステップS16において前核数の確率に基づいて各時刻での前核数を判定しているが、その代わりに確率を用いない手法により前核数を判定し、その結果を出力することとしてもよい。
[Modification example]
In the above pronucleus number estimation process, the pronucleus number probability is calculated by the pronucleus number probability calculation process in step S14, and the pronucleus number at each time is determined based on the pronuclear number probability in step S16. However, instead, the number of pronuclei may be determined by a method that does not use probability, and the result may be output.

10 培養容器
12 ウェル
20 撮影画像
25 受精卵画像
30 受精卵
50 撮影装置
51 光源
52 カメラ
55 記憶装置
60 画像解析装置
64 表示部
65 制御部
10 Culture container 12 wells 20 Photographed image 25 Fertilized egg image 30 Fertilized egg 50 Photographing device 51 Light source 52 Camera 55 Storage device 60 Image analysis device 64 Display unit 65 Control unit

Claims (20)

検体の撮影画像から、前記検体に含まれる検出対象物を検出する対象物検出器であって、
学習時に、前記検体の撮影画像である入力データと、当該撮影画像に含まれる前記検出対象物を含む領域を前記検出対象物を含むように複数の部分に分割した分割部分毎に用意された教師データとにより学習を行い、
検出時に、実際の検体の撮影画像を入力データとして受け取り、当該撮影画像に含まれる検出対象物の検出結果を出力する対象物検出器。
An object detector that detects an object to be detected contained in the sample from a photographed image of the sample.
At the time of learning, a teacher prepared for each divided portion in which the input data which is the captured image of the sample and the region including the detection target included in the captured image are divided into a plurality of portions so as to include the detection target. Learning with data,
An object detector that receives a captured image of an actual sample as input data at the time of detection and outputs the detection result of the detected object contained in the captured image.
検体の撮影画像から、前記検体に含まれる検出対象物を検出する画像解析装置であって、
前記検体の撮影画像から、当該検体に含まれる検出対象物を検出する対象物検出器を備え、
前記対象物検出器は、前記検体の撮影画像である入力データと、当該撮影画像に含まれる前記検出対象物を含む領域を前記検出対象物を含むように複数の部分に分割した分割部分毎に用意された教師データとを含む複数の学習データにより学習済みである画像解析装置。
An image analysis device that detects an object to be detected contained in the sample from the captured image of the sample.
A target detector for detecting a detection target contained in the sample from the photographed image of the sample is provided.
The object detector divides the input data, which is a photographed image of the sample, and the region including the detection object contained in the photographed image into a plurality of portions so as to include the detection object, for each divided portion. An image analysis device that has been trained by a plurality of training data including the prepared teacher data.
検体の撮影画像から、前記検体に含まれる検出対象物を検出する画像解析装置であって、
前記検体の撮影画像から、当該検体に含まれる検出対象物を検出する対象物検出器を備え、
前記対象物検出器は、前記検体の撮影画像である入力データと、当該撮影画像に含まれる前記検出対象物を含む領域を複数の部分に分割した分割部分毎に用意された教師データとを含む複数の学習データにより学習済みであり、
前記分割部分は、前記検出対象物の構造に起因する画素値の分布を含む画像解析装置。
An image analysis device that detects an object to be detected contained in the sample from the captured image of the sample.
A target detector for detecting a detection target contained in the sample from the photographed image of the sample is provided.
The object detector includes input data which is a photographed image of the sample and teacher data prepared for each divided portion in which a region including the detection object included in the captured image is divided into a plurality of portions. It has been trained by multiple training data and has been trained.
The divided portion is an image analysis device including a distribution of pixel values due to the structure of the detection object.
前記分割部分は、前記検出対象物の外周部の構造に起因する画素値の分布を含む請求項3に記載の画像解析装置。 The image analysis apparatus according to claim 3, wherein the divided portion includes a distribution of pixel values due to the structure of the outer peripheral portion of the detection object. 前記分割部分は、前記検出対象物の外周部を周方向と垂直な方向に分割した部分である請求項2乃至4のいずれか一項に記載の画像解析装置。 The image analysis apparatus according to any one of claims 2 to 4, wherein the divided portion is a portion obtained by dividing the outer peripheral portion of the detection object in a direction perpendicular to the circumferential direction. 前記対象物検出器は、前記学習データに含まれる前記分割部分と同様に前記検出対象物を含む領域を分割して識別可能に表示する請求項2乃至5のいずれか一項に記載の画像解析装置。 The image analysis according to any one of claims 2 to 5, wherein the object detector divides a region including the detection object and displays it in an identifiable manner in the same manner as the divided portion included in the learning data. Device. 前記対象物検出器により検出された検出対象物の個数に関する個数情報を出力する結果出力部を備える請求項2乃至6のいずれか一項に記載の画像解析装置。 The image analysis apparatus according to any one of claims 2 to 6, further comprising a result output unit for outputting number information regarding the number of detection objects detected by the object detector. 前記対象物検出器により検出対象物が検出された検出情報から、前記検出対象物の個数毎の確率を算出する個数検出器を備え、
前記結果出力部は、前記個数検出器が検出した個数毎の確率に基づいて前記個数情報を出力し、
前記個数検出器は、前記対象物検出器により検出対象物が検出された検出情報を含む入力データと、当該検出情報に含まれる前記検出対象物の個数毎の確率を示す教師データとを含む学習データにより学習済みである請求項7に記載の画像解析装置。
A number detector for calculating the probability for each number of the detection objects from the detection information in which the detection target is detected by the object detector is provided.
The result output unit outputs the number information based on the probability of each number detected by the number detector.
The number detector is a learning including input data including detection information in which a detection target is detected by the object detector, and teacher data indicating a probability for each number of the detection objects included in the detection information. The image analysis apparatus according to claim 7, which has been learned from the data.
前記対象物検出器により検出対象物が検出された検出情報から、前記検出対象物の個数毎の確率を算出する個数検出器を備え、
前記結果出力部は、前記個数検出器が検出した個数毎の確率に基づいて前記個数情報を出力し、
前記個数検出器は、
学習時に、前記対象物検出器により検出対象物が検出された検出情報を含む入力データと、当該検出情報に含まれる前記検出対象物の個数毎の確率を示す教師データとにより学習を行い、
検出時に、前記対象物検出器により検出対象物が検出された検出情報を入力データとして受け取り、当該検出情報に含まれる前記検出対象物の個数毎の確率を出力する請求項7に記載の画像解析装置。
A number detector for calculating the probability for each number of the detection objects from the detection information in which the detection target is detected by the object detector is provided.
The result output unit outputs the number information based on the probability of each number detected by the number detector.
The number detector is
At the time of learning, learning is performed by input data including detection information in which the detection object is detected by the object detector and teacher data indicating the probability of each number of the detection objects included in the detection information.
The image analysis according to claim 7, wherein at the time of detection, the detection information in which the detection target is detected by the object detector is received as input data, and the probability for each number of the detection targets included in the detection information is output. Device.
前記結果出力部は、予め決められた制約条件下で、前記個数検出器が出力した個数毎の確率を所定期間にわたり分析して前記検出対象物の個数を判定し、前記個数情報として出力する請求項8又は9に記載の画像解析装置。 The result output unit analyzes the probability of each number output by the number detector under a predetermined constraint condition over a predetermined period, determines the number of the detection target objects, and outputs the number information. Item 8. The image analysis apparatus according to Item 8. 前記結果出力部は、前記所定期間において得られた個数のうち最大の個数を、当該検体に含まれる検出対象物の個数と判定する請求項10に記載の画像解析装置。 The image analysis apparatus according to claim 10, wherein the result output unit determines that the maximum number of the number obtained in the predetermined period is the number of detection objects contained in the sample. 前記結果出力部は、前記個数情報として、前記検出対象物の個数の連続値を経時的に示すグラフを表示する請求項7乃至11のいずれか一項に記載の画像解析装置。 The image analysis apparatus according to any one of claims 7 to 11, wherein the result output unit displays a graph showing a continuous value of the number of detection objects over time as the number information. 前記結果出力部は、前記対象物検出器により検出された検出対象物を、前記分割部分毎に異なる表示態様で示した画像を表示する請求項7乃至12のいずれか一項に記載の画像解析装置。 The image analysis according to any one of claims 7 to 12, wherein the result output unit displays an image showing an object detected by the object detector in a different display mode for each divided portion. Device. コンピュータを備え、検体の撮影画像から、前記検体に含まれる検出対象物を検出する対象物検出器により実行されるプログラムであって、
学習時に、前記検体の撮影画像である入力データと、当該撮影画像に含まれる前記検出対象物を含む領域を前記検出対象物を含むように複数の部分に分割した分割部分毎に用意された教師データとにより学習を行う手段、
検出時に、実際の検体の撮影画像を入力データとして受け取り、当該撮影画像に含まれる検出対象物の検出結果を出力する手段、
として前記コンピュータを機能させるプログラム。
A program equipped with a computer and executed by an object detector that detects an object to be detected contained in the sample from a photographed image of the sample.
At the time of learning, a teacher prepared for each divided portion in which the input data which is the captured image of the sample and the region including the detection target included in the captured image are divided into a plurality of portions so as to include the detection target. A means of learning with data,
A means of receiving a captured image of an actual sample as input data at the time of detection and outputting the detection result of the detection target contained in the captured image.
A program that makes the computer function as.
コンピュータを備え、検体の撮影画像から、前記検体に含まれる検出対象物を検出する画像解析装置によって実行されるプログラムであって、
前記検体の撮影画像から、当該検体に含まれる検出対象物を検出する対象物検出器として前記コンピュータを機能させ、
前記対象物検出器は、前記検体の撮影画像である入力データと、当該撮影画像に含まれる前記検出対象物を含む領域を前記検出対象物を含むように複数の部分に分割した分割部分毎に用意された教師データとを含む複数の学習データにより学習済みであるプログラム。
A program equipped with a computer and executed by an image analysis device that detects an object to be detected contained in the sample from the captured image of the sample.
The computer is made to function as an object detector for detecting an object to be detected contained in the sample from a photographed image of the sample.
The object detector divides the input data, which is a photographed image of the sample, and the region including the detection object contained in the photographed image into a plurality of portions so as to include the detection object, for each divided portion. A program that has been trained by multiple training data including the prepared teacher data.
コンピュータを備え、検体の撮影画像から、前記検体に含まれる検出対象物を検出する画像解析装置によって実行されるプログラムであって、A program equipped with a computer and executed by an image analysis device that detects an object to be detected contained in the sample from the captured image of the sample.
前記検体の撮影画像から、当該検体に含まれる検出対象物を検出する対象物検出器として前記コンピュータを機能させ、The computer is made to function as an object detector for detecting an object to be detected contained in the sample from a photographed image of the sample.
前記対象物検出器は、前記検体の撮影画像である入力データと、当該撮影画像に含まれる前記検出対象物を含む領域を複数の部分に分割した分割部分毎に用意された教師データとを含む複数の学習データにより学習済みであり、The object detector includes input data which is a photographed image of the sample and teacher data prepared for each divided portion in which a region including the detection object included in the captured image is divided into a plurality of portions. It has been trained by multiple training data and has been trained.
前記分割部分は、前記検出対象物の構造に起因する画素値の分布を含むプログラム。The divided portion is a program including a distribution of pixel values due to the structure of the detected object.
コンピュータを備え、検体の撮影画像から、前記検体に含まれる検出対象物の個数毎の確率を算出するよう、前記コンピュータを機能させるための学習済みモデルであって、第1のニューラルネットワークと、前記第1のニューラルネットワークからの出力が入力されるように結合された第2のニューラルネットワークとから構成され、
前記第1のニューラルネットワークが、前記検体の撮影画像である入力データと、当該撮影画像に含まれる前記検出対象物を含む領域を複数の部分に分割した分割部分毎に用意された教師データとを含む複数の学習データにより学習済みであり、前記検体の撮影画像を基に当該撮影画像に含まれる前記検出対象物を含む領域を複数の部分に分割した分割画像を出力するように構成されており、
前記第2のニューラルネットワークが、前記対象物検出器により検出対象物が検出された検出情報を含む入力データと、当該検出情報に含まれる前記検出対象物の個数毎の確率を示す教師データとにより学習済みであり、前記対象物検出器により検出対象物が検出された検出情報を基に当該検出情報に含まれる前記検出対象物の個数毎の確率を出力するように構成されていることからなる学習済みモデル。
A trained model for operating the computer so as to have a computer and calculate the probability for each number of detection objects contained in the sample from the captured image of the sample, the first neural network and the above. It consists of a second neural network combined so that the output from the first neural network is input.
The first neural network obtains input data which is a photographed image of the sample and teacher data prepared for each divided portion in which a region including the detection object included in the captured image is divided into a plurality of portions. It has been trained by a plurality of training data including the sample, and is configured to output a divided image obtained by dividing a region including the detection object included in the captured image into a plurality of portions based on the captured image of the sample. ,
The second neural network is based on input data including detection information in which the detection target is detected by the object detector and teacher data indicating the probability of each number of the detection targets included in the detection information. It is configured to output the probability for each number of the detection objects included in the detection information based on the detection information that has been learned and the detection object is detected by the object detector. Trained model.
検体の撮影画像から、前記検体に含まれる検出対象物を検出する対象物検出器により実行される対象物検出方法であって、
学習時に、前記検体の撮影画像である入力データと、当該撮影画像に含まれる前記検出対象物を含む領域を前記検出対象物を含むように複数の部分に分割した分割部分毎に用意された教師データとにより学習を行う工程と、
検出時に、実際の検体の撮影画像を入力データとして受け取り、当該撮影画像に含まれる検出対象物の検出結果を出力する工程と、
を備える対象物検出方法。
It is an object detection method executed by an object detector that detects an object to be detected contained in the sample from a photographed image of the sample.
At the time of learning, a teacher prepared for each divided portion in which the input data which is the captured image of the sample and the region including the detection target included in the captured image are divided into a plurality of portions so as to include the detection target. The process of learning with data and
At the time of detection, the process of receiving the captured image of the actual sample as input data and outputting the detection result of the detection target contained in the captured image, and
An object detection method comprising.
検体の撮影画像から、前記検体に含まれる検出対象物を検出する画像解析装置によって実行される画像解析方法であって、
対象物検出器により、前記検体の撮影画像から、当該検体に含まれる検出対象物を検出する対象物検出工程を備え、
前記対象物検出器は、前記検体の撮影画像である入力データと、当該撮影画像に含まれる前記検出対象物を含む領域を前記検出対象物を含むように複数の部分に分割した分割部分毎に用意された教師データとを含む複数の学習データにより学習済みである画像解析方法。
It is an image analysis method executed by an image analysis device that detects an object to be detected contained in the sample from a photographed image of the sample.
The object detector comprises an object detection step of detecting an object to be detected contained in the sample from a photographed image of the sample.
The object detector divides the input data, which is a photographed image of the sample, and the region including the detection object contained in the photographed image into a plurality of portions so as to include the detection object, for each divided portion. An image analysis method that has been trained by a plurality of training data including the prepared teacher data.
検体の撮影画像から、前記検体に含まれる検出対象物を検出する画像解析装置によって実行される画像解析方法であって、It is an image analysis method executed by an image analysis device that detects an object to be detected contained in the sample from a photographed image of the sample.
対象物検出器により、前記検体の撮影画像から、当該検体に含まれる検出対象物を検出する対象物検出工程を備え、The object detector comprises an object detection step of detecting an object to be detected contained in the sample from a photographed image of the sample.
前記対象物検出器は、前記検体の撮影画像である入力データと、当該撮影画像に含まれる前記検出対象物を含む領域を複数の部分に分割した分割部分毎に用意された教師データとを含む複数の学習データにより学習済みであり、The object detector includes input data which is a photographed image of the sample and teacher data prepared for each divided portion in which a region including the detection object included in the captured image is divided into a plurality of portions. It has been trained by multiple training data and has been trained.
前記分割部分は、前記検出対象物の構造に起因する画素値の分布を含む画像解析方法。The divided portion is an image analysis method including a distribution of pixel values due to the structure of the detection object.
JP2017220345A 2017-11-15 2017-11-15 Object detector, image analysis device, object detection method, image analysis method, program, and training data Active JP7091635B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017220345A JP7091635B2 (en) 2017-11-15 2017-11-15 Object detector, image analysis device, object detection method, image analysis method, program, and training data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017220345A JP7091635B2 (en) 2017-11-15 2017-11-15 Object detector, image analysis device, object detection method, image analysis method, program, and training data

Publications (2)

Publication Number Publication Date
JP2019091308A JP2019091308A (en) 2019-06-13
JP7091635B2 true JP7091635B2 (en) 2022-06-28

Family

ID=66836395

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017220345A Active JP7091635B2 (en) 2017-11-15 2017-11-15 Object detector, image analysis device, object detection method, image analysis method, program, and training data

Country Status (1)

Country Link
JP (1) JP7091635B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6635221B1 (en) * 2018-08-31 2020-01-22 ソニー株式会社 Imaging device, imaging system, imaging method, and imaging program
WO2020262571A1 (en) * 2019-06-28 2020-12-30 富士フイルム株式会社 Learning image generation device, method and program , and learning method, device and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015177268A1 (en) 2014-05-23 2015-11-26 Ventana Medical Systems, Inc. Systems and methods for detection of biological structures and/or patterns in images
JP2016067322A (en) 2014-09-30 2016-05-09 富士フイルム株式会社 Plastic container
WO2016107896A1 (en) 2014-12-30 2016-07-07 Ventana Medical Systems, Inc. Systems and methods for co-expression analysis in immunoscore computation

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015177268A1 (en) 2014-05-23 2015-11-26 Ventana Medical Systems, Inc. Systems and methods for detection of biological structures and/or patterns in images
JP2016067322A (en) 2014-09-30 2016-05-09 富士フイルム株式会社 Plastic container
WO2016107896A1 (en) 2014-12-30 2016-07-07 Ventana Medical Systems, Inc. Systems and methods for co-expression analysis in immunoscore computation

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Aisha Khan et al,Segmentation of developing human embryo in time-lapse microscopy,2016 IEEE 13th International Symposium on Biomedical Imaging (ISBI),米国,IEEE,2016年04月16日,930-934,https://ieeexplore.ieee.org/document/7493417
Olaf Ronneberger et al,U-Net: Convolutional Networks for Biomedical Image Segmentation,arXiv,2015年05月18日,https://arxiv.org/pdf/1505.04597.pdf
S. Kheradmand et al,Inner cell mass segmentation in human HMC embryo images using fully convolutional network,2017 IEEE International Conference on Image Processing (ICIP),米国,IEEE,2017年09月20日,1752-1756,https://ieeexplore.ieee.org/document/8296582
水野 雄太 他,Deep learningを用いた脂肪組織画像における細胞の認識,情報処理学会 研究報告 数理モデル化と問題解決(MPS),日本,情報処理学会,2016年03月01日,1~6

Also Published As

Publication number Publication date
JP2019091308A (en) 2019-06-13

Similar Documents

Publication Publication Date Title
US20200283719A1 (en) Method and system for automated microbial colony counting from streaked sample on plated media
US7995058B2 (en) Method and system for identifying illumination fields in an image
JP7097686B2 (en) Image analyzer
US10968473B2 (en) Method, system and computer program product for determining the presence of microorganisms and identifying said microorganisms
US20200096454A1 (en) Defect detection system for aircraft component and defect detection method for aircraft component
US10007835B2 (en) Cell region display control device, method, and program
US11884959B2 (en) Methods and systems for automated assessment of antibiotic sensitivity
US10192306B2 (en) Cell recognition device, method, and program
US10620417B2 (en) Method for generating a reflection-reduced contrast image and corresponding device
JP7091635B2 (en) Object detector, image analysis device, object detection method, image analysis method, program, and training data
CN111656393A (en) Histological image analysis
US20200126224A1 (en) Image processing device, recording medium, and image processing method
US20230080978A1 (en) Machine learning method and information processing apparatus for machine learning
EP3290524A1 (en) Method, system and computer program product for determining the presence of microorganisms and identifying said microorganisms
EP4187217A1 (en) Mobile computing device for performing color fastness measurements
US20230137862A1 (en) System, Method, and Computer Program for a Microscope of a Surgical Microscope System
CN110428531A (en) Access control method, terminal and computer storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200925

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211012

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220517

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220530

R150 Certificate of patent or registration of utility model

Ref document number: 7091635

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150