JP7470339B2 - Dye image estimator learning device, image processing device, dye image estimator learning method, image processing method, dye image estimator learning program, and image processing program - Google Patents

Dye image estimator learning device, image processing device, dye image estimator learning method, image processing method, dye image estimator learning program, and image processing program Download PDF

Info

Publication number
JP7470339B2
JP7470339B2 JP2019041046A JP2019041046A JP7470339B2 JP 7470339 B2 JP7470339 B2 JP 7470339B2 JP 2019041046 A JP2019041046 A JP 2019041046A JP 2019041046 A JP2019041046 A JP 2019041046A JP 7470339 B2 JP7470339 B2 JP 7470339B2
Authority
JP
Japan
Prior art keywords
image
stained
autofluorescence
estimator
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019041046A
Other languages
Japanese (ja)
Other versions
JP2020144012A (en
Inventor
雅浩 石川
直樹 小林
賢治 鈴木
高史 小尾
裕之 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Saitama Medical University
Tokyo Institute of Technology NUC
Original Assignee
Saitama Medical University
Tokyo Institute of Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Saitama Medical University, Tokyo Institute of Technology NUC filed Critical Saitama Medical University
Priority to JP2019041046A priority Critical patent/JP7470339B2/en
Publication of JP2020144012A publication Critical patent/JP2020144012A/en
Application granted granted Critical
Publication of JP7470339B2 publication Critical patent/JP7470339B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Investigating, Analyzing Materials By Fluorescence Or Luminescence (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Microscoopes, Condenser (AREA)
  • Apparatus Associated With Microorganisms And Enzymes (AREA)

Description

本発明は、染色画像推定器学習装置、画像処理装置、染色画像推定器学習方法、画像処理方法、染色画像推定器学習プログラム、及び、画像処理プログラムに関する。 The present invention relates to a dye image estimator learning device, an image processing device, a dye image estimator learning method, an image processing method, a dye image estimator learning program, and an image processing program.

病理診断等で使用される細胞や組織の標本は、無色透明であることが多いため観察しにくいことがある。そこで、顕微鏡での観察を容易にするために、あらかじめ細胞や組織を染色してから、観察することが行われている。 Cell and tissue specimens used in pathological diagnosis are often colorless and transparent, which can make them difficult to observe. Therefore, to make them easier to observe under a microscope, the cells and tissues are often stained beforehand before observation.

特開2013-113689号公報JP 2013-113689 A 特開2011-185843号公報JP 2011-185843 A 特開2008-51772号公報JP 2008-51772 A 特開2013-114233号公報JP 2013-114233 A 特開2012-233784号公報JP 2012-233784 A 特開2016-161417号公報JP 2016-161417 A 国際公開第2012/163211号International Publication No. 2012/163211

Suzuki K, Armato SG, 3rd, Li F, Sone S, Doi K: Massive training artificial neural network (MTANN) for reduction of false positives in computerized detection of lung nodules in low-dose computed tomography, Med. Phys., 30(7), 1602-1617, 2003.Suzuki K, Armato SG, 3rd, Li F, Sone S, Doi K: Massive training artificial neural network (MTANN) for reduction of false positives in computerized detection of lung nodules in low-dose computed tomography, Med. Phys., 30(7), 1602-1617, 2003. Suzuki K, Horiba I, Sugie N, Nanki M: Extraction of left ventricular contours from left ventriculograms by means of a neural edge detector, IEEE Trans. Med. Imaging, 23(3), 330-339, 2004.Suzuki K, Horiba I, Sugie N, Nanki M: Extraction of left ventricular contours from left ventriculograms by means of a neural edge detector, IEEE Trans. Med. Imaging, 23(3), 330-339, 2004. Suzuki K, Horiba I, Sugie N: Neural edge enhancer for supervised edge enhancement from noisy images, IEEE Trans. Pattern Anal. Mach. Intell., 25(12), 1582-1596, 2003.Suzuki K, Horiba I, Sugie N: Neural edge enhancer for supervised edge enhancement from noisy images, IEEE Trans. Pattern Anal. Mach. Intell., 25(12), 1582-1596, 2003. Xu JW, Suzuki K: Massive-training support vector regression and Gaussian process for false-positive reduction in computer-aided detection of polyps in CT colonography, Med. Phys., 38(4), 1888-1902, 2011.Xu JW, Suzuki K: Massive-training support vector regression and Gaussian process for false-positive reduction in computer-aided detection of polyps in CT colonography, Med. Phys., 38(4), 1888-1902, 2011.

染色することによって組織や細胞の状態は観察しやすくなるが、染色には時間がかかることが問題である。また、染色すると脱色等の処理を行うことが求められる。さらに、質のよい染色をするには、所定の染色設備や染色技術が求められる。そこで、染色をせずに組織や細胞を観察しやすくすることが求められる。 Although staining makes it easier to observe the state of tissues and cells, the problem is that staining takes time. In addition, staining requires processing such as decolorization. Furthermore, to achieve high-quality staining, specific staining equipment and staining techniques are required. Therefore, there is a need to make it easier to observe tissues and cells without staining.

本発明は、組織や細胞を染色することなく観察できる技術を提供することを目的とする。 The present invention aims to provide a technique that allows for the observation of tissues and cells without staining them.

上記課題を解決するために、以下の手段を採用する。 To solve the above problems, the following measures will be adopted.

即ち、第1の態様は、
生体物質試料の所定の励起光による自家蛍光を撮影した自家蛍光画像を取得し、所定の染色液で染色した前記生体物質試料を撮影した染色画像を取得する画像取得部と、
前記画像取得部が取得した前記自家蛍光画像と前記染色画像とに基づいて、前記自家蛍光画像の前記生体物質試料を前記染色液で染色した際の染色された前記生体物質試料が撮影された画像を推定する染色画像推定器を学習する染色画像推定器学習部と、
を備える画像処理装置である。
That is, the first aspect is
an image acquisition unit that acquires an autofluorescence image by capturing autofluorescence of a biological material sample due to a predetermined excitation light, and acquires a stained image by capturing the biological material sample stained with a predetermined staining solution;
a stained image estimator learning unit that learns a stained image estimator that estimates an image of the stained biological material sample when the biological material sample in the autofluorescence image is stained with the staining solution, based on the autofluorescence image and the stained image acquired by the image acquisition unit;
The image processing device includes:

開示の態様は、プログラムが情報処理装置によって実行されることによって実現されてもよい。即ち、開示の構成は、上記した態様における各手段が実行する処理を、情報処理装置に対して実行させるためのプログラム、或いは当該プログラムを記録したコンピュータ読み取り可能な記録媒体として特定することができる。また、開示の構成は、上記した各手段が実行する処理を情報処理装置が実行する方法をもって特定されてもよい。開示の構成は、上記した各手段が実行する処理を行う情報処理装置を含むシステムとして特定されてもよい。 The disclosed aspects may be realized by a program being executed by an information processing device. That is, the disclosed configuration may be specified as a program for causing an information processing device to execute the processes executed by each of the means in the above-mentioned aspects, or a computer-readable recording medium on which the program is recorded. The disclosed configuration may also be specified by a method in which an information processing device executes the processes executed by each of the above-mentioned means. The disclosed configuration may also be specified as a system including an information processing device that executes the processes executed by each of the above-mentioned means.

本発明によれば、組織や細胞を染色することなく観察できる技術を提供することができる。 The present invention provides a technology that allows tissues and cells to be observed without staining them.

図1は、実施形態1のシステムの構成例を示す図である。FIG. 1 is a diagram illustrating an example of the configuration of a system according to the first embodiment. 図2は、画像処理装置の機能構成例を示す図である。FIG. 2 is a diagram illustrating an example of a functional configuration of the image processing apparatus. 図3は、情報処理装置のハードウェア構成例を示す図である。FIG. 3 is a diagram illustrating an example of a hardware configuration of an information processing device. 図4は、画像処理装置における色素量推定器の生成の際の動作フローの例を示す図である。FIG. 4 is a diagram showing an example of an operational flow when generating a dye amount estimator in an image processing apparatus. 図5は、蛍光顕微鏡で撮影された生体物質(肝組織)の自家蛍光画像の例(1)を示す図である。FIG. 5 is a diagram showing an example (1) of an autofluorescence image of a biological material (liver tissue) photographed by a fluorescence microscope. 図6は、蛍光顕微鏡で撮影された生体物質(肝組織)の自家蛍光画像の例(2)を示す図である。FIG. 6 is a diagram showing an example (2) of an autofluorescence image of a biological material (liver tissue) photographed by a fluorescence microscope. 図7は、蛍光顕微鏡で撮影された生体物質(肝組織)の自家蛍光画像の例(3)を示す図である。FIG. 7 is a diagram showing an example (3) of an autofluorescence image of a biological material (liver tissue) photographed by a fluorescence microscope. 図8は、染色液等の分光吸収係数の波長依存性のグラフの例を示す図である。FIG. 8 is a diagram showing an example of a graph of the wavelength dependency of the spectral absorption coefficient of a dye solution or the like. 図9は、画像処理装置における模擬染色画像の生成の際の動作フローの例を示す図である。FIG. 9 is a diagram showing an example of an operational flow when generating a simulated stained image in the image processing device. 図10は、実施形態2のシステムの構成例を示す図である。FIG. 10 is a diagram illustrating an example of the configuration of a system according to the second embodiment. 図11は、染色画像推定器学習装置における染色画像推定器の学習の際の動作フローの例を示す図である。FIG. 11 is a diagram showing an example of an operation flow when the stained image estimator learning device learns the stained image estimator. 図12は、染色画像推定器学習部における染色画像推定器の学習を説明する図である。FIG. 12 is a diagram for explaining the learning of the stained image estimator in the stained image estimator learning unit. 図13は、実施形態2の模擬染色画像生成のシステムの構成例を示す図である。FIG. 13 is a diagram showing an example of the configuration of a simulated stained image generating system according to the second embodiment. 図14は、画像処理装置における模擬染色画像の生成の際の動作フローの例を示す図である。FIG. 14 is a diagram showing an example of an operational flow when generating a simulated stained image in the image processing device. 図15は、模擬染色画像生成部における模擬染色画像の生成を説明する図である。FIG. 15 is a diagram for explaining the generation of a simulated stained image in the simulated stained image generating section. 図16は、画像型深層学習器の一例として、MTANNの構造を示す図である。FIG. 16 is a diagram showing the structure of an MTANN as an example of an image-based deep learning machine. 図17は、MTANNの学習を示す図である。FIG. 17 is a diagram showing the learning of the MTANN.

以下、図面を参照して実施形態について説明する。実施形態の構成は例示であり、発明の構成は、開示の実施形態の具体的構成に限定されない。発明の実施にあたって、実施形態に応じた具体的構成が適宜採用されてもよい。 The following describes the embodiments with reference to the drawings. The configurations of the embodiments are merely examples, and the configuration of the invention is not limited to the specific configurations of the disclosed embodiments. When implementing the invention, specific configurations according to the embodiments may be appropriately adopted.

〔実施形態1〕
(構成例1)
図1は、本実施形態のシステムの構成例を示す図である。本実施形態のシステム10は、画像処理装置100、蛍光顕微鏡200、マルチスペクトルカメラ300を含む。
[Embodiment 1]
(Configuration Example 1)
1 is a diagram showing an example of the configuration of a system according to the present embodiment. The system 10 according to the present embodiment includes an image processing device 100, a fluorescence microscope 200, and a multispectral camera 300.

画像処理装置100は、蛍光顕微鏡200から試料の自家蛍光画像を取得し、マルチスペクトルカメラ300からバンドごとの試料の染色画像を取得する。画像処理装置100は、染色画像から、色素量を検出する。画像処理装置100は、検出された色素量と、自家蛍光画像とを対応付けて、色素量推定器を生成する。画像処理装置100は、生成した色素量推定器を使用して、他の自家蛍光画像に基づいて、染色画像を出力する。試料は、例えば、細胞や組織などの生体物質である。画像処理装置100と、蛍光顕微鏡200及びマルチスペクトルカメラ300とは、直接、又は、ネットワーク等を介して、通信可能に接続されている。 The image processing device 100 acquires an autofluorescence image of the sample from the fluorescence microscope 200, and acquires a stained image of the sample for each band from the multispectral camera 300. The image processing device 100 detects the amount of dye from the stained image. The image processing device 100 generates a dye amount estimator by associating the detected amount of dye with the autofluorescence image. The image processing device 100 uses the generated dye amount estimator to output a stained image based on another autofluorescence image. The sample is, for example, a biological material such as a cell or tissue. The image processing device 100, the fluorescence microscope 200, and the multispectral camera 300 are connected to each other so as to be able to communicate with each other directly or via a network or the like.

蛍光顕微鏡200は、試料に励起光を照射し、当該試料からの自家蛍光を観察することによって、試料を観察する顕微鏡である。蛍光顕微鏡200は、試料に対して、複数の種類の励起光(波長の異なる励起光)を照射し、それぞれの自家蛍光画像を取得することができる。 The fluorescence microscope 200 is a microscope that observes a sample by irradiating the sample with excitation light and observing the autofluorescence from the sample. The fluorescence microscope 200 can irradiate the sample with multiple types of excitation light (excitation light with different wavelengths) and obtain each autofluorescence image.

マルチスペクトルカメラ300は、撮影対象を複数に分けられたバンド(周波数帯、波長帯)毎に撮影することができるカメラである。マルチスペクトルカメラ300は、染色された試料をバンドごとに撮影する。 The multispectral camera 300 is a camera that can capture images of an object in multiple bands (frequency bands, wavelength bands). The multispectral camera 300 captures images of a stained sample in each band.

図2は、画像処理装置の機能構成例を示す図である。画像処理装置100は、画像取得部102、色情報取得部104、色素量検出部106、色素量推定部108、画像生成部110を含む。 Figure 2 is a diagram showing an example of the functional configuration of an image processing device. The image processing device 100 includes an image acquisition unit 102, a color information acquisition unit 104, a pigment amount detection unit 106, a pigment amount estimation unit 108, and an image generation unit 110.

画像取得部102は、蛍光顕微鏡200から試料の自家蛍光画像を取得し、マルチスペクトルカメラ300から試料の染色画像を取得する。 The image acquisition unit 102 acquires an autofluorescence image of the sample from the fluorescence microscope 200 and acquires a stained image of the sample from the multispectral camera 300.

色情報取得部104は、マルチスペクトルカメラ300で撮影された染色された試料の染色画像から、色情報を取得する。 The color information acquisition unit 104 acquires color information from the stained image of the stained sample captured by the multispectral camera 300.

色素量検出部106は、取得されたマルチバンドの染色画像の色情報から、色素量を推定する。 The dye amount detection unit 106 estimates the amount of dye from the color information of the acquired multiband stained image.

色素量推定部108は、自家蛍光画像と染色画像の色素量とに基づいて、色素量推定器を生成する。 The pigment amount estimation unit 108 generates a pigment amount estimator based on the pigment amounts in the autofluorescence image and the stained image.

画像生成部110は、蛍光顕微鏡200で撮影された試料の自家蛍光画像に基づいて、色素量推定器を用いて、デジタル染色画像(模擬染色画像)を生成する。 The image generating unit 110 uses a dye amount estimator to generate a digital stained image (simulated stained image) based on the autofluorescence image of the sample captured by the fluorescence microscope 200.

図3は、情報処理装置のハードウェア構成例を示す図である。図3に示す情報処理装置
90は、一般的なコンピュータの構成を有している。画像処理装置100は、図3に示すような情報処理装置90を用いることによって、実現される。図3の情報処理装置90は、プロセッサ91、メモリ92、記憶部93、入力部94、出力部95、通信制御部96を有する。これらは、互いにバスによって接続される。メモリ92及び記憶部93は、コンピュータ読み取り可能な記録媒体である。情報処理装置のハードウェア構成は、図3に示される例に限らず、適宜構成要素の省略、置換、追加が行われてもよい。
Fig. 3 is a diagram showing an example of the hardware configuration of an information processing device. The information processing device 90 shown in Fig. 3 has the configuration of a general computer. The image processing device 100 is realized by using the information processing device 90 as shown in Fig. 3. The information processing device 90 in Fig. 3 has a processor 91, a memory 92, a storage unit 93, an input unit 94, an output unit 95, and a communication control unit 96. These are connected to each other by a bus. The memory 92 and the storage unit 93 are computer-readable recording media. The hardware configuration of the information processing device is not limited to the example shown in Fig. 3, and components may be omitted, replaced, or added as appropriate.

情報処理装置90は、プロセッサ91が記録媒体に記憶されたプログラムをメモリ92の作業領域にロードして実行し、プログラムの実行を通じて各構成部等が制御されることによって、所定の目的に合致した機能を実現することができる。 The information processing device 90 has a processor 91 that loads a program stored on a recording medium into a working area of a memory 92 and executes the program, and each component is controlled through the execution of the program, thereby realizing functions that meet a specified purpose.

プロセッサ91は、例えば、CPU(Central Processing Unit)やDSP(Digital Signal Processor)である。 The processor 91 is, for example, a CPU (Central Processing Unit) or a DSP (Digital Signal Processor).

メモリ92は、例えば、RAM(Random Access Memory)やROM(Read Only Memory)を含む。メモリ92は、主記憶装置とも呼ばれる。 Memory 92 includes, for example, RAM (Random Access Memory) and ROM (Read Only Memory). Memory 92 is also called a main storage device.

記憶部93は、例えば、EPROM(Erasable Programmable ROM)、ハードディスク
ドライブ(HDD、Hard Disk Drive)である。また、記憶部93は、リムーバブルメデ
ィア、即ち可搬記録媒体を含むことができる。リムーバブルメディアは、例えば、USB(Universal Serial Bus)メモリ、あるいは、CD(Compact Disc)やDVD(Digital Versatile Disc)のようなディスク記録媒体である。記憶部93は、二次記憶装置とも呼ばれる。
The storage unit 93 is, for example, an erasable programmable ROM (EPROM) or a hard disk drive (HDD). The storage unit 93 may also include a removable medium, i.e., a portable recording medium. The removable medium is, for example, a universal serial bus (USB) memory or a disk recording medium such as a compact disc (CD) or a digital versatile disc (DVD). The storage unit 93 is also called a secondary storage device.

記憶部93は、情報処理装置90で使用される、各種のプログラム、各種のデータ及び各種のテーブルを読み書き自在に記録媒体に格納する。記憶部93には、オペレーティングシステム(Operating System :OS)、各種プログラム、各種テーブル等が格納される。記憶部93に格納される情報は、メモリ92に格納されてもよい。また、メモリ92に格納される情報は、記憶部93に格納されてもよい。 The storage unit 93 stores various programs, various data, and various tables used by the information processing device 90 in a readable and writable recording medium. The storage unit 93 stores an operating system (OS), various programs, various tables, etc. The information stored in the storage unit 93 may be stored in the memory 92. Also, the information stored in the memory 92 may be stored in the storage unit 93.

オペレーティングシステムは、ソフトウェアとハードウェアとの仲介、メモリ空間の管理、ファイル管理、プロセスやタスクの管理等を行うソフトウェアである。オペレーティングシステムは、通信インタフェースを含む。通信インタフェースは、通信制御部96を介して接続される他の外部装置等とデータのやり取りを行うプログラムである。外部装置等には、例えば、他の情報処理装置、外部記憶装置等が含まれる。 The operating system is software that mediates between software and hardware, manages memory space, manages files, and manages processes and tasks. The operating system includes a communication interface. The communication interface is a program that exchanges data with other external devices connected via the communication control unit 96. External devices include, for example, other information processing devices, external storage devices, etc.

入力部94は、キーボード、ポインティングデバイス、ワイヤレスリモコン、タッチパネル等を含む。また、入力部94は、カメラのような映像や画像の入力装置や、マイクロフォンのような音声の入力装置を含むことができる。 The input unit 94 includes a keyboard, a pointing device, a wireless remote control, a touch panel, etc. The input unit 94 can also include an input device for video or images, such as a camera, and an input device for audio, such as a microphone.

出力部95は、LCD(Liquid Crystal Display)、EL(Electroluminescence)パ
ネル、CRT(Cathode Ray Tube)ディスプレイ、PDP(Plasma Display Panel)等の表示装置、プリンタ等の出力装置を含む。また、出力部95は、スピーカのような音声の出力装置を含むことができる。
The output unit 95 includes a display device such as an LCD (Liquid Crystal Display), an EL (Electroluminescence) panel, a CRT (Cathode Ray Tube) display, a PDP (Plasma Display Panel), etc., a printer, etc. The output unit 95 may also include an audio output device such as a speaker.

通信制御部96は、他の装置と接続し、情報処理装置90と他の装置との間の通信を制御する。通信制御部96は、例えば、LAN(Local Area Network)インタフェースボード、無線通信のための無線通信回路、有線通信のための通信回路である。LANインタフェースボードや無線通信回路は、インターネット等のネットワークに接続される。 The communication control unit 96 connects to other devices and controls communication between the information processing device 90 and the other devices. The communication control unit 96 is, for example, a LAN (Local Area Network) interface board, a wireless communication circuit for wireless communication, and a communication circuit for wired communication. The LAN interface board and the wireless communication circuit are connected to a network such as the Internet.

情報処理装置90は、プロセッサが補助記憶部に記憶されたプログラムを主記憶部の作業領域に実行可能に展開し、プログラムの実行を通じて周辺機器等の制御を行う。これにより、情報処理装置は、所定の目的に合致した機能を実現することができる。主記憶部及び補助記憶部は、情報処理装置が読み取り可能な記録媒体である。 In the information processing device 90, the processor deploys a program stored in the auxiliary memory unit in an executable manner in the working area of the main memory unit, and controls peripheral devices, etc. through the execution of the program. This allows the information processing device to realize functions that meet a specified purpose. The main memory unit and the auxiliary memory unit are recording media that can be read by the information processing device.

(動作例1)
〈色素量推定器生成〉
図4は、画像処理装置における色素量推定器の生成の際の動作フローの例を示す図である。
(Operation example 1)
<Pigment amount estimator generation>
FIG. 4 is a diagram showing an example of an operational flow when generating a dye amount estimator in an image processing apparatus.

S101では、画像処理装置100の画像取得部102は、蛍光顕微鏡200で撮影された試料の自家蛍光画像を蛍光顕微鏡200から取得する。自家蛍光画像は、試料に所定の周波数の励起光を照射して、試料の自家蛍光を撮影したものである。蛍光顕微鏡200では、試料には複数の種類(複数の波長)の励起光が照射され、それぞれの励起光に対する試料の自家蛍光が撮影される。試料は、例えば、細胞や組織等の生体物質の切片標本である。S101及びS102で使用される試料は、同一の生体物質から生成される切片標本である。取得される自家蛍光画像は、1種類の励起光によるものであってもよい。 In S101, the image acquisition unit 102 of the image processing device 100 acquires an autofluorescence image of a sample captured by the fluorescence microscope 200 from the fluorescence microscope 200. The autofluorescence image is obtained by irradiating the sample with excitation light of a predetermined frequency and capturing the autofluorescence of the sample. In the fluorescence microscope 200, the sample is irradiated with multiple types (multiple wavelengths) of excitation light, and the autofluorescence of the sample for each excitation light is captured. The sample is, for example, a slice specimen of a biological material such as cells or tissue. The samples used in S101 and S102 are slice specimens produced from the same biological material. The acquired autofluorescence image may be obtained using one type of excitation light.

図5、図6、図7は、蛍光顕微鏡で撮影された生体物質(肝組織)の自家蛍光画像の例を示す図である。図5、図6、図7において、色が白いほど、明るいことを示す。図5の自家蛍光画像では、励起光の波長が470nmであり、495nm以上の波長の光を通すフィルタが使用されている。図6の自家蛍光画像では、励起光の波長が545nmであり、565nm以上の波長の光を通すフィルタが使用されている。図7の自家蛍光画像では、励起光の波長が360nmであり、400nm以上の波長の光を通すフィルタが使用されている。自家蛍光画像には励起光は含まれていない。 Figures 5, 6, and 7 are examples of autofluorescence images of biological material (liver tissue) taken with a fluorescence microscope. In Figures 5, 6, and 7, whiter colors indicate brighter images. In the autofluorescence image of Figure 5, the excitation light has a wavelength of 470 nm, and a filter that passes light with a wavelength of 495 nm or more is used. In the autofluorescence image of Figure 6, the excitation light has a wavelength of 545 nm, and a filter that passes light with a wavelength of 565 nm or more is used. In the autofluorescence image of Figure 7, the excitation light has a wavelength of 360 nm, and a filter that passes light with a wavelength of 400 nm or more is used. The autofluorescence image does not contain excitation light.

S102では、画像取得部102は、マルチスペクトルカメラ300で撮影された染色された試料の染色画像をマルチスペクトルカメラ300から取得する。染色画像は、所定の染色液で試料を染色して撮影されたものである。試料に所定の染色液を添加することで、所定の部分が発色する。発色する部分、色は、染色液に依存する。マルチスペクトルカメラ300では、複数のバンド(周波数帯)で染色画像が撮影される。染色液は、例えば、ヘマトキシリン(Haematoxylin)、エオジン(Eosin)である。染色液として、複数の
染色液が使用されてもよい。マルチスペクトルカメラ300を使用することで、試料を透過した透過光のより詳細な情報を得ることができる。
In S102, the image acquisition unit 102 acquires a stained image of the stained sample captured by the multispectral camera 300 from the multispectral camera 300. The stained image is captured by staining the sample with a predetermined staining solution. By adding a predetermined staining solution to the sample, a predetermined portion develops color. The portion and color that develops color depend on the staining solution. The multispectral camera 300 captures stained images in multiple bands (frequency bands). The staining solution is, for example, hematoxylin and eosin. Multiple staining solutions may be used as the staining solution. By using the multispectral camera 300, more detailed information on the transmitted light that has passed through the sample can be obtained.

S103では、色情報取得部104は、各バンドの染色画像から、画像における各ピクセル(位置)の吸光度を求める。吸光度は、光が媒質を通った際に光の強度がどの程度弱まるかを示す量である。各ピクセルの吸光度は、各ピクセルの明るさに依存する。色情報取得部104は、バンド毎に、染色画像における各ピクセルの明るさから各ピクセルの吸光度を求める。各バンドの吸光度は、試料に取り込まれた染色液の色素量及び染色液の吸光係数に依存する。 In S103, the color information acquisition unit 104 obtains the absorbance of each pixel (position) in the image from the stained image of each band. Absorbance is a quantity that indicates the degree to which the intensity of light is weakened when light passes through a medium. The absorbance of each pixel depends on the brightness of each pixel. For each band, the color information acquisition unit 104 obtains the absorbance of each pixel from the brightness of each pixel in the stained image. The absorbance of each band depends on the amount of pigment in the staining solution incorporated into the sample and the extinction coefficient of the staining solution.

S104では、色素量検出部106は、S103で求めた吸光度、既知である染色液の分光吸収係数に基づいて、ピクセル毎に、試料に取り込まれた染色液の色素量を算出する。分光吸収係数は、光が媒質に入射したときに媒質がどの程度光を吸収するかを示す量である。染色液の吸収係数は、入射する光の波長に依存する。吸光度ベクトルをa、分光吸収係数行列をX、色素量をCとすると、ランバートベールの法則により、次のように表される。吸光度ベクトルは、バンド毎の吸光度をベクトル表示したものである。分光吸収係数行列は、染色液毎、バンド毎の吸収係数を行列表示したものである。

Figure 0007470339000001

これらの式より、推定行列Xを吸光度ベクトルaに乗算することによって、試料に取り込まれた染色液毎のピクセル毎(位置毎)の色素量Cを求めることができる。色素量検出部106は、ピクセル毎の色素量に基づいて、試料の各位置の色素量を示す色素量画像を生成する。色素量画像は、試料に取り込まれた染色液の分布を示す。色素量画像では、例えば、染色液が多く取り込まれた位置はより明るくなる。 In S104, the dye amount detection unit 106 calculates the amount of dye of the staining solution incorporated into the sample for each pixel based on the absorbance determined in S103 and the known spectral absorption coefficient of the staining solution. The spectral absorption coefficient is an amount that indicates the degree to which a medium absorbs light when the light is incident on the medium. The absorption coefficient of the staining solution depends on the wavelength of the incident light. If the absorbance vector is a, the spectral absorption coefficient matrix is X, and the amount of dye is C, then it can be expressed as follows according to Lambert-Beer's law. The absorbance vector is a vector representation of the absorbance for each band. The spectral absorption coefficient matrix is a matrix representation of the absorption coefficient for each staining solution and each band.
Figure 0007470339000001

From these equations, the dye amount C for each pixel (each position) for each staining solution taken into the sample can be obtained by multiplying the absorbance vector a by the estimated matrix X + . The dye amount detection unit 106 generates a dye amount image showing the dye amount at each position on the sample based on the dye amount for each pixel. The dye amount image shows the distribution of the staining solution taken into the sample. In the dye amount image, for example, positions where a large amount of staining solution has been taken in are brighter.

図8は、染色液等の分光吸収係数の波長依存性のグラフの例を示す図である。図8の例では、ヘマトキシリン、エオジン、赤血球の分光吸収係数を示す。図8の例では、例えば、エオジンの分光吸収係数は、550nm近辺でピークとなる。分光吸収係数行列は、当該グラフに基づいて生成される。 Figure 8 is a diagram showing an example of a graph of the wavelength dependence of the spectral absorption coefficient of a staining solution, etc. The example in Figure 8 shows the spectral absorption coefficients of hematoxylin, eosin, and red blood cells. In the example in Figure 8, for example, the spectral absorption coefficient of eosin peaks at about 550 nm. The spectral absorption coefficient matrix is generated based on this graph.

S105では、色素量検出部106は、S101で取得した自家蛍光画像と、S104で生成した色素量画像との関係を機械学習等により分析する。分析には、ニューラルネットワークによるディープラーニング、Regression SVM、Regression Random Forest、多重回帰分析、Look Up Table等の学習空間を利用する手法等が使用され得る。分析には、連
続値を予測するような手法が適用可能である。色素量検出部106は、例えば、ニューラルネットワークであれば、複数の条件(励起光)で励起された試料の自家蛍光画像を入力データとし、試料を染色して得られたマルチスペクトル画像から求められた色素量画像を出力データとする。色素量検出部106は、当該入力データと当該出力データとが紐付けられた教師あり学習により、ニューラルネットワークのニューロン間の重み付け係数を最適化して、色素量推定器を構築する。色素量推定器は、より多くの自家蛍光画像と色素量画像との組を用いることで最適化される。また、色素量推定器は、染色液毎に生成することができる。また、入力データとして、テクスチャ情報等の画像処理特徴量(組織や細胞の特徴を示す情報など)が含まれてもよい。
In S105, the dye amount detection unit 106 analyzes the relationship between the autofluorescence image acquired in S101 and the dye amount image generated in S104 by machine learning or the like. For the analysis, a method using a learning space such as deep learning by a neural network, regression SVM, regression random forest, multiple regression analysis, look up table, or the like can be used. For the analysis, a method for predicting continuous values can be applied. For example, if the dye amount detection unit 106 is a neural network, the input data is an autofluorescence image of a sample excited under a plurality of conditions (excitation light), and the output data is a dye amount image obtained from a multispectral image obtained by staining the sample. The dye amount detection unit 106 optimizes the weighting coefficient between neurons of the neural network by supervised learning in which the input data and the output data are linked to each other, thereby constructing a dye amount estimator. The dye amount estimator is optimized by using a larger number of pairs of autofluorescence images and dye amount images. In addition, the dye amount estimator can be generated for each staining solution. The input data may also include image processing features such as texture information (information indicating the characteristics of tissues or cells, etc.).

また、試料を様々な染色液で染色した染色画像を用いて、色素量推定器を生成することで、様々な染色液の色素量推定器を生成することができる。 In addition, by generating dye amount estimators using stained images of samples stained with various staining solutions, it is possible to generate dye amount estimators for various staining solutions.

〈模擬染色画像生成〉
図9は、画像処理装置における模擬染色画像の生成の際の動作フローの例を示す図である。模擬染色画像(デジタル染色画像)は、試料の自家蛍光画像を使用して色素量推定器により推定された推定色素量画像に基づいて得られる、模擬的な染色画像である。模擬染色画像は、試料を実際に染色した染色画像を模擬したものである。ここでは、画像処理装置100は、染色されていない試料の自家蛍光画像と、上記の色素量推定器とを用いて、模擬染色画像を生成する。
<Simulated dye image generation>
9 is a diagram showing an example of an operation flow when generating a simulated stained image in an image processing device. The simulated stained image (digital stained image) is a simulated stained image obtained based on an estimated dye amount image estimated by a dye amount estimator using an autofluorescence image of a sample. The simulated stained image is a simulation of a stained image obtained by actually staining a sample. Here, the image processing device 100 generates the simulated stained image using an autofluorescence image of an unstained sample and the above-mentioned dye amount estimator.

S201では、画像処理装置100の画像取得部102は、蛍光顕微鏡200で撮影された試料の自家蛍光画像を蛍光顕微鏡200から取得する。蛍光顕微鏡200では、試料には複数の種類(複数の波長)の励起光が照射され、それぞれの励起光に対する試料の自家蛍光が撮影される。試料は、例えば、細胞や組織等の生体物質の切片標本である。ここで使用される自家蛍光画像に対応する試料は、色素量推定器の生成の際に使用された自家蛍光画像に対応する試料と異なる試料である。 In S201, the image acquisition unit 102 of the image processing device 100 acquires an autofluorescence image of a sample captured by the fluorescence microscope 200 from the fluorescence microscope 200. In the fluorescence microscope 200, the sample is irradiated with multiple types (multiple wavelengths) of excitation light, and the autofluorescence of the sample in response to each excitation light is captured. The sample is, for example, a slice specimen of a biological material such as a cell or tissue. The sample corresponding to the autofluorescence image used here is a different sample from the sample corresponding to the autofluorescence image used when generating the pigment amount estimator.

S202では、色素量推定部108は、画像取得部102で取得された自家蛍光画像を
入力データとして、所望の染色液に対応する色素量推定器を用いて、推定された所望の染料液の色素量画像を生成する。色素量画像では、例えば、色素量が多いほど明るい色で表示される。色素量画像は、推定される試料に取り込まれた染色液の色素量を示す画像である。
In S202, the dye amount estimation unit 108 uses the autofluorescence image acquired by the image acquisition unit 102 as input data and generates an estimated dye amount image of the desired dye solution using a dye amount estimator corresponding to the desired staining solution. In the dye amount image, for example, the greater the dye amount, the brighter the color displayed. The dye amount image is an image that indicates the estimated dye amount of the staining solution incorporated in the specimen.

S203では、画像生成部110は、色素量画像(または色素量)と、染色液毎の分光吸収係数とから、バンド毎の各ピクセルについての吸光度を算出する。画像生成部110は、算出されたバンド毎の吸光度からバンド毎の光の透過率を算出し、ピクセルごとにRGB(Red Green Blue)の成分毎に積分して、各ピクセルの画素値(RGB値)を算出する。画像生成部110は、算出された各ピクセルの画素値に基づいて、模擬染色画像(デジタル染色画像)を生成する。これにより、画像処理装置100は、所望の染色液についての擬似染色画像を、試料を染色することなく生成することができる。 In S203, the image generating unit 110 calculates the absorbance for each pixel for each band from the dye amount image (or dye amount) and the spectral absorption coefficient for each staining solution. The image generating unit 110 calculates the light transmittance for each band from the calculated absorbance for each band, and calculates the pixel value (RGB value) of each pixel by integrating for each RGB (Red Green Blue) component for each pixel. The image generating unit 110 generates a pseudo-stained image (digital stained image) based on the calculated pixel value of each pixel. This allows the image processing device 100 to generate a pseudo-stained image for a desired staining solution without staining the sample.

(実施形態1の作用、効果)
画像処理装置100は、蛍光顕微鏡200で撮影された細胞や組織などの生体物質の試料の自家蛍光画像を取得する。画像処理装置100は、マルチスペクトルカメラ300で撮影された染色液で染色された染色画像を取得する。画像処理装置100は、染色画像と、染色液の分光吸収係数とに基づいて、試料に取り込まれた染色液の色素量を算出する。画像処理装置100は、自家蛍光画像と、算出された色素量(色素量画像)とに基づいて、色素量推定器を生成する。
(Actions and Effects of the First Embodiment)
The image processing device 100 acquires an autofluorescence image of a biological material sample such as a cell or tissue captured by a fluorescence microscope 200. The image processing device 100 acquires a stained image stained with a staining solution captured by a multispectral camera 300. The image processing device 100 calculates the amount of dye in the staining solution incorporated into the sample based on the stained image and the spectral absorption coefficient of the staining solution. The image processing device 100 generates a dye amount estimator based on the autofluorescence image and the calculated dye amount (dye amount image).

画像処理装置100は、試料の自家蛍光画像と、所望の染色液に対応する色素量推定器とを用いて、推定された色素量画像を生成する。画像処理装置100は、色素量画像と、染料液毎の分光吸収係数とから、バンド毎の吸光度を算出する。画像処理装置100は、バンド毎の吸光度からバンド毎の透過率を算出し、バンド毎の透過率をRGBの成分毎に積分することで、各ピクセルの画素値を算出し、擬似染色画像を生成する。 The image processing device 100 generates an estimated dye amount image using an autofluorescence image of the sample and a dye amount estimator corresponding to the desired staining solution. The image processing device 100 calculates the absorbance for each band from the dye amount image and the spectral absorption coefficient for each staining solution. The image processing device 100 calculates the transmittance for each band from the absorbance for each band, and integrates the transmittance for each band for each RGB component to calculate the pixel value of each pixel and generate a pseudo-stained image.

画像処理装置100は、従来、染色の際にノイズとされてきた自家蛍光を使用して、染色したときの色素量を推定してデジタル染色画像(模擬染色画像)を生成することで、標本(試料)を染色することなく、染色画像を得ることができる。画像処理装置100によれば、貴重な試料であっても、試料を襲侵することなく、模擬的な染色画像を得ることができる。未染色標本等を観察するための特殊な顕微鏡を用意することなく、未染色標本を容易に観察することができる。また、画像処理装置100によれば、試料を染色しないため、1つの試料で様々な染色液による擬似染色画像の生成をすることができる。 The image processing device 100 uses autofluorescence, which has traditionally been considered noise during staining, to estimate the amount of dye when stained and generate a digital stained image (simulated stained image), thereby making it possible to obtain a stained image without staining the specimen (sample). With the image processing device 100, it is possible to obtain a simulated stained image without invasively inspecting even valuable samples. Unstained samples can be easily observed without the need for a special microscope for observing unstained samples, etc. Furthermore, with the image processing device 100, since the sample is not stained, it is possible to generate pseudo-stained images using various staining solutions from a single sample.

〔実施形態2〕
(構成例2)
図10は、本実施形態のシステムの構成例を示す図である。本実施形態のシステム40は、染色画像推定器学習装置400、自家蛍光画像撮影装置500、染色画像撮影装置600を含む。
[Embodiment 2]
(Configuration Example 2)
10 is a diagram showing an example of the configuration of a system according to this embodiment. A system 40 according to this embodiment includes a stained image estimator learning device 400, an autofluorescence image capturing device 500, and a stained image capturing device 600.

染色画像推定器学習装置400は、自家蛍光画像撮影装置500から試料の自家蛍光画像を取得し、染色画像撮影装置600から試料を染色した染色画像を取得する。染色画像推定器学習装置400は、自家蛍光画像と、染色画像とを対応付けて、染色画像推定器を学習する。試料は、例えば、細胞や組織などの生体物質試料である。染色画像推定器学習装置400と、自家蛍光画像撮影装置500と染色画像撮影装置600とは、直接、又は、ネットワーク等を介して、通信可能に接続されている。 The stained image estimator learning device 400 acquires an autofluorescence image of a sample from the autofluorescence image capturing device 500, and acquires a stained image of the sample stained from the stained image capturing device 600. The stained image estimator learning device 400 associates the autofluorescence image with the stained image to learn the stained image estimator. The sample is, for example, a biological material sample such as a cell or tissue. The stained image estimator learning device 400, the autofluorescence image capturing device 500, and the stained image capturing device 600 are connected to each other so as to be able to communicate with each other directly or via a network or the like.

染色画像推定器学習装置400は、画像取得部410、位置合わせ部420、染色画像推定器学習部430を含む。また、画像処理装置400は、染色画像推定器(赤色)45
1、染色画像推定器(緑色)452、染色画像推定器(青色)453を含む。染色画像推定器(赤色)451、染色画像推定器(緑色)452、染色画像推定器(青色)453をまとめて、各色の染色画像推定器ともいう。
The stained image estimator learning device 400 includes an image acquisition unit 410, a registration unit 420, and a stained image estimator learning unit 430. The image processing device 400 also includes a stained image estimator (red) 45.
1, a stained image estimator (green) 452, and a stained image estimator (blue) 453. The stained image estimator (red) 451, the stained image estimator (green) 452, and the stained image estimator (blue) 453 are collectively referred to as the stained image estimators of each color.

画像取得部410は、自家蛍光画像撮影装置500から試料の自家蛍光画像を取得し、染色画像撮影装置600から試料の染色画像を取得する。自家蛍光画像を撮影する際に使用された試料が、試薬により染色されて染色画像を撮影する際に使用される試料となる。自家蛍光画像を撮影する際に使用された試料と、試薬により染色されて染色画像を撮影する際に使用された試料とが、ほとんど差異のない極近傍で採取された2つの試料であってもよい。この2つの試料は、同一の試料であるとみなせる。 The image acquisition unit 410 acquires an autofluorescence image of the sample from the autofluorescence image capture device 500, and acquires a stained image of the sample from the stained image capture device 600. The sample used when capturing the autofluorescence image is the sample used when stained with a reagent and capturing the stained image. The sample used when capturing the autofluorescence image and the sample used when stained with a reagent and capturing the stained image may be two samples collected in close proximity with almost no difference between them. These two samples can be considered to be the same sample.

位置合わせ部420は、自家蛍光画像における試料の位置と、染色画像における試料の位置とを合わせる。自家蛍光画像と染色画像との位置合わせを行うことで、染色画像推定器の精度が向上する。 The alignment unit 420 aligns the position of the sample in the autofluorescence image with the position of the sample in the stained image. By aligning the autofluorescence image with the stained image, the accuracy of the stained image estimator is improved.

染色画像推定器学習部430は、自家蛍光画像と染色画像との組に基づいて、各色の染色画像推定器を学習する。 The stained image estimator learning unit 430 learns the stained image estimator for each color based on a pair of an autofluorescence image and a stained image.

染色画像推定器学習装置400は、図3に示すような情報処理装置90を用いることによって、実現される。染色画像推定器(赤色)451、染色画像推定器(緑色)452、染色画像推定器(青色)453は、情報処理装置90のメモリ92、記憶部93等の記憶手段に格納され得る。 The stain image estimator learning device 400 is realized by using an information processing device 90 as shown in FIG. 3. The stain image estimator (red) 451, the stain image estimator (green) 452, and the stain image estimator (blue) 453 can be stored in a storage means such as the memory 92 or storage unit 93 of the information processing device 90.

自家蛍光画像撮影装置500は、蛍光顕微鏡510、撮像部520を含む。蛍光顕微鏡510は、試料に励起光を照射し、当該試料からの自家蛍光を観察することによって、試料を観察する顕微鏡である。蛍光顕微鏡510は、試料に対して、複数の種類の励起光(波長の異なる励起光)を照射することができる。撮像部520は、蛍光顕微鏡510に設置され、蛍光顕微鏡510で拡大された試料を撮影する。撮像部520は、試料の励起光ごとの自家蛍光画像を取得することができる。撮像部520は、例えば、グレイスケールカメラ、マルチスペクトルカメラ(Hyper Spectral Imaging(HSI)カメラ)、RGB(Red Green Blue)カメラなどである。マルチスペクトルカメラは、撮影対象(被写体)を複数に分けられたバンド(周波数帯、波長帯)毎に撮影することができるカメラである。RGBカメラは、撮影対象を、赤色、緑色、青色の色毎に撮影することができるカメラである。RGBカメラでは、赤色、緑色、青色の色毎の画像が取得され得る。赤色、緑色、青色の明度の画像を合わせることで、フルカラーの画像を得ることができる。撮像部520は、試料の自家蛍光を撮影した画像を取得することができる。また、撮像部520には、所定の周波数帯の光を透過するフィルタが設けられ、撮像部520は、当該所定の周波数帯の光(試料の自家蛍光等)を撮影してもよい。 The autofluorescence image capturing device 500 includes a fluorescence microscope 510 and an image capturing unit 520. The fluorescence microscope 510 is a microscope that observes a sample by irradiating the sample with excitation light and observing the autofluorescence from the sample. The fluorescence microscope 510 can irradiate the sample with multiple types of excitation light (excitation light with different wavelengths). The image capturing unit 520 is installed in the fluorescence microscope 510 and captures the sample magnified by the fluorescence microscope 510. The image capturing unit 520 can acquire an autofluorescence image for each excitation light of the sample. The image capturing unit 520 is, for example, a grayscale camera, a multispectral camera (Hyper Spectral Imaging (HSI) camera), an RGB (Red Green Blue) camera, etc. The multispectral camera is a camera that can capture the subject (object) for each of multiple bands (frequency bands, wavelength bands). The RGB camera is a camera that can capture the subject for each of the colors red, green, and blue. With an RGB camera, images of red, green, and blue colors can be acquired. A full-color image can be obtained by combining images of red, green, and blue brightness. The image capturing unit 520 can acquire images capturing the autofluorescence of the sample. The image capturing unit 520 may also be provided with a filter that transmits light in a specific frequency band, and the image capturing unit 520 may capture light in the specific frequency band (such as the autofluorescence of the sample).

染色画像撮影装置600は、光学顕微鏡610、撮像部620を含む。光学顕微鏡610は、試薬により染色された試料を、可視光により観察する顕微鏡である。撮像部620は、光学顕微鏡610に設置され、光学顕微鏡610で拡大された試料を撮影する。撮像部620は、RGBカメラである。撮像部620は、マルチスペクトルカメラ等の他のカメラであってもよい。 The stained image capturing device 600 includes an optical microscope 610 and an imaging unit 620. The optical microscope 610 is a microscope that observes a sample stained with a reagent using visible light. The imaging unit 620 is installed in the optical microscope 610 and captures an image of the sample magnified by the optical microscope 610. The imaging unit 620 is an RGB camera. The imaging unit 620 may be another camera such as a multispectral camera.

自家蛍光画像撮影装置500と染色画像撮影装置600とは、一体化して、顕微鏡と撮像部とを有する1つの撮影装置であってもよい。当該顕微鏡は、蛍光顕微鏡510としての機能と光学顕微鏡610としての機能を有する。また、当該撮像部は、撮像部520としての機能と、撮像部620としての機能を有する。 The autofluorescence image capturing device 500 and the stained image capturing device 600 may be integrated into a single capturing device having a microscope and an image capturing unit. The microscope has the function of a fluorescence microscope 510 and the function of an optical microscope 610. The image capturing unit has the function of an image capturing unit 520 and the function of an image capturing unit 620.

〈染色画像推定器の学習〉
図11は、染色画像推定器学習装置における染色画像推定器の学習の際の動作フローの例を示す図である。
Learning the stain image estimator
FIG. 11 is a diagram showing an example of an operation flow when the stained image estimator learning device learns the stained image estimator.

S301では、画像処理装置400の画像取得部410は、自家蛍光画像撮影装置500で撮影された試料の自家蛍光画像を自家蛍光画像撮影装置500から取得する。自家蛍光画像は、試料に所定の周波数の励起光を照射して、試料の自家蛍光を撮影したものである。励起光には、可視光だけでなく、赤外線や紫外線も含まれ得る。自家蛍光画像撮影装置500では、蛍光顕微鏡510により試料には複数の種類(複数の波長)の励起光が照射され、撮像部520によりそれぞれの励起光に対する試料の自家蛍光が撮影される。即ち、自家蛍光画像撮影装置500の撮像部520は、励起光毎に、試料の自家蛍光を撮影する。試料は、例えば、細胞や組織等の生体物質の切片標本である。S301及びS302で使用される試料は、同一の生体物質から生成される切片標本である。取得される自家蛍光画像は、1種類の励起光によるものであってもよい。 In S301, the image acquisition unit 410 of the image processing device 400 acquires an autofluorescence image of a sample captured by the autofluorescence image capture device 500 from the autofluorescence image capture device 500. The autofluorescence image is obtained by irradiating the sample with excitation light of a predetermined frequency and capturing the autofluorescence of the sample. The excitation light may include not only visible light but also infrared light and ultraviolet light. In the autofluorescence image capture device 500, the fluorescence microscope 510 irradiates the sample with multiple types (multiple wavelengths) of excitation light, and the image capture unit 520 captures the autofluorescence of the sample for each excitation light. That is, the image capture unit 520 of the autofluorescence image capture device 500 captures the autofluorescence of the sample for each excitation light. The sample is, for example, a slice specimen of a biological material such as cells or tissue. The sample used in S301 and S302 is a slice specimen produced from the same biological material. The acquired autofluorescence image may be obtained by one type of excitation light.

S302では、画像取得部410は、染色画像撮影装置600で撮影された染色された試料の染色画像を染色画像撮影装置600から取得する。染色画像は、所定の染色液で試料を染色して撮影されたものである。試料に所定の染色液を添加することで、所定の部分が発色する。発色する部分、色は、染色液に依存する。染色画像撮影装置600では、撮像部620のRGBカメラで染色画像が撮影される。染色液は、例えば、ヘマトキシリン(Haematoxylin)、エオジン(Eosin)である。染色液として、複数の染色液が使用され
てもよい。画像取得部410は、染色画像を、赤色、緑色、青色の色毎の染色画像として取得し得る。また、画像取得部410は、染色画像を、使用する染色液毎に取得し得る。
In S302, the image acquisition unit 410 acquires a stained image of the stained sample captured by the stained image capture device 600 from the stained image capture device 600. The stained image is captured by staining the sample with a predetermined staining liquid. By adding a predetermined staining liquid to the sample, a predetermined portion develops color. The portion and color of the colored portion depend on the staining liquid. In the stained image capture device 600, the stained image is captured by the RGB camera of the imaging unit 620. The staining liquid is, for example, hematoxylin and eosin. A plurality of staining liquids may be used as the staining liquid. The image acquisition unit 410 may acquire the stained image as a stained image for each color of red, green, and blue. The image acquisition unit 410 may also acquire the stained image for each staining liquid used.

S303では、位置合わせ部420は、自家蛍光画像における試料の位置と、染色画像における試料の位置とを合わせる。同じ試料を撮影した画像であっても、各撮像部の位置や、染色過程、顕微鏡の性能などの影響により、試料の特定の位置が、一方の画像における座標と他方の画像における座標とで異なることがある。位置合わせ部420は、2つの画像の位置合わせを、2つの画像における試料の複数の同じ位置を利用者が指定することにより行ってもよいし、周知の画像認識技術により自動的に行ってもよい。例えば、位置合わせ部420は、一方の画像に対して他方の画像の位置をずらしながら、2つの画像の各画素の画素値の差分値の和を算出し、当該和が最小のときを2つの画像の位置が合っているとする。位置合わせ部420は、位置合わせの際に、一方の画像を拡大、縮小、回転してもよい。位置合わせ部420は、位置合わせ後、2つの画像において、試料の同じ位置には、同じ座標を割り当てる。位置合わせ部420は、2つの画像に共通して存在する部分を各画像からトリミングして、それぞれ、新たな自家蛍光画像、新たな染色画像としてもよい。S303の処理は省略されてもよい。 In S303, the alignment unit 420 aligns the position of the sample in the autofluorescence image with the position of the sample in the stained image. Even if the images are of the same sample, the coordinates of a specific position of the sample in one image may differ from those in the other image due to the influence of the positions of the imaging units, the staining process, the performance of the microscope, and the like. The alignment unit 420 may align the two images by having the user specify multiple identical positions of the sample in the two images, or may automatically perform the alignment using a well-known image recognition technique. For example, the alignment unit 420 calculates the sum of the difference values of the pixel values of each pixel of the two images while shifting the position of the other image relative to one image, and when the sum is minimum, it is determined that the positions of the two images are aligned. The alignment unit 420 may enlarge, reduce, or rotate one image during alignment. After alignment, the alignment unit 420 assigns the same coordinates to the same positions of the sample in the two images. The alignment unit 420 may trim the portions that are common to the two images from each image to generate a new autofluorescence image and a new stained image, respectively. The process of S303 may be omitted.

S304では、染色画像推定器学習部430は、S301で取得された自家蛍光画像とS302で取得された染色画像との関係(S303で位置合わせが行われた自家蛍光画像と染色画像との関係)を機械学習等により分析する。分析には、画像出力型深層学習等の画像を直接学習する手法等が使用され得る。画像出力型深層学習の例として、MTANN(massive-training artificial neural network)が挙げられる。MTANNは、画像を出力することができる高度な非線形深層学習モデルである。ここでは、染色画像推定器学習部430は、MTANNによる推定器を各色の染色画像推定器として学習する。染色画像推定器は、画像出力型深層学習器の1つである。また、分析には他の深層学習が利用されてもよい。他の深層学習の例として、convolutional neural networks(CNN)、shift-invariant neural networks、deep belief networks(DBN)、deep neural networks(DNN)、fully convolutional neural networks(FCN)、U-Net、V-Net、multi-resolution massive-training artificial neural networks、multiple expert massive
-training artificial neural networks、SegNet、VGG-16、LeNet、AlexNet、ResNet、Auto encoders and decoders、Generative adversarial networks(GAN)、Recurrent Neural Networks(RNN)、Recursive Neural Networks、Long Short-Term Memory(L
STM)等が挙げられる。ここで使用される深層学習は、これらに限定されるものではない。分析には、画像を予測して出力するような手法が適用可能である。ここでは、染色画像推定器学習部430は、複数の条件(励起光)で励起された試料の、複数の自家蛍光画像を入力データとし、試料を染色して得られた染色試料の赤色、緑色、青色の染色画像(染色画像の赤色、緑色、青色の成分)を教師データとする。染色画像推定器学習部430は、当該入力データと当該教師データとが紐付けられた教師あり学習により、ニューラルネットワークのニューロン間の重み付け係数を最適化して、染色画像推定器を構築する。このとき、染色画像推定器学習部430は、染色画像の色毎(赤色、緑色、青色)に染色画像推定器を構築する。各色の染色画像推定器は、入力データである自家蛍光画像から、教師データである染色画像(各色の染色画像)を推定する推定器である。当該推定器からの出力は、模擬染色画像となる。染色画像推定器学習部430は、各画像の画素毎もしくは所定の領域(所定のブロック)毎に画素値を比較することなどにより、各色の染色画像推定器を構築する。各色の染色画像推定器は、より多くの自家蛍光画像と染色画像との組(学習データ)を用いることで最適化される。また、各色の染色画像推定器は、使用する染色液毎に構築され得る。また、入力データとして、テクスチャ情報等の画像処理特徴量(組織や細胞の特徴を示す情報など)が含まれてもよい。教師データは、染色画像のフルカラーの画像であってもよい。
In S304, the stained image estimator learning unit 430 analyzes the relationship between the autofluorescence image acquired in S301 and the stained image acquired in S302 (the relationship between the autofluorescence image and the stained image aligned in S303) by machine learning or the like. For the analysis, a method of directly learning an image, such as image output type deep learning, or the like, may be used. An example of image output type deep learning is MTANN (massive-training artificial neural network). MTANN is a highly nonlinear deep learning model that can output an image. Here, the stained image estimator learning unit 430 learns an estimator by MTANN as a stained image estimator for each color. The stained image estimator is one of the image output type deep learning devices. In addition, other deep learning may be used for the analysis. Other examples of deep learning include convolutional neural networks (CNN), shift-invariant neural networks, deep belief networks (DBN), deep neural networks (DNN), fully convolutional neural networks (FCN), U-Net, V-Net, multi-resolution massive-training artificial neural networks, multiple expert massive
-training artificial neural networks, SegNet, VGG-16, LeNet, AlexNet, ResNet, Auto encoders and decoders, Generative adversarial networks (GAN), Recurrent Neural Networks (RNN), Recursive Neural Networks, Long Short-Term Memory (L
STM) and the like. The deep learning used here is not limited to these. A method of predicting and outputting an image can be applied to the analysis. Here, the stained image estimator learning unit 430 uses a plurality of autofluorescence images of a sample excited under a plurality of conditions (excitation light) as input data, and uses red, green, and blue stained images (red, green, and blue components of the stained image) of the stained sample obtained by staining the sample as teacher data. The stained image estimator learning unit 430 optimizes the weighting coefficients between the neurons of the neural network by supervised learning in which the input data and the teacher data are linked to construct a stained image estimator. At this time, the stained image estimator learning unit 430 constructs a stained image estimator for each color (red, green, and blue) of the stained image. The stained image estimator for each color is an estimator that estimates a stained image (stained image of each color) that is teacher data from an autofluorescence image that is input data. The output from the estimator is a simulated stained image. The stained image estimator learning unit 430 constructs a stained image estimator for each color by comparing pixel values for each pixel of each image or for each predetermined region (predetermined block). The stained image estimator for each color is optimized by using a larger number of pairs (learning data) of autofluorescence images and stained images. In addition, the stained image estimator for each color can be constructed for each staining solution used. In addition, image processing features such as texture information (information indicating characteristics of tissues and cells, etc.) may be included as input data. The training data may be a full-color image of the stained image.

図12は、染色画像推定器学習部における染色画像推定器の学習を説明する図である。図12の画像51、画像52、画像53は、入力データである、撮像部520で撮影された試料の自家蛍光画像の例を示す。ここで使用される試料は同一の生体試料である。入力データは、各色の染色画像推定器に入力される。図12の画像54、画像55、画像56は、それぞれ、各色(赤色、緑色、青色)の染色画像推定器から出力される各色の出力画像の例を示す。図12の画像57、画像58、画像59は、教師データである、撮像部620のRGBカメラで撮影された各色の染色画像(染色画像の各色の成分)の例を示す。各画像において、色が白いほど、明るい(画素値が大きい)ことを示す。 Figure 12 is a diagram for explaining the learning of the stained image estimator in the stained image estimator learning unit. Images 51, 52, and 53 in Figure 12 show examples of autofluorescence images of a sample captured by the imaging unit 520, which are input data. The sample used here is the same biological sample. The input data is input to the stained image estimator for each color. Images 54, 55, and 56 in Figure 12 show examples of output images of each color (red, green, and blue) output from the stained image estimator for each color, respectively. Images 57, 58, and 59 in Figure 12 show examples of stained images of each color (each color component of the stained image) captured by the RGB camera of the imaging unit 620, which are teaching data. In each image, the whiter the color, the brighter it is (the larger the pixel value).

画像51は、波長405nmの励起光を照射したときの自家蛍光画像である。画像52は、試料に対して、波長599nmの励起光を照射したときの自家蛍光画像である。画像53は、試料に対して、波長436nmの励起光を照射したときの自家蛍光画像である。それぞれの自家蛍光画像の撮影時には所定のフィルタが使用されることにより、励起光が自家蛍光画像に含まれないようにされている。ここでは、入力データとして、3種類の励起光による自家蛍光画像を使用しているが、励起光の種類は3種類に限定されるものではない。 Image 51 is an autofluorescence image when the sample is irradiated with excitation light of a wavelength of 405 nm. Image 52 is an autofluorescence image when the sample is irradiated with excitation light of a wavelength of 599 nm. Image 53 is an autofluorescence image when the sample is irradiated with excitation light of a wavelength of 436 nm. A specified filter is used when capturing each autofluorescence image, so that the excitation light is not included in the autofluorescence image. Here, autofluorescence images using three types of excitation light are used as input data, but the types of excitation light are not limited to three.

画像57は、試料に対してHE(Hematoxylin and Eosin)染色を施した染色画像の赤
色成分の画像(赤色の染色画像)である。画像58は、試料に対してHE染色を施した染色画像の緑色成分の画像(緑色の染色画像)である。画像59は、試料に対してHE染色を施した染色画像の青色成分の画像(青色の染色画像)である。
Image 57 is an image of the red component of the stained image obtained by staining the sample with hematoxylin and eosin (HE), image 58 is an image of the green component of the stained image obtained by staining the sample with HE, and image 59 is an image of the blue component of the stained image obtained by staining the sample with HE.

染色画像推定器学習部430は、入力データである画像(画像51、画像52、画像53)と教師データである画像(画像57、画像58、画像59)とを紐づけて学習データとし、染色画像推定器(赤色)451、染色画像推定器(緑色)452、染色画像推定器(青色)453を構築する。例えば、染色画像推定器学習部430は、3つの自家蛍光画像(画像51、画像52、画像53)を染色画像推定器(赤色)451に入力する。染色画像推定器(赤色)451は、赤色の染色画像(出力画像)として画像54を出力する。染色画像推定器学習部430は、染色画像推定器(赤色)451の出力データである画像
54と、実際の赤色の染色画像である画像57とを比較する。染色画像推定器学習部430は、比較結果(例えば、両画像の画素値の差分や平均二乗誤差)に基づいて、染色画像推定器(赤色)451を更に学習する。染色画像推定器学習部430は、出力画像である画像54が実際の染色画像である画像57に近づくように、染色画像推定器(赤色)451を学習する。染色画像推定器学習部430は、例えば、画像54の各画素値と画像57の各画素値との差分(あるいは平均二乗誤差)が所定の範囲内になるまで、繰り返し、染色画像推定器(赤色)451を学習する。染色画像推定器の学習は、各画像を複数の領域に分割して、当該領域毎に行われてもよい。染色画像推定器の学習は、各画像からサンプルをランダムに抜き出し、抜き出されたサンプルを使って行われてもよい。染色画像推定器学習部430は、染色画像推定器(緑色)452、染色画像推定器(青色)453についても同様に、学習する。このようにして、染色画像推定器学習部430は、染色画像推定器(赤色)451、染色画像推定器(緑色)452、染色画像推定器(青色)453を構築する。学習データとして使用される画像の組(入力データである画像と教師データである画像との組)は、1組だけではなく、複数組の画像が教師データとして使用される。より多くの組の教師データが使用されることで、染色画像推定器の精度が向上する。
The stained image estimator learning unit 430 links the images (image 51, image 52, image 53) as input data with the images (image 57, image 58, image 59) as teacher data to construct stained image estimator (red) 451, stained image estimator (green) 452, and stained image estimator (blue) 453. For example, the stained image estimator learning unit 430 inputs three autofluorescence images (image 51, image 52, image 53) to the stained image estimator (red) 451. The stained image estimator (red) 451 outputs image 54 as a red stained image (output image). The stained image estimator learning unit 430 compares image 54, which is output data of the stained image estimator (red) 451, with image 57, which is an actual red stained image. The stained image estimator learning unit 430 further learns the stained image estimator (red) 451 based on the comparison result (for example, the difference between pixel values of both images or the mean square error). The stained image estimator learning unit 430 learns the stained image estimator (red) 451 so that the image 54, which is the output image, approaches the image 57, which is the actual stained image. The stained image estimator learning unit 430 repeatedly learns the stained image estimator (red) 451, for example, until the difference (or the mean square error) between each pixel value of the image 54 and each pixel value of the image 57 falls within a predetermined range. The stained image estimator may be trained for each of the regions by dividing each image into a plurality of regions. The stained image estimator may be trained by randomly extracting samples from each image and using the extracted samples. The stained image estimator learning unit 430 trains the stained image estimator (green) 452 and the stained image estimator (blue) 453 in the same manner. In this way, the stained image estimator learning unit 430 constructs a stained image estimator (red) 451, a stained image estimator (green) 452, and a stained image estimator (blue) 453. The set of images used as learning data (a set of an image as input data and an image as training data) is not just one set, but multiple sets of images are used as training data. The accuracy of the stained image estimator is improved by using more sets of training data.

〈模擬染色画像生成〉
図13は、本実施形態の模擬染色画像生成のシステムの構成例を示す図である。模擬染色画像生成のシステム70は、画像処理装置700、自家蛍光画像撮影装置500を含む。自家蛍光画像撮影装置500は、図10の自家蛍光画像撮影装置500と同様である。
<Simulated dye image generation>
13 is a diagram showing an example of the configuration of a simulated stained image generating system of this embodiment. The simulated stained image generating system 70 includes an image processing device 700 and an autofluorescence image capturing device 500. The autofluorescence image capturing device 500 is similar to the autofluorescence image capturing device 500 in FIG.

画像処理装置700は、自家蛍光画像撮影装置500から試料の自家蛍光画像を取得する。画像処理装置700は、上記の染色画像推定器を使用して、自家蛍光画像撮影装置500から取得した自家蛍光画像に基づいて、染色画像を出力する。試料は、例えば、細胞や組織などの生体物質試料である。画像処理装置700と、自家蛍光画像撮影装置500とは、直接、又は、ネットワーク等を介して、通信可能に接続されている。 The image processing device 700 acquires an autofluorescence image of the sample from the autofluorescence image capturing device 500. The image processing device 700 uses the stained image estimator described above to output a stained image based on the autofluorescence image acquired from the autofluorescence image capturing device 500. The sample is, for example, a biological material sample such as a cell or tissue. The image processing device 700 and the autofluorescence image capturing device 500 are connected to each other so as to be able to communicate with each other directly or via a network or the like.

画像取得部710は、自家蛍光画像撮影装置500から試料の自家蛍光画像を取得する。 The image acquisition unit 710 acquires an autofluorescence image of the sample from the autofluorescence image capture device 500.

模擬染色画像生成部740は、自家蛍光画像撮影装置500で撮影された試料の自家蛍光画像に基づいて、各色の染色画像推定器を用いて、デジタル染色画像(模擬染色画像)を生成する。 The simulated stained image generating unit 740 generates a digital stained image (simulated stained image) using a stained image estimator for each color based on the autofluorescence image of the sample captured by the autofluorescence image capturing device 500.

染色画像推定器(赤色)751、染色画像推定器(緑色)752、染色画像推定器(青色)753は、それぞれ、染色画像推定器学習装置400の染色画像推定器学習部430で構築された、染色画像推定器(赤色)451、染色画像推定器(緑色)452、染色画像推定器(青色)453である。 The dyed image estimator (red) 751, the dyed image estimator (green) 752, and the dyed image estimator (blue) 753 are respectively the dyed image estimator (red) 451, the dyed image estimator (green) 452, and the dyed image estimator (blue) 453 constructed by the dyed image estimator learning unit 430 of the dyed image estimator learning device 400.

図14は、画像処理装置における模擬染色画像の生成の際の動作フローの例を示す図である。模擬染色画像(デジタル染色画像)は、試料の自家蛍光画像を使用して染色画像推定器により推定される模擬的な染色画像である。模擬染色画像は、試料を実際に染色した染色画像を模擬したものである。ここでは、画像処理装置700は、染色されていない試料の自家蛍光画像と、上記の染色画像推定器とを用いて、模擬染色画像を生成する。 Figure 14 is a diagram showing an example of an operational flow when generating a simulated stained image in an image processing device. A simulated stained image (digital stained image) is a simulated stained image estimated by a stained image estimator using an autofluorescence image of a sample. A simulated stained image is a simulation of a stained image obtained by actually staining a sample. Here, the image processing device 700 generates a simulated stained image using an autofluorescence image of an unstained sample and the above-mentioned stained image estimator.

S401では、画像処理装置700の画像取得部710は、自家蛍光画像撮影装置500の蛍光顕微鏡510で励起光を照射され、撮像部520で撮影された試料の自家蛍光画像を自家蛍光画像撮影装置500から取得する。自家蛍光画像撮影装置500の蛍光顕微鏡510では、試料に複数の種類(複数の波長)の励起光が照射され、それぞれの励起光に対する試料の自家蛍光が撮影される。試料は、例えば、細胞や組織等の生体物質の切片
標本である。ここで使用される自家蛍光画像に対応する試料は、染色画像推定器の生成の際に使用された自家蛍光画像に対応する試料と異なる試料である。
In S401, the image acquisition unit 710 of the image processing device 700 acquires from the autofluorescence image capturing device 500 an autofluorescence image of a sample that has been irradiated with excitation light by the fluorescence microscope 510 of the autofluorescence image capturing device 500 and captured by the image capturing unit 520. In the fluorescence microscope 510 of the autofluorescence image capturing device 500, the sample is irradiated with multiple types (multiple wavelengths) of excitation light, and the autofluorescence of the sample for each excitation light is captured. The sample is, for example, a slice specimen of a biological material such as cells or tissue. The sample corresponding to the autofluorescence image used here is a different sample from the sample corresponding to the autofluorescence image used when generating the stained image estimator.

S402では、模擬染色画像生成部740は、画像取得部710で取得された自家蛍光画像を入力データとして、所望の染色液に対応する染色画像推定器を用いて、推定された染色画像を生成する。ここでは、模擬染色画像生成部740は、各色(赤色、緑色、青色)の染色画像推定器を用いることで、赤色の模擬染色画像、緑色の模擬染色画像、青色の模擬染色画像を生成する。模擬染色画像生成部740は、画像取得部710で取得された自家蛍光画像を入力データとして、赤色の染色画像推定器を用いて、赤色の模擬染色画像(模擬染色画像の赤色成分)を生成する。模擬染色画像生成部740は、同様にして、緑色の染色画像推定器を用いて緑色の模擬染色画像を生成し、青色の染色画像推定器を用いて青色の模擬染色画像を生成する。 In S402, the simulated stained image generating unit 740 uses the autofluorescence image acquired by the image acquiring unit 710 as input data and generates an estimated stained image using a stained image estimator corresponding to the desired staining liquid. Here, the simulated stained image generating unit 740 generates a red simulated stained image, a green simulated stained image, and a blue simulated stained image by using a stained image estimator for each color (red, green, blue). The simulated stained image generating unit 740 uses the autofluorescence image acquired by the image acquiring unit 710 as input data and generates a red simulated stained image (red component of the simulated stained image) using a red stained image estimator. Similarly, the simulated stained image generating unit 740 generates a green simulated stained image using a green stained image estimator and generates a blue simulated stained image using a blue stained image estimator.

模擬染色画像生成部740は、生成された、赤色の模擬染色画像、緑色の模擬染色画像、青色の模擬染色画像を合成して、フルカラーの模擬染色画像を生成する。これにより、所定の染色液により染色した試料の模擬染色画像が生成される。画像処理装置700は、自家蛍光画像から所望の染色液についての模擬染色画像を、試料を染色することなく生成することができる。 The simulated stained image generating unit 740 generates a full-color simulated stained image by combining the generated red, green, and blue simulated stained images. This generates a simulated stained image of a sample stained with a specified staining solution. The image processing device 700 can generate a simulated stained image for a desired staining solution from an autofluorescence image without staining the sample.

図15は、模擬染色画像生成部における模擬染色画像の生成を説明する図である。図15の画像61、画像62、画像63は、入力データである、撮像部520で撮影された試料の自家蛍光画像の例を示す。ここで使用される試料は同一の生体試料である。入力データは、各色の染色画像推定器に入力される。図15の画像64、画像65、画像66は、それぞれ、各色(赤色、緑色、青色)の染色画像推定器から出力される各色の出力画像(各色の模擬染色画像)の例を示す。例えば、画像64は、染色画像推定器(赤色)451から出力される赤色の模擬染色画像(模擬染色画像の赤色成分)である。各画像において、色が白いほど明るい(画素値が大きい)ことを示す。 Figure 15 is a diagram for explaining the generation of a simulated stained image in the simulated stained image generation unit. Images 61, 62, and 63 in Figure 15 show examples of autofluorescence images of a sample captured by the image capture unit 520, which are input data. The sample used here is the same biological sample. The input data is input to the stained image estimator for each color. Images 64, 65, and 66 in Figure 15 show examples of output images (simulated stained images for each color) output from the stained image estimator for each color (red, green, and blue), respectively. For example, image 64 is a red simulated stained image (red component of the simulated stained image) output from the stained image estimator (red) 451. In each image, the whiter the color, the brighter it is (the larger the pixel value).

画像61は、波長405nmの励起光を照射したときの自家蛍光画像である。画像62は、試料に対して、波長599nmの励起光を照射したときの自家蛍光画像である。画像63は、試料に対して、波長436nmの励起光を照射したときの自家蛍光画像である。ここで使用される励起光は、学習データの入力データに含まれる自家蛍光画像の励起光と同じである。 Image 61 is an autofluorescence image when the sample is irradiated with excitation light having a wavelength of 405 nm. Image 62 is an autofluorescence image when the sample is irradiated with excitation light having a wavelength of 599 nm. Image 63 is an autofluorescence image when the sample is irradiated with excitation light having a wavelength of 436 nm. The excitation light used here is the same as the excitation light of the autofluorescence image included in the input data of the learning data.

模擬染色画像生成部740は、入力データである画像(画像61、画像62、画像63)を、染色画像推定器(赤色)751、染色画像推定器(緑色)752、染色画像推定器(青色)753に入力して、各色の模擬染色画像を取得する。例えば、模擬染色画像生成部740は、3つの自家蛍光画像(画像61、画像62、画像63)を染色画像推定器(赤色)751に入力する。染色画像推定器(赤色)751は、赤色の模擬染色画像(出力画像)として画像64を出力する。このようにして、模擬染色画像生成部740は、赤色の模擬染色画像を取得する。同様にして、模擬染色画像生成部740は、3つの自家蛍光画像(画像61、画像62、画像63)を、染色画像推定器(緑色)752、染色画像推定器(青色)753に入力して、緑色の模擬染色画像、青色の模擬染色画像を取得する。さらに、模擬染色画像生成部740は、赤色の模擬染色画像、緑色の模擬染色画像、青色の模擬染色画像を合成して、フルカラーの模擬染色画像67を生成する。赤色の模擬染色画像がフルカラーの模擬染色画像67の赤色成分、緑色の模擬染色画像がフルカラーの模擬染色画像67の緑色成分、青色の模擬染色画像がフルカラーの模擬染色画像67の青色成分に相当する。このようにして、模擬染色画像生成部740は、(フルカラーの)模擬染色画像67を取得することができる。 The simulated stained image generating unit 740 inputs the images (image 61, image 62, image 63) that are input data to the stained image estimator (red) 751, the stained image estimator (green) 752, and the stained image estimator (blue) 753 to obtain a simulated stained image of each color. For example, the simulated stained image generating unit 740 inputs three autofluorescence images (image 61, image 62, image 63) to the stained image estimator (red) 751. The stained image estimator (red) 751 outputs image 64 as a red simulated stained image (output image). In this way, the simulated stained image generating unit 740 obtains a red simulated stained image. In the same manner, the simulated stained image generating unit 740 inputs the three autofluorescence images (image 61, image 62, image 63) to the stained image estimator (green) 752 and the stained image estimator (blue) 753 to obtain a green simulated stained image and a blue simulated stained image. Furthermore, the simulated stained image generating unit 740 synthesizes the red, green, and blue simulated stained images to generate the full-color simulated stained image 67. The red simulated stained image corresponds to the red component of the full-color simulated stained image 67, the green simulated stained image corresponds to the green component of the full-color simulated stained image 67, and the blue simulated stained image corresponds to the blue component of the full-color simulated stained image 67. In this way, the simulated stained image generating unit 740 can obtain the (full-color) simulated stained image 67.

染色画像推定器の学習を行う染色画像推定器学習装置400と模擬染色画像の生成を行う画像処理装置700とは、一体化して1つの装置として動作してもよい。 The stain image estimator learning device 400, which trains the stain image estimator, and the image processing device 700, which generates the simulated stain image, may be integrated to operate as a single device.

(MTANNについて)
〈MTANNの構造(非特許文献1)〉
図16は、画像型深層学習器の一例として、MTANNの構造を示す図である。MTANNは、階層型ニューラルネット(Artificial Neural Network: ANN)回帰モデル(非特許文献2、非特許文献3)を演算の核として用いて画像処理を行う深層学習モデルである。MTANNでは、画素値そのものを階層型ANN回帰モデルの入力とする。また、通常の深層学習モデルの出力は、画像中にある対象物の属するクラスである(例えば、異常陰影、正常陰影に、それぞれ、1、0を割り当てる)が、MTANNの階層型ANN回帰モデルの出力は、画素値そのものであり、MTANNの出力は画像である。MTANNにおける、階層型ANN回帰モデルへの入力は、次式のように、入力画像から抽出した局所領域(画像パッチ)R内の画素値である。各画素値は、各入力層ユニット(ニューロン)のそれぞれに入力する。出力層ユニットは1個で、局所領域の中心位置(x,y)に対応する画素値f(x,y)を出力する。

Figure 0007470339000002

ただし、NN(・)は、階層型ANN回帰モデルの出力、g(x,y)は入力画像の画素値である。例えば、Rが、3x3画素の領域である場合、階層型ANN回帰モデルへの入力は、以下のようになる。
Figure 0007470339000003

従って、この場合の階層型ANN回帰モデルの入力層ユニット数は、9個である。MTANNでは、出力が連続値であるため、階層型ANN回帰モデルに、線形出力ANNモデル(非特許文献2、非特許文献3)を用いる。これは、出力層ユニットの応答関数に、通常使われるシグモイド関数の代わりに、次式の線形関数を用いたANNのモデルであり、連続値を出力とする応用に大変適している(非特許文献2、非特許文献3)。
Figure 0007470339000004

従って、入力層、中間層、出力層のユニットの応答関数は、それぞれ、恒等関数、シグモイド関数、線形関数である。階層型ANN回帰モデルを、入力画像上で、畳み込み演算のように走査することにより、出力画像を得る。また、畳み込み演算により中間層上に得られる中間画像上で、階層型ANN回帰モデルを畳み込み演算のように走査し、これを繰り返すことによって、深い層を形成する。 (About MTANN)
Structure of MTANN (Non-Patent Document 1)
FIG. 16 is a diagram showing the structure of MTANN as an example of an image-based deep learning device. MTANN is a deep learning model that performs image processing using a hierarchical neural network (ANN) regression model (Non-Patent Document 2, Non-Patent Document 3) as the core of calculation. In MTANN, pixel values themselves are input to the hierarchical ANN regression model. In addition, the output of a normal deep learning model is a class to which an object in an image belongs (for example, 1 and 0 are assigned to abnormal shadows and normal shadows, respectively), but the output of the hierarchical ANN regression model of MTANN is the pixel value itself, and the output of MTANN is an image. In MTANN, the input to the hierarchical ANN regression model is the pixel value in a local region (image patch) R S extracted from the input image as shown in the following formula. Each pixel value is input to each input layer unit (neuron). There is one output layer unit, which outputs a pixel value f(x, y) corresponding to the center position (x, y) of the local region.
Figure 0007470339000002

where NN(·) is the output of the hierarchical ANN regression model, and g(x,y) is the pixel value of the input image. For example, if RS is a region of 3x3 pixels, the input to the hierarchical ANN regression model is:
Figure 0007470339000003

Therefore, the number of input layer units in this case of the hierarchical ANN regression model is 9. In the MTANN, since the output is a continuous value, a linear output ANN model (Non-Patent Document 2, Non-Patent Document 3) is used for the hierarchical ANN regression model. This is an ANN model that uses the following linear function instead of the commonly used sigmoid function as the response function of the output layer unit, and is very suitable for applications in which continuous values are output (Non-Patent Document 2, Non-Patent Document 3).
Figure 0007470339000004

Therefore, the response functions of the units in the input layer, intermediate layer, and output layer are the identity function, the sigmoid function, and the linear function, respectively. The hierarchical ANN regression model is scanned like a convolution operation on the input image to obtain an output image. Also, the hierarchical ANN regression model is scanned like a convolution operation on the intermediate image obtained on the intermediate layer by the convolution operation, and a deeper layer is formed by repeating this.

中間層のユニットの応答関数は、シグモイド関数以外の関数、例えば、正規化線形関数、ランプ関数(Rectified Linear: ReL)、切断冪関数などの準線形関数を用いることもできる。 The response function of the units in the intermediate layer can be a function other than a sigmoid function, for example, a quasi-linear function such as a rectified linear function, a ramp function (Rectified Linear: ReL), or a truncated power function.

MTANN以外にも、他の深層学習、例えば、convolutional neural networks(CN
N)、shift-invariant neural networks、deep belief networks(DBN)、deep neur
al networks(DNN)、fully convolutional neural networks(FCN)、U-Net、V-Net、SegNet、VGG-16、LeNet、AlexNet、ResNet、Auto encoders and decoders、Generative adversarial networks(GAN)、Recurrent Neural Networks(RNN)、Recursive Neural Networks、Long short-term memory(LSTM)を用いることもできる。演算
の核として用いられる階層型ANN回帰モデルは、他の機械学習モデル、例えば、サポートベクトル回帰モデル、非線形ガウス過程回帰モデルに置き換えることができる(非特許文献4)。
Besides MTANN, other deep learning methods, such as convolutional neural networks (CN
N), shift-invariant neural networks, deep belief networks (DBN), deep neural
Neural networks (DNN), fully convolutional neural networks (FCN), U-Net, V-Net, SegNet, VGG-16, LeNet, AlexNet, ResNet, Auto encoders and decoders, Generative adversarial networks (GAN), Recurrent Neural Networks (RNN), Recursive Neural Networks, Long short-term memory (LSTM) can also be used. The hierarchical ANN regression model used as the core of the operation can be replaced with other machine learning models, for example, a support vector regression model, a nonlinear Gaussian process regression model (Non-Patent Document 4).

〈MTANNの学習〉
図17は、MTANNの学習を示す図である。MTANNは、入力画像とそれに対する理想的な教師画像を与えて学習することにより、所望の画像処理を獲得する。学習により最小化する誤差は、次式で定義される。

Figure 0007470339000005

ただし、T(x,y)は教師画像、f(x,y)は出力画像、Rは学習領域である。学習には、誤差逆伝播学習法を線形出力ANNモデル用に修正した学習法を用いる。線形出力ANNモデルでは、線形関数を出力層ユニットに用いているため、通常の階層型ANN回帰モデルの修正量を決める偏微分が、次式となる。
Figure 0007470339000006

(3)式の線形関数を微分すると、次式となる。
Figure 0007470339000007

従って、中間層・出力層間の重みの修正量は、次式となる。
Figure 0007470339000008

ここで、
Figure 0007470339000009

とおくことにより、入力層・中間層間の重みの修正量も、誤差逆伝播学習法の導出と同様に、求めることができる。MTANNでは、対象に応じて入力画像と教師画像を所望のものに変え、学習を行うことにより、様々な対象に対する画像処理を実現可能である。 <MTANN Study>
Fig. 17 is a diagram showing the learning of MTANN. MTANN acquires the desired image processing by learning by providing an input image and an ideal teacher image for it. The error to be minimized by learning is defined by the following equation.
Figure 0007470339000005

where T(x, y) is the teacher image, f(x, y) is the output image, and R T is the learning region. A learning method modified from the backpropagation learning method for a linear output ANN model is used for learning. In a linear output ANN model, a linear function is used in the output layer unit, so the partial differential that determines the amount of correction for a normal hierarchical ANN regression model is expressed by the following equation.
Figure 0007470339000006

Differentiating the linear function of equation (3) gives the following equation:
Figure 0007470339000007

Therefore, the correction amount of the weight between the intermediate layer and the output layer is expressed by the following formula.
Figure 0007470339000008

here,
Figure 0007470339000009

By setting the weights between the input layer and the hidden layer, the weights can be modified in the same way as in the backpropagation learning method. In the MTANN, the input image and the teacher image are changed according to the target, and learning is performed, making it possible to realize image processing for various targets.

(実施形態2の作用、効果)
染色画像推定器学習装置400は、自家蛍光画像撮影装置500で撮影された細胞や組織などの生体物質の試料の自家蛍光画像を取得する。染色画像推定器学習装置400は、染色画像撮影装置600で撮影された染色液で染色された染色画像を取得する。染色画像推定器学習装置400は、自家蛍光画像と染色画像とに基づいて、画像出力型深層学習であるMTANN等を用いて、各色の染色画像推定器を構築する。
(Actions and Effects of the Second Embodiment)
The stained image estimator learning device 400 acquires an autofluorescence image of a biological material sample such as a cell or tissue captured by an autofluorescence image capturing device 500. The stained image estimator learning device 400 acquires a stained image stained with a staining solution captured by a stained image capturing device 600. The stained image estimator learning device 400 constructs a stained image estimator for each color based on the autofluorescence image and the stained image using MTANN or the like, which is an image output type deep learning.

画像処理装置700は、試料の自家蛍光画像と、所望の染色液に対応する各色の染色画像推定器とを用いて、推定された模擬染色画像を生成する。画像処理装置700は、自家蛍光画像と各色の染色画像とに基づいて各色の染色画像推定器を構築することで、染色による色素量の推定をすることなく、模擬染色画像を生成することができる。 The image processing device 700 generates an estimated simulated stained image using an autofluorescence image of the sample and a stained image estimator for each color corresponding to the desired staining solution. The image processing device 700 can generate a simulated stained image without estimating the amount of pigment due to staining by constructing a stained image estimator for each color based on the autofluorescence image and the stained image for each color.

画像処理装置700は、従来、染色の際にノイズとされてきた自家蛍光を使用して、模擬染色画像(デジタル染色画像)を生成することで、標本(試料)を染色することなく、染色画像を得ることができる。画像処理装置700によれば、貴重な試料であっても、試料を襲侵することなく、模擬的な染色画像を得ることができる。画像処理装置700によれば、未染色標本等を観察するための特殊な顕微鏡を用意することなく、未染色標本を容易に観察することができる。また、画像処理装置700によれば、試料を染色しないため、1つの試料で様々な染色液による模擬染色画像の生成をすることができる。 The image processing device 700 can generate a simulated stained image (digital stained image) using autofluorescence, which has traditionally been considered noise during staining, and can obtain a stained image without staining the specimen (sample). The image processing device 700 can obtain a simulated stained image without invasively inspecting even valuable samples. The image processing device 700 can easily observe unstained samples without the need for a special microscope for observing unstained samples, etc. Furthermore, since the image processing device 700 does not stain the sample, it can generate simulated stained images using various staining solutions with a single sample.

各実施形態の模擬染色画像を生成する方法は、自家蛍光をするあらゆる組織に対して適用可能である。 The method for generating a simulated stained image in each embodiment can be applied to any tissue that exhibits autofluorescence.

〈コンピュータ読み取り可能な記録媒体〉
コンピュータその他の機械、装置(以下、コンピュータ等)に上記いずれかの機能を実現させるプログラムをコンピュータ等が読み取り可能な記録媒体に記録することができる。そして、コンピュータ等に、この記録媒体のプログラムを読み込ませて実行させることにより、その機能を提供させることができる。
Computer-readable recording medium
A program for causing a computer or other machine or device (hereinafter, referred to as a computer, etc.) to realize any of the above functions can be recorded on a recording medium readable by the computer, etc. Then, the computer, etc. can provide the function by reading and executing the program from the recording medium.

ここで、コンピュータ等が読み取り可能な記録媒体とは、データやプログラム等の情報を電気的、磁気的、光学的、機械的、または化学的作用によって蓄積し、コンピュータ等から読み取ることができる記録媒体をいう。このような記録媒体内には、CPU、メモリ等のコンピュータを構成する要素を設け、そのCPUにプログラムを実行させてもよい。 Here, a computer-readable recording medium refers to a recording medium that stores information such as data and programs through electrical, magnetic, optical, mechanical, or chemical action and can be read by a computer. Such a recording medium may be provided with elements that constitute a computer, such as a CPU and memory, and the CPU may be made to execute a program.

また、このような記録媒体のうちコンピュータ等から取り外し可能なものとしては、例えばフレキシブルディスク、光磁気ディスク、CD-ROM、CD-R/W、DVD、DAT、8mmテープ、メモリカード等がある。 In addition, among such recording media, examples that can be removed from a computer include flexible disks, optical magnetic disks, CD-ROMs, CD-R/Ws, DVDs, DATs, 8mm tapes, memory cards, etc.

また、コンピュータ等に固定された記録媒体としてハードディスクやROM等がある。 In addition, examples of recording media fixed to computers include hard disks and ROMs.

(その他)
以上、本発明の実施形態を説明したが、これらはあくまで例示にすぎず、本発明はこれらに限定されるものではなく、特許請求の範囲の趣旨を逸脱しない限りにおいて、各構成の組み合わせなど、当業者の知識に基づく種々の変更が可能である。
(others)
Although the embodiments of the present invention have been described above, these are merely examples and the present invention is not limited to these. Various modifications based on the knowledge of those skilled in the art, such as combinations of each component, are possible without departing from the spirit of the claims.

10 :システム
100 :画像処理装置
102 :画像取得部
104 :色情報取得部
106 :色素量検出部
108 :色素量推定部
110 :画像生成部
200 :蛍光顕微鏡
300 :マルチスペクトルカメラ
40 :システム
400 :染色画像推定器学習装置
410 :画像取得部
420 :位置合わせ部
430 :染色画像推定器学習部
500 :自家蛍光画像撮影装置
510 :蛍光顕微鏡
520 :撮像部
600 :染色画像撮影装置
610 :光学顕微鏡
620 :撮像部
70 :システム
700 :画像処理装置
710 :画像取得部
740 :模擬染色画像生成部
90 :情報処理装置
91 :プロセッサ
92 :メモリ
93 :記憶部
94 :入力部
95 :出力部
96 :通信制御部
10: System 100: Image processing device 102: Image acquisition section 104: Color information acquisition section 106: Dye amount detection section 108: Dye amount estimation section 110: Image generation section 200: Fluorescence microscope 300: Multispectral camera 40: System 400: Stained image estimator learning device 410: Image acquisition section 420: Positioning section 430: Stained image estimator learning section 500: Autofluorescence image capturing device 510: Fluorescence microscope 520: Imaging section 600: Stained image capturing device 610: Optical microscope 620: Imaging section 70: System 700: Image processing device 710: Image acquisition section 740: Simulated stained image generating section 90: Information processing device 91: Processor 92: Memory 93: Storage section 94: Input section 95: Output section 96: Communication control section

Claims (8)

生体物質試料の所定の励起光による自家蛍光を撮影した自家蛍光画像を取得し、所定の染色液で染色した前記生体物質試料を多波長分光カメラにより複数の周波数帯で撮影した染色画像を取得する画像取得部と、
前記画像取得部が取得した前記自家蛍光画像と前記染色画像とに基づいて、前記複数の周波数帯で撮影した染色画像のそれぞれの周波数帯成分の画像を推定する複数の染色画像推定器を学習する染色画像推定器学習部と、
を備える染色画像推定器学習装置。
an image acquisition unit that acquires an autofluorescence image by capturing autofluorescence of a biological material sample due to a predetermined excitation light, and acquires stained images by capturing the biological material sample stained with a predetermined staining solution in a plurality of frequency bands using a multi-wavelength spectroscopic camera;
a stained image estimator learning unit that learns a plurality of stained image estimators that estimate images of respective frequency band components of the stained image captured in the plurality of frequency bands based on the autofluorescence image and the stained image acquired by the image acquisition unit;
A stain image estimator learning device comprising:
前記染色画像推定器学習部は、前記自家蛍光画像を入力データとし、前記染色画像を前記入力データに対する教師データとして機械学習を行うことにより、前記染色画像推定器を学習する、請求項1に記載の染色画像推定器学習装置。 The stain image estimator learning device according to claim 1, wherein the stain image estimator learning unit learns the stain image estimator by performing machine learning using the autofluorescence image as input data and the stain image as training data for the input data. 生体物質試料の所定の励起光による自家蛍光を撮影した自家蛍光画像を取得する画像取得部と、
前記画像取得部が取得した前記自家蛍光画像に基づいて、前記生体物質試料を染色液で染色した前記生体物質試料が多波長分光カメラにより複数の周波数帯で撮影されたそれぞれの周波数帯成分の画像を模擬する模擬染色画像を推定する複数の染色画像推定器と、
前記複数の染色画像推定器により推定される複数の模擬染色画像を合成する模擬染色画像生成部と、を備える、
画像処理装置。
an image acquisition unit for acquiring an autofluorescence image obtained by capturing autofluorescence of a biological material sample by using a predetermined excitation light;
a plurality of stained image estimators that estimate simulated stained images simulating images of frequency band components obtained by photographing the biological material sample, which is obtained by staining the biological material sample with a staining solution, in a plurality of frequency bands using a multi-wavelength spectroscopic camera, based on the autofluorescence image acquired by the image acquisition unit;
a simulated stained image generating unit that synthesizes a plurality of simulated stained images estimated by the plurality of stained image estimators ,
Image processing device.
前記染色画像推定器は、前記自家蛍光画像と異なる、他の生体物質試料を前記励起光による自家蛍光を撮影した他の自家蛍光画像を入力データとし、前記染色液で染色した前記他の生体物質試料を撮影した染色画像を前記入力データに対する教師データとして機械学習を行うことにより学習され
請求項3に記載の画像処理装置。
the stained image estimator is trained by performing machine learning using as input data an autofluorescence image obtained by capturing autofluorescence of another biological material sample using the excitation light, the autofluorescence image being different from the autofluorescence image, and using as training data for the input data a stained image obtained by capturing the other biological material sample stained with the staining solution.
The image processing device according to claim 3 .
染色画像推定器学習装置が、
生体物質試料の所定の励起光による自家蛍光を撮影した自家蛍光画像を取得し、
所定の染色液で染色した前記生体物質試料を多波長分光カメラにより複数の周波数帯で撮影した染色画像を取得し、
取得された前記自家蛍光画像と前記染色画像とに基づいて、前記複数の周波数帯で撮影した染色画像のそれぞれの周波数帯成分の画像を推定する複数の染色画像推定器を学習する、
ことを実行する染色画像推定器学習方法。
A stain image estimator learning device
Acquiring an autofluorescence image by capturing autofluorescence of a biological material sample using a predetermined excitation light;
The biological material sample is stained with a predetermined staining solution, and a stained image is acquired by photographing the biological material sample in a plurality of frequency bands using a multi-wavelength spectroscopic camera;
training a plurality of stained image estimators that estimate images of respective frequency band components of the stained images captured in the plurality of frequency bands based on the acquired autofluorescence image and the stained image;
A stain image estimator learning method that performs the above.
画像処理装置が、
生体物質試料の所定の励起光による自家蛍光を撮影した自家蛍光画像を取得し、
取得された前記自家蛍光画像に基づいて、前記生体物質試料を染色液で染色した前記生体物質試料が多波長分光カメラにより複数の周波数帯で撮影されたそれぞれの周波数帯成分の画像を模擬する模擬染色画像を、複数の染色画像推定器を用いてそれぞれ推定し、
前記複数の染色画像推定器により推定された複数の模擬染色画像を合成する
ことを実行する画像処理方法。
The image processing device
Acquiring an autofluorescence image by capturing autofluorescence of a biological material sample using a predetermined excitation light;
using a plurality of stained image estimators to estimate simulated stained images simulating images of frequency band components obtained by photographing the biological material sample in a plurality of frequency bands by a multi-wavelength spectroscopic camera, the biological material sample being stained with a staining solution, based on the acquired autofluorescence image ;
synthesizing the plurality of simulated stained images estimated by the plurality of stained image estimators ;
An image processing method that performs the above.
染色画像推定器学習装置が、
生体物質試料の所定の励起光による自家蛍光を撮影した自家蛍光画像を取得し、
所定の染色液で染色した前記生体物質試料を多波長分光カメラにより複数の周波数帯で撮影した染色画像を取得し、
取得された前記自家蛍光画像と前記染色画像とに基づいて、前記複数の周波数帯で撮影した染色画像のそれぞれの周波数帯成分の画像を推定する複数の染色画像推定器を学習する、
ことを実行するための染色画像推定器学習プログラム。
A stain image estimator learning device
Acquiring an autofluorescence image by capturing autofluorescence of a biological material sample using a predetermined excitation light;
The biological material sample is stained with a predetermined staining solution, and a stained image is acquired by photographing the biological material sample in a plurality of frequency bands using a multi-wavelength spectroscopic camera;
training a plurality of stained image estimators that estimate images of respective frequency band components of the stained images captured in the plurality of frequency bands based on the acquired autofluorescence image and the stained image;
A stain image estimator learning program to carry out this.
画像処理装置が、
生体物質試料の所定の励起光による自家蛍光を撮影した自家蛍光画像を取得し、
取得された前記自家蛍光画像に基づいて、前記生体物質試料を染色液で染色した前記生体物質試料が多波長分光カメラにより複数の周波数帯で撮影されたそれぞれの周波数帯成分の画像を模擬する模擬染色画像、複数の染色画像推定器を用いてそれぞれ推定し、推定された複数の模擬染色画像を合成する
ことを実行するための画像処理プログラム。
The image processing device
Acquiring an autofluorescence image by capturing autofluorescence of a biological material sample using a predetermined excitation light;
a plurality of simulated stained images simulating images of frequency band components obtained by photographing the biological material sample in a plurality of frequency bands by a multi-wavelength spectroscopic camera, the simulated stained images being obtained based on the acquired autofluorescence image , the simulated stained images being estimated using a plurality of stained image estimators , and the estimated plurality of simulated stained images being synthesized ;
An image processing program to carry out this task.
JP2019041046A 2019-03-06 2019-03-06 Dye image estimator learning device, image processing device, dye image estimator learning method, image processing method, dye image estimator learning program, and image processing program Active JP7470339B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019041046A JP7470339B2 (en) 2019-03-06 2019-03-06 Dye image estimator learning device, image processing device, dye image estimator learning method, image processing method, dye image estimator learning program, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019041046A JP7470339B2 (en) 2019-03-06 2019-03-06 Dye image estimator learning device, image processing device, dye image estimator learning method, image processing method, dye image estimator learning program, and image processing program

Publications (2)

Publication Number Publication Date
JP2020144012A JP2020144012A (en) 2020-09-10
JP7470339B2 true JP7470339B2 (en) 2024-04-18

Family

ID=72354002

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019041046A Active JP7470339B2 (en) 2019-03-06 2019-03-06 Dye image estimator learning device, image processing device, dye image estimator learning method, image processing method, dye image estimator learning program, and image processing program

Country Status (1)

Country Link
JP (1) JP7470339B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102302333B1 (en) * 2019-11-05 2021-09-16 주식회사 토모큐브 Method and Apparatus for Generating 3D Fluorescent Label Image of Label-Free using 3D Refractive Index Tomography and Deep Learning
CN113344928B (en) * 2021-08-06 2021-12-07 深圳市瑞图生物技术有限公司 Model training and using method, device, detector and storage medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120314930A1 (en) 2008-06-17 2012-12-13 Hoyt Clifford C Image Classifier Training
JP2013506129A (en) 2009-09-29 2013-02-21 ゼネラル・エレクトリック・カンパニイ System and method for generating bright field images using fluorescent images
JP2013507612A (en) 2009-10-12 2013-03-04 ベンタナ メディカル システムズ, インコーポレイテッド Multiple modality contrast and bright field context representation for enhanced pathological determination, and multiple analyte detection in tissue
JP2013114233A (en) 2011-11-30 2013-06-10 Olympus Corp Image processing device, microscope system, image processing method and image processing program
JP2014521979A (en) 2011-08-17 2014-08-28 ゼネラル・エレクトリック・カンパニイ System and method for generating bright field images using fluorescent images
WO2019191697A1 (en) 2018-03-30 2019-10-03 The Regents Of The University Of California Method and system for digital staining of label-free fluorescence images using deep learning

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2291640B1 (en) * 2008-05-20 2018-12-26 University Health Network Device and method for fluorescence-based imaging and monitoring

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120314930A1 (en) 2008-06-17 2012-12-13 Hoyt Clifford C Image Classifier Training
JP2013506129A (en) 2009-09-29 2013-02-21 ゼネラル・エレクトリック・カンパニイ System and method for generating bright field images using fluorescent images
JP2013507612A (en) 2009-10-12 2013-03-04 ベンタナ メディカル システムズ, インコーポレイテッド Multiple modality contrast and bright field context representation for enhanced pathological determination, and multiple analyte detection in tissue
JP2014521979A (en) 2011-08-17 2014-08-28 ゼネラル・エレクトリック・カンパニイ System and method for generating bright field images using fluorescent images
JP2013114233A (en) 2011-11-30 2013-06-10 Olympus Corp Image processing device, microscope system, image processing method and image processing program
WO2019191697A1 (en) 2018-03-30 2019-10-03 The Regents Of The University Of California Method and system for digital staining of label-free fluorescence images using deep learning

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Virtual histological staining of unlabelled tissue-autofluorescence images via deep learning,NATURE BIOMEDICAL ENGINEERING,2019年03月04日,Vol. 3,pp. 466-476, S1-S10,doi: 10.1038/s41551-019-0362-y

Also Published As

Publication number Publication date
JP2020144012A (en) 2020-09-10

Similar Documents

Publication Publication Date Title
Rivenson et al. Virtual histological staining of unlabelled tissue-autofluorescence images via deep learning
Pradhan et al. Deep learning a boon for biophotonics?
EP3829416B1 (en) Method and system for augmented imaging in open treatment using multispectral information
US10176567B2 (en) Physical registration of images acquired by Fourier Ptychography
CN114945954A (en) Method and system for digital staining of microscopic images using deep learning
JP4740068B2 (en) Image processing apparatus, image processing method, and image processing program
CN107111874A (en) System and method for the coexpression analysis during fraction is calculated to be immunized
WO2010128646A1 (en) Image processing device, method, and program
CN105979847A (en) Endoscopic image diagnosis support system
JP7470339B2 (en) Dye image estimator learning device, image processing device, dye image estimator learning method, image processing method, dye image estimator learning program, and image processing program
CN111489319A (en) Infrared image enhancement method based on multi-scale bilateral filtering and visual saliency
Singh et al. Multi-exposure microscopic image fusion-based detail enhancement algorithm
Khattar et al. Computer assisted diagnosis of skin cancer: a survey and future recommendations
WO2019171909A1 (en) Image processing method, image processing device, and program
WO2021015249A1 (en) Estimator learning device, estimator learning method, and estimator learning program
WO2018128091A1 (en) Image analysis program and image analysis method
US11037294B2 (en) Image processing device, image processing method, and computer-readable recording medium
JP6901072B2 (en) Image processing device, image processing method, image processing program
CN115760622A (en) Unsupervised self-adaptive stripe correction method for spliced microscopic image
Hsu et al. Using stain decomposition for nucleus segmentation on multisource h&e slide images
JP7090171B2 (en) Image processing device operation method, image processing device, and image processing device operation program
JP7116175B2 (en) IMAGE PROCESSING APPARATUS, IMAGING SYSTEM, OPERATING METHOD OF IMAGE PROCESSING APPARATUS, AND OPERATING PROGRAM OF IMAGE PROCESSING APPARATUS
Pranav et al. Comparative study of skin lesion classification using dermoscopic images
Tan et al. Automated Classification Map Generation of Prostate Cancer using Deep Learning
Prabhu et al. Multi-organ squamous cell carcinoma classification using feature interpretation technique for explainability

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20190401

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20190401

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230110

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230313

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230511

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231002

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240117

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20240209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240329

R150 Certificate of patent or registration of utility model

Ref document number: 7470339

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150