JP2021065293A - Image processing method, image processing device, image processing program, teacher data generation method, teacher data generation device, teacher data generation program, learned model generation method, learned model generation device, diagnosis support method, diagnosis support device, diagnosis support program, and recording medium that records the program - Google Patents
Image processing method, image processing device, image processing program, teacher data generation method, teacher data generation device, teacher data generation program, learned model generation method, learned model generation device, diagnosis support method, diagnosis support device, diagnosis support program, and recording medium that records the program Download PDFInfo
- Publication number
- JP2021065293A JP2021065293A JP2019190994A JP2019190994A JP2021065293A JP 2021065293 A JP2021065293 A JP 2021065293A JP 2019190994 A JP2019190994 A JP 2019190994A JP 2019190994 A JP2019190994 A JP 2019190994A JP 2021065293 A JP2021065293 A JP 2021065293A
- Authority
- JP
- Japan
- Prior art keywords
- lesion
- information
- image
- teacher data
- observation target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 43
- 238000012545 processing Methods 0.000 title claims description 19
- 238000003745 diagnosis Methods 0.000 title claims description 18
- 238000003672 processing method Methods 0.000 title claims description 9
- 230000003902 lesion Effects 0.000 claims abstract description 235
- 238000002073 fluorescence micrograph Methods 0.000 claims description 41
- 238000010801 machine learning Methods 0.000 claims description 19
- 230000005284 excitation Effects 0.000 claims description 15
- 239000000126 substance Substances 0.000 claims description 9
- 239000013307 optical fiber Substances 0.000 description 12
- 238000006243 chemical reaction Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 10
- OAICVXFJPJFONN-UHFFFAOYSA-N Phosphorus Chemical compound [P] OAICVXFJPJFONN-UHFFFAOYSA-N 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 210000002438 upper gastrointestinal tract Anatomy 0.000 description 6
- 206010028980 Neoplasm Diseases 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 5
- 239000003504 photosensitizing agent Substances 0.000 description 5
- ZGXJTSGNIOSYLO-UHFFFAOYSA-N 88755TAZ87 Chemical compound NCC(=O)CCC(O)=O ZGXJTSGNIOSYLO-UHFFFAOYSA-N 0.000 description 4
- 229960002749 aminolevulinic acid Drugs 0.000 description 4
- 238000002405 diagnostic procedure Methods 0.000 description 4
- 239000000975 dye Substances 0.000 description 4
- 238000001839 endoscopy Methods 0.000 description 4
- 201000010099 disease Diseases 0.000 description 3
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 208000005718 Stomach Neoplasms Diseases 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 239000003814 drug Substances 0.000 description 2
- 206010017758 gastric cancer Diseases 0.000 description 2
- 230000002496 gastric effect Effects 0.000 description 2
- 201000011549 stomach cancer Diseases 0.000 description 2
- 210000004881 tumor cell Anatomy 0.000 description 2
- 238000012327 Endoscopic diagnosis Methods 0.000 description 1
- 238000012323 Endoscopic submucosal dissection Methods 0.000 description 1
- FZHXIRIBWMQPQF-VANKVMQKSA-N L-glucosamine Chemical compound O=C[C@@H](N)[C@H](O)[C@@H](O)[C@@H](O)CO FZHXIRIBWMQPQF-VANKVMQKSA-N 0.000 description 1
- 210000000683 abdominal cavity Anatomy 0.000 description 1
- 210000000436 anus Anatomy 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 201000011510 cancer Diseases 0.000 description 1
- 239000002775 capsule Substances 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 238000002674 endoscopic surgery Methods 0.000 description 1
- 210000001035 gastrointestinal tract Anatomy 0.000 description 1
- 208000015181 infectious disease Diseases 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 230000009545 invasion Effects 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 201000011591 microinvasive gastric cancer Diseases 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000000214 mouth Anatomy 0.000 description 1
- 230000001575 pathological effect Effects 0.000 description 1
- 230000007170 pathology Effects 0.000 description 1
- 229910052698 phosphorus Inorganic materials 0.000 description 1
- 239000011574 phosphorus Substances 0.000 description 1
- 239000000049 pigment Substances 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 230000000241 respiratory effect Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 210000002784 stomach Anatomy 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
- 210000001215 vagina Anatomy 0.000 description 1
- 229910052724 xenon Inorganic materials 0.000 description 1
- FHNFHKCVQCLJFQ-UHFFFAOYSA-N xenon atom Chemical compound [Xe] FHNFHKCVQCLJFQ-UHFFFAOYSA-N 0.000 description 1
Images
Landscapes
- Endoscopes (AREA)
Abstract
Description
本発明は、医用画像を用いた診断に関するものであり、特に内視鏡を用いた診断に関するものである。 The present invention relates to a diagnosis using a medical image, and more particularly to a diagnosis using an endoscope.
近年、胃癌の原因の一つとされるH. pylori感染率は低下しているものの、超高齢化社会を迎え、胃癌の罹患数は未だ減少していない。内視鏡的粘膜下層剥離術の普及に伴い早期胃癌の内視鏡診断の重要性が増しているが、病変悪化診断や存在診断が難しい場合がある。また、多発癌の見逃しは一定の頻度存在し、病変を拾い上げる客観的な診断法の開発が望まれている。 In recent years, the H. pylori infection rate, which is one of the causes of gastric cancer, has decreased, but the number of gastric cancer cases has not decreased due to the super-aging society. With the widespread use of endoscopic submucosal dissection, the importance of endoscopic diagnosis of early gastric cancer is increasing, but it may be difficult to diagnose lesion deterioration or presence. In addition, multiple cancers are often overlooked, and it is desired to develop an objective diagnostic method for picking up lesions.
そのような診断法として、光力学的診断法(PDD:Photodynamic Diagonosis)が挙げられる。PDDは、腫瘍親和性のある光感受性物質と励起光を組み合わせた診断方法である。5−アミノレブリン酸(5−ALA)などの特定の光感受性物質を人体に投与すると、腫瘍組織や新生血管に光感受性物質が集積する。組織に集積した物質に対して励起光を照射し、励起された物質から発生する蛍光を検知することにより、病変の有無を診断することができる。 As such a diagnostic method, a photodynamic diagnostic method (PDD: Photodynamic Diagonosis) can be mentioned. PDD is a diagnostic method that combines a photosensitizer with tumor affinity and excitation light. When a specific photosensitizer such as 5-aminolevulinic acid (5-ALA) is administered to the human body, the photosensitizer accumulates in tumor tissue and new blood vessels. The presence or absence of a lesion can be diagnosed by irradiating a substance accumulated in a tissue with excitation light and detecting fluorescence generated from the excited substance.
PDDにおける蛍光画像は、病変部位と非病変部位の境界コントラストが、通常の白色光画像よりも向上している。しかし、蛍光画像はその特性上、非病変部の詳細な観察には適さない。 In the fluorescent image in PDD, the boundary contrast between the lesion site and the non-lesion site is improved as compared with the normal white light image. However, due to its characteristics, fluorescence images are not suitable for detailed observation of non-lesioned areas.
これに対し、特許文献1には、蛍光画像と白色光画像を同時に取得して、TVモニタに並列表示することが開示されている。これらの2つの画像により、病変部と非病変部の両方を観察することができる。
On the other hand,
しかしながら、特許文献1では、蛍光画像と白色光画像を常に交互に見比べる必要があるため、医師の負担が大きく、診察に要する時間の短縮を図ることが難しい。
However, in
本発明は、上記問題を解決するためになされたものであって、医用画像による観察を容易にする技術を提供することを課題とする。 The present invention has been made to solve the above problems, and an object of the present invention is to provide a technique for facilitating observation with a medical image.
上記課題を解決するために、本発明は以下の態様を含む。
項1.
生体の観察対象の医用画像を取得する第1取得ステップと、
前記観察対象の前記医用画像以外の医用情報を取得する第2取得ステップと、
前記医用情報に基づいて、前記観察対象における病変に関する病変情報を生成する病変情報生成ステップと、
前記医用画像に前記病変情報を付加する病変情報付加ステップと、
前記病変情報が付加された前記医用画像をモニタに表示する表示ステップと、
を備えた画像処理方法。
項2.
前記病変情報は、前記病変の位置を示す位置情報である、項1に記載の画像処理方法。
項3.
前記医用画像は、内視鏡から前記観察対象に白色光が照射された時に撮像された白色光画像であり、
前記医用情報は、光線力学的診断のために前記内視鏡から前記観察対象に光感受性物質を励起するための励起光が照射された時に撮像された蛍光画像である、項1または2に記載の画像処理方法。
項4.
生体の観察対象の医用画像を取得する第1取得部と、
前記観察対象の前記医用画像以外の医用情報を取得する第2取得部と、
前記医用情報に基づいて、前記観察対象における病変に関する病変情報を生成する病変情報生成部と、
前記医用画像に前記病変情報を付加する病変情報付加部と、
前記病変情報が付加された前記医用画像をモニタに表示する表示部と、
を備えた画像処理装置。
項5.
生体の観察対象の医用画像を取得する第1取得ステップと、
前記観察対象の前記医用画像以外の医用情報を取得する第2取得ステップと、
前記医用情報に基づいて、前記観察対象における病変に関する病変情報を生成する病変情報生成ステップと、
前記医用画像に前記病変情報を付加する病変情報付加ステップと、
前記病変情報が付加された前記医用画像をモニタに表示する表示ステップと、
をコンピュータに実行させるための画像処理プログラム。
項6.
項5に記載の画像処理プログラムを記録したコンピュータ読み取り可能な非一時的な記録媒体。
項7.
生体の観察対象の医用画像を取得する第1取得ステップと、
前記観察対象の前記医用画像以外の医用情報を取得する第2取得ステップと、
前記医用情報に基づいて、前記観察対象における病変に関する病変情報を生成する病変情報生成ステップと、
前記医用画像に前記病変情報を付加して、機械学習のための教師データを生成する教師データ生成ステップと、
を備えた教師データ生成方法。
項8.
前記医用画像は、内視鏡から前記観察対象に白色光を照射した時に撮像された白色光画像であり、
前記医用情報は、光線力学的診断のために前記内視鏡から前記観察対象に光感受性物質を励起するための励起光を照射した時に撮像された蛍光画像である、項7に記載の教師データ生成方法。
項9.
生体の観察対象の医用画像を取得する第1取得部と、
前記観察対象の前記医用画像以外の医用情報を取得する第2取得部と、
前記医用情報に基づいて、前記観察対象における病変に関する病変情報を生成する病変情報生成部と、
前記医用画像に前記病変情報を付加して、機械学習のための教師データを生成する教師データ生成部と、
を備えた教師データ生成装置。
項10.
生体の観察対象の医用画像を取得する第1取得ステップと、
前記観察対象の前記医用画像以外の医用情報を取得する第2取得ステップと、
前記医用情報に基づいて、前記観察対象における病変に関する病変情報を生成する病変情報生成ステップと、
前記医用画像に前記病変情報を付加して、機械学習のための教師データを生成する教師データ生成ステップと、
をコンピュータに実行させる教師データ生成プログラム。
項11.
項10に記載の教師データ生成プログラムを記録したコンピュータ読み取り可能な非一時的な記録媒体。
項12.
項7または8に記載の教師データ生成方法によって生成された教師データを用いて機械学習を行い、
未知の観察対象の前記医用画像を入力とし、前記未知の観察対象における病変に関する病変情報を出力とする学習済みモデルを生成する、学習済みモデル生成方法。
項13.
項7または8に記載の教師データ生成方法によって生成された教師データを用いて機械学習を行い、
未知の観察対象の前記医用画像を入力とし、前記未知の観察対象における病変に関する病変情報を出力とする学習済みモデルを生成する学習部、
を備えた学習済みモデル生成装置。
項14.
被検者の観察対象の医用画像を取得する第3取得ステップと、
項12に記載の学習済みモデル生成方法によって生成された学習済みモデルに、前記第3取得ステップで取得された医用画像を入力して、前記被検者の観察対象における病変に関する病変情報を取得する病変情報取得ステップと、
を備えた診断支援方法。
項15.
被検者の観察対象の医用画像を取得する第3取得部と、
項13に記載の学習済みモデル生成装置によって生成された学習済みモデルに、前記第3取得部によって取得された医用画像を入力して、前記被検者の観察対象における病変に関する病変情報を取得する病変情報取得部と、
を備えた診断支援装置。
項16.
被検者の観察対象の医用画像を取得する第3取得ステップと、
項12に記載の学習済みモデル生成方法によって生成された学習済みモデルに、前記第3取得ステップで取得された医用画像を入力して、前記被検者の観察対象における病変に関する病変情報を取得する病変情報取得ステップと、
をコンピュータに実行させる診断支援プログラム。
項17.
項16に記載の診断支援プログラムを記録したコンピュータ読み取り可能な非一時的な記録媒体。
In order to solve the above problems, the present invention includes the following aspects.
The first acquisition step of acquiring a medical image of a living body to be observed, and
The second acquisition step of acquiring medical information other than the medical image of the observation target, and
A lesion information generation step that generates lesion information related to a lesion in the observation target based on the medical information, and a lesion information generation step.
A lesion information addition step for adding the lesion information to the medical image,
A display step of displaying the medical image to which the lesion information is added on a monitor, and
Image processing method with.
The medical image is a white light image taken when the observation target is irradiated with white light from an endoscope.
The first acquisition unit that acquires the medical image of the observation target of the living body,
A second acquisition unit that acquires medical information other than the medical image of the observation target, and
A lesion information generation unit that generates lesion information related to a lesion in the observation target based on the medical information.
A lesion information addition part that adds the lesion information to the medical image,
A display unit that displays the medical image to which the lesion information is added on a monitor, and
Image processing device equipped with.
The first acquisition step of acquiring a medical image of a living body to be observed, and
The second acquisition step of acquiring medical information other than the medical image of the observation target, and
A lesion information generation step that generates lesion information related to a lesion in the observation target based on the medical information, and a lesion information generation step.
A lesion information addition step for adding the lesion information to the medical image,
A display step of displaying the medical image to which the lesion information is added on a monitor, and
An image processing program that allows a computer to execute.
A computer-readable non-temporary recording medium on which the image processing program according to
Item 7.
The first acquisition step of acquiring a medical image of a living body to be observed, and
The second acquisition step of acquiring medical information other than the medical image of the observation target, and
A lesion information generation step that generates lesion information related to a lesion in the observation target based on the medical information, and a lesion information generation step.
A teacher data generation step of adding the lesion information to the medical image to generate teacher data for machine learning, and
Teacher data generation method with.
The medical image is a white light image taken when the observation target is irradiated with white light from an endoscope.
Item 7. The teacher data according to Item 7, wherein the medical information is a fluorescence image taken when the observation target is irradiated with excitation light for exciting a photosensitive substance from the endoscope for photodynamic diagnosis. Generation method.
The first acquisition unit that acquires the medical image of the observation target of the living body,
A second acquisition unit that acquires medical information other than the medical image of the observation target, and
A lesion information generation unit that generates lesion information related to a lesion in the observation target based on the medical information.
A teacher data generation unit that adds the lesion information to the medical image to generate teacher data for machine learning, and a teacher data generation unit.
Teacher data generator equipped with.
Item 10.
The first acquisition step of acquiring a medical image of a living body to be observed, and
The second acquisition step of acquiring medical information other than the medical image of the observation target, and
A lesion information generation step that generates lesion information related to a lesion in the observation target based on the medical information, and a lesion information generation step.
A teacher data generation step of adding the lesion information to the medical image to generate teacher data for machine learning, and
A teacher data generator that lets a computer run.
A computer-readable non-temporary recording medium on which the teacher data generation program according to Item 10 is recorded.
Machine learning is performed using the teacher data generated by the teacher data generation method according to
A trained model generation method for generating a trained model in which the medical image of an unknown observation target is input and lesion information related to a lesion in the unknown observation target is output.
Machine learning is performed using the teacher data generated by the teacher data generation method according to
A learning unit that generates a trained model that inputs the medical image of an unknown observation target and outputs lesion information related to a lesion in the unknown observation target.
Trained model generator with.
The third acquisition step of acquiring the medical image of the subject to be observed, and
The medical image acquired in the third acquisition step is input to the trained model generated by the trained model generation method according to
Diagnosis support method equipped with.
The third acquisition department that acquires the medical image of the subject to be observed, and
The medical image acquired by the third acquisition unit is input to the trained model generated by the trained model generator according to
Diagnostic support device equipped with.
The third acquisition step of acquiring the medical image of the subject to be observed, and
The medical image acquired in the third acquisition step is input to the trained model generated by the trained model generation method according to
A diagnostic support program that lets a computer execute.
Item 17.
A computer-readable non-temporary recording medium on which the diagnostic support program according to
本発明によれば、医用画像による観察を容易にすることができる。 According to the present invention, observation by a medical image can be facilitated.
以下、本発明の実施形態について添付図面を参照して説明する。なお、本発明は、下記の実施形態に限定されるものではない。 Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. The present invention is not limited to the following embodiments.
(システム構成)
図1は、本発明の一実施形態に係る内視鏡システム1の構成を示すブロック図である。内視鏡システム1は、内視鏡2と、制御装置3と、モニタ4とを備えている。
(System configuration)
FIG. 1 is a block diagram showing a configuration of an
内視鏡2は、光線力学的診断(PDD)による上部消化器の観察に用いられる消化器内視鏡であり、被検者が光物質を内服して所定時間(約3時間)経過後に、上部消化器に挿入される。なお、観察対象は上部消化器に限定されない。
The
内視鏡2は、内部に光ファイバF1、F2を備えている。内視鏡2の先端部には、蛍光体21、光偏向拡散部材22および撮像素子23が配置されており、内視鏡2の先端面には、2つの出射窓および1つの観察窓が設けられている。蛍光体21は出射窓の一方に面しており、光偏向拡散部材22は出射窓の他方に面しており、撮像素子23は観察窓に面している。
The
後述するように、光ファイバF1の先端からは、青色光(中心発光波長445nm)が出射され、光ファイバF2の先端からは、PDDのための紫色励起光(中心発光波長410nm)が出射される。光ファイバF1からの青色光は、蛍光体21によって白色光に変換され、出射窓の一方から照射される。光ファイバF2からの紫色励起光は、光偏向拡散部材22を介して出射窓の他方から照射される。また、観察窓への入射光は、図示しないレンズにより撮像素子23の受光面に結像する。撮像素子23は、入射光を光電変換して、アナログの画像信号を生成する。
As will be described later, blue light (center emission wavelength 445 nm) is emitted from the tip of the optical fiber F1, and purple excitation light (center emission wavelength 410 nm) for PDD is emitted from the tip of the optical fiber F2. .. The blue light from the optical fiber F1 is converted into white light by the
なお、内視鏡2の構造はこれに限定されない。例えば、後述するカプセル内視鏡のように、光ファイバを持たず、先端部に光源が装着された内視鏡であってもよい。
The structure of the
制御装置3は、内視鏡2に接続されており、主に、内視鏡2による光出射の制御、および撮像素子23からの画像信号の処理などを行う。制御装置3は、光源装置5と、プロセッサ6とを備えている。なお、制御装置3は、特許請求の範囲に記載の画像処理装置および教師データ生成装置に対応する。
The
光源装置5は、青色光を生成する光源51と、紫色励起光を生成する光源52と、光源51,52を駆動する光源駆動部53と、を備えている。本実施形態において、光源51,52はLED光源であるが、レーザ光源やキセノンランプ等の蛍光光源を用いることもできる。
The
プロセッサ6は、タイミングコントローラ61と、AD変換部62と、白色光画像取得部(第1取得部)63と、蛍光画像取得部(第2取得部)64と、病変情報生成部65と、病変情報付加部66と、表示部67と、記憶部68と、を備えている。
The
タイミングコントローラ61は、光源駆動部53が光源51,52を駆動するタイミングを制御するための信号を出力する。具体的には、タイミングコントローラ61は、光源51,52が所定の周期(例えば1/60ms)で交互に駆動するように、光源駆動部53を制御する。また、タイミングコントローラ61は、白色光画像取得部63および蛍光画像取得部64が後述する白色光画像および蛍光画像をそれぞれ取得するタイミングを制御するための信号を出力する。
The
AD変換部62は、撮像素子23からの画像信号をAD変換し、デジタルの画像信号を白色光画像取得部63および蛍光画像取得部64に出力する。
The
白色光画像取得部63は、内視鏡2から観察対象に白色光が照射された時に撮像された白色光画像を取得する機能を有している。具体的には、タイミングコントローラ61は、光源51が駆動しているタイミングで、画像取得を許可する信号を白色光画像取得部63に出力する。これに応じて、白色光画像取得部63は、AD変換部62から出力された画像信号を取り込む。図2は、白色光画像の一例である。
The white light
蛍光画像取得部64は、内視鏡2から観察対象に光感受性物質を励起するための紫色励起光が照射された時に撮像された蛍光画像(PDD画像)を取得する機能を有している。具体的には、タイミングコントローラ61は、光源52が駆動しているタイミングで、画像取得を許可する信号を蛍光画像取得部64に出力する。これに応じて、蛍光画像取得部64は、AD変換部62から出力される画像信号を取り込む。図3は、図2に示す白色光画像と同じ観察対象の蛍光画像の一例である。
The fluorescence
病変情報生成部65は、蛍光画像に基づいて、観察対象における病変に関する病変情報を生成する機能を有している。観察対象に腫瘍細胞などの病変が存在する場合、光感受性物質が腫瘍細胞内に蓄積されるため、紫色励起光の照射時に病変部から蛍光(波長635nm)が発せられる。これにより、蛍光画像では、病変部と非病変部(本実施形態では、腫瘍の存在しない部位を意味する)のコントラストが大きくなる。病変情報生成部65は、蛍光が検出される部位を病変部として識別し、病変の位置を示す位置情報を病変情報として生成する。
The lesion
なお、病変情報生成部65は、蛍光画像から病変情報を生成するために、蛍光画像および確定診断された病変情報を教師データとして機械学習を行うことにより生成されたアルゴリズムを用いてもよい。
In addition, the lesion
図4は、図3に示す蛍光画像に対して、病変部として識別された領域を囲う枠H1がマーキングされた画像である。枠H1で囲まれた領域の位置(座標)が、病変情報に対応する。なお、病変情報の生成は、蛍光画像の解析により自動で行ってもよいし、内視鏡システム1のユーザ(医師)が、マウスやタッチパネルなどの入力装置を操作することにより、手動で行ってもよい。
FIG. 4 is an image in which a frame H1 surrounding a region identified as a lesion is marked on the fluorescence image shown in FIG. The position (coordinates) of the area surrounded by the frame H1 corresponds to the lesion information. The lesion information may be generated automatically by analyzing the fluorescence image, or manually by the user (doctor) of the
病変情報付加部66は、白色光画像に病変情報を付加(アノテーション)する機能を有している。本実施形態では、病変情報付加部66は、病変情報生成部65が蛍光画像に基づいて生成した病変情報(病変部の位置)を、当該蛍光画像と略同時に取得された白色光画像に付加し、白色光画像において対応する座標の領域を、他の領域と識別可能にマーキングする。
The lesion
図5は、図2に示す白色光画像に対して、病変情報が付加された画像を示している。図5では、図4に示す枠H1で囲まれた領域と同一座標の領域に枠H2がオーバーレイ表示されている。 FIG. 5 shows an image in which lesion information is added to the white light image shown in FIG. In FIG. 5, the frame H2 is overlaid on the area having the same coordinates as the area surrounded by the frame H1 shown in FIG.
白色光画像に病変情報を付加する態様は特に限定されない。蛍光画像および白色光画像の他の例を、図6および図7に示す。図6(a)は、蛍光画像取得部64が取得した蛍光画像の一例であり、図6(b)は、図6(a)に示す蛍光画像に対して、病変部として識別された領域に枠H3がマーキングされた画像である。
The mode in which the lesion information is added to the white light image is not particularly limited. Other examples of fluorescent and white light images are shown in FIGS. 6 and 7. FIG. 6A is an example of a fluorescence image acquired by the fluorescence
病変情報生成部66は、蛍光画像において病変部として識別された領域の位置情報を病変情報として生成し、病変情報付加部66は、当該病変情報を白色光画像に付加する。図7は、病変情報が付加された白色光画像の一例を示しており、図6(b)においてマーキングされた領域に対応する領域を囲むフォーカス枠H4がオーバーレイ表示されている。
The lesion
表示部67は、病変情報が付加された白色光画像をモニタ4に表示する機能を有している。これにより、モニタ4には、図5および図7に示すような、病変部が識別可能に示された白色光画像が表示されるため、ユーザは、病変部と非病変部を同時に認識することができる。よって、単に白色光画像と蛍光画像を並列表示する従来技術に比べ、白色光画像による観察が容易になり、診察に要する時間を短縮することが可能となる。
The
なお、表示部67は、図8に示すように、病変情報が付加された白色光画像とともに蛍光画像もモニタ4に表示してもよい。
As shown in FIG. 8, the
記憶部68は、プロセッサ6による演算処理に用いられる各種プログラムや、演算処理によって生成された各種データを保存するものであり、例えば、フラッシュメモリ、HDD、SSDなどで構成される。
The
なお、後述する教師データ生成モードでは、病変情報付加部66は、病変情報が付加された白色光画像を、機械学習のための教師データD1として記憶部68に保存する。この場合、病変情報付加部66は、特許請求の範囲に記載の教師データ生成部に対応する。保存処理は、ユーザによる操作に応じて行ってもよいし、所定の周期で行ってもよい。
In the teacher data generation mode described later, the lesion
(診察モード)
図1に示す内視鏡システム1は、被検者の診察のための診察モード、および、教師データ生成のための教師データ生成モードの2つのモードで動作することができる。図9は、診察モードにおける内視鏡システム1によって実施される画像処理方法の処理手順を示すフローチャートである。この場合、制御装置3は、特許請求の範囲に記載の画像処理装置として機能する。
(Medical examination mode)
The
ステップS1では、被検者に光感受性物質(例えば、5−ALA)を内服してもらい、所定時間経過後に、内視鏡2を上部消化管に挿入する。なお、光感受性物質の種類は特に限定されず、5−ALAの他、L−グルコサミン、フォトフリン、レザフィリンなどが挙げられる。
In step S1, the subject is asked to take a photosensitizer (for example, 5-ALA), and after a lapse of a predetermined time, the
その後、内視鏡2からは、白色光と紫色励起光とが交互に出射される。ステップS2(第1取得ステップ)では、観察対象に白色光が照射された時に、白色光画像取得部63が白色光画像を取得する。続いて、内視鏡2からの照射光が紫色励起光に切り替わると、ステップS3(第2取得ステップ)において、蛍光画像取得部64が蛍光画像を取得する。
After that, white light and purple excitation light are alternately emitted from the
なお、ステップS3を実行した後に、ステップS2を実行してもよい。 After executing step S3, step S2 may be executed.
続いて、ステップS4(病変情報生成ステップ)では、病変情報生成部65が、蛍光画像に基づいて、観察対象における病変に関する病変情報を生成する。
Subsequently, in step S4 (lesion information generation step), the lesion
続いて、ステップS5(病変情報付加ステップ)では、病変情報付加部66が、白色光画像に病変情報を付加する。
Subsequently, in step S5 (lesion information addition step), the lesion
続いて、ステップS6(表示ステップ)では、表示部67が、病変情報が付加された白色光画像をモニタ4に表示する。
Subsequently, in step S6 (display step), the
ステップS3〜S6は、白色光および紫色励起光が照射される毎に、診察が終了するまで(ステップS7においてYES)、繰り返し実行される。例えば、白色光と紫色励起光とが切り替わる周期が1/60msである場合、ステップS3〜S6は、1/30msの周期で実行される。これにより、病変情報が付加された白色光画像は動画としてモニタ4に表示される。
Steps S3 to S6 are repeatedly executed each time the white light and the purple excitation light are irradiated until the examination is completed (YES in step S7). For example, when the cycle of switching between the white light and the purple excitation light is 1/60 ms, steps S3 to S6 are executed in a cycle of 1/30 ms. As a result, the white light image to which the lesion information is added is displayed on the
なお、病変情報は、病変の位置を示す位置情報に限定されず、例えば、病変の有無のみを示す情報であってもよい。その場合、ステップS6では、病変が存在する白色光画像を表示する際に、病変が有る旨のアラームを白色光画像に表示したり、病変が有る旨の警告を音声で知らせてもよい。 The lesion information is not limited to the position information indicating the position of the lesion, and may be, for example, information indicating only the presence or absence of the lesion. In that case, in step S6, when displaying the white light image in which the lesion is present, an alarm indicating the presence of the lesion may be displayed on the white light image, or a warning indicating the presence of the lesion may be notified by voice.
(教師データ生成モード)
図10は、教師データ生成モードにおける内視鏡システム1によって実施される教師データ生成方法の処理手順を示すフローチャートである。この場合、制御装置3は、特許請求の範囲に記載の教師データ生成装置として機能する。
(Teacher data generation mode)
FIG. 10 is a flowchart showing a processing procedure of the teacher data generation method implemented by the
図10に示すステップS1〜S6は、図9に示すステップS1〜S6と同一である。ユーザは、病変情報が付加された白色光画像を見ながら、任意のタイミング(例えば、異なる観察部位に移動したタイミング)で白色光画像の保存指示を行うことができる。 Steps S1 to S6 shown in FIG. 10 are the same as steps S1 to S6 shown in FIG. The user can give an instruction to save the white light image at an arbitrary timing (for example, the timing of moving to a different observation site) while viewing the white light image to which the lesion information is added.
白色光画像の保存指示がなされると(ステップS8でYES)、ステップS9において、病変情報付加部66は、病変情報が付加された白色光画像を、機械学習のための教師データD1として記憶部68に保存する。
When the instruction to save the white light image is given (YES in step S8), in step S9, the lesion
ステップS2〜S9は、一人の被検者の診察が終了するまで(ステップS10においてYES)、繰り返される。これにより、記憶部68には、教師データD1のセット(学習用データセット)が蓄積される。なお、本実施形態では、教師データD1を保存する記憶部68は、制御装置3に内蔵されているが、これに限定されず、外付けのストレージであってもよいし、クラウド上のストレージであってもよい。
Steps S2 to S9 are repeated until the examination of one subject is completed (YES in step S10). As a result, a set of teacher data D1 (learning data set) is accumulated in the
診察終了時点で、蓄積された教師データD1のデータ量が十分でない場合(ステップS11においてNO)、再度、他の被検者に対してステップS1〜S10を実行する。ステップS1〜S10は、教師データD1が十分に蓄積されるまで(ステップS11においてYES)繰り返される。なお、教師データ作成モードでは、被検者の診察を兼ねていたが、必ずしも臨床現場で実施する必要はない。 If the amount of accumulated teacher data D1 is not sufficient at the end of the examination (NO in step S11), steps S1 to S10 are executed again for other subjects. Steps S1 to S10 are repeated until the teacher data D1 is sufficiently accumulated (YES in step S11). In the teacher data creation mode, the examination of the subject was also performed, but it is not always necessary to carry out the examination in the clinical setting.
以上のように、教師データ作成モードでは、病変情報生成部65が蛍光画像に基づいて病変情報を生成し(ステップS4)、病変情報付加部66が白色光画像に病変情報を付加することにより、教師データD1を作成している。後述するように、教師データD1を用いて機械学習を行うことにより、未知の白色光画像から病変の有無を予測するための学習済みモデルを生成することができる。
As described above, in the teacher data creation mode, the lesion
従来では、本実施形態と同様の教師データを作成するために、人間が確定診断結果に基づいて白色光画像における病変部を特定し、特定した病変部にマーキングを行っていた。この作業を白色光画像の各々に対して行う必要があるため、教師データ生成作業の負担が大きく、機械学習に必要な教師データを蓄積するために多大な時間を要していた。 Conventionally, in order to create teacher data similar to that of the present embodiment, a human has identified a lesion in a white light image based on a definitive diagnosis result and marked the identified lesion. Since it is necessary to perform this work for each of the white light images, the burden of the teacher data generation work is heavy, and it takes a lot of time to accumulate the teacher data necessary for machine learning.
これに対し、本実施形態では、白色光画像における病変部を蛍光画像から生成された病変情報を用いて特定しているため、教師データの生成が自動化できる。よって、短時間で大量の教師データを蓄積することができ、後述する学習済みモデルおよび診断支援プログラムを作成する難易度を下げることができる。 On the other hand, in the present embodiment, since the lesion portion in the white light image is specified by using the lesion information generated from the fluorescence image, the generation of teacher data can be automated. Therefore, a large amount of teacher data can be accumulated in a short time, and the difficulty of creating a learned model and a diagnostic support program, which will be described later, can be reduced.
PDDによる病変部の検出精度は非常に高く、鳥取大学医学部機能病態内科における臨床事例では、蛍光画像に基づいて陽性と診断された26の病変部のうち、23が悪性腫瘍であり、3が良性腫瘍であった。そのため、教師データD1は、確定診断に基づいて生成された従来の教師データに近い品質を有している。よって、後述するAIによる診断支援における感度特異度を高めることができる。 The detection accuracy of lesions by PDD is extremely high, and in clinical cases in the Department of Functional Pathology, Tottori University School of Medicine, of the 26 lesions diagnosed as positive based on fluorescent images, 23 are malignant tumors and 3 are benign. It was a tumor. Therefore, the teacher data D1 has a quality close to that of the conventional teacher data generated based on the definitive diagnosis. Therefore, it is possible to increase the sensitivity specificity in the diagnostic support by AI, which will be described later.
また、図1に示すプロセッサ6の少なくとも白色光画像取得部63、蛍光画像取得部64、病変情報生成部65、病変情報付加部66および表示部67は、集積回路などによってハードウェア的に実現してもよいが、プロセッサ6の図示しないCPUまたはGPUが、記憶部68に格納されている画像処理プログラムまたは教師データ生成プログラムを図示しない主記憶装置(メモリ)に読み出して実行することによりソフトウェア的に実現することもできる。
Further, at least the white light
この場合、上記プログラムは、通信ネットワークを介して制御装置3にダウンロードしてもよいし、上記プログラムのプログラムコードを記録したSDカードやCD−ROM等のコンピュータ読み取り可能な非一時的な記録媒体を介して、上記プログラムを制御装置3に供給してもよい。
In this case, the program may be downloaded to the
(学習済みモデルの生成)
続いて、教師データD1を用いた機械学習について説明する。
(Generation of trained model)
Subsequently, machine learning using the teacher data D1 will be described.
図11は、本実施形態に係る学習済みモデル生成装置7の構成を示すブロック図である。学習済みモデル生成装置7は、例えば汎用のコンピュータで構成することができ、記憶部71と、学習部72とを備えている。
FIG. 11 is a block diagram showing a configuration of the trained model generation device 7 according to the present embodiment. The trained model generator 7 can be configured by, for example, a general-purpose computer, and includes a
記憶部71は、学習済みモデル生成装置7による演算処理に用いられる各種プログラムや、演算処理によって生成された各種データを保存するものであり、例えば、HDD、SSDなどで構成される。記憶部71には、上述のプロセッサ6によって生成された(すなわち、本実施形態に係る教師データ生成方法によって生成された)教師データD1が格納されている。
The
学習部72は、学習済みモデル生成装置7のGPUまたはCPUが所定の学習プログラムを実行することにより実現される機能ブロックであり、教師データD1を用いて機械学習を行う。これにより、学習部72は、未知の観察対象の白色光画像を入力とし、前記未知の観察対象における病変に関する病変情報を出力とする学習済みモデルD2を生成する。学習法は特に限定されないが、例えば、ディープラーニング、サポートベクターマシン、ランダムフォレストなどを用いることができる。
The
図12は、学習済みモデル生成装置7によって実施される学習済みモデル生成方法の処理手順を示すフローチャートである。 FIG. 12 is a flowchart showing a processing procedure of the trained model generation method implemented by the trained model generation device 7.
ステップS20では、上述のプロセッサ6において生成された教師データD1を学習済みモデル生成装置7に転送して、記憶部71に格納する。
In step S20, the teacher data D1 generated by the
ステップS21では、学習部72がニューラルネットワークなどの学習モデルに教師データD1を入力することにより、機械学習を実行する。機械学習が完了すると、学習済みモデルD2が作成される(ステップS22)。作成された学習済みモデルD2は、記憶部71に保存される(ステップS23)。
In step S21, the
(AIによる診断支援)
続いて、学習済みモデルD2を用いた診断支援について説明する。
(Diagnosis support by AI)
Next, diagnostic support using the trained model D2 will be described.
図13は、本実施形態に係る内視鏡システム11の構成を示すブロック図である。内視鏡システム11は、内視鏡12と、制御装置13と、モニタ14とを備えている。
FIG. 13 is a block diagram showing the configuration of the
内視鏡12は、白色光画像による上部消化管の観察に用いられるものである。すなわち、図1に示す内視鏡2とは異なり、内視鏡12は蛍光画像の撮像機能を有していない。なお、観察対象は上部消化管に限定されない。
The
内視鏡12は、内部に光ファイバF3を備えている。内視鏡12の先端部には、蛍光体121および撮像素子122が配置されており、内視鏡2の先端面には、出射窓および観察窓が1つずつ設けられている。蛍光体121は出射窓に面しており、撮像素子122は観察窓に面している。
The
光ファイバF3の先端からは、青色光(中心発光波長445nm)が出射される。光ファイバF3からの青色光は、蛍光体121によって白色光に変換され、出射窓から照射される。観察窓への入射光は、図示しないレンズにより撮像素子122の受光面に結像する。撮像素子122は、入射光を光電変換して、アナログの画像信号を生成する。
Blue light (center emission wavelength 445 nm) is emitted from the tip of the optical fiber F3. The blue light from the optical fiber F3 is converted into white light by the
制御装置13は、内視鏡12に接続されており、主に、内視鏡12による光出射の制御、および撮像素子122からの画像信号の処理などを行う。制御装置13は、光源装置15と、プロセッサ16とを備えている。なお、制御装置13は、特許請求の範囲に記載の診断支援装置に対応する。
The
光源装置15は、青色光を生成する光源151と、光源151を駆動する光源駆動部152と、を備えている。光源151は、図1に示す光源51と同様のものを用いることができる。
The
プロセッサ16は、タイミングコントローラ161と、AD変換部162と、白色光画像取得部(第3取得部)163と、記憶部164と、病変情報取得部165と、表示部166と、を備えている。
The
タイミングコントローラ161は、光源駆動部152が光源151を駆動するタイミングを制御するための信号を出力するとともに、白色光画像取得部163が白色光画像を取得するタイミングを制御するための信号を出力する。
The
AD変換部162は、撮像素子122からの画像信号をAD変換し、デジタルの画像信号を白色光画像取得部163に出力する。
The
白色光画像取得部163は、内視鏡12から観察対象に白色光が照射された時に撮像された白色光画像を取得する機能を有している。具体的には、タイミングコントローラ61は、光源151が駆動している間、画像取得を許可する信号を白色光画像取得部163に出力する。これに応じて、白色光画像取得部163は、AD変換部162から出力された画像信号を取り込む。なお、白色光画像取得部163は、光源151が駆動しているか否かに関わらず、常時、白色光画像を取得する構成としてもよい。
The white light
記憶部164は、プロセッサ16による演算処理に用いられる各種プログラムや、演算処理によって生成された各種データを保存するものであり、例えば、フラッシュメモリ、HDD、SSDなどで構成される。記憶部164には、上述の学習済みモデル生成装置7によって生成された(すなわち、本実施形態に係る学習済みモデル生成方法によって生成された)学習済みモデルD2があらかじめ格納されている。
The
病変情報取得部165は、学習済みモデルD2を図示しない主記憶装置(メモリ)に読み出して、学習済みモデルD2に白色光画像取得部163によって取得された白色光画像を入力し、被検者の観察対象における病変に関する病変情報を学習済みモデルD2から取得する。本実施形態では、病変情報は、白色光画像における病変部の位置情報であるが、これに限定されず、例えば、病変の有無のみを示す情報であってもよい。
The lesion
さらに本実施形態では、病変情報取得部165は、取得した病変情報を白色光画像に付加して、病変情報が付加された白色光画像(例えば、病変部に枠が重畳された白色光画像)を生成する。表示部166は、病変情報が付加された白色光画像をモニタ14に表示する。これにより、ユーザに病変の疑われる部位が示される。
Further, in the present embodiment, the lesion
このように、内視鏡システム11では、内視鏡12は蛍光画像を撮像する機能を有していないが、病変情報取得部165が、白色光画像を学習済みモデルD2に入力することによって、病変情報を取得している。すなわち、病変情報取得部165は、PDDによって得られる病変情報と同等の情報を白色光画像から得ることができる。したがって、ユーザは、白色光画像のみによって、PDDと同等の精度で病変を検知することができる。
As described above, in the
図14は、内視鏡システム11によって実施される診断支援方法の処理手順を示すフローチャートである。
FIG. 14 is a flowchart showing a processing procedure of the diagnostic support method implemented by the
ステップS30では、内視鏡12を被検者の上部消化管に挿入する。なお、内視鏡12の挿入前に光感受性物質の内服は行わない。
In step S30, the
ステップS31(第3取得ステップ)では、白色光画像取得部163が、内視鏡12から観察対象に白色光が照射された時に撮像された白色光画像を取得する。
In step S31 (third acquisition step), the white light
ステップS32(病変情報取得ステップ)では、病変情報取得部165が、学習済みモデルD2にステップS30で取得された白色光画像を入力して、被検者の観察対象における病変に関する病変情報を取得する。さらに、病変情報取得部165は、取得した病変情報を白色光画像に付加して、病変情報が付加された白色光画像を生成する(ステップS33)。
In step S32 (lesion information acquisition step), the lesion
ステップS34では、表示部166が、病変情報が付加された白色光画像をモニタ14に表示する。
In step S34, the
なお、病変情報が病変の有無のみを示す情報である場合、ステップS33およびS34の代わりに、例えば警告表示や音声によって、ユーザに病変が存在する可能性があることを警告するようにしてもよい。 When the lesion information is information indicating only the presence or absence of a lesion, the user may be warned that the lesion may exist by, for example, a warning display or voice instead of steps S33 and S34. ..
なお、図13に示すプロセッサ16の少なくとも白色光画像取得部163、病変情報取得部165および表示部166は、集積回路などによってハードウェア的に実現してもよいが、プロセッサ16の図示しないCPUまたはGPUが、記憶部164に格納されている診断支援プログラムを図示しない主記憶装置(メモリ)に読み出して実行することによりソフトウェア的に実現することもできる。
At least the white light
この場合、上記プログラムは、通信ネットワークを介して制御装置13にダウンロードしてもよいし、上記プログラムのプログラムコードを記録したSDカードやCD−ROM等のコンピュータ読み取り可能な非一時的な記録媒体を介して、上記プログラムを制御装置13に供給してもよい。
In this case, the program may be downloaded to the
(付記事項)
以上、本発明の実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、その趣旨を逸脱しない限りにおいて、種々の変更が可能である。
(Additional notes)
Although the embodiments of the present invention have been described above, the present invention is not limited to the above embodiments, and various modifications can be made without departing from the spirit of the present invention.
例えば、上記実施形態では、内視鏡2は軟性内視鏡の一種である消化器内視鏡であったが、本発明ではこれに限定されない。本発明に適用可能な内視鏡の例を、表1に示す。
For example, in the above embodiment, the
なお、内視鏡には、NOTES(natural orifice transluminal endoscopic surgery)に用いられるものも含まれる。NOTESとは、軟性内視鏡を口や肛門、膣などの自然孔から挿入し、胃壁などの管腔壁を経て腹腔内に到達させ、診断や処置を行う手技である。 The endoscope includes those used for NOTES (natural orifice transluminal endoscopic surgery). NOTES is a procedure in which a flexible endoscope is inserted through a natural hole such as the mouth, anus, or vagina, and reaches the abdominal cavity through a luminal wall such as the stomach wall for diagnosis and treatment.
また、上記実施形態では、病変情報の生成のために用いられる医用情報が蛍光画像(PDD画像)であり、生成された病変情報が付加される医用画像が白色光画像であったが、医用画像および医用情報の組み合わせはこれに限定されない。例えば、病変情報が付加される医用画像は、画像強調内視鏡画像などの他の内視鏡画像であってもよい。本発明において適用可能な医用画像および医用情報の組み合わせの例を表2に示す。 Further, in the above embodiment, the medical information used for generating the lesion information is a fluorescent image (PDD image), and the medical image to which the generated lesion information is added is a white light image. And the combination of medical information is not limited to this. For example, the medical image to which the lesion information is added may be another endoscopic image such as an image-enhanced endoscopic image. Table 2 shows an example of a combination of medical images and medical information applicable in the present invention.
画像強調内視鏡画像には、NBI(Narrow Band Imaging)、BLI(Blue LASER Imaging)、LCI(Linked Color Imaging)、AFI(Autofluorescence Imaging)などがある。例えば、医用画像および医用情報として、白色光画像およびNBI、蛍光画像およびNBI、といった組み合わせが考えられる。 Image-enhanced endoscopic images include NBI (Narrow Band Imaging), BLI (Blue LASER Imaging), LCI (Linked Color Imaging), AFI (Autofluorescence Imaging) and the like. For example, as the medical image and medical information, a combination of a white light image and NBI, a fluorescence image and NBI can be considered.
また、色素内視鏡画像は、内視鏡検査中に各種の色素剤の散布を行い、その反応を観察する色素内視鏡検査法で得られる画像であり、病変の認識・病変範囲の確定・深達度の評価に有用である。色素内視鏡検査法の手法、色素および原理の例を表3に示す。 In addition, the dye endoscopy image is an image obtained by the dye endoscopy method in which various pigment agents are sprayed during endoscopy and the reaction is observed, and the recognition of the lesion and the determination of the lesion range are determined. -Useful for evaluating depth of invasion. Table 3 shows examples of dye endoscopy methods, dyes, and principles.
また、上記実施形態では、医用画像に付加するための病変情報を生成するための医用情報は、単一の情報であったが、複数の情報であってもよい。すなわち、複数の情報に基づいて病変情報を生成し、生成した病変情報を医用画像に付加してもよい。例えば、医用情報として蛍光画像およびNBIを用い、これらから生成された病変情報を白色光画像に付加してもよい。この場合、蛍光画像で陽性かつNBIで暗色である部位と、蛍光画像で陽性かつNBIで明色である部位とでは、病理組織が異なる可能性がある。このように、複数の医用情報を用いることにより、より詳細な病変情報を得ることができ、教師データの質を高めることができる。 Further, in the above embodiment, the medical information for generating the lesion information to be added to the medical image is a single piece of information, but may be a plurality of pieces of information. That is, lesion information may be generated based on a plurality of pieces of information, and the generated lesion information may be added to the medical image. For example, a fluorescence image and NBI may be used as medical information, and lesion information generated from these may be added to the white light image. In this case, the pathological tissue may be different between the site that is positive in the fluorescence image and dark in NBI and the site that is positive in the fluorescence image and is light in NBI. In this way, by using a plurality of medical information, more detailed lesion information can be obtained, and the quality of teacher data can be improved.
また、上記のように複数の医用情報を用いて同時に取得した複雑な教師データは、病変部位と非病変部位の境界領域を示すのみならず、将来的に病変となりうる部位を特定するための学習モデルを作成するために用いることができる。また、このようにして作成された学習モデルは、ある領域が特定の将来の時点において病変部位となる可能性の近似値を予測として出力することも可能である。さらに、本発明の内視鏡システムによって得られた病変情報は、治療の際の補助情報として利用できる。例えば、病変部の境界情報は、自動的治療装置(自動内視鏡等)に治療対象の位置を指定するための情報として利用できる。 In addition, the complex teacher data acquired at the same time using a plurality of medical information as described above not only indicates the boundary region between the lesion site and the non-lesion site, but also learns to identify the site that may become a lesion in the future. It can be used to create a model. In addition, the learning model created in this way can output an approximate value as a prediction of the possibility that a certain region becomes a lesion site at a specific future time point. Furthermore, the lesion information obtained by the endoscopic system of the present invention can be used as auxiliary information during treatment. For example, the boundary information of the lesion can be used as information for designating the position of the treatment target in an automatic treatment device (automatic endoscope or the like).
本発明は、消化器内科だけでなく、外科、脳外科、泌尿器科、耳鼻咽喉科、呼吸器内科などのあらゆる診療科における医用画像を用いた診断に適用できる。 The present invention can be applied to diagnosis using medical images not only in gastroenterology but also in all clinical departments such as surgery, neurosurgery, urology, otolaryngology, and respiratory medicine.
1 内視鏡システム
2 内視鏡
3 制御装置
4 モニタ
5 光源装置
6 プロセッサ
7 学習済みモデル生成装置
11 内視鏡システム
12 内視鏡
13 制御装置
14 モニタ
15 光源装置
16 プロセッサ
21 蛍光体
22 光偏向拡散部材
23 撮像素子
51 光源
52 光源
53 光源駆動部
61 タイミングコントローラ
62 AD変換部
63 白色光画像取得部
64 蛍光画像取得部
65 病変情報生成部
66 病変情報付加部
67 表示部
68 記憶部
71 記憶部
72 学習部
121 蛍光体
122 撮像素子
151 光源
152 光源駆動部
161 タイミングコントローラ
162 AD変換部
163 白色光画像取得部
164 記憶部
165 病変情報取得部
166 表示部
D1 教師データ
D2 学習済みモデル
F1 光ファイバ
F2 光ファイバ
F3 光ファイバ
1
Claims (17)
前記観察対象の前記医用画像以外の医用情報を取得する第2取得ステップと、
前記医用情報に基づいて、前記観察対象における病変に関する病変情報を生成する病変情報生成ステップと、
前記医用画像に前記病変情報を付加する病変情報付加ステップと、
前記病変情報が付加された前記医用画像をモニタに表示する表示ステップと、
を備えた画像処理方法。 The first acquisition step of acquiring a medical image of a living body to be observed, and
The second acquisition step of acquiring medical information other than the medical image of the observation target, and
A lesion information generation step that generates lesion information related to a lesion in the observation target based on the medical information, and a lesion information generation step.
A lesion information addition step for adding the lesion information to the medical image,
A display step of displaying the medical image to which the lesion information is added on a monitor, and
Image processing method with.
前記医用情報は、光線力学的診断のために前記内視鏡から前記観察対象に光感受性物質を励起するための励起光が照射された時に撮像された蛍光画像である、請求項1または2に記載の画像処理方法。 The medical image is a white light image taken when the observation target is irradiated with white light from an endoscope.
The medical information is a fluorescent image taken when the observation target is irradiated with excitation light for exciting a photosensitive substance for photodynamic diagnosis, according to claim 1 or 2. The image processing method described.
前記観察対象の前記医用画像以外の医用情報を取得する第2取得部と、
前記医用情報に基づいて、前記観察対象における病変に関する病変情報を生成する病変情報生成部と、
前記医用画像に前記病変情報を付加する病変情報付加部と、
前記病変情報が付加された前記医用画像をモニタに表示する表示部と、
を備えた画像処理装置。 The first acquisition unit that acquires the medical image of the observation target of the living body,
A second acquisition unit that acquires medical information other than the medical image of the observation target, and
A lesion information generation unit that generates lesion information related to a lesion in the observation target based on the medical information, and a lesion information generation unit.
A lesion information addition part that adds the lesion information to the medical image,
A display unit that displays the medical image to which the lesion information is added on a monitor, and
Image processing device equipped with.
前記観察対象の前記医用画像以外の医用情報を取得する第2取得ステップと、
前記医用情報に基づいて、前記観察対象における病変に関する病変情報を生成する病変情報生成ステップと、
前記医用画像に前記病変情報を付加する病変情報付加ステップと、
前記病変情報が付加された前記医用画像をモニタに表示する表示ステップと、
をコンピュータに実行させるための画像処理プログラム。 The first acquisition step of acquiring a medical image of a living body to be observed, and
The second acquisition step of acquiring medical information other than the medical image of the observation target, and
A lesion information generation step that generates lesion information related to a lesion in the observation target based on the medical information, and a lesion information generation step.
A lesion information addition step for adding the lesion information to the medical image,
A display step of displaying the medical image to which the lesion information is added on a monitor, and
An image processing program that allows a computer to execute.
前記観察対象の前記医用画像以外の医用情報を取得する第2取得ステップと、
前記医用情報に基づいて、前記観察対象における病変に関する病変情報を生成する病変情報生成ステップと、
前記医用画像に前記病変情報を付加して、機械学習のための教師データを生成する教師データ生成ステップと、
を備えた教師データ生成方法。 The first acquisition step of acquiring a medical image of a living body to be observed, and
The second acquisition step of acquiring medical information other than the medical image of the observation target, and
A lesion information generation step that generates lesion information related to a lesion in the observation target based on the medical information, and a lesion information generation step.
A teacher data generation step of adding the lesion information to the medical image to generate teacher data for machine learning, and
Teacher data generation method with.
前記医用情報は、光線力学的診断のために前記内視鏡から前記観察対象に光感受性物質を励起するための励起光を照射した時に撮像された蛍光画像である、請求項7に記載の教師データ生成方法。 The medical image is a white light image taken when the observation target is irradiated with white light from an endoscope.
The teacher according to claim 7, wherein the medical information is a fluorescence image taken when the observation target is irradiated with excitation light for exciting a photosensitive substance from the endoscope for photodynamic diagnosis. Data generation method.
前記観察対象の前記医用画像以外の医用情報を取得する第2取得部と、
前記医用情報に基づいて、前記観察対象における病変に関する病変情報を生成する病変情報生成部と、
前記医用画像に前記病変情報を付加して、機械学習のための教師データを生成する教師データ生成部と、
を備えた教師データ生成装置。 The first acquisition unit that acquires the medical image of the observation target of the living body,
A second acquisition unit that acquires medical information other than the medical image of the observation target, and
A lesion information generation unit that generates lesion information related to a lesion in the observation target based on the medical information.
A teacher data generation unit that adds the lesion information to the medical image to generate teacher data for machine learning, and a teacher data generation unit.
Teacher data generator equipped with.
前記観察対象の前記医用画像以外の医用情報を取得する第2取得ステップと、
前記医用情報に基づいて、前記観察対象における病変に関する病変情報を生成する病変情報生成ステップと、
前記医用画像に前記病変情報を付加して、機械学習のための教師データを生成する教師データ生成ステップと、
をコンピュータに実行させる教師データ生成プログラム。 The first acquisition step of acquiring a medical image of a living body to be observed, and
The second acquisition step of acquiring medical information other than the medical image of the observation target, and
A lesion information generation step that generates lesion information related to a lesion in the observation target based on the medical information, and a lesion information generation step.
A teacher data generation step of adding the lesion information to the medical image to generate teacher data for machine learning, and
A teacher data generator that lets a computer run.
未知の観察対象の前記医用画像を入力とし、前記未知の観察対象における病変に関する病変情報を出力とする学習済みモデルを生成する、学習済みモデル生成方法。 Machine learning is performed using the teacher data generated by the teacher data generation method according to claim 7 or 8.
A trained model generation method for generating a trained model in which the medical image of an unknown observation target is input and lesion information related to a lesion in the unknown observation target is output.
未知の観察対象の前記医用画像を入力とし、前記未知の観察対象における病変に関する病変情報を出力とする学習済みモデルを生成する学習部、
を備えた学習済みモデル生成装置。 Machine learning is performed using the teacher data generated by the teacher data generation method according to claim 7 or 8.
A learning unit that generates a trained model that inputs the medical image of an unknown observation target and outputs lesion information related to a lesion in the unknown observation target.
Trained model generator with.
請求項12に記載の学習済みモデル生成方法によって生成された学習済みモデルに、前記第3取得ステップで取得された医用画像を入力して、前記被検者の観察対象における病変に関する病変情報を取得する病変情報取得ステップと、
を備えた診断支援方法。 The third acquisition step of acquiring the medical image of the subject to be observed, and
The medical image acquired in the third acquisition step is input to the trained model generated by the trained model generation method according to claim 12, and lesion information related to the lesion in the observation target of the subject is acquired. Lesion information acquisition step and
Diagnosis support method equipped with.
請求項13に記載の学習済みモデル生成装置によって生成された学習済みモデルに、前記第3取得部によって取得された医用画像を入力して、前記被検者の観察対象における病変に関する病変情報を取得する病変情報取得部と、
を備えた診断支援装置。 The third acquisition department that acquires the medical image of the subject to be observed, and
The medical image acquired by the third acquisition unit is input to the trained model generated by the trained model generator according to claim 13 to acquire lesion information related to the lesion in the observation target of the subject. Lesion information acquisition department and
Diagnostic support device equipped with.
請求項12に記載の学習済みモデル生成方法によって生成された学習済みモデルに、前記第3取得ステップで取得された医用画像を入力して、前記被検者の観察対象における病変に関する病変情報を取得する病変情報取得ステップと、
をコンピュータに実行させる診断支援プログラム。 The third acquisition step of acquiring the medical image of the subject to be observed, and
The medical image acquired in the third acquisition step is input to the trained model generated by the trained model generation method according to claim 12, and lesion information related to the lesion in the observation target of the subject is acquired. Lesion information acquisition step and
A diagnostic support program that lets a computer execute.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019190994A JP2021065293A (en) | 2019-10-18 | 2019-10-18 | Image processing method, image processing device, image processing program, teacher data generation method, teacher data generation device, teacher data generation program, learned model generation method, learned model generation device, diagnosis support method, diagnosis support device, diagnosis support program, and recording medium that records the program |
PCT/JP2020/038592 WO2021075418A1 (en) | 2019-10-18 | 2020-10-13 | Image processing method, teacher data generation method, trained model generation method, illness development prediction method, image processing device, image processing program, and recording medium on which program is recorded |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019190994A JP2021065293A (en) | 2019-10-18 | 2019-10-18 | Image processing method, image processing device, image processing program, teacher data generation method, teacher data generation device, teacher data generation program, learned model generation method, learned model generation device, diagnosis support method, diagnosis support device, diagnosis support program, and recording medium that records the program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021065293A true JP2021065293A (en) | 2021-04-30 |
Family
ID=75636137
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019190994A Pending JP2021065293A (en) | 2019-10-18 | 2019-10-18 | Image processing method, image processing device, image processing program, teacher data generation method, teacher data generation device, teacher data generation program, learned model generation method, learned model generation device, diagnosis support method, diagnosis support device, diagnosis support program, and recording medium that records the program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021065293A (en) |
-
2019
- 2019-10-18 JP JP2019190994A patent/JP2021065293A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6749473B2 (en) | Endoscope system and operating method thereof | |
US20190374088A1 (en) | Endoscope system and operation method therefor | |
JP4954699B2 (en) | Fluorescence endoscope system | |
JP5634755B2 (en) | Electronic endoscope system, processor device for electronic endoscope, and method for operating electronic endoscope system | |
JP5074044B2 (en) | Fluorescence observation apparatus and method of operating fluorescence observation apparatus | |
JP7125484B2 (en) | endoscope system | |
WO2021075418A1 (en) | Image processing method, teacher data generation method, trained model generation method, illness development prediction method, image processing device, image processing program, and recording medium on which program is recorded | |
US20060241499A1 (en) | Multifunctional fluorescence diagnosis system | |
JP7176041B2 (en) | Medical image processing device and method, endoscope system, processor device, diagnosis support device and program | |
JPWO2019138773A1 (en) | Medical image processing equipment, endoscopic systems, medical image processing methods and programs | |
JP2010172673A (en) | Endoscope system, processor for endoscope, and endoscopy aiding method | |
JP7411772B2 (en) | endoscope system | |
JP2019180966A (en) | Endoscope observation support apparatus, endoscope observation support method, and program | |
JP2012170774A (en) | Endoscopic system | |
JP7137684B2 (en) | Endoscope device, program, control method and processing device for endoscope device | |
WO2021145265A1 (en) | Medical image processing device, endoscope system, diagnosis assistance method, and program | |
WO2020054543A1 (en) | Medical image processing device and method, endoscope system, processor device, diagnosis assistance device and program | |
JP7328432B2 (en) | medical control device, medical observation system, control device and observation system | |
WO2021229684A1 (en) | Image processing system, endoscope system, image processing method, and learning method | |
JP2006340796A (en) | Sentinel lymph node detection system | |
JP2008043383A (en) | Fluorescence observation endoscope instrument | |
JP7441452B2 (en) | Training data generation method, learned model generation method, and disease onset prediction method | |
JP2004305382A (en) | Special light observation system | |
JP2013048646A (en) | Diagnostic system | |
JP2021065293A (en) | Image processing method, image processing device, image processing program, teacher data generation method, teacher data generation device, teacher data generation program, learned model generation method, learned model generation device, diagnosis support method, diagnosis support device, diagnosis support program, and recording medium that records the program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20201125 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20201125 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221017 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231010 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231031 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240109 |