JP2021065293A - Image processing method, image processing device, image processing program, teacher data generation method, teacher data generation device, teacher data generation program, learned model generation method, learned model generation device, diagnosis support method, diagnosis support device, diagnosis support program, and recording medium that records the program - Google Patents

Image processing method, image processing device, image processing program, teacher data generation method, teacher data generation device, teacher data generation program, learned model generation method, learned model generation device, diagnosis support method, diagnosis support device, diagnosis support program, and recording medium that records the program Download PDF

Info

Publication number
JP2021065293A
JP2021065293A JP2019190994A JP2019190994A JP2021065293A JP 2021065293 A JP2021065293 A JP 2021065293A JP 2019190994 A JP2019190994 A JP 2019190994A JP 2019190994 A JP2019190994 A JP 2019190994A JP 2021065293 A JP2021065293 A JP 2021065293A
Authority
JP
Japan
Prior art keywords
lesion
information
image
teacher data
observation target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019190994A
Other languages
Japanese (ja)
Inventor
政至 藤井
Masashi Fujii
政至 藤井
一 磯本
Hajime Isomoto
一 磯本
賢 植木
Masaru Ueki
賢 植木
上原 一剛
Kazutaka Uehara
一剛 上原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
R Zero Inc
Tottori University NUC
Original Assignee
R Zero Inc
Tottori University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by R Zero Inc, Tottori University NUC filed Critical R Zero Inc
Priority to JP2019190994A priority Critical patent/JP2021065293A/en
Priority to PCT/JP2020/038592 priority patent/WO2021075418A1/en
Publication of JP2021065293A publication Critical patent/JP2021065293A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Endoscopes (AREA)

Abstract

To facilitate observation by a medical image.SOLUTION: A control device 3 includes: a white light acquisition unit 63 for acquiring a white light image, which is an observation object of a living body; a fluorescent image acquisition unit 64 for acquiring a fluorescent image of the observation object; a lesion information generation unit 65 for generating lesion information on a lesion in the observation object on the basis of the fluorescent image; a lesion information adding unit 66 for adding the lesion information to the white light image; and a display unit 67 for displaying the white light image to which the lesion information is added, in a monitor 4.SELECTED DRAWING: Figure 1

Description

本発明は、医用画像を用いた診断に関するものであり、特に内視鏡を用いた診断に関するものである。 The present invention relates to a diagnosis using a medical image, and more particularly to a diagnosis using an endoscope.

近年、胃癌の原因の一つとされるH. pylori感染率は低下しているものの、超高齢化社会を迎え、胃癌の罹患数は未だ減少していない。内視鏡的粘膜下層剥離術の普及に伴い早期胃癌の内視鏡診断の重要性が増しているが、病変悪化診断や存在診断が難しい場合がある。また、多発癌の見逃しは一定の頻度存在し、病変を拾い上げる客観的な診断法の開発が望まれている。 In recent years, the H. pylori infection rate, which is one of the causes of gastric cancer, has decreased, but the number of gastric cancer cases has not decreased due to the super-aging society. With the widespread use of endoscopic submucosal dissection, the importance of endoscopic diagnosis of early gastric cancer is increasing, but it may be difficult to diagnose lesion deterioration or presence. In addition, multiple cancers are often overlooked, and it is desired to develop an objective diagnostic method for picking up lesions.

そのような診断法として、光力学的診断法(PDD:Photodynamic Diagonosis)が挙げられる。PDDは、腫瘍親和性のある光感受性物質と励起光を組み合わせた診断方法である。5−アミノレブリン酸(5−ALA)などの特定の光感受性物質を人体に投与すると、腫瘍組織や新生血管に光感受性物質が集積する。組織に集積した物質に対して励起光を照射し、励起された物質から発生する蛍光を検知することにより、病変の有無を診断することができる。 As such a diagnostic method, a photodynamic diagnostic method (PDD: Photodynamic Diagonosis) can be mentioned. PDD is a diagnostic method that combines a photosensitizer with tumor affinity and excitation light. When a specific photosensitizer such as 5-aminolevulinic acid (5-ALA) is administered to the human body, the photosensitizer accumulates in tumor tissue and new blood vessels. The presence or absence of a lesion can be diagnosed by irradiating a substance accumulated in a tissue with excitation light and detecting fluorescence generated from the excited substance.

PDDにおける蛍光画像は、病変部位と非病変部位の境界コントラストが、通常の白色光画像よりも向上している。しかし、蛍光画像はその特性上、非病変部の詳細な観察には適さない。 In the fluorescent image in PDD, the boundary contrast between the lesion site and the non-lesion site is improved as compared with the normal white light image. However, due to its characteristics, fluorescence images are not suitable for detailed observation of non-lesioned areas.

これに対し、特許文献1には、蛍光画像と白色光画像を同時に取得して、TVモニタに並列表示することが開示されている。これらの2つの画像により、病変部と非病変部の両方を観察することができる。 On the other hand, Patent Document 1 discloses that a fluorescence image and a white light image are simultaneously acquired and displayed in parallel on a TV monitor. With these two images, both lesions and non-lesions can be observed.

特開2006−94907号公報Japanese Unexamined Patent Publication No. 2006-94907

しかしながら、特許文献1では、蛍光画像と白色光画像を常に交互に見比べる必要があるため、医師の負担が大きく、診察に要する時間の短縮を図ることが難しい。 However, in Patent Document 1, since it is necessary to constantly compare the fluorescent image and the white light image alternately, the burden on the doctor is heavy and it is difficult to shorten the time required for the medical examination.

本発明は、上記問題を解決するためになされたものであって、医用画像による観察を容易にする技術を提供することを課題とする。 The present invention has been made to solve the above problems, and an object of the present invention is to provide a technique for facilitating observation with a medical image.

上記課題を解決するために、本発明は以下の態様を含む。
項1.
生体の観察対象の医用画像を取得する第1取得ステップと、
前記観察対象の前記医用画像以外の医用情報を取得する第2取得ステップと、
前記医用情報に基づいて、前記観察対象における病変に関する病変情報を生成する病変情報生成ステップと、
前記医用画像に前記病変情報を付加する病変情報付加ステップと、
前記病変情報が付加された前記医用画像をモニタに表示する表示ステップと、
を備えた画像処理方法。
項2.
前記病変情報は、前記病変の位置を示す位置情報である、項1に記載の画像処理方法。
項3.
前記医用画像は、内視鏡から前記観察対象に白色光が照射された時に撮像された白色光画像であり、
前記医用情報は、光線力学的診断のために前記内視鏡から前記観察対象に光感受性物質を励起するための励起光が照射された時に撮像された蛍光画像である、項1または2に記載の画像処理方法。
項4.
生体の観察対象の医用画像を取得する第1取得部と、
前記観察対象の前記医用画像以外の医用情報を取得する第2取得部と、
前記医用情報に基づいて、前記観察対象における病変に関する病変情報を生成する病変情報生成部と、
前記医用画像に前記病変情報を付加する病変情報付加部と、
前記病変情報が付加された前記医用画像をモニタに表示する表示部と、
を備えた画像処理装置。
項5.
生体の観察対象の医用画像を取得する第1取得ステップと、
前記観察対象の前記医用画像以外の医用情報を取得する第2取得ステップと、
前記医用情報に基づいて、前記観察対象における病変に関する病変情報を生成する病変情報生成ステップと、
前記医用画像に前記病変情報を付加する病変情報付加ステップと、
前記病変情報が付加された前記医用画像をモニタに表示する表示ステップと、
をコンピュータに実行させるための画像処理プログラム。
項6.
項5に記載の画像処理プログラムを記録したコンピュータ読み取り可能な非一時的な記録媒体。
項7.
生体の観察対象の医用画像を取得する第1取得ステップと、
前記観察対象の前記医用画像以外の医用情報を取得する第2取得ステップと、
前記医用情報に基づいて、前記観察対象における病変に関する病変情報を生成する病変情報生成ステップと、
前記医用画像に前記病変情報を付加して、機械学習のための教師データを生成する教師データ生成ステップと、
を備えた教師データ生成方法。
項8.
前記医用画像は、内視鏡から前記観察対象に白色光を照射した時に撮像された白色光画像であり、
前記医用情報は、光線力学的診断のために前記内視鏡から前記観察対象に光感受性物質を励起するための励起光を照射した時に撮像された蛍光画像である、項7に記載の教師データ生成方法。
項9.
生体の観察対象の医用画像を取得する第1取得部と、
前記観察対象の前記医用画像以外の医用情報を取得する第2取得部と、
前記医用情報に基づいて、前記観察対象における病変に関する病変情報を生成する病変情報生成部と、
前記医用画像に前記病変情報を付加して、機械学習のための教師データを生成する教師データ生成部と、
を備えた教師データ生成装置。
項10.
生体の観察対象の医用画像を取得する第1取得ステップと、
前記観察対象の前記医用画像以外の医用情報を取得する第2取得ステップと、
前記医用情報に基づいて、前記観察対象における病変に関する病変情報を生成する病変情報生成ステップと、
前記医用画像に前記病変情報を付加して、機械学習のための教師データを生成する教師データ生成ステップと、
をコンピュータに実行させる教師データ生成プログラム。
項11.
項10に記載の教師データ生成プログラムを記録したコンピュータ読み取り可能な非一時的な記録媒体。
項12.
項7または8に記載の教師データ生成方法によって生成された教師データを用いて機械学習を行い、
未知の観察対象の前記医用画像を入力とし、前記未知の観察対象における病変に関する病変情報を出力とする学習済みモデルを生成する、学習済みモデル生成方法。
項13.
項7または8に記載の教師データ生成方法によって生成された教師データを用いて機械学習を行い、
未知の観察対象の前記医用画像を入力とし、前記未知の観察対象における病変に関する病変情報を出力とする学習済みモデルを生成する学習部、
を備えた学習済みモデル生成装置。
項14.
被検者の観察対象の医用画像を取得する第3取得ステップと、
項12に記載の学習済みモデル生成方法によって生成された学習済みモデルに、前記第3取得ステップで取得された医用画像を入力して、前記被検者の観察対象における病変に関する病変情報を取得する病変情報取得ステップと、
を備えた診断支援方法。
項15.
被検者の観察対象の医用画像を取得する第3取得部と、
項13に記載の学習済みモデル生成装置によって生成された学習済みモデルに、前記第3取得部によって取得された医用画像を入力して、前記被検者の観察対象における病変に関する病変情報を取得する病変情報取得部と、
を備えた診断支援装置。
項16.
被検者の観察対象の医用画像を取得する第3取得ステップと、
項12に記載の学習済みモデル生成方法によって生成された学習済みモデルに、前記第3取得ステップで取得された医用画像を入力して、前記被検者の観察対象における病変に関する病変情報を取得する病変情報取得ステップと、
をコンピュータに実行させる診断支援プログラム。
項17.
項16に記載の診断支援プログラムを記録したコンピュータ読み取り可能な非一時的な記録媒体。
In order to solve the above problems, the present invention includes the following aspects.
Item 1.
The first acquisition step of acquiring a medical image of a living body to be observed, and
The second acquisition step of acquiring medical information other than the medical image of the observation target, and
A lesion information generation step that generates lesion information related to a lesion in the observation target based on the medical information, and a lesion information generation step.
A lesion information addition step for adding the lesion information to the medical image,
A display step of displaying the medical image to which the lesion information is added on a monitor, and
Image processing method with.
Item 2.
Item 2. The image processing method according to Item 1, wherein the lesion information is position information indicating the position of the lesion.
Item 3.
The medical image is a white light image taken when the observation target is irradiated with white light from an endoscope.
Item 1 or 2, wherein the medical information is a fluorescence image taken when the observation target is irradiated with excitation light for exciting a photosensitive substance from the endoscope for photodynamic diagnosis. Image processing method.
Item 4.
The first acquisition unit that acquires the medical image of the observation target of the living body,
A second acquisition unit that acquires medical information other than the medical image of the observation target, and
A lesion information generation unit that generates lesion information related to a lesion in the observation target based on the medical information.
A lesion information addition part that adds the lesion information to the medical image,
A display unit that displays the medical image to which the lesion information is added on a monitor, and
Image processing device equipped with.
Item 5.
The first acquisition step of acquiring a medical image of a living body to be observed, and
The second acquisition step of acquiring medical information other than the medical image of the observation target, and
A lesion information generation step that generates lesion information related to a lesion in the observation target based on the medical information, and a lesion information generation step.
A lesion information addition step for adding the lesion information to the medical image,
A display step of displaying the medical image to which the lesion information is added on a monitor, and
An image processing program that allows a computer to execute.
Item 6.
A computer-readable non-temporary recording medium on which the image processing program according to Item 5 is recorded.
Item 7.
The first acquisition step of acquiring a medical image of a living body to be observed, and
The second acquisition step of acquiring medical information other than the medical image of the observation target, and
A lesion information generation step that generates lesion information related to a lesion in the observation target based on the medical information, and a lesion information generation step.
A teacher data generation step of adding the lesion information to the medical image to generate teacher data for machine learning, and
Teacher data generation method with.
Item 8.
The medical image is a white light image taken when the observation target is irradiated with white light from an endoscope.
Item 7. The teacher data according to Item 7, wherein the medical information is a fluorescence image taken when the observation target is irradiated with excitation light for exciting a photosensitive substance from the endoscope for photodynamic diagnosis. Generation method.
Item 9.
The first acquisition unit that acquires the medical image of the observation target of the living body,
A second acquisition unit that acquires medical information other than the medical image of the observation target, and
A lesion information generation unit that generates lesion information related to a lesion in the observation target based on the medical information.
A teacher data generation unit that adds the lesion information to the medical image to generate teacher data for machine learning, and a teacher data generation unit.
Teacher data generator equipped with.
Item 10.
The first acquisition step of acquiring a medical image of a living body to be observed, and
The second acquisition step of acquiring medical information other than the medical image of the observation target, and
A lesion information generation step that generates lesion information related to a lesion in the observation target based on the medical information, and a lesion information generation step.
A teacher data generation step of adding the lesion information to the medical image to generate teacher data for machine learning, and
A teacher data generator that lets a computer run.
Item 11.
A computer-readable non-temporary recording medium on which the teacher data generation program according to Item 10 is recorded.
Item 12.
Machine learning is performed using the teacher data generated by the teacher data generation method according to item 7 or 8.
A trained model generation method for generating a trained model in which the medical image of an unknown observation target is input and lesion information related to a lesion in the unknown observation target is output.
Item 13.
Machine learning is performed using the teacher data generated by the teacher data generation method according to item 7 or 8.
A learning unit that generates a trained model that inputs the medical image of an unknown observation target and outputs lesion information related to a lesion in the unknown observation target.
Trained model generator with.
Item 14.
The third acquisition step of acquiring the medical image of the subject to be observed, and
The medical image acquired in the third acquisition step is input to the trained model generated by the trained model generation method according to Item 12, and lesion information related to the lesion in the observation target of the subject is acquired. Lesion information acquisition step and
Diagnosis support method equipped with.
Item 15.
The third acquisition department that acquires the medical image of the subject to be observed, and
The medical image acquired by the third acquisition unit is input to the trained model generated by the trained model generator according to Item 13 to acquire lesion information regarding the lesion in the observation target of the subject. Lesion information acquisition department and
Diagnostic support device equipped with.
Item 16.
The third acquisition step of acquiring the medical image of the subject to be observed, and
The medical image acquired in the third acquisition step is input to the trained model generated by the trained model generation method according to Item 12, and lesion information related to the lesion in the observation target of the subject is acquired. Lesion information acquisition step and
A diagnostic support program that lets a computer execute.
Item 17.
A computer-readable non-temporary recording medium on which the diagnostic support program according to item 16 is recorded.

本発明によれば、医用画像による観察を容易にすることができる。 According to the present invention, observation by a medical image can be facilitated.

本発明の一実施形態に係る内視鏡システムの構成を示すブロック図である。It is a block diagram which shows the structure of the endoscope system which concerns on one Embodiment of this invention. 白色光画像の一例である。This is an example of a white light image. 図2に示す白色光画像と同じ観察対象の蛍光画像の一例である。This is an example of a fluorescence image to be observed, which is the same as the white light image shown in FIG. 図3に示す蛍光画像に対して、病変部として識別された領域を囲う枠がマーキングされた画像である。It is an image in which a frame surrounding a region identified as a lesion is marked with respect to the fluorescence image shown in FIG. 病変情報が付加された白色光画像の一例である。This is an example of a white light image to which lesion information is added. (a)は、蛍光画像の一例であり、(b)は、図6(a)に示す蛍光画像に対して、病変部として識別された領域がマーキングされた画像である。(A) is an example of a fluorescence image, and (b) is an image in which a region identified as a lesion is marked on the fluorescence image shown in FIG. 6 (a). 病変情報が付加された白色光画像の一例である。This is an example of a white light image to which lesion information is added. 並列表示された白色光画像および蛍光画像の一例である。This is an example of a white light image and a fluorescence image displayed in parallel. 画像処理方法の処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure of an image processing method. 教師データ生成方法の処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure of the teacher data generation method. 本発明の一実施形態に係る学習済みモデル生成装置の構成を示すブロック図である。It is a block diagram which shows the structure of the trained model generator which concerns on one Embodiment of this invention. 学習済みモデル生成方法の処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure of the trained model generation method. 本発明の一実施形態に係る内視鏡システムの構成を示すブロック図である。It is a block diagram which shows the structure of the endoscope system which concerns on one Embodiment of this invention. 診断支援方法の処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure of the diagnosis support method.

以下、本発明の実施形態について添付図面を参照して説明する。なお、本発明は、下記の実施形態に限定されるものではない。 Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. The present invention is not limited to the following embodiments.

(システム構成)
図1は、本発明の一実施形態に係る内視鏡システム1の構成を示すブロック図である。内視鏡システム1は、内視鏡2と、制御装置3と、モニタ4とを備えている。
(System configuration)
FIG. 1 is a block diagram showing a configuration of an endoscope system 1 according to an embodiment of the present invention. The endoscope system 1 includes an endoscope 2, a control device 3, and a monitor 4.

内視鏡2は、光線力学的診断(PDD)による上部消化器の観察に用いられる消化器内視鏡であり、被検者が光物質を内服して所定時間(約3時間)経過後に、上部消化器に挿入される。なお、観察対象は上部消化器に限定されない。 The endoscope 2 is a gastrointestinal endoscope used for observing the upper gastrointestinal tract by photodynamic diagnosis (PDD). Inserted into the upper digestive tract. The observation target is not limited to the upper gastrointestinal tract.

内視鏡2は、内部に光ファイバF1、F2を備えている。内視鏡2の先端部には、蛍光体21、光偏向拡散部材22および撮像素子23が配置されており、内視鏡2の先端面には、2つの出射窓および1つの観察窓が設けられている。蛍光体21は出射窓の一方に面しており、光偏向拡散部材22は出射窓の他方に面しており、撮像素子23は観察窓に面している。 The endoscope 2 includes optical fibers F1 and F2 inside. A phosphor 21, a light deflection diffusing member 22, and an image pickup device 23 are arranged at the tip of the endoscope 2, and two exit windows and one observation window are provided on the tip surface of the endoscope 2. Has been done. The phosphor 21 faces one of the exit windows, the light deflection diffuser 22 faces the other of the exit windows, and the image sensor 23 faces the observation window.

後述するように、光ファイバF1の先端からは、青色光(中心発光波長445nm)が出射され、光ファイバF2の先端からは、PDDのための紫色励起光(中心発光波長410nm)が出射される。光ファイバF1からの青色光は、蛍光体21によって白色光に変換され、出射窓の一方から照射される。光ファイバF2からの紫色励起光は、光偏向拡散部材22を介して出射窓の他方から照射される。また、観察窓への入射光は、図示しないレンズにより撮像素子23の受光面に結像する。撮像素子23は、入射光を光電変換して、アナログの画像信号を生成する。 As will be described later, blue light (center emission wavelength 445 nm) is emitted from the tip of the optical fiber F1, and purple excitation light (center emission wavelength 410 nm) for PDD is emitted from the tip of the optical fiber F2. .. The blue light from the optical fiber F1 is converted into white light by the phosphor 21 and emitted from one of the exit windows. The purple excitation light from the optical fiber F2 is emitted from the other side of the exit window via the light deflection diffusion member 22. Further, the incident light to the observation window is imaged on the light receiving surface of the image pickup device 23 by a lens (not shown). The image sensor 23 photoelectrically converts the incident light to generate an analog image signal.

なお、内視鏡2の構造はこれに限定されない。例えば、後述するカプセル内視鏡のように、光ファイバを持たず、先端部に光源が装着された内視鏡であってもよい。 The structure of the endoscope 2 is not limited to this. For example, an endoscope that does not have an optical fiber and has a light source attached to the tip thereof, such as a capsule endoscope described later, may be used.

制御装置3は、内視鏡2に接続されており、主に、内視鏡2による光出射の制御、および撮像素子23からの画像信号の処理などを行う。制御装置3は、光源装置5と、プロセッサ6とを備えている。なお、制御装置3は、特許請求の範囲に記載の画像処理装置および教師データ生成装置に対応する。 The control device 3 is connected to the endoscope 2 and mainly controls light emission by the endoscope 2 and processes an image signal from the image sensor 23. The control device 3 includes a light source device 5 and a processor 6. The control device 3 corresponds to the image processing device and the teacher data generation device described in the claims.

光源装置5は、青色光を生成する光源51と、紫色励起光を生成する光源52と、光源51,52を駆動する光源駆動部53と、を備えている。本実施形態において、光源51,52はLED光源であるが、レーザ光源やキセノンランプ等の蛍光光源を用いることもできる。 The light source device 5 includes a light source 51 that generates blue light, a light source 52 that generates purple excitation light, and a light source driving unit 53 that drives the light sources 51 and 52. In the present embodiment, the light sources 51 and 52 are LED light sources, but a fluorescent light source such as a laser light source or a xenon lamp can also be used.

プロセッサ6は、タイミングコントローラ61と、AD変換部62と、白色光画像取得部(第1取得部)63と、蛍光画像取得部(第2取得部)64と、病変情報生成部65と、病変情報付加部66と、表示部67と、記憶部68と、を備えている。 The processor 6 includes a timing controller 61, an AD conversion unit 62, a white light image acquisition unit (first acquisition unit) 63, a fluorescence image acquisition unit (second acquisition unit) 64, a lesion information generation unit 65, and a lesion. It includes an information addition unit 66, a display unit 67, and a storage unit 68.

タイミングコントローラ61は、光源駆動部53が光源51,52を駆動するタイミングを制御するための信号を出力する。具体的には、タイミングコントローラ61は、光源51,52が所定の周期(例えば1/60ms)で交互に駆動するように、光源駆動部53を制御する。また、タイミングコントローラ61は、白色光画像取得部63および蛍光画像取得部64が後述する白色光画像および蛍光画像をそれぞれ取得するタイミングを制御するための信号を出力する。 The timing controller 61 outputs a signal for controlling the timing at which the light source driving unit 53 drives the light sources 51 and 52. Specifically, the timing controller 61 controls the light source driving unit 53 so that the light sources 51 and 52 are alternately driven at a predetermined cycle (for example, 1/60 ms). Further, the timing controller 61 outputs a signal for controlling the timing at which the white light image acquisition unit 63 and the fluorescence image acquisition unit 64 acquire the white light image and the fluorescence image, which will be described later, respectively.

AD変換部62は、撮像素子23からの画像信号をAD変換し、デジタルの画像信号を白色光画像取得部63および蛍光画像取得部64に出力する。 The AD conversion unit 62 AD-converts the image signal from the image sensor 23 and outputs the digital image signal to the white light image acquisition unit 63 and the fluorescence image acquisition unit 64.

白色光画像取得部63は、内視鏡2から観察対象に白色光が照射された時に撮像された白色光画像を取得する機能を有している。具体的には、タイミングコントローラ61は、光源51が駆動しているタイミングで、画像取得を許可する信号を白色光画像取得部63に出力する。これに応じて、白色光画像取得部63は、AD変換部62から出力された画像信号を取り込む。図2は、白色光画像の一例である。 The white light image acquisition unit 63 has a function of acquiring a white light image captured when the observation target is irradiated with white light from the endoscope 2. Specifically, the timing controller 61 outputs a signal permitting image acquisition to the white light image acquisition unit 63 at the timing when the light source 51 is being driven. In response to this, the white light image acquisition unit 63 captures the image signal output from the AD conversion unit 62. FIG. 2 is an example of a white light image.

蛍光画像取得部64は、内視鏡2から観察対象に光感受性物質を励起するための紫色励起光が照射された時に撮像された蛍光画像(PDD画像)を取得する機能を有している。具体的には、タイミングコントローラ61は、光源52が駆動しているタイミングで、画像取得を許可する信号を蛍光画像取得部64に出力する。これに応じて、蛍光画像取得部64は、AD変換部62から出力される画像信号を取り込む。図3は、図2に示す白色光画像と同じ観察対象の蛍光画像の一例である。 The fluorescence image acquisition unit 64 has a function of acquiring a fluorescence image (PDD image) captured when the observation target is irradiated with purple excitation light for exciting a photosensitive substance from the endoscope 2. Specifically, the timing controller 61 outputs a signal permitting image acquisition to the fluorescence image acquisition unit 64 at the timing when the light source 52 is being driven. In response to this, the fluorescence image acquisition unit 64 captures the image signal output from the AD conversion unit 62. FIG. 3 is an example of a fluorescence image to be observed, which is the same as the white light image shown in FIG.

病変情報生成部65は、蛍光画像に基づいて、観察対象における病変に関する病変情報を生成する機能を有している。観察対象に腫瘍細胞などの病変が存在する場合、光感受性物質が腫瘍細胞内に蓄積されるため、紫色励起光の照射時に病変部から蛍光(波長635nm)が発せられる。これにより、蛍光画像では、病変部と非病変部(本実施形態では、腫瘍の存在しない部位を意味する)のコントラストが大きくなる。病変情報生成部65は、蛍光が検出される部位を病変部として識別し、病変の位置を示す位置情報を病変情報として生成する。 The lesion information generation unit 65 has a function of generating lesion information regarding a lesion in an observation target based on a fluorescence image. When a lesion such as a tumor cell is present in the observation target, a photosensitive substance is accumulated in the tumor cell, so that fluorescence (wavelength 635 nm) is emitted from the lesion portion when irradiated with purple excitation light. As a result, in the fluorescent image, the contrast between the lesioned portion and the non-lesioned portion (in the present embodiment, which means the site where the tumor does not exist) becomes large. The lesion information generation unit 65 identifies a site where fluorescence is detected as a lesion area, and generates position information indicating the position of the lesion as lesion information.

なお、病変情報生成部65は、蛍光画像から病変情報を生成するために、蛍光画像および確定診断された病変情報を教師データとして機械学習を行うことにより生成されたアルゴリズムを用いてもよい。 In addition, the lesion information generation unit 65 may use an algorithm generated by performing machine learning using the fluorescence image and the definitely diagnosed lesion information as teacher data in order to generate the lesion information from the fluorescence image.

図4は、図3に示す蛍光画像に対して、病変部として識別された領域を囲う枠H1がマーキングされた画像である。枠H1で囲まれた領域の位置(座標)が、病変情報に対応する。なお、病変情報の生成は、蛍光画像の解析により自動で行ってもよいし、内視鏡システム1のユーザ(医師)が、マウスやタッチパネルなどの入力装置を操作することにより、手動で行ってもよい。 FIG. 4 is an image in which a frame H1 surrounding a region identified as a lesion is marked on the fluorescence image shown in FIG. The position (coordinates) of the area surrounded by the frame H1 corresponds to the lesion information. The lesion information may be generated automatically by analyzing the fluorescence image, or manually by the user (doctor) of the endoscope system 1 by operating an input device such as a mouse or a touch panel. May be good.

病変情報付加部66は、白色光画像に病変情報を付加(アノテーション)する機能を有している。本実施形態では、病変情報付加部66は、病変情報生成部65が蛍光画像に基づいて生成した病変情報(病変部の位置)を、当該蛍光画像と略同時に取得された白色光画像に付加し、白色光画像において対応する座標の領域を、他の領域と識別可能にマーキングする。 The lesion information addition unit 66 has a function of adding (annotating) lesion information to a white light image. In the present embodiment, the lesion information addition unit 66 adds the lesion information (position of the lesion portion) generated by the lesion information generation unit 65 based on the fluorescence image to the white light image acquired substantially at the same time as the fluorescence image. , The region of the corresponding coordinates in the white light image is marked so as to be distinguishable from other regions.

図5は、図2に示す白色光画像に対して、病変情報が付加された画像を示している。図5では、図4に示す枠H1で囲まれた領域と同一座標の領域に枠H2がオーバーレイ表示されている。 FIG. 5 shows an image in which lesion information is added to the white light image shown in FIG. In FIG. 5, the frame H2 is overlaid on the area having the same coordinates as the area surrounded by the frame H1 shown in FIG.

白色光画像に病変情報を付加する態様は特に限定されない。蛍光画像および白色光画像の他の例を、図6および図7に示す。図6(a)は、蛍光画像取得部64が取得した蛍光画像の一例であり、図6(b)は、図6(a)に示す蛍光画像に対して、病変部として識別された領域に枠H3がマーキングされた画像である。 The mode in which the lesion information is added to the white light image is not particularly limited. Other examples of fluorescent and white light images are shown in FIGS. 6 and 7. FIG. 6A is an example of a fluorescence image acquired by the fluorescence image acquisition unit 64, and FIG. 6B shows a region identified as a lesion in the fluorescence image shown in FIG. 6A. It is an image in which the frame H3 is marked.

病変情報生成部66は、蛍光画像において病変部として識別された領域の位置情報を病変情報として生成し、病変情報付加部66は、当該病変情報を白色光画像に付加する。図7は、病変情報が付加された白色光画像の一例を示しており、図6(b)においてマーキングされた領域に対応する領域を囲むフォーカス枠H4がオーバーレイ表示されている。 The lesion information generation unit 66 generates the position information of the region identified as the lesion portion in the fluorescence image as the lesion information, and the lesion information addition unit 66 adds the lesion information to the white light image. FIG. 7 shows an example of a white light image to which lesion information is added, and a focus frame H4 surrounding a region corresponding to the marked region in FIG. 6B is overlaid.

表示部67は、病変情報が付加された白色光画像をモニタ4に表示する機能を有している。これにより、モニタ4には、図5および図7に示すような、病変部が識別可能に示された白色光画像が表示されるため、ユーザは、病変部と非病変部を同時に認識することができる。よって、単に白色光画像と蛍光画像を並列表示する従来技術に比べ、白色光画像による観察が容易になり、診察に要する時間を短縮することが可能となる。 The display unit 67 has a function of displaying a white light image to which lesion information is added on the monitor 4. As a result, the monitor 4 displays a white light image in which the lesion portion is identifiable as shown in FIGS. 5 and 7, so that the user can recognize the lesion portion and the non-lesion portion at the same time. Can be done. Therefore, as compared with the conventional technique of simply displaying the white light image and the fluorescence image in parallel, the observation by the white light image becomes easier and the time required for the examination can be shortened.

なお、表示部67は、図8に示すように、病変情報が付加された白色光画像とともに蛍光画像もモニタ4に表示してもよい。 As shown in FIG. 8, the display unit 67 may display a fluorescence image on the monitor 4 together with the white light image to which the lesion information is added.

記憶部68は、プロセッサ6による演算処理に用いられる各種プログラムや、演算処理によって生成された各種データを保存するものであり、例えば、フラッシュメモリ、HDD、SSDなどで構成される。 The storage unit 68 stores various programs used for arithmetic processing by the processor 6 and various data generated by the arithmetic processing, and is composed of, for example, a flash memory, an HDD, an SSD, and the like.

なお、後述する教師データ生成モードでは、病変情報付加部66は、病変情報が付加された白色光画像を、機械学習のための教師データD1として記憶部68に保存する。この場合、病変情報付加部66は、特許請求の範囲に記載の教師データ生成部に対応する。保存処理は、ユーザによる操作に応じて行ってもよいし、所定の周期で行ってもよい。 In the teacher data generation mode described later, the lesion information addition unit 66 stores the white light image to which the lesion information is added in the storage unit 68 as teacher data D1 for machine learning. In this case, the lesion information addition unit 66 corresponds to the teacher data generation unit described in the claims. The storage process may be performed according to an operation by the user, or may be performed at a predetermined cycle.

(診察モード)
図1に示す内視鏡システム1は、被検者の診察のための診察モード、および、教師データ生成のための教師データ生成モードの2つのモードで動作することができる。図9は、診察モードにおける内視鏡システム1によって実施される画像処理方法の処理手順を示すフローチャートである。この場合、制御装置3は、特許請求の範囲に記載の画像処理装置として機能する。
(Medical examination mode)
The endoscope system 1 shown in FIG. 1 can operate in two modes, a medical examination mode for examining a subject and a teacher data generation mode for generating teacher data. FIG. 9 is a flowchart showing a processing procedure of an image processing method implemented by the endoscope system 1 in the examination mode. In this case, the control device 3 functions as the image processing device described in the claims.

ステップS1では、被検者に光感受性物質(例えば、5−ALA)を内服してもらい、所定時間経過後に、内視鏡2を上部消化管に挿入する。なお、光感受性物質の種類は特に限定されず、5−ALAの他、L−グルコサミン、フォトフリン、レザフィリンなどが挙げられる。 In step S1, the subject is asked to take a photosensitizer (for example, 5-ALA), and after a lapse of a predetermined time, the endoscope 2 is inserted into the upper gastrointestinal tract. The type of the photosensitive substance is not particularly limited, and examples thereof include L-glucosamine, photofurin, and rezaphyrin in addition to 5-ALA.

その後、内視鏡2からは、白色光と紫色励起光とが交互に出射される。ステップS2(第1取得ステップ)では、観察対象に白色光が照射された時に、白色光画像取得部63が白色光画像を取得する。続いて、内視鏡2からの照射光が紫色励起光に切り替わると、ステップS3(第2取得ステップ)において、蛍光画像取得部64が蛍光画像を取得する。 After that, white light and purple excitation light are alternately emitted from the endoscope 2. In step S2 (first acquisition step), when the observation target is irradiated with white light, the white light image acquisition unit 63 acquires a white light image. Subsequently, when the irradiation light from the endoscope 2 is switched to the purple excitation light, the fluorescence image acquisition unit 64 acquires a fluorescence image in step S3 (second acquisition step).

なお、ステップS3を実行した後に、ステップS2を実行してもよい。 After executing step S3, step S2 may be executed.

続いて、ステップS4(病変情報生成ステップ)では、病変情報生成部65が、蛍光画像に基づいて、観察対象における病変に関する病変情報を生成する。 Subsequently, in step S4 (lesion information generation step), the lesion information generation unit 65 generates lesion information regarding the lesion in the observation target based on the fluorescence image.

続いて、ステップS5(病変情報付加ステップ)では、病変情報付加部66が、白色光画像に病変情報を付加する。 Subsequently, in step S5 (lesion information addition step), the lesion information addition unit 66 adds lesion information to the white light image.

続いて、ステップS6(表示ステップ)では、表示部67が、病変情報が付加された白色光画像をモニタ4に表示する。 Subsequently, in step S6 (display step), the display unit 67 displays a white light image to which the lesion information is added on the monitor 4.

ステップS3〜S6は、白色光および紫色励起光が照射される毎に、診察が終了するまで(ステップS7においてYES)、繰り返し実行される。例えば、白色光と紫色励起光とが切り替わる周期が1/60msである場合、ステップS3〜S6は、1/30msの周期で実行される。これにより、病変情報が付加された白色光画像は動画としてモニタ4に表示される。 Steps S3 to S6 are repeatedly executed each time the white light and the purple excitation light are irradiated until the examination is completed (YES in step S7). For example, when the cycle of switching between the white light and the purple excitation light is 1/60 ms, steps S3 to S6 are executed in a cycle of 1/30 ms. As a result, the white light image to which the lesion information is added is displayed on the monitor 4 as a moving image.

なお、病変情報は、病変の位置を示す位置情報に限定されず、例えば、病変の有無のみを示す情報であってもよい。その場合、ステップS6では、病変が存在する白色光画像を表示する際に、病変が有る旨のアラームを白色光画像に表示したり、病変が有る旨の警告を音声で知らせてもよい。 The lesion information is not limited to the position information indicating the position of the lesion, and may be, for example, information indicating only the presence or absence of the lesion. In that case, in step S6, when displaying the white light image in which the lesion is present, an alarm indicating the presence of the lesion may be displayed on the white light image, or a warning indicating the presence of the lesion may be notified by voice.

(教師データ生成モード)
図10は、教師データ生成モードにおける内視鏡システム1によって実施される教師データ生成方法の処理手順を示すフローチャートである。この場合、制御装置3は、特許請求の範囲に記載の教師データ生成装置として機能する。
(Teacher data generation mode)
FIG. 10 is a flowchart showing a processing procedure of the teacher data generation method implemented by the endoscope system 1 in the teacher data generation mode. In this case, the control device 3 functions as the teacher data generation device described in the claims.

図10に示すステップS1〜S6は、図9に示すステップS1〜S6と同一である。ユーザは、病変情報が付加された白色光画像を見ながら、任意のタイミング(例えば、異なる観察部位に移動したタイミング)で白色光画像の保存指示を行うことができる。 Steps S1 to S6 shown in FIG. 10 are the same as steps S1 to S6 shown in FIG. The user can give an instruction to save the white light image at an arbitrary timing (for example, the timing of moving to a different observation site) while viewing the white light image to which the lesion information is added.

白色光画像の保存指示がなされると(ステップS8でYES)、ステップS9において、病変情報付加部66は、病変情報が付加された白色光画像を、機械学習のための教師データD1として記憶部68に保存する。 When the instruction to save the white light image is given (YES in step S8), in step S9, the lesion information addition unit 66 stores the white light image to which the lesion information is added as teacher data D1 for machine learning. Store at 68.

ステップS2〜S9は、一人の被検者の診察が終了するまで(ステップS10においてYES)、繰り返される。これにより、記憶部68には、教師データD1のセット(学習用データセット)が蓄積される。なお、本実施形態では、教師データD1を保存する記憶部68は、制御装置3に内蔵されているが、これに限定されず、外付けのストレージであってもよいし、クラウド上のストレージであってもよい。 Steps S2 to S9 are repeated until the examination of one subject is completed (YES in step S10). As a result, a set of teacher data D1 (learning data set) is accumulated in the storage unit 68. In the present embodiment, the storage unit 68 for storing the teacher data D1 is built in the control device 3, but the storage unit 68 is not limited to this, and may be an external storage or a storage on the cloud. There may be.

診察終了時点で、蓄積された教師データD1のデータ量が十分でない場合(ステップS11においてNO)、再度、他の被検者に対してステップS1〜S10を実行する。ステップS1〜S10は、教師データD1が十分に蓄積されるまで(ステップS11においてYES)繰り返される。なお、教師データ作成モードでは、被検者の診察を兼ねていたが、必ずしも臨床現場で実施する必要はない。 If the amount of accumulated teacher data D1 is not sufficient at the end of the examination (NO in step S11), steps S1 to S10 are executed again for other subjects. Steps S1 to S10 are repeated until the teacher data D1 is sufficiently accumulated (YES in step S11). In the teacher data creation mode, the examination of the subject was also performed, but it is not always necessary to carry out the examination in the clinical setting.

以上のように、教師データ作成モードでは、病変情報生成部65が蛍光画像に基づいて病変情報を生成し(ステップS4)、病変情報付加部66が白色光画像に病変情報を付加することにより、教師データD1を作成している。後述するように、教師データD1を用いて機械学習を行うことにより、未知の白色光画像から病変の有無を予測するための学習済みモデルを生成することができる。 As described above, in the teacher data creation mode, the lesion information generation unit 65 generates lesion information based on the fluorescent image (step S4), and the lesion information addition unit 66 adds the lesion information to the white light image. Teacher data D1 is created. As will be described later, by performing machine learning using the teacher data D1, it is possible to generate a trained model for predicting the presence or absence of a lesion from an unknown white light image.

従来では、本実施形態と同様の教師データを作成するために、人間が確定診断結果に基づいて白色光画像における病変部を特定し、特定した病変部にマーキングを行っていた。この作業を白色光画像の各々に対して行う必要があるため、教師データ生成作業の負担が大きく、機械学習に必要な教師データを蓄積するために多大な時間を要していた。 Conventionally, in order to create teacher data similar to that of the present embodiment, a human has identified a lesion in a white light image based on a definitive diagnosis result and marked the identified lesion. Since it is necessary to perform this work for each of the white light images, the burden of the teacher data generation work is heavy, and it takes a lot of time to accumulate the teacher data necessary for machine learning.

これに対し、本実施形態では、白色光画像における病変部を蛍光画像から生成された病変情報を用いて特定しているため、教師データの生成が自動化できる。よって、短時間で大量の教師データを蓄積することができ、後述する学習済みモデルおよび診断支援プログラムを作成する難易度を下げることができる。 On the other hand, in the present embodiment, since the lesion portion in the white light image is specified by using the lesion information generated from the fluorescence image, the generation of teacher data can be automated. Therefore, a large amount of teacher data can be accumulated in a short time, and the difficulty of creating a learned model and a diagnostic support program, which will be described later, can be reduced.

PDDによる病変部の検出精度は非常に高く、鳥取大学医学部機能病態内科における臨床事例では、蛍光画像に基づいて陽性と診断された26の病変部のうち、23が悪性腫瘍であり、3が良性腫瘍であった。そのため、教師データD1は、確定診断に基づいて生成された従来の教師データに近い品質を有している。よって、後述するAIによる診断支援における感度特異度を高めることができる。 The detection accuracy of lesions by PDD is extremely high, and in clinical cases in the Department of Functional Pathology, Tottori University School of Medicine, of the 26 lesions diagnosed as positive based on fluorescent images, 23 are malignant tumors and 3 are benign. It was a tumor. Therefore, the teacher data D1 has a quality close to that of the conventional teacher data generated based on the definitive diagnosis. Therefore, it is possible to increase the sensitivity specificity in the diagnostic support by AI, which will be described later.

また、図1に示すプロセッサ6の少なくとも白色光画像取得部63、蛍光画像取得部64、病変情報生成部65、病変情報付加部66および表示部67は、集積回路などによってハードウェア的に実現してもよいが、プロセッサ6の図示しないCPUまたはGPUが、記憶部68に格納されている画像処理プログラムまたは教師データ生成プログラムを図示しない主記憶装置(メモリ)に読み出して実行することによりソフトウェア的に実現することもできる。 Further, at least the white light image acquisition unit 63, the fluorescence image acquisition unit 64, the lesion information generation unit 65, the lesion information addition unit 66, and the display unit 67 of the processor 6 shown in FIG. 1 are realized by hardware by an integrated circuit or the like. However, a CPU or GPU (not shown) of the processor 6 reads an image processing program or a teacher data generation program stored in the storage unit 68 into a main storage device (memory) (not shown) and executes the program in terms of hardware. It can also be realized.

この場合、上記プログラムは、通信ネットワークを介して制御装置3にダウンロードしてもよいし、上記プログラムのプログラムコードを記録したSDカードやCD−ROM等のコンピュータ読み取り可能な非一時的な記録媒体を介して、上記プログラムを制御装置3に供給してもよい。 In this case, the program may be downloaded to the control device 3 via a communication network, or a computer-readable non-temporary recording medium such as an SD card or CD-ROM on which the program code of the program is recorded may be downloaded. The above program may be supplied to the control device 3 via the control device 3.

(学習済みモデルの生成)
続いて、教師データD1を用いた機械学習について説明する。
(Generation of trained model)
Subsequently, machine learning using the teacher data D1 will be described.

図11は、本実施形態に係る学習済みモデル生成装置7の構成を示すブロック図である。学習済みモデル生成装置7は、例えば汎用のコンピュータで構成することができ、記憶部71と、学習部72とを備えている。 FIG. 11 is a block diagram showing a configuration of the trained model generation device 7 according to the present embodiment. The trained model generator 7 can be configured by, for example, a general-purpose computer, and includes a storage unit 71 and a learning unit 72.

記憶部71は、学習済みモデル生成装置7による演算処理に用いられる各種プログラムや、演算処理によって生成された各種データを保存するものであり、例えば、HDD、SSDなどで構成される。記憶部71には、上述のプロセッサ6によって生成された(すなわち、本実施形態に係る教師データ生成方法によって生成された)教師データD1が格納されている。 The storage unit 71 stores various programs used for arithmetic processing by the trained model generation device 7, and various data generated by the arithmetic processing, and is composed of, for example, an HDD and an SSD. The storage unit 71 stores the teacher data D1 generated by the processor 6 described above (that is, generated by the teacher data generation method according to the present embodiment).

学習部72は、学習済みモデル生成装置7のGPUまたはCPUが所定の学習プログラムを実行することにより実現される機能ブロックであり、教師データD1を用いて機械学習を行う。これにより、学習部72は、未知の観察対象の白色光画像を入力とし、前記未知の観察対象における病変に関する病変情報を出力とする学習済みモデルD2を生成する。学習法は特に限定されないが、例えば、ディープラーニング、サポートベクターマシン、ランダムフォレストなどを用いることができる。 The learning unit 72 is a functional block realized by the GPU or CPU of the learned model generation device 7 executing a predetermined learning program, and performs machine learning using the teacher data D1. As a result, the learning unit 72 generates a trained model D2 that inputs a white light image of an unknown observation target and outputs lesion information related to a lesion in the unknown observation target. The learning method is not particularly limited, but for example, deep learning, a support vector machine, a random forest, or the like can be used.

図12は、学習済みモデル生成装置7によって実施される学習済みモデル生成方法の処理手順を示すフローチャートである。 FIG. 12 is a flowchart showing a processing procedure of the trained model generation method implemented by the trained model generation device 7.

ステップS20では、上述のプロセッサ6において生成された教師データD1を学習済みモデル生成装置7に転送して、記憶部71に格納する。 In step S20, the teacher data D1 generated by the processor 6 is transferred to the trained model generation device 7 and stored in the storage unit 71.

ステップS21では、学習部72がニューラルネットワークなどの学習モデルに教師データD1を入力することにより、機械学習を実行する。機械学習が完了すると、学習済みモデルD2が作成される(ステップS22)。作成された学習済みモデルD2は、記憶部71に保存される(ステップS23)。 In step S21, the learning unit 72 executes machine learning by inputting the teacher data D1 into a learning model such as a neural network. When the machine learning is completed, the trained model D2 is created (step S22). The created trained model D2 is stored in the storage unit 71 (step S23).

(AIによる診断支援)
続いて、学習済みモデルD2を用いた診断支援について説明する。
(Diagnosis support by AI)
Next, diagnostic support using the trained model D2 will be described.

図13は、本実施形態に係る内視鏡システム11の構成を示すブロック図である。内視鏡システム11は、内視鏡12と、制御装置13と、モニタ14とを備えている。 FIG. 13 is a block diagram showing the configuration of the endoscope system 11 according to the present embodiment. The endoscope system 11 includes an endoscope 12, a control device 13, and a monitor 14.

内視鏡12は、白色光画像による上部消化管の観察に用いられるものである。すなわち、図1に示す内視鏡2とは異なり、内視鏡12は蛍光画像の撮像機能を有していない。なお、観察対象は上部消化管に限定されない。 The endoscope 12 is used for observing the upper gastrointestinal tract with a white light image. That is, unlike the endoscope 2 shown in FIG. 1, the endoscope 12 does not have a function of capturing a fluorescent image. The observation target is not limited to the upper gastrointestinal tract.

内視鏡12は、内部に光ファイバF3を備えている。内視鏡12の先端部には、蛍光体121および撮像素子122が配置されており、内視鏡2の先端面には、出射窓および観察窓が1つずつ設けられている。蛍光体121は出射窓に面しており、撮像素子122は観察窓に面している。 The endoscope 12 includes an optical fiber F3 inside. A phosphor 121 and an image pickup device 122 are arranged at the tip of the endoscope 12, and an exit window and an observation window are provided on the tip surface of the endoscope 2. The phosphor 121 faces the exit window, and the image sensor 122 faces the observation window.

光ファイバF3の先端からは、青色光(中心発光波長445nm)が出射される。光ファイバF3からの青色光は、蛍光体121によって白色光に変換され、出射窓から照射される。観察窓への入射光は、図示しないレンズにより撮像素子122の受光面に結像する。撮像素子122は、入射光を光電変換して、アナログの画像信号を生成する。 Blue light (center emission wavelength 445 nm) is emitted from the tip of the optical fiber F3. The blue light from the optical fiber F3 is converted into white light by the phosphor 121 and emitted from the exit window. The incident light on the observation window is imaged on the light receiving surface of the image sensor 122 by a lens (not shown). The image sensor 122 photoelectrically converts the incident light to generate an analog image signal.

制御装置13は、内視鏡12に接続されており、主に、内視鏡12による光出射の制御、および撮像素子122からの画像信号の処理などを行う。制御装置13は、光源装置15と、プロセッサ16とを備えている。なお、制御装置13は、特許請求の範囲に記載の診断支援装置に対応する。 The control device 13 is connected to the endoscope 12, and mainly controls the light emission by the endoscope 12 and processes the image signal from the image sensor 122. The control device 13 includes a light source device 15 and a processor 16. The control device 13 corresponds to the diagnostic support device described in the claims.

光源装置15は、青色光を生成する光源151と、光源151を駆動する光源駆動部152と、を備えている。光源151は、図1に示す光源51と同様のものを用いることができる。 The light source device 15 includes a light source 151 that generates blue light and a light source driving unit 152 that drives the light source 151. As the light source 151, the same light source as the light source 51 shown in FIG. 1 can be used.

プロセッサ16は、タイミングコントローラ161と、AD変換部162と、白色光画像取得部(第3取得部)163と、記憶部164と、病変情報取得部165と、表示部166と、を備えている。 The processor 16 includes a timing controller 161, an AD conversion unit 162, a white light image acquisition unit (third acquisition unit) 163, a storage unit 164, a lesion information acquisition unit 165, and a display unit 166. ..

タイミングコントローラ161は、光源駆動部152が光源151を駆動するタイミングを制御するための信号を出力するとともに、白色光画像取得部163が白色光画像を取得するタイミングを制御するための信号を出力する。 The timing controller 161 outputs a signal for controlling the timing at which the light source driving unit 152 drives the light source 151, and outputs a signal for controlling the timing at which the white light image acquisition unit 163 acquires the white light image. ..

AD変換部162は、撮像素子122からの画像信号をAD変換し、デジタルの画像信号を白色光画像取得部163に出力する。 The AD conversion unit 162 AD-converts the image signal from the image sensor 122 and outputs the digital image signal to the white light image acquisition unit 163.

白色光画像取得部163は、内視鏡12から観察対象に白色光が照射された時に撮像された白色光画像を取得する機能を有している。具体的には、タイミングコントローラ61は、光源151が駆動している間、画像取得を許可する信号を白色光画像取得部163に出力する。これに応じて、白色光画像取得部163は、AD変換部162から出力された画像信号を取り込む。なお、白色光画像取得部163は、光源151が駆動しているか否かに関わらず、常時、白色光画像を取得する構成としてもよい。 The white light image acquisition unit 163 has a function of acquiring a white light image captured when the observation target is irradiated with white light from the endoscope 12. Specifically, the timing controller 61 outputs a signal permitting image acquisition to the white light image acquisition unit 163 while the light source 151 is being driven. In response to this, the white light image acquisition unit 163 captures the image signal output from the AD conversion unit 162. The white light image acquisition unit 163 may be configured to constantly acquire a white light image regardless of whether or not the light source 151 is driven.

記憶部164は、プロセッサ16による演算処理に用いられる各種プログラムや、演算処理によって生成された各種データを保存するものであり、例えば、フラッシュメモリ、HDD、SSDなどで構成される。記憶部164には、上述の学習済みモデル生成装置7によって生成された(すなわち、本実施形態に係る学習済みモデル生成方法によって生成された)学習済みモデルD2があらかじめ格納されている。 The storage unit 164 stores various programs used for arithmetic processing by the processor 16 and various data generated by the arithmetic processing, and is composed of, for example, a flash memory, an HDD, an SSD, and the like. The storage unit 164 stores in advance the trained model D2 generated by the trained model generation device 7 described above (that is, generated by the trained model generation method according to the present embodiment).

病変情報取得部165は、学習済みモデルD2を図示しない主記憶装置(メモリ)に読み出して、学習済みモデルD2に白色光画像取得部163によって取得された白色光画像を入力し、被検者の観察対象における病変に関する病変情報を学習済みモデルD2から取得する。本実施形態では、病変情報は、白色光画像における病変部の位置情報であるが、これに限定されず、例えば、病変の有無のみを示す情報であってもよい。 The lesion information acquisition unit 165 reads the learned model D2 into a main storage device (memory) (not shown), inputs the white light image acquired by the white light image acquisition unit 163 into the learned model D2, and inputs the learned model D2 to the subject. The lesion information regarding the lesion in the observation target is acquired from the trained model D2. In the present embodiment, the lesion information is the position information of the lesion portion in the white light image, but is not limited to this, and may be, for example, information indicating only the presence or absence of the lesion.

さらに本実施形態では、病変情報取得部165は、取得した病変情報を白色光画像に付加して、病変情報が付加された白色光画像(例えば、病変部に枠が重畳された白色光画像)を生成する。表示部166は、病変情報が付加された白色光画像をモニタ14に表示する。これにより、ユーザに病変の疑われる部位が示される。 Further, in the present embodiment, the lesion information acquisition unit 165 adds the acquired lesion information to the white light image, and the white light image to which the lesion information is added (for example, a white light image in which a frame is superimposed on the lesion portion). To generate. The display unit 166 displays a white light image to which the lesion information is added on the monitor 14. This shows the user where the lesion is suspected.

このように、内視鏡システム11では、内視鏡12は蛍光画像を撮像する機能を有していないが、病変情報取得部165が、白色光画像を学習済みモデルD2に入力することによって、病変情報を取得している。すなわち、病変情報取得部165は、PDDによって得られる病変情報と同等の情報を白色光画像から得ることができる。したがって、ユーザは、白色光画像のみによって、PDDと同等の精度で病変を検知することができる。 As described above, in the endoscope system 11, the endoscope 12 does not have a function of capturing a fluorescent image, but the lesion information acquisition unit 165 inputs a white light image into the trained model D2. We are acquiring lesion information. That is, the lesion information acquisition unit 165 can obtain information equivalent to the lesion information obtained by PDD from the white light image. Therefore, the user can detect the lesion with the same accuracy as PDD only by the white light image.

図14は、内視鏡システム11によって実施される診断支援方法の処理手順を示すフローチャートである。 FIG. 14 is a flowchart showing a processing procedure of the diagnostic support method implemented by the endoscope system 11.

ステップS30では、内視鏡12を被検者の上部消化管に挿入する。なお、内視鏡12の挿入前に光感受性物質の内服は行わない。 In step S30, the endoscope 12 is inserted into the upper gastrointestinal tract of the subject. The photosensitizer is not taken orally before the insertion of the endoscope 12.

ステップS31(第3取得ステップ)では、白色光画像取得部163が、内視鏡12から観察対象に白色光が照射された時に撮像された白色光画像を取得する。 In step S31 (third acquisition step), the white light image acquisition unit 163 acquires a white light image captured when the observation target is irradiated with white light from the endoscope 12.

ステップS32(病変情報取得ステップ)では、病変情報取得部165が、学習済みモデルD2にステップS30で取得された白色光画像を入力して、被検者の観察対象における病変に関する病変情報を取得する。さらに、病変情報取得部165は、取得した病変情報を白色光画像に付加して、病変情報が付加された白色光画像を生成する(ステップS33)。 In step S32 (lesion information acquisition step), the lesion information acquisition unit 165 inputs the white light image acquired in step S30 into the learned model D2 to acquire lesion information related to the lesion in the observation target of the subject. .. Further, the lesion information acquisition unit 165 adds the acquired lesion information to the white light image to generate a white light image to which the lesion information is added (step S33).

ステップS34では、表示部166が、病変情報が付加された白色光画像をモニタ14に表示する。 In step S34, the display unit 166 displays a white light image to which the lesion information is added on the monitor 14.

なお、病変情報が病変の有無のみを示す情報である場合、ステップS33およびS34の代わりに、例えば警告表示や音声によって、ユーザに病変が存在する可能性があることを警告するようにしてもよい。 When the lesion information is information indicating only the presence or absence of a lesion, the user may be warned that the lesion may exist by, for example, a warning display or voice instead of steps S33 and S34. ..

なお、図13に示すプロセッサ16の少なくとも白色光画像取得部163、病変情報取得部165および表示部166は、集積回路などによってハードウェア的に実現してもよいが、プロセッサ16の図示しないCPUまたはGPUが、記憶部164に格納されている診断支援プログラムを図示しない主記憶装置(メモリ)に読み出して実行することによりソフトウェア的に実現することもできる。 At least the white light image acquisition unit 163, the lesion information acquisition unit 165, and the display unit 166 of the processor 16 shown in FIG. 13 may be realized by hardware by an integrated circuit or the like, but a CPU (not shown) of the processor 16 or It can also be realized by the GPU by reading the diagnostic support program stored in the storage unit 164 into a main storage device (memory) (not shown) and executing it.

この場合、上記プログラムは、通信ネットワークを介して制御装置13にダウンロードしてもよいし、上記プログラムのプログラムコードを記録したSDカードやCD−ROM等のコンピュータ読み取り可能な非一時的な記録媒体を介して、上記プログラムを制御装置13に供給してもよい。 In this case, the program may be downloaded to the control device 13 via a communication network, or a computer-readable non-temporary recording medium such as an SD card or CD-ROM on which the program code of the program is recorded may be downloaded. The program may be supplied to the control device 13 via the control device 13.

(付記事項)
以上、本発明の実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、その趣旨を逸脱しない限りにおいて、種々の変更が可能である。
(Additional notes)
Although the embodiments of the present invention have been described above, the present invention is not limited to the above embodiments, and various modifications can be made without departing from the spirit of the present invention.

例えば、上記実施形態では、内視鏡2は軟性内視鏡の一種である消化器内視鏡であったが、本発明ではこれに限定されない。本発明に適用可能な内視鏡の例を、表1に示す。 For example, in the above embodiment, the endoscope 2 is a gastrointestinal endoscope which is a kind of flexible endoscope, but the present invention is not limited to this. Table 1 shows examples of endoscopes applicable to the present invention.

Figure 2021065293
Figure 2021065293

なお、内視鏡には、NOTES(natural orifice transluminal endoscopic surgery)に用いられるものも含まれる。NOTESとは、軟性内視鏡を口や肛門、膣などの自然孔から挿入し、胃壁などの管腔壁を経て腹腔内に到達させ、診断や処置を行う手技である。 The endoscope includes those used for NOTES (natural orifice transluminal endoscopic surgery). NOTES is a procedure in which a flexible endoscope is inserted through a natural hole such as the mouth, anus, or vagina, and reaches the abdominal cavity through a luminal wall such as the stomach wall for diagnosis and treatment.

また、上記実施形態では、病変情報の生成のために用いられる医用情報が蛍光画像(PDD画像)であり、生成された病変情報が付加される医用画像が白色光画像であったが、医用画像および医用情報の組み合わせはこれに限定されない。例えば、病変情報が付加される医用画像は、画像強調内視鏡画像などの他の内視鏡画像であってもよい。本発明において適用可能な医用画像および医用情報の組み合わせの例を表2に示す。 Further, in the above embodiment, the medical information used for generating the lesion information is a fluorescent image (PDD image), and the medical image to which the generated lesion information is added is a white light image. And the combination of medical information is not limited to this. For example, the medical image to which the lesion information is added may be another endoscopic image such as an image-enhanced endoscopic image. Table 2 shows an example of a combination of medical images and medical information applicable in the present invention.

Figure 2021065293
Figure 2021065293

画像強調内視鏡画像には、NBI(Narrow Band Imaging)、BLI(Blue LASER Imaging)、LCI(Linked Color Imaging)、AFI(Autofluorescence Imaging)などがある。例えば、医用画像および医用情報として、白色光画像およびNBI、蛍光画像およびNBI、といった組み合わせが考えられる。 Image-enhanced endoscopic images include NBI (Narrow Band Imaging), BLI (Blue LASER Imaging), LCI (Linked Color Imaging), AFI (Autofluorescence Imaging) and the like. For example, as the medical image and medical information, a combination of a white light image and NBI, a fluorescence image and NBI can be considered.

また、色素内視鏡画像は、内視鏡検査中に各種の色素剤の散布を行い、その反応を観察する色素内視鏡検査法で得られる画像であり、病変の認識・病変範囲の確定・深達度の評価に有用である。色素内視鏡検査法の手法、色素および原理の例を表3に示す。 In addition, the dye endoscopy image is an image obtained by the dye endoscopy method in which various pigment agents are sprayed during endoscopy and the reaction is observed, and the recognition of the lesion and the determination of the lesion range are determined. -Useful for evaluating depth of invasion. Table 3 shows examples of dye endoscopy methods, dyes, and principles.

Figure 2021065293
Figure 2021065293

また、上記実施形態では、医用画像に付加するための病変情報を生成するための医用情報は、単一の情報であったが、複数の情報であってもよい。すなわち、複数の情報に基づいて病変情報を生成し、生成した病変情報を医用画像に付加してもよい。例えば、医用情報として蛍光画像およびNBIを用い、これらから生成された病変情報を白色光画像に付加してもよい。この場合、蛍光画像で陽性かつNBIで暗色である部位と、蛍光画像で陽性かつNBIで明色である部位とでは、病理組織が異なる可能性がある。このように、複数の医用情報を用いることにより、より詳細な病変情報を得ることができ、教師データの質を高めることができる。 Further, in the above embodiment, the medical information for generating the lesion information to be added to the medical image is a single piece of information, but may be a plurality of pieces of information. That is, lesion information may be generated based on a plurality of pieces of information, and the generated lesion information may be added to the medical image. For example, a fluorescence image and NBI may be used as medical information, and lesion information generated from these may be added to the white light image. In this case, the pathological tissue may be different between the site that is positive in the fluorescence image and dark in NBI and the site that is positive in the fluorescence image and is light in NBI. In this way, by using a plurality of medical information, more detailed lesion information can be obtained, and the quality of teacher data can be improved.

また、上記のように複数の医用情報を用いて同時に取得した複雑な教師データは、病変部位と非病変部位の境界領域を示すのみならず、将来的に病変となりうる部位を特定するための学習モデルを作成するために用いることができる。また、このようにして作成された学習モデルは、ある領域が特定の将来の時点において病変部位となる可能性の近似値を予測として出力することも可能である。さらに、本発明の内視鏡システムによって得られた病変情報は、治療の際の補助情報として利用できる。例えば、病変部の境界情報は、自動的治療装置(自動内視鏡等)に治療対象の位置を指定するための情報として利用できる。 In addition, the complex teacher data acquired at the same time using a plurality of medical information as described above not only indicates the boundary region between the lesion site and the non-lesion site, but also learns to identify the site that may become a lesion in the future. It can be used to create a model. In addition, the learning model created in this way can output an approximate value as a prediction of the possibility that a certain region becomes a lesion site at a specific future time point. Furthermore, the lesion information obtained by the endoscopic system of the present invention can be used as auxiliary information during treatment. For example, the boundary information of the lesion can be used as information for designating the position of the treatment target in an automatic treatment device (automatic endoscope or the like).

本発明は、消化器内科だけでなく、外科、脳外科、泌尿器科、耳鼻咽喉科、呼吸器内科などのあらゆる診療科における医用画像を用いた診断に適用できる。 The present invention can be applied to diagnosis using medical images not only in gastroenterology but also in all clinical departments such as surgery, neurosurgery, urology, otolaryngology, and respiratory medicine.

1 内視鏡システム
2 内視鏡
3 制御装置
4 モニタ
5 光源装置
6 プロセッサ
7 学習済みモデル生成装置
11 内視鏡システム
12 内視鏡
13 制御装置
14 モニタ
15 光源装置
16 プロセッサ
21 蛍光体
22 光偏向拡散部材
23 撮像素子
51 光源
52 光源
53 光源駆動部
61 タイミングコントローラ
62 AD変換部
63 白色光画像取得部
64 蛍光画像取得部
65 病変情報生成部
66 病変情報付加部
67 表示部
68 記憶部
71 記憶部
72 学習部
121 蛍光体
122 撮像素子
151 光源
152 光源駆動部
161 タイミングコントローラ
162 AD変換部
163 白色光画像取得部
164 記憶部
165 病変情報取得部
166 表示部
D1 教師データ
D2 学習済みモデル
F1 光ファイバ
F2 光ファイバ
F3 光ファイバ
1 Endoscope system 2 Endoscope 3 Control device 4 Monitor 5 Light source device 6 Processor 7 Learned model generator 11 Endoscope system 12 Endoscope 13 Control device 14 Monitor 15 Light source device 16 Processor 21 Phosphor 22 Light deflection Diffusing member 23 Image pickup element 51 Light source 52 Light source 53 Light source drive unit 61 Timing controller 62 AD conversion unit 63 White light image acquisition unit 64 Fluorescent image acquisition unit 65 Disease information generation unit 66 Disease information addition unit 67 Display unit 68 Storage unit 71 Storage unit 72 Learning unit 121 Phosphorus 122 Imaging element 151 Light source 152 Light source driving unit 161 Timing controller 162 AD conversion unit 163 White light image acquisition unit 164 Storage unit 165 Disease information acquisition unit 166 Display unit D1 Teacher data D2 Learned model F1 Optical fiber F2 Optical fiber F3 Optical fiber

Claims (17)

生体の観察対象の医用画像を取得する第1取得ステップと、
前記観察対象の前記医用画像以外の医用情報を取得する第2取得ステップと、
前記医用情報に基づいて、前記観察対象における病変に関する病変情報を生成する病変情報生成ステップと、
前記医用画像に前記病変情報を付加する病変情報付加ステップと、
前記病変情報が付加された前記医用画像をモニタに表示する表示ステップと、
を備えた画像処理方法。
The first acquisition step of acquiring a medical image of a living body to be observed, and
The second acquisition step of acquiring medical information other than the medical image of the observation target, and
A lesion information generation step that generates lesion information related to a lesion in the observation target based on the medical information, and a lesion information generation step.
A lesion information addition step for adding the lesion information to the medical image,
A display step of displaying the medical image to which the lesion information is added on a monitor, and
Image processing method with.
前記病変情報は、前記病変の位置を示す位置情報である、請求項1に記載の画像処理方法。 The image processing method according to claim 1, wherein the lesion information is position information indicating the position of the lesion. 前記医用画像は、内視鏡から前記観察対象に白色光が照射された時に撮像された白色光画像であり、
前記医用情報は、光線力学的診断のために前記内視鏡から前記観察対象に光感受性物質を励起するための励起光が照射された時に撮像された蛍光画像である、請求項1または2に記載の画像処理方法。
The medical image is a white light image taken when the observation target is irradiated with white light from an endoscope.
The medical information is a fluorescent image taken when the observation target is irradiated with excitation light for exciting a photosensitive substance for photodynamic diagnosis, according to claim 1 or 2. The image processing method described.
生体の観察対象の医用画像を取得する第1取得部と、
前記観察対象の前記医用画像以外の医用情報を取得する第2取得部と、
前記医用情報に基づいて、前記観察対象における病変に関する病変情報を生成する病変情報生成部と、
前記医用画像に前記病変情報を付加する病変情報付加部と、
前記病変情報が付加された前記医用画像をモニタに表示する表示部と、
を備えた画像処理装置。
The first acquisition unit that acquires the medical image of the observation target of the living body,
A second acquisition unit that acquires medical information other than the medical image of the observation target, and
A lesion information generation unit that generates lesion information related to a lesion in the observation target based on the medical information, and a lesion information generation unit.
A lesion information addition part that adds the lesion information to the medical image,
A display unit that displays the medical image to which the lesion information is added on a monitor, and
Image processing device equipped with.
生体の観察対象の医用画像を取得する第1取得ステップと、
前記観察対象の前記医用画像以外の医用情報を取得する第2取得ステップと、
前記医用情報に基づいて、前記観察対象における病変に関する病変情報を生成する病変情報生成ステップと、
前記医用画像に前記病変情報を付加する病変情報付加ステップと、
前記病変情報が付加された前記医用画像をモニタに表示する表示ステップと、
をコンピュータに実行させるための画像処理プログラム。
The first acquisition step of acquiring a medical image of a living body to be observed, and
The second acquisition step of acquiring medical information other than the medical image of the observation target, and
A lesion information generation step that generates lesion information related to a lesion in the observation target based on the medical information, and a lesion information generation step.
A lesion information addition step for adding the lesion information to the medical image,
A display step of displaying the medical image to which the lesion information is added on a monitor, and
An image processing program that allows a computer to execute.
請求項5に記載の画像処理プログラムを記録したコンピュータ読み取り可能な非一時的な記録媒体。 A computer-readable non-temporary recording medium on which the image processing program according to claim 5 is recorded. 生体の観察対象の医用画像を取得する第1取得ステップと、
前記観察対象の前記医用画像以外の医用情報を取得する第2取得ステップと、
前記医用情報に基づいて、前記観察対象における病変に関する病変情報を生成する病変情報生成ステップと、
前記医用画像に前記病変情報を付加して、機械学習のための教師データを生成する教師データ生成ステップと、
を備えた教師データ生成方法。
The first acquisition step of acquiring a medical image of a living body to be observed, and
The second acquisition step of acquiring medical information other than the medical image of the observation target, and
A lesion information generation step that generates lesion information related to a lesion in the observation target based on the medical information, and a lesion information generation step.
A teacher data generation step of adding the lesion information to the medical image to generate teacher data for machine learning, and
Teacher data generation method with.
前記医用画像は、内視鏡から前記観察対象に白色光を照射した時に撮像された白色光画像であり、
前記医用情報は、光線力学的診断のために前記内視鏡から前記観察対象に光感受性物質を励起するための励起光を照射した時に撮像された蛍光画像である、請求項7に記載の教師データ生成方法。
The medical image is a white light image taken when the observation target is irradiated with white light from an endoscope.
The teacher according to claim 7, wherein the medical information is a fluorescence image taken when the observation target is irradiated with excitation light for exciting a photosensitive substance from the endoscope for photodynamic diagnosis. Data generation method.
生体の観察対象の医用画像を取得する第1取得部と、
前記観察対象の前記医用画像以外の医用情報を取得する第2取得部と、
前記医用情報に基づいて、前記観察対象における病変に関する病変情報を生成する病変情報生成部と、
前記医用画像に前記病変情報を付加して、機械学習のための教師データを生成する教師データ生成部と、
を備えた教師データ生成装置。
The first acquisition unit that acquires the medical image of the observation target of the living body,
A second acquisition unit that acquires medical information other than the medical image of the observation target, and
A lesion information generation unit that generates lesion information related to a lesion in the observation target based on the medical information.
A teacher data generation unit that adds the lesion information to the medical image to generate teacher data for machine learning, and a teacher data generation unit.
Teacher data generator equipped with.
生体の観察対象の医用画像を取得する第1取得ステップと、
前記観察対象の前記医用画像以外の医用情報を取得する第2取得ステップと、
前記医用情報に基づいて、前記観察対象における病変に関する病変情報を生成する病変情報生成ステップと、
前記医用画像に前記病変情報を付加して、機械学習のための教師データを生成する教師データ生成ステップと、
をコンピュータに実行させる教師データ生成プログラム。
The first acquisition step of acquiring a medical image of a living body to be observed, and
The second acquisition step of acquiring medical information other than the medical image of the observation target, and
A lesion information generation step that generates lesion information related to a lesion in the observation target based on the medical information, and a lesion information generation step.
A teacher data generation step of adding the lesion information to the medical image to generate teacher data for machine learning, and
A teacher data generator that lets a computer run.
請求項10に記載の教師データ生成プログラムを記録したコンピュータ読み取り可能な非一時的な記録媒体。 A computer-readable non-temporary recording medium on which the teacher data generation program according to claim 10 is recorded. 請求項7または8に記載の教師データ生成方法によって生成された教師データを用いて機械学習を行い、
未知の観察対象の前記医用画像を入力とし、前記未知の観察対象における病変に関する病変情報を出力とする学習済みモデルを生成する、学習済みモデル生成方法。
Machine learning is performed using the teacher data generated by the teacher data generation method according to claim 7 or 8.
A trained model generation method for generating a trained model in which the medical image of an unknown observation target is input and lesion information related to a lesion in the unknown observation target is output.
請求項7または8に記載の教師データ生成方法によって生成された教師データを用いて機械学習を行い、
未知の観察対象の前記医用画像を入力とし、前記未知の観察対象における病変に関する病変情報を出力とする学習済みモデルを生成する学習部、
を備えた学習済みモデル生成装置。
Machine learning is performed using the teacher data generated by the teacher data generation method according to claim 7 or 8.
A learning unit that generates a trained model that inputs the medical image of an unknown observation target and outputs lesion information related to a lesion in the unknown observation target.
Trained model generator with.
被検者の観察対象の医用画像を取得する第3取得ステップと、
請求項12に記載の学習済みモデル生成方法によって生成された学習済みモデルに、前記第3取得ステップで取得された医用画像を入力して、前記被検者の観察対象における病変に関する病変情報を取得する病変情報取得ステップと、
を備えた診断支援方法。
The third acquisition step of acquiring the medical image of the subject to be observed, and
The medical image acquired in the third acquisition step is input to the trained model generated by the trained model generation method according to claim 12, and lesion information related to the lesion in the observation target of the subject is acquired. Lesion information acquisition step and
Diagnosis support method equipped with.
被検者の観察対象の医用画像を取得する第3取得部と、
請求項13に記載の学習済みモデル生成装置によって生成された学習済みモデルに、前記第3取得部によって取得された医用画像を入力して、前記被検者の観察対象における病変に関する病変情報を取得する病変情報取得部と、
を備えた診断支援装置。
The third acquisition department that acquires the medical image of the subject to be observed, and
The medical image acquired by the third acquisition unit is input to the trained model generated by the trained model generator according to claim 13 to acquire lesion information related to the lesion in the observation target of the subject. Lesion information acquisition department and
Diagnostic support device equipped with.
被検者の観察対象の医用画像を取得する第3取得ステップと、
請求項12に記載の学習済みモデル生成方法によって生成された学習済みモデルに、前記第3取得ステップで取得された医用画像を入力して、前記被検者の観察対象における病変に関する病変情報を取得する病変情報取得ステップと、
をコンピュータに実行させる診断支援プログラム。
The third acquisition step of acquiring the medical image of the subject to be observed, and
The medical image acquired in the third acquisition step is input to the trained model generated by the trained model generation method according to claim 12, and lesion information related to the lesion in the observation target of the subject is acquired. Lesion information acquisition step and
A diagnostic support program that lets a computer execute.
請求項16に記載の診断支援プログラムを記録したコンピュータ読み取り可能な非一時的な記録媒体。 A computer-readable non-temporary recording medium on which the diagnostic support program according to claim 16 is recorded.
JP2019190994A 2019-10-18 2019-10-18 Image processing method, image processing device, image processing program, teacher data generation method, teacher data generation device, teacher data generation program, learned model generation method, learned model generation device, diagnosis support method, diagnosis support device, diagnosis support program, and recording medium that records the program Pending JP2021065293A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019190994A JP2021065293A (en) 2019-10-18 2019-10-18 Image processing method, image processing device, image processing program, teacher data generation method, teacher data generation device, teacher data generation program, learned model generation method, learned model generation device, diagnosis support method, diagnosis support device, diagnosis support program, and recording medium that records the program
PCT/JP2020/038592 WO2021075418A1 (en) 2019-10-18 2020-10-13 Image processing method, teacher data generation method, trained model generation method, illness development prediction method, image processing device, image processing program, and recording medium on which program is recorded

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019190994A JP2021065293A (en) 2019-10-18 2019-10-18 Image processing method, image processing device, image processing program, teacher data generation method, teacher data generation device, teacher data generation program, learned model generation method, learned model generation device, diagnosis support method, diagnosis support device, diagnosis support program, and recording medium that records the program

Publications (1)

Publication Number Publication Date
JP2021065293A true JP2021065293A (en) 2021-04-30

Family

ID=75636137

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019190994A Pending JP2021065293A (en) 2019-10-18 2019-10-18 Image processing method, image processing device, image processing program, teacher data generation method, teacher data generation device, teacher data generation program, learned model generation method, learned model generation device, diagnosis support method, diagnosis support device, diagnosis support program, and recording medium that records the program

Country Status (1)

Country Link
JP (1) JP2021065293A (en)

Similar Documents

Publication Publication Date Title
JP6749473B2 (en) Endoscope system and operating method thereof
US20190374088A1 (en) Endoscope system and operation method therefor
JP4954699B2 (en) Fluorescence endoscope system
JP5634755B2 (en) Electronic endoscope system, processor device for electronic endoscope, and method for operating electronic endoscope system
JP5074044B2 (en) Fluorescence observation apparatus and method of operating fluorescence observation apparatus
JP7125484B2 (en) endoscope system
WO2021075418A1 (en) Image processing method, teacher data generation method, trained model generation method, illness development prediction method, image processing device, image processing program, and recording medium on which program is recorded
US20060241499A1 (en) Multifunctional fluorescence diagnosis system
JP7176041B2 (en) Medical image processing device and method, endoscope system, processor device, diagnosis support device and program
JPWO2019138773A1 (en) Medical image processing equipment, endoscopic systems, medical image processing methods and programs
JP2010172673A (en) Endoscope system, processor for endoscope, and endoscopy aiding method
JP7411772B2 (en) endoscope system
JP2019180966A (en) Endoscope observation support apparatus, endoscope observation support method, and program
JP2012170774A (en) Endoscopic system
JP7137684B2 (en) Endoscope device, program, control method and processing device for endoscope device
WO2021145265A1 (en) Medical image processing device, endoscope system, diagnosis assistance method, and program
WO2020054543A1 (en) Medical image processing device and method, endoscope system, processor device, diagnosis assistance device and program
JP7328432B2 (en) medical control device, medical observation system, control device and observation system
WO2021229684A1 (en) Image processing system, endoscope system, image processing method, and learning method
JP2006340796A (en) Sentinel lymph node detection system
JP2008043383A (en) Fluorescence observation endoscope instrument
JP7441452B2 (en) Training data generation method, learned model generation method, and disease onset prediction method
JP2004305382A (en) Special light observation system
JP2013048646A (en) Diagnostic system
JP2021065293A (en) Image processing method, image processing device, image processing program, teacher data generation method, teacher data generation device, teacher data generation program, learned model generation method, learned model generation device, diagnosis support method, diagnosis support device, diagnosis support program, and recording medium that records the program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20201125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20201125

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221017

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231010

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240109