JP2023007331A - Endoscope system, medical image processing device, and operation method therefor - Google Patents

Endoscope system, medical image processing device, and operation method therefor Download PDF

Info

Publication number
JP2023007331A
JP2023007331A JP2021195541A JP2021195541A JP2023007331A JP 2023007331 A JP2023007331 A JP 2023007331A JP 2021195541 A JP2021195541 A JP 2021195541A JP 2021195541 A JP2021195541 A JP 2021195541A JP 2023007331 A JP2023007331 A JP 2023007331A
Authority
JP
Japan
Prior art keywords
image
captured
boundary line
medical
medical image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021195541A
Other languages
Japanese (ja)
Inventor
雅裕 久保
Masahiro Kubo
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to US17/809,241 priority Critical patent/US11978209B2/en
Publication of JP2023007331A publication Critical patent/JP2023007331A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Endoscopes (AREA)

Abstract

To provide an endoscope system, a medical image processing device and an operation method therefor which allow a user to recognize a correct boundary line in real time.SOLUTION: A medical image processing device acquires a reference image that is a medical image with which boundary line information related to a boundary line that is a boundary between an abnormal region and a normal region and landmark information related to a landmark and a captured image that is the medical image captured in real time, detects the landmark from the captured image, calculates a ratio of match between the landmark included in the reference image and the landmark included in the captured image, estimates a correspondence relationship between the reference image and the captured image on the basis of the ratio of match and information regarding the landmarks included in the reference image and the captured image, and generates a superimposition image in which the boundary line associated with the reference image is superimposed on the captured image on the basis of the correspondence relationship.SELECTED DRAWING: Figure 11

Description

本発明は、内視鏡的粘膜下層剥離術等の手術を支援する内視鏡システム、医療画像処理装置及びその作動方法に関する。 TECHNICAL FIELD The present invention relates to an endoscope system, a medical image processing apparatus, and an operation method thereof for assisting surgery such as endoscopic submucosal dissection.

内視鏡的粘膜下層剥離術(ESD: Endoscopic Submucosal Dissection)によって、内視鏡的粘膜切除術(EMR: Endoscopic Mucosal Resection)が適用できない大きさの腫瘍の切除が可能となり、侵襲性の高い外科手術を選択せずに済むようになった。ESDは内視鏡下で行うため、低侵襲であるメリットがある。一方、消化管の厚さは、胃で5~7mm、大腸で3~5mmと極めて薄く、ESDを行う医師には高度な技術が要求される。 Endoscopic submucosal dissection (ESD) enables resection of tumors that are too large for endoscopic mucosal resection (EMR), making it a highly invasive surgical procedure. is no longer required. Since ESD is performed under an endoscope, it has the advantage of being minimally invasive. On the other hand, the thickness of the gastrointestinal tract is as thin as 5 to 7 mm in the stomach and 3 to 5 mm in the large intestine.

手術時に術者を支援するため、病変領域を示すことができる技術が知られている。例えば、病変を含む注目領域を検出し、注目領域と非注目領域との境界の座標、注目領域の内側の位置であって境界に沿った位置の座標、又は注目領域の重心の座標を注目領域に重畳する医療画像処理装置が知られている(特許文献1)。 A technique capable of indicating a lesion area is known in order to assist an operator during surgery. For example, a region of interest including a lesion is detected, and the coordinates of the boundary between the region of interest and a non-region of interest, the coordinates of the position inside the region of interest along the boundary, or the coordinates of the center of gravity of the region of interest are is known (Patent Document 1).

国際公開第2020/090731号WO2020/090731

画像処理の進歩により、鑑別された病変の領域や境界線を画像上に示すことが可能になったが、フレーム毎に病変の範囲を判断する方法では、時間の変化に伴い病変として表示される範囲も変化する。すなわち、リアルタイムで撮影する画像は刻一刻と変化するため、観察対象の異常領域と正常領域の境界線をリアルタイムで正確に判別することは難しく、撮影条件によっては、表示される境界線が不正確である場合がある。また、ESDを適用する場合における境界線の判別は、病変全体を俯瞰できる低倍率観察(遠景観察)では難しく、病変の一部分を拡大した高倍率観察(近景観察)で行う必要がある。上記の状況を鑑みて、最適な条件で撮影した画像で判別した正確な境界線を、リアルタイムに認識できる技術が求められている。さらに、過去に診断した境界線がどのように変化したかを、現在のリアルタイムの画像上で確認できる技術が求められている。 Advances in image processing have made it possible to show the areas and boundaries of differentiated lesions on images. The range also changes. In other words, since images captured in real time change from moment to moment, it is difficult to accurately determine the boundary between abnormal and normal regions in real time, and depending on the imaging conditions, the displayed boundary may be inaccurate. may be. In addition, when ESD is applied, it is difficult to distinguish the boundary line by low-magnification observation (distant view observation) that can overlook the entire lesion, and it is necessary to perform high-magnification observation (near view observation) by enlarging a part of the lesion. In view of the above situation, there is a demand for a technology capable of recognizing, in real time, accurate boundary lines determined from images captured under optimal conditions. Furthermore, there is a need for a technology that allows confirmation of how the previously diagnosed borderline has changed on current real-time images.

本発明は、正確な境界線をリアルタイムに認識することができる内視鏡システム、医療画像処理装置及びその作動方法を提供することを目的とする。 SUMMARY OF THE INVENTION An object of the present invention is to provide an endoscope system, a medical image processing apparatus, and an operating method thereof that can recognize an accurate boundary line in real time.

本発明の医療画像処理装置は、プロセッサを備える医療画像処理装置であって、プロセッサは、内視鏡により被写体を撮影した医療画像を取得し、異常領域と正常領域の境界である境界線に付随する境界線情報と、被写体のうち特徴的な構造であるランドマークに付随するランドマーク情報とを関連付けた医療画像である参照画像を取得し、リアルタイムで撮影された医療画像である撮影画像を取得し、撮影画像からランドマークを検出し、参照画像に含まれるランドマークと、撮影画像に含まれるランドマークとの一致度を算出し、一致度と、参照画像及び撮影画像に含まれるランドマーク情報に基づき、参照画像と撮影画像の対応関係を推定し、対応関係に基づいて、参照画像に関連付けられた境界線を撮影画像に重畳した重畳画像を生成する。 A medical image processing apparatus according to the present invention is a medical image processing apparatus comprising a processor. Acquire a reference image, which is a medical image that associates boundary line information and landmark information associated with landmarks, which are characteristic structures of the subject, and acquire a captured image, which is a medical image captured in real time. Then, the landmarks are detected from the captured image, and the degree of matching between the landmarks included in the reference image and the landmarks included in the captured image is calculated. , and generates a superimposed image by superimposing the boundary associated with the reference image on the captured image based on the correspondence.

撮影画像と参照画像とが同じ倍率で撮像された医療画像であることが好ましい。撮影画像は遠景撮影された医療画像であって、参照画像は近景撮影された医療画像であることが好ましい。 It is preferable that the captured image and the reference image are medical images captured at the same magnification. Preferably, the captured image is a medical image captured in a distant view, and the reference image is a medical image captured in a close view.

撮影画像は、異常領域の一部分を含むように撮影された医療画像であり、参照画像は、異常領域の全体を含む医療画像であって、参照画像に関連付けられた境界線の一部分を、撮影画像に重畳した重畳画像を生成することが好ましい。 The captured image is a medical image captured so as to include a portion of the abnormal region, and the reference image is a medical image including the entire abnormal region, and a portion of the boundary associated with the reference image is the captured image. It is preferable to generate a superimposed image superimposed on the .

参照画像は、異常領域の一部分が近景撮影された医療画像である複数の拡大医療画像を繋ぎ合わせて生成されていることが好ましい。 The reference image is preferably generated by joining together a plurality of magnified medical images, which are medical images in which a part of the abnormal region is photographed in the foreground.

プロセッサは、参照画像が、第1拡大医療画像と、第1拡大医療画像と異なる位置で撮影された第2拡大医療画像からなる場合、第1拡大医療画像に関連付けられたランドマーク情報及び境界線情報と、第2拡大医療画像に関連付けられたランドマーク情報及び境界線情報との共通関係に基づき、第1拡大医療画像と、第2拡大医療画像を繋ぎ合わせて参照画像を生成することが好ましい。 When the reference image consists of a first magnified medical image and a second magnified medical image taken at a position different from the first magnified medical image, the processor calculates landmark information and boundaries associated with the first magnified medical image. Preferably, the first magnified medical image and the second magnified medical image are spliced together to generate a reference image based on a common relationship between the information and the landmark information and boundary line information associated with the second magnified medical image. .

プロセッサは、異常領域と正常領域を識別し、境界線を設定することが好ましい。境界線は、ユーザー操作によって設定されることが好ましい。 The processor preferably identifies and demarcates abnormal and normal regions. The boundary line is preferably set by user operation.

参照画像は、被写体を特殊光で照明して撮影された医療画像であり、撮影画像は、被写体を通常光で照明して撮影された医療画像であることが好ましい。 Preferably, the reference image is a medical image captured by illuminating the subject with special light, and the captured image is a medical image captured by illuminating the subject with normal light.

ランドマークを検出する撮影画像と、境界線を重畳する撮影画像とが、同一の時刻に撮影された撮影画像であることが好ましい。 It is preferable that the photographed image for detecting the landmark and the photographed image for superimposing the boundary line are photographed images photographed at the same time.

ランドマークを検出する撮影画像と、境界線を重畳する撮影画像とが、異なる時刻に撮影された撮影画像であることが好ましい。一致度の算出は、終了指示があるまで継続されることが好ましい。 It is preferable that the captured image for detecting the landmark and the captured image for superimposing the boundary line are captured images captured at different times. The calculation of the degree of matching is preferably continued until an end instruction is given.

プロセッサは、表示用画像を生成し、重畳画像を、表示用画像の第1表示用区画に表示し、参照画像を、表示用画像の第1表示用区画と異なる第2表示用区画に表示する制御を行うことが好ましい。 The processor generates a display image and displays the superimposed image in a first display section of the display image and displays the reference image in a second display section of the display image that is different from the first display section. Control is preferred.

プロセッサは、撮影画像として拡大撮影画像を取得し、拡大撮影画像に含まれる異常領域と正常領域を識別して境界線を設定し、拡大撮影画像からランドマークを検出し、拡大撮影画像に、境界線に付随する境界線情報と、ランドマークに付随するランドマーク情報とを関連付け、参照画像とすることが好ましい。 The processor acquires an enlarged photographed image as a photographed image, identifies an abnormal area and a normal area included in the enlarged photographed image, sets a boundary line, detects landmarks from the enlarged photographed image, and adds boundaries to the enlarged photographed image. It is preferable to associate the boundary line information attached to the line with the landmark information attached to the landmark and use it as a reference image.

プロセッサは、重畳画像を生成し、境界線が重畳された重畳画像に係る撮影画像に含まれる異常領域と正常領域を、更新指示がある場合に識別し、異常領域と正常領域の境界を境界線として更新境界線を設定した場合であって、更新決定指示がある場合に、更新境界線を決定更新境界線として、撮影画像に重畳された境界線を更新することが好ましい。 The processor generates a superimposed image, identifies the abnormal region and the normal region included in the photographed image related to the superimposed image on which the boundary line is superimposed, when there is an update instruction, and identifies the boundary between the abnormal region and the normal region as the boundary line , and when there is an update determination instruction, it is preferable to update the boundary superimposed on the captured image by using the update boundary as the determined update boundary.

本発明の医療画像処理装置の作動方法は、内視鏡により被写体を撮影した医療画像を取得するステップと、異常領域と正常領域の境界である境界線に付随する境界線情報と、被写体のうち特徴的な構造であるランドマークに付随するランドマーク情報とを関連付けた医療画像である参照画像を取得するステップと、リアルタイムで撮影された医療画像である撮影画像を取得するステップと、撮影画像からランドマークを検出するステップと、参照画像に含まれるランドマークと、撮影画像に含まれるランドマークとの一致度を算出するステップと、一致度と、参照画像及び撮影画像に含まれるランドマーク情報に基づき、参照画像と撮影画像の対応関係を推定するステップと、対応関係に基づいて、参照画像に関連付けられた境界線を撮影画像に重畳した重畳画像を生成するするステップと、を備える。 A method for operating a medical image processing apparatus of the present invention comprises steps of acquiring a medical image of a subject photographed by an endoscope, boundary line information associated with a boundary line that is a boundary between an abnormal region and a normal region, and Acquiring a reference image, which is a medical image associated with landmark information associated with a landmark, which is a characteristic structure; Acquiring a captured image, which is a medical image captured in real time; a step of detecting landmarks; a step of calculating a degree of matching between the landmarks included in the reference image and the landmarks included in the captured image; estimating a correspondence between the reference image and the captured image based on the correspondence; and generating a superimposed image in which the boundary associated with the reference image is superimposed on the captured image based on the correspondence.

本発明の内視鏡システムは、上記の医療画像処理装置と、内視鏡と、を備える。 An endoscope system of the present invention includes the medical image processing apparatus described above and an endoscope.

本発明によれば、正確な境界線をリアルタイムに認識することができる。 According to the present invention, an accurate boundary line can be recognized in real time.

内視鏡システムの構成の説明図である。1 is an explanatory diagram of a configuration of an endoscope system; FIG. 内視鏡システムの機能を示すブロック図である。1 is a block diagram showing functions of an endoscope system; FIG. 通常光における紫色光V、青色光B、緑色光G、及び赤色光Rのスペクトルを示すグラフである。4 is a graph showing spectra of violet light V, blue light B, green light G, and red light R in normal light. 特殊光における紫色光V、青色光B、緑色光G、及び赤色光Rのスペクトルを示すグラフである。5 is a graph showing spectra of violet light V, blue light B, green light G, and red light R in special light. 画像解析モード時の第1発光パターンを示す説明図である。FIG. 10 is an explanatory diagram showing a first light emission pattern in image analysis mode; 画像解析モード時の第2発光パターンを示す説明図である。FIG. 11 is an explanatory diagram showing a second light emission pattern in image analysis mode; ランドマークを検出した撮影画像の例を示す画像図である。FIG. 10 is an image diagram showing an example of a photographed image in which landmarks are detected; ランドマークをリンクラインで結合させた撮影画像の例を示す画像図である。FIG. 10 is an image diagram showing an example of a photographed image in which landmarks are connected by link lines; 異常領域と正常領域の境界に境界線が示された参照画像の例を示す画像図である。FIG. 10 is an image diagram showing an example of a reference image in which a boundary line is shown on the boundary between an abnormal region and a normal region; 参照画像と撮影画像の一致度を算出する例について示す説明図である。FIG. 10 is an explanatory diagram showing an example of calculating the degree of matching between a reference image and a captured image; 重畳画像の生成について示す説明図である。FIG. 10 is an explanatory diagram showing generation of a superimposed image; 撮影画像と参照画像が同じ倍率で撮影されている場合の重畳画像の生成について示す説明図である。FIG. 10 is an explanatory diagram showing generation of a superimposed image when a captured image and a reference image are captured at the same magnification; 撮影画像が遠景観察され、参照画像が近景撮影されている場合の重畳画像の生成について示す説明図である。FIG. 10 is an explanatory diagram showing generation of a superimposed image when a photographed image is observed in a distant view and a reference image is photographed in a near view; 撮影画像が異常領域の一部分を含むように撮影され、参照画像が異常領域の全体を含む場合の重畳画像の生成について示す説明図である。FIG. 10 is an explanatory diagram showing generation of a superimposed image when a captured image is captured so as to include a portion of an abnormal region and a reference image includes the entire abnormal region; 参照画像が拡大医療画像を繋ぎ合わせられて生成されていることについて示す説明図である。FIG. 4 is an explanatory diagram showing that a reference image is generated by joining enlarged medical images; 境界線表示モードにおける参照画像生成部の機能を示すブロック図である。FIG. 10 is a block diagram showing functions of a reference image generator in a boundary line display mode; 共通関係を用いた拡大医療画像の繋ぎ合わせによる参照画像の生成について示す説明図である。FIG. 10 is an explanatory diagram showing generation of a reference image by joining enlarged medical images using a common relationship; 境界線を自動的に設定する場合の拡大医療画像における異常領域の識別、境界線の設定、及びランドマークの検出について示す説明図である。FIG. 10 is an explanatory diagram showing identification of an abnormal region, setting of boundaries, and detection of landmarks in an enlarged medical image when automatically setting boundaries. 境界線をユーザー操作で設定する場合の参照画像生成部の機能を示すブロック図である。FIG. 11 is a block diagram showing functions of a reference image generation unit when a boundary line is set by a user operation; ユーザー操作で境界線を設定する説明図である。FIG. 10 is an explanatory diagram of setting a boundary line by user operation; 参照画像が特殊光を用いて撮影され、撮影画像が通常光を用いて撮像される場合の重畳画像の生成について示す説明図である。FIG. 10 is an explanatory diagram showing generation of a superimposed image when a reference image is captured using special light and a captured image is captured using normal light; ランドマークを検出する撮影画像と、境界線を重畳する撮影画像とが、同一の時刻に撮影された撮影画像である場合の重畳画像の生成について示す説明図である。FIG. 10 is an explanatory diagram showing generation of a superimposed image when a captured image for detecting a landmark and a captured image for superimposing a boundary line are captured images captured at the same time; ランドマークを検出する撮影画像と、境界線を重畳する撮影画像とが、異なる時刻に撮影された撮影画像である場合の重畳画像の生成について示す説明図である。FIG. 10 is an explanatory diagram showing generation of a superimposed image when a captured image for detecting a landmark and a captured image for superimposing a boundary line are captured images captured at different times; 境界線表示モードの一連の流れを示したフローチャートである。4 is a flow chart showing a series of flows in a boundary line display mode; 表示用画像について示す画像図である。FIG. 4 is an image diagram showing a display image; 参照画像生成モードにおける撮影画像入力部及び参照画像生成部の機能について示すブロック図である。3 is a block diagram showing functions of a captured image input unit and a reference image generation unit in a reference image generation mode; FIG. 参照画像生成モードにおける参照画像の生成について示す説明図である。FIG. 10 is an explanatory diagram showing generation of a reference image in a reference image generation mode; 境界線更新モードにおける撮影画像入力部及び参照画像生成部の機能について示すブロック図である。FIG. 4 is a block diagram showing functions of a captured image input unit and a reference image generation unit in a boundary line update mode; 境界線更新モードにおける重畳画像の生成について示す説明図である。FIG. 10 is an explanatory diagram showing generation of a superimposed image in the boundary line update mode; 更新境界線重畳画像の生成について示す説明図である。FIG. 9 is an explanatory diagram showing generation of an updated boundary line superimposed image; 決定更新境界線重畳画像の生成について示す説明図である。FIG. 11 is an explanatory diagram showing generation of a determined update boundary line superimposed image; 硬性鏡を用いる場合の内視鏡システムの構成の説明図である。FIG. 4 is an explanatory diagram of the configuration of an endoscope system when using a rigid endoscope; 受光部の構成について示す説明図である。FIG. 4 is an explanatory diagram showing the configuration of a light receiving section;

図1に示すように、内視鏡システム10は、内視鏡12、光源装置14、プロセッサ装置15、医療画像処理装置11、ディスプレイ17及びユーザーインターフェース19、を備える。医療画像処理装置11は、プロセッサ装置15を介して内視鏡システム10に接続されている。内視鏡12は、光源装置14と光学的に接続され、且つ、プロセッサ装置15と電気的に接続される。 As shown in FIG. 1, the endoscope system 10 includes an endoscope 12, a light source device 14, a processor device 15, a medical image processing device 11, a display 17 and a user interface 19. A medical image processing device 11 is connected to the endoscope system 10 via a processor device 15 . The endoscope 12 is optically connected to the light source device 14 and electrically connected to the processor device 15 .

内視鏡12は、観察対象の体内に挿入される挿入部12aと、挿入部12aの基端部分に設けられた操作部12bと、挿入部12aの先端側に設けられた湾曲部12c及び先端部12dとを有している。湾曲部12cは、操作部12bのアングルノブ12eを操作することにより湾曲動作する。先端部12dは、湾曲部12cの湾曲動作によって所望の方向に向けられる。挿入部12aから先端部12dにわたって、処置具などを挿通するための鉗子チャンネル(図示しない)を設けている。処置具は、鉗子口12jから鉗子チャンネル内に挿入する。 The endoscope 12 includes an insertion portion 12a to be inserted into the body of an observation target, an operation portion 12b provided at the proximal end portion of the insertion portion 12a, a bending portion 12c provided at the distal end side of the insertion portion 12a, and a distal end portion. and a portion 12d. The bending portion 12c is bent by operating the angle knob 12e of the operation portion 12b. The distal end portion 12d is directed in a desired direction by the bending motion of the bending portion 12c. A forceps channel (not shown) for inserting a treatment tool or the like is provided from the insertion portion 12a to the distal end portion 12d. The treatment instrument is inserted into the forceps channel from the forceps port 12j.

内視鏡12の内部には、被写体像を結像するための光学系、及び、被写体に照明光を照射するための光学系が設けられる。操作部12bには、アングルノブ12e、モード切替スイッチ12f、静止画像取得指示スイッチ12h及びズーム操作部12iが設けられる。モード切替スイッチ12fは、観察モードの切り替え操作に用いる。静止画像取得指示スイッチ12hは、静止画像の取得指示に用いる。ズーム操作部12iは、ズームレンズ42の操作に用いる。 An optical system for forming a subject image and an optical system for illuminating the subject with illumination light are provided inside the endoscope 12 . The operation unit 12b is provided with an angle knob 12e, a mode changeover switch 12f, a still image acquisition instruction switch 12h, and a zoom operation unit 12i. The mode changeover switch 12f is used for an observation mode changeover operation. The still image acquisition instruction switch 12h is used to instruct acquisition of a still image. A zoom operation unit 12 i is used for operating the zoom lens 42 .

光源装置14は、照明光を発生する。ディスプレイ17は、医療画像を表示する。医療画像には、内視鏡12がリアルタイムで撮影した医療画像である撮影画像、後述する、異常領域と正常領域の境界である境界線の情報と、被写体の特徴的な構造であるランドマークの情報とを関連付けた医療画像である参照画像、及び境界線を撮影画像に重畳した重畳画像が含まれる。なお、リアルタイムとは、厳密な一の時刻や、厳密な同時刻を表すものではなく、一度の内視鏡検査において最新の一定期間を含む時間のことをいう。また、異常領域とは、観察対象のうち、例えば、腫瘍が存在する領域や、炎症が認められる領域等の、異常が認められる領域のことを指す。正常領域とは、異常が認められない、異常領域以外の領域のことを指す。さらに、異常領域を「腫瘍領域」と、正常領域を「非腫瘍領域」として、特に腫瘍が識別された領域だけを異常領域とし、例えば腫瘍周辺の炎症が認められる領域を正常領域に含むようにしてもよい。 The light source device 14 generates illumination light. The display 17 displays medical images. The medical image includes a photographed image that is a medical image photographed in real time by the endoscope 12, information on a boundary line that is the boundary between an abnormal region and a normal region, and landmarks that are the characteristic structures of the subject, which will be described later. A reference image, which is a medical image associated with information, and a superimposed image in which a boundary line is superimposed on a captured image are included. Note that real time does not mean exactly one time or exactly the same time, but means the time including the latest fixed period in one endoscopy. In addition, an abnormal region refers to a region in which an abnormality is observed, such as a region in which a tumor exists or a region in which inflammation is observed, among observation targets. A normal region refers to a region other than an abnormal region in which no abnormality is observed. Furthermore, the abnormal region may be defined as a "tumor region" and the normal region as a "non-tumor region". good.

ユーザーインターフェース19は、キーボード、マウス、タッチパッド、マイク、タブレット241、及びタッチペン242等を有し、機能設定等の入力操作を受け付ける機能を有する。プロセッサ装置15は、内視鏡システム10のシステム制御及び内視鏡12から送信された画像信号に対して画像処理等を行う。 The user interface 19 has a keyboard, a mouse, a touch pad, a microphone, a tablet 241, a touch pen 242, and the like, and has a function of receiving input operations such as function settings. The processor device 15 performs system control of the endoscope system 10 and image processing and the like on image signals transmitted from the endoscope 12 .

図2において、光源装置14は、光源部20と、光源部20を制御する光源用プロセッサ21とを備えている。光源部20は、例えば、複数の半導体光源を有し、これらをそれぞれ点灯又は消灯し、点灯する場合には各半導体光源の発光量を制御することにより、観察対象を照明する照明光を発する。光源部20は、V-LED(Violet Light Emitting Diode)20a、B-LED(Blue Light Emitting Diode)20b、G-LED(Green Light Emitting Diode)20c、及びR-LED(Red Light Emitting Diode)20dの4色のLEDを有する。光源部20は内視鏡12に内蔵されていてもよく、光源制御部は内視鏡12に内蔵されていてもよく、あるいはプロセッサ装置15に内蔵されていてもよい。 In FIG. 2 , the light source device 14 includes a light source section 20 and a light source processor 21 that controls the light source section 20 . The light source unit 20 has, for example, a plurality of semiconductor light sources, which are turned on or off. When turned on, the light emission amount of each semiconductor light source is controlled to emit illumination light for illuminating the observation target. The light source unit 20 includes a V-LED (Violet Light Emitting Diode) 20a, a B-LED (Blue Light Emitting Diode) 20b, a G-LED (Green Light Emitting Diode) 20c, and an R-LED (Red Light Emitting Diode) 20d. It has four color LEDs. The light source unit 20 may be built in the endoscope 12 , the light source control unit may be built in the endoscope 12 , or may be built in the processor device 15 .

内視鏡システム10は、モノ発光モード、マルチ発光モード、境界線表示モード、参照画像生成モード、及び境界線更新モードを備えており、モード切替スイッチ12fによって切り替えられる。モノ発光モードは、同一スペクトルの照明光を連続的に照射し、観察対象を照明するモードである。マルチ発光モードは、異なるスペクトルの複数の照明光を、特定のパターンに従って切り替えながら照射し、観察対象を照明するモードである。なお、照明光には、観察対象全体に明るさを与えて観察対象全体を観察するために用いられる通常光(白色光などの広帯域の光)、又は、観察対象のうち特定領域を強調するために用いられる特殊光が含まれる。また、モノ発光モードにおいて、モード切替スイッチ12fの操作によって、異なるスペクトルの照明光に切り替えるようにしてもよい。例えば、通常光を第1照明光として、特殊光を第2照明光として切り替えるようにしてもよく、特殊光を第1照明光として、通常光を第2照明光として切り替えるようにしてもよい。 The endoscope system 10 has a mono light emission mode, a multi light emission mode, a boundary line display mode, a reference image generation mode, and a boundary line update mode, which are switched by the mode changeover switch 12f. The mono light emission mode is a mode in which illumination light of the same spectrum is continuously emitted to illuminate an observation target. The multi-emission mode is a mode in which a plurality of illumination lights with different spectra are emitted while being switched according to a specific pattern to illuminate an observation target. The illumination light includes normal light (broadband light such as white light) used to give brightness to the entire observation object and to observe the entire observation object, or light for emphasizing a specific region of the observation object. Special lights used for Also, in the mono light emission mode, the illumination light of a different spectrum may be switched by operating the mode switch 12f. For example, the normal light may be used as the first illumination light and the special light may be used as the second illumination light, or the special light may be used as the first illumination light and the normal light may be used as the second illumination light.

図3に示すように、通常光を発する場合、V-LED20aは、中心波長405±10nm、波長範囲380~420nmの紫色光Vを発生する。B-LED20bは、中心波長450±10nm、波長範囲420~500nmの青色光Bを発生する。G-LED20cは、波長範囲が480~600nmに及ぶ緑色光Gを発生する。R-LED20dは、中心波長620~630nmで、波長範囲が600~650nmに及ぶ赤色光Rを発生する。図4に示すように、紫色光Vの光量を他の青色光B、緑色光G、及び赤色光Rの光量よりも大きくした特殊光を用いてもよい。 As shown in FIG. 3, when emitting normal light, the V-LED 20a emits violet light V with a central wavelength of 405±10 nm and a wavelength range of 380-420 nm. The B-LED 20b generates blue light B with a central wavelength of 450±10 nm and a wavelength range of 420-500 nm. The G-LED 20c generates green light G with a wavelength range of 480-600 nm. The R-LED 20d emits red light R with a central wavelength of 620-630 nm and a wavelength range of 600-650 nm. As shown in FIG. 4, special light in which the amount of violet light V is greater than the amount of other blue light B, green light G, and red light R may be used.

境界線表示モードは、被写体に腫瘍を見つけた際、リアルタイムで撮像された撮影画像に、予め異常領域と正常領域の境界に正確な境界線が定められた参照画像の境界線を重畳した重畳画像を生成し、ディスプレイ17に表示してユーザーに示すことで、ESDにおける粘膜の切開を支援するモードである。参照画像生成モードは、撮影画像を用いて参照画像を生成するモードである。境界線更新モードは、撮影画像に参照画像の境界線を重畳した重畳画像を表示しながら、境界線を更新するモードである。 In the border display mode, when a tumor is found in the subject, a superimposed image is obtained by superimposing the border line of the reference image, in which the border line between the abnormal region and the normal region is defined in advance, on the photographed image captured in real time. is generated and displayed on the display 17 for the user to assist mucosa incision in ESD. The reference image generation mode is a mode for generating a reference image using a captured image. The boundary line update mode is a mode for updating the boundary line while displaying a superimposed image in which the boundary line of the reference image is superimposed on the captured image.

光源用プロセッサ21は、4色の紫色光V、青色光B、緑色光G、赤色光Rの光量を独立に制御する。モノ発光モードの場合には、1フレーム毎に、同一スペクトルの照明光を連続的に発光する。例えば、通常光(第1照明光)を観察対象に照明して撮像することによって、自然な色合いの第1照明光画像をディスプレイ17に表示する。また、モノ発光モードで第1照明光と第2照明光を切り替えて、特殊光(第2照明光)を観察対象に照明して撮像し、特定の構造を強調した第2照明光画像をディスプレイ17に表示してもよい。第1照明光画像及び第2照明光画像は、医療画像の一種である。 The light source processor 21 controls the light amounts of the four colors of violet light V, blue light B, green light G, and red light R independently. In the case of the mono light emission mode, illumination light of the same spectrum is continuously emitted for each frame. For example, by illuminating the observation target with normal light (first illumination light) and capturing an image, the display 17 displays a first illumination light image with natural colors. In mono light emission mode, the first illumination light and the second illumination light are switched to illuminate the observation object with the special light (the second illumination light), and an image of the second illumination light emphasizing a specific structure is displayed. 17 may be displayed. The first illumination light image and the second illumination light image are types of medical images.

ESDを行う際に使用する光は、通常は第1照明光である。ESDを行う事前に病変部の浸潤範囲を確認したい場合等に、第2照明光を用いてもよい。境界線表示モードでは、モノ発光モードとマルチ発光モードのいずれかのモードの発光パターンで医療画像を得るか、また、モノ発光モードの発光パターンで、第1照明光画像又は第2照明光画像のいずれを医療画像として得るかを選択できる。 The light used when performing ESD is usually the first illumination light. The second illumination light may be used when it is desired to check the infiltration range of the lesion before performing ESD. In the boundary line display mode, a medical image is obtained with the light emission pattern in either the mono light emission mode or the multi light emission mode, or the first illumination light image or the second illumination light image is obtained with the light emission pattern in the mono light emission mode. You can choose which one to obtain as a medical image.

一方、マルチ発光モードの場合においては、特定のパターンに従って、紫色光V、青色光B、緑色光G、赤色光Rの光量を変化させる制御が行われる。例えば、発光パターンとして、図5に示すように、第1照明光により被写体を照明する第1照明期間のフレーム数が、それぞれの第1照明期間において同じである第1発光パターンと、図6に示すように、第1照明期間のフレーム数が、それぞれの第1照明期間において異なっている第2発光パターンのように第1照明光と第2照明光とを切り替える。なお、図5及び図6において、矢印は時間経過の方向を表す。また、フレームとは、内視鏡の先端部12dに設けられた撮像センサ(図示しない)が、観察対象からの戻り光の受光を開始し、受光に基づいて蓄積した電荷信号の出力が完了するまでの間の時間をいう。また、第2照明期間は、第2照明光により被写体を照明する期間である。 On the other hand, in the case of the multi-emission mode, control is performed to change the light amounts of the violet light V, blue light B, green light G, and red light R according to a specific pattern. For example, as the light emission pattern, as shown in FIG. As shown, the number of frames in the first illumination period switches between the first illumination light and the second illumination light as in the second emission pattern, which is different in each first illumination period. 5 and 6, arrows indicate the direction of time passage. A frame means that an imaging sensor (not shown) provided at the distal end portion 12d of the endoscope starts receiving return light from the observation target, and the output of the accumulated charge signal is completed based on the received light. refers to the time between Also, the second illumination period is a period during which the subject is illuminated with the second illumination light.

各LED20a~20d(図2参照)が発する光は、ミラーやレンズ等で構成される光路結合部22を介して、ライトガイド23に入射される。ライトガイド23は、光路結合部22からの光を、内視鏡12の先端部12dまで伝搬する。 Light emitted from each of the LEDs 20a to 20d (see FIG. 2) enters a light guide 23 via an optical path coupling portion 22 composed of mirrors, lenses, and the like. The light guide 23 propagates the light from the optical path coupling portion 22 to the distal end portion 12 d of the endoscope 12 .

内視鏡12の先端部12dには、照明光学系30aと撮像光学系30bが設けられている。照明光学系30aは照明レンズ31を有しており、ライトガイド23によって伝搬した照明光は照明レンズ31を介して観察対象に照射される。光源部20が内視鏡12の先端部12dに内蔵される場合は、ライトガイドを介さずに照明光学系の照明レンズを介して被写体に向けて出射される。撮像光学系30bは、対物レンズ41、撮像センサ43を有する。照明光を照射したことによる観察対象からの光は、対物レンズ41及びズームレンズ42を介して撮像センサ43に入射する。これにより、撮像センサ43に観察対象の像が結像される。ズームレンズ42は観察対象を拡大するためのレンズであり、ズーム操作部12iを操作することによって、テレ端とワイド端と間を移動する。 A distal end portion 12d of the endoscope 12 is provided with an illumination optical system 30a and an imaging optical system 30b. The illumination optical system 30 a has an illumination lens 31 , and the illumination light propagated by the light guide 23 is applied to the observation target via the illumination lens 31 . When the light source unit 20 is incorporated in the distal end portion 12d of the endoscope 12, the light is emitted toward the object through the illumination lens of the illumination optical system without passing through the light guide. The imaging optical system 30 b has an objective lens 41 and an imaging sensor 43 . Light emitted from the object to be observed by illumination light enters the imaging sensor 43 via the objective lens 41 and the zoom lens 42 . As a result, an image of the observation target is formed on the imaging sensor 43 . The zoom lens 42 is a lens for enlarging an observation target, and is moved between the tele end and the wide end by operating the zoom operation section 12i.

撮像センサ43は、原色系のカラーセンサであり、青色カラーフィルタを有するB画素(青色画素)、緑色カラーフィルタを有するG画素(緑色画素)、及び、赤色カラーフィルタを有するR画素(赤色画素)の3種類の画素を備える。 The imaging sensor 43 is a primary color sensor, and includes B pixels (blue pixels) having blue color filters, G pixels (green pixels) having green color filters, and R pixels (red pixels) having red color filters. and three types of pixels.

また、撮像センサ43は、CCD(Charge-Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)であることが好ましい。撮像用プロセッサ44は、撮像センサ43を制御する。具体的には、撮像用プロセッサ44により撮像センサ43の信号読み出しを行うことによって、撮像センサ43から画像信号が出力される。出力された画像信号は、プロセッサ装置15の撮影画像取得部60に送信される。 Also, the imaging sensor 43 is preferably a CCD (Charge-Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor). The imaging processor 44 controls the imaging sensor 43 . Specifically, an image signal is output from the imaging sensor 43 by reading the signal of the imaging sensor 43 by the imaging processor 44 . The output image signal is transmitted to the captured image acquisition section 60 of the processor device 15 .

撮影画像取得部60は、受信した画像信号に対して、欠陥補正処理、オフセット処理、デモザイク処理、マトリクス処理、ホワイトバランスの調整、ガンマ変換処理、及びYC変換処理等の各種信号処理を行う。次いで、3×3のマトリクス処理、階調変換処理、3次元LUT(Look Up Table)処理等の色変換処理、色彩強調処理、空間周波数強調等の構造強調処理を含む画像処理を施す。 The captured image acquisition unit 60 performs various signal processing such as defect correction processing, offset processing, demosaicing processing, matrix processing, white balance adjustment, gamma conversion processing, and YC conversion processing on the received image signal. Next, image processing including 3×3 matrix processing, gradation conversion processing, color conversion processing such as three-dimensional LUT (Look Up Table) processing, color enhancement processing, and structure enhancement processing such as spatial frequency enhancement is performed.

ユーザーが撮影画像を静止画像として取得したい場合は、静止画像取得指示スイッチ12hを操作することにより、静止画像取得指示に関する信号が内視鏡12、光源装置14、及びプロセッサ装置15に送られ、静止画像が取得されて静止画像保存部(図示しない)に保存される。 When the user wants to acquire a captured image as a still image, by operating the still image acquisition instruction switch 12h, a signal regarding a still image acquisition instruction is sent to the endoscope 12, the light source device 14, and the processor device 15, and the still image is captured. The image is acquired and stored in a still image storage (not shown).

プロセッサ装置15においては、画像制御用プロセッサで構成される第1中央制御部55により、プログラム用メモリ内のプログラムが動作することで、撮影画像取得部60の機能が実現される。 In the processor device 15, the functions of the photographed image acquisition section 60 are realized by operating the program in the program memory by the first central control section 55, which is an image control processor.

撮影画像取得部60が生成した撮影画像は、医療画像処理装置11に送信される。医療画像処理装置11は、撮影画像入力部100、参照画像記録部110、第1ランドマーク検出部120、一致度算出部130、境界線位置推定部140、表示制御部150、参照画像生成部200、及び第2中央制御部101を備える(図2参照)。 The captured image generated by the captured image acquisition unit 60 is transmitted to the medical image processing apparatus 11 . The medical image processing apparatus 11 includes a photographed image input unit 100, a reference image recording unit 110, a first landmark detection unit 120, a match calculation unit 130, a boundary line position estimation unit 140, a display control unit 150, and a reference image generation unit 200. , and a second central control unit 101 (see FIG. 2).

医療画像処理装置11においては、画像解析用プロセッサで構成される第2中央制御部101により、プログラム用メモリ内のプログラムが動作することで、撮影画像入力部100、参照画像記録部110、第1ランドマーク検出部120、一致度算出部130、境界線位置推定部140、表示制御部150、及び参照画像生成部200の機能が実現される。 In the medical image processing apparatus 11, the program in the program memory is operated by the second central control unit 101 constituted by an image analysis processor, thereby causing the photographed image input unit 100, the reference image recording unit 110, the first The functions of the landmark detection unit 120, the matching degree calculation unit 130, the boundary line position estimation unit 140, the display control unit 150, and the reference image generation unit 200 are realized.

境界線表示モードの場合、撮影画像は、医療画像処理装置11の撮影画像入力部100に送信される(図2参照)。境界線表示モードの場合、撮影画像入力部100は、第1ランドマーク検出部120に撮影画像を送信する。第1ランドマーク検出部120は、図7に示すように、リアルタイムで撮像された撮影画像121から、被写体の特徴的な構造であるランドマークを検出する(図7ではランドマークを円122で囲んで示す)。ランドマークには、消化管のヒダ123、血管124、腺管構造の構成物に加え、病変125(図7では斜線で示す)、蛍光薬剤で強調された構造などが含まれる。蛍光薬剤は、例えば、ICG(Indocyanine Green)である。これ以降、図が煩雑になることを防ぐため、ランドマークを示す円122については、特に注釈がない限り、いずれかひとつに引き出し線及び符号を付する。 In the boundary line display mode, the captured image is sent to the captured image input unit 100 of the medical image processing apparatus 11 (see FIG. 2). In the boundary line display mode, the captured image input unit 100 transmits the captured image to the first landmark detection unit 120 . As shown in FIG. 7, the first landmark detection unit 120 detects landmarks that are characteristic structures of a subject from a captured image 121 captured in real time (in FIG. 7, the landmarks are surrounded by circles 122). ). Landmarks include folds 123 of the gastrointestinal tract, blood vessels 124, structures of glandular structures, as well as lesions 125 (indicated by hatching in FIG. 7), structures highlighted with a fluorescent agent, and the like. The fluorescent agent is, for example, ICG (Indocyanine Green). Hereinafter, in order to avoid complication of the drawing, any one of the circles 122 indicating landmarks will be given a lead line and a symbol unless otherwise specified.

第1ランドマーク検出部120は、ランドマークを検出した上で、さらに、ランドマークの位置情報を取得する。図7に示すように、検出処理によって、撮影画像121から複数のランドマークが検出された場合、互いのランドマークを区別することができるようにすることが好ましい。例えば、各ランドマークに、区別するための区別用番号を付すことができる。また、図8に示すように、ランドマーク(円122で示す)同士をリンクライン126で結合し、互いのランドマークの位置情報を関連付け、撮影画像121中のランドマークの位置関係を記録することが好ましい。 After detecting the landmark, the first landmark detection unit 120 further acquires the position information of the landmark. As shown in FIG. 7, when a plurality of landmarks are detected from the captured image 121 by the detection process, it is preferable that the landmarks can be distinguished from each other. For example, each landmark can be given a distinguishing number for distinction. Also, as shown in FIG. 8, landmarks (represented by circles 122) are connected by link lines 126, the positional information of the landmarks are associated with each other, and the positional relationship of the landmarks in the captured image 121 is recorded. is preferred.

ランドマークが検出された撮影画像は、一致度算出部130に送信される。一致度算出部130には、ランドマークが検出された撮影画像に加え、参照画像記録部110から、図9に示すような、異常領域112と正常領域113の境界である境界線114(図9では一点鎖線で示す)に付随する境界線情報と、ランドマークに付随するランドマーク情報とが関連付けられた参照画像111が送信される。参照画像は、ユーザーが予め参照画像記録部110に記録した、予め異常領域112と正常領域113の境界に正確な境界線114が設定された医療画像である。境界線情報は、境界線に付随する境界線の位置情報を含む。ランドマーク情報は、ランドマークに付随する、参照画像に関連付けられたランドマークの位置情報と、リンクライン126(図9では図示しない)で結ばれた各ランドマーク同士の位置関係とを含む。境界線情報とランドマーク情報は、境界線と各ランドマークをリンクライン126で結ぶことで関連付けられていることが好ましい。 The photographed image in which the landmark is detected is transmitted to the degree-of-match calculation unit 130 . In addition to the photographed image in which the landmark is detected, the coincidence calculation unit 130 receives the boundary line 114 (FIG. 9) that is the boundary between the abnormal region 112 and the normal region 113 as shown in FIG. A reference image 111 is transmitted in which boundary line information associated with a boundary line (indicated by a dashed line in the figure) and landmark information associated with a landmark are associated with each other. The reference image is a medical image recorded in advance by the user in the reference image recording unit 110 and in which an accurate boundary line 114 is set in advance on the boundary between the abnormal region 112 and the normal region 113 . The boundary information includes boundary position information associated with the boundary. The landmark information includes landmark position information associated with the reference image and the positional relationship between the landmarks connected by the link line 126 (not shown in FIG. 9). The boundary line information and the landmark information are preferably associated by connecting the boundary line and each landmark with a link line 126 .

一致度算出部130は、図10に示すように、参照画像111と、撮影画像121とを比較し、一致度を算出する。一致度は、参照画像111に関連付けられたランドマークが、撮影画像121から検出されたランドマークにどの程度含まれるかを示した値のことである。図10の例では、撮影画像121に含まれるランドマーク(円122a、122b、122c、122d、122e及び122fで場所を示す)と、参照画像111に含まれるランドマーク(円122a、122b、122c、122d、122f及び122gで場所を示す)の一致度を算出する。この場合、参照画像111に含まれる1つのランドマーク(円122g)以外が、撮影画像121に含まれるため、撮影画像121には、参照画像に含まれるランドマークの6つ中5つのランドマークが含まれる。したがって、図10の例では、例えば、一致度が83%(小数点以下を四捨五入)となる。 As shown in FIG. 10, the degree-of-match calculation unit 130 compares the reference image 111 and the captured image 121 to calculate the degree of match. The degree of matching is a value indicating how much the landmarks associated with the reference image 111 are included in the landmarks detected from the captured image 121 . In the example of FIG. 10, landmarks included in the captured image 121 (circles 122a, 122b, 122c, 122d, 122e, and 122f indicate locations) and landmarks included in the reference image 111 (circles 122a, 122b, 122c, 122d, 122f and 122g) are calculated. In this case, since the photographed image 121 includes landmarks other than one landmark (circle 122g) included in the reference image 111, the photographed image 121 includes five of the six landmarks included in the reference image. included. Therefore, in the example of FIG. 10, for example, the degree of matching is 83% (rounded to the nearest whole number).

図11に示すように、一致度が閾値以上の場合、境界線位置推定部140は、撮影画像から検出されたランドマークの位置情報、及び各ランドマークの位置関係と、参照画像に関連付けられたランドマークの位置情報、各ランドマークの位置関係、及び境界線の位置情報とから、参照画像と撮影画像の対応関係を推定する。対応関係は、表示制御部150に送信される。なお、一致度の閾値は任意に設定可能である。参照画像と撮影画像の対応関係とは、参照画像上の各ランドマークが、撮影画像上のいずれのランドマークと一致するかを、参照画像及び撮影画像のランドマークの位置情報から認識し、参照画像のリンクライン126で結ばれたランドマーク同士の位置関係と、撮影画像上のリンクライン126で結ばれたランドマーク同士の位置関係とから、境界線が撮影画像のどの部分に相当するかを推定した関係のことである。 As shown in FIG. 11 , when the degree of matching is equal to or greater than the threshold, the boundary line position estimation unit 140 calculates the positional information of the landmarks detected from the captured image, the positional relationship of each landmark, and the landmarks associated with the reference image. A correspondence relationship between the reference image and the captured image is estimated from the position information of the landmarks, the positional relationship of each landmark, and the positional information of the boundary line. The correspondence is transmitted to display control section 150 . Note that the threshold value of the degree of matching can be arbitrarily set. The correspondence relationship between the reference image and the captured image is defined by recognizing which landmark on the captured image each landmark on the reference image matches from the position information of the landmarks on the reference image and the captured image. From the positional relationship between the landmarks connected by the link lines 126 on the image and the positional relationship between the landmarks connected by the link lines 126 on the captured image, it is possible to determine which part of the captured image the boundary corresponds to. It is an estimated relationship.

表示制御部150は、参照画像111と撮影画像121の対応関係に基づいて、図11に示すような、参照画像111に関連付けられた境界線114を撮影画像に重畳した重畳画像151を生成する。重畳画像151は、リアルタイムに撮影された撮影画像121に、参照画像111に関連付けられた境界線114を重畳した医療画像である。 Based on the correspondence relationship between the reference image 111 and the captured image 121, the display control unit 150 generates a superimposed image 151 in which the boundary line 114 associated with the reference image 111 is superimposed on the captured image as shown in FIG. The superimposed image 151 is a medical image obtained by superimposing the boundary line 114 associated with the reference image 111 on the captured image 121 captured in real time.

上記構成により、参照画像に関連付けられた正確な境界線が、リアルタイムで撮像された撮影画像にランドマークの位置関係を利用して重畳されることで、最も確からしい境界線をリアルタイムに確認することができる。また、参照画像の境界線がリアルタイムの画像とどの程度異なるかを視認できるようになるため、過去の医療画像である参照画像と、現在の医療画像である撮影画像を比較することで過去から現在の間に変化した腫瘍の浸潤範囲の拡大や縮小を確認することができる。 With the above configuration, the most probable boundary line can be confirmed in real time by superimposing the accurate boundary line associated with the reference image on the captured image captured in real time using the positional relationship of the landmarks. can be done. In addition, since it is possible to visually recognize how much the boundary line of the reference image differs from the real-time image, it is possible to compare the reference image, which is a past medical image, with the captured image, which is a current medical image. It is possible to confirm the expansion and contraction of the invasion range of the tumor that changed during the period.

重畳画像は、図12に示すように、撮影画像121と参照画像111とが同じ倍率で撮影されている場合において作成することが好ましい。撮影画像121と参照画像111が同じ倍率で取得される場合、境界線114の重畳を正確に行うことができる。また、粘膜へのマーキングや、局注液の局注を行う等、ESDの処置に伴って撮影画像の場面が変化した際も、ランドマークの位置関係を利用して正確な境界線を表示することができる。 The superimposed image is preferably created when the captured image 121 and the reference image 111 are captured at the same magnification as shown in FIG. When the photographed image 121 and the reference image 111 are obtained at the same magnification, the boundary line 114 can be superimposed accurately. In addition, even when the scene of the captured image changes due to ESD treatment, such as marking on mucous membranes or local injection of fluid, accurate boundary lines are displayed using the positional relationship of landmarks. be able to.

さらに、図13に示すように、撮影画像121は遠景撮影された医療画像である一方で、参照画像111は近景撮影されている医療画像である場合に重畳画像151を作成することが好ましい。この場合、撮影画像121は、参照画像111よりも低倍率で撮影されている。撮影画像121のランドマークと一致する、参照画像111に含まれるランドマーク(円122で示す)の位置関係に基づいて境界線を重畳する位置を推定することで、遠景撮影された撮影画像121に、境界線114を重畳することができる。異常領域と正常領域の境界を定める際、近景撮影された医療画像を用いて粘膜構造や微細血管127を詳細に観察しなければ、境界線114を設定することが難しい場面がある。境界線の設定に近景撮影が必要な場合においては、病変全体を俯瞰できる遠景撮影では、正確な境界線114を判別することはさらに難しくなる。このような場合、近景撮影された医療画像と、遠景撮影された医療画像の両方で識別可能なランドマークがあれば、境界線が判別できない距離の遠景撮影でリアルタイムに撮影画像を取得していても、境界線とランドマークの対応関係を利用して境界線114を推定し、遠景撮影された撮影画像121で境界線を表示することが可能になる。 Furthermore, as shown in FIG. 13, it is preferable to create a superimposed image 151 when the captured image 121 is a medical image captured in a distant view and the reference image 111 is a medical image captured in a close view. In this case, the captured image 121 is captured at a lower magnification than the reference image 111 . By estimating the position where the boundary line is superimposed based on the positional relationship of the landmarks (indicated by circles 122) included in the reference image 111 that match the landmarks of the captured image 121, , the boundary 114 can be superimposed. When defining the boundary between the abnormal region and the normal region, it may be difficult to set the boundary line 114 unless the mucosal structure and microvessels 127 are observed in detail using a medical image photographed in the foreground. In the case where close-up photography is required to set the boundary line, it becomes more difficult to accurately determine the boundary line 114 in distant-view photography that allows a bird's-eye view of the entire lesion. In such a case, if there are landmarks that can be identified in both the medical image taken in the foreground and the medical image taken in the background, it is possible to acquire images in real time by taking a distant image at a distance where the boundary line cannot be distinguished. Also, it is possible to estimate the boundary line 114 by using the correspondence relationship between the boundary line and the landmark, and display the boundary line in the photographed image 121 photographed in the background.

さらに、図14に示すように、撮影画像121が、異常領域112の一部分や微細血管127等の構造物を含むように撮影された医療画像であって、参照画像111が、異常領域112の全体を含む医療画像である場合に、参照画像111に関連付けられた境界線の一部分を、撮影画像121に重畳した重畳画像151を作成することが好ましい。この場合、撮影画像121は、参照画像111よりも高倍率で撮影されている。近景撮影では、少しのブレが撮影画像121に大きく影響される。ブレの影響が大きくなる近景撮影をリアルタイムで行う場合に重畳画像151を生成することで、術者等のユーザーに正確な境界線を提示することができる。また、参照画像111を取得してから撮影画像121を取得する間に変化した腫瘍の範囲を簡単に確認することができる。 Furthermore, as shown in FIG. 14, the captured image 121 is a medical image captured so as to include a part of the abnormal region 112 and structures such as microvessels 127, and the reference image 111 is the entire abnormal region 112. , it is preferable to create a superimposed image 151 in which a portion of the boundary associated with the reference image 111 is superimposed on the captured image 121 . In this case, the captured image 121 is captured at a higher magnification than the reference image 111 . In close-up photography, even a slight blur greatly affects the captured image 121 . By generating the superimposed image 151 when performing real-time close-up photography in which the influence of blurring is large, it is possible to present an accurate boundary line to a user such as an operator. In addition, it is possible to easily check the range of the tumor that has changed during the period from acquisition of the reference image 111 to acquisition of the photographed image 121 .

参照画像は、図15に示すように、異常領域の一部分が近景撮影された医療画像である拡大医療画像202、203を繋ぎ合わせて、1枚の参照画像111として生成されていることが好ましい。拡大医療画像は、それぞれ、境界線114及び境界線114に付随する情報、並びに、ランドマーク(円122h、122i、122j、122k、122l、122m及び122nで示す)及びランドマークに付随する情報が、後述する方法で関連付け部260により関連付けられている。拡大医療画像は、異常領域と正常領域の境界を見分けることができる倍率で近景撮影され、かつ、ピンボケやハレーションがない、最適な条件で撮影された静止画像である。拡大医療画像を繋ぎ合わせて参照画像を生成することで、予め得た高精細で正確な境界線を撮影画像に重畳することができる。 As shown in FIG. 15, the reference image is preferably generated as one reference image 111 by joining enlarged medical images 202 and 203, which are medical images in which a part of the abnormal region is photographed in the foreground. The magnified medical image includes a boundary line 114 and information associated with the boundary line 114, and landmarks (indicated by circles 122h, 122i, 122j, 122k, 122l, 122m and 122n) and information associated with the landmarks, respectively, They are associated by the associating unit 260 by a method to be described later. A magnified medical image is a still image captured under optimal conditions, such as a close-up shot at a magnification that allows the boundary between an abnormal area and a normal area to be distinguished, and no out-of-focus or halation. By generating a reference image by joining magnified medical images, a high-definition and accurate boundary line obtained in advance can be superimposed on the captured image.

拡大医療画像を繋ぎ合わせて参照画像を生成する例について説明する。拡大医療画像202、203の繋ぎ合わせは、図16に示す、参照画像生成部200の拡大医療画像入力部201にそれぞれの拡大医療画像202、203が入力され、次いで、拡大医療画像結合部210に送信されて行われる。拡大医療画像は、後述する拡大撮影画像でもよく、内視鏡システム10の外部から入力された医療画像でもよい。参照画像生成部200は、拡大医療画像入力部201、拡大医療画像結合部210、後述する異常識別部220、境界線設定部230、第2ランドマーク検出部250、及び関連付け部260を含む。 An example of generating a reference image by joining enlarged medical images will be described. The magnified medical images 202 and 203 are joined together by inputting the magnified medical images 202 and 203 into the magnified medical image input unit 201 of the reference image generation unit 200 shown in FIG. Sent and done. The magnified medical image may be a magnified photographed image, which will be described later, or a medical image input from outside the endoscope system 10 . The reference image generation unit 200 includes an enlarged medical image input unit 201, an enlarged medical image combining unit 210, an abnormality identifying unit 220 (to be described later), a boundary line setting unit 230, a second landmark detecting unit 250, and an associating unit 260.

図17に示すように、参照画像111が、第1拡大医療画像204と、第1拡大医療画像204と異なる位置で撮影された第2拡大医療画像205からなる場合について例示する。この場合、まず、拡大医療画像入力部201が、拡大医療画像結合部210に第1拡大医療画像204と第2拡大医療画像205を送信する。拡大医療画像結合部210は、第1拡大医療画像204に関連付けられたランドマーク情報(ランドマークは円122h、122i、122j、122k及び122lで示す)及び境界線情報(境界線114は一点鎖線で示す)と、第2拡大医療画像に関連付けられたランドマーク情報(ランドマークは円122j、122j、122k、122m及び122nで示す)及び境界線情報(境界線114は一点鎖線で示す)とから、共通関係を認識し、共通関係に基づいて、第1拡大医療画像204と第2拡大医療画像205を繋ぎ合わせて参照画像を生成する。 As shown in FIG. 17, the case where the reference image 111 is composed of a first enlarged medical image 204 and a second enlarged medical image 205 captured at a position different from the first enlarged medical image 204 is illustrated. In this case, first, the enlarged medical image input unit 201 transmits the first enlarged medical image 204 and the second enlarged medical image 205 to the enlarged medical image combining unit 210 . The magnified medical image combiner 210 combines landmark information (landmarks are indicated by circles 122h, 122i, 122j, 122k, and 122l) associated with the first magnified medical image 204 and boundary line information (the boundary line 114 is indicated by a dashed line). ) and landmark information associated with the second magnified medical image (landmarks are indicated by circles 122j, 122j, 122k, 122m and 122n) and boundary information (boundary 114 is indicated by a dashed line), A common relationship is recognized, and based on the common relationship, the first enlarged medical image 204 and the second enlarged medical image 205 are joined together to generate a reference image.

共通関係とは、第1拡大医療画像204と第2拡大医療画像205にそれぞれ関連付けられたランドマーク情報(ランドマーク)及び境界線情報(境界線)同士が、互いに共通(一致)するかどうかを判定した関係のことを指す。ランドマーク情報は、ランドマークの位置情報及びランドマークの位置関係を含む。境界線情報は、境界線の位置情報を含む。 The common relationship refers to whether or not the landmark information (landmark) and boundary line information (boundary line) associated with the first enlarged medical image 204 and the second enlarged medical image 205 are common (coincident) with each other. Refers to a determined relationship. Landmark information includes landmark position information and landmark positional relationships. The boundary line information includes boundary position information.

図17に示す具体例では、円112i及び円112jで示す2つのランドマークに係るランドマーク情報と、境界線情報との共通関係に基づいて、参照画像111が生成されている。なお、拡大医療画像を結合させるためには、それぞれの拡大医療画像のうち、少なくとも2つ以上のランドマークが共通していることが好ましい。 In the specific example shown in FIG. 17, the reference image 111 is generated based on the common relationship between the landmark information related to the two landmarks indicated by circles 112i and 112j and the boundary line information. In order to combine the magnified medical images, it is preferable that at least two or more landmarks are common among the magnified medical images.

なお、上記の具体例では参照画像が第1拡大医療画像204と第2拡大医療画像205にからなる場合について例示したが、拡大医療画像が3つ以上である場合、すなわち、第1拡大医療画像から第N拡大医療画像を繋ぎ合わせる場合にも、各拡大医療画像間の共通関係を認識することによって適用可能である。上記構成により、ランドマークの情報及び境界線の情報が関連付けられた複数の拡大医療画像を繋ぎ合わせて参照画像を生成することができる。これにより、境界線が精緻に設定された参照画像を基にして、撮影画像に重畳する境界線の精度を向上させることができる。また、1枚の参照画像に関連付けられるランドマークの数が増えるため、ランドマークの位置関係から参照画像と撮影画像との対応関係を、より高い精度で推定することができる。 In the above specific example, the case where the reference image consists of the first enlarged medical image 204 and the second enlarged medical image 205 was illustrated. It can also be applied to the case of joining together the magnified medical images from 1 to N by recognizing the common relationship between each magnified medical image. With the above configuration, a reference image can be generated by joining a plurality of enlarged medical images associated with landmark information and boundary line information. As a result, it is possible to improve the accuracy of the boundary lines superimposed on the captured image based on the reference image in which the boundary lines are precisely set. Also, since the number of landmarks associated with one reference image increases, the correspondence relationship between the reference image and the captured image can be estimated with higher accuracy from the positional relationship of the landmarks.

参照画像に関連付けられる境界線は、異常領域と正常領域が自動的に識別されて設定されることが好ましい。この場合、拡大医療画像入力部201から異常識別部220(図16参照)に拡大医療画像が送信される。図18に示すように、異常識別部220が、拡大医療画像206の異常領域112と正常領域113を識別し、境界線設定部230(図16参照)が、境界線114を設定し、さらに、境界線の位置情報を取得する。次いで、第2ランドマーク検出部250が(図16参照)、拡大医療画像206からランドマーク(円122で示す)を検出し、さらに、ランドマークの位置情報とランドマークの位置関係を取得する。関連付け部260(図16参照)は、境界線設定部230から境界線情報(境界線の位置情報)を受信し、さらに、第2ランドマーク検出部250からランドマーク情報(ランドマークの位置情報及びランドマークの位置関係)を受信する。関連付け部260は、拡大医療画像、境界線の情報、及びランドマークの情報を関連付け、拡大医療画像を参照画像とする。参照画像は、参照画像生成部200から、参照画像記録部110に送信されて記録される。境界線の情報、及びランドマークの情報が関連付けられた拡大医療画像は、拡大医療画像結合部210に送信され、他の拡大医療画像と結合するために用いられてもよい。上記構成により、自動的に設定された境界線の情報を、撮影画像に重畳するために用いることができる。 Boundaries associated with the reference image are preferably set by automatically identifying abnormal and normal regions. In this case, the enlarged medical image is transmitted from the enlarged medical image input unit 201 to the abnormality identifying unit 220 (see FIG. 16). As shown in FIG. 18, the abnormality identification unit 220 identifies the abnormal region 112 and the normal region 113 in the enlarged medical image 206, the boundary line setting unit 230 (see FIG. 16) sets the boundary line 114, and Get the location information of the boundary. Next, the second landmark detection unit 250 (see FIG. 16) detects landmarks (indicated by circles 122) from the magnified medical image 206, and further acquires positional information of the landmarks and the positional relationship of the landmarks. The associating unit 260 (see FIG. 16) receives boundary line information (boundary line position information) from the boundary line setting unit 230, and further receives landmark information (landmark position information and positional relationship of landmarks). The association unit 260 associates the magnified medical image, boundary information, and landmark information, and uses the magnified medical image as a reference image. The reference image is transmitted from the reference image generation unit 200 to the reference image recording unit 110 and recorded. The magnified medical image associated with the boundary line information and the landmark information may be sent to the magnified medical image combiner 210 and used for merging with other magnified medical images. With the above configuration, the automatically set boundary line information can be used to superimpose the captured image.

異常識別部220は、機械学習を用いて異常領域及び正常領域が予め識別された教師用医療画像データの学習がなされた、異常領域及び正常領域の識別用の学習済みモデルであることが好ましい。教師用医療画像データにおける、異常領域及び正常領域の情報の付与は、熟練した医師が行ってもよく、医療画像処理装置11以外の装置が自動的に行ってもよい。学習済みモデルを生成する機械学習には深層学習を用いることが好ましく、例えば、多層畳み込みニューラルネットワークを用いることが好ましい。機械学習には、深層学習に加え、決定木、サポートベクトルマシン、ランダムフォレスト、回帰分析、教師あり学習、半教師なし学習、教師なし学習、強化学習、深層強化学習、ニューラルネットワークを用いた学習、敵対的生成ネットワーク等が含まれる。 The abnormality identifying unit 220 is preferably a trained model for identifying abnormal regions and normal regions that has been trained using medical image data for teachers in which abnormal regions and normal regions have been previously identified using machine learning. Information on abnormal regions and normal regions in the teacher medical image data may be added by a skilled doctor or automatically by a device other than the medical image processing device 11 . It is preferable to use deep learning for machine learning to generate the trained model, for example, it is preferable to use a multi-layer convolutional neural network. In addition to deep learning, machine learning includes decision trees, support vector machines, random forests, regression analysis, supervised learning, semi-unsupervised learning, unsupervised learning, reinforcement learning, deep reinforcement learning, learning using neural networks, Includes generative adversarial networks and the like.

また、参照画像に関連付けられる境界線は、ユーザー操作によって設定されることが好ましい。この場合、図19に示すように、参照画像生成部200の、異常識別部220及び境界線設定部230を、境界線入力部240としてもよい。境界線をユーザー操作によって設定する場合、医師等のユーザーが異常領域112と正常領域113の境界を判別し、境界線を設定する。例えば、図20に示すように、タブレット241に表示された拡大医療画像206に対して、タッチペン242で境界線114を引き、境界線入力ボタン(図示しない)や音声を介して境界線入力指示を行うことで境界線を設定してもよい。境界線入力指示がなされた場合、境界線の位置情報を自動的に取得する。上記構成により、医師が鑑別した境界線を、撮影画像に重畳するために用いることができる。この場合も、第2ランドマーク検出部250が、拡大医療画像のランドマークを検出してランドマーク情報を取得し、さらに、関連付け部260が、境界線入力部240から境界線情報を受信し、第2ランドマーク検出部250からランドマーク情報を受信して、拡大医療画像、境界線情報、及びランドマークの情報を関連付け、拡大医療画像を参照画像とすることが好ましい。 Also, it is preferable that the boundary associated with the reference image is set by a user operation. In this case, as shown in FIG. 19 , the abnormality identification section 220 and the boundary line setting section 230 of the reference image generation section 200 may be used as the boundary line input section 240 . When the boundary line is set by user operation, a user such as a doctor determines the boundary between the abnormal region 112 and the normal region 113 and sets the boundary line. For example, as shown in FIG. 20, a boundary line 114 is drawn with a touch pen 242 on an enlarged medical image 206 displayed on a tablet 241, and a boundary line input instruction is given via a boundary line input button (not shown) or voice. Boundaries may be set by doing. When a boundary line input instruction is given, the position information of the boundary line is automatically obtained. With the above configuration, the boundary line identified by the doctor can be used to superimpose the captured image. Also in this case, the second landmark detection unit 250 detects landmarks in the enlarged medical image to acquire landmark information, and the association unit 260 receives the boundary line information from the boundary line input unit 240, It is preferable to receive the landmark information from the second landmark detection unit 250, associate the enlarged medical image, the boundary line information, and the landmark information, and use the enlarged medical image as the reference image.

図21に示すように、参照画像111は、被写体を特殊光で照明して撮影された医療画像であり、撮影画像121は、被写体を通常光で照明して撮影された医療画像であることが好ましい。特殊光は血管や腺管構造を見やすくする照明光であり、腫瘍が有する特徴的な血管の配列やピットパターンの認識が容易になる。そのため、特殊光を用いて取得した医療画像は、異常領域と正常領域の境界を判別しやすい。上記の理由から、特殊光を用いて取得した医療画像を参照画像とすることが好ましい。一方、通常光は自然な色合いの光であり、ESDの処置を行う際は通常光を用いて被写体を照明する。そのため、撮影画像は、通常光を用いて取得した医療画像であることが好ましい。上記構成により、通常光を用いて取得した撮影画像に、特殊光を用いて異常領域と正常領域の境界が正確に判別された参照画像の境界線を重畳することができる。 As shown in FIG. 21, the reference image 111 is a medical image captured by illuminating the subject with special light, and the captured image 121 is a medical image captured by illuminating the subject with normal light. preferable. The special light is illumination light that makes blood vessels and glandular structures easier to see, and makes it easier to recognize the characteristic blood vessel arrangement and pit pattern that tumors have. Therefore, it is easy to determine the boundary between the abnormal region and the normal region in the medical image acquired using the special light. For the above reasons, it is preferable to use a medical image acquired using special light as a reference image. On the other hand, the normal light has a natural color tone, and the normal light is used to illuminate the subject when performing ESD treatment. Therefore, the captured image is preferably a medical image acquired using normal light. With the above configuration, the boundary line of the reference image in which the boundary between the abnormal region and the normal region is accurately determined using special light can be superimposed on the photographed image obtained using normal light.

参照画像に関連付けられた境界線を撮影画像に重畳する際、第1ランドマーク検出部120が、撮影画像からランドマークを検出する処理速度によって、ランドマークを検出した撮影画像と、境界線を重畳する撮影画像が同一である場合と、異なる場合がある。ランドマークを検出する処理速度が高速であるプロセッサを用い、ランドマークを検出する撮影画像と、境界線を重畳する撮影画像とが、同一の時刻に撮影された撮影画像であることが好ましい。以下、具体的に説明する。図22に例示するように、時系列順に取得される撮影画像群160が、時刻t-2、時刻t-1、及び時刻tの順番に取得されている場合、時刻tに取得された撮影画像を、撮影画像A161とする。ランドマークを検出する処理速度が高速である場合は、ランドマークを検出した撮影画像121と、参照画像111に関連付けられた境界線を重畳する撮影画像との両方が、撮影画像A161となる。この場合は、高い精度で、リアルタイムに正確な境界線を重畳した重畳画像を得ることができる。 When superimposing the boundary associated with the reference image on the captured image, the first landmark detection unit 120 superimposes the boundary on the captured image in which the landmark is detected according to the processing speed for detecting landmarks from the captured image. The captured images may or may not be the same. It is preferable that a processor having a high processing speed for detecting landmarks is used, and the photographed image for detecting the landmarks and the photographed image for superimposing the boundary line are photographed images photographed at the same time. A specific description will be given below. As illustrated in FIG. 22, when the group of captured images 160 acquired in chronological order is acquired in order of time t−2, time t−1, and time t, the captured image acquired at time t is taken as a photographed image A161. When the landmark detection processing speed is high, both the captured image 121 in which the landmark is detected and the captured image on which the boundary associated with the reference image 111 is superimposed become the captured image A161. In this case, a superimposed image in which accurate boundary lines are superimposed in real time can be obtained with high accuracy.

一方、ランドマークを検出する処理速度が低速であるプロセッサを用い、ランドマークを検出する撮影画像と、境界線を重畳する撮影画像とが、異なる時刻に撮影された撮影画像であってもよい。具体的に説明すると、図23に例示するように、時系列順に取得される撮影画像群160が、時刻t-2、時刻t-1、時刻t、及び時刻t+1の順番に時系列に取得されている場合、時刻tに取得された撮影画像を、撮影画像A161とし、時刻t+1に取得された撮影画像を、撮影画像B162とする。ランドマークを検出する処理速度が低速である場合は、ランドマークを検出した撮影画像121は、撮影画像A161となり、参照画像111に関連付けられた境界線を重畳する撮影画像は、撮影画像B162となる。この場合は、低速のプロセッサを用いても、ある程度高い精度を担保しつつ、ほぼリアルタイムに正確な境界線を重畳した重畳画像を得ることができる。 On the other hand, a processor whose processing speed for detecting landmarks is slow may be used, and the captured image for detecting landmarks and the captured image for superimposing boundaries may be captured images captured at different times. Specifically, as illustrated in FIG. 23, a captured image group 160 acquired in chronological order is acquired in order of time t−2, time t−1, time t, and time t+1. If so, the captured image acquired at time t is defined as captured image A161, and the captured image acquired at time t+1 is defined as captured image B162. When the landmark detection processing speed is low, the captured image 121 in which the landmark is detected becomes the captured image A161, and the captured image on which the boundary associated with the reference image 111 is superimposed becomes the captured image B162. . In this case, even if a low-speed processor is used, it is possible to obtain a superimposed image in which accurate boundary lines are superimposed almost in real time while ensuring a certain degree of accuracy.

なお、図21及び図22では、時刻t-2、時刻t-1、時刻t、及び時刻t+1に1フレームの撮影画像が取得されているが、各時刻の間で複数フレームの撮影画像が取得されていてもよい。例えば、時刻tと時刻t+1の間に数フレームの差があってもよい。 Note that in FIGS. 21 and 22, one frame of captured image is acquired at time t−2, time t−1, time t, and time t+1, but multiple frames of captured image are acquired between each time. may have been For example, there may be a difference of several frames between time t and time t+1.

境界線表示モードにおいて、撮影画像と参照画像のランドマークの一致度の算出は、終了指示があるまで継続される。境界線表示モードでは、リアルタイムに取得される撮影画像に対し、逐次ランドマークの検出、及び参照画像との一致度の算出を行い、一致度が閾値以上の場合は撮影画像に境界線が重畳される。この境界線を表示する一連の動作は、例えば、ESDにおいて粘膜へのマーキングや切開などが終了した場合、ユーザーインターフェース19を介して終了指示がなされた場合に終了する。また、モード切替スイッチ12fによってモードの変更がなされた場合も終了指示とみなし、一致度の算出を終了する。 In the boundary line display mode, the calculation of the matching degree of the landmarks in the captured image and the reference image is continued until an end instruction is given. In the boundary line display mode, landmarks are sequentially detected and the degree of matching with the reference image is calculated for the photographed image acquired in real time. be. A series of operations for displaying the boundary line ends, for example, when marking or incising the mucous membrane in ESD is completed, or when an end instruction is given via the user interface 19 . In addition, even when the mode is changed by the mode changeover switch 12f, it is regarded as an end instruction, and the calculation of the degree of coincidence is ended.

境界線表示モードの一連の流れを、図24のフローチャートに示す。まず、撮影画像取得部60が取得した撮影画像が、撮影画像入力部100に入力される(ST101)。次に、第1ランドマーク検出部120が、撮影画像のランドマークを検出し(ST102)、一致度算出部130が、参照画像に関連付けられたランドマークが撮影画像から検出されたランドマークにどの程度含まれるかを示す値である一致度を算出する(ST103)。ここで、一致度が閾値未満である場合は、終了指示を行うかどうかの選択に移行する。一方、一致度が閾値以上である場合は(ST104)、参照画像に関連付けられた境界線が、撮影画像のどの位置に相当するかを推定した対応関係を推定し(ST105)、境界線を撮影画像に重畳した重畳画像を生成する(ST106)。境界線を重畳した重畳画像の生成を終了する場合、終了指示を出せば(ST07)、境界線表示モードが終了する。 A series of flow of the border display mode is shown in the flow chart of FIG. First, the captured image acquired by the captured image acquisition section 60 is input to the captured image input section 100 (ST101). Next, the first landmark detection unit 120 detects landmarks in the captured image (ST102), and the degree-of-match calculation unit 130 determines how the landmarks associated with the reference image match the landmarks detected from the captured image. A degree of coincidence, which is a value indicating how much is included, is calculated (ST103). Here, if the degree of matching is less than the threshold, the process shifts to the selection of whether or not to issue an end instruction. On the other hand, if the degree of matching is equal to or greater than the threshold (ST104), a correspondence relationship is estimated to which position in the captured image the boundary associated with the reference image corresponds to (ST105), and the boundary is captured. A superimposed image superimposed on the image is generated (ST106). When the generation of the superimposed image on which the boundary line is superimposed is to be terminated, the boundary line display mode is terminated by issuing an end instruction (ST07).

表示制御部150は、図25に示すような、表示用画像170を生成し、重畳画像151を表示用画像170の第1表示用区画171に、参照画像111を第2表示用区画172に表示するようにすることが好ましい。なお、第1表示用区画171及び第2表示用区画172の表示方法はこれに限られない。例えば、横並びではなく、縦並びにしてもよい。また、内視鏡システム10に第1ディスプレイ(図示しない)と、第1ディスプレイとは異なる第2ディスプレイ(図示しない)とを含むようにして、重畳画像151と参照画像111を、それぞれ異なるディスプレイに表示してもよい。 The display control unit 150 generates a display image 170 as shown in FIG. 25, displays the superimposed image 151 in the first display section 171 of the display image 170, and displays the reference image 111 in the second display section 172. It is preferable to Note that the display method of the first display section 171 and the second display section 172 is not limited to this. For example, they may be arranged vertically instead of horizontally. Also, the endoscope system 10 includes a first display (not shown) and a second display (not shown) different from the first display, so that the superimposed image 151 and the reference image 111 are displayed on different displays. may

以降、撮影画像から参照画像を生成する参照画像生成モードについて説明する。拡大医療画像から参照画像を生成する方法を上記したが(図18参照)、参照画像生成モードの場合は、特に、リアルタイムに取得した撮影画像を、異常領域と正常領域の境界が判別できるよう近景撮影した拡大撮影画像として、拡大医療画像から参照画像を生成する。 A reference image generation mode for generating a reference image from a captured image will be described below. The method of generating a reference image from a magnified medical image has been described above (see FIG. 18). A reference image is generated from the magnified medical image as the magnified photographed image.

参照画像生成モードの場合、図26に示すように、撮影画像入力部100は、入力された医療画像(撮影画像)を、参照画像生成部200の、拡大医療画像入力部201に送信する。拡大撮影画像は、静止画像取得指示スイッチ12hを用いて取得された静止画像であることが好ましい。以降は、拡大医療画像から参照画像を生成する方法と同様である(図18参照)。下記、説明する。拡大医療画像入力部201は、異常識別部220に拡大撮影画像を送信する。図27に示すように、異常識別部220が、拡大撮影画像208の異常領域112と正常領域113を識別し、境界線設定部230が、境界線114を設定し、境界線の位置情報を取得する。次に、第2ランドマーク検出部250が、拡大撮影画像208からランドマーク(円122で示す)を検出し、ランドマークの位置情報とランドマークの位置関係を取得する。関連付け部260は、境界線設定部230から境界線情報(境界線の位置情報)を受信し、さらに、第2ランドマーク検出部250からランドマーク情報(ランドマークの位置情報及びランドマークの位置関係)を受信する。関連付け部260は、拡大撮影画像、境界線の情報、及びランドマークの情報を関連付け、拡大撮影画像208を参照画像とする。拡大撮影画像208から生成した参照画像は、参照画像生成部200から、参照画像記録部110に送信されて記録される。 In the reference image generation mode, as shown in FIG. 26 , the captured image input unit 100 transmits the input medical image (captured image) to the enlarged medical image input unit 201 of the reference image generation unit 200 . The enlarged photographed image is preferably a still image acquired using the still image acquisition instruction switch 12h. The subsequent steps are the same as the method for generating a reference image from an enlarged medical image (see FIG. 18). This is explained below. The magnified medical image input unit 201 transmits the magnified captured image to the abnormality identification unit 220 . As shown in FIG. 27, the abnormality identification unit 220 identifies the abnormal region 112 and the normal region 113 in the enlarged photographed image 208, the boundary line setting unit 230 sets the boundary line 114, and acquires the position information of the boundary line. do. Next, the second landmark detection unit 250 detects landmarks (indicated by circles 122) from the magnified photographed image 208, and acquires the positional information of the landmarks and the positional relationship of the landmarks. The association unit 260 receives boundary line information (boundary line position information) from the boundary line setting unit 230, and further receives landmark information (landmark position information and landmark positional relationship) from the second landmark detection unit 250. ). The associating unit 260 associates the magnified captured image, the boundary line information, and the landmark information, and uses the magnified captured image 208 as a reference image. A reference image generated from the enlarged photographed image 208 is transmitted from the reference image generation unit 200 to the reference image recording unit 110 and recorded.

また、境界線情報及びランドマーク情報が関連付けられた拡大撮影画像208を、拡大医療画像結合部210に送信し、新たな参照画像として境界線情報及びランドマーク情報が関連付けられた、他の拡大撮影画像と結合するために用いてもよい。上記構成により、撮影画像から参照画像を新たに生成し、新たに生成された参照画像の境界線を、撮影画像に重畳するために用いることができる。 In addition, the enlarged photographed image 208 associated with the boundary line information and the landmark information is transmitted to the enlarged medical image combining unit 210, and another enlarged photographed image associated with the boundary line information and the landmark information is sent as a new reference image. May be used to combine images. With the above configuration, it is possible to generate a new reference image from the captured image, and use the boundary line of the newly generated reference image to superimpose on the captured image.

以降、撮影画像に参照画像に関連付けられた境界線を重畳した重畳画像を表示した状態で、撮影画像から境界線を設定し、境界線を更新する境界線更新モードについて説明する。境界線更新モードは、重畳画像に表示された境界線と、重畳画像を観察したユーザーが考える境界線が異なる際に、ユーザー指示により境界線を更新できるモードである。このモードは、例えば、一度内視鏡検査を行って参照画像を取得した日後、改めて内視鏡検査を行い、参照画像を取得した部位と同じ部位で撮影画像を取得した時に、腫瘍の浸潤範囲が拡大している場合であって、新たに更新境界線を得たい場合等に有効である。 Hereinafter, a description will be given of a boundary line update mode in which a boundary line is set from a captured image and the boundary line is updated while a superimposed image in which a boundary line associated with a reference image is superimposed on a captured image is displayed. The boundary line update mode is a mode in which when the boundary line displayed in the superimposed image differs from the boundary line that the user who observes the superimposed image thinks, the boundary line can be updated according to the user's instruction. In this mode, for example, after performing an endoscopic examination once and obtaining a reference image, another endoscopic examination is performed, and when an image is obtained at the same site as the reference image, the tumor infiltration range is expanded and it is effective to obtain a new update boundary line.

境界線更新モードでは、まず、境界線表示モードと同様の流れで(図23のフローチャート参照)、参照画像に関連付けられた境界線を撮影画像に重畳した重畳画像を生成する。このとき、境界線を更新したい任意のタイミングで、ユーザーインターフェース19を介して、更新指示を医療画像処理装置11に送信する。図28は、医療画像処理装置11内の機能を示すブロック図であって、図29及び図30は、画像図を用いた境界線更新モードの説明図である。更新指示が入ると、図28に示すように、撮影画像入力部100は、図29に示す、境界線114を重畳した重畳画像151を生成するために用いた撮影画像121(図29では、ランドマークを検出した撮影画像と、境界線を重畳する撮影画像は同じ撮影画像とする。)を、拡大撮影画像209として、参照画像生成部200の拡大医療画像入力部201に送信する。次に、図30に示すように、異常識別部220が、拡大撮影画像209の異常領域112と正常領域113を識別し、境界線設定部230が、更新境界線115(二点鎖線で示す)を設定し、更新境界線の位置情報を取得する。次に、表示制御部150は、境界線設定部230から更新境界線の位置情報を受信し、境界線114に加えて、更新境界線115を撮影画像に重畳して更新境界線重畳画像270を生成して、更新境界線重畳画像270をディスプレイ17に表示する。 In the boundary line update mode, first, in the same flow as in the boundary line display mode (see the flowchart in FIG. 23), a superimposed image is generated by superimposing the boundary line associated with the reference image on the captured image. At this time, an update instruction is transmitted to the medical image processing apparatus 11 via the user interface 19 at an arbitrary timing when the boundary line is to be updated. FIG. 28 is a block diagram showing functions within the medical image processing apparatus 11, and FIGS. 29 and 30 are explanatory diagrams of the boundary update mode using image diagrams. When an update instruction is input, as shown in FIG. 28, the photographed image input unit 100 changes the photographed image 121 (in FIG. 29, land The photographed image in which the mark is detected and the photographed image in which the boundary line is superimposed are assumed to be the same photographed image.) are transmitted to the enlarged medical image input unit 201 of the reference image generation unit 200 as the enlarged photographed image 209 . Next, as shown in FIG. 30, the abnormality identification unit 220 identifies the abnormal area 112 and the normal area 113 in the enlarged photographed image 209, and the boundary line setting unit 230 sets the updated boundary line 115 (indicated by a two-dot chain line). to get the location of the update boundary. Next, the display control unit 150 receives the position information of the updated boundary line from the boundary line setting unit 230, and in addition to the boundary line 114, superimposes the updated boundary line 115 on the captured image to generate an updated boundary line superimposed image 270. and display the updated boundary line superimposed image 270 on the display 17 .

ユーザーは、更新境界線重畳画像270を見て、更新境界線を、撮影画像に関連付ける新たな境界線として決定してもよいと判断した場合、ユーザーインターフェース19を介して更新決定指示を医療画像処理装置11に送信する。更新決定指示がなされた場合、表示制御部150は、図31に示すように、更新境界線115(二点鎖線で示す)を決定更新境界線116(点線で示す)として、撮影画像121に重畳された境界線114を更新し、決定更新境界線重畳画像271を生成し、ディスプレイ17に表示する。 When the user sees the updated boundary line superimposed image 270 and determines that the updated boundary line may be determined as a new boundary line to be associated with the captured image, the user issues an update determination instruction via the user interface 19 to medical image processing. Send to device 11 . When an update decision instruction is issued, the display control unit 150 superimposes the update boundary line 115 (indicated by a two-dot chain line) on the captured image 121 as a determined update boundary line 116 (indicated by a dotted line) as shown in FIG. The determined boundary line 114 is updated, and a determined updated boundary line superimposed image 271 is generated and displayed on the display 17 .

また、更新決定指示がなされた場合に、更新境界線を設定した拡大撮影画像を、参照画像としてもよい。更新決定指示がなされると、第2ランドマーク検出部250が、拡大撮影画像符号からランドマーク符号を検出し、ランドマークの位置情報とランドマークの位置関係を取得してもよい。関連付け部260は、境界線設定部230から更新境界線の位置情報を受信し、さらに、第2ランドマーク検出部250からランドマーク情報を受信する。関連付け部260は、拡大撮影画像、更新境界線の情報、及びランドマークの情報を関連付け、拡大撮影画像を参照画像とする。拡大撮影画像から生成した参照画像は、参照画像生成部200から、参照画像記録部110に送信されて記録される。 Further, when an update determination instruction is issued, an enlarged photographed image in which an update boundary line is set may be used as a reference image. When an update decision instruction is issued, the second landmark detection unit 250 may detect the landmark code from the magnified photographed image code, and acquire the positional information of the landmark and the positional relationship of the landmark. The association unit 260 receives the updated boundary line position information from the boundary line setting unit 230 and further receives the landmark information from the second landmark detection unit 250 . The associating unit 260 associates the magnified captured image, the updated boundary line information, and the landmark information, and uses the magnified captured image as a reference image. The reference image generated from the enlarged photographed image is transmitted from the reference image generation unit 200 to the reference image recording unit 110 and recorded.

また、境界線情報及びランドマーク情報が関連付けられた拡大撮影画像を拡大医療画像結合部210に送信し、他の拡大撮影画像と結合するために用いてもよい。上記構成により、撮影画像から参照画像を新たに生成し、新たに生成された参照画像の更新境界線を、境界線として、撮影画像に重畳するために用いることができる。 Alternatively, the magnified photographed image associated with the boundary line information and the landmark information may be transmitted to the magnified medical image combining unit 210 and used for merging with other magnified photographed images. With the above configuration, a reference image can be newly generated from a captured image, and the updated boundary line of the newly generated reference image can be used as a boundary line to be superimposed on the captured image.

上記実施形態においては、内視鏡12は軟性内視鏡を用いているが、外科手術等に使用する硬性内視鏡(腹腔鏡・硬性鏡)を用いる場合も本発明は好適である。軟性内視鏡を用いる場合、観察対象を管腔臓器の内腔側から見た表層粘膜の撮影画像を取得する。硬性鏡を用いる場合、観察対象を漿膜側から見た撮影画像を取得する。 Although a flexible endoscope is used as the endoscope 12 in the above-described embodiment, the present invention is also suitable when a rigid endoscope (laparoscope/rigid scope) used for surgical operations or the like is used. When a flexible endoscope is used, a photographed image of the superficial mucosa of the observation target viewed from the lumen side of the hollow organ is acquired. When using a rigid endoscope, a photographed image of the observation target viewed from the serosal side is acquired.

内視鏡として硬性鏡を用いる場合、図32に示すように、内視鏡システム300は、医療画像処理装置311、内視鏡312、受光部330、光源装置314、プロセッサ装置315、ディスプレイ317及びユーザーインターフェース319を備える。光源装置314からの照明光は、ライトガイド323を介して内視鏡312に入り、腹腔内の観察対象を照明する。 When a rigid endoscope is used as an endoscope, as shown in FIG. A user interface 319 is provided. Illumination light from the light source device 314 enters the endoscope 312 through the light guide 323 and illuminates the observation target inside the abdominal cavity.

受光部330は、図33に示すように、内視鏡312からの光を分光するダイクロイックミラー等の分光素子331、及び、分光された光を感知して撮像するCMOSイメージセンサ等の撮像素子332等を備え、観察対象からの反射光に基づいて画像信号を出力する。分光素子331は複数でも1つでもよく、また、備えなくともよい。撮像素子332は少なくとも1つ以上備えられ、また、複数備えられてもよい。 As shown in FIG. 33, the light receiving unit 330 includes a spectroscopic element 331 such as a dichroic mirror that disperses the light from the endoscope 312, and an imaging element 332 such as a CMOS image sensor that senses and images the divided light. etc., and outputs an image signal based on the reflected light from the observation target. The spectroscopic element 331 may be plural or singular, and may not be provided. At least one imaging element 332 is provided, and a plurality of imaging elements 332 may be provided.

硬性鏡を用いた外科手術では、ICG蛍光法を用いることにより、センチネルリンパ節の同定や血流の評価を行い、切除範囲を決定することがある。ICG蛍光法では、ICGの生物学的半減期が3分程度であるため、ICGを静脈等に投与した後にICGを可視化して観察できる期間が限られており、繰り返しICGを投与する必要があった。一方、内視鏡12を硬性鏡とした外科手術において本願発明を用いた場合、一度ICGを投与し、観察対象を評価可能な期間に、境界線設定部230が観察対象の境界を設定し、第2ランドマーク検出部250がランドマーク情報を取得し、参照画像を生成することで、その後はICGを投与しなくとも、リアルタイムに撮影した撮影画像に境界線を再現することが可能となる。 In surgical operations using a rigid scope, the ICG fluorescence method is used to identify sentinel lymph nodes, evaluate blood flow, and determine the extent of resection. In the ICG fluorescence method, since the biological half-life of ICG is about 3 minutes, the period during which ICG can be visualized and observed after intravenous administration of ICG is limited, and repeated administration of ICG is required. rice field. On the other hand, when the present invention is used in a surgical operation using the endoscope 12 as a rigid scope, ICG is administered once, and the boundary line setting unit 230 sets the boundary of the observation target during a period during which the observation target can be evaluated, The second landmark detection unit 250 acquires the landmark information and generates the reference image, so that the boundary line can be reproduced in the captured image captured in real time without administering ICG thereafter.

本実施形態では、医療画像処理装置11が内視鏡システム10に接続されている例で説明をしたが、本発明はこれに限定されず、超音波画像撮影装置や放射線撮影装置等、他の医療用装置を用いてもよい。また、内視鏡システム10のうち撮影画像取得部60及び/又は第1中央制御部55の一部又は全部は、例えばプロセッサ装置15と通信して内視鏡システム10と連携する画像処理装置に設けることができる。例えば、内視鏡システム10から直接的に、又は、PACSから間接的に、内視鏡12で撮像した画像を取得する診断支援装置に設けることができる。また、内視鏡システム10を含む、第1検査装置、第2検査装置、…、第N検査装置等の各種検査装置と、ネットワークを介して接続する医療業務支援装置に、内視鏡システム10のうち、撮影画像取得部60及び/又は第1中央制御部55の一部又は全部を設けることができる。 In the present embodiment, an example in which the medical image processing apparatus 11 is connected to the endoscope system 10 has been described, but the present invention is not limited to this, and other devices such as an ultrasonic imaging apparatus, a radiographic apparatus, and the like have been described. A medical device may be used. In addition, part or all of the captured image acquisition unit 60 and/or the first central control unit 55 of the endoscope system 10 is, for example, an image processing device that communicates with the processor device 15 and cooperates with the endoscope system 10. can be provided. For example, it can be provided in a diagnosis support device that acquires an image captured by the endoscope 12 directly from the endoscope system 10 or indirectly from the PACS. In addition, the endoscope system 10 is connected to various inspection devices such as the first inspection device, the second inspection device, . Of these, part or all of the captured image acquisition unit 60 and/or the first central control unit 55 can be provided.

本実施形態において、撮影画像取得部60、撮影画像入力部100、参照画像記録部110、第1ランドマーク検出部120、一致度算出部130、境界線位置推定部140、表示制御部150、及び参照画像生成部200といった各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウエア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array) 等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、各種の処理を実行するために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。 In this embodiment, a captured image acquisition unit 60, a captured image input unit 100, a reference image recording unit 110, a first landmark detection unit 120, a match calculation unit 130, a boundary line position estimation unit 140, a display control unit 150, and The hardware structure of a processing unit (processing unit) that executes various processes such as the reference image generation unit 200 is various processors as described below. Various processors include CPUs (Central Processing Units), FPGAs (Field Programmable Gate Arrays), etc., which are general-purpose processors that function as various processing units by executing software (programs). Programmable Logic Devices (PLDs), which are processors, dedicated electric circuits, which are processors having circuit configurations specifically designed to perform various types of processing, and the like.

1つの処理部は、これら各種のプロセッサのうちの1つで構成されてもよく、同種又は異種の2つ以上のプロセッサの組み合せ(例えば、複数のFPGAや、CPUとFPGAの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウエアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。 One processing unit may be configured by one of these various processors, and may be configured by a combination of two or more processors of the same type or different types (for example, multiple FPGAs or a combination of a CPU and an FPGA). may Also, a plurality of processing units may be configured by one processor. As an example of configuring a plurality of processing units in one processor, first, as represented by computers such as clients and servers, one processor is configured by combining one or more CPUs and software, There is a form in which this processor functions as a plurality of processing units. Secondly, as typified by System On Chip (SoC), etc., there is a form of using a processor that realizes the functions of the entire system including a plurality of processing units with a single IC (Integrated Circuit) chip. be. In this way, the various processing units are configured using one or more of the above various processors as a hardware structure.

さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子等の回路素子を組み合わせた形態の電気回路(circuitry)である。また、記憶部のハードウェア的な構造はHDD(hard disc drive)やSSD(solid state drive)等の記憶装置である。 Further, the hardware structure of these various processors is, more specifically, an electric circuit in which circuit elements such as semiconductor elements are combined. The hardware structure of the storage unit is a storage device such as an HDD (hard disc drive) or an SSD (solid state drive).

10、300 内視鏡システム
11、311 医療画像処理装置
12 内視鏡(軟性内視鏡)
12a 挿入部
12b 操作部
12c 湾曲部
12d 先端部
12e アングルノブ
12f 観察モード切替スイッチ
12h 静止画像取得指示スイッチ
12i ズーム操作部
12j 鉗子口
14、314 光源装置
15、315 プロセッサ装置
17、317 ディスプレイ
19、319 ユーザーインターフェース
20 光源部
20a V-LED
20b B-LED
20c G-LED
20d R-LED
21 光源用プロセッサ
22 光路結合部
23 ライトガイド
30a 照明光学系
30b 撮像光学系
31 照明レンズ
41 対物レンズ
42 ズームレンズ
43 撮像センサ
44 撮像用プロセッサ
55 第1中央制御部
60 撮影画像取得部
100 撮影画像入力部
101 第2中央制御部
110 参照画像記録部
111 参照画像
112 異常領域
113 正常領域
114 境界線
115 更新境界線
116 更新決定境界線
120 第1ランドマーク検出部
121 撮影画像
122、122a、122b、122c、122d、122e、122f、122g、122h、122i、122j、122k、122l、122m、122n 円
123 消化管のヒダ
124、127 血管
125 病変
126 リンクライン
130 一致度算出部
140 境界線位置推定部
150 表示制御部
151 重畳画像
160 撮影画像群
161 撮影画像A
162 撮影画像B
170 表示用画像
171 第1表示用区画
172 第2表示用区画
200 参照画像生成部
201 拡大医療画像入力部
202、203、206 拡大医療画像
204 第1拡大医療画像
205 第2拡大医療画像
208、209 拡大撮影画像
210 拡大医療画像結合部
220 異常識別部
230 境界線設定部
240 境界線入力部
241 タブレット
242 タッチペン
250 第2ランドマーク検出部
260 関連付け部
270 更新境界線重畳画像
271 決定更新境界線重畳画像
312 内視鏡(硬性内視鏡)
330 受光部
331 分光素子
332 撮像素子
10, 300 endoscope system 11, 311 medical image processing apparatus 12 endoscope (flexible endoscope)
12a insertion portion 12b operation portion 12c bending portion 12d tip portion 12e angle knob 12f observation mode changeover switch 12h still image acquisition instruction switch 12i zoom operation portion 12j forceps port 14, 314 light source device 15, 315 processor device 17, 317 display 19, 319 User interface 20 Light source 20a V-LED
20b B-LED
20c G-LED
20d R-LED
21 light source processor 22 optical path coupling section 23 light guide 30a illumination optical system 30b imaging optical system 31 illumination lens 41 objective lens 42 zoom lens 43 imaging sensor 44 imaging processor 55 first central control section 60 captured image acquisition section 100 captured image input Section 101 Second Central Control Section 110 Reference Image Recording Section 111 Reference Image 112 Abnormal Region 113 Normal Region 114 Boundary Line 115 Update Boundary Line 116 Update Decision Boundary Line 120 First Landmark Detection Section 121 Photographed Image 122, 122a, 122b, 122c , 122d, 122e, 122f, 122g, 122h, 122i, 122j, 122k, 122l, 122m, 122n Circle 123 Gastrointestinal folds 124, 127 Blood vessel 125 Lesion 126 Link line 130 Coincidence calculator 140 Boundary position estimator 150 Display Control unit 151 Superimposed image 160 Photographed image group 161 Photographed image A
162 Photographed image B
170 display image 171 first display section 172 second display section 200 reference image generator 201 enlarged medical image input section 202, 203, 206 enlarged medical image 204 first enlarged medical image 205 second enlarged medical image 208, 209 Enlarged photographed image 210 Enlarged medical image combining unit 220 Abnormality identification unit 230 Boundary line setting unit 240 Boundary line input unit 241 Tablet 242 Touch pen 250 Second landmark detection unit 260 Association unit 270 Updated boundary superimposed image 271 Determined updated boundary superimposed image 312 Endoscope (Rigid Endoscope)
330 light receiving unit 331 spectral element 332 imaging element

Claims (17)

プロセッサを備える医療画像処理装置であって、
前記プロセッサは、
内視鏡により被写体を撮影した医療画像を取得し、
異常領域と正常領域の境界である境界線に付随する境界線情報と、前記被写体のうち特徴的な構造であるランドマークに付随するランドマーク情報とを関連付けた前記医療画像である参照画像を取得し、
リアルタイムで撮影された前記医療画像である撮影画像を取得し、
前記撮影画像から前記ランドマークを検出し、
前記参照画像に含まれる前記ランドマークと、前記撮影画像に含まれる前記ランドマークとの一致度を算出し、
前記一致度と、前記参照画像及び前記撮影画像に含まれる前記ランドマーク情報に基づき、前記参照画像と前記撮影画像の対応関係を推定し、
前記対応関係に基づいて、前記参照画像に関連付けられた前記境界線を前記撮影画像に重畳した重畳画像を生成する医療画像処理装置。
A medical imaging device comprising a processor,
The processor
Acquire medical images of the subject with an endoscope,
Obtaining a reference image that is the medical image in which boundary line information associated with the boundary line that is the boundary between the abnormal region and the normal region is associated with landmark information that is associated with landmarks that are characteristic structures of the subject. death,
Acquiring a captured image that is the medical image captured in real time,
detecting the landmark from the captured image;
calculating a degree of matching between the landmarks included in the reference image and the landmarks included in the captured image;
estimating a correspondence relationship between the reference image and the captured image based on the degree of matching and the landmark information included in the reference image and the captured image;
A medical image processing apparatus that generates a superimposed image in which the boundary line associated with the reference image is superimposed on the captured image based on the correspondence relationship.
前記撮影画像と前記参照画像とが同じ倍率で撮像された前記医療画像である請求項1に記載の医療画像処理装置。 2. The medical image processing apparatus according to claim 1, wherein the captured image and the reference image are the medical images captured at the same magnification. 前記撮影画像は遠景撮影された前記医療画像であって、前記参照画像は近景撮影された前記医療画像である請求項1に記載の医療画像処理装置。 2. The medical image processing apparatus according to claim 1, wherein the captured image is the medical image captured in a distant view, and the reference image is the medical image captured in a near view. 前記撮影画像は、前記異常領域の一部分を含むように撮影された前記医療画像であり、
前記参照画像は、前記異常領域の全体を含む前記医療画像であって、
前記参照画像に関連付けられた前記境界線の一部分を、前記撮影画像に重畳した前記重畳画像を生成する請求項1に記載の医療画像処理装置。
The captured image is the medical image captured so as to include a portion of the abnormal region,
The reference image is the medical image including the entire abnormal region,
2. The medical image processing apparatus according to claim 1, wherein the superimposed image is generated by superimposing a portion of the boundary line associated with the reference image on the captured image.
前記参照画像は、前記異常領域の一部分が近景撮影された前記医療画像である拡大医療画像を繋ぎ合わせて生成されている請求項1ないし4のいずれか一項に記載の医療画像処理装置。 5. The medical image processing apparatus according to any one of claims 1 to 4, wherein the reference image is generated by joining enlarged medical images, which are the medical images in which a part of the abnormal region is photographed in the foreground. 前記プロセッサは、
前記参照画像が、第1拡大医療画像と、前記第1拡大医療画像と異なる位置で撮影された第2拡大医療画像からなる場合、
前記第1拡大医療画像に関連付けられた前記ランドマーク情報及び前記境界線情報と、前記第2拡大医療画像に関連付けられた前記ランドマーク情報及び前記境界線情報との共通関係に基づき、前記第1拡大医療画像と、前記第2拡大医療画像を繋ぎ合わせて前記参照画像を生成する請求項5に記載の医療画像処理装置。
The processor
When the reference image consists of a first magnified medical image and a second magnified medical image captured at a position different from the first magnified medical image,
Based on a common relationship between the landmark information and the boundary information associated with the first enlarged medical image and the landmark information and the boundary information associated with the second enlarged medical image, the first 6. The medical image processing apparatus according to claim 5, wherein the magnified medical image and the second magnified medical image are joined together to generate the reference image.
前記プロセッサは、
前記異常領域と前記正常領域を識別し、
前記境界線を設定する請求項1ないし6のいずれか一項に記載の医療画像処理装置。
The processor
identifying the abnormal region and the normal region;
The medical image processing apparatus according to any one of claims 1 to 6, wherein the boundary line is set.
前記境界線は、ユーザー操作によって設定される請求項1ないし6のいずれか一項に記載の医療画像処理装置。 The medical image processing apparatus according to any one of claims 1 to 6, wherein the boundary line is set by a user's operation. 前記参照画像は、前記被写体を特殊光で照明して撮影された前記医療画像であり、
前記撮影画像は、前記被写体を通常光で照明して撮影された前記医療画像である請求項1ないし8のいずれか一項に記載の医療画像処理装置。
the reference image is the medical image captured by illuminating the subject with special light;
The medical image processing apparatus according to any one of claims 1 to 8, wherein the captured image is the medical image captured by illuminating the subject with normal light.
前記ランドマークを検出する前記撮影画像と、前記境界線を重畳する前記撮影画像とが、同一の時刻に撮影された前記撮影画像である請求項1ないし9のいずれか一項に記載の医療画像処理装置。 The medical image according to any one of claims 1 to 9, wherein the captured image for detecting the landmark and the captured image for superimposing the boundary line are the captured images captured at the same time. processing equipment. 前記ランドマークを検出する前記撮影画像と、前記境界線を重畳する前記撮影画像とが、異なる時刻に撮影された前記撮影画像である請求項1ないし9のいずれか一項に記載の医療画像処理装置。 10. The medical image processing according to any one of claims 1 to 9, wherein the captured image for detecting the landmark and the captured image for superimposing the boundary line are the captured images captured at different times. Device. 前記一致度の算出は、終了指示があるまで継続される請求項1ないし11のいずれか一項に記載の医療画像処理装置。 12. The medical image processing apparatus according to any one of claims 1 to 11, wherein the calculation of the matching degree is continued until an end instruction is given. 前記プロセッサは、表示用画像を生成し、
前記重畳画像を、前記表示用画像の第1表示用区画に表示し、
前記参照画像を、前記表示用画像の前記第1表示用区画と異なる第2表示用区画に表示する制御を行う請求項1ないし12のいずれか一項に記載の医療画像処理装置。
The processor generates an image for display,
displaying the superimposed image in a first display section of the display image;
The medical image processing apparatus according to any one of claims 1 to 12, wherein control is performed to display the reference image in a second display section different from the first display section of the display image.
前記プロセッサは、
前記撮影画像として拡大撮影画像を取得し、
前記拡大撮影画像に含まれる前記異常領域と前記正常領域を識別して前記境界線を設定し、
前記拡大撮影画像から前記ランドマークを検出し、
前記拡大撮影画像に、前記境界線に付随する前記境界線情報と、前記ランドマークに付随する前記ランドマーク情報とを関連付け、前記参照画像とする請求項1ないし13のいずれか一項に記載の医療画像処理装置。
The processor
Acquiring an enlarged photographed image as the photographed image,
identifying the abnormal region and the normal region included in the enlarged photographed image and setting the boundary line;
detecting the landmark from the enlarged photographed image;
14. The reference image according to any one of claims 1 to 13, wherein the magnified photographed image is associated with the boundary line information associated with the boundary line and the landmark information associated with the landmark, and is used as the reference image. Medical imaging equipment.
前記プロセッサは、
前記重畳画像を生成し、
前記境界線が重畳された前記重畳画像に係る前記撮影画像に含まれる前記異常領域と前記正常領域を、更新指示がある場合に識別し、前記異常領域と前記正常領域の境界を前記境界線として更新境界線を設定した場合であって、
更新決定指示がある場合に、
前記更新境界線を決定更新境界線として、前記撮影画像に重畳された前記境界線を更新する請求項1ないし13のいずれか一項に記載の医療画像処理装置。
The processor
generating the superimposed image;
Identifying the abnormal region and the normal region included in the captured image related to the superimposed image with the boundary line when there is an update instruction, and using the boundary line between the abnormal region and the normal region as the boundary line If you set an update boundary and
If there is an update decision instruction,
14. The medical image processing apparatus according to any one of claims 1 to 13, wherein the boundary superimposed on the captured image is updated using the update boundary as a determined update boundary.
内視鏡により被写体を撮影した医療画像を取得するステップと、
異常領域と正常領域の境界である境界線に付随する境界線情報と、前記被写体のうち特徴的な構造であるランドマークに付随するランドマーク情報とを関連付けた前記医療画像である参照画像を取得するステップと、
リアルタイムで撮影された前記医療画像である撮影画像を取得するステップと、
前記撮影画像から前記ランドマークを検出するステップと、
前記参照画像に含まれる前記ランドマークと、前記撮影画像に含まれる前記ランドマークとの一致度を算出するステップと、
前記一致度と、前記参照画像及び前記撮影画像に含まれる前記ランドマーク情報に基づき、前記参照画像と前記撮影画像の対応関係を推定するステップと、
前記対応関係に基づいて、前記参照画像に関連付けられた前記境界線を前記撮影画像に重畳した重畳画像を生成するするステップと、を備える医療画像処理装置の作動方法。
a step of acquiring a medical image of a subject photographed by an endoscope;
Obtaining a reference image that is the medical image in which boundary line information associated with the boundary line that is the boundary between the abnormal region and the normal region is associated with landmark information that is associated with landmarks that are characteristic structures of the subject. and
obtaining a captured image, which is the medical image captured in real time;
detecting the landmark from the captured image;
calculating a degree of matching between the landmarks included in the reference image and the landmarks included in the captured image;
estimating a correspondence relationship between the reference image and the captured image based on the degree of matching and the landmark information included in the reference image and the captured image;
and generating a superimposed image in which the boundary line associated with the reference image is superimposed on the captured image based on the correspondence relationship.
請求項1ないし15のいずれか一項に記載の医療画像処理装置と、内視鏡と、を備える内視鏡システム。 An endoscope system comprising the medical image processing apparatus according to any one of claims 1 to 15 and an endoscope.
JP2021195541A 2021-06-28 2021-12-01 Endoscope system, medical image processing device, and operation method therefor Pending JP2023007331A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/809,241 US11978209B2 (en) 2021-06-28 2022-06-27 Endoscope system, medical image processing device, and operation method therefor

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021107104 2021-06-28
JP2021107104 2021-06-28

Publications (1)

Publication Number Publication Date
JP2023007331A true JP2023007331A (en) 2023-01-18

Family

ID=85106862

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021195541A Pending JP2023007331A (en) 2021-06-28 2021-12-01 Endoscope system, medical image processing device, and operation method therefor

Country Status (1)

Country Link
JP (1) JP2023007331A (en)

Similar Documents

Publication Publication Date Title
JP7346285B2 (en) Medical image processing device, endoscope system, operating method and program for medical image processing device
JP6785941B2 (en) Endoscopic system and how to operate it
JP7176041B2 (en) Medical image processing device and method, endoscope system, processor device, diagnosis support device and program
WO2019138773A1 (en) Medical image processing apparatus, endoscope system, medical image processing method, and program
JPWO2019078237A1 (en) Medical image processing equipment, endoscopy system, diagnostic support equipment, and medical business support equipment
JP7411772B2 (en) endoscope system
JP7289373B2 (en) Medical image processing device, endoscope system, diagnosis support method and program
JP7138771B2 (en) Diagnosis support device, diagnosis support method and program
JP6796725B2 (en) Medical image processing system, endoscopy system, diagnostic support device, and medical business support device
WO2021229684A1 (en) Image processing system, endoscope system, image processing method, and learning method
US20230165433A1 (en) Endoscope system and method of operating the same
CN116097287A (en) Computer program, learning model generation method, operation support device, and information processing method
JP2023007331A (en) Endoscope system, medical image processing device, and operation method therefor
WO2022071413A1 (en) Image processing device, endoscope system, method for operating image processing device, and program for image processing device
US11978209B2 (en) Endoscope system, medical image processing device, and operation method therefor
CN116724334A (en) Computer program, learning model generation method, and operation support device
EP4111938A1 (en) Endoscope system, medical image processing device, and operation method therefor
JP6850358B2 (en) Medical image processing system, endoscopy system, diagnostic support device, and medical business support device
US20220375117A1 (en) Medical image processing device, endoscope system, and medical image processing device operation method
JPWO2019142689A1 (en) Electronic Endoscope Processor and Electronic Endoscope System
WO2022059233A1 (en) Image processing device, endoscope system, operation method for image processing device, and program for image processing device
WO2022230607A1 (en) Medical image processing device, endoscope system, and operation method for medical image processing device
US20240074638A1 (en) Medical image processing apparatus, medical image processing method, and program
US20220409010A1 (en) Medical image processing device, operation method therefor, and endoscope system
WO2023058503A1 (en) Endoscope system, medical image processing device, and method for operating same