JPWO2022024423A5 - - Google Patents

Download PDF

Info

Publication number
JPWO2022024423A5
JPWO2022024423A5 JP2022539996A JP2022539996A JPWO2022024423A5 JP WO2022024423 A5 JPWO2022024423 A5 JP WO2022024423A5 JP 2022539996 A JP2022539996 A JP 2022539996A JP 2022539996 A JP2022539996 A JP 2022539996A JP WO2022024423 A5 JPWO2022024423 A5 JP WO2022024423A5
Authority
JP
Japan
Prior art keywords
image
information
illumination
light
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022539996A
Other languages
Japanese (ja)
Other versions
JPWO2022024423A1 (en
Filing date
Publication date
Application filed filed Critical
Priority claimed from PCT/JP2021/004826 external-priority patent/WO2022024423A1/en
Publication of JPWO2022024423A1 publication Critical patent/JPWO2022024423A1/ja
Publication of JPWO2022024423A5 publication Critical patent/JPWO2022024423A5/ja
Pending legal-status Critical Current

Links

Images

Description

画像制御用プロセッサは、鑑別結果の入力により、1又は1以上の手技支援情報を出力する習モデルを有し、学習モデルは学習済みであることが好ましい。画像制御用プロセッサは、鑑別結果と、処置具の在庫情報、ガイドラインに沿った病変と処置具の対応付け情報である処置パターン情報、咽頭、食道、胃、小腸、大腸等の解剖学的部位や血管の走行状況に係る周辺環境情報、患者の既往歴、検査・処置歴、使用中医薬品等の患者リスク判定情報、手術者情報を含む手技情報のうち、1もしくは1以上とを組み合わせた手技情報との入力により、処置具に係る適切度を向上させて手技支援情報を出力する学習モデルを有し、学習モデルは学習済みであることが好ましい。画像制御用プロセッサは、手技支援情報算出部が算出した処置具に係る手技支援情報の入力により、処置予想時間を出力する学習モデルを有し、学習モデルは学習済みであることが好ましい。 It is preferable that the image control processor has a learning model that outputs one or more pieces of procedure assistance information based on the input of the discrimination result, and that the learning model has already been trained. The image control processor stores discrimination results, treatment tool inventory information, treatment pattern information that is information about associations between lesions and treatment tools according to guidelines, anatomical regions such as the pharynx, esophagus, stomach, small intestine, and large intestine. Surrounding environment information related to blood vessel running status, patient history, examination/treatment history, patient risk assessment information such as currently used medicines, procedure information including operator information, one or more combined procedure information It is preferable to have a learning model for improving the appropriateness of the treatment instrument and outputting the procedure support information by inputting , and the learning model is already learned. The image control processor preferably has a learning model for outputting an estimated treatment time based on the input of the surgical assistance information related to the treatment tool calculated by the surgical assistance information calculation unit, and the learning model is preferably already learned.

画像制御用プロセッサを備え、画像制御用プロセッサは、検査画像を取得し、テンプレート画像記憶メモリに保存され、処置具と対応付けられた診断済みのテンプレート画像の特徴量を算出し、検査画像の特徴量を算出し、検査画像の特徴量と、診断済みのテンプレート画像の特徴量と比較して総合一致度を算出し、総合一致度が第1条件を満たすテンプレート画像を選出し、処置具の在庫情報を含む手技情報を参照して、選出されたテンプレート画像に対応付けられた処置具に対して適切度を算出し、適切度が第2条件を満たす処置具を含む手技支援情報を出力し、検査画像と、手技支援情報に含まれる処置具をディスプレイに表示することが好ましい。検査画像をテンプレート画像として取得し、検査画像と、検査画像に係る鑑別結果と、処置具とを対応付けてテンプレート画像記憶メモリに保存することが好ましい。 An image control processor is provided, and the image control processor obtains an inspection image, stores it in a template image storage memory, calculates the feature amount of the diagnosed template image associated with the treatment instrument, and calculates the feature amount of the inspection image. The feature amount of the inspection image is compared with the feature amount of the template image that has already been diagnosed to calculate the overall degree of matching. The procedure information including the inventory information is referred to, the appropriateness of the treatment tool associated with the selected template image is calculated, and the procedure support information including the treatment tool whose appropriateness satisfies the second condition is output. , the examination image and the treatment tools included in the procedure support information are preferably displayed on the display. It is preferable that an inspection image is obtained as a template image, and the inspection image, the discrimination result related to the inspection image, and the treatment instrument are associated with each other and stored in the template image storage memory.

光源用プロセッサを備え、光源用プロセッサは、検査画像を取得する場合に、互いに発光スペクトルが異なる第1照明光及び第2照明光の発光を制御し、第1照明光を発光する第1照明期間と第2照明光を発光する第2照明期間とを自動的に切り替える場合において、第1照明光を第1発光パターンで発光し、第2照明光を第2発光パターンで発光し、第1照明光に基づく第1照明光画像と、第2照明光に基づく第2照明光画像と、第2照明光画像に対する鑑別処理の結果を、第1照明光画像に基づく表示用画像に重畳表示した重畳画像と、を検査画像として取得することが好ましい。第1発光パターンは、第1照明期間のフレーム数が、それぞれの第1照明期間において同じである第1Aターンと、第1照明期間のフレーム数が、それぞれの第1照明期間において異なっている第1Bターンとのうちのいずれか1つであることが好ましい。第2発光パターンは、第2照明期間のフレーム数が、それぞれの第2照明期間において同じであり、且つ、第2照明光の発光スペクトルが、それぞれの第2照明期間において同じである第2Aパターン、第2照明期間のフレーム数が、それぞれの第2照明期間において同じであり、且つ、第2照明光の発光スペクトルが、それぞれの第2照明期間において異なっている第2Bパターン、第2照明期間のフレーム数が、それぞれの第2照明期間において異なっており、且つ、第2照明光の発光スペクトルが、それぞれの第2照明期間において同じである第2Cパターン、及び、第2照明期間のフレーム数が、それぞれの第2照明期間において異なっており、且つ、第2照明光の発光スペクトルが、それぞれの第2照明期間において異なっている第2Dパターンのうちのいずれか1つであることが好ましい。 A light source processor is provided, and the light source processor controls emission of first illumination light and second illumination light having different emission spectra and emits the first illumination light when acquiring an inspection image. and a second illumination period in which the second illumination light is emitted, the first illumination light is emitted in the first emission pattern, the second illumination light is emitted in the second emission pattern, and the first illumination light is emitted in the second illumination period. A first illumination light image based on the light, a second illumination light image based on the second illumination light, and a result of discrimination processing for the second illumination light image are superimposed and displayed on a display image based on the first illumination light image. and are preferably acquired as inspection images. The first light emission pattern includes a 1A pattern in which the number of frames in the first illumination period is the same in each first illumination period, and a pattern 1A in which the number of frames in the first illumination period is different in each first illumination period. Any one of the 1B pattern is preferable. The second light emission pattern is a 2A pattern in which the number of frames in the second illumination period is the same in each second illumination period, and the emission spectrum of the second illumination light is the same in each second illumination period. , the number of frames in the second illumination period is the same in each second illumination period, and the emission spectrum of the second illumination light is different in each second illumination period, the second B pattern, the second illumination period The number of frames is different in each second illumination period, and the emission spectrum of the second illumination light is the same in each second illumination period, and the number of frames in the second illumination period. is different in each second illumination period, and the emission spectrum of the second illumination light is any one of the second D patterns in which the emission spectrum is different in each second illumination period.

内視鏡システムの構成を説明する説明図である。It is an explanatory view explaining composition of an endoscope system. 内視鏡システムの機能を示すブロック図である。1 is a block diagram showing functions of an endoscope system; FIG. 紫色光V、青色光B、緑色光G、及び赤色光Rのスペクトルを示すグラフである。4 is a graph showing spectra of violet light V, blue light B, green light G, and red light R; 第1特殊光の発光スペクトルを示すグラフである。4 is a graph showing an emission spectrum of first special light; 第2特殊光の発光スペクトルを示すグラフである。7 is a graph showing the emission spectrum of the second special light; 重畳モード時の第1Aターン又は第2Aパターンを示す説明図である。It is explanatory drawing which shows the 1st A pattern in superimposition mode, or the 2nd A pattern. 重畳モード時の第1Bターンを示す説明図である。FIG. 11 is an explanatory diagram showing a 1B pattern in superimposition mode; 重畳モード時の第2パターンを示す説明図である。FIG. 11 is an explanatory diagram showing a second B pattern in the superimposition mode; 重畳モード時の第2パターンを示す説明図である。FIG. 11 is an explanatory diagram showing a second C pattern in superimposition mode; 重畳モード時の第2Dパターンを示す説明図である。FIG. 11 is an explanatory diagram showing a 2D pattern in superimposition mode; 撮像センサの各カラーフィルタの分光透過率を示すグラフである。4 is a graph showing the spectral transmittance of each color filter of the imaging sensor; 第1撮像期間及び第2撮像期間を示す説明図である。FIG. 4 is an explanatory diagram showing a first imaging period and a second imaging period; 重畳画像生成部の構成を示す説明図である。FIG. 4 is an explanatory diagram showing the configuration of a superimposed image generation unit; 重畳モードにおける照明制御、鑑別処理、及び画像表示を時系列順で示す説明図である。It is explanatory drawing which shows the illumination control in superimposition mode, a discrimination process, and an image display in chronological order. 第1実施形態におけるプロセッサ装置の鑑別処理部、手技支援情報提示モード切替部、第1手技支援情報算出部、手技情報記憶メモリ及び表示制御部に関する制御関係を示す説明図である。FIG. 3 is an explanatory diagram showing a control relationship among a discrimination processing section, a technique support information presentation mode switching section, a first technique support information calculation section, a technique information storage memory, and a display control section of the processor device according to the first embodiment; 第1実施形態におけるプロセッサ装置の第1手技支援情報算出モデルに入力される情報について示す説明図である。FIG. 4 is an explanatory diagram showing information input to a first surgical assistance information calculation model of the processor device according to the first embodiment; 鑑別結果Pを手技支援情報算出モデルに入力した場合、手技支援情報Pが出力されることを示す説明図である。FIG. 10 is an explanatory diagram showing that when a discrimination result P is input to a technique assistance information calculation model, technique assistance information P is output; 鑑別結果Qを手技支援情報算出モデルに入力した場合、手技支援情報Qが出力されることを示す説明図である。FIG. 10 is an explanatory diagram showing that when a discrimination result Q is input to a technique assistance information calculation model, technique assistance information Q is output; 鑑別結果Pと処置具の在庫情報Sを手技支援情報算出モデルに入力した場合、手技支援情報Aが出力されることを示す説明図である。FIG. 10 is an explanatory diagram showing that when a discrimination result P and treatment instrument inventory information S are input to a procedure assistance information calculation model, procedure assistance information A is output; 鑑別結果Pと処置具の在庫情報Tを手技支援情報算出モデルに入力した場合、手技支援情報Bが出力されることを示す説明図である。FIG. 10 is an explanatory diagram showing that when a discrimination result P and treatment instrument inventory information T are input to a procedure assistance information calculation model, procedure assistance information B is output. 鑑別結果Pと処置パターン情報Sを手技支援情報算出モデルに入力した場合、手技支援情報Cが出力されることを示す説明図である。FIG. 9 is an explanatory diagram showing that when a discrimination result P and treatment pattern information S are input to a technique support information calculation model, technique support information C is output; 鑑別結果Pと処置パターン情報Tを手技支援情報算出モデルに入力した場合、手技支援情報Dが出力されることを示す説明図である。FIG. 10 is an explanatory diagram showing that when a discrimination result P and treatment pattern information T are input to a technique support information calculation model, technique support information D is output; 鑑別結果Pと周辺環境情報Sを手技支援情報算出モデルに入力した場合、手技支援情報Eが出力されることを示す説明図である。FIG. 9 is an explanatory diagram showing that when a discrimination result P and surrounding environment information S are input to a technique support information calculation model, technique support information E is output; 鑑別結果Pと周辺環境情報Tを手技支援情報算出モデルに入力した場合、手技支援情報Fが出力されることを示す説明図である。FIG. 10 is an explanatory diagram showing that when a discrimination result P and surrounding environment information T are input to a technique support information calculation model, technique support information F is output; 鑑別結果Pと患者リスク判定情報Sを手技支援情報算出モデルに入力した場合、手技支援情報Gが出力されることを示す説明図である。FIG. 10 is an explanatory diagram showing that when a discrimination result P and patient risk determination information S are input to a technique support information calculation model, technique support information G is output; 鑑別結果Pと患者リスク判定情報Tを手技支援情報算出モデルに入力した場合、手技支援情報Hが出力されることを示す説明図である。FIG. 9 is an explanatory diagram showing that when a discrimination result P and patient risk determination information T are input to a technique support information calculation model, technique support information H is output. 鑑別結果Pと手術者情報Sを手技支援情報算出モデルに入力した場合、手技支援情報Iが出力されることを示す説明図である。FIG. 10 is an explanatory diagram showing that when a discrimination result P and operator information S are input to a technique assistance information calculation model, technique assistance information I is output. 鑑別結果Pと手術者情報Tを手技支援情報算出モデルに入力した場合、手技支援情報Jが出力されることを示す説明図である。FIG. 10 is an explanatory diagram showing that when a discrimination result P and operator information T are input to a technique assistance information calculation model, technique assistance information J is output. 処置具の適切度が1位である場合の手技支援情報提示画面を示す説明図である。FIG. 11 is an explanatory diagram showing a procedure support information presentation screen when the suitability of a treatment instrument is first. 処置具の適切度が2位である場合の手技支援情報提示画面を示す説明図である。FIG. 11 is an explanatory diagram showing a procedure support information presentation screen when the suitability of a treatment instrument is second. 警告表示を行う場合の手技支援情報提示画面を示す説明図である。FIG. 11 is an explanatory diagram showing a procedure support information presentation screen when displaying a warning; 処置開始ボタンが表示されている手技支援情報提示画面を示す説明図である。FIG. 10 is an explanatory diagram showing a procedure support information presentation screen on which a treatment start button is displayed; 手技支援情報Pを処置時間算出モデルに入力した場合、処置予想時間Pが出力されることを示す説明図である。FIG. 10 is an explanatory diagram showing that an expected treatment time P is output when the procedure support information P is input to the treatment time calculation model; 手技支援情報Qを処置時間算出モデルに入力した場合、処置予想時間Qが出力されることを示す説明図である。FIG. 10 is an explanatory diagram showing that an expected treatment time Q is output when the procedure support information Q is input to the treatment time calculation model; 処置予想時間が算出された手技支援情報提示画面を示す説明図である。FIG. 11 is an explanatory diagram showing a procedure support information presentation screen on which an estimated treatment time is calculated; 第1実施形態における手技支援情報提示モードの切り替えと手技支援情報提示モードの一連の流れを示す説明図である。FIG. 10 is an explanatory diagram showing a series of flow of switching of the technique support information presentation mode and the technique support information presentation mode in the first embodiment; 第2実施形態におけるプロセッサ装置の第2手技支援情報算出部が受信する情報、送信する情報についての関係を示す説明図である。FIG. 10 is an explanatory diagram showing the relationship between information received and information transmitted by a second technical assistance information calculation unit of the processor device according to the second embodiment; 第2実施形態におけるプロセッサ装置の画像処理部、手技支援情報提示モード切替部、第2手技支援情報算出部、テンプレート画像記憶メモリ、手技情報記憶メモリ及び表示制御部の関係を示す説明図である。FIG. 11 is an explanatory diagram showing the relationship among an image processing unit, a technique support information presentation mode switching unit, a second technique support information calculation unit, a template image storage memory, a technique information storage memory, and a display control unit of the processor device according to the second embodiment. 第2実施形態におけるプロセッサ装置、画像処理部、手技支援情報提示モード切替部、第2手技支援情報算出部の内部、テンプレート画像記憶メモリ、手技情報記憶メモリ、表示制御部、静止画像取得部及び診断結果入力部の関係を示す説明図である。Processor device, image processing unit, technique support information presentation mode switching unit, inside of second technique support information calculation unit, template image storage memory, technique information storage memory, display control unit, still image acquisition unit, and diagnosis in the second embodiment It is explanatory drawing which shows the relationship of a result input part. 第2実施形態におけるプロセッサ装置の第2手技支援情報算出部内の関係を示す説明図である。FIG. 10 is an explanatory diagram showing the internal relationship of a second surgical assistance information calculation unit of the processor device according to the second embodiment; 第2実施形態における手技支援情報提示モードの切り替えと手技支援情報提示モードの一連の流れを示す説明図である。FIG. 12 is an explanatory diagram showing a series of flow of switching of the technique support information presentation mode and the technique support information presentation mode in the second embodiment;

また、光源用プロセッサ21は、第2照明観察モード時には、短波長の狭帯域光としての紫色光V、青色光B、緑色光G、及び赤色光Rとの光量比がVs:Bs:Gs:Rsとなる特殊光を発光するように、各LED20a~20dを制御する。光量比Vs:Bs:Gs:Rsは、第1照明観察モード時に使用する光量比Vc:Bc:Gc:Rcと異なっており、観察目的に応じて適宜定められる。例えば、表層血管を強調する場合には、Vsを、他のBs、Gs、Rsよりも大きくすることが好ましく、中血管を強調する場合には、Gsを、他のVs、Gs、Rsよりも大きくすることが好ましい。 Further, in the second illumination observation mode, the light source processor 21 sets the light amount ratio of the violet light V, the blue light B, the green light G, and the red light R as short-wavelength narrow band lights to Vs:Bs:Gs: Each of the LEDs 20a to 20d is controlled so as to emit special light of Rs. The light amount ratio Vs:Bs:Gs:Rs is different from the light amount ratio Vc:Bc:Gc:Rc used in the first illumination observation mode, and is appropriately determined according to the observation purpose. For example, when emphasizing superficial blood vessels, it is preferable to make Vs larger than other Bs, Gs, and Rs, and when emphasizing middle-layer blood vessels, Gs is preferably made larger than other Vs, Gs, and Rs. is also preferably increased.

また、光源用プロセッサ21は、重畳モード時に、第1照明光と第2照明光とを自動的に切り替えて発光する場合において、第1照明光を第1発光パターンで発光し、第2照明光を第2発光パターンで発光する。具体的には、第1発光パターンは、図6に示すように、第1照明期間のフレーム数が、それぞれの第1照明期間において同じである第1Aターンと、図7に示すように、第1照明期間のフレーム数が、それぞれの第1照明期間において異なっている第1Bターンとのうちのいずれかであることが好ましい。なお、図において、timeは時間経過の方向を表す。 Further, when the light source processor 21 emits light by automatically switching between the first illumination light and the second illumination light in the superimposition mode, the light source processor 21 emits the first illumination light in the first light emission pattern and emits the second illumination light. emit light in the second emission pattern. Specifically, as shown in FIG. 6, the first light emission pattern is a 1A pattern in which the number of frames in the first illumination period is the same in each first illumination period, and as shown in FIG. It is preferable that the number of frames in the first illumination period is any one of a 1B pattern in which the number of frames is different in each first illumination period. In the figure, time represents the direction of time passage.

撮像センサ43は、原色系のカラーセンサであり、青色カラーフィルタを有するB画素(青色画素)、緑色カラーフィルタを有するG画素(緑色画素)、及び、赤色カラーフィルタを有するR画素(赤色画素)の3種類の画素を備える。図11に示すように、青色カラーフィルタBFは、主として青色帯域の光、具体的には80~560nmの波長帯域の光を透過する。青色カラーフィルタBFの透過率は、波長460~470nm付近においてピークになる。緑色カラーフィルタ、主として緑色帯域の光、具体的には、460~620nmの波長帯域の光を透過する。赤色カラーフィルタRFは、主として赤色帯域の光、具体的には、580~760nmの波長帯域の光を透過する。 The imaging sensor 43 is a primary color sensor, and includes B pixels (blue pixels) having blue color filters, G pixels (green pixels) having green color filters, and R pixels (red pixels) having red color filters. and three types of pixels. As shown in FIG. 11, the blue color filter BF mainly transmits light in the blue band, specifically light in the wavelength band of 380 to 560 nm. The transmittance of the blue color filter BF peaks around wavelengths of 460 to 470 nm. The green color filter GF mainly transmits light in the green band, specifically light in the wavelength band of 460 to 620 nm. The red color filter RF mainly transmits light in the red band, specifically light in the wavelength band of 580 to 760 nm.

重畳モードでは、撮像用プロセッサ44は、図12に示すように、第1照明期間において第1照明光を撮像センサ43に露光させた状態で、信号読み出しを行うことにより、撮像センサ43から第1画像信号を出力させる。第1画像信号を出力する期間を第1撮像期間とする。第1画像信号には、B画素から出力されるB1画像信号、G画素から出力されるG1画像信号、及び、R画素から出力されるR1画像信号が含まれる。また、撮像用プロセッサ44は、第2照明期間において第2照明光を撮像センサ43に露光させた状態で、信号読み出しを行うことにより、撮像センサ43から第2画像信号を出力させる。第2画像信号を出力する期間を第撮像期間とする。第2画像信号には、B画素から出力されるB2画像信号、G画素から出力されるG2画像信号、及び、R画素から出力されるR2画像信号が含まれる。 In the superimposition mode, as shown in FIG. 12 , the imaging processor 44 reads the signal from the imaging sensor 43 while exposing the imaging sensor 43 to the first illumination light in the first illumination period. Output the image signal. A period during which the first image signal is output is referred to as a first imaging period. The first image signal includes the B1 image signal output from the B pixel, the G1 image signal output from the G pixel, and the R1 image signal output from the R pixel. Further, the imaging processor 44 causes the imaging sensor 43 to output a second image signal by performing signal reading while the imaging sensor 43 is exposed to the second illumination light in the second illumination period. A period during which the second image signal is output is referred to as a second imaging period. The second image signal includes a B2 image signal output from the B pixel, a G2 image signal output from the G pixel, and an R2 image signal output from the R pixel.

図2に示すように、CDS/AGC(Correlated Double Sampling/Automatic Gain Control)回路4は、撮像センサ43から得られるアナログの画像信号に相関二重サンプリング(CDS)や自動利得制御(AGC)を行う。CDS/AGC回路45を経た画像信号は、A/D(Analog/Digital)コンバータ4により、デジタルの画像信号に変換される。A/D変換後のデジタル画像信号がプロセッサ装置14に入力される。 As shown in FIG. 2, a CDS/AGC (Correlated Double Sampling/Automatic Gain Control) circuit 45 applies correlated double sampling (CDS) and automatic gain control (AGC) to the analog image signal obtained from the imaging sensor 43. conduct. The image signal that has passed through the CDS/AGC circuit 45 is converted into a digital image signal by an A/D (Analog/Digital) converter 46 . A digital image signal after A/D conversion is input to the processor unit 14 .

画像処理切替部54は、設定されているモードによって、ノイズ低減部53からの画像信号の送信先を、画像処理部55内の、第1照明光画像生成部55aと、第2照明光画像生成部55bと、重畳画像生成部55cのいずれか1つに切り替える。具体的には、検査画像表示第1照明観察モードにセットされている場合には、ノイズ低減部53からの画像信号第1照明光画像生成部55aに入力する。検査画像表示第2照明観察モードにセットされている場合には、ノイズ低減部53からの画像信号を第2照明光画像生成部55bに入力する。重畳モードにセットされている場合には、ノイズ低減部53からの画像信号を重畳画像生成部55cに入力する。 The image processing switching unit 54 selects the transmission destination of the image signal from the noise reduction unit 53 according to the set mode between the first illumination light image generation unit 55a and the second illumination light image generation unit 55a in the image processing unit 55. Either the unit 55b or the superimposed image generation unit 55c is selected. Specifically, when the inspection image display first illumination observation mode is set, the image signal from the noise reduction section 53 is input to the first illumination light image generation section 55a. When the inspection image display second illumination observation mode is set, the image signal from the noise reduction section 53 is input to the second illumination light image generation section 55b. When the superimposition mode is set, the image signal from the noise reduction section 53 is input to the superimposition image generation section 55c.

検査画像表示重畳モードの場合、図13に示す重畳画像生成部55cにおいて重畳画像が生成される。重畳画像生成部55cは、表示用画像生成部55d、鑑別処理部55e、及び、重畳処理部55fを備えている。表示用画像生成部55dは、入力した1フレーム分のR1画像信号、G1画像信号、B1画像信号に対して、上述と同様の第1照明光画像用画像処理を施す。第1照明光画像画像処理が施されたR1画像信号、G1画像信号、B1画像信号は、表示用画像として使用される。鑑別処理部55eは、入力した特定フレーム分のR2画像信号、G2画像信号、B2画像信号に対して、鑑別処理を行う。重畳処理部55fは、鑑別処理の結果である鑑別結果を表示用画像に重畳表示させるなどの重畳画像処理を行うことによって、重畳画像を生成する。 In the case of the inspection image display superimposition mode, a superimposed image is generated in the superimposed image generator 55c shown in FIG. The superimposed image generator 55c includes a display image generator 55d, a discrimination processor 55e, and a superimposed processor 55f. The display image generation unit 55d performs the same first illumination light image image processing as described above on the input R1 image signal, G1 image signal, and B1 image signal for one frame. The R1 image signal, G1 image signal, and B1 image signal subjected to the image processing for the first illumination light image are used as images for display. The discrimination processing unit 55e performs discrimination processing on the input R2 image signal, G2 image signal, and B2 image signal for the specific frame. The superimposition processing unit 55f generates a superimposed image by performing superimposed image processing such as superimposing a discrimination result, which is a result of the discrimination processing, on a display image.

重畳画像表示制御処理について、以下説明する。図14に示すように、第1発光パターンを第1Aターンとし、第2ターンを第2Bパターン(第2照明期間のフレーム数:同じ、第2照明光の発光スペクトル:異なる)とする場合、第1照明光として白色光Wを2フレーム分、第2照明光としての紫色光V、緑色光G、赤色光Rを、白色光Wの発光の間に、それぞれ1フレーム分だけ観察対象に照明する場合には、白色光の照明により得られる第1画像信号に対して第1照明光画像用画像処理を施すことによって、表示用画像を得る。 The superimposed image display control processing will be described below. As shown in FIG. 14, when the first emission pattern is the 1A pattern and the second pattern is the 2B pattern (the number of frames in the second illumination period: the same, the emission spectrum of the second illumination light: different) , white light W as the first illumination light for two frames, and purple light V, green light G, and red light R as the second illumination light for only one frame during the emission of the white light W. In the case of illumination, a display image is obtained by performing image processing for a first illumination light image on a first image signal obtained by illumination with white light.

一方、紫色光Vの照明により得られる第2画像信号(R2画像信号、G2画像信号、B2画像信号)に対して鑑別処理を行って、鑑別結果Vを得る。同様にして、緑色光Gの照明により得られる第2画像信号(R2画像信号、G2画像信号、B2画像信号)に対して鑑別処理を行って、鑑別結果Gを得る。また、赤色光Rの照明により得られる第2画像信号(R2画像信号、G2画像信号、B2画像信号)に対して鑑別処理を行って、鑑別結果Rを得る。これら鑑別結果V、G、Rは、赤色光Rに関する鑑別処理が完了した後、一まとめにした鑑別結果Tとして、表示用画像に表示される。なお、鑑別結果V、G、Rは、それぞれ単独で表示用画像に表示してもよく、また、鑑別結果V、G、Rのうち少なくとも2つ組み合わせて得られる鑑別結果を、重畳画像としてもよい。 On the other hand, discrimination processing is performed on the second image signals (R2 image signal, G2 image signal, B2 image signal) obtained by illumination with the violet light V, and a discrimination result V is obtained. Similarly, discrimination processing is performed on the second image signals (R2 image signal, G2 image signal, B2 image signal) obtained by illumination with the green light G, and a discrimination result G is obtained. Further, discrimination processing is performed on the second image signals (R2 image signal, G2 image signal, B2 image signal) obtained by illumination with the red light R, and a discrimination result R is obtained. These discrimination results V, G, and R are displayed in the display image as a grouped discrimination result T after the discrimination processing for the red light R is completed. The discrimination results V, G, and R may be displayed individually in the display image, and the discrimination results obtained by combining at least two of the discrimination results V, G, and R may be used as a superimposed image. good.

例えば、図27及び図28に示すように、鑑別処理部55eで出力され、第1手技支援情報算出部60に入力された鑑別結果が、共通の鑑別結果P55epであり、手技情報記憶メモリ80から入力された手術者情報が、互いに異なる手術者情報S85a(図27)もしくは手術者情報T85b(図28)である場合、手技支援情報算出モデル60Mは、手術者情報S85aが入力された場合には手技支援情報I60iを(図27)、手術者情報T85bが入力された場合には手技支援情報J60jを(図28)出力する。 For example, as shown in FIGS. 27 and 28, the discrimination result output by the discrimination processing unit 55e and inputted to the first technique support information calculation unit 60 is the common discrimination result P55ep, and When the input operator information is operator information S85a (FIG. 27) or operator information T85b (FIG. 28) different from each other, the procedure support information calculation model 60M The procedure support information I60i (FIG. 27) is output, and if the operator information T85b is input, the procedure support information J60j (FIG. 28) is output.

10 内視鏡システム
12 内視鏡
12a 挿入部
12b 操作部
12c 湾曲部
12d 先端部
12f 観察モード切替スイッチ
12g 手技支援情報提示スイッチ
12h 静止画像取得指示スイッチ
12i ズーム操作部
13 光源装置
14 プロセッサ装置
15 ディスプレイ
16 UI
20 光源部
20a V-LED
20b B-LED
20c G-LED
20d R-LED
21 光源用プロセッサ
22 光路結合部
23 ライトガイド
30a 照明光学系
30b 撮像光学系
31 照明レンズ
41 対物レンズ
42 ズームレンズ
43 撮像センサ
44 撮像用プロセッサ
45 CDS/AGC回路
46 A/Dコンバータ
50 画像取得部
52 DSP
53 ノイズ低減部
54 画像処理切替部
55 画像処理部
55a 第1照明光画像生成部
55b 第2照明光画像生成部
55c 重畳画像生成部
55d 表示用画像生成部
55e 鑑別処理部
55eM 鑑別モデル
55ep 鑑別結果P
55eq 鑑別結果Q
55f 重畳処理部
56 手技支援情報提示モード切替部
60 第1手技支援情報算出部
60M 手技支援情報算出モデル
60a 手技支援情報A
60b 手技支援情報B
60c 手技支援情報C
60d 手技支援情報D
60e 手技支援情報E
60f 手技支援情報F
60g 手技支援情報G
60h 手技支援情報H
60i 手技支援情報I
60j 手技支援情報J
60p 手技支援情報P
60q 手技支援情報Q
61 表示制御部
62 処置時間算出部
62M 処置時間算出モデル
62p 処置予想時間P
62q 処置予想時間Q
63 静止画像取得部
64 診断結果入力部
70 中央制御部
80 手技情報記憶メモリ
81 処置具の在庫情報
81a 処置具の在庫情報S
81b 処置具の在庫情報T
82 処置パターン情報
82a 処置パターン情報S
82b 処置パターン情報T
83 周辺環境情報
83a 周辺環境情報S
83b 周辺環境情報T
84 患者リスク判定情報
84a 患者リスク判定情報S
84b 患者リスク判定情報T
85 手術者情報
85a 手術者情報S
85b 手術者情報T
120 手技支援情報提示画面
121 検査画像
123 手技支援情報
125 処置具の画像
126a 下位方向の順位切り替えアイコン
126b 上位方向の順位切り替えアイコン
130 警告表示
140 処置予想時間
150 承認ボタン
151 否認ボタン
152 処置開始ボタン
153 検査画像保存ボタン
154 スクリーンショットボタン
200 第2手技支援情報算出部
202 テンプレート画像記憶メモリ
203 第2照明光画像の特徴量算出部
204 テンプレート画像の特徴量算出部
205 総合一致度算出部
207 テンプレート画像選出部
209 適切度算出部
211 手技支援情報出力部
10 Endoscope system 12 Endoscope 12a Insertion section 12b Operation section 12c Bending section 12d Tip section 12f Observation mode switching switch 12g Technique support information presentation switch 12h Still image acquisition instruction switch 12i Zoom operation section 13 Light source device 14 Processor device 15 Display 16 UIs
20 light source unit 20a V-LED
20b B-LED
20c G-LED
20d R-LED
21 light source processor 22 optical path coupling unit 23 light guide 30a illumination optical system 30b imaging optical system 31 illumination lens 41 objective lens 42 zoom lens 43 imaging sensor 44 imaging processor 45 CDS/AGC circuit 46 A/D converter 50 image acquisition unit 52 DSP
53 noise reduction unit 54 image processing switching unit 55 image processing unit 55a first illumination light image generation unit 55b second illumination light image generation unit 55c superimposed image generation unit 55d display image generation unit 55e discrimination processing unit 55eM discrimination model 55ep discrimination result P.
55eq Differentiation result Q
55f Superimposition processing unit 56 Technique support information presentation mode switching unit 60 First technique support information calculation unit 60M Technique support information calculation model 60a Technique support information A
60b Technique support information B
60c Technique support information C
60d Technique support information D
60e Technique support information E
60f Technique support information F
60g Technique support information G
60h Technique support information H
60i Procedure support information I
60j Technique support information J
60p Technique support information P
60q Procedure support information Q
61 display control unit 62 treatment time calculation unit 62M treatment time calculation model 62p expected treatment time P
62q Anticipated treatment time Q
63 Still image acquisition unit 64 Diagnosis result input unit 70 Central control unit 80 Technique information storage memory 81 Treatment tool inventory information 81a Treatment tool inventory information S
81b Inventory information T of treatment tools
82 Treatment pattern information 82a Treatment pattern information S
82b Treatment pattern information T
83 Surrounding environment information 83a Surrounding environment information S
83b Surrounding environment information T
84 Patient risk determination information 84a Patient risk determination information S
84b Patient risk determination information T
85 Operator information 85a Operator information S
85b Operator information T
120 Technique support information presentation screen 121 Examination image 123 Technique support information 125 Treatment instrument image 126a Downward order switching icon 126b Upward order switching icon 130 Warning display 140 Estimated treatment time 150 Approve button 151 Deny button 152 Start of treatment Button 153 Save test image button 154 Screenshot button 200 Second technical support information calculator 202 Template image storage memory 203 Second illumination light image feature quantity calculator 204 Template image feature quantity calculator 205 Comprehensive matching degree calculator 207 Template Image selection unit 209 Appropriateness calculation unit 211 Technique support information output unit

Claims (2)

画像制御用プロセッサを備え、
前記画像制御用プロセッサは、
検査画像を取得し、
テンプレート画像記憶メモリに保存され、処置具と対応付けられた診断済みのテンプレート画像の特徴量を算出し、
前記検査画像の特徴量を算出し、
前記検査画像の特徴量と、前記診断済みのテンプレート画像の特徴量と比較して総合一致度を算出し、
前記総合一致度が第1条件を満たすテンプレート画像を選出し、
処置具の在庫情報を含む手技情報を参照して、選出されたテンプレート画像に対応付けられた処置具に対して適切度を算出し、
前記適切度が第2条件を満たす処置具を含む手技支援情報を出力し、
前記検査画像と、前記手技支援情報に含まれる前記処置具をディスプレイに表示する内視鏡システム。
Equipped with an image control processor,
The image control processor,
Acquire inspection images,
calculating a feature amount of a diagnosed template image stored in a template image storage memory and associated with a treatment instrument;
calculating a feature amount of the inspection image;
comparing the feature amount of the inspection image and the feature amount of the diagnosed template image to calculate an overall degree of matching;
selecting a template image that satisfies the first condition for the overall degree of matching;
referring to procedure information including inventory information of treatment tools, calculating the appropriateness for the treatment tools associated with the selected template image;
outputting procedure support information including a treatment instrument whose appropriateness satisfies a second condition;
An endoscope system that displays the examination image and the treatment tool included in the surgical assistance information on a display.
前記第1発光パターンは、前記第1照明期間のフレーム数が、それぞれの前記第1照明期間において同じである第1Aターンと、前記第1照明期間のフレーム数が、それぞれの前記第1照明期間において異なっている第1Bターンとのうちのいずれか1つである請求項17に記載の内視鏡システム。 The first light emission pattern includes a 1A pattern in which the number of frames in the first illumination period is the same in each of the first illumination periods, and a pattern in which the number of frames in the first illumination period is the same in each of the first illumination periods. 18. The endoscope system according to claim 17, which is any one of a 1B pattern that is different in period.
JP2022539996A 2020-07-28 2021-02-09 Pending JPWO2022024423A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020127790 2020-07-28
PCT/JP2021/004826 WO2022024423A1 (en) 2020-07-28 2021-02-09 Endoscope system and method for operating same

Publications (2)

Publication Number Publication Date
JPWO2022024423A1 JPWO2022024423A1 (en) 2022-02-03
JPWO2022024423A5 true JPWO2022024423A5 (en) 2023-03-02

Family

ID=80037907

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022539996A Pending JPWO2022024423A1 (en) 2020-07-28 2021-02-09

Country Status (3)

Country Link
JP (1) JPWO2022024423A1 (en)
CN (1) CN116194027A (en)
WO (1) WO2022024423A1 (en)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4127769B2 (en) * 2002-05-28 2008-07-30 オリンパス株式会社 Medical control system
GB201703878D0 (en) * 2017-03-10 2017-04-26 Cambridge Medical Robotics Ltd Control system
WO2019008942A1 (en) * 2017-07-03 2019-01-10 富士フイルム株式会社 Medical image processing device, endoscope device, diagnostic support device, medical service support device and report generation support device
WO2019116592A1 (en) * 2017-12-14 2019-06-20 オリンパス株式会社 Device for adjusting display image of endoscope, and surgery system
WO2020039932A1 (en) * 2018-08-20 2020-02-27 富士フイルム株式会社 Endoscope system
JP2020046893A (en) * 2018-09-19 2020-03-26 尚紀 北村 Surgery support system and virtual surgery support system
US11605161B2 (en) * 2019-01-10 2023-03-14 Verily Life Sciences Llc Surgical workflow and activity detection based on surgical videos

Similar Documents

Publication Publication Date Title
US8657737B2 (en) Electronic endoscope system, an electronic endoscope processor, and a method of acquiring blood vessel information
JP5457247B2 (en) Electronic endoscope system, processor device for electronic endoscope, and method for operating electronic endoscope system
US10251538B2 (en) Endoscope system and method for controlling the same
US20190374088A1 (en) Endoscope system and operation method therefor
JP5190944B2 (en) Endoscope apparatus and method for operating endoscope apparatus
JP5690790B2 (en) Endoscope system and method for operating endoscope system
US9801573B2 (en) Endoscope system, processor device, and method for operating endoscope system
JP7289373B2 (en) Medical image processing device, endoscope system, diagnosis support method and program
JP4917822B2 (en) Endoscope device
US20180368658A1 (en) Endoscope system, processor device, and method for operating endoscope system
JP5729881B2 (en) ENDOSCOPE SYSTEM, ENDOSCOPE SYSTEM PROCESSOR DEVICE, AND ENDOSCOPE IMAGE PROCESSING METHOD
JPWO2019163540A1 (en) Endoscope system
JP5670400B2 (en) ENDOSCOPE SYSTEM, PROCESSOR DEVICE THEREOF, AND METHOD FOR OPERATING ENDOSCOPE SYSTEM
US20190335978A1 (en) Endoscope system and image display device
JP5747362B2 (en) Endoscope device
US20210161372A1 (en) Endoscope system
JPWO2022024423A5 (en)
JP6731065B2 (en) Endoscope system and operating method thereof
JP6099518B2 (en) Endoscope system and method of operation
JP7386347B2 (en) Endoscope system and its operating method
WO2022014235A1 (en) Image analysis processing device, endoscopy system, operation method for image analysis processing device, and program for image analysis processing device
JP2021191314A (en) Endoscope system and operation method of endoscope system
JPWO2022018894A5 (en)
US9861267B2 (en) Video processor for endoscope, and endoscope system including the same
JPH02104332A (en) Endoscope device for spectrometry