JP7411515B2 - Endoscope system and its operating method - Google Patents

Endoscope system and its operating method Download PDF

Info

Publication number
JP7411515B2
JP7411515B2 JP2020122226A JP2020122226A JP7411515B2 JP 7411515 B2 JP7411515 B2 JP 7411515B2 JP 2020122226 A JP2020122226 A JP 2020122226A JP 2020122226 A JP2020122226 A JP 2020122226A JP 7411515 B2 JP7411515 B2 JP 7411515B2
Authority
JP
Japan
Prior art keywords
image
illumination
light
observation
lesion candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020122226A
Other languages
Japanese (ja)
Other versions
JP2022018842A (en
Inventor
崇徳 出村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2020122226A priority Critical patent/JP7411515B2/en
Publication of JP2022018842A publication Critical patent/JP2022018842A/en
Application granted granted Critical
Publication of JP7411515B2 publication Critical patent/JP7411515B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Endoscopes (AREA)

Description

本発明は、画像処理によって、病変部に代表される所定の病変候補領域のAIによる自動検出を行う内視鏡システム及びその作動方法に関する。 The present invention relates to an endoscope system that uses image processing to automatically detect a predetermined lesion candidate region, typically a lesion, using AI, and an operating method thereof.

医療分野においては、光源装置、内視鏡、及びプロセッサ装置を備える内視鏡システムを用いた診断が広く行われている。内視鏡システムは、光源装置が発する照明光を、内視鏡を介して観察対象に照射し、その照明光で照明中の観察対象を撮像して得た画像信号に基づいて、プロセッサ装置が観察対象の画像を生成する。この画像をディスプレイに表示することにより、医師は、ディスプレイ上の画像を見ながら診断を行うことができる。 In the medical field, diagnosis using an endoscope system including a light source device, an endoscope, and a processor device is widely performed. In an endoscope system, illumination light emitted by a light source device is irradiated onto an observation object via an endoscope, and a processor device performs processing based on an image signal obtained by imaging the observation object being illuminated with the illumination light. Generate an image of the observation target. By displaying this image on the display, the doctor can make a diagnosis while viewing the image on the display.

内視鏡検査では、内視鏡挿入部の挿入時は通常光照射で観察を行い、抜去時は特殊光で観察するという医師がいるが、通常光しか使用しない挿入時の病変は、見落としてしまう可能性がある。そのため、内視鏡スコープ挿入時に医師がフリーズ、キャプチャをしないが病変の疑いがある、病変候補領域について、通常光及び特殊光でキャプチャしておき、必要に応じてAI処理も実施する技術が開発されつつある。例えば、内視鏡診断時にコンピュータが医師に代わって特殊光照射により得た病変候補領域の情報を、通常光照射により得た画像に表示し報知することは、医師による病変候補領域の見落としを防ぐことができるため、内視鏡診断の確度を上げるものとして期待されている。 In endoscopy, some doctors use normal light to observe the endoscope when it is inserted, and use special light to remove it; however, lesions that are observed during insertion using only normal light may be overlooked. There is a possibility that it will be stored away. Therefore, a technology has been developed that captures lesion candidate areas with normal light and special light and performs AI processing if necessary, for areas where the doctor freezes or does not capture images when inserting an endoscope, but is suspected of being a lesion. It is being done. For example, during endoscopic diagnosis, a computer can display and notify information about lesion candidate areas obtained by special light irradiation on behalf of the doctor on images obtained by normal light irradiation, which prevents doctors from overlooking lesion candidate areas. Therefore, it is expected to improve the accuracy of endoscopic diagnosis.

具体的には、特許文献1では、内視鏡において、通常光と特殊光を自動的に切り替えて発光する場合に、特殊光照射により得た病変部などの注目領域の情報を通常光診断画像に表示し、観察対象上の注目領域の視認性を向上することによって、病変部の検出をし易くしている。 Specifically, in Patent Document 1, when an endoscope automatically switches between normal light and special light to emit light, information on areas of interest such as a lesion obtained by special light irradiation is used as a normal light diagnostic image. This makes it easier to detect lesions by improving the visibility of the region of interest on the observation target.

国際公開第2019/059059号International Publication No. 2019/059059

特許文献1ではユーザーは、白色光画像において特定光画像にて検出した病変などの注目領域を観察する。しかし、内視鏡先端部の移動に従って、内視鏡診断では観察対象が変化するため常に適切な照明光照射で行えるとは限らず、視覚的な情報を取りこぼす恐れがある。例えば、特定光画像よりも白色光画像のほうがより多くの情報を得られることがある。病変の色などの視覚的特徴を捉え、病変の形や状態を詳細に把握するためには、観察対象に応じた適切な照明光照射が必要となる。 In Patent Document 1, a user observes a region of interest such as a lesion detected in a specific light image in a white light image. However, as the endoscope tip moves, the object to be observed changes during endoscopic diagnosis, so it is not always possible to perform the diagnosis with appropriate illumination light, and there is a risk that visual information may be missed. For example, more information may be obtained from a white light image than from a specific light image. In order to capture visual characteristics such as the color of a lesion and to understand the shape and condition of the lesion in detail, it is necessary to apply appropriate illumination light according to the object to be observed.

本発明は、互いに発光スペクトルが異なる第1照明光と第2照明光を自動で切り替えて発光する場合において、観察対象に応じた適切な照明光照射に基づく観察画像の表示を行うことによって、病変の見落とし防止及び確度の高い病変候補領域を観察できる内視鏡システム及びその作動方法を提供することを目的とする。 The present invention provides a method for displaying observation images based on appropriate illumination light irradiation according to the observation target when first illumination light and second illumination light having different emission spectra are automatically switched and emitted. It is an object of the present invention to provide an endoscope system and an operating method thereof that can prevent overlooking of lesions and observe lesion candidate regions with high accuracy.

本発明の内視鏡システムは、1照明光と、第1照明光と発光スペクトルが異なる第2照明光とを発する光源部と、第1照明光を発光する第1照明期間と第2照明光を発光する第2照明期間とを自動的に切り替える場合において、第1照明光を第1発光パターンで発光し、第2照明光を第2発光パターンで発光する光源用プロセッサと、第1照明光によって照明された観察対象を撮像して得られる第1画像信号と、第2照明光によって照明された観察対象を撮像して第2画像信号とを出力する内視鏡の撮像センサと、画像制御用プロセッサとを備え、画像制御用プロセッサは、第1画像信号及び第2画像信号に対して認識処理を行い、認識処理により病変候補領域を認識した場合には、病変候補領域の確度を算出し、病変候補領域を認識し、且つ、第1画像信号に基づく病変候補領域の確度が、第2画像信号に基づく病変候補領域の確度よりも高い場合には、第1画像信号に基づく第1観察画像に対して、病変候補領域の認識結果を表示する病変候補領域認識済み観察画像をディスプレイに表示する第1表示制御を行い、病変候補領域を認識し、且つ、第2画像信号に基づく病変候補領域の確度が、第1画像信号に基づく病変候補領域の確度よりも高い場合には、第1観察画像に対して、第2画像信号に基づく第2観察画像を合成した合成観察画像をディスプレイに表示する第2表示制御を行い、第2発光パターンが、第2照明光の発光スペクトルが、それぞれの第2照明期間において異なっている第2B発光パターンである場合において、互いに発光スペクトルが異なる複数の第2照明光を発光する第2照明光発光サイクルにおいて、各第2照明光に対応する複数の第2画像信号からいずれも病変候補領域を認識した場合には、画像制御用プロセッサは、第2表示制御を行う際に、第1観察画像と、複数の第2観察画像の中から病変候補領域の確度が最も高い第2観察画像とを合成して、合成観察画像を生成する。 The endoscope system of the present invention includes a light source section that emits first illumination light and second illumination light having an emission spectrum different from that of the first illumination light, a first illumination period that emits the first illumination light, and a second illumination period that emits the first illumination light. In the case of automatically switching between a second illumination period in which light is emitted, a light source processor that emits the first illumination light in a first light emission pattern and emits the second illumination light in a second light emission pattern; an imaging sensor of an endoscope that outputs a first image signal obtained by capturing an image of an observation target illuminated by light; and a second image signal obtained by capturing an image of an observation target illuminated by second illumination light; and a control processor, the image control processor performs recognition processing on the first image signal and the second image signal, and when a lesion candidate area is recognized by the recognition process, calculates the accuracy of the lesion candidate area. When the lesion candidate area is recognized and the accuracy of the lesion candidate area based on the first image signal is higher than the accuracy of the lesion candidate area based on the second image signal, the first image signal based on the first image signal is recognized. A first display control is performed on the observation image to display the lesion candidate area recognized observation image on the display, which displays the recognition result of the lesion candidate area, and the lesion candidate area is recognized and the lesion candidate area is recognized based on the second image signal. If the accuracy of the candidate area is higher than the accuracy of the lesion candidate area based on the first image signal, display a composite observation image in which a second observation image based on the second image signal is combined with the first observation image. When the second display control is performed to display the second illumination light in the second illumination period, and the second light emission pattern is a second B light emission pattern in which the emission spectrum of the second illumination light is different in each second illumination period, the emission spectra are different from each other. In a second illumination light emission cycle in which a plurality of second illumination lights are emitted, if a lesion candidate region is recognized from the plurality of second image signals corresponding to each second illumination light, the image control processor: When performing the second display control, the first observation image and the second observation image with the highest probability of being a lesion candidate area from among the plurality of second observation images are combined to generate a composite observation image.

第2発光パターンが、第2照明光の発光スペクトルが、それぞれの第2照明期間において同じである第2A発光パターンである場合には、画像制御用プロセッサは、第2表示制御を行う際に、第1観察画像と第2観察画像とを合成して、合成観察画像を生成することが好ましい。 When the second light emission pattern is a second A light emission pattern in which the emission spectrum of the second illumination light is the same in each second illumination period, the image control processor, when performing the second display control, It is preferable to generate a composite observation image by combining the first observation image and the second observation image.

第2発光パターンが、第2照明光の発光スペクトルが、それぞれの第2照明期間において異なっている第2B発光パターンである場合において、互いに発光スペクトルが異なる複数の第2照明光を発光する第2照明光発光サイクルにおいて、各第2照明光に対応する複数の第2画像信号のうち少なくともいずれかから病変候補領域を認識した場合には、画像制御用プロセッサは、第2表示制御を行う際に、第1観察画像と、複数の第2観察画像のうち認識処理により病変候補領域を認識した病変認識済みの第2観察画像とを合成して、合成観察画像を生成することが好ましい。 When the second light emission pattern is a second B light emission pattern in which the emission spectra of the second illumination lights are different in each second illumination period, the second light emission pattern emits a plurality of second illumination lights having different emission spectra. In the illumination light emission cycle, when a lesion candidate region is recognized from at least one of the plurality of second image signals corresponding to each second illumination light, the image control processor performs second display control. It is preferable to generate a composite observation image by combining the first observation image and a second observation image in which a lesion candidate region has been recognized through recognition processing among the plurality of second observation images.

ディスプレイは、メイン画面及びサブ画面を有し、画像制御用プロセッサは、認識処理により病変候補領域を認識し、且つ、第1観察画像又は第2観察画像をキャプチャするキャプチャ処理が行われた場合には、第2表示制御を行う際に、合成観察画像をメイン画面に表示し、且つ、第2観察画像をサブ画面に表示することが好ましい。 The display has a main screen and a sub-screen, and the image control processor recognizes the lesion candidate area through recognition processing, and when the capture processing for capturing the first observation image or the second observation image is performed. When performing the second display control, it is preferable to display the composite observation image on the main screen and display the second observation image on the sub-screen.

第1発光パターンは、第1照明期間のフレーム数が、それぞれの第1照明期間において同じである第1A発光パターンと、第1照明期間のフレーム数が、それぞれの第1照明期間において異なっている第1B発光パターンとのうちのいずれか1つのパターンであることが好ましい。 The first light emission pattern has a first light emission pattern in which the number of frames in the first illumination period is the same in each first illumination period, and the first light emission pattern in which the number of frames in the first illumination period is different in each first illumination period. It is preferable that the light emitting pattern is one of the first and second light emitting patterns.

第2発光パターンは、第2照明期間のフレーム数が、それぞれの第2照明期間において同じであり、且つ、第2照明光の発光スペクトルが、それぞれの第2照明期間において同じである第2A発光パターン、第2照明期間のフレーム数が、それぞれの第2照明期間において同じであり、且つ、第2照明光の発光スペクトルが、それぞれの第2照明期間において異なっている第2B発光パターン、第2照明期間のフレーム数が、それぞれの第2照明期間において異なっており、且つ、第2照明光の発光スペクトルが、それぞれの第2照明期間において同じである第2C発光パターン、及び、第2照明期間のフレーム数が、それぞれの第2照明期間において異なっており、且つ、第2照明光の発光スペクトルが、それぞれの第2照明期間において異なっている第2D発光パターンのうちのいずれか1つのパターンであることが好ましい。 The second light emission pattern includes a 2A light emission pattern in which the number of frames in the second illumination period is the same in each of the second illumination periods, and the emission spectrum of the second illumination light is the same in each of the second illumination periods. A second B light emission pattern, in which the number of frames in the second illumination period is the same in each second illumination period, and the emission spectrum of the second illumination light is different in each second illumination period; A 2C light emission pattern in which the number of frames of the illumination period is different in each second illumination period, and the emission spectrum of the second illumination light is the same in each second illumination period, and the second illumination period. The number of frames is different in each second illumination period, and the emission spectrum of the second illumination light is different in each second illumination period. It is preferable that there be.

画像制御用プロセッサは、内視鏡先端部の動きが一定量以下の場合に、合成処理を行い、内視鏡先端部の動きが一定量を超えた場合には合成処理を行わないことが好ましい。 It is preferable that the image control processor performs the compositing process when the movement of the endoscope tip is less than a certain amount, and does not perform the compositing process when the movement of the endoscope tip exceeds a certain amount. .

画像制御用プロセッサは、第1画像信号に対して、第2観察画像のうち病変候補領域の部位を合成して合成観察画像を生成することが好ましい。 It is preferable that the image control processor generates a composite observation image by combining the lesion candidate region of the second observation image with the first image signal.

本発明の内視鏡システムの作動方法は、1照明光と、第1照明光と発光スペクトルが異なる第2照明光とを発する光源部、第1照明光を発光する第1照明期間と第2照明光を発光する第2照明期間とを自動的に切り替える場合において、第1照明光を第1発光パターンで発光し、第2照明光を第2発光パターンで発光する光源用プロセッサ、第1照明光によって照明された観察対象を撮像して得られる第1画像信号、及び第2照明光によって照明された観察対象を撮像して第2画像信号とを出力する内視鏡の撮像センサを備える内視鏡システムにおいて、第1画像信号及び第2画像信号に対して認識処理を行い、認識処理により病変候補領域を認識した場合には、病変候補領域の確度を算出するステップと、病変候補領域を認識し、且つ、第1画像信号に基づく病変候補領域の確度が、第2画像信号に基づく病変候補領域の確度よりも高い場合には、第1画像信号に基づく第1観察画像に対して、病変候補領域の認識結果を表示する病変候補領域認識済み観察画像をディスプレイに表示する第1表示制御を行うステップと、病変候補領域を認識し、且つ、第2画像信号に基づく病変候補領域の確度が、第1画像信号に基づく病変候補領域の確度よりも高い場合には、第1観察画像に対して、第2画像信号に基づく第2観察画像を合成した合成観察画像をディスプレイに表示する第2表示制御を行うステップと、第2発光パターンが、第2照明光の発光スペクトルが、それぞれの第2照明期間において異なっている第2B発光パターンである場合において、互いに発光スペクトルが異なる複数の第2照明光を発光する第2照明光発光サイクルにおいて、各第2照明光に対応する複数の第2画像信号からいずれも病変候補領域を認識した場合には、第2表示制御を行う際に、第1観察画像と、複数の第2観察画像の中から病変候補領域の確度が最も高い第2観察画像とを合成して、合成観察画像を生成する。ステップと有する。
The operating method of the endoscope system of the present invention includes a light source unit that emits first illumination light and second illumination light having a different emission spectrum from the first illumination light, a first illumination period that emits the first illumination light, and a first illumination period that emits the first illumination light; a light source processor that emits the first illumination light in a first light emission pattern and the second illumination light in a second light emission pattern; The endoscope includes an imaging sensor that outputs a first image signal obtained by capturing an image of an observation target illuminated by illumination light, and a second image signal obtained by capturing an image of an observation target illuminated by second illumination light. In the endoscope system, recognition processing is performed on the first image signal and the second image signal, and when a lesion candidate region is recognized by the recognition processing, a step of calculating the accuracy of the lesion candidate region, and a step of calculating the accuracy of the lesion candidate region. , and if the accuracy of the lesion candidate area based on the first image signal is higher than the accuracy of the lesion candidate area based on the second image signal, then , performing first display control to display a lesion candidate area recognized observation image on a display displaying the recognition result of the lesion candidate area, and recognizing the lesion candidate area and detecting the lesion candidate area based on the second image signal. If the accuracy is higher than the accuracy of the lesion candidate area based on the first image signal, a composite observation image obtained by combining the first observation image with the second observation image based on the second image signal is displayed on the display. performing second display control; and when the second light emission pattern is a second B light emission pattern in which the light emission spectrum of the second illumination light is different in each second illumination period, a plurality of light emission patterns having different light emission spectra each other; In the second illumination light emission cycle in which the second illumination light is emitted, if a lesion candidate area is recognized from the plurality of second image signals corresponding to each second illumination light, when performing the second display control, , a composite observation image is generated by combining the first observation image and a second observation image with the highest probability of being a lesion candidate region among the plurality of second observation images. step and have.

本発明によれば、互いに発光スペクトルが異なる第1照明光と第2照明光を切り替えて発光する場合において、観察対象に応じた適切な照明光照射に基づく観察画像の表示を行うことによって、病変の見落とし防止及び確度の高い病変候補領域を観察できる。 According to the present invention, when the first illumination light and the second illumination light having different emission spectra are switched and emitted, the observation image is displayed based on the appropriate illumination light irradiation according to the observation target, so that the lesion can be easily detected. It is possible to prevent overlooking and to observe lesion candidate areas with high accuracy.

内視鏡システムの外観図である。FIG. 1 is an external view of an endoscope system. 内視鏡システムの機能を示すブロック図である。FIG. 2 is a block diagram showing the functions of the endoscope system. 紫色光V、青色光B、緑色光G、及び赤色光Rの発光スペクトルを示すグラフである。It is a graph showing the emission spectra of violet light V, blue light B, green light G, and red light R. マルチ発光モード時の第1A発光パターン及び第2A発光パターンを示す説明図である。It is an explanatory view showing the 1st A light emission pattern and the 2nd A light emission pattern in the multi-light emission mode. マルチ発光モード時の第1B発光パターンを示す説明図である。FIG. 3 is an explanatory diagram showing a 1B light emission pattern in a multi-light emission mode. マルチ発光モード時の第2B発光パターンを示す説明図である。FIG. 7 is an explanatory diagram showing a second B light emission pattern in a multi-light emission mode. マルチ発光モード時の第2C発光パターンを示す説明図である。It is an explanatory view showing the 2nd C light emission pattern in multi-light emission mode. マルチ発光モード時の第2D発光パターンを示す説明図である。FIG. 7 is an explanatory diagram showing a 2D light emission pattern in a multi-light emission mode. 撮像センサの各カラーフィルタの分光透過率を示すグラフである。It is a graph showing the spectral transmittance of each color filter of the image sensor. マルチ発光モード時の第1撮像期間及び第2撮像期間を示す説明図である。FIG. 3 is an explanatory diagram showing a first imaging period and a second imaging period in a multi-light emission mode. マルチ発光モード時の病変候補領域認識済み観察画像の画面表示を示す説明図である。FIG. 3 is an explanatory diagram showing a screen display of an observation image in which a lesion candidate region has been recognized in a multi-light emission mode. マルチ発光モード時の合成観察画像の画面表示を示す説明図である。FIG. 3 is an explanatory diagram showing a screen display of a composite observation image in a multi-light emission mode. マルチ発光モード時の第2表示制御における画面切り替え表示を示す説明図である。FIG. 6 is an explanatory diagram showing screen switching display in second display control during multi-light emission mode. マルチ発光モード時の第2A発光パターンの際の第2表示制御を示す説明図である。It is an explanatory view showing the 2nd display control in the case of the 2nd A light emission pattern in the multi-light emission mode. マルチ発光モード時の第2B発光パターンの際に病変候補領域を有する複数の第2観察画像から特定の第2観察画像を選択する第2表示制御を示す説明図である。FIG. 7 is an explanatory diagram showing second display control for selecting a specific second observation image from a plurality of second observation images having a lesion candidate area during the second B light emission pattern in the multi-light emission mode. マルチ発光モード時の第2B発光パターンの際に複数の第2観察画像から病変候補領域を有する第2観察画像を選択する第2表示制御を示す説明図である。FIG. 7 is an explanatory diagram showing second display control for selecting a second observation image having a lesion candidate area from a plurality of second observation images during the second B light emission pattern in the multi-light emission mode. マルチ発光モード時の病変非認識時の表示制御を示す説明図である。FIG. 7 is an explanatory diagram showing display control when no lesion is recognized in the multi-light emission mode. マルチ発光モード時の一連の流れを示すフローチャートである。It is a flowchart which shows a series of flows in multi-light emission mode.

図1に示すように、内視鏡システム10は、内視鏡12と、光源装置14と、プロセッサ装置16と、ディスプレイ18と、ユーザーインターフェース19とを有する。内視鏡12は、光源装置14と光学的に接続し、且つ、プロセッサ装置16と電気的に接続される。内視鏡12は、被検体内に挿入する挿入部12aと、挿入部12aの基端部分に設けた操作部12bと、挿入部12aの先端側に設けた湾曲部12c及び先端部12dを有している。湾曲部12cは、操作部12bのアングルノブ12eを操作することにより湾曲動作する。この湾曲動作によって先端部12dが所望の方向に向けられる。 As shown in FIG. 1, the endoscope system 10 includes an endoscope 12, a light source device 14, a processor device 16, a display 18, and a user interface 19. The endoscope 12 is optically connected to the light source device 14 and electrically connected to the processor device 16 . The endoscope 12 has an insertion section 12a that is inserted into a subject, an operation section 12b provided at the proximal end of the insertion section 12a, and a curved section 12c and a distal end 12d provided at the distal end of the insertion section 12a. are doing. The bending portion 12c performs a bending operation by operating the angle knob 12e of the operating portion 12b. This bending action directs the tip 12d in a desired direction.

また、操作部12bには、アングルノブ13aの他、画像の手動による取得操作に用いるキャプチャ処理指示部13b、観察モードの切り替え操作に用いるモード切替スイッチ13c、ズーム倍率の変更操作に用いるズーム操作部13dを設けている。キャプチャ処理指示部13bは、手動で、観察対象の画像を取得する手動キャプチャを行うために用いられる。ユーザーがキャプチャ処理指示部13bを操作することによって、画像を取得した場合には、取得した画像は、キャプチャ画像保存用メモリ70(図2参照)に保存される。なお、画像の保存制御には、手動キャプチャの他、病変候補領域DR(図11参照)を認識した場合に、第1観察画像又は第2観察画像を自動的にキャプチャする自動キャプチャが含まれる。 In addition to the angle knob 13a, the operation section 12b also includes a capture processing instruction section 13b used for manual image acquisition operations, a mode changeover switch 13c used for switching observation modes, and a zoom operation section used for changing zoom magnification. 13d is provided. The capture processing instruction unit 13b is used to manually perform a manual capture to obtain an image of an observation target. When an image is acquired by the user operating the capture processing instruction section 13b, the acquired image is stored in the captured image storage memory 70 (see FIG. 2). In addition to manual capture, the image storage control includes automatic capture in which the first observation image or the second observation image is automatically captured when the lesion candidate region DR (see FIG. 11) is recognized.

内視鏡システム10は、観察モードとして、第1観察モード、第2観察モード、及びマルチ発光モードとを有している。観察モードが第1観察モードである場合、複数色の光を第1観察モード用の光量比Lcで合波した第1照明光を発光するとともに、この第1照明光で照明中の観察対象を撮像して得られた第1画像信号に基づき、第1観察画像をディスプレイ18に表示する。また、観察モードが第2観察モードである場合、複数色の光を第2観察モード用の光量比Lsで合波した第2照明光を発光するとともに、この第2照明光で照明中の観察対象を撮像して得られた第2画像信号に基づき、第2観察画像をディスプレイ18に表示する。 The endoscope system 10 has a first observation mode, a second observation mode, and a multi-light emission mode as observation modes. When the observation mode is the first observation mode, the first illumination light is emitted by combining multiple colors of light at the light intensity ratio Lc for the first observation mode, and the observation target being illuminated with the first illumination light is emitted. A first observed image is displayed on the display 18 based on the first image signal obtained by imaging. In addition, when the observation mode is the second observation mode, a second illumination light is emitted, which is a combination of light of multiple colors at a light intensity ratio Ls for the second observation mode, and during observation during illumination with this second illumination light. A second observed image is displayed on the display 18 based on the second image signal obtained by imaging the object.

また、観察モードがマルチ発光モードである場合、第1照明光と第2照明光を交互に発光する。そして、AI(Artificial Intelligence)などを用いた病変の認識処理によって病変候補領域DRを認識しなかった場合、第1照明光で照明中の観察対象を撮像して得られる第1観察画像を、ディスプレイ18のメイン画面18aに表示する。また、マルチ発光モードでは、観察時に病変候補領域を認識した場合、第2画像信号から部位最適な画像を取得し、第1観察画像とともに合成処理部に送信され、画像合成およびディスプレイ18への表示を行う。なお、部位最適な画像とは、AI診断等により、病変候補領域DRの確度が高いと判定された画像である。また、病変候補領域DRの確度とはガンなどの病変である確率などで表される。 Furthermore, when the observation mode is the multi-light emission mode, the first illumination light and the second illumination light are alternately emitted. If the lesion candidate region DR is not recognized through lesion recognition processing using AI (Artificial Intelligence) or the like, the first observation image obtained by imaging the observation target illuminated with the first illumination light is displayed on the display. 18 main screen 18a. In addition, in the multi-emission mode, if a lesion candidate area is recognized during observation, an optimal image of the site is acquired from the second image signal, and is sent to the synthesis processing unit along with the first observation image, and is synthesized and displayed on the display 18. I do. Note that the site-optimal image is an image determined by AI diagnosis or the like to have a high degree of certainty of the lesion candidate region DR. Further, the accuracy of the lesion candidate region DR is expressed by the probability that it is a lesion such as cancer.

プロセッサ装置16は、ディスプレイ18及びユーザーインターフェース19と電気的に接続する。ディスプレイ18は、観察対象の画像や、画像に付帯する情報等を出力表示する。ユーザーインターフェース19は、機能設定等の入力操作を受け付ける。 Processor device 16 is electrically connected to display 18 and user interface 19 . The display 18 outputs and displays images of objects to be observed, information attached to the images, and the like. The user interface 19 accepts input operations such as function settings.

図2において、光源装置14は、光源部20と、光源部20を制御する光源用プロセッサ21とを備えている。光源部20は、例えば、複数の半導体光源を有し、これらをそれぞれ点灯または消灯し、点灯する場合には各半導体光源の発光量を制御することにより、観察対象を照明する照明光を発する。本実施形態では、光源部20は、V-LED(Violet Light Emitting Diode)20a、B-LED(Blue Light Emitting Diode)20b、G-LED(Green Light Emitting Diode)20c、及びR-LED(Red Light Emitting Diode)20dの4色のLEDを有する。 In FIG. 2, the light source device 14 includes a light source section 20 and a light source processor 21 that controls the light source section 20. The light source section 20 has, for example, a plurality of semiconductor light sources, turns on or off each of these, and when turned on, controls the amount of light emitted from each semiconductor light source, thereby emitting illumination light that illuminates the observation target. In the present embodiment, the light source section 20 includes a V-LED (Violet Light Emitting Diode) 20a, a B-LED (Blue Light Emitting Diode) 20b, a G-LED (Green Light Emitting Diode) 20c, and an R-LED (Red Light Emitting Diode). Emitting Diode) has 20d four-color LEDs.

図3に示すように、V-LED20aは、中心波長405±10nm、波長範囲380~420nmの紫色光Vを発生する。B-LED20bは、中心波長450±10nm、波長範囲420~500nmの青色光Bを発生する。G-LED20cは、波長範囲が480~600nmに及ぶ緑色光Gを発生する。R-LED20dは、中心波長620~630nmで、波長範囲が600~650nmに及ぶ赤色光Rを発生する。 As shown in FIG. 3, the V-LED 20a generates violet light V with a center wavelength of 405±10 nm and a wavelength range of 380 to 420 nm. The B-LED 20b generates blue light B with a center wavelength of 450±10 nm and a wavelength range of 420 to 500 nm. The G-LED 20c generates green light G with a wavelength range of 480 to 600 nm. The R-LED 20d generates red light R with a center wavelength of 620-630 nm and a wavelength range of 600-650 nm.

光源用プロセッサ21は、V-LED20a、B-LED20b、G-LED20c、及びR-LED20dを制御する。光源用プロセッサ21は、各LED20a~20dをそれぞれ独立に制御することで、紫色光V、青色光B、緑色光G、又は赤色光Rをそれぞれ独立に光量を変えて発光可能である。また、光源用プロセッサ21は、第1観察モード時には、紫色光V、青色光B、緑色光G、及び赤色光R間の光量比がVc:Bc:Gc:Rcとなる白色光を発光するように、各LED20a~20dを制御する。なお、Vc、Bc、Gc、Rc>0である。 The light source processor 21 controls the V-LED 20a, B-LED 20b, G-LED 20c, and R-LED 20d. By independently controlling each of the LEDs 20a to 20d, the light source processor 21 can emit violet light V, blue light B, green light G, or red light R by independently changing the amount of light. Further, the light source processor 21 is configured to emit white light in which the light amount ratio among the violet light V, blue light B, green light G, and red light R is Vc:Bc:Gc:Rc in the first observation mode. Then, each LED 20a to 20d is controlled. Note that Vc, Bc, Gc, and Rc>0.

また、光源用プロセッサ21は、第2観察モード時には、短波長の狭帯域光としての紫色光V、青色光B、緑色光G、及び赤色光Rとの光量比がVs:Bs:Gs:Rsとなる第2照明光を発光するように、各LED20a~20dを制御する。光量比Vs:Bs:Gs:Rsは、第1観察モード時に使用する光量比Vc:Bc:Gc:Rcと異なっており、観察目的に応じて適宜定められる。例えば、表層血管を強調する場合には、Vsを、他のBs、Gs、Rsよりも大きくすることが好ましく、中深層血管を強調する場合には、Gsを、他のVs、Gs、Rsよりも大きくすることが好ましい。 In addition, in the second observation mode, the light source processor 21 has a light amount ratio of Vs:Bs:Gs:Rs between violet light V, blue light B, green light G, and red light R as short wavelength narrow band light. Each of the LEDs 20a to 20d is controlled so as to emit the second illumination light. The light amount ratio Vs:Bs:Gs:Rs is different from the light amount ratio Vc:Bc:Gc:Rc used in the first observation mode, and is appropriately determined depending on the observation purpose. For example, when emphasizing superficial blood vessels, it is preferable to make Vs larger than other Bs, Gs, and Rs, and when emphasizing middle and deep blood vessels, it is preferable to make Gs larger than other Vs, Gs, and Rs. It is also preferable to make it larger.

また、光源用プロセッサ21は、マルチ発光モード時に、第1照明光と第2照明光とを自動的に切り替えて発光する場合において、第1照明光を第1発光パターンで発光し、第2照明光を第2発光パターンで発光する。具体的には、第1発光パターンは、図4に示すように、第1照明期間のフレーム数が、それぞれの第1照明期間において同じである第1A発光パターンと、図5に示すように、第1照明期間のフレーム数が、それぞれの第1照明期間において異なっている第1B発光パターンとのうちのいずれかであることが好ましい。 Further, in the case where the light source processor 21 emits light by automatically switching between the first illumination light and the second illumination light in the multi-light emission mode, the light source processor 21 emits the first illumination light in the first light emission pattern and the second illumination light. Light is emitted in a second light emitting pattern. Specifically, as shown in FIG. 4, the first light emission pattern includes a first light emission pattern in which the number of frames in the first illumination period is the same in each first illumination period, and a first light emission pattern, as shown in FIG. It is preferable that the number of frames in the first illumination period is one of the 1B light emission patterns that are different in each of the first illumination periods.

第2発光パターンは、図4に示すように、第2照明期間のフレーム数が、それぞれの第2照明期間において同じであり、且つ、第2照明光の発光スペクトルが、それぞれの第2照明期間において同じである第2A発光パターン、図6に示すように、第2照明期間のフレーム数が、それぞれの第2照明期間において同じであり、且つ、第2照明光の発光スペクトルが、それぞれの第2照明期間において異なっている第2B発光パターン、図7に示すように、第2照明期間のフレーム数が、それぞれの第2照明期間において異なっており、且つ、第2照明光の発光スペクトルが、それぞれの第2照明期間において同じである第2C発光パターン、図8に示すように、第2照明期間のフレーム数が、それぞれの第2照明期間において異なっており、且つ、第2照明光の発光スペクトルが、それぞれの第2照明期間において異なっている第2D発光パターンのうちのいずれかであることが好ましい。なお、第1照明光の発光スペクトルは、それぞれの第1照明期間において同じであってもよく、異なってもよい。 As shown in FIG. 4, the second light emission pattern is such that the number of frames in the second illumination period is the same in each second illumination period, and the emission spectrum of the second illumination light is the same in each second illumination period. As shown in FIG. 6, the number of frames in the second illumination period is the same in each second illumination period, and the emission spectrum of the second illumination light is the same in each second illumination period. As shown in FIG. 7, the number of frames in the second illumination period is different in each second illumination period, and the emission spectrum of the second illumination light is different in the second illumination period. As shown in FIG. 8, the second C light emission pattern is the same in each of the second illumination periods, and the number of frames in the second illumination period is different in each of the second illumination periods; Preferably, the spectrum is one of the second D emission patterns that is different in each second illumination period. Note that the emission spectrum of the first illumination light may be the same or different in each first illumination period.

ここで、第1照明期間は第2照明期間よりも長くすることが好ましく、第1照明期間は2フレーム以上とすることが好ましい。例えば、図4では、第1発光パターンを第1A発光パターンとし、第2発光パターンを第2A発光パターン(第2照明期間のフレーム数:同じ、第2照明光の発光スペクトル:同じ)とする場合において、第1照明期間を2フレームとし、第2照明期間を1フレームとしている。第1照明光は、ディスプレイ18に表示する第1観察画像の生成に用いられることから、第1照明光を観察対象に照明することによって、明るい画像が得られることが好ましい。 Here, the first illumination period is preferably longer than the second illumination period, and the first illumination period is preferably two or more frames. For example, in FIG. 4, when the first light emission pattern is the 1A light emission pattern and the second light emission pattern is the 2A light emission pattern (number of frames in the second illumination period: the same, emission spectrum of the second illumination light: the same) In this case, the first illumination period is two frames, and the second illumination period is one frame. Since the first illumination light is used to generate the first observation image displayed on the display 18, it is preferable that a bright image be obtained by illuminating the observation target with the first illumination light.

例えば、第1照明光は、白色光であることが好ましい。一方、第2照明光は、合成処理に用いることから、第2照明光を観察対象に照明することによって、合成処理に適した画像が得られることが好ましい。例えば、血管深さが異なる複数の血管の形状情報に基づいて、合成処理を行う場合には、第2照明光として、紫色光V、青色光B、緑色光G、赤色光Rを用いることが好ましい。この場合、第2発光パターンを第2A発光パターン(第2照明期間のフレーム数:同じ、第2照明光の発光スペクトル:同じ)又は第2C発光パターン(第2照明期間のフレーム数:異なる、第2照明光の発光スペクトル:同じ)とする場合には、紫色光V、青色光B、緑色光G、赤色光Rのうちのいずれか1つの光を用いることが好ましい。一方、第2発光パターンを第2B発光パターン(第2照明期間のフレーム数:同じ、第2照明光の発光スペクトル:異なる)又は第2D発光パターン(第2照明期間のフレーム数:異なる、第2照明光の発光スペクトル:異なる)とする場合には、第2照明期間において、紫色光V、青色光B、緑色光G、赤色光Rのうち少なくとも2つの光を特定の順番で切り替えて発光することが好ましい。 For example, it is preferable that the first illumination light is white light. On the other hand, since the second illumination light is used for the compositing process, it is preferable that an image suitable for the compositing process be obtained by illuminating the observation target with the second illumination light. For example, when performing synthesis processing based on shape information of multiple blood vessels with different blood vessel depths, it is possible to use violet light V, blue light B, green light G, and red light R as the second illumination light. preferable. In this case, the second light emission pattern is set to the 2A light emission pattern (the number of frames in the second illumination period: the same, the emission spectrum of the second illumination light: the same) or the 2C light emission pattern (the number of frames in the second illumination period: different, the second illumination light emission spectrum: the same). In the case where the emission spectra of the two illumination lights are the same, it is preferable to use any one of violet light V, blue light B, green light G, and red light R. On the other hand, the second light emission pattern is changed to the 2B light emission pattern (the number of frames in the second illumination period: the same, the emission spectrum of the second illumination light: different) or the 2D light emission pattern (the number of frames in the second illumination period: different, the second Emission spectrum of illumination light: different), in the second illumination period, at least two of the violet light V, blue light B, green light G, and red light R are switched in a specific order and emitted. It is preferable.

なお、第1照明期間と第2照明期間の切替パターンである第1、2発光パターンの詳細については、撮像用プロセッサ45による撮像センサ44の撮像制御に基づいて定められることから、後述する。また、フレームとは、撮像センサ44において特定タイミングから信号読み出し完了までの間の期間を少なくとも含む期間の単位のことをいう。 The details of the first and second light emitting patterns, which are switching patterns between the first illumination period and the second illumination period, will be described later since they are determined based on the imaging control of the imaging sensor 44 by the imaging processor 45. Further, a frame refers to a unit of period including at least a period from a specific timing to completion of signal readout in the image sensor 44.

例えば、粘膜表面からの深さが50μmの範囲内にある表層血管、粘膜表面からの深さが200μmの範囲内にある中層血管、及び、粘膜表面からの深さが600μmの範囲内にある深層血管に関する血管の形状情報を取得し、これら表層、中層、深層の血管の形状情報に基づいて合成処理を行う場合には、表層血管を強調する紫色光V、中層血管を強調する緑色光G、深層血管を強調する赤色光Rを用いることが好ましい。 For example, superficial blood vessels within a depth of 50 μm from the mucosal surface, middle blood vessels within a depth of 200 μm from the mucosal surface, and deep blood vessels within a depth of 600 μm from the mucosal surface. When obtaining blood vessel shape information and performing synthesis processing based on the shape information of superficial, middle, and deep blood vessels, violet light V emphasizes superficial blood vessels, green light G emphasizes middle blood vessels, It is preferable to use red light R that emphasizes deep blood vessels.

なお、本明細書において、光量比は、少なくとも1つの半導体光源の比率が0(ゼロ)の場合を含む。したがって、各半導体光源のいずれか1つまたは2つ以上が点灯しない場合を含む。例えば、紫色光V、青色光B、緑色光G、及び赤色光R間の光量比が1:0:0:0の場合のように、半導体光源の1つのみを点灯し、他の3つは点灯しない場合も、光量比を有するものとする。 Note that in this specification, the light amount ratio includes a case where the ratio of at least one semiconductor light source is 0 (zero). Therefore, this includes cases where one or more of the semiconductor light sources do not light up. For example, when the light intensity ratio between violet light V, blue light B, green light G, and red light R is 1:0:0:0, only one of the semiconductor light sources is turned on, and the other three It is assumed that the light intensity ratio is maintained even when the light is not lit.

図2に示すように、各LED20a~20dが発する光は、ミラーやレンズなどで構成される光路結合部23を介して、ライトガイド25に入射される。ライトガイド25は、内視鏡12及びユニバーサルコード(内視鏡12と、光源装置14及びプロセッサ装置16を接続するコード)に内蔵されている。ライトガイド25は、光路結合部23からの光を、内視鏡12の先端部12dまで伝搬する。 As shown in FIG. 2, the light emitted from each of the LEDs 20a to 20d is incident on a light guide 25 via an optical path coupling section 23 composed of a mirror, a lens, and the like. The light guide 25 is built into the endoscope 12 and a universal cord (a cord that connects the endoscope 12, the light source device 14, and the processor device 16). The light guide 25 propagates the light from the optical path coupling section 23 to the distal end portion 12d of the endoscope 12.

内視鏡12の先端部12dには、照明光学系30aと撮像光学系30bが設けられている。照明光学系30aは照明レンズ32を有しており、ライトガイド25によって伝搬した照明光は照明レンズ32を介して観察対象に照射される。撮像光学系30bは、対物レンズ42、撮像センサ44を有している。照明光を照射したことによる観察対象からの光は、対物レンズ42及びズームレンズ43を介して撮像センサ44に入射する。これにより、撮像センサ44に観察対象の像が結像される。ズームレンズ43は観察対象を拡大するためのレンズであり、ズーム操作部12hを操作することによって、テレ端とワイド端と間を移動する。 The distal end portion 12d of the endoscope 12 is provided with an illumination optical system 30a and an imaging optical system 30b. The illumination optical system 30a has an illumination lens 32, and the illumination light propagated by the light guide 25 is irradiated onto the observation target via the illumination lens 32. The imaging optical system 30b includes an objective lens 42 and an imaging sensor 44. Light emitted from the observation target by illumination light enters the image sensor 44 via the objective lens 42 and the zoom lens 43. As a result, an image of the observation target is formed on the image sensor 44. The zoom lens 43 is a lens for enlarging an observation target, and is moved between a telephoto end and a wide end by operating the zoom operation section 12h.

撮像センサ44は、原色系のカラーセンサであり、青色カラーフィルタを有するB画素(青色画素)、緑色カラーフィルタを有するG画素(緑色画素)、及び、赤色カラーフィルタを有するR画素(赤色画素)の3種類の画素を備える。図9に示すように、青色カラーフィルタBFは、主として青色帯域の光、具体的には波長帯域が380~560nmの波長帯域の光を透過する。青色カラーフィルタBFの透過率は、波長460~470nm付近においてピークになる。緑色カラーフィルタはGF、主として緑色帯域の光、具体的には、460~620nmの波長帯域の光を透過する。赤色カラーフィルタRFは、主として赤色帯域の光、具体的には、580~760nmの波長帯域の光を透過する。 The image sensor 44 is a primary color sensor, and includes a B pixel (blue pixel) having a blue color filter, a G pixel (green pixel) having a green color filter, and an R pixel (red pixel) having a red color filter. It has three types of pixels. As shown in FIG. 9, the blue color filter BF mainly transmits light in a blue band, specifically, light in a wavelength band of 380 to 560 nm. The transmittance of the blue color filter BF reaches a peak near a wavelength of 460 to 470 nm. The green color filter transmits GF, mainly light in the green band, specifically, light in the wavelength band of 460 to 620 nm. The red color filter RF mainly transmits light in the red band, specifically, light in the wavelength band of 580 to 760 nm.

また、撮像センサ44は、CCD(Charge-Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)であることが好ましい。撮像用プロセッサ45は、撮像センサ44を制御する。具体的には、撮像用プロセッサ45により撮像センサ44の信号読み出しを行うことによって、撮像センサ44から画像信号が出力される。第1観察モードでは、第1照明光が撮像センサ44に露光された状態で、撮像用プロセッサ45が信号読み出しを行うことにより、撮像センサ44のB画素からBc画像信号が出力され、G画素からGc画像信号が出力され、R画素からRc画像信号が出力される。第2観察モードでは、第2照明光が撮像センサ44に露光された状態で、撮像用プロセッサ45が信号読み出しを行うことによって、撮像センサ44のB画素からBs画像信号が出力され、G画素からGs画像信号が出力され、R画素からRs画像信号が出力される。 Moreover, it is preferable that the image sensor 44 is a CCD (Charge-Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor). The imaging processor 45 controls the imaging sensor 44 . Specifically, an image signal is output from the image sensor 44 by reading out a signal from the image sensor 44 by the image sensor 45 . In the first observation mode, when the image sensor 44 is exposed to the first illumination light, the image sensor 45 reads out the signal, so that the B pixel of the image sensor 44 outputs a Bc image signal, and the G pixel outputs a Bc image signal. A Gc image signal is output, and an Rc image signal is output from the R pixel. In the second observation mode, when the image sensor 44 is exposed to the second illumination light, the image sensor 45 reads the signal, so that the Bs image signal is output from the B pixel of the image sensor 44, and the Bs image signal is output from the G pixel of the image sensor 44. A Gs image signal is output, and an Rs image signal is output from the R pixel.

マルチ発光モードでは、撮像用プロセッサ45は、図10に示すように、第1照明期間において第1照明光を撮像センサ44に露光させた状態で、信号読み出しを行うことにより、撮像センサ44から第1画像信号を出力させる。第1画像信号を出力する期間を第1撮像期間とする。第1画像信号には、B画素から出力されるB1画像信号、G画素から出力されるG1画像信号、及び、R画素から出力されるR1画像信号が含まれる。また、撮像用プロセッサ45は、第2照明期間において第2照明光を撮像センサ44に露光させた状態で、信号読み出しを行うことにより、撮像センサ44から第2画像信号を出力させる。第2画像信号を出力する期間を第2撮像期間とする。第2画像信号には、B画素から出力されるB2画像信号、G画素から出力されるG2画像信号、及び、R画素から出力されるR2画像信号が含まれる。 In the multi-light emission mode, as shown in FIG. 10, the imaging processor 45 reads out signals from the imaging sensor 44 while exposing the imaging sensor 44 to the first illumination light during the first illumination period. Output one image signal. The period during which the first image signal is output is referred to as a first imaging period. The first image signal includes a B1 image signal output from the B pixel, a G1 image signal output from the G pixel, and an R1 image signal output from the R pixel. Further, the imaging processor 45 causes the imaging sensor 44 to output a second image signal by reading a signal while exposing the imaging sensor 44 to the second illumination light during the second illumination period. The period during which the second image signal is output is defined as a second imaging period. The second image signal includes a B2 image signal output from the B pixel, a G2 image signal output from the G pixel, and an R2 image signal output from the R pixel.

図2に示すように、CDS/AGC(Correlated Double Sampling/Automatic Gain Control)回路46は、撮像センサ44から得られるアナログの画像信号に相関二重サンプリング(CDS)や自動利得制御(AGC)を行う。CDS/AGC回路46を経た画像信号は、A/D(Analog/Digital)コンバータ48により、デジタルの画像信号に変換される。A/D変換後のデジタル画像信号がプロセッサ装置16に入力される。 As shown in FIG. 2, a CDS/AGC (Correlated Double Sampling/Automatic Gain Control) circuit 46 performs correlated double sampling (CDS) and automatic gain control (AGC) on the analog image signal obtained from the image sensor 44. . The image signal that has passed through the CDS/AGC circuit 46 is converted into a digital image signal by an A/D (Analog/Digital) converter 48. The digital image signal after A/D conversion is input to the processor device 16.

プロセッサ装置16には、画像処理などの処理に関するプログラムがプログラム用メモリ(図示しない)に格納されている。プロセッサ装置16においては、画像制御用プロセッサによって構成される中央制御部68によって、プログラム用メモリ内のプログラムが動作することによって、画像取得部50と、DSP(Digital Signal Processor)52と、ノイズ低減部54と、画像処理切替部56と、画像処理部58と、表示制御部60の機能が実現される。また、画像処理部58の機能実現に伴って、第1観察画像生成部62と、第2観察画像生成部64と、認識処理部66との機能が実現される。なお、マルチ発光モードにおいては、画像制御用プロセッサは、第1画像信号又は第2画像信号に基づいて画像処理を行い、ディスプレイ18に対する制御を行う。 In the processor device 16, programs related to processing such as image processing are stored in a program memory (not shown). In the processor device 16, an image acquisition section 50, a DSP (Digital Signal Processor) 52, and a noise reduction section are operated by a central control section 68 constituted by an image control processor, by operating a program in a program memory. 54, an image processing switching section 56, an image processing section 58, and a display control section 60. Furthermore, with the realization of the functions of the image processing section 58, the functions of the first observation image generation section 62, the second observation image generation section 64, and the recognition processing section 66 are realized. Note that in the multi-light emission mode, the image control processor performs image processing based on the first image signal or the second image signal, and controls the display 18.

画像取得部50は、内視鏡12から入力されるカラー画像を取得する。カラー画像には、撮像センサ44のB画素、G画素、R画素から出力される青色信号(B画像信号)、緑色信号(G画像信号)、赤色信号(R画像信号)が含まれている。取得したカラー画像はDSP52に送信される。DSP52は、受信したカラー画像に対して、欠陥補正処理、オフセット処理、ゲイン補正処理、マトリクス処理、ガンマ変換処理、デモザイク処理、及びYC変換処理等の各種信号処理を行う。欠陥補正処理では、撮像センサ44の欠陥画素の信号が補正される。オフセット処理では、欠陥補正処理を施した画像信号から暗電流成分を除かれ、正確な零レベルを設定される。ゲイン補正処理は、オフセット処理後の各色の画像信号に特定のゲイン係数を乗じることによりカラー画像の信号レベルを整える。特定のゲイン係数には、B画像信号に対して掛け合わされるBゲイン係数、G画像信号に対して掛け合わされるGゲイン係数、及び、R画像信号に対して掛け合わされるRゲイン係数が含まれる。 The image acquisition unit 50 acquires a color image input from the endoscope 12. The color image includes a blue signal (B image signal), a green signal (G image signal), and a red signal (R image signal) output from the B pixel, G pixel, and R pixel of the image sensor 44. The acquired color image is sent to the DSP 52. The DSP 52 performs various signal processing such as defect correction processing, offset processing, gain correction processing, matrix processing, gamma conversion processing, demosaic processing, and YC conversion processing on the received color image. In the defect correction process, signals of defective pixels of the image sensor 44 are corrected. In the offset processing, dark current components are removed from the image signal that has been subjected to the defect correction processing, and an accurate zero level is set. The gain correction process adjusts the signal level of the color image by multiplying the image signal of each color after the offset process by a specific gain coefficient. The specific gain coefficients include a B gain coefficient by which the B image signal is multiplied, a G gain coefficient by which the G image signal is multiplied, and an R gain coefficient by which the R image signal is multiplied. .

ゲイン補正処理後の各色の画像信号には、色再現性を高めるマトリクス処理が施される。その後、ガンマ変換処理によって、カラー画像の明るさや彩度が整えられる。マトリクス処理後のカラー画像には、デモザイク処理(等方化処理,同時化処理とも言う)が施され、補間により各画素の欠落した色の信号を生成される。デモザイク処理によって、全画素がRGB各色の信号を有するようになる。DSP52は、デモザイク処理後のカラー画像にYC変換処理を施し、輝度信号Yと色差信号Cb及び色差信号Crをノイズ低減部54に出力する。 The image signal of each color after the gain correction process is subjected to matrix processing to improve color reproducibility. After that, the brightness and saturation of the color image are adjusted by gamma conversion processing. The color image after matrix processing is subjected to demosaic processing (also referred to as isotropic processing or simultaneous processing), and a signal of the missing color of each pixel is generated by interpolation. Through demosaic processing, all pixels have signals of each RGB color. The DSP 52 performs YC conversion processing on the demosaiced color image, and outputs the luminance signal Y, color difference signal Cb, and color difference signal Cr to the noise reduction unit 54.

ノイズ低減部54は、DSP56でデモザイク処理等を施したカラー画像に対して、例えば移動平均法やメディアンフィルタ法等によるノイズ低減処理を施す。ノイズを低減したカラー画像は、画像処理切替部56に入力される。 The noise reduction unit 54 performs noise reduction processing using, for example, a moving average method or a median filter method on the color image that has been subjected to demosaic processing or the like by the DSP 56 . The color image with reduced noise is input to the image processing switching unit 56.

画像処理切替部56は、設定されている観察モードによって、ノイズ低減部54からの画像信号の送信先を、画像処理部58を構成する、第1観察画像生成部62と、第2観察画像生成部64と、認識処理部66のいずれかに切り替える。具体的には、第1観察モードにセットされている場合には、ノイズ低減部54からの画像信号を第1観察画像生成部62に入力する。第2観察モードにセットされている場合には、ノイズ低減部54からの画像信号を第2観察画像生成部64に入力する。マルチ発光モードにセットされている場合には、ノイズ低減部54からの画像信号を認識処理部66に入力する。 The image processing switching unit 56 determines whether the image signal from the noise reduction unit 54 is transmitted to the first observation image generation unit 62 or the second observation image generation unit, which constitutes the image processing unit 58, depending on the set observation mode. 64 or recognition processing section 66. Specifically, when the first observation mode is set, the image signal from the noise reduction section 54 is input to the first observation image generation section 62. When set to the second observation mode, the image signal from the noise reduction section 54 is input to the second observation image generation section 64. When the multi-light emission mode is set, the image signal from the noise reduction section 54 is input to the recognition processing section 66.

第1観察画像生成部62は、入力した1フレーム分のRc画像信号、Gc画像信号、Bc画像信号に対して、第1観察画像用画像処理を施す。第1観察画像用画像処理には、3×3のマトリクス処理、階調変換処理、3次元LUT(Look Up Table)処理等の色変換処理、色彩強調処理、空間周波数強調等の構造強調処理が含まれる。第1観察画像用画像処理が施されたRc画像信号、Gc画像信号、Bc画像信号は、第1観察画像として表示制御部60に入力される。 The first observation image generation unit 62 performs first observation image image processing on the input Rc image signal, Gc image signal, and Bc image signal for one frame. Image processing for the first observation image includes 3×3 matrix processing, gradation conversion processing, color conversion processing such as three-dimensional LUT (Look Up Table) processing, color enhancement processing, and structure enhancement processing such as spatial frequency enhancement. included. The Rc image signal, Gc image signal, and Bc image signal that have been subjected to the first observation image image processing are input to the display control unit 60 as the first observation image.

第2観察画像生成部64は、入力した1フレーム分のRs画像信号、Gs画像信号、Bs画像信号に対して、第2観察画像用画像処理を施す。第2観察画像用画像処理には、3×3のマトリクス処理、階調変換処理、3次元LUT(Look Up Table)処理等の色変換処理、色彩強調処理、空間周波数強調等の構造強調処理が含まれる。第2観察画像用画像処理が施されたRs画像信号、Gs画像信号、Bs画像信号は、第2観察画像として表示制御部60に入力される。 The second observation image generation unit 64 performs second observation image image processing on the input Rs image signal, Gs image signal, and Bs image signal for one frame. Image processing for the second observation image includes 3×3 matrix processing, gradation conversion processing, color conversion processing such as three-dimensional LUT (Look Up Table) processing, color enhancement processing, and structure enhancement processing such as spatial frequency enhancement. included. The Rs image signal, Gs image signal, and Bs image signal subjected to the second observation image image processing are input to the display control unit 60 as the second observation image.

認識処理部66は、第1画像信号及び第2画像信号に対しては病変候補領域DRを有するか否かの認識処理を行い、病変候補領域DRを認識した際はその確度の判定及び比較も行う。認識処理部66は、病変候補領域DRを認識し、且つ、第2画像信号に基づく病変候補領域DRの確度が、第1画像信号に基づく病変候補領域DRの確度よりも高い場合は、第1画像信号(R1画像信号、G1画像信号、B1画像信号)、第2画像信号(R2画像信号、G2画像信号、B2画像信号)に対して上記第1観察画像生成部62と第2観察画像生成部64と同様の画像処理を行い、第1観察画像及び第2観察画像を取得し、合成処理部67に送信する。一方、病変候補領域DRを認識し、且つ、第1画像信号に基づく病変候補領域DRの確度が、第2画像信号に基づく病変候補領域DRの確度よりも高い場合は、第1画像信号に基づく第1観察画像に対して、病変候補領域DRの認識結果を表示する病変候補領域認識済み観察画像OP1を表示制御部60に送信する。なお、第1画像信号及び第2画像信号のどちらも病変候補領域DRを認識しなかった場合は第1画像信号のみ画像処理を行い、第1観察画像を表示制御部60に送信する。また、病変候補領域DRを認識すると、自動で画像をキャプチャする、自動キャプチャが行われる。 The recognition processing unit 66 performs recognition processing on the first image signal and the second image signal to determine whether or not they have a lesion candidate region DR, and when the lesion candidate region DR is recognized, it also determines and compares the accuracy. conduct. The recognition processing unit 66 recognizes the lesion candidate region DR, and if the accuracy of the lesion candidate region DR based on the second image signal is higher than the accuracy of the lesion candidate region DR based on the first image signal, the recognition processing unit 66 recognizes the lesion candidate region DR. The first observation image generation unit 62 and second observation image generation are performed for image signals (R1 image signal, G1 image signal, B1 image signal) and second image signals (R2 image signal, G2 image signal, B2 image signal). The image processing unit 64 performs the same image processing as the unit 64 to obtain a first observation image and a second observation image, and transmits them to the synthesis processing unit 67 . On the other hand, when the lesion candidate region DR is recognized and the accuracy of the lesion candidate region DR based on the first image signal is higher than the accuracy of the lesion candidate region DR based on the second image signal, the lesion candidate region DR is recognized based on the first image signal. For the first observation image, a lesion candidate region recognized observation image OP1 that displays the recognition result of the lesion candidate region DR is transmitted to the display control unit 60. Note that if neither the first image signal nor the second image signal recognizes the lesion candidate region DR, image processing is performed only on the first image signal, and the first observation image is transmitted to the display control unit 60. Furthermore, when the lesion candidate region DR is recognized, automatic capture is performed to automatically capture an image.

合成処理部67は、認識処理部66から入力される第1観察画像と、第2観察画像に対する合成処理を行う。合成処理は第2観察画像のうち病変候補領域DRの最適部位(図に参照)を第1観察画像の同部位に合成する。合成処理よって取得した合成観察画像ОP2は表示制御部60に入力される。 The combination processing unit 67 performs a combination process on the first observed image input from the recognition processing unit 66 and the second observed image. In the compositing process, the optimal part of the lesion candidate region DR (see the figure) in the second observation image is composited with the same part in the first observation image. The composite observation image OP2 obtained through the composite processing is input to the display control unit 60.

なお、合成処理を行う第2観察画像の病変候補領域DRの最適部位は、一定以上の確度がある部位とし、矩形状のエリアとすることが好ましい。 Note that the optimum region of the lesion candidate region DR in the second observation image to be subjected to the synthesis process is preferably a region with a certain level of accuracy or more, and is preferably a rectangular area.

表示制御部60は、入力された観察画像をディスプレイ18に表示する制御を行う。具体的には、表示制御部60は、各観察画像を、ディスプレイ18においてフルカラーで表示可能にする映像信号に変換する。変換済みの映像信号はディスプレイ18に入力される。これにより、ディスプレイ18には各観察画像が表示される。 The display control unit 60 performs control to display the input observation image on the display 18. Specifically, the display control unit 60 converts each observed image into a video signal that can be displayed in full color on the display 18. The converted video signal is input to the display 18. As a result, each observed image is displayed on the display 18.

マルチ発光モードにおいて、病変候補領域DRを認識し、且つ、第1画像信号に基づく病変候補領域DRの確度が、第2画像信号に基づく病変候補領域DRの確度よりも高い場合に、病変候補領域済み観察画像OP1が表示制御部60に入力された場合には、表示制御部60は、図11に示すように、病変候補領域認識済み観察画像OP1をディスプレイ18に表示する第1表示制御を行う。図11では、病変候補領域DRの認識結果は、病変候補領域DRの周囲を囲む矩形状のエリアBA1として表示されている。 In the multi-light emission mode, when the lesion candidate region DR is recognized and the accuracy of the lesion candidate region DR based on the first image signal is higher than the accuracy of the lesion candidate region DR based on the second image signal, the lesion candidate region DR is recognized. When the completed observation image OP1 is input to the display control unit 60, the display control unit 60 performs first display control to display the lesion candidate region recognized observation image OP1 on the display 18, as shown in FIG. . In FIG. 11, the recognition result of the lesion candidate region DR is displayed as a rectangular area BA1 surrounding the lesion candidate region DR.

一方、病変候補領域DRを認識し、且つ、第2画像信号に基づく病変候補領域DRの確度が、第1画像信号に基づく病変候補領域DRの確度よりも高い場合に、合成観察画像OP2が表示制御部60に入力された場合には、表示制御部60は、図12に示すように、合成観察画像OP2をディスプレイ18に表示する第2表示制御を行う。図12の合成観察画像OP2では、第1観察画像に対して、第2観察画像の病変候補領域DRの最適部位BA2が合成表示されている。合成観察画像OP2においては、病変候補領域DRのみが通常の粘膜とは異なる色で表示され、それ以外は通常の粘膜の色で表示されているため、通常の観察状態を維持した状態で、病変候補領域DRを強調表示することができる。 On the other hand, when the lesion candidate region DR is recognized and the accuracy of the lesion candidate region DR based on the second image signal is higher than the accuracy of the lesion candidate region DR based on the first image signal, the composite observation image OP2 is displayed. When input to the control unit 60, the display control unit 60 performs second display control to display the composite observation image OP2 on the display 18, as shown in FIG. In the composite observation image OP2 of FIG. 12, the optimum site BA2 of the lesion candidate region DR in the second observation image is displayed in a composite manner with respect to the first observation image. In the composite observation image OP2, only the lesion candidate region DR is displayed in a color different from that of normal mucous membranes, and the rest is displayed in the color of normal mucous membranes. The candidate region DR can be highlighted.

なお、表示制御部60は図13に示すように、ディスプレイ18はメイン画面18a及びサブ画面18bを有し、認識処理部66により病変候補領域DRが認識され、且つ、第1観察画像又は第2観察画像をキャプチャするキャプチャ処理が行われた場合には、合成観察画像OP2をメイン画面18aに表示し、且つ、第2観察画像をサブ画面に表示してもよい。また、病変候補領域DRを認識しなかった場合は、第1観察画像をメイン画面18aに表示する。同じ観察画像の表示期間は撮像期間のフレームに合わせて行い、第2照明期間に対応するフレームでは直前のフレームの観察画像を連続表示する。 Note that, as shown in FIG. 13, the display control unit 60 has a main screen 18a and a sub-screen 18b. When a capture process for capturing observation images is performed, the composite observation image OP2 may be displayed on the main screen 18a, and the second observation image may be displayed on the sub-screen. Further, if the lesion candidate region DR is not recognized, the first observation image is displayed on the main screen 18a. The display period of the same observation image is performed in accordance with the frame of the imaging period, and the observation image of the immediately previous frame is continuously displayed in the frame corresponding to the second illumination period.

図14~図16にて第2撮像期間で病変候補領域DRを認識した場合及び図17にて第2撮像期間で病変候補領域DRを認識しなかった場合の表示制御について説明する。なお、この表示制御で第2画像信号から認識した病変候補領域DRはいずれも第1画像信号よりも高い確度であるとし、病変の非認識は認識しても確度が第1画像信号より低い場合も含む。 Display control will be described in the case where the lesion candidate region DR is recognized in the second imaging period with reference to FIGS. 14 to 16 and in the case where the lesion candidate region DR is not recognized in the second imaging period with reference to FIG. 17. Note that the lesion candidate regions DR recognized from the second image signal with this display control are all assumed to have higher accuracy than the first image signal, and if the lesion is not recognized, even if the lesion is recognized, the accuracy is lower than the first image signal. Also included.

マルチ発光モードにおける第2照明光の発光スペクトルが1種類である場合(第1発光パターンを第1A発光パターンとし、第2発光パターンを第2A発光パターン(第2照明期間のフレーム数:同じ、第2照明光の発光スペクトル:同じ)とする場合)における第2表示制御を説明する。図14に示すように認識処理部66で病変候補領域DRを認識された第2画像信号は、画像処理され、第2観察画像として表示制御部60及び、直後の第1撮像期間の2フレームから得た第1観察画像とともに合成処理部67に送信され、合成処理が行われる。病変候補領域DRを有する第2観察画像は合成処理部67にて病変候補領域DRの最適部位を第1観察画像と合成処理し、合成観察画像OP2を取得し、表示制御部60に送信される。また、病変候補領域DRが認識された際に、自動で画像をキャプチャする自動キャプチャが行われる。表示制御部60では、合成観察画像OP2をディスプレイ18のメイン画面18aに合成観察画像OP2を、サブ画面18bに合成に用いた第2観察画像を表示する。認識処理部66が新たに撮像した第2観察画像において病変候補領域DRを認識する度に、合成処理部67において合成観察画像OP2を取得し、ディスプレイ18の表示が切り替わる。 When the emission spectrum of the second illumination light in the multi-emission mode is one type (the first emission pattern is the 1A emission pattern, the second emission pattern is the 2A emission pattern (number of frames in the second illumination period: the same, The second display control in the case where the emission spectra of the two illumination lights are the same will be described. As shown in FIG. 14, the second image signal in which the lesion candidate region DR has been recognized by the recognition processing unit 66 is subjected to image processing, and is sent to the display control unit 60 as a second observation image. It is transmitted to the synthesis processing unit 67 together with the obtained first observation image, and a synthesis process is performed. The second observation image having the lesion candidate region DR is subjected to a composition processing by combining the optimal part of the lesion candidate region DR with the first observation image in the composition processing section 67 to obtain a composite observation image OP2, which is transmitted to the display control section 60. . Further, when the lesion candidate region DR is recognized, automatic capture is performed to automatically capture an image. The display control unit 60 displays the composite observation image OP2 on the main screen 18a of the display 18, and displays the second observation image used for composition on the sub-screen 18b. Every time the recognition processing unit 66 recognizes the lesion candidate region DR in the newly captured second observation image, the synthesis processing unit 67 acquires a synthesis observation image OP2, and the display on the display 18 is switched.

マルチ発光モードにおいて、図15に示すように、第2照明光の発光スペクトルが複数の種類である場合(第1発光パターンを第1A発光パターンとし、第2発光パターンを第2B発光パターン(第2照明期間のフレーム数:同じ、第2照明光の発光スペクトル:異なる)とする場合)において、複数種類の第2照明光を発光する第2照明光発光サイクル(図15では、発光スペクトルX、Yの2種類の第2照明光を発光するサイクル)において、各第2照明光に対応する複数の第2画像信号からいずれも病変候補領域DRを認識した場合の第2表示制御について説明する。 In the multi-light emission mode, as shown in FIG. In the case where the number of frames of the illumination period is the same and the emission spectrum of the second illumination light is different), the second illumination light emission cycle (in FIG. 15, the emission spectrum X, Y The second display control when the lesion candidate region DR is recognized from the plurality of second image signals corresponding to each second illumination light in the cycle in which two types of second illumination light are emitted will be described.

発光スペクトルXの第2照明光に基づく撮像期間CP2Xで取得した第2画像信号、及び、発光スペクトルYの第2照明光に基づく撮像期間CP2Yで取得した第2画像信号のいずれでも病変候補領域DRを認識した場合には、複数の第2観察画像のうち同一の病変で確度が最も高い病変候補領域DRを有する第2観察画像を、第1観察画像に合成する。図15では、第2撮像期間CP2Xの第2画像信号から認識した病変候補領域DRの確度が、第2撮像期間CP2Yの第2画像信号から認識した病変候補領域DRの確度よりも高いとして、第2撮像期間CP2Xの第2画像信号の最適部位BA2を、第1観察画像に合成する。合成により得られる合成観察画像OP2は、ディスプレイ18のメイン画面18aに表示される。なお、合成観察画像OP2において同じ第2観察画像が合成処理を継続できるのは、一定期間以内、且つ、第1観察画像が同一病変候補領域DRを撮像している場合に限られる。同じ第2観察画像が画像処理を継続するのに伴い、サブ画面18bの表示も同様に第2観察画像の表示を続ける。 The lesion candidate region DR is determined by both the second image signal acquired during the imaging period CP2X based on the second illumination light of emission spectrum X and the second image signal acquired during the imaging period CP2Y based on the second illumination light of emission spectrum Y. If the second observation image is recognized, the second observation image having the lesion candidate region DR with the highest probability of being the same lesion among the plurality of second observation images is combined with the first observation image. In FIG. 15, it is assumed that the accuracy of the lesion candidate region DR recognized from the second image signal of the second imaging period CP2X is higher than the accuracy of the lesion candidate region DR recognized from the second image signal of the second imaging period CP2Y. The optimal part BA2 of the second image signal of the second imaging period CP2X is combined with the first observation image. The composite observation image OP2 obtained by the composition is displayed on the main screen 18a of the display 18. Note that the combination processing of the same second observation image in the composite observation image OP2 can be continued only within a certain period of time and only when the first observation image captures the same lesion candidate region DR. As image processing continues for the same second observation image, the display on the sub-screen 18b similarly continues to display the second observation image.

マルチ発光モードにおいて、図16に示すように、第2照明光の発光スペクトルが複数の種類である場合(第1発光パターンを第1A発光パターンとし、第2発光パターンを第2B発光パターン(第2照明期間のフレーム数:同じ、第2照明光の発光スペクトル:異なる)とする場合)において、複数種類の第2照明光を発光する第2照明光発光サイクル(図16では、発光スペクトルX、Yの2種類の第2照明光を発光するサイクル)において、各第2照明光に対応する複数の第2画像信号の少なくともいずれかから病変候補領域DRを認識した場合の第2表示制御について説明する。 In the multi-light emission mode, as shown in FIG. In the case where the number of frames of the illumination period is the same and the emission spectrum of the second illumination light is different), the second illumination light emission cycle (in FIG. 16, the emission spectra X, Y The second display control when the lesion candidate region DR is recognized from at least one of the plurality of second image signals corresponding to each second illumination light in the cycle in which two types of second illumination light are emitted will be described. .

発光スペクトルXの第2照明光に基づく撮像期間CP2Xで取得した第2画像信号で病変候補領域DRを認識する一方、発光スペクトルYの第2照明光に基づく撮像期間CP2Yで取得した第2画像信号で病変候補領域DRを認識しなかった場合(非認識の場合)には、第2撮像期間CP2Xの第2画像信号の最適部位BA2を、第1観察画像に合成する。合成により得られる合成観察画像OP2は、ディスプレイ18のメイン画面18aに表示される。なお、同一の第2観察画像は一定期間の合成処理を行うか、合成する第1観察画像と対応する部位が一定量以下になった場合は合成を停止する。この時までに新たな病変候補領域DRを有する第2画像信号を得られない場合は、病変非認識時の表示制御に移行する。 The lesion candidate region DR is recognized using the second image signal acquired during the imaging period CP2X based on the second illumination light of emission spectrum X, and the second image signal acquired during the imaging period CP2Y based on the second illumination light of emission spectrum Y. If the lesion candidate region DR is not recognized (in the case of non-recognition), the optimum region BA2 of the second image signal of the second imaging period CP2X is synthesized with the first observation image. The composite observation image OP2 obtained by the composition is displayed on the main screen 18a of the display 18. Note that the same second observation image is subjected to a synthesis process for a certain period of time, or the synthesis is stopped when the number of parts corresponding to the first observation image to be synthesized becomes less than a certain amount. If the second image signal including the new lesion candidate region DR cannot be obtained by this time, the display control is shifted to when no lesion is recognized.

マルチ発光モードにおける病変非認識時の表示制御について、図17を用いて説明する。第2画像信号に対する認識処理の結果、第2画像信号が病変候補領域DRの認識をされなかった場合、画像処理も行われず、第1観察画像が表示制御部60に送信される。表示制御部60では第1観察画像をディスプレイ18のメイン画面18aに表示する。取得した第1観察画像はフレームごとに表示するが、第2照明期間では直前のフレームの第1観察画像を連続表示する。病変候補領域DRを有する第2画像信号が取得されない限り、第1観察画像をディスプレイ18に表示を継続し、病変候補領域DRを認識した場合は、病変認識時の表示制御に移行する。なお、病変非認識時には、第1観察画像に代えて、第2観察画像を連続的に表示してもよい。 Display control when no lesion is recognized in the multi-light emission mode will be explained using FIG. 17. If the second image signal is not recognized as a lesion candidate region DR as a result of the recognition process on the second image signal, the first observation image is sent to the display control unit 60 without image processing. The display control unit 60 displays the first observation image on the main screen 18a of the display 18. The acquired first observation image is displayed frame by frame, but in the second illumination period, the first observation image of the immediately previous frame is displayed continuously. As long as the second image signal having the lesion candidate region DR is not acquired, the first observation image is continued to be displayed on the display 18, and when the lesion candidate region DR is recognized, the display control shifts to the time of lesion recognition. Note that when no lesion is recognized, the second observation image may be continuously displayed instead of the first observation image.

同一の第2撮像期間中に複数のフレームで撮像する第2Bもしくは第2D発光パターンの場合には、いずれの第2画像信号でも病変候補領域DRの判定を行う。判定の結果、病変候補領域DRを有し、且つ、より確度の高い方の第2画像信号をその第2撮像期間で取得した第2画像信号とする。 In the case of a 2B or 2D light emission pattern that is imaged in a plurality of frames during the same second imaging period, the lesion candidate region DR is determined using any second image signal. As a result of the determination, the second image signal that has the lesion candidate region DR and is more accurate is set as the second image signal acquired in the second imaging period.

なお、ディスプレイ18におけるサブ画面18bの展開は、認識処理部66が病変候補領域DRを有する第2観察画像を取得した時点もしくは、観察開始時から展開するのが好ましい。図16において、病変候補領域DRの認識及びキャプチャ処理が行われた際に、1台のディスプレイ18のメイン画面18aに合成観察画像OP2の表示を、サブ画面18bに第2観察画像の表示をしている。また、ディスプレイ18を複数台用意し、第1ディスプレイ18にはメイン画面を、第2ディスプレイ18にはサブ画面18bを表示する方法にしてもよい。 Note that it is preferable that the sub-screen 18b on the display 18 be developed from the time when the recognition processing unit 66 acquires the second observation image having the lesion candidate region DR or from the start of observation. In FIG. 16, when recognition and capture processing of the lesion candidate region DR is performed, a composite observation image OP2 is displayed on the main screen 18a of one display 18, and a second observation image is displayed on the sub-screen 18b. ing. Alternatively, a plurality of displays 18 may be prepared, and the first display 18 may display the main screen, and the second display 18 may display the sub-screen 18b.

合成観察画像OP2を取得するためには、第1観察画像を取得するフレームと第2観察画像を取得するフレームで撮像する範囲がほぼ同一である必要があるため、内視鏡先端部の動きが一定量以下の場合に、合成処理が行われる。内視鏡先端部の動きが一定量を超えた場合には、第2観察画像が病変候補領域DRを有する場合でも、合成処理は行わず第1観察画像をディスプレイ18のメイン画面18aに表示する。 In order to obtain the composite observation image OP2, the imaging range in the frame for obtaining the first observation image and the frame for obtaining the second observation image must be approximately the same, so the movement of the tip of the endoscope is If the amount is less than a certain amount, compositing processing is performed. If the movement of the endoscope tip exceeds a certain amount, the first observation image is displayed on the main screen 18a of the display 18 without performing the compositing process, even if the second observation image has a lesion candidate region DR. .

マルチ発光モードにおける画像保存制御の詳細について、説明する。マルチ発光モードにおいては、画像制御用プロセッサは、病変候補領域DRが認識された際に、認識した第1撮像期間もしくは第2撮像期間に対してキャプチャ処理指示を発する。第1撮像期間においてキャプチャ処理指示が行われた場合は、第1撮像期間に得られる複数の第1観察画像の中から、ブレが一番小さい第1観察画像をキャプチャ画像保存用メモリ70に保存するキャプチャ処理を実行し、第2撮像期間(図10参照)においてキャプチャ画像取得指示が行われた場合には、第2撮像期間に得られる第2観察画像及びその直後の第1撮像期間から上記と同様にしてブレが小さい方の第1観察画像取得する。また、第1、第2観察画像の合成処理が行われ、合成観察画像OP2を取得する。取得した各観察画像はキャプチャ画像保存用メモリ70に保存するキャプチャ処理を実行する。 Details of image storage control in multi-light emission mode will be explained. In the multi-light emission mode, when the lesion candidate region DR is recognized, the image control processor issues a capture processing instruction for the recognized first imaging period or second imaging period. When a capture processing instruction is given during the first imaging period, the first observation image with the smallest blur is stored in the captured image storage memory 70 from among the plurality of first observation images obtained during the first imaging period. When the capture process is executed and a capture image acquisition instruction is given in the second imaging period (see FIG. 10), the second observation image obtained in the second imaging period and the above from the first imaging period immediately after that are executed. In the same manner as above, the first observation image with the smaller blur is obtained. Furthermore, a process of combining the first and second observation images is performed to obtain a combined observation image OP2. Each acquired observation image is subjected to a capture process to be stored in the captured image storage memory 70.

具体的には、第1撮像期間においてキャプチャ処理が行われた場合には、画像取得期間は、キャプチャ処理が行われたタイミングのフレームを含む直近の第1撮像期間の全フレームとする。即ち、画像取得期間は、第1撮像期間の前の第2撮像期間が終わってから、次の第2撮像期間が開始するまでの間の第1撮像期間の全フレームとする。そして、画像取得期間に得られた第1キャプチャ画像のうち、ブレが小さいほうの第1キャプチャ画像をキャプチャ画像保存用メモリ70に保存する。第2撮像期間においてキャプチャ処理が行われた場合には、画像取得期間は、第2撮像期間のうちキャプチャ画像取得指示が行われたタイミングの直近のフレームの他、異なるスペクトルの発光もある場合には、残り全ての種類の発光スペクトルに対応する第2撮像期間のフレームも含まれる。例えば、第2照明光が、紫色光V、緑色光G、赤色光Rである場合には、キャプチャ処理の指示が紫色光Vの第2撮像期間に行われた場合には、画像取得期間は、紫色光Vに対応する第2撮像期間のフレームの他、緑色光Gに対応する第2撮像期間のフレーム、及び、赤色光Rに対応する第2撮像期間のフレームが含まれる。したがって、キャプチャ処理指示が行われることにより、紫色光Vに対応する第2観察画像、緑色光に対応する第2観察画像、及び、赤色光Rに対応する第2観察画像がキャプチャ画像保存用メモリ70に保存される。 Specifically, when the capture process is performed in the first imaging period, the image acquisition period is set to all frames in the most recent first imaging period, including the frame at the timing when the capture process was performed. That is, the image acquisition period is all frames of the first imaging period from the end of the second imaging period before the first imaging period until the start of the next second imaging period. Then, among the first captured images obtained during the image acquisition period, the first captured image with less blur is stored in the captured image storage memory 70. When the capture process is performed during the second imaging period, the image acquisition period includes the frame immediately preceding the timing at which the capture image acquisition instruction was performed during the second imaging period, as well as when there is light emission with a different spectrum. also includes frames of the second imaging period corresponding to all remaining types of emission spectra. For example, when the second illumination light is violet light V, green light G, and red light R, if the capture processing instruction is performed during the second imaging period of violet light V, the image acquisition period is , frames of the second imaging period corresponding to the violet light V, frames of the second imaging period corresponding to the green light G, and frames of the second imaging period corresponding to the red light R are included. Therefore, by issuing a capture processing instruction, the second observation image corresponding to the violet light V, the second observation image corresponding to the green light, and the second observation image corresponding to the red light R are stored in the memory for storing captured images. 70 is saved.

取得した各第2画像信号に対しては、認識処理を行い、病変候補領域DRの確度の比較を行う。比較結果により、病変候補領域DRの確度が高い第2画像信号の直後のフレームの第1観察画像とともに合成処理部67に送信され、合成処理を行い、取得した合成観察画像OP2もまたキャプチャ画像保存用メモリ70に保存する。 Recognition processing is performed on each acquired second image signal, and the accuracy of the lesion candidate region DR is compared. Based on the comparison result, the first observation image of the frame immediately after the second image signal with high accuracy of the lesion candidate region DR is sent to the synthesis processing unit 67, and the synthesis processing is performed and the obtained synthesis observation image OP2 is also saved as a captured image. The data is saved in the memory 70 for use.

次に、マルチ発光モードの一連の流れについて、図18に示すフローチャートに沿って説明する。最初にモード切替スイッチ12fを操作して、観察モードをマルチ発光モードに切り替える。マルチ発光モードに切り替えられると、第1照明期間と、第2照明期間とが特定発光パターンにて自動的に切り替えられる。このように特定発光パターンにて自動的に切り替えられる第1照明光と第2照明光とが、観察対象に対して照射される。 Next, a series of steps in the multi-light emission mode will be explained along the flowchart shown in FIG. 18. First, operate the mode changeover switch 12f to switch the observation mode to the multi-light emission mode. When switched to the multi-light emission mode, the first illumination period and the second illumination period are automatically switched in a specific light emission pattern. The first illumination light and the second illumination light, which are automatically switched according to the specific light emission pattern in this way, are irradiated onto the observation target.

撮像用プロセッサ45は、第1照明光が照明された観察対象を撮像センサ44で撮像させることにより、撮像センサ44から第1画像信号を出力する。同様に撮像用プロセッサ45は、第2照明期間において第2照明光が照明された観察対象を撮像センサ44で撮像させることにより、撮像センサ44から第2画像信号を出力する。 The imaging processor 45 outputs a first image signal from the imaging sensor 44 by causing the imaging sensor 44 to take an image of the observation target illuminated with the first illumination light. Similarly, the imaging processor 45 outputs a second image signal from the imaging sensor 44 by causing the imaging sensor 44 to image the observation target illuminated with the second illumination light during the second illumination period.

認識処理部66は、第1画像信号及び第2画像信号に対して認識処理を行い、病変候補領域DRの認識及び確度の判定を行う。第2画像信号が確度の高い病変候補領域DRを有する場合は、第1及び第2画像信号に対して画像処理を行い、第1観察画像及び第2観察画像を取得する。第1、第2観察画像は合成処理部67に送られ、合成処理部67では、合成観察画像OP2を取得する。合成観察画像OP2は表示制御部60に送信され、元の第2観察画像と共にディスプレイ18に表示される。第2画像信号が第1画像信号より高い確度の病変候補領域DRを有さない場合は、第1観察画像が表示制御部60に送信され、第1観察画像がディスプレイ18に表示される。観察が継続し、新たな第1、第2画像信号を取得した際には、その都度、病変候補路領域の認識及び確度の判定が行われる。 The recognition processing unit 66 performs recognition processing on the first image signal and the second image signal to recognize the lesion candidate region DR and determine the accuracy. When the second image signal has a highly accurate lesion candidate region DR, image processing is performed on the first and second image signals to obtain a first observation image and a second observation image. The first and second observation images are sent to the combination processing unit 67, and the combination processing unit 67 obtains a combination observation image OP2. The composite observation image OP2 is transmitted to the display control unit 60 and displayed on the display 18 together with the original second observation image. If the second image signal does not have a lesion candidate region DR with higher accuracy than the first image signal, the first observed image is transmitted to the display control unit 60 and displayed on the display 18. When observation continues and new first and second image signals are acquired, recognition of the lesion candidate tract region and determination of accuracy are performed each time.

本実施形態においては、第2照明光として、紫色光V、青色光B、緑色光G、赤色光Rを用いているが、その他の発光スペクトルの光を用いてもよい。例えば、第1照明光において、紫色光Vの光量を他の青色光B、緑色光G、及び赤色光Rの光量よりも大きくした第1特殊光を用いてもよい。また、第1照明光において、緑色光Gの光量を、他の紫色光V、青色光B、及び赤色光Rの光量よりも大きくした第2特殊光を用いてもよい。また、第2照明光として、第1特殊光と第2特殊光の両方を用い、第2発光パターンを第2B発光パターン又は第2D発光パターンとして、第1特殊光と第2特殊光を交互に発光するようにしてもよい。なお、第1特殊光を用いた場合には、第2画像信号に対して、観察対象に含まれる正常部と病変部との色の差を拡張する色差拡張処理を行ってもよい。色差拡張処理済みの第2画像信号に対して、合成処理を行ってもよい。 In this embodiment, violet light V, blue light B, green light G, and red light R are used as the second illumination light, but light with other emission spectra may be used. For example, in the first illumination light, first special light in which the amount of violet light V is larger than the amount of other blue light B, green light G, and red light R may be used. Further, in the first illumination light, second special light may be used in which the amount of green light G is larger than the amount of other violet light V, blue light B, and red light R. Further, as the second illumination light, both the first special light and the second special light are used, the second light emission pattern is set as the 2B light emission pattern or the 2D light emission pattern, and the first special light and the second special light are alternately used. It may also be made to emit light. Note that when the first special light is used, color difference expansion processing may be performed on the second image signal to expand the color difference between a normal area and a diseased area included in the observation target. The compositing process may be performed on the second image signal that has undergone the color difference expansion process.

なお、本実施形態においては、第1画像信号に基づく第1観察画像は、病変候補領域DRが認識されない場合もしくは病変候補領域DRの確度が第2画像信号より高い場合の観察画像に用い、第2画像信号に基づく第2観察画像は、第1画像信号より病変候補領域DRが認識された場合には合成処理に用いて、合成観察画像OP2とともにディスプレイ18に表示されるが、第1観察画像を合成処理実施時に、第2観察画像を合成処理非実施時にディスプレイ18へ表示してもよい。この場合には、第1観察画像と、第2観察画像とを、ディスプレイ18に対して切り替えて表示もしくは新たにサブ画面18bを展開することになる。第1及び第2観察画像のディスプレイ18への表示又は非表示については、ユーザーインターフェース19によって適宜設定できるようにすることが好ましい。また、メイン画面18aとサブ画面18bの表示の入れ替え等についてもユーザーインターフェース19によって適宜設定できるようにすることが好ましい。 Note that in this embodiment, the first observation image based on the first image signal is used as an observation image when the lesion candidate region DR is not recognized or when the accuracy of the lesion candidate region DR is higher than the second image signal. The second observation image based on the two-image signal is used for synthesis processing when the lesion candidate region DR is recognized from the first image signal, and is displayed on the display 18 together with the synthesis observation image OP2. The second observed image may be displayed on the display 18 when the combining process is not performed. In this case, the first observation image and the second observation image are switched and displayed on the display 18, or a new sub-screen 18b is developed. It is preferable that display or non-display of the first and second observation images on the display 18 can be set as appropriate using the user interface 19. Further, it is preferable that the user interface 19 allows settings such as switching the display of the main screen 18a and the sub-screen 18b as appropriate.

上記実施形態において、光源用プロセッサ21、撮像用プロセッサ45、画像取得部50、DPS52、ノイズ低減部54、画像処理切替部56、画像処理部58に含まれる第1観察画像生成部62、第2観察画像生成部64、認識処理部66、合成処理部67、中央制御部68といった各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウエア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA (Field Programmable Gate Array) などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、各種の処理を実行するために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。 In the above embodiment, the first observation image generation unit 62 and the second observation image generation unit included in the light source processor 21, the imaging processor 45, the image acquisition unit 50, the DPS 52, the noise reduction unit 54, the image processing switching unit 56, and the image processing unit 58 The hardware structure of the processing unit that executes various processes such as the observation image generation section 64, the recognition processing section 66, the composition processing section 67, and the central control section 68 includes the following various processors ( processor). Various types of processors include CPUs (Central Processing Units) and FPGAs (Field Programmable Gate Arrays), which are general-purpose processors that execute software (programs) and function as various processing units.The circuit configuration is changed after manufacturing. These include a programmable logic device (PLD), which is a capable processor, and a dedicated electric circuit, which is a processor having a circuit configuration specially designed to execute various types of processing.

1つの処理部は、これら各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合せ(例えば、複数のFPGAや、CPUとFPGAの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウエアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。 One processing unit may be composed of one of these various types of processors, or may be composed of a combination of two or more processors of the same type or different types (for example, multiple FPGAs or a combination of a CPU and an FPGA). may be done. Further, the plurality of processing units may be configured with one processor. As an example of configuring multiple processing units with one processor, first, as typified by computers such as clients and servers, one processor is configured with a combination of one or more CPUs and software, There is a form in which this processor functions as a plurality of processing units. Second, there are processors that use a single IC (Integrated Circuit) chip to implement the functions of an entire system including multiple processing units, as typified by System On Chip (SoC). be. In this way, various processing units are configured using one or more of the various processors described above as a hardware structure.

さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた形態の電気回路(circuitry)である。また、記憶部のハードウェア的な構造はHDD(hard disc drive)やSSD(solid state drive)等の記憶装置である。 Furthermore, the hardware structure of these various processors is, more specifically, an electric circuit (circuitry) in the form of a combination of circuit elements such as semiconductor elements. Further, the hardware structure of the storage unit is a storage device such as an HDD (hard disc drive) or an SSD (solid state drive).

10 内視鏡システム
12 内視鏡
12a 挿入部
12b 操作部
12c 湾曲部
12d 先端部
13a アングルノブ
13b キャプチャ処理指示部
13c モード切替スイッチ
13d ズーム操作部
14 光源装置
16 プロセッサ装置
18 ディスプレイ
18a メイン画面
18b サブ画面
19 ユーザーインターフェース
20 光源部
20a V-LED
20b B-LED
20c G-LED
20d R-LED
21 光源用プロセッサ
23 光路結合部
25 ライトガイド
30a 照明光学系
30b 撮像光学系
32 照明レンズ
42 対物レンズ
43 ズームレンズ
44 撮像センサ
45 撮像用プロセッサ
46 CDS/AGC回路
48 A/Dコンバータ
50 画像取得部
52 DSP
54 ノイズ低減部
56 画像処理切替部
58 画像処理部
60 表示制御部
62 第1観察画像生成部
64 第2観察画像生成部
66 認識処理部
67 合成処理部
68 中央制御部
70 キャプチャ画像保存用メモリ
BF 青色カラーフィルタ
GF 緑色カラーフィルタ
RF 赤色カラーフィルタ
DR 病変候補領域
BA1 第1観察画像の病変候補領域DRの周囲を囲む矩形状のエリア
BA2 第2観察画像の病変候補領域DRの最適部位
OP1 病変候補領域認識済み観察画像
OP2 合成観察画像
10 Endoscope system 12 Endoscope 12a Insertion section 12b Operation section 12c Curved section 12d Tip section 13a Angle knob 13b Capture processing instruction section 13c Mode changeover switch 13d Zoom operation section 14 Light source device 16 Processor device 18 Display 18a Main screen 18b Sub Screen 19 User interface 20 Light source section 20a V-LED
20b B-LED
20c G-LED
20d R-LED
21 Light source processor 23 Optical path coupling section 25 Light guide 30a Illumination optical system 30b Imaging optical system 32 Illumination lens 42 Objective lens 43 Zoom lens 44 Image sensor 45 Imaging processor 46 CDS/AGC circuit 48 A/D converter 50 Image acquisition section 52 DSP
54 Noise reduction section 56 Image processing switching section 58 Image processing section 60 Display control section 62 First observation image generation section 64 Second observation image generation section 66 Recognition processing section 67 Combination processing section 68 Central control section 70 Captured image storage memory BF Blue color filter GF Green color filter RF Red color filter DR Lesion candidate region BA1 Rectangular area surrounding the lesion candidate region DR in the first observation image BA2 Optimal site OP1 of the lesion candidate region DR in the second observation image Lesion candidate region Recognized observation image OP2 Composite observation image

Claims (9)

1照明光と、前記第1照明光と発光スペクトルが異なる第2照明光とを発する光源部と、
前記第1照明光を発光する第1照明期間と前記第2照明光を発光する第2照明期間とを自動的に切り替える場合において、前記第1照明光を第1発光パターンで発光し、前記第2照明光を第2発光パターンで発光する光源用プロセッサと、
前記第1照明光によって照明された観察対象を撮像して得られる第1画像信号と、前記第2照明光によって照明された前記観察対象を撮像して第2画像信号とを出力する内視鏡の撮像センサと、
画像制御用プロセッサとを備え、
前記画像制御用プロセッサは、
前記第1画像信号及び前記第2画像信号に対して認識処理を行い、前記認識処理により病変候補領域を認識した場合には、前記病変候補領域の確度を算出し、
前記病変候補領域を認識し、且つ、前記第1画像信号に基づく前記病変候補領域の確度が、前記第2画像信号に基づく前記病変候補領域の確度よりも高い場合には、前記第1画像信号に基づく第1観察画像に対して、前記病変候補領域の認識結果を表示する病変候補領域認識済み観察画像をディスプレイに表示する第1表示制御を行い、
前記病変候補領域を認識し、且つ、前記第2画像信号に基づく前記病変候補領域の確度が、前記第1画像信号に基づく前記病変候補領域の確度よりも高い場合には、前記第1観察画像に対して、前記第2画像信号に基づく第2観察画像を合成した合成観察画像を前記ディスプレイに表示する第2表示制御を行い、
前記第2発光パターンが、前記第2照明光の発光スペクトルが、それぞれの前記第2照明期間において異なっている第2B発光パターンである場合において、互いに発光スペクトルが異なる複数の第2照明光を発光する第2照明光発光サイクルにおいて、各第2照明光に対応する複数の第2画像信号からいずれも前記病変候補領域を認識した場合には、前記画像制御用プロセッサは、前記第2表示制御を行う際に、前記第1観察画像と、前記複数の第2観察画像の中から前記病変候補領域の確度が最も高い第2観察画像とを合成して、前記合成観察画像を生成する内視鏡システム。
a light source unit that emits first illumination light and second illumination light having a different emission spectrum from the first illumination light;
In the case where a first illumination period in which the first illumination light is emitted and a second illumination period in which the second illumination light is emitted are automatically switched, the first illumination light is emitted in a first light emission pattern, and a light source processor that emits the second illumination light in a second light emission pattern;
an endoscope that outputs a first image signal obtained by imaging the observation target illuminated by the first illumination light; and a second image signal obtained by imaging the observation target illuminated by the second illumination light. an image sensor,
Equipped with an image control processor,
The image control processor includes:
Performing a recognition process on the first image signal and the second image signal, and when a lesion candidate area is recognized by the recognition process, calculating the accuracy of the lesion candidate area,
When the lesion candidate area is recognized and the accuracy of the lesion candidate area based on the first image signal is higher than the accuracy of the lesion candidate area based on the second image signal, the first image signal performing first display control to display a lesion candidate region recognized observation image on a display, which displays the recognition result of the lesion candidate region, on the first observation image based on the first observation image;
When the lesion candidate area is recognized and the accuracy of the lesion candidate area based on the second image signal is higher than the accuracy of the lesion candidate area based on the first image signal, the first observed image , performing a second display control to display on the display a composite observation image obtained by combining a second observation image based on the second image signal;
When the second light emission pattern is a second B light emission pattern in which the emission spectra of the second illumination light are different in each of the second illumination periods, emitting a plurality of second illumination lights having mutually different emission spectra. In the second illumination light emission cycle, when the lesion candidate region is recognized from all of the plurality of second image signals corresponding to each second illumination light, the image control processor controls the second display control. an endoscope that generates the composite observation image by combining the first observation image and a second observation image with the highest accuracy of the lesion candidate region from among the plurality of second observation images. system.
前記第2発光パターンが、前記第2照明光の発光スペクトルが、それぞれの前記第2照明期間において同じである第2A発光パターンである場合には、前記画像制御用プロセッサは、前記第2表示制御を行う際に、前記第1観察画像と前記第2観察画像とを合成して、前記合成観察画像を生成する請求項1記載の内視鏡システム。 When the second light emission pattern is a second A light emission pattern in which the emission spectrum of the second illumination light is the same in each of the second illumination periods, the image control processor controls the second display control The endoscope system according to claim 1, wherein the first observation image and the second observation image are combined to generate the composite observation image. 前記第2発光パターンが、前記第2照明光の発光スペクトルが、それぞれの前記第2照明期間において異なっている第2B発光パターンである場合において、互いに発光スペクトルが異なる複数の第2照明光を発光する第2照明光発光サイクルにおいて、各第2照明光に対応する複数の第2画像信号の少なくともいずれかから前記病変候補領域を認識した場合には、前記画像制御用プロセッサは、前記第2表示制御を行う際に、前記第1観察画像と、前記複数の第2観察画像のうち前記認識処理により病変候補領域を認識した第2観察画像とを合成して、前記合成観察画像を生成する請求項1記載の内視鏡システム。 When the second light emission pattern is a second B light emission pattern in which the emission spectra of the second illumination light are different in each of the second illumination periods, emitting a plurality of second illumination lights having mutually different emission spectra. In the second illumination light emission cycle, when the lesion candidate region is recognized from at least one of the plurality of second image signals corresponding to each second illumination light, the image control processor When performing control, the first observation image and a second observation image in which a lesion candidate area has been recognized by the recognition process among the plurality of second observation images are combined to generate the composite observation image. The endoscope system according to item 1. 前記ディスプレイは、メイン画面及びサブ画面を有し、
前記画像制御用プロセッサは、
前記認識処理により病変候補領域を認識し、且つ、前記第1観察画像又は前記第2観察画像をキャプチャするキャプチャ処理が行われた場合には、前記第2表示制御を行う際に、前記合成観察画像を前記メイン画面に表示し、且つ、前記第2観察画像をサブ画面に表示する請求項1ないしいずれか1項記載の内視鏡システム。
The display has a main screen and a sub screen,
The image control processor includes:
If a lesion candidate area is recognized by the recognition process and a capture process is performed to capture the first observation image or the second observation image, when performing the second display control, the composite observation The endoscope system according to any one of claims 1 to 3 , wherein the image is displayed on the main screen, and the second observation image is displayed on a sub-screen.
第1発光パターンは、前記第1照明期間のフレーム数が、それぞれの前記第1照明期間において同じである第1A発光パターンと、前記第1照明期間のフレーム数が、それぞれの第1照明期間において異なっている第1B発光パターンとのうちのいずれか1つのパターンである請求項1ないしいずれか1項記載の内視鏡システム。 The first light emission pattern includes a first light emission pattern in which the number of frames in the first illumination period is the same in each of the first illumination periods, and a first light emission pattern in which the number of frames in the first illumination period is the same in each of the first illumination periods. The endoscope system according to any one of claims 1 to 4 , wherein the light emitting pattern is one of the different 1B light emission patterns. 第2発光パターンは、前記第2照明期間のフレーム数が、それぞれの前記第2照明期間において同じであり、且つ、前記第2照明光の発光スペクトルが、それぞれの前記第2照明期間において同じである第2A発光パターン、
前記第2照明期間のフレーム数が、それぞれの前記第2照明期間において同じであり、且つ、第2照明光の発光スペクトルが、それぞれの前記第2照明期間において異なっている第2B発光パターン、
前記第2照明期間のフレーム数が、それぞれの前記第2照明期間において異なっており、且つ、第2照明光の発光スペクトルが、それぞれの前記第2照明期間において同じである第2C発光パターン、及び、
前記第2照明期間のフレーム数が、それぞれの前記第2照明期間において異なっており、且つ、前記第2照明光の発光スペクトルが、それぞれの前記第2照明期間において異なっている第2D発光パターンのうちのいずれか1つのパターンである請求項1記載の内視鏡システム。
In the second light emission pattern, the number of frames of the second illumination period is the same in each of the second illumination periods, and the emission spectrum of the second illumination light is the same in each of the second illumination periods. A certain 2nd A light emission pattern,
a second B light emission pattern in which the number of frames of the second illumination period is the same in each of the second illumination periods, and the emission spectrum of the second illumination light is different in each of the second illumination periods;
a second C light emission pattern in which the number of frames of the second illumination period is different in each of the second illumination periods, and the emission spectrum of the second illumination light is the same in each of the second illumination periods, and ,
A 2D light emission pattern in which the number of frames of the second illumination period is different in each of the second illumination periods, and the emission spectrum of the second illumination light is different in each of the second illumination periods. The endoscope system according to claim 1, which is any one of the patterns.
前記画像制御用プロセッサは、
内視鏡先端部の動きが一定量以下の場合に、合成処理を行い、前記内視鏡先端部の動きが一定量を超えた場合には合成処理を行わない請求項1ないしいずれか1項記載の内視鏡システム。
The image control processor includes:
Any one of claims 1 to 6 , wherein the synthesis process is performed when the movement of the tip of the endoscope is less than a certain amount, and the synthesis process is not performed when the movement of the end of the endoscope exceeds the certain amount. The endoscopic system described in Section.
前記画像制御用プロセッサは、
前記第1画像信号に対して、前記第2観察画像のうち前記病変候補領域の部位を合成して前記合成観察画像を生成する請求項1ないしいずれか1項記載の内視鏡システム。
The image control processor includes:
The endoscope system according to any one of claims 1 to 7 , wherein the combined observation image is generated by synthesizing the lesion candidate region part of the second observation image with the first image signal.
1照明光と、前記第1照明光と発光スペクトルが異なる第2照明光とを発する光源部、前記第1照明光を発光する第1照明期間と前記第2照明光を発光する第2照明期間とを自動的に切り替える場合において、前記第1照明光を第1発光パターンで発光し、前記第2照明光を第2発光パターンで発光する光源用プロセッサ、前記第1照明光によって照明された観察対象を撮像して得られる第1画像信号、及び前記第2照明光によって照明された前記観察対象を撮像して第2画像信号とを出力する内視鏡の撮像センサを備える内視鏡システムにおいて、
前記第1画像信号及び前記第2画像信号に対して認識処理を行い、前記認識処理により病変候補領域を認識した場合には、前記病変候補領域の確度を算出するステップと、
前記病変候補領域を認識し、且つ、前記第1画像信号に基づく前記病変候補領域の確度が、前記第2画像信号に基づく前記病変候補領域の確度よりも高い場合には、前記第1画像信号に基づく第1観察画像に対して、前記病変候補領域の認識結果を表示する病変候補領域認識済み観察画像をディスプレイに表示する第1表示制御を行うステップと、
前記病変候補領域を認識し、且つ、前記第2画像信号に基づく前記病変候補領域の確度が、前記第1画像信号に基づく前記病変候補領域の確度よりも高い場合には、前記第1観察画像に対して、前記第2画像信号に基づく第2観察画像を合成した合成観察画像を前記ディスプレイに表示する第2表示制御を行うステップと
前記第2発光パターンが、前記第2照明光の発光スペクトルが、それぞれの前記第2照明期間において異なっている第2B発光パターンである場合において、互いに発光スペクトルが異なる複数の第2照明光を発光する第2照明光発光サイクルにおいて、各第2照明光に対応する複数の第2画像信号からいずれも前記病変候補領域を認識した場合には、前記第2表示制御を行う際に、前記第1観察画像と、前記複数の第2観察画像の中から前記病変候補領域の確度が最も高い第2観察画像とを合成して、前記合成観察画像を生成するステップとを有する内視鏡システムの作動方法。
A light source unit that emits first illumination light and second illumination light having a different emission spectrum from the first illumination light; a first illumination period that emits the first illumination light; and a second illumination unit that emits the second illumination light. a light source processor that emits the first illumination light in a first light emission pattern and the second illumination light in a second light emission pattern; An endoscope system comprising an endoscope imaging sensor that outputs a first image signal obtained by imaging an observation target, and a second image signal obtained by imaging the observation target illuminated by the second illumination light. In,
performing a recognition process on the first image signal and the second image signal, and when a lesion candidate area is recognized by the recognition process, calculating the accuracy of the lesion candidate area;
When the lesion candidate area is recognized and the accuracy of the lesion candidate area based on the first image signal is higher than the accuracy of the lesion candidate area based on the second image signal, the first image signal performing first display control to display a lesion candidate area recognized observation image on a display, which displays the recognition result of the lesion candidate area, with respect to the first observation image based on the first observation image;
When the lesion candidate area is recognized and the accuracy of the lesion candidate area based on the second image signal is higher than the accuracy of the lesion candidate area based on the first image signal, the first observed image performing second display control to display on the display a composite observation image obtained by combining second observation images based on the second image signal ;
When the second light emission pattern is a second B light emission pattern in which the emission spectra of the second illumination light are different in each of the second illumination periods, emitting a plurality of second illumination lights having mutually different emission spectra. In the second illumination light emission cycle, if the lesion candidate region is recognized from a plurality of second image signals corresponding to each second illumination light, when performing the second display control, the first Operation of an endoscope system comprising the step of synthesizing an observation image and a second observation image with the highest accuracy of the lesion candidate region from among the plurality of second observation images to generate the composite observation image. Method.
JP2020122226A 2020-07-16 2020-07-16 Endoscope system and its operating method Active JP7411515B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020122226A JP7411515B2 (en) 2020-07-16 2020-07-16 Endoscope system and its operating method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020122226A JP7411515B2 (en) 2020-07-16 2020-07-16 Endoscope system and its operating method

Publications (2)

Publication Number Publication Date
JP2022018842A JP2022018842A (en) 2022-01-27
JP7411515B2 true JP7411515B2 (en) 2024-01-11

Family

ID=80203491

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020122226A Active JP7411515B2 (en) 2020-07-16 2020-07-16 Endoscope system and its operating method

Country Status (1)

Country Link
JP (1) JP7411515B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000023903A (en) 1998-05-01 2000-01-25 Asahi Optical Co Ltd Electronic endoscope device for fluoroscopy
JP2017213058A (en) 2016-05-30 2017-12-07 オリンパス株式会社 Image processing device, endoscope device, image processing method, and image processing program
WO2019059059A1 (en) 2017-09-22 2019-03-28 富士フイルム株式会社 Medical image processing system, endoscope system, diagnostic support device, and medical task support device
WO2019083019A1 (en) 2017-10-26 2019-05-02 富士フイルム株式会社 Medical image processing device and endoscope device
WO2020008834A1 (en) 2018-07-05 2020-01-09 富士フイルム株式会社 Image processing device, method, and endoscopic system

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07250804A (en) * 1994-03-15 1995-10-03 Olympus Optical Co Ltd Fluorescence observer

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000023903A (en) 1998-05-01 2000-01-25 Asahi Optical Co Ltd Electronic endoscope device for fluoroscopy
JP2017213058A (en) 2016-05-30 2017-12-07 オリンパス株式会社 Image processing device, endoscope device, image processing method, and image processing program
WO2019059059A1 (en) 2017-09-22 2019-03-28 富士フイルム株式会社 Medical image processing system, endoscope system, diagnostic support device, and medical task support device
WO2019083019A1 (en) 2017-10-26 2019-05-02 富士フイルム株式会社 Medical image processing device and endoscope device
WO2020008834A1 (en) 2018-07-05 2020-01-09 富士フイルム株式会社 Image processing device, method, and endoscopic system

Also Published As

Publication number Publication date
JP2022018842A (en) 2022-01-27

Similar Documents

Publication Publication Date Title
US10335014B2 (en) Endoscope system, processor device, and method for operating endoscope system
WO2016121556A1 (en) Processor device for endoscope, method for operating same, and control program
JP7335399B2 (en) MEDICAL IMAGE PROCESSING APPARATUS, ENDOSCOPE SYSTEM, AND METHOD OF OPERATION OF MEDICAL IMAGE PROCESSING APPARATUS
US20230165433A1 (en) Endoscope system and method of operating the same
JP7196330B2 (en) Image processing device, endoscope system, and method of operating image processing device
JP2018051364A (en) Endoscope system, endoscope system processor, endoscope system operation method, and processor operation method
US20230029239A1 (en) Medical image processing system and method for operating medical image processing system
JP7217351B2 (en) Image processing device, endoscope system, and method of operating image processing device
JP7411515B2 (en) Endoscope system and its operating method
JP7214886B2 (en) Image processing device and its operating method
JP7312843B2 (en) Endoscope system and its operating method
JP6285373B2 (en) Endoscope system, processor device, and operation method of endoscope system
JP7390482B2 (en) Endoscope system and its operating method
JP7386266B2 (en) Endoscope system and its operating method
JP7390465B2 (en) Endoscope system and method of operating the endoscope system
JP7337190B2 (en) Endoscope system and its operating method
JPWO2019163471A1 (en) Endoscope system
JP6196599B2 (en) Endoscope processor device and method of operating endoscope processor device
JP7116254B2 (en) Image processing device and its operating method
JP7447243B2 (en) Processor device and method of operation thereof
WO2021182048A1 (en) Endoscope system and operation method for endoscope system
WO2023119795A1 (en) Endoscope system and method for operating same
US20220265129A1 (en) Endoscope system
JP6272956B2 (en) Endoscope system, processor device for endoscope system, method for operating endoscope system, method for operating processor device
JP2023018543A (en) Endoscope system and operation method of the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220713

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230606

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230829

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231016

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231225

R150 Certificate of patent or registration of utility model

Ref document number: 7411515

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150