JP7130038B2 - Endoscope image processing device, operation method of endoscope image processing device, endoscope image processing program, and storage medium - Google Patents

Endoscope image processing device, operation method of endoscope image processing device, endoscope image processing program, and storage medium Download PDF

Info

Publication number
JP7130038B2
JP7130038B2 JP2020525396A JP2020525396A JP7130038B2 JP 7130038 B2 JP7130038 B2 JP 7130038B2 JP 2020525396 A JP2020525396 A JP 2020525396A JP 2020525396 A JP2020525396 A JP 2020525396A JP 7130038 B2 JP7130038 B2 JP 7130038B2
Authority
JP
Japan
Prior art keywords
image
endoscopic
endoscope
image quality
standard
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020525396A
Other languages
Japanese (ja)
Other versions
JPWO2019239854A1 (en
Inventor
正明 大酒
麻依子 遠藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JPWO2019239854A1 publication Critical patent/JPWO2019239854A1/en
Priority to JP2022132527A priority Critical patent/JP7350954B2/en
Application granted granted Critical
Publication of JP7130038B2 publication Critical patent/JP7130038B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing

Description

本発明は、内視鏡画像処理装置、内視鏡画像処理装置の作動方法内視鏡画像処理プログラム及び記憶媒体に係り、特に、内視鏡画像に対して画像認識を行う内視鏡画像処理装置、内視鏡画像処理装置の作動方法内視鏡画像処理プログラム及び記憶媒体に関する。 The present invention relates to an endoscopic image processing apparatus, an operation method of the endoscopic image processing apparatus, an endoscopic image processing program, and a storage medium , and more particularly, to an endoscopic image for performing image recognition on an endoscopic image. The present invention relates to a processing device, an operation method of an endoscope image processing device, an endoscope image processing program, and a storage medium .

内視鏡装置で撮影された内視鏡画像から画像認識によって病変部を検出したり、病変を種別ごとに分類したりする技術が知られている(たとえば、特許文献1、2等)。 Techniques for detecting a lesion by image recognition from an endoscopic image captured by an endoscopic device and classifying lesions by type are known (for example, Patent Literatures 1 and 2, etc.).

画像認識には、深層学習(Deep Learning)をはじめとする画像の機械学習(非特許文献1)が広く使用されている。機械学習では、問題に応じた画像を大量に学習させることで分類、検出といった画像認識が可能となる。 Machine learning of images such as deep learning (Non-Patent Document 1) is widely used for image recognition. Machine learning enables image recognition such as classification and detection by learning a large amount of images according to the problem.

特開2000-155840号公報JP-A-2000-155840 国際公開第2017/175282号WO2017/175282

A. Krizhevsky、 I. Sutskever、 and G. Hinton. ImageNet classification with deep convolutional neural networks. In NIPS、 2012A. Krizhevsky, I. Sutskever, and G. Hinton. ImageNet classification with deep convolutional neural networks. In NIPS, 2012

機械学習では、学習用の画像群に画質の偏りがあると、画質の偏りも学習してしまう。このため、学習した画像群の画質の偏りから外れた画質の画像を画像認識させた場合に精度が低下するという問題がある。内視鏡装置による検査では、一般に術者の好みに応じた画質で撮影及び検査が行われるため、撮影した画像の画質が、学習した画像群の画質と異なると、画像認識の精度が低下するという問題がある。その一方ですべての画質について学習することも困難である。 In machine learning, if there is a bias in image quality in a group of images for learning, the bias in image quality is also learned. For this reason, there is a problem that the accuracy is lowered when an image whose image quality deviates from the image quality deviation of the learned image group is image-recognized. In an examination using an endoscope, generally, imaging and examination are performed with image quality according to the preference of the operator. Therefore, if the image quality of the captured image differs from the image quality of the learned image group, the accuracy of image recognition decreases. There is a problem. On the other hand, it is also difficult to learn about all image qualities.

本発明は、このような事情に鑑みてなされたもので、画質の差異を考慮せずに画像認識できる内視鏡画像処理装置、内視鏡画像処理装置の作動方法内視鏡画像処理プログラム及び記憶媒体を提供することを目的とする。 The present invention has been made in view of such circumstances, and provides an endoscopic image processing apparatus capable of image recognition without considering differences in image quality, an operation method of the endoscopic image processing apparatus, and an endoscopic image processing program. and to provide a storage medium .

上記課題を解決するための手段は、次のとおりである。 Means for solving the above problems are as follows.

(1)内視鏡装置で撮影された内視鏡画像を取得する内視鏡画像取得部と、内視鏡画像を基準画質の画像に変換する処理を行う画像変換処理部と、基準画質に変換された画像に対して画像認識を行う画像認識部と、を備えた内視鏡画像処理装置。 (1) an endoscopic image acquisition unit that acquires an endoscopic image captured by an endoscopic device; an image conversion processing unit that performs processing for converting the endoscopic image into an image of standard image quality; and an image recognition unit that performs image recognition on the converted image.

本態様によれば、取得された内視鏡画像が、基準画質の画像に変換されて、画像認識が行われる。これにより、撮影された内視鏡画像の画質の差異を考慮せずに画像認識できる。 According to this aspect, the acquired endoscopic image is converted into an image of standard image quality, and image recognition is performed. As a result, image recognition can be performed without considering the difference in image quality of captured endoscopic images.

(2)画像変換処理部は、内視鏡装置で設定されている画質の調整値に基づいて、内視鏡画像を基準画質の画像に変換する処理を行う、上記(1)の内視鏡画像処理装置。 (2) The endoscope according to (1) above, wherein the image conversion processing unit converts an endoscopic image into an image of standard image quality based on an image quality adjustment value set in the endoscope apparatus. Image processing device.

本態様によれば、内視鏡装置で設定されている画質の調整値に基づいて、内視鏡画像が基準画質の画像に変換される。これにより、内視鏡装置で設定された画質の差異を考慮せずに画像認識できる。 According to this aspect, the endoscopic image is converted into the standard image quality image based on the image quality adjustment value set in the endoscope apparatus. Accordingly, image recognition can be performed without considering the difference in image quality set in the endoscope apparatus.

(3)画像変換処理部は、内視鏡画像を表示装置に出力する場合に内視鏡装置で設定される画質の調整値に基づいて、内視鏡画像を基準画質の画像に変換する処理を行う、上記(1)の内視鏡画像処理装置。 (3) The image conversion processing unit converts the endoscopic image into a standard image quality image based on the image quality adjustment value set in the endoscopic device when the endoscopic image is output to the display device. The endoscopic image processing apparatus according to (1) above, wherein

本態様によれば、内視鏡画像を表示装置に出力する場合に内視鏡装置で設定される画質の調整値に基づいて、内視鏡画像が基準画質の画像に変換される。内視鏡画像を表示装置に出力する場合、術者の好みに応じて画質が調整される場合がある。本態様によれば、画質が調整された場合であっても、精度よく画像認識できる。 According to this aspect, when the endoscopic image is output to the display device, the endoscopic image is converted into the image of the standard image quality based on the image quality adjustment value set in the endoscopic device. When outputting an endoscopic image to a display device, the image quality may be adjusted according to the preference of the operator. According to this aspect, even if the image quality is adjusted, the image can be recognized with high accuracy.

(4)画像変換処理部は、内視鏡画像を静止画として保存する場合に内視鏡装置で設定される画質の調整値に基づいて、内視鏡画像を基準画質の画像に変換する処理を行う、上記(1)の内視鏡画像処理装置。 (4) The image conversion processing unit converts the endoscopic image into a standard image quality image based on the image quality adjustment value set in the endoscope apparatus when the endoscopic image is saved as a still image. The endoscopic image processing apparatus according to (1) above, wherein

本態様によれば、内視鏡画像を静止画として保存する場合に内視鏡装置で設定される画質の調整値に基づいて、内視鏡画像が基準画質の画像に変換される。内視鏡画像を静止画として保存する場合、画質を調整して保存する場合がある。本態様によれば、画質が調整された場合であっても、精度よく画像認識できる。 According to this aspect, when the endoscopic image is saved as a still image, the endoscopic image is converted into the standard image quality image based on the image quality adjustment value set in the endoscope apparatus. When saving an endoscopic image as a still image, the image quality may be adjusted before saving. According to this aspect, even if the image quality is adjusted, the image can be recognized with high accuracy.

(5)画像変換処理部は、内視鏡装置で設定されている色調の調整値に基づいて、内視鏡画像を基準画質の画像に変換する処理を行う、上記(1)の内視鏡画像処理装置。 (5) The endoscope according to (1) above, wherein the image conversion processing unit converts the endoscopic image into an image of standard image quality based on a color tone adjustment value set in the endoscope device. Image processing device.

本態様によれば、内視鏡装置で色調の調整が行われる場合、その調整値に基づいて、内視鏡画像が基準画質の画像に変換される。 According to this aspect, when the color tone is adjusted by the endoscope apparatus, the endoscope image is converted into the image of the standard image quality based on the adjustment value.

(6)画像変換処理部は、内視鏡装置で設定されている光量による画質変化の調整値に基づいて、内視鏡画像を基準画質の画像に変換する処理を行う、上記(1)の内視鏡画像処理装置。 (6) The image conversion processing unit performs processing for converting the endoscopic image into an image of standard image quality based on the adjustment value for image quality change due to the amount of light set in the endoscope apparatus, as described in (1) above. Endoscope image processing device.

本態様によれば、内視鏡装置で光量による画質変化の調整が行われる場合、その調整値に基づいて、内視鏡画像が基準画質の画像に変換される。 According to this aspect, when the endoscope apparatus adjusts the image quality change due to the amount of light, the endoscope image is converted into the image of the standard image quality based on the adjustment value.

(7)画像変換処理部は、内視鏡画像が撮影された内視鏡装置ごとに設定された数値で内視鏡画像を処理して、内視鏡画像を基準画質の画像に変換する処理を行う、上記(1)の内視鏡画像処理装置。 (7) The image conversion processing unit processes the endoscopic image with a numerical value set for each endoscope device in which the endoscopic image was captured, and converts the endoscopic image into an image of standard image quality. The endoscopic image processing apparatus according to (1) above, wherein

本態様によれば、内視鏡装置ごとに設定された数値で内視鏡画像が処理されて、内視鏡画像が基準画質の画像に変換される。これにより、異なる内視鏡装置で撮影された内視鏡画像に対して画像認識する場合であっても、画質の差異を考慮せずに画像認識できる。 According to this aspect, the endoscopic image is processed with the numerical value set for each endoscopic device, and the endoscopic image is converted into the image of the standard image quality. As a result, even when performing image recognition on endoscopic images captured by different endoscopic devices, image recognition can be performed without considering differences in image quality.

(8)画像認識部は、基準画質に変換された画像で学習した畳み込みニューラルネットワークで構成される、上記(1)から(7)のいずれか一の内視鏡画像処理装置。 (8) The endoscopic image processing apparatus according to any one of (1) to (7) above, wherein the image recognition unit is composed of a convolutional neural network trained with images converted to the standard image quality.

本態様によれば、画像認識部が、基準画質に変換された画像で学習した畳み込みニューラルネットワークで構成される。 According to this aspect, the image recognition unit is configured with a convolutional neural network trained with images converted to the standard image quality.

(9)画像認識部が行う画像認識には、注目領域を検出する処理、及び/又は、認識対象を分類する処理が含まれる、上記(1)から(7)のいずれか一の内視鏡画像処理装置。 (9) The endoscope according to any one of (1) to (7) above, wherein the image recognition performed by the image recognition unit includes a process of detecting an attention area and/or a process of classifying a recognition target. Image processing device.

本態様によれば、画像認識により、病変等の注目領域を検出する処理、及び/又は、病変等の認識対象を分類する処理が行われる。 According to this aspect, the process of detecting an attention area such as a lesion and/or the process of classifying a recognition target such as a lesion are performed by image recognition.

(10)内視鏡装置で撮影された内視鏡画像を取得するステップと、内視鏡画像を基準画質の画像に変換する処理を行うステップと、基準画質に変換された画像に対して画像認識を行うステップと、を含む内視鏡画像処理方法。 (10) a step of acquiring an endoscopic image captured by an endoscopic device; a step of converting the endoscopic image into an image of standard image quality; A method of endoscopic image processing, comprising: performing recognition.

本態様によれば、取得された内視鏡画像が、基準画質の画像に変換されて、画像認識が行われる。これにより、撮影された内視鏡画像の画質の差異を考慮せずに画像認識できる。 According to this aspect, the acquired endoscopic image is converted into an image of standard image quality, and image recognition is performed. As a result, image recognition can be performed without considering the difference in image quality of captured endoscopic images.

(11)内視鏡装置で撮影された内視鏡画像を取得する機能と、内視鏡画像を基準画質の画像に変換する処理を行う機能と、基準画質に変換された画像に対して画像認識を行う機能と、をコンピュータに実現させる内視鏡画像処理プログラム。 (11) A function of acquiring an endoscopic image captured by an endoscopic device, a function of converting the endoscopic image into an image of standard image quality, and an image processing function for the image converted to the standard image quality. An endoscope image processing program that allows a computer to realize a recognition function.

本態様によれば、取得された内視鏡画像が、基準画質の画像に変換されて、画像認識が行われる。これにより、撮影された内視鏡画像の画質の差異を考慮せずに画像認識できる。 According to this aspect, the acquired endoscopic image is converted into an image of standard image quality, and image recognition is performed. As a result, image recognition can be performed without considering the difference in image quality of captured endoscopic images.

本発明によれば、画質の差異を考慮せずに画像認識できる。 According to the present invention, image recognition can be performed without considering differences in image quality.

内視鏡装置及び内視鏡画像処理装置を含む内視鏡システムの全体のシステム構成を示すブロック図1 is a block diagram showing the overall system configuration of an endoscope system including an endoscope apparatus and an endoscope image processing apparatus; FIG. 内視鏡装置の概念的なブロック構成図Conceptual block configuration diagram of an endoscope device 図2に示す内視鏡装置の一例としての外観図External view as an example of the endoscope apparatus shown in FIG. 生体組織の粘膜表層の血管を模式的に表した図Schematic representation of blood vessels on the mucosal surface of living tissue 狭帯域光を照明光として使用した場合の観察画像の表示例を示す図A diagram showing a display example of an observation image when narrow-band light is used as illumination light. 白色光を照明光として使用した場合の観察画像の表示例を示す図A diagram showing a display example of an observation image when white light is used as illumination light. 画像信号の取得から表示装置への出力までの処理の手順を示すフローチャートFlowchart showing a procedure of processing from acquisition of an image signal to output to a display device 内視鏡画像処理装置のハードウェア構成を示すブロック図FIG. 2 is a block diagram showing the hardware configuration of the endoscope image processing apparatus; 内視鏡画像処理装置の機能を示すブロック図Block diagram showing the functions of the endoscope image processing device 認識結果の表示の一例を示す図Diagram showing an example of recognition result display 内視鏡画像処理装置で実施される画像認識の処理の手順を示すフローチャートFlowchart showing the procedure of image recognition processing performed by the endoscope image processing apparatus 画像信号の取得から表示装置への出力までの処理の手順を示すフローチャートFlowchart showing a procedure of processing from acquisition of an image signal to output to a display device 内視鏡画像処理装置で実施される画像認識の処理の手順を示すフローチャートFlowchart showing the procedure of image recognition processing performed by the endoscope image processing apparatus 画像信号の取得から表示装置への出力までの処理の手順を示すフローチャートFlowchart showing a procedure of processing from acquisition of an image signal to output to a display device 内視鏡画像処理装置で実施される画像認識の処理の手順を示すフローチャートFlowchart showing the procedure of image recognition processing performed by the endoscope image processing apparatus

以下、添付図面に従って本発明の好ましい実施形態について詳説する。 Preferred embodiments of the present invention will be described in detail below with reference to the accompanying drawings.

◆◆第1の実施の形態◆◆
図1は、内視鏡装置及び内視鏡画像処理装置を含む内視鏡システムの全体のシステム構成を示すブロック図である。
◆◆ First embodiment ◆◆
FIG. 1 is a block diagram showing the overall system configuration of an endoscope system including an endoscope apparatus and an endoscope image processing apparatus.

同図に示すように、内視鏡システム1は、内視鏡装置10と、内視鏡装置10で撮影された内視鏡画像に対して画像認識を行う内視鏡画像処理装置100と、を備える。内視鏡装置10及び内視鏡画像処理装置100は、LAN(Local Area Network)等のネットワーク2を介して接続される。 As shown in the figure, the endoscope system 1 includes an endoscope device 10, an endoscope image processing device 100 that performs image recognition on an endoscope image captured by the endoscope device 10, Prepare. The endoscope apparatus 10 and the endoscope image processing apparatus 100 are connected via a network 2 such as a LAN (Local Area Network).

《内視鏡装置》
図2は、内視鏡装置の概念的なブロック構成図である。図3は、図2に示す内視鏡装置の一例としての外観図である。
《Endoscope device》
FIG. 2 is a conceptual block configuration diagram of the endoscope apparatus. 3 is an external view as an example of the endoscope apparatus shown in FIG. 2. FIG.

本実施の形態の内視鏡装置10は、白色光を用いた通常観察に加えて、狭帯域光を用いた狭帯域光観察が可能な内視鏡装置として構成される。 The endoscope apparatus 10 of the present embodiment is configured as an endoscope apparatus capable of narrow-band light observation using narrow-band light in addition to normal observation using white light.

図2及び図3に示すように、内視鏡装置10は、内視鏡11及び内視鏡11が接続される内視鏡制御装置13を備える。内視鏡11は、電子内視鏡(軟性内視鏡)であり、接続部27を介して、内視鏡制御装置13に着脱自在に接続される。内視鏡制御装置13には、表示装置21及び入力装置23が接続される。表示装置21は、たとえば、液晶モニタで構成される。入力装置23は、たとえば、キーボード、マウス等で構成される。 As shown in FIGS. 2 and 3, the endoscope apparatus 10 includes an endoscope 11 and an endoscope control device 13 to which the endoscope 11 is connected. The endoscope 11 is an electronic endoscope (flexible endoscope), and is detachably connected to the endoscope control device 13 via a connection portion 27 . A display device 21 and an input device 23 are connected to the endoscope control device 13 . The display device 21 is composed of, for example, a liquid crystal monitor. The input device 23 is composed of, for example, a keyboard, a mouse, and the like.

内視鏡11は、図3に示すように、被検体内に挿入される内視鏡挿入部15、各種操作を行うための操作部25、及び、内視鏡制御装置13に接続するための接続部27を備える。 The endoscope 11 includes, as shown in FIG. A connecting portion 27 is provided.

内視鏡挿入部15は、操作部25の側から順に、可撓性を有する軟性部31、湾曲部33及び先端硬質部35で構成される。 The endoscope insertion section 15 is composed of a flexible flexible section 31 , a bending section 33 and a distal end rigid section 35 in order from the operation section 25 side.

先端硬質部35には、その先端面に、一対の照明窓37A、37B及び観察窓38等が備えられる。観察窓38の内側には、撮影光学系39を介してイメージセンサ17が備えられる。イメージセンサ17は、所定のカラーフィルタ配列(たとえば、ベイヤ配列等)を有するカラーイメージセンサで構成され、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal-Oxide Semiconductor)イメージセンサ等で構成される。 The distal rigid portion 35 is provided with a pair of illumination windows 37A and 37B, an observation window 38, and the like on its distal end surface. An image sensor 17 is provided inside the observation window 38 via a photographing optical system 39 . The image sensor 17 is composed of a color image sensor having a predetermined color filter array (for example, Bayer array), and is composed of a CCD (Charge Coupled Device) image sensor, a CMOS (Complementary Metal-Oxide Semiconductor) image sensor, or the like. .

湾曲部33は、軟性部31及び先端硬質部35との間に設けられ、操作部25に備えられたアングルノブ41の操作に応じて湾曲する。この湾曲部33の操作によって、先端硬質部35の向き、すなわち、観察方向を変えることができる。 The bending portion 33 is provided between the flexible portion 31 and the distal end hard portion 35 and bends according to the operation of the angle knob 41 provided on the operating portion 25 . By manipulating the bending portion 33, the orientation of the distal end rigid portion 35, that is, the observation direction can be changed.

操作部25には、上記のアングルノブ41の他、観察モードを切り替えるためのボタン(観察モード切替ボタン)、静止画を撮影するためのボタン(シャッターボタン)等の各種の操作部材43が備えられる。 In addition to the angle knob 41, the operation unit 25 includes various operation members 43 such as a button for switching observation modes (observation mode switching button) and a button for capturing a still image (shutter button). .

接続部27は、可撓性を有するコードで構成され、内視鏡制御装置13に接続するためのライトガイドコネクタ19A及びビデオコネクタ19Bを先端に有する。 The connecting portion 27 is composed of a flexible cord, and has a light guide connector 19A and a video connector 19B for connecting to the endoscope control device 13 at its tip.

内視鏡制御装置13は、照明光を発生する光源装置47、イメージセンサ17からの画像信号を処理するプロセッサ装置49を備え、ライトガイドコネクタ19A及びビデオコネクタ19Bを介して、内視鏡11と接続される。また、プロセッサ装置49には、上記の表示装置21及び入力装置23が接続される。 The endoscope control device 13 includes a light source device 47 that generates illumination light and a processor device 49 that processes image signals from the image sensor 17. The endoscope control device 13 is connected to the endoscope 11 via a light guide connector 19A and a video connector 19B. Connected. The display device 21 and the input device 23 are also connected to the processor device 49 .

プロセッサ装置49は、内視鏡11の操作部25及び入力装置23からの指示に基づいて、内視鏡11から伝送されてくる撮像信号を処理し、画像データ(内視鏡画像データ)を生成して表示装置21に出力する。 The processor device 49 processes imaging signals transmitted from the endoscope 11 based on instructions from the operation unit 25 and the input device 23 of the endoscope 11, and generates image data (endoscopic image data). and output to the display device 21.

光源装置47は、中心波長445nmの半導体発光素子である第1レーザ光源LD1、及び、中心波長405nmの半導体発光素子である第2レーザ光源LD2を発光源として備える。第1レーザ光源LD1及び第2レーザ光源LD2の発光は、光源制御部51により個別に制御される。 The light source device 47 includes a first laser light source LD1, which is a semiconductor light emitting element with a central wavelength of 445 nm, and a second laser light source LD2, which is a semiconductor light emitting element with a central wavelength of 405 nm, as light emitting sources. The light emission of the first laser light source LD1 and the light emission of the second laser light source LD2 are individually controlled by the light source control section 51 .

第1レーザ光源LD1及び第2レーザ光源LD2は、ブロードエリア型のInGaN系レーザダイオードが利用でき、また、InGaNAs系レーザダイオード、GaNAs系レーザダイオード等を用いることもできる。また、上記光源として、発光ダイオード等の発光体を用いた構成であってもよい。 As the first laser light source LD1 and the second laser light source LD2, a broad area type InGaN-based laser diode can be used, and an InGaNAs-based laser diode, a GaNAs-based laser diode, or the like can also be used. Moreover, the structure using light-emitting bodies, such as a light emitting diode, may be sufficient as said light source.

第1レーザ光源LD1及び第2レーザ光源LD2から出射されるレーザ光は、集光レンズ(不図示)により、それぞれ光ファイバに入力され、合波器であるコンバイナ53及び分波器であるカプラ55を介して、ライトガイドコネクタ19Aに導光される。 The laser beams emitted from the first laser light source LD1 and the second laser light source LD2 are respectively input to optical fibers through a condensing lens (not shown). through the light guide connector 19A.

ライトガイドコネクタ19Aに供給された中心波長445nmの青色レーザ光、及び、中心波長405nmの紫色レーザ光が合波されたレーザ光は、光ファイバ57A、57Bによって、それぞれ先端硬質部35まで導光される。そして、青色レーザ光は、先端硬質部35の光ファイバ57A、57Bの光出射端に配置された波長変換部材である蛍光体59を励起して蛍光を生じさせる。また、一部の青色レーザ光は、そのまま蛍光体59を透過し、上記の蛍光と共に白色光の照明光として出射される。一方、紫色レーザ光は、蛍光体59を強く励起させることなく透過し、狭帯域波長の照明光(狭帯域光)として出射される。 The blue laser light with a center wavelength of 445 nm and the violet laser light with a center wavelength of 405 nm supplied to the light guide connector 19A are combined and guided to the hard tip portion 35 by the optical fibers 57A and 57B, respectively. be. The blue laser light excites the phosphor 59, which is a wavelength conversion member, arranged at the light emitting end of the optical fibers 57A and 57B of the tip rigid portion 35 to generate fluorescence. A portion of the blue laser light is transmitted through the phosphor 59 as it is, and is emitted as white illumination light together with the fluorescence. On the other hand, the violet laser light passes through the phosphor 59 without strongly exciting it, and is emitted as illumination light with a narrow band wavelength (narrow band light).

なお、本明細書でいう「白色光」とは、厳密に可視光の全ての波長成分を含むものに限らず、赤(Red,R)、緑(Green,G)、青(Blue,B)等、特定の波長帯の光を含むものであればよく、たとえば、緑色から赤色にかけての波長成分を含む光、青色から緑色にかけての波長成分を含む光等も広義に含むものとする。 In addition, the "white light" as used in this specification is not limited to strictly including all wavelength components of visible light, and red (Red, R), green (Green, G), blue (Blue, B) For example, light including wavelength components from green to red and light including wavelength components from blue to green are broadly included.

蛍光体59は、青色レーザ光の一部を吸収して緑色~黄色に励起発光する複数種の蛍光体(たとえば、YAG系蛍光体又はBAM(BaMgAl10O17)等を含む蛍光体等)を含んで構成される。これにより、青色レーザ光を励起光とする緑色~黄色の励起光と、蛍光体59により吸収されず透過した青色レーザ光とが合成されて、白色(疑似白色)の照明光となる。 The phosphor 59 includes a plurality of phosphors (for example, a YAG phosphor or a phosphor containing BAM (BaMgAl10O17), etc.) that absorbs part of the blue laser beam and emits green to yellow excited light. be done. As a result, the green to yellow excitation light that uses the blue laser light as excitation light and the blue laser light that is transmitted without being absorbed by the phosphor 59 are combined to produce white (pseudo-white) illumination light.

光源制御部51は、第1レーザ光源LD1からの青色レーザ光の出射光量及び第2レーザ光源LD2からの紫色レーザ光の出射光量を個別に制御し、青色レーザ光により生成される照明光(白色光)及び紫色レーザ光により生成される照明光(狭帯域光)を観察に適した光量比に設定する。 The light source control unit 51 individually controls the amount of blue laser light emitted from the first laser light source LD1 and the amount of violet laser light emitted from the second laser light source LD2, and controls illumination light (white laser light) generated by the blue laser light. light) and illumination light (narrowband light) generated by the violet laser light are set to a light amount ratio suitable for observation.

光源制御部51によって観察に適した光量比に設定された照明光は、先端硬質部35に備えられた一対の照明窓37A、37Bから被検体の観察領域に向けて照射される。そして、この照明光が照射された領域が、観察窓38から撮影光学系39を介してイメージセンサ17に撮像される。 Illumination light set to a light amount ratio suitable for observation by the light source control unit 51 is irradiated toward the observation region of the subject from a pair of illumination windows 37A and 37B provided in the distal end rigid portion 35 . Then, the area irradiated with this illumination light is imaged by the image sensor 17 through the observation window 38 and the imaging optical system 39 .

イメージセンサ17から出力される画像信号は、スコープケーブル61を通じてADC(Analog to Digital Converter;アナログ-デジタル変換器)63に伝送され、ADC63でデジタル信号に変換されて、プロセッサ装置49の内視鏡制御部65に入力される。 An image signal output from the image sensor 17 is transmitted to an ADC (Analog to Digital Converter) 63 through a scope cable 61, converted into a digital signal by the ADC 63, and endoscope controlled by the processor device 49. It is input to the part 65 .

内視鏡制御部65は、入力されたデジタル画像信号を画像処理部67に送る。画像処理部67は、デジタル画像信号に所要の信号処理を施して、観察画像である内視鏡画像の画像データ(内視鏡画像データ)を生成する。この画像データは、画素単位でR、G及びBの各強度値(輝度値)を有するデータである。 The endoscope control section 65 sends the input digital image signal to the image processing section 67 . The image processing unit 67 performs required signal processing on the digital image signal to generate image data (endoscopic image data) of an endoscopic image, which is an observed image. This image data is data having intensity values (luminance values) of R, G, and B in units of pixels.

内視鏡制御部65は、生成された内視鏡画像データを表示装置21に出力する。また、内視鏡制御部65は、必要に応じて、内視鏡画像データを記憶部69に記憶させる。また、内視鏡制御部65は、必要に応じて、内視鏡画像データを内視鏡画像処理装置100に出力する。 The endoscope control section 65 outputs the generated endoscope image data to the display device 21 . In addition, the endoscope control section 65 causes the storage section 69 to store the endoscope image data as necessary. The endoscope control unit 65 also outputs endoscope image data to the endoscope image processing apparatus 100 as necessary.

なお、本実施の形態では、記憶部69がプロセッサ装置49に備えられているが、記憶部69は、プロセッサ装置49にネットワークを介して接続されていてもよいし、また、ネットワークに接続されたサーバ等に備えられていてもよい。 In this embodiment, the storage unit 69 is provided in the processor device 49, but the storage unit 69 may be connected to the processor device 49 via a network, or may be connected to the network. It may be provided in a server or the like.

図4は、生体組織の粘膜表層の血管を模式的に表した図である。同図に示すように、生体組織の粘膜表層は、粘膜深層の血管B1から樹脂状血管網等の毛細血管B2が粘膜表層までの間に形成され、生体組織の病変は、その毛細血管B2等の微細構造に現れることが報告されている。そこで、内視鏡診察においては、粘膜表層の毛細血管を画像強調して観察し、微小病変の早期発見及び病変範囲の診断等が試みられている。 FIG. 4 is a diagram schematically showing blood vessels on the mucosal surface layer of living tissue. As shown in the figure, the mucosal surface layer of the biological tissue is formed from blood vessels B1 in the deep mucosal layer to the mucosal surface layer by capillaries B2 such as a resinous vascular network. have been reported to appear in the fine structure of Therefore, in endoscopic examination, attempts have been made to observe capillaries in the surface layer of the mucous membrane with image enhancement for early detection of microlesions and diagnosis of the range of lesions.

生体組織に照明光が入射されると、入射光は生体組織内を拡散的に伝播するが、生体組織の吸収及び散乱特性は波長依存性を有しており、短波長ほど散乱特性が強くなる傾向がある。つまり、照明光の波長によって光の深達度が変化する。このため、照明光が400nm付近の波長域λaでは、粘膜表層の毛細血管からの血管情報が得られ、波長500nm付近の波長域λbでは、更に深層の血管を含む血管情報が得られるようになる。このため、生体組織の血管観察には、中心波長360~800nm、好ましくは、365~515nmの光源が用いられ、特に、表層血管の観察には、中心波長360~470nm、好ましくは、400~420nmの光源が用いられる。また、生体組織の粘膜表面の微細模様についても、上記波長範囲において、毛細血管と同様に強調表示できる。 When illumination light is incident on a living tissue, the incident light diffusely propagates through the living tissue, but the absorption and scattering characteristics of the living tissue have wavelength dependence, and the shorter the wavelength, the stronger the scattering characteristics. Tend. In other words, the depth of penetration of the light changes depending on the wavelength of the illumination light. Therefore, blood vessel information from capillaries on the surface of the mucous membrane can be obtained in the wavelength region λa of the illumination light around 400 nm, and blood vessel information including deeper blood vessels can be obtained in the wavelength region λb around 500 nm. . Therefore, a light source with a center wavelength of 360 to 800 nm, preferably 365 to 515 nm, is used for observing blood vessels in living tissue. of light sources are used. Also, fine patterns on the surface of the mucous membrane of living tissue can be highlighted in the above wavelength range in the same manner as capillaries.

図5は、狭帯域光を照明光として使用した場合の観察画像の表示例を示す図である。同図に示すように、可視短波長成分を多く含む狭帯域光を照明光とした場合は、粘膜表層の微細な毛細血管や粘膜表面の微細模様が鮮明に映出された画像が得られる。 FIG. 5 is a diagram showing a display example of an observation image when narrowband light is used as illumination light. As shown in the figure, when narrow-band light containing many visible short wavelength components is used as illumination light, an image in which fine capillaries on the surface of the mucous membrane and fine patterns on the surface of the mucous membrane are clearly displayed can be obtained.

図6は、白色光を照明光として使用した場合の観察画像の表示例を示す図である。同図に示すように、白色光を照明光とした場合は、比較的粘膜深層の血管像が映出された患部の全体像が得られる。 FIG. 6 is a diagram showing a display example of an observation image when white light is used as illumination light. As shown in the figure, when white light is used as the illumination light, an overall image of the diseased area is obtained in which blood vessels in the relatively deep layer of the mucous membrane are projected.

つまり、白色光と狭帯域光とを同時に照射した観察画像では、生体組織の粘膜表層の微細血管や粘膜表面の微細模様が強調され、患部の性状や観察位置を特定しやすい画像、すなわち、患部の内視鏡診断がしやすい観察画像となる。 That is, in an observation image obtained by simultaneously irradiating white light and narrow-band light, fine blood vessels on the mucosal surface layer of living tissue and fine patterns on the mucosal surface are emphasized, and the properties and observation position of the affected area can be easily identified. This is an observation image that facilitates endoscopic diagnosis.

そこで、本実施の形態の内視鏡装置10では、先端硬質部35から出射する白色光(青色レーザ光及び蛍光体の発光)及び狭帯域光(紫色レーザ光)の各出射光量を独立して制御可能とし、双方の照明光による反射光が1フレームの撮像画像内で共に含まれるようにしている。 Therefore, in the endoscope apparatus 10 of the present embodiment, the amounts of white light (blue laser light and phosphor emission) and narrow-band light (violet laser light) emitted from the distal end rigid portion 35 are independently controlled. It is made controllable, and reflected light from both illumination lights is included in one frame of captured image.

白色光と狭帯域光との出射光量の比率は、たとえば、[白色光:狭帯域光=1:4~1:8]等の適宜な比率に設定する。これにより、白色光で観察部位を明瞭に映出させつつ、狭帯域光により表層血管及び粘膜表面の微細模様を強調でき、微細血管構造及びピットの観察に適した画像を取得できる。 The ratio of the amount of emitted light between white light and narrowband light is set to an appropriate ratio such as [white light:narrowband light=1:4 to 1:8]. As a result, while the observation site is clearly projected with white light, fine patterns of superficial blood vessels and mucosal surfaces can be emphasized with narrow-band light, and an image suitable for observing fine blood vessel structures and pits can be obtained.

次に、撮像された内視鏡画像の画質を変えて表示装置21に表示する場合について説明する。 Next, a case of changing the image quality of the captured endoscopic image and displaying it on the display device 21 will be described.

内視鏡画像を表示装置21に表示させる場合において、表示画像の画質、特に、色調は術者によって好みが分かれる。 When an endoscopic image is displayed on the display device 21, the quality of the displayed image, particularly the color tone, differs depending on the operator.

そこで、本実施の形態の内視鏡装置10では、必要に応じて、内視鏡画像データの色調を補正し、表示装置21に出力する。 Therefore, in the endoscope apparatus 10 of the present embodiment, the color tone of the endoscope image data is corrected and output to the display device 21 as necessary.

色調の補正は、内視鏡制御部65による制御の下、入力装置23から指示に基づいて、画像処理部67で実施される。本実施の形態の内視鏡装置10では、次のように実施される。 The color tone correction is performed by the image processing section 67 under the control of the endoscope control section 65 based on the instruction from the input device 23 . The endoscope apparatus 10 of the present embodiment is implemented as follows.

内視鏡制御部65は、入力装置23から入力される色調の調整値に基づいて、R、G、Bの各強度値(輝度値)をマトリクス補正する補正マトリクスを設定する。画像処理部67は、設定された補正マトリクスに基づいて、内視鏡画像データをマトリクス補正し、色調を補正する。 The endoscope control unit 65 sets a correction matrix for matrix-correcting each intensity value (luminance value) of R, G, and B based on the color tone adjustment value input from the input device 23 . The image processing unit 67 performs matrix correction on the endoscope image data based on the set correction matrix to correct the color tone.

色調補正前の内視鏡画像データの各画素のR、G、Bの強度値をR0、G0、B0、補正マトリクスをA、色調補正後の内視鏡画像データの各画素のR、G、Bの強度値をR1、G1、B1とすると、色調補正後の内視鏡画像データの各画素のR、G、Bの強度値R1、G1、B1は、次式(1)で表わされる。 R0, G0, B0 are the intensity values of R, G, and B of each pixel of the endoscopic image data before color tone correction, A is the correction matrix, R, G of each pixel of the endoscopic image data after color tone correction, Assuming that the intensity values of B are R1, G1, and B1, the intensity values R1, G1, and B1 of R, G, and B of each pixel of the endoscopic image data after color tone correction are expressed by the following equation (1).

Figure 0007130038000001
Figure 0007130038000001

補正マトリクスAの係数aijは、色調の調整値に基づいて設定される。内視鏡制御部65は、入力装置23を介して色調の調整値の情報を取得し、補正マトリクスAを設定する。 The coefficients aij of the correction matrix A are set based on the color tone adjustment values. The endoscope control unit 65 acquires information on the color tone adjustment values via the input device 23 and sets the correction matrix A. FIG.

画像処理部67は、設定された補正マトリクスAを用いて、内視鏡画像データの各画素のR、G、Bの強度値をマトリクス補正し、内視鏡画像データの色調を補正する。そして、補正後の内視鏡画像データを表示装置21に出力する。 The image processing unit 67 performs matrix correction on the intensity values of R, G, and B of each pixel of the endoscopic image data using the set correction matrix A, thereby correcting the color tone of the endoscopic image data. Then, the corrected endoscope image data is output to the display device 21 .

図7は、画像信号の取得から表示装置への出力までの処理の手順を示すフローチャートである。 FIG. 7 is a flowchart showing a procedure of processing from acquisition of an image signal to output to a display device.

内視鏡11から出力される画像信号(デジタル画像信号)が取得され(ステップS1)、取得された画像信号から内視鏡画像の画像データ(内視鏡画像データ)が生成される(ステップS2)。そして、生成された内視鏡画像データに対して、調整値に基づく色調補正が行われ(ステップS3)、色調補正後の内視鏡画像データが表示装置21に出力される(ステップS4)。 An image signal (digital image signal) output from the endoscope 11 is acquired (step S1), and image data of an endoscopic image (endoscopic image data) is generated from the acquired image signal (step S2). ). Then, the generated endoscope image data is subjected to color tone correction based on the adjustment value (step S3), and the endoscope image data after color tone correction is output to the display device 21 (step S4).

このように、色調補正を行うことにより、術者の好みに応じた色調で内視鏡画像を表示装置21に表示できる。 By performing color tone correction in this manner, the endoscope image can be displayed on the display device 21 in a color tone that suits the operator's preference.

なお、内視鏡画像を記憶部69に記憶する場合は、この色調補正後の内視鏡画像データが記憶部69に記憶される。同様に、内視鏡画像を内視鏡画像処理装置100に出力する場合は、色調補正後の内視鏡画像データが、内視鏡画像処理装置100に出力される。 When storing the endoscope image in the storage unit 69, the storage unit 69 stores the endoscope image data after the color tone correction. Similarly, when outputting an endoscopic image to the endoscopic image processing apparatus 100 , endoscopic image data after color tone correction is output to the endoscopic image processing apparatus 100 .

《内視鏡画像処理装置》
内視鏡画像処理装置100は、内視鏡装置10から内視鏡画像データを取得し、画像認識により、画像に含まれる病変を検出し、検出した病変を種別ごとに分類して報知する処理を行う。
《Endoscope image processing device》
The endoscopic image processing apparatus 100 acquires endoscopic image data from the endoscopic apparatus 10, detects lesions included in the image by image recognition, classifies the detected lesions by type, and notifies them. I do.

画像認識の処理には、たとえば、畳み込みニューラルネットワーク(Convolutional Neural Network,CNN)が用いられる。 For image recognition processing, for example, a convolutional neural network (CNN) is used.

病変の分類は、たとえば、NICE分類又はJNET分類などに従って複数のカテゴリーに分類する処理が行われる。「NICE」は、NBI International Colorectal Endoscopic の略語である。「JNET」は、「the Japan NBI Expert Team」の略語である。「NBI」(登録商標)は、Narrow band imaging(登録商標)の略語である。 A lesion is classified into a plurality of categories according to, for example, the NICE classification or the JNET classification. "NICE" is an abbreviation for NBI International Colorectal Endoscopic. "JNET" is an abbreviation for "the Japan NBI Expert Team." "NBI" (registered trademark) is an abbreviation for Narrow band imaging (registered trademark).

NICE分類は、非拡大のNBIによる分類であり、病変の色調(Color)、微小血管 模様(Vessels)、及び表面模様(Surface pattern)の3項目の各項目について、Type1、Type2及びType3に分類される。Type1は過形成病変、Type2は腺腫~粘膜内癌、Type3はSM(submucosa)深部浸潤癌の診断指標である。JNET分類は、大腸腫瘍に対するNBI拡大内視鏡所見の分類である。JNET分類は、「vessel pattern」と「surface pattern」の各項目について、Type1、Type2A、Type2B、及びType3に分類される。 The NICE classification is a non-magnified NBI classification, and is classified into Type 1, Type 2, and Type 3 for each of three items: lesion color, microvessels, and surface pattern. be. Type 1 is a hyperplastic lesion, Type 2 is an adenoma to intramucosal carcinoma, and Type 3 is a diagnostic index for SM (submucosa) deep invasive cancer. The JNET classification is a classification of NBI magnified endoscopy findings for colon tumors. The JNET classification is classified into Type1, Type2A, Type2B, and Type3 for each item of "vessel pattern" and "surface pattern."

なお、画像認識の処理は、NICE分類などの詳細な分類に代えて、又は、これと組み合わせて、単に「癌性」であるか「非癌性」であるかの2分類の認識を行ってもよい。 In the image recognition processing, instead of detailed classification such as NICE classification, or in combination with this, recognition of two classifications, simply "cancerous" or "non-cancerous" is performed. good too.

図8は、内視鏡画像処理装置のハードウェア構成を示すブロック図である。 FIG. 8 is a block diagram showing the hardware configuration of the endoscope image processing apparatus.

内視鏡画像処理装置100は、たとえば、パーソナルコンピュータ、ワークステーション等のコンピュータで構成される。このコンピュータには、CPU(Central Processing Unit)102、RAM(Random Access Memory)104、ROM(read-only memory)106、通信インターフェイス(interface,I/F)108及び入出力インターフェイス110が備えられ、通信インターフェイス108を介してネットワーク2に接続される。また、入出力インターフェイス110を介して記憶装置112、入力装置114及び表示装置116が接続される。記憶装置112は、たとえば、ハードディスクドライブ(Hard Disk Drive,HDD)等のストレージデバイスで構成される。入力装置114は、キーボード及びマウス等の入力デバイスで構成される。表示装置116は、液晶モニタ等の表示デバイスで構成される。 The endoscopic image processing apparatus 100 is configured by a computer such as a personal computer or a workstation, for example. This computer includes a CPU (Central Processing Unit) 102, a RAM (Random Access Memory) 104, a ROM (read-only memory) 106, a communication interface (interface, I/F) 108, and an input/output interface 110. It is connected to network 2 via interface 108 . A storage device 112 , an input device 114 and a display device 116 are also connected via the input/output interface 110 . The storage device 112 is, for example, a storage device such as a hard disk drive (HDD). The input device 114 is composed of input devices such as a keyboard and a mouse. The display device 116 is composed of a display device such as a liquid crystal monitor.

図9は、内視鏡画像処理装置の機能を示すブロック図である。 FIG. 9 is a block diagram showing functions of the endoscope image processing apparatus.

同図に示すように、内視鏡画像処理装置100は、所定の制御プログラム(内視鏡画像処理プログラム)を実行することにより、内視鏡画像取得部120、画像変換処理部122、画像認識部124、及び表示制御部126として機能する。プログラムは、ROM106又は記憶装置112に格納される。 As shown in the figure, the endoscopic image processing apparatus 100 executes a predetermined control program (endoscopic image processing program) to perform an endoscopic image acquisition unit 120, an image conversion processing unit 122, an image recognition unit 120, and an image recognition unit 120. It functions as a unit 124 and a display control unit 126 . The programs are stored in ROM 106 or storage device 112 .

内視鏡画像取得部120は、内視鏡装置10から内視鏡画像データを取得する。内視鏡画像データは、動画及び静止画のいずれの画像データであってもよい。 The endoscope image acquisition unit 120 acquires endoscope image data from the endoscope apparatus 10 . The endoscope image data may be either moving image data or still image data.

画像変換処理部122は、内視鏡画像取得部120で取得された内視鏡画像を基準画質の画像に変換する処理を行う。ここで、本実施の形態において、「基準画質」とは、内視鏡装置10で行われた色調補正を行う前の画質をいう。 The image conversion processing unit 122 performs processing for converting the endoscopic image acquired by the endoscopic image acquiring unit 120 into an image of standard image quality. Here, in the present embodiment, “reference image quality” refers to image quality before color tone correction performed in the endoscope apparatus 10 .

上記のように、本実施の形態の内視鏡装置10では、必要に応じて、出力画像の色調補正が行われる。一方、後述するように、画像認識は、機械学習によって学習したモデル(学習済みモデル)が用いられる。機械学習では、学習用の画像群に画質の偏りがあると、画質の偏りも学習する。この結果、学習した画像群の画質の偏りから外れた画質の画像を画像認識させた場合に精度が低下する。色調が補正されると、学習した画像群の画質の偏りから外れ、画像認識させた場合に精度が低下する。 As described above, in the endoscope apparatus 10 of the present embodiment, color tone correction of the output image is performed as necessary. On the other hand, as will be described later, image recognition uses a model learned by machine learning (learned model). In machine learning, if there is a bias in image quality in a group of images for learning, the bias in image quality is also learned. As a result, the accuracy is lowered when an image whose image quality deviates from the image quality bias of the learned image group is image-recognized. When the color tone is corrected, the image quality deviation of the learned image group is deviated, and the accuracy of image recognition is lowered.

そこで、本実施の形態では、内視鏡装置10から取得した内視鏡画像データに対して画像処理を行い、その画質を色調補正前の画質に変換する。具体的には、取得した内視鏡画像データに対して、色調補正した際の補正マトリクスAの逆行列A-1となる補正マトリクスBを用いてマトリクス補正し、基準画質の画像データに変換する。Therefore, in the present embodiment, image processing is performed on endoscope image data acquired from the endoscope apparatus 10, and the image quality is converted into image quality before color tone correction. Specifically, the acquired endoscopic image data is subjected to matrix correction using a correction matrix B that is an inverse matrix A −1 of the correction matrix A at the time of color tone correction, and converted into image data of standard image quality. .

いま、取得した内視鏡画像データの各画素のR、G、Bの強度値をR1、G1、B1、補正マトリクスをB、変換後の内視鏡画像データの各画素のR、G、Bの強度値をR2、G2、B2とすると、変換後の内視鏡画像データの各画素のR、G、Bの強度値R2、G2、B2は、次式(2)で表わされる。 Now, let R1, G1, B1 be the intensity values of R, G, and B of each pixel of the acquired endoscopic image data, B be the correction matrix, and R, G, and B of each pixel of the endoscopic image data after conversion. R2, G2, and B2 are the intensity values of R, G, and B of each pixel of the endoscopic image data after conversion, and are expressed by the following equation (2).

Figure 0007130038000002
Figure 0007130038000002

画像変換処理部122は、色調補正の際の補正マトリクスAの情報を内視鏡装置10から取得し、その逆行列となる補正マトリクスBを設定する。そして、設定された補正マトリクスBを用いて、取得した内視鏡画像データの各画素のR、G、Bの強度値をマトリクス補正し、画質を変換する。すなわち、色調補正前の画質に変換する。 The image conversion processing unit 122 acquires the information of the correction matrix A for color tone correction from the endoscope apparatus 10, and sets the correction matrix B which is the inverse matrix thereof. Then, using the set correction matrix B, the R, G, and B intensity values of each pixel of the acquired endoscopic image data are matrix-corrected to convert the image quality. That is, the image quality is converted to that before color tone correction.

画像認識部124は、画像変換処理部122によって基準画質の画像に変換された後の内視鏡画像に対して画像認識の処理を行う。本実施の形態では、取得した内視鏡画像から病変(注目領域)を検出し、かつ、検出された病変をNIEC分類又はJNET分類などに従い分類する処理を行う。画像認識部124は、機械学習によって学習した学習済みモデルを用いて構成される。このモデルは、たとえば、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)で構成される。モデル生成の際は、基準画質に変換された内視鏡画像群で学習する。 The image recognition unit 124 performs image recognition processing on the endoscopic image that has been converted into the standard image quality image by the image conversion processing unit 122 . In this embodiment, a process of detecting a lesion (region of interest) from an acquired endoscopic image and classifying the detected lesion according to the NIEC classification, the JNET classification, or the like is performed. The image recognition unit 124 is configured using a learned model learned by machine learning. This model is composed of, for example, a convolutional neural network (CNN). At the time of model generation, learning is performed using a group of endoscopic images that have been converted to standard image quality.

表示制御部126は、画像認識部124による認識結果を取得し、所定の表示態様で認識結果を表示装置116に表示させる。 The display control unit 126 acquires the recognition result by the image recognition unit 124 and causes the display device 116 to display the recognition result in a predetermined display mode.

図10は、認識結果の表示の一例を示す図である。 FIG. 10 is a diagram showing an example of display of recognition results.

同図に示すように、病変が検出された場合、画像認識した内視鏡画像に重ねて、認識結果が表示される。認識結果は、たとえば、検出された病変の領域を枠で囲う形式で表示される。また、その枠に近接して、病変の分類結果が表示される。 As shown in the figure, when a lesion is detected, the recognition result is displayed superimposed on the endoscopic image that has undergone image recognition. The recognition result is displayed, for example, in the form of enclosing the detected lesion area with a frame. In addition, lesion classification results are displayed near the frame.

図11は、内視鏡画像処理装置で実施される画像認識の処理の手順を示すフローチャートである。 FIG. 11 is a flow chart showing the procedure of image recognition processing performed by the endoscope image processing apparatus.

まず、内視鏡画像取得部120によって内視鏡装置10から内視鏡画像データが取得される(ステップS11)。 First, endoscope image data is acquired from the endoscope apparatus 10 by the endoscope image acquisition unit 120 (step S11).

次に、色調の調整値に基づいて、認識対象の画質を基準画質に変換する処理が行われる(ステップS12)。この処理は、画像変換処理部122によって行われる。画像変換処理部122は、取得された内視鏡画像データをマトリクス補正することにより、その画質を変換する。この際に使用する補正マトリクスBは、認識対象の内視鏡画像データを生成した際の色調補正の補正マトリクスAから求められる。すなわち、補正マトリクスAの逆行列として求められる。 Next, based on the color tone adjustment value, a process of converting the image quality to be recognized into the standard image quality is performed (step S12). This processing is performed by the image conversion processing unit 122 . The image conversion processing unit 122 converts the image quality of the acquired endoscopic image data by performing matrix correction. The correction matrix B used at this time is obtained from the correction matrix A for color tone correction when the endoscopic image data to be recognized is generated. That is, it is obtained as an inverse matrix of the correction matrix A.

次に、基準画質に変換された後の内視鏡画像に対して画像認識部124によって画像認識が行われ(ステップS13)、その認識結果が表示装置21に出力される(ステップS14)。 Next, image recognition is performed by the image recognition unit 124 on the endoscopic image after conversion to the standard image quality (step S13), and the recognition result is output to the display device 21 (step S14).

このように、本実施の形態の内視鏡画像処理装置100では、内視鏡画像を画像認識する際、認識対象の内視鏡画像の画質を基準画質に変換し、変換後の内視鏡画像に対して画像認識が行われる。これにより、内視鏡装置10において、独自の色調補正を行った場合であっても、精度よく画像認識を行うことができる。すなわち、画質の差異を考慮せずに画像認識できる。 As described above, in the endoscopic image processing apparatus 100 of the present embodiment, when recognizing an endoscopic image, the image quality of the endoscopic image to be recognized is converted into the standard image quality, and the endoscope image after conversion is converted to the standard image quality. Image recognition is performed on the image. As a result, in the endoscope apparatus 10, image recognition can be performed with high accuracy even when original color tone correction is performed. That is, image recognition can be performed without considering differences in image quality.

◆◆第2の実施の形態◆◆
内視鏡装置では、画質を自動的に補正する場合がある。たとえば、照明光の光量変化による画質の変化を自動的に補正する場合がある。本実施の形態では、認識対象である内視鏡画像が、画質補正されている場合、その補正情報に基づいて、画質を基準画質に変換し、変換後の内視鏡画像に対して、画像認識を行う。
◆◆ Second embodiment ◆◆
An endoscope device may automatically correct image quality. For example, there is a case where a change in image quality caused by a change in the amount of illumination light is automatically corrected. In the present embodiment, when the image quality of the endoscopic image to be recognized has been corrected, the image quality is converted to the standard image quality based on the correction information, and the converted endoscopic image is converted to the image quality. perform recognition.

《画質の自動補正》
ここでは、光量変化に基づく画質の自動補正について説明する。なお、内視鏡装置のハードウェア構成は、上記第1の実施の形態と同じである。したがって、ハードウェア構成についての説明は省略する。
《Auto Correction of Image Quality》
Here, the automatic correction of image quality based on changes in the amount of light will be described. The hardware configuration of the endoscope apparatus is the same as that of the first embodiment. Therefore, description of the hardware configuration is omitted.

〈光量制御〉
まず、照明光の光量の制御について説明する。本実施の形態の内視鏡装置では、撮影距離(イメージセンサの撮像面から被検体までの距離)に応じて、照明光の光量、すなわち、第1レーザ光源LD1及び第2レーザ光源LD2の出射光量が自動で制御される。内視鏡制御部65は、撮影距離に応じて、最適な光量比となるように、第1レーザ光源LD1からの出射光量及び第2レーザ光源LD2からの出射光量を制御する。撮影距離の情報は、たとえば、オートフォーカスの情報などを利用して取得される。この他、露出情報(シャッタ速度、絞り値、明るさ(EV値(Exposure Value))等)と、光源制御部51が設定する照明光量の情報とに基づいて推定する等の方法を採用することもできる。光量比の設定には、たとえば、撮影距離と最適光量比との関係を表すテーブルをあらかじめ用意しておき、このテーブルを参照することにより行われる。
<Light intensity control>
First, control of the amount of illumination light will be described. In the endoscope apparatus of the present embodiment, the light intensity of the illumination light, that is, the emission of the first laser light source LD1 and the second laser light source LD2, depends on the imaging distance (the distance from the imaging surface of the image sensor to the subject). The amount of light is automatically controlled. The endoscope control unit 65 controls the amount of light emitted from the first laser light source LD1 and the amount of light emitted from the second laser light source LD2 so as to achieve an optimum light amount ratio according to the photographing distance. Information on the shooting distance is acquired using, for example, autofocus information. In addition, a method of estimating based on exposure information (shutter speed, aperture value, brightness (EV value (Exposure Value)), etc.) and illumination light amount information set by the light source control unit 51 may be adopted. can also The light amount ratio is set by, for example, preparing in advance a table showing the relationship between the photographing distance and the optimum light amount ratio, and referring to this table.

内視鏡制御部65は、テーブルを参照し、撮影距離が近いほど、粘膜表層の毛細血管等を強調するように、第2レーザ光源LD2からの出射光量を第1レーザ光源LD1からの出射光量よりも相対的に大きく設定する。また、撮影距離が遠いほど、遠景の輝度を確保するため、高照度の照明光となるように、第1レーザ光源LD1からの出射光量を第2レーザ光源LD2からの出射光量よりも相対的に大きく設定する。 The endoscope control unit 65 refers to the table and adjusts the amount of light emitted from the second laser light source LD2 to the amount of light emitted from the first laser light source LD1 so that the capillaries and the like on the surface of the mucous membrane are emphasized as the photographing distance is shorter. set relatively larger than Further, as the photographing distance becomes longer, the amount of light emitted from the first laser light source LD1 is made relatively higher than the amount of light emitted from the second laser light source LD2 so that the illumination light has a high illuminance in order to ensure the brightness of the distant view. set large.

〈画質補正〉
上記のように、第1レーザ光源LD1からの出射光は最終的に白色光として被検体に照射され、第2レーザ光源LD2からの出射光は、狭帯域光として被検体に照射される。このため、第1レーザ光源LD1及び第2レーザ光源LD2の出射光の光量比が変更されると、照明光の色味が変化する。たとえば、第2レーザ光源LD2の光量が、第1レーザ光源LD1の光量に対して増加すると、青味を帯びた照明光となる。この結果、光量比に応じて観察画像である内視鏡画像の色調が変化する。
<Image Correction>
As described above, the emitted light from the first laser light source LD1 is finally applied to the subject as white light, and the emitted light from the second laser light source LD2 is applied to the subject as narrow-band light. Therefore, when the light amount ratio of the emitted light of the first laser light source LD1 and the second laser light source LD2 is changed, the color of the illumination light is changed. For example, when the light intensity of the second laser light source LD2 increases with respect to the light intensity of the first laser light source LD1, the illumination light becomes bluish. As a result, the color tone of the endoscopic image, which is the observation image, changes according to the light amount ratio.

そこで、設定した光量比によって変化する照明光の色味に応じて内視鏡画像の色調補正を行い、内視鏡画像が照明光の色味変化の影響を受けないようにする。 Therefore, the color tone of the endoscopic image is corrected according to the color of the illumination light that changes according to the set light amount ratio, so that the endoscopic image is not affected by the color change of the illumination light.

内視鏡制御部65は、設定された光量比の情報に基づいて、画像の色調変化がなくなるように、内視鏡画像データを補正する。補正は、たとえば、光量比ごとに色調補正テーブルをあらかじめ用意し、この色調補正テーブルを参照して行う。 The endoscope control unit 65 corrects the endoscope image data based on the set light amount ratio information so that the color tone of the image does not change. For correction, for example, a color tone correction table is prepared in advance for each light amount ratio, and this color tone correction table is referred to.

色調補正テーブルは、たとえば、内視鏡画像の各画素に対して、R、G、Bの強度値をマトリクス補正する補正マトリクスとして表すことができる。 The color tone correction table can be expressed as a correction matrix that performs matrix correction of R, G, and B intensity values for each pixel of the endoscopic image, for example.

撮影により得られた内視鏡画像データの各画素のR、G、Bの強度値をR3、G3、B3、補正マトリクスをC、色調補正後の内視鏡画像データの各画素のR、G、Bの強度値をR4、G4、B4とすると、色調補正後の内視鏡画像データの各画素のR、G、Bの強度値R4、G4、B4は、次式(3)で表わされる。 R3, G3, and B3 are the intensity values of R, G, and B of each pixel of the endoscopic image data obtained by imaging, C is the correction matrix, and R and G of each pixel of the endoscopic image data after color tone correction. , and B are R4, G4, and B4, the intensity values R4, G4, and B4 of R, G, and B of each pixel of the endoscopic image data after color tone correction are expressed by the following equation (3). .

Figure 0007130038000003
Figure 0007130038000003

補正マトリクスCの係数cijは、光量比の変化による照明光の色味変化をキャンセルするように設定され、複数種の光量比に対応する複数種の補正マトリクスCが、あらかじめ容易される。 The coefficient cij of the correction matrix C is set so as to cancel the change in color of the illumination light due to the change in the light amount ratio, and a plurality of types of correction matrices C corresponding to a plurality of types of light amount ratios are prepared in advance.

画像処理部67は、設定された補正マトリクスCを用いて、内視鏡画像データの各画素のR、G、Bの強度値をマトリクス補正し、内視鏡画像データの色調を補正する。そして、補正後の内視鏡画像データを表示装置21に出力する。 The image processing unit 67 performs matrix correction on the intensity values of R, G, and B of each pixel of the endoscopic image data using the set correction matrix C, thereby correcting the color tone of the endoscopic image data. Then, the corrected endoscope image data is output to the display device 21 .

図12は、画像信号の取得から表示装置への出力までの処理の手順を示すフローチャートである。 FIG. 12 is a flowchart showing a procedure of processing from acquisition of an image signal to output to a display device.

内視鏡11から出力される画像信号が取得され(ステップS21)、取得された画像信号から内視鏡画像の画像データ(内視鏡画像データ)が生成される(ステップS22)。そして、生成された内視鏡画像データに対して、光量変化に基づく色調補正が行われ(ステップS23)、色調補正後の内視鏡画像データが表示装置21に出力される(ステップS24)。内視鏡画像を内視鏡画像処理装置100に出力する場合は、色調補正後の内視鏡画像データが、内視鏡画像処理装置100に出力される。 An image signal output from the endoscope 11 is acquired (step S21), and image data of an endoscopic image (endoscopic image data) is generated from the acquired image signal (step S22). Then, the generated endoscopic image data is subjected to color tone correction based on changes in the amount of light (step S23), and the endoscopic image data after color tone correction is output to the display device 21 (step S24). When outputting an endoscopic image to the endoscopic image processing apparatus 100 , endoscopic image data after color tone correction is output to the endoscopic image processing apparatus 100 .

《画像認識》
認識対象の内視鏡画像が、光量変化に基づいて自動的に色調補正されている場合、内視鏡画像処理装置100は、その補正情報に基づいて、画質を基準画質に変換し、変換後の内視鏡画像に対して、画像認識を行う。
《Image Recognition》
When the endoscopic image to be recognized has been automatically color-corrected based on changes in the amount of light, the endoscopic image processing apparatus 100 converts the image quality to the reference image quality based on the correction information, and after conversion, image recognition is performed on the endoscopic image.

図13は、内視鏡画像処理装置で実施される画像認識の処理の手順を示すフローチャートである。 FIG. 13 is a flowchart showing the procedure of image recognition processing performed by the endoscope image processing apparatus.

まず、内視鏡画像取得部120によって内視鏡装置10から内視鏡画像データが取得される(ステップS31)。次に、光量変化に基づく色調補正の補正情報に基づいて、認識対象の画質を基準画質に変換する処理が行われる(ステップS32)。画像変換処理部122は、取得された内視鏡画像データをマトリクス補正することにより、その画質を変換する。この際に使用する補正マトリクスは、認識対象の内視鏡画像データを光量変化に基づいて色調補正した際の補正マトリクスCから求められる。すなわち、補正マトリクスCの逆行列C-1として求められる。First, endoscope image data is acquired from the endoscope apparatus 10 by the endoscope image acquisition unit 120 (step S31). Next, based on the correction information of the color tone correction based on the change in the amount of light, a process of converting the image quality to be recognized into the standard image quality is performed (step S32). The image conversion processing unit 122 converts the image quality of the acquired endoscopic image data by performing matrix correction. The correction matrix used at this time is obtained from the correction matrix C obtained when the endoscopic image data to be recognized is subjected to color tone correction based on changes in the amount of light. That is, it is obtained as an inverse matrix C −1 of the correction matrix C.

次に、基準画質に変換された後の内視鏡画像に対して画像認識部124によって画像認識が行われ(ステップS33)、その認識結果が表示装置21に出力される(ステップS34)。 Next, image recognition is performed by the image recognition unit 124 on the endoscopic image converted to the standard image quality (step S33), and the recognition result is output to the display device 21 (step S34).

このように、基準画質の画像に変換して、画像認識することにより、内視鏡装置10で自動的に色調が補正された場合であっても、精度よく画像認識を行うことができる。すなわち、画質の差異を考慮せずに画像認識できる。 In this manner, by converting the image into the image of the standard image quality and recognizing the image, even if the color tone is automatically corrected by the endoscope apparatus 10, the image can be accurately recognized. That is, image recognition can be performed without considering differences in image quality.

◆◆第3の実施の形態◆◆
術者によって出力画像の色調が調整され、更に、光量変化に応じて色調が自動補正される場合は、次のように処理される。
◆◆ Third Embodiment ◆◆
When the color tone of the output image is adjusted by the operator and the color tone is automatically corrected according to the change in the amount of light, the following processing is performed.

《内視鏡装置での処理》
図14は、画像信号の取得から表示装置への出力までの処理の手順を示すフローチャートである。
<Processing with an endoscope>
FIG. 14 is a flowchart showing a procedure of processing from acquisition of an image signal to output to a display device.

内視鏡11から出力される画像信号が取得され(ステップS41)、取得された画像信号から内視鏡画像の画像データ(内視鏡画像データ)が生成される(ステップS42)。生成された内視鏡画像データに対して、まず、光量変化に基づく色調補正が行われる(ステップS43)。次いで、色調の調整値に基づいて、色調補正が行われる(ステップS44)。この後、色調補正後の内視鏡画像データが、表示装置21に出力される(ステップS45)。内視鏡画像を内視鏡画像処理装置100に出力する場合は、色調補正後の内視鏡画像データが、内視鏡画像処理装置100に出力される。 An image signal output from the endoscope 11 is acquired (step S41), and image data of an endoscopic image (endoscopic image data) is generated from the acquired image signal (step S42). First, color tone correction is performed on the generated endoscopic image data based on changes in the amount of light (step S43). Next, color tone correction is performed based on the color tone adjustment value (step S44). After that, the endoscope image data after the color tone correction is output to the display device 21 (step S45). When outputting an endoscopic image to the endoscopic image processing apparatus 100 , endoscopic image data after color tone correction is output to the endoscopic image processing apparatus 100 .

《内視鏡画像処理装置での処理(内視鏡画像処理方法)》
図15は、内視鏡画像処理装置で実施される画像認識の処理の手順を示すフローチャートである。
<<Processing by Endoscope Image Processing Device (Endoscope Image Processing Method)>>
FIG. 15 is a flow chart showing the procedure of image recognition processing performed by the endoscope image processing apparatus.

まず、内視鏡画像取得部120によって内視鏡装置10から内視鏡画像データが取得される(ステップS51)。 First, endoscope image data is acquired from the endoscope apparatus 10 by the endoscope image acquisition unit 120 (step S51).

次に、光量変化に基づく色調補正の補正情報に基づいて、認識対象の画質を変換する処理が行われる(ステップS52)。次に、色調の調整値に基づく色調補正の補正情報に基づいて、認識対象の画質を変換する処理が行われる(ステップS53)。この二段階の変換処理を施すことにより、認識対象の画質が基準画質に変換される。 Next, a process of converting the image quality of the object to be recognized is performed based on the correction information for the color tone correction based on the change in the amount of light (step S52). Next, a process of converting the image quality of the recognition target is performed based on the correction information for color tone correction based on the color tone adjustment value (step S53). By performing this two-step conversion process, the image quality of the recognition object is converted into the standard image quality.

次に、基準画質に変換された後の内視鏡画像に対して画像認識部124によって画像認識が行われる(ステップS54)。そして、その認識結果が表示装置21に出力される(ステップS55)。 Next, image recognition is performed by the image recognition unit 124 on the endoscopic image after conversion to the standard image quality (step S54). Then, the recognition result is output to the display device 21 (step S55).

このように、認識対象の内視鏡画像に複数の画質補正が施されている場合は、各画質補正に対応した変換処理を実施することにより、基準画質の画像に変換する。そして、このように基準画質の画像に変換して、画像認識することにより、精度よく画像認識を行うことができる。 In this way, when a plurality of image quality corrections are applied to an endoscopic image to be recognized, conversion processing corresponding to each image quality correction is performed to convert the image into a standard image quality image. By converting the image into the standard image quality image and recognizing the image, the image recognition can be performed with high accuracy.

◆◆変形例◆◆
《内視鏡装置で行われる画質補正》
上記実施の形態では、内視鏡装置において色調を補正する場合を例に説明したが、内視鏡装置で行われる画質補正の種類は、これに限定されるものではない。この他、明るさの補正、コントラストの補正、シャープネスの補正等、種々の画質補正を行うことができる。
◆◆Modified example◆◆
《Image quality correction performed in the endoscope device》
In the above-described embodiment, the case of correcting the color tone in the endoscope apparatus has been described as an example, but the type of image quality correction performed in the endoscope apparatus is not limited to this. In addition, various image quality corrections such as brightness correction, contrast correction, and sharpness correction can be performed.

画質補正された内視鏡画像を画像認識する場合は、画質補正の内容に応じた逆変換の処理を行うことで、基準画質の画像に変換する。 When recognizing an endoscopic image whose image quality has been corrected, it is converted into an image of standard image quality by performing inverse conversion processing according to the content of the image quality correction.

また、上記実施の形態では、色調補正の手法として、マトリクス補正を採用しているが、画質補正の手法は、これに限定されるものではない。たとえば、光量変化による画質変化を調整する場合は、あらかじめ設定されている光量による画質変化を調整する画像処理パラメーターを用いて画像処理し、画質を補正してもよい。また、術者の好みの色調に調整する場合は、色調を調整する画像処理パラメーターで画像処理を行って、色調を補正してもよい。画像認識する際は、補正の際に使用した画像処理パラメーターを基にして、画像処理を行い、基準画質の画像に変換する。 Further, in the above embodiments, matrix correction is used as a color tone correction method, but the image quality correction method is not limited to this. For example, when adjusting image quality changes due to changes in the amount of light, image processing may be performed using preset image processing parameters for adjusting image quality changes due to the amount of light, and the image quality may be corrected. Further, when adjusting the color tone to the operator's preference, the color tone may be corrected by performing image processing using image processing parameters for adjusting the color tone. When recognizing an image, image processing is performed based on the image processing parameters used for correction, and the image is converted into an image of standard image quality.

《内視鏡画像処理装置で行われる画像変換処理》
上記のように、内視鏡画像処理装置では、認識対象の内視鏡画像の画質を基準画質に変換して、画像認識を行う。
<<Image conversion processing performed by an endoscope image processing device>>
As described above, in the endoscopic image processing apparatus, image recognition is performed by converting the image quality of the endoscopic image to be recognized into the standard image quality.

基準画質に変換する処理は、認識対象の内視鏡画像に施された画質補正の内容に基づいて行われる。すなわち、その画質補正の内容を基に、逆変換の処理を施すことにより、基準画質の画像に変換する。この際、たとえば、内視鏡装置で設定されている画質の調整値の情報を取得することにより、容易に基準画質の画像に変換することができる。 The process of converting to the standard image quality is performed based on the details of the image quality correction applied to the endoscopic image to be recognized. That is, based on the content of the image quality correction, the image is converted into an image of standard image quality by performing inverse conversion processing. At this time, for example, by acquiring information on the image quality adjustment value set in the endoscope apparatus, the image can be easily converted into an image of standard image quality.

内視鏡装置では、通常、観察画像である内視鏡画像を表示装置に表示する場合に色調等の画質の調整が行われる。したがって、内視鏡画像を表示装置に出力する場合に内視鏡装置で設定される画質の調整値の情報を取得して、基準画質の画像に変換する処理を行うことが好ましい。 In an endoscope apparatus, image quality such as color tone is usually adjusted when an endoscope image, which is an observation image, is displayed on a display device. Therefore, when outputting an endoscopic image to a display device, it is preferable to acquire information about an image quality adjustment value set in the endoscopic device and perform a process of converting the image into a standard image quality image.

また、内視鏡装置では、内視鏡画像を静止画として保存する場合、静止画用の画質調整が行われる場合がある。このように、静止画用の画質調整を行う場合において、静止画の内視鏡画像を画像認識する場合は、内視鏡装置で設定される静止画用の画質の調整値の情報を取得して、基準画質の画像に変換する処理を行うことが好ましい。 Further, in the endoscope apparatus, when an endoscope image is saved as a still image, image quality adjustment for the still image may be performed. In this way, when performing image quality adjustment for a still image, when recognizing a still image of the endoscope image, the information of the adjustment value for the image quality for the still image set in the endoscope device is acquired. It is preferable to perform a process of converting the image into an image of standard image quality.

また、一般に画質補正の内容は、内視鏡画像が撮影された内視鏡装置ごとに異なるので、内視鏡装置ごとに設定された数値で内視鏡画像を処理して、内視鏡画像を基準画質の画像に変換する処理を行うことが好ましい。特に、色調調整する場合は、術者ごとに調整値が異なるので、術者ごとの設定に応じた画像変換処理を行って、基準画質の画像に変換することが好ましい。 In addition, since the content of image quality correction generally differs depending on the endoscope apparatus used to capture the endoscopic image, the endoscopic image is processed using numerical values set for each endoscope apparatus to obtain the endoscopic image. is preferably converted into an image of standard image quality. In particular, in the case of color tone adjustment, since adjustment values differ for each operator, it is preferable to perform image conversion processing according to the settings of each operator to convert the image into an image of standard image quality.

《画像認識部の変形例》
上記実施の形態では、画像認識部が、機械学習によって学習した畳み込みニューラルネットワークで構成される場合を例に説明したが、画像認識部の構成は、これに限定されるものではない。この他、公知の手法で機械学習することによって生成した学習済みモデルで画像認識部を構成することができる。
<<Modified example of image recognition unit>>
In the above embodiment, the image recognition unit is configured by a convolutional neural network learned by machine learning. However, the configuration of the image recognition unit is not limited to this. In addition, the image recognition unit can be configured with a trained model generated by machine learning using a known technique.

なお、機械学習の際には、基準画質に変換された画像群で学習する。したがって、「基準画質」とは、画像認識部を生成した際の学習用の画像群の画質ということもできる。そして、「基準画質に変換する処理」とは、画像認識部を生成した際の学習用の画像群の画質に変換する処理ということもできる。 Note that machine learning is performed using a group of images that have been converted to the standard image quality. Therefore, the “reference image quality” can also be said to be the image quality of the image group for learning when the image recognition unit is generated. The “process of converting to the standard image quality” can also be said to be a process of converting to the image quality of the image group for learning when the image recognition unit is generated.

《認識対象とする内視鏡画像の取得方法》
上記実施の形態では、認識対象とする内視鏡画像を内視鏡装置から直接取得する構成としているが、内視鏡画像の取得先は、これに限定されるものではない。たとえば、ネットワークを介して接続された他の記憶装置に保存されている内視鏡画像、サーバに記録されている内視鏡画像等を認識対象の内視鏡画像として取得してもよい。
<<Method of Acquisition of Endoscope Image to be Recognized>>
In the above embodiment, the endoscope image to be recognized is directly acquired from the endoscope apparatus, but the acquisition destination of the endoscope image is not limited to this. For example, an endoscopic image stored in another storage device connected via a network, an endoscopic image recorded in a server, or the like may be acquired as an endoscopic image to be recognized.

また、認識対象の内視鏡画像は、動画と静止画のいずれであってもよい。動画は、複数のフレームを含む時系列画像として構成される。 Also, the endoscopic image to be recognized may be either a moving image or a still image. A moving image is constructed as a time-series image including a plurality of frames.

◆◆その他の変形例◆◆
《内視鏡画像処理装置のハードウェア構成について》
内視鏡画像処理装置の機能は、各種のプロセッサ(processor)で実現できる。各種のプロセッサには、プログラムを実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。
◆◆Other variations◆◆
<About the hardware configuration of the endoscope image processing device>
The functions of the endoscopic image processing device can be realized by various processors. The various processors include CPUs (Central Processing Units), which are general-purpose processors that execute programs and function as various processing units, and FPGAs (Field Programmable Gate Arrays), which are processors whose circuit configuration can be changed after manufacturing. Programmable Logic Devices (PLDs), ASICs (Application Specific Integrated Circuits), and other dedicated electric circuits, which are processors having circuit configurations specially designed to execute specific processing, are included.

1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種又は異種の2つ以上のプロセッサで構成されてもよい。たとえば、1つの処理部は、複数のFPGA、又は、CPU及びFPGAの組み合わせによって構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第一に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第二に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。 One processing unit may be composed of one of these various processors, or may be composed of two or more processors of the same type or different types. For example, one processing unit may be composed of a plurality of FPGAs or a combination of CPUs and FPGAs. Also, a plurality of processing units may be configured by one processor. As an example of configuring a plurality of processing units with a single processor, first, as represented by a computer such as a client or a server, a single processor is configured by combining one or more CPUs and software. There is a form in which a processor functions as multiple processing units. Secondly, as typified by System On Chip (SoC), etc., there is a form of using a processor that realizes the functions of the entire system including multiple processing units with a single IC (Integrated Circuit) chip. be. In this way, the various processing units are configured using one or more of the above various processors as a hardware structure.

更に、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)である。 Further, the hardware structure of these various processors is, more specifically, an electrical circuit that combines circuit elements such as semiconductor elements.

また、内視鏡画像処理装置の機能は、内視鏡装置を構成するプロセッサ装置に搭載することもできる。 Also, the functions of the endoscope image processing device can be installed in a processor device that constitutes the endoscope device.

《内視鏡》
電子内視鏡は、軟性内視鏡に限らず、硬性内視鏡であってもよい。また、カプセル内視鏡であってもよい。
"Endoscope"
The electronic endoscope is not limited to a flexible endoscope, and may be a rigid endoscope. Alternatively, a capsule endoscope may be used.

《内視鏡装置の照明光について》
照明光は、白色光、あるいは、1又は複数の特定の波長帯域の光、あるいは、これらの組み合わせなど観察目的に応じた各種波長帯域の光が選択される。「特定の波長帯域」は、白色の波長帯域よりも狭い帯域である。特定の波長帯域に関する具体例を以下に示す。
《About the illumination light of the endoscope device》
As the illumination light, white light, light in one or more specific wavelength bands, light in various wavelength bands such as a combination thereof, or the like is selected according to the purpose of observation. A "specific wavelength band" is a band narrower than the white wavelength band. Specific examples for specific wavelength bands are shown below.

〈第1例〉
特定の波長帯域の第1例は、たとえば、可視域の青色帯域又は緑色帯域である。この第1例の波長帯域は、390nm以上450nm以下の波長帯域又は530nm以上550nm以下の波長帯域を含み、かつ、第1例の光は、390nm以上450nm以下の波長帯域内又は530nm以上550nm以下の波長帯域内にピーク波長を有する。
<First example>
A first example of a specific wavelength band is, for example, the blue band or the green band of the visible range. The wavelength band of this first example includes a wavelength band of 390 nm or more and 450 nm or less or a wavelength band of 530 nm or more and 550 nm or less, and the light of the first example is within the wavelength band of 390 nm or more and 450 nm or less or 530 nm or more and 550 nm or less. It has a peak wavelength within the wavelength band.

〈第2例〉
特定の波長帯域の第2例は、たとえば、可視域の赤色帯域である。この第2例の波長帯域は、585nm以上615nm以下の波長帯域又は610nm以上730nm以下の波長帯域を含み、かつ、第2例の光は、585nm以上615nmの波長帯域内以下又は610nm以上730nm以下の波長帯域内にピーク波長を有する。
<Second example>
A second example of a specific wavelength band is, for example, the visible red band. The wavelength band of this second example includes a wavelength band of 585 nm or more and 615 nm or less or a wavelength band of 610 nm or more and 730 nm or less, and the light of the second example is within the wavelength band of 585 nm or more and 615 nm or less or 610 nm or more and 730 nm or less. It has a peak wavelength within the wavelength band.

〈第3例〉
特定の波長帯域の第3例は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域を含み、かつ、第3例の光は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域にピーク波長を有する。この第3例の波長帯域は、400±10nm、440±10nmの波長帯域、470±10nmの波長帯域、又は600nm以上750nm以下の波長帯域を含み、かつ、第3例の光は、上記400±10nm、440±10nm、470±10nm、又は600nm以上750nm以下の波長帯域内にピーク波長を有する。
<Third example>
A third example of the specific wavelength band includes a wavelength band in which oxyhemoglobin and reduced hemoglobin have different absorption coefficients, and the light in the third example peaks in the wavelength band in which oxidized hemoglobin and reduced hemoglobin have different absorption coefficients. have a wavelength. The wavelength band of this third example includes a wavelength band of 400±10 nm, a wavelength band of 440±10 nm, a wavelength band of 470±10 nm, or a wavelength band of 600 nm or more and 750 nm or less. It has a peak wavelength within a wavelength band of 10 nm, 440±10 nm, 470±10 nm, or 600 nm or more and 750 nm or less.

〈第4例〉
特定の波長帯域の第4例は、生体内の蛍光物質が発する蛍光の観察(蛍光観察)に用いられ、かつ、この蛍光物質を励起させる励起光の波長帯域、たとえば、390nmから470nmである。
<Fourth example>
A fourth example of the specific wavelength band is a wavelength band of excitation light used for observing fluorescence emitted by a fluorescent substance in vivo (fluorescence observation) and exciting the fluorescent substance, for example, from 390 nm to 470 nm.

〈第5例〉
特定の波長帯域の第5例は、赤外光の波長帯域である。この第5例の波長帯域は、790nm以上820nm以下の波長帯域又は905nm以上970nm以下の波長帯域を含み、かつ、第5例の光は、790nm以上820nm以下の波長帯域内又は905nm以上970nm以下の波長帯域内にピーク波長を有する。
<Fifth example>
A fifth example of the specific wavelength band is the wavelength band of infrared light. The wavelength band of the fifth example includes the wavelength band of 790 nm or more and 820 nm or less or the wavelength band of 905 nm or more and 970 nm or less, and the light of the fifth example is within the wavelength band of 790 nm or more and 820 nm or less or the wavelength band of 905 nm or more and 970 nm or less. It has a peak wavelength within the wavelength band.

《照明光の切り替えについて》
光源の種類は、レーザ光源、キセノン光源、若しくは、LED光源(LED:Light-Emitting Diode)、又は、これらの適宜の組み合わせを採用できる。光源の種類、波長、フィルタの有無等は被写体の種類、観察の目的等に応じて構成することが好ましく、また、観察の際は、被写体の種類、観察の目的等に応じて照明光の波長を組み合わせ、及び/又は、切り替えることが好ましい。波長を切り替える場合、たとえば、光源の前方に配置され、特定波長の光を透過又は遮光するフィルタが設けられた円板状のフィルタ(ロータリカラーフィルタ)を回転させることにより、照射する光の波長を切り替えてもよい。
《Switching illumination》
As for the type of light source, a laser light source, a xenon light source, an LED light source (LED: Light-Emitting Diode), or an appropriate combination thereof can be adopted. The type and wavelength of the light source, the presence or absence of a filter, etc. are preferably configured according to the type of subject and the purpose of observation. are preferably combined and/or switched. When switching the wavelength, for example, by rotating a disk-shaped filter (rotary color filter) provided with a filter that transmits or blocks light of a specific wavelength, placed in front of the light source, the wavelength of the irradiated light is changed. You can switch.

内視鏡に用いるイメージセンサは、各画素に対しカラーフィルタが配設されたカラーイメージセンサに限定されるものではなく、モノクロイメージセンサでもよい。モノクロイメージセンサを用いる場合、照明光の波長を順次切り替えて面順次(色順次)で撮像することができる。たとえば、出射する照明光の波長を、紫色、青色、緑色、及び赤色の間で順次切り替えてもよいし、白色光を照射してロータリカラーフィルタ(赤色、緑色、青色等)により出射する照明光の波長を切り替えてもよい。また、1又は複数の狭帯域光を照射してロータリカラーフィルタにより出射する照明光の波長を切り替えてもよい。狭帯域光は、波長の異なる2波長以上の赤外光でもよい。 The image sensor used for the endoscope is not limited to a color image sensor in which a color filter is provided for each pixel, and may be a monochrome image sensor. When a monochrome image sensor is used, it is possible to sequentially switch the wavelength of illumination light and perform frame-sequential (color-sequential) imaging. For example, the wavelength of emitted illumination light may be sequentially switched between violet, blue, green, and red, or white light may be emitted and illumination light emitted by a rotary color filter (red, green, blue, etc.). wavelength may be switched. Alternatively, one or a plurality of narrow band lights may be applied and the wavelength of the illumination light emitted by the rotary color filter may be switched. The narrowband light may be infrared light having two or more wavelengths different from each other.

《特殊光画像の生成例》
プロセッサ装置49は、白色光を用いて撮像して得られた通常光画像に基づいて、特定の波長帯域の情報を有する特殊光画像を生成してもよい。プロセッサ装置49は、特定の波長帯域の信号を、通常光画像に含まれる赤(R)、緑(G)及び青(B)、又は、シアン(Cyan,C)、マゼンタ(Magenta,M)及びイエロー(Yellow,Y)の色情報に基づく演算を行うことで得ることができる。
<<Generation example of special light image>>
The processor device 49 may generate a special light image having information of a specific wavelength band based on a normal light image obtained by imaging using white light. The processor unit 49 converts signals in specific wavelength bands into red (R), green (G) and blue (B), or cyan (Cyan, C), magenta (Magenta, M) and It can be obtained by performing a calculation based on the color information of yellow (Yellow, Y).

《コンピュータに内視鏡画像処理装置の機能を実現させるプログラムについて》
上記の実施形態で説明した内視鏡画像処理装置の機能をコンピュータに実現させるプログラムを光ディスク、磁気ディスク、若しくは、半導体メモリその他の有体物たる非一時的な情報記憶媒体であるコンピュータ可読媒体に記録し、この情報記憶媒体を通じてプログラムを提供することが可能である。またこのような有体物たる非一時的な情報記憶媒体にプログラムを記憶させて提供する態様に代えて、インターネットなどの電気通信回線を利用してプログラム信号をダウンロードサービスとして提供することも可能である。
《About the program that realizes the function of the endoscope image processing device on the computer》
A program that causes a computer to implement the functions of the endoscopic image processing apparatus described in the above embodiments is recorded on a computer-readable medium that is a non-temporary information storage medium that is a tangible object such as an optical disk, a magnetic disk, or a semiconductor memory. , it is possible to provide the program through this information storage medium. Instead of storing the program in a tangible non-temporary information storage medium and providing the program, it is also possible to provide the program signal as a download service using an electric communication line such as the Internet.

また、上記の実施形態で説明した内視鏡画像処理装置の機能の一部又は全部をアプリケーションサーバとして提供し、電気通信回線を通じて処理機能を提供するサービスを行うことも可能である。 It is also possible to provide a part or all of the functions of the endoscopic image processing apparatus described in the above embodiment as an application server, and provide a service of providing processing functions through electric communication lines.

《実施形態及び変形例等の組み合わせについて》
上記実施形態で説明した構成要素、及び変形例で説明した構成要素は、適宜組み合わせて用いることができ、また、一部の構成要素を置き換えることもできる。
<<Combination of Embodiments and Modifications>>
The components described in the above embodiments and the components described in the modified examples can be used in combination as appropriate, and part of the components can be replaced.

1 内視鏡システム
2 ネットワーク
10 内視鏡装置
11 内視鏡
13 内視鏡制御装置
15 内視鏡挿入部
17 イメージセンサ
19A ライトガイドコネクタ
19B ビデオコネクタ
21 表示装置
23 入力装置
25 操作部
27 接続部
31 軟性部
33 湾曲部
35 先端硬質部
37A 照明窓
37B 照明窓
38 観察窓
39 撮影光学系
41 アングルノブ
43 操作部材
47 光源装置
49 プロセッサ装置
51 光源制御部
53 コンバイナ
55 カプラ
57A 光ファイバ
57B 光ファイバ
59 蛍光体
61 スコープケーブル
65 内視鏡制御部
67 画像処理部
69 記憶部
100 内視鏡画像処理装置
106 ROM
108 通信インターフェイス
110 入出力インターフェイス
112 記憶装置
114 入力装置
116 表示装置
120 内視鏡画像取得部
122 画像変換処理部
124 画像認識部
126 表示制御部
λa 400nm付近の波長域
λb 波長500nm付近の波長域
S1-S4 画像信号の取得から表示装置への出力までの処理の手順
S11-S14 内視鏡画像処理装置で実施される画像認識の処理の手順
S21-S24 画像信号の取得から表示装置への出力までの処理の手順
S31-S34 内視鏡画像処理装置で実施される画像認識の処理の手順
S41-S45 画像信号の取得から表示装置への出力までの処理の手順
S51-S55 内視鏡画像処理装置で実施される画像認識の処理の手順
1 endoscope system 2 network 10 endoscope device 11 endoscope 13 endoscope control device 15 endoscope insertion section 17 image sensor 19A light guide connector 19B video connector 21 display device 23 input device 25 operation section 27 connection section 31 flexible portion 33 bending portion 35 tip rigid portion 37A illumination window 37B illumination window 38 observation window 39 photographing optical system 41 angle knob 43 operation member 47 light source device 49 processor device 51 light source control section 53 combiner 55 coupler 57A optical fiber 57B optical fiber 59 Phosphor 61 Scope cable 65 Endoscope control unit 67 Image processing unit 69 Storage unit 100 Endoscope image processing device 106 ROM
108 Communication interface 110 Input/output interface 112 Storage device 114 Input device 116 Display device 120 Endoscope image acquisition unit 122 Image conversion processing unit 124 Image recognition unit 126 Display control unit λa Wavelength region λb near 400 nm Wavelength region S1 near wavelength 500 nm -S4 Procedure of processing from acquisition of image signal to output to display device S11-S14 Procedure of image recognition processing performed by endoscope image processing apparatus S21-S24 From acquisition of image signal to output to display device Procedures S31-S34 for processing of image recognition performed by the endoscope image processing apparatus S41-S45 Procedures for processing from acquisition of an image signal to output to a display device S51-S55 for processing of an endoscope image processing apparatus Image recognition processing procedure performed in

Claims (11)

内視鏡装置で撮影された内視鏡画像を取得する内視鏡画像取得部と、
前記内視鏡装置で設定されている画質の調整値に基づいて、前記内視鏡画像を基準画質の画像に変換する処理を行う画像変換処理部と、
学習済みモデルで構成され、前記基準画質に変換された画像に対して画像認識を行う画像認識部と、
を備えた内視鏡画像処理装置。
an endoscope image acquisition unit that acquires an endoscope image captured by an endoscope device;
an image conversion processing unit that performs a process of converting the endoscopic image into an image of standard image quality based on an image quality adjustment value set in the endoscope apparatus;
an image recognition unit configured with a trained model and performing image recognition on the image converted to the standard image quality;
An endoscopic image processing device comprising:
前記画像変換処理部は、前記内視鏡画像を表示装置に出力する場合に前記内視鏡装置で設定される画質の調整値に基づいて、前記内視鏡画像を前記基準画質の画像に変換する処理を行う、
請求項1に記載の内視鏡画像処理装置。
The image conversion processing unit converts the endoscopic image into an image of the standard image quality based on an image quality adjustment value set in the endoscopic device when the endoscopic image is output to a display device. perform the process to
The endoscopic image processing apparatus according to claim 1.
前記画像変換処理部は、前記内視鏡画像を静止画として保存する場合に前記内視鏡装置で設定される画質の調整値に基づいて、前記内視鏡画像を前記基準画質の画像に変換する処理を行う、
請求項1に記載の内視鏡画像処理装置。
The image conversion processing unit converts the endoscopic image into an image of the standard image quality based on an image quality adjustment value set in the endoscopic device when the endoscopic image is saved as a still image. do the processing to
The endoscopic image processing apparatus according to claim 1.
前記画像変換処理部は、前記内視鏡装置で設定されている色調の調整値に基づいて、前記内視鏡画像を前記基準画質の画像に変換する処理を行う、
請求項1に記載の内視鏡画像処理装置。
The image conversion processing unit performs processing for converting the endoscopic image into an image of the standard image quality based on a color tone adjustment value set in the endoscopic device.
The endoscopic image processing apparatus according to claim 1.
前記画像変換処理部は、前記内視鏡装置で設定されている光量による画質変化の調整値に基づいて、前記内視鏡画像を前記基準画質の画像に変換する処理を行う、
請求項1に記載の内視鏡画像処理装置。
The image conversion processing unit performs a process of converting the endoscopic image into an image of the standard image quality based on an adjustment value for image quality change due to the amount of light set in the endoscope device.
The endoscopic image processing apparatus according to claim 1.
前記画像変換処理部は、前記内視鏡画像が撮影された前記内視鏡装置ごとに設定された数値で前記内視鏡画像を処理して、前記内視鏡画像を前記基準画質の画像に変換する処理を行う、
請求項1に記載の内視鏡画像処理装置。
The image conversion processing unit processes the endoscopic image with a numerical value set for each of the endoscopic devices used to capture the endoscopic image, and transforms the endoscopic image into an image of the standard image quality. do the conversion process,
The endoscopic image processing apparatus according to claim 1.
前記画像認識部は、前記基準画質に変換された画像で学習した畳み込みニューラルネットワークで構成される、
請求項1から6のいずれか一項に記載の内視鏡画像処理装置。
The image recognition unit is composed of a convolutional neural network trained with the image converted to the standard image quality,
The endoscope image processing apparatus according to any one of claims 1 to 6.
前記画像認識部が行う前記画像認識には、注目領域を検出する処理、及び/又は、認識対象を分類する処理が含まれる、
請求項1から6のいずれか一項に記載の内視鏡画像処理装置。
The image recognition performed by the image recognition unit includes a process of detecting an attention area and/or a process of classifying a recognition target.
The endoscope image processing apparatus according to any one of claims 1 to 6.
内視鏡画像取得部と、画像変換処理部と、学習済みモデルで構成された画像認識部と、を備える内視鏡画像処理装置の作動方法であって、
前記内視鏡画像取得部が、内視鏡装置で撮影された内視鏡画像を取得するステップと、
前記画像変換処理部が、前記内視鏡装置で設定されている画質の調整値に基づいて、前記内視鏡画像を基準画質の画像に変換する処理を行うステップと、
前記画像認識部が、前記基準画質に変換された画像に対して画像認識を行うステップと、
を含む内視鏡画像処理装置の作動方法。
A method of operating an endoscopic image processing apparatus comprising an endoscopic image acquisition unit, an image conversion processing unit, and an image recognition unit configured with a trained model ,
a step in which the endoscopic image acquisition unit acquires an endoscopic image captured by an endoscopic device;
a step in which the image conversion processing unit performs a process of converting the endoscopic image into a standard image quality image based on an image quality adjustment value set in the endoscope apparatus;
a step in which the image recognition unit performs image recognition on the image converted to the standard image quality;
A method of operating an endoscopic imaging device comprising:
内視鏡装置で撮影された内視鏡画像を取得する機能と、
前記内視鏡装置で設定されている画質の調整値に基づいて、前記内視鏡画像を基準画質の画像に変換する処理を行う機能と、
前記基準画質に変換された画像に対し学習済みモデルを用いて画像認識を行う機能と、
をコンピュータに実現させる内視鏡画像処理プログラム。
A function of acquiring an endoscopic image captured by an endoscope device;
a function of performing processing for converting the endoscopic image into an image of standard image quality based on an image quality adjustment value set in the endoscopic device;
A function of performing image recognition using a trained model on the image converted to the standard image quality;
An endoscope image processing program that realizes on a computer.
非一時的かつコンピュータ読取可能な記憶媒体であって、前記記憶媒体に格納された指令がコンピュータによって読み取られた場合に、
内視鏡装置で撮影された内視鏡画像を取得する機能と、
前記内視鏡装置で設定されている画質の調整値に基づいて、前記内視鏡画像を基準画質の画像に変換する処理を行う機能と、
前記基準画質に変換された画像に対し学習済みモデルを用いて画像認識を行う機能と、
を含む内視鏡画像処理機能をコンピュータに実現させる記憶媒体。
A non-transitory computer-readable storage medium, wherein when instructions stored on the storage medium are read by a computer,
A function of acquiring an endoscopic image captured by an endoscope device;
a function of performing processing for converting the endoscopic image into an image of standard image quality based on an image quality adjustment value set in the endoscopic device;
A function of performing image recognition using a trained model on the image converted to the standard image quality;
A storage medium that enables a computer to realize an endoscopic image processing function including
JP2020525396A 2018-06-12 2019-05-24 Endoscope image processing device, operation method of endoscope image processing device, endoscope image processing program, and storage medium Active JP7130038B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022132527A JP7350954B2 (en) 2018-06-12 2022-08-23 Endoscopic image processing device, endoscope system, operating method of endoscopic image processing device, endoscopic image processing program, and storage medium

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018111829 2018-06-12
JP2018111829 2018-06-12
PCT/JP2019/020678 WO2019239854A1 (en) 2018-06-12 2019-05-24 Endoscope image processing device, endoscope image processing method, and endoscope image processing program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022132527A Division JP7350954B2 (en) 2018-06-12 2022-08-23 Endoscopic image processing device, endoscope system, operating method of endoscopic image processing device, endoscopic image processing program, and storage medium

Publications (2)

Publication Number Publication Date
JPWO2019239854A1 JPWO2019239854A1 (en) 2021-07-01
JP7130038B2 true JP7130038B2 (en) 2022-09-02

Family

ID=68842861

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020525396A Active JP7130038B2 (en) 2018-06-12 2019-05-24 Endoscope image processing device, operation method of endoscope image processing device, endoscope image processing program, and storage medium
JP2022132527A Active JP7350954B2 (en) 2018-06-12 2022-08-23 Endoscopic image processing device, endoscope system, operating method of endoscopic image processing device, endoscopic image processing program, and storage medium

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022132527A Active JP7350954B2 (en) 2018-06-12 2022-08-23 Endoscopic image processing device, endoscope system, operating method of endoscopic image processing device, endoscopic image processing program, and storage medium

Country Status (2)

Country Link
JP (2) JP7130038B2 (en)
WO (1) WO2019239854A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230021865A (en) * 2021-08-06 2023-02-14 주식회사 메타플바이오 Multispectral endoscope and endoscope system including thereof
JPWO2023199923A1 (en) * 2022-04-11 2023-10-19
JP2024017630A (en) * 2022-07-28 2024-02-08 Hoya株式会社 Image correction method for electronic endoscope system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016533782A (en) 2013-10-11 2016-11-04 マウナ ケア テクノロジーズ Method and system for characterizing images acquired by medical imaging equipment
WO2017017722A1 (en) 2015-07-24 2017-02-02 オリンパス株式会社 Processing device, processing method and program
WO2017175282A1 (en) 2016-04-04 2017-10-12 オリンパス株式会社 Learning method, image recognition device, and program
WO2018020558A1 (en) 2016-07-25 2018-02-01 オリンパス株式会社 Image processing device, image processing method, and program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0842475B1 (en) * 1995-07-25 2000-11-08 Horus Therapeutics, Inc. Computer assisted methods and apparatus for diagnosing diseases
JP4895204B2 (en) 2007-03-22 2012-03-14 富士フイルム株式会社 Image component separation device, method, and program, and normal image generation device, method, and program
JP5940604B2 (en) 2014-07-30 2016-06-29 オリンパス株式会社 Image processing apparatus, method of operating image processing apparatus, and program
EP3274915A1 (en) 2015-03-27 2018-01-31 Siemens Aktiengesellschaft Method and system for automated brain tumor diagnosis using image classification
US10803582B2 (en) 2016-07-04 2020-10-13 Nec Corporation Image diagnosis learning device, image diagnosis device, image diagnosis method, and recording medium for storing program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016533782A (en) 2013-10-11 2016-11-04 マウナ ケア テクノロジーズ Method and system for characterizing images acquired by medical imaging equipment
WO2017017722A1 (en) 2015-07-24 2017-02-02 オリンパス株式会社 Processing device, processing method and program
WO2017175282A1 (en) 2016-04-04 2017-10-12 オリンパス株式会社 Learning method, image recognition device, and program
WO2018020558A1 (en) 2016-07-25 2018-02-01 オリンパス株式会社 Image processing device, image processing method, and program

Also Published As

Publication number Publication date
WO2019239854A1 (en) 2019-12-19
JP7350954B2 (en) 2023-09-26
JP2022162028A (en) 2022-10-21
JPWO2019239854A1 (en) 2021-07-01

Similar Documents

Publication Publication Date Title
JP5460506B2 (en) Endoscope apparatus operating method and endoscope apparatus
US10335014B2 (en) Endoscope system, processor device, and method for operating endoscope system
JP6495539B2 (en) Image processing apparatus, method of operating image processing apparatus, and image processing program
JP5450527B2 (en) Endoscope device
JP7350954B2 (en) Endoscopic image processing device, endoscope system, operating method of endoscopic image processing device, endoscopic image processing program, and storage medium
JP5757891B2 (en) Electronic endoscope system, image processing apparatus, operation method of image processing apparatus, and image processing program
JP5283545B2 (en) Endoscope system and processor device for endoscope
JP7333805B2 (en) Image processing device, endoscope system, and method of operating image processing device
US9072453B2 (en) Endoscope apparatus
JP5485215B2 (en) Endoscope device
JP5289120B2 (en) Endoscope system and processor device for endoscope
JP6259747B2 (en) Processor device, endoscope system, operating method of processor device, and program
JP5766773B2 (en) Endoscope system and method for operating endoscope system
JP6556076B2 (en) Endoscopic image signal processing apparatus and method, and program
JP2016174976A (en) Endoscope system
JP5631757B2 (en) Electronic endoscope system
JP6396717B2 (en) Sensitivity adjustment method and imaging apparatus
JP6454755B2 (en) Endoscope system
JP6669539B2 (en) Image processing apparatus, operation method of image processing apparatus, and image processing program
JP5965028B2 (en) Endoscope system
JP7235832B2 (en) endoscope system
JP6970777B2 (en) Endoscope system
JP6694046B2 (en) Endoscope system

Legal Events

Date Code Title Description
A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A527

Effective date: 20201113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210827

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220317

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220708

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220722

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220823

R150 Certificate of patent or registration of utility model

Ref document number: 7130038

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150