JPWO2019082993A1 - Medical image processing system, endoscopy system, diagnostic support device, and medical business support device - Google Patents

Medical image processing system, endoscopy system, diagnostic support device, and medical business support device Download PDF

Info

Publication number
JPWO2019082993A1
JPWO2019082993A1 JP2019550301A JP2019550301A JPWO2019082993A1 JP WO2019082993 A1 JPWO2019082993 A1 JP WO2019082993A1 JP 2019550301 A JP2019550301 A JP 2019550301A JP 2019550301 A JP2019550301 A JP 2019550301A JP WO2019082993 A1 JPWO2019082993 A1 JP WO2019082993A1
Authority
JP
Japan
Prior art keywords
medical image
region
interest
light
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019550301A
Other languages
Japanese (ja)
Other versions
JP6850358B2 (en
Inventor
林 伸治
伸治 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JPWO2019082993A1 publication Critical patent/JPWO2019082993A1/en
Application granted granted Critical
Publication of JP6850358B2 publication Critical patent/JP6850358B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes

Abstract

複数の注目領域を検出する場合において、各注目領域に対する判断を、内視鏡を操作するユーザーが直接行うことができる医療画像処理システム、内視鏡システム、診断支援装置、並びに医療業務支援装置を提供する。医療画像から注目領域を検出する。モニタ(18)は、医療画像において注目領域を表示する。視線検知部(75)は、ユーザーがモニタに向けている視線が、モニタと交差する位置を表す視線ポイントを検出する。注目領域選択部(78)は、複数の注目領域の中から視線ポイントが含まれる第1注目領域を選択する。When detecting a plurality of areas of interest, a medical image processing system, an endoscope system, a diagnostic support device, and a medical work support device capable of directly making a judgment for each area of interest by a user who operates the endoscope. provide. The area of interest is detected from the medical image. The monitor (18) displays the area of interest in the medical image. The line-of-sight detection unit (75) detects a line-of-sight point indicating a position where the line of sight directed by the user toward the monitor intersects the monitor. The attention area selection unit (78) selects a first attention area including a line-of-sight point from a plurality of attention areas.

Description

本発明は、医療画像から注目領域を検出する医療画像処理システム、内視鏡システム、診断支援装置、及び医療業務支援装置に関する。 The present invention relates to a medical image processing system, an endoscope system, a diagnostic support device, and a medical business support device that detect a region of interest from a medical image.

現在の医療分野においては、内視鏡システムに組み込まれる内視鏡用のプロセッサ装置などのように、医療画像を用いる医療画像処理システムが普及している。また、近年においては、医療画像から病変部の可能性のある注目領域を検出し、検出した注目領域に対して画像解析を行うことによって、病態に関する診断支援情報を取得することが行われている。取得した診断支援情報については、モニタなどの表示部に表示することによって、ユーザーに提供される。 In the current medical field, medical image processing systems that use medical images, such as a processor device for an endoscope incorporated in an endoscope system, have become widespread. Further, in recent years, it has been performed to acquire diagnostic support information regarding a pathological condition by detecting a region of interest that may be a lesion from a medical image and performing image analysis on the detected region of interest. .. The acquired diagnostic support information is provided to the user by displaying it on a display unit such as a monitor.

以上のように、注目領域の検出を行う場合には、一般的には、病変部の見落しを避けるために、注目領域の検出レベルを低く設定するようにしている。そのため、病変部については確実に検出することができるようになるものの、正常な部位など、本来、注目領域として検出すべきでない領域も合わせて検出することが多かった。即ち、注目領域として誤って検出される誤検出領域が発生することがあった。 As described above, when detecting the region of interest, the detection level of the region of interest is generally set low in order to avoid overlooking the lesion. Therefore, although it becomes possible to reliably detect a lesion, it is often the case that a region such as a normal region that should not be detected as a region of interest is also detected. That is, an erroneous detection region that is erroneously detected as a region of interest may occur.

これに対して、特許文献1では、複数の注目領域を検出した場合において、各注目領域が病変領域として正しい領域か否かの正否判定を行っています。この正否判定の結果に基づき、注目領域の検出に用いた階調値の閾値を更新するようにすることで、誤検出される領域が少なくなるようにしています。 On the other hand, in Patent Document 1, when a plurality of areas of interest are detected, it is determined whether or not each area of interest is a correct area as a lesion area. Based on the result of this correctness judgment, the threshold value of the gradation value used to detect the region of interest is updated to reduce the number of falsely detected regions.

特開2012−249804号公報Japanese Unexamined Patent Publication No. 2012-249804

特許文献1では、検出した注目領域に対する正否判定の入力を、キーボードやマウスなどによって行っている。そのため、内視鏡を操作する医師が、正否判定の入力操作を直接操作することは難しく、医師をサポートするスタッフが、正否判定の入力操作を行うことが多かった。 In Patent Document 1, the correctness determination for the detected region of interest is input using a keyboard, a mouse, or the like. Therefore, it is difficult for the doctor who operates the endoscope to directly operate the input operation for the correctness judgment, and the staff supporting the doctor often performs the input operation for the correctness judgment.

本発明は、複数の注目領域を検出する場合において、各注目領域に対する判断を、内視鏡を操作するユーザーが直接行うことができる医療画像処理システム、内視鏡システム、診断支援装置、及び医療業務支援装置を提供することを目的とする。 The present invention provides a medical image processing system, an endoscope system, a diagnostic support device, and medical treatment in which a user who operates an endoscope can directly make a judgment for each region of interest when detecting a plurality of regions of interest. The purpose is to provide a business support device.

本発明の医療画像処理システムは、画像取得部と、注目領域検出部と、表示部と、視線検知部と、注目領域先端部とを備える。画像取得部は、観察対象を撮像して得られる医療画像を取得する。注目領域検出部は、医療画像から注目領域を検出する領域検出処理を行う。表示部は、医療画像において注目領域を表示する。注目領域選択部は、ユーザーが表示部に向けている視線が、表示部と交差する位置を表す視線ポイントが含まれる第1注目領域を選択する領域選択処理を行う。 The medical image processing system of the present invention includes an image acquisition unit, a region of interest detection unit, a display unit, a line-of-sight detection unit, and a tip portion of the region of interest. The image acquisition unit acquires a medical image obtained by imaging the observation target. The region of interest detection unit performs region detection processing for detecting the region of interest from the medical image. The display unit displays the area of interest in the medical image. The attention area selection unit performs an area selection process for selecting a first attention area including a line-of-sight point indicating a position where the line of sight directed by the user toward the display unit intersects the display unit.

領域選択処理が行われた場合には、第1注目領域に対しては注目領域として正しく検出された適正領域であると判定し、複数の注目領域のうち第1注目領域以外の第2注目領域に対しては注目領域として誤って検出された誤検出領域であると判定する領域判定処理を行う領域判定部を備えることが好ましい。 When the area selection process is performed, it is determined that the first attention area is an appropriate area correctly detected as the attention area, and the second attention area other than the first attention area among the plurality of attention areas is determined. It is preferable to provide an area determination unit that performs an area determination process for determining an erroneously detected erroneous detection area as a region of interest.

医療画像と領域判定処理の判定結果とを関連付けて、注目領域検出部を学習させるための学習用データを生成する学習用データ生成部を備え、注目領域検出部は、領域検出処理、又は、学習用データを用いて、注目領域の検出精度を上げるための学習処理のいずれかを行うことが好ましい。医療画像と領域判定処理の判定結果とを関連付けて、注目領域検出部を学習させるための学習用データを生成する学習用データ生成部と、学習用データを用いて、注目領域の検出精度を上げるための学習処理が施される特定処理部とを備え、学習処理が行われた場合には、注目領域検出部は、特定処理部と置き換えられることが好ましい。 A learning data generation unit for generating learning data for training the region of interest detection unit by associating the medical image with the determination result of the region determination processing is provided, and the region of interest detection processing or learning It is preferable to perform any of the learning processes for improving the detection accuracy of the region of interest using the data. The detection accuracy of the region of interest is improved by using the learning data generation unit that generates learning data for training the region of interest detection unit by associating the medical image with the determination result of the region determination process and the learning data. It is preferable that the specific processing unit for which the learning process is performed is provided, and when the learning process is performed, the region of interest detection unit is replaced with the specific processing unit.

注目領域の選択に関するユーザーの操作を受け付ける領域選択操作部を備え、注目領域選択部は、領域選択操作部が操作されたタイミングにおいて視線ポイントが入っている注目領域を、第1注目領域として選択することが好ましい。視線ポイントが注目領域に入っている時間を観察時間として計測する観察時間計測部を備え、注目領域選択部は、観察時間が特定の観察時間を超えた注目領域を、第1注目領域として選択することが好ましい。 It includes an area selection operation unit that accepts user operations related to the selection of the area of interest, and the area selection unit selects the area of interest that contains the line-of-sight point at the timing when the area selection operation unit is operated as the first area of interest. Is preferable. It is provided with an observation time measuring unit that measures the time when the line-of-sight point is in the region of interest as the observation time, and the region of interest selection unit selects the region of interest whose observation time exceeds a specific observation time as the first region of interest. Is preferable.

医療画像は、白色帯域の光、又は白色帯域の光として複数の波長帯域の光を照射して得られた通常光画像であることが好ましい。医療画像は、特定の波長帯域の光を照射して得た特殊光画像であり、特定の波長帯域の光は白色帯域よりも狭い帯域であることが好ましい。 The medical image is preferably a normal light image obtained by irradiating light in a white band or light in a plurality of wavelength bands as light in the white band. The medical image is a special optical image obtained by irradiating light in a specific wavelength band, and the light in the specific wavelength band is preferably a narrower band than the white band.

特定の波長帯域は390nm以上450nm以下、または530nm以上550nm以下の波長帯域を含み、かつ、特定の波長帯域の光は、390nm以上450nm以下、または530nm以上550nm以下の波長帯域内にピーク波長を有することが好ましい。特定の波長帯域は可視域の赤色帯域に含まれることが好ましい。特定の波長帯域は、585nm以上615nm以下、または610nm以上730nm以下の波長帯域を含み、かつ、特定の波長帯域の光は、585nm以上615nm以下、または610nm以上730nm以下の波長帯域内にピーク波長を有することが好ましい。 The specific wavelength band includes a wavelength band of 390 nm or more and 450 nm or less, or 530 nm or more and 550 nm or less, and the light of the specific wavelength band has a peak wavelength in the wavelength band of 390 nm or more and 450 nm or less, or 530 nm or more and 550 nm or less. Is preferable. The specific wavelength band is preferably included in the red band of the visible range. The specific wavelength band includes a wavelength band of 585 nm or more and 615 nm or less, or 610 nm or more and 730 nm or less, and the light of the specific wavelength band has a peak wavelength within the wavelength band of 585 nm or more and 615 nm or less, or 610 nm or more and 730 nm or less. It is preferable to have.

特定の波長帯域は、酸化ヘモグロビンと還元ヘモグロビンとで吸収係数の異なる波長帯域を含み、かつ、特定の波長帯域の光は、酸化ヘモグロビンと還元ヘモグロビンとで吸収係数の異なる波長帯域にピーク波長を有することが好ましい。特定の波長帯域は、400±10nm、440±10nm、470±10nm、又は600nm以上750nm以下の波長帯域を含み、かつ、特定の波長帯域の光は、400±10nm、440±10nm、470±10nm、又は600nm以上750nm以下の波長帯域にピーク波長を有することが好ましい。 A specific wavelength band includes a wavelength band having a different absorption coefficient between oxidized hemoglobin and reduced hemoglobin, and light in a specific wavelength band has a peak wavelength in a wavelength band having a different absorption coefficient between oxidized hemoglobin and reduced hemoglobin. Is preferable. The specific wavelength band includes 400 ± 10 nm, 440 ± 10 nm, 470 ± 10 nm, or 600 nm or more and 750 nm or less, and the light in the specific wavelength band is 400 ± 10 nm, 440 ± 10 nm, 470 ± 10 nm. Or, it is preferable to have a peak wavelength in a wavelength band of 600 nm or more and 750 nm or less.

医療画像は生体内を写した生体内画像であり、生体内画像は、生体内の蛍光物質が発する蛍光の情報を有することが好ましい。蛍光は、ピーク波長が390以上470nm以下の波長待機に含まれる励起光を生体内に照射して得られることが好ましい。 The medical image is an in-vivo image of the inside of the living body, and the in-vivo image preferably has information on the fluorescence emitted by the fluorescent substance in the living body. Fluorescence is preferably obtained by irradiating the living body with excitation light contained in a wavelength standby having a peak wavelength of 390 or more and 470 nm or less.

医療画像は生体内を写した生体内画像であり、特定の波長帯域は赤外光の波長帯域であることが好ましい。特定の波長帯域は、790nm以上820nm以下、又は905nm以上970nm以下の波長帯域を含み、かつ、特定の波長帯域の光は、790nm以上820nm以下、又は905nm以上970nm以下の波長帯域にピーク波長を有することが好ましい。 The medical image is an in-vivo image of the inside of the living body, and the specific wavelength band is preferably the wavelength band of infrared light. The specific wavelength band includes a wavelength band of 790 nm or more and 820 nm or less, or 905 nm or more and 970 nm or less, and the light of the specific wavelength band has a peak wavelength in the wavelength band of 790 nm or more and 820 nm or less, or 905 nm or more and 970 nm or less. Is preferable.

医療画像は、白色帯域の光、又は白色帯域の光として複数の波長帯域の光を照射して得られた通常光画像に基づいて得られ、特定の波長帯域の信号を有する特殊光画像であることが好ましい。特定の波長帯域の信号は、通常光画像に含まれるRGBあるいはCMYの色情報に基づく演算により得られることが好ましい。 The medical image is a special optical image obtained based on a normal light image obtained by irradiating light in a white band or light in a plurality of wavelength bands as light in the white band and having a signal in a specific wavelength band. Is preferable. It is preferable that the signal in a specific wavelength band is obtained by an operation based on RGB or CMY color information usually included in an optical image.

医療画像は、白色帯域の光、又は白色帯域の光として複数の波長帯域の光を照射して得られた通常光画像と、特定の波長帯域の光を照射して得られる特殊光画像との少なくとも一方に基づく演算によって得られる演算画像であることが好ましい。 The medical image is a normal light image obtained by irradiating light in a white band or light in a plurality of wavelength bands as light in a white band, and a special light image obtained by irradiating light in a specific wavelength band. It is preferable that the operation image is obtained by an operation based on at least one of them.

本発明の内視鏡システムは、内視鏡と、画像取得部と、注目領域検出部と、表示部と、視線検知部と、注目領域選択部とを備える。内視鏡は、観察対象を撮像する。画像取得部は、内視鏡により観察対象を撮像して得られる医療画像を取得する。注目領域検出部は、医療画像から注目領域を検出する領域検出処理を行う。視線検知部は、ユーザーが表示部に向けている視線が、表示部と交差する位置を表す視線ポイントを検出する。注目領域選択部は、複数の注目領域の中から視線ポイントが含まれる第1注目領域を選択する。 The endoscope system of the present invention includes an endoscope, an image acquisition unit, a region of interest detection unit, a display unit, a line-of-sight detection unit, and a region of interest selection unit. The endoscope images the observation target. The image acquisition unit acquires a medical image obtained by imaging an observation target with an endoscope. The region of interest detection unit performs region detection processing for detecting the region of interest from the medical image. The line-of-sight detection unit detects a line-of-sight point indicating a position where the line of sight directed by the user toward the display unit intersects the display unit. The attention area selection unit selects a first attention area including a line-of-sight point from a plurality of attention areas.

本発明の診断支援装置は、上記記載の本発明の医療画像処理システムを有する診断支援装置。本発明の医療業務支援装置は、上記記載の本発明の医療画像処理システムを有する。 The diagnostic support device of the present invention is a diagnostic support device having the medical image processing system of the present invention described above. The medical business support device of the present invention has the medical image processing system of the present invention described above.

本発明によれば、複数の注目領域を検出する場合において、各注目領域に対する判断を、内視鏡を操作するユーザーが直接行うことができる。 According to the present invention, when detecting a plurality of areas of interest, a user who operates the endoscope can directly make a judgment for each area of interest.

内視鏡システムの外観図である。It is an external view of an endoscope system. 内視鏡システムのブロック図である。It is a block diagram of an endoscope system. 画像処理部の機能を示すブロック図である。It is a block diagram which shows the function of an image processing part. 領域検出処理を示す説明図である。It is explanatory drawing which shows the area detection processing. 医療画像上の注目領域を示す画像図である。It is an image diagram which shows the region of interest on a medical image. 視線ポイントを示す画像図である。It is an image diagram which shows the line-of-sight point. 領域検出画像と視線画像とを合成した合成画像を示す画像図である。It is an image diagram which shows the composite image which combined the area detection image and the line-of-sight image. 領域選択処理及び領域判定処理を示す説明図である。It is explanatory drawing which shows the area selection process and area determination process. 学習用データ生成処理を示す説明図である。It is explanatory drawing which shows the data generation processing for learning. 学習処理を示す説明図である。It is explanatory drawing which shows the learning process. 視線検知部を用いて、適正領域である第1注目領域の選択を行う一連の流れを示すフローチャートである。It is a flowchart which shows a series of flow of selecting a 1st attention area which is an appropriate area by using a line-of-sight detection unit. 複数のLEDを備える光源部を示すブロック図である。It is a block diagram which shows the light source part which includes a plurality of LEDs. 複数のLEDを発光して得られる白色光のスペクトルを示すグラフである。It is a graph which shows the spectrum of the white light obtained by emitting light of a plurality of LEDs. 複数のLEDを発光して得られる特定光のスペクトルを示すグラフである。It is a graph which shows the spectrum of the specific light obtained by emitting light of a plurality of LEDs. レーザ光源を備える光源部と蛍光体を示すブロック図である。It is a block diagram which shows the light source part which includes a laser light source, and a phosphor. レーザ光源及び蛍光体を用いて発光する白色光のスペクトルを示すグラフである。It is a graph which shows the spectrum of the white light emitted by using a laser light source and a phosphor. レーザ光源及び蛍光体を用いて発光する特定光のスペクトルを示すグラフである。It is a graph which shows the spectrum of the specific light emitted by using a laser light source and a phosphor. 広帯域光源及び回転フィルタを備える光源部を示すブロック図である。It is a block diagram which shows the light source part which includes a wide band light source and a rotation filter. 回転フィルタを示す平面図である。It is a top view which shows the rotation filter. 診断支援装置を示すブロック図である。It is a block diagram which shows the diagnosis support device. 医療業務支援装置を示すブロック図である。It is a block diagram which shows a medical work support device.

図1に示すように、内視鏡システム10は、内視鏡12と、光源装置14と、プロセッサ装置16と、モニタ18と、ユーザーインターフェース19と、を備える。内視鏡12は、観察対象である被写体に照明光を照射し、照明光で照射された被写体を撮像する。光源装置14は、被写体に照射するための照明光を発生する。プロセッサ装置16は、内視鏡システム10のシステム制御及び画像処理等を行う。モニタ18は、プロセッサ装置16から出力された画像を表示する表示部である。ユーザーインターフェース19は、プロセッサ装置16等への設定入力等を行う入力デバイスであり、キーボードKBやマウスMSなどから構成される。なお、ユーザーインターフェース19は、マウスMS、キーボードKBに限定されず、グラフィカルユーザーインターフェースや音声入力、タッチディスプレイなどであってもよい。 As shown in FIG. 1, the endoscope system 10 includes an endoscope 12, a light source device 14, a processor device 16, a monitor 18, and a user interface 19. The endoscope 12 irradiates a subject to be observed with illumination light, and images the subject illuminated by the illumination light. The light source device 14 generates illumination light for irradiating the subject. The processor device 16 performs system control, image processing, and the like of the endoscope system 10. The monitor 18 is a display unit that displays an image output from the processor device 16. The user interface 19 is an input device for inputting settings to the processor device 16 and the like, and is composed of a keyboard KB, a mouse MS, and the like. The user interface 19 is not limited to the mouse MS and the keyboard KB, and may be a graphical user interface, a voice input, a touch display, or the like.

内視鏡12は、被検体内に挿入する挿入部12aと、挿入部12aの基端部分に設けた操作部12bと、挿入部12aの先端側に設けた湾曲部12cと、先端部12dと、を有している。操作部12bのアングルノブ12eを操作することにより、湾曲部12cが湾曲する。湾曲部12cが湾曲することにより、先端部12dが所望の方向に向く。先端部12dには、被写体に向けて空気や水等を噴射する噴射口(図示しない)が設けられている。 The endoscope 12 includes an insertion portion 12a to be inserted into the subject, an operation portion 12b provided at the base end portion of the insertion portion 12a, a curved portion 12c provided on the tip end side of the insertion portion 12a, and a tip portion 12d. ,have. By operating the angle knob 12e of the operation unit 12b, the curved portion 12c is curved. By bending the curved portion 12c, the tip portion 12d faces in a desired direction. The tip portion 12d is provided with an injection port (not shown) for injecting air, water, or the like toward the subject.

また、操作部12bには、アングルノブ12eの他、ズーム操作部13aが設けられている。ズーム操作部13aを操作することによって、被写体を拡大または縮小して撮像することができる。また、挿入部12aから先端部12dにわたって、処置具などを挿通するための鉗子チャンネル(図示しない)が設けられている。処置具は、鉗子入口12fから鉗子チャンネル内に挿入される。 Further, the operation unit 12b is provided with a zoom operation unit 13a in addition to the angle knob 12e. By operating the zoom operation unit 13a, the subject can be enlarged or reduced to take an image. Further, a forceps channel (not shown) for inserting a treatment tool or the like is provided from the insertion portion 12a to the tip portion 12d. The treatment tool is inserted into the forceps channel from the forceps inlet 12f.

図2に示すように、光源装置14は、光源部20と、光源制御部22と、を備える。光源部20は、被写体を照明するための照明光を発光する。光源部20は、1又は複数の光源を備えている。光源制御部22は、光源部20の駆動を制御する。光源制御部22は、光源部20を構成する光源の点灯または消灯のタイミング、及び、点灯時の発光量等をそれぞれ独立に制御する。その結果、光源部20は、発光量や発光タイミングが異なる複数種類の照明光を発光することができる。 As shown in FIG. 2, the light source device 14 includes a light source unit 20 and a light source control unit 22. The light source unit 20 emits illumination light for illuminating the subject. The light source unit 20 includes one or a plurality of light sources. The light source control unit 22 controls the drive of the light source unit 20. The light source control unit 22 independently controls the timing of turning on or off the light source constituting the light source unit 20, the amount of light emitted during lighting, and the like. As a result, the light source unit 20 can emit a plurality of types of illumination light having different light emission amounts and light emission timings.

光源部20が発光した照明光は、ライトガイド41に入射する。ライトガイド41は、内視鏡12及びユニバーサルコード(図示しない)内に内蔵されており、照明光を内視鏡12の先端部12dまで伝搬する。ユニバーサルコードは、内視鏡12と光源装置14及びプロセッサ装置16とを接続するコードである。なお、ライトガイド41としては、マルチモードファイバを使用できる。一例として、コア径105μm、クラッド径125μm、外皮となる保護層を含めた径がφ0.3〜0.5mmの細径なファイバケーブルを使用できる。 The illumination light emitted by the light source unit 20 is incident on the light guide 41. The light guide 41 is built in the endoscope 12 and a universal cord (not shown), and propagates the illumination light to the tip portion 12d of the endoscope 12. The universal cord is a cord that connects the endoscope 12, the light source device 14, and the processor device 16. A multimode fiber can be used as the light guide 41. As an example, a fine fiber cable having a core diameter of 105 μm, a clad diameter of 125 μm, and a diameter of φ0.3 to 0.5 mm including a protective layer as an outer skin can be used.

内視鏡12の先端部12dには、照明光学系30aと撮像光学系30bが設けられている。照明光学系30aは、照明レンズ45を有しており、この照明レンズ45を介して照明光が被写体に向けて出射する。撮像光学系30bは、対物レンズ46、ズームレンズ47、及びイメージセンサ48を有している。イメージセンサ48は、対物レンズ46及びズームレンズ47を介して、被写体から戻る照明光の反射光等(反射光の他、散乱光、被写体が発する蛍光、または、被写体に投与等した薬剤に起因した蛍光等を含む)を用いて被写体を撮像する。ズームレンズ47は、ズーム操作部13aの操作をすることで移動し、イメージセンサ48を用いて撮像する被写体を拡大または縮小する。 An illumination optical system 30a and an imaging optical system 30b are provided at the tip end portion 12d of the endoscope 12. The illumination optical system 30a has an illumination lens 45, and the illumination light is emitted toward the subject through the illumination lens 45. The imaging optical system 30b includes an objective lens 46, a zoom lens 47, and an image sensor 48. The image sensor 48 is caused by reflected light of the illumination light returning from the subject via the objective lens 46 and the zoom lens 47 (in addition to the reflected light, scattered light, fluorescence emitted by the subject, or a drug administered to the subject). The subject is imaged using (including fluorescence). The zoom lens 47 moves by operating the zoom operation unit 13a, and enlarges or reduces the subject to be imaged by using the image sensor 48.

イメージセンサ48は、例えば原色系のカラーフィルタを有するカラーセンサであり、青色カラーフィルタを有するB画素(青色画素)、緑色カラーフィルタを有するG画素(緑色画素)、及び、赤色カラーフィルタを有するR画素(赤色画素)の3種類の画素を備える。青色カラーフィルタは、主として紫色から青色の光を透過する。緑色カラーフィルタは、主として緑色の光。赤色カラーフィルタは、主として赤色の光を透過する。上記のように原色系のイメージセンサ48を用いて被写体を撮像すると、最大で、B画素から得るB画像(青色画像)、G画素から得るG画像(緑色画像)、及び、R画素から得るR画像(赤色画像)の3種類の画像を同時に得ることができる。 The image sensor 48 is, for example, a color sensor having a primary color filter, and has a B pixel (blue pixel) having a blue color filter, a G pixel (green pixel) having a green color filter, and an R having a red color filter. It includes three types of pixels (red pixels). Blue color filters mainly transmit purple to blue light. The green color filter is mainly green light. Red color filters mainly transmit red light. When the subject is imaged using the primary color image sensor 48 as described above, the B image (blue image) obtained from the B pixel, the G image (green image) obtained from the G pixel, and the R obtained from the R pixel are obtained at the maximum. Three types of images (red images) can be obtained at the same time.

なお、イメージセンサ48としては、CCD(Charge Coupled Device)センサや、CMOS(Complementary Metal Oxide Semiconductor)センサを利用可能である。また、本実施形態のイメージセンサ48は、原色系のカラーセンサであるが、補色系のカラーセンサを用いることもできる。補色系のカラーセンサは、例えば、シアンカラーフィルタが設けられたシアン画素、マゼンタカラーフィルタが設けられたマゼンタ画素、イエローカラーフィルタが設けられたイエロー画素、及び、グリーンカラーフィルタが設けられたグリーン画素を有する。補色系カラーセンサを用いる場合に上記各色の画素から得る画像は、補色−原色色変換をすれば、B画像、G画像、及びR画像に変換できる。また、カラーセンサの代わりに、カラーフィルタを設けていないモノクロセンサをイメージセンサ48として使用できる。この場合、BGR等各色の照明光を用いて被写体を順次撮像することにより、上記各色の画像を得ることができる。 As the image sensor 48, a CCD (Charge Coupled Device) sensor or a CMOS (Complementary Metal Oxide Semiconductor) sensor can be used. Further, although the image sensor 48 of the present embodiment is a primary color system color sensor, a complementary color system color sensor can also be used. Complementary color sensors include, for example, a cyan pixel provided with a cyan color filter, a magenta pixel provided with a magenta color filter, a yellow pixel provided with a yellow color filter, and a green pixel provided with a green color filter. Has. When using a complementary color sensor, the image obtained from the pixels of each of the above colors can be converted into a B image, a G image, and an R image by performing complementary color-primary color conversion. Further, instead of the color sensor, a monochrome sensor without a color filter can be used as the image sensor 48. In this case, images of the above colors can be obtained by sequentially photographing the subject using illumination light of each color such as BGR.

プロセッサ装置16は、中央制御部52と、画像取得部54と、画像処理部61と、表示制御部66とを有する。中央制御部52は、照明光の照射タイミングと撮像のタイミングの同期制御等の内視鏡システム10の統括的な制御を行う。また、ユーザーインターフェース19等を用いて、各種設定の入力等をした場合には、中央制御部52は、入力された各種設定を、光源制御部22、イメージセンサ48、または画像処理部61等の内視鏡システム10の各部に入力する。 The processor device 16 includes a central control unit 52, an image acquisition unit 54, an image processing unit 61, and a display control unit 66. The central control unit 52 comprehensively controls the endoscope system 10 such as synchronous control of the irradiation timing of the illumination light and the imaging timing. Further, when various settings are input using the user interface 19 or the like, the central control unit 52 inputs the input various settings to the light source control unit 22, the image sensor 48, the image processing unit 61, or the like. Input to each part of the endoscope system 10.

画像取得部54は、イメージセンサ48から、被写体を撮像した画像を取得する。この画像取得部54で取得する画像は、内視鏡12のような医療用装置により得られた画像であることから、医療画像と称する。画像取得部54は、DSP(Digital Signal Processor)56と、ノイズ低減部58と、変換部59と、を有し、これらを用いて、取得した医療画像に必要に応じて各種処理を施す。DSP56は、取得した医療画像に対し、必要に応じて欠陥補正処理、オフセット処理、ゲイン補正処理、リニアマトリクス処理、ガンマ変換処理、デモザイク処理、及びYC変換処理等の各種処理を施す。 The image acquisition unit 54 acquires an image of the subject from the image sensor 48. The image acquired by the image acquisition unit 54 is referred to as a medical image because it is an image obtained by a medical device such as an endoscope 12. The image acquisition unit 54 includes a DSP (Digital Signal Processor) 56, a noise reduction unit 58, and a conversion unit 59, and uses these to perform various processing on the acquired medical image as necessary. The DSP 56 performs various processes such as defect correction processing, offset processing, gain correction processing, linear matrix processing, gamma conversion processing, demosaic processing, and YC conversion processing on the acquired medical image as necessary.

欠陥補正処理は、イメージセンサ48の欠陥画素に対応する画素の画素値を補正する処理である。オフセット処理は、欠陥補正処理を施した画像から暗電流成分を低減し、正確な零レベルを設定する処理である。ゲイン補正処理は、オフセット処理をした画像にゲインを乗じることにより各画像の信号レベルを整える処理である。リニアマトリクス処理は、オフセット処理をした画像の色再現性を高める処理であり、ガンマ変換処理は、リニアマトリクス処理後の画像の明るさや彩度を整える処理である。 The defect correction process is a process for correcting the pixel value of the pixel corresponding to the defective pixel of the image sensor 48. The offset process is a process of reducing the dark current component from the image subjected to the defect correction process and setting an accurate zero level. The gain correction process is a process of adjusting the signal level of each image by multiplying the offset processed image by the gain. The linear matrix processing is a process for improving the color reproducibility of the offset processed image, and the gamma conversion processing is a process for adjusting the brightness and saturation of the image after the linear matrix processing.

なお、イメージセンサ48がカラーセンサである場合には、デモザイク処理が行われる。デモザイク処理(等方化処理や同時化処理とも言う)は、欠落した画素の画素値を補間する処理であり、ガンマ変換処理後の画像に対して施す。欠落した画素とは、カラーフィルタの配列に起因して(イメージセンサ48において他の色の画素を配置しているため)、画素値がない画素である。例えば、B画像はB画素において被写体を撮像して得る画像なので、G画素やR画素に対応する位置の画素には画素値がない。デモザイク処理は、B画像を補間して、イメージセンサ48のG画素及びR画素の位置にある画素の画素値を生成する。YC変換処理は、デモザイク処理後の画像を、輝度チャンネルYと色差チャンネルCb及び色差チャンネルCrに変換する処理である。 When the image sensor 48 is a color sensor, demosaic processing is performed. The demosaic process (also called isotropic processing or simultaneous processing) is a process of interpolating the pixel values of the missing pixels, and is applied to the image after the gamma conversion process. The missing pixel is a pixel having no pixel value due to the arrangement of the color filter (because the pixel of another color is arranged in the image sensor 48). For example, since the B image is an image obtained by imaging the subject in the B pixel, the pixel at the position corresponding to the G pixel or the R pixel has no pixel value. The demosaic process interpolates the B image to generate pixel values of the pixels at the positions of the G pixel and the R pixel of the image sensor 48. The YC conversion process is a process of converting the image after the demosaic process into the luminance channel Y, the color difference channel Cb, and the color difference channel Cr.

ノイズ低減部58は、輝度チャンネルY、色差チャンネルCb及び色差チャンネルCrに対して、例えば、移動平均法またはメディアンフィルタ法等を用いてノイズ低減処理を施す。変換部59は、ノイズ低減処理後の輝度チャンネルY、色差チャンネルCb及び色差チャンネルCrを再びBGRの各色の画像に再変換する。 The noise reduction unit 58 performs noise reduction processing on the luminance channel Y, the color difference channel Cb, and the color difference channel Cr by using, for example, a moving average method or a median filter method. The conversion unit 59 reconverts the luminance channel Y, the color difference channel Cb, and the color difference channel Cr after the noise reduction processing into images of each color of BGR.

画像処理部61は、画像取得部54が取得した医療画像に対して各種の画像処理を施す。また、画像処理部61は、医療画像から注目領域の検出を行い、検出した注目領域から観察対象の診断を支援するための診断支援情報を算出する。注目領域の検出及び診断支援情報の算出については後述する。表示制御部66は、画像処理部61から送られる医療画像又は診断支援情報を用い、モニタ18での表示に適した形式に変換してモニタ18に出力する。これにより、モニタ18には、医療画像と診断支援情報が少なくとも表示される。 The image processing unit 61 performs various image processing on the medical image acquired by the image acquisition unit 54. In addition, the image processing unit 61 detects the region of interest from the medical image, and calculates diagnostic support information for supporting the diagnosis of the observation target from the detected region of interest. The detection of the region of interest and the calculation of diagnostic support information will be described later. The display control unit 66 uses the medical image or diagnostic support information sent from the image processing unit 61, converts it into a format suitable for display on the monitor 18, and outputs it to the monitor 18. As a result, at least the medical image and the diagnosis support information are displayed on the monitor 18.

図3に示すように、画像処理部61は、注目領域検出部70と、診断支援情報算出部72と、視線画像生成部74と、画像合成部76と、注目領域選択部78と、観察時間計測部79と、領域判定部80と、学習用データ生成部82とを備えている。注目領域検出部70は、医療画像から検査または診断の対象として注目すべき注目領域を検出する領域検出処理を行う。注目領域検出部70は、例えば、CNN(Convolutional Neural Network)や、画素勾配特徴を利用したAdaboostから構成される。したがって、注目領域検出部70は、領域検出処理の他、注目領域の検出精度を上げるための学習処理が可能である。領域検出処理又は学習処理のいずれを行うかは、ユーザーインターフェース19の操作によって決定される。 As shown in FIG. 3, the image processing unit 61 includes an attention area detection unit 70, a diagnosis support information calculation unit 72, a line-of-sight image generation unit 74, an image synthesis unit 76, an attention area selection unit 78, and an observation time. It includes a measurement unit 79, an area determination unit 80, and a learning data generation unit 82. The region of interest detection unit 70 performs region detection processing for detecting a region of interest that should be noted as a target of examination or diagnosis from a medical image. The region of interest detection unit 70 is composed of, for example, a CNN (Convolutional Neural Network) or an AdaBoost that utilizes a pixel gradient feature. Therefore, the region of interest detection unit 70 can perform learning processing for improving the detection accuracy of the region of interest in addition to the region detection processing. Whether to perform the area detection process or the learning process is determined by the operation of the user interface 19.

注目領域検出部70は、領域検出処理を行う場合には、図4に示すように、医療画像が入力されると、この入力された医療画像から注目領域を検出して、注目領域を含む領域検出画像を出力する。領域検出画像には、図5に示すように、病変部の周囲を囲む矩形状の注目領域ROIが表示される。なお、図5では、注目領域ROIの形状を四角(矩形)で表しているが、矩形以外の形状は、例えば、円、楕円などで表してもよい。なお、注目領域検出部70の学習処理については後述する。 When performing the area detection process, the area of interest detection unit 70 detects the area of interest from the input medical image when a medical image is input, as shown in FIG. 4, and the area including the area of interest. Output the detected image. In the region detection image, as shown in FIG. 5, a rectangular region of interest ROI surrounding the periphery of the lesion is displayed. In FIG. 5, the shape of the region of interest ROI is represented by a square (rectangle), but shapes other than the rectangle may be represented by, for example, a circle or an ellipse. The learning process of the region of interest detection unit 70 will be described later.

診断支援情報算出部72は、注目領域検出部70で検出された注目領域から各種指標値を算出し、算出した各種指標値に基づいて、病変部の診断を支援するための診断支援情報を算出する。各種指標値としては、血管密度や血管走行パターンなどの血管に関する血管指標値や、腺管構造に関する腺管指標値などが含まれる。診断支援情報としては、例えば、病変部の進行度(ステージ)などが挙げられる。図5に示すように、算出された診断支援情報84は、領域検出画像とともに、注目領域ROIに対応づけられてモニタ18に表示される(図5では「ステージ1」)。 The diagnostic support information calculation unit 72 calculates various index values from the attention region detected by the attention region detection unit 70, and calculates diagnostic support information for supporting the diagnosis of the lesion portion based on the calculated index values. To do. The various index values include blood vessel index values related to blood vessels such as blood vessel density and blood vessel running pattern, and duct index values related to gland duct structure. Examples of the diagnostic support information include the degree of progression (stage) of the lesion. As shown in FIG. 5, the calculated diagnostic support information 84 is displayed on the monitor 18 in association with the region of interest ROI together with the region detection image (“stage 1” in FIG. 5).

視線画像生成部74は、図6に示すように、ユーザーがモニタ18に向けている視線が、モニタ18と交差する位置を表す視線ポイントEPを表示する視線画像を生成する。視線ポイントに関する情報は、モニタ18の前面に設けられた視線検知部75からの視線データに基づいて生成される。視線画像においては、一定の時間間隔T1〜TN(図6ではN=7。Nの数が大きくなる程、時間的に新しいことを意味する。)において取得した複数の視線ポイントEP(T1)〜EP(TN)を表示し、且つ、各視線ポイントEP(T1)〜EP(TN)間は、視線の軌跡が分かるように、連結線CLによって連結されている。なお、一定の時間間隔を経た視線ポイントは、視線画像から消去するようにし、代わりに、最新の視線ポイントを表示するようにする。なお、ユーザーの視線が交差するモニタ18の部分には、モニタ18の画面全体の他、画面中のウインドウなど、少なくとも画像情報が表示されている部分が含まれる。 As shown in FIG. 6, the line-of-sight image generation unit 74 generates a line-of-sight image that displays a line-of-sight point EP indicating a position where the line of sight directed by the user toward the monitor 18 intersects the monitor 18. Information about the line-of-sight point is generated based on the line-of-sight data from the line-of-sight detection unit 75 provided on the front surface of the monitor 18. In the line-of-sight image, a plurality of line-of-sight points EP (T1) to TN acquired at a fixed time interval T1 to TN (in FIG. 6, N = 7. The larger the number of N, the newer the time). EP (TN) is displayed, and each line-of-sight point EP (T1) to EP (TN) is connected by a connecting line CL so that the locus of the line of sight can be seen. The line-of-sight points that have passed a certain time interval are deleted from the line-of-sight image, and instead, the latest line-of-sight points are displayed. The portion of the monitor 18 where the user's lines of sight intersect includes, in addition to the entire screen of the monitor 18, a portion where at least image information is displayed, such as a window in the screen.

図7に示すように、画像合成部76は、領域検出画像と視線画像とを合成して合成画像を生成する。この合成画像によって、領域検出画像における注目領域と、ユーザーが現在注視している視線ポイントEPとの位置関係が分かるようになる。例えば、図7に示すように、3つの注目領域ROIx、ROIy、ROIzが表示されている場合、一定の時間間隔内に表示される視線ポイントEPは、注目領域ROIxに集中している。これにより、ユーザーが注視している領域はROIxであることが分かる。 As shown in FIG. 7, the image synthesizing unit 76 synthesizes the area detection image and the line-of-sight image to generate a composite image. From this composite image, the positional relationship between the region of interest in the region detection image and the line-of-sight point EP that the user is currently gazing at can be understood. For example, as shown in FIG. 7, when three attention regions ROIx, ROIy, and ROIz are displayed, the line-of-sight point EP displayed within a fixed time interval is concentrated in the attention region ROIx. From this, it can be seen that the area that the user is gazing at is ROIx.

注目領域選択部78は、複数の注目領域の中から、視線ポイントEPが含まれる第1注目領域を選択する領域選択処理を行う。領域選択処理は、ユーザーによって、注目領域の選択に関する指示が行われたことに基づいて、実行される。ユーザーは、モニタ18に表示された合成画像を参照し、注目すべき領域として正しく検出されていると考える注目領域ROIの中に、視線ポイントEPが入っていることを確認すると、内視鏡12の操作部12bに設けられた領域選択ボタン13b(領域選択操作部)を操作する。これに従って、注目領域選択部78は、領域選択処理を実行する。この領域選択処理の実行により、図8に示すように、領域選択ボタン13bが操作されたタイミングにおいて視線ポイントEPが入っている注目領域ROIxを、第1注目領域として選択する(図8では、第1注目領域として選択されたROIxは二重線で表している。)。以上のように、注目領域の選択に、視線検知部75で検出した視線ポイントEPを用いることによって、内視鏡12を操作する医師が、スタッフのサポート無く、注目すべき領域として正しく検出されていると考える注目領域を選択することができるようになる。 The attention area selection unit 78 performs an area selection process for selecting a first attention area including the line-of-sight point EP from a plurality of attention areas. The area selection process is executed based on the instruction regarding the selection of the area of interest by the user. When the user refers to the composite image displayed on the monitor 18 and confirms that the line-of-sight point EP is included in the attention area ROI that is considered to be correctly detected as the area of interest, the endoscope 12 The area selection button 13b (area selection operation unit) provided on the operation unit 12b of the above is operated. According to this, the attention area selection unit 78 executes the area selection process. By executing this area selection process, as shown in FIG. 8, the attention area ROIx containing the line-of-sight point EP at the timing when the area selection button 13b is operated is selected as the first attention area (in FIG. 8, the thirth). 1 ROIx selected as the region of interest is represented by a double line). As described above, by using the line-of-sight point EP detected by the line-of-sight detection unit 75 for selecting the area of interest, the doctor who operates the endoscope 12 is correctly detected as the area of interest without the support of the staff. You will be able to select the area of interest that you think you have.

なお、本実施形態では、領域選択操作部として、領域選択ボタン13bを用いているが、その他、フットスイッチFS(図1参照)や、マイク等を使用した音声認識も用いることができる。また、視線ポイントEPが注目領域に入っている時間を観察時間として、観察時間計測部79(図3参照)によって計測し、その上で、注目領域選択部78が、観察時間計測部79で計測した観察時間が特定の観察時間を超えた注目領域を、第1注目領域として選択するようにしてもよい。 In the present embodiment, the area selection button 13b is used as the area selection operation unit, but in addition, voice recognition using a foot switch FS (see FIG. 1), a microphone, or the like can also be used. Further, the time when the line-of-sight point EP is in the region of interest is set as the observation time, and is measured by the observation time measuring unit 79 (see FIG. 3), and then the region of interest 78 is measured by the observation time measuring unit 79. A region of interest in which the observed observation time exceeds a specific observation time may be selected as the first region of interest.

領域判定部80は、第1注目領域を選択する領域選択処理が行われた場合には、第1注目領域に対しては、注目領域として正しく検出された適正領域であると判定し、第1注目領域以外の第2注目領域に対しては、注目領域として誤って検出された誤検出領域であると判定する領域判定処理を行う。この領域判定処理によって、適正領域と誤検出領域に関する情報を含む正誤判定済み画像が得られる。例えば、図8に示すように、第1注目領域として選択された注目領域ROIxは適正領域であると判定され、第1注目領域として選択されなかった第2注目領域である注目領域ROIy、ROIzは誤検出領域として判定される。 When the area selection process for selecting the first attention area is performed, the area determination unit 80 determines that the first attention area is an appropriate area correctly detected as the attention area, and the first For the second attention region other than the attention region, an area determination process for determining that the second attention region is erroneously detected as the attention region is performed. By this area determination process, a correct / incorrect determination image including information on an appropriate area and an erroneous detection area can be obtained. For example, as shown in FIG. 8, the attention region ROIx selected as the first attention region is determined to be an appropriate region, and the attention regions ROIy and ROIz which are the second attention regions not selected as the first attention region are It is determined as a false detection area.

学習用データ生成部82は、図9に示すように、注目領域検出部70に入力した医療画像と、領域判定部80で得られた正誤判定済み画像とを関連付けて、注目領域検出部70を学習させるための学習用データを生成する学習用データ生成処理を行う。生成された学習用データは、学習用データ記憶部82aに記憶され、注目領域検出部70において学習処理が行われる場合に用いられる。注目領域検出部70は、学習処理を行う場合には、図10に示すように、学習用データ記憶部82aから学習用データを読み出し、この読み出した学習用データに基づいて、領域検出処理の精度を向上させる。また、学習処理は、注目領域検出部70に対して行う他、注目領域検出部70とは異なる他の特定処理部83に対して行って、この学習処理済みの特定処理部を注目領域検出部70に置き換えるようにしてもよい。この置き換え後の特定処理部が注目領域検出部70が機能することになる。 As shown in FIG. 9, the learning data generation unit 82 associates the medical image input to the attention area detection unit 70 with the correctness-determined image obtained by the area determination unit 80 to cause the attention area detection unit 70. Performs learning data generation processing to generate learning data for training. The generated learning data is stored in the learning data storage unit 82a, and is used when the learning process is performed in the attention region detection unit 70. When performing the learning process, the attention area detection unit 70 reads the learning data from the learning data storage unit 82a as shown in FIG. 10, and the accuracy of the area detection process is based on the read learning data. To improve. In addition to performing the learning process on the attention area detection unit 70, the learning process is performed on another specific processing unit 83 different from the attention area detection unit 70, and the learning-processed specific processing unit is used as the attention area detection unit. It may be replaced with 70. The region of interest detection unit 70 functions in the specific processing unit after this replacement.

次に、視線検知部を用いて、適正領域である第1注目領域の選択を行う一連の流れについて、図11に示すフローチャートに沿って説明を行う。観察対象の撮像を行うことにより、医療画像が得られる。この医療画像は注目領域検出部70に入力される。注目領域検出部70は、医療画像の入力に対して、この医療画像から注目領域を検出し、検出した注目領域を含む領域検出画像を出力する。出力された領域検出画像は、医療画像上に重畳してモニタ18に表示される。 Next, a series of steps for selecting the first attention region, which is an appropriate region, using the line-of-sight detection unit will be described with reference to the flowchart shown in FIG. A medical image can be obtained by imaging the observation target. This medical image is input to the region of interest detection unit 70. In response to the input of the medical image, the attention region detection unit 70 detects the attention region from the medical image and outputs the region detection image including the detected attention region. The output area detection image is superimposed on the medical image and displayed on the monitor 18.

また、ユーザーが視線をモニタ18に向けることにより、ユーザーの視線は視線検知部75により検出される。この視線検知部での検出結果に基づいて、現在から一定時間前にユーザーがモニタ18に向けていた視線を表す視線ポイントが表示された視線画像が得られる。視線画像は領域検出画像と合成され、この合成により得られた合成画像はモニタ18に表示される。ユーザーは、モニタ18に表示された合成画像を参照し、注目すべき領域として正しく検出されていると考える注目領域ROIの中に、視線ポイントEPが入っていることを確認すると、領域選択ボタン13bを操作する。この領域選択ボタン13bが操作されたタイミングにおいて視線ポイントEPが入っている注目領域ROIxを、第1注目領域として選択する。 Further, when the user directs the line of sight to the monitor 18, the user's line of sight is detected by the line of sight detection unit 75. Based on the detection result of the line-of-sight detection unit, a line-of-sight image showing a line-of-sight point representing the line of sight that the user has aimed at the monitor 18 a certain time before from the present can be obtained. The line-of-sight image is combined with the area detection image, and the combined image obtained by this composition is displayed on the monitor 18. When the user refers to the composite image displayed on the monitor 18 and confirms that the line-of-sight point EP is included in the attention area ROI that is considered to be correctly detected as the area of interest, the area selection button 13b To operate. At the timing when the area selection button 13b is operated, the attention area ROIx containing the line-of-sight point EP is selected as the first attention area.

第1注目領域の選択後は、第1注目領域に対して、注目領域として正しく検出された適正領域であると判定し、第1注目領域以外の第2注目領域に対しては、注目領域として誤って検出された誤検出領域であると判定する領域判定処理を行う。この領域判定処理によって、適正領域と誤検出領域に関する情報を含む正誤判定済み画像が得られる。この正誤判定済み画像と、注目領域検出部70に入力した医療画像とを互いに関連付けることにより、学習用データを生成する。 After selecting the first attention area, it is determined that the first attention area is an appropriate area correctly detected as the attention area, and the second attention area other than the first attention area is set as the attention area. Performs area determination processing for determining that the area is an erroneously detected erroneous detection area. By this area determination process, a correct / incorrect determination image including information on an appropriate area and an erroneous detection area can be obtained. Learning data is generated by associating the correctness-determined image with the medical image input to the attention region detection unit 70.

なお、上記実施形態において、診断支援情報算出部72で算出する血管指標値としては、例えば、血管密度、血管太さ、血管の指標値としては、血管の本数、分岐数、分岐角度、分岐点間距離、交差数、太さの変化、間隔、粘膜を基準とした深さ、高低差、傾き、コントラスト、色、色の変化、蛇行度、血液濃度、酸素飽和度、動脈の割合、静脈の割合、投与した色素の濃度、走行パターン、及び血流量などがある。 In the above embodiment, the blood vessel index values calculated by the diagnostic support information calculation unit 72 include, for example, the blood vessel density, the blood vessel thickness, and the blood vessel index values include the number of blood vessels, the number of branches, the branch angle, and the branch point. Distance, number of intersections, change in thickness, spacing, depth based on mucous membrane, height difference, inclination, contrast, color, color change, tortuosity, blood concentration, oxygen saturation, arterial ratio, vein There are proportions, concentration of dye administered, running pattern, and blood flow.

血管密度は、画像において特定領域に含まれる血管が占める割合によって表される。血管の太さ(血管径)とは、血管と粘膜の境界線間の距離であり、例えば、検出した血管のエッジから血管の中を通って血管の短手方向に沿って画素数を計数することにより計数する。したがって、血管の太さは画素数であるが、医療画像を撮影した際の撮影距離やズーム倍率等が既知の場合には、必要に応じて「μm」等の長さの単位に換算可能である。 The blood vessel density is represented by the proportion of blood vessels contained in a specific region in the image. The thickness of a blood vessel (blood vessel diameter) is the distance between the boundary line between the blood vessel and the mucous membrane. For example, the number of pixels is counted from the edge of the detected blood vessel through the blood vessel along the lateral direction of the blood vessel. Count by. Therefore, the thickness of the blood vessel is the number of pixels, but if the shooting distance and zoom magnification when a medical image is taken are known, it can be converted into a unit of length such as "μm" if necessary. is there.

血管の本数とは、医療画像全体または注目領域内で検出した血管の数である。血管の本数は、例えば、検出した血管の分岐点の個数(分岐数)や他の血管との交差点の個数(交差数)等を用いて算出する。血管の分岐角度は、2本の血管が分岐点においてなす角度である。分岐点間距離は、任意の分岐点とその隣の分岐点の直線距離、または、任意の分岐点とその隣の分岐点までの血管に沿った長さである。 The number of blood vessels is the number of blood vessels detected in the entire medical image or in the area of interest. The number of blood vessels is calculated using, for example, the number of detected branch points of blood vessels (number of branches), the number of intersections with other blood vessels (number of intersections), and the like. The bifurcation angle of a blood vessel is the angle formed by two blood vessels at the bifurcation point. The inter-branch distance is the linear distance between any bifurcation point and the bifurcation next to it, or the length along the blood vessel to any bifurcation and the next bifurcation.

血管の交差数とは、粘膜下の深さが異なる血管が医療画像上で交差する交差点の個数である。より具体的には、血管の交差数とは、相対的に粘膜下の浅い位置にある血管が、深い位置にある血管を横切る数である。 The number of intersections of blood vessels is the number of intersections where blood vessels having different submucosal depths intersect on a medical image. More specifically, the number of crossings of blood vessels is the number of blood vessels in a relatively shallow position under the mucosa crossing a blood vessel in a deep position.

血管の太さの変化とは、血管の太さのばらつきに関する血管情報であり、口径不同度ともいう。血管の太さの変化は、例えば、血管径の変化率(拡張度ともいう)である。血管径の変化率は、血管の最も細い部分の太さ(最小径)と血管の最も太い部分の太さ(最大径)を用いて、「血管径の変化率(%)=最小径/最大径×100」で求める。 The change in the thickness of a blood vessel is blood vessel information regarding the variation in the thickness of a blood vessel, and is also referred to as caliber disparity. The change in the thickness of the blood vessel is, for example, the rate of change in the diameter of the blood vessel (also referred to as the degree of dilation). The rate of change in blood vessel diameter is determined by using the thickness of the thinnest part of the blood vessel (minimum diameter) and the thickness of the thickest part of the blood vessel (maximum diameter), and "change rate of blood vessel diameter (%) = minimum diameter / maximum". It is calculated by "diameter x 100".

なお、過去の検査で観察対象を撮影して得た医療画像と、その後の新たな検査で同じ観察対象を撮影して得た医療画像と、を用いる場合、過去の検査で得た医療画像から検出した血管の太さに対して、その後の新たな検査で得た医療画像から検出した同じ血管の太さの時間的な変化を血管の太さの変化としてもよい。 When using a medical image obtained by photographing an observation target in a past examination and a medical image obtained by photographing the same observation object in a new examination after that, the medical image obtained in the past examination is used. With respect to the detected blood vessel thickness, the temporal change in the same blood vessel thickness detected from the medical image obtained in the subsequent new examination may be used as the change in blood vessel thickness.

また、血管の太さの変化として、細径部の割合、または太径部の割合を算出しても良い。細径部とは太さが閾値以下の部分であり、太径部とは太さが閾値よりも太い部分である。細径部の割合は、「細径部の割合(%)=細径部の長さ/血管の長さ×100」で求める。同様に、太径部の割合は、「太径部の割合(%)=太径部の長さ/血管の長さ×100」で求める。 Further, as the change in the thickness of the blood vessel, the ratio of the small diameter portion or the ratio of the large diameter portion may be calculated. The small diameter portion is a portion whose thickness is equal to or less than the threshold value, and the large diameter portion is a portion whose thickness is larger than the threshold value. The ratio of the small diameter portion is calculated by "ratio of the small diameter portion (%) = length of the small diameter portion / length of the blood vessel x 100". Similarly, the ratio of the large diameter portion is obtained by "ratio of the large diameter portion (%) = length of the large diameter portion / length of the blood vessel x 100".

血管の太さの変化の複雑度(以下、「太さ変化の複雑度」という)は、血管の太さ変化している場合に、その変化がどの程度複雑であるかを表す血管情報であり、血管の太さの変化を表す血管情報(すなわち血管径の変化率、細径部の割合、または太径部の割合)を複数組み合わせて算出する血管情報である。太さ変化の複雑度は、例えば、血管径の変化率と細径部の割合の積で求めることができる。 The complexity of the change in the thickness of the blood vessel (hereinafter referred to as "the complexity of the change in the thickness") is the blood vessel information indicating how complicated the change is when the thickness of the blood vessel changes. , Blood vessel information representing a change in the thickness of a blood vessel (that is, a rate of change in the diameter of a blood vessel, a ratio of a small diameter portion, or a ratio of a large diameter portion) is calculated by combining a plurality of blood vessel information. The complexity of the thickness change can be obtained, for example, by the product of the rate of change in the blood vessel diameter and the ratio of the small diameter portion.

血管の長さとは、検出した血管の長手方向に沿って計数した画素数である。 The blood vessel length is the number of pixels counted along the longitudinal direction of the detected blood vessel.

血管の間隔とは、検出した血管のエッジ間にある粘膜を表す画素の画素数である。検出した血管が1本の場合、血管の間隔は値を持たない。 The blood vessel spacing is the number of pixels representing the mucous membrane between the detected blood vessel edges. When only one blood vessel is detected, the blood vessel spacing has no value.

血管の深さは、粘膜(より具体的には粘膜の表面)を基準として測る。この粘膜を基準とした血管の深さは、例えば、血管の色に基づいて算出することができる。特殊観察画像の場合、粘膜の表面に近い位置にある血管はマゼンタ系の色で表され、粘膜の表面から遠く、粘膜下の深い位置にある血管はシアン系の色で表されるので、血管として検出した画素のR,G,B各色の信号のバランスに基づいて、粘膜を基準とした血管の深さを画素毎に算出する。 The depth of blood vessels is measured with reference to the mucosa (more specifically, the surface of the mucosa). The depth of the blood vessel with respect to this mucous membrane can be calculated, for example, based on the color of the blood vessel. In the case of special observation images, blood vessels near the surface of the mucosa are represented by a magenta color, and blood vessels far from the surface of the mucosa and deep under the mucosa are represented by a cyan color. Based on the balance of the signals of each color of R, G, and B of the pixel detected as, the depth of the blood vessel with respect to the mucous membrane is calculated for each pixel.

血管の高低差とは、血管の深さの差の大きさである。例えば、注目する1本の血管の高低差は、この血管の最も深い箇所の深さ(最大深さ)と、最も浅い箇所の深さ(最小深さ)の差で求める。深さが一定の場合、高低差は零である。 The height difference of blood vessels is the magnitude of the difference in the depth of blood vessels. For example, the height difference of one blood vessel of interest is obtained by the difference between the depth of the deepest part (maximum depth) and the depth of the shallowest part (minimum depth) of this blood vessel. When the depth is constant, the height difference is zero.

血管の傾きとは、血管の深さの変化率であり、血管の長さと血管の深さを用いて算出する。すなわち、血管の傾きは、「血管の傾き=血管の深さ/血管の長さ」で求める。なお、血管を複数の区間に区切り、各区間で血管の傾きを算出してもよい。 The inclination of a blood vessel is a rate of change in the depth of a blood vessel, and is calculated using the length of the blood vessel and the depth of the blood vessel. That is, the inclination of the blood vessel is obtained by "inclination of blood vessel = depth of blood vessel / length of blood vessel". The blood vessel may be divided into a plurality of sections, and the inclination of the blood vessel may be calculated in each section.

血管の面積は、血管として検出した画素の画素数、または、血管として検出した画素の画素数に比例する値である。血管の面積は、注目領域内、注目領域外、または、医療画像全体について算出する。 The area of the blood vessel is a value proportional to the number of pixels of the pixels detected as blood vessels or the number of pixels of the pixels detected as blood vessels. The area of the blood vessel is calculated for the area of interest, the area of interest, or the entire medical image.

血管のコントラストとは、観察対象の粘膜に対する相対的なコントラストである。血管のコントラストは、血管の輝度YVと、粘膜の輝度YMと、を用いて、例えば「YV/YM」または「(YV−YM)/(YV+YM)」で算出する。The contrast of blood vessels is the contrast relative to the mucous membrane to be observed. The contrast of blood vessels is calculated by, for example, "Y V / Y M " or "(Y V − Y M ) / (Y V + Y M )" using the brightness Y V of blood vessels and the brightness Y M of mucous membranes. To do.

血管の色とは、血管を表す画素のRGBの各値である。そして、血管の色の変化とは、血管を表す画素のRGB各値の各々の最大値と最小値の差または比である。例えば、血管を表すB画素の画素値の最大値と最小値の比、G画素の画素値の最大値と最小値の比、またはR画素の画素値の最大値と最小値の比は、血管の色の変化を表す。もちろん、補色に変換して、シアン、マゼンタ、イエロー、グリーン等の各値について血管の色及び血管の色の変化を算出しても良い。 The color of a blood vessel is each RGB value of a pixel representing a blood vessel. The change in the color of the blood vessel is the difference or ratio between the maximum value and the minimum value of each of the RGB values of the pixels representing the blood vessel. For example, the ratio of the maximum value to the minimum value of the pixel value of the B pixel representing the blood vessel, the ratio of the maximum value to the minimum value of the pixel value of the G pixel, or the ratio of the maximum value to the minimum value of the pixel value of the R pixel is the blood vessel. Represents the change in color of. Of course, the color of the blood vessel and the change in the color of the blood vessel may be calculated for each value of cyan, magenta, yellow, green, etc. by converting to complementary colors.

血管の蛇行度とは、血管が蛇行して走行する範囲の広さを表す血管情報である。血管の蛇行度は、例えば、蛇行度を算出する血管を含む最小の長方形の面積(画素数)である。また、血管の始点と終点の直線距離に対する血管の長さの比を血管の蛇行度としても良い。 The degree of meandering of a blood vessel is blood vessel information indicating the width of a range in which the blood vessel meanders and travels. The meandering degree of a blood vessel is, for example, the area (number of pixels) of the smallest rectangle including the blood vessel for which the meandering degree is calculated. Further, the ratio of the length of the blood vessel to the linear distance between the start point and the end point of the blood vessel may be used as the meandering degree of the blood vessel.

血管の血液濃度とは、血管が含むヘモグロビンの量に比例する血管情報である。血管を表すR画素の画素値に対するG画素の画素値の比(G/R)はヘモグロビンの量に比例するので、G/Rの値を算出することで、画素ごとに血液濃度を算出することができる。 The blood concentration of a blood vessel is vascular information proportional to the amount of hemoglobin contained in the blood vessel. Since the ratio (G / R) of the pixel value of the G pixel to the pixel value of the R pixel representing a blood vessel is proportional to the amount of hemoglobin, the blood concentration should be calculated for each pixel by calculating the G / R value. Can be done.

血管の酸素飽和度とは、ヘモグロビンの総量(酸化ヘモグロビン及び還元ヘモグロビンの総量)に対する酸化ヘモグロビンの量である。酸素飽和度は、酸化ヘモグロビンと還元ヘモグロビンの吸光係数に違いが大きい特定の波長帯域の光(例えば、波長470±10nm程度の青色光)で観察対象を撮影した医療画像を用いて算出することができる。波長470±10nm程度の青色光を用いる場合、血管を表すB画素の画素値は酸素飽和度と相関があるので、B画素の画素値を酸素飽和度に対応付けるテーブル等を用いることで、血管を表す各画素の酸素飽和度を算出することができる。 The oxygen saturation of blood vessels is the amount of oxidized hemoglobin relative to the total amount of hemoglobin (total amount of oxidized hemoglobin and reduced hemoglobin). Oxygen saturation can be calculated using medical images taken of the observation target with light in a specific wavelength band (for example, blue light with a wavelength of about 470 ± 10 nm) in which the extinction coefficient of oxidized hemoglobin and reduced hemoglobin is large. it can. When blue light with a wavelength of about 470 ± 10 nm is used, the pixel value of the B pixel representing the blood vessel correlates with the oxygen saturation. Therefore, by using a table or the like that associates the pixel value of the B pixel with the oxygen saturation, the blood vessel can be formed. The oxygen saturation of each pixel represented can be calculated.

動脈の割合とは、全血管の画素数に対する動脈の画素数の割合である。同様に、静脈の割合とは、全血管の画素数に対する静脈の画素数の割合である。動脈と静脈は、酸素飽和度によって区別することができる。例えば、酸素飽和度が70%以上の血管を動脈とし、酸素飽和度が70%未満の血管を静脈とすれば、検出した血管を動脈と静脈に分けられるので、上記動脈の割合及び静脈の割合を算出するするこができる。 The ratio of arteries is the ratio of the number of pixels of arteries to the number of pixels of all blood vessels. Similarly, the ratio of veins is the ratio of the number of pixels of veins to the number of pixels of all blood vessels. Arteries and veins can be distinguished by oxygen saturation. For example, if a blood vessel having an oxygen saturation of 70% or more is an artery and a blood vessel having an oxygen saturation of less than 70% is a vein, the detected blood vessel can be divided into an artery and a vein. Therefore, the ratio of the above-mentioned arteries and the ratio of veins. Can be calculated.

投与した色素の濃度とは、観察対象に対して散布した色素、または静脈注射により血管に注入した色素の濃度である。投与した色素の濃度は、例えば、色素色以外の画素の画素値に対する色素色の画素値の割合で算出する。例えば、青色に着色する色素を投与した場合は、B画像とG画像の比率B/Gや、B画像とR画像の比率B/R等が、観察対象に定着(あるいは一時的に付着)した色素の濃度を表す。 The concentration of the administered pigment is the concentration of the pigment sprayed on the observation target or the pigment injected into the blood vessel by intravenous injection. The concentration of the administered dye is calculated, for example, by the ratio of the pixel value of the dye color to the pixel value of the pixel other than the dye color. For example, when a dye that colors blue is administered, the ratio B / G of the B image and the G image, the ratio B / R of the B image and the R image, and the like are fixed (or temporarily adhered) to the observation target. Represents the concentration of pigment.

血管の走行パターンとは、血管の走行方向に関する血管情報である。血管の走行パターンは、例えば、任意に設定する基準線に対する血管の平均角度(走行方向)や、任意に設定する基準線に対して血管がなす角度の分散(走行方向のばらつき)等である。 The running pattern of a blood vessel is blood vessel information regarding the running direction of the blood vessel. The traveling pattern of the blood vessel is, for example, the average angle of the blood vessel with respect to the arbitrarily set reference line (traveling direction), the dispersion of the angle formed by the blood vessel with respect to the arbitrarily set reference line (variation in the traveling direction), and the like.

血管の血流量(血流速度ともいう)は、単位時間あたりに赤血球が通り抜ける数である。超音波プローブを内視鏡12の鉗子チャンネル等を介して併用する場合等に、医療画像の血管を表す各画素のドップラーシフト周波数を、超音波プローブで得る信号を用いて算出する、血管の血流量を求めるができる。 Blood flow in a blood vessel (also called blood flow velocity) is the number of red blood cells that pass through per unit time. When the ultrasonic probe is used together via the forceps channel of the endoscope 12, the Doppler shift frequency of each pixel representing the blood vessel of the medical image is calculated by using the signal obtained by the ultrasonic probe. The flow rate can be calculated.

なお、上記実施形態では、医療画像の一つである内視鏡画像の処理を行う内視鏡システムに対して、本発明の適用を行っているが、内視鏡画像以外の医療画像を処理する医療画像処理システムに対しても本発明の適用は可能である。また、医療画像を用いてユーザーに診断支援を行うための診断支援装置に対しても本発明の適用は可能である。また、医療画像を用いて、診断レポートなどの医療業務を支援するための医療業務支援装置に対しても本発明の適用は可能である。 In the above embodiment, the present invention is applied to an endoscopic system that processes an endoscopic image, which is one of medical images, but medical images other than the endoscopic image are processed. The present invention can also be applied to a medical image processing system. The present invention can also be applied to a diagnostic support device for providing diagnostic support to a user using a medical image. The present invention can also be applied to a medical work support device for supporting medical work such as a diagnostic report using a medical image.

なお、上記実施形態では、図12に示すように、光源部20として、V−LED(Violet Light Emitting Diode)20a、B−LED(Blue Light Emitting Diode)20b、G−LED(Green Light Emitting Diode)20c、及びR−LED(Red Light Emitting Diode)20dの4色のLEDと、波長カットフィルタ23とを用いて、照明光の発光を行うことが好ましい。 In the above embodiment, as shown in FIG. 12, the light source unit 20 includes V-LED (Violet Light Emitting Diode) 20a, B-LED (Blue Light Emitting Diode) 20b, and G-LED (Green Light Emitting Diode). It is preferable to emit illumination light by using a four-color LED of 20c and R-LED (Red Light Emitting Diode) 20d and a wavelength cut filter 23.

V−LED20aは、波長帯域380nm〜420nmの紫色光Vを発する。B−LED20bは、波長帯域420nm〜500nmの青色光Bを発する。B−LED23bから出射した青色光Bのうち少なくともピーク波長の450nmよりも長波長側は、波長カットフィルタ23によりカットされる。これにより、波長カットフィルタ23を透過した後の青色光Bxは、420〜460nmの波長範囲になる。このように、460nmよりも長波長側の波長域の光をカットしているのは、この460nmよりも長波長側の波長域の光は、観察対象である血管の血管コントラストを低下させる要因であるためである。なお、波長カットフィルタ23は、460nmよりも長波長側の波長域の光をカットする代わりに、460nmよりも長波長側の波長域の光を減光させてもよい。G−LED20cは、波長帯域が480nm〜600nmに及ぶ緑色光Gを発する。R−LED20dは、波長帯域が600nm〜650nmに及び赤色光Rを発する。 The V-LED 20a emits purple light V having a wavelength band of 380 nm to 420 nm. The B-LED 20b emits blue light B having a wavelength band of 420 nm to 500 nm. Of the blue light B emitted from the B-LED 23b, at least the wavelength side longer than the peak wavelength of 450 nm is cut by the wavelength cut filter 23. As a result, the blue light Bx after passing through the wavelength cut filter 23 is in the wavelength range of 420 to 460 nm. In this way, the light in the wavelength range longer than 460 nm is cut because the light in the wavelength range longer than 460 nm reduces the vascular contrast of the blood vessel to be observed. Because there is. The wavelength cut filter 23 may dimming the light in the wavelength region longer than 460 nm instead of cutting the light in the wavelength region longer than 460 nm. The G-LED 20c emits green light G having a wavelength band of 480 nm to 600 nm. The R-LED20d emits red light R having a wavelength band of 600 nm to 650 nm.

白色帯域の光(白色光)を発光する場合、V−LED20a、B−LED20b、G−LED20c、及びR−LED20dを全て点灯させる。これにより、図13に示すように、光源装置14から、紫色光V、青色光Bx、緑色光G、及び赤色光Rを含む白色光が発せられる。白色光は、青色帯域から赤色帯域まで一定以上の強度を有しているため、ほぼ白色となっている。特定の波長帯域の光(特定光)として、440±10nmの波長帯域にピーク波長を有する特定光を発光する場合、例えば、図14に示すように、青色光Bxの発光量が、紫色光V、緑色光G、及び赤色光Rのいずれの発光量よりも大きくなる特定光が発せられる。 When emitting light in the white band (white light), the V-LED20a, B-LED20b, G-LED20c, and R-LED20d are all turned on. As a result, as shown in FIG. 13, white light including purple light V, blue light Bx, green light G, and red light R is emitted from the light source device 14. Since white light has a certain intensity or more from the blue band to the red band, it is almost white. When emitting specific light having a peak wavelength in the wavelength band of 440 ± 10 nm as light in a specific wavelength band (specific light), for example, as shown in FIG. 14, the amount of blue light Bx emitted is purple light V. , Green light G, and red light R are all emitted, and specific light is emitted.

また、上記実施形態では、レーザ光源と蛍光体を用いて、照明光の発光を行うようにしてもよい。この場合には、図15に示すように、光源部20には、ピーク波長445±10nmの青色レーザ光を発する青色レーザ光源(「445LD」と表記。LDは「Laser Diode」を表す)104と、ピーク波長405±10nmの青紫色レーザ光を発する青紫色レーザ光源(「405LD」と表記)106とが設けられている。 Further, in the above embodiment, the laser light source and the phosphor may be used to emit the illumination light. In this case, as shown in FIG. 15, the light source unit 20 has a blue laser light source (denoted as "445LD"; LD represents "Laser Diode") 104 that emits a blue laser light having a peak wavelength of 445 ± 10 nm. , A blue-violet laser light source (denoted as "405LD") 106 that emits a blue-violet laser light having a peak wavelength of 405 ± 10 nm is provided.

照明光学系30aには、照明レンズ32の他に、ライトガイド24からの青色レーザ光又は青紫色レーザ光が入射する蛍光体110が設けられている。蛍光体110は、青色レーザ光によって励起され、蛍光を発する。また、青色レーザ光の一部は、蛍光体110を励起させることなく透過する。青紫色レーザ光は、蛍光体110を励起させることなく透過する。蛍光体110を出射した光は、照明レンズ32を介して、観察対象の体内を照明する。 In addition to the illumination lens 32, the illumination optical system 30a is provided with a phosphor 110 to which the blue laser light or the blue-violet laser light from the light guide 24 is incident. The phosphor 110 is excited by a blue laser beam and emits fluorescence. Further, a part of the blue laser light is transmitted without exciting the phosphor 110. The bluish-purple laser light passes through the phosphor 110 without exciting it. The light emitted from the phosphor 110 illuminates the inside of the observation target through the illumination lens 32.

ここで、白色光を発光する場合には、青色レーザ光源104が点灯して、主として青色レーザ光が蛍光体110に入射するため、図16に示すような、青色レーザ光、及び青色レーザ光により蛍光体110から励起発光する蛍光を合波した白色光が発せられる。一方、特定の波長帯域の光(特定光)として、440±10nmの波長帯域にピーク波長を有する特定光を発光する場合には、青色レーザ光源104及び青紫色レーザ光源106が点灯して、青紫色レーザ光と青色レーザ光の両方を蛍光体110に入射させる。これにより、図17に示すような、青紫色レーザ光、青色レーザ光、及び青色レーザ光により蛍光体110から励起発光する蛍光を合波した特定光が発せられる。 Here, when the white light is emitted, the blue laser light source 104 is turned on and the blue laser light is mainly incident on the phosphor 110. Therefore, the blue laser light and the blue laser light as shown in FIG. 16 are used. White light that combines the fluorescence that is excited and emitted from the phosphor 110 is emitted. On the other hand, when emitting specific light having a peak wavelength in the wavelength band of 440 ± 10 nm as light in a specific wavelength band (specific light), the blue laser light source 104 and the bluish purple laser light source 106 are turned on and blue. Both the purple laser light and the blue laser light are incident on the phosphor 110. As a result, as shown in FIG. 17, the blue-purple laser light, the blue laser light, and the specific light obtained by combining the fluorescence excited and emitted from the phosphor 110 by the blue laser light are emitted.

なお、青色レーザ光又は青紫色レーザ光の半値幅は±10nm程度にすることが好ましい。また、青色レーザ光源104及び青紫色レーザ光源106は、ブロードエリア型のInGaN系レーザダイオードが利用でき、また、InGaNAs系レーザダイオードやGaNAs系レーザダイオードを用いることもできる。また、上記光源として、発光ダイオードなどの発光体を用いた構成としてもよい。 The half-value width of the blue laser light or the blue-violet laser light is preferably about ± 10 nm. Further, as the blue laser light source 104 and the blue-violet laser light source 106, a broad area type InGaN-based laser diode can be used, and an InGaN As-based laser diode or a GaN As-based laser diode can also be used. Further, as the light source, a light emitting body such as a light emitting diode may be used.

なお、蛍光体110は、青色レーザ光の一部を吸収して、緑色〜黄色に励起発光する複数種の蛍光体(例えばYAG系蛍光体、或いはBAM(BaMgAl1017)などの蛍光体)を含んで構成されるものを使用することが好ましい。本構成例のように、半導体発光素子を蛍光体110の励起光源として用いれば、高い発光効率で高強度の白色光が得られ、白色光の強度を容易に調整できる上に、白色光の色温度、色度の変化を小さく抑えることができる。The phosphor 110 is a plurality of types of phosphors that absorb a part of the blue laser light and excite and emit light from green to yellow (for example, a YAG-based phosphor or a phosphor such as BAM (BaMgAl 10 O 17 )). It is preferable to use one composed of. When a semiconductor light emitting element is used as an excitation light source for the phosphor 110 as in this configuration example, high-intensity white light can be obtained with high luminous efficiency, the intensity of white light can be easily adjusted, and the color of white light can be adjusted. Changes in temperature and chromaticity can be kept small.

また、上記実施形態では、キセノンランプ等の広帯域光源と回転フィルタを用いて、照明光の発光を行うようにしてもよい。この場合には、図18に示すように、光源部20には、広帯域光源202と、回転フィルタ204と、フィルタ切替部206とが設けられている。また、広帯域光源202と回転フィルタ204との間には絞り203が設けられており、この絞り203は絞り制御部205によって開口部の面積が調整される。絞り制御部205は、プロセッサ装置16からの調光信号に基づいて絞り203の制御を行う。 Further, in the above embodiment, the illumination light may be emitted by using a broadband light source such as a xenon lamp and a rotation filter. In this case, as shown in FIG. 18, the light source unit 20 is provided with a wideband light source 202, a rotation filter 204, and a filter switching unit 206. Further, a diaphragm 203 is provided between the wideband light source 202 and the rotation filter 204, and the area of the opening of the diaphragm 203 is adjusted by the diaphragm control unit 205. The aperture control unit 205 controls the aperture 203 based on the dimming signal from the processor device 16.

広帯域光源202はキセノンランプや白色LED等であり、波長域が青色から赤色に及ぶ広帯域光を発する。回転フィルタ204は、回転軸に一番近い内側に設けた白色光用フィルタ210と、この白色光用フィルタ210の外側に設けた特定光用フィルタ212とを備えている(図19参照)。 The wideband light source 202 is a xenon lamp, a white LED, or the like, and emits wideband light having a wavelength range ranging from blue to red. The rotation filter 204 includes a white light filter 210 provided on the inner side closest to the rotation axis, and a specific light filter 212 provided on the outer side of the white light filter 210 (see FIG. 19).

フィルタ切替部206は、回転フィルタ204を径方向に移動する。具体的には、フィルタ切替部206は、白色光を発光する場合に、白色光用フィルタ210を広帯域光の光路に挿入する。フィルタ切替部206は、特定の波長帯域の光(特定光)を発光する場合に、特定光用フィルタ212を広帯域光の光路に挿入する。 The filter switching unit 206 moves the rotary filter 204 in the radial direction. Specifically, the filter switching unit 206 inserts the white light filter 210 into the optical path of wideband light when emitting white light. When the filter switching unit 206 emits light in a specific wavelength band (specific light), the filter switching unit 206 inserts the specific light filter 212 into the optical path of wideband light.

図19に示すように、白色光用フィルタ210には、周方向に沿って、Bフィルタ210aと、Gフィルタ210bと、Rフィルタ210cとが設けられている。Bフィルタ210aは、広帯域光のうち400〜500nmの波長範囲を持つ広帯域の青色光Bを透過する。Gフィルタ210bは、広帯域光のうち緑色光Gを透過する。Rフィルタ210cは、広帯域光のうち赤色光Rを透過する。したがって、白色光を発光する場合には、回転フィルタ204が回転することで、白色光として、青色光B、緑色光G、赤色光Rが順次照射される。 As shown in FIG. 19, the white light filter 210 is provided with a B filter 210a, a G filter 210b, and an R filter 210c along the circumferential direction. The B filter 210a transmits the wide band blue light B having a wavelength range of 400 to 500 nm out of the wide band light. The G filter 210b transmits the green light G of the broadband light. The R filter 210c transmits the red light R of the broadband light. Therefore, when emitting white light, the rotation of the rotation filter 204 causes blue light B, green light G, and red light R to be sequentially emitted as white light.

特定光用フィルタ212には、周方向に沿って、Bnフィルタ212aと、Gフィルタ212bとが設けられている。Bnフィルタ212aは、広帯域光のうち400〜450nmの青色狭帯域光Bnを透過する。Gフィルタ212bは、広帯域光のうち緑色光Gを透過する。したがって、特定光を発光する場合には、回転フィルタ204が回転することで、特定光として、青色狭帯域光Bn、緑色光Gが、観察対象に向けて、順次照射される。 The specific light filter 212 is provided with a Bn filter 212a and a G filter 212b along the circumferential direction. The Bn filter 212a transmits blue narrow band light Bn of 400 to 450 nm in wide band light. The G filter 212b transmits the green light G of the broadband light. Therefore, when the specific light is emitted, the rotation of the rotation filter 204 causes the blue narrow band light Bn and the green light G to be sequentially irradiated toward the observation target as the specific light.

キセノンランプ等の広帯域光源と回転フィルタを用いて、照明光の発光を行う場合には、白色光の照明時には、青色光B、緑色光G、赤色光Rで観察対象を照明する毎にモノクロのイメージセンサで観察対象を撮像する。この観察対象の撮像により得られるB画像、G画像、R画像によって、白色光の成分を備える画像を生成する。また、特定光の照明時には、青色狭帯域光Bn、緑色光Gで観察対象を照明する毎にモノクロのイメージセンサで観察対象を撮像し、この撮像により得られるBn画像、G画像によって、特定光の成分を備える画像を生成する。 When emitting illumination light using a broadband light source such as a xenon lamp and a rotation filter, when illuminating white light, each time the observation target is illuminated with blue light B, green light G, and red light R, it becomes monochrome. The observation target is imaged with an image sensor. An image having a white light component is generated from the B image, the G image, and the R image obtained by imaging the observation target. Further, when illuminating the specific light, each time the observation target is illuminated with blue narrow band light Bn and green light G, the observation target is imaged with a monochrome image sensor, and the specific light is obtained by the Bn image and G image obtained by this imaging. Generate an image with the components of.

なお、上記実施形態では、医療画像の一つである内視鏡画像の処理を行う内視鏡システムに対して、本発明の適用を行っているが、内視鏡画像以外の医療画像を処理する医療画像処理システムに対しても本発明の適用は可能である。また、医療画像を用いてユーザーに診断支援を行うための診断支援装置に対しても本発明の適用は可能である。また、医療画像を用いて、診断レポートなどの医療業務を支援するための医療業務支援装置に対しても本発明の適用は可能である。 In the above embodiment, the present invention is applied to an endoscopic system that processes an endoscopic image, which is one of medical images, but medical images other than the endoscopic image are processed. The present invention can also be applied to a medical image processing system. The present invention can also be applied to a diagnostic support device for providing diagnostic support to a user using a medical image. The present invention can also be applied to a medical work support device for supporting medical work such as a diagnostic report using a medical image.

例えば、図20に示すように、診断支援装置600は、医療画像処理システム602などのモダリティやPACS(Picture Archiving and Communication Systems)604を組み合わせて使用される。また、図21に示すように、医療業務支援装置610は、第1医療画像処理システム621、第2医療画像処理システム622、…、第N医療画像処理システム623等の各種検査装置と任意のネットワーク626を介して接続する。医療業務支援装置610は、第1〜第N医療画像処理システム621、622・・・、623からの医療画像を受信し、受信した医療画像に基づいて、医療業務の支援を行う。 For example, as shown in FIG. 20, the diagnostic support device 600 is used in combination with a modality such as a medical image processing system 602 and a PACS (Picture Archiving and Communication Systems) 604. Further, as shown in FIG. 21, the medical business support device 610 includes various inspection devices such as the first medical image processing system 621, the second medical image processing system 622, ..., The Nth medical image processing system 623, and an arbitrary network. Connect via 626. The medical business support device 610 receives medical images from the first to Nth medical image processing systems 621, 622 ..., 623, and supports medical business based on the received medical images.

上記実施形態において、画像処理部61に含まれる注目領域検出部70、診断支援情報算出部72、視線画像生成部74、画像合成部76、注目領域選択部78、観察時間計測部79、領域判定部80、学習用データ生成部82、学習用データ記憶部82a、又は特定処理部83といった各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウエア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA (Field Programmable Gate Array) などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、各種の処理を実行するために専用に設計された回路構成を有するプロセッサである専用電気回路、GPU(Graphical Processing Unit)などが含まれる。 In the above embodiment, the attention area detection unit 70, the diagnosis support information calculation unit 72, the line-of-sight image generation unit 74, the image synthesis unit 76, the attention area selection unit 78, the observation time measurement unit 79, and the area determination included in the image processing unit 61. The hardware structure of the processing unit that executes various processes such as the unit 80, the learning data generation unit 82, the learning data storage unit 82a, or the specific processing unit 83 has various hardware structures as shown below. It is a processor. For various processors, the circuit configuration is changed after manufacturing the CPU (Central Processing Unit), FPGA (Field Programmable Gate Array), which is a general-purpose processor that executes software (program) and functions as various processing units. It includes a programmable logic device (PLD), which is a possible processor, a dedicated electric circuit, which is a processor having a circuit configuration specially designed for executing various processes, and a GPU (Graphical Processing Unit). ..

1つの処理部は、これら各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合せ(例えば、複数のFPGAや、CPUとFPGAの組み合わせ、CPUとGPUの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウエアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。 One processing unit may be composed of one of these various processors, or a combination of two or more processors of the same type or different types (for example, a plurality of FPGAs, a combination of a CPU and an FPGA, a CPU and a combination of two or more processors. It may be composed of a combination of GPUs). Further, a plurality of processing units may be configured by one processor. As an example of configuring a plurality of processing units with one processor, first, as represented by a computer such as a client or a server, one processor is configured by a combination of one or more CPUs and software. There is a form in which this processor functions as a plurality of processing units. Secondly, as typified by System On Chip (SoC), there is a form in which a processor that realizes the functions of the entire system including a plurality of processing units with one IC (Integrated Circuit) chip is used. is there. As described above, the various processing units are configured by using one or more of the above-mentioned various processors as a hardware-like structure.

さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた形態の電気回路(circuitry)である。 Further, the hardware structure of these various processors is, more specifically, an electric circuit in the form of combining circuit elements such as semiconductor elements.

10 内視鏡システム
12 内視鏡
12a 挿入部
12b 操作部
12c 湾曲部
12d 先端部
12e アングルノブ
12f 鉗子入口
13a ズーム操作部
13b 領域選択ボタン
14 光源装置
16 プロセッサ装置
18 モニタ
19 ユーザーインターフェース
20 光源部
20a V−LED(Violet Light Emitting Diode)
20b B−LED(Blue Light Emitting Diode)
20c G−LED(Green Light Emitting Diode)
20d R−LED(Red Light Emitting Diode)
22 光源制御部
23 波長カットフィルタ
24 ライトガイド
30a 照明光学系
30b 撮像光学系
32 照明レンズ
41 ライトガイド
45 照明レンズ
46 対物レンズ
47 ズームレンズ
48 イメージセンサ
52 中央制御部
54 画像取得部
56 DSP(Digital Signal Processor)
58 ノイズ低減部
59 変換部
61 画像処理部
66 表示制御部
70 注目領域検出部
72 診断支援情報算出部
74 視線画像生成部
75 視線検知部
76 画像合成部
78 注目領域選択部
80 領域判定部
82 学習用データ生成部
82a 学習用データ記憶部
84 診断支援情報
104 青色レーザ光源
106 青紫色レーザ光源
110 蛍光体
202 広帯域光源
204 回転フィルタ
205 制御部
206 フィルタ切替部
210 白色光用フィルタ
210a Bフィルタ
210b Gフィルタ
210c Rフィルタ
212 特定光用フィルタ
212a Bnフィルタ
212b Gフィルタ
600 診断支援装置
602 医療画像処理システム
604 PACS
610 医療業務支援装置
621 第1医療画像処理システム
622 第2医療画像処理システム
623 第N医療画像処理システム
626 ネットワーク
10 Endoscope system 12 Endoscope 12a Insertion part 12b Operation part 12c Curved part 12d Tip part 12e Angle knob 12f Force entry 13a Zoom operation part 13b Area selection button 14 Light source device 16 Processor device 18 Monitor 19 User interface 20 Light source unit 20a V-LED (Violet Light Emitting Processor)
20b B-LED (Blue Light Emitting Diode)
20c G-LED (Green Light Emitting Diode)
20d R-LED (Red Light Emitting Diode)
22 Light source control unit 23 Wavelength cut filter 24 Light guide 30a Illumination optical system 30b Imaging optical system 32 Illumination lens 41 Light guide 45 Illumination lens 46 Objective lens 47 Zoom lens 48 Image sensor 52 Central control unit 54 Image acquisition unit 56 DSP (Digital Signal) Processor)
58 Noise reduction unit 59 Conversion unit 61 Image processing unit 66 Display control unit 70 Attention area detection unit 72 Diagnosis support information calculation unit 74 Line-of-sight image generation unit 75 Line-of-sight detection unit 76 Image synthesis unit 78 Attention area selection unit 80 Area determination unit 82 Learning Data generation unit 82a Learning data storage unit 84 Diagnosis support information 104 Blue laser light source 106 Blue purple laser light source 110 Phosphorus 202 Wideband light source 204 Rotation filter 205 Control unit 206 Filter switching unit 210 White light filter 210a B filter 210b G filter 210c R filter 212 Specific light filter 212a Bn filter 212b G filter 600 Diagnosis support device 602 Medical image processing system 604 PACS
610 Medical business support device 621 1st medical image processing system 622 2nd medical image processing system 623 Nth medical image processing system 626 Network

Claims (15)

観察対象を撮像して得られる医療画像を取得する画像取得部と、
前記医療画像から注目領域を検出する領域検出処理を行う注目領域検出部と、
前記医療画像において注目領域を表示する表示部と、
ユーザーが前記表示部に向けている視線が、前記表示部と交差する位置を表す視線ポイントを検出する視線検知部と、
複数の注目領域の中から前記視線ポイントが含まれる第1注目領域を選択する領域選択処理を行う注目領域選択部とを備える医療画像処理システム。
An image acquisition unit that acquires a medical image obtained by imaging an observation target,
A region detection unit that performs region detection processing to detect a region of interest from the medical image,
A display unit that displays a region of interest in the medical image,
A line-of-sight detection unit that detects a line-of-sight point indicating a position where the line of sight directed by the user toward the display unit intersects the display unit.
A medical image processing system including a region of interest selection unit that performs region selection processing for selecting a first region of interest including the line-of-sight point from a plurality of regions of interest.
前記領域選択処理が行われた場合には、前記第1注目領域に対しては前記注目領域として正しく検出された適正領域であると判定し、前記複数の注目領域のうち前記第1注目領域以外の第2注目領域に対しては前記注目領域として誤って検出された誤検出領域であると判定する領域判定処理を行う領域判定部を備える請求項1記載の医療画像処理システム。 When the region selection process is performed, it is determined that the first attention region is an appropriate region correctly detected as the attention region, and among the plurality of attention regions, other than the first attention region. The medical image processing system according to claim 1, further comprising an area determination unit that performs an area determination process for determining that the second area of interest is an erroneously detected erroneous detection area as the area of interest. 前記医療画像と前記領域判定処理の判定結果とを関連付けて、前記注目領域検出部を学習させるための学習用データを生成する学習用データ生成部を備え、
前記注目領域検出部は、前記領域検出処理、又は、前記学習用データを用いて、前記注目領域の検出精度を上げるための学習処理のいずれかを行う請求項2記載の医療画像処理システム。
A learning data generation unit that associates the medical image with the determination result of the area determination process and generates learning data for training the area of interest detection unit is provided.
The medical image processing system according to claim 2, wherein the attention region detection unit performs either the region detection process or the learning process for improving the detection accuracy of the attention region using the learning data.
前記医療画像と前記領域判定処理の判定結果とを関連付けて、前記注目領域検出部を学習させるための学習用データを生成する学習用データ生成部と、
前記学習用データを用いて、前記注目領域の検出精度を上げるための学習処理が施される特定処理部とを備え、
前記学習処理が行われた場合には、前記注目領域検出部は、前記特定処理部と置き換えられる請求項2記載の医療画像処理システム。
A learning data generation unit that generates learning data for training the area of interest detection unit by associating the medical image with the determination result of the area determination process.
It is provided with a specific processing unit that is subjected to learning processing for improving the detection accuracy of the region of interest using the learning data.
The medical image processing system according to claim 2, wherein when the learning process is performed, the area of interest detection unit is replaced with the specific processing unit.
前記注目領域の選択に関するユーザーの操作を受け付ける領域選択操作部を備え、
前記注目領域選択部は、
前記領域選択操作部が操作されたタイミングにおいて前記視線ポイントが入っている注目領域を、前記第1注目領域として選択する請求項1ないし4いずれか1項記載の医療画像処理システム。
It is provided with an area selection operation unit that accepts a user's operation regarding the selection of the area of interest.
The area of interest selection unit
The medical image processing system according to any one of claims 1 to 4, wherein the region of interest containing the line-of-sight point at the timing when the region selection operation unit is operated is selected as the first region of interest.
前記視線ポイントが前記注目領域に入っている時間を観察時間として計測する観察時間計測部を備え、
前記注目領域選択部は、前記観察時間が特定の観察時間を超えた注目領域を、第1注目領域として選択する請求項1ないし4いずれか1項記載の医療画像処理システム。
It is provided with an observation time measuring unit that measures the time when the line-of-sight point is in the area of interest as the observation time.
The medical image processing system according to any one of claims 1 to 4, wherein the attention region selection unit selects an attention region whose observation time exceeds a specific observation time as a first attention region.
前記医療画像は、白色帯域の光、又は前記白色帯域の光として複数の波長帯域の光を照射して得られた通常光画像である請求項1ないし6いずれか1項記載の医療画像処理システム。 The medical image processing system according to any one of claims 1 to 6, wherein the medical image is a white band light or a normal light image obtained by irradiating light of a plurality of wavelength bands as the white band light. .. 前記医療画像は、特定の波長帯域の光を照射して得た特殊光画像であり、
前記特定の波長帯域の光は白色帯域よりも狭い帯域である請求項1ないし6いずれか1項記載の医療画像処理システム。
The medical image is a special optical image obtained by irradiating light in a specific wavelength band.
The medical image processing system according to any one of claims 1 to 6, wherein the light in the specific wavelength band is a band narrower than the white band.
前記医療画像は生体内を写した生体内画像であり、
前記生体内画像は、生体内の蛍光物質が発する蛍光の情報を有する請求項1ないし6いずれか1項記載の医療画像処理システム。
The medical image is an in-vivo image of the inside of the living body.
The medical image processing system according to any one of claims 1 to 6, wherein the in-vivo image has information on fluorescence emitted by a fluorescent substance in the living body.
前記医療画像は生体内を写した生体内画像であり、
前記生体内画像は赤外光の波長帯域を有する請求項1ないし6いずれか1項記載の医療画像処理システム。
The medical image is an in-vivo image of the inside of the living body.
The medical image processing system according to any one of claims 1 to 6, wherein the in-vivo image has a wavelength band of infrared light.
前記医療画像は、白色帯域の光、又は前記白色帯域の光として複数の波長帯域の光を照射して得られた通常光画像に基づいて得られ、特定の波長帯域の信号を有する特殊光画像である請求項1ないし6いずれか1項記載の医療画像処理システム。 The medical image is a special optical image obtained based on a white band light or a normal light image obtained by irradiating light of a plurality of wavelength bands as the white band light and having a signal of a specific wavelength band. The medical image processing system according to any one of claims 1 to 6. 前記医療画像は、白色帯域の光、又は前記白色帯域の光として複数の波長帯域の光を照射して得られた通常光画像と、特定の波長帯域の光を照射して得られる特殊光画像との少なくとも一方に基づく演算によって得られる演算画像である請求項1ないし6いずれか1項記載の医療画像処理システム。 The medical image is a normal light image obtained by irradiating light in a white band or light in a plurality of wavelength bands as light in the white band, and a special light image obtained by irradiating light in a specific wavelength band. The medical image processing system according to any one of claims 1 to 6, which is a calculated image obtained by an operation based on at least one of the above. 観察対象を撮像する内視鏡と、
前記内視鏡により観察対象を撮像して得られる医療画像を取得する画像取得部と、
前記医療画像から注目領域を検出する領域検出処理を行う注目領域検出部と、
前記医療画像において注目領域を表示する表示部と、
ユーザーが前記表示部に向けている視線が、前記表示部と交差する位置を表す視線ポイントを検出する視線検知部と、
複数の注目領域の中から前記視線ポイントが含まれる第1注目領域を選択する領域選択処理を行う注目領域選択部とを備える内視鏡システム。
An endoscope that captures the object to be observed and
An image acquisition unit that acquires a medical image obtained by imaging an observation target with the endoscope, and
A region detection unit that performs region detection processing to detect a region of interest from the medical image,
A display unit that displays a region of interest in the medical image,
A line-of-sight detection unit that detects a line-of-sight point indicating a position where the line of sight directed by the user toward the display unit intersects the display unit.
An endoscope system including an attention area selection unit that performs an area selection process for selecting a first attention area including the line-of-sight point from a plurality of attention areas.
請求項1ないし12いずれか1項記載の医療画像処理システムを有する診断支援装置。 A diagnostic support device having the medical image processing system according to any one of claims 1 to 12. 請求項1ないし12いずれか1項記載の医療画像処理システムを有する医療業務支援装置。 A medical business support device having the medical image processing system according to any one of claims 1 to 12.
JP2019550301A 2017-10-26 2018-10-25 Medical image processing system, endoscopy system, diagnostic support device, and medical business support device Active JP6850358B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017207059 2017-10-26
JP2017207059 2017-10-26
PCT/JP2018/039771 WO2019082993A1 (en) 2017-10-26 2018-10-25 Medical image processing system, endoscope system, diagnosis assistance device, and medical practice assistance device

Publications (2)

Publication Number Publication Date
JPWO2019082993A1 true JPWO2019082993A1 (en) 2020-11-12
JP6850358B2 JP6850358B2 (en) 2021-03-31

Family

ID=66247481

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019550301A Active JP6850358B2 (en) 2017-10-26 2018-10-25 Medical image processing system, endoscopy system, diagnostic support device, and medical business support device

Country Status (2)

Country Link
JP (1) JP6850358B2 (en)
WO (1) WO2019082993A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021029293A1 (en) * 2019-08-13 2021-02-18

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012249804A (en) * 2011-06-02 2012-12-20 Olympus Corp Fluorescence observation device
JP2015100479A (en) * 2013-11-22 2015-06-04 日立アロカメディカル株式会社 Ultrasonic image processor
JP2015136397A (en) * 2014-01-20 2015-07-30 富士フイルム株式会社 Endoscope system processor device, endoscope system, operation method for endoscope system processor device, and operation method for endoscope system
JP2016067778A (en) * 2014-09-30 2016-05-09 富士フイルム株式会社 Endoscope system, processor device, method for operating endoscope system, and method for operating processing device
WO2017038241A1 (en) * 2015-08-28 2017-03-09 富士フイルム株式会社 Instrument operation device, instrument operation method, and electronic instrument system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012249804A (en) * 2011-06-02 2012-12-20 Olympus Corp Fluorescence observation device
JP2015100479A (en) * 2013-11-22 2015-06-04 日立アロカメディカル株式会社 Ultrasonic image processor
JP2015136397A (en) * 2014-01-20 2015-07-30 富士フイルム株式会社 Endoscope system processor device, endoscope system, operation method for endoscope system processor device, and operation method for endoscope system
JP2016067778A (en) * 2014-09-30 2016-05-09 富士フイルム株式会社 Endoscope system, processor device, method for operating endoscope system, and method for operating processing device
WO2017038241A1 (en) * 2015-08-28 2017-03-09 富士フイルム株式会社 Instrument operation device, instrument operation method, and electronic instrument system

Also Published As

Publication number Publication date
JP6850358B2 (en) 2021-03-31
WO2019082993A1 (en) 2019-05-02

Similar Documents

Publication Publication Date Title
JP6785941B2 (en) Endoscopic system and how to operate it
US11426054B2 (en) Medical image processing system, endoscope system, diagnosis support apparatus, and medical service support apparatus
JP2017158670A (en) Blood vessel information acquisition device, endoscope system, and blood vessel information acquisition method
JP6538634B2 (en) PROCESSOR DEVICE, ENDOSCOPE SYSTEM, AND METHOD OF OPERATING PROCESSOR DEVICE
US20180218499A1 (en) Image processing apparatus, endoscope system, and image processing method
JP6796725B2 (en) Medical image processing system, endoscopy system, diagnostic support device, and medical business support device
JPWO2019012911A1 (en) Medical image processing device, endoscope system, diagnosis support device, and medical service support device
US10869590B2 (en) Endoscope system, processor device, and operation method of endoscope system
US11064864B2 (en) Processor device, endoscope system, and method of operating processor device
US10702136B2 (en) Endoscope system, processor device, and method for operating endoscope system
US20180206738A1 (en) Endoscope system and method of operating endoscope system
JP6924837B2 (en) Medical image processing system, endoscopy system, diagnostic support device, and medical service support device
JP2020065685A (en) Endoscope system
JP6850358B2 (en) Medical image processing system, endoscopy system, diagnostic support device, and medical business support device
US20190246874A1 (en) Processor device, endoscope system, and method of operating processor device
US20180235527A1 (en) Endoscope system, processor device, and operation method of endoscope system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200326

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210305

R150 Certificate of patent or registration of utility model

Ref document number: 6850358

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250