JPWO2020152758A1 - Image processing device, diagnostic support method and image processing program - Google Patents

Image processing device, diagnostic support method and image processing program Download PDF

Info

Publication number
JPWO2020152758A1
JPWO2020152758A1 JP2020567685A JP2020567685A JPWO2020152758A1 JP WO2020152758 A1 JPWO2020152758 A1 JP WO2020152758A1 JP 2020567685 A JP2020567685 A JP 2020567685A JP 2020567685 A JP2020567685 A JP 2020567685A JP WO2020152758 A1 JPWO2020152758 A1 JP WO2020152758A1
Authority
JP
Japan
Prior art keywords
unit
analysis unit
analysis
result
fatigue
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020567685A
Other languages
Japanese (ja)
Other versions
JP7189969B2 (en
Inventor
光隆 木村
大和 神田
明広 窪田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Publication of JPWO2020152758A1 publication Critical patent/JPWO2020152758A1/en
Application granted granted Critical
Publication of JP7189969B2 publication Critical patent/JP7189969B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00006Operational features of endoscopes characterised by electronic signal processing of control signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00055Operational features of endoscopes provided with output arrangements for alerting the user
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00062Operational features of endoscopes provided with means for preventing overuse

Abstract

内視鏡装置は、被検体の観察画像を入力するか又は前記観察画像及びシステム情報を入力する入力部と、前記観察画像から病変部候補を検出する検出部と、前記観察画像又はシステム情報から検査品質の低下リスクを推定するリスク推定部と、前記リスク推定部のリスク推定結果から病変部候補の報知態様を制御する報知制御部と、前記報知制御部の制御に従って前記病変部候補を報知する報知出力部と、を具備する。The endoscope device is an input unit for inputting an observation image of a subject or inputting the observation image and system information, a detection unit for detecting a lesion candidate from the observation image, and the observation image or system information. A risk estimation unit that estimates the risk of deterioration of inspection quality, a notification control unit that controls the notification mode of the lesion candidate from the risk estimation result of the risk estimation unit, and a notification control unit that notifies the lesion candidate according to the control of the notification control unit. It is equipped with a notification output unit.

Description

本発明は、内視鏡装置及び内視鏡システムに関する。 The present invention relates to an endoscope device and an endoscope system.

従来より、医療分野や工業用分野で内視鏡が広く利用されている。例えば、医療分野では、術者は、表示装置に表示された被検体内の内視鏡画像を見て病変部を発見及び識別し、病変部に対する処置具を用いた処理を行うことができる。 Conventionally, endoscopes have been widely used in the medical field and the industrial field. For example, in the medical field, an operator can find and identify a lesion by looking at an endoscopic image in a subject displayed on a display device, and can perform treatment on the lesion using a treatment tool.

術者が内視鏡画像を見る際に病変部の見落としを抑制するために、内視鏡画像から検出された病変部に、枠などのマーカを付与して強調表示させる画像処理装置は、一般的に広く知られている。 In order to prevent the operator from overlooking the lesion when viewing the endoscopic image, an image processing device that highlights the lesion detected from the endoscopic image by adding a marker such as a frame is generally used. Is widely known.

ところで、内視鏡観察においては、内視鏡により撮像される体腔内の被写体と、当該体腔内に挿入される当該内視鏡の挿入部との相対位置が常時変化し得るため、一旦検出された病変部を、全フレームで正しく検出することは難しく、病変部候補領域の見落としが生じやすい。そこで、日本国特開2006−255021号公報では、病変候補領域の見落としを防止するために、表示期間に基づいて表示強度を時間的に変化させる技術が提案されている。また、日本国特開2017−039364においては、ユーザの眠気状態を解析し、眠気(疲労)が低減されるように表示方法を変更することで、ユーザの運転操作ミスを抑制する技術が開示されている。 By the way, in endoscopic observation, the relative position between the subject in the body cavity imaged by the endoscope and the insertion portion of the endoscope inserted in the body cavity can constantly change, so that it is detected once. It is difficult to correctly detect the affected lesion in all frames, and the lesion candidate region is likely to be overlooked. Therefore, Japanese Patent Application Laid-Open No. 2006-255521 proposes a technique for temporally changing the display intensity based on the display period in order to prevent the lesion candidate region from being overlooked. Further, Japanese Patent Application Laid-Open No. 2017-039364 discloses a technique for suppressing a user's driving operation error by analyzing the drowsiness state of the user and changing the display method so as to reduce drowsiness (fatigue). ing.

しかしながら、日本国特開2006−255021号の提案では、ユーザのスキルや状態に関係なく表示を強調するため、ユーザによっては必要以上に強調される可能性があり、疲労度が増加して病変部候補領域を見落す可能性が増大し検査品質が低下する虞があるという欠点がある。 However, in the proposal of Japanese Patent Application Laid-Open No. 2006-255211, since the display is emphasized regardless of the skill and condition of the user, it may be emphasized more than necessary depending on the user, and the degree of fatigue increases and the lesion portion is affected. There is a drawback that the possibility of overlooking the candidate area increases and the inspection quality may deteriorate.

また、日本国特開2017−039364の提案では、色味の変更によって眠気状態を低減させるようになっており、内視鏡観察画像の色の変化により、検査品質がかえって低下する虞がある。 Further, in the proposal of Japanese Patent Application Laid-Open No. 2017-039364, the drowsiness state is reduced by changing the color, and there is a possibility that the inspection quality may be deteriorated due to the change in the color of the endoscopically observed image.

本発明は、観察画像そのものを変更することなく、ユーザの状態に応じて表示方法を変更することにより、病変部候補領域の見落としを防止することができる内視鏡装置及び内視鏡システムを提供することを目的とする。 The present invention provides an endoscopic device and an endoscopic system capable of preventing oversight of a lesion candidate region by changing the display method according to the user's condition without changing the observation image itself. The purpose is to do.

本発明の一態様による内視鏡装置は、被検体の観察画像を入力するか又は前記観察画像及びシステム情報を入力する入力部と、前記観察画像から病変部候補を検出する検出部と、 前記観察画像又はシステム情報から検査品質の低下リスクを推定するリスク推定部と、前記リスク推定部のリスク推定結果から病変部候補の報知態様を制御する報知制御部と、前記報知制御部の制御に従って前記病変部候補を報知する報知出力部と、を具備する。 The endoscope device according to one aspect of the present invention includes an input unit for inputting an observation image of a subject or inputting the observation image and system information, a detection unit for detecting a lesion candidate from the observation image, and the above-mentioned. The risk estimation unit that estimates the risk of deterioration of inspection quality from the observation image or system information, the notification control unit that controls the notification mode of the lesion candidate from the risk estimation result of the risk estimation unit, and the notification control unit according to the control of the notification control unit. It is provided with a notification output unit for notifying a lesion candidate.

本発明の他の態様による内視鏡システムは、被検体を撮像して撮像信号を出力する内視鏡と、前記内視鏡の撮像信号に基づく観察画像を生成するビデオプロセッサと、前記ビデオプロセッサから前記観察画像を入力するか又は前記観察画像及びシステム情報を入力する入力部と、前記観察画像から病変部候補を検出する検出部と、 前記観察画像又はシステム情報から検査品質の低下リスクを推定するリスク推定部と、前記リスク推定部のリスク推定結果から病変部候補の報知態様を制御する報知制御部と、前記報知制御部の制御に従って前記病変部候補を報知する報知出力部と、を具備する。 The endoscope system according to another aspect of the present invention includes an endoscope that images a subject and outputs an image pickup signal, a video processor that generates an observation image based on the image pickup signal of the endoscope, and the video processor. The input unit for inputting the observation image or the observation image and the system information from the observation image, the detection unit for detecting the lesion candidate from the observation image, and the risk of deterioration of the inspection quality estimated from the observation image or the system information. A notification control unit that controls the notification mode of the lesion candidate from the risk estimation result of the risk estimation unit, and a notification output unit that notifies the lesion candidate according to the control of the notification control unit. do.

第1の実施形態に係る内視鏡装置を含む内視鏡システムの要部の構成を示す図。The figure which shows the structure of the main part of the endoscope system including the endoscope apparatus which concerns on 1st Embodiment. 図1中の画像処理装置40の具体的な構成の一例を示すブロック図。The block diagram which shows an example of the specific structure of the image processing apparatus 40 in FIG. 第1の実施形態を説明するためのフローチャート。The flowchart for demonstrating the 1st Embodiment. 本発明の第2の実施形態を示すブロック図。The block diagram which shows the 2nd Embodiment of this invention. 検出マーカ情報生成部82の具体的な構成の一例を示すブロック図。The block diagram which shows an example of the specific structure of the detection marker information generation part 82. 第2の実施形態の動作を説明するためのフローチャート。The flowchart for demonstrating the operation of 2nd Embodiment. 第2の実施形態の動作を説明するためのフローチャート。The flowchart for demonstrating the operation of 2nd Embodiment. 第2の実施形態の動作を説明するためのフローチャート。The flowchart for demonstrating the operation of 2nd Embodiment. 第2の実施形態の動作を説明するためのフローチャート。The flowchart for demonstrating the operation of 2nd Embodiment. 表示例を説明するための説明図。An explanatory diagram for explaining a display example. 本発明の第3の実施形態を示すブロック図。The block diagram which shows the 3rd Embodiment of this invention. 第3の実施形態の動作を説明するためのフローチャート。The flowchart for demonstrating the operation of 3rd Embodiment. 本発明の第4の実施形態を示すブロック図。The block diagram which shows the 4th Embodiment of this invention. 第4の実施形態の動作を説明するためのフローチャート。The flowchart for demonstrating the operation of 4th Embodiment. 本発明の第5の実施形態を示すブロック図。The block diagram which shows the 5th Embodiment of this invention. 第5の実施形態の動作を説明するためのフローチャート。The flowchart for demonstrating the operation of the 5th Embodiment. 第5の実施形態の動作を説明するためのフローチャート。The flowchart for demonstrating the operation of the 5th Embodiment. 本発明の第6の実施形態を示すブロック図。The block diagram which shows the 6th Embodiment of this invention. 第6の実施形態の動作を説明するためのフローチャート。The flowchart for demonstrating the operation of the 6th Embodiment. 本発明の第7の実施形態を示すブロック図。The block diagram which shows the 7th Embodiment of this invention. 第7の実施形態の動作を説明するためのフローチャート。The flowchart for demonstrating the operation of 7th Embodiment.

以下、図面を参照して本発明の実施形態について詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

(第1の実施形態)
図1は第1の実施形態に係る内視鏡装置を含む内視鏡システムの要部の構成を示す図である。本実施形態は、例えば、ユーザの経歴や検査状況等を解析することにより、検査品質が低下しそうな状況(リスク)を判断し、この判断に従って、検査品質の低下を抑制するために表示方法の変更を行うものである。これにより、本実施形態においては、例えば、ユーザの病変部候補の見落としを防止することができ、検査品質を向上させる効果がある。
(First Embodiment)
FIG. 1 is a diagram showing a configuration of a main part of an endoscope system including the endoscope device according to the first embodiment. In this embodiment, for example, by analyzing the user's background, inspection status, etc., a situation (risk) in which the inspection quality is likely to deteriorate is determined, and according to this determination, the display method is used to suppress the deterioration of the inspection quality. It is for making changes. Thereby, in the present embodiment, for example, it is possible to prevent the user from overlooking the lesion candidate, and there is an effect of improving the inspection quality.

図1に示すように、内視鏡システム1は、光源駆動装置11と、内視鏡21と、ビデオプロセッサ31と、画像処理装置40と、表示装置95と、を有して構成されている。 As shown in FIG. 1, the endoscope system 1 includes a light source driving device 11, an endoscope 21, a video processor 31, an image processing device 40, and a display device 95. ..

光源駆動装置11は、例えば、ドライブ回路を具備して構成されている。また、光源駆動装置11は、内視鏡21及びビデオプロセッサ31に接続されている。また、光源駆動装置11は、ビデオプロセッサ31からの光源制御信号に基づき、内視鏡21の光源部23を駆動させるための光源駆動信号を生成し、当該生成した光源駆動信号を内視鏡21へ出力するように構成されている。 The light source driving device 11 is configured to include, for example, a drive circuit. Further, the light source driving device 11 is connected to the endoscope 21 and the video processor 31. Further, the light source driving device 11 generates a light source driving signal for driving the light source unit 23 of the endoscope 21 based on the light source control signal from the video processor 31, and the generated light source driving signal is used as the endoscope 21. It is configured to output to.

内視鏡21は、光源駆動装置11及びビデオプロセッサ31に接続されている。また、内視鏡21は、被検者の体腔内に挿入可能な細長形状の挿入部22を有して構成されている。また、挿入部22の先端部には、光源部23と、撮像部24と、が設けられている。 The endoscope 21 is connected to the light source driving device 11 and the video processor 31. Further, the endoscope 21 is configured to have an elongated insertion portion 22 that can be inserted into the body cavity of the subject. Further, a light source unit 23 and an image pickup unit 24 are provided at the tip end portion of the insertion unit 22.

光源部23は、例えば、白色LED等の発光素子を具備して構成されている。また、光源部23は、光源駆動装置11から出力される光源駆動信号に応じて発光することにより照明光を発生し、当該発生した照明光を生体組織等の被写体へ出射するように構成されている。 The light source unit 23 is configured to include, for example, a light emitting element such as a white LED. Further, the light source unit 23 is configured to generate illumination light by emitting light in response to a light source drive signal output from the light source drive device 11, and emit the generated illumination light to a subject such as a living tissue. There is.

撮像部24は、例えば、カラーCCDまたはカラーCMOS等のイメージセンサを有して構成されている。また、撮像部24は、ビデオプロセッサ31から出力される撮像制御信号に応じた動作を行うように構成されている。また、撮像部24は、光源部23からの照明光により照明された被写体からの反射光を受光し、当該受光した反射光を撮像して撮像信号を生成し、当該生成した撮像信号をビデオプロセッサ31へ出力するように構成されている。 The image pickup unit 24 includes, for example, an image sensor such as a color CCD or a color CMOS. Further, the image pickup unit 24 is configured to perform an operation according to an image pickup control signal output from the video processor 31. Further, the image pickup unit 24 receives the reflected light from the subject illuminated by the illumination light from the light source unit 23, images the received reflected light, generates an image pickup signal, and uses the generated image pickup signal as a video processor. It is configured to output to 31.

ビデオプロセッサ31は、光源駆動装置11及び内視鏡21に接続されている。また、ビデオプロセッサ31は、光源部23の発光状態を制御するための光源制御信号を生成して光源駆動装置11へ出力するように構成されている。また、ビデオプロセッサ31は、撮像部24の撮像動作を制御するための撮像制御信号を生成して出力するように構成されている。また、ビデオプロセッサ31は、内視鏡21から出力される撮像信号に対して所定の処理を施すことにより被写体の観察画像を生成する。そして、当該生成した観察画像に対して強調処理やホワイトバランス補正処理を施した後、画像処理装置40へ1フレームずつ順次出力するように構成されている。 The video processor 31 is connected to the light source driving device 11 and the endoscope 21. Further, the video processor 31 is configured to generate a light source control signal for controlling the light emitting state of the light source unit 23 and output it to the light source driving device 11. Further, the video processor 31 is configured to generate and output an image pickup control signal for controlling the image pickup operation of the image pickup unit 24. Further, the video processor 31 generates an observation image of the subject by performing a predetermined process on the image pickup signal output from the endoscope 21. Then, after the generated observation image is subjected to enhancement processing and white balance correction processing, it is configured to be sequentially output frame by frame to the image processing device 40.

画像処理装置40は、画像処理回路等の電子回路を具備して構成されている。また、画像処理装置40は、ビデオプロセッサ31から出力される観察画像に基づいて表示用画像を生成し、当該生成した表示用画像を表示装置95に表示させるための動作を行うように構成されている。 The image processing device 40 is configured to include an electronic circuit such as an image processing circuit. Further, the image processing device 40 is configured to generate a display image based on the observation image output from the video processor 31 and perform an operation for displaying the generated display image on the display device 95. There is.

表示装置95は、モニタ等を具備し、画像処理装置40から出力される表示用画像を表示することができるように構成されている。 The display device 95 includes a monitor and the like, and is configured to be able to display a display image output from the image processing device 40.

図2は図1中の画像処理装置40の具体的な構成の一例を示すブロック図である。 FIG. 2 is a block diagram showing an example of a specific configuration of the image processing device 40 in FIG.

図2に示すように、画像処理装置40は、入力部50と、診断支援部60と、リスク推定部70と、報知制御部80と、報知出力部90と、を有して構成されている。なお、診断支援部60、リスク推定部70及び報知制御部80は、CPUやFPGA等を用いたプロセッサによって構成されていてもよく、図示しないメモリに記憶されたプログラムに従って動作して各部を制御するものであってもよいし、ハードウェアの電子回路で機能の一部又は全部を実現するものであってもよい。 As shown in FIG. 2, the image processing device 40 includes an input unit 50, a diagnosis support unit 60, a risk estimation unit 70, a notification control unit 80, and a notification output unit 90. .. The diagnosis support unit 60, the risk estimation unit 70, and the notification control unit 80 may be configured by a processor using a CPU, FPGA, or the like, and operate according to a program stored in a memory (not shown) to control each unit. It may be a device, or it may be a hardware electronic circuit that realizes a part or all of the functions.

入力部50は、ビデオプロセッサ31から入力される観察画像を取り込んで、診断支援部60に出力する。また、入力部50は、ビデオプロセッサ31からシステム情報を取り込むようになっていてもよい。なお、システム情報は、観察画像のヘッダ情報に含まれて入力される場合もあり、また、観察画像とは別のデータとして入力される場合もある。本実施形態においては、システム情報は、ユーザの履歴や検査状況を示す情報を含む。入力部50は、入力された観察画像を診断支援部60及びリスク推定部70に出力する。また、入力部50は、観察画像とは別にシステム情報が入力された場合には、入力されたシステム情報をリスク推定部70に出力するようになっている。 The input unit 50 takes in the observation image input from the video processor 31 and outputs it to the diagnosis support unit 60. Further, the input unit 50 may be adapted to take in system information from the video processor 31. The system information may be included in the header information of the observation image and input, or may be input as data different from the observation image. In the present embodiment, the system information includes information indicating a user's history and inspection status. The input unit 50 outputs the input observation image to the diagnosis support unit 60 and the risk estimation unit 70. Further, when the system information is input separately from the observation image, the input unit 50 outputs the input system information to the risk estimation unit 70.

診断支援部60は、公知の手法により、入力された観察画像に基づいて病変部候補を検出するように構成されている。診断支援部60は、検出した病変部候補の情報を報知制御部80に出力する。 The diagnosis support unit 60 is configured to detect a lesion candidate based on an input observation image by a known method. The diagnosis support unit 60 outputs the detected lesion candidate information to the notification control unit 80.

報知制御部80は、入力部50から観察画像が与えられ、診断支援部60から病変部候補の情報が与えられて、観察画像中に、診断支援部60によって検出された病変部候補の検出結果を報知するための情報を生成する。報知制御部80は、生成した情報を報知出力部90に出力する。報知出力部90は、報知制御部80からの情報に基づいて、病変部候補の検出結果をユーザに報知するようになっている。例えば、報知出力部90は、画像による報知、音声による報知等によって、病変部候補の検出結果をユーザに報知する。 The notification control unit 80 is given an observation image from the input unit 50, information on the lesion candidate is given from the diagnosis support unit 60, and the detection result of the lesion candidate detected by the diagnosis support unit 60 in the observation image. Generates information to inform. The notification control unit 80 outputs the generated information to the notification output unit 90. The notification output unit 90 notifies the user of the detection result of the lesion site candidate based on the information from the notification control unit 80. For example, the notification output unit 90 notifies the user of the detection result of the lesion portion candidate by notification by image, notification by voice, or the like.

例えば、報知出力部90が画像による報知を行う場合には、報知制御部80は、病変部候補の位置を示す画像(以下、検出マーカという)を観察画像に重ねて表示するための情報を生成して報知出力部90に出力する。報知出力部90は、報知制御部80からの情報に基づく検出マーカの画像を、入力部50からの観察画像に合成した表示用画像を生成する。報知出力部90は、生成した表示用画像を表示装置95に与えて表示画面95aに表示させる。
この場合には、医者等は、表示装置95の表示画面95a上に表示された観察画像及び検出マーカによって、診断支援部60によって検出された病変部候補を参考にし、最終的な判断を行う。この場合において、観察画像を観察する医者等の経験や疲労度等に応じて、検出マーカの見落としが生じたり、注意力が削がれたりする可能性がある。なお、報知が音声で行われる場合にも同様の問題がある。例えば、音量の大きさや報知期間によっては、聞き取り誤りが生じたり、音声によって注意力が削がれたりする等の問題がある。
For example, when the notification output unit 90 performs notification by an image, the notification control unit 80 generates information for displaying an image showing the position of a lesion candidate (hereinafter referred to as a detection marker) on the observation image. And output to the notification output unit 90. The notification output unit 90 generates a display image in which the image of the detection marker based on the information from the notification control unit 80 is combined with the observation image from the input unit 50. The notification output unit 90 gives the generated display image to the display device 95 and displays it on the display screen 95a.
In this case, the doctor or the like makes a final judgment with reference to the lesion candidate detected by the diagnosis support unit 60 by the observation image and the detection marker displayed on the display screen 95a of the display device 95. In this case, depending on the experience of the doctor or the like observing the observation image, the degree of fatigue, etc., the detection marker may be overlooked or attention may be reduced. It should be noted that there is a similar problem when the notification is performed by voice. For example, depending on the loudness of the volume and the notification period, there are problems such as a listening error and a loss of attention due to voice.

そこで、本実施形態においては、報知制御部80による報知の報知態様をユーザに応じて最適化するためにリスク推定部70が設けられている。リスク推定部70は、観察画像に基づいて、検査品質が低下するリスクを推定し、リスクの推定結果を報知制御部80に出力するようになっている。なお、リスク推定部70は、システム情報を用いて検査品質が低下するリスクを推定するようになっていてもよい。即ち、リスク推定部70は、観察画像及びシステム情報の少なくとも一方に基づいてリスクを推定する。 Therefore, in the present embodiment, the risk estimation unit 70 is provided in order to optimize the notification mode of the notification by the notification control unit 80 according to the user. The risk estimation unit 70 estimates the risk of deterioration of inspection quality based on the observation image, and outputs the risk estimation result to the notification control unit 80. The risk estimation unit 70 may use system information to estimate the risk of deterioration of inspection quality. That is, the risk estimation unit 70 estimates the risk based on at least one of the observation image and the system information.

例えば、リスク推定部70は、観察画像やシステム情報に基づいて、ユーザの疲労度や経験レベルの解析結果を、検査品質が低下するリスクの推定結果として用いてもよい。リスク推定部70は、見落としを防止するするように、報知態様を変更するためのリスク推定結果を発生する。 For example, the risk estimation unit 70 may use the analysis result of the user's fatigue level and experience level as the risk estimation result of deterioration of the inspection quality based on the observation image and the system information. The risk estimation unit 70 generates a risk estimation result for changing the notification mode so as to prevent oversight.

例えば、画像によって報知を行う場合には、リスク推定部70は、検出マーカの表示形態の変更制御を行うために、検査品質が低下するリスクを推定する。報知制御部80は、リスク推定結果に従って、検出マーカの表示形態をユーザに応じて最適化する。なお、以下の説明では、画像を用いて報知を行う例について説明するが、報知を音声によって行う場合にも同様の制御が可能である。 For example, in the case of performing notification by an image, the risk estimation unit 70 estimates the risk of deterioration of inspection quality in order to control the change of the display form of the detection marker. The notification control unit 80 optimizes the display form of the detection marker according to the user according to the risk estimation result. In the following description, an example in which notification is performed using an image will be described, but similar control is possible when notification is performed by voice.

報知制御部80は、リスク推定部70のリスク推定結果が与えられて、検出マーカの表示形態を変更するようになっている。報知制御部80は、検出マーカの表示、非表示によって病変部候補の検出の有無をユーザに認知させ、観察画像中の表示位置によって、病変部の体内の位置をユーザに認知させることができる。こうして、検出マーカは、例えばユーザの疲労度や経験レベルの解析結果であるリスク推定結果に対応する表示形態で表示されることになり、見落としを防止し、検査品質を向上させることができる。 The notification control unit 80 is given the risk estimation result of the risk estimation unit 70 to change the display form of the detection marker. The notification control unit 80 can make the user recognize the presence / absence of detection of the lesion candidate by displaying or hiding the detection marker, and can make the user recognize the position of the lesion in the body according to the display position in the observation image. In this way, the detection marker is displayed in a display form corresponding to the risk estimation result, which is the analysis result of the user's fatigue level or experience level, for example, and oversight can be prevented and the inspection quality can be improved.

次に、このように構成された実施形態の動作について図3を参照して説明する。図3は第1の実施形態を説明するためのフローチャートである。 Next, the operation of the embodiment configured in this way will be described with reference to FIG. FIG. 3 is a flowchart for explaining the first embodiment.

内視鏡21は、例えば、光源駆動装置11及びビデオプロセッサ31の電源が投入された際に、被写体へ照明光を出射し、当該被写体からの反射光を受光し、当該受光した反射光を撮像して撮像信号を生成し、当該生成した撮像信号をビデオプロセッサ31へ出力する。 For example, when the power of the light source driving device 11 and the video processor 31 is turned on, the endoscope 21 emits illumination light to the subject, receives the reflected light from the subject, and captures the received reflected light. The image pickup signal is generated, and the generated image pickup signal is output to the video processor 31.

ビデオプロセッサ31は、内視鏡21から出力される撮像信号に対して所定の処理を施すことにより被写体の観察画像を生成し、当該生成した観察画像を画像処理装置40へ1フレームずつ順次出力する。すなわち、入力部50は、ビデオプロセッサ31から生体内管腔画像である内視鏡画像(観察画像)を取得する(S1)。この観察画像のヘッダ情報中に、システム情報が含まれていてもよい。また、観察画像のヘッダ情報にシステム情報が含まれていない場合には、入力部50は、観察画像とは別にシステム情報を取り込むようになっていてもよい。なお、入力部50は、システム情報を含まない観察画像のみを取り込むようになっていてもよい。 The video processor 31 generates an observation image of the subject by performing predetermined processing on the image pickup signal output from the endoscope 21, and sequentially outputs the generated observation image to the image processing device 40 frame by frame. .. That is, the input unit 50 acquires an endoscopic image (observation image) which is an in-vivo lumen image from the video processor 31 (S1). System information may be included in the header information of this observation image. Further, when the header information of the observation image does not include the system information, the input unit 50 may take in the system information separately from the observation image. The input unit 50 may be configured to capture only the observation image that does not include the system information.

次に、ステップS2において、診断支援部60は、入力部50から観察画像が与えられ、観察画像から病変部候補を検出し、検出結果を報知制御部80に出力する。 Next, in step S2, the diagnosis support unit 60 is given an observation image from the input unit 50, detects a lesion candidate from the observation image, and outputs the detection result to the notification control unit 80.

また、ステップS3において、リスク推定部70は、入力部50から観察画像及びシステム情報の少なくとも一方が与えられて、検査品質が低下するリスクを推定する。リスク推定部70はリスクの推定結果を報知制御部80に出力する。なお、ステップS2,S3は、ステップS3,S2の順に実行されてもよく、同時に実行されてもよい。 Further, in step S3, the risk estimation unit 70 estimates the risk that the inspection quality is deteriorated by being given at least one of the observation image and the system information from the input unit 50. The risk estimation unit 70 outputs the risk estimation result to the notification control unit 80. It should be noted that steps S2 and S3 may be executed in the order of steps S3 and S2, or may be executed at the same time.

報知制御部80は、入力部50から与えられた観察画像上に、診断支援部60により検出された病変部候補を特定するための検出マーカを表示させるための情報を生成する。本実施形態においては、報知制御部80は、リスク推定部70によるリスクの推定結果に応じた表示形態の検出マーカを表示するための情報を生成する(S4)。 The notification control unit 80 generates information for displaying a detection marker for identifying a lesion candidate detected by the diagnosis support unit 60 on the observation image given from the input unit 50. In the present embodiment, the notification control unit 80 generates information for displaying the detection marker in the display form according to the risk estimation result by the risk estimation unit 70 (S4).

報知制御部80からの情報に基づいて報知出力部90は検出マーカを表示装置の表示画面95a上に表示する(S5)。 Based on the information from the notification control unit 80, the notification output unit 90 displays the detection marker on the display screen 95a of the display device (S5).

このように本実施形態においては、検査品質が低下するリスクを推定し、この推定結果に従って、検査品質の低下を抑制するために表示方法の変更を行う。これにより、検査品質を向上させることができる。 As described above, in the present embodiment, the risk of deterioration of inspection quality is estimated, and the display method is changed in order to suppress the deterioration of inspection quality according to the estimation result. Thereby, the inspection quality can be improved.

(第2の実施形態)
図4は本発明の第2の実施形態を示すブロック図である。本実施形態の内視鏡システムは、画像処理装置40に代えて画像処理装置41を採用した点が図1と異なる。図4は画像処理装置41の具体的な構成の一例を示している。本実施形態は検査品質が低下するリスクをユーザの疲労度の解析によって推定する例である。
(Second embodiment)
FIG. 4 is a block diagram showing a second embodiment of the present invention. The endoscope system of the present embodiment is different from FIG. 1 in that the image processing device 41 is used instead of the image processing device 40. FIG. 4 shows an example of a specific configuration of the image processing device 41. This embodiment is an example of estimating the risk of deterioration of inspection quality by analyzing the degree of fatigue of the user.

図4における入力部50の構成は図2と同様である。本実施形態においては、報知制御部80の具体例として表示制御部81を採用し、報知出力部90の具体例として表示出力部91を採用する例について説明する。 The configuration of the input unit 50 in FIG. 4 is the same as that in FIG. In the present embodiment, an example in which the display control unit 81 is adopted as a specific example of the notification control unit 80 and the display output unit 91 is adopted as a specific example of the notification output unit 90 will be described.

入力部50は、観察画像を診断支援部60及び表示制御部81に出力する。また、入力部50は、観察画像及びシステム情報の少なくとも一方をリスク推定部70に出力する。また、表示出力部91は、表示制御部81からの表示用画像を表示装置95の表示画面95aに表示させる。 The input unit 50 outputs the observation image to the diagnosis support unit 60 and the display control unit 81. Further, the input unit 50 outputs at least one of the observation image and the system information to the risk estimation unit 70. Further, the display output unit 91 displays the display image from the display control unit 81 on the display screen 95a of the display device 95.

本実施形態においては、診断支援部60は、病変部候補検出部61を有している。病変部候補検出部61は、入力部50から順次出力される観察画像に含まれる病変部候補を検出するように構成されている。病変部候補検出部61は、例えば、ディープラーニング等の学習手法で病変部候補を鑑別可能な機能を予め取得した画像鑑別器を観察画像に対して適用する処理を行うことにより、当該観察画像から病変部候補を検出する。なお、病変部候補の検出は、上記に示す学習手法に限定されず、他の手法を用いてもよい。例えば、特開2007−244518号公報に開示のようなポリープ候補検出処理などを用いてもよい。 In the present embodiment, the diagnosis support unit 60 has a lesion region candidate detection unit 61. The lesion candidate detection unit 61 is configured to detect the lesion candidate included in the observation images sequentially output from the input unit 50. The lesion candidate detection unit 61 performs a process of applying an image discriminator having previously acquired a function capable of discriminating lesion candidate by a learning method such as deep learning to an observation image, from the observation image. Detect lesion candidate. The detection of the lesion candidate is not limited to the learning method shown above, and other methods may be used. For example, a polyp candidate detection process as disclosed in Japanese Patent Application Laid-Open No. 2007-24518 may be used.

病変部候補検出部61は、検出した病変部候補の観察画像上の領域(以下、病変部候補領域という)を判定し、当該病変部候補領域を示す情報を病変部候補の検出結果として表示制御部81に出力するようになっている。 The lesion candidate detection unit 61 determines a region on the observed image of the detected lesion candidate (hereinafter referred to as a lesion candidate region), and displays and controls information indicating the lesion candidate region as a detection result of the lesion candidate. It is designed to output to unit 81.

表示制御部81は、検出マーカ情報生成部82を有している。検出マーカ情報生成部82は、病変部候補領域を示す情報が与えられて、診断支援部60において検出された病変部候補の存在をユーザに認知させるために、例えば、観察画像中の病変部候補の領域を囲む画像(検出マーカ)を生成するための情報を生成して表示出力部91に出力する。
表示出力部91は、画像合成部92を有している。画像合成部92は、表示制御部81からの情報に基づいて、入力部50からの観察画像中に検出マーカを重畳した表示用画像を生成して表示装置95に出力する。
The display control unit 81 has a detection marker information generation unit 82. The detection marker information generation unit 82 is given information indicating a lesion site candidate region, and in order to make the user aware of the existence of the lesion site candidate detected by the diagnosis support unit 60, for example, the lesion site candidate in the observation image. Information for generating an image (detection marker) surrounding the area of is generated and output to the display output unit 91.
The display output unit 91 has an image composition unit 92. Based on the information from the display control unit 81, the image composition unit 92 generates a display image in which the detection marker is superimposed on the observation image from the input unit 50 and outputs the display image to the display device 95.

検出マーカ情報生成部82の情報により生成される検出マーカは、病変部候補の存在をユーザに視覚的に認知させるために必要な形態を有している。例えば、検出マーカの形状としては、四角形、三角形、円形、星形等であってもよく、他の任意の形状でもよい場合がある。また、検出マーカは、病変部候補の存在及び位置を示すことができるものであれば、病変部候補を囲まない画像であっても構わない。更には、検出マーカ情報生成部82は、支援情報として病変部を示すメッセージを生成し、病変部の近傍にポップアップメッセージなどの形式で表示することによって、その存在を示してもよい。 The detection marker generated by the information of the detection marker information generation unit 82 has a form necessary for the user to visually recognize the existence of the lesion site candidate. For example, the shape of the detection marker may be a quadrangle, a triangle, a circle, a star, or the like, or any other shape may be used. Further, the detection marker may be an image that does not surround the lesion candidate as long as it can indicate the existence and position of the lesion candidate. Further, the detection marker information generation unit 82 may generate a message indicating the lesion portion as support information and display the message in the vicinity of the lesion portion in the form of a pop-up message or the like to indicate its existence.

本実施形態においては、検出マーカ情報生成部82は、リスク推定部70からのリスク推定結果に基づいて、検出マーカの表示形態を変更するようになっている。即ち、検出マーカ情報生成部82は、病変部候補の存在を容易に認知させ、且つ、なるべく観察画像を確認の妨げとならないように、表示形態を変更する。この場合において、本実施形態においては、リスク推定部70は、ユーザの疲労度の解析に基づくリスク推定結果に従って、検出マーカ情報生成部82による表示形態の変更を制御するようになっている。 In the present embodiment, the detection marker information generation unit 82 changes the display form of the detection marker based on the risk estimation result from the risk estimation unit 70. That is, the detection marker information generation unit 82 changes the display form so that the existence of the lesion site candidate is easily recognized and the observation image is not hindered from confirmation as much as possible. In this case, in the present embodiment, the risk estimation unit 70 controls the change of the display form by the detection marker information generation unit 82 according to the risk estimation result based on the analysis of the user's fatigue level.

リスク推定部70は、疲労度解析部71を有している。疲労度解析部71は、ユーザの疲労度を解析して解析結果を得る。リスク推定部70は、疲労度解析部71の解析結果をリスク推定結果として用いてもよい。本実施形態においては、疲労度解析部71は、操作ログ解析部73によって構成される。操作ログ解析部73は、内視鏡21の操作ログを解析することで、ユーザの疲労度を解析する。本実施形態では、一例として、操作ログ解析部73は、持ち変え回数解析部73a及びひねり回数解析部73bによって構成する。 The risk estimation unit 70 has a fatigue degree analysis unit 71. The fatigue degree analysis unit 71 analyzes the user's fatigue degree and obtains an analysis result. The risk estimation unit 70 may use the analysis result of the fatigue degree analysis unit 71 as the risk estimation result. In the present embodiment, the fatigue degree analysis unit 71 is composed of the operation log analysis unit 73. The operation log analysis unit 73 analyzes the user's fatigue level by analyzing the operation log of the endoscope 21. In the present embodiment, as an example, the operation log analysis unit 73 is composed of a holding number analysis unit 73a and a twist number analysis unit 73b.

持ち変え回数解析部73aは、内視鏡21の操作ログにより、内視鏡21の持ち換え回数を解析するようになっている。例えば、持ち変え回数解析部73aは、所定の方法で取得された任意期間において、ユーザが内視鏡21の挿入部22を持ち変えた回数を求める。挿入部22を持ち変えるユーザの行為は、挿入部22からユーザの手が離れることから、例えば、観察画像が揺れる等の変化となって現れる。例えば、持ち変え回数解析部73aは、観察画像に対する画像解析によって、このような観察画像の変化を検出することで、ユーザが挿入部22を持ち変えたことを解析し、その回数を取得するようになっていてもよい。また、例えば、挿入部22に図示しない加速度センサ等を取り付けることによって、この加速度センサの出力の解析により、持ち変え回数を解析することも可能である。リスク推定部70は、このような加速度センサの出力をシステム情報として取得することにより、持ち変え回数を解析してもよい。
なお、上記任意期間を含む期間の情報は、種々の方法で取得することができる。画像処理装置40及び後述の各画像処理装置は、設定する期間を、図示しないタイマやセンサ等のデバイスから取得してもよく、画像情報中に含まれる撮影時間の情報から取得してもよく、また、ユーザ設定に基づくシステム情報より取得してもよい。
The holding change number analysis unit 73a analyzes the holding number of holdings of the endoscope 21 based on the operation log of the endoscope 21. For example, the change-of-holding number analysis unit 73a obtains the number of times the user has changed the insertion unit 22 of the endoscope 21 in an arbitrary period acquired by a predetermined method. The user's action of changing the insertion unit 22 appears as a change such as the observation image shaking because the user's hand is separated from the insertion unit 22. For example, the holding change number analysis unit 73a analyzes that the user has changed the insertion unit 22 by detecting such a change in the observation image by image analysis on the observation image, and acquires the number of times. It may be. Further, for example, by attaching an acceleration sensor or the like (not shown) to the insertion portion 22, it is possible to analyze the number of changes in holding by analyzing the output of the acceleration sensor. The risk estimation unit 70 may analyze the number of changes in holding by acquiring the output of such an acceleration sensor as system information.
Information on the period including the above-mentioned arbitrary period can be obtained by various methods. The image processing device 40 and each image processing device described later may acquire the set period from a device such as a timer or a sensor (not shown), or may acquire it from the information of the shooting time included in the image information. Further, it may be acquired from the system information based on the user setting.

また、ひねり回数解析部73bは、内視鏡21の操作ログにより、内視鏡21のひねり回数を解析するようになっている。例えば、ひねり回数解析部73bは、図示しないタイマを備えており、任意期間において、ユーザが内視鏡21の挿入部22をひねった回数を求める。挿入部22をひねるユーザの行為は、挿入部22が回転することから、観察画像が回転する変化となって現れる。例えば、ひねり回数解析部73bは、観察画像に対する画像解析によって、このような観察画像の変化を検出することで、ユーザが挿入部22をひねったことを解析し、その回数を取得するようになっていてもよい。また、例えば、挿入部22に図示しないジャイロセンサ等を取り付けることによって、このジャイロセンサの出力の解析により、ひねり回数を解析することも可能である。リスク推定部70は、このようなジャイロセンサの出力をシステム情報として取得することにより、ひねり回数を解析してもよい。 Further, the twist count analysis unit 73b analyzes the number of twists of the endoscope 21 based on the operation log of the endoscope 21. For example, the twist number analysis unit 73b includes a timer (not shown), and obtains the number of times the user twists the insertion unit 22 of the endoscope 21 in an arbitrary period. The user's action of twisting the insertion portion 22 appears as a change in which the observation image rotates because the insertion portion 22 rotates. For example, the twist number analysis unit 73b analyzes that the user has twisted the insertion unit 22 by detecting such a change in the observation image by image analysis on the observation image, and acquires the number of times. May be. Further, for example, by attaching a gyro sensor or the like (not shown) to the insertion portion 22, it is possible to analyze the number of twists by analyzing the output of the gyro sensor. The risk estimation unit 70 may analyze the number of twists by acquiring the output of such a gyro sensor as system information.

疲労度解析部71は、持ち変え回数解析部73aによって求めた持ち変え回数及びひねり回数解析部73bによって求めたひねり回数の少なくとも一方に応じてユーザの疲労度を解析し、解析結果をリスク推定結果としてもよい。例えば、疲労度解析部71は、ユーザの内視鏡21の持ち換え回数又はひねり回数が多いほど疲労度が高いものと判定し、検査品質の低下のリスクが高まったと推定してもよい。逆に、リスク推定部70は、ユーザの内視鏡21の持ち換え回数又はひねり回数が少ないほど疲労度が低いものと判定し、検査品質の低下のリスクが低いと推定してもよい。リスク推定部70からのユーザの疲労度に基づくリスク推定結果は、表示制御部81に供給される。 The fatigue degree analysis unit 71 analyzes the user's fatigue degree according to at least one of the number of times of change and the number of twists obtained by the number of twists analysis unit 73b obtained by the change number analysis unit 73a, and analyzes the analysis result as a risk estimation result. May be. For example, the fatigue degree analysis unit 71 may determine that the fatigue degree is higher as the number of times the user's endoscope 21 is changed or twisted is larger, and it may be estimated that the risk of deterioration of inspection quality is increased. On the contrary, the risk estimation unit 70 may determine that the degree of fatigue is lower as the number of times the endoscope is changed or twisted by the user is smaller, and it may be estimated that the risk of deterioration of the inspection quality is lower. The risk estimation result based on the user's fatigue level from the risk estimation unit 70 is supplied to the display control unit 81.

なお、本実施形態においては、操作ログ解析部73は、持ち変え回数解析部73a及びひねり回数解析部73bにより構成した例を説明したが、持ち変え回数解析部73a又はひねり回数解析部73bのいずれか一方によって構成してもよい。 In the present embodiment, the operation log analysis unit 73 has been described as an example configured by the change number analysis unit 73a and the twist number analysis unit 73b, but either the change number analysis unit 73a or the twist number analysis unit 73b has been described. It may be configured by either one.

図5は検出マーカ情報生成部82の具体的な構成の一例を示すブロック図である。 FIG. 5 is a block diagram showing an example of a specific configuration of the detection marker information generation unit 82.

図5では、検出マーカ情報生成部82が、表示時間制御部83及び表示内容制御部84によって構成される例を示している。表示時間制御部83は、入力されたリスク推定結果に基づいて、検出マーカの表示時間を変更する。例えば、表示時間制御部83は、リスク推定結果によって示されたユーザの疲労度に応じた表示時間を設定してもよい。例えば、ユーザの疲労度が高い程表示時間を長くし、ユーザの疲労度が短い程表示時間を短くすることができる。 FIG. 5 shows an example in which the detection marker information generation unit 82 is configured by the display time control unit 83 and the display content control unit 84. The display time control unit 83 changes the display time of the detection marker based on the input risk estimation result. For example, the display time control unit 83 may set the display time according to the degree of fatigue of the user indicated by the risk estimation result. For example, the higher the user's fatigue level, the longer the display time, and the shorter the user's fatigue level, the shorter the display time.

表示内容制御部84は、入力されたリスク推定結果に基づいて、検出マーカの表示の内容(質)を変更する。図5の例では、表示内容制御部84は、色調変更部84a及び表示判定レベル変更部84bにより構成されている。色調変更部84aは、入力されたリスク推定結果に基づいて、検出マーカの色調を変更する。例えば、色調変更部84aは、リスク推定結果によって示されたユーザの疲労度に応じた色調を設定してもよい。例えば、色調変更部84aは、ユーザの疲労度が高いほど検出マーカを目立つ色調に設定してもよい。例えば、色調変更部84aは、ユーザの疲労度が高い程、検出マーカの明度及び彩度を高く設定してもよい。この場合には、ユーザの疲労度が高い程、感覚的には検出マーカは目立った表示となる。逆に、ユーザの疲労度が低い程、感覚的には検出マーカは自然な色合いとすることもできる。 The display content control unit 84 changes the display content (quality) of the detection marker based on the input risk estimation result. In the example of FIG. 5, the display content control unit 84 is composed of a color tone changing unit 84a and a display determination level changing unit 84b. The color tone changing unit 84a changes the color tone of the detection marker based on the input risk estimation result. For example, the color tone changing unit 84a may set the color tone according to the degree of fatigue of the user indicated by the risk estimation result. For example, the color tone changing unit 84a may set the detection marker to a more conspicuous color tone as the degree of fatigue of the user increases. For example, the color tone changing unit 84a may set the brightness and saturation of the detection marker higher as the user's fatigue level increases. In this case, the higher the degree of fatigue of the user, the more conspicuous the detection marker is. On the contrary, the lower the degree of fatigue of the user, the more the detection marker can be sensuously made to have a natural color.

表示判定レベル変更部84bは、入力されたリスク推定結果に基づいて、検出マーカの表示非表示の判定レベル(以下、表示判定レベルという)を変更する。なお、表示判定レベルは、低い程表示されにくく、高い程表示されやすいものとして説明する。例えば、同一の病変部候補であっても、検出マーカは、表示判定レベルが低ければ表示されない場合があり、表示判定レベルが高ければ表示される場合もある。 The display determination level changing unit 84b changes the display / non-display determination level (hereinafter referred to as display determination level) of the detection marker based on the input risk estimation result. It should be noted that the lower the display determination level, the more difficult it is to display, and the higher the level, the easier it is to display. For example, even if the same lesion site candidate is used, the detection marker may not be displayed if the display determination level is low, or may be displayed if the display determination level is high.

表示判定レベル変更部84bは、リスク推定結果のみに基づいて表示判定レベルを決定してもよいが、図5の例では表示判定レベルを決定するために、病変解析部85を備えている。病変解析部85は、病変部候補検出部61によって検出された病変部候補の性状を解析するようになっている。病変解析部85は、病変部候補が見落としやすいものであるか否かを解析する。例えば、病変解析部85は、病変部候補検出部61から病変部候補の形状、サイズ、色等の情報が与えられ、見落としやすさの度合いを判定する。 The display determination level changing unit 84b may determine the display determination level based only on the risk estimation result, but in the example of FIG. 5, the lesion analysis unit 85 is provided for determining the display determination level. The lesion analysis unit 85 analyzes the properties of the lesion candidate detected by the lesion candidate detection unit 61. The lesion analysis unit 85 analyzes whether or not the lesion region candidate is easily overlooked. For example, the lesion analysis unit 85 is given information such as the shape, size, and color of the lesion candidate from the lesion candidate detection unit 61, and determines the degree of ease of oversight.

表示判定レベル変更部84bは、リスク推定結果によって示されたユーザの疲労度と見落としやすさの度合いとに基づいて表示判定レベルを決定する。表示判定レベルは、見落としやすさの度合いが高い程、高い値に設定されており、表示判定レベル変更部84bは、この表示判定レベルをユーザの疲労度が高い程高い値に設定するようになっている。従って、表示判定レベル変更部84bの制御によれば、見落としやすく、疲労度が高い程、検出マーカはより表示されやすくなり、見落としにくく、疲労度が低い程、検出マーカはより表示されにくくなる。 The display determination level changing unit 84b determines the display determination level based on the degree of fatigue of the user and the degree of ease of oversight indicated by the risk estimation result. The display judgment level is set to a higher value as the degree of ease of oversight is higher, and the display judgment level changing unit 84b sets this display judgment level to a higher value as the user's fatigue level is higher. ing. Therefore, according to the control of the display determination level changing unit 84b, the more easily overlooked and the higher the fatigue level, the easier it is to display the detection marker, and the more difficult it is to overlook and the lower the fatigue level, the more difficult it is to display the detection marker.

次に、このように構成された実施形態の動作について図6から図10を参照して説明する。図6から図9は第2の実施形態の動作を説明するためのフローチャートである。また、図10は表示例を説明するための説明図である。 Next, the operation of the embodiment configured in this way will be described with reference to FIGS. 6 to 10. 6 to 9 are flowcharts for explaining the operation of the second embodiment. Further, FIG. 10 is an explanatory diagram for explaining a display example.

本実施形態における動作は、図3と同様である。本実施形態は図3のステップS3,S4について、具体的なフローの一例を示している。 The operation in this embodiment is the same as in FIG. This embodiment shows an example of a specific flow for steps S3 and S4 in FIG.

光源駆動装置11及びビデオプロセッサ31の電源が投入されると、内視鏡21は、被写体へ照明光を出射し、当該被写体からの反射光を受光し、受光した反射光を撮像して撮像信号を生成し、生成した撮像信号をビデオプロセッサ31へ出力する。 When the power of the light source driving device 11 and the video processor 31 is turned on, the endoscope 21 emits illumination light to the subject, receives the reflected light from the subject, captures the received reflected light, and captures an image pickup signal. Is generated, and the generated image pickup signal is output to the video processor 31.

ビデオプロセッサ31は、内視鏡21から出力される撮像信号に対して所定の処理を施すことにより被写体の観察画像を生成し、生成した観察画像を画像処理装置41へ1フレームずつ順次出力する。入力部50は、ビデオプロセッサ31から生体内管腔画像である内視鏡画像(観察画像)を取得する(図3のS1)。なお、観察画像には、システム情報が含まれることもある。入力部50は、取得した画像を診断支援部60及びリスク推定部70に出力する。なお、入力部50は、観察画像とは別にシステム情報が入力される場合には、取得したシステム情報をリスク推定部70に出力する。 The video processor 31 generates an observation image of the subject by performing a predetermined process on the image pickup signal output from the endoscope 21, and sequentially outputs the generated observation image to the image processing device 41 frame by frame. The input unit 50 acquires an endoscopic image (observation image) which is an in-vivo lumen image from the video processor 31 (S1 in FIG. 3). The observation image may include system information. The input unit 50 outputs the acquired image to the diagnosis support unit 60 and the risk estimation unit 70. When the system information is input separately from the observation image, the input unit 50 outputs the acquired system information to the risk estimation unit 70.

病変部候補検出部61は、例えば、ディープラーニング等の学習手法を利用して観察画像から病変部候補を検出する(図3のS2)。病変部候補検出部61は、検出された病変部候補の画像中の範囲を示す病変部候補領域を判定し、病変部候補領域を示す情報を病変部候補の検出結果として表示制御部81に出力する。 The lesion candidate detection unit 61 detects the lesion candidate from the observation image by using, for example, a learning method such as deep learning (S2 in FIG. 3). The lesion candidate detection unit 61 determines a lesion candidate region indicating a range in the image of the detected lesion candidate, and outputs information indicating the lesion candidate region to the display control unit 81 as a detection result of the lesion candidate. do.

一方、リスク推定部70の疲労度解析部71は、図6のステップS31において、ユーザの疲労度を解析する。例えば、疲労度解析部71は、操作ログ解析部73によって、内視鏡21の操作ログを解析する。図7は操作ログ解析部73の具体的なフローを示している。操作ログ解析部73は、持ち変え回数解析部73aによって、内視鏡21の持ち変え回数を解析する(S311)。また、操作ログ解析部73は、ひねり回数解析部73bによって内視鏡21のひねり回数を解析する(S312)。 On the other hand, the fatigue degree analysis unit 71 of the risk estimation unit 70 analyzes the user's fatigue degree in step S31 of FIG. For example, the fatigue degree analysis unit 71 analyzes the operation log of the endoscope 21 by the operation log analysis unit 73. FIG. 7 shows a specific flow of the operation log analysis unit 73. The operation log analysis unit 73 analyzes the number of changes in the endoscope 21 by the change number analysis unit 73a (S311). Further, the operation log analysis unit 73 analyzes the number of twists of the endoscope 21 by the twist count analysis unit 73b (S312).

なお、ステップS311,S312の持ち変え回数の解析及びひねり回数の解析は、逆順に行ってもよく、また、いずれか一方の解析のみを行ってもよい。疲労度解析部71は、解析した持ち変え回数及びひねり回数の少なくとも一方の解析結果に基づいて、疲労度を算出する(S313)。疲労度解析部71は、算出した疲労度をリスク推定結果として表示制御部81に出力する。なお、疲労度解析部71は、解析した回数を疲労度の解析結果とし、疲労度の解析結果をそのままリスク推定結果として出力してもよい。この場合には、解析した回数が多い程疲労度が高く、品質が低下するリスクが高いと推定される。 The analysis of the number of times of holding and the number of twists in steps S311 and S312 may be performed in the reverse order, or only one of them may be analyzed. The fatigue degree analysis unit 71 calculates the fatigue degree based on the analysis result of at least one of the number of times of holding and the number of twists analyzed (S313). The fatigue degree analysis unit 71 outputs the calculated fatigue degree to the display control unit 81 as a risk estimation result. The fatigue degree analysis unit 71 may use the number of analyzes as the fatigue degree analysis result and output the fatigue degree analysis result as it is as a risk estimation result. In this case, it is presumed that the greater the number of analyzes, the higher the degree of fatigue and the higher the risk of quality deterioration.

表示制御部81の検出マーカ情報生成部82は、入力されたリスク推定結果に基づいて、検出マーカの形態を設定し、設定に応じた検出マーカを表示させるための情報を生成する。例えば、検出マーカ情報生成部82は、表示時間制御部83によって、リスク推定結果に基づく表示時間を設定する(図8のS41)。また、検出マーカ情報生成部82は、表示内容制御部84によって、リスク推定結果に基づく表示内容を設定する(図8のS42)。なお、ステップS41,S42の設定は、逆順に行ってもよく、また、いずれか一方の設定のみを行ってもよい。 The detection marker information generation unit 82 of the display control unit 81 sets the form of the detection marker based on the input risk estimation result, and generates information for displaying the detection marker according to the setting. For example, the detection marker information generation unit 82 sets the display time based on the risk estimation result by the display time control unit 83 (S41 in FIG. 8). Further, the detection marker information generation unit 82 sets the display content based on the risk estimation result by the display content control unit 84 (S42 in FIG. 8). The settings of steps S41 and S42 may be performed in the reverse order, or only one of them may be set.

図9は図8中のステップS42の具体的なフローの一例を示している。例えば、表示内容制御部84は、色調変更部84aによって、リスク推定結果に従って色調を変更する(図9のS421)。例えば、リスク推定結果により検査品質が低下するリスクが比較的高いことが示された場合には、色調変更部84aは、検出マーカを目立つ色調に設定する。 FIG. 9 shows an example of a specific flow of step S42 in FIG. For example, the display content control unit 84 changes the color tone according to the risk estimation result by the color tone changing unit 84a (S421 in FIG. 9). For example, when the risk estimation result indicates that the risk of deterioration of inspection quality is relatively high, the color tone changing unit 84a sets the detection marker to a conspicuous color tone.

また、表示内容制御部84は、表示判定レベル変更部84bによって、表示判定レベルを決定する。例えば、表示判定レベル変更部84bは、ステップS422において、病変部候補の性状を解析する。表示判定レベル変更部84bは、リスク推定結果及び病変部候補の性状に基づいて表示判定レベルを決定する(S423)。例えば、表示判定レベル変更部84bは、サイズが小さく見逃しやすい性状の病変部候補については、表示判定レベルを高くして表示し易くする。そして、表示判定レベル変更部84bは、リスク推定結果に従って、表示判定レベルを更に変更する。例えば、表示判定レベル変更部84bは、ユーザの疲労度が比較的高い場合には、より表示判定レベルを高くして、表示しやすくする。 Further, the display content control unit 84 determines the display determination level by the display determination level change unit 84b. For example, the display determination level changing unit 84b analyzes the properties of the lesion candidate in step S422. The display determination level changing unit 84b determines the display determination level based on the risk estimation result and the properties of the lesion candidate (S423). For example, the display determination level changing unit 84b raises the display determination level to make it easier to display a lesion portion candidate having a small size and easily overlooked. Then, the display determination level changing unit 84b further changes the display determination level according to the risk estimation result. For example, when the user's fatigue level is relatively high, the display determination level changing unit 84b raises the display determination level to make it easier to display.

なお、ステップS421とステップS423,S423の設定は、逆順に行ってもよく、また、ステップS421の設定のみを行ってもよい。また、表示判定レベル変更部84bは、所定の表示判定レベルをリスク推定結果のみによって変更することで、表示判定レベルを決定してもよい。 The settings of steps S421 and steps S423 and S423 may be performed in the reverse order, or only the settings of step S421 may be performed. Further, the display determination level changing unit 84b may determine the display determination level by changing the predetermined display determination level only based on the risk estimation result.

検出マーカ情報生成部82は、ステップS43において、設定した表示時間、設定した色調、設定した表示判定レベルの少なくとも1つの設定に基づいて検出マーカを表示するための情報を生成して表示出力部91に出力する。表示出力部91の画像合成部92は、検出マーカ情報生成部82からの情報に基づいて、観察画像に検出マーカを重畳した表示用画像を生成して表示装置95に与える。これにより、表示装置95は、表示画面95a上に検出マーカが重畳された観察画像を表示する。 In step S43, the detection marker information generation unit 82 generates information for displaying the detection marker based on at least one setting of the set display time, the set color tone, and the set display determination level, and the display output unit 91. Output to. The image composition unit 92 of the display output unit 91 generates a display image in which the detection marker is superimposed on the observation image based on the information from the detection marker information generation unit 82, and gives it to the display device 95. As a result, the display device 95 displays the observation image on which the detection marker is superimposed on the display screen 95a.

図10は表示装置95の表示画面95a上に表示された画像の例を示している。図10の画像101a〜101cは、同一観察画像101について、リスク推定結果が異なる場合の検出マーカの3つの表示例を示している。観察画像101中には、診断支援部60によって検出された病変部候補101aが存在する。この病変部候補101aを囲むように、検出マーカ102〜104が表示されている。 FIG. 10 shows an example of an image displayed on the display screen 95a of the display device 95. Images 101a to 101c of FIG. 10 show three display examples of detection markers when the risk estimation results are different for the same observation image 101. In the observation image 101, there is a lesion part candidate 101a detected by the diagnosis support unit 60. Detection markers 102 to 104 are displayed so as to surround the lesion candidate 101a.

例えば、検出マーカ102は、中程度の疲労度の場合の表示例であり、検出マーカ103は、疲労度が大きい場合の表示例であり、検出マーカ104は、疲労度が極めて小さい場合の表示例である。図面上、検出マーカ103は、検出マーカ102に比べて太線で表示することにより、例えば、比較的長い表示時間で、比較的目立つ色調で、比較的高い表示判定レベルに対応した表示であることを示している。 For example, the detection marker 102 is a display example when the degree of fatigue is moderate, the detection marker 103 is a display example when the degree of fatigue is large, and the detection marker 104 is a display example when the degree of fatigue is extremely low. Is. In the drawing, the detection marker 103 is displayed with a thick line as compared with the detection marker 102, so that, for example, the display has a relatively long display time, a relatively conspicuous color tone, and a display corresponding to a relatively high display determination level. Shows.

また、表示内容の変更の例として、色調及び表示判定レベルについて説明したが、図10のように、検出マーカの枠の線の太さや枠の種類等を変えるようになっていてもよい。例えば、疲労度が高い程枠の線の太さを太くするようになっていてもよい。あるいは、リスク推定結果によって検出マーカを点灯、点滅させてもよく、リスク推定結果に応じて点滅周期を変化させてもよい。また、例えば、検出マーカ104に示すように、疲労度が比較的低い場合には、検出マーカを破線によって表示するようになっていてもよい。 Further, although the color tone and the display determination level have been described as an example of changing the display contents, as shown in FIG. 10, the line thickness of the frame of the detection marker, the type of the frame, and the like may be changed. For example, the higher the degree of fatigue, the thicker the line thickness of the frame may be. Alternatively, the detection marker may be turned on and blinked according to the risk estimation result, or the blinking cycle may be changed according to the risk estimation result. Further, for example, as shown by the detection marker 104, when the degree of fatigue is relatively low, the detection marker may be displayed by a broken line.

このように本実施の形態においては、検査品質が低下するリスクをユーザの疲労度の解析によって推定し、リスク推定結果に基づいて検出マーカの表示形態を変更するようになっている。これにより、ユーザの疲労度が比較的高い場合には、検出マーカを例えば見やすく表示することで検出マーカの見落としを防止し、検査品質を向上させ、ユーザの疲労度が比較的低い場合には、観察画像の視認性が悪化しないように検出マーカを表示することで、検査品質を向上させることができる。 As described above, in the present embodiment, the risk of deterioration of inspection quality is estimated by the analysis of the user's fatigue level, and the display form of the detection marker is changed based on the risk estimation result. As a result, when the user's fatigue level is relatively high, the detection marker is displayed in an easy-to-see manner to prevent oversight of the detection marker, the inspection quality is improved, and when the user's fatigue level is relatively low, the detection marker is prevented from being overlooked. The inspection quality can be improved by displaying the detection marker so that the visibility of the observed image does not deteriorate.

(第3の実施形態)
図11は本発明の第3の実施形態を示すブロック図である。本実施形態の内視鏡システムは、画像処理装置40に代えて画像処理装置42を採用した点が図1と異なる。図11の画像処理装置42は、疲労度解析部71を検査状況解析部74によって構成した点が図4と異なる。他の構成は第2の実施形態と同様であり、説明を省略する。本実施形態はユーザの疲労度を検査状況の解析によって推定する例である。
(Third embodiment)
FIG. 11 is a block diagram showing a third embodiment of the present invention. The endoscope system of the present embodiment is different from FIG. 1 in that the image processing device 42 is used instead of the image processing device 40. The image processing device 42 of FIG. 11 differs from FIG. 4 in that the fatigue degree analysis unit 71 is configured by the inspection status analysis unit 74. Other configurations are the same as those of the second embodiment, and the description thereof will be omitted. This embodiment is an example of estimating the degree of fatigue of the user by analyzing the inspection status.

検査状況解析部74は、内視鏡検査の状況を解析することで、ユーザの疲労度を解析する。本実施形態では、一例として、検査状況解析部74は、検査経過時間解析部74a及び連続検査回数解析部74bによって構成する。 The examination status analysis unit 74 analyzes the user's fatigue level by analyzing the status of the endoscopic examination. In the present embodiment, as an example, the inspection status analysis unit 74 is composed of an inspection elapsed time analysis unit 74a and a continuous inspection number analysis unit 74b.

検査経過時間解析部74aは、検査経過時間を解析するようになっている。例えば、検査経過時間解析部74aは、上述した各種の方法により取得した任意期間において、ユーザが内視鏡検査を行った時間を求める。内視鏡検査時には、検査者の氏名等の検査者を特定する情報が入力されるようになっており、検査経過時間解析部74aは、システム情報によって検査経過時間を解析することが可能である。なお、観察画像中に検査者を特定する情報がシステム情報とは別に含まれることもあり、検査経過時間解析部74aは、観察画像から各ユーザの検査経過時間を解析することも可能である。 The inspection elapsed time analysis unit 74a analyzes the inspection elapsed time. For example, the examination elapsed time analysis unit 74a obtains the time during which the user performs the endoscopy in an arbitrary period acquired by the various methods described above. At the time of endoscopy, information that identifies the inspector, such as the name of the inspector, is input, and the inspection elapsed time analysis unit 74a can analyze the inspection elapsed time by system information. .. Information that identifies the inspector may be included in the observation image separately from the system information, and the inspection elapsed time analysis unit 74a can also analyze the inspection elapsed time of each user from the observation image.

例えば、任意期間として、例えば、1日、1週間、1ヶ月等を設定することができる。例えば、各ユーザについて1日の検査経過時間が比較的長い場合には、経過時間が長くなるにつれて疲労度が高くなるものと考えられる。疲労度解析部71は、検査経過時間解析部74aが求めた検査経過時間が長い程疲労度が高いと解析することができ、リスク推定部70は、検査品質が低下するリスクが増大すると推定することができる。 For example, as an arbitrary period, for example, one day, one week, one month, or the like can be set. For example, when the elapsed time of inspection for each user is relatively long, it is considered that the degree of fatigue increases as the elapsed time increases. The fatigue degree analysis unit 71 can analyze that the longer the inspection elapsed time obtained by the inspection elapsed time analysis unit 74a, the higher the fatigue degree, and the risk estimation unit 70 estimates that the risk of deterioration of the inspection quality increases. be able to.

また、連続検査回数解析部74bは、各ユーザについて、内視鏡検査の連続検査回数を解析する。連続検査回数解析部74bは、システム情報によってユーザ毎に連続検査回数を解析することが可能である。また、連続検査回数解析部74bは、観察画像から各ユーザの連続検査回数を解析することも可能である。 In addition, the continuous examination number analysis unit 74b analyzes the number of continuous examinations of endoscopy for each user. The continuous inspection count analysis unit 74b can analyze the continuous inspection count for each user based on the system information. Further, the continuous inspection number analysis unit 74b can also analyze the continuous inspection number of each user from the observation image.

例えば、1日に複数回の内視鏡検査が行われるものとして、同一ユーザが連続して検査を行った場合と、複数のユーザによって交代しながら検査を行った場合とでは疲労度が異なり、同一ユーザが連続して検査を行う回数が多い程、疲労度が増大すると考えられる。疲労度解析部71は、連続検査回数解析部74bが求めた連続検査回数が多い程疲労度が高いと解析することができ、リスク推定部70は、検査品質が低下するリスクが増大すると推定することができる。 For example, assuming that endoscopy is performed multiple times a day, the degree of fatigue differs between the case where the same user performs the examination continuously and the case where the examination is performed while being alternated by a plurality of users. It is considered that the degree of fatigue increases as the number of consecutive inspections by the same user increases. The fatigue degree analysis unit 71 can analyze that the fatigue degree is higher as the number of continuous inspections obtained by the continuous inspection number analysis unit 74b is larger, and the risk estimation unit 70 estimates that the risk of deterioration of inspection quality increases. be able to.

なお、本実施形態においては、検査状況解析部74は、検査経過時間解析部74a及び連続検査回数解析部74bにより構成した例を説明したが、検査経過時間解析部74a又は連続検査回数解析部74bのいずれか一方によって構成してもよい。 In the present embodiment, the inspection status analysis unit 74 has been described as an example composed of the inspection elapsed time analysis unit 74a and the continuous inspection number analysis unit 74b, but the inspection elapsed time analysis unit 74a or the continuous inspection number analysis unit 74b has been described. It may be configured by either one of.

次に、このように構成された実施形態の動作について図12を参照して説明する。図12は第3の実施形態の動作を説明するためのフローチャートである。 Next, the operation of the embodiment configured in this way will be described with reference to FIG. FIG. 12 is a flowchart for explaining the operation of the third embodiment.

本実施形態における動作は、図3及び図6と同様である。図12は、図6のステップS31について、図7とは異なる具体的なフローの一例を示している。 The operation in this embodiment is the same as in FIGS. 3 and 6. FIG. 12 shows an example of a specific flow different from that of FIG. 7 for step S31 of FIG.

リスク推定部70の疲労度解析部71は、図6のステップS31において、ユーザの疲労度を解析する。例えば、疲労度解析部71は、検査状況解析部74によって、各ユーザの内視鏡検査状況を解析する。図12は検査状況解析部74の具体的な処理の一例を示している。検査状況解析部74は、検査経過時間解析部74aによって内視鏡検査の検査経過時間を解析する(S314)。また、検査状況解析部74は、連続検査回数解析部74bによって内視鏡検査の連続検査回数を解析する(S315)。 The fatigue degree analysis unit 71 of the risk estimation unit 70 analyzes the user's fatigue degree in step S31 of FIG. For example, the fatigue degree analysis unit 71 analyzes the endoscopic examination status of each user by the inspection status analysis unit 74. FIG. 12 shows an example of specific processing of the inspection status analysis unit 74. The examination status analysis unit 74 analyzes the examination elapsed time of the endoscopy by the examination elapsed time analysis unit 74a (S314). Further, the inspection status analysis unit 74 analyzes the number of continuous inspections of the endoscopy by the continuous inspection number analysis unit 74b (S315).

なお、ステップS314,S315の解析は、逆順に行ってもよく、また、いずれか一方の解析のみを行ってもよい。疲労度解析部71は、解析した検査経過時間及び連続検査回数の少なくとも一方の解析結果に基づいて、疲労度を算出する(S316)。疲労度解析部71は、算出した疲労度をリスク推定結果として表示制御部81に出力する。なお、疲労度解析部71は、検査経過時間が長いほど、また、連続検査回数が多い程、疲労度が高く、品質が低下するリスクが高いと推定する。 The analysis of steps S314 and S315 may be performed in the reverse order, or only one of the analyzes may be performed. The fatigue degree analysis unit 71 calculates the fatigue degree based on the analysis result of at least one of the analysis elapsed time and the number of continuous inspections (S316). The fatigue degree analysis unit 71 outputs the calculated fatigue degree to the display control unit 81 as a risk estimation result. The fatigue degree analysis unit 71 estimates that the longer the elapsed time of inspection and the larger the number of continuous inspections, the higher the degree of fatigue and the higher the risk of quality deterioration.

表示制御部81の検出マーカ情報生成部82において、リスク推定結果に応じた形態の検出マーカを表示するための情報が生成されることは第2の実施形態と同様である。この結果、表示装置95の表示画面95a上には、ユーザの疲労度に応じた形態の検出マーカが表示される。 Similar to the second embodiment, the detection marker information generation unit 82 of the display control unit 81 generates information for displaying the detection marker in the form corresponding to the risk estimation result. As a result, on the display screen 95a of the display device 95, a detection marker having a form corresponding to the degree of fatigue of the user is displayed.

他の作用は第2の実施形態と同様である。このように本実施の形態においても、第2の実施形態と同様の効果を得ることができる。 Other actions are the same as in the second embodiment. As described above, the same effect as that of the second embodiment can be obtained in the present embodiment as well.

(第4の実施形態)
図13は本発明の第4の実施形態を示すブロック図である。本実施形態の内視鏡システムは、画像処理装置40に代えて画像処理装置43を採用した点が図1と異なる。図13の画像処理装置43は、疲労度解析部71を生体情報解析部75によって構成した点が図4と異なる。他の構成は第2の実施形態と同様であり、説明を省略する。本実施形態はユーザの疲労度を生体情報の解析によって推定する例である。
(Fourth Embodiment)
FIG. 13 is a block diagram showing a fourth embodiment of the present invention. The endoscope system of the present embodiment is different from FIG. 1 in that the image processing device 43 is used instead of the image processing device 40. The image processing device 43 of FIG. 13 differs from FIG. 4 in that the fatigue degree analysis unit 71 is configured by the biological information analysis unit 75. Other configurations are the same as those of the second embodiment, and the description thereof will be omitted. This embodiment is an example of estimating the degree of fatigue of a user by analyzing biological information.

生体情報解析部75は、生体情報を解析することで、ユーザの疲労度を解析する。本実施形態では、一例として、生体情報解析部75は、瞬き回数解析部75a及び脈拍等解析部75bによって構成する。 The biological information analysis unit 75 analyzes the degree of fatigue of the user by analyzing the biological information. In the present embodiment, as an example, the biological information analysis unit 75 is composed of a blink rate analysis unit 75a and a pulse rate analysis unit 75b.

瞬き回数解析部75aは、ユーザの瞬き回数を解析するようになっている。検査室等においては、術野カメラ等が設けられており、ユーザの顔部の撮像が可能である。ビデオプロセッサ31には、これらのカメラからの画像も入力されるようになっており、ビデオプロセッサ31は、ユーザの撮像画像の画像解析によって、ユーザが瞬きした回数を求めることができる。ビデオプロセッサ31は、ユーザの瞬き回数をシステム情報として画像処理装置43に出力することができる。瞬き回数解析部75aは、入力されたシステム情報によって、ユーザの瞬き回数を解析する。
なお、瞬き回数の情報を画像から取得する例を説明したが、画像以外の各種センサ等のデバイスから取得してもよく、システム情報から取得してもよい。
The blink number analysis unit 75a is designed to analyze the number of blinks of the user. In the examination room or the like, a surgical field camera or the like is provided, and it is possible to take an image of the user's face. Images from these cameras are also input to the video processor 31, and the video processor 31 can determine the number of blinks by the user by image analysis of the captured image of the user. The video processor 31 can output the number of blinks of the user to the image processing device 43 as system information. The blink count analysis unit 75a analyzes the number of blinks of the user based on the input system information.
Although the example of acquiring the information on the number of blinks from the image has been described, it may be acquired from a device such as various sensors other than the image, or may be acquired from the system information.

なお、リスク推定部70において、術野カメラ等によるユーザの撮像画像を取り込むようになっていてもよい。この場合には、瞬き回数解析部75aは、取り込んだユーザの撮像画像に対する画像解析によって、ユーザの瞬き回数を求めることが可能である。 The risk estimation unit 70 may capture an image captured by the user by a surgical field camera or the like. In this case, the blink number analysis unit 75a can obtain the number of blinks of the user by image analysis of the captured image of the user.

瞬き回数が多いほど、ユーザの疲労度が大きいと考えられる。疲労度解析部71は、瞬き回数解析部75aが求めた瞬き回数が多い程疲労度が高いと解析することができ、リスク推定部70は、検査品質が低下するリスクが増大すると推定することができる。 It is considered that the greater the number of blinks, the greater the degree of fatigue of the user. The fatigue degree analysis unit 71 can analyze that the degree of fatigue is higher as the number of blinks obtained by the blink number analysis unit 75a is larger, and the risk estimation unit 70 can estimate that the risk of deterioration of inspection quality increases. can.

また、脈拍等解析部75bは、各ユーザについて、脈拍、体温、飽和酸素量等を解析する。脈拍等解析部75bは、システム情報によってユーザ毎にこれらの解析を行うことが可能である。疲労度解析部71は、脈拍、体温、飽和酸素量等の解析結果によって、ユーザの疲労度を解析する。 In addition, the pulse analysis unit 75b analyzes the pulse, body temperature, saturated oxygen amount, etc. for each user. The pulse rate analysis unit 75b can perform these analyzes for each user based on the system information. The fatigue degree analysis unit 71 analyzes the user's fatigue degree based on the analysis results such as pulse, body temperature, and saturated oxygen amount.

なお、本実施形態においては、生体情報解析部75は、瞬き回数解析部75a及び脈拍等解析部75bにより構成した例を説明したが、瞬き回数解析部75a又は脈拍等解析部75bのいずれか一方によって構成してもよい。 In the present embodiment, the example in which the biological information analysis unit 75 is composed of the blink rate analysis unit 75a and the pulse rate analysis unit 75b has been described, but either the blink rate analysis unit 75a or the pulse rate analysis unit 75b has been described. It may be configured by.

次に、このように構成された実施形態の動作について図14を参照して説明する。図14は第4の実施形態の動作を説明するためのフローチャートである。 Next, the operation of the embodiment configured in this way will be described with reference to FIG. FIG. 14 is a flowchart for explaining the operation of the fourth embodiment.

本実施形態における動作は、図3及び図6と同様である。図14は、図6のステップS31について、図7とは異なる具体的なフローの一例を示している。 The operation in this embodiment is the same as in FIGS. 3 and 6. FIG. 14 shows an example of a specific flow of step S31 of FIG. 6 which is different from that of FIG. 7.

リスク推定部70の疲労度解析部71は、図6のステップS31において、ユーザの疲労度を解析する。例えば、疲労度解析部71は、生体情報解析部75によって、各ユーザの生体情報を解析する。図14は生体情報解析部75の具体的な処理の一例を示している。生体情報解析部75は、瞬き回数解析部75aによって瞬き回数を解析する(S317)。また、検査状況解析部74は、脈拍等解析部75bによってユーザの脈拍、体温、飽和酸素量等を解析する(S318)。 The fatigue degree analysis unit 71 of the risk estimation unit 70 analyzes the user's fatigue degree in step S31 of FIG. For example, the fatigue degree analysis unit 71 analyzes the biometric information of each user by the biometric information analysis unit 75. FIG. 14 shows an example of specific processing of the biological information analysis unit 75. The biological information analysis unit 75 analyzes the number of blinks by the blink number analysis unit 75a (S317). Further, the inspection status analysis unit 74 analyzes the user's pulse, body temperature, saturated oxygen amount, etc. by the pulse analysis unit 75b (S318).

なお、ステップS317,S318の解析は、逆順に行ってもよく、また、いずれか一方の解析のみを行ってもよい。疲労度解析部71は、解析した瞬き回数及び脈拍等の少なくとも一方の解析結果に基づいて、疲労度を算出する(S319)。疲労度解析部71は、算出した疲労度をリスク推定結果として表示制御部81に出力する。なお、疲労度解析部71は、瞬き回数が多いほど、疲労度が高く、検査品質が低下するリスクが高いと推定する。疲労度解析部71は、脈拍、体温、飽和酸素量については、ユーザの検査中における変化に基づいて疲労度を算出してもよく、あるいは、ユーザ毎の平常時の情報を記憶し、記憶した情報との比較によって、疲労度を算出してもよい。 The analysis of steps S317 and S318 may be performed in the reverse order, or only one of the analyzes may be performed. The fatigue degree analysis unit 71 calculates the fatigue degree based on at least one analysis result such as the number of blinks and the pulse analyzed (S319). The fatigue degree analysis unit 71 outputs the calculated fatigue degree to the display control unit 81 as a risk estimation result. The fatigue degree analysis unit 71 estimates that the greater the number of blinks, the higher the degree of fatigue and the higher the risk of deterioration of inspection quality. The fatigue degree analysis unit 71 may calculate the fatigue degree based on the changes in the pulse, body temperature, and saturated oxygen amount during the user's examination, or may store and store the normal information for each user. The degree of fatigue may be calculated by comparison with the information.

表示制御部81の検出マーカ情報生成部82において、リスク推定結果に応じた形態の検出マーカを表示するための情報が生成されることは第2の実施形態と同様である。この結果、表示装置95の表示画面95a上には、ユーザの疲労度に応じた形態の検出マーカが表示される。 Similar to the second embodiment, the detection marker information generation unit 82 of the display control unit 81 generates information for displaying the detection marker in the form corresponding to the risk estimation result. As a result, on the display screen 95a of the display device 95, a detection marker having a form corresponding to the degree of fatigue of the user is displayed.

他の作用は第2の実施形態と同様である。このように本実施の形態においても、第2の実施形態と同様の効果を得ることができる。 Other actions are the same as in the second embodiment. As described above, the same effect as that of the second embodiment can be obtained in the present embodiment as well.

なお、リスク推定部70としては、上記第2から第4の実施形態における持ち変え回数解析部73a、ひねり回数解析部73b、検査経過時間解析部74a、連続検査回数解析部74b、瞬き回数解析部75a及び脈拍等解析部75bのうちの少なくとも1つを備えた疲労度解析部71を採用してユーザの疲労度を解析するようになっていてもよい。 The risk estimation unit 70 includes a change number analysis unit 73a, a twist number analysis unit 73b, an inspection elapsed time analysis unit 74a, a continuous inspection number analysis unit 74b, and a blink number analysis unit in the second to fourth embodiments. A fatigue degree analysis unit 71 including at least one of the pulse and the like analysis unit 75b may be adopted to analyze the user's fatigue degree.

(第5の実施形態)
図15は本発明の第5の実施形態を示すブロック図である。本実施形態の内視鏡システムは、画像処理装置40に代えて画像処理装置44を採用した点が図1と異なる。図15は画像処理装置44の具体的な構成の一例を示している。図15の画像処理装置44は、リスク推定部70が疲労度解析部71に代えて経験レベル解析部72を採用した点が図4と異なる。他の構成は第2の実施形態と同様であり、説明を省略する。本実施形態は検査品質が低下するリスクをユーザの経験レベルの解析によって推定する例である。
(Fifth Embodiment)
FIG. 15 is a block diagram showing a fifth embodiment of the present invention. The endoscope system of the present embodiment is different from FIG. 1 in that the image processing device 44 is used instead of the image processing device 40. FIG. 15 shows an example of a specific configuration of the image processing device 44. The image processing device 44 of FIG. 15 differs from FIG. 4 in that the risk estimation unit 70 employs the experience level analysis unit 72 instead of the fatigue degree analysis unit 71. Other configurations are the same as those of the second embodiment, and the description thereof will be omitted. This embodiment is an example of estimating the risk of deterioration of inspection quality by analyzing the user's experience level.

リスク推定部70は、経験レベル解析部72を有している。経験レベル解析部72は、ユーザの経験レベルを解析して解析結果を得る。リスク推定部70は、経験レベル解析部72の解析結果をリスク推定結果として用いてもよい。本実施形態においては、経験レベル解析部72は、操作ログ解析部76によって構成される。操作ログ解析部76は、内視鏡21の操作ログを解析することで、ユーザの経験レベルを解析する。本実施形態では、一例として、操作ログ解析部76は、抜き差し回数解析部76a及び到達時間解析部76bによって構成する。 The risk estimation unit 70 has an experience level analysis unit 72. The experience level analysis unit 72 analyzes the user's experience level and obtains an analysis result. The risk estimation unit 70 may use the analysis result of the experience level analysis unit 72 as the risk estimation result. In the present embodiment, the experience level analysis unit 72 is composed of the operation log analysis unit 76. The operation log analysis unit 76 analyzes the user's experience level by analyzing the operation log of the endoscope 21. In the present embodiment, as an example, the operation log analysis unit 76 is composed of the insertion / removal number analysis unit 76a and the arrival time analysis unit 76b.

抜き差し回数解析部76aは、内視鏡21の操作ログにより、内視鏡21の抜き差し回数を解析するようになっている。例えば、抜き差し回数解析部76aは、挿入部22が体内に挿入開始されて検査対象部位に到達するまでの間の挿入部22の抜き差し回数を求める。挿入部22を抜き差しするユーザの行為により、挿入部22に設けた撮像部24も移動し、観察画像が変化する。例えば、抜き差し回数解析部76aは、観察画像に対する画像解析によって、このような観察画像の変化を検出することで、ユーザが挿入部22を抜き差ししたことを解析し、その回数を取得するようになっていてもよい。また、例えば、挿入部22に図示しない加速度センサ等を取り付けることによって、この加速度センサの出力の解析により、抜き差し回数を解析することも可能である。リスク推定部70は、このような加速度センサの出力をシステム情報として取得することにより、抜き差し回数を解析してもよい。 The insertion / removal number analysis unit 76a analyzes the number of insertions / removals of the endoscope 21 based on the operation log of the endoscope 21. For example, the insertion / removal frequency analysis unit 76a obtains the number of insertion / removal times of the insertion unit 22 until the insertion unit 22 starts to be inserted into the body and reaches the inspection target site. The image pickup unit 24 provided in the insertion unit 22 also moves due to the user's action of inserting and removing the insertion unit 22, and the observation image changes. For example, the insertion / removal number analysis unit 76a detects that such a change in the observation image is performed by image analysis of the observation image, analyzes that the user has inserted / removed the insertion unit 22, and acquires the number of times. May be. Further, for example, by attaching an acceleration sensor or the like (not shown) to the insertion portion 22, it is possible to analyze the number of insertions and removals by analyzing the output of the acceleration sensor. The risk estimation unit 70 may analyze the number of insertions and removals by acquiring the output of such an acceleration sensor as system information.

また、到達時間解析部76bは、内視鏡21の操作ログにより、挿入部22が検査対象部位に到達するまでに要した時間(到達時間)を解析するようになっている。即ち、到達時間解析部76bは、挿入部22が体内に挿入開始されて検査対象部位に到達するまでの時間を求める。挿入部22の挿入開始時と検査対象部位に到達したことは、観察画像の画像解析及びタイマ等による計時によって検出可能である。到達時間解析部76bは、観察画像の画像解析によって、到達時間を解析するようになっていてもよい。また、例えば、ユーザの内視鏡スイッチの操作によって、挿入開始時及び検査対象部位到達時をビデオプロセッサ31に伝達することも可能であり、リスク推定部70は、システム情報としてこれらの時刻を取得することにより、到達時間を解析してもよい。 Further, the arrival time analysis unit 76b analyzes the time (arrival time) required for the insertion unit 22 to reach the inspection target site by using the operation log of the endoscope 21. That is, the arrival time analysis unit 76b obtains the time from the start of insertion of the insertion unit 22 into the body to the arrival at the inspection target site. The start of insertion of the insertion unit 22 and the arrival at the inspection target site can be detected by image analysis of the observed image and time counting by a timer or the like. The arrival time analysis unit 76b may be adapted to analyze the arrival time by image analysis of the observed image. Further, for example, by operating the endoscope switch of the user, it is possible to transmit the insertion start time and the inspection target site arrival time to the video processor 31, and the risk estimation unit 70 acquires these times as system information. By doing so, the arrival time may be analyzed.

経験レベル解析部72は、抜き差し回数解析部76aによって求めた抜き差し回数及び到達時間解析部76bによって求めた到達時間の少なくとも一方に応じてユーザの経験レベルを解析し、解析結果をリスク推定結果としてもよい。例えば、経験レベル解析部72は、ユーザの挿入部22の抜き差し回数が少ない程、あるいは、到達時間が短い程、熟練度が高い、即ち、経験レベルが高いと判定し、検査品質の低下のリスクが低いと推定してもよい。逆に、リスク推定部70は、ユーザの挿入部22の抜き差し回数が多い程、あるいは、到達時間が長い程、熟練度が低い、即ち、経験レベルが低いと判定し、検査品質の低下のリスクが高いと推定してもよい。リスク推定部70からのユーザの経験レベルに基づくリスク推定結果は、表示制御部81に供給される。 The experience level analysis unit 72 analyzes the user's experience level according to at least one of the number of insertions / removals obtained by the insertion / removal number analysis unit 76a and the arrival time obtained by the arrival time analysis unit 76b, and the analysis result is also used as a risk estimation result. good. For example, the experience level analysis unit 72 determines that the less the number of times the user inserts and removes the insertion unit 22 or the shorter the arrival time, the higher the skill level, that is, the higher the experience level, and the risk of deterioration of inspection quality. May be estimated to be low. On the contrary, the risk estimation unit 70 determines that the higher the number of insertions / removals of the user's insertion unit 22 or the longer the arrival time, the lower the skill level, that is, the lower the experience level, and the risk of deterioration of inspection quality. May be estimated to be high. The risk estimation result based on the user's experience level from the risk estimation unit 70 is supplied to the display control unit 81.

なお、本実施形態においては、操作ログ解析部76は、抜き差し回数解析部76a及び到達時間解析部76bにより構成した例を説明したが、抜き差し回数解析部76a又は到達時間解析部76bのいずれか一方によって構成してもよい。 In this embodiment, the operation log analysis unit 76 has been described as an example composed of the insertion / removal number analysis unit 76a and the arrival time analysis unit 76b, but either the insertion / removal number analysis unit 76a or the arrival time analysis unit 76b has been described. It may be configured by.

次に、このように構成された実施形態の動作について図16及び図17を参照して説明する。図16及び図17は第5の実施形態の動作を説明するためのフローチャートである。 Next, the operation of the embodiment configured in this way will be described with reference to FIGS. 16 and 17. 16 and 17 are flowcharts for explaining the operation of the fifth embodiment.

本実施形態における動作は、図3と同様である。図16は図3のステップS3について、具体的なフローの一例を示しており、図17は図16のステップS51の具体的なフローの一例を示している。 The operation in this embodiment is the same as in FIG. FIG. 16 shows an example of a specific flow for step S3 of FIG. 3, and FIG. 17 shows an example of a specific flow of step S51 of FIG.

観察画像の取得、病変部候補の検出及び表示制御は、第2の実施形態と同様である。本実施形態は、リスク推定の手法が第2の実施形態と異なる。 The acquisition of the observation image, the detection of the lesion candidate, and the display control are the same as those in the second embodiment. In this embodiment, the risk estimation method is different from that in the second embodiment.

リスク推定部70の経験レベル解析部72は、図16のステップS51において、ユーザの経験レベルを解析する。例えば、経験レベル解析部72は、操作ログ解析部76によって、内視鏡21の操作ログを解析する。図17は操作ログ解析部76の具体的な処理の一例を示している。操作ログ解析部76は、抜き差し回数解析部76aによって挿入部22の抜き差し回数を解析する(S511)。また、操作ログ解析部76は、到達時間解析部76bによって挿入部22が検査対象部位に到達するまでの到達時間を解析する(S512)。 The experience level analysis unit 72 of the risk estimation unit 70 analyzes the user's experience level in step S51 of FIG. For example, the experience level analysis unit 72 analyzes the operation log of the endoscope 21 by the operation log analysis unit 76. FIG. 17 shows an example of specific processing of the operation log analysis unit 76. The operation log analysis unit 76 analyzes the number of insertions / removals of the insertion unit 22 by the insertion / removal number analysis unit 76a (S511). Further, the operation log analysis unit 76 analyzes the arrival time until the insertion unit 22 reaches the inspection target site by the arrival time analysis unit 76b (S512).

なお、ステップS511,S512の抜き差し回数の解析及び到達時間解析は、逆順に行ってもよく、また、いずれか一方の解析のみを行ってもよい。経験レベル解析部72は、解析した抜き差し回数及び到達時間の少なくとも一方の解析結果に基づいて、ユーザの経験レベルを算出する(S513)。経験レベル解析部72は、算出した経験レベルをリスク推定結果として表示制御部81に出力する。なお、経験レベル解析部72は、抜き差し回数及び到達時間の数値を経験レベルの解析結果とし、経験レベルの解析結果をそのままリスク推定結果として出力してもよい。この場合には、抜き差し回数が多い程、到達時間が長いほど熟練度が低く(経験レベルが低く)、品質が低下するリスクが高いと推定される。 The analysis of the number of insertions / removals and the analysis of the arrival time in steps S511 and S512 may be performed in the reverse order, or only one of them may be analyzed. The experience level analysis unit 72 calculates the user's experience level based on the analysis result of at least one of the number of times of insertion / removal and the arrival time analyzed (S513). The experience level analysis unit 72 outputs the calculated experience level to the display control unit 81 as a risk estimation result. The experience level analysis unit 72 may output the numerical values of the number of insertions / removals and the arrival time as the analysis result of the experience level, and output the analysis result of the experience level as it is as the risk estimation result. In this case, it is presumed that the greater the number of insertions and removals and the longer the arrival time, the lower the skill level (lower experience level) and the higher the risk of quality deterioration.

表示制御部81の検出マーカ情報生成部82は、入力されたリスク推定結果に基づいて、検出マーカの形態を設定し、設定に応じて検出マーカを表示するための情報を生成する。例えば、検出マーカ情報生成部82は、表示時間制御部83によって、リスク推定結果に基づく表示時間を設定し(図8のS41)、表示内容制御部84によって、リスク推定結果に基づく表示内容を設定する(図8のS42)。 The detection marker information generation unit 82 of the display control unit 81 sets the form of the detection marker based on the input risk estimation result, and generates information for displaying the detection marker according to the setting. For example, the detection marker information generation unit 82 sets the display time based on the risk estimation result by the display time control unit 83 (S41 in FIG. 8), and sets the display content based on the risk estimation result by the display content control unit 84. (S42 in FIG. 8).

こうして、リスク推定結果に応じて表示形態で検出マーカが表示される。 In this way, the detection marker is displayed in the display form according to the risk estimation result.

例えば、抜き差し回数が多い場合や、到達時間が長い場合には、リスク推定結果に基づいて、比較的長い時間、より目立つ色調で検出マーカが表示される。これにより、経験レベルが低いユーザについても、検出マーカの見落としを防止することができ、結果的に検査品質の向上を図ることができる。 For example, when the number of insertions / removals is large or the arrival time is long, the detection marker is displayed in a more conspicuous color tone for a relatively long time based on the risk estimation result. As a result, it is possible to prevent the detection marker from being overlooked even for a user with a low experience level, and as a result, it is possible to improve the inspection quality.

逆に、抜き差し回数が少ない場合や、到達時間が短い場合には、リスク推定結果に基づいて、比較的短い時間、より自然な色調で検出マーカが表示される。これにより、経験レベルが高いユーザについては、観察画像の視認性が検出マーカによって悪化することを抑制することができ、結果的に検査品質の向上を図ることができる。 On the contrary, when the number of insertions and removals is small or the arrival time is short, the detection marker is displayed in a relatively short time and in a more natural color tone based on the risk estimation result. As a result, for users with a high level of experience, it is possible to prevent the visibility of the observed image from being deteriorated by the detection marker, and as a result, it is possible to improve the inspection quality.

このように本実施の形態においては、検査品質が低下するリスクをユーザの経験レベルの解析によって推定し、リスク推定結果に基づいて検出マーカの表示形態を変更するようになっている。これにより、ユーザの経験レベルが比較的低い場合には、検出マーカを例えば見やすく表示することで検出マーカの見落としを防止して検査品質を向上させ、ユーザの経験レベルが比較的高い場合には、観察画像の視認性が悪化しないように検出マーカを表示することで、検査品質を向上させることができる。 As described above, in the present embodiment, the risk of deterioration of inspection quality is estimated by the analysis of the user's experience level, and the display form of the detection marker is changed based on the risk estimation result. As a result, when the user's experience level is relatively low, the detection marker is displayed in an easy-to-read manner to prevent oversight of the detection marker and improve the inspection quality, and when the user's experience level is relatively high, the detection marker is displayed. The inspection quality can be improved by displaying the detection marker so that the visibility of the observed image does not deteriorate.

(第6の実施形態)
図18は本発明の第6の実施形態を示すブロック図である。本実施形態の内視鏡システムは、画像処理装置40に代えて画像処理装置45を採用した点が図1と異なる。図18の画像処理装置44は、経験レベル解析部72を検査経歴解析部77によって構成した点が図15と異なる。他の構成は第5の実施形態と同様であり、説明を省略する。本実施形態はユーザの経験レベルを検査経歴の解析によって推定する例である。
(Sixth Embodiment)
FIG. 18 is a block diagram showing a sixth embodiment of the present invention. The endoscope system of the present embodiment is different from FIG. 1 in that the image processing device 45 is used instead of the image processing device 40. The image processing device 44 of FIG. 18 differs from FIG. 15 in that the experience level analysis unit 72 is configured by the inspection history analysis unit 77. Other configurations are the same as those of the fifth embodiment, and the description thereof will be omitted. This embodiment is an example of estimating the user's experience level by analyzing the examination history.

検査経歴解析部77は、内視鏡検査の経歴を解析することで、ユーザの経験レベルを解析する。本実施形態では、一例として、検査経歴解析部77は、総検査数解析部77a及び総検査時間解析部77bによって構成する。 The examination history analysis unit 77 analyzes the user's experience level by analyzing the history of endoscopy. In the present embodiment, as an example, the inspection history analysis unit 77 is composed of a total inspection number analysis unit 77a and a total inspection time analysis unit 77b.

総検査数解析部77aは、総検査数を解析するようになっている。例えば、総検査数解析部77aは、上述した各種の方法により取得した任意期間において、ユーザが内視鏡検査を行った数を求める。内視鏡検査時には、検査者の氏名等の検査者を特定する情報が入力されるようになっており、総検査数解析部77aは、システム情報によって総検査数を解析することが可能である。なお、観察画像中に検査者を特定する情報がシステム情報とは別に含まれることもあり、総検査数解析部77aは、観察画像から各ユーザの検査数を解析することも可能である。 The total number of inspections analysis unit 77a analyzes the total number of inspections. For example, the total number of examinations analysis unit 77a obtains the number of endoscopy performed by the user in an arbitrary period acquired by the various methods described above. At the time of endoscopic examination, information that identifies the inspector such as the name of the inspector is input, and the total number of examinations analysis unit 77a can analyze the total number of examinations by system information. .. Information that identifies the inspector may be included in the observation image separately from the system information, and the total inspection number analysis unit 77a can also analyze the inspection number of each user from the observation image.

総検査時間解析部77bは、総検査時間を解析するようになっている。例えば、総検査時間解析部77bは、上述した各種の方法により取得した任意期間において、ユーザが内視鏡検査を行った時間を求める。総検査時間解析部77bは、システム情報によって総検査時間を解析することが可能である。なお、総検査時間解析部77bは、観察画像から各ユーザの総検査時間を解析することも可能である。 The total inspection time analysis unit 77b analyzes the total inspection time. For example, the total examination time analysis unit 77b obtains the time during which the user performs the endoscopy in an arbitrary period acquired by the various methods described above. The total inspection time analysis unit 77b can analyze the total inspection time based on the system information. The total inspection time analysis unit 77b can also analyze the total inspection time of each user from the observation image.

例えば、任意期間として、例えば、1日、1週間、1ヶ月等を設定することができる。例えば、各ユーザについて年間における総検査数が比較的多く、総検査時間が比較的長い場合には、熟練度(経験レベル)が高いものと考えられる。経験レベル解析部72は、総検査数解析部77aが求めた総検査数が多い程、総検査時間解析部77bが求めた総検査時間が長い程、経験レベルが高いと解析することができ、リスク推定部70は、検査品質が低下するリスクが小さいと推定することができる。 For example, as an arbitrary period, for example, one day, one week, one month, or the like can be set. For example, if the total number of inspections for each user is relatively large and the total inspection time is relatively long, it is considered that the skill level (experience level) is high. The experience level analysis unit 72 can analyze that the larger the total number of inspections obtained by the total number of inspections analysis unit 77a and the longer the total inspection time obtained by the total inspection time analysis unit 77b, the higher the experience level. The risk estimation unit 70 can estimate that the risk of deterioration of inspection quality is small.

なお、本実施形態においては、検査経歴解析部77は、総検査数解析部77a及び総検査時間解析部77bにより構成した例を説明したが、総検査数解析部77a又は総検査時間解析部77bのいずれか一方によって構成してもよい。 In the present embodiment, the inspection history analysis unit 77 has been described as an example composed of the total inspection number analysis unit 77a and the total inspection time analysis unit 77b, but the total inspection number analysis unit 77a or the total inspection time analysis unit 77b has been described. It may be configured by either one of.

次に、このように構成された実施形態の動作について図19を参照して説明する。図19は第6の実施形態の動作を説明するためのフローチャートである。 Next, the operation of the embodiment configured in this way will be described with reference to FIG. FIG. 19 is a flowchart for explaining the operation of the sixth embodiment.

本実施形態における動作は、図3及び図16と同様である。図19は、図16のステップS51について、図17とは異なる具体的なフローの一例を示している。 The operation in this embodiment is the same as in FIGS. 3 and 16. FIG. 19 shows an example of a specific flow of step S51 of FIG. 16 which is different from that of FIG.

リスク推定部70の経験レベル解析部72は、図16のステップS51において、ユーザの経験レベルを解析する。例えば、経験レベル解析部72は、検査経歴解析部77によって、各ユーザの内視鏡検査経歴を解析する。図19は検査経歴解析部77の具体的な処理の一例を示している。検査経歴解析部77は、総検査数解析部77aによって内視鏡検査の総検査数を解析する(S514)。また、検査経歴解析部77は、総検査時間解析部77bによって内視鏡検査の総検査時間を解析する(S515)。 The experience level analysis unit 72 of the risk estimation unit 70 analyzes the user's experience level in step S51 of FIG. For example, the experience level analysis unit 72 analyzes the endoscopic examination history of each user by the examination history analysis unit 77. FIG. 19 shows an example of a specific process of the inspection history analysis unit 77. The examination history analysis unit 77 analyzes the total number of endoscopic examinations by the total number of examinations analysis unit 77a (S514). In addition, the examination history analysis unit 77 analyzes the total examination time of the endoscopy by the total examination time analysis unit 77b (S515).

なお、ステップS514,S515の解析は、逆順に行ってもよく、また、いずれか一方の解析のみを行ってもよい。経験レベル解析部72は、解析した総検査数及び総検査時間の少なくとも一方の解析結果に基づいて、経験レベルを算出する(S516)。経験レベル解析部72は、算出した経験レベルをリスク推定結果として表示制御部81に出力する。なお、経験レベル解析部72は、総検査数が多いほど、また、総検査時間が長い程、経験レベルが高く、検査品質が低下するリスクが低いと推定し、総検査数が少ないほど、また、総検査時間が短い程、経験レベルが低く、品質が低下するリスクが高いと推定する。 The analysis of steps S514 and S515 may be performed in the reverse order, or only one of the analyzes may be performed. The experience level analysis unit 72 calculates the experience level based on the analysis result of at least one of the total number of tests analyzed and the total test time (S516). The experience level analysis unit 72 outputs the calculated experience level to the display control unit 81 as a risk estimation result. The experience level analysis unit 72 estimates that the larger the total number of inspections and the longer the total inspection time, the higher the experience level and the lower the risk of deterioration of inspection quality. It is estimated that the shorter the total inspection time, the lower the experience level and the higher the risk of quality deterioration.

表示制御部81の検出マーカ情報生成部82において、リスク推定結果に応じた形態の検出マーカを表示するための情報が生成されることは第5の実施形態と同様である。この結果、表示装置95の表示画面95a上には、ユーザの経験レベルに応じた形態の検出マーカが表示される。 Similar to the fifth embodiment, the detection marker information generation unit 82 of the display control unit 81 generates information for displaying the detection marker in the form corresponding to the risk estimation result. As a result, on the display screen 95a of the display device 95, a detection marker having a form corresponding to the user's experience level is displayed.

他の作用は第5の実施形態と同様である。このように本実施の形態においても、第5の実施形態と同様の効果を得ることができる。 Other actions are the same as in the fifth embodiment. As described above, the same effect as that of the fifth embodiment can be obtained in the present embodiment as well.

(第7の実施形態)
図20は本発明の第7の実施形態を示すブロック図である。本実施形態の内視鏡システムは、画像処理装置40に代えて画像処理装置46を採用した点が図1と異なる。図20の画像処理装置46は、経験レベル解析部72を比較解析部78によって構成した点が図15と異なる。他の構成は第5の実施形態と同様であり、説明を省略する。本実施形態はユーザの経験レベルをコンピュータ診断支援装置(Computer Aided Diagnosis:CAD)との比較による解析によって推定する例である。
(7th Embodiment)
FIG. 20 is a block diagram showing a seventh embodiment of the present invention. The endoscope system of the present embodiment is different from FIG. 1 in that the image processing device 46 is used instead of the image processing device 40. The image processing device 46 of FIG. 20 differs from FIG. 15 in that the experience level analysis unit 72 is configured by the comparative analysis unit 78. Other configurations are the same as those of the fifth embodiment, and the description thereof will be omitted. This embodiment is an example of estimating the user's experience level by analysis by comparison with a computer-aided diagnosis (CAD).

比較解析部78は、病変部候補に対するユーザの診断結果とCADによる診断結果とを比較し比較結果の推移を解析する。本実施形態では、一例として、比較解析部78は、過去からの推移解析部78a及び症例内の推移解析部78bによって構成する。 The comparative analysis unit 78 compares the diagnosis result of the user with respect to the lesion candidate and the diagnosis result by CAD, and analyzes the transition of the comparison result. In the present embodiment, as an example, the comparative analysis unit 78 is composed of a transition analysis unit 78a from the past and a transition analysis unit 78b in the case.

過去からの推移解析部78aは、病変部候補に対するユーザの診断結果とCADによる診断結果とを比較し、CADの診断結果を基準にしてユーザの診断結果がどのように変化したかの推移を解析する。通常、病変部候補に対する診断の正当性の度合いは、熟練度が極めて高いエキスパートの医師≧CAD>未熟な医師であると考えられる。このため、未熟な医師による診断結果とCADの診断結果との差は比較的大きく、当該医師が経験を積むにつれて、次第にその差が小さくなるものと考えられる。 The transition analysis unit 78a from the past compares the user's diagnosis result for the lesion candidate with the CAD diagnosis result, and analyzes the transition of how the user's diagnosis result has changed based on the CAD diagnosis result. do. Usually, the degree of justification of diagnosis for a lesion candidate is considered to be an expert doctor with extremely high skill level ≧ CAD> an inexperienced doctor. Therefore, the difference between the diagnosis result by an inexperienced doctor and the diagnosis result of CAD is relatively large, and it is considered that the difference gradually becomes smaller as the doctor gains experience.

従って、ユーザの診断結果とCADによる診断結果との比較を行い、比較結果を図示しないメモリに記憶させ、比較結果の推移によって、ユーザの経験レベルを判断することが可能である。過去からの推移解析部78aは、このような診断結果の記録及び読み出しを行って比較結果の推移を解析し、経験レベル解析部72は、解析結果に基づいてユーザの経験レベルを判定する。なお、リスク推定部70は、システム情報に基づいて、ユーザの診断結果及びCADの診断結果を取得することができる。 Therefore, it is possible to compare the diagnosis result of the user with the diagnosis result by CAD, store the comparison result in a memory (not shown), and judge the experience level of the user by the transition of the comparison result. The transition analysis unit 78a from the past records and reads out such a diagnosis result to analyze the transition of the comparison result, and the experience level analysis unit 72 determines the user's experience level based on the analysis result. The risk estimation unit 70 can acquire the user's diagnosis result and the CAD diagnosis result based on the system information.

また、症例内の推移解析部78bは、1つの症例内において、病変部候補に対するユーザの診断結果とCADによる診断結果とを比較し、CADの診断結果を基準にしてユーザの診断結果がどのように変化したかの推移を解析する。1症例内の診断時においても、ユーザが経験を積み、ユーザの診断結果とCADによる診断結果との差が小さくなることがある。症例内の推移解析部78bは、各症例内において診断結果の記録及び読み出しを行って比較結果の推移を解析し、経験レベル解析部72は、解析結果に基づいてユーザの経験レベルを判定する。 In addition, the transition analysis unit 78b in the case compares the diagnosis result of the user with respect to the lesion candidate and the diagnosis result by CAD in one case, and how the diagnosis result of the user is based on the diagnosis result of CAD. Analyze the transition of whether it has changed to. Even at the time of diagnosis within one case, the user may gain experience and the difference between the user's diagnosis result and the CAD diagnosis result may become small. The transition analysis unit 78b in the case records and reads out the diagnosis result in each case to analyze the transition of the comparison result, and the experience level analysis unit 72 determines the user's experience level based on the analysis result.

なお、本実施形態においては、比較解析部78は、過去からの推移解析部78a及び症例内の推移解析部78bにより構成した例を説明したが、過去からの推移解析部78a又は症例内の推移解析部78bのいずれか一方によって構成してもよい。 In the present embodiment, the comparative analysis unit 78 has been described as an example composed of the transition analysis unit 78a from the past and the transition analysis unit 78b in the case, but the transition analysis unit 78a from the past or the transition in the case has been described. It may be configured by either one of the analysis units 78b.

次に、このように構成された実施形態の動作について図21を参照して説明する。図21は第7の実施形態の動作を説明するためのフローチャートである。 Next, the operation of the embodiment configured in this way will be described with reference to FIG. 21. FIG. 21 is a flowchart for explaining the operation of the seventh embodiment.

本実施形態における動作は、図3及び図16と同様である。図21は、図16のステップS51について、図17とは異なる具体的なフローの一例を示している。 The operation in this embodiment is the same as in FIGS. 3 and 16. FIG. 21 shows an example of a specific flow of step S51 of FIG. 16 which is different from that of FIG.

リスク推定部70の経験レベル解析部72は、図16のステップS51において、ユーザの経験レベルを解析する。経験レベル解析部72は、比較解析部78によって、経験レベルを解析する。図21は比較解析部78の具体的な処理の一例を示している。比較解析部78は、各ユーザの診断結果とCADの診断結果を取得し(図21のS517)、過去からの推移解析部78aによってユーザの診断結果とCADの診断結果との差の推移を解析する(S518)。経験レベル解析部72は、症例内の推移解析部78bによって、1症例内について、ユーザの診断結果とCADの診断結果との差の推移を解析する(S519)。 The experience level analysis unit 72 of the risk estimation unit 70 analyzes the user's experience level in step S51 of FIG. The experience level analysis unit 72 analyzes the experience level by the comparative analysis unit 78. FIG. 21 shows an example of specific processing of the comparative analysis unit 78. The comparative analysis unit 78 acquires the diagnosis result of each user and the diagnosis result of CAD (S517 in FIG. 21), and analyzes the transition of the difference between the diagnosis result of the user and the diagnosis result of CAD by the transition analysis unit 78a from the past. (S518). The experience level analysis unit 72 analyzes the transition of the difference between the user's diagnosis result and the CAD diagnosis result in one case by the transition analysis unit 78b in the case (S519).

なお、ステップS518,S519の解析は、逆順に行ってもよく、また、いずれか一方の解析のみを行ってもよい。経験レベル解析部72は、解析した過去からの推移の解析結果及び1症例内での推移の解析結果の少なくとも一方の解析結果に基づいて、経験レベルを算出する(S520)。例えば、経験レベル解析部72は、ユーザの診断結果とCADの診断結果との差の推移によって、ユーザの診断結果の正当性の度合いを判断してユーザの経験レベルを求める。例えば、ユーザの診断結果とCADの診断結果との差が小さくなると、ユーザの経験レベルが高くなったものと判定することができる。 The analysis in steps S518 and S519 may be performed in the reverse order, or only one of the analyzes may be performed. The experience level analysis unit 72 calculates the experience level based on at least one of the analysis result of the transition from the past analyzed and the analysis result of the transition within one case (S520). For example, the experience level analysis unit 72 determines the degree of validity of the user's diagnosis result based on the transition of the difference between the user's diagnosis result and the CAD diagnosis result, and obtains the user's experience level. For example, when the difference between the user's diagnosis result and the CAD diagnosis result becomes small, it can be determined that the user's experience level has increased.

リスク推定部70は、算出した経験レベルをリスク推定結果として表示制御部81に出力する。表示制御部81の検出マーカ情報生成部82において、リスク推定結果に応じた形態の検出マーカを表示するための情報が生成されることは第5の実施形態と同様である。この結果、表示装置95の表示画面95a上には、ユーザの経験レベルに応じた形態の検出マーカが表示される。 The risk estimation unit 70 outputs the calculated experience level to the display control unit 81 as a risk estimation result. Similar to the fifth embodiment, the detection marker information generation unit 82 of the display control unit 81 generates information for displaying the detection marker in the form corresponding to the risk estimation result. As a result, on the display screen 95a of the display device 95, a detection marker having a form corresponding to the user's experience level is displayed.

他の作用は第5の実施形態と同様である。このように本実施の形態においても、第5の実施形態と同様の効果を得ることができる。 Other actions are the same as in the fifth embodiment. As described above, the same effect as that of the fifth embodiment can be obtained in the present embodiment as well.

なお、リスク推定部70としては、上記第5から第7の実施形態における抜き差し回数解析部76a、到達時間解析部76b、総検査数解析部77a、総検査時間解析部77b、過去からの推移解析部78a及び症例内の推移解析部78bのうちの少なくとも1つを備えた経験レベル解析部72を採用してユーザの経験レベルを解析するようになっていてもよい。 The risk estimation unit 70 includes a insertion / removal frequency analysis unit 76a, an arrival time analysis unit 76b, a total inspection number analysis unit 77a, a total inspection time analysis unit 77b, and a transition analysis from the past in the fifth to seventh embodiments. The experience level analysis unit 72 including at least one of the unit 78a and the transition analysis unit 78b in the case may be adopted to analyze the user's experience level.

更に、リスク推定部70は、上記第2〜第7の実施形態における疲労度解析部71及び経験レベル解析部72の少なくとも1つを備えていてもよい。 Further, the risk estimation unit 70 may include at least one of the fatigue degree analysis unit 71 and the experience level analysis unit 72 in the second to seventh embodiments.

また、上記各実施形態において、報知を音声等によって行う場合にも、リスク推定結果に応じた報知態様を設定することが可能である。 Further, in each of the above embodiments, it is possible to set the notification mode according to the risk estimation result even when the notification is performed by voice or the like.

なお、明細書中で説明した技術のうち、主にフローチャートで説明した制御に関しては、プログラムで設定可能であることが多く、記録媒体や記録部に収められる場合もある。この記録媒体、記録部への記録の仕方は、製品出荷時に記録してもよく、配布された記録媒体を利用してもよく、インターネットを介してダウンロードしたものでもよい。 Of the techniques described in the specification, the controls mainly described in the flowchart can often be set by a program, and may be stored in a recording medium or a recording unit. The recording method to the recording medium and the recording unit may be recorded at the time of product shipment, the distributed recording medium may be used, or may be downloaded via the Internet.

また、フローチャート中の各ステップは、その性質に反しない限り、実行順序を変更し、複数同時に実行し、あるいは実行毎に異なった順序で実行してもよい。 Further, each step in the flowchart may be executed at the same time by changing the execution order, or may be executed in a different order for each execution, as long as it does not violate the property.

なお、実施形態中で、「部」として記載した部分は、専用の回路や、複数の汎用の回路を組み合わせて構成してもよく、必要に応じて、予めプログラムされたソフトウェアに従って動作を行うマイコン、CPUなどのプロセッサ、あるいはFPGAなどシーケンサを組み合わせて構成されてもよい。 In the embodiment, the part described as the "part" may be configured by combining a dedicated circuit or a plurality of general-purpose circuits, and if necessary, a microcomputer that operates according to pre-programmed software. , A processor such as a CPU, or a sequencer such as an FPGA may be combined.

本発明は、上記各実施形態にそのまま限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記各実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素の幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。 The present invention is not limited to each of the above embodiments as it is, and at the implementation stage, the components can be modified and embodied within a range that does not deviate from the gist thereof. In addition, various inventions can be formed by an appropriate combination of the plurality of components disclosed in each of the above embodiments. For example, some components of all the components shown in the embodiment may be deleted. In addition, components across different embodiments may be combined as appropriate.

本発明は、画像処理装置、診断支援方法及び画像処理プログラムに関する。 The present invention relates to an image processing apparatus , a diagnostic support method, and an image processing program .

本発明は、観察画像そのものを変更することなく、ユーザの状態に応じて表示方法を変更することにより、病変部候補領域の見落としを防止することができる画像処理装置、診断支援方法及び画像処理プログラムを提供することを目的とする。 The present invention is an image processing device , a diagnostic support method, and an image processing program that can prevent oversight of a lesion candidate region by changing the display method according to the user's state without changing the observation image itself. The purpose is to provide.

本発明の一態様による画像処理装置は、被検体の観察画像を入力するか又は前記観察画像及びシステム情報を入力する入力部と、前記観察画像から病変部候補を検出する検出部と、 前記観察画像又は前記システム情報から検査品質の低下リスクを推定するリスク推定部と、前記リスク推定部のリスク推定結果から前記病変部候補の報知態様を制御する報知制御部と、前記報知制御部の制御に従って前記病変部候補を報知する報知出力部と、を具備する。 The image processing apparatus according to one aspect of the present invention includes an input unit for inputting an observation image of a subject or inputting the observation image and system information, a detection unit for detecting a lesion candidate from the observation image, and the observation. and risk estimation unit for estimating the risk reduction quality inspection from the image or the system information, and a notification control unit that controls the notification manner of the lesion candidate from risk estimation results of the risk estimation unit, under the control of the notification control unit A notification output unit for notifying the lesion candidate is provided.

本発明の態様による画像処理プログラムは、コンピュータに、被検体の観察画像を入力するか又は前記観察画像及びシステム情報を入力し、前記観察画像から病変部候補を検出し、前記観察画像又は前記システム情報から検査品質の低下リスクを推定し、前記検査品質の低下リスクの推定結果から前記病変部候補の報知態様を制御し、前記報知態様の制御に従って前記病変部候補を報知する、処理を実行させる。
本発明の一態様による診断支援方法は、被検体の観察画像から病変部候補を検出し、前記観察画像又はシステム情報から検査品質の低下リスクを推定し、前記検査品質の低下リスクの推定結果に応じた報知態様で前記病変部候補を報知する。
The image processing program according to one aspect of the present invention inputs an observation image of a subject to a computer or inputs the observation image and system information, detects a lesion candidate from the observation image, and inputs the observation image or the above. Execution of processing is performed in which the risk of deterioration of inspection quality is estimated from the system information, the notification mode of the lesion candidate is controlled from the estimation result of the deterioration risk of inspection quality, and the lesion candidate is notified according to the control of the notification mode. Let me.
In the diagnostic support method according to one aspect of the present invention, a lesion candidate is detected from an observation image of a subject, a risk of deterioration of test quality is estimated from the observation image or system information, and the estimation result of the risk of deterioration of test quality is obtained. The lesion candidate is notified in the corresponding notification mode.

Claims (24)

被検体の観察画像を入力するか又は前記観察画像及びシステム情報を入力する入力部と、
前記観察画像から病変部候補を検出する検出部と、
前記観察画像又はシステム情報から検査品質の低下リスクを推定するリスク推定部と、
前記リスク推定部のリスク推定結果から病変部候補の報知態様を制御する報知制御部と、
前記報知制御部の制御に従って前記病変部候補を報知する報知出力部と、
を具備したことを特徴とする内視鏡装置。
An input unit for inputting an observation image of a subject or inputting the observation image and system information,
A detection unit that detects lesion candidate from the observation image, and a detection unit.
The risk estimation unit that estimates the risk of deterioration of inspection quality from the observation image or system information,
A notification control unit that controls the notification mode of the lesion candidate from the risk estimation result of the risk estimation unit,
A notification output unit that notifies the lesion candidate according to the control of the notification control unit, and a notification output unit.
An endoscope device characterized by being equipped with.
前記リスク推定部は、ユーザの疲労度を解析する疲労度解析部を具備し、
解析結果の疲労度に基づいて、前記リスク推定結果を求める
ことを特徴とする請求項1に記載の内視鏡装置。
The risk estimation unit includes a fatigue level analysis unit that analyzes the user's fatigue level.
The endoscope device according to claim 1, wherein the risk estimation result is obtained based on the degree of fatigue of the analysis result.
前記疲労度解析部は、操作ログを解析する第1操作ログ解析部を具備し、
解析結果の操作ログに基づいて、前記疲労度を求める
ことを特徴とする請求項2に記載の内視鏡装置。
The fatigue degree analysis unit includes a first operation log analysis unit that analyzes operation logs.
The endoscope device according to claim 2, wherein the degree of fatigue is obtained based on the operation log of the analysis result.
前記第1操作ログ解析部は、任意期間における内視鏡の持ち変え回数を解析する持ち変え回数解析部を具備し、
解析結果の持ち変え回数に基づいて、前記疲労度を求める
ことを特徴とする請求項3に記載の内視鏡装置。
The first operation log analysis unit includes a holding number analysis unit that analyzes the number of times the endoscope is changed during an arbitrary period.
The endoscope device according to claim 3, wherein the degree of fatigue is obtained based on the number of times the analysis result is changed.
前記第1操作ログ解析部は、任意期間における内視鏡のひねり回数を解析するひねり回数解析部を具備し、
解析結果のひねり回数に基づいて、前記疲労度を求める
ことを特徴とする請求項3に記載の内視鏡装置。
The first operation log analysis unit includes a twist count analysis unit that analyzes the number of twists of the endoscope in an arbitrary period.
The endoscope device according to claim 3, wherein the degree of fatigue is obtained based on the number of twists of the analysis result.
前記疲労度解析部は、検査状況ログを解析する検査状況解析部を具備し、
解析結果の検査状況に基づいて、前記疲労度を求める
ことを特徴とする請求項2に記載の内視鏡装置。
The fatigue degree analysis unit includes an inspection status analysis unit that analyzes inspection status logs.
The endoscope device according to claim 2, wherein the degree of fatigue is obtained based on the inspection status of the analysis result.
前記検査状況解析部は、任意期間における検査経過時間を解析する検査経過時間解析部を具備し、
解析結果の検査経過時間に基づいて、前記疲労度を求める
ことを特徴とする請求項6に記載の内視鏡装置。
The inspection status analysis unit includes an inspection elapsed time analysis unit that analyzes the inspection elapsed time in an arbitrary period.
The endoscope device according to claim 6, wherein the degree of fatigue is obtained based on the elapsed inspection time of the analysis result.
前記検査状況解析部は、連続検査回数を解析する連続検査回数解析部を具備し、
解析結果の連続検査回数に基づいて、前記疲労度を求める
ことを特徴とする請求項6に記載の内視鏡装置。
The inspection status analysis unit includes a continuous inspection number analysis unit that analyzes the number of continuous inspections.
The endoscope device according to claim 6, wherein the degree of fatigue is obtained based on the number of continuous inspections of the analysis result.
前記疲労度解析部は、生体情報を解析する生体情報解析部を具備し、
解析結果の生体情報に基づいて、前記疲労度を求める
ことを特徴とする請求項2に記載の内視鏡装置。
The fatigue degree analysis unit includes a biometric information analysis unit that analyzes biometric information.
The endoscope device according to claim 2, wherein the degree of fatigue is obtained based on the biological information of the analysis result.
前記生体情報解析部は、瞬き回数解析部を具備し、
解析結果の瞬き回数に基づいて、前記疲労度を求める
ことを特徴とする請求項9に記載の内視鏡装置。
The biological information analysis unit includes a blink count analysis unit.
The endoscope device according to claim 9, wherein the degree of fatigue is obtained based on the number of blinks of the analysis result.
前記リスク推定部は、ユーザの経験レベルを解析する経験レベル解析部を具備し、
解析結果の経験レベルに基づいて、前記リスク推定結果を求める
ことを特徴とする請求項1に記載の内視鏡装置。
The risk estimation unit includes an experience level analysis unit that analyzes the user's experience level.
The endoscope device according to claim 1, wherein the risk estimation result is obtained based on the experience level of the analysis result.
前記経験レベル解析部は、操作ログを解析する第2操作ログ解析部を具備し、
解析結果の操作ログに基づいて、前記経験レベルを求める
ことを特徴とする請求項11に記載の内視鏡装置。
The experience level analysis unit includes a second operation log analysis unit that analyzes operation logs.
The endoscope device according to claim 11, wherein the experience level is obtained based on the operation log of the analysis result.
前記第2操作ログ解析部は、内視鏡の検査対象部までの内視鏡の抜き差し回数を解析する抜き差し回数解析部を具備し、
解析結果の抜き差し回数に基づいて、前記経験レベルを求める
ことを特徴とする請求項12に記載の内視鏡装置。
The second operation log analysis unit includes an insertion / removal count analysis unit that analyzes the number of insertions / removals of the endoscope up to the inspection target portion of the endoscope.
The endoscope device according to claim 12, wherein the experience level is obtained based on the number of times of insertion and removal of the analysis result.
前記第2操作ログ解析部は、内視鏡の検査対象部までの到達時間を解析する到達時間解析部を具備し、
解析結果の到達時間に基づいて、前記経験レベルを求める
ことを特徴とする請求項12に記載の内視鏡装置。
The second operation log analysis unit includes an arrival time analysis unit that analyzes the arrival time of the endoscope to the inspection target unit.
The endoscope device according to claim 12, wherein the experience level is obtained based on the arrival time of the analysis result.
前記経験レベル解析部は、ユーザの検査経歴を解析する検査経歴解析部を具備し、
解析結果の検査経歴に基づいて、前記経験レベルを求める
ことを特徴とする請求項11に記載の内視鏡装置。
The experience level analysis unit includes an inspection history analysis unit that analyzes the user's inspection history.
The endoscope device according to claim 11, wherein the experience level is obtained based on the examination history of the analysis result.
前記検査経歴解析部は、任意期間における検査の総検査数及び総検査時間の少なくとも一方を解析することで前記経験レベルを求める
ことを特徴とする請求項15に記載の内視鏡装置。
The endoscope device according to claim 15, wherein the examination history analysis unit obtains the experience level by analyzing at least one of the total number of examinations and the total examination time in an arbitrary period.
前記経験レベル解析部は、ユーザの診断結果とコンピュータ診断支援装置の診断結果との比較結果の推移を解析する比較解析部を具備し、
解析結果の比較結果の推移に基づいて、前記経験レベルを求める
ことを特徴とする請求項11に記載の内視鏡装置。
The experience level analysis unit includes a comparison analysis unit that analyzes the transition of the comparison result between the diagnosis result of the user and the diagnosis result of the computer diagnosis support device.
The endoscope device according to claim 11, wherein the experience level is obtained based on the transition of the comparison result of the analysis result.
前記比較解析部は、過去から現在に至る比較結果の推移及び1検査内における比較結果の推移の少なくとも一方に基づいて前記経験レベルを求める
ことを特徴とする請求項17に記載の内視鏡装置。
The endoscope device according to claim 17, wherein the comparative analysis unit obtains the experience level based on at least one of the transition of the comparison result from the past to the present and the transition of the comparison result in one examination. ..
前記報知制御部は、前記リスク推定結果に基づいて前記病変部候補の報知時間を変更する
ことを特徴とする請求項1に記載の内視鏡装置。
The endoscope device according to claim 1, wherein the notification control unit changes the notification time of the lesion candidate based on the risk estimation result.
前記報知制御部は、前記リスク推定結果に基づいて前記病変部候補の報知内容を変更する
ことを特徴とする請求項1に記載の内視鏡装置。
The endoscope device according to claim 1, wherein the notification control unit changes the notification content of the lesion candidate based on the risk estimation result.
前記報知制御部は、前記リスク推定結果に基づいて前記病変部候補の報知態様の表示色調を変更する
ことを特徴とする請求項20に記載の内視鏡装置。
The endoscope device according to claim 20, wherein the notification control unit changes the display color tone of the notification mode of the lesion candidate based on the risk estimation result.
前記報知制御部は、前記病変部候補の性状を解析する病変解析部を具備し、
前記病変部候補の性状及び前記リスク推定結果に基づいて前記病変部候補の表示非表示の表示判定レベルを変化させる
ことを特徴とする請求項20に記載の内視鏡装置。
The notification control unit includes a lesion analysis unit that analyzes the properties of the lesion candidate.
The endoscope device according to claim 20, wherein the display / non-display determination level of the lesion candidate is changed based on the properties of the lesion candidate and the risk estimation result.
前記報知出力部は、前記観察画像と前記病変部候補を示す検出マーカとを表示器に表示する
ことを特徴とする請求項1に記載の内視鏡装置。
The endoscope device according to claim 1, wherein the notification output unit displays the observation image and a detection marker indicating the lesion site candidate on a display.
被検体を撮像して撮像信号を出力する内視鏡と、
前記内視鏡の撮像信号に基づく観察画像を生成するビデオプロセッサと、
前記ビデオプロセッサから前記観察画像を入力するか又は前記観察画像及びシステム情報を入力する入力部と、
前記観察画像から病変部候補を検出する検出部と、
前記観察画像又はシステム情報から検査品質の低下リスクを推定するリスク推定部と、
前記リスク推定部のリスク推定結果から病変部候補の報知態様を制御する報知制御部と、
前記報知制御部の制御に従って前記病変部候補を報知する報知出力部と、
を具備したことを特徴とする内視鏡システム。
An endoscope that captures an image of a subject and outputs an imaging signal,
A video processor that generates an observation image based on the image pickup signal of the endoscope, and
An input unit for inputting the observation image from the video processor or inputting the observation image and system information.
A detection unit that detects lesion candidate from the observation image, and a detection unit.
The risk estimation unit that estimates the risk of deterioration of inspection quality from the observation image or system information,
A notification control unit that controls the notification mode of the lesion candidate from the risk estimation result of the risk estimation unit,
A notification output unit that notifies the lesion candidate according to the control of the notification control unit, and a notification output unit.
An endoscope system characterized by being equipped with.
JP2020567685A 2019-01-21 2019-01-21 Image processing device, method of operating image processing device, and image processing program Active JP7189969B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/001712 WO2020152758A1 (en) 2019-01-21 2019-01-21 Endoscopic instrument and endoscopic system

Publications (2)

Publication Number Publication Date
JPWO2020152758A1 true JPWO2020152758A1 (en) 2021-12-09
JP7189969B2 JP7189969B2 (en) 2022-12-14

Family

ID=71735644

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020567685A Active JP7189969B2 (en) 2019-01-21 2019-01-21 Image processing device, method of operating image processing device, and image processing program

Country Status (4)

Country Link
US (1) US20210338042A1 (en)
JP (1) JP7189969B2 (en)
CN (1) CN113271839A (en)
WO (1) WO2020152758A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113164023B (en) * 2018-11-28 2024-02-23 奥林巴斯株式会社 Endoscope system, image processing method for endoscope, and computer-readable storage medium
JP7085018B2 (en) * 2018-11-30 2022-06-15 オリンパス株式会社 Display device, display control method and endoscopic system
CN115778570B (en) * 2023-02-09 2023-06-27 岱川医疗(深圳)有限责任公司 Endoscope detection method, control device and detection system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02166493A (en) * 1988-12-20 1990-06-27 Nec Corp Vdt device
WO2006100808A1 (en) * 2005-03-22 2006-09-28 Osaka University Capsule endoscope image display controller
JP2010057727A (en) * 2008-09-04 2010-03-18 Konica Minolta Medical & Graphic Inc Medical image reading system
JP2010262466A (en) * 2009-05-07 2010-11-18 Toshiba Corp Medical diagnostic support system and medical diagnostic support method
JP2011255006A (en) * 2010-06-09 2011-12-22 Olympus Corp Image processor, endoscopic device, program and image processing method
JP2012217579A (en) * 2011-04-07 2012-11-12 Olympus Corp Endoscope apparatus and blur correction processing method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005348936A (en) * 2004-06-10 2005-12-22 Konica Minolta Medical & Graphic Inc Medical image display system, program, and medical image display method
JP2006130049A (en) * 2004-11-05 2006-05-25 Fuji Photo Film Co Ltd Method, system, and program for supporting image reading
WO2010102299A1 (en) * 2009-03-06 2010-09-10 Nash David E Predictive risk intelligent safety module
JP2019005267A (en) * 2017-06-26 2019-01-17 コニカミノルタ株式会社 Fatigue evaluation system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02166493A (en) * 1988-12-20 1990-06-27 Nec Corp Vdt device
WO2006100808A1 (en) * 2005-03-22 2006-09-28 Osaka University Capsule endoscope image display controller
JP2010057727A (en) * 2008-09-04 2010-03-18 Konica Minolta Medical & Graphic Inc Medical image reading system
JP2010262466A (en) * 2009-05-07 2010-11-18 Toshiba Corp Medical diagnostic support system and medical diagnostic support method
JP2011255006A (en) * 2010-06-09 2011-12-22 Olympus Corp Image processor, endoscopic device, program and image processing method
JP2012217579A (en) * 2011-04-07 2012-11-12 Olympus Corp Endoscope apparatus and blur correction processing method

Also Published As

Publication number Publication date
US20210338042A1 (en) 2021-11-04
WO2020152758A1 (en) 2020-07-30
JP7189969B2 (en) 2022-12-14
CN113271839A (en) 2021-08-17

Similar Documents

Publication Publication Date Title
JP6602969B2 (en) Endoscopic image processing device
KR102185886B1 (en) Colonoscopy image analysis method and apparatus using artificial intelligence
US20210338042A1 (en) Image processing apparatus, diagnosis supporting method, and recording medium recording image processing program
US20210106208A1 (en) Endoscopic image processing apparatus, endoscopic image processing method, and non-transitory computer readable recording medium
WO2018198161A1 (en) Endoscope image processing apparatus and endoscope image processing method
CN111970955A (en) Endoscopic observation support device, endoscopic observation support method, and program
US9820648B2 (en) Image processing apparatus and image processing method
JP7315576B2 (en) Medical image processing device, operating method and program for medical image processing device, diagnostic support device, and endoscope system
WO2020165978A1 (en) Image recording device, image recording method, and image recording program
US20090167849A1 (en) Endoscope apparatus
JPWO2021149112A5 (en)
US20210251470A1 (en) Image processing device for endoscope, image processing method for endoscope, and recording medium
JP5985084B2 (en) Endoscope processor
US20230360221A1 (en) Medical image processing apparatus, medical image processing method, and medical image processing program
JP4855902B2 (en) Biological observation system
JP4794992B2 (en) Insertion monitoring device
JP2021191314A (en) Endoscope system and operation method of endoscope system
JP6062112B2 (en) Endoscope system
JP2011244884A (en) Endoscopic system
JP7264407B2 (en) Colonoscopy observation support device for training, operation method, and program
WO2022085500A1 (en) Test assistance device, test assistance method, and test assistance program
JP2024008474A (en) Inspection support device, inspection support method, and inspection support program
WO2023195103A1 (en) Inspection assistance system and inspection assistance method
JP2020171599A (en) Image generation device, computer program, and image generation method
KR101630364B1 (en) medical imaging system using endoscope and method for controlling the same

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210719

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210719

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220728

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221202

R151 Written notification of patent or utility model registration

Ref document number: 7189969

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151