WO2016017476A1 - 内視鏡のためのビデオプロセッサ及びそれを備えた内視鏡システム - Google Patents

内視鏡のためのビデオプロセッサ及びそれを備えた内視鏡システム Download PDF

Info

Publication number
WO2016017476A1
WO2016017476A1 PCT/JP2015/070710 JP2015070710W WO2016017476A1 WO 2016017476 A1 WO2016017476 A1 WO 2016017476A1 JP 2015070710 W JP2015070710 W JP 2015070710W WO 2016017476 A1 WO2016017476 A1 WO 2016017476A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
endoscope
video processor
image processing
unit
Prior art date
Application number
PCT/JP2015/070710
Other languages
English (en)
French (fr)
Inventor
鈴木 達彦
智樹 岩崎
橋本 進
敏裕 濱田
祐二 久津間
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to JP2016506713A priority Critical patent/JP5932188B1/ja
Priority to CN201580003813.9A priority patent/CN105899123B/zh
Priority to EP15827251.8A priority patent/EP3192429A4/en
Publication of WO2016017476A1 publication Critical patent/WO2016017476A1/ja
Priority to US15/240,254 priority patent/US9861267B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00006Operational features of endoscopes characterised by electronic signal processing of control signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/0002Operational features of endoscopes provided with data storages
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2476Non-optical details, e.g. housings, mountings, supports
    • G02B23/2484Arrangements in relation to a camera or imaging device
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/26Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes using light guides
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters

Definitions

  • the present invention relates to a video processor for an endoscope and an endoscope system including the same.
  • Japanese Patent Laid-Open No. 2006-280541 discloses a processor device that performs image processing on an endoscopic image acquired by an endoscope, and an endoscope that displays an endoscopic image that has been image processed by the processor device.
  • a technique related to an endoscope system including an adjustment processor device that adjusts parameters of an endoscope image and an adjustment monitor that displays an adjustment image is disclosed.
  • the adjustment monitor displays the contents of the parameter adjustment
  • the endoscope monitor can display only the endoscopic image. For this reason, parameter adjustment can be performed using the adjustment monitor while the endoscopic diagnosis is continued without interruption using the endoscope monitor.
  • the user adjusts the image quality while confirming the image obtained by the endoscope.
  • the video processor is connected to the endoscope and an appropriate image is taken by the endoscope.
  • An object of the present invention is to provide a video processor for an endoscope in which the image quality of an endoscopic image can be adjusted even if the endoscope is not connected, and an endoscope system including the video processor. To do.
  • a video processor for an endoscope is an endoscope that performs image processing on an endoscopic image obtained by an imaging unit of an endoscope.
  • a recording unit that records a value related to the selection value determined by the setting value as a set value, and the image processing unit applies the endoscope image obtained by the imaging unit to the endoscope image based on the set value The image processing is performed.
  • an endoscope system includes the video processor described above and the endoscope.
  • a video processor for an endoscope that can adjust the image quality of an endoscopic image even if the endoscope is not connected, and an endoscope system including the video processor.
  • FIG. 1 is a block diagram illustrating an outline of a configuration example of an endoscope system according to the first embodiment.
  • FIG. 2 is a diagram illustrating an example of a composite screen according to the first embodiment.
  • FIG. 3 is a flowchart illustrating an example of processing in the video processor according to the first embodiment.
  • FIG. 4 is a block diagram illustrating a configuration example of an endoscope system according to the second embodiment.
  • FIG. 5 is a diagram illustrating an example of a screen displayed on the display panel according to the second embodiment.
  • the endoscope system 1 includes a video processor 100 according to the present embodiment, a medical endoscope 200, a display device 300 as a display unit, and a light source device 400.
  • the endoscope 200 is a general medical electronic endoscope.
  • the endoscope 200 has an imaging unit 210.
  • the imaging unit 210 includes an imaging element such as a CCD.
  • the endoscope 200 is provided with an illumination port 220 that is an exit of illumination light for illuminating the subject.
  • the illumination port 220 is provided with a lens, for example.
  • the display device 300 is a general display device.
  • the display device 300 includes, for example, a liquid crystal display.
  • the type of the display device is not limited to a liquid crystal display, but may be any type such as a CRT display.
  • the light source device 400 includes a light source of illumination light emitted from the illumination port 220.
  • the light source device 400 and the illumination port 220 are connected by, for example, an optical fiber.
  • the illumination light is guided by an optical fiber and emitted from the illumination port 220.
  • the video processor 100 acquires an endoscopic image captured by the endoscope 200, performs image processing on the endoscopic image, and causes the display device 300 to display the image after image processing.
  • This image processing includes, for example, processing for emphasizing structures and contours such as blood vessels included in the endoscopic image.
  • the video processor 100 includes a control unit 110, a recording unit 112, an input unit 120, an image memory 130, a preprocessing unit 140, a switching unit 142, an image processing unit 144, a synthesis unit 146, and a screen creation unit. 150 and a display control unit 160.
  • the control unit 110, the preprocessing unit 140, the switching unit 142, the image processing unit 144, the composition unit 146, the screen creation unit 150, and the display control unit 160 are, for example, a central processing unit (CPU) or an application specific. It is configured using an Integrated Circuit (ASIC).
  • the recording unit 112 and the image memory 130 are configured using, for example, a general semiconductor memory.
  • the control unit 110 controls the operation of each unit of the video processor 100.
  • the recording unit 112 records programs and various parameters necessary for the operation of the control unit 110.
  • the parameters recorded in the recording unit 112 include image processing parameters related to image processing described later.
  • the control unit 110 and the like operate according to a program recorded in the recording unit 112, for example.
  • the input unit 120 includes general input devices such as switches, buttons, and a keyboard.
  • the input unit 120 acquires user input and outputs the input to the control unit 110.
  • the image memory 130 stores an endoscope image previously captured by the user using the endoscope 200 as a sample image.
  • the sample image stored in the image memory 130 is acquired by, for example, the imaging unit 210 and is recorded as so-called RAW data that has not been subjected to image processing, or is processed with image data after image processing. It is recorded as data including the contents. Image processing can be adjusted by performing image processing on the sample image.
  • the image memory 130 stores a plurality of images captured in different modes such as a WLI mode and an NBI mode, which will be described later, as sample images.
  • the screen creation unit 150 is derived from an image acquired by the imaging unit 210 of the endoscope 200 or an image recorded in the image memory 130 among the screens displayed on the display device 300 under the control of the control unit 110. Create a screen other than an image.
  • the screen creation unit 150 creates a screen including, for example, a setting screen, information related to the endoscope 200, and other information that supports the user.
  • the screen creation unit 150 outputs the created screen to the composition unit 146.
  • the pre-processing unit 140 acquires an endoscopic image captured by the imaging unit 210 of the endoscope 200 under the control of the control unit 110, and performs pre-processing on the image.
  • the preprocessing unit 140 outputs the preprocessed image to the switching unit 142.
  • the switching unit 142 is recorded in the image memory 130 as an endoscopic image captured by the imaging unit 210 and processed by the preprocessing unit 140 as an image to be subjected to subsequent image processing. One image is selected from the sample images.
  • the switching unit 142 outputs the selected image to the image processing unit 144.
  • the image processing unit 144 performs image processing on the image acquired from the switching unit 142 under the control of the control unit 110.
  • This image processing includes a change in color tone, contrast, brightness, a change in noise reduction intensity, and the like.
  • the image processing performed by the image processing unit 144 includes processing related to structure enhancement and contour enhancement.
  • Structure enhancement and contour enhancement include, for example, an image processing type for making a thick blood vessel easy to see and an image processing type for making a thin blood vessel easy to see. In structure enhancement and contour enhancement, for example, the level of emphasizing blood vessels can be adjusted in, for example, eight stages.
  • the image processing unit 144 outputs the image after image processing to the synthesis unit 146.
  • the combining unit 146 combines the image after image processing acquired from the image processing unit 144 and, for example, the setting screen created by the screen creating unit 150 to create one composite screen.
  • the screen created by the combining unit 146 is, for example, a screen as shown in FIG.
  • the screen shown in FIG. 2 includes a setting menu 910 and an image 920 processed by the image processing unit 144 displayed in the frame 922.
  • the composition unit 146 outputs the created composition screen to the display control unit 160.
  • the display control unit 160 outputs the composite screen acquired from the composite unit 146 to the display device 300 under the control of the control unit 110, and causes the display device 300 to display the composite screen.
  • the operation of the endoscope system 1 will be described with reference to the flowchart shown in FIG.
  • the user desires to set the level of structure / outline emphasis or the like
  • the user inputs that fact from the input unit 120 to the video processor 100.
  • the video processor 100 performs a setting mode operation.
  • the user desires a general operation in which the image acquired by the endoscope 200 is displayed on the display device 300 instead of the setting mode
  • the user notifies the video processor 100 from the input unit 120 to that effect. input.
  • the video processor 100 performs the operation in the imaging mode. In the imaging mode, image processing is performed using setting values such as the structure / outline emphasis level set in the setting mode.
  • step S101 the control unit 110 determines whether a setting mode is selected. When it is determined that the setting mode is selected, the process proceeds to step S102.
  • step S102 the control unit 110 causes the screen creation unit 150 to create a setting screen.
  • the screen creation unit 150 is a screen including a setting menu 910 illustrated in FIG. 2 and a frame 922 that displays an image 920 processed by the image processing unit 144, for example.
  • a white light observation mode (WLI mode) in which a subject is illuminated with white light and a narrow band observation mode (Narrow Band) in which the subject is illuminated with narrow band light.
  • Imaging NBI mode
  • WLI mode white light observation mode
  • NBI mode narrow band observation mode
  • FIG. 2 three options with different types and levels of structure / contour emphasis in the WLI mode are shown, and the structure / contour in the NBI mode is shown. Three options with different types and levels of emphasis are shown.
  • FIG. 2 for the WLI mode, three options with different levels of emphasizing blood vessels are shown for A-type image processing for making a thick blood vessel easier to see. That is, in FIG. 2, “A1” indicates that the type is A type and the emphasis level is 1. Similarly, “A3” indicates that the type is A type and the emphasis level is 3, and “A5” indicates that the type is A type and the emphasis level is 5.
  • the user selects a structure / contour emphasis level or the like in the WLI mode, or selects a structure / contour emphasis level or the like in the NBI mode.
  • step S103 the control unit 110 acquires an input by the user from the input unit 120, and acquires the observation mode selected by the user and the structure / outline enhancement type and level selected by the user as selection values.
  • step S104 the control unit 110 causes the switching unit 142 to read a sample image from the image memory 130.
  • the endoscopic image acquired in the WLI mode is read as a sample image.
  • the endoscopic image acquired in the NBI mode is read as a sample image.
  • step S105 the control unit 110 causes the image processing unit 144 to perform image processing according to the structure / contour emphasis level acquired in step S103.
  • image processing a processed image having a changed image quality based on the sample image is created.
  • the sample image is acquired by, for example, the imaging unit 210 and is recorded as so-called RAW data that is not subjected to image processing.
  • predetermined image processing is performed on the RAW data, and an image for observation is created.
  • the image processing performed in step S105 may be performed on the RAW data, which is different from the image processing performed at the time of observation. Accordingly, various processed images can be created based on the sample images.
  • the sample image can be recorded as data including image data after image processing and the processing content of the applied image processing.
  • the image after image processing is used as an image for observation.
  • the image after image processing is returned to the image before image processing. Different image processing may be performed. Accordingly, various processed images can be created based on the sample images.
  • step S106 the control unit 110 causes the synthesizing unit 146 to synthesize the processed image created in step S105 within the frame 922 of the setting screen created in step S102 to create a synthesized screen.
  • step S107 the control unit 110 causes the display control unit 160 to display the composite screen created in step S106 on the display device 300.
  • step S108 the control unit 110 determines whether or not the setting mode end is input, that is, whether or not to end the setting mode. When it is determined not to end the setting mode, the process returns to step S103. At this time, the structure / outline emphasis level selected by the user is read as a selected value, and the processed image subjected to image processing in accordance with the selected value is displayed on the display device 300 while being updated. On the other hand, when it is determined in step S108 that the setting mode is to be ended, the process proceeds to step S109.
  • step S109 the control unit 110 records the parameter relating to the image processing selected by the user in the recording unit 112 as a set value. Thereafter, the process proceeds to step S119.
  • step S101 When it is determined in step S101 that the setting mode is not selected, that is, when it is determined that the imaging mode is selected, the process proceeds to step S110.
  • step S110 the control unit 110 causes the screen creation unit 150 to create a display screen.
  • the screen displayed here is, for example, a screen including a frame for displaying an endoscopic image captured by the endoscope 200, characters indicating information such as imaging conditions, and the like.
  • step S111 the control unit 110 obtains a setting value including an image processing parameter or the like corresponding to the structure / outline enhancement level recorded in the recording unit 112.
  • step S112 the control unit 110 causes the switching unit 142 to read the endoscopic image captured by the imaging unit 210 and preprocessed by the preprocessing unit 140.
  • step S113 the control unit 110 causes the image processing unit 144 to perform image processing using the image processing parameters read in step S111 on the endoscope image read in step S112.
  • step S114 the control unit 110 creates a synthesized screen by synthesizing the synthesized endoscopic image created in step S113 within the frame of the display screen created in step S110.
  • step S115 the control unit 110 causes the display control unit 160 to display the composite screen created in step S114 on the display device 300.
  • step S116 the control unit 110 determines whether or not to record the endoscopic image currently displayed on the display device 300 as a sample image. For example, when the user inputs that the currently displayed image is recorded as a sample image using the input unit 120, it is determined that the image is recorded as a sample image. If it is determined not to record as a sample image, the process proceeds to step S118. On the other hand, when it is determined to record as a sample image, the process proceeds to step S117.
  • step S117 the control unit 110 causes the image processing unit 144 to record the currently displayed endoscopic image in the image memory 130 as a sample image.
  • data including so-called RAW data that has been acquired by the imaging unit 210 and that has not been subjected to image processing, and image data that has been subjected to image processing and the processing content of the image processing that has been performed is recorded in the image memory 130. Is done. Thereafter, the process proceeds to step S118.
  • step S118 the control unit 110 determines whether or not an input to end the imaging mode has been made, that is, whether or not to end the imaging mode.
  • the process returns to step S112.
  • an endoscopic image is read from the imaging unit 210 and a composite screen including an image obtained by performing image processing on the endoscopic image based on a setting value is displayed on the display device 300. It is.
  • the process proceeds to step S119.
  • step S119 the control unit 110 determines whether or not to end the operation of the video processor 100 by turning off the power. When it is determined not to end the operation, the process returns to step S101. On the other hand, when it is determined to end the process, the process ends.
  • the structure / outline emphasis type and level are set while the image based on the sample image is displayed on the display device 300 in the setting mode.
  • the structure / outline enhancement level and the like are adjusted using a real-time endoscopic image obtained by the endoscope 200.
  • the endoscope 200 needs to be connected to the video processor 100.
  • the endoscope 200 needs to be connected to a light source device.
  • an appropriate subject needs to be imaged by the endoscope 200.
  • the structure / outline enhancement level and the like are adjusted using the sample image recorded in the image memory 130.
  • the user can It is possible to appropriately adjust the structure / outline emphasis level and the like while checking the processed image.
  • the setting menu 910 and the sample image after image processing in which image processing is reflected in real time are displayed side by side on the same screen in the composite screen as shown in FIG. For this reason, the user can easily perform a desired setting while confirming the image after image processing.
  • the sample image is not limited to an image photographed by the user, but may be an image recorded in advance at the time of shipment of the video processor, for example.
  • the image captured by the user is used as a sample image, so that the user can easily imagine the relationship between the subject and the image after image processing to be displayed in the case of the subject. Adjustment of the structure / outline emphasis level and the like becomes easy.
  • FIG. 4 shows an outline of a configuration example of the endoscope system 1 according to the present embodiment.
  • the video processor 100 is connected to the video processor 100 and a removable external memory 132.
  • the external memory 132 is a general semiconductor memory or the like. Similarly to the image memory 130, the external memory 132 also records an endoscopic image taken by the user. By using the external memory 132, an endoscopic image acquired using a video processor other than the video processor 100 can also be used as a sample image.
  • the video processor 100 is provided with a display panel 122 and a touch panel 124 as a display unit instead of the input unit 120 of the first embodiment.
  • the display panel 122 includes, for example, a liquid crystal display element.
  • the display panel 122 displays a screen under the control of the display control unit 160.
  • the touch panel 124 is provided corresponding to the display panel 122.
  • the touch panel 124 detects a position touched by the user and outputs the detection result to the control unit 110.
  • the structure / outline emphasis type and level are set using the display panel 122 and the touch panel 124.
  • a screen as shown in FIG. 5 is first displayed on the display panel 122. That is, a memory selection menu 930 is displayed that allows the user to select whether the image recorded in the image memory 130 is used as a sample image or the image recorded in the external memory 132 is used as a sample image. For example, when the user touches a portion displayed as “external memory”, the touch panel 124 detects this touch, and the detection result is transmitted to the control unit 110.
  • thumbnail images of images recorded in the external memory 132 are displayed in a list on the sample image list display screen 940.
  • the user selects one of these images by touching an image used for setting the structure / outline emphasis level.
  • the touch panel 124 detects the user's selection and transmits the detection result to the control unit 110.
  • the display panel 122 displays a screen for setting image processing parameters by selecting the type / level of structure / outline emphasis as shown in FIG.
  • the user selects a structure / outline emphasis level or the like by touching the screen. Adjustment of the structure / outline emphasis level and the like is performed based on the image displayed on the display panel 122. Other operations are the same as those in the first embodiment.
  • the user can select a sample image to be used when setting the structure / outline emphasis level from among many sample images taken by the user.
  • a display panel 122 is provided separately from the display device 300, and a setting screen for structure / outline emphasis level and the like is displayed on the display panel 122. Therefore, for example, a captured image acquired by the endoscope 200 is displayed on the display device 300, and the structure / outline emphasis level and the like can be set while maintaining the image so as not to change. That is, the image displayed on the display device 300 is not changed, the image processing parameter is changed only for the sample image displayed on the display panel 122, and the sample image with the changed image quality is displayed on the display panel 122. obtain. The user selects a setting while changing the image quality of the sample image displayed on the display panel 122, and the finally selected setting is acquired by the endoscope 200 displayed on the display device 300. It can be reflected in the endoscopic image. As described above, according to the present embodiment, for example, during the observation using the endoscope 200, the structure / contour enhancement level and the like can be changed without disturbing the observation.
  • the image displayed on the display panel 122 and used for setting change is not limited to the sample image taken in the past, and is taken using the endoscope 200 at the time of changing the structure / outline emphasis level and the like. It may be an image.
  • the video processor 100 may be configured as follows.
  • the structure / contour enhancement is performed using an image captured by the endoscope 200.
  • the structure / outline emphasis level may be set using a sample image recorded in the image memory 130 or the like. In this way, the video processor 100 can be configured such that the sample image is used only when the endoscope 200 is not connected to the video processor 100.
  • the same endoscope is obtained from a plurality of sample images obtained by acquiring model information and individual identification information of the endoscope 200 connected to the video processor 100 and recorded in the image memory 130 or the like.
  • a sample image taken at 200 may be selected.
  • a sample image is prepared for each type of surgery and each type of affected area. For example, since there may be various lesions depending on the type of surgery, it is preferable that a sample image is prepared for each lesion. Moreover, it is preferable that a sample image is prepared for each tissue type such as an esophagus, a stomach, and a large intestine.

Abstract

 内視鏡のためのビデオプロセッサ(100)は、画像メモリ(130)と、画像処理部(144)と、表示制御部(160)と、記録部(112)とを備える。画像メモリ(130)は、過去に取得された内視鏡画像をサンプル画像として格納する。画像処理部(144)は、ユーザが選択した選択値に応じてサンプル画像の画質を変更する画像処理を行い、処理済画像を作成する。表示制御部(160)は、処理済画像を表示部(300)に表示させる。記録部(112)は、ユーザによって決定される選択値に係る値を設定値として記録する。画像処理部(144)は、設定値に基づいて、内視鏡画像に対して画像処理を行う。

Description

内視鏡のためのビデオプロセッサ及びそれを備えた内視鏡システム
 本発明は、内視鏡のためのビデオプロセッサ及びそれを備えた内視鏡システムに関する。
 医療用の電子内視鏡において、内視鏡画像の画質の調整が行われることがある。例えば日本国特開2006-280541号公報には、内視鏡によって取得された内視鏡画像に対して画像処理を行うプロセッサ装置と、プロセッサ装置によって画像処理された内視鏡画像を表示する内視鏡用モニタとの他に、内視鏡画像のパラメータを調整する調整用プロセッサ装置と、調整用の画像を表示する調整用モニタとを備えた内視鏡システムに係る技術が開示されている。この内視鏡システムでは、調整用モニタがパラメータの調整の内容を表示するので、内視鏡用モニタは内視鏡画像のみを表示することができる。このため、内視鏡用モニタを用いて内視鏡診断が中断されることなく続けられながら、調整用モニタを用いてパラメータ調整が行われ得る。
 このように一般には、内視鏡画像の画質調整を行うときに、ユーザは、内視鏡によって得られた画像を確認しながら画質の調整を行う。このとき、ビデオプロセッサが内視鏡と接続され、内視鏡によって適当な画像が撮影されている必要がある。
 本発明は、内視鏡が接続されていなくても内視鏡画像の画質の調整が行われ得る内視鏡のためのビデオプロセッサ及びそれを備えた内視鏡システムを提供することを目的とする。
 前記目的を果たすため、本発明の一態様によれば、内視鏡のためのビデオプロセッサは、内視鏡の撮像部で得られた内視鏡画像に対して画像処理を行う内視鏡のためのビデオプロセッサであって、ユーザが前記内視鏡を用いて過去に取得した前記内視鏡画像であって、画質の設定のための前記内視鏡画像をサンプル画像として格納する画像メモリと、ユーザが選択した選択値に応じて前記サンプル画像の画質を変更する前記画像処理を行い処理済画像を作成する画像処理部と、前記処理済画像を表示部に表示させる表示制御部と、ユーザによって決定される前記選択値に係る値を設定値として記録する記録部とを備え、前記画像処理部は、前記設定値に基づいて、前記撮像部で得られた前記内視鏡画像に対して前記画像処理を行う。
 本発明の一態様によれば、内視鏡システムは、上記のビデオプロセッサと、前記内視鏡とを備える。
 本発明によれば、内視鏡が接続されていなくても内視鏡画像の画質の調整が行われ得る内視鏡のためのビデオプロセッサ及びそれを備えた内視鏡システムを提供できる。
図1は、第1の実施形態に係る内視鏡システムの構成例の概略を示すブロック図である。 図2は、第1の実施形態に係る合成画面の一例を示す図である。 図3は、第1の実施形態に係るビデオプロセッサにおける処理の一例を示すフローチャートである。 図4は、第2の実施形態に係る内視鏡システムの構成例を示すブロック図である。 図5は、第2の実施形態に係る表示パネルに表示される画面の一例を示す図である。
 [第1の実施形態]
 本発明の第1の実施形態について図面を参照して説明する。本実施形態に係る内視鏡システム1の構成例の概略を図1に示す。図1に示すように、内視鏡システム1は、本実施形態に係るビデオプロセッサ100と、医療用の内視鏡200と、表示部としての表示装置300と、光源装置400とを有する。
 内視鏡200は、一般的な医療用の電子内視鏡である。内視鏡200は、撮像部210を有する。撮像部210には、例えばCCDといった撮像素子が含まれている。また、内視鏡200には、被写体を照明するための照明光の射出口である照明口220が設けられている。照明口220には、例えばレンズが設けられている。
 表示装置300は、一般的な表示装置である。表示装置300は、例えば液晶ディスプレイを含む。表示装置の種類は、液晶ディスプレイに限らず、CRTディスプレイ等、どのようなものでもよい。
 光源装置400は、照明口220から射出される照明光の光源を含む。光源装置400と照明口220とは、例えば光ファイバによって接続されている。照明光は、光ファイバによって導光され、照明口220から射出される。
 ビデオプロセッサ100は、内視鏡200で撮像された内視鏡画像を取得し、この内視鏡画像に画像処理を施して、表示装置300に画像処理後の画像を表示させる。この画像処理には、例えば内視鏡画像に含まれる血管などの構造や輪郭を強調する処理が含まれる。
 ビデオプロセッサ100は、制御部110と、記録部112と、入力部120と、画像メモリ130と、前処理部140と、切替部142と、画像処理部144と、合成部146と、画面作成部150と、表示制御部160とを有する。制御部110と、前処理部140と、切替部142と、画像処理部144と、合成部146と、画面作成部150と、表示制御部160とは、例えばCentral Processing Unit(CPU)やApplication Specific Integrated Circuit(ASIC)を用いて構成されている。記録部112と画像メモリ130とは、例えば一般的な半導体メモリを用いて構成されている。
 制御部110は、ビデオプロセッサ100の各部の動作を制御する。記録部112には、制御部110の動作に必要なプログラムや各種パラメータ等が記録されている。記録部112に記録されるパラメータには、後述の画像処理に係る画像処理パラメータが含まれる。制御部110等は、例えば記録部112に記録されたプログラムに従って動作する。
 入力部120は、スイッチやボタンやキーボード等、一般的な入力装置を含む。入力部120は、ユーザの入力を取得し、その入力を制御部110へと出力する。
 画像メモリ130は、ユーザが以前に内視鏡200を用いて撮像した内視鏡画像をサンプル画像として格納している。画像メモリ130に格納されているサンプル画像は、例えば撮像部210で取得され、画像処理が行われていない、いわゆるRAWデータとして記録されていたり、画像処理後の画像データと施された画像処理の内容とを含むデータとして記録されていたりする。サンプル画像に対して画像処理を行うことで、画質の調整を行うことができる。また、画像メモリ130には、後述するWLIモードやNBIモード等、異なるモードで撮像された複数の画像がサンプル画像として格納されている。
 画面作成部150は、制御部110の制御下で、表示装置300に表示される画面のうち、内視鏡200の撮像部210で取得された画像や画像メモリ130に記録された画像に由来する画像以外の画面を作成する。画面作成部150は、例えば設定画面や、内視鏡200に係る情報や、その他ユーザを支援する情報等を含む画面を作成する。画面作成部150は、作成した画面を合成部146へと出力する。
 前処理部140は、制御部110の制御下で、内視鏡200の撮像部210で撮像された内視鏡画像を取得して、その画像に対して前処理を行う。前処理部140は、前処理後の画像を切替部142へと出力する。
 切替部142は、制御部110の制御下で、以降の画像処理を行うべき画像として、撮像部210で撮像されて前処理部140で処理された内視鏡画像と、画像メモリ130に記録されているサンプル画像とのうちから一方の画像を選択する。切替部142は、選択した画像を画像処理部144へと出力する。
 画像処理部144は、制御部110の制御下で、切替部142から取得した画像に対して画像処理を行う。この画像処理には、色調、コントラスト、明度の変更や、ノイズリダクションの強度の変更等が含まれる。画像処理部144で行われる画像処理には、構造強調や輪郭強調に係る処理が含まれる。構造強調や輪郭強調には、例えば太い血管を見やすくするための画像処理のタイプや、細い血管を見やすくするための画像処理のタイプが含まれる。また、構造強調や輪郭強調では、例えば血管を強調するレベルが例えば8段階で調整され得る。画像処理部144は、画像処理後の画像を合成部146へと出力する。
 合成部146は、制御部110の制御下で、画像処理部144から取得した画像処理後の画像と、画面作成部150で作成された例えば設定画面とを合成して、1つの合成画面を作成する。合成部146で作成される画面は、例えば図2に示すような画面である。図2に示す画面には、設定メニュー910と、枠922内に表示される画像処理部144で処理された画像920とが含まれる。合成部146は、作成した合成画面を表示制御部160へと出力する。
 表示制御部160は、制御部110の制御下で、合成部146から取得した合成画面を表示装置300へと出力し、表示装置300に合成画面を表示させる。
 本実施形態に係る内視鏡システム1の動作について、特にビデオプロセッサ100に注目して、図3に示すフローチャートを参照して説明する。ユーザが構造/輪郭強調のレベル等を設定したいと希望したとき、ユーザは、その旨を入力部120からビデオプロセッサ100に入力する。このとき、ビデオプロセッサ100は、設定モードの動作を行う。一方、ユーザが、設定モードではなく、内視鏡200で取得された画像が表示装置300に表示される一般的な動作を希望したとき、ユーザは、その旨を入力部120からビデオプロセッサ100に入力する。このとき、ビデオプロセッサ100は、撮像モードの動作を行う。撮像モードでは、設定モードで設定された構造/輪郭強調のレベル等の設定値を用いた画像処理が行われる。
 ステップS101において、制御部110は、設定モードが選択されているか否かを判定する。設定モードが選択されていると判定されたとき、処理はステップS102に進む。
 ステップS102において、制御部110は、画面作成部150に、設定画面を作成させる。画面作成部150は、例えば図2に示す設定メニュー910や、画像処理部144で処理された画像920を表示する枠922含む画面である。
 内視鏡200を用いた観察には、例えば白色光で被写体を照明する白色光観察モード(White-Light Imaging;WLIモード)と、狭帯域光で被写体を照明する狭帯域光観察モード(Narrow Band Imaging;NBIモード)とがある。画面作成部150で作成される設定メニュー910には、例えば図2に示すように、WLIモードにおける構造/輪郭強調のタイプ及びレベルが異なる3つの選択肢が示され、また、NBIモードにおける構造/輪郭強調のタイプ及びレベルが異なる3つの選択肢が示される。
 図2に示す例では、WLIモードについては、太い血管を見やすくするためのAタイプの画像処理について、血管を強調するレベルが異なる3つの選択肢が示されている。すなわち、図2において、「A1」は、タイプがAタイプであり強調レベルが1であることを示している。同様に、「A3」は、タイプがAタイプであり強調レベルが3であることを示し、「A5」は、タイプがAタイプであり強調レベルが5であることを示している。
 図2に示す例では、NBIモードについては、太い血管を見やすくするためのAタイプの画像処理について、血管を強調するレベルが異なる2つの選択肢と、細い血管を見やすくするためのBタイプの画像処理とについて、血管を強調するレベルが所定の値である1つの選択肢とが示されている。すなわち、図2において、「A5」は、タイプがAタイプであり強調レベルが5であることを示し、「A7」は、タイプがAタイプであり強調レベルが7であることを示し、「B7」は、タイプがBタイプであり強調レベルが7であることを示している。
 ユーザは、WLIモードにおける構造/輪郭強調レベル等を選択したり、NBIモードにおける構造/輪郭強調レベル等を選択したりする。
 ステップS103において、制御部110は、入力部120からユーザによる入力を取得し、ユーザが選択した観察モードと、ユーザが選択した構造/輪郭強調のタイプ及びレベルとを選択値として取得する。
 ステップS104において、制御部110は、切替部142に、画像メモリ130からサンプル画像を読み込ませる。ここで、ステップS103で取得されたユーザの選択が、WLIモードであるとき、WLIモードで取得された内視鏡画像がサンプル画像として読み込まれる。一方、ステップS103で取得されたユーザの選択が、NBIモードであるとき、NBIモードで取得された内視鏡画像がサンプル画像として読み込まれる。
 ステップS105において、制御部110は、画像処理部144に、ステップS103で取得された構造/輪郭強調レベル等に応じた画像処理を行わせる。この画像処理によって、サンプル画像に基づく画質が変化した処理済画像が作成される。
 ここでサンプル画像は、例えば撮像部210で取得され、画像処理が行われていない、いわゆるRAWデータとして記録されている。この場合、サンプル画像を取得した観察時には、当該RAWデータに対して所定の画像処理が行われ、観察用の画像が作成されていたことになる。これに対して、ステップS105において行われる画像処理は、観察時に行われた画像処理と異なる画像処理が当該RAWデータに対して行われ得る。したがって、サンプル画像に基づいて、種々の処理済画像が作成され得る。
 また、サンプル画像は、画像処理後の画像データと、施された画像処理の処理内容とを含むデータとして記録され得る。この場合、サンプル画像を取得した観察時には、画像処理後の画像が観察用の画像として用いられていたことになる。ステップS105では、サンプル画像のデータに含まれる施された画像処理の処理内容に基づいて、画像処理後の画像が画像処理前の画像に戻され、この画像処理前の画像に対して観察時に行われた画像処理と異なる画像処理が行われ得る。したがって、サンプル画像に基づいて、種々の処理済画像が作成され得る。
 ステップS106において、制御部110は、合成部146に、ステップS102で作成された設定画面の枠922内に、ステップS105で作成された処理済画像を合成して合成画面を作成させる。
 ステップS107において、制御部110は、表示制御部160に、ステップS106において作成された合成画面を表示装置300に表示させる。
 ステップS108において、制御部110は、設定モード終了の入力がされる等したか、すなわち、設定モードを終了させるか否かを判定する。設定モードを終了しないと判定されたとき、処理はステップS103に戻る。このとき、ユーザによって選択された構造/輪郭強調レベル等を選択値として読み込み、それに応じて画像処理を施した処理済画像を表示装置300に更新しながら表示させることが繰り返される。一方、ステップS108の判定において、設定モードを終了すると判定されたとき、処理はステップS109に進む。
 ステップS109において、制御部110は、ユーザによって選択された画像処理に係るパラメータを設定値として記録部112に記録する。その後、処理はステップS119に進む。
 ステップS101の判定において、設定モードでないと判定されたとき、すなわち、撮像モードであると判定されたとき、処理はステップS110に進む。
 ステップS110において、制御部110は、画面作成部150に、表示画面を作成させる。ここで表示される画面は、例えば内視鏡200で撮像された内視鏡画像を表示する枠と、撮像の条件等の情報を表す文字等を含む画面である。
 ステップS111において、制御部110は、記録部112に記録されている構造/輪郭強調レベル等に応じた画像処理パラメータ等を含む設定値を取得する。
 ステップS112において、制御部110は、切替部142に、撮像部210で撮像されて前処理部140で前処理された内視鏡画像を読み込ませる。
 ステップS113において、制御部110は、画像処理部144に、ステップS112で読み込んだ内視鏡画像に対して、ステップS111で読み込んだ画像処理パラメータを用いた画像処理を行わせる。
 ステップS114において、制御部110は、合成部146に、ステップS110で作成された表示画面の枠内にステップS113で作成された画像処理後の内視鏡画像を合成することで、合成画面を作成させる。
 ステップS115において、制御部110は、表示制御部160に、ステップS114で作成された合成画面を表示装置300に表示させる。
 ステップS116において、制御部110は、表示装置300に現在表示されている内視鏡画像をサンプル画像として記録するか否かを判定する。例えばユーザが入力部120を用いて、現在表示されている画像をサンプル画像として記録する旨を入力したとき、サンプル画像として記録すると判定される。サンプル画像として記録しないと判定されたとき、処理はステップS118に進む。一方、サンプル画像として記録すると判定されたとき、処理はステップS117に進む。
 ステップS117において、制御部110は、画像処理部144に、現在表示されている内視鏡画像をサンプル画像として、画像メモリ130に記録させる。このとき、画像メモリ130には、撮像部210で取得され、画像処理が行われていない、いわゆるRAWデータや、画像処理後の画像データと施された画像処理の処理内容とを含むデータが記録される。その後、処理はステップS118に進む。
 ステップS118において、制御部110は、撮像モードを終了する旨の入力がされる等されたか否か、すなわち、撮像モードを終了させるか否かを判定する。撮像モードを終了しないと判定されたとき、処理はステップS112に戻る。このとき、撮像部210から内視鏡画像を読み込み、この内視鏡画像に対して設定値に基づいて画像処理された画像を含む合成画面が表示装置300に表示されることが連続的に繰り返される。一方、ステップS118の判定において、撮像モードを終了すると判定されたとき、処理はステップS119に進む。
 ステップS119において、制御部110は、電源がオフされる等して、ビデオプロセッサ100の動作を終了させるか否かを判定する。動作を終了しないと判定されたとき、処理はステップS101に戻る。一方、処理を終了すると判定されたとき、処理は終了する。
 以上のように、本実施形態に係るビデオプロセッサ100では、設定モードにおいて、サンプル画像に基づく画像が表示装置300に表示されながら、構造/輪郭強調のタイプ及びレベルの設定が行われる。一般に、構造/輪郭強調レベル等の調整は、内視鏡200で得られたリアルタイムな内視鏡画像を用いて行われる。この場合、ビデオプロセッサ100には、内視鏡200が接続されている必要がある。また、内視鏡200には、光源装置が接続されている必要がある。さらに、内視鏡200によって適当な被写体が撮像されている必要がある。これに対して本実施形態では、画像メモリ130に記録されたサンプル画像を用いて、構造/輪郭強調レベル等の調整が行われる。したがって、例えば内視鏡200がビデオプロセッサ100に接続されていなかったり、接続されていても内視鏡200が調整を行うにあたって適当な画像を取得していなかったりする状況においても、ユーザは、画像処理後の画像を確認しながら適切に構造/輪郭強調レベル等の調整を行うことができる。
 また、本実施形態では、図2に示すような合成画面において設定メニュー910とリアルタイムに画像処理が反映された画像処理後のサンプル画像とが同一画面上に並べて表示される。このため、ユーザは、画像処理後の画像を確認しながら、所望の設定を容易に行うことができる。
 サンプル画像は、ユーザが撮影した画像に限らず、例えばビデオプロセッサの出荷時に予め記録された画像でもよい。ただし、本実施形態のように、ユーザが撮影した画像がサンプル画像として用いられることで、ユーザが被写体とその被写体の場合に表示したい画像処理後の画像との関係を想像しやすいので、ユーザにとって、構造/輪郭強調レベル等の調整が容易になる。
 [第2の実施形態]
 本発明の第2の実施形態について説明する。ここでは、第1の実施形態との相違点について説明し、同一の部分については、同一の符号を付してその説明を省略する。本実施形態に係る内視鏡システム1の構成例の概略を図4に示す。
 本実施形態に係るビデオプロセッサ100には、ビデオプロセッサ100と着脱自在な外部メモリ132が接続される。外部メモリ132は、一般的な半導体メモリ等である。外部メモリ132にも、画像メモリ130と同様に、ユーザが撮影した内視鏡画像が記録されている。外部メモリ132が用いられることで、当該ビデオプロセッサ100以外のビデオプロセッサを用いて取得された内視鏡画像も、サンプル画像として用いることができる。
 また、本実施形態に係るビデオプロセッサ100には、第1の実施形態の入力部120の代わりに、表示部としての表示パネル122とタッチパネル124とが設けられている。表示パネル122は、例えば液晶表示素子を含む。表示パネル122は、表示制御部160の制御下で、画面を表示する。タッチパネル124は、表示パネル122に対応して設けられている。タッチパネル124は、ユーザがタッチした位置を検出し、検出結果を制御部110へと出力する。
 本実施形態では、構造/輪郭強調のタイプ及びレベルの設定は、表示パネル122及びタッチパネル124を用いて行われる。本実施形態では、設定モードのとき、初めに図5に示すような画面が表示パネル122に表示される。すなわち、画像メモリ130に記録されている画像をサンプル画像として用いるか、外部メモリ132に記録されている画像をサンプル画像として用いるかを選択できるメモリ選択メニュー930が表示される。ユーザは、例えば「外部メモリ」と表示されている部分をタッチすると、このタッチをタッチパネル124が検出して、検出結果は制御部110へと伝達される。
 外部メモリ132には、複数のサンプル画像が記録されているものとする。「外部メモリ」が選択されたとき、サンプル画像一覧表示画面940には、外部メモリ132に記録されている画像のサムネイル画像が一覧表示される。ユーザは、これら画像のうちから構造/輪郭強調レベル等の設定に用いる画像をタッチすることで選択する。タッチパネル124は、ユーザの選択を検出して、検出結果を制御部110へと伝達する。
 サンプル画像が選択されたとき、続いて表示パネル122には、図2に示したような、構造/輪郭強調のタイプやレベルを選択することで画像処理のパラメータを設定するための画面が表示される。ユーザは、画面上をタッチすることで、構造/輪郭強調レベル等を選択する。構造/輪郭強調レベル等の調整は、表示パネル122に表示された画像に基づいて行われる。その他の動作は、第1の実施形態の場合と同様である。
 本実施形態によれば、ユーザは、自身が撮影した多くのサンプル画像の中から、構造/輪郭強調レベル等の設定の際に用いるサンプル画像を選択することができる。
 また、表示装置300とは別に表示パネル122が設けられ、その表示パネル122に構造/輪郭強調レベル等の設定画面が表示される。したがって、例えば内視鏡200で取得された撮像画像が表示装置300に表示され、この画像が変化しないように維持されながら構造/輪郭強調レベル等の設定が行われ得る。すなわち、表示装置300に表示された画像は変化せずに、表示パネル122に表示されたサンプル画像に対してのみ画像処理パラメータが変更され、画質を変化させたサンプル画像が表示パネル122に表示され得る。ユーザは、表示パネル122に表示されたサンプル画像の画質を様々に変化させながら設定を選択し、最終的に選択された設定を、表示装置300に表示されている内視鏡200によって取得された内視鏡画像に反映させることができる。以上のように、本実施形態によれば、例えば内視鏡200を用いた観察を行っている最中に、当該観察を妨げることなく、構造/輪郭強調レベル等の変更を行うことができる。
 なお、表示パネル122に表示され、設定変更に利用される画像は、過去に撮影されたサンプル画像に限らず、構造/輪郭強調レベル等の変更を行う時点で内視鏡200を用いて撮影された画像であってもよい。
 第1の実施形態においても、第2の実施形態においても、ビデオプロセッサ100は、以下のように構成されてもよい。
 設定モードにおいて、内視鏡200がビデオプロセッサ100に接続されているか否かが判定され、接続されていると判定されたときは、内視鏡200で撮影された画像を用いて構造/輪郭強調レベル等の設定が行われ、接続されていないと判定されたときは、画像メモリ130等に記録されているサンプル画像を用いて構造/輪郭強調レベル等の設定が行われてもよい。このように、ビデオプロセッサ100に内視鏡200が接続されていないときにのみ、サンプル画像が用いられるように、ビデオプロセッサ100は構成され得る。
 また、設定モードにおいて、ビデオプロセッサ100に接続されている内視鏡200の型式情報や個体識別情報が取得され、画像メモリ130等に記録された複数のサンプル画像の中から、同一の内視鏡200で撮影されたサンプル画像が選択されてもよい。このように構成されることで、内視鏡200の特性をも考慮された構造/輪郭強調レベル等の設定が行われ得る。
 また、サンプル画像は、手術の種類毎や患部の種類毎に用意されていることが好ましい。例えば、手術の種類に応じて種々の病変があり得るので、病変毎にサンプル画像が用意されていることが好ましい。また、患部の種類、すなわち、食道、胃、大腸等、組織毎にサンプル画像が用意されていることが好ましい。

Claims (9)

  1.  内視鏡の撮像部で得られた内視鏡画像に対して画像処理を行う内視鏡のためのビデオプロセッサであって、
     ユーザが前記内視鏡を用いて過去に取得した前記内視鏡画像であって、画質の設定のための前記内視鏡画像をサンプル画像として格納する画像メモリと、
     ユーザが選択した選択値に応じて前記サンプル画像の画質を変更する前記画像処理を行い処理済画像を作成する画像処理部と、
     前記処理済画像を表示部に表示させる表示制御部と、
     ユーザによって決定される前記選択値に係る値を設定値として記録する記録部と
     を備え、
     前記画像処理部は、前記設定値に基づいて、前記撮像部で得られた前記内視鏡画像に対して前記画像処理を行う、
     内視鏡のためのビデオプロセッサ。
  2.  ユーザに前記選択値を選択させるための設定メニューと前記処理済画像とを含む合成画面を作成する合成部をさらに備え、
     前記表示制御部は、前記表示部に前記合成画面を表示させる、
     請求項1に記載のビデオプロセッサ。
  3.  前記表示部は、前記ビデオプロセッサの外部に設けられた表示装置と、前記ビデオプロセッサが備える表示パネルとを含み、
     前記表示制御部は、前記合成画面を前記表示パネルに表示させ、前記内視鏡画像を前記表示装置に表示させる、
     請求項2に記載のビデオプロセッサ。
  4.  前記サンプル画像は、手術の種類、患部の種類、又は観察モードの種類に応じた複数の画像を含む、請求項1に記載のビデオプロセッサ。
  5.  前記サンプル画像は、前記画像処理の前のRAWデータとして前記画像メモリに記録されている、請求項1に記載のビデオプロセッサ。
  6.  前記サンプル画像は、前記画像処理の後の画像データと、前記画像処理の処理内容に係る情報とを含むデータとして前記画像メモリに記録されている、請求項1に記載のビデオプロセッサ。
  7.  前記サンプル画像は、接続される前記内視鏡に応じた複数の画像を含む、請求項1に記載のビデオプロセッサ。
  8.  前記画像処理部は、
      前記内視鏡が接続されているときは、前記内視鏡画像に対して前記画像処理を行い、
      前記内視鏡が接続されていないときは、前記サンプル画像に対して前記画像処理を行う、
     請求項1に記載のビデオプロセッサ。
  9.  請求項1に記載のビデオプロセッサと、
     前記内視鏡と
     を備える内視鏡システム。
PCT/JP2015/070710 2014-07-29 2015-07-21 内視鏡のためのビデオプロセッサ及びそれを備えた内視鏡システム WO2016017476A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2016506713A JP5932188B1 (ja) 2014-07-29 2015-07-21 内視鏡のためのビデオプロセッサ及びそれを備えた内視鏡システム
CN201580003813.9A CN105899123B (zh) 2014-07-29 2015-07-21 用于内窥镜的视频处理器和具有该视频处理器的内窥镜系统
EP15827251.8A EP3192429A4 (en) 2014-07-29 2015-07-21 Video processor for endoscope, and endoscope system equipped with same
US15/240,254 US9861267B2 (en) 2014-07-29 2016-08-18 Video processor for endoscope, and endoscope system including the same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014154296 2014-07-29
JP2014-154296 2014-07-29

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/240,254 Continuation US9861267B2 (en) 2014-07-29 2016-08-18 Video processor for endoscope, and endoscope system including the same

Publications (1)

Publication Number Publication Date
WO2016017476A1 true WO2016017476A1 (ja) 2016-02-04

Family

ID=55217378

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/070710 WO2016017476A1 (ja) 2014-07-29 2015-07-21 内視鏡のためのビデオプロセッサ及びそれを備えた内視鏡システム

Country Status (5)

Country Link
US (1) US9861267B2 (ja)
EP (1) EP3192429A4 (ja)
JP (1) JP5932188B1 (ja)
CN (1) CN105899123B (ja)
WO (1) WO2016017476A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019202077A (ja) * 2018-05-25 2019-11-28 オリンパス株式会社 内視鏡システム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006280541A (ja) * 2005-03-31 2006-10-19 Fujinon Corp 電子内視鏡システム
JP2012070993A (ja) * 2010-09-29 2012-04-12 Fujifilm Corp 内視鏡システム
JP2012249684A (ja) * 2011-05-31 2012-12-20 Hoya Corp 電子内視鏡システム

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN2303580Y (zh) * 1997-08-14 1999-01-13 张恒 数字式医用内窥镜监视仪
WO2000069324A1 (fr) * 1999-05-18 2000-11-23 Olympus Optical Co., Ltd. Endoscope
JP3701204B2 (ja) * 2001-01-18 2005-09-28 キヤノン株式会社 画質調整機能を有する画像表示装置および画像表示方法、並びに記録媒体
JP2004000335A (ja) * 2002-05-31 2004-01-08 Olympus Corp 電子内視鏡装置
KR100583518B1 (ko) * 2003-12-26 2006-05-24 주식회사 휴맥스 디지털 기록장치에서의 녹화 품질 설정방법
JP2005275977A (ja) * 2004-03-25 2005-10-06 Fuji Photo Film Co Ltd 画像表示方法、画像表示装置及び画像表示プログラム
JP2006218129A (ja) * 2005-02-10 2006-08-24 Olympus Corp 手術支援システム
JP2006218233A (ja) * 2005-02-14 2006-08-24 Olympus Corp 内視鏡装置
JP4670494B2 (ja) * 2005-06-13 2011-04-13 株式会社日立製作所 表示装置及び表示画質設定方法
TWI399081B (zh) * 2006-10-16 2013-06-11 Casio Computer Co Ltd 攝像裝置、連續攝影方法、以及記憶有程式之記憶媒體
JP4924264B2 (ja) * 2007-07-24 2012-04-25 セイコーエプソン株式会社 画像処理装置、画像処理方法、および、コンピュータプログラム
JP5414165B2 (ja) * 2007-10-16 2014-02-12 キヤノン株式会社 画質調整装置、画質調整方法及びプログラム
JP2009189654A (ja) * 2008-02-15 2009-08-27 Olympus Medical Systems Corp 信号処理システム
WO2010044432A1 (ja) * 2008-10-17 2010-04-22 オリンパスメディカルシステムズ株式会社 内視鏡システムおよび内視鏡画像処理装置
EP2586359B1 (en) * 2010-06-28 2018-12-05 Olympus Corporation Endoscope apparatus
WO2012008299A1 (ja) * 2010-07-13 2012-01-19 オリンパスメディカルシステムズ株式会社 画像合成システム
KR101341025B1 (ko) * 2010-08-11 2013-12-13 엘지디스플레이 주식회사 영상 표시장치의 화질 개선 시뮬레이션 방법과 그 장치
JP5604248B2 (ja) * 2010-09-28 2014-10-08 富士フイルム株式会社 内視鏡画像表示装置
JP5730634B2 (ja) * 2011-03-24 2015-06-10 オリンパス株式会社 画像処理装置
JP2013243621A (ja) * 2012-05-22 2013-12-05 Toshiba Corp 電子機器、電子機器の制御方法、制御プログラム、映像表示装置
WO2014053964A1 (en) * 2012-10-01 2014-04-10 Koninklijke Philips N.V. Visualizing image data
JP2015011585A (ja) * 2013-06-28 2015-01-19 株式会社リコー 画像処理装置、画像形成装置、画像形成システム、画像処理方法およびプログラム
US9361666B2 (en) * 2013-10-07 2016-06-07 Adobe Systems Incorporated Learning user preferences for photo adjustments
JP5830512B2 (ja) * 2013-10-24 2015-12-09 オリンパス株式会社 画像表示端末、画像表示方法、およびプログラム
CN105765962B (zh) * 2013-12-05 2019-03-01 奥林巴斯株式会社 摄像装置
KR102372214B1 (ko) * 2015-01-19 2022-03-14 삼성전자주식회사 영상 처리 장치, 의료영상 장치 및 영상 처리 방법
US20160344975A1 (en) * 2015-05-21 2016-11-24 Asustek Computer Inc. Image processing electronic device and non-transitory computer readable storage medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006280541A (ja) * 2005-03-31 2006-10-19 Fujinon Corp 電子内視鏡システム
JP2012070993A (ja) * 2010-09-29 2012-04-12 Fujifilm Corp 内視鏡システム
JP2012249684A (ja) * 2011-05-31 2012-12-20 Hoya Corp 電子内視鏡システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3192429A4 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019202077A (ja) * 2018-05-25 2019-11-28 オリンパス株式会社 内視鏡システム
JP7089943B2 (ja) 2018-05-25 2022-06-23 オリンパス株式会社 内視鏡システム

Also Published As

Publication number Publication date
JPWO2016017476A1 (ja) 2017-04-27
US9861267B2 (en) 2018-01-09
EP3192429A1 (en) 2017-07-19
CN105899123A (zh) 2016-08-24
JP5932188B1 (ja) 2016-06-08
EP3192429A4 (en) 2018-04-11
CN105899123B (zh) 2018-03-13
US20160353981A1 (en) 2016-12-08

Similar Documents

Publication Publication Date Title
JP5977772B2 (ja) 内視鏡システム、内視鏡システムのプロセッサ装置、内視鏡システムの作動方法、プロセッサ装置の作動方法
US10918265B2 (en) Image processing apparatus for endoscope and endoscope system
JP4917822B2 (ja) 内視鏡装置
WO2017154292A1 (ja) 内視鏡システム、プロセッサ装置、及び、内視鏡システムの作動方法
JP5581122B2 (ja) 電子内視鏡装置
CN112584746A (zh) 医用图像处理装置和内窥镜系统以及医用图像处理装置的工作方法
JPWO2020178962A1 (ja) 内視鏡システム、画像処理装置、総処理時間検出方法および処理装置
JP5932188B1 (ja) 内視鏡のためのビデオプロセッサ及びそれを備えた内視鏡システム
JP2018051364A (ja) 内視鏡システム、内視鏡システムのプロセッサ装置、内視鏡システムの作動方法、プロセッサ装置の作動方法
US20230101620A1 (en) Medical image processing apparatus, endoscope system, method of operating medical image processing apparatus, and non-transitory computer readable medium
WO2016136071A1 (ja) 撮像装置、撮像装置の作動方法
JP2023014288A (ja) 医用画像処理装置、プロセッサ装置、内視鏡システム、医用画像処理装置の作動方法及びプログラム
JP7386347B2 (ja) 内視鏡システム及びその作動方法
WO2022014235A1 (ja) 画像解析処理装置、内視鏡システム、画像解析処理装置の作動方法、及び画像解析処理装置用プログラム
WO2021201272A1 (ja) 医療画像処理装置、内視鏡システム及び医療画像処理装置の作動方法並びに医療画像処理装置用プログラム
WO2021205624A1 (ja) 画像処理装置、画像処理方法、ナビゲーション方法及び内視鏡システム
WO2020067100A1 (ja) 医用画像処理装置、プロセッサ装置、医用画像処理方法、及びプログラム
WO2022210508A1 (ja) プロセッサ装置、医療画像処理装置、及び医療画像処理システム、並びに内視鏡システム
WO2021182048A1 (ja) 内視鏡システム、及び内視鏡システムの作動方法
JP7076535B2 (ja) 内視鏡装置、内視鏡装置の作動方法、及びプログラム
JP6272956B2 (ja) 内視鏡システム、内視鏡システムのプロセッサ装置、内視鏡システムの作動方法、プロセッサ装置の作動方法
JP2004033461A (ja) 付加情報表示装置、付加情報表示方法および内視鏡システム
JP6664070B2 (ja) 内視鏡プロセッサ、並びに、内視鏡プロセッサの信号処理方法及び制御プログラム
JP6207226B2 (ja) 内視鏡システム
JPWO2020121868A1 (ja) 内視鏡システム

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2016506713

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15827251

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

REEP Request for entry into the european phase

Ref document number: 2015827251

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2015827251

Country of ref document: EP