WO2018003489A1 - プロセッサ、内視鏡システム、プロセッサの制御方法、及び制御プログラム - Google Patents

プロセッサ、内視鏡システム、プロセッサの制御方法、及び制御プログラム Download PDF

Info

Publication number
WO2018003489A1
WO2018003489A1 PCT/JP2017/021804 JP2017021804W WO2018003489A1 WO 2018003489 A1 WO2018003489 A1 WO 2018003489A1 JP 2017021804 W JP2017021804 W JP 2017021804W WO 2018003489 A1 WO2018003489 A1 WO 2018003489A1
Authority
WO
WIPO (PCT)
Prior art keywords
processor
processing
image processing
signal
external
Prior art date
Application number
PCT/JP2017/021804
Other languages
English (en)
French (fr)
Inventor
橋本 進
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to CN201780033227.8A priority Critical patent/CN109310298B/zh
Priority to JP2017557476A priority patent/JP6289777B1/ja
Publication of WO2018003489A1 publication Critical patent/WO2018003489A1/ja
Priority to US16/214,198 priority patent/US10555661B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00006Operational features of endoscopes characterised by electronic signal processing of control signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000095Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope for image enhancement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00011Operational features of endoscopes characterised by signal transmission
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/0002Operational features of endoscopes provided with data storages
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00064Constructional details of the endoscope body
    • A61B1/00105Constructional details of the endoscope body characterised by modular construction
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00112Connection or coupling means
    • A61B1/00121Connectors, fasteners and adapters, e.g. on the endoscope handle
    • A61B1/00124Connectors, fasteners and adapters, e.g. on the endoscope handle electrical, e.g. electrical plug-and-socket connection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction

Definitions

  • the present invention relates to a processor that processes an imaging signal from an endoscope, an endoscope system, a control method for the processor, and a control program.
  • an endoscope system that images an inside of a subject using an image sensor and observes the inside of the subject is known (for example, see Patent Document 1).
  • An endoscope system (electronic endoscope system) described in Patent Document 1 is inserted into a subject, images the inside of the subject, and outputs an imaging signal (electronic endoscope);
  • the endoscope is detachably connected, and a processor (processor device) that generates a video signal for display by executing predetermined image processing on an imaging signal from the endoscope and connected to the processor
  • a display device for displaying an image based on the video signal from the processor. Then, a user such as a doctor observes the inside of the subject from the image displayed on the display device.
  • the new version of the processor (hereinafter referred to as a new processor) has a new function that is not present in the old version of the processor (hereinafter referred to as an old processor).
  • a function for example, an image processing function that generates an image having a color according to a user's preference such as a doctor
  • the functions of both the new processor and the old processor cannot be used. Therefore, there is a problem that it is impossible to meet the above-mentioned user's request and it is impossible to improve convenience.
  • the present invention has been made in view of the above, and an object thereof is to provide a processor, an endoscope system, a processor control method, and a control program capable of improving convenience.
  • a processor is a processor used in an endoscope system for observing the inside of a subject, and is a first endoscope connected to the processor.
  • An image processing unit that performs image processing on a first imaging signal from the external processing signal or an external processing signal from an external processor, and the first imaging signal or the external processing on which image processing has been performed by the image processing unit
  • a video signal output unit that generates a video signal for display based on the signal and outputs the generated video signal to an external display device, and the processing mode of the image processing unit is set to one of the first processing mode and the second processing mode.
  • a mode switching unit for switching, and the external processor performs image processing on a second imaging signal from a second endoscope connected to the external processor, thereby performing the external processing.
  • the image processing unit performs first image processing on the first imaging signal
  • the processing mode is When the second processing mode is set, the second image processing is performed on the external processing signal.
  • the processor according to the present invention further includes a connection detection unit that detects whether or not the first endoscope is connected to the processor according to the invention, and the external processor is connected to the second internal processor. Detecting whether the endoscope is connected, and outputting a signal corresponding to the detection result to the processor, the mode switching unit is not connected to the external processor, the second endoscope, When the first endoscope is connected to a processor, the processing mode is set to the first processing mode, the first endoscope is not connected to the processor, and the external processor is connected to the processor. When the second endoscope is connected, the processing mode is set to the second processing mode.
  • the processor according to the present invention includes an operation receiving unit that receives a user operation in the above invention, and the second image processing is designated by the user operation among a plurality of types of image processing set in advance. It is image processing.
  • the processor according to the present invention is the processor according to the above invention, wherein the first image processing includes a plurality of types of image processing, and the second image processing is a part of the plurality of types of image processing in the first image processing. It is characterized by being.
  • the second image processing includes at least on-screen display processing.
  • an endoscope system includes a first endoscope that images a subject and outputs a first imaging signal, and a second endoscope that images the subject and outputs a second imaging signal.
  • An endoscope an external processor that generates an external processing signal by executing image processing on the second imaging signal, and a video signal for display by processing the first imaging signal or the external processing signal
  • a display device connected to the processor and displaying an observation image based on the video signal for display.
  • the first endoscope and the second endoscope are different endoscopes, and the first endoscope is connected to the processor.
  • the second endoscope is connectable only to the external processor.
  • a processor control method is a processor control method used in an endoscope system for observing the inside of a subject, and includes a first imaging signal from a first endoscope connected to the processor.
  • an image processing step for executing image processing on an external processing signal from an external processor, and a display image based on the first imaging signal or the external processing signal that has been subjected to image processing in the image processing step A video signal output step of generating a video signal and outputting it to an external display device; and a mode switching step of switching the processing mode of the processor to one of the first processing mode and the second processing mode,
  • the external processor performs image processing on the second imaging signal from the second endoscope connected to the external processor, thereby performing the external processing.
  • the processing mode is set to the first processing mode, the first image processing is performed on the first imaging signal in the image processing step, and the processing mode is When the second processing mode is set, second image processing is performed on the external processing signal.
  • the control program according to the present invention is characterized by causing the processor to execute the above-described processor control method.
  • the processor According to the processor, the endoscope system, the processor control method, and the control program according to the present invention, it is possible to improve convenience.
  • FIG. 1 is a block diagram showing a configuration of an endoscope system according to an embodiment of the present invention.
  • FIG. 2 is a flowchart showing the operation of the new processor shown in FIG.
  • FIG. 3 is a diagram showing a modification of the embodiment of the present invention.
  • FIG. 4 is a diagram showing a modification of the embodiment of the present invention.
  • FIG. 5 is a diagram showing a modification of the embodiment of the present invention.
  • FIG. 1 is a block diagram showing a configuration of an endoscope system 1 according to an embodiment of the present invention.
  • the endoscope system 1 is a system that is used in the medical field and observes inside a subject such as a human (for example, a duct such as a large intestine).
  • the endoscope system 1 includes two scopes, new and old scopes 2 and 3, an input device 4, a display device 5, and two processors, new and old processors 6 and 7. Is provided.
  • the two new and old scopes 2 and 3 are inserted into the subject, respectively, and images the subject. Note that in the observation inside the subject using the endoscope system 1, one of the two new and old scopes 2 and 3 is used.
  • the new scope 2 is an upgraded version of the old scope 3 and has a function as a first endoscope according to the present invention.
  • the new scope 2 has a flexible and elongated shape, and is configured by a so-called flexible endoscope that is inserted into a subject.
  • the new scope 2 is detachably connected only to the new processor 6 via the connector 21 (FIG. 1). As shown in FIG. 1, the new scope 2 includes an objective lens 22 that condenses the subject image in the subject, an image sensor 23 that captures the subject image collected by the objective lens 22, and a release switch. And an operation switch portion 24 provided with various operation switches.
  • the old scope 3 has a function as a second endoscope according to the present invention.
  • the old scope 3 is composed of a flexible endoscope, like the new scope 2.
  • the old scope 3 is detachably connected only to the old processor 7 via the connector 31 (FIG. 1).
  • the old scope 3 is provided with an objective lens 32, an image sensor 33, and an operation switch unit 34 as in the new scope 2.
  • the imaging elements 23 and 33 are configured by imaging elements such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) that receive the subject images collected by the objective lenses 22 and 32 and convert them into electrical signals. Has been.
  • the image sensors 23 and 33 output the converted electric signals (analog signals), respectively.
  • the image sensor 23 is configured by an image sensor having a larger number of pixels than the image sensor 33 in accordance with version upgrade from the old scope 3 to the new scope 2.
  • the electrical signal (analog signal) output from the image sensor 23 (new scope 2) is used as the first image signal
  • the electrical signal (analog signal) output from the image sensor 33 (old scope 3) is the second image sensor. Signal.
  • the input device 4 is configured using a user interface such as a keyboard and a mouse, and is connected to the new processor 6.
  • the input device 4 receives a user operation by a user such as a doctor and outputs information input by the user operation to the new processor 6. That is, the input device 4 has a function as an operation receiving unit according to the present invention.
  • the display device 5 is configured by using a display using liquid crystal, organic EL (Electro Luminescence), or the like, and is connected to the new processor 6.
  • the display device 5 receives the display video signal from the new processor 6 and displays an observation image or the like based on the display video signal.
  • the new processor 6 is a processor obtained by upgrading the old processor 7 and has a function as a processor according to the present invention.
  • the new processor 6 includes a control unit 61 (FIG. 1) such as a CPU (Central Processing Unit), a RAM (Random Access Memory) 62 (FIG. 1), a ROM (Read Only Memory) 63 (FIG. 1), and the like.
  • the operations of the new and old scopes 2 and 3, the display device 5, and the old processor 7 are comprehensively controlled in accordance with programs (including control programs) configured and recorded in the ROM 63.
  • the old processor 7 has a function as an external processor according to the present invention.
  • the old processor 7 has substantially the same configuration as the new processor 6 and executes predetermined processing under the control of the new processor 6.
  • detailed configurations of the new processor 6 and the old processor 7 will be described.
  • the new processor 6 can be connected only to the new scope 2 of the new and old scopes 2 and 3 via the connector 64.
  • the new processor 6 includes an analog processing unit 65, an A / D conversion unit 66, an image processing unit 67, and a video output I / F unit in addition to the control unit 61, the RAM 62, and the ROM 63. 68 and a video input I / F unit 69.
  • the analog processing unit 65 receives the first imaging signal (analog signal) from the new scope 2, and performs analog processing such as clamp processing and noise removal processing (CDS (correlated double sampling)) on the first imaging signal. Execute the process.
  • the A / D converter 66 performs A / D conversion on the first imaging signal (analog signal) that has been subjected to analog processing, and outputs the converted first imaging signal (digital signal).
  • the connector 64 is provided with a connection detection unit 64 ⁇ / b> A that detects whether or not the new scope 2 is connected and outputs a signal corresponding to the detection result to the control unit 61. Yes.
  • the old processor 7 it is detected whether or not the old scope 3 is connected to the connector 74 (FIG. 1) to which the old processor 7 is connected, and a signal corresponding to the detection result is sent to the control unit 71.
  • a connection detection unit 74A is provided.
  • the control unit 61 new processor 6
  • the control unit 71 old processor 7
  • the control unit 61 sets the processing mode of the image processing unit 67 as the first processing mode (hereinafter referred to as the single mode) and the second processing mode (hereinafter referred to as conventional mode) according to the detection results of the connection detection units 64A and 74A. Switch to one of the processing modes. Specifically, when the old scope 3 is not connected to the old processor 7 and the new scope 2 is connected to the new processor 6, the control unit 61 sets the processing mode of the image processing unit 67 to the single mode. Set. On the other hand, when the new scope 2 is not connected to the new processor 6 and the old scope 3 is connected to the old processor 7, the control unit 61 sets the processing mode of the image processing unit 67 to the conventional compatibility mode. To do. That is, the control unit 61 has a function as a mode switching unit according to the present invention.
  • the image processing unit 67 performs either one of the first image processing and the second image processing on the input signal while using various parameters for image processing recorded in the ROM 63 under the control of the control unit 61. Execute. Specifically, the image processing unit 67 performs the first image processing on the first imaging signal (digital signal) output from the A / D conversion unit 66 when the processing mode is set to the single mode. Execute. In addition, when the processing mode is set to the conventional compatibility mode, the image processing unit 67 performs the second image processing on the external processing signal output from the old processor 7.
  • the image processing unit 67 can execute a plurality of types of image processing. In FIG.
  • an OB processing unit 67A that performs optical black subtraction processing
  • a WB processing unit 67B that performs white balance adjustment processing
  • an NR processing unit 67C that performs noise reduction processing
  • ⁇ processing unit 67D for executing
  • electronic zoom processing unit 67E for executing electronic zoom processing
  • enhancement processing unit 67F for executing edge enhancement processing
  • PinP processing unit 67G for executing picture-in-picture processing
  • mask processing unit for executing masking processing
  • the configuration includes an OSD processing unit 67I that executes 67H and on-screen display processing.
  • the first image processing executed on the first imaging signal (digital signal) in the single mode is all image processing that can be executed (in the example of FIG. 1, optical black subtraction processing, White balance adjustment processing, noise reduction processing, gamma processing, electronic zoom processing, edge enhancement processing, picture-in-picture processing, mask processing, and on-screen display processing).
  • the second image processing executed on the external processing signal (digital signal) in the conventional compatibility mode is a part of all the image processing that can be executed (in the example of FIG. 1, picture-in-picture processing). , Mask processing, and on-screen display processing).
  • the video output I / F unit 68 is configured by a DAC (Digital to Analog Converter), an encoder, or the like, and is a first imaging signal (digital signal) in which the first image processing is executed by the image processing unit 67 or image processing.
  • a video signal for display is generated based on the externally processed signal (digital signal) on which the second image processing is executed in the unit 67.
  • the video output I / F unit 68 outputs the video signal for display to the display device 5. That is, the video output I / F unit 68 has a function as a video signal output unit according to the present invention.
  • the video input I / F unit 69 is connected to the old processor 7 (video output I / F unit 78 described later) via an unshown connector and cable so that an external processing signal can be input. Then, the video input I / F unit 69 outputs the external processing signal input from the old processor 7 to the image processing unit 67 (PinP processing unit 67G in the example of FIG. 1).
  • the old processor 7 can be connected only to the old scope 3 of the new and old scopes 2 and 3 via the connector 74.
  • the old processor 7 performs processing on the second imaging signal (analog signal) from the old scope 3, and a part of the function of the image processing unit 67 (PinP processing unit 67G in the example of FIG. 1).
  • the configuration is the same as that of the new processor 6 except that it is omitted. That is, as shown in FIG. 1, the old processor 7 includes a control unit 61, a RAM 62, a ROM 63, a connector 64 (connection detection unit 64A), an analog processing unit 65, an A / D conversion unit 66, and an image processing unit in the new processor 6.
  • the old processor 7 (the control unit 71) communicates with the new processor 6 (the control unit 61), and the detection result by the connection detection unit 74A (whether or not the old scope 3 is connected). ) Is output to the new processor 6 (control unit 61). Further, when the old scope 3 is connected, the old processor 7 outputs the following external processing signal to the new processor 6. That is, the analog processing unit 75 and the A / D conversion unit 76 perform analog processing and A / D conversion on the second imaging signal (analog signal) from the old scope 3. Further, the image processing unit 77 performs all image processing that can be executed on the second imaging signal (digital signal) output from the A / D conversion unit 76 (in the example of FIG.
  • the video output I / F unit 78 generates a display video signal based on the second imaging signal (digital signal) subjected to the image processing by the image processing unit 77, and the display video signal. Is output to the new processor 6 (video input I / F unit 69) as an external processing signal.
  • image processing unit 67 new processor 6
  • image processing unit 77 old processor 7
  • image processing corresponding to each other in the example of FIG. 1, optical black subtraction processing, white balance adjustment processing, noise reduction.
  • FIG. 2 is a flowchart showing the operation of the new processor 6. Next, the operation of the above-described new processor 6 (processor control method according to the present invention) will be described with reference to FIG. First, the control unit 61 determines whether the new scope 2 is connected to the new processor 6 based on the detection result by the connection detection unit 64A (step S1).
  • step S1: Yes the control unit 61 sets the processing mode of the image processing unit 67 to the single mode (step S2: mode switching step).
  • the image processing unit 67 outputs a first image signal (digital signal) output from the new scope 2 under the control of the control unit 61 and via the analog processing unit 65 and the A / D conversion unit 66.
  • Image processing is executed (step S3: image processing step). Thereafter, the new processor 6 proceeds to Step S8.
  • step S1: No the control unit 61 communicates with the old processor 7 (control unit 71) (step S4). Through the communication, the control unit 61 determines whether or not the old scope 3 is connected to the old processor 7 (step S5).
  • step S5 When it is determined that the old scope 3 is not connected to the old processor 7 (step S5: No), the control unit 61 returns to step S1.
  • step S5: Yes the control unit 61 sets the processing mode of the image processing unit 67 to the conventional compatibility mode (step S6: Mode switching step). Then, the image processing unit 67 inputs an external processing signal from the old processor 7 via the video output I / F unit 78 and the video input I / F unit 69, and converts the external processing signal into the external processing signal under the control of the control unit 61.
  • step S7 image processing step. Thereafter, the new processor 6 proceeds to Step S8.
  • the image processing unit 67 performs the second image processing described below on the external processing signal from the old processor 7 in step S ⁇ b> 7.
  • the external processing signal is a signal obtained by executing all the image processing that can be executed by the image processing unit 77 on the second imaging signal from the old scope 3. That is, the image corresponding to the external processing signal is a captured image (in-subject image) captured by the old scope 3, characters added to a region other than the captured image by on-screen display processing, and the like Includes character images.
  • step S7 when the external processing signal is input, the PinP processing unit 67G executes a picture-in-picture process that generates an image signal in which the external processing signal is used as a child image and the child image is expanded to the entire image area.
  • the mask processing unit 67H generates an image signal obtained by performing mask processing on the image signal generated by the PinP processing unit 67G other than the above-described captured image (processing for crushing the above-described character image with black). To do.
  • the OSD processing unit 67I generates an image signal in which a character image such as the above-described character is newly added to the image signal generated by the mask processing unit 67H by an on-screen display process.
  • the video output I / F unit 68 uses the first imaging signal (digital signal) on which the first image processing has been executed or the external processing signal (digital signal) on which the second image processing has been executed. Based on the above, a video signal for display is generated and output to the display device 5 (step S8: video signal output step). Through the above steps, an observation image based on the video signal for display is displayed on the display device 5.
  • the processing mode of the image processing unit 67 can be switched to the single mode or the conventional compatibility mode. Then, the new processor 6 executes the first image processing on the first imaging signal from the new scope 2 in the single mode. Further, the new processor 6 performs the second image processing on the external processing signal obtained by performing the image processing on the second image pickup signal from the old scope 3 by the old processor 7 in the conventional compatibility mode. For this reason, by setting the processing mode of the image processing unit 67 to the conventional compatibility mode, the functions of only the old processor 7 (for example, colors according to the user's preference such as a doctor) while using the new functions of the new processor 6 are used. It is possible to meet the user's desire to use an image processing function for generating an image having a taste. Therefore, according to the new processor 6 according to the present embodiment, there is an effect that convenience can be improved.
  • the processing mode of the image processor 67 when the old scope 3 is not connected to the old processor 7 and the new scope 2 is connected to the new processor 6, the processing mode of the image processor 67. Set to single mode. Further, in the new processor 6, when the new scope 2 is not connected to the new processor 6 and the old scope 3 is connected to the old processor 7, the processing mode of the image processing unit 67 is set to the conventional compatibility mode. To do. That is, the processing mode of the image processing unit 67 can be automatically switched according to the connection of the new and old scopes 2 and 3 to the new and old processors 6 and 7.
  • the second image processing includes on-screen display processing. For this reason, for example, when the character of the character image added by the on-screen display process in the old processor 7 is small, the new processor 6 executes the on-screen display process anew, so that the size of the character Can be changed to a size that suits the user's preference. Therefore, the convenience can be further improved.
  • all image processes that can be executed by the image processing unit 67 are the first image processes, and some of the image processes are all the second image processes. That is, although the same type of image processing is duplicated in the first and second image processing, the present invention is not limited to this, and the first and second image processing may be completely different types of image processing.
  • image processing that can be executed by the image processing units 67 and 77 includes optical black subtraction processing, white balance adjustment processing, noise reduction processing, gamma processing, electronic zoom processing, edge enhancement processing, PinP processing,
  • image processing that can be executed by the image processing units 67 and 77 may include demosaic processing, gain adjustment processing, image processing for special light observation, and the like.
  • the configuration of the image processing units 67 and 77 may be different.
  • the new processor 6 image processing unit 67
  • the image processing that has been suspended is installed in the old processor 7 (image processing unit 77), or installed in the old processor 7 (image processing unit 77).
  • the new processor 6 image processing unit 67
  • FIG. 3 is a diagram showing a modification of the embodiment of the present invention.
  • the new processor 6 causes the display device 5 to display the second image processing setting screen FS shown in FIG. 3 in response to a user operation on the input device 4.
  • the control unit 61 selects the image process selected according to the user operation on the input device 4 (in the example of FIG.
  • the old processor 7 performs analog processing and A / D conversion on the second imaging signal (analog signal) output from the old scope 3 and is executed by the image processing unit 77. Perform all possible image processing.
  • the old processor 7 outputs the video signal for display generated based on the second image pickup signal (digital signal) after the image processing to the new processor 6 as an external processing signal, but is not limited thereto.
  • FIG. 4 is a diagram showing a modification of the embodiment of the present invention. As shown in FIG. 4, the new processor 6 is connected to the old processor 7 (video output to be described later) via a connector and a cable (not shown) instead of the video input I / F unit 69 described in the above embodiment.
  • a video input I / F unit 69A is provided for connecting an external processing signal to the I / F unit 78A).
  • the video input I / F unit 69A outputs the input external processing signal to the image processing unit 67 (PinP processing unit 67G in the example of FIG. 4).
  • a video output I / F unit 78A corresponding to the video input I / F unit 69A is added to the old processor 7.
  • a signal switching unit 77J that switches an output destination of the input signal under the control of the control unit 71 is added to the image processing unit 77.
  • the new processor 6 (control unit 61) is set to the conventional compatibility mode
  • the new processor 6 (control unit 61) notifies the old processor 7 (control unit 71) that the conventional compatibility mode has been set by communication.
  • the control unit 71 performs a part of all image processes that can be performed on the image processing unit 77 (in the example of FIG. 4, an optical black subtraction process, a white balance adjustment process, a noise reduction process, a gamma process). , Electronic zoom processing, and edge enhancement processing). Further, under the control of the control unit 71, the signal switching unit 77J outputs the second image pickup signal (digital signal) subjected to the partial image processing to the video output I / F unit 78A.
  • the video output I / F unit 78A uses the second image pickup signal (digital signal) on which the partial image processing has been executed as an external processing signal to perform image processing via the new processor 6 (via the video input I / F unit 69A).
  • the unit 67 Peripheral processing unit 67G in the example of FIG. 4).
  • FIG. 5 is a diagram showing a modification of the embodiment of the present invention.
  • the blocks being processed in the new and old processors 6 and 7 are provided with dot patterns.
  • the new processor 6 has a video output I / F unit 68A added to the configuration shown in FIG.
  • the image processing unit 67 is added with a signal switching unit 67J that switches the output destination of the input signal.
  • the old processor 7 corresponds to the video output I / F unit 68A with respect to the configuration shown in FIG. 4, and the video output I / O via a connector and a cable (not shown).
  • a video input I / F unit 79 for connecting a signal to / from the / F unit 68A is added.
  • the video input I / F unit 79 outputs the input signal to the image processing unit 77.
  • the image processing unit 77 is provided with a signal switching unit 77K that selects and outputs one of the two signals under the control of the control unit 71 in the configuration shown in FIG. Yes.
  • the new processor 6 When the new processor 6 (control unit 61) is set to the single mode, the new processor 6 (control unit 61) notifies the old processor 7 (control unit 71) that the single mode has been set by communication.
  • the control unit 61 outputs all the image processes that can be executed on the first imaging signal (digital signal) output from the new scope 2 and via the analog processing unit 65 and the A / D conversion unit 66. Only part of the image processing (in the example of FIG. 5, optical black subtraction processing, white balance adjustment processing, and noise reduction processing) is executed by the image processing unit 67. Further, the signal switching unit 67J outputs the first imaging signal (digital signal) on which the partial image processing is performed to the video output I / F unit 68A under the control of the control unit 61.
  • the video output I / F unit 68A sends the first imaging signal (digital signal) subjected to the partial image processing to the old processor 7 (the image processing unit 77 via the video input I / F unit 79). Output.
  • the signal switching unit 77K is controlled by the control unit 71 so that two systems of signals (in the example of FIG. 5, a signal output from the NR processing unit 77C and a signal output from the video input I / F unit 79). The first imaging signal (digital signal) output from the video input I / F unit 79 is selected and output.
  • the image processing unit 77 (old processor 7) performs all image processing that can be executed on the first imaging signal (digital signal) output from the signal switching unit 77K under the control of the control unit 71. Only a part of the image processing (in the example of FIG. 5, gamma processing, electronic zoom processing, and edge enhancement processing) is executed. Further, under the control of the control unit 71, the signal switching unit 77J outputs the first image pickup signal (digital signal) subjected to the partial image processing to the video output I / F unit 78A.
  • the video output I / F unit 78A sends the first imaging signal (digital signal) subjected to the partial image processing to the new processor 6 (the image processing unit 67 via the video input I / F unit 69A). Output.
  • the image processing unit 67 new processor 6 can execute all of the first imaging signal (digital signal) output from the video input I / F unit 69A under the control of the control unit 61. Only part of the image processing (in the example of FIG. 5, picture-in-picture processing, mask processing, and on-screen display processing) is executed.
  • the video output I / F unit 68 generates a video signal for display based on the first imaging signal (digital signal) on which the partial image processing has been executed, and outputs the video signal to the display device 5.
  • the new and old scopes 2 and 3 are configured by a flexible endoscope.
  • the present invention is not limited thereto, and may be configured by a rigid endoscope, for example.
  • the processing flow is not limited to the order of processing in the flowchart (FIG. 2) described in the above-described embodiment, and may be changed within a consistent range.
  • the processing algorithm described using the flowcharts in this specification can be described as a program. Such a program may be recorded on a recording unit inside the computer, or may be recorded on a computer-readable recording medium. The program may be recorded on the recording unit or the recording medium when the computer or the recording medium is shipped as a product, or may be recorded by downloading via a communication network.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Optics & Photonics (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Signal Processing (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

プロセッサ6は、プロセッサ6に接続された第1内視鏡2からの第1撮像信号、または、外部プロセッサ7からの外部処理信号に対して画像処理を実行する画像処理部67と、画像処理部67にて画像処理が実行された第1撮像信号または外部処理信号に基づいて表示用の映像信号を生成して外部の表示装置5に出力する映像信号出力部68と、画像処理部67の処理モードを第1処理モード及び第2処理モードのいずれかの処理モードに切り替えるモード切替部61とを備える。外部プロセッサ7は、外部プロセッサ7に接続された第2内視鏡3からの第2撮像信号に対して画像処理を実行することで外部処理信号を生成する。画像処理部67は、第1処理モードにおいて第1撮像信号に対して第1画像処理を実行し、第2処理モードにおいて外部処理信号に対して第2画像処理を実行する。

Description

プロセッサ、内視鏡システム、プロセッサの制御方法、及び制御プログラム
 本発明は、内視鏡からの撮像信号を処理するプロセッサ、内視鏡システム、プロセッサの制御方法、及び制御プログラムに関する。
 従来、医療分野において、撮像素子を用いて被検体内を撮像し、当該被検体内を観察する内視鏡システムが知られている(例えば、特許文献1参照)。
 特許文献1に記載の内視鏡システム(電子内視鏡システム)は、被検体内に挿入され、当該被検体内を撮像して撮像信号を出力する内視鏡(電子内視鏡)と、当該内視鏡が着脱自在に接続され、当該内視鏡からの撮像信号に対して所定の画像処理を実行して表示用の映像信号を生成するプロセッサ(プロセッサ装置)と、当該プロセッサに接続され、当該プロセッサからの映像信号に基づく画像を表示する表示装置(モニタ)とを備える。そして、医師等のユーザは、表示装置に表示された画像により、被検体内を観察する。
特開2013-90750号公報
 ところで、プロセッサがバージョンアップされた場合には、新しいバージョンのプロセッサ(以下、新プロセッサと記載)は、古いバージョンのプロセッサ(以下、旧プロセッサと記載)にはない新しい機能を有する。そして、当該新しい機能を使いつつ、旧プロセッサのみが持つ機能(例えば、医師等のユーザの好みに応じた色味を持つ画像を生成する画像処理機能)を使いたいというユーザも存在する。
 しかしながら、特許文献1に記載の内視鏡システムでは、新プロセッサ及び旧プロセッサの双方の機能を使うことができない。したがって、上述したユーザの要望に応えることができず、利便性の向上を図ることができない、という問題がある。
 本発明は、上記に鑑みてなされたものであって、利便性の向上を図ることができるプロセッサ、内視鏡システム、プロセッサの制御方法、及び制御プログラムを提供することを目的とする。
 上述した課題を解決し、目的を達成するために、本発明に係るプロセッサは、被検体内を観察する内視鏡システムに用いられるプロセッサであって、当該プロセッサに接続された第1内視鏡からの第1撮像信号、または、外部プロセッサからの外部処理信号に対して画像処理を実行する画像処理部と、前記画像処理部にて画像処理が実行された前記第1撮像信号または前記外部処理信号に基づいて表示用の映像信号を生成して外部の表示装置に出力する映像信号出力部と、前記画像処理部の処理モードを第1処理モード及び第2処理モードのいずれかの処理モードに切り替えるモード切替部とを備え、前記外部プロセッサは、当該外部プロセッサに接続された第2内視鏡からの第2撮像信号に対して画像処理を実行することで前記外部処理信号を生成し、前記画像処理部は、前記処理モードが前記第1処理モードに設定されている場合には、前記第1撮像信号に対して第1画像処理を実行し、前記処理モードが前記第2処理モードに設定されている場合には、前記外部処理信号に対して第2画像処理を実行することを特徴とする。
 また、本発明に係るプロセッサは、上記発明において、当該プロセッサに前記第1内視鏡が接続されたか否かを検知する接続検知部を備え、前記外部プロセッサは、当該外部プロセッサに前記第2内視鏡が接続されたか否かを検知し、当該検知結果に応じた信号を当該プロセッサに出力し、前記モード切替部は、前記外部プロセッサに前記第2内視鏡が接続されておらず、当該プロセッサに前記第1内視鏡が接続されている場合には、前記処理モードを前記第1処理モードに設定し、当該プロセッサに前記第1内視鏡が接続されておらず、前記外部プロセッサに前記第2内視鏡が接続されている場合には、前記処理モードを前記第2処理モードに設定することを特徴とする。
 また、本発明に係るプロセッサは、上記発明において、ユーザ操作を受け付ける操作受付部を備え、前記第2画像処理は、予め設定された複数種類の画像処理のうち、前記ユーザ操作にて指定された画像処理であることを特徴とする。
 また、本発明に係るプロセッサは、上記発明において、前記第1画像処理は、複数種類の画像処理を含み、前記第2画像処理は、前記第1画像処理における前記複数種類の画像処理の一部であることを特徴とする。
 また、本発明に係るプロセッサは、上記発明において、前記第2画像処理は、少なくともオンスクリーンディスプレイ処理を含むことを特徴とする。
 また、本発明に係る内視鏡システムは、被検体内を撮像して第1撮像信号を出力する第1内視鏡と、被検体内を撮像して第2撮像信号を出力する第2内視鏡と、前記第2撮像信号に対して画像処理を実行することで外部処理信号を生成する外部プロセッサと、前記第1撮像信号または前記外部処理信号を処理して表示用の映像信号を生成する上述したプロセッサと、前記プロセッサに接続され、前記表示用の映像信号に基づく観察画像を表示する表示装置とを備えることを特徴とする。
 また、本発明に係る内視鏡システムは、上記発明において、前記第1内視鏡及び前記第2内視鏡は、互いに異なる内視鏡であり、前記第1内視鏡は、前記プロセッサにのみ接続可能とし、前記第2内視鏡は、前記外部プロセッサにのみ接続可能とすることを特徴とする。
 また、本発明に係るプロセッサの制御方法は、被検体内を観察する内視鏡システムに用いられるプロセッサの制御方法であって、前記プロセッサに接続された第1内視鏡からの第1撮像信号、または、外部プロセッサからの外部処理信号に対して画像処理を実行する画像処理ステップと、前記画像処理ステップにて画像処理を実行した前記第1撮像信号または前記外部処理信号に基づいて表示用の映像信号を生成して外部の表示装置に出力する映像信号出力ステップと、前記プロセッサの処理モードを第1処理モード及び第2処理モードのいずれかの処理モードに切り替えるモード切替ステップとを備え、前記外部プロセッサは、当該外部プロセッサに接続された第2内視鏡からの第2撮像信号に対して画像処理を実行することで前記外部処理信号を生成し、前記画像処理ステップでは、前記処理モードが前記第1処理モードに設定されている場合には、前記第1撮像信号に対して第1画像処理を実行し、前記処理モードが前記第2処理モードに設定されている場合には、前記外部処理信号に対して第2画像処理を実行することを特徴とする。
 また、本発明に係る制御プログラムは、上述したプロセッサの制御方法を当該プロセッサに実行させることを特徴とする。
 本発明に係るプロセッサ、内視鏡システム、プロセッサの制御方法、及び制御プログラムによれば、利便性の向上を図ることができる、という効果を奏する。
図1は、本発明の実施の形態に係る内視鏡システムの構成を示すブロック図である。 図2は、図1に示した新プロセッサの動作を示すフローチャートである。 図3は、本発明の実施の形態の変形例を示す図である。 図4は、本発明の実施の形態の変形例を示す図である。 図5は、本発明の実施の形態の変形例を示す図である。
 以下に、図面を参照して、本発明を実施するための形態(以下、実施の形態)について説明する。なお、以下に説明する実施の形態によって本発明が限定されるものではない。さらに、図面の記載において、同一の部分には同一の符号を付している。
 〔内視鏡システムの概略構成〕
 図1は、本発明の実施の形態に係る内視鏡システム1の構成を示すブロック図である。
 内視鏡システム1は、医療分野において用いられ、人等の被検体内(例えば、大腸等の管路)を観察するシステムである。この内視鏡システム1は、図1に示すように、新,旧スコープ2,3の2つのスコープと、入力装置4と、表示装置5と、新,旧プロセッサ6,7の2つのプロセッサとを備える。
 2つの新,旧スコープ2,3は、被検体内にそれぞれ挿入され、当該被検体内をそれぞれ撮像する。なお、内視鏡システム1を用いた被検体内の観察では、2つの新,旧スコープ2,3のうちいずれか一方のスコープが用いられる。
 新スコープ2は、旧スコープ3をバージョンアップしたスコープであり、本発明に係る第1内視鏡としての機能を有する。本実施の形態では、新スコープ2は、柔軟で細長形状を有し、被検体内に挿入される所謂、軟性内視鏡で構成されている。そして、新スコープ2は、コネクタ21(図1)を介して、新プロセッサ6にのみ着脱自在に接続される。この新スコープ2には、図1に示すように、被検体内の被写体像を集光する対物レンズ22と、対物レンズ22にて集光された被写体像を撮像する撮像素子23と、レリーズスイッチ等の各種操作スイッチが設けられた操作スイッチ部24とが設けられている。
 旧スコープ3は、本発明に係る第2内視鏡としての機能を有する。本実施の形態では、旧スコープ3は、新スコープ2と同様に、軟性内視鏡で構成されている。そして、旧スコープ3は、コネクタ31(図1)を介して、旧プロセッサ7にのみ着脱自在に接続される。この旧スコープ3には、図1に示すように、新スコープ2と同様に、対物レンズ32と、撮像素子33と、操作スイッチ部34とが設けられている。
 なお、撮像素子23,33は、対物レンズ22,32が集光した被写体像を受光して電気信号に変換するCCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子でそれぞれ構成されている。そして、撮像素子23,33は、当該変換した電気信号(アナログ信号)をそれぞれ出力する。例えば、撮像素子23は、旧スコープ3から新スコープ2へのバージョンアップに応じて、撮像素子33に対して、画素数の多い撮像素子で構成されている。
 以下では、撮像素子23(新スコープ2)から出力される電気信号(アナログ信号)を第1撮像信号とし、撮像素子33(旧スコープ3)から出力される電気信号(アナログ信号)を第2撮像信号とする。
 入力装置4は、キーボードやマウス等のユーザインターフェース等を用いて構成され、新プロセッサ6に接続されている。そして、入力装置4は、医師等のユーザによるユーザ操作を受け付け、当該ユーザ操作により入力された情報を新プロセッサ6に出力する。すなわち、入力装置4は、本発明に係る操作受付部としての機能を有する。
 表示装置5は、液晶または有機EL(Electro Luminescence)等を用いた表示ディスプレイを用いて構成され、新プロセッサ6に接続されている。そして、表示装置5は、新プロセッサ6からの表示用の映像信号を入力し、当該表示用の映像信号に基づく観察画像等を表示する。
 新プロセッサ6は、旧プロセッサ7をバージョンアップしたプロセッサであり、本発明に係るプロセッサとしての機能を有する。この新プロセッサ6は、CPU(Central Processing Unit)等の制御部61(図1)、RAM(Random Access Memory)62(図1)、及びROM(Read Only Memory)63(図1)等を含んで構成され、ROM63に記録されたプログラム(制御プログラムを含む)にしたがって、新,旧スコープ2,3、表示装置5、及び旧プロセッサ7の動作を統括的に制御する。
 旧プロセッサ7は、本発明に係る外部プロセッサとしての機能を有する。この旧プロセッサ7は、新プロセッサ6と略同様の構成を有し、新プロセッサ6による制御の下、所定の処理を実行する。
 以下、新プロセッサ6及び旧プロセッサ7の詳細な構成について説明する。
 〔新プロセッサの構成〕
 新プロセッサ6は、コネクタ64を介して、新,旧スコープ2,3のうち新スコープ2にのみ接続可能とする。この新プロセッサ6は、図1に示すように、制御部61、RAM62、及びROM63の他、アナログ処理部65と、A/D変換部66と、画像処理部67と、映像出力I/F部68と、映像入力I/F部69とを備える。
 アナログ処理部65は、新スコープ2からの第1撮像信号(アナログ信号)を入力し、当該第1撮像信号に対して、クランプ処理及びノイズ除去処理(CDS(相関二重サンプリング))等のアナログ処理を実行する。
 A/D変換部66は、アナログ処理が施された第1撮像信号(アナログ信号)をA/D変換し、当該変換した第1撮像信号(デジタル信号)を出力する。
 ここで、コネクタ64には、図1に示すように、新スコープ2が接続されたか否かを検知し、当該検知結果に応じた信号を制御部61に出力する接続検知部64Aが設けられている。また、旧プロセッサ7においても同様に、旧プロセッサ7が接続されるコネクタ74(図1)には、旧スコープ3が接続されたか否かを検知し、当該検知結果に応じた信号を制御部71に出力する接続検知部74Aが設けられている。
 また、制御部61(新プロセッサ6)は、図示しないコネクタ及びケーブル等を介して、制御部71(旧プロセッサ7)との間で通信可能に接続し、当該通信により、接続検知部74Aによる検知結果を取得する。そして、制御部61は、接続検知部64A,74Aの各検知結果に応じて、画像処理部67の処理モードを第1処理モード(以下、単独モードと記載)及び第2処理モード(以下、従来互換モードと記載)のいずれかの処理モードに切り替える。
 具体的に、制御部61は、旧プロセッサ7に旧スコープ3が接続されておらず、新プロセッサ6に新スコープ2が接続されている場合には、画像処理部67の処理モードを単独モードに設定する。一方、制御部61は、新プロセッサ6に新スコープ2が接続されておらず、旧プロセッサ7に旧スコープ3が接続されている場合には、画像処理部67の処理モードを従来互換モードに設定する。すなわち、制御部61は、本発明に係るモード切替部としての機能を有する。
 画像処理部67は、制御部61による制御の下、ROM63に記録された画像処理用の各種パラメータを用いながら、入力した信号に対して第1,第2画像処理のいずれか一方の画像処理を実行する。具体的に、画像処理部67は、処理モードが単独モードに設定されている場合には、A/D変換部66から出力された第1撮像信号(デジタル信号)に対して第1画像処理を実行する。また、画像処理部67は、処理モードが従来互換モードに設定されている場合には、旧プロセッサ7から出力された外部処理信号に対して第2画像処理を実行する。
 ここで、画像処理部67は、複数種類の画像処理を実行可能とする。図1には画像処理部67の一例として、オプティカルブラック減算処理を実行するOB処理部67A、ホワイトバランス調整処理を実行するWB処理部67B、ノイズリダクション処理を実行するNR処理部67C、ガンマ処理を実行するγ処理部67D、電子ズーム処理を実行する電子ズーム処理部67E、エッジ強調処理を実行する強調処理部67F、ピクチャインピクチャ処理を実行するPinP処理部67G、マスク処理を実行するマスク処理部67H、及びオンスクリーンディスプレイ処理を実行するOSD処理部67Iを備えた構成を示している。
 そして、本実施の形態では、単独モードにおいて第1撮像信号(デジタル信号)に対して実行する第1画像処理は、実行可能とする全ての画像処理(図1の例では、オプティカルブラック減算処理、ホワイトバランス調整処理、ノイズリダクション処理、ガンマ処理、電子ズーム処理、エッジ強調処理、ピクチャインピクチャ処理、マスク処理、及びオンスクリーンディスプレイ処理)に設定されている。また、従来互換モードにおいて外部処理信号(デジタル信号)に対して実行する第2画像処理は、実行可能とする全ての画像処理のうち一部の画像処理(図1の例では、ピクチャインピクチャ処理、マスク処理、及びオンスクリーンディスプレイ処理)に設定されている。
 映像出力I/F部68は、DAC(Digital to Analog Converter)やエンコーダ等で構成され、画像処理部67にて第1画像処理が実行された第1撮像信号(デジタル信号)、または、画像処理部67にて第2画像処理が実行された外部処理信号(デジタル信号)に基づいて、表示用の映像信号を生成する。そして、映像出力I/F部68は、当該表示用の映像信号を表示装置5に出力する。すなわち、映像出力I/F部68は、本発明に係る映像信号出力部としての機能を有する。
 映像入力I/F部69は、図示しないコネクタ及びケーブル等を介して、旧プロセッサ7(後述する映像出力I/F部78)との間で外部処理信号を入力可能に接続する。そして、映像入力I/F部69は、旧プロセッサ7から入力した外部処理信号を画像処理部67(図1の例では、PinP処理部67G)に出力する。
 〔旧プロセッサの構成〕
 旧プロセッサ7は、コネクタ74を介して、新,旧スコープ2,3のうち旧スコープ3にのみ接続可能とする。そして、旧プロセッサ7は、旧スコープ3からの第2撮像信号(アナログ信号)に対して処理を行う点、画像処理部67の一部の機能(図1の例では、PinP処理部67G)が省略されている点以外は、新プロセッサ6と同様の構成を有する。すなわち、旧プロセッサ7は、図1に示すように、新プロセッサ6における制御部61、RAM62、ROM63、コネクタ64(接続検知部64A)、アナログ処理部65、A/D変換部66、画像処理部67(OB処理部67A、WB処理部67B、NR処理部67C、γ処理部67D、電子ズーム処理部67E、強調処理部67F、マスク処理部67H、及びOSD処理部67I)、及び映像出力I/F部68に対応した制御部71、RAM72、ROM73、コネクタ74(接続検知部74A)、アナログ処理部75、A/D変換部76、画像処理部77(OB処理部77A、WB処理部77B、NR処理部77C、γ処理部77D、電子ズーム処理部77E、強調処理部77F、マスク処理部77H、及びOSD処理部77I)、及び映像出力I/F部78を備える。
 そして、本実施の形態では、旧プロセッサ7(制御部71)は、新プロセッサ6(制御部61)との間で通信し、接続検知部74Aによる検知結果(旧スコープ3が接続されたか否かの検知結果)に応じた信号を新プロセッサ6(制御部61)に出力する。また、旧プロセッサ7は、旧スコープ3が接続された場合には、以下に示す外部処理信号を新プロセッサ6に出力する。
 すなわち、アナログ処理部75及びA/D変換部76は、旧スコープ3からの第2撮像信号(アナログ信号)に対してアナログ処理及びA/D変換を行う。また、画像処理部77は、A/D変換部76から出力される第2撮像信号(デジタル信号)に対して、実行可能とする全ての画像処理(図1の例では、オプティカルブラック減算処理、ホワイトバランス調整処理、ノイズリダクション処理、ガンマ処理、電子ズーム処理、エッジ強調処理、マスク処理、及びオンスクリーンディスプレイ処理)を実行する。そして、映像出力I/F部78は、画像処理部77にて画像処理が実行された第2撮像信号(デジタル信号)に基づいて、表示用の映像信号を生成し、当該表示用の映像信号を外部処理信号として新プロセッサ6(映像入力I/F部69)に出力する。
 なお、画像処理部67(新プロセッサ6)と画像処理部77(旧プロセッサ7)とを比較すると、互いに対応する画像処理(図1の例では、オプティカルブラック減算処理、ホワイトバランス調整処理、ノイズリダクション処理、ガンマ処理、電子ズーム処理、エッジ強調処理、マスク処理、及びオンスクリーンディスプレイ処理)の少なくともいずれかの画像処理は、旧プロセッサ7から新プロセッサ6へのバージョンアップに応じて、画像処理の目的を同一としながら、処理のアルゴリズム及びパラメータの少なくともいずれかが異なっている場合がある。
 〔新プロセッサの動作〕
 図2は、新プロセッサ6の動作を示すフローチャートである。
 次に、上述した新プロセッサ6の動作(本発明に係るプロセッサの制御方法)について図2を参照しつつ説明する。
 先ず、制御部61は、接続検知部64Aによる検知結果に基づいて、新プロセッサ6に新スコープ2が接続されたか否かを判断する(ステップS1)。
 新プロセッサ6に新スコープ2が接続されたと判断した場合(ステップS1:Yes)には、制御部61は、画像処理部67の処理モードを単独モードに設定する(ステップS2:モード切替ステップ)。そして、画像処理部67は、制御部61による制御の下、新スコープ2から出力され、アナログ処理部65及びA/D変換部66を介した第1撮像信号(デジタル信号)に対して第1画像処理を実行する(ステップS3:画像処理ステップ)。この後、新プロセッサ6は、ステップS8に移行する。
 一方、新プロセッサ6に新スコープ2が接続されていないと判断した場合(ステップS1:No)には、制御部61は、旧プロセッサ7(制御部71)と通信を行う(ステップS4)。当該通信により、制御部61は、旧プロセッサ7に旧スコープ3が接続されたか否かを判断する(ステップS5)。
 旧プロセッサ7に旧スコープ3が接続されていないと判断した場合(ステップS5:No)には、制御部61は、ステップS1に戻る。
 一方、旧プロセッサ7に旧スコープ3が接続されていると判断した場合(ステップS5:Yes)には、制御部61は、画像処理部67の処理モードを従来互換モードに設定する(ステップS6:モード切替ステップ)。そして、画像処理部67は、映像出力I/F部78及び映像入力I/F部69を介して旧プロセッサ7から外部処理信号を入力し、制御部61による制御の下、当該外部処理信号に対して第2画像処理を実行する(ステップS7:画像処理ステップ)。この後、新プロセッサ6は、ステップS8に移行する。
 具体的に、画像処理部67は、図1の例では、ステップS7において、旧プロセッサ7からの外部処理信号に対して、以下に示す第2画像処理を実行する。
 ここで、外部処理信号は、上述したように、旧スコープ3からの第2撮像信号に対して画像処理部77にて実行可能とする全ての画像処理が実行された信号である。すなわち、当該外部処理信号に応じた画像は、旧スコープ3にて撮像された撮像画像(被検体内画像)の他、オンスクリーンディスプレイ処理により当該撮像画像とは別の領域に付加された文字等の文字画像を含む。
 そして、ステップS7において、PinP処理部67Gは、外部処理信号を入力すると、当該外部処理信号を子画像とし、当該子画像を全画像領域に拡大した画像信号を生成するピクチャインピクチャ処理を実行する。次に、マスク処理部67Hは、PinP処理部67Gにて生成された画像信号に対して、上述した撮像画像以外の領域をマスク処理(上述した文字画像を黒で潰す処理)した画像信号を生成する。次に、OSD処理部67Iは、マスク処理部67Hにて生成された画像信号に対して、オンスクリーンディスプレイ処理により改めて上述した文字等の文字画像を付加した画像信号を生成する。
 ステップS3またはS7の後、映像出力I/F部68は、第1画像処理が実行された第1撮像信号(デジタル信号)、または、第2画像処理が実行された外部処理信号(デジタル信号)に基づいて、表示用の映像信号を生成して表示装置5に出力する(ステップS8:映像信号出力ステップ)。
 以上のステップにより、表示装置5には、当該表示用の映像信号に基づく観察画像が表示される。
 以上説明した本実施の形態に係る新プロセッサ6では、画像処理部67の処理モードを単独モードまたは従来互換モードに切り替えることができる。そして、新プロセッサ6は、単独モードにおいて、新スコープ2からの第1撮像信号に対して第1画像処理を実行する。また、新プロセッサ6は、従来互換モードにおいて、旧プロセッサ7により旧スコープ3からの第2撮像信号に画像処理が実行された外部処理信号に対して第2画像処理を実行する。
 このため、画像処理部67の処理モードを従来互換モードに設定することにより、新プロセッサ6の新しい機能を使いつつ、旧プロセッサ7のみが持つ機能(例えば、医師等のユーザの好みに応じた色味を持つ画像を生成する画像処理機能)を使いたいというユーザの要望にも応えることができる。
 したがって、本実施の形態に係る新プロセッサ6によれば、利便性の向上を図ることができる、という効果を奏する。
 また、本実施の形態に係る新プロセッサ6では、旧プロセッサ7に旧スコープ3が接続されておらず、新プロセッサ6に新スコープ2が接続されている場合には、画像処理部67の処理モードを単独モードに設定する。また、新プロセッサ6では、新プロセッサ6に新スコープ2が接続されておらず、旧プロセッサ7に旧スコープ3が接続されている場合には、画像処理部67の処理モードを従来互換モードに設定する。
 すなわち、新,旧スコープ2,3の新,旧プロセッサ6,7への接続に応じて自動的に画像処理部67の処理モードを切り替えることができる。このため、例えば、入力装置4へのユーザ操作に応じて当該処理モードを切り替える構成を採用した場合と比較して、当該処理モードを切り替えるにあたって、医師等のユーザに煩雑な作業(入力装置4へのユーザ操作)を強いることがない。したがって、利便性の向上をさらに図ることができる。
 また、本実施の形態に係る新プロセッサ6では、第2画像処理は、オンスクリーンディスプレイ処理を含む。このため、例えば、旧プロセッサ7でのオンスクリーンディスプレイ処理で付加される文字画像の文字が小さい場合等には、新プロセッサ6において、改めてオンスクリーンディスプレイ処理を実行することにより、当該文字の大きさをユーザの好みに合わせた大きさに変更することが可能となる。したがって、利便性の向上をさらに図ることができる。
(その他の実施の形態)
 ここまで、本発明を実施するための形態を説明したが、本発明は上述した実施の形態によってのみ限定されるべきものではない。
 上述した実施の形態では、本発明に係る第1,第2内視鏡として互いに異なるスコープである新,旧スコープ2,3を採用していたが、これに限らず、同一のスコープで構成し、新,旧プロセッサ6,7のいずれのプロセッサにも着脱自在に構成しても構わない。
 上述した実施の形態では、画像処理部67にて実行可能とする全ての画像処理を第1画像処理とし、当該全ての画像処理のうち一部の画像処理を第2画像処理としていた。すなわち、第1,第2画像処理で同一種類の画像処理が重複していたが、これに限らず、第1,第2画像処理を全く異なる種類の画像処理としても構わない。
 上述した実施の形態において、画像処理部67,77が実行可能とする画像処理として、オプティカルブラック減算処理、ホワイトバランス調整処理、ノイズリダクション処理、ガンマ処理、電子ズーム処理、エッジ強調処理、PinP処理、マスク処理、及びオンスクリーンディスプレイ処理を例示したが、これに限らず、その他の画像処理を採用しても構わない。例えば、画像処理部67,77が実行可能とする画像処理として、デモザイク処理、ゲイン調整処理、特殊光観察用の画像処理等を含めても構わない。
 また、画像処理部67,77の構成は、異なっていても構わない。例えば、新プロセッサ6(画像処理部67)では搭載中止となった画像処理が旧プロセッサ7(画像処理部77)に搭載されている、あるいは、旧プロセッサ7(画像処理部77)には搭載されておらず、画質向上等を目的とした新規の画像処理が新プロセッサ6(画像処理部67)に搭載されていても構わない。
 上述した実施の形態では、従来互換モードにおいて外部処理信号に対して画像処理部67が実行する第2画像処理として、PinP処理、マスク処理、及びオンスクリーンディスプレイ処理を例示したが、これに限らず、その他の画像処理を採用しても構わない。
 図3は、本発明の実施の形態の変形例を示す図である。
 例えば、新プロセッサ6(制御部61)は、入力装置4へのユーザ操作に応じて、図3に示す第2画像処理設定画面FSを表示装置5に表示させる。そして、制御部61は、PinP処理、マスク処理、及びオンスクリーンディスプレイ処理の他、入力装置4へのユーザ操作に応じて選択(図3の例では、チェックボックスCBにて選択)された画像処理(図3の例では、ノイズリダクション処理、ガンマ処理、電子ズーム処理、及びエッジ強調処理が選択)を第2画像処理として設定する。
 このように構成すれば、画像処理部67に対して、医師等のユーザの好みに合わせた第2画像処理を簡単なユーザ操作により実行させることができる。したがって、利便性の向上をさらに図ることができる。
 上述した実施の形態では、旧プロセッサ7は、旧スコープ3から出力された第2撮像信号(アナログ信号)に対して、アナログ処理及びA/D変換を実行するとともに、画像処理部77にて実行可能とする全ての画像処理を実行する。そして、旧プロセッサ7は、当該画像処理後の第2撮像信号(デジタル信号)に基づいて生成した表示用の映像信号を外部処理信号として新プロセッサ6に出力していたが、これに限らない。
 図4は、本発明の実施の形態の変形例を示す図である。
 新プロセッサ6には、図4に示すように、上述した実施の形態で説明した映像入力I/F部69の代わりに、図示しないコネクタ及びケーブル等を介して、旧プロセッサ7(後述する映像出力I/F部78A)との間で外部処理信号を入力可能に接続する映像入力I/F部69Aが設けられている。この映像入力I/F部69Aは、入力した外部処理信号を画像処理部67(図4の例では、PinP処理部67G)に出力する。
 また、旧プロセッサ7には、図4に示すように、映像入力I/F部69Aに対応した映像出力I/F部78Aが追加されている。さらに、画像処理部77には、制御部71による制御の下、入力した信号の出力先を切り替える信号切替部77Jが追加されている。
 そして、新プロセッサ6(制御部61)は、従来互換モードに設定した場合には、旧プロセッサ7(制御部71)に対して、通信により、従来互換モードに設定した旨を通知する。制御部71は、画像処理部77に対して実行可能とする全ての画像処理のうち一部の画像処理(図4の例では、オプティカルブラック減算処理、ホワイトバランス調整処理、ノイズリダクション処理、ガンマ処理、電子ズーム処理、及びエッジ強調処理)のみを実行させる。また、信号切替部77Jは、制御部71による制御の下、当該一部の画像処理が実行された第2撮像信号(デジタル信号)を映像出力I/F部78Aに出力する。そして、映像出力I/F部78Aは、当該一部の画像処理が実行された第2撮像信号(デジタル信号)を外部処理信号として新プロセッサ6(映像入力I/F部69Aを介して画像処理部67(図4の例では、PinP処理部67G))に出力する。
 上述した実施の形態では、単独モードにおいて、第1撮像信号には、画像処理部67にて実行可能とする全ての画像処理が実行されていたが、これに限らない。
 図5は、本発明の実施の形態の変形例を示す図である。なお、図5では、説明の便宜上、新,旧プロセッサ6,7において、処理を行っているブロック(図5の例では、各ブロック65,66,67A~67C,67G~67J,68,68A,69A,77D~77F,77J,77K,78A,79)にはドット模様を付している。
 新プロセッサ6には、図5に示すように、図4に示した構成に対して、映像出力I/F部68Aが追加されている。また、画像処理部67には、入力した信号の出力先を切り替える信号切替部67Jが追加されている。
 また、旧プロセッサ7には、図5に示すように、図4に示した構成に対して、映像出力I/F部68Aに対応し、図示しないコネクタ及びケーブル等を介して、当該映像出力I/F部68Aとの間で信号を入力可能に接続する映像入力I/F部79が追加されている。この映像入力I/F部79は、入力した信号を画像処理部77に出力する。さらに、画像処理部77には、図4に示した構成に対して、制御部71による制御の下、2系統の信号のうち一方の信号を選択して出力する信号切替部77Kが設けられている。
 そして、新プロセッサ6(制御部61)は、単独モードに設定した場合には、旧プロセッサ7(制御部71)に対して、通信により、単独モードに設定した旨を通知する。また、制御部61は、新スコープ2から出力され、アナログ処理部65及びA/D変換部66を介した第1撮像信号(デジタル信号)に対して、実行可能とする全ての画像処理のうち一部の画像処理(図5の例では、オプティカルブラック減算処理、ホワイトバランス調整処理、及びノイズリダクション処理)のみを画像処理部67に実行させる。また、信号切替部67Jは、制御部61による制御の下、当該一部の画像処理が実行された第1撮像信号(デジタル信号)を映像出力I/F部68Aに出力する。そして、映像出力I/F部68Aは、当該一部の画像処理が実行された第1撮像信号(デジタル信号)を旧プロセッサ7(映像入力I/F部79を介して画像処理部77)に出力する。一方、信号切替部77Kは、制御部71による制御の下、2系統の信号(図5の例では、NR処理部77Cから出力される信号と、映像入力I/F部79から出力される信号との2系統の信号)のうち、映像入力I/F部79から出力された第1撮像信号(デジタル信号)を選択して出力する。また、画像処理部77(旧プロセッサ7)は、制御部71による制御の下、信号切替部77Kから出力された第1撮像信号(デジタル信号)に対して、実行可能とする全ての画像処理のうち一部の画像処理(図5の例では、ガンマ処理、電子ズーム処理、及びエッジ強調処理)のみを実行する。また、信号切替部77Jは、制御部71による制御の下、当該一部の画像処理が実行された第1撮像信号(デジタル信号)を映像出力I/F部78Aに出力する。そして、映像出力I/F部78Aは、当該一部の画像処理が実行された第1撮像信号(デジタル信号)を新プロセッサ6(映像入力I/F部69Aを介して画像処理部67)に出力する。また、画像処理部67(新プロセッサ6)は、制御部61による制御の下、映像入力I/F部69Aから出力された第1撮像信号(デジタル信号)に対して、実行可能とする全ての画像処理のうち一部の画像処理(図5の例では、ピクチャインピクチャ処理、マスク処理、及びオンスクリーンディスプレイ処理)のみを実行する。そして、映像出力I/F部68は、当該一部の画像処理が実行された第1撮像信号(デジタル信号)に基づいて、表示用の映像信号を生成して表示装置5に出力する。
 上述した実施の形態では、新,旧スコープ2,3を軟性内視鏡で構成していたが、これに限らず、例えば、硬性内視鏡で構成しても構わない。
 また、処理フローは、上述した実施の形態で説明したフローチャート(図2)における処理の順序に限らず、矛盾のない範囲で変更しても構わない。
 さらに、本明細書においてフローチャートを用いて説明した処理のアルゴリズムは、プログラムとして記述することが可能である。このようなプログラムは、コンピュータ内部の記録部に記録してもよいし、コンピュータ読み取り可能な記録媒体に記録してもよい。プログラムの記録部又は記録媒体への記録は、コンピュータ又は記録媒体を製品として出荷する際に行ってもよく、あるいは、通信ネットワークを介したダウンロードにより行ってもよい。
 1 内視鏡システム
 2 新スコープ(第1内視鏡)
 3 旧スコープ(第2内視鏡)
 4 入力装置(操作受付部)
 5 表示装置
 6 新プロセッサ(プロセッサ)
 7 旧プロセッサ(外部プロセッサ)
 21,31 コネクタ
 22,32 対物レンズ
 23,33 撮像素子
 24,34 操作スイッチ部
 61 制御部(モード切替部)
 62,72 RAM
 63,73 ROM
 64,74 コネクタ
 64A,74A 接続検知部
 65,75 アナログ処理部
 66,76 A/D変換部
 67,77 画像処理部
 67A,77A OB処理部
 67B,77B WB処理部
 67C,77C NR処理部
 67D,77D γ処理部
 67E,77E 電子ズーム処理部
 67F,77F 強調処理部
 67G PinP処理部
 67H,77H マスク処理部
 67I,77I OSD処理部
 67J 信号切替部
 68 映像出力I/F部(映像信号出力部)
 68A 映像出力I/F部
 69,69A 映像入力I/F部
 71 制御部
 77J,77K 信号切替部
 78,78A 映像出力I/F部
 79 映像入力I/F部
 FS 第2画像処理設定画面
 CB チェックボックス

Claims (9)

  1.  被検体内を観察する内視鏡システムに用いられるプロセッサであって、
     当該プロセッサに接続された第1内視鏡からの第1撮像信号、または、外部プロセッサからの外部処理信号に対して画像処理を実行する画像処理部と、
     前記画像処理部にて画像処理が実行された前記第1撮像信号または前記外部処理信号に基づいて表示用の映像信号を生成して外部の表示装置に出力する映像信号出力部と、
     前記画像処理部の処理モードを第1処理モード及び第2処理モードのいずれかの処理モードに切り替えるモード切替部とを備え、
     前記外部プロセッサは、
     当該外部プロセッサに接続された第2内視鏡からの第2撮像信号に対して画像処理を実行することで前記外部処理信号を生成し、
     前記画像処理部は、
     前記処理モードが前記第1処理モードに設定されている場合には、前記第1撮像信号に対して第1画像処理を実行し、
     前記処理モードが前記第2処理モードに設定されている場合には、前記外部処理信号に対して第2画像処理を実行する
     ことを特徴とするプロセッサ。
  2.  当該プロセッサに前記第1内視鏡が接続されたか否かを検知する接続検知部を備え、
     前記外部プロセッサは、
     当該外部プロセッサに前記第2内視鏡が接続されたか否かを検知し、当該検知結果に応じた信号を当該プロセッサに出力し、
     前記モード切替部は、
     前記外部プロセッサに前記第2内視鏡が接続されておらず、当該プロセッサに前記第1内視鏡が接続されている場合には、前記処理モードを前記第1処理モードに設定し、
     当該プロセッサに前記第1内視鏡が接続されておらず、前記外部プロセッサに前記第2内視鏡が接続されている場合には、前記処理モードを前記第2処理モードに設定する
     ことを特徴とする請求項1に記載のプロセッサ。
  3.  ユーザ操作を受け付ける操作受付部を備え、
     前記第2画像処理は、
     予め設定された複数種類の画像処理のうち、前記ユーザ操作にて指定された画像処理である
     ことを特徴とする請求項1または2に記載のプロセッサ。
  4.  前記第1画像処理は、
     複数種類の画像処理を含み、
     前記第2画像処理は、
     前記第1画像処理における前記複数種類の画像処理の一部である
     ことを特徴とする請求項1~3のいずれか一つに記載のプロセッサ。
  5.  前記第2画像処理は、
     少なくともオンスクリーンディスプレイ処理を含む
     ことを特徴とする請求項1~4のいずれか一つに記載のプロセッサ。
  6.  被検体内を撮像して第1撮像信号を出力する第1内視鏡と、
     被検体内を撮像して第2撮像信号を出力する第2内視鏡と、
     前記第2撮像信号に対して画像処理を実行することで外部処理信号を生成する外部プロセッサと、
     前記第1撮像信号または前記外部処理信号を処理して表示用の映像信号を生成する請求項1~5のいずれか一つに記載のプロセッサと、
     前記プロセッサに接続され、前記表示用の映像信号に基づく観察画像を表示する表示装置とを備える
     ことを特徴とする内視鏡システム。
  7.  前記第1内視鏡及び前記第2内視鏡は、
     互いに異なる内視鏡であり、
     前記第1内視鏡は、
     前記プロセッサにのみ接続可能とし、
     前記第2内視鏡は、
     前記外部プロセッサにのみ接続可能とする
     ことを特徴とする請求項6に記載の内視鏡システム。
  8.  被検体内を観察する内視鏡システムに用いられるプロセッサの制御方法であって、
     前記プロセッサに接続された第1内視鏡からの第1撮像信号、または、外部プロセッサからの外部処理信号に対して画像処理を実行する画像処理ステップと、
     前記画像処理ステップにて画像処理を実行した前記第1撮像信号または前記外部処理信号に基づいて表示用の映像信号を生成して外部の表示装置に出力する映像信号出力ステップと、
     前記プロセッサの処理モードを第1処理モード及び第2処理モードのいずれかの処理モードに切り替えるモード切替ステップとを備え、
     前記外部プロセッサは、
     当該外部プロセッサに接続された第2内視鏡からの第2撮像信号に対して画像処理を実行することで前記外部処理信号を生成し、
     前記画像処理ステップでは、
     前記処理モードが前記第1処理モードに設定されている場合には、前記第1撮像信号に対して第1画像処理を実行し、
     前記処理モードが前記第2処理モードに設定されている場合には、前記外部処理信号に対して第2画像処理を実行する
     ことを特徴とするプロセッサの制御方法。
  9.  請求項8に記載のプロセッサの制御方法を当該プロセッサに実行させる
     ことを特徴とする制御プログラム。
PCT/JP2017/021804 2016-06-27 2017-06-13 プロセッサ、内視鏡システム、プロセッサの制御方法、及び制御プログラム WO2018003489A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201780033227.8A CN109310298B (zh) 2016-06-27 2017-06-13 内窥镜系统
JP2017557476A JP6289777B1 (ja) 2016-06-27 2017-06-13 内視鏡システム
US16/214,198 US10555661B2 (en) 2016-06-27 2018-12-10 Endoscope System

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016126758 2016-06-27
JP2016-126758 2016-06-27

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/214,198 Continuation US10555661B2 (en) 2016-06-27 2018-12-10 Endoscope System

Publications (1)

Publication Number Publication Date
WO2018003489A1 true WO2018003489A1 (ja) 2018-01-04

Family

ID=60785331

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/021804 WO2018003489A1 (ja) 2016-06-27 2017-06-13 プロセッサ、内視鏡システム、プロセッサの制御方法、及び制御プログラム

Country Status (4)

Country Link
US (1) US10555661B2 (ja)
JP (1) JP6289777B1 (ja)
CN (1) CN109310298B (ja)
WO (1) WO2018003489A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190106251A (ko) * 2018-03-08 2019-09-18 삼성전자주식회사 이미지 센서와 연결된 인터페이스 및 복수의 프로세서들간에 연결된 인터페이스를 포함하는 전자 장치

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1085176A (ja) * 1996-09-12 1998-04-07 Fuji Photo Optical Co Ltd 電子内視鏡システム
JP2001224555A (ja) * 2000-02-18 2001-08-21 Fuji Photo Optical Co Ltd 電子内視鏡装置
JP2002248077A (ja) * 2001-02-23 2002-09-03 Fuji Photo Optical Co Ltd 電子内視鏡装置
JP2004236738A (ja) * 2003-02-04 2004-08-26 Fuji Photo Optical Co Ltd 電子内視鏡用プロセッサ装置
JP2014113212A (ja) * 2012-12-06 2014-06-26 Hoya Corp 内視鏡
JP2015047459A (ja) * 2013-09-04 2015-03-16 Hoya株式会社 内視鏡システム
WO2015194421A1 (ja) * 2014-06-16 2015-12-23 オリンパス株式会社 医療用システム及びその画像処理設定方法
JP2016096941A (ja) * 2014-11-19 2016-05-30 オリンパス株式会社 内視鏡システム
WO2017047321A1 (ja) * 2015-09-18 2017-03-23 オリンパス株式会社 信号処理装置
WO2017047117A1 (ja) * 2015-09-18 2017-03-23 オリンパス株式会社 信号処理装置及び内視鏡システム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4860094A (en) * 1987-03-10 1989-08-22 Olympus Optical Co., Ltd. Control apparatus for use with different types of endoscopes
WO1993006768A1 (en) * 1991-10-04 1993-04-15 Birtcher Medical Systems Dual image camera system for endoscopy
US6002425A (en) 1996-09-12 1999-12-14 Fuji Photo Optical Co., Ltd. All pixels read type electronic endoscope system
EP0881834B1 (en) * 1997-05-27 2006-03-22 Pentax Corporation Video signal switching device for endoscope system
JP4448237B2 (ja) * 2000-07-18 2010-04-07 Hoya株式会社 電子内視鏡の切替装置を含む電子内視鏡システム
US8310529B2 (en) * 2006-05-15 2012-11-13 Olympus Medical Systems Corp. System and method for automatic processing of endoscopic images
JP2009077845A (ja) * 2007-09-26 2009-04-16 Fujinon Corp 電子内視鏡装置
US8900134B2 (en) * 2008-02-12 2014-12-02 Olympus Corporation Endoscope apparatus and method of controlling endoscope apparatus
JP5249480B1 (ja) * 2011-08-09 2013-07-31 オリンパスメディカルシステムズ株式会社 内視鏡洗浄消毒装置
JP5827868B2 (ja) 2011-10-25 2015-12-02 富士フイルム株式会社 電子内視鏡及び固定パターンノイズ除去方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1085176A (ja) * 1996-09-12 1998-04-07 Fuji Photo Optical Co Ltd 電子内視鏡システム
JP2001224555A (ja) * 2000-02-18 2001-08-21 Fuji Photo Optical Co Ltd 電子内視鏡装置
JP2002248077A (ja) * 2001-02-23 2002-09-03 Fuji Photo Optical Co Ltd 電子内視鏡装置
JP2004236738A (ja) * 2003-02-04 2004-08-26 Fuji Photo Optical Co Ltd 電子内視鏡用プロセッサ装置
JP2014113212A (ja) * 2012-12-06 2014-06-26 Hoya Corp 内視鏡
JP2015047459A (ja) * 2013-09-04 2015-03-16 Hoya株式会社 内視鏡システム
WO2015194421A1 (ja) * 2014-06-16 2015-12-23 オリンパス株式会社 医療用システム及びその画像処理設定方法
JP2016096941A (ja) * 2014-11-19 2016-05-30 オリンパス株式会社 内視鏡システム
WO2017047321A1 (ja) * 2015-09-18 2017-03-23 オリンパス株式会社 信号処理装置
WO2017047117A1 (ja) * 2015-09-18 2017-03-23 オリンパス株式会社 信号処理装置及び内視鏡システム

Also Published As

Publication number Publication date
US20190104920A1 (en) 2019-04-11
JPWO2018003489A1 (ja) 2018-06-28
CN109310298B (zh) 2021-07-13
US10555661B2 (en) 2020-02-11
CN109310298A (zh) 2019-02-05
JP6289777B1 (ja) 2018-03-07

Similar Documents

Publication Publication Date Title
JP4435029B2 (ja) 内視鏡装置
JPH08195951A (ja) 内視鏡装置
JP6996901B2 (ja) 内視鏡システム
WO2012008299A1 (ja) 画像合成システム
US10568497B2 (en) Signal processing apparatus and endoscope system with composite image generation
JP5963990B2 (ja) 医療用システム、その画像処理設定方法、及び画像処理装置
EP2690868A1 (en) Image processing device
JP6289777B1 (ja) 内視鏡システム
US10506915B2 (en) Signal processing apparatus and endoscope system
JP6755701B2 (ja) 撮像装置、表示装置及び画像処理装置
JP2008142153A (ja) 電子内視鏡用プロセッサ及び電子内視鏡システム
JP5985118B1 (ja) 表示制御装置及び内視鏡システム
US11122225B2 (en) Medical image processing apparatus and medical observation system
JP6559531B2 (ja) 信号処理装置及び信号処理方法
JP2007215850A (ja) 内視鏡装置
US10058238B2 (en) Video output apparatus
JP2009147875A (ja) 画像読み取り表示装置
JP2013211757A (ja) 撮像装置、撮像方法、及び画像処理装置
JP5520135B2 (ja) 画像処理装置
WO2022196324A1 (ja) 画像処理装置、画像処理方法、及びプログラム
JP6983651B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2010004319A (ja) 撮像装置
JP2004267585A (ja) 拡大表示可能な電子内視鏡装置
JP2009077231A (ja) 撮像装置

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2017557476

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17819849

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17819849

Country of ref document: EP

Kind code of ref document: A1