WO2017047117A1 - 信号処理装置及び内視鏡システム - Google Patents

信号処理装置及び内視鏡システム Download PDF

Info

Publication number
WO2017047117A1
WO2017047117A1 PCT/JP2016/053850 JP2016053850W WO2017047117A1 WO 2017047117 A1 WO2017047117 A1 WO 2017047117A1 JP 2016053850 W JP2016053850 W JP 2016053850W WO 2017047117 A1 WO2017047117 A1 WO 2017047117A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
unit
image information
processor
signal processing
Prior art date
Application number
PCT/JP2016/053850
Other languages
English (en)
French (fr)
Inventor
裕仁 中川
鈴木 達彦
智樹 岩崎
橋本 進
敏裕 濱田
祐二 久津間
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to JP2017516177A priority Critical patent/JP6173647B1/ja
Priority to CN201680026718.5A priority patent/CN107529976B/zh
Publication of WO2017047117A1 publication Critical patent/WO2017047117A1/ja
Priority to US15/800,178 priority patent/US10568497B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000095Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope for image enhancement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2407Optical details
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00059Operational features of endoscopes provided with identification means for the endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00064Constructional details of the endoscope body
    • A61B1/00071Insertion part of the endoscope body
    • A61B1/0008Insertion part of the endoscope body characterised by distal tip features
    • A61B1/00096Optical elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image

Definitions

  • the present invention relates to a signal processing apparatus and an endoscope system in which an endoscope apparatus provided with an imaging element is detachably attached and processes an imaging signal transmitted from the endoscope apparatus.
  • an endoscope system is used for observation inside a subject.
  • An endoscope generally inserts an elongated insertion portion into a subject such as a patient, illuminates illumination light supplied by a light source device from the distal end of the insertion portion, and reflects reflected light of the illumination light to an imaging device.
  • the in-vivo image is taken by receiving the light.
  • the in-vivo image captured by the imaging device of the endoscope is displayed on the display of the endoscope system after being subjected to predetermined image processing in a signal processing device (processor) of the endoscope system.
  • a user such as a doctor observes the organ of the subject based on the in-vivo image displayed on the display.
  • the endoscope system includes a set of a processor, a display, and a recording device for each type of endoscope. For this reason, when a plurality of endoscopes are used in combination, a plurality of sets of processors, displays, and recording devices are installed corresponding to the respective endoscopes. As a result, the wiring structure between the devices also becomes complicated, and it is necessary to secure a wide installation place, so that the entire system becomes large. Therefore, in order to simplify the configuration of the entire system, two processors are connected to each other, and one of them serves as a master unit and outputs image information to the display and the recording device. Has been proposed (see, for example, Patent Document 1).
  • the processor of the endoscope system usually generates a composite image obtained by superimposing character information such as patient information and examination information and image information captured by the scope, and outputs the composite image to the outside.
  • character information such as patient information and examination information and image information captured by the scope
  • the processor of the slave unit when a composite image in which character information and image information are superimposed is input from the processor of the slave unit, another character information is further added to the input composite image in the processor of the master unit. Or image information may be superimposed.
  • a composite image in which extra characters and other images overlap in addition to the originally necessary character information is output from the processor of the parent device to the image to be observed. As a result, it is difficult for the user to read necessary information from the composite image.
  • the present invention has been made in view of the above, and allows a user to read necessary information when generating a composite image in which character information is superimposed on image information input from another signal processing device.
  • An object of the present invention is to provide a signal processing apparatus and an endoscope system that can generate such an appropriate composite image.
  • a signal processing apparatus has a second imaging element while a first endoscope apparatus having a first imaging element is detachably mounted.
  • a signal processing apparatus that is communicably connected to another signal processing apparatus on which the second endoscope apparatus is mounted, and that processes an imaging signal from the first imaging element or the second imaging element,
  • An image processing unit that executes at least a combining process for generating combined image information in which image information based on the imaging signal input from the endoscope apparatus or the other signal processing apparatus and character information related to the image information are superimposed;
  • a control unit that controls processing contents of the image processing unit in response to communication with another signal processing device.
  • the control unit in response to communication with the other signal processing device, the first image information based on the imaging signal from the first imaging device, and the other And an image selection unit that selects any one of the second image information based on the imaging signal from the second imaging element input from the signal processing device, and the control unit includes the image processing unit in the image processing unit.
  • a composite image in which the image information selected by the selection unit and the character information related to the image information are superimposed is generated.
  • the signal processing device further includes a communication unit that communicates with the other signal processing device, and the other signal processing device relates to the second image information and the second image information.
  • the compositing process is performed to superimpose character information, and when the communication unit establishes communication with the other signal processing device, the communication unit establishes the character for the second image information in the other signal processing device.
  • the second image information input from the other signal processing device is selected in response to transmission to the other signal processing device.
  • the signal processing apparatus further includes an input unit to which character information related to the second image information is input, and the control unit selects the second image selected by the image selection unit in the image processing unit. A composite image in which the information and the character information input by the input unit are superimposed is generated.
  • the communication unit instructs the other signal processing device to transmit character information related to the second image information in addition to the first command and the second command.
  • the control unit transmits a third command, and the control unit sends the second image information selected by the image selection unit to the image processing unit, and the second signal information input from the other signal processing device in response to the third command.
  • a composite image in which character information related to two-image information is superimposed is generated.
  • the image processing unit performs a correction process on the second image information
  • the control unit when the image selection unit selects the second image information, The processing unit is caused to generate a composite image in which the second image information and character information related to the second image information are superimposed after executing the correction process on the second image information.
  • an endoscope system includes a first signal processing device on which a first endoscope device having a first image sensor is detachably mounted, and a second endoscope device having a second image sensor.
  • a first signal processing device on which a first endoscope device having a first image sensor is detachably mounted
  • a second endoscope device having a second image sensor is an endoscope system that is communicably connected to a second signal processing device to which the first signal processing device is mounted, and the first signal processing device is input from the first endoscope device or the second processing device.
  • an image processing unit that executes at least a combining process for generating combined image information in which image information based on the captured image signal and character information relating to the image information are superimposed
  • a control unit that controls processing contents of the image processing unit.
  • FIG. 1 is a schematic diagram showing a schematic configuration of an endoscope system according to Embodiment 1 of the present invention.
  • FIG. 2 is a flowchart showing a processing procedure for setting a standard mode or a compatible mode by the control unit of the first processor shown in FIG. 1 and a control process of internal processing of the first processor according to each mode.
  • FIG. 3 is a flowchart showing a processing procedure of the compatible mode control process shown in FIG.
  • FIG. 4 is a diagram illustrating an example of a composite image displayed on a display device connected to a processor of a conventional parent device.
  • FIG. 5 is a diagram illustrating an example of a composite image displayed on the display device in the endoscope system according to the first embodiment.
  • FIG. 1 is a schematic diagram showing a schematic configuration of an endoscope system according to Embodiment 1 of the present invention.
  • FIG. 2 is a flowchart showing a processing procedure for setting a standard mode or a compatible mode by the control unit of the first processor shown
  • FIG. 6 is a flowchart showing another processing procedure for setting the standard mode or compatibility mode by the control unit of the first processor shown in FIG. 1 and controlling the internal processing of the first processor in accordance with each mode.
  • FIG. 7 is a schematic diagram illustrating a schematic configuration of the endoscope system according to the second modification of the first embodiment.
  • FIG. 8 is a flowchart showing a processing procedure of compatibility mode control processing by the control unit of the first processor shown in FIG.
  • FIG. 9 is a schematic diagram illustrating a schematic configuration of the endoscope system according to the second embodiment.
  • FIG. 10 is a flowchart showing the processing procedure of the compatibility mode control processing by the control unit of the first processor shown in FIG. FIG.
  • FIG. 11 is a diagram illustrating an example of a composite image displayed on the display device in the endoscope system according to the second embodiment.
  • FIG. 12 is a schematic diagram illustrating a schematic configuration of the endoscope system according to the first modification of the second embodiment.
  • FIG. 13 is a flowchart showing the processing procedure of the compatibility mode control processing by the control unit of the first processor shown in FIG.
  • a signal processing device (processor) of an endoscope system will be described as a mode for carrying out the present invention (hereinafter referred to as “embodiment”). Moreover, this invention is not limited by this embodiment. Furthermore, the same code
  • FIG. 1 is a schematic diagram showing a schematic configuration of an endoscope system according to Embodiment 1 of the present invention.
  • the endoscope system according to the first embodiment is, for example, a first processor 3 (signal processing device, first signal processing device) as an endoscope (scope) for introduction into a subject.
  • the first scope 2A that can be attached to the second scope 2) or the second scope 2B that can be attached to the second processor 4 (another signal processing device, second signal processing device) is used.
  • the endoscope system according to the first embodiment is transmitted from a first processor 3 that performs predetermined image processing on an imaging signal transmitted from the attached first scope 2A, and from the attached second scope 2B.
  • a second processor 4 that performs predetermined image processing on the captured image signal, an input device 5 that receives input of various instruction information and inputs the instruction information to the first processor 3, and the first scope 2A or the second scope 2B.
  • a display device 6 that displays an image corresponding to the image pickup signal of, and a server 7 that is connected to and communicates with the first processor 3 through a network or the like and records various information.
  • the first processor 3 is communicably connected to the second processor 4 to which the second scope 2B is attached, and is also connected to the input device 5 and the display device 6.
  • the first processor 3 controls the image processing contents including the synthesis processing in the first processor 3 according to the communication with the second processor 4, thereby adding character information to the image information input from the second processor 4. As a composite image in which is superimposed, a composite image that can sufficiently read necessary information is generated.
  • Both the first scope 2A and the second scope 2B are introduced into the subject, and image the inside of the subject to generate image information in the subject.
  • the first scope 2 ⁇ / b> A is connected to the first processor 3
  • the second scope 2 ⁇ / b> B is connected to the second processor 4.
  • the first scope 2A has an operation switch unit 23A provided with various operation switches such as an image sensor 21A (first image sensor), a memory 22A, and a release button at the tip.
  • the second scope 2B has an operation switch portion 23B provided with various operation switches such as an image pickup device 21B (second image pickup device), a memory 22B, and a release button at a distal end portion.
  • the image sensors 21A and 21B are CMOS image sensors or CCD image sensors, and a plurality of pixels that receive light from a subject irradiated with light on a light receiving surface and photoelectrically convert the received light to generate an image signal. Are arranged in a matrix.
  • the imaging device 21A performs noise removal processing, clamping processing, and A / D conversion processing on the first imaging signal (analog) generated by a plurality of pixels. And output to the first processor 3 via an electric cable (not shown) as a first imaging signal (digital).
  • the imaging device 21B When the second scope 2B is attached to the second processor 4, the imaging device 21B performs noise removal processing, clamping processing, and A / D conversion processing on the second imaging signal (analog) generated by a plurality of pixels. And output to the second processor 4 via an electric cable (not shown) as a second imaging signal (digital).
  • the memories 22A and 22B record the identification information of the scopes 2A and 2B, the model numbers, the types of the image sensors 21A and 21B, and the like.
  • the memories 22A and 22B may record various parameters for image processing on the imaging signals captured by the imaging elements 21A and 21B, such as white balance (WB) adjustment parameters.
  • WB white balance
  • the operation switch units 23A and 23B are provided with a plurality of buttons for operating peripheral devices such as the first processor 3, the air supply device, the water supply device, and the gas supply device.
  • the operation switch units 23A and 23B have a release button.
  • the release button is pressed during the scope inspection, the image displayed on the display device 6 when the release button is pressed is displayed as still image data (release image data).
  • recording image generation units 36 and 45 described later generate release image data based on the video image displayed on the display device 6 at the input timing of the release signal.
  • a bending knob for bending the first scope 2A and the second scope 2B and an insertion port for inserting a treatment instrument are provided in the vicinity of the operation switch portions 23A and 23B.
  • the first processor 3 is detachably attached with the first scope 2A, and an image processing unit 31 described later performs predetermined image processing on the first imaging signal transmitted from the attached first scope 2A.
  • One image information Dg1 is generated.
  • the first processor 3 is also communicably connected to the second processor 4.
  • the first processor 3 transmits various commands to the control unit 44 of the second processor 4.
  • the first processor 3 selects one of the first image information Dg1 generated by the image processing unit 31 and the second image information Dg2 input from the second processor 4, and selects the selected image information and the image information.
  • a combined image in which the character information relating to the character information is superimposed is generated and output to the display device 6.
  • the first processor 3 generates recording image information from the generated composite image and outputs it to the server 7.
  • the first processor 3 includes an image processing unit 31, a panel switch unit 33, an external video input port 34, a control unit 35, a recording image generation unit 36, and a storage unit 37.
  • the image processing unit 31 performs predetermined image processing on the first imaging signal generated by the imaging device 21A of the first scope 2A.
  • the image processing unit 31 performs optical black subtraction (OB) processing, demosaicing processing, white balance (WB) adjustment processing, electronic zoom processing, edge enhancement processing, and mask processing on the first imaging signal (digital) generated by the imaging device 21A.
  • the first image information Dg1 subjected to is generated.
  • the image processing unit 31 outputs the generated first image information Dg1 to the image selection unit 354 described later.
  • the image processing unit 31 includes a combining unit 32, converts the combined image (combined image information) generated by the combining unit 32 into a format that can be displayed on the display device 6, and outputs the converted image.
  • the image processing unit 31, not the image sensor 21 ⁇ / b> A may perform noise removal processing, clamping processing, and A / D conversion processing on the first imaging signal (analog).
  • the synthesizing unit 32 performs a so-called on-screen display (OSD) process that generates a synthesized image in which image information subjected to predetermined image processing and character information related to the image information are superimposed.
  • the character information is information indicating patient information, device information, examination information, and the like.
  • the composition unit 32 generates a composite image in which image information input from an image selection unit 354 described later and character information related to the image information are superimposed.
  • the combining unit 32 When the first image information Dg1 is input, the combining unit 32 generates a combined image in which the first image information Dg1 and the character information are superimposed.
  • the combining unit 32 When the second image information Dg2 is input, the combining unit 32 generates a combined image in which the second image information Dg2 and the character information are superimposed.
  • the panel switch unit 33 is a group of switches provided on the front panel constituting the casing of the first processor 3, and when the first scope 2 ⁇ / b> A is attached to the first processor 3, the first scope 2 ⁇ / b> A takes an image.
  • the input of freeze, release, image adjustment (enhancement, electronic enlargement, color tone, etc.) signals to the in-vivo image to be received is received, and the received various signals are output to the control unit 35.
  • the external image input port 34 receives the second image information Dg2 output from the image processor 41 of the second processor 4 when the first processor 3 and the second processor 4 are connected.
  • the input second image information Dg2 is output to the control unit 35.
  • the second image information Dg2 is obtained by performing predetermined image processing on the second imaging signal generated by the imaging element 21B of the second scope 2B, and character information is not superimposed on the second imaging information Dg2.
  • the control unit 35 is realized using a CPU or the like.
  • the control unit 35 controls the processing operation of each part of the first processor 3 by transferring instruction information and data for each component of the first processor 3.
  • the control unit 35 is connected to the imaging device 21A and the memory 22A of the first scope 2A via each cable, respectively, and the imaging device 21A and the memory 22A. Control is also performed.
  • the control unit 35 is communicably connected to the server 7 via a network or the like.
  • the control unit 35 is communicably connected to the control unit 44 of the second processor 4 via a cable.
  • the control unit 35 controls the processing content of the image processing unit 31 in accordance with communication with the second processor 4.
  • the control unit 35 includes a communication unit 351, a mode selection unit 352, a character information acquisition unit 353, and an image selection unit 354.
  • the communication unit 351 communicates with the control unit 44 of the second processor 4. When communication with the second processor 4 is established, the communication unit 351 superimposes character information on the second image information Dg2 on the image processing unit 41 via the control unit 44 of the second processor 4 described later.
  • the character superposition unnecessary command (first command) Cu and the image information output command (second command) Cg instructing transmission of the second image information Dg2 to the first processor 3 are transmitted.
  • the mode selection unit 352 uses the first image information Dg1 generated by the imaging device 21A of the first scope 2A as image information to be combined by the combining unit 32 in response to communication with the second processor 4 in the communication unit 351.
  • One of the standard mode to be selected and the compatible mode for selecting the second image information Dg2 input from the second processor 4 is selected.
  • the mode selection unit 352 selects the compatible mode when the second scope 2B connected to the second processor 4 is selected and communication is established between the communication unit 351 and the second processor 4.
  • the mode selection unit 352 performs image processing on the first imaging signal from the imaging device 21A inside the first processor 3.
  • a standard mode for superimposing the first image information Dg1 on the character information is selected.
  • the mode selection unit 352 controls the image processing unit 31 so as to perform image processing of contents corresponding to the selected mode.
  • the mode selection unit 352 causes the synthesis unit 32 of the image processing unit 31 to generate a composite image in which image information selected by an image selection unit 354 described later is superimposed on character information related to the image information.
  • the character information acquisition unit 353 acquires character information related to image information input from the input device 5 described later.
  • the character information acquisition unit 353 acquires character information related to the first image information Dg1 when the first scope 2A is attached, and acquires character information related to the second image information Dg2 when the second scope 2B is attached.
  • the image selection unit 354 corresponds to the mode selected by the mode selection unit 352, the first image information Dg1 based on the first imaging signal by the imaging device 21A, and the second by the imaging device 21B input from the second processor 4. Either one of the second image information Dg2 based on the imaging signal is selected.
  • the mode selection unit 352 selects the standard mode
  • the image selection unit 354 selects the first image information Dg1 input from the image processing unit 31 and outputs the first image information Dg1 to the synthesis unit 32.
  • the mode selection unit 352 selects the compatible mode
  • the image selection unit 354 selects the second image information Dg2 input from the second processor 4 and outputs the second image information Dg2 to the synthesis unit 32.
  • the image selection unit 354 selects the second image information Dg2 input from the second processor 4 according to the image information output command Cg transmitted from the communication unit 351 to the second processor 4.
  • the recording image generation unit 36 performs codec processing on the image information output from the image processing unit 31, and generates release image information and moving image information for recording.
  • the recording image generating unit 36 When receiving the moving image generation instruction signal from the control unit 35, the recording image generating unit 36 generates (encodes) moving image information in a predetermined format from a series of continuous image information output from the image processing unit 31. And output to the server 7.
  • the recording image generation unit 36 When receiving the release signal from the control unit 35, the recording image generation unit 36 generates release image data from the image information output from the image processing unit 31 and outputs the release image data to the server 7.
  • the mode selection unit 352 selects the standard mode, since the composite image based on the first image information Dg1 is output from the image processing unit 31, the recording image generation unit 36 uses the composite image information to generate a moving image.
  • Image information for recording such as image data or release image data is generated.
  • the mode selection unit 352 selects the compatible mode
  • the composite image G2 based on the second image information Dg2 is output from the image processing unit 31, and therefore the recording image generation unit 36 generates a moving image based on the composite image G2.
  • Image information for recording such as image data or release image data is generated.
  • the storage unit 37 is implemented using a volatile memory or a nonvolatile memory, and stores various programs for operating the first processor 3.
  • the storage unit 37 temporarily records information being processed by the first processor 3.
  • the storage unit 37 stores the first imaging signal output from the first scope 2A.
  • the storage unit 37 may be configured using a memory card or the like mounted from the outside of the first processor 3.
  • the second processor 4 is detachably attached to the second scope 2B, and generates second image information Dg2 obtained by performing predetermined image processing on the second imaging signal transmitted from the attached second scope 2B. .
  • the second processor 4 is communicably connected to the first processor 3 and inputs the generated second image information Dg2 to the external video input port 34 of the first processor 3.
  • the second processor 4 includes an image processing unit 41, a panel switch unit 43, a control unit 44, a recording image generation unit 45, and a storage unit 46.
  • the image processing unit 41 performs predetermined image processing on the second imaging signal generated by the imaging device 21B of the second scope 2B. Similar to the image processing unit 31, the image processing unit 41 performs an optical black subtraction (OB) process, a demosaicing process, a white balance (WB) adjustment process, an electronic zoom on the second imaging signal (digital) generated by the imaging element 21 ⁇ / b> B.
  • the second image information Dg2 is generated by performing processing, edge enhancement processing, masking, and the like.
  • the image processing unit 41 includes a synthesis unit 42 that performs OSD processing. The OSD process in the synthesis unit 42 may not be executed under the control of the control unit 44.
  • the imaging device 21B of the second scope 2B performs the noise removal process, the clamp process, and the A / D conversion process, and outputs a second imaging signal (digital).
  • the image processing unit 41 displays a composite image obtained by superimposing the second image information Dg2 and the character information on a display device (not shown) that is a set with the second processor 4. ) Is converted into a displayable format and output.
  • the panel switch unit 43 is a group of switches provided on the front panel constituting the housing of the second processor 4, and when the second scope 2B is attached to the second processor 4, the second scope 2 ⁇ / b> B takes an image.
  • the input of freeze, release, image adjustment (enhancement, electronic enlargement, color tone, etc.) signals for the in-vivo image to be received is received, and the received various signals are output to the control unit 44.
  • the control unit 44 is realized by using a CPU or the like, similarly to the control unit 35, and performs processing operations of each part of the second processor 4 by transferring instruction information and data to each configuration of the second processor 4 or the like. To control. When the second scope 2B is attached to the second processor 4, the control unit 44 is connected to the imaging device 21B and the memory 22B of the second scope 2B via each cable, and the imaging device 21B and the memory 22B. Control is also performed. The control unit 44 is communicably connected to the control unit 35 of the first processor 3 via a cable. The control unit 44 controls the processing content of the image processing unit 41 in accordance with the character superposition unnecessary command Cu and the image information output command Cg transmitted from the control unit 35.
  • the recording image generation unit 45 has the same function as the recording image generation unit 36. However, when the second processor 4 is communicably connected to the first processor 3 and the compatibility mode is selected in the first processor 3, the recording image generating unit 36 in the first processor 3 performs the second image information Dg2. In order to generate the release image information or the moving image information from the recording image, the recording image generation unit 45 does not execute the generation process of the release image information or the moving image information.
  • the storage unit 46 is realized by using a volatile memory or a nonvolatile memory, and stores various programs for operating the second processor 4 and the second imaging signal output from the second scope 2B. In addition to storing, the information being processed by the second processor 4 is temporarily recorded.
  • the storage unit 46 may be configured using a memory card or the like mounted from the outside of the second processor 4.
  • the input device 5 is realized using an operation device such as a mouse, a keyboard, and a touch panel, receives input of various instruction information, and inputs the received various instruction information to the control unit 35 of the first processor 3.
  • an operation device such as a mouse, a keyboard, and a touch panel
  • receives input of various instruction information and inputs the received various instruction information to the control unit 35 of the first processor 3.
  • the first processor 3 and the second processor 4 are communicably connected, in addition to various instruction information for the first processor 3, instructions for the second scope 2B attached to the second processor 4 and the second processor 4 Information input is accepted, and the received instruction information is input to the control unit 35.
  • the input device 5 supplies the control unit 35 with the scope selection information Dm in which one of the first scope 2A and the second scope 2B is selected as the scope to be used, and the character information Dk1 related to the image information to be synthesized in the synthesis unit 32. input.
  • the display device 6 is configured by using a display using liquid crystal or organic EL.
  • the display device 6 displays various information including a display image output from the first processor 3.
  • the display device 6 displays a composite image in which the first image information Dg1 based on the first imaging signal of the first scope 2A and the character information related to the first image information Dg1 are superimposed.
  • the display device 6 displays the composite image G2 in which the second image information Dg2 based on the second imaging signal of the second scope 2B and the character information related to the second image information Dg2 are superimposed.
  • the user operates the first scope 2A or the second scope 2B while viewing the image (in-vivo image) displayed on the display device 6, thereby determining the observation and properties of a desired position in the subject. Can do.
  • the display of the display device 6 also displays information indicating whether the currently displayed in-vivo image is from the first scope 2A or the second scope 2B based on the control of the control unit 35.
  • the server 7 is connected to the first processor 3 via a network or the like, and communicates with the first processor 3.
  • the server 7 has a database (not shown), and records and manages various information including release image information, moving image information, identification information of each image information, and the like output from the first processor 3.
  • FIG. 2 is a flowchart showing the setting procedure of the standard mode or the compatible mode by the control unit 35 of the first processor 3 and the processing procedure of the internal processing control processing of the first processor 3 according to each mode.
  • the standard mode is set as a default.
  • the control unit 35 determines whether the second scope 2B is selected as a scope to be used based on the scope selection information Dm or the like input from the input device 5 (step S1). When the control unit 35 determines that the second scope 2B is not selected (step S1: No), the mode selection unit 352 continues the standard mode as it is (step S2).
  • step S1 determines that the second scope 2B is selected (step S1: Yes)
  • step S3 determines whether communication has been established (step S3).
  • step S3 determines whether communication has not been established between the first processor 3 and the second processor 4 (step S3: No)
  • step S3 determines whether or not the second scope 2B has been selected. Judging.
  • step S3 When the control unit 35 determines that communication has been established between the first processor 3 and the second processor 4 (step S3: Yes), the mode selection unit 352 selects a compatible mode (step S4), and the control unit 35 Performs compatibility mode control processing for controlling the image processing unit 31 so as to correspond to the compatibility mode (step S5).
  • FIG. 3 is a flowchart showing a processing procedure of the compatibility mode control process shown in FIG.
  • the communication unit 351 transmits a character superposition unnecessary command Cu to the second processor 4 (step S11).
  • the OSD process in the synthesis unit 42 is not performed in response to the reception of the character superposition unnecessary command Cu.
  • the character information acquisition unit 353 acquires the character information Dk1 input from the input device 5 (step S12) and outputs it to the synthesis unit 32.
  • the communication unit 351 transmits the image information output command Cg to the second processor 4 (step S13).
  • the second processor 4 outputs the second image information Dg2 in a state where no character information is superimposed from the image processing unit 41, and via the external video input port 34,
  • the control unit 35 receives the second image information Dg2 output from the second processor 4 (step S14).
  • the image selection unit 354 selects the second image information Dg2 input from the second processor 4 and outputs it to the synthesis unit 32 (step S15).
  • the composition unit 32 generates a composite image G2 in which the input second image information Dg2 and the character information Dk1 are superimposed (Step S16), and the generated composite image G2 is output to the display device 6 (Step S17). ) And displayed on the display of the display device 6.
  • the control unit 35 causes the recording image generation unit 36 to generate release image information from the composite image G2 and output the release image information to the server 7.
  • the control unit 35 determines whether or not the next second image information Dg2 is received from the second processor 4 (step S18). When the control unit 35 determines that the next second image information Dg2 has been received from the second processor 4 (step S18: Yes), the process returns to step S15 and the processing for the next second image information Dg2 is continued. To do. When the control unit 35 determines that the next second image information Dg2 has not been received from the second processor 4 (step S18: No), the compatibility mode control process ends.
  • FIG. 4 is a diagram showing an example of a composite image displayed on a display device connected to a processor of a conventional master unit.
  • FIG. 5 is a diagram illustrating an example of a composite image displayed on the display device in the endoscope system according to the first embodiment.
  • a processor generates a composite image obtained by superimposing character information and image information captured by a scope, without distinguishing between a slave unit and a master unit. Output to the processor. Therefore, when a composite image in which the image information Ggp and the character information Gk ′ are superimposed on the master unit processor is input from the slave unit processor, the master unit also superimposes the character image Gk on the input composite information. Resulting in.
  • the control unit 35 transmits a character superposition unnecessary command Cu from the first processor 3 of the parent device, and the characters from the second processor 4 of the child device. Only the second image information Dg2 on which no information is superimposed is output. Then, the control unit 35 generates a composite image G2 in which only one character information Dk1 related to the second image information Dg2 acquired by the character information acquisition unit 353 is superimposed on the second image information Dg2, and the display device 6 Is displayed.
  • the first processor 3 controls the processing contents of the image processing unit 31 in accordance with the communication with the second processor 4, thereby the first processor 3 and the second processor 3. Even when the display device 6 and the recording device are shared by the processor 4, it is possible to generate a composite image in which only necessary character information is superimposed on image information and no extra characters or other images are superimposed. In other words, in the first embodiment, the first processor 3 can generate an appropriate composite image that allows the user to read necessary information, and can facilitate diagnosis by the user.
  • FIG. 6 is a flowchart showing another processing procedure for setting the standard mode or the compatible mode by the control unit 35 of the first processor 3 and controlling the internal process of the first processor 3 according to each mode.
  • the control unit 35 inputs the second image information Dg2 from the second processor 4 to the first processor 3 based on whether or not the second image information Dg2 is received by the image selection unit 354.
  • the presence or absence is detected (step S21).
  • the control unit 35 detects the connection with the second processor 4 (step S22). Subsequently, the control unit 35 determines whether communication has been established between the first processor 3 and the second processor 4 based on the communication result in the communication unit 351 (step S24).
  • step S21: No When the control unit 35 does not detect the input of the second image information Dg2 from the second processor 4 to the first processor 3 (step S21: No), or between the first processor 3 and the second processor 4 When it is determined that communication has not been established (step S24: No), the mode selection unit 352 continues the standard mode as it is (step S23). When the control unit 35 determines that communication has been established between the first processor 3 and the second processor 4 (step S24: Yes), the mode selection unit 352 selects a compatible mode (step S25). Step S26 is step S5 shown in FIG.
  • the first processor 3 detects the input of the second image information Dg2 to the first processor 3 by the second processor 4 and further communicates with the second processor 4.
  • the compatibility mode may be automatically selected.
  • FIG. 7 is a schematic diagram illustrating a schematic configuration of the endoscope system according to the second modification of the first embodiment.
  • the first processor 3A includes an image processing unit 31A and a control unit 35A instead of the image processing unit 31 and the control unit 35 illustrated in FIG. 1, and further includes a switching unit 38A.
  • the image processing unit 31A outputs the first image information subjected to the predetermined image processing to the switching unit 38A.
  • the control unit 35A has a configuration in which the image selection unit 354 of the control unit 35 is deleted. Similarly to the mode selection unit 352, the mode selection unit 352A selects one of the standard mode and the compatible mode and switches the image information to be output to the switching unit 38A.
  • the external video input port 34 inputs the input second image information Dg2 to the switching unit 38A.
  • the switching unit 38A includes an electronic circuit that outputs only one of the two input signals. Based on the control of the mode selection unit 352A, the switching unit 38A, as image information to be output to the synthesis unit 32, the first image information Dg1 input from the image processing unit 31A and the first image information input from the external video input port 34. Either one of the two-image information Dg2 is selected.
  • the mode selection unit 352A selects the standard mode
  • the switching unit 38A selects and outputs the first image information Dg1.
  • the composition unit 32 generates a composite image in which the first image information Dg1 and the character information are superimposed.
  • the switching unit 38A selects and outputs the second image information Dg2. In this case, the composition unit 32 generates a composite image G2 in which the second image information Dg2 and the character information Dk1 are superimposed.
  • FIG. 8 is a flowchart showing a processing procedure of compatibility mode control processing by the control unit 35A of the first processor 3A.
  • Steps S31 to S33 shown in FIG. 8 are steps S11 to S13 shown in FIG.
  • the mode selection unit 352A causes the switching unit 38A to switch the output signal to the second image information Dg2 input from the external video input port 34 (step S34).
  • the first processor 3A receives the second image information Dg2 by the second processor 4 input from the external video input port 34 (step S35).
  • the received second image information Dg2 is output from the switching unit 38A to the combining unit 32.
  • Steps S36 to S38 are steps S16 to S18 shown in FIG. Thereby, the composition unit 32 generates a composite image G2 in which the second image information Dg2 and the character information Dk1 are superimposed, and the generated composite image G2 is displayed on the display of the display device 6.
  • the hardware (switching unit 38A) is used as part of the selection unit, and the image information output to the combining unit 32 is the first image information Dg1 or the second image information Dg2. You may switch to.
  • FIG. 9 is a schematic diagram illustrating a schematic configuration of the endoscope system according to the second embodiment.
  • the endoscope system according to the second embodiment includes a first processor 203 and a second processor 204.
  • the first processor 203 includes a control unit 235 having a communication unit 2351 and a character information acquisition unit 2353.
  • the communication unit 2351 instructs the image processing unit 41 via the control unit 244 of the second processor 204 to transmit the character information Dk2 related to the character superposition unnecessary command Cu, the image information output command Cg, and the second image information Dg2.
  • An information output command (third command) Ck is transmitted.
  • the character information acquisition unit 2353 acquires character information Dk2 transmitted from the second processor 204 in response to the character information output command Ck transmitted from the communication unit 2351 as character information to be superimposed on the image information to be synthesized. .
  • only the scope selection information Dm is input from the input device 5.
  • the second processor 204 includes a control unit 244. In addition to the second image information Dg2 based on the second imaging signal output from the second scope 2B, the second processor 204 has previously registered character information Dk2 related to the second image information Dg2, and the control unit 244 In response to the character information output command Ck, the character information Dk2 is transmitted to the communication unit 2351 of the first processor 203.
  • the control unit 235 of the first processor 203 performs the processing procedure shown in FIG. 2 or 6 to set the standard mode or the compatibility mode.
  • FIG. 10 is a flowchart showing the processing procedure of the compatibility mode control processing by the control unit 235 of the first processor 203.
  • Step S41 shown in FIG. 10 is step S11 shown in FIG.
  • the communication unit 2351 transmits the character information output command Ck to the second processor 204 (step S42).
  • the second processor 204 outputs the character information Dk2 from the control unit 244, and the control unit 235 is output from the second processor 204 via the external video input port 34.
  • the character information Dk2 received is received (step S43).
  • Steps S44 to S49 are steps S13 to S18 shown in FIG.
  • FIG. 11 is a diagram illustrating an example of a composite image displayed on the display device in the endoscope system according to the second embodiment.
  • the first processor 203 acquires character information Dk2 such as patient information registered in advance in the second processor 204 of the child device by communication, and acquires the acquired character information Dk2 as second image information Dg2. To generate a composite image G2a. Therefore, according to the second embodiment, the character information Dk2 once registered in the second processor 204 can be used without re-registering in the first processor 203.
  • the character information acquisition unit 2353 is not limited to superimposing the character information Dk2 transmitted from the second processor 204 on the second image information Dg2 acquired from the second processor 204. You may comprise so that the character information Dk2 acquired from the 2nd processor 204 may be superimposed on the 1st image information which the 1 processor 203 produces
  • FIG. 12 is a schematic diagram illustrating a schematic configuration of the endoscope system according to the first modification of the second embodiment.
  • the first processor 203A in the first modification of the second embodiment includes an image processing unit 231A having a correction unit 239A and a control unit 235A having an image selection unit 2354A.
  • the correction unit 239A performs correction and complement processing corresponding to the generation of the first processor 203A on the input image information. Since the first processor 203 ⁇ / b> A is a new generation having compatibility with the second processor 204, it can execute a correction process that is upgraded as compared with the second processor 204.
  • the image selection unit 2354A outputs the first image information Dg1 to the synthesis unit 32 when the mode selection unit 352 selects the standard mode.
  • the image selection unit 2354A outputs the second image information Dg2 to the correction unit 239A.
  • the second image information Dg2 is output as second image information Dg2 ′ after being subjected to predetermined correction and complement processing in the correction unit 239A.
  • the composition unit 32 generates a composite image G2a ′ in which the second image information Dg2 ′ and the character information Dk2 related to the second image information Dg2 ′ are superimposed. As a result, the composite image G2a ′ having the second image information Dg2 ′ corrected by the correction unit 239A of the first processor 203A is displayed on the display device 6.
  • the control unit 235A of the first processor 203A performs the processing procedure shown in FIG. 2 or 6 to set the standard mode or the compatibility mode.
  • FIG. 13 is a flowchart showing the processing procedure of the compatibility mode control processing by the control unit 235A of the first processor 203A.
  • Steps S51 to S55 shown in FIG. 13 are steps S41 to S45 shown in FIG.
  • the image selection unit 2354A selects the second image information Dg2 input from the second processor 204 and outputs it to the correction unit 239A (step S56).
  • the correction unit 239A performs a predetermined correction process on the input second image information Dg2 (step S57).
  • Steps S58 to S60 are steps S47 to S49 shown in FIG.
  • the first processor 203A uses the new generation content for the second image information Dg2 output from the second processor 204 so that the user can confirm the image more smoothly.
  • the composite image may be generated after performing the correction process.
  • the image information to be output to the image processing units 231 and 231A is changed to the first image information Dg1 or the hardware (switching unit 38A). You may switch to the 2nd image information Dg2.
  • the second processor 4 or 204 performs predetermined image processing on the second imaging signal (digital) generated by the imaging element 21B as the second image information Dg2.
  • the second processors 4 and 204 use the second imaging signal (digital) generated by the imaging element 21B, that is, a so-called RAW data format signal as the second image information Dg2, and control units 35 and 3A of the first processors 3, 3A, 203, and 203A. You may output to 35A, 235, 235A.
  • the image processing unit 31 When the second image information Dg2 in the RAW data format is input to the image processing units 31, 31A, 231, 231A as the image information to be combined from the image selection unit 354, 2354A or the switching unit 38A, the image processing unit 31 After performing predetermined image processing such as OB processing, the combining unit 32 generates a combined image with the character information Dk1 and Dk2.
  • the control units 35, 35 A, 235, and 235 A acquire image information recorded in the past from the storage unit 37 or the database of the server 7 to be connected according to the instruction information from the input device 5, and the acquired image information Similarly, the combining unit 32 can generate a combined image with the character information Dk1 and Dk2.
  • the execution program for each process executed by the first processor 3, 3A, 203, 203A, the second processor 4, 204, and other components according to the first and second embodiments is in an installable format or An executable file may be recorded and provided on a computer-readable recording medium such as a CD-ROM, flexible disk, CD-R, or DVD, and connected to a network such as the Internet. You may comprise so that it may provide by storing on a computer and downloading via a network. Further, it may be configured to be provided or distributed via a network such as the Internet.

Abstract

他の信号処理装置から入力された画像情報に文字情報を重畳した合成画像を生成する場合に、ユーザが必要な情報を読み取り可能であるような適切な合成画像を生成することができる信号処理装置及び内視鏡システムを提供する。本発明にかかる第1プロセッサ3は、撮像素子21Aを有する第1スコープ2Aが着脱自在に装着される一方、撮像素子21Bを有する第2スコープ2Bが装着された第2プロセッサ4とも通信可能に接続され、撮像信号を処理する信号処理装置であって、第1スコープ2A又は第2プロセッサ4から入力された撮像信号に基づく画像情報と画像情報に関する文字情報とを重畳した合成画像情報を生成する合成処理を少なくとも実行する画像処理部31と、第2プロセッサ4との間の通信に応じて画像処理部31の処理内容を制御する制御部35と、を備える。

Description

信号処理装置及び内視鏡システム
 本発明は、撮像素子を備えた内視鏡装置が着脱自在に装着され、内視鏡装置から送信される撮像信号を処理する信号処理装置及び内視鏡システムに関する。
 従来、医療分野においては、被検体内部の観察のために内視鏡システムが用いられている。内視鏡は、一般に、患者等の被検体内に細長形状をなす挿入部を挿入し、この挿入部先端から光源装置によって供給された照明光を照明し、この照明光の反射光を撮像素子で受光することによって体内画像を撮像する。内視鏡の撮像素子によって撮像された体内画像は、内視鏡システムの信号処理装置(プロセッサ)において所定の画像処理が施された後に、内視鏡システムのディスプレイに表示される。医師等のユーザは、ディスプレイに表示される体内画像に基づいて、被検体の臓器の観察を行う。
 内視鏡検査においては、観察目的や観察部位に応じて様々な内視鏡が使い分けられているため、複数の内視鏡を組み合わせて使用する場合がある。ここで、内視鏡システムは、内視鏡の種別ごとに、プロセッサ、ディスプレイ及び記録装置が1組となっている。このため、複数の内視鏡を組み合わせて使用する場合、各内視鏡に対応させてプロセッサ、ディスプレイ及び記録装置もそれぞれ複数組設置していた。この結果、各装置間の配線構造も複雑化し、さらに設置場所を広く確保する必要があるため、システム全体が大がかりになってしまう。そこで、システム全体の構成の簡素化のために、2台のプロセッサを互いに接続し、このうちの1台が親機としてディスプレイや記録装置への画像情報の出力を担うことによって、ディスプレイや記録装置を複数のプロセッサで共用する構成が提案されている(例えば、特許文献1参照)。
特開2003-038432号公報
 ところで、内視鏡システムのプロセッサは、通常、患者情報や検査情報等の文字情報と、スコープが撮像した画像情報とを重畳して合成した合成画像を生成して、外部に出力する。上記特許文献1記載の技術では、子機のプロセッサから文字情報と画像情報とが重畳された合成画像が入力されると、親機のプロセッサにおいても、入力された合成画像にさらに別の文字情報や画像情報を重畳してしまう場合がある。この場合、観察対象の画像に、本来必要な文字情報に加え、余分な文字や他の画像が重複する合成画像が親機のプロセッサから出力されてしまう。この結果、ユーザが合成画像から必要な情報を読み取ることは困難であった。
 本発明は、上記に鑑みてなされたものであって、他の信号処理装置から入力された画像情報に文字情報を重畳した合成画像を生成する場合に、ユーザが必要な情報を読み取り可能であるような適切な合成画像を生成することができる信号処理装置及び内視鏡システムを提供することを目的とする。
 上述した課題を解決し、目的を達成するために、本発明にかかる信号処理装置は、第1撮像素子を有する第1内視鏡装置が着脱自在に装着される一方、第2撮像素子を有する第2内視鏡装置が装着された他の信号処理装置とも通信可能に接続され、前記第1撮像素子又は前記第2撮像素子による撮像信号を処理する信号処理装置であって、前記第1内視鏡装置又は前記他の信号処理装置から入力された前記撮像信号に基づく画像情報と前記画像情報に関する文字情報とを重畳した合成画像情報を生成する合成処理を少なくとも実行する画像処理部と、前記他の信号処理装置との間の通信に応じて前記画像処理部の処理内容を制御する制御部と、を備えたことを特徴とする。
 また、本発明にかかる信号処理装置は、前記制御部は、前記他の信号処理装置との間の通信に応じて、前記第1撮像素子による前記撮像信号に基づく第1画像情報と、前記他の信号処理装置から入力された前記第2撮像素子による撮像信号に基づく第2画像情報と、のいずれか一方を選択する画像選択部を備え、前記制御部は、前記画像処理部に、前記画像選択部が選択した画像情報と該画像情報に関連する文字情報とを重畳した合成画像を生成させることを特徴とする。
 また、本発明にかかる信号処理装置は、前記他の信号処理装置との間で通信を行う通信部をさらに備え、前記他の信号処理装置は、前記第2画像情報と該第2画像情報に関する文字情報とを重畳する合成処理を実行し、前記通信部は、前記他の信号処理装置との間で通信が確立した場合に、前記他の信号処理装置に、前記第2画像情報に対する前記文字情報の重畳の不実施を指示する第1コマンドと、前記第2画像情報の当該信号処理装置への送信を指示する第2コマンドと、を送信し、前記画像選択部は、前記第2コマンドの前記他の信号処理装置への送信に応じて前記他の信号処理装置から入力された前記第2画像情報を選択することを特徴とする。
 また、本発明にかかる信号処理装置は、前記第2画像情報に関する文字情報が入力される入力部をさらに備え、前記制御部は、前記画像処理部に、前記画像選択部が選択した第2画像情報と、前記入力部によって入力された文字情報と、を重畳した合成画像を生成させることを特徴とする。
 また、本発明にかかる信号処理装置は、前記通信部は、前記他の信号処理装置に、前記第1コマンドと前記第2コマンドとに加え、前記第2画像情報に関する文字情報の送信を指示する第3コマンドを送信し、前記制御部は、前記画像処理部に、前記画像選択部が選択した第2画像情報と、前記第3コマンドに応じて前記他の信号処理装置から入力された前記第2画像情報に関する文字情報と、を重畳した合成画像を生成させることを特徴とする。
 また、本発明にかかる信号処理装置は、前記画像処理部は、前記第2画像情報に対する補正処理を行い、前記制御部は、前記画像選択部が前記第2画像情報を選択した場合、前記画像処理部に、該第2画像情報に対する補正処理を実行させた後に該第2画像情報と該第2画像情報に関連する文字情報とを重畳した合成画像を生成させることを特徴とする。
 また、本発明にかかる内視鏡システムは、第1撮像素子を有する第1内視鏡装置が着脱自在に装着される第1信号処理装置と、第2撮像素子を有する第2内視鏡装置が装着される第2信号処理装置とが通信可能に接続された内視鏡システムであって、前記第1信号処理装置は、前記第1内視鏡装置又は前記第2号処理装置から入力された撮像信号に基づく画像情報と前記画像情報に関する文字情報とを重畳した合成画像情報を生成する合成処理を少なくとも実行する画像処理部と、前記第2信号処理装置との間の通信に応じて前記画像処理部の処理内容を制御する制御部と、を備えたことを特徴とする。
 本発明によれば、他の信号処理装置から入力された画像情報に文字情報を重畳した合成画像を生成する場合に、ユーザが必要な情報を読み取り可能であるような適切な合成画像を生成することができるという効果を奏する。
図1は、本発明の実施の形態1における内視鏡システムの概略構成を示す模式図である。 図2は、図1に示す第1プロセッサの制御部による標準モード又は互換モードの設定及び各モードに応じた第1プロセッサの内部処理の制御処理の処理手順を示すフローチャートである。 図3は、図2に示す互換モード制御処理の処理手順を示すフローチャートである。 図4は、従来の親機のプロセッサに接続する表示装置に表示される合成画像の一例を示す図である。 図5は、実施の形態1の内視鏡システムにおける表示装置に表示される合成画像の一例を示す図である。 図6は、図1に示す第1プロセッサの制御部による標準モード又は互換モードの設定及び各モードに応じた第1プロセッサの内部処理の制御処理の他の処理手順を示すフローチャートである。 図7は、実施の形態1の変形例2における内視鏡システムの概略構成を示す模式図である。 図8は、図7に示す第1プロセッサの制御部による互換モード制御処理の処理手順を示すフローチャートである。 図9は、実施の形態2における内視鏡システムの概略構成を示す模式図である。 図10は、図9に示す第1プロセッサの制御部による互換モード制御処理の処理手順を示すフローチャートである。 図11は、実施の形態2の内視鏡システムにおける表示装置に表示される合成画像の一例を示す図である。 図12は、実施の形態2の変形例1における内視鏡システムの概略構成を示す模式図である。 図13は、図12に示す第1プロセッサの制御部による互換モード制御処理の処理手順を示すフローチャートである。
 以下の説明では、本発明を実施するための形態(以下、「実施の形態」という)として、内視鏡システムの信号処理装置(プロセッサ)について説明する。また、この実施の形態により、この発明が限定されるものではない。さらに、図面の記載において、同一部分には同一の符号を付している。
(実施の形態1)
 図1は、本発明の実施の形態1における内視鏡システムの概略構成を示す模式図である。
 図1に示すように、本実施の形態1にかかる内視鏡システムは、被検体内導入用の内視鏡(スコープ)として、例えば、第1プロセッサ3(信号処理装置、第1信号処理装置)に装着可能である第1スコープ2A又は第2プロセッサ4(他の信号処理装置、第2信号処理装置)に装着可能である第2スコープ2Bのいずれかが用いられる。実施の形態1にかかる内視鏡システムは、装着された第1スコープ2Aから送信される撮像信号に対して所定の画像処理を行う第1プロセッサ3と、装着された第2スコープ2Bから送信される撮像信号に対して所定の画像処理を行う第2プロセッサ4と、各種指示情報の入力を受け付けて第1プロセッサ3に指示情報を入力する入力装置5と、第1スコープ2A又は第2スコープ2Bによる撮像信号に対応した映像を表示する表示装置6と、ネットワーク等によって第1プロセッサ3と接続されて通信するとともに各種情報を記録するサーバ7と、を備える。実施の形態1では、第1プロセッサ3は、第2スコープ2Bが装着された第2プロセッサ4と通信可能に接続するとともに、入力装置5及び表示装置6とも接続する。第1プロセッサ3は、第2プロセッサ4との間の通信に応じて当該第1プロセッサ3における合成処理を含む画像処理内容を制御することによって、第2プロセッサ4から入力された画像情報に文字情報を重畳した合成画像として、必要な情報を十分に読み取り可能であるような合成画像を生成する。
 第1スコープ2A及び第2スコープ2Bは、いずれも、被検体内に導入され、被検体の体内を撮像して被検体内の画像情報を生成する。第1スコープ2Aは、第1プロセッサ3に接続し、第2スコープ2Bは、第2プロセッサ4に接続する。
 第1スコープ2Aは、先端部に、撮像素子21A(第1撮像素子)、メモリ22A、及び、レリーズボタン等の各種操作スイッチが設けられた操作スイッチ部23Aを有する。第2スコープ2Bは、先端部に、撮像素子21B(第2撮像素子)、メモリ22B、及び、レリーズボタン等の各種操作スイッチが設けられた操作スイッチ部23Bを有する。
 撮像素子21A,21Bは、CMOS撮像素子やCCD撮像素子であり、受光面に、光が照射された被写体からの光を受光し、受光した光を光電変換して撮像信号を生成する複数の画素が行列状に配置される。第1スコープ2Aが第1プロセッサ3に装着される場合には、撮像素子21Aは、複数の画素が生成した第1撮像信号(アナログ)に、ノイズ除去処理、クランプ処理及びA/D変換処理を行い、第1撮像信号(デジタル)として、電気ケーブル(不図示)を介して、第1プロセッサ3に出力する。第2スコープ2Bが第2プロセッサ4に装着される場合には、撮像素子21Bは、複数の画素が生成した第2撮像信号(アナログ)に、ノイズ除去処理、クランプ処理及びA/D変換処理を行い、第2撮像信号(デジタル)として、電気ケーブル(不図示)を介して、第2プロセッサ4に出力する。
 メモリ22A,22Bは、スコープ2A,2Bの識別情報、型番、撮像素子21A,21Bの種別等を記録する。メモリ22A,22Bは、ホワイトバランス(WB)調整用のパラメータ等、撮像素子21A,21Bが撮像した撮像信号に対する画像処理用の各種パラメータを記録していてもよい。第1スコープ2Aが第1プロセッサ3に装着された場合、メモリ22Aが記録する各種情報は、第1プロセッサ3との間の通信処理によって、電気ケーブル(不図示)を介して、第1プロセッサ3の制御部35に出力される。第2スコープ2Bが第2プロセッサ4に電気的に接続された場合、メモリ22Bが記録する各種情報は、第2プロセッサ4との間の通信処理によって、電気ケーブル(不図示)を介して、第2プロセッサ4の制御部44に出力される。
 操作スイッチ部23A,23Bには、第1プロセッサ3、送気装置、送水装置及び送ガス装置等の周辺機器の操作を行う複数のボタンが設けられる。操作スイッチ部23A,23Bは、レリーズボタンを有し、スコープ検査中にレリーズボタンが押圧された場合には、押圧された際に表示装置6に表示されていた画像を静止画像データ(レリーズ画像データ)として生成することを指示するレリーズ信号を、それぞれのプロセッサ3,4の制御部35,44に入力する。このレリーズ信号の入力にしたがって、後述する記録用画像生成部36,45が、レリーズ信号の入力タイミング時に表示装置6に表示されていた映像をもとに、レリーズ画像データを生成する。なお、操作スイッチ部23A,23B近傍には、第1スコープ2A、第2スコープ2Bを湾曲させるための湾曲ノブや処置具挿入のための挿入口が設けられる。
 第1プロセッサ3は、着脱自在に第1スコープ2Aが装着され、後述する画像処理部31が、装着された第1スコープ2Aから送信される第1撮像信号に対して所定の画像処理を施し第1画像情報Dg1を生成する。第1プロセッサ3は、第2プロセッサ4とも通信可能に接続する。第1プロセッサ3は、第2プロセッサ4の制御部44に各種コマンドを送信する。第1プロセッサ3は、画像処理部31が生成した第1画像情報Dg1と第2プロセッサ4から入力された第2画像情報Dg2とのいずれか一方を選択し、選択した画像情報と、該画像情報に関する文字情報とを重畳した合成画像を生成し、表示装置6に出力する。第1プロセッサ3は、生成した合成画像から記録用画像情報を生成しサーバ7に出力する。第1プロセッサ3は、画像処理部31、パネルスイッチ部33、外部映像入力ポート34、制御部35、記録用画像生成部36及び記憶部37を備える。
 画像処理部31は、第1スコープ2Aの撮像素子21Aが生成した第1撮像信号に対し、所定の画像処理を施す。画像処理部31は、撮像素子21Aが生成した第1撮像信号(デジタル)に対するオプティカルブラック減算(OB)処理、デモザイキング処理、ホワイトバランス(WB)調整処理、電子ズーム処理、エッジ強調処理及びマスク処理を施した第1画像情報Dg1を生成する。画像処理部31は、生成した第1画像情報Dg1を後述する画像選択部354に出力する。画像処理部31は、合成部32を備え、合成部32が生成した合成画像(合成画像情報)を表示装置6において表示可能な形式に変換して出力する。なお、撮像素子21Aではなく画像処理部31が、第1撮像信号(アナログ)に、ノイズ除去処理、クランプ処理及びA/D変換処理を行う場合もある。
 合成部32は、所定の画像処理が施された画像情報と該画像情報に関する文字情報とを重畳した合成画像を生成する合成処理、いわゆるオンスクリーンディスプレイ(OSD)処理を実行する。文字情報は、患者情報、機器情報及び検査情報等を示す情報である。合成部32は、後述する画像選択部354から入力された画像情報と、該画像情報に関する文字情報とを重畳した合成画像を生成する。合成部32は、第1画像情報Dg1が入力された場合には、第1画像情報Dg1と文字情報とを重畳した合成画像を生成する。合成部32は、第2画像情報Dg2が入力された場合には、第2画像情報Dg2と文字情報とを重畳した合成画像を生成する。
 パネルスイッチ部33は、第1プロセッサ3の筐体を構成するフロントパネルに設けられたスイッチ群であり、第1スコープ2Aが第1プロセッサ3に装着されている場合に、第1スコープ2Aが撮像する体内画像に対するフリーズ、レリーズ、画像調整(強調、電子拡大、色調など)信号の入力を受け付け、受け付けた各種信号を制御部35に出力する。
 外部映像入力ポート34は、第1プロセッサ3と第2プロセッサ4との接続時に、第2プロセッサ4の画像処理部41から出力された第2画像情報Dg2が入力される。入力された第2画像情報Dg2は、制御部35に出力される。この第2画像情報Dg2は、第2スコープ2Bの撮像素子21Bが生成した第2撮像信号に対して所定の画像処理を施されたものであり、文字情報は重畳されていない。
 制御部35は、CPU等を用いて実現される。制御部35は、第1プロセッサ3の各構成に対する指示情報やデータの転送等を行うことによって、第1プロセッサ3の各部位の処理動作を制御する。第1プロセッサ3に第1スコープ2Aが装着されている場合には、制御部35は、各ケーブルを介して第1スコープ2Aの撮像素子21A及びメモリ22Aにそれぞれ接続し、撮像素子21A及びメモリ22Aに対する制御も行う。
 制御部35は、ネットワーク等を介して、サーバ7と通信可能に接続する。制御部35は、ケーブルを介して、第2プロセッサ4の制御部44と通信可能に接続する。制御部35は、第2プロセッサ4との間の通信に応じて画像処理部31の処理内容を制御する。制御部35は、通信部351、モード選択部352、文字情報取得部353及び画像選択部354を有する。
 通信部351は、第2プロセッサ4の制御部44との間で通信を行う。通信部351は、第2プロセッサ4との間で通信が確立した場合に、後述する第2プロセッサ4の制御部44を介して、画像処理部41に、第2画像情報Dg2に対する文字情報の重畳の不実施を指示する文字重畳不要コマンド(第1コマンド)Cuと第2画像情報Dg2の当該第1プロセッサ3への送信を指示する画像情報出力コマンド(第2コマンド)Cgとを送信する。
 モード選択部352は、通信部351における第2プロセッサ4との間の通信に応じて、合成部32が合成する画像情報として、第1スコープ2Aの撮像素子21Aが生成した第1画像情報Dg1を選択する標準モードと、第2プロセッサ4から入力された第2画像情報Dg2を選択する互換モードとのいずれかを選択する。モード選択部352は、第2プロセッサ4に接続される第2スコープ2Bが選択され、通信部351と第2プロセッサ4との間で通信が確立した場合、互換モードを選択する。モード選択部352は、当該第1プロセッサ3に接続される第1スコープ2Aが選択された場合には、第1プロセッサ3内部で撮像素子21Aによる第1撮像信号に対して画像処理が施された第1画像情報Dg1を、文字情報と重畳させる標準モードを選択する。モード選択部352は、選択したモードに対応した内容の画像処理を行うように画像処理部31を制御する。モード選択部352は、画像処理部31の合成部32に、後述する画像選択部354が選択した画像情報と該画像情報に関連する文字情報とを重畳した合成画像を生成させる。
 文字情報取得部353は、後述する入力装置5から入力された画像情報に関する文字情報を取得する。文字情報取得部353は、第1スコープ2A装着時には第1画像情報Dg1に関する文字情報を取得し、第2スコープ2B装着時には第2画像情報Dg2に関する文字情報を取得する。
 画像選択部354は、モード選択部352が選択したモードに対応させて、撮像素子21Aによる第1撮像信号に基づく第1画像情報Dg1と、第2プロセッサ4から入力された撮像素子21Bによる第2撮像信号に基づく第2画像情報Dg2と、のいずれか一方を選択する。画像選択部354は、モード選択部352が標準モードを選択した場合には、画像処理部31から入力された第1画像情報Dg1を選択して、合成部32に出力する。画像選択部354は、モード選択部352が互換モードを選択した場合には、第2プロセッサ4から入力された第2画像情報Dg2を選択して、合成部32に出力する。画像選択部354は、通信部351が第2プロセッサ4に送信した画像情報出力コマンドCgに応じて第2プロセッサ4から入力された第2画像情報Dg2を選択する。
 記録用画像生成部36は、画像処理部31から出力された画像情報をコーデック(CODEC)処理し、記録用のレリーズ画像情報、動画像情報を生成する。記録用画像生成部36は、制御部35から動画像生成指示信号を受信した場合には、画像処理部31から出力された連続した一連の画像情報から、所定形式の動画像情報を生成(エンコード)して、サーバ7に出力する。記録用画像生成部36は、制御部35からのレリーズ信号を受信した場合には、画像処理部31から出力された画像情報からレリーズ画像データを生成して、サーバ7に出力する。モード選択部352が標準モードを選択した場合には画像処理部31からは第1画像情報Dg1に基づく合成画像が出力されるため、記録用画像生成部36は、この合成画像情報に基づいて動画像データ或いはレリーズ画像データ等の記録用画像情報を生成する。モード選択部352が互換モードを選択した場合には画像処理部31からは第2画像情報Dg2に基づく合成画像G2が出力されるため、記録用画像生成部36は、合成画像G2に基づいて動画像データ或いはレリーズ画像データ等の記録用画像情報を生成する。
 記憶部37は、揮発性メモリや不揮発性メモリを用いて実現され、第1プロセッサ3を動作させるための各種プログラムを記憶する。記憶部37は、第1プロセッサ3の処理中の情報を一時的に記録する。記憶部37は、第1スコープ2Aから出力された第1撮像信号を記憶する。記憶部37は、第1プロセッサ3の外部から装着されるメモリカード等を用いて構成されてもよい。
 第2プロセッサ4は、着脱自在に第2スコープ2Bが装着され、装着された第2スコープ2Bから送信される第2撮像信号に対して所定の画像処理を施した第2画像情報Dg2を生成する。第2プロセッサ4は、第1プロセッサ3と通信可能に接続し、生成した第2画像情報Dg2を第1プロセッサ3の外部映像入力ポート34に入力する。第2プロセッサ4は、画像処理部41、パネルスイッチ部43、制御部44、記録用画像生成部45及び記憶部46を備える。
 画像処理部41は、第2スコープ2Bの撮像素子21Bが生成した第2撮像信号に対し、所定の画像処理を施す。画像処理部41は、画像処理部31と同様に、撮像素子21Bが生成した第2撮像信号(デジタル)に対するオプティカルブラック減算(OB)処理、デモザイキング処理、ホワイトバランス(WB)調整処理、電子ズーム処理、エッジ強調処理、マスク等を行って第2画像情報Dg2を生成する。画像処理部41は、OSD処理を行う合成部42を備える。合成部42におけるOSD処理は、制御部44の制御によって実行されない場合もある。なお、第2スコープ2Bの撮像素子21Bがノイズ除去処理、クランプ処理及びA/D変換処理までを行い、第2撮像信号(デジタル)を出力する場合もある。画像処理部41は、第2プロセッサ4が単体で使用されている場合には、第2画像情報Dg2と文字情報とを重畳した合成画像を、第2プロセッサ4とセットとなる表示装置(不図示)において表示可能な形式に変換して出力する。
 パネルスイッチ部43は、第2プロセッサ4の筐体を構成するフロントパネルに設けられたスイッチ群であり、第2スコープ2Bが第2プロセッサ4に装着されている場合に、第2スコープ2Bが撮像する体内画像に対するフリーズ、レリーズ、画像調整(強調、電子拡大、色調など)信号の入力を受け付け、受け付けた各種信号を制御部44に出力する。
 制御部44は、制御部35と同様に、CPU等を用いて実現され、第2プロセッサ4の各構成に対する指示情報やデータの転送等を行うことによって、第2プロセッサ4の各部位の処理動作を制御する。第2プロセッサ4に第2スコープ2Bが装着されている場合には、制御部44は、各ケーブルを介して第2スコープ2Bの撮像素子21B及びメモリ22Bにそれぞれ接続し、撮像素子21B及びメモリ22Bに対する制御も行う。制御部44は、ケーブルを介して、第1プロセッサ3の制御部35と通信可能に接続する。制御部44は、制御部35から送信された文字重畳不要コマンドCu及び画像情報出力コマンドCgにしたがって画像処理部41の処理内容を制御する。
 記録用画像生成部45は、記録用画像生成部36と同様の機能を有する。ただし、第2プロセッサ4が第1プロセッサ3と通信可能に接続し、第1プロセッサ3において互換モードが選択された場合には、第1プロセッサ3における記録用画像生成部36が第2画像情報Dg2からレリーズ画像情報或いは動画像情報を生成するため、記録用画像生成部45では、レリーズ画像情報或いは動画像情報の生成処理は実行されない。
 記憶部46は、記憶部37と同様に、揮発性メモリや不揮発性メモリを用いて実現され、第2プロセッサ4を動作させるための各種プログラムや第2スコープ2Bから出力された第2撮像信号を記憶する他、第2プロセッサ4の処理中の情報を一時的に記録する。記憶部46は、第2プロセッサ4の外部から装着されるメモリカード等を用いて構成されてもよい。
 入力装置5は、マウス、キーボード及びタッチパネル等の操作デバイスを用いて実現され、各種指示情報の入力を受け付け、受け付けた各種指示情報を第1プロセッサ3の制御部35に入力する。第1プロセッサ3と第2プロセッサ4とが通信可能に接続する場合には、第1プロセッサ3に対する各種指示情報に加え、第2プロセッサ4及び第2プロセッサ4に装着された第2スコープ2Bに対する指示情報の入力を受け付け、受け付けた指示情報を制御部35に入力する。また、入力装置5は、使用するスコープとして第1スコープ2A及び第2スコープ2Bのいずれかを選択したスコープ選択情報Dm、合成部32における合成処理対象の画像情報に関する文字情報Dk1を制御部35に入力する。
 表示装置6は、液晶又は有機ELを用いた表示ディスプレイ等を用いて構成される。表示装置6は、第1プロセッサ3から出力された表示用画像を含む各種情報を表示する。表示装置6は、標準モードの場合、第1スコープ2Aの第1撮像信号に基づく第1画像情報Dg1と該第1画像情報Dg1に関する文字情報とを重畳した合成画像を表示する。表示装置6は、互換モードの場合、第2スコープ2Bの第2撮像信号に基づく第2画像情報Dg2と該第2画像情報Dg2に関する文字情報とを重畳した合成画像G2を表示する。これにより、ユーザは、表示装置6が表示する画像(体内画像)を見ながら第1スコープ2A或いは第2スコープ2Bを操作することにより、被検体内の所望の位置の観察及び性状を判定することができる。なお、表示装置6のディスプレイには、制御部35の制御に基づき、現に表示されている体内画像が第1スコープ2A及び第2スコープ2Bのいずれかによるものかを示す情報も表示される。
 サーバ7は、ネットワーク等を介して第1プロセッサ3と接続しており、第1プロセッサ3との間で通信を行う。サーバ7は、データベース(不図示)を有し、第1プロセッサ3が出力したレリーズ画像情報、動画像情報及び各画像情報の識別情報などを含む各種情報をデータベースに記録し、管理する。
 図2は、第1プロセッサ3の制御部35による標準モード又は互換モードの設定及び各モードに応じた第1プロセッサ3の内部処理の制御処理の処理手順を示すフローチャートである。なお、第1プロセッサ3は、標準モードがデフォルト設定されている。
 図2に示すように、制御部35は、入力装置5から入力されたスコープ選択情報Dm等を基に、使用するスコープとして第2スコープ2Bが選択されたか否かを判断する(ステップS1)。制御部35が、第2スコープ2Bが選択されていないと判断した場合(ステップS1:No)、モード選択部352は、そのまま標準モードを継続する(ステップS2)。
 これに対し、制御部35は、第2スコープ2Bが選択されたと判断した場合(ステップS1:Yes)、通信部351における通信結果を基に、第1プロセッサ3と第2プロセッサ4との間で通信が確立したか否かを判断する(ステップS3)。制御部35は、第1プロセッサ3と第2プロセッサ4との間で通信が確立していないと判断した場合(ステップS3:No)、ステップS1に戻り、第2スコープ2Bが選択されたか否かを判断する。
 制御部35が第1プロセッサ3と第2プロセッサ4との間で通信が確立したと判断した場合(ステップS3:Yes)、モード選択部352が互換モードを選択し(ステップS4)、制御部35は、互換モードに対応するように画像処理部31を制御する互換モード制御処理を行う(ステップS5)。
 図3は、図2に示す互換モード制御処理の処理手順を示すフローチャートである。図3に示すように、通信部351は、文字重畳不要コマンドCuを第2プロセッサ4に送信する(ステップS11)。第2プロセッサ4では、この文字重畳不要コマンドCuの受信に応じて、合成部42におけるOSD処理が実施されない。文字情報取得部353は、入力装置5から入力された文字情報Dk1を取得し(ステップS12)、合成部32に出力する。
 通信部351は、画像情報出力コマンドCgを第2プロセッサ4に送信する(ステップS13)。第2プロセッサ4では、この画像情報出力コマンドCgの受信に応じて、画像処理部41から文字情報が重畳されていない状態の第2画像情報Dg2が出力され、外部映像入力ポート34を介して、制御部35は、第2プロセッサ4から出力された第2画像情報Dg2を受信する(ステップS14)。画像選択部354は、第2プロセッサ4から入力された第2画像情報Dg2を選択して合成部32に出力する(ステップS15)。
 合成部32は、入力された第2画像情報Dg2と、文字情報Dk1とを重畳した合成画像G2を生成し(ステップS16)、生成された合成画像G2は、表示装置6に出力され(ステップS17)、表示装置6のディスプレイに表示される。なお、制御部35は、レリーズ信号を受信した場合には、記録用画像生成部36に対し、合成画像G2からレリーズ画像情報を生成させてサーバ7に出力させる。
 制御部35は、第2プロセッサ4から次の第2画像情報Dg2を受信したか否かを判断する(ステップS18)。制御部35が、第2プロセッサ4から次の第2画像情報Dg2を受信したと判断した場合には(ステップS18:Yes)、ステップS15に戻って、次の第2画像情報Dg2に対する処理を継続する。制御部35が、第2プロセッサ4から次の第2画像情報Dg2を受信していないと判断した場合には(ステップS18:No)、互換モード制御処理を終了する。
 図4は、従来の親機のプロセッサに接続する表示装置に表示される合成画像の一例を示す図である。図5は、本実施の形態1の内視鏡システムにおける表示装置に表示される合成画像の一例を示す図である。図4に示すように、従来では、プロセッサは、子機や親機の区別なくいずれもが、文字情報とスコープが撮像した画像情報とを重畳して合成した合成画像を生成して、親機のプロセッサに出力する。したがって、親機のプロセッサに、画像情報Ggpと文字情報Gk´が重畳された合成画像が子機のプロセッサから入力されると、親機においても、入力された合成情報にさらに文字画像Gkを重畳してしまう。このため、従来では、親機と接続する表示装置には、観察対象の画像情報Ggpに、2つの文字情報Gk,Gk´が重なった合成画像Gpが出力されていた。この場合、ユーザが、合成画像Gpにおいて、2つの文字情報Gk,Gk´のいずれの文字情報が正しいものであるかが判別できず、必要な情報を読み取ることは困難であった。
 これに対し、本実施の形態1では、図5に示すように、制御部35が、親機の第1プロセッサ3から文字重畳不要コマンドCuを送信し、子機の第2プロセッサ4から、文字情報が重畳されていない第2画像情報Dg2のみを出力させている。そして、制御部35は、該第2画像情報Dg2に対し、文字情報取得部353が取得した第2画像情報Dg2に関する1つの文字情報Dk1のみを重畳させた合成画像G2を生成し、表示装置6に表示させている。この1つの文字情報Dk1のみを第2画像情報Dg2に重畳させた合成画像G2は、他の画像や複数の文字情報が文字情報Dk1や第2画像情報Dg2に重畳していないため、ユーザは、必要な情報を適切に読み取ることができる。
 このように、実施の形態1によれば、第1プロセッサ3は、第2プロセッサ4との間の通信に応じて画像処理部31の処理内容を制御することによって、第1プロセッサ3と第2プロセッサ4とで表示装置6や記録装置を共用した場合であっても、画像情報に必要な文字情報のみが重畳し、余分な文字や他の画像が重畳していない合成画像を生成できる。言い換えると、実施の形態1では、第1プロセッサ3はユーザが必要な情報を読み取り可能であるような適切な合成画像を生成することができ、ユーザによる診断の円滑化を図ることができる。
(実施の形態1の変形例1)
 図6は、第1プロセッサ3の制御部35による標準モード又は互換モードの設定及び各モードに応じた第1プロセッサ3の内部処理の制御処理の他の処理手順を示すフローチャートである。
 図6に示すように、制御部35は、画像選択部354における第2画像情報Dg2の受信の有無に基づいて、第2プロセッサ4からの第2画像情報Dg2の第1プロセッサ3への入力の有無を検知する(ステップS21)。制御部35は、第2プロセッサ4からの第2画像情報Dg2の第1プロセッサ3への入力を検知した場合(ステップS21:Yes)、第2プロセッサ4との接続を検知する(ステップS22)。続いて、制御部35は、通信部351における通信結果を基に、第1プロセッサ3と第2プロセッサ4との間で通信が確立したか否かを判断する(ステップS24)。制御部35が、第2プロセッサ4からの第2画像情報Dg2の第1プロセッサ3への入力を検知しない場合(ステップS21:No)、或いは、第1プロセッサ3と第2プロセッサ4との間で通信が確立していないと判断した場合(ステップS24:No)、モード選択部352は、そのまま標準モードを継続する(ステップS23)。制御部35が第1プロセッサ3と第2プロセッサ4との間で通信が確立したと判断した場合(ステップS24:Yes)、モード選択部352は、互換モードを選択する(ステップS25)。ステップS26は、図2に示すステップS5である。
 この実施の形態1の変形例1のように、第1プロセッサ3は、第2プロセッサ4による第2画像情報Dg2の第1プロセッサ3への入力を検知し、さらに、第2プロセッサ4との間で通信が確立した場合に、自動的に互換モードを選択できるようにしてもよい。
(実施の形態1の変形例2)
 図7は、実施の形態1の変形例2における内視鏡システムの概略構成を示す模式図である。図7に示すように、第1プロセッサ3Aは、図1に示す画像処理部31及び制御部35に代えて、画像処理部31A及び制御部35Aを備えるとともに、切替部38Aをさらに備える。
 画像処理部31Aは、所定の画像処理を施した第1画像情報を切替部38Aに出力する。制御部35Aは、制御部35の画像選択部354を削除した構成を有する。また、モード選択部352Aは、モード選択部352と同様に、標準モードと互換モードとの一方を選択するとともに、切替部38Aに出力させる画像情報を切り替えさせる。外部映像入力ポート34は、入力された第2画像情報Dg2を切替部38Aに入力する。
 切替部38Aは、入力された2つの信号のうちいずれか一方のみを出力させる電子回路等によって構成される。切替部38Aは、モード選択部352Aの制御に基づいて、合成部32に出力する画像情報として、画像処理部31Aから入力された第1画像情報Dg1と、外部映像入力ポート34から入力された第2画像情報Dg2とのいずれか一方を選択する。切替部38Aは、モード選択部352Aが標準モードを選択した場合には、第1画像情報Dg1を選択して出力する。この場合には、合成部32は、第1画像情報Dg1と文字情報とを重畳した合成画像を生成する。切替部38Aは、モード選択部352Aが互換モードを選択した場合には第2画像情報Dg2を選択して出力する。この場合には、合成部32は、第2画像情報Dg2と文字情報Dk1とを重畳した合成画像G2を生成する。
 第1プロセッサ3Aの制御部35Aは、図2或いは図6に示す処理手順を行って、標準モード又は互換モードを設定する。図8は、第1プロセッサ3Aの制御部35Aによる互換モード制御処理の処理手順を示すフローチャートである。
 図8に示すステップS31~ステップS33は、図3に示すステップS11~ステップS13である。モード選択部352Aは、切替部38Aに、外部映像入力ポート34から入力された第2画像情報Dg2に出力信号を切り換えさせる(ステップS34)。第1プロセッサ3Aは、外部映像入力ポート34から入力された第2プロセッサ4による第2画像情報Dg2を受信する(ステップS35)。受信された第2画像情報Dg2は、切替部38Aから合成部32に出力される。ステップS36~ステップS38は、図3に示すステップS16~ステップS18である。これによって、合成部32は、第2画像情報Dg2と文字情報Dk1とを重畳した合成画像G2を生成し、生成された合成画像G2は、表示装置6のディスプレイに表示される。
 この実施の形態1の変形例2のように、選択部の一部としてハードウェア(切替部38A)を用いて、合成部32に出力する画像情報を第1画像情報Dg1又は第2画像情報Dg2に切り替えてもよい。
(実施の形態2)
 次に、実施の形態2について説明する。図9は、実施の形態2における内視鏡システムの概略構成を示す模式図である。図9に示すように、実施の形態2における内視鏡システムは、第1プロセッサ203と第2プロセッサ204とを備える。
 第1プロセッサ203は、通信部2351と、文字情報取得部2353とを有する制御部235を備える。通信部2351は、第2プロセッサ204の制御部244を介して、画像処理部41に、文字重畳不要コマンドCu、画像情報出力コマンドCg及び第2画像情報Dg2に関する文字情報Dk2の送信を指示する文字情報出力コマンド(第3コマンド)Ckを送信する。文字情報取得部2353は、通信部2351から送信された文字情報出力コマンドCkに応じて第2プロセッサ204から送信された文字情報Dk2を、合成処理対象の画像情報に重畳すべき文字情報として取得する。なお、実施の形態2では、入力装置5からは、スコープ選択情報Dmのみが入力される。
 第2プロセッサ204は、制御部244を備える。第2プロセッサ204は、第2スコープ2Bから出力された第2撮像信号に基づく第2画像情報Dg2に加え、該第2画像情報Dg2に関する文字情報Dk2も予め登録されており、制御部244は、文字情報出力コマンドCkに応じて、文字情報Dk2を第1プロセッサ203の通信部2351に送信する。
 第1プロセッサ203の制御部235は、図2或いは図6に示す処理手順を行って、標準モード又は互換モードを設定する。図10は、第1プロセッサ203の制御部235による互換モード制御処理の処理手順を示すフローチャートである。
 図10に示すステップS41は、図3に示すステップS11である。通信部2351は、文字情報出力コマンドCkを第2プロセッサ204に送信する(ステップS42)。第2プロセッサ204では、この文字情報出力コマンドCkの受信に応じて、制御部244から文字情報Dk2が出力され、外部映像入力ポート34を介して、制御部235は、第2プロセッサ204から出力された文字情報Dk2を受信する(ステップS43)。ステップS44~ステップS49は、図3に示すステップS13~ステップS18である。図11は、本実施の形態2の内視鏡システムにおける表示装置に表示される合成画像の一例を示す図である。図10に示す互換モード制御処理が実行されることによって、図11に示すように、文字情報が重畳されていない第2画像情報Dg2と、第2プロセッサ204から送信された文字情報Dk2のみを重畳させた合成画像G2aが生成され、表示装置6に表示される。
 この実施の形態2では、第1プロセッサ203は、子機の第2プロセッサ204に予め登録されていた患者情報等の文字情報Dk2を通信によって取得し、取得した文字情報Dk2を第2画像情報Dg2に重畳して合成画像G2aを生成する。このため、実施の形態2によれば、一度第2プロセッサ204に登録した文字情報Dk2を、第1プロセッサ203に登録し直すことなく使用することができる。なお、実施の形態2において、文字情報取得部2353は、第2プロセッサ204から取得した第2画像情報Dg2に対して第2プロセッサ204から送信された文字情報Dk2を重畳するものに限らず、第1プロセッサ203が生成する第1画像情報に対して第2プロセッサ204から取得する文字情報Dk2を重畳するように構成してもよい。この構成の場合によれば、過去に第2プロセッサ204による検査実績があり、患者IDなどが第2プロセッサ204内に蓄積されている患者に対して第1プロセッサ203で再検査する場合などに、第1プロセッサ203で文字情報を再度入力する必要がなくなる。
(実施の形態2の変形例1)
 実施の形態2の変形例1では、第1プロセッサにおいて、第2プロセッサ204から取得した第2画像情報Dg2に対しさらに補正処理を行ってから文字情報と合成する例について説明する。図12は、実施の形態2の変形例1における内視鏡システムの概略構成を示す模式図である。図12に示すように、実施の形態2の変形例1における第1プロセッサ203Aは、補正部239Aを有する画像処理部231Aと、画像選択部2354Aを有する制御部235Aと、を備える。
 補正部239Aは、入力された画像情報に対して、第1プロセッサ203Aの世代に対応した補正、補完処理を行う。第1プロセッサ203Aは、第2プロセッサ204との互換性を持たせた新しい世代のものであるため、第2プロセッサ204に比して、バージョンアップした補正処理を実行可能である。
 画像選択部2354Aは、モード選択部352が標準モードを選択した場合には、第1画像情報Dg1を合成部32に出力する。画像選択部2354Aは、モード選択部352が互換モードを選択した場合には、第2画像情報Dg2を補正部239Aに出力する。第2画像情報Dg2は、補正部239Aにおいて所定の補正、補完処理を施された後に第2画像情報Dg2´として出力される。合成部32は、第2画像情報Dg2´と、該第2画像情報Dg2´に関する文字情報Dk2を重畳させた合成画像G2a´を生成する。この結果、第1プロセッサ203Aの補正部239Aで補正された第2画像情報Dg2´を有する合成画像G2a´が表示装置6に表示される。
 第1プロセッサ203Aの制御部235Aは、図2或いは図6に示す処理手順を行って、標準モード又は互換モードを設定する。図13は、第1プロセッサ203Aの制御部235Aによる互換モード制御処理の処理手順を示すフローチャートである。
 図13に示すステップS51~ステップS55は、図10に示すステップS41~ステップS45である。画像選択部2354Aは、第2プロセッサ204から入力された第2画像情報Dg2を選択して補正部239Aに出力する(ステップS56)。補正部239Aは、入力された第2画像情報Dg2に対して所定の補正処理を実行する(ステップS57)。ステップS58~ステップS60は、図10に示すステップS47~ステップS49である。
 この実施の形態2の変形例1のように、さらにユーザの画像確認が円滑になるように、第1プロセッサ203Aは、第2プロセッサ204から出力された第2画像情報Dg2に対し新世代の内容の補正処理を行ってから合成画像を生成してもよい。
 なお、実施の形態2については、実施の形態1の変形例2と同様に、ハードウェア(切替部38A)を用いて、画像処理部231,231Aに出力する画像情報を第1画像情報Dg1又は第2画像情報Dg2に切り替えてもよい。
 また、実施の形態1,2では、第2プロセッサ4,204が、第2画像情報Dg2として、撮像素子21Bが生成した第2撮像信号(デジタル)に対して画像処理部41が所定の画像処理を施して生成した画像情報を出力する場合を例に説明したが、これに限らない。第2プロセッサ4,204は、撮像素子21Bが生成した第2撮像信号(デジタル)、いわゆるRAWデータ形式の信号を第2画像情報Dg2として第1プロセッサ3,3A,203,203Aの制御部35,35A,235,235Aに出力してもよい。画像選択部354,2354A或いは切替部38Aから合成対象の画像情報としてRAWデータ形式の第2画像情報Dg2が画像処理部31,31A,231,231Aに入力された場合には、画像処理部31は、OB処理等の所定の画像処理を施したのちに、合成部32において文字情報Dk1,Dk2との合成画像を生成する。また、制御部35,35A,235,235Aは、入力装置5からの指示情報にしたがって、記憶部37或いは接続するサーバ7のデータベースから、過去に記録した画像情報を取得し、該取得した画像情報に対しても同様に、合成部32に文字情報Dk1,Dk2との合成画像を生成させることもできる。
 また、本実施の形態1,2にかかる第1プロセッサ3,3A,203,203A、第2プロセッサ4,204、並びに他の構成部で実行される各処理に対する実行プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD-ROM、フレキシブルディスク、CD-R、DVD等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよく、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、インターネット等のネットワーク経由で提供又は配布するように構成してもよい。
 2A 第1スコープ
 2B 第2スコープ
 3,3A,203,203A 第1プロセッサ
 4,204 第2プロセッサ
 5 入力装置
 6 表示装置
 7 サーバ
 21A,21B 撮像素子
 22A,22B メモリ
 23A,23B 操作スイッチ部
 31,31A,231,231A,41 画像処理部
 32,42 合成部
 33,43 パネルスイッチ部
 34 外部映像入力ポート
 35,35A,44,235,235A,244 制御部
 36,45 記録用画像生成部
 37,46 記憶部
 38A 切替部
 239A 補正部
 351,2351 通信部
 352,352A モード選択部
 353,2353 文字情報取得部
 354,2354A 画像選択部

Claims (7)

  1.  第1撮像素子を有する第1内視鏡装置が着脱自在に装着される一方、第2撮像素子を有する第2内視鏡装置が装着された他の信号処理装置とも通信可能に接続され、前記第1撮像素子又は前記第2撮像素子による撮像信号を処理する信号処理装置であって、
     前記第1内視鏡装置又は前記他の信号処理装置から入力された前記撮像信号に基づく画像情報と前記画像情報に関する文字情報とを重畳した合成画像情報を生成する合成処理を少なくとも実行する画像処理部と、
     前記他の信号処理装置との間の通信に応じて前記画像処理部の処理内容を制御する制御部と、
     を備えたことを特徴とする信号処理装置。
  2.  前記制御部は、前記他の信号処理装置との間の通信に応じて、前記第1撮像素子による前記撮像信号に基づく第1画像情報と、前記他の信号処理装置から入力された前記第2撮像素子による撮像信号に基づく第2画像情報と、のいずれか一方を選択する画像選択部を備え、
     前記制御部は、前記画像処理部に、前記画像選択部が選択した画像情報と該画像情報に関連する文字情報とを重畳した合成画像を生成させることを特徴とする請求項1に記載の信号処理装置。
  3.  前記他の信号処理装置との間で通信を行う通信部をさらに備え、
     前記他の信号処理装置は、前記第2画像情報と該第2画像情報に関する文字情報とを重畳する合成処理を実行し、
     前記通信部は、前記他の信号処理装置との間で通信が確立した場合に、前記他の信号処理装置に、前記第2画像情報に対する前記文字情報の重畳の不実施を指示する第1コマンドと、前記第2画像情報の当該信号処理装置への送信を指示する第2コマンドと、を送信し、
     前記画像選択部は、前記第2コマンドの前記他の信号処理装置への送信に応じて前記他の信号処理装置から入力された前記第2画像情報を選択することを特徴とする請求項2に記載の信号処理装置。
  4.  前記第2画像情報に関する文字情報が入力される入力部をさらに備え、
     前記制御部は、前記画像処理部に、前記画像選択部が選択した第2画像情報と、前記入力部によって入力された文字情報と、を重畳した合成画像を生成させることを特徴とする請求項3に記載の信号処理装置。
  5.  前記通信部は、前記他の信号処理装置に、前記第1コマンドと前記第2コマンドとに加え、前記第2画像情報に関する文字情報の送信を指示する第3コマンドを送信し、
     前記制御部は、前記画像処理部に、前記画像選択部が選択した第2画像情報と、前記第3コマンドに応じて前記他の信号処理装置から入力された前記第2画像情報に関する文字情報と、を重畳した合成画像を生成させることを特徴とする請求項3に記載の信号処理装置。
  6.  前記画像処理部は、前記第2画像情報に対する補正処理を行い、
     前記制御部は、前記画像選択部が前記第2画像情報を選択した場合、前記画像処理部に、該第2画像情報に対する補正処理を実行させた後に該第2画像情報と該第2画像情報に関連する文字情報とを重畳した合成画像を生成させることを特徴とする請求項2に記載の信号処理装置。
  7.  第1撮像素子を有する第1内視鏡装置が着脱自在に装着される第1信号処理装置と、第2撮像素子を有する第2内視鏡装置が装着される第2信号処理装置とが通信可能に接続された内視鏡システムであって、
     前記第1信号処理装置は、
     前記第1内視鏡装置又は前記第2信号処理装置から入力された撮像信号に基づく画像情報と前記画像情報に関する文字情報とを重畳した合成画像情報を生成する合成処理を少なくとも実行する画像処理部と、
     前記第2信号処理装置との間の通信に応じて前記画像処理部の処理内容を制御する制御部と、
     を備えたことを特徴とする内視鏡システム。
PCT/JP2016/053850 2015-09-18 2016-02-09 信号処理装置及び内視鏡システム WO2017047117A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017516177A JP6173647B1 (ja) 2015-09-18 2016-02-09 第1信号処理装置および内視鏡システム
CN201680026718.5A CN107529976B (zh) 2015-09-18 2016-02-09 第一信号处理装置和内窥镜系统
US15/800,178 US10568497B2 (en) 2015-09-18 2017-11-01 Signal processing apparatus and endoscope system with composite image generation

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-185258 2015-09-18
JP2015185258 2015-09-18

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/800,178 Continuation US10568497B2 (en) 2015-09-18 2017-11-01 Signal processing apparatus and endoscope system with composite image generation

Publications (1)

Publication Number Publication Date
WO2017047117A1 true WO2017047117A1 (ja) 2017-03-23

Family

ID=58288582

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/053850 WO2017047117A1 (ja) 2015-09-18 2016-02-09 信号処理装置及び内視鏡システム

Country Status (4)

Country Link
US (1) US10568497B2 (ja)
JP (1) JP6173647B1 (ja)
CN (1) CN107529976B (ja)
WO (1) WO2017047117A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018003489A1 (ja) * 2016-06-27 2018-01-04 オリンパス株式会社 プロセッサ、内視鏡システム、プロセッサの制御方法、及び制御プログラム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10702349B2 (en) * 2018-02-20 2020-07-07 Ethicon Llc Robotic surgical instrument communication
CN112367898A (zh) * 2018-07-10 2021-02-12 奥林巴斯株式会社 内窥镜装置和内窥镜装置的工作方法
JP6988001B2 (ja) * 2018-08-30 2022-01-05 オリンパス株式会社 記録装置、画像観察装置、観察システム、観察システムの制御方法、及び観察システムの作動プログラム
CN112954200B (zh) * 2021-01-28 2023-12-01 上海微创医疗机器人(集团)股份有限公司 图像的处理方法、可读存储介质及手术机器人系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002200036A (ja) * 2000-12-27 2002-07-16 Asahi Optical Co Ltd 内視鏡装置
JP2003038432A (ja) * 2001-08-01 2003-02-12 Pentax Corp 電子内視鏡システム
JP2008023041A (ja) * 2006-07-20 2008-02-07 Fujifilm Corp 画像処理方法、および装置、並びに電子内視鏡システム
JP2009039249A (ja) * 2007-08-08 2009-02-26 Olympus Medical Systems Corp 内視鏡システム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5697885A (en) * 1989-01-30 1997-12-16 Olympus Optical Co., Ltd. Endoscope for recording and displaying time-serial images
US6346940B1 (en) * 1997-02-27 2002-02-12 Kabushiki Kaisha Toshiba Virtualized endoscope system
US6422994B1 (en) * 1997-09-24 2002-07-23 Olympus Optical Co., Ltd. Fluorescent diagnostic system and method providing color discrimination enhancement
JP2005007145A (ja) * 2003-05-27 2005-01-13 Olympus Corp 医療用画像記録装置、内視鏡画像の表示方法、内視鏡画像の取り込み方法及びプログラム
JP2005205184A (ja) * 2003-12-22 2005-08-04 Pentax Corp 診断支援装置
KR100583250B1 (ko) * 2004-03-05 2006-05-24 한국전기연구원 개선된 영상 검출 모듈을 갖는 형광 내시경 장치
JP5461753B2 (ja) * 2004-07-30 2014-04-02 オリンパス株式会社 内視鏡装置
WO2008129552A1 (en) * 2007-04-19 2008-10-30 Dvp Technologies Ltd. Imaging system and method for use in monitoring a field of regard
EP2829218B1 (en) * 2012-03-17 2017-05-03 Waseda University Image completion system for in-image cutoff region, image processing device, and program therefor
WO2015029318A1 (ja) * 2013-08-26 2015-03-05 パナソニックIpマネジメント株式会社 3次元表示装置および3次元表示方法
US10602918B2 (en) * 2013-12-31 2020-03-31 Karl Storz Imaging, Inc. Switching between white light imaging and excitation light imaging leaving last video frame displayed
US11154378B2 (en) * 2015-03-25 2021-10-26 Camplex, Inc. Surgical visualization systems and displays

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002200036A (ja) * 2000-12-27 2002-07-16 Asahi Optical Co Ltd 内視鏡装置
JP2003038432A (ja) * 2001-08-01 2003-02-12 Pentax Corp 電子内視鏡システム
JP2008023041A (ja) * 2006-07-20 2008-02-07 Fujifilm Corp 画像処理方法、および装置、並びに電子内視鏡システム
JP2009039249A (ja) * 2007-08-08 2009-02-26 Olympus Medical Systems Corp 内視鏡システム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018003489A1 (ja) * 2016-06-27 2018-01-04 オリンパス株式会社 プロセッサ、内視鏡システム、プロセッサの制御方法、及び制御プログラム
JP6289777B1 (ja) * 2016-06-27 2018-03-07 オリンパス株式会社 内視鏡システム
US10555661B2 (en) 2016-06-27 2020-02-11 Olympus Corporation Endoscope System

Also Published As

Publication number Publication date
JPWO2017047117A1 (ja) 2017-09-14
US20180049629A1 (en) 2018-02-22
CN107529976A (zh) 2018-01-02
US10568497B2 (en) 2020-02-25
JP6173647B1 (ja) 2017-08-02
CN107529976B (zh) 2019-10-29

Similar Documents

Publication Publication Date Title
JP6173647B1 (ja) 第1信号処理装置および内視鏡システム
JP5331948B2 (ja) 内視鏡システム
JP6104493B1 (ja) 撮像システム
JP2009106424A (ja) 電子内視鏡用信号処理装置および電子内視鏡装置
JPWO2016121464A1 (ja) 信号処理装置および内視鏡システム
US10506915B2 (en) Signal processing apparatus and endoscope system
WO2017061284A1 (ja) 撮像システム、制御装置、制御方法及び制御プログラム
JP5030394B2 (ja) 内視鏡画像表示装置及びその制御方法
WO2017047321A1 (ja) 信号処理装置
JP2011156262A (ja) 電子スコープ
JP5985118B1 (ja) 表示制御装置及び内視鏡システム
JP2010286765A (ja) 内視鏡装置およびプログラム
JPH11341485A (ja) 電子内視鏡装置
WO2017026323A1 (ja) 内視鏡システム
US10555661B2 (en) Endoscope System
JP2009112507A (ja) 情報制御方法及び装置、並びに内視鏡システム
JP4493426B2 (ja) 電子内視鏡システム
JP2017073718A (ja) 信号処理装置及び信号処理方法
WO2015115208A1 (ja) 映像出力装置
JP2016146879A (ja) 信号処理装置
JP2017006260A (ja) 内視鏡装置
JP2007307018A (ja) 信号伝送システムおよび電子内視鏡システム
JPWO2017026277A1 (ja) 内視鏡プロセッサ
WO2017126156A1 (ja) 内視鏡システム
JPH09154811A (ja) 電子内視鏡装置

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2017516177

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16845990

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16845990

Country of ref document: EP

Kind code of ref document: A1