WO2012008259A1 - 内視鏡画像処理装置及び内視鏡システム - Google Patents

内視鏡画像処理装置及び内視鏡システム Download PDF

Info

Publication number
WO2012008259A1
WO2012008259A1 PCT/JP2011/063696 JP2011063696W WO2012008259A1 WO 2012008259 A1 WO2012008259 A1 WO 2012008259A1 JP 2011063696 W JP2011063696 W JP 2011063696W WO 2012008259 A1 WO2012008259 A1 WO 2012008259A1
Authority
WO
WIPO (PCT)
Prior art keywords
synchronization signal
signal
endoscope
image sensor
unit
Prior art date
Application number
PCT/JP2011/063696
Other languages
English (en)
French (fr)
Inventor
武秀 藤本
清貴 菅野
鈴木 達彦
秀和 信濃
Original Assignee
オリンパスメディカルシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパスメディカルシステムズ株式会社 filed Critical オリンパスメディカルシステムズ株式会社
Priority to JP2011554009A priority Critical patent/JP5037731B2/ja
Priority to EP11806590.3A priority patent/EP2520215B1/en
Priority to CN201180011615.9A priority patent/CN102781304B/zh
Priority to US13/341,250 priority patent/US8449453B2/en
Publication of WO2012008259A1 publication Critical patent/WO2012008259A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00006Operational features of endoscopes characterised by electronic signal processing of control signals
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2476Non-optical details, e.g. housings, mountings, supports
    • G02B23/2484Arrangements in relation to a camera or imaging device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source

Definitions

  • the present invention relates to an endoscope image processing apparatus and an endoscope system for processing an endoscope image from an image sensor.
  • An electronic endoscope apparatus in which an image pickup device such as a charge coupled device (CCD) is provided at the tip of an endoscope insertion portion and an observation image picked up using the CCD is displayed on a television monitor by a video processor has been widely used.
  • CCD charge coupled device
  • the video processor is provided with a drive circuit, and a drive signal from the drive circuit is transmitted to the CCD at the tip of the endoscope to drive the CCD.
  • driving circuits there is a driving circuit in which a synchronizing signal (VD) is superimposed on the driving signal and supplied to the CCD.
  • VD synchronizing signal
  • the CCD outputs a video signal for each pixel in synchronization with the synchronization signal.
  • a synchronizing signal (VD) is superimposed on the video signal from the CCD.
  • the video processor extracts a synchronization signal included in a video signal from the CCD and uses it for subsequent video processing.
  • Japanese Laid-Open Patent Publication No. 4-156072 discloses a head-separated camera that compensates for a phase shift regardless of a transmission path delay from the CCD to the video processor.
  • the video processor can be connected to various endoscopes with different transmission paths for connecting the CCD and the video processor and different types of CCD. Some of these various endoscopes have different transmission path characteristics and the like and have a relatively large signal attenuation. Also, the output characteristics of the CCD and the degree of change over time in the transmission path are different, and a video signal with a sufficient level may not be obtained from the endoscope. Furthermore, a defective connection part for connecting the endoscope and the video processor may be considered. Due to signal deterioration due to these various factors, there is a problem in that the video processor may not be able to detect the synchronization signal superimposed on the video signal from the CCD. When the synchronization signal cannot be detected in the video processor, subsequent video processing becomes impossible, and problems such as the inability to display the observation image of the endoscope occur.
  • the present invention has been made in view of such problems, and is an endoscope image processing apparatus and an endoscope system that can reliably reproduce a synchronization signal regardless of deterioration of a signal input to a video processor.
  • the purpose is to provide.
  • An endoscope image processing apparatus is provided in an endoscope information reading unit that reads endoscope information that is information related to the endoscope from the endoscope, and the endoscope from the endoscope.
  • an imaging signal including a synchronization signal output from the imaging device is given, the synchronization signal is detected, and the synchronization signal is detected, the detected synchronization signal is output and the synchronization signal is detected.
  • a synchronization signal detection unit that generates and outputs a synchronization signal based on the endoscope information read by the endoscope information reading unit, and the synchronization signal output from the synchronization signal detection unit
  • An image signal generation unit configured to generate an image signal based on the signal and the imaging signal output from the imaging element of the endoscope.
  • An endoscope system is an endoscope system including an endoscope and a video processor connected to the endoscope, and captures an imaging signal including a synchronization signal by imaging a subject.
  • An endoscope provided with an imaging device to output and a storage unit that stores endoscope information that is information related to the endoscope, and endoscope information reading that reads the endoscope information from the endoscope
  • the synchronization signal output from the detection unit Based on the image pickup signal outputted from the imaging device of the endoscope, comprising an image signal generating unit for generating an image signal, a video processor with a
  • FIG. 1 is a block diagram showing an endoscope image processing apparatus according to an embodiment of the present invention. Explanatory drawing which shows the endoscope system in which the endoscope image processing apparatus was integrated.
  • FIG. 3 is a circuit diagram showing a specific configuration of each transmission line 50.
  • 6 is a flowchart for explaining the operation of the embodiment. 6 is a flowchart for explaining the operation of the embodiment.
  • FIG. 1 is a block diagram showing an endoscopic image processing apparatus according to an embodiment of the present invention.
  • FIG. 2 is an explanatory diagram showing an endoscope system in which an endoscope image processing apparatus is incorporated.
  • the endoscope system shown in FIG. 2 is configured by connecting a scope 1 and a video processor 10 by a scope cable 5.
  • the scope 1 that is an endoscope has an elongated insertion portion 8 having flexibility, and a CCD 2 as a solid-state imaging device is built in the distal end side of the insertion portion 8.
  • the scope 1 is provided with a ROM 3 in which scope information such as information relating to the scope 1, for example, information relating to the scope cable length, is described.
  • the scope information stored in the ROM 3 includes information on the cable lengths of the scope 1 and the scope cable 5.
  • Scope 1 and scope cable 5 are detachably connected by connector 4, and scope cable 5 and video processor 10 are detachably connected by connectors 6 and 12.
  • the video processor 10 includes a patient circuit 11 and a secondary circuit 21 which are insulated from each other.
  • the patient circuit 11 is provided with a drive unit 13, and the drive unit 13 generates a drive signal for driving the CCD 2 based on a timing signal from an FPGA (Field Programmable Gate Array) 17 described later. Further, the drive unit 13 also supplies power to the scope 1.
  • FPGA Field Programmable Gate Array
  • the driving unit 13 needs to generate a driving signal according to the type of the CCD 2 built in the scope 1 and needs to grasp the type of the CCD 2 on the video processor 10 side.
  • the scope 1 is provided with a detection resistor 7 for detecting such CCD type.
  • a CCD detection signal based on the resistance value of the detection resistor 7 is supplied to the FPGA 17.
  • the FPGA 17 supplies the CCD detection signal to the CPU unit 22 of the secondary circuit 21.
  • the CPU unit 22 controls the clock generation unit 23 to generate a reference clock (reference CLK) having a frequency corresponding to the CCD detection signal.
  • the clock generation unit 23 generates a control clock (hereinafter abbreviated as CTLCLK) for causing the FPGA 17 to detect the CCD and a synchronization clock (hereinafter abbreviated as VDCLK) for generating a synchronization signal, and supplies them to the FPGA 17. To do.
  • the FPGA 17 uses the reference CLK from the clock generation unit 23 to generate a timing signal including various clocks necessary for driving the CCD 2 and supplies the timing signal to the drive unit 13. Further, the FPGA 17 supplies the drive unit 13 with VDCLK from the clock generation unit 23. The drive unit 13 generates a drive signal for the CCD 2 using the timing signal from the FPGA 17 and superimposes and outputs a synchronization signal (VD) on the drive signal.
  • VD synchronization signal
  • the FPGA 17 When the FPGA 17 detects that a CCD that cannot be driven is connected based on the CCD detection signal, the FPGA 17 stops supplying the timing signal to the drive unit 13 and from the drive unit 13 to the scope 1. The power supply is stopped. Furthermore, the FPGA 17 outputs determination information indicating that a CCD that cannot be driven is connected to the CPU unit 22. The CPU unit 22 can store the determination information in the error storage unit 27.
  • a plurality of voltages such as 5, 7, 10, 13, and 15 V are required, and the power supply unit 13 a of the drive unit 13 uses the power supply voltage from the power supply device 45 to use the FPGA 17.
  • a plurality of voltages can be generated based on the power supply control signal from.
  • the FPGA 17 can generate a power control signal corresponding to the type of the connected CCD.
  • the information storage unit 18 stores power supply control information corresponding to the type of CCD.
  • the FPGA 17 reads the corresponding power control information from the information storage unit 18 based on the CCD detection signal, generates a power control signal based on the read power control information, and sets the voltage corresponding to the CCD type to the CCD type. It is generated in the sequence according to.
  • the power supply unit 13 a supplies the generated voltage to the CCD 2 and also supplies it to the power supply monitoring unit 19.
  • the power supply monitoring unit 19 converts the voltage generated by the power supply unit 13 a into a digital signal and feeds it back to the FPGA 17.
  • the power supply monitoring unit 19 detects the current supplied from the power supply unit 13 a to the scope 1, and outputs a digital value of the detection result to the FPGA 17.
  • the FPGA 17 determines whether or not the voltage specified by the power supply control signal from the power supply unit 13a is correctly generated in the specified order based on the output of the power supply monitoring unit 19. If the voltage specified by the power control signal is not generated correctly in the specified order, the FPGA 17 can control the power supply unit 13a to stop the voltage generation.
  • the FPGA 17 detects an overcurrent of the power supply current from the power supply unit 13a based on the output of the power supply monitoring unit 19, and can stop the power supply from the power supply unit 13a when the overcurrent is detected. It has become. When detecting the overcurrent, the FPGA 17 detects only the overcurrent without detecting the inrush current.
  • the drive signal from the drive unit 13 is supplied to the CCD 2 of the scope 1 via the scope cable 5.
  • the CCD 2 photoelectrically converts the optical image from the subject and sends the image pickup signal to the video processor 10 via the scope cable 5. That is, the CCD 2 receives light from the subject in each pixel, accumulates charges corresponding to the amount of incident light in each pixel, and outputs the accumulated charges as an imaging signal by a drive signal from the drive unit 13. ing.
  • the synchronization signal is superimposed on the imaging signal from the CCD 2.
  • the CCD 2 superimposes a synchronization signal on an imaging signal at a timing corresponding to an OB (optical black) portion (not shown) of the CCD 2.
  • the image pickup signal from the CCD 2 is supplied to a synchronization signal processing unit 14 and a preamplifier unit 15 in the video processor 10.
  • FIG. 3 is a block diagram showing a specific configuration of the synchronization signal processing unit 14 in FIG.
  • the imaging signal from the CCD 2 is supplied to a CDS circuit (correlated double sampling circuit) 31 of the synchronization signal processing unit 14.
  • the CDS circuit 31 removes noise included in the imaging signal and outputs it to the amplifying unit 32.
  • the amplifying unit 32 amplifies the imaging signal and outputs it to the comparator 33.
  • the comparator 33 is also supplied with a predetermined reference potential, and the comparator 33 outputs to the gate circuit 34 a timing signal indicating the period of the imaging signal at a level higher than the reference potential.
  • the synchronization signal is superimposed corresponding to the OB portion, and the level of the synchronization signal is set to be higher than the imaging signals at other pixel positions in the OB portion. Further, since the driving unit 13 uses the timing signal from the FPGA 17 to superimpose the synchronization signal on the driving signal, the FPGA 17 captures the position of the synchronization signal superimposed on the imaging signal, that is, the imaging corresponding to the OB unit. The duration of the signal can be predicted. The FPGA 17 predicts a period in which the synchronization signal is superimposed, generates a gate signal for separating the synchronization signal from the imaging signals in the vicinity of the period, and supplies the gate signal to the gate circuit 34 of the synchronization signal processing unit 14.
  • the gate circuit 34 outputs a timing signal in a period defined by the gate signal.
  • the level of the imaging signal is sufficiently low, and the synchronization signal can be separated by the comparator 33 and the gate circuit 34 by setting the reference potential below the level of the synchronization signal.
  • the latch circuit 35 outputs the timing signal from the comparator 33 as a synchronization signal at the clock timing from the PLL circuit 36.
  • the synchronization signal separated in the synchronization signal processing unit 14 is supplied to the FPGA 17.
  • the image pickup signal from the CCD 2 is also supplied to the preamplifier unit 15.
  • the preamplifier unit 15 amplifies the input image pickup signal and supplies it to the analog processing unit 16.
  • the analog processing unit 16 includes a CDS circuit, an A / D converter, and the like (not shown), removes noise from the input imaging signal, converts the noise into a digital signal, and outputs the digital signal to the FPGA 17.
  • the FPGA 17 converts the imaging signal input from the analog processing unit 16 into an R, G, B video signal, multiplexes a synchronization signal with the R, G, B video signal, and adopts LVDS (low voltage differential differential). Then, the signals are transmitted to the R, G, B signal processing units 24R, 24G, 24B of the secondary circuit 21 through the plurality of transmission paths 50.
  • FIG. 4 is a circuit diagram showing a specific configuration of each transmission line 50.
  • the FPGA 17 has three LVDS drivers 51 for R, G, and B video signals, and each of the R, G, and B signal processing units 24R, 24G, and 24B has an LVDS receiver 55.
  • Each transmission path 50 in the LVDS interface is configured as a pair of two lines that transmit data signals having opposite phases to each other.
  • a pulse transformer 53 and a termination circuit 54 are provided on these signal lines.
  • a varistor 56 is connected between one signal line connected to the LVDS driver 51 and the reference potential point 61 of the patient circuit 11, and between the other signal line and the reference potential point 61.
  • a varistor 57 is connected to.
  • a varistor 59 is connected between one signal line connected to the LVDS receiver 55 and the reference potential point 62 of the secondary circuit 21, and a varistor 58 is connected between the other signal line and the reference potential point 62. Is connected.
  • Each circuit of the patient circuit 11 is insulated from the reference potential point 61, and the patient circuit 11 is in an electrically floating state. For this reason, the static electricity accumulated in the patient circuit 11 is discharged through a portion having the lowest impedance with respect to the reference potential point 61 in the patient circuit 11. If a device is present on this discharge path, this device may be destroyed by the discharge.
  • each transmission line 50 is provided with varistors 56 and 57 between a pair of signal lines and a reference potential point 61, and between the pair of signal lines and the reference potential point 62.
  • varistors 56 and 57 are provided between a pair of signal lines and a reference potential point 61, and between the pair of signal lines and the reference potential point 62.
  • varistors 58 and 59 are provided with varistors 58 and 59. Accordingly, the static electricity accumulated in the patient circuit 11 flows to the reference potential point 62 of the secondary circuit via the varistors 56 to 59.
  • the pulse transformer unit 53 exists on the electrostatic discharge path, and the device can be prevented from being destroyed by electrostatic discharge.
  • the FPGA 17 determines whether or not the synchronization signal is normally separated in the synchronization signal processing unit 14. If the synchronization signal is normally separated, the FPGA 17 synchronizes with the synchronization signal from the synchronization signal processing unit 14. When the signal is superimposed on the video signal and is not normally separated, the synchronization signal generated based on the data stored in the information storage unit 18 is superimposed on the video signal and output.
  • the synchronization signal superimposed on the imaging signal from the CCD 2 is based on the synchronization signal output from the drive unit 13 and is superimposed on the imaging signal at a timing corresponding to the delay time based on the type of CCD and the scope cable length. Can be estimated.
  • the FPGA 17 generates a synchronization signal based on this estimation.
  • the information storage unit 18 stores delay time information based on CCD type and scope cable length information, that is, information on a position where a synchronization signal should be generated, as count number information.
  • the CPU unit 22 can read the scope information stored in the ROM 3 of the scope 1.
  • the CPU unit 22 outputs the scope information read from the ROM 3 to the FPGA 17.
  • a CCD detection signal is also input to the FPGA 17, and the FPGA 17 reads out information on a delay time corresponding to the type of the CCD and the scope cable length from the information storage unit 18 based on the scope information and the CCD detection signal.
  • the FPGA 17 can generate the synchronization signal by counting the reference CLK by the count number based on the information read from the information storage unit 18 with the timing signal generated based on the VDCLK as a reference.
  • the R, G, B signal processing units 24R, 24G, 24B of the secondary circuit 21 receive R, G, B video signals on which synchronization signals are superimposed from the FPGA 17, respectively.
  • the R, G, and B signal processing units 24R, 24G, and 24B are controlled by the CPU unit 22 to perform predetermined color signal processing on the received R, G, and B video signals, and then output to the matrix unit 25.
  • the matrix unit 25 is controlled by the CPU unit 22 to perform a predetermined matrix operation on the input R, G, B video signal to generate an R, G, B video signal and output it to the image processing unit 26. To do.
  • the image processing unit 26 is controlled by the CPU unit 22, performs ⁇ correction processing and white balance adjustment processing on the input R, G, and B video signals, respectively, and then outputs the result to the monitor 41.
  • the image processing unit 26 includes an OSD processing unit 26a, and the OSD processing unit 26a can superimpose a character in accordance with an instruction from the CPU unit 22.
  • the endoscopic image captured by the CCD 2 can be displayed on the monitor 41.
  • the FPGA 17 determines that the synchronization signal cannot be separated normally in the synchronization signal processing unit 14, the FPGA 17 supplies determination information indicating the fact to the CPU unit 22.
  • the CPU unit 22 controls the OSD processing unit 26a to display a message to that effect. It has become. For example, the CPU 22 displays a message such as “Clean the scope cable contact and reconnect it”.
  • FIG. 5 shows a synchronization signal generation process in the FPGA 17 in FIG.
  • FIG. 6 shows power control by the FPGA 17.
  • the CPU unit 22 reads the scope information stored in the ROM 3 of the scope 1.
  • the scope information is also given to the FPGA 17.
  • a CCD detection signal based on the resistance value of the detection resistor 7 is supplied to the FPGA 17.
  • the FPGA 17 outputs a CCD detection signal to the CPU unit 22.
  • the CPU unit 22 controls the clock generation unit 23 to generate CTLCLK.
  • the FPGA 17 can receive a CCD detection signal using this CTLCLK.
  • the FPGA 17 detects that a CCD that cannot be detected, cannot be driven, or is incompatible is connected based on a CCD detection signal, the FPGA 17 outputs determination information indicating that such a CCD is connected to the CPU unit 22.
  • the drive unit 13 stops the power supply to the scope 1. This determination information is stored in the error storage unit 27 by the CPU unit 22.
  • the CPU unit 22 controls the OSD processing unit 26a to display a message on the screen of the monitor 41 indicating that a non-detectable, non-driveable, or non-compatible CCD is connected.
  • the CPU unit 22 grasps the type of the CCD based on the CCD detection signal, and controls the clock generation unit 23 so as to generate a clock suitable for the CCD 2.
  • the clock generation unit 23 generates the reference CLK and supplies it to the FPGA 17.
  • the clock generator 23 generates VDCLK and outputs it to the FPGA 17.
  • the FPGA 17 generates a timing signal including various clocks according to the reference clock and supplies the timing signal to the driving unit 13 and also supplies VDCLK to the driving unit 13.
  • the drive unit 13 generates a drive signal using the input timing signal and superimposes a synchronization signal based on VDCLK on the drive signal.
  • a drive signal from the drive unit 13 is supplied to the CCD 2 of the scope 1 via the scope cable 5.
  • the FPGA 17 reads power supply control information corresponding to the type of CCD from the information storage unit 18 and generates a power supply control signal based on the power supply control information to control the power supply unit 13a.
  • a CCDA or a CCDB can be connected to the video processor 10, the power is supplied in the order of voltages A, B, and C for the CCDA, and the voltages A, C, and B are supplied in the order of the CCDB. It shall operate normally by supplying power.
  • the FPGA 17 reads power supply control information based on the CCD detection signal from the information storage unit 18 in step S11 of FIG. For example, it is assumed that the CCD detection signal indicates that CCDA is connected as CCD2. In this case, the FPGA 17 shifts the processing from step S12 to step S13, and generates the voltage A in the power supply unit 13a by the power supply control signal.
  • the power supply unit 13 a generates a voltage A, and the voltage A is converted into a digital signal by the power supply monitoring unit 19 and fed back to the FPGA 17.
  • the FPGA 17 determines whether or not the voltage based on the output of the information storage unit 18 is within the range (within the threshold value) of the lower limit threshold voltage of the voltage A (step S14). For example, 80% of the rated voltage is set as the lower threshold.
  • step S15 When the FPGA 17 determines that the voltage A has reached the lower limit threshold value, the FPGA 17 generates a power supply control signal for generating the voltage B in the next step S15. Thereafter, similarly, when the voltage B reaches the lower limit threshold of the voltage B, the voltage C is generated (steps S16 and S17), and when the voltage C reaches the lower limit threshold (step S18), the process proceeds to step S19. To do. In step S19, it is determined whether or not all the voltages are within the upper threshold voltage range (within the threshold value). For example, a voltage that is 120% of the rated voltage is set as the upper threshold.
  • the FPGA 17 sequentially generates the voltages A, C, and B by the processing of steps S23 to S28. If it is indicated in steps S19 and 29 that all the voltages to be supplied to each CCD are not voltages between the lower limit threshold and the upper limit threshold, the process proceeds to step S30, and the power supply is stopped.
  • step S30 when each voltage is generated, if the lower limit threshold is not reached even after a predetermined time has elapsed, the process may be shifted to step S30 to stop the power supply.
  • the FPGA 17 can sequentially generate a voltage corresponding to the type of the CCD in a sequence corresponding to the type of the CCD. Further, the FPGA 17 can stop the voltage supply at the time of abnormality by monitoring the generated voltage.
  • the FPGA 17 detects an overcurrent of the power supply current from the power supply unit 13a.
  • the power supply monitoring unit 19 samples the power supply current and converts it into a digital value.
  • the FPGA 17 determines whether or not an overcurrent has occurred based on the average value of the current values obtained by sampling the power supply monitoring unit 19 two or more times.
  • the power supply monitoring unit 19 A / D converts the power supply current supplied from the power supply unit 13a to the CCD 2 with a sampling period of 200 Hz. Then, the FPGA 17 obtains a moving average of the latest four sampled current values for each sampling of the power supply monitoring unit 19. When the sampled current value is 150 mA or more, the moving average is calculated as the current upper limit value 150 mA. When the calculated moving average value exceeds the detection threshold value of 130 mA for three consecutive times, it is determined that an overcurrent has flowed. If the FPGA 17 determines that an overcurrent has flowed, the FPGA 17 stops the power supply of the power supply unit 13a, for example.
  • sampling period the number of samples used in the moving average, the current upper limit value, and the detection threshold are not limited to the values shown here.
  • the CCD 2 photoelectrically converts the subject optical image and outputs the charges accumulated in each pixel as an imaging signal in accordance with the drive signal from the drive unit 13.
  • the CCD 2 outputs an imaging signal on which a synchronization signal is superimposed at a timing corresponding to the OB portion.
  • the imaging signal from the CCD 2 is supplied to the synchronization signal processing unit 14 and the preamplifier unit 15 of the video processor 10 via the scope cable 5.
  • the preamplifier unit 15 amplifies the input imaging signal, and the analog processing unit 16 performs CDS processing and A / D conversion processing on the amplified imaging signal, and outputs the digital imaging signal to the FPGA 17.
  • the FPGA 17 reads delay time information from the information storage unit 18 based on the CCD detection signal and the scope information.
  • the FPGA 17 generates a gate signal based on the read information and outputs the gate signal to the synchronization signal processing unit 14.
  • the synchronization signal processing unit 14 compares the input imaging signal with a reference potential to generate a timing signal, and outputs the timing signal in the gate period defined by the gate signal as a synchronization signal. This synchronization signal is supplied to the FPGA 17.
  • the FPGA 17 determines whether or not the synchronization signal from the synchronization signal processing unit 14 is normal. For example, the FPGA 17 sets a predetermined determination period, and determines whether or not the synchronization signal is normal depending on how many times the synchronization signal processing unit 14 can separate the synchronization signal within the determination period. The FPGA 17 determines in step S1 of FIG. 5 whether or not it is a cutout determination OK indicating that the synchronization signal processing unit 14 has separated the synchronization signal. Only when the cut-out determination is OK, the variable OKCNT is incremented (step S2).
  • the FPGA 17 determines whether or not the determination period has ended in step S3. Steps S1 to S3 are repeated, and it is detected how many times the cutout determination is OK during the determination period. In the next step S4, the FPGA 17 determines whether or not the variable OKCNT is equal to or greater than the design value (step S4). If the variable OKCNT is equal to or greater than the design value, the FPGA 17 determines that the synchronization signal has been successfully separated in the next step S5, and in step S6, adopts the separated synchronization signal and performs the subsequent processing.
  • the FPGA 17 determines that the synchronization signal separation has failed in the next step S7, and reads the delay time information from the information storage unit 18 in step S8.
  • the FPGA 17 generates a synchronization signal by counting the reference CLK based on the delay time information with reference to VDCLK (step S9). Thereafter, the FPGA 17 adopts the generated synchronization signal and performs subsequent processing.
  • the FPGA 17 converts the imaging signal into an R, G, B video signal, multiplexes the separated or generated synchronization signal into the R, G, B video signal, and uses the LVDS to generate an R, G, B signal processing unit 24R, Transmit to 24G and 24B.
  • the R, G, B signal processing units 24R, 24G, 24B perform signal processing on the R, G, B video signals
  • the matrix unit 25 performs matrix processing on the outputs of the R, G, B signal processing units 24R, 24G, 24B. I do.
  • the R, G, B video signals from the matrix unit 25 are supplied to the monitor 41 after being subjected to ⁇ correction processing and white balance adjustment processing by the image processing unit 26.
  • image display based on the image captured by the CCD 2 is performed on the display screen of the monitor 41.
  • the FPGA 17 outputs determination information indicating the fact to the CPU unit 22.
  • the CPU unit 22 controls the OSD processing unit 26a to superimpose a display indicating that on the endoscopic image. For example, on the screen of the monitor 41, a display indicating that the synchronization signal is not normally separated, a display indicating a cable contact failure, or the like can be displayed.
  • the process of FIG. 5 is performed in a predetermined period immediately after power-on, but the process of FIG. 5 may be performed at a predetermined timing other than immediately after power-on.
  • the synchronization signal when it is determined that the synchronization signal cannot be normally separated, the synchronization signal is generated by reading the delay time information from the information storage unit. It is used for processing. As a result, even if the transmission path characteristics of the scope are poor, change with time, poor contact, etc., and the synchronization signal cannot be separated, the synchronization signal is generated to enable video processing, and the captured image is displayed. can do.
  • the information storage unit stores data corresponding to the type of CCD and the type of scope cable, and whatever type of scope and CCD is connected to the video processor, It is possible to generate the synchronization signal with certainty.
  • the CCD outputs an imaging signal on which the synchronization signal is superimposed and the synchronization signal processing unit separates the synchronization signal superimposed on the imaging signal.
  • the CCD includes the synchronization signal.
  • the present invention is similarly applicable to an example in which an imaging signal is output and a synchronization signal included in the imaging signal is detected by a synchronization signal processing unit.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Astronomy & Astrophysics (AREA)
  • General Physics & Mathematics (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Synchronizing For Television (AREA)

Abstract

 内視鏡画像処理装置は、内視鏡から該内視鏡に関する情報である内視鏡情報を読み出す内視鏡情報読み出し部と、前記内視鏡から該内視鏡に設けられた撮像素子が出力する同期信号を含む撮像信号が与えられ、前記同期信号の検出処理を行い、前記同期信号を検出できた場合には、検出した前記同期信号を出力し、前記同期信号を検出できなかった場合には、前記内視鏡情報読み出し部が読み出した前記内視鏡情報に基づいて同期信号を生成して出力する同期信号検出部と、前記同期信号検出部から出力される前記同期信号と前記内視鏡の前記撮像素子から出力される前記撮像信号とに基づき、画像信号を生成する画像信号生成部と、を備える。

Description

内視鏡画像処理装置及び内視鏡システム
 本発明は、撮像素子からの内視鏡画像を処理する内視鏡画像処理装置及び内視鏡システムに関する。
 近年、内視鏡は医療分野における診断や処置具を用いた治療等に広く用いられるようになった。電荷結合素子(CCD)等の撮像素子を内視鏡挿入部の先端に設け、CCDを用いて撮像した観察像をビデオプロセッサによってテレビモニタに映出する電子内視鏡装置が普及している。
 ビデオプロセッサには、駆動回路が設けられ、この駆動回路からの駆動信号を内視鏡先端のCCDに伝送して、CCDを駆動するようになっている。このような駆動回路において、駆動信号に同期信号(VD)を重畳してCCDに供給するものがある。CCDはこの同期信号に同期して、各画素毎の映像信号を出力する。
 CCDからの映像信号には、同期信号(VD)が重畳される。ビデオプロセッサは、CCDからの映像信号に含まれる同期信号を抽出し、以後の映像処理に用いるようになっている。なお、日本国特開平4-156072号公報においては、CCDからビデオプロセッサまでの伝送路遅延に拘わらず、位相ずれを補償したヘッド分離型カメラが開示されている。
 ビデオプロセッサには、CCDとビデオプロセッサとを接続する伝送路やCCDの種別等が異なる種々の内視鏡が接続可能である。このような種々の内視鏡においては、伝送路特性等が異なり、信号減衰量が比較的大きいものもある。また、CCDの出力特性や伝送路における経時変化の程度も異なり、内視鏡から十分なレベルの映像信号が得られないこともある。更に、内視鏡とビデオプロセッサとを接続する接続部の不良等も考えられる。これらの種々の要因による信号劣化によって、ビデオプロセッサにおいてCCDからの映像信号に重畳された同期信号を検出することができないことがあるという問題があった。ビデオプロセッサにおいて、同期信号を検出することができない場合には、以後の映像処理が不能となり、内視鏡の観察画像を表示することができない等の不具合が生じる。
 本発明はかかる問題点に鑑みてなされたものであって、ビデオプロセッサに入力される信号の劣化に拘わらず、確実に同期信号を再生することができる内視鏡画像処理装置及び内視鏡システムを提供することを目的とする。
 本発明に係る内視鏡画像処理装置は、内視鏡から該内視鏡に関する情報である内視鏡情報を読み出す内視鏡情報読み出し部と、前記内視鏡から該内視鏡に設けられた撮像素子が出力する同期信号を含む撮像信号が与えられ、前記同期信号の検出処理を行い、前記同期信号を検出できた場合には、検出した前記同期信号を出力し、前記同期信号を検出できなかった場合には、前記内視鏡情報読み出し部が読み出した前記内視鏡情報に基づいて同期信号を生成して出力する同期信号検出部と、前記同期信号検出部から出力される前記同期信号と前記内視鏡の前記撮像素子から出力される前記撮像信号とに基づき、画像信号を生成する画像信号生成部と、を備える。
 また、本発明に係る内視鏡システムは、内視鏡と、内視鏡に接続されるビデオプロセッサとを備えた内視鏡システムであって、被写体を撮像し、同期信号を含む撮像信号を出力する撮像素子と、前記内視鏡に関する情報である内視鏡情報を記憶する記憶部と、を備えた内視鏡と、前記内視鏡から前記内視鏡情報を読み出す内視鏡情報読み出し部と、前記内視鏡から前記撮像素子が出力する同期信号を含む撮像信号が与えられ、前記同期信号の検出処理を行い、前記同期信号を検出できた場合には、検出した前記同期信号を出力し、前記同期信号を検出できなかった場合には、前記内視鏡情報読み出し部が読み出した前記内視鏡情報に基づいて同期信号を生成して出力する同期信号検出部と、前記同期信号検出部から出力される前記同期信号と前記内視鏡の前記撮像素子から出力される前記撮像信号とに基づき、画像信号を生成する画像信号生成部と、を備えたビデオプロセッサと、を具備する。
本発明の一実施の形態に係る内視鏡画像処理装置を示すブロック図。 内視鏡画像処理装置が組み込まれた内視鏡システムを示す説明図。 図1中の同期信号処理部14の具体的な構成を示すブロック図。 各伝送路50の具体的な構成を示す回路図。 実施の形態の動作を説明するためのフローチャート。 実施の形態の動作を説明するためのフローチャート。
 以下、図面を参照して本発明の実施の形態について詳細に説明する。
 図1は本発明の一実施の形態に係る内視鏡画像処理装置を示すブロック図である。また、図2は内視鏡画像処理装置が組み込まれた内視鏡システムを示す説明図である。
 図2に示す内視鏡システムは、スコープ1とビデオプロセッサ10とがスコープケーブル5によって接続されて構成される。内視鏡であるスコープ1は、可撓性を有する細長の挿入部8を有し、挿入部8の先端側には固体撮像素子としてのCCD2が内蔵されている。また、スコープ1には、スコープ1に関する情報、例えばスコープケーブル長に関する情報等のスコープ情報を記述したROM3が設けられている。なお、ROM3に記憶されるスコープ情報は、スコープ1及びスコープケーブル5のケーブル長の情報を含む。
 スコープ1とスコープケーブル5とはコネクタ4によって着脱自在に接続され、スコープケーブル5とビデオプロセッサ10とはコネクタ6,12によって着脱自在に接続される。
 図1に示すように、ビデオプロセッサ10は、相互に絶縁された患者回路11と2次回路21とによって構成される。患者回路11には、駆動部13が設けられており、駆動部13は後述するFPGA(フィールドプログラマブルゲートアレイ)17からのタイミング信号等に基づいて、CCD2を駆動するための駆動信号を発生する。また、駆動部13によってスコープ1の電源供給も行われる。
 駆動部13は、スコープ1に内蔵されているCCD2の種類に応じた駆動信号を発生する必要があり、ビデオプロセッサ10側でCCD2の種類を把握する必要がある。スコープ1には、このようなCCDの種類を検知するための検知抵抗7が設けられている。スコープケーブル5のコネクタ6とビデオプロセッサ10のコネクタ12とを接続することにより、検知抵抗7の抵抗値に基づくCCD検知信号がFPGA17に供給されるようになっている。FPGA17はCCD検知信号を2次回路21のCPU部22に供給する。
 CPU部22は、クロック生成部23を制御して、CCD検知信号に応じた周波数の基準クロック(基準CLK)を生成させる。また、クロック生成部23は、FPGA17にCCD検知をさせるためのコントロールクロック(以下、CTLCLKと略す)及び同期信号を発生させるための同期クロック(以下、VDCLKと略す)を発生して、FPGA17に供給する。
 FPGA17は、クロック生成部23からの基準CLKを用いて、CCD2の駆動に必要な各種クロックを含むタイミング信号を生成して駆動部13に与える。また、FPGA17は、クロック生成部23からのVDCLKを駆動部13に与える。駆動部13は、FPGA17からのタイミング信号を用いて、CCD2の駆動信号を生成すると共に、この駆動信号に同期信号(VD)を重畳して出力する。
 なお、FPGA17は、CCD検知信号によって、駆動することができないCCDが接続されていることを検出した場合には、駆動部13へのタイミング信号の供給を停止すると共に、駆動部13からスコープ1への電源供給を停止させるようになっている。更に、FPGA17は、駆動することができないCCDが接続されていることを示す判定情報をCPU部22に出力するようになっている。CPU部22は、判定情報をエラー記憶部27に記憶させることができる。
 CCD2を駆動するためには、例えば、5,7,10,13,15V等の複数の電圧が必要であり、駆動部13の電源部13aは、電源装置45からの電源電圧を用いて、FPGA17からの電源制御信号に基づく複数の電圧を発生することができるようになっている。
 この場合において、FPGA17は、接続されたCCDの種類に応じた電源制御信号を発生することができるようになっている。本実施の形態においては、情報記憶部18は、CCDの種類に応じた電源制御情報を記憶している。FPGA17は、CCD検知信号に基づいて情報記憶部18から対応する電源制御情報を読み出して、読み出した電源制御情報に基づく電源制御信号を発生して、CCDの種類に応じた電圧を、CCDの種類に応じたシーケンスで発生させるようになっている。
 また、電源部13aは、発生した電圧をCCD2に供給すると共に、電源監視部19に与える。電源監視部19は、電源部13aが発生した電圧をデジタル信号に変換してFPGA17にフィードバックする。また、電源監視部19は、電源部13aからスコープ1に供給される電流を検出しており、検出結果のデジタル値をFPGA17に出力するようになっている。FPGA17は、電源監視部19の出力によって、電源部13aから電源制御信号によって指定した電圧が指定した順序で正しく発生しているか否かを判定する。電源制御信号によって指定した電圧が指定した順序で正しく発生していない場合には、FPGA17は、電源部13aを制御して、電圧の発生を停止させることができるようになっている。
 また、FPGA17は、電源監視部19の出力によって、電源部13aからの電源電流の過電流を検出し、過電流を検出した場合には電源部13aからの電源供給を停止させることができるようになっている。過電流の検出に際して、FPGA17は、突入電流を検知することなく過電流のみを検知するようになっている。
 駆動部13からの駆動信号は、スコープケーブル5を介してスコープ1のCCD2に供給される。この駆動信号に基づいて、CCD2は被写体からの光学像を光電変換し、撮像信号をスコープケーブル5を介してビデオプロセッサ10に送出する。即ち、CCD2は、被写体からの光が各画素に入射し、各画素に入射光量に応じた電荷を蓄積し、駆動部13からの駆動信号によって、蓄積した電荷を撮像信号として出力するようになっている。
 CCD2からの撮像信号には、同期信号が重畳されている。CCD2は、例えば、同期信号をCCD2の図示しないOB(オプティカルブラック)部に対応するタイミングの撮像信号に重畳するようになっている。CCD2からの撮像信号は、ビデオプロセッサ10内の同期信号処理部14及びプリアンプ部15に供給される。
 図3は図1中の同期信号処理部14の具体的な構成を示すブロック図である。CCD2からの撮像信号は、同期信号処理部14のCDS回路(相関2重サンプリング回路)31に供給される。CDS回路31は、撮像信号に含まれるノイズを除去して、増幅部32に出力する。増幅部32は撮像信号を増幅して比較器33に出力する。比較器33には所定の基準電位も供給されており、比較器33は基準電位よりも高いレベルの撮像信号の期間を示すタイミング信号をゲート回路34に出力する。
 同期信号はOB部に対応して重畳されており、同期信号のレベルは、OB部内の他の画素位置の撮像信号よりも高いレベルとなるように設定されている。また、駆動部13において、FPGA17からのタイミング信号を用いて駆動信号に同期信号を重畳させていることから、FPGA17は、撮像信号に重畳される同期信号の位置、即ち、OB部に対応する撮像信号の期間を予想することができる。FPGA17は、同期信号が重畳される期間を予想して、その期間近傍の撮像信号について同期信号を分離するためのゲート信号を発生して同期信号処理部14のゲート回路34に与えている。ゲート回路34は、ゲート信号によって規定される期間におけるタイミング信号を出力する。ゲート信号によって規定される期間においては撮像信号のレベルは十分に低く、基準電位を同期信号のレベル以下に設定することにより、比較器33及びゲート回路34によって同期信号を分離することができる。
 ラッチ回路35は、比較器33からのタイミング信号をPLL回路36からのクロックタイミングで、同期信号として出力する。同期信号処理部14において分離された同期信号はFPGA17に供給される。
 一方、CCD2からの撮像信号はプリアンプ部15にも供給される。プリアンプ部15は、入力された撮像信号を増幅してアナログ処理部16に供給する。アナログ処理部16は、図示しないCDS回路及びA/D変換器等を有しており、入力された撮像信号のノイズを除去した後、デジタル信号に変換してFPGA17に出力する。
 FPGA17は、アナログ処理部16から入力された撮像信号をR,G,B映像信号に変換すると共に、R,G,B映像信号に同期信号を多重化して、LVDS(low voltage differential signaling)を採用して、複数の伝送路50を介して2次回路21のR,G,B信号処理部24R,24G,24Bに送信する。
 図4は各伝送路50の具体的な構成を示す回路図である。FPGA17には、R,G,B映像信号用の3系統のLVDSドライバ51を有しており、R,G,B信号処理部24R,24G,24Bは、夫々LVDSレシーバ55を有している。
 LVDSインターフェースにおける各伝送路50は、互いに逆位相のデータ信号をそれぞれ伝送する2本のラインを1対(ペア)として構成されている。これらの信号ライン上には、パルストランス部53及び終端回路54が設けられる。
 本実施の形態においては、LVDSドライバ51に接続された一方の信号ラインと患者回路11の基準電位点61との間にはバリスタ56が接続され、他方の信号ラインと基準電位点61との間にはバリスタ57が接続される。また、LVDSレシーバ55に接続された一方の信号ラインと2次回路21の基準電位点62との間にはバリスタ59が接続され、他方の信号ラインと基準電位点62との間にはバリスタ58が接続される。
 患者回路11の各回路は基準電位点61に対して絶縁されており、患者回路11は電気的にフローティング状態である。このため、患者回路11に蓄積された静電気は、患者回路11内で基準電位点61に対して最もインピーダンスが低い部分を介して放電される。この放電路上にデバイスが存在する場合には、このデバイスが放電によって破壊される虞がある。
 しかし、本実施の形態においては、各伝送路50において、1対の信号ラインと基準電位点61との間にバリスタ56,57が設けられ、1対の信号ラインと基準電位点62との間にバリスタ58,59が設けられる。従って、患者回路11に蓄積された静電気は、バリスタ56~59を介して2次回路の基準電位点62に流れる。
 即ち、本実施の形態においては、静電気の放電路上には、パルストランス部53しかデバイスは存在せず、静電気の放電によってデバイスが破壊されることを防止することができる。
 本実施の形態においては、FPGA17は、同期信号処理部14において正常に同期信号が分離されたか否かを判断し、正常に同期信号が分離された場合には、同期信号処理部14からの同期信号を映像信号に重畳し、正常に分離されない場合には、情報記憶部18に記憶されたデータに基づいて生成した同期信号を映像信号に重畳して出力するようになっている。
 CCD2からの撮像信号に重畳される同期信号は、駆動部13が出力した同期信号に基づいており、CCDの種類及びスコープケーブル長に基づく遅延時間に応じたタイミングで撮像信号に重畳されているものと推定することができる。FPGA17はこの推定に基づいて、同期信号を生成する。
 本実施の形態においては、情報記憶部18は、CCDの種類及びスコープケーブル長の情報に基づく遅延時間の情報、即ち、同期信号を発生すべき位置の情報をカウント数の情報として記憶する。
 スコープ1をスコープケーブル5を介してビデオプロセッサ10に接続することにより、CPU部22は、スコープ1のROM3に記憶されたスコープ情報を読み出すことができるようになっている。CPU部22はROM3から読み出したスコープ情報をFPGA17に出力する。また、FPGA17には、CCD検知信号も入力されており、FPGA17は、スコープ情報及びCCD検知信号に基づいて、CCDの種類及びスコープケーブル長に応じた遅延時間の情報を情報記憶部18から読み出す。FPGA17は、VDCLKに基づいて発生したタイミング信号を基準にして、情報記憶部18から読み出した情報に基づくカウント数だけ基準CLKをカウントすることで、同期信号を発生させることができる。
 2次回路21のR,G,B信号処理部24R,24G,24Bは、夫々FPGA17から同期信号が重畳されたR,G,B映像信号を受信する。R,G,B信号処理部24R,24G,24Bは、CPU部22により制御されて、受信したR,G,B映像信号に所定の色信号処理を施した後、マトリクス部25に出力する。マトリクス部25は、CPU部22により制御されて、入力されたR,G,B映像信号に対して所定のマトリクス演算を施してR,G,B映像信号を生成し、画像処理部26に出力する。画像処理部26は、CPU部22により制御されて、入力されたR,G,B映像信号に、夫々γ補正処理及びホワイトバランス調整処理を施した後、モニタ41に出力する。また、画像処理部26はOSD処理部26aを備えており、OSD処理部26aは、CPU部22からの指示に応じたキャラクタをスーパーインポーズさせることができるようになっている。
 こうして、モニタ41上において、CCD2によって撮像された内視鏡像を表示することができる。
 なお、FPGA17は、同期信号処理部14において正常に同期信号を分離することができなかったと判定した場合には、そのことを示す判定情報をCPU部22に供給するようになっている。CPU部22は、判定情報によって同期信号処理部14において正常に同期信号を分離することができなかったことが示されると、OSD処理部26aを制御して、その旨を示すメッセージを表示させるようになっている。例えば、CPU部22は、「スコープケーブル接点の清掃を行い、再度接続してください。」等のメッセージを表示させる。
 次に、このように構成された実施の形態の動作について図5及び図6のフローチャートを参照して説明する。図5は図1中のFPGA17における同期信号生成処理を示している。また、図6はFPGA17による電源制御を示している。
 スコープケーブル5のコネクタ4をスコープ1に接続し、コネクタ6をビデオプロセッサ10のコネクタ12に接続する。これにより、CPU部22はスコープ1のROM3に記憶されたスコープ情報を読み出す。スコープ情報は、FPGA17にも与えられる。また、検知抵抗7の抵抗値に基づくCCD検知信号がFPGA17に供給される。FPGA17はCCD検知信号をCPU部22に出力する。
 CPU部22は、クロック生成部23を制御してCTLCLKを発生させている。FPGA17は、このCTLCLKを用いてCCD検知信号の受信が可能である。FPGA17は、CCD検知信号によって検知不能、駆動不能、非対応のCCDが接続されたことを検出した場合には、CPU部22にこのようなCCDが接続されていることを示す判定情報を出力すると共に、駆動部13にスコープ1への電源供給を停止させる。なお、この判定情報は、CPU部22によってエラー記憶部27に記憶される。また、CPU部22は、OSD処理部26aを制御して、モニタ41の画面上に、検知不能、駆動不能、非対応のCCDが接続されたことを示すメッセージを表示させる。
 これにより、非対応のCCDが接続されていることや、スコープの故障等を確実にユーザに告知することができる。また、スコープへの電源供給を停止させることで、スコープの破壊を防止することができる可能性もある。また、判定情報をエラー記憶部27に記憶させることで、迅速な修理等を可能にすることもできる。
 駆動可能なCCDが接続されている場合には、CPU部22は、CCD検知信号によってCCDの種類を把握し、CCD2に適したクロックを生成させるようにクロック生成部23を制御する。これにより、クロック生成部23は、基準CLKを発生してFPGA17に供給する。また、クロック生成部23はVDCLKを発生して、FPGA17に出力する。
 FPGA17は、基準クロックに応じて各種クロックを含むタイミング信号を発生して駆動部13に供給すると共に、VDCLKを駆動部13に供給する。駆動部13は、入力されたタイミング信号を用いて駆動信号を生成すると共に、駆動信号にVDCLKに基づく同期信号を重畳する。駆動部13からの駆動信号は、スコープケーブル5を介してスコープ1のCCD2に供給される。
 また、FPGA17は、情報記憶部18からCCDの種類に応じた電源制御情報を読み出しており、この電源制御情報に基づく電源制御信号を発生して電源部13aを制御する。例えば、いま、ビデオプロセッサ10にCCDA又はCCDBが接続可能であるものとし、CCDAについては、電圧A,B,Cの順で電源供給を行い、CCDBについては、電圧A,C,Bの順で電源供給を行うことによって正常に動作するものとする。
 FPGA17は図6のステップS11において、CCD検知信号に基づく電源制御情報を情報記憶部18から読み出す。例えば、CCD検知信号によってCCD2としてCCDAが接続されていることが示されたものとする。この場合には、FPGA17は、ステップS12から処理をステップS13に移行して、電源制御信号によって電源部13aに電圧Aを発生させる。電源部13aは電圧Aを発生すると共に、この電圧Aは電源監視部19によってデジタル信号に変換されてFPGA17にフィードバックされる。FPGA17は、情報記憶部18の出力に基づく電圧が、電圧Aの下限閾値電圧の範囲内(閾値以内)になっているか否かを判定する(ステップS14)。例えば、下限閾値としては、定格電圧の80%の電圧が設定される。
 FPGA17は、電圧Aが下限閾値に到達したと判断すると、次のステップS15において、電圧Bを発生させるための電源制御信号を発生する。以後、同様に、電圧Bが、電圧Bの下限閾値に到達することによって電圧Cが発生し(ステップS16,S17)、電圧Cが下限閾値に到達することによって(ステップS18)、ステップS19に移行する。ステップS19では、全電圧が上限閾値電圧の範囲内(閾値以内)になっているか否かが判定される。例えば、上限閾値としては、定格電圧の120%の電圧が設定される。
 同様に、CCD検知信号によってCCD2としてCCDBが接続されていることが示された場合には、FPGA17は、ステップS23~S28の処理によって、電圧A,C,Bを順次発生させる。ステップS19,29において、各CCDに供給されるべき全ての電圧が下限閾値と上限閾値との間の電圧でないことが示された場合には、処理をステップS30に移行して、電源供給を停止させる。
 なお、図6において、各電圧の発生時に、所定の時間以上経過しても下限閾値に到達しない場合には、処理をステップS30に移行して電源供給を停止させてもよい。
 このように、本実施の形態においては、FPGA17において、CCDの種類に応じた電圧をCCDの種類に応じたシーケンスで順次発生させることができる。また、FPGA17は、発生した電圧をモニタすることで、異常時における電圧供給を停止させることができる。
 また、FPGA17は、電源部13aからの電源電流の過電流も検出するようになっている。電源監視部19は、電源電流をサンプリングしてデジタル値に変換する。FPGA17は、電源監視部19の2回以上のサンプリングによって得られた電流値の平均値に基づいて過電流が発生したか否かを判定する。
 例えば、電源監視部19は、電源部13aからCCD2へ供給される電源電流を、200Hzのサンプリング周期でA/D変換する。そして、FPGA17は、電源監視部19のサンプリング毎に、直近の4個のサンプリングされた電流値の移動平均を求める。サンプルされた電流値が150mA以上の場合、電流上限値150mAとして、移動平均を算出する。算出された移動平均値が、検出閾値である130mAを、3回連続で超えた場合、過電流が流れたと判定する。FPGA17は、過電流が流れたと判定した場合には、例えば電源部13aの電源供給を停止させる。
 なお、サンプリング周期、移動平均で使用するサンプル数、電流上限値、検出閾値は、ここで示した数値に限らない。
 電源が正常に供給されると、CCD2は、被写体光学像を光電変換し、駆動部13からの駆動信号に従って、各画素の蓄積された電荷を撮像信号として出力する。この場合には、CCD2はOB部に対応するタイミングで同期信号を重畳した撮像信号を出力する。CCD2からの撮像信号は、スコープケーブル5を介してビデオプロセッサ10の同期信号処理部14及びプリアンプ部15に供給される。
 プリアンプ部15は入力された撮像信号を増幅し、アナログ処理部16は増幅された撮像信号にCDS処理及びA/D変換処理を施して、デジタル撮像信号をFPGA17に出力する。
 一方、FPGA17は、CCD検知信号及びスコープ情報に基づいて、情報記憶部18から遅延時間の情報を読み出している。FPGA17は、読み出した情報に基づいて、ゲート信号を生成して同期信号処理部14に出力する。
 同期信号処理部14は、入力された撮像信号を基準電位と比較してタイミング信号を発生し、ゲート信号によって規定されるゲート期間におけるタイミング信号を同期信号として出力する。この同期信号はFPGA17に供給される。
 本実施の形態においては、FPGA17は、同期信号処理部14からの同期信号が正常であるか否かを判定する。例えば、FPGA17は、所定の判定期間を設定し、この判定期間内に同期信号処理部14が同期信号を何回分離することができたかによって、同期信号が正常であるか否かを判定する。FPGA17は、図5のステップS1において、同期信号処理部14において同期信号を分離することができたことを示す切出し判定OKであるか否かを判定する。切出し判定がOKの場合にのみ、変数OKCNTをインクリメント(ステップS2)する。
 FPGA17は、ステップS3において、判定期間が終了したか否かを判定する。ステップS1~S3が繰り返されて、判定期間中に何回切出し判定がOKとなったかが検出される。次の、ステップS4において、FPGA17は、変数OKCNTが設計値以上となったか否かを判定する(ステップS4)。変数OKCNTが設計値以上の場合には、FPGA17は、次のステップS5において同期信号の分離に成功したものと判断し、ステップS6において、分離した同期信号を採用して、以後の処理を行う。
 一方、変数OKCNTが設計値よりも小さい場合には、FPGA17は、次のステップS7において同期信号の分離に失敗したものと判断し、ステップS8において、情報記憶部18から遅延時間の情報を読み出す。FPGA17は、VDCLKを基準に、遅延時間の情報に基づいて基準CLKをカウントすることで、同期信号を生成する(ステップS9)。以後、FPGA17は、生成した同期信号を採用して、以後の処理を行う。
 このように、1回の判定ではなく、所定の判定期間中に同期分離に成功した回数が設計値に到達したか否かによって、同期信号処理部14からの同期信号が正常であるか否かを判断しており、誤検知を防止することができる。
 FPGA17は、撮像信号をR,G,B映像信号に変換すると共に、分離又は生成した同期信号をR,G,B映像信号に多重化し、LVDSを用いてR,G,B信号処理部24R,24G,24Bに送信する。R,G,B信号処理部24R,24G,24Bは、R,G,B映像信号に対する信号処理を行い、マトリクス部25はR,G,B信号処理部24R,24G,24Bの出力に対するマトリクス処理を行う。マトリクス部25からのR,G,B映像信号は、画像処理部26によってγ補正処理及びホワイトバランス調整処理等が施された後、モニタ41に供給される。こうして、モニタ41の表示画面上において、CCD2の撮像画像に基づく画像表示が行われる。
 一方、FPGA17は、同期信号処理部14において正常に同期信号が分離されなかった場合には、そのことを示す判定情報をCPU部22に出力している。CPU部22は、OSD処理部26aを制御して、その旨を示す表示を内視鏡像上にスーパーインポーズ表示させる。例えば、モニタ41の画面上に、同期信号の分離が正常に行われていないことを示す表示や、ケーブルの接触不良を指摘する表示等を表示させることができる。
 なお、本実施の形態においては、図5の処理は、電源投入直後の所定期間に行われるが、図5の処理を電源投入直後以外の所定のタイミングで実施しても良い。
 このように本実施の形態においては、同期信号が正常に分離することができないと判定された場合には、情報記憶部からの遅延時間の情報を読み出すことで、同期信号を生成して以後の処理に用いるようになっている。これにより、スコープの伝送路特性の不良や、経時変化、接触不良等が生じて、同期信号を分離することができない場合でも、同期信号を生成して映像処理を可能にし、撮像画像を映出することができる。
 また、本実施の形態においては、情報記憶部において、CCDの種類及びスコープケーブルの種類に応じたデータを保持しており、ビデオプロセッサにどのような種類のスコープ及びCCDが接続された場合でも、確実に同期信号の生成が可能である。
 なお、上記実施の形態においては、CCDは同期信号を重畳した撮像信号を出力し、同期信号処理部において撮像信号に重畳された同期信号を分離する例について説明したが、CCDが同期信号を含む撮像信号を出力し、同期信号処理部において撮像信号に含まれる同期信号を検出する例にも同様に適用可能である。

 本出願は、2010年7月12日に日本国に出願された特願2010-158302号を優先権主張の基礎として出願するものであり、上記の開示内容は、本願明細書、請求の範囲、図面に引用されたものとする。

Claims (12)

  1.  内視鏡から該内視鏡に関する情報である内視鏡情報を読み出す内視鏡情報読み出し部と、
     前記内視鏡から該内視鏡に設けられた撮像素子が出力する同期信号を含む撮像信号が与えられ、前記同期信号の検出処理を行い、前記同期信号を検出できた場合には、検出した前記同期信号を出力し、前記同期信号を検出できなかった場合には、前記内視鏡情報読み出し部が読み出した前記内視鏡情報に基づいて同期信号を生成して出力する同期信号検出部と、
     前記同期信号検出部から出力される前記同期信号と前記内視鏡の前記撮像素子から出力される前記撮像信号とに基づき、画像信号を生成する画像信号生成部と、
     を備えたことを特徴とする内視鏡画像処理装置。
  2.  前記同期信号検出部は、
     前記撮像信号に前記同期信号が重畳されている場合には、前記撮像信号から前記同期信号を分離する同期信号分離部によって前記撮像信号に重畳された同期信号を検出する
     ことを特徴とする請求項1に記載の内視鏡画像処理装置。
  3.  前記画像信号生成部は、
     前記同期信号検出部において、前記撮像信号に含まれる前記同期信号を検出できなかった場合には、その旨を示す情報を表示する
     ことを特徴とする請求項1又は2に記載の内視鏡画像処理装置。
  4.  前記同期信号分離部は、所定の判定期間内に前記同期信号を分離可能であった回数によって前記同期信号の検出に成功したか否かを判定する
     ことを特徴とする請求項2に記載の内視鏡画像処理装置。
  5.  前記撮像素子を駆動するための電源及び駆動信号を出力する撮像素子駆動部と、
     前記内視鏡から前記撮像素子に関する情報である撮像素子情報を読み出す撮像素子情報読み出し部と、
     前記撮像素子駆動部において駆動可能な撮像素子についての撮像素子情報を前記撮像素子情報読み出し手段が読み出すことができない場合には、前記撮像素子駆動部を制御して前記撮像素子への電源及び駆動信号の出力を停止させる制御部と、
     を備えたことを特徴とする請求項1乃至4のいずれか1つに記載の内視鏡画像処理装置。
  6.  前記画像信号生成部は、
     前記撮像素子駆動部において駆動可能な撮像素子についての撮像素子情報を前記撮像素子情報読み出し手段が読み出すことができない場合には、その旨を示す情報を表示する
     ことを特徴とする請求項5に記載の内視鏡画像処理装置。
  7.  内視鏡と、内視鏡に接続されるビデオプロセッサとを備えた内視鏡システムであって、
     被写体を撮像し、同期信号を含む撮像信号を出力する撮像素子と、
     前記内視鏡に関する情報である内視鏡情報を記憶する記憶部と、
     を備えた内視鏡と、
     前記内視鏡から前記内視鏡情報を読み出す内視鏡情報読み出し部と、
     前記内視鏡から前記撮像素子が出力する同期信号を含む撮像信号が与えられ、前記同期信号の検出処理を行い、前記同期信号を検出できた場合には、検出した前記同期信号を出力し、前記同期信号を検出できなかった場合には、前記内視鏡情報読み出し部が読み出した前記内視鏡情報に基づいて同期信号を生成して出力する同期信号検出部と、
     前記同期信号検出部から出力される前記同期信号と前記内視鏡の前記撮像素子から出力される前記撮像信号とに基づき、画像信号を生成する画像信号生成部と、
     を備えたビデオプロセッサと、
     を具備したことを特徴とする内視鏡システム。
  8.  前記撮像素子は、前記同期信号を前記撮像信号に重畳して出力し、
     前記同期信号検出部は、
     前記撮像信号から前記同期信号を分離する同期信号分離部によって前記撮像信号に重畳された同期信号を検出する
     ことを特徴とする請求項7に記載の内視鏡システム。
  9.  前記画像信号生成部は、
     前記同期信号検出部において、前記撮像信号に含まれる前記同期信号を検出できなかった場合には、その旨を示す情報を表示する
     ことを特徴とする請求項7又は8に記載の内視鏡システム。
  10.  前記同期信号分離部は、所定の判定期間内に前記同期信号を分離可能であった回数によって前記同期信号の検出に成功したか否かを判定する
     ことを特徴とする請求項8に記載の内視鏡画像処理装置。
  11.  前記内視鏡は、前記撮像素子に関する情報である撮像素子情報を記憶する撮像素子記憶部を有し、
     前記ビデオプロセッサは、
     前記撮像素子を駆動するための電源及び駆動信号を出力する撮像素子駆動部と、
     前記内視鏡から前記撮像素子情報を読み出す撮像素子情報読み出し部と、
     前記撮像素子駆動部において駆動可能な撮像素子についての撮像素子情報を前記撮像素子情報読み出し手段が読み出すことができない場合には、前記撮像素子駆動部を制御して前記撮像素子への電源及び駆動信号の出力を停止させる制御部と、
     を備えたことを特徴とする請求項7乃至10のいずれか1つに記載の内視鏡システム。
  12.  前記画像信号生成部は、
     前記撮像素子駆動部において駆動可能な撮像素子についての撮像素子情報を前記撮像素子情報読み出し手段が読み出すことができない場合には、その旨を示す情報を表示する
     ことを特徴とする請求項11に記載の内視鏡システム。
PCT/JP2011/063696 2010-07-12 2011-06-15 内視鏡画像処理装置及び内視鏡システム WO2012008259A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2011554009A JP5037731B2 (ja) 2010-07-12 2011-06-15 内視鏡画像処理装置及び内視鏡システム
EP11806590.3A EP2520215B1 (en) 2010-07-12 2011-06-15 Endoscope image-processing device and endoscopic system
CN201180011615.9A CN102781304B (zh) 2010-07-12 2011-06-15 内窥镜图像处理装置和内窥镜系统
US13/341,250 US8449453B2 (en) 2010-07-12 2011-12-30 Endoscopic image processing apparatus and endoscope system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010-158302 2010-07-12
JP2010158302 2010-07-12

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/341,250 Continuation US8449453B2 (en) 2010-07-12 2011-12-30 Endoscopic image processing apparatus and endoscope system

Publications (1)

Publication Number Publication Date
WO2012008259A1 true WO2012008259A1 (ja) 2012-01-19

Family

ID=45469269

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/063696 WO2012008259A1 (ja) 2010-07-12 2011-06-15 内視鏡画像処理装置及び内視鏡システム

Country Status (5)

Country Link
US (1) US8449453B2 (ja)
EP (1) EP2520215B1 (ja)
JP (1) JP5037731B2 (ja)
CN (1) CN102781304B (ja)
WO (1) WO2012008259A1 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014036724A (ja) * 2012-08-13 2014-02-27 Olympus Medical Systems Corp 撮像システム
JP2014204923A (ja) * 2013-04-16 2014-10-30 Hoya株式会社 電子内視鏡および電子内視鏡システム
WO2015019903A1 (ja) * 2013-08-09 2015-02-12 オリンパスメディカルシステムズ株式会社 内視鏡装置
JP2015136414A (ja) * 2014-01-21 2015-07-30 Hoya株式会社 電子内視鏡用プロセッサおよび電子内視鏡システム
JP6013673B1 (ja) * 2015-07-06 2016-10-25 オリンパス株式会社 電源制御回路
WO2017006575A1 (ja) * 2015-07-06 2017-01-12 オリンパス株式会社 電源制御回路
JP2017064040A (ja) * 2015-09-30 2017-04-06 Hoya株式会社 内視鏡プロセッサ及び内視鏡接続システム
JPWO2016117373A1 (ja) * 2015-01-23 2017-04-27 オリンパス株式会社 医療機器および内視鏡システム
CN110572544A (zh) * 2019-09-10 2019-12-13 广东实联医疗器械有限公司 一种一体化医用内窥镜电路
WO2021235468A1 (ja) * 2020-05-19 2021-11-25 ニプロ株式会社 内視鏡システムおよび制御方法
WO2022013953A1 (ja) * 2020-07-14 2022-01-20 オリンパス株式会社 撮像システム、内視鏡および制御装置

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5868629B2 (ja) * 2011-08-02 2016-02-24 オリンパス株式会社 光源装置
WO2014017105A1 (ja) * 2012-07-26 2014-01-30 京セラ株式会社 画像監視装置、移動体、プログラム、および故障判定方法
JP6348854B2 (ja) * 2015-02-03 2018-06-27 富士フイルム株式会社 内視鏡用プロセッサ装置、内視鏡システム及び内視鏡システムの非接触給電方法
JP6654051B2 (ja) * 2016-01-15 2020-02-26 ソニー・オリンパスメディカルソリューションズ株式会社 医療用観察システム
JP6639920B2 (ja) * 2016-01-15 2020-02-05 ソニー・オリンパスメディカルソリューションズ株式会社 医療用信号処理装置、及び医療用観察システム
WO2018025430A1 (ja) * 2016-08-02 2018-02-08 オリンパス株式会社 内視鏡システムおよび信号処理装置
WO2018193519A1 (ja) * 2017-04-18 2018-10-25 オリンパス株式会社 内視鏡装置及びビデオプロセッサ
CN110891470B (zh) * 2017-05-18 2022-09-23 奥林巴斯株式会社 内窥镜系统、内窥镜以及控制装置
WO2019064681A1 (ja) * 2017-09-29 2019-04-04 オリンパス株式会社 内視鏡および内視鏡システム
JP2019150466A (ja) * 2018-03-06 2019-09-12 ソニー・オリンパスメディカルソリューションズ株式会社 医療機器
US11221660B2 (en) * 2019-01-31 2022-01-11 Hewlett Packard Enterprise Development Lp Fault detection based on comparing input current and moving average input current
CN110769207B (zh) * 2019-11-19 2022-04-01 深圳开立生物医疗科技股份有限公司 一种电子内窥镜信号传输方法、装置和设备及系统
CN114666545A (zh) * 2022-03-22 2022-06-24 重庆西山科技股份有限公司 内窥镜影像的同步传输方法、设备与介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04156072A (ja) 1990-10-19 1992-05-28 Olympus Optical Co Ltd ヘッド分離型カメラ
JP2001275954A (ja) * 2000-03-30 2001-10-09 Fuji Photo Optical Co Ltd 電子内視鏡装置
JP2008036356A (ja) * 2006-08-10 2008-02-21 Olympus Corp 電子内視鏡装置及び電子内視鏡システム
JP2010158302A (ja) 2009-01-06 2010-07-22 Kyoraku Sangyo Kk 遊技機

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4831444A (en) * 1986-11-06 1989-05-16 Olympus Optical Co., Ltd. Video camera device with separate camera head and signal processing circuit
US5585840A (en) * 1992-06-11 1996-12-17 Olympus Optical Co., Ltd. Endoscope apparatus in which image pickup means and signal control means are connected to each other by signal transmitting means
JP2790948B2 (ja) * 1992-09-25 1998-08-27 富士写真光機株式会社 電子内視鏡装置の信号処理回路
US6975351B2 (en) * 1996-04-26 2005-12-13 Canon Kabushiki Kaisha Apparatus and system for camera head determination in an image sensing system
JPH1042176A (ja) * 1996-07-25 1998-02-13 Canon Inc 撮像装置
US7355625B1 (en) * 1999-03-17 2008-04-08 Olympus Corporation Endoscopic imaging system and endoscope system
JP2001008199A (ja) * 1999-06-24 2001-01-12 Fuji Photo Optical Co Ltd 電子内視鏡装置
JP2001223684A (ja) * 2000-02-08 2001-08-17 Sony Corp 同期検出装置、受信装置およびその方法
US7248281B2 (en) * 2002-07-16 2007-07-24 Fujinon Corporation Electronic endoscope apparatus which superimposes signals on power supply
FR2857200B1 (fr) * 2003-07-01 2005-09-30 Tokendo Processeur video pour l'endoscopie
JP2004305373A (ja) * 2003-04-04 2004-11-04 Pentax Corp 電子内視鏡システム
JP4445799B2 (ja) * 2004-05-24 2010-04-07 オリンパス株式会社 被検体内導入装置および医療装置
JP4472585B2 (ja) * 2005-06-14 2010-06-02 オリンパス株式会社 送信装置および被検体内情報取得システム
JP4823618B2 (ja) * 2005-09-09 2011-11-24 オリンパスメディカルシステムズ株式会社 受信装置及び被検体内情報取得システム
JP4511454B2 (ja) * 2005-12-16 2010-07-28 オリンパスメディカルシステムズ株式会社 内視鏡用信号処理装置
JP2009136459A (ja) * 2007-12-05 2009-06-25 Hoya Corp ノイズ除去システム、内視鏡プロセッサ、および内視鏡システム
JP2011023967A (ja) * 2009-07-15 2011-02-03 Toshiba Corp ヘッド分離型カメラ装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04156072A (ja) 1990-10-19 1992-05-28 Olympus Optical Co Ltd ヘッド分離型カメラ
JP2001275954A (ja) * 2000-03-30 2001-10-09 Fuji Photo Optical Co Ltd 電子内視鏡装置
JP2008036356A (ja) * 2006-08-10 2008-02-21 Olympus Corp 電子内視鏡装置及び電子内視鏡システム
JP2010158302A (ja) 2009-01-06 2010-07-22 Kyoraku Sangyo Kk 遊技機

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2520215A4

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014036724A (ja) * 2012-08-13 2014-02-27 Olympus Medical Systems Corp 撮像システム
JP2014204923A (ja) * 2013-04-16 2014-10-30 Hoya株式会社 電子内視鏡および電子内視鏡システム
JPWO2015019903A1 (ja) * 2013-08-09 2017-03-02 オリンパス株式会社 内視鏡装置
WO2015019903A1 (ja) * 2013-08-09 2015-02-12 オリンパスメディカルシステムズ株式会社 内視鏡装置
US9610004B2 (en) 2013-08-09 2017-04-04 Olympus Corporation Endoscope apparatus with power generating section and protection circuit
JP2015136414A (ja) * 2014-01-21 2015-07-30 Hoya株式会社 電子内視鏡用プロセッサおよび電子内視鏡システム
JPWO2016117373A1 (ja) * 2015-01-23 2017-04-27 オリンパス株式会社 医療機器および内視鏡システム
WO2017006575A1 (ja) * 2015-07-06 2017-01-12 オリンパス株式会社 電源制御回路
JP6013673B1 (ja) * 2015-07-06 2016-10-25 オリンパス株式会社 電源制御回路
US9768619B2 (en) 2015-07-06 2017-09-19 Olympos Corporation Power supply control circuit
JP2017064040A (ja) * 2015-09-30 2017-04-06 Hoya株式会社 内視鏡プロセッサ及び内視鏡接続システム
CN110572544A (zh) * 2019-09-10 2019-12-13 广东实联医疗器械有限公司 一种一体化医用内窥镜电路
WO2021235468A1 (ja) * 2020-05-19 2021-11-25 ニプロ株式会社 内視鏡システムおよび制御方法
WO2022013953A1 (ja) * 2020-07-14 2022-01-20 オリンパス株式会社 撮像システム、内視鏡および制御装置

Also Published As

Publication number Publication date
JPWO2012008259A1 (ja) 2013-09-09
EP2520215A1 (en) 2012-11-07
EP2520215A4 (en) 2013-05-22
CN102781304B (zh) 2015-01-21
US20120178992A1 (en) 2012-07-12
CN102781304A (zh) 2012-11-14
US8449453B2 (en) 2013-05-28
JP5037731B2 (ja) 2012-10-03
EP2520215B1 (en) 2015-07-29

Similar Documents

Publication Publication Date Title
JP5037731B2 (ja) 内視鏡画像処理装置及び内視鏡システム
EP2094002A2 (en) Electronic communication system and endoscope system
JP5463210B2 (ja) 内視鏡システム
EP2689718B1 (en) Imaging system
JP6138406B1 (ja) 撮像装置、内視鏡および内視鏡システム
JP6087037B1 (ja) 画像データ伝送システム
US20140092216A1 (en) Image data receiving apparatus and image data transmission system
US20120293676A1 (en) Head-separated camera device
EP3138467A1 (en) Endoscope
US20200077871A1 (en) Endoscopic system
JP2011023967A (ja) ヘッド分離型カメラ装置
JP2010088656A (ja) 内視鏡用プロセッサ装置、内視鏡用プロセッサ装置の電源電圧供給方法、並びに内視鏡システム
US20060176384A1 (en) CCD breakage prevention system
JP4676027B2 (ja) ヘッド分離型カメラ装置及びデジタルビデオ信号送信方法
US10531026B2 (en) Endoscope system
JP2004048360A (ja) ヘッド分離型テレビカメラ装置
WO2016103878A1 (ja) 内視鏡
JP2006346357A (ja) 内視鏡装置
JP4656842B2 (ja) 内視鏡用コネクタ装置
JP2005103325A (ja) 電子内視鏡装置
JP2010081236A (ja) 内視鏡装置
JP2004121856A (ja) 内視鏡装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201180011615.9

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2011554009

Country of ref document: JP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11806590

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2011806590

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE