WO2004112593A1 - カプセル型内視鏡及びカプセル型内視鏡システム - Google Patents

カプセル型内視鏡及びカプセル型内視鏡システム Download PDF

Info

Publication number
WO2004112593A1
WO2004112593A1 PCT/JP2004/009267 JP2004009267W WO2004112593A1 WO 2004112593 A1 WO2004112593 A1 WO 2004112593A1 JP 2004009267 W JP2004009267 W JP 2004009267W WO 2004112593 A1 WO2004112593 A1 WO 2004112593A1
Authority
WO
WIPO (PCT)
Prior art keywords
signal processing
capsule endoscope
data
white balance
processing data
Prior art date
Application number
PCT/JP2004/009267
Other languages
English (en)
French (fr)
Inventor
Takeshi Mori
Takemitsu Honda
Seiichiro Kimoto
Toshiaki Shigemori
Hatsuo Shimizu
Original Assignee
Olympus Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corporation filed Critical Olympus Corporation
Priority to CA002530718A priority Critical patent/CA2530718C/en
Priority to KR1020057024658A priority patent/KR100757620B1/ko
Priority to JP2005507337A priority patent/JPWO2004112593A1/ja
Priority to EP04746736A priority patent/EP1637064A4/en
Priority to CN2004800175725A priority patent/CN1809309B/zh
Priority to AU2004249063A priority patent/AU2004249063B2/en
Publication of WO2004112593A1 publication Critical patent/WO2004112593A1/ja

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/041Capsule endoscopes for imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00011Operational features of endoscopes characterised by signal transmission
    • A61B1/00016Operational features of endoscopes characterised by signal transmission using wireless means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0031Implanted circuitry
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/51Housings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7232Signal processing specially adapted for physiological signals or for diagnostic purposes involving compression of the physiological signal, e.g. to extend the signal recording period
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • H04L1/004Arrangements for detecting or preventing errors in the information received by using forward error control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes

Definitions

  • the present invention relates to a capsule endoscope and a capsule endoscope system.
  • Capsule endoscopes that can be inserted into the body cavity ⁇ ⁇ from the mouth and can capture information such as the inside of the body cavity by photographing the digestive organs such as the stomach (medical swallow-type tablet endoscopes) It has been known.
  • an illumination means such as an LED, a solid-state image sensor such as a CCD or CMOS, and a power supply unit such as a battery for driving the illumination means and the solid-state image sensor are used.
  • a power supply unit such as a battery for driving the illumination means and the solid-state image sensor
  • Japanese Patent Application Laid-Open Publication No. 2000-244584 discloses a technique of a forceps endoscope equipped with a white balance function.
  • the publication describes that the capsule endoscope has an image sensor, its scanning circuit, and a signal processing circuit integrated on the same chip, and the signal processing circuit has an auto white balance function.
  • the processing such as white balance is applied to the signal processing circuit inside the capsule endoscope. In such a case, the circuit scale of the internal circuit becomes large, and there is a problem that the current consumption is increased.
  • the power supply method of the capsule endoscope As for the power supply method of the capsule endoscope, a method using a battery and a method to supply power from outside the body by radio are proposed, but in both cases, the capsule endoscope is used. The same problem occurred when processing such as white balance was performed by the signal processing circuit inside the mirror.
  • An object of the present invention is to reduce the power consumption without increasing the circuit scale of the internal circuit.
  • the present invention provides a storage unit that stores signal processing data necessary for signal processing unique to an imaging element of a capsule endoscope, and a storage unit that stores the data for signal processing. And a transmission unit for transmitting the signal processing data.
  • the present invention is characterized in that, in the capsule endoscope described above, the signal processing data is a value obtained in advance before the capsule endoscope is shipped.
  • the data for signal processing is data of a white balance coefficient used when performing white balance processing of the image sensor.
  • the data for signal processing is data of an image of the chart for color signal processing captured by the image sensor.
  • the data for signal processing is data indicating an address of a pixel defect of the imaging element.
  • the signal processing data is data indicating an offset value of a photoelectric conversion characteristic of the imaging device.
  • the transmitting unit transmits the signal processing data together with image data captured by the image sensor.
  • the transmitting unit includes at least a part of the signal processing data in each of frames that are transmission units when transmitting the image data. Transmission.
  • the signal processing data is added to a rear end side of the frame.
  • the signal processing data is added to a last end of the frame.
  • the present invention is characterized in that, in the capsule endoscope described above, the transmitting unit transmits the signal processing data together with an error correction code of the signal processing data.
  • the error correction code is obtained in advance before the capsule endoscope is shipped, and the data of the error correction code is stored in the storage unit. It is stored.
  • the present invention provides a storage unit for storing signal processing data necessary for signal processing unique to an imaging device of a capsule endoscope, and a transmission for transmitting the signal processing data stored in the storage unit.
  • a capsule endoscope system comprising: a capsule endoscope having a unit; and a receiver for receiving the signal processing data transmitted from the transmission unit. Is characterized in that the receiver performs signal processing unique to the image sensor based on the received signal processing data without performing signal processing unique to the image sensor.
  • the present invention is characterized in that, in the capsule endoscope system described above, the data for signal processing is a value obtained in advance before the capsule endoscope is shipped.
  • the self-signal processing data is data of a white balance coefficient used when performing white balance processing of the imaging device.
  • the present invention provides the forceps / ray endoscope system described above, wherein the signal processing data is data of an image obtained by capturing a chart for color signal processing by the imaging device. And
  • the data for signal processing is data indicating an address of a pixel defect of the image sensor.
  • the signal processing data is data indicating an offset value of a photoelectric conversion characteristic of the imaging device.
  • the transmission unit transmits the signal processing data together with image data captured by the image sensor.
  • the transmission unit transmits at least a part of the signal processing data in each of frames that are transmission units when transmitting the imaging data. It is characterized by doing.
  • the signal processing data is added to a rear end side of the frame.
  • the signal processing data is added to a last end of the frame.
  • the transmitting unit transmits the signal processing data together with an error correction code of the signal processing data.
  • the error correction code is obtained in advance before the capsule endoscope is shipped, and the data of the error correction code is stored in the storage unit. Is stored.
  • FIG. 1 is a side sectional view showing a capsule endoscope according to one embodiment of the present invention.
  • FIG. 2 is a block diagram showing a capsule endoscope system according to one embodiment of the present invention.
  • You. FIG. 3 is a block diagram showing a configuration of a capsule endoscope according to one embodiment of the present invention.
  • FIG. 4 is a block diagram showing a configuration of a receiver according to one embodiment of the present invention.
  • FIG. 5 is a block diagram showing a configuration of an image processing unit of the capsule endoscope according to one embodiment of the present invention.
  • FIG. 6 is a block diagram showing a configuration of an image processing unit of the receiver according to one embodiment of the present invention.
  • FIG. 1 is a side sectional view showing a capsule endoscope according to one embodiment of the present invention.
  • FIG. 2 is a block diagram showing a capsule endoscope system according to one embodiment of the present invention.
  • You. is a block diagram showing a configuration of a capsule endoscope according to
  • FIG. 7 is a flowchart showing a procedure for obtaining a white balance coefficient in the capsule endoscope according to one embodiment of the present invention.
  • FIG. 8 is a diagram showing a configuration of a transmission unit of transmission data transmitted from the force capsule endoscope according to one embodiment of the present invention.
  • FIG. 9 is a flowchart showing the operation of the capsule endoscope system according to one embodiment of the present invention.
  • FIG. 10 is a diagram showing another configuration of a transmission unit of transmission data transmitted from the force capsule endoscope according to one embodiment of the present invention.
  • FIG. 11 is a flowchart illustrating a procedure of white balance processing performed by the receiver according to the embodiment of the present invention.
  • FIG. 12 is a diagram showing still another configuration of a transmission unit of transmission data transmitted from the capsule endoscope according to one embodiment of the present invention.
  • FIG. 13 is a flowchart showing a procedure for calculating an address of a pixel defect in a capsule endoscope according to another embodiment of the present invention.
  • FIG. 14 is a diagram showing a transmission unit of transmission data including pixel defect address data in a capsenole type endoscope according to another embodiment of the present invention.
  • FIG. 15 is a diagram for explaining a method of obtaining an offset value of a photoelectric conversion characteristic of a CMOS image sensor in a turnip endoscope according to another embodiment of the present invention.
  • FIG. 16 is a diagram showing an example in which a white balance coefficient is added to the rear end of the image data.
  • FIG. 17 is a block diagram showing a configuration of an image processing unit of a force-pressed endoscope according to yet another embodiment of the present invention.
  • FIG. 18 is a block diagram showing a configuration of an image processing unit of a receiver according to still another embodiment of the present invention.
  • FIG. 19 is a waveform diagram showing an output signal from the multiplexing unit shown in FIG.
  • FIG. 20 is a waveform chart showing another example of the output signal from the multiplexing unit in FIG.
  • FIG. 21 (a) is a waveform diagram showing still another example of the output signal from the multiplexing unit of FIG. 17, and
  • FIG. 21 (b) is a multiplexing unit of FIG. FIG.
  • FIG. 9 is a waveform chart showing still another example of the output signal from the controller.
  • FIG. 22 shows the update of the output signal from the multiplex section shown in FIG.
  • FIG. 7 is a waveform diagram showing another example.
  • FIG. 23 is a block diagram showing a configuration of an image processing unit of a capsule endoscope according to still another embodiment of the present invention.
  • FIG. 24 is a diagram showing an output signal from the multiplexing unit in FIG.
  • FIG. 25 is a diagram showing an example in which a white balance coefficient is added to the rear end of a series of video signals.
  • FIG. 26 is a block diagram showing a configuration of a capsule endoscope according to still another embodiment of the present invention.
  • FIG. 27 is a block diagram showing a configuration of a receiver according to still another embodiment of the present invention.
  • FIG. 1 is a schematic diagram showing the internal structure of a capsule endoscope according to the present embodiment.
  • the capsenolle endoscope 10 includes an imaging unit 111 that can capture an image of the inside of a body cavity, and illumination units 1 12 a and 1 1 2 that irradiate light inside the body cavity.
  • b a power supply unit 113 for supplying power to them
  • a capsule housing in which at least an imaging unit 111, illumination units 112 a, 112, and b and a power supply unit 113 are disposed. It consists of body 14.
  • the force capsule housing 14 is composed of a tip cover part 120 covering the imaging part 111 and the lighting parts 112a, 112b, a tip force par part 120, and a sealing member. It is provided in a watertight state via 1 2 1, and acts as a capsule body 1 2 2 with an imaging unit 1 1 1 etc. disposed inside, and a rear end cover 1 2 3 as necessary. It may be provided separately from the capsule body 122.
  • the rear end force par section 123 is provided integrally with the capsule body 122 and has a flat shape.
  • the shape is not limited.
  • the shape may be a dome shape.
  • the tip force par section 120 has an illumination window section 120a for transmitting the illumination light L from the illumination sections 112a and 112b, and an imaging window for imaging the illumination range. Part 1 2 0 b and May be configured to be clearly divided.
  • the distal end cover 120 is entirely transparent, and the areas of the illumination window 120a and the imaging window 120b partially overlap.
  • the imaging unit 111 is provided on an imaging board 124, and captures an image of a range illuminated by the illumination light L from the illumination units 112a and 112b.
  • a sharp image is formed by the focus adjustment unit 128 using b.
  • the imaging unit 111 is not limited to the above-described CCD, and an imaging unit such as CMOs can be used, for example. .
  • the illuminating units 112a and 112b are provided on an illuminating substrate 130, and include, for example, light-emitting diodes (LEDs).
  • the illuminating units 112a and 112b include an imaging lens 126 that constitutes the imaging unit 111. It is located at the center, and there are multiple units around it. In the present embodiment, as an example, a total of four illuminating units are arranged one above, below, left, and right with the imaging lens 126 as the center.
  • the lighting units 112a and 112b are not limited to the LEDs described above, and other lighting means can be used.
  • the power supply unit 113 is provided on a power supply board 132 provided with an internal switch 131.
  • a button-type battery is used as the power supply 133.
  • the power source 133 uses, for example, an Oishidani silver battery as the battery, but is not limited to this.
  • a rechargeable battery, a power generation battery, or the like may be used.
  • the internal switch 131 is provided to prevent an unnecessary current from flowing from the power source 133 before using the capsule endoscope.
  • a wireless unit 142 for performing wireless communication with the outside is provided on the wireless board 141, and communication with the outside is performed via the wireless unit 142 as needed.
  • the fountain part 142 is modulated by the modulator 211 as shown in FIGS.
  • a transmission section 142a for amplifying the modulated modulation signal and an antenna 142b are provided.
  • a control unit 143 is provided on the imaging board 124, and executes various processes in the capsule endoscope 10.
  • the signal processing / control unit 143 includes an image processing unit 143a, a control unit 143b, a driving unit 143c, and a modulation unit 211.
  • the image processing unit 143a controls an image signal processing function such as image data generation including, for example, correlated double sampling (usually including CDS), and power supply according to ON / OFF of the internal switch 131. It has a power supply control function. Further, the image processing unit 143a includes a parameter memory 208 for storing parameters such as a line 'frame and a parameter such as a white balance coefficient, and a multiplexing unit 209 for multiplexing a white balance coefficient and a video signal. Have.
  • the control unit 143b has a timing generator and a sync generator 201 for generating various timing signals or synchronization signals.
  • the control unit 143b controls the image processing unit 143a, the driving unit 143c, and the lighting units 112a and 112b based on the timing signal or the synchronization signal generated by the timing generator and the sync generator 201. I do.
  • the lighting units 112a and 112b emit light at a predetermined timing in response to a timing signal or a synchronization signal from the control unit 143b.
  • the driving unit 143c drives the CCD 125 based on a timing signal or a synchronization signal from the control unit 143b.
  • the control unit 143b controls the timing at which the CCD 125 is driven and the timing at which the illumination units 112a and 112b emit light in synchronization, and controls the number of images captured by the CCD 125.
  • the modulation section 211 has a modulation function of converting into, for example, PSK, MSK, GMSK, QMSK, ASK, AM, and FM systems, and outputs a modulated signal to the transmission section 142a.
  • FIG. 2 is a schematic diagram of a capsule endoscope system according to the present embodiment. Inspection using the capsule endoscope 10 is performed using a forcepsell type endoscope system as shown in FIG.
  • a capsule endoscope system 1 includes a forcepsell type endoscope 10 and a package 50 thereof, a jacket 3 worn by a patient, that is, a subject 2, It consists of a receiver 4 and a computer 5 that are detachable from the jacket 3.
  • the jacket 3 is provided with antennas 31, 32, 33, and 34 for capturing radio waves transmitted from the antennas 14 2 b of the capsule endoscope 10. Communication between the forcepsell type endoscope 10 and the receiver 4 is possible via 33 and 34.
  • the number of the antennas is not particularly limited to four, and it is sufficient if there are a plurality of the antennas, whereby the radio waves corresponding to the position accompanying the movement of the capsule endoscope 10 can be satisfactorily received.
  • the position of the capsule endoscope 10 in the body cavity can be detected based on the reception intensity of each of the antennas 31, 32, 33, and 34.
  • the receiver 4 includes a reception unit 41, a demodulation unit 301, an image processing unit (5300, an image compression unit 303, a card interface 300a). Is provided.
  • the receiving section 41 amplifies the radio signal captured by the antennas 3!: 3 4 and outputs the signal to the demodulating section 301.
  • the demodulation unit 301 demodulates the output from the reception unit 41.
  • the image processing unit 300 performs signal separation on the signal demodulated by the demodulation unit 301, and detects a parameter such as a white balance coefficient based on the result of the signal separation.
  • the image processing unit 300 performs a white balance process on the image data using the detected white balance coefficient.
  • the image compression unit 303 compresses the image data that has been subjected to the white balance processing in the image processing unit 300.
  • the card interface 303 a has a function as an interface for inputting and outputting image data between the CF memory card 44 as a large-capacity memory and the image compression unit 310.
  • the receiver 4 detachably mounts the CF memory card 44.
  • the CF memory card 44 stores the image data compressed by the image compression unit 310.
  • the receiver 4 is provided with a display unit (not shown) for displaying information necessary for observation (inspection) and an input unit (not shown) for inputting information necessary for observation (inspection). ing.
  • the computer 5 performs read-write of the CF memory card 44 and the like.
  • the computer 5 has a processing function for a doctor or a nurse (examiner) to make a diagnosis based on an image of an organ or the like in a patient's body captured by the capsule endoscope 10.
  • the capsule endoscope 10 is taken out of the package 50 before starting the inspection.
  • the internal switch 13 1 of the capsule endoscope 10 becomes ON.
  • the subject 2 swallows the capsule endoscope 10 in which the internal switch 13 1 is turned on from the mouth.
  • the capsule endoscope 10 passes through the esophagus, advances in the body cavity by peristalsis of the digestive tract lumen, and sequentially captures an image of the body cavity.
  • the radio waves of the captured image are output via the radio section 142 with respect to the imaging results, and the radio waves are transmitted by the antennas 3 1, 3 2, 3 3, 3 4 of the jacket 3. Is captured.
  • the signal of the captured radio wave can be relayed from the antenna 31, 32, 33, or 34 to the receiver 4. At this time, depending on the position of the capsule endoscope 10, a difference in the received radio wave intensity occurs between the antennas 31, 33, 33, and 34.
  • white balance processing is performed on the sequentially received captured image data, and the image data that has been subjected to white balance processing is stored in the CF memory card 44.
  • the reception by the receiver 4 is performed when the imaging of the capsule endoscope 10 is started. It is not synchronized with the start, and the start and end of reception are controlled by operating the input unit of the receiver 4.
  • the CF memory card 44 storing the captured image data is removed from the receiver 4 and inserted into the memory card slot of the computer 5. Put in. In the computer 5, the captured image data stored in the CF memory card 44 is read, and the captured image data is stored for each patient.
  • the image processing unit 143a of the capsule endoscope 10 converts the analog surface image data output from the CCD 125 into a digital signal (digital transmission) and outputs the digital signal to the modulation unit 211.
  • the image processing unit 143 a includes a CDS (Correlated Double Sampling) unit 203, an AMP unit 204, an AZD unit 205, a parameter memory 208, and a multiplexing unit 209. I have.
  • the timing generator and the sync generator 201 supply the CCD 125 with a pulse signal 202 for driving the CCD 125 at a predetermined timing.
  • the pulse (TG) signal 2.02 is a signal 202 serving as a reference for timing of an imaging system such as the CCD 125.
  • the charge is converted from the CCD 125 and read out.
  • the signal read from the CCD 125 is subjected to noise removal processing by correlated double sampling in the CDS unit 203, thereby generating image data.
  • the image data is amplified by the AMP unit 204, AD-converted by the AZD unit 205, and sent to the multiplexing unit 209.
  • the parameter memory 208 stores a white balance coefficient for correcting white balance.
  • Each capsule endoscope 10 is tested in the manufacturing process, and a unique white balance coefficient is obtained for the capsenolle endoscope 10 (the method for obtaining the white balance coefficient will be described later).
  • the white balance coefficient of each capsule type The white balance coefficients are written to the parameter memory 208 of the endoscope 10 and are shipped with the white balance coefficients stored in the parameter memory 208 of the capsule endoscope 10 at the time of shipment.
  • the timing (SG) signal 210 is a signal serving as a reference for the timing of a display system constituting an image.
  • the read white balance coefficient is superimposed (multiplexed) by the multiplexing unit 209 on the image signal output from the A / D unit 205, and then modulated by the modulation unit 211. Is done. As shown in FIG. 3, the modulation signal output from the modulation section 211 is transmitted to the outside of the forceps endoscope 10 via the radio section 142.
  • FIG. 6 shows the configuration of the image processing unit 300 of the receiver 4 for digital transmission.
  • the image processing unit 300 includes a signal separation unit 302, an image memory 303, a parameter detection unit 304, and an image signal processing unit 300. "
  • the radio waves transmitted from the radio section 14 of the force capsule endoscope 10 are captured by the antennas 31 to 34, and the signals are amplified by the receiving section 41. Is demodulated.
  • the signal demodulated by the demodulation unit 301 is separated by the signal separation unit 302, the image data is stored in the image memory 303, and the white balance coefficient is set by the parameter detection unit 304. Is detected.
  • the image signal processing unit 305 corrects the image data stored in the image memory 303 based on the parameter (white balance coefficient) detected by the parameter detection unit 304. That is, the image signal processing unit 304 obtains white balance of image data based on the white balance coefficient detected by the parameter detection unit 304.
  • the parameters detected by the parameter detection unit 304 are stored in the parameter memory 208 and multiplexed by the multiplexing unit 209 to the image data.
  • the image signal processing unit 305 performs processing such as contour enhancement and LPF / gamma correction in addition to the above-described white balance image processing. Unlike the white balance processing, these processings such as contour enhancement, LPF, and gamma correction are commonly performed by all capsule endoscopes 10. Therefore, it is not necessary to separately store parameters for performing the common processing in the parameter memory 208 of each forcepsell-type endoscope 10 and are common to all capsule-type endoscopes 10 It is sufficient to store this data in the image signal processing unit 305. .
  • the image data corrected by the image signal processing unit 305 is compressed by the image compression unit 306 and then stored in the CF memory card 44.
  • FIG. 7 shows a procedure for obtaining a white balance coefficient for each capsule endoscope 10 in the manufacturing process.
  • each capsenolle endoscope 10 captures a white chart as a reference.
  • a correction coefficient (white balance coefficient) is calculated on the basis of G (green) so that the outputs of R (red) and B (pull one) become specified values.
  • the calculated R and B correction coefficients are recorded in the parameter memory 208.
  • step S A4 the correction coefficients recorded in the parameter memories 2 and 8 are checked.
  • the confirmation is to read the correction coefficient from the parameter memory 208 and to check whether the read correction coefficient and the correction coefficient calculated in step S A2 are the same or not.
  • step S A5 it is determined whether or not there is a problem (NG) case a plurality of times.
  • NG a problem
  • step SA5 when a predetermined number of times are reached (SA5—Y), it is indicated that the capsule endoscope 10 (particularly the parameter memory 208) has an abnormality. Is indicated (step SA 6). The capsule endoscope 10 determined to be abnormal is not shipped as it is.
  • FIG. 8 shows a data format of transmission data (frame) serving as a transmission unit when transmitted from the capsule endoscope 10 in the case of performing digital transmission.
  • the transmission unit 405 is composed of data corresponding to one line of CCD 125.
  • the multiplexing unit 209 starts to construct a new transmission unit 405, and sets the horizontal identification data 406 and the R white balance coefficient 402 in that order.
  • the new transmission unit 405 is used as a component, and after that, the image data 407 input from the AZD unit 205 before the horizontal identification data 406 is input is transmitted to the transmission unit 405. Add as a component.
  • the image data 407 input from the A / D unit 205 before the horizontal identification data 406 is input refers to the horizontal shift register of the CCD 125 during the horizontal retrace period. (Not shown), which corresponds to the image data for one line of the CCD 125 to which the charges are transferred.
  • the white balance coefficient 402 is added to a portion of one line of the CCD 125 corresponding to a time other than the effective imaging time.
  • the multiplexing unit 209 starts to construct a new transmission unit 405, and transmits the horizontal identification data 406 and the white balance coefficient 403 of B in this order.
  • the horizontal synchronizing signal 210 indicating the beginning of the transmission unit 405 and the TG signal 202 for determining the timing of reading the charge from the CCD 125 are generated by the timing generator 205 and the sync generator 201, respectively.
  • the image data 407 for one line of D 125 is generated so as to be synchronized with each other so as to be sent to the multiplexing unit 209 at the timing when the parameter 402 or 403 is read from the parameter memory 208.
  • the multiplexing unit 209 can detect that the timing at which the horizontal identification data 406 is input from the parameter memory 208 is a delimiter of the transmission unit 405, and the image input from the A / D unit 205 by the time of the detection.
  • the data is used as a component of the transmission unit 405 as image data 407 for one line of the CCD 125.
  • FIG. 9 is a flowchart showing an example of the operation of the capsule endoscope 10 and the receiver 4.
  • step SB4 when the power is turned on (step SB1—Y) and imaging is started (step SB2), every time image data for one line of the CCD 125 is read (step SB1—Y), SB 3-Y), the image data for one line and one of the R and B white balance coefficients 402 and 403 stored in the parameter memory 208 are multiplexed (step SB4).
  • the multiplexed data is as shown in FIG.
  • the multiplexed data shown in FIG. 8 is transmitted after being modulated (steps SB5 and SB6).
  • the operation performed for each line as described above is performed in the same manner for all lines included in one frame of the CCD 125. After the operation is performed for one frame, the operation is performed for the next one frame. The same operation is performed (steps SB7 and SB8). These operations are repeated until the imaging is stopped (step SB8).
  • the receiver 4 transmits the data from the capsule endoscope 10 in step SB6.
  • the received data is received (step SB11-Y)
  • the image data and the white balance coefficient are separated and detected for each image data of one line of the CCD 125 (step SB12, SB1). 3).
  • each transmission unit 405 includes an R or B correction coefficient 402 or 403.
  • each transmission unit 405 is configured so as to include one bit of each of the R or B correction coefficient 402 or 403 composed of a plurality of bits (for example, 8 bits). Is also good.
  • the configuration is such that the R or B correction coefficient 400 or 400 consisting of a plurality of (8 in this example) transmission units 4 05 and a plurality of bits (8 bits in this example). Good.
  • one transmission unit of data transmitted from the forcepsell type endoscope 10 corresponds to image data of 0.15 lines of one transmission unit and one CCD 125.
  • data (frame) 400 which is one transmission unit when transmitted from the capsule endoscope 10 is replaced by a CCD. It can be configured to correspond to one frame of image data of 125.
  • the multiplexing unit 209 When the multiplexing unit 209 receives the vertical identification data 401, the multiplexing unit 209 starts to construct a new transmission unit 400, and the vertical identification data is read in order from the parameter memory 209. 4 0 1, R white balance coefficient 4 0 2, B white balance coefficient 4 0 3 as the components of the new transmission unit 4 0 0, followed by the vertical identification data 4 0 1 Image data output from the A / D section 205 until 4 04 is added as a component of the transmission unit 400.
  • the image data 404 output from the AZD section 205 before the vertical identification data 401 is input is transmitted to the vertical shift register (not shown) of the CCD 125 during the vertical blanking period.
  • the white balance coefficients 402 and 403 are added to the portion corresponding to the time before the valid start line of the CCD 125.
  • the vertical synchronizing signal 210 indicating the start of the transmission unit 400, and the TG signal 202 that determines the timing for reading the electric charge from the CCD 125 are transmitted by the timing generator and the sync generator 201, respectively.
  • the image data 404 that constitutes one frame of D125 is sent to the multiplexing unit 209 at the timing when the parameters 402 and 403 are read from the parameter memory 208. And are generated to synchronize with each other.
  • the multiplexing unit 209 can detect that the timing at which the vertical identification data 410 was input from the parameter memory 208 is a delimiter of the transmission unit 400, and the AZD
  • the image data input from the unit 205 is regarded as a component of the transmission unit 400 as image data 404 for one frame.
  • the white balance coefficients 400 and 400 are added to the receiver 4 so that Sent. .
  • the data regarding the white balance coefficient included in each transmission unit 400 is the correction coefficients 402 and 403 of R and B.
  • data on the white balance coefficient included in each transmission unit 405 is based on the force that is the R or B acquisition coefficient 402 or 403, or the correction coefficient of R or B 402 Or, it is 1-bit data that composes 4003.
  • the data on the white balance coefficient included in each transmission unit 400 is smaller than the data on the white balance coefficient included in each transmission unit 400, because the vertical synchronization This is because the frequency of occurrence of the horizontal synchronization signal 210 is higher than that of the signal 210.
  • each transmission unit 405 is generated at a relatively high frequency. Based on 405, all information about the white balance coefficient of the capsule endoscope 10 can be obtained in a short time. As shown in FIGS. 8 and 10, each transmission unit 400, 405 is transmitted to the receiver 4 in a form in which the correction coefficients 402, 403 are added. You.
  • the white balance coefficient of each capsule endoscope 10 is a value uniquely determined as a value stored in the parameter memory 208 during the manufacturing process, and is not a variable value.
  • the reason why the white balance coefficient is transmitted to the receiver 4 for each transmission unit 400, 405 is that the white balance coefficient is transmitted only when the capsule endoscope 10 is activated. For example, when the power of the receiver 4 is not turned on when the capsule endoscope 10 is activated, the receiver 4 cannot receive the white balance coefficient, and then performs the white balance processing. This is to prevent a situation in which an image is displayed without being performed.
  • FIG. 11 is a flowchart showing a procedure of a white balance process performed by the receiver 4.
  • communication is performed from the capsule endoscope 10 to the receiver 4 using the transmission unit 405 shown in FIG. 8 and the operation according to the flowchart shown in FIG. 9 is performed. I do.
  • the number of detections i is set to 0 in the parameter detection section 304 (step SC 1).
  • the signal separation unit 302 of the receiver 4 detects the horizontal identification data 406 from the input data and outputs the horizontal identification data 406.
  • Detect white balance coefficient 402 or 4003 immediately after 06.
  • the signal separation unit 302 converts the horizontal identification data 400 and the white balance coefficient 402 or 4003 and the image data 407.
  • the image data 407 is separated and output to the image memory 303, and the horizontal identification data 406 and the white balance coefficient 402 or 403 are output to the parameter detection section 304.
  • the parameter detecting section 304 acquires the white balance coefficient 402 or 4003 immediately after the horizontal identification data 400, and obtains the obtained white balance coefficient 402 or 4003 as the parameter detecting section. It is stored in the parameter memory area k (i) of 304 (step SC2). Thereafter, the parameter detection unit 304 adds 1 to the number of detections i and increments it (step S C3).
  • n corresponds to the number of CCD 125 lines.
  • the transmission unit 400 shown in FIG. 10 is used for communication from the capsule endoscope 10 to the receiver 4, n is the number of image frames. Corresponding.
  • Step SC2 and SC3 are repeated until the number of detections reaches 11, and the white balance coefficients 402 and 400 are stored in the n parameter memory areas k ( ⁇ ) of the parameter detector 304, respectively. Then, the process proceeds to Step SC5 (Step SC4 - ⁇ ).
  • the parameter detection unit 304 selects the data with a high frequency of occurrence among the white balance coefficients 402, 403 detected ⁇ times by using the white balance coefficients RWB, BWB To be adopted.
  • the white balance coefficients RWB, BWB To be adopted.
  • the image signal processing unit 305 determines the white balance of the image data 407 based on the white balance coefficients RWB and BWB adopted by the parameter detection unit 304 in step SC5. Perform processing. For R pixels, a value R out obtained by multiplying the input data R in by the white balance coefficient RWB is the result of the white balance processing. For the pixel B, the value Bout obtained by multiplying the input data Bin by the white balance coefficient BWB is the white parameter. This is the result of the sensing process.
  • the circuit scale of the internal circuit does not increase and power consumption may increase. Absent.
  • the circuit size of the internal circuit does not increase.
  • a white balance chart is imaged, and a surface image obtained by imaging the chart is received.
  • a method of calculating the white balance coefficient of the capsenolle type endoscope 10 based on the image of the received chart in the receiver 4 after being transmitted to the receiver 4 will be considered. According to this method, when the receiver 4 cannot receive the captured image data relating to the white balance coefficient at the time when the chart is captured (for example, when the power of the receiver 4 is not turned on at that time), the user may be alerted. Assuming that the capsule endoscope is swallowed, the image captured by the capsule endoscope is not subjected to white balance processing.
  • the capsule endoscope 10 even if the data transmitted from the capsule endoscope 10 cannot be received by the receiver 4 before drinking the capsule endoscope 10, the capsule endoscope 10 is not used. After that, since the mirror 1 ⁇ always sends the white balance coefficients RWB and BWB data to the receiver 4 together with the captured image data, even if the receiver 4 is turned on after swallowing, Then, based on the received white balance coefficients RWB and BWB, white balance processing of the captured image can be performed.
  • the white balance coefficients RWB and BWB are stored in the parameter memory 208.
  • the parameter memory 208 stores an R image (R data) obtained by photographing a white chart during the manufacturing process. Store the B image (B data) as it is.
  • the R image (Rd ata) and the B image (B data) are included at the location of the white balance coefficient 402 in FIG. 8 or at the locations of the white balance coefficients 402 and 403 in FIG. 10, respectively.
  • transmission units 405 and 400 are configured. The rest of the configuration and operation of the capsule endoscope 10 are the same as those of the first embodiment.
  • the receiver 4 has a constant Gr serving as a reference for R and a constant Gb serving as a reference for B used in white balance processing.
  • the receiver 4 inputs an R image (Rd ata) or a B image (Bd ata) and image data 407 from the received transmission unit 405.
  • the receiver 4 inputs the R image (Rd a t a), the B image (B d a t a), and the image data 404 from the received transmission unit 400.
  • the constant Gr serving as a reference for R and the constant Gb serving as a reference for B can be changed for each place (hospital) where the capsule endoscope 10 is used.
  • the white balance processing result can be made different depending on the place where the capsule endoscope 10 is used.
  • the constant Gr and the constant Gb can be changed depending on the region of ⁇ ′ imaged by the capsule endoscope 10.
  • the constant G r and the constant G can be changed by reflecting the original color of each organ and the color of the pathogen to be found in each ⁇ .
  • FIG. 12 is a modification of the transmission unit 400 of FIG. In the transmission unit 400 in FIG. 12, immediately after the R white balance coefficient 402, the R white balance An error correction code 408 for the white balance coefficient 403 was added, and an error correction code 409 for the white balance coefficient 403 of B was added immediately after the white balance coefficient 403 of B. I have.
  • the error correction codes 408 and 409 are stored together when the white balance coefficients RWB and BWB are stored in the parameter memory 208 during the manufacturing process of the capsule endoscope 10. Instead, only the white balance coefficients RWB and BWB are stored in the parameter memory 208, and the error correction codes 408 and 409 are stored inside the force-pull endoscope 10. Alternatively, a configuration in which the error correction codes 408 and 409 are calculated based on the white balance coefficients RWB and BWB read from the parameter memory 208 may be employed.
  • the receiver 4 can correct the white balance coefficient 402 of R based on the error correction code 408, and can correct the white balance coefficient 409 of B based on the error correction code 409.
  • an error correction code for the R white balance coefficient 402 is added between the R white balance coefficient 402 and the image data 407 of the transmission unit 405 in FIG.
  • an error correction code for the white balance coefficient of B can be added between the white balance coefficient of B and the image data 407.
  • the error correction codes 408, 409 are the time before the effective start line of the CCD 125, together with the white balance coefficients 400, 403. Is added to the part corresponding to.
  • the error correction code is added together with the white balance coefficient to a portion corresponding to a time other than the effective imaging time in one line of 0 ⁇ 125.
  • the parameter memory 208 stores pixel defect address data indicating the address of a pixel defect in addition to the white balance coefficient.
  • the pixel defect correction is to correct a pixel defect existing in an address of a pixel based on pixel data corresponding to an address around the address of the pixel defect.
  • the rest of the configuration of the capsule endoscope 10 is the same as that of the first embodiment.
  • the operation of the forcepsell type endoscope 10 and the configuration and operation of the receiver 4 are basically the same as those in the first embodiment.
  • the multiplexing unit 209 multiplexes the image data, the white balance coefficient, and the pixel defect address data, and the multiplexed data is transmitted to the modulation unit 211 and the radio unit 142. It is transmitted from the capsule endoscope 10 through the interface.
  • the parameter detection unit 304 detects each parameter of the white balance coefficient and the pixel defect address data
  • the image signal processing unit 304 detects the parameters for the image data.
  • White balance processing is performed based on the white balance coefficient
  • pixel defect correction is performed based on the detected pixel defect address data.
  • the image on which the white balance processing and the pixel defect correction have been performed is compressed by the image compressing unit 303, and the compressed image data is stored in the large-capacity memory 44.
  • the address of the pixel defect is also tested in the manufacturing process for each capsule endoscope 10 to determine the address of the pixel defect of the capsule endoscope 10.
  • Can be The pixel defect address data is written to the parameter endoscope 208 of each capsule endoscope 10, and at the time of shipment, each pixel defect address data is stored in the parameter memory 208 of each capsule endoscope 10. It is shipped in the state stored in.
  • FIG. 13 is a flowchart showing a procedure for calculating the address of a pixel defect during a manufacturing process.
  • the CCD 125 is set to a place set at 50 ° C (step SD 1). This is because white defects in CCD 125 are likely to occur under high temperature conditions. .
  • the CCD 125 captures an image of the shading ( ⁇ room) to guide white defects (step SD 2).
  • the address of a pixel above a specified value level from the base (black) is recorded in the parameter memory 208 as pixel defect address data (step SD3).
  • a white chart is imaged by the CCD 125, and a black defect is derived (step SD4).
  • the address of the pixel below the specified value level from the base (white) is recorded in the parameter memory 208 as pixel defect address data (step SD5).
  • step SD6 the pixel defect address data recorded in the parameter memory 208 is confirmed.
  • the confirmation is performed by reading the pixel defect address data from the parameter memory 208 and determining whether or not the read pixel defect address data and the data of the address of the pixel defect detected in steps SD3 and SD5 are the same. This is the content to check.
  • step SD7 it is determined whether or not there is a problem (NG) case a plurality of times (step SD7).
  • NG problem
  • step SD7-N since the predetermined number of times has not been reached yet (SD7-N), the process returns to step SD1.
  • step SD7 when a predetermined number of times are reached (SD7-Y) ', it is displayed that the capsule endoscope (particularly the parameter memory 208) is abnormal (step SD8).
  • the capsule endoscope 10 determined to be abnormal is not shipped as it is.
  • FIG. 14 is a diagram showing transmission data 400, which is a transmission unit when received from the capsule endoscope 10 in the second embodiment, and corresponds to FIG. 10 of the first embodiment.
  • FIG. The same components as those in the first embodiment are denoted by the same reference numerals, and description thereof is omitted.
  • pixel defect address data 410 is included in the transmission unit 400.
  • pixel defect address data can be transmitted between the white balance coefficient 402 of R and the image data 407 of the transmission unit 405 in FIG. 8 of the first embodiment, Similarly, pixel defect address data can be added between the white balance coefficient of B and the image data 407.
  • the pixel defect address data is added together with the white balance coefficients 402 and 403 to a location corresponding to the time before the effective start line of the CCD 125.
  • the pixel defect address data is added together with the white balance coefficient to a portion corresponding to a time other than the effective imaging time in one line of the CCD 125.
  • pixel defects of the CCD 125 can be corrected.Note that the first or Z and second modifications of the first embodiment may be applied to the second embodiment. It is possible.
  • the parameter memory 208 can store data for correcting a defect caused by the variation of the CCD 125.
  • White balance coefficients and pixel defect address data are examples.
  • the CCD 125 is used for the capsule endoscope 10 .
  • a CMOS image sensor is used instead of the CCD 125.
  • an offset value of a photoelectric conversion characteristic which is a value unique to each CMOS image sensor, is individually stored. Otherwise, the configuration and operation of the capsule endoscope 10 and the configuration and operation of the receiver 4 are the same as those in the first embodiment.
  • the multiplexing unit 209 multiplexes the image data and the offset value of the photoelectric conversion characteristic.
  • the multiplexed data is transmitted from the capsule endoscope 10 via the modulation section 211 and the radio section 142.
  • the parameter detection unit 304 detects the parameter of the offset value of the photoelectric conversion characteristic
  • the image signal processing unit 304 detects the offset value of the detected photoelectric conversion characteristic with respect to the image data.
  • the correction of the photoelectric conversion characteristics is performed based on.
  • the image for which the photoelectric conversion characteristics have been corrected is compressed by the image compression unit 306, and the compressed image data is stored in the large-capacity memory 44.
  • the offset value of the photoelectric conversion characteristic is also tested in the manufacturing process for each capsule endoscope 10 in the same manner as the white balance coefficient in the first embodiment, and the capsule endoscope 10 The offset value of the photoelectric conversion characteristic is obtained.
  • the offset value of the photoelectric conversion characteristic is written to the parameter memory 208 of each capsule endoscope 10, and at the time of shipment, the offset value of each photoelectric conversion characteristic is stored in each capsule endoscope 10.
  • the product is shipped stored in the parameter memory 208.
  • FIG. 15 is a graph for explaining how to obtain the offset value of the photoelectric conversion characteristic of each image sensor (for example, a CMOS image sensor).
  • image sensor for example, a CMOS image sensor.
  • signal outputs are obtained when different amounts of light are incident on each image sensor, and plotted as points ⁇ and ⁇ . Points ⁇ and ⁇ are connected by a straight line, and the intersection with the ⁇ axis is determined as the offset value of the photoelectric conversion characteristics of the imaging element.
  • the third embodiment it is possible to correct the photoelectric conversion characteristics when the imaging device is used as the solid-state imaging device of the capsule endoscope 10.
  • the additional information such as the offset value of the image data is added before the image data 404 and transmitted
  • FIG. 16 shows a configuration in which white balance coefficients 402 and 403 are added to the rear end of image data 404.
  • the additional information is stored in the image data 40 If added to the end of 4, the receiver will be able to receive the signal in a state where the synchronization by the vertical synchronization signal is more reliably achieved.
  • the additional information is at a location where stable simultaneous synchronization is achieved.
  • the additional information is at most 2 bytes in the case of FIG. 16, but since this additional information has a great effect on the restoration of the image data, the additional information is added to the rear end of the image data 404. It is preferable that the receiver side can acquire additional information stably and reliably. (Fourth embodiment).
  • the fourth embodiment In contrast to the first embodiment in which digital transmission is performed, the fourth embodiment 'performs analog transmission.
  • the same components as those in the first embodiment are denoted by the same reference numerals, and description thereof is omitted.
  • the capsule endoscope 10 The image processing unit 144 a sends the analog image data output from the CCD 125 to the modulation unit 211 as an analog signal. I do. Because of analog transmission, there is no A / D converter 205 as shown in FIG.
  • the parameter memory 208 stores white balance coefficients RWB and BWB, as in the parameter memory 208 of the first embodiment.
  • the multiplexing unit 209 of the image processing unit 144 a includes a mixer 2 12 and an adder 2 13.
  • the white balance coefficients RWB and BWB are read out from the parameter memory 208 to the mixer 212, and the white balance coefficients RWB, BW B and the synchronization signal SG 1 are mixed.
  • the adder 2 13 the mixing result by the mixer 2 12 and the image data are superimposed.
  • the output from the adder 2 13 is frequency-modulated by the modulator 2 11.
  • the synchronization signal SG1 output from the timing generator and the sync generator 201 is superimposed on the image data in the multiplex section 209 as it is, so that the image data is In multiple images contained in Make the boundaries of each image clear.
  • FIG. 19 shows an output signal S1 from the multiplexing unit 209 of FIG. As shown in Fig. 19, during analog transmission, the signal is transmitted in the same signal waveform format as the NTSC composite video signal.
  • a portion 601 above the reference level 600 is a video signal (corresponding to image data), and a portion below the reference level is a synchronization signal SG1.
  • Reference numeral 602 is a horizontal synchronization signal.
  • the white balance coefficients RWB and BWB are mixed with the synchronization signal SG1 lower than the reference level 600.
  • Reference numeral 603 is a vertical synchronization signal. '' As shown in FIGS.
  • the vertical synchronizing signal 603 and the horizontal synchronizing signal 602 are mixed with the white balance coefficients RWB and BWB.
  • the signal is mixed with the video signal 601 by the adder 213.
  • the white balance coefficients RWB and BWB are superimposed after the vertical synchronizing signal 603 and added at a position corresponding to the time before the effective start line of the CCD 125 (left side of the video signal 601). Is done.
  • the vertical synchronizing signal 603 that is kept at the low level for a long time is detected by passing the signal through an LPF (low-pass filter) in the receiver 4.
  • the horizontal synchronization signal 602 is detected by passing through a BPF (Pand Pass Filter) in the receiver 4.
  • BPF Packet Filter
  • FIG. 20 shows another example of the output signal S1 from the multiplexing unit 209 'in FIG.
  • the white balance coefficients RWB and BWB are mixed with the synchronization signal SG1 (below the reference level 600) and superimposed on the vertical synchronization signal 603. It differs from FIG. 19 in that the portion to be mixed is after the video signal 601 (in FIG. 1.9, it is-before the video signal 601).
  • coefficient identification signals 605a and 605b indicating the existence of white balance coefficients RWB and BWB are added immediately before each white balance coefficient RWB and BWB.
  • the coefficient identification signals 605a and 605b by detecting the coefficient identification signals 605a and 605b, it can be recognized that the white balance coefficients RWB and BWB exist immediately after that.
  • both the R and B white balance coefficients RWB and BWB are arranged consecutively, only the coefficient identification signal 605 a is sufficient, and the coefficient • identification signal 605 b is unnecessary. .
  • the coefficient identification signals 605a and 605b can be added immediately before the white balance coefficients RWB and BWB in the case of FIG.
  • FIG. 19 and FIG. 20 show the case where both the R and B white balance coefficients RWB and BWB are superimposed on each vertical synchronization signal 603.
  • Fig. 21 and Fig. 22 show that only one bit of data of white balance coefficient RWB or BWB (assumed to be composed of 8 bits D7 to D0) is included in each horizontal synchronization signal 602. This shows the case where they are superimposed.
  • One bit of data of the white balance coefficient RW or BWB is added to a portion corresponding to a time other than the effective imaging time in one line of the CCD 125.
  • the white balance coefficient data superimposed on the horizontal synchronizing signal 60 2 is smaller than the white balance coefficient data superimposed on the vertical synchronizing signal 603 as described above. This is because the frequency of occurrence of the horizontal synchronization signal 602 is higher than the frequency of occurrence of 3.
  • Fig. 21 (a) the white balance of one bit superimposed on each of the eight horizontal synchronization signals 602 and the coefficients (D7 to D0) are aligned, so that the white balance of R is obtained.
  • the coefficient RWB is detected, and the white balance coefficient RWB for B is detected by the white balance coefficient (D7 to DO) for one bit superimposed on each of the next eight horizontal synchronization signals 602.
  • Fig. 21 (b) shows an example in which the timing for superimposing the horizontal synchronization signal 6 • 2 is shifted.
  • Fig. 21 (b) differs from Fig. 21 (a) in that it is just before the fall of the horizontal synchronizing signal. You are inserting data. This makes it easier to detect the white balance coefficient when detecting the horizontal synchronization signal at the rising edge. If the white balance coefficient is high level (H), the width of the horizontal synchronization signal becomes narrower, so that the inserted coefficient can be detected as H or L depending on the level width of the horizontal synchronization signal.
  • H high level
  • FIG. 22 is different from FIG. 21 in that the same 1-bit data having the same white balance coefficient RWB or BWB is superimposed on three consecutive horizontal synchronizing signals 602 in common.
  • the receiver 4 detects the above-mentioned 1-bit data of the superimposed white balance coefficient RWB or BWB for each of the three ice flat synchronization signals 602.
  • the receiver 4 cannot read the white balance coefficient superimposed on one horizontal synchronizing signal 602, an accurate white balance coefficient RWB or BWB cannot be obtained.
  • the one bit superimposed on the second horizontal synchronization signal 602 was erroneously recognized as the one bit superimposed on the first horizontal synchronization signal 602.
  • the above-mentioned 1 bit superimposed on the third horizontal synchronization signal 602 can be correctly recognized and recognized as D6.
  • D7 when determining D7, it is assumed that data having a high frequency of occurrence is determined as a white balance coefficient by referring to a three-line coefficient from the first synchronization signal.
  • the image processing section 300 'of the receiver 4 has an A / D conversion section 300. Is added.
  • the signal separation unit 300 2 ′ of the image processing unit 300 comprises a clamp circuit 701, a synchronization signal separation unit 702, a vertical synchronization detection unit 703, and a horizontal synchronization detection unit 704. And a line number detector 705.
  • the clamp circuit 701 clamps the output signal from the demodulation unit 301 and separates the synchronization signal (horizontal synchronization signal 602 and vertical synchronization signal 603) SG1 from the video signal 601
  • the reference level 600 is detected.
  • the synchronization signal separation unit 702 separates the synchronization signal SG1 and outputs the video signal 601 to the A / D conversion unit 307.
  • the sync signal SG 1 is supplied to the vertical sync detector 703 and the horizontal
  • the vertical synchronization signal is sent to the synchronization detector 704, the vertical synchronization detector 703 detects the vertical synchronization signal 603, and the horizontal synchronization detector 704 detects the horizontal synchronization signal 602.
  • the detection results of the vertical synchronization detection section 703 and the horizontal synchronization detection section 704 are sent to the line number detection section 705. '
  • the line number detection unit 705 determines the R white balance coefficient after a predetermined clock from the horizontal synchronization signal 602 on the second line from the vertical synchronization signal 603. It is known that RWB is included, and that a white balance coefficient BWB of B is included after a predetermined clock from the horizontal synchronization signal 602 on the third line.
  • the line number detection unit 705 sends the parameter detection unit 304 a predetermined clock after the ice synchronization signal 602 on the second line from the vertical synchronization signal 603, and It outputs a sampling phase output to indicate after a predetermined clock from the horizontal synchronization signal 602 of the line.
  • the parameter detection unit 304 can obtain the white balance coefficients RWB and BWB from the synchronization signal SG1 based on the sampling phase output.
  • FIG. 23 is a diagram showing a modification of FIG.
  • the multiplexing units 209 are provided with a mixer 212, an adder 213 ', and a D / A converter 214.
  • the white balance coefficients RWB and BWB read out from the parameter memory 208 are converted into analog signals by the DZA converter 214 and then mixed with the image data by the mixer 212.
  • the adder 2 13 the result of mixing by the mixer 2 1 2 ′ is superimposed on the synchronization signal SG 1.
  • the output from the adder 2 1 3 ′ of ⁇ is frequency-modulated by the modulation section 2 1 1.
  • FIG. 24 shows an output signal S2 from the multiplexing unit 209 ', shown in FIG.
  • the white balance coefficients RWB and BWB are mixed in the mixer 2 1 2 ′ to the image data 600 1 above the reference level 600.
  • the white balance coefficient RWB is superimposed on the image data 60 1 of the second line after the first horizontal synchronization signal 60 2 after the vertical synchronization signal 60 3 rises, and the white balance coefficient BWB is 2 It is superimposed on the third line of image data 601, after the horizontal synchronization signal 602.
  • the actual video signal 601 is from the fourth line after the third horizontal synchronization signal 602.
  • the white balance coefficients RW B and BWB are transmitted before or in a distributed manner before and after a series of video signals 601.
  • FIG. 25 shows a configuration in which white balance coefficients RWB and BWB are added to the rear end of a series of 11 video signals 601.
  • the additional information such as the white balance coefficients RWB and BWB is, for example, at most 2 bytes in the case of Fig. 16, but since this additional information has a great effect on the restoration of the image data, a series of video signals 6 It is preferable to add additional information to the rear end side of 01, and the receiver side can acquire stable and reliable additional information.
  • additional information such as error correction codes 408, 409, pixel defect address data 410, offset values of photoelectric conversion characteristics, etc.
  • it is added to the rear end side of 600.
  • FIGS. 26 and 27 a fifth embodiment will be described with reference to FIGS. 26 and 27.
  • the same components as those in the first embodiment are denoted by the same reference numerals, and description thereof will be omitted.
  • the capsule endoscope 10 performs end-to-end analog transmission.
  • the parameter memory 208 is stored in the parameter memory 208.
  • the white balance coefficient is modulated and transmitted alone without transmitting the stored white balance coefficient to the image signal, and the image signal is modulated and transmitted alone.
  • the receiver 4 demodulates each of the two modulated signals to obtain a white balance coefficient and an image signal.
  • the image processing unit 144 a of the capsule endoscope 10 does not include the multiplexing unit 209 unlike FIG. This is because, in the fifth embodiment, the white balance coefficient and the image signal are not multiplexed.
  • the signal processing / control section 144 'shown in FIG. 26 includes two modulation sections 2111a and 211b.
  • the modulation unit 211a modulates the white balance coefficient stored in the parameter memory 208 with the carrier frequency f1.
  • the modulation unit 21b modulates the image signal at the carrier frequency f2.
  • the transmission section 142 a amplifies the white balance coefficient modulated signal output from the modulation section 211 a and the image signal modulation signal output from the modulation section 211 b.
  • the shared antenna 144b transmits the modulated signals having different carrier frequencies f1 and f2 amplified by the transmission section 144a.
  • the receiver 4 differs from FIG. 4 in that it has two demodulators 301a and 301b, and the parameter detector 304 is an image processor. Provided outside of 300. Radio wave signals (modulation signals of white balance coefficients and modulation signals of image signals) captured by the common antennas 31 to 34 are amplified by the reception unit 41, respectively.
  • the demodulation section 301a demodulates the modulated signal of the carrier frequency f1, and sends the demodulated signal to the parameter detection section 304.
  • the parameter detector 304 detects a white balance coefficient based on the input signal.
  • the demodulation section 301b demodulates the modulated signal of the carrier frequency f2, and sends the demodulated signal to the image processing section 300.
  • the signal separation unit 302 of the image processing unit 300 separates the plane image signal and the synchronization signal.
  • the image processing unit 304 accesses the parameter detection unit 304 using the synchronization signal, and obtains a white balance coefficient from the parameter detection unit 304.
  • the image processing unit 300 uses the white balance coefficient to Perform white balance processing on the image signal.
  • the fifth embodiment can also be realized by digital transmission.
  • the operation of the capsule endoscope 10 and the operation of the receiver 4 up to the demodulators 301a and 301b are the same in the case of digital transmission. Since the image processing section 300 of the receiver 4 at the time of digital transmission does not need to separate the image signal and the synchronization signal, the signal separating section 302 becomes unnecessary, and the detection is performed by the parameter detecting section 304.
  • the white balance processing may be performed on the image signal using the efficient white balance coefficient.
  • the same effects as in the first embodiment can be obtained.
  • ADVANTAGE OF THE INVENTION According to the capsule endoscope of this invention, it is low and low power consumption regarding the signal processing peculiar to an image sensor. Industrial applicability
  • the present invention relates to a medical endoscope, and is particularly suitable for a swallowable forcepsell endoscope for capturing an image of a body cavity and a forcepschel endoscope system using the same.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physiology (AREA)
  • Psychiatry (AREA)
  • Endoscopes (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

撮像素子に固有の信号処理に関して、負荷が少なく、また、低消費電力のカプセル型内視鏡を提供する。カプセル型内視鏡の撮像素子(125)に固有の信号処理に必要な信号処理用データRWB,BWBを格納する格納部(208)と、前記格納部に格納された前記信号処理用データを送信する送信部(142)とを備えている。前記信号処理用データは、前記カプセル型内視鏡が出荷される前に予め求められた値である。前記信号処理用データは、ホワイトバランス係数のデータ、前記撮像素子が色信号処理用のチャートを撮影した画像のデータ、前記撮像素子の画素欠陥のアドレスを示すデータ、CMOSイメージセンサの光電変換特性のオフセット値を示すデータのいずれかである。前記送信部は、前記信号処理用データを前記撮像素子により撮像された撮像データとともに送信する。

Description

明 細 書 力プセル型内視鏡及び力プセノレ型内視鏡システム 技術分野
この発明は、 カプセル型内視鏡及びカプセル型内視鏡システムに関する。 背景技術
従前より、 口から体腔內に投入でき、 胃等の消化器内を撮影等して生体腔内の 情報を収集できるようにしたカプセル型内視鏡 (医療用の飲み込み型の錠剤状 視鏡) が知られている。 そして、 このカプセル型内視鏡として、 L E D等からな る照明手段、 C C Dや CMO S等からなる固体撮像素子、 これら照明手段や固体 撮像素子を駆動させるための電池等からなる電源部とを力プセルに内蔵したもの が提案されている。
特開 2 0 0 1— 2 4 5 8 4 4号公報には、 ホワイトパランス機能を搭載した力 プセル型内視鏡の技術が開示されている。 同公報には、 そのカプセル型内視鏡は 、 イメージセンサとその走査回路と信号処理回路が同一チップ上に集積し、 信号 処理回路にォートホワイトパランス機能を有レていることが記載されている。 し力 しながら、 特開 2 0 0 1— 2 4 5 8 4 4号公報に記載のカプセル型内視鏡 のように、 ホワイトパランス等の処理をカプセル型内視鏡の内部の信号処理回路 にて行うと、 内部回路の回路規模が大きくなるため、 消費電流の増大を招くとい う問題点があった。
また、 カプセル型内視鏡の給電方式には、 電池を使用する方式と、 体外から無 線で電力を供給する方式が提案されているが、 両方式のいずれの場合でも、 カブ セル型内視鏡の内部の信号処理回路にてホワイトバランス等の処理を行うと同様 の問題が発生していた。
本発明の目的は、 内部回路の回路規模の増大を招来することなく、 低消費電力 で撮像素子に固有の信号処理を行えるカプセル型内視鏡を提供することである。 発明の開示
上述した課題を解決し、 目的を達成するため、 本発明は、 カプセル型内視鏡の 撮像素子に固有の信号処理に必要な信号処理用データを格納する格納部と、 前記 格納部に格納された前記信号処理用データを送信する送信部とを備えたことを特 徴とする。
また、 本発明は、 上述したカプセル型内視鏡において、 前記信号処理用データ は、 前記カプセル型内視鏡が出荷される前に予め求められた値であることを特徴 とする。
また、 本発明は、 上述したカプセル型内視鏡において、 前記信号処理用データ は、 前記撮像素子のホワイトパランス処理を行うときに用いるホワイトパランス 係数のデータであることを特徴とする。
また、 本発明は、 上述したカプセル型内視鏡において、 前記信号処理用データ は、 前記撮像素子が色信号処理用のチャートを撮影した画像のデータであること を特徴とする。
また、 本発明は、 上述したカプセル型内視鏡において、 前記信号処理用データ は、 前記撮像素子の画素欠陥のァドレスを示すデータであることを特徴とする。 また、 本発明は、 上述したカプセル型內視鏡において、 前記信号処理用データ は、 前記撮像素子の光電変換特性のオフセット値を示すデータであることを特徴 とする。
また、 本発明は、 上述したカプセル型内視鏡において、 前記送信部は、 前記信 号処理用データを前記撮像素子により撮像された撮像データとともに送信するこ とを特徴とする。
また、 本発明は、 上述したカプセル型内視鏡において、 前記送信部は、 前記撮 像データを送信する際の送信単位となるフレームのそれぞれに前記信号処理用デ ータの少なくとも一部を含めて送信することを特徴とする。 また、 本発明は、 上述したカプセル型内視鏡において、 前記信号 ^理用データ は、 前記フレームの後端側に付加されることを特徴とする。
また、 本発明は、 上述したカプセル型内視鏡において、 前記信号処理用データ は、 前記フレームの最後端に付加されることを特徴とする。
また、 本発明は、 上述したカプセル型内視鏡において、 前記送信部は、 前記信 号処理用データのェラ一訂正コードとともに前記信号処理用データを送信するこ とを特 ί敷とする。
また、 本発明は、 上述したカプセル型内視鏡において、 前記エラー訂正コード は、 前記カプセル型内視鏡が出荷される前に予め求められ、 前記エラー訂正コー ドのデータは、 前記格納部に格納されることを特徴とする。
また、 本発明は、 カプセル型内視鏡の撮像素子に固有の信号処理に必要な信号 処理用データを格納する格納部と、 前記格納部に格納された前記信号処理用デー タを送信する送信部とを有したカプセル型内視鏡と、 前記送信部から送信された 前記信号処理用データを受信する受信機とを備えたカプセル型内視鏡システムで あって、 前記力プセル型内視鏡は、 前記撮像素子に固有の信号処理を行うことな く、 前記受信機が、 前記受信した信号処理用データに基づいて、 前記撮像素子に 固有の信号処理を行うことを特徴とする。
また、 本発明は、 上述したカプセル型内視鏡システムにおいて、 前記信号処理 用データは、 前記カプセル型内視鏡が出荷される前に予め求められた値であるこ とを特徴とする。
また、 本発明は、 上述したカプセル型内視鏡システムにおいて、 前己信号処理 用データは、'前記撮像素子のホワイトパランス処理を行うときに用いるホワイト パランス係数のデータであることを特徴とする。
また、 本発明は、 上述した力プセ/レ型内視鏡システムにおいて、 前記信号処理 用データは、 前記撮像素子が色信号処理用のチャートを撮影した画像のデータで あることを特 ί敷とする。 また、 本発明は、 上述したカプセル型内視鏡システムにおいて、 前記信号処理 用データは、 前記撮像素子の画素欠陥のァドレスを示すデータであることを特徴 とする。
また、 本発明は、 上述したカプセル型内視鏡システムにおいて、 前記信号処理 用データは、 前記撮像素子の光電変換特性のオフセット値を示すデータであるこ とを特徴とする。
また、 本発明は、 上述したカプセル型内視鏡システムにおいて、 前記送信部は 、 前記信号処理用データを前記撮像素子により撮像された撮像データとともに送 信することを特徴とする。
また、 本発明は、 上述したカプセル型内視鏡システムにおいて、 前記送信部は 、 前記撮像データを送信する際の送信単位となるフレームのそれぞれに前記信号 処理用データの少なくとも一部を含めて送信することを特徴とする。
また、 本発明は、 上述したカプセル型内視鏡システムにおいて、 前記信号処理 用データは、 前記フレームの後端側に付加されることを特徴とする。
また、 本発明は、 上述したカプセル型内視鏡システムにおいて、 前記信号処理 用データは、 前記フレームの最後端に付加されることを特徴とする。
また、 本発明は、 上述したカプセル型內視鏡システムにおいて、 前記送 i言部は 、 前記信号処理用データのエラー訂正コードとともに前記信号処理用データを送 信することを特徴とする。
また、 本発明は、 上述したカプセル型内視鏡システムにおいて、 前記エラー訂 正コードは、 前記カプセル型内視鏡が出荷される前に予め求められ、 前記エラー 訂正コードのデータは、 前記格納部に格納されることを特徴とする。
図面の簡単な説明
第 1図は、 本発明の一実施形態のカプセル型内視鏡を示す側断面図である。 第 2図は、 本発明の一実施形態のカプセル型内視鏡システムを示すプロック図であ る。 第 3図は、 本発明の一実施形態のカプセル型内視鏡の構成を示すブロック図 である。 第 4図は、 本発明の一実施形態の受信機の構成を示すブロック図である 。 第 5図は、 本発明の一実施形態のカプセル型内視鏡の画像処理部の構成を示す ブロック図である。 第 6図は、 本発明の一実施形態の受信機の画像処理部の構成 を示すブロック図である。 第 7図は、 本発明の一実施形態のカプセル型内視鏡に おいて、 ホワイトパランス係数を求める手順を示すフローチャートである。 第 8 図は、 本発明の一実施形態の力プセル型内視鏡から送信される送信データの送信 単位の構成を示す図である。 第 9図は、 本発明の一実施形態のカプセル型内視鏡 システムの動作を示すフローチャートである。 第 1 0図は、 本発明の一実施形態 の力プセル型内視鏡から送信される送信データの送信単位の他の構成を示す図で ある。 第 1 1図は、 本発明の一実施形態の受信機が行うホワイトバランス処理の 手順を示すフローチャートである。 第 1 2図は、 本発明の一実施形態のカプセル 型内視鏡から送信される送信データの送信単位の更に他の構成を示す図である。 第 1 3図は、 本発明の他の一実施形態のカプセル型内視鏡において、 画素欠陥の アドレスを算出する手順を示すフローチャートである。 第 1 4図は、 本発明の他 の一実施形態のカプセノレ型内視鏡において、 画素欠陥ァドレスデータを含む送信 データの送信単位を示す図である。 第 1 5図は、 本発明の他の一実施形態のカブ セノレ型内視鏡において、 CMO Sイメージセンサの光電変換特性のオフセット値 の求め方を説明するための図である。 第 1 6図は、 画像データの後端にホワイト バランス係数を付加した一例を示す図である。 第 1 7図は、 本発明の更に他の一 実施形態の力プセル型内視鏡の画像処理部の構成を示すプロック図である。 第 1 8図は、 本発明の更に他の一実施形態の受信機の画像処理部の構成を示すプロッ ク図である。 第 1 9図は、 第 1 7図の多重化部からの出力信号を示す波形図であ る。 第 2 0図は、 第 1 7図の多重化部からの出力信号の他の例を示す波形図であ る。 第 2 1図 (a ) は、 第 1 7図の多重化部からの出力信号の更に他の例を示す 波形図であり、 第 2 1図 (b ) は、 第 1 7図の多重化部からの出力信号の更に他 の例を示す波形図である。 第 2 2図は、 第 1 7図の多重ィヒ部からの出力信号の更 に他の例を示す波形図である。 第 2 3図は、 本発明の更に他の一実施形態のカブ セル型內視鏡の画像処理部の構成を示すブロック図である。 第 2 4図は、 第 2 3 図の多重化部からの出力信号を示す図である。 第 2 5図は、 一連の映像信号の後 端にホワイトパランス係数を付加した一例を示す図である。 第 2 6図は、 本発明 の更に他の一実施形態のカプセル型内視鏡の構成を示すプロック図である。 第 2 7図は、 本発明の更に他の一実施形態の受信機の構成を示すプロック図である。 発明を実施するための最良の形態
以下、 この発明につき図面を参照しつつ詳細に説明する。 なお、 この実施の形 態によりこの発明が限定されるものではない。
(第 1実施形態) - まず、 本発明の一実施の形態で用いるカプセル型内視鏡について第 1図を参照 して全体構成を説明する。 第 1図は本実施の形態にかかるカプセル型内視鏡の内 部構造を示す概略図である。 第 1図に示すように、 カプセノレ型内視鏡 1 0は、 体 腔内の画像を撮像し得る撮像部 1 1 1と、 体腔内部に光を照射する照明部 1 1 2 a , 1 1 2 bと、 これらに電力を供給する電源部 1 1 3と、 内部に撮像部 1 1 1 、 照明部 1 1 2 a, 1 1 2 ,b及ぴ電源部 1 1 3を少なくとも配設したカプセル筐 体 1 4とから構成されてなるものである。
力プセル筐体 1 4·は、 撮像部 1 1 1及び照明部 1 1 2 a, 1 1 2 bを覆う先端 カバー部 1 2 0と、 該先端力パー部 1 2 0とシ^ "ル部材 1 2 1を介して水密状態 に設けられ、 内部に撮像部 1 1 1等を配設してなるカプセル胴部 1 2 2と力 らな り、 必要に応じて後端カバー部 1 2 3をカプセル胴部 1 2 2と別体に設けるよう にしてもよい。 なお、 本実施の形態では後端力パー部 1 2 3はカプセル胴部 1 2 2と一体に設けられており、 平坦形状としているが、 その形状は限定されず、 例 えばドーム形状とするようにしてもよい。
先端力パー部 1 2 0は、 照明部 1 1 2 a , 1 1 2 bからの照明光 Lを透過させ る照明用窓部 1 2 0 aと、 その照明範囲を撮像するための撮像用窓部 1 2 0 bと を明確に分けるように構成してもよい。 なお、 本実施の形態では、 先端カバー部 120はその全体が透明であり、 照明用窓部 120 aと撮像用窓部 120 bとの 領域が部分的に重なつている。
撮像部 111は、 撮像基板 124に設けられ、 照明部 112 a, 112bから の照明光 Lによって照らされた範囲を撮像する例えば C C Dからなる固体撮像素 子 125と、 その固体撮像素子 125に被写体の像を結像する固定レンズ 126 a及ぴ可動レンズ 126 bからなる結像レンズ 126とからなり、 固定レンズ 1 26 aを固定する固定枠 128 a及ぴ可動レンズ 126 bを保持する可動枠 12 8 bによるピント調整部 128によりシャープな結像を行っている。
なお、 撮像部 111は、 上記 CCDに限定されるものではなく、 例えば CMO s等の撮像手段を用いることができる。 .
照明部 112 a, 112 bは、 照明基板 130に設けられ、 例えば発光ダイォ ード (LED) からなると共に、 その照明部 112 a, 112 bは、 撮像部 11 1を構成する結像レンズ 126を中心とし、 その周囲に複数配設されている。 本 実施の形態では、 一例として結像レンズ 126を中心とし上下左右に 1個ずつ計 4個の照明部が配設されている。
なお、 照明部 112 a, 112bは、 上記 LEDに限定されるものではなく、 他の照明手段を用いることができる。
電源部 113は、 内部スィッチ 131が設けられた電源基板 132に設けられ 、 電源 133として、 例えばボタン型の電池を用いる。 なお、 電源 133は、 電 池として例えば酸ィ匕銀電池を用いているが、 これに限定されるものではない。 例 えば充電式電池、 発電式電池等を用いてもよい。
内部スィツチ 131は、 電源 133からカプセル型內視鏡の使用前に不要な電 流が流れることを防止するために設けられている。
本実施の形態では、 無線基板 141に外部と無線通信を行うための無線部 14 2が設けられており、 無線部 142を介して必要に応じて外部との通信を行う。 なお、 無泉部 142は、 第 1図及び第 3図に示すように、 変調部 211により変 調されてなる変調信号を増幅する送信部 142 aと、 アンテナ 142 bとを備え ている。
.上記各部を処理又は制御するための信号処理 '制御部 143が撮像基板 124 に設けられており、 カプセル型内視鏡 10における各種処理を実行する。 信号処 理 ·制御部 143は、 画像処理部 143 aと、 制御部 143 bと、 駆動部 143 cと、 変調部 211とを傭えている。
画像処理部 143 aは、 例えば相関二重サンプリング (通例 CD Sを含む。 ) 等からなる画像データ生成等の画像信号処理機能と、 内部スィツチ 131の ON -OFFに応じて電源の供給を制御する電源供給制御機能とを有している。 更に 、 画像処理部 143 aは、 ライン 'フレーム等のパラメータ、 ホワイトバランス 係数等のパラメータを格納するパラメータメモリ 208と、 ホワイトバランス係 数と映像信号とを多重ィ匕ざせる多重化部 209とを備えている。
制御部 143 bは、 各種タイミング信号又は同期信号を生成するタイミングジ エネレータ及ぴシンクジェネレータ 201を有している。 制御部 143 bは、 タ イミングジェネレータ及ぴシンクジェネレータ 201によって生成されたタイミ ング信号又は同期信号に基づいて、 画像処理部 143 a、 駆動部 143 c、 及び 照明部 1 12 a, 1 12bを制御する。 照明部 1 12 a, 1 12 bは、 制御部 1 43 bからのタイミング信号又は同期信号に応答して、 所定のタイミングで発光 する。
駆動部 143 cは、 制御部 143 bからのタイミング信号又は同期信号に基づ いて、 CCD 125を駆動する。
制御部 143 bは、 CCD125が駆動されるタイミングと、 照明部 1 12 a , 112 bが発光するタイミングとが同期するように制御するとともに、 CCD 125による撮像枚数を制御する。
変調部 21 1は、 例えば PSK, MSK, GMSK, QMSK, ASK, AM , FM方式に変換する変調機能を有し、 変調信号を送信部 142 aに出力する。 次に、 .本実施の形態によるカプセル型内視鏡システムについて第 2図を用いて 説明する。 第 2図は本実施の形態によるカプセル型内視鏡システムの概略図であ る。 カプセル型内視鏡 1 0を用いて検査をするに際しては、 第 2図に示すような 力プセル型内視鏡システムを用いて行う。
本実施の形態によるカプセル型内視鏡システム 1は、 例えば第 2図に示したよ うに、 力プセル型内視鏡 1 0及ぴそのパッケージ 5 0、 患者すなわち被検査者 2 に着用させるジャケット 3、 ジャケット 3に着脱自在の受信機 4、 コンピュータ 5により構成される。
ジャケット 3には、 カプセル型内視鏡 1 0のアンテナ 1 4 2 bから発信される 電波を捕捉するアンテナ 3 1, 3 2, 3 3及び 3 4が設けられ、 アンテナ 3 1,' 3 2, 3 3及ぴ 3 4を介して、 力プセル型内視鏡 1 0と受信機 4の間の通信が可 能となっている。 なお、 アン ナの数はとくに 4個に限定されず、 複数あればよ く、 これにより、 カプセル型内視鏡 1 0の移動に伴う位置に応じた電波を良好に 受信することができる。 各アンテナ 3 1, 3 2, 3 3及び 3 4の受信強度により 、 カプセル型内視鏡 1 0の体腔内における位置を検出することができる。
第 4図に示すように、 受信機 4は、 受信部 4 1と、 復調部 3 0 1 、 画像処理 咅 (5 3 0 0と、 画像圧縮部 3 0 6と、 カードインターフェース 3 0 6 aとを備えて いる。
受信部 4 1は、 アンテナ 3:!〜 3 4にて捕捉された電波の信号を増幅して復調 部 3 0 1に出力する。
復調部 3 0 1は、 受信部 4 1からの出力を復調する。
画像処理部 3 0 0は、 復調部 3 0 1で復調された信号に対して信号分離を行う 信号分離部 3 0 2と、 信号分離の結果に基づいてホワイトパランス係数等のパラ メータを検出するパラメータ検出部 3 0 4とを備えている。 画像処理部 3 0 0は 、 その検出されたホワイトバランス係数を用いて、 画像データに対してホワイト バランス処理を行う。
画像圧縮部 3 0 6は、 画像処理部 3 0 0でホワイトパランス処理がなされた画 像データを圧縮する。 カードインターフェース 3 0 6 aは、 大容量メモリとしての C Fメモリカード 4 4と画像圧縮部 3 0 6との間での画像データの入出力のインターフェースとし ての機能を有する。
また、 受信機 4は、 C Fメモリカード 4 4を着脱可能に装着する。 C Fメモリ カード 4 4には、 画像圧縮部 3 0 6により圧縮された画像データが格納される。 また、 受信機 4には、 観察 (検査) に必要な情報を表示する表示部 (図示せず ) と、 観察 (検査) に必要な情報を入力する入力部 (図示せず) とが設けられて いる。
第 2図に示すように、 コンピュータ 5は、 C Fメモリカード 4 4のリードノラ イトなどを行う。 このコンピュータ 5は、 医者もしくは看護士 (検査者) がカプ セル型内視鏡 1 0により撮像された患者体内の臓器などの画像に基づいて診断を 行うための処理機能を有している。
ここで、 第 2図を参照して、 本システムの概略動作について説明する。 まず、 第 2図に示すように、 検査を開始する前において、 パッケージ 5 0からカプセル 型内視鏡 1 0を取り出す。 これにより、 カプセル型內視鏡 1 0の内部スィッチ 1 3 1が O Nとなる。
次に、 内部スィッチ 1 3 1が ON状態となったカプセル型内視鏡 1 0を被検查 者 2が口から飲み込む。 これにより、 カプセル型内視鏡 1 0は、 食道を通過し、 消化管腔の蠕動により体腔内を進行し、 逐次体腔内の像を撮像する。 そして、 必 要に応じて又は随時、 撮像結果について無線部 1 4 2を介して撮像画像の電波が 出力され、 ジャケット 3の各アンテナ 3 1, 3 2, 3 3., 3 4でその電波が捕捉 される。 捕捉された電波は、 アンテナ 3 1, 3 2, 3 3, 又は 3 4から受信機 4 へ信号が中継きれる。 このとき、 カプセル型内視鏡 1 0の位置に応じて、 アンテ ナ 3 1, 3 2, 3 3, 及ぴ 3 4間で受信電波強度の違いが生じる。
受信機 4においては、 逐次受信される撮像画像データに対しホワイトパランス 処理がなされ、 ホワイトバランス処理済の画像データが C Fメモリカード 4 4に 格納される。 なお、 この受信機 4による受信は、 カプセル型内視鏡 1 0の撮像開 始とは同期しておらず、 受信機 4の入力部の操作により受信開始と受信終了とが 制御される。
カプセル型内視鏡 10による被検査者 2の観察 (検査) が終了すると、 撮影画 像データが格納された CFメモリカード 44を受信機 4から取り出してコンビュ ータ 5のメモリカード揷入孔に入れる。 コンピュータ 5では、 CFメモリカード 44に格納された撮影画像データが読み出され、 その撮像画像データが患者別に 対応して記憶される。
次に、 第 5図を参照して、 カプセル型內視鏡 10の画像処理部 143 aについ て説明する。 第 5図に示す画像処理部 143 aは、 CCD 125から出力された アナログの面像データをデジタル信号に変換 (デジタル伝送) して、 変調部 21 1に出力する。
画像処理部 143 aは、 CDS (Co r r e l a t e d Doub l e S a m 1 i n g :相関二重サンプリング) 部 203と、 AMP部 204と、 AZD 部 205と、 パラメータメモリ 208と、 多重化部 209とを備えている。 タイミングジェネレータ及ぴシンクジェネレータ 201は、 所定のタイミング で、 CCD 125に対し、 CCD 125を駆動するためのパルス信号 202を供 給する。 パルス (TG) 信号 2.02は、 CCD 125などの撮像系のタイミング の基準となる信号 202である。
そのパルス信号 202に応じて、 CCD125から電荷が信号変換されて読み 出される。 CCD 125から読み出された信号は、 CDS部 203にて、 相関二 重サンプリングによるノイズ除去の処理が行われ、 これにより、 画像データが生 成される。 その画像データは、 AMP部 204で増幅された後に、 AZD部 20 5で AD変換され、 多重化部 209に送られる。
パラメータメモリ 208には、 ホワイトパランスを補正するためのホワイトバ ランス係数が格納されている。 各カプセル型内視鏡 10は、 製造工程において試 験が行われて、 そのカプセノレ型内視鏡 10に独自のホワイトパランス係数が求め られる (その求め方は、 後述する) 。 そのホワイトパランス係数が各カプセル型 内視鏡 1 0のパラメータメモリ 2 0 8に書き込まれ、 出荷時には、 各ホワイトパ ランス係数が各カプセル型内視鏡 1 0のパラメータメモリ 2 0 8に格納された状 態で出荷される。
タイミングジェネレータ及ぴシンクジェネレータ 2 0 1から出力されたタイミ ング信号 2 1 0に応答して、 パラメータメモリ 2 0 8から、 ホワイトパランス係 数が読み出される。 タイミング (S G) 信号 2 1 0は、 画像を構成する表示系の タイミングの基準となる信号である。
その読み出されたホワイトパランス係数は、 A/D部 2 0 5から出力された画 像信号と多重化部 2 0 9にて重畳 (多重化) された後に、 変調部 2 1 1にて変調 される。 第 3図に示すように、 変調部 2 1 1から出力された変調信号は、 無線部 1 4 2を介して、 力プ ル型内視鏡 1 0の外部に送出される。
第 6図は、 デジタル伝送の揚合の受信機 4の画像処理部 3 0 0の構成を示して いる。 画像処理部 3 0 0は、 信号分離部 3 0 2と、 画像メモリ 3 0 3と、 パラメ ータ検出部 3 0 4と、 画像信号処理部 3 0 5とを備えている。」
力プセル型内視鏡 1 0の無線部 1 4 2力 ら送信された電波は、 アンテナ 3 1 ~ 3 4により捕捉され、 受信部 4 1にて信号が増幅された後に、 復調部 3 0 1にて 復調される。 復調部 3 0 1にて復調された信号は、 信号分離部 3 0 2にて信号分 離され、 画像データは、 画像メモリ 3 0 3に格納され、 パラメータ検出部 3 0 4 にてホワイトパランス係数が検出される。
画像信号処理部 3 0 5は、 画像メモリ 3 0 3に格納された画像データを、 パラ メータ検出部 3 0 4にて検出されたパラメータ (ホワイトバランス係数) に基づ いて、 補正する。 即ち、 画像信号処理部 3 0 5は、 パラメータ検出部 3 0 4にて 検出されたホワイトパランス係数に基づいて、 画像データのホワイトパランスを とる。
上記のように、 パラメータ検出部 3 0 4にて検出されるパラメータは、 パラメ 一タメモリ 2 0 8に格納され、 多重化部 2 0 9にて画像データに多重ィ匕されたパ ラメータである。 画像信号処理部 3 0 5は、 上記ホワイトバランスの画像処理に加えて、 輪郭強 調や L P Fゃガンマ補正等の処理を行う。 これらの輪郭強調や L P Fやガンマ捕 正等の処理は、 ホワイトバランス処理と異なり、 全てのカプセル型内視鏡 1 0に 共通に行うものである。 そのため、 その共通の処理を行うためのパラメータを各 力プセル型内視鏡 1 0のパラメータメモリ 2 0 8に個別に持たせておく必要は無 く、 全てのカプセル型内視鏡 1 0に共通のデータとして、 画像信号処理部 3 0 5 に格納しておけば足りる。.
画像信号処理部 3 0 5にて、 補正された画像データは、 画像圧縮部 3 0 6にて 、 圧縮された後に、 C Fメモリカード 4 4に記憶される。
第 7図は、 製造工程にて各カプセル型内ネ見鏡 1 0毎に、 ホワイトバランス係数 を求める手順を示している。
まず、 ステップ S A 1に示すように、 各カプセノレ型内視鏡 1 0は、 基準となる. 白チャートを撮像する。 次に、 ステップ S A 2に示すように、 G (グリーン) を 基準として、 R (レッド) , B (プル一) の出力が規定値になるように補正係数 (ホワイトバランス係数) を算出する。 次に、 ステップ S A 3に示すように、 そ の算出された Rと Bの補正係数をパラメータメモリ 2 0 8に記録する。
次に、 ステップ S A 4に示すように、 パラメータメモリ 2ひ 8に記録された補 正係数の確認を行う。 その確認は、 パラメータメモリ 2 0 8から補正係数を読み 出し、 その読み出した補正係数と、 ステップ S A 2で算出された補正係数とが同 じである力否かをチェックする内容である。
その確認の結果、 問題が無ければ (両者が同じであれば) 、 ホワイトバランス 係数の検出処理を終了する。
その確認の結果、 問題があれば、 その問題あり (N G) のケースが所定の複数 回あるか否かが判定される (ステップ S A 5 ) 。 ここでは、 まだ、 所定の複数回 に達していないため (S A 5—N) 、 ステップ S A 3に戻る。
その後、 ステップ S A 5の結果、 所定の複数回に達すると (S A 5—Y) 、 そ のカプセル型內視鏡 1 0 (特にパラメータメモリ 2 0 8 ) に異常があることが表 示される (ステップ S A 6 ) 。 異常と判定されたカプセル型内視鏡 1 0は、 その まま出荷されることはない。
第 8図は、 デジタル伝送を行うケースにおいて、 カプセル型內視鏡 1 0から送 信されるときに送信単位となる送信データ (フレーム) のデータフォーマットを 示している。 その送信単位 4 0 5は、 C C D 1 2 5の 1ラインに対応するデータ から構成されている。
第 8図及ぴ第 5図に示すように、 タイミングジエネレータ及びシンクジエネレ ータ 2 0 1で生成される水平同期信号 (タイミングデータ) 2 1 0がパラメータ メモリ 2 0 8に入力されると、 その入力した水平同期信号 2 1 0に応答して、 パ ラメータメモリ 2 0 8から、 C C D 1 2 5の 1ライン分のデータの開始を示す水 平識別データ 4 0 -6と、 ホワイトバランス係数のパラメータ 4 0 2又は 4 0 3が その順番に多重ィ匕部 2 0 9に読み出される。
多重化部 2 0 9は、 水平 ItjgiJデータ 4 0 6を入力すると、 新たな送信単位 4 0 5を構成し始め、 水平識別データ 4 0 6、 Rのホワイトバランス係数 4 0 2をそ の順に、 その新たな送信単位 4 0 5の構成要素とすると共に、 その後ろに、 水平 識別データ 4 0 6を入力するまでに AZD部 2 0 5から入力した画像データ 4 0 7を、 送信単位 4 0 5の構成要素として追加する。
ここで、 「水平識別データ 4 0 6を入力するまでに A/D部 2 0 5から入力し 'た画像データ 4 0 7」 とは、 水平帰線期間に C C D 1 2 5の水平シフトレジスタ (図示せず) に電荷が転送される C C D 1 2 5の 1ライン分の画像データに対応. する。 また、 送信単位 4 0 5において、 ホワイトパランス係数 4 0 2は、 C C D 1 2 5の 1ラインの中の有効撮像時間以外の時間に対応する箇所に追加される。 多重化部 2 0 9は、 次の水平識別データ 4 0 6を入力すると、 新たな送信単位 4 0 5を構成し始め、 水平識別データ 4 0 6、 Bのホワイトパランス係数 4 0 3 の順に送信単位 4 0 5の構成要素とすると共に、 その後ろに、 水平識別データ 4 0 6を入力するまでに A/D部 2 0 5から入力した画像データ 4 0 7を、 送信単 位 4 0 5の構成要素として it¾口する (図示せず) 。 上記のように、 水平同期信号 210が発生するごとに生成される各送信単位 4 05には、 ホワイトパランス係数 402又は 403が交互に加えられた形で、 受 信機 4に送信される。
送信単位 405の先頭を示す水平同期信号 210と、 CCD125からの電荷 の読み出しタイミングを決める TG信号 202は、 それぞれタイミングジエネレ 一タ及ぴシンクジェネレータ 201で生成される際に、 AZD部 205から CC D 125の 1ライン分の画像データ 407力 パラメータメモリ 208からのパ ラメータ 402又は 403の読み出したタイミングにて、 多重化部 209に送ら れるように、 互いに同期をとるように生成される。
. 換言すれば、 多重化部 209は、 パラメータメモリ 208から水平識別データ 406を入力したタイミングが送信単位 405の区切りであることを検出でき、 その検出時点までに A/D部 205から入力した画像データを、 CCD 125の 1ライン分の画像データ 407として、 送信単位 405の構成要素とする。 第 9図は、 カプセル型内視鏡 10と受信機 4との動作の一例を示すフローチヤ トである。 カプセル型内視鏡 10では、 電源がオンになり (ステップ SB 1— Y) 、 撮像が開始されると (ステップ SB 2) 、 CCD 125の 1ライン分の画 像データが読み出される度に (ステップ SB 3— Y) 、 その 1ライン分の画像デ ータとパラメ一タメモリ 208に格納された R及び Bのホワイトパランス係数 4 02, 403の一方とが多重ィ匕される (ステップ SB4) 。 その多重化されたデ ータは、 第 8図に示した通りである。
第 8図に示した多重ィヒされたデータは、 変調された後に送信される (ステップ SB 5, SB 6) 。 上記のように 1ライン毎に行われる動作は、 CCD 125の 1フレームに含まれる全ライン対して同様に行われ、 その 1フレームに対して行 われた後には、 次の 1フレームに対しても同様に行われる (ステップ SB 7, SB 8) 。 これらの動作は、 撮像が停止されるまで繰り返される (ステップ SB 8) 一方、 受信機 4では、 ステップ SB 6にてカプセル型内視鏡 10から送信され たデータを受信すると (ステップ S B 1 1一 Y) 、 C C D 1 2 5の 1ライン分の 画像データ毎に、 画像データとホワイ トパランス係数とを分離し検出する (ステ ップ S B 1 2 , S B 1 3 )。 1フレーム分の画像データが揃うと、 ホワイトバラ ンス係数を用いて、 ホワイトパランス処理を行う (ステップ S B 1 4, S B 1 5 ) 。 これらの動作は、 動作が終了するまで繰り返される (ステップ S B 1 6 ) 。 なお、 上記では、 各送信単位 4 0 5は、 Rまたは Bの補正係数 4 0 2または 4 0 3を含んでいる。 これに代えて、 各送信単位 4 0 5は、 それぞれ複数ビット ( 例えば 8ビット) からなる、 Rまたは Bの補正係数 4 0 2または 4 0 3のうちの 1ビットずつを含むように構成してもよい。 即ち、 複数 (本例では 8つ) の送信 単位 4 0 5で複数ビット (本例では 8ビット).からなる Rまたは Bの補正係数 4 0 2または 4 0 3が分かるように構成してもよい。
上記では、 力プセル型内視鏡 1 0から送信されるデータの 1送信単位 4 0 5カ 、 C C D 1 2 5の.1ライン分の画像データに対応する例について説明した。 この 例に代えて、 またはこの例に加えて、 第 1 0図に示すように、 カプセル型内視鏡 1 0から送信されるときに 1送信単位となるデータ (フレーム) 4 0 0を、 C C D 1 2 5の 1フレームの画像データに対応するように構成することができる。 第 1 0図及ぴ第 5図に示すように、 タイミングジエネレータ及ぴシンクジヱネ レータ 2 0 1で生成される垂直同期信号 (タイミングデータ) 2 1 0がパラメ一 タメモリ 2 0 8に入力されると、 その入力した垂直同期信号 2 1 0に応答して、 パラメータメモリ 2 0 8力 ら、 送信単位 4 0 0の開始を示す垂直識別データ 4 0 1と、 ホワイトパランス係数のパラメータ 4 0 2, 4 0 3力 その順番で多重化 部 2 0 9に読み出される。
多重化部 2 0 9は、 垂直識別データ 4 0 1を入力したときに、.新たな送信単位 4 0 0を構成し始め、 パラメータメモリ 2 0 8から読み出された順番に、 垂直識 別データ 4 0 1、 Rのホワイトバランス係数 4 0 2、 Bのホワイトバランス係数 4 0 3をその新たな送信単位 4 0 0の構成要素とすると共に、 その後ろに、 垂直 識別データ 4 0 1を入力するまでに A/D部 2 0 5から出力された画像データ 4 0 4を送信単位 4 0 0の構成要素として加える。
ここで、 「垂直識別データ 4 0 1を入力するまでに AZD部 2 0 5から出力さ れた画像データ 4 0 4」 は、 垂直帰線期間に C C D 1 2 5の垂直シフトレジスタ (図示せず) に蓄積された 1フレーム分 (C C D 1 2 5が有する画素数分) の信 号電荷のデータに対応する。 また、 送信単位 4 0 0において、 ホワイトパランス 係数 4 0 2, 4 0 3は、 C CD 1 2 5の有効開始ライン前の時間に対応する箇所 に追加される。
送信単位 4 0 0,の先頭を示す垂直同期信号 2 1 0と、 C C D 1 2 5からの電荷 の読み出しタイミングを決める T G信号 2 0 2は、 それぞれタイミングジエネレ ータ及びシンクジェネレータ 2 0 1で生成される際に、 A/D部 2 0 5から。。 D 1 2 5の 1フレームを構成する画像データ 4 0 4が、 パラメータメモリ 2 0 8 からパラメータ 4 0 2, 4 0 3が読み出されたタイミングにて、 多重化部 2 0 9 に送られるように、 互いに同期をとるように生成される。 - 換言すれば、 多重化部 2 0 9は、 パラメータメモリ 2 0 8から垂直識別データ 4 0 1を入力したタイミングが送信単位 4 0 0の区切りであることを検出でき、 その検出時点までに AZD部 2 0 5から入力した画像データを、 1フレーム分の 画像データ 4 0 4として、 送信単位 4 0 0の構成要素とする。
上記のように、 垂直同期信号 2 1 0力 S発生するごとに生成される各送信単位 4 0 0に対し、 ホワイトパランス係数 4 0 2 , 4 0 3が加えられた形で、 受信機 4 に送信される。 .
上述したように、 各送信単位 4 0 0に含まれるホワイトバランス係数について のデータは、 R及ぴ Bの補正係数 4 0 2及ぴ 4 0 3である。 これに対し、 各送信 単位 4 0 5に含まれるホワイトパランス係数についてのデータは、 Rまたは Bの 捕正係数 4 0 2または 4 0 3である力、 若しくは、 Rまたは Bの補正係数 4 0 2 または 4 0 3を構成する 1ビット分のデータである。 このように、 各送信単位 4 0 0に含まれるホワイトバランス係数についてのデータに比べて、 各送信単位 4 0 5に含まれるホワイトバランス係数についてのデータが少ないのは、 垂直同期 信号 2 1 0の発生頻度に比べて、 水平同期信号 2 1 0の発生頻度が高いことに起 因している。 即ち、 各送信単位 4 0 5に含まれるホワイトバランス係数について のデータが少なくても、 各送信単位 4 0 5は、 相対的に高い頻度で生成されるた め、 受信機 4は、 各送信単位 4 0 5に基づいて、 短時間のうちにカプセル型内視 鏡 1 0のホワイトパランス係数についての全ての情報を入手することができる。 第 8図及び第 1 0図に示したように、 各送信単 ¼ 4 0 0 , 4 0 5毎に、 補正係 数 4 0 2, 4 0 3が加えられた形で受信機 4に送信される。 各カプセル型内視鏡 1 0のホワイトバランス係数は、 製造工程時にパラメータメモリ 2 0 8に格納さ れた値として一義的に決まった値であり、 変動する値ではない。 このことから、 毎回送信単位 4 0 0 , 4 0 5に含めるのではなく、 例えば、 カプセル型内視鏡 1 0の起動時に 1回、 受信機 4に送信すれば十分であると考えることもできる。 これに対し、 本実施形態において、 各送信単位 4 0 0, 4 0 5毎に受信機 4に ホワイトパランス係数を送信する理由は、 カプセル型内視鏡 1 0の起動時にのみ 送信する方法であると、 例えば、 カプセル型内視鏡 1 0の起動時に受信機 4の電 源が投入されていない場合などには、 受信機 4は、 そのホワイトバランス係数を 受信できずに、 その後、 ホワイトバランス処理がなされないまま画像が表示され るような事態を確実に回避するためである。
第 1 1図は、 受信機 4が行うホワイトバランス処理の手順を示すフローチヤ一 トである。 ここでは、 カプセル型内視鏡 1 0から受信機 4への通信には、 第 8図 に示す送信単位 4 0 5が用いられ、 第 9図に示すフローチャートに従った動作が 行われるケースについて説明する。
まず、 初期設定では、 パラメータ検出部 3 0 4において、 検出回数 i = 0に設 定されている (ステップ S C 1 ) 。 受信機 4の信号分離部 3 0 2は、 復調部 3 0 1から送信単位 4 0 5のデータを入力すると、 その入力したデータから水平識別 データ 4 0 6を検出するとともに、 その水平識別データ 4 0 6の直後のホワイト パランス係数 4 0 2又は 4 0 3を検出する。 信号分離部 3 0 2は、 水平識別デー タ 4 0 6及ぴホワイトパランス係数 4 0 2又は 4 0 3と、 画像データ 4 0 7とを 分離し、 画像データ 4 0 7を画像メモリ 3 0 3に出力し、 水平識別データ 4 0 6 及ぴホワイトパランス係数 4 0 2又は 4 0 3をパラメータ検出部 3 0 4に出力す る。
パラメータ検出部 3 0 4では、 水平識別データ 4 0 6の直後のホワイトバラン ス係数 4 0 2又は 4 0 3を取得し、 その取得したホワイトパランス係数 4 0 2又 は 4 0 3をパラメータ検出部 3 0 4のパラメータメモリエリア k ( i ) に格納す る (ステップ S C 2 ) 。 その後、 パラメータ検出部 3 0 4では、 検出回数 iに 1 を加算してインクリメントする (ステップ S C 3 ) 。
上記ステップ S C 2及びステップ S C 3は、 予め設定された検出回数 nに到達 するまで繰り返される (ステップ S C 4— N) 。 ここで、 nは、 C C D 1 2 5の ライン数に対応する。 なお、 本ケースと異なり、 カプセル型内視鏡 1 0から受信 機 4への通信に、 第 1 0図に示す送信単位 4 0 0が用いられるケースであれば、 nは、 画像のフレーム数に対応する。
検出回数 11まで上記ステップ S C 2及ぴステップ S C 3が繰り返され、 パラメ ータ検出部 3 0 4の n個のパラメータメモリエリア k ( η ) にそれぞれホワイト パランス係数 4 0 2, 4 0 3が格納されるとステップ S C 5に進む (ステップ S C 4 -Υ) 。
ステップ S C 5に示すように、 パラメータ検出部 3 0 4は、 η回検出されたホ ワイトパランス係数 4 0 2, 4 0 3のデータのうち、 発生頻度の高いデータをホ ワイトバランス係数 RWB , BWBとして採用する。 ここでは、 通信エラーによ る誤ったホワイトバランス係数が採用されることが防止される。 ·
ステップ S C 6に示すように、 画像信号処理部 3 0 5は、 ステップ S C 5でパ ラメータ検出部 3 0 4により採用されたホワイトパランス係数 RWB , BWBに 基づいて、 画像データ 4 0 7のホワイトバランス処理を行う。 Rの画素について' は、 入力したデータ R i nにホワイトバランス係数 RWBを乗算してなる値 R o u tがホワイトパランス処理結果である。 Bの画素については、 入力したデータ B i nにホワイトパランス係数 BWBを乗算してなる値 B o u tがホワイトパラ ンス処理結果である。
上述した第 1実施形態によれば、 以下の効果を奏することができる。
本実施形態によれば、 ホワイトバランスの処理をカプセル型内視鏡の内部の回 路で行う必要がないので、 内部回路の回路規模が大きくなることがなく、 消費電 力の増大を招くことがない。 本実施形態では、 パラメータメモリ 2 0 8にホワイ トパランス係数を格納しておくだけで足りるため、 内部回路の回路規模が大きく なる とはない。'
また、 例えば、 カプセル型内視鏡が ッケージから取り外されて電源が O Nに された直後 (飲み込まれる前) に、 ホワイトパランス用のチャートを撮像し、 そ のチャートを撮像してなる面像が受信機 4に送信され、 受信機 4において、 その 受信したチャートの画像に基づいて、 そのカプセノレ型内視鏡 1 0のホワイトパラ ンス係数を求める方法について考える。 この方法によれば、 チャートを撮像した 時点でのホワイトパランス係数に関する撮像画像データを受信機 4で受信できな い場合 (例えばその時点では受信機 4の電源投入されていない場合) に、 それに 気づカゝずにカプセル型内視鏡を飲み込んだとすると、 そのカプセル型内視鏡によ る撮像画像は、 ホワイトパランス処理がなされることはない。
これに対し、 本実施形態では、 カプセル型內視鏡 1 0を飲む前にカプセル型内 視鏡 1 0から送信されたデータを受信機 4で受信できない場合であっても、 カブ セル型内視鏡 1◦からはその後、 撮像画像データと共に常時ホワイトパランス係 数 RWB , BWBのデータが受信機 4に送信されるため、 飲み込んだ後に、 受信 機 4に電源が投入された場合であっても、 その後に受信したホワイトパランス係 数 RWB, BWBに基づいて、 撮像画像のホワイトパランス処理を行うことがで きる。
次に、 上記第 1実施形態の変形例について説明する。
上記第 1実施形態においては、 パラメータメモリ 2 0 8に、 ホワイトパランス 係数 RWB , BWBが格納されていた。 これに代えて、 本変形例では、 パラメ一 タメモリ 2 0 8に、 製造工程時に白チャートを撮影した R画像 (R d a t a ) と B画像 (B d a t a) をそのまま格納する。 本変形例では、 第 8図のホワイトバ ランス係数 402の箇所又は第 10図のホワイトバランス係数 402, 403の 箇所に、 それぞれ、 R画像 (Rd a t a) 、 B画像 (B d a t a) が含まれた形 で、 送信単位 405, 400が構成される。 カプセル型内視鏡 10において、 そ れ以外の構成 ·動作は、 上記第 1実施形態と同様である。
受信機 4は、 ホワイトバランス処理に際して用いる、 Rの基準となる定数 Gr と、 Bの基準となる定数 Gbとを有している。 受信機 4は、 受信した送信単位 4 05力 ら、 R画像 (Rd a t a) 又は B画像 (B d a t a) と、 画像データ 40 7を入力する。 又は、 受信機 4は、 受信した送信単位 400から、 R画像 (Rd a t a) 及び B画像 (B d a t a) と、 画像データ 404を入力する。
受信機 4による画像データ 407, 404のホワイトパランス処理に際しては 、 Rの画素については、 画像データ 407, 404の Rのデータ R i nに、 (G r/Rd a t a).を乗算してなる値 Ro u tがホワイトバランス処理結果である 。 同様に、 Bの画素については、 画像データ 407, 404の Bのデータ B i n に、 (GbZB d a t a) を乗算してなる値 B o u tがホワイトパランス処理結 果である。
上記において、 Rの基準となる定数 G rと、 Bの基準となる定数 Gbは、 カプ セル型内視鏡 10が使用される場所 (病院) 毎に変更されることができる。 これ により、 カプセル型内視鏡 10の使用場所によって、 ホワイトパランス処理結果 が異なるようにすることができる。 また、 同じ使用場所であっても、 カプセル型 内視鏡 10によって撮像された β'の部位によって、 定数 Grと定数 Gbとを変 更することができる。 これにより、 各臓器が元来有する色や、 各 βで発見すベ き病原の色を反映させて、 定数 G rや定数 G を変更することができる。
' 次に、 第 12図を参照して、 上記第 1実施形態の第 2の変形例について説明す る。 .
第 12図は、 第 10図の送信単位 400の変形例である。 第 12図の送信単位 400, では、 Rのホワイトパランス係数 402の直後に、 Rのホワイトバラン ス係数 4 0 2に対するエラー訂正コード 4 0 8が追加され、 Bのホワイトパラン ス係数 4 0 3の直後に、 Bのホワイトバランス係数 4 0 3に対するエラー訂正コ ード 4 0 9が追加されている。
エラー訂正コード 4 0 8, 4 0 9は、 カプセル型内視鏡 1 0の製造工程時にお いて、 ホワイトバランス係数 RWB, BWBがパラメータメモリ 2 0 8に格納さ れるときに、 共に格納される。 なお、 これに代えて、 パラメータメモリ 2 0 8に は、 ホワイトバランス係数 RWB, BWBのみが格納され、 エラー訂正コード 4 0 8 , 4 0 9は、 力プ ル型内視鏡 1 0の内部において、 パラメータメモリ 2 0 8から読み出したホワイトパランス係数 RWB, BWBに基づいて、 エラー訂正 コード 4 0 8 , 4 0 9を算出する構成を採用することもできる。
受信機 4は、 エラー訂正コード 4 0 8に基づいて、 Rのホワイトパランス係数 4 0 2を訂正できると共に、 エラー訂正コード 4 0 9に基づいて、 Bのホワイト バランス係数 4 0 9を訂正できる。
また、 図示はしないが、 第 8図の送信単位 4 0 5の Rのホワイトパランス係数 4 0 2と画像データ 4 0 7との間に、 Rのホワイトパランス係数 4 0 2に対する エラー訂正コードが追加されることができ、 同様に、 Bのホワイトパランス係数 と画像データ 4 0 7との間に、 Bのホワイトバランス係数に対するエラー訂正コ 一ドが追加されることができる。
上記第 2変形例では、 送信単位 4 0 0において、 エラー訂正コード 4 0 8 , 4 0 9は、 ホワイ トパランス係数 4 0 2, 4 0 3とともに、 C C D 1 2 5の有効開 始ライン前の時間に対応 る箇所に追加される。 また、 送信単位 4 0 5において 、 エラー訂正コードは、 ホワイトバランス係数とともに、 0〇 1 2 5の1ラィ ンの中の有効撮像時間以外の時間に対応する箇所に追加される。'
上記第 2変形例によれば、 通信エラーが起きても高い確度で正しいホワイトバ ランス係数 RWB,. BWBを得ることができる。 よって、 第 1 1図のステップ S C 4の nの値が少なくても問題なく、 正しいホワイトパランス係数 RWB, BW Bを得ることができる。 (第 2実施形態)
次に、 第 1 3図及び第 1 4図を参照して、 第 2の実施形態について説明する。 第 2実施形態では、 パラメータメモリ 2 0 8には、 上記ホワイトパランス係数 に加えて、 画素欠陥のアドレスを示す画素欠陥アドレスデータが格納される。 こ こで、 画素欠陥補正とは、 画素欠陥のアドレスの周囲のアドレスに対応する画素 データに基づいて、 当該ァドレスに存在する画素欠陥を補正するものである。 カプセル型内視鏡 1 0において、 それ以外の構成については、 上記第 1実施形 態と同様である。 また、 力プセル型内視鏡 1 0の動作及ぴ受信機 4の構成及ぴ動 · 作は、 基本的に上記第 1実施形態と同様である。
即ち、 多重化部 2 0 9では、 画像データとホワイトバランス係数と画素欠陥ァ ドレスデータが多重化され、 その多重ィヒされてなるデータが変調部 2 1 1及ぴ無 線部 1 4 2を介してカプセル型内視鏡 1 0から送出される。 受信機 4では、 パラ メータ検出部 3 0 4がホワイトパランス係数と画素欠陥ァドレスデータの各パラ .メータを検出し、 画像信号処理部 3 0 5では、 画像データに対して、 その検出さ れたホワイトパランス係数に基づいてホワイトパランス処理を行うとともに、 そ の検出された画素欠陥アドレスデータに基づいて、 画素欠陥捕正を行う。 それら のホワイトバランス処理及び画素欠陥補正がなされた画像が画像圧縮部 3 0 6に ' て圧縮され、 その圧縮された画像データが大容量メモリ 4 4に記憶される。
画素欠陥'のアドレスについても、 ホワイ トパランス係数と同様に、 各カプセル 型内視鏡 1 0毎に、 製造工程において試験が行われて、 そのカプセル型內視鏡 1 0の画素欠陥のァドレスが求められる。 その画素欠陥ァドレスデータが各カプセ ル型内視鏡 1 0のパラメ一タメキリ 2 0 8に書き込まれ、 出荷時には、 各画素欠 陥ァドレスデータが各カプセル型内視鏡 1 0のパラメータメモリ 2 0 8に格納さ れた状態で出荷される。
第 1 3図は、 製造工程時に画素欠陥のァドレスを算出する手順を示すフローチ ヤートである。 まず、 C C D 1 2 5を 5 0 °Cに設定された場所にセットする (ス テツプ S D 1 ) 。 C C D 1 2 5の白欠陥は、 高温の条件で発生し易いからである 。 次に、 CCD 125で遮光 (喑室内) を撮像し、 白欠陥を導く (ステップ SD 2) 。 次いで、 上記ステップ SD 2の CCD 125による撮像結果に基づいて、 ベース (黒) から規定値レベル以上の画素のアドレスを画素欠陥アドレスデータ としてパラメータメモリ 208に記録する (ステップ SD3) 。 次に、 CCD 1 25で白チャートを撮像し、 黒欠陥を導く (ステップ SD 4) 。 次いで、 上記ス テツプ SD 4の CCD 125による撮像結果に基づいて、 ベース (白) から規定 値レベル以下の画素のァドレスを画素欠陥ァドレスデータとしてパラメータメモ リ 208に記録する (ステップ SD 5) 。
次に、 ステップ SD 6に示すように、 パラメータメモリ 208に記録された画 素欠陥アドレスデータの確認を行う。 その確認は、 パラメータメモリ 208から 画素欠陥ァドレスデータを読み出し、 その読み出した画素欠陥ァドレスデータと 、 ステップ SD 3, SD 5で検出された画素欠陥のアドレスのデータとが同じで ある力、否かをチヱックする内容である。
その確認の結果、 問題が無ければ (両者が同じであれば) 、 画素欠陥アドレス データの検出処理を終了する。
その確認の結果、 問題があれば、 その問題あり (NG) のケースが所定の複数 回あるか否かが判定される (ステップ SD7) 。 ここでは、 まだ、 所定の複数回 に達していないため (SD7—N) 、 ステップ SD1に戻る。
その後、 ステップ SD7の結果、 所定の複数回に達すると (SD7— Y) '、 そ のカプセル型内視鏡 (特にパラメータメモリ 208) に異常があることが表示さ れる (ステップ SD8) 。 異常と判定されたカプセル型内視鏡 10は、 そのまま , 出荷されることはない。
第 14図は、 第 2実施形態においてカプセル型内視鏡 10力 ら 信されるとき の送信単位となる送信データ 400、を示す図であり、 上記第 1実施形態の第 1 0図に対応する図である。 上記第 1実施形態と同じ構成要素については、 同じ符 号を付してその説明を省略する。
送信単位 400, には、 垂直識別データ 401、 RWB捕正係数 402、 BW B補正係数 403、 画像データ 404に加えて、 画素欠陥ァドレスデータ 410 が含まれる。
また、 図示はしないが、 上記第 1実施形態の第 8図の送信単位 405の Rのホ ワイトパランス係数 402と画像データ 407との間に、 画素欠陥ァドレスデー タが i¾口されることができ、 同様に、 Bのホワイトパランス係数と画像データ 4 07との間に、 画素欠陥ァドレスデータが追加されることができる。
第 2実施形態では、 送信単位 400において、 画素欠陥アドレスデータは、 ホ ワイトパランス係数 402, 403とともに、 CCD 125の有効開始ライン前 の時間に対応する箇所に追加される。 また、 送信単位 405において、 画素欠陥 アドレスデータは、 ホワイトパランス係数とともに、 CCD 125の 1ラインの 中の有効撮像時間以外の時間に対応する箇所に追加される。
上記第 2実施形態によれば、 CCD 125の画素欠陥補正を行うことができる なお、 第 2実施形態に対して、 上記第 1実施形態における第 1又は Z及び第 2 変形例を適用することも可能である。
また、 パラメータメモリ 208には、 CCD 125のばらつきに起因する不良 を補正するためのデータが格納されることができる。 ホワイトバランス係数や、 画素欠陥アドレスデータは、 その一例である。
(第 3実施形態)
次に、 第 3実施形態について説明する。
上記第 1実施形態では、 カプセル型内視鏡 10に CCD125を用いた例を説 明したが、 第 実施形態では、 CCD125に代えて、 CMOSイメージセンサ を用いる。 第 3実施形態の各カプセル型内視鏡 1◦のパラメータメモリ 208に は、 各 CMOSイメージセンサに固有の値である光電変換特性のオフセット値を 、 個別に格納しておく。 それ以外のカプセル型内視鏡 10の構成及ぴ動作と、 受 信機 4の構成及び動作は、 上記第 1実施形態と同様である。
即ち、 多重ィ匕部 209では、 画像データと光電変換特性のオフセット値が多重 ィ匕され、 その多重化されてなるデータが変調部 2 1 1及ぴ無線部 1 4 2を介して カプセル型内視鏡 1 0から送出される。 受信機 4では、 パラメータ検出部 3 0 4 が光電変換特性のオフセット値のパラメータを検出し、 画像信号処理部 3 0 5で は、 画像データに対して、 その検出された光電変換特性のオフセット値に基づい て光電変換特性の補正を行う。 その光電変換特性の捕正がなされた画像が画像圧 縮部 3 0 6にて圧縮され、 その圧縮された画像データが大容量メモリ 4 4に記憶 される。
光電変換特性のオフセット値についても、 上記第 1実施形態におけるホワイト パランス係数と同様に、 各カプセル型內視鏡 1 0毎に、 製造工程において試験が 行われて、 そのカプセル型内視鏡 1 0の光電変換特性のオフセット値が求められ る。 その光電変換特性のオフセット値が各カプセル型内視鏡 1 0のパラメ一タメ 'モリ 2 0 8に書き込まれ、 出荷時には、 各光電変換特性のオフセット値が各カプ セル型内視鏡 1 0のパラメータメモリ 2 0 8に格納された状態で出荷される。
'第 1 5'図は、 各撮像素子 (例えば、 CMO Sイメージセンサ) の光電変換特性 のオフセット値の求め方を説明するためのグラフである。 第 1 5図に示すように 、 各撮像素子に対し、 異なる光量の光を入射した場合のそれぞれ信号出力を求め 、 点 Α, Βとしてプロットする。 点 Α,Βを直線で結び、 Υ軸との交点を、 その撮 像素子の光電変換特性のオフセット値として求める。
上記第 3実施形態によれば、 カプセル型内視鏡 1 0の固体撮像素子として、 撮 像素子を用いた場合の光電変換特性の補正を行うことができる。
ところで、 上述した第 1〜第 3実施形態では、 いずれも、 ホワイトバラン 系 数 4 0 2, 4 0 3、 エラー訂正コード 4 0 8, 4 0 9、 画素欠陥アドレスデータ 4 1 0、 光電変換特性のオフセット値などの付加情報を画像データ 4 0 4の前に 付加して送出するようにしていたが、 画像データ 4 0 4の後端側に付加すること が好ましく、 特に、 画像データ 4 0 4の後端に付加することがー層好ましい。 たとえば、 第 1 6図は、 画像データ 4 0 4の後端にホワイトパランス係数 4 0 2 , 4 0 3を付カ卩した構成を示している。 このように付加情報を画像データ 4 0 4の後端に付加すると、 受信機側では、 垂直同期信号による同期が一層確実にと れた状態で受信できることになる。 特に、 フレーム 4 0 0が離散的に送出され、 受信される場合、 その都度、 再同期処理する必要があるため、 安定した同時が取 れている箇所に付加情報を配置することが好ましい。 付加情報は、 たとえ 第 1 6図の場合、 たかだか 2バイトであるが、 この付加情報は、 画像データの復元に 大きな影響を及ぼすため、 画像データ 4 0 4の後端側に付加情報を付加すること が好ましく、 受信機側は、 安定かつ確実な付加情報を取得することができる。 (第 4実施形態) .
次に、 第 4実施形態について説明する。
上記第 1実施形態がデジタル伝送を行うものであつたのに対し、 第 4実施形態 'は、 アナ口グ伝送を行うものである。 上記第 1実施形態と同じ構成要素について は、 同じ符号を付してその説明を省略する。
第 1 7図に示すように、 カプセル型内視鏡 1 0 画像処理部 1 4 3 a, は、 C C D 1 2 5から出力されたアナログの画像データをアナログ信号のまま変調部 2 1 1に送出する。 アナログ伝送であるため、 第 5図のような A/D変換部 2 0 5 は無い。 パラメータメモリ 2 0 8には、 上記第 1実施形態のパラメータメモリ 2 0 8と同様に、 ホワイトパランス係数 RWB, BWBが格納されている。
第 1 7図に示すように、 画像処理部 1 4 3 a, の多重化部 2 0 9, は、 混合器 2 1 2と、 加算器 2 1 3と 備えている。 タイミング信号 2 1 0に応答して、 パ ラメータメモリ 2 0 8からホワイトパランス係数 RWB , BWBが混合器2 1 2 に読み出され、 その混合器 2 1 2にて、 そのホワイトバランス係数 RWB,' BW Bと、 同期信号 S G 1とが混合される。 加算器 2 1 3では、 混合器 2 1 2による 混合結果と、 画像デ'ータとが重畳される。 その加算器 2 1 3からの出力が変調部 2 1 1にて周波数変調される。
上記のように、 アナログ伝送の場合には、 タイミングジェネレータ及びシンク ジェネレータ 2 0 1から出力された同期信号 S G 1を多重ィヒ部 2 0 9, にて画像 データにそのまま重畳させることにより、 画像データに含まれる複数の画像の中 力 ら各画像の区切りを明確にする。
第 19図は、 第 17図の多重化部 209, からの出力信号 S 1を示している。 第 19図に示すように、 アナ口グ伝送時は、 NT S Cコンポジットビデオ信号と 同様の信号波形の形式で信号が伝送される。 第 19図において、 基準レベル 60 0よりも上側の部分 601が映像信号 (画像データに対応する) であり、 下側の 部分が同期信号 SG1である。 符号 602は、 水平同期信号である。 ホワイトバ ランス係数 RWB, BWBは、 混合器 212において、 基準レベル 600よりも 下側の同期信号 SG1側に混合される。 符号 603は、 垂直同期信号である。 ' 第 19図及ぴ第 17図に示すように、 混合器 212において、 垂直同期信号 6 03及ぴ水平同期信号 602 (同期信号 SG1) とホワイトバランス係数 RWB , BWBが混合され、 その混合結果は、 加算器 213にて、 映像信号 601と混 - 合される。 第 19図に示すように、 ホワイトパランス係数 RWB, BWBは、 垂 直同期信号 603の後に重畳され、 CCD 125の有効開始ライン前の時間に対 応する箇所 (映像信号 601よりも左側) に追加される。
第 19図に示すように、 長い時間ローレベルにされる垂直同期信号 603は、 受信機 4において LP F (ローパスフィルタ) を通すことによって検出される。 また、 水平同期信号 602は、 受信機 4において BPF (パンドパスフィルタ) を通すことによって検出される。 水平同期信号 602が検出された後には、 所定 のクロック後にホワイトパランス係数 RWB, BWBが存在することが予め決ま つているので、 容易にホワイトパランス係数 RWB, BWBを検出することがで きる (後述する第 18図参照) 。
第 20図は、 第 17図の多重化部 209' からの出力信号 S 1の他の例を示し ている。 第 20図では、 第 19図と同様に、 ホワイトパランス係数 RWB, BW Bが同期信号 SG1側 (基準レベル 600よりも下側) に混合され、 垂直同期信 号 603に重畳されているが、 その混合される箇所が、 映像信号 601の後であ る点において、 第 19図と相違している (第 1.9図では、 映像信号 601の前で - ある) 。 また、 第 2 0図では、 各ホワイトパランス係数 RWB, BWBの直前に、 ホヮ イトパランス係数 RWB, BWBの存在を示す係数識別信号 6 0 5 a, 6 0 5 b が追加されている ό 受信機 4では、 係数識別信号 60 5 a, 60 5 bを検出する ことで、 その直後にホワイトパランス係数 RWB, BWBが存在することを認識 することができる。 なお、 Rと Bの両方のホワイトバランス係数 RWB, BWB が連続して配置される場合には、 係数識別信号 6 0 5 aのみがあれば足り、 係数 • 識別信号 6 0 5 bは不要である。 係数識別信号 6 0 5 a , 60 5 bは、 第 1 9図 のケースにおいても、 各ホワイトパランス係数 RWB, BWBの直前に追加する ことが可能である。
上記第 1 9図及ぴ第 20図は、 各垂直同期信号 6 0 3に Rと Bの両方のホワイ トパランス係数 RWB, BWBが重畳されるケースを示していた。 第 2 1図及ぴ 第 2 2図は、 各水平同期信号 6 0 2に、 ホワイトパランス係数 RWB又は BWB (8ビット D 7〜D 0で構成されるとする) の 1ビット分のデータのみが重畳さ れるケースを示している。 ホワイトバランス係数 RW 又は BWBの 1ビット分 のデータは、 CCD 1 2 5の 1ラインの中の有効撮像時間以外の時間に対応する 箇所に追加される。
水平同期信号 6 0 2に重畳されるホワイトバランス係数のデータが、 垂直同期 信号 60 3に重畳されるホワイ、トバランス係数のデータに比べて少ないのは、 上 記の通り、 垂直同期信号 6 0 3の発生頻度に比べて、 水平同期信号 6 0 2の発生 頻度が高いことに起因している。
第 2 1図 ( a ) では、 8つの水平同期信号 6 0 2のそれぞれに重畳された 1ビ ット分のホワイトパランス.係数 (D 7〜D 0) が揃うことで、 Rのホワイトパラ ンス係数 RWBが検出され、 その次の 8つの水平同期信号 6 02のそれぞれに重 畳された 1ビット分のホワイトバランス係数 (D 7〜D O) が揃うことで、 Bの ホワイトパランス係数 RWBが検出される。
第 2 1図 (b) に、 水平同期信号 6 ◦ 2を重畳するタイミングをずらした例を 示す。 第 2 1図 (b) は、 第 2 1図 (a) と異なり水平同期信号の立下り直前に データを挿入している。 このようにすることにより、 立上りエッジで水平同期信 号を検出する場合にホワイトパランス係数が検出し易くなる。 また、 ホワイトバ ランス係数がハイレベル (H) であれば水平同期信号の幅が狭くなるため、 水平 同期信号のレベルの幅で挿入した係数が Hか L力検出することができる。
第 2 2図は、 第 2 1図と異なり、 連続する 3つの水平同期信号 6 0 2に 、 共 通して、 ホワイトパランス係数 RWB又は B WBの同じ 1ビットのデータが重畳 されてレ、る。 受信機 4では、 3つの氷平同期信号 6 0 2毎に、 重畳されたホワイ トパランス係数 RWB又は BWBの上記 1ビットのデータを検出する。
受信機 4において、 1つの水平同期信号 6 0 2に重畳されるホワイトバランス 係数が読み取れなかった場合には、 正確なホワイトバランス係数 RWB又は B W Bを得ることはできない。 これに対し、 第 2 2図では、 例えば 2つ目の水平同期 信号 6 0 2に重畳された上記 1ビットを 1つ目の水平同期信号 6 0 2に重畳され た上記 1ビットとして誤認識したとしても、 同じく D 7.として正しく認識するこ とができ、 そこから 3つ目の水平同期信号 6 0 2に重畳された上記 1ビットは、 D 6として正しく認、識することができる。 第 2 2図では、 D 7を確定するにあた り 1つ目の同期信号から 3ライン係数を参照し発生頻度の高いデータをホワイト パランス係数として確定することとする。
第 1 8図に示すように、 受信機 4の画像処理部 3 0 0 ' には、 第 6図に示した デジタル伝送時の画像処理部 3 0 0と異なり、 A/D変換部 3 0 7が加わってい る。 画像処理部 3 0 0, の信号分離部 3 0 2 ' は、 クランプ回路 7 0 1と、 同期 信号分離部 7 0 2と、 垂直同期検出部 7 0 3と、 水平同期検出部 7 0 4と、 ライ ン数検出部 7 0 5とを備えてい 。
クランプ回路 7 0 1は、 復調部 3 0 1からの出力信号をクランプし、 同期信号 (水平同期信号 6 0 2及ぴ垂直同期信号 6 0 3 ) S G 1と、 映像信号 6 0 1とを 分ける基準レベル 6 0 0を検出する。
同期信号分離部 7 0 2は、 同期信号 S G 1を分離して、 映像信号 6 0 1を A/ D変換部 3 0 7に出力する。 同期信号 S G 1は、 垂直同期検出部 7 0 3及び水平 同期検出部 7 0 4に送出され、 垂直同期検出部 7 0 3では、 垂直同期信号 6 0 3 が検出され、 水平同期検出部 7 0 4では、 水平同期信号 6 0 2が検出される。 垂 直同期検出部 7 0 3及び水平同期検出部 7 0 4のそれぞれの検出結果は、 ライン 数検出部 7 0 5に送出される。 '
ライン数検出部 7 0 5では、 予め、 例えば第 1 9図のケースでは、 垂直同期信 号 6 0 3から 2ライン目の水平同期信号 6 0 2から所定クロックの後に Rのホヮ イトバランス係数 RWBが含まれていること、 及び、 3ライン目の水平同期信号 6 0 2から所定クロックの後に Bのホワイトパランス係数 BWBが含まれている ことが分かっている。
そこで、 ライン数検出部 7 0 5は、 パラメータ検出部 3 0 4に対して、 垂直同 期信号 6 0 3から 2ライン目の氷平同期信号 6 0 2から所定クロックの後、 及ぴ 、 3ライン目の水平同期信号 6 0 2から所定クロックの後を指示する旨のサンプ リング位相出力を出力する。 パラメータ検出部 3 0 4は、 上記サンプリング位相 出力に基づいて、 同期信号 S G 1から、 ホワイトバランス係数 RWB , BWBを 求めることができる。 ' 次に、 第 2 3図及ぴ第 2 4図を参照して、 第 4実施形態の変形例について説明 する。
第 2 3図は、 第 1 7図の変形例を示す図である。 多重化部 2 0 9, , は、 混合 器 2 1 2, と、 加算器 2 1 3 ' と、 D/Aコンバータ 2 1 4とを備えている。 パ ラメータメモリ 2 0 8から読み出されたホワイトパランス係数 RWB , BWBは 、 DZAコンバータ 2 1 4にてアナログ信号に変換された後に、 混合器 2 1 2, にて画像データと混合される。 加算器 2 1 3, では、 混合器 2 1 2 ' による混合 結果と、 同期信号 S G 1とが重畳される。 ^の加算器 2 1 3 ' からの出力が変調 部 2 1 1にて周波数変調される。
第 2 4図は、 第 2 3図の多重化部 2 0 9 ' , からの出力信号 S 2を示している 。 第 2 4図に示すように、 ホワイトパランス係数 RWB, BWBは、 混合器 2 1 2 ' において、 基準レベル 6 0 0よりも上側の画像データ 6 0 1側に混合される 。 ホワイトパランス係数 RWBは、 垂直同期信号 6 0 3が立ち上がった後の最初 の水平同期信号 6 0 2の後である 2ライン目の画像データ 6 0 1側に重畳され、 ホワイトバランス係数 BWBは、 2番目の水平同期信号 6 0 2の後である 3ライ ン目の画像データ 6 0 1側に重畳されている。 実際の映像信号 6 0 1は、 3番目 の水平同期信号 6 0 2の後である 4ライン目からである。
ところで、 上述した第 4実施形態では、 いずれも、 ホワイトバランス係数 RW B , BWBを、 一連の映像信号 6 0 1の前あるいは分散して付加して送出するよ うにしていたが、 第 1 6図と同様に、 一連の映像信号 6 0 1の後端側に付加する ことが好ましく、 特に、 一連の映像信号 6 0 1の後端に付加することが一層好ま しい。
たとえば、 第 2 5図は、 11個の一連の映像信号 6 0 1の後端にホワイトパラン ス係数 RWB, BWBを付加した構成を示している。 このようにホワイトバラン ス係数 RWB, BWBを一連の映像信号 6 0 1の後端に付加すると、 受信機側で は、 垂直同期信号 6 0 3による同期が一層確実にとれた状態で受信できることに なる。 ホワイトバランス係数 RWB, BWBなどの付加情報は、 たとえば第 1 6 図の場合、 たかだか 2バイトであるが、 この付加情報は、 画像データの復元に大 きな影響を及ぼすため、 一連の映像信号 6 0 1の後端側に付加情報を付加するこ とが好ましく、 受信機側は、 安定かつ確実な付加情報を取得することができる。 なお、 ホワイトバランス係数 RWB, BWB以外の、 エラー訂正コード 4 0 8, 4 0 9、 画素欠陥ァドレスデータ 4 1 0、 光電変換特性のオフセット値などの.付 加情報も同様に、 一連の映像信号 6 0 1の後端側に付加することが好ましい。
(第 5実施形態) '
次に、 第 2 6図及ぴ第 2 7図を参照して、 第 5実施形態について説明する。 第 5実施形態において、 上記第 1実施形態と同じ構成要素については、' 同じ符 号を付してその説明を省略する。 以下では、 カプセル型内視鏡 1 0において、 了 ナログ伝送が行われる場合について説明する。
第 5実施形態では、 上記第 1実施形態と異なり、 パラメータメモリ 2 0 8に格 納されたホワイトパランス係数を画像信号に多重ィ匕させること無く、 ホワイトパ ランス係数を単独で変調させて送信し、 また、 画像信号を単独で変調させて送信 する。 受信機 4では、 2つの変調信号をそれぞれ復調して、 ホワイトバランス係 数と、 画像信号を得る。
第 2 6図に示すように、 カプセル型内視鏡 1 0の画像処理部 1 4 3 aには、 第 3図と異なり、 多重化部 2 0 9が無い。 第 5実施形態では、 ホワイトバランス係 数と画像信号とを多重化させないからである。 また、 第 2 6図に示す信号処理 · 制御部 1 4 3 ' は、 2つの変調部 2 1 1 a, 2 1 1 bを備えている。
変調部 2 1 1 aは、 パラメータメモリ 2 0 8に格納されたホワイトパランス係 幾を搬送周波数 f 1で変調する。 変調部 2 1 l bは、 画像信号を搬送周波数 f 2 で変調する。 送信部 1 4 2 aは、 変調部 2 1 1 aから出力されたホワイトパラン ス係数の変調信号を増幅し、 また、 変調部 2 1 1 bから出力された画像信号の変 調信号を増幅する。 共用のアンテナ 1 4 2 bは、 送信部 1 4 2 aで増幅された、 互いに異なる搬送周波数 f 1 , f 2の変調信号を送信する。 ·
第 2 7図に示すように、 受信機 4は、 第 4図と異なり、 2つの復調部 3 0 1 a , 3 0 1 bを備えており、 また、 パラメータ検出部 3 0 4が画像処理部 3 0 0の 外部に設けられている。 共用のアンテナ 3 1〜3 4で捕捉した電波の信号 (ホヮ イトパランス係数の変調信号, 画像信号の変調信号) は、 それぞれ受信部 4 1で 増幅される。
復調部 3 0 1 aでは、 搬送周波数 f 1の変調信号が復調され、 その復調された 信号がパラメータ検出部 3 0 4に送出される。 パラメータ検出部 3 0 4では、 入 力した信号に基づいて、 ホワイトパランス係数を検出する。
復調部 3 0 1 bでは、 搬送周波数 f 2の変調信号が復調され、 その復調された 信号が画像処理部 3 0 0に送出される。 画像処理部 3 0 0の信号分離部 3 0 2は 、 面像信号と同期信号とを分離する。 画像処理部 3 0 0は、 その同期信号を用い て、 パラメータ検出部 3 0 4にアクセスし、 パラメータ検出部 3 0 4からホワイ トバランス係数を得る。 画像処理部 3 0 0では、 ホワイトパランス係数を用いて 、 画像信号にホワイトパランス処理を行う。
なお、 上記では、 アナログ伝送のケースについて説明したが、 第 5実施形態は 、 デジタル伝送でも実現可能である。 この場合、 カプセル型內視鏡 1 0の動作及 び受信機 4の復調部 3 0 1 a, 3 0 1 bまでの動作は、 デジタル伝送のケースで も同様である。 デジタル伝送時の受信機 4の画像処理部 3 0 0では、 画像信号と 同期信号とを分離する必要が無いので、 信号分離部 3 0 2が不要となり、 パラメ ータ検出部 3 0 4で検 ffiされたホワイトバランス係数を用いて、 画像信号に対し てホワイトパランス処理を行えばよい。
第 5実施形態のように、 パラメータメモリ 2 0 8に格納されたホワイトパラン ス係数を画像信号に多重化させること無く別々に送信し、 受信機 4では別々に復 調する方法においても、 上記第 1実施形態と同様な効果を奏することができる。 本発明のカプセル型内視鏡によれば、 撮像素子に固有の信号処理に関して、 低. 消費電力である。 産業上の利用可能性
以上のように、 この発明は、 医療用の内視鏡に関し、 特に体腔内の画像を撮像 する飲み込み型の力プセル内視鏡およびこれを用いた力プセル内視鏡システムに 適している。

Claims

請 求 の 範 囲
1 . カプセル型内視鏡の撮像素子に固有の信号処理に必要な信号処理用データ を格納する格納部と、
前記格納部に格納された前記信号処理用データを送信する送信部と
を備えたことを特徴とする力プセノレ型内視鏡。
2. 請求の範囲第 1項に記載のカプセル型内視鏡において、
前記信号処理用データは、 前記カプセル型内視鏡が出荷される前に予め求めら れた値であることを特徴とする力プセル型内視鏡。
3 . 請求の範囲第 1項に記載の力プセル型内視鏡において、
前記信号処理用データは、 前記撮像素子の;^ワイトパランス処理を行うときに 用いるホワイトバランス係数のデータであることを特徴とするカプセル型内視鏡 。
4 . 請求の範囲第 1項に記載のカプセル型内視鏡において、
前記信号処理用データは、 前記撮像素子が色信号処理用のチャートを撮影した 画像のデータであることを特徴とする力プセル型内視鏡。
5 . 請求の範囲第 1項に記載のカプセル型内視鏡において、 .
前記信号処理用データは、 前記撮像素子の画素欠陥のァドレスを示すデータで あることを特徴とするカプセル型内視鏡。
6 . 請求の範囲第 1項に記載のカプセル型内視鏡において、
前記信号処理用データは、 前記撮像素子の光電変換特性のオフセット値を示す データであることを特徴とする力プセノレ型内視鏡。
7. 請求の範囲第 1項に記載の力プセル型内視鏡において、
前記送信部は、 前記信号処理用データを前記撮像素子により撮像された撮像デ ータとともに送信することを特徴とするカプセル型内視鏡。
8 . 請求の範囲第 7項に記載のカプセル型内視鏡において、
前記送信部は、 前記撮像データを送信する際の送信単位となるフレームのそれ ぞれに前記信号処理用データの少なくとも一部を含めて送信することを特徴とす るカプセル型内視鏡。
9 . 請求の範囲第 8項に記載のカプセル型内視鏡において、
前記信号処理用データは、 前記フレームの後端側に付加されることを特徴とする カプセル型内視鏡。
1 0 . 請求の範囲第 8項に記載のカプセル型内視鏡において、
前記信号処理用データは、 前記フレームの最後端に付加されることを特徴とす るカプセル型内視鏡。
1 1 . 請求の範囲第 1項に記載の力プセル型内視鏡において、
前記送信部は、 前記信号処理用データのエラー訂正コードとともに前記信号処 理用データを送信することを特徴とする力プセル型内視鏡。
1 2 . 請求の範囲第 1 1項に記載のカプセル型内視鏡において、
前記エラー訂正コードは、 前記カプセル型内視鏡が出荷される前に予め求めら れ、 前記ェラ一訂正コードのデータは、 前記格納部に格納されることを特徴とす るカプセノレ型内視鏡。
1 3 · 力プセル型内視鏡の撮像素子に固有の信号処理に必要な信号処理用デー タを格納する格納部と、 前記格納部に格納された前記信号処理用データを送信す る送信部とを有したカプセル型内視鏡と、
前記送信部から送信された前記信号処理用データを受信する受信機と を備えたカプセル型内視鏡システムであって、
前記カプセル型内視鏡は、 前曾己撮像素子に固有の信号処理を行うことなく、 前 記受信機が、 前記受信した信号処理用データに基づいて、 前記撮像素子に固有の 信号処理を行うことを特徴とする力プセル型内視鏡システム。
1 4 . 請求の範囲第 1 3項に記載のカプセル型内視鏡システムにおいて、 前記信号処理用データは、 前記カプセル型内視鏡が出荷される前に予め求めら れた値であることを特徴とする力プセル型内視鏡システム。
1 5 . 請求の範囲第 1 3項に記載のカプセル型内視鏡において、
前記信号処理用データは、 前記撮像素子のホワイトバランス処理を行うときに 用いるホワイトバランス係数のデータであることを特徴とする力プセル型内視鏡 システム。
1 6 . 請求の範囲第 1 3項に記載のカプセル型内視鏡システムにおいて、 前記信号処理用データは、 前記撮像素子が色信号処理用のチヤ一トを撮影した 画像のデータであることを特徴とするカプセル型内視鏡システム。
1 7 . 請求の範囲第 1 3項に記載のカプセル型内視鏡システムにおいて、 前記信号処理用データは、 前記撮像素子の画素欠陥のァドレスを示すデータで あることを特徴とするカプセル型内視鏡システム。
1 8 . 請求の範囲第 1 3項に記载のカプセル型内視鏡システムにおいて、 前記信号処理用データは、 前記撮像素子の光電変換特性のオフセット値を示す データであることを特徴とする力プセノレ型内視鏡システム。
1 9 . 請求の範囲第 1 3項に記載のカプセル型内視鏡システムにおいて、 前記送信部は、 前記信号処理用データを前記撮像素子により撮像された撮像デ ータとともに送信することを特徴とする力プセル型内視鏡システム。
2 0 . 請求の範囲第 1 9項に記載のカプセル型内視鏡システムにおいて、 前記送信部は、 前記撮像データを送信する際の送信単位となるフレームのそれ ぞれに前記信号処理用データの少なくとも一部を含めて送信することを特徴とす る力プセ /レ型内視鏡システム。
2 1 . 請求の範囲第 1 9項に記載のカプセル型内視鏡システムにおいて、 前記信号処理用データは、 前記フレームの後端側に付加されることを特徴とする 力プセル型内視鏡システム。 2 2 . 請求の範囲第 1 9項に記載のカプセル型内視鏡システムにおいて、 前記信号処理用データは、 前記フレームの最後端に付加されることを特徴とす るカプセノレ型内視鏡システム。
2 3 . 請求の範囲第 1 3項に記載のカプセル型内視鏡において、
前記送信部は、 前記信号処理用データのエラー訂正コードとともに前記信号処 理用データを送信することを特徴とするカプセル型内視鏡システム。
2 4 . 請求の範囲第 2 3項に記載のカプセル型内視鏡システムにおいて、 前記エラー訂正コードは、 前記カプセル型内視鏡が出荷される前に予め求めら れ、 前記エラー訂正コードのデータは、 前記格納部に格納されることを特徴とす るカプセル型内視鏡システム。
PCT/JP2004/009267 2003-06-24 2004-06-24 カプセル型内視鏡及びカプセル型内視鏡システム WO2004112593A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
CA002530718A CA2530718C (en) 2003-06-24 2004-06-24 Capsule endoscope and capsule endoscope system
KR1020057024658A KR100757620B1 (ko) 2003-06-24 2004-06-24 캡슐형 내시경 및 캡슐형 내시경 시스템
JP2005507337A JPWO2004112593A1 (ja) 2003-06-24 2004-06-24 カプセル型内視鏡及びカプセル型内視鏡システム
EP04746736A EP1637064A4 (en) 2003-06-24 2004-06-24 CAPSULE ENDOSCOPE AND CAPSULE ENDOSCOPE SYSTEM
CN2004800175725A CN1809309B (zh) 2003-06-24 2004-06-24 胶囊型内窥镜以及胶囊型内窥镜系统
AU2004249063A AU2004249063B2 (en) 2003-06-24 2004-06-24 Encapsulated endoscope and encapsulated endoscope system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003180138 2003-06-24
JP2003-180138 2003-06-24

Publications (1)

Publication Number Publication Date
WO2004112593A1 true WO2004112593A1 (ja) 2004-12-29

Family

ID=33535120

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/009267 WO2004112593A1 (ja) 2003-06-24 2004-06-24 カプセル型内視鏡及びカプセル型内視鏡システム

Country Status (8)

Country Link
US (1) US20050049461A1 (ja)
EP (1) EP1637064A4 (ja)
JP (1) JPWO2004112593A1 (ja)
KR (1) KR100757620B1 (ja)
CN (1) CN1809309B (ja)
AU (1) AU2004249063B2 (ja)
CA (1) CA2530718C (ja)
WO (1) WO2004112593A1 (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006304885A (ja) * 2005-04-26 2006-11-09 Olympus Medical Systems Corp 被検体内導入装置及び被検体内情報取得システム
JP2007089837A (ja) * 2005-09-29 2007-04-12 Fujinon Corp 電子内視鏡システム
JP2007089839A (ja) * 2005-09-29 2007-04-12 Fujinon Corp 電子内視鏡システム
WO2007078003A1 (ja) 2006-01-06 2007-07-12 Olympus Medical Systems Corp. 経自然開口的または経皮的な医療システム
JP2007319442A (ja) * 2006-06-01 2007-12-13 Fujifilm Corp カプセル内視鏡システム、および画像処理装置
JP2007330794A (ja) * 2006-06-13 2007-12-27 Given Imaging Ltd 生体内撮像のための方法および生体内検知システム
JP2008275786A (ja) * 2007-04-26 2008-11-13 Olympus Medical Systems Corp 撮像ユニット
WO2009069401A1 (ja) * 2007-11-28 2009-06-04 Olympus Medical Systems Corp. 被検体内情報取得システムおよび被検体内導入装置
WO2009133875A1 (ja) 2008-04-30 2009-11-05 学校法人自治医科大学 自然開口部越管腔内視鏡手術(notes)用外科手術システム及び外科手術方法
JP2010516088A (ja) * 2007-01-09 2010-05-13 カプソ・ビジョン・インコーポレイテッド カプセルカメラにおける製造ばらつき及び設計的不完全性を補正する方法
JP2010110639A (ja) * 2010-01-15 2010-05-20 Olympus Corp 受信装置および被検体内情報取得システム
EP2407083A1 (en) * 2004-09-16 2012-01-18 Olympus Corporation Capsule-type endoscope
JP2013078591A (ja) * 2012-11-21 2013-05-02 Toshiba Corp 撮像装置、撮像装置の作動方法及び内視鏡装置

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE60228266D1 (de) * 2001-06-18 2008-09-25 Given Imaging Ltd Schluckbare in vivo-erfassungskapsel mit einer starre und flexible abschnitte aufweisenden leiterplatte
US7833151B2 (en) 2002-12-26 2010-11-16 Given Imaging Ltd. In vivo imaging device with two imagers
JP4550048B2 (ja) * 2003-05-01 2010-09-22 ギブン イメージング リミテッド パノラマ視野の撮像装置
IL162740A (en) * 2003-06-26 2010-06-16 Given Imaging Ltd Device, method and system for reduced transmission imaging
JP4150663B2 (ja) * 2003-12-25 2008-09-17 オリンパス株式会社 被検体内位置検出システム
EP2572626B1 (en) * 2004-01-19 2016-03-23 Olympus Corporation Capsule type endoscope
WO2005067782A1 (ja) * 2004-01-19 2005-07-28 Olympus Corporation カプセル型医療装置
JP4262632B2 (ja) * 2004-04-19 2009-05-13 オリンパス株式会社 受信装置
US8500630B2 (en) * 2004-06-30 2013-08-06 Given Imaging Ltd. In vivo device with flexible circuit board and method for assembly thereof
US7336833B2 (en) * 2004-06-30 2008-02-26 Given Imaging, Ltd. Device, system, and method for reducing image data captured in-vivo
JP2006026234A (ja) * 2004-07-20 2006-02-02 Olympus Corp 生体内撮像装置および生体内撮像システム
US20060104057A1 (en) * 2004-10-28 2006-05-18 Jerome Avron Device and method for in-vivo illumination
US20090281389A1 (en) * 2004-12-30 2009-11-12 Iddan Gavriel J Device, system, and method for adaptive imaging
US7584534B2 (en) * 2005-01-10 2009-09-08 Perceptron, Inc. Remote inspection device
EP1857036B1 (en) * 2005-03-09 2012-07-25 Olympus Corporation Device to be introduced into subject and system to be introduced into subject
US20060217593A1 (en) * 2005-03-24 2006-09-28 Zvika Gilad Device, system and method of panoramic multiple field of view imaging
US20060224040A1 (en) * 2005-03-31 2006-10-05 Given Imaging Ltd. In vivo imaging device and method of manufacture thereof
DE102005046086A1 (de) * 2005-09-26 2007-04-05 Leutron Vision Gmbh Elektronisches Bildaufnahmesystem
EP2033569B1 (en) * 2006-06-29 2012-06-13 Olympus Medical Systems Corp. Capsule medical device and capsule medical device system
US20080004532A1 (en) 2006-06-30 2008-01-03 Kevin Rubey System and method for transmitting identification data in an in-vivo sensing device
US8472795B2 (en) * 2006-09-19 2013-06-25 Capso Vision, Inc System and method for capsule camera with on-board storage
JP2008119145A (ja) 2006-11-09 2008-05-29 Olympus Medical Systems Corp 画像表示方法および画像表示装置
KR100837588B1 (ko) * 2006-11-16 2008-06-13 아이쓰리시스템 주식회사 아날로그 전기신호를 이용한 체내외 간 고속통신방법 및 그시스템
KR100876647B1 (ko) * 2006-11-22 2009-01-08 주식회사 코렌 캡슐형 촬영 장치 및 이를 이용한 체내 촬영 방법
US20080161639A1 (en) * 2006-12-28 2008-07-03 Olympus Medical Systems Corporation Capsule medical apparatus and body-cavity observation method
US8702591B2 (en) * 2007-01-12 2014-04-22 Olympus Medical Systems Corp. Capsule medical apparatus
US10499029B2 (en) * 2007-01-09 2019-12-03 Capso Vision Inc Methods to compensate manufacturing variations and design imperfections in a display device
US9007478B2 (en) * 2007-01-09 2015-04-14 Capso Vision, Inc. Methods to compensate manufacturing variations and design imperfections in a capsule camera
JP5340557B2 (ja) * 2007-05-08 2013-11-13 オリンパスメディカルシステムズ株式会社 カプセル型医療装置
JP4918438B2 (ja) * 2007-08-31 2012-04-18 オリンパスメディカルシステムズ株式会社 被検体内情報取得システム
US20090105532A1 (en) * 2007-10-22 2009-04-23 Zvika Gilad In vivo imaging device and method of manufacturing thereof
JP5377888B2 (ja) * 2008-06-03 2013-12-25 オリンパスメディカルシステムズ株式会社 撮像装置および被検体内画像取得装置
US8516691B2 (en) * 2009-06-24 2013-08-27 Given Imaging Ltd. Method of assembly of an in vivo imaging device with a flexible circuit board
WO2011047339A2 (en) * 2009-10-15 2011-04-21 Inventio Llc Disposable and reusable complex shaped see-through endoscope
US9610133B2 (en) * 2010-03-16 2017-04-04 Covidien Lp Wireless laparoscopic camera
CN103781394B (zh) 2011-04-05 2016-09-28 可视化气囊有限责任公司 用于内窥镜的气囊状进入设备
US9833126B2 (en) 2011-04-05 2017-12-05 Visualization Balloons, Llc Balloon access device with features for engaging an endoscope
JP5927039B2 (ja) * 2012-05-28 2016-05-25 富士フイルム株式会社 電子内視鏡装置及びその撮像モジュール
US9538909B2 (en) * 2013-07-08 2017-01-10 Omnivision Technologies, Inc. Self-illuminating CMOS imaging package
KR101858877B1 (ko) * 2013-08-28 2018-06-28 도시바 라이프스타일 가부시키가이샤 저장고용 카메라 장치 및 이를 구비한 저장고
US10463235B2 (en) 2014-02-24 2019-11-05 Visualization Balloons, Llc Gastrointestinal endoscopy with attachable intestine pleating structures
JP6633067B2 (ja) * 2015-05-27 2020-01-22 オリンパス株式会社 撮像装置および内視鏡
EP3135189A1 (en) * 2015-08-25 2017-03-01 Capso Vision, Inc. Methods to compensate manufacturing variations and design imperfections in a display device
DE112018001670T5 (de) * 2017-03-30 2019-12-19 Hoya Corporation Elektronische endoskopvorrichtung
CN109567728B (zh) * 2018-11-27 2021-12-17 重庆金山医疗技术研究院有限公司 用于电子内窥镜的光耦合热量处理装置
KR102248552B1 (ko) * 2019-03-22 2021-05-04 재단법인대구경북과학기술원 생물학적 물질의 운반 디바이스
US11534544B2 (en) 2019-03-22 2022-12-27 Daegu Gyeongbuk Institute Of Science And Technology Device for conveying biological material

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0070169A1 (en) 1981-07-09 1983-01-19 Olympus Optical Co., Ltd. Endoscope with monitor
JPS6349128A (ja) * 1986-08-19 1988-03-01 株式会社東芝 内視鏡装置
JPH06335449A (ja) * 1993-05-31 1994-12-06 Olympus Optical Co Ltd 電子内視鏡装置
JPH11298907A (ja) 1998-04-10 1999-10-29 Asahi Optical Co Ltd 電子内視鏡システム
WO2001035813A1 (en) 1999-11-15 2001-05-25 Given Imaging Ltd. Method for activating an image collecting process
JP2001245844A (ja) 2000-03-03 2001-09-11 Asahi Optical Co Ltd カプセル内視鏡
WO2003010967A1 (en) 2001-07-26 2003-02-06 Given Imaging Ltd. Diagnostic device using data compression

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7453490B2 (en) * 1997-01-31 2008-11-18 Gyrus Acmi, Inc. Correction of image signals characteristic of non-uniform images in an endoscopic imaging system
US6100920A (en) * 1997-01-31 2000-08-08 Circon Corporation Video signal compensator for compensating differential picture brightness of an optical image due to uneven illumination and method
US5984875A (en) * 1997-08-22 1999-11-16 Innotek Pet Products, Inc. Ingestible animal temperature sensor
JPH11164831A (ja) * 1997-12-03 1999-06-22 Aloka Co Ltd 超音波診断装置
JP2000232653A (ja) * 1999-02-08 2000-08-22 Fuji Photo Film Co Ltd 撮影装置
US7053941B1 (en) * 1999-08-19 2006-05-30 Canon Kabushiki Kaisha Image input apparatus
WO2001065995A2 (en) * 2000-03-08 2001-09-13 Given Imaging Ltd. A device and system for in vivo imaging
JP2001318745A (ja) * 2000-05-11 2001-11-16 Sony Corp データ処理装置およびデータ処理方法、並びに記録媒体
JP3962550B2 (ja) * 2001-02-23 2007-08-22 フジノン株式会社 電子内視鏡装置
US6939292B2 (en) * 2001-06-20 2005-09-06 Olympus Corporation Capsule type endoscope
US20050187433A1 (en) * 2001-07-26 2005-08-25 Given Imaging Ltd. In-vivo imaging device providing constant bit rate transmission
IL151049A0 (en) * 2001-08-02 2003-04-10 Given Imaging Ltd In vivo imaging methods and devices
US7123288B2 (en) * 2001-09-28 2006-10-17 Fujinon Corporation Electronic endoscope eliminating influence of light distribution in optical zooming
JP2004350963A (ja) * 2003-05-29 2004-12-16 Olympus Corp カプセル型医療装置
US20050075537A1 (en) * 2003-10-06 2005-04-07 Eastman Kodak Company Method and system for real-time automatic abnormality detection for in vivo images

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0070169A1 (en) 1981-07-09 1983-01-19 Olympus Optical Co., Ltd. Endoscope with monitor
JPS6349128A (ja) * 1986-08-19 1988-03-01 株式会社東芝 内視鏡装置
JPH06335449A (ja) * 1993-05-31 1994-12-06 Olympus Optical Co Ltd 電子内視鏡装置
JPH11298907A (ja) 1998-04-10 1999-10-29 Asahi Optical Co Ltd 電子内視鏡システム
WO2001035813A1 (en) 1999-11-15 2001-05-25 Given Imaging Ltd. Method for activating an image collecting process
JP2001245844A (ja) 2000-03-03 2001-09-11 Asahi Optical Co Ltd カプセル内視鏡
WO2003010967A1 (en) 2001-07-26 2003-02-06 Given Imaging Ltd. Diagnostic device using data compression

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1637064A4

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8421853B2 (en) 2004-09-16 2013-04-16 Olympus Corporation Capsule endoscope system
EP2407083A1 (en) * 2004-09-16 2012-01-18 Olympus Corporation Capsule-type endoscope
JP4602828B2 (ja) * 2005-04-26 2010-12-22 オリンパスメディカルシステムズ株式会社 被検体内情報取得システム
JP2006304885A (ja) * 2005-04-26 2006-11-09 Olympus Medical Systems Corp 被検体内導入装置及び被検体内情報取得システム
JP2007089837A (ja) * 2005-09-29 2007-04-12 Fujinon Corp 電子内視鏡システム
JP2007089839A (ja) * 2005-09-29 2007-04-12 Fujinon Corp 電子内視鏡システム
WO2007078003A1 (ja) 2006-01-06 2007-07-12 Olympus Medical Systems Corp. 経自然開口的または経皮的な医療システム
US8475361B2 (en) 2006-01-06 2013-07-02 Olympus Medical Systems Corp. Percutaneous or natural-orifice medical procedure and system therefor
JP2007319442A (ja) * 2006-06-01 2007-12-13 Fujifilm Corp カプセル内視鏡システム、および画像処理装置
JP2007330794A (ja) * 2006-06-13 2007-12-27 Given Imaging Ltd 生体内撮像のための方法および生体内検知システム
JP2010516088A (ja) * 2007-01-09 2010-05-13 カプソ・ビジョン・インコーポレイテッド カプセルカメラにおける製造ばらつき及び設計的不完全性を補正する方法
JP2013243679A (ja) * 2007-01-09 2013-12-05 Capso Vision Inc カプセルカメラにおける製造ばらつき及び設計的不完全性を補正する方法
JP2015053683A (ja) * 2007-01-09 2015-03-19 カプソ・ビジョン・インコーポレイテッドCapso Vision, Inc. カプセルカメラにおける製造ばらつき及び設計的不完全性を補正する方法
JP2008275786A (ja) * 2007-04-26 2008-11-13 Olympus Medical Systems Corp 撮像ユニット
US8587718B2 (en) 2007-04-26 2013-11-19 Olympus Medical Systems Corp. Image pickup unit and manufacturing method of image pickup unit
JP2009131320A (ja) * 2007-11-28 2009-06-18 Olympus Medical Systems Corp 被検体内情報取得システムおよび被検体内導入装置
US8366608B2 (en) 2007-11-28 2013-02-05 Olympus Medical Systems Corp. In-vivo information acquiring system and body-insertable apparatus
WO2009069401A1 (ja) * 2007-11-28 2009-06-04 Olympus Medical Systems Corp. 被検体内情報取得システムおよび被検体内導入装置
WO2009133875A1 (ja) 2008-04-30 2009-11-05 学校法人自治医科大学 自然開口部越管腔内視鏡手術(notes)用外科手術システム及び外科手術方法
JP2010110639A (ja) * 2010-01-15 2010-05-20 Olympus Corp 受信装置および被検体内情報取得システム
JP2013078591A (ja) * 2012-11-21 2013-05-02 Toshiba Corp 撮像装置、撮像装置の作動方法及び内視鏡装置

Also Published As

Publication number Publication date
AU2004249063B2 (en) 2008-12-11
KR100757620B1 (ko) 2007-09-10
CA2530718C (en) 2009-09-01
KR20060030051A (ko) 2006-04-07
EP1637064A1 (en) 2006-03-22
AU2004249063A1 (en) 2004-12-29
CA2530718A1 (en) 2004-12-29
US20050049461A1 (en) 2005-03-03
CN1809309A (zh) 2006-07-26
CN1809309B (zh) 2010-11-10
EP1637064A4 (en) 2010-07-28
JPWO2004112593A1 (ja) 2006-07-27

Similar Documents

Publication Publication Date Title
WO2004112593A1 (ja) カプセル型内視鏡及びカプセル型内視鏡システム
AU2005283435B2 (en) Capsule-type endoscope
US8279276B2 (en) Receiving apparatus
AU2005244523B2 (en) A Device and System for In Vivo Imaging
JP4663230B2 (ja) 小さな横断面面積を有するインビボ・イメージング・デバイスおよびその構成方法
JP4422679B2 (ja) カプセル内視鏡およびカプセル内視鏡システム
JP5164473B2 (ja) 内視鏡装置
JP4918438B2 (ja) 被検体内情報取得システム
JP4445799B2 (ja) 被検体内導入装置および医療装置
JP2005021516A (ja) 電子内視鏡システム
JP5160621B2 (ja) カプセル型内視鏡システム
JP4823621B2 (ja) 受信装置、送信装置及び送受信システム

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2005507337

Country of ref document: JP

REEP Request for entry into the european phase

Ref document number: 2004746736

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2004746736

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2004249063

Country of ref document: AU

WWE Wipo information: entry into national phase

Ref document number: 1020057024658

Country of ref document: KR

Ref document number: 20048175725

Country of ref document: CN

Ref document number: 2530718

Country of ref document: CA

ENP Entry into the national phase

Ref document number: 2004249063

Country of ref document: AU

Date of ref document: 20040624

Kind code of ref document: A

WWP Wipo information: published in national office

Ref document number: 2004249063

Country of ref document: AU

WWP Wipo information: published in national office

Ref document number: 2004746736

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1020057024658

Country of ref document: KR