WO2006013977A1 - 被検体内画像取得システムおよび被検体内導入装置 - Google Patents

被検体内画像取得システムおよび被検体内導入装置 Download PDF

Info

Publication number
WO2006013977A1
WO2006013977A1 PCT/JP2005/014443 JP2005014443W WO2006013977A1 WO 2006013977 A1 WO2006013977 A1 WO 2006013977A1 JP 2005014443 W JP2005014443 W JP 2005014443W WO 2006013977 A1 WO2006013977 A1 WO 2006013977A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
subject
partial image
image
image data
Prior art date
Application number
PCT/JP2005/014443
Other languages
English (en)
French (fr)
Inventor
Hiroshi Suzushima
Noriyuki Fujimori
Tatsuya Orihara
Masatoshi Homan
Takemitsu Honda
Kazutaka Nakatsuchi
Original Assignee
Olympus Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corporation filed Critical Olympus Corporation
Priority to EP05768848A priority Critical patent/EP1779765A4/en
Priority to US11/658,552 priority patent/US7993265B2/en
Priority to CN200580026222XA priority patent/CN1993077B/zh
Publication of WO2006013977A1 publication Critical patent/WO2006013977A1/ja

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/041Capsule endoscopes for imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/065Determining position of the probe employing exclusively positioning means located on or in the probe, e.g. using position sensors arranged on the probe

Definitions

  • the present invention relates to an in-subject image acquisition system that acquires an image of an imaging target inside a subject, and an in-subject introduction apparatus that is used when acquiring an image of an imaging target inside the subject. .
  • a swallowable capsule endoscope has been proposed in the field of endoscopes.
  • This capsule endoscope is provided with an imaging mechanism and a wireless communication mechanism.
  • Capsule endoscopes are used to observe inside the body cavity, such as the stomach and small intestine, until they are spontaneously expelled after being swallowed from the mouth of the subject (human body) for observation (examination). It moves according to the peristaltic movement, and has a function to take images of the subject at intervals of 0.5 seconds, for example.
  • image data imaged inside the body by the capsule endoscope is sequentially transmitted to the outside by wireless communication and stored in a memory provided outside.
  • the subject carries a receiver equipped with a wireless communication function and a memory function, the subject can freely move between swallowing the force-push endoscope and discharging it. it can .
  • the doctor or nurse can make a diagnosis by displaying an image of the organ on the display based on the image data stored in the memory (for example, see Patent Document 1). O)
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2003-19111
  • the conventional capsule endoscope system has a problem that it is difficult to capture an entire image in a region where the capsule endoscope moves at high speed, such as an esophagus. .
  • the esophagus is stretched vertically and the oral cavity and the stomach are connected to each other, and the inside of the capsule type introduced into the subject
  • the endoscope reaches the stomach in the same state as free fall after passing through the oral cavity.
  • the capsule endoscope passes through the esophagus in about 1 second, and the normal imaging mechanism was used at an imaging rate of about 0.5 seconds.
  • the present invention has been made in view of the above, and is capable of acquiring an entire image of a predetermined imaging target inside a subject with a simple configuration while suppressing an increase in the amount of data. It is an object of the present invention to realize an in-subject image acquisition system using an in-subject introduction apparatus such as a capsule cell endoscope and the in-subject introduction apparatus.
  • an in-vivo image acquisition system provides a subject that acquires an image of a predetermined imaging target inside the subject.
  • An internal image acquisition system comprising: a partial image acquisition unit that acquires a plurality of partial image data corresponding to different parts of an imaging target in a subject; and the partial image acquisition unit that captures the partial image data
  • Position-related data acquisition means for acquiring position-related data used for derivation of a position in the subject, and an entire image corresponding to the whole image of the imaging target using a plurality of partial image data based on the position-related data
  • an overall image generating means for generating image data.
  • the image processing apparatus includes the partial image acquisition unit that acquires the partial image data, and the position related data acquisition unit that acquires the position related data corresponding to the partial image. Since the entire image generation means for acquiring the entire image of the imaging target is provided based on the related data, the number of pixels of the imaging mechanism that realizes the partial image acquisition means can be reduced, and a system with a simple configuration can be achieved. It has the advantage that it can be constructed.
  • the partial image acquisition unit and the position-related data acquisition unit are introduced into the subject, Built-in in the in-subject introduction apparatus that transmits a predetermined radio signal, and the whole image generating means is disposed outside the subject in use and receives a radio signal transmitted from the in-subject introduction apparatus. It is built in the device.
  • the in-subject introducing device is generated based on the partial image data and the position-related data.
  • Data synthesizing means for generating whole image generation data; and transmission means for transmitting a radio signal including the whole image generation data generated by the data synthesizing means, wherein the receiving device And a reception circuit that performs predetermined reception processing on the radio signal transmitted by the means and outputs the extracted whole image generation data to the whole image generation means.
  • the partial image acquiring means is arranged in a direction perpendicular to the traveling direction inside the subject.
  • a line sensor having a plurality of photoelectric transformations is provided.
  • the position-related data means includes at least acceleration relating to movement of the partial image acquiring means as the position-related data.
  • An acceleration sensor means for acquiring data is provided.
  • the partial image acquiring means is configured to select the partial image according to a moving speed of the in-subject introducing device. It is characterized by changing the data acquisition interval.
  • the partial image acquiring means is configured such that the moving direction of the in-subject introducing device is reverse. The driving is stopped during the period.
  • an in-subject introduction device is an intra-subject introduction device that is introduced into a subject and moves within the subject.
  • a partial image acquisition unit that acquires a plurality of partial image data corresponding to different portions of the imaging target in the subject, and the partial image acquisition unit at the time of imaging of the partial image data in accordance with the movement in the subject
  • Position-related data acquisition means for acquiring position-related data necessary for derivation of the position in the subject, and a whole image corresponding to the whole image of the imaging target based on the partial image data and the position-related data
  • a data synthesizing unit that generates whole image generation data used for data generation, and a transmission unit that transmits a radio signal including the whole image generation data are provided.
  • An in-subject image acquisition system and an in-subject introduction apparatus include a partial image acquisition unit that acquires partial image data, and a position-related data acquisition unit that acquires position-related data corresponding to the partial image. Therefore, it is possible to generate the entire image data to be imaged based on the partial image data and the position-related data, and to reduce the number of pixels of the imaging mechanism that realizes the partial image acquisition means. There is an effect that it is possible to construct a system with a simple configuration.
  • FIG. 1 is a schematic diagram showing an overall configuration of an in-vivo image acquisition system according to an embodiment.
  • FIG. 2 is a schematic block diagram showing an internal configuration of a capsule endoscope provided in the in-vivo image acquiring system.
  • FIG. 3 is a schematic diagram showing the appearance of a capsule endoscope.
  • FIG. 4 is a cross-sectional view taken along line AA in FIG.
  • FIG. 5 is a cross-sectional view taken along line BB in FIG.
  • FIG. 6 is a schematic diagram for explaining an operation of acquiring partial image data by a capsule endoscope.
  • FIG. 7 is a schematic diagram showing the contents of whole image generation data.
  • FIG. 8 is a schematic block diagram showing an internal configuration of a receiving device.
  • FIG. 9 is a schematic diagram showing the contents of partial image data.
  • FIG. 10 is a schematic diagram showing the contents of whole image data.
  • FIG. 1 is a schematic diagram showing an overall configuration of an in-vivo image acquisition system according to the present embodiment.
  • the in-subject image acquisition system that is useful in the present embodiment includes a capsule endoscope 2 that is introduced into the subject 1 and moves along a passage route, and a capsule endoscope A receiving device 3 that receives the wireless signal including the entire image generation data (described later) transmitted from 2 and generates the entire image data that is an image of the entire imaging target based on the entire image generation data; and the receiving device 3
  • the display device 4 for displaying the whole image data generated by the above-mentioned information, and the portable recording medium 5 for transferring data between the receiving device 3 and the display device 4 are provided.
  • the display device 4 is for displaying the entire image data that is generated by the receiving device 3 and is the image data of the entire imaging target, and the data input via the portable recording medium 5 Based on! It has a configuration such as a workstation that displays images. Specifically, the display device 4 may be configured to directly display an image or the like by a CRT display, a liquid crystal display, or the like, or may be configured to output an image or the like to another medium such as a printer.
  • the portable recording medium 5 is detachable from the receiving device 3 and the display device 4, and has a structure capable of outputting and recording data when worn on both. Specifically, the portable recording medium 5 is attached to the receiving device 3 and stores the in-subject image while the capsule endoscope 2 is moving in the body cavity of the subject 1. Then, after the capsule endoscope 2 is discharged from the subject 1, the capsule endoscope 2 is taken out from the receiving device 3 and attached to the display device 4, and the recorded data is read out by the display device 4. When data is exchanged between the receiving device 3 and the display device 4 using a portable recording medium 5 such as a Compact Flash (registered trademark) memory, the receiving device 3 and the display device 4 are connected by wire. Unlike the case, even when the capsule endoscope 2 is moving inside the subject 1, the subject 1 can freely move.
  • a portable recording medium 5 such as a Compact Flash (registered trademark) memory
  • the receiving antennas 6a to 6h are formed using, for example, a loop antenna.
  • the loop antenna is fixed at a predetermined position on the body surface of the subject 1 and the receiving device 3 It has an electrically connected configuration and enables the reception device 3 to receive a radio signal transmitted from the capsule endoscope 2.
  • FIG. 2 is a block diagram schematically showing the relationship between the components provided in the capsule endoscope 2.
  • the capsule endoscope 2 includes a partial image acquisition unit 8 for acquiring a partial image, acceleration data of the capsule endoscope 2 when moving inside the subject 1, and the like.
  • the acceleration sensor unit 9 that detects the position-related data that is configured, the partial image data acquired by the partial image acquisition unit 8, and the position-related data detected by the acceleration sensor unit 9, And a data synthesizer 10 for generating business data.
  • the capsule endoscope 2 includes a transmission unit 11 that transmits a radio signal including the entire image generation data synthesized by the data synthesis unit 10 to the outside of the subject 1, a partial image acquisition unit 8, an acceleration sensor A control unit 12 that controls driving states of the unit 9, the data synthesis unit 10, and the transmission unit 11, and a power supply unit 13 that supplies driving power to the components included in the capsule endoscope 2.
  • the partial image acquisition unit 8 is for acquiring a partial image that is an image relating to a partial region of a predetermined imaging target inside the subject 1.
  • the partial image acquisition unit 8 includes a line sensor unit 14 that functions as an imaging unit, a sensor drive circuit 15 that controls the drive state of the line sensor unit 14, and a line sensor unit 14 that captures a partial image.
  • An LED 16 that outputs illumination light and an LED drive circuit 17 that controls the drive state of the LED 16 are provided.
  • the specific configuration of the line sensor unit 14 and the LED 16 will be described in detail later, and will be omitted here.
  • the acceleration sensor unit 9 functions as an example of position-related data acquisition means in the claims, and is required when deriving the position of the capsule endoscope at the time of partial image acquisition. This is for detecting position-related data.
  • acceleration data that is data relating to the acceleration of the capsule endoscope 2 and time data that is time data at which the acceleration data is detected are used as position related data as position related data.
  • the specific configuration of the acceleration sensor 9 includes, for example, an acceleration detection mechanism such as a small gyroscope and a time detection mechanism.
  • the detected acceleration data and time data are stored in the data synthesis unit 10 and the control unit 12 as position-related data.
  • the data synthesizing unit 10 is for generating whole image generation data. Specifically, the data composition unit 10 generates and transmits whole image generation data based on the partial image data input from the partial image acquisition unit 8 and the position-related data input from the calo speed sensor 9. It has a function of outputting to part 11.
  • the transmission unit 11 is for wirelessly transmitting the entire image generation data generated by the data synthesis unit 10 after performing necessary processing.
  • the transmission unit 11 includes a transmission circuit 18 that performs modulation processing or the like on input data, and a transmission antenna 19 for transmitting a radio signal output from the transmission circuit 18.
  • the control unit 12 is for controlling the driving state and the like of the partial image acquisition unit 8 provided in the capsule endoscope 2. Specifically, the control unit 12 has a function of performing general control on these components, and also synchronizes the partial image acquisition unit 8, the acceleration sensor unit 9, and the data synthesis unit 10 with each other. It has a function of driving in a state.
  • control unit 12 has a function of deriving the moving speed of the capsule endoscope 2 based on the position related information input from the acceleration sensor 9, and acquires a partial image based on the derived moving speed. It has a function of controlling the drive state of unit 8. The specific contents of the function to be used will be described in detail later.
  • FIG. 3 is a schematic diagram showing the appearance of the capsule endoscope 2
  • Fig. 4 is a cross-sectional view taken along line A-A in Fig. 3
  • Fig. 5 is taken along line B-B in Fig. 4. It is a sectional view along.
  • the line sensor unit 14 and the like will be described with reference to these drawings.
  • the outer shape of the capsule endoscope 2 is formed by an exterior case member 21 for incorporating each component shown in FIG.
  • the exterior case member 21 has a structure including an imaging window 21a formed of a light transmissive member in part of the force formed of a biocompatible material or the like.
  • the imaging window 21a is for inputting light of an external force to the line sensor unit 14, and specifically, with respect to the longitudinal central axis 21b of the exterior case member 21, a 360 ° field of view around the axis. Formed to have Has been.
  • the above-described line sensor unit 14 is arranged inside the exterior case member 21 at a position where light input through the imaging window 21a can reach.
  • FIG. 4 which is a cross-sectional view taken along the line AA in FIG. 3, the line sensor units 14a and 14b are provided on the plane including the line AA and perpendicular to the longitudinal center axis 21b. Is arranged.
  • the capsule endoscope 2 includes the line sensor units 14a and 14b and the imaging window 21a.
  • the prisms 22a and 22b are arranged in the region between the two.
  • Each of the line sensor units 14a and 14b has a configuration in which a plurality of photoelectric conversion mechanisms such as photodiodes are arranged in a power array, and outputs electrical signals obtained by the photoelectric conversion as necessary. It has a mechanism to perform.
  • the line sensor units 14a and 14b have a light receiving surface on the opposite side to the surfaces facing each other, and have a function of converting light input from an external force into an electric signal on the powerful light receiving surface.
  • the data acquired by the photoelectric conversion processing in the line sensor units 14a and 14b is synthesized by a predetermined circuit (not shown), and around the axis of the longitudinal central axis 21b corresponding to the visual field defined by the imaging window 21a. It is output to the data composition unit 10 as partial image data corresponding to a 360 ° range.
  • the prisms 22a and 22b are for imaging the light input through the imaging window 21a on the light receiving surfaces of the line sensor units 14a and 14b, respectively. Specifically, the prisms 22a and 22b are refracted and imaged by the input light that has passed through the imaging window 21a, so that the longitudinal center of the tissue inside the subject 1 with respect to the imaging window 21a. It has a function of forming an image of a region located on an extension in a direction perpendicular to the axis 21b on the light receiving surfaces of the line sensor units 14a and 14b.
  • the prisms 22a and 22b also function as a light guide path for illumination light output from the LED 16.
  • the light output from the LEDs 16a and 16b respectively disposed on the line sensor units 14a and 14b is reflected by the incident mirrors 24a and 24b disposed in the vicinity to be reflected on the prisms 22a and 22b.
  • Light guide mirrors 25a to 25d are arranged on the upper and lower surfaces of the prisms 22a and 22b, respectively, and are incident on the prisms 22a and 22b.
  • the illumination light is reflected by the light guide mirrors 25a to 25d, propagates in the prisms 22a and 22b, and is finally output to the outside through the imaging window 21a.
  • the capsule endoscope 2 has a function of sequentially acquiring partial image data corresponding to different portions as the subject 1 moves inside the subject 1.
  • FIG. 6 schematically shows the imaging operation of the capsule endoscope 2 when passing through the esophagus as an example of the imaging operation.
  • the capsule endoscope will be described below with reference to FIG. The operation of 2 will be described.
  • the line sensor units 14a and 14b provided in the capsule endoscope 2 are moved in the direction of travel of the capsule endoscope 2 (long) by the action of the imaging window 21a and the prisms 22a and 22b. It has a function of capturing an image of the tissue in the subject located in a direction perpendicular to the direction of the direction center axis 21b). Therefore, at time t, the capsule endoscope 2 is
  • An image of the inner peripheral region 28a that is located in a direction perpendicular to the traveling direction with respect to the imaging window 21a and has the same width as the imaging window 21a with respect to the traveling direction is acquired as partial image data.
  • the capsule endoscope 2 moves in the esophagus 27 by the action of gravity or the like, and specifically, moves at a time t to a position Z (t) different from the position Z (t) at the time t. To do.
  • the region positioned in the direction perpendicular to the traveling direction of the capsule endoscope 2 with respect to the imaging window 21a is an inner peripheral region 28b different from the inner peripheral region 28a, and the line sensor units 14a and 14b Partial image data that is an image of the region 28b is newly acquired. Thereafter, in the same manner, partial image data corresponding to different inner peripheral areas are sequentially acquired as the capsule endoscope 2 moves.
  • the capsule endoscope 2 acquires position-related data related to the positional relationship between different inner peripheral areas in accordance with the partial image acquisition operation.
  • the acceleration sensor unit 9 provided in the capsule endoscope 2 detects the acceleration of the capsule endoscope 2 at the time when the partial image is acquired as acceleration data.
  • the capsule endoscope 2 detects and outputs position-related data based on acceleration data and time data to the data synthesis unit 10 and the control unit 12.
  • the capsule endoscope 2 passes through the inside of the subject 1, for example, the esophagus 27, the partial region (inner peripheral region 28a) of the imaging target (the esophagus 27 in the case of FIG. 6). , 28b, etc.) to acquire a plurality of partial images and position-related data for deriving the positional relationship between the partial images (in this example, the acceleration and time at the time of capturing the partial images). Information).
  • the data synthesizing unit 10 Based on these data, the data synthesizing unit 10 generates whole image generation data, and a radio signal including the whole image generation data is transmitted to the receiving device 3 by the transmission unit 11.
  • FIG. 7 is a schematic diagram showing the configuration of the entire image generation data generated by the data synthesis unit 10.
  • the graph with the horizontal axis at time t and the vertical axis with velocity V is a schematic graph showing an example of the temporal variation of the moving speed of the capsule endoscope 2, and the velocity change shown in the powerful graph
  • the data synthesizing unit 10 generates data for generating the entire image in a different mode.
  • the velocity V shown on the vertical axis of the graph is positive in the normal direction of movement of the capsule endoscope 2.
  • the speed in the direction of force from the oral cavity to the esophagus, stomach, small intestine, and large intestine is positive, and the speed in the opposite direction to the direction of force is negative.
  • the speed in the opposite direction to the direction of force is negative.
  • the data composition unit 10 generates the whole image generation data 30a when the velocity V of the capsule endoscope 2 is a positive value, that is, when t ⁇ t or t ⁇ t. Speed V is negative
  • the entire image generation data 30b is generated.
  • the whole image generation data 30 a is composed of partial image data 31 and position-related data 32 corresponding to the partial image data 31.
  • the partial image data 31 is image data corresponding to each of the above-described inner peripheral areas 28a, 28b, etc.
  • the position related data 32 is used when specifying the position of the imaged area corresponding to the partial image data 31.
  • the position-related data 32 includes time data 32a indicating the time when the corresponding partial image data 31 was imaged, and acceleration data 32b indicating the acceleration value of the capsule endoscope 2 at the time when the power is applied. And is composed of.
  • the entire image generation data 30 b is formed only by the position related data 33.
  • the speed of the capsule endoscope 2 is negative. Since the partial image acquisition unit 8 does not capture a partial image in a powerful time zone, the partial image data is also included in the entire image generation data 30b generated by the data synthesis unit 10. Absent.
  • the position-related data 33 is composed of time data 33a and acceleration data 33b in the same manner as the position-related data 32.
  • FIG. 8 is a schematic block diagram showing the configuration of the receiving device 3.
  • the receiving device 3 includes an antenna selecting unit 35 that selects a plurality of receiving antennas 6a to 6h that are suitable for receiving a radio signal, and an antenna selecting unit 35.
  • the reception circuit 36 that performs processing such as demodulation on the radio signal received through the selected reception antenna 6 and the signal image output from the reception circuit 36 are extracted.
  • a signal processing unit 37 The receiving apparatus 3 also outputs a data separation unit 38 that separates and outputs partial image data and position-related data included in the entire image generation data input from the signal processing unit 37, and a data separation unit 38.
  • a position data generation unit 39 that generates position data based on the position-related data, a partial image data output from the signal processing unit 37, and a position data output from the position data generation unit 39. And an overall image generation unit 40 for generation. Furthermore, the receiving device 3 includes a control unit 41 that controls the driving state of each component included therein, and an AZD conversion that outputs the received intensity signal output from the receiving circuit 36 to the control unit 41 after AZD conversion. A unit 42, a storage unit 43 for storing the entire image data generated by the entire image generation unit 40, and a power supply unit 44 for supplying driving power of each component.
  • the antenna selection unit 35 is for selecting an antenna suitable for receiving radio signals, which has the medium power of the plurality of reception antennas 6a to 6h. Specifically, the antenna selection unit 35 selects a predetermined reception antenna 6 based on the control of the control unit 41, and transmits a radio signal received via the selected reception antenna 6 to the reception circuit 36. Has a function to output.
  • the receiving circuit 36 has a function of performing predetermined processing such as demodulation on the radio signal received via the selected receiving antenna 6.
  • the receiving circuit 36 has a function of outputting an analog signal corresponding to the strength of the received radio signal to the AZD conversion unit 42.
  • the signal processing unit 37 has a function of extracting the intermediate predetermined data of the signal subjected to the predetermined processing by the receiving circuit 36. Specifically, the signal processing unit 37 has a function of extracting the entire image generation data generated by the data synthesis unit 10 included in the capsule endoscope 2 from the signal output from the reception circuit 36. Have.
  • the data separation unit 38 has a function of separating partial image data and position-related data included in the entire image generation data output from the signal processing unit 37.
  • the partial image data separated by the data separation unit 38 is output to the whole image generation unit 40, and the position related data is output to the position data generation unit 39.
  • the position data generation unit 39 is provided in the position of the capsule endoscope 2 when the corresponding partial image data is captured based on the position related data, more precisely, in the capsule endoscope 2. It has a function of generating position data as information indicating the position of the partial image acquisition unit 8.
  • the position data generation unit 39 performs, for example, a time integration process twice on the acceleration data to obtain a partial image at the time of partial image data acquisition.
  • the position of the acquisition unit 8 is derived and output to the entire image generation unit 40 as position data.
  • time integration of acceleration data is performed, more accurate position data is generated by using acceleration data related to the time when the partial image was not acquired by the partial image acquisition unit 8.
  • the control unit 41 performs general control for each component and performs overall control including an antenna selection operation by the antenna selection unit 35. Specifically, the control unit 41 transfers the whole image data acquired by the whole image generation unit 40 to the storage unit 43 and stores it, and also corresponds to the reception intensity output from the AZD conversion unit 42. Based on a digital signal (for example, RSSI (ReceivedSignalStrengthIndicator: received signal strength indication signal)), the receiving antenna 6 to be used is determined, and the antenna selecting unit 35 is instructed.
  • a digital signal for example, RSSI (ReceivedSignalStrengthIndicator: received signal strength indication signal)
  • the storage unit 43 is for storing the entire image data generated by the entire image generation unit 40.
  • the storage unit 43 itself may store data by providing a memory or the like.
  • the storage unit 43 includes:
  • the portable recording medium 5 has a function of writing data.
  • the entire image generation unit 40 generates an entire image to be imaged based on the partial image data and position-related data corresponding to the partial image data (more precisely, position data generated based on the position-related data). It is for generating.
  • the whole image generation unit 40 has a function of generating whole image data by arranging a plurality of partial image data corresponding to the imaging positions described in the position data on a predetermined image space. .
  • the content of the generated whole image data may be simply a plurality of partial images arranged according to the positional relationship.
  • the present embodiment is devised so that a doctor can be easily diagnosed by performing predetermined image processing.
  • FIG. 9 is a schematic diagram showing partial image data 46 that has been subjected to image processing by the overall image generation unit 40 prior to the generation of the overall image data.
  • the partial image data 46 has a data structure indicating the lightness in each part of the corresponding inner peripheral region 28. That is, the partial image data 46 is constituted by the contents expressing the position of each part of the inner peripheral region 28 by the angle ⁇ with respect to the predetermined reference axis X and expressing the brightness of each part according to the distance of the origin O force !: Has been.
  • the distance r is defined by, for example, the reciprocal of the lightness of each part, and increasing the value of the distance r means that the lightness is reduced.
  • the entire image generation unit 40 generates the partial image data 46 by performing predetermined image processing before generating the entire image data. Then, the entire image generation unit 40 generates the entire image data by arranging a plurality of partial image data 46 in a predetermined image space according to the corresponding position data.
  • FIG. 10 is a schematic diagram showing a configuration of the entire image data 47 generated by the entire image generating unit 40.
  • the entire image data 47 has a configuration in which a plurality of partial image data 46 are arranged with reference to the z axis corresponding to the traveling direction of the capsule endoscope 2. More specifically, the partial image data 46 to be arranged is arranged with a predetermined point on the z-axis as the origin, and the arrangement order of the plurality of partial image data 46 is determined at the time of imaging. It is determined corresponding to the position of the line sensor unit 14 in the subject 1 inside. In the example of FIG.
  • the position data is used only for determining the arrangement order of the partial image data 46, and the force for continuously arranging the partial image data 46 is derived, for example, by the position data.
  • the partial image data 46 may be arranged with an interval corresponding to the distance between adjacent partial image data.
  • an entire image of the imaging target for example, the esophagus 27
  • the powerful whole image data 47 is output to the portable recording medium 5 via the storage unit 43, output to the display device 4 via the portable recording medium 5, and displayed on the screen of the display device 4 as shown in FIG. By being displayed in the manner shown in (2), it is used for medical diagnosis.
  • the in-vivo image acquisition system according to the present embodiment is based on the partial image acquired by the partial image acquisition unit 8 and the position-related data corresponding to the partial image! It has a configuration that generates an entire image. Therefore, even an image of the entire imaging target existing over a wide range has an advantage that it is possible to acquire image data using an imaging unit having a narrow imaging field of view. That is, in this embodiment, since a configuration for acquiring not only partial image data but also corresponding position-related data is adopted, it becomes possible to grasp the positional relationship between a plurality of partial image data, and a plurality of partial image data can be obtained. It can be used to generate whole image data. Therefore, even in the case of imaging a wide range, it is possible to realize a low-cost in-vivo image acquisition system that does not require an imaging means having a wide imaging field of view.
  • the in-vivo image acquisition system that is effective in the present embodiment does not need to include an imaging unit including a number of photoelectric conversion mechanisms in a conventional two-dimensional matrix, and the imaging unit can be downsized and manufactured. This has the advantage that the cost can be reduced.
  • the capsule endoscope 2 has a characteristic of moving in the subject 1 by the action of an external force such as a peristaltic motion in the gravity or extinguisher organ.
  • the partial image acquisition unit 8 can acquire partial images related to different parts of the imaging target by performing the imaging operation a plurality of times at predetermined time intervals, and the partial image acquisition unit 8 to capture the different parts. It is not necessary to provide a mechanism for changing the visual field of the camera, a moving mechanism for changing the position of the capsule endoscope 2, and the like. Therefore, when the in-subject image acquisition system is configured using the capsule endoscope 2 as in the present embodiment, the in-subject image acquisition is performed with a simple configuration that does not include a moving mechanism or the like. It is advantageous to be able to configure the system.
  • the in-vivo image acquisition system has an advantage that it can acquire the entire image of the imaging target while suppressing an increase in the data amount of the acquired image.
  • the A problem with the conventional capsule endoscope system is that the imaging rate is limited in order to suppress an increase in power consumption, and it is difficult to obtain a whole image of the imaging target.
  • it is possible to change the number of partial image data used for forming the entire image data for example, by adjusting the imaging interval. By changing the number of partial image data, the amount of data transmitted from the capsule endoscope 2 can be adjusted, and the number of partial image data is reduced to a level sufficient to suppress power consumption. It is possible. On the other hand, even if the number of partial image data is reduced, the entire image data can be generated although there is a slight decrease in resolution. Thus, there is an advantage that it is possible to acquire the entire image to be imaged while satisfying the condition of reduction of image quality.
  • the in-subject image acquisition system that is effective in the present embodiment is configured to control the driving state of the partial image acquisition unit 8 in accordance with the moving speed of the force-pseed endoscope 2 inside the subject 1. Therefore, there is an advantage that acquisition of useless partial images can be prevented.
  • the in-vivo image acquisition system according to the present embodiment is configured such that when the moving speed of the capsule endoscope 2 becomes a negative value as described above, the control unit 12 performs the partial image acquisition unit. Has the function to stop the drive of 8. When the moving speed becomes a negative value, it means that the capsule endoscope 2 returns to the area where the partial image has already been acquired, so from the viewpoint of generating the whole image, the partial image is The meaning of imaging is poor.
  • the moving speed becomes a negative value
  • the capturing of the partial image is stopped to prevent the acquisition of useless partial images, and the power consumption of the partial image acquisition unit 8 is reduced.
  • advantages such as reducing the power consumption of the transmitter 11 by reducing the amount of data to be transmitted. Note that the viewpoint power for enjoying the advantage is not limited to the case where the moving speed becomes a negative value, but it is also possible to change the imaging rate according to the moving speed, for example.
  • the whole image generating unit 40 generates a three-dimensional image corresponding to the brightness of each part as whole image data. For example, when a foreign substance such as a tumor is present in the imaging target, the image is usually imaged with a different brightness compared to other parts. Therefore, by adopting a configuration that displays the brightness of each part as the entire image data, it is possible to configure an in-vivo image acquisition system that generates entire image data that can be easily diagnosed by a doctor or the like. Have
  • the position-related data is composed of acceleration data and time data.
  • the position-related data may be composed of speed data and time data that need not be interpreted as being limited to a powerful structure.
  • the position-related data may be composed of information related to the position of the capsule endoscope 2 at the time of imaging.
  • the position-related data may include a position detection mechanism for the capsule endoscope 2 separately. The positional information of the capsule endoscope 2 itself may be used as related data.
  • the data composition unit 10 generates the whole image generation data in which the partial image data and the position related data are integrated.
  • Configuration to generate whole image refinement data for capsule endoscope 2 It is not necessary to interpret it as limited to. That is, as is clear from the above description, when generating the whole image data by the whole image generating unit 40, if the individual partial image data and the position data corresponding to the partial image data are clear, the whole image data is generated. Image data can be generated. Therefore, for example, an identification code is attached to the header portion of partial image data and position-related data, and the corresponding partial image data and position-related data are transmitted separately with a common identification code assigned. It may be. Even with a powerful configuration, it is possible to grasp the correspondence on the receiving device side, and it is possible to generate whole image data.
  • the in-vivo image acquiring system configured by the capsule endoscope 2 and the receiving device 3 has been described.
  • power is used as a physical configuration of the in-subject image acquiring system.
  • a partial image acquisition unit is arranged at the distal end of the insertion unit, and an entire image generation unit is arranged in the operation unit.
  • the minimum components of the present invention include a mechanism for capturing a partial image, and an association means for associating position-related data related to the position of the imaging mechanism at the time of capturing the partial image with the partial image data.
  • a means for generating the entire image based on the partial image data and the position-related data may be provided.
  • physical transmission may be performed by wireless transmission or wired transmission.
  • the in-subject image acquisition system and the in-subject introduction device according to the present invention are useful for a medical observation apparatus that is introduced into a human body and observes a subject site.
  • it is suitable for acquiring an entire image of a predetermined imaging target (test site) inside the subject with a simple configuration while suppressing an increase in the amount of data.

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Human Computer Interaction (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Endoscopes (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Processing (AREA)

Abstract

 カプセル型内視鏡2は、長手方向(進行方向)の中心軸の周りに360°の視野を有する部分画像取得手段を備え、カプセル型内視鏡2の移動に伴い内周領域28a、28b等に関する部分画像データを複数取得する。一方で、カプセル型内視鏡2は、部分画像データ取得時における位置Z(t1)、Z(t2)の導出を可能とする位置関連データを取得する構成を有し、受信装置等において部分画像データおよび位置関連データに基づき、全体画像データを構成することを可能とすることで、データ量の増加を抑制しつつ、簡易な構成で被検体内部の所定の撮像対象の全体画像を取得する。

Description

明 細 書
被検体内画像取得システムおよび被検体内導入装置
技術分野
[0001] 本発明は、被検体内部の撮像対象の画像を取得する被検体内画像取得システム および被検体内部の撮像対象の画像の取得の際に使用される被検体内導入装置 に関するものである。
背景技術
[0002] 近年、内視鏡の分野にお!、ては、飲込み型のカプセル型内視鏡が提案されて 、る 。このカプセル型内視鏡には、撮像機構と無線通信機構とが設けられている。カプセ ル型内視鏡は、観察 (検査)のために被検体 (人体)の口から飲込まれた後、自然排 出されるまでの間、体腔内、例えば胃、小腸などの臓器の内部をその蠕動運動に従 つて移動し、移動に伴い、例えば 0. 5秒間隔で被検体内画像の撮像を行う機能を有 する。
[0003] 体腔内を移動する間、カプセル型内視鏡によって体内で撮像された画像データは 、順次無線通信により外部に送信され、外部に設けられたメモリに蓄積される。被検 体が無線通信機能とメモリ機能とを備えた受信機を携帯することにより、被検体は、力 プセル型内視鏡を飲み込んだ後、排出されるまでの間に渡って、自由に行動できる 。カプセル型内視鏡が排出された後、医者もしくは看護士においては、メモリに蓄積 された画像データに基づいて臓器の画像をディスプレイに表示させて診断を行うこと ができる (例えば、特許文献 1参照。 ) o
[0004] 特許文献 1 :特開 2003— 19111号公報
発明の開示
発明が解決しょうとする課題
[0005] し力しながら、従来のカプセル型内視鏡システムでは、食道等のようにカプセル型 内視鏡が高速で移動する領域に関して、全体画像を撮像することが困難であるという 課題を有する。例えば、被検体が直立した状態を維持する場合には、食道は鉛直方 向に延伸した状態で口腔と胃とを接続しており、被検体に導入されたカプセル型内 視鏡は、口腔を通過後に自由落下と同様の状態で胃まで到達することとなる。食道 の全長が 30cm程度であることに鑑みると、カプセル型内視鏡は 1秒程度で食道を通 過することとなり、 0. 5秒間隔程度の撮像レートでは、通常の撮像機構を使用したの では食道のごくわずかな領域に関して撮像が可能であるに過ぎず、食道全体の画像 データを取得することはきわめて困難である。
[0006] このため、従来のカプセル型内視鏡システムでは、例えば食道全体に関して画像 データを取得するためには、例えば広 、撮像視野を有する撮像機構を内蔵すること が必要となる。し力しながら、力かる構成を実現するためには複雑な光学系等を備え る必要があり、カプセル型内視鏡が大型化する等の課題が新たに生じることとなり、 妥当ではない。
[0007] また、食道等の全体画像データを取得するために、撮像レートを高速化することも 考えられる。しカゝしながら、撮像レートを高速ィ匕した場合には、取得される画像データ の量が増加し、無線機構によって送信されるデータ量も増加する。従って、撮像レー トを向上させた場合には、処理すべきデータ量が増加し、カプセル型内視鏡の消費 電力が増加するという新たな課題が生じることとなり、力かる構成も妥当ではない。
[0008] 本発明は、上記に鑑みてなされたものであって、データ量の増加を抑制しつつ、簡 易な構成で被検体内部の所定の撮像対象の全体画像を取得することが可能なカブ セル型内視鏡等の被検体内導入装置および被検体内導入装置を用いた被検体内 画像取得システムを実現することを目的とする。
課題を解決するための手段
[0009] 上述した課題を解決し、目的を達成するために、本発明の請求項 1にカゝかる被検 体内画像取得システムは、被検体内部の所定の撮像対象の画像を取得する被検体 内画像取得システムであって、被検体内の撮像対象中の異なる部分に対応した複数 の部分画像データを取得する部分画像取得手段と、前記部分画像データの撮像の 際における前記部分画像取得手段の前記被検体内における位置の導出に用いられ る位置関連データを取得する位置関連データ取得手段と、前記位置関連データに 基づき、複数の前記部分画像データを用いて撮像対象の全体像に対応した全体画 像データを生成する全体画像生成手段とを備えたことを特徴とする。 [0010] この請求項 1の発明によれば、部分画像データを取得する部分画像取得手段と、 部分画像に対応した位置関連データを取得する位置関連データ取得手段とを備え 、部分画像データおよび位置関連データに基づき撮像対象の全体画像を取得する 全体画像生成手段を備えたこととしたため、部分画像取得手段を実現する撮像機構 の画素数を低減することが可能であり、簡易な構成のシステムを構築することが可能 であるという利点を有する。
[0011] また、本発明の請求項 2にかかる被検体内画像取得システムは、上記の発明にお いて、前記部分画像取得手段および前記位置関連データ取得手段は、前記被検体 内部に導入され、所定の無線信号を送信する被検体内導入装置に内蔵され、前記 全体画像生成手段は、使用時に前記被検体の外部に配置され、前記被検体内導入 装置から送信される無線信号を受信する受信装置に内蔵されたことを特徴とする。
[0012] また、本発明の請求項 3にかかる被検体内画像取得システムは、上記の発明にお いて、前記被検体内導入装置は、前記部分画像データおよび前記位置関連データ に基づき生成された全体画像生成用データを生成するデータ合成手段と、前記デ ータ合成手段によって生成された全体画像生成用データを含む無線信号を送信す る送信手段とをさらに備え、前記受信装置は、前記送信手段によって送信された無 線信号に対して所定の受信処理を行 ヽ、抽出した前記全体画像生成用データを前 記全体画像生成手段に出力する受信回路をさらに備えたことを特徴とする。
[0013] また、本発明の請求項 4に力かる被検体内画像取得システムは、上記の発明にお いて、前記部分画像取得手段は、被検体内部における進行方向と垂直な方向に配 列された複数の光電変 構を有するラインセンサを備えたことを特徴とする。
[0014] また、本発明の請求項 5にかかる被検体内画像取得システムは、上記の発明にお いて、前記位置関連データ手段は、前記位置関連データとして少なくとも前記部分 画像取得手段の移動に関する加速度データを取得する加速度センサ手段を備えた ことを特徴とする。
[0015] また、本発明の請求項 6にかかる被検体内画像取得システムは、上記の発明にお いて、前記部分画像取得手段は、前記被検体内導入装置の移動速度に応じて前記 部分画像データの取得間隔を変化させることを特徴とする。 [0016] また、本発明の請求項 7にかかる被検体内画像取得システムは、上記の発明にお いて、前記部分画像取得手段は、前記被検体内導入装置の移動方向が逆方向とな る期間に駆動を停止することを特徴とする。
[0017] また、本発明の請求項 8にかかる被検体内導入装置は、被検体内に導入され、該 被検体内を移動する被検体内導入装置であって、当該被検体内導入装置の被検体 内における移動に伴い、前記被検体内の撮像対象中の異なる部分に対応した複数 の部分画像データを取得する部分画像取得手段と、前記部分画像データの撮像の 際における前記部分画像取得手段の前記被検体内における位置の導出に必要な 位置関連データを取得する位置関連データ取得手段と、前記部分画像データおよ び前記位置関連データに基づき、前記撮像対象の全体像に対応した全体画像デー タの生成に用いられる全体画像生成用データを生成するデータ合成手段と、前記全 体画像生成用データを含む無線信号を送信する送信手段とを備えたことを特徴とす る。
発明の効果
[0018] 本発明にかかる被検体内画像取得システムおよび被検体内導入装置は、部分画 像データを取得する部分画像取得手段と、部分画像に対応した位置関連データを 取得する位置関連データ取得手段とを備えたため、部分画像データおよび位置関 連データに基づき撮像対象の全体画像データを生成することが可能であると共に、 部分画像取得手段を実現する撮像機構の画素数を低減することが可能であり、簡易 な構成のシステムを構築することが可能であるという効果を奏する。
図面の簡単な説明
[0019] [図 1]図 1は、実施例にカゝかる被検体内画像取得システムの全体構成を示す模式図 である。
[図 2]図 2は、被検体内画像取得システムに備わるカプセル型内視鏡の内部構成を 示す模式的なブロック図である。
[図 3]図 3は、カプセル型内視鏡の外観を示す模式図である。
[図 4]図 4は、図 3の A— A線断面図である。
[図 5]図 5は、図 4の B— B線断面図である。 [図 6]図 6は、カプセル型内視鏡による部分画像データの取得動作を説明するための 模式図である。
[図 7]図 7は、全体画像生成用データの内容を示す模式図である。
[図 8]図 8は、受信装置の内部構成を示す模式的なブロック図である。
[図 9]図 9は、部分画像データの内容を示す模式図である。
[図 10]図 10は、全体画像データの内容を示す模式図である。
符号の説明
1 被検体
2 カプセル型内視鏡
3 受信装置
4 表示装置
5 携帯型記録媒体
6a〜6h 受信アンテナ
8 部分画像取得部
9 加速度センサ部
10 データ合成部
11 送信部
12 制御部
13 電力供給部
14、 14a、 14b ラインセンサ部
15 センサ駆動回路
16、 16a, 16b LED
17 LED駆動回路
18 送信回路
19 送信アンテナ
21 外装ケース部材
21a 撮像窓
22a, 22b プリズム 24aゝ 24b 入射ミラー
25a〜25d 導光ミラー
27 食道
28a、 28b 内周領域
30a, 30b 全体画像生成用データ
31 部分画像データ
32 位置関連データ
32a 時刻データ
32b 加速度データ
33 位置関連データ
33a 時刻データ
33b 加速度データ
35 アンテナ選択部
36 受信回路
37 信号処理部
38 データ分離部
39 位置データ生成部
40 全体画像生成部
41 制御部
42 AZD変換部
43
44 電力供給部
46 部分画像データ
47 全体画像データ
発明を実施するための最良の形態
以下、この発明を実施するための最良の形態 (以下、単に「実施例」と称する)であ る被検体内導入装置および被検体内画像取得システムについて説明する。なお、図 面は模式的なものであり、各部分の厚みと幅との関係、それぞれの部分の厚みの比 率などは現実のものとは異なることに留意すべきであり、図面の相互間においても互 いの寸法の関係や比率が異なる部分が含まれていることはもちろんである。
[0022] 図 1は、本実施例にカゝかる被検体内画像取得システムの全体構成を示す模式図で ある。図 1に示すように、本実施例に力かる被検体内画像取得システムは、被検体 1 の内部に導入されて通過経路に沿って移動するカプセル型内視鏡 2と、カプセル型 内視鏡 2から送信された、全体画像生成用データ (後述)を含む無線信号を受信し、 全体画像生成用データに基づき撮像対象全体の画像である全体画像データを生成 する受信装置 3と、受信装置 3によって生成された全体画像データ等を表示する表 示装置 4と、受信装置 3と表示装置 4との間のデータの受け渡しを行うための携帯型 記録媒体 5とを備える。
[0023] 表示装置 4は、受信装置 3によって生成された、撮像対象全体の画像のデータであ る全体画像データを表示するためのものであり、携帯型記録媒体 5を介して入力され たデータに基づ!/、て画像表示を行うワークステーション等のような構成を有する。具 体的には、表示装置 4は、 CRTディスプレイ、液晶ディスプレイ等によって直接画像 等を表示する構成としても良いし、プリンタ等のように、他の媒体に画像等を出力する 構成としても良い。
[0024] 携帯型記録媒体 5は、受信装置 3および表示装置 4に対して着脱可能であって、両 者に対する装着時にデータの出力および記録が可能な構造を有する。具体的には、 携帯型記録媒体 5は、カプセル型内視鏡 2が被検体 1の体腔内を移動している間は 受信装置 3に装着されて被検体内画像を記憶する。そして、カプセル型内視鏡 2が 被検体 1から排出された後に、受信装置 3から取り出されて表示装置 4に装着され、 記録したデータが表示装置 4によって読み出される構成を有する。受信装置 3と表示 装置 4との間のデータの受け渡しをコンパクトフラッシュ (登録商標)メモリ等の携帯型 記録媒体 5によって行うことで、受信装置 3と表示装置 4との間が有線接続された場 合と異なり、カプセル型内視鏡 2が被検体 1内部を移動中であっても、被検体 1が自 由に行動することが可能となる。
[0025] 受信アンテナ 6a〜6hは、例えばループアンテナを用いて形成される。かかるルー プアンテナは、被検体 1の体表面上の所定の位置に固定されると共に受信装置 3と 電気的に接続された構成を有し、受信装置 3によるカプセル型内視鏡 2から送信され る無線信号の受信を可能として 、る。
[0026] 次に、カプセル型内視鏡 2について説明する。図 2は、カプセル型内視鏡 2に備わ る構成要素間の関係を模式的に示すブロック図である。図 2に示すように、カプセル 型内視鏡 2は、部分画像を取得するための部分画像取得部 8と、被検体 1内部を移 動する際のカプセル型内視鏡 2の加速度データ等によって構成される位置関連デー タを検出する加速度センサ部 9と、部分画像取得部 8によって取得された部分画像デ ータと、加速度センサ部 9によって検出された位置関連データとに基づき全体画像生 成用データを生成するデータ合成部 10とを備える。また、カプセル型内視鏡 2は、デ ータ合成部 10によって合成された全体画像生成用データを含む無線信号を被検体 1外部に送信する送信部 11と、部分画像取得部 8、加速度センサ部 9、データ合成 部 10および送信部 11の駆動状態を制御する制御部 12と、カプセル型内視鏡 2に備 わる構成要素に対して駆動電力を供給する電力供給部 13とを備える。
[0027] 部分画像取得部 8は、被検体 1内部における所定の撮像対象の一部領域に関する 画像である部分画像を取得するためのものである。具体的には、部分画像取得部 8 は、撮像手段として機能するラインセンサ部 14と、ラインセンサ部 14の駆動状態を制 御するセンサ駆動回路 15と、ラインセンサ部 14による部分画像の撮像時に照明光を 出力する LED16と、 LED16の駆動状態を制御する LED駆動回路 17とを備える。な お、ラインセンサ部 14および LED16の具体的構成については後に詳細に説明する ため、ここでは省略する。
[0028] 加速度センサ部 9は、特許請求の範囲における位置関連データ取得手段の一例と して機能するものであり、部分画像取得時におけるカプセル型内視鏡の位置を導出 する際に必要となる位置関連データを検出するためのものである。本実施例では、位 置関連データとしてカプセル型内視鏡 2の加速度に関するデータである加速度デー タおよび加速度データが検出された時刻のデータである時刻データを位置関連デー タとして用いることとする。加速度センサ 9の具体的な構成としては、例えば小型ジャ イロ等の加速度検出機構および時刻検出機構を備え、検出した加速度データおよ び時刻データを位置関連データとしてデータ合成部 10および制御部 12に対して出 力する機能を有する。
[0029] データ合成部 10は、全体画像生成用データを生成するためのものである。具体的 には、データ合成部 10は、部分画像取得部 8から入力される部分画像データと、カロ 速度センサ 9から入力される位置関連データとに基づき、全体画像生成用データを 生成し、送信部 11に対して出力する機能を有する。
[0030] 送信部 11は、データ合成部 10によって生成された全体画像生成用データを、必 要な処理を施した上で無線送信するためのものである。具体的には、送信部 11は、 入力データに対して変調処理等を施す送信回路 18と、送信回路 18から出力された 無線信号を送信するための送信アンテナ 19とを備える。
[0031] 制御部 12は、カプセル型内視鏡 2に備わる部分画像取得部 8等の駆動状態等を 制御するためのものである。具体的には、制御部 12は、これらの構成要素に対して 一般的な制御を行う機能を有する他に、部分画像取得部 8、加速度センサ部 9およ びデータ合成部 10を互いに同期した状態で駆動させる機能を有する。
[0032] また、制御部 12は、加速度センサ 9から入力される位置関連情報に基づきカプセ ル型内視鏡 2の移動速度を導出する機能を有し、導出した移動速度に基づき部分画 像取得部 8の駆動状態を制御する機能を有する。力かる機能の具体的な内容につ いては、後に詳細に説明する。
[0033] 次に、部分画像取得部 8を構成するラインセンサ部 14および LED 16の具体的な 構成について説明する。図 3は、カプセル型内視鏡 2の外観を示す模式図であり、図 4は、図 3における A— A線に沿った断面図であり、図 5は、図 4における B— B線に沿 つた断面図である。以下、これらの図面を用いてラインセンサ部 14等について説明 する。
[0034] 図 3に示すように、カプセル型内視鏡 2の外形は、図 2に示した各構成要素を内蔵 するための外装ケース部材 21によって形成されている。外装ケース部材 21は生体 適合性材料等によって形成されている力 その一部において、光透過性を有する部 材によって形成された撮像窓 21aを備えた構造を有する。撮像窓 21aは、ラインセン サ部 14に対して外部力もの光を入力するためのものであり、具体的には、外装ケー ス部材 21の長手方向中心軸 21bに関して、軸周りに 360° の視野を有するよう形成 されている。
[0035] そして、上述したラインセンサ部 14は、外装ケース部材 21の内部であって、かかる 撮像窓 21aを介して入力された光が到達可能な位置に配置されて 、る。具体的には 、図 3の A— A線断面図である図 4に示すように、 A— A線を含み、かつ長手方向中 心軸 21bと直交する面上に、ラインセンサ部 14a、 14bが配置されている。また、ライ ンセンサ部 14a、 14bの受光面に対して撮像窓 21aを介して入力される光を結像する ために、カプセル型内視鏡 2は、ラインセンサ部 14a、 14bと撮像窓 21aとの間の領域 にそれぞれプリズム 22a、 22bを配置した構成を有する。
[0036] ラインセンサ部 14a、 14bは、それぞれフォトダイオード等の複数の光電変換機構 力 次元アレイ状に配列された構成を有し、必要に応じて光電変 構によって得ら れた電気信号を出力する機構等を備える。ラインセンサ部 14a、 14bは、互いに向き 合う面と反対側に受光面を有し、力かる受光面において外部力 入力された光を電 気信号に変換する機能を有する。ラインセンサ部 14a、 14bにおける光電変換処理 によって取得されたデータは、所定の回路(図示省略)によって合成され、撮像窓 21 aによって規定される視野に対応した、長手方向中心軸 21bの軸周りの 360° の範 囲に対応した部分画像データとしてデータ合成部 10に出力されることとなる。
[0037] プリズム 22a、 22bは、撮像窓 21aを介して入力された光をそれぞれラインセンサ部 14a、 14bの受光面上に結像するためのものである。具体的には、プリズム 22a、 22b は、撮像窓 21aを通過した入力光に対して屈折および結像作用を施すことによって、 被検体 1内部の組織のうち、撮像窓 21aに対して長手方向中心軸 21bと垂直な方向 の延長上に位置する領域の像を、ラインセンサ部 14a、 14bの受光面上に結像する 機能を有する。
[0038] さらに、図 4の B— B線に沿った断面構造について説明する。図 5に示すように、プリ ズム 22a、 22bは、 LED16から出力される照明光の導光路としても機能する。具体的 には、ラインセンサ部 14a、 14b上にそれぞれ配置された LED16a、 16bから出力さ れる光は、近傍に配置された入射ミラー 24a、 24bにて反射されることによってプリズ ム 22a、 22bにそれぞれ入射する。また、プリズム 22a、 22bの上面上および下面上 には導光ミラー 25a〜25dがそれぞれ配置されており、プリズム 22a、 22bに入射した 照明光は、導光ミラー 25a〜25dにて反射されることによって、プリズム 22a、 22b中 を伝搬し、最終的には撮像窓 21 aを介して外部に出力される。
[0039] 次に、カプセル型内視鏡 2による部分画像の撮像動作について説明する。カプセ ル型内視鏡 2は、被検体 1内部における移動に伴って、異なる部分に対応した部分 画像データを順次取得する機能を有する。図 6は、撮像動作の一例として、食道を通 過する際におけるカプセル型内視鏡 2の撮像動作を模式的に示すものであって、以 下、図 6を参照しつつカプセル型内視鏡 2の動作について説明する。
[0040] 既に説明したように、カプセル型内視鏡 2に備わるラインセンサ部 14a、 14bは、撮 像窓 21aおよびプリズム 22a、 22bの作用により、カプセル型内視鏡 2の進行方向(長 手方向中心軸 21 bの延伸方向)に対して垂直な方向に位置する被検体内組織の像 を撮像する機能を有する。従って、時刻 tにおいて、カプセル型内視鏡 2は、食道 27
1
の内壁のうち撮像窓 21 aに対して進行方向と垂直な方向に位置し、進行方向に対し て撮像窓 21aと同等の幅を有する内周領域 28aの像を部分画像データとして取得す る。
[0041] その後、カプセル型内視鏡 2は、重力の作用等によって食道 27内を移動し、具体 的には時刻 tにおいて、時刻 tにおける位置 Z (t )と異なる位置 Z (t )に移動する。
2 1 1 2
従って、撮像窓 21aに対してカプセル型内視鏡 2の進行方向と垂直な方向に位置す る領域は、内周領域 28aと異なる内周領域 28bとなり、ラインセンサ部 14a、 14bは、 内周領域 28bの像たる部分画像データを新たに取得する。以下、同様にしてカプセ ル型内視鏡 2の移動に伴い、異なる内周領域に対応した部分画像データが順次取 得される。
[0042] 一方、カプセル型内視鏡 2は、部分画像の取得動作に伴い、異なる内周領域間の 位置関係に関連した位置関連データを取得する。具体的には、カプセル型内視鏡 2 に備わる加速度センサ部 9は、部分画像が取得される時刻におけるカプセル型内視 鏡 2の加速度を加速度データとして検出する。同様に、加速度センサ 9は、加速度デ ータを検出した時刻(=部分画像データの取得時刻) t、 t、 · · ·を時刻データとして
1 2
検出し、加速度データと時刻データとに基づく位置関連データをデータ合成部 10お よび制御部 12に対して出力する。 [0043] 以上のように、カプセル型内視鏡 2は、被検体 1内部、例えば食道 27を通過する際 に、撮像対象(図 6の場合では食道 27)の一部領域(内周領域 28a、 28b等)を撮像 することによって複数の部分画像を取得すると共に、部分画像間の位置関係を導出 するための位置関連データ (本実施例では、部分画像の撮像時における加速度およ び時刻に関する情報)を取得する。そして、これらのデータに基づきデータ合成部 10 は、全体画像生成用データを生成し、全体画像生成用データを含む無線信号が送 信部 11によって受信装置 3に対して送信されることとなる。
[0044] 図 7は、データ合成部 10によって生成される全体画像生成用データの構成を示す 模式図である。図 7において、横軸を時刻 t、縦軸を速度 Vとしたグラフは、カプセル型 内視鏡 2の移動速度の時間変動の一例を示す模式的なグラフであり、力かるグラフ に示す速度変化に対応して、データ合成部 10は異なる態様の全体画像生成用デー タを生成することとしている。なお、グラフの縦軸に示す速度 Vは、カプセル型内視鏡 2の通常時における移動方向を正としている。具体的には、口腔から食道、胃、小腸 、大腸へと順次向力う方向の速度を正とし、力かる方向と逆方向の速度を負としてい る。このことは、以下の説明においても同様である。
[0045] 具体的には、データ合成部 10は、カプセル型内視鏡 2の速度 Vが正の値の場合、 すなわち t≤tまたは t ≤tの際には全体画像生成用データ 30aを生成し、速度 Vが負
3 4
の値の場合、すなわち t < t< tの際には全体画像生成用データ 30aと異なる構成を
3 4
有する全体画像生成用データ 30bを生成する。
[0046] 全体画像生成用データ 30aは、部分画像データ 31および部分画像データ 31に対 応した位置関連データ 32によって構成される。部分画像データ 31は、上述した内周 領域 28a、 28b等のそれぞれに対応した画像データであって、位置関連データ 32は 、部分画像データ 31に対応した被撮像領域の位置を特定する際に使用されるデー タである。具体的には、位置関連データ 32は、対応する部分画像データ 31が撮像さ れた時刻を示す時刻データ 32aと、力かる時刻におけるカプセル型内視鏡 2の加速 度の値を示す加速度データ 32bとによって構成されている。
[0047] 一方、全体画像生成用データ 30bは、位置関連データ 33のみによって形成されて いる。 t < t< tにおいてはカプセル型内視鏡 2の速度が負の値となっていることから 、力かる時間帯では部分画像取得部 8は部分画像を撮像することがないため、デー タ合成部 10によって生成される全体画像生成用データ 30bに関しても、部分画像デ ータが含まれることはない。なお、位置関連データ 33は、位置関連データ 32と同様 に、時刻データ 33aおよび加速度データ 33bによって構成されている。
[0048] 次に、全体画像生成用データ 30a、 30bを含む無線信号を受信し、全体画像デー タを生成する受信装置 3について説明する。図 8は、受信装置 3の構成を示す模式 的なブロック図である。
[0049] 図 8に示すように、受信装置 3は、複数存在する受信アンテナ 6a〜6hの中から無 線信号の受信に適したものを選択するアンテナ選択部 35と、アンテナ選択部 35によ つて選択された受信アンテナ 6を介して受信された無線信号に対して、復調等の処 理を行う受信回路 36と、受信回路 36から出力された信号カゝら全体画像生成用デー タを抽出するための信号処理部 37とを備える。また、受信装置 3は、信号処理部 37 から入力された全体画像生成用データに含まれる部分画像データと位置関連データ とを分離して出力するデータ分離部 38と、データ分離部 38から出力された位置関連 データに基づき位置データを生成する位置データ生成部 39と、信号処理部 37から 出力された部分画像データおよび位置データ生成部 39から出力された位置データ とに基づき撮像対象の全体画像を生成する全体画像生成部 40とを備える。さらに、 受信装置 3は、内部に備わる各構成要素の駆動状態等を制御する制御部 41と、受 信回路 36から出力される受信強度信号を AZD変換して制御部 41に出力する AZ D変換部 42と、全体画像生成部 40によって生成された全体画像データを記憶する ための記憶部 43と、各構成要素の駆動電力を供給する電力供給部 44とを備える。
[0050] アンテナ選択部 35は、複数備わる受信アンテナ 6a〜6hの中力も無線信号の受信 に適したアンテナを選択するためのものである。具体的には、アンテナ選択部 35は、 制御部 41の制御に基づ 、て所定の受信アンテナ 6を選択し、選択した受信アンテナ 6を介して受信された無線信号を受信回路 36に対して出力する機能を有する。
[0051] 受信回路 36は、選択された受信アンテナ 6を介して受信された無線信号に対して、 復調等の所定の処理を行う機能を有する。また、受信回路 36は、受信した無線信号 の強度に対応したアナログ信号を AZD変換部 42に対して出力する機能を有する。 [0052] 信号処理部 37は、受信回路 36によって所定の処理が施された信号の中力 所定 のデータを抽出する機能を有する。具体的には、信号処理部 37は、受信回路 36か ら出力された信号の中から、カプセル型内視鏡 2に備わるデータ合成部 10によって 生成された全体画像生成用データを抽出する機能を有する。
[0053] データ分離部 38は、信号処理部 37から出力された全体画像生成用データに含ま れる部分画像データと位置関連データとを分離する機能を有する。データ分離部 38 によって分離された部分画像データは全体画像生成部 40に出力され、位置関連デ ータは位置データ生成部 39に出力される。
[0054] 位置データ生成部 39は、位置関連データに基づき対応する部分画像データの撮 像が行われた際のカプセル型内視鏡 2の位置、より正確にはカプセル型内視鏡 2に 備わる部分画像取得部 8の位置を示す情報として位置データを生成する機能を有す る。本実施例の場合には位置関連データとして加速度データおよび時刻データが与 えられるため、位置データ生成部 39は、例えば加速度データに関して時間積分処理 を 2回行うことによって部分画像データ取得時における部分画像取得部 8の位置を導 出し、位置データとして全体画像生成部 40に対して出力する。なお、加速度データ の時間積分を行う場合には、部分画像取得部 8によって部分画像が取得されなかつ た時刻に関する加速度データも使用することによって、より正確な位置データを生成 することとしている。
[0055] 制御部 41は、各構成要素に対する一般的な制御を行う他、アンテナ選択部 35によ るアンテナ選択動作を含む全体的な制御を行うためのものである。具体的には、制 御部 41は、全体画像生成部 40によって取得された全体画像データを記憶部 43〖こ 転送して記憶させると共に、 AZD変換部 42から出力された、受信強度に対応した ディジタル信号(例えば、 RSSI(ReceivedSignalStrengthIndicator:受信信号強度表示 信号))に基づいて、使用する受信アンテナ 6を決定し、アンテナ選択部 35に対して 指示する機能を有する。
[0056] 記憶部 43は、全体画像生成部 40によって生成された全体画像データを記憶する ためのものである。記憶部 43の具体的構成としては、メモリ等を備えることによって記 憶部 43自体がデータを記憶することとしても良いが、本実施例では、記憶部 43は、 携帯型記録媒体 5に対してデータを書き込む機能を有することとする。
[0057] 次に、全体画像生成部 40および全体画像生成部 40によって生成される全体画像 データについて説明する。全体画像生成部 40は、部分画像データと、部分画像デ ータに対応した位置関連データ(正確には、位置関連データに基づき生成された位 置データ)とに基づき、撮像対象の全体画像を生成するためのものである。具体的に は、全体画像生成部 40は、所定の画像空間上に位置データに記述された撮像位置 に対応して複数の部分画像データを配列することによって、全体画像データを生成 する機能を有する。
[0058] ここで、生成される全体画像データの内容としては、単に複数の部分画像を位置関 係に応じて配列したものとしても良い。し力しながら、本実施例では、所定の画像処 理を施すことによって、医師等の診断を簡易に行えるよう工夫がなされている。
[0059] 図 9は、全体画像データの生成に先立って全体画像生成部 40によって画像処理 が施された部分画像データ 46について示す模式図である。図 9に示すように、部分 画像データ 46は、対応する内周領域 28の各部分における明度を示すデータ構成を 有する。すなわち、部分画像データ 46は、所定の基準軸 Xに対する角度 Θによって 内周領域 28の各部分の位置を表現し、原点 O力 の距離!:に応じて各部分の明度を 表現した内容によって構成されている。なお、距離 rは、例えば各部分の明度の逆数 によって定義されており、距離 rの値が大きくなることは明度が低下することを意味す る。
[0060] このように、全体画像生成部 40は、全体画像データを生成する前に、所定の画像 処理を行うことによって部分画像データ 46を生成している。そして、全体画像生成部 40は、対応する位置データに応じて複数の部分画像データ 46を所定の画像空間上 に配列することによって全体画像データを生成する。
[0061] 図 10は、全体画像生成部 40によって生成された全体画像データ 47の構成を示す 模式図である。図 10に示すように、全体画像データ 47は、カプセル型内視鏡 2の進 行方向に対応した z軸を基準として、複数の部分画像データ 46が配列された構成を 有する。より具体的には、配列される部分画像データ 46は、それぞれ z軸上の所定の 点を原点とした状態で配置され、複数の部分画像データ 46の配列順は、撮像時に おけるラインセンサ部 14の被検体 1内部における位置に対応して定められている。な お、図 10の例では、位置データを部分画像データ 46の配列順の決定にのみ用いる こととし、部分画像データ 46を連続的に配列している力 例えば、位置データによつ て導出される隣接部分画像データ間の距離に応じた間隔をあけた状態で部分画像 データ 46を配列することとしても良 、。
[0062] 全体画像データ 47を図 10に示すように構成することによって、撮像対象 (例えば、 食道 27)の全体像が生成されることとなる。そして、力かる全体画像データ 47は、記 憶部 43を介して携帯型記録媒体 5に出力され、携帯型記録媒体 5を介して表示装置 4に出力され、表示装置 4の画面上に図 10に示す態様で表示されることによって、医 師の診断等に用いられる。
[0063] 次に、本実施例に力かる被検体内画像取得システムの利点にっ 、て説明する。ま ず、本実施例にカゝかる被検体内画像取得システムは、部分画像取得部 8によって取 得した部分画像と、部分画像に対応した位置関連データとに基づ!ヽて全体画像を生 成する構成を有する。従って、広い範囲に渡って存在する撮像対象全体の画像であ つても、狭 ヽ撮像視野を有する撮像手段を用いた画像データを取得することが可能 であるという利点を有する。すなわち、本実施例では、部分画像データのみならず対 応する位置関連データを取得する構成を採用したため、複数の部分画像データ間 の位置関係を把握することが可能となり、複数の部分画像データを用いて全体画像 データを生成することが可能である。従って、広い範囲を撮像する場合であっても、 広い撮像視野を有する撮像手段を備える必要が無ぐ低コストの被検体内画像取得 システムを実現することが可能である。
[0064] 具体的には、撮像手段として一次元行列状に配列した光電変換機構を備えたライ ンセンサ部 14を備えることによって、広い範囲に関する被検体内画像を取得すること が可能である。そして、従って、本実施例に力かる被検体内画像取得システムは、従 来の 2次元行列状に多数の光電変換機構を備えた撮像手段を備える必要が無ぐ撮 像手段の小型化、製造コストの低減が可能であるという利点を有することとなる。
[0065] また、本実施例においてカプセル型内視鏡 2は、重力または消ィ匕器官における蠕 動運動等の外力の作用によって被検体 1内を移動する特性を有する。このため、部 分画像取得部 8は、所定の時間間隔で複数回撮像動作を行うことにより、撮像対象 の異なる部分に関する部分画像を取得することが可能であり、異なる部分を撮像する ために部分画像取得部 8の視野を変化させる機構や、カプセル型内視鏡 2の位置を 変化させるための移動機構等を備える必要がない。従って、本実施例のようにカプセ ル型内視鏡 2を用いて被検体内画像取得システムを構成することとした場合には、移 動機構等を備えない簡易な構成によって被検体内画像取得システムを構成すること が可能であると 、う利点を有する。
[0066] また、本実施例にカゝかる被検体内画像取得システムは、取得する画像のデータ量 の増加を抑制しつつ、撮像対象の全体画像を取得することが可能と 、う利点を有す る。従来のカプセル型内視鏡システムの問題点として、消費電力の増加を抑制する ために撮像レートが制限され、撮像対象の全体像を取得することが困難であることが 挙げられていた。これに対して、本実施例にカゝかる被検体内画像取得システムでは、 例えば撮像間隔を調整することによって全体画像データの形成に用いられる部分画 像データの数を変化させることが可能であり、部分画像データの数を変化させること によって、カプセル型内視鏡 2から送信されるデータ量を調整することが可能であり、 消費電力の抑制に充分な程度まで部分画像データの数を低減することが可能であ る。一方で、部分画像データの数を低減しても、若干の解像度の低下は生じるものの 全体画像データの生成は可能であることから、本実施例に力かる被検体内画像取得 システムは、消費電力の低減という条件を満たしつつ、撮像対象の全体画像を取得 することが可能であるという利点を有することとなる。
[0067] さらに、本実施例に力かる被検体内画像取得システムは、被検体 1内部における力 プセル型内視鏡 2の移動速度に応じて部分画像取得部 8の駆動状態を制御する構 成を採用したため、無駄な部分画像の取得を防止できるという利点を有する。具体的 には、本実施例にカゝかる被検体内画像取得システムは、上述したようにカプセル型 内視鏡 2の移動速度が負の値となった際に制御部 12によって部分画像取得部 8の 駆動を停止する機能を有する。移動速度が負の値になるということは、カプセル型内 視鏡 2が既に部分画像を取得した領域に再び戻ることを意味するため、全体画像を 生成する観点からは、力かる場合に部分画像を撮像する意義に乏しいこととなる。従 つて、本実施例では移動速度が負の値となった場合には部分画像の撮像を停止し て無駄な部分画像の取得を防止する他、部分画像取得部 8の消費電力を低減する と共に、送信するデータ量を低減することによって送信部 11の消費電力を低減する 等の利点が存在する。なお、力かる利点を享受する観点力 は、移動速度が負の値 となった場合のみならず、例えば移動速度に応じて撮像レートを変更することとしても 良い。
[0068] また、本実施例にカゝかる被検体内画像取得システムは、全体画像生成部 40が各 部分の明度に対応した三次元画像を全体画像データとして生成することとしている。 例えば、撮像対象内に腫瘍等の異物が存在する場合には、一般に他の部分と比較 して異なる明度で撮像されるのが通常である。従って、全体画像データとして各部分 の明度を表示する構成を採用することによって、医師等による診断が容易となる全体 画像データを生成する被検体内画像取得システムを構成することが可能であるという 利点を有する。
[0069] 以上、実施例に基づき本発明を説明したが、本発明は上記の実施例に限定して解 釈する必要はなぐ当業者であれば様々な実施例、変形例等に想到することが可能 である。例えば、本実施例では、位置関連データを加速度データおよび時刻データ によって構成することとしたが、力かる構成に限定して解釈する必要はなぐ速度デ ータおよび時刻データによって構成することとしても良い。また、位置関連データは、 撮像時におけるカプセル型内視鏡 2の位置に関する情報そのものによって構成する こととしても良ぐ例えば、カプセル型内視鏡 2の位置検出機構を別途備えることによ つて、位置関連データとしてカプセル型内視鏡 2の位置情報そのものを用いることと しても良い。さらには、簡易な構成として、位置関連データを時刻データのみによつ て構成することとしても良 ヽ。部分画像データの撮像時刻のみを位置関連データとし て取得した場合であっても、部分画像データの配列順は明らかであり、全体画像デ ータの生成は可能であるためである。
[0070] さらに、本実施例においては、図 7にも示したようにデータ合成部 10によって部分 画像データと位置関連データとを一体化した全体画像生成用データを生成すること として 、るが、カプセル型内視鏡 2にお 、て全体画像精製用データを生成する構成 に限定して解釈する必要はない。すなわち、上記の説明からも明らかなように、全体 画像生成部 40による全体画像データの生成の際には、個々の部分画像データと、 部分画像データに対応する位置データとが明らかであれば全体画像データの生成 が可能である。従って、例えば部分画像データおよび位置関連データのヘッダ部分 に識別符号を付すこととし、対応する部分画像データと位置関連データに関しては 共通の識別符号を割り当てた状態でそれぞれのデータを別個独立に送信することと しても良い。力かる構成でも受信装置側で対応関係を把握することが可能であり、全 体画像データの生成が可能である。
[0071] また、本実施例においては、カプセル型内視鏡 2と受信装置 3等によって構成され た被検体内画像取得システムに関して説明したが、被検体内画像取得システムの物 理的構成として力かる態様に限定する必要はなぐ例えば、特開 2004— 188217号 公報に記載された内視鏡において、挿入部先端に部分画像取得部を配置し、操作 部内に全体画像生成部を配置した構成としても良い。すなわち、本発明の最低限の 構成要素としては部分画像を撮像する機構と、部分画像の撮像時における撮像機 構の位置に関連した位置関連データと部分画像データとを対応させる関連づけ手段 とを備え、さらに好ましくは部分画像データおよび位置関連データとに基づき全体画 像を生成する手段とを備えれば良ぐ例えば部分画像データ等の伝達態様等につい ては、無線伝送でも有線伝送でも良ぐ物理的には単一の装置によって被検体内画 像取得システムを構成することとしても良 、。
産業上の利用可能性
[0072] 以上のように、本発明にカゝかる被検体内画像取得システムおよび被検体内導入装 置は、人体の内部に導入されて、被検部位を観察する医療用観察装置に有用であり 、特に、データ量の増加を抑制しつつ、簡易な構成で被検体内部の所定の撮像対 象 (被検部位)の全体画像を取得するのに適して 、る。

Claims

請求の範囲
[1] 被検体内部の所定の撮像対象の画像を取得する被検体内画像取得システムであ つて、
被検体内の撮像対象中の異なる部分に対応した複数の部分画像データを取得す る部分画像取得手段と、
前記部分画像データの撮像の際における前記部分画像取得手段の前記被検体内 における位置の導出に用いられる位置関連データを取得する位置関連データ取得 手段と、
前記位置関連データに基づき、複数の前記部分画像データを用いて撮像対象の 全体像に対応した全体画像データを生成する全体画像生成手段と、
を備えたことを特徴とする被検体内画像取得システム。
[2] 前記部分画像取得手段および前記位置関連データ取得手段は、前記被検体内部 に導入され、所定の無線信号を送信する被検体内導入装置に内蔵され、 前記全体画像生成手段は、使用時に前記被検体の外部に配置され、前記被検体 内導入装置から送信される無線信号を受信する受信装置に内蔵されたことを特徴と する請求項 1に記載の被検体内画像取得システム。
[3] 前記被検体内導入装置は、
前記部分画像データおよび前記位置関連データに基づき生成された全体画像生 成用データを生成するデータ合成手段と、
前記データ合成手段によって生成された全体画像生成用データを含む無線信号 を送信する送信手段と、
をさらに備え、
前記受信装置は、前記送信手段によって送信された無線信号に対して所定の受 信処理を行!ヽ、抽出した前記全体画像生成用データを前記全体画像生成手段に出 力する受信回路をさらに備えたことを特徴とする請求項 2に記載の被検体内画像取 得システム。
[4] 前記部分画像取得手段は、被検体内部における進行方向と垂直な方向に配列さ れた複数の光電変換機構を有するラインセンサを備えたことを特徴とする請求項 1〜 3のいずれか一つに記載の被検体内画像取得システム。
[5] 前記位置関連データ手段は、前記位置関連データとして少なくとも前記部分画像 取得手段の移動に関する加速度データを取得する加速度センサ手段を備えたことを 特徴とする請求項 1〜4のいずれか一つに記載の被検体内画像取得システム。
[6] 前記部分画像取得手段は、前記被検体内導入装置の移動速度に応じて前記部分 画像データの取得間隔を変化させることを特徴とする請求項 1〜5のいずれか一つ に記載の被検体内画像取得システム。
[7] 前記部分画像取得手段は、前記被検体内導入装置の移動方向が逆方向となる期 間に駆動を停止することを特徴とする請求項 6に記載の被検体内画像取得システム
[8] 被検体内に導入され、該被検体内を移動する被検体内導入装置であって、
当該被検体内導入装置の被検体内における移動に伴い、前記被検体内の撮像対 象中の異なる部分に対応した複数の部分画像データを取得する部分画像取得手段 と、
前記部分画像データの撮像の際における前記部分画像取得手段の前記被検体内 における位置の導出に必要な位置関連データを取得する位置関連データ取得手段 と、
前記部分画像データおよび前記位置関連データに基づき、前記撮像対象の全体 像に対応した全体画像データの生成に用いられる全体画像生成用データを生成す るデータ合成手段と、
前記全体画像生成用データを含む無線信号を送信する送信手段と、
を備えたことを特徴とする被検体内導入装置。
PCT/JP2005/014443 2004-08-06 2005-08-05 被検体内画像取得システムおよび被検体内導入装置 WO2006013977A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP05768848A EP1779765A4 (en) 2004-08-06 2005-08-05 SYSTEM FOR RECORDING AN IMAGE IN A PERSON AND DEVICE FOR INTRODUCING INTO A PERSON
US11/658,552 US7993265B2 (en) 2004-08-06 2005-08-05 In-vivo image acquiring system and body-insertable apparatus
CN200580026222XA CN1993077B (zh) 2004-08-06 2005-08-05 被检体内图像获取系统及被检体内导入装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004-231113 2004-08-06
JP2004231113A JP4598456B2 (ja) 2004-08-06 2004-08-06 被検体内画像取得システムおよび被検体内導入装置

Publications (1)

Publication Number Publication Date
WO2006013977A1 true WO2006013977A1 (ja) 2006-02-09

Family

ID=35787255

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/014443 WO2006013977A1 (ja) 2004-08-06 2005-08-05 被検体内画像取得システムおよび被検体内導入装置

Country Status (5)

Country Link
US (1) US7993265B2 (ja)
EP (1) EP1779765A4 (ja)
JP (1) JP4598456B2 (ja)
CN (1) CN1993077B (ja)
WO (1) WO2006013977A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008237639A (ja) * 2007-03-28 2008-10-09 Fujifilm Corp カプセル内視鏡システム、およびカプセル内視鏡の動作制御方法

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4914685B2 (ja) * 2006-09-21 2012-04-11 オリンパスメディカルシステムズ株式会社 内視鏡システム
WO2009044384A2 (fr) * 2007-10-04 2009-04-09 MOTILIS Sàrl Dispositif de mesure et méthode d'analyse de la motilité gastro-intestinale
US8529441B2 (en) * 2008-02-12 2013-09-10 Innurvation, Inc. Ingestible endoscopic optical scanning device
WO2011016002A1 (en) * 2009-08-05 2011-02-10 Tel Hashomer Medical Research Infrastructure And Services, Ltd. Methods and devices for providing information useful in the diagnosis of abnormalities of the gastrointestinal tract
JP2013526348A (ja) * 2010-05-10 2013-06-24 ナナメド,エルエルシー 体内空腔の内部表面をイメージングするための方法および装置
EP2491849B1 (en) * 2010-09-29 2013-10-16 Olympus Medical Systems Corp. Information processing device and capsule endoscope system
CN102525386B (zh) * 2010-12-17 2015-11-25 世意法(北京)半导体研发有限责任公司 胶囊内窥镜
JP5231690B1 (ja) * 2011-07-06 2013-07-10 オリンパスメディカルシステムズ株式会社 検体採取処置具
CN103190881A (zh) * 2012-01-04 2013-07-10 清华大学 胶囊式内窥镜及其图像处理方法
JP5941758B2 (ja) * 2012-06-06 2016-06-29 オリンパス株式会社 内視鏡装置
CN103327263A (zh) * 2013-07-16 2013-09-25 无锡方圆环球显示技术股份有限公司 多媒体摄录时加入重力加速数据的方法
US10434119B2 (en) * 2016-01-13 2019-10-08 Gargle Water, Inc. Pharyngeal or buccal cavity rinse and process of use thereof
CN110996009B (zh) * 2019-12-20 2021-07-23 安翰科技(武汉)股份有限公司 胶囊内窥镜系统及其自动帧率调整方法及计算机可读存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09215660A (ja) * 1996-02-13 1997-08-19 Fuji Photo Optical Co Ltd 内視鏡の画像形成装置
JP2003070728A (ja) * 2001-06-20 2003-03-11 Olympus Optical Co Ltd カプセル式内視鏡
JP2004154176A (ja) * 2002-11-01 2004-06-03 Olympus Corp 内視鏡撮像装置
JP2005111273A (ja) * 2003-10-08 2005-04-28 Siemens Ag 内視鏡検査装置および内視鏡検査装置のための画像形成方法

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4532544A (en) * 1983-06-28 1985-07-30 Gregor Federau Line-scan panoramic camera
DE3440177A1 (de) 1984-11-02 1986-05-15 Friedrich Dipl.-Ing. 8031 Eichenau Hilliges Fernseh-aufnahme- und -wiedergabeeinrichtung zur endoskopie an menschlichen und tierischen koerpern
IL108352A (en) * 1994-01-17 2000-02-29 Given Imaging Ltd In vivo video camera system
US6248074B1 (en) * 1997-09-30 2001-06-19 Olympus Optical Co., Ltd. Ultrasonic diagnosis system in which periphery of magnetic sensor included in distal part of ultrasonic endoscope is made of non-conductive material
US6233476B1 (en) * 1999-05-18 2001-05-15 Mediguide Ltd. Medical positioning system
IL134017A (en) * 2000-01-13 2008-04-13 Capsule View Inc Camera for photography inside the intestines
US7039453B2 (en) * 2000-02-08 2006-05-02 Tarun Mullick Miniature ingestible capsule
US6709387B1 (en) * 2000-05-15 2004-03-23 Given Imaging Ltd. System and method for controlling in vivo camera capture and display rate
US8036731B2 (en) * 2001-01-22 2011-10-11 Spectrum Dynamics Llc Ingestible pill for diagnosing a gastrointestinal tract
US7625335B2 (en) * 2000-08-25 2009-12-01 3Shape Aps Method and apparatus for three-dimensional optical scanning of interior surfaces
JP3842101B2 (ja) * 2000-10-31 2006-11-08 富士写真フイルム株式会社 内視鏡装置
IL156961A0 (en) * 2001-01-16 2004-02-08 Given Imaging Ltd System and method for wide field imaging of body lumens
IL143260A (en) 2001-05-20 2006-09-05 Given Imaging Ltd Array and method for locating an intra-body signal source
US6939292B2 (en) * 2001-06-20 2005-09-06 Olympus Corporation Capsule type endoscope
US20030117491A1 (en) * 2001-07-26 2003-06-26 Dov Avni Apparatus and method for controlling illumination in an in-vivo imaging device
CN100354889C (zh) * 2001-09-05 2007-12-12 吉温成象有限公司 用于体腔的三维显示的系统和方法
US20030195415A1 (en) * 2002-02-14 2003-10-16 Iddan Gavriel J. Device, system and method for accoustic in-vivo measuring
AU2003298538A1 (en) * 2002-08-01 2004-05-04 The Johns Hopkins University Techniques for identifying molecular structures and treating cell types lining a body lumen using fluorescence
US7744528B2 (en) * 2003-02-26 2010-06-29 Infinite Biomedical Technologies, Llc Methods and devices for endoscopic imaging
WO2004096008A2 (en) * 2003-05-01 2004-11-11 Given Imaging Ltd. Panoramic field of view imaging device
IL162740A (en) * 2003-06-26 2010-06-16 Given Imaging Ltd Device, method and system for reduced transmission imaging
DE102004008164B3 (de) * 2004-02-11 2005-10-13 Karl Storz Gmbh & Co. Kg Verfahren und Vorrichtung zum Erstellen zumindest eines Ausschnitts eines virtuellen 3D-Modells eines Körperinnenraums
US7336833B2 (en) * 2004-06-30 2008-02-26 Given Imaging, Ltd. Device, system, and method for reducing image data captured in-vivo

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09215660A (ja) * 1996-02-13 1997-08-19 Fuji Photo Optical Co Ltd 内視鏡の画像形成装置
JP2003070728A (ja) * 2001-06-20 2003-03-11 Olympus Optical Co Ltd カプセル式内視鏡
JP2004154176A (ja) * 2002-11-01 2004-06-03 Olympus Corp 内視鏡撮像装置
JP2005111273A (ja) * 2003-10-08 2005-04-28 Siemens Ag 内視鏡検査装置および内視鏡検査装置のための画像形成方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1779765A4 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008237639A (ja) * 2007-03-28 2008-10-09 Fujifilm Corp カプセル内視鏡システム、およびカプセル内視鏡の動作制御方法

Also Published As

Publication number Publication date
CN1993077B (zh) 2011-09-21
EP1779765A1 (en) 2007-05-02
CN1993077A (zh) 2007-07-04
US20090012357A1 (en) 2009-01-08
EP1779765A4 (en) 2009-10-14
US7993265B2 (en) 2011-08-09
JP4598456B2 (ja) 2010-12-15
JP2006043276A (ja) 2006-02-16

Similar Documents

Publication Publication Date Title
WO2006013977A1 (ja) 被検体内画像取得システムおよび被検体内導入装置
JP4855771B2 (ja) 体内画像撮影装置および体内画像撮影システム
US8439822B2 (en) Capsule endoscope
US8038607B2 (en) Body insertable apparatus with a plurality of imaging blocks
EP1769720B1 (en) Device introducable into a subject
EP1946695A1 (en) In vivo image acquisition device, receive device, and in vivo information acquisition system
WO2006006382A1 (ja) 被検体内導入装置および被検体内導入システム
US8540623B2 (en) Apparatus, system and method to indicate in-vivo device location
JP2008521541A (ja) 生体内電気刺激のデバイス、システム、および方法
US8206285B2 (en) Apparatus, system and method to indicate in-vivo device location
US20090046821A1 (en) Receiving apparatus
JP4767618B2 (ja) 生体内情報取得装置
WO2005115217A1 (ja) 被検体内情報取得装置
WO2007029820A1 (ja) 被検体内導入装置
JP4526315B2 (ja) 被検体内導入装置および被検体内情報取得システム
JP4804831B2 (ja) 被検体内情報取得システム
JP4573585B2 (ja) 被検体内導入装置および被検体内導入システム
JP4504111B2 (ja) 被検体内導入装置および被検体内導入システム
JP2006026163A (ja) 移動状態検出装置および移動状態検出システム
JP2005278817A (ja) 被検体内位置検出システム

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KM KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NG NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU LV MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 11658552

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2005768848

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 200580026222.X

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

WWP Wipo information: published in national office

Ref document number: 2005768848

Country of ref document: EP