WO2015029970A1 - カプセル型内視鏡システム - Google Patents

カプセル型内視鏡システム Download PDF

Info

Publication number
WO2015029970A1
WO2015029970A1 PCT/JP2014/072235 JP2014072235W WO2015029970A1 WO 2015029970 A1 WO2015029970 A1 WO 2015029970A1 JP 2014072235 W JP2014072235 W JP 2014072235W WO 2015029970 A1 WO2015029970 A1 WO 2015029970A1
Authority
WO
WIPO (PCT)
Prior art keywords
capsule endoscope
model
imaging
organ
posture
Prior art date
Application number
PCT/JP2014/072235
Other languages
English (en)
French (fr)
Inventor
千葉 淳
瀧澤 寛伸
佐藤 良次
河野 宏尚
高橋 和彦
拓人 井開
Original Assignee
オリンパスメディカルシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパスメディカルシステムズ株式会社 filed Critical オリンパスメディカルシステムズ株式会社
Priority to CN201480047613.9A priority Critical patent/CN105491936B/zh
Priority to EP14840610.1A priority patent/EP3040015A4/en
Priority to JP2015511846A priority patent/JP5841695B2/ja
Publication of WO2015029970A1 publication Critical patent/WO2015029970A1/ja
Priority to US15/053,084 priority patent/US9517001B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/041Capsule endoscopes for imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00006Operational features of endoscopes characterised by electronic signal processing of control signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00147Holding or positioning arrangements
    • A61B1/00158Holding or positioning arrangements using magnetic field
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/07Endoradiosondes
    • A61B5/073Intestinal transmitters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1121Determining geometric values, e.g. centre of rotation or angular range of movement

Definitions

  • the present invention relates to a capsule endoscope system that introduces a capsule endoscope into a subject and observes the inside of the subject.
  • a capsule endoscope is an apparatus having an imaging function and a wireless communication function inside a capsule-type housing. After being swallowed from the mouth of the subject, the capsule endoscope moves inside the digestive tract by a peristaltic motion or the like. The inside of the organ is sequentially imaged to obtain an image signal and wirelessly transmitted to a receiving device outside the subject. The image signal received by the receiving device is taken into the image display device and subjected to predetermined image processing.
  • an image inside the organ (hereinafter also referred to as an in-vivo image) is displayed as a still image or a moving image.
  • a user such as a doctor diagnoses the state of the organ of the subject by observing the in-vivo image displayed on the image display device in this way.
  • a system having a function of guiding a capsule endoscope introduced into a subject by magnetic force (hereinafter referred to as magnetic induction) has been proposed.
  • a permanent magnet hereinafter also referred to as an internal permanent magnet
  • a magnetic guidance device including a magnetic field generator is installed outside the subject.
  • a capsule guiding system is disclosed in which a capsule endoscope is guided to a user-desired position by applying a magnetic field formed by an internal permanent magnet.
  • the user desires a capsule endoscope by changing the magnetic field by operating the operation unit provided in the magnetic guidance device while referring to the in-vivo image displayed on the image display device. Can be magnetically induced in the position and direction.
  • Patent Document 2 discloses a capsule endoscope that introduces a liquid such as water into the stomach of a subject and images the inside of the stomach in a state where the capsule endoscope is floated on the liquid.
  • Patent Document 2 discloses a capsule endoscope that is configured to stand in a state of floating in a liquid (the imaging direction is a vertical direction) and can image above and below the liquid surface.
  • Patent Document 4 discloses a technique for displaying an endoscope graphic and an observation position mark together with a stomach side image and a developed image.
  • Patent Document 5 discloses a technique for displaying the shape of an organ that is an insertion target of an insertion portion of a flexible endoscope together with the bending state of the insertion portion.
  • Patent Document 6 discloses a technique for recording a user's (interpreter's) line of sight and GUI operation records in time series in an interpretation operation, and identifying a region observed by the user from these records. .
  • Patent Document 7 the in-vivo image and the position and direction of the capsule endoscope at the time of capturing the in-vivo image are recorded, and a pseudo three-dimensional display around the capsule endoscope is performed based on these records.
  • JP 2009-213613 A International Publication No. 2008/062594 International Publication No. 2011/061968 JP 60-217326 A JP 2003-225195 A JP 2007-319327 A Japanese Patent Laid-Open No. 2004-321796
  • an imaging part is provided at the distal end side of the insertion part, and an operation part is connected to the proximal end side of the insertion part. .
  • the user can intuitively and easily grasp which part of the in-vivo image displayed on the screen is captured from which direction based on the operation feeling of the operation unit. it can.
  • the user changes the position and orientation of the magnetic field generation unit by operating an operation unit independent of the capsule endoscope, thereby generating a magnetic field that acts on the permanent magnet in the body. The capsule endoscope is guided by the change.
  • the operation feeling of the user with respect to the operation unit and the change in the position and direction of the capsule endoscope as a result of the operation are not directly linked. For this reason, it is difficult for the user to grasp from which position and in what direction the in-vivo image being displayed on the screen is captured by the capsule endoscope. It is also difficult to guide the mirror to a desired position and direction.
  • the user when performing an examination using a capsule endoscope, the user guides the capsule endoscope while taking a body posture corresponding to an observation target region with respect to a subject as a patient.
  • the position and direction of the organ with respect to the capsule endoscope changes, so that it becomes more difficult for the user to grasp the position and direction taken by the capsule endoscope.
  • Patent Document 3 discloses a technique for displaying posture information of the subject when the in-vivo image is captured together with the in-vivo image.
  • the user must determine the position and direction of the capsule endoscope after estimating the relative direction and shape of the organ based on the posture information. Don't be.
  • Patent Document 3 discloses displaying information such as the tilt and azimuth of the capsule endoscope in addition to the posture information of the subject.
  • the user has to grasp the position and direction of the capsule endoscope by combining a plurality of pieces of information. Therefore, it is still difficult to grasp the position and direction of the capsule endoscope in the subject.
  • Patent Document 4 in order to calculate the observation position based on the insertion length of the endoscope, the rotation angle, the bending angle, the objective distance calculated from the ultrasonic wave transmission / reception time, and the viewing angle, this technique is used. It cannot be applied as it is to a capsule endoscope introduced into a subject independently of a monitor or various processing apparatuses. Further, in Patent Document 5, since the part actually captured by the endoscope is not displayed on the screen, it is difficult for the user to accurately grasp the current observation part. Furthermore, with the techniques disclosed in Patent Documents 6 and 7, the user cannot grasp in real time the region that the capsule endoscope is imaging.
  • An object of the present invention is to provide a capsule endoscope system in which a user can easily grasp the direction.
  • Another object of the present invention is to provide a capsule endoscope system that allows a user to accurately and in real time understand a region being imaged by a capsule endoscope.
  • a capsule endoscope system is a capsule endoscope introduced into a subject, and at least images the inside of the subject.
  • a capsule endoscope having one imaging unit and a permanent magnet, operation input means for outputting a signal corresponding to an operation performed from the outside, and the permanent magnet based on a signal output from the operation input means
  • a plurality of postures that the subject can take between examinations, guidance means for guiding the capsule endoscope, posture determination means for determining the posture of the subject, and A plurality of body posture models corresponding to each other, and a plurality of organ models representing organs to be imaged in the examination, and a plurality of organ models respectively corresponding to the plurality of body posture models
  • the capsule endoscope system further includes a second operation input unit that outputs a second signal according to an operation performed from the outside, and the body position determination unit is output from the second operation input unit.
  • the posture of the subject is determined based on the second signal.
  • the display unit displays a dialog for inputting the posture of the subject when the operation of the guiding unit is started.
  • the capsule endoscope system further includes acceleration detection means for detecting acceleration applied to the subject, and the body position determination means determines the body position of the subject based on the detection result of the acceleration.
  • the display means displays the body position model and the organ model at the same time.
  • the capsule endoscope system further includes a control unit that switches on / off the operation of the guide unit, and the display unit is configured to perform the posture model depending on whether the operation of the guide unit is on or off. And the display format of the organ model is changed.
  • the display means displays only the posture model when the operation of the guidance means is off, and displays the organ model in the posture model when the operation of the guidance means is on. It is characterized by being displayed superimposed.
  • the display unit displays the body position model and the organ model in an enlarged manner when the operation of the guide unit is on.
  • the capsule endoscope system further includes detection means for detecting the position and orientation of the capsule endoscope, and the storage means further stores image data of a schematic image of the capsule endoscope. Then, the display means displays the schematic image superimposed on at least one of the body position model and the organ model.
  • the capsule endoscope system further includes guidance magnetic field control means for switching on / off the operation of the guiding means, and the display means performs guidance by the guiding means when the operation of the guiding means is on.
  • the capsule endoscope is located outside the guidance area, which is an area where the capsule endoscope is possible, the schematic image is superimposed on the body posture model and displayed inside the guidance area.
  • the schematic image is superimposed and displayed on the organ model.
  • the schematic image is relative to at least one of the body position model and the organ model according to a position of the capsule endoscope in the vertical direction in the subject. It further comprises display control means for changing the general size.
  • the capsule endoscope system includes distance acquisition means for acquiring a distance between the capsule endoscope and a wall surface of an organ in the subject, and the organ model and the schematic image according to the distance. And a display control means for adjusting the relative display position.
  • the capsule endoscope system includes the organ model and the schematic image based on an operation amount with respect to the operation input unit and a change amount of the position of the capsule endoscope detected by the detection unit. And a display control means for adjusting the relative display position.
  • the storage unit stores a plurality of types of organ model sets each including a plurality of organ models each corresponding to the plurality of body position models, and the display unit includes the plurality of types of organ models. An organ model included in one organ model set selected according to the characteristics of the subject among the organ model sets is displayed.
  • the capsule endoscope system is a capsule endoscope introduced into a subject, and includes at least one imaging unit that images the inside of the subject and acquires image information.
  • An imaging area determining means for determining an imaging area that is an area in the organ imaged by the imaging means based on a mirror posture; and a development view or a cross-sectional view of the model.
  • the imaging region determining unit is arranged on an imaging optical axis of the imaging unit based on a positional relationship between the capsule endoscope and the model and an attitude of the capsule endoscope. A distance between the imaging unit and the organ in a direction along the direction is calculated, and the imaging region is determined based on the distance and a viewing angle of the imaging unit.
  • the capsule endoscope system includes distance information acquisition means for acquiring distance information representing a distance between the imaging means and the organ within the subject, and updates the shape of the model based on the distance information.
  • a model shape updating means for determining, the imaging area determining means determines the imaging area for the model after the shape update, and the development view or cross-sectional view acquisition means is for the shape updated
  • the development view or the cross-sectional view corresponding to the model is acquired, and an area corresponding to the imaging region is set for the development view or the cross-sectional view.
  • the capsule endoscope further includes a permanent magnet, and generates a magnetic field that acts on the capsule endoscope.
  • the capsule endoscope acts on the capsule endoscope.
  • An operation input unit that inputs guidance instruction information for guiding the capsule endoscope by changing a magnetic field to be input, and the position detection unit, despite the input of the guidance instruction information from the operation input unit
  • Model shape updating means for updating the shape of the model so that the position of the capsule endoscope is the position of the wall of the model when there is no change in the position of the detected capsule endoscope;
  • the imaging area determining means determines the imaging area for the model after the shape update, and the development view or cross-sectional view acquisition means corresponds to the model after the shape update. Wherein acquires development view or the cross-sectional view, and sets a region corresponding to the imaging area relative to the developed view or the cross-sectional view to.
  • the capsule endoscope system includes: an imaging region history storage unit that stores information about the imaging region of a displayed image that is an image displayed on the display unit; and the model based on the information about the imaging region.
  • Imaging region history acquisition means for determining the imaging region of the displayed image, and the development view or sectional view acquisition means further includes the imaging region of the displayed image in the development view or sectional view.
  • the display means further displays an area corresponding to the imaging area of the displayed image on the developed view or the cross-sectional view.
  • the capsule endoscope system further includes storage means for storing image information representing the displayed image, and the display means is on the developed view or the sectional view corresponding to the imaging region of the displayed image. In this area, the displayed image is superimposed and displayed.
  • the display unit emphasizes and displays an outline of an area on the development view or the cross-sectional view corresponding to the imaging area determined by the imaging area determination unit.
  • the display unit displays a predetermined color or pattern on an area on the development view or the cross-sectional view corresponding to the imaging area of the displayed image.
  • the display unit divides a region on the developed view or the sectional view into a plurality of sections, and the developed view or the sectional view corresponding to the imaging region of the displayed image.
  • the upper region is displayed with a different color or pattern for each of the divided sections.
  • the imaging area history acquisition unit corresponds to the imaging area of the displayed image for each section obtained by dividing the development view or the area on the cross-sectional view into a plurality of sections.
  • the sum of the areas of the regions on the developed view or the cross-sectional view is calculated, and the ratio of the sum to the area of the section is calculated, and the display means applies the imaging region of the displayed image in each section.
  • a portion other than the corresponding region is displayed with a color or pattern corresponding to the ratio of the sum of the sections.
  • the posture of the subject is determined, and at least one of the posture model corresponding to the posture of the subject and the organ model corresponding to the posture model is displayed. Even when the body position is changed, the user can easily grasp the position and direction taken by the capsule endoscope.
  • an imaging region is set on a development or cross-sectional view of an organ model to be imaged, and an image acquired by a capsule endoscope is displayed superimposed on the imaging region. The user can accurately and in real time understand the area being captured by the capsule endoscope.
  • FIG. 1 is a diagram illustrating a configuration example of a capsule endoscope system according to Embodiment 1 of the present invention.
  • FIG. 2 is a schematic diagram showing an example of the internal structure of the capsule endoscope shown in FIG.
  • FIG. 3 is a schematic diagram showing a state in which a liquid and a capsule endoscope are introduced into an organ of a subject.
  • FIG. 4 is a schematic diagram illustrating a configuration example of the operation input device illustrated in FIG. 1.
  • FIG. 5 is a schematic diagram showing the movement of the capsule endoscope in response to an operation on each component of the operation input device shown in FIG.
  • FIG. 6 is a block diagram illustrating a configuration example of the control device illustrated in FIG. 1.
  • FIG. 1 is a diagram illustrating a configuration example of a capsule endoscope system according to Embodiment 1 of the present invention.
  • FIG. 2 is a schematic diagram showing an example of the internal structure of the capsule endoscope shown in FIG.
  • FIG. 3 is a schematic
  • FIG. 7 is a schematic diagram illustrating an example of the posture model stored in the posture model storage unit illustrated in FIG. 6.
  • FIG. 8 is a schematic diagram illustrating an example of an organ model stored in the organ model storage unit illustrated in FIG. 6.
  • FIG. 9 is a schematic diagram illustrating an example of a screen displayed on the display device.
  • FIG. 10 is a flowchart showing the operation of the capsule endoscope system shown in FIG.
  • FIG. 11 is a schematic diagram illustrating an example of a posture input dialog.
  • FIG. 12 is a schematic diagram illustrating another example of the posture input dialog.
  • FIG. 13 is a schematic diagram illustrating an example of a screen on which a body posture model and an organ model are displayed.
  • FIG. 14 is a flowchart showing the operation of the capsule endoscope system according to the second embodiment of the present invention.
  • FIG. 15 is a schematic diagram illustrating a display example of the body position information in the second embodiment.
  • FIG. 16 is a schematic diagram illustrating a display example of the body position information in the modified example 2-1.
  • FIG. 17 is a schematic diagram illustrating another display example of the body position information in the modified example 2-1.
  • FIG. 18 is a block diagram illustrating a configuration of a control device included in the capsule endoscope system according to the third embodiment of the present invention.
  • FIG. 19 is a schematic diagram illustrating a display example of the body position information in the third embodiment.
  • FIG. 20 is a schematic diagram illustrating a display example of the body position information in the modification 3-2.
  • FIG. 21 is a schematic diagram illustrating a display example of the posture information in the modification 3-3.
  • FIG. 22 is a schematic diagram illustrating a display example of the body position information in the modification 3-4.
  • FIG. 23 is a schematic diagram showing a cross section of an organ (stomach) to be observed by the capsule endoscope.
  • FIG. 24 is a schematic diagram illustrating a display example of body position information in Modification 3-5.
  • FIG. 25 is a schematic diagram illustrating a display example of the body position information in the modification 3-6.
  • FIG. 26 is a schematic diagram illustrating another display example of the body position information in the modification 3-6.
  • FIG. 27 is a block diagram illustrating a configuration of a control device provided in the capsule endoscope system according to the fourth embodiment of the present invention.
  • FIG. 28 is a schematic diagram illustrating a method for displaying body posture information in the fourth embodiment.
  • FIG. 29 is a schematic diagram illustrating a method for displaying body posture information in the fourth modification.
  • FIG. 30 is a block diagram illustrating a configuration example of a control device according to Embodiment 5 of the present invention.
  • FIG. 31 is a schematic diagram showing an example of the internal structure of a capsule endoscope used in the fifth embodiment of the present invention.
  • FIG. 32 is a schematic diagram illustrating an example of a screen displayed on the display device.
  • FIG. 33 is a flowchart showing the operation of the capsule endoscope system shown in FIG.
  • FIG. 34 is a schematic diagram illustrating a method for determining an imaging region.
  • FIG. 35 is a schematic diagram illustrating an example in which an imaging region is set on a development view of an organ model.
  • FIG. 36 is a block diagram illustrating a configuration example of a control device included in the capsule endoscope system according to the modification 5-2 of the fifth embodiment of the present invention.
  • FIG. 37 is a schematic diagram illustrating an example in which an imaging region is superimposed on a cut surface obtained by cutting an organ model along a plane perpendicular to the imaging direction.
  • FIG. 38 is a schematic diagram illustrating an example in which an imaging region is superimposed on a cut surface obtained by cutting an organ model along a plane parallel to the imaging direction.
  • FIG. 39 is a block diagram illustrating a configuration example of a control device included in the capsule endoscope system according to the sixth embodiment of the present invention.
  • FIG. 40 is a flowchart showing the operation of the capsule endoscope system according to the sixth embodiment of the present invention.
  • FIG. 41 is a schematic diagram for explaining a method of updating the shape parameter of the organ model in the sixth embodiment of the present invention.
  • FIG. 42 is a block diagram illustrating a configuration example of a control device included in the capsule endoscope system according to the modified example 6-2 of the sixth embodiment of the present invention.
  • FIG. 43 is a flowchart showing the operation of the capsule endoscope system according to the modified example 6-2 of the sixth embodiment of the present invention.
  • FIG. 44 is a schematic diagram for explaining a method for updating the shape parameter of the organ model in Modification 6-2 of Embodiment 6 of the present invention.
  • FIG. 41 is a schematic diagram for explaining a method of updating the shape parameter of the organ model in the sixth embodiment of the present invention.
  • FIG. 42 is a block diagram illustrating a configuration example of a control device included in the capsule endoscope system according to the modified example 6-2 of
  • FIG. 45 is a block diagram illustrating a configuration example of a control device provided in the capsule endoscope system according to the seventh embodiment of the present invention.
  • FIG. 46 is a flowchart showing the operation of the capsule endoscope system according to the seventh embodiment of the present invention.
  • FIG. 47 is a schematic diagram showing an example in which the current and past imaging regions are superimposed on the development view of the organ model.
  • FIG. 48 is a schematic diagram illustrating an example in which current and past imaging regions are superimposed on a cross-sectional view of an organ model.
  • FIG. 49 is a schematic diagram showing a display example of an expanded view of an organ model in Modification 7-3 of Embodiment 7 of the present invention.
  • a capsule endoscope system according to an embodiment of the present invention will be described with reference to the drawings.
  • a capsule endoscope that is orally introduced into a subject and performs imaging while drifting in a liquid stored in the stomach of the subject will be exemplified.
  • the present invention provides various types of capsule endoscopes that image the inside of the digestive tract while moving by peristaltic movement from the esophagus of the subject to the anus, and capsule endoscopes that are introduced together with an isotonic solution from the anus.
  • a capsule endoscope can be used.
  • FIG. 1 is a diagram illustrating a configuration example of a capsule endoscope system according to Embodiment 1 of the present invention.
  • a capsule endoscope system 1 according to Embodiment 1 is introduced into a digestive tract of a subject 2 and wirelessly transmits an image signal acquired by imaging the subject 2
  • a signal generator 14 that generates a signal for operating the magnetic field generator 12, a receiver 15 that receives an image signal wirelessly transmitted from the capsule endoscope 10, and guides the capsule endoscope 10.
  • the bed 3 is arranged so that the upper surface (the surface on which the subject 2 is placed) is parallel to the horizontal surface (the surface perpendicular to the direction of gravity).
  • the longitudinal direction of the bed 3 is the X direction
  • the short direction of the bed 3 is the Y direction
  • the vertical direction (gravity direction) is the Z direction.
  • FIG. 2 is a schematic diagram showing an example of the internal structure of the capsule endoscope 10.
  • the capsule endoscope 10 generates an image signal by capturing an image of a subject and a capsule-type casing 101 that is an exterior formed in a size that can be easily introduced into the organ of the subject 2.
  • a permanent magnet 108 is possible.
  • the capsule-type casing 101 is an outer case formed in a size that can be introduced into the organ of the subject 2, and includes a cylindrical casing 111 and dome-shaped casings 112 and 113. This is realized by closing the opening ends on both sides with the dome-shaped casings 112 and 113.
  • the dome-shaped casings 112 and 113 are dome-shaped optical members that are transparent to light in a predetermined wavelength band such as visible light.
  • the cylindrical casing 111 is a colored casing that is substantially opaque to visible light. As shown in FIG.
  • the capsule-type casing 101 formed by the cylindrical casing 111 and the dome-shaped casings 112 and 113 includes an imaging unit 102 and 103, a wireless communication unit 104, a control unit 105, and a power source unit.
  • 106, the magnetic field generation unit 107, and the permanent magnet 108 are contained in a liquid-tight manner.
  • Each of the imaging units 102 and 103 includes an illumination unit 114 such as an LED, an optical system 115 such as a condenser lens, and an imaging element 116 such as a CMOS image sensor or a CCD.
  • the illumination unit 114 emits illumination light such as white light to the imaging field of the imaging element 116 and illuminates the subject in the imaging field through the dome-shaped casings 112 and 113.
  • the optical system 115 focuses the reflected light from the imaging field of view on the imaging surface of the imaging element 116 to form a subject image.
  • the image sensor 116 receives reflected light from the imaging field focused on the imaging surface, and photoelectrically converts the received optical signal, thereby representing an image signal representing a subject image in the imaging field, that is, an in-vivo image of the subject 2. Is generated.
  • the imaging units 102 and 103 are configured such that each optical axis is a capsule.
  • the mold casing 101 is arranged so as to be substantially parallel or substantially coincident with the long axis La that is the central axis in the longitudinal direction of the mold casing 101 and the imaging fields of view are directed in opposite directions. That is, the imaging units 102 and 103 are mounted so that the imaging surface of the imaging element 116 is orthogonal to the long axis La.
  • the wireless communication unit 104 sequentially wirelessly transmits the image signals generated by the imaging units 102 and 103 to the outside via an antenna (not shown). Specifically, the wireless communication unit 104 acquires the image signal generated by the imaging units 102 and 103 from the control unit 105, performs signal processing such as modulation on the image signal, and generates a wireless signal. The wireless communication unit 104 transmits this wireless signal to the receiving device 15 provided outside the subject 2.
  • the control unit 105 controls each operation of the imaging units 102 and 103 and the wireless communication unit 104 and controls input / output of signals between these components. Specifically, each time the image sensor 116 generates an image signal, the control unit 105 acquires the image signal and performs predetermined signal processing, and further wirelessly sequentially transmits the image signal to the outside in time series.
  • the wireless communication unit 104 is controlled to transmit.
  • the power supply unit 106 is a power storage unit such as a button-type battery or a capacitor, and has a switch unit such as a magnetic switch or an optical switch.
  • the power supply unit 106 switches the power on / off state by a magnetic field applied from the outside, and in the on state, the power of the power storage unit is transmitted to each component of the capsule endoscope 10 (the imaging units 102 and 103, the wireless communication unit). 104, controller 105, and magnetic field generator 107) as appropriate. Further, the power supply unit 106 stops the power supply to each component of the capsule endoscope 10 when it is in the off state.
  • the magnetic field generation unit 107 is a part of a resonance circuit, includes a transmission coil that generates a magnetic field when a current flows, and a capacitor that forms a resonance circuit together with the transmission coil, and receives power supply from the power supply unit 106. To generate an alternating magnetic field having a predetermined frequency.
  • the permanent magnet 108 is fixedly arranged inside the capsule casing 101 so that the magnetization direction is inclined with respect to the long axis La.
  • the permanent magnet 108 is arranged so that the magnetization direction is orthogonal to the long axis La.
  • the permanent magnet 108 operates following a magnetic field applied from the outside. As a result, magnetic guidance of the capsule endoscope 10 by the magnetic field generator 12 described later is realized.
  • FIG. 3 is a schematic diagram showing a state in which the liquid W and the capsule endoscope 10 are introduced into the organ (stomach ST) of the subject 2.
  • FIG. 3 shows a state in which the magnetic field for controlling the position and posture of the capsule endoscope 10 is not acting on the permanent magnet 108 in the capsule endoscope 10.
  • the capsule endoscope 10 illustrated in the first embodiment is designed to float in the liquid W.
  • the center of gravity G of the capsule endoscope 10 is set so as to be shifted from the geometric center C of the capsule endoscope 10 along the long axis La of the capsule endoscope 10.
  • the center of gravity G is a position on the long axis La by adjusting the arrangement of the components such as the power supply unit 106 and the permanent magnet 108, and from the geometric center C of the capsule casing 101 to the imaging unit 103 side. It is set to a position that is off. Thereby, the capsule endoscope 10 floats in the liquid W in a state where its long axis La is substantially parallel to the vertical direction (that is, the gravity direction).
  • the capsule endoscope 10 floats in the liquid W in a state where a straight line connecting the geometric center C and the center of gravity G is upright. In such an upright posture, the capsule endoscope 10 directs the imaging field of one imaging unit 102 vertically upward and the imaging field of the other imaging unit 103 vertically downward.
  • the liquid W is a liquid that is harmless to the human body, such as water or physiological saline.
  • the imaging units 102 and 103 may be provided for the capsule endoscope 10.
  • the imaging direction when the capsule endoscope 10 is floated on the liquid W can be set vertically upward or downward.
  • the capsule endoscope 10 By applying a magnetic field to the permanent magnet 108 from the outside to the capsule endoscope 10 floating in this way, the capsule endoscope 10 passes through the position of the capsule endoscope 10, the inclination of the long axis La with respect to the vertical direction, and the center of gravity G.
  • the rotation (turning) of the long axis La with respect to the vertical axis can be controlled.
  • the position detection device 11 is arranged on a flat panel, and each receives the alternating magnetic field generated from the magnetic field generation unit 107 of the capsule endoscope 10 and outputs a detection signal.
  • a plurality of sense coils 11a are provided.
  • Each sense coil 11a is formed of, for example, a coil spring-like cylindrical coil.
  • Such a position detection device 11 is disposed in the vicinity of the subject 2 under examination. In the first embodiment, the position detection device 11 is disposed below the bed 3.
  • the signal processing device 13 takes in the detection signal output from each sense coil 11a of the position detection device 11, adjusts the waveform of the detection signal by filter processing, and then performs amplification and A / D conversion processing to obtain a capsule.
  • the position detection signal of the mold endoscope 10 is output to the control device 17.
  • the position detection device 11, the signal processing device 13, and a position calculation unit 132 to be described later constitute detection means for detecting the position and posture of the capsule endoscope 10.
  • the position detection method applicable to the capsule endoscope system 1 is not limited to the method of detecting the alternating magnetic field described above, and various known methods can be applied.
  • the capsule endoscope 10 in the subject 2 may be estimated based on the reception intensity distribution of the image signal received by each of the plurality of antennas 15a. In this case, it is not necessary to provide the magnetic field generator 107 in the capsule endoscope 10.
  • the magnetic field generator 12 generates a magnetic field for controlling at least one of the position and posture of the capsule endoscope 10 introduced into the subject 2.
  • the magnetic field generator 12 includes a plurality of electromagnets, and traps the permanent magnet 108 of the capsule endoscope 10 by a combined magnetic field generated from each electromagnet according to a signal generated by the signal generator 14. To do.
  • the capsule endoscope 10 can be guided to a user-desired position and posture by adjusting the magnetic field generated from each electromagnet and changing the combined magnetic field.
  • the signal generator 14 generates a drive signal for driving each electromagnet included in the magnetic field generator 12 under the control of the control device 17 (guidance magnetic field control unit 151 described later).
  • the magnetic field generator 12 and the signal generator 14 constitute guiding means for guiding the capsule endoscope 10 in the subject 2.
  • a region where the capsule endoscope 10 can be guided by the magnetic field generated by the magnetic field generator 12 is referred to as a guiding region R.
  • the configuration of the guiding means applicable to the capsule endoscope system 1 is not limited to the configuration including the magnetic field generation device 12 and the signal generation device 14 described above, and various known configurations can be applied.
  • a permanent magnet hereinafter referred to as an external permanent magnet
  • driving means for moving and rotating the external permanent magnet may be provided instead of the magnetic field generator 12.
  • the position and posture of the capsule endoscope 10 are controlled by moving and rotating the extracorporeal permanent magnet while trapping the permanent magnet 108 of the capsule endoscope 10 by the magnetic field generated by the extracorporeal permanent magnet. be able to.
  • the receiving device 15 includes a plurality of antennas 15 a that receive radio signals transmitted from the capsule endoscope 10 introduced into the subject 2. These antennas 15 a are housed in pads and are affixed to predetermined positions on the body surface of the subject 2. Alternatively, a jacket (antenna jacket) to which a plurality of antennas 15a are attached may be attached to the subject 2. The receiving device 15 sequentially captures radio signals from the capsule endoscope 10 received by the respective antennas 15a, and performs predetermined signal processing such as demodulation processing on the signals captured from the antenna having the highest received electric field strength. Thus, a digital image signal (image data) related to the inside of the subject 2 is acquired and output to the control device 17.
  • predetermined signal processing such as demodulation processing
  • the operation input device 16 is an input device used when a user such as a doctor performs various input operations, and includes, for example, an operation console provided with a keyboard, a mouse, a touch panel, a joystick, various buttons, and various switches.
  • the operation input device 16 outputs a signal corresponding to an operation performed from the outside, such as an input operation by a user, to the control device 17.
  • FIG. 4 is a schematic diagram showing an example in which the operation input device 16 for magnetically guiding the capsule endoscope 10 introduced into the subject 2 is configured by two joysticks 16a and 16b as an example. These joysticks 16a and 16b are configured to set a predetermined observation mode for the capsule endoscope 10 and guidance instruction information for magnetically guiding the capsule endoscope 10 according to an operation performed from the outside. Is output to the control device 17 as setting information.
  • the guidance instruction information includes information on an operation for changing the position of the capsule endoscope 10, information on an operation for changing the tilt angle (angle with respect to the vertical axis) of the capsule endoscope 10, and the capsule endoscope.
  • the observation mode includes a floating mode in which the inside of the subject 2 is observed in a state where the capsule endoscope 10 is suspended in the liquid W introduced into the subject 2 (see FIG. 2), and the vicinity of the bottom of the liquid W.
  • the observation mode includes a floating mode in which the inside of the subject 2 is observed in a state where the capsule endoscope 10 is suspended in the liquid W introduced into the subject 2 (see FIG. 2), and the vicinity of the bottom of the liquid W.
  • FIG. 4 (a) is a front view of the joysticks 16a and 16b
  • FIG. 4 (b) is a right side view of the joystick 16a
  • FIG. 5 is a schematic diagram showing the movement of the capsule endoscope 10 in response to an operation on each component of the joysticks 16a and 16b.
  • the joysticks 16a and 16b have a configuration that can be tilted in the vertical and horizontal directions.
  • an up button 16c and a down button 16d are provided on the back of the joystick 16a.
  • the up button 16c outputs guidance instruction information for instructing upward guidance of the capsule endoscope 10 to the control device 17 when pressed.
  • an up operation is instructed to proceed upward as indicated by an arrow Y15 along the vertical axis Az shown in FIG.
  • the down button 16 d outputs guidance instruction information for instructing a downward guidance of the capsule endoscope 10 to the control device 17 when pressed. Accordingly, a down operation is instructed to proceed downward as indicated by an arrow Y16 along the vertical axis Az shown in FIG.
  • a capture button 16e is provided on the joystick 16a.
  • the capture button 16e captures the in-vivo image displayed on the display device 18 when pressed.
  • an approach button 16f is provided on the upper part of the joystick 16b. When the approach button 16f is pressed, the capsule endoscope 10 is guided to bring the imaging unit 102 or 103 side of the capsule endoscope 10 closer to the imaging target of the imaging unit 102 or 103.
  • the instruction information is output to the control device 17.
  • the vertical tilt direction indicated by the arrow Y11j of the joystick 16a is such that the tip of the capsule endoscope 10 passes through the vertical axis Az as indicated by the arrow Y11 in FIG.
  • the horizontal tilt direction indicated by the arrow Y12j of the joystick 16a corresponds to the rotation guiding direction in which the capsule endoscope 10 rotates about the vertical axis Az as indicated by the arrow Y12 in FIG.
  • the vertical tilt direction indicated by the arrow Y13j of the joystick 16b is a horizontal backward guidance direction or a horizontal forward guidance direction that advances in a direction in which the long axis La of the capsule endoscope 10 is projected onto the horizontal plane Hp as indicated by an arrow Y13 in FIG. Corresponds to the direction.
  • the horizontal tilt direction indicated by the arrow Y14j of the joystick 16b is such that the capsule endoscope 10 moves perpendicularly to the direction in which the capsule endoscope 10 projects on the horizontal plane Hp and the long axis La projects on the horizontal plane Hp as indicated by the arrow Y14 in FIG. Corresponds to direction or horizontal left guiding direction.
  • the control device 17 captures the image data output from the receiving device 15 and performs predetermined image processing to generate an in-vivo image, and captures the position detection output from the signal processing device 13 to obtain the in-subject image.
  • the position and posture of the capsule endoscope 10 are detected, and the in-vivo image and the position and posture of the capsule endoscope 10 are displayed on the display device 18 in a predetermined format.
  • the control device 17 generates a magnetic field for guiding the capsule endoscope 10 from the magnetic field generation device 12 by outputting a control signal to the signal generation device 14 in accordance with a signal input from the operation input device 16. .
  • Such a control device 17 is configured by a workstation, a personal computer, or the like.
  • FIG. 6 is a block diagram illustrating a configuration example of the control device 17. As illustrated in FIG. 6, the control device 17 includes an input / output unit 120, a calculation unit 130, a storage unit 140, and a control unit 150.
  • the input / output unit 120 is an external interface for inputting / outputting information to / from an external device, and receives various data and instruction signals output from the external device such as the signal processing device 13, the receiving device 15, and the operation input device 16. While receiving and outputting to the calculating part 130 or the control part 150, the various data and control signal which were output from the calculating part 130 or the control part 150 are output to external apparatuses, such as the signal generator 14 and the display apparatus 18.
  • the calculation unit 130 is realized by hardware such as a CPU, and reads various programs stored in a program storage unit 141 to be described later, thereby performing predetermined calculation processing on various data input to the control device 17. More specifically, the calculation unit 130 includes an image processing unit 131, a position calculation unit 132, and a locus calculation unit 133.
  • the image processing unit 131 performs white balance processing, demosaicing, color conversion, density conversion (gamma conversion, etc.), smoothing (noise removal, etc.), sharpening (edge enhancement, etc.) on the image data captured from the receiving device 15.
  • the image data for display is generated by performing image processing such as.
  • the position calculation unit 132 calculates the position and posture of the capsule endoscope 10 in the subject 2 based on the position detection signal acquired from the signal processing device 13, and determines the position and posture of the capsule endoscope 10.
  • the position information to represent is generated.
  • the trajectory calculation unit 133 calculates the trajectory of the capsule endoscope 10 in the subject 2 based on the position information generated by the position calculation unit 132.
  • the storage unit 140 is realized by a semiconductor memory such as a flash memory, a RAM, or a ROM, a recording medium such as an HDD, MO, CD-R, or DVD-R, a writing / reading device, or the like.
  • the storage unit 140 is a program storage unit 141 that stores a program for operating the control device 17 to execute various functions and various information, and a patient information storage unit 142 that stores information about the subject 2 as a patient.
  • An image data storage unit 143 that stores display image data generated by the image processing unit 131, a position information storage unit 144 that stores position information generated by the position calculation unit 132, a body position model storage unit 145, and an organ A model storage unit 146.
  • the posture model storage unit 145 stores image data of a plurality of posture models that schematically represent the postures taken by the subject 2 in accordance with an instruction of a user such as a doctor at the time of examination by the capsule endoscope 10.
  • FIG. 7 is a schematic diagram illustrating an example of a body posture model.
  • the posture model P1 shown in FIG. 7A is a model obtained by projecting the subject 2 in the supine position onto the horizontal plane.
  • the body posture model P2 shown in FIG. 7B is a model obtained by projecting the subject 2 in the prone position on the horizontal plane.
  • the posture model P3 shown in FIG. 7C is a model obtained by projecting the subject 2 in the left-side position on the horizontal plane.
  • the posture model P4 shown in FIG. 7D is a model obtained by projecting the subject 2 in the right lateral position on the horizontal plane.
  • the organ model storage unit 146 stores image data of a plurality of organ models schematically representing an organ to be examined by the capsule endoscope 10.
  • the organ to be examined by the capsule endoscope 10 is the stomach.
  • FIG. 8 is a schematic diagram illustrating an example of an organ model.
  • An organ model ST1 shown in FIG. 8A is a model in which the stomach in the supine position is projected on a horizontal plane.
  • An organ model ST2 shown in FIG. 8B is a model in which the stomach in the prone position is projected on a horizontal plane.
  • An organ model ST3 shown in FIG. 8C is a model obtained by projecting the stomach on the left lateral position on a horizontal plane.
  • the image data of these organ models ST1 to ST4 is stored in association with the image data of the body position model stored in the body position model storage unit 145 for each body position.
  • the control unit 150 is realized by hardware such as a CPU, and reads various programs stored in the program storage unit 141, thereby instructing each unit configuring the control device 17 according to various signals input to the control device 17. And data transfer, etc., and overall operation of the control device 17 is controlled.
  • control unit 150 includes a guidance magnetic field control unit 151 that controls the signal generation device 14 based on guidance instruction information input from the operation input device 16, and a posture determination unit that determines the posture of the subject 2.
  • the posture model and the organ model corresponding to the posture determined by the posture determination unit 152 from among the plurality of posture models stored in the posture model storage unit 145 and the plurality of organ models stored in the organ model storage unit 146. Are respectively extracted, and a display control unit 154 for controlling the display operation in the display device 18.
  • the guidance magnetic field control unit 151 calculates the guidance direction and the guidance amount of the capsule endoscope 10 according to the operation on the operation input device 16 based on the guidance instruction information input from the operation input device 16, and the guidance direction. Then, a control signal corresponding to the induction amount is output to the signal generator 14 to generate a signal for driving the magnetic field generator 12. For example, when the operation input device 16 includes the joysticks 16a and 16b shown in FIG. 4, the following control is performed.
  • the guidance magnetic field control unit 151 uses the guidance instruction information.
  • the guide direction on the absolute coordinate system of the tip of the capsule endoscope 10 is calculated according to the tilt direction of the joystick 16a, and the guide amount according to the tilt operation of the joystick 16a is calculated. Outputs the corresponding control signal.
  • the guidance magnetic field control unit 151 is based on this guidance instruction information.
  • the guide direction on the absolute coordinate system of the tip of the capsule endoscope 10 is calculated according to the tilt direction of the joystick 16a, and the guide amount according to the tilt operation of the joystick 16a is calculated.
  • a control signal corresponding to is output.
  • the guidance magnetic field control unit 151 uses the guidance instruction information.
  • the guidance direction and the guidance amount on the absolute coordinate system of the tip of the capsule endoscope 10 are calculated according to the tilting direction of the joystick 16b, and a control signal corresponding to the guidance direction and the guidance amount is output.
  • the guidance magnetic field control unit 151 is based on this guidance instruction information.
  • the guidance direction and the guidance amount on the absolute coordinate system of the tip of the capsule endoscope 10 are calculated according to the tilting direction of the joystick 16b, and a control signal corresponding to the guidance direction and the guidance amount is output.
  • the body position determination unit 152 determines the body position of the subject 2 based on the signal input from the operation input device 16.
  • the body position determination unit 152 transmits information representing the determined body position to the storage unit 140, and stores the information in association with the image data generated by the image processing unit 131.
  • the model extraction unit 153 extracts a posture model corresponding to the determination result by the posture determination unit 152 from a plurality of posture models stored in the posture model storage unit 145, and an organ model associated with the extracted posture model Are extracted from a plurality of organ models stored in the organ model storage unit 146.
  • the display control unit 154 represents an in-vivo image based on the display image data generated by the image processing unit 131, patient information, position information, and the posture of the subject 2 during the examination by the capsule endoscope 10. Related information such as information is displayed on the display device 18 in a predetermined format in real time.
  • the display control unit 154 sends an in-vivo image and related information based on the image data stored in the image data storage unit 143 to the display device 18 in a predetermined manner. Display in format. In this case, a display device with higher definition than the display device 18 used during the inspection may be used.
  • the display device 18 is configured using a liquid crystal display, an organic EL (Electro Luminescence) display, or the like.
  • FIG. 9 is a schematic diagram illustrating an example of a screen displayed on the display device 18 under the control of the display control unit 154.
  • the screen M ⁇ b> 1 is acquired by the patient information display area m ⁇ b> 1 in which patient information such as patient ID, patient name, patient sex, date of birth, and age is displayed, and the imaging units 102 and 103.
  • a guidance on / off button m8 for allowing a user to input a guidance function on / off switching instruction for the capsule endoscope 10.
  • the operation information display area m5 is an area in which an attitude diagram m9 indicating the attitude on the vertical plane of the capsule endoscope 10 and an attitude diagram m10 indicating the attitude on the horizontal plane are displayed.
  • a plurality of directions in which the capsule endoscope 10 can be guided are indicated by arrows.
  • the display color of the arrow corresponding to the input direction among these arrows is changed. Thereby, guidance operation by a user is assisted.
  • the posture of the capsule endoscope 10 displayed in each posture diagram m9, m10 represents a posture corresponding to the guidance instruction information input from the operation input device 16.
  • the posture is determined.
  • the posture of the capsule endoscope 10 displayed in FIGS. M9 and m10 can be considered to be substantially the same as the actual posture of the capsule endoscope 10 in the subject 2.
  • the body position information display area m6 is an area in which body position information, which is information indicating the body position of the subject 2 and the state of the organ at that time, is displayed. Specifically, the body posture model and the organ model extracted by the model extraction unit 153 are displayed in the body posture information display area m6.
  • buttons m11 to m14 corresponding to the posture models P1 to P4 (see FIG. 7) and an OK button m15 are displayed.
  • One of the icons m11 to m14 is selected by a predetermined pointer operation (for example, click) using the operation input device 16 (for example, a touch panel or a mouse) for the screen M1, and then selected by pressing the OK button m15 after the selection.
  • a posture selection signal representing the posture corresponding to the icon is input to the control unit 150.
  • a dedicated input button for allowing the user to select the posture of the subject 2 may be provided in the operation input device 16.
  • the guidance on / off button m8 is used when the user inputs an instruction to start (resume) or end (interrupt) guidance of the capsule endoscope 10.
  • Guidance on / off switching that switches the guidance function on and off each time the guidance on / off button m8 is pressed once by a predetermined pointer operation using the operation input device 16 (for example, a touch panel or a mouse) on the screen M1.
  • a signal is input to the control unit 150. While the guidance function is turned on by the guidance on / off switching signal, the capsule endoscope 10 using the operation input device 16 can be magnetically guided.
  • the operation input device 16 may be provided with a dedicated switch or button for switching the guidance function of the capsule endoscope 10 on / off by the user. good.
  • the user causes the capsule endoscope 10 to image a desired region in the subject 2 by operating the operation input device 16 while referring to such a screen M1.
  • a display for specifying the imaging unit that is the target of the guidance operation is added to the screen M ⁇ b> 1. Also good.
  • the in-vivo image display area m2 in which the in-vivo image captured by the imaging unit 102 is displayed is surrounded by a frame, or text such as “during the guidance operation” It may be displayed in the vicinity of the image display area m2.
  • the user introduces the liquid W (see FIG. 3) into the subject 2 prior to the examination by the capsule endoscope 10.
  • step S110 when the capsule endoscope 10 is turned on, the capsule endoscope 10 starts imaging and starts wireless transmission of an image signal.
  • the receiving device 15 starts receiving an image signal wirelessly transmitted from the capsule endoscope 10.
  • the image processing unit 131 of the control device 17 takes in the digital image signal (image data) output from the receiving device 15 and performs predetermined image processing, thereby displaying an image for display representing an in-vivo image. Generate data. Display image data is sequentially stored in the image data storage unit 143. A user such as a doctor swallows the capsule endoscope 10 into the subject 2 in this state.
  • step S111 the capsule endoscope system 1 starts detecting the position of the capsule endoscope 10. More specifically, the position detection device 11 detects an alternating magnetic field generated by the magnetic field generation unit 107 of the capsule endoscope 10 and outputs a detection signal. The signal processing device 13 takes in the detection signal and receives a predetermined signal. By performing processing, a digital position detection signal (position detection data) is generated. The position calculation unit 132 of the control device 17 calculates the position and orientation of the capsule endoscope 10 based on the position detection data, and sequentially stores them in the position information storage unit 144 as position information.
  • position detection device 11 detects an alternating magnetic field generated by the magnetic field generation unit 107 of the capsule endoscope 10 and outputs a detection signal.
  • the signal processing device 13 takes in the detection signal and receives a predetermined signal. By performing processing, a digital position detection signal (position detection data) is generated.
  • the position calculation unit 132 of the control device 17 calculates the position and orientation of the capsule endoscope 10 based on the position
  • step S112 the display control unit 154 of the control device 17 uses the display image data sequentially generated by the image processing unit 131 to display the in-vivo image in the form of the screen M1 shown in FIG. 9, for example. 18 starts.
  • step S113 the control unit 150 receives, for example, a guidance on / off switching signal corresponding to a pointer operation on the guidance on / off button m8 on the screen M1 as an instruction to start (or resume) guidance of the capsule endoscope 10. It is determined whether or not it has been input.
  • the control unit 150 waits until the guidance is started (or resumed).
  • step S113 When an instruction to start (or resume) guidance of the capsule endoscope 10 is input (step S113: Yes), the control unit 150 starts magnetic guidance of the capsule endoscope 10 (step S114). That is, the guidance magnetic field control unit 151 generates a control signal based on the input guidance instruction information and outputs the control signal to the signal generator 14. In response to this, the signal generator 14 drives the magnetic field generator 12 to generate a magnetic field. Thereby, magnetic guidance of the capsule endoscope 10 according to the operation on the operation input device 16 is realized.
  • step S115 the control unit 150 determines whether or not the body position of the subject 2 has been input. For example, when a posture selection signal corresponding to any of the icons m11 to m14 is input in response to a pointer operation on the screen M1, the control unit 150 determines that a posture has been input (step S115: Yes).
  • step S115 When the posture is not input even after a predetermined time has elapsed after the guidance of the capsule endoscope 10 is started (step S115: No), the display control unit 154 prompts the user to input the posture. Is displayed on the display device 18 (step S116).
  • FIG. 11 is a schematic diagram showing an example of a posture input dialog.
  • the posture input dialog M2 shown in FIG. 11 includes a text message such as “Select a posture and press the OK button”, icons m11 to m14 corresponding to the posture models P1 to P4, and an OK button m15.
  • One of the icons m11 to m14 is selected by the pointer operation on the body position input dialog M2, and the body position selection signal indicating the body position corresponding to the selected icon is input to the control unit 150 when the OK button m15 is pressed. Is done.
  • FIG. 12 is a schematic diagram showing another example of the posture input dialog.
  • the posture input dialog M3 shown in FIG. 12 includes a text message such as “Select a posture and press the OK button”, “Spine position”, “Prone position”, “Left position”, “Right position”. ”, A radio button m16 displayed in the vicinity of the text of each posture, and an OK button m17.
  • a posture selection signal indicating the posture corresponding to the selected radio button m16 is sent to the control unit 150. Entered.
  • FIG. 12 shows a state where the supine position is selected.
  • the operation input device 16 is provided with a dedicated input button that allows the user to select a posture, for example, a text message such as “Please enter your posture” may be displayed on the posture input dialog. Thereafter, the operation of the capsule endoscope system 1 returns to step S115.
  • the model extracting unit 153 changes the input posture (posture selection signal) from the plurality of posture models stored in the posture model storage unit 145.
  • a corresponding posture model is extracted, and an organ model corresponding to the extracted posture model is extracted from a plurality of organ models stored in the organ model storage unit 146 (step S117).
  • FIG. 13 is a schematic diagram showing a screen on which the posture model and the organ model are displayed, and shows an example in which the posture model P3 and the organ model ST3 in the left lateral position are displayed side by side in the posture information display area m6 of the screen M4. Yes.
  • the user refers to the body position model P3 and the organ model ST3 displayed in this manner, so that the field of view of the imaging units 102 and 103 of the capsule endoscope 10 that the user is guiding using the operation input device 16 is guided. It is possible to easily grasp the positional relationship between the organ and the organ.
  • the arrangement of the body position model P3 and the organ model ST3 is not limited to the example shown in FIG. 13 as long as the user can view both of them simultaneously. Specifically, both may be displayed superimposed. In this case, the user can more easily understand the relationship between the relative position and orientation of the body position model and the organ model.
  • control unit 150 determines whether or not an instruction to stop the guidance of the capsule endoscope 10 has been input.
  • the user when changing the posture of the subject 2, the user temporarily turns off the guidance function of the capsule endoscope 10, changes the posture of the subject 2, and then changes the position of the capsule endoscope.
  • the guidance function of the mirror 10 is turned on.
  • step S119: Yes when a guidance on / off switching signal is input in response to a pointer operation on the guidance on / off button m8 on the screen M1, the control unit 150 determines that an instruction to stop the guidance is input (step S119: Yes). ). On the other hand, when the guidance on / off switching signal is not input, the control unit 150 determines that the guidance stop is not instructed (step S119: No). In this case, the control unit 150 continues guiding the capsule endoscope 10 according to the operation on the operation input device 16 until an instruction to stop the guidance is given.
  • step S119 When an instruction to stop the guidance of the capsule endoscope 10 is input (step S119: Yes), the control unit 150 subsequently determines whether or not to end the examination by the capsule endoscope 10 (step S119). S120). For example, the control unit 150 receives an operation input for ending the examination by the user, or the output of the image signal from the receiving device 15 is stopped (that is, the wireless transmission of the image signal from the capsule endoscope 10 is stopped). If it is determined that the inspection is finished (step S120: Yes).
  • step S120 If the examination by the capsule endoscope 10 is not completed (step S120: No), the operation of the capsule endoscope system 1 returns to step S113.
  • step S120 when the examination by the capsule endoscope 10 is finished (step S120: Yes), the control device 17 stops the operation of the signal processing device 13 and finishes the position detection of the capsule endoscope 10 (step). S121).
  • step S122 the control device 17 ends the display of the in-vivo image on the display device 18. Thereafter, the operation of the capsule endoscope system 1 ends.
  • the user refers to the posture model and the organ model displayed on the display device 18, It is possible to easily grasp the positional relationship and imaging direction between the capsule endoscope 10 being operated via the operation input device 16 and the subject 2 and the organ.
  • the posture models P1 to P4 and the organ models ST1 to ST4 are models in which the subject 2 and the organ are projected on a horizontal plane, the user can feel the subject with the same feeling as when viewed from above the bed 3. 2 and the state of the organ can be grasped. Accordingly, the user can accurately perform the guidance operation of the capsule endoscope 10 and cause the capsule endoscope 10 to image a desired region in the subject 2 for observation.
  • the posture input dialog is displayed on the display device 18, so that it is possible to prevent the user from forgetting to input the posture.
  • the posture model representing the actual posture of the subject 2 and the corresponding organ model can always be displayed on the display device 18 during the examination.
  • the user since accurate information representing the body position of the subject 2 can be associated with the image data, the user can refer to the body position information when diagnosing the in-vivo image, so that the capsule when the in-vivo image is captured is used. It is possible to accurately grasp the positional relationship and imaging direction between the mold endoscope 10 and the subject 2 and the organ.
  • the user inputs the posture of the subject 2.
  • the posture of the subject 2 may be automatically determined.
  • a triaxial acceleration sensor is attached to a pad for an antenna 15a to be affixed to the subject 2, and the posture determination unit 152 is based on the direction of acceleration detected by the triaxial acceleration sensor, that is, the direction of gravity. Determines the posture of the subject 2.
  • steps S115 and S116 in FIG. 10 are omitted, and a posture model and an organ model are extracted based on the automatically determined posture in step S117.
  • the configuration of the capsule endoscope system according to the second embodiment is the same as that of the first embodiment (see FIG. 1), and the display format of the posture information displayed on the display device 18 is different from that of the first embodiment. . More specifically, in the second embodiment, the display format of the body position information is changed between when the capsule endoscope 10 is magnetically guided and when it is not.
  • steps S110 to S112 shown in FIG. 14 are the same as those in the first embodiment (see FIG. 10).
  • step S131 the control unit 150 determines whether or not the posture of the subject 2 has been input. For example, when a posture selection signal corresponding to any of the icons m11 to m14 is input in response to a pointer operation on the screen M1, the control unit 150 determines that a posture has been input (step S131: Yes).
  • the model extracting unit 153 follows the input posture (posture selection signal) from among the plurality of posture models stored in the posture model storage unit 145. A posture model is extracted, and an organ model corresponding to the extracted posture model is extracted from a plurality of organ models stored in the organ model storage unit 146 (step S132).
  • the operation of the control device 17 proceeds to step S133.
  • step S133 as an instruction to switch on / off of the guidance function of the capsule endoscope 10, the control unit 150, for example, a guidance on / off switching signal corresponding to a pointer operation on the guidance on / off button m8 illustrated in FIG. It is determined whether or not is input.
  • step S133: No the instruction to switch the guidance function on / off is not input (step S133: No)
  • step S133: No the operation of the control device 17 proceeds to step S138.
  • the guidance magnetic field control unit 151 switches the guidance function on / off (step S134). That is, when the guidance function has been turned off, the guidance magnetic field control unit 151 starts accepting guidance instruction information output from the operation input device 16 and generates a control signal based on the guidance instruction information. Output to the signal generator 14. Thereby, magnetic guidance of the capsule endoscope 10 is started. On the other hand, when the guidance function has been on until then, the guidance magnetic field control unit 151 stops accepting input of guidance instruction information output from the operation input device 16.
  • step S135 the display control unit 154 determines whether the guidance function is on or off.
  • step S135 When the guidance function is in the off state (step S135: off), the display control unit 154 displays the body posture information of the subject 2 on the display device 18 in the guidance off mode display format (step S136).
  • FIG. 15A is a schematic diagram showing a display example of the body position information in the guidance off mode.
  • the display control unit 154 displays only the posture model extracted by the model extraction unit 153 in the posture information display area m6 (see FIG. 9).
  • FIG. 15A shows an example in which a posture model P3 in the left-side position is displayed.
  • step S135 when the guidance function is in the on state (step S135: on), the display control unit 154 displays the posture information of the subject 2 on the display device 18 in the guidance on mode display format (step S137).
  • FIG. 15B is a schematic diagram illustrating a display example of the body position information in the guidance on mode.
  • the display control unit 154 superimposes the organ model on the body posture model extracted by the model extraction unit 153 and displays it in the body posture information display area m6 (see FIG. 9).
  • FIG. 15B shows an example in which the organ model ST3 is superimposed on the body position model P3 in the left lateral position.
  • step S138 the control unit 150 determines whether or not to end the examination by the capsule endoscope 10. For example, when the input of the image data from the receiving device 15 is stopped (that is, the wireless transmission of the image data from the capsule endoscope 10 is stopped), the control unit 150 determines to end the inspection (step S138: Yes).
  • step S138 If the examination by the capsule endoscope 10 is not finished (step S138: No), the operation of the capsule endoscope system 1 returns to step S131.
  • step S138 when the examination by the capsule endoscope 10 is finished (step S138: Yes), the operation of the capsule endoscope system 1 proceeds to step S121.
  • Steps S121 and S122 are the same as in the first embodiment (see FIG. 10).
  • the guidance function when the guidance function is off, only the posture model is displayed in the body position information display area m6, so that the user can perform the guidance operation of the capsule endoscope 10 before performing the guidance operation.
  • the organ model is superimposed on the posture model and displayed in the posture information display area m6 when the guidance function is on, the user can perform the posture of the subject 2 while performing the guidance operation of the capsule endoscope 10. It is possible to intensively grasp information necessary for the guidance operation such as the state of the organ according to the condition and the relative relationship between the organ and the subject 2.
  • the body position of the subject 2 may be automatically determined.
  • step S131 in FIG. 14 is omitted, and in step S132, a posture model and an organ model are extracted based on the automatically determined posture.
  • Modification 2-1 of Embodiment 2 of the present invention will be described.
  • the display format of the body position information in the guidance off mode and the guidance on mode is not limited to the display format illustrated in FIG. 16 and 17 are schematic diagrams illustrating display examples of body posture information in the modified example 2-1.
  • the body position model for example, the body position model P3
  • the guidance-on mode as shown in FIG. Only model ST3
  • the user can grasp the entire situation regarding the subject 2 and the capsule endoscope 10 before performing the guidance operation of the capsule endoscope 10, while guiding the capsule endoscope 10 While performing the operation, information necessary for the guidance operation (the state of the organ corresponding to the body position of the subject 2) can be intensively grasped.
  • the body position model for example, the body position model P3
  • the guidance on mode as shown in FIG. 17A
  • an organ model for example, organ model ST3 may be superimposed on the model P3), and these may be enlarged and displayed.
  • the user can grasp the state of the posture of the subject 2 as a whole before performing the guidance operation of the capsule endoscope 10, while performing the guidance operation of the capsule endoscope 10. While necessary, information necessary for the guidance operation such as the state of the organ according to the posture of the subject 2 and the relative relationship between the organ and the subject 2 can be easily and intensively grasped.
  • the guidance on mode is set.
  • the body position model and the organ model may be displayed in an enlarged manner as compared with the floating mode.
  • FIG. 18 is a block diagram illustrating a configuration of a control device included in the capsule endoscope system according to the third embodiment of the present invention.
  • the control device 20 illustrated in FIG. 18 includes a storage unit 170 instead of the storage unit 140 with respect to the control device 17 illustrated in FIG.
  • the configuration of each unit of the control device 20 other than the storage unit 170 is the same as that of the first embodiment.
  • the configuration of each part of the capsule endoscope system other than the control device 20 is the same as that of the first embodiment (see FIG. 1).
  • the storage unit 170 further includes a character storage unit 171 that stores image data of a schematic image (hereinafter referred to as a character) of the capsule endoscope 10 with respect to the storage unit 140 illustrated in FIG.
  • the operation of the capsule endoscope system according to the third embodiment is the same as that of the first embodiment (see FIG. 10) or the second embodiment (see FIG. 14) as a whole, and step S118 (see FIG. 10) or
  • the display format of the posture information displayed in the posture information display area m6 (see FIG. 9) in step S137 (see FIG. 14) is different from that in the first and second embodiments. That is, in the third embodiment, as shown in FIG. 19, the character C1 of the capsule endoscope 10 is displayed superimposed on the posture model or organ model extracted by the model extraction unit 153.
  • FIG. 19 shows an example in which the organ model ST3 and the character C1 are superimposed on the body posture model P3 in the left lateral position.
  • the display control unit 154 determines the coordinates on the body position model (or organ model) corresponding to the guidance target position of the capsule endoscope 10 based on the operation instruction information input from the operation input device 16.
  • the character C1 is displayed at the calculated coordinates.
  • the orientation of the character C1 at this time is determined according to the target guidance posture of the capsule endoscope 10 based on the operation instruction information input from the operation input device 16.
  • the user can determine the position and imaging direction of the capsule endoscope 10 and the body posture of the subject 2.
  • the display control unit 154 determines the coordinates and orientation for displaying the character C1 based on the guidance instruction information input from the operation input device 16, but is detected in step S111 in FIG. Based on the position and orientation of the capsule endoscope 10, the coordinates and orientation for displaying the character C1 may be determined.
  • FIG. 20 is a schematic diagram illustrating a display example of the body position information in the modification 3-2.
  • the locus T of the capsule endoscope 10 may be displayed in the body position information display area m6 together with the body posture model or the organ model and the character C1.
  • the display control unit 154 determines the display coordinates of the trajectory T on the body posture model based on the trajectory calculated by the trajectory calculating unit 133.
  • FIG. 20 shows an example in which the organ model ST3, the character C1, and the trajectory T are superimposed on the posture model P3 in the left-side position.
  • FIG. 21 is a schematic diagram illustrating a display example of the posture information in the modification 3-3.
  • a mark C2 indicating the viewing angle of the capsule endoscope 10 may be displayed in the body position information display area m6.
  • the display control unit 154 includes the guidance target position and posture of the capsule endoscope 10 based on the guidance instruction information input from the operation input device 16 and the imaging units 102 and 103 included in the capsule endoscope 10.
  • the display coordinates of the mark C2 are determined based on the viewing angle.
  • the display coordinates of the mark C2 may be determined based on the position and orientation of the capsule endoscope 10 calculated by the position calculation unit 132. According to the modified example 3-3, the user can easily estimate the part and range that the capsule endoscope 10 is imaging.
  • FIG. 21 shows an example in which the character C1 and the mark C2 are superimposed on the left-sided organ model ST3.
  • FIG. 22 is a schematic diagram illustrating a display example of the body position information in the modification 3-4.
  • a region C3 corresponding to a region (imaging range) included in the viewing angle of the capsule endoscope 10 is different from other regions. It may be displayed in color. As a result, the user can more easily estimate the part and range that the capsule endoscope 10 is imaging.
  • FIG. 22 shows an example in which the character C1 and the mark C2 are superimposed on the left-sided organ model ST3, and the color difference of the region C3 is represented by shading.
  • Modification 3-5 of Embodiment 3 of the present invention will be described.
  • the size of the character C1 to be superimposed on the body position model or the organ model may be changed according to the region where the capsule endoscope 10 is guided or the position of the capsule endoscope 10 in the vertical direction.
  • the region in which the capsule endoscope 10 is guided and the position of the capsule endoscope 10 in the vertical direction may be acquired from the guidance instruction information input from the operation input device 16 or a position calculation unit. You may acquire from the positional information calculated by 132.
  • FIG. 23 is a schematic diagram showing a cross section of an organ (stomach ST) to be observed by the capsule endoscope 10.
  • FIG. 24 is a schematic diagram showing a display example of the body position information in Modification 3-5, in which an organ model ST3 and a character C1 are superimposed on the body position model P3 in the left-side position.
  • the size of the character C1 is minimized, and the higher the position of the capsule endoscope 10 in the vertical direction (the closer to the liquid level PC).
  • the size of the character C1 may be increased steplessly.
  • the user can intuitively grasp the position of the capsule endoscope 10 in the subject 2.
  • the size of the posture model or organ model is made constant and the size of the character C1 is changed.
  • the size of the character C1 is made constant and the size of the posture model or organ model is changed. May be changed.
  • the capsule endoscope 10 when the capsule endoscope 10 is positioned in the vicinity of the liquid bottom PA of the liquid W, the size of the body posture model or the organ model is maximized, and the posture of the capsule endoscope 10 becomes closer to the liquid surface PC. Reduce the size of the model or organ model.
  • FIG. 25 and FIG. 26 are schematic diagrams showing a display example of the body position information in Modification 3-6.
  • the display format of the body position information in the body position information display area m6 is changed in accordance with the on / off of the guidance function.
  • the body position information display area m6 is in the capsule type.
  • the display format may be changed depending on whether or not the capsule endoscope 10 is present inside the guiding region R (see FIG. 1).
  • the control unit 150 determines whether or not the capsule endoscope 10 exists inside the guidance region R based on the position information generated by the position calculation unit 132.
  • the guidance function when the guidance function is off, only the posture model is displayed in the posture information display area m6 regardless of the position of the capsule endoscope 10.
  • the whole body model for example, the body model P3
  • the organ model for example, organ model ST3
  • the character C1 are superimposed and displayed on the body position model.
  • the user can grasp the relative positional relationship between the entire subject 2 and the capsule endoscope 10.
  • the posture model P3 and the organs are centered around the character C1.
  • the model ST3 and the character C1 are enlarged and displayed. Accordingly, the user recognizes that the capsule endoscope 10 can be guided, and accurately grasps the relative positional relationship and imaging direction between the organ and the character C1, thereby enabling the capsule endoscope.
  • the guidance operation of the mirror 10 can be performed.
  • a posture model for example, a posture model P3 is displayed in the posture information display region m6.
  • the character C1 is superimposed and displayed.
  • the user can grasp the relative positional relationship between the entire subject 2 and the capsule endoscope 10.
  • the guidance device is on and the capsule endoscope 10 is located inside the guidance region R
  • the character C1 is superimposed on the organ model (for example, the organ model ST3) as shown in FIG. And enlarged display. Accordingly, the user recognizes that the capsule endoscope 10 can be guided, and accurately grasps the relative positional relationship and imaging direction between the organ and the character C1, thereby enabling the capsule endoscope.
  • the guidance operation of the mirror 10 can be performed.
  • one set of a plurality of organ models corresponding to the posture of the subject 2 is prepared.
  • a plurality of sets of organ models having different sizes and shapes may be prepared.
  • a plurality of sets of organ models corresponding to patient characteristics such as sex, age, and physique are stored in advance in the organ model storage unit 146.
  • the display control unit 154 selects a set of organ models from a plurality of sets of organ models based on the patient information, and selects a subject from the selected organ models. An organ model corresponding to the position of 2 is extracted.
  • the user may select a desired set from a plurality of sets of organ models stored in advance in the organ model storage unit 146. Furthermore, the user may be able to make fine adjustments such as enlarging or reducing each organ model included in the set selected by the user.
  • the relative size of the organ model to be superimposed is changed with respect to the posture model and the character of the capsule endoscope 10, so that the user can select the capsule endoscope 10, the subject 2, and It becomes easy to estimate the relative positional relationship with the organ.
  • the organ model extracted by the model extraction unit 153 is displayed in the body position information display area m6 in a predetermined orientation.
  • the progress of the capsule endoscope 10 is performed.
  • the organ model may be rotated and displayed according to the direction.
  • FIG. 27 is a block diagram illustrating a configuration of a control device provided in the capsule endoscope system according to the fourth embodiment of the present invention.
  • FIG. 28 is a schematic diagram for explaining a method of displaying body posture information in the fourth embodiment.
  • control unit 180 instead of the control unit 150 with respect to the control device 20 shown in FIG.
  • the configuration of each unit of the control device 30 other than the control unit 180 is the same as that of the third embodiment.
  • the configuration of each part of the capsule endoscope system other than the control device 20 is the same as that of the first embodiment (see FIG. 1).
  • the control unit 180 further includes a distance information acquisition unit 181 that acquires the distance between the capsule endoscope 10 and the organ with respect to the control unit 150 shown in FIG.
  • the distance information acquisition unit 181 acquires control information for controlling the light emission operation of the illuminating unit 114 included in the capsule endoscope 10, and uses the control information to detect an actual organ in the subject 2 and the imaging unit 102. , 103 are acquired on the imaging optical axis. That is, the fact that there is a proportional relationship between the distance to the organ and the length of the illumination light emission time is used, and the light emission time information of the illumination unit 114 is used as the control information.
  • the distance between the capsule endoscope 10 and the organ may be calculated based on the focusing information of the imaging units 102 and 103.
  • various known means can be applied to the method for acquiring the distance between the capsule endoscope 10 and the organ wall.
  • an ultrasonic or infrared transmission / reception unit is provided in the capsule endoscope 10, and ultrasonic / infrared transmission / reception timing data by the transmission / reception unit is wirelessly transmitted together with image data.
  • the distance information acquisition unit 181 may calculate the distance between the capsule endoscope 10 and the organ wall.
  • the operation of the capsule endoscope system according to the fourth embodiment is the same as that of the third embodiment as a whole.
  • the character of the capsule endoscope 10 is displayed in the body position information display area m6 (see FIG. 9). Further, the relative display position of the character and the organ model is adjusted according to the distance between the capsule endoscope 10 and the organ wall.
  • the display coordinates of the character superimposed on the organ model are calculated based on the guidance operation information input from the operation input device 16 or the position information calculated by the position calculation unit 132.
  • the relative positional relationship between the character and the organ model may deviate from the actual relative positional relationship between the capsule endoscope 10 and the organ due to the guidance error or the position detection error. In the fourth embodiment, such a relative positional shift can be corrected.
  • the display control unit 154 When the distance d1 between the character C1 and the organ model ST3 corresponding to the distance d0 acquired by the distance information acquisition unit 181 is short, the display control unit 154 The organ model ST3 is shifted leftward in the figure to widen the interval between them. Alternatively, the character C1 may be shifted to the right in the figure. Thereby, as shown in FIG. 28B, the distance d1 'between the character C1 and the organ model ST3 is set to the same distance in correspondence with the distance d0 acquired by the distance information acquisition unit 181.
  • the relative display position of the character of the capsule endoscope 10 and the organ model based on the measured value of the distance between the capsule endoscope 10 and the organ. Therefore, the user can more accurately grasp the relative positional relationship between the capsule endoscope 10 and the organ.
  • FIG. 29 is a schematic diagram illustrating a method for displaying body posture information in the fourth modification.
  • the relative display positions of the character of the capsule endoscope 10 and the organ model may be adjusted based on the difference between the operation amount with respect to the operation input device 16 and the displacement amount of the capsule endoscope 10.
  • the capsule endoscope 10 is moved to the left in the figure using the operation input device 16.
  • the guidance operation to move to is performed.
  • the display control unit 154 shifts the organ model ST3 in the right direction in the drawing until it hits the character C1.
  • the character C1 may be shifted leftward in the drawing until it hits the organ model ST3. Accordingly, the relative positional relationship between the character C1 and the organ model ST3 can be matched with the actual relative positional relationship between the capsule endoscope 10 and the organ.
  • FIG. 30 is a block diagram illustrating a configuration example of a control device included in the capsule endoscope system according to the fifth embodiment.
  • the capsule endoscope system according to the fifth embodiment includes a control device 40 shown in FIG. 30 instead of the control device 17 shown in FIG.
  • a monocular capsule endoscope 10A in which one imaging unit 103 is omitted is used for the capsule endoscope 10 shown in FIG. I will do it.
  • the configuration and operation of each part of the capsule endoscope system other than the capsule endoscope 10A and the control device 40 are the same as those in the first embodiment.
  • the control device 40 includes an input / output unit 120, a calculation unit 410, a storage unit 420, and a control unit 430.
  • the configuration and operation of the input / output unit 120 are the same as those in the first embodiment (see FIG. 6).
  • the calculation unit 410 includes an image processing unit 131 and a position calculation unit 132.
  • the configurations and operations of the image processing unit 131 and the position calculation unit 132 are the same as those in the first embodiment.
  • the storage unit 420 includes an organ model storage unit 421 and a development view storage unit 422 instead of the posture model storage unit 145 and the organ model storage unit 146 shown in FIG.
  • the organ model storage unit 421 stores three-dimensional data of an organ model (hereinafter referred to as an organ model) to be imaged by the capsule endoscope.
  • an organ model since the imaging target of the capsule endoscope is the stomach, the organ model storage unit 421 stores the stomach model as the organ model.
  • the stomach model stored in the organ model storage unit 421 is not limited to one type, and a plurality of stomach models having different shapes according to the age and sex of the subject 2 may be stored, and in addition to a normal stomach model Alternatively, a stomach model having a specific shape such as a stomach-like stomach or an hourglass stomach may be stored. Alternatively, a stomach model may be created from a stomach image acquired by X-ray examination, CT examination, MRI or the like performed on the subject 2 and stored in the organ model storage unit 421.
  • the development view storage unit 422 stores two-dimensional image data of a development view in which the organ model stored in the organ model storage unit 421 is developed.
  • the development view storage unit 422 may store development views corresponding to the respective organ models.
  • a development view directly formed from a stomach image acquired by X-ray examination, CT examination, MRI or the like performed on the subject 2 may be stored in the development drawing storage unit 422.
  • the control unit 430 includes a guidance magnetic field control unit 151, an organ model acquisition unit 431 that acquires an organ model stored in the organ model storage unit 421, and an organ image acquired by the imaging unit 102 of the capsule endoscope.
  • An imaging region determination unit 432 that determines a region (hereinafter referred to as an imaging region), a development view acquisition unit 433 that acquires a development view of an organ model acquired by the organ model acquisition unit 431, and a display operation in the display device 18 are controlled.
  • Display control unit 434 the operation of the guidance magnetic field control unit 151 is the same as that of the first embodiment.
  • the organ model acquisition unit 431 acquires the organ model stored in the organ model storage unit 421 and sets the orientation of the organ model to a direction corresponding to the body position of the subject 2. More specifically, the organ model acquisition unit 431 associates the coordinates of each point constituting the wall of the organ model with the coordinates of the spatial region including the subject 2 based on the three-dimensional data of the organ model.
  • the subject 2 takes a predetermined posture in accordance with an instruction of a user such as a doctor.
  • the direction of the organ (for example, stomach) of the subject 2 changes according to the posture of the subject 2.
  • the orientation is as shown in d).
  • 8A to 8D show a state in which the stomach ST of the subject 2 is projected on the horizontal plane (the placement surface of the bed 3).
  • the organ model acquisition unit 431 corresponds to the patient information (eg, age, sex, etc.) of the subject 2 stored in the patient information storage unit 142. Select and acquire the organ model to be used.
  • the imaging region determination unit 432 includes the positional relationship between the position of the capsule endoscope 10A calculated by the position calculation unit 132 and the organ model acquired by the organ model acquisition unit 431, and the capsule type endoscope calculated by the position calculation unit 132. An imaging region is determined based on the posture of the mirror 10A.
  • the development view acquisition unit 433 acquires the development view stored in the development view storage unit 422, and also shows the development view corresponding to the region in the subject 2 (inside the organ) that the capsule endoscope 10A is currently imaging. Set the upper area.
  • the coordinates of each point on the development view are associated in advance with the three-dimensional coordinates of the points constituting the wall of the organ model.
  • the development view acquisition unit 433 acquires a development view corresponding to the organ model acquired by the organ model acquisition unit 431.
  • the display control unit 434 displays in-vivo images based on the image data subjected to image processing by the image processing unit 131, patient information, and related information such as the current imaging region during the examination by the capsule endoscope 10A.
  • the data is displayed on the display device 18 in a predetermined format in real time.
  • FIG. 32 is a schematic diagram illustrating an example of a screen displayed on the display device 18 under the control of the display control unit 434.
  • the screen M5 is similar to the screen M1 shown in FIG. 9, and is a patient information display area m1 on which patient information such as patient ID, patient name, patient gender, date of birth, and age is displayed.
  • An in-vivo image display area m2 that is an area in which an in-vivo image captured by the imaging unit 102 is displayed, a captured image display area m4 in which an in-vivo image captured by a pressing operation on the capture button 16e is displayed, It includes an operation information display area m5 where operation information for the endoscope 10A is displayed, and a body position button display area m7 used when inputting the body position of the subject 2, and further an imaging area in the subject 2 is displayed.
  • An imaging area display area m20 is provided.
  • the compound-eye capsule endoscope 10 provided with the imaging units 102 and 103 may be used.
  • the in-vivo image is displayed on the screen M5.
  • a display area m3 is further provided, and two captured images are displayed in the captured image display area m4 in response to a single pressing operation on the capture button 16e (see FIG. 9).
  • a posture information display area m6 (see FIG. 9) may be provided on the screen M5.
  • a dedicated input button that allows the user to select the body position of the subject 2 may be provided in the operation input device 16.
  • the imaging area display area m20 is an imaging area in the subject 2 by the capsule endoscope 10A, that is, an area where a part of the in-vivo image being displayed in the in-vivo image display area m2 is displayed.
  • an imaging region is displayed on a developed view of an organ (for example, stomach) to be imaged by the capsule endoscope 10A.
  • the user operates the operation input device 16 while referring to such a screen M5 to cause the capsule endoscope 10A to image a desired region in the subject 2.
  • the operation of the capsule endoscope system 1 shown in FIG. 1 will be described with reference to FIG.
  • a user such as a doctor introduces the liquid W (see FIG. 3) into the subject 2 and lies on the bed 3 in a predetermined posture.
  • the user inputs the posture of the subject 2 to the control device 40 by selecting one of the icons m11 to m14 (see FIG. 32) displayed in the posture button display area m7 using the operation input device 16. To do.
  • the capsule endoscope 10A is turned on and introduced into the subject 2.
  • the organ model acquisition unit 431 acquires an organ model from the organ model storage unit 421, and sets the orientation of the organ model to a direction corresponding to the body position of the subject 2. Specifically, the organ model acquisition unit 431 determines the current posture of the subject 2 based on the posture selection signal input to the control unit 430 when any of the icons m11 to m14 is selected. Then, the coordinates of each point constituting the wall of the organ model are associated with the coordinates of the three-dimensional space according to the body position of the subject 2.
  • the development view acquisition unit 433 acquires a development view of the organ model from the development view storage unit 422.
  • step S212 the capsule endoscope 10A wirelessly transmits image data acquired by imaging the inside of the subject 2.
  • the receiving device 15 receives the image data wirelessly transmitted from the capsule endoscope 10A.
  • step S213 the image processing unit 131 of the control device 40 generates an in-vivo image by performing predetermined image processing on the image data captured from the receiving device 15.
  • the display image data representing the in-vivo image is sequentially stored in the image data storage unit 143.
  • step S214 the position calculation unit 132 calculates the position and orientation of the capsule endoscope 10A. More specifically, the position detection device 11 detects an alternating magnetic field generated by the magnetic field generation unit 107 of the capsule endoscope 10A, and the signal processing device 13 performs predetermined signal processing on the detection signal of the alternating magnetic field. Thus, a digital position detection signal (position detection data) is generated. The position calculation unit 132 takes in the position detection data, calculates the position and orientation of the capsule endoscope 10A at that time, and stores the position information in the position information storage unit 144 as position information.
  • position detection data position detection data
  • the position calculation unit 132 takes in the position detection data, calculates the position and orientation of the capsule endoscope 10A at that time, and stores the position information in the position information storage unit 144 as position information.
  • the imaging region determination unit 432 determines the current imaging region by the capsule endoscope 10A. More specifically, as illustrated in FIG. 34, first, the imaging region determination unit 432 determines the position and imaging direction (imaging light) of the imaging unit 102 from the position and orientation of the capsule endoscope 10A calculated in step S214. Calculate the direction of the axis L). Subsequently, the imaging region determination unit 432 regards the organ model MD1 as an organ in the subject 2, and obtains the coordinates of the intersection point P between the imaging optical axis L of the imaging unit 102 and the wall of the organ model MD1. Then, the distance d1 from the imaging unit 102 to the intersection P in the direction along the imaging optical axis L is calculated, and the imaging region R0 is calculated based on the distance d1 and the viewing angle ⁇ of the imaging unit 102.
  • step S216 the development view acquisition unit 433 acquires a development view of the organ model and sets an imaging region in the development view. Specifically, an area R 0 ′ (see FIG. 35) on the developed view D dev corresponding to the imaging area R 0 determined for the organ model MD1 (see FIG. 34) is set as the imaging area.
  • the display control unit 434 causes the display device 18 to display a screen including the development view of the organ model and the imaging region.
  • the display device 18 displays the in-vivo image generated in step S213 under the control of the display control unit 434 in the in-vivo image display area m2 (see FIG. 32), and the development view D dev acquired in step S211. Is displayed in the imaging area display area m20 (same as above). Then, the in-vivo image being displayed in the in-vivo image display area m2, that is, the image of the current imaging area in the subject 2 is reduced in accordance with the size of the area R 0 ′ on the development view D dev , and the area R 0 'Overlapped and displayed.
  • step S218 the control unit 430 determines whether or not to end the examination with the capsule endoscope 10A. For example, the control unit 430 receives an operation input for ending the examination by the user, or input of image data from the receiving device 15 is stopped (that is, wireless transmission of image data from the capsule endoscope 10A is stopped). ), It is determined that the inspection is finished (step S218: Yes). In this case, the operation of the capsule endoscope system ends.
  • step S218 No
  • the operation of the capsule endoscope system returns to step S212.
  • the imaging region is determined based on the positional relationship between the capsule endoscope 10A and the organ model and the posture of the capsule endoscope 10A, and is shown on the development view of the organ. Since the in-vivo image is superimposed on the imaging region set to be displayed, the user can accurately and in real time grasp the current imaging region by the capsule endoscope 10A.
  • the development drawing acquisition unit 433 acquires the development drawing stored in advance in the development drawing storage unit 422.
  • the organ model acquired by the organ model acquisition unit 431 from the organ model storage unit 421 is used. You may create it directly from In this case, even if the organ model storage unit 421 stores a plurality of organ models having different shapes and sizes, it is not necessary to prepare a development view corresponding to each organ model in advance.
  • FIG. 36 is a block diagram illustrating a configuration example of a control device included in the capsule endoscope system according to the modification 5-2 of the fifth embodiment.
  • a control device 50 shown in FIG. 36 includes a control unit 510 instead of the control unit 430 with respect to the control device 40 shown in FIG.
  • the configuration of each part of the control device 50 other than the control unit 510 is the same as that of the fifth embodiment.
  • the configuration of each part of the capsule endoscope system other than the control device 50 is the same as that of the fifth embodiment (see FIGS. 1 and 31).
  • the control unit 510 includes a sectional view acquisition unit 511 instead of the development view acquisition unit 433 shown in FIG.
  • the cross-sectional view acquisition unit 511 creates a cross-sectional view obtained by cutting the organ model acquired by the organ model acquisition unit 431 along a specific surface, and sets an imaging region for the cross-sectional view.
  • the surface for cutting the organ model is not particularly limited.
  • the organ model is a stomach model
  • the sectional view created by the sectional view acquisition unit 511 is displayed in the imaging region display area m20 shown in FIG.
  • FIG. 37 is a schematic diagram showing an example of a cross-sectional view of an organ model cut along a plane perpendicular to the imaging direction of the capsule endoscope 10A. If the cut surface of the imaging direction perpendicular cross section D sec1, the imaging region R 1 that is set on the cross-sectional view D sec1, is reduced vivo images are displayed superimposed.
  • FIG. 38 is a schematic diagram illustrating an example of a cross-sectional view of an organ model cut along a plane parallel to the imaging direction of the capsule endoscope 10A. If the cut surface of the imaging direction parallel to cross section D sec2, the imaging region R 2 that is set on the cross-sectional view D sec2 is filled with a specific color, or is displayed denoted by the patterns of diagonal lines, etc.
  • the imaging direction of the capsule endoscope 10A may be indicated by an arrow or the like.
  • FIG. 39 is a block diagram illustrating a configuration example of a control device included in the capsule endoscope system according to the sixth embodiment.
  • a control device 60 illustrated in FIG. 39 includes a control unit 610 instead of the control unit 430 with respect to the control device 40 illustrated in FIG. 30.
  • the configuration of each unit of the control device 60 other than the control unit 610 is the same as that of the fifth embodiment.
  • the configuration of each part of the capsule endoscope system other than the control device 60 is the same as that of the fifth embodiment (see FIGS. 1 and 31).
  • the control unit 610 further includes a distance information acquisition unit 611 and a model shape update unit 612 with respect to the control unit 430 shown in FIG.
  • the distance information acquisition unit 611 acquires the actual distance between the organ and the imaging unit 102 in the subject 2. More specifically, the distance information acquisition unit 611 acquires control information for controlling the light emission operation of the illuminating unit 114 included in the capsule endoscope 10A, and uses the control information between the organ and the imaging unit 102. Calculate the distance. That is, the fact that there is a proportional relationship between the distance to the organ and the length of the illumination light emission time is used, and the light emission time information of the illumination unit 114 is used as the control information.
  • the model shape update unit 612 updates the shape parameter of the organ model based on the distance acquired by the distance information acquisition unit 611.
  • the shape of the organ model stored in the organ model storage unit 421 is determined in advance, but the actual shape of the organ in the subject 2 has individual differences. Therefore, in the sixth embodiment, the distance between the capsule endoscope 10A and the organ in the subject 2 is acquired, and the shape of the organ model is updated based on the acquired value.
  • steps S210 and S211 shown in FIG. 40 are the same as those in the fifth embodiment.
  • step S ⁇ b> 220 following step S ⁇ b> 211 the capsule endoscope 10 ⁇ / b> A wirelessly transmits control information for controlling the operation of the illuminating unit 114 together with image data acquired by imaging the inside of the subject 2.
  • the receiving device 15 receives image data and control information wirelessly transmitted from the capsule endoscope 10A.
  • steps S213 and S214 are the same as those in the fifth embodiment.
  • step S221 following step S214 the distance information acquisition unit 611 calculates the distance between the imaging unit 102 of the capsule endoscope 10A and the organ based on the control information acquired from the receiving device 15, that is, the light emission time information. get.
  • the model shape update unit 612 updates the shape parameter of the organ model based on the distance acquired in step S221. For example, as shown in FIG. 41A, it is assumed that the positional relationship between the imaging unit 102 and the organ model MD2 is determined based on the position and posture of the capsule endoscope 10A calculated in step S214. On the other hand, when the actual distance d2 between the imaging unit 102 and the organ wall acquired in step S221 is different from the distance from the imaging unit 102 to the wall of the organ model MD2, the model shape updating unit 612 As shown in FIG.
  • FIG. 41 (b) the position of the wall of the organ model MD2 in the imaging direction L is adjusted to the distance d2, and the shape parameter is updated so that the periphery of the wall position is continuous.
  • FIG. 41A shows a case where the distance d2 exceeds the wall of the organ model MD2.
  • FIG. 41B the position of the wall of the organ model MD2 in the imaging direction is shifted to the right in the figure. As a result, an updated organ model MD2 'is created.
  • step S223 the development view acquisition unit 433 reacquires a development view of the organ model based on the updated shape parameter. For example, in the case of FIG. 41B, a development view corresponding to the updated organ model MD2 ′ is created.
  • the subsequent steps S215 to S218 are the same as in the fifth embodiment.
  • the distance between the capsule endoscope 10A and the organ in the subject 2 is acquired, and the shape parameter of the organ model is updated based on the acquired value. For this reason, even when the shape of the organ model stored in advance in the organ model storage unit 421 is different from the shape of the organ of the subject 2, while the imaging by the capsule endoscope 10A is continued, The shape of the organ model gradually approaches the shape of the organ of the subject 2. Accordingly, by determining the imaging region for the updated organ model and displaying the imaging region on the development view of the updated organ model, the user can obtain the current imaging region by the capsule endoscope 10A. Can be grasped more accurately.
  • the method of acquiring the distance between the capsule endoscope 10A and the organ in the subject 2 is not limited to the method of calculating based on the light emission time of the illumination unit 114.
  • the distance may be calculated based on the focusing information of the imaging unit 102, or the distance may be calculated based on the light emission amount (intensity) of the illumination unit 114.
  • the capsule endoscope 10A may further be provided with distance measuring means using ultrasonic waves, infrared rays, or the like.
  • the distance measurement result by the distance measurement means is wirelessly transmitted together with the image data, and the control device 60 updates the shape parameter of the organ model based on the distance measurement result received via the reception device 15.
  • feature points such as cardia may be extracted from the acquired in-vivo image, and the shape parameter of the organ model may be updated based on the position information of the in-vivo image including these feature points.
  • a stomach organ model is created from a stomach image acquired in an X-ray examination, CT examination, MRI or the like performed on the subject 2, and an imaging area display area m20 ( A developed view or a cross-sectional view displayed in FIG. 32) may be created.
  • FIG. 42 is a block diagram illustrating a configuration example of a control device included in the capsule endoscope system according to the modification example 6-2.
  • the control device 70 illustrated in FIG. 42 includes a control unit 710 instead of the control unit 430 with respect to the control device 40 illustrated in FIG. 30.
  • the configuration of each unit of the control device 70 other than the control unit 710 is the same as that of the fifth embodiment.
  • the configuration of each part of the capsule endoscope system other than the control device 70 is the same as that of the fifth embodiment (see FIGS. 1 and 31).
  • the control unit 710 further includes a model shape update unit 711 with respect to the control unit 430 shown in FIG.
  • the model shape update unit 711 updates the shape parameter of the organ model based on the position and posture of the capsule endoscope 10A calculated by the position calculation unit 132 and the guidance instruction information input from the operation input device 16. To do.
  • steps S210 to S214 shown in FIG. 43 are the same as those in the fifth embodiment.
  • step S240 the model shape update unit 711 determines whether or not guidance instruction information is input from the operation input device 16 to the control device 70.
  • step S240: No the operation of the capsule endoscope system proceeds to step S215.
  • step S240 when the guidance instruction information is input (step S240: Yes), the guidance magnetic field control unit 151 outputs a control signal to the signal generator 14 based on the guidance instruction information, thereby enabling the capsule endoscope 10A.
  • the guidance control is performed for (Step S241).
  • step S242 the position calculation unit 132 calculates the position of the capsule endoscope 10A again based on the position detection signal output from the signal processing device 13.
  • step S243 the model shape update unit 711 determines whether the position of the capsule endoscope 10A calculated in step S242 has changed from the position of the capsule endoscope calculated in step S214. .
  • step S243: Yes the operation of the capsule endoscope system proceeds to step S215.
  • the model shape update unit 711 updates the shape parameter of the organ model (step S244).
  • the positional relationship between the capsule endoscope 10A and the organ model MD3 is determined based on the position and posture of the capsule endoscope 10A calculated in step S214.
  • the guidance magnetic field control unit 151 controls the capsule endoscope 10A to move by the distance d3 in the direction of the arrow in the drawing according to the guidance instruction information.
  • the position does not change, it is considered that the capsule endoscope 10A has already reached the organ wall in the subject 2. In such a case, as shown in FIG.
  • the model shape update unit 711 aligns the position of the wall of the organ model MD3 with the end of the capsule endoscope 10A, and the periphery of the position of the wall is Update the shape parameters to be continuous. As a result, an updated organ model MD3 'is created.
  • step S245 the development view acquisition unit 433 reacquires a development view of the organ model based on the updated shape parameter. Thereby, a development view corresponding to the updated organ model MD3 ′ is created.
  • the subsequent steps S215 to S218 are the same as in the fifth embodiment.
  • the shape of the organ model can be easily updated by comparing the guidance instruction information with the change in the position of the capsule endoscope 10A. Further, according to the modified example 6-2, it is not necessary to perform a calculation for calculating the distance between the capsule endoscope 10A and the organ or to provide the distance measuring means in the capsule endoscope 10A.
  • the configuration of the mold endoscope 10A and the control device 70 can be simplified.
  • Modification 6-2 even when the shape of the organ model stored in advance in the organ model storage unit 421 is different from the shape of the organ of the subject 2, the capsule endoscope While continuing the guidance operation of 10A, the shape of the organ model is updated so as to gradually approach the shape of the organ of the subject 2. Therefore, by determining the imaging region in the organ model updated in this way and displaying the imaging region on the development view of the updated organ model, the user can perform the current operation using the capsule endoscope 10A. It becomes possible to grasp the imaging area more accurately.
  • FIG. 45 is a block diagram illustrating a configuration example of a control device included in the capsule endoscope according to the seventh embodiment.
  • the control device 80 shown in FIG. 45 includes a storage unit 810 and a control unit 820 instead of the storage unit 420 and the control unit 430 with respect to the control device 40 shown in FIG.
  • the configuration of each unit of the control device 80 other than the storage unit 810 and the control unit 820 is the same as that of the fifth embodiment.
  • the configuration of the capsule endoscope system other than the control device 80 is the same as that of the fifth embodiment (see FIGS. 1 and 31).
  • the storage unit 810 further includes an imaging area history storage unit 811 with respect to the storage unit 420 shown in FIG.
  • the imaging region history storage unit 811 sequentially stores the position and imaging direction of the imaging unit 102 calculated when the imaging region determination unit 432 determines the imaging region as information regarding the imaging region.
  • the control unit 820 further includes an imaging region history acquisition unit 821 with respect to the control unit 430 shown in FIG.
  • the imaging region history acquisition unit 821 is an image (displayed image) already displayed on the display device 18 from the position and imaging direction of the imaging unit 102 and the three-dimensional data of the organ model stored in the imaging region history storage unit 811. An imaging region corresponding to is acquired.
  • steps S210 to S214 shown in FIG. 46 are the same as those in the fifth embodiment.
  • step S250 following step S214 the imaging region determination unit 432 determines the current imaging region by the capsule endoscope 10A.
  • the method for determining the imaging region is the same as that in step S215 (see FIG. 34). Further, the imaging region determination unit 432 stores the position and imaging direction of the imaging unit 102 calculated when determining the imaging region in the imaging region history storage unit 811 in association with the in-vivo image of the imaging region.
  • step S251 the imaging region history acquisition unit 821 reads the position and imaging direction of the imaging unit 102 at the past imaging time stored in the imaging region history storage unit 811, and the positions of the imaging unit 102 and the organ model. Based on the relationship and the imaging direction of the imaging unit 102, the imaging area at the past imaging time is determined.
  • the method for determining the imaging region is the same as that in step S215 (see FIG. 34).
  • the development view acquisition unit 433 acquires a development view of the organ model, and sets current and past imaging regions in the development view. For example, as illustrated in FIG. 47, the development view acquisition unit 433 determines the region on the development view D dev of the organ model corresponding to the imaging region determined in step S250 as the current imaging region R (n) (n is and sets a natural number), an area on the developed view D dev corresponding to the imaging area determined in step S251, the past imaging region R (1) ⁇ set as R (n-1).
  • the display control unit 434 causes the display device 18 to display a screen including the development view of the organ model and the imaging region. Specifically, the display device 18 displays a development view D dev (see FIG. 47) in the imaging region display area m20 (see FIG. 32) under the control of the display control unit 434. Then, the latest in-vivo image generated in step S213 is displayed superimposed on the imaging region R (n), and the in-vivo images acquired in the past are displayed in the imaging regions R (1) to R (n ⁇ 1), respectively. Superimposed display. At this time, the outline may be emphasized by attaching a predetermined image frame F to the latest imaging region R (n) so that it can be distinguished from the past imaging region. Note that the in-vivo images acquired in the past are read from the image data storage unit 143 based on the information related to the imaging region stored in the imaging region history storage unit 811.
  • the in-vivo image is superimposed only on the latest imaging region R (n), and the past imaging regions R (1) to R (n ⁇ 1) are, for example, filled with a single color or given a predetermined pattern.
  • the latest imaging area may be identified.
  • the subsequent step S218 is the same as in the fifth embodiment.
  • the capsule endoscope 10A displays the region imaged so far in the development view of the organ model in real time, the user is still observing in the organ. It is possible to easily determine whether or not there is a region that does not exist.
  • Modification 7-1 of Embodiment 7 will be described.
  • the seventh embodiment the case where the imaging region history storage unit 811 and the imaging region history acquisition unit 821 are applied to the control device 40 in the fifth embodiment has been described.
  • the control devices 50 to 70 described in the sixth embodiment and the modified example 6-2 may be provided.
  • a sectional view D sec-R on both sides of the organ model divided into two parts Both D sec-L should be displayed at the same time.
  • the cut plane of the organ model may be a fixed plane, or a plane parallel or perpendicular to the current imaging direction by the imaging unit 102 may be set as a cut plane and sequentially changed.
  • the imaging region (for example, the imaging region R (k)) on the cut surface of the organ model may be displayed by being painted with a specific color or with a hatched pattern or the like.
  • the imaging region history acquisition unit 821 When the imaging region history storage unit 811 and the imaging region history acquisition unit 821 are applied to the sixth embodiment or the modification 6-2, the imaging region history acquisition unit 821 performs imaging on the updated latest organ model. Determine the area. Thereby, it becomes possible to display the past imaging region more accurately.
  • the display color of the imaging region may be changed according to the observation frequency for the same imaging region. Specifically, the higher the observation frequency, the darker the color of the imaging region on the development map D dev (the luminance is low or the saturation is high), and the lower the observation frequency, the imaging region. Make the color of the lighter (higher brightness or lower saturation).
  • the display color of the imaging region may be changed according to the observation time for the same imaging region. Specifically, the color of the imaging region on the development view Ddev is darkened as the observation time is longer, and the color of the imaging region is lighter as the observation frequency is lower.
  • the developed image corresponding to these in-vivo images depending on the average color of the in-vivo images, the types of feature points such as cardia appearing in the in-vivo images, and whether or not an operation for capturing the in-vivo images has been performed.
  • the display color and pattern of the imaging area on D dev may be changed.
  • FIG. 49 is a schematic diagram showing a display example of the development view D dev of the organ model in Modification 7-3.
  • the development view D dev of the organ model is divided into 15 sections B, but the number of divisions is not limited to 15.
  • the difference in color is indicated by the difference in pattern.
  • Modification 7-4 of Embodiment 7 will be described.
  • the in-vivo images are displayed in the past imaging regions R (1) to R (n-1) on the development view D dev of the organ model, the surroundings of these imaging regions R (1) to R (n-1) are displayed. It may be displayed with a color or pattern.
  • the imaging area history acquisition unit 821 divides the development view D dev of the organ model into a plurality of sections B (see FIG. 49), and the past imaging area R (1) for each divided section B. Calculate the sum of the areas of ⁇ R (n-1). Then, for each section B, the ratio of the sum of the areas of the imaging regions R (1) to R (n ⁇ 1) to the area of the section B is calculated.
  • the display control unit 434 performs the imaging regions R (1) to R (n ⁇ 1) for the section B in which the ratio of the sum of the areas calculated by the imaging region history acquisition unit 821 is a predetermined value or more (for example, 80% or more). A region other than is displayed in a predetermined color or pattern. Alternatively, the colors and patterns in the regions other than the imaging regions R (1) to R (n ⁇ 1) may be changed according to the ratio of the sum of the areas.
  • the display state of the in-vivo image (the ratio of the displayed area) is determined for each section B obtained by dividing the development view D dev , and the imaging regions R (1) to R in colors and patterns according to the display state Since the background of (n-1) is displayed, the user can easily and intuitively grasp how much the area in the organ corresponding to each section B is covered.
  • the imaging region of the in-vivo image is determined based on the position and posture of the capsule endoscope 10A and the imaging distance with respect to the imaging target (stomach wall), and the development view of the organ model corresponding to this imaging region it was decided to display denoted by the in-vivo image or a specific color or pattern to a region on D dev. Accordingly, the shorter the imaging distance, the larger the area on the development view Ddev corresponding to the imaging area of each in-vivo image.
  • the size of the area on the development view D dev corresponding to the imaging area of the in-vivo image does not necessarily correspond to the imaging distance.
  • the imaging distance may be a constant the size of the area on the developed view D dev, as the imaging distance is short, may reduce the size of the area on the developed view D dev.
  • the locus of the area where the in-vivo image has already been displayed may be displayed by sequentially connecting the center points of the areas on the development view Ddev corresponding to the imaging area of the in-vivo image.
  • the development view D dev (see FIGS. 47 and 49) or sectional views D sec-R and D sec-L (see FIG. 48) of the organ model in the imaging region display area m20.
  • the organ model itself may be displayed three-dimensionally.
  • the display form (development view, cross-sectional view, or three-dimensional view) in the imaging region display region m20 may be switched according to the operation with respect to the operation input operation 16.
  • Embodiments 1 to 7 described above and modifications thereof are merely examples for carrying out the present invention, and the present invention is not limited to these. Further, the present invention can form various inventions by appropriately combining a plurality of constituent elements disclosed in the first to seventh embodiments and modifications. It is obvious from the above description that the present invention can be variously modified according to specifications and the like, and that various other embodiments are possible within the scope of the present invention.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Optics & Photonics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Signal Processing (AREA)
  • Physiology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Endoscopes (AREA)

Abstract

 カプセル型内視鏡が導入された被検体の体位を変化させた場合であっても、カプセル型内視鏡が撮像している位置や方向をユーザが容易に把握することができるカプセル型内視鏡システムを提供する。カプセル型内視鏡システムは、被検体内を撮像する撮像部を有するカプセル型内視鏡と、該カプセル型内視鏡を磁気誘導する誘導手段と、被検体の体位を判別する体位判別部152と、複数の体位モデルと該複数の体位モデルに対応する複数の臓器モデルとを記憶する記憶部140と、体位判別部152が判別した被検体の体位に応じた体位モデルと該体位モデルに対応する臓器モデルとを抽出するモデル抽出部153と、該モデル抽出部153が抽出した体位モデルと臓器モデルとの少なくとも1つを表示する表示手段とを備える。

Description

カプセル型内視鏡システム
 本発明は、カプセル型内視鏡を被検体内に導入して該被検体内を観察するカプセル型内視鏡システムに関する。
 内視鏡の分野においては、患者等の被検体の消化管内に導入可能な大きさに形成されたカプセル型内視鏡の開発が進められている(例えば特許文献1~3参照)。カプセル型内視鏡は、カプセル型筐体の内部に撮像機能及び無線通信機能を備えた装置であり、被検体の口から飲み込まれた後、蠕動運動等によって消化管内を移動しながら被検体の臓器内部を順次撮像して画像信号を取得し、被検体外部の受信装置に無線送信する。受信装置において受信された画像信号は画像表示装置に取り込まれ、所定の画像処理が施される。それにより、臓器内部の画像(以下、体内画像ともいう)が静止画又は動画として表示される。医師等のユーザは、このようにして画像表示装置に表示された体内画像を観察して、被検体の臓器の状態を診断する。
 近年では、被検体内に導入されたカプセル型内視鏡を磁力によって誘導(以下、磁気誘導という)する機能を備えたシステムが提案されている。例えば特許文献1には、カプセル型内視鏡の内部に永久磁石(以下、体内永久磁石ともいう)を設ける一方、磁界発生部を備える磁気誘導装置を被検体の外部に設置し、磁界発生部が形成した磁界を体内永久磁石に作用させることによりカプセル型内視鏡をユーザ所望の位置に誘導するカプセル誘導システムが開示されている。このようなシステムにおいて、ユーザは、画像表示装置に表示された体内画像を参照しつつ、磁気誘導装置に設けられた操作部を操作して磁界を変化させることにより、カプセル型内視鏡を所望の位置及び方向に磁気誘導することができる。
 また、被検体の胃に水等の液体を導入し、該液体にカプセル型内視鏡を浮かせた状態で胃の内部を撮像するカプセル型内視鏡も知られている。例えば特許文献2には、液体に浮いた状態で立つ(撮像方向が鉛直方向となる)ように構成され、液体面の上方や下方を撮像可能なカプセル型内視鏡が開示されている。
 また、被検体内に導入された内視鏡を操作する場合、カプセル型内視鏡が現在、被検体内のどの部位をどの方向から観察しているのかを把握することが重要となる。観察部位の把握に関連する技術として、例えば特許文献4には、胃の側面画像及び展開画像と共に内視鏡グラフィック及び観察位置マークを表示する技術が開示されている。特許文献5には、可撓性内視鏡の挿入部の挿入対象である臓器の形状を挿入部の屈曲状態と共に表示する技術が開示されている。特許文献6には、読影業務において、ユーザ(読影者)の視線及びGUIの操作記録を時系列に沿って記録し、これらの記録からユーザによる観察済みの領域を識別する技術が開示されている。特許文献7には、体内画像及び該体内画像の撮像時におけるカプセル型内視鏡の位置及び方向を記録し、これらの記録をもとにカプセル型内視鏡の周囲の擬似3次元表示を行う技術が開示されている。
特開2009-213613号公報 国際公開第2008/062594号 国際公開第2011/061968号 特開昭60-217326号公報 特開2003-225195号公報 特開2007-319327号公報 特開2004-321796号公報
 ところで、被検体に管状の挿入部を挿入して観察を行う一般的な内視鏡においては、挿入部の先端側に撮像部が設けられ、挿入部の基端側に操作部が接続される。このため、ユーザは、操作部に対する操作感覚をもとに、画面表示されている体内画像が被検体内のどの部位をどの方向から撮像したものであるかを直感的且つ容易に把握することができる。それに対してカプセル型内視鏡の場合、ユーザは、カプセル型内視鏡とは独立した操作部を操作して磁界発生部の位置や向きを変更し、それによって体内永久磁石に作用させる磁界を変化させることによりカプセル型内視鏡を誘導する。即ち、ユーザの操作部に対する操作感覚と、操作の結果としてのカプセル型内視鏡の位置や方向の変化とが直接的に結びついていない。このため、ユーザにとっては、画面に表示中の体内画像がカプセル型内視鏡によりどの位置からどの方向で撮像されたものであるかを把握することが困難であり、その結果、カプセル型内視鏡を所望の位置や方向に誘導操作することも困難となる。
 また、カプセル型内視鏡による検査を行う際、ユーザは、患者である被検体に対し、観察対象部位に応じた体位を取らせてカプセル型内視鏡を誘導操作する。患者が体位を変化させると、カプセル型内視鏡に対する臓器の位置や方向が変化するため、ユーザにとっては、カプセル型内視鏡が撮像している位置や方向を把握することがさらに難くなる。
 被検体の体位の変化に関して、上記特許文献3には、体内画像を撮像した際の被検体の姿勢情報を体内画像と共に表示する技術が開示されている。しかしながら、姿勢情報を参照したとしても、ユーザは該姿勢情報をもとに、そのときの臓器の相対的な方向や形状を推測した上でカプセル型内視鏡の位置及び方向を判断しなければならない。また、上記特許文献3には、被検体の姿勢情報に加えて、カプセル型内視鏡の傾きや方位角等の情報を表示することが開示されている。しかしながら、この場合、ユーザは、複数の断片的な情報を結びつけてカプセル型内視鏡の位置や方向を把握しなければならない。従って、被検体内におけるカプセル型内視鏡の位置及び方向を把握することはやはり困難である。
 また、特許文献4においては、内視鏡の挿入長、回転角、湾曲角、超音波の送受波時間から算出した対物距離、及び視野角に基づいて観察位置を算出するため、この技術を、モニタや種々の処理装置から独立して被検体内に導入されるカプセル型内視鏡にそのまま適用することはできない。また、特許文献5においては、内視鏡が実際に撮像している部位そのものは画面に表示されないため、ユーザは現在の観察部位を正確に把握することが困難である。さらに、特許文献6、7に開示された技術では、ユーザは、カプセル型内視鏡が撮像中の領域をリアルタイムに把握することはできない。
 本発明は、上記に鑑みてなされたものであって、カプセル型内視鏡が導入された被検体の体位を変化させた場合であっても、カプセル型内視鏡が撮像している位置や方向をユーザが容易に把握することができるカプセル型内視鏡システムを提供することを目的とする。
 また、本発明は、カプセル型内視鏡が撮像中の領域を、ユーザが正確且つリアルタイムに把握することができるカプセル型内視鏡システムを提供することを目的とする。
 上述した課題を解決し、目的を達成するために、本発明に係るカプセル型内視鏡システムは、被検体内に導入されるカプセル型内視鏡であって、前記被検体内を撮像する少なくとも1つの撮像部と、永久磁石とを有するカプセル型内視鏡と、外部からなされる操作に応じた信号を出力する操作入力手段と、前記操作入力手段から出力された信号に基づいて前記永久磁石に作用する磁界を発生することにより、前記カプセル型内視鏡を誘導する誘導手段と、前記被検体の体位を判別する体位判別手段と、検査の間に前記被検体が取り得る複数の体位にそれぞれ対応する複数の体位モデルと、前記検査における撮像対象である臓器を表す複数の臓器モデルであって、前記複数の体位モデルにそれぞれ対応する複数の臓器モデルとを記憶する記憶手段と、前記体位判別手段が判別した前記被検体の体位に応じた体位モデルを前記複数の体位モデルから抽出すると共に、抽出した体位モデルに対応する臓器モデルを前記複数の臓器モデルから抽出するモデル抽出手段と、前記モデル抽出手段が抽出した前記体位モデルと、前記モデル抽出手段が抽出した前記臓器モデルとの少なくとも1つを表示する表示手段と、を備えることを特徴とする。
 上記カプセル型内視鏡システムは、外部からなされる操作に応じた第2の信号を出力する第2の操作入力手段をさらに備え、前記体位判別手段は、前記第2の操作入力手段から出力された前記第2の信号に基づいて、前記被検体の体位を判別することを特徴とする。
 上記カプセル型内視鏡システムにおいて、前記表示手段は、前記誘導手段の動作が開始した際に、前記被検体の体位を入力させるダイアログを表示することを特徴とする。
 上記カプセル型内視鏡システムは、前記被検体にかかる加速度を検出する加速度検出手段をさらに備え、前記体位判別手段は、前記加速度の検出結果に基づいて前記被検体の体位を判別することを特徴とする。
 上記カプセル型内視鏡システムにおいて、前記表示手段は、前記体位モデル及び前記臓器モデルを同時に表示することを特徴とする。
 上記カプセル型内視鏡システムは、前記誘導手段の動作のオン/オフを切り替える制御手段をさらに備え、前記表示手段は、前記誘導手段の動作がオンの場合とオフの場合とで、前記体位モデル及び前記臓器モデルの表示形式を変化させることを特徴とする。
 上記カプセル型内視鏡システムにおいて、前記表示手段は、前記誘導手段の動作がオフの場合、前記体位モデルのみを表示し、前記誘導手段の動作がオンの場合、前記体位モデルに前記臓器モデルを重畳して表示する、ことを特徴とする。
 上記カプセル型内視鏡システムにおいて、前記表示手段は、前記誘導手段の動作がオンの場合、前記体位モデル及び前記臓器モデルを拡大して表示することを特徴とする。
 上記カプセル型内視鏡システムは、前記カプセル型内視鏡の位置及び姿勢を検出する検出手段をさらに備え、前記記憶手段は、前記カプセル型内視鏡の模式的な画像の画像データをさらに記憶し、前記表示手段は、前記体位モデルと前記臓器モデルとの少なくとも1つに、前記模式的な画像を重畳して表示する、ことを特徴とする。
 上記カプセル型内視鏡システムは、前記誘導手段の動作のオン/オフを切り替える誘導用磁界制御手段をさらに備え、前記表示手段は、前記誘導手段の動作がオンの場合において、前記誘導手段による誘導が可能となる領域である誘導領域の外部に前記カプセル型内視鏡が位置する場合、前記体位モデルに前記模式的な画像を重畳して表示し、前記誘導領域の内部に前記カプセル型内視鏡が位置する場合、前記臓器モデルに前記模式的な画像を重畳して表示する、ことを特徴とする。
 上記カプセル型内視鏡システムは、前記被検体内における前記カプセル型内視鏡の鉛直方向における位置に応じて、前記体位モデルと前記臓器モデルとのうちの少なくとも一方に対する前記模式的な画像の相対的なサイズを変更する表示制御手段をさらに備えることを特徴とする。
 上記カプセル型内視鏡システムは、前記カプセル型内視鏡と前記被検体内の臓器の壁面との距離を取得する距離取得手段と、前記距離に応じて前記臓器モデルと前記模式的な画像との相対的な表示位置を調整する表示制御手段と、をさらに備えることを特徴とする。
 上記カプセル型内視鏡システムは、前記操作入力手段に対する操作量と、前記検出手段により検出された前記カプセル型内視鏡の位置の変化量とに基づいて、前記臓器モデルと前記模式的な画像との相対的な表示位置を調整する表示制御手段をさらに備えることを特徴とする。
 上記カプセル型内視鏡システムにおいて、前記記憶手段は、各々が前記複数の体位モデルにそれぞれ対応する複数の臓器モデルを含む複数種類の臓器モデルセットを記憶し、前記表示手段は、前記複数種類の臓器モデルセットのうち、前記被検体の特性に応じて選択される1つの臓器モデルセットに含まれる臓器モデルを表示する、ことを特徴とする。
 また、本発明に係るカプセル型内視鏡システムは、被検体内に導入されるカプセル型内視鏡であって、前記被検体内を撮像して画像情報を取得する少なくとも1つの撮像手段を有するカプセル型内視鏡と、前記画像情報に基づいて表示用の画像情報を生成する画像処理手段と、前記表示用の画像情報に基づいて画像を表示する表示手段と、前記カプセル型内視鏡の撮像対象の臓器のモデルを記憶する記憶手段と、前記カプセル型内視鏡の位置及び姿勢を検出する位置検出手段と、前記カプセル型内視鏡と前記モデルとの位置関係及び前記カプセル型内視鏡の姿勢に基づいて、前記撮像手段により撮像された前記臓器内の領域である撮像領域を決定する撮像領域決定手段と、前記モデルの展開図又は断面図を取得すると共に、該展開図又は該断面図における前記撮像領域に対応する領域を設定する展開図又は断面図取得手段と、を備え、前記表示手段は、前記展開図又は前記断面図を表示すると共に、前記撮像領域に対応する該展開図又は該断面図上の領域に前記撮像領域の画像を重畳して表示することを特徴とする。
 上記カプセル型内視鏡システムにおいて、前記撮像領域決定手段は、前記カプセル型内視鏡と前記モデルとの位置関係及び前記カプセル型内視鏡の姿勢に基づいて、前記撮像手段の撮像光軸に沿った方向における前記撮像手段と前記臓器との間の距離を算出し、該距離と前記撮像手段の視野角とに基づいて前記撮像領域を決定することを特徴とする。
 上記カプセル型内視鏡システムは、前記被検体内における前記撮像手段と前記臓器との間の距離を表す距離情報を取得する距離情報取得手段と、前記距離情報に基づいて前記モデルの形状を更新するモデル形状更新手段と、をさらに備え、前記撮像領域決定手段は、形状の更新後の前記モデルに対して前記撮像領域を決定し、前記展開図又は断面図取得手段は、形状の更新後の前記モデルに対応する前記展開図又は前記断面図を取得し、該展開図又は該断面図に対して前記撮像領域に対応する領域を設定することを特徴とする。
 上記カプセル型内視鏡システムにおいて、前記カプセル型内視鏡は、永久磁石をさらに有し、前記カプセル型内視鏡に作用する磁界を発生する磁界発生手段と、前記カプセル型内視鏡に作用する磁界を変化させて前記カプセル型内視鏡を誘導するための誘導指示情報を入力する操作入力手段と、前記操作入力手段から前記誘導指示情報を入力したにもかかわらず、前記位置検出手段により検出された前記カプセル型内視鏡の位置に変化がない場合に、前記カプセル型内視鏡の位置を前記モデルの壁の位置とするように前記モデルの形状を更新するモデル形状更新手段と、をさらに備え、前記撮像領域決定手段は、形状の更新後の前記モデルに対して前記撮像領域を決定し、前記展開図又は断面図取得手段は、形状の更新後の前記モデルに対応する前記展開図又は前記断面図を取得し、該展開図又は該断面図に対して前記撮像領域に対応する領域を設定することを特徴とする。
 上記カプセル型内視鏡システムは、前記表示手段に表示された画像である表示済み画像の前記撮像領域に関する情報を記憶する撮像領域履歴記憶手段と、前記撮像領域に関する情報に基づいて、前記モデルにおける前記表示済み画像の前記撮像領域を決定する撮像領域履歴取得手段と、をさらに備え、前記展開図又は断面図取得手段は、さらに、前記展開図又は前記断面図における前記表示済み画像の前記撮像領域に対応する領域を設定し、前記表示手段は、さらに、前記展開図又は前記断面図上に前記表示済み画像の前記撮像領域に対応する領域を表示することを特徴とする。
 上記カプセル型内視鏡システムは、前記表示済み画像を表す画像情報を記憶する記憶手段をさらに備え、前記表示手段は、前記表示済み画像の前記撮像領域に対応する前記展開図又は前記断面図上の領域に、前記表示済み画像を重畳して表示することを特徴とする。
 上記カプセル型内視鏡システムにおいて、前記表示手段は、前記撮像領域決定手段により決定された前記撮像領域に対応する前記展開図又は前記断面図上の領域の輪郭を強調して表示することを特徴とする。
 上記カプセル型内視鏡システムにおいて、前記表示手段は、前記表示済み画像の前記撮像領域に対応する前記展開図又は前記断面図上の領域に所定の色又はパターンを附して表示することを特徴とする。
 上記カプセル型内視鏡システムにおいて、前記表示手段は、前記展開図又は前記断面図上の領域を複数の区画に分割し、前記表示済み画像の前記撮像領域に対応する前記展開図又は前記断面図上の領域に対し、分割された前記区画ごとに異なる色又はパターンを附して表示することを特徴とする。
 上記カプセル型内視鏡システムにおいて、前記撮像領域履歴取得手段は、前記展開図又は前記断面図上の領域を複数の区画に分割した各区画に対し、前記表示済み画像の前記撮像領域に対応する前記展開図又は前記断面図上の領域の面積の和を算出すると共に、当該区画の面積に対する前記和の割合を算出し、前記表示手段は、前記各区画における前記表示済み画像の前記撮像領域に対応する領域以外の部分に、当該区画の前記和の割合に応じた色又はパターンを附して表示することを特徴とする。
 本発明によれば、被検体の体位を判別し、該被検体の体位に応じた体位モデルと、該体位モデルに対応する臓器モデルとの少なくとも1つを表示するので、検査中に被検体の体位を変化させた場合であっても、ユーザは、カプセル型内視鏡が撮像している位置や方向を容易に把握することが可能となる。
 また、本発明によれば、撮像対象の臓器のモデルの展開図又は断面図上に撮像領域を設定し、該撮像領域にカプセル型内視鏡により取得された画像を重畳して表示するので、ユーザは、カプセル型内視鏡が撮像中の領域を正確且つリアルタイムに把握することが可能となる。
図1は、本発明の実施の形態1に係るカプセル型内視鏡システムの構成例を示す図である。 図2は、図1に示すカプセル型内視鏡の内部構造の一例を示す模式図である。 図3は、被検体の臓器内に液体及びカプセル型内視鏡を導入した状態を示す模式図である。 図4は、図1に示す操作入力装置の構成例を示す模式図である。 図5は、図4に示す操作入力装置の各構成部位に対する操作に応じたカプセル型内視鏡の動きを示す模式図である。 図6は、図1に示す制御装置の構成例を示すブロック図である。 図7は、図6に示す体位モデル記憶部に記憶されている体位モデルの例を示す模式図である。 図8は、図6に示す臓器モデル記憶部に記憶されている臓器モデルの例を示す模式図である。 図9は、表示装置に表示される画面の一例を示す模式図である。 図10は、図1に示すカプセル型内視鏡システムの動作を示すフローチャートである。 図11は、体位入力ダイアログの一例を示す模式図である。 図12は、体位入力ダイアログの別の例を示す模式図である。 図13は、体位モデル及び臓器モデルが表示された画面の例を示す模式図である。 図14は、本発明の実施の形態2に係るカプセル型内視鏡システムの動作を示すフローチャートである。 図15は、実施の形態2における体位情報の表示例を示す模式図である。 図16は、変形例2-1における体位情報の表示例を示す模式図である。 図17は、変形例2-1における体位情報の別の表示例を示す模式図である。 図18は、本発明の実施の形態3に係るカプセル型内視鏡システムが備える制御装置の構成を示すブロック図である。 図19は、実施の形態3における体位情報の表示例を示す模式図である。 図20は、変形例3-2における体位情報の表示例を示す模式図である。 図21は、変形例3-3における体位情報の表示例を示す模式図である。 図22は、変形例3-4における体位情報の表示例を示す模式図である。 図23は、カプセル型内視鏡の観察対象の臓器(胃)の断面を示す模式図である。 図24は、変形例3-5における体位情報の表示例を示す模式図である。 図25は、変形例3-6における体位情報の表示例を示す模式図である。 図26は、変形例3-6における体位情報の別の表示例を示す模式図である。 図27は、本発明の実施の形態4に係るカプセル型内視鏡システムが備える制御装置の構成を示すブロック図である。 図28は、実施の形態4における体位情報の表示方法を説明する模式図である。 図29は、変形例4における体位情報の表示方法を説明する模式図である。 図30は、本発明の実施の形態5における制御装置の構成例を示すブロック図である。 図31は、本発明の実施の形態5において用いられるカプセル型内視鏡の内部構造の一例を示す模式図である。 図32は、表示装置に表示される画面の一例を示す模式図である。 図33は、図1に示すカプセル型内視鏡システムの動作を示すフローチャートである。 図34は、撮像領域の決定方法を説明する模式図である。 図35は、臓器モデルの展開図上に撮像領域を設定した例を示す模式図である。 図36は、本発明の実施の形態5の変形例5-2に係るカプセル型内視鏡システムが備える制御装置の構成例を示すブロック図である。 図37は、臓器モデルを撮像方向と垂直な面で切断した切断面上に撮像領域を重畳した例を示す模式図である。 図38は、臓器モデルを撮像方向と平行な面で切断した切断面上に撮像領域を重畳した例を示す模式図である。 図39は、本発明の実施の形態6に係るカプセル型内視鏡システムが備える制御装置の構成例を示すブロック図である。 図40は、本発明の実施の形態6に係るカプセル型内視鏡システムの動作を示すフローチャートである。 図41は、本発明の実施の形態6における臓器モデルの形状パラメータを更新する方法を説明する模式図である。 図42は、本発明の実施の形態6の変形例6-2に係るカプセル型内視鏡システムが備える制御装置の構成例を示すブロック図である。 図43は、本発明の実施の形態6の変形例6-2に係るカプセル型内視鏡システムの動作を示すフローチャートである。 図44は、本発明の実施の形態6の変形例6-2における臓器モデルの形状パラメータを更新する方法を説明する模式図である。 図45は、本発明の実施の形態7に係るカプセル型内視鏡システムが備える制御装置の構成例を示すブロック図である。 図46は、本発明の実施の形態7に係るカプセル型内視鏡システムの動作を示すフローチャートである。 図47は、臓器モデルの展開図上に現在及び過去の撮像領域を重畳した例を示す模式図である。 図48は、臓器モデルの断面図上に現在及び過去の撮像領域を重畳した例を示す模式図である。 図49は、本発明の実施の形態7の変形例7-3における臓器モデルの展開図の表示例を示す模式図である。
 以下に、本発明の実施の形態に係るカプセル型内視鏡システムについて、図面を参照しながら説明する。なお、以下の説明においては、被検体内に経口にて導入され、被検体の胃に蓄えた液体中を漂いつつ撮像を行うカプセル型内視鏡を例示するが、この実施の形態によって本発明が限定されるものではない。即ち、本発明は、例えば被検体の食道から肛門にかけて蠕動運動により移動しつつ消化管内を撮像するカプセル型内視鏡や、肛門から等張液とともに導入されるカプセル型内視鏡など、種々のカプセル型内視鏡を用いることが可能である。また、以下の説明において、各図は本発明の内容を理解でき得る程度に形状、大きさ、及び位置関係を概略的に示してあるに過ぎない。従って、本発明は各図で例示された形状、大きさ、及び位置関係のみに限定されるものではない。なお、図面の記載において、同一部分には同一の符号を付している。
(実施の形態1)
 図1は、本発明の実施の形態1に係るカプセル型内視鏡システムの構成例を示す図である。図1に示すように、実施の形態1に係るカプセル型内視鏡システム1は、被検体2の消化管内に導入され、被検体2内を撮像することにより取得した画像信号を無線送信するカプセル型内視鏡10と、被検体2が載置されるベッド3の下方に設けられた位置検出装置11及び磁界発生装置12と、位置検出装置11から出力された信号を処理する信号処理装置13と、磁界発生装置12を動作させるための信号を発生する信号発生装置14と、カプセル型内視鏡10から無線送信された画像信号を受信する受信装置15と、カプセル型内視鏡10を誘導操作するための操作入力装置16と、受信装置15が受信した画像信号に基づき、被検体2内の画像(以下、体内画像という)を表示するための処理を行う制御装置17と、体内画像やその他の情報を表示する表示装置18とを備える。
 ベッド3は、上面(被検体2の載置面)が水平面(重力方向の直交面)と平行になるように配置されている。以下において、ベッド3の長手方向をX方向、ベッド3の短手方向をY方向、鉛直方向(重力方向)をZ方向とする。
 図2は、カプセル型内視鏡10の内部構造の一例を示す模式図である。図2に示すように、カプセル型内視鏡10は、被検体2の臓器内部に導入し易い大きさに形成された外装であるカプセル型筐体101と、被写体を撮像して画像信号を生成する撮像部102、103と、撮像部102、103により生成された画像信号を外部に無線送信する無線通信部104と、カプセル型内視鏡10の各構成部を制御する制御部105と、カプセル型内視鏡10の各構成部に電力を供給する電源部106と、カプセル型内視鏡10の位置検出用の交番磁界を発生する磁界発生部107と、磁界発生装置12による磁気誘導を可能にするための永久磁石108とを備える。
 カプセル型筐体101は、被検体2の臓器内部に導入可能な大きさに形成された外装ケースであり、筒状筐体111及びドーム形状筐体112、113からなり、筒状筐体111の両側開口端をドーム形状筐体112、113によって塞ぐことによって実現される。ドーム形状筐体112、113は、可視光等の所定波長帯域の光に対して透明なドーム形状の光学部材である。また、筒状筐体111は、可視光に対して略不透明な有色の筐体である。これらの筒状筐体111及びドーム形状筐体112、113によって形成されるカプセル型筐体101は、図2に示すように、撮像部102、103、無線通信部104、制御部105、電源部106、磁界発生部107、及び永久磁石108を液密に内包する。
 撮像部102、103の各々は、LED等の照明部114と、集光レンズ等の光学系115と、CMOSイメージセンサ又はCCD等の撮像素子116とを有する。照明部114は、撮像素子116の撮像視野に白色光等の照明光を発光して、ドーム形状筐体112、113越しに撮像視野内の被写体を照明する。光学系115は、この撮像視野からの反射光を撮像素子116の撮像面に集光して被写体像を結像する。撮像素子116は、撮像面に集光された撮像視野からの反射光を受光し、受光した光信号を光電変換することにより、撮像視野の被写体像、即ち被検体2の体内画像を表す画像信号を生成する。
 図2に示すように、カプセル型内視鏡10が長軸Laの前方及び後方を撮像する複眼タイプのカプセル型内視鏡である場合、これらの撮像部102、103は、各光軸がカプセル型筐体101の長手方向の中心軸である長軸Laと略平行又は略一致し、且つ各撮像視野が互いに反対方向を向くように配置される。即ち、撮像素子116の撮像面が長軸Laに対して直交するように、撮像部102、103が実装される。
 無線通信部104は、撮像部102、103が生成した画像信号を、図示しないアンテナを介して外部に順次無線送信する。具体的には、無線通信部104は、撮像部102、103が生成した画像信号を制御部105から取得し、該画像信号に変調等の信号処理を施して無線信号を生成する。無線通信部104は、この無線信号を、被検体2外に設けられた受信装置15に送信する。
 制御部105は、撮像部102、103及び無線通信部104の各動作を制御すると共に、これらの各構成部間における信号の入出力を制御する。具体的には、制御部105は、撮像素子116が画像信号を生成する都度、この画像信号を取得して所定の信号処理を施し、さらに、この画像信号を時系列に沿って外部に順次無線送信するように無線通信部104を制御する。
 電源部106は、ボタン型電池又はキャパシタ等の蓄電部であって、磁気スイッチや光スイッチ等のスイッチ部を有する。電源部106は、外部から印加された磁界によって電源のオンオフ状態を切り替え、オン状態の場合に、蓄電部の電力をカプセル型内視鏡10の各構成部(撮像部102、103、無線通信部104、制御部105、及び磁界発生部107)に適宜供給する。また、電源部106は、オフ状態の場合に、カプセル型内視鏡10の各構成部への電力供給を停止する。
 磁界発生部107は、共振回路の一部をなし、電流が流れることにより磁界を発生する送信コイルと、該送信コイルと共に共振回路を形成するコンデンサとを含み、電源部106からの電力供給を受けて所定の周波数の交番磁界を発生する。
 永久磁石108は、磁化方向が長軸Laに対して傾きを持つように、カプセル型筐体101の内部に固定配置される。本実施の形態1において、永久磁石108は、磁化方向が長軸Laに対して直交するように配置されている。永久磁石108は、外部から印加された磁界に追従して動作し、この結果、後述する磁界発生装置12によるカプセル型内視鏡10の磁気誘導が実現する。
 図3は、被検体2の臓器(胃ST)内に液体W及びカプセル型内視鏡10を導入した状態を示す模式図である。なお、図3は、カプセル型内視鏡10の位置及び姿勢を制御するための磁界がカプセル型内視鏡10内の永久磁石108に作用していない状態を示している。
 実施の形態1において例示するカプセル型内視鏡10は、液体W内で浮くように設計されている。また、カプセル型内視鏡10の重心Gは、カプセル型内視鏡10の幾何学的中心Cからカプセル型内視鏡10の長軸Laに沿ってずれた位置となるように設定されている。この重心Gは、電源部106及び永久磁石108等の各構成部の配置を調整することにより、長軸La上の位置であってカプセル型筐体101の幾何学的中心Cから撮像部103側に外れた位置に設定される。これにより、カプセル型内視鏡10は、自身の長軸Laが鉛直方向(即ち、重力方向)と略平行になった状態で、液体W中を漂う。言い換えると、カプセル型内視鏡10は、幾何学的中心Cと重心Gとを結ぶ直線が直立した状態で液体W中を漂う。カプセル型内視鏡10は、このような直立姿勢において、鉛直上方に一方の撮像部102の撮像視野を向けるとともに鉛直下方に他方の撮像部103の撮像視野を向ける。なお、液体Wは、水又は生理食塩水等の人体に無害な液体である。
 なお、カプセル型内視鏡10に対し、撮像部102、103のいずれか一方のみを設けることとしても良い。この場合、重心Gの位置を調整することにより、カプセル型内視鏡10を液体Wに浮かせた際の撮像方向を、鉛直上方又は下方に設定することができる。
 このように浮遊するカプセル型内視鏡10に対し、外部から永久磁石108に磁界を作用させることにより、カプセル型内視鏡10の位置、長軸Laの鉛直方向に対する傾き、及び重心Gを通る鉛直軸に対する長軸Laの回転(旋回)を制御することができる。
 再び図1を参照すると、位置検出装置11は、平面状をなすパネル上に配置され、各々がカプセル型内視鏡10の磁界発生部107から発生した交番磁界を受信して検出信号を出力する複数のセンスコイル11aを備える。各センスコイル11aは、例えば、コイルバネ状の筒型コイルからなる。このような位置検出装置11は、検査中の被検体2の近傍に配置される。実施の形態1においては、位置検出装置11をベッド3の下方に配置している。
 信号処理装置13は、位置検出装置11の各センスコイル11aから出力された検出信号を取り込み、フィルタ処理により該検出信号の波形を整えた上で、増幅及びA/D変換処理を施して、カプセル型内視鏡10の位置検出信号として制御装置17に出力する。本実施の形態1においては、これらの位置検出装置11、信号処理装置13、及び後述する位置算出部132が、カプセル型内視鏡10の位置及び姿勢を検出する検出手段を構成する。
 なお、カプセル型内視鏡システム1に適用可能な位置検出方法は、上述した交番磁界を検出する方法に限定されず、公知の種々の方法を適用することができる。例えば、複数のアンテナ15aの各々が受信した画像信号の受信強度分布に基づいて、被検体2内におけるカプセル型内視鏡10を推定しても良い。この場合、カプセル型内視鏡10に磁界発生部107を設ける必要がなくなる。
 磁界発生装置12は、被検体2内に導入されたカプセル型内視鏡10の位置及び姿勢の少なくとも一方を制御するための磁界を発生する。具体的には、磁界発生装置12は、複数の電磁石を備え、信号発生装置14が発生する信号に従って各電磁石から発生させた磁界の合成磁界により、カプセル型内視鏡10の永久磁石108をトラップする。このとき、各電磁石から発生させる磁界を調節し、合成磁界を変化させることにより、カプセル型内視鏡10をユーザ所望の位置及び姿勢に誘導することができる。
 信号発生装置14は、制御装置17(後述する誘導用磁界制御部151)の制御の下で、磁界発生装置12が備える各電磁石を駆動させる駆動信号を発生する。本実施の形態1においては、これらの磁界発生装置12及び信号発生装置14が、被検体2内においてカプセル型内視鏡10を誘導する誘導手段を構成する。また、以下において、磁界発生装置12が発生する磁界によりカプセル型内視鏡10の誘導が可能となる領域を、誘導領域Rという。
 なお、カプセル型内視鏡システム1に適用可能な誘導手段の構成は、上述した磁界発生装置12及び信号発生装置14からなる構成に限定されず、公知の種々の構成を適用することができる。例えば、磁界発生装置12の代わりに、永久磁石(以下、体外永久磁石)並びに該体外永久磁石を移動及び回転させる駆動手段を設けても良い。この場合、体外永久磁石が発生する磁界によりカプセル型内視鏡10の永久磁石108をトラップしつつ、体外永久磁石を移動及び回転させることにより、カプセル型内視鏡10の位置及び姿勢を制御することができる。
 受信装置15は、被検体2内に導入されたカプセル型内視鏡10から送信された無線信号を受信する複数のアンテナ15aを備える。これらのアンテナ15aは、パッドに収められ、被検体2の体表の所定位置に貼り付けられている。或いは、複数のアンテナ15aが取り付けられたジャケット(アンテナジャケット)を被検体2に装着させても良い。受信装置15は、各アンテナ15aが受信したカプセル型内視鏡10からの無線信号を順次取り込み、最も受信電界強度が高いアンテナから取り込んだ信号に対して復調処理等の所定の信号処理を行うことにより、被検体2内に関するデジタルの画像信号(画像データ)を取得し、制御装置17に出力する。
 操作入力装置16は、医師等のユーザが各種入力操作を行う際に用いられる入力デバイスであり、例えばキーボードやマウス、タッチパネル、ジョイスティック、各種ボタン及び各種スイッチを備えた操作卓等によって構成される。操作入力装置16は、ユーザによる入力操作等、外部からなされた操作に応じた信号を制御装置17に出力する。
 図4は、一例として、被検体2に導入されたカプセル型内視鏡10を磁気誘導するための操作入力装置16を、2つのジョイスティック16a、16bによって構成した例を示す模式図である。これらのジョイスティック16a、16bは、外部からなされた操作に応じた信号を、カプセル型内視鏡10を磁気で誘導するための誘導指示情報や、カプセル型内視鏡10に所定の観察モードを設定するための設定情報として、制御装置17に出力する。ここで、誘導指示情報は、カプセル型内視鏡10の位置を変化させる動作に関する情報、カプセル型内視鏡10の傾斜角(鉛直軸に対する角度)を変化させる動作に関する情報、及びカプセル型内視鏡10の視野(図2に示す撮像部102、103)の方位角(鉛直軸周りの角度)を変化させる動作に関する情報等が含まれる。また、観察モードは、被検体2内に導入された液体W(図2参照)にカプセル型内視鏡10を浮遊させた状態で被検体2内を観察する浮遊モードや、液体Wの底部近傍にカプセル型内視鏡10を沈めた状態で被検体2内を観察する水中モード等を含む。
 図4(a)は、ジョイスティック16a、16bの正面図であり、図4(b)は、ジョイスティック16aの右側面図である。また、図5は、ジョイスティック16a、16bの各構成部位に対する操作に応じたカプセル型内視鏡10の動きを示す模式図である。図4(a)に示すように、ジョイスティック16a、16bは、上下方向及び左右方向に傾動操作が可能な構成を有する。
 図4(b)に示すように、ジョイスティック16aの背面には、アップボタン16c及びダウンボタン16dが設けられている。アップボタン16cは、押圧されることによってカプセル型内視鏡10の上方誘導を指示する誘導指示情報を制御装置17に出力する。それにより、図5に示す鉛直軸Azに沿って矢印Y15のように上に進むアップ動作が指示される。一方、ダウンボタン16dは、押圧されることによってカプセル型内視鏡10の下方誘導を指示する誘導指示情報を制御装置17に出力する。それにより、図5に示す鉛直軸Azに沿って矢印Y16のように下に進むダウン動作が指示される。
 ジョイスティック16aの上部には、キャプチャボタン16eが設けられている。キャプチャボタン16eは、押圧されることによって、表示装置18に表示されている体内画像をキャプチャする。また、ジョイスティック16bの上部には、アプローチボタン16fが設けられている。アプローチボタン16fは、押圧されることによって、撮像部102又は103の撮像対象に対してカプセル型内視鏡10の撮像部102又は103側を近接させるようにカプセル型内視鏡10を誘導させる誘導指示情報を制御装置17に出力する。
 図4(a)に示すように、ジョイスティック16aの矢印Y11jに示す上下方向の傾動方向は、図5の矢印Y11のようにカプセル型内視鏡10の先端が鉛直軸Azを通るように首を振るティルティング誘導方向に対応する。ジョイスティック16aの矢印Y12jに示す左右方向の傾動方向は、図5の矢印Y12のようにカプセル型内視鏡10が鉛直軸Azを中心として回転するローテーション誘導方向に対応する。
 ジョイスティック16bの矢印Y13jに示す上下方向の傾動方向は、図5の矢印Y13のようにカプセル型内視鏡10の長軸Laを水平面Hpに投影した方向に進むホリゾンタルバックワード誘導方向又はホリゾンタルフォワード誘導方向に対応する。ジョイスティック16bの矢印Y14jに示す左右方向の傾動方向は、図5の矢印Y14のようにカプセル型内視鏡10が水平面Hpを、長軸Laを水平面Hpに投影した方向と垂直に進むホリゾンタルライト誘導方向又はホリゾンタルレフト誘導方向に対応する。
 制御装置17は、受信装置15から出力された画像データを取り込んで所定の画像処理を施すことにより体内画像を生成すると共に、信号処理装置13から出力された位置検出を取り込んで被検体2内におけるカプセル型内視鏡10の位置及び姿勢を検出し、体内画像及びカプセル型内視鏡10の位置及び姿勢を所定の形式で表示装置18に表示させる。また、制御装置17は、操作入力装置16から入力される信号に従って信号発生装置14に制御信号を出力することにより、カプセル型内視鏡10を誘導するための磁界を磁界発生装置12から発生させる。このような制御装置17は、ワークステーションやパーソナルコンピュータ等によって構成される。
 図6は、制御装置17の構成例を示すブロック図である。図6に示すように、制御装置17は、入出力部120と、演算部130と、記憶部140と、制御部150とを備える。
 入出力部120は、外部機器との間で情報の入出力を行う外部インタフェースであり、信号処理装置13、受信装置15、操作入力装置16等の外部機器から出力された各種データや指示信号を受け取って演算部130又は制御部150に出力すると共に、演算部130又は制御部150から出力された各種データや制御信号を信号発生装置14や表示装置18等の外部機器に出力する。
 演算部130は、CPU等のハードウェアによって実現され、後述するプログラム記憶部141に記憶された各種プログラムを読み込むことにより、制御装置17に入力される各種データに対して所定の演算処理を施す。より詳細には、演算部130は、画像処理部131と、位置算出部132と、軌跡算出部133とを備える。
 画像処理部131は、受信装置15から取り込んだ画像データに対して、ホワイトバランス処理、デモザイキング、色変換、濃度変換(ガンマ変換等)、平滑化(ノイズ除去等)、鮮鋭化(エッジ強調等)等の画像処理を施すことにより、表示用の画像データを生成する。
 位置算出部132は、信号処理装置13から取り込んだ位置検出信号に基づいて、被検体2内におけるカプセル型内視鏡10の位置及び姿勢を算出し、カプセル型内視鏡10の位置及び姿勢を表す位置情報を生成する。
 軌跡算出部133は、位置算出部132が生成した位置情報に基づいて、被検体2内におけるカプセル型内視鏡10の軌跡を算出する。
 記憶部140は、フラッシュメモリ、RAM、ROM等の半導体メモリや、HDD、MO、CD-R、DVD-R等の記録媒体及び書込読取装置等によって実現される。記憶部140は、制御装置17を動作させて種々の機能を実行させるためのプログラム及び各種情報を記憶するプログラム記憶部141と、患者である被検体2に関する情報を記憶する患者情報記憶部142と、画像処理部131が生成した表示用の画像データを記憶する画像データ記憶部143と、位置算出部132が生成した位置情報を記憶する位置情報記憶部144と、体位モデル記憶部145と、臓器モデル記憶部146とを備える。
 体位モデル記憶部145は、カプセル型内視鏡10による検査の際に、医師等のユーザの指示に従って被検体2が取る体位を模式的に表した複数の体位モデルの画像データを記憶する。図7は、体位モデルの例を示す模式図である。図7(a)に示す体位モデルP1は、背臥位の被検体2を水平面に投影したモデルである。図7(b)に示す体位モデルP2は、腹臥位の被検体2を水平面に投影したモデルである。図7(c)に示す体位モデルP3は、左側臥位の被検体2を水平面に投影したモデルである。図7(d)に示す体位モデルP4は、右側臥位の被検体2を水平面に投影したモデルである。
 臓器モデル記憶部146は、カプセル型内視鏡10による検査対象の臓器を模式的に表した複数の臓器モデルの画像データを記憶する。なお、本実施の形態1においては、一例として、カプセル型内視鏡10による検査対象の臓器を胃としている。図8は、臓器モデルの例を示す模式図である。図8(a)に示す臓器モデルST1は、背臥位のときの胃を水平面に投影したモデルである。図8(b)に示す臓器モデルST2は、腹臥位のときの胃を水平面に投影したモデルである。図8(c)の示す臓器モデルST3は、左側臥位のときの胃を水平面に投影したモデルである。図8(d)に示す臓器モデルST4は、右側臥位のときの胃を水平面に投影したモデルである。これらの臓器モデルST1~ST4の画像データは、体位ごとに、体位モデル記憶部145に記憶されている体位モデルの画像データと関連付けて記憶されている。
 制御部150は、CPU等のハードウェアによって実現され、プログラム記憶部141に記憶された各種プログラムを読み込むことにより、制御装置17に入力される各種信号に従って、制御装置17を構成する各部への指示やデータの転送等を行い、制御装置17全体の動作を統括的に制御する。
 より詳細には、制御部150は、操作入力装置16から入力された誘導指示情報に基づいて信号発生装置14を制御する誘導用磁界制御部151と、被検体2の体位を判別する体位判別部152と、体位モデル記憶部145に記憶された複数の体位モデル及び臓器モデル記憶部146に記憶された複数の臓器モデルの内から、体位判別部152が判別した体位に応じた体位モデル及び臓器モデルをそれぞれ抽出するモデル抽出部153と、表示装置18における表示動作を制御する表示制御部154とを備える。
 誘導用磁界制御部151は、操作入力装置16から入力された誘導指示情報に基づき、操作入力装置16に対する操作に応じたカプセル型内視鏡10の誘導方向及び誘導量を算出し、該誘導方向及び誘導量に対応する制御信号を信号発生装置14に出力して、磁界発生装置12を駆動するための信号を発生させる。操作入力装置16が例えば図4に示すジョイスティック16a、16bからなる場合、次のような制御が行われる。
 操作入力装置16から制御装置17に、ジョイスティック16aの矢印Y11j(図4参照)の傾動操作に対応する誘導指示情報が入力された場合、誘導用磁界制御部151はこの誘導指示情報をもとに、ジョイスティック16aの傾動方向に応じてカプセル型内視鏡10先端の絶対座標系上における誘導方向を算出すると共に、ジョイスティック16aの傾動操作に応じた誘導量を算出し、該誘導方向及び誘導量に対応する制御信号を出力する。
 操作入力装置16から制御装置17に、ジョイスティック16aの矢印Y12j(図4参照)の傾動操作に対応する誘導指示情報が入力された場合、誘導用磁界制御部151はこの誘導指示情報をもとに、ジョイスティック16aの傾動方向に応じて、カプセル型内視鏡10先端の絶対座標系上における誘導方向を算出すると共に、ジョイスティック16aの傾動操作に応じた誘導量を算出し、該誘導方向及び誘導量に対応する制御信号を出力する。
 操作入力装置16から制御装置17に、ジョイスティック16bの矢印Y13j(図4参照)の傾動操作に対応する誘導指示情報が入力された場合、誘導用磁界制御部151はこの誘導指示情報をもとに、ジョイスティック16bの傾動方向に応じて、カプセル型内視鏡10先端の絶対座標系上における誘導方向及び誘導量を算出し、該誘導方向及び誘導量に対応する制御信号を出力する。
 操作入力装置16から制御装置17に、ジョイスティック16bの矢印Y14j(図4参照)の傾動操作に対応する誘導指示情報が入力された場合、誘導用磁界制御部151はこの誘導指示情報をもとに、ジョイスティック16bの傾動方向に応じて、カプセル型内視鏡10先端の絶対座標系上における誘導方向及び誘導量を算出し、該誘導方向及び誘導量に対応する制御信号を出力する。
 操作入力装置16から制御装置17に、アップボタン16c又はダウンボタン16dの矢印Y15j、Y16j(図4参照)の押圧操作に対応する誘導指示情報が入力された場合、誘導用磁界制御部151はこの誘導指示情報をもとに、押圧されたボタンに応じて、カプセル型内視鏡10先端の絶対座標系上における誘導方向及び誘導量を算出し、該誘導方向及び誘導量に対応する制御信号を出力する。
 体位判別部152は、操作入力装置16から入力された信号に基づいて、被検体2の体位を判別する。また、体位判別部152は、判別した体位を表す情報を記憶部140に送信し、画像処理部131により生成された画像データと関連付けて記憶させる。
 モデル抽出部153は、体位判別部152による判別結果に応じた体位モデルを、体位モデル記憶部145に記憶された複数の体位モデルの内から抽出すると共に、抽出した体位モデルと関連付けられた臓器モデルを、臓器モデル記憶部146に記憶された複数の臓器モデルの内から抽出する。
 表示制御部154は、カプセル型内視鏡10による検査の実施中、画像処理部131により生成された表示用の画像データに基づく体内画像や、患者情報、位置情報、被検体2の体位を表す情報等の関連情報を、表示装置18に所定の形式でリアルタイムに表示させる。また、表示制御部154は、検査によって得られた体内画像を医師等のユーザが診断する際、画像データ記憶部143に記憶された画像データに基づく体内画像及び関連情報を表示装置18に所定の形式で表示させる。なお、この場合、検査の実施中に用いられる表示装置18よりもさらに高精細な表示装置を用いても良い。
 表示装置18は、液晶ディスプレイや有機EL(Electro Luminescence)ディスプレイ等を用いて構成される。
 図9は、表示制御部154の制御の下で表示装置18に表示される画面の一例を示す模式図である。図9に示すように、画面M1は、患者ID、患者氏名、患者の性別、生年月日、年齢等の患者情報が表示される患者情報表示領域m1と、撮像部102、103により取得された体内画像がそれぞれ表示される領域である2つの体内画像表示領域m2、m3と、キャプチャボタン16eに対する押圧操作によってキャプチャされた体内画像が表示されるキャプチャ画像表示領域m4と、カプセル型内視鏡10に対する操作情報が表示される操作情報表示領域m5と、被検体2の体位情報が表示される体位情報表示領域m6と、被検体2の体位をユーザに入力させるための体位ボタン表示領域m7と、カプセル型内視鏡10に対する誘導機能のオン/オフの切り替え指示をユーザに入力させるための誘導オン/オフボタンm8とを含む。
 操作情報表示領域m5は、カプセル型内視鏡10の鉛直面における姿勢を示す姿勢図m9と、水平面における姿勢を示す姿勢図m10とが表示される領域である。各姿勢図m9、m10には、カプセル型内視鏡10を誘導可能な複数の方向が矢印で示されている。カプセル型内視鏡10をいずれかの方向に誘導する操作入力があった場合、これらの矢印のうち、入力された方向に対応する矢印の表示色が変更される。これにより、ユーザによる誘導操作が補助される。
 各姿勢図m9、m10に表示されるカプセル型内視鏡10の姿勢は、操作入力装置16から入力された誘導指示情報に対応する姿勢を表している。ここで、操作入力装置16から入力された誘導指示情報は、カプセル型内視鏡10を誘導する磁界を発生する磁界発生装置12及び信号発生装置14を制御する制御信号に反映されるため、姿勢図m9、m10に表示されるカプセル型内視鏡10の姿勢は、被検体2内における実際のカプセル型内視鏡10の姿勢とほぼ同じものと考えることができる。
 体位情報表示領域m6は、被検体2の体位及びそのときの臓器の状態を示す情報である体位情報が表示される領域である。具体的には、モデル抽出部153によって抽出された体位モデル及び臓器モデルが体位情報表示領域m6に表示される。
 体位ボタン表示領域m7には、体位モデルP1~P4(図7参照)に対応するアイコンm11~m14と、OKボタンm15とが表示されている。画面M1に対する操作入力装置16(例えばタッチパネルやマウス)を用いた所定のポインタ操作(例えばクリック)によりアイコンm11~m14のいずれかが選択され、選択後さらにOKボタンm15が押下されることにより、選択されたアイコンに対応する体位を表す体位選択信号が制御部150に入力される。
 なお、画面M1に体位ボタン表示領域m7を設ける代わりに、被検体2の体位をユーザに選択させるための専用の入力ボタンを操作入力装置16に設けても良い。
 誘導オン/オフボタンm8は、カプセル型内視鏡10の誘導を開始(再開)又は終了(中断)する指示をユーザが入力する際に用いられる。画面M1に対する操作入力装置16(例えばタッチパネルやマウス)を用いた所定のポインタ操作により、誘導オン/オフボタンm8が1回押されるごとに、誘導機能のオンとオフとを切り替える誘導オン/オフ切り替え信号が制御部150に入力される。誘導オン/オフ切り替え信号により誘導機能がオンになっている間、操作入力装置16を用いたカプセル型内視鏡10の磁気誘導が可能となる。
 なお、画面M1に誘導オン/オフボタンm8に設ける代わりに、カプセル型内視鏡10の誘導機能のオン/オフをユーザに切り替えさせるための専用のスイッチやボタンを操作入力装置16に設けても良い。
 ユーザは、このような画面M1を参照しながら操作入力装置16を操作することにより、被検体2内の所望の領域をカプセル型内視鏡10に撮像させる。なお、図2に示すように、カプセル型内視鏡10が2つの撮像部102、103を備える場合、ユーザが誘導操作の対象としている撮像部を特定するための表示を画面M1に追加しても良い。例えば、ユーザが撮像部102を誘導操作の対象としている場合、撮像部102により撮像された体内画像が表示される体内画像表示領域m2を枠で囲む、或いは、「誘導操作中」といったテキストを体内画像表示領域m2の近傍に表示すると良い。
 次に、図1に示すカプセル型内視鏡システム1の動作を、図10を参照しながら説明する。まず、ユーザは、カプセル型内視鏡10による検査に先立って、被検体2に液体W(図3参照)を導入しておく。
 ステップS110において、カプセル型内視鏡10の電源をオンにすると、カプセル型内視鏡10は撮像を開始し、画像信号の無線送信を開始する。また、受信装置15は、カプセル型内視鏡10から無線送信された画像信号の受信を開始する。これに応じて、制御装置17の画像処理部131は、受信装置15から出力されたデジタルの画像信号(画像データ)を取り込んで所定の画像処理を施すことにより、体内画像を表す表示用の画像データを生成する。表示用の画像データは、画像データ記憶部143に順次記憶される。医師等のユーザは、この状態でカプセル型内視鏡10を被検体2に嚥下させる。
 ステップS111において、カプセル型内視鏡システム1は、カプセル型内視鏡10の位置検出を開始する。より詳細には、カプセル型内視鏡10の磁界発生部107が発生した交番磁界を位置検出装置11が検出して検出信号を出力し、信号処理装置13が該検出信号を取り込んで所定の信号処理を施すことによりデジタルの位置検出信号(位置検出データ)を生成する。制御装置17の位置算出部132は、該位置検出データに基づいてカプセル型内視鏡10の位置及び姿勢を算出し、位置情報として位置情報記憶部144に順次記憶させる。
 ステップS112において、制御装置17の表示制御部154は、画像処理部131により順次生成される表示用の画像データを用いて、例えば図9に示す画面M1の形式での体内画像の表示を表示装置18に開始させる。
 ステップS113において、制御部150は、カプセル型内視鏡10の誘導を開始(又は再開)させる指示として、例えば画面M1の誘導オン/オフボタンm8に対するポインタ操作に応じた誘導オン/オフ切り替え信号が入力されたか否かを判断する。制御部150は、カプセル型内視鏡10の誘導を開始(又は再開)させる指示が入力されない場合(ステップS113:No)は、誘導の開始(又は再開)が指示されるまで待機する。
 カプセル型内視鏡10の誘導を開始(又は再開)させる指示が入力された場合(ステップS113:Yes)、制御部150は、カプセル型内視鏡10の磁気誘導を開始させる(ステップS114)。即ち、誘導用磁界制御部151は、入力された誘導指示情報に基づく制御信号を生成して信号発生装置14に出力する。これに応じて、信号発生装置14は、磁界発生装置12を駆動して磁界を発生させる。それにより、操作入力装置16に対する操作に応じたカプセル型内視鏡10の磁気誘導が実現する。
 続くステップS115において、制御部150は、被検体2の体位が入力されたか否かを判断する。制御部150は、例えば画面M1に対するポインタ操作に応じて、アイコンm11~m14のいずれかに対応する体位選択信号が入力された場合、体位が入力されたと判断する(ステップS115:Yes)。
 カプセル型内視鏡10の誘導が開始した後、所定時間が経過しても体位が入力されない場合(ステップS115:No)、表示制御部154は、ユーザに体位の入力を促すための体位入力ダイアログを表示装置18に表示させる(ステップS116)。
 図11は、体位入力ダイアログの一例を示す模式図である。図11に示す体位入力ダイアログM2は、例えば「体位を選択してOKボタンを押してください」といったテキストメッセージと、体位モデルP1~P4に対応するアイコンm11~m14と、OKボタンm15とを含む。この体位入力ダイアログM2に対するポインタ操作により、アイコンm11~m14のいずれかが選択され、OKボタンm15が押下されることにより、選択されたアイコンに対応する体位を表す体位選択信号が制御部150に入力される。
 図12は、体位入力ダイアログの別の例を示す模式図である。図12に示す体位入力ダイアログM3は、例えば「体位を選択してOKボタンを押してください」といったテキストメッセージと、「背臥位」、「腹臥位」、「左側臥位」、「右側臥位」といった体位を表すテキストと、各体位のテキストの近傍に表示されたラジオボタンm16と、OKボタンm17とを含む。この体位入力ダイアログM3に対するポインタ操作により、いずれかのラジオボタンm16が選択され、OKボタンm17が押下されることにより、選択されたラジオボタンm16に対応する体位を表す体位選択信号が制御部150に入力される。図12は、背臥位が選択された状態を示している。
 なお、操作入力装置16に体位をユーザに選択させる専用の入力ボタンが設けられている場合、体位入力ダイアログに、例えば「体位を入力してください。」といったテキストメッセージを表示するだけでも良い。その後、カプセル型内視鏡システム1の動作はステップS115に戻る。
 被検体2の体位が入力された場合(ステップS115:Yes)、モデル抽出部153は、体位モデル記憶部145に記憶された複数の体位モデルの内から、入力された体位(体位選択信号)に応じた体位モデルを抽出すると共に、臓器モデル記憶部146に記憶された複数の臓器モデルの内から、抽出した体位モデルに対応する臓器モデルを抽出する(ステップS117)。
 続くステップS118において、表示制御部154は、モデル抽出部153が抽出した体位モデル及び臓器モデルを表示装置18に表示させる。図13は、体位モデル及び臓器モデルが表示された画面を示す模式図であり、画面M4の体位情報表示領域m6に、左側臥位の体位モデルP3及び臓器モデルST3を並べて表示した例を示している。ユーザは、このように表示された体位モデルP3及び臓器モデルST3を参照することにより、自らが操作入力装置16を用いて誘導操作しているカプセル型内視鏡10の撮像部102、103の視野と臓器との位置関係を容易に把握することができる。なお、体位モデルP3及び臓器モデルST3の配置は、ユーザが両者を同時に視認可能な配置であれば、図13に示す例に限定されない。具体的には、両者を重畳して表示しても良い。この場合、ユーザは、体位モデルと臓器モデルとの相対的な位置や向きの関係をより把握し易くなる。
 続くステップS119において、制御部150は、カプセル型内視鏡10の誘導を停止させる指示が入力されたか否かを判断する。ここで、ユーザは、被検体2の体位を変更する場合、カプセル型内視鏡10の誘導機能を一旦オフに停止させた上で、被検体2の体位を変更させ、その後、カプセル型内視鏡10の誘導機能をオンにする。
 制御部150は、例えば画面M1の誘導オン/オフボタンm8に対するポインタ操作に応じて、誘導オン/オフ切替信号が入力された場合、誘導を停止させる指示が入力されたと判断する(ステップS119:Yes)。一方、制御部150は、誘導オン/オフ切り替え信号が入力されない場合、誘導の停止は指示されていないと判断する(ステップS119:No)。この場合、制御部150は、誘導の停止が指示されるまで、操作入力装置16に対する操作に応じたカプセル型内視鏡10の誘導を継続する。
 カプセル型内視鏡10の誘導を停止させる指示が入力された場合(ステップS119:Yes)、続いて制御部150は、カプセル型内視鏡10による検査を終了するか否かを判断する(ステップS120)。制御部150は、例えば、ユーザにより検査終了の操作入力があった、或いは、受信装置15からの画像信号の出力が停止した(即ち、カプセル型内視鏡10からの画像信号の無線送信が停止した)といった場合、検査を終了すると判断する(ステップS120:Yes)。
 カプセル型内視鏡10による検査を終了しない場合(ステップS120:No)、カプセル型内視鏡システム1の動作はステップS113に戻る。
 一方、カプセル型内視鏡10による検査を終了する場合(ステップS120:Yes)、制御装置17は、信号処理装置13の動作を停止させ、カプセル型内視鏡10の位置検出を終了する(ステップS121)。
 続くステップS122において、制御装置17は、表示装置18における体内画像の表示を終了させる。その後、カプセル型内視鏡システム1の動作は終了する。
 以上説明したように、実施の形態1によれば、被検体2の体位を変化させた場合であっても、ユーザは、表示装置18に表示された体位モデル及び臓器モデルを参照することにより、操作入力装置16を介して操作しているカプセル型内視鏡10と被検体2及び臓器との位置関係や撮像方向を容易に把握することができる。特に、体位モデルP1~P4及び臓器モデルST1~ST4は、被検体2及び臓器を水平面に投影したモデルとなっているので、ユーザは、ベッド3の上方から鳥瞰した場合と同様の感覚で被検体2及び臓器の状態を把握することができる。従って、ユーザは、カプセル型内視鏡10の誘導操作を正確に行い、被検体2内の所望の領域をカプセル型内視鏡10に撮像させて観察を行うことが可能となる。
 また、実施の形態1によれば、カプセル型内視鏡10の誘導機能がオンになった際に、体位入力ダイアログを表示装置18に表示させるので、ユーザによる体位の入力忘れを防ぐことができる。従って、検査中には常に、実際の被検体2の体位を表す体位モデル及び対応する臓器モデルを表示装置18に表示することができる。また、被検体2の体位を表す正確な情報を画像データに関連付けることができるので、ユーザは、体内画像を診断する際、体位情報を参照することにより、当該体内画像が撮像された際のカプセル型内視鏡10と被検体2及び臓器との位置関係や撮像方向を正確に把握することができる。
(変形例1)
 次に、本発明の実施の形態1の変形例1について説明する。
 上記実施の形態1においては、被検体2の体位をユーザが入力することとしたが、被検体2の体位を自動判別しても良い。具体的な構成例として、被検体2に貼り付けるアンテナ15a用のパッドに3軸加速度センサを取り付け、該3軸加速度センサによって検出された加速度の方向、即ち重力方向に基づいて、体位判別部152が被検体2の体位を判別する。この変形例1の場合、図10のステップS115及びS116は省略され、ステップS117において、自動判別された体位に基づいて体位モデル及び臓器モデルが抽出される。
(実施の形態2)
 次に、本発明の実施の形態2について説明する。
 本実施の形態2に係るカプセル型内視鏡システムの構成は実施の形態1と同様であり(図1参照)、表示装置18に表示される体位情報の表示形式が実施の形態1とは異なる。より詳細には、本実施の形態2においては、カプセル型内視鏡10の磁気誘導を行っている間と行っていない間とで、体位情報の表示形式を変化させている。
 実施の形態2に係るカプセル型内視鏡システムの動作を、図14を参照しながら説明する。なお、図14に示すステップS110~S112は、実施の形態1と同様である(図10参照)。
 ステップS112に続くステップS131において、制御部150は、被検体2の体位が入力されたか否かを判断する。制御部150は、例えば画面M1に対するポインタ操作に応じて、アイコンm11~m14のいずれかに対応する体位選択信号が入力された場合、体位が入力されたと判断する(ステップS131:Yes)。
 被検体2の体位が入力された場合(ステップS131:Yes)、モデル抽出部153は、体位モデル記憶部145に記憶された複数の体位モデルの内から、入力された体位(体位選択信号)に従って体位モデルを抽出すると共に、臓器モデル記憶部146に記憶された複数の臓器モデルの内から、抽出した体位モデルに対応する臓器モデルを抽出する(ステップS132)。一方、被検体2の体位が入力されない場合(ステップS131:No)、制御装置17の動作はステップS133に移行する。
 ステップS133において、制御部150は、カプセル型内視鏡10の誘導機能のオン/オフを切り替える指示として、例えば図9に示す誘導オン/オフボタンm8に対するポインタ操作に応じた誘導オン/オフ切り替え信号が入力されたか否かを判断する。誘導機能のオン/オフを切り替える指示が入力されない場合(ステップS133:No)、制御装置17の動作はステップS138に移行する。
 誘導機能のオン/オフを切り替える指示が入力された場合(ステップS133:Yes)、誘導用磁界制御部151は、誘導機能のオン/オフを切り替える(ステップS134)。即ち、それまで誘導機能がオフだった場合、誘導用磁界制御部151は、操作入力装置16から出力された誘導指示情報の入力の受け付けを開始し、該誘導指示情報に基づく制御信号を生成して信号発生装置14に出力する。それにより、カプセル型内視鏡10の磁気誘導が開始する。一方、それまで誘導機能がオンだった場合、誘導用磁界制御部151は、操作入力装置16から出力される誘導指示情報の入力の受け付けを停止する。
 続くステップS135において、表示制御部154は、誘導機能がオン/オフのいずれの状態にあるかを判別する。
 誘導機能がオフ状態のとき(ステップS135:オフ)、表示制御部154は、被検体2の体位情報を、誘導オフモードの表示形式で表示装置18に表示させる(ステップS136)。
 図15(a)は、誘導オフモードにおける体位情報の表示例を示す模式図である。誘導オフモードの場合、表示制御部154は、モデル抽出部153が抽出した体位モデルのみを体位情報表示領域m6(図9参照)に表示させる。図15(a)は、左側臥位の体位モデルP3が表示された例を示している。
 一方、誘導機能がオン状態のとき(ステップS135:オン)、表示制御部154は、被検体2の体位情報を誘導オンモードの表示形式で表示装置18に表示させる(ステップS137)。
 図15(b)は、誘導オンモードにおける体位情報の表示例を示す模式図である。誘導オンモードの場合、表示制御部154は、モデル抽出部153が抽出した体位モデルに臓器モデルを重畳して体位情報表示領域m6(図9参照)に表示させる。図15(b)は、左側臥位の体位モデルP3に臓器モデルST3を重畳した例を示している。
 ステップS138において、制御部150は、カプセル型内視鏡10による検査を終了するか否かを判断する。制御部150は、例えば受信装置15からの画像データの入力が停止した(即ち、カプセル型内視鏡10からの画像データ無線送信が停止した)といった場合、検査を終了すると判断する(ステップS138:Yes)。
 カプセル型内視鏡10による検査を終了しない場合(ステップS138:No)、カプセル型内視鏡システム1の動作はステップS131に戻る。
 一方、カプセル型内視鏡10による検査を終了する場合(ステップS138:Yes)、カプセル型内視鏡システム1の動作はステップS121に移行する。ステップS121及びS122は、実施の形態1と同様である(図10参照)。
 以上説明したように、実施の形態2によれば、誘導機能がオフのときには体位モデルのみを体位情報表示領域m6に表示するので、ユーザは、カプセル型内視鏡10の誘導操作を行う前に、被検体2及びカプセル型内視鏡10に関する全体の状況を把握することができる。一方、誘導機能がオンのときには体位モデルに臓器モデルを重畳して体位情報表示領域m6に表示するので、ユーザは、カプセル型内視鏡10の誘導操作を行っている間、被検体2の体位に応じた臓器の状態や、臓器と被検体2との相対的な関係といった誘導操作に必要な情報を集中的に把握することができる。
 なお、実施の形態2においても、変形例1と同様に、被検体2の体位を自動判別することとしても良い。この場合、図14のステップS131は省略され、ステップS132においては、自動判別された体位に基づいて体位モデル及び臓器モデルが抽出される。
(変形例2-1)
 次に、本発明の実施の形態2の変形例2-1について説明する。
 誘導オフモード及び誘導オンモードにおける体位情報の表示形式は、図15に例示する表示形式に限定されない。図16及び図17は、変形例2-1における体位情報の表示例を示す模式図である。
 例えば、誘導オフモードでは、図16(a)に示すように、体位モデル(例えば体位モデルP3)のみを表示し、誘導オンモードでは、図16(b)に示すように、臓器モデル(例えば臓器モデルST3)のみを表示しても良い。この場合、ユーザは、カプセル型内視鏡10の誘導操作を行う前に、被検体2及びカプセル型内視鏡10に関する全体の状況を把握することができる一方、カプセル型内視鏡10の誘導操作を行っている間、誘導操作に必要な情報(被検体2の体位に応じた臓器の状態)を集中的に把握することができる。
 また、誘導オフモードでは、図17(a)に示すように、体位モデル(例えば体位モデルP3)のみを表示し、誘導オンモードでは、図17(b)に示すように、体位モデル(例えば体位モデルP3)に臓器モデル(例えば臓器モデルST3)を重畳し、さらにこれらを拡大して表示しても良い。この場合、ユーザは、カプセル型内視鏡10の誘導操作を行う前に、被検体2の体位の状態を全体的に把握することができる一方、カプセル型内視鏡10の誘導操作を行っている間、被検体2の体位に応じた臓器の状態や、臓器と被検体2との相対的な関係といった誘導操作に必要な情報を容易且つ集中的に把握することができる。
 さらに、被検体2内に導入された液体W(図3参照)にカプセル型内視鏡10を沈めた状態で被検体2内を観察する水中モードで誘導操作を行っている場合、誘導オンモードの際に、体位モデル及び臓器モデルを浮遊モードの場合よりも拡大して表示しても良い。
(実施の形態3)
 次に、本発明の実施の形態3について説明する。
 図18は、本発明の実施の形態3に係るカプセル型内視鏡システムが備える制御装置の構成を示すブロック図である。図18に示す制御装置20は、図6に示す制御装置17に対し、記憶部140の代わりに記憶部170を備える。記憶部170以外の制御装置20の各部の構成は、実施の形態1と同様である。また、制御装置20以外のカプセル型内視鏡システムの各部の構成も、実施の形態1(図1参照)と同様である。
 記憶部170は、図6に示す記憶部140に対して、カプセル型内視鏡10の模式的な画像(以下、キャラクタという)の画像データを記憶するキャラクタ記憶部171をさらに備える。
 実施の形態3に係るカプセル型内視鏡システムの動作は、全体として実施の形態1(図10参照)又は実施の形態2(図14参照)と同様であり、ステップS118(図10参照)又はステップS137(図14参照)において体位情報表示領域m6(図9参照)に表示される体位情報の表示形式が実施の形態1及び実施の形態2とは異なる。即ち、実施の形態3においては、図19に示すように、モデル抽出部153が抽出した体位モデル又は臓器モデルに対し、カプセル型内視鏡10のキャラクタC1を重畳して表示する。なお、図19は、左側臥位の体位モデルP3に臓器モデルST3及びキャラクタC1を重畳した例を示している。
 より詳細には、表示制御部154は、操作入力装置16から入力された操作指示情報に基づいて、カプセル型内視鏡10の誘導目標位置に対応する体位モデル(又は臓器モデル)上の座標を算出し、算出した座標にキャラクタC1を表示させる。このときのキャラクタC1の向きは、操作入力装置16から入力された操作指示情報に基づくカプセル型内視鏡10の誘導目標姿勢に応じて決定される。
 このように、体位モデルや臓器モデルに対してカプセル型内視鏡10のキャラクタC1を重畳して表示することにより、ユーザは、カプセル型内視鏡10の位置及び撮像方向と被検体2の体位や臓器との相対的な関係を容易に把握し、カプセル型内視鏡10が撮像中の部位を容易に推定することができる。
(変形例3-1)
 次に、本発明の実施の形態3の変形例3-1について説明する。
 上述した実施の形態3において、表示制御部154は、操作入力装置16から入力された誘導指示情報に基づいて、キャラクタC1を表示する座標及び向きを決定したが、図10のステップS111において検出されたカプセル型内視鏡10の位置及び姿勢に基づいて、キャラクタC1を表示する座標及び向きを決定しても良い。
(変形例3-2)
 次に、本発明の実施の形態3の変形例3-2について説明する。
 図20は、変形例3-2における体位情報の表示例を示す模式図である。図20に示すように、体位モデル又は臓器モデル並びにキャラクタC1と共に、カプセル型内視鏡10の軌跡Tを体位情報表示領域m6に表示しても良い。この場合、表示制御部154は、軌跡算出部133により算出された軌跡に基づいて、体位モデル上における軌跡Tの表示座標を決定する。なお、図20は、左側臥位の体位モデルP3に、臓器モデルST3、キャラクタC1、及び軌跡Tを重畳した例を示している。
(変形例3-3)
 次に、本発明の実施の形態3の変形例3-3について説明する。
 図21は、変形例3-3における体位情報の表示例を示す模式図である。図21に示すように、カプセル型内視鏡10の視野角を表すマークC2を体位情報表示領域m6に表示しても良い。この場合、表示制御部154は、操作入力装置16から入力される誘導指示情報に基づくカプセル型内視鏡10の誘導目標位置及び姿勢と、カプセル型内視鏡10が備える撮像部102、103の視野角とに基づいて、マークC2の表示座標を決定する。或いは、位置算出部132により算出されたカプセル型内視鏡10の位置及び姿勢に基づいて、マークC2の表示座標を決定しても良い。本変形例3-3によれば、ユーザは、カプセル型内視鏡10が撮像中の部位及び範囲を容易に推定することができる。なお、図21は、左側臥位の臓器モデルST3にキャラクタC1及びマークC2を重畳した例を示している。
(変形例3-4)
 次に、本発明の実施の形態3の変形例3-4について説明する。
 図22は、変形例3-4における体位情報の表示例を示す模式図である。図22に示すように、体位情報表示領域m6に表示される臓器モデルST3において、カプセル型内視鏡10の視野角に含まれる領域(撮像範囲)に対応する領域C3を、他の領域と異なる色で表示しても良い。これにより、ユーザは、カプセル型内視鏡10が撮像中の部位及び範囲をさらに容易に推定できるようになる。なお、図22は、左側臥位の臓器モデルST3にキャラクタC1及びマークC2を重畳した例であり、領域C3の色の違いを、網掛けを附すことにより表している。
(変形例3-5)
 次に、本発明の実施の形態3の変形例3-5について説明する。
 体位モデル又は臓器モデルに重畳するキャラクタC1のサイズは、カプセル型内視鏡10を誘導している領域やカプセル型内視鏡10の鉛直方向における位置に応じて変化させても良い。なお、カプセル型内視鏡10を誘導している領域やカプセル型内視鏡10の鉛直方向における位置は、操作入力装置16から入力される誘導指示情報から取得しても良いし、位置算出部132により算出された位置情報から取得しても良い。
 図23は、カプセル型内視鏡10の観察対象の臓器(胃ST)の断面を示す模式図である。また、図24は、変形例3-5における体位情報の表示例を示す模式図であり、左側臥位の体位モデルP3に臓器モデルST3及びキャラクタC1を重畳した例を示している。
 図23に示すように、胃STに導入された液体Wの底(液底PA)付近でカプセル型内視鏡10を誘導している場合、図24(a)に示すように、キャラクタC1を最も小さいサイズで表示する。また、液中PBでカプセル型内視鏡10を誘導している場合、図24(b)に示すように、キャラクタC1を図24(a)よりも大きいサイズで表示する。液面PC付近でカプセル型内視鏡10を誘導している場合、キャラクタC1を図24(b)よりもさらに大きいサイズで表示する。
 或いは、カプセル型内視鏡10が液底PAの近傍に位置する場合に、キャラクタC1のサイズを最小とし、カプセル型内視鏡10の鉛直方向における位置が高くなるほど(液面PCに近づくほど)キャラクタC1のサイズを無段階で大きくしても良い。
 このようにキャラクタC1のサイズを変化させることにより遠近感が生じるので、ユーザは、被検体2内のカプセル型内視鏡10の位置を直感的に把握することが可能となる。
 なお、本変形例3-5においては、体位モデル又は臓器モデルのサイズを一定とし、キャラクタC1のサイズを変化させたが、反対に、キャラクタC1のサイズを一定とし、体位モデル又は臓器モデルのサイズを変化させても良い。この場合、カプセル型内視鏡10が液体Wの液底PAの近傍に位置するときに、体位モデル又は臓器モデルのサイズを最大にし、カプセル型内視鏡10が液面PCに近づくほど、体位モデル又は臓器モデルのサイズを小さくする。
(変形例3-6)
 次に、本発明の実施の形態3の変形例3-6について説明する。
 図25及び図26は、図25は、変形例3-6における体位情報の表示例を示す模式図である。上述した実施の形態2においては、誘導機能のオン/オフに応じて体位情報表示領域m6における体位情報の表示形式を変更したが、実施の形態3のように体位情報表示領域m6にカプセル型内視鏡10のキャラクタC1を表示する場合には、さらに、カプセル型内視鏡10が誘導領域R(図1参照)の内部に存在するか否かによって表示形式を変更しても良い。カプセル型内視鏡10が誘導領域Rの内部に存在するか否かの判断は、位置算出部132が生成した位置情報に基づいて制御部150が行う。
 例えば、誘導機能がオフの場合、カプセル型内視鏡10の位置によらず、体位情報表示領域m6に体位モデルのみを表示する。また、誘導機能がオンであって、カプセル型内視鏡10が誘導領域Rの外部に位置する場合、図25(a)に示すように、体位モデル(例えば体位モデルP3)の全体を表示し、該体位モデルに臓器モデル(例えば臓器モデルST3)及びキャラクタC1を重畳して表示する。これより、ユーザは、被検体2の全体とカプセル型内視鏡10との相対的な位置関係を把握することができる。一方、誘導機能がオンであって、カプセル型内視鏡10が誘導領域Rの内部に存在する場合、図25(b)に示すように、キャラクタC1の近傍を中心に、体位モデルP3、臓器モデルST3、及びキャラクタC1を拡大して表示する。これより、ユーザは、カプセル型内視鏡10の誘導が可能になったことを認識すると共に、臓器とキャラクタC1との相対的な位置関係や撮像方向を正確に把握して、カプセル型内視鏡10の誘導操作を行うことができる。
 或いは、誘導機能がオンであって、カプセル型内視鏡10が誘導領域Rの外部に位置する場合、図26(a)に示すように、体位情報表示領域m6に体位モデル(例えば体位モデルP3)にキャラクタC1のみを重畳して表示する。これより、ユーザは、被検体2の全体とカプセル型内視鏡10との相対的な位置関係を把握することができる。一方、誘導装置がオンであって、カプセル型内視鏡10が誘導領域Rの内部に位置する場合、図26(b)に示すように、臓器モデル(例えば臓器モデルST3)にキャラクタC1を重畳し、且つ拡大して表示する。これより、ユーザは、カプセル型内視鏡10の誘導が可能になったことを認識すると共に、臓器とキャラクタC1との相対的な位置関係や撮像方向を正確に把握して、カプセル型内視鏡10の誘導操作を行うことができる。
(変形例)
 次に、本発明の実施の形態1~3の変形例について説明する。
 上記実施の形態1~3においては、被検体2の体位に応じた複数の臓器モデルを1組用意したが、サイズや形状が異なる複数組の臓器モデルを用意しておいても良い。具体的には、性別、年齢、体格等の患者の特性に応じた複数組の臓器モデルを臓器モデル記憶部146に予め記憶させておく。
 体位情報表示領域m6に臓器モデルを表示する際、表示制御部154は、患者情報に基づいて、複数組の臓器モデルから1組の臓器モデルを選択し、選択した臓器モデルの中から、被検体2の体位に応じた臓器モデルを抽出する。
 或いは、予め臓器モデル記憶部146に記憶された複数組の臓器モデルから、ユーザが所望の組を選択できるようにしても良い。さらに、ユーザが選択した組に含まれる各臓器モデルを拡大又は縮小するなど、ユーザが微調整できるようにしても良い。
 本変形例によれば、体位モデル及びカプセル型内視鏡10のキャラクタに対し、重畳される臓器モデルの相対的なサイズを変更するので、ユーザは、カプセル型内視鏡10と被検体2及び臓器との相対的な位置関係を推定し易くなる。
 また、上記実施の形態1~3においては、モデル抽出部153が抽出した臓器モデルを所定の向きで体位情報表示領域m6に表示したが、別の変形例として、カプセル型内視鏡10の進行方向に応じて臓器モデルを回転させて表示しても良い。
(実施の形態4)
 次に、本発明の実施の形態4について説明する。
 図27は、本発明の実施の形態4に係るカプセル型内視鏡システムが備える制御装置の構成を示すブロック図である。また、図28は、実施の形態4における体位情報の表示方法を説明する模式図である。
 図27に示す制御装置30は、図18に示す制御装置20に対し、制御部150の代わりに制御部180を備える。制御部180以外の制御装置30の各部の構成は、実施の形態3と同様である。また、制御装置20以外のカプセル型内視鏡システムの各部の構成は、実施の形態1(図1参照)と同様である。
 制御部180は、図18に示す制御部150に対して、カプセル型内視鏡10と臓器との距離を取得する距離情報取得部181をさらに備える。距離情報取得部181は、カプセル型内視鏡10が備える照明部114の発光動作を制御するための制御情報を取得し、該制御情報を用いて被検体2内の実際の臓器と撮像部102、103との撮像光軸における距離を取得する。即ち、臓器までの距離と照明発光時間の長さが比例関係にあることを利用するものであり、制御情報としては、照明部114の発光時間情報が用いられる。或いは、撮像部102、103の合焦情報に基づいて、カプセル型内視鏡10と臓器との距離を算出しても良い。
 なお、カプセル型内視鏡10と臓器の壁との距離を取得する方法は、上述した方法の他にも、種々の公知の手段を適用することができる。例えば、カプセル型内視鏡10に超音波又は赤外線の送受信手段を設けると共に、該送受信手段による超音波又は赤外線の送受信タイミングデータを画像データと共に無線送信し、受信装置15が受信した送受信タイミングデータに基づいて、距離情報取得部181がカプセル型内視鏡10と臓器の壁との距離を算出しても良い。
 実施の形態4に係るカプセル型内視鏡システムの動作は、全体として実施の形態3と同様であり、体位情報表示領域m6(図9参照)にカプセル型内視鏡10のキャラクタを表示する際に、カプセル型内視鏡10と臓器の壁との距離に応じて、該キャラクタと臓器モデルとの相対的な表示位置を調整することを特徴とする。
 ここで、臓器モデルに重畳されるキャラクタの表示座標は、操作入力装置16から入力された誘導操作情報又は位置算出部132が算出した位置情報に基づいて算出される。しかしながら、誘導誤差又は位置検出誤差により、実際のカプセル型内視鏡10と臓器との相対的な位置関係に対し、キャラクタと臓器モデルとの相対的な位置関係にずれが生じる場合がある。本実施の形態4においては、このような相対的な位置関係のずれを修正することができる。
 例えば、図28(a)に示すように、距離情報取得部181が取得した距離d0に対し、該距離に対応するキャラクタC1と臓器モデルST3との距離d1が短い場合、表示制御部154は、臓器モデルST3を図の左方向にシフトさせて、両者の間隔を広げる。或いは、キャラクタC1を図の右方向にシフトさせても良い。それにより、図28(b)に示すように、キャラクタC1と臓器モデルST3との間の距離d1’を、距離情報取得部181が取得した距離d0に対応させて、同じ距離に設定する。
 以上説明したように、実施の形態4によれば、カプセル型内視鏡10と臓器との距離の測定値に基づいて、カプセル型内視鏡10のキャラクタと臓器モデルとの相対的な表示位置を調整するので、ユーザは、カプセル型内視鏡10と臓器との相対的な位置関係をより正確に把握することが可能となる。
(変形例4)
 次に、本発明の実施の形態4の変形例4について説明する。
 図29は、変形例4における体位情報の表示方法を説明する模式図である。カプセル型内視鏡10のキャラクタと臓器モデルとの相対的な表示位置は、操作入力装置16に対する操作量と、カプセル型内視鏡10の変位量との差異に基づいて調整しても良い。
 例えば、図29(a)に示すように、キャラクタC1が臓器モデルST3の壁面から離れた位置に表示されているときに、操作入力装置16を用いてカプセル型内視鏡10を図の左方向に移動させる誘導操作を行ったとする。このとき操作入力装置16への操作量に対応するカプセル型内視鏡10の目標移動量に対し、位置算出部132により算出されたカプセル型内視鏡10の移動量が小さい場合、実際には、カプセル型内視鏡10が既に臓器の内壁に突き当たっている可能性がある。このような場合、表示制御部154は、図29(b)に示すように、キャラクタC1に突き当たるまで臓器モデルST3を図の右方向にシフトさせる。或いは、臓器モデルST3に突き当たるまでキャラクタC1を図の左方向にシフトさせても良い。それにより、キャラクタC1と臓器モデルST3との相対的な位置関係を、実際のカプセル型内視鏡10と臓器との相対的な位置関係に一致させることができる。
(実施の形態5)
 次に、本発明の実施の形態5について説明する。
 図30は、本実施の形態5に係るカプセル型内視鏡システムが備える制御装置の構成例を示すブロック図である。本実施の形態5に係るカプセル型内視鏡システムは、図1に示す制御装置17の代わりに、図30に示す制御装置40を備える。また、本実施の形態5においては、図31に示すように、図2に示すカプセル型内視鏡10に対して、一方の撮像部103を省略した単眼式のカプセル型内視鏡10Aを用いることとする。カプセル型内視鏡10A及び制御装置40以外のカプセル型内視鏡システムの各部の構成及び動作は、実施の形態1と同様である。
 図30に示すように、本実施の形態5に係る制御装置40は、入出力部120と、演算部410と、記憶部420と、制御部430とを備える。このうち、入出力部120の構成及び動作は実施の形態1と同様である(図6参照)。
 演算部410は、画像処理部131及び位置算出部132を備える。画像処理部131及び位置算出部132の構成及び動作は、実施の形態1と同様である。
 記憶部420は、図6に示す体位モデル記憶部145及び臓器モデル記憶部146の代わりに、臓器モデル記憶部421及び展開図記憶部422を備える。
 臓器モデル記憶部421は、カプセル型内視鏡が撮像対象とする臓器のモデル(以下、臓器モデルという)の3次元データを記憶する。実施の形態5においては、カプセル型内視鏡の撮像対象を胃としているため、臓器モデル記憶部421は、臓器モデルとして胃モデルを記憶する。臓器モデル記憶部421が記憶する胃モデルは1種類に限定されず、被検体2の年齢や性別に応じて形状の異なる複数の胃モデルを記憶しても良いし、正常な胃モデルに加えて、瀑状胃や砂時計胃等の特有の形状を有する胃モデルを記憶しても良い。或いは、被検体2に対して実施されたX線検査、CT検査、MRI等において取得された胃の画像から胃モデルを作成して臓器モデル記憶部421に記憶させておいても良い。
 展開図記憶部422は、臓器モデル記憶部421に記憶された臓器モデルを展開した展開図の2次元画像データを記憶する。臓器モデル記憶部421に複数種類の臓器モデルが記憶されている場合、展開図記憶部422は、各臓器モデルに対応する展開図をそれぞれ記憶しても良い。また、被検体2に対して実施されたX線検査、CT検査、MRI等において取得された胃の画像から直成された展開図を、展開図記憶部422に記憶させても良い。
 制御部430は、誘導用磁界制御部151と、臓器モデル記憶部421に記憶された臓器モデルを取得する臓器モデル取得部431と、カプセル型内視鏡の撮像部102により撮像された臓器内の領域(以下、撮像領域という)を決定する撮像領域決定部432と、該臓器モデル取得部431が取得した臓器モデルの展開図を取得する展開図取得部433と、表示装置18における表示動作を制御する表示制御部434とを備える。このうち、誘導用磁界制御部151の動作は実施の形態1と同様である。
 臓器モデル取得部431は、臓器モデル記憶部421に記憶された臓器モデルを取得し、該臓器モデルの向きを被検体2の体位に対応する向きに設定する。より詳細には、臓器モデル取得部431は、臓器モデルの3次元データに基づき、臓器モデルの壁を構成する各点の座標を、被検体2を含む空間領域の座標と関連付ける。ここで、カプセル型内視鏡10Aによる検査を行う際、被検体2は医師等のユーザの指示に従って所定の体位を取る。このとき、被検体2の臓器(例えば胃)の向きは、被検体2の体位に応じて変化する。具体的には、被検体2がベッド3上において背臥位、腹臥位、左側臥位、右側臥位の体位をそれぞれ取ったとき、被検体2の胃は、図8(a)~(d)に示すような向きとなる。なお、図8(a)~(d)は、被検体2の胃STを水平面(ベッド3の載置面)に投影した状態を示している。
 また、臓器モデル記憶部421に複数の臓器モデルが記憶されている場合、臓器モデル取得部431は、患者情報記憶部142に記憶された被検体2の患者情報(例えば年齢、性別等)に対応する臓器モデルを選択して取得する。
 撮像領域決定部432は、位置算出部132が算出したカプセル型内視鏡10Aの位置と臓器モデル取得部431が取得した臓器モデルとの位置関係、及び位置算出部132が算出したカプセル型内視鏡10Aの姿勢に基づいて、撮像領域を決定する。
 展開図取得部433は、展開図記憶部422に記憶された展開図を取得すると共に、カプセル型内視鏡10Aが現在撮像している被検体2内(臓器内)の領域に対応する展開図上の領域を設定する。ここで、展開図上の各点の座標は、臓器モデルの壁を構成する点の3次元座標と予め関連付けられている。
 なお、展開図記憶部422に複数の展開図が記憶されている場合、展開図取得部433は、臓器モデル取得部431が取得した臓器モデルに対応する展開図を取得する。
 表示制御部434は、カプセル型内視鏡10Aによる検査の実施中、画像処理部131により画像処理が施された画像データに基づく体内画像や、患者情報や、現在の撮像領域等の関連情報を、表示装置18に所定の形式でリアルタイムに表示させる。
 図32は、表示制御部434の制御の下で表示装置18に表示される画面の一例を示す模式図である。図32に示すように、画面M5は、図9に示す画面M1と同様に、患者ID、患者氏名、患者の性別、生年月日、年齢等の患者情報が表示される患者情報表示領域m1と、撮像部102により撮像された体内画像が表示される領域である体内画像表示領域m2と、キャプチャボタン16eに対する押圧操作によってキャプチャされた体内画像が表示されるキャプチャ画像表示領域m4と、カプセル型内視鏡10Aに対する操作情報が表示される操作情報表示領域m5と、被検体2の体位を入力する際に用いられる体位ボタン表示領域m7とを含み、さらに被検体2内の撮像領域が表示される撮像領域表示領域m20が設けられている。
 上述したように、本実施の形態5においては、単眼式のカプセル型内視鏡を用いるため、画面M5には、1つの体内画像表示領域m2のみが表示されている。また、キャプチャ画像表示領域m4にも、キャプチャボタン16eに対する1回の押圧操作に応じてキャプチャされた画像が1つずつ表示されている。しかしながら、本実施の形態5においても、実施の形態1と同様に、撮像部102、103が設けられた複眼式のカプセル型内視鏡10を用いても良く、この場合、画面M5に体内画像表示領域m3をさらに設けると共に、キャプチャ画像表示領域m4には、キャプチャボタン16eに対する1回の押圧操作に応じてキャプチャされた画像を2つずつ表示する(図9参照)。
 また、本実施の形態5においても、実施の形態1と同様に、画面M5に体位情報表示領域m6(図9参照)を設けても良い。
 また、画面M5に体位ボタン表示領域m7を設ける代わりに、被検体2の体位をユーザに選択させる専用の入力ボタンを操作入力装置16に設けても良い。
 撮像領域表示領域m20は、カプセル型内視鏡10Aによる被検体2内の撮像領域、即ち、体内画像表示領域m2に表示中の体内画像の部位が表示される領域である。本実施形態1においては、カプセル型内視鏡10Aの撮像対象の臓器(例えば、胃)の展開図上に撮像領域を表示している。
 ユーザは、このような画面M5を参照しながら操作入力装置16を操作することにより、被検体2内の所望の領域をカプセル型内視鏡10Aに撮像させる。
 次に、図1に示すカプセル型内視鏡システム1の動作を、図33を参照しながら説明する。まず、カプセル型内視鏡10Aによる検査に先立って、医師等のユーザは、被検体2に液体W(図3参照)を導入して、所定の体位でベッド3に寝かせる。続いてユーザは、操作入力装置16を用いて体位ボタン表示領域m7に表示されたアイコンm11~m14(図32参照)のいずれかを選択することにより、被検体2の体位を制御装置40に入力する。そして、カプセル型内視鏡10Aの電源をオンにして被検体2内に導入する。
 ステップS210において、臓器モデル取得部431は、臓器モデル記憶部421から臓器モデルを取得し、該臓器モデルの向きを被検体2の体位に対応する向きに設定する。詳細には、臓器モデル取得部431は、アイコンm11~m14のいずれかが選択されることにより制御部430に入力された体位選択信号に基づいて、被検体2の現在の体位を判別する。そして、臓器モデルの壁を構成する各点の座標を、被検体2の体位に応じて、3次元空間の座標と関連付ける。
 続くステップS211において、展開図取得部433は、展開図記憶部422から臓器モデルの展開図を取得する。
 続くステップS212において、カプセル型内視鏡10Aは被検体2内を撮像することによって取得した画像データを無線送信する。これに応じて、受信装置15は、カプセル型内視鏡10Aから無線送信された画像データを受信する。
 ステップS213において、制御装置40の画像処理部131は、受信装置15から取り込んだ画像データに対して所定の画像処理を施すことにより、体内画像を生成する。なお、該体内画像を表す表示用の画像データは、逐次画像データ記憶部143に記憶される。
 ステップS214において、位置算出部132は、カプセル型内視鏡10Aの位置及び姿勢を算出する。より詳細には、位置検出装置11がカプセル型内視鏡10Aの磁界発生部107が発生した交番磁界を検出し、信号処理装置13が該交番磁界の検出信号に対して所定の信号処理を施すことによりデジタルの位置検出信号(位置検出データ)を生成する。位置算出部132は、この位置検出データを取り込んで、そのときのカプセル型内視鏡10Aの位置及び姿勢を算出し、位置情報として位置情報記憶部144に記憶させる。
 ステップS215において、撮像領域決定部432は、カプセル型内視鏡10Aによる現在の撮像領域を決定する。より詳細には、図34に示すように、まず、撮像領域決定部432は、ステップS214において算出されたカプセル型内視鏡10Aの位置及び姿勢から、撮像部102の位置及び撮像方向(撮像光軸Lの方向)を算出する。続いて、撮像領域決定部432は、臓器モデルMD1を被検体2内の臓器とみなし、撮像部102の撮像光軸Lと臓器モデルMD1の壁との交点Pの座標を求める。そして、撮像光軸Lに沿った方向における撮像部102から該交点Pまでの距離d1を算出し、距離d1と撮像部102の視野角θとに基づいて撮像領域R0を算出する。
 ステップS216において、展開図取得部433は、臓器モデルの展開図を取得し、該展開図における撮像領域を設定する。具体的には、臓器モデルMD1(図34参照)に対して決定された撮像領域R0に対応する展開図Ddev上の領域R0’(図35参照)が、撮像領域として設定される。
 ステップS217において、表示制御部434は、臓器モデルの展開図及び撮像領域を含む画面を表示装置18に表示させる。例えば、表示装置18は、表示制御部434の制御の下で、ステップS213において生成された体内画像を体内画像表示領域m2(図32参照)に表示すると共に、ステップS211において取得した展開図Ddevを撮像領域表示領域m20(同上)に表示する。そして、体内画像表示領域m2に表示中の体内画像、即ち、被検体2内における現在の撮像領域の画像を、展開図Ddev上の領域R0’のサイズに合わせて縮小し、該領域R0’に重畳して表示する。
 ステップS218において、制御部430は、カプセル型内視鏡10Aによる検査を終了するか否かを判断する。制御部430は、例えば、ユーザにより検査終了の操作入力があった、或いは、受信装置15からの画像データの入力が停止した(即ち、カプセル型内視鏡10Aからの画像データ無線送信が停止した)といった場合、検査を終了すると判断する(ステップS218:Yes)。この場合、カプセル型内視鏡システムの動作は終了する。
 カプセル型内視鏡10Aによる検査を終了しない場合(ステップS218:No)、カプセル型内視鏡システムの動作はステップS212に戻る。
 以上説明したように、実施の形態5によれば、カプセル型内視鏡10Aと臓器モデルとの位置関係及びカプセル型内視鏡10Aの姿勢に基づいて撮像領域を決定し、臓器の展開図上に設定された撮像領域に体内画像を重畳して表示するので、ユーザは、カプセル型内視鏡10Aによる現在の撮像領域を正確且つリアルタイムに把握することが可能となる。
(変形例5-1)
 次に、本発明の実施の形態5の変形例5-1について説明する。
 上記実施の形態5において、展開図取得部433は、展開図記憶部422に予め記憶された展開図を取得することとしたが、臓器モデル取得部431が臓器モデル記憶部421から取得した臓器モデルから直接作成しても良い。この場合、臓器モデル記憶部421が形状やサイズの異なる複数の臓器モデルを記憶している場合であっても、各臓器モデルに対応する展開図を予め用意しておく必要がなくなる。
(変形例5-2)
 次に、本発明の実施の形態5の変形例5-2について説明する。
 図36は、実施の形態5の変形例5-2に係るカプセル型内視鏡システムが備える制御装置の構成例を示すブロック図である。図36に示す制御装置50は、図30に示す制御装置40に対し、制御部430の代わりに制御部510を備える。制御部510以外の制御装置50の各部の構成は、実施の形態5と同様である。また、制御装置50以外のカプセル型内視鏡システムの各部の構成も、実施の形態5と同様である(図1及び図31参照)。
 制御部510は、図30に示す展開図取得部433の代わりに、断面図取得部511を備える。断面図取得部511は、臓器モデル取得部431が取得した臓器モデルを特定の面で切断した断面図を作成し、該断面図に対して撮像領域を設定する。臓器モデルを切断する面は特に限定されず、例えば臓器モデルが胃モデルである場合、好ましくは、噴門及び幽門を通り、胃モデルを2分する面で切断すると良い。より好ましくは、さらに、カプセル型内視鏡10Aの撮像方向と垂直な面又は平行な面で切断すると良い。この場合、図32に示す撮像領域表示領域m20には、断面図取得部511により作成された断面図が表示される。
 図37は、臓器モデルをカプセル型内視鏡10Aの撮像方向と垂直な面で切断した断面図の例を示す模式図である。切断面が撮像方向と垂直な断面図Dsec1の場合、該断面図Dsec1上に設定された撮像領域R1には、縮小された体内画像が重畳されて表示される。
 図38は、臓器モデルをカプセル型内視鏡10Aの撮像方向と平行な面で切断した断面図の例を示す模式図である。切断面が撮像方向と平行な断面図Dsec2の場合、該断面図Dsec2上に設定された撮像領域R2は、特定の色で塗りつぶされ、或いは、斜線等のパターンを附して表示される。また、カプセル型内視鏡10Aの撮像方向を矢印等で示しても良い。
(実施の形態6)
 次に、本発明の実施の形態6について説明する。
 図39は、実施の形態6に係るカプセル型内視鏡システムが備える制御装置の構成例を示すブロック図である。図39に示す制御装置60は、図30に示す制御装置40に対し、制御部430の代わりに制御部610を備える。制御部610以外の制御装置60の各部の構成は、実施の形態5と同様である。また、制御装置60以外のカプセル型内視鏡システムの各部の構成も、実施の形態5と同様である(図1及び図31参照)。
 制御部610は、図30に示す制御部430に対し、距離情報取得部611及びモデル形状更新部612をさらに備える。
 距離情報取得部611は、被検体2内における臓器と撮像部102との間の実際の距離を取得する。より詳細には、距離情報取得部611は、カプセル型内視鏡10Aが備える照明部114の発光動作を制御する制御情報を取得し、該制御情報を用いて臓器と撮像部102との間の距離を算出する。即ち、臓器までの距離と照明発光時間の長さが比例関係にあることを利用するものであり、制御情報としては、照明部114の発光時間情報が用いられる。
 モデル形状更新部612は、距離情報取得部611が取得した距離に基づいて、臓器モデルの形状パラメータを更新する。
 ここで、臓器モデル記憶部421に記憶されている臓器モデルの形状は予め決まっているが、被検体2内の実際の臓器の形状には個人差がある。そこで、本実施の形態6においては、カプセル型内視鏡10Aと被検体2内の臓器との間の距離を取得し、該取得値に基づいて臓器モデルの形状を更新する。
 次に、実施の形態6に係るカプセル型内視鏡システムの動作を、図40を参照しながら説明する。なお、図40に示すステップS210及びS211は、実施の形態5と同様である。
 ステップS211に続くステップS220において、カプセル型内視鏡10Aは被検体2内を撮像することによって取得した画像データと共に、照明部114の動作を制御するための制御情報を無線送信する。これに応じて、受信装置15は、カプセル型内視鏡10Aから無線送信された画像データ及び制御情報を受信する。
 続くステップS213及びS214は、実施の形態5と同様である。
 ステップS214に続くステップS221において、距離情報取得部611は、受信装置15から取り込んだ制御情報、即ち発光時間情報に基づいて、カプセル型内視鏡10Aの撮像部102と臓器との間の距離を取得する。
 ステップS222において、モデル形状更新部612は、ステップS221において取得された距離に基づいて、臓器モデルの形状パラメータを更新する。例えば、図41(a)に示すように、ステップS214において算出されたカプセル型内視鏡10Aの位置及び姿勢に基づいて、撮像部102と臓器モデルMD2との位置関係が定まったとする。それに対し、ステップS221において取得された撮像部102と臓器の壁との間の実際の距離d2が、撮像部102から臓器モデルMD2の壁までの距離とずれている場合、モデル形状更新部612は、図41(b)に示すように、撮像方向Lにおける臓器モデルMD2の壁の位置を距離d2に合わせると共に、該壁の位置の周囲が連続的となるように形状パラメータを更新する。なお、図41(a)は、距離d2が臓器モデルMD2の壁を越えている場合を示している。この場合、図41(b)に示すように、撮像方向における臓器モデルMD2の壁の位置が図の右方向にずらされる。これにより、更新された臓器モデルMD2’が作成される。
 ステップS223において、展開図取得部433は、更新された形状パラメータに基づいて、臓器モデルの展開図を再取得する。例えば、図41(b)の場合、更新された臓器モデルMD2’に対応する展開図が作成される。
 続くステップS215~S218は、実施の形態5と同様である。
 以上説明したように、実施の形態6においては、カプセル型内視鏡10Aと被検体2内の臓器との間の距離を取得し、該取得値に基づいて臓器モデルの形状パラメータを更新する。このため、臓器モデル記憶部421に予め記憶されている臓器モデルの形状が、被検体2の臓器の形状と異なっている場合であっても、カプセル型内視鏡10Aによる撮像を続けるうちに、臓器モデルの形状が徐々に被検体2の臓器の形状に近づいてくる。従って、更新された臓器モデルに対して撮像領域を決定すると共に、更新された臓器モデルの展開図上に該撮像領域を表示することにより、ユーザは、カプセル型内視鏡10Aによる現在の撮像領域をより正確に把握できるようになる。
(変形例6-1)
 次に、本発明の実施の形態6の変形例6-1について説明する。
 カプセル型内視鏡10Aと被検体2内の臓器との距離を取得する方法は、照明部114の発光時間に基づいて算出する方法に限定されない。例えば、撮像部102の合焦情報に基づいて該距離を算出しても良いし、照明部114の発光量(強度)に基づいて距離を算出しても良い。
 或いは、カプセル型内視鏡10Aに、超音波や赤外線等を用いた距離測定手段をさらに設けても良い。この場合、距離測定手段による距離測定結果を画像データと共に無線送信し、制御装置60においては、受信装置15を介して受信した距離測定結果に基づいて、臓器モデルの形状パラメータを更新する。
 また、取得された体内画像から噴門等の特徴点を抽出し、これらの特徴点を含む体内画像の位置情報に基づいて、臓器モデルの形状パラメータを更新しても良い。
 さらには、被検体2に対して実施されたX線検査、CT検査、MRI等において取得された胃の画像から胃の臓器モデルを作成し、この臓器モデルに基づいて、撮像領域表示領域m20(図32参照)に表示される展開図や断面図を作成しても良い。
(変形例6-2)
 次に、本発明の実施の形態6の変形例6-2について説明する。
 図42は、変形例6-2に係るカプセル型内視鏡システムが備える制御装置の構成例を示すブロック図である。図42に示す制御装置70は、図30に示す制御装置40に対し、制御部430の代わりに制御部710を備える。制御部710以外の制御装置70の各部の構成は、実施の形態5と同様である。また、制御装置70以外のカプセル型内視鏡システムの各部の構成も、実施の形態5と同様である(図1及び図31参照)。
 制御部710は、図30に示す制御部430に対し、モデル形状更新部711をさらに備える。モデル形状更新部711は、位置算出部132により算出されたカプセル型内視鏡10Aの位置及び姿勢と、操作入力装置16から入力された誘導指示情報とに基づいて、臓器モデルの形状パラメータを更新する。
 次に、変形例6-2に係るカプセル型内視鏡システムの動作を、図43を参照しながら説明する。なお、図43に示すステップS210~S214は、実施の形態5と同様である。
 ステップS214に続くステップS240において、モデル形状更新部711は、操作入力装置16から制御装置70に誘導指示情報が入力されたか否かを判断する。誘導指示情報が入力されない場合(ステップS240:No)、カプセル型内視鏡システムの動作はステップS215に移行する。
 一方、誘導指示情報が入力された場合(ステップS240:Yes)、誘導用磁界制御部151は、誘導指示情報に基づいて信号発生装置14に制御信号を出力することにより、カプセル型内視鏡10Aに対する誘導制御を行う(ステップS241)。
 続くステップS242において、位置算出部132は、信号処理装置13から出力された位置検出信号に基づいて、カプセル型内視鏡10Aの位置を再び算出する。
 ステップS243において、モデル形状更新部711は、ステップS242において算出されたカプセル型内視鏡10Aの位置が、ステップS214において算出されたカプセル型内視鏡の位置から変化しているか否かを判定する。カプセル型内視鏡10Aの位置が、変化している場合(ステップS243:Yes)、カプセル型内視鏡システムの動作はステップS215に移行する。
 一方、カプセル型内視鏡の位置が変化していない場合(ステップS243:No)、モデル形状更新部711は臓器モデルの形状パラメータを更新する(ステップS244)。例えば、図44(a)に示すように、ステップS214において算出されたカプセル型内視鏡10Aの位置及び姿勢に基づいて、カプセル型内視鏡10Aと臓器モデルMD3との位置関係が定まったとする。これに対し、誘導指示情報に従って、誘導用磁界制御部151がカプセル型内視鏡10Aを図の矢印の方向に距離d3だけ移動させる制御を行ったにもかかわらず、カプセル型内視鏡10Aの位置が変化しない場合、被検体2内においてカプセル型内視鏡10Aは既に臓器の壁に到達しているものと考えられる。このような場合、モデル形状更新部711は、図44(b)に示すように、臓器モデルMD3の壁の位置をカプセル型内視鏡10Aの端部に合わせると共に、該壁の位置の周囲が連続的となるように形状パラメータを更新する。これにより、更新された臓器モデルMD3’が作成される。
 ステップS245において、展開図取得部433は、更新された形状パラメータに基づいて、臓器モデルの展開図を再取得する。これにより、更新された臓器モデルMD3’に対応する展開図が作成される。
 続くステップS215~S218は、実施の形態5と同様である。
 以上説明したように、変形例6-2によれば、誘導指示情報とカプセル型内視鏡10Aの位置の変化とを比較することにより、臓器モデルの形状を簡単に更新することができる。また、変形例6-2によれば、カプセル型内視鏡10Aと臓器との距離を算出する演算を行ったり、カプセル型内視鏡10Aに距離測定手段を設けたりする必要がないので、カプセル型内視鏡10Aや制御装置70の構成を簡単にすることができる。
 さらに、変形例6-2によれば、臓器モデル記憶部421に予め記憶されている臓器モデルの形状が、被検体2の臓器の形状と異なっている場合であっても、カプセル型内視鏡10Aの誘導操作を続けているうちに、臓器モデルの形状が徐々に被検体2の臓器の形状に近づくように更新される。従って、このように更新された臓器モデルにおいて撮像領域を決定すると共に、更新された臓器モデルの展開図に対して該撮像領域を表示することにより、ユーザは、カプセル型内視鏡10Aによる現在の撮像領域をより正確に把握できるようになる。
(実施の形態7)
 次に、本発明の実施の形態7について説明する。
 図45は、実施の形態7に係るカプセル型内視鏡が備える制御装置の構成例を示すブロック図である。図45に示す制御装置80は、図30に示す制御装置40に対し、記憶部420及び制御部430の代わりに、記憶部810及び制御部820をそれぞれ備える。記憶部810及び制御部820以外の制御装置80の各部の構成は、実施の形態5と同様である。また、制御装置80以外のカプセル型内視鏡システムの構成も、実施の形態5と同様である(図1及び図31参照)。
 記憶部810は、図30に示す記憶部420に対し、撮像領域履歴記憶部811をさらに備える。撮像領域履歴記憶部811は、撮像領域決定部432が撮像領域を決定する際に算出した撮像部102の位置及び撮像方向を、撮像領域に関する情報として順次記憶する。
 制御部820は、図30に示す制御部430に対し、撮像領域履歴取得部821をさらに備える。撮像領域履歴取得部821は、撮像領域履歴記憶部811に記憶された撮像部102の位置及び撮像方向と臓器モデルの3次元データとから、表示装置18に既に表示された画像(表示済み画像)に対応する撮像領域を取得する。
 次に、実施の形態7に係るカプセル型内視鏡システムの動作を、図46を参照しながら説明する。なお、図46に示すステップS210~S214は、実施の形態5と同様である。
 ステップS214に続くステップS250において、撮像領域決定部432は、カプセル型内視鏡10Aによる現在の撮像領域を決定する。なお、撮像領域の決定方法は、ステップS215と同様である(図34参照)。また、撮像領域決定部432は、撮像領域を決定する際に算出した撮像部102の位置及び撮像方向を、当該撮像領域の体内画像と関連付けて撮像領域履歴記憶部811に記憶させる。
 ステップS251において、撮像領域履歴取得部821は、撮像領域履歴記憶部811に記憶されている過去の撮像時点での撮像部102の位置及び撮像方向を読み出し、該撮像部102と臓器モデルとの位置関係及び撮像部102の撮像方向に基づいて、過去の撮像時点における撮像領域を決定する。なお、撮像領域の決定方法は、ステップS215と同様である(図34参照)。
 ステップS252において、展開図取得部433は、臓器モデルの展開図を取得し、該展開図における現在及び過去の撮像領域を設定する。例えば、展開図取得部433は、図47に示すように、ステップS250において決定された撮像領域に対応する臓器モデルの展開図Ddev上の領域を、現在の撮像領域R(n)(nは自然数)として設定すると共に、ステップS251において決定された撮像領域に対応する展開図Ddev上の領域を、過去の撮像領域R(1)~R(n-1)として設定する。
 ステップS253において、表示制御部434は、臓器モデルの展開図及び撮像領域を含む画面を表示装置18に表示させる。具体的には、表示装置18は、表示制御部434の制御の下で、展開図Ddev(図47参照)を撮像領域表示領域m20(図32参照)に表示する。そして、ステップS213において生成された最新の体内画像を撮像領域R(n)に重畳して表示すると共に、過去に取得された体内画像を撮像領域R(1)~R(n-1)にそれぞれ重畳して表示する。この際、最新の撮像領域R(n)に所定の画枠Fを附すなどして輪郭を強調し、過去の撮像領域と識別できるようにしても良い。なお、過去に取得された体内画像は、撮像領域履歴記憶部811に記憶された撮像領域に関する情報に基づいて、画像データ記憶部143から読み出される。
 或いは、最新の撮像領域R(n)にのみ体内画像を重畳し、過去の撮像領域R(1)~R(n-1)については、例えば単一の色で塗りつぶしたり、所定のパターンを附すなどして、最新の撮像領域を識別できるようにしても良い。その後のステップS218は、実施の形態5と同様である。
 以上説明したように、実施の形態7によれば、カプセル型内視鏡10Aがこれまでに撮像した領域を臓器モデルの展開図にリアルタイムで表示するので、ユーザは、臓器内でまだ観察していない領域があるか否かを容易に判断することができる。
(変形例7-1)
 次に、実施の形態7の変形例7-1について説明する。
 上記実施の形態7においては、撮像領域履歴記憶部811及び撮像領域履歴取得部821を実施の形態5における制御装置40に適用した場合を説明したが、同様の構成を、変形例5-2、実施の形態6、及び変形例6-2において説明した制御装置50~70に設けても良い。
 撮像領域履歴記憶部811及び撮像領域履歴取得部821を変形例5-2における制御装置50に適用する場合、図48に示すように、臓器モデルを2分した両側の断面図Dsec-R、Dsec-Lの両方を同時に表示すると良い。なお、臓器モデルの切断面は、固定された1つの面としても良いし、撮像部102による現在の撮像方向と平行又は垂直な面を切断面として設定し、逐次変化させることとしても良い。また、臓器モデルの切断面上にかかる撮像領域(例えば撮像領域R(k))については、特定の色で塗りつぶす、或いは、斜線等のパターンを附すなどして表示しても良い。
 また、撮像領域履歴記憶部811及び撮像領域履歴取得部821を実施の形態6又は変形例6-2に適用する場合、撮像領域履歴取得部821は、更新された最新の臓器モデルに対して撮像領域を決定する。これにより、過去の撮像領域をより正確に表示することが可能となる。
(変形例7-2)
 次に、実施の形態7の変形例7-2について説明する。
 上記実施の形態7においては、臓器モデルの展開図(図47参照)に対し、過去の撮像領域R(1)~R(n-1)を単一の色で塗りつぶしたり、所定のパターンを附すなどして表示することとしたが、条件に応じて、過去の撮像領域R(1)~R(n-1)を表示する際の色やパターンを変更することとしても良い。
 例えば、同一の撮像領域に対する観察頻度に応じて、当該撮像領域の表示色を変えても良い。具体的には、観察頻度が高い領域であるほど、展開図Ddev上の撮像領域の色を濃く(輝度を低く、若しくは彩度を高く)し、観察頻度が低い領域であるほど該撮像領域の色を薄く(輝度を高く、若しくは彩度を低く)する。或いは、同一の撮像領域に対する観察時間に応じて、当該撮像領域の表示色を変えても良い。具体的には、観察時間が長い領域であるほど展開図Ddev上の撮像領域の色を濃くし、観察頻度が低い領域であるほど該撮像領域の色を薄くする。また、体内画像の平均色や、該体内画像に写った噴門等の特徴点の種類や、体内画像に対してキャプチャする操作が行われたか否か等によって、これらの体内画像に対応する展開図Ddev上の撮像領域の表示色やパターンを変えても良い。
 以上説明したように、本変形例7-2によれば、臓器モデルの展開図Ddevにおいて、条件に応じて過去の撮像領域R(1)~R(n-1)を表示する色やパターンを変更するので、ユーザは、体内画像の表示済み(観察済み)の臓器内の箇所と、その箇所に対する観察状況を容易に把握することが可能となる。
 なお、図48に示す断面図Dsec-R、Dsec-Lに対して、本変形例7-2と同様の表示を行っても良い。
(変形例7-3)
 次に、実施の形態7の変形例7-3について説明する。
 臓器モデルの展開図Ddevにおいて過去の撮像領域R(1)~R(n-1)に色やパターンを附して表示する際に、展開図Ddevを複数の区画に分割し、分割された区画ごとに、これらの撮像領域R(1)~R(n-1)を表示する色やパターンを変えても良い。
 図49は、本変形例7-3における臓器モデルの展開図Ddevの表示例を示す模式図である。本変形例7-3においては、臓器モデルの展開図Ddevを15個の区画Bに分割した例を示しているが、分割数は15個に限定されない。なお、図49においては、色の違いをパターンの違いで示している。
 このように、臓器モデルの展開図Ddevを分割した区画Bごとに、過去の撮像領域R(1)~R(n-1)を異なる色やパターンで表示することにより、ユーザは、臓器内のどの部分(上部、下部等)の体内画像が表示済み(観察済み)であるかを容易且つ直感的に把握することが可能となる。
 なお、図48に示す断面図Dsec-R、Dsec-Lに対して、本変形例7-3と同様の表示を行っても良い。
(変形例7-4)
 次に、実施の形態7の変形例7-4について説明する。
 臓器モデルの展開図Ddev上の過去の撮像領域R(1)~R(n-1)に体内画像を表示する際、これらの撮像領域R(1)~R(n-1)の周囲に色やパターンを附して表示しても良い。
 この場合、まず、撮像領域履歴取得部821は、臓器モデルの展開図Ddevを複数の区画B(図49参照)に分割し、分割した各区画Bに対し、過去の撮像領域R(1)~R(n-1)の面積の和を算出する。そして、区画Bごとに、当該区画Bの面積に対する撮像領域R(1)~R(n-1)の面積の和の割合を算出する。
 表示制御部434は、撮像領域履歴取得部821が算出した面積の和の割合が所定値以上(例えば80%以上)である区画Bに対し、撮像領域R(1)~R(n-1)以外の領域を所定の色又はパターンで表示する。或いは、面積の和の割合に応じて、撮像領域R(1)~R(n-1)以外の領域における色やパターンを変化させても良い。
 このように、展開図Ddevを分割した区画Bごとに体内画像の表示状況(表示済みの領域の割合)を判別し、この表示状況に応じた色やパターンで撮像領域R(1)~R(n-1)の背景を表示するので、ユーザは、各区画Bに対応する臓器内の領域をどの程度網羅したかを容易且つ直感的に把握することが可能となる。
 なお、図48に示す断面図Dsec-R、Dsec-Lに対して、本変形例7-4と同様の表示を行っても良い。
(変形例7-5)
 次に、実施の形態7の変形例7-5について説明する。
 上記実施の形態7においては、カプセル型内視鏡10Aの位置及び姿勢並びに撮像対象(胃壁)に対する撮像距離に基づいて体内画像の撮像領域を決定し、この撮像領域に対応する臓器モデルの展開図Ddev上の領域に体内画像や特定の色やパターンを附して表示することとした。従って、撮像距離が短いほど、各体内画像の撮像領域に対応する展開図Ddev上の領域は大きくなる。
 しかしながら、体内画像の撮像領域に対応する展開図Ddev上の領域のサイズは、必ずしも撮像距離に対応していなくても良い。例えば、撮像距離によらず、展開図Ddev上の領域のサイズを一定にしても良いし、撮像距離が短いほど、展開図Ddev上の領域のサイズを小さくしても良い。或いは、体内画像の撮像領域に対応する展開図Ddev上の領域の中心点を順次接続することにより、体内画像を既に表示した領域の軌跡を表示しても良い。また、これらの表示形態からユーザが所望の表示形態を選択できるようにしても良い。
 以上説明した実施の形態5~7においては、撮像領域表示領域m20に臓器モデルの展開図Ddev(図47、図49参照)又は断面図Dsec-R、Dsec-L(図48参照)を表示することとしたが、臓器モデルそのものを立体的に表示しても良い。また、撮像領域表示領域m20における表示形態(展開図、断面図、又は立体図)を、操作入力操作16に対する操作に応じて切り替えできるようにしても良い。
 以上説明した実施の形態1~7及びこれらの変形例においては、胃を観察対象として具体例を説明したが、食道、十二指腸、小腸、大腸等の他の臓器(消化管)を観察する場合にも、各実施の形態及び変形例を適用することができる。
 以上説明した実施の形態1~7及びこれらの変形例は、本発明を実施するための例にすぎず、本発明はこれらに限定されるものではない。また、本発明は、各実施の形態1~7や変形例に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明を形成できる。本発明は、仕様等に応じて種々変形することが可能であり、更に本発明の範囲内において、他の様々な実施の形態が可能であることは、上記記載から自明である。
 1 カプセル型内視鏡システム
 2 被検体
 3 ベッド
 10 カプセル型内視鏡
 11 位置検出装置
 11a センスコイル
 12 磁界発生装置
 13 信号処理装置
 14 信号発生装置
 15 受信装置
 15a アンテナ
 16 操作入力装置
 16a、16b ジョイスティック
 16c アップボタン
 16d ダウンボタン
 16e キャプチャボタン
 16f アプローチボタン
 17、20、30、40、50、60、70、80 制御装置
 18 表示装置
 101 カプセル型筐体
 102、103 撮像部
 104 無線通信部
 105 制御部
 106 電源部
 107 磁界発生部
 108 永久磁石
 111 筒状筐体
 112、113 ドーム形状筐体
 114 照明部
 115 光学系
 116 撮像素子
 120 入出力部
 130、410 演算部
 131 画像処理部
 132 位置算出部
 133 軌跡算出部
 140、170、420、810 記憶部
 141 プログラム記憶部
 142 患者情報記憶部
 143 画像データ記憶部
 144 位置情報記憶部
 145 体位モデル記憶部
 146 臓器モデル記憶部
 150、180、430、510、610、710、820 制御部
 151 誘導用磁界制御部
 152 体位判別部
 153 モデル抽出部
 154 表示制御部
 171 キャラクタ記憶部
 181 距離情報取得部
 421 臓器モデル記憶部
 422 展開図記憶部
 431 臓器モデル取得部
 432 撮像領域決定部
 433 展開図取得部
 434 表示制御部
 511 断面図取得部
 611 距離情報取得部
 612、711 モデル形状更新部
 811 撮像領域履歴記憶部
 821 撮像領域履歴取得部

Claims (24)

  1.  被検体内に導入されるカプセル型内視鏡であって、前記被検体内を撮像する少なくとも1つの撮像部と、永久磁石とを有するカプセル型内視鏡と、
     外部からなされる操作に応じた信号を出力する操作入力手段と、
     前記操作入力手段から出力された信号に基づいて前記永久磁石に作用する磁界を発生することにより、前記カプセル型内視鏡を誘導する誘導手段と、
     前記被検体の体位を判別する体位判別手段と、
     検査の間に前記被検体が取り得る複数の体位にそれぞれ対応する複数の体位モデルと、前記検査における撮像対象である臓器を表す複数の臓器モデルであって、前記複数の体位モデルにそれぞれ対応する複数の臓器モデルとを記憶する記憶手段と、
     前記体位判別手段が判別した前記被検体の体位に応じた体位モデルを前記複数の体位モデルから抽出すると共に、抽出した体位モデルに対応する臓器モデルを前記複数の臓器モデルから抽出するモデル抽出手段と、
     前記モデル抽出手段が抽出した前記体位モデルと、前記モデル抽出手段が抽出した前記臓器モデルとの少なくとも1つを表示する表示手段と、
    を備えることを特徴とするカプセル型内視鏡システム。
  2.  外部からなされる操作に応じた第2の信号を出力する第2の操作入力手段をさらに備え、
     前記体位判別手段は、前記第2の操作入力手段から出力された前記第2の信号に基づいて、前記被検体の体位を判別することを特徴とする請求項1に記載のカプセル型内視鏡システム。
  3.  前記表示手段は、前記誘導手段の動作が開始した際に、前記被検体の体位を入力させるダイアログを表示することを特徴とする請求項2に記載のカプセル型内視鏡システム。
  4.  前記被検体にかかる加速度を検出する加速度検出手段をさらに備え、
     前記体位判別手段は、前記加速度の検出結果に基づいて前記被検体の体位を判別することを特徴とする請求項1に記載のカプセル型内視鏡システム。
  5.  前記表示手段は、前記体位モデル及び前記臓器モデルを同時に表示することを特徴とする請求項1~4のいずれか1項に記載のカプセル型内視鏡システム。
  6.  前記誘導手段の動作のオン/オフを切り替える制御手段をさらに備え、
     前記表示手段は、前記誘導手段の動作がオンの場合とオフの場合とで、前記体位モデル及び前記臓器モデルの表示形式を変化させることを特徴とする請求項1~4のいずれか1項に記載のカプセル型内視鏡システム。
  7.  前記表示手段は、
     前記誘導手段の動作がオフの場合、前記体位モデルのみを表示し、
     前記誘導手段の動作がオンの場合、前記体位モデルに前記臓器モデルを重畳して表示する、
    ことを特徴とする請求項6に記載のカプセル型内視鏡システム。
  8.  前記表示手段は、前記誘導手段の動作がオンの場合、前記体位モデル及び前記臓器モデルを拡大して表示することを特徴とする請求項7に記載のカプセル型内視鏡システム。
  9.  前記カプセル型内視鏡の位置及び姿勢を検出する検出手段をさらに備え、
     前記記憶手段は、前記カプセル型内視鏡の模式的な画像の画像データをさらに記憶し、
     前記表示手段は、前記体位モデルと前記臓器モデルとの少なくとも1つに、前記模式的な画像を重畳して表示する、
    ことを特徴とする請求項1~4のいずれか1項に記載のカプセル型内視鏡システム。
  10.  前記誘導手段の動作のオン/オフを切り替える誘導用磁界制御手段をさらに備え、
     前記表示手段は、前記誘導手段の動作がオンの場合において、
     前記誘導手段による誘導が可能となる領域である誘導領域の外部に前記カプセル型内視鏡が位置する場合、前記体位モデルに前記模式的な画像を重畳して表示し、
     前記誘導領域の内部に前記カプセル型内視鏡が位置する場合、前記臓器モデルに前記模式的な画像を重畳して表示する、
    ことを特徴とする請求項9に記載のカプセル型内視鏡システム。
  11.  前記被検体内における前記カプセル型内視鏡の鉛直方向における位置に応じて、前記体位モデルと前記臓器モデルとのうちの少なくとも一方に対する前記模式的な画像の相対的なサイズを変更する表示制御手段をさらに備えることを特徴とする請求項9又は10に記載のカプセル型内視鏡システム。
  12.  前記カプセル型内視鏡と前記被検体内の臓器の壁面との距離を取得する距離取得手段と、
     前記距離に応じて前記臓器モデルと前記模式的な画像との相対的な表示位置を調整する表示制御手段と、
    をさらに備えることを特徴とする請求項9又は10に記載のカプセル型内視鏡システム。
  13.  前記操作入力手段に対する操作量と、前記検出手段により検出された前記カプセル型内視鏡の位置の変化量とに基づいて、前記臓器モデルと前記模式的な画像との相対的な表示位置を調整する表示制御手段をさらに備えることを特徴とする請求項9又は10に記載のカプセル型内視鏡システム。
  14.  前記記憶手段は、各々が前記複数の体位モデルにそれぞれ対応する複数の臓器モデルを含む複数種類の臓器モデルセットを記憶し、
     前記表示手段は、前記複数種類の臓器モデルセットのうち、前記被検体の特性に応じて選択される1つの臓器モデルセットに含まれる臓器モデルを表示する、
    ことを特徴とする請求項1~13のいずれか1項に記載のカプセル型内視鏡システム。
  15.  被検体内に導入されるカプセル型内視鏡であって、前記被検体内を撮像して画像情報を取得する少なくとも1つの撮像手段を有するカプセル型内視鏡と、
     前記画像情報に基づいて表示用の画像情報を生成する画像処理手段と、
     前記表示用の画像情報に基づいて画像を表示する表示手段と、
     前記カプセル型内視鏡の撮像対象の臓器のモデルを記憶する記憶手段と、
     前記カプセル型内視鏡の位置及び姿勢を検出する位置検出手段と、
     前記カプセル型内視鏡と前記モデルとの位置関係及び前記カプセル型内視鏡の姿勢に基づいて、前記撮像手段により撮像された前記臓器内の領域である撮像領域を決定する撮像領域決定手段と、
     前記モデルの展開図又は断面図を取得すると共に、該展開図又は該断面図における前記撮像領域に対応する領域を設定する展開図又は断面図取得手段と、
    を備え、
     前記表示手段は、前記展開図又は前記断面図を表示すると共に、前記撮像領域に対応する該展開図又は該断面図上の領域に前記撮像領域の画像を重畳して表示する、
    ことを特徴とするカプセル型内視鏡システム。
  16.  前記撮像領域決定手段は、前記カプセル型内視鏡と前記モデルとの位置関係及び前記カプセル型内視鏡の姿勢に基づいて、前記撮像手段の撮像光軸に沿った方向における前記撮像手段と前記臓器との間の距離を算出し、該距離と前記撮像手段の視野角とに基づいて前記撮像領域を決定することを特徴とする請求項15に記載のカプセル型内視鏡システム。
  17.  前記被検体内における前記撮像手段と前記臓器との間の距離を表す距離情報を取得する距離情報取得手段と、
     前記距離情報に基づいて前記モデルの形状を更新するモデル形状更新手段と、
    をさらに備え、
     前記撮像領域決定手段は、形状の更新後の前記モデルに対して前記撮像領域を決定し、
     前記展開図又は断面図取得手段は、形状の更新後の前記モデルに対応する前記展開図又は前記断面図を取得し、該展開図又は該断面図に対して前記撮像領域に対応する領域を設定する、
    ことを特徴とする請求項15に記載のカプセル型内視鏡システム。
  18.  前記カプセル型内視鏡は、永久磁石をさらに有し、
     前記カプセル型内視鏡に作用する磁界を発生する磁界発生手段と、
     前記カプセル型内視鏡に作用する磁界を変化させて前記カプセル型内視鏡を誘導するための誘導指示情報を入力する操作入力手段と、
     前記操作入力手段から前記誘導指示情報を入力したにもかかわらず、前記位置検出手段により検出された前記カプセル型内視鏡の位置に変化がない場合に、前記カプセル型内視鏡の位置を前記モデルの壁の位置とするように前記モデルの形状を更新するモデル形状更新手段と、
    をさらに備え、
     前記撮像領域決定手段は、形状の更新後の前記モデルに対して前記撮像領域を決定し、
     前記展開図又は断面図取得手段は、形状の更新後の前記モデルに対応する前記展開図又は前記断面図を取得し、該展開図又は該断面図に対して前記撮像領域に対応する領域を設定する、
    ことを特徴とする請求項15に記載のカプセル型内視鏡システム。
  19.  前記表示手段に表示された画像である表示済み画像の前記撮像領域に関する情報を記憶する撮像領域履歴記憶手段と、
     前記撮像領域に関する情報に基づいて、前記モデルにおける前記表示済み画像の前記撮像領域を決定する撮像領域履歴取得手段と、
    をさらに備え、
     前記展開図又は断面図取得手段は、さらに、前記展開図又は前記断面図における前記表示済み画像の前記撮像領域に対応する領域を設定し、
     前記表示手段は、さらに、前記展開図又は前記断面図上に前記表示済み画像の前記撮像領域に対応する領域を表示する、
    ことを特徴とする請求項15に記載のカプセル型内視鏡システム。
  20.  前記表示済み画像を表す画像情報を記憶する記憶手段をさらに備え、
     前記表示手段は、前記表示済み画像の前記撮像領域に対応する前記展開図又は前記断面図上の領域に、前記表示済み画像を重畳して表示する、
    ことを特徴とする請求項19に記載のカプセル型内視鏡システム。
  21.  前記表示手段は、前記撮像領域決定手段により決定された前記撮像領域に対応する前記展開図又は前記断面図上の領域の輪郭を強調して表示することを特徴とする請求項20に記載のカプセル型内視鏡システム。
  22.  前記表示手段は、前記表示済み画像の前記撮像領域に対応する前記展開図又は前記断面図上の領域に所定の色又はパターンを附して表示することを特徴とする請求項19に記載のカプセル型内視鏡システム。
  23.  前記表示手段は、前記展開図又は前記断面図上の領域を複数の区画に分割し、前記表示済み画像の前記撮像領域に対応する前記展開図又は前記断面図上の領域に対し、分割された前記区画ごとに異なる色又はパターンを附して表示することを特徴とする請求項22に記載のカプセル型内視鏡システム。
  24.  前記撮像領域履歴取得手段は、前記展開図又は前記断面図上の領域を複数の区画に分割した各区画に対し、前記表示済み画像の前記撮像領域に対応する前記展開図又は前記断面図上の領域の面積の和を算出すると共に、当該区画の面積に対する前記和の割合を算出し、
     前記表示手段は、前記各区画における前記表示済み画像の前記撮像領域に対応する領域以外の部分に、当該区画の前記和の割合に応じた色又はパターンを附して表示することを特徴とする請求項20に記載のカプセル型内視鏡システム。
     
PCT/JP2014/072235 2013-08-28 2014-08-26 カプセル型内視鏡システム WO2015029970A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201480047613.9A CN105491936B (zh) 2013-08-28 2014-08-26 胶囊型内窥镜系统
EP14840610.1A EP3040015A4 (en) 2013-08-28 2014-08-26 Capsular endoscopic system
JP2015511846A JP5841695B2 (ja) 2013-08-28 2014-08-26 カプセル型内視鏡システム
US15/053,084 US9517001B2 (en) 2013-08-28 2016-02-25 Capsule endoscope system

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2013-177230 2013-08-28
JP2013-177229 2013-08-28
JP2013177229 2013-08-28
JP2013177230 2013-08-28

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/053,084 Continuation US9517001B2 (en) 2013-08-28 2016-02-25 Capsule endoscope system

Publications (1)

Publication Number Publication Date
WO2015029970A1 true WO2015029970A1 (ja) 2015-03-05

Family

ID=52586527

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/072235 WO2015029970A1 (ja) 2013-08-28 2014-08-26 カプセル型内視鏡システム

Country Status (5)

Country Link
US (1) US9517001B2 (ja)
EP (1) EP3040015A4 (ja)
JP (1) JP5841695B2 (ja)
CN (1) CN105491936B (ja)
WO (1) WO2015029970A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015190186A1 (ja) * 2014-06-10 2015-12-17 オリンパス株式会社 内視鏡システム、内視鏡システムの作動方法
CN105662318A (zh) * 2016-01-08 2016-06-15 大连理工大学 一种空间万向旋转磁场人机交互控制方法
WO2019163890A1 (ja) * 2018-02-21 2019-08-29 オリンパス株式会社 医療システムおよび医療システムの作動方法
WO2021171464A1 (ja) * 2020-02-27 2021-09-02 オリンパス株式会社 処理装置、内視鏡システム及び撮像画像の処理方法
CN113693544A (zh) * 2019-06-17 2021-11-26 深圳硅基智控科技有限公司 胶囊内窥镜系统
WO2023119373A1 (ja) * 2021-12-20 2023-06-29 オリンパスメディカルシステムズ株式会社 画像処理装置、画像処理方法、プログラム、およびプログラムを記録している不揮発性記憶媒体

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6143469B2 (ja) * 2013-01-17 2017-06-07 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
US20160242632A1 (en) * 2013-10-22 2016-08-25 Ganyu Lu System and Method for Capsule Device with Multiple Phases of Density
CN107049211B (zh) * 2017-03-13 2019-02-12 重庆金山医疗器械有限公司 一种测量胶囊式内窥镜与胃壁距离的装置
CN113194840A (zh) * 2018-12-17 2021-07-30 株式会社夏目综合研究所 脑疾病的诊断装置
CN112274096B (zh) * 2020-07-14 2021-05-18 青岛大学附属医院 信号反馈式器官底部辨识系统以及相应终端
US11202558B1 (en) * 2021-05-12 2021-12-21 Shenzhen Jifu Medical Technology Co., Ltd Interactive magnetically controlled capsule endoscope automatic cruise examination system
CN115105221B (zh) * 2022-08-30 2022-11-08 北京精准医械科技有限公司 一种核磁显影标记点结构、调试工装及其制备方法

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60217326A (ja) 1984-04-13 1985-10-30 Olympus Optical Co Ltd 内視鏡装置
JPH11104072A (ja) * 1997-10-03 1999-04-20 Mitsubishi Electric Corp 医療支援システム
JP2003225195A (ja) 2002-02-01 2003-08-12 Pentax Corp 可撓性内視鏡のモニター装置
JP2004321796A (ja) 2003-04-22 2004-11-18 Siemens Ag カプセル形内視鏡装置のためのコンピュータ支援3次元画像形成方法、無線内視鏡装置および医療技術装置
WO2005077253A1 (ja) * 2004-02-18 2005-08-25 Osaka University 内視鏡システム
JP2007319327A (ja) 2006-05-31 2007-12-13 Hitachi Medical Corp 読影支援システム
WO2008062594A1 (en) 2006-11-24 2008-05-29 Olympus Medical Systems Corp. Encapsulated endoscope
WO2008099851A1 (ja) * 2007-02-14 2008-08-21 Olympus Medical Systems Corp. 操作装置、モニタ装置、およびカプセル誘導システム
JP2009213613A (ja) 2008-03-10 2009-09-24 Olympus Medical Systems Corp カプセル誘導システム
JP2010240000A (ja) * 2009-04-01 2010-10-28 Hoya Corp 画像処理装置、画像処理方法、およびシステム
WO2011061968A1 (ja) 2009-11-19 2011-05-26 オリンパスメディカルシステムズ株式会社 医療装置システム、カプセル型医療装置システム、及び被検体の姿勢項目の表示方法
JP2013027697A (ja) * 2011-06-23 2013-02-07 Toshiba Corp 医用画像処理装置及び医用画像診断装置
JP2013085593A (ja) * 2011-10-14 2013-05-13 Toshiba Corp 医用画像表示装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007037846A1 (de) * 2007-08-10 2009-02-19 Siemens Ag Vorrichtung und Verfahren zum Bestimmen einer Position einer medizinischen Einrichtung im Körper eines Lebewesens
US20100010306A1 (en) * 2008-07-08 2010-01-14 Olympus Medical Systems Corp. System for guiding capsule medical device
US8235888B2 (en) * 2008-07-08 2012-08-07 Olympus Medical Systems Corp. System for guiding capsule medical device
US8241206B2 (en) * 2008-07-08 2012-08-14 Olympus Medical Systems Corp. System for guiding capsule medical device
JP4755316B2 (ja) * 2009-11-09 2011-08-24 オリンパスメディカルシステムズ株式会社 カプセル型医療装置用誘導システムおよびカプセル型医療装置の誘導システムの作動方法
DE102010044095A1 (de) * 2010-11-18 2012-05-24 Siemens Aktiengesellschaft Verfahren und Einrichtung zur Durchführung einer endoskopischen Untersuchung mit einer magnetisch gesteuerten Endoskopiekapsel
EP2662016A4 (en) * 2011-01-28 2017-04-12 Olympus Corporation Capsule endoscope system
WO2013164826A1 (en) * 2012-05-04 2013-11-07 Given Imaging Ltd. System and method for automatic navigation of a capsule based on image stream captured in-vivo
US9445711B2 (en) * 2012-05-09 2016-09-20 Carnegie Mellon University System and method to magnetically actuate a capsule endoscopic robot for diagnosis and treatment
JP5548318B2 (ja) * 2012-05-14 2014-07-16 オリンパスメディカルシステムズ株式会社 カプセル型医療装置及び医療システム

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60217326A (ja) 1984-04-13 1985-10-30 Olympus Optical Co Ltd 内視鏡装置
JPH11104072A (ja) * 1997-10-03 1999-04-20 Mitsubishi Electric Corp 医療支援システム
JP2003225195A (ja) 2002-02-01 2003-08-12 Pentax Corp 可撓性内視鏡のモニター装置
JP2004321796A (ja) 2003-04-22 2004-11-18 Siemens Ag カプセル形内視鏡装置のためのコンピュータ支援3次元画像形成方法、無線内視鏡装置および医療技術装置
WO2005077253A1 (ja) * 2004-02-18 2005-08-25 Osaka University 内視鏡システム
JP2007319327A (ja) 2006-05-31 2007-12-13 Hitachi Medical Corp 読影支援システム
WO2008062594A1 (en) 2006-11-24 2008-05-29 Olympus Medical Systems Corp. Encapsulated endoscope
WO2008099851A1 (ja) * 2007-02-14 2008-08-21 Olympus Medical Systems Corp. 操作装置、モニタ装置、およびカプセル誘導システム
JP2009213613A (ja) 2008-03-10 2009-09-24 Olympus Medical Systems Corp カプセル誘導システム
JP2010240000A (ja) * 2009-04-01 2010-10-28 Hoya Corp 画像処理装置、画像処理方法、およびシステム
WO2011061968A1 (ja) 2009-11-19 2011-05-26 オリンパスメディカルシステムズ株式会社 医療装置システム、カプセル型医療装置システム、及び被検体の姿勢項目の表示方法
JP2013027697A (ja) * 2011-06-23 2013-02-07 Toshiba Corp 医用画像処理装置及び医用画像診断装置
JP2013085593A (ja) * 2011-10-14 2013-05-13 Toshiba Corp 医用画像表示装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3040015A4

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015190186A1 (ja) * 2014-06-10 2015-12-17 オリンパス株式会社 内視鏡システム、内視鏡システムの作動方法
JP5945643B2 (ja) * 2014-06-10 2016-07-05 オリンパス株式会社 内視鏡システム、内視鏡システムの作動方法
JPWO2015190186A1 (ja) * 2014-06-10 2017-04-20 オリンパス株式会社 内視鏡システム、内視鏡システムの作動方法
EP3095377A4 (en) * 2014-06-10 2017-09-13 Olympus Corporation Endoscope system and endoscope system operation method
US9918614B2 (en) 2014-06-10 2018-03-20 Olympus Corporation Endoscope system with angle-of-view display information overlapped on three-dimensional image information
CN105662318A (zh) * 2016-01-08 2016-06-15 大连理工大学 一种空间万向旋转磁场人机交互控制方法
WO2019163890A1 (ja) * 2018-02-21 2019-08-29 オリンパス株式会社 医療システムおよび医療システムの作動方法
US20200367733A1 (en) 2018-02-21 2020-11-26 Olympus Corporation Medical system and medical system operating method
JPWO2019163890A1 (ja) * 2018-02-21 2021-02-04 オリンパス株式会社 医療システムおよび医療システムの作動方法
JP6990292B2 (ja) 2018-02-21 2022-01-12 オリンパス株式会社 医療システムおよび医療システムの作動方法
US11800966B2 (en) 2018-02-21 2023-10-31 Olympus Corporation Medical system and medical system operating method
CN113693544A (zh) * 2019-06-17 2021-11-26 深圳硅基智控科技有限公司 胶囊内窥镜系统
CN113693544B (zh) * 2019-06-17 2023-06-13 深圳硅基智控科技有限公司 胶囊内窥镜系统
WO2021171464A1 (ja) * 2020-02-27 2021-09-02 オリンパス株式会社 処理装置、内視鏡システム及び撮像画像の処理方法
WO2023119373A1 (ja) * 2021-12-20 2023-06-29 オリンパスメディカルシステムズ株式会社 画像処理装置、画像処理方法、プログラム、およびプログラムを記録している不揮発性記憶媒体

Also Published As

Publication number Publication date
CN105491936B (zh) 2017-08-22
EP3040015A4 (en) 2017-04-19
EP3040015A1 (en) 2016-07-06
JPWO2015029970A1 (ja) 2017-03-02
JP5841695B2 (ja) 2016-01-13
CN105491936A (zh) 2016-04-13
US20160166133A1 (en) 2016-06-16
US9517001B2 (en) 2016-12-13

Similar Documents

Publication Publication Date Title
JP5841695B2 (ja) カプセル型内視鏡システム
JP4932971B2 (ja) カプセル型医療装置用誘導システム
JP5475207B1 (ja) 誘導装置及びカプセル型医療装置誘導システム
EP2430979B1 (en) Biopsy support system
US8444550B2 (en) Capsule medical device guidance system and method for guiding capsule medical device
US8243130B2 (en) Capsule medical device guidance system
JP2009213613A (ja) カプセル誘導システム
JP5335162B2 (ja) カプセル型内視鏡システム、画像表示装置の作動方法、及び画像表示プログラム
CN111067468B (zh) 用于控制内窥镜系统的方法、设备及存储介质
CN112089386B (zh) 胶囊内窥镜系统
US9931022B2 (en) Capsule medical device guidance system
JPWO2016111160A1 (ja) 誘導装置及びカプセル型医療装置誘導システム
JP6028131B1 (ja) カプセル型内視鏡システムおよび磁界発生装置
JPWO2016067802A1 (ja) カプセル型内視鏡誘導システム、誘導装置、及び誘導装置の作動方法
US20170020375A1 (en) Capsule medical device guide system
JPWO2016157596A1 (ja) カプセル型内視鏡誘導システムおよびカプセル型内視鏡誘導装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201480047613.9

Country of ref document: CN

ENP Entry into the national phase

Ref document number: 2015511846

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14840610

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

REEP Request for entry into the european phase

Ref document number: 2014840610

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2014840610

Country of ref document: EP