WO2005053518A1 - 表示処理装置 - Google Patents

表示処理装置 Download PDF

Info

Publication number
WO2005053518A1
WO2005053518A1 PCT/JP2004/018170 JP2004018170W WO2005053518A1 WO 2005053518 A1 WO2005053518 A1 WO 2005053518A1 JP 2004018170 W JP2004018170 W JP 2004018170W WO 2005053518 A1 WO2005053518 A1 WO 2005053518A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
processing
image information
display
information
Prior art date
Application number
PCT/JP2004/018170
Other languages
English (en)
French (fr)
Inventor
Katsumi Hirakawa
Masanao Hara
Original Assignee
Olympus Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2003408233A external-priority patent/JP4139319B2/ja
Priority claimed from JP2004028579A external-priority patent/JP3984230B2/ja
Application filed by Olympus Corporation filed Critical Olympus Corporation
Priority to EP04819963A priority Critical patent/EP1690491A4/en
Publication of WO2005053518A1 publication Critical patent/WO2005053518A1/ja
Priority to US11/418,534 priority patent/US8368746B2/en

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/041Capsule endoscopes for imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/273Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the upper alimentary canal, e.g. oesophagoscopes, gastroscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/061Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00011Operational features of endoscopes characterised by signal transmission
    • A61B1/00016Operational features of endoscopes characterised by signal transmission using wireless means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/31Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the rectum, e.g. proctoscopes, sigmoidoscopes, colonoscopes

Definitions

  • the present invention relates to a technique for displaying and processing a plurality of pieces of image information obtained by imaging over time, moving autonomously or autonomously within a subject, such as a capsule endoscope, and the like.
  • the present invention also relates to a technique for managing continuous photographed image data acquired by such a natural movement type photographing apparatus.
  • Lesions of body lumens such as the esophagus and gastrointestinal tract include, for example, bleeding, tissue disorders, angiogenesis, Crohn's disease, polyps, and the like. Causes changes in surface structure.
  • a transmitter with an imaging function is sent into a body lumen to search for the presence or absence of a lesion and the cause of the lesion, and imaged image data transmitted from the transmitter with the imaging function is received.
  • a processing device has been proposed that compares a received image with at least one reference value to determine whether there is a colorimetric abnormality or not and to generate an index of the probability that a lesion exists.
  • This device is a so-called capsule endoscope, which is a swallowable endoscope.
  • the capsule endoscope has an imaging function and a wireless communication function, and after being swallowed from a patient's mouth for observation or examination, an observation period until human body power is naturally discharged, It sequentially images organs such as the stomach and small intestine, and sequentially wirelessly transmits image information (electronic data representing images).
  • the image information wirelessly transmitted as described above is received by a receiver provided outside the patient's body and is stored in a predetermined memory. Thereafter, the image information is read out as necessary and displayed on a display. By displaying the information, it can be used for doctor's diagnosis.
  • the observation or inspection period may be long, for example, 10 hours or more, and the number of pieces of image information obtained by imaging during this period is enormous.
  • a first object to be achieved by the present invention is that, in view of the above-mentioned conventional circumstances, a large number of image information can be easily grasped, and a large number of image information can be obtained. It is an object of the present invention to provide an image information display processing device, a display processing method, and a display processing program that can easily find image information of a position, a diseased part, and the like that have been captured.
  • Patent Document 1 focuses on generating an index of the probability that a lesion exists by praying for colorimetric abnormalities.
  • the force and the position of the image and capsule transmitter with imaging function, capsule endoscope
  • the description of how to display the image and the position of the capsule there is no operational description of such a processor for displaying such images and capsule positions on a single monitor. Therefore, it is difficult to display the image and the position of the capsule on a single monitor using only the apparatus method described in this document.
  • the progress of a process is generally displayed using a progress bar.
  • the progress mark in the horizontal bar changes from left to right in accordance with the progress of the process.
  • the downward force also increases.
  • the process is completed when the increase is completed until the end of the bar.
  • a display with the progress bar allows the user to know the passage of time or the percentage of the whole process that has been completed, but cannot know the current processing position in the processing target.
  • a second object to be achieved by the present invention is to associate continuously captured image data acquired by a naturally moving image capturing apparatus with attention position information of the naturally moving image capturing apparatus in view of the above-described conventional situation.
  • a continuous image filling device that allows the progress of the image processing to be easily visually recognized.
  • Patent Document 1 U.S. Patent Application Publication No. 2002Z0177779A1
  • a display processing device is obtained by first capturing images at a plurality of positions in the subject over time by the imaging device introduced into the subject of the first invention.
  • a display processing device for displaying the plurality of pieces of image information on the display unit, wherein the image information acquiring unit acquires the plurality of pieces of image information, and the image capturing apparatus is associated with each of the plurality of pieces of image information.
  • a position information acquisition unit that acquires a plurality of position information regarding each position in the subject imaged with time, and based on the plurality of position information, based on the plurality of position information, A position information display unit for displaying a position in the subject as at least a one-dimensional diagram on the display unit, and a target position information indicating unit for specifying at least one of the plurality of position information as target position information And the above diagram Of the plurality of position information shown, configured to have an image display unit for the image information associated with positional information indicated as the target position information displayed on the display unit.
  • the image information display processing device may include, among the plurality of pieces of position information displayed as a diagram by the position information display unit, a predetermined position in the diagram corresponding to the noted position information. It further comprises a position mark display section for displaying a mark.
  • the image information display processing device further includes a storage unit that stores, for example, the plurality of pieces of image information and the plurality of pieces of position information, and the image display unit is instructed as the attention position information.
  • the image information associated with the position information is read out from the storage unit and displayed on the display unit.
  • the target position information indicating unit is, for example, the above-mentioned scheme by the position information display unit. And a designated position input unit for designating arbitrary position information on the diagram as the attention position information from the plurality of position information displayed.
  • the image information display processing device further includes, for example, a characteristic image detection unit that extracts image information having a predetermined characteristic portion from the plurality of image special information, and the attention position information instruction unit. Is configured to indicate the position information as the noted position information in association with the image information having the predetermined characteristic extracted by the characteristic image detection unit.
  • a display processing method of image information which is another aspect of the present invention, displays on a display screen of a monitor device a plurality of image information obtained by sequentially capturing images at a plurality of positions in a subject.
  • the display processing method of the image information includes, for example, a method of, among the plurality of pieces of position information displayed as the diagram in the position information display step, a position corresponding to the noted position information in the diagram.
  • the method further includes a position mark display step of displaying a predetermined mark.
  • the image information display processing method further includes, for example, a storage step of storing the plurality of pieces of image information and the plurality of pieces of position information, and the image display step is instructed as the attention position information.
  • the image information associated with the position information is read from the storage step and displayed in the display step.
  • the noted position information designating step includes, for example, selecting arbitrary position information on the diagram from the plurality of position information displayed as the diagram in the position information display step. It further includes a designated position input step of designating as the noted position information.
  • the image information display processing method further includes, for example, a characteristic image detecting step of extracting image information having a predetermined characteristic portion from the plurality of image special information.
  • the position information is designated as the position information of interest based on the image information having the predetermined characteristic extracted in the characteristic image detecting step.
  • a recording medium is a computer-readable storage medium that stores a plurality of pieces of image information obtained by sequentially capturing images at a plurality of positions in a subject on a display screen of a monitor device.
  • a position information acquisition process for acquiring a plurality of pieces of position information regarding respective positions imaged in the subject over time, and a position imaged in the subject over time based on the plurality of pieces of position information.
  • Position information display processing for displaying at least a one-dimensional diagram, attention position information indication processing for indicating at least one of the plurality of pieces of position information as attention position information, And displaying the image information associated with the position information designated as the target position information out of the plurality of pieces of position information displayed as the target position information.
  • the image information display processing program may include, among the plurality of pieces of position information displayed as a diagram in the position information display process, a predetermined position in the diagram corresponding to the target position information. It is configured to further cause the computer to execute a position mark display process for displaying a mark.
  • the image information display processing program further includes, for example, a storage process of storing the plurality of pieces of image information and the plurality of pieces of position information, and the image display processing is instructed as the attention position information. It is configured to cause the computer to read out the image information associated with the obtained position information and display the image information in the display processing.
  • the target position information indicating process is performed, for example, by performing the above-described diagram by the position information display process. And a designated position input process for designating any position information on the diagram as the noted position information from the plurality of position information displayed as.
  • the image information display processing program further includes, for example, a characteristic image detection process of extracting image information having a predetermined characteristic portion from the plurality of image special information, and The processing is configured to cause the computer to indicate the position information as the target position information based on the image information having the predetermined characteristic extracted in the characteristic image detection processing.
  • an image filling device for a capsule endoscope in which a capsule endoscope moving in a subject at predetermined time intervals continuously captures images.
  • An image filling apparatus for a capsule endoscope that processes acquired continuous image data, and focuses on any one position from one or more position information regarding the position in the subject at which the continuous image data was acquired.
  • a target position information obtaining unit that obtains position information
  • an image information obtaining unit that obtains image information corresponding to the position specified as the target position information from the continuous image data, and one or more positions in the subject
  • a position display unit that displays information as at least one-dimensional graphic
  • an image information processing unit that performs predetermined processing on the image information acquired by the image information acquisition unit
  • the position of the target position information acquired by the target position information acquisition unit is superimposed and displayed on the above-mentioned diagram displayed by the position display unit, and the image information processing unit processes the target position information by changing the display on the diagram.
  • Q configured with a, and Susumu ⁇ information display unit for notifying the progress of
  • the position display unit is configured to display, for example, a passage of the capsule endoscope in a body lumen in a body and to display an average position of an internal organ as a background of the passage. You.
  • the progress information display unit is configured to superimpose a display for notifying the progress degree on a display by the position display unit together with a processing result by the image information processing unit.
  • This image filing apparatus for a capsule endoscope is, for example, an image information displaying image information corresponding to the processing of the image information processing unit as the processing of the image information processing unit proceeds.
  • An information display unit is provided.
  • the image information display unit is configured to display, for example, a processing result of the image information processing unit in a form superimposed on the display of the image information.
  • the image information is configured to be updated and displayed at predetermined time intervals.
  • the image filling device for a capsule endoscope has, for example, an instruction input unit for receiving an instruction from the device operator, and the image information processing unit is configured to perform an operation based on an input result by the instruction input unit. Then, it is configured to control the image information processing.
  • control of the image information processing in the image information processing unit based on the input result from the instruction input unit is, for example, the end of the processing, and is, for example, the suspension of the processing. And, for example, a change of image information to be processed.
  • the content of the processing in the capsule endoscope image filling device described above is a capsule endoscope image filling processing method which is one of still another aspect of the present invention.
  • the recording medium on which the program for executing the above-described processing is recorded is a recording medium which is one of further aspects of the present invention.
  • FIG. 1 is a diagram showing a schematic configuration of a capsule endoscope image filing system according to the present invention.
  • FIG. 2A is a diagram showing a first example of a body lumen model of a subject displayed on a display screen of a capsule endoscope captured image filing system.
  • FIG. 2B is a diagram showing a first example of an in-subject model and an image of an examinee displayed on the same display screen of a workstation monitoring device in the capsule endoscope image filing system of the present invention. It is.
  • FIG. 2C is a diagram showing a second example of an in-subject model and an image of an examinee displayed on the same display screen of a workstation monitoring device in the capsule endoscope image filing system of the present invention. It is.
  • FIG. 2D The in-subject model and the image of the subject displayed on the same display screen of the monitor device of the workstation in the capsule endoscope image filing system of the present invention. It is a figure showing the 3rd example of an image.
  • FIG. 3 is a flowchart illustrating an image processing operation of the capsule endoscope image filling system according to the present invention in the first embodiment.
  • FIG. 4A is a model of the digestive tract of a subject displayed on the same display screen of a monitor device of a workstation in a capsule endoscope image filing system according to the second to fifth embodiments of the present invention.
  • FIG. 4 is a diagram showing a first example of an image.
  • FIG. 4B is a model of the digestive tract of the subject displayed on the same display screen of the monitor device of the workstation in the capsule endoscope image filing system according to the second to fifth embodiments of the present invention.
  • FIG. 7 is a diagram showing a second example of a picture and an image.
  • FIG. 4C is a model of the digestive tract of the subject displayed on the same display screen of the monitor device of the workstation in the capsule endoscope image filing system according to the second to fifth embodiments of the present invention.
  • FIG. 7 is a diagram showing a third example of a picture.
  • FIG. 4D A model in the digestive tract of the subject displayed on the same display screen of the monitor device of the workstation in the capsule endoscope image filing system according to the second to fifth embodiments of the present invention.
  • FIG. 14 is a diagram showing a fourth example of a frame and an image.
  • FIG. 5 is a capsule endoscope image according to the second embodiment of the present invention:
  • FIG. 6 is a capsule endoscope image according to a third embodiment of the present invention:
  • FIG. 7 is a flowchart illustrating another example of the image processing operation according to the third embodiment.
  • FIG. 8 A capsule endoscope image according to the present invention in a fourth embodiment:
  • FIG. 9 is a capsule endoscope image according to a fifth embodiment of the present invention:
  • FIG. 10A is a diagram showing a second example of the body lumen model of the subject displayed on the display screen of the capsule endoscope captured image filing system.
  • FIG. 10B A workstation in the capsule endoscope image filing system of the present invention.
  • FIG. 14 is a diagram illustrating a fourth example of the in-subject model and the image of the subject displayed on the same display screen of the monitor device of Chillon.
  • FIG. 10C is a diagram showing a fifth example of the in-subject model and the image of the subject displayed on the same display screen of the workstation monitor device in the capsule endoscope image filing system of the present invention. It is.
  • FIG. 11 is a flowchart illustrating an image processing operation of a capsule endoscope captured image filing system according to the present invention in a sixth embodiment.
  • FIG. 12A A body lumen model of a subject displayed on the same display screen of a monitor device of a workstation in a capsule endoscope imaging image filing system according to the seventh to tenth embodiments in the seventh to tenth embodiments.
  • FIG. 7 is a diagram showing a first example of a captured image
  • FIG. 12B a body lumen of a subject to be displayed on the same display screen of a monitor device of a workstation in a capsule endoscope image pickup image filing system according to the present invention.
  • FIG. 9 is a diagram illustrating a second example of a model and a captured image.
  • FIG. 13 is a flowchart illustrating an image processing operation of a capsule endoscope captured image filing system according to the present invention in a seventh embodiment.
  • FIG. 14 is a flowchart illustrating an image processing operation of a capsule endoscope captured image filing system according to the present invention in an eighth embodiment.
  • FIG. 15 is a flowchart illustrating an image processing operation of the capsule endoscope captured image filing system according to the ninth embodiment of the present invention.
  • the subject is, for example, the subject 4, the imaging device is, for example, the capsule endoscope 3, the display unit is, for example, the monitor device 21, and the above display is performed.
  • the processing device is, for example, the workstation 7, the image information is, for example, image data, the image information acquiring unit is, for example, the antenna 11, and the position information is, for example, the passing trajectory 37 or the position data.
  • the position information acquisition unit is, for example, the antenna 11 that acquires position data for constructing the passing trajectory 37.
  • the position information display section is, for example, the monitor device 21 and the object model 27, the passing trajectory 37, the position mark 39, the second position mark 44, and the like displayed on the monitor device 21.
  • the position information indicating unit of interest is, for example, a position mark 39
  • the image display unit and the position mark display unit are, for example, the monitor device 21, and the storage unit.
  • the above scheme is, for example, an in-vivo model 26
  • the designated position input unit is, for example, a keyboard 22, a mouse 23, and the feature image detection unit is, for example, a workstation 7. It is.
  • the subject in the capsule-type endoscope image filing apparatus described above is composed of, for example, the subject 4 and the continuous image data is composed of, for example, a capsule-type.
  • the image data of the endoscope 3 and the like are also formed, and the position information is formed of image pickup position data of the image data. This is displayed as a passage 37 of the capsule endoscope 3 as a diagram of one or more dimensions. Further, the attention position information is one of the position information that is the imaging position data of the imaging image data.
  • the attention position information acquisition unit includes, for example, an antenna 11, a receiver 6, and the like, the image information includes, for example, captured image data, and the like, and the image information acquisition unit includes, for example, the antenna 11, the receiver 6, a workstation 7, and the like.
  • the one-dimensional or more graphical representation also includes, for example, the body lumen model 26, the position display unit includes, for example, the display screen 38 of the monitor device 21, the image information processing unit includes, for example, the main unit 19 of the workstation 7, and the like.
  • the position of the target position information is composed of, for example, a position mark 39
  • the display for informing the progress of the processing is composed of, for example, the position mark 39, the passage 37, and the like
  • the traveling information display unit is, for example, a display screen 38 of the monitor device 21.
  • the image information display section is composed of, for example, an image display area 41 of a display screen 38 of the motor device 21 and the processing result is composed of a special image 42, for example.
  • the control of image information processing is, for example, the processing shown in the flowcharts of FIGS. 3, 5-9, 11, and 13-15.
  • FIG. 1 shows a capsule endoscope system according to the present invention and a capsule endoscope system included therein. It is a figure showing the schematic structure of an endoscope image filing system.
  • the capsule endoscope system 1 of the present example is composed of a capsule endoscope 3 housed in a package 2, a patient taking the capsule endoscope 3 taken out of the package 2, that is, a patient to be examined. 4, a jacket 5 worn by the subject 4, and a receiver 6 detachable from the jacket 5.
  • the capsule endoscope image filing system 20 includes a workstation 7 that stores and edits image data received by the receiver 6, and processes the image data received by the receiver 6 via a network 8. And connected to the database 9. Note that the database 9 may be built in the workstation 7.
  • an imaging unit Inside the capsule endoscope 3, an imaging unit, a radio unit, and a power supply are provided.
  • the capsule endoscope 3 is swallowed from the mouth of the subject 4 for observation or examination, and is discharged from the body during the period from the swallowing to the esophagus, stomach, small intestine, large intestine, etc.
  • Image data obtained by sequentially imaging the inside of the digestive tract over time is wirelessly transmitted from the wireless unit to the outside as radio waves.
  • the jacket 5 worn by the subject 4 has a plurality of (four in the example in the figure) antennas that capture the transmitted radio waves of the image data in which the radio power of the capsule endoscope 3 is also transmitted. (11a, llb, llc, lid) are provided. These antennas 11 enable wireless or wired communication with the receiver 6.
  • the number of antennas 11 is not particularly limited to four, but may be any appropriate number. The point is that the number of arrangements can be good enough to receive the transmitted radio wave according to the position accompanying the movement of the capsule endoscope 3.
  • the receiver 6 includes an antenna 12 used when image data is received by radio waves from the jacket 5 via the antenna 11 via the antenna 11, and a display unit for displaying information necessary for observation or inspection. 13 and an input unit 14 for inputting information necessary for observation or examination.
  • a power supply unit 15 is provided below the receiver 6 so as to be able to supply power even when being carried.
  • the power supply unit 15 is composed of, for example, a dry battery, a Li (lithium) ion secondary battery, a Ni (nickel) hydrogen battery, or the like (of course, other types of batteries may be used).
  • a signal processing / control unit 16 for performing processing necessary for observation or inspection is provided, and a CF (Compact Flash (registered trademark)) for storing received image data is further provided.
  • a mounting section 18 for detachably mounting the memory 17 as shown by a double-headed arrow a in the figure is provided.
  • the workstation 7 includes a main body device 19, a monitor device 21, a keyboard 22, a mouse 23, and the like connected to the main body device 19, and the main body device 19 is not particularly shown. Have various interfaces in addition to the interface for connecting to the network 8 described above, and a printer 24 and a CF memory reader / writer 25 are connected to the power of the receiver 6 via these interfaces. Have been.
  • the workstation 7 has an image processing function for displaying an image in the digestive tract of the subject 4 taken by the doctor or nurse power S-capsule endoscope 3 on the monitor device 21 to perform diagnosis or the like. Have.
  • the doctor or nurse performs an input operation using the keyboard 22 or the mouse 23 on the man-machine interface displayed on the monitor device 21 of the workstation 7 while transmitting the input from the capsule endoscope 3. It is possible to give an instruction to capture the image data in the body lumen of the subject 4 received by the receiver 6 from the receiver 6.
  • the doctor or nurse instructs to store the imaging screen data captured from the receiver 6 in the database 9 as described above, calls up the image data stored in the database 9, and displays the image data on the display screen of the monitor device 21.
  • the user can give an instruction to display an image relating to image data, which will be described later, an instruction to record a medical examination result based on image observation in the database 9, and an instruction to print a medical chart or the like by the printer 24.
  • the workstation 7 includes a computer having a very standard configuration, that is, a central processing unit (CPU) that controls each component by executing a control program, a ROM, a RAM, and a magnetic storage device.
  • the storage of control programs that cause the CPU to control each component, the work area when the CPU executes the control programs, and various data A storage unit used as a storage area for the user, an input unit for acquiring various data corresponding to a user operation, an output unit for presenting various data to a display or the like to notify the user, and other devices.
  • a computer provided with an IZF unit that provides an interface function for data transfer with the IZF. In order for a computer having such a standard configuration to perform the processes shown in the flowcharts of FIGS.
  • a control program that causes the computer to execute the processing of the procedure may be created and recorded on the computer-readable recording medium 100, and the control program may be read from the recording medium 100 and executed by the CPU of the computer.
  • the recording medium 100 on which the recorded control program can be read by a computer includes, for example, a memory such as a RAM or ROM or a hard disk device provided as an internal or external accessory device in the computer, or an FD ( Portable recording media such as flexible disks, MOs (magneto-optical disks), CD-ROMs, DVD-ROMs, etc. can be used.
  • a memory such as a RAM or ROM or a hard disk device provided as an internal or external accessory device in the computer
  • FD Portable recording media such as flexible disks, MOs (magneto-optical disks), CD-ROMs, DVD-ROMs, etc. can be used.
  • the recording medium 100 may be a storage device provided in a computer that functions as a program server and is connected to the computer via a line.
  • a transmission signal obtained by modulating a carrier with a data signal representing a control program is transmitted from a program server through a communication line as a transmission medium, and a computer demodulates the received transmission signal. Then, by reproducing the control program, the control program can be executed.
  • the power of the capsule endoscope system and the capsule endoscope image filing system is not limited to this. No.
  • FIGS. 2A, 2B, 2C, and 2D show the force display according to the first embodiment on the same display screen 38 of the monitor device 21 of the workstation 7 in the pusher-type endoscope image filing system.
  • FIG. 2A is a diagram showing an example of an in-subject model 26 and an image 42 of the subject 4 to be inspected.
  • FIGS. 2B, 2C, and 2D are diagrams showing an in-sample model, and are diagrams showing examples of images displayed on the same display screen of the monitor device 21 together with the in-subject model. 2B, 2C, and 2D schematically show the in-subject model shown in FIG. 2A for convenience of explanation.
  • a subject model 27 and a digestive tract model 28 of the subject 4 are displayed as a schematic two-dimensional diagram as the in-subject model 26 of the subject 4.
  • gastrointestinal tract model 28 gastrointestinal tracts such as the esophagus 31, the stomach 32, the duodenum 33, the small intestine 34, the large intestine 35, and the rectum 36 are shown in a schematic diagram.
  • a passing locus 37 is displayed as positional information on the position where the capsule endoscope 3 has passed and imaged.
  • the above scheme is not limited to two dimensions.
  • the display screen 38 of the monitor device 21 displays the above-described in-vivo model 26 on the left side of the same screen on the same screen.
  • a position mark 39 is superimposed and displayed as a predetermined mark on the passage locus 37 of the pusher endoscope 3 to indicate a position corresponding to the imaging position in the specimen.
  • the image display area 41 on the right side where the in-vivo model 26 is displayed the in-vivo object corresponding to the position mark 39 or the position on the passing trajectory 37 corresponding to the processing described later in detail is displayed.
  • An image 42 captured at the position is displayed.
  • FIG. 2C shows an example in which a pointing arrow 43 is displayed by operating the mouse 23 as a designated position input unit pointing the position mark 39, and FIG. The first and next two pointing arrows 43 (43-1, 4 3-2) will be displayed!
  • FIG. 3 is a flowchart illustrating an image processing operation according to the first embodiment.
  • This image processing is built in the main unit 19 based on an instruction input from the keyboard 22 or the mouse 23 of the workstation 7 shown in FIG. 1 by a doctor or a nurse! This is a process performed by a control device (hereinafter, simply referred to as a CPU).
  • a control device hereinafter, simply referred to as a CPU.
  • the following work is performed. That is, the subject 4
  • the capsule endoscope 3 is further removed from the package 2, and the power switch built in the capsule endoscope 3 is turned on. Then, after the capsule endoscope 3 is swallowed by the subject 4 and moves by the peristaltic motion of the digestive tract and is discharged out of the body, the imaging unit of the capsule endoscope 3 is used.
  • the inside of the digestive tract of the subject 4 is continuously imaged, and a plurality of continuous image data is obtained over time.
  • the captured image data is transmitted on the radio signal of the capsule endoscope 3 on a radio signal, and this signal is transmitted by the antenna 11 (1 la, l ib, l lc, l id) of the jacket 5. Received. This received signal is transferred to the receiver 6.
  • the signal strength and the signal content (image data) of the signal received by each antenna 11 are set as one set while sequentially cycling and switching the reception from each antenna 11 at predetermined time intervals.
  • a signal for one frame is sequentially generated.
  • signals for four frames are generated.
  • the generated signals for four frames are sequentially stored in the CF memory 17.
  • the processing on the receiver 6 side is repeated for each imaging during the imaging period by the capsule endoscope 3.
  • the CPU first reads image data and position data (S1).
  • the CPU transmits the signal recorded in the CF memory 17 directly from the receiver 6 by wire or from the CF memory 17 taken out of the receiver 6 and attached to the CF memory reader / writer 25. Read out every frame. Then, image data is read from the received signals of these four frames, and furthermore, the transmission position of the radio wave including the image data is calculated from the signal strength at each antenna, and position data relating to the calculated imaging position is obtained.
  • the antenna having the highest signal strength of the received signal may be regarded as the position data without calculating the transmission position! /.
  • the CPU stores the image data and the position data acquired as described above in association with each other (S2).
  • This process is a process of registering the image data and the position data which are related to each other as a set in the database 9 as a record.
  • the CPU displays the position information (S3).
  • This processing is displayed on the display screen of the monitor device 21 of the workstation 7 as shown in FIGS.
  • the capsule endoscope 3 is passed into the subject from the position data obtained in the process S1 on the digestive tract model 28 of the in-subject model 26 as shown in FIGS. 2C and 2D.
  • This is a process of displaying the position information corresponding to the position in the subject, that is, the passing locus 37. That is, it indicates the passing trajectory 37 of the capsule endoscope 3 in the intra-subject model 26 with the temporal change force of the positional information.
  • the CPU displays the attention position information (S4).
  • This processing is to superimpose on the position information on the display screen of the monitor device 21, that is, on the display of the passing locus 37, to indicate that the part is to be noticed at the time of diagnosis by the doctor or nurse, that is, the noticed position information
  • This is a process of displaying a position mark 39 (see FIG. 2B, FIG. 2C, and FIG. 2D) that indicates that the information is ".”
  • the position mark 39 is located at the position on the display of the passing trajectory 37 indicating the position information at the time of the first imaging after the capsule endoscope 3 started imaging. Is now displayed! /
  • the CPU displays an image corresponding to the target position information (S5).
  • the CPU combines the position data corresponding to the position information at the position on the passage locus 37 specified as the above-mentioned target position information with the image data as a data in one record. Based on the data of this one record, for example, as shown in FIG. 2B, an image 42 obtained from the image data corresponding to the position on the passing locus 37 displaying the position mark 39 is displayed. The image is displayed in the image display area 41 on the right side of the screen 38.
  • the CPU determines whether or not a new attention position has been designated and whether or not a force has been applied (S6).
  • This processing is performed by operating the mouse 23 of the workstation 7 by the doctor or the nurse on the passing locus 37 displayed on the displayed intra-subject model 26 as shown in FIG. Is a process for determining whether or not a desired position to be noted in diagnosis or the like has been designated.
  • the process returns to the process S4 to execute the process of the process S4. That is, the position to be noted is specified by the pointing arrow 43! /, And a position mark 39 indicating that the position has been designated as the noted position information is superimposed on the position on the passing locus 37.
  • the CPU searches the database 9 and designates the target position by the pointing arrow 43! /, And records a record having position data corresponding to the position on the passing locus 37 in the database 9
  • the position mark 39 is superimposed on the position on the passage locus 37 indicated by the target position information, that is, the position on the passage locus 37 designated by the pointing arrow 43 as shown in FIG. 2C.
  • the doctor or nurse indicates an arbitrary position on the passage locus 37 with a pointing arrow 43 and left-clicks the mouse 23 to position.
  • a mark 39 is displayed on the passing locus 37.
  • the above-mentioned process of terminating the application is performed, for example, by preparing a menu item (not shown) on the display screen 38 and selecting the “end” item in the menu item with the mouse 23. Be executed.
  • the doctor or the nurse powers the pointing arrow 43 by operating the mouse 23 while looking at the display screen toward the monitor device 21 of the workstation 7 while moving the pointing arrow 43 on the passage locus 37 of the intra-subject model 26.
  • a position mark 39 is superimposed on the designated position, and an image corresponding to the position is displayed in the left area on the same display screen.
  • FIGS. 4A, 4B, 4C, and 4D relate to the present invention in the second to fifth embodiments.
  • FIG. 14 is a diagram showing an example of an intra-subject model 26 and an image 42 of the subject 4 displayed on the same display screen 38 of the motor device 21 of the workstation 7 in the capsule endoscope image filing system. .
  • FIG. 4A shows a special image, which is an image having a predetermined characteristic part (for example, a part showing a bleeding site, a polyp, or the like) indicating a certain symptom designated by a doctor or a nurse, if any.
  • a predetermined characteristic part for example, a part showing a bleeding site, a polyp, or the like
  • image data forming a special image having the predetermined characteristic portion is searched and extracted in the database 9, and the extracted image data is captured.
  • a second position mark 44 is displayed at a position on the display of the passage locus 37 corresponding to the position in the sample as an image processing result indicating the position data associated with the image data having the predetermined characteristic portion. An example is shown.
  • the image 42 displayed in the right image display area 41 is the same as the first image displayed as it is!
  • a second position mark 44 is displayed at a position on the locus 37.
  • FIG. 4B shows the second position mark 44 of all the image data including the specified special image displayed on the passing locus 37 and the second position mark at a certain position. 44 is designated by the pointing arrow 43, and the image 42 based on the image data corresponding to the position where the designated second position mark 44 is displayed (the position on the display of the passing locus 37, and so on) is displayed on the right side.
  • An example is shown in the image display area 41 of FIG.
  • the force for displaying the second position mark 44 in only one place is, of course, not necessarily limited to only one place.
  • FIG. 4C shows that the image 42 displayed on the right image display area 41 corresponding to the second position mark 44 specified above is superimposed on the image 42 and the factors extracted from the database 9.
  • the resulting feature 45 is displayed, showing an example.
  • FIG. 4D the first and next two pointing arrows 43 (43-1, 43-) for designating an arbitrary section from among all the second position marks 44 are displayed!
  • An example (referred to as section mode) in which 2) is displayed is shown.
  • the section is defined as Between two pieces of position information corresponding to two different positions.
  • the display of the display screen 38 of the monitor device 21 shown in FIGS. 4A, 4B, 4C, and 4D is performed by clicking the menu button displayed on the task bar.
  • Task menus such as “Next”, “Back”, “Specify section”, and “End” are displayed in the displayed menu.
  • the “next”, “return”, “section designation”, and “end” buttons that are always displayed in the display area appropriately in the display screen, not limited to the menu display.
  • FIG. 5 is a flowchart illustrating an image processing operation according to the second embodiment. This image processing is also performed by the CPU of the main unit 19 based on an instruction input from the keyboard 22 or the mouse 23 of the workstation 7 shown in FIG. 1 by a doctor or a nurse. Also, in this case, the work described in the first embodiment is performed prior to this processing.
  • processing of processing S1 to S3, S4, and S5 is the same as the processing of processing S1 to S3, S4, and S5 described in the flowchart of FIG. 3 in the first embodiment.
  • the processing of the processing S31 is performed between the processing S3 and the processing S4.
  • the doctor or nurse specifies in advance the extraction of image data forming a special image. Based on the input of this designation, for example, the second position mark 44 as shown in FIG. 4A is sequentially displayed on the passing locus 37 (S31).
  • the doctor or the nurse indicates a position other than the display of the passing trajectory 37 on the display area 46 for displaying each model with the pointing arrow 43.
  • the above-described determination process is a process of determining whether or not the force of performing the left click operation of the mouse 23 at such a predetermined position.
  • the section mode In this mode all the position information included in the desired section is regarded as the attention position information.
  • the CPU stores the information on the first position of the designated in-vivo model 26 in a predetermined storage area of the built-in memory. Then, the process waits until the second position on the in-subject model 26 is designated (S23, and the determination is NO).
  • the second pointing arrow 43-2 for specifying the section shown in Fig. 2D is used to specify the section on the display of the passage locus 37 of the intra-subject model 26, for example.
  • the CPU proceeds to the second position on the designated in-subject model 26.
  • the same processing S4 and S5 as the processing S4 and S5 following the above-described processing 31 are performed, and then the designated section ends. It is determined whether or not it has been performed (S24).
  • This processing is performed until the position corresponding to the information of the second position on the designated in-vivo model 26 stored in the other predetermined storage area of the built-in memory, and the above processing S4 and S5 This is a process of determining whether or not the process has been performed.
  • This processing is performed, for example, when the doctor or nurse displays a table of the passing locus 37 on the model display area 46. Pointing to a position other than that indicated by the pointing arrow 43 and right-clicking the mouse 23 instructs interruption of the processing.
  • the above-described determination process is a process of determining whether or not the right click operation of the mouse 23 is performed at such a position.
  • the process of the above-described process S26 is a process of determining the first position and the second position on the specified in-vivo model 26 stored in the predetermined storage area of the built-in memory and another predetermined storage area. This is a process of deleting the information and canceling the setting of the section mode.
  • the CPU subsequently performs the discrimination processing of the processing S6 similar to the processing S6 shown in FIG. I do. In this case as well, if the position is specified (S6: YES), the process returns to the process S4, and the processes after the process S4 are executed.
  • process S6 determines whether the position has been designated in the determination process of process S6 (S6: NO). If the position has not been designated in the determination process of process S6 (S6: NO), the process proceeds to the process S7 similar to process S7 shown in FIG. 3 to determine the end of the application. If the termination of the application has not been instructed, the process returns to step S21, and the processes in and after step S21 are performed. If the termination of the application has been instructed, the application is terminated.
  • a doctor or a nurse powers the pointing arrow 43 by operating the mouse 23 while looking at the display screen toward the monitor device 21 of the workstation 7 while moving the pointing arrow 43 on the passage locus 37 of the intra-subject model 26. If any two positions are specified, the position mark 39 is superimposed and displayed on the position where the image was captured until the end of the first force in the section indicated by the two specified positions unless an instruction to interrupt the processing is given. The image corresponding to that position is displayed in the left area on the same display screen.
  • the image display area 41 has a special image 45 with a characteristic portion 45 as the image 42. You can see the image.
  • FIG. 6 is a flowchart illustrating an image processing operation of the capsule endoscope image feeling system according to the third embodiment of the present invention.
  • This image processing is also processing performed by the CPU of the main unit 19 based on an instruction input from the keyboard 22 or the mouse 23 of the workstation 7 shown in FIG. 1 by a doctor or a nurse. Also in this case, the work described in the first embodiment is performed prior to this processing.
  • the processes S1-S3 and S4-S7 are the same as the processes S1-S7 described in the flowchart of FIG. 3 in the first embodiment.
  • the same processing S31 as shown in FIG. 5 is performed between the processing S3 and the processing S4 in the flowchart in FIG.
  • the doctor or nurse operating the display screen sequentially designates the position mark 39 and changes the image 42 displayed in the image display area 41 while changing the image 42 before and after the second position mark 44.
  • the position mark 39 By specifying the position mark 39, the image 42 at the position before and after the second position mark 44 can be observed.
  • FIG. 7 is a flowchart for explaining another example of the image processing operation in the third embodiment. In this process, processes S32 and S33 are performed instead of the process S6 shown in FIG.
  • This processing is performed in response to the operation of the mouse 23 by the doctor or nurse operating the "section designation" menu or the "section designation” button in advance. Any position on the display of the passing locus 37 of the inner model 26 This is a process of determining whether or not a force to be noticed first, that is, whether or not the force is designated as the first position.
  • This process also specifies the end of the section on the display of the passage locus 37 of the intra-subject model 26, for example, as shown by a second pointing arrow 43-2 for specifying the section shown in FIG. 2D. This is processing for determining whether or not the second position is the force specified by the pointing arrow 43.
  • the process waits until the second position is designated, and the second position of the target position information is designated.
  • the process returns to step S4, where the position mark 39 is displayed (display of the target position information) at the first position specified as the first position, and further processing S5
  • the process After displaying the image 42 based on the image data corresponding to the first position of the designated section on the display of the above-mentioned passage locus 37, it is determined whether or not the section is within the designated section by the discrimination of the processes S32 and S33. If it is within the section, the process returns to the processing S4, and the display of the position mark 39 and the display of the image 42 are performed by the processing S4 and the processing S5.
  • FIG. 8 is a flowchart illustrating an image processing operation according to the fourth embodiment. This image processing is also performed by the CPU of the main unit 19 based on an instruction input from the keyboard 22 or the mouse 23 of the workstation 7 shown in FIG. 1 by a doctor or a nurse. Also, in this case, the work described in the first embodiment is performed prior to this processing.
  • FIG. 8 [Process of processing S1-processing of S1-S3, S31, S4, S5, S6, S7] Third embodiment [processing of processing S1-described in the flowchart of Fig. 6 here. S3, S31, S4—Same as S7. In this example, the processing power of the processing S41 and S42 is performed between the processing of the processing S5 and the processing S6 of the flowchart of FIG.
  • the CPU determines whether or not the display position of the position mark 39 matches the display position of the second mark on the in-vivo model 26 (S41).
  • the display position at which the position mark 39 is to be displayed is the position of the second position mark 44 displayed on the model in the process S31 (the second position mark 44 as described in FIGS. 4A and 4B).
  • the indication of 44 is not limited to only one location as shown in the figure, but usually a plurality of cases are expected. In the actual display, all of the plurality of second position marks 44 are displayed on the display of the passing locus 37) This is a process for determining whether or not to superimpose on any of the display positions.
  • the force V that shifts to the processing of the processing S6 is superimposed on the display position of the second position mark 44, which is a deviation. If! /, (YES in S41), the image 42 having the characteristic portion is displayed (S42), and then the process proceeds to the process S6.
  • the second position mark 44 overlapping the display position of the position mark 39 is displayed.
  • the image 42 at the indicated position is displayed in the image display area 41, for example, as shown in FIG. 4B.
  • a characteristic portion 45 that causes the image 42 to be extracted from the database 9 is displayed superimposed on the displayed image 42.
  • steps S6 and S7 are the same as those in FIGS. 3, 5, and 6.
  • the doctor or nurse sets the neutral position of the second position mark 44 indicating the imaging position of the special image displayed on the display of the passing locus 37 at an arbitrary position.
  • FIG. 9 is a flowchart illustrating an image processing operation according to the fifth embodiment. This image processing is also performed by the CPU of the main unit 19 based on an instruction input from the keyboard 22 or the mouse 23 of the workstation 7 shown in FIG. 1 by a doctor or a nurse. Also, in this case, the work described in the first embodiment is performed prior to this processing.
  • FIG. 9 [Processing of S1-S3, S31, S4, S5, S41, S42, S6, S7]
  • the processing SI described in the flowchart of Fig. 8 in the fourth embodiment. Same as S3, S31, S4, S5, S41, S42, S6, S7.
  • the processes up to the processes S21 to S26 are performed.
  • the doctor or nurse specifies the state of a known lesion (for example, the state of a blood bleeding site or the state of a polyp, etc.) according to the symptom, and the trajectory of the passage of the intra-subject model 26. Specify any desired section on the display of 37, and specify the second position map in that section.
  • the image 42 which is a special image corresponding to the position of the mark 44, is displayed, and the characteristic portion 45, which is in a special state on the image, is observed, and the degree of spread of the symptoms and the degree of the severity of the symptoms, Etc. can be determined quickly.
  • the image and the imaging position are associated with each other on the same display screen while the image is associated with the imaging position. Both can be observed, and an image at any desired position can be quickly observed with a simple operation using a mouse.
  • a previously known color state of the observation in the digestive tract specific to the symptom is designated by color information or the like prepared in advance, and the color state is designated. Since only an image that is in the same or similar state can be detected and the image and the imaging position can be observed, accurate and quick judgment can be made.
  • the display of the passage trajectory 37 of the capsule endoscope 3 as the position information is displayed three-dimensionally according to the actual shape of the digestive tract.
  • it looks like a dimension, it is displayed three-dimensionally on the actual display screen according to the shape of the digestive tract).
  • it may be represented by one dimension, that is, a straight line.
  • sections corresponding to the esophagus 31, the stomach 32, the duodenum 33, the small intestine 34, the large intestine 35, the rectum 36, etc. shown in FIG. 2A may be provided on the straight line, and the position may be displayed.
  • FIGS. 10A, 10B, and IOC show the same display screen 38 of the motor device 21 of the workstation 7 in the capsule endoscope captured image filing system according to the sixth embodiment of the present invention.
  • FIG. 10A is a diagram showing an example of a body lumen model 26 and a captured image 42 of the subject 4 to be displayed
  • FIG. 10A is a view similar to that of FIG. 2A and is displayed on the display screen of the monitor device 21.
  • FIGS. 10B and 10C are diagrams showing the body lumen model of FIG. 4, and FIGS. 10B and 10C are diagrams showing examples of captured images displayed on the same display screen of the monitor device 21 together with the body lumen model.
  • 10B and 10C show the body lumen model shown in FIG. 10A in a simplified manner for convenience of explanation.
  • Figs. 10A, 10B, and IOC Figs. 2A, 2B, 2C, and 2D Use the same reference numerals as those given for.
  • Body lumen contour 2 As shown in FIG. 10A, in the body lumen model 26 of the subject 4, a ring ⁇ 27 of the body of the subject 4 and a contour 28 of the body lumen are displayed as a two-dimensional diagram. Body lumen contour 2
  • the outline of the esophagus 31, stomach 32, duodenum 33, small intestine 34, large intestine 35, rectum 36, etc. is displayed. Further, a passage 37 of the capsule endoscope 3 is displayed within the contour 28 of the body lumen.
  • the body lumen model 26 described above is displayed on the left side of the same screen, and the capsule endoscope 3 is displayed.
  • a position mark 39 as attention position information which is one of the position information indicating the imaging position, is superimposed and displayed.
  • a captured image 42 captured on the passage 37 corresponding to the position mark 39 is displayed.
  • FIG. 10C shows an example in which a pointing arrow 43 by operating the mouse 23 pointing the position mark 39 is displayed.
  • FIG. 11 is a flowchart illustrating an image processing operation according to the sixth embodiment.
  • This image processing is built in the main unit 19 based on the instruction input from the keyboard 22 or the mouse 23 of the workstation 7 shown in FIG. 1 by a doctor or nurse! This is a process performed by a control device (hereinafter, simply referred to as a CPU).
  • a control device hereinafter, simply referred to as a CPU.
  • the capsule endoscope 3 is taken out of the package 2 by the subject 4, and the power switch built in the capsule endoscope 3 is turned on. Between the time when the subject is swallowed and the time when the subject is automatically moved and discharged from the body, the state of the body lumen of the subject 4 is continuously imaged by the imaging unit of the capsule endoscope 3.
  • the captured video (image) data is transmitted as a radio signal (video signal) from the wireless endoscope 3 of the capsule endoscope 3, and the transmitting power S antenna 6 of the antenna 5 (1 la, l ib, llc, 11d, lie). This received signal is transferred to the receiver 6.
  • the signal strength of the video signal and the signal content of the video signal (captured image data) are set as one set, and the signal of one frame is sequentially transmitted. Generate. That is, signals of five frames are generated for one piece of captured image data. The generated five-frame signals are sequentially stored in the CF memory 17.
  • the processing on the receiver 6 side is repeated for each single imaging during the continuous imaging by the capsule endoscope 3.
  • the CPU first reads image data and position data, and stores the read captured image data and position data in association with each other (S101).
  • the CPU directly receives data from the receiver 6 by wire or from the CF memory 17 taken out of the receiver 6 and attached to the CF memory reader / writer 25 and recorded in the CF memory 17 to receive the received data. Is read every 5 frames.
  • the image data is read from the reception data of these five frames, for example, the reception data of the antenna 11 (closest to the force-type endoscope 3) that received the strongest radio wave, and further,
  • the transmission position of the video signal corresponding to the captured image data is calculated from the five types of radio wave intensities corresponding to the above, and the calculated transmission position (video imaging position) data is acquired as the attention position information.
  • the CPU displays the graphical position information (S102).
  • This process is a process of displaying the body lumen model 26 as shown in FIGS. 10A, 10B, and IOC on the display screen of the monitor device 21 of the workstation 7. It should be noted that the position information obtained by the above-described diagram indicates the passage 37 of the capsule endoscope 3 in the body lumen model 26.
  • the CPU detects an image having a specific color (S103).
  • the specific color is, for example, the color of bleeding in a body lumen. Bleeding is a phenomenon that occurs in the affected area, and the color of blood during or immediately after bleeding is extremely vivid red. Therefore, when color information corresponding to the blood color is specified in advance by a doctor or nurse, the CPU can easily compare the color information with the specified color information to obtain a captured image having a blood bleeding part (disease part). Can be detected.
  • the CPU superimposes the progress of the image processing (specific image detection processing) on the model (body lumen model 26) (S104).
  • This process is a process of displaying a position mark 39 (see FIGS. 10B and 10C) so as to be superimposed on the position information on the display screen of the monitor device 21, that is, on the display of the passage 37.
  • the position mark 39 indicates the position of the body lumen model 26 where the captured image that is currently being processed is captured in order to detect the captured image having the diseased part.
  • the CPU determines whether or not the left button of the mouse 23 has been clicked (S105). In this processing, if the left button of the mouse 23 is clicked (S105: Yes), this indicates that the processing has been instructed to be temporarily stopped in this example. And wait until the left button of the mouse 23 is clicked again (S106, judgment is No).
  • step S107 If all the processes have not been completed (No in S107), the process returns to step S103 and repeats steps S103-S107. As a result, as the above process proceeds, the process S104 The position mark 39 indicating the current processing position is superimposed on the display of the passage 37 while moving sequentially on the display of the passage 37 of the body lumen.
  • An end button (not shown) for instructing and ending the application is prepared, and a doctor or a nurse or the like instructs the end button by left-clicking with the mouse 23 to perform the operation! /
  • FIGS. 12A and 12B show the inspection target displayed on the same display screen 38 of the monitor device 21 of the workstation 7 in the capsule endoscope captured image filing system according to the seventh to ninth embodiments of the present invention.
  • 5 is a diagram showing an example of a body lumen model 26 and a captured image 42 of a person 4.
  • FIG. 12A shows the inspection target displayed on the same display screen 38 of the monitor device 21 of the workstation 7 in the capsule endoscope captured image filing system according to the seventh to ninth embodiments of the present invention.
  • 5 is a diagram showing an example of a body lumen model 26 and a captured image 42 of a person 4.
  • the image display area 41 on the right side of the same display screen 38 shown in Fig. 12A of the monitor device 21 is provided with a predetermined feature (for example, a bleeding symptom or a specific color) indicating a certain symptom specified in advance by a doctor or a nurse. If there is a special image or the like having the special image, the database 9 is searched based on the instruction to display the special image, and the captured image data including the special image having the above-mentioned predetermined characteristics is obtained. When detected, the special image 42, of the detected image data is displayed!
  • a predetermined feature for example, a bleeding symptom or a specific color
  • the body lumen model 26 on the left side of the same display screen 38 shown in Fig. 12A is a special image having a predetermined characteristic (for example, a bleeding symptom) indicating a certain symptom also specified in advance by a doctor or a nurse. If there is, for example, an instruction is input to indicate the position where the special image was shot, and in addition to the position mark 39 indicating the progress of the processing, the image processing indicating the position where the detected special image was shot An example in which the result 44 is superimposed on the passage 37 is shown.
  • a predetermined characteristic for example, a bleeding symptom
  • the image processing result 44 is displayed in only one place in Fig. 12A, in the actual display, all the special image data detected by the above search are displayed.
  • the image processing result 44 is displayed at the position on the passage 37 where the special image is captured.
  • Fig. 12B shows the image processing results 44 indicating the shooting positions of all the special images displayed on the passage 37 (Fig. 12B also shows only one display of the image processing results 44).
  • the image processing result 44 at a certain position is designated by the pointing arrow 43, and the designated image processing result 44 is displayed.
  • An example is shown in which a special image 42, based on the captured image data corresponding to the displayed position (the position on the passage 37, the same applies hereinafter) is displayed in the right image display area 41.
  • FIG. 12B is such that when this special image is displayed, it is superimposed on the special image 42 displayed on the right image display area 41 corresponding to the image processing result 44, and the special image is displayed.
  • a feature detection target position 45 (for example, a bleeding position) which is the cause of the detection of 42 'from the database 9 is displayed.
  • FIG. 13 is a flowchart illustrating an image processing operation according to the seventh embodiment.
  • This image processing is also a process performed by the CPU of the main unit 19 based on an instruction input from the keyboard 22 or the mouse 23 of the workstation 7 shown in FIG. 1 by a doctor or a nurse. Also in this case, the work described in the sixth embodiment is performed prior to this processing.
  • steps S101-S103 and S104-S108 is the same as the processing of steps S101-S108 described in the flowchart of FIG. 11 in the first embodiment.
  • the process S121 is performed between the processes S103 and S104.
  • the CPU displays the detected special image as a special image 42 ′ shown in FIG. 12A, for example.
  • a special image 42 ′ shown in FIG. 12A, for example.
  • one special image 42 is displayed for longer than 2 seconds.
  • the current search position is sequentially superimposed and displayed on the passage 37, for example, on the position mark 39 shown in FIG. 12A.
  • the position mark 39 is displayed only at the current search position (that is, at the current search position). (The display of the position mark 39 moves with the movement of the position mark 39.) Alternatively, the display of the position mark 39 is displayed according to the movement of the current search position while the display of the position mark 39 once displayed is left as it is. More /!
  • the progress of the image search process can be seen at a glance by displaying the position mark of the current search position, and the doctor or the nurse can pass the abnormality occurrence state in the body lumen model 26. It is possible to visually recognize the road sequentially along the road 37, thereby making it possible to quickly determine the next procedure.
  • FIG. 14 is a flowchart illustrating an image processing operation according to the eighth embodiment.
  • This image processing is also a process performed by the CPU of the main unit 19 based on an instruction input from the keyboard 22 or the mouse 23 of the workstation 7 shown in FIG. 1 by a doctor or a nurse. Also in this case, the work described in the sixth embodiment is performed prior to this processing.
  • steps S101, S102, S104-S108 is the same as the processing of steps S101, S102, S104-S108 described in the flowchart of FIG. 11 in the sixth embodiment.
  • the processing of processing S131 to S133 is performed instead of the processing of processing S103 in the flowchart of FIG.
  • the CPU determines whether or not special image data having a specific color (for example, a bleeding color) specified in advance by a doctor or a nurse has been detected ( S131).
  • the process proceeds to the process S104. If the special image data having the specific color is detected (S131). (Yes), first, a mark indicating a "disease part" is generated (S132).
  • the mark indicating the "disease” is the same as the image processing result 44 shown in Figs. 12A and 12B. That is, the image processing result 44 shown in FIG. 12A and FIG. The mark is shown.
  • the CPU superimposes and displays the generated diseased part mark (image processing result 44) on the model (S133).
  • the mark force indicating the diseased part The passage of the capsule endoscope 3 of the body lumen model 26
  • the display is superimposed on the disease position on 37, so that the doctor or nurse can determine at a glance the extent to which the diseased part has spread.
  • FIG. 15 is a flowchart illustrating an image processing operation according to the ninth embodiment.
  • This image processing is also a process performed by the CPU of the main unit 19 based on an instruction input from the keyboard 22 or the mouse 23 of the workstation 7 shown in FIG. 1 by a doctor or a nurse. Also in this case, the work described in the sixth embodiment is performed prior to this processing.
  • steps S101-S103 and S104-S108 is the same as the processing of steps S101-S103 and S104-S108 described in the flowchart of FIG. 11 in the sixth embodiment.
  • the processing of steps S141 and S142 is performed between the processing S103 and the processing S104 in the flowchart of FIG.
  • the CPU After detecting special image data having a specific color in the process of process S103, the CPU performs image display (S141).
  • the special image based on the detected special image data is displayed in the image display area 41 of the display screen 38 of the monitor device 21, for example, as a special image 42 'shown in FIG. 12B.
  • the CPU superimposes and displays the processing result on the image (S142).
  • the disease position that caused the special image 42 ′ to be detected from the database 9 as a result of the image processing described above is used, for example, as a feature detection target position 45 shown in FIG. 12B.
  • the doctor or nurse can display the displayed special image by displaying the diseased part in color.
  • the diseased part can be immediately known, and the investigation of the diseased part can be immediately started.
  • the doctor or nurse always operates the mouse 23 to move the pointing arrow 43 along the display of the passageway 37 of the body lumen model 26 and to move the left arrow at a desired position.
  • the processing jumps and the position force processing left-clicked can be resumed. Further, at this time, the position mark 39 moves to the designated position.
  • the passing path 37 of the capsule endoscope 3 is a force displayed in accordance with the actual shape of the body lumen.
  • a large number of pieces of image information can be easily grasped, and a desired position or a diseased part to be noted from among the large number of pieces of image information. It is possible to easily find the image information of the captured image.
  • a specific display indicating the processing result of the specific image is superimposed on the position information display, and the specific image is displayed in the image display area on the same screen. This is convenient because it is easy to grasp the power of the run.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Optics & Photonics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Gastroenterology & Hepatology (AREA)
  • Endoscopes (AREA)

Abstract

 カプセル型内視鏡により経時的に連続撮影して取得される画像を撮影位置に関連付けてデータベース化する。モニタ装置の表示画面(38)の左方に被検体内モデル(26)とカプセル型内視鏡の通過軌跡(37)と撮影位置を示す位置マーク(39)を表示し、位置マーク(39)の位置に対応する画像(42)を右方の画像表示領域(41)に表示する。マウスによって通過軌跡(37)上の位置マーク(39)を指定すると対応する画像(42)が表示される。区間指定してその区間内だけについて位置マーク(39)と対応する画像(42)を表示させることもでき、特殊画像が撮影された位置マーク(39)を特定することもできる。

Description

明 細 書
表示処理装置
技術分野
[0001] 本発明は、例えばカプセル型内視鏡のように、自律的若しくは他律的に被検体内 を移動し、経時的に撮像して得た複数の画像情報を表示処理する技術、及び、この ような自然移動型撮影装置により取得された連続撮影画像データの管理技術に関 する。
背景技術
[0002] 食道や胃腸等の身体管腔の病変には、例えば、出血、組織障害、血管形成異常、 クローン病、ポリープなどがあるが、これら病変の大多数は、発症すると管内の色と表 面構造に変化を引き起こす。
[0003] このことから、病変の有無や病変の原因を探るために身体管腔内に撮像機能付き 発信器を送り込み、この撮像機能付き発信器から送信される撮像画像データを受信 して、この受信した画像と少なくとも 1つの基準値とを比較して比色定量的な異常性 があるか否かを分析し、病変が存在する確率の指標を生成する処理装置が提案され ている。(例えば、特許文献 1参照。)この装置は、飲込みタイプの内視鏡である、所 謂カプセル型内視鏡と 、うものである。
[0004] カプセル型内視鏡は、撮像機能と無線通信機能とを有しており、観察又は検査の ために患者の口から飲込まれた後、人体力 自然排出されるまでの観察期間、胃、 小腸等の臓器を順次撮像し、撮像による画像情報 (画像を表現する電子データ)を 順次無線送信するものである。
[0005] このようにして無線送信された画像情報は、患者の体外に設けられた受信機により 受信され所定のメモリに蓄積されるようになっており、その後、必要に応じて読み出し てディスプレイに表示等することにより、医師の診断等に利用することができるように なっている。
[0006] し力しながら、このようなカプセル型内視鏡においては、通常の内視鏡と異なり、患 者の口から飲み込まれてから自然排出されるまでの期間が観察や検査期間となるこ とから、観察や検査期間が例えば 10時間以上といった具合に長時間に及ぶこともあ り、この間の撮像により得られた画像情報の数は膨大である。
[0007] このことから、診断等の段階にお!、て、このような膨大な数の画像情報を短時間で 把握することは容易ではなぐまた、膨大な数の画像情報の中から注目すべき所望 の部位の画像情報、より具体的には診断を所望する臓器の画像情報のみや疾患部 位等が撮影された画像に係る画像情報のみを探し出すのは容易な作業ではない。
[0008] 本発明が達成しょうとする第一の目的は、上記従来の実情に鑑み、多数の画像情 報を容易に把握することができると共に、多数の画像情報の中力 注目すべき所望 の位置や疾患部位等が撮影された画像情報を容易に探し出すことのできる、画像情 報の表示処理装置、表示処理方法、及び表示処理プログラムを提供することを目的 とする。
[0009] ところで、前掲した特許文献 1に開示されて 、る技術は、比色定量的な異常性を分 祈して、病変が存在する確率の指標を生成することに主眼が置かれており、画像及 びカプセル (撮像機能付き発信器、カプセル型内視鏡)の位置を単一のモニタ上に 表示することが可能としている力 画像とカプセルの位置をどのように表示するのかの 記載がなぐまた、そのように画像及びカプセルの位置を単一のモニタ上に表示する ための上記処理装置の操作上の記載もない。従って、この文献に記載された装置' 方法のみでは、具体的に画像及びカプセルの位置を単一のモニタ上に表示すること の実現は困難である。
[0010] また、通常、処理の進行状況の表示はプログレスバーで行うのが一般的であり、こ のようなプログレスバーでは、処理の進行に応じて横型バー内の進行マークが左から 右へ (縦型バーであれば下力も上へ)順次増加して行き、バーの終端まで増加したと ころで処理が終了となる。しかし、このようなプログレスバーでの表示は時間的な経過 、あるいは全体の中の何パーセントまで処理が終了しているかを知ることはできるが 処理対象における現在の処理位置を知ることは出来ない。
[0011] 前掲した特許文献 1に開示されている技術も同様で、多数の撮像画像の中から特 定画像を抽出する等の画像処理を行う場合、その処理の進行状況が身体管腔内の どの位置まで進行して 、るのかを把握するための配慮は何らなされて 、な!/、。 [0012] 本発明が達成しょうとする第二の目的は、上記従来の実情に鑑み、自然移動型撮 影装置により取得される連続撮影画像データを自然移動型撮影装置の注目位置情 報に関連付けて記録し、その記録された連続撮影画像データを一定の基準に従つ て抽出する画像処理の過程にお!、て、その画像処理の進拔状況を容易に視認でき る連続画像フアイリング装置、連続画像データ処理方法、及び連続画像データ処理 プログラムを提供することである。
特許文献 1 :米国特許出願公開第 2002Z0177779A1号明細書
発明の開示
[0013] 本発明の態様のひとつである表示処理装置は、先ず、第 1の発明の被検体内に導 入された撮像装置によって該被検体内の複数の位置で経時的に撮像して得た複数 の画像情報を表示部に表示させるための表示処理装置であって、上記複数の画像 情報を取得する画像情報取得部と、上記複数の画像情報のそれぞれに関連づけら れ、上記撮像装置が経時的に撮像した上記被検体内でのそれぞれの位置に関する 複数の位置情報を取得する位置情報取得部と、上記複数の位置情報に基づ!、て、 上記撮像装置が経時的に撮像した上記被検体内での位置を少なくとも 1次元の図式 として上記表示部に表示させる位置情報表示部と、上記複数の位置情報のうちの少 なくとも 1つを注目位置情報として指示する注目位置情報指示部と、上記図式として 表示された上記複数の位置情報のうちで、上記注目位置情報として指示された位置 情報に関連づけられた画像情報を上記表示部に表示させる画像表示部と、を有して 構成される。
[0014] この画像情報の表示処理装置は、例えば上記位置情報表示部により上記図式とし て表示された上記複数の位置情報のうちで、該図式中の上記注目位置情報に対応 する位置に所定のマークを表示させる位置マーク表示部をさらに有して構成される。
[0015] また、この画像情報の表示処理装置は、例えば上記複数の画像情報と上記複数の 位置情報とを保存する保存部をさらに有し、上記画像表示部は、上記注目位置情報 として指示された位置情報に関連づけられた画像情報を上記保存部力 読み出して 上記表示部に表示させるように構成される。
[0016] 上記注目位置情報指示部は、例えば上記位置情報表示部によって上記図式とし て表示された上記複数の位置情報の中から、該図式上で任意の位置情報を上記注 目位置情報として指定する指定位置入力部を更に有して構成される。
[0017] また、この画像情報の表示処理装置は、例えば上記複数の画像特報の中から所定 の特徴部分を有する画像情報を抽出する特徴画像検出部を更に有し、上記注目位 置情報指示部は、上記特徴画像検出部で抽出された上記所定の特徴を有する画像 情報に関連づ 、て 、る位置情報を上記注目位置情報として指示するように構成され る。
[0018] 本発明の別の態様のひとつである画像情報の表示処理方法は、被検体内の複数 の位置で経時的に撮像して得た複数の画像情報をモニタ装置の表示画面上に表示 させるための表示処理方法であって、上記複数の画像情報を取得する画像情報取 得工程と、上記複数の画像情報のそれぞれに関連づけられ、上記被検体内で経時 的に撮像されたそれぞれの位置に関する複数の位置情報を取得する位置情報取得 工程と、上記複数の位置情報に基づいて、上記被検体内で経時的に撮像された位 置を少なくとも 1次元の図式として表示させる位置情報表示工程と、上記複数の位置 情報のうちの少なくとも 1つを注目位置情報として指示する注目位置情報指示工程と
、上記図式として表示された上記複数の位置情報のうちで、上記注目位置情報とし て指示された位置情報に関連づけられた画像情報を表示させる画像表示工程と、を 含んで構成される。
[0019] この画像情報の表示処理方法は、例えば上記位置情報表示工程により上記図式と して表示された上記複数の位置情報のうちで、該図式中の上記注目位置情報に対 応する位置に所定のマークを表示させる位置マーク表示工程をさらに有して構成さ れる。
[0020] また、この画像情報の表示処理方法は、例えば上記複数の画像情報と上記複数の 位置情報とを保存する保存工程をさらに有し、上記画像表示工程は、上記注目位置 情報として指示された位置情報に関連づけられた画像情報を上記保存工程力ゝら読 み出して上記表示工程に表示させるように構成される。
[0021] 上記注目位置情報指示工程は、例えば上記位置情報表示工程によって上記図式 として表示された上記複数の位置情報の中から、該図式上で任意の位置情報を上 記注目位置情報として指定する指定位置入力工程を更に有して構成される。
[0022] また、この画像情報の表示処理方法は、例えば上記複数の画像特報の中から所定 の特徴部分を有する画像情報を抽出する特徴画像検出工程を更に有し、上記注目 位置情報指示工程は、上記特徴画像検出工程で抽出された上記所定の特徴を有 する画像情報に関連づ 、て 、る位置情報を上記注目位置情報として指示するように 構成される。
[0023] 本発明の更なる別の態様のひとつである記録媒体は、被検体内の複数の位置で 経時的に撮像して得た複数の画像情報をコンピュータによってモニタ装置の表示画 面上に表示させるための表示処理プログラムが記録されている記録媒体であって、 該表示処理プログラムは、上記複数の画像情報を取得する画像情報取得処理と、上 記複数の画像情報のそれぞれに関連づけられ、上記被検体内で経時的に撮像され たそれぞれの位置に関する複数の位置情報を取得する位置情報取得処理と、上記 複数の位置情報に基づいて、上記被検体内で経時的に撮像された位置を少なくとも 1次元の図式として表示させる位置情報表示処理と、上記複数の位置情報のうちの 少なくとも 1つを注目位置情報として指示する注目位置情報指示処理と、上記図式と して表示された上記複数の位置情報のうちで、上記注目位置情報として指示された 位置情報に関連づけられた画像情報を表示させる画像表示処理と、を上記コンビュ ータに実行させるように構成される。
[0024] この画像情報の表示処理プログラムは、例えば上記位置情報表示処理により上記 図式として表示された上記複数の位置情報のうちで、該図式中の上記注目位置情 報に対応する位置に所定のマークを表示させる位置マーク表示処理をさらに上記コ ンピュータに実行させるように構成される。
[0025] また、この画像情報の表示処理プログラムは、例えば上記複数の画像情報と上記 複数の位置情報とを保存する保存処理をさらに有し、上記画像表示処理は、上記注 目位置情報として指示された位置情報に関連づけられた画像情報を上記保存処理 力 読み出して上記表示処理に表示させることを上記コンピュータに実行させるよう に構成される。
[0026] 上記注目位置情報指示処理は、例えば上記位置情報表示処理によって上記図式 として表示された上記複数の位置情報の中から、該図式上で任意の位置情報を上 記注目位置情報として指定する指定位置入力処理を更に含んで構成される。
[0027] また、この画像情報の表示処理プログラムは、例えば上記複数の画像特報の中か ら所定の特徴部分を有する画像情報を抽出する特徴画像検出処理を更に有し、上 記注目位置情報指示処理は、上記特徴画像検出処理で抽出された上記所定の特 徴を有する画像情報に関連づ 、て 、る位置情報を上記注目位置情報として指示す ることを上記コンピュータに実行させるように構成される。
[0028] 本発明の更なる別の態様のひとつであるカプセル型内視鏡用画像フアイリング装 置は、所定の時間間隔で被検体内を移動するカプセル型内視鏡が連続して撮像し て取得した連続画像データを処理するカプセル型内視鏡用画像フアイリング装置で あって、上記連続画像データを取得した上記被検体内の位置に関する 1つ以上の位 置情報から任意の 1つの位置を注目位置情報として取得する注目位置情報取得部 と、上記注目位置情報として指示された位置に対応する画像情報を上記連続画像 データから取得する画像情報取得部と、上記被検体内における 1つ以上の位置情報 を少なくとも 1次元以上の図式として表示する位置表示部と、上記画像情報取得部に よって取得された上記画像情報に対して所定の処理を施す画像情報処理部と、上 記位置表示部によって表示された上記図式上に注目位置情報取得部によって取得 された注目位置情報の位置を重畳表示し、この注目位置情報の該図式上の表示変 化によって上記画像情報処理部による処理の進行度を告知する進拔情報表示部と 、を有して構成される Q
[0029] 上記位置表示部は、例えば体内の身体管腔におけるカプセル型内視鏡の通過経 路を表示すると共に、該通過経路の背景として平均的な体内臓器の位置を表示する ように構成される。
[0030] また、上記進拔情報表示部は、例えば上記進行度を告知する表示を上記画像情 報処理部による処理結果と共に上記位置表示部による表示上に重畳表示するように 構成される。
このカプセル型内視鏡用画像ファイリング装置は、例えば上記画像情報処理部の 処理の進行と共に該画像情報処理部の処理に対応する画像情報を表示する画像情 報表示部を有して構成される。
[0031] この場合、上記画像情報表示部は、例えば上記画像情報処理部による処理結果を 、上記画像情報の表示に重畳した形で表示するように構成され、上記画像情報表示 部は、例えば上記画像情報を所定の時間間隔で更新表示するように構成される。
[0032] また、このカプセル型内視鏡用画像フアイリング装置は、例えば装置操作者からの 指示を受け付ける指示入力部を有し、上記画像情報処理部は、上記指示入力部に よる入力結果に基づ ヽて画像情報処理の制御を行うように構成される。
[0033] この場合、上記指示入力部からの入力結果に基づく上記画像情報処理部における 画像情報処理の制御は、例えば処理の終了であり、また、例えば処理の一時停止で あり、また、例えば処理の再開であり、また、例えば処理対象とする画像情報の変更 であるように構成される。
[0034] 上記のカプセル型内視鏡用画像フアイリング装置における処理内容は、本発明の 更なる別の態様のひとつであるカプセル型内視鏡用画像フアイリング処理方法となる ものであり、また、上記の処理を実行するプログラムが記録されている記録媒体は、 本発明の更なる別の態様のひとつである記録媒体となるものである。
図面の簡単な説明
[0035] [図 1]本発明に係わるカプセル型内視鏡画像ファイリングシステムの概略の構成を示 す図である。
[図 2A]カプセル型内視鏡撮像画像ファイリングシステムの表示画面に表示される被 検査者の身体管腔モデルの第一の例を示す図である。
[図 2B]本発明のカプセル型内視鏡画像ファイリングシステムにおけるワークステーシ ヨンのモニタ装置の同一表示画面上に表示される被検査者の被検体内モデルと画 像の第一の例を示す図である。
[図 2C]本発明のカプセル型内視鏡画像ファイリングシステムにおけるワークステーシ ヨンのモニタ装置の同一表示画面上に表示される被検査者の被検体内モデルと画 像の第二の例を示す図である。
[図 2D]本発明のカプセル型内視鏡画像ファイリングシステムにおけるワークステーシ ヨンのモニタ装置の同一表示画面上に表示される被検査者の被検体内モデルと画 像の第三の例を示す図である。
[図 3]第 1の実施形態における本発明に係わるカプセル型内視鏡画像フアイリングシ ステムの画像処理の動作を説明するフローチャートである。
[図 4A]第 2—第 5の実施の形態において本発明に係わるカプセル型内視鏡画像ファ ィリングシステムにおけるワークステーションのモニタ装置の同一表示画面上に表示 される被検査者の消化管内モデルと画像の第一の例を示す図である。
[図 4B]第 2—第 5の実施の形態において本発明に係わるカプセル型内視鏡画像ファ ィリングシステムにおけるワークステーションのモニタ装置の同一表示画面上に表示 される被検査者の消化管内モデルと画像の第二の例を示す図である。
[図 4C]第 2—第 5の実施の形態において本発明に係わるカプセル型内視鏡画像ファ ィリングシステムにおけるワークステーションのモニタ装置の同一表示画面上に表示 される被検査者の消化管内モデルと画像の第三の例を示す図である。
[図 4D]第 2—第 5の実施の形態において本発明に係わるカプセル型内視鏡画像ファ ィリングシステムにおけるワークステーションのモニタ装置の同一表示画面上に表示 される被検査者の消化管内モデルと画像の第四の例を示す図である。
[図 5]第 2の実施形態における本発明に係わるカプセル型内視鏡画像:
ステムの画像処理の動作を説明するフローチャートである。
[図 6]第 3の実施形態における本発明に係わるカプセル型内視鏡画像:
ステムの画像処理の動作を説明するフローチャートである。
[図 7]第 3の実施形態における画像処理の動作の他の例を説明するフローチャートで める。
[図 8]第 4の実施形態における本発明に係わるカプセル型内視鏡画像:
ステムの画像処理の動作を説明するフローチャートである。
[図 9]第 5の実施形態における本発明に係わるカプセル型内視鏡画像:
ステムの画像処理の動作を説明するフローチャートである。
[図 10A]カプセル型内視鏡撮像画像ファイリングシステムの表示画面に表示される被 検査者の身体管腔モデルの第二の例を示す図である。
[図 10B]本発明のカプセル型内視鏡画像ファイリングシステムにおけるワークステー シヨンのモニタ装置の同一表示画面上に表示される被検査者の被検体内モデルと画 像の第四の例を示す図である。
[図 10C]本発明のカプセル型内視鏡画像ファイリングシステムにおけるワークステー シヨンのモニタ装置の同一表示画面上に表示される被検査者の被検体内モデルと画 像の第五の例を示す図である。
[図 11]第 6の実施形態における本発明に係わるカプセル型内視鏡撮像画像ファイリ ングシステムの画像処理の動作を説明するフローチャートである。
[図 12A]第 7—第 10の実施の形態において本発明に係わるカプセル型内視鏡撮像 画像ファイリングシステムにおけるワークステーションのモニタ装置の同一表示画面 上に表示される被検査者の身体管腔モデルと撮像画像の第一の例を示す図である
[図 12B]第 7—第 9の実施の形態において本発明に係わるカプセル型内視鏡撮像画 像ファイリングシステムにおけるワークステーションのモニタ装置の同一表示画面上 に表示される被検査者の身体管腔モデルと撮像画像の第二の例を示す図である。
[図 13]第 7の実施形態における本発明に係わるカプセル型内視鏡撮像画像ファイリ ングシステムの画像処理の動作を説明するフローチャートである。
[図 14]第 8の実施形態における本発明に係わるカプセル型内視鏡撮像画像ファイリ ングシステムの画像処理の動作を説明するフローチャートである。
[図 15]第 9の実施形態における本発明に係わるカプセル型内視鏡撮像画像ファイリ ングシステムの画像処理の動作を説明するフローチャートである。
発明を実施するための最良の形態
以下、本発明の実施の形態を、図面を参照しながら説明する。
なお、以下の説明で上記の被検体は例えば被検査者 4であり、上記の撮像装置は 例えばカプセル型内視鏡 3であり、上記の表示部は例えばモニタ装置 21であり、上 記の表示処理装置は例えばワークステーション 7であり、上記の画像情報は例えば 画像データであり、上記の画像情報取得部は例えばアンテナ 11であり、上記の位置 情報は例えば、通過軌跡 37や位置データであり、上記の位置情報取得部は例えば 通過軌跡 37を構築するための位置データを取得するアンテナ 11であり、上記の位 置情報表示部は例えばモニタ装置 21及びそれに表示される被検体モデル 27、通過 軌跡 37、位置マーク 39、第 2の位置マーク 44等であり、上記の注目位置情報は例え ば上記の位置情報の中の特定の位置情報であり、上記の注目位置情報指示部は例 えば位置マーク 39であり、上記の画像表示部、上記の位置マーク表示部は、例えば モニタ装置 21であり、上記の保存部は例えばデータベース 9であり、上記の図式は 例えば被検体内モデル 26であり、上記の指定位置入力部は例えば、キーボード 22 、マウス 23であり、そして、上記の特徴画像検出部は例えばワークステーション 7であ る。
[0037] また、本発明の実施の形態における以下の説明において、上記のカプセル型内視 鏡用画像フアイリング装置における被検体は例えば被検査者 4等カゝら成り、連続画像 データは例えばカプセル型内視鏡 3による撮像画像データ等力も成り、位置情報は 撮像画像データの撮像位置データから成る。 1次元以上の図式としてカプセル型内 視鏡 3の通過路 37として表示される。また、注目位置情報は、撮像画像データの撮 像位置データである位置情報の 1つである。注目位置情報取得部は例えばアンテナ 11、受信機 6等から成り、画像情報は例えば撮像画像データ等カゝら成り、画像情報 取得部は例えばアンテナ 11、受信機 6、ワークステーション 7等から成り、 1次元以上 の図式は例えば身体管腔モデル 26等力も成り、位置表示部は例えばモニタ装置 21 の表示画面 38等力 成り、画像情報処理部は例えばワークステーション 7の本体装 置 19等から成り、注目位置情報の位置は例えば位置マーク 39等から成り、処理の進 行度を告知する表示は例えば位置マーク 39、通過路 37等から成り、進拔情報表示 部は例えばモニタ装置 21の表示画面 38等力も成り、画像情報表示部は例えばモ- タ装置 21の表示画面 38の画像表示領域 41等から成り、処理結果は例えば特殊画 像 42,等から成り、処理に対応する画像情報は例えば特徴検出対象位置 45等から 成り、装置操作者は例えば医師、看護師等から成り、指示入力部は例えばワークス テーシヨン 7におけるモニタ装置 21の表示画面 38、キーボード 22、マウス 23等から 成る。また、画像情報処理の制御は例えば図 3、図 5— 9、図 11、図 13—図 15のフロ 一チャート等で示される処理である。
[0038] 図 1は、本発明に係わるカプセル型内視鏡システムとそれに含まれるカプセル型内 視鏡画像ファイリングシステムの概略の構成を示す図である。同図に示すように、本 例のカプセル型内視鏡システム 1は、パッケージ 2に収容されたカプセル型内視鏡 3 、パッケージ 2から取り出したカプセル型内視鏡 3を服用する患者すなわち被検査者 4、この被検査者 4に着用させるジャケット 5、ジャケット 5に着脱自在の受信機 6から 成る。
[0039] また、カプセル型内視鏡画像ファイリングシステム 20は、上記の受信機 6が受信し た画像データを保存、編集等の処理をするワークステーション 7、このワークステーシ ヨン 7にネットワーク 8を介して接続されているデータベース 9とで構成される。尚、デ ータベース 9はワークステーション 7に内蔵されるようにしても良い。
[0040] 上記のカプセル型内視鏡 3の内部には、撮像部と無線部と電源が設けられている。
このカプセル型内視鏡 3は、観察又は検査のために被検査者 4の口から飲み込まれ た後、身体から排出されるまでの期間中に、撮像部により食道、胃、小腸、大腸など の消化管内を順次経時的に撮像して得た画像データを無線部から外部に電波とし て無線発信する。
[0041] この被検査者 4に着用させるジャケット 5には、カプセル型内視鏡 3の無線部力も発 信される画像データの発信電波を捕捉する複数(図の例では 4個)のアンテナ 11 (11 a、 l lb、 l lc、 l id)が設けられている。これらのアンテナ 11は、受信機 6との間で無 線又は有線による通信ができるようになつている。なお、アンテナ 11の数は特に 4個 に限定されるものではなぐ適宜の数があればよい。要は、カプセル型内視鏡 3の移 動に伴う位置に応じた発信電波を良好に受信することができる配置数であれば良い
[0042] 受信機 6には、外部には、上記のジャケット 5からアンテナ 11を介して電波で画像 データを受信する場合に用いられるアンテナ 12、観察又は検査に必要な情報を表 示する表示部 13、及び観察又は検査に必要な情報を入力する入力部 14が設けら れている。
[0043] そして、受信機 6の下部には、携帯時にも電源を供給できるように電源部 15が設け られている。この電源部 15は、たとえば乾電池、 Li (リチウム)イオン二次電池、 Ni (二 ッケル)水素電池等で構成される(勿論他の形式の電池であっても良 ヽ)。 [0044] 更に受信機 6の内部には、観察又は検査に必要な処理を行う信号処理 ·制御部 16 が設けられ、更に受信された画像データを記憶するための CF (コンパクトフラッシュ( 登録商標))メモリ 17を図の両方向矢印 aで示すように着脱可能に装着する装着部 1 8が設けられている。
[0045] ワークステーション 7は、本体装置 19と、この本体装置 19に接続されたモニタ装置 2 1、キーボード 22、及びマウス 23等で構成されており、更に本体装置 19には、特に は図示しないが、上述したネットワーク 8に接続するためのインタフェースの他に各種 のインタフェースを備えており、これらのインタフェースを介して上述した受信機 6のほ 力に、プリンタ 24、 CFメモリリーダ/ライタ 25が接続されている。このワークステーショ ン 7は医師又は看護士力 Sカプセル型内視鏡 3により撮像された被検査者 4の消化管 内の画像をモニタ装置 21に表示させて診断等を行うための画像処理機能を有して いる。
[0046] 医師又は看護士は、ワークステーション 7のモニタ装置 21に表示されるマン'マシン インタフェースに対し、キーボード 22又はマウス 23を用いて入力操作を行いながら、 カプセル型内視鏡 3から発信され受信機 6によって受信された被検査者 4の身体管 腔内の画像データを受信機 6から取り込む指示を行うことができる。
[0047] この画像データの受信機 6からの取り込みでは、受信機 6から有線で直接取り込む こともでき、また、 CFメモリ 17を図の矢印 bで示すように CFメモリリーダ/ライタ 25に 装着して、この CFメモリ 17から画像データを取り込むようにすることもできる。
[0048] 更に、医師又は看護士は、上記のように受信機 6から取り込んだ撮像画面データを データベース 9へ格納する指示、データベース 9に格納された画像データを呼び出し てモニタ装置 21の表示画面上で後述する画像データに係わる画像表示を行う指示 、画像の観察に基づく診察結果などをデータベース 9へ記録する指示、プリンタ 24で カルテ等を印刷する指示などを行うことができる。
[0049] なお、ワークステーション 7は、ごく標準的な構成のコンピュータ、すなわち、制御プ ログラムを実行することで各構成要素を制御する中央演算装置 (CPU)と、 ROMや R AM及び磁気記憶装置など力 なり、 CPUに各構成要素を制御させる制御プロダラ ムの記憶や CPUが制御プログラムを実行する際のワークエリアあるいは各種データ の記憶領域として使用される記憶部と、ユーザによる操作に対応する各種のデータ が取得される入力部と、ディスプレイなどに各種のデータを提示してユーザに通知す る出力部と、他の機器とのデータ授受のためのインタフェース機能を提供する IZF部 とを備えるコンピュータでよい。後述する図 3、図 5— 9、図 11、図 13—図 15のフロー チャート等で示される処理をこのような標準的な構成のコンピュータに行わせるため には、各図にフローチャートで示した手順の処理をこのコンピュータに行わせる制御 プログラムを作成してコンピュータで読み取り可能な記録媒体 100に記録させ、その 制御プログラムを記録媒体 100からコンピュータの CPUに読み出させて実行させれ ばよい。
[0050] 記録させた制御プログラムをコンピュータで読み取ることの可能な記録媒体 100とし ては、例えば、コンピュータに内蔵若しくは外付けの付属装置として備えられる RAM 若しくは ROM又はハードディスク装置などのメモリ、あるいは FD (フレキシブルデイス ク)、 MO (光磁気ディスク)、 CD— ROM、 DVD— ROMなどといった可搬型記録媒体 等が利用できる。
[0051] また、記録媒体 100は、回線を介してコンピュータと接続される、プログラムサーバと して機能するコンピュータが備えている記憶装置であってもよい。この場合には、制 御プログラムを表現するデータ信号で搬送波を変調して得られる伝送信号を、プログ ラムサーバから伝送媒体である通信回線を通じて伝送するようにし、コンピュータで は受信した伝送信号を復調して制御プログラムを再生することで当該制御プログラム を実行できるようになる。
[0052] なお、本発明の実施の形態では、カプセル型内視鏡システム及びカプセル型内視 鏡画像ファイリングシステムに特ィ匕して説明する力 必ずしもこれに限るものではな!/ヽ ことは言うまでもない。
<第 1の実施の形態 >
図 2A、図 2B、図 2C、及び図 2Dは、第 1の実施の形態において本発明に係わる力 プセル型内視鏡画像ファイリングシステムにおけるワークステーション 7のモニタ装置 21の同一表示画面 38上に表示される被検査者 4の被検体内モデル 26と画像 42の 例を示す図であり、図 2Aは、モニタ装置 21の表示画面に表示される被検査者 4の被 検体内モデルを示す図、図 2B、図 2C、及び図 2Dは、その被検体内モデルと共にモ ユタ装置 21の同一表示画面上に表示される画像の例を示す図である。尚、図 2B、 図 2C、及び図 2Dには、図 2Aに示す被検体内モデルを説明の便宜上簡略に示して いる。
[0053] 図 2Aに示すように、被検査者 4の被検体内モデル 26として、被検査者 4の被検体 モデル 27と消化管モデル 28とが模式的な 2次元の図式として表示されている。消化 管モデル 28は、食道 31、胃 32、十二指腸 33、小腸 34、大腸 35、直腸 36等の消化 管が模式図に表示されている。そして、その消化管モデル 28内に、カプセル型内視 鏡 3が通過、撮像した位置に関する位置情報として通過軌跡 37が表示されている。 ここで、上記の図式は 2次元に限るものではない。
[0054] また、図 2B、図 2C、及び図 2Dに示すように、モニタ装置 21の表示画面 38には、 その同一画面上において、左側に上述した被検体内モデル 26が表示され、その力 プセル型内視鏡 3の通過軌跡 37上に、披検体内における撮像位置に相当する位置 を示すための所定のマークとして位置マーク 39が重畳表示されている。そして、被検 体内モデル 26が表示されている右側の画像表示領域 41には、位置マーク 39に対 応する又は詳しくは後述する処理に対応する通過軌跡 37上の位置に相当する被検 体内の位置で撮像された画像 42が表示されている。
[0055] 図 2Cは、位置マーク 39をポインティングしている指定位置入力部としてのマウス 23 の操作によるポインティング矢印 43が表示されている例を示し、図 2Dは、同じくマウ ス 23の操作による区間を指定する最初と次の 2つのポインティング矢印 43 (43-1、 4 3-2)が表示されて!、る例を示して!/、る。
[0056] 続、て上記のカプセル型内視鏡画像ファイリングシステムにおける画像処理につ いての第 1の実施形態における処理動作を説明する。
図 3は、第 1の実施形態における画像処理の動作を説明するフローチャートである 。尚、この画像処理は、医師又は看護士による図 1に示したワークステーション 7のキ 一ボード 22又はマウス 23からの指示入力に基づ!/、て、本体装置 19に内蔵されて!ヽ る制御装置(以下、単に CPUという)によって行われる処理である。
[0057] また、この処理に先立って次のような作業が行われている。すなわち、被検査者 4に よりカプセル型内視鏡 3がパッケージ 2から取り出され、カプセル型内視鏡 3に内蔵の 電源のスィッチがオンになる。そして、このカプセル型内視鏡 3が被検査者 4に飲み 込まれてから消化管の蠕動運動によって移動し、体外に排出されるまでの間に、カブ セル型内視鏡 3の撮像部により被検査者 4の消化管内が連続的に撮像され、経時的 に連続した複数の画像データが得られる。
[0058] この撮像された画像データが電波信号に載せてカプセル型内視鏡 3の無線部から 発信され、この信号がジャケット 5のアンテナ 11 (1 la、 l ib, l lc、 l id)により受信さ れる。この受信信号は受信機 6に転送される。
[0059] 受信機 6では、各アンテナ 11からの受信を所定時間間隔で順次巡回して切り替え ながら、各アンテナ 11での受信信号の信号強度と信号内容 (画像データ)とを 1組と して 1フレーム分の信号を順次生成する。つまり 1枚の画像データに対してアンテナ 力 つの場合 4フレーム分の信号が生成される。この生成された 4フレーム分の信号 は、順次 CFメモリ 17に格納される。この受信機 6側での処理は、カプセル型内視鏡 3 による撮像期間の間、 1回の撮像ごとに繰り返される。
[0060] 図 3において、 CPUは、先ず、画像データと位置データを読み込む(Sl)。
この処理では、 CPUは、受信機 6から有線で直接に、又は受信機 6から取り出され て CFメモリリーダ/ライタ 25に装着された CFメモリ 17から、 CFメモリ 17に記録され ている信号を 4フレーム分毎に読み出す。そして、これら 4フレーム分の受信信号から 画像データを読み出し、更に各アンテナにおける信号強度から上記画像データを含 む電波の発信位置を算出して、この算出した撮像位置に関する位置データを取得す る。ここで、発信位置を算出せずに、最も受信信号の信号強度が高かったアンテナを 位置データとみなしてもよ!/、。
[0061] 続、て、 CPUは、上記のように取得した画像データと位置データとを関連付けて保 存する(S2)。
この処理は、相互に関連する画像データと位置データを 1組としたレコードとして、 データベース 9に登録する処理である。
[0062] 次に、 CPUは、位置情報を表示する(S3)。
この処理は、ワークステーション 7のモニタ装置 21の表示画面上に、図 2A、図 2B、 図 2C、及び図 2Dに示したような被検体内モデル 26の消化管モデル 28上に、処理 S 1で得た位置データから、被検体内にお!ヽてカプセル型内視鏡 3が通過した被検 体内の位置に対応する位置情報、即ち通過軌跡 37を表示する処理である。つまり、 位置情報の経時的変化力 被検体内モデル 26におけるカプセル型内視鏡 3の通過 軌跡 37を指している。
[0063] 上記に続!、て、 CPUは、注目位置情報を表示する(S4)。
この処理は、上記モニタ装置 21の表示画面上の位置情報上に、つまり通過軌跡 3 7の表示の上に重畳させて医師又は看護士による診断時に注目すべき部位である 旨、即ち注目位置情報である旨を表す位置マーク 39 (図 2B、図 2C、及び図 2D参照 )を表示する処理である。なお、この処理の初期設定では、この位置マーク 39はカプ セル型内視鏡 3が撮像を開始して以降最初に撮像した時点の位置情報を示す通過 軌跡 37の表示上の位置に位置マーク 39が表示されるようになって!/、る。
[0064] 続 、て CPUは、注目位置情報に対応する画像を表示する(S5)。
この処理では、 CPUは、上記の注目位置情報として指定された通過軌跡 37上の 位置での位置情報に対応する位置データと一組となって 、る画像データも 1レコード 内のデータとしてデータベース 9から読み出しており、この 1レコードのデータに基づ いて、例えば図 2Bに示したように、位置マーク 39を表示させた通過軌跡 37上の位 置に対応した画像データから得た画像 42を表示画面 38の右側の画像表示領域 41 に表示する。
[0065] 続 、て CPUは、新たな注目位置が指定されて 、る力否かを判別する(S6)。
この処理は、表示中の被検体内モデル 26上に表示された通過軌跡 37上において 、医師又は看護士によりワークステーション 7のマウス 23が操作されて、図 2Cに示し たように、ポインティング矢印 43によって、診断等に際して注目すべき所望の位置の 指定がなされているか否かを判別する処理である。
[0066] そして、ポインティング矢印 43による位置の指定がなされていれば(S6が Yes)、処 理 S4に戻って、処理 S4の処理を実行する。すなわち、ポインティング矢印 43によつ て注目すべき位置の指定がなされて!/、る通過軌跡 37上の位置に、注目位置情報と して指示されたことを示す位置マーク 39を重畳表示する。 [0067] この処理では、 CPUは、データベース 9を検索し、ポインティング矢印 43によって 注目位置の指定がなされて!/、る通過軌跡 37上の位置に対応する位置データを有す るレコードをデータベース 9から読み出して、その注目位置情報が示す通過軌跡 37 上の位置つまりポインティング矢印 43によって指定されている通過軌跡 37上の位置 に、図 2Cに示したように位置マーク 39を重畳表示する。
[0068] そして、その後に続く処理 S5及び S6の処理を繰り返す。
また、上記の処理 S6で、ポインティング矢印 43による位置の指定がなされていない ときは(S6が No)、続いて当該アプリケーションが終了しているか否かを判別し(S7) 、当該アプリケーションが終了していれば(S7が Yes)、処理を終了する力 当該ァプ リケーシヨンが終了していないときは(S7が No)、処理 S6に戻って処理 S6の判別処 理を繰り返す。
[0069] 尚、上記の医師又は看護士による位置を指定する処理では、例えば医師又は看護 士がポインティング矢印 43で通過軌跡 37上の任意の位置を指示してマウス 23を左 クリックすることで位置マーク 39が通過軌跡 37上に表示される。
[0070] この通過軌跡 37上に表示さ; ^立置マーク 39に対して、対応する画像を直ちに自 動的に表示する力、又は再度マウス 23を左クリックすることによって表示するようにす るかは、いずれの方法で行うかを、処理開始前に予め処理モードを設定しておけば よい。
[0071] また、上記の当該アプリケーションの終了をする処理は、例えば、表示画面 38上に 図示しないメニュー項目を用意し、このメニュー項目中の「終了」項目をマウス 23によ り選択することにより実行される。
[0072] これにより、ワークステーション 7のモニタ装置 21に向かって表示画面をみながら医 師又は看護士力 マウス 23の操作によってポインティング矢印 43を動力しながら被 検体内モデル 26の通過軌跡 37上の所望する任意の位置を指定すると、その指定さ れた位置に位置マーク 39が重畳表示されるとともに、その位置に対応する画像が同 一表示画面上の左側領域に表示される。
<第 2—第 5の実施の形態 >
図 4A、図 4B、図 4C、及び図 4Dは、第 2—第 5の実施の形態において本発明に係 わるカプセル型内視鏡画像ファイリングシステムにおけるワークステーション 7のモ- タ装置 21の同一表示画面 38上に表示される被検査者 4の被検体内モデル 26と画 像 42の例を示す図である。
[0073] 図 4Aは、医師又は看護士によって指定された或る症状を示す所定の特徴部分 (例 えば出血部位やポリープ等を示す部分)を有する画像である特殊画像があれば、そ の特殊画像を表示するように指示入力されたことによって、その所定の特徴部分を有 する特殊画像をなす画像データがデータベース 9上で検索されて抽出され、その抽 出された画像データが撮像された被検体内の位置に対応する通過軌跡 37の表示上 の位置に、所定の特徴部分を有する画像データに関連付けられた位置データを示 す旨の画像処理結果として第 2の位置マーク 44が表示されている例を示している。
[0074] 尚、右側の画像表示領域 41に表示されて ヽる画像 42は、最初の画像がそのまま 表示されて!ヽるものである。
また、この第 2の位置マーク 44の表示は、図 4Aでは 1箇所にしか表示していないが 、実際の表示では、上記検索によって抽出された全ての画像データについて、その 画像が撮像された通過軌跡 37上の位置に第 2の位置マーク 44が表示される。
[0075] 次に、図 4Bは、上記通過軌跡 37上に表示されている指定された特殊画像を含む 全ての画像データの第 2の位置マーク 44の中力 或る位置の第 2の位置マーク 44が ポインティング矢印 43によって指定され、その指定された第 2の位置マーク 44が表示 されている位置 (通過軌跡 37の表示上の位置、以下同様)に対応する画像データに 基づく画像 42が、右側の画像表示領域 41に表示されて 、る例を示して 、る。
[0076] なお、図 4Bも第 2の位置マーク 44の表示を 1箇所のみに表示している力 必ずしも 1箇所のみに限られるものでないことは言うまでもない。
また、図 4Cは、上記指定された第 2の位置マーク 44に対応して右側の画像表示領 域 41に表示された画像 42に重畳して、この画像 42がデータベース 9から抽出された 要因となった特徴部分 45が表示されて 、る例を示して 、る。
[0077] そして、図 4Dは、上記全ての第 2の位置マーク 44が表示されて!、る中から、任意 の区間を指定する最初と次の 2つのポインティング矢印 43 (43-1、 43-2)が表示さ れている例(区間モードと呼ぶ)を示している。ここで区間とは、通過軌跡 37の表示上 の異なる 2つの位置それぞれに対応した位置情報間を指すものである。
[0078] この場合も、図 4A、図 4B、図 4C、及び図 4Dのモニタ装置 21の表示画面 38の表 示には、特には図示しないが、タスクバーに表示されているメニューボタンからブルダ ゥン表示されるメニューの中に、「次へ」、「戻る」、「区間指定」、「終了」などのタスクメ ニューが表示されている。勿論、メニュー表示に限ることなぐ表示画面内の適宜に 表示領域に常に表示される「次へ」、「戻る」、「区間指定」、「終了」ボタンとしてもよい
[0079] 続いて、このカプセル型内視鏡画像ファイリングシステムにおける画像処理につい ての第 2の実施形態における処理動作を説明する。
図 5は、第 2の実施形態における画像処理の動作を説明するフローチャートである 。尚、この画像処理も、医師又は看護士による図 1に示したワークステーション 7のキ 一ボード 22又はマウス 23からの指示入力に基づいて、本体装置 19の CPUによって 行われる処理である。また、この場合も、この処理に先立って第 1の実施形態におい て述べたような作業が行われて 、る。
[0080] 図 5において、処理 S1— S3、 S4、 S5の処理は、第 1の実施形態において図 3のフ ローチャートで説明した処理 S1— S3、 S4、 S5の処理とそれぞれ同一である。本例 では、処理 S3と処理 S4の間で、処理 S31の処理が行われる。
[0081] すなわち、位置情報の表示(S3)の処理に続いて、この処理に先立って予め医師 又は看護士が特殊画像をなす画像データの抽出の指定を行う。この指定の入力に 基づいて、例えば図 4Aに示したような第 2の位置マーク 44が通過軌跡 37上に順次 表示される(S31)。
[0082] 続、て、注目位置情報の表示(S4)と注目位置情報に対応する画像表示(S5)に 続いて、本例では、区間モードが指示されているか否かが判別される(S21)。
この区間モードが指示されている力否かの判別処理では、例えば、医師又は看護 士が各モデルを表示するための表示領域 46上の通過軌跡 37の表示以外の位置を ポインティング矢印 43で指示してマウス 23を左クリックすることで区間モードの設定を 指示することができる。上記の判別処理は、このような所定の位置でのマウス 23の左 クリック操作が行われている力否かを判別する処理である。ここで区間モードとは、任 意の区間に含まれる位置情報の全てを注目位置情報であるとみなすモードである。
[0083] そして、区間モードの設定の指示が入力されていれば(S21が YES)、続いて、 CP Uは、被検体内モデル 26の第 1の位置が指定されるまで待機する(S22、及び判別 が NO)。
[0084] この処理は、例えば図 4Dに示した区間を指定する最初のポインティング矢印 43— 1のように、被検体内モデル 26の通過軌跡 37の表示上において区間を指定する最 初の位置がポインティング矢印 43によって指定されているか否かを判別し、指定され ていなければ指定されるまで判別を繰り返す処理である。
[0085] そして、最初の位置が指定されたときは(S22が YES)、 CPUは、指定された被検 体内モデル 26の第 1の位置の情報を内蔵のメモリの所定の記憶領域に記憶して、次 に、被検体内モデル 26上の第 2の位置が指定されるまで待機する(S23、及び判別 が NO)。
[0086] この処理は、例えば図 2Dに示した区間を指定する 2つ目のポインティング矢印 43 —2のように、被検体内モデル 26の通過軌跡 37の表示上において区間を指定する 2 つ目の位置として被検体内モデル 26上の第 2の位置がポインティング矢印 43によつ て指定されて ヽるカゝ否かを判別、指定されて ヽなければ指定されるまで判別を繰り返 す処理である。
[0087] そして、被検体内モデル 26上の第 2の位置が 2つ目の位置が指定されたときは(S 23力 SYES)、 CPUは、指定された被検体内モデル 26上の第 2の位置の情報を内蔵 のメモリの他の所定の記憶領域に記憶した後、上述した処理 31に続く処理 S4及び S 5と同一の処理 S4及び S5を行って、次に、指定区間が終了しているか否かを判別す る(S24)。
[0088] この処理は、上記内蔵のメモリの他の所定の記憶領域に記憶した指定された被検 体内モデル 26上の第 2の位置の情報に対応する位置まで、上記の処理 S4及び S5 の処理が行われた力否かを判別する処理である。
[0089] そして、指定区間が終了していないときは(S24が NO)、更に続いて処理中断が指 示されて!/ヽる力否かを判別する(S25)。
この処理は、例えば医師又は看護士がモデル表示領域 46上の通過軌跡 37の表 示以外の位置をポインティング矢印 43で指示してマウス 23を右クリックすることで処 理の中断が指示される。上記の判別処理は、このような位置でのマウス 23の右クリツ ク操作が行われているカゝ否かを判別する処理である。
[0090] そして、処理の中断が指示されていなければ(S25が NO)、処理 S4に戻って、処 理 S4、 S5、 S24、 S25を繰り返す。
他方、処理の中断が指示されていれば(S25が YES)、区間モードをぬける処理を 行って(S26)、処理 S7の処理に移行する。
[0091] 上記の処理 S26の処理は、上記内蔵のメモリの所定の記憶領域及び他の所定の 記憶領域に記憶した指定された被検体内モデル 26上の第 1の位置及び第 2の位置 の情報を消去して区間モードの設定を解除する処理である。
[0092] また、上記の処理 S24の判別処理で指定区間が終了しているときは(S24が YES)
、直ちに上記の処理 S26の処理に移行する。
また、処理 S21の区間モード判別処理で、区間モードの設定が指示されていないと きは(S21が NO)、 CPUは、続いて図 3に示した処理 S6と同様の処理 S6の判別処 理を行う。そして、この場合も、位置の指定がなされていれば(S6が YES)、処理 S4 に戻って、処理 S4以降の処理を実行する。
[0093] 他方、処理 S6の判別処理で位置の指定がなされていないときは(S6が NO)、図 3 に示した処理 S7と同様の処理 S7の当該アプリケーションの終了判別処理に移る。そ して、アプリケーションの終了が指示されていなときは処理 S21に戻って、処理 S21 以降の処理を行い、アプリケーションの終了が指示されているときは、当該アプリケー シヨンを終了する。
[0094] これにより、ワークステーション 7のモニタ装置 21に向かって表示画面をみながら医 師又は看護士力 マウス 23の操作によってポインティング矢印 43を動力しながら被 検体内モデル 26の通過軌跡 37上の任意の 2つの位置を指定すると、処理の中断を 指示しない限り、その指定された 2つの位置で示される区間の最初力 最終まで、画 像が撮像された位置に順次位置マーク 39が重畳表示され、その位置に対応する画 像が同一表示画面上の左側領域に表示される。
[0095] また、このとき、画像表示領域 41には、画像 42として特徴部分 45を伴った特殊画 像を確認することができる。
図 6は、第 3の実施形態における本発明に係わるカプセル型内視鏡画像フアイリン グシステムの画像処理の動作を説明するフローチャートである。尚、この画像処理も、 医師又は看護士による図 1に示したワークステーション 7のキーボード 22又はマウス 2 3からの指示入力に基づいて、本体装置 19の CPUによって行われる処理である。ま た、この場合もこの処理に先立って第 1の実施形態において述べたような作業が行わ れている。
[0096] 図 6において、処理 S1— S3及び処理 S4— S7までの処理は、第 1の実施形態にお いて図 3のフローチャートで説明した処理 S1— S7の処理とそれぞれ同一である。本 例では、図 3のフローチャートの処理 S3と処理 S4の処理の間で、図 5に示したと同様 の処理 S31の処理が行われる。
[0097] すなわち、位置情報の表示(S3)の処理に続いて、この処理に先立って予め医師 又は看護士によって、特徴部分を有する画像である特殊画像をなす画像データの抽 出が指定されたことに基づいて、例えば図 4A、図 4B、図 4C、及び図 4Dに示したよ うな第 2の位置マーク 44が通過軌跡 37上に順次表示される(S31)。
[0098] これにより、表示画面を操作中の医師又は看護士は、位置マーク 39を順次指定し て画像表示領域 41に表示される画像 42を変化させながら、第 2の位置マーク 44の 前後の位置マーク 39を指定して、第 2の位置マーク 44の前後の位置の画像 42を観 察することができる。
[0099] 図 7は、第 3の実施形態における画像処理の動作の他の例を説明するフローチヤ ートである。この処理では、図 6に示す処理 S6の処理に代わって処理 S32、 S33の 処理が行われる。
[0100] すなわち、初回の注目位置情報の表示 (S4)と注目位置情報に対応する画像表示
(S5)に続いて、注目位置情報の第 1の位置の指定が行われているか否かが判別さ れる(S32)。
[0101] この処理は、医師又は看護士によるマウス 23の操作で事前に「区間指定」メニュー 又は「区間指定」ボタンが入力操作されたことに対応して、続くマウス 23の操作で、被 検体内モデル 26の通過軌跡 37の表示上のいずれかの位置が上記の区間指定にお ける最初に注目すべき位置、即ち第 1の位置として指定されている力否かを判別する 処理である。
[0102] そして、区間の最初に注目すべき位置である第 1の位置が指定されていなときは(S 32力 、処理 S7の半 IJ另 IJで処理 S4に戻って処理 S4、 S5、 S32の処理を繰り返す
[0103] そして、区間の最初に注目すべき位置である第 1の位置が指定されたときは(S32 が YES)、次に、 CPUは、注目位置情報の第 2の位置が指定されているか否かを判 別する(S33)。
[0104] この処理も、例えば図 2Dに示した区間を指定する 2つ目のポインティング矢印 43— 2のように、被検体内モデル 26の通過軌跡 37の表示上において区間の最後を指定 する 2つ目の位置がポインティング矢印 43によって指定されている力否かを判別する 処理である。
[0105] そして、区間の最終位置である注目位置情報の第 2の位置が指定されて 、な 、とき は(S33が NO)、指定されるまで待機して、注目位置情報の第 2の位置が指定された ときは(S33が YES)、処理 S4に戻って、第 1の位置として指定されている最初の位 置に位置マーク 39の表示(注目位置情報表示)を行って、更に処理 S5で、上記通過 軌跡 37の表示上の指定区間の最初の位置に対応した画像データによる画像 42の 表示を行ったのち、処理 S32、 S33の判別によって指定された区間内であるかを判 断し、区間内であれば順次処理 S4に戻って、処理 S4及び処理 S5によって、位置マ ーク 39の表示と画像 42の表示を行う。
[0106] 尚、最初に処理 S4に戻ったとき、指定区間内の全ての位置マーク 39を表示し、処 理 S5では、それら全ての位置マーク 39に対応する画像 42を一定時間間隔で順次 表示する又はポインティング矢印 43による指定に応じて、その指定された位置マーク 39に対応する位置の画像 42を表示するようにしても良 、。
[0107] これ〖こより、医師又は看護士は、被検体内モデル 26の通過軌跡 37の表示上の所 望の任意の区間内の目的とする特徴部分を有する特殊画像の存在位置を知ること ができ、その特殊画像も含めてその前後の画像を任意の区間内で観察することがで きる。 [0108] 続いて、このカプセル型内視鏡画像ファイリングシステムにおける画像処理につい ての第 4の実施形態における処理動作を説明する。
図 8は、第 4の実施形態における画像処理の動作を説明するフローチャートである 。尚、この画像処理も、医師又は看護士による図 1に示したワークステーション 7のキ 一ボード 22又はマウス 23からの指示入力に基づいて、本体装置 19の CPUによって 行われる処理である。また、この場合も、この処理に先立って第 1の実施形態におい て述べたような作業が行われて 、る。
[0109] 図 8【こお!ヽて、処理 S1一 S3、 S31、 S4、 S5、 S6、 S7の処理 ίま、第 3の実施形態【こ おいて図 6のフローチャートで説明した処理 S1— S3、 S31、 S4— S7の処理とそれ ぞれ同一である。本例では、図 6のフローチャートの処理 S5と処理 S6の処理の間で 、処理 S41、 S42の処理力行われる。
[0110] すなわち、初回の注目位置情報の表示 (S4)の段階で、処理 S31で表示された第 2の位置マーク 44の全ての表示と、処理 S4における位置マーク 39の表示と力 被検 体内モデル 26の通過軌跡 37の表示上に重畳して表示されており、処理 S5で、上記 の位置マーク 39に対応する画像 42が右側の画像表示領域 41に表示される。
[0111] ここで、 CPUは、位置マーク 39の表示位置が被検体内モデル 26上の第 2のマーク の表示位置と一致するか否かを判別する(S41)。
この処理は、上記の位置マーク 39を表示すべき表示位置が、処理 S31においてモ デル上に表示されている第 2の位置マーク 44 (図 4A及び図 4Bで説明したように第 2 の位置マーク 44の表示は図のように 1箇所のみでなく通常は複数の場合が予想され 実際の表示ではそれら複数の全ての第 2の位置マーク 44が通過軌跡 37の表示上に 表示されている)の中のいずれかの表示位置に重畳するか否かを判別する処理であ る。
[0112] そして、第 2の位置マーク 44の表示位置と重畳していなければ(S41が NO)、処理 S6の処理に移る力 V、ずれかの第 2の位置マーク 44の表示位置に重畳して!/、れば( S41が YES)、特徴部分を有する画像 42の表示を行ってから(S42)、処理 S6の処 理に移る。
[0113] 上記の処理 42では、位置マーク 39の表示位置と重畳する第 2の位置マーク 44が 示す位置の画像 42が、例えば図 4Bに示したように、画像表示領域 41に表示される 。そして、更に図 4Cに示したように、上記表示された画像 42に重畳して、この画像 4 2がデータベース 9から抽出された要因となった特徴部分 45が表示される。
[0114] 続く、処理 S6及び S7の処理は、図 3、図 5、及び図 6の場合と同様である。
これ〖こより、医師又は看護士は、通過軌跡 37の表示上に全て表示されている特殊 画像の撮像位置を示す第 2の位置マーク 44の中力 任意の位置の第 2の位置マー ク 44を指定して、特殊画像全体(図 4Bの画像 42)及び特殊状態となって!/ヽる位置( 図 4Cの特徴部分 45)を迅速に知って観察することができる。
[0115] 続いて、このカプセル型内視鏡画像ファイリングシステムにおける画像処理につい ての第 5の実施形態における処理動作を説明する。
図 9は、第 5の実施形態における画像処理の動作を説明するフローチャートである 。尚、この画像処理も、医師又は看護士による図 1に示したワークステーション 7のキ 一ボード 22又はマウス 23からの指示入力に基づいて、本体装置 19の CPUによって 行われる処理である。また、この場合も、この処理に先立って第 1の実施形態におい て述べたような作業が行われて 、る。
[0116] 図 9【こお!ヽて、処理 S1一 S3、 S31、 S4、 S5、 S41、 S42、 S6, S7の処理 ίま、第 4 の実施形態において図 8のフローチャートで説明した処理 SI— S3、 S31、 S4、 S5、 S41, S42、 S6、 S7の処理とそれぞれ同一である。本 f列では、図 8の場合と異なり、 処理 S6の直前に、処理 S21— S26 (途中に処理 S4、 S5、 S41、 S42力 S含まれる)ま での処理が行われる。
[0117] そして、この処理 S21— S26の処理おいて、処理の順に説明すれば、処理 S21— S23、 S4、 S5の処理は、図 5に示した処理 S21— S23、 S4、 S5の処理と同一であり 、続く処理 S41、 S42の処理は図 8に示した処理 S41、 S42の処理と同一であり、更 に続く処理 S24、 S25, S26の処理は、図 5に示した処理 S24、 S25, S26の処理と 同一である。
[0118] これにより、医師又は看護士は、症状に応じて知られている病変の状態 (例えば出 血部位の状態やポリープの状態など)を指定し、且つ被検体内モデル 26の通過軌 跡 37の表示上の所望の任意の区間を指定して、その区間内における第 2の位置マ ーク 44の位置に対応する画像である特殊画像をなす画像 42を表示させ、その画像 上の特殊状態となって ヽる特徴部分 45を観察し、症状の広がり具合や症状の軽重 の度合 、等を迅速に判断することができる。
[0119] このように、本発明のカプセル型内視鏡画像ファイリングシステムによる画像処理装 置及び画像処理方法によれば、画像とその撮像位置とを関連付けながら同一表示 画面上で画像と撮像位置の両方を観察でき、更に、マウスによる簡単な操作で所望 の任意の位置の画像を迅速に観察することができる。
[0120] 更に、気掛力りな症状については、予め知られているその症状に特有の消化管内 の観察上の色の状態を予め用意してある色情報等で指定して、その色の状態に同 一又は近似の状態となって ヽる画像のみを検出して、その画像と撮像位置とを観察 できるので、正確かつ迅速な判断を下すことができるようになる。
[0121] 尚、上述した例では、位置情報としてのカプセル型内視鏡 3の通過軌跡 37の表示 を、実際の消化管の形状に合わせて 3次元的に表示しているが(図では 2次元に見 えるが実際の表示画面上では消化管の形状に合わせて 3次元表示となっている)、こ れに限ることなぐ位置情報としては、平面的に 2次元で表示しても良ぐまた例えば 1 次元つまり直線で表現してもよい。 1次元の場合はその直線上に、図 2Aに示した食 道 31、胃 32、十二指腸 33、小腸 34、大腸 35、直腸 36等に対応する区間を設けて、 位置の表示を行えば良い。
<第 6の実施の形態 >
図 10A、図 10B、及び図 IOCは、は、第 6の実施の形態において本発明に係わる カプセル型内視鏡撮像画像ファイリングシステムにおけるワークステーション 7のモ- タ装置 21の同一表示画面 38上に表示される被検査者 4の身体管腔モデル 26と撮 像画像 42の例を示す図であり、図 10Aは、図 2Aと同様の、モニタ装置 21の表示画 面に表示される被検査者 4の身体管腔モデルを示す図、図 10B及び図 10Cは、その 身体管腔モデルと共にモニタ装置 21の同一表示画面上に表示される撮像画像の例 を示す図である。尚、図 10B及び図 10Cには、図 10Aに示す身体管腔モデルを説 明の便宜上簡略に示している。
[0122] なお、図 10A、図 10B、及び図 IOCにおいては、図 2A、図 2B、図 2C、及び図 2D に付したものと同一の符号を用いて 、る。
図 10Aに示すように、被検査者 4の身体管腔モデル 26は、被検査者 4の身体の輪 β27と身体管腔の輪郭 28が 2次元の図式として表示されている。身体管腔の輪郭 2
8は、食道 31、胃 32、十二指腸 33、小腸 34、大腸 35、直腸 36等の輪郭が表示され ている。そして、その身体管腔の輪郭 28内に、カプセル型内視鏡 3の通過路 37が表 示されている。
[0123] また、図 10Bに示すように、モニタ装置 21の表示画面 38には、その同一画面上に おいて、左側に上述した身体管腔モデル 26が表示され、そのカプセル型内視鏡 3の 通過路 37上に、撮像位置を示す位置情報の中の 1つである注目位置情報としての 位置マーク 39が重畳表示されている。そして、身体管腔モデル 26が表示されている 右側の画像表示領域 41には、位置マーク 39に対応する通過路 37上で撮像された 撮像画像 42が表示されて 、る。
[0124] 図 10Cは、位置マーク 39をポインティングしているマウス 23の操作によるポインティ ング矢印 43が表示されて 、る例を示して 、る。
、て上記のカプセル型内視鏡撮像画像ファイリングシステムにおける画像処理 についての第 6の実施形態における処理を説明する。
[0125] 図 11は、第 6の実施形態における画像処理の動作を説明するフローチャートである 。尚、この画像処理は、医師又は看護師による図 1に示したワークステーション 7のキ 一ボード 22又はマウス 23からの指示入力に基づ!/、て、本体装置 19に内蔵されて!ヽ る制御装置(以下、単に CPUという)によって行われる処理である。
[0126] また、この処理に先立って次のような作業が行われている。すなわち、被検査者 4に よりカプセル型内視鏡 3がパッケージ 2から取り出され、カプセル型内視鏡 3に内蔵の 電源のスィッチがオンになり、このカプセル型内視鏡 3が被検査者 4に飲み込まれて から自動移動を行って体外に排出されるまでの間に、カプセル型内視鏡 3の撮像部 により被検査者 4の身体管腔内の状態が連続的に撮像される。
[0127] この撮像された映像 (画像)データが電波信号 (映像信号)としてカプセル型内視鏡 3の無線咅^ ^ら発信され、この発信力 Sジャゲッ卜 5のアンテナ 11 (1 la、 l ib, l lc、 11 d、 l ie)により受信される。この受信信号は受信機 6に転送される。 [0128] 受信機 6では、各アンテナ 11からの受信を順次巡回して切り替えながら、映像信号 の電波強度と映像信号の信号内容 (撮像画像データ)とを 1組として 1フレームの信 号を順次生成する。つまり 1枚の撮像画像データに対して 5フレームの信号が生成さ れる。この生成された 5フレームの信号は順次 CFメモリ 17に格納される。この受信機 6側での処理は、カプセル型内視鏡 3による連続的撮像の期間中、 1回の撮像ごとに 繰り返される。
[0129] 図 11において、 CPUは、先ず、画像データと位置データを読み込んで、その読み 込んだ撮像画像データと位置データとを関連付けて保存する (S101)。
この処理では、 CPUは、受信機 6から有線で直接に、又は受信機 6から取り出され て CFメモリリーダ/ライタ 25に装着された CFメモリ 17から、 CFメモリ 17に記録され て 、る受信データを 5フレーム毎に読み出す。
[0130] そして、これら 5フレームの受信データ力 例えば最も強い電波を受信した (力プセ ル型内視鏡 3に最も近接した)アンテナ 11の受信データから撮像画像データを読み 出し、更に各アンテナに対応する 5種類の電波強度から上記撮像画像データに対応 する映像信号の発信位置を算出して、この算出した発信位置 (映像撮像位置)デー タを注目位置情報として取得する。
[0131] そして、この取得した相互に関連する撮像画像データと注目位置情報とを 1組とし たレコードを生成し、このレコードをデータベース 9に登録する。
次に、 CPUは、図式化した位置情報を表示する(S 102)。
[0132] この処理は、ワークステーション 7のモニタ装置 21の表示画面上に、図 10A、図 10 B、及び図 IOCに示したような身体管腔モデル 26を表示する処理である。尚、上記 の図式ィ匕した位置情報は、身体管腔モデル 26におけるカプセル型内視鏡 3の通過 路 37のことを指している。
[0133] 上記に続いて、 CPUは、特定の色を持つ画像を検出する(S 103)。
この処理は、上記データベース 9を順次検索していく過程で、予め医師又は看護師 によって指定されている特定の色を持つ画像データを検出したときは、その検出した 画像データの注目位置情報を記憶する処理である。これにより、本アプリケーション の終了後に、必要に応じて、上記特定画像に対する各種の一括処理を行うことがで きる。
[0134] 上記特定の色とは、身体管腔内における例えば出血の色である。また、出血は疾 患部に発生する現象であり、一般に出血中または出血直後の血の色は、極めて鮮明 な赤色である。従って、予め医師又は看護師から血の色に対応する色情報を指定さ れることによって、 CPUは、その指定された色情報と対比することによって容易に出 血部 (疾患部)を有する撮像画像を検出することができる。
[0135] 続、て CPUは、上記画像処理 (特定画像の検出処理)の進行度のモデル (身体管 腔モデル 26)への重畳表示を行う(S104)。
この処理は、上記モニタ装置 21の表示画面上の位置情報上に、つまり通過路 37 の表示の上に重畳させて位置マーク 39 (図 10B及び図 10C参照)を表示する処理 である。この位置マーク 39は、上記疾患部を有する撮像画像を検出するために現在 処理中の撮像画像が撮影された身体管腔モデル 26の位置を示している。
[0136] 次に、 CPUは、マウス 23の左ボタンがクリックされたか否かを判別する(S105)。こ の処理では、マウス 23の左ボタンがクリックされていれば(S 105が Yes)、これは本例 では処理の一時停止を指示されていることを表しているので、 CPUは、上記の処理 を一時停止して、マウス 23の左ボタンが再度クリックされるまで待機する(S106、判 別が No)。
[0137] そして、マウス 23の左ボタンが再度クリックされたならば(S 106が Yes)、続いて全 ての画像処理が終了した力否かを判別する(S107)。
また、 CPUは、上記処理 S 105の判別処理で、マウス 23の左ボタンがクリックされて いないときは(S105が No)、直ちに上記の処理 S107の処理に移行する。
[0138] 上記の処理 S107の処理は、カプセル型内視鏡 3が被検査者 4に飲み込まれてか ら自動移動を行って体外に排出されるまでの間に、カプセル型内視鏡 3の撮像部に より連続的に撮像され、データベース 9に格納されている被検査者 4の身体管腔の全 ての撮像画像についての上記の検索処理が終了した力否かを判別する処理である
[0139] そして、未だ全て終了していなければ(S107が No)、処理 S103に戻って処理 S1 03— S107を繰り返す。これにより、上記の処理が進行するにつれて、処理 S104〖こ おいて現在処理位置を示す位置マーク 39が身体管腔の通過路 37の表示の上を順 次移動しながら通過路 37の表示上に重畳表示されて 、く。
[0140] そして、全ての撮像画像についての上記の検索処理が終了したときは(S107が Ye s)、アプリケーション終了の指示を待機し(S108、判別が No)、アプリケーション終了 の指示を確認して(S 108が Yes)、当該アプリケーションを終了する。
[0141] 尚、上記の当該アプリケーションの終了を判別する処理は、例えば、表示画面 38に
、アプリケーションの終了を指示して実行させるための図示しない終了ボタンを用意 し、医師又は看護師等がマウス 23でこの終了ボタンを左クリックで指示をすることによ つて行われるようになって!/、る。
<第 7—第 9の実施の形態 >
図 12A及び図 12Bは、第 7—第 9の実施の形態において本発明に係わるカプセル 型内視鏡撮像画像ファイリングシステムにおけるワークステーション 7のモニタ装置 21 の同一表示画面 38上に表示される被検査者 4の身体管腔モデル 26と撮像画像 42 の例を示す図である。
[0142] モニタ装置 21の図 12Aに示す同一表示画面 38の右側の画像表示領域 41は、医 師又は看護師により予め指定された或る症状を示す所定の特徴 (例えば出血症状つ まり特定色)を有する特殊画像等があればその特殊画像を表示するように指示入力 されたことによって、その指示に基づいてデータベース 9上が検索され、上記所定の 特徴を有する特殊画像を含む撮像画像データが検出されたとき、その検出された撮 像画像データの特殊画像 42,が表示された状態を示して!/ヽる。
[0143] また、図 12Aに示す同一表示画面 38の左側の身体管腔モデル 26は、同じく医師 又は看護師により予め指定された或る症状を示す所定の特徴 (例えば出血症状)を 有する特殊画像等があればその特殊画像が撮影された位置を示すように指示入力 されたことによって、処理の進行状況を示す位置マーク 39の他に、検出された特殊 画像の撮影された位置を示す画像処理結果 44が通過路 37上に重畳表示されてい る例を示している。
[0144] また、この画像処理結果 44の表示は、図 12Aでは 1箇所にしか表示していないが、 実際の表示では、上記検索によって検出された全ての特殊画像データについて、そ の特殊画像が撮像された通過路 37上の位置に画像処理結果 44が表示される。
[0145] 次に、図 12Bは、上記通過路 37上に表示されている全ての特殊画像の撮影位置 を示す画像処理結果 44の中から(図 12Bも画像処理結果 44の表示を 1箇所のみに 表示しているが実際の表示では全ての画像処理結果 44が表示されている)、或る位 置の画像処理結果 44がポインティング矢印 43によって指定され、その指定された画 像処理結果 44が表示されている位置 (通過路 37上の位置、以下同様)に対応する 撮像画像データに基づく特殊画像 42,が、右側の画像表示領域 41に表示されて 、 る例を示している。
[0146] 更に、図 12Bに示す例は、この特殊画像の表示の際に画像処理結果 44に対応し て右側の画像表示領域 41に表示された特殊画像 42,に重畳して、この特殊画像 42 'がデータベース 9から検出された要因となった特徴検出対象位置 45 (例えば出血 位置)が表示されて 、る例を示して 、る。
[0147] 続いて、このカプセル型内視鏡撮像画像ファイリングシステムにおける画像処理に ついての第 7の実施形態における処理動作を説明する。
図 13は、第 7の実施形態における画像処理の動作を説明するフローチャートである 。尚、この画像処理も、医師又は看護師による図 1に示したワークステーション 7のキ 一ボード 22又はマウス 23からの指示入力に基づいて、本体装置 19の CPUによって 行われる処理である。また、この場合も、この処理に先立って第 6の実施形態におい て述べたような作業が行われて 、る。
[0148] 図 13において、処理 S101— S103、 S104— S108の処理は、第 1の実施形態に おいて図 11のフローチャートで説明した処理 S101— S108の処理とそれぞれ同一 である。本例では、処理 S103と処理 S104の処理の間で、処理 S121が行われる。
[0149] すなわち、 CPUは、処理 S103における特定の色を持つ特殊画像を検出した後、 その検出した特殊画像を、例えば図 12Aに示した特殊画像 42'のように表示する。こ の表示期間は、例えば 1枚の特殊画像 42Ίこ対して 2秒よりも長い間表示する。そし て、これと平行して次の特殊画像の検索を進めながら、その現在検索位置を、例えば 図 12Aに示した位置マーク 39にょうに、通過路 37上に順次重畳表示する。
[0150] 尚、位置マーク 39の表示は、現在検索位置のみに表示する(つまり現在検索位置 の移動に伴って位置マーク 39の表示が移動する)ようにしてもよぐまた、一度表示さ れた位置マーク 39の表示をそのまま残して現在検索位置の移動に応じて位置マー ク 39の表示が増えて!/、くようにしてもよ!、。
[0151] いずれにしても、医師又は看護師にとっては、現在検索位置の位置マーク表示に より、画像検索処理の進拔状態が一目で判ると共に、身体管腔モデル 26内の異常 発生状態を通過路 37に沿って順次視認することができ、これにより、次に続く処置へ の判断を迅速に行うことができる。
[0152] 続いて、このカプセル型内視鏡撮像画像ファイリングシステムにおける画像処理に ついての第 8の実施形態における処理動作を説明する。
図 14は、第 8の実施形態における画像処理の動作を説明するフローチャートである 。尚、この画像処理も、医師又は看護師による図 1に示したワークステーション 7のキ 一ボード 22又はマウス 23からの指示入力に基づいて、本体装置 19の CPUによって 行われる処理である。また、この場合も、この処理に先立って第 6の実施形態におい て述べたような作業が行われて 、る。
[0153] 図 14において、処理 S101、 S102、 S104— S108の処理は、第 6の実施形態に おいて図 11のフローチャートで説明した処理 S101、 S102、 S104— S108の処理と それぞれ同一である。本例では、図 11のフローチャートの処理 S 103の処理に代わ つて、処理 S131— S133の処理が行われる。
[0154] すなわち、処理 S102の処理における図式化した位置情報の表示(モニタ装置 21 の同一表示画面 38の左側領域に表示される被検査者 4の身体管腔モデル 26の表 示)に続いて、 CPUは、現在検索位置の画像データの処理において、予め医師又 は看護師により指定された特定の色 (例えば出血色)を有する特殊画像データが検 出されたカゝ否カゝ判別する(S131)。
[0155] そして、特定の色を有する特殊画像データが検出されていなければ (S131が No) 、処理 S104の処理に進むが、特定の色を有する特殊画像データが検出されていれ ば (S 131が Yes)、先ず、「疾患部」を示すマークを生成する(S 132)。
[0156] この「疾患部」を示すマークは、図 12A及び図 12Bに示した画像処理結果 44と同 一のものである。すなわち、図 12A及び図 12Bに示した画像処理結果 44は、疾患部 マークを示したものである。
[0157] 上記に続!ヽて、 CPUは、上記生成した疾患部マーク(画像処理結果 44)をモデル に重畳表示する(S133)。
これにより、例えば図 12A及び図 12Bに示した画像処理結果 44に表わされている ように、疾患部を示すマーク力 身体管腔モデル 26のカプセル型内視鏡 3の通過路
37上の疾患位置に重畳表示され、医師又は看護師は、疾患部がどのような範囲に 広がっているかを一目で判別することができる。
[0158] 続いて、このカプセル型内視鏡撮像画像ファイリングシステムにおける画像処理に ついての第 9の実施形態における処理動作を説明する。
図 15は、第 9の実施形態における画像処理の動作を説明するフローチャートである
。尚、この画像処理も、医師又は看護師による図 1に示したワークステーション 7のキ 一ボード 22又はマウス 23からの指示入力に基づいて、本体装置 19の CPUによって 行われる処理である。また、この場合も、この処理に先立って第 6の実施形態におい て述べたような作業が行われて 、る。
[0159] 図 15において、処理 S101— S103、 S104— S108の処理は、第 6の実施形態に おいて図 11のフローチャートで説明した処理 S101— S103、 S104— S108の処理 とそれぞれ同一である。本例では、図 11のフローチャートの処理 S103と処理 S104 の間で、処理 S 141、 S 142の処理が行われる。
[0160] すなわち、処理 S103の処理における特定の色を有する特殊画像データを検出し た後、 CPUは、画像表示を行う(S141)。
この画像表示処理では、上記検出された特殊画像データによる特殊画像が、例え ば図 12Bに示した特殊画像 42'のように、モニタ装置 21の表示画面 38の画像表示 領域 41に表示される。
[0161] そして、更に、 CPUは、その処理結果を画像に重畳表示する(S 142)。
この処理は、上記の画像処理結果として特殊画像 42'がデータベース 9から検出さ れた要因となった疾患位置を、例えば図 12Bに示した特徴検出対象位置 45のように
、特殊画像の表示に重畳して表示する処理である。
[0162] これにより、医師又は看護師は、表示された特殊画像力 疾患部を色によって自分 で探すという手数を煩わすことなぐ特徴検出対象位置 45の表示によって直ちに疾 患部を知ることができ、疾患部の精査に直ちに取り掛カることができる。
[0163] 尚、これらの処理では、医師又は看護師は、いつでもマウス 23を操作して身体管腔 モデル 26の通過路 37の表示上に沿ってポインティング矢印 43を移動させ、所望の 位置で左クリックすることにより、処理をジャンプさせて、左クリックした位置力 処理を 再開させることができる。さらに、このとき位置マーク 39は指定位置に移動するように なっている。
[0164] 尚、上述した例では、カプセル型内視鏡 3の通過路 37を、実際の身体管腔の形状 に合わせて表示している力 これに限ることなぐ位置情報として例えば 1次元つまり 直線で表現してもよぐその直線上に、図 10Aに示した食道 31、胃 32、十二指腸 33 、小腸 34、大腸 35、直腸 36等に対応する区間を設けて、位置の表示を行えば良い
[0165] 以上のように、上述した本発明の実施例によれば、多数の画像情報を容易に把握 することができると共に、多数の画像情報の中から注目すべき所望の位置や疾患部 位等が撮影された画像情報を容易に探し出すことが可能になる。
[0166] また、身体管腔の位置情報を 1次元以上の次元で図式化して表示し、その図式上 の位置情報の表示上に画像処理の進行度を重畳表示するので、通常のプログレス バーによる表示とは異なり、身体のどの部分まで画像処理が進行したか直感的に把 握できるので便禾 ljである。
[0167] 更に、特定画像の処理結果を示す特定表示を位置情報の表示上に重畳表示する と共にその特定画像を同一画面上の画像表示領域に表示するので、身体のどの部 分に特定の状態が発生して 、るの力容易に把握できて便利である。
[0168] 更に、位置情報の表示に対して直接マウスによる操作によって画像処理の制御を 行うので、身体管腔の位置との関係で直感的な操作を行うことができ、操作し易くて 便利である。

Claims

請求の範囲
[1] 被検体内に導入された撮像装置によって該被検体内の複数の位置で経時的に撮 像して得た複数の画像情報を表示部に表示させるための表示処理装置であって、 前記複数の画像情報を取得する画像情報取得部と、
前記複数の画像情報のそれぞれに関連づけられ、前記撮像装置が経時的に撮像 した前記被検体内でのそれぞれの位置に関する複数の位置情報を取得する位置情 報取得部と、
前記複数の位置情報に基づいて、前記撮像装置が経時的に撮像した前記被検体 内での位置を少なくとも 1次元の図式として前記表示部に表示させる位置情報表示 部と、
前記複数の位置情報のうちの少なくとも 1つを注目位置情報として指示する注目位 置情報指示部と、
前記図式として表示された前記複数の位置情報のうちで、前記注目位置情報とし て指示された位置情報に関連づけられた画像情報を前記表示部に表示させる画像 表示部と、
を有することを特徴とする画像情報の表示処理装置。
[2] 前記位置情報表示部により前記図式として表示された前記複数の位置情報のうち で、該図式中の前記注目位置情報に対応する位置に所定のマークを表示させる位 置マーク表示部をさらに有することを特徴とする請求項 1に記載の画像情報の表示
[3] 前記複数の画像情報と前記複数の位置情報とを保存する保存部をさらに有し、 前記画像表示部は、前記注目位置情報として指示された位置情報に関連づけられ た画像情報を前記保存部から読み出して前記表示部に表示させる
ことを特徴とする請求項 1に記載の画像情報の表示処理装置。
[4] 前記注目位置情報指示部は、前記位置情報表示部によって前記図式として表示さ れた前記複数の位置情報の中から、該図式上で任意の位置情報を前記注目位置情 報として指定する指定位置入力部を更に有することを特徴とする請求項 1に記載の 画像情報の表示処理装置。
[5] 前記複数の画像特報の中から所定の特徴部分を有する画像情報を抽出する特徴 画像検出部を更に有し、
前記注目位置情報指示部は、前記特徴画像検出部で抽出された前記所定の特徴 を有する画像情報に関連づ 、て 、る位置情報を前記注目位置情報として指示する ことを特徴とする請求項 1に記載の画像情報の表示処理装置。
[6] 被検体内の複数の位置で経時的に撮像して得た複数の画像情報をモニタ装置の 表示画面上に表示させるための表示処理方法であって、
前記複数の画像情報を取得する画像情報取得工程と、
前記複数の画像情報のそれぞれに関連づけられ、前記被検体内で経時的に撮像 されたそれぞれの位置に関する複数の位置情報を取得する位置情報取得工程と、 前記複数の位置情報に基づ 、て、前記被検体内で経時的に撮像された位置を少 なくとも 1次元の図式として表示させる位置情報表示工程と、
前記複数の位置情報のうちの少なくとも 1つを注目位置情報として指示する注目位 置情報指示工程と、
前記図式として表示された前記複数の位置情報のうちで、前記注目位置情報とし て指示された位置情報に関連づけられた画像情報を表示させる画像表示工程と、 を含むことを特徴とする画像情報の表示処理方法。
[7] 前記位置情報表示工程により前記図式として表示された前記複数の位置情報のう ちで、該図式中の前記注目位置情報に対応する位置に所定のマークを表示させる 位置マーク表示工程をさらに有することを特徴とする請求項 6に記載の画像情報の 表示処理方法。
[8] 前記複数の画像情報と前記複数の位置情報とを保存する保存工程をさらに有し、 前記画像表示工程は、前記注目位置情報として指示された位置情報に関連づけら れた画像情報を前記保存工程から読み出して前記表示工程に表示させる ことを特徴とする請求項 6に記載の画像情報の表示処理方法。
[9] 前記注目位置情報指示工程は、前記位置情報表示工程によって前記図式として 表示された前記複数の位置情報の中から、該図式上で任意の位置情報を前記注目 位置情報として指定する指定位置入力工程を更に有することを特徴とする請求項 6 に記載の画像情報の表示処理方法。
[10] 前記複数の画像特報の中から所定の特徴部分を有する画像情報を抽出する特徴 画像検出工程を更に有し、
前記注目位置情報指示工程は、前記特徴画像検出工程で抽出された前記所定の 特徴を有する画像情報に関連づ 、て 、る位置情報を前記注目位置情報として指示 する
ことを特徴とする請求項 6に記載の画像情報の表示処理方法。
[11] 被検体内の複数の位置で経時的に撮像して得た複数の画像情報をコンピュータに よってモニタ装置の表示画面上に表示させるための表示処理プログラムが記録され ている記録媒体であって、
該表示処理プログラムは、該コンピュータで実行されることにより、
前記複数の画像情報を取得する画像情報取得処理と、
前記複数の画像情報のそれぞれに関連づけられ、前記被検体内で経時的に撮像 されたそれぞれの位置に関する複数の位置情報を取得する位置情報取得処理と、 前記複数の位置情報に基づ 、て、前記被検体内で経時的に撮像された位置を少 なくとも 1次元の図式として表示させる位置情報表示処理と、
前記複数の位置情報のうちの少なくとも 1つを注目位置情報として指示する注目位 置情報指示処理と、
前記図式として表示された前記複数の位置情報のうちで、前記注目位置情報とし て指示された位置情報に関連づけられた画像情報を表示させる画像表示処理と、 を前記コンピュータに行わせることを特徴とする記録媒体。
[12] 前記表示処理プログラムは、前記コンピュータで実行されることにより、前記位置情 報表示処理により前記図式として表示された前記複数の位置情報のうちで、該図式 中の前記注目位置情報に対応する位置に所定のマークを表示させる位置マーク表 示処理を更に該コンピュータに行わせることを特徴とする請求項 11に記載の記録媒 体。
[13] 前記表示処理プログラムは、前記コンピュータで実行されることにより、前記複数の 画像情報と前記複数の位置情報とを保存する保存処理を更に該コンピュータに行わ せ、
前記画像表示処理は、前記保存処理の実行によって保存されている、前記注目位 置情報として指示された位置情報に関連づけられた画像情報を読み出して表示させ る処理を前記コンピュータに行わせる
ことを特徴とする請求項 11に記載の記録媒体。
[14] 前記注目位置情報指示処理は、前記位置情報表示処理によって前記図式として 表示された前記複数の位置情報の中から、該図式上で任意の位置情報を前記注目 位置情報として指定する指定位置入力処理を更に前記コンピュータに行わせること を特徴とする請求項 11に記載の記録媒体。
[15] 前記表示処理プログラムは、前記コンピュータで実行されることにより、前記複数の 画像特報の中から所定の特徴部分を有する画像情報を抽出する特徴画像検出処理 を更に該コンピュータに行わせ、
前記注目位置情報指示処理は、前記特徴画像検出処理で抽出された前記所定の 特徴を有する画像情報に関連づ 、て 、る位置情報を前記注目位置情報として指示 する処理を前記コンピュータに行わせる
ことを特徴とする請求項 11に記載の記録媒体。
[16] 所定の時間間隔で被検体内を移動するカプセル型内視鏡が連続して撮像して取 得した連続画像データを処理するカプセル型内視鏡用画像フアイリング装置であつ て、
前記連続画像データを取得した前記被検体内の位置に関する 1つ以上の位置情 報から任意の 1つの位置を注目位置情報として取得する注目位置情報取得部と、 前記注目位置情報として指示された位置に対応する画像情報を前記連続画像デ ータから取得する画像情報取得部と、
前記被検体内における 1つ以上の位置情報を少なくとも 1次元以上の図式として表 示する位置表示部と、
前記画像情報取得部によって取得された前記画像情報に対して所定の処理を施 す画像情報処理部と、
前記位置表示部によって表示された前記図式上に注目位置情報取得部によって 取得された注目位置情報の位置を重畳表示し、この注目位置情報の該図式上の表 示変化によって前記画像情報処理部による処理の進行度を告知する進拔情報表示 部と、
を有することを特徴とするカプセル型内視鏡用画像フアイリング装置。
[17] 前記位置表示部は、体内の身体管腔におけるカプセル型内視鏡の通過経路を表 示すると共に、該通過経路の背景として平均的な体内臓器の位置を表示することを 特徴とする請求項 16に記載のカプセル型内視鏡用画像フアイリング装置。
[18] 前記進拔情報表示部は、前記進行度を告知する表示を前記画像情報処理部によ る処理結果と共に前記位置表示部による表示上に重畳表示することを特徴とする請 求項 16に記載のカプセル型内視鏡用画像フアイリング装置。
[19] 前記画像情報処理部の処理の進行と共に該画像情報処理部の処理に対応する画 像情報を表示する画像情報表示部を有することを特徴とする請求項 16に記載の力 プセル型内視鏡用画像フアイリング装置。
[20] 前記画像情報表示部は、前記画像情報処理部による処理結果を、前記画像情報 の表示に重畳した形で表示することを特徴とする請求項 19に記載のカプセル型内 視鏡用画像フアイリング装置。
[21] 前記画像情報表示部は、前記画像情報を所定の時間間隔で更新表示することを 特徴とする請求項 19に記載のカプセル型内視鏡用画像フアイリング装置。
[22] 装置操作者からの指示を受け付ける指示入力部を有し、
前記画像情報処理部は、前記指示入力部による入力結果に基づいて画像情報処 理の制御を行う
ことを特徴とする請求項 16に記載のカプセル型内視鏡用画像フアイリング装置。
[23] 前記指示入力部からの入力結果に基づく前記画像情報処理部における画像情報 処理の制御は、処理の終了であることを特徴とする請求項 22に記載のカプセル型内 視鏡用画像フアイリング装置。
[24] 前記指示入力部からの入力結果に基づく前記画像情報処理部における画像情報 処理の制御は、処理の一時停止であることを特徴とする請求項 22に記載のカプセル 型内視鏡用画像フアイリング装置。
[25] 前記指示入力部からの入力結果に基づく前記画像情報処理部における画像情報 処理の制御は、処理の再開であることを特徴とする請求項 22に記載のカプセル型内 視鏡用画像フアイリング装置。
[26] 前記指示入力部からの入力結果に基づく前記画像情報処理部における画像情報 処理の制御は、処理対象とする画像情報の変更であることを特徴とする請求項 22に 記載のカプセル型内視鏡用画像ファイリング装置。
[27] 所定の時間間隔で被検体内を移動するカプセル型内視鏡が連続して撮像して取 得した連続画像データを処理するカプセル型内視鏡用画像フアイリング方法であつ て、
前記連続画像データを取得した前記被検体内の位置に関する 1つ以上の位置情 報から任意の 1つの位置を注目位置情報として取得する注目位置情報取得工程と、 前記注目位置情報として指示された位置に対応する画像情報を前記連続画像デ ータから取得する画像情報取得工程と、
前記被検体内における 1つ以上の位置情報を少なくとも 1次元以上の図式として表 示する位置表示工程と、
前記画像情報取得工程によって取得された前記画像情報に対して所定の処理を 施す画像情報処理工程と、
前記位置表示工程によって表示された前記図式上に注目位置情報取得工程によ つて取得された注目位置情報の位置を重畳表示し、この注目位置情報の該図式上 の表示変化によって前記画像情報処理工程による処理の進行度を告知する進拔情 報表示工程と、
を含むことを特徴とするカプセル型内視鏡用画像フアイリング方法。
[28] 前記位置表示工程は、体内の身体管腔におけるカプセル型内視鏡の通過経路を 表示すると共に、該通過経路の背景として平均的な体内臓器の位置を表示すること を特徴とする請求項 27に記載のカプセル型内視鏡用画像フアイリング方法。
[29] 前記進拔情報表示工程は、前記進行度を告知する表示を前記画像情報処理工程 による処理結果と共に前記位置表示工程による表示上に重畳表示することを特徴と する請求項 27に記載のカプセル型内視鏡用画像ファイリング方法。
[30] 前記画像情報処理工程の処理の進行と共に該画像情報処理工程の処理に対応 する画像情報を表示する画像情報表示工程を含むことを特徴とする請求項 27に記 載に記載のカプセル型内視鏡用画像フアイリング方法。
[31] 前記画像情報表示工程は、前記画像情報処理工程による処理結果を、前記画像 情報の表示に重畳した形で表示することを特徴とする請求項 30に記載のカプセル 型内視鏡用画像フアイリング方法。
[32] 前記画像情報表示工程は、前記画像情報を所定の時間間隔で更新表示すること を特徴とする請求項 30に記載のカプセル型内視鏡用画像ファイリング方法。
[33] 方法操作者力ゝらの指示を受け付ける指示入力工程を含み、
前記画像情報処理工程は、前記指示入力工程による入力結果に基づいて画像情 報処理の制御を行う
ことを特徴とする請求項 27に記載のカプセル型内視鏡用画像フアイリング方法。
[34] 前記指示入力工程力 の入力結果に基づく前記画像情報処理工程における画像 情報処理の制御は、処理の終了であることを特徴とする請求項 33に記載のカプセル 型内視鏡用画像フアイリング方法。
[35] 前記指示入力工程からの入力結果に基づく前記画像情報処理工程における画像 情報処理の制御は、処理の一時停止であることを特徴とする請求項 33に記載のカブ セル型内視鏡用画像フアイリング方法。
[36] 前記指示入力工程からの入力結果に基づく前記画像情報処理工程における画像 情報処理の制御は、処理の再開であることを特徴とする請求項 33に記載のカプセル 型内視鏡用画像フアイリング方法。
[37] 前記指示入力工程からの入力結果に基づく前記画像情報処理工程における画像 情報処理の制御は、処理対象とする画像情報の変更であることを特徴とする請求項
33に記載のカプセル型内視鏡用画像フアイリング方法。
[38] コンピュータに、所定の時間間隔で被検体内を移動するカプセル型内視鏡が連続 して撮像して取得した連続画像データの処理を実行させるカプセル型内視鏡用画像 フアイリング処理プログラムが記録されている記録媒体であって、
該カプセル型内視鏡用画像フアイリング処理プログラムは、該コンピュータで実行さ れることにより、
前記連続画像データを取得した前記被検体内の位置に関する 1つ以上の位置情 報から任意の 1つの位置を注目位置情報として取得する注目位置情報取得処理と、 前記注目位置情報として指示された位置に対応する画像情報を前記連続画像デ 一タカ 取得する画像情報取得処理と、
前記被検体内における 1つ以上の位置情報を少なくとも 1次元以上の図式として表 示する位置表示処理と、
前記画像情報取得処理によって取得された前記画像情報に対して所定の処理を 施す画像情報処理処理と、
前記位置表示処理によって表示された前記図式上に注目位置情報取得処理によ つて取得された注目位置情報の位置を重畳表示し、この注目位置情報の該図式上 の表示変化によって前記画像情報処理処理による処理の進行度を告知する進拔情 報表示処理と、
を前記コンピュータに行わせることを特徴とする記録媒体。
[39] 前記位置表示処理は、体内の身体管腔におけるカプセル型内視鏡の通過経路を 表示すると共に、該通過経路の背景として平均的な体内臓器の位置を表示する処理 を前記コンピュータに行わせることを特徴とする請求項 38に記載の記録媒体。
[40] 前記進拔情報表示処理は、前記進行度を告知する表示を前記画像情報処理処理 による処理結果と共に前記位置表示処理による表示上に重畳表示する処理を前記 コンピュータに行わせることを特徴とする請求項 38に記載の記録媒体。
[41] 前記カプセル型内視鏡用画像フアイリング処理プログラムは、前記コンピュータで 実行されることにより、前記画像情報処理処理の処理の進行と共に該画像情報処理 処理の処理に対応する画像情報を表示する画像情報表示処理を更に該コンピュー タに行わせることを特徴とする請求項 38に記載の記録媒体。
[42] 前記画像情報表示処理は、前記画像情報処理処理による処理結果を、前記画像 情報の表示に重畳した形で表示する処理を前記コンピュータに行わせることを特徴と する請求項 41に記載の記録媒体。
[43] 前記画像情報表示処理は、前記画像情報を所定の時間間隔で更新表示する処理 を前記コンピュータに行わせることを特徴とする請求項 41に記載の記録媒体。
[44] 前記カプセル型内視鏡用画像フアイリング処理プログラムは、前記コンピュータで 実行されることにより、前記コンピュータの外部力 の指示を受け付ける指示入力処 理を更に該コンピュータに行わせ、
前記画像情報処理処理は、前記指示入力処理による入力結果に基づ 、て画像情 報処理の制御を前記コンピュータに行わせる
ことを特徴とする請求項 38に記載の記録媒体。
[45] 前記指示入力処理によって受け付けた入力結果に基づく前記画像情報処理処理 における画像情報処理の制御は、処理の終了であることを特徴とする請求項 44に記 載の記録媒体。
[46] 前記指示入力処理によって受け付けた入力結果に基づく前記画像情報処理処理 における画像情報処理の制御は、処理の一時停止であることを特徴とする請求項 44 に記載の記録媒体。
[47] 前記指示入力処理によって受け付けた入力結果に基づく前記画像情報処理処理 における画像情報処理の制御は、処理の再開であることを特徴とする請求項 44に記 載の記録媒体。
[48] 前記指示入力処理によって受け付けた入力結果に基づく前記画像情報処理処理 における画像情報処理の制御は、処理対象とする画像情報の変更であることを特徴 とする請求項 44に記載の記録媒体。
PCT/JP2004/018170 2003-12-05 2004-12-06 表示処理装置 WO2005053518A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP04819963A EP1690491A4 (en) 2003-12-05 2004-12-06 DISPLAY PROCESSING DEVICE
US11/418,534 US8368746B2 (en) 2003-12-05 2006-05-04 Apparatus and method for processing image information captured over time at plurality of positions in subject body

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2003-408233 2003-12-05
JP2003408233A JP4139319B2 (ja) 2003-12-05 2003-12-05 カプセル型内視鏡撮像画像ファイリング装置
JP2004-028579 2004-02-04
JP2004028579A JP3984230B2 (ja) 2004-02-04 2004-02-04 画像情報の表示処理装置、その表示処理方法及び表示処理プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US11/418,534 Continuation US8368746B2 (en) 2003-12-05 2006-05-04 Apparatus and method for processing image information captured over time at plurality of positions in subject body

Publications (1)

Publication Number Publication Date
WO2005053518A1 true WO2005053518A1 (ja) 2005-06-16

Family

ID=34656238

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/018170 WO2005053518A1 (ja) 2003-12-05 2004-12-06 表示処理装置

Country Status (3)

Country Link
US (1) US8368746B2 (ja)
EP (2) EP1690491A4 (ja)
WO (1) WO2005053518A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010122823A1 (ja) * 2009-04-20 2010-10-28 オリンパスメディカルシステムズ株式会社 被検体内検査システム
US8465418B2 (en) 2006-04-19 2013-06-18 Olympus Medical Systems Corp. Capsule-type medical device

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1712176B1 (en) * 2004-02-06 2011-04-06 Olympus Corporation Receiver
US8038608B2 (en) * 2005-09-09 2011-10-18 Olympus Corporation Body-cavity image observation apparatus
CN101677756B (zh) * 2007-05-17 2012-10-17 奥林巴斯医疗株式会社 图像信息的显示处理装置以及显示处理方法
JP2008295490A (ja) 2007-05-29 2008-12-11 Olympus Medical Systems Corp カプセル内視鏡画像表示装置
US8139818B2 (en) * 2007-06-28 2012-03-20 Toshiba Tec Kabushiki Kaisha Trajectory processing apparatus and method
KR100868339B1 (ko) * 2007-11-15 2008-11-12 주식회사 인트로메딕 의료용 영상 데이터의 디스플레이 방법과 의료용 영상데이터를 이용한 캡쳐 영상 제공 시스템 및 그 방법
RU2011120186A (ru) * 2008-10-20 2012-11-27 Конинклейке Филипс Электроникс, Н.В. Способ и система локализации на основе изображений
JP4902620B2 (ja) 2008-10-21 2012-03-21 オリンパスメディカルシステムズ株式会社 カプセル誘導システム
WO2010103868A1 (ja) * 2009-03-11 2010-09-16 オリンパスメディカルシステムズ株式会社 画像処理システム、その外部装置およびその画像処理方法
CN102469976B (zh) * 2009-07-06 2015-02-18 皇家飞利浦电子股份有限公司 生理参数的可视化
JP5015363B2 (ja) * 2010-09-24 2012-08-29 オリンパスメディカルシステムズ株式会社 画像表示装置及びカプセル型内視鏡システム
WO2012042987A1 (ja) 2010-09-28 2012-04-05 オリンパスメディカルシステムズ株式会社 画像表示装置及びカプセル型内視鏡システム
WO2012063623A1 (ja) * 2010-11-08 2012-05-18 オリンパスメディカルシステムズ株式会社 画像表示装置及びカプセル型内視鏡システム
WO2012106310A1 (en) * 2011-02-04 2012-08-09 The Penn State Research Foundation Method and device for determining the location of an endoscope
US8900131B2 (en) * 2011-05-13 2014-12-02 Intuitive Surgical Operations, Inc. Medical system providing dynamic registration of a model of an anatomical structure for image-guided surgery
US8827934B2 (en) 2011-05-13 2014-09-09 Intuitive Surgical Operations, Inc. Method and system for determining information of extrema during expansion and contraction cycles of an object
WO2016080331A1 (ja) * 2014-11-17 2016-05-26 オリンパス株式会社 医療装置
WO2018096680A1 (ja) * 2016-11-28 2018-05-31 オリンパス株式会社 情報呈示システム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6346940B1 (en) 1997-02-27 2002-02-12 Kabushiki Kaisha Toshiba Virtualized endoscope system
US20020177779A1 (en) 2001-03-14 2002-11-28 Doron Adler Method and system for detecting colorimetric abnormalities in vivo
US20030073935A1 (en) 2001-10-16 2003-04-17 Olympus Optical Co., Ltd. Capsulated medical equipment
JP2003524448A (ja) * 1998-10-22 2003-08-19 ギブン・イメージング・リミテツド 標的部位に装置を送り出す方法
US20030195415A1 (en) 2002-02-14 2003-10-16 Iddan Gavriel J. Device, system and method for accoustic in-vivo measuring
US20030208107A1 (en) 2000-01-13 2003-11-06 Moshe Refael Encapsulated medical imaging device and method

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3295021B2 (ja) 1997-07-22 2002-06-24 株式会社杉浦製作所 緩み止め雌ねじ部構造とその製造方法
US6369812B1 (en) * 1997-11-26 2002-04-09 Philips Medical Systems, (Cleveland), Inc. Inter-active viewing system for generating virtual endoscopy studies of medical diagnostic data with a continuous sequence of spherical panoramic views and viewing the studies over networks
JP2001325139A (ja) * 2000-05-16 2001-11-22 Canon Inc 情報処理システム、情報処理装置、撮像システム、情報処理方法、記憶媒体
IL143260A (en) 2001-05-20 2006-09-05 Given Imaging Ltd Array and method for locating an intra-body signal source
JP2005501630A (ja) 2001-09-05 2005-01-20 ギブン・イメージング・リミテッド 身体管腔の3次元表示のためのシステムおよび方法
JP2003093326A (ja) * 2001-09-25 2003-04-02 Pentax Corp 可撓性電子内視鏡装置
WO2005031650A1 (en) * 2003-10-02 2005-04-07 Given Imaging Ltd. System and method for presentation of data streams

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6346940B1 (en) 1997-02-27 2002-02-12 Kabushiki Kaisha Toshiba Virtualized endoscope system
JP2003524448A (ja) * 1998-10-22 2003-08-19 ギブン・イメージング・リミテツド 標的部位に装置を送り出す方法
US20030208107A1 (en) 2000-01-13 2003-11-06 Moshe Refael Encapsulated medical imaging device and method
US20020177779A1 (en) 2001-03-14 2002-11-28 Doron Adler Method and system for detecting colorimetric abnormalities in vivo
US20030073935A1 (en) 2001-10-16 2003-04-17 Olympus Optical Co., Ltd. Capsulated medical equipment
JP2003116781A (ja) * 2001-10-16 2003-04-22 Olympus Optical Co Ltd カプセル型医療機器
US20030195415A1 (en) 2002-02-14 2003-10-16 Iddan Gavriel J. Device, system and method for accoustic in-vivo measuring

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1690491A4

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8465418B2 (en) 2006-04-19 2013-06-18 Olympus Medical Systems Corp. Capsule-type medical device
US8974373B2 (en) 2006-04-19 2015-03-10 Olympus Medical Systems Corp. Capsule-type medical device
WO2010122823A1 (ja) * 2009-04-20 2010-10-28 オリンパスメディカルシステムズ株式会社 被検体内検査システム
US8298136B2 (en) 2009-04-20 2012-10-30 Olympus Medical Systems Corp. In-vivo examination system
CN102405010B (zh) * 2009-04-20 2014-07-16 奥林巴斯医疗株式会社 被检体内检查系统

Also Published As

Publication number Publication date
EP1690491A1 (en) 2006-08-16
EP2649931A2 (en) 2013-10-16
EP2649931A3 (en) 2013-12-18
US8368746B2 (en) 2013-02-05
EP1690491A4 (en) 2011-04-13
EP2649931B1 (en) 2017-02-01
US20060202998A1 (en) 2006-09-14

Similar Documents

Publication Publication Date Title
US8368746B2 (en) Apparatus and method for processing image information captured over time at plurality of positions in subject body
JP4493386B2 (ja) 画像表示装置、画像表示方法および画像表示プログラム
JP4733243B2 (ja) 生検支援システム
US7940967B2 (en) Medical procedure support system and method
JP3984230B2 (ja) 画像情報の表示処理装置、その表示処理方法及び表示処理プログラム
AU2006282459B2 (en) Image display device
WO2006057193A1 (ja) 画像表示装置
JP2006198032A (ja) 手術支援システム
WO2012165572A1 (ja) 医用画像表示装置及び医用画像診断装置
JP4554647B2 (ja) 画像表示装置、画像表示方法および画像表示プログラム
WO2012063623A1 (ja) 画像表示装置及びカプセル型内視鏡システム
JP2009022446A (ja) 医療における統合表示のためのシステム及び方法
JP4139319B2 (ja) カプセル型内視鏡撮像画像ファイリング装置
US8169472B2 (en) Image display apparatus with interactive database
JP4574983B2 (ja) 画像表示装置、画像表示方法、及び画像表示プログラム
JP4547401B2 (ja) 画像表示装置、画像表示方法および画像表示プログラム
JP6313913B2 (ja) 内視鏡画像観察支援システム
JP4547402B2 (ja) 画像表示装置、画像表示方法および画像表示プログラム
JP4445742B2 (ja) 画像表示装置、画像表示方法、及び画像表示プログラム
US20220047154A1 (en) Endoluminal robotic systems and methods employing capsule imaging techniques
US20240197403A1 (en) Endoscopic ultrasound guided tissue acquisition
US20230123739A1 (en) Image guidance during cannulation
JP4354353B2 (ja) 挿入支援システム
JP2022145395A (ja) 検査支援装置、検査支援方法および検査支援プログラム

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2004819963

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 11418534

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 2004819963

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 11418534

Country of ref document: US