WO2007139187A1 - 3次元画像構築装置及び方法並びにプログラム - Google Patents

3次元画像構築装置及び方法並びにプログラム Download PDF

Info

Publication number
WO2007139187A1
WO2007139187A1 PCT/JP2007/061100 JP2007061100W WO2007139187A1 WO 2007139187 A1 WO2007139187 A1 WO 2007139187A1 JP 2007061100 W JP2007061100 W JP 2007061100W WO 2007139187 A1 WO2007139187 A1 WO 2007139187A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
tubular structure
luminance information
dimensional image
pixels
Prior art date
Application number
PCT/JP2007/061100
Other languages
English (en)
French (fr)
Inventor
Tatsuo Igarashi
Satoki Zenbutsu
Original Assignee
National University Corporation Chiba University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National University Corporation Chiba University filed Critical National University Corporation Chiba University
Priority to US12/302,480 priority Critical patent/US9247865B2/en
Priority to EP07744488.3A priority patent/EP2030558B1/en
Priority to JP2008517981A priority patent/JP4753104B2/ja
Publication of WO2007139187A1 publication Critical patent/WO2007139187A1/ja

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/042Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by a proximal camera, e.g. a CCD camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/507Depth or shape recovery from shading
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1076Measuring physical dimensions, e.g. size of the entire body or parts thereof for measuring dimensions inside body cavities, e.g. using catheters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine

Definitions

  • the present invention relates to a continuous inner surface of a tubular structure observed by a camera or endoscope placed in or inserted into a tubular structure such as a tunnel, a sewer pipe, a digestive tract or a luminal organ of a patient.
  • the present invention relates to a 3D image construction apparatus that constructs a continuous 3D image at a high speed based on the relative distance between each point on the inner surface of a tubular structure calculated from a target image or video image and an objective lens.
  • an observation region depending on the field of view of an endoscope inserted into a tubular structure is observed and displayed with the naked eye or via a video camera. Recorded by photography or video shooting within the recording range specified by the user.
  • the observation and display range is limited to the observation field of the endoscope, and the whole is recorded by repeating local recording. According to this, since the whole cannot be displayed as a single unbroken photograph, the objectivity is poor in locating the region of interest.
  • Another method for continuously recording the whole is to shoot with video images, but this method cannot be displayed simultaneously and takes time to view.
  • the conventional method only records a flat image, so it cannot grasp the 3D structure. Furthermore, the conventional method cannot objectively record the hardness and movement of the tissue constituting the luminal structure.
  • Patent Document 1 discloses an image creation system for creating continuous and seamless expanded still image data of the inner surface of this type of tubular structure.
  • This image creation system includes digital image data capture means, pipe projection conversion means for creating a development view in the circumferential direction of the inner surface of the tubular structure for each frame of the captured digital image data, mosaicing processing means, image It is composed of data compression means and compressed image data storage means.
  • the development view in the circumferential direction of each frame of the endoscopic video image is connected in the central axis direction of the tubular structure, A whole image is constructed.
  • Patent Document 2 while monitoring the posture and position information of a camera moving in a tubular structure, the inner surface of the tube is photographed, and a plurality of sheets are matched with the observation field of the camera. A method of creating an entire image by connecting images is disclosed.
  • Patent Document 3 discloses a method in which a directed scanning illumination device is attached to the distal end of an endoscope and the shape of the inner surface of the body is measured three-dimensionally by directed illumination.
  • Patent Document 4 an interference fringe projection unit and a laser spot projection unit for distance measurement are attached to the distal end of an endoscope, and three-dimensional information of the subject is obtained from the interference fringe and distance measurement information formed on the subject.
  • the calculation method is public.
  • Patent Document 5 an image is taken with an arbitrary time difference while changing the amplitude of illumination light, and the distance between each point is measured based on the brightness of each point and the degree of change in imaging gain.
  • a method for detecting stereoscopic information is disclosed.
  • a strip-shaped image is created from an image in a 360-degree space around the camera using a convex mirror or fisheye lens installed in front of the camera moving in the tube, and this is the direction of camera movement.
  • a method of displaying the entire image as a single image by connecting the images while correcting them is disclosed.
  • Patent Document 7 after calculating the relative positions of a pipe and an endoscope from an endoscopic image of the pipe inner surface observed with an endoscope moving on the pipe inner surface having a single cross section, A method for calculating the length and area of an object is disclosed.
  • Patent Document 8 discloses image processing means for creating a tertiary shape model from a plurality of two-dimensional images captured while changing optical parameters.
  • Patent Document 9 discloses a technique for creating a three-dimensional model from a plurality of images picked up by changing optical parameters.
  • Patent Document 10 discloses a technique for decomposing an observation object into color components by an endoscope equipped with a color filter and extracting stereoscopic information by parallax.
  • the hardness of a living tissue is calculated by calculating a reflection signal from a living tissue that is displaced by an ultrasonic wave emitted from an ultrasonic transducer attached to the distal end of an endoscope. Techniques for measuring are disclosed.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2003-32674
  • Patent Document 2 Japanese Patent Laid-Open No. 1 66316
  • Patent Document 3 Japanese Patent Publication No. 2003-535659
  • Patent Document 4 JP-A-5-211988
  • Patent Document 5 JP 2000-121339 A
  • Patent Document 6 Japanese Patent Laid-Open No. 2000-331 168
  • Patent Document 7 JP-A-5-340721
  • Patent Document 8 Japanese Patent Laid-Open No. 1-11337337
  • Patent Document 9 JP 2002-191554 A
  • Patent Document 10 Japanese Unexamined Patent Publication No. 2000-19424
  • Patent Document 11 Japanese Patent Laid-Open No. 2001-224594
  • the technique disclosed in Patent Document 5 calculates the distance to the camera based on the degree of change in luminance of reflected light from an object that is imaged at an arbitrary time difference with illumination light that changes in amplitude. Therefore, an expensive device such as a sensor with excellent resolution is required. In addition, measurement is impossible when the object force is close to the S-camera or when the object repeats rapid movement and deformation.
  • the technique disclosed in Patent Document 8 also creates a three-dimensional model from a plurality of images captured by the force S without changing the optical parameters, and cannot be applied when the subject moves quickly. It is necessary to set a new optical device.
  • Patent Document 7 is premised on the measurement of an object inside a pipe having a single cross section, and cannot be applied to an irregularly shaped tubular structure.
  • the technique disclosed in Patent Document 10 requires a new stereoscopic endoscope and apparatus, and it is necessary to reconstruct stereoscopic information and color information due to parallax and arrange them appropriately for displaying a continuous stereoscopic image. Since the calculation is complicated, it is impossible to cope with fast movement.
  • the technique disclosed in Patent Document 11 requires an ultrasonic device attached to the distal end of the endoscope, and air must not be interposed between the ultrasonic device and the living tissue. Calculation is required, and application fields in medicine are limited.
  • the present invention has been made in view of the above technical problem, and in a state where the relative position between the center axis of the irregularly shaped and moving tubular structure and the optical axis of the photographing means varies. It is an object to provide a 3D image construction apparatus and method sequence and a program that can easily construct a 3D image of a structure. Means for solving the problem
  • a three-dimensional image construction apparatus that constructs a three-dimensional image based on an image of an inner surface of a tubular structure that is an observation target.
  • the three-dimensional image constructing apparatus includes an optical axis extending in the axial direction of the tubular structure, an imaging unit that acquires a plurality of frame images while moving into the tubular structure under a predetermined illumination condition, and the imaging
  • a luminance information extracting means for extracting luminance information of pixels corresponding to a predetermined range of each frame image of the inner surface of the tubular structure acquired by the means, and a depth based on the luminance information extracted by the luminance information extracting means.
  • Distance information calculation means for calculating a relative distance between each point on the inner surface of the tubular structure and the objective lens (imaging means) in the direction, and pixels corresponding to a predetermined range of each frame image on the inner surface of the tubular structure.
  • 3D image construction means for continuously constructing a 3D image of the inner surface of the tubular structure by combining the arrangement of data for a plurality of frame images, reflecting the distance.
  • the apparatus further includes a change amount detection device that measures a change amount in the circumferential direction and the axial direction of the imaging means (for example, an endoscope), and the three-dimensional image construction means includes a tube Reflecting the circumferential and axial motion information (detection information) of the tip of the imaging means measured by the change amount detection device for pixels corresponding to a predetermined range of each frame image on the inner surface of the structure A 3D image of the inner surface of the tubular structure is constructed by combining data arrays for multiple frame images.
  • a change amount detection device that measures a change amount in the circumferential direction and the axial direction of the imaging means (for example, an endoscope)
  • the three-dimensional image construction means includes a tube Reflecting the circumferential and axial motion information (detection information) of the tip of the imaging means measured by the change amount detection device for pixels corresponding to a predetermined range of each frame image on the inner surface of the structure
  • a 3D image of the inner surface of the tubular structure is constructed by
  • the three-dimensional image construction device has a point corresponding to the optical axis of the imaging unit on each frame image as a predetermined range of the frame image from which the luminance information is extracted by the luminance information extraction unit.
  • the luminance information extracting means extracts luminance information of pixels existing on the test line for each frame image.
  • the 3D image construction device includes color information extraction means for extracting color information of pixels constituting each frame image of the inner surface of the tubular structure imaged by the imaging means, and the 3D image construction means.
  • Color information addition means for adding color information extracted by the color extraction means to each pixel constituting the constructed three-dimensional image may be provided.
  • the luminance information may be luminance information relating to red, green, blue, or a mixed color of pixels constituting each frame image.
  • the imaging means may be an endoscope.
  • a three-dimensional image of the tubular structure can be easily and at high speed.
  • Power to build S By constructing a three-dimensional image at high speed, it is possible to accurately diagnose and record the movement of the lumen itself in addition to the conventional shape and color diagnosis during endoscopic diagnosis.
  • information on the hardness and tension of the living tissue that composes the lumen is created by constructing a three-dimensional image at high speed while injecting the optimal gas or liquid into the lumen at the time of endoscopic diagnosis. Can also be recorded.
  • a three-dimensional image faithful to the actual observation target can be constructed by properly using the luminance information of red, green, blue, or a mixed color according to the color tone of the observation target.
  • the luminance information is a color tone having a wavelength similar to the complementary color of the observation object's color tone, for example, luminance information related to green, so that the actual observation object The ability to build 3D images that are even more faithful.
  • FIG. 1 is a block diagram showing an overall configuration of a 3D image construction apparatus according to an embodiment of the present invention.
  • FIG. 2 is a block diagram showing a basic configuration of an information processing apparatus constituting the 3D image construction apparatus.
  • FIG. 3 is a diagram showing a configuration of a distal end portion of an endoscope scope in an endoscope device constituting the 3D image construction apparatus.
  • FIG. 4 (a) is a diagram showing an observation region in a state where the endoscope scope inserted into the lumen is inclined downward.
  • (B) It is a figure showing the observation field in the state where the endoscope scope inserted in the lumen inclines upward.
  • FIG. 5 is a diagram showing a mode in which a circular test line is set as a predetermined range to be extracted with luminance information on a frame image extracted from a video file.
  • FIG. 6 is an explanatory diagram of a developed pixel array extracted from each frame image and subsequent combination processing.
  • FIG. 7 is a diagram showing changes in luminance information of pixels extracted corresponding to test lines set on each frame image.
  • FIG. 8 is a diagram showing a developed image of the inner surface of a lumen constructed by a conventional method for comparison with and contrast with FIG.
  • FIG. 9 (a) Distribution of luminance information for red of each pixel composing a 3D image 3 It is a dimensional graph. (B) A three-dimensional graph showing the distribution of luminance information for the green color of each pixel constituting the three-dimensional image. (C) A three-dimensional graph showing the distribution of luminance information about the blue color of each pixel constituting the three-dimensional image.
  • FIG. 10 It is on the positive side in the luminance axis direction in (a), (b) and (c) of Fig. 9, and is perpendicular to the plane consisting of the axes corresponding to "time” and "position on the test line", respectively.
  • FIG. 5 is a view showing a developed image of the inner surface of the lumen as seen from the viewpoint set in the direction.
  • FIG. 11 is a view showing a developed image of the inner surface of the lumen constructed by a conventional method for comparison with FIG.
  • FIG. 12 is a graph showing a relative change between luminance and distance.
  • FIG. 13 (a) is a diagram showing a three-dimensional image viewed from the viewpoint set on the positive side in the depth direction and perpendicular to the XY plane.
  • FIG. 14 is a diagram showing a three-dimensional image in which the image shown in FIG. 13 (a) is pulled up diagonally to the left and rotated about the Y axis.
  • FIG. 14 is a diagram showing a three-dimensional image formed by pulling the image shown in (a) of FIG. 13 diagonally downward to the right and rotating it around the Y axis.
  • FIG. 14 is a flowchart of the 3D image construction process in the first embodiment.
  • FIG. 15 is a diagram showing a motion detection device of the three-dimensional image construction device in the second embodiment.
  • FIG. 16 is a diagram for explaining correction of an image in the circumferential direction in the second embodiment.
  • FIG. 17 is a diagram for describing correction of an image in the axial direction in the second embodiment.
  • FIG. 18 (a) is a view showing a developed image of the inner surface of the lumen when correction in the circumferential direction and the axial direction is not performed. (B) It is a figure which shows the expansion
  • FIG. 19 is a flowchart of the 3D image construction process in the second embodiment. Explanation of symbols
  • FIG. 1 is a block diagram schematically showing the overall configuration of the 3D image construction apparatus according to the first embodiment of the present invention.
  • This 3D image construction apparatus 1 is connected to an endoscopic device 10 that captures a video file composed of a plurality of frame images, for example, by imaging the inner surface of a luminal organ, and is connected to the endoscopic device 10.
  • An information processing device 20 composed of a general-purpose PC that displays and outputs the video file acquired by the mirror device 10 and executes a process of constructing a pseudo three-dimensional image based on the frame image extracted from the video file. ,have.
  • the endoscope device 10 and the information processing apparatus 20 are connected via a cable 11 such as a USB cable, for example, and the video file acquired by the endoscope device 10 is transferred to the information processing apparatus 20 between the two devices.
  • the command signal can be transmitted from the information processing apparatus 20 to the endoscope device 10.
  • a video capture board may be interposed between the endoscope device 10 and the information processing apparatus 20.
  • the endoscopic device 10 is inserted into, for example, a luminal organ, and controls the endoscope scope 2 that images the inner surface of the lumen, the endoscope scope 2, and the endoscope scope 2 through the endoscope scope 2. And a control unit 3 for creating a video file based on the input signal.
  • the configuration of the endoscope scope 2 will be described with reference to FIG.
  • the control unit 3 includes a control unit 3a that controls each component in the unit 3, and a signal processing unit 3b that creates a video file on the inner surface of the lumen based on a signal input via the endoscope scope 2.
  • a light source unit 3c that is a light source of illumination light emitted from the distal end portion of the endoscope scope 2 to the observation object.
  • the control unit 3a controls on / off switching of imaging and illumination by the endoscope scope 2, and adjusts the amount of light supplied to the endoscope scope 2 from the light source unit 3c in accordance with a user operation. To do.
  • the configuration of the three-dimensional image construction apparatus 1 is not limited to this.
  • the endoscopic device 10 that observes the inner surface of a luminal organ
  • the inner wall of a tunnel or a sewer pipe is used.
  • An endoscope device or a video camera system to be observed may be used.
  • a laptop (desktop) PC is used instead of a laptop. You can use a PC-type PC power.
  • FIG. 2 is a block diagram showing a basic configuration of the information processing apparatus 20.
  • This information processing apparatus 20 is based on a program such as an operating system (OS) that is basic software, and controls a sequence of each component in the information processing apparatus 20 and a boot program that is executed when the information processing apparatus 20 is started.
  • OS operating system
  • ROM22 which is used as a buffer area of the work area necessary for program execution
  • HD hard disk
  • HD hard disk
  • the video file input from the monitor 25 as the display output device that can display various information such as the case screen, the input device 26 such as the mouse 26a and the keyboard 26b, and the endoscope device 10.
  • the information processing apparatus 20 has a configuration such as an optical disk drive or a floppy (registered trademark) disk drive, for example.
  • a 3D image construction program is stored in the ROM 22 (or hard disk 24), and in the image processor 27 of the information processing apparatus 20, an internal view is performed as this program is read and executed.
  • Video image input from the mirror device 10 Multiple frame images are extracted in sequence, each obtained from each frame image, and the pixels after the unfolded array are combined for multiple frame images. An original image is constructed.
  • the video file input from the endoscope device 10 may be stored on the hard disk 24 on the information processing apparatus 20 side or to a printer (not shown) for printing out a predetermined frame image. May be forwarded.
  • FIG. 3 is an enlarged view showing the distal end portion of the endoscope scope 2.
  • an objective lens 2a to be observed
  • a pair of illumination optical fibers 2b and an operation channel 2c such as a forceps channel or a suction channel.
  • an operation channel 2c such as a forceps channel or a suction channel.
  • the endoscope scope 2 is not limited to this, for example, one having a single or three or more illumination optical fibers is employed. May be.
  • the objective lens 2a includes an optical axis F extending parallel to or at a constant angle with respect to the central axis (indicated by symbol B) of the endoscope scope 2, and with respect to the optical axis F, It has a viewing angle of up, down, left and right ⁇ °.
  • the endoscope scope 2 when imaging the inner surface of the lumen, it is ideal that the endoscope scope 2 is moved along the central axis of the lumen within the lumen, but in reality, the lumen is irregularly shaped. At the same time, the movement of the endoscope scope 2 changes in the lumen, and the relative position between the central axis of the lumen and the optical axis F of the objective lens 2a always varies.
  • the observation area is an area as indicated by reference numeral S2. That is, in this case, on the upper inner surface of the lumen 30, the region close to the objective lens 2a is within the observation region S2, while on the lower inner surface of the lumen 30, the region farther from the objective lens 2a is observed. It will fit in area S2.
  • the illumination fiber 2b of the endoscope scope 2 emits a certain amount of illumination light to the lumen inner surface 30a, and this illumination light is emitted from the lumen inner surface 30a.
  • the reflected light enters the objective lens 2a.
  • the brightness of the reflected light is based on the relationship inversely proportional to the distance from the objective lens 2a to the lumen inner surface 30a (Fig. 12), and is far from the objective lens 2a.
  • the brightness of the reflected light from the lumen inner surface 30a located at the lower position becomes weaker, while the brightness of the reflected light from the lumen inner surface 30a near the object lens 2a becomes stronger.
  • the intensity of the brightness of the reflected light depends on the CCD (not shown) etc. where the reflected light is incorporated in the endoscope scope 2. It is reflected in the magnitude of the luminance of the pixels constituting each frame image of the lumen inner surface 30a obtained by being converted into an electrical signal.
  • luminance information of pixels corresponding to a predetermined range is extracted from each frame image of a video file in which the intensity of reflected light from an observation target is reflected in this way.
  • a circular test line centered on a point corresponding to the optical axis F of the object lens 2a is set on each frame image. This establishes a conical depth axis connecting the lens and the test line.
  • FIG. 5 shows a mode in which a test line (circular white line) as a predetermined range to be extracted with luminance information is set on the frame image acquired by the endoscope device 10.
  • pixels located in the circumferential direction of the lumen inner surface 30a are extracted from each frame image constituting the video file.
  • a pixel is determined as a luminance information extraction target, an RGB value is acquired for each pixel, luminance information is acquired based on the RGB value, and a relative distance in the depth information direction is calculated.
  • the radius of this test line can be set arbitrarily, and one test line set to acquire a 3D image of an observation target is applied to all frame images extracted from the video file. Is done.
  • FIG. 6 conceptually shows a mode in which pixels located in the circumferential direction of the lumen inner surface 30a are expanded and arranged and combined for a plurality of frame images.
  • the left-right direction in the figure corresponds to the axial direction of the lumen 30, and the up-down direction corresponds to the inner diameter of the lumen 30.
  • the pixel corresponding to the central axis of the objective lens 2a (here, the pixel located at 6 o'clock on the test line) is set as the reference pixel, and the pixel after each unfolded array is the reference pixel.
  • the pixels are combined while being positioned to match.
  • the width in the vertical direction is changed according to the luminance of each pixel on the test line. For example, each pixel is plotted so that the width is reduced for pixels with high brightness, while the width is increased for pixels with low brightness. Thereby, information on the inner diameter of the lumen 30 is added.
  • FIG. 7 is a diagram in which graphs representing changes in luminance information of pixels respectively extracted from a plurality of frame images are displayed side by side.
  • the changing power of the luminance information of the pixels extracted from the ten frame images fl to fl 0 is shifted and arranged in parallel in the order of extraction of the frame images.
  • the left-right direction in the figure corresponds to the inner diameter of the lumen 30, and the up-down direction corresponds to the axial direction of the lumen 30.
  • changes in luminance information that should actually be reflected in the direction perpendicular to the drawing are represented in the vertical direction in the figure.
  • FIG. 8 shows a developed image of the luminal inner surface 30a constructed by using the conventional method based on the same file as the video file adopted in the present embodiment.
  • the left-right direction in the figure corresponds to the inner diameter of the lumen 30, and the up-down direction corresponds to the axial direction of the lumen 30. From these FIGS. 7 and 8, it can be seen that the change in the luminance information obtained by the method according to the present embodiment roughly matches the change in the luminance information obtained by the conventional method.
  • FIGS. 9A, 9B, and 9C distributions of luminance information about red, green, and blue of each pixel constituting the three-dimensional image of the lumen inner surface 30a are shown.
  • a three-dimensional graph showing is shown.
  • the axis representing “luminance” in addition to the axis representing “luminance”, the axis representing the “time” corresponding to the axial direction of the lumen 30 and the “position on the test line” corresponding to the inner diameter of the lumen 30 are set. Is done.
  • FIG. 10 corresponding to (a), (b) and (c) of FIG. 9, the plane is on the positive side in the luminance axis direction and is composed of the axes of “time” and “position on the test line”. The developed image is seen from the viewpoint set in the vertical direction.
  • FIG. 11 shows a developed image of the inner surface 30a of the lumen constructed by the conventional method based on the same file as the video file adopted in the present embodiment.
  • Fig. 11 corresponds to the unfolded image shown in Fig. 8 rotated 90 ° counterclockwise, and the area shown in the white frame in Fig. 11 is the unfolded image shown in Fig. 10. The corresponding area.
  • the direction indicating “time” and “position on the lumen cross section” in FIG. Correspond to the directions of the axes representing “time” and “position on the test line” in Figs. 9 and 10, respectively.
  • the best detection is obtained when the green luminance information is adopted in constructing the three-dimensional image. Sensitivity was obtained, and a 3D image faithful to the shape of the actual observation object was acquired. Subsequently, good detection sensitivity was obtained in the order of blue and red. Basically, it was possible to construct a three-dimensional image faithful to the actual observation object by properly using the luminance information of green, blue, red, or a mixed color according to the color tone of the observation object.
  • the luminance information is a color tone similar to the complementary color of the color to be observed, such as luminance information on green, for example. 3D images that are more faithful to the object can be constructed.
  • the position information in the depth direction calculated based on the luminance information of the pixels is reflected when the pixels are expanded and arranged.
  • the position information for example, as shown in FIG. 12, the position information in the depth direction is calculated from the luminance information of each pixel based on the relationship in which the luminance and the distance change exponentially. Specifically, as the luminance information is larger, it is determined that the observation object has a shorter distance from the objective lens 2a (see FIG. 4) to the observation object, and the position information in the depth direction is set larger. In this way, the unevenness in the depth direction of the observation target can be grasped.
  • FIG. 13 is a diagram showing a three-dimensional image viewed from a viewpoint that is set on the positive side in the depth direction (Z-axis direction) and perpendicular to the XY plane.
  • Z-axis direction extends along the depth direction so that the front side of the paper is in the positive direction.
  • FIG. 13 (b) is a diagram showing a three-dimensional image acquired by pulling the image shown in FIG. 13 (a) obliquely to the upper left and rotating it around the Y axis.
  • (c) of FIG. 13 is a diagram showing a three-dimensional image obtained by pulling the image shown in (a) of FIG. 13 diagonally to the lower right and rotating it around the Y axis.
  • the output RGB value may be added.
  • a three-dimensional image that is more faithful to the actual observation target can be constructed, and the characteristics of the lumen inner surface 30a to be observed can be more easily grasped.
  • FIG. 14 is a three-dimensional image construction process executed on the information processing apparatus 20 side based on the three-dimensional image construction program.
  • the video file acquired on the endoscope device 10 side is the information processing apparatus 20. This is a flow chart for the processing from when it is read to the side until the 3D image is constructed.
  • a video file acquired on the endoscope device 10 side is read (# 11), and then a test line as shown in FIG. 5 is set (# 12). This test line is applied to all frame images extracted from the video file in the subsequent steps.
  • a depth axis corresponding to the Z axis described with reference to FIG. 13 is set in order to represent the position information of each pixel in the depth direction in constructing the three-dimensional image.
  • the luminance of each pixel on the test line is calculated based on the RGB value obtained in step # 14 (# 16).
  • information on the relative distance in the depth direction on the test line is acquired from this luminance based on the relationship in which the distance and luminance change exponentially as shown in FIG. 12 (# 17).
  • the relative distance from the objective lens of the endoscope 2 to each point on the inner surface of the lumen structure on the test line is calculated.
  • a 3D image is generated based on the objective lens force of such an endoscope and the relative distance to each point on the inner surface of the lumen structure.
  • step # 19 it is determined whether or not steps # 14 to # 18 have been completed for all frame images (# 19), and as a result, it is determined that all frame images have not been completed yet. Returns to step # 13, and for the different frame images, Is repeated. On the other hand, if it is determined in step # 19 that the step has been completed for all the frame images, then the three-dimensional image is constructed by combining the expanded pixels (# 20). ). Finally, a 3D graph as shown in Fig. 9 is displayed (# 21), and the process is terminated.
  • the three-dimensional image and the three-dimensional graph in steps # 20 and # 21 may be stored in the hard disk 24 as necessary.
  • the 3D image construction process described above is executed in parallel with the acquisition of the video file on the endoscope device 10 side, or the video file acquired on the endoscope device 10 side is information. Once stored on the processing apparatus 20 side, it may be executed as necessary. Further, the above-described 3D image construction processing is executed by reading a 3D image construction program stored in the ROM 22 or the hard disk 24 of the information processing device 20. This program is stored in the information processing device 20.
  • an optical disc 18 such as a CD-ROM, DVD-ROM, or a floppy disc 19 (both It may be additionally stored in the hard disk 24 of the information processing device 20 by being downloaded using an external recording medium such as FIG. 1) or via a network.
  • a 3D image of the luminal inner surface 30a that is irregularly shaped and moves can be easily constructed based on luminance information.
  • the power to do S Conventionally, a large number of captured images are required to record an endoscopic image.
  • the user can determine the position and shape of the lesion. In addition to being easily recognizable, it can also objectively record tissue hardness and movement information. This improves the diagnostic accuracy of the endoscopy.
  • the memory capacity for storing images can be reduced, and the viewing time for images can be shortened.
  • the three-dimensional image construction device of the present embodiment further includes a motion detection device that detects the motion of the endoscope scope 2.
  • FIG. 15 shows the configuration of the motion detection device.
  • the motion detection device 50 includes an axial direction sensor 51 that detects the amount of movement of the endoscope scope 2 in the axial direction, and a circumferential direction sensor 52 that detects the amount of change in the circumferential direction of the endoscope scope 2.
  • the axial direction sensor 51 and the circumferential direction sensor 52 can be easily realized by using, for example, a mouse mechanism generally used as an instruction device for a personal computer.
  • the motion detection device 50 detects the amount of movement of the endoscope scope 2 from the axial reference position and the amount of change in the circumferential direction of the endoscope scope 2 from the circumferential reference position. Output to.
  • the information processing device 20 When the information processing device 20 receives the detection data from the motion detection device 50, the information processing device 20 associates the time information indicating the reception time (corresponding to the detection time), the amount of movement in the axial direction, and the amount of change in the circumferential direction. Then, the movement information of the endoscope scope is stored in a predetermined storage device such as the hard disk 24. The information processing apparatus 20 corrects the circumferential direction and the axial direction based on the motion information when the images are developed and arranged.
  • the time information indicating the reception time (corresponding to the detection time) may be any information that can correspond to the shooting time of each image frame of the video file and the detection value by the motion detection device 50. For example, JST ( Japan Standard Time), standard time such as GMT (Greenwich Mean Time), and information indicating the elapsed time from the start of video image recording can be used.
  • the circumferential direction sensor 52 of the motion detection device 50 detects the amount of change in the circumferential direction of the endoscope scope 2, that is, the amount of rotation.
  • the amount of change detected by the circumferential sensor 52 is ⁇ 1
  • pixel data on the test line hereinafter referred to as “pixel column data”.
  • the axial direction sensor 51 of the motion detection device 50 detects the amount of movement of the endoscope scope 2 in the axial direction.
  • Embodiment 1 as shown in FIG. 17 (a), a developed image is obtained by sequentially arranging pixel column data obtained in time series from a video file.
  • the endoscope scope The traveling speed of 2 is not always constant. That is, when the traveling speed of the endoscope scope 2 is almost zero, multiple images of the same position on the inner surface of the lumen are obtained, while on the other hand, the faster the traveling speed of the endoscope scope 2, the more the inner surface of the lumen. An image at a distant position will be obtained.
  • FIG. 17 (b) is a diagram showing an example in which pixel column data obtained in a time series from a video file is arranged in correspondence with an actual physical position.
  • the position (movement amount) in the axial direction at the time of acquisition of the pixel column data 2 to 4, the pixel column data 5 to 6, and the pixel column data 8 to 9 is almost the same, so they are overlapped. .
  • the pixel column data 0 and the pixel column data 1 and the pixel column data 7 and the pixel column data 8 that are in contact with P are arranged at distant positions because there is a large difference in the amount of movement in the axial direction when the data is acquired.
  • a relatively long portion of pixel data between the position of the inner surface of the lumen corresponding to pixel row data 0 (or 8) and the position of the inner surface of the lumen corresponding to pixel row data 1 (or 9) is acquired. Means not.
  • the inner surface of the lumen such as pixel column data 2-4, pixel column data 5-6, and pixel column data 8-9. If there are multiple pixel column data indicating the image at the same position, only one data will be used. On the other hand, when there is a gap between the pixel column data 0 and the pixel column data 1 and between the pixel column data 7 and the pixel column data 8, the data between them is interpolated from the data at both ends. For example, as shown in FIG. 17C, the interpolation data A is generated from the pixel column data 0 and the pixel column data 1, and is arranged between the pixel column data 0 and the pixel column data 1.
  • the number of interpolation data arranged between the pixel column data is appropriately determined according to the interval. For example, when the interval between the pixel column data 7 and the pixel column data 8 is large, a plurality of interpolation data B and C are generated and arranged by linear interpolation. More specifically, in the developed image, the resolution (the number of pixel column data arranged per unit time) is set in the axial direction (time direction), and pixel column data is thinned out and interpolated based on the resolution. What should I do?
  • FIG. 18 (a) is a diagram showing an example of an image developed and arranged by the method of the first embodiment when the axial and circumferential corrections are not performed.
  • a corrected image as shown in FIG. 18 (b) is obtained.
  • FIG. 19 is a flowchart of processing for executing a 3D image construction process while performing correction based on the movement of the endoscope scope 2 in the present embodiment.
  • step # 15 is added to the flowchart of FIG. 14 in the first embodiment, and the processing content of step # 18 is different.
  • the information processing device 20 reads the motion information acquired by the detection device 50 and stored in the information processing device 20, and acquires position information in the circumferential direction and the axial direction. Then, in the pixel expansion array processing in step # 18, the pixel array data is expanded and arranged while performing the above-described circumferential and axial corrections. Other steps are the same as those in the first embodiment.
  • the correction is performed in both the circumferential direction and the axial direction.
  • the correction may be performed in at least one of them. Even in this case, the image can be reproduced closer to the actual condition of the inner surface of the lumen.
  • the present invention has been described with respect to specific embodiments, the spirit of the present invention is not limited to the illustrated embodiments, and various modifications and changes can be made without departing from the spirit of the present invention. Needless to say, design changes are possible.
  • the present invention specifically includes the upper digestive tract such as the stomach, the duodenum, and the esophagus, and the large intestine and the small intestine. Applicable to various luminal organs including lower digestive tract, urethra, ureter and the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radiology & Medical Imaging (AREA)
  • Geometry (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Computer Graphics (AREA)
  • Pathology (AREA)
  • Software Systems (AREA)
  • Optics & Photonics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

 観察対象である管状構造物内面の画像に基づき、疑似的な3次元画像を構築する3次元画像構築装置において、管状構造物の軸方向に延びる光軸を備えた撮像手段により、所定の照明条件下で、管状構造物内での移動に際して取得された管状構造物内面の各フレーム画像の所定範囲に対応した画素の輝度情報を抽出し、管状構造物内面の各フレーム画像の所定範囲に対応する画素の輝度情報を抽出し、輝度情報に基づき、深さ方向における各点と対物レンズとの相対的距離を算出し、管状構造物内面の各フレーム画像の所定範囲に対応する画素を相対的距離を反映しつつ展開配列し、展開配列後の画素を複数フレーム画像分組み合わせることで、管状構造物内面の3次元画像を構築する。

Description

明 細 書
3次元画像構築装置及び方法並びにプログラム
技術分野
[0001] 本発明は、トンネル,下水管,患者の消化管や管腔臓器等の管状構造物内に配置 された若しくは揷入されたカメラや内視鏡により観察された管状構造物内面の連続的 画像、またはビデオ映像から算出された管状構造物内面の各点と対物レンズとの相 対的距離に基づき、高速度で連続的な 3次元画像を構築する 3次元画像構築装置 に関する。
背景技術
[0002] 従来、内視鏡デバイスの使用に際しては、一般に、管状構造物内に挿入された内 視鏡の視野に依存する観察領域が、肉眼で又はビデオカメラを介して観察され表示 され、観察者により指定された記録範囲で、写真撮影又はビデオ撮影により記録され る。この場合、観察及び表示範囲は内視鏡の観察視野に限定され、局部的な記録を 繰り返すことで全体が記録される。これによれば、全体を切れ目のない 1枚の写真と して表示することはできないので、関心領域の位置の特定に客観性が乏しい。全体 を連続的に記録する別の方法としては、ビデオ映像で撮影する方法もあるが、この方 法では、同時に全体表示が不可能である上に閲覧に時間がかかる。また、従来の方 法では、平面的な画像を記録するだけなので、立体構造を把握することはできなレ、。 さらに、従来法では管腔構造物を構成する組織の硬度や動きを客観的に記録するこ とはできない。
[0003] 例えば下記特許文献 1には、この種の管状構造物内面の連続した繋ぎ目のない展 開静止画像データを作成する画像作成システムが開示されている。この画像作成シ ステムは、デジタル画像データ取り込み手段と、取り込まれたデジタル画像データの 1フレーム毎に管状構造物内面の周方向の展開図を作成するパイプ投影変換手段 と、モザィキング処理手段と、画像データ圧縮手段と、圧縮画像データ格納手段とに より構成されており、ここでは、内視鏡ビデオ映像の 1フレーム毎の周方向の展開図 が管状構造物の中心軸方向につなげられることで、全体画像が構築される。 [0004] また、例えば下記特許文献 2には、管状構造物内を移動するカメラの姿勢及び位 置情報をモニタしながら、管の内面を撮影し、カメラの観察野に符合させながら複数 枚の画像をつなげることで全体画像を作成する方法が開示されている。
[0005] 更に、例えば下記特許文献 3には、内視鏡先端に有向走査照明装置を装着し、有 向照明により身体内面の形状を立体的に計測する方法が開示され、また、例えば下 記特許文献 4には、内視鏡先端に干渉縞投影ユニットと距離計測のためのレーザー スポット投影ユニットを装着し、被検体に形成された干渉縞と測距情報により被検体 の 3次元情報を計算する方法が公開されている。
[0006] 例えば、下記特許文献 5では照明光の振幅を変化させながら任意の時間差をおレ、 て撮像し、撮像の各点の輝度および撮像利得の変化の程度により各点の距離を計 測することで立体情報を検出する方法が開示されている。
[0007] 例えば、下記特許文献 6では管渠内を移動するカメラの前に設置した凸面鏡また は魚眼レンズでカメラ周囲 360度の空間の映像から短冊状の画像を作成し、これを カメラの移動方向に補正をかけながらつなげることで全体を一枚の画像として表示す る方法が開示されている。
[0008] 例えば、下記特許文献 7では単一断面を有するパイプ内面を移動する内視鏡で観 察したパイプ内面の内視鏡画像から、パイプと内視鏡の相対的位置を計算した上で 対象物の長さや面積を算出する方法が開示されている。
[0009] 例えば、下記特許文献 8では、光学的パラメーターを変更しながら撮像された複数 の 2次元画像から 3次形状モデルを作成する画像処理手段が開示されてレ、る。また 下記特許文献 9では光学的パラメーターを変化させて撮像した複数の画像から 3次 元モデルを作成する技術が開示されている。さらに、下記特許文献 10では、色フィ ルタを搭載した内視鏡により観察物を色成分に分解し、視差により立体情報を抽出 する技術が開示されている。
[0010] 例えば、特許文献 11には内視鏡先端に装着した超音波トランスデューサから発射 される超音波により変位が加えられた生体組織からの反射信号を演算することで、生 体組織の硬度を計測する技術が開示されている。
[0011] 特許文献 1 :特開 2003— 32674号公報 特許文献 2:特開平 1 1 66316号公報
特許文献 3:特表 2003— 535659号公報
特許文献 4 :特開平 5— 21 1988号公報
特許文献 5 :特開 2000— 121339号公報
特許文献 6 :特開 2000— 331 168号公報
特許文献 7:特開平 5— 340721号公報
特許文献 8:特開平 1 1一 337845号公報
特許文献 9 :特開 2002— 191554号公報
特許文献 10:特開 2000— 19424号公報
特許文献 11:特開 2001— 224594号公報
発明の開示
発明が解決しょうとする課題
[0012] 上記特許文献 1 , 6に開示される技術では、カメラ 1台で撮像された画像から展開画 像を作成するものであるが、管状構造物の中心軸を画像より抽出する必要があり、不 整形の管状構造物内に内視鏡が通過する状況、すなわちカメラの光軸と管状構造 物の中心軸との相対位置が常に大きく変動している状況では、画像をつなぐことがで きない。
[0013] また、上記特許文献 2に開示される技術では、カメラの姿勢,位置が常に計測され るため、その機器や情報処理装置が必要になり、調整や計算が煩雑になる。上記特 許文献 3、 4及び 9に開示された技術では、内視鏡本体に新たな複数の装置の装着 が必要である。
[0014] 上記特許文献 5に開示される技術は、振幅の変化する照明光で任意の時間差で 撮像される対象物からの反射光の輝度の変化の程度によりカメラとの距離を算出す るものであり、分解能の優れたセンサーなどの高価な装置が必要である。また対象物 力 Sカメラに接近している場合や対象物が早い運動や変形を繰り返す場合には計測は 不可能である。上記特許文献 8に開示される技術も光学的パラメーターを変化させな 力 Sら撮像した複数の画像から 3次元モデルを作成するものであり、被写体の動きが速 い場合には応用ができないほか、光学的な装置を新たに設定する必要がある。上記 特許文献 7に開示される技術は単一断面を有するパイプ内部での対象物の計測を 前提にしており、不整形の管状構造物に応用することはできない。上記特許文献 10 に開示される技術では新たな立体内視鏡および装置が必要であり、連続した立体画 像の表示には視差による立体情報と色情報を再構成して適宜配列する必要があり、 計算が煩雑になるので早い動きには対応ができない。上記特許文献 11に開示され る技術は内視鏡先端に装着する超音波装置が必要であり、また、超音波装置と生体 組織の間に空気が介在してはならないので、新たな装置と複雑な演算が必要であり 、且つ医療における応用分野が限定される。
[0015] 本発明は、上記技術的課題に鑑みてなされたもので、不整形で動きのある管状構 造物の中心軸と撮影手段の光軸との相対位置が変動する状態において、該管状構 造物の 3次元画像を簡単に構築することができる 3次元画像構築装置及び方法並び にプログラムを提供することを目的とする。 課題を解決するための手段
[0016] そこで本願発明の 1つの態様においては、観察対象である管状構造物内面の画像 に基づき 3次元画像を構築する 3次元画像構築装置が提供される。この 3次元画像 構築装置は、上記管状構造物の軸方向に延びる光軸を備え、所定の照明条件下で 、上記管状構造物内に移動しつつ複数フレーム画像を取得する撮像手段と、該撮像 手段により取得された管状構造物内面の各フレーム画像の所定範囲に対応する画 素の輝度情報を抽出する輝度情報抽出手段と、該輝度情報抽出手段により抽出さ れた輝度情報に基づき、深さ方向における、管状構造物内面の各点と対物レンズ( 撮像手段)の相対的距離を算出する距離情報算出手段と、上記管状構造物内面の 各フレーム画像の所定範囲に対応する画素を上記相対的距離を反映して配列し、 複数フレーム画像分のデータの配列を組み合わせることで、上記管状構造物内面の 3次元画像を連続的に構築する 3次元画像構築手段と、を有している。
[0017] 本願発明のもう 1つの態様においては、撮像手段(例えば、内視鏡)の周方向と軸 方向の変化量を計測する変化量検出装置をさらに備え、 3次元画像構築手段は、管 状構造物内面の各フレーム画像の所定範囲に対応する画素を変化量検出装置によ り計測される撮像手段先端の周方向と軸方向の運動情報 (検出情報)を反映しつつ 複数フレーム画像分のデータ配列を組み合わせることで、上記管状構造物内面の 3 次元画像を構築する。
[0018] また、 3次元画像構築装置は、上記輝度情報抽出手段による輝度情報抽出対象と なるフレーム画像の所定範囲として、上記各フレーム画像上に、上記撮像手段の光 軸に対応した点を中心とする円形の試験線を設定する試験線設定手段を有してい てもよレ、。この場合、上記輝度情報抽出手段が、上記フレーム画像毎に上記試験線 上に存在する画素の輝度情報を抽出することとなる。
[0019] 更に、 3次元画像構築装置は、上記撮像手段により撮像された管状構造物内面の 各フレーム画像を構成する画素の色彩情報を抽出する色彩情報抽出手段と、上記 3 次元画像構築手段により構築された 3次元画像を構成する各画素に対して、上記色 彩抽出手段により抽出された色彩情報を付加する色彩情報付加手段と、を有してい てもよい。
[0020] また、更に、上記輝度情報は、各フレーム画像を構成する画素の赤色又は緑色若 しくは青色あるいはこれらの混合色に関する輝度情報であってもよい。カロえて、上記 撮像手段は、内視鏡であってもよい。
発明の効果
[0021] 本願発明によれば、不整形で動きのある管状構造物の中心軸と撮影手段の光軸と の相対位置が変動する状態において、該管状構造物の 3次元画像を容易に高速で 構築すること力 Sできる。 3次元画像を高速に構築することにより、内視鏡診断時にお レ、て従来の形状と色彩による診断の他に、管腔自体の動きを正確に診断、記録する ことも可能となる。さらに、内視鏡診断時に管腔臓器内腔に至適な気体や液体を内 腔に注入しながら 3次元画像を高速に構築することにより、管腔を構成する生体組織 の硬度や張力の情報を記録することも可能になる。
[0022] また、従来、内視鏡画像を記録するために多数の撮影画像が必要であつたが、観 察範囲全体を含む 3次元画像を構築することができるため、ユーザは、病変部の位 置や形状を容易に認識することができ、内視鏡検査の診断精度が向上する。加えて 、画像の格納のためのメモリ容量を縮小することができ、また、画像の閲覧時間を短 縮すること力 Sできる。 [0023] 更に、 3次元画像を構成する各画素に対して色彩情報が付加されることで、実際の 観察対象により忠実な 3次元画像を構築することができ、また、観察対象の特徴を一 層容易に把握することができる。
また、更に、観察対象の色調に応じて、赤色又は緑色若しくは青色あるいはこれら の混合色の輝度情報を使い分けることにより、実際の観察対象に忠実な 3次元画像 を構築することができる。例えば、観察対象が患者の消化管や管腔臓器である場合 に、輝度情報として、観察対象の色調の補色に類似した波長の色調、例えば緑色に 関する輝度情報を用いることにより、実際の観察対象に一層忠実な 3次元画像を構 築すること力 Sできる。
図面の簡単な説明
[0024] [図 1]本発明の実施形態に係る 3次元画像構築装置の全体構成を示すブロック図で ある。
[図 2]上記 3次元画像構築装置を構成する情報処理装置の基本的な構成を示すプロ ック図である。
[図 3]上記 3次元画像構築装置を構成する内視鏡デバイスにおける内視鏡スコープ 先端部の構成を示す図である。
[図 4] (a)管腔内に挿入された内視鏡スコープが下方に傾斜した状態における観察 領域をあらわす図である。 (b)管腔内に挿入された内視鏡スコープが上方 に傾斜した状態における観察領域をあらわす図である。
[図 5]ビデオファイルから抽出されたフレーム画像上に、輝度情報抽出対象となる所 定範囲として円形の試験線が設定された態様をあらわす図である。
[図 6]各フレーム画像から抽出された画素の展開配列及びその後の組合せ処理につ いての説明図である。
[図 7]各フレーム画像上に設定された試験線に対応して抽出された画素の輝度情報 の変化をあらわす図である。
[図 8]図 7と比較対照するために、従来方法により構築される管腔内面の展開画像を 示す図である。
[図 9] (a) 3次元画像を構成する各画素の赤色についての輝度情報の分布を示す 3 次元グラフである。 (b) 3次元画像を構成する各画素の緑色についての輝 度情報の分布を示す 3次元グラフである。 (c) 3次元画像を構成する各画 素の青色についての輝度情報の分布を示す 3次元グラフである。
[図 10]図 9の(a) , (b)及び (c)中の輝度軸方向正側にあり、「時間」及び「試験線上 の位置」にそれぞれ対応した軸からなる平面に対し垂直な方向に設定された視点か らみた管腔内面の展開画像を示す図である。
[図 11]図 7と比較対照するために、従来方法により構築される管腔内面の展開画像を 示す図である。
[図 12]輝度と距離との間の相対変化をあらわすグラフである。
[図 13] (a)深さ方向正側にあり、 XY平面に対し垂直な方向に設定された視点からみ た 3次元画像を示す図である。 (b)図 13の(a)に示される画像が左斜め 上に引き上げられ、 Y軸まわりに回転させられてなる 3次元画像を示す図である。
(c)図 13の(a)に示される画像が右斜め下に引き下げられ、 Y軸まわりに回 転させられてなる 3次元画像を示す図である。
[図 14]実施の形態 1における 3次元画像構築処理についてのフローチャートである。
[図 15]実施の形態 2における 3次元画像構築装置の動き検出装置を示す図である。
[図 16]実施の形態 2における周方向の画像の補正を説明するための図である。
[図 17]実施の形態 2における軸方向の画像の補正を説明するための図である。
[図 18] (a)周方向及び軸方向の補正を行わない場合の管腔内面の展開画像を示す 図である。 (b)周方向及び軸方向の補正後の展開画像を示す図である。
[図 19]実施の形態 2における 3次元画像構築処理についてのフローチャートである。 符号の説明
1 · · · 3次元画像構築装置, 2…内視鏡スコープ, 2a…対物レンズ, 2b…照明用ファ ィバ, 3…制御ユニット, 10…内視鏡デバイス, 18…光ディスク, 19…フロッピーディ スク, 20…情報処理装置, 21 - - -CPU, 22- - -ROM, 23· · -RAM, 24…ハードデイス ク, 25…モニタ, 27…画像プロセッサ, 30…管腔, 30a…管腔内面, 50…動き検出 装置, 51…周方向センサ, 51…軸方向センサ, F…対物レンズの光軸, SI, S2- - - 観察領域。 発明を実施するための最良の形態
[0026] 以下、本発明の実施形態について、添付図面を参照しながら説明する。
[0027] (実施の形態 1)
図 1は、本発明の第 1の実施形態に係る 3次元画像構築装置の全体構成を概略的 に示すブロック図である。この 3次元画像構築装置 1は、例えば管腔臓器の内面を撮 像し、複数フレーム画像から構成されるビデオファイルを取得する内視鏡デバイス 10 と、内視鏡デバイス 10と接続され、内視鏡デバイス 10により取得されたビデオフアイ ルを表示出力するとともに、そのビデオファイルから抽出したフレーム画像に基づき、 擬似的な 3次元画像を構築する処理を実行する汎用の PCからなる情報処理装置 20 と、を有している。内視鏡デバイス 10と情報処理装置 20とは、例えば USBケーブル 等のケーブル 11を介して接続されており、両機器間では、内視鏡デバイス 10により 取得されたビデオファイルを情報処理装置 20へ伝送したり、情報処理装置 20から内 視鏡デバイス 10へコマンド信号を伝送したりすることができる。内視鏡デバイス 10と 情報処理装置 20との間にビデオキヤプチャボードが介在してもよい。
[0028] 内視鏡デバイス 10は、例えば管腔臓器内に挿入されて該管腔内面を撮像する内 視鏡スコープ 2と、内視鏡スコープ 2を制御するとともに、内視鏡スコープ 2を介して入 力される信号に基づきビデオファイルを作成する制御ユニット 3と、を有している。内 視鏡スコープ 2の構成は、図 3を参照しながら説明する。他方、制御ユニット 3は、そ のユニット 3内の各構成を制御する制御部 3aと、内視鏡スコープ 2を介して入力され る信号に基づき管腔内面のビデオファイルを作成する信号処理部 3bと、内視鏡スコ ープ 2の先端部から観察対象に対して照射される照明光の光源である光源部 3cと、 備えている。制御部 3aは、ユーザの操作に応じて、内視鏡スコープ 2による撮像や照 明のオンオフ切換えを制御したり、光源部 3cからの内視鏡スコープ 2に供給される光 量を調節したりする。
[0029] なお、 3次元画像構築装置 1の構成は、これに限定されるものでなぐ例えば管腔 臓器の内面を観察対象とする内視鏡デバイス 10の代わりに、トンネル又は下水管の 内壁を観察対象とする内視鏡デバイスやビデオカメラシステムが用いられてもよい。 また、情報処理装置 20としては、据え置き型(デスクトップ型) PCの代わりに、ラップト ップ型 PC力 s用いられてもよレヽ。
[0030] 図 2は、情報処理装置 20の基本構成を示すブロック図である。この情報処理装置 2 0は、基本ソフトウェアであるオペレーティングシステム(OS)等のプログラムに基づき 、情報処理装置 20内の各構成をシーケンス制御する CPU21と、情報処理装置 20 の起動時に実行されるブートプログラムを記録する ROM22と、プログラムの実行に 必要なワークエリアのバッファエリアとして利用される RAM23と、〇Sやアプリケーシ ヨンプログラムや各種のデータを格納するハードディスク(図中の「HD」) 24と、アプリ ケーシヨン画面等の各種の情報を表示し得る表示出力デバイスとしてのモニタ 25と、 マウス 26aやキーボード 26b等の入力デバイス 26と、内視鏡デバイス 10から入力さ れてきたビデオファイルに基づき、種々の処理を行いつつ 3次元画像を構築する画 像プロセッサ 27と、外部デバイスとの間で各種データの送受信を行なうための外部ィ ンターフェース部(図中の「外部 I/F」) 28と、を有している。また、特に図示しないが 、情報処理装置 20は、例えば、光ディスクドライブ,フロッピー(登録商標)ディスクド ライブ等の構成を有してレ、てもよレ、。
[0031] 本実施形態では、 3次元画像構築プログラムが ROM22 (又はハードディスク 24)に 格納されており、このプログラムが読み出され実行されるに伴い、情報処理装置 20の 画像プロセッサ 27において、内視鏡デバイス 10から入力されてきたビデオフアイノレ 力 複数のフレーム画像が順次に抽出され、各フレーム画像からそれぞれ取得され た、そして、展開配列後の画素が複数フレーム画像分組み合わせられることで、 3次 元画像が構築される。なお、内視鏡デバイス 10から入力されてきたビデオファイルは 、情報処理装置 20側で、ハードディスク 24に格納されても、若しくは、所定のフレー ム画像について印字出力のためにプリンタ(不図示)へ転送されてもよい。
[0032] また、図 3は、内視鏡スコープ 2の先端部を拡大して示す図である。この図から分か るように、内視鏡スコープ 2の先端部では、観察対象となる対物レンズ 2aと、一対の 照明用の光ファイバ 2bと、鉗子チャンネルや吸引チャンネル等の操作チャンネル 2c とがそれぞれ露出するように設けられている。なお、かかる構成は、従来周知であり、 また、内視鏡スコープ 2としては、これに限定されることなぐ例えば、単一の又は 3つ 以上の照明用の光ファイバが設けられたものが採用されてもよい。この内視鏡スコー プ 2では、対物レンズ 2aが、内視鏡スコープ 2の中心軸(符号 Bで示す)に平行又は 一定の角度を保持して延びる光軸 Fを備え、また、その光軸 Fに対して、上下左右 Θ ° の視野角を有している。
[0033] ところで、管腔内面の撮像に際して、内視鏡スコープ 2は管腔内で管腔の中心軸に 沿って移動させられることが理想的であるが、実際には管腔が不整形であるとともに 動きをもっため、管腔内で内視鏡スコープ 2の姿勢が変化し、これにより、管腔の中 心軸と対物レンズ 2aの光軸 Fとの相対位置が常に変動する。
[0034] 図 4の(a)及び (b)を参照しながら、管腔 30内での内視鏡スコープ 2の姿勢の変化 に伴う対物レンズ 2aによる観察領域の変化、及び、対物レンズ 2aから観察対象まで の距離と対物レンズ 2aへの入射光の強度との関係について説明する。図 4の(a)に 示されるように、管腔 30内に挿入された内視鏡スコープ 2が、管腔上下方向における 略中央に位置しつつ下方へ傾斜した場合、光軸 Fは下方に傾斜し、観察領域は、符 号 S1で示されるような領域となる。すなわち、この場合、管腔 30の上側内面について は、対物レンズ 2aからより遠方の領域が観察領域 S 1に収まり、他方、管腔 30の下側 内面にっレ、ては、対物レンズ 2aに近レ、領域が観察領域 S 1に収まるようになる。
[0035] また、図 4の(b)に示されるように、管腔 30内に挿入された内視鏡スコープ 2が、管 腔上下方向における略中央に位置しつつ上方へ傾斜した場合、光軸 Fは上方に傾 斜し、観察領域は、符号 S2で示されるような領域となる。すなわち、この場合、管腔 3 0の上側内面については、対物レンズ 2aに近い領域が観察領域 S2に収まり、他方、 管腔 30の下側内面については、対物レンズ 2aからより遠方の領域が観察領域 S2に 収まるようになる。
[0036] 管腔内面 30aの撮像の間、内視鏡スコープ 2の照明用ファイバ 2bからは一定光量 の照明光が管腔内面 30aに対して照射され、この照明光に対する管腔内面 30aから の反射光が対物レンズ 2aに入射することとなるが、この場合、反射光の輝度は対物 レンズ 2aから管腔内面 30aまでの距離に反比例する関係に基づき(図 12)、対物レ ンズ 2aから遠方に位置する管腔内面 30aからの反射光の輝度は弱くなり、他方、対 物レンズ 2aに近い管腔内面 30aからの反射光の輝度は強くなる。そして、この反射 光の輝度の強弱は、反射光が内視鏡スコープ 2に組み込まれた CCD (不図示)等に より電気信号に変換されることで取得される管腔内面 30aの各フレーム画像を構成す る画素の輝度の大小に反映される。
[0037] 本実施形態では、このように観察対象からの反射光の強弱が反映されたビデオファ ィルの各フレーム画像から、所定範囲に対応する画素の輝度情報が抽出されるよう になっている。輝度情報抽出対象となる所定範囲としては、各フレーム画像上に、対 物レンズ 2aの光軸 Fに対応した点を中心とする円形の試験線が設定される。これによ りレンズと試験線を結ぶ円錐状の深さ軸が設定される。図 5には、内視鏡デバイス 10 により取得されるフレーム画像上に、輝度情報抽出対象となる所定範囲としての試験 線(円形の白線)が設定される態様を示す。力、かる試験線が設定されることで、ビデオ ファイルを構成する各フレーム画像から、それぞれ、管腔内面 30aの周方向に位置 する画素が抽出されることとなる。また、輝度情報抽出対象となるが画素が決定され れば、各画素について、 RGB値が取得され、それに基づき、輝度情報が取得され、 輝度情報力 深さ軸方向の相対的距離が算出される。なお、この試験線の半径は任 意に設定可能であり、ある観察対象の 3次元画像取得のために設定された 1つの試 験線はビデオファイルから抽出される全フレーム画像に共通して適用される。
[0038] また、その後、フレーム画像から抽出された試験線上の画素は仮想空間上に展開 配列され、更に、展開配列後の画素が複数フレーム画像分組み合わせられることで 、 3次元画像が構築される。図 6には、管腔内面 30aの周方向に位置する画素が展 開配列され、複数フレーム画像分組み合わせられる態様を概念的に示す。図中の左 右方向は管腔 30の軸方向に対応し、また、上下方向は管腔 30の内径に対応する。 展開配列後の画素 hl〜h8の組合せに際し、対物レンズ 2aの中心軸に対応する画 素(ここでは試験線の 6時に位置する画素)が基準画素とされ、各展開配列後の画素 は、基準画素が一致するように位置決めされつつ組み合わせられる。
[0039] 本実施形態では、また、画素の展開配列に際し、試験線上の各画素の輝度に応じ て、上下方向における幅が変化されるようになっている。例えば、輝度が高い画素に ついては幅が小さくなるように、他方、輝度が低い画素については幅が大きくなるよう に、各画素がプロットされる。これにより、管腔 30の内径の情報が付加される。
[0040] なお、図 6では、画素の展開配列及びその後の組合せについての説明を簡略化す るために、画素が同じ平面上に配置されるように示されたが、実際には、各画素につ いて抽出された輝度情報が図 6の紙面に対して垂直な方向(深さ方向)に反映される ように画素が展開配列され、これにより、画像が 3次元的に構築されることとなる。
[0041] 図 7は、複数のフレーム画像からそれぞれ抽出された画素の輝度情報の変化をあ らわすグラフが並列されて表示される図である。ここでは、 10のフレーム画像 fl〜fl 0から抽出された画素の輝度情報の変化力 フレーム画像の抽出順にシフトされつ つ並列されている。図中の左右方向は管腔 30の内径に対応し、また、上下方向は管 腔 30の軸方向に対応する。なお、この図 7においては、実際には図の紙面に対して 垂直な方向(深さ方向)に反映されるべき輝度情報の変化が図中の上下方向におい て表現されている。
[0042] 図 7と比較対照するために、図 8には、本実施形態で採用されたビデオファイルと同 じファイルに基づき、従来方法を用いて構築された管腔内面 30aの展開画像を示す 。図 7と同様に、図中の左右方向は管腔 30の内径に対応し、また、上下方向は管腔 30の軸方向に対応する。これら図 7及び 8から、本実施形態に係る方法により取得さ れた輝度情報の変化は、従来方法により取得された輝度情報の変化におおよそ一 致することが分かる。
[0043] 次に、図 9の(a) , (b)及び(c)には、それぞれ、管腔内面 30aの 3次元画像を構成 する各画素の赤色,緑色及び青色についての輝度情報の分布を示す 3次元グラフを 示す。力かる 3次元グラフでは、「輝度」をあらわす軸以外に、管腔 30の軸方向に対 応した「時間」及び管腔 30の内径に対応した「試験線上の位置」をそれぞれあらわす 軸が設定される。また、図 10には、図 9の(a) , (b)及び(c)に対応して、輝度軸方向 正側にあり、「時間」及び「試験線上の位置」の軸からなる平面に対し垂直な方向に 設定された視点からみた展開画像を示す。
[0044] 更に、図 10と比較対照するために、図 11には、本実施形態で採用されたビデオフ アイルと同じファイルに基づき、従来方法を用いて構築された管腔内面 30aの展開画 像を示す。なお、この図 1 1は、図 8に示す展開画像を反時計回りに 90° 回転させた ものに該当し、図 11中の白枠内に示された領域が、図 10に示す展開画像に対応し た領域である。また、図 11中の「時間」及び「内腔断面上の位置」をあらわす方向は、 それぞれ、図 9及び 10中の「時間」及び「試験線上の位置」をあらわす軸の方向に対 応する。
図 10及び 11からも、本実施形態に係る方法により取得された輝度情報の変化が、 従来方法により取得された輝度情報の変化におおよそ一致することが分かる。
[0045] また、本願出願人が行った検証によれば、管腔内面 30aを観察対象とする場合に、 3次元画像を構築する上で緑色の輝度情報を採用した場合に、最も良好な検出感 度が得られ、実際の観察対象の形状により忠実な 3次元画像が取得された。続いて、 青色,赤色の順で、良好な検出感度が得られた。基本的には、観察対象の色調に応 じて、緑色又は青色若しくは赤色あるいはこれらの混合色の輝度情報を使い分ける ことにより、実際の観察対象に忠実な 3次元画像を構築することができた。例えば、観 察対象が患者の消化管や管腔臓器である場合に、輝度情報として、観察対象の色 調の補色に類似した波長の色調、例えば緑色に関する輝度情報を用いることにより、 実際の観察対象に一層忠実な 3次元画像を構築することができる。
[0046] 更に、厳密に、本実施形態では、画素の展開配列に際して、画素の輝度情報に基 づき算出された深さ方向における位置情報が反映されるようになっている。位置情報 は、例えば、図 12に示すように、輝度及び距離が指数関数的に相対変化する関係 に基づき、各画素の輝度情報から深さ方向における位置情報が算出される。具体的 には、輝度情報が大きいほど、対物レンズ 2a (図 4参照)から観察対象までの距離が 短ぐ観察対象が突出していると判断され、深さ方向における位置情報は大きく設定 される。このようにして、観察対象の深さ方向における凹凸を把握することができる。
[0047] また、図 13の(a)は、深さ方向(Z軸方向)正側にあり、 XY平面に対し垂直な方向 に設定された視点からみた 3次元画像を示す図である。ここでは図示しないが、 Z軸 は、深さ方向に沿って紙面手前側が正方向になるように延びる。
[0048] 図 13の(b)は、図 13の(a)に示される画像が左斜め上に引き上げられ、 Y軸まわり に回転させられることで取得される 3次元画像を示す図である。他方、図 13の(c)は、 図 13の(a)に示される画像が右斜め下に引き下げられ、 Y軸まわりに回転させられて なる 3次元画像を示す図である。
[0049] なお、これら図 13の(a), (b)及び(c)に示される画像を構成する画素には、予め抽 出された RGB値が付加されてもよい。この場合には、実際の観察対象により忠実な 3 次元画像を構築することができ、また、観察対象となる管腔内面 30aの特徴を一層容 易に把握することができる。
[0050] 図 14は、情報処理装置 20側で 3次元画像構築プログラムに基づき実行される 3次 元画像構築処理であり、内視鏡デバイス 10側で取得されたビデオファイルが情報処 理装置 20側に読み込まれてから 3次元画像が構築されるまでの処理についてのフロ 一チャートである。
[0051] この処理では、まず、内視鏡デバイス 10側で取得されたビデオファイルが読み込ま れ(# 1 1)、その後、図 5に示したような試験線が設定される(# 12)。なお、この試験 線は、これ以降のステップでビデオファイルから抽出される全てのフレーム画像に共 通して適用される。さらにステップ # 12では、 3次元画像を構築する上で、深さ方向 における各画素の位置情報をあらわすために、図 13を参照して説明した Z軸に対応 する深さ軸が設定される。
[0052] 続いて、読み込まれたビデオファイルから 1フレーム画像が抽出され(# 13)、その 後、ステップ # 12で設定された試験線上に存在する各画素の色情報としての RGB 値が取得される(# 14)。
[0053] その後、ステップ # 14で取得された RGB値に基づき、試験線上の各画素の輝度が 算出される(# 16)。その後、この輝度から、図 12に示したような距離と輝度とが指数 関数的に相対変化する関係に基づき、試験線上における深さ方向の相対的距離に 関する情報が取得される(# 17)。具体的には、内視鏡 2の対物レンズから、試験線 上における管腔構造物内面の各点までの相対的距離が算出される。本発明では、こ のような内視鏡の対物レンズ力 管腔構造物内面の各点までの相対的距離に基づ レ、て 3D画像が生成される。このように試験線上の画素の相対的距離情報すなわち 位置情報が取得されると、 1フレーム画像力 抽出された画素がその位置情報を反 映しつつ展開配列される ( # 18)。
[0054] 更に、全フレーム画像について # 14〜# 18のステップが終了したか否かが判断さ れ(# 19)、その結果、全てのフレーム画像についてまだ終了していないと判断され た場合には、ステップ # 13へ戻り、異なるフレーム画像に関して、それ以降のステツ プが繰り返される。他方、ステップ # 19の結果、全てのフレーム画像についてステツ プが終了したと判断された場合には、続いて、展開配列後の画素が組み合わせられ ることにより 3次元画像が構築される(# 20)。最後に、図 9に示したような 3次元グラフ が表示され( # 21)、処理が終了される。
[0055] なお、ステップとして特に含めないが、ステップ # 20及び # 21における 3次元画像 及び 3次元グラフは、必要に応じて、ハードディスク 24に格納されてもよい。また、前 述した 3次元画像構築処理は、内視鏡デバイス 10側でのビデオファイルの取得と並 行して実行されても、あるいは、内視鏡デバイス 10側で取得されたビデオファイルが 情報処理装置 20側に一旦格納された上で、必要に応じて実行されてもよい。更に、 前述した 3次元画像構築処理は、情報処理装置 20の ROM22又はハードディスク 2 4に格納される 3次元画像構築プログラムが読み出されることで実行されるが、このプ ログラムは、情報処理装置 20の CPU11による制御の基になるプログラムの一部とし て予め組み込まれるものであっても、あるいは、 3次元画像構築プログラムとして、例 えば CD— ROM, DVD— ROM等の光ディスク 18又はフロッピーディスク 19 (共に 図 1参照)等の外部記録媒体を用いて若しくはネットワーク経由でダウンロードされる ことで、情報処理装置 20のハードディスク 24に追加的に格納されるものであってもよ レ、。
[0056] 以上の説明力 明らかなように、本実施形態に係る 3次元画像構築装置 1によれば 、不整形で動きのある管腔内面 30aの 3次元画像を、輝度情報に基づき容易に構築 すること力 Sできる。また、従来、内視鏡画像を記録するために多数の撮影画像が必要 であったが、観察範囲全体を含む 3次元画像を構築することができるため、ユーザは 、病変部の位置や形状を容易に認識することができる他、組織の硬度や動きの情報 も客観的に記録することができる。これにより、内視鏡検査の診断精度が向上する。 カロえて、画像の格納のためのメモリ容量を縮小することができ、また、画像の閲覧時 間を短縮することができる。
[0057] (実施の形態 2)
本実施形態では、内視鏡スコープ 2の周方向、軸方向の動きを検出し、その動きに 基づき展開画像の補正を行う。これにより、より精度よく実際の管腔内面の状態を再 現した画像を得ることができる。このため、本実施形態の 3次元画像構築装置は実施 の形態 1の構成に加えて、内視鏡スコープ 2の動きを検出する動き検出装置をさらに 備える。
[0058] 図 15に動き検出装置の構成を示す。動き検出装置 50は、内視鏡スコープ 2の軸方 向の移動量を検出する軸方向センサ 51と、内視鏡スコープ 2の周方向の変化量を検 出する周方向センサ 52とを備える。軸方向センサ 51と周方向センサ 52は例えばパ 一ソナルコンピュータに対する指示デバイスとして一般的に使用されるマウスの機構 を用いることで容易に実現できる。動き検出装置 50は、軸方向の基準位置からの内 視鏡スコープ 2の移動量と、周方向の基準位置からの内視鏡スコープ 2の周方向の 変化量とを検出し、情報処理装置 20に出力する。情報処理装置 20は、動き検出装 置 50から検出データを受信すると、その受信時刻 (検出時刻に対応)を示す時間情 報と、軸方向の移動量と、周方向の変化量とを関連づけて、内視鏡スコープの動き 情報として、ハードディスク 24等の所定の記憶装置に格納する。情報処理装置 20は 、画像を展開配列する際に、その動き情報に基づき周方向及び軸方向の補正を行う 。なお、受信時刻(検出時刻に対応)を示す時間情報は、ビデオファイルの各画像フ レームの撮影時刻と、動き検出装置 50による検出値との対応がとれる情報であれば よぐ例えば、 JST (Japan Standard Time)、 GMT(Greenwich Mean Time)等の標準時 刻や、ビデオ画像の撮影開始時からの経過時間を示す情報が使用できる。
[0059] 図 16を参照して周方向の画像の補正について説明する。動き検出装置 50の周方 向センサ 52は、内視鏡スコープ 2の周方向の変化量すなわち回転した量を検出する 。周方向センサ 52により検出された変化量が Δ 1であった場合、展開画像において、 図 16 (b)に示すように、試験線上の画素のデータ(以下「画素列データ」という。)、変 化量 Δ 1に応じた量 Δ Ι'だけ周方向にシフトして配置する。このように補正することで、 内視鏡スコープ 2の回転に伴う画像の歪みを補正することができる。
[0060] 次に、図 17を参照し、軸方向の画像の補正について説明する。動き検出装置 50の 軸方向センサ 51は、内視鏡スコープ 2の軸方向の移動量を検出する。実施の形態 1 では、図 17 (a)に示すように、ビデオファイルから時系列で得られた画素列データを 順次配置することで展開画像を得ていた。しかしながら、実際には、内視鏡スコープ 2の進行速度は一定であるとは限らない。すなわち、内視鏡スコープ 2の進行速度が ほぼゼロの場合、管腔内面の同じ位置の画像が複数得られてしまい、他方、内視鏡 スコープ 2の進行速度が速いほど、管腔内面のより離れた位置の画像が得られること になる。
[0061] 図 17 (b)は、ビデオファイルから時系列で得られた画素列データを実際の物理的 な位置に対応させて配置した場合の一例を示した図である。同図において、画素列 データ 2〜4、画素列データ 5〜6、画素列データ 8〜9の取得時の軸方向の位置(移 動量)はほぼ同じであることから、重なって示されている。これは、これらのデータの取 得時における内視鏡スコープ 2の進行速度がゼロまたは非常に遅いことを意味して いる。一方、 P 接する画素列データ 0と画素列データ 1及び画素列データ 7と画素列 データ 8は、それらのデータの取得時における軸方向の移動量の差が大きいことから 、離れた位置に配置される。これは、これらのデータの取得時における内視鏡スコー プ 2の進行速度が速かったことを意味する。この場合、画素列データ 0 (または 8)に 対応する管腔内面の位置と、画素列データ 1 (または 9)に対応する管腔内面の位置 との間の比較的長い部分の画素データが取得されていないことを意味する。
[0062] そこで、本実施形態では、図 17 (c)に示すように、画素列データ 2〜4、画素列デー タ 5〜6、画素列データ 8〜9のように、管腔内面のほぼ同じ位置の画像を示す画素 列データが複数ある場合はいずれ力 1つのデータのみを採用するようにする。一方、 画素列データ 0と画素列データ 1の間、画素列データ 7と画素列データ 8の間のように 、間隔が開いている場合は、その間のデータを両端のデータから補間する。例えば、 図 17 (c)のように、画素列データ 0と画素列データ 1から補間データ Aを生成し、画素 列データ 0と画素列データ 1の間に配置する。また、画素列データ間に配置する補間 データの数は間隔に応じて適宜決定するのが好ましい。例えば、画素列データ 7と画 素列データ 8の間のようにそれらの間隔が大きい場合は、複数の補間データ B, Cを 線形補間により生成して配置する。より具体的には、展開画像において軸方向(時間 方向)に解像度(単位時間あたりに配置する画素列データの数)を設定しておき、そ の解像度に基づき画素列データの間引き、補間を行うようにすればよい。
[0063] 以上のように、軸方向、周方向それぞれの検出値に基づき画像を補正することで、 実際の管腔内面の状態により近い画像を再現することができる。このように管腔内面 の状態の再現性を向上できるため、診断時において、管腔内面の生体組織の硬度 や管腔内面の動きをより正確に判断することも可能となる。
[0064] 図 18 (a)は、軸方向、周方向の補正を行わない場合の、すなわち、実施の形態 1の 方法で展開配列された画像の例を示した図である。図 18 (a)に示す画像のデータに 対して本実施形態の軸方向、周方向の補正を行うことにより、図 18 (b)に示すような 補正画像が得られる。
[0065] 図 19は、本実施形態における、内視鏡スコープ 2の動きに基づく補正を行いつつ 3 次元画像構築処理を実行する処理のフローチャートである。本フローチャートでは、 実施の形態 1における図 14のフローチャートにおいてステップ # 15が追加されてお り、また、ステップ # 18の処理内容が異なる。ステップ # 15では、情報処理装置 20 は、検出装置 50により取得され、情報処理装置 20内に格納された動き情報を読み 出し、周方向、軸方向の位置情報を取得する。そして、ステップ # 18の画素の展開 配列処理において、前述した周方向および軸方向の補正を行いながら画素列デー タの展開配置を行う。他のステップの処理は実施の形態 1のものと同様である。
[0066] なお、本実施形態では、周方向および軸方向の双方に関して補正を行ったが、少 なくともいずれかにおいて補正を行えばよい。この場合でも、実際の管腔内面の状態 により近レ、画像を再現することができる。
[0067] 以上、本発明は特定の実施の形態について説明したが、本発明の思想は例示され た実施形態に限定されるものでなぐ本発明の要旨を逸脱しない範囲において、種 々の改良及び設計上の変更が可能であることは言うまでもない。例えば、前述した実 施形態では、管腔 30を観察対象とした例が取り上げられたが、本発明は、具体的に 、胃,十二指腸,食道等の上部消化管、及び、大腸,小腸等の下部消化管、並びに 、尿道,尿管等を含み、様々な管腔臓器に適用可能である。

Claims

請求の範囲
[1] 観察対象である管状構造物内面の画像に基づき、連続的な 3次元画像を構築する 3次元画像構築装置において、
上記管状構造物の軸方向に延びる光軸を備え、所定の照明条件下で、上記管状 構造物内に移動しつつ複数フレーム画像を取得する撮像手段と、
上記撮像手段により取得された管状構造物内面の各フレーム画像の所定範囲に 対応する画素の輝度情報を抽出する輝度情報抽出手段と、
上記輝度情報抽出手段により抽出された輝度情報に基づき、深さ方向における管 状構造物内面の各点と対物レンズの相対的距離を算出する距離情報算出手段と、 上記管状構造物内面の各フレーム画像の所定範囲に対応する画素を上記相対的 距離を反映しつつ展開配列し、展開配列後の画素を複数フレーム画像分組み合わ せることで、上記管状構造物内面の 3次元画像を構築する 3次元画像構築手段と、を 有していることを特徴とする 3次元画像構築装置。
[2] 更に、上記輝度情報抽出手段による輝度情報抽出対象となるフレーム画像の所定 範囲として、上記各フレーム画像上に、上記撮像手段の光軸に対応した点を中心と する円形の試験線を設定する試験線設定手段を有しており、
上記輝度情報抽出手段が、上記フレーム画像毎に上記試験線上に存在する画素 の輝度情報を抽出する、ことを特徴とする請求項 1記載の 3次元画像構築装置。
[3] 更に、上記撮像手段により撮像された管状構造物内面の各フレーム画像を構成す る画素の色彩情報を抽出する色彩情報抽出手段と、
上記 3次元画像構築手段により構築された 3次元画像を構成する各画素に対して、 上記色彩抽出手段により抽出された色彩情報を付加する色彩情報付加手段と、を有 していることを特徴とする請求項 1又は 2に記載の 3次元画像構築装置。
[4] 上記輝度情報が、赤色又は緑色若しくは青色あるいはこれらの混合色に関する輝 度情報であることを特徴とする請求項:!〜 3のいずれか一に記載の 3次元画像構築 装置。
[5] 上記撮像手段が、内視鏡であることを特徴とする請求項 1〜4のいずれか一に記載 の 3次元画像構築装置。
[6] さらに、上記撮像手段の周方向及び/または軸方向の動きを検出する検出手段を さらに備え、上記 3次元画像構築手段は、上記検出手段による検出値に基づき、展 開配列する画像の周方向及び/または軸方向における補正を行うことを特徴とする 請求項:!〜 4のいずれか一に記載の 3次元画像構築装置。
[7] 上記観察対象である管状構造物内面の画像は、管状構造物内面の連続的画像若 しくは管状構造物内面のビデオ映像であることを特徴とする請求項 1〜4のいずれか 一に記載の 3次元画像構築装置。
[8] 観察対象である管状構造物内面の画像に基づき、連続的な 3次元画像を構築する 3次元画像構築方法にぉレ、て、
上記管状構造物の軸方向に延びる光軸を備えた撮像手段により、所定の照明条 件下で、上記管状構造物内での移動に際して取得された該管状構造物内面の各フ レーム画像の所定範囲に対応した画素の輝度情報を抽出するステップと、
上記管状構造物内面の各フレーム画像の所定範囲に対応する画素の輝度情報を 抽出するステップと、
上記輝度情報に基づき、深さ方向における管状構造物内面の各点と対物レンズと の相対距離を算出するステップと、
上記管状構造物内面の各フレーム画像の所定範囲に対応する画素を上記相対距 離を反映しつつ展開配列し、展開配列後の画素を複数フレーム画像分組み合わせ ることで、上記管状構造物内面の 3次元画像を構築するステップと、を有していること を特徴とする 3次元画像構築方法。
[9] 更に、上記輝度情報抽出対象となるフレーム画像の所定範囲として、上記各フレー ム画像上に、上記撮像手段の光軸に対応した点を中心とする円形の試験線を設定 するステップを有しており、
上記輝度情報抽出ステップでは、上記試験線上に存在する画素の輝度情報が抽 出される、ことを特徴とする請求項 8記載の 3次元画像構築方法。
[10] 更に、上記撮像手段の周方向及び/または軸方向の動きを検出するステップを有 しており、
上記 3次元画像を構築するステップにおいて、上記撮像手段の周方向及び Zまた は軸方向の動きに連動して、展開配列後の画素を複数フレーム画像分組み合わせ る、ことを特徴とする請求項 8記載の 3次元画像構築方法。
[11] 観察対象である管状構造物内の撮像画像に基づき、連続的な 3次元画像を構築 するために、所定の情報処理装置にインストールされた 3次元画像構築プログラムで あって、
上記管状構造物の軸方向に延びる光軸を備えた撮像手段により、所定の照明条 件下で、上記管状構造物内での移動に際して取得された該管状構造物内面の各フ レーム画像の所定範囲に対応した画素の輝度情報を抽出する手順と、
抽出された輝度情報に基づき、深さ方向における管状構造物内面の各点と対物レ ンズとの相対距離を算出する手順と、
上記管状構造物内面の各フレーム画像の所定範囲に対応する画素を上記相対距 離を反映しつつ展開配列し、展開配列後の画素を複数フレーム画像分組み合わせ ることで、上記管状構造物内面の 3次元画像を構築する手順と、を上記情報処理装 置に実行させる 3次元画像構築プログラム。
[12] 上記情報処理装置に、
更に、上記輝度情報抽出対象となるフレーム画像の所定範囲として、上記各フレー ム画像上に、上記撮像手段の光軸に対応した点を中心とする円形の試験線を設定 する手順を実行させるとともに、
上記輝度情報抽出手順として、上記試験線上に存在する画素の輝度情報を抽出 する手順を実行させる、ことを特徴とする請求項 11記載の 3次元画像構築プログラム
[13] 上記情報処理装置に、
更に、上記撮像手段の周方向及び/または軸方向の動きを検出する手順を実行さ せるとともに、
上記 3次元画像を構築する手順において、上記撮像手段の周方向及び/または 軸方向の動きに連動して、展開配列後の画素を複数フレーム画像分組み合わせる、 ことを特徴とする請求項 11記載の 3次元画像構築プログラム。
PCT/JP2007/061100 2006-05-31 2007-05-31 3次元画像構築装置及び方法並びにプログラム WO2007139187A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US12/302,480 US9247865B2 (en) 2006-05-31 2007-05-31 Three-dimensional-image forming device, three dimensional-image forming method and program
EP07744488.3A EP2030558B1 (en) 2006-05-31 2007-05-31 Three-dimensional image forming device, three-dimensional image forming method and program
JP2008517981A JP4753104B2 (ja) 2006-05-31 2007-05-31 3次元画像構築装置及び方法並びにプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006151936 2006-05-31
JP2006-151936 2006-05-31

Publications (1)

Publication Number Publication Date
WO2007139187A1 true WO2007139187A1 (ja) 2007-12-06

Family

ID=38778704

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/061100 WO2007139187A1 (ja) 2006-05-31 2007-05-31 3次元画像構築装置及び方法並びにプログラム

Country Status (4)

Country Link
US (1) US9247865B2 (ja)
EP (1) EP2030558B1 (ja)
JP (1) JP4753104B2 (ja)
WO (1) WO2007139187A1 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009128055A1 (en) * 2008-04-15 2009-10-22 Provost Fellows And Scholars Of The College Of The Holy And Undivided Trinity Of Queen Elizabeth Near Dublin Endoscopy system with motion sensors
JP2010092283A (ja) * 2008-10-08 2010-04-22 Chiba Univ 立体画像作成装置及び方法並びに内視鏡検査システム
JP2010256988A (ja) * 2009-04-21 2010-11-11 Chiba Univ 3次元画像生成装置、3次元画像生成方法、及びプログラム
WO2012098792A1 (ja) * 2011-01-20 2012-07-26 オリンパスメディカルシステムズ株式会社 画像処理装置、画像処理方法、画像処理プログラムおよび内視鏡システム
JP2014096020A (ja) * 2012-11-09 2014-05-22 Honda Motor Co Ltd 画像処理方法、画像処理装置、表面検査システム及びプログラム
JP2016043033A (ja) * 2014-08-22 2016-04-04 富士フイルム株式会社 展開画像生成装置、方法、及びプログラム、並びに画像情報記憶装置
WO2017158896A1 (ja) * 2016-03-15 2017-09-21 オリンパス株式会社 画像処理装置、画像処理システム、画像処理装置の作動方法
WO2017212725A1 (ja) * 2016-06-07 2017-12-14 オリンパス株式会社 医療用観察システム
JP2019150574A (ja) * 2018-03-05 2019-09-12 リオン株式会社 3次元形状データ作成方法、及び3次元形状データ作成システム
JP2021067905A (ja) * 2019-10-28 2021-04-30 一般財団法人電力中央研究所 中空電柱の内周面撮影装置および非破壊検査装置、並びに中空電柱の内周面撮影方法および非破壊検査方法

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2424422B1 (en) 2009-04-29 2019-08-14 Koninklijke Philips N.V. Real-time depth estimation from monocular endoscope images
US20130051659A1 (en) * 2010-04-28 2013-02-28 Panasonic Corporation Stereoscopic image processing device and stereoscopic image processing method
US20150057952A1 (en) * 2013-08-26 2015-02-26 General Electric Company Modular inspection system
US20150054942A1 (en) * 2013-08-26 2015-02-26 General Electric Company Modular inspection system inspection module
JP6264834B2 (ja) * 2013-10-24 2018-01-24 富士通株式会社 ガイド方法、情報処理装置およびガイドプログラム
US9545220B2 (en) * 2014-03-02 2017-01-17 V.T.M (Virtual Tape Measure) Technologies Ltd. Endoscopic measurement system and method
US10548459B2 (en) 2014-03-17 2020-02-04 Intuitive Surgical Operations, Inc. Systems and methods for control of imaging instrument orientation
JP6828465B2 (ja) * 2017-01-30 2021-02-10 セイコーエプソン株式会社 内視鏡操作支援システム
GB201712486D0 (en) * 2017-08-03 2017-09-20 Ev Offshore Ltd Quantative surface measurements by combining image and height profile data
CN112740666A (zh) 2018-07-19 2021-04-30 艾科缇弗外科公司 自动手术机器人视觉系统中多模态感测深度的系统和方法
WO2020044523A1 (ja) * 2018-08-30 2020-03-05 オリンパス株式会社 記録装置、画像観察装置、観察システム、観察システムの制御方法、及び観察システムの作動プログラム
KR20220021920A (ko) 2019-04-08 2022-02-22 액티브 서지컬, 인크. 의료 이미징을 위한 시스템 및 방법
DE102019114817B4 (de) 2019-06-03 2021-12-02 Karl Storz Se & Co. Kg Bildgebungssystem und Verfahren zur Beobachtung
WO2021035094A1 (en) 2019-08-21 2021-02-25 Activ Surgical, Inc. Systems and methods for medical imaging
AU2022230435A1 (en) * 2021-03-05 2023-08-24 Hollister Incorporated Stoma and peristomal imaging and quantification of size, shape, and color

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0521988A (ja) 1991-07-12 1993-01-29 Hitachi Ltd チツプ電子部品供給装置
JPH05340721A (ja) 1992-04-06 1993-12-21 Olympus Optical Co Ltd 3次元計測方法及び3次元計測装置
JPH1166316A (ja) 1997-08-26 1999-03-09 Tokyo Met Gov Gesuido Service Kk 管渠内面展開図化装置
JPH11337845A (ja) 1998-05-25 1999-12-10 Mitsubishi Electric Corp 内視鏡装置
JP2000019424A (ja) 1998-06-29 2000-01-21 Terumo Corp 立体内視鏡装置
JP2000121339A (ja) 1998-10-15 2000-04-28 Hamamatsu Photonics Kk 立体情報検出方法及び装置
JP2000331168A (ja) 1999-03-12 2000-11-30 Tokyoto Gesuido Service Kk 管渠内面画像の処理装置及びその方法
JP2001224594A (ja) 2000-02-15 2001-08-21 Olympus Optical Co Ltd 超音波内視鏡システム
JP2002191554A (ja) 2000-12-26 2002-07-09 Asahi Optical Co Ltd 3次元画像検出装置を備えた電子内視鏡
JP2003032674A (ja) 2001-07-16 2003-01-31 Emaki:Kk 管状物内壁のビデオ画像から連続した展開静止画像を自動生成するシステム
JP2003535659A (ja) 2000-06-19 2003-12-02 ユニヴァーシティ オブ ワシントン 走査型単一光ファイバシステムを用いる医療用画像化、診断および治療
WO2004096008A2 (en) * 2003-05-01 2004-11-11 Given Imaging Ltd. Panoramic field of view imaging device
JP2006187551A (ja) * 2005-01-07 2006-07-20 Olympus Corp 食道粘膜用画像処理装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2523369B2 (ja) * 1989-03-14 1996-08-07 国際電信電話株式会社 動画像の動き検出方法及びその装置
GB2248361B (en) * 1990-09-28 1994-06-01 Sony Broadcast & Communication Motion dependent video signal processing
US5469254A (en) * 1992-04-06 1995-11-21 Olympus Optical Co., Ltd. Method and apparatus for measuring three-dimensional position of a pipe from image of the pipe in an endoscopic observation system
JP2963284B2 (ja) * 1992-07-24 1999-10-18 財団法人鉄道総合技術研究所 トンネル検査装置
JP4623843B2 (ja) * 2001-03-02 2011-02-02 Hoya株式会社 3次元画像入力装置
WO2005093654A2 (en) * 2004-03-25 2005-10-06 Fatih Ozluturk Method and apparatus to correct digital image blur due to motion of subject or imaging device
JP2006065676A (ja) * 2004-08-27 2006-03-09 Canon Inc 画像処理装置およびその方法

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0521988A (ja) 1991-07-12 1993-01-29 Hitachi Ltd チツプ電子部品供給装置
JPH05340721A (ja) 1992-04-06 1993-12-21 Olympus Optical Co Ltd 3次元計測方法及び3次元計測装置
JPH1166316A (ja) 1997-08-26 1999-03-09 Tokyo Met Gov Gesuido Service Kk 管渠内面展開図化装置
JPH11337845A (ja) 1998-05-25 1999-12-10 Mitsubishi Electric Corp 内視鏡装置
JP2000019424A (ja) 1998-06-29 2000-01-21 Terumo Corp 立体内視鏡装置
JP2000121339A (ja) 1998-10-15 2000-04-28 Hamamatsu Photonics Kk 立体情報検出方法及び装置
JP2000331168A (ja) 1999-03-12 2000-11-30 Tokyoto Gesuido Service Kk 管渠内面画像の処理装置及びその方法
JP2001224594A (ja) 2000-02-15 2001-08-21 Olympus Optical Co Ltd 超音波内視鏡システム
JP2003535659A (ja) 2000-06-19 2003-12-02 ユニヴァーシティ オブ ワシントン 走査型単一光ファイバシステムを用いる医療用画像化、診断および治療
JP2002191554A (ja) 2000-12-26 2002-07-09 Asahi Optical Co Ltd 3次元画像検出装置を備えた電子内視鏡
JP2003032674A (ja) 2001-07-16 2003-01-31 Emaki:Kk 管状物内壁のビデオ画像から連続した展開静止画像を自動生成するシステム
WO2004096008A2 (en) * 2003-05-01 2004-11-11 Given Imaging Ltd. Panoramic field of view imaging device
JP2006187551A (ja) * 2005-01-07 2006-07-20 Olympus Corp 食道粘膜用画像処理装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
SAKAI T.: "Chushiten o Koryo shita Chokan Tenkai Gazo no Tekioteki Hyojiho", INFORMATION PROCESSING SOCIETY OF JAPAN KENKYU HOKOKU, vol. 2006, no. 51, 18 May 2006 (2006-05-18) - 19 May 2006 (2006-05-19), pages 167 - 172, XP003019622 *
See also references of EP2030558A4

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009128055A1 (en) * 2008-04-15 2009-10-22 Provost Fellows And Scholars Of The College Of The Holy And Undivided Trinity Of Queen Elizabeth Near Dublin Endoscopy system with motion sensors
JP2010092283A (ja) * 2008-10-08 2010-04-22 Chiba Univ 立体画像作成装置及び方法並びに内視鏡検査システム
JP2010256988A (ja) * 2009-04-21 2010-11-11 Chiba Univ 3次元画像生成装置、3次元画像生成方法、及びプログラム
WO2012098792A1 (ja) * 2011-01-20 2012-07-26 オリンパスメディカルシステムズ株式会社 画像処理装置、画像処理方法、画像処理プログラムおよび内視鏡システム
JP5341257B2 (ja) * 2011-01-20 2013-11-13 オリンパスメディカルシステムズ株式会社 画像処理装置、画像処理装置の作動方法、画像処理プログラムおよび内視鏡システム
US8692869B2 (en) 2011-01-20 2014-04-08 Olympus Medical Systems Corp. Image processing device, image processing method, machine readable recording medium, endoscope system
JPWO2012098792A1 (ja) * 2011-01-20 2014-06-09 オリンパスメディカルシステムズ株式会社 画像処理装置、画像処理装置の作動方法、画像処理プログラムおよび内視鏡システム
JP2014096020A (ja) * 2012-11-09 2014-05-22 Honda Motor Co Ltd 画像処理方法、画像処理装置、表面検査システム及びプログラム
JP2016043033A (ja) * 2014-08-22 2016-04-04 富士フイルム株式会社 展開画像生成装置、方法、及びプログラム、並びに画像情報記憶装置
WO2017158896A1 (ja) * 2016-03-15 2017-09-21 オリンパス株式会社 画像処理装置、画像処理システム、画像処理装置の作動方法
JPWO2017158896A1 (ja) * 2016-03-15 2018-03-29 オリンパス株式会社 画像処理装置、画像処理システム、画像処理装置の作動方法
US10354436B2 (en) 2016-03-15 2019-07-16 Olympus Corporation Image processing apparatus, image processing system and image processing apparatus operation method
WO2017212725A1 (ja) * 2016-06-07 2017-12-14 オリンパス株式会社 医療用観察システム
JPWO2017212725A1 (ja) * 2016-06-07 2018-06-28 オリンパス株式会社 医療用観察システム
JP2019150574A (ja) * 2018-03-05 2019-09-12 リオン株式会社 3次元形状データ作成方法、及び3次元形状データ作成システム
JP7236689B2 (ja) 2018-03-05 2023-03-10 リオン株式会社 3次元形状データ作成システムの作動方法、及び3次元形状データ作成システム
JP2021067905A (ja) * 2019-10-28 2021-04-30 一般財団法人電力中央研究所 中空電柱の内周面撮影装置および非破壊検査装置、並びに中空電柱の内周面撮影方法および非破壊検査方法
JP7254428B2 (ja) 2019-10-28 2023-04-10 一般財団法人電力中央研究所 中空電柱の非破壊検査装置および中空電柱の非破壊検査方法

Also Published As

Publication number Publication date
JPWO2007139187A1 (ja) 2009-10-15
JP4753104B2 (ja) 2011-08-24
US20090207241A1 (en) 2009-08-20
US9247865B2 (en) 2016-02-02
EP2030558A4 (en) 2010-08-04
EP2030558B1 (en) 2017-05-03
EP2030558A1 (en) 2009-03-04

Similar Documents

Publication Publication Date Title
JP4753104B2 (ja) 3次元画像構築装置及び方法並びにプログラム
US8353816B2 (en) Endoscopy system and method therefor
CN102247114B (zh) 图像处理装置及图像处理方法
JP4468544B2 (ja) 内視鏡装置
Seibel et al. Tethered capsule endoscopy, a low-cost and high-performance alternative technology for the screening of esophageal cancer and Barrett's esophagus
KR100890102B1 (ko) 의료 화상 처리 장치 및 의료 화상 처리 방법
US7775977B2 (en) Ultrasonic tomographic diagnostic apparatus
JP5199594B2 (ja) 画像計測装置および方法
JP2017508529A (ja) 内視鏡測定システム及び方法
JP6254053B2 (ja) 内視鏡画像診断支援装置、システムおよびプログラム、並びに内視鏡画像診断支援装置の作動方法
JP2004358096A (ja) 超音波内視鏡装置
JPWO2005046462A1 (ja) 内視鏡装置及びこれを用いた撮影方法
JP4287646B2 (ja) 画像読取装置
JPH05108819A (ja) 画像処理装置
JPH03102202A (ja) 撮像手段による対象部分の検査方法
JP5113990B2 (ja) 計測用内視鏡装置
JP2010511432A (ja) 多重集光器を利用した走査ビーム撮像装置および内視鏡
KR101117026B1 (ko) 서로 다른 영상간에 영상 정합을 수행하는 영상 정합 시스템 및 방법
JPWO2017006708A1 (ja) 医療装置、医療画像生成方法及び医療画像生成プログラム
WO2021171465A1 (ja) 内視鏡システム及び内視鏡システムによる管腔走査方法
KR101818726B1 (ko) 내시경 장치 및 이것의 제어 방법
JP7148534B2 (ja) 画像処理装置、プログラム、及び内視鏡システム
JP5210991B2 (ja) 校正方法および装置
JPH11113912A (ja) 超音波画像診断装置
WO2022230563A1 (ja) 内視鏡システム及びその作動方法

Legal Events

Date Code Title Description
DPE2 Request for preliminary examination filed before expiration of 19th month from priority date (pct application filed from 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07744488

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 12302480

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2008517981

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

REEP Request for entry into the european phase

Ref document number: 2007744488

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2007744488

Country of ref document: EP