WO2015198772A1 - 形状推定装置、それを備えた内視鏡システム、形状推定方法及び形状推定のためのプログラム - Google Patents

形状推定装置、それを備えた内視鏡システム、形状推定方法及び形状推定のためのプログラム Download PDF

Info

Publication number
WO2015198772A1
WO2015198772A1 PCT/JP2015/064959 JP2015064959W WO2015198772A1 WO 2015198772 A1 WO2015198772 A1 WO 2015198772A1 JP 2015064959 W JP2015064959 W JP 2015064959W WO 2015198772 A1 WO2015198772 A1 WO 2015198772A1
Authority
WO
WIPO (PCT)
Prior art keywords
shape
unit
calculation
light amount
light
Prior art date
Application number
PCT/JP2015/064959
Other languages
English (en)
French (fr)
Inventor
高山 晃一
藤田 浩正
憲 佐藤
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Publication of WO2015198772A1 publication Critical patent/WO2015198772A1/ja
Priority to US15/384,791 priority Critical patent/US20170100196A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/005Flexible endoscopes
    • A61B1/009Flexible endoscopes with bending or curvature detection of the insertion part
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/07Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements using light-conductive means, e.g. optical fibres
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2476Non-optical details, e.g. housings, mountings, supports
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • A61B1/0669Endoscope light sources at proximal end of an endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2061Tracking techniques using shape-sensors, e.g. fiber shape sensors with Bragg gratings

Definitions

  • the present invention relates to a shape estimation device, an endoscope system including the shape estimation device, a shape estimation method, and a program for shape estimation.
  • Japanese Patent Application Laid-Open No. 2007-143600 discloses a technique related to a shape detection probe using an optical fiber.
  • This shape detection probe includes an optical fiber that bends integrally with the scope of the endoscope.
  • the optical fiber is provided with an optical modulator that modulates the intensity of different wavelength components.
  • Japanese Patent Application Laid-Open No. 2007-143600 discloses that this shape detection probe can detect the shape of an endoscope based on the intensity of wavelength components before and after modulation by a light modulation unit.
  • Japanese Patent Laid-Open No. 2007-143600 does not specifically disclose how to derive the shape of the endoscope based on the intensity of the wavelength component or the like.
  • An object of the present invention is to provide a shape estimation device capable of acquiring a shape with high accuracy, an endoscope system including the shape estimation device, a shape estimation method, and a program for shape estimation.
  • the shape estimation device can detect the amount of light detected at a wavelength corresponding to each of the plurality of detected units according to the shape of each of the plurality of detected units.
  • an input unit configured to input light quantity information that is a relationship between the wavelength and the light quantity acquired using differently configured sensors, and the shape of each of the detected parts
  • a storage unit that stores a light amount estimation relationship including shape characteristic information representing a relationship between the wavelength and the light amount; a light amount estimation value that is a relationship between the wavelength and the light amount calculated based on the light amount estimation relationship;
  • a shape calculating unit that calculates shape information that is an estimated value of the shape by calculating the light amount estimated value by an optimization calculation so that the light amount information satisfies a predetermined condition.
  • an endoscope system includes the shape estimation device, an endoscope in which the light guide member is provided in an insertion portion, and the shape information based on the shape information.
  • An endoscope shape calculation unit for calculating the shape of the insertion unit.
  • the shape estimation method is configured such that the amount of light detected for a wavelength corresponding to each of the plurality of detected portions depends on the shape of each of the plurality of detected portions.
  • Obtaining a light amount estimation relationship including shape characteristic information representing the relationship, a light amount estimation value that is a relationship between the wavelength and the light amount calculated based on the light amount estimation relationship, and the light amount information are predetermined conditions.
  • calculating the shape information that is the estimated value of the shape by calculating the light amount estimated value by an optimization calculation so as to satisfy the above.
  • a program for shape estimation has a detected light amount for each of a plurality of detected portions with a wavelength corresponding to each of the detected portions.
  • Acquiring light amount information that is a relationship between the wavelength and the light amount acquired using a sensor configured differently according to a shape; and the shape, the wavelength, and the wavelength for each of the detected parts
  • the computer is caused to calculate the shape information, which is the estimated value of the shape, by calculating the light amount estimated value by an optimization calculation so as to satisfy a predetermined condition.
  • the shape estimation device capable of acquiring the shape with high accuracy, and An endoscope system, a shape estimation method, and a program for shape estimation can be provided.
  • FIG. 1 is a block diagram showing an outline of a configuration example of an endoscope system according to an embodiment of the present invention.
  • FIG. 2 is a diagram illustrating an outline of a configuration example of a sensor driving unit and a sensor unit according to an embodiment.
  • FIG. 3 is a diagram illustrating an example of the relationship between the wavelength and intensity of light emitted from the light source.
  • FIG. 4 is a diagram illustrating an example of the relationship between the wavelength of incident light of the photodetector and the detection sensitivity.
  • FIG. 5 is a cross-sectional view illustrating an outline of a configuration example of the detected portion.
  • FIG. 6 is a diagram illustrating an example of the relationship between the wavelength of light and the absorption rate of the light absorber.
  • FIG. 1 is a block diagram showing an outline of a configuration example of an endoscope system according to an embodiment of the present invention.
  • FIG. 2 is a diagram illustrating an outline of a configuration example of a sensor driving unit and a sensor unit according to
  • FIG. 7A is a diagram for explaining the detected portion.
  • FIG. 7B is a diagram for explaining the detected part.
  • FIG. 7C is a diagram for explaining the detected part.
  • FIG. 8 is a diagram illustrating an example of the relationship between the wavelength and the reference light amount.
  • FIG. 9 is a diagram illustrating an example of curvature characteristic information that is a relationship between the wavelength of the first detected portion and the change rate of the light amount.
  • FIG. 10 is a diagram illustrating an example of curvature characteristic information that is a relationship between the wavelength of the second detected portion and the change rate of the light amount.
  • FIG. 11 is a diagram illustrating an example of curvature characteristic information that is a relationship between the curvature of the first detected unit and the second detected unit and the change rate of the light amount.
  • FIG. 12 is a diagram illustrating an example of the relationship between the wavelength and the amount of light acquired by the photodetector.
  • FIG. 13 is a diagram illustrating an example of a relationship between a wavelength and a product of a change rate related to the first detected unit and a change rate related to the second detected unit.
  • FIG. 14 is a diagram illustrating an example of the relationship between the wavelength and the rate of change related to the first detected unit and the rate of change related to the second detected unit.
  • FIG. 15 is a block diagram illustrating an outline of a configuration example of the shape optimization unit according to the first calculation method.
  • FIG. 16 is a flowchart illustrating an example of an operation according to the first calculation method.
  • FIG. 17 is a flowchart illustrating an example of shape information calculation processing according to the first calculation method.
  • FIG. 18 is a block diagram illustrating an outline of a configuration example of the shape optimization unit according to the second calculation method.
  • FIG. 19 is a flowchart illustrating an example of an operation according to the second calculation method.
  • FIG. 20 is a flowchart illustrating an example of a first shape information calculation process according to the second calculation method.
  • FIG. 21 is a flowchart illustrating an example of a second shape information calculation process according to the second calculation method.
  • FIG. 22 is a block diagram illustrating an outline of a configuration example of the shape optimization unit according to the third calculation method.
  • FIG. 23 is a flowchart illustrating an example of shape information calculation processing according to the third calculation method.
  • FIG. 1 shows an outline of a configuration example of an endoscope system 1 in which the shape estimation apparatus 10 according to the present invention is used.
  • the endoscope system 1 includes an endoscope 810.
  • the endoscope 810 includes an elongated insertion section 812 that can be bent, and an operation section 814 for performing various operations of the endoscope 810.
  • the endoscope system 1 further includes an endoscope control unit 820 for controlling various operations of the endoscope 810.
  • the endoscope control unit 820 is provided with an image processing unit 822 for processing an image acquired by the endoscope 810.
  • the endoscope system 1 includes a shape estimation device 10 according to the present invention.
  • the shape estimation device 10 is a device for estimating the shape of the insertion portion 812 of the endoscope 810.
  • the endoscope system 1 further includes a display unit 180 and an input device 190.
  • the display unit 180 is a general display device such as a liquid crystal display, a CRT display, or an organic EL display.
  • the display unit 180 is connected to the endoscope control unit 820 and displays an image acquired by the endoscope 810.
  • the display unit 180 is connected to the control unit 100 described later of the shape estimation device 10 and displays information related to the shape of the insertion unit 812 of the endoscope 810 obtained by the shape estimation device 10.
  • the input device 190 is a general input device such as a keyboard, mouse, pointing device, tag reader, button switch, slider, or dial.
  • the input device 190 is connected to the control unit 100 described later of the shape estimation apparatus 10.
  • the input device 190 is used for the user to input various commands related to the operation of the shape estimation apparatus 10.
  • the input device 190 may be a storage medium. In this case, information stored in the storage medium is input to the control unit 100.
  • the shape estimation device 10 includes a control unit 100, a sensor driving unit 300, and a sensor unit 400.
  • the sensor driving unit 300 of the shape estimation apparatus 10 includes a light source 310 and a photodetector 320.
  • the sensor unit 400 includes a plurality of detected units 410 provided in the insertion unit 812 of the endoscope 810. An outline of a configuration example of the sensor driving unit 300 and the sensor unit 400 will be described with reference to FIG.
  • the sensor driving unit 300 includes a light source 310, a photodetector 320, a light branching unit 330, and an antireflection member 340.
  • the light source 310 includes any of various commonly known light sources such as lamps, LEDs, and laser diodes.
  • the light source 310 may further include a phosphor for converting the wavelength.
  • the light source 310 emits light in a predetermined emission wavelength region.
  • An example of the relationship between the wavelength and intensity of the light emitted from the light source 310 is shown in FIG. ⁇ 1 shown in FIG. 3 indicates a first wavelength ⁇ 1 that is a characteristic wavelength of a spectrum absorbed by a first detected unit 411 of the sensor unit 400 described later.
  • the characteristic wavelength is, for example, a wavelength at which absorption is maximized.
  • the light emission wavelength region includes wavelengths used by the sensor unit 400, such as the first wavelength ⁇ 1 and the second wavelength ⁇ 2.
  • the light detector 320 includes a spectroscopic element such as a spectroscope or a color filter, and a light receiving element such as a photodiode.
  • the photodetector 320 detects the intensity of light in a predetermined wavelength band and outputs light amount information.
  • the light quantity information is information representing the relationship between a predetermined wavelength band and the light intensity of the wavelength band.
  • FIG. 4 An example of the relationship between the wavelength of light incident on the photodetector 320 and the detection sensitivity of the photodetector 320 is shown in FIG. As shown in FIG. 4, the photodetector 320 has detection sensitivity with respect to wavelengths used by the sensor unit 400 such as the first wavelength ⁇ 1 and the second wavelength ⁇ 2.
  • the light detector 320 may be configured to acquire light amounts of various wavelengths at the same time, or may be configured to be acquired in a time division manner. Further, the light source 310 is configured to sequentially emit light having different wavelengths in a time division manner, and the photodetector 320 is configured to detect light amounts having different wavelengths in a time division manner without including an element for spectroscopy. May be.
  • the optical branching unit 330 includes an optical coupler, a half mirror, and the like.
  • the light branching unit 330 guides the light emitted from the light source 310 to the light guide member 420 of the sensor unit 400 described later.
  • the light branching unit 330 guides the light guided by the light guide member 420 to the photodetector 320.
  • the antireflection member 340 is a member that absorbs light that has not entered the light guide member 420 out of the light emitted from the light source 310.
  • the antireflection member 340 plays a role of preventing light that has not entered the light guide member 420 from returning from the light source 310 to the photodetector 320.
  • the sensor unit 400 includes a plurality of detected units 410, a light guide member 420, and a reflection member 430.
  • the light guide member 420 is an optical fiber, for example, and has flexibility.
  • the light guide member 420 is provided in the insertion portion 812 of the endoscope 810 along the longitudinal direction thereof.
  • the light guide member 420 is provided over the region of the insertion portion 812 whose shape is to be calculated. As described above, the light emitted from the light source 310 enters the light guide member 420 via the light branching unit 330.
  • the light guide member 420 guides the incident light along the light guide member 420.
  • the light guide member 420 is provided with a plurality of detected portions 410.
  • the detected unit 410 includes a first detected unit 411 and a second detected unit 412. Further, similarly, an m-th detected part 41m is included. Here, m is an arbitrary number.
  • the first detected part 411, the second detected part 412 and the like are provided at different positions along the longitudinal axis of the light guide member 420, respectively.
  • FIG. 5 is a diagram showing an outline of a cross section perpendicular to the longitudinal axis of the light guide member 420.
  • the detected portion 410 has a structure in which a light absorber 429 is applied to a portion where a part of the coating 421 and the cladding 422 of the light guide member 420 which is an optical fiber is removed and the core 423 is exposed.
  • a light absorber 429 having a different light absorption rate for each wavelength is used.
  • FIG. 6 An example of the relationship between the wavelength of light and the absorption rate in the light absorber 429 is shown in FIG.
  • the solid line indicates the light absorption characteristic of the light absorber 429 provided in the first detected part 411
  • the broken line indicates the light absorption characteristic of the light absorber 429 provided in the second detected part 412
  • An alternate long and short dash line indicates the light absorption characteristics of the light absorber 429 provided in the mth detected portion 41m.
  • the light absorbers 429 provided in different detected parts 410 have different light absorption characteristics.
  • the wavelength having the highest light absorption rate in the light absorber 429 provided in the first detected portion 411 is referred to as the first wavelength ⁇ 1 described above, and the light absorber 429 provided in the second detected portion 412.
  • the wavelength having the highest light absorptance is referred to as the second wavelength ⁇ 2 described above, and the wavelength having the highest light absorptance in the light absorber 429 provided in the mth detected portion 41m is denoted by the mth wavelength ⁇ m. I will call it.
  • FIGS. 7A, 7B, and 7C are diagrams schematically illustrating the shape of the light guide member 420 and the optical path in the light guide member 420 at that time.
  • FIG. 7A when the light guide member 420 is curved so that the light absorber 429 is on the inside, the light incident on the light absorber 429 is relatively small, and light transmission by the light guide member 420 is performed. The rate is high.
  • FIG. 7A when the light guide member 420 is curved so that the light absorber 429 is on the inside, the light incident on the light absorber 429 is relatively small, and light transmission by the light guide member 420 is performed. The rate is high.
  • FIG. 7A when the light guide member 420 is curved so that the light absorber 429 is on the inside, the light incident on the light absorber 429 is relatively small, and light transmission by the light guide member 420 is performed. The rate is high.
  • FIG. 7A when the light guide member 420 is curved so that the light absorber 429 is on the inside
  • each light absorber 429 functions as an optical member having different influences on the spectrum of light guided by the light guide member.
  • a reflection member 430 is provided at the end of the light guide member 420 on the side not connected to the light branching portion 330.
  • the reflection member 430 reflects the light guided from the light branching unit 330 by the light guide member 420 toward the light branching unit 330.
  • the light emitted from the light source 310 is guided to the light guide member 420 via the light branching unit 330.
  • This light is transmitted through the light guide member 420 from the proximal end side to the distal end side.
  • the detected part 410 provided in the light guide member 420 light is absorbed according to the curved state of the detected part 410, and the amount of light transmitted for each wavelength is reduced.
  • This light is reflected by the reflecting member 430 and transmitted through the light guide member 420 from the distal end side to the proximal end side.
  • the reflected light is guided to the photodetector 320 through the light branching unit 330.
  • the photodetector 320 detects the intensity of the guided light for each wavelength. Based on the detection intensity for each wavelength detected by the photodetector 320, the curved state of each detected portion 410, that is, the shape of the insertion portion 812 of the endoscope 810 can be derived.
  • the sensor driving unit 300 and the sensor unit 400 including the light branching unit 330 may be fixed or configured to be detachable.
  • the control unit 100 will be described.
  • the control unit 100 is configured by an electronic computer such as a personal computer.
  • the control unit 100 includes a calculation unit 101, an endoscope shape calculation unit 140, a photodetector driving unit 150, and an output unit 160.
  • the calculation unit 101 is configured by, for example, a device including a CPU or an ASIC.
  • the calculation unit 101 includes a shape calculation unit 110, a storage unit 120, and an input unit 130.
  • the input unit 130 receives light amount information related to the wavelength and the detected light intensity from the light detector 320.
  • the input unit 130 transmits the input light amount information to the shape calculation unit 110.
  • the input unit 130 receives a signal representing a user instruction input by the input device 190.
  • identification information for identifying the type or individual of the sensor unit 400 can be input to the input unit 130.
  • shape characteristic information of the detected part 410 can also be input to the input unit 130.
  • information output from the endoscope control unit 820 can also be input to the input unit 130.
  • the input unit 130 transmits these input signals to the photodetector driving unit 150 or the shape calculation unit 110.
  • the storage unit 120 stores various information necessary for the calculation performed by the shape calculation unit 110.
  • the storage unit 120 stores, for example, a program including a calculation algorithm, characteristic information (to be described later) of the detected unit 410, and a light quantity estimation relationship including characteristic information.
  • the shape calculation unit 110 calculates the shape of each detected unit 410 based on the light amount information acquired via the input unit 130 and the information stored in the storage unit 120.
  • the shape calculation unit 110 includes a shape optimization unit 200 used for shape calculation. Details of the shape optimization unit 200 will be described later.
  • the shape calculation unit 110 transmits the calculated shape of the detected portion 410 to the endoscope shape calculation unit 140 and the output unit 160.
  • the shape calculation unit 110 outputs information related to the operation of the photodetector 320 necessary for shape calculation, such as the gain of the photodetector 320, to the photodetector driving unit 150.
  • the endoscope shape calculation unit 140 included in the control unit 100 includes, for example, a CPU and an ASIC.
  • the endoscope shape calculation unit 140 calculates the shape of the insertion unit 812 of the endoscope 810 in which the detection target unit is arranged, based on the shape of each detection target unit 410 calculated by the shape calculation unit 110. .
  • the calculated shape of the insertion unit 812 is transmitted to the output unit 160. Note that the endoscope shape calculation unit 140 may be incorporated in the shape calculation unit 110.
  • the photodetector drive unit 150 generates a drive signal for the photodetector 320 based on the signal acquired from the input unit 130. Based on this drive signal, the photodetector driving unit 150 switches the operation of the photodetector 320 on / off based on a user instruction input to the input device 190 acquired via the input unit 130, for example, Based on the information acquired from the calculation unit 110, the gain of the photodetector 320 is adjusted. Further, the photodetector driving unit 150 may be configured to control the operation of the light source 310. The photodetector driving unit 150 transmits the generated driving signal to the output unit 160.
  • the output unit 160 outputs the shape of the insertion unit 812 acquired from the endoscope shape calculation unit 140 to the display unit 180, and causes the display unit 180 to display the shape of the insertion unit 812.
  • the output unit 160 outputs the shape of the insertion unit 812 acquired from the endoscope shape calculation unit 140 to the endoscope control unit 820. Further, the output unit 160 outputs the shape of the detected unit 410 acquired from the shape calculation unit 110 to the endoscope control unit 820.
  • the endoscope control unit 820 controls the operation of the endoscope 810 based on the acquired shape of the insertion unit 812 and the shape of the detected unit 410. Further, the output unit 160 outputs the drive signal acquired from the photodetector driving unit 150 to the photodetector 320 to drive the photodetector 320.
  • the insertion portion 812 of the endoscope 810 is inserted into the observation target by the user. At this time, the shape of the insertion portion 812 changes variously.
  • the endoscope 810 performs imaging using an imaging device provided at the distal end of the insertion portion 812.
  • An image signal obtained by imaging is transmitted to the image processing unit 822 of the endoscope control unit 820.
  • the image processing unit 822 creates an endoscopic image based on the acquired image signal.
  • the image processing unit 822 causes the display unit 180 to display the created endoscopic image.
  • the user wants to display the shape of the insertion unit 812 of the endoscope 810 on the display unit 180 or when the user wants the endoscope control unit 820 to perform various operations using the shape of the insertion unit 812
  • the user This is input to the control unit 100 via the input device 190.
  • the shape estimation apparatus 10 operates.
  • the light source 310 of the sensor driving unit 300 emits light. This light travels from the proximal end side to the distal end side in the light guide member 420 having the detected portion 410 via the light branching portion 330. This light is reflected by the reflecting member 430 provided at the distal end of the light guide member 420, and travels in the light guide member 420 from the distal end side to the proximal end side.
  • the intensity of light for each wavelength changes according to the shape of the detected portion 410. This light reaches the light detector 320 via the light branching unit 330.
  • the photodetector 320 detects the intensity of light reaching the photodetector 320 for each wavelength.
  • the photodetector 320 outputs the detected light intensity to the input unit 130 of the control unit 100.
  • the shape calculation unit 110 calculates the shape of each detected unit 410 based on the light intensity detected by the photodetector 320 acquired via the input unit 130.
  • the endoscope control unit 820 acquires information on the shape of each detected unit 410 from the shape calculation unit 110 via the output unit 160.
  • the endoscope control unit 820 controls the operation of the endoscope 810 using information on the shape of the detected portion 410.
  • the endoscope shape calculation unit 140 acquires information on the shape of each detected unit 410 from the shape calculation unit 110.
  • the endoscope shape calculation unit 140 calculates the shape of the insertion part 812 of the endoscope 810 based on the shape of the detected part 410.
  • the endoscope shape calculation unit 140 causes the display unit 180 to display the calculated shape of the insertion unit 812 via the output unit 160.
  • the endoscope control unit 820 acquires information on the shape of the insertion unit 182 from the endoscope shape calculation unit 140 via the output unit 160 and uses the information for controlling the endoscope 810.
  • the shape of each detected portion 410 is acquired.
  • the endoscope shape calculation unit 140 calculates the shape of the insertion part 812 of the endoscope 810 based on the shape of the detected part 410, so that the user knows the shape of the insertion part 812 during the operation of the endoscope 810. be able to.
  • the endoscope control unit 820 performs various calculations based on the shape of the detected unit 410, so that the endoscope control unit 820 appropriately controls the operation of the endoscope according to the shape of the insertion unit 812. can do.
  • the calculation performed by the calculation unit 101 of the shape estimation apparatus 10 according to the present embodiment will be described in detail.
  • the case where the detected unit 410 includes only the first detected unit 411 and the second detected unit 412 will be described as an example.
  • the amount of light D ⁇ n for the light of wavelength ⁇ n detected by the photodetector 320 is given by the following equation (1).
  • E ⁇ n is the amount of light emitted from the light source 310 with respect to the light with the wavelength ⁇ n
  • a ⁇ n is the absorption rate with respect to the light with the wavelength ⁇ n in the first detected portion 411
  • B ⁇ n is the second It is an absorptance for light of wavelength ⁇ n in the detected portion 412
  • L ⁇ n is light of wavelength ⁇ n by a member other than the detected portion 410 included in the optical path such as the light branching portion 330, the light guide member 420, and the reflecting member 430. Is the absorption rate.
  • the light quantity D ⁇ n is obtained as follows. That is, when each detected portion 410 has a predetermined shape as a reference (hereinafter referred to as a reference shape), the light amount of light of wavelength ⁇ n detected by the photodetector 320 is obtained as the reference light amount I ⁇ n. . Further, when the detected part 410 other than the first detected part 411 has the reference shape, the ratio between the light quantity of the light of wavelength ⁇ n detected by the photodetector 320 and the reference light quantity I ⁇ n is ⁇ ⁇ n .
  • the ratio between the light quantity of the light of the wavelength ⁇ n detected by the photodetector 320 and the reference light quantity I ⁇ n is ⁇ ⁇ n .
  • the light quantity D ⁇ n is given by the following equation (2).
  • each detected portion 410 changes according to the shape of the detected portion 410, for example, the curvature ⁇ . Therefore, the above-mentioned ratio ⁇ ⁇ n is given by the following equation (3).
  • the kappa alpha, a curvature of the first detection target portion 411, the function f lambda] n for example shows the rate of change in the storage unit 120 is stored as the curvature characteristic information.
  • the kappa beta, a curvature of the second detection target portion 412, the function g lambda] n for example shows the rate of change in the storage unit 120 is stored as the curvature characteristic information.
  • Formula (5) shown below is obtained from Formula (2), Formula (3), and Formula (4).
  • a reference shape for determining the reference light amount I ⁇ n for example, a case where all the detected portions 410 are all linear shapes, that is, a case where the curvature is 0 and the curvature radius is ⁇ can be adopted.
  • the reference shape may not be a linear shape. Further, the reference shape may not be the same for all the detected portions, and any shape may be used as the reference shape for each detected portion.
  • each of the detected portions 410 has a linear shape.
  • the relationship between the wavelength and the reference light quantity I shows, for example, a spectrum as shown in FIG.
  • the amount of light D ⁇ n (0, 0) when all the detected parts 410 have the reference shape is given by the following expression (6) by definition.
  • the function f ⁇ n and the function g ⁇ n which are curvature characteristic information, are measured by changing the curvature of the target detection target part within a range where the target detection target part can be taken with the shape other than the target detection target part being a reference shape. obtain.
  • the curvature characteristic information of the first detected portion 411 that is, the relationship between the wavelength and the change rate, for example, shows a spectrum as shown in FIG.
  • ⁇ 11 ⁇ 12 ⁇ 0 ⁇ 13 ⁇ 14 is satisfied.
  • the curvature characteristic information of the second detected portion 412 that is, the relationship between the wavelength and the change rate, for example, shows a spectrum as shown in FIG. 10.
  • ⁇ 21 ⁇ 22 ⁇ 0 ⁇ 23 ⁇ 24 shows a spectrum as shown in FIG.
  • the curvature characteristic information the relationship between the curvature and the change rate as shown in FIGS. 9 and 10 can be acquired for various curvatures.
  • the curvature kappa alpha and or curvature characteristic information of the first detection target portion 411 which represents the relationship between the change rate
  • a second detected which represents the relationship between the curvature kappa beta and rate of change
  • the curvature characteristic information of the part 412 is obtained.
  • the curvature characteristic information and the reference light amount I ⁇ n as shown in FIG. 8 can be acquired in advance when the endoscope system 1 is manufactured or the endoscope system 1 is installed, and can be stored in the storage unit 120 in advance. Further, the curvature characteristic information and the reference light amount I ⁇ n may be acquired every time it is used. For example, when the endoscope system 1 is activated, the reference portion I ⁇ n is actually measured with the insertion portion 812 as a linear shape, and the shape of the insertion portion 812 is sequentially changed into a predetermined curved state, and the curvature characteristic is calculated from the light amount detected at this time. Information may be acquired.
  • curvature characteristic information and the reference light amount I ⁇ n may be stored in the storage unit provided in the sensor driving unit 300 or the sensor unit 400 instead of the storage unit 120 provided in the control unit 100. By doing in this way, those characteristic information can be used also when the sensor drive part 300 or the sensor part 400 is connected to another apparatus.
  • identification information including a unique value of the device is provided in the sensor driving unit 300 or the sensor unit 400, and the storage unit 120 stores curvature characteristic information associated with the identification information and a reference light amount I ⁇ n. May be configured.
  • the control unit 100 can manage and use the curvature characteristic information and the reference light amount I ⁇ n of the plurality of sensor driving units 300 and the sensor units 400.
  • the identification information may be input from a keyboard that is the input device 190, may be read from an RF-ID tag, or may be read from a storage unit provided in the sensor driving unit 300 or the sensor unit 400. Also good.
  • Curvature of the first detection target portion 411 and the second detected part 412 respectively consider the case is any curvature kappa alpha and any curvature kappa beta.
  • the light quantity D ( ⁇ ⁇ , ⁇ ⁇ ) shows a spectrum as shown in FIG. 12, for example.
  • This light quantity D ( ⁇ ⁇ , ⁇ ⁇ ) is acquired by the photodetector 320.
  • Reference light amounts I ⁇ 1 and I ⁇ 2 and curvature characteristic information f ⁇ 1 , f ⁇ 2 , g ⁇ 1 , and g ⁇ 2 are stored in the storage unit 120 in advance. Therefore, based on the amount D .lambda.1 and the light quantity D .lambda.2, the curvature of the first detection target portion 411 kappa alpha and the curvature kappa beta of the second detection target portion 412 can be calculated.
  • the detected unit 410 includes the two detected units of the first detected unit 411 and the second detected unit 412 has been described as an example, but the number of detected units is three or more. However, it can be calculated similarly.
  • the first wavelength ⁇ 1 and the second wavelength ⁇ 2 use the first wavelength ⁇ 1 and the second wavelength ⁇ 2
  • a wavelength other than the first wavelength ⁇ 1 and the second wavelength ⁇ 2 may be used.
  • the curvature calculation accuracy is improved by using the wavelength at which the light absorption rate of the light absorber 429 of each detected portion 410 is maximized.
  • the wavelength used here may have a certain bandwidth. However, it is preferable to use a band including a wavelength at which the light absorption rate of the light absorber 429 is maximized.
  • a band including a wavelength at which the light absorption rate of the light absorber 429 is maximized By using the light amount for the wavelength having the bandwidth for the calculation, it is not necessary to increase the resolution of the photodetector 320 so much, and the cost of the shape estimation apparatus 10 can be reduced.
  • a local wavelength is not used, there is an advantage that it is less susceptible to noise.
  • a plurality of wavelength bands used for the calculation may partially overlap each other. The wavelength used for the calculation is the same in the following description.
  • logarithm may be taken with respect to the above equation (9). Calculation can be facilitated by using a logarithm.
  • the detection unit 410 is two, an example in which the curvature kappa beta of the first curvature kappa alpha and the second detected part 412 of the detection unit 411 is calculated.
  • the number of detected parts may be any number, and here, a case of two or more is considered.
  • the parameter representing the shape of the detected portion 410 is not limited to the curvature, and may include rotation or the like.
  • shape information k1 to km which are information representing the shapes of the respective detected parts from the first detected part 411 to the mth detected part 41m, are considered.
  • the shape information can include values representing various shapes such as a curvature, a curvature radius, a bending angle, and a rotation angle. What is referred to as curvature characteristic information in the above example is referred to as shape characteristic information.
  • the estimated light amount E ⁇ x is as follows. This corresponds to the equation (10).
  • ⁇ 1 is an estimated value of the curvature of the first detected unit 411
  • ⁇ 2 is an estimated value of the curvature of the second detected unit 412.
  • the estimated light amount E ⁇ x is given as a function of the shape information k1 to km of the first to m-th detected parts.
  • a light quantity estimation formula for obtaining a light quantity estimation value corresponding to Expression (10) is stored in the storage unit 120.
  • the evaluation value J is defined as shown in the following equation (11).
  • the evaluation value J is a value obtained by adding the squares of errors of the light amount estimated value E ⁇ x calculated using the light amount estimation formula to the detected light amount D ⁇ x .
  • the convergence calculation is performed by the shape optimization unit 200 in the shape calculation unit 110.
  • An outline of a configuration example of the shape optimization unit 200 according to this calculation method is shown in FIG.
  • the shape optimization unit 200 includes an estimated value calculation unit 212 and an evaluation value calculation unit 214.
  • the estimated value calculation unit 212 acquires a light amount estimation formula from the storage unit 120.
  • the estimated value calculation unit 212 receives a calculation start signal. When the calculation start signal is input, the estimated value calculation unit 212 starts calculating the light quantity estimated value E ⁇ x .
  • the estimated value calculation unit 212 outputs the calculated light quantity estimated value E ⁇ x and the shape information k1 to km to the evaluation value calculation unit 214.
  • the evaluation value calculation unit 214 calculates the evaluation value J using Equation (11) based on the light amount estimation value E ⁇ x acquired from the estimation value calculation unit 212 and the light amount D ⁇ x acquired by the photodetector 320. .
  • the evaluation value calculation unit 214 returns the evaluation value J to the estimated value calculation unit 212, and causes the estimated value calculation unit 212 to repeat the calculation of the light amount estimated value E ⁇ x .
  • the evaluation value calculator 214 outputs the shape information acquired from the estimated value calculator 212 to the endoscope shape calculator 140 and the output unit 160.
  • the algorithm used in this calculation method is a single optimization algorithm or a composite optimization method combining several optimization algorithms. Any algorithm may be used. For example, particle swarm optimization (Particle Swarm Optimization; PSO) and differential evolution (Differential Evolution; DE), genetic algorithm (Genetic Algorithm; GA), and simulated annealing (Simulated Annealing; SA), Newton method, steepest descent method, least square method, simplex method, and the like can be used.
  • PSO particle Swarm Optimization
  • DE differential evolution
  • GA Genetic Algorithm
  • SA Simulated Annealing
  • control unit 100 using the first calculation method will be described with reference to the flowchart shown in FIG. What will be described here is an operation for displaying the shape of the insertion portion 812 of the endoscope 810 on the display portion 180. This operation is started when, for example, the user requests the display unit 180 to display the shape of the insertion unit 812 using the input device 190.
  • step S101 the control unit 100 reads the position information of the detected unit 410 stored in the storage unit 120.
  • the position information is information related to the position of each detected part 410 with respect to the insertion part 812 of the endoscope 810.
  • the position information is used when calculating the shape of the insertion portion 812 based on the shape of the detected portion 410.
  • step S102 the control unit 100 determines whether or not a predetermined update time has come.
  • the update time means the time for updating the display on the display unit 180 having the shape of the insertion unit 812. That is, in this operation, the calculation and display of the shape of the insertion unit 812 are repeatedly performed every update time.
  • the process repeats step S102 and waits for the update time to arrive.
  • the process proceeds to step S103.
  • step S103 the control unit 100 performs shape information calculation processing according to the first calculation method. That is, a calculation start signal is input to the estimated value calculation unit 212, and the shape information calculation process by the shape optimization unit 200 is started.
  • the shape information calculation process will be described with reference to the flowchart shown in FIG.
  • step S ⁇ b> 201 the estimated value calculation unit 212 of the shape optimization unit 200 reads a light amount estimation formula and a predetermined threshold A used for later calculation from the storage unit 120.
  • step S202 the estimated value calculation unit 212 calculates the light amount estimated value E ⁇ x and the shape information k1 to km based on the light amount estimation formula.
  • the estimated value calculation unit 212 transmits the calculated light quantity estimated value E ⁇ x and the shape information k1 to km to the evaluation value calculation unit 214.
  • step S ⁇ b> 203 the evaluation value calculation unit 214 of the shape optimization unit 200 acquires the light amount D ⁇ x detected by the photodetector 320 from the photodetector 320 via the input unit 130.
  • step S ⁇ b> 204 the evaluation value calculation unit 214 of the control unit 100 calculates Expression (11) based on the light amount estimated value E ⁇ x acquired from the estimated value calculation unit 212 and the light amount D ⁇ x acquired from the photodetector 320.
  • the evaluation value J is calculated using this.
  • step S205 the evaluation value calculation unit 214 determines whether or not the evaluation value J is equal to or less than the threshold value A. When it is determined that the evaluation value J is not equal to or less than the threshold value A, the process returns to step S202. That is, the evaluation value calculation unit 214 causes the estimation value calculation unit 212 to calculate the light amount estimation value E ⁇ x again. On the other hand, when it is determined in step S205 that the evaluation value J is equal to or less than the threshold value A, the process proceeds to step S206. In step S206, the evaluation value calculation unit 214 of the control unit 100 outputs the shape information k1 to km calculated by the estimated value calculation unit 212. Thereafter, the processing returns to the processing described with reference to FIG.
  • step S104 the endoscope shape calculation unit 140 of the control unit 100 inserts the endoscope 810 based on the shape information k1 to km calculated by the shape optimization unit 200 and the position information of the detected unit 410.
  • the shape of the part 812 is calculated. Since the distance between each detected part 410 is included in the position information, the shape of the insertion part 812 can be obtained by connecting the positions of the detected parts 410 based on the shape information k1 to km.
  • step S ⁇ b> 105 the control unit 100 causes the display unit 180 to display the calculated shape of the insertion unit 812.
  • step S106 the control unit 100 determines whether or not an operation end instruction has been input.
  • the process returns to step S102 to repeat the above-described operation.
  • the processing related to this operation ends.
  • This operation may be configured to end when an operation end instruction is input in the repetitive operation of step S102, or an operation end instruction is input in the repetitive operation of steps S202 to S205. It may be configured to end also when it is done.
  • the optimal light amount estimated value E ⁇ x is calculated by repetitive calculation, but the optimal light amount estimation is performed with respect to the light amount D ⁇ x acquired by one operation, for example, as in the least square method.
  • a method in which the value E ⁇ x is calculated may be used.
  • the optimization calculation is not limited to the light amount estimation formula expressed in the function format, and for example, a light amount estimation table expressed in the table format may be used.
  • the storage unit 120 stores light quantity estimation relationships that can be expressed in various forms. As described above, various optimization operations that can calculate the optimum light amount estimated value E ⁇ x with respect to the light amount D ⁇ x acquired by the photodetector 320 can be used.
  • the evaluation value J is not limited to the expression (11), and any evaluation value J can be used as long as it appropriately represents the difference between the light amount D ⁇ x detected by the photodetector 320 and the calculated light amount estimated value E ⁇ x. Good.
  • the shape estimation device 10 can calculate the shape of the insertion portion 812 of the endoscope 810.
  • the sensor unit 400 is generally configured by only the light guide member 420 that is, for example, an optical fiber. Furthermore, the information for each of the plurality of detected portions 410 is separated by the difference in wavelength. These are effective in reducing the size of the insertion portion 812.
  • the shape of each detected portion 410 can be easily calculated with high accuracy by performing the optimization calculation.
  • the number can be arbitrarily determined by setting the number of wavelengths to be used, that is, p in the formula (11) to be the number of detected parts, that is, m or more. By increasing p, the shape of the detected portion 410 can be calculated with higher accuracy.
  • the shape estimation apparatus 10 can be used to estimate the shapes of various articles. That is, the shape estimation apparatus 10 can be used for estimation of the shape of medical and industrial endoscopes, can be used for estimation of the shape of, for example, a catheter or a surgery support robot, and is not limited to medical use. It can be used to estimate the shape of a robot or a deforming instrument.
  • FIG. 18 shows an outline of a configuration example of the shape optimization unit 200 according to the second calculation method.
  • the shape optimization unit 200 includes a first estimated value calculation unit 222, a second estimated value calculation unit 224, an evaluation value calculation unit 226, and a selection unit 228.
  • the second calculation method is different from the first calculation method in that the shape optimization unit 200 includes two estimated value calculation units.
  • the first estimated value calculation unit 222 performs a first optimization calculation.
  • the first optimization operation is a global optimization operation.
  • the global optimization calculation does not fall into a local solution such as particle swarm optimization (PSO), differential evolution (DE), genetic algorithm (GA), and simulated annealing method (SA). It is a technique that can derive the optimal solution.
  • the first estimated value calculator 222 outputs the light quantity estimated value E ⁇ x and the shape information k1 to km calculated by the global optimization calculation to the evaluation value calculator 226. Further, the first estimated value calculation unit 222 may output the shape information k1 to km to the second estimated value calculation unit 224 as necessary. Further, the first estimated value calculation unit 222 counts the number of calculations, and holds the result as the number of calculations Calc_num. In addition, the first estimated value calculation unit 222 outputs the calculation count Calc_num to the selection unit 228.
  • the second estimated value calculation unit 224 performs a second optimization calculation.
  • the second optimization calculation is a local optimization calculation with fast convergence.
  • the optimization calculation with fast convergence is a neighborhood search method for obtaining a local solution such as Newton method, steepest descent method, simplex method, and the like.
  • the second estimated value calculation unit 224 outputs the light amount estimated value E ⁇ x and the shape information k1 to km calculated by the local optimization calculation to the evaluation value calculation unit 226.
  • the first calculation and the second calculation described above are examples. Although the first calculation takes a longer calculation time than the second calculation, an appropriate solution can be derived with high accuracy. On the other hand, the second calculation may lead to, for example, an inappropriate local solution as compared with the first calculation, but the calculation time is shortened. If the first operation is more accurate than the second operation, and the second operation is faster in convergence than the first operation, the first operation and the second operation can be combined by any method. Good.
  • the evaluation value calculation unit 226 is based on the light amount estimated value E ⁇ x acquired from the first estimated value calculation unit 222 or the second estimated value calculation unit 224 and the light amount D ⁇ x acquired by the photodetector 320.
  • the evaluation value J is calculated using (11).
  • the evaluation value calculation unit 226 outputs the evaluation value J and the shape information k1 to km to the selection unit 228.
  • the calculation start signal is input to the selection unit 228.
  • the selection unit 228 causes the first estimated value calculation unit 222 to start the optimization calculation when the calculation start signal is input.
  • the selection unit 228 uses the first estimated value based on the evaluation value J and the shape information k1 to km acquired from the evaluation value calculating unit 226 and the calculation count Calc_num acquired from the first estimated value calculating unit 222.
  • the calculation unit 222 is selected to perform optimization calculation, the second estimated value calculation unit 224 is optimized, or the shape information k1 to km as the calculation results is output and executed. .
  • the selection unit 228 causes the first estimated value calculation unit 222 to perform optimization calculation
  • the selection unit 228 outputs the currently held shape information k1 to km to the first estimated value calculation unit 222.
  • the selection unit 228 causes the second estimated value calculation unit 224 to perform optimization calculation
  • the selection unit 228 outputs the currently held shape information k1 to km to the second estimated value calculation unit 224.
  • step S ⁇ b> 301 the control unit 100 reads position information of the detected unit 410 stored in the storage unit 120.
  • step S302 The processing from step S302 to step S305 is performed by the shape optimization unit 200.
  • step S302 the shape optimization unit 200 of the control unit 100 performs a first shape information calculation process.
  • the first shape information calculation process will be described with reference to the flowchart shown in FIG.
  • step S401 the selection unit 228 of the shape optimization unit 200 reads various threshold values stored in the storage unit 120. Further, the first estimated value calculation unit 222 of the shape optimization unit 200 reads the light amount estimation formula stored in the storage unit 120. In step S402, the shape optimization unit 200 causes the display unit 180 to display, for example, “waiting state”.
  • step S403 the first estimated value calculation unit 222 of the shape optimization unit 200 calculates the light amount estimated value E ⁇ x by a global optimization calculation.
  • the first estimated value calculation unit 222 outputs the light quantity estimated value E ⁇ x and the shape information k1 to km as calculation results to the evaluation value calculation unit 226.
  • the first estimated value calculation unit 222 outputs the calculation count Calc_num to the selection unit 228.
  • the second estimated value calculation unit 224 uses the light amount estimated value E ⁇ x and the shape information k1 to km
  • the first estimated value calculation unit 222 uses the light amount estimated value E ⁇ x and the shape information k1 to km. You may output to the 2nd estimated value calculating part 224.
  • the second estimated value calculation unit 224 may acquire the light amount estimated value E ⁇ x used for the calculation from the evaluation value calculation unit 226 or the first estimated value calculation unit 222.
  • step S ⁇ b> 405 the evaluation value calculation unit 226 of the shape optimization unit 200 reads the light amount D ⁇ x from the photodetector 320.
  • step S ⁇ b> 406 the evaluation value calculation unit 226 of the shape optimization unit 200 calculates the light amount estimated value E ⁇ x and the calculation count Calc_num acquired from the first estimated value calculation unit 222, and the light amount D ⁇ x acquired from the light detector 320. Based on the above, the evaluation value J is calculated using the equation (11).
  • the evaluation value calculation unit 226 outputs the evaluation value J, the light amount estimation value E ⁇ x and the shape information k1 to km acquired from the first estimation value calculation unit 222 to the selection unit 228.
  • step S407 the selection unit 228 of the shape optimization unit 200 determines whether the evaluation value J is equal to or smaller than the predetermined threshold A1, or whether Calc_num is larger than the predetermined threshold A2.
  • the process returns to step S403.
  • the calculation of the light quantity estimated value E ⁇ x is repeatedly performed.
  • the evaluation value J is equal to or smaller than the predetermined threshold A1, or when Calc_num is larger than the predetermined threshold A2, the process proceeds to step S408.
  • step S408 the selection unit 228 of the shape optimization unit 200 sets the value of the flag F indicating 1 that the global optimization calculation has been appropriately completed to 1. Thereafter, the processing returns to the processing described with reference to FIG.
  • step S303 the selection unit 228 included in the shape optimization unit 200 of the control unit 100 determines whether a predetermined update time has elapsed. When it is determined that the predetermined update time has not elapsed, the process repeats step S303 and waits. On the other hand, when it is determined that the predetermined update time has elapsed, the process proceeds to step S304.
  • step S304 the shape optimization unit 200 of the control unit 100 performs a second shape information calculation process.
  • the second shape information calculation process will be described with reference to the flowchart shown in FIG.
  • step S501 the selection unit 228 of the shape optimization unit 200 reads various threshold values stored in the storage unit 120. Further, the second estimated value calculation unit 224 of the shape optimization unit 200 reads the light amount estimation formula stored in the storage unit 120. In step S502, the selection unit 228 of the shape optimization unit 200 causes the display unit 180 to display “drive OK”, for example.
  • step S503 the second estimated value calculation unit 224 of the shape optimization unit 200 calculates the light quantity estimated value E ⁇ x by local optimization calculation with fast convergence.
  • the second estimated value calculation unit 224 outputs the light quantity estimated value E ⁇ x and the shape information k1 to km as calculation results to the evaluation value calculation unit 226.
  • step S ⁇ b> 504 the evaluation value calculation unit 226 of the shape optimization unit 200 reads the light amount D ⁇ x from the photodetector 320.
  • step S505 the evaluation value calculation unit 226 of the shape optimization unit 200 calculates an expression based on the light amount estimated value E ⁇ x acquired from the second estimated value calculation unit 224 and the light amount D ⁇ x acquired from the photodetector 320.
  • the evaluation value J is calculated using (11).
  • the evaluation value calculator 226 outputs the evaluation value J, the estimated light amount E ⁇ x and the shape information k1 to km acquired from the second estimated value calculator 224 to the selector 228.
  • step S506 the selection unit 228 of the shape optimization unit 200 determines whether or not the evaluation value J is equal to or less than a predetermined threshold A3.
  • the threshold value A3 is smaller than the threshold value A1.
  • the process proceeds to step S507.
  • step S507 the selection unit 228 of the shape optimization unit 200 uses the shape information k1 to km of the detected unit calculated by the light quantity estimation formula and the calculation count Calc_num, for example, the endoscope shape calculation unit 140 and the output unit. To 160. Thereafter, the processing returns to the processing described with reference to FIG.
  • step S506 If it is determined in step S506 that the evaluation value J is not less than or equal to the predetermined threshold A3, the process proceeds to step S508.
  • step S508 the selection unit 228 of the shape optimization unit 200 determines whether or not the evaluation value J is larger than a predetermined threshold A4.
  • the predetermined threshold A4 is larger than the predetermined threshold A1.
  • the process returns to step S503.
  • the calculation of the light quantity estimated value E ⁇ x is repeatedly performed.
  • step S509 the selection unit 228 of the shape optimization unit 200 sets the value of the flag F to 0. Thereafter, the processing returns to the processing described with reference to FIG.
  • step S305 the selection unit 228 included in the shape optimization unit 200 of the control unit 100 determines whether or not the flag F is 1.
  • the process returns to step S302. That is, when it is likely to converge to an inappropriate solution during the second shape information calculation process, the flag F is set to 0 in step S509, and the first shape information calculation process is performed again.
  • step S306 the process proceeds to step S306. In this way, convergence to an inappropriate solution can be prevented by the second shape information calculation process that is relatively inferior.
  • step S306 the endoscope shape calculation unit 140 of the control unit 100 inserts the endoscope 810 based on the shape information k1 to km calculated by the shape optimization unit 200 and the position information of the detected unit 410.
  • the shape of the part 812 is calculated.
  • step S ⁇ b> 307 the control unit 100 causes the display unit 180 to display the calculated shape of the insertion unit 812.
  • step S308 the control unit 100 determines whether or not an operation end instruction has been input. When the operation end instruction has not been input, the process returns to step S303. On the other hand, when it is determined that an instruction to end the operation has been input, the processing related to this operation ends.
  • the second estimated value calculation is performed while preventing an inappropriate local solution from being calculated by the global optimization calculation by the first estimated value calculation unit 222.
  • Appropriate shape information can be quickly calculated by the optimization operation with high convergence by the unit 224.
  • quick and accurate calculation of shape information can be realized as a whole.
  • “waiting state” is displayed on the display unit 180 and prompts the user not to move the insertion unit 812.
  • the optimization calculation with high convergence is performed by the second estimated value calculation unit 224, it can follow even if the shape of the insertion unit 812 is changed. Is displayed. Such a display prevents the calculation from converging.
  • the display of “waiting state” or “drive OK” is an example, and any display may be used. Moreover, you may be comprised so that a user may be alert
  • the selection unit 228 selects whether to perform the first optimization calculation or the second optimization calculation.
  • the shape estimation apparatus 10 can be selected so that the user can perform this selection. May be configured.
  • the shape estimation apparatus 10 is provided with a selection input unit for the user to input his / her selection. By being configured so that the user can select the type of calculation, the user can select the required one of accuracy and speed of display.
  • FIG. 22 shows an outline of a configuration example of the shape optimization unit 200 according to the third calculation method.
  • the shape optimization unit 200 includes a first estimated value calculation unit 231, a second estimated value calculation unit 232, a first evaluation value calculation unit 233, and a second evaluation value calculation.
  • the first estimated value calculation unit 231 is an estimated value calculation unit that performs a global optimization calculation in the same manner as the first estimated value calculation unit 222 in the second calculation method.
  • the first estimated value calculation unit 231 calculates a first light amount estimated value E ⁇ x1 based on the first shape information k1 ′ to km ′.
  • the first estimated value calculation unit 231 outputs the first light quantity estimated value E ⁇ x1 and the first shape information k1 ′ to km ′ to the first evaluation value calculation unit 233.
  • the first evaluation value calculator 233 calculates the first evaluation value J1 for the first light quantity estimated value E ⁇ x1 calculated by the first estimated value calculator 231 based on the following equation (12). .
  • the first evaluation value calculation unit 233 outputs the first evaluation value J1 and the first shape information k1 ′ to km ′ to the selection unit 235.
  • the second estimated value calculation unit 232 is an estimated value calculation unit that performs a local optimization calculation in the same manner as the second estimated value calculation unit 224 in the second calculation method.
  • the second estimated value calculation unit 232 calculates a second light amount estimated value E ⁇ x2 based on the second shape information k1 ′′ to km ′′.
  • the second estimated value calculator 232 outputs the second light amount estimated value E ⁇ x2 and the second shape information k1 ′′ to km ′′ to the second evaluation value calculator 234.
  • the second evaluation value calculator 234 calculates the second evaluation value J2 for the second light quantity estimated value E ⁇ x2 calculated by the second estimated value calculator 232 based on the following equation (13). .
  • the second evaluation value calculation unit 234 outputs the second evaluation value J2 and the second shape information k1 ′′ to km ′′ to the selection unit 235.
  • a global optimization calculation by the first estimated value calculation unit 231 and the first evaluation value calculation unit 233, a second estimated value calculation unit 232, and a second evaluation value calculation unit 234 are performed. And the local optimization operation according to are performed in parallel.
  • the selection unit 235 determines the evaluation value J based on the first evaluation value J1 and the second evaluation value J2. Based on the evaluation value J, the selection unit 235 determines whether to perform the optimization calculation repeatedly or to end the calculation and output the calculation result. The selection unit 235 outputs the more appropriate one of the first shape information k1 ′ to km ′ and the second shape information k1 ′′ to km ′′ as the shape information k1 to km.
  • step S601 the shape optimization unit 200 reads the light amount estimation formula and the threshold value. That is, the first estimated value calculation unit 231 reads the light amount estimation formula used for calculating the first light amount estimated value E ⁇ x1 . The second estimated value calculation unit 232 reads a light amount estimation formula used for calculating the second light amount estimated value E ⁇ x2 . The selection unit 235 reads the threshold value A.
  • steps S602 to S604 by the first estimated value calculating unit 231 and the first evaluation value calculating unit 233 performed after step S601, the second estimated value calculating unit 232, and the second evaluation value calculating unit 234 are performed.
  • the processing from step S605 to step S607 is parallel processing.
  • step S602 the first estimated value calculation unit 231 of the shape optimization unit 200 calculates a first light quantity estimated value E ⁇ x1 .
  • the first estimated value calculation unit 231 outputs the calculated first light quantity estimated value E ⁇ x1 to the first evaluation value calculation unit 233.
  • step S ⁇ b> 603 the first evaluation value calculation unit 233 of the shape optimization unit 200 reads the light amount D ⁇ x from the photodetector 320.
  • step S ⁇ b> 604 the first evaluation value calculation unit 233 of the shape optimization unit 200 receives the first light amount estimated value E ⁇ x ⁇ b> 1 acquired from the first estimated value calculation unit 231 and the light amount D acquired from the photodetector 320. Based on ⁇ x , the first evaluation value J1 is calculated using Equation (12).
  • the first evaluation value calculation unit 233 outputs to the first shape information k1' to select km' portion 235 according to the first evaluation value J1 and the first light quantity estimates E Ramudaekkusu1 calculated.
  • step S605 the second estimated value calculation unit 232 of the shape optimization unit 200 calculates a second light quantity estimated value E ⁇ x2 .
  • the second estimated value calculation unit 232 outputs the calculated second light amount estimated value E ⁇ x2 to the second evaluation value calculation unit 234.
  • step S ⁇ b> 606 the second evaluation value calculation unit 234 of the shape optimization unit 200 reads the light amount D ⁇ x from the photodetector 320.
  • step S ⁇ b> 607 the second evaluation value calculation unit 234 of the shape optimization unit 200 receives the second light amount estimated value E ⁇ x ⁇ b> 2 acquired from the second estimated value calculation unit 232 and the light amount D acquired from the photodetector 320. Based on ⁇ x , the second evaluation value J2 is calculated using Equation (13). Second evaluation value calculation unit 234 outputs to the second shape information k1'' to select km'' portion 235 according to the second evaluation value J2 and the second light quantity estimates E Ramudaekkusu2 calculated.
  • step S608 the selection unit 235 of the shape optimization unit 200 acquires the first evaluation value J1 acquired from the first evaluation value calculation unit 233. Are compared with the second evaluation value J2 acquired from the second evaluation value calculation unit 234, and the smaller one is determined as the evaluation value J.
  • step S609 the selection unit 235 of the shape optimization unit 200 determines whether or not the evaluation value J is equal to or less than a predetermined threshold A.
  • the process returns to the parallel operation in step S602 and step S605.
  • the first estimated value calculation unit 231 and the second estimated value calculation unit 232 may use the shape information calculated by themselves in the previous calculation, or the first estimated value calculation unit 231 and the second estimated value calculation unit 231 may be used.
  • the shape information with the smaller evaluation value may be used together with the second estimated value calculation unit 232.
  • the process proceeds to step S610.
  • step S610 the selection unit 235 of the shape optimization unit 200 compares the first evaluation value J1 and the second evaluation value J2. When the first evaluation value J1 is smaller, the selection unit 235 determines that the first shape information k1 ′ to km ′ is the shape information k1 to km. Further, when the second evaluation value J2 is smaller, the selection unit 235 determines that the second shape information k1 ′′ to km ′′ is the shape information k1 to km.
  • step S611 the selection unit 235 of the shape optimization unit 200 outputs the shape information k1 to km determined in step S610 to, for example, the endoscope shape calculation unit 140. Thereafter, the processing returns to the processing described with reference to FIG.
  • a suitable optimization can be achieved by performing a parallel calculation of a global optimization calculation by the first estimated value calculation unit 231 and an optimization calculation with high convergence by the second estimated value calculation unit 232.
  • the solution can be calculated early.
  • the global optimization operation has not converged properly, the result of the optimization operation with high convergence is output, and when the global optimization operation has converged appropriately, the global accuracy is high. Therefore, unlike the case of the second calculation method, shape information can always be output.

Abstract

 形状推定装置(10)は、入力部(130)と、記憶部(120)と、形状演算部(110)とを備える。入力部(130)には、複数の被検出部の各々に応じた波長についての検出される光量が前記複数の被検出部の各々の形状に応じて異なるように構成されたセンサを用いて取得された前記波長と前記光量との関係である光量情報が入力される。記憶部(120)は、各々の前記被検出部についての前記形状と前記波長と前記光量との関係を表す形状特性情報を含む光量推定関係を記憶する。形状演算部(110)は、前記光量推定関係に基づいて算出される前記波長と前記光量との関係である光量推定値と、前記光量情報とが所定の条件を満たすように、前記光量推定値を最適化演算によって算出することで、前記形状の推定値である形状情報を算出する。

Description

形状推定装置、それを備えた内視鏡システム、形状推定方法及び形状推定のためのプログラム
 本発明は、形状推定装置、それを備えた内視鏡システム、形状推定方法及び形状推定のためのプログラムに関する。
 内視鏡の形状を検出するための装置が知られている。例えば日本国特開2007-143600号公報には、光ファイバを用いた形状検出プローブに係る技術が開示されている。この形状検出プローブは、内視鏡のスコープと一体的に曲がる光ファイバを備える。光ファイバには、互いに異なる波長成分の強度等を変調する光変調部が設けられている。この形状検出プローブは、光変調部による変調の前後の波長成分の強度等に基づいて、内視鏡の形状を検出することができることが日本国特開2007-143600号公報には開示されている。しかしながら日本国特開2007-143600号公報には、波長成分の強度等に基づいて、どのように内視鏡の形状を導出するのか具体的に開示されていない。
 本発明は、高精度に形状を取得できる形状推定装置、それを備えた内視鏡システム、形状推定方法及び形状推定のためのプログラムを提供することを目的とする。
 前記目的を果たすため、本発明の一態様によれば、形状推定装置は、複数の被検出部の各々に応じた波長についての検出される光量が前記複数の被検出部の各々の形状に応じて異なるように構成されたセンサを用いて取得された前記波長と前記光量との関係である光量情報が入力されるように構成された入力部と、各々の前記被検出部についての前記形状と前記波長と前記光量との関係を表す形状特性情報を含む光量推定関係を記憶する記憶部と、前記光量推定関係に基づいて算出される前記波長と前記光量との関係である光量推定値と、前記光量情報とが所定の条件を満たすように、前記光量推定値を最適化演算によって算出することで、前記形状の推定値である形状情報を算出する形状演算部とを備える。
 前記目的を果たすため、本発明の一態様によれば、内視鏡システムは、前記形状推定装置と、前記導光部材が挿入部に設けられた内視鏡と、前記形状情報に基づいて前記挿入部の形状を算出する内視鏡形状計算部とを備える。
 前記目的を果たすため、本発明の一態様によれば、形状推定方法は、複数の被検出部の各々に応じた波長についての検出される光量が前記複数の被検出部の各々の形状に応じて異なるように構成されたセンサを用いて取得された前記波長と前記光量との関係である光量情報を取得することと、各々の前記被検出部についての前記形状と前記波長と前記光量との関係を表す形状特性情報を含む光量推定関係を取得することと、前記光量推定関係に基づいて算出される前記波長と前記光量との関係である光量推定値と、前記光量情報とが所定の条件を満たすように、前記光量推定値を最適化演算によって算出することで、前記形状の推定値である形状情報を算出することとを含む。
 前記目的を果たすため、本発明の一態様によれば、形状推定のためのプログラムは、複数の被検出部の各々に応じた波長についての検出される光量が前記複数の被検出部の各々の形状に応じて異なるように構成されたセンサを用いて取得された前記波長と前記光量との関係である光量情報を取得することと、各々の前記被検出部についての前記形状と前記波長と前記光量との関係を表す形状特性情報を含む光量推定関係を取得することと、前記光量推定関係に基づいて算出される前記波長と前記光量との関係である光量推定値と、前記光量情報とが所定の条件を満たすように、前記光量推定値を最適化演算によって算出することで、前記形状の推定値である形状情報を算出することとをコンピュータに実行させる。
 本発明によれば、最適化演算によって算出された光量推定値と検出された光量情報とが所定の条件を満たすように形状情報を算出するので、高精度に形状を取得できる形状推定装置、それを備えた内視鏡システム、形状推定方法及び形状推定のためのプログラムを提供できる。
図1は、本発明の一実施形態に係る内視鏡システムの構成例の概略を示すブロック図である。 図2は、一実施形態に係るセンサ駆動部及びセンサ部の構成例の概略を示す図である。 図3は、光源が射出する光の波長と強度との関係の一例を示す図である。 図4は、光検出器の入射光の波長と検出感度との関係の一例を示す図である。 図5は、被検出部の構成例の概略を示す断面図である。 図6は、光吸収体の光の波長と吸収率との関係の一例を示す図である。 図7Aは、被検出部について説明するための図である。 図7Bは、被検出部について説明するための図である。 図7Cは、被検出部について説明するための図である。 図8は、波長と基準光量との関係の一例を示す図である。 図9は、第1の被検出部の波長と光量の変化率との関係である曲率特性情報の一例を示す図である。 図10は、第2の被検出部の波長と光量の変化率との関係である曲率特性情報の一例を示す図である。 図11は、第1の被検出部及び第2の被検出部の曲率と光量の変化率との関係である曲率特性情報の一例を示す図である。 図12は、光検出器によって取得される波長と光量との関係の一例を示す図である。 図13は、波長と、第1の被検出部に係る変化率と第2の被検出部に係る変化率の積との関係の一例を示す図である。 図14は、波長と、第1の被検出部に係る変化率及び第2の被検出部に係る変化率との関係の一例を示す図である。 図15は、第1の算出方法に係る形状最適化部の構成例の概略を示すブロック図である。 図16は、第1の算出方法に係る動作の一例を示すフローチャートである。 図17は、第1の算出方法に係る形状情報算出処理の一例を示すフローチャートである。 図18は、第2の算出方法に係る形状最適化部の構成例の概略を示すブロック図である。 図19は、第2の算出方法に係る動作の一例を示すフローチャートである。 図20は、第2の算出方法に係る第1の形状情報算出処理の一例を示すフローチャートである。 図21は、第2の算出方法に係る第2の形状情報算出処理の一例を示すフローチャートである。 図22は、第3の算出方法に係る形状最適化部の構成例の概略を示すブロック図である。 図23は、第3の算出方法に係る形状情報算出処理の一例を示すフローチャートである。
 本発明の一実施形態について図面を参照して説明する。本発明に係る形状推定装置10が用いられた内視鏡システム1の構成例の概略を図1に示す。図1に示すように、内視鏡システム1は、内視鏡810を備える。内視鏡810は、細長形状の湾曲し得る挿入部812と、内視鏡810の各種操作を行うための操作部814とを有する。内視鏡システム1は、さらに、内視鏡810の各種動作を制御するための内視鏡制御部820を備える。内視鏡制御部820には、内視鏡810により取得された画像を処理するための画像処理部822が設けられている。
 内視鏡システム1は、本発明に係る形状推定装置10を含む。形状推定装置10は、内視鏡810の挿入部812の形状を推定するための装置である。内視鏡システム1は、さらに、表示部180と、入力機器190とを備える。表示部180は、例えば液晶ディスプレイやCRTディスプレイや有機ELディスプレイといった一般的な表示装置である。表示部180は、内視鏡制御部820と接続されており、内視鏡810により取得された画像を表示する。また、表示部180は、形状推定装置10の後述する制御部100と接続されており、形状推定装置10により得られた内視鏡810の挿入部812の形状に係る情報を表示する。
 入力機器190は、例えばキーボードやマウスやポインティングデバイスやタグリーダやボタンスイッチやスライダやダイヤルといった一般的な入力用の機器である。入力機器190は、形状推定装置10の後述する制御部100に接続されている。入力機器190は、ユーザが形状推定装置10の動作に係る各種指令を入力するために用いられる。また、入力機器190は、記憶媒体でもよい。この場合、記憶媒体に記憶された情報が制御部100へと入力される。
 形状推定装置10について説明する。形状推定装置10は、制御部100と、センサ駆動部300と、センサ部400とを備える。形状推定装置10のセンサ駆動部300は、光源310と光検出器320とを含む。また、センサ部400は、内視鏡810の挿入部812内に設けられた複数の被検出部410を含む。センサ駆動部300とセンサ部400との構成例の概略を図2を参照して説明する。
 図2に示すように、センサ駆動部300は、光源310と、光検出器320と、光分岐部330と、反射防止部材340とを備える。
 光源310は、例えばランプやLEDやレーザダイオードといった一般に知られている各種光源のうち何れかを含む。光源310は、さらに波長を変換するための蛍光体などを有していてもよい。光源310は、所定の発光波長領域の光を射出する。光源310が射出する光についての波長と強度との関係の一例を図3に示す。図3に示したλ1は、後述するセンサ部400の第1の被検出部411が吸収するスペクトルの特徴的な波長である第1の波長λ1を示す。ここで特徴的な波長とは、例えば吸収が極大となる波長である。同様に、図3に示したλ2は、センサ部400の第2の被検出部412が吸収するスペクトルの特徴的な波長である第2の波長λ2を示す。図3に示すように、発光波長領域は、例えば第1の波長λ1や第2の波長λ2といったように、センサ部400が用いる波長を含む。
 光検出器320は、例えば分光器やカラーフィルタといった分光のための素子と、例えばフォトダイオードといった受光素子とを備える。光検出器320は、所定の波長帯域の光の強度を検出し、光量情報を出力する。ここで、光量情報とは、所定の波長帯域とその波長帯域の光強度との関係を表す情報である。光検出器320に入射する光の波長と光検出器320の検出感度との関係の一例を図4に示す。図4に示すように、光検出器320は、例えば第1の波長λ1や第2の波長λ2といったセンサ部400が用いる波長に対して検出感度を有する。
 光検出器320は、様々な波長の光量を同時に取得できるように構成されていてもよいし、時分割的に取得されるように構成されていてもよい。また、光源310が時分割的に波長が異なる光を順次射出するように構成され、光検出器320が分光のための素子を含まずに時分割的に異なる波長の光量を検出するように構成されてもよい。
 光分岐部330は、光カプラやハーフミラー等を含む。光分岐部330は、光源310から射出された光を後述するセンサ部400の導光部材420へと導く。また、光分岐部330は、導光部材420によって導かれた光を光検出器320へと導く。
 反射防止部材340は、光源310から射出された光のうち、導光部材420に入射しなかった光を吸収する部材である。反射防止部材340は、光源310から射出された光のうち、導光部材420に入射しなかった光が光検出器320に戻るのを防ぐ役割を担う。
 センサ部400は、複数の被検出部410と、導光部材420と、反射部材430とを備える。導光部材420は、例えば光ファイバであり、可撓性を有する。導光部材420は、内視鏡810の挿入部812内にその長手方向に沿って設けられている。導光部材420は、挿入部812のうち形状を算出したい領域に渡って設けられている。前述のとおり、光源310から射出された光は、光分岐部330を介して導光部材420に入射する。導光部材420は、入射した光を導光部材420に沿って導く。
 導光部材420には、複数の被検出部410が設けられている。被検出部410は、第1の被検出部411と、第2の被検出部412とを含む。さらに同様に、第mの被検出部41mを含む。ここでmは任意の数である。第1の被検出部411、第2の被検出部412等は、それぞれ導光部材420の長手軸に沿って異なる位置に設けられている。
 被検出部410の構成例の概略について図5を参照して説明する。図5は、導光部材420の長手軸と垂直な断面の概略を示す図である。被検出部410は、例えば光ファイバである導光部材420の被覆421及びクラッド422の一部が除去されてコア423が露出したところに光吸収体429が塗布された構造を有している。複数の被検出部410の各々には、波長毎の光吸収率が互いに異なる光吸収体429が用いられている。
 光吸収体429における光の波長と吸収率との関係の一例を図6に示す。図6において、実線は第1の被検出部411に設けられた光吸収体429の吸光特性を示し、破線は第2の被検出部412に設けられた光吸収体429の吸光特性を示し、一点鎖線は第mの被検出部41mに設けられた光吸収体429の吸光特性を示す。図6に示すように、異なる被検出部410に設けられた光吸収体429は、互いにその吸光特性が異なる。第1の被検出部411に設けられた光吸収体429において最も光吸収率が高い波長を、上述の第1の波長λ1と称し、第2の被検出部412に設けられた光吸収体429において最も光吸収率が高い波長を、上述の第2の波長λ2と称し、第mの被検出部41mに設けられた光吸収体429において最も光吸収率が高い波長を、第mの波長λmと称することにする。
 被検出部410について図7A、図7B及び図7Cを参照してさらに説明する。図7A、図7B及び図7Cは、導光部材420の形状と、そのときの導光部材420内の光路とを模式的に示した図である。例えば図7Aに示すように、光吸収体429が内側となるように導光部材420が湾曲しているとき、光吸収体429に入射する光は比較的少なくなり、導光部材420による光伝達率は高くなる。一方、図7Cに示すように、光吸収体429が外側となるように導光部材420が湾曲しているとき、光吸収体429に入射する光は比較的多くなり、導光部材420による光伝達率は低くなる。図7Bに示すように、導光部材420が湾曲していないとき、導光部材420による光伝達率は、図7Aに示す場合よりも低く図7Cに示す場合よりも高くなる。以降説明のため、図7Aに示すように導光部材420による光伝達率が高くなる方向への導光部材420の曲げを正方向と称し、図7Cに示すように導光部材420による光伝達率が低くなる方向への導光部材420の曲げを負方向と称することにする。このように、例えば各々の光吸収体429は、導光部材によって導光される光のスペクトルに対して互いに異なる影響を与える光学部材として機能する。
 図2に戻ってセンサ駆動部300及びセンサ部400について説明を続ける。導光部材420の光分岐部330に接続されていない側の端部には、反射部材430が設けられている。反射部材430は、光分岐部330から導光部材420によって導かれた光を、光分岐部330の方向へと反射する。
 以上のような構成により、光源310から射出された光は、光分岐部330を介して導光部材420へと導かれる。この光は、導光部材420内を基端側から先端側へと伝達される。その際、導光部材420に設けられた被検出部410において、この被検出部410の湾曲状態に応じて光が吸収され、波長毎に伝達される光の量が減少する。この光は、反射部材430で反射し、導光部材420内を先端側から基端側へと伝達される。この反射光は、光分岐部330を介して光検出器320へと導かれる。光検出器320では、導かれた光の強度を波長毎に検出する。光検出器320で検出される波長毎の検出強度に基づけば、各々の被検出部410の湾曲状態、すなわち、内視鏡810の挿入部812の形状が導出され得る。
 なお、光分岐部330を含むセンサ駆動部300とセンサ部400とは、固定されていてもよいし、着脱自在に構成されてもよい。
 制御部100について説明する。制御部100は、例えばパーソナルコンピュータといった電子計算機によって構成される。制御部100は、演算部101と、内視鏡形状計算部140と、光検出器駆動部150と、出力部160とを備える。
 演算部101は、例えばCPU又はASICを含む機器等によって構成されている。演算部101は、形状演算部110と、記憶部120と、入力部130とを含む。
 入力部130には、光検出器320から、波長と検出した光強度とに係る光量情報が入力される。入力部130は、入力された光量情報を形状演算部110に伝達する。また、入力部130には、入力機器190によって入力されたユーザの指示を表す信号等が入力される。また、入力部130には、例えばセンサ部400の種別や個体を識別するための識別情報などが入力され得る。また、入力部130には、被検出部410の形状特性情報についても入力され得る。また、入力部130には、内視鏡制御部820から出力された情報も入力され得る。入力部130は、これら入力された信号を光検出器駆動部150又は形状演算部110に伝達する。
 記憶部120は、形状演算部110が行う演算に必要な各種情報を記憶している。記憶部120は、例えば計算アルゴリズムを含むプログラムや被検出部410の後述する特性情報や、特性情報を含む光量推定関係を記憶している。
 形状演算部110は、入力部130を介して取得した光量情報と、記憶部120に記憶されている情報とに基づいて、各々の被検出部410の形状を算出する。形状演算部110は、形状算出に用いられる形状最適化部200を有する。形状最適化部200の詳細については後述する。形状演算部110は、算出した被検出部410の形状を内視鏡形状計算部140及び出力部160に伝達する。また、形状演算部110は、光検出器320のゲイン等、形状算出に必要な光検出器320の動作に関する情報を、光検出器駆動部150へ出力する。
 制御部100に含まれる内視鏡形状計算部140は、例えばCPUやASICを含む。内視鏡形状計算部140は、形状演算部110で算出された各々の被検出部410の形状に基づいて、被検出部が配置されている内視鏡810の挿入部812の形状を算出する。算出された挿入部812の形状は、出力部160に伝達される。なお、内視鏡形状計算部140は、形状演算部110に組み込まれてもよい。
 光検出器駆動部150は、入力部130から取得した信号に基づいて、光検出器320の駆動信号を生成する。この駆動信号によって光検出器駆動部150は、例えば入力部130を介して取得した入力機器190へ入力されたユーザの指示に基づいて、光検出器320の動作のオン/オフを切り替えたり、形状演算部110から取得した情報に基づいて、光検出器320のゲインを調整したりする。また、光検出器駆動部150は、光源310の動作も制御するように構成されていてもよい。光検出器駆動部150は、生成した駆動信号を、出力部160に伝達する。
 出力部160は、内視鏡形状計算部140から取得した挿入部812の形状を、表示部180へ出力し、表示部180に挿入部812の形状を表示させる。また、出力部160は、内視鏡形状計算部140から取得した挿入部812の形状を内視鏡制御部820へ出力する。また、出力部160は、形状演算部110から取得した被検出部410の形状を内視鏡制御部820へ出力する。内視鏡制御部820は、取得した挿入部812の形状や被検出部410の形状に基づいて、内視鏡810の動作を制御する。また、出力部160は、光検出器駆動部150から取得した駆動信号を光検出器320へ出力し、光検出器320を駆動させる。
 次に本実施形態に係る内視鏡システム1の動作について説明する。内視鏡810の挿入部812は、ユーザによって観察対象物の内部に挿入される。このとき、挿入部812の形状は様々に変化する。内視鏡810は、挿入部812の先端に設けられた撮像装置を用いて撮像を行う。撮像により得られた画像信号は、内視鏡制御部820の画像処理部822に伝達される。画像処理部822は、取得した画像信号に基づいて、内視鏡画像を作成する。画像処理部822は、作成した内視鏡画像を表示部180に表示させる。
 また、ユーザが内視鏡810の挿入部812の形状を表示部180に表示させたいときや、内視鏡制御部820に挿入部812の形状を用いた各種動作を行わせたいとき、ユーザはその旨を入力機器190を介して制御部100に入力する。このとき、形状推定装置10は動作する。
 形状推定装置10が動作するとき、センサ駆動部300の光源310は、光を射出する。この光は、光分岐部330を介して被検出部410を有する導光部材420内を基端側から先端側へと進む。この光は、導光部材420の先端に設けられた反射部材430で反射して、導光部材420内を先端側から基端側へと進む。導光部材420内を進むとき、波長毎の光の強度は、被検出部410の形状に応じて変化する。この光は、光分岐部330を介して光検出器320に到達する。
 光検出器320は、光検出器320に到達した光の強度を波長毎に検出する。光検出器320は、検出した光強度を制御部100の入力部130へと出力する。形状演算部110は、入力部130を介して取得した光検出器320が検出した光強度に基づいて、各々の被検出部410の形状を算出する。
 内視鏡制御部820は、出力部160を介して形状演算部110から各々の被検出部410の形状の情報を取得する。内視鏡制御部820は、被検出部410の形状の情報を用いて内視鏡810の動作を制御する。
 また、内視鏡形状計算部140は、形状演算部110から各々の被検出部410の形状の情報を取得する。内視鏡形状計算部140は、被検出部410の形状に基づいて、内視鏡810の挿入部812の形状を算出する。内視鏡形状計算部140は、算出した挿入部812の形状を出力部160を介して表示部180に表示させる。また、内視鏡制御部820は、出力部160を介して内視鏡形状計算部140から挿入部182の形状の情報を取得し、その情報を内視鏡810の制御に用いる。
 このように、形状推定装置によれば、各々の被検出部410の形状が取得される。被検出部410の形状に基づいて内視鏡形状計算部140が内視鏡810の挿入部812の形状を算出することで、ユーザは内視鏡810の操作中に挿入部812の形状を知ることができる。また、被検出部410の形状に基づいて内視鏡制御部820が各種演算を行うことで、内視鏡制御部820は、挿入部812の形状に応じて適切に内視鏡の動作を制御することができる。
 次に本実施形態に係る形状推定装置10の演算部101で行われる演算について詳述する。初めにわかりやすさのため、被検出部410に第1の被検出部411及び第2の被検出部412のみが含まれる場合を例に挙げて説明する。
 まず、内視鏡システム1の使用の前に予め準備される情報について説明する。光検出器320が検出する波長λnの光についての光量Dλnは次に示す式(1)で与えられる。
Figure JPOXMLDOC01-appb-M000001
ここで、Eλnは光源310から射出される波長λnの光についての光量であり、Aλnは第1の被検出部411における波長λnの光についての吸収率であり、Bλnは第2の被検出部412における波長λnの光についての吸収率であり、Lλnは光分岐部330や導光部材420や反射部材430等の光路に含まれる被検出部410以外の部材による波長λnの光についての吸収率である。
 射出光量Eλnや吸収率Lλnは、被検出部410の形状に依存しない。したがって、光量Dλnは次のようにも得られる。すなわち、各々の被検出部410が基準となる所定の形状(以下、基準形状と称する)である場合に光検出器320が検出する波長λnの光についての光量を基準光量Iλnとして求めておく。また、第1の被検出部411以外の被検出部410が基準形状である場合に光検出器320が検出する波長λnの光についての光量と基準光量Iλnとの比をαλnとする。また、第2の被検出部412以外の被検出部410が基準形状である場合に光検出器320が検出する波長λnの光についての光量と基準光量Iλnとの比をβλnとする。このとき、光量Dλnは次に示す式(2)で与えられる。
Figure JPOXMLDOC01-appb-M000002
 各々の被検出部410における光の吸収率は、被検出部410の形状、例えば曲率κに応じて変化する。したがって,上述の比αλnは、次に示す式(3)で与えられる。
Figure JPOXMLDOC01-appb-M000003
ここで、καは、第1の被検出部411の曲率であり、関数fλnは、例えば記憶部120に曲率特性情報として記憶されている変化率を示す。
 同様に、上述の比βλnは、次に示す式(4)で与えられる。
Figure JPOXMLDOC01-appb-M000004
ここで、κβは、第2の被検出部412の曲率であり、関数gλnは、例えば記憶部120に曲率特性情報として記憶されている変化率を示す。
 式(2)、式(3)、式(4)より、次に示す式(5)が得られる。
Figure JPOXMLDOC01-appb-M000005
 基準光量Iλnを決定する基準形状として、例えば各々の被検出部410が全て直線形状である場合、すなわち、曲率が0であり曲率半径が∞である場合が採用され得る。基準形状は、直線形状でなくてもよい。また、基準形状は、全ての被検出部について同じでなくてもよく、各々の被検出部について任意の形状を基準形状としてもよい。
 以下、基準形状を各々の被検出部410が全て直線形状である場合として説明する。波長と基準光量Iとの関係は、例えば図8のようなスペクトルを示す。全ての被検出部410が基準形状であるときの光量Dλn(0,0)は、定義より、次に示す式(6)で与えられる。
Figure JPOXMLDOC01-appb-M000006
すなわち、定義より、基準光量はIλnであり、fλn(0)=1であり、gλn(0)=1である。
 曲率特性情報である関数fλn及び関数gλnは、対象となる被検出部以外の形状を基準形状にした状態で、対象となる被検出部の曲率を取り得る範囲で変化させることにより実測され得る。第1の被検出部411の曲率特性情報、すなわち、波長と変化率との関係は、例えば図9に示すようなスペクトルを示す。ここで、κ11<κ12<0<κ13<κ14である。また、第2の被検出部412の曲率特性情報、すなわち、波長と変化率との関係は、例えば図10に示すようなスペクトルを示す。ここで、κ21<κ22<0<κ23<κ24である。
 図9及び図10では、それぞれ4種類の曲率の場合のみが例示されている。しかしながら、曲率特性情報としては、様々な曲率において図9及び図10に示すような曲率と変化率との関係が取得され得る。したがって、例えば図11に示すような、曲率καと変化率との関係を表す第1の被検出部411の曲率特性情報や、曲率κβと変化率との関係を表す第2の被検出部412の曲率特性情報が得られる。
 なお、関数fλn(κα)は、式(5)より次に示す式(7)で与えられる。
Figure JPOXMLDOC01-appb-M000007
 同様に、関数gλn(κβ)は、次に示す式(8)で与えられる。
Figure JPOXMLDOC01-appb-M000008
 曲率特性情報や、図8に示すような基準光量Iλnは、内視鏡システム1の製造時や内視鏡システム1の設置時等に予め取得され、予め記憶部120に記憶され得る。また、曲率特性情報や基準光量Iλnは、使用の度に取得されてもよい。例えば、内視鏡システム1の起動時に、挿入部812を直線形状として基準光量Iλnを実測し、さらに挿入部812の形状を順次に所定の湾曲状態としてこのときに検出される光量から曲率特性情報が取得されてもよい。
 また、曲率特性情報や基準光量Iλnは、制御部100に設けられた記憶部120ではなく、センサ駆動部300やセンサ部400に設けられた記憶部に記憶されてもよい。このようにすることで、センサ駆動部300やセンサ部400が他の装置に接続されたときにもそれらの特性情報が用いられ得る。
 また、例えばセンサ駆動部300やセンサ部400に機器の固有の値を含む識別情報が備えられ、記憶部120にはこの識別情報と関連付けられた曲率特性情報や基準光量Iλnが記憶されるように構成されてもよい。このようにすれば、制御部100は、複数のセンサ駆動部300やセンサ部400の曲率特性情報や基準光量Iλnを管理して用いることができる。識別情報は、入力機器190であるキーボードから入力されてもよいし、RF-IDタグから読み出されてもよいし、センサ駆動部300やセンサ部400に設けられた記憶部から読み出されてもよい。
 次に、内視鏡システム1の使用時に行われる演算について説明する。第1の被検出部411及び第2の被検出部412の曲率が、それぞれ任意の曲率κα及び任意の曲率κβである場合を考える。このとき、光量D(κα,κβ)は、例えば図12に示すようなスペクトルを示す。この光量D(κα,κβ)は、光検出器320によって取得される。
 式(5)及び予め取得されている図8に示すような基準光量Iλnに基づけば、第1の被検出部411に係る変化率と第2の被検出部412に係る変化率との積であるf(κα)×g(κβ)が求まる。波長とf(κα)×g(κβ)との関係は、例えば図13に示すようになる。
 例えば図13で示される波長とf(κα)×g(κβ)との関係を、図14に示すように、波長とf(κα)との関係、及び、波長とg(κβ)との関係に分離できれば、光量D(κα,κβ)から第1の被検出部411の曲率καと第2の被検出部412の曲率κβとが求まる。
 一例として、第1の被検出部411の曲率καと第2の被検出部412の曲率κβとを求めるために、第1の波長λ1と第2の波長λ2とに注目して、光検出器320によって検出された波長毎の光量Dλ1及び光量Dλ2について、次に示す式(9)を考える。
Figure JPOXMLDOC01-appb-M000009
 基準光量であるIλ1及びIλ2と、曲率特性情報であるfλ1、fλ2、gλ1、及びgλ2とが予め記憶部120に記憶されている。したがって、光量Dλ1及び光量Dλ2に基づいて、第1の被検出部411の曲率καと第2の被検出部412の曲率κβとが算出され得る。
 以上、被検出部410が第1の被検出部411と第2の被検出部412との2つの被検出部を含む場合を例に挙げて説明したが、被検出部の数が3つ以上であっても同様に算出され得る。
 なお、上述の例では、第1の被検出部411の曲率καと第2の被検出部412の曲率κβとを算出するため、第1の波長λ1と第2の波長λ2とを用いたがこれに限らない。第1の波長λ1と第2の波長λ2以外の波長を用いてもよい。ただし、各々の被検出部410の光吸収体429の光吸収率が最大となる波長を用いた方が、曲率の算出精度は向上する。
 また、ここで用いる波長はある程度の帯域幅を有していてもよい。ただし、光吸収体429の光吸収率が最大となる波長を含む帯域が用いられることが好ましい。帯域幅を有する波長についての光量を演算に用いることで、光検出器320の分解能をそれほど高くする必要がなくなり、形状推定装置10の低コスト化が実現され得る。また、局所的な波長が用いられないことで、ノイズの影響を受けにくくなる利点がある。演算に用いられる複数の波長帯域は互いにその一部が重なり合っていてもよい。演算に用いられる波長については以下の説明においても同じである。
 また、上述の式(9)について、対数をとってもよい。対数が用いられることで計算が容易になり得る。
 [第1の算出方法]
 上述の説明では、被検出部410が2つであり、これら第1の被検出部411の曲率κα及び第2の被検出部412の曲率κβが算出される例を示した。しかしながら、一般に、被検出部の数はいくつでもよく、ここでは2つ以上の場合を考える。また、被検出部410の形状を表すパラメータは、曲率に限らず、回転等を含んでいてもよい。以降の説明では、第1の被検出部411から第mの被検出部41mまでのそれぞれの被検出部の形状を表す情報である形状情報k1乃至kmについて考える。形状情報は、曲率や曲率半径や湾曲角度や回転角等、種々の形状を表す値を含み得る。上述の例で曲率特性情報と称していたものは、形状特性情報と称することにする。
 以降、形状情報k1乃至kmを求めるため、収束計算を行う例を示す。すなわち、収束計算において繰り返し算出される光量推定値をEλxとしたときに、光量推定値Eλxを光検出器320で検出される光量Dλxに収束させることで、形状情報k1乃至kmを得ることを考える。
 光量推定値Eλxは、例えば上述の式(5)を参照して説明した第1の被検出部411及び第2の被検出部412のみを含む被検出部410の場合には、次に示す式(10)に相当する。
Figure JPOXMLDOC01-appb-M000010
ここで、κは第1の被検出部411の曲率の推定値であり、κは第2の被検出部412の曲率の推定値である。このように、光量推定値Eλxは、第1乃至第mの被検出部の形状情報k1乃至kmの関数として与えられる。例えば式(10)に相当する光量推定値を求めるための光量推定式は、記憶部120に記憶されている。
 光検出器320で検出される光量Dλxと光量推定値Eλxとを用いて、評価値Jを次に示す式(11)のように定義する。
Figure JPOXMLDOC01-appb-M000011
ここで、pは演算に使用する波長の数であり、pはm以上である。すなわち、評価値Jは、光量推定式を用いて算出された光量推定値Eλxの検出された光量Dλxに対する誤差の2乗を足し合わせた値である。
 収束計算は、形状演算部110内にある形状最適化部200で行われる。本算出方法に係る形状最適化部200の構成例の概略を図15に示す。図15に示すように、形状最適化部200は、推定値演算部212と評価値演算部214とを含む。
 推定値演算部212は、記憶部120から光量推定式を取得する。推定値演算部212には、演算開始信号が入力される。演算開始信号が入力されたとき、推定値演算部212は、光量推定値Eλxの算出を開始する。推定値演算部212は、算出した光量推定値Eλxと形状情報k1乃至kmとを評価値演算部214へと出力する。
 評価値演算部214は、推定値演算部212から取得した光量推定値Eλxと光検出器320で取得された光量Dλxとに基づいて、式(11)を用いて評価値Jを算出する。評価値演算部214は、評価値Jが所定の閾値Aより大きいとき、評価値Jを推定値演算部212に返し、推定値演算部212に光量推定値Eλxの演算を繰り返させる。一方、評価値Jが所定の閾値A以下であるとき、評価値演算部214は、推定値演算部212から取得した形状情報を内視鏡形状計算部140及び出力部160に出力する。
 本算出方法で用いられるアルゴリズムは、1つの最適化アルゴリズム、又はいくつかの最適化アルゴリズムを組み合わせた複合最適化手法等である。用いられるアルゴリズムはどのようなアルゴリズムでもよい。例えば、粒子群最適化(Particle Swarm Optimization;PSO)や差分進化(Differential Evolution;DE)を含む集団的降下法や、遺伝的アルゴリズム(Genetic Algorithm;GA)や、シミュレーテッド・アニーリング法(Simulated Annealing;SA)や、ニュートン法や、最急降下法や、最小二乗法や、シンプレックス法等が用いられ得る。
 第1の算出方法を用いた制御部100の動作について図16に示すフローチャートを参照して説明する。ここで説明するのは、内視鏡810の挿入部812の形状を表示部180に表示する動作についてである。この動作は、例えばユーザが入力機器190を用いて挿入部812の形状を表示部180に表示させることを要求したときに開始される。
 ステップS101において、制御部100は、記憶部120に記憶されている被検出部410の位置情報を読み込む。ここで、位置情報とは、内視鏡810の挿入部812に対する各々の被検出部410の位置に係る情報である。位置情報は、被検出部410の形状に基づいて挿入部812の形状を算出するときに用いられる。
 ステップS102において、制御部100は、所定の更新時間になったか否かを判定する。ここで、更新時間は、挿入部812の形状の表示部180への表示を更新する時間を意味する。すなわち、本動作では、更新時間毎に挿入部812の形状の算出と表示とが繰り返し行われることになる。ステップS102の判定において、更新時間になっていないと判定されたとき、処理はステップS102を繰り返し、更新時間が到来するのを待つ。一方、更新時間になったと判定されたとき、処理はステップS103に進む。
 ステップS103において、制御部100は、第1の算出方法に係る形状情報算出処理を行う。すなわち、推定値演算部212に演算開始信号が入力され、形状最適化部200による形状情報算出処理が開始される。形状情報算出処理について、図17に示すフローチャートを参照して説明する。
 ステップS201において、形状最適化部200の推定値演算部212は、記憶部120から、後の演算に用いられる光量推定式及び所定の閾値Aを読み込む。
 ステップS202において、推定値演算部212は、光量推定式に基づいて、光量推定値Eλx及び形状情報k1乃至kmを算出する。推定値演算部212は、算出した光量推定値Eλx及び形状情報k1乃至kmを評価値演算部214へと伝達する。
 ステップS203において、形状最適化部200の評価値演算部214は、入力部130を介して光検出器320から光検出器320で検出された光量Dλxを取得する。ステップS204において、制御部100の評価値演算部214は、推定値演算部212から取得した光量推定値Eλxと、光検出器320から取得した光量Dλxとに基づいて、式(11)を用いて評価値Jを算出する。
 ステップS205において、評価値演算部214は、評価値Jが閾値A以下であるか否かを判定する。評価値Jが閾値A以下でないと判定されたとき、処理はステップS202に戻る。すなわち、評価値演算部214は、推定値演算部212に光量推定値Eλxの算出を再び行わせる。一方、ステップS205において評価値Jが閾値A以下であると判定されたとき、処理はステップS206に進む。ステップS206において、制御部100の評価値演算部214は、推定値演算部212が算出した形状情報k1乃至kmを出力する。その後、処理は図16を参照して説明している処理に戻る。
 図16に戻って、説明を続ける。ステップS104において、制御部100の内視鏡形状計算部140は、形状最適化部200で算出された形状情報k1乃至kmと被検出部410の位置情報とに基づいて、内視鏡810の挿入部812の形状を算出する。各々の被検出部410の間の距離は位置情報に含まれているので、各々の被検出部410の位置を形状情報k1乃至kmに基づいて結んでいくと、挿入部812の形状が求まる。ステップS105において、制御部100は、算出した挿入部812の形状を表示部180に表示させる。
 ステップS106において、制御部100は、動作終了の指示が入力されたか否かを判定する。動作終了の指示が入力されていないとき、処理はステップS102に戻り、上述の動作を繰り返す。一方、動作終了の指示が入力されたと判定されたとき、本動作に係る処理は終了する。なお、本動作は、ステップS102の繰り返し動作において動作終了の指示が入力されたときにも終了するように構成されていてもよいし、ステップS202乃至ステップS205の繰り返し動作において動作終了の指示が入力されたときにも終了するように構成されていてもよい。
 なお、ここでは繰り返し演算によって最適な光量推定値Eλxが算出される例を示したが、例えば最小二乗法のように、1回の演算によって取得された光量Dλxに対して最適な光量推定値Eλxが算出される方法が用いられてもよい。また、最適化演算では、関数の形式で表された光量推定式に限らず、例えばテーブルの形式で表された光量推定テーブルが用いられてもよい。記憶部120には、このように種々の形式で表され得る光量推定関係が記憶されている。このように、光検出器320で取得された光量Dλxに対して最適な光量推定値Eλxが算出され得る種々の最適化演算が用いられ得る。
 また、評価値Jは式(11)に限らず、光検出器320で検出された光量Dλxと算出された光量推定値Eλxとの差を適切に表すものであればどのようなものでもよい。
 以上のような動作によれば、形状推定装置10は、内視鏡810の挿入部812の形状を算出することができる。本実施形態によれば、センサ部400は、概して例えば光ファイバである導光部材420のみにより構成されている。さらに、複数ある被検出部410毎の情報を、波長の違いによって分離している。これらのことは、挿入部812の小型化に効を奏する。
 第1の算出方法によれば、最適化演算が行われることで各々の被検出部410の形状が高精度に容易に算出され得る。また、第1の算出方法では、用いられる波長の数、すなわち、式(11)におけるpを、被検出部の数すなわちm以上とすれば任意に決められる。pをより大きくすることで、被検出部410の形状がより高精度に算出され得る。
 なお、本実施形態に係る形状推定装置10は、種々の物品の形状を推定するために用いられ得る。すなわち、形状推定装置10は、医療用及び工業用の内視鏡の形状の推定に用いられ得るし、例えばカテーテルや手術支援ロボットの形状の推定に用いられ得るし、医療用途に限らず各種のロボットや変形する器具の形状の推定に用いられ得る。
 [第2の算出方法]
 第2の算出方法について説明する。第1の算出方法との相違点について説明し、同一の部分については説明を省略する。第2の算出方法に係る形状最適化部200の構成例の概略を図18に示す。図18に示すように、形状最適化部200は、第1の推定値演算部222と、第2の推定値演算部224と、評価値演算部226と、選択部228とを備える。このように、第2の算出方法は、形状最適化部200に2つの推定値演算部が含まれる点が第1の算出方法と異なる。
 第1の推定値演算部222は、第1の最適化演算を行う。第1の最適化演算は、大域的な最適化演算である。ここで大域的な最適化演算とは、例えば粒子群最適化(PSO)、差分進化(DE)、遺伝的アルゴリズム(GA)、シミュレーテッド・アニーリング法(SA)のように、局所解に陥らずに最適解を導出できる手法である。第1の推定値演算部222は、大域的な最適化演算によって算出された光量推定値Eλx及び形状情報k1乃至kmを評価値演算部226へと出力する。また、第1の推定値演算部222は、必要に応じて形状情報k1乃至kmを第2の推定値演算部224へと出力してもよい。また、第1の推定値演算部222は、演算回数をカウントし、その結果を演算回数Calc_numとして保持する。また、第1の推定値演算部222は、演算回数Calc_numを選択部228へ出力する。
 一方、第2の推定値演算部224は、第2の最適化演算を行う。第2の最適化演算は、収束性が早い局所的な最適化演算である。ここで、収束性が早い最適化演算とは、例えばニュートン法や最急降下法やシンプレックス法等のように局所解を求める近傍探索手法である。第2の推定値演算部224は、局所的な最適化演算によって算出された光量推定値Eλx及び形状情報k1乃至kmを評価値演算部226へ出力する。
 上記した第1の演算及び第2の演算は一例である。第1の演算は、第2の演算に比べて演算時間が長くなるが、高い精度で適切な解を導出し得る。一方、第2の演算は、第1の演算に比べて例えば不適切な局所解を導出する恐れがあるが、演算時間は短くなる。第1の演算が第2の演算よりも精度が高く、第2の演算が第1の演算よりも収束性が早ければ、第1の演算と第2の演算は、どのような手法の組み合わせでもよい。
 評価値演算部226は、第1の推定値演算部222又は第2の推定値演算部224から取得した光量推定値Eλxと光検出器320で取得された光量Dλxとに基づいて、式(11)を用いて評価値Jを算出する。評価値演算部226は、評価値J及び形状情報k1乃至kmを選択部228へ出力する。
 選択部228には、演算開始信号が入力される。選択部228は、演算開始信号が入力されたとき、第1の推定値演算部222に最適化演算を開始させる。また、選択部228は、評価値演算部226から取得した評価値J及び形状情報k1乃至kmと、第1の推定値演算部222から取得した演算回数Calc_numとに基づいて、第1の推定値演算部222に最適化演算をさせるか、第2の推定値演算部224に最適化演算をさせるか、演算結果である形状情報k1乃至kmを出力するかのうち何れかを選択して実行する。選択部228は、第1の推定値演算部222に最適化演算をさせるとき、現在保持している形状情報k1乃至kmを第1の推定値演算部222へと出力する。また、選択部228は、第2の推定値演算部224に最適化演算をさせるとき、現在保持している形状情報k1乃至kmを第2の推定値演算部224へと出力する。
 第2の算出方法を用いた制御部100の動作について、図19に示すフローチャートを参照して説明する。ステップS301において、制御部100は、記憶部120に記憶されている被検出部410の位置情報を読み込む。
 ステップS302乃至ステップS305の処理は、形状最適化部200で行われる。ステップS302において、制御部100の形状最適化部200は、第1の形状情報算出処理を行う。第1の形状情報算出処理について図20に示すフローチャートを参照して説明する。
 ステップS401において、形状最適化部200の選択部228は、記憶部120に記憶されている各種閾値を読み込む。また、形状最適化部200の第1の推定値演算部222は、記憶部120に記憶されている光量推定式を読み込む。ステップS402において、形状最適化部200は、表示部180に例えば「待ち状態」と表示させる。
 ステップS403において、形状最適化部200の第1の推定値演算部222は、大域的な最適化演算により光量推定値Eλxを算出する。ステップS404において、形状最適化部200の第1の推定値演算部222は、演算回数Calc_numを更新する。すなわち、
  Calc_num=Calc_num+1
とする。第1の推定値演算部222は、演算結果である光量推定値Eλx及び形状情報k1乃至kmを評価値演算部226へ出力する。また、第1の推定値演算部222は、演算回数Calc_numを選択部228へ出力する。また、第2の推定値演算部224は、光量推定値Eλx及び形状情報k1乃至kmを利用するので、第1の推定値演算部222は、光量推定値Eλx及び形状情報k1乃至kmを第2の推定値演算部224へ出力してもよい。すなわち、第2の推定値演算部224は、演算に用いる光量推定値Eλxを、評価値演算部226から取得してもよいし、第1の推定値演算部222から取得してもよい。
 ステップS405において、形状最適化部200の評価値演算部226は、光検出器320から光量Dλxを読み込む。ステップS406において、形状最適化部200の評価値演算部226は、第1の推定値演算部222から取得した光量推定値Eλx及び演算回数Calc_numと、光検出器320から取得した光量Dλxとに基づいて、式(11)を用いて評価値Jを算出する。評価値演算部226は、評価値Jと、第1の推定値演算部222から取得した光量推定値Eλx及び形状情報k1乃至kmを選択部228へと出力する。
 ステップS407において、形状最適化部200の選択部228は、評価値Jが所定の閾値A1以下であるか、又は、Calc_numが所定の閾値A2よりも大きいか否かを判定する。評価値Jが所定の閾値A1よりも大きく、かつ、Calc_numが所定の閾値A2以下であるとき、処理はステップS403に戻る。このとき、光量推定値Eλxの算出が繰り返し行われる。一方、評価値Jが所定の閾値A1以下であるか、又は、Calc_numが所定の閾値A2よりも大きいとき、処理はステップS408に進む。
 ステップS408において、形状最適化部200の選択部228は、大域的な最適化演算が適切に終了していることを表すフラグFの値を1に設定する。その後、処理は図19を参照して説明している処理に戻る。
 図19に戻って説明を続ける。第1の形状情報算出処理の後、ステップS303において、制御部100の形状最適化部200に含まれる選択部228は、所定の更新時間が経過したか否かを判定する。所定の更新時間が経過していないと判定されたとき、処理はステップS303を繰り返し、待機する。一方、所定の更新時間が経過していると判定されたとき、処理はステップS304に進む。
 ステップS304において、制御部100の形状最適化部200は、第2の形状情報算出処理を行う。第2の形状情報算出処理について図21に示すフローチャートを参照して説明する。
 ステップS501において、形状最適化部200の選択部228は、記憶部120に記憶されている各種閾値を読み込む。また、形状最適化部200の第2の推定値演算部224は、記憶部120に記憶されている光量推定式を読み込む。ステップS502において、形状最適化部200の選択部228は、表示部180に例えば「駆動OK」と表示させる。
 ステップS503において、形状最適化部200の第2の推定値演算部224は、収束性が早い局所的な最適化演算により光量推定値Eλxを算出する。第2の推定値演算部224は、演算結果である光量推定値Eλx及び形状情報k1乃至kmを評価値演算部226へと出力する。
 ステップS504において、形状最適化部200の評価値演算部226は、光検出器320から光量Dλxを読み込む。ステップS505において、形状最適化部200の評価値演算部226は、第2の推定値演算部224から取得した光量推定値Eλxと光検出器320から取得した光量Dλxとに基づいて、式(11)を用いて評価値Jを算出する。評価値演算部226は、評価値Jと、第2の推定値演算部224から取得した光量推定値Eλx及び形状情報k1乃至kmを選択部228へと出力する。
 ステップS506において、形状最適化部200の選択部228は、評価値Jが所定の閾値A3以下であるか否かを判定する。ここで、閾値A3は、閾値A1よりも小さい。評価値Jが所定の閾値A3以下であるとき、処理はステップS507に進む。ステップS507において、形状最適化部200の選択部228は、光量推定式により算出された被検出部の形状情報k1乃至km、及び、演算回数Calc_numを、例えば内視鏡形状計算部140や出力部160へ出力する。その後、処理は図19を参照して説明している処理に戻る。
 ステップS506の判定において、評価値Jが所定の閾値A3以下でないと判定されたとき、処理はステップS508に進む。ステップS508において、形状最適化部200の選択部228は、評価値Jが所定の閾値A4よりも大きいか否かを判定する。ここで、所定の閾値A4は、所定の閾値A1よりも大きい。評価値Jが所定の閾値A4以下であると判定されたとき、処理はステップS503に戻る。このとき、光量推定値Eλxの算出が繰り返し行われる。一方、評価値Jが所定の閾値A4よりも大きいと判定されたとき、処理はステップS509に進む。ステップS509において、形状最適化部200の選択部228は、フラグFの値を0に設定する。その後、処理は図19を参照して説明している処理に戻る。
 図19に戻って説明を続ける。第2の形状情報算出処理の後、ステップS305において、制御部100の形状最適化部200に含まれる選択部228は、フラグFが1であるか否かを判定する。フラグFが1でないとき、処理はステップS302に戻る。すなわち、第2の形状情報算出処理を行っている間に、不適切な解に収束しそうになったとき、ステップS509においてフラグFが0となり、再び第1の形状情報算出処理が行われる。一方、フラグFが1であると判定されたとき、処理はステップS306に進む。このようにして、比較的制度が劣る第2の形状情報算出処理によって不適切な解に収束することが防止され得る。
 ステップS306において、制御部100の内視鏡形状計算部140は、形状最適化部200で算出された形状情報k1乃至kmと被検出部410の位置情報とに基づいて、内視鏡810の挿入部812の形状を算出する。ステップS307において、制御部100は、算出した挿入部812の形状を表示部180に表示させる。ステップS308において、制御部100は、動作終了の指示が入力されたか否かを判定する。動作終了の指示が入力されていないとき、処理はステップS303に戻る。一方、動作終了の指示が入力されたと判定されたとき、本動作に係る処理は終了する。
 第2の算出方法を用いた処理によれば、第1の推定値演算部222による大域的な最適化演算で、不適切な局所解が算出されることを防ぎながら、第2の推定値演算部224による収束性の高い最適化演算で、素早く適切な形状情報が算出され得る。第2の算出方法によれば、全体として早くて正確な形状情報の算出が実現され得る。
 なお、第1の推定値演算部222による大域的な最適化演算が行われているときは、演算を収束させるため、挿入部812の形状は変化しないことが好ましい。このため、表示部180には、「待ち状態」と表示され、ユーザに挿入部812を動かさないように促す。また、第2の推定値演算部224による収束性の高い最適化演算が行われているときは、挿入部812の形状が変化しても追従できるので、表示部180には「駆動OK」と表示される。このような表示によって、演算が収束しないことが防止される。「待ち状態」や「駆動OK」の表示は一例であり、どのような表示でもよい。また、表示に限らず、音声によってユーザに報知されるように構成されてもよい。
 なお、第2の算出方法では、選択部228が第1の最適化演算を行うか第2の最適化演算を行うかを選択しているが、ユーザがこの選択を行えるように形状推定装置10が構成されてもよい。この場合、形状推定装置10には、ユーザが自らの選択を入力するための選択入力部が設けられる。ユーザが演算の種類を選択できるように構成されることで、ユーザは、正確さと表示の早さとのうち必要な方を自ら選択することができる。
 [第3の算出方法]
 第3の算出方法について説明する。第2の算出方法との相違点について説明し、同一の部分については説明を省略する。第3の算出方法に係る形状最適化部200の構成例の概略を図22に示す。図22に示すように、形状最適化部200は、第1の推定値演算部231と、第2の推定値演算部232と、第1の評価値演算部233と、第2の評価値演算部234と、選択部235とを備える。
 第1の推定値演算部231は、第2の算出方法における第1の推定値演算部222と同様に、大域的な最適化演算を行う推定値演算部である。第1の推定値演算部231は、第1の形状情報k1´乃至km´に基づく第1の光量推定値Eλx1を算出する。第1の推定値演算部231は、第1の光量推定値Eλx1及び第1の形状情報k1´乃至km´を第1の評価値演算部233へと出力する。
 第1の評価値演算部233は、第1の推定値演算部231が算出した第1の光量推定値Eλx1についての第1の評価値J1を次に示す式(12)に基づいて算出する。
Figure JPOXMLDOC01-appb-M000012
第1の評価値演算部233は、第1の評価値J1及び第1の形状情報k1´乃至km´を選択部235へと出力する。
 第2の推定値演算部232は、第2の算出方法における第2の推定値演算部224と同様に、局所的な最適化演算を行う推定値演算部である。第2の推定値演算部232は、第2の形状情報k1´´乃至km´´に基づく第2の光量推定値Eλx2を算出する。第2の推定値演算部232は、第2の光量推定値Eλx2及び第2の形状情報k1´´乃至km´´を第2の評価値演算部234へと出力する。
 第2の評価値演算部234は、第2の推定値演算部232が算出した第2の光量推定値Eλx2についての第2の評価値J2を次に示す式(13)に基づいて算出する。
Figure JPOXMLDOC01-appb-M000013
第2の評価値演算部234は、第2の評価値J2及び第2の形状情報k1´´乃至km´´を選択部235へと出力する。
 第3の算出方法では、第1の推定値演算部231及び第1の評価値演算部233による大域的な最適化演算と、第2の推定値演算部232及び第2の評価値演算部234による局所的な最適化演算とが、並列演算される。
 選択部235は、第1の評価値J1と第2の評価値J2とに基づいて、評価値Jを決定する。選択部235は、この評価値Jに基づいて、最適化演算を繰り返し行うか、演算を終了し、演算結果を出力するかを判定する。選択部235は、第1の形状情報k1´乃至km´と第2の形状情報k1´´乃至km´´とのうちより適切な方を形状情報k1乃至kmとして出力する。
 第3の算出方法を用いた制御部100の動作について説明する。本動作は、図16を参照して説明した第1の算出方法を用いた制御部100の動作と同様に動作する。ただし、形状情報算出処理の動作が異なる。第3の算出方法を用いた形状情報算出処理の動作について、図23に示すフローチャートを参照して説明する。
 ステップS601において、形状最適化部200は、光量推定式及び閾値を読み込む。すなわち、第1の推定値演算部231は、第1の光量推定値Eλx1の算出に用いる光量推定式を読み込む。第2の推定値演算部232は、第2の光量推定値Eλx2の算出に用いる光量推定式を読み込む。選択部235は、閾値Aを読み込む。
 ステップS601の後に行われる第1の推定値演算部231及び第1の評価値演算部233によるステップS602乃至ステップS604の処理と、第2の推定値演算部232及び第2の評価値演算部234によるステップS605乃至ステップS607の処理とは、並列処理である。
 ステップS602において、形状最適化部200の第1の推定値演算部231は、第1の光量推定値Eλx1を算出する。第1の推定値演算部231は、算出した第1の光量推定値Eλx1を第1の評価値演算部233へと出力する。
 ステップS603において、形状最適化部200の第1の評価値演算部233は、光検出器320から光量Dλxを読み込む。ステップS604において、形状最適化部200の第1の評価値演算部233は、第1の推定値演算部231から取得した第1の光量推定値Eλx1と、光検出器320から取得した光量Dλxとに基づいて、式(12)を用いて、第1の評価値J1を算出する。第1の評価値演算部233は、算出した第1の評価値J1及び第1の光量推定値Eλx1に係る第1の形状情報k1´乃至km´を選択部235へと出力する。
 ステップS605において、形状最適化部200の第2の推定値演算部232は、第2の光量推定値Eλx2を算出する。第2の推定値演算部232は、算出した第2の光量推定値Eλx2を第2の評価値演算部234へと出力する。
 ステップS606において、形状最適化部200の第2の評価値演算部234は、光検出器320から光量Dλxを読み込む。ステップS607において、形状最適化部200の第2の評価値演算部234は、第2の推定値演算部232から取得した第2の光量推定値Eλx2と、光検出器320から取得した光量Dλxとに基づいて、式(13)を用いて、第2の評価値J2を算出する。第2の評価値演算部234は、算出した第2の評価値J2及び第2の光量推定値Eλx2に係る第2の形状情報k1´´乃至km´´を選択部235へと出力する。
 ステップS602乃至ステップS604の処理及びステップS605乃至ステップS607の処理の後、ステップS608において、形状最適化部200の選択部235は、第1の評価値演算部233から取得した第1の評価値J1と、第2の評価値演算部234から取得した第2の評価値J2とを比較して、小さい方を評価値Jとする決定を行う。
 ステップS609において、形状最適化部200の選択部235は、評価値Jが所定の閾値A以下であるか否かを判定する。評価値Jが閾値A以下でないと判定されたとき、処理はステップS602及びステップS605の並列演算に戻る。この際、第1の推定値演算部231と第2の推定値演算部232とは、前回の演算で自ら算出した形状情報をそれぞれ用いてもよいし、第1の推定値演算部231と第2の推定値演算部232とがともにより評価値が小さかった方の形状情報を用いてもよい。一方、評価値Jが閾値A以下であると判定されたとき、処理はステップS610に進む。
 ステップS610において、形状最適化部200の選択部235は、第1の評価値J1と第2の評価値J2とを比較する。選択部235は、第1の評価値J1の方が小さいときは、第1の形状情報k1´乃至km´を形状情報k1乃至kmとする決定を行う。また、選択部235は、第2の評価値J2の方が小さいときは、第2の形状情報k1´´乃至km´´を形状情報k1乃至kmとする決定を行う。
 ステップS611において、形状最適化部200の選択部235は、ステップS610で決定した形状情報k1乃至kmを、例えば内視鏡形状計算部140へ出力する。その後、処理は図16を参照して説明した処理に戻る。
 第3の算出方法を用いれば、第1の推定値演算部231による大域的な最適化演算と第2の推定値演算部232による収束性の高い最適化演算との並列演算により、適切な最適解が早く算出され得る。また、大域的な最適化演算が適切に収束していない間は収束性の高い最適化演算の結果が出力され、大域的な最適化演算が適切に収束しているときは精度が高い大域的な最適化演算の結果が出力されるので、第2の算出方法の場合と異なり、常に形状情報が出力され得る。

Claims (18)

  1.  複数の被検出部の各々に応じた波長についての検出される光量が前記複数の被検出部の各々の形状に応じて異なるように構成されたセンサを用いて取得された前記波長と前記光量との関係である光量情報が入力されるように構成された入力部と、
     各々の前記被検出部についての前記形状と前記波長と前記光量との関係を表す形状特性情報を含む光量推定関係を記憶する記憶部と、
     前記光量推定関係に基づいて算出される前記波長と前記光量との関係である光量推定値と、前記光量情報とが所定の条件を満たすように、前記光量推定値を最適化演算によって算出することで、前記形状の推定値である形状情報を算出する形状演算部と
     を備える形状推定装置。
  2.  前記形状演算部が行う前記最適化演算は、少なくとも2種類の演算方法を含み、
     前記少なくとも2種類の演算方法のうち少なくとも1種類の演算方法は、収束計算を含み、
     前記少なくとも2種類の演算方法は、互いに収束性が異なる、
     請求項1に記載の形状推定装置。
  3.  前記少なくとも2種類の演算方法は、第1の最適化演算と第2の最適化演算とを含み、
     前記第1の最適化演算は、前記第2の最適化演算よりも精度が高く、
     前記第2の最適化演算は、前記第1の最適化演算よりも収束性が高い、
     請求項2に記載の形状推定装置。
  4.  前記形状演算部は、前記少なくとも2種類の演算方法を順次に実施する、請求項3に記載の形状推定装置。
  5.  前記形状演算部は、前記第1の最適化演算を行った後に、前記第2の最適化演算を行う、請求項4に記載の形状推定装置。
  6.  前記形状演算部は、前記第1の最適化演算によって算出された前記形状情報を、前記第2の最適化演算に用いる、請求項5に記載の形状推定装置。
  7.  前記形状演算部は、
      前記第1の最適化演算を行った後に、前記第2の最適化演算を行い、
      前記第1の最適化演算によって算出された前記形状情報を、前記第2の最適化演算に用い、
      前記第2の最適化演算を行っている間に、前記光量情報と前記光量推定値との誤差が所定の閾値よりも大きくなったとき、前記第2の最適化演算を中断して前記第1の最適化演算を行う、
     請求項3に記載の形状推定装置。
  8.  前記形状演算部は、
      前記少なくとも2種類の演算方法の各々を用いた演算を並列で行い、
      前記演算の結果として得られた少なくとも2つの前記形状情報のうちから最適な前記形状情報を選択する、
     請求項2に記載の形状推定装置。
  9.  前記形状演算部は、前記光量情報と前記光量推定値との誤差の大きさに基づいて、前記形状情報を選択する、請求項8に記載の形状推定装置。
  10.  前記最適化演算は収束計算を含み、
     前記形状演算部は、前記光量情報と前記光量推定値との誤差が所定の閾値よりも小さくなったときに前記収束計算を終了し、前記形状情報を決定する、
     請求項1に記載の形状推定装置。
  11.  前記第1の最適化演算と前記第2の最適化演算との選択が入力されるように構成された選択入力部をさらに備え、
     前記形状演算部は、前記選択入力部への入力に応じて前記第1の最適化演算又は前記第2の最適化演算を行う、
     請求項3に記載の形状推定装置。
  12.  前記形状演算部は、前記第1の最適化演算を行っている間は、待ち状態を表す信号を出力する、請求項3に記載の形状推定装置。
  13.  前記待ち状態を表す信号は、表示装置に待ち状態を表示させるための信号である、請求項12に記載の形状推定装置。
  14.  前記形状演算部は、以前に行った前記最適化演算の結果を保持している、請求項1に記載の形状推定装置。
  15.  光を射出する光源と、
     前記センサと
     をさらに備え、
     前記センサは、
      前記光源から射出された前記光を導光する導光部材と、
      前記導光部材に設けられた複数の光学部材であって前記導光部材によって導光される光のスペクトルに対して互いに異なる影響を与える複数の光学部材の各々を含む複数の前記被検出部と、
      前記導光部材によって導光される光であって、前記複数の光学部材によって影響を受けた光を検出し、前記光量情報を出力する光検出器と
     を含む請求項1に記載の形状推定装置。
  16.  請求項15に記載の形状推定装置と、
     前記導光部材が挿入部に設けられた内視鏡と、
     前記形状情報に基づいて前記挿入部の形状を算出する内視鏡形状計算部と
     を備える内視鏡システム。
  17.  複数の被検出部の各々に応じた波長についての検出される光量が前記複数の被検出部の各々の形状に応じて異なるように構成されたセンサを用いて取得された前記波長と前記光量との関係である光量情報を取得することと、
     各々の前記被検出部についての前記形状と前記波長と前記光量との関係を表す形状特性情報を含む光量推定関係を取得することと、
     前記光量推定関係に基づいて算出される前記波長と前記光量との関係である光量推定値と、前記光量情報とが所定の条件を満たすように、前記光量推定値を最適化演算によって算出することで、前記形状の推定値である形状情報を算出することと
     を含む形状推定方法。
  18.  複数の被検出部の各々に応じた波長についての検出される光量が前記複数の被検出部の各々の形状に応じて異なるように構成されたセンサを用いて取得された前記波長と前記光量との関係である光量情報を取得することと、
     各々の前記被検出部についての前記形状と前記波長と前記光量との関係を表す形状特性情報を含む光量推定関係を取得することと、
     前記光量推定関係に基づいて算出される前記波長と前記光量との関係である光量推定値と、前記光量情報とが所定の条件を満たすように、前記光量推定値を最適化演算によって算出することで、前記形状の推定値である形状情報を算出することと
     をコンピュータに実行させる形状推定のためのプログラム。
PCT/JP2015/064959 2014-06-26 2015-05-25 形状推定装置、それを備えた内視鏡システム、形状推定方法及び形状推定のためのプログラム WO2015198772A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/384,791 US20170100196A1 (en) 2014-06-26 2016-12-20 Shape estimation device, endoscope system including shape estimation device, shape estimation method, and program for shape estimation

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-131772 2014-06-26
JP2014131772A JP6278848B2 (ja) 2014-06-26 2014-06-26 形状推定装置、それを備えた内視鏡システム及び形状推定のためのプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/384,791 Continuation US20170100196A1 (en) 2014-06-26 2016-12-20 Shape estimation device, endoscope system including shape estimation device, shape estimation method, and program for shape estimation

Publications (1)

Publication Number Publication Date
WO2015198772A1 true WO2015198772A1 (ja) 2015-12-30

Family

ID=54937869

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/064959 WO2015198772A1 (ja) 2014-06-26 2015-05-25 形状推定装置、それを備えた内視鏡システム、形状推定方法及び形状推定のためのプログラム

Country Status (3)

Country Link
US (1) US20170100196A1 (ja)
JP (1) JP6278848B2 (ja)
WO (1) WO2015198772A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107920716A (zh) * 2015-07-10 2018-04-17 奥林巴斯株式会社 形状检测插入装置
US11478305B2 (en) * 2016-04-05 2022-10-25 Olympus Corporation Bend information computation apparatus and endoscope system

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2016075831A1 (ja) * 2014-11-14 2017-09-21 オリンパス株式会社 湾曲情報推定装置、湾曲情報推定装置を備えた内視鏡システム、湾曲情報推定方法及び湾曲情報推定のためのプログラム
CN107249421B (zh) * 2015-01-30 2019-06-18 奥林巴斯株式会社 预先形状推测装置、插拔作业系统、插拔作业辅助系统
WO2017094082A1 (ja) * 2015-11-30 2017-06-08 オリンパス株式会社 湾曲情報導出装置
WO2018116375A1 (ja) * 2016-12-20 2018-06-28 オリンパス株式会社 湾曲情報導出装置、この装置を含む内視鏡システム、及び湾曲情報導出方法
WO2019003273A1 (ja) * 2017-06-26 2019-01-03 オリンパス株式会社 ファイバセンサ及びそれを有する湾曲情報導出装置並びにこの装置を含む内視鏡システム
WO2019230713A1 (ja) * 2018-06-01 2019-12-05 古河電気工業株式会社 検知システム、カテーテル装置、およびレーザ焼灼装置
FR3126318A1 (fr) * 2021-08-27 2023-03-03 Commissariat A L'energie Atomique Et Aux Energies Alternatives Dispositif implantable d'illumination cérébrale à solution de surveillance de sonde optique

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010140440A1 (ja) * 2009-06-03 2010-12-09 オリンパスメディカルシステムズ株式会社 光センシングシステムおよび内視鏡システム
JP2011019550A (ja) * 2009-07-13 2011-02-03 Fujifilm Corp 内視鏡装置及び内視鏡システム並びに内視鏡装置の制御方法
WO2011052491A1 (ja) * 2009-10-29 2011-05-05 Hoya株式会社 診断補助装置及び診断補助方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004251779A (ja) * 2003-02-20 2004-09-09 Fuji Photo Optical Co Ltd 長尺可撓部材の三次元形状検出装置
JP4714570B2 (ja) * 2005-11-24 2011-06-29 Hoya株式会社 内視鏡形状検出プローブ
WO2008131303A2 (en) * 2007-04-20 2008-10-30 Hansen Medical, Inc. Optical fiber shape sensing systems
CN102440779B (zh) * 2007-09-25 2014-04-09 奥林巴斯医疗株式会社 位置检测装置
JP6270483B2 (ja) * 2011-01-28 2018-01-31 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 細長の装置の光学的追跡の3d形状再構成
JP6091052B2 (ja) * 2011-04-05 2017-03-08 オリンパス株式会社 光学式曲がり測定装置
JP5767057B2 (ja) * 2011-08-10 2015-08-19 オリンパス株式会社 ファイバーセンサー
JP6205176B2 (ja) * 2013-05-22 2017-09-27 オリンパス株式会社 湾曲形状センサ
JP6274775B2 (ja) * 2013-08-09 2018-02-07 オリンパス株式会社 光学式センサシステムと、光学式センサシステムを有する内視鏡

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010140440A1 (ja) * 2009-06-03 2010-12-09 オリンパスメディカルシステムズ株式会社 光センシングシステムおよび内視鏡システム
JP2011019550A (ja) * 2009-07-13 2011-02-03 Fujifilm Corp 内視鏡装置及び内視鏡システム並びに内視鏡装置の制御方法
WO2011052491A1 (ja) * 2009-10-29 2011-05-05 Hoya株式会社 診断補助装置及び診断補助方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107920716A (zh) * 2015-07-10 2018-04-17 奥林巴斯株式会社 形状检测插入装置
CN107920716B (zh) * 2015-07-10 2020-11-03 奥林巴斯株式会社 形状检测插入装置
US11478305B2 (en) * 2016-04-05 2022-10-25 Olympus Corporation Bend information computation apparatus and endoscope system

Also Published As

Publication number Publication date
JP6278848B2 (ja) 2018-02-14
JP2016007506A (ja) 2016-01-18
US20170100196A1 (en) 2017-04-13

Similar Documents

Publication Publication Date Title
JP6278848B2 (ja) 形状推定装置、それを備えた内視鏡システム及び形状推定のためのプログラム
JP6322495B2 (ja) 形状推定装置、形状推定装置を備えた内視鏡システム及び形状推定のためのプログラム
EP2774528B1 (en) Tubular insertion device
US20170280978A1 (en) Insertion/removal supporting apparatus and insertion/removal supporting method
JP6500096B2 (ja) 湾曲情報導出装置、湾曲情報導出装置を備えた内視鏡システム、湾曲情報導出方法及び湾曲情報導出のためのプログラム
JP5506337B2 (ja) 三次元形状検出装置
US10842359B2 (en) Curvature sensor and endoscope apparatus equipped with the same
US20170017071A1 (en) Microscopy system, refractive-index calculating method, and recording medium
JP6626844B2 (ja) ファイバセンサシステム及びそれを搭載した内視鏡装置
JP6710277B2 (ja) 可撓管挿入装置
US20170281046A1 (en) Insertion/removal supporting apparatus and insertion/removal supporting method
EP3114984A1 (en) Light source device
US10813701B2 (en) System, method and computer program product for bend information estimation
WO2017009984A1 (ja) 形状演算装置
EP2759246B1 (en) Calibration apparatus and calibration method
US10197386B2 (en) Bend information computation apparatus
JP5797318B2 (ja) 管状挿入装置
US20210161364A1 (en) Endoscope apparatus
JP5897092B2 (ja) 管状挿入装置
US8305586B2 (en) Optical encoder, bending operation system, and method of detecting displacement of linear power transmission member
JP3901711B2 (ja) 平面配列型受光素子を利用した光測定装置及び方法
JP5676028B2 (ja) 三次元形状検出装置の作動方法
JP2015094628A (ja) 分光透過率測定装置および分光透過率測定方法
US11478305B2 (en) Bend information computation apparatus and endoscope system
JPWO2017221355A1 (ja) 形状推定装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15812041

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15812041

Country of ref document: EP

Kind code of ref document: A1