WO2016178279A1 - 湾曲情報導出装置、湾曲情報導出装置を備えた内視鏡システム、湾曲情報導出方法及び湾曲情報導出のためのプログラム - Google Patents

湾曲情報導出装置、湾曲情報導出装置を備えた内視鏡システム、湾曲情報導出方法及び湾曲情報導出のためのプログラム Download PDF

Info

Publication number
WO2016178279A1
WO2016178279A1 PCT/JP2015/063134 JP2015063134W WO2016178279A1 WO 2016178279 A1 WO2016178279 A1 WO 2016178279A1 JP 2015063134 W JP2015063134 W JP 2015063134W WO 2016178279 A1 WO2016178279 A1 WO 2016178279A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
light
bending
detected
unit
Prior art date
Application number
PCT/JP2015/063134
Other languages
English (en)
French (fr)
Inventor
憲 佐藤
佐々木 靖夫
藤田 浩正
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to EP15891286.5A priority Critical patent/EP3289954A1/en
Priority to PCT/JP2015/063134 priority patent/WO2016178279A1/ja
Priority to CN201580079547.8A priority patent/CN107529941B/zh
Priority to JP2017516243A priority patent/JP6500096B2/ja
Publication of WO2016178279A1 publication Critical patent/WO2016178279A1/ja
Priority to US15/800,199 priority patent/US10729313B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/005Flexible endoscopes
    • A61B1/009Flexible endoscopes with bending or curvature detection of the insertion part
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/005Flexible endoscopes
    • A61B1/0051Flexible endoscopes with controlled bending of insertion part
    • A61B1/0052Constructional details of control elements, e.g. handles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00006Operational features of endoscopes characterised by electronic signal processing of control signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/005Flexible endoscopes
    • A61B1/0051Flexible endoscopes with controlled bending of insertion part
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/005Flexible endoscopes
    • A61B1/0051Flexible endoscopes with controlled bending of insertion part
    • A61B1/0055Constructional details of insertion parts, e.g. vertebral elements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/005Flexible endoscopes
    • A61B1/01Guiding arrangements therefore
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/07Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements using light-conductive means, e.g. optical fibres
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/065Determining position of the probe employing exclusively positioning means located on or in the probe, e.g. using position sensors arranged on the probe
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2061Tracking techniques using shape-sensors, e.g. fiber shape sensors with Bragg gratings

Definitions

  • the present invention relates to a bending information deriving device for deriving bending information indicating a bending state of a flexible object, an endoscope system including the bending information deriving device, a bending information deriving method, and a program for deriving bending information. .
  • JP 2007-143600 A discloses an endoscope shape detection probe using an optical fiber.
  • This detection probe has an optical fiber that bends integrally with the insertion portion of the endoscope.
  • the optical fiber is provided with two light modulators for detecting curvatures in two directions, for example, the X direction and the Y direction, at substantially the same position in the longitudinal direction.
  • the light modulation unit modulates the intensity of the wavelength component of the light transmitted through the optical fiber.
  • the curvature of the optical fiber in the light modulator, and hence the curvature of the insertion part bent integrally with the optical fiber is detected based on the intensity of the wavelength component before and after passing through the light modulator.
  • Japanese Unexamined Patent Application Publication No. 2007-143600 does not specifically disclose how to calculate the curvature (bending magnitude) in two directions based on the intensity of the wavelength component or the like. Also, it is not specifically disclosed how to calculate the bending direction of the optical fiber together with the curvature.
  • An object of the present invention is to provide a bending information deriving device that derives bending information (direction of bending and magnitude of bending). Another object of the present invention is to provide an endoscope system including a bending information deriving device that derives bending information (direction of bending and magnitude of bending). Another object of the present invention is to provide a bending information deriving method for deriving bending information (bending direction and bending magnitude). Another object of the present invention is to provide a program for deriving curvature information for deriving curvature information (direction of bending and magnitude of bending).
  • One embodiment of the present invention is a bending information deriving device that derives bending information indicating the bending direction and the bending magnitude of a group of detected portions provided on a light guide member.
  • the detected portion group includes a plurality of detected portions arranged at the same position along the length of the light guide member. Each detected portion modulates the intensity of light guided by the light guide member according to the bending direction and the bending magnitude.
  • the bending information deriving device includes an input unit to which detected light amount information of light having a wavelength corresponding to each detected unit, a bending coefficient and intensity modulation information of each detected unit, and the bending coefficient and intensity modulation information.
  • a light amount information relationship representing the relationship between the detected light amount information and a first calculation for calculating light amount change information for each detected portion based on the detected light amount information and the light amount information relationship
  • a second computing unit that calculates the bending information of the detected portion group based on the light amount change information and the bending coefficient.
  • the bending information deriving device described above an endoscope in which a light guide member is provided in the insertion portion, and the bending information of the insertion portion based on the bending information are calculated.
  • An endoscope system including an endoscope curvature information calculation unit.
  • another embodiment of the present invention is a bending information deriving method for deriving bending information indicating a bending direction and a bending magnitude of a group of detected portions provided on a light guide member.
  • the detected portion group includes a plurality of detected portions arranged at the same position along the length of the light guide member. Each detected portion modulates the intensity of light guided by the light guide member according to the bending direction and the bending magnitude.
  • the bending information derivation method includes obtaining detected light amount information of light having a wavelength corresponding to each detected part, bending coefficient and intensity modulation information of each detected part, the bending coefficient and the intensity modulation information, and the Obtaining a light amount information relationship representing a relationship with the detected light amount information, calculating light amount change information for each detected portion based on the detected light amount information and the light amount information relationship, and the light amount change information And calculating the bending information of the detected portion group based on the bending coefficient.
  • another embodiment of the present invention is a program for deriving bending information for deriving bending information representing the bending direction and the bending magnitude of the group of detected portions provided on the light guide member.
  • the detected portion group includes a plurality of detected portions arranged at the same position along the length of the light guide member. Each detected portion modulates the intensity of light guided by the light guide member according to the bending direction and the bending magnitude.
  • the program acquires detected light amount information of light having a wavelength corresponding to each detected portion, the bending coefficient and intensity modulation information of each detected portion, the bending coefficient, the intensity modulation information, and the detected light amount information.
  • the computer is caused to calculate the curvature information of the group to be detected based on the coefficient.
  • a bending information deriving apparatus capable of deriving bending information
  • an endoscope system including the bending information deriving apparatus, a bending information deriving method, and a program for deriving bending information
  • FIG. 1 is a diagram schematically illustrating a configuration of an endoscope system including a curvature information deriving device according to the first embodiment.
  • FIG. 2 is a diagram for explaining the amount representing the bending state of the flexible portion.
  • FIG. 3 is a block diagram illustrating an example of the configuration of the sensor.
  • FIG. 4 is a diagram illustrating an example of the relationship between the wavelength and intensity of light emitted from the light source.
  • FIG. 5 is a diagram illustrating an example of the relationship between the wavelength of light incident on the photodetector and the detection sensitivity of the photodetector.
  • FIG. 6 is a cross-sectional view including the optical axis of the light guide member.
  • FIG. 7 is a radial sectional view of the light guide member taken along line AA in FIG.
  • FIG. 8 is a diagram illustrating an example of the relationship between the wavelength of light and the absorption coefficient in the first light absorber and the second light absorber.
  • FIG. 9A is a diagram schematically illustrating the transmission of light in a state where the first detected portion is curved inward.
  • FIG. 9B is a diagram schematically illustrating transmission of light when the first detection target portion is in a straight line state.
  • FIG. 9C is a diagram schematically illustrating the transmission of light in a state where the first detected portion is curved outward.
  • FIG. 10 is a diagram illustrating an example of the relationship between the wavelength and the reference light amount information.
  • FIG. 11 is a diagram illustrating an example of the curvature coefficient acquired for the first wavelength.
  • FIG. 12 is a diagram illustrating an example of the curvature coefficient acquired with respect to the second wavelength.
  • FIG. 13 is a diagram illustrating a state in which a flexible portion having a length L including a group of detected portions is curved at an angle ⁇ and a curvature ⁇ .
  • FIG. 14 is a diagram illustrating an example of the detected light amount in the curved state of FIG.
  • FIG. 15 is a flowchart showing the flow of processing in the control unit.
  • FIG. 16 is a flowchart illustrating an example of obtaining a curvature coefficient.
  • FIG. 17 is a flowchart illustrating an example of acquisition of reference light amount information.
  • FIG. 18 is a flowchart illustrating an example of bending information calculation processing.
  • FIG. 19 is a block diagram illustrating an example of a sensor configuration.
  • FIG. 20 is a diagram illustrating an example of the relationship between the wavelength of light and the absorption coefficient in the first light absorber and the second light absorber.
  • FIG. 21 is a block diagram illustrating an example of a sensor configuration.
  • FIG. 22 is a diagram illustrating an example of the relationship between the wavelength and the light emission intensity of the light source at a certain time.
  • FIG. 23 is a diagram illustrating an example of the relationship between the wavelength of light incident on the photodetector and the detection sensitivity of the photodetector, corresponding to FIG. FIG.
  • FIG. 24 is a block diagram illustrating an example of a bending information calculation unit according to the second embodiment.
  • FIG. 25 is a diagram illustrating an example of the relationship between the wavelength of light and the absorption coefficient in the first light absorber and the second light absorber.
  • FIG. 26 is a block diagram illustrating an example of a configuration of a sensor according to the third embodiment.
  • FIG. 27 is a diagram illustrating an example of the relationship between the wavelength of light and the absorption coefficient in the first, second, third, and fourth light absorbers.
  • FIG. 28A is a diagram illustrating a state in which the region of the length L 1 including the first detected portion group in the flexible portion is curved at the angle ⁇ 1 and the curvature ⁇ 1 .
  • FIG. 28B is a diagram showing a state in which the region of the length L 2 including the second detected portion group in the flexible portion is curved at the angle ⁇ 2 and the curvature ⁇ 2 .
  • FIG. 29 is a diagram illustrating an example of the curvature coefficient acquired with respect to the first wavelength with respect to the second group of detected parts.
  • FIG. 30 is a diagram illustrating an example of the curvature coefficient acquired with respect to the second wavelength with respect to the second group of detected parts.
  • FIG. 31 is a diagram schematically illustrating a configuration of an endoscope system including a bending information deriving device including a large number of detected unit groups.
  • 32A is a radial cross-sectional view of a light guide member including another detected portion that can be substituted for the detected portion of the first to third embodiments.
  • 32B is a cross-sectional view including the optical axis of the light guide member shown in FIG. 31A.
  • FIG. 33 is a cross-sectional view including the optical axis of a light guide member provided with another detected portion that can be substituted for the detected portion shown in FIGS. 32A and 32B.
  • FIG. 1 is a diagram schematically showing a configuration of an endoscope system 1 including a bending information deriving device 10 (hereinafter referred to as deriving device 10) according to a first embodiment of the present invention.
  • the endoscope system 1 includes an endoscope 810, an endoscope control unit 820, a derivation device 10, a display unit 180, and an input device 190.
  • the endoscope 810 includes an elongated insertion portion 812 that is inserted into the insertion target, and an operation portion 814 that is connected to the proximal end side of the insertion portion 812.
  • the insertion portion 812 includes a distal end hard portion 816, a bending portion 817 provided on the proximal end side of the distal end hard portion 816, and a flexible tube portion 818 provided on the proximal end side of the bending portion 817.
  • the distal end hard portion 816 includes an illumination optical system, an observation optical system, an image sensor, and the like (not shown).
  • the bending portion 817 is bent in a desired direction by operating the operation portion 814.
  • the flexible tube portion 818 is bendable.
  • the operation unit 814 is used for various operations of the endoscope 810 including the bending operation described above.
  • the endoscope control unit 820 controls various operations of the endoscope 810.
  • the endoscope control unit 820 includes an image processing unit 822 for processing an image acquired by the above-described observation optical system and imaging device.
  • the deriving device 10 is a device for deriving bending information representing the bending state of the insertion portion 812, in particular, the bending portion 817 and the flexible tube portion 818 (hereinafter referred to as the flexible portion 819).
  • the flexible portion 819 having a length L that is linearly located from the origin P 0 (0, 0, 0) to the point P 1 (0, 0, L) is indicated by a solid line.
  • the flexible portion 819 is curved as indicated by an imaginary line in FIG. 2 and the point P 1 (0, 0, L) is displaced to the point P ′ 1 (x, y, z).
  • the flexible portion 819 is curved in an arc shape for convenience.
  • two pieces of information of the bending direction and the bending magnitude are necessary.
  • the derivation device 10 includes a sensor 500 including a sensor driving unit 300 and a sensor unit 400, and a control unit 100. Details of these will be described later.
  • the display unit 180 is a general display device, for example, a liquid crystal display, a CRT display, or an organic EL display.
  • the display unit 180 is connected to the endoscope control unit 820 and displays an image processed by the endoscope control unit 820.
  • the display unit 180 is connected to the control unit 100 and displays the bending information obtained by the derivation device 10.
  • the input device 190 is a general input device such as a keyboard, a pointing device such as a mouse, a tag reader, a button switch, a slider, and a dial.
  • the input device 190 is connected to the control unit 100.
  • the input device 190 is used for the user to input various commands for operating the derivation device 10.
  • the input device 190 may be a storage medium. In this case, information stored in the storage medium is input to the control unit 100.
  • FIG. 3 is a block diagram illustrating an example of a configuration of the sensor 500 including the sensor driving unit 300 and the sensor unit 400.
  • the sensor driving unit 300 includes a light source 310, a light detector 320, a light branching unit 330, and an antireflection member 340.
  • the sensor unit 400 includes a light guide member 420 provided with a detected portion group 410 including a plurality of detected portions, and a reflective member 430.
  • the light source 310 is a generally known light emitting unit such as a lamp, LED, or laser diode.
  • the light source 310 may further include a phosphor for converting the wavelength.
  • the detected portion group 410 includes at least a first detected portion 411 and a second detected portion 412, and may further include an mth detected portion 41m.
  • m is an arbitrary number.
  • the to-be-detected parts 411, 412, ..., 41m are provided at substantially the same position in the longitudinal direction (optical axis direction) of the light guide member 420.
  • the detection target group 410 will be described as being composed of a first detection target 411 and a second detection target 412.
  • Each detected part 411, 412 may be made of, for example, a substance that reduces the intensity of light guided by the light guide member 420, for example, a light absorber.
  • each of the detected portions 411 and 412 includes a substance that absorbs light guided by the light guide member 420 and emits light in a wavelength region different from the light guided, for example, a phosphor. May be.
  • FIG. 4 is a diagram showing an example of the relationship between the wavelength and intensity of light emitted from the light source 310.
  • the light source 310 emits light in an emission wavelength region including the first wavelength ⁇ 1 and the second wavelength ⁇ 2.
  • the first wavelength ⁇ 1 is, for example, a characteristic wavelength of a spectrum absorbed by a light absorber (hereinafter, referred to as a first light absorber 424) of the first detected unit 411 constituting the detected unit group 410. It is.
  • the characteristic wavelength is, for example, a wavelength at which absorption is maximized (see FIG. 8).
  • the second wavelength ⁇ ⁇ b> 2 is characteristic of the spectrum absorbed by the light absorber (hereinafter referred to as the second light absorber 425) of the second detected portion 412 that constitutes the detected portion group 410. Is the wavelength.
  • the light detector 320 includes a spectroscopic element such as a spectroscope or a color filter, and a light receiving element such as a photodiode.
  • the light detector 320 detects the intensity of light in a predetermined wavelength region and outputs detected light amount information.
  • the detected light amount information is information representing a relationship between a specific wavelength in a predetermined wavelength region and light intensity at the wavelength.
  • FIG. 5 is a diagram showing an example of the relationship between the wavelength of light incident on the photodetector 320 and the detection sensitivity of the photodetector 320.
  • the photodetector 320 has detection sensitivity in a wavelength region including the first wavelength ⁇ 1 and the second wavelength ⁇ 2.
  • the photodetector 320 outputs detected light amount information indicating the detected light intensity at the wavelengths ⁇ 1 and ⁇ 2, for example, to the control unit 100.
  • the photodetector is not limited to a photodetector having spectral characteristics.
  • the light source and the light detector include a mode in which the light amount for each of a plurality of predetermined wavelength regions is detected by a combination of the light source and the light detector.
  • the light source and the light detector include a mode in which narrow band light is sequentially emitted from the light source in time and the light amount in each wavelength region is detected by the wide band light detector.
  • the light branching unit 330 is optically connected to the light source 310 and the photodetector 320.
  • the optical branching unit 330 includes an optical coupler, a half mirror, and the like.
  • the light branching unit 330 guides the light emitted from the light source 310 to the light guide member 420 and guides the light guided by the light guide member 420 to the photodetector 320.
  • the antireflection member 340 is optically connected to the light branching unit 330.
  • the antireflection member 340 prevents light that has not entered the light guide member 420 from returning from the light source 310 to the photodetector 320.
  • the light guide member 420 is an optical fiber, for example, and has flexibility.
  • the proximal end of the light guide member 420 is connected to the light branching unit 330.
  • the light guide member 420 is incorporated in the insertion portion 812 along the longitudinal direction thereof.
  • the detected portion group 410 is disposed in the flexible portion 819, for example, at a location where the bending information is to be calculated in the insertion portion 812.
  • FIG. 6 is a cross-sectional view including the optical axis of the light guide member 420.
  • FIG. 7 is a radial sectional view of the light guide member 420 taken along line AA of FIG.
  • the light guide member 420 includes a core 423, a clad 422 that surrounds the core 423, and a jacket 421 that surrounds the clad 422.
  • the first detected portion 411 is formed by removing a part of the jacket 421 and the clad 422 to expose the core 423 and providing the first light absorber 424 on the exposed core 423.
  • the second detected part 412 is substantially the same position as the first detected part 411 in the longitudinal direction of the light guide member 420 and, for example, the first detected part in the radial cross section of the light guide member 420.
  • the second light absorber 425 is formed at a position substantially orthogonal to the part 411 in the same manner as the first detected part 411. It should be noted that an optical member that affects the spectrum of the guided light can be used without being limited to the light absorber, and the optical member may be, for example, a wavelength conversion member (phosphor). Good.
  • FIG. 8 is a diagram illustrating an example of the relationship between the wavelength of light and the absorption coefficient in the first light absorber 424 and the second light absorber 425. As shown in FIG. 8, the light absorbers 424 and 425 provided in the different detected portions 411 and 412 have absorption coefficients that change depending on the wavelength, that is, have different light absorption characteristics.
  • 9A to 9C are diagrams schematically showing light that guides the vicinity of the first detected portion 411 of the light guide member 420. In these drawings, the second detected portion 412 is not shown.
  • the light guide member 420 is in a straight state, a part of the light guided through the light guide member 420 is absorbed by the light absorber 424 as shown in FIG. 9B.
  • the light guide member 420 is curved so that the light absorber 424 is located on the inner side, the amount of light absorbed by the light absorber 424 decreases because the light hitting the light absorber 424 decreases ( FIG.
  • the amount of light guided through the light guide member 420 changes according to the curved state of the first detected portion 411. The same applies to the second detected portion 412.
  • a reflection member 430 is provided at the end of the light guide member 420 that is not connected to the light branching portion 330, that is, at the tip.
  • the reflection member 430 reflects the light guided from the light branching unit 330 by the light guide member 420 so as to return in the direction of the light branching unit 330.
  • the control unit 100 of the derivation device 10 can be configured by an electronic computer such as a personal computer.
  • the control unit 100 includes a calculation unit 101, an endoscope curvature information calculation unit 140, a photodetector driving unit 150, and an output unit 160.
  • the calculation unit 101 is constituted by, for example, equipment including a CPU, an ASIC, and the like.
  • the calculation unit 101 includes an input unit 130, a storage unit 120, and a bending information calculation unit 110.
  • Detected light amount information is input to the input unit 130 from the photodetector 320 of the sensor driving unit 300.
  • the input unit 130 transmits the input detected light amount information to the bending information calculation unit 110.
  • a curvature coefficient (to be described later) of the detected unit group 410 is input to the input unit 130.
  • the information output from the endoscope control unit 820 is also input to the input unit 130.
  • the input unit 130 transmits the input information to the bending information calculation unit 110 or the photodetector driving unit 150.
  • the storage unit 120 stores various information necessary for the calculation performed by the bending information calculation unit 110.
  • the storage unit 120 stores, for example, a program including a calculation algorithm, a curvature coefficient of the detected unit group 410, a light amount information relationship, reference light amount information, intensity modulation information, and the like.
  • the bending information calculation unit 110 is based on the detected light amount information acquired via the input unit 130, and a light amount information relationship, reference light amount information, intensity modulation information, and bending coefficient, which will be described later, stored in the storage unit 120. Curve information of the detection unit group 410 is calculated.
  • the bending information calculation unit 110 includes a first calculation unit 212 and a second calculation unit 214.
  • the first calculation unit 212 detects the detected units 411 and 412 based on the detected light amount information acquired via the input unit 130 and the light amount information relationship, reference light amount information, and intensity modulation information stored in the storage unit 120.
  • the light quantity change information for each is calculated.
  • the second calculation unit 214 calculates bending information in the detected unit group 410 based on the light amount change information calculated by the first calculation unit 212 and the bending coefficient stored in the storage unit 120.
  • the bending information calculation unit 110 transmits the calculated bending information to the endoscope bending information calculation unit 140 and the output unit 160. Further, the bending information calculation unit 110 outputs information related to the operation of the photodetector 320 necessary for calculation of bending information, such as the gain of the photodetector 320, to the photodetector driving unit 150.
  • the endoscope curvature information calculation unit 140 includes, for example, a CPU and an ASIC.
  • the endoscope bending information calculation unit 140 calculates bending information of the insertion unit 812 in which the detected unit group 410 is arranged based on the bending information of the detected unit group 410 calculated by the bending information calculation unit 110. .
  • the calculated curvature information is transmitted to the output unit 160.
  • the endoscope bending information calculation unit 140 may be incorporated in the bending information calculation unit 110.
  • the light detector drive unit 150 generates a drive signal for the light detector 320 based on information acquired from the input unit 130 and the bending information calculation unit 110. Based on this drive signal, for example, the photodetector driving unit 150 switches the operation of the photodetector 320 on / off based on a user instruction acquired via the input unit 130, or from the bending information calculation unit 110. Based on the acquired information, the gain of the photodetector 320 is adjusted. Further, the photodetector driving unit 150 may be configured to control the operation of the light source 310. The photodetector driving unit 150 transmits the generated driving signal to the output unit 160.
  • the output unit 160 outputs the bending information of the detected unit group 410 acquired from the bending information calculation unit 110 and the bending information of the insertion unit 812 acquired from the endoscope bending information calculation unit 140 to the display unit 180. Further, the output unit 160 outputs the acquired curvature information to the endoscope control unit 820. The output unit 160 outputs a drive signal from the photodetector driving unit 150 to the photodetector 320.
  • the insertion portion 812 of the endoscope 810 is inserted into the body to be inserted by the user. At this time, the insertion portion 812 is curved following the shape of the inserted object.
  • the endoscope 810 obtains an image signal by the observation optical system and the image sensor in the insertion unit 812. The obtained image signal is transmitted to the image processing unit 822 of the endoscope control unit 820.
  • the image processing unit 822 creates an image inside the inserted object based on the acquired image signal.
  • the image processing unit 822 displays the created image on the display unit 180.
  • the user When the user wants to display the bending information of the insertion unit 812 on the display unit 180 or when the endoscope control unit 820 wants to perform various operations using the bending information of the insertion unit 812, the user inputs the fact to that effect. Input to the control unit 100 through 190. At this time, the deriving device 10 operates.
  • the light source 310 of the sensor driving unit 300 emits light in a predetermined emission wavelength region.
  • the light emitted from the light source 310 is guided to the light guide member 420 of the sensor unit 400 via the light branching unit 330.
  • the guided light is transmitted from the proximal end side to the distal end side in the light guide member 420.
  • the amount of light in the light guide member 420 changes according to the curved state of the detected portion group 410 provided on the light guide member 420, and the amount of light transmitted changes for each wavelength.
  • this light is reflected by the reflecting member 430 and turned back, and the light guide member 420 is transmitted from the distal end side to the proximal end side.
  • the reflected light reaches the photodetector 320 via the light branching unit 330.
  • the photodetector 320 detects the intensity of the reached light for each wavelength.
  • the light detector 320 outputs detected light amount information about the wavelength and the detected light intensity to the input unit 130 of the control unit 100.
  • the input detected light amount information is acquired from the input unit 130 by the bending information calculation unit 110, and the bending information calculation unit 110 calculates the bending information of the detection target group 410.
  • the calculated curvature information of the group to be detected 410 is acquired by the endoscope curvature information calculation unit 140.
  • the endoscope bending information calculation unit 140 calculates bending information of the insertion unit 812 based on the acquired bending information.
  • the bending information of the detected unit group 410 calculated by the bending information calculation unit 110 and the bending information of the insertion unit 812 calculated by the endoscope bending information calculation unit 140 are input to the endoscope control unit 820 via the output unit 160. Obtained at.
  • the endoscope control unit 820 controls the operation of the endoscope 810 based on the acquired bending information. Further, the curvature information is displayed on the display unit 180 via the output unit 160.
  • the information input to the input unit 130 and the bending information of the detected unit group 410 calculated by the bending information calculation unit 110 are acquired by the photodetector driving unit 150. Based on the acquired information, the photodetector driver 150 transmits a drive signal to the photodetector 320 via the output unit 160 to control the operation of the photodetector 320.
  • the bending information of the detected unit group 410 is acquired by the calculation unit 101. Further, the endoscope bending information calculation unit 140 calculates bending information of the insertion unit 812 based on the acquired bending information. Accordingly, the user can grasp the bending information of the detected portion group 410 and the insertion portion 812 during the operation of the endoscope 810. Further, the endoscope control unit 820 can appropriately control the operation of the endoscope 810 according to the bending information.
  • the calculation performed by the calculation unit 101 in the derivation device 10 of the present embodiment will be described in detail. First, information prepared in advance before using the derivation device 10 will be described.
  • the detected light amount information D ⁇ n for the light of wavelength ⁇ n detected by the photodetector 320 is given by the following equation (1).
  • E ⁇ n is the amount of light emitted from the light source 310 with respect to the light with the wavelength ⁇ n
  • a ⁇ n is the light absorptance of the light with the wavelength ⁇ n in the first light absorber 424
  • B ⁇ n is the second light
  • C ⁇ n is included in the optical branching unit 330, the light guide member 420, the reflecting member 430, and the like in the optical path through which light is transmitted in the sensor driving unit 300 and the sensor unit 400 This is the absorptance of light of wavelength ⁇ n by members other than the detected part group 410.
  • I ⁇ n is reference light quantity information
  • the detected portion group 410 each detected portion 411, 412 has a predetermined shape as a reference (hereinafter referred to as a reference curved state)
  • light This is the amount of light with a wavelength ⁇ n detected by the detector 320.
  • F ⁇ n is a rate of change in the amount of light caused by light absorption only by the first detected portion 411, and the amount of light with respect to light of wavelength ⁇ n when the second detected portion 412 is in the reference curved state. It is a ratio to the reference light quantity information I ⁇ n .
  • G ⁇ n is a rate of change in the amount of light generated by the absorption of light only by the second detected portion 412, and the light amount and the reference amount of light with the wavelength ⁇ n when the first detected portion 411 is in the reference curved state. It is a ratio with the information I ⁇ n .
  • the light absorption coefficient in each light absorber 424, 425 of each detected part 411, 412 of the detected part group 410 is the bending direction of the detected part group 410, for example, the angle ⁇ described above, the magnitude of the bending, For example, it changes according to the curvature ⁇ . Therefore, the change rates F ⁇ n and G ⁇ n in the first detected unit 411 and the second detected unit 412 of the detected unit group 410 are given by the following equations (3) and (4), respectively.
  • the functions ⁇ ( ⁇ , ⁇ ) and ⁇ ( ⁇ , ⁇ ) are the curvature coefficients for the first detected part 411 and the second detected part 412 of the detected part group 410, respectively.
  • U ⁇ n and U ⁇ n are intensity modulation information for the first detected unit 411 and the second detected unit 412 of the detected unit group 410, respectively. From the equations (2), (3), and (4), the following equation (5) is obtained.
  • Equation (5) the left side represents detected light amount information in an arbitrary curved state, and the right side represents a calculated light amount value generated based on the reference light amount information, the bending coefficient, and the intensity modulation information.
  • Equation (5) By taking the logarithm, the right side of Equation (5) is expressed by addition. Thereby, the calculation of the formula (6) is easier than the formula (5).
  • the reference curved state for determining the reference light quantity information I ⁇ n for example, when the detected portion group 410 is linear, that is, when the detected portions 411 and 412 have a curvature of 0 and a curvature radius of ⁇ . Is adopted.
  • the reference curved state is not limited to this, and may be a shape other than a linear shape.
  • the detected portion group 410 has a linear shape as the reference bending state will be described. Note that the above angle ⁇ of the group to be detected 410 in a linear shape is set to 0 for convenience.
  • FIG. 10 is a diagram illustrating an example of the relationship between the wavelength and the reference light amount information.
  • the curvature coefficients ⁇ ( ⁇ , ⁇ ) and ⁇ ( ⁇ , ⁇ ) are acquired by changing the above-described angle ⁇ and curvature ⁇ of the group to be detected 410 within a possible range.
  • the wavelengths ⁇ n used for the calculation are the wavelengths ⁇ 1 and ⁇ 2 of the light absorbed in the detected parts 411 and 412, respectively.
  • FIG. 11 is a diagram showing an example of the curvature coefficient ⁇ ( ⁇ , ⁇ ) acquired for the first wavelength ⁇ 1, that is, the curvature coefficient ⁇ ( ⁇ , ⁇ ) of the first detected portion 411.
  • FIG. 11 is a diagram showing an example of the curvature coefficient ⁇ ( ⁇ , ⁇ ) acquired for the first wavelength ⁇ 1, that is, the curvature coefficient ⁇ ( ⁇ , ⁇ ) of the first detected portion 411.
  • FIGS. 11 and 12 show curvature coefficients for two curvatures ⁇ a and ⁇ b ( ⁇ a > ⁇ b ), respectively.
  • the obtained curvature coefficient is not limited to these, and the relationship between the angle ⁇ and the curvature coefficient in the detected unit group 410 is obtained for various curvatures ⁇ .
  • the curvature coefficients ⁇ ( ⁇ , ⁇ ) and ⁇ ( ⁇ , ⁇ ) can both be expressed by periodic functions. For example, they are approximately expressed by the sine functions of the following equations (8) and (9), respectively. Can be done.
  • a ⁇ ( ⁇ ) and a ⁇ ( ⁇ ) are amplitudes
  • b ⁇ ( ⁇ ) and b ⁇ ( ⁇ ) are phases
  • c ⁇ ( ⁇ ) and c ⁇ ( ⁇ ) are offsets.
  • the periodic function is not limited to the one represented by a first-order sine wave.
  • a Fourier series combining higher-order sine waves is used as the functions ⁇ ( ⁇ , ⁇ ) and ⁇ ( ⁇ , ⁇ ). The accuracy is good.
  • the curvature coefficient and the reference light quantity information are acquired in advance, for example, when the endoscope system 1 is manufactured or when the endoscope system 1 is assembled, and stored in the storage unit 120 in advance. Alternatively, the curvature coefficient and the reference light amount information may be acquired each time it is used.
  • FIG. 14 is a diagram illustrating an example of the relationship between the wavelength and the detected light amount in this curved state.
  • the angle ⁇ and the curvature ⁇ in the detected unit group 410 are obtained as follows.
  • the following information obtained according to the light amount information relationship based on the detected light amount information D ⁇ 1 and D ⁇ 2 at the first wavelength ⁇ 1 and the second wavelength ⁇ 2 detected by the photodetector 320 is as follows.
  • the binary linear simultaneous equation represented by the equation (10) is solved for ⁇ ( ⁇ , ⁇ ) and ⁇ ( ⁇ , ⁇ ).
  • the reference light quantity information I ⁇ 1 and I ⁇ 2 and the intensity modulation information U ⁇ 1 , U ⁇ 1 , U ⁇ 2 and U ⁇ 2 are acquired in advance and stored in the storage unit 120 as described above.
  • the detection light amount information D .lambda.1, D .lambda.2 a reference light amount information I .lambda.1, I .lambda.2 and intensity modulation information U ⁇ 1, U ⁇ 1, U ⁇ 2 , based on the U Betaramuda2, the detected portion
  • the light quantity change information ⁇ and ⁇ in the first detected unit 411 and the second detected unit 412 of the group 410 can be calculated.
  • the second calculation unit 214 the light amount change information ⁇ and ⁇ calculated by the first calculation unit 212 and the curvature coefficients ⁇ ( ⁇ , ⁇ ), ⁇ ( ⁇ , ⁇ ) stored in the storage unit 120.
  • a binary simultaneous equation expressed by the following equation (11) obtained according to ⁇ ) is solved for ⁇ and ⁇ .
  • the bending information of the detected portion group 410 that is, the angle ⁇ and the curvature ⁇ in the detected portion group 410, in other words, the bending direction and the bending magnitude of the detected portion group 410 can be obtained.
  • the light quantity information relationship is not limited to that represented in the function format as described above, and may be represented by a table (lookup table) in which the relationship between the wavelength and the light quantity is stored.
  • curvature information derivation calculation using the curvature coefficient and the parameter representing the magnitude of the bending of the detected part group has been described, but other parameters such as the curvature radius as the parameter representing the bending magnitude, and A curvature information derivation operation using a corresponding curvature coefficient can be employed.
  • FIG. 15 is a flowchart showing the flow of processing in the control unit 100.
  • the control unit 100 reads the intensity modulation information stored in the storage unit 120.
  • Storing the intensity modulation information in the storage unit 120 is performed at the time of factory shipment, for example.
  • the intensity modulation information may be stored in a portable storage medium and read from the input device 190.
  • the intensity modulation information is acquired as follows, for example.
  • a light absorber for which intensity modulation information is to be acquired is disposed on a detected portion of a sensor having a light guide member on which only one detected portion is formed.
  • Reference light quantity information is obtained by setting the light guide member in the reference curved state.
  • the detected light amount information is obtained by bending the detected portion into an arbitrary shape.
  • the detected light amount information in an arbitrary shape is divided by the reference light amount information, and its natural logarithm is taken.
  • step S2 the control unit 100 determines whether the curvature coefficient is stored in the storage unit 120. When it determines with it not having memorize
  • FIG. 16 is a flowchart illustrating an example of obtaining a curvature coefficient.
  • the control unit 100 acquires reference light amount information I ⁇ .
  • FIG. 17 is a flowchart illustrating an example of acquisition of reference light amount information.
  • the control unit 100 sets the detected unit group 410 to a reference curved state (in the present embodiment, a linear shape).
  • the control part 100 confirms whether the to-be-detected part group 410 is in a reference
  • the control unit 100 acquires the reference light amount information I lambda in the reference curved state (equation (7)).
  • the acquired reference light quantity information I ⁇ is stored in the storage unit 120. Then, the acquisition of the reference light quantity information I ⁇ is finished, and the process proceeds to step S32.
  • the detected light quantity information is obtained by bending the portion of the light guide member 420 where the detection target group 410 is arranged with a known bending direction and curvature.
  • the detected light quantity information is, for example, adjusted by bending the curvature ⁇ a or ⁇ b and manually changing the bending direction, or mechanically changing by a bending setting mechanism (not shown).
  • a calibrator may be used when bending with a known bending direction and curvature.
  • step S33 the light quantity change information component of each detected part is decomposed using the light quantity information relationship, and the bending coefficients ⁇ ( ⁇ , ⁇ ) and ⁇ ( ⁇ , ⁇ ) of each detected part are obtained. Since the bending state (bending direction and curvature) is known, the graphs shown in FIGS. 11 and 12 can be plotted, and an approximate expression of the bending coefficient of each detected portion can be obtained.
  • step S34 the obtained curvature coefficient of each detected part is stored in the storage unit 120. This completes the acquisition of the curvature coefficient.
  • step S3 after obtaining the curvature coefficient in step S3 or when it is determined in step S2 that the curvature coefficient is stored in the storage unit 120 (YES), the process proceeds to step S4.
  • the case where it determines with YES in step S2 is a case where acquisition of a curvature coefficient is performed at the time of factory shipment of the endoscope system 1 or an assembly, for example.
  • step S4 the control unit 100 determines whether there is a request for reacquisition of the reference light amount information. If it is determined that there is a request (YES), the process proceeds to step S5.
  • step S5 the control unit 100 acquires the reference light amount information by the above-described reference light amount information acquisition subroutine (steps S311 to S313). Such reacquisition is requested when, for example, a connection with another control unit different from the above-described control unit 100 is performed, or when the sensor driving unit 300 and the sensor unit 400 are separated and re-connected. This is when a connection is made.
  • step S5 After obtaining the reference light amount information I lambda in step S5, or if it is determined that there is no request in step S4 (NO), the process proceeds to step S6, curvature information of the operation section 101 of the control unit 100 is detected part group 410 Perform the operation.
  • FIG. 18 is a flowchart illustrating an example of bending information calculation processing.
  • the curvature information calculation unit 110 is a storage unit 120 from the light amount information related to the reference light amount information I lambda and intensity modulation information U ⁇ 1, U ⁇ 1, U ⁇ 2 , U ⁇ 2 curved coefficient ⁇ ( ⁇ , ⁇ ), ⁇ ( Read out ⁇ , ⁇ ).
  • the bending information calculation unit 110 acquires the detected light amount information D ⁇ 1 and D ⁇ ⁇ b > 2 of the light with the wavelengths ⁇ ⁇ b> 1 and ⁇ ⁇ b> 2 in an arbitrary bending state by the photodetector 320 via the input unit 130.
  • step S65 the bending information calculation unit 110 transmits the obtained angle ⁇ and curvature ⁇ to the output unit 160. This completes the curvature information calculation.
  • step S7 the control unit 100 determines whether or not to calculate curvature information. When it determines with performing (YES), it returns to step S2 and the process after step S2 is repeated. If it is determined not to be performed (NO), the process ends.
  • the curvature coefficient depends only on the light absorption characteristics of the light absorbers 424 and 425 of the detection target group 410 and does not depend on the characteristics of the light source 310 and the photodetector 320. Therefore, each component of the sensor driving unit 300 is separated, and for example, a light source that emits light in a predetermined emission wavelength region or a photodetector that has detection sensitivity over all wavelengths required by the control unit 100 may be used. Good. That is, the curvature coefficient can be acquired by another light source or a photodetector, and can be replaced with another sensor driving unit.
  • the light guide member 420 constituting the sensor unit 400 is provided with the detected portion group 410 including a plurality of detected portions formed at substantially the same position in the longitudinal direction.
  • the detected light amount information for each wavelength in the detected unit group 410 is detected by the photodetector 320 of the sensor driving unit 300.
  • the bending information calculation unit 110 first calculates the light amount change information in the first calculation unit 212 based on the detected light amount information and the light amount information relationship stored in advance in the storage unit 120, and then the second light amount information.
  • the calculation unit 214 Based on the calculated light quantity change information and the bending coefficient stored in advance in the storage unit 120, the calculation unit 214 derives the bending information of the detected unit group 410 and the insertion unit 812. Thus, according to the present embodiment, it is possible to provide a bending information deriving device that can derive bending information.
  • the curvature coefficient of light in the group to be detected 410 is used to obtain curvature information. Therefore, the curvature information calculation can be performed without depending on the spectrum of the light source 310 of the sensor driving unit 300 and the spectral sensitivity of the photodetector 320.
  • information on the distance between the light source 310 and the detected portion group 410 provided on the light guide member 420 is not required for the curvature information calculation. Therefore, it is possible to perform bending information calculation without considering the positional relationship between the light source 310 and the detected unit group 410.
  • the absorption and loss of light by the light branching unit 330 of the sensor driving unit 300 and the reflecting member 430 of the sensor unit 400 are constant regardless of the bending magnitude of the detected unit group 410. is there. Therefore, when obtaining the reference light amount information, the loss is included. For this reason, it is possible to calculate without separately considering the influence of the light branching portion 330 and the reflecting member 430.
  • the first embodiment may be as follows.
  • the request for reacquisition of the reference light amount information determined in step S4 occurs, for example, when the light branching unit 330 of the sensor driving unit 300 and the light guide member 420 of the sensor unit 400 are separated and reconnected.
  • the control unit 100 may be configured to determine whether the connection is maintained in such a case, that is, whether the disconnection and the reconnection are performed.
  • FIG. 19 is a block diagram illustrating an example of the configuration of the sensor 500.
  • the sensor unit 400 includes a sensor storage unit 440.
  • sensor identification information and a curvature coefficient are stored in advance at the time of factory shipment or when an apparatus is assembled, for example.
  • the sensor identification information so-called ID information, is information for identifying the type or individual of the sensor unit 400, and is preferably unique.
  • the curvature coefficient is stored in the sensor storage unit 440 in step S53 of FIG. Accordingly, even when the sensor unit 400 is connected to another sensor driving unit different from the sensor driving unit 300, the sensor identification information and the curvature coefficient can be read from the sensor storage unit 440.
  • the curvature coefficient is read from the sensor storage unit 440 instead of acquiring the curvature coefficient in step S3 of FIG. . Thereby, even when the sensor driving unit 300 is connected to another control unit, it is not necessary to acquire the curvature coefficient again.
  • step S2 a step in which the control unit 100 confirms the sensor identification information of the connected sensor unit 400 is provided before step S2 immediately after the start of the flow shown in FIG. Also good.
  • the curvature coefficient and sensor identification information are associated with each other, and the curvature coefficient (the curvature coefficient of each of the plurality of sensor units) is stored in the storage unit 120.
  • the sensor identification information is input from the input unit 130 by the input device 190.
  • the sensor identification information may be stamped or affixed to the sensor unit 400, or may be stored in a tag.
  • the tag is preferably a contactless tag such as an RF-ID. Or you may memorize
  • the curvature coefficient can be extracted from the sensor identification information, the curvature coefficient can be extracted from the sensor identification information even when connection is made with another sensor unit. Therefore, it is not necessary to acquire the curvature coefficient anew.
  • FIG. 20 is a diagram illustrating an example of the relationship between the wavelength of light and the absorption coefficient in the first light absorber and the second light absorber.
  • the wavelengths used for calculating the curvature information are not limited to the specific wavelengths ⁇ 1 and ⁇ 2, and the first wavelength band d ⁇ 1 and the second wavelength band d each having a bandwidth as shown in FIG. It may be ⁇ 2 .
  • the first detected unit 411 and the second detected unit 412 have a wavelength range in which mutual absorption occurs (that is, both the first light absorber and the second light absorber have an absorption coefficient in the wavelength range).
  • a wavelength band (characteristic absorption band) having a wavelength range in which absorption wavelength characteristics are different from each other (that is, the absorption coefficients of the first light absorber and the second light absorber are different from each other). It has more than the number of parts (that is, 2 or more).
  • an average value of the light amount information in the target wavelength band is used as the detected light amount information.
  • the wavelength used for calculating the curvature information is not a specific wavelength but has a bandwidth, it is not necessary to increase the wavelength resolution of the photodetector 320. Therefore, the cost of the photodetector 320 can be reduced. Moreover, since only a local wavelength is not used, it becomes strong against noise.
  • the wavelength band used may include a part of another wavelength band.
  • the first wavelength band and the second wavelength band may overlap.
  • FIG. 21 is a block diagram illustrating an example of the configuration of the sensor driving unit 300 and the sensor unit 400.
  • the sensor driving unit 300 includes a light source 310 and a photodetector 320.
  • the sensor unit 400 includes a light guide member 420 provided with a group to be detected 410.
  • the light branching unit 330, the antireflection member 340, and the reflecting member 430 are not provided.
  • the light source 310 is optically connected to the proximal end of the light guide member 420.
  • the photodetector 320 is optically connected to the tip of the light guide member 420. Light emitted from the light source 310 is guided to the light guide member 420. The guided light is transmitted from the proximal end side to the distal end side within the light guide member 420 and reaches the photodetector 320.
  • the light branching portion, the antireflection member, and the reflecting member are not provided, the light loss due to these can be reduced, and thus the light amount of the light source can be reduced.
  • the photodetector 320 may be configured to be able to detect the respective detected light amount information D ⁇ 1 and D ⁇ 2 in a plurality of predetermined wavelengths ⁇ 1 and ⁇ 2 or wavelength bands d ⁇ 1 and d ⁇ 2 .
  • the wavelength characteristic of the light emission intensity of light introduced into the light guide member 420 is changed with time, and the amount of light at that time is detected.
  • FIG. 22 is a diagram showing an example of the relationship between the wavelength and the light emission intensity of the light source at different times t1 and t2.
  • the relationship at time t1 is indicated by a solid line
  • the relationship at time t2 is indicated by a broken line.
  • the light source 310 emits light having a peak at the wavelength ⁇ 1 at time t1, and emits light having a peak at the wavelength ⁇ 2 at time t2, using a filter or the like.
  • FIG. 23 is a diagram illustrating an example of the relationship between the wavelength of light incident on the photodetector and the detection sensitivity of the photodetector, corresponding to FIG.
  • the photodetector 320 has a light receiving element (a light receiving element that does not have a spectral function by a filter or the like) having detection sensitivity with respect to the intensity of light having peaks at wavelengths ⁇ 1 and ⁇ 2.
  • the detected light amount information (the detected light amount in each wavelength band) can be obtained by detecting the light amount from the light receiving element in synchronization with the times t1 and t2.
  • the light emission from the light source 310 may be repeated.
  • the times t1 and t2 may be times corresponding to mutually different phases of the sine wave of the time function. That is, the light source 310 may emit light having a peak at the wavelength ⁇ 1 and light having a peak at the wavelength ⁇ 2 at a constant period.
  • FIG. 24 is a block diagram illustrating an example of the bending information calculation unit 110a according to the second embodiment.
  • the curvature information calculation unit 110a includes a first calculation unit 212, a second calculation unit 214, and an evaluation value calculation unit 216 as an optimization calculation unit.
  • the evaluation value calculation unit 216 performs a calculation for optimizing the curvature information of the detected unit group 410 as described below.
  • the relationship between the wavelength of light and the absorption coefficient in the first light absorber and the second light absorber similar to those in the first embodiment is used, and further, in the third wavelength ⁇ 3.
  • the bending information of the detected portion group 410 is derived.
  • FIG. 25 is a diagram illustrating an example of the relationship between the wavelength of light and the absorption coefficient in the first light absorber and the second light absorber in the present embodiment.
  • the third wavelength ⁇ 3 has a different absorption coefficient from the first wavelength ⁇ 1 and the second wavelength ⁇ 2.
  • step S63 of the flow shown in FIG. 18 the evaluation value calculation unit 216 determines that the difference between the right side and the left side in the light amount information relationship is minimized in the calculation by the first calculation unit 212.
  • the curvature coefficient of the detection unit group 410 is optimized.
  • an evaluation value J consisting of the sum of the squares of the differences ⁇ n at each wavelength is obtained, and the curvature coefficient of the detection target group 410 is determined so that the evaluation value J is minimized.
  • the evaluation value J is given by the following formula (13).
  • Equation (14) gives the weighting coefficients w n, the contribution to the evaluation value J for each intensity modulation information may be adjusted.
  • weighting coefficients w n may increase the contribution of the intensity-modulated information light absorption amount of the light absorber of the detector group 410 is maximized.
  • step S64 of the flow shown in FIG. 18 the evaluation value calculation unit 216 sets the detected unit group 410 so that the difference between the right side and the left side of the curvature coefficient is minimized in the calculation by the second calculation unit 214.
  • Optimize curvature information The technique for optimizing the curvature information is the same as the technique for optimizing the curvature coefficient described above.
  • the evaluation value calculation unit 216 performs the optimization calculation, so that the bending information of the detected unit group 410 can be obtained more accurately. Further, it is possible to provide a bending information deriving device that has redundancy and is resistant to the influence of noise and the like.
  • the optimization operation can include a plurality of optimization operations having different convergence properties.
  • the first optimization operation is a global optimization operation with high accuracy
  • the second optimization operation is a local optimization operation with higher convergence than the first optimization operation.
  • the global optimization operation is, for example, a particle solution optimization (PSO), differential evolution (DE), genetic algorithm (GA), or simulated annealing method (SA) without falling into a local solution. It is a technique that can derive an optimal solution.
  • the local optimization calculation is a neighborhood search method for obtaining a local solution, such as the Newton method, the steepest descent method, or the simplex method.
  • the bending information deriving device can be configured so that the user can select which operation to perform or whether to perform these parallel operations. In this way, the user can select the accuracy and speed of the calculation himself. For example, if these parallel operations are used, an appropriate optimum solution can be calculated quickly.
  • FIG. 26 is a block diagram illustrating an example of the configuration of the sensor 500 including the sensor driving unit 300 and the sensor unit 400.
  • the light guide member 420 includes a first detected unit group 410 including a first detected unit 411 and a second detected unit 412, a third detected unit 451, and a first detected unit 451.
  • a second group of detected parts 450 including four detected parts 452 is provided.
  • the second detected portion group 450 is arranged at a position different from the first detected portion group 410 in the longitudinal direction of the light guide member 420.
  • the second detected portion group 450 is formed in the same manner as the first detected portion group 410.
  • the third detected portion 451 is provided with a third light absorber, and the fourth detected portion 452 is provided with a fourth light absorber.
  • the positional relationship between the third detected unit 451 and the fourth detected unit 452 is also the same as the positional relationship between the first detected unit 411 and the second detected unit 412.
  • FIG. 27 is a diagram showing an example of the relationship between the wavelength of light and the absorption coefficient in the first to fourth light absorbers. As shown in FIG. 27, the light absorbers provided in different detected portions 411, 412, 451, 452 have different light absorption coefficients for each wavelength, that is, have different light absorption characteristics.
  • the length L 1 including the first detected portion group 410 is curved at the angle ⁇ 1 and the curvature ⁇ 1 shown in FIG. 28A
  • the second detected portion group 450 is Consider a state in which the included length L 2 is curved at the angle ⁇ 2 and the curvature ⁇ 2 shown in FIG. 28B. As shown in FIGS.
  • the angles ⁇ 1 and ⁇ 1 are determined based on the local coordinate system (x 1 y 1 z 1 coordinate system and x 2 y 2 z 2 in each of the detected unit groups 410 and 450, respectively. Coordinate system). Therefore, the bending direction is, for example, the point (x 1 , y 1 , 0) obtained by projecting the point P ′ 11 (x 1 , y 1 , z 1 ) on the x 1 y 1 plane and the origin P 10 (0, 0). , 0) and an angle ⁇ 1 (FIG.
  • the detected light quantity information D ⁇ n detected by the light detector 320 is the reference light quantity information I ⁇ n and the change rate of the light quantity in the detected parts 411 and 412 of the first detected part group 410 as in the equation (2). It is expressed as follows using the product of F ⁇ n and G ⁇ n and the light quantity change rates M ⁇ n and N ⁇ n in the detected portions 451 and 452 of the second detected portion group 450.
  • the reference light quantity information I ⁇ n and the light of the wavelength ⁇ n detected by the photodetector 320 when both the first detected portion group 410 and the second detected portion group 450 are in the reference curved state.
  • I the amount of light.
  • F ⁇ n is a rate of change in the amount of light caused by light absorption only by the first detected part 411, and only the first detected part 411 of the first detected part group 410 is curved with respect to the reference curved state. This is the ratio between the light quantity for the light of wavelength ⁇ n detected by the photodetector 320 and the reference light quantity I ⁇ n .
  • G ⁇ n is a rate of change in the amount of light caused by light absorption only by the second detected portion 412, and only the second detected portion 412 of the first detected portion group 410 is curved with respect to the reference curved state. This is the ratio between the light quantity for the light of wavelength ⁇ n detected by the photodetector 320 and the reference light quantity I ⁇ n .
  • M ⁇ n is a rate of change in the amount of light caused by light absorption only by the third detected portion 451, and only the third detected portion 451 of the second detected portion group 450 is curved with respect to the reference curved state. This is the ratio between the light quantity for the light of wavelength ⁇ n detected by the photodetector 320 and the reference light quantity I ⁇ n .
  • N ⁇ n is the rate of change in the amount of light caused by light absorption only by the fourth detected portion 452, and only the fourth detected portion 452 of the second detected portion group 450 is curved with respect to the reference curved state. This is the ratio between the light quantity for the light of wavelength ⁇ n detected by the photodetector 320 and the reference light quantity I ⁇ n .
  • the functions ⁇ 1 ( ⁇ 1 , ⁇ 1 ) and ⁇ 1 ( ⁇ 1 , ⁇ 1 ) are respectively the first detected unit 411 and the second detected unit of the first detected unit group 410. 412, and the functions ⁇ 2 ( ⁇ 2 , ⁇ 2 ) and ⁇ 2 ( ⁇ 2 , ⁇ 2 ) are respectively the third detected unit 451 and the second detected unit 451 of the second detected unit group 450.
  • 2 is a curvature coefficient for the detected portion 452 of 2.
  • U Arufa1ramudaenu and U Beta1ramudaenu are respectively the intensity modulation information about the first detected part 411 and the second detected part 412 of the detection unit group 410, U ⁇ 2 ⁇ n and U Beta2ramudaenu, respectively, the detected portion
  • This is intensity modulation information for the third detected portion 451 and the fourth detected portion 452 of the group 450. From the equations (15), (16), (17), (18), and (19), the following equation (20) is obtained.
  • Equation (20) the left side represents detected light amount information in an arbitrary curved state, and the right side represents a calculated light amount value generated based on the reference light amount information, the bending coefficient, and the intensity modulation information.
  • the reference curved state for determining the reference light amount information I ⁇ n is, for example, when both the detected portion groups 410 and 450 are linear, that is, the detected portion groups 410 and 450 have a curvature of 0 and a radius of curvature.
  • the case of ⁇ is adopted. Note that the angles ⁇ 1 and ⁇ 2 of the detected unit groups 410 and 450 are set to 0 for convenience.
  • the reference light amount information I ⁇ n is given by the light amount D ⁇ n (0, 0, 0, 0) when the detected portion groups 410 and 450 are in the reference curved state. That is, the reference light amount information I ⁇ n is given by the following equation (22).
  • the curvature coefficients ⁇ 1 ( ⁇ 1 , ⁇ 1 ) and ⁇ 1 ( ⁇ 1 , ⁇ 1 ) are set to the first detected portion group 410 with the second detected portion group 450 set to the reference bending state. Is obtained by changing the angle ⁇ 1 and the curvature ⁇ 1 within a possible range. Further, the curvature coefficients ⁇ 2 ( ⁇ 2 , ⁇ 2 ) and ⁇ 2 ( ⁇ 2 , ⁇ 2 ) are set in the reference curved state with the first detected unit group 410 set to the reference curved state. It is obtained by changing the angle ⁇ 2 and the curvature ⁇ 2 within a possible range.
  • the wavelengths used for the calculations are the wavelengths ⁇ 1, ⁇ 2, ⁇ 3, and ⁇ 4 of the light that is absorbed by the detected portions 411, 412, 451, and 452, respectively.
  • the curvature coefficients ⁇ 1 ( ⁇ 1 , ⁇ 1 ) and ⁇ 1 ( ⁇ 1 , ⁇ 1 ) of the first detected unit 411 and the second detected unit 412 of the first detected unit group 410 are, for example, This is the same as FIG. 11 and FIG. Figure 29 is a third bending coefficient is obtained for the wavelength ⁇ 3 of the alpha 2 (theta 2, kappa 2), i.e.
  • curvature coefficient of the third detection target portion 451 of the second detected part group 450 alpha 2 ( It is a figure which shows an example of (theta) 2 , (kappa) 2 ).
  • Figure 30 is a fourth bending coefficient is obtained for the wavelength ⁇ 4 of beta 2 (theta 2, kappa 2), i.e. curvature coefficient of the fourth detected part 452 of the second detected part group 450 beta 2 ( It is a figure which shows an example of (theta) 2 , (kappa) 2 ).
  • the angle ⁇ 2 and the curvature ⁇ 2 can be derived by changing the amplitude and phase depending on the wavelength. 29 and 30 show curvature coefficients for two curvatures ⁇ c and ⁇ d , respectively.
  • the curvature coefficients ⁇ 1 ( ⁇ 1 , ⁇ 1 ), ⁇ 1 ( ⁇ 1 , ⁇ 1 ), ⁇ 2 ( ⁇ 2 , ⁇ 2 ), ⁇ 2 ( ⁇ 2 , ⁇ 2 ) are all expressed by periodic functions. For example, they can be approximately expressed by the sine functions of the following equations (23), (24), (25), and (26).
  • a ⁇ 1 ( ⁇ 1 ), a ⁇ 1 ( ⁇ 1 ), a ⁇ 2 ( ⁇ 2 ), a ⁇ 2 ( ⁇ 2 ) are amplitudes
  • b ⁇ 1 ( ⁇ 1 ), b ⁇ 1 ( ⁇ 1 ), b ⁇ 2 ( ⁇ 2 ) and b ⁇ 2 ( ⁇ 2 ) are phases
  • c ⁇ 1 ( ⁇ 1 ), c ⁇ 1 ( ⁇ 1 ), c ⁇ 2 ( ⁇ 2 ), and c ⁇ 2 ( ⁇ 2 ) are offsets.
  • angles ⁇ 1 and ⁇ 2 and the curvatures ⁇ 1 and ⁇ 2 in the first detected unit group 410 and the second detected unit group 450 are obtained as follows.
  • D ⁇ 4 , quaternary linear equations expressed by the following equation (27) are expressed as ⁇ 1 ( ⁇ 1 , ⁇ 1 ), ⁇ 1 ( ⁇ 1 , ⁇ 1 ), ⁇ 2 ( ⁇ 2 , ⁇ 2 ), ⁇ 2 ( ⁇ 2 , ⁇ 2 ) is solved.
  • Reference light quantity information I ⁇ 1 , I ⁇ 2 , I ⁇ 3 , I ⁇ 4 and intensity modulation information U ⁇ 1 ⁇ 1 , U ⁇ 1 ⁇ 2 , U ⁇ 1 ⁇ 3 , U ⁇ 1 ⁇ 4 , U ⁇ 1 ⁇ 1 , U ⁇ 1 ⁇ 2 , U ⁇ 1 ⁇ 3 , U ⁇ 1 ⁇ 4 , U ⁇ 2 ⁇ 3 , U ⁇ 2 ⁇ 2 , U ⁇ 2 ⁇ 2 , U ⁇ 2 ⁇ 4 , U ⁇ 2 ⁇ 1 , U ⁇ 2 ⁇ 2 , U ⁇ 2 ⁇ 3 , U ⁇ 2 ⁇ 4 are acquired in advance and stored in the storage unit 120. Accordingly, the first calculation unit 212 can calculate the light amount change information ⁇ 1 , ⁇ 1 , ⁇ 2 , ⁇ 2 in the detected units 411, 412, 451, 452, respectively.
  • the second calculation unit 214 the light amount change information ⁇ 1 and ⁇ 1 calculated by the first calculation unit 212 and the curvature coefficient ⁇ 1 ( ⁇ 1 , ⁇ 1 ) stored in the storage unit 120. , ⁇ 1 ( ⁇ 1 , ⁇ 1 ) and the following simultaneous equations expressed by the following equation (28) are solved for ⁇ 1 and ⁇ 1 .
  • the angle ⁇ 1 and the curvature ⁇ 1 in the detected portion group 410 that is, the curvature information
  • the angle ⁇ 2 and the curvature ⁇ 2 in the detected portion group 450 that is, the curvature information
  • the two detection target groups 410 and 450 are provided in the light guide member 420 at different positions in the longitudinal direction of the light guide member 420.
  • the detection target group 410 may be modified to a configuration provided in the light guide member 420.
  • the curvature coefficients ⁇ n ( ⁇ n , ⁇ n ) and ⁇ n ( ⁇ n , ⁇ n ) of the (2n-1) th detected part and the (2n) detected part of the nth detected part group are Obtained by setting the detected portion group other than the nth detected portion group in the reference curved state and changing the angle ⁇ n and the curvature ⁇ n of the nth detected portion group within a possible range. Is done.
  • the curvature information calculation is performed as follows. First, a 2 m-ary linear simultaneous equation expressed by the following equation (30) is solved for ⁇ n ( ⁇ n , ⁇ n ) and ⁇ n ( ⁇ n , ⁇ n ).
  • curvature information ( ⁇ n , ⁇ n ) of each detected unit group 410 is obtained.
  • FIG. 31A is a cross-sectional view in the radial direction of the light guide member 420 at a location where the detected portion 461 is provided.
  • FIG. 31B is a cross-sectional view including the optical axis of the light guide member 420 at a location where the detected portion 461 is provided.
  • the detected part 461 removes the jacket 421 and the clad 422 at a desired position in the longitudinal direction of the optical fiber to expose a part of the core 423, and the exposed part of the core 423 is holographically formed by a photopolymer.
  • a grating 426 which is an optical property changing member is formed. Note that the jacket 421 and the cladding 422 are removed by laser processing or by using a photo process, an etching process, or the like. At this time, if the core 423 is scratched microscopically, light is leaked and light to be guided is lost or weakened against bending. Therefore, the core 423 is not damaged as much as possible. It is desirable to process.
  • the detected portion 461 is formed so that the grating 426 is in contact with the core 423. Further, the grating 426 may be formed on a part of the clad 422 as shown in FIG.
  • the grating 426 causes a diffraction phenomenon when light propagates inside or is reflected by the surface, and propagates light having a specific wavelength that travels in a predetermined direction different from the incident direction to the grating 426.
  • the measurement light is indicated by a solid line arrow
  • light of a specific wavelength that is caused to travel in a predetermined direction by the grating 426 is indicated by a broken line arrow.
  • an endoscope has been described as an example of an apparatus to which the bending information deriving device is applied, and the endoscope system has been described.
  • an object in which the bending information deriving device is incorporated is not limited to the endoscope.
  • the present invention can be applied to a catheter to be inserted into a body to be inserted, a surgery support robot, and the like.
  • Detected part group 411, 412, ..., 41m, 451 452, 461 ... detected part, 420 ... light guide member, 421 ... jacket, 422 ... cladding, 423 ... core, 424,425 ... light absorber, 430 ... reflecting member, 440 ... sensor storage part, 500 ... sensor 810: Endoscope, 812 ... Insertion part, 814 ... Operation part, 816 ... Hard tip part, 817 ... Bending part, 818 ... Flexible tube part, 819 ... Flexible part, 820 ... Endoscope control part, 822 ... Image processing unit.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Optics & Photonics (AREA)
  • Robotics (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Endoscopes (AREA)

Abstract

湾曲情報導出装置(10)は、導光部材(420)に設けられた被検出部群(410)の曲げの向き及び曲げの大きさを表す湾曲情報を導出するものである。被検出部群は、導光部材の長さに沿った同じ位置に配置された複数の被検出部を有している。各被検出部は、導光部材によって導光される光の強度を曲げの向き及び曲げの大きさに応じて変調する。湾曲情報導出装置は、各被検出部に対応する波長の光の検出光量情報が入力される入力部(190)と、各被検出部の湾曲係数及び強度変調情報と、湾曲係数及び強度変調情報と検出光量情報との関係を表す光量情報関係とを記憶する記憶部(130)と、光量情報と強度変調情報とに基づいて被検出部ごとの光量変化情報を算出する第1の演算部(212)と、光量変化情報と湾曲係数とに基づいて被検出部群の湾曲情報を算出する第2の演算部(214)とを備えている。

Description

湾曲情報導出装置、湾曲情報導出装置を備えた内視鏡システム、湾曲情報導出方法及び湾曲情報導出のためのプログラム
 本発明は、可撓性を有する物体の湾曲状態を表す湾曲情報を導出する湾曲情報導出装置、湾曲情報導出装置を備えた内視鏡システム、湾曲情報導出方法及び湾曲情報導出のためのプログラムに関する。
 挿入装置(例えば、内視鏡)の可撓性の挿入部に組み込んで挿入部の湾曲状態を検出するための装置が知られている。例えば、特開2007-143600号公報には、光ファイバを用いた内視鏡形状検出プローブが開示されている。この検出プローブは、内視鏡の挿入部と一体的に曲がる光ファイバを有している。光ファイバには、その長手方向において略同一の位置に、例えばX方向及びY方向である2方向の曲率を検出するための2つの光変調部が設けられている。光変調部は、光ファイバを伝達する光の波長成分の強度等を変調する。このプローブでは、光変調部を通過する前後の波長成分の強度等に基づいて、光変調部における光ファイバの曲率、延いては光ファイバと一体的に曲がった挿入部の曲率が検出される。
 特開2007-143600号公報には、波長成分の強度等に基づいて2方向の曲率(曲げの大きさ)をどのように算出するのかが具体的に開示されていない。また、曲率と共に光ファイバの曲げの向きをどのように算出するのかも具体的に開示されていない。
 本発明の目的は、湾曲情報(曲げの向き及び曲げの大きさ)を導出する湾曲情報導出装置を提供することである。 
 本発明の他の目的は、湾曲情報(曲げの向き及び曲げの大きさ)を導出する湾曲情報導出装置を備えた内視鏡システムを提供することである。 
 本発明の他の目的は、湾曲情報(曲げの向き及び曲げの大きさ)を導出する湾曲情報導出方法を提供することである。 
 本発明の他の目的は、湾曲情報(曲げの向き及び曲げの大きさ)を導出する湾曲情報導出のためのプログラムを提供することである。
 本発明の一実施形態は、導光部材に設けられた被検出部群の曲げの向き及び曲げの大きさを表す湾曲情報を導出する湾曲情報導出装置である。前記被検出部群は、導光部材の長さに沿った同じ位置に配置された複数の被検出部を有している。各被検出部は、前記導光部材によって導光される光の強度を曲げの向き及び曲げの大きさに応じて変調する。前記湾曲情報導出装置は、各被検出部に対応する波長の光の検出光量情報が入力される入力部と、各被検出部の湾曲係数及び強度変調情報と、前記湾曲係数及び前記強度変調情報と前記検出光量情報との関係を表す光量情報関係とを記憶する記憶部と、前記検出光量情報と前記光量情報関係とに基づいて前記被検出部ごとの光量変化情報を算出する第1の演算部と、前記光量変化情報と前記湾曲係数とに基づいて前記被検出部群の前記湾曲情報を算出する第2の演算部とを備えている。
 また、本発明の他の実施形態は、上述の湾曲情報導出装置と、導光部材が挿入部に設けられた内視鏡と、前記湾曲情報に基づいて前記挿入部の湾曲情報を算出する内視鏡湾曲情報計算部とを備えている内視鏡システムである。
 また、本発明の他の実施形態は、導光部材に設けられた被検出部群の曲げの向き及び曲げの大きさを表す湾曲情報を導出する湾曲情報導出方法である。前記被検出部群は、導光部材の長さに沿った同じ位置に配置された複数の被検出部を有している。各被検出部は、前記導光部材によって導光される光の強度を曲げの向き及び曲げの大きさに応じて変調する。前記湾曲情報導出方法は、各被検出部に対応する波長の光の検出光量情報を取得することと、各被検出部の湾曲係数及び強度変調情報と、前記湾曲係数及び前記強度変調情報と前記検出光量情報との関係を表す光量情報関係とを取得することと、前記検出光量情報と前記光量情報関係とに基づいて前記被検出部ごとの光量変化情報を算出することと、前記光量変化情報と前記湾曲係数とに基づいて前記被検出部群の前記湾曲情報を算出することとを有している。
 また、本発明の他の実施形態は、導光部材に設けられた被検出部群の曲げの向き及び曲げの大きさを表す湾曲情報を導出する湾曲情報導出のためのプログラムである。前記被検出部群は、導光部材の長さに沿った同じ位置に配置された複数の被検出部を有している。各被検出部は、前記導光部材によって導光される光の強度を曲げの向き及び曲げの大きさに応じて変調する。前記プログラムは、各被検出部に対応する波長の光の検出光量情報を取得することと、各被検出部の湾曲係数及び強度変調情報と、前記湾曲係数及び前記強度変調情報と前記検出光量情報との関係を表す光量情報関係とを取得することと、前記検出光量情報と前記光量情報関係とに基づいて前記被検出部ごとの光量変化情報を算出することと、前記光量変化情報と前記湾曲係数とに基づいて前記被検出部群の前記湾曲情報を算出することとをコンピュータに実行させる。
 本発明によれば、湾曲情報を導出することができる湾曲情報導出装置、湾曲情報導出装置を備えた内視鏡システム、湾曲情報導出方法及び湾曲情報導出のためのプログラムが提供される。
図1は、第1の実施形態の湾曲情報導出装置を含む内視鏡システムの構成を概略的に示す図である。 図2は、可撓部の湾曲の状態を表す量について説明するための図である。 図3は、センサの構成の一例を示すブロック図である。 図4は、光源が射出する光の波長と強度との関係の一例を示す図である。 図5は、光検出器に入射する光の波長と光検出器の検出感度との関係の一例を示す図である。 図6は、導光部材の光軸を含む断面図である。 図7は、図6のA-A線に沿った導光部材の径方向の断面図である。 図8は、第1の光吸収体及び第2の光吸収体における光の波長と吸収係数との関係の一例を示す図である。 図9Aは、第1の被検出部が内側に湾曲した状態での光の伝達を概略的に示す図である。 図9Bは、第1の被検出部が直線状態での光の伝達を概略的に示す図である。 図9Cは、第1の被検出部が外側に湾曲した状態での光の伝達を概略的に示す図である。 図10は、波長と基準光量情報との関係の一例を示す図である。 図11は、第1の波長に対して取得された湾曲係数の一例を示す図である。 図12は、第2の波長に対して取得された湾曲係数の一例を示す図である。 図13は、被検出部群を含む長さLの可撓部が角度θ、曲率κで湾曲している状態を示す図である。 図14は、図13の湾曲状態における検出光量の一例を示す図である。 図15は、制御部における処理の流れを示すフローチャートである。 図16は、湾曲係数の取得の一例を示すフローチャートである。 図17は、基準光量情報の取得の一例を示すフローチャートである。 図18は、湾曲情報演算処理の一例を示すフローチャートである。 図19は、センサの構成の一例を示すブロック図である。 図20は、第1の光吸収体及び第2の光吸収体における光の波長と吸収係数との関係の一例を示す図である。 図21は、センサの構成の一例を示すブロック図である。 図22は、ある時刻における波長と光源の発光強度との関係の一例を示す図である。 図23は、図22に対応する、光検出器に入射する光の波長と光検出器の検出感度との関係の一例を示す図である。 図24は、第2の実施形態における湾曲情報演算部の一例を示すブロック図である。 図25は、第1の光吸収体及び第2の光吸収体における光の波長と吸収係数との関係の一例を示す図である。 図26は、第3の実施形態におけるセンサの構成の一例を示すブロック図である。 図27は、第1、第2、第3及び第4の光吸収体における光の波長と吸収係数との関係の一例を示す図である。 図28Aは、可撓部のうち、第1の被検出部群を含む長さLの領域が角度θ、曲率κで湾曲している状態を示す図である。 図28Bは、可撓部のうち、第2の被検出部群を含む長さLの領域が角度θ、曲率κで湾曲している状態を示す図である。 図29は、第2の被検出部群に関して、第1の波長に対して取得された湾曲係数の一例を示す図である。 図30は、第2の被検出部群に関して、第2の波長に対して取得された湾曲係数の一例を示す図である。 図31は、多数の被検出部群を備えた湾曲情報導出装置を含む内視鏡システムの構成を概略的に示す図である。 図32Aは、第1ないし第3の実施形態の被検出部に代替可能な別の被検出部を備えた導光部材の径方向の断面図である。 図32Bは、図31Aに示された導光部材の光軸を含む断面図である。 図33は、図32Aと図32Bに示された被検出部に代替可能な別の被検出部を備えた導光部材の光軸を含む断面図である。
 [第1の実施形態] 
 図1は、本発明の第1の実施形態の湾曲情報導出装置10(以下、導出装置10と称する)を含む内視鏡システム1の構成を概略的に示す図である。内視鏡システム1は、内視鏡810と、内視鏡制御部820と、導出装置10と、表示部180と、入力機器190とを有している。
 内視鏡810は、被挿入体に挿入される細長い挿入部812と、挿入部812の基端側に連結された操作部814とを有している。挿入部812は、先端硬質部816と、先端硬質部816の基端側に設けられた湾曲部817と、湾曲部817の基端側に設けられた可撓管部818とを有している。先端硬質部816には、不図示の照明光学系、観察光学系、撮像素子等が内蔵されている。湾曲部817は、操作部814を操作することにより所望の方向に湾曲される。可撓管部818は湾曲自在である。操作部814は、上述の湾曲操作を初めとする内視鏡810の各種操作のために用いられる。
 内視鏡制御部820は、内視鏡810の各種動作を制御する。また、内視鏡制御部820は、上述の観察光学系及び撮像素子により取得された画像を処理するための画像処理部822を有している。
 導出装置10は、挿入部812の、特に湾曲部817や可撓管部818(以下、これらを可撓部819と称する)の湾曲状態を表す湾曲情報を導出するための装置である。
 湾曲情報について、図2を参照して説明する。図2には、原点P(0,0,0)から点P(0,0,L)にわたって直線状に位置された長さLの可撓部819が実線で示されている。可撓部819が図2に想像線で示されるように湾曲し、点P(0,0,L)が点P’(x,y,z)まで変位したとする。ここで、可撓部819は、便宜上、円弧状に湾曲しているとする。このとき、可撓部819の湾曲状態を表すためには、曲げの向きと曲げの大きさとの2つの情報が必要である。曲げの向きは、例えば、点P’(x,y,z)をxy平面に投影した点(x,y,0)と原点P(0,0,0)とを通る直線とx軸とがなす角度θで表される。また、曲げの大きさは、例えば、曲率κ、曲率半径r=κ-1、中心角φ=L/r=κLなどで表される。このように、本明細書では、可撓部819の湾曲状態を表すために必要な曲げの向き及び曲げの大きさが湾曲情報と称される。
 導出装置10は、センサ駆動部300とセンサ部400とからなるセンサ500と、制御部100とを有している。これらの詳細は後述する。
 表示部180は、一般的な表示装置であり、例えば、液晶ディスプレイ、CRTディスプレイ又は有機ELディスプレイである。表示部180は、内視鏡制御部820に接続され、内視鏡制御部820で処理された画像を表示する。また、表示部180は、制御部100に接続され、導出装置10により得られた湾曲情報等を表示する。
 入力機器190は、一般的な入力用の機器であり、例えば、キーボード、マウス等のポインティングデバイス、タグリーダ、ボタンスイッチ、スライダ、ダイヤルである。入力機器190は、制御部100に接続される。入力機器190は、ユーザが導出装置10を動作させるための各種指令を入力するために用いられる。入力機器190は、記憶媒体であってもよい。この場合、記憶媒体に記憶された情報が制御部100に入力される。
 次に、導出装置10のセンサ500について説明する。図3は、センサ駆動部300及びセンサ部400からなるセンサ500の構成の一例を示すブロック図である。センサ駆動部300は、光源310と、光検出器320と、光分岐部330と、反射防止部材340とを有している。センサ部400は、複数の被検出部を含む被検出部群410が設けられた導光部材420と、反射部材430とを有している。
 光源310は、例えば、ランプ、LED、レーザダイオードなどの一般的に知られた発光部である。光源310は、さらに、波長を変換するための蛍光体などを有していてもよい。
 被検出部群410は、図3に示されるように、少なくとも、第1の被検出部411と、第2の被検出部412とを含み、さらに、第mの被検出部41mを含んでもよい。ここでmは任意の数である。被検出部411、412、・・・、41mは、導光部材420の長手方向(光軸方向)において略同一位置に設けられている。以下では、被検出部群410は、第1の被検出部411と第2の被検出部412とからなるとして説明を続ける。
 各被検出部411、412は、例えば、導光部材420によって導光される光の強度を低減する物質、例えば光吸収体で構成されてよい。別の例では、各被検出部411、412は、導光部材420によって導光される光を吸収して、導光される光とは異なる波長域の光を発する物質、例えば蛍光体で構成されてよい。
 図4は、光源310が射出する光の波長と強度との関係の一例を示す図である。光源310は、第1の波長λ1及び第2の波長λ2を含む発光波長領域の光を射出する。第1の波長λ1は、例えば、被検出部群410を構成する第1の被検出部411の光吸収体(以下、第1の光吸収体424と称する)が吸収するスペクトルの特徴的な波長である。ここで、特徴的な波長とは、例えば吸収が極大となる波長である(図8参照)。同様に、第2の波長λ2は、被検出部群410を構成する第2の被検出部412の光吸収体(以下、第2の光吸収体425と称する)が吸収するスペクトルの特徴的な波長である。
 光検出器320は、分光器やカラーフィルタのような分光のための素子と、フォトダイオードのような受光素子とを有している。光検出器320は、所定の波長領域の光の強度を検出し、検出光量情報を出力する。ここで、検出光量情報とは、所定の波長領域における特定の波長とその波長における光強度との関係を表す情報である。
 図5は、光検出器320に入射する光の波長と光検出器320の検出感度との関係の一例を示す図である。光検出器320は、上述の第1の波長λ1及び第2の波長λ2を含む波長領域内に検出感度を有している。光検出器320は、例えば波長λ1、λ2における検出した光強度を表す検出光量情報を制御部100に出力する。
 なお、光検出器は、分光特性を有する光検出器に限定されない。光源及び光検出器には、光源と光検出器との組み合わせにより複数の所定の波長領域ごとの光量を検出する態様が含まれる。例えば、光源及び光検出器には、光源から狭帯域光を時間で順番に射出し、広帯域光検出器で各波長領域の光量を検出する態様が含まれる。
 図3を再び参照すると、光分岐部330は、光源310及び光検出器320に光学的に接続されている。光分岐部330は、光カプラやハーフミラー等を有している。光分岐部330は、光源310から射出された光を導光部材420に導き、また、導光部材420によって導かれた光を光検出器320に導く。
 反射防止部材340は、光分岐部330に光学的に接続されている。反射防止部材340は、光源310から射出された光のうち導光部材420に入射しなかった光が光検出器320に戻るのを防ぐ。
 導光部材420は、例えば光ファイバであり、可撓性を有する。導光部材420の基端は、光分岐部330に接続されている。導光部材420は、図1に概略的に示されるように、挿入部812内にその長手方向に沿って組み込まれている。導光部材420には、挿入部812のうち湾曲情報を算出したい箇所に、例えば可撓部819に被検出部群410が配置されている。
 図6は、導光部材420の光軸を含む断面図である。図7は、図6のA-A線に沿った導光部材420の径方向の断面図である。導光部材420は、コア423と、コア423を囲んでいるクラッド422と、クラッド422を囲んでいるジャケット421とを有している。
 第1の被検出部411は、ジャケット421及びクラッド422の一部を除去しコア423を露出させて、露出したコア423上に第1の光吸収体424を設けることにより形成されている。第2の被検出部412は、導光部材420の長手方向において第1の被検出部411と略同一の位置で、かつ、例えば、導光部材420の径方向の断面において第1の被検出部411と略直交する位置に、第1の被検出部411と同様のやり方で第2の光吸収体425を設けることにより形成されている。なお、光吸収体に限定されることなく、導光される光のスペクトルに対して影響を与える光学部材が用いられることができ、光学部材は、例えば波長変換部材(蛍光体)であってもよい。
 図8は、第1の光吸収体424及び第2の光吸収体425における光の波長と吸収係数との関係の一例を示す図である。図8に示されるように、異なる被検出部411、412に設けられた光吸収体424、425は、吸収係数が波長に依存して変化し、すなわち互いに異なる吸光特性を有している。
 被検出部411、412の湾曲状態と導光部材420を導光する光の伝達量との関係について説明する。図9A乃至図9Cは、導光部材420の第1の被検出部411付近を導光する光を概略的に示す図である。これら図では、第2の被検出部412は図示していない。導光部材420が直線状態の場合には、図9Bに示されるように、導光部材420を導光する光の一部が光吸収体424に吸収される。これに対して、光吸収体424が内側にくるように導光部材420が湾曲した場合には、光吸収体424に当たる光が減少するため、光吸収体424による光の吸収量が小さくなる(図9A)。従って、導光部材420を導光する光の伝達量が増加する。一方、被検出部群410が外側にくるように導光部材420が湾曲した場合には、光吸収体424に当たる光が増加するため、光吸収体424による光の吸収量が大きくなる(図9C)。従って、導光部材420を導光する光の伝達量が減少する。
 このように、第1の被検出部411の湾曲状態に応じて、導光部材420を導光する光の量が変化する。第2の被検出部412に関しても同様である。
 図3を再び参照すると、導光部材420の光分岐部330に接続されていない側の端部、すなわち先端には、反射部材430が設けられている。反射部材430は、光分岐部330から導光部材420によって導かれた光を、光分岐部330の方向に戻るように反射させる。
 次に、導出装置10の制御部100について、図1を再び参照して説明する。制御部100は、例えばパーソナルコンピュータ等の電子計算機によって構成されることができる。制御部100は、演算部101と、内視鏡湾曲情報計算部140と、光検出器駆動部150と、出力部160とを有している。
 演算部101は、例えばCPUやASICなどを含む機器等によって構成されている。演算部101は、入力部130と、記憶部120と、湾曲情報演算部110とを有している。
 入力部130には、センサ駆動部300の光検出器320から検出光量情報が入力される。入力部130は、入力された検出光量情報を湾曲情報演算部110に伝達する。また、入力部130には、被検出部群410の後述する湾曲係数が入力される。さらに、入力部130には、内視鏡制御部820から出力された情報も入力される。入力部130は、これら入力された情報を湾曲情報演算部110又は光検出器駆動部150に伝達する。
 記憶部120は、湾曲情報演算部110が行う演算に必要な各種情報を記憶している。記憶部120は、例えば計算アルゴリズムを含むプログラム、被検出部群410の湾曲係数、光量情報関係、基準光量情報、強度変調情報等を記憶している。
 湾曲情報演算部110は、入力部130を介して取得した検出光量情報と、記憶部120に記憶されている後述する光量情報関係、基準光量情報、強度変調情報及び湾曲係数とに基づいて、被検出部群410の湾曲情報を算出する。湾曲情報演算部110は、第1の演算部212と第2の演算部214を有している。第1の演算部212は、入力部130を介して取得した検出光量情報と、記憶部120に記憶されている光量情報関係、基準光量情報及び強度変調情報とに基づいて被検出部411、412ごとの光量変化情報を算出する。第2の演算部214は、第1の演算部212によって算出された光量変化情報と、記憶部120に記憶されている湾曲係数とに基づいて、被検出部群410における湾曲情報を算出する。湾曲情報演算部110は、算出した湾曲情報を内視鏡湾曲情報計算部140及び出力部160に伝達する。また、湾曲情報演算部110は、光検出器320のゲイン等、湾曲情報の算出に必要な光検出器320の動作に関する情報を光検出器駆動部150に出力する。
 内視鏡湾曲情報計算部140は、例えばCPUやASICなどを含む。内視鏡湾曲情報計算部140は、湾曲情報演算部110で算出された被検出部群410の湾曲情報に基づいて、被検出部群410が配置されている挿入部812の湾曲情報を算出する。算出された湾曲情報は、出力部160に伝達される。なお、内視鏡湾曲情報計算部140は、湾曲情報演算部110に組み込まれていてもよい。
 光検出器駆動部150は、入力部130や湾曲情報演算部110から取得した情報に基づいて、光検出器320の駆動信号を生成する。この駆動信号により、光検出器駆動部150は、例えば、入力部130を介して取得したユーザの指示に基づいて、光検出器320の動作のオン/オフを切り替えたり、湾曲情報演算部110から取得した情報に基づいて、光検出器320のゲインを調整したりする。また、光検出器駆動部150は、光源310の動作も制御するように構成されていてもよい。光検出器駆動部150は、生成した駆動信号を出力部160に伝達する。
 出力部160は、湾曲情報演算部110から取得した被検出部群410の湾曲情報や内視鏡湾曲情報計算部140から取得した挿入部812の湾曲情報を表示部180に出力する。また、出力部160は、取得したこれら湾曲情報を内視鏡制御部820に出力する。また、出力部160は、光検出器駆動部150からの駆動信号を光検出器320に出力する。
 本実施形態の内視鏡システム1及び導出装置10の動作について説明する。 
 内視鏡810の挿入部812は、ユーザによって被挿入体内に挿入される。このとき、挿入部812は、被挿入体の形状に追従して湾曲する。内視鏡810は、挿入部812内の観察光学系及び撮像素子により画像信号を得る。得られた画像信号は、内視鏡制御部820の画像処理部822に伝達される。画像処理部822は、取得した画像信号に基づいて、被挿入体の内部の画像を作成する。画像処理部822は、作成した画像を表示部180に表示させる。
 ユーザが挿入部812の湾曲情報を表示部180に表示させたいとき、あるいは内視鏡制御部820に挿入部812の湾曲情報を用いた各種動作を行わせたいときには、ユーザはその旨を入力機器190により制御部100に入力する。このとき、導出装置10が動作する。
 導出装置10が動作すると、センサ駆動部300の光源310は、所定の発光波長領域の光を射出する。光源310から射出された光は、光分岐部330を介してセンサ部400の導光部材420へと導かれる。導かれた光は、導光部材420内を基端側から先端側へと伝達される。その際、導光部材420に設けられた被検出部群410の湾曲状態に応じて導光部材420中の光量が変化し、伝達される光量が波長毎に変化する。そして、この光は、反射部材430で反射して折り返し、導光部材420内を先端側から基端側へと伝達される。この反射光は、光分岐部330を介して光検出器320に到達する。光検出器320は、到達した光の強度を波長毎に検出する。
 光検出器320は、波長及び検出した光の強度についての検出光量情報を制御部100の入力部130に出力する。入力された検出光量情報は入力部130から湾曲情報演算部110で取得されて、湾曲情報演算部110が被検出部群410の湾曲情報を算出する。
 算出された被検出部群410の湾曲情報は、内視鏡湾曲情報計算部140で取得される。内視鏡湾曲情報計算部140は、取得した湾曲情報に基づいて、挿入部812の湾曲情報を算出する。
 湾曲情報演算部110で算出された被検出部群410の湾曲情報や内視鏡湾曲情報計算部140で算出された挿入部812の湾曲情報は、出力部160を介して内視鏡制御部820で取得される。内視鏡制御部820は、取得したこれら湾曲情報に基づいて内視鏡810の動作を制御する。また、これら湾曲情報は、出力部160を介して表示部180に表示される。
 さらに、入力部130に入力された情報及び湾曲情報演算部110で算出された被検出部群410の湾曲情報が、光検出器駆動部150で取得される。光検出器駆動部150は、取得した情報に基づいて、出力部160を介して光検出器320に駆動信号を伝達し、光検出器320の動作を制御する。
 このように、導出装置10によれば、演算部101により被検出部群410の湾曲情報が取得される。さらに、取得された湾曲情報に基づいて内視鏡湾曲情報計算部140が挿入部812の湾曲情報を算出する。これにより、内視鏡810の操作中にユーザが被検出部群410や挿入部812の湾曲情報を把握することができる。また、内視鏡制御部820が、これら湾曲情報に応じて内視鏡810の動作を適切に制御することができる。
 本実施形態の導出装置10において演算部101で行われる演算について詳述する。 
 まず、導出装置10の使用の前に予め準備される情報について説明する。光検出器320により検出される波長λnの光についての検出光量情報Dλnは、以下の式(1)で与えられる。
Figure JPOXMLDOC01-appb-M000001
 ここで、Eλnは光源310から射出される波長λnの光についての射出光量であり、Aλnは第1の光吸収体424における波長λnの光の吸収率であり、Bλnは第2の光吸収体425における波長λnの光の吸収率であり、Cλnは光分岐部330、導光部材420、反射部材430等、センサ駆動部300及びセンサ部400において光が伝達する光路に含まれる被検出部群410以外の部材による波長λnの光の吸収率である。
 射出光量Eλnと吸収率Cλnは、被検出部群410の曲げの向きや曲げの大きさに依存しない。従って、検出光量情報Dλnを表す式(1)は、式(2)のように書き換えられる。
Figure JPOXMLDOC01-appb-M000002
 ここで、Iλnは、基準光量情報であり、被検出部群410(各被検出部411、412)が、基準となる所定の形状(以下、基準湾曲状態と称する)であるときに、光検出器320によって検出される波長λnの光についての光量である。また、Fλnは、第1の被検出部411のみによる光の吸収によって生じる光量の変化率であり、第2の被検出部412が基準湾曲状態にあるときの波長λnの光についての光量と基準光量情報Iλnとの比である。Gλnは、第2の被検出部412のみによる光の吸収によって生じる光量の変化率であり、第1の被検出部411が基準湾曲状態にあるときの波長λnの光についての光量と基準光量情報Iλnとの比である。
 被検出部群410の各被検出部411、412の各光吸収体424、425における光の吸収係数は、被検出部群410の曲げの向き、例えば上述の角度θと、曲げの大きさ、例えば曲率κとに応じて変化する。従って、被検出部群410の第1の被検出部411と第2の被検出部412における変化率FλnとGλnは、それぞれ、以下の式(3)と式(4)で与えられる。
Figure JPOXMLDOC01-appb-M000003
Figure JPOXMLDOC01-appb-M000004
 ここで、関数α(θ,κ)及びβ(θ,κ)は、それぞれ、被検出部群410の第1の被検出部411及び第2の被検出部412についての湾曲係数である。Uαλn及びUβλnは、それぞれ、被検出部群410の第1の被検出部411及び第2の被検出部412についての強度変調情報である。式(2)、式(3)、式(4)より、以下の式(5)が得られる。
Figure JPOXMLDOC01-appb-M000005
 式(5)において、左辺は任意の湾曲状態における検出光量情報を表し、右辺は基準光量情報と湾曲係数と強度変調情報とに基づいて生成される算出光量値を表す。式(5)の両辺の自然対数を取ることにより、以下の式(6)で表わされる光量情報関係が得られる。
Figure JPOXMLDOC01-appb-M000006
 対数を取ることにより、式(5)の右辺が加算で表現される。これにより、式(5)よりも式(6)の方が、計算が容易になる。
 基準光量情報Iλnを決定するための基準湾曲状態には、例えば、被検出部群410が直線形状である場合、すなわち被検出部411、412の曲率が0であり曲率半径が∞である場合が採用される。しかしながら、基準湾曲状態はこれに限定されず、直線形状以外の形状であってもよい。以下、基準湾曲状態として被検出部群410が直線形状であるものを採用した場合について説明する。なお、直線形状での被検出部群410の上記の角度θは便宜上0とする。
 図10は、波長と基準光量情報との関係の一例を示す図である。基準光量情報Iλnは、被検出部群410が基準湾曲状態であるとき、すなわちθ=0、κ=0のときの光量Dλn(0,0)で与えられる。つまり、基準光量情報Iλnは、以下の式(7)で与えられる。
Figure JPOXMLDOC01-appb-M000007
 湾曲係数α(θ,κ)、β(θ,κ)は、被検出部群410の上述の角度θと曲率κを取り得る範囲で変化させることにより取得される。演算に使用される波長λnは、被検出部411、412においてそれぞれ吸収される光の波長λ1、λ2である。図11は、第1の波長λ1に対して取得された湾曲係数α(θ,κ)、すなわち第1の被検出部411の湾曲係数α(θ,κ)の一例を示す図である。図12は、第2の波長λ2に対して取得された湾曲係数β(θ,κ)、すなわち第2の被検出部412の湾曲係数β(θ,κ)の一例を示す図である。このように、曲率によって振幅や位相が異なることにより、角度θと曲率κとの導出が可能である。図11と図12には、それぞれ、2つの曲率κ、κ(κ>κ)に対する湾曲係数が示されている。しかしながら、取得される湾曲係数は、これらに限定されるものではなく、さまざまな曲率κに対して、角度θと被検出部群410における湾曲係数との関係が取得される。
 湾曲係数α(θ,κ)、β(θ,κ)は、いずれも周期関数で表すことができ、例えば、それぞれ、以下の式(8)、式(9)の正弦関数で近似的に表されることができる。
Figure JPOXMLDOC01-appb-M000008
Figure JPOXMLDOC01-appb-M000009
 ここで、aα(κ)、aβ(κ)は振幅であり、bα(κ)、bβ(κ)は位相であり、cα(κ)、cβ(κ)はオフセットである。
 なお、周期関数は1次の正弦波で表されるものに限定されず、例えば、関数α(θ,κ)、β(θ,κ)として高次の正弦波を組み合わせたフーリエ級数を用いれば精度がよい。
 湾曲係数や基準光量情報は、例えば、内視鏡システム1の製造時や内視鏡システム1の組立て時等に予め取得され、記憶部120に予め記憶される。あるいは、湾曲係数や基準光量情報は、使用の度に取得されてもよい。
 次に、導出装置10の使用時に演算部101で行われる演算について説明する。被検出部群410を含む長さLの可撓部819が、図13に示される角度θ、曲率κで湾曲している状態を考える。図14は、この湾曲状態における波長と検出光量との関係の一例を示す図である。
 本実施形態では、次のようにして、被検出部群410における角度θと曲率κを求める。
 まず、第1の演算部212において、光検出器320により検出された第1の波長λ1及び第2の波長λ2における検出光量情報Dλ1及びDλ2に基づいて、光量情報関係に従って得られる以下の式(10)で表される二元一次連立方程式をα(θ,κ)とβ(θ,κ)について解く。
Figure JPOXMLDOC01-appb-M000010
 基準光量情報Iλ1、Iλ2と強度変調情報Uαλ1、Uβλ1、Uαλ2、Uβλ2は、上述したように予め取得され記憶部120に記憶されている。従って、第1の演算部212において、検出光量情報Dλ1、Dλ2と基準光量情報Iλ1、Iλ2と強度変調情報Uαλ1、Uβλ1、Uαλ2、Uβλ2とに基づいて、被検出部群410の第1の被検出部411及び第2の被検出部412における光量変化情報α及びβを算出することができる。
 次に、第2の演算部214において、第1の演算部212で算出された光量変化情報α及びβと、記憶部120に記憶されている湾曲係数α(θ,κ),β(θ,κ)に従って得られる以下の式(11)で表される二元連立方程式をθとκについて解く。
Figure JPOXMLDOC01-appb-M000011
 このようにして、被検出部群410の湾曲情報、すなわち被検出部群410における角度θ及び曲率κ、言い換えれば被検出部群410の曲げの向き及び曲げの大きさを求めることができる。なお、光量情報関係は、上述のような関数の形式で表されたものに限定されず、波長と光量との関係を保存した表(ルックアップテーブル)で表されたものであってもよい。
 また、被検出部群の曲げの大きさを表すパラメータを曲率とし、湾曲係数を用いた湾曲情報導出演算について説明してきたが、曲げの大きさを表すパラメータとして曲率半径などの他のパラメータ、及びそれに対応する湾曲係数を用いた湾曲情報導出演算を採用することができる。
 図15は、制御部100における処理の流れを示すフローチャートである。ステップS1において、制御部100は、記憶部120に記憶されている強度変調情報を読み込む。
 強度変調情報の記憶部120へ格納は、例えば、工場出荷時におこなわれる。あるいは、強度変調情報は、可搬性の記憶媒体に保存されていて、入力機器190から読み込まれてもよい。
 強度変調情報は、例えば、次のようにして取得される。ただ1つの被検出部が形成された導光部材を有するセンサの被検出部に、強度変調情報を取得したい光吸収体を配置する。導光部材を基準湾曲状態に設定しておいて基準光量情報を得る。被検出部を任意の形状に湾曲させて検出光量情報を得る。任意形状における検出光量情報を基準光量情報で除算し、その自然対数をとる。
 ステップS2において、制御部100は、湾曲係数が記憶部120に記憶されているかどうかを判定する。記憶されていないと判定された場合(NO)、ステップS3に進み、制御部100が湾曲係数を取得する。
 図16は、湾曲係数の取得の一例を示すフローチャートである。ステップS31において、制御部100が基準光量情報Iλを取得する。
 図17は、基準光量情報の取得の一例を示すフローチャートである。ステップS311において、制御部100が、被検出部群410を基準湾曲状態に(本実施形態では直線形状に)設定する。なお、被検出部群410を手動で基準湾曲状態に設定する場合には、ステップS311において、制御部100が、被検出部群410が基準湾曲状態になっているかを確認する。ステップS312において、制御部100が基準湾曲状態での基準光量情報Iλを取得する(式(7))。ステップS313において、取得した基準光量情報Iλが記憶部120に記憶される。そして、基準光量情報Iλの取得が終了し、ステップS32に進む。
 図16を再び参照して、ステップS32において、被検出部群410が配置されている導光部材420の部分を既知の曲げ向きと曲率で湾曲させて検出光量情報を取得する。検出光量情報は、例えば、曲げの大きさを曲率κ、κに調節しておき、曲げの向きを手動で変化させることによって、または、不図示の曲げ設定機構で機械的に変化させることによって取得することができる。あるいは、既知の曲げ向きと曲率で湾曲させる際に校正器を使用してもよい。
 ステップS33において、光量情報関係を用いて、各被検出部の光量変化情報成分に分解し、各被検出部の湾曲係数α(θ,κ)、β(θ,κ)を求める。湾曲状態(曲げの向きと曲率)が既知であるので、図11、図12に示されるグラフをプロットでき、各被検出部の湾曲係数の近似式を得ることができる。
 ステップS34において、得られた各被検出部の湾曲係数が記憶部120に記憶される。これにて湾曲係数の取得が終了する。
 図15を再び参照して、ステップS3における湾曲係数の取得後、あるいは、ステップS2において湾曲係数が記憶部120に記憶されていると判定された場合(YES)、ステップS4に進む。なお、ステップS2においてYESと判定される場合とは、例えば、湾曲係数の取得が内視鏡システム1の工場出荷時や組立て時に行われている場合である。
 ステップS4において、制御部100は、基準光量情報の再取得の要求があるかどうかを判定する。要求があると判定された場合(YES)、ステップS5に進む。そして、ステップS5において、制御部100は、上述した基準光量情報の取得のサブルーチン(ステップS311~S313)により基準光量情報を取得する。なお、このような再取得の要求があるのは、例えば、上述の制御部100とは異なる他の制御部との接続を行った場合や、センサ駆動部300とセンサ部400との分離及び再接続が行われた場合である。
 ステップS5における基準光量情報Iλの取得後、あるいは、ステップS4において要求がないと判定された場合(NO)、ステップS6に進み、制御部100の演算部101が被検出部群410の湾曲情報演算を行う。
 図18は、湾曲情報演算処理の一例を示すフローチャートである。ステップS61において、湾曲情報演算部110が記憶部120から光量情報関係と基準光量情報Iλと強度変調情報Uαλ1,Uβλ1,Uαλ2,Uβλ2と湾曲係数α(θ,κ),β(θ,κ)を読み出す。ステップS62において、湾曲情報演算部110が、入力部130を介して光検出器320により、任意の湾曲状態における波長λ1,λ2の光の検出光量情報Dλ1,Dλ2を取得する。
 ステップS63において、第1の演算部212が、検出光量情報Dλ1,Dλ2と光量情報関係と基準光量情報Iλと強度変調情報Uαλ1,Uβλ1,Uαλ2,Uβλ2から、光量変化情報α,βを求める。具体的には、Dλ1(θ,κ)=Dλ1,Dλ2(θ,κ)=Dλ2のもとで、式(10)で表された二元一次連立方程式を解いて、α(θ,κ),β(θ,κ)の値を求める。このようにして求められたα(θ,κ),β(θ,κ)の値が、それぞれ、被検出部411,412における光量変化情報α,βである。この二元一次連立方程式は、行列演算で解くことができるので、計算負荷が軽い。
 ステップS64において、第2の演算部214が、第1の演算部212によって求められた光量変化情報α,βと、式(8)と式(9)で表された湾曲係数α(θ,κ),β(θ,κ)の近似式から、被検出部群410における角度θ及び曲率κ、すなわち被検出部群410の曲げの向き及び曲率を求める。具体的には、α(θ,κ)=α,β(θ,κ)=βのもとで、式(11)で表された二元連立方程式を解いて、θ,κの値を求める。
 ステップS65において、湾曲情報演算部110が、求めた角度θと曲率κを出力部160に伝達する。これにて湾曲情報演算が終了する。
 図15を再び参照して、ステップS6における湾曲情報演算処理後、ステップS7に進む。ステップS7において、制御部100は、湾曲情報の演算を行うかどうかを判定する。行うと判定された場合(YES)、ステップS2に戻り、ステップS2以降の処理が繰り返される。行わないと判定された場合(NO)、終了する。
 なお、湾曲係数は被検出部群410の光吸収体424、425の吸光特性のみに依存し、光源310や光検出器320の特性に依存しない。従って、センサ駆動部300の各構成部を分離し、例えば、所定の発光波長領域の光を射出する光源や、制御部100が必要とする全波長にわたって検出感度を有する光検出器を用いてもよい。すなわち、他の光源や光検出器による湾曲係数の取得が可能であり、また、他のセンサ駆動部との付け替えが可能である。
 本実施形態によれば、センサ部400を構成する導光部材420には、その長手方向において略同一位置に形成された複数の被検出部を含む被検出部群410が設けられている。被検出部群410の湾曲情報を導出するために、被検出部の個数以上の波長が用いられる。被検出部群410におけるこれら波長毎の検出光量情報は、センサ駆動部300の光検出器320により検出される。湾曲情報演算部110は、まず、第1の演算部212において、検出光量情報と、記憶部120に予め記憶された光量情報関係とに基づいて光量変化情報を算出し、続いて、第2の演算部214において、算出された光量変化情報と、記憶部120に予め記憶された湾曲係数とに基づいて、被検出部群410ひいては挿入部812の湾曲情報を導出する。このように、本実施形態によれば、湾曲情報を導出することができる湾曲情報導出装置を提供することができる。
 また、本実施形態によれば、湾曲情報を求めるために被検出部群410における光の湾曲係数を用いている。従って、センサ駆動部300の光源310のスペクトルや光検出器320の分光感度に依存することなく湾曲情報演算を行うことができる。
 また、本実施形態によれば、光源310と、導光部材420に設けられた被検出部群410との間の距離の情報は、湾曲情報演算に必要とされない。従って、光源310と被検出部群410との位置関係を考慮することなく、湾曲情報演算を行うことができる。
 さらに、本実施形態によれば、センサ駆動部300の光分岐部330やセンサ部400の反射部材430による光の吸収や損失は、被検出部群410の曲げの大きさに依存せず一定である。従って、基準光量情報を求める際にも、これらの損失を含んだ状態である。このため、光分岐部330や反射部材430の影響を別途考慮することなく計算をすることができる。
 第1の実施形態は、以下のような態様であってもよい。
 (第1の態様) 
 ステップS4で判断される基準光量情報の再取得の要求は、例えばセンサ駆動部300の光分岐部330とセンサ部400の導光部材420との分離、再接続が行われた場合に発生する。制御部100は、このような場合に接続が維持されているか、すなわち分離、再接続が行われたかどうかを判断するように構成されていてもよい。
 (第2の態様) 
 図19は、センサ500の構成の一例を示すブロック図である。この態様では、センサ部400は、センサ記憶部440を有している。センサ記憶部440には、センサ識別情報や湾曲係数が、例えば工場出荷時や機器の組立て時に予め記憶されている。センサ識別情報、いわゆるID情報は、センサ部400の種別や個体を識別するための情報であり、ユニーク(一意)であることが好ましい。また、湾曲係数の取得においても、図17のステップS53で湾曲係数をセンサ記憶部440に記憶させる。これにより、センサ部400をセンサ駆動部300とは異なる他のセンサ駆動部に接続した場合であっても、センサ記憶部440からセンサ識別情報や湾曲係数を読み出すことができる。
 また、他の制御部との接続を行った場合(記憶部120に湾曲係数が存在しない場合)に図16のステップS3において湾曲係数の取得を行う代わりに、センサ記憶部440から湾曲係数を読み出す。これにより、センサ駆動部300を他の制御部に接続した場合であっても、湾曲係数を改めて取得する必要がない。
 複数のセンサ部を使用する環境においては、図15に示されるフローの開始直後のステップS2の前に、制御部100が、接続されているセンサ部400のセンサ識別情報を確認するステップを設けてもよい。なお、この場合、湾曲係数とセンサ識別情報とが関連付けられており、かつ、湾曲係数(複数のセンサ部の各々の湾曲係数)が記憶部120に記憶されていることが前提となる。
 センサ識別情報を確認するステップでは、例えば、入力機器190によって入力部130からセンサ識別情報が入力される。センサ識別情報は、センサ部400に刻印されたり貼付されたりしていてもよいし、タグに記憶されていてもよい。タグは、RF-IDのような非接触タグであることが好ましい。あるいは、上述のようなセンサ記憶部440に記憶させてこれから読み出したり、他の記憶媒体に保存されている情報を読み出したりしてもよい。また、上述の前提を満たさない、記憶部120に記憶されていないセンサ識別情報の場合には、図15のフローに従って処理を行ってもよい。
 第2の態様によれば、センサ識別情報から湾曲係数を抽出することができるため、他のセンサ部との接続を行った場合であってもセンサ識別情報から湾曲係数を抽出することができる。従って、湾曲係数を改めて取得する必要がない。
 (第3の態様) 
 図20は、第1の光吸収体及び第2の光吸収体における光の波長と吸収係数との関係の一例を示す図である。湾曲情報の算出のために使用される波長は、特定の波長λ1、λ2に限定されず、図20に示されるような帯域幅をそれぞれ有する第1の波長帯域dλ1及び第2の波長帯域dλ2であってもよい。例えば、第1の被検出部411及び第2の被検出部412は、相互吸収する波長範囲(すなわち、第1の光吸収体も第2の光吸収体もその波長範囲において吸収係数を有する)で、かつ、吸収波長特性が互いに異なる(すなわち、第1の光吸収体と第2の光吸収体との吸収係数が互いに異なる)波長範囲である波長帯域(特徴的吸収帯)を、被検出部の個数以上(すなわち、2以上)有している。
 この場合、検出光量情報には、例えば、対象の波長帯域における光量情報の平均値が用いられる。
 第3の態様によれば、湾曲情報の算出のために使用される波長が特定の一波長でなく帯域幅を有するため、光検出器320の波長分解能を高くする必要がない。従って、光検出器320の低コスト化を図ることができる。また、局所的な波長のみを使用しないため、ノイズに対して強くなる。
 また、使用される波長帯域は、他の波長帯域の一部を含んでいてもよい。例えば、第1の波長帯域と第2の波長帯域とがオーバーラップしていてもよい。
 (第4の態様) 
 図21は、センサ駆動部300及びセンサ部400の構成の一例を示すブロック図である。センサ駆動部300は、光源310と、光検出器320とを有している。また、センサ部400は、被検出部群410が設けられた導光部材420を有している。上述の光分岐部330、反射防止部材340及び反射部材430は設けられていない。光源310は、導光部材420の基端に光学的に接続されている。また、光検出器320は、導光部材420の先端に光学的に接続されている。光源310から射出された光は、導光部材420へと導かれる。導かれた光は、導光部材420内を基端側から先端側へと伝達されて、光検出器320に到達する。
 光分岐部、反射防止部材及び反射部材が設けられていない態様では、これらに起因する光の損失を少なくすることができるため、光源の光量を小さくすることができる。
 (第5の態様) 
 光検出器320は、複数の所定の波長λ1及びλ2または波長帯域dλ1及びdλ2におけるそれぞれの検出光量情報Dλ1及びDλ2を検出可能な構成であればよい。例えば、導光部材420に導入する光の発光強度の波長特性を時刻で変化させ、その時刻における光量を検出する。
 図22は、互いに異なる時刻t1及びt2における波長と光源の発光強度との関係の一例を示す図である。図22において、時刻t1における関係が実線で示され、時刻t2における関係が破線で示される。光源310は、フィルタ等により、時刻t1において波長λ1にピークを有する光を射出し、時刻t2において波長λ2にピークを有する光を射出する。また、図23は、図22に対応する、光検出器に入射する光の波長と光検出器の検出感度との関係の一例を示す図である。光検出器320は、波長λ1、λ2にピークを有する光の強度に対して検出感度を有する受光素子(フィルタ等による分光機能を有していない受光素子)を有している。
 第5の態様によれば、時刻t1及びt2に同期して受光素子からの光量を検出することにより、検出光量情報(各波長帯域の検出光量)を得ることができる。
 光源310の発光は、繰り返しおこなわれてよい。例えば、時刻t1及びt2は、時間関数の正弦波の互いに異なる位相に相当する時刻であってよい。つまり、光源310は、一定の周期で、波長λ1にピークを有する光と波長λ2にピークを有する光を射出してよい。
 [第2の実施形態] 
 本発明の第2の実施形態について、図24及び図25を参照して説明する。以下では、第1の実施形態と共通する部分の説明は省略し、異なる部分のみを説明する。
 図24は、第2の実施形態における湾曲情報演算部110aの一例を示すブロック図である。湾曲情報演算部110aは、第1の演算部212と、第2の演算部214と、最適化演算部としての評価値演算部216とを有している。評価値演算部216は、以下で説明されるような、被検出部群410の湾曲情報を最適化するための演算を行う。
 第2の実施形態では、第1の実施形態と同様の第1の光吸収体及び第2の光吸収体における光の波長と吸収係数との関係を利用し、さらに、第3の波長λ3における検出光量情報Dλ3、基準光量情報Iλ3、強度変調情報Uαλ3,Uβλ3、被検出部群410の湾曲係数γ(θ,κ)を用いて、被検出部群410の湾曲情報を導出する。図25は、本実施形態における第1の光吸収体及び第2の光吸収体における光の波長と吸収係数との関係の一例を示す図である。第3の波長λ3は、吸収係数が第1の波長λ1及び第2の波長λ2とは異なる波長である。
 本実施形態では、図18に示されるフローのステップS63において、評価値演算部216が、第1の演算部212による演算において、光量情報関係の右辺と左辺の差が最小となるように、被検出部群410の湾曲係数を最適化する。
 このため、まず、式(10)における右辺と右辺との差分Δλnを求める(n=1,2,3)。
Figure JPOXMLDOC01-appb-M000012
 湾曲係数を最適化するため、例えば、各波長における差分Δλnの平方の総和からなる評価値Jを求めて、評価値Jが最小となるように被検出部群410の湾曲係数を決定する。評価値Jは、以下の式(13)で与えられる。
Figure JPOXMLDOC01-appb-M000013
 また、例えば、以下の式(14)に示されるように、重み付け係数wを与え、強度変調情報ごとの評価値Jへの寄与度を調整してもよい。
Figure JPOXMLDOC01-appb-M000014
 重み付け係数wの設定においては、例えば、被検出部群410の光吸収体の光吸収量が極大となる強度変調情報の寄与度を大きくするとよい。
 評価値演算部216はさらに、図18に示されるフローのステップS64において、第2の演算部214による演算において、湾曲係数の右辺と左辺の差が最小となるように、被検出部群410の湾曲情報を最適化する。湾曲情報の最適化の手法は、上述した湾曲係数の最適化の手法と同様である。
 本実施形態によれば、評価値演算部216が最適化演算を行うことにより、被検出部群410の湾曲情報がより精度良く求められる。また、冗長性があり、ノイズ等の影響に強い湾曲情報導出装置を提供することができる。
 また、最適化演算は、互いに収束性の異なる複数の最適化演算を含むことができる。例えば、第1の最適化演算は大域的な最適化演算であり精度が高く、また、第2の最適化演算は第1の最適化演算よりも収束性の高い局所的な最適化演算である。大域的な最適化演算とは、例えば、粒子群最適化(PSO)、差分進化(DE)、遺伝的アルゴリズム(GA)、シミュレーテッド・アニーリング法(SA)のように、局所解に陥らずに最適解を導出できる手法である。局所的な最適化演算とは、例えば、ニュートン法や最急降下法やシンプレックス法のような、局所解を求める近傍探索手法である。湾曲情報導出装置はいずれの演算を行うか、あるいはこれらの並列演算を行うかをユーザが選択できるように構成されることができる。このように、ユーザは、演算の正確さ及び速さを自ら選択することができる。例えば、これらの並列演算を用いれば、適切な最適解を速く算出することができる。
 [第3の実施形態] 
 本発明の第3の実施形態について、図26乃至図30を参照して説明する。以下では、第1の実施形態と共通する部分の説明は省略し、異なる部分のみを説明する。
 図26は、センサ駆動部300及びセンサ部400からなるセンサ500の構成の一例を示すブロック図である。第3の実施形態では、導光部材420には、第1の被検出部411及び第2の被検出部412からなる第1の被検出部群410と、第3の被検出部451及び第4の被検出部452からなる第2の被検出部群450とが設けられている。第2の被検出部群450は、導光部材420の長手方向において第1の被検出部群410とは異なる位置に配置されている。第2の被検出部群450は、第1の被検出部群410と同様にして形成されている。第3の被検出部451には第3の光吸収体が設けられ、第4の被検出部452には第4の光吸収体が設けられている。第3の被検出部451と第4の被検出部452との位置関係もまた、第1の被検出部411と第2の被検出部412の位置関係と同様である。
 図27は、第1~第4の光吸収体における光の波長と吸収係数との関係の一例を示す図である。図27に示されるように、異なる被検出部411、412、451、452に設けられた光吸収体は、波長毎の光吸収係数が異なり、すなわち互いに異なる吸光特性を有している。
 次に、第1の被検出部群410における湾曲情報(角度θ及び曲率κ)及び第2の被検出部群450における湾曲情報(角度θ及び曲率κ)を導出するために導出装置10の演算部101で行われる演算について説明する。可撓部819のうち、第1の被検出部群410を含む長さLが、図28Aに示される角度θ及び曲率κで湾曲しており、第2の被検出部群450を含む長さLが、図28Bに示される角度θ及び曲率κで湾曲している状態を考える。なお、図28A及び図28Bに示されるように、角度θ、θは、それぞれの被検出部群410、450におけるローカル座標系(x座標系及びx座標系)で表されている。従って、曲げの向きは、例えば、点P’11(x1,y1,z1)をx11平面に投影した点(x1,y1,0)と原点P10(0,0,0)とを通る直線とx軸とがなす角度θ1(図28A)及び点P’21(x2,y2,z2)をx22平面に投影した点(x2,y2,0)と原点P20(0,0,0)とを通る直線とx軸とがなす角度θ2(図28B)で表される。また、曲げの大きさは、例えば、曲率κ1、曲率κ2で表される。
 光検出器320により検出される検出光量情報Dλnは、式(2)と同様に、基準光量情報Iλnと、第1の被検出部群410の被検出部411及び412における光量の変化率Fλn及びGλnと、第2の被検出部群450の被検出部451及び452における光量の変化率Mλn及びNλnとの積を用いて次のように表される。
Figure JPOXMLDOC01-appb-M000015
 ここで、基準光量情報Iλnであり、第1の被検出部群410と第2の被検出部群450が共に基準湾曲状態にあるときに、光検出器320によって検出される波長λnの光についての光量である。Fλnは、第1の被検出部411のみによる光の吸収によって生じる光量の変化率であり、第1の被検出部群410の第1の被検出部411のみが基準湾曲状態に対して湾曲しているときに光検出器320により検出される波長λnの光についての光量と基準光量Iλnとの比である。Gλnは、第2の被検出部412のみによる光の吸収によって生じる光量の変化率であり、第1の被検出部群410の第2の被検出部412のみが基準湾曲状態に対して湾曲しているときに光検出器320により検出される波長λnの光についての光量と基準光量Iλnとの比である。Mλnは、第3の被検出部451のみによる光の吸収によって生じる光量の変化率であり、第2の被検出部群450の第3の被検出部451のみが基準湾曲状態に対して湾曲しているときに光検出器320により検出される波長λnの光についての光量と基準光量Iλnとの比である。Nλnは、第4の被検出部452のみによる光の吸収によって生じる光量の変化率であり、第2の被検出部群450の第4の被検出部452のみが基準湾曲状態に対して湾曲しているときに光検出器320により検出される波長λnの光についての光量と基準光量Iλnとの比である。
 変化率Fλn、Gλn、Mλn、Nλnは、第1の実施形態と同様にして、それぞれ、以下の式(16)、式(17)、式(18)、式(19)で与えられる。
Figure JPOXMLDOC01-appb-M000016
Figure JPOXMLDOC01-appb-M000017
Figure JPOXMLDOC01-appb-M000018
Figure JPOXMLDOC01-appb-M000019
 ここで、関数α(θ,κ)及びβ(θ,κ)は、それぞれ、第1の被検出部群410の第1の被検出部411及び第2の被検出部412についての湾曲係数であり、関数α(θ,κ)及びβ(θ,κ)は、それぞれ、第2の被検出部群450の第3の被検出部451及び第2の被検出部452についての湾曲係数である。Uα1λn及びUβ1λnは、それぞれ、被検出部群410の第1の被検出部411及び第2の被検出部412についての強度変調情報であり、Uα2λn及びUβ2λnは、それぞれ、被検出部群450の第3の被検出部451及び第4の被検出部452についての強度変調情報である。式(15)、式(16)、式(17)、式(18)、式(19)より、以下の式(20)が得られる。
Figure JPOXMLDOC01-appb-M000020
 式(20)において、左辺は任意の湾曲状態における検出光量情報を表し、右辺は基準光量情報と湾曲係数と強度変調情報とに基づいて生成される算出光量値を表す。式(20)の両辺の自然対数を取ることにより、以下の式(21)で表わされる光量情報関係が得られる。
Figure JPOXMLDOC01-appb-M000021
 対数を取ることにより、式(20)の右辺が加算で表現される。これにより、式(20)よりも式(21)の方が、計算が容易になる。
 基準光量情報Iλnを決定するための基準湾曲状態には、例えば、両被検出部群410、450が直線形状である場合、すなわち被検出部群410、450の曲率が0であり曲率半径が∞である場合が採用される。なお、被検出部群410、450の角度θ、θは便宜上0とする。基準光量情報Iλnは、被検出部群410、450が基準湾曲状態であるときの光量Dλn(0,0,0,0)で与えられる。つまり、基準光量情報Iλnは、以下の式(22)で与えられる。
Figure JPOXMLDOC01-appb-M000022
 湾曲係数α(θ,κ)、β(θ,κ)は、第2の被検出部群450を基準湾曲状態に設定しておいて、第1の被検出部群410の角度θと曲率κを取り得る範囲で変化させることにより取得される。また、湾曲係数α(θ,κ)、β(θ,κ)は、第1の被検出部群410を基準湾曲状態に設定しておいて、被検出部群450の角度θと曲率κを取り得る範囲で変化させることにより取得される。演算に使用される波長は、被検出部411、412、451、452においてそれぞれ吸収される光の波長λ1、λ2、λ3、λ4である。第1の被検出部群410の第1の被検出部411及び第2の被検出部412の湾曲係数α(θ,κ)及びβ(θ,κ)は、例えば、図11及び図12と同様である。図29は、第3の波長λ3に対して取得された湾曲係数α(θ,κ)、すなわち第2の被検出部群450の第3の被検出部451の湾曲係数α(θ,κ)の一例を示す図である。図30は、第4の波長λ4に対して取得された湾曲係数β(θ,κ)、すなわち第2の被検出部群450の第4の被検出部452の湾曲係数β(θ,κ)の一例を示す図である。このように、波長によって振幅や位相が異なることにより、角度θと曲率κとの導出が可能である。図29と図30には、それぞれ、2つの曲率κ、κに対する湾曲係数が示されている。
 湾曲係数α(θ,κ)、β(θ,κ)、α(θ,κ)、β(θ,κ)は、いずれも周期関数で表すことができ、例えば、それぞれ、以下の式(23)、式(24)、式(25)、式(26)の正弦関数で近似的に表されることができる。
Figure JPOXMLDOC01-appb-M000023
Figure JPOXMLDOC01-appb-M000024
Figure JPOXMLDOC01-appb-M000025
Figure JPOXMLDOC01-appb-M000026
 ここで、aα1(κ)、aβ1(κ)、aα2(κ)、aβ2(κ)は振幅であり、bα1(κ)、bβ1(κ)、bα2(κ)、bβ2(κ)は位相であり、cα1(κ)、cβ1(κ)、cα2(κ)、cβ2(κ)はオフセットである。
 本実施形態では、次のようにして、第1の被検出部群410及び第2の被検出部群450における角度θ及びθと曲率κ及びκを求める。
 まず、第1の演算部212において、光検出器320により検出された第1、第2、第3、第4の波長λ1、λ2、λ3、λ4における検出光量情報Dλ1、Dλ2、Dλ3、Dλ4に基づいて、以下の式(27)で表される四元一次連立方程式をα(θ,κ)、β(θ,κ)、α(θ,κ)、β(θ,κ)について解く。
Figure JPOXMLDOC01-appb-M000027
 基準光量情報Iλ1、Iλ2、Iλ3、Iλ4と強度変調情報Uα1λ1、Uα1λ2、Uα1λ3、Uα1λ4、Uβ1λ1、Uβ1λ2、Uβ1λ3、Uβ1λ4、Uα2λ1、Uα2λ2、Uα2λ3、Uα2λ4、Uβ2λ1、Uβ2λ2、Uβ2λ3、Uβ2λ4は、予め取得され記憶部120に記憶されている。従って、第1の演算部212において、被検出部411、412、451、452における光量変化情報α、β、α、βをそれぞれ算出することができる。
 次に、第2の演算部214において、第1の演算部212で算出された光量変化情報α、βと、記憶部120に記憶されている湾曲係数α(θ,κ)、β(θ,κ)に従って得られる以下の式(28)で表される二元連立方程式をθとκについて解く。
 さらに、第2の演算部214において、第1の演算部212で求められた光量変化情報α、βと、記憶部120に記憶されている湾曲係数α(θ,κ)、β(θ,κ)に従って得られる以下の式(29)で表される二元連立方程式をθとκについて解く。
Figure JPOXMLDOC01-appb-M000029
 このようにして、被検出部群410における角度θと曲率κすなわち湾曲情報と、被検出部群450における角度θと曲率κすなわち湾曲情報を求めることができる。
 本実施形態は、導光部材420の長手方向の異なる位置において2つの被検出部群410、450が導光部材420に設けられた構成であるが、図31に示されるように、さらに多くの被検出部群410が導光部材420に設けられた構成に変形されてよい。
 この場合も同様の手法によって各被検出部群410の湾曲情報を求めることができる。具体的には、次のようにして求められる。ここでは、被検出部群410の個数はmであるとする。また、1ないしmの自然数をn(すなわち、n=1,2,…,m)とする。
 第nの被検出部群の第(2n-1)の被検出部及び第(2n)の被検出部の湾曲係数α(θ,κ)及びβ(θ,κ)は、第nの被検出部群以外の被検出部群を基準湾曲状態に設定しておいて、第nの被検出部群の角度θと曲率κを取り得る範囲で変化させることにより取得される。
 湾曲情報演算は、次のようにしておこなわれる。 
 まず、以下の式(30)で表される2m元一次連立方程式をα(θ,κ)とβ(θ,κ)について解く。
Figure JPOXMLDOC01-appb-M000030
 次に、以下の式(31)で表されるm組の二元連立方程式をθとκについて解く。
Figure JPOXMLDOC01-appb-M000031
 これにより、各被検出部群410の湾曲情報(θ、κ)が求められる。
 [変形例] 
 図32Aと図32Bは、被検出部411、412、…、41m、451、452に代えて代替可能な別の被検出部461を示している。図31Aは、被検出部461が設けられた箇所の導光部材420の径方向の断面図である。図31Bは、被検出部461が設けられた箇所の導光部材420の光軸を含む断面図である。
 被検出部461は、光ファイバの長手軸方向の所望位置において、ジャケット421とクラッド422を除去してコア423の一部を露出させ、この露出させたコア423の部分に、フォトポリマーによりホログラフィックに光学特性変化部材であるグレーティング426を形成したものである。なお、ジャケット421及びクラッド422の除去は、レーザ加工によって、あるいは、フォト工程及びエッチング工程などを利用して行う。このとき、コア423にミクロな傷を付けてしまうと、光を漏らし、導光する光を損失させてしまったり、曲げに弱くなったりしたりするので、コア423に極力傷を付けない方法で加工することが望ましい。
 このように、被検出部461は、グレーティング426をコア423に接触するように形成したものである。また、グレーティング426は、接触していなくても、図33に示すように、クラッド422の一部に形成されていてもよい。
 グレーティング426は、光が内部を伝搬または表面で反射するときに回折現象を起こして、当該グレーティング426への入射方向とは異なる所定の方向に進む特定の波長の光を強め合うように伝搬させる。図32Bでは、測定光を実線の矢印で示し、グレーティング426によって所定方向に進むようにされた特定波長の光を破線の矢印で示している。
 ここまで、湾曲情報導出装置が適用される装置の一例として内視鏡を挙げ、内視鏡システムについて説明してきたが、湾曲情報導出装置が組み込まれる対象は内視鏡に限定されるものではなく、被挿入体に挿入されるカテーテル、手術支援ロボット等に適用されることができる。
 以上、本発明の実施形態を説明してきたが、本発明は、上述の実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内でさまざまな改良及び変更が可能である。
 1…内視鏡システム、10…湾曲情報導出装置、100…制御部、101…演算部、110、110a…湾曲情報演算部、120…記憶部、130…入力部、140…内視鏡湾曲情報計算部、150…光検出器駆動部、160…出力部、180…表示部、190…入力機器、212…第1の演算部、214…第2の演算部、216…評価値演算部、300…センサ駆動部、310…光源、320…光検出器、330…光分岐部、340…反射防止部材、400…センサ部、410、450…被検出部群、411、412、…、41m、451、452、461…被検出部、420…導光部材、421…ジャケット、422…クラッド、423…コア、424、425…光吸収体、430…反射部材、440…センサ記憶部、500…センサ、810…内視鏡、812…挿入部、814…操作部、816…先端硬質部、817…湾曲部、818…可撓管部、819…可撓部、820…内視鏡制御部、822…画像処理部。

Claims (12)

  1.  導光部材に設けられた被検出部群の曲げの向き及び曲げの大きさを表す湾曲情報を導出する湾曲情報導出装置であって、前記被検出部群は、導光部材の長さに沿った同じ位置に配置された複数の被検出部を有し、各被検出部は、前記導光部材によって導光される光の強度を曲げの向き及び曲げの大きさに応じて変調し、前記湾曲情報導出装置は、
     各被検出部に対応する波長の光の検出光量情報が入力される入力部と、
     各被検出部の湾曲係数及び強度変調情報と、前記湾曲係数及び前記強度変調情報と前記検出光量情報との関係を表す光量情報関係とを記憶する記憶部と、
     前記検出光量情報と前記光量情報関係とに基づいて前記被検出部ごとの光量変化情報を算出する第1の演算部と、
     前記光量変化情報と前記湾曲係数とに基づいて前記被検出部群の前記湾曲情報を算出する第2の演算部とを備えている、前記湾曲情報導出装置。
  2.  前記湾曲係数は、前記被検出部群の前記湾曲情報に応じて変化する湾曲係数である、請求項1に記載の前記湾曲情報導出装置。
  3.  前記湾曲係数は、前記被検出部群における曲率と曲げの向きの周期関数で表される、請求項2に記載の前記湾曲情報導出装置。
  4.  前記周期関数は、正弦関数で表される、請求項3に記載の前記湾曲情報導出装置。
  5.  前記光量情報関係は、基準光量情報を含み、
     前記基準光量情報は、前記被検出部群を所定の基準湾曲状態にした状態で取得される前記検出光量情報である、請求項1に記載の前記湾曲情報導出装置。
  6.  前記所定の基準湾曲状態は、前記被検出部群を直線状にした形状である、請求項5に記載の前記湾曲情報導出装置。
  7.  前記強度変調情報は、前記被検出部における光の吸収度合いと波長の関係である、請求項1に記載の前記湾曲情報導出装置。
  8.  第1の演算部及び第2の演算部は、最適化演算によって前記被検出部の前記湾曲情報を算出する最適化演算部を有し、
     前記最適化演算部は、前記第1の演算部による演算において、前記光量情報関係の式の右辺と左辺の差が最小となるように、前記湾曲係数を最適化し、前記第2の演算部による演算において、前記湾曲係数の式の右辺と左辺の差が最小となるように、前記湾曲情報を最適化する、請求項1に記載の前記湾曲情報導出装置。
  9.  前記検出光量情報を取得するセンサをさらに備えており、前記センサは、
     光源と、
     前記光源から射出された光を導光する前記導光部材と、
     互いに異なる光変調特性を有する光学部材を有する前記複数の被検出部と、
     前記導光部材を導光した光の、複数の波長帯域におけるそれぞれの光量を検出して前記検出光量情報を出力する光検出器とを備えている、請求項1に記載の前記湾曲情報導出装置。
  10.  請求項9に記載の前記湾曲情報導出装置と、
     前記導光部材が挿入部に設けられた内視鏡と、
     前記湾曲情報に基づいて前記挿入部の湾曲情報を算出する内視鏡湾曲情報計算部とを備えている、内視鏡システム。
  11.  導光部材に設けられた被検出部群の曲げの向き及び曲げの大きさを表す湾曲情報を導出する湾曲情報導出方法であって、前記被検出部群は、導光部材の長さに沿った同じ位置に配置された複数の被検出部を有し、各被検出部は、前記導光部材によって導光される光の強度を曲げの向き及び曲げの大きさに応じて変調し、前記湾曲情報導出方法は、
     各被検出部に対応する波長の光の検出光量情報を取得することと、
     各被検出部の湾曲係数及び強度変調情報と、前記湾曲係数及び前記強度変調情報と前記検出光量情報との関係を表す光量情報関係とを取得することと、
     前記検出光量情報と前記光量情報関係とに基づいて前記被検出部ごとの光量変化情報を算出することと、
     前記光量変化情報と前記湾曲係数とに基づいて前記被検出部群の前記湾曲情報を算出することとを有している、前記湾曲情報導出方法。
  12.  導光部材に設けられた被検出部群の曲げの向き及び曲げの大きさを表す湾曲情報を導出する湾曲情報導出のためのプログラムであって、前記被検出部群は、導光部材の長さに沿った同じ位置に配置された複数の被検出部を有し、各被検出部は、前記導光部材によって導光される光の強度を曲げの向き及び曲げの大きさに応じて変調し、前記プログラムは、
     各被検出部に対応する波長の光の検出光量情報を取得することと、
     各被検出部の湾曲係数及び強度変調情報と、前記湾曲係数及び前記強度変調情報と前記検出光量情報との関係を表す光量情報関係とを取得することと、
     前記検出光量情報と前記光量情報関係とに基づいて前記被検出部ごとの光量変化情報を算出することと、
     前記光量変化情報と前記湾曲係数とに基づいて前記被検出部群の前記湾曲情報を算出することとをコンピュータに実行させる、前記プログラム。
PCT/JP2015/063134 2015-05-01 2015-05-01 湾曲情報導出装置、湾曲情報導出装置を備えた内視鏡システム、湾曲情報導出方法及び湾曲情報導出のためのプログラム WO2016178279A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP15891286.5A EP3289954A1 (en) 2015-05-01 2015-05-01 Flexure information deriving apparatus, endoscope system provided with flexure information deriving apparatus, flexure information deriving method, and program for deriving flexure information
PCT/JP2015/063134 WO2016178279A1 (ja) 2015-05-01 2015-05-01 湾曲情報導出装置、湾曲情報導出装置を備えた内視鏡システム、湾曲情報導出方法及び湾曲情報導出のためのプログラム
CN201580079547.8A CN107529941B (zh) 2015-05-01 2015-05-01 弯曲信息导出装置、具有弯曲信息导出装置的内窥镜系统、弯曲信息导出方法和记录介质
JP2017516243A JP6500096B2 (ja) 2015-05-01 2015-05-01 湾曲情報導出装置、湾曲情報導出装置を備えた内視鏡システム、湾曲情報導出方法及び湾曲情報導出のためのプログラム
US15/800,199 US10729313B2 (en) 2015-05-01 2017-11-01 Bend information computation apparatus, endoscope system including bend information computation apparatus, bend information computation method, and program for bend information computation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/063134 WO2016178279A1 (ja) 2015-05-01 2015-05-01 湾曲情報導出装置、湾曲情報導出装置を備えた内視鏡システム、湾曲情報導出方法及び湾曲情報導出のためのプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/800,199 Continuation US10729313B2 (en) 2015-05-01 2017-11-01 Bend information computation apparatus, endoscope system including bend information computation apparatus, bend information computation method, and program for bend information computation

Publications (1)

Publication Number Publication Date
WO2016178279A1 true WO2016178279A1 (ja) 2016-11-10

Family

ID=57218307

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/063134 WO2016178279A1 (ja) 2015-05-01 2015-05-01 湾曲情報導出装置、湾曲情報導出装置を備えた内視鏡システム、湾曲情報導出方法及び湾曲情報導出のためのプログラム

Country Status (5)

Country Link
US (1) US10729313B2 (ja)
EP (1) EP3289954A1 (ja)
JP (1) JP6500096B2 (ja)
CN (1) CN107529941B (ja)
WO (1) WO2016178279A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018116375A1 (ja) * 2016-12-20 2018-06-28 オリンパス株式会社 湾曲情報導出装置、この装置を含む内視鏡システム、及び湾曲情報導出方法

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017094082A1 (ja) * 2015-11-30 2017-06-08 オリンパス株式会社 湾曲情報導出装置
JPWO2017175314A1 (ja) * 2016-04-05 2019-02-21 オリンパス株式会社 湾曲情報導出装置及び内視鏡システム
CN113222959B (zh) * 2021-05-26 2022-04-15 马翔 一种基于高光谱图像卷积神经网络的鲜枣虫眼检测方法
CN115420314B (zh) * 2022-11-03 2023-03-24 之江实验室 一种基于布拉格光栅位姿传感的电子内窥镜测控系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014117446A (ja) * 2012-12-17 2014-06-30 Olympus Corp 挿入装置
JP2014150868A (ja) * 2013-02-06 2014-08-25 Olympus Corp 湾曲装置
JP2014188047A (ja) * 2013-03-26 2014-10-06 Olympus Corp 挿入装置
JP2015029831A (ja) * 2013-08-06 2015-02-16 オリンパス株式会社 挿入システム及び形状センサの形状検出特性を調整する方法

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2073162C (en) * 1991-07-31 1999-06-29 Lee A. Danisch Fiber optic bending and positioning sensor
US5840024A (en) * 1993-10-18 1998-11-24 Olympus Optical Co., Ltd. Endoscope form detecting apparatus in which coil is fixedly mounted by insulating member so that form is not deformed within endoscope
US6127672A (en) * 1997-05-23 2000-10-03 Canadian Space Agency Topological and motion measuring tool
ATE295122T1 (de) * 2000-03-16 2005-05-15 Medigus Ltd Vorrichtung zur fundoplication
US6563107B2 (en) * 2001-01-11 2003-05-13 Canadian Space Agency Topological and motion measuring tool
US6846286B2 (en) * 2001-05-22 2005-01-25 Pentax Corporation Endoscope system
CA2472421C (en) * 2004-06-25 2012-04-24 059312 N.B. Inc. Shape-acceleration measurement device and method
US7772541B2 (en) * 2004-07-16 2010-08-10 Luna Innnovations Incorporated Fiber optic position and/or shape sensing based on rayleigh scatter
EP1853954A4 (en) * 2005-03-01 2011-01-19 Exfo Electro Optical Eng Inc METHOD AND APPARATUS FOR EXTRACTING THE LIGHT OF AN OPTICAL WAVEGUIDE
JP4714570B2 (ja) * 2005-11-24 2011-06-29 Hoya株式会社 内視鏡形状検出プローブ
US8248413B2 (en) * 2006-09-18 2012-08-21 Stryker Corporation Visual navigation system for endoscopic surgery
US8248414B2 (en) * 2006-09-18 2012-08-21 Stryker Corporation Multi-dimensional navigation of endoscopic video
EP2124705B1 (en) * 2007-01-29 2019-05-08 Intuitive Surgical Operations, Inc. System for controlling an instrument using shape sensors
JP4961475B2 (ja) * 2007-06-20 2012-06-27 オリンパスメディカルシステムズ株式会社 内視鏡システム
US8219180B2 (en) * 2007-10-11 2012-07-10 Tufts University System and method employing fiber optic shape tracking
US20090208143A1 (en) * 2008-02-19 2009-08-20 University Of Washington Efficient automated urothelial imaging using an endoscope with tip bending
US8780339B2 (en) * 2009-07-15 2014-07-15 Koninklijke Philips N.V. Fiber shape sensing systems and methods
US8773650B2 (en) * 2009-09-18 2014-07-08 Intuitive Surgical Operations, Inc. Optical position and/or shape sensing
JP5766940B2 (ja) * 2010-12-01 2015-08-19 オリンパス株式会社 管状挿入システム
EP2646862B1 (en) * 2010-12-02 2020-09-23 Ofs Fitel Llc Dfb fiber laser bend sensor and optical heterodyne microphone
US20130030363A1 (en) * 2011-07-29 2013-01-31 Hansen Medical, Inc. Systems and methods utilizing shape sensing fibers
US9066672B2 (en) * 2011-10-27 2015-06-30 3Dt Holdings, Llc Single injection methods for obtaining conductance measurements within luminal organs using impedance devices
US8737777B2 (en) * 2012-01-03 2014-05-27 Xyratex Technology Limited Optical waveguide and a method for making an optical waveguide
US9429696B2 (en) * 2012-06-25 2016-08-30 Intuitive Surgical Operations, Inc. Systems and methods for reducing measurement error in optical fiber shape sensors
US20140257095A1 (en) * 2013-03-11 2014-09-11 Volcano Corporation Shape sensing interventional catheters and methods of use
CN105658268A (zh) * 2013-10-16 2016-06-08 皇家飞利浦有限公司 介入系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014117446A (ja) * 2012-12-17 2014-06-30 Olympus Corp 挿入装置
JP2014150868A (ja) * 2013-02-06 2014-08-25 Olympus Corp 湾曲装置
JP2014188047A (ja) * 2013-03-26 2014-10-06 Olympus Corp 挿入装置
JP2015029831A (ja) * 2013-08-06 2015-02-16 オリンパス株式会社 挿入システム及び形状センサの形状検出特性を調整する方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018116375A1 (ja) * 2016-12-20 2018-06-28 オリンパス株式会社 湾曲情報導出装置、この装置を含む内視鏡システム、及び湾曲情報導出方法
US11399697B2 (en) 2016-12-20 2022-08-02 Olympus Corporation Bend information computation apparatus, endoscope system including the apparatus, and bend information computation method

Also Published As

Publication number Publication date
CN107529941A (zh) 2018-01-02
JPWO2016178279A1 (ja) 2018-02-22
US20180055336A1 (en) 2018-03-01
US10729313B2 (en) 2020-08-04
CN107529941B (zh) 2019-06-18
EP3289954A1 (en) 2018-03-07
JP6500096B2 (ja) 2019-04-10

Similar Documents

Publication Publication Date Title
JP6322495B2 (ja) 形状推定装置、形状推定装置を備えた内視鏡システム及び形状推定のためのプログラム
JP6278848B2 (ja) 形状推定装置、それを備えた内視鏡システム及び形状推定のためのプログラム
WO2016178279A1 (ja) 湾曲情報導出装置、湾曲情報導出装置を備えた内視鏡システム、湾曲情報導出方法及び湾曲情報導出のためのプログラム
US6868195B2 (en) Device for detecting three-dimensional shapes of elongated flexible body
US7781724B2 (en) Fiber optic position and shape sensing device and method relating thereto
WO2010050526A1 (ja) 医療機器
JP5185773B2 (ja) 形状測定装置
JP5259340B2 (ja) 医療機器
US10842359B2 (en) Curvature sensor and endoscope apparatus equipped with the same
US10502558B2 (en) Curvature sensor
US10401140B2 (en) Bending detecting system, light guide body, tubular apparatus, light detecting apparatus, light detecting method, and optical bending measuring apparatus
US10813701B2 (en) System, method and computer program product for bend information estimation
US10619999B2 (en) Curvature sensor
WO2017094082A1 (ja) 湾曲情報導出装置
US8305586B2 (en) Optical encoder, bending operation system, and method of detecting displacement of linear power transmission member
WO2017175314A1 (ja) 湾曲情報導出装置及び内視鏡システム
WO2017221355A1 (ja) 形状推定装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15891286

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017516243

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2015891286

Country of ref document: EP