WO2012026184A1 - 内視鏡形状検出装置及び内視鏡の挿入部の形状検出方法 - Google Patents

内視鏡形状検出装置及び内視鏡の挿入部の形状検出方法 Download PDF

Info

Publication number
WO2012026184A1
WO2012026184A1 PCT/JP2011/063736 JP2011063736W WO2012026184A1 WO 2012026184 A1 WO2012026184 A1 WO 2012026184A1 JP 2011063736 W JP2011063736 W JP 2011063736W WO 2012026184 A1 WO2012026184 A1 WO 2012026184A1
Authority
WO
WIPO (PCT)
Prior art keywords
sensor
unit
final
temporary
movement
Prior art date
Application number
PCT/JP2011/063736
Other languages
English (en)
French (fr)
Inventor
克己 平川
Original Assignee
オリンパスメディカルシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパスメディカルシステムズ株式会社 filed Critical オリンパスメディカルシステムズ株式会社
Priority to EP11813645.6A priority Critical patent/EP2460457B8/en
Priority to JP2011537466A priority patent/JP4897123B1/ja
Priority to CN201180003551.8A priority patent/CN102487602B/zh
Priority to US13/242,415 priority patent/US8403829B2/en
Publication of WO2012026184A1 publication Critical patent/WO2012026184A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/065Determining position of the probe employing exclusively positioning means located on or in the probe, e.g. using position sensors arranged on the probe
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/005Flexible endoscopes
    • A61B1/0051Flexible endoscopes with controlled bending of insertion part
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/005Flexible endoscopes
    • A61B1/009Flexible endoscopes with bending or curvature detection of the insertion part

Definitions

  • the present invention relates to an endoscope shape detection device including an endoscope inserted into a body cavity, and a shape detection method of an insertion portion of the endoscope of the endoscope shape detection device.
  • Patent Document 1 discloses an endoscope shape detection device in which a plurality of source coils are attached to an insertion portion of an endoscope that is inserted into a body cavity.
  • the position of each source coil is detected by a sense coil provided outside the body. Then, the shape of the insertion portion of the endoscope is detected based on the detected position of the source coil.
  • Patent Document 2 discloses an endoscope shape detection device that detects the position of each coil arranged in an insertion portion of an endoscope from an AC magnetic field, and performs curve interpolation between the detected positions of each coil. Is disclosed. In this endoscope shape detection apparatus, curve interpolation is performed by connecting the detected positions of the coils with Bezier curves or spline curves. By performing the curve interpolation, the curve shape of the insertion portion of the endoscope is detected.
  • curve interpolation is performed by connecting the detected coil positions with Bezier curves or spline curves.
  • curve interpolation is not performed in consideration of the inter-coil dimension which is the dimension in the longitudinal direction between the respective coils. For this reason, the shape of the insertion portion at the time of insertion into the body cavity is not detected with high accuracy.
  • the detected coil positions with a spline curve and detect the provisional shape of the insertion portion, and then sequentially correct the detected coil positions based on the inter-coil dimensions.
  • the position of the coil after position correction is connected by a spline curve, and the detected shape of the insertion section before correction of the coil position is corrected.
  • a corrected shape is detected. That is, every time the position of one coil is corrected, the entire curved shape of the insertion portion is corrected.
  • the inter-coil dimension is a longitudinal dimension between the coils, and is a local parameter of the insertion portion.
  • the inter-coil dimension is a parameter that locally affects the shape of the insertion portion, and is not a parameter that affects the shape of the entire insertion portion. For this reason, by correcting the position of one coil, the detection shape of the insertion part before the sensor position correction is not locally corrected near the position-corrected coil, but by correcting the position of one coil, In the configuration in which the entire curve shape of the insertion portion is corrected, the curve shape of the insertion portion is not corrected with high accuracy. Therefore, the curve shape of the insertion part is not finally detected with high accuracy. Further, depending on the type of spline curve or the like, the correction of the position of one coil corrects the entire shape of the insertion portion, which complicates the processing.
  • the present invention has been made paying attention to the above-mentioned problems, and the object of the present invention is to make the insertion portion highly accurate without increasing the size and complexity of the apparatus and without complicating the processing.
  • An endoscope shape detecting device capable of detecting the shape of the endoscope and a shape detecting method of an insertion portion of the endoscope are provided.
  • an endoscope including an insertion portion in which a plurality of sensor units are arranged apart from each other by a predetermined inter-sensor dimension in the longitudinal direction, and measurement data of the sensor unit are used. Based on the posture detection unit that detects the posture of each of the sensor units, and based on the posture of each of the sensor units detected by the posture detection unit, the dimension between the sensor units is between the sensors.
  • a sensor temporary position detector that detects the temporary position of each sensor unit, and the temporary position of each sensor unit detected by the sensor temporary position detector Based on the curve, the temporary interpolation between the temporary positions of the sensor units is performed with a temporary circular arc, and the temporary curve shape of the insertion portion Based on the absolute value of the difference between the arc length of each provisional arc of the provisional curve shape detected by the provisional curve shape detection unit and the inter-sensor dimension, the provisional curve shape detection unit to detect A sensor position correcting unit that corrects the position of the sensor unit from the temporary position to the final position, and a final arc that interpolates between the final positions of the sensor units with a final arc to detect the final curved shape of the insertion unit.
  • An endoscope shape detection apparatus including a curved shape detection unit is provided.
  • measurement is performed with a plurality of sensor units arranged at a predetermined distance between the sensors in the longitudinal direction at the insertion portion of the endoscope, and the sensor unit Detecting the attitude of each sensor unit based on the measurement data, and a straight line having a dimension equal to the inter-sensor dimension between the sensor units based on the detected attitude of each sensor unit.
  • a temporary position of each of the sensor units is detected based on the detected temporary position of each of the sensor units based on the detected temporary position of each of the sensor units. Is interpolated with a provisional arc to detect the provisional curve shape of the insertion portion, and to detect each provisional arc of the detected provisional curve shape.
  • the position of each of the sensor units is corrected from the temporary position to the final position, and a final arc between the final positions of the sensor units. And detecting the final curve shape of the insertion portion, and a method for detecting the shape of the insertion portion of the endoscope.
  • an endoscope shape detection device and an endoscope that can detect the shape of the insertion portion with high accuracy without increasing the size and complexity of the device and without complicating the processing. It is possible to provide a method for detecting the shape of the insertion portion.
  • the block diagram which shows the structure of the endoscope shape detection apparatus which concerns on the 1st Embodiment of this invention. Schematic which shows the structure of the insertion part of the endoscope which concerns on 1st Embodiment.
  • the block diagram which shows the structure of the personal computer of the endoscope shape detection apparatus which concerns on 1st Embodiment.
  • the flowchart which shows the method to detect the shape in the static state of the insertion part of the endoscope which concerns on 1st Embodiment. Schematic which compares and shows the global coordinate system and correction
  • FIG. 1 is a diagram showing an endoscope shape detection apparatus 1 according to the present embodiment.
  • the endoscope 10 of the endoscope shape detection device 1 includes an insertion unit 11 that is inserted into a body cavity and an operation unit 12 that is provided on the proximal end side of the insertion unit 11.
  • the insertion portion 11 includes a distal end rigid portion 14 provided at the forefront, a bending portion 16 provided on the proximal end side of the distal end rigid portion 14, and an elongated flexible tube portion 18 provided on the proximal end side of the bending portion 16.
  • An imaging element 20 such as a CCD for imaging a subject is provided in the distal end rigid portion 14.
  • One end of an imaging signal line 21 is connected to the imaging element 20.
  • the imaging signal line 21 passes through the insertion unit 11 and extends from the operation unit 12 to the outside of the endoscope 10, and the other end is connected to the video processor 3 that is an image processing unit.
  • a light guide 23 that guides illumination light that irradiates a subject to an illumination window (not shown) of the distal end rigid portion 14 extends in the longitudinal direction inside the insertion portion 11.
  • the light guide 23 extends from the operation unit 12 to the outside of the endoscope 10 and is connected to the light source unit 4.
  • one end of four bending operation wires which are bending operation transmitting members is connected to the distal end portion of the bending portion 16 of the insertion portion 11.
  • the other end of the bending operation wire is connected to a bending operation knob (not shown) which is a bending operation unit provided in the operation unit 12 through the inside of the flexible tube unit 18.
  • the bending operation wire moves in the longitudinal direction.
  • the bending portion 16 performs a bending operation in the vertical direction and the horizontal direction of the endoscope 10.
  • the insertion portion 11 is provided with a plurality (N + 1 in this embodiment) of sensor units S 0 to S N.
  • the most proximal sensor unit S 0 is disposed at the proximal end portion of the flexible tube portion 18, and the most distal sensor unit SN is disposed at the distal end portion of the bending portion 16.
  • the sensor unit S i includes an acceleration sensor A i that measures acceleration and a geomagnetic sensor B i that measures geomagnetism.
  • FIG. 2 is a diagram illustrating the insertion portion 11 of the endoscope 10.
  • each sensor unit S i has a local coordinate system C i (indicated by a dotted line in FIG. 2) having the origin of the center of the sensor unit S i and having the X i axis, the Y i axis, and the Z i axis. ).
  • X i axis direction coincides with the horizontal direction of the endoscope 10 at the center of the sensor unit S i, the right direction of the endoscope 10 when viewed from the base end side is positive.
  • Y i axis direction coincides with the longitudinal direction at the center of the sensor unit S i, the distal direction is positive.
  • the Z i axis direction coincides with the vertical direction of the endoscope 10 at the center of the sensor unit Si , and the upward direction of the endoscope 10 is positive.
  • the acceleration sensor A i measures the X i axis direction component, the Y i axis direction component, and the Z i axis direction component of the acceleration at the origin of the local coordinate system C i .
  • the geomagnetic sensor B i measures the X i axis direction component, the Y i axis direction component, and the Z i axis direction component of the geomagnetism at the origin of the local coordinate system C i .
  • the most to the center of the proximal sensor unit S 0 as the origin (indicated by a solid line in FIG. 2) global coordinate system C having X axis, Y axis, the Z axis is defined Has been.
  • the global coordinate system C is an orthogonal Cartesian right-handed coordinate system with the origin at the center of the sensor unit S 0 on the most proximal end side.
  • the X-axis direction coincides with a predetermined direction perpendicular to the vertical direction in which gravity acts (in this embodiment, a direction parallel to arrows D1 and D2 in FIG. 2), and the direction of arrow D1 in FIG. .
  • the Y-axis direction coincides with the direction perpendicular to the vertical direction and perpendicular to the X-axis direction (in this embodiment, the direction parallel to the arrows E1 and E2 in FIG. 2), and the direction of the arrow E1 in FIG. Positive.
  • the Z-axis direction coincides with the vertical direction, and the upward direction in the vertical direction (the direction from the back of the paper to the front) is positive.
  • the X-axis direction of the global coordinate system C is the magnetic north direction.
  • Each local coordinate system C i rotates the global coordinate system C around the X axis by ⁇ i , around the Y axis by ⁇ i , and around the Z axis by ⁇ i, respectively, and from the center of the most proximal sensor unit S 0 . is a coordinate system translating the origin to the center of the sensor unit S i.
  • ⁇ i is called the pitch angle
  • ⁇ i is called the roll angle
  • ⁇ i is called the yaw angle
  • the pitch angle ⁇ i , roll angle ⁇ i , and yaw angle ⁇ i are collectively called the posture angle.
  • the posture angles ⁇ i , ⁇ i , and ⁇ i are positive in the clockwise direction when viewed from the negative directions of the X, Y, and Z axes, respectively.
  • the posture of the sensor unit S i is detected.
  • the acceleration sensor A i and the geomagnetic sensor B i of each sensor unit S i are connected to a serial bus 5 such as I2C.
  • the serial bus 5 extends from the operation unit 12 to the outside of the endoscope 10 through the inside of the insertion unit 11, and a proximal end is connected to the serial converter 6.
  • the serial converter 6 converts a serial signal of measurement data input from each sensor unit Si through the serial bus 5 into a USB signal.
  • the serial converter 6, one end of the USB cable 7 is connected.
  • the other end of the USB cable 7 is connected to the PC 8.
  • the computer 8, USB signal measurement data at each of the sensor units S i is inputted from the serial converter 6.
  • FIG. 3 is a diagram showing the configuration of the personal computer 8.
  • the personal computer 8 includes a communication unit 26 connected to the serial converter 6 via the USB cable 7.
  • the communication unit 26 receives measurement data at each of the sensor units S i.
  • a physical quantity conversion unit 28 is connected to the communication unit 26.
  • Physical quantity conversion unit 28 the measurement data of the respective sensor units S i received by the communication unit 26 is converted into a physical amount using the offset, the gain or the like.
  • An attitude detection unit 30 is connected to the physical quantity conversion unit 28.
  • the posture detection unit 30 Based on the measurement data obtained by the acceleration sensor A i and the geomagnetic sensor B i of each sensor unit S i , the posture detection unit 30 performs X from the global coordinate system C of the local coordinate system C i of each sensor unit S i.
  • a posture angle calculation unit 32 that calculates three posture angles ⁇ i , ⁇ i , and ⁇ i that are rotation angles around the axis, the Y axis, and the Z axis is provided.
  • Attitude angle calculation unit 32 based on the acceleration data of the acceleration sensor A i of the respective sensor units S i, the rotation of the X axis from the global coordinate system C of the local coordinate system C i of each sensor unit S i.
  • a first angle calculation unit that calculates a pitch angle ⁇ i that is an angle and a roll angle ⁇ i that is a rotation angle around the Y axis from the global coordinate system C of the local coordinate system C i of each sensor unit S i. 34 is provided.
  • attitude angle calculation unit 32 based on the geomagnetic data in the geomagnetic sensor B i of the respective sensor units S i, Z axis from the global coordinate system C of the local coordinate system C i of each sensor unit S i
  • a second angle calculation unit 36 that calculates a yaw angle ⁇ i that is a rotation angle of
  • FIG. 4 is a flowchart illustrating a method for detecting the shape of the insertion portion 11 in a static state in which the insertion portion 11 of the endoscope 10 is stopped.
  • the posture detecting section 30 is measured at each sensor unit S i Get the data.
  • the posture angle calculation unit 32 calculates three posture angles ⁇ i , ⁇ i , and ⁇ i of the local coordinate system C i of each sensor unit S i .
  • the first angle calculation unit 34 determines each sensor based on the measurement data of the acceleration sensor A i of each sensor unit S i. calculating a pitch angle alpha i and the roll angle beta i of the local coordinate system C i of the unit S i (step S102).
  • the posture angles ⁇ i , ⁇ i , and ⁇ i are assumed to be (Z, X, Y) types that rotate in the order of the yaw angle ⁇ i , the pitch angle ⁇ i , and the roll angle ⁇ i . Therefore, the rotation matrix from the local coordinate system C i to the global coordinate system C is
  • the X i axis direction component, the Y i axis direction component, and the Z i axis direction component of the local coordinate system C i of the acceleration vector measured by the acceleration sensor A i are expressed as follows:
  • the local coordinate system C i is a coordinate system obtained by rotating the global coordinate system C in the order of the yaw angle ⁇ i , the pitch angle ⁇ i , and the roll angle ⁇ i . Therefore, from the equations (1) to (3), the acceleration component observed in the local coordinate system C i is
  • roll angle beta i of the local coordinate system C i is obtained. As described above, based on the measurement data in each of the acceleration sensors A i, the pitch angle alpha i and the roll angle beta i of each of the local coordinate system C i is calculated.
  • the second angle calculation unit 36 calculates the yaw angle gamma i in the local coordinate system C i of each sensor unit S i (Step S103).
  • a coordinate system C ′ i is defined.
  • FIG. 5 is a diagram showing a global coordinate system C (indicated by a solid line in FIG. 5) and a corrected coordinate system C ′ i (indicated by a dotted line in FIG.
  • the corrected coordinate system C ′ i corrected for the X axis and the Y axis is a coordinate system obtained by rotating the global coordinate system C around the Z axis by the yaw angle ⁇ i , and the X ′ i axis, Y ′ i. axis, with a Z'i axis.
  • the Z ′ i- axis direction coincides with the vertical direction, that is, the Z-axis direction of the global coordinate system C.
  • the X axis direction of the global coordinate system C coincides with the magnetic north direction.
  • the X ′ i- axis direction is the direction rotated by the yaw angle ⁇ i around the Z-axis from the magnetic north direction.
  • Correction coordinate system C'i is a coordinate system obtained by correcting the rotation and rotation of the Y-axis of the X axis from the global coordinate system C of the local coordinate system C i. Therefore, by using R xi and R yi in the equations (9) and (1), the X ′ i axis direction component of the correction coordinate system C ′ i of the geomagnetic vector measured by the geomagnetic sensor B i , the Y ′ i axis Direction component, Z ′ i- axis direction component is
  • Geomagnetic components perpendicular horizontal to the vertical direction (X'i -Y' i plane of the correction coordinate system C'i) is oriented magnetic north direction. Therefore, formula (11.1), the equation (11.2), the angle theta i from X'i axis to the magnetic north direction, X'i-axis component of the correction coordinate system C'i of the geomagnetic vector, Y'i It can be determined using the axial component. That is,
  • Angle theta i is the clockwise positive look Z'i axis (Z axis) from the negative direction.
  • the correction coordinate system C ′ i is a coordinate system obtained by rotating the global coordinate system C by the yaw angle ⁇ i around the Z axis. Therefore, the angle ⁇ i obtained by Expression (12) is the yaw angle ⁇ i of the local coordinate system C i with the global coordinate system C as a reference.
  • the yaw angle ⁇ i can be obtained with reference to magnetic north.
  • the direction is obtained by performing measurement in a state where the Z-axis direction matches the axial direction.
  • the angle ⁇ from the X axis to the magnetic north direction is obtained using the X axis component and the Y axis component of the global coordinate system C of the geomagnetic vector. That is,
  • the correction coordinate system C ′ i is a coordinate system obtained by rotating the global coordinate system C by the yaw angle ⁇ i around the Z axis. Therefore, from Equation (12) and Equation (14),
  • the posture detection unit 30 detects the posture of each sensor unit S i .
  • a sensor temporary position detection unit 40 is connected to the posture detection unit 30.
  • Figure 6 is a diagram of the tentative position P 0, i of each sensor unit S i detected by the sensor tentative position detecting section 40, viewed toward the negative Z-axis of the global coordinate system C in the positive direction .
  • the sensor temporary position detection unit 40 includes a temporary link forming unit 41 that forms each temporary link T 0, j and a temporary link movement that translates each temporary link T 0, j formed by the temporary link forming unit 41. Part 42.
  • the temporary link moving unit 42 translates the temporary links T 0, j so that the temporary link boundaries with the adjacent temporary links T 0, j ⁇ 1 , T 0, j + 1 are continuous.
  • a provisional linear shape 71 is formed between the sensor units S i and assuming a linear provisional link T 0, j .
  • step S104 When the temporary positions P 0, i of the respective sensor units S i are detected (step S104), first, temporary link formation is performed based on the posture angles ⁇ i , ⁇ i , ⁇ i calculated in steps S102, S103.
  • the part 41 forms each temporary link T 0, j having a linear shape.
  • the formation of the temporary link T 0, k from the base end side k th between from the base end side from the k-th sensor unit S k-1 and the base end side and the (k + 1) th sensor unit S k explain.
  • the local coordinate system C k-1 (that is, temporary The attitude angles ⁇ k ⁇ 1 , ⁇ k ⁇ 1 , ⁇ k ⁇ 1 of the link T 0, k ) are calculated. Using the posture angles ⁇ k ⁇ 1 , ⁇ k ⁇ 1 , ⁇ k ⁇ 1 and the inter-sensor dimension l which is the distance between the sensor units S i in the longitudinal direction, the sensor unit S k ⁇ 1 to the sensor vector directed to the unit S k is obtained.
  • vector from the sensor unit S k-1 to the sensor unit S k is
  • the local vector by multiplying the unit vector in the Y k-1 axis direction which is the longitudinal direction at the origin of the local coordinate system C k-1 by the rotation matrix calculated by the equation (1).
  • a component obtained by decomposing the unit vector in the Y k-1 axis direction at the origin of the coordinate system C k-1 into the X axis direction component, the Y axis direction component, and the Z axis direction of the global coordinate system C is calculated.
  • l xk , l yk , and l zk are vectors of size l in the Y k-1 axis direction of the local coordinate system C k ⁇ 1 , respectively, and the X axis direction, Y axis direction, Z It is a component decomposed in the axial direction.
  • the temporary link T 0, k is formed by the vector calculated by Expression (16.1).
  • the temporary link other than k T 0, j are formed similarly by the temporary link forming part 41. That is, the sensor on the base end side (the side closer to the origin of the global coordinate system C) of the temporary link T 0, j using the formula in which k in formula (16.1) and formula (16.2) is replaced with j. A vector from the unit S j-1 to the sensor unit S j on the tip side of the temporary link T 0, j (the side far from the origin of the global coordinate system C) is obtained. Then, a temporary link T 0, j is formed by a vector from the sensor unit S j ⁇ 1 to the sensor unit S j .
  • the temporary link forming unit 41 determines that the temporary link T 0, j is from the center of the sensor unit S j-1 on the base end side (side closer to the origin of the global coordinate system C) to the tip side (from the origin of the global coordinate system C).
  • the temporary link T 0, j is formed on the assumption that it extends in the longitudinal direction at the center of the sensor unit S j-1 on the base end side to the center of the sensor unit S j on the far side.
  • the inter-sensor dimension l is preferably about 50 mm. By lengthening the sensor dimension between l, the number of sensor units S i is reduced, cost is reduced. Further, if the small range dimension l is from about 50mm between the sensors, even assuming a between the respective sensor units S i tentative link dimensions like a straight line equal to the sensor dimension between l T 0, j and the insertion portion It is possible to reduce the error in detecting the shape of the eleventh shape.
  • FIG. 7 is a diagram for explaining processing in the temporary link moving unit 42.
  • the movement of the temporary link T 0, k from the base end side k th between from the base end side from the k-th sensor unit S k-1 and the base end side and the (k + 1) th sensor unit S k explain.
  • the temporary link mobile unit 42 in a state before the movement of the temporary link T 0, k is carried out, the temporary link T 0, the temporary link adjacent to the proximal end side of the k T 0, k- The movement to 1 is completed, and a temporary link movement completion unit 73 is formed.
  • the temporary link T 0, k only the amount of movement from the origin to the tip of the temporary link movement completion unit 73 (i.e. sensor unit S k-1 of the temporary position P 0, k-1), moving the temporary link The unit 42 translates the temporary links T 0, k . That is, the temporary link T 0, k is translated from the position indicated by the dotted line in FIG. 7 to the position indicated by the solid line in FIG. As a result, the link boundary between the temporary link T 0, k ⁇ 1 and the temporary link T 0, k becomes continuous.
  • the temporary link other than k T 0, j is moved in the same manner by the temporary link mobile unit 42. That is, when the temporary link T 0, j is moved, the temporary link moving unit 42 is moved by the moving amount from the origin to the tip of the temporary link moving completion unit 73 (the end far from the origin of the global coordinate system C).
  • the temporary link T 0, j is translated.
  • the temporary link boundary between tentative link T 0, j-1 adjacent to the temporary link T 0, j tentative link T 0, j proximal side of (side closer to the origin of the global coordinate system C) is continuous It becomes a state.
  • the temporary link T 0,1 is not moved because the base end of the temporary link T 0,1 is the origin of the global coordinate system C.
  • a provisional linear shape 71 is formed between the sensor units S i assuming the linear temporary links T 0, j. Is done.
  • the position of each sensor unit S i in the provisional linear shape 71 is detected as the provisional position P 0, i of each sensor unit S i (step S104).
  • FIG. 8 is a view of the provisional curve shape 75 of the insertion unit 11 of the endoscope 10 detected by the provisional curve shape detection unit 50 as viewed from the negative Z axis of the global coordinate C toward the positive direction.
  • the temporary curved shape detection unit 50 between the temporary position P 0, i of each sensor unit S i of the temporary linear shape 71 shown in dotted line in FIG. 8 is curve interpolation. Thereby, each temporary arc L0 , j is formed, and the temporary curve shape 75 shown by the continuous line of FIG. 8 is detected.
  • the provisional curve shape detection unit 50 includes a unit tangent vector calculation unit 51 that calculates a unit tangent vector at the temporary position P 0, i of each sensor unit S i , and a unit tangent vector calculated by the unit tangent vector calculation unit 51. Based on the change rate calculation unit 52 for calculating the rate of change of the unit tangent vector between the temporary positions P 0, i of each sensor unit S i , and the unit tangent vector calculated by the unit tangent vector calculation unit 51 And a temporary arc forming part 53 that forms a temporary arc L 0, j between the temporary positions P 0, i of the respective sensor units S i based on the change rate calculated by the change rate calculating part 52. . Curve interpolation is performed between the temporary positions P 0, i of all the sensor units S i , and all the temporary arcs L 0, j are formed, whereby the temporary curve shape 75 is detected.
  • the temporary curved shape detection unit 50 a method of between tentative position P 0, i of each sensor unit S i detected by the sensor tentative position detecting section 40 and curve interpolation, detecting a provisional curve shape 75 explain.
  • temporary curved shape detection unit 50 performs curve interpolation between the tentative position P 0, i of each sensor unit S i detected in step S104 the temporary arc L 0, j, temporary The curve shape 75 is detected (step S105).
  • the sensor dimension between l is if smaller ranges about 50 mm, even assuming a between the respective sensor units S i tentative link dimensions like a straight line equal to the sensor dimension between l T 0, j and The error in detecting the shape of the insertion portion 11 is reduced.
  • the shape of the insertion portion 11 of the endoscope 10 when inserted into the body cavity is a curved shape. Therefore, it is important to perform curve interpolation between the temporary positions P 0, i of the respective sensor units S i .
  • the insertion portion 11 of the endoscope 10 has moderate elasticity although there is a difference depending on the product. For this reason, it is rare that the curvature of the curved shape of the insertion portion 11 changes greatly. Therefore, the actual insertion section 11 is obtained by performing curve interpolation assuming that the shape between the sensor units S i is a temporary arc L 0, j having a radius R 0, j (curvature 1 / R 0, j ).
  • the provisional curve shape 75 with less error than the curve shape is formed.
  • temporary curved shape detecting unit 50 When detecting the temporary curve shape 75, temporary curved shape detecting unit 50 sequentially performs curve interpolation between every temporary position P 0, i of each sensor unit S i, to form a tentative arc L 0, j .
  • a method of performing curve interpolation between the temporary positions P 0, i of the respective sensor units S i by the temporary curve shape detection unit 50 will be described.
  • curve interpolation between the kth sensor unit Sk-1 from the base end side and the (k + 1) th sensor unit Sk from the base end side will be described. That is, the position between the temporary position P 0, k ⁇ 1 and the temporary position P 0, k is the interpolation target temporary position that is the interpolation target.
  • FIG. 9 is a flowchart showing a method for detecting the provisional curve shape 75 by the provisional curve shape detection unit 50.
  • FIG. 10 is a diagram for explaining processing in the provisional curve shape detection unit 50. As shown in FIGS. 9 and 10, is between the temporary position P 0, k provisional curved shape detection unit 50 sensor unit by S k-1 of the temporary position P 0, k-1 and the sensor unit S k interpolation when performing curve interpolation between the target sensor, first, a unit tangent vector calculating section 51, temporary position of the unit tangent vector and the sensor unit S k of the sensor unit S k-1 of the temporary position P 0, k-1 A unit tangent vector at P 0, k is calculated (step S111). The unit tangent vector at the temporary position P 0, k-1 of the sensor unit S k-1 is
  • the unit tangent vector at the temporary position P 0, k ⁇ 1 is a unit vector of vectors from the temporary position P 0, k ⁇ 1 to the temporary position P 0, k .
  • the unit tangent vector at the temporary position P 0, k of the sensor unit S k is obtained using an equation in which k in Equation (17.1), Equation (17.2), and Equation (17.3) is replaced with k + 1. It is done. That is, the unit tangent vector at the temporary position P 0, k is a unit vector of vectors from the temporary position P 0, k to the temporary position P 0, k + 1 .
  • step S112 the rate of change of the unit tangent vector is calculated (step S112).
  • the rate-of-change vector of the unit tangent vector between the temporary position P 0, k ⁇ 1 and the temporary position P 0, k is
  • the magnitude of the rate of change vector obtained by the equations (18.1) and (18.2) is the unit tangent vector between the temporary position P 0, k ⁇ 1 and the temporary position P 0, k .
  • step S113 based on the change rate calculated in units calculated tangent vector and the change rate calculating section 52 by a unit tangent vector calculation unit 51, the temporary arc forming unit 53, temporary position P 0 of the sensor unit S k-1, A temporary arc L 0, k is formed between k ⁇ 1 and the temporary position P 0, k of the sensor unit S k (step S113).
  • temporary position P 0 calculated in step S112, k-1 and the temporary position P 0, the rate of change of the unit tangent vector between the k is, the temporary arc L 0, k of curvature 1 / R 0 of, k It becomes. Since the radius R 0, k of the tentative arc L 0, k is the inverse of the curvature 1 / R 0, k, the radius R 0, k of the tentative arc L 0, k is
  • the temporary arcs L 0, j other than the temporary arcs L 0, k are also formed by performing curve interpolation similarly between the temporary positions P 0, j ⁇ 1 and the temporary positions P 0, j . That is, when forming the temporary arc L 0, j , first, the unit tangent vector calculation unit 51 is located on the base end side (side closer to the origin of the global coordinate system C) between the interpolation target temporary positions. temporary position of j-1 P 0, j-1 unit tangent vector and interpolated temporary position between the distal end side of the sensor unit S tentative position P 0 of the j located (far side from the origin of the global coordinate system C) at, Calculate the unit tangent vector at j .
  • the unit tangent vector at the temporary position P 0, j ⁇ 1 of the sensor unit S j ⁇ 1 is an expression obtained by replacing k in the expressions (17.1), (17.2), and (17.3) with j.
  • the unit tangent vector at the temporary position P 0, j of the sensor unit S j uses an expression in which k in Expression (17.1), Expression (17.2), and Expression (17.3) is replaced with j + 1.
  • This is a unit vector of vectors from the temporary position P 0, j to the temporary position P 0, j + 1 .
  • a unit tangent vector at the temporary position P 0, i of each sensor unit S i is calculated (step S111).
  • step S112 the rate of change of the unit tangent vector between the temporary positions P 0, i of the respective sensor units S i is calculated (step S112).
  • the temporary arc forming unit 53 temporary position P 0 of the sensor unit S j-1, A temporary arc L 0, j is formed between the interpolation target temporary positions, which is between j ⁇ 1 and the temporary position P 0, j of the sensor unit S j .
  • the radius R 0, j , the center O 0, j , and the center angle of the temporary arc L 0, j are calculated using the formula (19), the formula (20), and the formula (21) in which k is replaced with j . ⁇ 0, j is obtained.
  • a temporary arc L 0, j between the temporary positions P 0, i of the respective sensor units S i is formed (step S113). Curve interpolation is performed between the temporary positions P 0, i of all the sensor units S i , and all the temporary arcs L 0, j are formed, whereby the temporary curve shape 75 is detected.
  • the provisional curved shape detection unit 50 is connected to the sensor position correcting unit 55 for correcting the position of each sensor unit S i.
  • the sensor position correcting unit 55 calculates the difference between the arc length R 0, j ⁇ 0, j of each temporary arc L 0, j of the temporary curve shape 75 detected by the temporary curve shape detecting unit 50 and the inter-sensor dimension l. based on the absolute value, to correct the position of the respective sensor units S i.
  • the absolute value of the difference between the arc length R 0, j ⁇ 0, j of the temporary arc L 0, j and the inter-sensor dimension l is defined as energy E 0, j .
  • Figure 11 is a view of the position of the respective sensor units S i that has been modified by the sensor position correcting unit 55 from the negative Z-axis of the global coordinate C toward the positive direction. As shown in FIG. 11, the sensor position correction unit 55 corrects each sensor unit S i from the temporary position P 0, i to the final position P F, i .
  • Sensor position correcting unit 55 is provided with a sensor position sequentially correcting unit 57 performs sequentially position correction from the sensor unit S i of the base end side (close to the origin of the global coordinate system C). In a state before the position correction of each sensor unit S i is performed by the sensor position sequential correction unit 57, each sensor unit S i is moved from the temporary position P 0, i to the pre-correction position Q 0, i . (Details will be described later). The sensor position sequential correction unit 57 corrects the position of each sensor unit S i from the pre-correction position Q 0, i to the final position P F, i .
  • the sensor position correcting unit 55 each time the by sensor position sequentially correcting unit 57 is position correction of one sensor unit S i is performed, the uncorrected sensor group 77 which is a sensor unit S i the position correction not completed An uncorrected sensor group moving unit 59 for parallel movement is provided.
  • the sensor position sequentially correcting unit 57 all of the sensor units S i before correction position Q 0, i final position from the P F, position correction to i are performed.
  • the pre-correction position Q 0, i is the position of the respective sensor units S i immediately before the position correction is performed by the sensor position sequentially correcting unit 57.
  • the uncorrected sensor group moving unit 59 performs the correction from the pre-correction position Q 0, i to the final position PF , of the immediately preceding correction target sensor 79 which is the sensor unit Si that has been corrected by the previous position correction by the sensor position sequential correction unit 57 .
  • the uncorrected sensor group 77 is translated by the correction amount to i .
  • a indicates the number of times each sensor unit Si is moved in parallel by the uncorrected sensor group moving unit 59.
  • the pre-translational position U 0, i of the first translation by the uncorrected sensor group moving unit 59 of each sensor unit S i coincides with the temporary position P 0, i .
  • Each sensor unit S i is translated (i ⁇ 1) times by the uncorrected sensor group moving unit 59.
  • the post-translational position U i ⁇ 1, i of the (i ⁇ 1) -th translation by the uncorrected sensor group moving unit 59 of each sensor unit S i coincides with the pre-correction position Q 0, i .
  • each sensor unit S i is changed from the temporary position P 0, i to the final position P F, i. The position is corrected.
  • the sensor position sequential correction unit 57 includes a sensor moving unit 61 that moves the correction target sensor 81, which is a position correction target, at least once from the pre-correction position Q0 , i before position correction.
  • t indicates the number of times each sensor unit Si has moved by the sensor moving unit 61.
  • the sensor position sequential correction unit 57 is located on the proximal side (the side closer to the origin of the global coordinate system C) with respect to the correction target sensor 81 each time the correction target sensor 81 is moved once by the sensor moving unit 61.
  • a post-movement arc forming section that interpolates between the final position P F, i of the proximal side adjacent sensor 82 that is the sensor unit S i that is provided next to the post-movement position Q t, i of the correction target sensor 81 62.
  • Final position of the proximal next set sensor 82 in the post-movement arc forming section 62 P F, i and correction movement after position Q t of the target sensor 81, by curve interpolation between the i, after movement arc L t, j is formed.
  • the sensor position sequential correction unit 57 has a predetermined absolute value of the difference between the arc length R t, j ⁇ t, j of the post-movement arc L t, j formed by the post-movement arc forming unit 62 and the inter-sensor dimension l.
  • a movement control unit 63 is provided that controls the sensor moving unit 61 so that the movement of the correction target sensor 81 from the pre-movement position Q t ⁇ 1, i to the post-movement position Q t, i is repeatedly performed until the value becomes equal to or less than the threshold value.
  • the sensor position sequential correction unit 57 determines the post-movement position Q F, i in the final movement (for example, F-th movement) by the sensor moving unit 61 as the final position P F, i of the correction target sensor 81.
  • a position determination unit 64 is provided. Detailed processing in the sensor moving unit 61, the post-moving arc forming unit 62, the movement control unit 63, and the final position determining unit 64 will be described later.
  • the sensor position correcting unit 55 how to correct the position of the respective sensor units S i will be described.
  • the sensor position correction unit 55 is configured such that the sensor position correction unit 55 includes arc lengths R 0, j of the temporary arcs L 0, j of the temporary curve shape 75 detected by the temporary curve shape detection unit 50 . based on the absolute value of the difference between j ⁇ 0, j and the sensor dimension between l, to correct the position of the respective sensor units S i (step S106). That is,
  • each sensor unit S i is corrected based on the energy E 0, j obtained in step (1). Thereby, each sensor unit S i is corrected from the temporary position P 0, i to the final position P F, i .
  • the provisional curve shape detection unit 50 forms the provisional curve shape 75 with few errors from the actual curve shape of the insertion unit 11.
  • the provisional curved shape detecting unit 50 in view of the sensor between the dimensions l, not performing curve interpolation between the respective sensor units S i. Further, the measurement data of each sensor unit S i has an error due to noise or the like. Therefore, in view of the sensor between the dimensions l, based on the absolute value of the difference between the arc length R 0, j ⁇ 0, j and the sensor dimension between l of each tentative arc L 0, j, each of the sensor units S It is important to correct the position of i .
  • Figure 12 is a flowchart illustrating a method for correcting the position of the respective sensor units S i by the sensor position correcting unit 55.
  • FIG. 13 is a diagram for explaining processing by the sensor position sequential correction unit 57.
  • FIG. 12 when modifying the position of the respective sensor units S i is the base end side by the sensor position sequentially correcting unit 57 sequentially from the sensor unit S i of (the side close to the origin of the global coordinate system C) Then, position correction from the uncorrected position Q 0, i before position correction of each sensor unit S i to the final position PF , i is performed.
  • the pre-correction position Q 0, i is the position of each sensor unit S i immediately before the position correction is performed by the sensor position sequential correction unit 57, and each sensor unit S i is the temporary position P 0, i.
  • the position is translated (i-1) times.
  • Sensor position sequentially correcting unit 57 starts the position correction of the proximal-most sensor unit S i in the uncorrected sensor group 77 (step S121). That is, as shown in FIG.
  • the sensor unit Sk is a correction target sensor 81 that is a position correction target.
  • the correction when starting the position correction of the sensor unit S k is the target sensor 81, the sensor unit S k-1 to the uncorrected position Q 0, i from the last position P F, position correction to i Has been completed.
  • the sensor unit Sk is located at the pre-correction position Q 0, k .
  • the sensor moving unit 61 the sensor unit S k is moved to a position Q 1, k from the position Q 0, k (step S122), the movement of the first sensor unit S k is performed.
  • the position Q 0, k is the pre-movement position
  • FIG. 14 is a diagram for explaining processing in the sensor moving unit 61 and the post-moving arc forming unit 62.
  • the movement of the s-th sensor unit S k is a correction target sensor 81 moves from the pre-movement position Q s-1, k post-movement position Q s, up to k. That is, the sensor unit Sk is moved from the pre-movement position Q t ⁇ 1, k to the post-movement position Q t, k by one movement by the sensor moving unit 61 (step S122).
  • the post-movement arc L t, k is formed of (step S123).
  • the sensor unit S k-1 is the proximal next set sensor 82 is provided adjacent to the side close to the origin of the global coordinate system C to the sensor unit S k is a correction target sensor 81.
  • a unit tangent vector at the rear position Q s, k is calculated.
  • the unit tangent vector at the final position P F, k-1 of the sensor unit S k-1 is
  • the unit tangent vector at the final position P F, k ⁇ 1 is a unit vector of vectors from the final position P F, k ⁇ 1 to the post - movement position Q s, k .
  • the distal side is provided adjacent to the side farther from the origin of the global coordinate system C to the sensor unit S k is a correction target sensor 81 It is assumed that the sensor unit S k + 1 that is the adjacent sensor 83 is disposed at the position Q ′ s, k + 1 .
  • the vector of the movement after the position Q s, the k position Q's, until k + 1 is a vector from the temporary position P 0, k of the sensor unit S k to the sensor unit S k + 1 of the temporary position P 0, k + 1 orientations And the size is the same.
  • the sensor unit S k post-movement position Q s, the unit vector of the k is,
  • a unit tangent vector at k is the unit vector of the vector of the post-movement position Q s, the k sensor units S k + 1 position Q's, until k + 1. Therefore, the unit tangent vector at the post-movement position Q s, k has the same direction as the unit tangent vector obtained by replacing k with k + 1 in Equations (17.1) to (17.3).
  • the final position P of the sensor unit Sk ⁇ 1 is obtained.
  • the rate-of-change vector of the unit tangent vector between the final position P F, k ⁇ 1 and the post - movement position Q s, k is
  • the unit rate vector between the final position P F, k ⁇ 1 and the post - movement position Q s, k is the magnitude of the rate of change vector obtained by the expressions (25.1) and (25.2). Change rate.
  • the rate of change of the unit tangent vector between the final position PF , k ⁇ 1 calculated by the equations (25.1) and (25.2) and the post - movement position Q s, k is the post-movement
  • the curvature of the arc L s, k is 1 / R s, k .
  • the radius R s, k of the k is the reciprocal of the curvature 1 / R s, k, after moving the arc L s, k of radius R s, k is
  • the sensor unit S k of s-th post-movement arc L s after movement has been described a process for forming a k, for even after the movement of other than the s-th sensor unit S k, the formula (23.1) to formula in (28), in a similar manner using the equation obtained by replacing s in t, the sensor unit S k-1 of the last position P F, k-1 and the sensor unit S k post-movement position Q t of between k After the movement, an arc L t, k is formed.
  • the absolute value of the difference between the post-movement arc L t, the arc length of the k R t, k phi t, k and the sensor dimension between l by the movement control unit 63 Calculated (step S124).
  • the absolute value of the difference between the post-movement arc L t, the arc length of the k R t, k ⁇ t, k and the sensor dimension between l energy E t, and k
  • the process returns to step S122, and the sensor moving unit 61 further moves the sensor unit Sk from the position Q t, k .
  • the sensor moving unit 61 controls the movement to t, k repeatedly.
  • step S124-Yes If the energy Et, k is equal to or less than the predetermined threshold (step S124-Yes), the process proceeds to the next step. Then, the final position determination unit 64, the last round of the sensor unit S k by the sensor moving part 61 (e.g., F th) after the movement of the mobile position Q F, a k, of the sensor unit S k is a correction target sensor 81 The final position P F, k is determined (step S125). As described above, the sensor unit S k of the pre-correction position Q 0, k from the last position P F, the position corrections to k is completed.
  • the sensor unit S k of the pre-correction position Q 0, k from the last position P F, the position corrections to k is completed.
  • the sensor moving unit 61 causes the sensor unit Si to move from the pre-movement position Q t ⁇ 1, i to the post-movement position Q t, i (step S122).
  • Step S123 each time the movement of the sensor unit S i is performed once by the sensor moving unit 61, the post-movement arc forming section 62, proximal next set sensors disposed adjacent to the base end side of the sensor unit S i 82 is a sensor unit S i-1 of the last position P F, i-1 and the sensor unit S i moved after the position Q t of between i is curve interpolation, the post-movement arc L t, j is formed (Step S123).
  • step S124 the absolute value of the difference between the arc length R t, j phi t, j and the sensor dimension between l of j A certain energy Et, j is calculated (step S124).
  • the process returns to Step S122, and the sensor moving unit 61 further moves the sensor unit Si from the position Q t, i .
  • the energy E t, j is equal to or smaller than the predetermined threshold (step S124—Yes)
  • the process proceeds to the next step.
  • the final position determining unit 64 uses the post-movement position Q F, i in the final movement of the sensor unit S i by the sensor moving unit 61 as the final position P F, i of the sensor unit Si that is the correction target sensor 81 . i is determined (step S125). As described above, the pre-correction position of the sensor unit S i Q 0, i from the last position P F, position correction to i is completed.
  • FIG. 15 is a diagram for explaining processing in the uncorrected sensor group moving unit 59.
  • the sensor unit S k + 1 ⁇ S N the uncorrected sensor group 77 whose position correction has not been completed.
  • the sensor unit Sk is the immediately preceding correction target sensor 79 that was the correction target in the previous position correction by the sensor position sequential correction unit 57.
  • each sensor unit S i of the uncorrected sensor group 77 moves from the position U k ⁇ 1, i before translation to the position U k, i after translation.
  • each sensor unit S i of the uncorrected sensor group 77 has a position U k ⁇ 1, i before the parallel movement, and each sensor unit S i is moved from the temporary position P 0, i by the uncorrected sensor group moving unit 59.
  • (k-1) is a position in which only movement times, with the current translation, each of the sensor units S i uncorrected sensor group 77 and thus moved in parallel by k times by the uncorrected sensor group moving section 59.
  • the sensor unit S k + 1 of the translation after the position U k, k + 1 is the uncorrected position Q 0, k + 1 and consistent
  • the sensor unit S final position P F of k, the sensor from k units S k + 1 of the translation after the position U k, the vector of the k + 1 are identical in vector and the direction and magnitude of the temporary position P 0, k of the sensor unit S k to the tentative position P 0, k + 1 of the sensor unit S k + 1.
  • uncorrected sensor group 77 is translated. That is, uncorrected sensor group moving section 59, immediately before the correction target sensor 79 is positioned Q 0 before correction by the sensor position sequentially correcting unit 57, i final position from the P F, only the corrected correction amount to i, uncorrected sensor group 77 is translated (step S126). As a result, the uncorrected sensor group 77 translates from the position U a-1, i before translation to the position U a, i after translation.
  • step S127 to confirm whether the positional correction for all of the sensor units S i has been completed. If the positional correction for all of the sensor units S i is completed (step S127-Yes), the process proceeds to the next step. If the positional correction for all of the sensor units S i is not completed (step S127-No), the process returns to step S121, the sensor position sequentially correcting unit 57, the most proximal sensor in uncorrected sensor group 77 position correcting unit S i is performed. That is, steps S121 ⁇ S126 is, until the position correction for all of the sensor units S i completed are repeated.
  • each sensor unit is subjected to position correction from the pre-correction position Q 0, i to the final position PF , i position in the sensor position sequential correction unit 57 and parallel movement in the uncorrected sensor group moving unit 59.
  • S i is corrected from the temporary position P 0, i to the final position P F, i .
  • the sensor position correction unit 55 is connected to the final curve shape detection unit 65.
  • the final curve shape detection unit 65 interpolates between the final positions P F, i of the respective sensor units S i with a final arc L F, j and detects the final curve shape 85 of the insertion unit 11.
  • FIG. 16 is a view of the final curve shape 85 of the insertion unit 11 of the endoscope 10 detected by the final curve shape detection unit 65 as viewed from the negative Z axis of the global coordinate C toward the positive direction.
  • the final curve shape detection unit 65 performs curve interpolation between the final positions P F, i of the respective sensor units S i . As a result, each final arc LF , j is formed, and the final curve shape 85 is detected.
  • the final curve shape detection unit 65 is calculated by a parameter calculation unit 67 that calculates a parameter of each final arc L F, j based on the final position P F, i of each sensor unit S i , and a parameter calculation unit 67. And a final arc forming portion 69 for forming a final arc PF , i based on the set parameters.
  • the final arc forming unit 69 uses the quaternion (quaternion) and the interpolating function L F, j (t) using the parameter t to determine the final value of each sensor unit S i at a constant angular velocity with respect to the change of the parameter t. Curve interpolation is performed between positions P F, i to form a final arc L F, j .
  • a drawing unit 45 is connected to the final curve shape detection unit 65.
  • the final curve shape 85 of the insertion unit 11 in the global coordinate system C detected by the final curve shape detection unit 65 is drawn by the drawing unit 45.
  • the surgeon can confirm the final curve shape 85 drawn by the drawing unit 45 on the display unit 47.
  • the final curve shape detection unit 65 performs curve interpolation between the final positions P F and i of the respective sensor units S i corrected in step S 106 using the final arc L F and j .
  • the final curve shape 85 is detected (step S107). Thereby, curve interpolation between the final positions P F, i of the respective sensor units S i is performed in consideration of the inter-sensor dimension l, and the final curve shape 85 with high detection accuracy is detected.
  • the final curve shape detection unit 65 sequentially performs curve interpolation between the final positions P F, i of the respective sensor units S i to form the final arc L F, j . .
  • a method of performing curve interpolation between the final positions P F, i of the respective sensor units S i by the final curve shape detection unit 65 will be described.
  • curve interpolation between the kth sensor unit Sk-1 from the base end side and the (k + 1) th sensor unit Sk from the base end side will be described. That is, the interval between the final position P F, k ⁇ 1 and the final position P F, k is the interpolation target final position that is the interpolation target.
  • FIG. 17 is a flowchart showing a method for detecting the final curve shape 85 by the final curve shape detection unit 65.
  • FIG. 18 is a diagram for explaining processing in the final curve shape detection unit 65.
  • the final curve shape final position P F of the detection unit 65 sensor unit S k-1, k-1 and the final position P F of the sensor unit S k
  • the interpolation is between k
  • the parameter calculation unit 67 calculates the parameters of the final arcs L F, k based on the final positions P F, k-1 and the final positions P F, k. (Step S131).
  • the unit tangent vector at the final position P F, k ⁇ 1 is a unit vector of vectors from the final position P F, k ⁇ 1 to the final position P F, k .
  • the unit tangent vector at the final position P F, k of the sensor unit S k is obtained using an equation in which k in Equation (30.1), Equation (30.2), and Equation (30.3) is replaced with k + 1. It is done. That is, the unit tangent vector at the final position P F, k is a unit vector of vectors from the final position P F, k to the final position P F, k + 1 .
  • the rate-of-change vector of the unit tangent vector between the final position P F, k ⁇ 1 and the final position P F, k is
  • the magnitude of the rate of change vector obtained by the equations (31.1) and (31.2) is the unit tangent vector between the final position PF , k-1 and the final position PF , k .
  • equation (30.3) based on to (31.2) unit tangent vector and the change rate calculated by, the sensor unit S k-1 final position P F, the k-1 and the sensor unit S k
  • the parameter of the final arc L F, k between the final position P F, k is calculated.
  • the radius R F, k of the final arc L F, k is the reciprocal of the rate of change k calculated using the equations (31.1) and (31.2).
  • the parameter calculator 67 calculates the parameters of the final arc L F, j . That is, the parameters of each final arc L F, j are calculated based on the final position P F, i of each sensor unit S i (step S131).
  • the final arc forming unit 69 performs curve interpolation between the final positions P F, i of the respective sensor units S i.
  • An arc L F, j is formed (step S132).
  • the final arc LF , j is formed by an interpolation function using quaternions (quaternions) and parameters.
  • the quaternion is a number obtained by extending a complex number
  • Equation (35) It appears in. I, j, and k in Equation (35) represent imaginary units
  • Equation (38) the vector calculated by Equation (38) is quaternion
  • the X-axis direction component of the calculated global coordinate system C is the quaternion imaginary number i component.
  • the Y-axis direction component of the vector global coordinate system C becomes the quaternion imaginary number j component
  • the Z-axis direction component of the vector global coordinate system C becomes the quaternion imaginary number k component.
  • the interpolation function L F by varying the t from 0 to 1 k (t), the sensor unit S k-1 of the last position P F, k-1 and the sensor unit S k of the final position P F, k Are interpolated to form a final arc LF , k .
  • curve interpolation is performed between the final position P F, k-1 and the final position P F, k at a constant angular velocity with respect to the change of the parameter t.
  • the distance d1 interpolated while t changes from 0 to 0.1 and the distance d2 interpolated while t changes from 0.5 to 0.6 are the same (see FIG. 18). Therefore, when interpolating between the final position P F, k-1 and the final position P F, k , it is not necessary to consider the change in angular velocity, so the process of forming the final arc L F, k is simplified. Is done.
  • the final arc L F, j other than the final arc L F, k is also formed using the interpolation function L F, j (t).
  • the interpolation function L F, j (t) is calculated using an expression in which k in Expression (37) to Expression (42) is replaced with j. Also in this case, between the final positions P F, i of the respective sensor units S i , curve interpolation is performed at a constant angular velocity with respect to the change of the parameter t of the interpolation function L F, j (t).
  • the final curved shape 85 of the insertion portion 11 of the endoscope 10 is detected.
  • step S108 when the final curve shape 85 is detected by the final curve shape detection unit 65, it is confirmed whether the inspection by the endoscope shape detection device 1 is completed (step S108). If the inspection has not been completed (No at Step S108), the process returns to Step S101 to detect the shape of the insertion portion 11 of the endoscope 10 in the next static state. If the inspection has been completed (step S108—Yes), the shape detection of the insertion portion 11 of the endoscope 10 ends.
  • the endoscope shape detection device 1 having the above-described configuration and the shape detection method of the insertion portion 11 of the endoscope 10 using the endoscope shape detection device 1 have the following effects. That is, in the endoscope shape detecting apparatus 1, the orientation detection unit 30 from the measurement data of the respective sensor units S i detects the orientation of the sensor unit S i, the attitude of the sensor tentative position detecting unit of the respective sensor units S i detecting a tentative position P 0, i of each sensor unit S i at 40. Then, the provisional curve shape detecting unit 50 performs curve interpolation between the provisional positions P 0, i of the respective sensor units S i using the provisional arc L 0, j to detect the provisional curve shape 75.
  • the sensor position correcting unit 55 based on the absolute value of the difference between the arc length R 0, j ⁇ 0, j and the sensor dimension between l of each tentative arc L 0, j provisional curve shape 75, respectively The position of the sensor unit S i is corrected. Then, the final curve shape detection unit 65 performs curve interpolation between the final positions P F, i of the respective sensor units S i whose positions have been corrected by the final arc L F, j , and detects the final curve shape 85. As described above, the measurement data of the sensor units S i arranged in the insertion portion 11 to be inserted into a body cavity during the observation, since the final curve shape 85 of the insertion portion 11 is detected, providing the sense coil or the like outside the body There is no need. For this reason, size reduction and simplification of the endoscope shape detection apparatus 1 can be realized.
  • the sensor moving unit 61 moves the sensor unit S i from the pre-movement position Q t ⁇ 1, i to the post-movement position Q t, Move to i .
  • the sensor unit S i-1 adjacent to the proximal end side with respect to the sensor unit S i is formed by the post-movement arc forming unit 62.
  • the sensor unit S i of the sensor unit S i is subjected to curve interpolation to form a post-movement arc L t, j .
  • the absolute value of the difference between the arc length R t, j phi t, j and the sensor dimension between l of j is calculated.
  • the sensor moving unit 61 further moves the sensor unit Si from the position Qt, i .
  • the final position determination unit 64 After movement in the last round of the movement of the sensor unit S i by the sensor moving unit 61 position Q F, a i, the correction target sensor 81 Is determined as the final position P F, i of the sensor unit S i . That is, the energy E t, j until less than or equal to a certain threshold, the movement of the sensor unit S i by the sensor moving unit 61 is repeated.
  • the position correction of the respective sensor units S i by the sensor position sequentially correcting unit 57 is performed, the actual The shape of the insertion portion 11 and the final curve shape 85 with few errors can be detected. Thereby, the final curve shape 85 of the insertion part 11 can be detected with high accuracy.
  • the sensor position correcting unit 55 modifying the position of the sensor unit S i by the sensor position correcting unit 55, only the shape between the sensor units S i-1 and the sensor unit S i which is provided adjacent to the base end side of the sensor unit S i Is affected, and the temporary arc L 0, j is corrected to the final arc L F, j . That is, each time the position correction of the one sensor unit S i is performed, the structure is not made overall shape of the insertion portion 11 is corrected.
  • the sensor dimension between l is a longitudinal dimension between the respective sensor units S i, a local parameter of the insertion portion 11.
  • the inter-sensor dimension 1 is not a parameter that affects the shape of the entire insertion portion 11 but a parameter that locally affects the shape of the insertion portion 11. Therefore, since the shape of the insertion portion 11 is locally corrected in the vicinity of the position-corrected sensor unit S i by the correction of the position of one sensor unit S i , the final position from the provisional arc L 0, j is determined with high accuracy. Correction to the arc LF , j is performed. Thereby, the final curve shape 85 of the insertion part 11 can be detected with high accuracy.
  • the shape of the insertion portion 11 is locally corrected only in the vicinity of the position-corrected sensor unit S i due to the correction of the position of one sensor unit S i , a process for correcting the shape of the insertion portion 11 is performed. It can be simplified.
  • the final curved shape detection unit 65, the interpolation function L F by changing from 0 to t in j (t) to 1, the final position P F of the respective sensor units S i, between i is curve interpolation , Each final arc LF , j is formed.
  • curve interpolation is performed at a constant angular velocity with respect to the change of the parameter t. Therefore, when interpolating between the respective final positions P F, i , it is not necessary to consider the change in angular velocity, so that the process of forming each final arc L F, j can be simplified.
  • the acceleration sensor A i measures gravitational acceleration
  • the geomagnetic sensor B i measures geomagnetism.
  • gravitational acceleration and geomagnetism always have a certain magnitude in a certain direction.
  • To detect the orientation of the gravitational acceleration, respectively from the geomagnetic sensor unit S i it is possible to detect the orientation of the sensor unit S i with high accuracy even in a static state. Thereby, the final curve shape 85 of the insertion part 11 can be detected with high accuracy.
  • Sensor position correcting unit 55 of the present embodiment sequentially from the sensor unit S i of the base end side (close to the origin of the global coordinate system C), the respective sensor units S i uncorrected position Q 0, i final position from the P F, the sensor position sequentially correcting unit 57 to perform the position correction to i, each time the position correction of the one sensor unit S i is performed by the sensor position sequentially correcting unit 57, position comprises correcting the uncorrected sensor group 77 and uncorrected sensor group moving section 59 for moving parallel with the sensor unit S i has not completed, the.
  • the sensor position sequential correction unit 57 includes a sensor moving unit 61 that moves the correction target sensor 81, which is a position correction target, from the pre-correction position Q0 , i at least once. By one movement by the sensor moving unit 61, the correction target sensor 81 moves from the pre-movement position Q t ⁇ 1, i to the post-movement position Q t, i . Further, the sensor position sequential correction unit 57 is located on the proximal side (the side closer to the origin of the global coordinate system C) with respect to the correction target sensor 81 each time the correction target sensor 81 is moved once by the sensor moving unit 61.
  • a post - movement arc L is obtained by performing curve interpolation between the final position P F, i-1 of the proximal adjacent sensor 82 and the post-movement position Q t, i of the correction target sensor 81 in the post-movement arc forming section 62.
  • t, j are formed.
  • the sensor position sequential correction unit 57 performs curve interpolation between the final position P F, i ⁇ 1 of the proximal adjacent sensor 82 and the pre-movement position Q t ⁇ 1, i before the correction target sensor 81 moves. with respect to the absolute value of the difference between the pre-movement arc L t-1, the arc length of the j R t-1, j ⁇ t-1, j and the sensor dimension between l to be formed, after the movement arc L t, the j A movement control unit 63 that controls the sensor moving unit 61 so as to repeat the movement of the correction target sensor 81 a predetermined number of times when the absolute value of the difference between the arc length R t, j ⁇ t, j and the inter-sensor dimension l becomes small Prepare.
  • the absolute value of the difference between the arc length R t ⁇ 1, j ⁇ t ⁇ 1, j of the pre-movement arc L t ⁇ 1, j and the inter-sensor dimension l is defined as energy E t ⁇ 1, j .
  • the absolute value of the difference between the arc length R t, j phi t, j and the sensor dimension between l of j energy E t, and j is defined as energy E t ⁇ 1, j .
  • the sensor position sequential correction unit 57 includes a final position determination unit 64 that determines the post-movement position Q F, i in the final movement by the sensor movement unit 61 as the final position P F, i of the correction target sensor 81.
  • the sensor position correcting unit 55 how to correct the position of the respective sensor units S i will be described.
  • the sensor position correcting unit 55 is configured to use arc lengths R 0, j ⁇ 0, j of the temporary arcs L 0, j of the temporary curve shape 75 detected by the temporary curve shape detection unit 50. and based on the absolute value of the difference between the sensor dimension between l, to correct the position of the respective sensor units S i (step S106 in FIG. 4). That is, the position of each sensor unit S i is corrected based on the energy E 0, j obtained by Expression (22). Thereby, each sensor unit S i is corrected from the temporary position P 0, i to the final position P F, i .
  • Figure 19 is a flowchart illustrating a method for correcting the position of the respective sensor units S i by the sensor position correcting unit 55.
  • the base end side by the sensor position sequentially correcting unit 57 (the side close to the origin of the global coordinate system C sequentially from the sensor unit S i) of the final position P F, the position corrections to i are carried out from the uncorrected position Q 0, i of each sensor unit S i.
  • Sensor position sequentially correcting unit 57 starts the position correction of the proximal-most sensor unit S i in the uncorrected sensor group 77 (step S141).
  • the sensor position sequential correction unit 57 causes the uncorrected sensor group 77 to final position P F of the most proximal sensor unit S k at medium, position correction to k is started.
  • the correction target sensor 81 sensor unit S k is the position correction of the object. In the following description, from the base end side (k + 1) -th for the position correction of the sensor unit S k.
  • the sensor unit S k-1 When starting the positional correction is a correction target sensor 81 sensor unit S k, the sensor unit S k-1 to the final position P F, the position corrections to i are complete. At this time, the sensor unit Sk is located at the pre-correction position Q 0, k . In this state, the sensor moving unit 61, the sensor unit S k is moved to a position Q 1, k from the position Q 0, k (step S142), the movement of the first sensor unit S k is performed. Movement of the sensor unit S k by the sensor moving part 61 is performed more than once.
  • the movement of the s-th sensor unit S k is a correction target sensor 81 moves from the pre-movement position Q s-1, k post-movement position Q s, up to k. That is, the sensor unit Sk moves from the pre-movement position Q t ⁇ 1, k to the post-movement position Q t, k by one movement by the sensor moving unit 61 (step S142).
  • the post-movement arc forming unit 62 each time the movement of the sensor unit S k is performed once by the sensor moving unit 61, the post-movement arc forming unit 62, the sensor unit S k-1, which is provided adjacent to the base end side of the sensor unit S k final position P F, k-1 and the sensor unit S k post-movement position Q t of between k is curve interpolation, the post-movement arc L t, k is formed of (step S143).
  • the sensor unit S k-1 is the proximal next set sensor 82 is provided adjacent to the side close to the origin of the global coordinate system C to the sensor unit S k is a correction target sensor 81.
  • the post-movement arc L is obtained using the equations (23.1) to (28) as in the first embodiment.
  • the parameters of s and k are calculated. And using the calculated parameters, the final position P F, k-1 and the post-movement position Q s, after moving the arc L s between the k, k are formed.
  • the sensor unit S k of s-th to the post-movement arc L s after the move has been described a process for forming a k, for even after the movement of other than the s-th sensor unit S k, the formula (23.1) to formula in (28), in a similar manner using the equation obtained by replacing s in t, the sensor unit S k-1 of the last position P F, k-1 and the sensor unit S k post-movement position Q t of between k After movement, an arc L t, k is formed.
  • the sensor moving unit 61 is moved by the movement control unit 63 between the final position P F, k ⁇ 1 of the proximal side adjacent sensor 82 and the pre-movement position Q t ⁇ 1, k before the correction target sensor 81 is moved.
  • the post-movement arc L with respect to the absolute value of the difference between the arc length R t-1, k ⁇ t-1, k of the pre-movement arc L t-1, k formed by curve interpolation and the inter-sensor dimension l
  • the correction target sensor 81 is controlled to be moved in such a manner that the absolute value of the difference between the arc lengths R t, k ⁇ t, k of t, k and the inter-sensor dimension l is reduced.
  • the absolute value of the difference between the post-movement arc L t, the arc length of the k R t, k ⁇ t, k and the sensor dimension between l energy E t, and k as in the first embodiment formula ( 29). Further, the absolute value of the difference between the arc length R t ⁇ 1, k ⁇ t ⁇ 1, k of the pre-movement arc L t ⁇ 1, k and the inter-sensor dimension l is defined as energy E t ⁇ 1, k , and the equation (29 ) In which t is replaced by t ⁇ 1.
  • the sensor moving unit 61, the energy E t after the movement, k is performing the movement of the sensor unit S k is a correction target sensor 81 becomes smaller than that energy E t-1, k before movement (step S142).
  • the sensor unit S arc L s-1, k before movement in the movement of the s-th k has a post-movement arc L s-1, k at the sensor unit S k (s-1) th movement It is the same arc.
  • the pre-movement arc L s ⁇ 1, k in the s- th movement of the sensor unit S k is formed by using an expression in which s is replaced by s ⁇ 1 in Expressions (23.1) to (28). .
  • the movement control unit 63 determines whether or subjected to movement of a correction target sensor 81 sensor unit S k by a predetermined number of times (step S144). If you have not done the movement of the sensor unit S k by a predetermined number of times (step S144-No), the process returns to step S122, sensor moving unit 61 sensor unit S k a position Q t, is further moved from k. In this case, after the movement of the s-th sensor unit S k, the sensor moving part 61 (s + 1) -th movement is performed. With the (s + 1) th movement, the sensor unit Sk moves from the pre-movement position Q s, k to the post-movement position Q s + 1, k .
  • the sensor moving unit 61 after moving from a previous movement of the sensor unit S k is a correction target sensor 81 position Q t-1, k position Q t, the moving state of the repeated predetermined number of times to k Further, the movement control unit 63 controls the movement.
  • step S144-Yes When the sensor unit Sk has been moved a predetermined number of times (step S144-Yes), the process proceeds to the next step. Then, the final position determination unit 64, the last round of the sensor unit S k by the sensor moving part 61 (e.g., F th) after the movement of the mobile position Q F, a k, of the sensor unit S k is a correction target sensor 81 The final position P F, k is determined (step S145). As described above, the position correction of the sensor unit Sk to the final position PF , k is completed.
  • the sensor moving part 61 e.g., F th
  • the sensor moving unit 61 causes the sensor unit Si to move from the pre-movement position Q t ⁇ 1, i to the post-movement position Q t, i (step S142).
  • the post-movement arc forming unit 62 the sensor unit S i-1, which is provided adjacent to the base end side of the sensor unit S i
  • the sensor moving unit 61 applies the arc L t after movement to the absolute value of the difference between the arc length R t ⁇ 1, j ⁇ t ⁇ 1, j of the arc L t ⁇ 1, j before movement and the inter-sensor dimension l.
  • step S142 the state in which the absolute value of the difference between the arc length R t, j phi t, j and the sensor dimension between l of j is small, has moved a sensor unit S i (step S142). That is, the energy E t after the movement, the state j is smaller than the energy E t-1, j before movement, is moved a sensor unit S i is a correction target sensor 81.
  • the movement control unit 63 determines whether the sensor unit Si has been moved a predetermined number of times (step S144). If the movement of the sensor unit S i has not been performed a predetermined number of times (step S144-No), the flow returns to step S142, the sensor moving part 61 is positioned a sensor unit S i Q t, it is further moved from i. If the sensor unit Si has been moved a predetermined number of times (step S144-Yes), the process proceeds to the next step.
  • the final position determination unit 64 after movement in the last round of the movement of the sensor unit S i by the sensor moving unit 61 position Q F, a i, final position P F of the sensor unit S i is a correction target sensor 81, i is determined (step S145). As described above, the position correction of the sensor unit S i to the final position P F, i is completed.
  • step S147 to confirm whether the positional correction for all of the sensor units S i has been completed. If the positional correction for all of the sensor units S i is completed (step S147-Yes), the process proceeds to the next step. If the positional correction for all of the sensor units S i is not completed (step S147-No), the process returns to step S141, the sensor position sequentially correcting unit 57, the most proximal sensor in uncorrected sensor group 77 position correcting unit S i is performed. That is, steps S141 ⁇ S146 is, until the position correction for all of the sensor units S i completed are repeated.
  • the endoscope shape detection device 1 configured as described above and the shape detection method of the insertion portion 11 of the endoscope 10 using the endoscope shape detection device 1 include: The following effects are achieved. That is, in the endoscope shape detecting apparatus 1, when correcting the position of the respective sensor units S i by sensor position sequentially correcting unit 57, sensor moving unit 61 before the movement of the sensor unit S i position Q t-1, Move from i to post-movement position Q t, i .
  • the sensor unit S i-1 adjacent to the proximal end side with respect to the sensor unit S i is formed by the post-movement arc forming unit 62.
  • the sensor moving unit 61 applies the arc L t after movement to the absolute value of the difference between the arc length R t ⁇ 1, j ⁇ t ⁇ 1, j of the arc L t ⁇ 1, j before movement and the inter-sensor dimension l.
  • the movement control unit 63 determines whether the sensor unit Si has been moved a predetermined number of times. When the sensor unit S i has not been moved a predetermined number of times, the sensor moving unit 61 further moves the sensor unit S i from the position Q t, i .
  • the final position determination unit 64 corrects the post-movement position Q F, i in the last movement of the sensor unit S i by the sensor movement unit 61.
  • final position P F of the sensor unit S i is the target sensor 81 is determined as a i. That is, until the movement of the sensor unit S i is performed a predetermined number of times, the movement of the sensor unit S i by the sensor moving unit 61 is repeated.
  • the position correction of the respective sensor units S i by the sensor position sequentially correcting unit 57 is performed, the actual The shape of the insertion portion 11 and the final curve shape 85 with few errors can be detected. Thereby, the final curve shape 85 of the insertion part 11 can be detected with high accuracy.
  • each local coordinate system C i is a coordinate system in which the Y i axis direction coincides with the longitudinal direction at the center of the sensor unit S i .
  • each local coordinate system C i has the center of the sensor unit S i as the origin, and any one of the X i axis, the Y i axis, and the Z i axis is the longitudinal direction at the center of the sensor unit S i. Any coordinate system may be used as long as the longitudinal axes coincide with each other.
  • X i axis is a longitudinal axis, instead of the formula (16.1), formula (16.2),
  • the vector of the equation (43.2) is a unit vector in the X k-1 axis direction which is the longitudinal direction at the origin of the local coordinate system C k-1
  • the vector of the equation (44.2) is a local coordinate. This is a unit vector in the Z k-1 axis direction which is the longitudinal direction at the origin of the system C k-1 .
  • the global coordinate system C has the center of the most proximal sensor unit S 0 as the origin, the Z axis coincides with the vertical direction, and the X axis and the Y axis are arranged on the horizontal plane. Coordinate system. However, any one of the X axis, the Y axis, and the Z axis is a vertical axis whose axial direction coincides with the vertical direction, and two axes other than the vertical axis are horizontal axes arranged on a horizontal plane. Any coordinate system may be used.
  • the posture detecting section 30 can detect the orientation of the respective sensor units S i.
  • the X-axis is a vertical axis
  • the X-axis direction component, the Y-axis direction component, and the Z-axis direction component of the global coordinate system C of the gravitational acceleration vector expressed by Equation (2) are
  • the posture angles ⁇ i , ⁇ i , ⁇ i are (Z, X, Y) types that rotate in the order of the yaw angle ⁇ i , the pitch angle ⁇ i , and the roll angle ⁇ i .
  • the rotation matrix different from the rotation matrix of Expression (1) is used by changing the rotation order of the posture angles ⁇ i , ⁇ i , and ⁇ i .
  • the first angle calculation unit 34 calculates the posture angles ⁇ i and ⁇ i around the Y axis and the Z axis, which are horizontal axes.
  • the second angle calculator 36 calculates the attitude angle ⁇ i around the X axis that is the vertical axis. The same applies to the case where the Y axis is the vertical axis.
  • the first angle calculation unit 34 Based on the acceleration data measured by the acceleration sensor A i , the first angle calculation unit 34 performs posture angles around the X axis and the Z axis, which are horizontal axes. ⁇ i and ⁇ i are calculated. Further, based on the geomagnetic data measured by the geomagnetic sensor B i , the second angle calculator 36 calculates the attitude angle ⁇ i around the Y axis that is the vertical axis.
  • the global coordinate system C although as the origin at the center of the sensor unit S 0 on the most proximal end side, the center may be used as the origin of the most distal end side of the sensor unit S N.
  • the temporary link forming unit 41 uses the expression obtained by replacing k in the expressions (16.1) and (16.2) with j + 1, and uses the tip side of the temporary link T 0, j (in the global coordinate system C).
  • the vector from the sensor unit S j on the side closer to the origin to the sensor unit S j ⁇ 1 on the base end side (the side far from the origin of the global coordinate system C) of the temporary link T 0, j is obtained.
  • a temporary link T 0, j is formed by a vector from the sensor unit S j to the sensor unit S j ⁇ 1 . That is, the temporary link forming unit 41 is configured such that the temporary link T 0, j is on the distal side (side closer to the origin of the global coordinate system C) than the center of the sensor unit S j on the distal side (the side far from the origin of the global coordinate system C) assuming) are extended in the longitudinal direction at the center of the front end side of the sensor unit S j to the center of the sensor unit S j-1 of forming a temporary link T 0, j.
  • Position correction is performed.
  • the sensor unit S i to be provided adjacent is proximally adjacent set sensor 82 on the distal end side of the correction target sensor 81 (the side close to the origin of the global coordinate system C).

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Human Computer Interaction (AREA)
  • Endoscopes (AREA)

Abstract

 内視鏡形状検出装置は、それぞれのセンサユニットの姿勢に基づいて、それぞれの前記センサユニットの間を寸法がセンサ間寸法に等しい直線状の仮リンクと仮定して、それぞれの前記センサユニットの仮位置を検出するセンサ仮位置検出部と、それぞれの前記センサユニットの前記仮位置に基づいて、それぞれの前記センサユニットの前記仮位置の間を仮円弧で曲線補間を行い、前記挿入部の仮曲線形状を検出する仮曲線形状検出部と、を備える。内視鏡形状検出装置は、それぞれの前記仮円弧の弧長と前記センサ間寸法との差の絶対値に基づいて、それぞれの前記センサユニットの位置を前記仮位置から最終位置まで修正するセンサ位置修正部と、それぞれの前記センサユニットの前記最終位置の間を最終円弧で曲線補間し、前記挿入部の最終曲線形状を検出する最終曲線形状検出部と、を備える。

Description

内視鏡形状検出装置及び内視鏡の挿入部の形状検出方法
 本発明は、体腔内に挿入される内視鏡を備える内視鏡形状検出装置及びその内視鏡形状検出装置の内視鏡の挿入部の形状検出方法に関する。
 近年、内視鏡の挿入部の形状を検出可能な内視鏡形状検出装置が実用化されている。特許文献1には、体腔内に挿入される内視鏡の挿入部に複数のソースコイルを取付けた内視鏡形状検出装置が開示されている。この内視鏡形状検出装置では、体外に設けられるセンスコイルにより、それぞれのソースコイルの位置が検出される。そして、検出されたソースコイルの位置に基づいて、内視鏡の挿入部の形状が検出される。
 また、特許文献2には、内視鏡の挿入部に配置されたそれぞれのコイルの位置を交流磁場から検出し、検出されたそれぞれのコイルの位置の間を曲線補間する内視鏡形状検出装置が開示されている。この内視鏡形状検出装置では、検出されたそれぞれのコイルの位置をベジェ曲線又はスプライン曲線で結ぶことにより、曲線補間を行っている。曲線補間を行うことにより、内視鏡の挿入部の曲線形状が検出される。
特開2000-175862号公報 特開2007-130175号公報
 上記特許文献1の内視鏡形状検出装置では、体腔内のソースコイルの位置を体外のセンスコイルで検出するため、検出装置が大型化するとともに、装置の構成が複雑化する。
 上記特許文献2の内視鏡形状検出装置では、検出されたそれぞれのコイルの位置をベジェ曲線又はスプライン曲線で結ぶことにより、曲線補間を行っている。しかし、この内視鏡形状検出装置では、それぞれのコイルの間の長手方向の寸法であるコイル間寸法を考慮して曲線補間を行っていない。このため、体腔内への挿入時の挿入部の形状は、高い精度で検出されない。
 例えば検出されたそれぞれのコイルの位置をスプライン曲線で結んで、挿入部の仮形状を検出した後に、コイル間寸法に基づいて、検出されたそれぞれのコイルの位置を順次に修正することも考えられる。この場合、1つのコイルの位置の修正が行われるたびに、位置修正後のコイルの位置をスプライン曲線で結び、コイル位置修正前の挿入部の検出形状を修正したコイル位置修正後の挿入部の修正形状が検出される。すなわち、1つのコイルの位置修正が行われるたびに、挿入部の曲線形状全体が修正される。ここで、コイル間寸法は、コイルとコイルの間の長手方向の寸法であり、挿入部の局所的なパラメータである。すなわち、コイル間寸法は、挿入部の形状に局所的に影響を与えるパラメータであり、挿入部全体の形状に影響を与えるパラメータではない。このため、1つのコイルの位置の修正により、位置修正されたコイルの近傍で局所的にセンサ位置修正前の挿入部の検出形状が修正されるのではなく、1つのコイルの位置の修正により、挿入部の曲線形状全体が修正される構成では、高い精度で挿入部の曲線形状の修正が行われない。したがって、最終的に挿入部の曲線形状が、高い精度で検出されない。また、スプライン曲線等の種類によっては1つのコイルの位置の修正により、挿入部の全体形状が修正されるため、処理が複雑になる。
 本発明は上記課題に着目してなされたものであり、その目的とするところは、装置の構成が大型化、複雑化することなく、かつ、処理が複雑化することなく、高い精度で挿入部の形状を検出可能な内視鏡形状検出装置及び内視鏡の挿入部の形状検出方法を提供することにある。
 上記目的を達成するため、本発明のある態様では、長手方向に互いに所定のセンサ間寸法だけ離れて複数のセンサユニットが配置される挿入部を備える内視鏡と、前記センサユニットの計測データに基づいて、それぞれの前記センサユニットの姿勢を検出する姿勢検出部と、前記姿勢検出部により検出されたそれぞれの前記センサユニットの姿勢に基づいて、それぞれの前記センサユニットの間を寸法が前記センサ間寸法に等しい直線状の仮リンクと仮定して、それぞれの前記センサユニットの仮位置を検出するセンサ仮位置検出部と、前記センサ仮位置検出部により検出されたそれぞれの前記センサユニットの前記仮位置に基づいて、それぞれの前記センサユニットの前記仮位置の間を仮円弧で曲線補間を行い、前記挿入部の仮曲線形状を検出する仮曲線形状検出部と、前記仮曲線形状検出部により検出された前記仮曲線形状のそれぞれの前記仮円弧の弧長と前記センサ間寸法との差の絶対値に基づいて、それぞれの前記センサユニットの位置を前記仮位置から最終位置まで修正するセンサ位置修正部と、それぞれの前記センサユニットの前記最終位置の間を最終円弧で曲線補間し、前記挿入部の最終曲線形状を検出する最終曲線形状検出部と、を備える内視鏡形状検出装置を提供する。
 また、本発明の別のある態様では、内視鏡の挿入部に、長手方向に互いに所定のセンサ間寸法だけ離れて配置される複数のセンサユニットで計測を行うことと、前記センサユニットでの計測データに基づいて、それぞれの前記センサユニットの姿勢を検出することと、 検出されたそれぞれの前記センサユニットの姿勢に基づいて、それぞれの前記センサユニットの間を寸法が前記センサ間寸法に等しい直線状の仮リンクと仮定して、それぞれの前記センサユニットの仮位置を検出することと、検出されたそれぞれの前記センサユニットの前記仮位置に基づいて、それぞれの前記センサユニットの前記仮位置の間を仮円弧で曲線補間を行い、前記挿入部の仮曲線形状を検出することと、検出された前記仮曲線形状のそれぞれの前記仮円弧の弧長と前記センサ間寸法との差の絶対値に基づいて、それぞれの前記センサユニットの位置を前記仮位置から最終位置まで修正することと、それぞれの前記センサユニットの前記最終位置の間を最終円弧で曲線補間し、前記挿入部の最終曲線形状を検出することと、を備える内視鏡の挿入部の形状検出方法を提供する。
 本発明によれば、装置の構成を大型化、複雑化することなく、かつ、処理が複雑化することなく、高い精度で挿入部の形状を検出可能な内視鏡形状検出装置及び内視鏡の挿入部の形状検出方法を提供することができる。
本発明の第1の実施形態に係る内視鏡形状検出装置の構成を示すブロック図。 第1の実施形態に係る内視鏡の挿入部の構成を示す概略図。 第1の実施形態に係る内視鏡形状検出装置のパソコンの構成を示すブロック図。 第1の実施形態に係る内視鏡の挿入部の静状態での形状を検出する方法を示すフローチャート。 第1の実施形態に係る内視鏡形状検出装置のグローバル座標系と補正座標系とを比較して示す概略図。 第1の実施形態に係る内視鏡形状検出装置のセンサ仮位置検出部により検出されるそれぞれのセンサユニットの仮位置を示す概略図。 第1の実施形態に係るセンサ仮位置検出部の仮リンク移動部での処理を説明する概略図。 第1の実施形態に係る内視鏡形状検出装置の仮曲線形状検出部により検出された内視鏡の挿入部の仮曲線形状を示す概略図。 第1の実施形態に係る仮曲線形状検出部により仮曲線形状を検出する方法を示すフローチャート。 第1の実施形態に係る仮曲線形状検出部での処理を説明する概略図。 第1の実施形態に係る内視鏡形状検出装置のセンサ位置修正部により修正されたそれぞれのセンサユニットの最終位置を示す概略図。 第1の実施形態に係るセンサ位置修正部によりそれぞれのセンサユニットの位置を修正する方法を示すフローチャート。 第1の実施形態に係るセンサ位置修正部のセンサ位置順次補正部による処理を説明する概略図。 第1の実施形態に係るセンサ位置順次補正部のセンサ移動部及び移動後円弧形成部での処理を説明する概略図。 第1の実施形態に係るセンサ位置修正部の未補正センサ群移動部での処理を説明する概略図。 第1の実施形態に係る内視鏡形状検出装置の最終曲線形状検出部により検出された内視鏡の挿入部の最終曲線形状を示す概略図。 第1の実施形態に係る最終曲線形状検出部により最終曲線形状を検出する方法を示すフローチャート。 第1の実施形態に係る最終曲線形状検出部での処理を説明する概略図。 本発明の第2の実施形態に係る内視鏡形状検出装置のセンサ位置修正部によりそれぞれのセンサユニットの位置を修正する方法を示すフローチャート。
 (第1の実施形態) 
 本発明の第1の実施形態について図1乃至図18を参照して説明する。
 図1は、本実施形態の内視鏡形状検出装置1を示す図である。図1に示すように、内視鏡形状検出装置1の内視鏡10は、体腔内に挿入される挿入部11と、挿入部11の基端側に設けられる操作部12とを備える。挿入部11は、最先端に設けられる先端硬性部14と、先端硬性部14の基端側に設けられる湾曲部16と、湾曲部16の基端側に設けられる細長い可撓管部18とを備える。
 先端硬性部14の内部には、被写体の撮像を行うCCD等の撮像素子20が設けられている。撮像素子20には、撮像用信号線21の一端が接続されている。撮像用信号線21は、挿入部11の内部を通って操作部12から内視鏡10の外部に延出され、他端が画像処理ユニットであるビデオプロセッサ3に接続されている。また、挿入部11の内部には、先端硬性部14の照明窓(図示しない)に被写体を照射する照明光を導光するライトガイド23が、長手方向に延設されている。ライトガイド23は、操作部12から内視鏡10の外部に延出され、光源ユニット4に接続されている。
 また、挿入部11の湾曲部16の先端部には、湾曲操作伝達部材である4本の湾曲操作ワイヤ(図示しない)の一端が接続されている。湾曲操作ワイヤは、可撓管部18の内部を通って、操作部12に設けられる湾曲操作部である湾曲操作ノブ(図示しない)に他端が接続されている。湾曲操作ノブでの操作により、湾曲操作ワイヤが長手方向に移動する。湾曲操作の移動により、湾曲部16が内視鏡10の上下方向及び左右方向に湾曲動作を行う。
 挿入部11には、複数(本実施形態ではN+1個)のセンサユニットS~Sが設けられている。それぞれのセンサユニットS(i=0,1,2,…,N)は、互いに長手方向に一定の間隔l(=50mm)だけ離れて配置されている。すなわち、それぞれのセンサユニットSは、互いに長手方向に所定のセンサ間寸法lだけ離れて配置されている。ここで、例えば最も基端側のセンサユニットSが可撓管部18の基端部に配置され、最も先端側のセンサユニットSが湾曲部16の先端部に配置されている。センサユニットSは、加速度を計測する加速度センサAと、地磁気を計測する地磁気センサBとを備える。
 図2は、内視鏡10の挿入部11を示す図である。図2に示すように、それぞれのセンサユニットSは、センサユニットSの中心を原点とし、X軸、Y軸、Z軸を有するローカル座標系C(図2で点線で示す)を有する。ここで、X軸方向は、センサユニットSの中心での内視鏡10の左右方向と一致し、基端側から視た際の内視鏡10の右方向を正とする。Y軸方向は、センサユニットSの中心での長手方向と一致し、先端方向を正とする。Z軸方向は、センサユニットSの中心での内視鏡10の上下方向と一致し、内視鏡10の上方向を正とする。加速度センサAは、ローカル座標系Cの原点での加速度のX軸方向成分、Y軸方向成分、Z軸方向成分を計測する。地磁気センサBは、ローカル座標系Cの原点での地磁気のX軸方向成分、Y軸方向成分、Z軸方向成分を計測する。
 また、内視鏡形状検出装置1では、最も基端側のセンサユニットSの中心を原点とし、X軸、Y軸、Z軸を有するグローバル座標系C(図2で実線で示す)が定義されている。ここで、グローバル座標系Cは、最も基端側のセンサユニットSの中心を原点とする右手系の直交デカルト座標系である。X軸方向は、重力が作用する鉛直方向に垂直な所定の方向(本実施形態では、図2の矢印D1,D2に平行な方向)と一致し、図2の矢印D1の方向を正とする。Y軸方向は、鉛直方向に垂直で、かつ、X軸方向に垂直な方向(本実施形態では、図2の矢印E1,E2に平行な方向)と一致し、図2の矢印E1の方向を正とする。Z軸方向は、鉛直方向と一致し、鉛直方向の上方向(紙面の裏から表への方向)を正とする。なお、ここでは説明の都合上、グローバル座標系CのX軸方向を磁北方向とする。
 それぞれのローカル座標系Cは、グローバル座標系CをX軸回りにα、Y軸回りにβ、Z軸回りにγそれぞれ回転し、最も基端側のセンサユニットSの中心からセンサユニットSの中心まで原点を平行移動した座標系である。ここで、αをピッチ角、βをロール角、γをヨー角と称し、ピッチ角α、ロール角β、ヨー角γの3つをまとめて姿勢角と称する。姿勢角α,β,γは、それぞれX軸、Y軸、Z軸の負の方向から見て時計回りを正とする。姿勢角α,β,γの値を算出することにより、センサユニットSの姿勢が検出される。
 図1に示すように、ぞれぞれのセンサユニットSの加速度センサA及び地磁気センサBは、I2C等のシリアルバス5に接続されている。シリアルバス5は、挿入部11の内部を通って操作部12から内視鏡10の外部に延出され、基端がシリアルコンバータ6に接続されている。シリアルコンバータ6は、それぞれのセンサユニットSからシリアルバス5を介して入力される計測データのシリアル信号を、USB信号に変換する。シリアルコンバータ6には、USBケーブル7の一端が接続されている。USBケーブル7の他端は、パソコン8に接続されている。パソコン8には、それぞれのセンサユニットSでの計測データのUSB信号がシリアルコンバータ6から入力される。
 図3は、パソコン8の構成を示す図である。図3に示すように、パソコン8は、USBケーブル7を介してシリアルコンバータ6に接続される通信部26を備える。通信部26は、それぞれのセンサユニットSでの計測データを受信する。通信部26には、物理量換算部28が接続されている。物理量換算部28は、通信部26で受信したそれぞれのセンサユニットSでの計測データを、オフセット、ゲイン等を用いて物理量に換算する。
 物理量換算部28には、姿勢検出部30が接続されている。姿勢検出部30は、センサユニットSでの計測データに基づいて、それぞれのセンサユニットSの姿勢を検出する。姿勢検出部30は、それぞれのセンサユニットSの加速度センサA及び地磁気センサBでの計測データに基づいて、それぞれのセンサユニットSのローカル座標系Cのグローバル座標系CからのX軸回り、Y軸回り、Z軸回りの回転角である3つの姿勢角α,β,γを算出する姿勢角算出部32を備える。姿勢角算出部32は、それぞれのセンサユニットSの加速度センサAでの加速度データに基づいて、それぞれのセンサユニットSのローカル座標系Cのグローバル座標系CからのX軸回りの回転角であるピッチ角α、及び、それぞれのセンサユニットSのローカル座標系Cのグローバル座標系CからのY軸回りの回転角であるロール角βを算出する第1の角度算出部34を備える。また、姿勢角算出部32は、それぞれのセンサユニットSの地磁気センサBでの地磁気データに基づいて、それぞれのセンサユニットSのローカル座標系Cのグローバル座標系CからのZ軸回りの回転角であるヨー角γを算出する第2の角度算出部36を備える。
 ここで、姿勢検出部30でそれぞれのセンサユニットSの姿勢を検出する方法について説明する。図4は、内視鏡10の挿入部11が停止している静状態での挿入部11の形状検出方法を示すフローチャートである。図4に示すように、挿入部11の形状検出の際には、まず、それぞれのセンサユニットSでの計測を行い(ステップS101)、姿勢検出部30がそれぞれのセンサユニットSでの計測データを取得する。そして、姿勢角算出部32が、それぞれのセンサユニットSのローカル座標系Cの3つの姿勢角α,β,γを算出する。
 姿勢角α,β,γを算出する際には、まず、第1の角度算出部34が、それぞれのセンサユニットSの加速度センサAでの計測データに基づいて、それぞれのセンサユニットSのローカル座標系Cのピッチ角α及びロール角βを算出する(ステップS102)。ここで、姿勢角α,β,γはヨー角γ、ピッチ角α、ロール角βの順で回転する(Z,X,Y)型とする。したがって、ローカル座標系Cからグローバル座標系Cへの回転行列は、 
Figure JPOXMLDOC01-appb-M000001
となる。
 挿入部11が停止している静状態では、重力加速度のみが鉛直方向の下方向に作用している。すなわち、グローバル座標系Cにおいても、ローカル座標系Cにおいても、鉛直方向の下方向に重力加速度のみが作用している。したがって、この際、加速度ベクトルのグローバル座標系CのX軸方向成分、Y軸方向成分、Z軸方向成分は、 
Figure JPOXMLDOC01-appb-M000002
となる。また、加速度センサAで計測される加速度ベクトルのローカル座標系CのX軸方向成分、Y軸方向成分、Z軸方向成分を、 
Figure JPOXMLDOC01-appb-M000003
とする。
 ここで、ローカル座標系Cはグローバル座標系Cをヨー角γ、ピッチ角α、ロール角βの順で回転した座標系である。したがって、式(1)~式(3)より、ローカル座標系Cで観測される加速度成分は、 
Figure JPOXMLDOC01-appb-M000004
となる。ここで、式(4.1)の2乗と式(4.3)の2乗を加算すると、 
Figure JPOXMLDOC01-appb-M000005
となり、 
Figure JPOXMLDOC01-appb-M000006
となる。そして、式(4.2)を式(6)で割ることにより、 
Figure JPOXMLDOC01-appb-M000007
となり、ローカル座標系Cのピッチ角αが求まる。また、式(4.1)を式(4.3)で割ることにより、 
Figure JPOXMLDOC01-appb-M000008
となり、ローカル座標系Cのロール角βが求まる。以上のようにして、それぞれの加速度センサAでの計測データに基づいて、それぞれのローカル座標系Cのピッチ角α及びロール角βが算出される。
 そして、第2の角度算出部36が、それぞれのセンサユニットSの地磁気センサBでの計測データに基づいて、それぞれのセンサユニットSのローカル座標系Cのヨー角γを算出する(ステップS103)。ここで、ステップS102で算出したピッチ角α及びロール角βを用いて、それぞれのローカル座標系Cのグローバル座標系CからのX軸回りの回転及びY軸回りの回転を補正した補正座標系C´を定義する。図5は、グローバル座標系C(図5において実線で示す)及び補正座標系C´(図5で点線で示す)を示す図である。なお、実際はグローバル座標系Cと補正座標系C´とでは原点の位置が異なるが、図5では両者の比較のため原点が同一の位置にある状態で示す。図5に示すように、X軸及びY軸補正した補正座標系C´はグローバル座標系CをZ軸回りにヨー角γだけ回転した座標系であり、X´軸、Y´軸、Z´軸を有する。X´軸方向、Y´軸方向は、それぞれグローバル座標系CのX軸方向、Y軸方向からZ軸回りにヨー角γだけ回転した方向と一致する。Z´軸方向は、鉛直方向、すなわちグローバル座標系CのZ軸方向と一致する。本実施形態では、グローバル座標系CのX軸方向が磁北方向と一致している。このため、X´軸方向が、磁北方向からZ軸回りにヨー角γだけ回転した方向となる。
 地磁気センサBで計測される地磁気ベクトルのローカル座標系CのX軸方向成分、Y軸方向成分、Z軸方向成分を、 
Figure JPOXMLDOC01-appb-M000009
とする。補正座標系C´は、ローカル座標系Cのグローバル座標系CからのX軸回りの回転及びY軸回りの回転を補正した座標系である。したがって、式(9)及び式(1)のRxi,Ryiを用いて、地磁気センサBで計測される地磁気ベクトルの補正座標系C´のX´軸方向成分、Y´軸方向成分、Z´軸方向成分は、 
Figure JPOXMLDOC01-appb-M000010
となる。式(10.1),式(10.2)から、 
Figure JPOXMLDOC01-appb-M000011
となる。鉛直方向に垂直な水平面(補正座標系C´のX´-Y´平面)の地磁気成分は、磁北方向を向いている。したがって、式(11.1),式(11.2)より、X´軸から磁北方向までの角度θは、地磁気ベクトルの補正座標系C´のX´軸成分、Y´軸成分を用いて求めることができる。すなわち、 
Figure JPOXMLDOC01-appb-M000012
となる。角度θはZ´軸(Z軸)を負の方向から見て時計回りを正とする。ここで、補正座標系C´はグローバル座標系CをZ軸回りにヨー角γだけ回転した座標系である。したがって、式(12)で求まる角度θが、グローバル座標系Cを基準としたローカル座標系Cのヨー角γとなる。
 なお、グローバル座標系CのX軸方向が磁北方向と一致しない場合も、磁北を基準としてヨー角γを求めることができる。地磁気ベクトルのグローバル座標系CのX軸方向成分、Y軸方向成分、Z軸方向成分を、 
Figure JPOXMLDOC01-appb-M000013
とする。地磁気ベクトルのグローバル座標系CのX軸方向成分、Y軸方向成分、Z軸方向成分は、地磁気センサBと同一のタイプの地磁気センサを用いて、グローバル座標系CのX軸方向、Y軸方向、Z軸方向と軸方向が一致する状態で計測を行うことにより、求められる。そして、式(13)より、X軸から磁北方向までの角度θを、地磁気ベクトルのグローバル座標系CのX軸成分、Y軸成分を用いて求める。すなわち、 
Figure JPOXMLDOC01-appb-M000014
となる。ここで、角度θはZ軸を負の方向から見て時計回りを正とする。補正座標系C´はグローバル座標系CをZ軸回りにヨー角γだけ回転した座標系である。したがって、式(12)、式(14)より、
Figure JPOXMLDOC01-appb-M000015
となり、グローバル座標系Cを基準としたローカル座標系Cのヨー角γが求まる。
 以上のようにして、それぞれの地磁気センサBでの計測データに基づいて、それぞれのローカル座標系Cのヨー角γが算出される。算出された姿勢角α,β,γの値に基づいて、姿勢検出部30はそれぞれのセンサユニットSの姿勢を検出する。
 図3に示すように、姿勢検出部30には、センサ仮位置検出部40が接続されている。図6は、センサ仮位置検出部40により検出されるそれぞれのセンサユニットSの仮位置P0,iを、グローバル座標系CのZ軸の負から正の方向に向かって視た図である。図6に示すように、センサ仮位置検出部40は、姿勢検出部30で検出されたそれぞれのセンサユニットSの姿勢に基づいて、それぞれのセンサユニットSの間の形状を寸法がセンサ間寸法lに等しい直線状の仮リンクT0,j(j=1,2,…N)と仮定して、それぞれのセンサユニットSの仮位置P0,iを検出する。ここで、基端側からk番目の仮リンクT0,kは、基端側からk番目のセンサユニットSk-1と基端側から(k+1)番目のセンサユニットSとの間の仮リンクT0,kである。センサ仮位置検出部40は、それぞれの仮リンクT0,jを形成する仮リンク形成部41と、仮リンク形成部41により形成されたそれぞれの仮リンクT0,jを平行移動する仮リンク移動部42とを備える。仮リンク移動部42により、それぞれの仮リンクT0,jは、隣接する仮リンクT0,j-1,T0,j+1との仮リンク境界が連続する状態に、平行移動される。これにより、それぞれのセンサユニットSの間を直線状の仮リンクT0,jと仮定した仮線形形状71が形成される。
 ここで、センサ仮位置検出部40でそれぞれのセンサユニットSの仮位置P0,iを検出する方法について説明する。それぞれのセンサユニットSの仮位置P0,iを検出する(ステップS104)際、まず、ステップS102,S103で算出した姿勢角α,β,γの値に基づいて、仮リンク形成部41が、直線形状のそれぞれの仮リンクT0,jを形成する。ここでは、基端側からk番目のセンサユニットSk-1と基端側から(k+1)番目のセンサユニットSとの間の基端側からk番目の仮リンクT0,kの形成について説明する。
 式(7)、式(8)、式(12)(又は式(15))のiをk-1で置換した式を用いて、ステップS102,S103でローカル座標系Ck-1(つまり仮リンクT0,k)の姿勢角αk-1,βk-1,γk-1が算出される。この姿勢角αk-1,βk-1,γk-1及びそれぞれのセンサユニットSの間の長手方向についての間隔であるセンサ間寸法lを用いて、センサユニットSk-1からセンサユニットSへ向かうベクトルが求まる。ここで、センサユニットSk-1からセンサユニットSへ向かうベクトルは、 
Figure JPOXMLDOC01-appb-M000016
となる。式(16.1)では、ローカル座標系Ck-1の原点での長手方向であるYk-1軸方向の単位ベクトルと式(1)で算出される回転行列を乗算することにより、ローカル座標系Ck-1の原点でのYk-1軸方向の単位ベクトルを、グローバル座標系CのX軸方向成分、Y軸方向成分、Z軸方向にそれぞれ分解した成分が算出される。すなわち、lxk,lyk,lzkは、ローカル座標系Ck-1のYk-1軸方向への大きさlのベクトルを、それぞれグローバル座標系CのX軸方向、Y軸方向、Z軸方向に分解した成分である。式(16.1)で算出されるベクトルにより、仮リンクT0,kが形成される。
 なお、仮リンクT0,k以外の仮リンクT0,jについても、仮リンク形成部41により同様に形成される。すなわち、式(16.1),式(16.2)のkをjで置換した式を用いて、仮リンクT0,jの基端側(グローバル座標系Cの原点から近い側)のセンサユニットSj-1から仮リンクT0,jの先端側(グローバル座標系Cの原点から遠い側)のセンサユニットSへのベクトルを求める。そして、センサユニットSj-1からセンサユニットSへのベクトルにより、仮リンクT0,jが形成される。すなわち、仮リンク形成部41は、仮リンクT0,jが基端側(グローバル座標系Cの原点から近い側)のセンサユニットSj-1の中心から先端側(グローバル座標系Cの原点から遠い側)のセンサユニットSの中心まで基端側のセンサユニットSj-1の中心での長手方向に延設されると仮定して、仮リンクT0,jを形成する。
 また、センサ間寸法lは50mm程度であることが好ましい。センサ間寸法lを長くすることにより、センサユニットSの数が減少し、コストが削減される。また、センサ間寸法lが50mm程度より小さい範囲であれば、それぞれのセンサユニットSの間を寸法がセンサ間寸法lに等しい直線状の仮リンクT0,jと仮定した場合でも、挿入部11の形状検出の際の誤差を小さくすることが可能である。
 そして、仮リンク移動部42が、仮リンク形成部41により形成されたそれぞれの仮リンクT0,jを隣接する仮リンクT0,j-1,T0,j+1との仮リンク境界が連続する状態に平行移動する。図7は、仮リンク移動部42での処理を説明する図である。ここでは、基端側からk番目のセンサユニットSk-1と基端側から(k+1)番目のセンサユニットSとの間の基端側からk番目の仮リンクT0,kの移動について説明する。
 図7に示すように、仮リンク移動部42により、仮リンクT0,kの移動が行われる前の状態では、仮リンクT0,kの基端側に隣接する仮リンクT0,k-1まで移動が完了し、仮リンク移動完了部73が形成されている。仮リンクT0,kの移動を行う際は、原点から仮リンク移動完了部73の先端(すなわちセンサユニットSk-1の仮位置P0,k-1)までの移動量だけ、仮リンク移動部42は仮リンクT0,kを平行移動する。すなわち、図7の点線で示す位置から図7の実線で示す位置に仮リンクT0,kを平行移動する。これにより、仮リンクT0,k-1と仮リンクT0,kとのリンク境界が連続する状態となる。
 なお、仮リンクT0,k以外の仮リンクT0,jについても、仮リンク移動部42により同様に移動される。すなわち、仮リンクT0,jの移動を行う際は、原点から仮リンク移動完了部73の先端(グローバル座標系Cの原点から遠い側の端)までの移動量だけ、仮リンク移動部42は仮リンクT0,jを平行移動する。これにより、仮リンクT0,jと仮リンクT0,jの基端側(グローバル座標系Cの原点から近い側)に隣接する仮リンクT0,j-1との仮リンク境界が連続する状態となる。ただし、仮リンクT0,1については、仮リンクT0,1の基端がグローバル座標系Cの原点であるため、移動は行われない。すべての仮リンクT0,jの移動が完了することにより、図6に示すように、それぞれのセンサユニットSの間を直線状の仮リンクT0,jと仮定した仮線形形状71が形成される。仮線形形状71でのそれぞれのセンサユニットSの位置を、それぞれのセンサユニットSの仮位置P0,iとして検出する(ステップS104)。
 図3に示すように、センサ仮位置検出部40は、仮曲線形状検出部50に接続されている。仮曲線形状検出部50は、センサ仮位置検出部40により検出されたそれぞれのセンサユニットSの仮位置P0,iの間を仮円弧L0,jとして曲線補間を行い、仮曲線形状75を検出する。図8は、仮曲線形状検出部50により検出された内視鏡10の挿入部11の仮曲線形状75をグローバル座標CのZ軸の負から正の方向に向かって視た図である。図8に示すように、仮曲線形状検出部50により、図8の点線で示す仮線形形状71のそれぞれのセンサユニットSの仮位置P0,iの間が曲線補間される。これにより、それぞれの仮円弧L0,jが形成され、図8の実線で示す仮曲線形状75が検出される。
 仮曲線形状検出部50は、それぞれのセンサユニットSの仮位置P0,iでの単位接ベクトルを算出する単位接ベクトル算出部51と、単位接ベクトル算出部51により算出された単位接ベクトルに基づいて、それぞれのセンサユニットSの仮位置P0,iの間での単位接ベクトルの変化率を算出する変化率算出部52と、単位接ベクトル算出部51により算出された単位接ベクトル及び変化率算出部52で算出された変化率に基づいて、それぞれのセンサユニットSの仮位置P0,iの間の仮円弧L0,jを形成する仮円弧形成部53と、を備える。すべてのセンサユニットSの仮位置P0,iの間で曲線補間が行われ、すべての仮円弧L0,jが形成されることにより、仮曲線形状75が検出される。
 ここで、仮曲線形状検出部50で、センサ仮位置検出部40により検出されたそれぞれのセンサユニットSの仮位置P0,iの間を曲線補間し、仮曲線形状75を検出する方法について説明する。図4に示すように、仮曲線形状検出部50は、ステップS104で検出されたそれぞれのセンサユニットSの仮位置P0,iの間を仮円弧L0,jで曲線補間を行い、仮曲線形状75を検出する(ステップS105)。前述のように、センサ間寸法lが50mm程度より小さい範囲であれば、それぞれのセンサユニットSの間を寸法がセンサ間寸法lに等しい直線状の仮リンクT0,jと仮定した場合でも、挿入部11の形状検出の際の誤差は小さくなる。しかし、体腔内に挿入された際の内視鏡10の挿入部11の形状は曲線形状である。したがって、それぞれのセンサユニットSの仮位置P0,iの間の曲線補間を行うことが重要となる。ここで、内視鏡10の挿入部11は、製品により差はあるが、適度の弾性を有する。このため、挿入部11の曲線形状の曲率が大きく変化することは、稀である。したがって、それぞれのセンサユニットSの間の形状を半径R0,j(曲率1/R0,j)の仮円弧L0,jと仮定して曲線補間を行うことにより、実際の挿入部11の曲線形状と誤差の少ない仮曲線形状75が形成される。
 仮曲線形状75を検出する際、仮曲線形状検出部50は、それぞれのセンサユニットSの仮位置P0,iの間ごとに順次に曲線補間を行い、仮円弧L0,jを形成する。ここで、仮曲線形状検出部50により、それぞれのセンサユニットSの仮位置P0,iの間の曲線補間を行う方法について説明する。ここでは、基端側からk番目のセンサユニットSk-1と基端側から(k+1)番目のセンサユニットSとの間の曲線補間について説明する。すなわち、仮位置P0,k-1と仮位置P0,kとの間が、補間対象である補間対象仮位置間となる。
 図9は、仮曲線形状検出部50により仮曲線形状75を検出する方法を示すフローチャートである。図10は、仮曲線形状検出部50での処理を説明する図である。図9及び図10に示すように、仮曲線形状検出部50によりセンサユニットSk-1の仮位置P0,k-1とセンサユニットSの仮位置P0,kとの間である補間対象のセンサ間の曲線補間を行う際は、まず、単位接ベクトル算出部51が、センサユニットSk-1の仮位置P0,k-1での単位接ベクトル及びセンサユニットSの仮位置P0,kでの単位接ベクトルを算出する(ステップS111)。センサユニットSk-1の仮位置P0,k-1での単位接ベクトルは、 
Figure JPOXMLDOC01-appb-M000017
となる。すなわち、仮位置P0,k-1での単位接ベクトルは、仮位置P0,k-1から仮位置P0,kまでのベクトルの単位ベクトルである。センサユニットSの仮位置P0,kでの単位接ベクトルは、式(17.1)、式(17.2)、式(17.3)のkをk+1で置換した式を用いて求められる。すなわち、仮位置P0,kでの単位接ベクトルは、仮位置P0,kから仮位置P0,k+1までのベクトルの単位ベクトルである。
 そして、単位接ベクトル算出部51により算出された単位接ベクトルに基づいて、変化率算出部52がセンサユニットSk-1の仮位置P0,k-1とセンサユニットSの仮位置P0,kとの間での単位接ベクトルの変化率を算出する(ステップS112)。まず、仮位置P0,k-1と仮位置P0,kとの間での単位接ベクトルの変化率ベクトルが、 
Figure JPOXMLDOC01-appb-M000018
で求められる。そして、式(18.1)、式(18.2)で求められた変化率ベクトルの大きさが仮位置P0,k-1と仮位置P0,kとの間での単位接ベクトルの変化率となる。
 そして、単位接ベクトル算出部51により算出された単位接ベクトル及び変化率算出部52で算出された変化率に基づいて、仮円弧形成部53が、センサユニットSk-1の仮位置P0,k-1とセンサユニットSの仮位置P0,kとの間の仮円弧L0,kを形成する(ステップS113)。ここで、ステップS112で算出した仮位置P0,k-1と仮位置P0,kとの間での単位接ベクトルの変化率は、仮円弧L0,kの曲率1/R0,kとなる。仮円弧L0,kの半径R0,kは曲率1/R0,kの逆数であるため、仮円弧L0,kの半径R0,kは、 
Figure JPOXMLDOC01-appb-M000019
となる。また、仮円弧L0,kの中心O0,kのグローバル座標Cでの位置が、 
Figure JPOXMLDOC01-appb-M000020
により求められる。さらに、仮位置P0,k-1での単位接ベクトル及び仮位置P0,kでの単位接ベクトルを用いて、仮円弧L0,kの中心角φ0,kが、 
Figure JPOXMLDOC01-appb-M000021
により求められる。これらのパラメータを用いて、仮位置P0,k-1と仮位置P0,kとの間の仮円弧L0,kが形成される。
 なお、仮円弧L0,k以外の仮円弧L0,jについても、仮位置P0,j-1と仮位置P0,jとの間を同様に曲線補間することにより、形成される。すなわち、仮円弧L0,jを形成する際は、まず、単位接ベクトル算出部51が、補間対象仮位置間の基端側(グローバル座標系Cの原点に近い側)に位置するセンサユニットSj-1の仮位置P0,j-1での単位接ベクトル及び補間対象仮位置間の先端側(グローバル座標系Cの原点から遠い側)に位置するセンサユニットSの仮位置P0,jでの単位接ベクトルを算出する。センサユニットSj-1の仮位置P0,j-1での単位接ベクトルは、式(17.1)、式(17.2)、式(17.3)のkをjで置換した式を用いて求められ、仮位置P0,j-1から仮位置P0,jまでのベクトルの単位ベクトルである。また、センサユニットSの仮位置P0,jでの単位接ベクトルは、式(17.1)、式(17.2)、式(17.3)のkをj+1で置換した式を用いて求められ、仮位置P0,jから仮位置P0,j+1までのベクトルの単位ベクトルである。これにより、それぞれのセンサユニットSの仮位置P0,iでの単位接ベクトルが算出される(ステップS111)。
 そして、単位接ベクトル算出部51により算出された単位接ベクトルに基づいて、変化率算出部52がセンサユニットSj-1の仮位置P0,j-1とセンサユニットSの仮位置P0,jとの間である補間対象仮位置間での単位接ベクトルの変化率を算出する。仮位置P0,j-1と仮位置P0,jとの間での単位接ベクトルの変化率は、式(18.1)、式(18.2)のkをjで置換した式を用いて求められる。これにより、それぞれのセンサユニットSの仮位置P0,iの間での単位接ベクトルの変化率が算出される(ステップS112)。
 そして、単位接ベクトル算出部51により算出された単位接ベクトル及び変化率算出部52で算出された変化率に基づいて、仮円弧形成部53が、センサユニットSj-1の仮位置P0,j-1とセンサユニットSの仮位置P0,jとの間である補間対象仮位置間の仮円弧L0,jを形成する。ここで、式(19)、式(20)、式(21)のkをjで置換した式を用いて、仮円弧L0,jの半径R0,j、中心O0,j、中心角φ0,jが求められる。これにより、それぞれのセンサユニットSの仮位置P0,iの間の仮円弧L0,jが形成される(ステップS113)。すべてのセンサユニットSの仮位置P0,iの間で曲線補間が行われ、すべての仮円弧L0,jが形成されることにより、仮曲線形状75が検出される。
 図3に示すように、仮曲線形状検出部50は、それぞれのセンサユニットSの位置を修正するセンサ位置修正部55に接続されている。センサ位置修正部55は、仮曲線形状検出部50により検出された仮曲線形状75のそれぞれの仮円弧L0,jの弧長R0,jφ0,jとセンサ間寸法lとの差の絶対値に基づいて、それぞれのセンサユニットSの位置を修正する。ここで、仮円弧L0,jの弧長R0,jφ0,jとセンサ間寸法lとの差の絶対値をエネルギーE0,jとする。図11は、センサ位置修正部55により修正されたそれぞれのセンサユニットSの位置をグローバル座標CのZ軸の負から正の方向に向かって視た図である。図11に示すように、センサ位置修正部55により、それぞれのセンサユニットSは、仮位置P0,iから最終位置PF,iまで修正される。
 センサ位置修正部55は、基端側(グローバル座標系Cの原点に近い側)のセンサユニットSから順次に位置補正を行うセンサ位置順次補正部57を備える。センサ位置順次補正部57によりそれぞれのセンサユニットSの位置補正を行う前の状態では、それぞれのセンサユニットSは、仮位置P0,iから補正前位置Q0,iに移動されている(詳細については、後述する。)。センサ位置順次補正部57は、それぞれのセンサユニットSを補正前位置Q0,iから最終位置PF,iへ位置補正する。また、センサ位置修正部55は、センサ位置順次補正部57により1つのセンサユニットSの位置補正が行われるたびに、位置補正が完了していないセンサユニットSである未補正センサ群77を平行移動させる未補正センサ群移動部59を備える。センサ位置順次補正部57により、すべてのセンサユニットSの補正前位置Q0,iから最終位置PF,iへの位置補正が行われる。ここで、補正前位置Q0,iは、センサ位置順次補正部57により位置補正が行われる直前のそれぞれのセンサユニットSの位置である。未補正センサ群移動部59は、センサ位置順次補正部57による直前の位置補正で補正対象だったセンサユニットSである直前補正対象センサ79の補正前位置Q0,iから最終位置PF,iへの補正量だけ、未補正センサ群77を平行移動させる。これにより、未補正センサ群77は、平行移動前位置Ua-1,i(a=1,2,…)から平行移動後位置Ua,iまで平行移動する。ここで、aは、未補正センサ群移動部59によりそれぞれのセンサユニットSが平行移動した回数を示している。それぞれのセンサユニットSの未補正センサ群移動部59による1回目の平行移動の平行移動前位置U0,iは、仮位置P0,iと一致する。それぞれのセンサユニットSは、未補正センサ群移動部59により(i-1)回だけ平行移動する。それぞれのセンサユニットSの未補正センサ群移動部59による(i-1)回目の平行移動の平行移動後位置Ui-1,iは、補正前位置Q0,iと一致する。以上のように、センサ位置順次補正部57での位置補正及び未補正センサ群移動部59での平行移動により、それぞれのセンサユニットSが、仮位置P0,iから最終位置PF,iへ位置修正される。
 センサ位置順次補正部57は、位置補正の対象である補正対象センサ81を位置補正前の補正前位置Q0,iから1回以上移動させるセンサ移動部61を備える。センサ移動部61での1回の移動により、補正対象センサ81は移動前位置Qt-1,i(t=1,2,…)から移動後位置Qt,iまで移動する。ここで、tはセンサ移動部61によりぞれぞれのセンサユニットSが移動した回数を示している。また、センサ位置順次補正部57は、センサ移動部61により補正対象センサ81の移動が1回行われるたびに、補正対象センサ81に対して基端側(グローバル座標系Cの原点に近い側)に隣設されるセンサユニットSである近位側隣設センサ82の最終位置PF,iと補正対象センサ81の移動後位置Qt,iとの間を曲線補間する移動後円弧形成部62とを備える。移動後円弧形成部62で近位側隣設センサ82の最終位置PF,iと補正対象センサ81の移動後位置Qt,iとの間を曲線補間することにより、移動後円弧Lt,jが形成される。
 センサ位置順次補正部57は、移動後円弧形成部62により形成される移動後円弧Lt,jの弧長Rt,jφt,jとセンサ間寸法lとの差の絶対値が所定の閾値以下になるまで、補正対象センサ81の移動前位置Qt-1,iから移動後位置Qt,iへの移動を繰り返し行う状態にセンサ移動部61を制御する移動制御部63を備える。ここで、移動後円弧Lt,jの弧長Rt,jφt,jとセンサ間寸法lとの差の絶対値をエネルギーEt,jとする。また、センサ位置順次補正部57は、センサ移動部61による最終回(例えばF回目)の移動での移動後位置QF,iを、補正対象センサ81の最終位置PF,iとして決定する最終位置決定部64を備える。センサ移動部61、移動後円弧形成部62、移動制御部63、最終位置決定部64での詳細な処理については、後述する。
 ここで、センサ位置修正部55で、それぞれのセンサユニットSの位置を修正する方法について説明する。図4に示すように、センサ位置修正部55は、センサ位置修正部55は、仮曲線形状検出部50により検出された仮曲線形状75のそれぞれの仮円弧L0,jの弧長R0,jφ0,jとセンサ間寸法lとの差の絶対値に基づいて、それぞれのセンサユニットSの位置を修正する(ステップS106)。すなわち、 
Figure JPOXMLDOC01-appb-M000022
で求められるエネルギーE0,j基づいて、それぞれのセンサユニットSの位置を修正する。これにより、それぞれのセンサユニットSは、仮位置P0,iから最終位置PF,iまで修正される。
 前述のように、仮曲線形状検出部50により、実際の挿入部11の曲線形状と誤差の少ない仮曲線形状75が形成される。しかし、仮曲線形状検出部50では、センサ間寸法lを考慮して、それぞれのセンサユニットSの間の曲線補間を行っていない。また、それぞれのセンサユニットSの計測データはノイズ等により誤差を有する。したがって、センサ間寸法lを考慮して、それぞれの仮円弧L0,jの弧長R0,jφ0,jとセンサ間寸法lとの差の絶対値に基づいて、それぞれのセンサユニットSの位置を修正することが重要となる。
 図12は、センサ位置修正部55によりそれぞれのセンサユニットSの位置を修正する方法を示すフローチャートである。図13は、センサ位置順次補正部57による処理を説明する図である。図12に示すように、それぞれのセンサユニットSの位置を修正する際は、センサ位置順次補正部57により基端側(グローバル座標系Cの原点に近い側)のセンサユニットSから順次に、それぞれのセンサユニットSの位置補正前の補正前位置Q0,iから最終位置PF,iへの位置補正が行われる。ここで、補正前位置Q0,iは、センサ位置順次補正部57により位置補正が行われる直前のそれぞれのセンサユニットSの位置であり、それぞれのセンサユニットSが仮位置P0,iから未補正センサ群移動部59により(i-1)回だけ平行移動した位置である。センサ位置順次補正部57は、未補正センサ群77の中で最も基端側のセンサユニットSの位置補正を開始する(ステップS121)。すなわち、図13に示すように、センサユニットSk-1まで補正前位置Q0,iから最終位置PF,iへの位置補正が完了している場合には、センサ位置順次補正部57により、未補正センサ群77の中で最も基端側のセンサユニットSの最終位置PF,kへの位置補正が開始される。すなわち、センサユニットSが位置補正の対象である補正対象センサ81となる。なお、以下の説明では、基端側から(k+1)番目のセンサユニットSの位置補正について説明する。
 図13に示すように、補正対象センサ81であるセンサユニットSの位置補正を開始する際、センサユニットSk-1まで補正前位置Q0,iから最終位置PF,iへの位置補正が完了している。この際、センサユニットSは、補正前位置Q0,kに位置している。この状態で、センサ移動部61により、センサユニットSが位置Q0,kから位置Q1,kに移動し(ステップS122)、センサユニットSの1回目の移動が行われる。この際、位置Q0,kが移動前位置、位置Q1,kが移動後位置となる。センサ移動部61によるセンサユニットSの移動は、1回以上行われる。図14は、センサ移動部61及び移動後円弧形成部62での処理を説明する図である。図14に示すように、s回目の移動では、補正対象センサ81であるセンサユニットSは移動前位置Qs-1,kから移動後位置Qs,kまで移動する。すなわち、センサ移動部61による1回の移動により、センサユニットSは移動前位置Qt-1,kから移動後位置Qt,kまで移動する(ステップS122)。
 そして、センサ移動部61によりセンサユニットSの移動が1回行われるたびに、移動後円弧形成部62により、センサユニットSに対して基端側に隣設されるセンサユニットSk-1の最終位置PF,k-1とセンサユニットSの移動後位置Qt,kとの間が曲線補間され、移動後円弧Lt,kが形成される(ステップS123)。図14に示すように、s回目の移動後には、センサユニットSk-1の最終位置PF,k-1とセンサユニットSの移動後位置Qs,kとの間が曲線補間され、移動後円弧Ls,kが形成される。ここで、センサユニットSk-1は、補正対象センサ81であるセンサユニットSに対してグローバル座標系Cの原点に近い側に隣設される近位側隣設センサ82である。
 センサユニットSのs回目に移動後に移動後円弧Ls,kを形成する際は、センサユニットSk-1の最終位置PF,k-1での単位接ベクトル及びセンサユニットSの移動後位置Qs,kでの単位接ベクトルを算出する。センサユニットSk-1の最終位置PF,k-1での単位接ベクトルは、 
Figure JPOXMLDOC01-appb-M000023
となる。すなわち、最終位置PF,k-1での単位接ベクトルは、最終位置PF,k-1から移動後位置Qs,kまでのベクトルの単位ベクトルである。また、移動後位置Qs,kでの単位接ベクトルを算出する際は、補正対象センサ81であるセンサユニットSに対してグローバル座標系Cの原点から遠い側に隣設される遠位側隣設センサ83であるセンサユニットSk+1が、位置Q´s,k+1に配置されていると仮定する。ここで、移動後位置Qs,kから位置Q´s,k+1までのベクトルは、センサユニットSの仮位置P0,kからセンサユニットSk+1の仮位置P0,k+1までのベクトルと向き及び大きさが同一である。センサユニットSの移動後位置Qs,kでの単位ベクトルは、 
Figure JPOXMLDOC01-appb-M000024
となる。すなわち、移動後位置Qs,kでの単位接ベクトルは、移動後位置Qs,kからセンサユニットSk+1の位置Q´s,k+1までのベクトルの単位ベクトルである。したがって、移動後位置Qs,kでの単位接ベクトルは、式(17.1)~式(17.3)でkをk+1に置換して得られる単位接ベクトルと向きが同一である。
 そして、式(23.1)~式(23.3)、式(24.1)~式(24.3)により算出された単位接ベクトルに基づいて、センサユニットSk-1の最終位置PF,k-1とセンサユニットSの移動後位置Qs,kとの間での単位接ベクトルの変化率を算出する。まず、最終位置PF,k-1と移動後位置Qs,kとの間での単位接ベクトルの変化率ベクトルが、 
Figure JPOXMLDOC01-appb-M000025
で求められる。そして、式(25.1)、式(25.2)で求められた変化率ベクトルの大きさが最終位置PF,k-1と移動後位置Qs,kとの間での単位接ベクトルの変化率となる。
 そして、式(23.1)~式(23.3)、式(24.1)~式(24.3)により算出された単位接ベクトル及び式(25.1)、式(25.2)により算出された変化率に基づいて、センサユニットSk-1の最終位置PF,k-1とセンサユニットSの移動後位置Qs,kとの間の移動後円弧Ls,kを形成する。ここで、式(25.1)、式(25.2)で算出した最終位置PF,k-1と移動後位置Qs,kとの間での単位接ベクトルの変化率は、移動後円弧Ls,kの曲率1/Rs,kとなる。移動後円弧Ls,kの半径Rs,kは曲率1/Rs,kの逆数であるため、移動後円弧Ls,kの半径Rs,kは、 
Figure JPOXMLDOC01-appb-M000026
となる。また、移動後円弧Ls,kの中心Os,kのグローバル座標Cでの位置が、 
Figure JPOXMLDOC01-appb-M000027
により求められる。さらに、最終位置PF,k-1での単位接ベクトル及び移動後位置Qs,kでの単位接ベクトルを用いて、移動後円弧Ls,kの中心角φs,kが、 
Figure JPOXMLDOC01-appb-M000028
により求められる。これらのパラメータを用いて、最終位置PF,k-1と移動後位置Qs,kとの間の移動後円弧Ls,kが形成される。
 なお、センサユニットSのs回目の移動後に移動後円弧Ls,kを形成する処理について説明したが、センサユニットSのs回目以外の移動後についても、式(23.1)~式(28)で、sをtで置換した式を用いて同様に、センサユニットSk-1の最終位置PF,k-1とセンサユニットSの移動後位置Qt,kとの間の移動後円弧Lt,kが形成される。
 そして、移動後円弧Lt,kが形成された後、移動制御部63により移動後円弧Lt,kの弧長Rt,kφt,kとセンサ間寸法lとの差の絶対値が算出される(ステップS124)。ここで、移動後円弧Lt,kの弧長Rt,kφt,kとセンサ間寸法lとの差の絶対値をエネルギーEt,kとし、 
Figure JPOXMLDOC01-appb-M000029
で与えられる。エネルギーEt,kが所定の閾値より大きい場合は(ステップS124-No)、ステップS122に戻り、センサ移動部61がセンサユニットSを位置Qt,kからさらに移動させる。センサユニットSのs回目の移動後にエネルギーEs,kが所定の閾値より大きい場合は、センサ移動部61により(s+1)回目の移動が行われる。(s+1)回目の移動により、センサユニットSは移動前位置Qs,kから移動後位置Qs+1,kに移動する。以上のように、センサ移動部61は、エネルギーEt,kが所定の閾値以下になるまで、補正対象センサ81であるセンサユニットSの移動前位置Qt-1,kから移動後位置Qt,kへの移動を繰り返し行う状態に、移動制御部63により制御されている。
 エネルギーEt,kが所定の閾値以下の場合は(ステップS124-Yes)、次のステップに進む。そして、最終位置決定部64が、センサ移動部61によるセンサユニットSの最終回(例えばF回目)の移動での移動後位置QF,kを、補正対象センサ81であるセンサユニットSの最終位置PF,kとして決定する(ステップS125)。以上のようにして、センサユニットSの補正前位置Q0,kから最終位置PF,kへの位置補正が完了する。
 なお、センサユニットS以外のセンサユニットSについても、センサ位置順次補正部57によりセンサユニットSと同様に最終位置Pi,kへの位置補正が行われる。すなわち、センサ移動部61により、センサユニットSは移動前位置Qt-1,iから移動後位置Qt,iまで移動する(ステップS122)。そして、センサ移動部61によりセンサユニットSの移動が1回行われるたびに、移動後円弧形成部62により、センサユニットSに対して基端側に隣設される近位側隣設センサ82であるセンサユニットSi-1の最終位置PF,i-1とセンサユニットSの移動後位置Qt,iとの間が曲線補間され、移動後円弧Lt,jが形成される(ステップS123)。
 そして、移動後円弧Lt,jが形成された後、移動制御部63により移動後円弧Lt,jの弧長Rt,jφt,jとセンサ間寸法lとの差の絶対値であるエネルギーEt,jが算出される(ステップS124)。エネルギーEt,jが所定の閾値より大きい場合は(ステップS124-No)、ステップS122に戻り、センサ移動部61がセンサユニットSを位置Qt,iからさらに移動させる。エネルギーEt,jが所定の閾値以下の場合は(ステップS124-Yes)、次のステップに進む。そして、最終位置決定部64が、センサ移動部61によるセンサユニットSの最終回の移動での移動後位置QF,iを、補正対象センサ81であるセンサユニットSの最終位置PF,iとして決定する(ステップS125)。以上のようにして、センサユニットSの補正前位置Q0,iから最終位置PF,iへの位置補正が完了する。
 そして、センサ位置順次補正部57により1つのセンサユニットSの位置補正が行われるたびに、未補正センサ群移動部59により、位置補正が完了していないセンサユニットSである未補正センサ群77が平行移動される(ステップS126)。図15は、未補正センサ群移動部59での処理を説明する図である。図15に示すように、センサ位置順次補正部57によりセンサユニットSの補正前位置Q0,kから最終位置PF,kへの位置修正が完了した状態では、センサユニットSk+1~Sが、位置補正が完了していない未補正センサ群77となる。また、センサユニットSが、センサ位置順次補正部57による直前の位置補正で補正対象だった直前補正対象センサ79となる。
 この状態で、未補正センサ群移動部59は、直前補正対象センサ79であるセンサユニットSの補正前位置Q0,kから最終位置PF,kへの補正量だけ、未補正センサ群77を平行移動させる。これにより、未補正センサ群77のそれぞれのセンサユニットSが平行移動前位置Uk-1,iから平行移動後位置Uk,iへ移動する。ここで、未補正センサ群77のそれぞれのセンサユニットSが平行移動前位置Uk-1,iは、それぞれのセンサユニットSが仮位置P0,iから未補正センサ群移動部59により(k-1)回だけ移動した位置であり、今回の平行移動で、未補正センサ群77のそれぞれのセンサユニットSは未補正センサ群移動部59によりk回だけ平行移動したこととなる。また、センサユニットSk+1の平行移動後位置Uk,k+1は、補正前位置Q0,k+1と一致し、センサユニットSの最終位置PF,kからセンサユニットSk+1の平行移動後位置Uk,k+1へのベクトルは、センサユニットSの仮位置P0,kからセンサユニットSk+1の仮位置P0,k+1までのベクトルと向き及び大きさが同一である。
 なお、センサユニットS以外のセンサユニットSの最終位置PF,iへの位置補正が完了した状態でも、センサユニットSと同様に、未補正センサ群77が平行移動される。すなわち、未補正センサ群移動部59は、直前補正対象センサ79がセンサ位置順次補正部57により補正前位置Q0,iから最終位置PF,iへ補正された補正量だけ、未補正センサ群77を平行移動させる(ステップS126)。これにより、未補正センサ群77は、平行移動前位置Ua-1,iから平行移動後位置Ua,iまで平行移動する。
 そして、図12に示すように、すべてのセンサユニットSについて位置補正が完了したか確認する(ステップS127)。すべてのセンサユニットSについて位置補正が完了している場合は(ステップS127-Yes)、次のステップへ進む。すべてのセンサユニットSについて位置補正が完了していない場合は(ステップS127-No)、ステップS121に戻り、センサ位置順次補正部57により、未補正センサ群77の中で最も基端側のセンサユニットSの位置補正が行われる。すなわち、ステップS121~S126が、すべてのセンサユニットSについて位置補正が完了するまで、繰り返し行われる。以上のように、センサ位置順次補正部57での補正前位置Q0,iから最終位置PF,i位置への位置補正及び未補正センサ群移動部59での平行移動により、それぞれのセンサユニットSが、仮位置P0,iから最終位置PF,iへ位置修正される。
 図3に示すように、センサ位置修正部55は、最終曲線形状検出部65に接続されている。最終曲線形状検出部65は、それぞれのセンサユニットSの最終位置PF,iの間を最終円弧LF,jで曲線補間し、挿入部11の最終曲線形状85を検出する。図16は、最終曲線形状検出部65により検出された内視鏡10の挿入部11の最終曲線形状85をグローバル座標CのZ軸の負から正の方向に向かって視た図である。図16に示すように、最終曲線形状検出部65により、それぞれのセンサユニットSの最終位置PF,iの間が曲線補間される。これにより、それぞれの最終円弧LF,jが形成され、最終曲線形状85が検出される。
 最終曲線形状検出部65は、それぞれのセンサユニットSの最終位置PF,iに基づいて、それぞれの最終円弧LF,jのパラメータを算出するパラメータ算出部67と、パラメータ算出部67により算出されたパラメータに基づいて、最終円弧PF,iを形成する最終円弧形成部69とを備える。最終円弧形成部69は、クォータニオン(四元数)及び媒介変数tを用いた補間関数LF,j(t)により、媒介変数tの変化に対して等角速度でそれぞれのセンサユニットSの最終位置PF,iの間を曲線補間し、最終円弧LF,jを形成する。
 最終曲線形状検出部65には、描画部45が接続されている。最終曲線形状検出部65により検出されたグローバル座標系Cでの挿入部11の最終曲線形状85は、描画部45により描画される。術者は、描画部45により描画された最終曲線形状85を表示部47で確認可能となっている。
 ここで、最終曲線形状検出部65で、センサ位置修正部55により位置修正されたそれぞれのセンサユニットSの最終位置PF,iの間を曲線補間し、最終曲線形状85を検出する方法について説明する。図4に示すように、最終曲線形状検出部65は、ステップS106で位置修正されたそれぞれのセンサユニットSの最終位置PF,iの間を最終円弧LF,jで曲線補間を行い、最終曲線形状85を検出する(ステップS107)。これにより、センサ間寸法lを考慮してそれぞれのセンサユニットSの最終位置PF,iの間の曲線補間が行われ、検出精度の高い最終曲線形状85が検出される。
 最終曲線形状85を検出する際、最終曲線形状検出部65は、それぞれのセンサユニットSの最終位置PF,iの間ごとに順次に曲線補間を行い、最終円弧LF,jを形成する。ここで、最終曲線形状検出部65により、それぞれのセンサユニットSの最終位置PF,iの間の曲線補間を行う方法について説明する。ここでは、基端側からk番目のセンサユニットSk-1と基端側から(k+1)番目のセンサユニットSとの間の曲線補間について説明する。すなわち、最終位置PF,k-1と最終位置PF,kとの間が、補間対象である補間対象最終位置間となる。
 図17は、最終曲線形状検出部65により最終曲線形状85を検出する方法を示すフローチャートである。図18は、最終曲線形状検出部65での処理を説明する図である。図17及び図18に示すように、最終曲線形状検出部65によりセンサユニットSk-1の最終位置PF,k-1とセンサユニットSの最終位置PF,kとの間である補間対象の最終位置間の曲線補間を行う際は、まず、パラメータ算出部67により、最終位置PF,k-1及び最終位置PF,kに基づいて、最終円弧LF,kのパラメータを算出する(ステップS131)。
 この際、センサユニットSk-1の最終位置PF,k-1での単位接ベクトル及びセンサユニットSの最終位置PF,kでの単位接ベクトルを算出する。センサユニットSk-1の最終位置PF,k-1での単位接ベクトルは、 
Figure JPOXMLDOC01-appb-M000030
となる。すなわち、最終位置PF,k-1での単位接ベクトルは、最終位置PF,k-1から最終位置PF,kまでのベクトルの単位ベクトルである。センサユニットSの最終位置PF,kでの単位接ベクトルは、式(30.1)、式(30.2)、式(30.3)のkをk+1で置換した式を用いて求められる。すなわち、最終位置PF,kでの単位接ベクトルは、最終位置PF,kから最終位置PF,k+1までのベクトルの単位ベクトルである。
 そして、最終位置PF,k-1及びPF,kでの単位接ベクトルに基づいて、センサユニットSk-1の最終位置PF,k-1とセンサユニットSの最終位置PF,kとの間での単位接ベクトルの変化率を算出する。まず、最終位置PF,k-1と最終位置PF,kとの間での単位接ベクトルの変化率ベクトルが、 
Figure JPOXMLDOC01-appb-M000031
で求められる。そして、式(31.1)、式(31.2)で求められた変化率ベクトルの大きさが最終位置PF,k-1と最終位置PF,kとの間での単位接ベクトルの変化率となる。
 そして、式(30.3)~式(31.2)により算出された単位接ベクトル及び変化率に基づいて、センサユニットSk-1の最終位置PF,k-1とセンサユニットSの最終位置PF,kとの間の最終円弧LF,kのパラメータが算出される。ここで、最終円弧LF,kの半径RF,kは、式(31.1)、式(31.2)を用いて算出された変化率の逆数であるため、 
Figure JPOXMLDOC01-appb-M000032
となる。また、最終円弧LF,kの中心OF,kのグローバル座標Cでの位置が、 
Figure JPOXMLDOC01-appb-M000033
により求められる。さらに、最終円弧LF,kの中心角φF,kが、 
Figure JPOXMLDOC01-appb-M000034
により求められる。
 なお、最終円弧LF,k以外の最終円弧LF,jについても、式(30.1)~式(34)のkをjで置換した式を用いて、最終円弧LF,kと同様に、パラメータ算出部67により、最終円弧LF,jのパラメータが算出される。すなわち、それぞれのセンサユニットSの最終位置PF,iに基づいて、それぞれの最終円弧LF,jのパラメータを算出する(ステップS131)。
 そして、パラメータ算出部67により算出された最終円弧LF,jのパラメータに基づいて、最終円弧形成部69が、それぞれのセンサユニットSの最終位置PF,iの間を曲線補間し、最終円弧LF,jを形成する(ステップS132)。最終円弧LF,jの形成は、クォータニオン(四元数)及び媒介変数を用いた補間関数により行われる。
 ここで、クォータニオンは、複素数を拡張した数であり、 
Figure JPOXMLDOC01-appb-M000035
で現される。式(35)のi,j,kは虚数単位を示し、 
Figure JPOXMLDOC01-appb-M000036
の関係を満たす。
 図18に示すように、センサユニットSk-1の最終位置PF,k-1とセンサユニットSの最終位置PF,kとの間の最終円弧LF,kを形成する場合には、グローバル座標系Cにおいて、最終円弧LF,kの中心OF,kからセンサユニットSk-1の最終位置PF,k-1へのベクトルを算出する。中心OF,kから最終位置PF,k-1へのベクトルは、 
Figure JPOXMLDOC01-appb-M000037
となる。また、グローバル座標系Cにおいて、最終円弧LF,kの中心OF,kからセンサユニットSの最終位置PF,kへのベクトルを算出する。中心OF,kから最終位置PF,kへのベクトルは、 
Figure JPOXMLDOC01-appb-M000038
となる。
 式(37)で算出されたベクトルは、クォータニオンにより、 
Figure JPOXMLDOC01-appb-M000039
と現される。同様に、式(38)で算出されたベクトルは、クォータニオンにより、 
Figure JPOXMLDOC01-appb-M000040
と現される。すなわち、算出されたベクトルのグローバル座標系CのX軸方向成分が、クォータニオンの虚数iの成分となる。同様に、ベクトルのグローバル座標系CのY軸方向成分がクォータニオンの虚数jの成分となり、ベクトルのグローバル座標系CのZ軸方向成分がクォータニオンの虚数kの成分となる。
 そして、式(39)、式(40)のクォータ二オンを用いて、以下の関数L´F,k(t)を定義する。関数L´F,k(t)は、 
Figure JPOXMLDOC01-appb-M000041
となる。ここで、tは媒介変数である。正規化のため、式(41)の両辺をsinφF,kで割ると、 
Figure JPOXMLDOC01-appb-M000042
となり、補間関数LF,k(t)が算出される。
 そして、補間関数LF,k(t)でtを0から1に変化させることにより、センサユニットSk-1の最終位置PF,k-1とセンサユニットSの最終位置PF,kとの間が曲線補間され、最終円弧LF,kが形成される。この際、最終位置PF,k-1と最終位置PF,kとの間は、媒介変数tの変化に対して等角速度で曲線補間される。例えば、tが0から0.1に変化する間に補間される距離d1と、tが0.5から0.6に変化する間に補間される距離d2は同一である(図18参照)。したがって、最終位置PF,k-1と最終位置PF,kとの間を補間する際に、角速度の変化を考慮する必要がないため、最終円弧LF,kを形成する処理が単純化される。
 なお、最終円弧LF,k以外の最終円弧LF,jについても、補間関数LF,j(t)を用いて形成される。補間関数LF,j(t)は、式(37)~式(42)のkをjで置換した式を用いて、算出される。この場合も、それぞれのセンサユニットSの最終位置PF,iの間は、補間関数LF,j(t)の媒介変数tの変化に対して等角速度で曲線補間される。すべての最終円弧LF,jが形成されることにより、内視鏡10の挿入部11の最終曲線形状85が検出される。
 図4に示すように、最終曲線形状検出部65により最終曲線形状85が検出されると、内視鏡形状検出装置1による検査が完了したかを確認する(ステップS108)。検査が完了していない場合は(ステップS108-No)、ステップS101に戻り、次の静状態での内視鏡10の挿入部11の形状検出を行う。検査が完了している場合は(ステップS108-Yes)、内視鏡10の挿入部11の形状検出は終了する。
 そこで、上記構成の内視鏡形状検出装置1及び内視鏡形状検出装置1を用いた内視鏡10の挿入部11の形状検出方法では、以下の効果を奏する。すなわち、内視鏡形状検出装置1では、それぞれのセンサユニットSの計測データから姿勢検出部30がセンサユニットSの姿勢を検出し、それぞれのセンサユニットSの姿勢からセンサ仮位置検出部40でそれぞれのセンサユニットSの仮位置P0,iを検出する。そして、仮曲線形状検出部50が、それぞれのセンサユニットSの仮位置P0,iの間を仮円弧L0,jで曲線補間を行い、仮曲線形状75を検出する。そして、センサ位置修正部55が、仮曲線形状75のそれぞれの仮円弧L0,jの弧長R0,jφ0,jとセンサ間寸法lとの差の絶対値に基づいて、それぞれのセンサユニットSの位置を修正する。そして、最終曲線形状検出部65が位置修正されたそれぞれのセンサユニットSの最終位置PF,iの間を最終円弧LF,jで曲線補間を行い、最終曲線形状85を検出する。以上のように、観察時に体腔内に挿入される挿入部11に配置されるセンサユニットSの計測データから、挿入部11の最終曲線形状85が検出されるため、体外にセンスコイル等を設ける必要がない。このため、内視鏡形状検出装置1の小型化、単純化を実現することができる。
 また、センサ位置順次補正部57によりそれぞれのセンサユニットSの位置を補正する際には、センサ移動部61がセンサユニットSを移動前位置Qt-1,iから移動後位置Qt,iまで移動する。そして、センサ移動部61によりセンサユニットSの移動が1回行われるたびに、移動後円弧形成部62により、センサユニットSに対して基端側に隣設されるセンサユニットSi-1の最終位置PF,i-1とセンサユニットSの移動後位置Qt,iとの間が曲線補間され、移動後円弧Lt,jが形成される。そして、移動後円弧Lt,jが形成された後、移動制御部63により移動後円弧Lt,jの弧長Rt,jφt,jとセンサ間寸法lとの差の絶対値であるエネルギーEt,jが算出される。エネルギーEt,jが所定の閾値より大きい場合は、センサ移動部61がセンサユニットSを位置Qt,iからさらに移動させる。エネルギーEt,jが所定の閾値以下の場合は、最終位置決定部64が、センサ移動部61によるセンサユニットSの最終回の移動での移動後位置QF,iを、補正対象センサ81であるセンサユニットSの最終位置PF,iとして決定する。すなわち、エネルギーEt,jが所定の閾値以下になるまで、センサ移動部61によるセンサユニットSの移動が繰り返される。以上のように、それぞれのセンサユニットSの間の実際の寸法であるセンサ間寸法lに基づいて、センサ位置順次補正部57によるそれぞれのセンサユニットSの位置補正が行われるため、実際の挿入部11の形状と誤差の少ない最終曲線形状85を検出することができる。これにより、高い精度で挿入部11の最終曲線形状85を検出することができる。
 また、センサ位置修正部55によりセンサユニットSの位置を修正すると、センサユニットSに対して基端側に隣設されるセンサユニットSi-1とセンサユニットSとの間の形状のみが影響を受け、仮円弧L0,jが最終円弧LF,jに修正される。すなわち、1つのセンサユニットSの位置修正が行われるたびに、挿入部11の形状全体が修正される構成でない。ここで、センサ間寸法lは、それぞれのセンサユニットSの間の長手方向の寸法であり、挿入部11の局所的なパラメータである。すなわち、センサ間寸法lは、挿入部11全体の形状に影響を与えるパラメータではなく、挿入部11の形状に局所的に影響を与えるパラメータである。したがって、1つのセンサユニットSの位置の修正により、位置修正されたセンサユニットSの近傍で局所的に挿入部11の形状が修正されるため、高い精度で仮円弧L0,jから最終円弧LF,jへの修正が行われる。これにより、挿入部11の最終曲線形状85を、高い精度で検出することができる。また、1つのセンサユニットSの位置の修正により、位置修正されたセンサユニットSの近傍でのみ局所的に挿入部11の形状が修正されるため、挿入部11の形状を修正する処理を単純化することができる。
 また、最終曲線形状検出部65では、補間関数LF,j(t)でtを0から1に変化させることにより、それぞれのセンサユニットSの最終位置PF,iの間が曲線補間され、それぞれの最終円弧LF,jが形成される。この際、それぞれのセンサユニットSの最終位置PF,iの間は、媒介変数tの変化に対して等角速度で曲線補間される。したがって、それぞれの最終位置PF,iの間を補間する際に、角速度の変化を考慮する必要がないため、それぞれの最終円弧LF,jを形成する処理を単純化することができる。
 さらに、内視鏡形状検出装置1では、挿入部11が移動していない静状態において、加速度センサAが重力加速度を計測し、地磁気センサBが地磁気を計測する。そして、計測された重力加速度、地磁気から姿勢検出部30がそれぞれのセンサユニットSの姿勢を検出する。静状態では、重力加速度及び地磁気は、常に一定の方向に一定の大きさを有する。重力加速度、地磁気からそれぞれのセンサユニットSの姿勢を検出するため、静状態においても高い精度でセンサユニットSの姿勢を検出することができる。これにより、高い精度で挿入部11の最終曲線形状85を検出することができる。
 (第2の実施形態) 
 次に、本発明の第2の実施形態について図19を参照して説明する。なお、第1の実施形態と同一の部分及び同一の機能を有する部分については同一の符号を付して、その説明は省略する。
 本実施形態のセンサ位置修正部55は、第1の実施形態と同様に、基端側(グローバル座標系Cの原点に近い側)のセンサユニットSから順次に、それぞれのセンサユニットSの補正前位置Q0,iから最終位置PF,iへの位置補正を行うセンサ位置順次補正部57と、センサ位置順次補正部57により1つのセンサユニットSの位置補正が行われるたびに、位置補正が完了していないセンサユニットSである未補正センサ群77を平行移動させる未補正センサ群移動部59と、を備える。
 センサ位置順次補正部57は、第1の実施形態と同様に、位置補正の対象である補正対象センサ81を補正前位置Q0,iから1回以上移動させるセンサ移動部61を備える。センサ移動部61での1回の移動により、補正対象センサ81は移動前位置Qt-1,iから移動後位置Qt,iまで移動する。また、センサ位置順次補正部57は、センサ移動部61により補正対象センサ81の移動が1回行われるたびに、補正対象センサ81に対して基端側(グローバル座標系Cの原点に近い側)に隣設されるセンサユニットSである近位側隣設センサ82の最終位置PF,i-1と補正対象センサ81の移動後位置Qt,iとの間を曲線補間する移動後円弧形成部62とを備える。移動後円弧形成部62で近位側隣設センサ82の最終位置PF,i-1と補正対象センサ81の移動後位置Qt,iとの間を曲線補間することにより、移動後円弧Lt,jが形成される。
 センサ位置順次補正部57は、近位側隣設センサ82の最終位置PF,i-1と補正対象センサ81の移動前の移動前位置Qt-1,iとの間を曲線補間して形成される移動前円弧Lt-1,jの弧長Rt-1,jφt-1,jとセンサ間寸法lとの差の絶対値に対して、移動後円弧Lt,jの弧長Rt,jφt,jとセンサ間寸法lとの差の絶対値が小さくなる補正対象センサ81の移動を所定の回数だけ繰り返す状態にセンサ移動部61を制御する移動制御部63を備える。ここで、移動前円弧Lt-1,jの弧長Rt-1,jφt-1,jとセンサ間寸法lとの差の絶対値をエネルギーEt-1,jとする。同様に、移動後円弧Lt,jの弧長Rt,jφt,jとセンサ間寸法lとの差の絶対値をエネルギーEt,jとする。また、センサ位置順次補正部57は、センサ移動部61による最終回の移動での移動後位置QF,iを、補正対象センサ81の最終位置PF,iとして決定する最終位置決定部64を備える。
 ここで、センサ位置修正部55で、それぞれのセンサユニットSの位置を修正する方法について説明する。センサ位置修正部55は、第1の実施形態と同様に、仮曲線形状検出部50により検出された仮曲線形状75のそれぞれの仮円弧L0,jの弧長R0,jφ0,jとセンサ間寸法lとの差の絶対値に基づいて、それぞれのセンサユニットSの位置を修正する(図4のステップS106)。すなわち、式(22)で求められるエネルギーE0,j基づいて、それぞれのセンサユニットSの位置を修正する。これにより、それぞれのセンサユニットSは、仮位置P0,iから最終位置PF,iまで修正される。
 図19は、センサ位置修正部55によりそれぞれのセンサユニットSの位置を修正する方法を示すフローチャートである。図19に示すように、それぞれのセンサユニットSの位置を修正する際は、第1の実施形態と同様に、センサ位置順次補正部57により基端側(グローバル座標系Cの原点に近い側)のセンサユニットSから順次に、それぞれのセンサユニットSの補正前位置Q0,iから最終位置PF,iへの位置補正が行われる。センサ位置順次補正部57は、未補正センサ群77の中で最も基端側のセンサユニットSの位置補正を開始する(ステップS141)。すなわち、センサユニットSk-1まで補正前位置Q0,iから最終位置PF,iへの位置補正が完了している場合には、センサ位置順次補正部57により、未補正センサ群77の中で最も基端側のセンサユニットSの最終位置PF,kへの位置補正が開始される。この場合、センサユニットSが位置補正の対象である補正対象センサ81となる。なお、以下の説明では、基端側から(k+1)番目のセンサユニットSの位置補正について説明する。
 補正対象センサ81であるセンサユニットSの位置補正を開始する際、センサユニットSk-1まで最終位置PF,iへの位置補正が完了している。この際、センサユニットSは、補正前位置Q0,kに位置している。この状態で、センサ移動部61により、センサユニットSが位置Q0,kから位置Q1,kに移動し(ステップS142)、センサユニットSの1回目の移動が行われる。センサ移動部61によるセンサユニットSの移動は、1回以上行われる。そして、s回目の移動では、補正対象センサ81であるセンサユニットSは移動前位置Qs-1,kから移動後位置Qs,kまで移動する。すなわち、センサ移動部61による1回の移動により、センサユニットSは移動前位置Qt-1,kから移動後位置Qt,kまで移動する(ステップS142)。
 そして、センサ移動部61によりセンサユニットSの移動が1回行われるたびに、移動後円弧形成部62により、センサユニットSに対して基端側に隣設されるセンサユニットSk-1の最終位置PF,k-1とセンサユニットSの移動後位置Qt,kとの間が曲線補間され、移動後円弧Lt,kが形成される(ステップS143)。s回目の移動後には、センサユニットSk-1の最終位置PF,k-1とセンサユニットSの移動後位置Qs,kとの間が曲線補間され、移動後円弧Ls,kが形成される。ここで、センサユニットSk-1は、補正対象センサ81であるセンサユニットSに対してグローバル座標系Cの原点に近い側に隣設される近位側隣設センサ82である。
 センサユニットSのs回目に移動後に移動後円弧Ls,kを形成する際は、第1の実施形態と同様に式(23.1)~式(28)を用いて、移動後円弧Ls,kのパラメータが算出される。そして算出されたパラメータを用いて、最終位置PF,k-1と移動後位置Qs,kとの間の移動後円弧Ls,kが形成される。
 なお、センサユニットSのs回目に移動後に移動後円弧Ls,kを形成する処理について説明したが、センサユニットSのs回目以外の移動後についても、式(23.1)~式(28)で、sをtで置換した式を用いて同様に、センサユニットSk-1の最終位置PF,k-1とセンサユニットSの移動後位置Qt,kとの間の移動後円弧Lt,kが形成される。
 センサ移動部61は、移動制御部63により、近位側隣設センサ82の最終位置PF,k-1と補正対象センサ81の移動前の移動前位置Qt-1,kとの間を曲線補間して形成される移動前円弧Lt-1,kの弧長Rt-1,kφt-1,kとセンサ間寸法lとの差の絶対値に対して、移動後円弧Lt,kの弧長Rt,kφt,kとセンサ間寸法lとの差の絶対値が小さくなる補正対象センサ81の移動を行う状態に制御されている。ここで、移動後円弧Lt,kの弧長Rt,kφt,kとセンサ間寸法lとの差の絶対値をエネルギーEt,kとし、第1の実施形態と同様に式(29)で与えられる。また、移動前円弧Lt-1,kの弧長Rt-1,kφt-1,kとセンサ間寸法lとの差の絶対値をエネルギーEt-1,kとし、式(29)のtをt-1で置換した式で与えられる。すなわち、センサ移動部61は、移動後のエネルギーEt,kが移動前のエネルギーEt-1,kより小さくなる状態に補正対象センサ81であるセンサユニットSの移動を行っている(ステップS142)。なお、例えばセンサユニットSのs回目の移動での移動前円弧Ls-1,kは、センサユニットSの(s-1)回目の移動での移動後円弧Ls-1,kと同一の円弧である。センサユニットSのs回目の移動での移動前円弧Ls-1,kは、式(23.1)~式(28)でsをs-1で置換した式を用いて、形成される。
 そして、移動制御部63が、補正対象センサ81であるセンサユニットSの移動を所定の回数だけ行ったかを判断する(ステップS144)。センサユニットSの移動を所定の回数だけ行っていない場合は(ステップS144-No)、ステップS122に戻り、センサ移動部61がセンサユニットSを位置Qt,kからさらに移動させる。この場合、センサユニットSのs回目の移動後に、センサ移動部61により(s+1)回目の移動が行われる。(s+1)回目の移動により、センサユニットSは移動前位置Qs,kから移動後位置Qs+1,kに移動する。以上のように、センサ移動部61は、補正対象センサ81であるセンサユニットSの移動前位置Qt-1,kから移動後位置Qt,kへの移動を所定の回数だけ繰り返し行う状態に、移動制御部63により制御されている。
 センサユニットSの移動が所定の回数だけ行われた場合は(ステップS144-Yes)、次のステップに進む。そして、最終位置決定部64が、センサ移動部61によるセンサユニットSの最終回(例えばF回目)の移動での移動後位置QF,kを、補正対象センサ81であるセンサユニットSの最終位置PF,kとして決定する(ステップS145)。以上のようにして、センサユニットSの最終位置PF,kへの位置修正が完了する。
 なお、センサユニットS以外のセンサユニットSについても、センサ位置順次補正部57によりセンサユニットSと同様に最終位置Pi,kへの位置補正が行われる。すなわち、センサ移動部61により、センサユニットSは移動前位置Qt-1,iから移動後位置Qt,iまで移動する(ステップS142)。そして、センサ移動部61によりセンサユニットSの移動が1回行われるたびに、移動後円弧形成部62により、センサユニットSに対して基端側に隣設されるセンサユニットSi-1の最終位置PF,i-1とセンサユニットSの移動後位置Qt,iとの間が曲線補間され、移動後円弧Lt,jが形成される(ステップS143)。センサ移動部61は、移動前円弧Lt-1,jの弧長Rt-1,jφt-1,jとセンサ間寸法lとの差の絶対値に対して、移動後円弧Lt,jの弧長Rt,jφt,jとセンサ間寸法lとの差の絶対値が小さくなる状態に、センサユニットSの移動を行っている(ステップS142)。すなわち、移動後のエネルギーEt,jが移動前のエネルギーEt-1,jより小さくなる状態に、補正対象センサ81であるセンサユニットSの移動を行っている。
 そして、移動後円弧Lt,jが形成された後、移動制御部63によりセンサユニットSの移動が所定の回数だけ行われたか判断される(ステップS144)。センサユニットSの移動が所定の回数だけ行われていない場合は(ステップS144-No)、ステップS142に戻り、センサ移動部61がセンサユニットSを位置Qt,iからさらに移動させる。センサユニットSの移動が所定の回数だけ行われた場合は(ステップS144-Yes)、次のステップに進む。そして、最終位置決定部64が、センサ移動部61によるセンサユニットSの最終回の移動での移動後位置QF,iを、補正対象センサ81であるセンサユニットSの最終位置PF,iとして決定する(ステップS145)。以上のようにして、センサユニットSの最終位置PF,iへの位置補正が完了する。
 そして、第1の実施形態と同様に、センサ位置順次補正部57により1つのセンサユニットSの位置補正が行われるたびに、未補正センサ群移動部59により、位置補正が行われていないセンサユニットSである未補正センサ群77が平行移動される(ステップS146)。未補正センサ群移動部59での処理は、第1の実施形態と同様であるため、詳細な説明は省略する。
 そして、すべてのセンサユニットSについて位置補正が完了したか確認する(ステップS147)。すべてのセンサユニットSについて位置補正が完了している場合は(ステップS147-Yes)、次のステップへ進む。すべてのセンサユニットSについて位置補正が完了していない場合は(ステップS147-No)、ステップS141に戻り、センサ位置順次補正部57により、未補正センサ群77の中で最も基端側のセンサユニットSの位置補正が行われる。すなわち、ステップS141~S146が、すべてのセンサユニットSについて位置補正が完了するまで、繰り返し行われる。
 そこで、上記構成の内視鏡形状検出装置1及び内視鏡形状検出装置1を用いた内視鏡10の挿入部11の形状検出方法では、第1の実施形態と同様の効果に加えて、以下の効果を奏する。すなわち、内視鏡形状検出装置1では、センサ位置順次補正部57によりそれぞれのセンサユニットSの位置を補正する際に、センサ移動部61がセンサユニットSを移動前位置Qt-1,iから移動後位置Qt,iまで移動する。そして、センサ移動部61によりセンサユニットSの移動が1回行われるたびに、移動後円弧形成部62により、センサユニットSに対して基端側に隣設されるセンサユニットSi-1の最終位置PF,i-1とセンサユニットSの移動後位置Qt,iとの間が曲線補間され、移動後円弧Lt,jが形成される。センサ移動部61は、移動前円弧Lt-1,jの弧長Rt-1,jφt-1,jとセンサ間寸法lとの差の絶対値に対して、移動後円弧Lt,jの弧長Rt,jφt,jとセンサ間寸法lとの差の絶対値が小さくなる状態に、補正対象センサ81であるセンサユニットSの移動を行っている。そして、移動後円弧Lt,jが形成された後、移動制御部63によりセンサユニットSの移動が所定の回数だけ行われたか判断される。センサユニットSの移動が所定の回数だけ行われていない場合は、センサ移動部61がセンサユニットSを位置Qt,iからさらに移動させる。センサユニットSの移動が所定の回数だけ行われた場合は、最終位置決定部64が、センサ移動部61によるセンサユニットSの最終回の移動での移動後位置QF,iを、補正対象センサ81であるセンサユニットSの最終位置PF,iとして決定する。すなわち、センサユニットSの移動が所定の回数だけ行われるまで、センサ移動部61によるセンサユニットSの移動が繰り返される。以上のように、それぞれのセンサユニットSの間の実際の寸法であるセンサ間寸法lに基づいて、センサ位置順次補正部57によるそれぞれのセンサユニットSの位置補正が行われるため、実際の挿入部11の形状と誤差の少ない最終曲線形状85を検出することができる。これにより、高い精度で挿入部11の最終曲線形状85を検出することができる。
 (変形例) 
 なお、上述の実施形態では、それぞれのローカル座標系Cは、Y軸方向がセンサユニットSの中心での長手方向と一致している座標系である。しかし、それぞれのローカル座標系Cは、センサユニットSの中心を原点とし、X軸、Y軸、Z軸のいずれか1つの軸がセンサユニットSの中心での長手方向と軸方向が一致する長手方向軸である座標系であればよい。ただし、X軸が長手方向軸である場合は、式(16.1),式(16.2)の代わりに、 
Figure JPOXMLDOC01-appb-M000043
を用いる。同様に、Z軸が長手方向軸である場合は、式(16.1),式(16.2)の代わりに、 
Figure JPOXMLDOC01-appb-M000044
を用いる。ここで、式(43.2)のベクトルはローカル座標系Ck-1の原点での長手方向であるXk-1軸方向の単位ベクトルであり、式(44.2)のベクトルはローカル座標系Ck-1の原点での長手方向であるZk-1軸方向の単位ベクトルである。
 また、上述の実施形態では、グローバル座標系Cは、最も基端側のセンサユニットSの中心を原点とし、Z軸が鉛直方向と一致し、X軸及びY軸が水平面上に配置される座標系である。しかし、X軸、Y軸、Z軸のいずれか1つの軸が鉛直方向と軸方向が一致する鉛直方向軸であり、鉛直方向軸以外の2つの軸が水平面上に配置される水平方向軸である座標系であればよい。これにより、加速度センサAにより計測される重力加速度及び地磁気センサBにより計測される地磁気に基づいて、姿勢検出部30はそれぞれのセンサユニットSの姿勢を検出することが可能である。ただし、X軸が鉛直方向軸の場合は、式(2)で示される重力加速度ベクトルのグローバル座標系CのX軸方向成分、Y軸方向成分、Z軸方向成分は、 
Figure JPOXMLDOC01-appb-M000045
となる。この場合、第1の実施形態では、姿勢角α,β,γはヨー角γ、ピッチ角α、ロール角βの順で回転する(Z,X,Y)型としたが、姿勢角α,β,γの回転する順序を変えて、式(1)の回転行列とは別の回転行列を用いる。これにより、加速度センサAで計測された加速度データに基づいて、第1の角度算出部34で水平方向軸であるY軸,Z軸回りの姿勢角β,γが算出される。また、地磁気センサBで計測された地磁気データに基づいて、第2の角度算出部36で鉛直方向軸であるX軸回りの姿勢角αが算出される。Y軸が鉛直方向軸の場合についても同様であり、加速度センサAで計測された加速度データに基づいて、第1の角度算出部34で水平方向軸であるX軸,Z軸回りの姿勢角α,γが算出される。また、地磁気センサBで計測された地磁気データに基づいて、第2の角度算出部36で鉛直方向軸であるY軸回りの姿勢角βが算出される。
 さらに、上述の実施形態では、グローバル座標系Cは、最も基端側のセンサユニットSの中心を原点としているが、最も先端側のセンサユニットSの中心を原点としてもよい。この場合、仮リンク形成部41は、式(16.1),式(16.2)のkをj+1で置換した式を用いて、仮リンクT0,jの先端側(グローバル座標系Cの原点から近い側)のセンサユニットSから仮リンクT0,jの基端側(グローバル座標系Cの原点から遠い側)のセンサユニットSj-1へのベクトルを求める。そして、センサユニットSからセンサユニットSj-1へのベクトルにより、仮リンクT0,jが形成される。すなわち、仮リンク形成部41は、仮リンクT0,jが先端側(グローバル座標系Cの原点から近い側)のセンサユニットSの中心から基端側(グローバル座標系Cの原点から遠い側)のセンサユニットSj-1の中心まで先端側のセンサユニットSの中心での長手方向に延設されると仮定して、仮リンクT0,jを形成する。また、センサ位置修正部55のセンサ位置順次補正部57によりそれぞれのセンサユニットSの位置補正を行う際は、先端側(グローバル座標系Cの原点から近い側)のセンサユニットSから順次に位置補正が行われる。この場合、補正対象センサ81の先端側(グローバル座標系Cの原点に近い側)に隣設されるセンサユニットSが近位側隣設センサ82となる。
 以上、本発明の実施形態について説明したが、本発明は上記の実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲で種々の変形ができることは勿論である。

Claims (14)

  1.  長手方向に互いに所定のセンサ間寸法だけ離れて複数のセンサユニットが配置される挿入部を備える内視鏡と、
     前記センサユニットの計測データに基づいて、それぞれの前記センサユニットの姿勢を検出する姿勢検出部と、
     前記姿勢検出部により検出されたそれぞれの前記センサユニットの姿勢に基づいて、それぞれの前記センサユニットの間を寸法が前記センサ間寸法に等しい直線状の仮リンクと仮定して、それぞれの前記センサユニットの仮位置を検出するセンサ仮位置検出部と、
     前記センサ仮位置検出部により検出されたそれぞれの前記センサユニットの前記仮位置に基づいて、それぞれの前記センサユニットの前記仮位置の間を仮円弧で曲線補間を行い、前記挿入部の仮曲線形状を検出する仮曲線形状検出部と、
     前記仮曲線形状検出部により検出された前記仮曲線形状のそれぞれの前記仮円弧の弧長と前記センサ間寸法との差の絶対値に基づいて、それぞれの前記センサユニットの位置を前記仮位置から最終位置まで修正するセンサ位置修正部と、
     それぞれの前記センサユニットの前記最終位置の間を最終円弧で曲線補間し、前記挿入部の最終曲線形状を検出する最終曲線形状検出部と、
     を具備する内視鏡形状検出装置。
  2.  前記仮曲線形状検出部は、
     それぞれの前記センサユニットの前記仮位置での単位接ベクトルを算出する単位接ベクトル算出部と、
     前記単位接ベクトル算出部で算出されたそれぞれの前記単位接ベクトルに基づいて、それぞれの前記センサユニットの前記仮位置の間での前記単位接ベクトルの変化率を算出する変化率算出部と、
     前記単位接ベクトル算出部で算出されたそれぞれの前記単位接ベクトル、及び、前記変化率算出部で算出されたそれぞれの前記変化率に基づいて、それぞれの前記センサユニットの前記仮位置の間の前記仮円弧を形成する仮円弧形成部と、
     を備える請求項1の内視鏡形状検出装置。
  3.  前記センサ位置修正部は、
     最も基端側又は最も先端側の前記センサユニットの中心を原点とするグローバル座標系において、前記グローバル座標系の前記原点に近い側の前記センサユニットから順次に位置補正を行い、それぞれの前記センサユニットを位置補正前の補正前位置から前記最終位置へ位置補正するセンサ位置順次補正部と、
     前記センサ位置順次補正部により1つの前記センサユニットの位置補正が行われるたびに、直前の位置補正で補正対象だった前記センサユニットである直前補正対象センサの前記補正前位置から前記最終位置への補正量だけ、位置補正が完了していない前記センサユニットである未補正センサ群を平行移動させる未補正センサ群移動部と、
     を備える請求項1の内視鏡形状検出装置。
  4.  前記センサ位置順次補正部は、
     位置補正の対象である補正対象センサを前記補正前位置から1回以上移動させ、1回の移動により前記補正対象センサを移動前位置から移動後位置まで移動させるセンサ移動部と、
     前記センサ移動部により前記補正対象センサの移動が1回行われるたびに、前記補正対象センサに対して前記グローバル座標系の前記原点に近い側に隣設される前記センサユニットでるある近位側隣設センサの前記最終位置と前記補正対象センサの前記移動後位置との間を曲線補間し、移動後円弧を形成する移動後円弧形成部と、
     を備える請求項3の内視鏡形状検出装置。
  5.  前記センサ位置順次補正部は、
     前記移動後円弧形成部により形成される前記移動後円弧の弧長と前記センサ間寸法との差の絶対値が所定の閾値以下になるまで、前記補正対象センサの前記移動前位置から前記移動後位置への移動を繰り返し行う状態に前記センサ移動部を制御する移動制御部と、
     前記センサ移動部による最終回の移動での前記移動後位置を、前記補正対象センサの前記最終位置として決定する最終位置決定部と、
     を備える請求項4の内視鏡形状検出装置。
  6.  前記センサ位置順次補正部は、
     前記近位側隣設センサの前記最終位置と前記補正対象センサの前記移動前位置との間を曲線補間して形成される移動前円弧の弧長と前記センサ間寸法との差の絶対値に対して、前記移動後円弧の弧長と前記センサ間寸法との差の絶対値が小さくなる前記補正対象センサの移動を所定の回数だけ繰り返す状態に、前記センサ移動部を制御する移動制御部と、
     前記センサ移動部による最終回の移動での前記移動後位置を、前記補正対象センサの前記最終位置として決定する最終位置決定部と、
     を備える請求項4の内視鏡形状検出装置。
  7.  前記最終曲線形状検出部は、
     それぞれの前記センサユニットの前記最終位置に基づいて、それぞれの前記最終円弧のパラメータを算出するパラメータ算出部と、
     前記パラメータ算出部により算出された前記パラメータに基づいて、クォータニオン及び媒介変数を用いた補間関数により、前記媒介変数の変化に対して等角速度でそれぞれの前記センサユニットの前記最終位置の間を曲線補間し、前記最終円弧を形成する最終円弧形成部と、
     を備える請求項1の内視鏡形状検出装置。
  8.  内視鏡の挿入部に、長手方向に互いに所定のセンサ間寸法だけ離れて配置される複数のセンサユニットで計測を行うことと、
     前記センサユニットでの計測データに基づいて、それぞれの前記センサユニットの姿勢を検出することと、
     検出されたそれぞれの前記センサユニットの姿勢に基づいて、それぞれの前記センサユニットの間を寸法が前記センサ間寸法に等しい直線状の仮リンクと仮定して、それぞれの前記センサユニットの仮位置を検出することと、
     検出されたそれぞれの前記センサユニットの前記仮位置に基づいて、それぞれの前記センサユニットの前記仮位置の間を仮円弧で曲線補間を行い、前記挿入部の仮曲線形状を検出することと、
     検出された前記仮曲線形状のそれぞれの前記仮円弧の弧長と前記センサ間寸法との差の絶対値に基づいて、それぞれの前記センサユニットの位置を前記仮位置から最終位置まで修正することと、
     それぞれの前記センサユニットの前記最終位置の間を最終円弧で曲線補間し、前記挿入部の最終曲線形状を検出することと、
     を具備する内視鏡の挿入部の形状検出方法。
  9.  前記仮曲線形状を検出することは、
     それぞれの前記センサユニットの前記仮位置での単位接ベクトルを算出することと、
     算出されたそれぞれの前記単位接ベクトルに基づいて、それぞれの前記センサユニットの前記仮位置の間での前記単位接ベクトルの変化率を算出することと、
     算出されたそれぞれの前記単位接ベクトル及びそれぞれの前記変化率に基づいて、それぞれの前記センサユニットの前記仮位置の間の前記仮円弧を形成することと、
     を備える請求項8の内視鏡の挿入部の形状検出方法。
  10.  それぞれの前記センサユニットの位置を前記仮位置から前記最終位置まで修正することは、
     最も基端側又は最も先端側の前記センサユニットの中心を原点とするグローバル座標系において、前記グローバル座標系の前記原点に近い側の前記センサユニットから順次に位置補正を行い、それぞれの前記センサユニットを位置補正前の補正前位置から前記最終位置へ位置補正することと、
     1つの前記センサユニットの位置補正が行われるたびに、直前の位置補正で補正対象だった前記センサユニットである直前補正対象センサの前記補正前位置から前記最終位置への補正量だけ、位置補正が完了していない前記センサユニットである未補正センサ群を平行移動させることと、
     を備える請求項8の内視鏡の挿入部の形状検出方法。
  11.  前記グローバル座標系の前記原点に近い側の前記センサユニットから順次に、それぞれの前記センサユニットの位置補正を行うことは、
     位置補正の対象である補正対象センサを前記補正前位置から1回以上移動させ、1回の移動により前記補正対象センサを移動前位置から移動後位置まで移動させることと、
     前記補正対象センサの移動が1回行われるたびに、前記補正対象センサに対して前記グローバル座標系の前記原点に近い側に隣設される前記センサユニットでるある近位側隣設センサの前記最終位置と前記補正対象センサの前記移動後位置との間を曲線補間し、移動後円弧を形成することと、
     を備える請求項10の内視鏡の挿入部の形状検出方法。
  12.  前記グローバル座標系の前記原点に近い側の前記センサユニットから順次に、それぞれの前記センサユニットの位置補正を行うことは、
     形成される前記移動後円弧の弧長と前記センサ間寸法との差の絶対値が所定の閾値以下になるまで、前記補正対象センサの前記移動前位置から前記移動後位置への移動を繰り返し行うことと、
     最終回の移動での前記移動後位置を、前記補正対象センサの前記最終位置として決定することと、
     を備える請求項11の内視鏡の挿入部の形状検出方法。
  13.  前記グローバル座標系の前記原点に近い側の前記センサユニットから順次に、それぞれの前記センサユニットの位置補正を行うことは、
     前記近位側隣設センサの前記最終位置と前記補正対象センサの前記移動前位置との間を曲線補間して形成される移動前円弧の弧長と前記センサ間寸法との差の絶対値に対して、前記移動後円弧の弧長と前記センサ間寸法との差の絶対値が小さくなる前記補正対象センサの移動を所定の回数だけ繰り返すことと、
     最終回の移動での前記移動後位置を、前記補正対象センサの前記最終位置として決定することと、
     を備える請求項11の内視鏡の挿入部の形状検出方法。
  14.  前記挿入部の最終曲線形状を検出することは、
     それぞれの前記センサユニットの前記最終位置に基づいて、それぞれの前記最終円弧のパラメータを算出することと、
     算出された前記パラメータに基づいて、クォータニオン及び媒介変数を用いた補間関数により、前記媒介変数の変化に対して等角速度でそれぞれの前記センサユニットの前記最終位置の間を曲線補間し、前記最終円弧を形成することと、
     を備える請求項8の内視鏡の挿入部の形状検出方法。
PCT/JP2011/063736 2010-08-27 2011-06-15 内視鏡形状検出装置及び内視鏡の挿入部の形状検出方法 WO2012026184A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP11813645.6A EP2460457B8 (en) 2010-08-27 2011-06-15 Endoscopic form detection device and form detecting method of insertion section of endoscope
JP2011537466A JP4897123B1 (ja) 2010-08-27 2011-06-15 内視鏡形状検出装置及び内視鏡の挿入部の形状検出方法
CN201180003551.8A CN102487602B (zh) 2010-08-27 2011-06-15 内窥镜形状检测装置及内窥镜的插入部的形状检测方法
US13/242,415 US8403829B2 (en) 2010-08-27 2011-09-23 Endoscopic form detection device and form detecting method of insertion section of endoscope

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010-191350 2010-08-27
JP2010191350 2010-08-27

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/242,415 Continuation US8403829B2 (en) 2010-08-27 2011-09-23 Endoscopic form detection device and form detecting method of insertion section of endoscope

Publications (1)

Publication Number Publication Date
WO2012026184A1 true WO2012026184A1 (ja) 2012-03-01

Family

ID=45723200

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/063736 WO2012026184A1 (ja) 2010-08-27 2011-06-15 内視鏡形状検出装置及び内視鏡の挿入部の形状検出方法

Country Status (4)

Country Link
EP (1) EP2460457B8 (ja)
JP (1) JP4897123B1 (ja)
CN (1) CN102487602B (ja)
WO (1) WO2012026184A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8403829B2 (en) 2010-08-27 2013-03-26 Olympus Medical Systems Corp. Endoscopic form detection device and form detecting method of insertion section of endoscope
WO2015125796A1 (ja) * 2014-02-20 2015-08-27 オリンパス株式会社 マニピュレータシステムとその制御方法
US20150351608A1 (en) * 2013-01-10 2015-12-10 Ohio University Method and device for evaluating a colonoscopy procedure
JP2018504682A (ja) * 2014-12-08 2018-02-15 セス,ロヒット ウェアラブルワイヤレスhmiデバイス

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2620094B1 (en) * 2011-08-01 2015-10-14 Olympus Corporation Apparatus for displaying shape of insertion portion
JP6128796B2 (ja) * 2012-10-25 2017-05-17 オリンパス株式会社 挿入システム、挿入支援装置、挿入支援装置の作動方法及びプログラム
JP6205125B2 (ja) * 2012-12-11 2017-09-27 オリンパス株式会社 内視鏡装置の挿入支援情報検出システム及び内視鏡装置
JP2015181643A (ja) * 2014-03-24 2015-10-22 オリンパス株式会社 湾曲形状推定システム、管状挿入システム、及び、湾曲部材の湾曲形状推定方法
CN113116475B (zh) * 2020-12-31 2023-06-20 杭州堃博生物科技有限公司 经导管的导航处理方法、装置、介质、设备与导航系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1119027A (ja) * 1997-07-01 1999-01-26 Olympus Optical Co Ltd 内視鏡形状検出装置
JP2000175862A (ja) 1998-12-17 2000-06-27 Olympus Optical Co Ltd 内視鏡挿入形状検出装置
JP2007130175A (ja) 2005-11-09 2007-05-31 Pentax Corp 内視鏡挿入部形状把握システム
JP2007130154A (ja) * 2005-11-09 2007-05-31 Pentax Corp 内視鏡挿入部形状把握システム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6059718A (en) * 1993-10-18 2000-05-09 Olympus Optical Co., Ltd. Endoscope form detecting apparatus in which coil is fixedly mounted by insulating member so that form is not deformed within endoscope
US20070106114A1 (en) * 2005-11-09 2007-05-10 Pentax Corporation Endoscope-shape monitoring system
WO2009097461A1 (en) * 2008-01-29 2009-08-06 Neoguide Systems Inc. Apparatus and methods for automatically controlling an endoscope
CN101347331B (zh) * 2008-06-06 2011-09-07 微创医疗器械(上海)有限公司 一种模拟导管弯曲形态的方法及磁感应导管
JP4897122B2 (ja) * 2010-05-31 2012-03-14 オリンパスメディカルシステムズ株式会社 内視鏡形状検出装置及び内視鏡の挿入部の形状検出方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1119027A (ja) * 1997-07-01 1999-01-26 Olympus Optical Co Ltd 内視鏡形状検出装置
JP2000175862A (ja) 1998-12-17 2000-06-27 Olympus Optical Co Ltd 内視鏡挿入形状検出装置
JP2007130175A (ja) 2005-11-09 2007-05-31 Pentax Corp 内視鏡挿入部形状把握システム
JP2007130154A (ja) * 2005-11-09 2007-05-31 Pentax Corp 内視鏡挿入部形状把握システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2460457A4

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8403829B2 (en) 2010-08-27 2013-03-26 Olympus Medical Systems Corp. Endoscopic form detection device and form detecting method of insertion section of endoscope
US20150351608A1 (en) * 2013-01-10 2015-12-10 Ohio University Method and device for evaluating a colonoscopy procedure
WO2015125796A1 (ja) * 2014-02-20 2015-08-27 オリンパス株式会社 マニピュレータシステムとその制御方法
JP2015154814A (ja) * 2014-02-20 2015-08-27 オリンパス株式会社 マニピュレータシステムとその制御方法
JP2018504682A (ja) * 2014-12-08 2018-02-15 セス,ロヒット ウェアラブルワイヤレスhmiデバイス

Also Published As

Publication number Publication date
CN102487602A (zh) 2012-06-06
CN102487602B (zh) 2014-09-17
JPWO2012026184A1 (ja) 2013-10-28
EP2460457B1 (en) 2016-08-31
JP4897123B1 (ja) 2012-03-14
EP2460457A1 (en) 2012-06-06
EP2460457B8 (en) 2016-10-26
EP2460457A4 (en) 2012-07-25

Similar Documents

Publication Publication Date Title
JP4897123B1 (ja) 内視鏡形状検出装置及び内視鏡の挿入部の形状検出方法
JP5242865B1 (ja) 挿入部形状推定装置
WO2011152140A1 (ja) 内視鏡形状検出装置及び内視鏡の挿入部の形状検出方法
US20110060185A1 (en) Medical device system and calibration method for medical instrument
CN105486312B (zh) 一种星敏感器与高频角位移传感器组合定姿方法及系统
JP4897121B2 (ja) 内視鏡形状検出装置及び内視鏡の挿入部の形状検出方法
US8403829B2 (en) Endoscopic form detection device and form detecting method of insertion section of endoscope
CN113116524B (zh) 检测补偿方法、装置、导航处理方法、装置与导航系统
CN102264313A (zh) 补偿同轴插管的规划和装配
CN109945889B (zh) 一种基于双姿态传感器的关节角度测量方法
CN107860382B (zh) 一种在地磁异常情况下应用ahrs测量姿态的方法
US11340177B2 (en) Calibration assembly and method for calibrating geometric parameters of CT apparatus
US11058496B2 (en) Registering probe and sheath images on a display
JP3571675B2 (ja) コイル位置測定装置およびコイル位置測定方法
Xu et al. An insertable low-cost continuum tool for shape sensing
CN116402861B (zh) 内窥镜实时追踪方法、装置、计算设备及存储介质
WO2021102217A1 (en) Utilization of multiple imagers and computational photography in endoscopy
CN118570399A (zh) 基于dsa图像的三维血管重建方法和装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201180003551.8

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2011537466

Country of ref document: JP

REEP Request for entry into the european phase

Ref document number: 2011813645

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2011813645

Country of ref document: EP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11813645

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE