WO2015004960A1 - 内視鏡システム - Google Patents

内視鏡システム Download PDF

Info

Publication number
WO2015004960A1
WO2015004960A1 PCT/JP2014/059452 JP2014059452W WO2015004960A1 WO 2015004960 A1 WO2015004960 A1 WO 2015004960A1 JP 2014059452 W JP2014059452 W JP 2014059452W WO 2015004960 A1 WO2015004960 A1 WO 2015004960A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
unit
angle
rotation
endoscope
Prior art date
Application number
PCT/JP2014/059452
Other languages
English (en)
French (fr)
Inventor
今泉 克一
武山 哲英
悠次 酒井
佳也 沖田
Original Assignee
オリンパスメディカルシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパスメディカルシステムズ株式会社 filed Critical オリンパスメディカルシステムズ株式会社
Priority to CN201480023604.6A priority Critical patent/CN105142494B/zh
Priority to JP2015502006A priority patent/JP5788623B2/ja
Priority to EP14823647.4A priority patent/EP2992809A4/en
Publication of WO2015004960A1 publication Critical patent/WO2015004960A1/ja
Priority to US14/959,007 priority patent/US20160081530A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00055Operational features of endoscopes provided with output arrangements for alerting the user
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/065Determining position of the probe employing exclusively positioning means located on or in the probe, e.g. using position sensors arranged on the probe
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00147Holding or positioning arrangements
    • A61B1/00154Holding or positioning arrangements using guiding arrangements for insertion

Definitions

  • the present invention relates to an endoscope system, and more particularly to an endoscope system provided with an insertion assisting tool.
  • an insertion assisting tool for assisting insertion of an endoscope into a deep part of a body cavity, which is used in a state where the endoscope is inserted into a predetermined duct has been conventionally known. ing.
  • US Application Publication No. 2011/0213300 includes a working channel (imaging device port and) for inserting an endoscope or the like, similar to the above-described insertion assisting tool.
  • a movable catheter assembly configured to change the angle of the catheter tip in the vertical direction and the horizontal direction in accordance with an operation is disclosed.
  • the present invention has been made in view of the above-described circumstances, and an endoscope system capable of improving the operability when changing the angle of an insertion assisting tool used in a state where the endoscope is inserted.
  • the purpose is to provide.
  • An endoscope system includes an insertion portion formed so as to have flexibility and an elongated shape, and an endoscope system configured to have a visual field in front of a distal end portion of the insertion portion.
  • An insertion device configured to have an endoscope and a conduit through which the insertion portion can be inserted, and to change the angle of the distal end portion of the conduit according to the operation of the angle operation portion
  • An auxiliary tool configured to generate and output an image according to the field of view of the endoscope, and the image when at least a part of the insertion unit is inserted through the duct
  • a rotation angle calculation unit configured to calculate a rotation angle indicating how much the orientation of the image output from the generation unit is rotated with respect to a reference direction, and an image output from the image generation unit , Cancel the rotation angle and display it on the display screen of the display unit. Having an image rotation unit configured to perform image rotation processing for.
  • the figure which shows the structure of the principal part of the endoscope system which concerns on a 1st Example The block diagram for demonstrating an example of a structure of the main body apparatus which concerns on a 1st Example.
  • the figure which shows an example of the image displayed after the image rotation process which concerns on a 1st Example is performed.
  • the figure which shows the structure of the principal part of the endoscope system which concerns on a 2nd Example The block diagram for demonstrating an example of a structure of the main body apparatus which concerns on a 2nd Example.
  • the figure which shows an example of the image before performing the image rotation process which concerns on a 2nd Example The figure which shows an example of the image and character string which are displayed after the image rotation process which concerns on a 2nd Example is performed.
  • the figure which shows the structure of the principal part of the endoscope system which concerns on a 3rd Example The block diagram for demonstrating an example of a structure of the main body apparatus which concerns on a 3rd Example.
  • the block diagram for demonstrating an example of a structure of the main body apparatus which concerns on a 4th Example The figure which shows an example of a structure of the main body apparatus which concerns on a 4th Example.
  • FIG. 1 is a diagram illustrating a configuration of a main part of an endoscope system according to the first embodiment.
  • the endoscope system 101 includes a scanning endoscope 1, an insertion aid 2, a main body device 3, and a display device 4.
  • the scanning endoscope 1 is formed of a member such as a resin having flexibility, and has an insertion portion 11 formed to have an elongated shape that can be inserted into a body cavity of a subject. It is configured.
  • a connector (not shown) for detachably connecting the scanning endoscope 1 to the main unit 3 is provided at the proximal end portion of the insertion portion 11.
  • the insertion unit 11 includes a light guide unit (not shown) configured to include an optical fiber for guiding illumination light supplied from the main body device 3 to the distal end unit 111, and is guided by the light guide unit.
  • a condensing optical system (not shown) configured to collect the emitted illumination light and emit it to a subject in front of the distal end portion 111, and a main body device that receives return light from the subject at the distal end portion 111.
  • a light receiving portion (not shown) configured to include a fiber bundle for guiding light to 3.
  • the distal end portion 111 of the insertion portion 11 includes a plurality of piezoelectric elements that vibrate according to a drive signal supplied from the main body device 3, and the light emission side of the light guide portion is caused by the vibration of the plurality of piezoelectric elements.
  • An actuator (not shown) configured to be able to oscillate the end of the actuator is provided.
  • the scanning endoscope 1 has a field of view in front of the distal end portion 111 of the insertion portion 11 (an optical image can be obtained by scanning a subject existing in front of the distal end portion 111 of the insertion portion 11). It is configured.
  • the insertion assisting tool 2 includes a flexible tube portion 21 and an angle operation portion 22.
  • the flexible tube portion 21 is formed of a flexible resin or the like and is configured so that the insertion portion 11 can be inserted from the insertion port 211.
  • the flexible tube portion 21 is formed as a conduit through which the insertion portion 11 can be inserted and the distal end portion 111 of the insertion portion 11 can be protruded from the distal end portion 212.
  • the flexible tube portion 21 is provided with a bending piece, a wire, and the like for bending a bending portion (not shown) adjacent to the distal end portion 212.
  • the angle operation unit 22 includes, for example, an operation tool such as a knob or a lever, and the angle of the distal end portion 212 is changed in the vertical direction and the horizontal direction by bending the bending portion of the flexible tube portion 21 in accordance with a user operation. It can be changed to.
  • FIG. 2 is a block diagram for explaining an example of the configuration of the main unit according to the first embodiment.
  • the main body device 3 includes a light source unit 31, a scanning drive unit 32, a light detection unit 33, an A / D conversion unit 34, an image generation unit 35, an image recognition unit 36, and a rotation.
  • An angle calculation unit 37, an image rotation unit 38, and a display control unit 39 are included.
  • the light source unit 31 includes, for example, a laser light source and supplies illumination light for illuminating the subject to the light guide unit of the scanning endoscope 1.
  • the scanning drive unit 32 generates a drive signal for swinging the end portion on the light emitting side of the light guide unit of the scanning endoscope 1 with a predetermined scanning pattern (for example, a spiral shape) and generates the generated drive signal.
  • a drive signal is supplied to the actuator of the scanning endoscope 1.
  • the light detection unit 33 generates an electrical signal corresponding to the return light received by the light receiving unit of the scanning endoscope 1 and outputs the generated electrical signal to the A / D conversion unit 34.
  • the A / D conversion unit 34 converts the electrical signal output from the light detection unit 33 into a digital signal and outputs the digital signal to the image generation unit 35.
  • the image generation unit 35 generates an image corresponding to the field of view of the scanning endoscope 1 by performing processing such as two-dimensional mapping on the digital signal output in time series from the A / D conversion unit 34.
  • the generated image is output to the image recognition unit 36 and the image rotation unit 38.
  • the image recognition unit 36 is configured to be able to determine whether or not a predetermined mark is included in the image by performing an image recognition process on the image output from the image generation unit 35. Yes. Then, when the image recognition unit 36 obtains a determination result that the image output from the image generation unit 35 includes a predetermined mark, the image recognition unit 36 outputs the image to the rotation angle calculation unit 37.
  • the rotation angle calculation unit 37 rotates the degree of the orientation of the image generated by the image generation unit 35 when at least a part of the insertion unit 11 is inserted through the flexible tube unit 21 with respect to the reference direction.
  • the rotation angle indicating whether or not Specifically, the rotation angle calculation unit 37 is, for example, at a position where a predetermined mark included in an image output from the image generation unit 35 via the image recognition unit 36 is rotated with respect to a reference direction described later. A process for calculating the angle ⁇ 1 indicating this is performed. Further, the rotation angle calculation unit 37 outputs the calculation result of the angle ⁇ 1 obtained by the above processing to the image rotation unit 38.
  • the image rotation unit 38 When the angle ⁇ 1 is output from the rotation angle calculation unit 37, the image rotation unit 38 outputs, from the image generation unit 35, an image rotation process for canceling the angle ⁇ 1 and displaying it on the display screen 4A of the display device 4. To the image to be printed. In other words, the image rotation unit 38 performs image rotation processing for rotating the image output from the image generation unit 35 by ⁇ 1 based on the angle ⁇ 1 output from the rotation angle calculation unit 37. Then, the image rotation unit 38 outputs the image subjected to the image rotation process as described above to the display control unit 39.
  • the display control unit 39 performs processing for adapting the image output from the image rotation unit 38 to a predetermined display format and outputs the processed image to the display device 4.
  • the display device 4 includes, for example, a monitor and is configured to display an image output from the main device 3 on the display screen 4A.
  • the user inserts the insertion portion 11 into the flexible tube portion 21 from the insertion port 211 of the insertion assisting tool 2 in a state where scanning of the subject by the scanning endoscope 1 and generation of an image by the main body device 3 are started. Will be inserted.
  • the angle of the tip portion 212 changes in a predetermined direction.
  • a predetermined identifiable mark is drawn.
  • the angle of the distal end portion 212 is increased.
  • a green identification line that can be identified as changing upward is drawn.
  • FIG. 3 is a diagram illustrating an example of an image before image rotation processing according to the first embodiment is performed.
  • the image recognition unit 36 performs image recognition processing on the image output from the image generation unit 35 to determine whether or not the image includes a green identification line GL.
  • the image recognition unit 36 obtains a determination result that the image output from the image generation unit 35 includes the green identification line GL, the image recognition unit 36 outputs the image to the rotation angle calculation unit 37.
  • the rotation angle calculation unit 37 indicates an angle ⁇ 1 indicating how much the green identification line GL included in the image output from the image recognition unit 36 is rotated with respect to the upper direction (reference direction) of the display screen 4A. The process for calculating is performed (see FIG. 3). Further, the rotation angle calculation unit 37 outputs the calculation result of the angle ⁇ 1 obtained by the above processing to the image rotation unit 38.
  • the image rotation unit 38 performs image rotation processing for rotating the image output from the image generation unit 35 by ⁇ 1 based on the angle ⁇ 1 output from the rotation angle calculation unit 37. Then, by performing such image rotation processing on the image shown in FIG. 3, the green identification line GL and the upward direction (reference direction) on the display screen 4A as shown in FIG. The matched image is displayed (on the display screen 4A).
  • FIG. 4 is a diagram illustrating an example of an image after the image rotation processing according to the first embodiment is performed.
  • the endoscope system 101 when the insertion portion 11 is inserted into the flexible tube portion 21 and used, according to the operation of the angle operation portion 22.
  • the direction in which the angle of the distal end portion 212 changes can coincide with the direction in which the field of view of the scanning endoscope 1 moves according to the change in the angle of the distal end portion 212. That is, according to the present embodiment, it is possible to improve the operability when changing the angle of the insertion assisting tool used in a state where the endoscope is inserted.
  • FIG. 5 is a diagram illustrating a configuration of a main part of the endoscope system according to the second embodiment.
  • the endoscope system 102 includes a scanning endoscope 1, an insertion assisting tool 2, a main body device 3 ⁇ / b> A, a display device 4, and an input device 5. Yes.
  • the input device 5 includes a user interface such as a button and / or a switch, and is configured to be able to give various instructions to the main body device 3A according to a user operation.
  • a user interface such as a button and / or a switch
  • FIG. 6 is a block diagram for explaining an example of the configuration of the main unit according to the second embodiment.
  • the main unit 3A includes a light source unit 31, a scanning drive unit 32, a light detection unit 33, an A / D conversion unit 34, an image generation unit 35, a motion detection unit 36A, and a rotation.
  • An angle calculation unit 37, an image rotation unit 38, and a display control unit 39 are included.
  • the image generation unit 35 generates an image corresponding to the field of view of the scanning endoscope 1 by performing processing such as two-dimensional mapping on the digital signal output in time series from the A / D conversion unit 34.
  • the generated image is output to the motion detection unit 36A and the image rotation unit 38.
  • the motion detection unit 36 ⁇ / b> A uses images sequentially output from the image generation unit 35 during a predetermined period after detecting that a calibration switch (not shown) of the input device 5 has been pressed. For example, by performing processing such as pattern recognition or template matching, the motion vector of the subject included in the image is acquired. In addition, the motion detection unit 36 ⁇ / b> A outputs the motion vector obtained by the above-described processing to the rotation angle calculation unit 37.
  • the rotation angle calculation unit 37 performs a process for calculating an angle ⁇ 2 indicating how much the motion vector output from the motion detection unit 36A is rotated with respect to a reference direction described later. Further, the rotation angle calculation unit 37 outputs the calculation result of the angle ⁇ 2 obtained by the above-described process to the image rotation unit 38.
  • the image rotation unit 38 When the angle ⁇ 2 is output from the rotation angle calculation unit 37, the image rotation unit 38 outputs an image rotation process for canceling the angle ⁇ 2 and displaying the image ⁇ on the display screen 4A of the display device 4 from the image generation unit 35. To the image to be printed. In other words, the image rotation unit 38 performs image rotation processing for rotating the image output from the image generation unit 35 by ⁇ 2 based on the angle ⁇ 2 output from the rotation angle calculation unit 37.
  • the display control unit 39 When the display control unit 39 detects that the calibration switch of the input device 5 has been pressed, the display control unit 39 generates a character string that prompts an operation for changing the angle of the distal end portion 212 in a predetermined direction, and displays the display device 4. Output to. In addition, the display control unit 39 outputs the image subjected to the image rotation processing described above from the image rotation unit 38 within a predetermined period after detecting that the calibration switch of the input device 5 is pressed. When this is detected, a character string indicating the completion of the calibration work started by pressing the calibration switch is generated and output to the display device 4.
  • the user inserts the insertion portion 11 into the flexible tube portion 21 from the insertion port 211 of the insertion assisting tool 2 in a state where scanning of the subject by the scanning endoscope 1 and generation of an image by the main body device 3 are started. Will be inserted. Then, after the user confirms that an image obtained by scanning an arbitrary subject is displayed on the display device 4 by causing the tip portion 111 to protrude from the tip portion 212, the calibration of the input device 5 is performed. Press the switch.
  • the display control unit 39 When the display control unit 39 detects that the calibration switch of the input device 5 has been pressed, the display control unit 39 generates a character string that prompts an operation for changing the angle of the distal end portion 212 in a predetermined direction, and displays the display device 4. Output to. With the operation of the display control unit 39, for example, as shown in FIG. 7, an image including the subject OBJ and a character string that prompts an operation for changing the angle of the tip 212 in a predetermined direction ( "Please perform UP angle operation") is also displayed on the display screen 4A.
  • FIG. 7 is a diagram illustrating an example of an image and a character string displayed when the endoscope system according to the second embodiment is used.
  • the user operates the angle operation unit 22 based on the character string displayed on the display screen 4A, thereby changing the angle of the distal end portion 212 in a predetermined direction.
  • the angle operation unit 22 based on the character string displayed on the display screen 4A, thereby changing the angle of the distal end portion 212 in a predetermined direction.
  • the motion detection unit 36A detects that the subject OBJ included in the images sequentially output from the image generation unit 35 until a predetermined period elapses after detecting that the calibration switch of the input device 5 is pressed.
  • a motion vector of the subject OBJ is acquired by performing processing such as pattern recognition or template matching based on the change in position over time, and the acquired motion vector is output to the rotation angle calculation unit 37.
  • FIG. 8 is a diagram illustrating an example of an image before image rotation processing according to the second embodiment is performed.
  • the reference direction used for calculating the angle ⁇ 2 is a direction other than the downward direction on the display screen 4A as long as it is the reverse direction of the motion vector acquired by the motion detection unit 36A. It may be.
  • the image rotation unit 38 performs an image rotation process for rotating the image output from the image generation unit 35 by ⁇ 2 based on the angle ⁇ 2 output from the rotation angle calculation unit 37.
  • the display control unit 39 detects that the image subjected to the image rotation processing is output from the image rotation unit 38 within a predetermined period after detecting that the calibration switch of the input device 5 is pressed. When detected, a character string indicating the completion of the calibration work started by pressing the calibration switch is generated and output to the display device 4. With the operation of the display control unit 39, for example, as shown in FIG. 9, the image subjected to the image rotation processing by the image rotation unit 38 and the calibration work started by pressing the calibration switch are performed. A character string indicating completion (“completed”) is displayed together on the display screen 4A.
  • FIG. 9 is a diagram illustrating an example of an image and a character string displayed after image rotation processing according to the second embodiment is performed.
  • the endoscope system 102 when the insertion portion 11 is inserted into the flexible tube portion 21 and used, according to the operation of the angle operation portion 22.
  • the direction in which the angle of the distal end portion 212 changes can coincide with the direction in which the field of view of the scanning endoscope 1 moves according to the change in the angle of the distal end portion 212. That is, according to the present embodiment, it is possible to improve the operability when changing the angle of the insertion assisting tool used in a state where the endoscope is inserted.
  • FIG. 10 is a diagram illustrating a configuration of a main part of the endoscope system according to the third embodiment.
  • FIG. 11 is a block diagram for explaining an example of the configuration of the main body apparatus according to the third embodiment.
  • the endoscope system 103 includes a scanning endoscope 1, an insertion assisting tool 2 ⁇ / b> A, a main body device 3 ⁇ / b> A, and a display device 4.
  • the insertion assisting tool 2A includes a flexible tube portion 21 and an angle operation portion 22A including an operation knob 221 and a sensor portion 222.
  • the operation knob 221 includes, for example, a first knob (not shown) that can perform an operation for changing the angle of the tip end portion 212 in the vertical direction, and an operation for changing the angle of the tip end portion 212 in the left-right direction. And a second knob (not shown) capable of performing the above.
  • the sensor unit 222 includes, for example, a rotary position sensor and the like, and is configured to be able to individually output voltages corresponding to the rotation angles of the first knob and the second knob of the operation knob 221.
  • the motion detector 36A detects that the angle of the tip 212 has been changed in a predetermined direction based on the voltage output from the sensor 222, the same processing as that described in the second embodiment is performed. By performing (processing such as pattern recognition or template matching), the motion vector of the image output from the image generation unit 35 is acquired. In addition, the motion detection unit 36 ⁇ / b> A outputs the motion vector obtained by the above-described processing to the rotation angle calculation unit 37.
  • the rotation angle calculation unit 37 performs processing similar to that described in the second embodiment, thereby determining how much the motion vector output from the motion detection unit 36A is rotated with respect to a reference direction described later. Processing for calculating the indicated angle ⁇ 3 is performed. Further, the rotation angle calculation unit 37 determines whether or not the angle ⁇ 3 obtained by the above process is larger than the threshold value ⁇ TH. When the rotation angle calculation unit 37 obtains a determination result that the angle ⁇ 3 is larger than the threshold ⁇ TH, the rotation angle calculation unit 37 outputs the angle ⁇ 3 to the image rotation unit 38.
  • the rotation angle calculation unit 37 obtains a determination result that the angle ⁇ 3 is equal to or smaller than the threshold ⁇ TH, the rotation angle calculation unit 37 outputs the angle ⁇ 3 to the image rotation unit 38 and outputs it next from the image recognition unit 36.
  • the motion vector angle ⁇ 3 is calculated.
  • the image rotation unit 38 When the angle ⁇ 3 is output from the rotation angle calculation unit 37, the image rotation unit 38 outputs, from the image generation unit 35, an image rotation process for canceling the angle ⁇ 3 and displaying it on the display screen 4A of the display device 4. To the image to be printed. In other words, the image rotation unit 38 performs image rotation processing for rotating the image output from the image generation unit 35 by ⁇ 3 based on the angle ⁇ 3 output from the rotation angle calculation unit 37.
  • the display control unit 39 performs processing for adapting the image output from the image rotation unit 38 to a predetermined display format and outputs the processed image to the display device 4.
  • the user inserts the insertion portion 11 into the flexible tube portion 21 from the insertion port 211 of the insertion aid 2A in a state where scanning of the subject by the scanning endoscope 1 and generation of an image by the main body device 3A are started. Will be inserted.
  • the user operates the first knob of the operation knob 221 with the tip 111 protruding from the tip 212, thereby changing the angle of the tip 212 upward.
  • a voltage corresponding to the rotation angle of the first knob is output from the sensor unit 222.
  • the motion detection unit 36 ⁇ / b> A detects that the angle of the tip 212 has changed upward based on the voltage output from the sensor 222, the motion detection unit 36 ⁇ / b> A performs processing similar to that described in the second embodiment ( By performing a process such as pattern recognition or template matching, the motion vector of the image output from the image generation unit 35 is acquired, and the acquired motion vector is output to the rotation angle calculation unit 37.
  • the rotation angle calculation unit 37 performs the same processing as that described in the second embodiment, so that the motion vector output from the image recognition unit 36 can be detected with respect to the downward direction (reference direction) on the display screen 4A. An angle ⁇ 3 indicating whether the rotation is approximately is calculated. Further, the rotation angle calculation unit 37 determines whether or not the angle ⁇ 3 obtained by the above process is larger than the threshold value ⁇ TH. When the rotation angle calculation unit 37 obtains a determination result that the angle ⁇ 3 is larger than the threshold ⁇ TH, the rotation angle calculation unit 37 outputs the angle ⁇ 3 to the image rotation unit 38.
  • the rotation angle calculation unit 37 obtains a determination result that the angle ⁇ 3 is equal to or smaller than the threshold ⁇ TH, the rotation angle calculation unit 37 outputs the angle ⁇ 3 to the image rotation unit 38 and outputs it next from the image recognition unit 36.
  • the motion vector angle ⁇ 3 is calculated.
  • the image rotation unit 38 performs an image rotation process for rotating the image output from the image generation unit 35 by ⁇ 3 based on the angle ⁇ 3 output from the rotation angle calculation unit 37.
  • the image rotation unit 38 only when the angle ⁇ 3 calculated by the rotation angle calculation unit 37 is larger than the threshold ⁇ TH.
  • the image rotation process is performed on the image output from the image generation unit 35. Further, according to the operations of the rotation angle calculation unit 37 and the image rotation unit 38 as described above, the direction in which the angle of the distal end portion 212 changes according to the operation of the operation knob 221, and the scanning endoscope 1. Output from the image generator 35 only when the deviation between the direction in which the field of view moves according to the change in the angle of the tip 212 and a predetermined deviation (indicated by the threshold value ⁇ TH, for example) is larger. An image rotation process is performed on the image to be processed.
  • the endoscope system 103 uses the sensor unit 222 provided in the angle operation unit 22 as long as the angle of the distal end portion 212 can be changed in a predetermined direction. May be different from the configuration in which the output voltage is input to the motion detector 36A.
  • the endoscope system 103 according to the present embodiment includes, for example, a pressure-sensitive conductive rubber, a capacitive pressure sensor, a piezoelectric sensor, or the like provided in the bending portion of the flexible tube portion 21.
  • the output from the stress sensor may be configured to be input to the motion detector 36A.
  • the endoscope system 103 according to the present embodiment has a configuration in which, for example, a detection result by a shape detection system for detecting the shape of the flexible tube portion 21 is input to the motion detection unit 36A. There may be.
  • the endoscope system 103 when the insertion portion 11 is inserted into the flexible tube portion 21 and used, the distal end according to the operation of the operation knob 221 is used.
  • the direction in which the angle of the portion 212 changes can coincide with the direction in which the field of view of the scanning endoscope 1 moves according to the change in the angle of the distal end portion 212. That is, according to the present embodiment, it is possible to improve the operability when changing the angle of the insertion assisting tool used in a state where the endoscope is inserted.
  • FIG. 12 is a diagram illustrating a configuration of a main part of the endoscope system according to the fourth embodiment.
  • the endoscope system 104 includes a scanning endoscope 1A, an insertion aid 2A, a main body device 3B, and a display device 4.
  • the scanning endoscope 1 ⁇ / b> A includes an insertion portion 11 ⁇ / b> A that substantially corresponds to the insertion portion 11 of the scanning endoscope 1 with a sensor portion 112 added thereto.
  • the sensor unit 112 is vertically and horizontally movable when the optical image obtained by scanning with the scanning endoscope 1A is displayed as an image on the display screen 4A based on the stretched state in the longitudinal direction at the distal end portion 111 (of the insertion portion 11). It comprises four stress sensors arranged so as to be detected in association with each direction. Specifically, the above-described stress sensor is configured by, for example, a pressure-sensitive conductive rubber or a capacitive stress sensor. In addition, the sensor unit 112 is configured to be able to output the detection result of the stretched state in the longitudinal direction at the distal end portion 111 to the main body device 3B as an electrical parameter such as a resistance value.
  • FIG. 13 is a block diagram for explaining an example of the configuration of the main unit according to the fourth embodiment.
  • the main unit 3B includes a light source unit 31, a scanning drive unit 32, a light detection unit 33, an A / D conversion unit 34, an image generation unit 35, a rotation angle calculation unit 37, An image rotation unit 38 and a display control unit 39 are included.
  • the image generation unit 35 generates an image corresponding to the field of view of the scanning endoscope 1 by performing processing such as two-dimensional mapping on the digital signal output in time series from the A / D conversion unit 34.
  • the generated image is output to the image rotation unit 38.
  • the rotation angle calculation unit 37 detects the deformation state of the insertion portion 11A inserted into the flexible tube portion 21 when the angle of the distal end portion 212 changes in a predetermined direction according to the operation of the angle operation portion 22. Then, the orientation of the image output from the image generation unit 35 is estimated based on the detected deformation state, and an angle indicating how much the estimated orientation of the image is rotated with respect to the predetermined direction as a reference direction. calculate. Specifically, for example, the rotation angle calculation unit 37 detects that the angle of the distal end portion 212 has changed in a predetermined direction based on the voltage output from the sensor unit 222, and outputs the electric power output from the sensor unit 112.
  • a longitudinal expansion / contraction state at the distal end portion 111 is detected based on the target parameter, the orientation of the image output from the image generation unit 35 is estimated based on the detected expansion / contraction state, and the estimated orientation of the image is the predetermined direction
  • An angle ⁇ 4 indicating how much the image is rotated with respect to the reference direction is calculated, and the calculated angle ⁇ 4 is output to the image rotation unit 38.
  • the image rotation unit 38 When the angle ⁇ 4 is output from the rotation angle calculation unit 37, the image rotation unit 38 outputs, from the image generation unit 35, an image rotation process for canceling the angle ⁇ 4 and displaying it on the display screen 4A of the display device 4. To the image to be printed. In other words, the image rotation unit 38 performs image rotation processing for rotating the image output from the image generation unit 35 by ⁇ 4 based on the angle ⁇ 4 output from the rotation angle calculation unit 37.
  • the display control unit 39 performs processing for adapting the image output from the image rotation unit 38 to a predetermined display format and outputs the processed image to the display device 4.
  • the user starts the scanning of the subject with the scanning endoscope 1A and the generation of the image with the main body device 3B, and then inserts the insertion portion 11A from the insertion port 211 of the insertion aid 2A into the flexible tube portion 21. Will be inserted.
  • the user operates the first knob of the operation knob 221 with the tip 111 protruding from the tip 212, thereby changing the angle of the tip 212 upward.
  • a voltage corresponding to the rotation angle of the first knob is output from the sensor unit 222.
  • an electrical parameter corresponding to the stretched state in the longitudinal direction at the distal end portion 111 is output from the sensor unit 112.
  • the rotation angle calculation unit 37 detects that the angle of the tip 212 has been changed in accordance with the operation of the operation knob 221 based on the voltage output from the sensor unit 222. Further, the rotation angle calculation unit 37 detects the longitudinal expansion / contraction state of the distal end portion 111 based on the electrical parameter output from the sensor unit 112, and further, based on the detected expansion / contraction state, the image generation unit 35 Estimate the orientation of the generated image. Then, the rotation angle calculation unit 37 indicates an angle indicating how much the orientation of the image estimated as described above is rotated with respect to the reference direction when the upward direction of the angle of the tip end portion 212 is set as the reference direction. ⁇ 4 is calculated, and the calculated angle ⁇ 4 is output to the image rotation unit 38.
  • the image rotation unit 38 performs an image rotation process for rotating the image output from the image generation unit 35 by ⁇ 4 based on the angle ⁇ 4 output from the rotation angle calculation unit 37.
  • the endoscope system 104 is provided with a sensor provided at the distal end portion 111 as long as the deformation state of the insertion portion 11A inserted into the flexible tube portion 21 can be detected. It may have another configuration different from the configuration in which the electrical parameters from the unit 112 are input to the rotation angle calculation unit 37.
  • the endoscope system 104 according to the present embodiment for example, the light that leaks from the optical fiber of the light guide portion of the insertion portion 11A, the top, bottom, left, and right of an image obtained by scanning the scanning endoscope 1A.
  • the output from the four photodetectors arranged so as to be detected in association with each other may be input to the rotation angle calculation unit 37.
  • the endoscope system 104 according to the present embodiment has a configuration in which, for example, a detection result by a shape detection device for detecting the shape of the insertion unit 11A is input to the rotation angle calculation unit 37. May be.
  • the endoscope system 104 when the insertion portion 11A is inserted into the flexible tube portion 21 and used, the distal end according to the operation of the operation knob 221 is used.
  • the direction in which the angle of the portion 212 changes can coincide with the direction in which the field of view of the scanning endoscope 1A moves in accordance with the change in the angle of the distal end portion 212. That is, according to the present embodiment, it is possible to improve the operability when changing the angle of the insertion assisting tool used in a state where the endoscope is inserted.
  • the present invention is not limited to the case including a scanning endoscope, and for example, each of the implementations even when including another endoscope such as a fiberscope. An example can be applied.

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Optics & Photonics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)

Abstract

 内視鏡システムは、可撓性及び細長形状を具備する挿入部の先端部の前方に視野を有するように構成された内視鏡と、挿入部を内部に挿通することが可能な管路を有し、管路の先端部のアングルを変化させることができるように構成された挿入補助具と、内視鏡の視野に応じた画像を生成して出力する画像生成部と、挿入部の少なくとも一部が管路に挿通されている際に画像生成部から出力される画像の向きが基準方向に対してどの程度回転しているかを示す回転角度を算出する回転角度算出部と、画像生成部から出力される画像に対し、回転角度を相殺して表示部の表示画面に表示させるための画像回転処理を施す画像回転部と、を有する。

Description

内視鏡システム
 本発明は、内視鏡システムに関し、特に、挿入補助具を備えた内視鏡システムに関するものである。
 医療分野においては、体腔内の深部への内視鏡の挿入を補助するための挿入補助具であって、所定の管路内に内視鏡を挿通した状態で使用されるものが従来知られている。
 具体的には、例えば、米国出願公開2011/0213300号には、前述の挿入補助具に類するものとして、内視鏡等を挿通するための(イメージングデバイスポート及び)ワーキングチャンネルを具備し、ノブの操作に応じてカテーテル先端部のアングルを上下方向及び左右方向に変化させることができるように構成された可動カテーテルアセンブリが開示されている。
 しかし、米国出願公開2011/0213300号に開示された構成によれば、ワーキングチャンネル内に内視鏡を挿通している状態でノブの操作を行った場合に、カテーテル先端部のアングルが変化する方向と、当該内視鏡の視野が当該カテーテル先端部のアングルの変化に応じて移動する方向と、が互いに異なるような状況が多発してしまう、という問題点が生じている。
 そのため、米国出願公開2011/0213300号に開示された構成によれば、ワーキングチャンネル内に内視鏡を挿通して使用する際の操作性が低下してしまう、という前述の問題点に応じた課題が生じている。
 本発明は、前述した事情に鑑みてなされたものであり、内視鏡を挿通した状態で使用される挿入補助具のアングルを変化させる際の操作性を向上させることが可能な内視鏡システムを提供することを目的としている。
 本発明の一態様の内視鏡システムは、可撓性及び細長形状を具備するように形成された挿入部を有し、前記挿入部の先端部の前方に視野を有するように構成された内視鏡と、前記挿入部を内部に挿通することが可能な管路を有し、前記管路の先端部のアングルをアングル操作部の操作に応じて変化させることができるように構成された挿入補助具と、前記内視鏡の視野に応じた画像を生成して出力するように構成された画像生成部と、前記挿入部の少なくとも一部が前記管路に挿通されている際に前記画像生成部から出力される画像の向きが基準方向に対してどの程度回転しているかを示す回転角度を算出するように構成された回転角度算出部と、前記画像生成部から出力される画像に対し、前記回転角度を相殺して表示部の表示画面に表示させるための画像回転処理を施すように構成された画像回転部と、を有する。
第1の実施例に係る内視鏡システムの要部の構成を示す図。 第1の実施例に係る本体装置の構成の一例を説明するためのブロック図。 第1の実施例に係る画像回転処理が施される前の画像の一例を示す図。 第1の実施例に係る画像回転処理が施された後に表示される画像の一例を示す図。 第2の実施例に係る内視鏡システムの要部の構成を示す図。 第2の実施例に係る本体装置の構成の一例を説明するためのブロック図。 第2の実施例に係る内視鏡システムの使用時に表示される画像及び文字列の一例を示す図。 第2の実施例に係る画像回転処理が施される前の画像の一例を示す図。 第2の実施例に係る画像回転処理が施された後に表示される画像及び文字列の一例を示す図。 第3の実施例に係る内視鏡システムの要部の構成を示す図。 第3の実施例に係る本体装置の構成の一例を説明するためのブロック図。 第4の実施例に係る内視鏡システムの要部の構成を示す図。 第4の実施例に係る本体装置の構成の一例を説明するためのブロック図。
 以下、本発明の実施の形態について、図面を参照しつつ説明を行う。
(第1の実施例)
 図1から図4は、本発明の第1の実施例に係るものである。図1は、第1の実施例に係る内視鏡システムの要部の構成を示す図である。
 内視鏡システム101は、図1に示すように、走査型内視鏡1と、挿入補助具2と、本体装置3と、表示装置4と、を有して構成されている。
 走査型内視鏡1は、可撓性を有する樹脂等の部材により形成されているとともに、被検者の体腔内に挿入可能な細長形状を有するように形成された挿入部11を有して構成されている。
 挿入部11の基端部には、走査型内視鏡1を本体装置3に着脱自在に接続するためのコネクタ(不図示)が設けられている。また、挿入部11には、本体装置3から供給される照明光を先端部111へ導光するための光ファイバを備えて構成された導光部(不図示)と、導光部により導光された照明光を集光して先端部111の前方の被写体へ出射するように構成された集光光学系(不図示)と、当該被写体からの戻り光を先端部111において受光して本体装置3へ導光するためのファイババンドルを備えて構成された受光部(不図示)と、が設けられている。また、挿入部11の先端部111には、本体装置3から供給される駆動信号に応じて振動する複数の圧電素子等を具備し、当該複数の圧電素子の振動により導光部の光出射側の端部を揺動させることができるように構成されたアクチュエータ(不図示)が設けられている。
 すなわち、走査型内視鏡1は、挿入部11の先端部111の前方に視野を有する(挿入部11の先端部111の前方に存在する被写体を走査して光学像を得ることができる)ように構成されている。
 挿入補助具2は、図1に示すように、可撓管部21と、アングル操作部22と、を有して構成されている。
 可撓管部21は、可撓性を有する樹脂等により形成されているとともに、挿入ポート211から挿入部11を挿入することができるように構成されている。また、可撓管部21は、挿入部11を内部に挿通させることができるとともに、挿入部11の先端部111を先端部212から突出させることが可能な管路として形成されている。また、可撓管部21には、先端部212に隣接する湾曲部(不図示)を湾曲させるための湾曲コマ及びワイヤ等が設けられている。
 アングル操作部22は、例えば、ノブまたはレバー等の操作器具を具備し、ユーザの操作に応じて可撓管部21の湾曲部を湾曲させることにより、先端部212のアングルを上下方向及び左右方向に変化させることができるように構成されている。
 図2は、第1の実施例に係る本体装置の構成の一例を説明するためのブロック図である。
 本体装置3は、図2に示すように、光源部31と、走査駆動部32と、光検出部33と、A/D変換部34と、画像生成部35と、画像認識部36と、回転角度算出部37と、画像回転部38と、表示制御部39と、を有して構成されている。
 光源部31は、例えば、レーザ光源等を具備し、被写体を照明するための照明光を走査型内視鏡1の導光部に供給する。
 走査駆動部32は、走査型内視鏡1の導光部の光出射側の端部を(例えば渦巻状等の)所定の走査パターンで揺動させるための駆動信号を生成し、当該生成した駆動信号を走査型内視鏡1のアクチュエータに供給する。
 光検出部33は、走査型内視鏡1の受光部により受光された戻り光に応じた電気信号を生成し、当該生成した電気信号をA/D変換部34へ出力する。
 A/D変換部34は、光検出部33から出力される電気信号をデジタル信号に変換して画像生成部35へ出力する。
 画像生成部35は、A/D変換部34から時系列で出力されるデジタル信号に対して2次元マッピング等の処理を施すことにより、走査型内視鏡1の視野に応じた画像を生成し、当該生成した画像を画像認識部36及び画像回転部38へ出力する。
 画像認識部36は、画像生成部35から出力される画像に対して画像認識処理を施すことにより、当該画像に所定のマークが含まれているか否かを判定することができるように構成されている。そして、画像認識部36は、画像生成部35から出力される画像に所定のマークが含まれているとの判定結果を得た際に、当該画像を回転角度算出部37へ出力する。
 回転角度算出部37は、挿入部11の少なくとも一部が可撓管部21に挿通されている際に画像生成部35により生成される画像の向きが、基準方向に対してどの程度回転しているかを示す回転角度を算出する。具体的には、回転角度算出部37は、例えば、画像生成部35から画像認識部36を経て出力される画像に含まれる所定のマークが後述の基準方向に対してどの程度回転した位置にあるかを示す角度θ1を算出するための処理を行う。また、回転角度算出部37は、前述の処理により得られた角度θ1の算出結果を画像回転部38へ出力する。
 画像回転部38は、回転角度算出部37から角度θ1が出力された際に、当該角度θ1を相殺して表示装置4の表示画面4Aに表示させるための画像回転処理を画像生成部35から出力される画像に対して施す。換言すると、画像回転部38は、回転角度算出部37から出力される角度θ1に基づき、画像生成部35から出力される画像を-θ1だけ回転させるための画像回転処理を行う。そして、画像回転部38は、前述のような画像回転処理を施した画像を表示制御部39へ出力する。
 表示制御部39は、画像回転部38から出力される画像に対し、所定の表示フォーマットに適合させるための処理等を施して表示装置4へ出力する。
 表示装置4は、例えば、モニタ等を具備し、本体装置3から出力される画像等を表示画面4Aに表示することができるように構成されている。
 次に、本実施例に係る内視鏡システム101の作用について説明する。
 ユーザは、走査型内視鏡1による被写体の走査、及び、本体装置3による画像の生成を開始させた状態において、挿入補助具2の挿入ポート211から可撓管部21の内部へ挿入部11を挿入してゆく。
 ここで、可撓管部21の内壁には、アングル操作部22の操作に応じて可撓管部21の湾曲部が湾曲した際に、先端部212のアングルが所定の方向に変化することを識別可能な所定のマークが描かれている。具体的には、本実施例の可撓管部21の内壁には、例えば、アングル操作部22の操作に応じて可撓管部21の湾曲部が湾曲した際に、先端部212のアングルが上方向に変化することを識別可能な緑色の識別ラインが描かれている。
 そのため、挿入部11の先端部111が可撓管部21の内部に位置している場合(挿入部11が可撓管部21に挿入されている最中)においては、可撓管部21の内壁IWと、当該内壁IWに描かれた緑色の識別ラインGLと、を含む、図3に例示するような画像が画像生成部35から出力される。図3は、第1の実施例に係る画像回転処理が施される前の画像の一例を示す図である。
 画像認識部36は、画像生成部35から出力される画像に対して画像認識処理を施すことにより、当該画像に緑色の識別ラインGLが含まれているか否かを判定する。そして、画像認識部36は、画像生成部35から出力される画像に緑色の識別ラインGLが含まれているとの判定結果を得た際に、当該画像を回転角度算出部37へ出力する。
 回転角度算出部37は、画像認識部36から出力される画像に含まれる緑色の識別ラインGLが表示画面4Aの上方向(基準方向)に対してどの程度回転した位置にあるかを示す角度θ1を算出するための処理を行う(図3参照)。また、回転角度算出部37は、前述の処理により得られた角度θ1の算出結果を画像回転部38へ出力する。
 画像回転部38は、回転角度算出部37から出力される角度θ1に基づき、画像生成部35から出力される画像を-θ1だけ回転させるための画像回転処理を行う。そして、このような画像回転処理が図3に示す画像に対して施されることにより、図4に示すような、緑色の識別ラインGLと、表示画面4Aにおける上方向(基準方向)と、が一致した画像が(表示画面4Aに)表示される。図4は、第1の実施例に係る画像回転処理が施された後の画像の一例を示す図である。
 以上に述べたように、本実施例に係る内視鏡システム101によれば、可撓管部21の内部に挿入部11を挿通して使用する際に、アングル操作部22の操作に応じて先端部212のアングルが変化する方向と、走査型内視鏡1の視野が先端部212のアングルの変化に応じて移動する方向と、を一致させることができる。すなわち、本実施例によれば、内視鏡を挿通した状態で使用される挿入補助具のアングルを変化させる際の操作性を向上させることができる。
(第2の実施例)
 図5から図9は、本発明の第2の実施例に係るものである。図5は、第2の実施例に係る内視鏡システムの要部の構成を示す図である。
 なお、本実施例においては、第1の実施例と同様の構成等を有する部分に関する詳細な説明を適宜省略するとともに、第1の実施例と異なる構成等を有する部分に関して主に説明を行う。
 内視鏡システム102は、図5に示すように、走査型内視鏡1と、挿入補助具2と、本体装置3Aと、表示装置4と、入力装置5と、を有して構成されている。
 入力装置5は、ボタン及び/またはスイッチ等のユーザーインターフェースを具備し、ユーザの操作に応じた様々な指示を本体装置3Aに対して行うことができるように構成されている。
 図6は、第2の実施例に係る本体装置の構成の一例を説明するためのブロック図である。
 本体装置3Aは、図6に示すように、光源部31と、走査駆動部32と、光検出部33と、A/D変換部34と、画像生成部35と、動き検出部36Aと、回転角度算出部37と、画像回転部38と、表示制御部39と、を有して構成されている。
 画像生成部35は、A/D変換部34から時系列で出力されるデジタル信号に対して2次元マッピング等の処理を施すことにより、走査型内視鏡1の視野に応じた画像を生成し、当該生成した画像を動き検出部36A及び画像回転部38へ出力する。
 動き検出部36Aは、入力装置5のキャリブレーションスイッチ(不図示)が押下されたことを検出してから所定の期間が経過するまでの間において、画像生成部35から順次出力される画像を用い、例えば、パターン認識またはテンプレートマッチング等の処理を行うことにより、当該画像に含まれる被写体の動きベクトルを取得する。また、動き検出部36Aは、前述の処理により得られた動きベクトルを回転角度算出部37へ出力する。
 回転角度算出部37は、動き検出部36Aから出力される動きベクトルが後述の基準方向に対してどの程度回転しているかを示す角度θ2を算出するための処理を行う。また、回転角度算出部37は、前述の処理により得られた角度θ2の算出結果を画像回転部38へ出力する。
 画像回転部38は、回転角度算出部37から角度θ2が出力された際に、当該角度θ2を相殺して表示装置4の表示画面4Aに表示させるための画像回転処理を画像生成部35から出力される画像に対して施す。換言すると、画像回転部38は、回転角度算出部37から出力される角度θ2に基づき、画像生成部35から出力される画像を-θ2だけ回転させるための画像回転処理を行う。
 表示制御部39は、入力装置5のキャリブレーションスイッチが押下されたことを検出した際に、先端部212のアングルを所定の方向に変化させるための操作を促す文字列を生成して表示装置4へ出力する。また、表示制御部39は、入力装置5のキャリブレーションスイッチが押下されたことを検出してから所定の期間内に、前述の画像回転処理が施された画像が画像回転部38から出力されたことを検出した際に、キャリブレーションスイッチの押下により開始された較正作業の完了を示す文字列を生成して表示装置4へ出力する。
 次に、本実施例に係る内視鏡システム102の作用について説明する。
 ユーザは、走査型内視鏡1による被写体の走査、及び、本体装置3による画像の生成を開始させた状態において、挿入補助具2の挿入ポート211から可撓管部21の内部へ挿入部11を挿入してゆく。そして、ユーザは、先端部111を先端部212から突出させることにより、任意の被写体を走査して得られた画像が表示装置4に表示されていることを確認した後、入力装置5のキャリブレーションスイッチを押下する。
 表示制御部39は、入力装置5のキャリブレーションスイッチが押下されたことを検出した際に、先端部212のアングルを所定の方向に変化させるための操作を促す文字列を生成して表示装置4へ出力する。そして、このような表示制御部39の動作に伴い、例えば、図7に示すように、被写体OBJを含む画像と、先端部212のアングルを所定の方向に変化させるための操作を促す文字列(「UPアングル操作を行ってください」)と、が併せて表示画面4Aに表示される。図7は、第2の実施例に係る内視鏡システムの使用時に表示される画像及び文字列の一例を示す図である。
 その後、ユーザは、表示画面4Aに表示されている文字列に基づいてアングル操作部22を操作することにより、先端部212のアングルを所定の方向に変化させる。なお、以降においては、簡単のため、先端部212のアングルを上方向に変化させるための操作が行われた場合を例に挙げて説明する。
 動き検出部36Aは、入力装置5のキャリブレーションスイッチが押下されたことを検出してから所定の期間が経過するまでの間において、画像生成部35から順次出力される画像に含まれる被写体OBJの位置の経時的変化に基づいてパターン認識またはテンプレートマッチング等の処理を行うことにより被写体OBJの動きベクトルを取得し、当該取得した動きベクトルを回転角度算出部37へ出力する。
 ここで、動き検出部36Aにより取得された動きベクトル(先端部212のアングルの変化に伴う被写体OBJの移動方向)は、走査型内視鏡1の視野の移動方向に対して逆方向であると考えられる(図8参照)。そのため、回転角度算出部37は、動き検出部36Aから出力される動きベクトルが表示画面4Aにおける下方向(基準方向)に対してどの程度回転しているかを示す角度θ2を算出するための処理を行う(図8参照)。図8は、第2の実施例に係る画像回転処理が施される前の画像の一例を示す図である。
 なお、本実施例によれば、角度θ2の算出に用いられる基準方向は、動き検出部36Aにより取得された動きベクトルの逆方向である限りにおいては、表示画面4Aにおける下方向以外の他の方向であってもよい。
 画像回転部38は、回転角度算出部37から出力される角度θ2に基づき、画像生成部35から出力される画像を-θ2だけ回転させるための画像回転処理を行う。
 表示制御部39は、入力装置5のキャリブレーションスイッチが押下されたことを検出してから所定の期間内に、前述の画像回転処理が施された画像が画像回転部38から出力されたことを検出した際に、キャリブレーションスイッチの押下により開始された較正作業の完了を示す文字列を生成して表示装置4へ出力する。そして、このような表示制御部39の動作に伴い、例えば、図9に示すように、画像回転部38による画像回転処理が施された画像と、キャリブレーションスイッチの押下により開始された較正作業の完了を示す文字列(「完了しました」)と、が併せて表示画面4Aに表示される。図9は、第2の実施例に係る画像回転処理が施された後に表示される画像及び文字列の一例を示す図である。
 以上に述べたように、本実施例に係る内視鏡システム102によれば、可撓管部21の内部に挿入部11を挿通して使用する際に、アングル操作部22の操作に応じて先端部212のアングルが変化する方向と、走査型内視鏡1の視野が先端部212のアングルの変化に応じて移動する方向と、を一致させることができる。すなわち、本実施例によれば、内視鏡を挿通した状態で使用される挿入補助具のアングルを変化させる際の操作性を向上させることができる。
(第3の実施例)
 図10及び図11は、本発明の第3の実施例に係るものである。図10は、第3の実施例に係る内視鏡システムの要部の構成を示す図である。図11は、第3の実施例に係る本体装置の構成の一例を説明するためのブロック図である。
 なお、本実施例においては、第1及び第2の実施例の少なくともいずれか一方と同様の構成等を有する部分に関する詳細な説明を適宜省略するとともに、第1及び第2の実施例のいずれともと異なる構成等を有する部分に関して主に説明を行う。
 内視鏡システム103は、図10及び図11に示すように、走査型内視鏡1と、挿入補助具2Aと、本体装置3Aと、表示装置4と、を有して構成されている。
 挿入補助具2Aは、可撓管部21と、操作ノブ221及びセンサ部222を備えたアングル操作部22Aと、を有して構成されている。
 操作ノブ221は、例えば、先端部212のアングルを上下方向に変化させるための操作を行うことが可能な第1ノブ(不図示)と、先端部212のアングルを左右方向に変化させるための操作を行うことが可能な第2ノブ(不図示)と、を有して構成されている。
 センサ部222は、例えば、ロータリポジションセンサ等を具備し、操作ノブ221の第1ノブ及び第2ノブの回転角度に応じた電圧を個別に出力することができるように構成されている。
 動き検出部36Aは、センサ部222から出力される電圧に基づき、先端部212のアングルが所定の方向に変化されたことを検出した際に、第2の実施例において説明したものと同様の処理(パターン認識またはテンプレートマッチング等の処理)を行うことにより、画像生成部35から出力される画像の動きベクトルを取得する。また、動き検出部36Aは、前述の処理により得られた動きベクトルを回転角度算出部37へ出力する。
 回転角度算出部37は、第2の実施例において説明したものと同様の処理を行うことにより、動き検出部36Aから出力される動きベクトルが後述の基準方向に対してどの程度回転しているかを示す角度θ3を算出するための処理を行う。また、回転角度算出部37は、前述の処理により得られた角度θ3が閾値θTHに比べて大きいか否かを判定する。そして、回転角度算出部37は、角度θ3が閾値θTHに比べて大きいとの判定結果を得た場合には、当該角度θ3を画像回転部38へ出力する。一方、回転角度算出部37は、角度θ3が閾値θTH以下であるとの判定結果を得た場合には、当該角度θ3を画像回転部38へ出力せずに、画像認識部36から次に出力される動きベクトルの角度θ3を算出する。
 画像回転部38は、回転角度算出部37から角度θ3が出力された際に、当該角度θ3を相殺して表示装置4の表示画面4Aに表示させるための画像回転処理を画像生成部35から出力される画像に対して施す。換言すると、画像回転部38は、回転角度算出部37から出力される角度θ3に基づき、画像生成部35から出力される画像を-θ3だけ回転させるための画像回転処理を行う。
 表示制御部39は、画像回転部38から出力される画像に対し、所定の表示フォーマットに適合させるための処理等を施して表示装置4へ出力する。
 次に、本実施例に係る内視鏡システム103の作用について説明する。なお、以降においては、簡単のため、先端部212のアングルが上方向に変化されたことを動き検出部36Aが検出した際に、動きベクトルの取得に係る処理が行われる場合を例に挙げて説明する。
 ユーザは、走査型内視鏡1による被写体の走査、及び、本体装置3Aによる画像の生成を開始させた状態において、挿入補助具2Aの挿入ポート211から可撓管部21の内部へ挿入部11を挿入してゆく。
 その後、ユーザは、先端部111を先端部212から突出させた状態で操作ノブ221の第1ノブを操作することにより、先端部212のアングルを上方向に変化させる。そして、このような操作に伴い、第1ノブの回転角度に応じた電圧がセンサ部222から出力される。
 動き検出部36Aは、センサ部222から出力される電圧に基づき、先端部212のアングルが上方向に変化されたことを検出した際に、第2の実施例において説明したものと同様の処理(パターン認識またはテンプレートマッチング等の処理)を行うことにより、画像生成部35から出力される画像の動きベクトルを取得し、当該取得した動きベクトルを回転角度算出部37へ出力する。
 回転角度算出部37は、第2の実施例において説明したものと同様の処理を行うことにより、画像認識部36から出力される動きベクトルが表示画面4Aにおける下方向(基準方向)に対してどの程度回転しているかを示す角度θ3を算出する。また、回転角度算出部37は、前述の処理により得られた角度θ3が閾値θTHに比べて大きいか否かを判定する。そして、回転角度算出部37は、角度θ3が閾値θTHに比べて大きいとの判定結果を得た場合には、当該角度θ3を画像回転部38へ出力する。一方、回転角度算出部37は、角度θ3が閾値θTH以下であるとの判定結果を得た場合には、当該角度θ3を画像回転部38へ出力せずに、画像認識部36から次に出力される動きベクトルの角度θ3を算出する。
 画像回転部38は、回転角度算出部37から出力される角度θ3に基づき、画像生成部35から出力される画像を-θ3だけ回転させるための画像回転処理を行う。
 すなわち、以上に述べたような回転角度算出部37及び画像回転部38の動作によれば、回転角度算出部37により算出された角度θ3が閾値θTHに比べて大きい場合に限り、画像回転部38による画像回転処理が画像生成部35から出力される画像に対して施される。また、以上に述べたような回転角度算出部37及び画像回転部38の動作によれば、操作ノブ221の操作に応じて先端部212のアングルが変化する方向と、走査型内視鏡1の視野が先端部212のアングルの変化に応じて移動する方向と、の間のずれが(例えば閾値θTHにより示される)所定のずれ量よりも大きくなっている場合に限り、画像生成部35から出力される画像に対して画像回転処理が施される。
 なお、本実施例に係る内視鏡システム103は、先端部212のアングルが所定の方向に変化されたことをすることが可能な限りにおいては、アングル操作部22に設けられたセンサ部222からの出力電圧が動き検出部36Aに入力される構成とは異なる他の構成を有するものであってもよい。具体的には、本実施例に係る内視鏡システム103は、例えば、可撓管部21の湾曲部に設けられた感圧導電性ゴム、静電容量型圧力センサ、または、圧電センサ等の応力センサからの出力が動き検出部36Aに入力されるような構成を有するものであってもよい。または、本実施例に係る内視鏡システム103は、例えば、可撓管部21の形状を検出するための形状検出システムによる検出結果が動き検出部36Aに入力されるような構成を有するものであってもよい。
 以上に述べたように、本実施例に係る内視鏡システム103によれば、可撓管部21の内部に挿入部11を挿通して使用する際に、操作ノブ221の操作に応じて先端部212のアングルが変化する方向と、走査型内視鏡1の視野が先端部212のアングルの変化に応じて移動する方向と、を一致させることができる。すなわち、本実施例によれば、内視鏡を挿通した状態で使用される挿入補助具のアングルを変化させる際の操作性を向上させることができる。
(第4の実施例)
 図12及び図13は、本発明の第4の実施例に係るものである。図12は、第4の実施例に係る内視鏡システムの要部の構成を示す図である。
 なお、本実施例においては、第1~第3の実施例の少なくともいずれか一方と同様の構成等を有する部分に関する詳細な説明を適宜省略するとともに、第1~第3の実施例のいずれともと異なる構成等を有する部分に関して主に説明を行う。
 内視鏡システム104は、図12に示すように、走査型内視鏡1Aと、挿入補助具2Aと、本体装置3Bと、表示装置4と、を有して構成されている。
 走査型内視鏡1Aは、走査型内視鏡1の挿入部11に対してセンサ部112を加えたものに略相当する挿入部11Aを具備して構成されている。
 センサ部112は、(挿入部11の)先端部111における長手方向の伸縮状態を、走査型内視鏡1Aの走査により得られる光学像が表示画面4Aに画像として表示される際の上下左右の各方向に対応付けて検出することができるように配置された4つの応力センサを具備して構成されている。具体的には、前述の応力センサは、例えば、感圧導電性ゴムまたは静電容量型応力センサ等により構成されている。また、センサ部112は、先端部111における長手方向の伸縮状態の検出結果を抵抗値等の電気的パラメータとして本体装置3Bへ出力することができるように構成されている。
 図13は、第4の実施例に係る本体装置の構成の一例を説明するためのブロック図である。
 本体装置3Bは、図13に示すように、光源部31と、走査駆動部32と、光検出部33と、A/D変換部34と、画像生成部35と、回転角度算出部37と、画像回転部38と、表示制御部39と、を有して構成されている。
 画像生成部35は、A/D変換部34から時系列で出力されるデジタル信号に対して2次元マッピング等の処理を施すことにより、走査型内視鏡1の視野に応じた画像を生成し、当該生成した画像を画像回転部38へ出力する。
 回転角度算出部37は、先端部212のアングルがアングル操作部22の操作に応じて所定の方向に変化した際に、可撓管部21の内部に挿通された挿入部11Aの変形状態を検出し、当該検出した変形状態に基づいて画像生成部35から出力される画像の向きを推定し、当該推定した画像の向きが当該所定の方向を基準方向としてどの程度回転しているかを示す角度を算出する。具体的には、回転角度算出部37は、例えば、センサ部222から出力される電圧に基づいて先端部212のアングルが所定の方向に変化したことを検出し、センサ部112から出力される電気的パラメータに基づいて先端部111における長手方向の伸縮状態を検出し、当該検出した伸縮状態に基づいて画像生成部35から出力される画像の向きを推定し、当該推定した画像の向きが当該所定の方向を基準方向としてどの程度回転しているかを示す角度θ4を算出し、当該算出した角度θ4を画像回転部38へ出力する。
 画像回転部38は、回転角度算出部37から角度θ4が出力された際に、当該角度θ4を相殺して表示装置4の表示画面4Aに表示させるための画像回転処理を画像生成部35から出力される画像に対して施す。換言すると、画像回転部38は、回転角度算出部37から出力される角度θ4に基づき、画像生成部35から出力される画像を-θ4だけ回転させるための画像回転処理を行う。
 表示制御部39は、画像回転部38から出力される画像に対し、所定の表示フォーマットに適合させるための処理等を施して表示装置4へ出力する。
 次に、本実施例に係る内視鏡システム104の作用について説明する。なお、以降においては、簡単のため、先端部212のアングルが上方向に変化された場合を例に挙げて説明する。
 ユーザは、走査型内視鏡1Aによる被写体の走査、及び、本体装置3Bによる画像の生成を開始させた状態において、挿入補助具2Aの挿入ポート211から可撓管部21の内部へ挿入部11Aを挿入してゆく。
 その後、ユーザは、先端部111を先端部212から突出させた状態で操作ノブ221の第1ノブを操作することにより、先端部212のアングルを上方向に変化させる。そして、このような操作に伴い、第1ノブの回転角度に応じた電圧がセンサ部222から出力される。また、前述の操作に伴い、先端部111における長手方向の伸縮状態に応じた電気的パラメータがセンサ部112から出力される。
 回転角度算出部37は、センサ部222から出力される電圧に基づき、操作ノブ221の操作に応じて先端部212のアングルが上方向に変化されたことを検出する。また、回転角度算出部37は、センサ部112から出力される電気的パラメータに基づき、先端部111における長手方向の伸縮状態を検出し、さらに、当該検出した伸縮状態に基づき、画像生成部35により生成される画像の向きを推定する。そして、回転角度算出部37は、先端部212のアングルの上方向を基準方向とした場合に、前述のように推定した画像の向きが当該基準方向に対してどの程度回転しているかを示す角度θ4を算出し、当該算出した角度θ4を画像回転部38へ出力する。
 画像回転部38は、回転角度算出部37から出力される角度θ4に基づき、画像生成部35から出力される画像を-θ4だけ回転させるための画像回転処理を行う。
 すなわち、以上に述べたような回転角度算出部37及び画像回転部38の動作によれば、操作ノブ221の操作に応じて先端部212のアングルが上下左右のうちの所定の方向に変化した際に、当該所定の方向に対して画像生成部35から出力される画像の上下左右方向を合わせるような画像回転処理が行われる。
 なお、本実施例に係る内視鏡システム104は、可撓管部21の内部に挿通された挿入部11Aの変形状態を検出することが可能な限りにおいては、先端部111に設けられたセンサ部112からの電気的パラメータが回転角度算出部37に入力される構成とは異なる他の構成を有するものであってもよい。具体的には、本実施例に係る内視鏡システム104は、例えば、挿入部11Aの導光部の光ファイバから漏れ出る光を、走査型内視鏡1Aの走査により得られる画像の上下左右に対応付けて検出することができるように配置された、4つのフォトディテクタからの出力が回転角度算出部37に入力されるような構成を有するものであってもよい。または、本実施例に係る内視鏡システム104は、例えば、挿入部11Aの形状を検出するための形状検出装置による検出結果が回転角度算出部37に入力されるような構成を有するものであってもよい。
 以上に述べたように、本実施例に係る内視鏡システム104によれば、可撓管部21の内部に挿入部11Aを挿通して使用する際に、操作ノブ221の操作に応じて先端部212のアングルが変化する方向と、走査型内視鏡1Aの視野が先端部212のアングルの変化に応じて移動する方向と、を一致させることができる。すなわち、本実施例によれば、内視鏡を挿通した状態で使用される挿入補助具のアングルを変化させる際の操作性を向上させることができる。
 なお、内視鏡システム101~104の構成を適宜変形することにより、走査型内視鏡を含む場合に限らず、例えば、ファイバスコープ等の他の内視鏡を含む場合であっても各実施例を適用することができる。
 本発明は、上述した各実施例に限定されるものではなく、発明の趣旨を逸脱しない範囲内において種々の変更や応用が可能であることは勿論である。
 本出願は、2013年7月12日に日本国に出願された特願2013-146852号を優先権主張の基礎として出願するものであり、上記の開示内容は、本願明細書、請求の範囲、図面に引用されたものとする。

Claims (6)

  1.  可撓性及び細長形状を具備するように形成された挿入部を有し、前記挿入部の先端部の前方に視野を有するように構成された内視鏡と、
     前記挿入部を内部に挿通することが可能な管路を有し、前記管路の先端部のアングルをアングル操作部の操作に応じて変化させることができるように構成された挿入補助具と、
     前記内視鏡の視野に応じた画像を生成して出力するように構成された画像生成部と、
     前記挿入部の少なくとも一部が前記管路に挿通されている際に前記画像生成部から出力される画像の向きが基準方向に対してどの程度回転しているかを示す回転角度を算出するように構成された回転角度算出部と、
     前記画像生成部から出力される画像に対し、前記回転角度を相殺して表示部の表示画面に表示させるための画像回転処理を施すように構成された画像回転部と、
     を有することを特徴とする内視鏡システム。
  2.  前記管路の内部には、前記管路の先端部のアングルが前記アングル操作部の操作に応じて所定の方向に変化することを識別可能な所定のマークが描かれており、
     前記回転角度算出部は、前記画像生成部から出力される画像に含まれる前記所定のマークが、前記表示画面における前記所定の方向に一致する方向を基準方向としてどの程度回転した位置にあるかを示す角度を前記回転角度として算出する
     ことを特徴とする請求項1に記載の内視鏡システム。
  3.  前記管路の先端部のアングルが前記アングル操作部の操作に応じて所定の方向に変化した際に、前記画像生成部から出力される画像に含まれる被写体の動きベクトルを取得するように構成された動き検出部をさらに有し、
     前記回転角度算出部は、前記動き検出部により取得された動きベクトルが、前記表示画面における前記所定の方向の逆方向を基準方向としてどの程度回転しているかを示す角度を前記回転角度として算出する
     ことを特徴とする請求項1に記載の内視鏡システム。
  4.  前記回転角度算出部により算出された前記角度が所定の閾値に比べて大きい場合に限り、前記画像回転部による前記画像回転処理が前記画像生成部から出力される画像に対して施される
     ことを特徴とする請求項3に記載の内視鏡システム。
  5.  前記回転角度算出部は、前記管路の先端部のアングルが前記アングル操作部の操作に応じて所定の方向に変化した際に、前記管路の内部に挿通された前記挿入部の変形状態を検出し、当該検出した変形状態に基づいて前記画像生成部により生成された画像の向きを推定し、当該推定した画像の向きが前記所定の方向を基準方向としてどの程度回転しているかを示す角度を前記回転角度として算出する
     ことを特徴とする請求項1に記載の内視鏡システム。
  6.  前記内視鏡は、前記先端部の前方に存在する被写体を走査して光学像を得ることができるように構成されている
     ことを特徴とする請求項1に記載の内視鏡システム。
PCT/JP2014/059452 2013-07-12 2014-03-31 内視鏡システム WO2015004960A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201480023604.6A CN105142494B (zh) 2013-07-12 2014-03-31 内窥镜系统
JP2015502006A JP5788623B2 (ja) 2013-07-12 2014-03-31 内視鏡システム
EP14823647.4A EP2992809A4 (en) 2013-07-12 2014-03-31 Endoscope system
US14/959,007 US20160081530A1 (en) 2013-07-12 2015-12-04 Endoscope system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013146852 2013-07-12
JP2013-146852 2013-07-12

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/959,007 Continuation US20160081530A1 (en) 2013-07-12 2015-12-04 Endoscope system

Publications (1)

Publication Number Publication Date
WO2015004960A1 true WO2015004960A1 (ja) 2015-01-15

Family

ID=52279657

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/059452 WO2015004960A1 (ja) 2013-07-12 2014-03-31 内視鏡システム

Country Status (5)

Country Link
US (1) US20160081530A1 (ja)
EP (1) EP2992809A4 (ja)
JP (1) JP5788623B2 (ja)
CN (1) CN105142494B (ja)
WO (1) WO2015004960A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017037782A1 (ja) * 2015-08-28 2017-03-09 オリンパス株式会社 走査型観察装置
WO2017047115A1 (ja) * 2015-09-17 2017-03-23 オリンパス株式会社 光走査型観察システム
CN106999254A (zh) * 2015-02-26 2017-08-01 奥林巴斯株式会社 机械手系统
WO2022259390A1 (ja) * 2021-06-08 2022-12-15 オリンパス株式会社 撮像ユニットおよび内視鏡

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106343942A (zh) * 2016-10-17 2017-01-25 武汉大学中南医院 一种腹腔镜镜头偏转自动告警装置
WO2018180249A1 (ja) * 2017-03-28 2018-10-04 富士フイルム株式会社 計測支援装置、内視鏡システム、及びプロセッサ
US11501661B2 (en) * 2018-03-29 2022-11-15 Cae Healthcare Canada Inc. Method and system for simulating an insertion of an elongated instrument into a subject
WO2020014198A1 (en) * 2018-07-10 2020-01-16 Intuitive Surgical Operations, Inc. Systems and methods for detecting an orientation of medical instruments
EP3829413A4 (en) * 2018-08-27 2022-05-18 Meditrina, Inc. ENDOSCOPE AND METHOD OF USE
CN114040788A (zh) * 2019-06-27 2022-02-11 波士顿科学医学有限公司 针对流体管理系统的内窥镜检测

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0490743A (ja) * 1990-08-02 1992-03-24 Olympus Optical Co Ltd 内視鏡装置
JPH10262921A (ja) * 1997-03-24 1998-10-06 Olympus Optical Co Ltd 電子内視鏡装置
JP2008508987A (ja) * 2004-08-09 2008-03-27 ボストン サイエンティフィック サイムド, インコーポレイテッド 光ファイバー画像化カテーテル
US20110213300A1 (en) 2004-03-23 2011-09-01 Boston Scientific Scimed, Inc. In-vivo visualization system

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7037258B2 (en) * 1999-09-24 2006-05-02 Karl Storz Imaging, Inc. Image orientation for endoscopic video displays
US6607561B2 (en) * 2001-10-02 2003-08-19 James Kevin Brannon Biaxial core compression
WO2005058137A2 (en) * 2003-12-12 2005-06-30 University Of Washington Catheterscope 3d guidance and interface system
US20070219411A1 (en) * 2006-01-13 2007-09-20 Olympus Medical Systems Corp. Overtube and endoscopic treatment system
EP2407082B1 (en) * 2009-03-11 2017-04-26 Olympus Corporation Image processing system, external device and image processing method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0490743A (ja) * 1990-08-02 1992-03-24 Olympus Optical Co Ltd 内視鏡装置
JPH10262921A (ja) * 1997-03-24 1998-10-06 Olympus Optical Co Ltd 電子内視鏡装置
US20110213300A1 (en) 2004-03-23 2011-09-01 Boston Scientific Scimed, Inc. In-vivo visualization system
JP2008508987A (ja) * 2004-08-09 2008-03-27 ボストン サイエンティフィック サイムド, インコーポレイテッド 光ファイバー画像化カテーテル

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2992809A4

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106999254A (zh) * 2015-02-26 2017-08-01 奥林巴斯株式会社 机械手系统
WO2017037782A1 (ja) * 2015-08-28 2017-03-09 オリンパス株式会社 走査型観察装置
JPWO2017037782A1 (ja) * 2015-08-28 2018-06-14 オリンパス株式会社 走査型観察装置
WO2017047115A1 (ja) * 2015-09-17 2017-03-23 オリンパス株式会社 光走査型観察システム
JPWO2017047115A1 (ja) * 2015-09-17 2018-08-09 オリンパス株式会社 光走査型観察システム
WO2022259390A1 (ja) * 2021-06-08 2022-12-15 オリンパス株式会社 撮像ユニットおよび内視鏡
JP7549145B2 (ja) 2021-06-08 2024-09-10 オリンパス株式会社 撮像ユニットおよび内視鏡

Also Published As

Publication number Publication date
EP2992809A1 (en) 2016-03-09
CN105142494A (zh) 2015-12-09
CN105142494B (zh) 2017-09-29
EP2992809A4 (en) 2017-01-11
US20160081530A1 (en) 2016-03-24
JP5788623B2 (ja) 2015-10-07
JPWO2015004960A1 (ja) 2017-03-02

Similar Documents

Publication Publication Date Title
JP5788623B2 (ja) 内視鏡システム
JP5932172B2 (ja) 内視鏡システム
US11786106B2 (en) Robotic endoscope probe having orientation reference markers
EP2425760B1 (en) Endoscope system
JP5159995B2 (ja) 内視鏡システム
EP2583616B1 (en) Endoscope
EP2052691B1 (en) Medical device
EP2113187A1 (en) Endoscope system using manipulator apparatus
JP6442601B2 (ja) 挿抜装置及び挿入部の直接操作推定プログラム
US20200229682A1 (en) Endoscope, endoscope system, method of determining leakage of endoscope, and leakage determination program for endoscope
WO2021048925A1 (ja) 内視鏡制御装置、内視鏡制御装置の作動方法及びプログラム
JP6104479B2 (ja) マニピュレータシステム
JP7183449B2 (ja) 工業用内視鏡画像処理装置、工業用内視鏡システム、工業用内視鏡画像処理装置の作動方法及びプログラム
WO2015146836A1 (ja) 内視鏡システム
KR102391591B1 (ko) 가요성 연성부 형태 추정 장치 및 이를 포함하는 내시경 시스템
US9603507B2 (en) Insertion device
WO2019003272A1 (ja) 可撓管挿入装置、挿入制御装置及び挿入制御プログラム
JP5841366B2 (ja) 医療装置
JP6150579B2 (ja) 挿入装置
JP5771488B2 (ja) 内視鏡装置
JP2018130433A (ja) 内視鏡システム、内視鏡及び挿入補助具
JP5396178B2 (ja) 内視鏡装置及び内視鏡システム
JP3927182B2 (ja) 内視鏡
JP6464110B2 (ja) 内視鏡形状把握システム
JP2013172905A (ja) 管状挿入システム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201480023604.6

Country of ref document: CN

ENP Entry into the national phase

Ref document number: 2015502006

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14823647

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2014823647

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2014823647

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE