WO2020202490A1 - ワイヤレス内視鏡装置 - Google Patents

ワイヤレス内視鏡装置 Download PDF

Info

Publication number
WO2020202490A1
WO2020202490A1 PCT/JP2019/014744 JP2019014744W WO2020202490A1 WO 2020202490 A1 WO2020202490 A1 WO 2020202490A1 JP 2019014744 W JP2019014744 W JP 2019014744W WO 2020202490 A1 WO2020202490 A1 WO 2020202490A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
wireless
voice
wireless endoscope
detection unit
Prior art date
Application number
PCT/JP2019/014744
Other languages
English (en)
French (fr)
Inventor
誠 春見
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to CN201980094914.XA priority Critical patent/CN113677255A/zh
Priority to JP2021511848A priority patent/JP7123245B2/ja
Priority to PCT/JP2019/014744 priority patent/WO2020202490A1/ja
Publication of WO2020202490A1 publication Critical patent/WO2020202490A1/ja
Priority to US17/487,735 priority patent/US20220021801A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00011Operational features of endoscopes characterised by signal transmission
    • A61B1/00016Operational features of endoscopes characterised by signal transmission using wireless means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00006Operational features of endoscopes characterised by electronic signal processing of control signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00025Operational features of endoscopes characterised by power management
    • A61B1/00027Operational features of endoscopes characterised by power management characterised by power supply
    • A61B1/00032Operational features of endoscopes characterised by power management characterised by power supply internally powered
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00039Operational features of endoscopes provided with input arrangements for the user
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00039Operational features of endoscopes provided with input arrangements for the user
    • A61B1/0004Operational features of endoscopes provided with input arrangements for the user for electronic operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00039Operational features of endoscopes provided with input arrangements for the user
    • A61B1/00042Operational features of endoscopes provided with input arrangements for the user for mechanical operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0655Control therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/267Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the respiratory tract, e.g. laryngoscopes, bronchoscopes
    • A61B1/2673Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the respiratory tract, e.g. laryngoscopes, bronchoscopes for monitoring movements of vocal chords
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/38Transmitter circuitry for the transmission of television signals according to analogue transmission standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/044Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for absorption imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • A61B1/0684Endoscope light sources using light emitting diodes [LED]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes

Definitions

  • the present invention relates to a wireless endoscopic device suitable for vocal cord observation.
  • an endoscope system in which an elongated endoscope is inserted into a body cavity or the like to observe the test site and perform various treatments has been widely used.
  • the endoscopic image obtained by the image sensor of the endoscope is transmitted to a video processor that performs signal processing.
  • the video processor signals the image from the endoscope and supplies it to the monitor for display or to the recording device for recording.
  • a scope cable is used to transmit the endoscopic image from the endoscope to the video processor.
  • the scope cable may limit the range of movement of the endoscope or hinder its operability.
  • the scope cable may become entangled with other cables, causing problems such as disconnection. Therefore, in recent years, a wireless endoscope equipped with a rechargeable battery and wirelessly transmitting an endoscope image to a processor or the like has been developed.
  • vocal band observation may be performed with an endoscope.
  • Strobe observation is used to observe vocal cord vibration.
  • strobe observation an observation image is obtained by using the so-called stroboscopic effect, in which the vocal cords appear to vibrate slowly by blinking the strobe light at a cycle slightly deviated from the cycle of vocal cord vibration.
  • strobe observation with an endoscope for example, voice analysis is performed based on the collected sound, and light emission (strobe light emission) is performed at a light emission timing determined from the result (for example, Japanese Patent Application Laid-Open No. 2000-300154). reference). Therefore, in order to observe the vocal cords with a strobe, a microphone for collecting the patient's voice is required.
  • the wireless endoscope device is a wireless endoscope device including a wireless endoscope and a voice detection unit, wherein the voice detection unit includes a voice detection unit for detecting voice and the voice.
  • the wireless endoscope has a voice modulation unit that modulates the voice detected by the detection unit and a first wireless transmission unit that wirelessly transmits the modulation result of the voice modulation unit, and the wireless endoscope has the first wireless transmission.
  • a wireless receiving unit that receives the voice transmitted wirelessly from the unit, a voice processing unit that processes the voice received by the wireless receiving unit, an illumination unit that generates illumination light for illuminating the subject, and a subject. It has an imaging unit for imaging, a second wireless transmitting unit for wirelessly transmitting the imaging result by the imaging unit, and a control unit for giving the processing result of the audio processing unit to the lighting unit to control light emission.
  • the block diagram which shows the circuit structure of the main part of the wireless endoscope apparatus which concerns on 1st Embodiment of this invention.
  • Explanatory drawing which shows the outline of the whole structure of the endoscope system which has a wireless endoscope apparatus.
  • Explanatory drawing for explaining the mounting position of a microphone unit in a wireless endoscope.
  • the flowchart for demonstrating the operation of 1st Embodiment Explanatory drawing for demonstrating the state of strobe observation in an embodiment.
  • the block diagram which shows the 2nd Embodiment of this invention.
  • FIG. 1 is a block diagram showing a circuit configuration of a main part of a wireless endoscope device according to a first embodiment of the present invention.
  • FIG. 2 is an explanatory diagram showing an outline of an overall configuration of an endoscopic system having a wireless endoscopy device.
  • FIG. 3 is an explanatory diagram for explaining the mounting position of the microphone unit in the wireless endoscope.
  • the microphone unit and the wireless endoscope are wirelessly connected, and the strobe light emission is controlled by detecting the attachment of the microphone unit, thereby enabling strobe observation using the wireless endoscope. It is a thing.
  • the endoscope system of FIG. 2 includes a wireless endoscope 1, a video processor 5 and a monitor 6.
  • Various medical devices and monitors 6 are arranged on the cart 7. Further, a video processor 5 connected to the wireless unit 8 is placed on the cart 7.
  • medical devices devices such as an electric knife device, a pneumoperitoneum device, a video recorder, and a gas cylinder filled with carbon dioxide are also placed on the cart 7.
  • the wireless endoscope 1 is equipped with a battery (not shown) so that it can perform a normal imaging operation for endoscopic observation, and is wirelessly connected to the video processor 5. Is.
  • the wireless endoscope 1 is composed of an endoscope body having an insertion portion 2 on the tip end side and an operation portion 3 on the proximal end side.
  • An image pickup unit (not shown) having an image pickup element composed of a CCD, a CMOS sensor, or the like is arranged at the tip end portion of the insertion portion 2.
  • the insertion unit 2 is provided with an illumination unit (not shown) that generates illumination light for illuminating the subject.
  • This illumination unit as an in-scope light source irradiates the subject with the generated light as illumination light through a lens (not shown) at the tip of the insertion unit 2.
  • the return light from the subject is incident on the imaging surface of the imaging unit through an observation lens (not shown) at the tip of the insertion unit 2.
  • the imaging unit obtains an captured image based on the subject optical image by photoelectric conversion.
  • the imaging unit transmits the captured image to a substrate (not shown) in the operation unit 3 via a signal line (not shown) in the insertion unit 2.
  • Various circuits including an image processing circuit (not shown) and a communication circuit for transmitting signals are mounted on a substrate (not shown) provided in the operation unit 3, and the captured image is wirelessly transmitted to the wireless unit 8 by these circuits. It has become like.
  • a plurality of endoscope switches 3b are arranged on the operation surface 3a of the operation unit 3, and an operation signal based on the operation of the endoscope switch 3b is also transmitted to the radio unit 8. There is.
  • the communication circuit built in the wireless endoscope 1 is used to drive not only the captured image but also the image sensor and the lighting unit arranged in the insertion unit 2 with the wireless unit 8. It is possible to send and receive various setting information.
  • the image pickup unit and the illumination unit have been described as being provided at the tip of the insertion unit 2, the image pickup unit and the illumination unit may be provided on the operation unit 3 side like a camera head, and the light source is operated. It may be provided in the portion 3 or the like to guide the illumination light to the tip of the insertion portion 2 by a light guide or the like.
  • the wireless endoscope 1 has a built-in battery 18, and the electric power from the battery 18 is supplied to the power supply unit 19 mounted on the board in the operation unit 3.
  • the operation surface 3a of the operation unit 3 is provided with a locking portion (not shown) for mounting the microphone unit 4.
  • the microphone unit 4 as a voice detection unit can be detachably attached to the operation surface 3a. When observing the strobe, the microphone unit 4 is attached to this locking portion.
  • the microphone unit 4 collects ambient sound and transmits the collected sound to the wireless endoscope 1.
  • the microphone unit 4 is provided with a control unit 41, a microphone sensor 42, a voice modulation unit 43, a radio unit 44, and a battery 45.
  • the control unit 41 may be configured by a processor using a CPU, FPGA, or the like, may operate according to a program stored in a memory (not shown) to control each unit, or may be an electronic circuit of hardware. May realize a part or all of the functions.
  • the microphone sensor 42 various microphones such as a condenser type and a dynamic type can be adopted.
  • the microphone sensor 42 as a voice detection unit picks up ambient sound and outputs the picked up sound to the voice modulation unit 43.
  • the voice modulation unit 43 for example, a modulation circuit that employs a digital modulation method such as QAM (quadrature amplitude modulation) or various other modulation methods can be used.
  • the voice modulation unit 43 modulates the voice given by the microphone sensor 42 and outputs it to the radio unit 44.
  • the wireless unit 44 as the first wireless transmission unit is composed of a communication circuit that operates in a predetermined wireless system.
  • the wireless unit 44 may be capable of short-range wireless communication, and may adopt a wireless standard such as Wi-Fi (registered trademark) or Bluetooth (registered trademark).
  • the radio unit 44 wirelessly transmits the voice from the voice modulation unit 43.
  • the voice transmitted wirelessly from the wireless unit 44 can be received by the wireless unit 16 of the wireless endoscope 1.
  • the wireless unit 16 as a wireless receiving unit is a communication circuit that operates according to a wireless standard corresponding to the wireless unit 44, receives voice transmitted from the wireless unit 44, processes the received voice via the bus 20, and performs image processing. It is designed to output to the control unit 11.
  • the image processing and control unit 11 of the wireless endoscope 1 may be configured by a processor using a CPU, FPGA, or the like, and operates according to a program stored in a memory (not shown) to control each unit. It may be a hardware electronic circuit that realizes a part or all of the functions.
  • the control unit 11 is connected to the bus 20 and controls each unit via the bus 20.
  • the wireless endoscope 1 is provided with an illumination unit 12.
  • the illumination unit 12 is composed of various light source devices such as an LED (light emitting diode) light source.
  • the illumination unit 12 is controlled by the image processing and control unit 11 to generate illumination light.
  • the illumination light from the illumination unit 12 is applied to the subject through an illumination lens (not shown) provided at the tip of the insertion unit 2.
  • the illumination unit 12 is controlled by the control unit 11 to switch between normal light emission and strobe light emission. Further, the lighting unit 12 is given a light emission control signal by the voice processing processor unit 15 described later, and the light emission cycle at the time of strobe light emission is controlled based on the light emission control signal.
  • the wireless endoscope 1 is provided with an imaging unit 13 at the tip of the insertion unit 2.
  • the image pickup unit 13 has an image pickup element such as a CCD or a CMOS sensor (not shown), and the reflected light from the subject is incident on the image pickup surface through an observation lens (not shown).
  • the imaging unit 13 photoelectrically converts the subject optical image incident on the imaging surface to obtain an captured image.
  • the image processing and control unit 11 drives the imaging unit 13, receives an image captured from the imaging unit 13, performs predetermined image signal processing, and then outputs the image to the wireless unit 14.
  • the wireless unit 14 as the second wireless transmission unit is composed of, for example, a communication circuit that employs a predetermined wireless standard such as Wi-Fi.
  • the wireless unit 14 modulates the image captured from the image processing and control unit 11 and then wirelessly transmits the image.
  • the transmission signal from the radio unit 14 is received by the radio unit 8 and supplied to the video processor 5. Further, the radio unit 14 receives various control signals and the like transmitted from the video processor 5 via the radio unit 8 and gives them to the image processing and control unit 11.
  • the wireless endoscope 1 is provided with a battery 18.
  • the battery 18 generates a predetermined electric power and supplies it to the power supply unit 19.
  • the power supply unit 19 can be configured by a power supply circuit that generates a power supply voltage used in each unit of the wireless endoscope 1 by the electric power from the battery 18.
  • the power supply unit 19 is controlled by the image processing and control unit 11 to supply the generated power supply voltage to each unit of the wireless endoscope 1 (not shown).
  • the image processing and control unit 11 is only used when the detachable microphone unit 4 is attached to the operation surface 3a, or when the microphone unit 4 supplies sound of a predetermined level or higher.
  • the lighting unit 12 is designed to emit a strobe light.
  • the image processing and control unit 11 determines that the microphone unit 4 is attached to the operation surface 3a due to the establishment of radio communication between the radio unit 16 and the radio unit 44, and causes the lighting unit 12 to emit a strobe light. It may be controlled to start. Further, the image processing and control unit 11 compares the reception level of the voice received by the wireless unit 16 with a predetermined threshold value, so that when there is a voice reception level exceeding the threshold value, the voice unit 4 has a sufficient level of voice. May be determined to have been output, and the illumination unit 12 may be controlled to start strobe light emission.
  • the voice received by the radio unit 16 is also supplied to the voice processing processor unit 15.
  • the audio processing processor unit 15 as the audio processing unit may be configured by a processor using a CPU, FPGA, or the like, or may operate according to a program stored in a memory (not shown) to control each unit. However, a part or all of the functions may be realized by a hardware electronic circuit.
  • the voice processing processor unit 15 obtains a voice frequency by voice analysis of the input voice, generates a light emission control signal based on the obtained voice frequency, and outputs the light emission control signal to the lighting unit 12.
  • the illumination unit 12 emits strobe light at a cycle based on the light emission control signal.
  • the voice processing processor unit 15 is a circuit unit necessary for strobe observation. Therefore, in the present embodiment, in order to reduce power consumption, the image processing and control unit 11 receives voice exceeding the threshold value during the period in which the radio unit 16 and the radio unit 44 are wirelessly established or in the radio unit. The period in which there is a level may be set as the strobe observation period, and the audio processing processor unit 15 may be controlled to supply the power supply voltage only during this period.
  • FIG. 4 is a flowchart for explaining the operation of the embodiment.
  • FIG. 5 is an explanatory diagram for explaining the state of strobe observation in the embodiment.
  • the insertion portion 2 of the wireless endoscope 1 is inserted from the mouth 25a of the subject 25 until the tip of the insertion portion 2 reaches a position where the vocal cords can be observed. To do.
  • normal light observation with normal light is performed so that the state at the time of insertion can be observed (step S1 in FIG. 4). That is, the image processing and control unit 11 controls the illumination unit 12 to emit normal light (step S2).
  • the image pickup unit 13 photoelectrically converts the return light from the subject 25 illuminated by the illumination unit 12 and outputs the captured image to the image processing and control unit 11.
  • the image processing and control unit 11 performs predetermined image signal processing on the captured image, and then transmits the captured image to the video processor 5 via the radio unit 14.
  • the video processor 5 generates an image based on the captured image and outputs it to the monitor 6. In this way, the captured image at the time of insertion is displayed on the display screen of the monitor 6.
  • the surgeon attaches the microphone unit 4 to the operation surface 3a when the insertion portion 2 is inserted to a position where the vocal cords can be observed.
  • the position where the microphone unit 4 is mounted is shown by the broken line.
  • the image processing and control unit 11 determines in step S3 whether or not the microphone unit 4 is attached.
  • wireless communication between the wireless unit 44 and the wireless unit 16 is established.
  • Information indicating that wireless communication has been established is given to the image processing and control unit 11.
  • the image processing and control unit 11 determines that the microphone unit 4 is mounted on the operation surface 3a, and shifts the processing from step S3 to step S4.
  • Steps S4 to S8 indicate processing during the strobe observation period, and the image processing and control unit 11 starts supplying the power supply voltage from the power supply unit 19 to the audio processing processor unit 15 to start the audio processing processor unit 15. (Step S4).
  • the control unit 11 causes the illumination unit 12 to start strobe light emission (step S5).
  • the microphone unit 4 collects the voice of the subject 25 by the microphone sensor 42 (step S6).
  • the voice from the microphone sensor 42 is modulated by the voice modulation unit 43 and supplied to the radio unit 44.
  • the radio unit 44 wirelessly transmits voice.
  • the wireless unit 16 of the wireless endoscope 1 receives the sound transmitted from the wireless unit 44 and supplies it to the sound processing processor unit 15 via the bus 20.
  • the voice processing processor unit 15 obtains a voice frequency from the input voice. Based on the obtained voice frequency, the voice processing processor unit 15 generates a light emission control signal for strobe light emission at a frequency close to the voice frequency and supplies the light emission control signal to the lighting unit 12 (step S7).
  • the illumination unit 12 emits strobe light at a light emission frequency based on the light emission control signal (step S8).
  • the imaging unit 13 photoelectrically converts the return light from the vocal cords of the strobe light emission and outputs the captured image to the image processing and control unit 11.
  • the image processing and control unit 11 performs predetermined image signal processing on the captured image, and then transmits the captured image to the video processor 5 via the radio unit 14.
  • the video processor 5 generates an image based on the captured image and outputs it to the monitor 6. In this way, an image in which the vocal cords vibrate slowly is displayed on the display screen of the monitor 6, and strobe observation becomes possible.
  • the processes of steps S6 to S8 are repeated until it is detected in step S9 that the microphone unit 4 has been removed.
  • the surgeon removes the microphone unit 4 in order to end the strobe observation.
  • the image processing and control unit 11 determines in step S9 whether or not the microphone is attached. When the distance between the wireless unit 44 and the wireless unit 16 of the microphone unit 4 increases, the wireless communication between the two is canceled.
  • the image processing and control unit 11 detects that the wireless communication has been canceled, that is, the microphone unit 4 has been removed by the output of the wireless unit 16. Then, the image processing and control unit 11 controls the illumination unit 12 to perform normal light emission control, and ends the strobe observation period (step S10).
  • step S11 the image processing and control unit 11 stops the power supply to the audio processing processor unit 15 and stops the operation of the audio processing processor unit 15. In this way, it returns to normal light observation.
  • the strobe observation period and the normal light observation period were switched by determining the establishment or cancellation of wireless communication by attaching / detaching the microphone unit 4, but the microphone unit 4 was attached.
  • the strobe observation period and the normal light observation period may be switched.
  • the control unit 11 starts strobe light emission when the sound level supplied from the microphone unit 4 to the wireless endoscope 1 exceeds a predetermined threshold value, and when the sound level becomes less than the predetermined threshold value, normal light observation is performed. You may try to put it back.
  • FIG. 6 is a block diagram showing a second embodiment of the present invention.
  • the same components as those in FIG. 1 are designated by the same reference numerals, and the description thereof will be omitted.
  • the present embodiment enables power management of a microphone unit that does not have a battery.
  • the microphone unit 40 is different from the microphone unit 4 in FIG. 1 in that it has a power receiving unit 46 instead of the battery 45. Further, the wireless endoscope 10 is different from the wireless endoscope 1 of FIG. 1 in that a power transmission unit 21 is added.
  • the power transmission unit 21 is controlled by the image processing and control unit 11 to transmit the electric power from the power supply unit 19 to the microphone unit 40.
  • the power receiving unit 46 receives the electric power transmitted from the power transmitting unit 21. For example, electric power can be transmitted by forming the power transmitting unit 21 and the power receiving unit 46 with coils and electromagnetically coupling them.
  • the power receiving unit 46 can receive power from the power transmission unit 21 by being close to the power transmission unit 21.
  • the power receiving unit 46 is adapted to generate a power supply voltage to be used in each unit in the microphone unit 40 by the received electric power.
  • the power transmission unit 21 can detect whether or not power is being supplied to the power reception unit 46. For example, when the power transmission unit 21 detects that power is being supplied to the power reception unit 46, the power transmission unit 21 outputs the detection signal to the image processing and control unit 11.
  • the image processing and control unit 11 sets the strobe observation period by the detection signal from the power transmission unit 21.
  • the image processing and control unit 11 may set the strobe observation period when the power consumption by the power transmission unit 21 exceeds a predetermined reference value. For example, it is also possible to set the strobe observation period by detecting the case where the power consumption is increased due to the transmission of the sound of the predetermined level or higher in the microphone unit 40.
  • the image processing and control unit 11 may set the strobe observation period by monitoring the power consumption of the power transmission unit 21 based on the information from the power supply unit 19.
  • FIG. 7 is a flowchart for explaining the operation of the embodiment.
  • the same procedure as in FIG. 4 is designated by the same reference numeral, and the description thereof will be omitted.
  • step S3 of FIG. 7 the attachment of the microphone unit 40 is detected by determining the presence or absence of electromagnetic coupling between the power transmission unit 21 and the power reception unit 46.
  • the image processing and control unit 11 detects the electromagnetic coupling between the power transmission unit 21 and the power reception unit 46, it determines that the microphone unit 40 is mounted on the operation surface 3a, and shifts the processing from step S3 to step S4.
  • the image processing and control unit 11 starts supplying the power supply voltage from the power supply unit 19 to the audio processing processor unit 15 to start the audio processing processor unit 15.
  • the image processing and control unit 11 starts strobe light emission in step S5. Further, the image processing and control unit 11 starts power transmission to the microphone unit 40 by the power transmission unit 21 to activate the microphone unit 40 (step S21).
  • the microphone unit 40 becomes operable when the power receiving unit 46 receives power, and the microphone sensor 42 is controlled by the control unit 41 to pick up the voice of the subject (step S6). In this way, strobe observation is possible also in this embodiment.
  • step S9 of FIG. 7 it is detected that the microphone unit 40 has been removed by determining that the electromagnetic coupling between the power transmitting unit 21 and the power receiving unit 46 has been eliminated.
  • the image processing and control unit 11 detects that the microphone unit 40 has been removed, the image processing and control unit 11 performs normal light emission control in step S10, and then stops power transmission to the microphone unit 40 in step S22. In addition, power transmission may be automatically stopped when the power receiving unit 46 and the power transmitting unit 21 are separated from each other.
  • step S11 the image processing and control unit 11 stops the power supply to the audio processing processor unit 15 and stops the operation of the audio processing processor unit 15.
  • the same effect as that of the first embodiment can be obtained in the present embodiment as well. Further, in the present embodiment, when power is supplied from the endoscope processor to the microphone unit, power is supplied to the microphone unit only when the microphone unit is used, which increases power consumption. Can be suppressed.
  • the strobe observation period may be set by receiving a louder voice.
  • the strobe observation period, the strobe light emission period to the lighting unit, the activation period of the audio processing processor, and the power supply period to the microphone unit do not always coincide with each other. Absent.
  • the controls mainly described in the flowchart can often be set by a program, and may be stored in a recording medium or a recording unit.
  • the recording method to the recording medium and the recording unit may be recorded at the time of product shipment, the distributed recording medium may be used, or may be downloaded via the Internet.
  • each step in the flowchart may be executed at the same time by changing the execution order, or may be executed in a different order for each execution, as long as the nature of the steps is not violated.
  • the part described as the "part” may be configured by combining a dedicated circuit or a plurality of general-purpose circuits, and if necessary, a microcomputer that operates according to pre-programmed software.
  • a processor such as a CPU, or a sequencer such as an FPGA may be combined.
  • the present invention is not limited to each of the above embodiments as it is, and at the implementation stage, the components can be modified and embodied within a range that does not deviate from the gist thereof.
  • various inventions can be formed by appropriately combining the plurality of components disclosed in each of the above embodiments. For example, some components of all the components shown in the embodiment may be deleted. In addition, components across different embodiments may be combined as appropriate.

Abstract

ワイヤレス内視鏡装置は、ワイヤレス内視鏡と音声検出ユニットとにより構成されるワイヤレス内視鏡装置において、前記音声検出ユニットは、音声を検出する音声検出部と、前記音声検出部が検出した音声を変調する音声変調部と、前記音声変調部の変調結果を無線送信する第1の無線送信部と、を有し、前記ワイヤレス内視鏡は、前記第1の無線送信部から無線送信された前記音声を受信する無線受信部と、前記無線受信部が受信した前記音声を処理する音声処理部と、被検体を照明する照明光を発生する照明部と、被検体を撮像する撮像部と、前記撮像部による撮像結果を無線送信する第2の無線送信部と、前記音声処理部の処理結果を前記照明部に与えて発光を制御する制御部と、を有する。

Description

ワイヤレス内視鏡装置
 本発明は、声帯観察に好適なワイヤレス内視鏡装置に関する。
 従来より、体腔内等へ細長の内視鏡を挿入して被検部位の観察や各種処置を行うようにした内視鏡システムが広く用いられている。内視鏡の撮像素子によって得られる内視鏡画像は、信号処理を行うビデオプロセッサに伝送される。ビデオプロセッサは、内視鏡からの画像を信号処理し、表示用としてモニタに供給したり、記録用として記録装置に供給したりする。
 内視鏡からビデオプロセッサに内視鏡画像を伝送するために、スコープケーブルが用いられる。しかしながら、スコープケーブルによって内視鏡の移動範囲が制限され、或いは操作性が妨げられることがある。また、スコープケーブルが他のケーブルに絡まって断線等の障害が生じることもある。そこで、近年、充電式のバッテリを搭載し、プロセッサ等に対して内視鏡画像を無線により伝送するワイヤレス内視鏡が開発されている。
 ところで、内視鏡により、声帯観察が行われることがある。声帯振動の観察には、ストロボ観察が採用される。ストロボ観察は、声帯振動の周期より少しずらした周期でストロボ光を点滅させることで、あたかも声帯がゆっくり振動しているように見える、所謂ストロボ効果を利用して観察画像を得るものである。
 内視鏡によるストロボ観察では、例えば収音した音をもとに音声解析を行い、その結果から決められた発光タイミングによって発光(ストロボ発光)を行う(例えば、日本国特開2000-300514号公報参照)。従って、声帯をストロボ観察するためには患者の声を収音するためのマイクが必要となる。
 ところで、このようなストロボ観察によって声帯の観察を可能にする内視鏡として、ワイヤレス内視鏡を採用することが考えられる。しかしながら、ワイヤレス内視鏡は、滅菌処理を必要とし、水密気密に構成されて、表面に金属コネクタを設けることもできない。このようなワイヤレス内視鏡を用いて、マイクを利用したストロボ観察を可能にする提案はなされていない。
 本発明の一態様によるワイヤレス内視鏡装置は、ワイヤレス内視鏡と音声検出ユニットとにより構成されるワイヤレス内視鏡装置において、前記音声検出ユニットは、音声を検出する音声検出部と、前記音声検出部が検出した音声を変調する音声変調部と、前記音声変調部の変調結果を無線送信する第1の無線送信部と、を有し、前記ワイヤレス内視鏡は、前記第1の無線送信部から無線送信された前記音声を受信する無線受信部と、前記無線受信部が受信した前記音声を処理する音声処理部と、被検体を照明する照明光を発生する照明部と、被検体を撮像する撮像部と、前記撮像部による撮像結果を無線送信する第2の無線送信部と、前記音声処理部の処理結果を前記照明部に与えて発光を制御する制御部と、を有する。
本発明の第1の実施の形態に係るワイヤレス内視鏡装置の主要部の回路構成を示すブロック図。 ワイヤレス内視鏡装置を有する内視鏡システムの全体構成の概略を示す説明図。 ワイヤレス内視鏡におけるマイクユニットの取付位置を説明するための説明図。 第1の実施の形態の動作を説明するためのフローチャート。 実施の形態におけるストロボ観察の様子を説明するための説明図。 本発明の第2の実施の形態を示すブロック図。 第2の実施の形態の動作を説明するためのフローチャート。
 以下、図面を参照して本発明の実施形態について詳細に説明する。
(第1の実施の形態)
 図1は本発明の第1の実施の形態に係るワイヤレス内視鏡装置の主要部の回路構成を示すブロック図である。図2はワイヤレス内視鏡装置を有する内視鏡システムの全体構成の概略を示す説明図である。また、図3はワイヤレス内視鏡におけるマイクユニットの取付位置を説明するための説明図である。本実施の形態はマイクユニットとワイヤレス内視鏡との間を無線によって接続すると共に、マイクユニットの取付けの検出によってストロボ発光を制御することにより、ワイヤレス内視鏡を用いたストロボ観察を可能にするものである。
 先ず、図2及び図3を参照してワイヤレス内視鏡1を採用した内視鏡システムの概略について説明する。図2の内視鏡システムは、ワイヤレス内視鏡1、ビデオプロセッサ5及びモニタ6を含む。カート7上には各種医療機器及びモニタ6が配置される。また、カート7上には、無線部8に接続されたビデオプロセッサ5が載置される。なお、カート7上には、医療機器としては、例えば電気メス装置、気腹装置、ビデオレコーダ等の装置類や、二酸化炭素を充填したガスボンベ等も載置される。
 ワイヤレス内視鏡1は、図示しないバッテリを装着することで通常の内視鏡観察のための撮影動作を行うことができるようになっており、ビデオプロセッサ5とは無線にて接続されるワイヤレス構成である。
 ワイヤレス内視鏡1は、先端側に挿入部2を有し、基端側に操作部3を有する内視鏡本体により構成される。挿入部2の先端部にはCCDやCMOSセンサ等によって構成される撮像素子を有する図示しない撮像部が配設される。また、挿入部2には、被写体を照明するための照明光を発生する図示しない照明部が設けられている。スコープ内光源としてのこの照明部は、発生した光を挿入部2の先端の図示しないレンズを介して被写体に照明光として照射するようになっている。
 被写体からの戻り光は、挿入部2の先端の図示しない観察レンズを介して入射されて撮像部の撮像面に結像するようになっている。撮像部は光電変換によって被写体光学像に基づく撮像画像を得る。撮像部は撮像画像を挿入部2内の図示しない信号線を介して操作部3内の図示しない基板に伝送するようになっている。操作部3に設けられた図示しない基板には、図示しない画像処理回路及び信号伝送を行う通信回路を含む各種回路が搭載されており、これらの回路によって撮像画像が無線部8に無線伝送されるようになっている。なお、操作部3の操作面3aには複数の内視鏡スイッチ3bが配設されており、内視鏡スイッチ3bの操作に基づく操作信号についても、無線部8に伝送されるようになっている。
 また、ワイヤレス内視鏡1に内蔵された通信回路は、無線部8との間で、撮像画像だけでなく、挿入部2に配設された撮像素子や照明部を駆動するための駆動信号や各種設定情報を送受することができるようになっている。
 なお、撮像部及び照明部は、挿入部2の先端に設けられているものとして説明したが、カメラヘッドのように撮像部が操作部3側に設けられていてもよく、また、光源を操作部3等に設けて照明光をライトガイド等によって挿入部2の先端に導くものであってもよい。
 なお、ワイヤレス内視鏡1には、バッテリ18が内蔵されており、このバッテリ18からの電力が、操作部3中の基板上に搭載された電源部19に供給されるようになっている。
 図3に示すように、操作部3の操作面3aには、マイクユニット4を取り付けるための図示しない係止部が設けられている。音声検出ユニットとしてのマイクユニット4は、操作面3aに着脱自在に取り付けることができる。ストロボ観察時には、この係止部にマイクユニット4を取り付けるようになっている。マイクユニット4は、周囲の音声を収音して、収音した音声をワイヤレス内視鏡1に送信する。
 次に、図1を参照して、ワイヤレス内視鏡1及びマイクユニット4の具体的な構成例について説明する。
 マイクユニット4には、制御部41、マイクセンサ42、音声変調部43、無線部44及びバッテリ45が設けられている。制御部41は、CPUやFPGA等を用いたプロセッサによって構成されていてもよく、図示しないメモリに記憶されたプログラムに従って動作して各部を制御するものであってもよいし、ハードウェアの電子回路で機能の一部又は全部を実現するものであってもよい。
 マイクセンサ42としては、コンデンサ型やダイナミック型等の各種マイクロホンを採用することができる。音声検出部としてのマイクセンサ42は、周囲音声を収音して、収音した音声を音声変調部43に出力する。音声変調部43としては、例えばQAM(直交振幅変調)等のデジタル変調方式やその他の各種変調方式を採用した変調回路を用いることができる。音声変調部43は、マイクセンサ42から与えられた音声を変調して無線部44に出力する。第1の無線送信部としての無線部44は、所定の無線方式で動作する通信回路により構成される。例えば、無線部44としては、近距離無線通信が可能なものであってもよく、Wi-Fi(登録商標)やブルートゥース(登録商標)等の無線規格を採用してもよい。無線部44は、音声変調部43からの音声を無線送信する。
 無線部44から無線送信された音声は、ワイヤレス内視鏡1の無線部16によって受信可能である。無線受信部としての無線部16は、無線部44に対応した無線規格で動作する通信回路であり、無線部44から送信された音声を受信し、受信した音声をバス20を介して画像処理及び制御部11に出力するようになっている。
 ワイヤレス内視鏡1の画像処理及び制御部11は、CPUやFPGA等を用いたプロセッサによって構成されていてもよく、図示しないメモリに記憶されたプログラムに従って動作して各部を制御するものであってもよいし、ハードウェアの電子回路で機能の一部又は全部を実現するものであってもよい。制御部11はバス20に接続されており、バス20を介して各部を制御する。
 ワイヤレス内視鏡1には照明部12が設けられている。照明部12は、LED(発光ダイオード)光源等の各種光源装置によって構成される。照明部12は、画像処理及び制御部11に制御されて、照明光を発生する。照明部12からの照明光は、挿入部2の先端部に設けられた図示しない照明レンズを介して被写体に照射されるようになっている。
 また、照明部12は、制御部11に制御されて、通常発光とストロボ発光とを切換えるようになっている。また、照明部12は、後述する音声処理プロセッサ部15によって発光制御信号が与えられ、発光制御信号に基づいて、ストロボ発光時の発光周期が制御されるようになっている。
 ワイヤレス内視鏡1には、挿入部2の先端部に、撮像部13が設けられている。撮像部13は、図示しないCCDやCMOSセンサ等の撮像素子を有しており、被写体からの反射光が図示しない観察レンズを介して撮像面に入射するようになっている。撮像部13は、撮像面に入射した被写体光学像を光電変換して撮像画像を得る。画像処理及び制御部11は、撮像部13を駆動すると共に、撮像部13からの撮像画像が与えられて、所定の画像信号処理を施した後、無線部14に出力する。
 第2の無線送信部としての無線部14は、例えば、Wi-Fi等の所定の無線規格を採用した通信回路によって構成される。無線部14は、画像処理及び制御部11からの撮像画像を変調した後、無線送信する。無線部14からの送信信号は、無線部8によって受信されてビデオプロセッサ5に供給されるようになっている。また、無線部14は、ビデオプロセッサ5から無線部8を介して送信された各種制御信号等を受信して、画像処理及び制御部11に与えるようになっている。
 ワイヤレス内視鏡1には、バッテリ18が設けられている。バッテリ18は所定の電力を発生して電源部19に供給する。電源部19は、バッテリ18からの電力によって、ワイヤレス内視鏡1の各部で用いる電源電圧を発生する電源回路によって構成することができる。電源部19は、画像処理及び制御部11に制御されて、発生した電源電圧をワイヤレス内視鏡1の各部に供給するようになっている(図示略)。
 本実施の形態においては、画像処理及び制御部11は、着脱自在のマイクユニット4が操作面3aに取り付けられた場合、あるいは、マイクユニット4から所定レベル以上の音声が供給された場合にのみ、照明部12をストロボ発光させるようになっている。
 例えば、画像処理及び制御部11は、無線部16と無線部44との無線が確立したことによって、マイクユニット4が操作面3aに取り付けられたものと判定して、照明部12にストロボ発光を開始するように制御してもよい。また、画像処理及び制御部11は、無線部16が受信した音声の受信レベルを所定の閾値と比較することで、閾値を超える音声受信レベルがあった場合にマイクユニット4から十分なレベルの音声が出力されたものと判定して、照明部12にストロボ発光を開始するように制御してもよい。
 無線部16が受信した音声は、音声処理プロセッサ部15にも供給される。音声処理部としての音声処理プロセッサ部15は、CPUやFPGA等を用いたプロセッサによって構成されていてもよく、図示しないメモリに記憶されたプログラムに従って動作して各部を制御するものであってもよいし、ハードウェアの電子回路で機能の一部又は全部を実現するものであってもよい。音声処理プロセッサ部15は、入力された音声に対する音声解析によって、音声周波数を求め、求めた音声周波数に基づく発光制御信号を発生して照明部12に出力する。照明部12は、発光制御信号に基づく周期でストロボ発光する。
 音声処理プロセッサ部15は、ストロボ観察のために必要な回路部である。そこで、本実施の形態においては、低消費電力化のために、画像処理及び制御部11は、無線部16において無線部44との無線が確立している期間又は無線部において閾値を超える音声受信レベルがあった期間をストロボ観察期間に設定し、この期間にのみ音声処理プロセッサ部15に電源電圧を供給させるように制御してもよい。
 次に、このように構成された実施形態の動作について図4及び図5を参照して説明する。図4は実施の形態の動作を説明するためのフローチャートである。また、図5は実施の形態におけるストロボ観察の様子を説明するための説明図である。
 図5に示すように、声帯観察においては、先ず、ワイヤレス内視鏡1の挿入部2を、被検者25の口25aから、挿入部2の先端が声帯観察可能な位置に到達するまで挿入する。この挿入に際して、挿入時の状態を観察可能なように、通常光による通常光観察を行う(図4のステップS1)。即ち、画像処理及び制御部11は、照明部12を制御して、通常光を発光させる(ステップS2)。
 撮像部13は、照明部12により照明された被検者25からの戻り光を光電変換して撮像画像を画像処理及び制御部11に出力する。画像処理及び制御部11は、撮像画像に対して所定の画像信号処理を施した後、無線部14を介してビデオプロセッサ5に送信する。ビデオプロセッサ5は、撮像画像に基づく画像を生成してモニタ6に出力する。こうして、モニタ6の表示画面上において、挿入時の撮像画像が表示される。
 術者は、挿入部2を声帯観察可能な位置まで挿入すると、マイクユニット4を操作面3aに装着する。なお、図5では、破線によってマイクユニット4が装着される位置を示している。画像処理及び制御部11は、ステップS3において、マイクユニット4が装着されたか否かを判定する。マイクユニット4が装着されると、無線部44と無線部16との間の無線通信が確立する。無線通信が確立したことを示す情報は、画像処理及び制御部11に与えられる。これにより、画像処理及び制御部11は、マイクユニット4が操作面3aに装着されたものと判定して、処理をステップS3からステップS4に移行する。ステップS4~S8はストロボ観察期間の処理を示しており、画像処理及び制御部11は、音声処理プロセッサ部15への電源部19からの電源電圧の供給を開始して音声処理プロセッサ部15を起動する(ステップS4)。制御部11は、照明部12にストロボ発光を開始させる(ステップS5)。
 一方、マイクユニット4は、マイクセンサ42によって被検者25の音声を収音する(ステップS6)。マイクセンサ42からの音声は、音声変調部43によって変調され、無線部44に供給される。無線部44は、音声を無線送信する。ワイヤレス内視鏡1の無線部16は、無線部44から送信された音声を受信し、バス20を介して音声処理プロセッサ部15に供給する。音声処理プロセッサ部15は、入力された音声から音声周波数を求める。音声処理プロセッサ部15は、求めた音声周波数に基づいて、この音声周波数近傍の周波数でストロボ発光させるための発光制御信号を発生して照明部12に供給する(ステップS7)。照明部12は、発光制御信号に基づく発光周波数でストロボ発光する(ステップS8)。
 こうして、ストロボ発光された照明によって声帯が照明される。撮像部13は、ストロボ発光の声帯からの戻り光を光電変換して撮像画像を画像処理及び制御部11に出力する。画像処理及び制御部11は、撮像画像に対して所定の画像信号処理を施した後、無線部14を介してビデオプロセッサ5に送信する。ビデオプロセッサ5は、撮像画像に基づく画像を生成してモニタ6に出力する。こうして、モニタ6の表示画面上において、声帯がゆっくり振動する画像が表示されて、ストロボ観察が可能となる。ステップS6~S8の処理は、ステップS9においてマイクユニット4が取り外されたことが検出されるまで繰り返される。
 術者は、ストロボ観察を終了させるために、マイクユニット4を取り外す。画像処理及び制御部11は、ステップS9においてマイク装着の有無を判定している。マイクユニット4の無線部44と無線部16との距離が離れることによって、両者の間の無線通信が解除される。画像処理及び制御部11は、無線部16の出力によって、無線通信が解除されたこと、即ち、マイクユニット4が取り外されたことを検出する。そうすると、画像処理及び制御部11は、照明部12を制御して通常発光制御を行い、ストロボ観察期間を終了させる(ステップS10)。画像処理及び制御部11は、ステップS11において、音声処理プロセッサ部15に対する電源供給を停止させて、音声処理プロセッサ部15の動作を停止させる。こうして、通常光観察に復帰する。
 なお、図4のフローでは、マイクユニット4の着脱による無線通信の確立又は解除を判定することで、ストロボ観察期間と通常光観察期間との切換えを行ったが、マイクユニット4を装着した状態のまま、ストロボ観察期間と通常光観察期間との切換えを行ってもよい。例えば、制御部11は、マイクユニット4からワイヤレス内視鏡1に供給される音声レベルが所定の閾値を超えたことによってストロボ発光を開始し、音声レベルが所定の閾値未満になると通常光観察に戻すようにしてもよい。
(第2の実施の形態)
 図6は本発明の第2の実施の形態を示すブロック図である。図6において図1と同一の構成要素には同一符号を付して説明を省略する。本実施の形態は、バッテリを備えていないマイクユニットを採用した場合において、その電力管理を可能にするものである。
 マイクユニット40は、バッテリ45に代えて受電部46を有する点が図1のマイクユニット4と異なる。また、ワイヤレス内視鏡10は、送電部21を付加した点が図1のワイヤレス内視鏡1と異なる。送電部21は、画像処理及び制御部11に制御されて、電源部19からの電力をマイクユニット40に送電する。受電部46は、送電部21から送電された電力を受電する。例えば、送電部21及び受電部46をコイルにより構成し、電磁結合させることで、電力の伝送が可能である。受電部46は、送電部21に近接することで、送電部21から電力の供給を受けることができる。受電部46は、受電した電力によって、マイクユニット40内の各部において使用する電源電圧を発生するようになっている。
 本実施の形態においては、送電部21は、受電部46に電力を供給しているか否かを検知することができるようになっている。例えば、送電部21は、受電部46に電力を供給していることを検知した場合には、検知信号を画像処理及び制御部11に出力するようになっている。画像処理及び制御部11は、送電部21からの検知信号によってストロボ観察期間を設定するようになっている。なお、画像処理及び制御部11は、送電部21による電力消費量が所定の基準値を超えた場合に、ストロボ観察期間を設定するようになっていてもよい。例えば、マイクユニット40において所定レベル以上の音声を送信するために電力消費が増大した場合等を検出して、ストロボ観察期間を設定することも可能である。
 なお、画像処理及び制御部11は、電源部19からの情報に基づいて、送電部21の電力消費量を監視することで、ストロボ観察期間を設定するようになっていてもよい。
 次に、このように構成された実施の形態の動作について図7を参照して説明する。図7は実施の形態の動作を説明するためのフローチャートである。図7において図4と同一の手順には同一符号を付して説明を省略する。
 本実施の形態においては、図7のステップS3において、送電部21と受電部46との電磁結合の有無の判定によってマイクユニット40の装着が検出される。画像処理及び制御部11は、送電部21と受電部46の電磁結合を検出すると、マイクユニット40が操作面3aに装着されたものと判定して、処理をステップS3からステップS4に移行する。
 画像処理及び制御部11は、音声処理プロセッサ部15への電源部19からの電源電圧の供給を開始して音声処理プロセッサ部15を起動する。画像処理及び制御部11は、ステップS5においてストロボ発光を開始させる。更に、画像処理及び制御部11は、送電部21によりマイクユニット40への送電を開始させて、マイクユニット40を起動する(ステップS21)。マイクユニット40は、受電部46が電力の供給を受けることによって動作可能となり、マイクセンサ42は、制御部41に制御されて、被検者の音声を収音する(ステップS6)。こうして、本実施の形態においても、ストロボ観察が可能となる。
 本実施の形態においては、図7のステップS9において、送電部21と受電部46との電磁結合が解消されたことの判定によってマイクユニット40が取り外されたことが検出される。画像処理及び制御部11は、マイクユニット40が取り外されたことを検出すると、ステップS10において通常発光制御を行った後、ステップS22において、マイクユニット40への送電を停止させる。なお、受電部46と送電部21とが離間することによって、自動的に送電が停止されることもある。画像処理及び制御部11は、ステップS11において、音声処理プロセッサ部15に対する電源供給を停止させて、音声処理プロセッサ部15の動作を停止させる。
 このように本実施の形態においても、第1の実施の形態と同様の効果を得ることができる。また、本実施の形態においては、内視鏡プロセッサからマイクユニットに電力を供給する場合において、マイクユニットを使用する場合にのみマイクユニットに電力を供給するようになっており、電力消費が増大することを抑制することができる。
 上記実施の形態においては、送電部からマイクユニットへの電力供給を監視することで、ストロボ観察期間を設定する例について説明したが、マイクユニットが電力供給を受けて動作を開始した後、所定レベルよりも大きい音声を受信したことによって、ストロボ観察期間を設定するようになっていてもよい。
 なお、上記各実施の形態においては、ストロボ観察期間と、照明部にストロボ発光を行う期間と、音声処理プロセッサを起動する期間と、マイクユニットに電力を供給する期間とは、必ずしも一致するものではない。
 また、明細書中で説明した技術のうち、主にフローチャートで説明した制御に関しては、プログラムで設定可能であることが多く、記録媒体や記録部に収められる場合もある。この記録媒体、記録部への記録の仕方は、製品出荷時に記録してもよく、配布された記録媒体を利用してもよく、インターネットを介してダウンロードしたものでもよい。
 また、フローチャート中の各ステップは、その性質に反しない限り、実行順序を変更し、複数同時に実行し、あるいは実行毎に異なった順序で実行してもよい。
 なお、実施形態中で、「部」として記載した部分は、専用の回路や、複数の汎用の回路を組み合わせて構成してもよく、必要に応じて、予めプログラムされたソフトウェアに従って動作を行うマイコン、CPUなどのプロセッサ、あるいはFPGAなどシーケンサを組み合わせて構成されてもよい。
 本発明は、上記各実施形態にそのまま限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記各実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素の幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。

Claims (11)

  1.  ワイヤレス内視鏡と音声検出ユニットとにより構成されるワイヤレス内視鏡装置において、
     前記音声検出ユニットは、
     音声を検出する音声検出部と、
     前記音声検出部が検出した音声を変調する音声変調部と、
     前記音声変調部の変調結果を無線送信する第1の無線送信部と、
     を有し、
     前記ワイヤレス内視鏡は、
     前記第1の無線送信部から無線送信された前記音声を受信する無線受信部と、
     前記無線受信部が受信した前記音声を処理する音声処理部と、
     被検体を照明する照明光を発生する照明部と、
     被検体を撮像する撮像部と、
     前記撮像部による撮像結果を無線送信する第2の無線送信部と、
     前記音声処理部の処理結果を前記照明部に与えて発光を制御する制御部と、
     を有する
    ことを特徴とするワイヤレス内視鏡装置。
  2.  前記音声検出ユニットは、前記ワイヤレス内視鏡に着脱自在に設けられる
    ことを特徴とする請求項1に記載のワイヤレス内視鏡装置。
  3.  前記音声検出ユニットは、バッテリを備える
    ことを特徴とする請求項1に記載のワイヤレス内視鏡装置。
  4.  前記制御部は、前記無線受信部の受信結果に基づいて前記音声検出ユニットが前記ワイヤレス内視鏡に装着されることを検出すると、前記音声処理部を動作状態にする
    ことを特徴とする請求項2に記載のワイヤレス内視鏡装置。
  5.  前記制御部は、前記無線受信部の受信結果に基づいて前記音声検出ユニットが前記ワイヤレス内視鏡から取り外されたことを検出すると、前記音声処理部を非動作状態にする
    ことを特徴とする請求項2に記載のワイヤレス内視鏡装置。
  6.  前記ワイヤレス内視鏡は、送電部を備え、
     前記音声検出ユニットは、前記送電部からの電力を受電する受電部を備える
    ことを特徴とする請求項1に記載のワイヤレス内視鏡装置。
  7.  前記音声検出ユニットは、前記ワイヤレス内視鏡に着脱自在に設けられる
    ことを特徴とする請求項6に記載のワイヤレス内視鏡装置。
  8.  前記制御部は、前記送電部よる送電結果に基づいて前記音声検出ユニットが前記ワイヤレス内視鏡に装着されることを検出すると、前記音声処理部を動作状態にする
    ことを特徴とする請求項7に記載のワイヤレス内視鏡装置。
  9.  前記制御部は、前記送電部よる送電結果に基づいて前記音声検出ユニットが前記ワイヤレス内視鏡から取り外されたことを検出すると、前記音声処理部を非動作状態にする
    ことを特徴とする請求項7に記載のワイヤレス内視鏡装置。
  10.  前記制御部は、前記送電部よる送電結果に基づいて前記音声検出ユニットが前記ワイヤレス内視鏡に装着されることを検出すると、前記音声検出部を動作状態にする
    ことを特徴とする請求項7に記載のワイヤレス内視鏡装置。
  11.  前記制御部は、前記送電部よる送電結果に基づいて前記音声検出ユニットが前記ワイヤレス内視鏡から取り外されたことを検出すると、前記音声検出部を非動作状態にする
    ことを特徴とする請求項7に記載のワイヤレス内視鏡装置。
PCT/JP2019/014744 2019-04-03 2019-04-03 ワイヤレス内視鏡装置 WO2020202490A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201980094914.XA CN113677255A (zh) 2019-04-03 2019-04-03 无线内窥镜装置
JP2021511848A JP7123245B2 (ja) 2019-04-03 2019-04-03 ワイヤレス内視鏡、ワイヤレス内視鏡装置及び照明制御方法
PCT/JP2019/014744 WO2020202490A1 (ja) 2019-04-03 2019-04-03 ワイヤレス内視鏡装置
US17/487,735 US20220021801A1 (en) 2019-04-03 2021-09-28 Wireless endoscope, wireless endoscope apparatus and illumination control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/014744 WO2020202490A1 (ja) 2019-04-03 2019-04-03 ワイヤレス内視鏡装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/487,735 Continuation US20220021801A1 (en) 2019-04-03 2021-09-28 Wireless endoscope, wireless endoscope apparatus and illumination control method

Publications (1)

Publication Number Publication Date
WO2020202490A1 true WO2020202490A1 (ja) 2020-10-08

Family

ID=72667605

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/014744 WO2020202490A1 (ja) 2019-04-03 2019-04-03 ワイヤレス内視鏡装置

Country Status (4)

Country Link
US (1) US20220021801A1 (ja)
JP (1) JP7123245B2 (ja)
CN (1) CN113677255A (ja)
WO (1) WO2020202490A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114327350A (zh) * 2021-12-22 2022-04-12 合肥德铭电子有限公司 一种基于无线式内窥镜摄像的语音交互系统及其使用方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11369311B1 (en) * 2020-12-22 2022-06-28 Johnson & Johnson Surgical Vision, Inc. Visualizing emulsification in 4D using schlieren imaging

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000300514A (ja) * 1999-04-16 2000-10-31 Olympus Optical Co Ltd 内視鏡撮像装置
WO2003068056A1 (fr) * 2002-02-15 2003-08-21 Yoshinori Iwase Laryngoscope
US20170079517A1 (en) * 2014-05-02 2017-03-23 Mitos Medikal Teknolojiler Sanayi Ve Ticaret Anonim Sirketi Instrument for early diagnosis of larynx cancer
CN107510432A (zh) * 2017-07-12 2017-12-26 高长胜 可引导气管插管的可视3d内窥镜

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10772488B2 (en) * 2017-11-10 2020-09-15 Endoluxe Inc. System and methods for endoscopic imaging

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000300514A (ja) * 1999-04-16 2000-10-31 Olympus Optical Co Ltd 内視鏡撮像装置
WO2003068056A1 (fr) * 2002-02-15 2003-08-21 Yoshinori Iwase Laryngoscope
US20170079517A1 (en) * 2014-05-02 2017-03-23 Mitos Medikal Teknolojiler Sanayi Ve Ticaret Anonim Sirketi Instrument for early diagnosis of larynx cancer
CN107510432A (zh) * 2017-07-12 2017-12-26 高长胜 可引导气管插管的可视3d内窥镜

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114327350A (zh) * 2021-12-22 2022-04-12 合肥德铭电子有限公司 一种基于无线式内窥镜摄像的语音交互系统及其使用方法

Also Published As

Publication number Publication date
JPWO2020202490A1 (ja) 2021-12-16
CN113677255A (zh) 2021-11-19
US20220021801A1 (en) 2022-01-20
JP7123245B2 (ja) 2022-08-22

Similar Documents

Publication Publication Date Title
CN110799085B (zh) 无线内窥镜和无线内窥镜系统
US8269823B2 (en) In vivo imaging device, display device, imaging and displaying system and intra-subject indwelling system using the same
JP5372269B2 (ja) 撮像装置
US20090058997A1 (en) Endoscope system and signal transmitting method
EP2456349B1 (en) Endoscopic imaging system
US7837617B2 (en) Intrabody introduced device
JP2007319442A (ja) カプセル内視鏡システム、および画像処理装置
US20210113059A1 (en) Endoscope apparatus, method of controlling endoscope apparatus and non-transitory computer readable recording medium recording program for controlling endoscope apparatus
WO2020202490A1 (ja) ワイヤレス内視鏡装置
JP2007068895A (ja) 断線検査方法
JP2010207459A (ja) 無線内視鏡システム
JP4667220B2 (ja) 画像撮影システムおよび撮像装置
WO2016052175A1 (ja) 内視鏡システム
JP4426909B2 (ja) 内視鏡用カメラヘッド、内視鏡用カメラシステム、及び内視鏡システム
EP1769727A2 (en) Electronic endoscope system
JP2001046334A (ja) 内視鏡装置
JP2010075513A (ja) 狭帯域画像取得方法および狭帯域画像取得システム
JP3762612B2 (ja) 医療システム及び内視鏡装置
JP7405136B2 (ja) ケーブル、報知方法
JP2007061296A (ja) 電子内視鏡用受信モジュール及び画像処理装置
WO2019171616A1 (ja) 受信装置及び受信方法
JP2003250758A (ja) 電子式内視鏡装置
JP2001286439A (ja) 携帯内視鏡
JP2005334080A (ja) 被検体内導入装置および医療装置
KR100907487B1 (ko) 내시경 장치 및 이를 이용한 진단 시스템

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19923572

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021511848

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19923572

Country of ref document: EP

Kind code of ref document: A1