WO2013061857A1 - 内視鏡手術システム - Google Patents
内視鏡手術システム Download PDFInfo
- Publication number
- WO2013061857A1 WO2013061857A1 PCT/JP2012/076906 JP2012076906W WO2013061857A1 WO 2013061857 A1 WO2013061857 A1 WO 2013061857A1 JP 2012076906 W JP2012076906 W JP 2012076906W WO 2013061857 A1 WO2013061857 A1 WO 2013061857A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- command
- unit
- voice recognition
- voice
- endoscopic surgery
- Prior art date
Links
- 238000000034 method Methods 0.000 claims abstract description 129
- 230000002093 peripheral effect Effects 0.000 claims abstract description 73
- 238000006243 chemical reaction Methods 0.000 claims abstract description 27
- 230000005540 biological transmission Effects 0.000 claims abstract description 9
- 238000002674 endoscopic surgery Methods 0.000 claims description 59
- 238000004891 communication Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 15
- 230000005236 sound signal Effects 0.000 description 11
- 208000005646 Pneumoperitoneum Diseases 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000001356 surgical procedure Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000001960 triggered effect Effects 0.000 description 3
- CURLTUGMZLYLDI-UHFFFAOYSA-N Carbon dioxide Chemical compound O=C=O CURLTUGMZLYLDI-UHFFFAOYSA-N 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000003187 abdominal effect Effects 0.000 description 1
- 229910002092 carbon dioxide Inorganic materials 0.000 description 1
- 239000001569 carbon dioxide Substances 0.000 description 1
- 238000002192 cholecystectomy Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000013110 gastrectomy Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
- 210000001187 pylorus Anatomy 0.000 description 1
- 230000001954 sterilising effect Effects 0.000 description 1
- 238000004659 sterilization and disinfection Methods 0.000 description 1
- 210000002784 stomach Anatomy 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B17/00234—Surgical instruments, devices or methods, e.g. tourniquets for minimally invasive surgery
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00006—Operational features of endoscopes characterised by electronic signal processing of control signals
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00039—Operational features of endoscopes provided with input arrangements for the user
- A61B1/00042—Operational features of endoscopes provided with input arrangements for the user for mechanical operation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/10—Speech classification or search using distance or distortion measures between unknown speech and reference templates
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00017—Electrical control of surgical instruments
- A61B2017/00203—Electrical control of surgical instruments with speech control or speech recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/227—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of the speaker; Human-factor methodology
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/228—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0316—Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude
- G10L21/0324—Details of processing therefor
- G10L21/034—Automatic adjustment
Definitions
- the present invention relates to an endoscopic surgery system having a function of controlling peripheral devices connected by voice recognition.
- speech recognition is performed based on pattern recognition. That is, a voice command is registered in the system in advance, and the voice command uttered by the surgeon is compared with the registered voice command. When the voice command input by the surgeon matches the registered voice command, the voice command is recognized.
- the difference between the level data (voice volume) of the input speech and the level data acquired one time before is calculated, and according to the comparison result between the difference and the reference value
- a technique for performing processing is disclosed (for example, Patent Document 2).
- a technique for performing recognition experiments on phoneme-recognized data and measuring the recognition rate is also disclosed (for example, Patent Document 3).
- a technique for performing speech recognition processing on contents input by speech a technique for specifying a noun that a user has input by speech from the first character and the number of characters is also disclosed (for example, Patent Document 4).
- JP 2002-122391 Japanese Patent Laid-Open No. 2004-199004 Japanese Patent Application Laid-Open No. 07-146696 JP 2003-228394 A
- An endoscopic surgery system which is one of the aspects of the present invention is an endoscopic surgery system having a function of controlling peripheral devices connected by voice recognition, for each operator and technique of endoscopic surgery.
- a command for controlling the peripheral device a storage unit for storing whether each of the commands is valid or invalid, a designation unit for accepting designation of the surgeon and the procedure, and recognition of the input voice.
- the conversion unit that converts the character string into the character string the character string obtained in the conversion unit matches the command set to be valid for the surgeon and procedure specified by the specification unit.
- a determination unit that determines whether or not the command is invalid by the determination unit, and a transmission unit that stops transmission processing to a corresponding peripheral device.
- An endoscopic surgery system is an endoscopic surgery system having a function of controlling peripheral devices connected by voice recognition, and is a technique for endoscopic surgery.
- a command for controlling the peripheral device and a storage unit that stores whether each of the commands is valid or invalid, and a designation unit that receives designation of the surgeon and the procedure are input for each person and procedure.
- a conversion unit that recognizes the voice and converts it into a character string; and referring to the storage unit, the character string obtained in the conversion unit is set to be valid for the surgeon and procedure specified by the specification unit It is characterized by comprising: a determination unit that determines whether or not the received command matches, and a transmission unit that transmits the command determined to match by the determination unit to a corresponding peripheral device.
- An endoscopic surgery system is an endoscopic surgery system having a function of controlling peripheral devices connected by voice recognition, and is a technique for endoscopic surgery.
- a storage unit for storing the command for controlling the peripheral device and whether each of the commands is valid or invalid, and a designation unit for receiving information for identifying a room for endoscopic surgery
- a conversion unit that recognizes the input voice and converts it into a character string; and referring to the storage unit, the character string obtained in the conversion unit is set to be valid for the room specified by the specification unit.
- a determination unit that determines whether or not the command matches the command being transmitted, and a transmission unit that transmits the command determined to match by the determination unit to a corresponding peripheral device.
- FIG. 1 is an overall configuration diagram of an endoscopic surgery system according to a first embodiment. It is a block diagram of the system controller which concerns on 1st Embodiment. It is a functional block diagram of the control part which concerns on 1st Embodiment. It is a figure explaining the method to register validity / invalidity of a voice recognition command. It is a figure which illustrates the voice operation setting information set for every operator information and technique information. It is a figure which illustrates operator information, procedure information, and voice operation setting information set for every scene. It is the flowchart which showed the process in which the control part of the system controller which concerns on 1st Embodiment controls a peripheral device by voice recognition.
- FIG. 6 is a diagram (part 1) illustrating an example of a screen displayed on the operation panel.
- FIG. 10 is a second diagram illustrating a screen example displayed on the operation panel 21. It is a figure explaining the method of performing speech recognition determination about the character string obtained from the waveform of the audio
- FIG. 1 is an overall configuration diagram of an endoscopic surgery system according to the present embodiment.
- An endoscopic surgery system 3 shown in FIG. 1 is disposed in an operating room 2 together with a patient bed 10 on which a patient 48 lies.
- the endoscopic surgery system 3 includes a first cart 11 and a second cart 12 and is equipped with devices used for endoscopic surgery.
- the first cart 11 carries devices such as an electric scalpel device 13, an insufflation device 14, an endoscope camera device 15, a light source device 16, a video tape recorder (hereinafter referred to as VTR) 17, and a gas cylinder 18. .
- the endoscope camera device 15 is connected to the first endoscope 31 via a camera cable 31a.
- the light source device 16 is connected to the first endoscope via the light guide cable 31b.
- the VTR 17 records an endoscopic image acquired by the first endoscope 31 and the like.
- the gas cylinder 18 is filled with a gas such as carbon dioxide for use in endoscopic surgery.
- the electric scalpel device 13 and the pneumoperitoneum device 14 are medical devices used for endoscopic surgery, and these devices can be controlled to change parameters or the like in accordance with operation commands from the connected system controller 22. It is configured to be possible.
- the first cart device 11 mounts a display device 19, a (first) centralized display panel 20, an operation panel 21 and the like.
- the display device 19 is a device for displaying an endoscopic image or the like, and uses, for example, a television monitor.
- the central display panel 20 is a display unit that can selectively display all data handled in the endoscopic surgery system 3.
- the operation panel 21 includes a display unit such as a liquid crystal display and a touch sensor integrally provided on the display unit, for example. A nurse or the like in a non-sterile region (unclean region) can perform endoscopic surgery. It is a centralized operation device that operates each peripheral device of the system 3.
- the first cart device 11 mounts the system controller 22.
- the system controller 22 controls various peripheral devices connected to the endoscopic surgery system 3.
- the system controller 22 is connected to the electric knife 13, the pneumoperitoneum device 14, the endoscope camera device 15, the light source device 16, and the VTR 17 via a communication line (not shown).
- a headset-type microphone 33 can be connected to the system controller 22.
- the system controller 22 recognizes the command input by the surgeon's voice input from the microphone 33 and controls the peripheral device by transmitting an operation command to various connected peripheral devices according to the recognized command.
- an RFID (Radio Frequency IDentification) terminal 35 is provided in the first cart 11 and is individually identified from an ID (IDentification) tag embedded in a treatment instrument such as the first endoscope 31 or the electric knife 13. Read / write wirelessly.
- the second cart 12 mounts an endoscope camera device 23, a light source device 24, an image processing device 25, a display device 26, and a (second) concentrated display panel 27.
- the endoscope camera device 23 is connected to the second endoscope 32 via a camera cable 32a.
- the light source device 24 is connected to the second endoscope 32 through the light guide cable 32b.
- the display device 26 is a device for displaying an endoscopic image captured by the endoscope camera 23, and uses, for example, a television monitor.
- the centralized display panel 27 is a display unit that can selectively display any data handled in the endoscopic surgery system 3.
- the endoscope camera device 23, the light source device 24, and the image processing device 25 are connected to a relay unit 28 placed on the second cart 12 via a communication line (not shown).
- the relay unit 28 is connected to the system controller 22 described above by a relay cable 29.
- the system controller 22 is mounted on the electric scalpel device 13, the pneumoperitoneum device 14, the endoscope camera device 15, the light source device 16, and the VTR 17 mounted on the first cart 11 or the second cart 12. Centralized control of the endoscope camera device 23, the light source device 24, and the image processing device 25 that are placed is performed. For this reason, when communication is being performed between the system controller 22 and these devices, the system controller 22 displays the setting screen of the connected device and the setting screen of the operation switch on the liquid crystal display of the operation panel 21. It is configured so that it can be displayed.
- the system controller 22 is configured to perform an operation input such as a change of a set value by touching a desired operation switch and operating a touch sensor in a predetermined area.
- the remote controller 30 is a second centralized operation device operated by a surgeon who is an operator in the sterilization area.
- the remote controller 30 controls the operation of another apparatus with which the system controller 22 is communicating via the system controller 22.
- the system controller 22 is connected to the patient monitor system 4 via the cable 9.
- the system controller 22 can analyze the biological information held in the patient monitor system 4 and display the analysis result on a desired display device.
- system controller 22 is provided with communication means such as an infrared communication port (not shown in FIG. 1).
- Communication means such as an infrared communication port is provided in the vicinity of the display device 19 and the like, for example, at a position where infrared rays are easily emitted, and is connected to the system controller 22 by a cable.
- the system controller 22 of the endoscopic surgery system 3 shown in FIG. 1 determines that a voice command for controlling a predetermined peripheral device is input from the voice input by the surgeon via the microphone 33, the corresponding operation is performed.
- voice recognition is performed only for the voice command that has been previously set as “valid” as the voice command, and the corresponding operation command is assigned to the peripheral device. Send to.
- a voice command for operating the peripheral device for the input voice is referred to as a “voice recognition command” and is transmitted to the peripheral device via a communication line.
- the command is an “operation command”.
- FIG. 2 is a block diagram of the system controller 22 according to the present embodiment. 2 includes a communication interface (hereinafter referred to as communication I / F) 40, an A / D conversion unit 45, a display interface (hereinafter referred to as display I / F) 51, a storage unit 50, and a control unit 41.
- communication I / F communication interface
- a / D conversion unit 45 A / D conversion unit 45
- display I / F display interface
- storage unit 50 a storage unit 50
- control unit 41 a control unit 41.
- the A / D converter 45 converts an analog audio signal input from the microphone 33 connected to the system controller into a digital signal.
- the display I / F 51 is an interface for displaying a GUI (Graphical User Interface) on the operation panel 21 and passing a signal of a touch operation by the user from the operation panel 21 to the control unit 41.
- the display I / F 51 accepts designation of, for example, an operator who uses the endoscopic surgery system 3 and a technique used by the operator.
- the communication I / F 40 is a communication interface with peripheral devices such as the endoscope camera device 15, the light source device 16, the pneumoperitoneum device 14, and the electric knife device 13. 2, only the devices directly connected to the system controller 22 in FIG. 1 are described, and the devices connected via the relay cable 29 and the relay unit 28 are omitted.
- the control unit 41 acquires parameters of a connected device (peripheral device) such as the endoscope camera device 15 via the communication I / F 40 and displays the parameters on the operation panel 21 via the display I / F 51. . Further, the control unit 41 transmits an operation command via the communication I / F 40 based on a touch operation signal of the operation panel 21 received in the display I / F 51 and an audio signal input from the A / D conversion unit 45. Control peripheral devices. When the control unit 41 recognizes that a voice recognition command has been input from the microphone 33, the control unit 41 displays a corresponding operation command on the operation panel 21 via the display I / F 51. And the control part 41 controls a peripheral device via communication I / F40 based on an operation command.
- a connected device such as the endoscope camera device 15
- the control unit 41 transmits an operation command via the communication I / F 40 based on a touch operation signal of the operation panel 21 received in the display I / F 51 and an audio signal input from the A / D conversion
- the storage unit 50 stores information necessary for the control unit 41 to control peripheral devices and the like. Specifically, the voice recognition command for comparing with the character string obtained from the voice signal input via the A / D conversion unit 45, the information for identifying the operator or the procedure, and the voice recognition command are associated with each other. Thus, information indicating whether the voice recognition command is set to valid or invalid is stored. Details of these pieces of information stored in the storage unit 50 will be described with reference to FIGS.
- FIG. 3 is a functional block diagram of the control unit 41 according to the present embodiment.
- the control unit 41 includes a speech recognition control unit 58, and the speech recognition control unit 58 includes an input speech signal conversion unit 62 and a speech recognition determination unit 59.
- the voice recognition control unit 58 converts the voice signal input from the A / D conversion unit 45 of FIG. 2 into a character string in the input voice signal conversion unit 62. Then, the voice recognition determination unit 59 matches the character string obtained by the conversion processing of the voice recognition conversion unit 62 with the voice recognition command set as valid based on the information stored in the storage unit 50 of FIG. It is determined whether or not to do.
- the determination by the voice recognition determination unit 59 may be referred to as a voice recognition determination.
- the voice recognition control unit 58 compares the character string obtained from the input voice signal with the information registered in the storage unit 50, the character string matches the one set as valid as the voice recognition command. When it determines, the control part 41 transmits a corresponding operation command to a peripheral device. When it is determined that the character string does not match the one set as valid as the voice recognition command, or when the operation command matches one set as invalid as the voice recognition command, the control unit 41 performs the corresponding operation. Stops sending the command to the peripheral device.
- FIG. 4 is a diagram for explaining a method for registering the validity / invalidity of the voice recognition command.
- valid / invalid is set for the user for each voice recognition command used by a predetermined operator in a predetermined procedure on the display unit of the operation panel 21.
- the screen for making it do is illustrated.
- FIG. 4 shows a state in which a voice command setting screen corresponding to the operator information 52 and the procedure information 53 designated by the operator or the like via the operation panel 21 is open.
- the operator information 52 is information for identifying an operator who performs an endoscopic surgery
- the procedure information 53 is information for identifying a procedure used in the endoscopic surgery.
- “rapacolle (rapascopic collectomy, laparoscopic cholecystectomy) indicated by the procedure information 53 When performing the operation “”, whether to enable / disable voice recognition is set for each of the operation commands that can be transmitted from the system controller 22 to the peripheral device.
- a voice recognition command for controlling a peripheral device using a voice recognition function is set valid, and a voice recognition command that is less necessary is set invalid. deep.
- a performs rapa-colle among the voice recognition commands 55, “release” is set valid, while “freeze” is set invalid.
- the surgeon Dr. When A uses the “Release” voice recognition command during the operation of Lapa-Colle, the system controller 22 is prevented from erroneously recognizing this as “Freeze”.
- the information set through the screen illustrated in FIG. 4 is stored in the storage unit 50.
- the voice recognition command 55 and the corresponding valid / invalid state 56 are referred to as “voice operation setting information” in the following description.
- the voice operation setting information is whether or not the system controller 22 controls the peripheral device by voice recognition for each voice recognition command corresponding to the operation command that can be transmitted to the peripheral device by voice recognition. Information that is set in association with (valid or invalid).
- FIG. 5 is a diagram illustrating voice operation setting information set for each operator information 52 and procedure information 53.
- the procedure information 53 has different procedures “LAPACOLLE” and “LADG (laparoscopic-assisted pylorus gastrectomy). If “)” is set, the valid / invalid state 56 can be set for each procedure even for the same voice recognition command 55. If surgeons “Dr. A” and “Dr. B” having different surgeon information 52 are set, the valid / invalid state 56 can be set for each surgeon even with the same voice recognition command 55. .
- the voice operation setting information may be set not only for each operator information 52 and procedure information 53 but also for enabling / disabling the voice recognition command 55 for each stage of surgery.
- the progressing stage of surgery is referred to as “scene”.
- FIG. 6 is a diagram illustrating the operator information 52, the technique information 53, and the voice operation setting information set for each scene.
- surgeon Dr. Specifically, when A performs rapa-colle, an example in which the valid / invalid state 56 of the voice recognition command 55 is set for each of the “open stomach” scene and the “suture” scene according to the stage is shown.
- the scene information 54 in FIG. 6 is information for identifying a scene.
- the voice recognition command 55 for controlling the electric knife device 13 to be used is set to be valid.
- “valid” is used for “electric knife output up” and “electric knife output down” used in the open scene of the voice recognition command 55. It is set.
- the same voice recognition command 55 “electric knife output up” and “electric knife output down” is set to “invalid”. Yes.
- the voice recognition command 55 necessary for the scene is set to be valid while the unnecessary voice recognition command 55 is set to be invalid so that the input voice command is unnecessary. An erroneous recognition of the recognition command 55 is effectively prevented.
- FIG. 7 is a flowchart showing a process in which the control unit 41 of the system controller 22 according to the present embodiment controls peripheral devices by voice recognition.
- the control unit 41 starts the process illustrated in FIG. 7 when the system controller 22 is activated.
- step S1 the operator information 52 is specified based on information input when the operator logs in.
- a screen 80A in FIG. 8 is a screen example displayed on the operation panel 21 in step S1.
- a list 81 of one or more operator information 52 registered in the system controller 22 is displayed.
- the control unit 41 determines that the operator information 52 for which login has been recognized has been specified.
- step S2 the procedure information is specified.
- a screen 80B in FIG. 8 is a screen example displayed on the operation panel 21 in step S2.
- a list 82 of one or more procedure information 53 in which voice operation setting information is registered is displayed in the storage unit 50.
- the procedure information 53 representing the procedure used in the endoscopic surgery is selected from the list 82, it is determined that the selected procedure information 53 has been specified.
- step S3 an effective voice recognition command 55 corresponding to the operator information 52 and procedure information 53 specified in steps S1 and S2 is determined.
- voice operation setting information corresponding to the operator information 52 and the technique information 53 is read from the storage unit 50.
- FIG. 8C is an example of a screen displayed on the operation panel 21 in step S3.
- Voice operation setting information corresponding to the specified operator information 52 and procedure information 53 read from the storage unit 50 is displayed.
- the voice recognition command list 83 in the screen a part of the voice recognition commands 55 registered in the storage unit 50 and the corresponding valid / invalid state 56 are displayed.
- the control unit 41 determines a valid voice recognition command 55. That is, the control unit 41 determines whether the voice recognition command 55 is valid / invalid based on the voice operation setting information being displayed on the screen 80C in the subsequent processing.
- step S4 it is determined whether or not to set a scene.
- a screen 80D in FIG. 8 is an example of a screen displayed on the operation panel 21 in step S4.
- the setting button 85 on the screen 80D is pressed by a user such as an operator, it is determined that the scene setting is to be performed.
- no scene setting is performed, no process is performed, and the process proceeds to step S7.
- the process proceeds to step S5.
- step S5 selection of one scene from the scenes set as voice operation setting information is accepted.
- FIG. 9 is a diagram showing an example of a screen displayed on the operation panel 21 in step S5.
- a list 91 of voice operation setting information for each scene registered in the storage unit 30 for the operator information 52 and the technique information 53 specified in Steps S1 and S2 is displayed.
- the process proceeds to step S6.
- step S6 a valid voice recognition command 55 corresponding to the scene selected in step S5 is determined. That is, in the subsequent processing, the control unit 41 determines whether the voice recognition command 55 is valid / invalid based on the voice operation setting information corresponding to the selected scene information 54. In step S6, the voice operation setting information previously set in step S3 or the like is discarded.
- step S7 it is determined whether or not there is a voice input. If there is no voice input, the process returns to step S4. If there is a voice input, the process proceeds to step S8.
- step S8 the signal waveform of the input audio signal is converted into a character string.
- a technique for converting a digital audio signal waveform into a character string a known technique is used.
- step S9 the character string obtained in step S8 is compared with the voice recognition command 55 of the voice operation setting information set in step S3 or step S6, and the character string is set to “valid” in the valid / invalid state 56. It is determined whether or not it matches the set voice recognition command 55. If the character string is not included in the voice recognition command 55, the process proceeds to step S11. Similarly, in the case of the voice recognition command 55 set to “invalid”, the command signal is not transmitted to the device, and step S11 is performed. The process is transferred to. If there is a matching voice recognition command 55, the process proceeds to step S10.
- step S10 an operation command corresponding to the character string is transmitted to the corresponding peripheral device.
- control processing corresponding to the operation command is executed.
- step S11 it is determined whether or not the endoscopic operation is completed. If the operation is in progress, the process returns to step S4. If it is recognized by the operation of a user such as an operator on the operation panel 21 that the operation has been completed, the process is terminated.
- each voice recognition command 55 that controls peripheral devices by voice recognition is valid or invalid for each operator or procedure (and scene).
- the input voice signal is converted into a character string and voice recognition is performed, if the character string matches the voice recognition command 55 set to be valid, an operation command corresponding to the peripheral device is transmitted. It is possible to set a voice recognition command that is highly necessary for an operator, a procedure, or a scene to be valid, and a voice recognition command that is less necessary to be invalid. According to this, even when there is a voice recognition command having a similar sound, if the necessity is low, the voice recognition command 55 that has been invalidated is ignored by setting it to invalid.
- the voice recognition determination is performed based on whether or not the character string obtained from the input voice matches the voice recognition command 55 set to valid in the voice operation setting information.
- the voice recognition determination is performed on the condition that the character string obtained from the input voice does not completely match the voice recognition command 55 but satisfies a predetermined condition. It is different.
- the configuration of the endoscopic surgery system 3 and the configurations of the system controller 22 and the control unit 41 are the same as those in the above-described embodiment, and are as shown in FIGS. Omit.
- a part of the voice recognition command 55 and the number of characters when the voice recognition command 55 is converted into a character string.
- Perform voice recognition based on the degree to which the number of characters in a predetermined place and the number of characters in the entire character string match the stored information among the character strings obtained from the waveform of the audio signal input to the system controller 22, Perform voice recognition.
- information used for comparison with a character string obtained from a waveform that is, information in which a part of the voice recognition command 55 and the number of characters of the entire command are associated with each voice recognition command 55 are used for partial comparison.
- Information is used for partial comparison.
- FIG. 10 is a diagram illustrating a method for performing speech recognition determination on a character string obtained from a waveform of a speech signal with reference to partial comparison information of a speech recognition command.
- the first character 69, the last character 70, the character number 71, and the character number threshold value 72 are set for each voice recognition command in association with the voice recognition command 68.
- the first character 69 and the last character 70 are respectively set to the first character and the last character when the speech recognition command 68 is represented by a character string.
- the number of characters 71 is set to the number of characters when the voice recognition command 68 is represented by a character string.
- the character threshold value 72 is set to a predetermined number of characters with respect to the character number 71. In the embodiment shown in FIG. 10, the character number threshold 71 is set to a half of the number of characters 71.
- the character number threshold value 72 is used to compare the voice information with the number of characters of the command converted into a character string in the voice recognition determination.
- the 10 is stored with the character string obtained from the sound signal waveform. Also for the input voice 64, the first character, the last character, and the number of characters of the character string are obtained and stored in the first character 65, the last character 66, and the character number 67 in FIG.
- the input voice 64, the first character 65, the last character 66, and the number of characters 67 are referred to as input information 94 in the following description of the present embodiment.
- FIG. 11 is a flowchart showing a process in which the control unit 41 of the system controller 22 according to the present embodiment controls peripheral devices by voice recognition.
- a method for controlling peripheral devices by performing voice recognition on an operation command from input voice 64 from input information 94 and partial comparison information 95 shown in FIG. 10 will be specifically described.
- the start of the processing in FIG. 11 by the control unit 41 is triggered by the activation of the system controller 22 as in the above embodiment.
- the process proceeds to the process of step S21 in FIG. That is, the processing in FIG. 11 is executed after the voice operation setting information corresponding to the operator information 52 and the procedure information 53 is read out and a valid voice recognition command 55 is determined.
- step S21 it is determined whether or not a voice is input. If no voice is input, the process waits until the voice is input to the control unit 41 of the system controller 22. If there is a voice input, the process proceeds to step S22.
- step S22 the signal waveform of the input voice signal is converted into a character string.
- step S23 the number of characters is calculated from the character string obtained in step S22.
- step S24 the first character and the last character are extracted from the character string.
- the input voice (character string obtained from) 64 corresponds to the input voice (character string obtained from) 64 as the number of characters 67, the first character 65 and the last character 66 of the input information 94 in FIG. Add and remember.
- step S25 it is determined whether or not the information stored in the partial comparison information 95 includes the first character 69 that matches the first character 65 of the input information 94. If there is no matching first character 69, the process proceeds to step S29. If there is a matching first character 69, the process proceeds to step S26.
- step S26 it is determined whether or not the information stored in the partial comparison information 95 includes the last character 70 that matches the extracted last character 66.
- the last character 70 of the voice recognition command 68 corresponding to the first character 69 determined to match the first character 65 in step S25 the last character 66 and the last character 70 of the input information 94 are Are determined to match each other. If the last character 66 in the input information 94 and the last character 70 to be compared match each other, the process proceeds to step S29. If the last character 66 in the input information 94 matches the last character 70 to be compared, the process proceeds to step S27.
- step S27 the number of characters 67 in the input information 94 is compared with the character number threshold 72 of the voice recognition command 68 in which the last character 70 matches the last character 67 in the input information 94 in step S26.
- the process proceeds to step S29. If the character number 67 is greater than or equal to the character number threshold 72, the process proceeds to step S28.
- Step S28 and step S29 are the same as the processing of step S10 and step S11 in FIG.
- step S27 of FIG. 11 whether or not the number of characters 67 of the input speech 64 exceeds the character count threshold 72 of the comparison target speech recognition command 68 in the partial comparison information 95, that is, the number of characters 67 of the input speech 64 is It is determined whether the number of characters exceeds one half of 71.
- the number of characters 67 of the input speech 64 occupies a certain ratio or more of the number of characters of the speech recognition command 68, even if the input speech 64 and the speech recognition command 68 do not completely match, Valid / invalid judgment is judged. Whether the voice recognition command is valid / invalid is determined with reference to, for example, voice operation setting information shown in FIGS. The details of the voice recognition command validity / invalidity determination method are as described in the above description of the embodiment.
- the user such as the operator can perform the voice recognition determination by the method according to the above-described embodiment shown in FIG.
- the desired peripheral device can be controlled by voice input.
- the peripheral device control is performed by performing the voice recognition determination by the method according to the present embodiment. Is possible.
- the first character 65 “de” and The last character 66 “pu” matches the first character 69 and the last character 70 of the voice recognition command 68 “electric knife output up”, respectively.
- the number of characters 67 of the input voice 64 is recognized as 10 characters, which is different from the number of characters “12 characters” of “electric knife output up”. Even in such a case, “6 characters”, which is the character number threshold value 72 of the voice recognition command 68 “electric knife output up”, is exceeded. For this reason, even if the character string of the input voice 64 does not completely match the voice recognition command, it can be determined that the voice recognition command “electric knife output up” is input by the input voice 64.
- voice recognition commands 68 with a large number of characters midway voices cannot be collected correctly due to noise or the like, and may be recognized as wrong characters or missing characters. Even in such a case, for example, if some characters are matched and the number of characters is more than a certain value, such as the first and last characters, it is determined that the voice recognition command is inputted by voice. By performing the voice recognition determination, the frequency at which the voice recognition command is determined to be unrecognized decreases.
- the voice recognition when the voice recognition is performed and the operation command is transmitted to the peripheral device, all of the input voices 64 must match the voice recognition command 68. There is no. Part of the input speech 64 (one character at the beginning and the last in the above example) matches the corresponding portion of the speech recognition command 68, and the number of characters in the input speech 64 is the number of characters in the speech recognition command 68. The presence or absence of a voice recognition command 68 that is equal to or greater than a certain ratio is determined. When the voice recognition command 68 that satisfies the condition is included in the partial comparison information, the voice recognition determination is performed for the voice recognition command 68 that satisfies the condition.
- the first character and the last character in the character string are compared with those of the voice recognition command.
- the characters to be compared are not limited to each character in the character string.
- the character number threshold 72 is set to 1/2 of the number of characters of the voice recognition command 68, but the threshold is limited to one half of the number of characters of the voice recognition command 68.
- the number of characters of the input voice 64 is compared with the threshold value.
- the system controller 22 can recognize the number of sounds of the input voice, for example, It may be compared with a threshold set based on the number of sounds of the voice recognition command 68.
- the voice input from the microphone 33 in FIG. 1 or the like is processed as it is and used for the voice recognition determination process.
- the system controller 22 is different in that the speech recognition determination process is performed after adjusting the sound input from the microphone 33 to an appropriate volume.
- the configuration of the endoscopic surgery system 3 and the configuration of the system controller 22 are the same as those in the above-described embodiment, and are as shown in FIGS.
- FIG. 12 is a functional block diagram of the control unit 41.
- the control unit 41 shown in FIG. 12 is different from the above embodiment in that the voice recognition control unit 58 is further provided with an input sound volume adjustment unit 63 in addition to the input voice signal conversion unit 62 and the voice recognition determination unit 59.
- the input volume adjustment unit 63 measures the volume from the waveform of the digital audio signal input from the A / D conversion unit 45 in FIG. 2, and adjusts the volume so that the measured volume falls within a predetermined range.
- the audio signal whose volume has been adjusted is input to the input audio signal converter 62.
- the operations of the input voice signal conversion unit 62 and the voice recognition determination unit 59 are the same as in the above embodiment.
- FIG. 13 is a flowchart showing processing in which the control unit 41 of the system controller 22 according to the present embodiment controls peripheral devices by voice recognition.
- a method for performing voice recognition determination after adjusting the volume of a voice signal will be specifically described.
- the start of the processing in FIG. 13 by the control unit 41 is triggered by the activation of the system controller 22 as in the above embodiment.
- the process proceeds to the process in step S31 in FIG. That is, the processing in FIG. 13 is executed after reading out the voice operation setting information corresponding to the operator information 52, the procedure information 53, etc., and determining a valid voice recognition command 55.
- step S31 it is determined whether or not a voice is input. As in step S21 of FIG. 11, when there is no voice input, the process waits until voice is input to the control unit 41 of the system controller 22, and when there is voice input, the process proceeds to the next step.
- step S32 the input volume is measured from the digital audio signal waveform input from the A / D converter 45 to the controller 41.
- a technique for measuring the input volume a known technique is used.
- step S33 it is determined whether or not the measured volume satisfies a volume reference value stored in advance in the storage unit 50.
- the volume reference value includes, for example, an upper limit value and a lower limit value of a volume suitable for voice recognition. If the volume satisfies the volume reference value, the process proceeds to step S35 without performing any particular process. If the volume does not satisfy the volume reference value, the process proceeds to step S34.
- step S34 the input audio signal is increased or decreased so that the volume of the input audio data satisfies the volume reference value.
- the processing after step S35 is the same as the processing after step 8 in FIG.
- the voice recognition determination process is performed after adjusting the volume of the input voice signal to meet the volume reference value when necessary. Then, peripheral devices are controlled by voice recognition. For example, when the input sound volume is low, it is difficult to convert the input sound into a character string with the sound volume as it is, and it may be determined as non-recognized, but this is effectively prevented. Even when the input volume is high, the input volume is adjusted to a range suitable for voice recognition software. Thereby, in addition to the effect by the speech recognition determination processing according to the above-described embodiment, the probability of determining non-recognition is further effectively prevented from decreasing.
- the process for adjusting the volume is applied to the voice recognition determination process according to the first embodiment, but the present invention is not limited to this.
- the volume adjustment process may be applied to the sound determination process according to the second embodiment.
- the validity / invalidity of the voice recognition command can be set according to the operator, procedure, and scene.
- the present embodiment is different in that the voice recognition command can be set valid / invalid for each operating room.
- the configuration of the endoscopic surgery system 3 and the configurations of the system controller 22 and the control unit 41 are the same as those in the above-described embodiment, and are as shown in FIGS. Omit.
- the voice operation setting information registered in advance in the storage unit 50 is configured so that the valid / invalid state 56 for each voice recognition command 55 can be set for each operating room information for identifying the operating room.
- peripheral devices necessary for surgery vary depending on the type of endoscopic surgery, and therefore, each operating room may be provided with facilities suitable for specific surgery.
- the voice recognition command 55 that is highly necessary for each operating room, that is, the type of endoscopic surgery is set to be valid, and unnecessary ones are set to be invalid. Prevent misrecognition more efficiently.
- the valid / invalid state 56 of the voice recognition command 55 for each scene is settable.
- a method for controlling a peripheral device by determining a voice recognition command 55 effective for each scene and performing a voice recognition determination in an operating room suitable for a specific operation will be specifically described with reference to a flowchart. .
- FIG. 14 is a flowchart showing processing in which the control unit 41 of the system controller 22 according to the present embodiment controls peripheral devices by voice recognition.
- the control unit 41 is triggered by detecting that the operator has entered a predetermined operating room or that the system controller 22 installed in the predetermined operating room is activated via the display I / F 51 or the like.
- the process shown in FIG. 14 is started.
- the control unit 41 of the system controller 22 executes the process of step S41.
- step S41 a valid voice recognition command 55 is determined.
- the method for determining a valid voice recognition command 55 is as described in step S3 in FIG.
- step S42 it is determined whether or not to set a scene.
- the voice operation setting information is set for each operating room and for each scene.
- no scene setting is performed, no process is performed, and the process proceeds to step S45.
- the process proceeds to step S43.
- the processing after step S43 is the same as the processing after step S5 in FIG.
- the endoscopic surgery system 3 it is possible to determine the validity / invalidity of the voice recognition command 55 using the voice operation information for each operating room. It is possible to obtain the same effect as that of the endoscopic surgery system 3 according to the first embodiment by setting the voice recognition command frequently used in a specific operation to be effective and setting the voice recognition command that is not frequently used to be invalid. .
- the present invention can be variously improved and changed without departing from the gist of the present invention.
- some components may be deleted from the overall configuration shown in each of the above-described embodiments, and different components in each embodiment may be combined as appropriate.
- a means for measuring and detecting a surgeon's line of sight and a voice operation monitor are provided. May be configured such that the voice operation is enabled by looking at the voice operation monitor.
- the microphone 33 in FIG. 1 erroneously makes a speech recognition determination from a conversation or the like when the surgeon is not considering operation of the peripheral device by voice, and causes an erroneous operation by transmitting an incorrect operation command to the peripheral device. To effectively prevent this.
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Public Health (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Pathology (AREA)
- Optics & Photonics (AREA)
- Biophysics (AREA)
- Radiology & Medical Imaging (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Theoretical Computer Science (AREA)
- Mechanical Engineering (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Endoscopes (AREA)
Abstract
内視鏡手術システム3において、記憶部50は、内視鏡手術の術者及び手技ごとに、周辺機器を制御するためのコマンド及びコマンドのそれぞれが有効か無効かを対応付けて記憶する。表示I/F51は、術者及び手技の指定を受け付ける。入力音声信号変換部62は、入力された音声を認識して文字列化する。音声認識判定部59は、記憶部50を参照して、入力音声信号変換部62において得た文字列が、表示I/F51により指定された術者及び手技については有効と設定されているコマンドと一致するか否かを判定する。制御部41は、音声認識判定部59により無効と判定されたコマンドについては、対応する周辺機器への送信処理を停止する。
Description
本発明は、音声認識により接続されている周辺機器を制御する機能を有する内視鏡手術システムに関する。
内視鏡装置を使用する内視鏡手術では、術者が体腔内に挿入された処置具を両手に持って処置を行うのが一般的である。術者が手術中に周辺機器のパラメータ等の変更を行いたい場合には、助手等に非減菌域にある操作パネル等の操作を依頼するか、あるいは、術者の手元(減菌域)に設けられているスイッチ等を押すことで操作可能なこともある。しかし、他者に操作を委ねずに術者自身が微妙な調整を行いたい場合や、処置具の位置や向きにより操作が行いにくい場合がある。
このような問題を解決する手段として、内視鏡手術システムにおいて音声認識機能を備え、術者が音声にて入力したコマンドに基づき、周辺機器のパラメータ変更等を実現する技術がある(例えば、特許文献1)。
例えば特許文献1に開示されている技術においては、パターン認識をベースに音声認識を行っている。すなわち、予め音声コマンドをシステムに登録しておき、術者が発声した音声コマンドを登録されている音声コマンドと比較する。術者により入力された音声コマンドと登録されている音声コマンドとが互いに一致した場合には、その音声コマンドを認識する。
音声認識技術に関しては、例えば、入力された音声のレベルデータ(声の大きさ)を1回前に取得されているレベルデータとの差分を算出し、差分と基準値との比較結果に応じた処理を行う技術について開示されている(例えば、特許文献2)。また、音素認識したデータに対して認識実験を行い、認識率を計測する技術についても開示されている(例えば、特許文献3)。音声で入力した内容を音声認識処理する技術に関して、最初の文字と文字数とから利用者が音声入力した名詞を特定する技術についても開示されている(例えば、特許文献4)。
従来における音声認識技術によれば、術者は、登録されているとおりにコマンドの発声を行わないと、コマンドの非認識や誤認識が発生してしまう。つまり、音声コマンドを発する術者によってはシステムにおいてコマンドが認識されにくくなったり、コマンドの種類によっては他のコマンドと音が類似しているために、術者が意図したコマンドとは別のコマンドが認識されてしまう、という問題が発生したりする。しかし、手術の現場で音声操作をする際には、誤認識による誤操作の影響が非常に大きいため、必ず避けなければならない。
本発明の態様のひとつである内視鏡手術システムは、音声認識により接続されている周辺機器を制御する機能を有する内視鏡手術システムであって、内視鏡手術の術者及び手技ごとに、前記周辺機器を制御するためのコマンド及び該コマンドのそれぞれが有効か無効かを対応付けて記憶する記憶部と、前記術者及び手技の指定を受け付ける指定部と、入力された音声を認識して文字列化する変換部と、前記記憶部を参照して、前記変換部において得た文字列が、前記指定部により指定された術者及び手技については有効と設定されているコマンドと一致するか否かを判定する判定部と、前記判定部により無効と判定されたコマンドについては、対応する周辺機器への送信処理を停止する送信部とを備えることを特徴とする。
また、本発明の他の態様の一つである内視鏡手術システムは、音声認識により接続されている周辺機器を制御する機能を有する内視鏡手術システムであって、内視鏡手術の術者及び手技ごとに、前記周辺機器を制御するためのコマンド及び該コマンドのそれぞれが有効か無効かを対応付けて記憶する記憶部と、前記術者及び手技の指定を受け付ける指定部と、入力された音声を認識して文字列化する変換部と、前記記憶部を参照して、前記変換部において得た文字列が、前記指定部により指定された術者及び手技については有効と設定されているコマンドと一致するか否かを判定する判定部と、前記判定部により一致すると判定されたコマンドを、対応する周辺機器に送信する送信部とを備えることを特徴とする。
また、本発明の他の態様の一つである内視鏡手術システムは、音声認識により接続されている周辺機器を制御する機能を有する内視鏡手術システムであって、内視鏡手術の術者及び手技ごとに、前記周辺機器を制御するためのコマンド及び該コマンドのそれぞれが有効か無効かを対応付けて記憶する記憶部と、内視鏡手術を行う部屋を識別する情報を受け付ける指定部と、入力された音声を認識して文字列化する変換部と、前記記憶部を参照して、前記変換部において得た文字列が、前記指定部により指定された部屋については有効と設定されているコマンドと一致するか否かを判定する判定部と、前記判定部により一致すると判定されたコマンドを、対応する周辺機器に送信する送信部とを備えることを特徴とする。
本発明によれば、音声認識により接続されている周辺機器を制御する機能を有する内視鏡手術システムにおいて、使用しないコマンドを無効にすることで、誤って入力された音声コマンドの検出を避け、コマンドの誤認識による機器の誤操作を効果的に防止することが可能となる。
以下、本発明の実施の形態について、図面を参照して詳細に説明する。
<第1の実施形態>
図1は、本実施形態に係る内視鏡手術システムの全体構成図である。図1に示す内視鏡手術システム3は、手術室2に、患者48が横たわる患者ベッド10と共に配置される。内視鏡手術システム3は、第1カート11及び第2カート12を有し、それぞれ内視鏡手術に使用する機器等を搭載している。
<第1の実施形態>
図1は、本実施形態に係る内視鏡手術システムの全体構成図である。図1に示す内視鏡手術システム3は、手術室2に、患者48が横たわる患者ベッド10と共に配置される。内視鏡手術システム3は、第1カート11及び第2カート12を有し、それぞれ内視鏡手術に使用する機器等を搭載している。
第1カート11は、電気メス装置13、気腹装置14、内視鏡用カメラ装置15、光源装置16及びビデオテープレコーダ(以下VTRとする)17等の装置類、及びガスボンベ18を載置する。
内視鏡用カメラ装置15は、カメラケーブル31aを介して第1の内視鏡31に接続される。
光源装置16は、ライトガイドケーブル31bを介して第1の内視鏡に接続される。
VTR17は、第1の内視鏡31等において取得した内視鏡像の記録等を行う。
ガスボンベ18は、内視鏡手術において使用するための二酸化炭素等のガスが充填されている。
電気メス装置13、気腹装置14は、内視鏡手術に使用される医療機器であり、これらの機器は、接続されているシステムコントローラ22からの操作コマンドにしたがって、パラメータの変更等の制御が可能に構成されている。
また、第1カート装置11は、表示装置19、(第1)集中表示パネル20、操作パネル21等を載置する。
表示装置19は、内視鏡像等を表示するための装置であり、例えばテレビモニタを使用する。集中表示パネル20は、内視鏡手術システム3において取り扱うあらゆるデータを選択的に表示させることが可能な表示手段である。操作パネル21は、例えば液晶ディスプレイ等の表示部と、表示部上に一体的に設けられたタッチセンサ等とから構成され、非減菌域(不潔域)にいる看護師等が内視鏡手術システム3の各周辺機器等を操作する集中操作装置である。
更に、第1カート装置11は、システムコントローラ22を載置する。システムコントローラ22は、前述のとおり、内視鏡手術システム3に接続される各種の周辺機器の制御を行う。図1の構成例では、システムコントローラ22は、電気メス13、気腹装置14、内視鏡用カメラ装置15、光源装置16及びVTR17と不図示の通信線を介して接続されている。システムコントローラ22には、ヘッドセット型のマイク33が接続可能となっている。システムコントローラ22は、マイク33から入力された術者の音声によるコマンドの入力を認識し、認識したコマンドにしたがって、接続されている各種周辺機器に操作コマンドを送信して、周辺機器を制御する。
また、RFID(Radio Frequency IDentification)端末35は、第1カート11に設けられ、第1の内視鏡31や電気メス13等の処置具等に埋め込まれているID(IDentification)タグから個体識別情報の無線での読み取り/書き込みを行う。
第2カート12は、内視鏡用カメラ装置23、光源装置24、画像処理装置25、表示装置26及び(第2)集中表示パネル27を載置する。
内視鏡用カメラ装置23は、カメラケーブル32aを介して第2の内視鏡32に接続される。
光源装置24は、ライトガイドケーブル32bを介して第2の内視鏡32に接続される。
表示装置26は、内視鏡用カメラ23でとらえた内視鏡画像を表示するための装置であり、例えばテレビモニタを使用する。集中表示パネル27は、内視鏡手術システム3において取り扱うあらゆるデータを選択的に表示させることが可能な表示手段である。
内視鏡用カメラ装置23、光源装置24及び画像処理装置25は、第2カート12に載置された中継ユニット28に不図示の通信線を介して接続されている。中継ユニット28は、中継ケーブル29によって上述のシステムコントローラ22に接続されている。
このように、システムコントローラ22は、第1カート11に載置されている電気メス装置13、気腹装置14、内視鏡用カメラ装置15、光源装置16及びVTR17や、第2カート12に載置されている内視鏡用カメラ装置23、光源装置24及び画像処理装置25の集中制御を行う。このため、システムコントローラ22とこれら装置との間で通信が行われているときは、システムコントローラ22は、操作パネル21の液晶ディスプレイに、接続中の装置の設定状態や操作スイッチ等の設定画面を表示することができるように構成されている。システムコントローラ22は、所望の操作スイッチが触れられて所定の領域のタッチセンサが操作されることにより、設定値の変更等の操作入力を行える構成となっている。
リモートコントローラ30は、減菌域にいる術者である執刀医等が操作する第2の集中操作装置である。リモートコントローラ30は、システムコントローラ22を介して、システムコントローラ22が通信中の他の装置の操作を制御する。
なお、システムコントローラ22は、ケーブル9を介して患者モニタシステム4と接続されている。システムコントローラ22は、患者モニタシステム4において保持する生体情報を解析し、解析結果を所望の表示装置に表示させることができる。
また、システムコントローラ22には、図1においては不図示の赤外線通信ポート等の通信手段が設けられている。赤外線通信ポート等の通信手段は、例えば表示装置19等の近傍であって、赤外線が照射しやすい位置に設けられ、システムコントローラ22との間は、ケーブルにより接続されている。
図1に示す内視鏡手術システム3のシステムコントローラ22は、マイク33を介して術者が入力した音声より、所定の周辺機器を制御するための音声コマンドが入力されたと判断すると、対応する操作コマンドを周辺機器に対して送信する。入力された音声に対して音声コマンドが入力されたか否かを判定するときに、予め音声コマンドとして「有効」と設定されている音声コマンドについてのみ、音声認識を行い、対応する操作コマンドを周辺機器に送信する。
以下に、本実施形態に係る内視鏡手術システム3のシステムコントローラ22により入力された音声に対して音声認識を行って周辺機器に操作コマンドを送信し、制御を行う方法について具体的に説明する。
なお、以下の説明においては、入力された音声に対して、周辺機器を操作するための音声コマンドと認識されるものを「音声認識コマンド」とし、周辺機器に対して通信線を介して送信するコマンドを「操作コマンド」としている。
図2は、本実施形態に係るシステムコントローラ22のブロック図である。図2に示すシステムコントローラ22は、通信インタフェース(以下通信I/Fとする)40、A/D変換部45、表示インタフェース(以下表示I/Fとする)51、記憶部50及び制御部41を有する。
A/D変換部45は、システムコントローラと接続されているマイク33から入力されたアナログの音声信号を、デジタル信号に変換する。
表示I/F51は、操作パネル21にGUI(Graphical User Interface)を表示させ、操作パネル21からの利用者によるタッチ操作の信号を制御部41に渡すときのインタフェースである。表示I/F51は、例えば内視鏡手術システム3を利用する術者や術者が用いる手技等の指定を受け付ける。
通信I/F40は、内視鏡用カメラ装置15、光源装置16、気腹装置14及び電気メス装置13等の周辺機器との間の通信インタフェースである。図2においては、図1でシステムコントローラ22に直接接続されている装置のみを記載し、中継ケーブル29、中継ユニット28を介して接続されている装置については記載を省略している。
制御部41は、通信I/F40を介して内視鏡用カメラ装置15等の接続されている装置(周辺機器)のパラメータを取得して、表示I/F51を介して操作パネル21に表示させる。また、制御部41は、表示I/F51において受け付けた操作パネル21のタッチ操作の信号やA/D変換部45から入力される音声信号に基づき、通信I/F40を介して操作コマンドを送信して、周辺機器を制御する。制御部41は、マイク33から音声認識コマンドが入力されたことを認識した場合には、対応する操作コマンドを表示I/F51を介して操作パネル21に表示させる。そして、制御部41は、操作コマンドに基づき、通信I/F40を介して周辺機器の制御を行う。
記憶部50は、制御部41が周辺機器の制御等を実行するために必要な情報を記憶する。具体的には、A/D変換部45を介して入力された音声信号から得た文字列と比較するための音声認識コマンドや、術者や手技を識別する情報、並びに音声認識コマンドと対応付けて、音声認識コマンドが有効/無効のいずれに設定されているかを表す情報等を記憶している。記憶部50に記憶するこれらの情報の詳細については、図5や図6等を参照して説明する。
図3は、本実施形態に係る制御部41の機能ブロック図である。図3に示すように、本実施形態においては、制御部41は、音声認識制御部58を有し、音声認識制御部58は、入力音声信号変換部62及び音声認識判定部59を有する。
音声認識制御部58は、図2のA/D変換部45から入力された音声信号を入力音声信号変換部62において文字列化する。そして、音声認識判定部59は、図2の記憶部50に記憶されている情報に基づき、音声認識変換部62の変換処理により得た文字列が、有効と設定されている音声認識コマンドと一致するか否かを判定する。音声認識判定部59による判定を、以下においては、音声認識判定ということもある。
本実施形態に係る内視鏡手術システム3では、術者及び手技ごとに、周辺機器の制御が可能な音声認識コマンドが有効/無効のいずれであるかを、予め記憶部50に登録しておく。音声認識制御部58において、入力された音声信号から得た文字列と記憶部50に登録されている情報とを比較して、文字列が音声認識コマンドとして有効と設定されているものと一致すると判定した場合は、制御部41は、対応する操作コマンドを周辺機器に送信する。文字列が音声認識コマンドとして有効と設定されているものと一致しないと判定した場合や、操作コマンドが音声認識コマンドとして無効と設定されるものと一致する場合は、制御部41は、対応する操作コマンドを周辺機器に送信する処理を停止する。
図4は、音声認識コマンドの有効/無効を登録する方法を説明する図である。図4においては、予めシステムコントローラ22が用意しているGUIにより、操作パネル21の表示部に、所定の術者が所定の手技で使用する音声認識コマンドのそれぞれについて有効/無効を利用者に設定させるための画面を例示する。
図4においては、術者等が操作パネル21を介して指定した術者情報52及び手技情報53に対応する音声コマンドの設定画面が開いている様子を表す。術者情報52とは、内視鏡手術を行う術者を識別する情報であり、手技情報53とは、内視鏡手術において用いられる手技を識別する情報である。図4に示す操作パネル21の画面等を通じて、術者情報52が表す術者「Dr.A」について、手技情報53が表す「ラパコレ(ラパロスコピック・コレシステクトミー、腹腔鏡下胆嚢摘出術)」の手術を行うときに、システムコントローラ22から周辺機器に送信可能な操作コマンドのそれぞれについて、音声認識を有効/無効のいずれとするかを設定する。
これによれば、例えば、術者が所定の手技を行うときに音声認識機能を用いて周辺機器の制御を行いたい音声認識コマンドは有効に、必要性の低い音声認識コマンドは無効に設定しておく。図4の例では、術者Dr.Aがラパコレを行うときは、音声認識コマンド55のうち、「レリーズ」については有効に設定する一方で、「フリーズ」については無効に設定する。これにより、術者Dr.Aがラパコレの術中に「レリーズ」の音声認識コマンドを使用した場合に、システムコントローラ22においてこれを「フリーズ」と誤認識することを防ぐ。
図4に例示する画面を通じて設定された情報は、記憶部50に記憶しておく。図4に例示する画面を通じて設定される情報のうち、音声認識コマンド55とこれに対応する有効/無効状態56については、以下の説明においては「音声操作設定情報」とする。先に説明したとおり、音声操作設定情報とは、音声認識により周辺機器に送信が可能な操作コマンドと対応する音声認識コマンドごとに、システムコントローラ22において音声認識による周辺機器の制御を行うか否か(有効か無効か)を対応付けて設定した情報をいう。
図5は、術者情報52及び手技情報53ごとに設定した音声操作設定情報を例示する図である。
例えば、術者情報52には同一の術者を表す「Dr.A」が設定されていても、手技情報53にはそれぞれ異なる手技「ラパコレ」及び「LADG(腹腔鏡補助下幽門側胃切除術)」が設定されていれば、同一の音声認識コマンド55であっても、それぞれの手技ごとに有効/無効状態56を設定できる。術者情報52が互いに異なる術者「Dr.A」「Dr.B」が設定されていれば、同一の音声認識コマンド55であっても、それぞれの術者について有効/無効状態56を設定できる。
音声操作設定情報に関しては、術者情報52及び手技情報53ごとに設定するだけでなく、更に、手術の進行段階ごとに音声認識コマンド55の有効/無効を設定する構成としてもよい。以降の説明においては、手術の進行段階を「シーン」とする。
図6は、術者情報52、手技情報53及びシーンごとに設定した音声操作設定情報を例示する図である。図6においては、術者Dr.Aがラパコレを行うときに、その段階に応じて、具体的は、「開腹」のシーン及び「縫合」のシーンのそれぞれについて、音声認識コマンド55の有効/無効状態56を設定した例を示す。図6のシーン情報54とは、シーンを識別するための情報である。
例えば、開腹シーンでは、使用する電気メス装置13を制御するための音声認識コマンド55を有効に設定する。図6の例では、シーン情報54「開腹」の音声操作設定情報では、音声認識コマンド55のうち、開腹シーンにおいて利用する「電気メス出力アップ」や「電気メス出力ダウン」については「有効」と設定している。その一方で、その後の縫合シーンでは、電気メス装置13の制御は不要となる。このため、図6の例では、シーン情報54「縫合」の音声操作設定情報では、同一の音声認識コマンド55「電気メス出力アップ」や「電気メス出力ダウン」については「無効」と設定している。
このように、シーン情報54ごとに、そのシーンに必要な音声認識コマンド55については有効に設定しつつ、不要な音声認識コマンド55については無効に設定することで、入力した音声コマンドが不要な音声認識コマンド55と誤認識されることを効果的に防止する。
図7は、本実施形態に係るシステムコントローラ22の制御部41が、音声認識により周辺機器の制御を行う処理を示したフローチャートである。制御部41は、システムコントローラ22が起動されたことを契機として、図7に示す処理を開始する。
まず、ステップS1で、術者がログインするときに入力する情報に基づき、術者情報52を特定する。図8の画面80Aは、ステップS1で操作パネル21に表示する画面例である。システムコントローラ22に登録されている1以上の術者情報52のリスト81を表示する。制御部41は、リスト81の中から選択された術者情報52のログインを認識すると、ログインの認識された術者情報52が特定されたと判断する。
ステップS2で、手技情報を特定する。図8の画面80Bは、ステップS2で操作パネル21に表示する画面例である。ステップS1で指定された術者情報52について、記憶部50に音声操作設定情報の登録されている1以上の手技情報53のリスト82を表示する。リスト82の中から、内視鏡手術で用いる手技を表す手技情報53が選択されると、選択された手技情報53が特定されたと判断する。
ステップS3で、ステップS1及びステップS2で指定された術者情報52及び手技情報53に対応する有効な音声認識コマンド55を決定する。有効な音声認識コマンド55を決定するためには、まず、術者情報52及び手技情報53に対応する音声操作設定情報を記憶部50から読み出す。
図8の画面80Cは、ステップS3で操作パネル21に表示する画面例である。記憶部50から読み出した、指定された術者情報52及び手技情報53に対応する音声操作設定情報を表示している。画面中の音声認識コマンドリスト83には、記憶部50に登録されている音声認識コマンド55の一部と、対応する有効/無効状態56を表示している。
術者等の利用者により設定ボタン84が押下されると、制御部41は、有効な音声認識コマンド55を決定する。すなわち、制御部41は、以降の処理において、画面80Cに表示中の音声操作設定情報に基づき音声認識コマンド55の有効/無効を判断することとする。
ステップS4で、シーンを設定するか否かを判定する。図8の画面80Dは、ステップS4で操作パネル21に表示する画面例である。画面80Dの設定ボタン85が術者等の利用者により押下された場合には、シーン設定を行うと判定する。シーン設定を行わない場合は、特に処理を行わず、処理をステップS7へと移行させる。シーン設定を行う場合は、ステップS5に進む。
ステップS5で、音声操作設定情報として設定されているシーンの中から一のシーンの選択を受け付ける。図9は、ステップS5において操作パネル21に表示する画面例を示す図である。画面80Eには、ステップS1及びステップS2で指定された術者情報52及び手技情報53についての、記憶部30に登録済のシーンごとの音声操作設定情報のリスト91が表示される。操作パネル21を介してリスト91の中から一のシーンが選択され、設定ボタン92が押下されると、ステップS6に進む。
ステップS6では、ステップS5で選択されたシーンに対応する有効な音声認識コマンド55を決定する。すなわち、制御部41は、以降の処理においては、選択されたシーン情報54に対応する音声操作設定情報に基づき音声認識コマンド55の有効/無効を判断することとする。ステップS6では、ステップS3等で先に設定した音声操作設定情報については破棄する。
ステップS7で、音声入力があったか否かを判定する。音声入力がない場合は、ステップS4に戻る。音声入力があった場合は、ステップS8に進む。
ステップS8で、入力のあった音声信号の信号波形を文字列化する。デジタル音声信号波形を文字列化する技術については、公知の技術を用いている。
ステップS9で、ステップS8において得た文字列と、ステップS3またはステップS6で設定した音声操作設定情報の音声認識コマンド55とを比較して、文字列が、有効/無効状態56に「有効」と設定されている音声認識コマンド55と一致するか否かを判定する。音声認識コマンド55にない文字列の場合、ステップS11へと処理を移行させ、同様に、「無効」と設定された音声認識コマンド55の場合も、コマンド信号を機器へ送信せずに、ステップS11へと処理を移行させる。有効な音声認識コマンド55のうち、一致するものが存在する場合は、ステップS10に進む。
ステップS10で、文字列に対応する操作コマンドを、対応する周辺機器に送信する。操作コマンドを受信した周辺機器では、操作コマンドに応じた制御処理が実行される。
ステップS11で、内視鏡手術が終了したか否かを判定する。手術の途中である場合は、ステップS4に戻る。手術が終了したことを操作パネル21の術者等の利用者の操作により認識した場合には、処理を終了する。
以上説明したように、本実施形態に係る内視鏡手術システム3によれば、術者や手技(及びシーン)ごとに、周辺機器を音声認識により制御する音声認識コマンド55ごとに有効か無効かを表す情報を予め設定しておく。入力された音声信号を文字列化して音声認識を行うときに、文字列が有効と設定されている音声認識コマンド55と一致した場合に、周辺機器に対応する操作コマンドを送信する。術者や手技、シーンにおいて必要性の高い音声認識コマンドについては有効に、必要性の低い音声認識コマンドについては無効に設定しておくことができる。これによれば、音が類似する音声認識コマンドが存在する場合であっても必要性が低い場合には無効と設定しておくことで、無効となっている音声認識コマンド55が無視され、操作コマンドを周辺機器に送信する処理が停止されるため、音声認識コマンドの誤認識を効果的に防止する。そして、音声認識コマンドの誤認識を防止することで、周辺機器に対して誤った操作コマンドが送信されることを効果的に防止することが可能となる。
<第2の実施形態>
上記の実施形態においては、入力された音声より得た文字列が、音声操作設定情報に有効と設定されている音声認識コマンド55と一致するか否かに基づき、音声認識判定を行っている。これに対し、本実施形態においては、入力された音声より得た文字列が、音声認識コマンド55と完全に一致しなくとも、所定の条件を満たすことを条件に音声認識判定を行っている点で異なる。
<第2の実施形態>
上記の実施形態においては、入力された音声より得た文字列が、音声操作設定情報に有効と設定されている音声認識コマンド55と一致するか否かに基づき、音声認識判定を行っている。これに対し、本実施形態においては、入力された音声より得た文字列が、音声認識コマンド55と完全に一致しなくとも、所定の条件を満たすことを条件に音声認識判定を行っている点で異なる。
以下に、第1の実施形態と異なる点を中心に、本実施形態に係る内視鏡手術システム3が音声認識により周辺機器の制御を行う方法について説明する。
本実施形態においては、内視鏡手術システム3の構成やシステムコントローラ22及び制御部41の構成については上記の実施形態と同様であり、図1~図3のとおりであるので、ここでは説明は割愛する。
本実施形態においては、上記の実施形態で説明した図5や図6に示す音声操作設定情報とは別に、音声認識コマンド55の一部と、音声認識コマンド55を文字列化した場合の文字数とを表す情報を、音声認識判定処理のために記憶しておく。そして、システムコントローラ22に入力された音声信号の波形より得た文字列のうち、所定の箇所の文字及び文字列全体の文字数が、記憶しておいた情報とどの程度一致しているかに基づき、音声認識を行う。以下の説明では、波形より得た文字列との比較に用いる情報、すなわち、音声認識コマンド55ごとに、音声認識コマンド55一部の文字及びコマンド全体の文字数を対応付けた情報を、部分比較用情報とする。
図10は、音声認識コマンドの部分比較用情報を参照して、音声信号の波形より得た文字列について音声認識判定を行う方法について説明する図である。
図10に示すように、部分比較用情報95では、音声認識コマンド68と対応付けて、最初の文字69、最後の文字70、文字数71及び文字数閾値72が音声認識コマンドごとに設定されている。
部分比較用情報95のうち、最初の文字69及び最後の文字70は、それぞれ音声認識コマンド68を文字列で表した場合の1文字目と最後の文字とが設定される。文字数71は、音声認識コマンド68を文字列で表した場合の文字数が設定される。文字数閾値72は、文字数71に対して所定の割合の文字数が設定される。図10に示す実施例では、文字数71のうち2分の1の文字数を文字数閾値71に設定している。文字数閾値72は、音声認識判定において、音声情報を文字列化したコマンドの文字数と比較するために用いる。
図10中の入力音声64には、音声信号波形より得た文字列が格納される。入力音声64についても、文字列の最初の文字、最後の文字及び文字数を求めて、図10の最初の文字65、最後の文字66及び文字数67に格納する。入力音声64、最初の文字65、最後の文字66及び文字数67を、以下の本実施形態の説明においては、入力情報94とする。
図10に示す情報を用いてどのように音声認識判定を行うかについて、具体的に説明する。
図11は、本実施形態に係るシステムコントローラ22の制御部41が、音声認識により周辺機器の制御を行う処理を示したフローチャートである。図11を参照して、図10に示す入力情報94と部分比較用情報95とから、入力音声64から操作コマンドに対する音声認識を行って周辺機器を制御する方法について、具体的に説明する。なお、制御部41による図11の処理の開始は、上記の実施形態と同様に、システムコントローラ22の起動を契機とする。図11においては省略しているが、システムコントローラ22が起動し、図7のステップS1~ステップS6の処理が実行された後に、図11のステップS21の処理に移行する。すなわち、図11の処理は、術者情報52や手技情報53等に対応する音声操作設定情報を読み出し、有効な音声認識コマンド55を決定した後に実行する。
まず、ステップS21で、音声の入力があったか否かを判定する。音声の入力がない場合は、音声がシステムコントローラ22の制御部41に入力されるまで待機する。音声の入力があった場合は、ステップS22に進む。
ステップS22で、入力された音声信号の信号波形を文字列化する。
ステップS23で、ステップS22で得た文字列から、文字数を算出する。そして、ステップS24で、文字列より、最初の文字と最後の文字とを抽出する。ステップS23及びステップS24で得た文字数、最初及び最後の文字を、図10の入力情報94の文字数67、最初の文字65及び最後の文字66として、入力音声(から得た文字列)64と対応付けて記憶する。
ステップS25で、部分比較用情報95に格納されている情報の中に、入力情報94の最初の文字65と一致する最初の文字69があるか否かを判定する。一致する最初の文字69が存在しない場合には、処理をステップS29へと移行させる。一致する最初の文字69が存在する場合は、ステップS26に進む。
ステップS26で、部分比較用情報95に格納されている情報の中に、抽出した最後の文字66と一致する最後の文字70があるか否かを判定する。ここでは、ステップS25において最初の文字65と一致すると判定した最初の文字69に対応する音声認識コマンド68の最後の文字70を参照して、入力情報94の最後の文字66と最後の文字70とが互いに一致するか否かを判定する。入力情報94中の最後の文字66と、比較対象の最後の文字70が互いに一致する場合には、処理をステップS29へと移行させる。入力情報94中の最後の文字66と比較対象の最後の文字70とが互いに一致する場合は、ステップS27に進む。
ステップS27で、入力情報94中の文字数67と、ステップS26において最後の文字70が入力情報94中の最後の文字67と一致した音声認識コマンド68の文字数閾値72とを比較する。文字数67が文字数閾値72を下回る場合は、処理をステップS29へと移行させる。文字数67が文字数閾値72以上である場合は、ステップS28に進む。
ステップS28及びステップS29については、図7のステップS10及びステップS11の処理とそれぞれ同様である。
なお、図11のステップS27においては、入力音声64の文字数67が部分比較用情報95のうち比較対象の音声認識コマンド68の文字数閾値72を上回るか否か、すなわち、入力音声64の文字数67が文字数71の2分の1を上回るか否かを判定している。入力音声64の文字数67が音声認識コマンド68の文字数のうち一定の割合以上を占める場合には、入力音声64と音声認識コマンド68とが完全に一致しなくとも、音声認識判定において音声認識コマンドの有効/無効判定を判定する。音声認識コマンドの有効/無効の判定は、例えば、図5や図6の音声操作設定情報を参照して行う。音声認識コマンドの有効/無効の判定方法の詳細については、上記の実施形態の説明において述べたとおりである。
図10のうち、(1)は、入力音声64が音声認識コマンド68と一致する場合を、(2)は、入力音声64が音声認識コマンド68と一致しない場合を示す。図10を参照して、本実施形態により入力音声に対応する音声認識コマンドを判断する処理による効果を説明する。
(1)のように、入力音声64の文字列が音声認識コマンド68と一致すれば、図7に示す前述の実施形態に係る方法により音声認識判定を行っても、術者等の利用者は、所望の周辺機器の制御を音声入力により行うことができる。しかし、(2)のように、入力音声64が、術者等の利用者が意図したとおりに認識されない場合には、本実施形態に係る方法により音声認識判定を行うことで、周辺機器の制御が可能となる。
具体的には、(2)に示すように、入力音声64の文字列が「でんぴめすすーりょあぷ」と認識されてしまった場合であっても、最初の文字65「で」及び最後の文字66「ぷ」は音声認識コマンド68「電気メス出力アップ」の最初の文字69及び最後の文字70とそれぞれ一致する。また、入力音声64の文字数67は、10文字と認識されており、「電気メス出力アップ」の文字数「12文字」とは異なる。このような場合であっても、音声認識コマンド68「電気メス出力アップ」の文字数閾値72である「6文字」は上回っている。このため、入力音声64の文字列が音声認識コマンドと完全に一致しなくとも、入力音声64により、音声認識コマンド「電気メス出力アップ」が入力されたと判断することができる。
文字数の多い音声認識コマンド68等については、途中の音声がノイズ等により正しく集音できず、誤った文字に認識されたり、文字抜けが生じたりすることがある。このような場合であっても、例えば最初と最後の文字のように、一部の文字が一致し、且つ文字数が一定以上音声認識コマンドに近ければ、その音声認識コマンドが音声入力されたと判断して音声認識判定を行うことで、音声認識コマンドが非認識と判断される頻度が低下する。
このように、本実施形態に係る内視鏡手術システム3においては、音声認識を行って操作コマンドを周辺機器に送信するときに、入力音声64の全てが音声認識コマンド68と一致している必要がない。入力音声64の一部(上記の例では最初と最後の1文字ずつ)が、音声認識コマンド68のうちの対応する箇所と相互に一致し、且つ入力音声64の文字数が音声認識コマンド68の文字数のうちの一定の割合以上である音声認識コマンド68の有無を判定する。条件を満たす音声認識コマンド68が部分比較用情報に含まれる場合には、条件を満たす音声認識コマンド68について、音声認識判定を行う。必ずしも入力音声64の全ての文字が音声認識コマンド68と完全に一致していなくとも、音声認識判定を行って、対応する操作コマンドを周辺機器に送信することが可能となる。これにより、上記の実施形態に係る音声認識判定処理による効果に加えて、更に、音声認識コマンドの認識率を向上させることができる。
なお、上記の実施例においては、文字列のうち、最初の文字及び最後の文字を音声認識コマンドのそれと比較しているが、これには限定されない。また、比較する文字は、文字列中の1文字ずつに限定されない。更には、上記の実施例においては、文字数閾値72として音声認識コマンド68の文字数の2分の1を設定しているが、閾値としては、音声認識コマンド68の文字数の2分の1には限定されない。また、上記の実施例においては、入力音声64の文字数を閾値と比較しているが、例えばシステムコントローラ22において入力音声の音数を認識可能な構成であれば、入力音声64の音数を、音声認識コマンド68の音数に基づき設定した閾値と比較してもよい。
<第3の実施形態>
上記の実施形態においては、図1等のマイク33から入力された音声をそのまま処理して音声認識判定処理に利用している。これに対し、本実施形態においては、システムコントローラ22は、マイク33から入力された音声を適切な音量に調整した上で音声認識判定処理を行う点で異なる。
<第3の実施形態>
上記の実施形態においては、図1等のマイク33から入力された音声をそのまま処理して音声認識判定処理に利用している。これに対し、本実施形態においては、システムコントローラ22は、マイク33から入力された音声を適切な音量に調整した上で音声認識判定処理を行う点で異なる。
以下に、第1の実施形態と異なる点を中心に、本実施形態に係る内視鏡手術システム3が音声認識により周辺機器の制御を行う方法について説明する。
本実施形態においては、内視鏡手術システム3の構成やシステムコントローラ22の構成については上記の実施形態と同様であり、図1及び図2のとおりであるので、ここでは説明は割愛する。
図12は、制御部41の機能ブロック図である。図12に示す制御部41は、音声認識制御部58に、入力音声信号変換部62及び音声認識判定部59に加えて、入力音量調整部63を更に備える点で上記の実施形態と異なる。
入力音量調整部63は、図2のA/D変換部45から入力されるデジタル音声信号の波形より音量を測定し、測定した音量が所定の範囲内に収まるよう音量を調整する。音量を調整した音声信号は、入力音声信号変換部62に入力される。入力音声信号変換部62及び音声認識判定部59の動作については、上記の実施形態と同様である。
本実施形態に係る音声認識判定方法について、フローチャートを参照して更に詳しく説明する。
図13は、本実施形態に係るシステムコントローラ22の制御部41が、音声認識により周辺機器の制御を行う処理を示したフローチャートである。図13を参照して、音声信号の音量を調整した上で音声認識判定を行う方法について、具体的に説明する。なお、制御部41による図13の処理の開始は、上記の実施形態と同様に、システムコントローラ22の起動を契機とする。また、図13においては省略しているが、システムコントローラ22が起動し、図7のステップS1~ステップS6の処理が実行された後に、図13のステップS31の処理に移行する。すなわち、図13の処理は、術者情報52や手技情報53等に対応する音声操作設定情報を読み出し、有効な音声認識コマンド55を決定した後に実行する。
まず、ステップS31で、音声の入力があったか否かを判定する。図11のステップS21と同様に、音声の入力がない場合は、音声がシステムコントローラ22の制御部41に入力されるまで待機し、音声の入力があった場合は、次のステップに進む。
ステップS32で、A/D変換部45から制御部41に入力されたデジタル音声信号波形から、入力音量を測定する。入力音量の測定技術については、公知の技術を用いている。
ステップS33で、測定した音量が、記憶部50に予め記憶されている音量基準値を満たしているか否かを判定する。音量基準値は、例えば音声認識に適切な音量の上限値と下限値とを含む。音量が音量基準値を満たしている場合は、特に処理を行わず、ステップS35に進む。音量が音量基準値を満たしていない場合は、ステップS34に進む。
ステップS34で、入力音声データの音量が音量基準値を満たすよう、入力音声信号を増減する。
ステップS35以降の処理については、図7のステップ8以降の処理と同様である。
このように、本実施形態に係る内視鏡手術システム3によれば、必要な場合には入力された音声信号の音量が音量基準値を満たすように調整した上で、音声認識判定処理を実行し、音声認識による周辺機器の制御を行う。例えば入力音量が小さい場合は、そのままの音量では入力音声の文字列化が困難で、非認識と判定されることがあるが、これを効果的に防止する。また、入力音量が大きい場合にも、音声認識のソフトウェアに適した範囲に入力音量を調整する。これにより、上記の実施形態に係る音声認識判定処理による効果に加えて、更に、非認識と判定される確率が下がることを効果的に防止する。
なお、上記の実施例においては、第1の実施形態に係る音声認識判定処理に対して音量を調整する処理を適用しているが、これに限定されるものではない。例えば、第2の実施形態に係る音声判定処理に対して音量調整処理を適用してもよい。
<第4の実施形態>
第1の実施形態においては、術者や手技、シーンごとに応じて音声認識コマンドの有効/無効を設定可能としている。これに対し、本実施形態においては、手術室ごとに音声認識コマンドの有効/無効を設定可能とする点で異なる。
<第4の実施形態>
第1の実施形態においては、術者や手技、シーンごとに応じて音声認識コマンドの有効/無効を設定可能としている。これに対し、本実施形態においては、手術室ごとに音声認識コマンドの有効/無効を設定可能とする点で異なる。
以下に、第1の実施形態と異なる点を中心に、本実施形態に係る内視鏡手術システム3が音声認識により周辺機器の制御を行う方について説明する。
本実施形態においては、内視鏡手術システム3の構成やシステムコントローラ22及び制御部41の構成については上記の実施形態と同様であり、図1~図3のとおりであるので、ここでは説明は割愛する。
ただし、本実施形態においては、記憶部50に予め登録されている音声操作設定情報は、音声認識コマンド55ごとの有効/無効状態56を、手術室を識別する手術室情報ごとに設定可能に構成されている。例えば、手術に必要な周辺機器等は内視鏡手術の種類によって異なるため、手術室ごとにそれぞれ特定の手術に適した設備を設けることがある。このような場合は、手術室ごと、すなわち内視鏡手術の種類に応じて必要性の高い音声認識コマンド55については有効に設定しておき、不要なものは無効に設定しておくことで、より効率的に誤認識を防止する。
実施例では、更に、シーンごとの音声認識コマンド55の有効/無効状態56を設定可能な構成とする。以下に、特定の手術に適した手術室において、シーンごとに有効な音声認識コマンド55を決定して音声認識判定を行い周辺機器の制御を行う方法について、フローチャートを参照して具体的に説明する。
図14は、本実施形態に係るシステムコントローラ22の制御部41が、音声認識により周辺機器の制御を行う処理を示したフローチャートである。制御部41は、表示I/F51等を介して、術者が所定の手術室に入室したことや、所定の手術室内に設置されているシステムコントローラ22が起動したことを検知したことを契機として、図14に示す処理を開始する。システムコントローラ22の制御部41は、手術室に対応する音声操作情報を読み出すと、ステップS41の処理を実行する。
ステップS41で、有効な音声認識コマンド55を決定する。有効な音声認識コマンド55の決定方法については、図7のステップS3の説明のとおりである。
ステップS42で、シーン設定するか否かを判定する。前述のとおり、音声操作設定情報は、手術室ごとに、また、シーンごとに設定されている。シーン設定を行わない場合は、特に処理を行わず、ステップS45へと処理を移行させる。シーン設定を行う場合は、ステップS43に進む。
ステップS43以降の処理については、図7のステップS5以降の処理と同様である。
このように、本実施形態に係る内視鏡手術システム3によれば、手術室ごとの音声操作情報を用いて音声認識コマンド55の有効/無効を判定することができる。特定の手術ではよく用いる音声認識コマンドについては有効に、あまり使用しない音声認識コマンドについては無効に設定しておくことで、第1の実施形態に係る内視鏡手術システム3と同様の効果を得る。
この他にも、本発明は、本発明の要旨を逸脱しない範囲内で、種々の改良及び変更が可能である。例えば、前述の各実施形態に示された全体構成からいくつかの構成要素を削除してもよく、更には各実施形態の異なる構成要素を適宜組み合わせてもよい。
更には、上記の第1~第4の内視鏡手術システム3において、例えば術者の視線を計測する手段や検知する手段、及び音声操作用のモニタを備え、術者が音声操作をするときは、音声操作用モニタを見ることにより音声操作が有効になる構成としてもよい。図1のマイク33により、術者が音声による周辺機器の操作を考えていない場合の会話等から誤って音声認識判定を行い、周辺機器に対して誤った操作コマンドを送信して誤動作させてしまうことを効果的に防止する。
Claims (6)
- 音声認識により接続されている周辺機器を制御する機能を有する内視鏡手術システムであって、
内視鏡手術の術者及び手技ごとに、前記周辺機器を制御するためのコマンド及び該コマンドのそれぞれが有効か無効かを対応付けて記憶する記憶部と、
前記術者及び手技の指定を受け付ける指定部と、
入力された音声を認識して文字列化する変換部と、
前記記憶部を参照して、前記変換部において得た文字列が、前記指定部により指定された術者及び手技については有効と設定されているコマンドと一致するか否かを判定する判定部と、
前記判定部により無効と判定されたコマンドについては、対応する周辺機器への送信処理を停止する送信部と
を備えることを特徴とする内視鏡手術システム。 - 前記内視鏡手術のシーンの指定を受け付けるシーン指定部と、
を更に備え、
前記記憶部は、前記シーンごとに前記コマンドのそれぞれが有効か無効かを、前記術者及び手技ごとに記憶し、
前記判定部は、前記シーン指定部においてシーンを受け付けた場合は、前記文字列が、前記指定部にて受け付けた術者及び手技についての該受け付けたシーンについて、前記記憶部に有効と設定されているコマンドと一致するか否かを判定する
ことを特徴とする請求項1記載の内視鏡手術システム。 - 前記判定部は、前記変換部において得た文字列が、前記記憶部に記憶されているコマンドと一部が一致するか否か、及び、該文字列の文字数または音数が、該記憶部に記憶されているコマンドの文字数または音数のうち所定の割合以上であるか否かに基づき、該文字列が該記憶部に有効と設定されているコマンドと一致するか否かを判定する
ことを特徴とする請求項1または2に記載の内視鏡手術システム。 - 入力された音声の音量を測定し、該測定した音量が所定の範囲内に収まるよう音量を調整する調整部と、
を更に備え、
前記変換部は、前記調整部により音量を調整された音声に対して文字列化の処理を行う
ことを特徴とする請求項1または2に記載の内視鏡手術システム。 - 音声認識により接続されている周辺機器を制御する機能を有する内視鏡手術システムであって、
内視鏡手術の術者及び手技ごとに、前記周辺機器を制御するためのコマンド及び該コマンドのそれぞれが有効か無効かを対応付けて記憶する記憶部と、
前記術者及び手技の指定を受け付ける指定部と、
入力された音声を認識して文字列化する変換部と、
前記記憶部を参照して、前記変換部において得た文字列が、前記指定部により指定された術者及び手技については有効と設定されているコマンドと一致するか否かを判定する判定部と、
前記判定部により一致すると判定されたコマンドを、対応する周辺機器に送信する送信部と
を備えることを特徴とする内視鏡手術システム。 - 音声認識により接続されている周辺機器を制御する機能を有する内視鏡手術システムであって、
内視鏡手術の術者及び手技ごとに、前記周辺機器を制御するためのコマンド及び該コマンドのそれぞれが有効か無効かを対応付けて記憶する記憶部と、
内視鏡手術を行う部屋を識別する情報を受け付ける指定部と、
入力された音声を認識して文字列化する変換部と、
前記記憶部を参照して、前記変換部において得た文字列が、前記指定部により指定された部屋については有効と設定されているコマンドと一致するか否かを判定する判定部と、
前記判定部により一致すると判定されたコマンドを、対応する周辺機器に送信する送信部と
を備えることを特徴とする内視鏡手術システム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013518032A JP5326066B1 (ja) | 2011-10-25 | 2012-10-18 | 内視鏡手術システム |
EP12844263.9A EP2665059B1 (en) | 2011-10-25 | 2012-10-18 | Endoscope operation system |
CN201280014971.0A CN103460281B (zh) | 2011-10-25 | 2012-10-18 | 内窥镜手术系统 |
US13/866,697 US8903728B2 (en) | 2011-10-25 | 2013-04-19 | System for endoscopic surgery having a function of controlling through voice recognition |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011233559 | 2011-10-25 | ||
JP2011-233559 | 2011-10-25 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
US13/866,697 Continuation US8903728B2 (en) | 2011-10-25 | 2013-04-19 | System for endoscopic surgery having a function of controlling through voice recognition |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2013061857A1 true WO2013061857A1 (ja) | 2013-05-02 |
Family
ID=48167689
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2012/076906 WO2013061857A1 (ja) | 2011-10-25 | 2012-10-18 | 内視鏡手術システム |
Country Status (5)
Country | Link |
---|---|
US (1) | US8903728B2 (ja) |
EP (1) | EP2665059B1 (ja) |
JP (1) | JP5326066B1 (ja) |
CN (1) | CN103460281B (ja) |
WO (1) | WO2013061857A1 (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016063564A1 (ja) * | 2014-10-24 | 2016-04-28 | 株式会社ソニー・コンピュータエンタテインメント | 制御装置、制御方法、プログラム及び情報記憶媒体 |
CN105556594A (zh) * | 2013-12-26 | 2016-05-04 | 松下知识产权经营株式会社 | 声音识别处理装置、声音识别处理方法以及显示装置 |
CN108055617A (zh) * | 2017-12-12 | 2018-05-18 | 广东小天才科技有限公司 | 一种麦克风的唤醒方法、装置、终端设备及存储介质 |
WO2019116644A1 (ja) * | 2017-12-13 | 2019-06-20 | オリンパス株式会社 | 内視鏡システムおよび制御方法 |
US10339928B2 (en) | 2014-10-24 | 2019-07-02 | Sony Interactive Entertainment Inc. | Control device, control method, program and information storage medium |
JP2020190756A (ja) * | 2020-08-24 | 2020-11-26 | ヤマハ株式会社 | 管理装置およびプログラム |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6102588B2 (ja) * | 2013-07-10 | 2017-03-29 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
EP3252702A4 (en) * | 2015-01-28 | 2018-10-24 | Olympus Corporation | Examination work support system |
CN106328137A (zh) * | 2016-08-19 | 2017-01-11 | 镇江惠通电子有限公司 | 语音控制方法、装置及系统 |
CN106128457A (zh) * | 2016-08-29 | 2016-11-16 | 昆山邦泰汽车零部件制造有限公司 | 一种对话机器人的控制方法 |
JP2018054850A (ja) * | 2016-09-28 | 2018-04-05 | 株式会社東芝 | 情報処理システム、情報処理装置、情報処理方法、及びプログラム |
JP6901590B2 (ja) * | 2017-12-11 | 2021-07-14 | オリンパス株式会社 | 集中制御装置及び医療機器を含む1又は2以上の被制御装置を制御する集中制御装置の作動方法 |
CN108652675A (zh) * | 2018-02-11 | 2018-10-16 | 江苏金羿智芯科技有限公司 | 一种基于人工智能的内窥镜图像去雾系统 |
JP2022062490A (ja) * | 2020-10-08 | 2022-04-20 | 富士フイルム株式会社 | 内視鏡システム及びその作動方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07146696A (ja) | 1993-09-30 | 1995-06-06 | Meidensha Corp | 音声認識における単語テンプレートの自動作成方法 |
JPH11175095A (ja) * | 1997-12-11 | 1999-07-02 | Hitachi Medical Corp | 医用診断装置 |
JP2002122391A (ja) | 2000-10-13 | 2002-04-26 | Technological Research Association Of Super Marine Gas Turbine | 熱交換器 |
JP2002123291A (ja) | 2000-10-18 | 2002-04-26 | Olympus Optical Co Ltd | システム制御装置 |
JP2002132283A (ja) * | 2000-10-25 | 2002-05-09 | Olympus Optical Co Ltd | 医療用制御システム |
JP2003228394A (ja) | 2002-01-31 | 2003-08-15 | Nippon Telegr & Teleph Corp <Ntt> | 音声入力を利用する名詞特定装置およびその方法 |
JP2004199004A (ja) | 2002-12-20 | 2004-07-15 | Olympus Corp | 音声入力医用制御システム |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6463361B1 (en) * | 1994-09-22 | 2002-10-08 | Computer Motion, Inc. | Speech interface for an automated endoscopic system |
US6073101A (en) * | 1996-02-02 | 2000-06-06 | International Business Machines Corporation | Text independent speaker recognition for transparent command ambiguity resolution and continuous access control |
US6911916B1 (en) * | 1996-06-24 | 2005-06-28 | The Cleveland Clinic Foundation | Method and apparatus for accessing medical data over a network |
US5893064A (en) * | 1997-05-14 | 1999-04-06 | K2 Interactive Llc | Speech recognition method and apparatus with voice commands and associated keystrokes |
EP0911808B1 (en) * | 1997-10-23 | 2002-05-08 | Sony International (Europe) GmbH | Speech interface in a home network environment |
US6587824B1 (en) * | 2000-05-04 | 2003-07-01 | Visteon Global Technologies, Inc. | Selective speaker adaptation for an in-vehicle speech recognition system |
JP4107093B2 (ja) * | 2003-01-30 | 2008-06-25 | 株式会社日立製作所 | 対話型端末装置及び対話アプリケーション提供方法 |
US7249025B2 (en) * | 2003-05-09 | 2007-07-24 | Matsushita Electric Industrial Co., Ltd. | Portable device for enhanced security and accessibility |
US7297148B2 (en) * | 2003-05-22 | 2007-11-20 | Bruce Waxman | Surgical safety procedure and apparatus |
US7373248B2 (en) * | 2004-09-10 | 2008-05-13 | Atx Group, Inc. | Systems and methods for off-board voice-automated vehicle navigation |
WO2006057839A1 (en) * | 2004-11-23 | 2006-06-01 | Medical Digital Developers Llc | Medical media capture system and method |
JP4305483B2 (ja) * | 2006-09-12 | 2009-07-29 | ソニー株式会社 | 映像信号生成装置,映像信号受信装置及び映像信号生成・受信システム |
US8014756B1 (en) * | 2007-02-28 | 2011-09-06 | Intuit Inc. | Mobile authorization service |
WO2009048984A1 (en) * | 2007-10-08 | 2009-04-16 | The Regents Of The University Of California | Voice-controlled clinical information dashboard |
-
2012
- 2012-10-18 CN CN201280014971.0A patent/CN103460281B/zh active Active
- 2012-10-18 EP EP12844263.9A patent/EP2665059B1/en active Active
- 2012-10-18 JP JP2013518032A patent/JP5326066B1/ja active Active
- 2012-10-18 WO PCT/JP2012/076906 patent/WO2013061857A1/ja active Application Filing
-
2013
- 2013-04-19 US US13/866,697 patent/US8903728B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07146696A (ja) | 1993-09-30 | 1995-06-06 | Meidensha Corp | 音声認識における単語テンプレートの自動作成方法 |
JPH11175095A (ja) * | 1997-12-11 | 1999-07-02 | Hitachi Medical Corp | 医用診断装置 |
JP2002122391A (ja) | 2000-10-13 | 2002-04-26 | Technological Research Association Of Super Marine Gas Turbine | 熱交換器 |
JP2002123291A (ja) | 2000-10-18 | 2002-04-26 | Olympus Optical Co Ltd | システム制御装置 |
JP2002132283A (ja) * | 2000-10-25 | 2002-05-09 | Olympus Optical Co Ltd | 医療用制御システム |
JP2003228394A (ja) | 2002-01-31 | 2003-08-15 | Nippon Telegr & Teleph Corp <Ntt> | 音声入力を利用する名詞特定装置およびその方法 |
JP2004199004A (ja) | 2002-12-20 | 2004-07-15 | Olympus Corp | 音声入力医用制御システム |
Non-Patent Citations (1)
Title |
---|
See also references of EP2665059A4 |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105556594A (zh) * | 2013-12-26 | 2016-05-04 | 松下知识产权经营株式会社 | 声音识别处理装置、声音识别处理方法以及显示装置 |
CN105556594B (zh) * | 2013-12-26 | 2019-05-17 | 松下知识产权经营株式会社 | 声音识别处理装置、声音识别处理方法以及显示装置 |
WO2016063564A1 (ja) * | 2014-10-24 | 2016-04-28 | 株式会社ソニー・コンピュータエンタテインメント | 制御装置、制御方法、プログラム及び情報記憶媒体 |
JPWO2016063564A1 (ja) * | 2014-10-24 | 2017-05-25 | 株式会社ソニー・インタラクティブエンタテインメント | 制御装置、制御方法、プログラム及び情報記憶媒体 |
US10339928B2 (en) | 2014-10-24 | 2019-07-02 | Sony Interactive Entertainment Inc. | Control device, control method, program and information storage medium |
US10434412B2 (en) | 2014-10-24 | 2019-10-08 | Sony Interactive Entertainment Inc. | Control apparatus, control method, program, and information storage medium |
CN108055617A (zh) * | 2017-12-12 | 2018-05-18 | 广东小天才科技有限公司 | 一种麦克风的唤醒方法、装置、终端设备及存储介质 |
WO2019116644A1 (ja) * | 2017-12-13 | 2019-06-20 | オリンパス株式会社 | 内視鏡システムおよび制御方法 |
US10993608B2 (en) | 2017-12-13 | 2021-05-04 | Olympus Corporation | Endoscope system and control method |
JP2020190756A (ja) * | 2020-08-24 | 2020-11-26 | ヤマハ株式会社 | 管理装置およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
EP2665059A4 (en) | 2014-09-10 |
JP5326066B1 (ja) | 2013-10-30 |
CN103460281A (zh) | 2013-12-18 |
EP2665059A1 (en) | 2013-11-20 |
JPWO2013061857A1 (ja) | 2015-04-02 |
CN103460281B (zh) | 2015-12-23 |
US8903728B2 (en) | 2014-12-02 |
US20130281987A1 (en) | 2013-10-24 |
EP2665059B1 (en) | 2016-02-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5326066B1 (ja) | 内視鏡手術システム | |
US8010368B2 (en) | Surgical system controlling apparatus and surgical system controlling method | |
JP5356633B1 (ja) | 医療用内視鏡システム | |
US20060184160A1 (en) | Surgery data display device, surgery data storing device, and surgery data storing display method | |
US20060200354A1 (en) | Medical practice support system | |
JP2006280804A (ja) | 内視鏡システム | |
US10130240B2 (en) | Medical system | |
JP2004275360A (ja) | 内視鏡システム | |
US11483515B2 (en) | Image recording and reproduction apparatus, image recording method, and endoscope system | |
JP2006221583A (ja) | 医療支援システム | |
JP2003084794A (ja) | 音声制御システム | |
JP2007080094A (ja) | アプリケーション起動管理システム | |
JP2006221117A (ja) | 医療支援システム | |
JP2004267634A (ja) | 手術システム及び画像表示方法 | |
JP2001299691A (ja) | 内視鏡装置の操作システム | |
JP4727066B2 (ja) | 内視鏡システム | |
JP4464526B2 (ja) | 内視鏡装置の操作システム | |
JP2006218230A (ja) | 医療用システム | |
JP4127769B2 (ja) | 医療制御システム | |
JP2006305155A (ja) | 制御装置 | |
US20230248468A1 (en) | Medical display system, control method, and control device | |
JP2002336183A (ja) | 内視鏡システム | |
JP2003084791A (ja) | 音声制御システム | |
JP2002123294A (ja) | 医療システム | |
JP2006288954A (ja) | 手術システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
ENP | Entry into the national phase |
Ref document number: 2013518032 Country of ref document: JP Kind code of ref document: A |
|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 12844263 Country of ref document: EP Kind code of ref document: A1 |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2012844263 Country of ref document: EP |
|
NENP | Non-entry into the national phase |
Ref country code: DE |