JP4005320B2 - Medical control system - Google Patents

Medical control system Download PDF

Info

Publication number
JP4005320B2
JP4005320B2 JP2001117259A JP2001117259A JP4005320B2 JP 4005320 B2 JP4005320 B2 JP 4005320B2 JP 2001117259 A JP2001117259 A JP 2001117259A JP 2001117259 A JP2001117259 A JP 2001117259A JP 4005320 B2 JP4005320 B2 JP 4005320B2
Authority
JP
Japan
Prior art keywords
voice
keyword
speaker
medical device
medical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001117259A
Other languages
Japanese (ja)
Other versions
JP2002311985A (en
Inventor
剛明 中村
正宏 工藤
征哉 藤田
吉隆 本田
明伸 内久保
一孝 中土
忠博 中野
浩二 安永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2001117259A priority Critical patent/JP4005320B2/en
Publication of JP2002311985A publication Critical patent/JP2002311985A/en
Application granted granted Critical
Publication of JP4005320B2 publication Critical patent/JP4005320B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は複数の機器を音声により制御する医療用制御システムに関する。
【0002】
【従来の技術】
近年、体腔内に細長の挿入部を挿入することにより、体腔内臓器を観察したり必要に応じて処置具を用いて各種治療処置のできる内視鏡が広く利用されている。
【0003】
このような内視鏡下で外科手術を行う外科手術装置としては、例えば本出願人が先に出願した特願2000−319815号や特開平6−178756号公報がある。
【0004】
特願2000−319815号の外科手術装置は、所定の音声を発した人物を特定するための本人同定装置において、特定人物が発した複数の音声を記憶音声として保持するメモリ手段と、所定の入力手段より入力された使用者の音声を識別する識別手段と、前記識別手段により識別された使用者の音声を前記メモリ手段に保持された前記記憶音声に照合し、前記使用者の音声が前記特定人物が発したものか否かを判定する判定手段と、前記判定手段により前記特定人物が発した音声でないと判定された時に前記メモリ手段に記憶された前記複数の記憶音声のうち、少なくとも1つの記憶音声を選択する選択手段と、前記選択手段で選択された記憶音声と同じ音声を発生するよう使用者に告知する告知手段とを備えたものである。
【0005】
また、特開平6−178756号公報の外科手術装置は、音声入力スタートボタンを電子内視鏡の操作部に設け、また、マイクを操作部へ設け、この音声入力スタートボタンの動作後にマイクを介して入力された音声信号により操作用語を識別し、この識別された操作用語に対応した制御を実行するものであって、例えば、フリーズ、VTR記録、VTR停止、ビデオプリント等の操作用語が音声にて識別されると、これらの操作が実行される。従って、多くの操作ボタンによらず、音声にて操作が行えるものである。
【0006】
【発明が解決しようとする課題】
しかしながら、外科手術の手技は一般に複数人、例えばメインドクタ、サブドクタ及びナースで行われる。上記特願2000−319815号の外科手術装置では、特定の話者の音声を認識し外科手術に用いられる医療装置を操作するものであるが、不特定話者の音声を認識させておけば不特定話者の音声でも医療装置を操作できるようになるので、特定話者が意図しない操作が行われる恐れがある。
【0007】
また、上記特開平6−178756号公報の外科手術装置では、フリーズ、VTR記録、ビデオプリンタのように手技におけるリスクが低い機器の音声操作の技術が開示されているのみで、手技におけるリスクが高い装置(例えば、電気メス)とリスクが低い装置が混在している場合、誰もがリスクが高い装置を音声操作ができることが可能となり、術者は、リスクの高い装置に関して意図しない音声操作が行われないか術者以外の音声操作を常に監視しなければならず、術者の負担が大きくなるという問題があった。
【0008】
本発明は、上記事情に鑑みてなされたものであり、特定話者の音声と不特定話者の音声を確実に識別し、音声により複数の機器を容易に操作すると共に、特定の話者の意図しない操作を確実に防止することのできる医療用制御システムを提供することを目的としている。
【0009】
【課題を解決するための手段】
本発明の一態様による医療用制御システムは、所定の制御信号を入力し、該所定の制御信号に基づき所定の医療機器の機能を制御する医療機器制御手段と、
音声操作を承認するメインドクターの音声入力による許可の下に前記医療機器の操作が可能な話者が発する、前記所定の医療機器を制御する第1のキーワードを、登録されている前記第1のキーワードとの類似度を判定することにより第1のキーワードであるか否かを判定する不特定話者認識手段と、
前記不特定話者認識手段によって第1のキーワードとして判定されたとき、当該第1のキーワードの音声による前記所定の医療機器制御を許可するか否かとして発せられた前記第1のキーワードとは異なる第2のキーワードが、音声操作を承認するメインドクターの音声入力によるものであるか否かを判断する特定話者認識手段と、
を備えている。
【0010】
【発明の実施の形態】
以下、図面を参照しながら本発明の実施の形態について述べる。
【0011】
図1ないし図7は本発明の第1の実施の形態に係わり、図1は外科手術システムの構成を示す構成図、図2は図1のシステムコントローラの構成を示すブロック図、図3は図2の特定話者照合部及び不特定話者認識エンジンの内部構造示すブロック図、図4は図2のシステムコントローラの作用を説明する第1のフローチャート、図5は図2のシステムコントローラの作用を説明する第2のフローチャート、図6は図2のシステムコントローラの作用を説明する第3のフローチャート、図7は図2のシステムコントローラの作用を説明する第4のフローチャートである。
【0012】
図1に示すように内視鏡1を使用して外科手術を行う外科手術システム10では、使用する周辺医療用機器の種類が多く、1台のカートに各種医療用機器を収めることができないため、これら複数の医療用機器を数台のカート20,30に分けて搭載する一方、これらのカートをほぼ一ヶ所に集めて操作性を向上させるように努めている。
【0013】
例えば、前記第1のカート20にはモニタ21,集中表示パネル22,第1TVカメラ23a,第1光源24a,第2TVカメラ23b,第2光源24b,システムコントローラ25,ビデオミキサー26,VTR27,分配器28,通信用コネクタ29などが搭載されており、第2カート30にはモニタ31,電気メス32,気腹器33,CO2 ボンベ34,吸引ボトル35,分配器36,通信用コネクタ37などが搭載されている。
【0014】
そして、各種医療用機器は、第1のカート20及び第2のカート30内で図示しない通信ケーブルを介してそれぞれのカート20,30に配設されている分配器28,36と電気的に接続されている。また、第1のカート20と第2のカート30とは通信ケーブルを内設したユニバーサルケーブル51を介して電気的に接続されている。さらに、第1カート20及び第2カート30と周辺機器コントローラ40とは通信ケーブルを内設したユニバーサルコード52を介して電気的に接続されている。
【0015】
前記周辺機器コントローラ40には第1のカート20及び第2のカート30に搭載されている医療用機器のうち頻繁に使う必要のある設定スイッチが集中制御入力手段である集中制御操作部41に集約されるようになっている。集中制御操作部41では、設定スイッチがタッチパネルが設けられたモニタ上に表示され、該設定スイッチはモニタに設けられたタッチパネルにより選択的に押下できるようになっている。
【0016】
すなわち、集中制御操作部41には各医療用機器の設定に関するスイッチのうち頻繁に使用するものだけを限定して集約し、人体に対してエネルギーの照射を司る出力部の誤操作を避けるため出力制御部を別に設ける構成としている。
【0017】
前記システムコントローラ25にはメインドクター用マイク61、サブドクター用マイク62及びナース用マイク63が接続され、各々が医療機器をコントロールできるようになっている。
【0018】
図2はシステムコントローラ25の概略構成を示すブロック図である。システムコントローラ25は、メインドクターがメインドクター用マイク61から音声操作を開始する単語を登録する特定話者照合回路70と、メインドクター用マイク61、サブドクター用マイク62及びナース用マイク63から機能操作の単語を認識する不特定話者認識エンジン71と、外部機器との交信を司る通信I/F72と、これら回路を制御するCPU73とから構成され、メインドクター用マイク61、サブドクター用マイク62及びナース用マイク63からの音声により、例えば第1TVカメラ23a,第2TVカメラ23b,第1光源24a,第2光源24b,電気メス32,気腹器33をコントロールできるようになっている。
【0019】
また、前記CPU73にはフットスイッチ74が接続され、メインドクターがフットスイッチ74を踏み込むことで、CPU73はサブドクター及びナースが機器をコントロールできないように制御するようになっている。すなわち、フットスイッチ74を操作することにより、サブドクター及びナースを特定話者あるいは不特定話者に設定することができ、サブドクター及びナースは不特定話者と設定されると、システムコントローラ25における後述する音声による特定話者としての認知が拒絶される。
【0020】
詳細には、図3に示すように、システムコントローラ25は、音声を入力するためのメインドクター用マイク61、サブドクター用マイク62及びナース用マイク63及び音声入力回路100とからなる音声入力部101と、前記音声入力部101から入力された音声の特微量を抽出する特微量抽出回路102と、特徴量抽出回路102が抽出したキーワードの特微量を特徴量データとして記録する記憶回路103と、特微量抽出回路102が抽出した音声の特微量と記憶回路37に記憶されたキーワードの特徴量データより音声の類似度を算出する類似度算出回路104と、電気メス32、気腹器33等の周辺装置105を制御するとともに集中表示パネル22、集中制御操作部41等の表示装置106に所望のメッセージ等を表示させるコントロール回路107と、類似度算出回路104の算出結果に基づき音声による本人同定判定を行うと共に本人同定がなされた際に特微量抽出回路102が抽出した音声の特微量に基づきコントロール回路107を制御するCCU73と、CCU73の制御により表示装量106に音声入力を促すメッセージを表示させるようにコントロール回路107に指示する音声指示回路108とを備えて構成される。
【0021】
なお、前記特微量抽出回路102、記憶回路103、類似度算出回路104は図2に示したす特定話者照合部70及び不特定話者認識エンジン71の内部構造を示すものであるため二つの回路が必要である(説明の理解度を高めるため図3においては省略している)。
【0022】
また、図2の通信I/F72に相当する回路は、コントロール回路107及び音声指示回路108とから構成される。
【0023】
CCU73は、図示しない登録スイッチがオンの際には、音声指示回路108に対してキーワード登録を促すメッセージの指示を行うと共に、入力されたキーワードの特微量を特微量データとして記憶回路103に記録させるように特微量抽出回路102を制御する。また、CCU73は、本人同定時には、特微量抽出回路102からの特微量に基づき入力された周辺機器105の制御のための音声情報に応じた制御信号をコントロール回路107に出力する。これにより、コントロール回路107が入力された音声に応じて周辺機器105に対して各種設定を行う。
【0024】
次に、このよ.うに構成された本実施の形態のシステムコントローラ25の作用について説明する。
【0025】
図4ないし図7に示すように、CPU73は、ステップS1で図示しないキーワード登録スイッチがONされてメインドクターによる音声認識が開始されると、ステップS2で音声指示回路108を制御しキーワード発生入力を促すメッセージを表示装置106に表示させる。
【0026】
このメッセージは周辺装置105を操作するキーワードと異なるものとすることが必要である。
【0027】
そこで、例えばメインドクターがサブドクター等に音声で操作をすることを承認するためのキーワードとして「OK」、承認しないときのキーワードとして「NO」及び音声操作を開始するキーワードとして「START」を表示装置106に表示させ、メインドクターは表示された全てのキーワードを発声する。
【0028】
続いてCPU73は、ステップS3で特定話者照合部70を作動させ、音声の認識を開始し、ステップS4で特微量抽出回路102によって音声の特徴抽出が行われると共に、ステップS5で類似度算出回路104にてすでに登録がされている記憶回路103内より入力音声である「OK」、「NO」及び「START」に近い特徴データーを探し出し類似度算出が表1に基づいて行われる。
【0029】
【表1】

Figure 0004005320
予め入力されている情報と一致していると判定された場合(表1の判定レベルが曖昧以上の類似度80%以上の場合)には、CPU73は、ステップS6において類似度算出回路104により類似度レベルの判定が行われ、「曖昧」レベル以下の場合(類似度79%以下の場合)ではCPU73は音声指示回路108を制御し再発声要求指示メッセージを表示装置106に表示させ再度発声が促しステッブS2に戻る。
【0030】
また、ステップS6で「一致」と判断すると、CPU73は、ステップS7で話者照合を開始する。ステップS8、9では上記ステップS4,5と同じ作用が行われ、続いてステップ10で入力された音声がメインドクターの音声であるかが表2に基づいて判断される。
【0031】
【表2】
Figure 0004005320
このとき「メインドクター本人」のレベルと判断すると、CPU73は、ステップ11で所定時間経過したか判断し、経過していなければ次のステップS12に移行し、所定時間経過してしまったらステップS2に戻り再度音声入力する。
【0032】
なお、上記ステップS2〜S6とステップS7〜S10のステップは実際には並行して行った方が効率的である。
【0033】
続いてCPU73は、不特定話者認識エンジン71を作動させ、ステップ12でメインドクターより表3に示すような機能を操作するキーワードを順次メインドクター用マイク61で音声登録を行う。
【0034】
【表3】
Figure 0004005320
ステッブS12で、例えば、「電気メス」とメインドクターがメインドクター用マイク61を使い発声すると、音声入力回路100を介してその音声情報は次段の特微量抽出回路102にて音声の特徴抽出が行われ、記憶回路103のデータエリア内のアドレス(1a、1b)に「電気メス」の特徴データが記録・更新される。
【0035】
この処理は、必要なキーワード登録が完了するまで繰り返される。表3は9個のキーワード(単語)を登録した状態を示している。
【0036】
このようにして、メインドクターによるキーワード登録が終了し、例えば、術中にメインドクターが電気メスの設定を変更する場合には、CPU73は、ステップS13からステップS14に処理を移行する。
【0037】
すなわち、設定変更を行う本人がメインドクター用マイク61に向かい「電気メス」と発声を行うと、CPU73は、不特定話者認識エンジン71を作動させ、ステップS13で特微量抽出回路102にて音声の特徴抽出を行うと共に、ステップS14で類似度算出回路104にて既に登録がされている記憶回路103内より入力音声である「電気メス」に近い特徴データを探し出し、類似度算出を行う。
【0038】
そして、CPU73は、ステップS15で類似度を判定し、音声が登録されていない「他人」のものであるかどうか判断する。ここで、類似度は、例えば、表2に示すような、レベル付けが予め行われている。また、類似度は任意に設定が可能である。類似度を高くすればより「他人」としての排他率を高めることができ、逆に本人であったとしても排他される可能性が高まることになる。
【0039】
ステップS15でCPU73の判断により本人ではない(キーワード(単語)登録を行った本人ではない状態:「他人」)と判定された場合で、表2の「他人」レベルの場合にはエラーメッセージが表示装置106に表示され、再度発声を促されることになり、ステップS 1 1に戻る。
【0040】
また、CPU73は、ステップS1 5で表2の「本人」レベルと判断すると、ステップS16において本人であることの同定を行い、その後の音声情報によりコントロール回路107を介して周辺機器105の設定、変更が行われ、表示装置106の表示の変更も行われる。
【0041】
一方、ステップS10でメインドクターでないと判断されると、CPU73は、ステップ17で所定時間経過したか判断し、経過していなければ次のステップS18に移行し、一定時間経過してしまったらステップS2に戻り再度音声入力する。
【0042】
一定時間経過していない場合は、サブドクター又はナースはステップS18で表3に示す機能を操作するキーワードを順次サブドクター用マイク62またはナース用マイク63で音声登録する。
【0043】
ステップS18で「電気メス」とサブドクター用マイク62またはナース用マイク63を使い発声すると、CPU73は、不特定話者認識エンジン71を作動させ、ステップS19では特微量抽出回路102にて音声入力回路100を介した音声情報の特徴抽出を行い、記憶回路103のデータエリア内のアドレス(1a、lb)に「電気メス」の特徴データを記録・更新する。この処理は、必要なキーワード登録が完了するまで繰り返される。表3は、9個のキーワード(単語)を登録した状態を示している。
【0044】
このようにして、サブドクター又はナースによるキーワード登録は終了し、例えば、術中にサブドクターまたはナースが電気メスの設定を変更する場合には、ステップS19からステップS20に処理が移行する。
【0045】
すなわち、設定変更を行う本人がサブドクター用マイク62またはナース用マイク63に向かい「電気メス」と発声を行うと、CPU73は、不特定話者認識エンジン71を作動させ、ステップS19で特微量抽出回路102にて音声の特徴抽出を行うと共に、ステップS2Oで類似度算出回路104にて既に登録がされている記憶回路103内より入力音声である「電気メス」に近い特徴データを探し出し、類似度算出を行い、ステップS21でCPU29が類似度を判定し、音声が登録されていない「他人」のものであるかどうか判断する。
【0046】
ここで、類似度は、例えば、表2に示すようなレベル付けが予め行われている。また、類似度は任意に設定が可能であり、類似度を高くすればより「他人」としての排他率を高めることができ、逆に本人であったとしても排他される可能性が高まることになる。
【0047】
ステップS21でCPU73の判断により、本人ではないと判定された場合で、表2の「他人」レベルの場合には、エラーメッセージが表示装置106に表示され、再度発声を促されることになり、ステップS17に戻る。
【0048】
類似度レベルが規定値以上であると、次のステッブS22に進み、メインドクターの指示を待つことになる。
【0049】
ここでメインドクターがサブドクター又はナースに音声操作を許可するには、ステップS23で、メインドクターがステップ2で登録した「OK」を音声入力する。この音声入力をすることにより、CPU73は、ステップS24で特定話者照合部70を作動させ、ステップS25で特徴量抽出回路102によって音声の特徴抽出が行われると共に、ステップS26で類似度算出回路104にすでに登録がされている記憶回路103内より入力音声である「OK」に近い特徴データーを探し出し類似度算出を行う。
【0050】
そして、CPU73は、ステップS27で入力音声が承認するキーワードであるか判断し、異なる場合はステップS22に戻り、再度音声入力を待ち、一致している場合はステップS28でCPU73は話者照合を行う。
【0051】
ステップS29、30は、上記と同じ作用が行われる。すなわち、CPU73は、ステップS29で特定話者照合部70の特微量抽出回路102にて音声の特徴抽出を行うと共に、ステップS30で類似度算出回路104にて既に登録がされている記憶回路103内より入力音声である「OK」に近い特徴データを探し出し、類似度算出を行う。
【0052】
そして、CPU73は、ステップS31で類似度を判定し、音声が登録されていない「他人」のものであるかどうか判断する。ここで、類似度は、例えば、表2に示すような、レベル付けが予め行われている。また、類似度は任意に設定が可能である。類似度を高くすればより「他人」としての排他率を高めることができ、逆に本人であったとしても排他される可能性が高まることになる。
【0053】
そして、CPU73は、ステップS31で「OK」の音声がメインドクターであるか判断し、一致していないときはステップS22に戻り再度入力し、ステップS16に進み一致していればサブドクター又はナースが音声で医療機器を操作できるようになる。
【0054】
医療機器をサブドクター又はナースが操作している途中でメインドクターが操作を中止させたいときは、ステップS23で「NO」を入力することにより、上記のステップを踏みサブドクター及びナースの医療機器の操作を中止させることができる。
【0055】
このように本実施の形態では、不特定話者認識エンジン71により特定話者の音声(メインドクター)と不特定話者(サブドクター又はナース)の音声を確実に識別し、また不特定話者認識エンジン71及び特定話者照合部70により特定の話者(メインドクター)が意図しない操作を受け付けないようにすることができる。
【0056】
図8は本発明の第2の実施の形態に係るシステムコントローラの構成を示すブロック図である。
【0057】
第2の実施の形態は、第1の実施の形態とほとんど同じであるので、異なる点のみ説明し、同一の構成には同じ符号をつけ説明は省略する。
【0058】
本実施の形態は、図8に示すように、第1の実施の形態の特定話者照合部70に代わり特定話者認識エンジン120を設けたものである。
【0059】
多くの医療器具を使用する内視鏡手術に於いて、スムーズな手術進行のためには術者が滅菌域から機器操作を行えることが重要である。
【0060】
内視鏡外科手術ではTVカメラや光源のように患者に直接関係が無いローリスク機器と、電気メスや超音波処置装置のように患者に直接関係するハイリスク機器が混在して使用されている。不特定話者エンジンを用いたシステムは術者以外の音声で操作できるため術者が意図しない操作が行われることがあり、術者は術者以外の音声操作を常に監視しなければならない。
【0061】
そこで、本実施の形態は、特定話者エンジンと不特定話者エンジンの両方を備え、内視鏡外科手術特有の機器のリスクに応じて認識エンジンを使い分けることで、術者の負担を軽減できるようにしたものである。
【0062】
具体的には、特定話者認識エンジン120にメインドクターがハイリスクの機器、例えば電気メス32、気腹器33を操作する機能操作単語を認識させ、不特定話者認識エンジン71にはメインドクター、サブドクター及びナースがローリスクの機器、例えば第1TVカメラ23a,第2TVカメラ23b,第1光源24a,第2光源24bを操作する機能操作単語を認識させることにより、上記目的を達成させることができる。
【0063】
処理の流れについては第1の実施の形態と同じ流れ(図4ないし図7参照)で操作をすればメインドクター、サブドクターとも機器の操作ができるので説明を省略する。
【0064】
[付記]
(付記項1) 前記医療機器は、内視鏡外科手術特有のリスクが高い機器及びリスクが低い機器である
ことを特徴とする請求項1に記載の医療用制御システム。
【0065】
(付記項2) 前記リスクが高い機器は、電気メス等のエネルギーを使用する外科手術装置である
ことを特徴とする付記項1に記載の医療用制御システム。
【0066】
(付記項3) 前記リスクが低い機器は、TVカメラ、光源装置等の観察装置である
ことを特徴とする付記項1に記載の医療用制御システム。
【0067】
(付記項4) 前記特定の話者は、内視鏡外科手術のメインドクターである
ことを特徴とする請求項1に記載の医療用制御システム。
【0068】
(付記項5) 前記不特定の話者は、内視鏡外科手術のサブドクター又はナースである
ことを特徴とする請求項1に記載の医療用制御システム。
【0069】
(付記項6) 所定の制御信号を入力し、咳制御信号に基づき所定の医療機器の機能を制御する医療機器制御手段と、
特定の話者が発する特定の音声を認識する特定話者認識手段と、
不特定の話者が発する特定の音声を認識する不特定話者認識手段と、
前記特定話者と前記不特定話者の切り替えを行うフットスイッチと
を備えたことを特徴とする医療用制御システム。
【0070】
(付記項7) 一つあるいは複数の医療装置と、
特定話者認識エンジンと不特定話者認識エンジンとを有する前記医療装置の複数の機能を音声により操作可能な音声操作手段と、
前記医療装置の複数の機能に応じて前記音声操作手段が使用する前記特定話者認識エンジンと不特定話者認識エンジンとを切り替る切り替え手段と
を備えたことを特徴とする医療用制御システム。
【0071】
(付記項8) 所定の制御信号を入力し、該制御信号に基づき所定の医療機器の機能を制御する医療機器制御手段と、
特定の第1の話者が発する特定の音声を認識する第1の話者認識手段と、
前記第1の話者とは異なる第2の話者が発する特定の音声を認識する第2の話者認識手段と、
前記第2の話者認識手段で前記第2の話者の音声が認識されたときに、前記第1の話者認識手段で認識された前記第1の話者の音声に基づく制御信号を前記医療機器制御手段に送出する制御信号送出手段と
を備えたことを特徴とする医療用制御システム。
【0072】
【発明の効果】
以上説明したように本発明によれば、特定話者の音声と不特定話者の音声を確実に識別し、音声により複数の機器を容易に操作すると共に、特定の話者の意図しない操作を確実に防止することができるという効果がある。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態に係る外科手術システムの構成を示す構成図
【図2】図1のシステムコントローラの構成を示すブロック図
【図3】図2の特定話者照合部及び不特定話者認識エンジンの内部構造示すブロック図
【図4】図2のシステムコントローラの作用を説明する第1のフローチャート
【図5】図2のシステムコントローラの作用を説明する第2のフローチャート
【図6】図2のシステムコントローラの作用を説明する第3のフローチャート
【図7】図2のシステムコントローラの作用を説明する第4のフローチャート
【図8】本発明の第2の実施の形態に係るシステムコントローラの構成を示すブロック図
【符号の説明】
10…外科手術システム
25…システムコントローラ
61…メインドクター用マイク
62…サブドクター用マイク
63…ナース用マイク
70…特定話者照合回路
71…不特定話者認識エンジン
72…通信I/F
73…CPU
74…フットスイッチ
100…音声入力回路
101…音声入力部
102…特微量抽出回路
103…記憶回路
104…類似度算出回路
105…周辺装置
106…表示装置
107…コントロール回路
108…音声指示回路[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a medical control system that controls a plurality of devices by voice.
[0002]
[Prior art]
2. Description of the Related Art In recent years, endoscopes that can observe various organs in a body cavity by inserting an elongated insertion portion into the body cavity or perform various therapeutic treatments using a treatment tool as necessary have been widely used.
[0003]
As a surgical operation apparatus for performing a surgical operation under such an endoscope, there are, for example, Japanese Patent Application No. 2000-319815 and Japanese Patent Application Laid-Open No. 6-178756 filed earlier by the present applicant.
[0004]
The surgical operation apparatus of Japanese Patent Application No. 2000-319815 is a personal identification device for specifying a person who has made a predetermined voice, a memory means for holding a plurality of voices uttered by a specific person as stored voices, and a predetermined input Identification means for identifying the user's voice input from the means, and the user's voice identified by the identification means is collated with the stored voice held in the memory means, and the user's voice is identified Determining means for determining whether or not a person has uttered, and at least one of the plurality of stored sounds stored in the memory means when the determining means determines that the sound is not emitted by the specific person Selection means for selecting the stored voice and notification means for notifying the user to generate the same voice as the stored voice selected by the selection means.
[0005]
In the surgical operation apparatus disclosed in Japanese Patent Laid-Open No. 6-178756, a voice input start button is provided in the operation unit of the electronic endoscope, and a microphone is provided in the operation unit. The operation term is identified by the voice signal inputted in the above manner, and the control corresponding to the identified operation term is executed. For example, the operation term such as freeze, VTR recording, VTR stop, video print, etc. Once identified, these operations are performed. Therefore, the operation can be performed by voice without using many operation buttons.
[0006]
[Problems to be solved by the invention]
However, surgical procedures are generally performed by multiple people, such as a main doctor, a sub-doctor, and a nurse. In the surgical device of the above Japanese Patent Application No. 2000-319815, the voice of a specific speaker is recognized and the medical device used for the surgery is operated. Since the medical device can be operated even with the voice of a specific speaker, there is a possibility that an operation unintended by the specific speaker may be performed.
[0007]
Further, in the surgical operation apparatus disclosed in Japanese Patent Laid-Open No. 6-178756, only a technique for voice operation of a device having a low risk in the procedure such as freeze, VTR recording, and video printer is disclosed, and the risk in the procedure is high. When devices (for example, electric scalpels) and low-risk devices are mixed, it is possible for everyone to perform voice operations on high-risk devices, and the surgeon performs unintended voice operations on high-risk devices. There is a problem that the operator's burden is increased because it is necessary to constantly monitor voice operations other than the surgeon.
[0008]
The present invention has been made in view of the above circumstances, and can reliably identify the voice of a specific speaker and the voice of an unspecified speaker, easily operate a plurality of devices using the voice, An object of the present invention is to provide a medical control system that can reliably prevent an unintended operation.
[0009]
[Means for Solving the Problems]
A medical control system according to an aspect of the present invention includes a medical device control unit that inputs a predetermined control signal and controls a function of the predetermined medical device based on the predetermined control signal;
voice Approve the operation For voice input of the main doctor The medical device can be operated with permission speaker The first keyword for controlling the predetermined medical device issued from the first keyword is determined by determining the similarity with the registered first keyword. Whether or not Unspecified speaker recognition means,
The unspecified speaker recognition means 1 keyword When it is determined that the voice of the first keyword By the prescribed medical device of Whether to allow control Was issued as Second keyword different from the first keyword Determines whether or not is due to the voice input of the main doctor approving the voice operation Specific speaker recognition means;
It has.
[0010]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0011]
1 to 7 relate to the first embodiment of the present invention, FIG. 1 is a block diagram showing the configuration of the surgical system, FIG. 2 is a block diagram showing the configuration of the system controller of FIG. 1, and FIG. 2 is a block diagram showing the internal structure of the specific speaker verification unit 2 and the non-specific speaker recognition engine, FIG. 4 is a first flowchart illustrating the operation of the system controller of FIG. 2, and FIG. 5 is the operation of the system controller of FIG. FIG. 6 is a third flowchart for explaining the operation of the system controller of FIG. 2, and FIG. 7 is a fourth flowchart for explaining the operation of the system controller of FIG.
[0012]
As shown in FIG. 1, in the surgical operation system 10 for performing a surgical operation using the endoscope 1, there are many types of peripheral medical devices to be used, and various medical devices cannot be stored in one cart. These multiple medical devices are divided into several carts 20 and 30 and mounted, while these carts are collected in almost one place to improve operability.
[0013]
For example, the first cart 20 includes a monitor 21, a central display panel 22, a first TV camera 23a, a first light source 24a, a second TV camera 23b, a second light source 24b, a system controller 25, a video mixer 26, a VTR 27, and a distributor. 28, a communication connector 29 and the like are mounted, and the second cart 30 is equipped with a monitor 31, an electric knife 32, an insufflator 33, a CO2 cylinder 34, a suction bottle 35, a distributor 36, a communication connector 37 and the like. Has been.
[0014]
Various medical devices are electrically connected to the distributors 28 and 36 disposed in the carts 20 and 30 via communication cables (not shown) in the first cart 20 and the second cart 30. Has been. The first cart 20 and the second cart 30 are electrically connected via a universal cable 51 provided with a communication cable. Further, the first cart 20 and the second cart 30 and the peripheral device controller 40 are electrically connected via a universal cord 52 provided with a communication cable.
[0015]
In the peripheral device controller 40, setting switches that are frequently used among the medical devices mounted on the first cart 20 and the second cart 30 are collected in a central control operation unit 41 that is a central control input unit. It has come to be. In the central control operation unit 41, setting switches are displayed on a monitor provided with a touch panel, and the setting switches can be selectively pressed by a touch panel provided on the monitor.
[0016]
That is, the central control operation unit 41 aggregates only frequently used switches related to the settings of each medical device, and outputs control to avoid erroneous operation of the output unit that controls the irradiation of energy to the human body. It is set as the structure which provides a part separately.
[0017]
A main doctor microphone 61, a sub doctor microphone 62, and a nurse microphone 63 are connected to the system controller 25 so that each can control a medical device.
[0018]
FIG. 2 is a block diagram showing a schematic configuration of the system controller 25. The system controller 25 performs a function operation from the specific speaker verification circuit 70 in which the main doctor registers a word for starting voice operation from the main doctor microphone 61, the main doctor microphone 61, the sub-doctor microphone 62, and the nurse microphone 63. The unspecified speaker recognition engine 71 for recognizing the word, the communication I / F 72 that manages communication with an external device, and the CPU 73 that controls these circuits, the main doctor microphone 61, the sub doctor microphone 62, and For example, the first TV camera 23 a, the second TV camera 23 b, the first light source 24 a, the second light source 24 b, the electric knife 32, and the insufflator 33 can be controlled by the sound from the nurse microphone 63.
[0019]
Further, a foot switch 74 is connected to the CPU 73, and when the main doctor steps on the foot switch 74, the CPU 73 controls so that the sub-doctor and the nurse cannot control the device. In other words, by operating the foot switch 74, the sub-doctor and nurse can be set as a specific speaker or non-specific speaker. When the sub-doctor and nurse are set as non-specific speakers, the system controller 25 Recognition as a specific speaker by voice, which will be described later, is rejected.
[0020]
Specifically, as shown in FIG. 3, the system controller 25 includes an audio input unit 101 including a main doctor microphone 61, a sub doctor microphone 62, a nurse microphone 63, and an audio input circuit 100 for inputting audio. A feature quantity extraction circuit 102 that extracts the feature quantity of the voice input from the voice input unit 101; a storage circuit 103 that records the feature quantity of the keyword extracted by the feature quantity extraction circuit 102 as feature quantity data; The similarity calculation circuit 104 that calculates the similarity of speech from the feature amount of the voice extracted by the micro extraction circuit 102 and the keyword feature data stored in the storage circuit 37, and the periphery of the electric knife 32, the abdominal stomach 33, etc. The device 105 is controlled, and a desired message or the like is displayed on the display device 106 such as the central display panel 22 and the central control operation unit 41. Based on the calculation results of the control circuit 107 and the similarity calculation circuit 104, voice identification identification is performed and the control circuit 107 is controlled based on the voice feature extracted by the feature extraction circuit 102 when the identity is identified. The CCU 73 and a voice instruction circuit 108 that instructs the control circuit 107 to display a message prompting voice input on the display device 106 under the control of the CCU 73 are configured.
[0021]
The feature extraction circuit 102, the storage circuit 103, and the similarity calculation circuit 104 show the internal structure of the specific speaker verification unit 70 and the unspecified speaker recognition engine 71 shown in FIG. A circuit is necessary (not shown in FIG. 3 to enhance the understanding of the explanation).
[0022]
A circuit corresponding to the communication I / F 72 in FIG. 2 includes a control circuit 107 and a voice instruction circuit 108.
[0023]
When the registration switch (not shown) is turned on, the CCU 73 instructs the voice instruction circuit 108 to prompt a keyword registration, and records the input amount of the keyword in the storage circuit 103 as the amount data. In this way, the feature quantity extraction circuit 102 is controlled. Further, the CCU 73 outputs to the control circuit 107 a control signal corresponding to the sound information for controlling the peripheral device 105 input based on the feature amount from the feature amount extraction circuit 102 at the time of identification. Thereby, the control circuit 107 performs various settings for the peripheral device 105 in accordance with the input voice.
[0024]
Next, the operation of the system controller 25 of the present embodiment configured as described above will be described.
[0025]
As shown in FIGS. 4 to 7, when a keyword registration switch (not shown) is turned on in step S1 and voice recognition by the main doctor is started, the CPU 73 controls the voice instruction circuit 108 in step S2 to input a keyword. A prompt message is displayed on the display device 106.
[0026]
This message needs to be different from the keyword for operating the peripheral device 105.
[0027]
Therefore, for example, “OK” is displayed as a keyword for approving that the main doctor operates the sub-doctor with voice, “NO” is displayed as a keyword when not approved, and “START” is displayed as a keyword for starting voice operation. The main doctor speaks all the displayed keywords.
[0028]
Subsequently, the CPU 73 operates the specific speaker verification unit 70 in step S3 to start speech recognition. In step S4, the feature extraction circuit 102 performs voice feature extraction, and in step S5, the similarity calculation circuit. Based on Table 1, feature data close to “OK”, “NO”, and “START” as input voices are searched from the storage circuit 103 already registered in 104.
[0029]
[Table 1]
Figure 0004005320
When it is determined that the information matches the information input in advance (when the determination level in Table 1 is 80% or more of a similarity level that is more than ambiguous), the CPU 73 uses the similarity calculation circuit 104 to perform similarity in step S6. When the degree level is determined and the level is less than the “ambiguous” level (when the degree of similarity is 79% or less), the CPU 73 controls the voice instruction circuit 108 to display the recurrent voice request instruction message on the display device 106 and prompts the voice again. Return to step S2.
[0030]
On the other hand, if it is determined as “match” in step S6, the CPU 73 starts speaker verification in step S7. In steps S8 and S9, the same operation as in steps S4 and S5 is performed, and it is determined based on Table 2 whether the voice input in step S10 is the voice of the main doctor.
[0031]
[Table 2]
Figure 0004005320
At this time, if it is determined that the level is “main doctor”, the CPU 73 determines in step 11 whether or not a predetermined time has elapsed. If not, the CPU 73 proceeds to the next step S12, and if the predetermined time has elapsed, proceeds to step S2. Return and input voice again.
[0032]
It should be noted that the steps S2 to S6 and steps S7 to S10 are actually more efficient when performed in parallel.
[0033]
Subsequently, the CPU 73 activates the unspecified speaker recognition engine 71, and in step 12, the main doctor sequentially performs voice registration of keywords for operating functions as shown in Table 3 using the main doctor microphone 61.
[0034]
[Table 3]
Figure 0004005320
In step S12, for example, when the “electric knife” and the main doctor utter using the main doctor microphone 61, the voice information is extracted by the feature extraction circuit 102 in the next stage via the voice input circuit 100. The characteristic data of “electric knife” is recorded / updated at addresses (1a, 1b) in the data area of the storage circuit 103.
[0035]
This process is repeated until necessary keyword registration is completed. Table 3 shows a state in which nine keywords (words) are registered.
[0036]
Thus, the keyword registration by the main doctor is completed. For example, when the main doctor changes the setting of the electric knife during the operation, the CPU 73 shifts the process from step S13 to step S14.
[0037]
That is, when the person who changes the setting speaks to the main doctor microphone 61 and speaks “electric knife”, the CPU 73 activates the unspecified speaker recognition engine 71, and the special trace extraction circuit 102 performs voice in step S 13. In step S14, feature data close to the “electric knife” that is the input voice is searched from the storage circuit 103 already registered in the similarity calculation circuit 104, and the similarity is calculated.
[0038]
Then, the CPU 73 determines the degree of similarity in step S15, and determines whether the voice is of “others” whose voice is not registered. Here, the similarity is leveled in advance as shown in Table 2, for example. Also, the similarity can be arbitrarily set. If the degree of similarity is increased, the exclusion rate as “another person” can be increased, and conversely, even if the person is the person himself, the possibility of exclusion is increased.
[0039]
If it is determined in step S15 that the user is not the person (the person who is not the person who registered the keyword (word): “other person”), and an error message is displayed in the case of the “other person” level in Table 2. It will be displayed on the device 106 and will be prompted to speak again, and the process returns to step S 1 1.
[0040]
If the CPU 73 determines that it is the “person” level in Table 2 in step S 15, it identifies the person in step S 16 and sets or changes the peripheral device 105 via the control circuit 107 based on the subsequent audio information. The display on the display device 106 is also changed.
[0041]
On the other hand, step S 10 If it is determined at step 17 that the predetermined time has not elapsed, the CPU 73 determines whether or not a predetermined time has elapsed. If not, the CPU 73 proceeds to the next step S18. input.
[0042]
If the predetermined time has not elapsed, the sub-doctor or nurse sequentially registers the keywords for operating the functions shown in Table 3 using the sub-doctor microphone 62 or the nurse microphone 63 in step S18.
[0043]
When the “electrical knife” and the sub-doctor microphone 62 or the nurse microphone 63 are used to utter in step S18, the CPU 73 activates the unspecified speaker recognition engine 71. The feature information of the voice information via 100 is extracted, and the feature data of “electric knife” is recorded / updated at the address (1a, lb) in the data area of the storage circuit 103. This process is repeated until necessary keyword registration is completed. Table 3 shows a state in which nine keywords (words) are registered.
[0044]
In this way, keyword registration by the sub-doctor or nurse is completed. For example, when the sub-doctor or nurse changes the setting of the electric knife during the operation, the process proceeds from step S19 to step S20.
[0045]
That is, when the person who changes the setting speaks “electric knife” toward the sub-doctor microphone 62 or the nurse microphone 63, the CPU 73 activates the unspecified speaker recognition engine 71 and extracts the characteristic amount in step S19. The feature extraction of the voice is performed by the circuit 102, and the feature data close to the “electric knife” which is the input voice is searched from the storage circuit 103 already registered by the similarity calculation circuit 104 in step S2O. In step S21, the CPU 29 determines the degree of similarity, and determines whether the sound belongs to “others” who are not registered.
[0046]
Here, for example, leveling as shown in Table 2 is performed in advance on the similarity. In addition, the degree of similarity can be set arbitrarily, and if the degree of similarity is increased, the exclusion rate as “others” can be increased, and conversely, even if the person is the person himself, the possibility of being excluded increases. Become.
[0047]
If it is determined by the CPU 73 in step S21 that the person is not the person and the “other person” level in Table 2 is displayed, an error message is displayed on the display device 106, and the user is prompted to speak again. Return to S17.
[0048]
If the similarity level is greater than or equal to the specified value, the process proceeds to the next step S22 and waits for an instruction from the main doctor.
[0049]
Here, the main doctor allows the sub-doctor or nurse to operate the voice. S23 Then, the main doctor inputs “OK” registered in step 2 by voice. By inputting this voice, the CPU 73 activates the specific speaker verification unit 70 in step S24, and the voice feature extraction is performed by the feature amount extraction circuit 102 in step S25, and the similarity calculation circuit 104 in step S26. The feature data close to “OK”, which is the input voice, is searched from the storage circuit 103 that has already been registered, and the similarity is calculated.
[0050]
Then, the CPU 73 determines whether or not the input voice is a keyword to be approved in step S27, and if different, returns to step S22, waits for voice input again, and if they match, the CPU 73 performs speaker verification in step S28. .
[0051]
In steps S29 and S30, the same operation as described above is performed. That is, the CPU 73 performs voice feature extraction in the feature extraction circuit 102 of the specific speaker verification unit 70 in step S29, and in the storage circuit 103 already registered in the similarity calculation circuit 104 in step S30. Further, feature data closer to “OK” that is the input voice is searched for, and the similarity is calculated.
[0052]
Then, the CPU 73 determines the degree of similarity in step S31, and determines whether the sound is of “others” whose voice is not registered. Here, the similarity is leveled in advance as shown in Table 2, for example. Also, the similarity can be arbitrarily set. If the degree of similarity is increased, the exclusion rate as “another person” can be increased, and conversely, even if the person is the person himself, the possibility of exclusion is increased.
[0053]
In step S31, the CPU 73 determines whether or not the voice of “OK” is the main doctor. If the voices do not match, the CPU 73 returns to step S22 to input again. If the voices match, the process proceeds to step S16. Medical devices can be operated with voice.
[0054]
If the main doctor wants to stop the operation while the sub-doctor or nurse is operating the medical device, enter “NO” in step S23 to take the above steps and The operation can be stopped.
[0055]
As described above, in this embodiment, the unspecified speaker recognition engine 71 reliably identifies the voice of the specific speaker (main doctor) and the unspecified speaker (sub-doctor or nurse), and also specifies the unspecified speaker. The recognition engine 71 and the specific speaker verification unit 70 can prevent an operation not intended by a specific speaker (main doctor) from being accepted.
[0056]
FIG. 8 is a block diagram showing the configuration of the system controller according to the second embodiment of the present invention.
[0057]
Since the second embodiment is almost the same as the first embodiment, only different points will be described, and the same components are denoted by the same reference numerals and description thereof will be omitted.
[0058]
In this embodiment, as shown in FIG. 8, a specific speaker recognition engine 120 is provided in place of the specific speaker verification unit 70 of the first embodiment.
[0059]
In endoscopic surgery using many medical instruments, it is important for the surgeon to be able to operate the instrument from the sterilized area for smooth progress of surgery.
[0060]
Endoscopic surgery uses a mixture of low-risk devices that are not directly related to the patient, such as TV cameras and light sources, and high-risk devices that are directly related to the patient, such as an electric knife and an ultrasonic treatment device. Since a system using an unspecified speaker engine can be operated with a voice other than the surgeon, an operation unintended by the surgeon may be performed, and the surgeon must always monitor voice operations other than the surgeon.
[0061]
Therefore, the present embodiment includes both a specific speaker engine and an unspecified speaker engine, and can reduce the burden on the operator by using different recognition engines according to the risks of equipment peculiar to endoscopic surgery. It is what I did.
[0062]
Specifically, the specific speaker recognition engine 120 causes the main doctor to recognize a high-risk device, for example, a function operation word for operating the electric scalpel 32 and the insufflator 33, and the unspecified speaker recognition engine 71 The above-mentioned object can be achieved by recognizing functional operation words for operating the low-risk devices such as the first TV camera 23a, the second TV camera 23b, the first light source 24a, and the second light source 24b. .
[0063]
The processing flow is the same as that in the first embodiment (see FIGS. 4 to 7), and the operation of the device can be performed for both the main doctor and the sub-doctor.
[0064]
[Appendix]
(Additional Item 1) The medical device is a device with a high risk and a device with a low risk peculiar to endoscopic surgery.
The medical control system according to claim 1.
[0065]
(Additional Item 2) The high-risk device is a surgical device that uses energy such as an electric knife.
Item 2. The medical control system according to Item 1, wherein
[0066]
(Additional Item 3) The low-risk device is an observation device such as a TV camera or a light source device.
Item 2. The medical control system according to Item 1, wherein
[0067]
(Additional Item 4) The specific speaker is a main doctor in endoscopic surgery.
The medical control system according to claim 1.
[0068]
(Additional Item 5) The unspecified speaker is a sub-doctor or nurse of endoscopic surgery.
The medical control system according to claim 1.
[0069]
(Additional Item 6) Medical device control means for inputting a predetermined control signal and controlling the function of the predetermined medical device based on the cough control signal;
A specific speaker recognition means for recognizing a specific voice emitted by a specific speaker;
Unspecified speaker recognition means for recognizing a specific voice emitted by an unspecified speaker;
A foot switch for switching between the specific speaker and the non-specific speaker;
A medical control system comprising:
[0070]
(Additional Item 7) One or more medical devices;
A voice operation means capable of operating a plurality of functions of the medical device having a specific speaker recognition engine and an unspecified speaker recognition engine by voice;
Switching means for switching between the specific speaker recognition engine and the unspecified speaker recognition engine used by the voice operation means according to a plurality of functions of the medical device;
A medical control system comprising:
[0071]
(Additional Item 8) Medical device control means for inputting a predetermined control signal and controlling the function of the predetermined medical device based on the control signal;
First speaker recognition means for recognizing a specific voice emitted by a specific first speaker;
Second speaker recognition means for recognizing a specific voice emitted by a second speaker different from the first speaker;
When the voice of the second speaker is recognized by the second speaker recognition means, a control signal based on the voice of the first speaker recognized by the first speaker recognition means is Control signal sending means for sending to the medical device control means;
A medical control system comprising:
[0072]
【The invention's effect】
As described above, according to the present invention, the voice of a specific speaker and the voice of an unspecified speaker are reliably identified, and a plurality of devices can be easily operated by voice, and an operation unintended by a specific speaker can be performed. There is an effect that it can be surely prevented.
[Brief description of the drawings]
FIG. 1 is a configuration diagram showing a configuration of a surgical operation system according to a first embodiment of the present invention.
FIG. 2 is a block diagram showing the configuration of the system controller of FIG.
FIG. 3 is a block diagram showing the internal structure of the specific speaker verification unit and unspecified speaker recognition engine of FIG. 2;
FIG. 4 is a first flowchart for explaining the operation of the system controller of FIG.
FIG. 5 is a second flowchart for explaining the operation of the system controller of FIG. 2;
6 is a third flowchart for explaining the operation of the system controller of FIG.
7 is a fourth flowchart for explaining the operation of the system controller of FIG.
FIG. 8 is a block diagram showing a configuration of a system controller according to a second embodiment of the present invention.
[Explanation of symbols]
10 ... Surgery system
25 ... System controller
61 ... Microphone for main doctor
62 ... Sub-doctor microphone
63 ... Nurse microphone
70 ... Specific speaker verification circuit
71: Unspecified speaker recognition engine
72 ... Communication I / F
73 ... CPU
74 ... Foot switch
100: Voice input circuit
101 ... Voice input unit
102 ... Special trace extraction circuit
103: Memory circuit
104. Similarity calculation circuit
105. Peripheral device
106: Display device
107: Control circuit
108: Voice instruction circuit

Claims (4)

所定の制御信号を入力し、該所定の制御信号に基づき所定の医療機器の機能を制御する医療機器制御手段と、
音声操作を承認するメインドクターの音声入力による許可の下に前記医療機器の操作が可能な話者が発する、前記所定の医療機器を制御する第1のキーワードを、登録されている前記第1のキーワードとの類似度を判定することにより第1のキーワードであるか否かを判定する不特定話者認識手段と、
前記不特定話者認識手段によって第1のキーワードとして判定されたとき、当該第1のキーワードの音声による前記所定の医療機器制御を許可するか否かとして発せられた前記第1のキーワードとは異なる第2のキーワードが、音声操作を承認するメインドクターの音声入力によるものであるか否かを判断する特定話者認識手段と、
を備えたことを特徴とする医療用制御システム。
Medical device control means for inputting a predetermined control signal and controlling the function of the predetermined medical device based on the predetermined control signal;
The medical device operating under the permission of the voice input of the main doctor to approve the voice operation speaker emits possible, the first keywords for controlling the predetermined medical device, the registered first a speaker independent recognition means for determining whether a first keyword by determining the keyword similarity,
Wherein when it is determined as the first keyword by unspecified speaker recognition means, the said first keyword wherein said first keyword emitted as whether or not to permit control of the predetermined medical device by voice Specific speaker recognition means for determining whether or not the different second keyword is due to voice input of a main doctor who approves voice operation ;
A medical control system comprising:
前記不特定話者認識手段により前記操作が可能な話者が発する前記第1のキーワードとして判定された後、前記メインドクターが発する前記第2のキーワードが前記特定話者認識手段で認識された際、前記不特定話者認識手段で判定された前記操作が可能な話者が発する第1のキーワードに基づく制御信号を前記医療機器制御手段に送出する制御信号送出手段を備えたことを特徴とする請求項1に記載の医療用制御システム。When the second keyword issued by the main doctor is recognized by the specific speaker recognition unit after being determined as the first keyword issued by the speaker capable of the operation by the unspecified speaker recognition unit And a control signal sending means for sending a control signal based on a first keyword issued by the speaker capable of the operation determined by the unspecified speaker recognition means to the medical device control means. The medical control system according to claim 1. 前記第2のキーワードが、当該第2のキーワードによる前記所定の医療機器の操作を中止するためのものである場合、前記制御信号送出手段は、前記第1のキーワードによる前記所定の医療機器の操作を中止することを特徴とする請求項1に記載の医療用制御システム。  When the second keyword is for canceling the operation of the predetermined medical device by the second keyword, the control signal sending means operates the predetermined medical device by the first keyword. The medical control system according to claim 1, wherein the medical control system is stopped. 前記不特定話者認識手段による前記操作が可能な話者が発する第1のキーワードの認知を拒絶するための入力手段をさらに備えたことを特徴とする請求項1乃至3の何れか一つに記載の医療用制御システム。4. An input unit for rejecting recognition of a first keyword issued by a speaker capable of performing the operation by the unspecified speaker recognition unit. The medical control system described.
JP2001117259A 2001-04-16 2001-04-16 Medical control system Expired - Fee Related JP4005320B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001117259A JP4005320B2 (en) 2001-04-16 2001-04-16 Medical control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001117259A JP4005320B2 (en) 2001-04-16 2001-04-16 Medical control system

Publications (2)

Publication Number Publication Date
JP2002311985A JP2002311985A (en) 2002-10-25
JP4005320B2 true JP4005320B2 (en) 2007-11-07

Family

ID=18967856

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001117259A Expired - Fee Related JP4005320B2 (en) 2001-04-16 2001-04-16 Medical control system

Country Status (1)

Country Link
JP (1) JP4005320B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10740552B2 (en) 2014-10-08 2020-08-11 Stryker Corporation Intra-surgical documentation system

Also Published As

Publication number Publication date
JP2002311985A (en) 2002-10-25

Similar Documents

Publication Publication Date Title
US9424845B2 (en) Speaker verification in a health monitoring system
JP4823687B2 (en) Surgery system controller
JP4832770B2 (en) Medical support system
JP2012505716A (en) Voice activation system for surgical instrument and method thereof
JP2006081664A (en) Medical system and method for controlling medical system
JP2004275360A (en) Endoscope system
WO2020116224A1 (en) Information processing device, presentation method, and surgical operation system
JP4005320B2 (en) Medical control system
JP2006221583A (en) Medical treatment support system
KR102195825B1 (en) System for guiding surgical operation through alarm function and method therefor
JP4127769B2 (en) Medical control system
JP2003164412A (en) Control system
JP2002233535A (en) Endoscopic operation system
JP4727066B2 (en) Endoscope system
JP2001128992A (en) Medical system
JP2003084791A (en) Voice control system
JP2002336183A (en) Endoscopic system
JP4464526B2 (en) Endoscope operation system
JP2002132283A (en) Medical control system
JP7451707B2 (en) Control device, data log display method, and medical centralized control system
JP2006218229A (en) Medical treatment supporting system
JP2002123293A (en) Person identifying device
JP2004199004A (en) Speech input type medical control system
JP2002125983A (en) Medical control system
JP2003271176A (en) Surgery device control system

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040903

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050322

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20050517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050719

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20050907

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20051007

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070730

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070823

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100831

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100831

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110831

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120831

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130831

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees