JP6490375B2 - 無声無喉頭発声を用いるシステムの制御 - Google Patents

無声無喉頭発声を用いるシステムの制御 Download PDF

Info

Publication number
JP6490375B2
JP6490375B2 JP2014195299A JP2014195299A JP6490375B2 JP 6490375 B2 JP6490375 B2 JP 6490375B2 JP 2014195299 A JP2014195299 A JP 2014195299A JP 2014195299 A JP2014195299 A JP 2014195299A JP 6490375 B2 JP6490375 B2 JP 6490375B2
Authority
JP
Japan
Prior art keywords
laryngeal
unvoiced
operator
vibration
utterance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014195299A
Other languages
English (en)
Other versions
JP2015069653A (ja
Inventor
イスラエル・ジルバーマン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Biosense Webster Israel Ltd
Original Assignee
Biosense Webster Israel Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Biosense Webster Israel Ltd filed Critical Biosense Webster Israel Ltd
Publication of JP2015069653A publication Critical patent/JP2015069653A/ja
Application granted granted Critical
Publication of JP6490375B2 publication Critical patent/JP6490375B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7475User input or interface means, e.g. keyboard, pointing device, joystick
    • A61B5/749Voice-controlled interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/20Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/24Speech recognition using non-acoustical features
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/389Electromyography [EMG]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/06Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
    • G10L21/16Transforming into a non-visible representation

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • General Physics & Mathematics (AREA)
  • Neurology (AREA)
  • Dermatology (AREA)
  • Neurosurgery (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Prostheses (AREA)
  • Surgical Instruments (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
  • Testing And Monitoring For Control Systems (AREA)

Description

本発明は、概して機器の制御に関し、具体的には非音声振動を用いる機器の制御に関する。
イスラムによる米国特許第8、098、423号は、この参照により開示に含まれるが、医療装置の音声制御のためのシステムと方法を記述している。この開示は、医療装置が、患者の身体の開口に挿入可能な挿入部分を含むものと記述している。この開示は更に、挿入可能部分が、少なくとも部分的に1つ又は複数の制御信号に基づき少なくとも2つの運動軸に操作可能な自動ヘッドユニットを備え、また操作には音声制御が用いられてもよいと記述している。
マハパトラ(Mahapatra)らによるPCT出願第PCT/US2008/082835号は、この参照により開示に含まれるが、剣状突起を経由して位置決めされる操作可能な心外膜ペーシングカテーテルシステムを記述している。この開示は、この発明が剣状突起からのアクセスを使う特別の電気生理学的手技に用いる医療システムと装置に対する音声制御の分野に使用することができると記述している。
ブラッセル(Brusell)らによるPCT出願第PCT/SE2003/001895号は、この参照により開示に含まれるが、自然に聞こえる発声の使用を要求することなく、シミュレートされた発声を作り出す方法を記述していて、そこでは使用者が発声動作を実行すると、動作と条件が検出される。超音波信号が、外部から主として使用者の口及び/又は咽頭領域の方向に向けて放射され、反射された超音波信号が登録される。
ティーニ−(Teaney)らによる米国特許第5、171、930号は、この参照により開示に含まれるが、コントローラへの入力としての電気声門図によって駆動される音声制御音楽装置を記述している。電気声門図(EGG)は、使用者の頸部付近に位置するバンド形状のトランスデューサを有する。EGGは、使用者の声帯の声帯ひだの開閉サイクルを、この開示が音高に関して特に正確であると主張する清浄な電気信号に変換する。
メラー(Moeller)らの米国特許出願第2012/0299826号は、この参照により開示に含まれるが、人間のオペレータに、オペレータの声道の幾何学的自由度を用いて対応する機械の制御を可能とする、人と機械(HM)のインターフェースを記述している。1つの態様では、HMインターフェースは、音響反射測定器を用いて、リアルタイムでオペレータの声道の形状をモニタするように構成された音響センサを有する。信号プロセッサは、音響センサによって検出された反射音響信号を、例えば信号の特徴の選定と定性を用いて解析し、これらの信号を機械への指令及び/又は命令に変換する。
参照により本特許出願に組み込まれる文書は、組み込まれた文書内の用語が、本明細書で明示的又は暗黙的に行われる定義と相反するように定義される場合を除き、本出願の一体部分と見なされるべきであり、本明細書における定義のみが検討されるべきである。
本発明の一実施形態は、
機器であって、装置の操作中にオペレータによって生成される無声無喉頭発声振動の感知に適する場所で、装置のオペレータの頸部に固定するように構成されたセンサと、
無声無喉頭発声振動を計測するために、及び計測された無声無喉頭発声振動に応じて装置のための制御信号を生成するために、センサによって出力された信号を受信して処理するように構成されたプロセッサと、を含む機器。
開示される一実施形態では、無声無喉頭発声振動が、オペレータによって生成される一群の多様な無声無喉頭音振動からなり、無声無喉頭発声振動の計測には、一群内での無声無喉頭音振動を識別することを含む。
更に開示される一実施形態では、無声無喉頭発声振動が、オペレータによって生成される一群の多様な無声無喉頭音振動から成っていて、プロセッサが、一群の多様な無声無喉頭音振動と、オペレータによって選定された装置のための一組の多様な制御信号との間の、1対1の対応を記憶するように構成されている。
他の一実施形態では、装置が患者の心臓のアブレーションを実行するように構成されている。
更なる他の実施形態では、センサが、筋電図によって制御される電気式人工喉頭(EMG−EL)を含む。
本発明の一実施形態により、方法であって、
装置の操作中にオペレータによって生成される無声無喉頭発声振動の感知に適する場所で、装置のオペレータの頸部へセンサを固定することと、
無声無喉頭発声振動を計測するために、及び計測された無声無喉頭発声振動に応じて装置のための制御信号を生成するために、センサにより出力された信号を受信して処理することと、を含む方法。
本開示は、以下の発明を実施するための形態を、以下の図面と併せ読むことによって、より完全に理解されるであろう。
本発明の一実施形態における無声無喉頭発声振動検出及び制御システムの概略説明図である。 本発明の一実施形態における図1のシステムのセンサの始動にて実行されるステップを示すフローチャートである。
概論
本発明の一実施形態は、装置のオペレータが、オペレータによって生成される無声無喉頭発声振動を用いて、装置を制御することを可能とするシステムを備える。システムのセンサは、オペレータによって生成された無声無喉頭音振動を感知することが可能であり、無声音を生成する振動の感知に適する場所で、オペレータの頸部に固定される。センサは、振動に応じて信号を生成するように構成され、またシステムプロセッサは、無声無喉頭発声振動を計測するために、信号を受信して処理するように構成されている。
典型的には、システムの操作ステージの前に実行される学習ステージで、オペレータが一組の多様な無声無喉頭音振動、又はそのような振動の組合せを生成し、そしてセンサによって生成されたそれぞれの信号を用いて、振動を、装置のためのそれぞれの制御信号に1対1の対応で関連付ける。操作ステージでは、プロセッサが、特有のオペレータ無声無喉頭音振動又は振動の組合せに応じて生成された信号のためのセンサをモニタし、そして1対1の対応を使って、装置に適用されるべき対応する制御信号を決定する。
無声無喉頭発声振動の装置の制御への利用は、いくつかの利点がある。例えば複数の人員による医療手技の最中に、システムのオペレータが言語の困難さのため、手技を実行する医師の要求を誤って解釈することが起こりうる。言語の誤解とは別の要素として、医師の不明瞭な発音、又は医師のマスクによる発音の消失も、医師からオペレータへの伝達不良を起こすことがある。
システムの説明
図1を参照すると、これは本発明の一実施形態における無声無喉頭発声振動検出及び制御システム20の概略説明図である。無声無喉頭発声振動及び無声無喉頭音振動は、いずれもシステム20で使われていて、これらについて以下に記述する。以下の開示において、システム20は、本明細書では患者26の心臓24のアブレーション手技を含むと想定される医療処置の最中に使われる装置22の操作を、部分的に制御するために実施されることを前提とする。いくつかの実施形態では、装置22は、3333 Diamond Canyon Road、Diamond Bar、CA 91765のBoisense Webster、Inc.製CARTO(登録商標)システムに相当するとしてもよい。しかしながら、装置22を用いるこの実施の記述は例示のためであり、したがって、システム20は、必ずしも医療処置とは関連のない機器や装置を含む他の機器や装置の制御に使われてもよいことが理解される。
システム20では、装置22に備えられたプローブ28が、患者26の心臓24の心室に挿入される。プローブは装置22のオペレータ30によって、心臓24の部位のアブレーションの実行のために使われてもよい。
システム20の機能はシステムコントローラ32によって管理され、コントローラは、システム20の操作のためのソフトウェアが格納されたメモリ36と通信するプロセッサ34によって操作される。メモリ36は、振動−機能テーブル50を持つモジュール38を含み、モジュール38とテーブル50の機能と特性を以下でより詳細に説明する。
コントローラ32は、典型的には、汎用コンピュータプロセッサを含む業界標準のパーソナルコンピュータである。しかしながら、いくつかの実施形態では、コントローラの機能の少なくとも一部分が、例えば、特定用途向け集積回路(ASIC)又は現場でプログラム可能なゲートアレイ(FPGA)などの、カスタム設計のハードウェア及びソフトウェアを用いて実施される。コントローラ32は、典型的にはコンソール40に取付けられ、コンソールのコントロール手段42を用いてオペレータ30が操作することができ、コントロール手段は、典型的には、オペレータにシステム20のパラメータセットを可能とする指示装置、タッチスクリーン、及び/又はキーパッドを含む。コンソール40に接続されたスクリーン44は、1つ又は複数の様々なグラフィックユーザインターフェース(GUIs)をオペレータ28に向けて表示することができ、オペレータに、システム20を制御するためのフィードバックを提供する。スクリーンは、オペレータ30向けて、処置の結果も表示する。
メモリ36中のソフトウェアは、例えばネットワークを介して、電子的形態でコントローラにダウンロードし得る。あるいは、又はこれに加えて、このソフトウェアは、光学的、磁気的、又は電子的記憶媒体など、非一過性の有形媒体上に提供され得る。
センサ60がオペレータ30の頸部付近に取付けられ、センサはオペレータによって生成される無声無喉頭発声振動を検出するように構成されている。典型的には、センサ60はできる限りオペレータの咽頭の近くでオペレータ30に取り付けられる。例えば、センサはオペレータが身に着けたネックレスの一部であってもよい。センサ60は、受領する無声無喉頭発声振動を電気信号に変換し、電気信号はシステムコントローラ32に送信される。典型的には、信号送信はワイヤレスで実施され、その場合は、上述したネックレスの一部がワイヤレス送信のためのアンテナとして構成されていてもよい。あるいは、信号送信は、センサとシステムコントローラを結ぶケーブル経由であってもよい。
本開示と本請求項では、無声無喉頭発声振動と無声無喉頭音振動の用語は、それぞれ発声と音を口から発する最中の、システム20のオペレータの頸部の筋の振動として理解されるべきである。発声と音を口から発する時に、オペレータは、彼の又は彼女の声を使わない。振動はセンサ60により検出されることが可能であり、センサは典型的には筋電図によって制御される電気式人工喉頭(EGM−EL)を備えている。
センサ60として使用できるEMG−ELは、次のタイトルの第1論文「Trainin Effects on Speech Production Using a Hands−Free Electromyographically Controlled Electrolarynx」by Goldstein et al.、Journal of Speech、Language、and Hearing Research Vol.50、pgs.335〜351 April 2007、及び次のタイトルの第2論文「Design and Implementaion of a Hands−Free Electrolarynx Device Controlled by Neck Strap Muscle Electromyographic Activity」by Goldstein et al.、IEEE Transactions on Biomedical Engineering、Vol.51、No.2、February 2004に記述されている。いずれの論文もこの参照により開示に含まれる。ゴールドスタインのEMG−ELは、マサチューセッツ州ボストンのDelSys Inc.により製造された表面EMG電極を使用している。
EMG−ELのオペレータが、どのように適切な無喉頭発声振動と音振動を作ることができるかの記述が、上述した第1論文に提示されている。そこで説明されているように、通常の頸部構造を持つ当事者には、頸部摘出患者の条件をシミュレートするために、自身の普通の声を使わず、むしろ息を殺して、特有の母音、単語、及び文章を口から発するのを控えることが要求される。言い換えれば、本明細書では、無声無喉頭発声振動と音振動は、話をしようとする時の喉頭摘出患者の条件をシミュレートすることを指す。
図2は、本発明の一実施形態におけるセンサ60の始動と操作にて実行されるステップを示すフローチャート100である。フローチャート100は、オペレータによって生成され、本明細書ではまとめて無声無喉頭発声振動と呼ぶ特有の無声無喉頭音振動を、オペレータ30がシステム20に「学習させる」学習モードステージ102と、システム20を操作するために、システムが学習セクションでの結果を適用する操作モードステージ104との2つの部分に分割される。
学習セクションの開始ステップ110では、実質的に上述したように、センサ60がオペレータ28に取り付けられ、オペレータがセンサをシステムコントローラ32と通信するように構成する。本明細書では、通信はワイヤレス通信を前提としている。典型的には、通信を構成するために、オペレータは、スクリーン44上にオペレータに向けて表示された振動モジュール38から取得するGUI構成を使用する。
機能選定ステップ112では、特有の無声無喉頭音振動をセンサ60が検出すると、システム20によって実行されるべき機能をオペレータが選定する。典型的には、装置22を使って実行される処置中には、オペレータがコントロール手段42を用いて実行する比較的多くの機能が存在する。このような機能には、実行される処置の結果の表示方法の選定、例えばグラフ表示又はテーブル形式の選定が含まれる。その他の機能には、特定の画像の表示の拡大と最小化、画像の移動又は回転がある。例えば、上で参照したCartoシステムのアブレーション手技の最中に、オペレータがコントロール手段42を使って、アブレーションの間に加えられた力と動力の、及びアブレーションが適用されていた時間のグラフ及び/又は数値表示を示すことができる。オペレータは、コントロール手段42を使って、アブレーションされる組織の温度のグラフ及び/又は数値表示も示すことができる。
コントロール手段42を用いる装置22のための、またシステム20が実施される機器や装置のための、機能のその他の例は、当業者にとっては明白になり、このような機能の全ては本発明の範囲に含まれるものとみなされる。
学習ステップ114では、オペレータが、ステップ112で選択された機能のうちの1つを選定し、選定した機能の実行に用いられることになる無声無喉頭音振動、又はそのような音振動の組合せを生成する。生成された無喉頭音振動に応じて、センサ60が、対応する信号をコントローラ32に送信する。無喉頭音が生成され、信号が受信されると、モジュール38から取得されてスクリーン44に表示された学習用GUIを用いて、コントローラ32がオペレータに、無声無喉頭音振動信号の受信を確認することができる。典型的には、コントローラにとって無喉頭音振動信号を他の無喉頭音振動信号から区別できるための十分な時間の長さの後に、コントローラが、その信号が他の無声無喉頭音振動信号から識別できる認識可能な無声無喉頭音振動信号であることをオペレータに示す。時間の長さはプリセットする時間の長さでもよく、典型的には数秒程度であり、オペレータ側で必要以上の実験をすることなく決めてもよい。あるいは、例えばステップ114を何度か繰り返した後に、コントローラ32がその時間長さを最適にセットしてもよい。
対応付けステップ116では、コントローラ32が、ステップ114で受領した認識可能な無声無喉頭音振動又は音振動の組合せを、ステップ112でオペレータによって選定された機能と関連付ける。矢印118で示すように、ステップ114と116はオペレータ30によって繰り返され、従ってコントローラ32が、特定の音振動又は音振動の組み合わせと、装置22の機能との間の一組の1対1の対応を生成する。コントローラ32が、一組の1対1の対応をメモリ36に記憶する。一組の対応をモジュール38のテーブル50に記憶することができ、あるいは、その他の任意の適切な記憶方法で記憶してもよい。
第1の操作ステップ120では、オペレータ30が、装置22の操作を開始し、システム20を始動する。システム20の始動は、典型的にはオペレータ30によって、コントローラ32へ指示を出すために、コントロール手段42と、モジュール38から取得されてスクリーン44に表示される作動状態のGUIとを用いて実行される。この指示は、コントローラが、センサによって検出された無声無喉頭発声振動に応じて生成されていたセンサ60からの信号を受入れることを可能とする。この指示は、コントローラがテーブル50へアクセスすることも可能とする。
第2の操作ステップ122では、コントローラ32がセンサ60をモニタし、センサからの信号の有無を定期的に確認する。信号が検出されると、コントローラが振動−機能テーブルにアクセスし、テーブルから信号に対応する機能を決定する。
機能実行ステップ124では、コントローラ32がステップ122で特定された機能を実施する。いくつかの実施形態では、コントローラがオペレータに、質問をスクリーン44に表示するなどによって、特定の機能が実行されるべきか確かめてもよい。(典型的にはこのような確認は、システム20が不必要な機能を実行する確率を減少させる。)オペレータが、例えば、ステップ122で検出された無声無喉頭音振動、又は音振動の組合せを繰り返すことによって、及び/又はコントロール手段42の1つを用いるなど当技術分野で知られている他の手段を用いることによって、機能がなされるべきかを確認してもよい。
矢印126で示すように、システム20の作動段階の間に、ステップ122と124が繰り返される。
上述した実施形態は一例として記載されたものであり、本発明は、本明細書において上に具体的に図示及び説明した内容に限定されないことが明らかとなろう。むしろ、本発明の範囲には、上で説明した様々な特徴の組合わせと部分的組合わせの両方、並びにそれらの変形形態及び修正形態が含まれ、これらは、上述の説明を読めば当業者には想到するものであり、従来技術では開示されていないものである。
〔実施の態様〕
(1) 機器であって、
装置の操作中にオペレータによって生成される無声無喉頭発声振動の感知に適する場所で、前記装置の前記オペレータの頸部に固定するように構成されたセンサと、
前記無声無喉頭発声振動を計測するために、及び前記計測された無声無喉頭発声振動に応じて前記装置のための制御信号を生成するために、前記センサによって出力された信号を受信して処理するように構成されたプロセッサと、を備える機器。
(2) 前記無声無喉頭発声振動が、前記オペレータによって生成される一群の多様な無声無喉頭音振動を含み、前記無声無喉頭発声振動の計測が、前記一群内での前記無声無喉頭音振動の識別を含む、実施態様1に記載の機器。
(3) 前記無声無喉頭発声振動が、前記オペレータによって生成される一群の多様な無声無喉頭音振動を含み、前記プロセッサが、前記一群の多様な無声無喉頭音振動と、前記オペレータによって選定された前記装置のための一組の多様な制御信号との間の、1対1の対応を記憶するように構成される、実施態様1に記載の機器。
(4) 前記装置が、患者の心臓のアブレーションを実行するように構成される、実施態様1に記載の機器。
(5) 前記センサが、筋電図によって制御される電気式人工喉頭(EMG−EL)を備える、実施態様1に記載の機器。
(6) 方法であって、
装置の操作中にオペレータによって生成される無声無喉頭発声振動の感知に適する場所で、前記装置の前記オペレータの頸部へセンサを固定することと、
前記無声無喉頭発声振動を計測するために、及び前記計測された無声無喉頭発声振動に応じて前記装置のための制御信号を生成するために、前記センサにより出力された信号を受信して処理することと、を含む方法。
(7) 前記無声無喉頭発声振動が、前記オペレータによって生成される一群の多様な無声無喉頭音振動を含み、前記無声無喉頭発声振動の計測が、前記一群内での前記無声無喉頭音振動の識別を含む、実施態様6に記載の方法。
(8) 前記無声無喉頭発声振動が、前記オペレータによって生成される一群の多様な無声無喉頭音振動を含み、前記一群の多様な無声無喉頭音振動と、前記オペレータによって選定された前記装置のための一組の多様な制御信号との間の、1対1の対応を記憶することを更に含む、実施態様6に記載の方法。
(9) 前記装置が、患者の心臓のアブレーションを実行するように構成される、実施態様6に記載の方法。
(10) 前記センサが、筋電図によって制御される電気式人工喉頭(EMG−EL)を備える、実施態様6に記載の方法。

Claims (8)

  1. 機器であって、
    患者の心臓のアブレーションを実行するように構成される装置と、
    前記装置の操作中にオペレータによって生成される無声無喉頭発声振動の感知に適する場所で、前記装置の前記オペレータの頸部に固定するように構成されたセンサと、
    様々なグラフィックユーザインタフェースを前記オペレータに向けて表示するスクリーンと、
    前記無声無喉頭発声振動を計測するために、及び前記計測された無声無喉頭発声振動に応じて前記装置により実行されるべき特定の機能に対応した制御信号を生成するために、前記センサによって出力された信号を受信して処理するように構成されたプロセッサと、を備え
    前記プロセッサが前記オペレータの確認のための質問を前記スクリーンに表示することにより、前記実行されるべき特定の機能を確かめるように構成されてい機器。
  2. 前記無声無喉頭発声振動が、前記オペレータによって生成される一群の多様な無声無喉頭音振動を含み、前記無声無喉頭発声振動の計測が、前記一群内での前記無声無喉頭音振動の識別を含む、請求項1に記載の機器。
  3. 前記無声無喉頭発声振動が、前記オペレータによって生成される一群の多様な無声無喉頭音振動を含み、前記プロセッサが、前記一群の多様な無声無喉頭音振動と、前記オペレータによって選定された前記装置のための一組の多様な制御信号との間の、1対1の対応を記憶するように構成される、請求項1に記載の機器。
  4. 前記センサが、筋電図によって制御される電気式人工喉頭(EMG−EL)を備える、請求項1に記載の機器。
  5. 方法であって、
    患者の心臓のアブレーションを実行するように構成される装置の操作中にオペレータによって生成される無声無喉頭発声振動の感知に適する場所で、前記装置の前記オペレータの頸部へセンサを固定することと、
    前記無声無喉頭発声振動を計測するために、及び前記計測された無声無喉頭発声振動に応じて前記装置により実行されるべき特定の機能に対応した制御信号を生成するために、前記センサにより出力された信号を受信して処理することと、を含み、
    前記オペレータの確認のための質問がスクリーンに表示されることにより、前記特定の機能が実行されるべきか確かめられる、方法。
  6. 前記無声無喉頭発声振動が、前記オペレータによって生成される一群の多様な無声無喉頭音振動を含み、前記無声無喉頭発声振動の計測が、前記一群内での前記無声無喉頭音振動の識別を含む、請求項に記載の方法。
  7. 前記無声無喉頭発声振動が、前記オペレータによって生成される一群の多様な無声無喉頭音振動を含み、前記一群の多様な無声無喉頭音振動と、前記オペレータによって選定された前記装置のための一組の多様な制御信号との間の、1対1の対応を記憶することを更に含む、請求項に記載の方法。
  8. 前記センサが、筋電図によって制御される電気式人工喉頭(EMG−EL)を備える、請求項に記載の方法。
JP2014195299A 2013-09-30 2014-09-25 無声無喉頭発声を用いるシステムの制御 Active JP6490375B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/041,271 2013-09-30
US14/041,271 US9640198B2 (en) 2013-09-30 2013-09-30 Controlling a system using voiceless alaryngeal speech

Publications (2)

Publication Number Publication Date
JP2015069653A JP2015069653A (ja) 2015-04-13
JP6490375B2 true JP6490375B2 (ja) 2019-03-27

Family

ID=51726319

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014195299A Active JP6490375B2 (ja) 2013-09-30 2014-09-25 無声無喉頭発声を用いるシステムの制御

Country Status (7)

Country Link
US (1) US9640198B2 (ja)
EP (1) EP2854132B1 (ja)
JP (1) JP6490375B2 (ja)
CN (1) CN104517608B (ja)
AU (1) AU2014233625B2 (ja)
CA (1) CA2865341A1 (ja)
IL (1) IL234667B (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106448673B (zh) * 2016-09-18 2019-12-10 广东顺德中山大学卡内基梅隆大学国际联合研究院 一种汉语电子喉语音转换方法
US10255906B2 (en) * 2016-12-14 2019-04-09 International Business Machines Corporation Sensors and analytics for reading comprehension
DE102017101782A1 (de) * 2017-01-30 2018-08-02 Aktormed Gmbh Operations-Assistenz-System und Verfahren zur Erzeugung von Steuersignalen zur Sprachsteuerung einer motorisch gesteuert bewegbaren Roboterkinematik eines derartigen Operations-Assistenz-Systems
EP4016524A4 (en) * 2019-08-15 2022-08-24 Shenzhen Mindray Bio-Medical Electronics Co., Ltd. MEDICAL DEVICE AND MEDICAL DEVICE SYSTEM
CN110956949B (zh) * 2019-10-24 2022-10-04 中国人民解放军军事科学院国防科技创新研究院 一种口含式缄默通信方法与系统
CN110767208A (zh) * 2019-11-18 2020-02-07 中国矿业大学(北京) 一种基于面部表面肌肉信号的不发声指令识别的辅助救援通讯方法及装置
CN113823278B (zh) * 2021-09-13 2023-12-08 北京声智科技有限公司 语音识别方法、装置、电子设备及存储介质

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5171930A (en) 1990-09-26 1992-12-15 Synchro Voice Inc. Electroglottograph-driven controller for a MIDI-compatible electronic music synthesizer device
US6646541B1 (en) * 1996-06-24 2003-11-11 Computer Motion, Inc. General purpose distributed operating room control system
JP2000267695A (ja) * 1999-01-14 2000-09-29 Nissan Motor Co Ltd 車載機器のリモートコントロール装置
WO2002050652A2 (en) * 2000-12-18 2002-06-27 Human Bionics Llc, Method and system for initiating activity based on sensed electrophysiological data
US7259906B1 (en) 2002-09-03 2007-08-21 Cheetah Omni, Llc System and method for voice control of medical devices
GB2422238A (en) * 2005-01-17 2006-07-19 Univ Hull Generation of data from speech or voiceless mouthed speech
US8657814B2 (en) 2005-08-22 2014-02-25 Medtronic Ablation Frontiers Llc User interface for tissue ablation system
US20070106501A1 (en) * 2005-11-07 2007-05-10 General Electric Company System and method for subvocal interactions in radiology dictation and UI commands
US8251924B2 (en) * 2006-07-07 2012-08-28 Ambient Corporation Neural translator
WO2009062061A1 (en) 2007-11-09 2009-05-14 University Of Virginia Patent Foundation Steerable epicardial pacing catheter system placed via the subxiphoid process
JP5256119B2 (ja) * 2008-05-27 2013-08-07 パナソニック株式会社 補聴器並びに補聴器に用いられる補聴処理方法及び集積回路
CN101916566B (zh) * 2010-07-09 2012-07-04 西安交通大学 一种电子喉语音重建方法及其系统
CN103717164B (zh) * 2011-03-08 2016-12-07 T·J·科亨 具有安全结构的消融导管系统
US20120299826A1 (en) 2011-05-24 2012-11-29 Alcatel-Lucent Usa Inc. Human/Machine Interface for Using the Geometric Degrees of Freedom of the Vocal Tract as an Input Signal
US9931154B2 (en) * 2012-01-11 2018-04-03 Biosense Webster (Israel), Ltd. Touch free operation of ablator workstation by use of depth sensors

Also Published As

Publication number Publication date
EP2854132A1 (en) 2015-04-01
US20150095036A1 (en) 2015-04-02
CA2865341A1 (en) 2015-03-30
CN104517608B (zh) 2020-08-18
AU2014233625B2 (en) 2019-09-19
EP2854132B1 (en) 2017-05-10
CN104517608A (zh) 2015-04-15
US9640198B2 (en) 2017-05-02
IL234667B (en) 2018-01-31
AU2014233625A1 (en) 2015-04-16
JP2015069653A (ja) 2015-04-13

Similar Documents

Publication Publication Date Title
JP6490375B2 (ja) 無声無喉頭発声を用いるシステムの制御
EP1676540B1 (en) Apparatus for performing a voice-assisted orthopaedic surgical procedure
JP4823687B2 (ja) 手術システム制御装置
JP3829197B2 (ja) 聴診教育用装置
JP2021531504A (ja) 外科トレーニング装置、方法及びシステム
EP2046193A2 (en) Method of improving medical apparatus in order to replace ancillary medical assistance by employing audible verbal human sounding voices to prompt therapeutic usage and provide guidance, measurements, encouragement and response, as needed, to the patient, by using electronic technology
JP2016214715A (ja) 振動検出モジュール、振動検出方法及び手術システム
JP7083143B2 (ja) 超音波探触子の誘導ナビゲーション
US20170162079A1 (en) Audio and Visual Enhanced Patient Simulating Mannequin
JP2004275360A (ja) 内視鏡システム
WO2021214065A1 (en) Voice grafting using machine learning
CN104188736A (zh) 基于瘘口气流气压信号调控的电子人工喉训练系统及操作方法
JP2022028086A (ja) 情報処理装置、提示方法、および手術システム
US20080137877A1 (en) Subject actuated system and method for simulating normal and abnormal medical conditions
JP4873497B2 (ja) 医療用実習装置
US11076950B2 (en) Electrolarynx devices and uses thereof
Yajima et al. Evaluation of speech input recognition rate of ar-based drawing application on operation monitor for communication support during endoscopic surgery
JP2002336184A (ja) 内視鏡システム
KR20200095084A (ko) 경막외강 내시경술 훈련 장치
CN110022752A (zh) 信息提示系统
EP3763287A1 (en) Patient controlled medical system
KR20210047787A (ko) 안면 구조에 적합한 휴대용 비강 개방도 측정장치
RU2373902C1 (ru) Способ дистанционного управления компьютером без помощи рук (варианты) и устройство для дистанционного управления компьютером без помощи рук
Aguiar et al. Integrated Interfacing System for Video Laparoscopy Procedures Based on Voice Recognition
TW201300070A (zh) 微創醫療裝置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170825

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180808

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190227

R150 Certificate of patent or registration of utility model

Ref document number: 6490375

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250