JP2015510606A - 健康監視システムにおける話者検証 - Google Patents

健康監視システムにおける話者検証 Download PDF

Info

Publication number
JP2015510606A
JP2015510606A JP2014550425A JP2014550425A JP2015510606A JP 2015510606 A JP2015510606 A JP 2015510606A JP 2014550425 A JP2014550425 A JP 2014550425A JP 2014550425 A JP2014550425 A JP 2014550425A JP 2015510606 A JP2015510606 A JP 2015510606A
Authority
JP
Japan
Prior art keywords
person
user
voice
registered
utterance data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014550425A
Other languages
English (en)
Other versions
JP6234937B2 (ja
Inventor
フゥリヤーン・ウェン
タウフィク・ハサン
ジョ・フェン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of JP2015510606A publication Critical patent/JP2015510606A/ja
Application granted granted Critical
Publication of JP6234937B2 publication Critical patent/JP6234937B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces
    • G10L17/24Interactive procedures; Man-machine interfaces the user being prompted to utter a password or a predefined phrase
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/06Decision making techniques; Pattern matching strategies
    • G10L17/10Multimodal systems, i.e. based on the integration of multiple recognition engines or fusion of expert systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/20ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management or administration of healthcare resources or facilities, e.g. managing hospital staff or surgery rooms

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computer Security & Cryptography (AREA)
  • Biomedical Technology (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Epidemiology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • General Business, Economics & Management (AREA)
  • Game Theory and Decision Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Primary Health Care (AREA)
  • Public Health (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

人が遠隔治療装置を使用するのに登録されていることを検証するための方法は、人に話され且つ遠隔治療装置に受け取られた単語内の促進されていないトリガフレーズを特定することを含む。遠隔治療装置は、人に登録されたユーザの名前を話すことを促し、且つ選択的に人にその人のためのヘルスティップを話すことを促す。遠隔治療装置は、促進されていないトリガフレーズ、登録されたユーザの名前、及びヘルスティップから発生した発声データを使用して、人が登録されたユーザであることを検証する。【選択図】図2−1

Description

[0001]本発明は、概して自動音声認識の分野に関連し、特に話者を検証する音声認識システム及び方法に関する。
[0002]遠隔治療及び自宅療養の分野は、近年大きい成長を遂げている。遠隔治療システムにおいては、患者は医者又は他のヘルスケア提供者の存在から地理的に離れる。例えば、患者は、ヘルスケア施設の場所にいる代わりに、自宅にいることができる。遠隔治療装置は、ヘルスケア提供者が患者の健康状態を監視できるようにし、患者がヘルスケア施設に訪れる必要なしにいくつかの医学的問題を潜在的に診断し且つ治療することができるようにする。遠隔治療装置の使用は、ヘルスケアのコストを低減し、さらなる患者の監視を通じてヘルスケアの質を改善する可能性を有する。
[0003]様々な既知の遠隔治療システムは、患者が医療データを医者又はヘルスケア提供者に送信することができる装置を、患者に提供する。いくつかの装置は、心拍数、血圧、及び呼吸数等の生体信号を記録し、記録した生体信号のデータを後の検査のためにデータベースに送信するように構成される。他の遠隔治療システムは、指示された時間に薬を飲むように、又は理学療法の一部としての運動を行うように、患者にリマインダを提供する。
[0004]遠隔治療システムは多くの潜在的な利益を有する一方で、そのようなシステムはヘルスケア専門家の補助なしに遠隔治療装置をよく使用する患者に対する困難も有し得る。直感的なユーザインターフェースを提供することは、遠隔治療装置の有効性を増加させ、同様に患者が勤勉に遠隔治療装置を使用する可能性も増加させる。一部の環境では、遠隔治療装置は、適切な処置を患者ごとに提供するために異なる患者を区別する必要もある。例えば、高齢者居住地区における患者の多いグループが遠隔治療システムを使用し得、又は一家族のメンバーが異なる処置のために各々遠隔治療装置を使用し得る。遠隔治療装置の一部の形態は、持ち運びでき且つ患者間で不意に交換され得る携帯用装置である。したがって、患者と装置との間の相互作用を容易にし且つ遠隔治療装置が各患者に適切な処置を提供することを保証するための遠隔治療装置の改善が有益である。
[0005]一実施形態によれば、人の身元を検証するための方法が開発される。方法は、人により話される発声に対応する音声データを音声入力装置を用いて発生させることと、音声データ処理装置で音声データ内の第1発声データを特定することと、所定のトリガ発声に対応する特定された第1発声データに応じて人に登録名を話すことを促すための出力をユーザインターフェース装置で発生させることと、所定のトリガ発声に対応する特定された第1発声データに応じて特定された第1発声データをメモリに記憶することと、音声入力装置で話された登録名に対応する音声データを発生させることと、音声データ処理装置で話された登録名に対応する音声データにおける第2発声データを特定することと、特定された第2発声データをメモリに記憶することと、人が、登録名に関連して登録データベースに登録されたユーザの声の所定のモデルに対応するメモリに記憶された第1及び第2発声データに応じて登録名に関連して登録データベースに登録されたユーザであることを、話者検証モジュールで検証することと、人が登録データベースに登録されたユーザであることを検証する話者検証モジュールに応じて、人にサービスを提供するための出力をユーザインターフェース装置で発生することと、を含む。
[0006]他の実施形態によれば、話者検証を備えた遠隔治療装置が開発される。遠隔治療装置は、人に話された発声から音声データを発生するように構成された音声入力装置と、音声入力装置に動作可能に接続され且つ音声入力装置により発生された音声データから発声データを発生させるように構成された音声データ処理装置と、音声データ処理装置により発生された複数の発声データを記憶するように構成されたメモリと、少なくとも一人のユーザに対応する登録名及び声モデルに少なくとも一人のユーザを関連させるように構成された登録データベースと、メモリと登録データベースとに動作可能に接続された話者検証モジュールと、ユーザインターフェース装置と、音声入力装置、音声データ処理装置、メモリ、登録データベース、話者検証モジュール、及びユーザインターフェース装置に動作可能に接続されたコントローラと、を含む。コントローラは、人により話された発声を含む音を受け且つ人に話すことを促すことなく発声に対応する音声データを発生させるための音声入力装置を起動させ、人により話された発声に対応する音声データにおける第1発声データを音声データ処理装置で特定し、特定された第1発声データをメモリに記憶し、所定のトリガ発声に対応する第1発声データに応じて人に登録名を話させるように促すための出力をユーザインターフェース装置で発生させ、話された登録名に対応する音声データを音声入力装置で発生させ、話された登録名に対応する音声データにおける第2発声データを音声データ処理装置で特定し、特定された第2発声をメモリに記憶し、登録名を話す人が登録名に関連して登録データベースに登録されたユーザの声の所定のモデルに対応するメモリに記憶された第1及び第2発声データに応じて登録名に関連して登録データベースに登録されたユーザであることを、話者検証モジュールで検証し、登録名を話した人がユーザであることを検証する話者検証モジュールに応じて人にサービスを提供するための出力をユーザインターフェース装置で発生するように構成される。
[0007]図1は、患者により使用される携帯用遠隔治療装置の概略図である。 [0008]図2は、人が遠隔治療装置の登録されたユーザであることを検証するためのプロセスのブロック図である。 図2は、人が遠隔治療装置の登録されたユーザであることを検証するためのプロセスのブロック図である。 [0009]図3は、遠隔治療装置で使用される登録データベースの例である。 [0010]図4は、遠隔治療装置で使用されるヘルスティップデータベースの例である。
[0011]ここに開示されるシステム及び方法の詳細の全体的な理解のために、この書類を通じて図面が参照される。図面においては、同じ参照符号は同じ要素を指定する。ここで使用されるように、用語「発声」は単語やフレーズを含む人間に話される全てのものをいう。用語「発声データ」は、一以上の発声に対応するデータをいう。発声データは、発声の直接の録音に対応することができ、又はデジタル信号処理装置、音声モデラ、及び言語モデルのようなフロントエンドプロセッサを典型的に含む音声認識装置から発生された処理データとすることができる。
[0012]ここで使用されるように、用語「検証する」及び「検証」は、遠隔治療装置が遠隔治療装置の登録されたユーザとされる人が実際にユーザであることを証明するプロセスをいう。話者検証プロセスにおいては、遠隔治療装置は、人からの一以上の発声を処理することにより人が意図されるユーザであるか否かを検証する。例えば、遠隔治療装置が登録されたユーザ「John Smith」を認識するように構成された場合、人はまず登録されたユーザのJohn Smithであることを示す入力を遠隔治療装置に入力し、登録されたユーザのJohn Smithからの所定の声モデルを使用して、人が登録されたユーザのJohn Smithであるか否かを検証するために遠隔治療装置が使用する一以上の発声を提供する。
[0013]ここで使用されるように、用語「ヘルスティップ」は、患者の健康及び福利についてのアドバイス又は情報に関する単語又はフレーズをいう。例えば、フレーズ「私は今日1マイル歩くべきである」は、患者が実行すべき運動に関するヘルスティップである。一部のヘルスティップは、栄養に関するヘルスティップ「私は新鮮な野菜を食べるべきである」のような、ほとんどすべての患者に対して一般的である。他のヘルスティップは、特定の患者に向けられ得る。例えば、処方薬を有する患者に向けられるヘルスティップは、「私は適切な時間で処方薬を飲むべきである」である。示される例において、ヘルスティップの言葉は、患者の視点から一人称で構成される。以下で説明されるように、患者は、遠隔治療装置を使用するための検証プロセスの一部として一以上のヘルスティップを大声ではっきり言う。一部のヘルスティップは、ヘルスティップの患者に対する適用性を強化するために一人称の視点において提供されるが、他のヘルスティップは様々な形態のフレーズ及び単語を含む。
[0014]図1は、遠隔治療装置100を示す。遠隔治療装置100は、音声入力装置104と、一以上のユーザインターフェース装置108と、音声データ処理装置112と、話者検証モジュール116と、ネットワーク入力/出力(I/O)装置120と、コントローラ124と、メモリ128と、を含む。メモリ128は、記録された発声データバッファ132のためのデータと、記憶されたプログラム命令136と、登録データベース140と、ヘルスティップデータベース144とを記憶する。一動作モードにおいて、メモリ128は所定のトリガ発声データ134も記憶する。メモリ128は、ランダムアクセスメモリ(RAM)等の一以上の装置と、デジタルデータを記憶するための磁気メディア及びソリッドステートデータ記憶装置等の不揮発性データ記憶装置を含む。図1の例では、遠隔治療装置100は、人102による携帯使用のためのサイズ及び形状で形成されたハウジング150内に含まれる。遠隔治療装置100は、人102が遠隔治療装置100の登録されたユーザであることを検証するための人102からの発声を受け入れ、且つ遠隔治療装置を動作させるための人102からの発声を受け入れるように構成される。
[0015]遠隔治療装置100は、ハウジング150内に配置された一以上のユーザインターフェース装置108を含む。ユーザインターフェース装置は、ユーザに出力情報を提供し、ユーザからの入力情報、命令、及び発声を受ける。出力装置の一般的な例は、液晶ディスプレイ(LCDs)及び他の視覚ディスプレイスクリーン等の視覚ディスプレイスクリーン、音及び合成音声を発するスピーカ、触覚フィードバック装置等を含む。入力装置の一般的な例は、音声入力装置104としても使用されるマイクロホン、キーパッド、ディスプレイスクリーンに統合されたタッチスクリーンインターフェース、ボタン及びスイッチを含む触覚制御装置を含む。特に、ユーザインターフェース装置108は、遠隔治療装置が人102に音声入力装置104により検出される発声を供給するように促すことを可能にする。
[0016]遠隔治療装置100は、ネットワークI/O装置120を含む。ネットワークI/O装置の一般的な例は、無線ローカルエリアネットワーク(WLAN)や無線ワイドエリアネットワーク(WWAN)ネットワーク装置等の無線データ通信モジュールを含む。他のI/O装置は、データネットワークにアクセスを供給する別のコンピュータに遠隔治療装置100を接続するための、イーサネット(登録商標)装置等の有線ネットワーク装置、又はUSB装置等のシリアル装置を含む。ネットワークI/O装置は、遠隔治療装置100がインターネット等のデータネットワークを介してオンラインデータベース及びヘルスケア提供者と通信することを可能にする。
[0017]音声入力装置104は、典型的には、遠隔治療装置100の周囲の環境における音の検出を可能にする場所においてハウジング150内に配置される一以上のマイクロホンを含む。音声入力装置104は、人102により話される発声を検出し、発声から音声データを発生させるように機能する。一部の実施形態では、音声データは一以上のマイクロホンにより発生されたアナログ電気信号を含む。他の実施形態では、音声入力装置104は、受けた発声に対応するアナログ信号を記録された音を表すパルス符号変調(PCM)信号又は他のデジタル信号等のデジタル信号に変換するアナログ−デジタルコンバータを含む。音声入力装置104の一部の実施形態は、信号フィルタ、エコーキャンセル回路、及び音声データの質を改善する他の信号処理装置を含む。
[0018]音声データ処理装置112は、音声入力装置104から音声データを受け、音声データから発声データを発生させる。音声データ処理装置112は、音声データから話された単語及びフレーズを抽出するように音声データを処理する音声モデラ及び言語モデルを含む。音声データ処理装置112は、メモリ128と動作可能に接続される。一動作モードでは、音声データ処理装置112は、発生された発声データを、一以上のトリガフレーズに対応するメモリ128内の所定の発声データ134と比較する。発生された発声データが所定のトリガフレーズの発声データに対応する場合は、コントローラ124は話者検証モジュールを含む遠隔治療装置100の他の要素を起動する。他の動作モードでは、音声データ処理装置112は、発生された発声データを、ヘルスティップデータベース144内の一以上のヘルスティップに対応する発声データと比較する。音声データ処理装置112が、様々なタイプの所定の発声データに対応する発声データを発生させたとき、音声データ処理装置112は、音声データをメモリ128内の発声データバッファ132に記憶する。音声データバッファ132は、人102が遠隔治療装置100の登録されたユーザであることを検証するために使用される複数のセットの発声データを蓄積する。
[0019]話者検証モジュール116は、メモリ128及びコントローラ124と動作可能に接続される。話者検証モジュール116は、発声データバッファ132から発声データを読み出し、遠隔治療装置100を使用して登録されたとされる人の名前に関連して登録データベース140に記憶されるスピーチモデルに発声データが対応することを検証する。発声データバッファ132は、トリガフレーズ、登録されたユーザ名、及び一以上の話されるヘルスティップに対応する発声データを含む、音声データ処理装置112により発生される蓄積された発声データを記憶する。一実施形態では、話者検証モジュール116は、発声データバッファ132内の発声データが登録されたユーザの声モデルに対応する可能性に対応する信頼スコアを発生する。話者検証モジュール116は、登録されたユーザ以外の人に属する一以上の声の様々な声特性に対応する詐称声モデルに対応する信頼スコアも発生させる。詐称声モデルは、ガウス混合モデル(GMM)又はモジュール116で使用される話者検証方法に応じた他の技術を使用して、異なる人々の大量のデータが予め教え込まれる。遠隔治療装置100は、発声された詐称声モデルを、話者検証プロセスの間登録データベース140に使用のために記憶する。
[0020]ユーザの声モデルのための信頼スコアが詐称者のための信頼スコアよりも少なくとも所定の閾値だけ高い場合は、話者検証モジュール116は発声データが登録されたユーザの声モデルに対応することを検証する。詐称者の声モデルのための信頼スコアが登録されたユーザのための信頼スコアよりも少なくとも所定の閾値だけ高い場合は、話者検証モジュール116は発声データが登録されたユーザの声モデルに対応しないことを検証する。いくつかの場合、不十分な発声データは、発声データがユーザの声モデルに対応するか否かを明確に示す信頼スコアを発生させることができる。遠隔治療装置100は、発声データバッファ132に追加される追加の発声データを発生させるために、人102に一以上のヘルスティップを話すことを促し、データバッファ132内の追加発声データは、話者検証モジュール116が登録されたユーザの声モデルを有する人102を検証するために十分な発声データを有する可能性を増加させる。
[0021]登録データベース140は、遠隔治療装置100を使用する権限を与えられた一以上のユーザに対応する登録データを含む。図3は、登録データベース300に記憶されるデータの例を示す。登録データベース300は、登録名識別子304と、登録名に対応する発声データ308と、登録ユーザに対応する声モデルの発声データ312に対応する列を含む。登録名識別子304は、遠隔治療装置100の各ユーザを特定する文字列または数字の識別子である。図3の例においては、「詐称者」名は、登録ユーザのものでない一以上の声モデルに対応する発声データを記憶する登録データベースにおける特別なエントリーである。
[0022]テーブル300では、各ユーザの登録名のための発声データ308及び各ユーザの声モデルのための発声データ312の両方が、加入プロセスの間ユーザにより話された発声から得られる発声データを含む。加入プロセスでは、ユーザは、登録名及び一連の訓練フレーズを含む一連の単語及びフレーズから構成される発声を話す。登録されたユーザの声モデルは、登録名及び訓練フレーズで構成される発声から発生される発声データを使用して発生される。加入プロセスは、典型的には、患者が遠隔治療装置を受け取る前に一度実行される。遠隔治療装置100は、加入プロセスを直接実行することができるか、又は別の加入システムが登録を実行して、遠隔治療装置100がユーザ情報と発生された声モデルを受け取る。例えば、遠隔治療装置100は、ネットワークI/O装置120を介してインターネット160を通じてアクセスされたオンライン登録データベース170から一以上の加入されたユーザの登録データをダウンロードしてもよい。
[0023]登録名のための発声データ308は、遠隔治療装置100を使用するために登録されたユーザの登録名に対応する発声データを記憶する。登録名は、単純にユーザの名前、例えば「John Smith」であり得、或いは特別なログイン名又は数字の患者番号であり得る。登録名は、説明の目的のための文章として図3に記載されるが、典型的には、登録データベース300内にバイナリ発声データとして記憶される。声モデル312のための発声データは、登録されたユーザにより提供された複数の発声に対応する発声データを含む。いくつかの実施形態では、声モデルを発生させるために使用される発声データは、加入プロセスの間に一度提供される。他の実施形態では、遠隔治療装置100がある特定の登録ユーザが話していることを検証した後に、発声データ312は新たに発生された発声データで更新される。更新される発声データは、遠隔治療装置100で処置されている間に発生するユーザの声の徐々な変化を占める。声モデルのための発声データは、典型的には、登録データベース140内のバイナリデータフォーマットに記憶される。
[0024]ヘルスティップデータベース144は、複数のヘルスティップに関連するデータを含む。図4は、ヘルスティップデータベースに記憶されるデータの例を示す。テーブル400は、ヘルスティップ識別子404、人にヘルスティップを話すことを促すために使用されるデータ408、及び話されるヘルスティップに対応する発声データ412に対応する列を含む。テーブル400の各行は、単一のヘルスティップに対応するデータを表し、テーブル400は典型的には複数のヘルスティップを含む。ヘルスティップ識別子は、特有のヘルスティップを特定するための文字列または数値である。いくつかの実施形態では、遠隔治療装置100は、ヘルスティップ識別子404及び図3のテーブル300からの登録名識別子304を使用して、選択されたヘルスティップを特定の患者に関連させる。
[0025]ヘルスティップのためのプロンプトデータ408は、対応するヘルスティップをユーザに話させるためのメッセージをユーザに発生させることを遠隔治療装置100ができるようにするフォーマット済みデータを含む。図4に示されるプロンプトデータは文章の形態であるが、プロンプトデータは、遠隔治療装置がスピーカを介して出力する音声データを含む様々なフォーマット、及びユーザインターフェース装置108のスクリーンに表示される視覚的なプロンプトの形態で記憶され得る。一部のプロンプトは、ユーザが遠隔治療装置100に対して繰り返すためのフレーズを提供する。他のヘルスティッププロンプトは、ユーザに単純な質問をし、ユーザはその質問に答えを発する。質問及び回答の構成では、遠隔治療装置100は表示スクリーンに答えを表示して、話者がその質問に対する答えを思い出すように手助けする。
[0026]発声データ412は、特定のヘルスティップに対応する。発声データは、説明の目的のために図4において文章で示されるが、発声データは、典型的にはバイナリデータフォーマットでヘルスティップデータベース144に記憶される。一部の実施形態では、各ヘルスティップのための発声データ412は、遠隔治療装置の使用に先立つ加入プロセスの間に各ヘルスティップを話す登録されたユーザの録音された発声に直接対応する。他の実施形態では、発声データは、登録されたユーザの声に直接対応しないが、代わりに一以上の声に対して包括的である。音声データ処理装置112は、促進されたヘルスティップ又は異なるフレーズを人102が話したか否かを特定するために、発声の音声データから発生された発声データを、所定の発声データ412と比較するように構成される。
[0027]一部の実施形態では、遠隔治療装置100は、ネットワークI/O装置120を介してインターネット160を通じて別のヘルスティップデータベース174から読みだされたヘルスティップデータベース144に記憶されたデータを読み出す。ヘルスケア提供者は、多くの患者に適用可能な全般的なヘルスティップ及び特定の登録されたユーザに関連する特別なヘルスティップを含む様々なヘルスティップをヘルスティップデータベース174に入力する。遠隔治療装置100は、ユーザが幅広い様々なヘルスティップを受け取るために、定期的にヘルスティップデータベース144のヘルスティップを更新する。
[0028]図1を再び参照すると、コントローラ124は、遠隔治療装置100の動作を調整する、より具体的には、遠隔治療装置と相互作用する人が登録されたユーザであることを検証するために遠隔治療装置を制御する。遠隔治療装置のいくつかの実施形態は、プロセッサ、マイクロコントローラ、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、又は他のデジタルコンピューティングデバイス等の単一のマイクロ電子装置を含み、コントローラ124、音声データ処理装置112、話者検証モジュール116、及びネットワークI/O120の一部または全部の機能性を実行する。コントローラ124は、メモリ128の記憶プログラム指示領域136に保持されるソフトウェア指示を実行する。いくつかの実施形態では、音声データ処理装置112及び話者検証モジュール116を含む遠隔治療装置100における様々な要素がコントローラ116により実行されるソフトウェアプログラムとして実装される。音声データ処理装置112及び話者検証モジュール116の機能を実行するための記憶された指示は、メモリ128の記憶プログラム領域136に記憶される。他の実施形態では、音声データ処理装置112及び話者検証モジュール116の一つ又は両方が、デジタル信号処理装置(DSPs)等の特別な処理装置を含む。さらに他の実施形態は、ハードウェア及びソフトウェア要素の組み合わせを使用して、音声データ処理装置112及び話者検証モジュール116の機能を実行する。遠隔治療装置における様々なマイクロ電子コンポーネントは、「システムオンチップ」(SoC)構成における単一の物理装置に組み合わされ得る。
[0029]図2は、遠隔治療装置の登録されたユーザとされる人の身元が登録されたユーザと一致することを話者検証システムを通じて検証するためのプロセス200を示す。プロセス200は、説明の目的のために遠隔治療装置100と連動して説明される。以下で説明するように、機能を実行する又は一部の動作を実行するように説明されるプロセスは、機能を実行する又は動作を実行するように一以上の電子部品を動作するためのメモリに格納されたコントローラ実行プログラム指示をいう。プロセス200は、音声入力装置を通じて受け入れた音から音声データを発生する音声入力装置で始まる(ブロック204)。遠隔治療装置100においては、音声入力装置104は、周囲からの音を受け入れる一以上のマイクロホンを含み、音声入力装置は、その受け入れた音から音声データを発生させる。音声信号が発声を含む場合、プロセス200は、音声信号から発声データを発生させ(ブロック212)、発声データを所定のトリガフレーズと比較する(ブロック216)。トリガフレーズは、典型的には、遠隔治療装置100の不意の起動を防止するために、通常の会話では使用されない単語又は複数の単語である。遠隔治療装置は、人にトリガフレーズを話させるためのプロンプト又はリクエストは発生させない。
[0030]遠隔治療装置100は、人102がトリガフレーズを話す監視動作モードユニットにおいて継続的にブロック204−216のプロセスを実行する。監視モードでは、遠隔治療装置における様々な要素が、遠隔治療装置100の電力消費を低減する低電力動作モードに非活性化され又は置かれる。バッテリーを介して動作する遠隔治療装置の実施形態において、低電力モードは、遠隔治療装置のバッテリー寿命を長続きさせる。音声データ処理装置112がトリガ発声データ134に対応する音声信号から発声データを発生させるとき、遠隔治療装置100はプロセス200を続ける。
[0031]プロセス200において、トリガフレーズに対応する発声データは、話者の身元を検証するための後の使用のためにメモリに記憶される(ブロック220)。遠隔治療装置100においては、発声データは、発声データバッファ132に記憶される。トリガフレーズを受けた後、プロセス200は、話者に登録されたユーザの登録名を話させるためのプロンプトを発生させる(ブロック224)。遠隔治療装置100は、スピーカを使用して可聴式のプロンプトを発生させることができ、又は人102にユーザ名を話させるための要求を視覚的に表示することができる。
[0032]遠隔治療装置は、話された登録名に対応する音声データを発生させ(ブロック232)、登録名の音声データに対応する発声データを発生させる(ブロック236)。遠隔治療装置100では、人102が、登録データベース140内の一ユーザに対応する登録名を提供しない場合(ブロック238)、遠隔治療装置100は、話者に登録されたユーザの名前を繰り返すように促すか、トリガフレーズを監視するためにブロック204のプロセスに戻る。登録されたユーザの名前に対応する発声データを受け取った後(ブロック238)、プロセス200は、登録されたユーザの名前に対応する発声データをメモリ内に記憶する(ブロック240)。遠隔治療装置100では、登録名に対応する発声データは、トリガフレーズからの発声データに加えて、発声データバッファ132に記憶される。
[0033]プロセス200は、登録名に対応するユーザの所定の声モデルを使用して、メモリに記憶された発声データの検証のための一以上の信頼スコアを発生させ続ける(ブロック244)。遠隔治療装置100の話者検証モジュール116は、発声データバッファ132から記録された発声データを抽出し、登録データベース140から登録されたユーザの声モデルに対応する発声データを抽出する。いくつかの実施形態では、登録データベース140は一ユーザ以上のためのスピーチモデルを記憶し、プロセス200は、遠隔治療装置100の使用の登録がされた異なるユーザを区別するために、話される登録名に対応するユーザ名を選択する。話者検証モジュール116は、登録データベース140の詐称者からも発声データを抽出する。
[0034]いくつかの場合、トリガフレーズ及び登録名のための発声データは、人102が登録名を有するユーザかどうかを明確に示す信頼スコアを話者検証モジュール116が発生させるのに十分である(ブロック248)。プロセス200は、蓄積されたデータ量を活用して、ブロック244のプロセスにおいて特定される信頼スコアの信頼性を測定する。登録されたユーザの声モデルのための信頼スコアが詐称モデルのための信頼スコアより所定の閾値だけ大きいことを話者検証モジュール116が検証した場合は(ブロック256)、遠隔治療装置100は人102が登録名を有するユーザであることを検証し(ブロック260)、遠隔治療装置100はユーザにサービスを提供する(ブロック264)。
[0035]話者検証モジュール116が詐称者に対応する発声データを示す信頼スコアを特定した場合(ブロック256)、話者検証モジュール116は、人102が登録されたユーザでないことを特定し(ブロック292)、遠隔治療装置100は、詐称者に対して遠隔治療サービスを与えない(ブロック296)。いくつかの構成では、遠隔治療装置100は、検証の試みの失敗した回数を維持し、カウントが所定の閾値を超えた場合に、遠隔治療装置は遠隔治療装置でユーザを検証するための追加の試みをブロックする。例えば、遠隔治療装置で人を検証するための3回連続の試みにより、人が詐称者として特定されることになった場合、遠隔治療装置は、ヘルスケア専門家が装置をリセットするまで、ユーザを締め出す。
[0036]いくつかの場合、話者検証モジュール116は、人102が登録されたユーザであるか否かを検証するために不十分な信頼スコアを発生させる(ブロック248)。例えば、登録ユーザの声モデル及び詐称者声モデルのために発生された信頼スコアが所定値を下回った場合、又は両方の信頼スコアが互いの所定範囲内である場合、話者検証モジュール116は、検証を実行するために追加の発声データを要求してもよい。他の例では、不十分な量の発声データから発生された高い又は低い信頼スコアは、信頼性が低い。プロセス200は、話者を検証するための十分な程度の信頼性を有する信頼スコアを発生させるために追加の発声データを集める。
[0037]追加の発声データを発生させるために、プロセス200は、人102にヘルスティップを話すように促す(ブロック272)。遠隔治療装置は、ヘルスティップデータベース144からヘルスティップを選択し、人102に音声又は視覚的なプロンプトを発生させる。音声入力装置104は、話されたヘルスティップに対応する音声データを発生させ(ブロック276)、音声データ処理装置112は、音声データから発声データを発生させる(ブロック280)。音声データ処理装置112は、発生された発声データと、ヘルスティップデータベース114に記憶された選択されたヘルスティップのための所定の発声データとを比較する。
[0038]発生された発声データがヘルスティップに対応しない場合は(ブロック282)、遠隔治療装置100は人にヘルスティップを話させるためのプロンプトを繰り返す(ブロック272)。遠隔治療装置100は、プロセス200の間、発生された発声データが促されたヘルスティップに対応しない回数のカウントを維持する。このカウントが所定の最大数を超過した場合(ブロック283)、装置100は、ユーザインターフェースで代替の検証を促す(ブロック298)。例えば、ユーザが3回連続でヘルスティップに対する正しい応答ができなかった場合、装置100は代替の検証を要求する。発生された発声データがヘルスティップに対応するときは(ブロック282)、発生された発声データは、発声データバッファ132に記憶される(ブロック284)。プロセス200は、ヘルスティップからの発声データを含む蓄積された発声データの全てを使用して、話者検証を実行するためにブロック244へ戻る。
[0039]いくつかの場合、プロセス200は、人102が登録されたユーザであるかどうかを検証するために十分な発声データが集められる前に、複数のヘルスティップを促す。遠隔治療装置100は、幅広い種類の発声データを話者検証モジュール116に提供するための各反復の間、異なるヘルスティップを促す。プロセス200は、ユーザ検証プロセスの間受け入れられるヘルスティップの数に制限を与える(ブロック268)。例えば、プロセス200が、5つのヘルスティップに対応する発声データを受け取っているが、人102が登録されたユーザかどうかを検証するために十分な発声データがいまだ不足している場合、話者検証プロセス200は終了し、遠隔治療装置100は代替の検証プロセスを使用する(ブロック298)。代替の検証プロセスにおいては、遠隔治療装置はユーザインターフェース108における表示スクリーンにログインプロンプトを発生させ、人102はユーザ名とパスワードをキーパッドを介して入力する。
[0040]遠隔治療装置100及び検証プロセス200は、シンプルで効果的な検証手続きを患者に提供する。遠隔治療装置100は、人が登録されたユーザであることを検証するために、初期トリガフレーズを含む、人から受け取った正当な発声データの全てを使用するので、遠隔治療装置100は、最小限の数のスピーチサンプルで効果的なユーザの検証を可能にする。さらに、ヘルスティップスピーチサンプルは、初期検証プロセスの間であっても各患者に供給される医学的な利点を増加させるための検証プロセスの間に、ヘルスアドバイスを患者に供給する。
[0041]本発明が図面及び上記の記載に詳細に説明され示されているが、本発明は例示的なものであり、その性質に制限されるものではないと考えるべきである。例えば、ここで説明されるスピーチの例は英語であるが、遠隔治療装置100は、スピーチを認識して幅広い範囲の言語から発声データを発生させるように構成され得る。好ましい実施形態のみが提示されており、本発明の思想の範囲内の全ての変更、修正及びさらなる追加が保護されるべきである。
[0041]本発明が図面及び上記の記載に詳細に説明され示されているが、本発明は例示的なものであり、その性質に制限されるものではないと考えるべきである。例えば、ここで説明されるスピーチの例は英語であるが、遠隔治療装置100は、スピーチを認識して幅広い範囲の言語から発声データを発生させるように構成され得る。好ましい実施形態のみが提示されており、本発明の思想の範囲内の全ての変更、修正及びさらなる追加が保護されるべきである。
以下に本明細書が開示する形態のいくつかを記載しておく。
[形態1]
人の身元を検証する方法であって、
人により話される発声に対応する音声データを、音声入力装置を用いて、発生させることと、
音声データ処理装置で前記音声データ内の第1発声データを特定することと、
所定のトリガ発声に対応する前記特定された第1発声データに応じて前記人に登録名を話すことを促すための出力をユーザインターフェース装置で発生させることと、
前記所定のトリガ発声に対応する前記特定された第1発声データに応じて前記特定された第1発声データをメモリに記憶することと、
前記音声入力装置で前記話された登録名に対応する音声データを発生させることと、
前記音声データ処理装置で前記話された登録名に対応する前記音声データにおける第2発声データを特定することと、
前記特定された第2発声データを前記メモリに記憶することと、
前記登録名に関連して登録データベースに登録されたユーザの声の所定のモデルに対応する前記メモリに記憶された前記第1及び第2発声データに応じて、前記人が前記登録名に関連する前記登録データベースに登録されたユーザであることを、話者検証モジュールで検証することと、
前記人が前記登録データベースに登録された前記ユーザであることを検証する前記話者検証モジュールに応じて、前記人にサービスを提供するための出力を前記ユーザインターフェース装置で発生させることと、を含む、方法。
[形態2]
形態1に記載された方法において、
前記メモリ内の前記第1発声データ及び第2発声データが前記ユーザの前記声の前記所定のモデルを有する前記人を検証するのに不十分であることを特定する前記話者検証モジュールに応じて、前記人に所定のフレーズを話すことを促すための出力を前記ユーザインターフェース装置で発生させることと、
前記話される所定のフレーズに対応する音声データを前記音声入力装置で発生させることと、
前記話される所定のフレーズに対応する前記音声データ内の第3発声データを前記音声データ処理装置で特定することと、
前記メモリ内に前記第3発声データを記憶することと、
前記登録データベースに登録された前記ユーザの声の所定のモデルに対応する前記メモリに記憶された前記第1、第2、及び第3発声データに応じて、前記人が前記登録データベースに登録された前記ユーザであることを、前記話者検証モジュールで検証することと、を有する、方法。
[形態3]
形態2に記載された方法において、
前記所定のフレーズの所定の発声データに対応する前記第3発声データに応じて前記メモリ内に前記第3発声データを記憶することを有する、方法。
[形態4]
形態2に記載された方法において、
前記所定のフレーズの所定の発声データに対応しない前記第3発声データに応じて、前記人に前記所定のフレーズを二回話すことを促すための出力を、前記ユーザインターフェース装置で発生させることを有する、方法。
[形態5]
形態2に記載された方法において、
前記ユーザインターフェース装置は、前記所定のフレーズとしてヘルスティップを前記人に話させるためのプロンプトを発生させる、方法。
[形態6]
形態5に記載された方法において、
前記ユーザインターフェース装置は、前記登録データベース内の前記登録名に関連するヘルスティップを前記人に話させるためのプロンプトを発生させる、方法。
[形態7]
形態2に記載された方法において、
前記登録データベースに登録された前記ユーザの前記声の前記所定のモデルに対応しない前記メモリに記憶された前記第1、第2、及び第3発声データに応じて、前記登録名を話す前記人が前記登録名に関連して前記登録データベースに登録された前記ユーザでないことを、前記話者検証モジュールで検証することと、
前記登録名を話す前記人が前記登録データベースに登録された前記ユーザでないことを検証する前記話者検証モジュールに応じて前記人にサービスを与えないための出力を前記ユーザインターフェース装置で発生させることと、を有する、方法。
[形態8]
形態2に記載された方法において、
前記メモリ内の前記第1、第2、及び第3発声データが前記ユーザの前記声の前記所定のモデルを有する前記人を検証するのに不十分であることを特定する前記話者検証モジュールに応じて前記人に少なくとも一つの追加の所定フレーズを話させることを促すための出力を前記ユーザインターフェース装置で発生させ続けることと、
前記人により話される前記少なくとも一つの追加の所定フレーズに対応する音声データを前記音声入力装置で発生させることと、
前記少なくとも一つの追加の所定フレーズに対応する前記音声データ内の少なくとも一つの追加の発声データを前記音声データ処理装置で特定することと、
前記メモリに前記少なくとも一つの追加の発声データを記憶することと、
前記登録データベースに登録された前記ユーザの前記声の前記所定のモデルに対応する前記メモリに記憶された前記第1、第2、第3、及び少なくとも一つの追加の発声データに応じて、前記人が前記登録名に関連して前記登録データベースに登録された前記ユーザであることを、前記話者検証モジュールで検証することと、を有する方法。
[形態9]
形態8に記載された方法において、
所定の閾値を超過する複数の追加の発声データが前記メモリに記憶された後、前記人が前記ユーザであることを前記話者検証モジュールが検証するために不十分な発声データを有する前記メモリに応じて、前記人が前記登録データベース内の前記登録名に関連する前記ユーザであることを前記話者検証モジュールが検証できないことを特定することを有する方法。
[形態10]
形態9に記載された方法において、
前記人が前記登録データベース内の前記登録名に関連する前記ユーザであることを検証することができない前記話者検証モジュールに応じて、前記音声入力装置とは異なるユーザ入力装置で前記人の検証のための情報を入力するように前記ユーザインターフェース装置で前記人に促すことを有する方法。
[形態11]
話者検証を備える遠隔治療装置であって、
人に話された発声から音声データを発生するように構成された音声入力装置と、
前記音声入力装置に動作可能に接続され且つ前記音声入力装置により発生された音声データから発声データを発生させるように構成された音声データ処理装置と、
前記音声データ処理装置により発生された複数の発声データを記憶するように構成されたメモリと、
少なくとも一人のユーザを前記少なくとも一人のユーザに対応する登録名及び声モデルに関連させるように構成された登録データベースと、
前記メモリと前記登録データベースとに動作可能に接続された話者検証モジュールと、
ユーザインターフェース装置と、
前記音声入力装置、音声データ処理装置、メモリ、登録データベース、話者検証モジュール、及びユーザインターフェース装置に動作可能に接続されたコントローラであって、
前記コントローラは、
人により話された発声を含む音を受け且つ前記人に話すことを促すことなく前記発声に対応する音声データを発生させるための前記音声入力装置を起動させ、
前記人により話された前記発声に対応する音声データにおける第1発声データを前記音声データ処理装置で特定し、
前記特定された第1発声データを前記メモリに記憶し、
所定のトリガ発声に対応する前記第1発声データに応じて人に登録名を話すことを促すための出力を前記ユーザインターフェース装置で発生させ、
前記話された登録名に対応する音声データを前記音声入力装置で発生させ、
前記話された登録名に対応する前記音声データにおける第2発声データを前記音声データ処理装置で特定し、
前記特定された第2音声を前記メモリに記憶し、
前記登録名に関連して登録データベースに登録された前記ユーザの声の所定のモデルに対応する前記メモリに記憶された前記第1及び第2発声データに応じて、前記登録名を話す前記人が前記登録名に関連して前記登録データベースに登録されたユーザであることを、前記話者検証モジュールで検証し、
前記登録名を話した前記人が前記ユーザであることを検証する前記話者検証モジュールに応じて前記人にサービスを提供するための出力を前記ユーザインターフェース装置で発生させるように構成される、遠隔治療装置。
[形態12]
形態11に記載された遠隔治療装置において、
前記コントローラは、
前記メモリ内の前記第1及び第2発声データが前記ユーザの前記声の前記所定のモデルを有する前記人を検証するのに不十分であることを特定する前記話者検証モジュールに応じて、前記人に所定のフレーズを話すことを促すための出力を前記ユーザインターフェース装置で発生させ、
前記話される所定のフレーズに対応する音声データを前記音声入力装置で発生させ、
前記話される所定のフレーズに対応する前記音声データ内の第3発声データを前記音声データ処理装置で特定し、
前記メモリ内に前記第3発声データを記憶し、
前記登録データベースに登録された前記ユーザの声の所定のモデルに対応する前記メモリに記憶された前記第1、第2、及び第3発声データに応じて、前記登録名を話す前記人が前記登録データベースに登録された前記ユーザであることを、前記話者検証モジュールで検証するように構成される、遠隔治療装置。
[形態13]
形態12に記載された遠隔治療装置において、
前記音声データ処理装置は、
前記所定のフレーズの所定の発声データに対応する前記第3発声データに応じて前記メモリ内に前記第3発声データを記憶するように構成される、遠隔治療装置。
[形態14]
形態12に記載された遠隔治療装置において、
前記コントローラは、
前記所定のフレーズの所定の発声データに対応しない前記第3発声データに応じて、前記人に前記所定のフレーズを二回話すことを促すための前記出力を、前記ユーザインターフェース装置で発生させるように構成される、遠隔治療装置。
[形態15]
形態12に記載された遠隔治療装置において、
前記ユーザインターフェース装置は、前記所定のフレーズとして、ヘルスティップを前記人に話させるためのプロンプトを発生させるように構成される、遠隔治療装置。
[形態16]
形態15に記載された遠隔治療装置において、
前記ユーザインターフェース装置は、前記登録データベース内の前記登録名に関連するヘルスティップを前記人に話させるためのプロンプトを発生させるように構成される、遠隔治療装置。
[形態17]
形態12に記載された遠隔治療装置において、
前記コントローラは、
前記登録データベースに登録された前記ユーザの前記声の前記所定のモデルに対応しない前記メモリに記憶された前記第1、第2、及び第3発声データに応じて、前記登録名を話す前記人が前記登録名に関連する前記登録データベースに登録された前記ユーザでないことを、前記話者検証モジュールで検証し、
前記登録名を話す前記人が前記登録データベースに登録された前記ユーザでないことを検証する前記話者検証モジュールに応じて、前記人にサービスを与えないための出力を前記ユーザインターフェース装置で発生させるように構成される、遠隔治療装置。
[形態18]
形態12に記載された遠隔治療装置において、
前記コントローラは、
前記メモリ内の前記第1、第2、及び第3発声データが、前記登録データベースに登録された前記ユーザの前記声の前記所定のモデルに対応することを検証するのに前記メモリ内の前記第1、第2、及び第3発声データが不十分であることを特定する前記話者検証モジュールに応じて、前記人に少なくとも一つの追加の所定フレーズを話させることを促すための出力を前記ユーザインターフェース装置で発生させ続け、
前記人により話される前記少なくとも一つの追加の所定フレーズに対応する音声データを前記音声入力装置で発生させ、
前記少なくとも一つの追加の所定フレーズに対応する前記音声データ内の少なくとも一つの追加の発声データを前記音声データ処理装置で特定し、
前記メモリに前記少なくとも一つの追加の発声データを記憶し、
前記登録データベースに登録された前記ユーザの前記声の前記所定のモデルに対応する前記メモリに記憶された前記第1、第2、第3、及び少なくとも一つの追加の発声データに応じて、前記人が前記登録名に関連して前記登録データベースに登録された前記ユーザであることを、前記話者検証モジュールで検証するように構成される、遠隔治療装置。

Claims (18)

  1. 人の身元を検証する方法であって、
    人により話される発声に対応する音声データを、音声入力装置を用いて、発生させることと、
    音声データ処理装置で前記音声データ内の第1発声データを特定することと、
    所定のトリガ発声に対応する前記特定された第1発声データに応じて前記人に登録名を話すことを促すための出力をユーザインターフェース装置で発生させることと、
    前記所定のトリガ発声に対応する前記特定された第1発声データに応じて前記特定された第1発声データをメモリに記憶することと、
    前記音声入力装置で前記話された登録名に対応する音声データを発生させることと、
    前記音声データ処理装置で前記話された登録名に対応する前記音声データにおける第2発声データを特定することと、
    前記特定された第2発声データを前記メモリに記憶することと、
    前記登録名に関連して登録データベースに登録されたユーザの声の所定のモデルに対応する前記メモリに記憶された前記第1及び第2発声データに応じて、前記人が前記登録名に関連する前記登録データベースに登録されたユーザであることを、話者検証モジュールで検証することと、
    前記人が前記登録データベースに登録された前記ユーザであることを検証する前記話者検証モジュールに応じて、前記人にサービスを提供するための出力を前記ユーザインターフェース装置で発生させることと、を含む、方法。
  2. 請求項1に記載された方法において、
    前記メモリ内の前記第1発声データ及び第2発声データが前記ユーザの前記声の前記所定のモデルを有する前記人を検証するのに不十分であることを特定する前記話者検証モジュールに応じて、前記人に所定のフレーズを話すことを促すための出力を前記ユーザインターフェース装置で発生させることと、
    前記話される所定のフレーズに対応する音声データを前記音声入力装置で発生させることと、
    前記話される所定のフレーズに対応する前記音声データ内の第3発声データを前記音声データ処理装置で特定することと、
    前記メモリ内に前記第3発声データを記憶することと、
    前記登録データベースに登録された前記ユーザの声の所定のモデルに対応する前記メモリに記憶された前記第1、第2、及び第3発声データに応じて、前記人が前記登録データベースに登録された前記ユーザであることを、前記話者検証モジュールで検証することと、を有する、方法。
  3. 請求項2に記載された方法において、
    前記所定のフレーズの所定の発声データに対応する前記第3発声データに応じて前記メモリ内に前記第3発声データを記憶することを有する、方法。
  4. 請求項2に記載された方法において、
    前記所定のフレーズの所定の発声データに対応しない前記第3発声データに応じて、前記人に前記所定のフレーズを二回話すことを促すための出力を、前記ユーザインターフェース装置で発生させることを有する、方法。
  5. 請求項2に記載された方法において、
    前記ユーザインターフェース装置は、前記所定のフレーズとしてヘルスティップを前記人に話させるためのプロンプトを発生させる、方法。
  6. 請求項5に記載された方法において、
    前記ユーザインターフェース装置は、前記登録データベース内の前記登録名に関連するヘルスティップを前記人に話させるためのプロンプトを発生させる、方法。
  7. 請求項2に記載された方法において、
    前記登録データベースに登録された前記ユーザの前記声の前記所定のモデルに対応しない前記メモリに記憶された前記第1、第2、及び第3発声データに応じて、前記登録名を話す前記人が前記登録名に関連して前記登録データベースに登録された前記ユーザでないことを、前記話者検証モジュールで検証することと、
    前記登録名を話す前記人が前記登録データベースに登録された前記ユーザでないことを検証する前記話者検証モジュールに応じて前記人にサービスを与えないための出力を前記ユーザインターフェース装置で発生させることと、を有する、方法。
  8. 請求項2に記載された方法において、
    前記メモリ内の前記第1、第2、及び第3発声データが前記ユーザの前記声の前記所定のモデルを有する前記人を検証するのに不十分であることを特定する前記話者検証モジュールに応じて前記人に少なくとも一つの追加の所定フレーズを話させることを促すための出力を前記ユーザインターフェース装置で発生させ続けることと、
    前記人により話される前記少なくとも一つの追加の所定フレーズに対応する音声データを前記音声入力装置で発生させることと、
    前記少なくとも一つの追加の所定フレーズに対応する前記音声データ内の少なくとも一つの追加の発声データを前記音声データ処理装置で特定することと、
    前記メモリに前記少なくとも一つの追加の発声データを記憶することと、
    前記登録データベースに登録された前記ユーザの前記声の前記所定のモデルに対応する前記メモリに記憶された前記第1、第2、第3、及び少なくとも一つの追加の発声データに応じて、前記人が前記登録名に関連して前記登録データベースに登録された前記ユーザであることを、前記話者検証モジュールで検証することと、を有する方法。
  9. 請求項8に記載された方法において、
    所定の閾値を超過する複数の追加の発声データが前記メモリに記憶された後、前記人が前記ユーザであることを前記話者検証モジュールが検証するために不十分な発声データを有する前記メモリに応じて、前記人が前記登録データベース内の前記登録名に関連する前記ユーザであることを前記話者検証モジュールが検証できないことを特定することを有する方法。
  10. 請求項9に記載された方法において、
    前記人が前記登録データベース内の前記登録名に関連する前記ユーザであることを検証することができない前記話者検証モジュールに応じて、前記音声入力装置とは異なるユーザ入力装置で前記人の検証のための情報を入力するように前記ユーザインターフェース装置で前記人に促すことを有する方法。
  11. 話者検証を備える遠隔治療装置であって、
    人に話された発声から音声データを発生するように構成された音声入力装置と、
    前記音声入力装置に動作可能に接続され且つ前記音声入力装置により発生された音声データから発声データを発生させるように構成された音声データ処理装置と、
    前記音声データ処理装置により発生された複数の発声データを記憶するように構成されたメモリと、
    少なくとも一人のユーザを前記少なくとも一人のユーザに対応する登録名及び声モデルに関連させるように構成された登録データベースと、
    前記メモリと前記登録データベースとに動作可能に接続された話者検証モジュールと、
    ユーザインターフェース装置と、
    前記音声入力装置、音声データ処理装置、メモリ、登録データベース、話者検証モジュール、及びユーザインターフェース装置に動作可能に接続されたコントローラであって、
    前記コントローラは、
    人により話された発声を含む音を受け且つ前記人に話すことを促すことなく前記発声に対応する音声データを発生させるための前記音声入力装置を起動させ、
    前記人により話された前記発声に対応する音声データにおける第1発声データを前記音声データ処理装置で特定し、
    前記特定された第1発声データを前記メモリに記憶し、
    所定のトリガ発声に対応する前記第1発声データに応じて人に登録名を話すことを促すための出力を前記ユーザインターフェース装置で発生させ、
    前記話された登録名に対応する音声データを前記音声入力装置で発生させ、
    前記話された登録名に対応する前記音声データにおける第2発声データを前記音声データ処理装置で特定し、
    前記特定された第2音声を前記メモリに記憶し、
    前記登録名に関連して登録データベースに登録された前記ユーザの声の所定のモデルに対応する前記メモリに記憶された前記第1及び第2発声データに応じて、前記登録名を話す前記人が前記登録名に関連して前記登録データベースに登録されたユーザであることを、前記話者検証モジュールで検証し、
    前記登録名を話した前記人が前記ユーザであることを検証する前記話者検証モジュールに応じて前記人にサービスを提供するための出力を前記ユーザインターフェース装置で発生させるように構成される、遠隔治療装置。
  12. 請求項11に記載された遠隔治療装置において、
    前記コントローラは、
    前記メモリ内の前記第1及び第2発声データが前記ユーザの前記声の前記所定のモデルを有する前記人を検証するのに不十分であることを特定する前記話者検証モジュールに応じて、前記人に所定のフレーズを話すことを促すための出力を前記ユーザインターフェース装置で発生させ、
    前記話される所定のフレーズに対応する音声データを前記音声入力装置で発生させ、
    前記話される所定のフレーズに対応する前記音声データ内の第3発声データを前記音声データ処理装置で特定し、
    前記メモリ内に前記第3発声データを記憶し、
    前記登録データベースに登録された前記ユーザの声の所定のモデルに対応する前記メモリに記憶された前記第1、第2、及び第3発声データに応じて、前記登録名を話す前記人が前記登録データベースに登録された前記ユーザであることを、前記話者検証モジュールで検証するように構成される、遠隔治療装置。
  13. 請求項12に記載された遠隔治療装置において、
    前記音声データ処理装置は、
    前記所定のフレーズの所定の発声データに対応する前記第3発声データに応じて前記メモリ内に前記第3発声データを記憶するように構成される、遠隔治療装置。
  14. 請求項12に記載された遠隔治療装置において、
    前記コントローラは、
    前記所定のフレーズの所定の発声データに対応しない前記第3発声データに応じて、前記人に前記所定のフレーズを二回話すことを促すための前記出力を、前記ユーザインターフェース装置で発生させるように構成される、遠隔治療装置。
  15. 請求項12に記載された遠隔治療装置において、
    前記ユーザインターフェース装置は、前記所定のフレーズとして、ヘルスティップを前記人に話させるためのプロンプトを発生させるように構成される、遠隔治療装置。
  16. 請求項15に記載された遠隔治療装置において、
    前記ユーザインターフェース装置は、前記登録データベース内の前記登録名に関連するヘルスティップを前記人に話させるためのプロンプトを発生させるように構成される、遠隔治療装置。
  17. 請求項12に記載された遠隔治療装置において、
    前記コントローラは、
    前記登録データベースに登録された前記ユーザの前記声の前記所定のモデルに対応しない前記メモリに記憶された前記第1、第2、及び第3発声データに応じて、前記登録名を話す前記人が前記登録名に関連する前記登録データベースに登録された前記ユーザでないことを、前記話者検証モジュールで検証し、
    前記登録名を話す前記人が前記登録データベースに登録された前記ユーザでないことを検証する前記話者検証モジュールに応じて、前記人にサービスを与えないための出力を前記ユーザインターフェース装置で発生させるように構成される、遠隔治療装置。
  18. 請求項12に記載された遠隔治療装置において、
    前記コントローラは、
    前記メモリ内の前記第1、第2、及び第3発声データが、前記登録データベースに登録された前記ユーザの前記声の前記所定のモデルに対応することを検証するのに前記メモリ内の前記第1、第2、及び第3発声データが不十分であることを特定する前記話者検証モジュールに応じて、前記人に少なくとも一つの追加の所定フレーズを話させることを促すための出力を前記ユーザインターフェース装置で発生させ続け、
    前記人により話される前記少なくとも一つの追加の所定フレーズに対応する音声データを前記音声入力装置で発生させ、
    前記少なくとも一つの追加の所定フレーズに対応する前記音声データ内の少なくとも一つの追加の発声データを前記音声データ処理装置で特定し、
    前記メモリに前記少なくとも一つの追加の発声データを記憶し、
    前記登録データベースに登録された前記ユーザの前記声の前記所定のモデルに対応する前記メモリに記憶された前記第1、第2、第3、及び少なくとも一つの追加の発声データに応じて、前記人が前記登録名に関連して前記登録データベースに登録された前記ユーザであることを、前記話者検証モジュールで検証するように構成される、遠隔治療装置。
JP2014550425A 2011-12-29 2012-12-26 健康監視システムにおける話者検証 Active JP6234937B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/340,213 2011-12-29
US13/340,213 US8818810B2 (en) 2011-12-29 2011-12-29 Speaker verification in a health monitoring system
PCT/US2012/071633 WO2013101818A1 (en) 2011-12-29 2012-12-26 Speaker verification in a health monitoring system

Publications (2)

Publication Number Publication Date
JP2015510606A true JP2015510606A (ja) 2015-04-09
JP6234937B2 JP6234937B2 (ja) 2017-11-22

Family

ID=47553473

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014550425A Active JP6234937B2 (ja) 2011-12-29 2012-12-26 健康監視システムにおける話者検証

Country Status (6)

Country Link
US (2) US8818810B2 (ja)
EP (1) EP2810277B1 (ja)
JP (1) JP6234937B2 (ja)
KR (1) KR101986867B1 (ja)
CN (1) CN104160441B (ja)
WO (1) WO2013101818A1 (ja)

Families Citing this family (82)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US20120311585A1 (en) 2011-06-03 2012-12-06 Apple Inc. Organizing task items that represent tasks to perform
KR20120121070A (ko) * 2011-04-26 2012-11-05 삼성전자주식회사 원격 건강관리 시스템 및 이를 이용한 건강관리 방법
US10008206B2 (en) * 2011-12-23 2018-06-26 National Ict Australia Limited Verifying a user
US9390445B2 (en) 2012-03-05 2016-07-12 Visa International Service Association Authentication using biometric technology through a consumer device
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
US9536528B2 (en) 2012-07-03 2017-01-03 Google Inc. Determining hotword suitability
US8850534B2 (en) * 2012-07-06 2014-09-30 Daon Holdings Limited Methods and systems for enhancing the accuracy performance of authentication systems
US10438591B1 (en) * 2012-10-30 2019-10-08 Google Llc Hotword-based speaker recognition
US9704486B2 (en) * 2012-12-11 2017-07-11 Amazon Technologies, Inc. Speech recognition power management
US8694315B1 (en) 2013-02-05 2014-04-08 Visa International Service Association System and method for authentication using speaker verification techniques and fraud model
DE212014000045U1 (de) 2013-02-07 2015-09-24 Apple Inc. Sprach-Trigger für einen digitalen Assistenten
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
US10748529B1 (en) 2013-03-15 2020-08-18 Apple Inc. Voice activated device for use with a voice-based digital assistant
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
GB2515527B (en) * 2013-06-26 2016-08-31 Cirrus Logic Int Semiconductor Ltd Speech Recognition
GB2526980B (en) * 2013-07-10 2017-04-12 Cirrus Logic Int Semiconductor Ltd Sensor input recognition
CN110096253B (zh) * 2013-07-11 2022-08-30 英特尔公司 利用相同的音频输入的设备唤醒和说话者验证
US9711148B1 (en) * 2013-07-18 2017-07-18 Google Inc. Dual model speaker identification
US9189742B2 (en) * 2013-11-20 2015-11-17 Justin London Adaptive virtual intelligent agent
GB2524222B (en) * 2013-12-18 2018-07-18 Cirrus Logic Int Semiconductor Ltd Activating speech processing
EP3149728B1 (en) 2014-05-30 2019-01-16 Apple Inc. Multi-command single utterance input method
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
KR102246900B1 (ko) * 2014-07-29 2021-04-30 삼성전자주식회사 전자 장치 및 이의 음성 인식 방법
US10971260B2 (en) 2014-09-14 2021-04-06 Becton, Dickinson And Company System and method for capturing dose information
US10704944B2 (en) 2014-09-14 2020-07-07 Becton, Dickinson And Company System and method for capturing dose information
CN105740056B (zh) * 2014-12-08 2019-03-29 联想(北京)有限公司 信息处理方法及电子设备
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US10200824B2 (en) 2015-05-27 2019-02-05 Apple Inc. Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback
US10438593B2 (en) 2015-07-22 2019-10-08 Google Llc Individualized hotword detection models
US10331312B2 (en) 2015-09-08 2019-06-25 Apple Inc. Intelligent automated assistant in a media environment
US10740384B2 (en) 2015-09-08 2020-08-11 Apple Inc. Intelligent automated assistant for media search and playback
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10956666B2 (en) 2015-11-09 2021-03-23 Apple Inc. Unconventional virtual assistant interactions
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
WO2017162675A1 (en) 2016-03-22 2017-09-28 Koninklijke Philips N.V. Analyzing validity of measured health-related data
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
DK180048B1 (en) 2017-05-11 2020-02-04 Apple Inc. MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK201770427A1 (en) 2017-05-12 2018-12-20 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
US10303715B2 (en) 2017-05-16 2019-05-28 Apple Inc. Intelligent automated assistant for media exploration
US20180336892A1 (en) 2017-05-16 2018-11-22 Apple Inc. Detecting a trigger of a digital assistant
JP6972149B2 (ja) * 2017-09-28 2021-11-24 京セラ株式会社 音声命令システム及び音声命令方法
US10901687B2 (en) 2018-02-27 2021-01-26 Dish Network L.L.C. Apparatus, systems and methods for presenting content reviews in a virtual world
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US11538045B2 (en) 2018-09-28 2022-12-27 Dish Network L.L.C. Apparatus, systems and methods for determining a commentary rating
US11501879B2 (en) * 2018-10-01 2022-11-15 Preventice Technologies, Inc. Voice control for remote monitoring
US10918910B2 (en) * 2018-11-27 2021-02-16 Sap Se Digital assistant for therapeutic treatment
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
DK180129B1 (en) 2019-05-31 2020-06-02 Apple Inc. USER ACTIVITY SHORTCUT SUGGESTIONS
DK201970510A1 (en) 2019-05-31 2021-02-11 Apple Inc Voice identification in digital assistant systems
US11468890B2 (en) 2019-06-01 2022-10-11 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
WO2021056255A1 (en) 2019-09-25 2021-04-01 Apple Inc. Text detection using global geometry estimators
CN111193811A (zh) * 2020-03-04 2020-05-22 杭州憶盛医疗科技有限公司 一种基于5g网络的医疗手术在线远程控制系统
US11038934B1 (en) 2020-05-11 2021-06-15 Apple Inc. Digital assistant hardware abstraction
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
US11755276B2 (en) 2020-05-12 2023-09-12 Apple Inc. Reducing description length based on confidence
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones
US20220272131A1 (en) * 2020-09-04 2022-08-25 Puzzle Ai Co., Ltd. Method, electronic device and system for generating record of telemedicine service
CN114861594B (zh) * 2022-07-08 2022-09-20 英诺达(成都)电子科技有限公司 芯片的低功耗验证方法、装置、设备及存储介质

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6012027A (en) * 1997-05-27 2000-01-04 Ameritech Corporation Criteria for usable repetitions of an utterance during speech reference enrollment
JP2000181490A (ja) * 1998-12-18 2000-06-30 Fujitsu Ltd 利用者照合方法および利用者照合装置
US6246987B1 (en) * 1998-02-04 2001-06-12 Alcatel Usa Sourcing, L.P. System for permitting access to a common resource in response to speaker identification and verification
JP2002123294A (ja) * 2000-10-18 2002-04-26 Olympus Optical Co Ltd 医療システム
JP2002221992A (ja) * 2001-01-29 2002-08-09 Nec Corp 人物特定システム
JP2002258883A (ja) * 2001-02-27 2002-09-11 Sanyo Electric Co Ltd 音声再生装置、音声再生方法及び音声再生システム
JP2002288140A (ja) * 2001-03-23 2002-10-04 Nec Corp 個人認証方式
US20030125944A1 (en) * 1999-07-12 2003-07-03 Robert C. Wohlsen Method and system for identifying a user by voice
JP2003521292A (ja) * 1999-12-23 2003-07-15 フィリップス コーポレイト インテレクチュアル プロパティ ゲーエムベーハー 患者識別された測定

Family Cites Families (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58129682A (ja) 1982-01-29 1983-08-02 Toshiba Corp 個人照合装置
JPS648670A (en) * 1987-07-01 1989-01-12 Fujitsu Ltd Mos field-effect transistor
US5365574A (en) 1990-05-15 1994-11-15 Vcs Industries, Inc. Telephone network voice recognition and verification using selectively-adjustable signal thresholds
US5127043A (en) * 1990-05-15 1992-06-30 Vcs Industries, Inc. Simultaneous speaker-independent voice recognition and verification over a telephone network
US5517558A (en) * 1990-05-15 1996-05-14 Voice Control Systems, Inc. Voice-controlled account access over a telephone network
US5265191A (en) 1991-09-17 1993-11-23 At&T Bell Laboratories Technique for voice-based security systems
US5660176A (en) 1993-12-29 1997-08-26 First Opinion Corporation Computerized medical diagnostic and treatment advice system
US5608784A (en) * 1994-01-24 1997-03-04 Miller; Joel F. Method of personnel verification using voice recognition
US5414755A (en) 1994-08-10 1995-05-09 Itt Corporation System and method for passive voice verification in a telephone network
US5774841A (en) 1995-09-20 1998-06-30 The United States Of America As Represented By The Adminstrator Of The National Aeronautics And Space Administration Real-time reconfigurable adaptive speech recognition command and control apparatus and method
US6073101A (en) 1996-02-02 2000-06-06 International Business Machines Corporation Text independent speaker recognition for transparent command ambiguity resolution and continuous access control
US5752231A (en) 1996-02-12 1998-05-12 Texas Instruments Incorporated Method and system for performing speaker verification on a spoken utterance
US5940476A (en) 1996-06-28 1999-08-17 Distributed Software Development, Inc. System and method for identifying an unidentified caller
US6292782B1 (en) 1996-09-09 2001-09-18 Philips Electronics North America Corp. Speech recognition and verification system enabling authorized data transmission over networked computer systems
CA2267954C (en) 1996-10-15 2005-06-28 Swisscom Ag Speaker verification method
AU5359498A (en) 1996-11-22 1998-06-10 T-Netix, Inc. Subword-based speaker verification using multiple classifier fusion, with channel, fusion, model, and threshold adaptation
CA2284168A1 (en) 1997-03-13 1998-09-17 First Opinion Corporation Disease management system
US5897616A (en) * 1997-06-11 1999-04-27 International Business Machines Corporation Apparatus and methods for speaker verification/identification/classification employing non-acoustic and/or acoustic models and databases
US6697783B1 (en) 1997-09-30 2004-02-24 Medco Health Solutions, Inc. Computer implemented medical integrated decision support system
US6064963A (en) 1997-12-17 2000-05-16 Opus Telecom, L.L.C. Automatic key word or phrase speech recognition for the corrections industry
US6505155B1 (en) 1999-05-06 2003-01-07 International Business Machines Corporation Method and system for automatically adjusting prompt feedback based on predicted recognition accuracy
US7590538B2 (en) * 1999-08-31 2009-09-15 Accenture Llp Voice recognition system for navigating on the internet
US6523009B1 (en) 1999-11-06 2003-02-18 Bobbi L. Wilkins Individualized patient electronic medical records system
US7194395B2 (en) 2000-02-23 2007-03-20 The United States Of America As Represented By The Secretary Of The Army System and method for hazardous incident decision support and training
US6611206B2 (en) * 2001-03-15 2003-08-26 Koninklijke Philips Electronics N.V. Automatic system for monitoring independent person requiring occasional assistance
US6853716B1 (en) 2001-04-16 2005-02-08 Cisco Technology, Inc. System and method for identifying a participant during a conference call
US7493264B1 (en) 2001-06-11 2009-02-17 Medco Health Solutions, Inc, Method of care assessment and health management
US7702918B2 (en) 2001-07-18 2010-04-20 Daon Holdings Limited Distributed network system using biometric authentication access
US20050154588A1 (en) 2001-12-12 2005-07-14 Janas John J.Iii Speech recognition and control in a process support system
US7240007B2 (en) 2001-12-13 2007-07-03 Matsushita Electric Industrial Co., Ltd. Speaker authentication by fusion of voiceprint match attempt results with additional information
DE10313310A1 (de) 2003-03-25 2004-10-21 Siemens Ag Verfahren zur sprecherabhängigen Spracherkennung und Spracherkennungssystem dafür
US20070043570A1 (en) 2003-07-18 2007-02-22 Koninklijke Philips Electronics N.V. Method of controlling a dialoging process
US7418392B1 (en) 2003-09-25 2008-08-26 Sensory, Inc. System and method for controlling the operation of a device by voice commands
US20070033041A1 (en) 2004-07-12 2007-02-08 Norton Jeffrey W Method of identifying a person based upon voice analysis
US7254383B2 (en) 2004-07-30 2007-08-07 At&T Knowledge Ventures, L.P. Voice over IP based biometric authentication
US7668733B2 (en) 2004-11-09 2010-02-23 Medcor, Inc. Providing adaptive medical triage
US7529677B1 (en) 2005-01-21 2009-05-05 Itt Manufacturing Enterprises, Inc. Methods and apparatus for remotely processing locally generated commands to control a local device
US7424431B2 (en) 2005-07-11 2008-09-09 Stragent, Llc System, method and computer program product for adding voice activation and voice control to a media player
US20070038460A1 (en) 2005-08-09 2007-02-15 Jari Navratil Method and system to improve speaker verification accuracy by detecting repeat imposters
US7962340B2 (en) 2005-08-22 2011-06-14 Nuance Communications, Inc. Methods and apparatus for buffering data for use in accordance with a speech recognition system
US20070112571A1 (en) 2005-11-11 2007-05-17 Murugappan Thirugnana Speech recognition at a mobile terminal
US20070143307A1 (en) 2005-12-15 2007-06-21 Bowers Matthew N Communication system employing a context engine
US20080104410A1 (en) 2006-10-25 2008-05-01 Brown Daniel R Electronic clinical system having two-factor user authentication prior to controlled action and method of use
US7992196B2 (en) 2006-11-06 2011-08-02 Voice Identity, Inc. Apparatus and method for performing hosted and secure identity authentication using biometric voice verification over a digital network medium
US9762576B2 (en) 2006-11-16 2017-09-12 Phonefactor, Inc. Enhanced multi factor authentication
US8787555B2 (en) 2006-12-19 2014-07-22 Telethrive, Inc. Process for obtaining expert advice on-demand
DE102007021772B4 (de) 2007-05-09 2013-01-24 Voicecash Ip Gmbh Digitales Verfahren und Anordnung zur Authentifizierung eines Nutzers einer Datenbasis
US8831941B2 (en) 2007-05-29 2014-09-09 At&T Intellectual Property Ii, L.P. System and method for tracking fraudulent electronic transactions using voiceprints of uncommon words
US8050917B2 (en) * 2007-09-27 2011-11-01 Siemens Enterprise Communications, Inc. Method and apparatus for identification of conference call participants
US7766223B1 (en) 2007-11-08 2010-08-03 Mello Steven M Method and system for mobile services
US8050920B2 (en) * 2008-01-18 2011-11-01 Universidad De Chile Biometric control method on the telephone network with speaker verification technology by using an intra speaker variability and additive noise unsupervised compensation
US8498870B2 (en) 2008-01-24 2013-07-30 Siemens Medical Solutions Usa, Inc. Medical ontology based data and voice command processing system
US8536976B2 (en) 2008-06-11 2013-09-17 Veritrix, Inc. Single-channel multi-factor authentication
CA2665009C (en) 2008-05-23 2018-11-27 Accenture Global Services Gmbh System for handling a plurality of streaming voice signals for determination of responsive action thereto
WO2010031070A2 (en) * 2008-09-15 2010-03-18 Masimo Corporation Patient monitor including multi-parameter graphical display
US8332223B2 (en) * 2008-10-24 2012-12-11 Nuance Communications, Inc. Speaker verification methods and apparatus
US20100114573A1 (en) * 2008-10-30 2010-05-06 Motorola, Inc. Method and Device for Verifying a User
US8095368B2 (en) 2008-12-04 2012-01-10 At&T Intellectual Property I, L.P. System and method for voice authentication over a computer network
WO2011002735A1 (en) 2009-07-01 2011-01-06 Carnegie Mellon University Methods and apparatuses for monitoring energy consumption and related operations
KR20110010939A (ko) 2009-07-27 2011-02-08 삼성전자주식회사 휴대용 단말기에서 음성 인식 성능을 향상시키기 위한 장치 및 방법
US8340831B2 (en) 2009-12-16 2012-12-25 Robert Bosch Gmbh Non-intrusive load monitoring system and method
US9672335B2 (en) 2009-12-17 2017-06-06 Laird H Shuart Cognitive-based logon process for computing device
CN102238190B (zh) * 2011-08-01 2013-12-11 安徽科大讯飞信息科技股份有限公司 身份认证方法及系统
SG11201504186UA (en) * 2012-12-19 2015-07-30 Visa Int Service Ass System and method for voice authentication
US8694315B1 (en) * 2013-02-05 2014-04-08 Visa International Service Association System and method for authentication using speaker verification techniques and fraud model

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6012027A (en) * 1997-05-27 2000-01-04 Ameritech Corporation Criteria for usable repetitions of an utterance during speech reference enrollment
US6246987B1 (en) * 1998-02-04 2001-06-12 Alcatel Usa Sourcing, L.P. System for permitting access to a common resource in response to speaker identification and verification
JP2000181490A (ja) * 1998-12-18 2000-06-30 Fujitsu Ltd 利用者照合方法および利用者照合装置
US20030125944A1 (en) * 1999-07-12 2003-07-03 Robert C. Wohlsen Method and system for identifying a user by voice
JP2003521292A (ja) * 1999-12-23 2003-07-15 フィリップス コーポレイト インテレクチュアル プロパティ ゲーエムベーハー 患者識別された測定
JP2002123294A (ja) * 2000-10-18 2002-04-26 Olympus Optical Co Ltd 医療システム
JP2002221992A (ja) * 2001-01-29 2002-08-09 Nec Corp 人物特定システム
JP2002258883A (ja) * 2001-02-27 2002-09-11 Sanyo Electric Co Ltd 音声再生装置、音声再生方法及び音声再生システム
JP2002288140A (ja) * 2001-03-23 2002-10-04 Nec Corp 個人認証方式

Also Published As

Publication number Publication date
EP2810277B1 (en) 2016-04-27
WO2013101818A1 (en) 2013-07-04
JP6234937B2 (ja) 2017-11-22
US20140365219A1 (en) 2014-12-11
EP2810277A1 (en) 2014-12-10
US20130173268A1 (en) 2013-07-04
US8818810B2 (en) 2014-08-26
KR101986867B1 (ko) 2019-06-07
CN104160441B (zh) 2017-12-15
CN104160441A (zh) 2014-11-19
US9424845B2 (en) 2016-08-23
KR20140137343A (ko) 2014-12-02

Similar Documents

Publication Publication Date Title
JP6234937B2 (ja) 健康監視システムにおける話者検証
CN110024038B (zh) 与用户和装置进行合成交互的系统和方法
Levy et al. The effects of intensive speech treatment on intelligibility in Parkinson's disease: a randomised controlled trial
US10224060B2 (en) Interactive home-appliance system, server device, interactive home appliance, method for allowing home-appliance system to interact, and nonvolatile computer-readable data recording medium encoded with program for allowing computer to implement the method
US9286442B2 (en) Telecare and/or telehealth communication method and system
US8500635B2 (en) Mobile system and method for addressing symptoms related to mental health conditions
EP3918535A1 (en) Efficient wellness measurement in ear-wearable devices
US20160117940A1 (en) Method, system, and apparatus for treating a communication disorder
US20130158434A1 (en) Apparatus for voice assisted medical diagnosis
WO2016007471A1 (en) Medical device with natural language processor
US20060029912A1 (en) Aural rehabilitation system and a method of using the same
JP2019527864A (ja) 安心で独立した生活を促進するためのバーチャル健康アシスタント
Chisolm et al. Learning to listen again: the role of compliance in auditory training for adults with hearing loss
Sweetow et al. Technologic advances in aural rehabilitation: Applications and innovative methods of service delivery
Van Stan et al. Integration of motor learning principles into real-time ambulatory voice biofeedback and example implementation via a clinical case study with vocal fold nodules
Pizarek et al. Effect of computerized auditory training on speech perception of adults with hearing impairment
JP2021110895A (ja) 難聴判定装置、難聴判定システム、コンピュータプログラム及び認知機能レベル補正方法
Van Stan et al. Ambulatory voice biofeedback: Acquisition and retention of modified daily voice use in patients with phonotraumatic vocal hyperfunction
US20190279182A1 (en) Participative health kiosk
Stipancic et al. Clear speech variants: an investigation of intelligibility and speaker effort in speakers with Parkinson's disease
de Larrea-Mancera et al. Training with an auditory perceptual learning game transfers to speech in competition
US20220223259A1 (en) Risk Assessment for Suicide and Treatment Based on Interaction with Virtual Clinician, Food Intake Tracking, and/or Satiety Determination
CN110767282A (zh) 一种健康档案生成方法、装置以及计算机可读存储介质
US20240071601A1 (en) Method and device for controlling improved cognitive function training app
WO2023209598A1 (en) Dynamic list-based speech testing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170926

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171025

R150 Certificate of patent or registration of utility model

Ref document number: 6234937

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250