JP2006115476A - モバイル装置における多感覚応用の音声強調のための方法および装置 - Google Patents

モバイル装置における多感覚応用の音声強調のための方法および装置 Download PDF

Info

Publication number
JP2006115476A
JP2006115476A JP2005257895A JP2005257895A JP2006115476A JP 2006115476 A JP2006115476 A JP 2006115476A JP 2005257895 A JP2005257895 A JP 2005257895A JP 2005257895 A JP2005257895 A JP 2005257895A JP 2006115476 A JP2006115476 A JP 2006115476A
Authority
JP
Japan
Prior art keywords
mobile device
server
communication
mobile
devices
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005257895A
Other languages
English (en)
Other versions
JP2006115476A5 (ja
JP4870953B2 (ja
Inventor
Michael J Sinclair
ジェー.シンクレア マイケル
Randy Phyllis Granovetter
フィリス グラノフェッター ランディー
Zhengyou Zhang
チャン チョンヨウ
Zicheng Liu
リュー ジチェン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2006115476A publication Critical patent/JP2006115476A/ja
Publication of JP2006115476A5 publication Critical patent/JP2006115476A5/ja
Application granted granted Critical
Publication of JP4870953B2 publication Critical patent/JP4870953B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/60Substation equipment, e.g. for use by subscribers including speech amplifiers
    • H04M1/6033Substation equipment, e.g. for use by subscribers including speech amplifiers for providing handsfree use or a loudspeaker mode in telephone sets
    • H04M1/6041Portable telephones adapted for handsfree use
    • H04M1/605Portable telephones adapted for handsfree use involving control of the receiver volume to provide a dual operational mode at close or far distance from the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/20Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/24Speech recognition using non-acoustical features
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/40Circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/60Substation equipment, e.g. for use by subscribers including speech amplifiers
    • H04M1/6008Substation equipment, e.g. for use by subscribers including speech amplifiers in the transmitter circuit
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/60Substation equipment, e.g. for use by subscribers including speech amplifiers
    • H04M1/6033Substation equipment, e.g. for use by subscribers including speech amplifiers for providing handsfree use or a loudspeaker mode in telephone sets
    • H04M1/6041Portable telephones adapted for handsfree use
    • H04M1/6058Portable telephones adapted for handsfree use involving the use of a headset accessory device connected to the portable telephone
    • H04M1/6066Portable telephones adapted for handsfree use involving the use of a headset accessory device connected to the portable telephone including a wireless connection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/08Mouthpieces; Microphones; Attachments therefor
    • H04R1/083Special constructions of mouthpieces
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L2021/02161Number of inputs available containing the signal or the noise to be suppressed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/04Supports for telephone transmitters or receivers
    • H04M1/05Supports for telephone transmitters or receivers specially adapted for use on head, throat or breast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/72412User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories using two-way short-range wireless interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/02Details of telephonic subscriber devices including a Bluetooth interface
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/06Details of telephonic subscriber devices including a wireless LAN interface
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/10Details of telephonic subscriber devices including a GPS signal receiver
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W88/00Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
    • H04W88/02Terminal devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W92/00Interfaces specially adapted for wireless communication networks
    • H04W92/16Interfaces between hierarchically similar devices
    • H04W92/18Interfaces between hierarchically similar devices between terminal devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Quality & Reliability (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Telephone Function (AREA)
  • Telephonic Communication Services (AREA)
  • Telephone Set Structure (AREA)
  • Arrangements For Transmission Of Measured Signals (AREA)
  • Machine Translation (AREA)
  • Computer And Data Communications (AREA)

Abstract

【課題】多感覚応用の強調された音声信号を提供できるモバイル装置の提供。
【解決手段】モバイル装置は、気導マイクロホンおよび音声に関する情報を含む電子補助センサ信号を供給する補助センサを含む。モバイル装置は、複数のタイプの通信を許容する通信インターフェイスによって、他のモバイル装置と直接通信することができる。
【選択図】 図13

Description

本発明はモバイル装置に関する。より詳細には、本発明は多感覚応用の音声強調(multi−sensory speech enhancement)のためのモバイル装置に関する。
電話機能を提供したり、音声入力を受け付けたりする携帯電話やPDA(携帯情報端末)などのモバイルハンドヘルド装置は、にぎやかな通り、レストラン、空港、車などの劣悪な雑音環境で使用されることが多い。こうした環境における激しい周囲雑音は、ユーザの音声を不明瞭にし、人が何を話しているかをわかりにくくする可能性がある。さらに、音声認識の精度を極度に低下させる。
雑音のモデルに基づいて雑音の除去を試みるノイズフィルタリングシステムが開発されているが、こうしたシステムは、すべての雑音を除去することはできない。特に、こうしたシステムの多くは、背景での他の人の話から成る雑音を除去するのが困難であることがわかっている。その1つの理由は、マイクロホンによって受信された音声信号がモバイル装置を使用している人以外の誰かによって発せられたことを、このようなシステムが判断することは、不可能でないにしても、極端に難しいからである。
ユーザの頭または耳の上にヘッドセットをかけることによって、ユーザの頭の所定の位置に保持される電話ヘッドセットの場合には、ヘッドセットの追加型センサに依存することによって、より頑強なノイズフィルタリングを提供するシステムが開発されている。一例では、骨伝導センサは、ヘッドセットの一端に配置されており、ヘッドセットの弾力によってユーザの頭蓋骨、耳、または下顎を覆う皮膚に圧接される。骨伝導センサは、ユーザが話をするときに生じる頭蓋骨、耳、または下顎の振動を検出する。このシステムは、骨伝導センサからの信号を使用して、ユーザが話をしているときを、よりよく識別することができ、その結果、音声信号内の雑音をよりよく除去することができる。
こうしたシステムはヘッドセットの場合はよく働くが、ヘッドセットは、電話への有線接続に沿った通信に限られている。したがって、広範な通信アプリケーションでの使用は限られている。さらに、ヘッドセットは、見た目が悪く(大きくかさばる)、一日中着用しているのは不快であり、その結果ユーザは、一日中ヘッドセットを所定の位置に着けたままにしておきたいという可能性は少ない。このことが、ヘッドセットの使用を扱いにくい、煩わしいものにしている。
気導マイクロホン、および音声を示す補助センサ信号を提供する補助センサを含むモバイル装置が提供される。モバイル装置は、通信インターフェイスによって、他のモバイル装置と直接通信することができる。
本発明の実施形態は、音声検出およびノイズフィルタリングに使用できる気導マイクロホンおよび補助センサを含むモバイル装置を提供する。本発明のモバイル装置の例は、セル電話(セル方式の携帯電話)、PDA、宝飾品、および腕時計を含む。図1は、一実施形態の例を示しており、ここではモバイル装置(mobile device)は携帯電話(mobile phone)100である。携帯電話100は、キーパッド102、ディスプレイ(表示画面)104、カーソルコントロール106、気導マイクロホン108、スピーカ110、2つの骨伝導マイクロホン112および114、およびオプションの近接センサ116を含む。携帯電話100は、バッテリなどの電源、プロセッサ、全地球測位衛星信号検出器(global positioning satellite signal detector)およびプロセッサ(図示しない)も含んでおり、これらは電話の外部からは見えない。任意選択で、携帯電話100は、脈拍センサ、酸素濃度センサ、体温センサ、およびビデオカメラを含んでいてもよい。
タッチパッド102は、ユーザが携帯電話に数字および文字を入力することを可能にする。他の実施形態では、タッチパッド102は、タッチ画面の形態でディスプレイ104と一体化している。カーソルコントロール106は、ユーザが、ディスプレイ104上の情報を強調表示し、選択したり、ディスプレイ104よりも大きい画像およびページをスクロールしたりすることを可能にする。
図2および図3で示すように、携帯電話100が電話で話をする標準の位置に置かれているとき、スピーカ110は、ユーザの左耳200または右耳300の近くに配置されており、気導マイクロホン108は、ユーザの口202の近くに配置されている。図2のように電話がユーザの左耳の近くに配置されているとき、骨伝導マイクロホン114は、ユーザの頭蓋骨または耳に接し、気導マイクロホン108によって受信された音声信号から雑音を除去するために使用できる音声についての情報を提供する補助センサ信号を生成する。例えば、補助センサ信号で提供された情報は、ユーザが話をしているかどうか、およびユーザの音声に関連する低周波情報を含むことができる。図3のように電話がユーザの右耳の近くに配置されているとき、骨伝導マイクロホン112は、ユーザの頭蓋骨または耳に接し、音声信号から雑音を除去するために使用できる補助センサ信号を生成する。
オプションの近接センサ116は、電話(器)がユーザにどれだけ近いかを示す。下記で詳述するように、この情報は、クリーンな音声値を生成する際に骨伝導マイクロホンの寄与に重みを付けるために使用される。一般に、電話がユーザ隣接にしていることを近接検出器が検出した場合、電話がユーザから多少離れている場合よりも、骨伝導マイクロホン信号に重みがかけられる。この調整は、骨伝導マイクロホン信号は、電話がユーザに接しているとき、ユーザが話をしていることをより指示しているという事実を反映している。電話がユーザから離れているとき、周囲雑音であることがより多い。ユーザは常に頭に電話を押しつけたままであるとは限らないため、本発明のいくつかの実施形態では近接センサが使用されている。
図4は、本発明の骨伝導センサ400の一実施形態を示している。センサ400では、柔らかいエラストマのブリッジ(elastomer bridge)402が標準的な気導マイクロホン406の振動板404に接着されている。この柔らかいブリッジ402は、ユーザの皮膚接触部分408からマイクロホン406の振動板404に直接振動を伝導する。振動板404の動きは、マイクロホン406内のトランデューサ410によって電気信号に変換される。
図5は、本発明のハンドヘルドモバイル装置の代替の携帯電話の実施形態500を示している。携帯電話500は、キーパッド502、ディスプレイ504、カーソルコントロール506、気導マイクロホン508、スピーカ510、骨伝導マイクロホンと近接センサとの組合せ512を含む。
図6の断面図に示すように、骨伝導マイクロホンと近接センサとの組合せ512は、ユーザが電話を耳に当てたときにユーザに接するように設計されている外面602を有する柔らかい媒体(流体またはエラストマで)充填されたパッド600から成る。パッド600は、電話500内の開口部または開口部のすぐ下に配置されているスピーカ510からの音声の通路を提供するその開口部の周りのリングを形成する。パッド600はこの形状に限定されず、任意の形状のパッドを使用することができる。ただし、一般には、パッド600がスピーカ510の左と右の部分を含んでおり、ユーザがどちらの耳に電話を当てるかに関係なく、パッド600の少なくとも一部分がユーザに接するようにしてあると好ましい。パッドの部分は、外面的に連続していても、外面的には離れているが電話内で互いに滑らかに接続されていてもよい。
電子式圧力トランデューサ604は、パッド600内の液体またはエラストマに油圧式に接続され、パッド600内の液体の圧力を導線606上で電気信号に変換する。電子式圧力トランデューサ604の例には、MEMSベースのトランデューサなどがある。一般に、圧力トランデューサ604は、高周波応答を有していなければならない。
導線606上の電気信号は、DC(直流)成分およびAC(交流)成分の2つの成分を含む。DC成分は、近接センサ信号を提供する。というのは、パッド600内の静圧は、電話がユーザの耳から多少離れているときより、ユーザの耳に押し当てられたときにより高くなるからである。電気信号のAC成分は、骨伝導マイクロホン信号を提供する。というのは、ユーザの頭蓋骨、顎、または耳の骨の振動は、圧力トランデューサ604によってAC電気信号に変換されるパッド600内の圧力の変動を作り出すからである。一実施形態では、最低周波数を上回る信号のDC成分およびAC成分が通過するのを可能にするために、電気信号にフィルタがかけられる。
骨伝導センサの2つの例を上述したが、他の形態の骨伝導センサも本発明の範囲内に含まれる。
図7および図8は、本発明によるモバイル装置の代替実施形態の正面図および背面図を示している。図7および図8では、モバイル装置700は、ネックレスまたはチョーカー(首の回りにぴったりする短い首飾り)702およびイヤーバッド(耳に差し込む小型イヤホン)704から成る。ネックレス702は、ひもまたはワイヤなどの首との接触部分(neck engaging piece)708からつり下げられている装飾用/飾りの円板またはペンダント706を含む。首との接触部分は、ユーザ上でモバイル装置を支え、ユーザの首の周りに取り付けられるようにデザインされている。装飾用の円板706は、マイクロホン開口孔709およびビデオ開口孔710を含む。
図8の背面図からわかるように、モバイル装置700は、気導マイクロホン712に電力を供給するバッテリ710、補助センサ714、ビデオカメラ716、処理チップセット718、および全地球測位衛星(GPS)受信機720を含む。処理チップセット718は、気導マイクロホン712、補助センサ714、ビデオカメラ716、およびGPS受信機720に接続されている。処理チップセット718は、プロセッサ、メモリ記憶装置、および入出力インターフェイスおよび通信インターフェイス(図示しない)を含む。通信インターフェイスは、プロセッサがイヤーバッド704内のプロセッサ(図示しない)と通信するのを可能にし、それによって処理チップセット718内のプロセッサが音響情報(音声情報)を表す電気信号をイヤーバッド704に送信するのを可能にする。また、処理チップセット718の通信インターフェイスは、ビデオディスプレイ、パーソナルコンピュータ、ルータ、および他のモバイル装置を含む他の装置の集まりと無線通信することもできる。これらの通信に使用されるプロトコルは、802.11プロトコルの任意のバリエーションを含む任意の既知のプロトコルを含むことができる。
イヤーバッド704は、外側部分730、耳管部分732、およびスピーカ開口孔734を含む。イヤーバッド704は、処理チップセット718から信号を受信し、その信号を、イヤーバッド704内のスピーカを通して聴覚信号に変換する。この聴覚信号は、スピーカ開口孔734を通ってユーザの耳に入る。イヤーバッド704は、バッテリ(図示せず)、および処理チップセット718の通信インターフェイスとの通信を可能にする通信インターフェイスを含む。
図9に示すように、首との接触部分708は、ペンダント706が一般に「喉ぼとけ」と呼ばれる咽頭の甲状軟骨のやや下のユーザの首の前に接するように、ユーザの首904を周回する。イヤーバッド704は、外側部分730が外耳の耳珠900と耳の裏902との間に延びるように、ユーザの耳に取り付けられる。
図10は、本発明によるモバイル装置の別の実施形態の図を示している。図10では、このモバイル装置は、腕時計またはブレスレット1000およびイヤーバッド1002を含む。腕時計1000は、ユーザの手首の周りに固定されるようにデザインされている、バンドなどの手首との接触部分1006に取り付けられるエンクロージャ(封入物)1001を含む。エンクロージャ1001は、バッテリ、プロセッサ、メモリ、通信インターフェイス、入出力インターフェイス、GPS受信機、ビデオカメラ、スピーカ、気導マイクロホン、脈拍センサ、酸素濃度センサ、および体温センサを含む1組の電子装置を保持する内部を有する。これらの装置は、図11でより詳しく説明している。通信インターフェイスは、プロセッサがイヤーバッド1002内のプロセッサと通信し、それによって音響情報をイヤーバッド1002に送信し、イヤーバッド1002内の補助センサ1018からデータを受信するのを可能にする。さらに、通信インターフェイスは、ルータ、パーソナルコンピュータ、および他のモバイル装置のうちの1つまたは複数との無線通信を可能にする。エンクロージャ1001は、脈拍および酸素濃度メータ1008、気導マイクロホン1010、およびビデオカメラ1012を含むエンクロージャ内の電子装置の一部に対応する開口部分を含む。脈拍および酸素濃度メータ1008は、ユーザが指をメータの上に置いたとき、ユーザの脈拍を測定するとともに、光源および光センサを使用してユーザの血液の酸素含有量も測定する。エンクロージャ1001の片側の外部は、ディスプレイ1004も含む。
イヤーバッド1002は、ユーザの耳管に配置されるように設計されている耳部分1014およびスピーカ開口孔1016を含む。さらに、イヤーバッド1002は、イヤーバッド1002がユーザの耳管内にあるときにユーザの顎(あご)に支えられる補助センサ1018を含む。
図11は、本発明のいくつかの実施形態によるモバイル装置1100のブロック図である。モバイル装置1100は、電源装置1152、マイクロプロセッサ1102、メモリ1104、入出力(I/O)インターフェイス1106、および遠隔地のコンピュータ(リモートコンピュータ)、通信ネットワーク、または他のモバイル装置と通信するための通信インターフェイス1108を含む。一実施形態では、上記の構成要素は、適切なバス1110を介して互いに通信するように結合されている。さらに、電力を必要とするすべての構成要素は、一般にバッテリである電源装置1152に接続される。図11において、図を不必要に複雑にするのを避けるために、電源装置1152と残りの構成要素との間の接続は示していない。
メモリ1104は、モバイル装置1100への全体の電源がシャットダウンされたときにメモリ1104に格納されている情報が失われないように、不揮発性電子メモリ、例えばバッテリバックアップモジュール(図示せず)を備えるランダムアクセスメモリ(RAM)として実装される。あるいは、メモリ1104のすべてまたは一部は、揮発性または不揮発性の取り外し可能なメモリとすることができる。メモリ1104の一部分は、プログラムの実行用にアドレス指定可能なメモリとして割り当てられ、メモリ1104の別の部分は、ディスクドライブ上で記憶をシミュレートするなど、記憶用に使用されることが好ましい。
メモリ1104は、オペレーティングシステム1112、アプリケーションプログラム1114、およびオブジェクトストア1116を含む。動作中、オペレーティングシステム1112は、メモリ1104からプロセッサ1102によって実行されることが好ましい。オペレーティングシステム1112は、好ましい一実施形態では、マイクロソフトコーポレーションから市販されているWINDOWS(登録商標)CEブランドのオペレーティングシステムである。オペレーティングシステム1112は、好ましくは、モバイル装置用に設計され、公開されている1組のアプリケーションプログラミングインターフェイスおよびメソッドを介してアプリケーション1114によって使用することができるデータベース機能を実施する。オブジェクトストア1116内のオブジェクトは、公開されているアプリケーションプログラミングインターフェイスおよびメソッドに対する呼出しに少なくとも部分的に応答して、アプリケーション1114およびオペレーティングシステム1112によって維持される。
通信インターフェイス1108は、モバイル装置1100が情報を送受信するのを可能にする多数の装置および技術を表す。一部の実施形態では、通信インターフェイス1108は、電話をかけ、受けるのを可能にするためにセル電話ネットワークと対話するセル電話ネットワークインターフェイスを含む。他のインターフェイスには、2、3例を挙げると、PBx電話インターフェイス、802.11およびそのバリエーションなどの無線プロトコルインターフェイス、衛星放送受信機および放送チューナなどがある。モバイル装置1100は、データ交換を行うコンピュータに直接接続することもできる。このような場合、通信インターフェイス1108は、赤外線送受信装置でも、シリアルまたはパラレルの通信接続でもよく、これらはすべて、ストリーム情報を伝送することができる。
通信インターフェイス1108は、モバイル装置1100が、他のモバイル装置への直接的な接続を含めて、外部サーバ1154および遠隔地の装置(リモート装置)1156と通信するのを可能にする。
本発明を実施するためにプロセッサ1102によって実行されるコンピュータ実行可能命令は、メモリ1104に格納したり、通信インターフェイス1108を介して受信したりすることができる。これらの命令は、それだけには限定されないが、コンピュータ記憶媒体および通信媒体を含み得るコンピュータ読み取り可能な媒体にある。
コンピュータ記憶媒体には、コンピュータ読取可能命令、データ構造、プログラムモジュール、他のデータなどの情報を格納するための任意の方法または技術で実施される揮発性および不揮発性の取外し可能および固定の媒体がある。コンピュータ記憶媒体には、それだけには限定されないが、RAM、ROM、EEPROM、フラッシュメモリまたは他のメモリ技術、CD−ROM、デジタル多用途ディスク(DVD)または他の光ディスク記憶装置、磁気カセット、磁気テープ、磁気ディスク記憶装置または他の磁気記憶装置、または所望の情報の格納に使用でき、アクセスできる他の任意の媒体などがある。
通信媒体は一般に、コンピュータ読取可能命令、データ構造、プログラムモジュール、または他のデータを搬送波やその他の搬送機構などの変調されたデータ信号に組み込む。これには任意の情報伝達媒体がある。「変調されたデータ信号」という用語は、信号内に情報を符号化するように1つまたは複数のその特性が設定または変更された信号を意味する。通信媒体には、それだけには限定されないが一例として、有線ネットワーク、直接配線された接続などの有線媒体、および音波、RF(無線周波数)、赤外線、その他の無線媒体などのワイヤレス媒体がある。また、上記のどんな組合せでもコンピュータ読み取り可能な媒体の範囲内に含まれるものとする。
入出力インターフェイス1106は、全地球測位衛星(GPS)受信機1148、ビデオカメラ1150、スピーカ1130、指入力1132(1つまたは1組のボタン、タッチセンサ、トラックボール、マウスパッド、ローラ、またはユーザの指によって操作することができるこれらの構成要素の組合せなど)、ディスプレイ1134、気導マイクロホン1136、補助センサ1138、脈拍センサ1142、酸素濃度センサ1144および体温センサ1146を含む入力装置および出力装置の集まりとのインターフェイスを表す。一実施形態では、補助センサ1138は、骨伝導または喉伝導のマイクロホンである。上述した装置は、一例であり、モバイル装置1100にすべてが所在している必要はない。さらに、本発明の範囲内で、他の入出力装置がモバイル装置1100に取り付けられていたり、モバイル装置1100に所在していたりしてもよい。
気導マイクロホンおよび補助センサを使用することによって、本発明の実施形態は、強調された音声信号を提供することができる。図12は、強調された音声信号を提供する本発明の実施形態の音声処理システムの基本的なブロック図を示している。
図12において、スピーカ1200は、気導マイクロホン1204および補助センサ1206によって検出される音声信号1202を生成する。補助センサの例には、ユーザの顔の骨または頭蓋骨の上またはその付近(顎の骨など)、またはユーザの耳の中に配置され、ユーザによって発声された音声に対応する耳、頭蓋骨または顎の振動を感知する骨伝導センサがある。補助センサの別の例には、ユーザの口に向けられ、ユーザの口の動きを検出する赤外線センサがある。補助センサのさらに別の例には、ユーザによって発声された音声に対応するユーザの喉の振動を感知する喉センサがある。気導マイクロホン1204は、一般に音声音波(可聴周波の音波)を電気信号に変換するために使用されるマイクロホンの一種である。
また、気導マイクロホン1204は、1つまたは複数の雑音源1210によって生成された雑音1208も受ける。補助センサの種類および雑音のレベルによっては、雑音1208は、補助センサ1206によって検出することもできる。しかし、本発明のほとんどの実施形態では、補助センサ1206は通常、気導マイクロホン1204よりも周囲雑音に対して鈍感である。したがって、補助センサ1206によって生成された補助センサ信号1212は、一般に、気導マイクロホン1204によって生成された気導マイクロホン信号1214よりも少ない雑音を含む。
補助センサ信号1212および気導マイクロホン信号1214は、クリーン信号推定器1216に供給され、推定器1216は、補助センサ信号1212と気導マイクロホン信号1214とからクリーンな音声信号1218を推定する。クリーン信号推定値1218は、音声処理1220に供給される。クリーンな音声信号1218は、フィルタリングされた時間領域信号でも、特徴領域ベクトルでもよい。クリーン信号推定値1218が時間領域信号である場合、音声処理1220は、聞き手(リスナー)、セル電話送信器、音声符号化システム、音声認識システムの形をとることができる。クリーンな音声信号1218が特徴領域ベクトルである場合には、音声処理1220は、通常、音声認識システムである。
本発明は、気導マイクロホン信号1214および補助センサ信号1212を使用してクリーンな音声を推定するいくつかの方法およびシステムを用いる。あるシステムでは、ステレオトレーニング用データを使用して、補助センサ信号用の補正ベクトルをトレーニング(訓練)する。こうした補正ベクトルは、後でテスト用補助センサベクトルに加算されると、クリーンな信号ベクトルの推定値を提供する。このシステムの他の拡張の1つは、まず、時間によって変化するひずみを追跡し、次いでこの情報を補正ベクトルの計算およびクリーンな音声の推定に組み込むことである。
第2のシステムは、補正ベクトルによって生成されたクリーン信号推定値と、気導信号から気導テスト信号中の現在の雑音の推定値を減算することによって形成された推定値との間の補間を提供する。第3のシステムは、補助センサ信号を使用して音声信号のピッチを推定し、次いで推定されたピッチを使用して、クリーンな音声信号に対する推定値を特定する。第4のシステムは、補助センサ信号および気導信号を使用して、補助センサの1つまたは複数のチャネル応答を割出しする直接フィルタリングを使用する。次いでチャネル応答を使用して、クリーンな音声信号を推定する。
通信インターフェイス1108を使用すると、本発明のモバイル装置は、図13のブロック図に示すように多数の異なるネットワークを介して多数の他の装置と通信することができる。図13では、3つのモバイル装置1300、1302、および1304を示している。これらのモバイル装置は、通信インターフェイス1108を介して互いに通信することができる。特定の一実施形態では、802.11通信プロトコルを使用して、モバイル装置間の通信を行う。そのモバイル装置は、例えば、モバイル装置1304とは通信せずに、モバイル装置1300と1302とだけが通信するなど、1対1ベースで互いに通信することができる。モバイル装置は、モバイル装置のうちの1つはその他のすべてのモバイル装置と通信するが、該その他のモバイル装置は互いに通信しない、1対多数の構成で通信することもできる。例えば、モバイル装置1300はモバイル装置1302および1304と通信し、しかしモバイル装置1302はモバイル装置1304と通信しない。モバイル装置は、すべてのモバイル装置が互いに通信することができる多対多ベースで通信することもできる。
各モバイル装置は、セル電話ネットワーク1306、PBx電話ネットワーク1308、およびローカルエリアネットワーク/ワイドエリアネットワーク(LAN/WAN)1310など、複数のネットワークのうちの1つまたは複数と通信することもできる。セル電話ネットワーク1306と通信するために、モバイル装置は、通信インターフェイス1108を介したセル電話塔(cell phone tower)への直接リンクを使用したり、802.11などのローカルプロトコルを使用してセル電話と通信したりすることができる。次いでセル電話は、モバイル装置通信をセル電話ネットワーク1306のセル電話塔に中継する。
モバイル装置1300、1302、および1304は、無線信号をPBx電話ネットワーク用のワイヤーライン信号に変換するPBxハブを介してPBx電話ネットワーク1308と通信することができる。本発明では、こうしたハブに適した任意のプロトコルを使用することができる。モバイル装置は、ラップトップコンピュータ、パーソナルコンピュータ、LAN/WANの一部である無線ルータへの無線接続を通じてLAN/WAN1310と通信することができる。
モバイル装置は、ネットワーク1306、1308、および1310を介して、装置1312および1314など他の装置と通信することができる。これらの他の装置は、モバイル装置にサービスを提供するラップトップコンピュータ、パーソナルコンピュータ、またはサーバを含み得る。こうしたサーバは、一部の実施形態では、音声信号および/またはある言語のテキストを別の言語のテキストまたは音声に翻訳する翻訳サーバからのテキストを識別する音声認識サーバを含む。サーバは、インスタントメッセージングを可能にし、ユーザが打ち合わせに参加可能であるかどうかなどのプレゼンス情報を追跡し、音声通信およびビデオ通信を含むライブ打ち合わせ中にドキュメント上でのリアルタイムの共同作業を可能にするように通信を調整するライブ通信サーバも含み得る。サーバは、対象の他のポイントに対するモバイル装置の位置を示す地図など、モバイル装置に関する位置情報を提供する位置ベースサーバも含み得る。
本発明のモバイル装置は、気導マイクロホンおよび補助センサを使用して音声信号を感知するため、いくつかのアプリケーションにおいて改善されたパフォーマンスを可能にする強調された音声信号を提供する。さらに、GPS受信機、ビデオカメラ、ならびに脈拍センサ、酸素濃度センサ、および体温センサなどのヘルスセンサなどの他の装置とこれらのマイクロホンおよび補助センサとの組合せは、本発明のモバイル装置を複数のサーバとともに使用することを可能にし、複数の当事者間の通信を容易にする統合されたソリューションを提供する。
図14は、モバイル装置を携帯している人を探し出し、打ち合わせ(会議)を行うことを要求するインスタントメッセージをモバイル装置に送って、ライブ通信サーバを使用して打ち合わせを開催する機能を提供する、サーバとモバイル装置との間の接続のブロック図を示している。
図14では、モバイル装置1400はGPS受信機を備えている。GPS受信機からの情報を使用して、モバイル装置1400は、自身の位置を、セル電話ネットワークやLAN/WANなどのネットワーク接続1404を介して位置ベースサーバ1402に定期的に伝えている。これは、遠隔地のユーザが、その遠隔地のユーザのコンピューティング装置1406上の人物探索アプリケーション(locate person application)1408を使用して、ネットワーク接続1410を介して位置ベースサーバ1402から、モバイル装置1400についての位置情報を取得するのを可能にする。この位置情報は、住所、または地図上で位置を示すなど、モバイル装置の位置の図形表現を含み得る。
モバイル装置1400は、ネットワーク通信1404を介して、ライブ(生)通信サーバ1412と通信することもできる。ネットワーク通信1404は、位置ベースサーバ1402への接続に使用される同じネットワーク接続でも、異なるネットワーク接続でもよい。この接続を通じて、ユーザが所持しているモバイル装置1400は、自身が空きでオンラインであるかどうか、またオフィスにあるか、オッフィスの外にあるかを示すことができる。これは一般に、「プレゼンス(所在)」情報として知られている。
さらに、モバイル装置1400は、ライブ通信サーバ1412を介してインスタントメッセージを送受信することができる。こうしたメッセージは、インスタントメッセージアプリケーション1414を使用してメッセージを送受信する遠隔地のユーザ装置1406との間でやりとりされる。これは、例えば、モバイル装置1400のユーザがライブ(生)打ち合わせに参加することを遠隔地のユーザが要求することを可能にする。
遠隔地のユーザは、ライブ打ち合わせアプリケーション1418を使用してライブ打ち合わせを確立することができる。ライブ打ち合わせアプリケーション1418は、ライブ通信サーバ1412によって提供されるサービスを使用して、複数のクライアントが音声信号およびビデオ信号と通信し、モバイル装置1400上で行われたドキュメントへの変更が遠隔地のユーザのコンピューティング装置1406のディスプレイにリアルタイムで表示されるように、共有ドキュメントを操作するのを可能にする。
モバイル装置1400は、無線通信を使用して、ラップトップコンピュータ1420と通信することができる。モバイル装置1400は、気導マイクロホン信号と補助センサ信号の両方を有することによって得られる強調された音声信号を使用して、ラップトップ1420へコマンドを表す音声信号を送信することができる。ラップトップ1420のコマンド/制御アプリケーション1422は、ネットワーク接続1426を介して音声信号を音声認識サーバ1424に転送する。音声認識サーバ1424は、音声信号をテキスト(文章)に変換し、テキストをコマンド/制御アプリケーション1422に戻す。認識されたコマンドに基づいて、コマンド/制御アプリケーション1422は、1つまたは複数のアプリケーション1428を開始し、その動作を制御する。
コマンド/制御ユニット1422を介して開始されるアプリケーションのうちの1つは、モバイル装置のユーザが遠隔地のユーザ1406によって引き起こされたライブ打ち合わせに参加するのを可能にするライブ打ち合わせアプリケーションを含み得る。ラップトップ1420は、ネットワーク接続1430を介してライブ通信サーバ1412と通信することができる。ユーザは、ラップトップ1420上で直接、またはモバイル装置1400を介してラップトップ1420に音声コマンドを発行することによって、ライブ打ち合わせと対話することができる。さらに、ラップトップ1420は、モバイル装置1400によって発声された音声信号を、ライブ通信サーバ1412を介して遠隔地のユーザ装置1406に中継し、それによってライブ打ち合わせの音声部分を提供することができる。モバイル装置のユーザは、ライブ打ち合わせアプリケーションを使用して、音声、ビデオ、およびドキュメントを遠隔地のユーザと共有することができる。これは、モバイル装置のユーザおよび遠隔地のユーザがリアルタイムで同じドキュメントを操作する機能を含む。
したがって、図14のブロック図を使用して、遠隔地のユーザは、モバイル装置1400を着用している人が、まだ飛行機に搭乗にしておらず、依然として空港にいることを割出しすることができる。次いで遠隔地のユーザは、インスタントメッセージをモバイル装置1400の携帯者に送信して、モバイル装置の携帯者にライブ打ち合わせに参加するよう要求することができる。モバイル装置の携帯者は、打ち合わせに参加できるときには、自身のラップトップ(ノート型パソコン)1420をオンにし、モバイル装置1400を介してコマンドを発行し、遠隔地のユーザ1406によって立ち上げられたライブ打ち合わせに参加することができる。打ち合わせ中、ユーザは、モバイル装置1400を介して話をして、ライブ打ち合わせに音声入力を提供することができる。音声がモバイル装置1400で強調されるため、ラップトップ1420に供給されたコマンドは、より効率よく確実に動作し、モバイル装置1400によって送出された音声は、ライブ打ち合わせ中、より明瞭となる。
図15は、本発明のモバイル装置を配車係(ディスパッチャ)が使用して、仕事を1人または複数の作業員に割り当て、作業員と対話して、仕事を実行するのに必要な情報を作業員に提供する代替実施形態を示している。特に、配車係は、図15のモバイル装置1500を着用している。配車係は、PBx(構内交換機)基地局1502を介してモバイル装置1500と通信するPBx電話ネットワーク1504を介して顧客から通話を受信する。特に、PBx基地局1502は、無線通信をモバイル装置1500に提供し、無線接続に従った通信を、PBx電話ネットワーク1504で伝えることができるアナログ信号に変換する。
仕事の要求を受信した後、配車係は、複数の外勤のうちの誰が空いており、現場に最も近いかを割出し(判断)する。どの作業員が空いているかを割出しするために、配車係は、モバイル装置1500に向かって声を出して、コマンド/制御ユニット1506に提供される音声コマンドを生成する。コマンド制御ユニット1506は、モバイル装置1500内に所在していても、ラップトップまたはパーソナルコンピュータなどの別個の装置にあってもよい。コマンド/制御ユニット1506は、音声信号を1つまたは複数のコマンドに変換する。一実施形態で、コマンド/制御ユニット1506は、ネットワーク1510を介して音声信号を音声認識サーバ1508に渡すことによってこの変換を実行する。音声認識サーバ1508は、音声信号をコマンドを表すテキストに変換し、そのテキストをコマンド/制御ユニット1506に戻す。
作業員が空いているかどうかを割出しするために、コマンド制御ユニット1506に提供されたコマンドは、プレゼンスアプリケーション1512を使用して各作業員の「プレゼンス(所在)」状況をチェックする旨のコマンドとする。プレゼンスアプリケーションは、ネットワーク接続1516を介してライブ通信サーバ1514と通信する。ライブ通信サーバは、各作業員のプレゼンス状況を格納し、更新する。特に、各作業員は、ネットワーク接続1524を介してライブ通信サーバ1514に接続されるモバイル装置1518、1520、1522などのモバイル装置を持っている。図15には単一のネットワーク接続1524しか示していないが、各モバイル装置は、異なるネットワーク接続、さらには異なるタイプのネットワーク接続を通じて接続することができることに留意されたい。モバイル装置1518、1520、および1522は、ネットワーク接続1524を介して、モバイル装置と一体の作業員のそれぞれの所在状態を更新することができる。
空いている作業員については、配車係は、モバイル装置1500を使用して、音声コマンドをコマンド/制御1506に発行して人物探索アプリケーション1530を開くことによって各作業員の現在の位置を見つける。人物探索アプリケーション1530は、ネットワーク接続1532を介して位置ベースサーバ1534と通信する。位置ベースサーバ1534は、ネットワーク1536を介して位置情報を受信することによって、モバイル装置1518、1520、1522の位置を追跡する。ネットワーク1536は、セル電話ネットワークのどの塔によってモバイル装置が通信しているかによってモバイル装置の位置が割出しされるセル電話ネットワークを含むことができる。別の実施形態では、各モバイル装置1518、1520、および1522はGPS受信機を含むことができ、GPS受信機によって割出しされた位置情報は、ネットワーク1536を介して位置ベースサーバ1534に伝えることができる。
人物探索アプリケーション1530による要求に応答して、位置ベースサーバ1534は、モバイル装置ごとに位置情報を提供することができる。この位置情報は、住所の形式、または各モバイル装置の位置が地図上に示される図形表示の形式とすることができる。
各作業員の位置に基づいて、配車係は、仕事を割り当てる作業員のうちの1人を選択する。一実施形態では、配車係は、コマンド/制御1506を介して音声コマンドを発行して、インスタントメッセージアプリケーション1538を開始し、ネットワーク1516、ライブ通信サーバ1514、ネットワーク1524を介してモバイル装置1518、1520、1522のうちの1つに届くように送られるインスタントメッセージを作成することによって、インスタントメッセージをその作業員に送信する。別の実施形態では、配車係は、モバイル装置1500およびコマンド/制御1506を介してコマンドを発行して、連絡先データベース1542にアクセスして、作業員と一体のモバイル装置の電話番号を探し出すアシスタント(補助)アプリケーション1540を開始する。モバイル装置1500は、この電話番号を使用して、セル電話ネットワーク1544を介して作業員のモバイル装置に接続する。配車係は、このセル電話接続を使用して、現場に向かうように作業員に指示する。
作業員が現場への道順を必要とする場合、配車係は、モバイル装置1500を介して音声コマンドを発行して、道順アプリケーション1546のインスタンスを作成する。道順アプリケーションは、位置ベースサーバ1534を使用して、モバイル装置1518、1520、および1522を通じて作業員のうちの1人に道順を提供する。特に、位置ベースサーバ1534は、モバイル装置の位置、および配車係によってモバイル装置1500を介して提供された作業場所を使用して、作業員の現在位置から作業現場の位置に至るまでの地図および運転道順を生成する。
作業員は、その位置に到着すると、モバイル装置1518、1520、および1522などそのモバイル装置を使用して、配車係とのライブ打ち合わせを立ち上げて、仕事の明細を受信することができる。これは、配車係にモバイル装置1500を使用させてライブ打ち合わせアプリケーションを呼び出すことによって達成することができる。ライブ打ち合わせアプリケーションは、リアルタイムの共同作業およびプロジェクトの注文書や計画書などのドキュメントの共有を可能にするために、ライブ通信サーバ1514と通信する。
本発明の他の実施形態では、モバイル装置は、通信の様々なモード間の切り替えを行うことができる。例えば、図16では、モバイル装置1600は、1対多数ベースで最初に情報を直接他のモバイル装置1602および1604に一斉送信することができる。例えば、モバイル装置1600は、音声、ビデオ、GPS位置情報などの情報、ならびに脈拍、酸素濃度、および体温などの健康情報をモバイル装置1602および1604に提供することができる。この通信モード中、モバイル装置1604は、モバイル装置1600からの位置情報を使用して、モバイル装置1600の携帯者の位置の図形表現を取得することができる。特定の一実施形態で、モバイル装置1604は、ネットワーク1610への無線接続を通じてモバイル装置1600から位置ベースサーバ1608に位置情報を提供することができる。次いで位置ベースサーバ1608は、位置情報を使用して、モバイル装置1604に戻される地図を生成する。こうした実施形態では、ネットワーク1610への無線接続は、ルータ、パーソナルコンピュータ、ラップトップコンピュータを介して行うことができる。
モバイル装置1600は、上記のピアツーピア(peer―to―peer)通信からネットワーク接続1612を介した1つまたは複数のサーバとの通信に切り替えることができる。例えば、モバイル装置1600の携帯者が運動中に被害者に遭遇した場合、その携帯者は、モバイル装置1600をモバイル装置との1対多数通信からネットワーク1612を介した通信に切り替えることができる。モバイル装置1600の携帯者は、ネットワーク接続を使用して、ネットワーク1612に接続されているWebサーバ1614に格納されているWebページにアクセスして、救助隊(レスキュー隊)1616を探し出して通信することができる。
救助隊1616は、連絡を受けると、被害者の救助に役立たせるために、救助アプリケーション1620を開始して、モバイル装置1600から情報を収集することができる。この情報は、ネットワーク1612を介してモバイル装置1600から位置ベースサーバ1618に提供されたGPS位置情報を含み得る。救助アプリケーション1620は、位置ベースサーバ1618に、モバイル装置1600の位置の図形表現を取得する旨の要求を送信することができ、それによって救助隊1616がモバイル装置の携帯者を探し出すことが容易になる。また、救助アプリケーション1620は、ライブ通信サーバ1622を使用して、救助隊の現在の位置、予想到着時刻、および被害者の手当の指示などの情報をモバイル装置1600の携帯者と共有することもできる。これらの指示は、被害者の手当の方法を示すビデオ、およびモバイル装置1600によってキャプチャー(捕捉)された被害者のビデオを含むことができる。
被害者もモバイル装置1624などのモバイル装置を着用している場合、モバイル装置が被害者についての健康情報を提供することができるように、そのモバイル装置をライブ通信サーバ1622を通じての打ち合わせに含めることができる。
重傷と思われる場合、救助隊は、遠隔地の(リモート)救急アプリケーション1628を使用して、病院1626の医療チームにライブ打ち合わせに参加するように要求することができる。この遠隔地の救急アプリケーションは、モバイル装置1624によって提供された健康状況情報を収集し、医療チームが音声による指示および視覚的な指示を救助隊1616に与えるのを可能にすることができる。また、遠隔地の救急アプリケーション1628は、医療チームが、診断用機器や手術室などの、患者を看護するのに必要な病院内のリソース(資源)のスケジュール設定を開始するのを可能にすることもできる。
本発明のモバイル装置をゲームのコンテキストに使用して、ユーザがチームのメンバおよびゲームの相手と通信することを可能にすることもできる。図17に示すように、それぞれのモバイル装置1704および1706を着用しているプレイヤ1700および1702などのプレイヤは、ゲーム基地局1708と対話する。
一実施形態で、遠隔地の(リモート)プレイヤ1710は、ネットワーク1716を介したモバイル装置1704とライブ通信サーバ1714との間の接続を通じてプレイヤ1700の所在または利用できるかどうか(availability)を割出しするために、ネットワーク接続1713を介してライブ通信サーバ1714に接続するプレイヤリストアプリケーション1712にアクセスすることによってそのプレイヤ1700が空いているかどうかを割出しする。ライブ通信サーバ1714がそのプレイヤ1700は空いていることを示す場合、プレイヤ1710は、ライブ通信サーバ1714を介してインスタントメッセージをモバイル装置1704に送信して、そのプレイヤがゲームに参加することを要求することができる。一実施形態では、このゲームは、ネットワーク1720を介してゲーム基地局1708に接続され、またネットワーク1722を介してプレイヤ1710に接続されるゲームサーバ1718によって制御される。
ゲーム中、プレイヤ1700および1702からの音声およびビデオは、それぞれモバイル装置1704および1706によってキャプチャーされ、無線接続を通じてゲーム基地局/PC1708に提供される。この音声および/またはビデオは、ネットワーク接続1720を通じてゲームサーバ1718に提供され、ゲームサーバ1718によってプレイヤ1710に転送される。
一実施形態では、ネットワーク1720を介して分配される音声情報の帯域幅を低減するために、モバイル装置1704および1706は、モバイル装置と一体のプレイヤが話をしている間に生じていないすべての音を除去する。特に、モバイル装置の補助センサを使用することによって、モバイル装置は、プレイヤが実際に話をしているときを割出しすることができる。プレイヤが話をしていないとき、モバイル装置は、どんな音声データも送信しない。その結果、部屋にいる他のプレイヤからの音声信号、またはスピーカ1724を介してゲームステーションによって生成される音声信号は、モバイル装置1704および1706によって音声データとして出力されない。これによって、ゲーム基地局1708に送信される情報量が低減し、したがってネットワーク1720を介して渡される情報量が低減する。モバイル装置1704および1706によって出力される情報量を低減することによって、本発明は、不要な音声データをフィルタにかけ、一斉送信することをモバイル装置に求めないことによって、モバイル装置1704および1706の消費電力を低減する。消費電力を節約する別のより直接的な方法は、ユーザが話をしていないときに(マイクロホン内の)処理をオフにすることである。
また、本発明のモバイル装置は、後で調べることができるように、より良質の音声(特に音声信号)を記録し、格納することを可能にする。図18は、音声データおよびビデオデータの格納および調査を可能にするシステムのブロック図を示している。
図18では、モバイル装置1800は、音声データおよびビデオデータを、音声/ビデオメモリ記憶装置1802にローカル(局所的)に格納する。パーソナルコンピュータ1804への無線接続を使用して、メモリ記憶装置1802に格納されている音声データおよびビデオデータをPC1804にダウンロードして、ダウンロード済みデータ1806とすることができる。音声データおよびビデオデータが音声/ビデオ記憶装置1802に格納されているとき、モバイル装置1800は、音声およびビデオがキャプチャーされた日時を示すタイムスタンプ、および音声データおよびビデオデータが収集されたときのモバイル装置1800の位置を示す位置スタンプを含む。一実施形態では、タイムスタンプは、クロック1801から生成され、位置スタンプは、GPS受信機1803によって生成される。タイムスタンプおよび位置スタンプは、それぞれの音声クリップおよびビデオクリップとともにダウンロードデータ1806にダウンロードされる。
時間ベースのオーガナイザ(time−based organizer)1808は、タイムスタンプを使用して、時間に基づいてデータをまとめて時間別データ1810を編成する。位置ベースのオーガナイザ(location−based organizer)1812は、データに関連付けられた位置スタンプに基づいて音声データおよびビデオデータをまとめて位置別データ1814を編成する。次いでユーザは、パーソナルコンピュータ1804のディスプレイを使用して、時間別データ1810または位置別データ1814を調べる。
ダウンロード済みデータ1806内の音声データは、転写アプリケーション1816によって転写することもできる。音声データを転写するために、転写アプリケーション1816は、パーソナルコンピュータ1804にローカルに見つけることができる音声認識サーバ1818を使用しても、ネットワーク接続1820を介してパーソナルコンピュータ1804に接続してもよい。転写アプリケーション1816は、音声データをテキストに変換する音声認識サーバ1818に、音声信号を表す音声データを送信する。次いでそのテキストは転写アプリケーション1816に戻され、転写アプリケーション1816は、このテキストを使用して写し(transcripts)1822を生成する。モバイル装置1800は補助センサおよび気導マイクロホンを使用して音声データを収集するため、音声認識サーバ1818によって実行される認識がかなり改善され、写し1822は、モバイル装置1800によって収集された実際の音声をよりよく反映する。
写し1822が形成されると、ユーザは、特定の会話を探し出すためのキーワードについて写し1822を検索することができる音声アプリケーション1824を呼び出すことができる。
本発明のモバイル装置を使用して、モバイル装置を身に付けている子供および老人を探し出し、子供および老人と通信することもできる。例えば、図19では、モバイル装置1900は、子供または老人の身に付けられている。そのモバイル装置は、ネットワーク1902を介して位置ベースサーバ1904にGPS位置情報を提供する。別のユーザは、パーソナルコンピュータ1906を使用して位置ベースサーバ1904に連絡して、モバイル装置1900の携帯者(着用者)の位置情報を取得することができる。この位置情報は、住所、または地図内で携帯者の位置を示す地図の図形表現の形で提供されることができる。他のユーザは、モバイル装置1900と通信する電話ネットワーク1910を介して、電話1908を使用してモバイル装置の携帯者に連絡することもできる。こうした電話ネットワークの一例には、セル電話ネットワークがある。補助センサおよび気導マイクロホンセンサを使用することによって、モバイル装置1900は、電話ネットワーク1910を介して通信するためのより良い音声信号を提供する。これは、モバイル装置1900の携帯者が子供または老人であるときは特に重要である。というのは、子供および老人の音声信号の振幅はかなり低い傾向があり、したがって騒がしい環境では見分けにくいからである。
本発明のモバイル装置は、自動翻訳サービスを向上させるために使用することもできる。例えば、図20で、モバイル装置2000は、モバイル装置の携帯者2002および外国語の話者2004からの音声入力を受信する。モバイル装置は携帯者2002によって着用されているため、モバイル装置2000は、携帯者2002によって発声された音声と、外国語の話者2004によって発声された音声とを区別することができる。したがって、外国語の話者2004によって発声された音声を、自動的にモバイル装置2000によって、ネットワーク接続2008を通じて翻訳サーバ2006に送ることができる。次いで翻訳サーバ2006は、外国語の話者2004によって発声された音声の翻訳された音声、または翻訳されたテキストを戻すことができる。したがって、モバイル装置2000上のディスプレイまたはモバイル装置2000上のスピーカを使用して、携帯者2002は、外国語の話者2004の音声の内容を理解することができる。モバイル装置2000は2つの音声信号を自動的に分けることができるため、翻訳はより容易に得られる。
また、モバイル装置2000は、外人の音声、翻訳された音声または翻訳されたテキスト、およびモバイル装置2000によってキャプチャーされた外国語の話者のビデオを遠隔地のユーザ2010と共有することもできる。一実施形態では、この情報は、ネットワーク接続2014を介して遠隔地のユーザ2010に接続され、またネットワーク接続2008を介してモバイル装置2000に接続されるライブ通信サーバ2012を介して共有される。ライブ通信サーバ2012を介した接続を使用して、遠隔地のユーザ2010は、外国語の話者2004と話をすることができ、またモバイル装置2000上のディスプレイを介してビデオデータ(画像情報)を外国語の話者2004に提供することができる。遠隔地のユーザ2010によって提供された音声を、モバイル装置2000によって翻訳サーバ2006に送って、外国語の話者の言語に翻訳することができる。この翻訳に基づく音声信号は、次いでモバイル装置2000のスピーカを介して外国語の話者に提供される。
図21は、自動翻訳サービスを向上させる本発明の代替実施形態を示している。図21では、モバイル装置2100は、モバイル装置2102の携帯者および外国語の話者2104から音声入力を受け取る。モバイル装置は携帯者2102によって着用されているため、モバイル装置2100は、携帯者2102により発声された音声と、外国語の話者2104により発声された音声とを区別することができる。したがって外国語の話者2104によって発声された音声は、そのモバイル装置2100と別のモバイル装置2105との間の通信において識別可能であり得る。モバイル装置2105は、識別された音声データをモバイル装置2100によって外国語の話者から入ってくるものとみなし、それをネットワーク通信2108を介して翻訳サーバ2106に提供することができる。次いで翻訳サーバ2106は、外国語の話者2104によって発声された音声の翻訳された音声、または翻訳されたテキストを戻すことができる。したがって、モバイル装置2100上のディスプレイまたはモバイル装置2100上のスピーカを使用して、携帯者2102は、外国語の話者2104の音声の内容を理解することができる。モバイル装置2100は2つの音声信号を自動的に分けることができるため、翻訳はより容易に得られる。
また、モバイル装置2105は、外人の音声、翻訳された音声または翻訳されたテキスト、およびモバイル装置2100によってキャプチャーされた外国語の話者のビデオ(画像)を複数の遠隔地のユーザ2110、2120、2130と共有することもできる。一実施形態では、この情報は、ネットワーク接続2114を介して遠隔地のユーザ2110、2120、2130に接続され、またネットワーク接続2108を介してモバイル装置2105に接続されるライブ通信サーバ2112を介して共有される。遠隔地のユーザ2110、2120、および2130は、ライブ通信サーバ2112を介した接続を使用して、外国語の話者2104と話をすることができ、またモバイル装置2100上のディスプレイを介してビデオデータを外国語の話者2104に提供することができる。遠隔地のユーザ2110、2120、2130によって提供された音声を、モバイル装置2105によって翻訳サーバ2106に送って、外国語の話者の言語に翻訳することができる。この翻訳に基づく音声信号は、次いでモバイル装置2100のスピーカを介して外国語の話者に提供される。
本発明のモバイル装置は、ピアツーピアモードで、プリンタ、機器、メディアレコーダ、メディアプレイヤ、および自動車など、他の装置と通信することもできる。図22は、装置2202、2204、2206など、他の装置と通信するモバイル装置2200を示す図である。
特定の一実施形態では、802.11通信プロトコルを使用して、モバイル装置と他の装置との間の通信を行う。モバイル装置は、例えば、装置2204および2206とは通信せずに、モバイル装置2200と装置2202とだけが通信するなど、1対1ベースで他の装置と通信することができる。このモバイル装置は、モバイル装置またはその他の装置のうちの1つがモバイル装置およびその他のすべての装置と通信し、その他の装置は互いに通信しない1対多数の構成で通信することもできる。例えば、モバイル装置2200は装置2202および2204と通信し、装置2202は装置2204と通信しない。装置は、すべての装置およびモバイル装置が互いに通信することができる多対多ベースで通信することもできる。
本発明は、特定の実施形態を参照して説明してきたが、本発明の趣旨および請求の範囲から逸脱することなく、それら形態および詳細に変更を加えることができることは、当業者であれば理解されよう。
本発明の一実施形態を示す透視図である。 図1の電話がユーザの頭部の左側にあるところを示す図である。 図1の電話がユーザの頭部の右側にあるところを示す図である。 骨伝導マイクロホンを示すブロック図である。 本発明の代替実施形態を示す透視図である。 本発明の一実施形態による代替の骨伝導マイクロホンを示す断面図である。 本発明のモバイル装置のネックレス型の具体例を示す正面図である。 図7のネックレス型の具体例を示す背面図である。 図7のネックレス型の具体例がユーザに着用されたところを示す図である。 本発明のモバイル装置のブレスレット/腕時計型の具体例を示す透視図である。 本発明の一実施形態によるモバイル装置を示すブロック図である。 本発明の一般の音声処理システムを示すブロック図である。 本発明のモバイル装置の考え得る通信接続を示すブロック図である。 打ち合わせを容易にするための本発明のモバイル装置との複数の通信接続を示すブロック図である。 作業命令の発送を容易にするための本発明のモバイル装置との複数の通信接続を示すブロック図である。 グループ通信を容易にし、救助に役立つ本発明のモバイル装置との複数の通信接続を示すブロック図である。 ゲームを容易にするための本発明のモバイル装置との複数の通信接続を示すブロック図である。 本発明のモバイル装置を使用してビデオおよび音声を格納し、整理し、調べる構成を示すブロック図である。 子供/老人を探し出し、子供/老人と通信することを容易にするための本発明のモバイル装置との複数の通信接続を示すブロック図である。 音声の翻訳を必要とする打ち合わせを容易にするための本発明のモバイル装置との複数の通信接続を示すブロック図である。 音声の翻訳を必要とする打ち合わせを容易にするための本発明のモバイル装置との複数の通信接続を示すブロック図である。 本発明のモバイル装置と他の装置との間の複数のピアツーピア通信接続を示すブロック図である。
符号の説明
100,500 携帯電話
102,502 キーパッド
104,504,1004,1134 ディスプレイ
106,506 カーソルコントロール
108,406,712,1010,1136,1294 気導マイクロホン
110,510,1130,1200,1724 スピーカ
112,114 骨伝導マイクロホン
116 近接センサ
200 左耳
202 口
300 右耳
400 骨伝導センサ
402 エラストマのブリッジ
403 振動板
408 皮膚接触部分
410,604 トランデューサ
512 骨伝導マイクロホンと近接センサの組み合わせ
600 パッド
606 導線
700 モバイル装置
702 ネックレスまたはチョーカー
704,1002 イヤーバッド
706 円板
708 首との接触部分
709 マイクロホン開口孔
710 バッテリ
714,1018,1138,1206 補助センサ
716,1012 ビデオカメラ
718 処理チップセット
720,1148,1803 GPS受信機
730 外側部分
732,1014 耳管部分
734,1016 スピーカ開口孔
900 耳珠
902 耳の裏
904 首
1000 ブレスレット
1001 封入物(エンクロージャ)
1006 手首はめ込み部分
1008 酸素濃度メータ
1102 プロセッサ
1104 メモリ
1108 通信インターフェイス
1116 オブジェクトストア
1132 指入力
1142 脈拍センサ
1144 酸素濃度センサ
1146 体温センサ
1150 ビデオ
1152 電力
1154 外部サーバ
1156 遠隔地の装置
1204 気導マイクロホン
1206 補助センサ
1210 雑音
1216 クリーン信号推定器
1220 音声処理
1300,1300,1302,1304,1400,1500,1518、1520、1522,1600,1602,1604,1624,1704,1706,1800,1900,2000,2100,2105,2200 モバイル装置
1306,1544 セル電話ネットワーク
1308,1504 PBx電話ネットワーク
1312,1314 他のユーザ/サーバ
1402,1618,1904 位置ベースサーバ
1404,1410,1416,1426,1430,1510,1713,1716、1720,1724,1902 ネットワーク
1406,2010,2110,2120,2130 遠隔地のユーザ装置
1408,1408,1530 人物探索アプリケーション
1412,1514、1622、1714 ライブ通信サーバ
1420 ラップトップ
1422,1506 コマンド制御
1424,1508,1818 音声認識サーバ
1502 PBx基地局
1512 プレゼンス
1540 アシスタント
1542 連絡先DB
1546 道順
1550 ライブ打ち合わせ
1614 Webサーバ
1616 救助隊
1620 救助アプリケーション
1626 病院
1628 遠隔地の救急アプリケーション
1700,1702,1710 プレイヤ
1708 ゲーム基地局/PC
1710 遠隔地のプレイヤ
1712 プレイヤリストアプリケーション
1718 ゲームサーバ
1801 クロック
1802 音声/ビデオ記憶装置
1806 ダウンロード済みデータ
1808 時間ベースのオーガナイザ
1810 時間別データ
1812 位置ベースのオーガナイザ
1814 位置別データ
1816 転写アプリケーション
1822 転写
1824 音声アプリケーション
1908 電話
1910 電話ネットワーク
2002,2102 携帯者
2004,2104 外国語の話者
2006,2106 翻訳サーバ
2010,2110,2120,2130 遠隔地のユーザ
2012,2112 ライブ通信
2202,2204,2206 装置

Claims (34)

  1. 音波を電子マイクロホン信号に変換する気導マイクロホンと、
    音声に関する情報を含む電子補助センサ信号を供給する補助センサと、
    当該モバイル装置が他のモバイル装置と直接通信するのを許容する通信インターフェイスと
    を具備することを特徴とするモバイル装置。
  2. 前記通信インターフェイスは他のモバイル装置との複数のタイプの通信を許容することを特徴とする請求項1に記載のモバイル装置。
  3. 前記複数のタイプの通信のうちの1つは、他の複数のモバイル装置が通信に応じられるときでさえ、他のモバイル装置の1つだけとする1対1通信を含むことを特徴とする請求項2に記載のモバイル装置。
  4. 前記複数のタイプの通信のうちの1つは、他の複数のモバイル装置との1対多数通信を含むことを特徴とする請求項2に記載のモバイル装置。
  5. 前記複数のタイプの通信のうちの1つは多対多通信を含むことを特徴とする請求項2に記載のモバイル装置。
  6. 前記通信インターフェイスはネットワークへの通信をさらに許容することを特徴とする請求項1に記載のモバイル装置。
  7. 前記通信インターフェイスはネットワーク上のサーバとの通信をさらに許容することを特徴とする請求項6に記載のモバイル装置。
  8. 前記サーバとの前記通信は音声およびビデオを含むことを特徴とする請求項7に記載のモバイル装置。
  9. 前記サーバとの通信は、他のコンピューティング装置と共有されるドキュメントの画像に対応するデータをさらに含むことを特徴とする請求項8に記載のモバイル装置。
  10. 前記サーバとの通信は、前記ドキュメントを変更する指示をさらに含み、前記指示に基づいて、前記サーバは、前記ドキュメントを変更し、前記ドキュメントの変更に対応するデータを前記他のコンピューティング装置に提供することを特徴とする請求項9に記載のモバイル装置。
  11. 前記モバイル装置は、該モバイル装置の位置を示す位置数値データ(position value)を生成することができる全地球測位衛星受信機をさらに含むことを特徴とする請求項7に記載のモバイル装置。
  12. サーバとの通信は、該サーバに前記位置数値データを提供するステップを含むことを特徴とする請求項11に記載のモバイル装置。
  13. 前記サーバは音声認識プログラムをホストし、該サーバと通信することは、該サーバに音声データを提供し、該サーバから認識されたテキストを受信することを含むことを特徴とする請求項7に記載のモバイル装置。
  14. 前記サーバは翻訳プログラムをホストし、該サーバと通信することは、ある言語の内容を該サーバに提供し、該サーバから別の言語の翻訳を受信することを含むことを特徴とする請求項7に記載のモバイル装置。
  15. 前記モバイル装置はセル電話(セル方式の携帯電話)を含むことを特徴とする請求項1に記載のモバイル装置。
  16. 前記モバイル装置はPDAを含むことを特徴とする請求項1に記載のモバイル装置。
  17. 前記通信インターフェイスは別の装置への直接的な通信をさらに許容することを特徴とする請求項1に記載のモバイル装置。
  18. 気導マイクロホン信号を受信するステップと、
    音声に関する情報を含む補助センサ信号を受信するステップと、
    前記気導マイクロホン信号および前記補助センサ信号に基づいて、強調したクリーン音声値を推定するステップと、
    前記強調したクリーン音声値を他のモバイル装置に直接提供するステップと
    を含むことを特徴とするモバイル装置における方法。
  19. 前記強調したクリーン音声値を他のモバイル装置に直接提供するステップは、当該モバイル装置と前記他のモバイル装置との間の1対1通信中に前記強調したクリーン音声値を提供するステップを含むことを特徴とする請求項18に記載の方法。
  20. 前記強調したクリーン音声値を他のモバイル装置に直接提供するステップは、前記モバイル装置と複数の他のモバイル装置との間の1対多数通信中に前記強調したクリーン音声値を提供するステップを含むことを特徴とする請求項18に記載の方法。
  21. 前記強調したクリーン音声値を他のモバイル装置に直接提供するステップは、複数のモバイル装置間の多対多通信中に前記強調したクリーン音声値を提供するステップを含むことを特徴とする請求項18に記載の方法。
  22. 前記モバイル装置とコンピューティング装置のネットワークとの間の通信を行うステップをさらに含むことを特徴とする請求項18に記載の方法。
  23. 前記モバイル装置とコンピューティング装置の前記ネットワーク上のサーバとの間の通信を行うステップをさらに含むことを特徴とする請求項22に記載の方法。
  24. 前記モバイル装置と前記サーバとの間の通信を行うステップは、インスタントメッセージを通信するステップを含むことを特徴とする請求項23に記載の方法。
  25. 前記モバイル装置と前記サーバとの間の通信を行うステップは、前記サーバと通信する他のコンピューティング装置と共有される情報を通信するステップを含むことを特徴とする請求項23に記載の方法。
  26. 共有される前記情報は、前記モバイル装置および前記他のコンピューティング装置に表示されるオブジェクトへの変更を含むことを特徴とする請求項25に記載の方法。
  27. 共有される前記情報は音声情報をさらに含むことを特徴とする請求項26に記載の方法。
  28. 共有される前記情報はビデオ情報をさらに含むことを特徴とする請求項27に記載の方法。
  29. 前記モバイル装置の位置を割出しし、該モバイル装置の前記位置を該モバイル装置から前記サーバに伝えるステップをさらに含むことを特徴とする請求項23に記載の方法。
  30. 前記モバイル装置の前記位置を使用して地図を生成し、該地図を前記サーバから他のコンピューティング装置に伝えるステップをさらに含むことを特徴とする請求項29に記載の方法。
  31. 前記サーバにおいて翻訳サービスを使用して、前記モバイル装置から前記サーバに送信されたデータに基づいて、テキストをある言語から別の言語に翻訳するステップをさらに含むことを特徴とする請求項23に記載の方法。
  32. 前記テキストの前記翻訳を表す音声信号を表す値を前記サーバから前記モバイル装置に戻すステップをさらに含むことを特徴とする請求項31に記載の方法。
  33. 前記テキストの前記翻訳を表すテキストを前記サーバから前記モバイル装置に戻すステップをさらに含むことを特徴とする請求項31に記載の方法。
  34. 前記モバイル装置と他の装置との間の通信を行うステップをさらに含むことを特徴とする請求項18に記載の方法。

JP2005257895A 2004-10-12 2005-09-06 モバイル装置における多感覚応用の音声強調のための方法および装置 Expired - Fee Related JP4870953B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/962,954 2004-10-12
US10/962,954 US7283850B2 (en) 2004-10-12 2004-10-12 Method and apparatus for multi-sensory speech enhancement on a mobile device

Publications (3)

Publication Number Publication Date
JP2006115476A true JP2006115476A (ja) 2006-04-27
JP2006115476A5 JP2006115476A5 (ja) 2008-10-23
JP4870953B2 JP4870953B2 (ja) 2012-02-08

Family

ID=35517548

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005257895A Expired - Fee Related JP4870953B2 (ja) 2004-10-12 2005-09-06 モバイル装置における多感覚応用の音声強調のための方法および装置

Country Status (10)

Country Link
US (2) US7283850B2 (ja)
EP (1) EP1648150B1 (ja)
JP (1) JP4870953B2 (ja)
KR (1) KR101176732B1 (ja)
CN (1) CN1761265B (ja)
AU (1) AU2005203610A1 (ja)
BR (1) BRPI0503644A (ja)
CA (2) CA2518640C (ja)
MX (1) MXPA05009800A (ja)
RU (1) RU2391716C2 (ja)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012205147A (ja) * 2011-03-25 2012-10-22 Kyocera Corp 携帯電子機器および音声制御システム
JP2013042464A (ja) * 2011-08-19 2013-02-28 Yuji Hosoi 携帯電話
JP2013070258A (ja) * 2011-09-22 2013-04-18 Yuji Hosoi 携帯電話
JP2013520707A (ja) * 2010-02-24 2013-06-06 クゥアルコム・インコーポレイテッド 複数の音声区間検出器に基づく音声区間検出
WO2013108426A1 (ja) * 2012-01-20 2013-07-25 ローム株式会社 軟骨伝導部を有する携帯電話
JP2015023485A (ja) * 2013-07-22 2015-02-02 株式会社ナカヨ 特定音付き音声コマンド対応情報端末
US9392097B2 (en) 2010-12-27 2016-07-12 Rohm Co., Ltd. Incoming/outgoing-talk unit and incoming-talk unit
US9705548B2 (en) 2013-10-24 2017-07-11 Rohm Co., Ltd. Wristband-type handset and wristband-type alerting device
US9716782B2 (en) 2010-12-27 2017-07-25 Rohm Co., Ltd. Mobile telephone
US9729971B2 (en) 2012-06-29 2017-08-08 Rohm Co., Ltd. Stereo earphone
US9742887B2 (en) 2013-08-23 2017-08-22 Rohm Co., Ltd. Mobile telephone
US9980024B2 (en) 2011-02-25 2018-05-22 Rohm Co., Ltd. Hearing system and finger ring for the hearing system
US10013862B2 (en) 2014-08-20 2018-07-03 Rohm Co., Ltd. Watching system, watching detection device, and watching notification device
US10356231B2 (en) 2014-12-18 2019-07-16 Finewell Co., Ltd. Cartilage conduction hearing device using an electromagnetic vibration unit, and electromagnetic vibration unit
US10778824B2 (en) 2016-01-19 2020-09-15 Finewell Co., Ltd. Pen-type handset
US10795321B2 (en) 2015-09-16 2020-10-06 Finewell Co., Ltd. Wrist watch with hearing function
US10967521B2 (en) 2015-07-15 2021-04-06 Finewell Co., Ltd. Robot and robot system
US11526033B2 (en) 2018-09-28 2022-12-13 Finewell Co., Ltd. Hearing device

Families Citing this family (124)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6675027B1 (en) * 1999-11-22 2004-01-06 Microsoft Corp Personal mobile computing device having antenna microphone for improved speech recognition
US7587318B2 (en) * 2002-09-12 2009-09-08 Broadcom Corporation Correlating video images of lip movements with audio signals to improve speech recognition
US7383181B2 (en) * 2003-07-29 2008-06-03 Microsoft Corporation Multi-sensory speech detection system
US20050033571A1 (en) * 2003-08-07 2005-02-10 Microsoft Corporation Head mounted multi-sensory audio input system
US7447630B2 (en) * 2003-11-26 2008-11-04 Microsoft Corporation Method and apparatus for multi-sensory speech enhancement
US7499686B2 (en) * 2004-02-24 2009-03-03 Microsoft Corporation Method and apparatus for multi-sensory speech enhancement on a mobile device
US7986954B1 (en) 2004-06-25 2011-07-26 Nortel Networks Limited Wireless communication network having a broadcast system for information distribution
US7574008B2 (en) * 2004-09-17 2009-08-11 Microsoft Corporation Method and apparatus for multi-sensory speech enhancement
US7283850B2 (en) * 2004-10-12 2007-10-16 Microsoft Corporation Method and apparatus for multi-sensory speech enhancement on a mobile device
US8068806B2 (en) * 2004-12-02 2011-11-29 Panasonic Corporation Portable terminal apparatus
US8103305B2 (en) * 2004-12-13 2012-01-24 Broadcom Corporation Method and system for cellular network and integrated broadcast television (TV) downlink with intelligent service control with feedback information
US7835773B2 (en) * 2005-03-23 2010-11-16 Kyocera Corporation Systems and methods for adjustable audio operation in a mobile communication device
US7483727B2 (en) * 2005-04-04 2009-01-27 Research In Motion Limited Mobile wireless communications device having improved antenna impedance match and antenna gain from RF energy
US7346504B2 (en) * 2005-06-20 2008-03-18 Microsoft Corporation Multi-sensory speech enhancement using a clean speech prior
US7680656B2 (en) * 2005-06-28 2010-03-16 Microsoft Corporation Multi-sensory speech enhancement using a speech-state model
US7406303B2 (en) 2005-07-05 2008-07-29 Microsoft Corporation Multi-sensory speech enhancement using synthesized sensor signal
US7697941B2 (en) * 2005-08-02 2010-04-13 Sony Ericsson Mobile Communications Ab Updating presence in a wireless communications device
US8073700B2 (en) 2005-09-12 2011-12-06 Nuance Communications, Inc. Retrieval and presentation of network service results for mobile device using a multimodal browser
JP2007105316A (ja) * 2005-10-14 2007-04-26 Konica Minolta Sensing Inc 生体情報測定器
US7477909B2 (en) * 2005-10-31 2009-01-13 Nuance Communications, Inc. System and method for conducting a search using a wireless mobile device
US7930178B2 (en) * 2005-12-23 2011-04-19 Microsoft Corporation Speech modeling and enhancement based on magnitude-normalized spectra
WO2007099908A1 (ja) * 2006-02-27 2007-09-07 Matsushita Electric Industrial Co., Ltd. ウェアラブル端末、および、携帯撮像収音装置、およびそれらを実現する装置、方法、プログラム
US20120243714A9 (en) * 2006-05-30 2012-09-27 Sonitus Medical, Inc. Microphone placement for oral applications
US7876906B2 (en) * 2006-05-30 2011-01-25 Sonitus Medical, Inc. Methods and apparatus for processing audio signals
US20080031475A1 (en) 2006-07-08 2008-02-07 Personics Holdings Inc. Personal audio assistant device and method
US11450331B2 (en) 2006-07-08 2022-09-20 Staton Techiya, Llc Personal audio assistant device and method
US8291912B2 (en) * 2006-08-22 2012-10-23 Sonitus Medical, Inc. Systems for manufacturing oral-based hearing aid appliances
HUE043135T2 (hu) * 2006-09-08 2019-07-29 Soundmed Llc Fülzúgás kezelésére szolgáló módszerek és készülékek
US9591392B2 (en) * 2006-11-06 2017-03-07 Plantronics, Inc. Headset-derived real-time presence and communication systems and methods
EP1921852A1 (en) * 2006-11-07 2008-05-14 Microsoft Corporation Sharing Television Clips
TWM318873U (en) * 2006-12-28 2007-09-11 Micro Star Int Co Ltd Wireless earphone with decoration effect
JP4940956B2 (ja) * 2007-01-10 2012-05-30 ヤマハ株式会社 音声伝送システム
US7734247B2 (en) * 2007-01-25 2010-06-08 Sony Ericsson Mobile Communications Ab Configurable serial memory interface
US8996379B2 (en) 2007-03-07 2015-03-31 Vlingo Corporation Speech recognition text entry for software applications
US10056077B2 (en) 2007-03-07 2018-08-21 Nuance Communications, Inc. Using speech recognition results based on an unstructured language model with a music system
US8635243B2 (en) 2007-03-07 2014-01-21 Research In Motion Limited Sending a communications header with voice recording to send metadata for use in speech recognition, formatting, and search mobile search application
US8886540B2 (en) 2007-03-07 2014-11-11 Vlingo Corporation Using speech recognition results based on an unstructured language model in a mobile communication facility application
US8886545B2 (en) * 2007-03-07 2014-11-11 Vlingo Corporation Dealing with switch latency in speech recognition
US8838457B2 (en) 2007-03-07 2014-09-16 Vlingo Corporation Using results of unstructured language model based speech recognition to control a system-level function of a mobile communications facility
US8949130B2 (en) 2007-03-07 2015-02-03 Vlingo Corporation Internal and external speech recognition use with a mobile communication facility
US8949266B2 (en) 2007-03-07 2015-02-03 Vlingo Corporation Multiple web-based content category searching in mobile search application
US20080312934A1 (en) * 2007-03-07 2008-12-18 Cerra Joseph P Using results of unstructured language model based speech recognition to perform an action on a mobile communications facility
US8843376B2 (en) 2007-03-13 2014-09-23 Nuance Communications, Inc. Speech-enabled web content searching using a multimodal browser
US20080234842A1 (en) * 2007-03-21 2008-09-25 Microsoft Corporation Microphones as contact sensors for device control
US10057676B2 (en) * 2007-04-20 2018-08-21 Lloyd Douglas Manning Wearable wirelessly controlled enigma system
US8270638B2 (en) * 2007-05-29 2012-09-18 Sonitus Medical, Inc. Systems and methods to provide communication, positioning and monitoring of user status
US20080304677A1 (en) * 2007-06-08 2008-12-11 Sonitus Medical Inc. System and method for noise cancellation with motion tracking capability
EP2007167A3 (en) * 2007-06-21 2013-01-23 Funai Electric Advanced Applied Technology Research Institute Inc. Voice input-output device and communication device
US20090028352A1 (en) * 2007-07-24 2009-01-29 Petroff Michael L Signal process for the derivation of improved dtm dynamic tinnitus mitigation sound
US20120235632A9 (en) * 2007-08-20 2012-09-20 Sonitus Medical, Inc. Intra-oral charging systems and methods
US8433080B2 (en) * 2007-08-22 2013-04-30 Sonitus Medical, Inc. Bone conduction hearing device with open-ear microphone
US8224013B2 (en) * 2007-08-27 2012-07-17 Sonitus Medical, Inc. Headset systems and methods
US7682303B2 (en) 2007-10-02 2010-03-23 Sonitus Medical, Inc. Methods and apparatus for transmitting vibrations
US20090105523A1 (en) * 2007-10-18 2009-04-23 Sonitus Medical, Inc. Systems and methods for compliance monitoring
US8795172B2 (en) * 2007-12-07 2014-08-05 Sonitus Medical, Inc. Systems and methods to provide two-way communications
US7974845B2 (en) 2008-02-15 2011-07-05 Sonitus Medical, Inc. Stuttering treatment methods and apparatus
US8270637B2 (en) 2008-02-15 2012-09-18 Sonitus Medical, Inc. Headset systems and methods
US8023676B2 (en) 2008-03-03 2011-09-20 Sonitus Medical, Inc. Systems and methods to provide communication and monitoring of user status
US8150075B2 (en) 2008-03-04 2012-04-03 Sonitus Medical, Inc. Dental bone conduction hearing appliance
US20090226020A1 (en) 2008-03-04 2009-09-10 Sonitus Medical, Inc. Dental bone conduction hearing appliance
US20090249422A1 (en) * 2008-03-31 2009-10-01 Broadcom Corporation Video transmission system with authentication based on a global clock and methods for use therewith
US20090270673A1 (en) * 2008-04-25 2009-10-29 Sonitus Medical, Inc. Methods and systems for tinnitus treatment
US8315876B2 (en) * 2008-05-09 2012-11-20 Plantronics, Inc. Headset wearer identity authentication with voice print or speech recognition
JP5341072B2 (ja) * 2008-05-16 2013-11-13 シャープ株式会社 脈拍計付き携帯端末
US20100080361A1 (en) * 2008-09-29 2010-04-01 Conrad Edward Houghton Method for Sharing Audio-only content, Audio-Visual content, and Visual-only content between Subscribers on a Telephone call
US9009053B2 (en) 2008-11-10 2015-04-14 Google Inc. Multisensory speech detection
US20120284022A1 (en) * 2009-07-10 2012-11-08 Alon Konchitsky Noise reduction system using a sensor based speech detector
US20110010172A1 (en) * 2009-07-10 2011-01-13 Alon Konchitsky Noise reduction system using a sensor based speech detector
US8060031B2 (en) * 2009-08-05 2011-11-15 Francella Henderson Hands-free cell phone jewelry
WO2011041078A1 (en) 2009-10-02 2011-04-07 Sonitus Medical, Inc. Intraoral appliance for sound transmission via bone conduction
US8358746B2 (en) * 2009-10-15 2013-01-22 Avaya Inc. Method and apparatus for unified interface for heterogeneous session management
US8363796B2 (en) * 2009-10-15 2013-01-29 Avaya Inc. Selection and initiation of IVR scripts by contact center agents
US20110135108A1 (en) * 2009-12-09 2011-06-09 Chin Wei Chien Dual-functional earphone
US20110288860A1 (en) * 2010-05-20 2011-11-24 Qualcomm Incorporated Systems, methods, apparatus, and computer-readable media for processing of speech signals using head-mounted microphone pair
US8744860B2 (en) * 2010-08-02 2014-06-03 At&T Intellectual Property I, L.P. Apparatus and method for providing messages in a social network
TW201208335A (en) * 2010-08-10 2012-02-16 Hon Hai Prec Ind Co Ltd Electronic device
RU2605522C2 (ru) * 2010-11-24 2016-12-20 Конинклейке Филипс Электроникс Н.В. Устройство, содержащее множество аудиодатчиков, и способ его эксплуатации
EP2458586A1 (en) * 2010-11-24 2012-05-30 Koninklijke Philips Electronics N.V. System and method for producing an audio signal
US8521239B2 (en) * 2010-12-27 2013-08-27 Rohm Co., Ltd. Mobile telephone
US8918149B2 (en) 2010-12-27 2014-12-23 Rohm Co., Ltd. Mobile telephone
US8818275B2 (en) * 2011-03-10 2014-08-26 Continental Automotive Systems, Inc Enhancing vehicle infotainment systems by adding remote sensors from a portable device
US8903309B2 (en) * 2012-06-05 2014-12-02 J.A. Wells and Associates, L.L.C. True stereo wireless headset and method
US9263044B1 (en) * 2012-06-27 2016-02-16 Amazon Technologies, Inc. Noise reduction based on mouth area movement recognition
US9094749B2 (en) 2012-07-25 2015-07-28 Nokia Technologies Oy Head-mounted sound capture device
KR101330671B1 (ko) 2012-09-28 2013-11-15 삼성전자주식회사 전자장치, 서버 및 그 제어방법
JP6005476B2 (ja) * 2012-10-30 2016-10-12 シャープ株式会社 受話装置、制御プログラム、記録媒体
US9979757B1 (en) * 2013-03-11 2018-05-22 Ca, Inc. Method and apparatus for providing a media content from a collaborative meeting to a remote user
GB2513559B8 (en) * 2013-04-22 2016-06-29 Ge Aviat Systems Ltd Unknown speaker identification system
US10157618B2 (en) 2013-05-02 2018-12-18 Xappmedia, Inc. Device, system, method, and computer-readable medium for providing interactive advertising
US9620116B2 (en) * 2013-12-24 2017-04-11 Intel Corporation Performing automated voice operations based on sensor data reflecting sound vibration conditions and motion conditions
WO2015143055A1 (en) 2014-03-18 2015-09-24 Robert Bosch Gmbh Adaptive acoustic intensity analyzer
FR3019422B1 (fr) 2014-03-25 2017-07-21 Elno Appareil acoustique comprenant au moins un microphone electroacoustique, un microphone osteophonique et des moyens de calcul d'un signal corrige, et equipement de tete associe
US9560437B2 (en) 2014-04-08 2017-01-31 Doppler Labs, Inc. Time heuristic audio control
US9557960B2 (en) 2014-04-08 2017-01-31 Doppler Labs, Inc. Active acoustic filter with automatic selection of filter parameters based on ambient sound
US9524731B2 (en) * 2014-04-08 2016-12-20 Doppler Labs, Inc. Active acoustic filter with location-based filter characteristics
US9736264B2 (en) 2014-04-08 2017-08-15 Doppler Labs, Inc. Personal audio system using processing parameters learned from user feedback
US9825598B2 (en) 2014-04-08 2017-11-21 Doppler Labs, Inc. Real-time combination of ambient audio and a secondary audio source
US9648436B2 (en) 2014-04-08 2017-05-09 Doppler Labs, Inc. Augmented reality sound system
US20150363572A1 (en) * 2014-06-13 2015-12-17 Helge Myklebust System and Method for Providing Emergency Medical Counselling
TWM492015U (zh) * 2014-07-30 2014-12-11 Wen-Tsung Sun 電子式助發聲裝置
US9953646B2 (en) 2014-09-02 2018-04-24 Belleau Technologies Method and system for dynamic speech recognition and tracking of prewritten script
KR102188268B1 (ko) * 2014-10-08 2020-12-08 엘지전자 주식회사 이동단말기 및 그 제어방법
US9924288B2 (en) * 2014-10-29 2018-03-20 Invensense, Inc. Blockage detection for a microelectromechanical systems sensor
US10235129B1 (en) * 2015-06-29 2019-03-19 Amazon Technologies, Inc. Joining users to communications via voice commands
CN105120198A (zh) * 2015-08-26 2015-12-02 无锡华海天和信息科技有限公司 一种能够消除通话中回音的视频通话系统及其实现方法
US9978366B2 (en) 2015-10-09 2018-05-22 Xappmedia, Inc. Event-based speech interactive media player
US9678709B1 (en) 2015-11-25 2017-06-13 Doppler Labs, Inc. Processing sound using collective feedforward
US10853025B2 (en) 2015-11-25 2020-12-01 Dolby Laboratories Licensing Corporation Sharing of custom audio processing parameters
US9584899B1 (en) 2015-11-25 2017-02-28 Doppler Labs, Inc. Sharing of custom audio processing parameters
US11145320B2 (en) 2015-11-25 2021-10-12 Dolby Laboratories Licensing Corporation Privacy protection in collective feedforward
US9703524B2 (en) 2015-11-25 2017-07-11 Doppler Labs, Inc. Privacy protection in collective feedforward
CN110070880B (zh) * 2016-01-14 2023-07-28 深圳市韶音科技有限公司 用于分类的联合统计模型的建立方法及应用方法
WO2018079575A1 (ja) * 2016-10-28 2018-05-03 パナソニックIpマネジメント株式会社 骨伝導マイク、骨伝導ヘッドセットおよび通話装置
CN106412813A (zh) * 2016-11-30 2017-02-15 深圳市高为通信技术有限公司 一种利用蓝牙耳机进行实时通讯翻译的方法
TW201834438A (zh) * 2017-03-08 2018-09-16 捷音特科技股份有限公司 耳麥翻譯系統
US10936830B2 (en) * 2017-06-21 2021-03-02 Saida Ashley Florexil Interpreting assistant system
RU2713874C2 (ru) * 2017-07-28 2020-02-07 Сергей Иванович Демидов Мобильное голосовое информационное устройство
US10856070B2 (en) * 2018-10-19 2020-12-01 VocoLabs, Inc. Throat microphone system and method
US11752916B2 (en) 2019-06-18 2023-09-12 The Boeing Company Pod-centric module integration with a vehicle
US11465545B2 (en) 2019-06-18 2022-10-11 The Boeing Company Reconfigurable pods for use with one or more vehicles
US11796321B2 (en) 2019-06-18 2023-10-24 The Boeing Company System for pod-based transportation
US11953916B2 (en) 2020-01-31 2024-04-09 The Boeing Company Transportation pod that deploys from an aircraft or vehicle
US11741561B2 (en) * 2020-01-31 2023-08-29 The Boeing Company Rescue operations for pods that deploy from a vehicle
CN111882250B (zh) * 2020-06-17 2024-07-12 广东城市智慧物联网工程有限公司 医疗资源的管理调度方法、系统及计算机可读存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10150647A (ja) * 1996-11-19 1998-06-02 Fujitsu Ltd ビデオ会議システム
JPH11305792A (ja) * 1998-02-20 1999-11-05 Nippon Telegr & Teleph Corp <Ntt> 収音装置,音声認識装置,これらの方法、及びプログラム記録媒体
JP2000295338A (ja) * 1999-04-02 2000-10-20 Toshiba Corp 通信装置

Family Cites Families (94)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3383466A (en) 1964-05-28 1968-05-14 Navy Usa Nonacoustic measures in automatic speech recognition
US3746789A (en) 1971-10-20 1973-07-17 E Alcivar Tissue conduction microphone utilized to activate a voice operated switch
US3787641A (en) 1972-06-05 1974-01-22 Setcom Corp Bone conduction microphone assembly
US4382164A (en) * 1980-01-25 1983-05-03 Bell Telephone Laboratories, Incorporated Signal stretcher for envelope generator
JPS62239231A (ja) * 1986-04-10 1987-10-20 Kiyarii Rabo:Kk 口唇画像入力による音声認識方法
JPH0755167B2 (ja) 1988-09-21 1995-06-14 松下電器産業株式会社 移動体
JPH03108997A (ja) 1989-09-22 1991-05-09 Temuko Japan:Kk 骨伝導マイク
JPH03160851A (ja) 1989-11-20 1991-07-10 Fujitsu Ltd 携帯電話機
US5054079A (en) 1990-01-25 1991-10-01 Stanton Magnetics, Inc. Bone conduction microphone with mounting means
US5404577A (en) 1990-07-13 1995-04-04 Cairns & Brother Inc. Combination head-protective helmet & communications system
WO1993001664A1 (en) 1991-07-08 1993-01-21 Motorola, Inc. Remote voice control system
US5295193A (en) 1992-01-22 1994-03-15 Hiroshi Ono Device for picking up bone-conducted sound in external auditory meatus and communication device using the same
JP2924989B2 (ja) 1992-01-28 1999-07-26 日本特殊陶業株式会社 ダイヤモンド膜被覆窒化珪素基部材及びその製造方法
JPH05276587A (ja) 1992-03-30 1993-10-22 Retsutsu Corp:Kk イヤーマイクロフォン
US5446789A (en) 1993-11-10 1995-08-29 International Business Machines Corporation Electronic device having antenna for receiving soundwaves
ZA948426B (en) 1993-12-22 1995-06-30 Qualcomm Inc Distributed voice recognition system
AU684872B2 (en) 1994-03-10 1998-01-08 Cable And Wireless Plc Communication system
US5828768A (en) 1994-05-11 1998-10-27 Noise Cancellation Technologies, Inc. Multimedia personal computer with active noise reduction and piezo speakers
JP3082825B2 (ja) 1994-08-29 2000-08-28 日本電信電話株式会社 通信装置
US5933506A (en) 1994-05-18 1999-08-03 Nippon Telegraph And Telephone Corporation Transmitter-receiver having ear-piece type acoustic transducing part
JP3488749B2 (ja) 1994-08-23 2004-01-19 株式会社ダッド・ジャパン 骨伝導型マイクロホン
JP3306784B2 (ja) 1994-09-05 2002-07-24 日本電信電話株式会社 骨導マイクロホン出力信号再生装置
JPH08186654A (ja) 1994-12-22 1996-07-16 Internatl Business Mach Corp <Ibm> 携帯端末装置
US5692059A (en) 1995-02-24 1997-11-25 Kruger; Frederick M. Two active element in-the-ear microphone system
US5555449A (en) 1995-03-07 1996-09-10 Ericsson Inc. Extendible antenna and microphone for portable communication unit
KR960042590A (ko) 1995-05-23 1996-12-21 김광호 테이프 재생용 음량기기에서의 발음비교방법
US5647834A (en) 1995-06-30 1997-07-15 Ron; Samuel Speech-based biofeedback method and system
JPH09172479A (ja) 1995-12-20 1997-06-30 Yokoi Kikaku:Kk 送受話器およびそれを用いた通話装置
US6006175A (en) * 1996-02-06 1999-12-21 The Regents Of The University Of California Methods and apparatus for non-acoustic speech characterization and recognition
US6377919B1 (en) * 1996-02-06 2002-04-23 The Regents Of The University Of California System and method for characterizing voiced excitations of speech and acoustic signals, removing acoustic noise from speech, and synthesizing speech
US6243596B1 (en) 1996-04-10 2001-06-05 Lextron Systems, Inc. Method and apparatus for modifying and integrating a cellular phone with the capability to access and browse the internet
JP3095214B2 (ja) 1996-06-28 2000-10-03 日本電信電話株式会社 通話装置
JP3097901B2 (ja) 1996-06-28 2000-10-10 日本電信電話株式会社 通話装置
US5943627A (en) 1996-09-12 1999-08-24 Kim; Seong-Soo Mobile cellular phone
JPH10261910A (ja) 1997-01-16 1998-09-29 Sony Corp 携帯無線装置およびアンテナ装置
JPH10224253A (ja) 1997-02-10 1998-08-21 Sony Corp 携帯通信機
US6308062B1 (en) 1997-03-06 2001-10-23 Ericsson Business Networks Ab Wireless telephony system enabling access to PC based functionalities
FR2761800A1 (fr) 1997-04-02 1998-10-09 Scanera Sc Dispositif de transmission de voix et telephone le mettant en oeuvre
US5983073A (en) 1997-04-04 1999-11-09 Ditzik; Richard J. Modular notebook and PDA computer systems for personal computing and wireless communications
US6175633B1 (en) 1997-04-09 2001-01-16 Cavcom, Inc. Radio communications apparatus with attenuating ear pieces for high noise environments
WO1999004500A1 (de) 1997-07-16 1999-01-28 Siemens Aktiengesellschaft Funktelefonhandgerät
JPH11249692A (ja) 1998-02-27 1999-09-17 Nec Saitama Ltd 音声認識装置
JPH11265199A (ja) 1998-03-18 1999-09-28 Nippon Telegr & Teleph Corp <Ntt> 送話器
US6912287B1 (en) 1998-03-18 2005-06-28 Nippon Telegraph And Telephone Corporation Wearable communication device
CA2332833A1 (en) * 1998-05-19 1999-11-25 Spectrx, Inc. Apparatus and method for determining tissue characteristics
US6052464A (en) 1998-05-29 2000-04-18 Motorola, Inc. Telephone set having a microphone for receiving or an earpiece for generating an acoustic signal via a keypad
US6137883A (en) 1998-05-30 2000-10-24 Motorola, Inc. Telephone set having a microphone for receiving an acoustic signal via keypad
JP3160714B2 (ja) 1998-07-08 2001-04-25 株式会社シコー技研 携帯無線通信機
JP3893763B2 (ja) 1998-08-17 2007-03-14 富士ゼロックス株式会社 音声検出装置
WO2000021194A1 (en) 1998-10-08 2000-04-13 Resound Corporation Dual-sensor voice transmission system
JP2000196723A (ja) 1998-12-25 2000-07-14 Koichi Tamura 筒状アンテナ、マイク
JP2000209688A (ja) 1999-01-19 2000-07-28 Temuko Japan:Kk 骨導マイク
US6760600B2 (en) 1999-01-27 2004-07-06 Gateway, Inc. Portable communication apparatus
JP2000261529A (ja) 1999-03-10 2000-09-22 Nippon Telegr & Teleph Corp <Ntt> 通話装置
JP2000261534A (ja) 1999-03-10 2000-09-22 Nippon Telegr & Teleph Corp <Ntt> 送受話器
JP2000261530A (ja) 1999-03-10 2000-09-22 Nippon Telegr & Teleph Corp <Ntt> 通話装置
DE19917169A1 (de) 1999-04-16 2000-11-02 Kamecke Keller Orla Verfahren zur Speicherung und Wiedergabe von Audio-, Video- und Anwendungsprogrammdaten in Mobilfunkendgeräten
US6542721B2 (en) 1999-10-11 2003-04-01 Peter V. Boesen Cellular telephone, personal digital assistant and pager unit
US6560468B1 (en) 1999-05-10 2003-05-06 Peter V. Boesen Cellular telephone, personal digital assistant, and pager unit with capability of short range radio frequency transmissions
US20020057810A1 (en) 1999-05-10 2002-05-16 Boesen Peter V. Computer and voice communication unit with handsfree device
US6952483B2 (en) 1999-05-10 2005-10-04 Genisus Systems, Inc. Voice transmission apparatus with UWB
US6094492A (en) 1999-05-10 2000-07-25 Boesen; Peter V. Bone conduction voice transmission apparatus and system
JP2000354284A (ja) 1999-06-10 2000-12-19 Iwatsu Electric Co Ltd 送受一体形電気音響変換器を用いる送受話装置
US6594629B1 (en) 1999-08-06 2003-07-15 International Business Machines Corporation Methods and apparatus for audio-visual speech detection and recognition
JP2001119797A (ja) 1999-10-15 2001-04-27 Phone Or Ltd 携帯電話装置
US6339706B1 (en) 1999-11-12 2002-01-15 Telefonaktiebolaget L M Ericsson (Publ) Wireless voice-activated remote control device
US6675027B1 (en) * 1999-11-22 2004-01-06 Microsoft Corp Personal mobile computing device having antenna microphone for improved speech recognition
US6411933B1 (en) 1999-11-22 2002-06-25 International Business Machines Corporation Methods and apparatus for correlating biometric attributes and biometric attribute production features
JP3576915B2 (ja) 2000-02-28 2004-10-13 株式会社ケンウッド 携帯電話装置
JP3339579B2 (ja) 2000-10-04 2002-10-28 株式会社鷹山 電話装置
JP2002125298A (ja) 2000-10-13 2002-04-26 Yamaha Corp マイク装置およびイヤホンマイク装置
US20020075306A1 (en) 2000-12-18 2002-06-20 Christopher Thompson Method and system for initiating communications with dispersed team members from within a virtual team environment using personal identifiers
US7082393B2 (en) 2001-03-27 2006-07-25 Rast Associates, Llc Head-worn, trimodal device to increase transcription accuracy in a voice recognition system and to process unvocalized speech
GB2375276B (en) 2001-05-03 2003-05-28 Motorola Inc Method and system of sound processing
WO2002098169A1 (en) 2001-05-30 2002-12-05 Aliphcom Detecting voiced and unvoiced speech using both acoustic and nonacoustic sensors
JP2002358089A (ja) 2001-06-01 2002-12-13 Denso Corp 音声処理装置及び音声処理方法
US6987986B2 (en) 2001-06-21 2006-01-17 Boesen Peter V Cellular telephone, personal digital assistant with dual lines for simultaneous uses
US7054423B2 (en) * 2001-09-24 2006-05-30 Nebiker Robert M Multi-media communication downloading
JP3532544B2 (ja) 2001-10-30 2004-05-31 株式会社テムコジャパン 面体又は帽体のストラップ装着用送受話装置
US7162415B2 (en) * 2001-11-06 2007-01-09 The Regents Of The University Of California Ultra-narrow bandwidth voice coding
US6664713B2 (en) 2001-12-04 2003-12-16 Peter V. Boesen Single chip device for voice communications
US8527280B2 (en) * 2001-12-13 2013-09-03 Peter V. Boesen Voice communication device with foreign language translation
US20050141730A1 (en) 2001-12-21 2005-06-30 Rti Tech Pte Ltd. Vibration-based talk-through method and apparatus
US7219062B2 (en) 2002-01-30 2007-05-15 Koninklijke Philips Electronics N.V. Speech activity detection using acoustic and facial characteristics in an automatic speech recognition system
US9374451B2 (en) 2002-02-04 2016-06-21 Nokia Technologies Oy System and method for multimodal short-cuts to digital services
GB2421668B (en) 2002-06-24 2007-01-03 Samsung Electronics Co Ltd Usage position detection
JP4000095B2 (ja) * 2003-07-30 2007-10-31 株式会社東芝 音声認識方法、装置及びプログラム
US20060008256A1 (en) * 2003-10-01 2006-01-12 Khedouri Robert K Audio visual player apparatus and system and method of content distribution using the same
US7447630B2 (en) * 2003-11-26 2008-11-04 Microsoft Corporation Method and apparatus for multi-sensory speech enhancement
US7499686B2 (en) 2004-02-24 2009-03-03 Microsoft Corporation Method and apparatus for multi-sensory speech enhancement on a mobile device
JP2005346747A (ja) * 2004-05-31 2005-12-15 Pioneer Electronic Corp 情報再生装置
US8095073B2 (en) * 2004-06-22 2012-01-10 Sony Ericsson Mobile Communications Ab Method and apparatus for improved mobile station and hearing aid compatibility
US7574008B2 (en) * 2004-09-17 2009-08-11 Microsoft Corporation Method and apparatus for multi-sensory speech enhancement
US7283850B2 (en) * 2004-10-12 2007-10-16 Microsoft Corporation Method and apparatus for multi-sensory speech enhancement on a mobile device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10150647A (ja) * 1996-11-19 1998-06-02 Fujitsu Ltd ビデオ会議システム
JPH11305792A (ja) * 1998-02-20 1999-11-05 Nippon Telegr & Teleph Corp <Ntt> 収音装置,音声認識装置,これらの方法、及びプログラム記録媒体
JP2000295338A (ja) * 1999-04-02 2000-10-20 Toshiba Corp 通信装置

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013520707A (ja) * 2010-02-24 2013-06-06 クゥアルコム・インコーポレイテッド 複数の音声区間検出器に基づく音声区間検出
US9392097B2 (en) 2010-12-27 2016-07-12 Rohm Co., Ltd. Incoming/outgoing-talk unit and incoming-talk unit
US9894430B2 (en) 2010-12-27 2018-02-13 Rohm Co., Ltd. Incoming/outgoing-talk unit and incoming-talk unit
US10779075B2 (en) 2010-12-27 2020-09-15 Finewell Co., Ltd. Incoming/outgoing-talk unit and incoming-talk unit
US9716782B2 (en) 2010-12-27 2017-07-25 Rohm Co., Ltd. Mobile telephone
US9980024B2 (en) 2011-02-25 2018-05-22 Rohm Co., Ltd. Hearing system and finger ring for the hearing system
JP2012205147A (ja) * 2011-03-25 2012-10-22 Kyocera Corp 携帯電子機器および音声制御システム
JP2013042464A (ja) * 2011-08-19 2013-02-28 Yuji Hosoi 携帯電話
JP2013070258A (ja) * 2011-09-22 2013-04-18 Yuji Hosoi 携帯電話
WO2013108426A1 (ja) * 2012-01-20 2013-07-25 ローム株式会社 軟骨伝導部を有する携帯電話
US10158947B2 (en) 2012-01-20 2018-12-18 Rohm Co., Ltd. Mobile telephone utilizing cartilage conduction
US10778823B2 (en) 2012-01-20 2020-09-15 Finewell Co., Ltd. Mobile telephone and cartilage-conduction vibration source device
US10079925B2 (en) 2012-01-20 2018-09-18 Rohm Co., Ltd. Mobile telephone
US10834506B2 (en) 2012-06-29 2020-11-10 Finewell Co., Ltd. Stereo earphone
US9729971B2 (en) 2012-06-29 2017-08-08 Rohm Co., Ltd. Stereo earphone
US10506343B2 (en) 2012-06-29 2019-12-10 Finewell Co., Ltd. Earphone having vibration conductor which conducts vibration, and stereo earphone including the same
JP2015023485A (ja) * 2013-07-22 2015-02-02 株式会社ナカヨ 特定音付き音声コマンド対応情報端末
US10075574B2 (en) 2013-08-23 2018-09-11 Rohm Co., Ltd. Mobile telephone
US10237382B2 (en) 2013-08-23 2019-03-19 Finewell Co., Ltd. Mobile telephone
US9742887B2 (en) 2013-08-23 2017-08-22 Rohm Co., Ltd. Mobile telephone
US10103766B2 (en) 2013-10-24 2018-10-16 Rohm Co., Ltd. Wristband-type handset and wristband-type alerting device
US9705548B2 (en) 2013-10-24 2017-07-11 Rohm Co., Ltd. Wristband-type handset and wristband-type alerting device
US10380864B2 (en) 2014-08-20 2019-08-13 Finewell Co., Ltd. Watching system, watching detection device, and watching notification device
US10013862B2 (en) 2014-08-20 2018-07-03 Rohm Co., Ltd. Watching system, watching detection device, and watching notification device
US10356231B2 (en) 2014-12-18 2019-07-16 Finewell Co., Ltd. Cartilage conduction hearing device using an electromagnetic vibration unit, and electromagnetic vibration unit
US10848607B2 (en) 2014-12-18 2020-11-24 Finewell Co., Ltd. Cycling hearing device and bicycle system
US11601538B2 (en) 2014-12-18 2023-03-07 Finewell Co., Ltd. Headset having right- and left-ear sound output units with through-holes formed therein
US10967521B2 (en) 2015-07-15 2021-04-06 Finewell Co., Ltd. Robot and robot system
US10795321B2 (en) 2015-09-16 2020-10-06 Finewell Co., Ltd. Wrist watch with hearing function
US10778824B2 (en) 2016-01-19 2020-09-15 Finewell Co., Ltd. Pen-type handset
US11526033B2 (en) 2018-09-28 2022-12-13 Finewell Co., Ltd. Hearing device

Also Published As

Publication number Publication date
EP1648150A2 (en) 2006-04-19
CN1761265B (zh) 2011-04-20
US20060079291A1 (en) 2006-04-13
EP1648150B1 (en) 2017-11-01
AU2005203610A1 (en) 2006-04-27
CA2518640A1 (en) 2006-04-12
BRPI0503644A (pt) 2006-05-23
KR20060050836A (ko) 2006-05-19
RU2391716C2 (ru) 2010-06-10
US7283850B2 (en) 2007-10-16
KR101176732B1 (ko) 2012-08-23
RU2005127851A (ru) 2007-03-20
JP4870953B2 (ja) 2012-02-08
EP1648150A3 (en) 2006-05-31
US20070036370A1 (en) 2007-02-15
MXPA05009800A (es) 2006-04-18
CA2812014A1 (en) 2006-04-12
CA2518640C (en) 2014-02-11
CN1761265A (zh) 2006-04-19
CA2812014C (en) 2015-11-03

Similar Documents

Publication Publication Date Title
JP4870953B2 (ja) モバイル装置における多感覚応用の音声強調のための方法および装置
US8838184B2 (en) Wireless conference call telephone
KR101694592B1 (ko) 골전도 스피커를 이용하는 착용형 장치
US20190138603A1 (en) Coordinating Translation Request Metadata between Devices
JP7275375B2 (ja) オーディオデバイスのコーディネーション
CN108235181A (zh) 在音频处理装置中降噪的方法
JP2023542968A (ja) 定位されたフィードバックによる聴力増強及びウェアラブルシステム
JP2016005017A (ja) 管理装置、会話システム、会話管理方法及びプログラム
JP6065768B2 (ja) 情報処理装置、情報処理方法およびプログラム
WO2018088210A1 (ja) 情報処理装置および方法、並びにプログラム
JP7293863B2 (ja) 音声処理装置、音声処理方法およびプログラム
US11509993B2 (en) Ambient noise detection using a secondary audio receiver
CN111149373B (zh) 用于评估语音接触的听力设备及相关方法
EP4184507A1 (en) Headset apparatus, teleconference system, user device and teleconferencing method
US20240015462A1 (en) Voice processing system, voice processing method, and recording medium having voice processing program recorded thereon
WO2017187674A1 (ja) 情報処理装置、情報処理システム、及びプログラム
Albrecht et al. Continuous Mobile Communication with Acoustic Co-Location Detection
Swann Helpful vibrations: Assistive devices in hearing loss

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080908

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080908

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110408

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110708

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111115

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111118

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4870953

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141125

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees