JP5193473B2 - オーディオファイルをスピーチ駆動の選択するシステムおよび方法 - Google Patents
オーディオファイルをスピーチ駆動の選択するシステムおよび方法 Download PDFInfo
- Publication number
- JP5193473B2 JP5193473B2 JP2007019871A JP2007019871A JP5193473B2 JP 5193473 B2 JP5193473 B2 JP 5193473B2 JP 2007019871 A JP2007019871 A JP 2007019871A JP 2007019871 A JP2007019871 A JP 2007019871A JP 5193473 B2 JP5193473 B2 JP 5193473B2
- Authority
- JP
- Japan
- Prior art keywords
- refrain
- audio
- audio file
- speech
- voice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 75
- 238000013518 transcription Methods 0.000 claims abstract description 37
- 230000035897 transcription Effects 0.000 claims abstract description 37
- 230000001755 vocal effect Effects 0.000 claims abstract 7
- 238000001514 detection method Methods 0.000 claims description 18
- 238000012546 transfer Methods 0.000 claims description 10
- 230000033764 rhythmic process Effects 0.000 claims description 7
- 238000004458 analytical method Methods 0.000 claims description 6
- 230000011218 segmentation Effects 0.000 claims description 6
- 238000012545 processing Methods 0.000 description 14
- 238000013179 statistical model Methods 0.000 description 7
- 238000013459 approach Methods 0.000 description 6
- 230000014509 gene expression Effects 0.000 description 6
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
- G10L25/87—Detection of discrete points within a voice signal
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/046—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for differentiation between music and non-music signals, based on the identification of musical parameters, e.g. based on tempo detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/066—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for pitch analysis as part of wider processing for musical purposes, e.g. transcription, musical performance evaluation; Pitch recognition, e.g. in polyphonic sounds; Estimation or use of missing fundamental
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/076—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of timing, tempo; Beat detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/081—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for automatic key or tonality recognition, e.g. using musical rules or a knowledge base
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/121—Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
- G10H2240/131—Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set
- G10H2240/135—Library retrieval index, i.e. using an indexing scheme to efficiently retrieve a music piece
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/121—Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
- G10H2240/131—Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set
- G10H2240/141—Library retrieval matching, i.e. any of the steps of matching an inputted segment or phrase with musical database contents, e.g. query by humming, singing or playing; the steps may include, e.g. musical analysis of the input, musical feature extraction, query formulation, or details of the retrieval process
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
- Selective Calling Equipment (AREA)
Description
発声構成要素を含んでいるオーディオファイルにおけるリフレインを、
該オーディオファイルの主要部分の音声転写を生成するステップと、
該音声転写を分析し、頻繁に繰り返される該生成された音声転写における発声セグメントを識別するステップであって、該識別された頻繁に繰り返された発声セグメントは該リフレインを表す、ステップと
を用いて検出する方法。
発声部および非発声部へと上記オーディオファイルをプレセグメント化するステップと、更なる処理のために該非発声部を放棄するステップとをさらに包含することを特徴とする、項目1に記載の方法。
上記オーディオファイルの上記非発声構成要素を減衰し、および/または上記発声構成要素を増幅するステップと、結果として生じるオーディオファイルに基づいて上記音声転写を生成するステップとをさらに包含することを特徴とする、項目2に記載の方法。
繰り返される曲のセグメントを識別し、それによって上記リフレインの上記検出を改良するようにオーディオファイルまたはストリームを構築する目的のために、曲のメロディー、リズム、パワー、およびハーモニックスを分析するステップをさらに包含することを特徴とする、項目1〜3のいずれか一項に記載の方法。
上記発声セグメントが上記音声転写内に少なくとも2回識別され得た場合、該発声セグメントはリフレインとして識別されることを特徴とする、項目1〜4のいずれか一項に記載の方法。
上記オーディオファイルのプレセグメント化の場合において、上記音声転写が、上記データの主要部分および該データの発声部のために生成されることを特徴とする、項目1〜5のいずれか一項に記載の方法。
オーディオファイルにおけるリフレインを検出するためのシステムであって、該オーディオファイルは少なくとも発声構成要素を含み、該システムは、
該オーディオファイルの主要部分の音声転写を生成する音声転写ユニット(40)と、
該生成された音声転写を分析、頻繁に繰り返される該音声転写内の発声セグメントを識別する分析ユニットと
を備える、システム。
少なくとも発声構成要素を有するオーディオファイルを処理する方法であって、
該オーディオファイルのリフレインを検出するステップと、
該リフレインの音声表現または音響表現を生成するステップと、
該オーディオファイルとともに、該生成された音声表現または音響表現を格納するステップと
を包含する、方法。
上記リフレインを上記検出するステップが、ボイスを含む上記オーディオファイルの頻繁に繰り返すセグメントを検出するステップを含む、項目8に記載の方法。
上記リフレインを上記検出するステップが、上記オーディオファイルの主要部分の音声転写を生成するステップを含み、該オーディオファイルの該音声転写内における繰り返す同様のセグメントが、リフレインとして識別される、項目8または9に記載の方法。
上記リフレインを上記検出するステップが、上記オーディオファイルのメロディー、ハーモニックおよび/またはリズム分析のステップを含む、項目8〜10のいずれか一項に記載の方法。
上記リフレイン内の韻律、音の大きさおよび/または発声ポーズを考慮することによって該検出されたリフレインをさらに分解するステップをさらに包含することを特徴とする、項目8〜11のいずれか一項に記載の方法。
上記リフレインが項目1〜6のいずれか一項に記載のように検出される、項目8〜12のいずれか一項に記載の方法。
少なくとも発声構成要素を有するオーディオファイルを処理するためのシステムであって、
該オーディオファイルのリフレインを検出する検出ユニット(30)と、
該リフレインの音声表現または音響表現を生成する転写ユニット(40)と、
該オーディオデータにリンクされた該音声表現または音響表現を格納するための制御ユニット(70)と
を少なくとも備える、方法。
オーディオプレーヤにおける複数のオーディオファイルから一つのオーディオファイルをスピーチ駆動の選択する方法であって、該オーディオファイルは少なくとも発声構成要素を含み、該方法は、
該オーディオファイルのリフレインを検出するステップと、
該リフレインの少なくとも一部の音声表現または音響表現を決定するステップと、
該音声表現または音響表現をスピーチ認識ユニットに供給するステップと、
該音声表現または音響表現を該オーディオプレーヤのユーザのボイス命令と比較し、該比較の最も一致する結果に基づいてオーディオファイルを選択するステップと
を包含する、方法。
統計モデルが、上記ボイス命令を上記音声表現または音響表現と比較するために使用される、項目15に記載の方法。
上記リフレインの音声表現または音響表現が、有限文法または統計言語モデルにおける要素としてスピーチ認識器に組み入れられる、項目15または16に記載の方法。
上記オーディオファイルを選択するために、上記リフレインの音声表現または音響表現が、上記最も一致する結果に基づいて該オーディオファイルを選択するための他の方法に加えて使用される、項目15〜17のいずれか一項に記載の方法。
上記オーディオファイルとともに格納された音声データが、該オーディオファイルを選択するために更に使用される、項目18に記載の方法。
上記リフレインの少なくとも一部の音声表現または音響表現を生成するステップをさらに包含し、該音声表現または音響表現は上記スピーチ認識ユニットに供給されていて、上記ボイス命令が上記統計モデルの可能なエントリと比較された場合、該音声表現または音響表現が考慮される、項目15〜19のいずれか一項に記載の方法。
上記検出されたリフレインまたは上記生成された音声表現もしくは音響表現をセグメント化するステップをさらに包含することを特徴とする、項目15〜20のいずれか一項に記載の方法。
上記リフレインまたは上記音声表現もしくは音響表現の上記更なるセグメント化のために、上記オーディオファイルの韻律、音の大きさ、発声ポーズが考慮される、項目21に記載の方法。
上記リフレインが項目1〜5のいずれか一項に記載のように検出される、項目15〜22のいずれか一項に記載の方法。
上記リフレインの上記音声表現または音響表現を生成するために、上記オーディオファイルが項目7〜12のいずれか一項に記載のように処理される、項目15〜23のいずれか一項に記載の方法。
上記リフレインのメロディーを決定するステップと、
スピーチ命令のメロディーを決定するステップと、
該2つのメロディーを比較するステップと、
該メロディー比較の結果も考慮して上記オーディオファイルのうちの1つを選択するステップと
をさらに包含することを特徴とする、項目15〜24のいずれか一項に記載の方法。
オーディオファイルをスピーチ駆動の選択するシステムであって、
該オーディオファイルのリフレインを検出するためのリフレイン検出ユニット30と、
該検出されたリフレインの音声表現または音響表現を決定するための手段と、
該音声表現または音響表現を該オーディオファイルを選択するユーザのボイス命令と比較し、かつ該比較の最も一致する結果を決定するスピーチ認識ユニットと、
該比較の該結果に従って該オーディオファイルを選択する制御ユニットと
を備える、システム。
本発明は、発声構成要素を含んでいるオーディオファイルにおけるリフレインを、オーディオファイルの主要部分の音声転写を生成するステップと、音声転写を分析し、頻繁に繰り返される生成された音声転写における発声セグメントを識別するステップであって、識別された頻繁に繰り返された発声セグメントはリフレインを表す、ステップとを用いて検出する方法に関する。更に、本発明は、検出されたリフレインおよびユーザ入力の類似性に基づいたスピーチ駆動の選択に関する。
10´ データベース
11 オーディオファイル
20 送受信器
30 ユニット
40 音声転写ユニット
50 制御ユニット
Claims (19)
- オーディオプレーヤにおける複数のオーディオファイルから一つのオーディオファイルのスピーチ駆動の選択のための方法であって、該オーディオファイルは、少なくとも発声構成要素を含み、
該方法は、
該オーディオファイルのリフレインを検出するステップと、
該リフレインの少なくとも一部の音声表現または音響表現を決定するステップと、
該音声表現または音響表現をスピーチ認識ユニットに供給するステップと
を包含し、
該リフレインの音声表現または音響表現は、該スピーチ認識ユニットを用いてユーザにおいてボイス命令を認識する有限文法または統計言語モデルにおける要素としてスピーチ認識器に組み入れられ、
該認識するステップは、該音声表現または音響表現を該オーディオプレーヤの該ユーザの該ボイス命令と比較し、該比較の最も一致する結果に基づいてオーディオファイルを選択するステップを包含する、方法。 - 前記オーディオファイルを選択するために、前記リフレインの音声表現または音響表現が、前記最も一致する結果に基づいて該オーディオファイルを選択するための他の方法に加えて使用される、請求項1に記載の方法。
- 前記オーディオファイルとともに格納された音声データが、該オーディオファイルを選択するために更に使用される、請求項2に記載の方法。
- 前記検出されたリフレインもしくは前記決定された音声表現または音響表現をさらにセグメント化するステップをさらに包含することを特徴とする、請求項1〜3のいずれか一項に記載の方法。
- 前記リフレインもしくは前記音声表現または音響表現をさらにセグメント化するために、前記オーディオファイルの韻律、音の大きさ、発声ポーズが考慮される、請求項4に記載の方法。
- 前記リフレインのメロディーを決定するステップと、
スピーチ命令のメロディーを決定するステップと、
該2つのメロディーを比較するステップと、
該メロディー比較の結果も考慮して前記オーディオファイルのうちの1つを選択するステップと
をさらに包含することを特徴とする、請求項1〜5のいずれか一項に記載の方法。 - 前記リフレインは、
前記オーディオファイルの主要部分の音声転写を生成することと、
該音声転写を分析し、該生成された音声転写において頻繁に繰り返される発声セグメントを識別することであって、該識別された頻繁に繰り返される発声セグメントは、該リフレインを表す、ことと
によって検出される、請求項1〜6のいずれか一項に記載の方法。 - 前記リフレインを検出する前に、前記オーディオファイルを発声部と非発声部とにプレセグメント化し、該非発声部を放棄するステップをさらに包含することを特徴とする、請求項7に記載の方法。
- 前記オーディオファイルの前記非発声部を減衰し、および/または、前記発声部を増幅し、結果として生じるオーディオファイルに基づいて前記音声転写を生成するステップをさらに包含することを特徴とする、請求項8に記載の方法。
- 繰り返される曲のセグメントを識別し、それによって前記リフレインの検出を改良するようにオーディオファイルまたはストリームを構築することを目的として、曲のメロディー、リズム、パワー、ハーモニックスを分析するステップをさらに包含することを特徴とする、請求項7〜9のいずれか一項に記載の方法。
- 前記発声セグメントが前記音声転写内で少なくとも2回識別され得た場合、該発声セグメントはリフレインとして識別されることを特徴とする、請求項7〜10のいずれか一項に記載の方法。
- 前記オーディオファイルのプレセグメント化の場合において、前記音声転写が、前記オーディオファイルの主要部分または該オーディオファイルの発声部のために生成されることを特徴とする、請求項8または9に記載の方法。
- 前記リフレインの音声表現または音響表現を決定するために、前記オーディオファイルは、
音声転写ユニット(40)によって、該オーディオファイルの主要部分の音声転写を生成することと、
分析ユニットによって該生成された音声転写を分析し、該音声転写において頻繁に繰り返される発声セグメントを識別することと
によって処理される、請求項1〜12のいずれか一項に記載の方法。 - 前記リフレインの音声表現または音響表現を決定するために、前記オーディオファイルは、
該オーディオファイルのリフレインを検出することと、
該リフレインの音声表現または音響表現を生成することと、
該オーディオファイルとともに、該生成された音声表現または音響表現を格納することと
によって処理される、請求項1〜12のいずれか一項に記載の方法。 - 前記リフレインを検出するステップが、ボイスを含む前記オーディオファイルの頻繁に繰り返すセグメントを検出するステップを含む、請求項14に記載の方法。
- 前記リフレインを検出するステップが、前記オーディオファイルの主要部分の音声転写を生成するステップを含み、該オーディオファイルの該音声転写において同様のセグメントを繰り返すことが、該リフレインとして識別される、請求項14または15に記載の方法。
- 前記リフレインを検出するステップが、前記オーディオファイルのメロディー、ハーモニックおよび/またはリズム分析のステップを含む、請求項14〜16のいずれか一項に記載の方法。
- 前記リフレイン内の韻律、音の大きさおよび/または発声ポーズを考慮することによって前記検出されたリフレインをさらに分解するステップをさらに包含することを特徴とする、請求項14〜17のいずれか一項に記載の方法。
- オーディオファイルのスピーチ駆動の選択のためのシステムであって、
オーディオファイルのリフレインを検出するためのリフレイン検出ユニット(30)と、
該検出されたリフレインの音声表現または音響表現を決定するための手段と、
該音声表現または音響表現を該オーディオファイルを選択するユーザのボイス命令と比較し、該比較の最も一致する結果を決定するスピーチ認識ユニットであって、該リフレインの音声表現または音響表現は、有限文法または統計言語モデルにおける要素としてスピーチ認識器に組み入れられる、スピーチ認識ユニットと、
該比較の結果に従って該オーディオファイルを選択する制御ユニットと
を含む、システム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP06002752A EP1818837B1 (en) | 2006-02-10 | 2006-02-10 | System for a speech-driven selection of an audio file and method therefor |
EP06002752.1 | 2006-02-10 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007213060A JP2007213060A (ja) | 2007-08-23 |
JP5193473B2 true JP5193473B2 (ja) | 2013-05-08 |
Family
ID=36360578
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007019871A Active JP5193473B2 (ja) | 2006-02-10 | 2007-01-30 | オーディオファイルをスピーチ駆動の選択するシステムおよび方法 |
Country Status (5)
Country | Link |
---|---|
US (2) | US7842873B2 (ja) |
EP (1) | EP1818837B1 (ja) |
JP (1) | JP5193473B2 (ja) |
AT (1) | ATE440334T1 (ja) |
DE (1) | DE602006008570D1 (ja) |
Families Citing this family (188)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8645137B2 (en) | 2000-03-16 | 2014-02-04 | Apple Inc. | Fast, language-independent method for user authentication by voice |
EP1693829B1 (en) * | 2005-02-21 | 2018-12-05 | Harman Becker Automotive Systems GmbH | Voice-controlled data system |
US8677377B2 (en) | 2005-09-08 | 2014-03-18 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
DE602006008570D1 (de) * | 2006-02-10 | 2009-10-01 | Harman Becker Automotive Sys | System für sprachgesteuerte Auswahl einer Audiodatei und Verfahren dafür |
US20090124272A1 (en) * | 2006-04-05 | 2009-05-14 | Marc White | Filtering transcriptions of utterances |
US8510109B2 (en) | 2007-08-22 | 2013-08-13 | Canyon Ip Holdings Llc | Continuous speech transcription performance indication |
US9436951B1 (en) | 2007-08-22 | 2016-09-06 | Amazon Technologies, Inc. | Facilitating presentation by mobile device of additional content for a word or phrase upon utterance thereof |
US8117268B2 (en) | 2006-04-05 | 2012-02-14 | Jablokov Victor R | Hosted voice recognition system for wireless devices |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US20080243281A1 (en) * | 2007-03-02 | 2008-10-02 | Neena Sujata Kadaba | Portable device and associated software to enable voice-controlled navigation of a digital audio player |
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US9973450B2 (en) | 2007-09-17 | 2018-05-15 | Amazon Technologies, Inc. | Methods and systems for dynamically updating web service profile information by parsing transcribed message strings |
US9053489B2 (en) | 2007-08-22 | 2015-06-09 | Canyon Ip Holdings Llc | Facilitating presentation of ads relating to words of a message |
US10002189B2 (en) | 2007-12-20 | 2018-06-19 | Apple Inc. | Method and apparatus for searching using an active ontology |
US9330720B2 (en) | 2008-01-03 | 2016-05-03 | Apple Inc. | Methods and apparatus for altering audio output signals |
US8996376B2 (en) | 2008-04-05 | 2015-03-31 | Apple Inc. | Intelligent text-to-speech conversion |
US10496753B2 (en) | 2010-01-18 | 2019-12-03 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US20100030549A1 (en) | 2008-07-31 | 2010-02-04 | Lee Michael M | Mobile device having human language translation capability with positional feedback |
US20100036666A1 (en) * | 2008-08-08 | 2010-02-11 | Gm Global Technology Operations, Inc. | Method and system for providing meta data for a work |
US8676904B2 (en) | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
US9959870B2 (en) | 2008-12-11 | 2018-05-01 | Apple Inc. | Speech recognition involving a mobile device |
US8254993B2 (en) * | 2009-03-06 | 2012-08-28 | Apple Inc. | Remote messaging for mobile communication device and accessory |
US9858925B2 (en) | 2009-06-05 | 2018-01-02 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
US10241644B2 (en) | 2011-06-03 | 2019-03-26 | Apple Inc. | Actionable reminder entries |
US10706373B2 (en) | 2011-06-03 | 2020-07-07 | Apple Inc. | Performing actions associated with task items that represent tasks to perform |
US10241752B2 (en) | 2011-09-30 | 2019-03-26 | Apple Inc. | Interface for a virtual digital assistant |
US9431006B2 (en) | 2009-07-02 | 2016-08-30 | Apple Inc. | Methods and apparatuses for automatic speech recognition |
US20110131040A1 (en) * | 2009-12-01 | 2011-06-02 | Honda Motor Co., Ltd | Multi-mode speech recognition |
US10679605B2 (en) | 2010-01-18 | 2020-06-09 | Apple Inc. | Hands-free list-reading by intelligent automated assistant |
US10553209B2 (en) | 2010-01-18 | 2020-02-04 | Apple Inc. | Systems and methods for hands-free notification summaries |
US10705794B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
US8682667B2 (en) | 2010-02-25 | 2014-03-25 | Apple Inc. | User profiling for selecting user specific voice input processing information |
US8584198B2 (en) * | 2010-11-12 | 2013-11-12 | Google Inc. | Syndication including melody recognition and opt out |
US10762293B2 (en) | 2010-12-22 | 2020-09-01 | Apple Inc. | Using parts-of-speech tagging and named entity recognition for spelling correction |
US9262612B2 (en) | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
US9734153B2 (en) | 2011-03-23 | 2017-08-15 | Audible, Inc. | Managing related digital content |
US8948892B2 (en) | 2011-03-23 | 2015-02-03 | Audible, Inc. | Managing playback of synchronized content |
US9760920B2 (en) | 2011-03-23 | 2017-09-12 | Audible, Inc. | Synchronizing digital content |
US9706247B2 (en) | 2011-03-23 | 2017-07-11 | Audible, Inc. | Synchronized digital content samples |
US8862255B2 (en) | 2011-03-23 | 2014-10-14 | Audible, Inc. | Managing playback of synchronized content |
US8855797B2 (en) | 2011-03-23 | 2014-10-07 | Audible, Inc. | Managing playback of synchronized content |
US9703781B2 (en) | 2011-03-23 | 2017-07-11 | Audible, Inc. | Managing related digital content |
US10057736B2 (en) | 2011-06-03 | 2018-08-21 | Apple Inc. | Active transport based notifications |
US20130035936A1 (en) * | 2011-08-02 | 2013-02-07 | Nexidia Inc. | Language transcription |
US8994660B2 (en) | 2011-08-29 | 2015-03-31 | Apple Inc. | Text correction processing |
US10134385B2 (en) | 2012-03-02 | 2018-11-20 | Apple Inc. | Systems and methods for name pronunciation |
US9483461B2 (en) | 2012-03-06 | 2016-11-01 | Apple Inc. | Handling speech synthesis of content for multiple languages |
US9075760B2 (en) | 2012-05-07 | 2015-07-07 | Audible, Inc. | Narration settings distribution for content customization |
US9280610B2 (en) | 2012-05-14 | 2016-03-08 | Apple Inc. | Crowd sourcing information to fulfill user requests |
US9317500B2 (en) | 2012-05-30 | 2016-04-19 | Audible, Inc. | Synchronizing translated digital content |
US9721563B2 (en) | 2012-06-08 | 2017-08-01 | Apple Inc. | Name recognition system |
US9141257B1 (en) | 2012-06-18 | 2015-09-22 | Audible, Inc. | Selecting and conveying supplemental content |
US8972265B1 (en) | 2012-06-18 | 2015-03-03 | Audible, Inc. | Multiple voices in audio content |
US9536439B1 (en) | 2012-06-27 | 2017-01-03 | Audible, Inc. | Conveying questions with content |
US9679608B2 (en) | 2012-06-28 | 2017-06-13 | Audible, Inc. | Pacing content |
US9495129B2 (en) | 2012-06-29 | 2016-11-15 | Apple Inc. | Device, method, and user interface for voice-activated navigation and browsing of a document |
US10109278B2 (en) | 2012-08-02 | 2018-10-23 | Audible, Inc. | Aligning body matter across content formats |
US9576574B2 (en) | 2012-09-10 | 2017-02-21 | Apple Inc. | Context-sensitive handling of interruptions by intelligent digital assistant |
US9547647B2 (en) | 2012-09-19 | 2017-01-17 | Apple Inc. | Voice-based media searching |
US9367196B1 (en) | 2012-09-26 | 2016-06-14 | Audible, Inc. | Conveying branched content |
US9632647B1 (en) | 2012-10-09 | 2017-04-25 | Audible, Inc. | Selecting presentation positions in dynamic content |
US9223830B1 (en) | 2012-10-26 | 2015-12-29 | Audible, Inc. | Content presentation analysis |
US9280906B2 (en) | 2013-02-04 | 2016-03-08 | Audible. Inc. | Prompting a user for input during a synchronous presentation of audio content and textual content |
US9472113B1 (en) | 2013-02-05 | 2016-10-18 | Audible, Inc. | Synchronizing playback of digital content with physical content |
DE112014000709B4 (de) | 2013-02-07 | 2021-12-30 | Apple Inc. | Verfahren und vorrichtung zum betrieb eines sprachtriggers für einen digitalen assistenten |
US9368114B2 (en) | 2013-03-14 | 2016-06-14 | Apple Inc. | Context-sensitive handling of interruptions |
WO2014144579A1 (en) | 2013-03-15 | 2014-09-18 | Apple Inc. | System and method for updating an adaptive speech recognition model |
WO2014144949A2 (en) | 2013-03-15 | 2014-09-18 | Apple Inc. | Training an at least partial voice command system |
US9317486B1 (en) | 2013-06-07 | 2016-04-19 | Audible, Inc. | Synchronizing playback of digital content with captured physical content |
WO2014197336A1 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for detecting errors in interactions with a voice-based digital assistant |
US9582608B2 (en) | 2013-06-07 | 2017-02-28 | Apple Inc. | Unified ranking with entropy-weighted information for phrase-based semantic auto-completion |
WO2014197334A2 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
WO2014197335A1 (en) | 2013-06-08 | 2014-12-11 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
KR101922663B1 (ko) | 2013-06-09 | 2018-11-28 | 애플 인크. | 디지털 어시스턴트의 둘 이상의 인스턴스들에 걸친 대화 지속성을 가능하게 하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스 |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
KR101809808B1 (ko) | 2013-06-13 | 2017-12-15 | 애플 인크. | 음성 명령에 의해 개시되는 긴급 전화를 걸기 위한 시스템 및 방법 |
US10791216B2 (en) | 2013-08-06 | 2020-09-29 | Apple Inc. | Auto-activating smart responses based on activities from remote devices |
US9489360B2 (en) | 2013-09-05 | 2016-11-08 | Audible, Inc. | Identifying extra material in companion content |
US10296160B2 (en) | 2013-12-06 | 2019-05-21 | Apple Inc. | Method for extracting salient dialog usage from live data |
US9620105B2 (en) | 2014-05-15 | 2017-04-11 | Apple Inc. | Analyzing audio input for efficient speech and music recognition |
US10592095B2 (en) | 2014-05-23 | 2020-03-17 | Apple Inc. | Instantaneous speaking of content on touch devices |
US9502031B2 (en) | 2014-05-27 | 2016-11-22 | Apple Inc. | Method for supporting dynamic grammars in WFST-based ASR |
US9842101B2 (en) | 2014-05-30 | 2017-12-12 | Apple Inc. | Predictive conversion of language input |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US9785630B2 (en) | 2014-05-30 | 2017-10-10 | Apple Inc. | Text prediction using combined word N-gram and unigram language models |
US10078631B2 (en) | 2014-05-30 | 2018-09-18 | Apple Inc. | Entropy-guided text prediction using combined word and character n-gram language models |
US10289433B2 (en) | 2014-05-30 | 2019-05-14 | Apple Inc. | Domain specific language for encoding assistant dialog |
TWI566107B (zh) | 2014-05-30 | 2017-01-11 | 蘋果公司 | 用於處理多部分語音命令之方法、非暫時性電腦可讀儲存媒體及電子裝置 |
US9734193B2 (en) | 2014-05-30 | 2017-08-15 | Apple Inc. | Determining domain salience ranking from ambiguous words in natural speech |
US9430463B2 (en) | 2014-05-30 | 2016-08-30 | Apple Inc. | Exemplar-based natural language processing |
US9760559B2 (en) | 2014-05-30 | 2017-09-12 | Apple Inc. | Predictive text input |
US9633004B2 (en) | 2014-05-30 | 2017-04-25 | Apple Inc. | Better resolution when referencing to concepts |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US10659851B2 (en) | 2014-06-30 | 2020-05-19 | Apple Inc. | Real-time digital assistant knowledge updates |
US10446141B2 (en) | 2014-08-28 | 2019-10-15 | Apple Inc. | Automatic speech recognition based on user feedback |
US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US10789041B2 (en) | 2014-09-12 | 2020-09-29 | Apple Inc. | Dynamic thresholds for always listening speech trigger |
US9606986B2 (en) | 2014-09-29 | 2017-03-28 | Apple Inc. | Integrated word N-gram and class M-gram language models |
US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
US9646609B2 (en) | 2014-09-30 | 2017-05-09 | Apple Inc. | Caching apparatus for serving phonetic pronunciations |
US9886432B2 (en) | 2014-09-30 | 2018-02-06 | Apple Inc. | Parsimonious handling of word inflection via categorical stem + suffix N-gram language models |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US10552013B2 (en) | 2014-12-02 | 2020-02-04 | Apple Inc. | Data detection |
US9711141B2 (en) | 2014-12-09 | 2017-07-18 | Apple Inc. | Disambiguating heteronyms in speech synthesis |
US9865280B2 (en) | 2015-03-06 | 2018-01-09 | Apple Inc. | Structured dictation using intelligent automated assistants |
US10152299B2 (en) | 2015-03-06 | 2018-12-11 | Apple Inc. | Reducing response latency of intelligent automated assistants |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US9899019B2 (en) | 2015-03-18 | 2018-02-20 | Apple Inc. | Systems and methods for structured stem and suffix language models |
US9842105B2 (en) | 2015-04-16 | 2017-12-12 | Apple Inc. | Parsimonious continuous-space phrase representations for natural language processing |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
US10127220B2 (en) | 2015-06-04 | 2018-11-13 | Apple Inc. | Language identification from short strings |
US9578173B2 (en) | 2015-06-05 | 2017-02-21 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US10101822B2 (en) | 2015-06-05 | 2018-10-16 | Apple Inc. | Language input correction |
US10255907B2 (en) | 2015-06-07 | 2019-04-09 | Apple Inc. | Automatic accent detection using acoustic models |
US10186254B2 (en) | 2015-06-07 | 2019-01-22 | Apple Inc. | Context-based endpoint detection |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US9697820B2 (en) | 2015-09-24 | 2017-07-04 | Apple Inc. | Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks |
US11010550B2 (en) | 2015-09-29 | 2021-05-18 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
US10366158B2 (en) | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US10446143B2 (en) | 2016-03-14 | 2019-10-15 | Apple Inc. | Identification of voice inputs providing credentials |
US9934775B2 (en) | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
US9972304B2 (en) | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
DK179588B1 (en) | 2016-06-09 | 2019-02-22 | Apple Inc. | INTELLIGENT AUTOMATED ASSISTANT IN A HOME ENVIRONMENT |
US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
US10490187B2 (en) | 2016-06-10 | 2019-11-26 | Apple Inc. | Digital assistant providing automated status report |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10509862B2 (en) | 2016-06-10 | 2019-12-17 | Apple Inc. | Dynamic phrase expansion of language input |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
DK179343B1 (en) | 2016-06-11 | 2018-05-14 | Apple Inc | Intelligent task discovery |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
DK179049B1 (en) | 2016-06-11 | 2017-09-18 | Apple Inc | Data driven natural language event detection and classification |
US10474753B2 (en) | 2016-09-07 | 2019-11-12 | Apple Inc. | Language identification using recurrent neural networks |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
US11281993B2 (en) | 2016-12-05 | 2022-03-22 | Apple Inc. | Model and ensemble compression for metric learning |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
US11204787B2 (en) | 2017-01-09 | 2021-12-21 | Apple Inc. | Application integration with a digital assistant |
US10417266B2 (en) | 2017-05-09 | 2019-09-17 | Apple Inc. | Context-aware ranking of intelligent response suggestions |
DK201770383A1 (en) | 2017-05-09 | 2018-12-14 | Apple Inc. | USER INTERFACE FOR CORRECTING RECOGNITION ERRORS |
US10726832B2 (en) | 2017-05-11 | 2020-07-28 | Apple Inc. | Maintaining privacy of personal information |
US10395654B2 (en) | 2017-05-11 | 2019-08-27 | Apple Inc. | Text normalization based on a data-driven learning network |
DK201770439A1 (en) | 2017-05-11 | 2018-12-13 | Apple Inc. | Offline personal assistant |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
US11301477B2 (en) | 2017-05-12 | 2022-04-12 | Apple Inc. | Feedback analysis of a digital assistant |
DK201770428A1 (en) | 2017-05-12 | 2019-02-18 | Apple Inc. | LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT |
DK201770432A1 (en) | 2017-05-15 | 2018-12-21 | Apple Inc. | Hierarchical belief states for digital assistants |
DK201770431A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
US10303715B2 (en) | 2017-05-16 | 2019-05-28 | Apple Inc. | Intelligent automated assistant for media exploration |
DK179549B1 (en) | 2017-05-16 | 2019-02-12 | Apple Inc. | FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES |
US10403278B2 (en) | 2017-05-16 | 2019-09-03 | Apple Inc. | Methods and systems for phonetic matching in digital assistant services |
US10311144B2 (en) | 2017-05-16 | 2019-06-04 | Apple Inc. | Emoji word sense disambiguation |
US10657328B2 (en) | 2017-06-02 | 2020-05-19 | Apple Inc. | Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling |
US10445429B2 (en) | 2017-09-21 | 2019-10-15 | Apple Inc. | Natural language understanding using vocabularies with compressed serialized tries |
US10755051B2 (en) | 2017-09-29 | 2020-08-25 | Apple Inc. | Rule-based natural language processing |
US10636424B2 (en) | 2017-11-30 | 2020-04-28 | Apple Inc. | Multi-turn canned dialog |
US10733982B2 (en) | 2018-01-08 | 2020-08-04 | Apple Inc. | Multi-directional dialog |
US10733375B2 (en) | 2018-01-31 | 2020-08-04 | Apple Inc. | Knowledge-based framework for improving natural language understanding |
US10789959B2 (en) | 2018-03-02 | 2020-09-29 | Apple Inc. | Training speaker recognition models for digital assistants |
US10592604B2 (en) | 2018-03-12 | 2020-03-17 | Apple Inc. | Inverse text normalization for automatic speech recognition |
US10818288B2 (en) | 2018-03-26 | 2020-10-27 | Apple Inc. | Natural assistant interaction |
US10909331B2 (en) | 2018-03-30 | 2021-02-02 | Apple Inc. | Implicit identification of translation payload with neural machine translation |
US11145294B2 (en) | 2018-05-07 | 2021-10-12 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
US10984780B2 (en) | 2018-05-21 | 2021-04-20 | Apple Inc. | Global semantic word embeddings using bi-directional recurrent neural networks |
DK201870355A1 (en) | 2018-06-01 | 2019-12-16 | Apple Inc. | VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS |
DK179822B1 (da) | 2018-06-01 | 2019-07-12 | Apple Inc. | Voice interaction at a primary device to access call functionality of a companion device |
DK180639B1 (en) | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
US10892996B2 (en) | 2018-06-01 | 2021-01-12 | Apple Inc. | Variable latency device coordination |
US11386266B2 (en) | 2018-06-01 | 2022-07-12 | Apple Inc. | Text correction |
US10496705B1 (en) | 2018-06-03 | 2019-12-03 | Apple Inc. | Accelerated task performance |
KR102495888B1 (ko) * | 2018-12-04 | 2023-02-03 | 삼성전자주식회사 | 사운드를 출력하기 위한 전자 장치 및 그의 동작 방법 |
US20220019618A1 (en) * | 2020-07-15 | 2022-01-20 | Pavan Kumar Dronamraju | Automatically converting and storing of input audio stream into an indexed collection of rhythmic nodal structure, using the same format for matching and effective retrieval |
US12027164B2 (en) | 2021-06-16 | 2024-07-02 | Google Llc | Passive disambiguation of assistant commands |
KR102515914B1 (ko) * | 2022-12-21 | 2023-03-30 | 주식회사 액션파워 | Stt 모델을 활용하는 발음 전사 방법 |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5521324A (en) * | 1994-07-20 | 1996-05-28 | Carnegie Mellon University | Automated musical accompaniment with multiple input sensors |
JPH09293083A (ja) * | 1996-04-26 | 1997-11-11 | Toshiba Corp | 楽曲検索装置および検索方法 |
JP3890692B2 (ja) * | 1997-08-29 | 2007-03-07 | ソニー株式会社 | 情報処理装置及び情報配信システム |
JPH11120198A (ja) * | 1997-10-20 | 1999-04-30 | Sony Corp | 楽曲検索装置 |
AU2001233269A1 (en) * | 2000-02-03 | 2001-08-14 | Streamingtext, Inc. | System and method for integrated delivery of media and associated characters, such as audio and synchronized text transcription |
FI20002161A (fi) * | 2000-09-29 | 2002-03-30 | Nokia Mobile Phones Ltd | Menetelmä ja järjestelmä melodian tunnistamiseksi |
JP3602059B2 (ja) * | 2001-01-24 | 2004-12-15 | 株式会社第一興商 | 旋律検索式カラオケ演奏予約システム、旋律検索サーバー、カラオケ付属コンピュータ |
US7343082B2 (en) * | 2001-09-12 | 2008-03-11 | Ryshco Media Inc. | Universal guide track |
US7089188B2 (en) * | 2002-03-27 | 2006-08-08 | Hewlett-Packard Development Company, L.P. | Method to expand inputs for word or document searching |
US6998527B2 (en) * | 2002-06-20 | 2006-02-14 | Koninklijke Philips Electronics N.V. | System and method for indexing and summarizing music videos |
US6907397B2 (en) * | 2002-09-16 | 2005-06-14 | Matsushita Electric Industrial Co., Ltd. | System and method of media file access and retrieval using speech recognition |
US7386357B2 (en) * | 2002-09-30 | 2008-06-10 | Hewlett-Packard Development Company, L.P. | System and method for generating an audio thumbnail of an audio track |
ATE556404T1 (de) * | 2002-10-24 | 2012-05-15 | Nat Inst Of Advanced Ind Scien | Wiedergabeverfahren für musikalische kompositionen und einrichtung und verfahren zum erkennen eines repräsentativen motivteils in musikkompositionsdaten |
WO2004049188A1 (en) * | 2002-11-28 | 2004-06-10 | Agency For Science, Technology And Research | Summarizing digital audio data |
EP1616275A1 (en) * | 2003-04-14 | 2006-01-18 | Koninklijke Philips Electronics N.V. | Method and apparatus for summarizing a music video using content analysis |
JP3892410B2 (ja) * | 2003-04-21 | 2007-03-14 | パイオニア株式会社 | 音楽データ選曲装置、音楽データ選曲方法、並びに、音楽データの選曲プログラムおよびそれを記録した情報記録媒体 |
US20050038814A1 (en) * | 2003-08-13 | 2005-02-17 | International Business Machines Corporation | Method, apparatus, and program for cross-linking information sources using multiple modalities |
US7401019B2 (en) * | 2004-01-15 | 2008-07-15 | Microsoft Corporation | Phonetic fragment search in speech data |
US20060112812A1 (en) * | 2004-11-30 | 2006-06-01 | Anand Venkataraman | Method and apparatus for adapting original musical tracks for karaoke use |
US8013229B2 (en) * | 2005-07-22 | 2011-09-06 | Agency For Science, Technology And Research | Automatic creation of thumbnails for music videos |
US20070078708A1 (en) * | 2005-09-30 | 2007-04-05 | Hua Yu | Using speech recognition to determine advertisements relevant to audio content and/or audio content relevant to advertisements |
EP1785891A1 (en) * | 2005-11-09 | 2007-05-16 | Sony Deutschland GmbH | Music information retrieval using a 3D search algorithm |
DE602006008570D1 (de) * | 2006-02-10 | 2009-10-01 | Harman Becker Automotive Sys | System für sprachgesteuerte Auswahl einer Audiodatei und Verfahren dafür |
US7739221B2 (en) * | 2006-06-28 | 2010-06-15 | Microsoft Corporation | Visual and multi-dimensional search |
US7917514B2 (en) * | 2006-06-28 | 2011-03-29 | Microsoft Corporation | Visual and multi-dimensional search |
US7984035B2 (en) * | 2007-12-28 | 2011-07-19 | Microsoft Corporation | Context-based document search |
KR101504522B1 (ko) * | 2008-01-07 | 2015-03-23 | 삼성전자 주식회사 | 음악 저장/검색 장치 및 방법 |
-
2006
- 2006-02-10 DE DE602006008570T patent/DE602006008570D1/de active Active
- 2006-02-10 AT AT06002752T patent/ATE440334T1/de not_active IP Right Cessation
- 2006-02-10 EP EP06002752A patent/EP1818837B1/en active Active
-
2007
- 2007-01-30 JP JP2007019871A patent/JP5193473B2/ja active Active
- 2007-02-12 US US11/674,108 patent/US7842873B2/en active Active
-
2010
- 2010-10-19 US US12/907,449 patent/US8106285B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20080065382A1 (en) | 2008-03-13 |
JP2007213060A (ja) | 2007-08-23 |
ATE440334T1 (de) | 2009-09-15 |
EP1818837B1 (en) | 2009-08-19 |
US20110035217A1 (en) | 2011-02-10 |
US8106285B2 (en) | 2012-01-31 |
US7842873B2 (en) | 2010-11-30 |
EP1818837A1 (en) | 2007-08-15 |
DE602006008570D1 (de) | 2009-10-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5193473B2 (ja) | オーディオファイルをスピーチ駆動の選択するシステムおよび方法 | |
EP1909263B1 (en) | Exploitation of language identification of media file data in speech dialog systems | |
US11594215B2 (en) | Contextual voice user interface | |
US11380330B2 (en) | Conversational recovery for voice user interface | |
US11270685B2 (en) | Speech based user recognition | |
US10140973B1 (en) | Text-to-speech processing using previously speech processed data | |
Mesaros et al. | Automatic recognition of lyrics in singing | |
EP1693829B1 (en) | Voice-controlled data system | |
CN106463113B (zh) | 在语音辨识中预测发音 | |
EP1936606B1 (en) | Multi-stage speech recognition | |
US8606581B1 (en) | Multi-pass speech recognition | |
US10176809B1 (en) | Customized compression and decompression of audio data | |
US9202466B2 (en) | Spoken dialog system using prominence | |
EP3387646A1 (en) | Text-to-speech processing systems and methods | |
JP2003316386A (ja) | 音声認識方法および音声認識装置および音声認識プログラム | |
US10565989B1 (en) | Ingesting device specific content | |
JP5326169B2 (ja) | 音声データ検索システム及び音声データ検索方法 | |
US11715472B2 (en) | Speech-processing system | |
US20090012792A1 (en) | Speech recognition system | |
Suzuki et al. | Music information retrieval from a singing voice using lyrics and melody information | |
JP5196114B2 (ja) | 音声認識装置およびプログラム | |
JP3472101B2 (ja) | 音声入力解釈装置及び音声入力解釈方法 | |
US11817090B1 (en) | Entity resolution using acoustic data | |
US11393451B1 (en) | Linked content in voice user interface | |
WO2002067244A1 (fr) | Procede de reconnaissance de la parole pour interaction de la parole, systeme et programme de reconnaissance de la parole |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100129 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110124 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120215 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120514 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130117 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130204 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5193473 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160208 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |