JP6704450B2 - 開発者ボイスアクションシステム - Google Patents
開発者ボイスアクションシステム Download PDFInfo
- Publication number
- JP6704450B2 JP6704450B2 JP2018522970A JP2018522970A JP6704450B2 JP 6704450 B2 JP6704450 B2 JP 6704450B2 JP 2018522970 A JP2018522970 A JP 2018522970A JP 2018522970 A JP2018522970 A JP 2018522970A JP 6704450 B2 JP6704450 B2 JP 6704450B2
- Authority
- JP
- Japan
- Prior art keywords
- voice action
- software application
- action
- new
- voice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000009471 action Effects 0.000 title claims description 1066
- 238000013518 transcription Methods 0.000 claims description 71
- 230000035897 transcription Effects 0.000 claims description 71
- 230000000694 effects Effects 0.000 claims description 62
- 238000000034 method Methods 0.000 claims description 56
- 230000004044 response Effects 0.000 claims description 54
- 238000012360 testing method Methods 0.000 claims description 22
- 238000012790 confirmation Methods 0.000 claims description 6
- 238000004458 analytical method Methods 0.000 description 28
- 238000010200 validation analysis Methods 0.000 description 27
- 230000001960 triggered effect Effects 0.000 description 23
- 230000008569 process Effects 0.000 description 19
- 230000006698 induction Effects 0.000 description 16
- 238000004891 communication Methods 0.000 description 15
- 238000004590 computer program Methods 0.000 description 10
- 238000012795 verification Methods 0.000 description 10
- 238000011161 development Methods 0.000 description 7
- 238000012545 processing Methods 0.000 description 6
- 230000001413 cellular effect Effects 0.000 description 5
- 230000001939 inductive effect Effects 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000001755 vocal effect Effects 0.000 description 4
- 230000006399 behavior Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000000977 initiatory effect Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 206010013647 Drowning Diseases 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000011273 social behavior Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1822—Parsing for meaning understanding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/165—Management of the audio stream, e.g. setting of volume, audio stream path
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/06—Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/06—Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
- G10L21/10—Transforming into visible information
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/227—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of the speaker; Human-factor methodology
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/228—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Quality & Reliability (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
Description
本出願は、2016年3月1日に出願された米国出願第15/057,453号の継続出願であり、その優先権を主張するものであり、その開示は、その全体が参照により本明細書に組み込まれる。
ボイスアクションシステムによって、前記ボイスアクションシステムとは異なるソフトウェアアプリケーションのための新しいボイスアクションを指定するデータを受信することであって、このデータは、新しいボイスアクションを実行するための1つまたは複数の動作と、新しいボイスアクションをトリガするための1つまたは複数のトリガ用語とを含む、受信することと、
ボイスアクションシステムによって、少なくとも受信されたデータに基づいて、ソフトウェアアプリケーションのためのコンテキスト的ボイスアクション意向を生成することであって、コンテキスト的ボイスアクション意向は、ソフトウェアアプリケーションによって受信されたときに、ソフトウェアアプリケーションが新しいボイスアクションの1つまたは複数の動作を実行することを要求するデータを含む、生成することと、
ボイスアクションシステムによって、コンテキスト的ボイスアクション意向を新しいボイスアクションのための1つまたは複数のトリガ用語と関連付けることと
を含み、
ボイスアクションシステムが、
ソフトウェアアプリケーションをインストールされたデバイスによって取得されたユーザ発話の指示を受信し、
ユーザ発話のトランスクリプションは、コンテキスト的ボイスアクション意向に関連付けられた1つまたは複数のトリガ用語に対応すると判定し、
この判定に応答して、コンテキスト的ボイスアクション意向をデバイスに提供し、それによりデバイス上にインストールされたソフトウェアアプリケーションが新しいボイスアクションの1つまたは複数の動作を実行することを要求する
ように構成される、コンピュータに実装される方法。
受信されたデータがコンテキストを指定し、このコンテキストは、新しいボイスアクションがイネーブルにされたとき、デバイスのステータスまたはソフトウェアアプリケーションのステータスを指定する、例1に記載のコンピュータに実装される方法。
コンテキストは、ソフトウェアアプリケーションが、ソフトウェアアプリケーションがインストールされたデバイスのフォアグラウンドで動作していることを指定する、例2に記載のコンピュータに実装される方法。
コンテキストは、ソフトウェアアプリケーションが、ソフトウェアアプリケーションがインストールされたデバイスのバックグラウンドで動作していることを指定する、例2に記載のコンピュータに実装される方法。
コンテキストは、ソフトウェアアプリケーションが特定のアクティビティを実行していることを指定する、例2に記載のコンピュータに実装される方法。
コンテキストは、ソフトウェアアプリケーションが実行している特定のアクティビティが特定のアクティビティ状態であることを指定する、例2に記載のコンピュータに実装される方法。
コンテキスト的ボイスアクション意向を新しいボイスアクションのためのコンテキストと関連付けることと、
ボイスアクションシステムによって、ソフトウェアアプリケーションをインストールされた特定のデバイスのステータスまたは特定のデバイス上にインストールされたソフトウェアアプリケーションのステータスを示すコンテキスト情報を受信することと、
コンテキスト情報が新しいボイスアクションのためのコンテキストを満たすと判定することと、
特定のデバイスによって取得されたユーザ発話のトランスクリプションが、コンテキスト的ボイスアクション意向に関連付けられた1つまたは複数のトリガ用語に対応すること、およびコンテキスト情報が、コンテキスト的ボイスアクション意向に関連付けられたコンテキストを満たすことを判定したことに応答して、ボイスアクションシステムによって特定のデバイスに、コンテキスト的ボイスアクション意向を提供し、それにより特定のデバイス上にインストールされたソフトウェアアプリケーションが新しいボイスアクションの1つまたは複数の動作を実行することを要求することと
を含む、例2から例6のうちの1つに記載のコンピュータに実装される方法。
特定のデバイスのステータスまたは特定のデバイス上にインストールされたソフトウェアアプリケーションのステータスを示すコンテキスト情報を受信することが、
ボイスアクションシステムによって特定のデバイスに、特定のコンテキスト情報の要求を提供することと、
この要求に応答して特定のコンテキスト情報を受信することと
を含む、例7に記載のコンピュータに実装される方法。
コンテキスト情報が第2のボイスアクションのためのコンテキストを満たすこと、およびユーザ発話のトランスクリプションが、第2のボイスアクションのための意向に関連付けられた1つまたは複数のトリガ用語に対応することを判定することであって、第2のボイスアクションに対する意向は、第2のボイスアクションを実行するための1つまたは複数の動作を指定する、判定することと、
この判定に応答して、新しいボイスアクションおよび第2のボイスアクションからボイスアクションを選択することと、
ボイスアクションシステムによって特定のデバイスに、選択されたボイスアクションに関連付けられた意向を提供し、それにより特定のデバイス上にインストールされたソフトウェアアプリケーションが、選択されたボイスアクションの1つまたは複数の動作を実行することを要求することと
を含む、例7または8のうちの1つに記載のコンピュータに実装される方法。
新しいボイスアクションおよび第2のボイスアクションから選択されたボイスアクションを選択することが、新しいボイスアクションまたは第2のボイスアクションのうちの1つのユーザ選択を示すデータを受信したことに応答して、選択されたボイスアクションを選択することを含む、例9に記載のコンピュータに実装される方法。
例11:
新しいボイスアクションおよび第2のボイスアクションの各々にスコアを割り当てることと、
少なくとも新しいボイスアクションおよび第2のボイスアクションの各々に割り当てられたスコアに基づいて、選択されたボイスアクションを選択することと
を含む、例9または10に記載のコンピュータに実装される方法。
新しいボイスアクションおよび第2のボイスアクションから選択されたボイスアクションを選択することが、選択されたボイスアクションに関連付けられたソフトウェアアプリケーションがフォアグラウンドで動作していると判定したことに応答して、選択されたボイスアクションを選択することを含む、例9から11のうちの1つに記載のコンピュータに実装される方法。
ソフトウェアアプリケーションのためのコンテキスト的ボイスアクション意向を生成することが、新しいボイスアクションの1つまたは複数の動作がソフトウェアアプリケーションによって実行可能であると判定することを含む、例1から12のうちの1つに記載のコンピュータに実装される方法。
ソフトウェアアプリケーションをインストールされた特定のデバイスによって取得されたユーザ発話のトランスクリプションが、コンテキスト的ボイスアクション意向に関連付けられた1つまたは複数のトリガ用語に類似していることを判定することと、
この判定に応答して、ボイスアクションシステムによって特定のデバイスに、ユーザ発話が1つまたは複数のトリガ用語を指定したかどうか、またはソフトウェアアプリケーションに新しいボイスアクションを実行させることが意図されたかどうかを確認するユーザ入力の要求を示すデータを提供することと、
この要求に応答して、ボイスアクションシステムによって特定のデバイスから、確認を示すデータを受信することと、
確認を示すデータを受信したことに応答して、ボイスアクションシステムによって特定のデバイスに、コンテキスト的ボイスアクション意向を提供し、それにより特定のデバイス上にインストールされたソフトウェアアプリケーションが新しいボイスアクションの1つまたは複数の動作を実行することを要求することと
を含む、例1から13のうちの1つに記載のコンピュータに実装される方法。
ボイスアクションシステムによって、ソフトウェアアプリケーションに関連付けられた開発者から、ソフトウェアアプリケーションのための新しいボイスアクションを配布する要求を受信することと、
この要求に応答して、この要求に応答したソフトウェアアプリケーションのための新しいボイスアクションを配布することであって、ソフトウェアアプリケーションのための新しいボイスアクションをイネーブルにする、配布することと
を含む、例1から14のうちの1つに記載のコンピュータに実装される方法。
ボイスアクションシステムによって、ソフトウェアアプリケーションに関連付けられた開発者からソフトウェアアプリケーションのための新しいボイスアクションの配布を無効にする要求を受信することと、
この要求に応答して、要求に応答したソフトウェアアプリケーションのための新しいボイスアクションの配布を無効にすることであって、ソフトウェアアプリケーションのための新しいボイスアクションをディスエーブルにする、無効にすることと
を含む、例1から15のうちの1つに記載のコンピュータに実装される方法。
ボイスアクションシステムによって、ソフトウェアアプリケーションに関連付けられた開発者から、新しいボイスアクションのテストをイネーブルにする要求を受信することであって、この要求は、新しいボイスアクションがイネーブルにされるべき1つまたは複数のデバイスを指定する、受信することと、
この要求に応答して、1つまたは複数の指定されたデバイスのための新しいボイスアクションをイネーブルにすることであって、新しいボイスアクションは、指定されたデバイス内に含まれないデバイスに対してディスエーブルにされる、イネーブルにすることと
を含む、例1から16のうちの1つに記載のコンピュータに実装される方法。
ボイスアクションシステムによって、ソフトウェアアプリケーションをインストールされた特定のデバイスによって取得されたユーザ発話の指示を受信することと、
ボイスアクションシステムによって、ユーザ発話のトランスクリプションが、コンテキスト的ボイスアクション意向に関連付けられた1つまたは複数のトリガ用語に対応することを判定することと、
この判定に応答して、ボイスアクションシステムによって特定のデバイスに、コンテキスト的ボイスアクション意向を提供し、それにより特定のデバイス上にインストールされたソフトウェアアプリケーションが新しいボイスアクションの1つまたは複数の動作を実行することを要求することと
を含む、例1から17のうちの1つに記載のコンピュータに実装される方法。
非一時的コンピュータ可読記憶デバイスであって、1つまたは複数のコンピュータによって実行可能な、そのような実行時に、例1から18のステップを含む動作を実行することを1つまたは複数のコンピュータに行わせる命令を含むソフトウェアを記憶する、非一時的コンピュータ可読記憶デバイス。
100 ボイスアクションシステム
101a アプリケーション開発者、サードパーティアプリケーション開発者
101b アプリケーション開発者、サードパーティアプリケーション開発者
101c アプリケーション開発者、サードパーティアプリケーション開発者
101d アプリケーション開発者、サードパーティアプリケーション開発者
101e アプリケーション開発者、サードパーティアプリケーション開発者
101f アプリケーション開発者、サードパーティアプリケーション開発者
101g アプリケーション開発者、サードパーティアプリケーション開発者
101h アプリケーション開発者、サードパーティアプリケーション開発者
101i アプリケーション開発者、サードパーティアプリケーション開発者
101j アプリケーション開発者、サードパーティアプリケーション開発者
101k アプリケーション開発者、サードパーティアプリケーション開発者
101l アプリケーション開発者、サードパーティアプリケーション開発者
101m アプリケーション開発者、サードパーティアプリケーション開発者
101n アプリケーション開発者、サードパーティアプリケーション開発者
102a 端末
102b 端末
102c 端末
102d 端末
102e 端末
102f 端末
102g 端末
102h 端末
102i 端末
102j 端末
102k 端末
102l 端末
102m 端末
102n 端末
104 ユーザデバイス
105 ユーザ
110 アプリケーションボイスアクションデータベース
120 オペレーティングシステムボイスアクションデータベース、OSボイスアクションデータベース
130 音声認識エンジン
140 コンテキスト解析エンジン
150 ボイスアクション選択器
200 開発者ボイスアクションシステム、ボイスアクション開発者システム
201 アプリケーション開発者
202 端末
204 ユーザデバイス
210 検証エンジン
215 検証基準データベース
220 文法帰納エンジン
225 アプリケーションメタデータバックエンド
230 アプリケーションボイスアクションデータベース
300 ボイスアクションシステム
304 ユーザデバイス
305 ユーザ
310 アプリケーションボイスアクションデータベース
320 OSボイスアクションデータベース
330 音声認識エンジン、音声認識システム
340 コンテキスト解析エンジン
350 マッチャ
360 アクショントリガビルダ
370 アプリケーションデータデータベース
380 曖昧性除去エンジン
390 ユーザアクティビティ履歴
400 プロセス
X 意向
Y 意向
Z 意向
Claims (19)
- 以前にユーザデバイス上にインストールされたソフトウェアアプリケーションのための新しいボイスアクションを確立するためのコンピュータに実装される方法であって、ボイスアクションが、前記ソフトウェアアプリケーション内で実行される1つまたは複数の動作を定義し、前記方法が、前記ユーザデバイスとは異なるボイスアクションシステム内で実行され、
前記ボイスアクションシステムによって、前記ボイスアクションシステムとは異なる前記ソフトウェアアプリケーションのための新しいボイスアクションを指定するデータを受信するステップであって、前記データが、(1)前記新しいボイスアクションを実行するための1つまたは複数の動作と、(2)前記新しいボイスアクションをトリガするための1つまたは複数のトリガ用語と、(3)前記新しいボイスアクションがイネーブルにされたときの前記ユーザデバイスのステータスまたは前記ソフトウェアアプリケーションのステータスを指定するコンテキストとを含む、ステップと、
前記ボイスアクションシステムによって、少なくとも前記受信されたデータに基づいて、前記ソフトウェアアプリケーションのためのボイスアクション受動的データ構造を生成するステップであって、前記ボイスアクション受動的データ構造が、前記ソフトウェアアプリケーションによって受信されたときに、前記ソフトウェアアプリケーションが前記新しいボイスアクションの前記1つまたは複数の動作を実行することを要求するデータを含む、ステップと、
前記ボイスアクションシステムによって、前記ボイスアクション受動的データ構造を前記コンテキストおよび前記新しいボイスアクションのための前記1つまたは複数のトリガ用語と関連付けるステップと
を含み、
前記ボイスアクションシステムが、
ユーザデバイスから、(1)前記ソフトウェアアプリケーションをインストールされた前記ユーザデバイスによって取得されたユーザ発話と、(2)前記ソフトウェアアプリケーションをインストールされた前記ユーザデバイスのステータスまたは前記ユーザデバイス上にインストールされた前記ソフトウェアアプリケーションのステータスを示すコンテキスト情報との指示を受信し、
(1)前記ユーザ発話のトランスクリプションが、前記ボイスアクション受動的データ構造に関連付けられた前記1つまたは複数のトリガ用語に対応すること、および(2)前記コンテキスト情報が前記新しいボイスアクションのための前記コンテキストを満たすことを判定し、
前記判定に応答して、前記ボイスアクション受動的データ構造を前記ユーザデバイスに提供し、それにより前記ユーザデバイス上にインストールされた前記ソフトウェアアプリケーションが前記新しいボイスアクションの前記1つまたは複数の動作を実行することを要求する
ように構成される、コンピュータに実装される方法。 - 前記コンテキストが、前記ソフトウェアアプリケーションが前記ソフトウェアアプリケーションがインストールされたデバイスのフォアグラウンドで動作していることを指定する、請求項1に記載のコンピュータに実装される方法。
- 前記コンテキストが、前記ソフトウェアアプリケーションが前記ソフトウェアアプリケーションがインストールされたデバイスのバックグラウンドで動作していることを指定する、請求項1に記載のコンピュータに実装される方法。
- 前記コンテキストが、前記ソフトウェアアプリケーションが特定のアクティビティを実行していることを指定する、請求項1に記載のコンピュータに実装される方法。
- 前記コンテキストが、前記ソフトウェアアプリケーションが実行している特定のアクティビティが特定のアクティビティ状態であることを指定する、請求項1に記載のコンピュータに実装される方法。
- 特定のデバイスによって取得されたユーザ発話のトランスクリプションが、前記ボイスアクション受動的データ構造に関連付けられた前記1つまたは複数のトリガ用語に対応すること、および前記コンテキスト情報が、前記ボイスアクション受動的データ構造に関連付けられた前記コンテキストを満たすことを判定したことに応答して、前記ボイスアクションシステムによって前記特定のデバイスに、前記ボイスアクション受動的データ構造を提供し、それにより前記特定のデバイス上にインストールされた前記ソフトウェアアプリケーションが前記新しいボイスアクションの前記1つまたは複数の動作を実行することを要求するステップ
を含む、請求項1に記載のコンピュータに実装される方法。 - 前記特定のデバイスの前記ステータスまたは前記特定のデバイス上にインストールされた前記ソフトウェアアプリケーションの前記ステータスを示す前記コンテキスト情報を受信するステップが、
前記ボイスアクションシステムによって前記特定のデバイスに、特定のコンテキスト情報の要求を提供するステップと、
前記要求に応答して前記特定のコンテキスト情報を受信するステップと
を含む、請求項6に記載のコンピュータに実装される方法。 - 前記コンテキスト情報が第2のボイスアクションのためのコンテキストを満たすこと、および前記ユーザ発話の前記トランスクリプションが、前記第2のボイスアクションのためのボイスアクション受動的データ構造に関連付けられた前記1つまたは複数のトリガ用語に対応することを判定するステップであって、前記第2のボイスアクションのための前記ボイスアクション受動的データ構造が、前記第2のボイスアクションを実行するための1つまたは複数の動作を指定する、ステップと、
前記判定に応答して、前記新しいボイスアクションおよび前記第2のボイスアクションの中からボイスアクションを選択するステップと、
前記ボイスアクションシステムによって前記特定のデバイスに、前記選択されたボイスアクションに関連付けられた前記ボイスアクション受動的データ構造を提供し、それにより前記特定のデバイス上にインストールされた前記ソフトウェアアプリケーションが、前記選択されたボイスアクションの前記1つまたは複数の動作を実行することを要求するステップと
を含む、請求項6に記載のコンピュータに実装される方法。 - 前記新しいボイスアクションおよび前記第2のボイスアクションの中から前記選択されたボイスアクションを選択するステップが、前記新しいボイスアクションまたは前記第2のボイスアクションのうちの1つのユーザ選択を示すデータを受信したことに応答して、前記選択されたボイスアクションを選択するステップを含む、請求項8に記載のコンピュータに実装される方法。
- 前記新しいボイスアクションおよび前記第2のボイスアクションの中から前記選択されたボイスアクションを選択するステップが、
前記新しいボイスアクションおよび前記第2のボイスアクションの各々にスコアを割り当てるステップと、
少なくとも前記新しいボイスアクションおよび前記第2のボイスアクションの各々に割り当てられた前記スコアに基づいて、前記選択されたボイスアクションを選択するステップと
を含む、請求項8に記載のコンピュータに実装される方法。 - 前記新しいボイスアクションおよび前記第2のボイスアクションの中から前記選択されたボイスアクションを選択するステップが、前記選択されたボイスアクションに関連付けられた前記ソフトウェアアプリケーションがフォアグラウンドで動作していることを判定したことに応答して、前記選択されたボイスアクションを選択するステップを含む、請求項8に記載のコンピュータに実装される方法。
- 前記ソフトウェアアプリケーションのための前記ボイスアクション受動的データ構造を生成するステップが、前記新しいボイスアクションの前記1つまたは複数の動作が前記ソフトウェアアプリケーションによって実行可能であることを判定するステップを含む、請求項1に記載のコンピュータに実装される方法。
- 前記ソフトウェアアプリケーションをインストールされた特定のデバイスによって取得されたユーザ発話のトランスクリプションが、前記ボイスアクション受動的データ構造に関連付けられた前記1つまたは複数のトリガ用語に類似していることを判定するステップと、
前記判定に応答して、前記ボイスアクションシステムによって前記特定のデバイスに、前記ユーザ発話が前記1つまたは複数のトリガ用語を指定したかどうか、または前記ソフトウェアアプリケーションに前記新しいボイスアクションを実行させることが意図されたかどうかを確認するユーザ入力の要求を示すデータを提供するステップと、
前記要求に応答して、前記ボイスアクションシステムによって前記特定のデバイスから、確認を示すデータを受信するステップと、
前記確認を示す前記データを受信したことに応答して、前記ボイスアクションシステムによって前記特定のデバイスに、ボイスアクション受動的データ構造を提供し、それにより前記特定のデバイス上にインストールされた前記ソフトウェアアプリケーションが前記新しいボイスアクションの前記1つまたは複数の動作を実行することを要求するステップと
を含む、請求項1に記載のコンピュータに実装される方法。 - 前記ボイスアクションシステムによって前記ソフトウェアアプリケーションに関連付けられた開発者から、前記ソフトウェアアプリケーションのための前記新しいボイスアクションを配布する要求を受信するステップと、
前記要求に応答して、前記要求に応答した前記ソフトウェアアプリケーションのための前記新しいボイスアクションを配布するステップであって、前記ソフトウェアアプリケーションのための前記新しいボイスアクションをイネーブルにする、ステップと
を含む、請求項1に記載のコンピュータに実装される方法。 - 前記ボイスアクションシステムによって前記ソフトウェアアプリケーションに関連付けられた開発者から、前記ソフトウェアアプリケーションのための前記新しいボイスアクションの配布を取り消す要求を受信するステップと、
前記要求に応答して、前記要求に応答した前記ソフトウェアアプリケーションのための前記新しいボイスアクションの配布を無効にするステップであって、前記ソフトウェアアプリケーションのための前記新しいボイスアクションをディスエーブルにする、ステップと
を含む、請求項1に記載のコンピュータに実装される方法。 - 前記ボイスアクションシステムによって前記ソフトウェアアプリケーションに関連付けられた開発者から、前記新しいボイスアクションのテストをイネーブルにする要求を受信するステップであって、前記要求が、前記新しいボイスアクションがイネーブルにされるべき1つまたは複数のデバイスを指定する、受信するステップと、
前記要求に応答して、前記1つまたは複数の指定されたデバイスのための前記新しいボイスアクションをイネーブルにするステップであって、前記新しいボイスアクションが、前記指定されたデバイス内に含まれないデバイスに対してディスエーブルにされる、イネーブルにするステップと
を含む、請求項1に記載のコンピュータに実装される方法。 - 前記ボイスアクションシステムによって、前記ソフトウェアアプリケーションをインストールされた特定のデバイスによって取得されたユーザ発話の指示を受信するステップと、
前記ボイスアクションシステムによって、前記ユーザ発話のトランスクリプションが、前記ボイスアクション受動的データ構造に関連付けられた前記1つまたは複数のトリガ用語に対応することを判定するステップと、
前記判定に応答して、前記ボイスアクションシステムによって前記特定のデバイスに、前記ボイスアクション受動的データ構造を提供し、それにより前記特定のデバイス上にインストールされた前記ソフトウェアアプリケーションが前記新しいボイスアクションの前記1つまたは複数の動作を実行することを要求するステップと
を含む、請求項1に記載のコンピュータに実装される方法。 - 1つまたは複数のコンピュータと、前記1つまたは複数のコンピュータによって実行されたとき、
ボイスアクションシステムによって、前記ボイスアクションシステムとは異なるソフトウェアアプリケーションのための新しいボイスアクションを指定するデータを受信することであって、前記データが、(1)前記新しいボイスアクションを実行するための1つまたは複数の動作と、(2)前記新しいボイスアクションをトリガするための1つまたは複数のトリガ用語と、(3)前記新しいボイスアクションがイネーブルにされたときのユーザデバイスのステータスまたは前記ソフトウェアアプリケーションのステータスを指定するコンテキストとを含む、受信することと、
前記ボイスアクションシステムによって、少なくとも前記受信されたデータに基づいて、前記ソフトウェアアプリケーションのためのボイスアクション受動的データ構造を生成することであって、前記ボイスアクション受動的データ構造が、前記ソフトウェアアプリケーションによって受信されたときに、前記ソフトウェアアプリケーションが前記新しいボイスアクションの前記1つまたは複数の動作を実行することを要求するデータを含む、生成することと、
前記ボイスアクションシステムによって、前記ボイスアクション受動的データ構造を前記コンテキストおよび前記新しいボイスアクションのための前記1つまたは複数のトリガ用語と関連付けることと
を含む動作を実行することを前記1つまたは複数のコンピュータに行わせるように動作可能な命令を記憶する1つまたは複数の記憶デバイスと
を備え、
前記ボイスアクションシステムが、
ユーザデバイスから、(1)前記ソフトウェアアプリケーションをインストールされたデバイスによって取得されたユーザ発話と、(2)前記ソフトウェアアプリケーションをインストールされた前記ユーザデバイスのステータスまたは前記ユーザデバイス上にインストールされた前記ソフトウェアアプリケーションのステータスを示すコンテキスト情報との指示を受信し、
(1)前記ユーザ発話のトランスクリプションが、前記ボイスアクション受動的データ構造に関連付けられた前記1つまたは複数のトリガ用語に対応すること、および(2)前記コンテキスト情報が前記新しいボイスアクションのための前記コンテキストを満たすことを判定し、
前記判定に応答して、前記ボイスアクション受動的データ構造を前記ユーザデバイスに提供し、それにより前記デバイス上にインストールされた前記ソフトウェアアプリケーションが前記新しいボイスアクションの前記1つまたは複数の動作を実行することを要求する
ように構成される、システム。 - 非一時的コンピュータ可読記憶デバイスであって、1つまたは複数のコンピュータによって実行可能であり、実行時に、
ボイスアクションシステムによって、前記ボイスアクションシステムとは異なるソフトウェアアプリケーションのための新しいボイスアクションを指定するデータを受信することであって、前記データが、(1)前記新しいボイスアクションを実行するための1つまたは複数の動作と、(2)前記新しいボイスアクションをトリガするための1つまたは複数のトリガ用語と、(3)前記新しいボイスアクションがイネーブルにされたときのユーザデバイスのステータスまたは前記ソフトウェアアプリケーションのステータスを指定するコンテキストとを含む、受信することと、
前記ボイスアクションシステムによって、少なくとも前記受信されたデータに基づいて、前記ソフトウェアアプリケーションのためのボイスアクション受動的データ構造を生成することであって、前記ボイスアクション受動的データ構造が、前記ソフトウェアアプリケーションによって受信されたときに、前記ソフトウェアアプリケーションが前記新しいボイスアクションの前記1つまたは複数の動作を実行することを要求するデータを含む、生成することと、
前記ボイスアクションシステムによって、前記ボイスアクション受動的データ構造を前記コンテキストおよび前記新しいボイスアクションのための前記1つまたは複数のトリガ用語と関連付けることと
を含む動作を実行することを前記1つまたは複数のコンピュータに行わせる命令を含むソフトウェアを記憶し、
前記ボイスアクションシステムが、
前記ユーザデバイスから、(1)前記ソフトウェアアプリケーションをインストールされたデバイスによって取得されたユーザ発話、および(2)前記ソフトウェアアプリケーションをインストールされた前記ユーザデバイスのステータスまたは前記ユーザデバイス上にインストールされた前記ソフトウェアアプリケーションのステータスを示すコンテキスト情報の指示を受信し、
(1)前記ユーザ発話のトランスクリプションが、前記ボイスアクション受動的データ構造に関連付けられた前記1つまたは複数のトリガ用語に対応すること、および(2)前記コンテキスト情報が前記新しいボイスアクションのための前記コンテキストを満たすことを判定し、
前記判定に応答して、前記ボイスアクション受動的データ構造を前記ユーザデバイスに提供し、それにより前記デバイス上にインストールされた前記ソフトウェアアプリケーションが前記新しいボイスアクションの前記1つまたは複数の動作を実行することを要求する
ように構成される、非一時的コンピュータ可読記憶デバイス。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/057,453 US9922648B2 (en) | 2016-03-01 | 2016-03-01 | Developer voice actions system |
US15/057,453 | 2016-03-01 | ||
PCT/US2016/068507 WO2017151215A1 (en) | 2016-03-01 | 2016-12-23 | Developer voice actions system |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019512102A JP2019512102A (ja) | 2019-05-09 |
JP2019512102A5 JP2019512102A5 (ja) | 2019-06-13 |
JP6704450B2 true JP6704450B2 (ja) | 2020-06-03 |
Family
ID=57799868
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018522970A Active JP6704450B2 (ja) | 2016-03-01 | 2016-12-23 | 開発者ボイスアクションシステム |
Country Status (8)
Country | Link |
---|---|
US (1) | US9922648B2 (ja) |
EP (1) | EP3424045B1 (ja) |
JP (1) | JP6704450B2 (ja) |
CN (2) | CN107146606B (ja) |
DE (2) | DE102016226302B4 (ja) |
GB (1) | GB2547968A (ja) |
RU (1) | RU2704876C1 (ja) |
WO (1) | WO2017151215A1 (ja) |
Families Citing this family (143)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8677377B2 (en) | 2005-09-08 | 2014-03-18 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US10002189B2 (en) | 2007-12-20 | 2018-06-19 | Apple Inc. | Method and apparatus for searching using an active ontology |
US9330720B2 (en) | 2008-01-03 | 2016-05-03 | Apple Inc. | Methods and apparatus for altering audio output signals |
US20100030549A1 (en) | 2008-07-31 | 2010-02-04 | Lee Michael M | Mobile device having human language translation capability with positional feedback |
US8676904B2 (en) | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
US20120309363A1 (en) | 2011-06-03 | 2012-12-06 | Apple Inc. | Triggering notifications associated with tasks items that represent tasks to perform |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
US8682667B2 (en) | 2010-02-25 | 2014-03-25 | Apple Inc. | User profiling for selecting user specific voice input processing information |
US9262612B2 (en) | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
US10057736B2 (en) | 2011-06-03 | 2018-08-21 | Apple Inc. | Active transport based notifications |
US10134385B2 (en) | 2012-03-02 | 2018-11-20 | Apple Inc. | Systems and methods for name pronunciation |
US10417037B2 (en) | 2012-05-15 | 2019-09-17 | Apple Inc. | Systems and methods for integrating third party services with a digital assistant |
CN113470640B (zh) | 2013-02-07 | 2022-04-26 | 苹果公司 | 数字助理的语音触发器 |
US10652394B2 (en) | 2013-03-14 | 2020-05-12 | Apple Inc. | System and method for processing voicemail |
US10748529B1 (en) | 2013-03-15 | 2020-08-18 | Apple Inc. | Voice activated device for use with a voice-based digital assistant |
WO2014197335A1 (en) | 2013-06-08 | 2014-12-11 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
WO2014200728A1 (en) | 2013-06-09 | 2014-12-18 | Apple Inc. | Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
WO2015020942A1 (en) | 2013-08-06 | 2015-02-12 | Apple Inc. | Auto-activating smart responses based on activities from remote devices |
US10296160B2 (en) | 2013-12-06 | 2019-05-21 | Apple Inc. | Method for extracting salient dialog usage from live data |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US9633004B2 (en) | 2014-05-30 | 2017-04-25 | Apple Inc. | Better resolution when referencing to concepts |
EP3480811A1 (en) | 2014-05-30 | 2019-05-08 | Apple Inc. | Multi-command single utterance input method |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US9430463B2 (en) | 2014-05-30 | 2016-08-30 | Apple Inc. | Exemplar-based natural language processing |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
US10152299B2 (en) | 2015-03-06 | 2018-12-11 | Apple Inc. | Reducing response latency of intelligent automated assistants |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US10460227B2 (en) | 2015-05-15 | 2019-10-29 | Apple Inc. | Virtual assistant in a communication session |
US10200824B2 (en) | 2015-05-27 | 2019-02-05 | Apple Inc. | Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
US9578173B2 (en) | 2015-06-05 | 2017-02-21 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
US20160378747A1 (en) | 2015-06-29 | 2016-12-29 | Apple Inc. | Virtual assistant for media playback |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10331312B2 (en) | 2015-09-08 | 2019-06-25 | Apple Inc. | Intelligent automated assistant in a media environment |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10740384B2 (en) | 2015-09-08 | 2020-08-11 | Apple Inc. | Intelligent automated assistant for media search and playback |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10956666B2 (en) | 2015-11-09 | 2021-03-23 | Apple Inc. | Unconventional virtual assistant interactions |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US9922648B2 (en) | 2016-03-01 | 2018-03-20 | Google Llc | Developer voice actions system |
US11227589B2 (en) | 2016-06-06 | 2022-01-18 | Apple Inc. | Intelligent list reading |
US10049670B2 (en) * | 2016-06-06 | 2018-08-14 | Google Llc | Providing voice action discoverability example for trigger term |
US10462619B2 (en) * | 2016-06-08 | 2019-10-29 | Google Llc | Providing a personal assistant module with a selectively-traversable state machine |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
US10127926B2 (en) | 2016-06-10 | 2018-11-13 | Google Llc | Securely executing voice actions with speaker identification and authentication input types |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
US10474753B2 (en) | 2016-09-07 | 2019-11-12 | Apple Inc. | Language identification using recurrent neural networks |
US10043516B2 (en) * | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
US11281993B2 (en) | 2016-12-05 | 2022-03-22 | Apple Inc. | Model and ensemble compression for metric learning |
US11204787B2 (en) | 2017-01-09 | 2021-12-21 | Apple Inc. | Application integration with a digital assistant |
KR102348758B1 (ko) * | 2017-04-27 | 2022-01-07 | 삼성전자주식회사 | 음성 인식 서비스 운용 방법 및 이를 지원하는 전자 장치 |
DK201770383A1 (en) | 2017-05-09 | 2018-12-14 | Apple Inc. | USER INTERFACE FOR CORRECTING RECOGNITION ERRORS |
US10417266B2 (en) | 2017-05-09 | 2019-09-17 | Apple Inc. | Context-aware ranking of intelligent response suggestions |
US10726832B2 (en) | 2017-05-11 | 2020-07-28 | Apple Inc. | Maintaining privacy of personal information |
US10395654B2 (en) | 2017-05-11 | 2019-08-27 | Apple Inc. | Text normalization based on a data-driven learning network |
DK180048B1 (en) | 2017-05-11 | 2020-02-04 | Apple Inc. | MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION |
US11301477B2 (en) | 2017-05-12 | 2022-04-12 | Apple Inc. | Feedback analysis of a digital assistant |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
DK201770428A1 (en) | 2017-05-12 | 2019-02-18 | Apple Inc. | LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
DK201770411A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | MULTI-MODAL INTERFACES |
DK179560B1 (en) | 2017-05-16 | 2019-02-18 | Apple Inc. | FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES |
US20180336275A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Intelligent automated assistant for media exploration |
US20180336892A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Detecting a trigger of a digital assistant |
US10311144B2 (en) | 2017-05-16 | 2019-06-04 | Apple Inc. | Emoji word sense disambiguation |
US10403278B2 (en) | 2017-05-16 | 2019-09-03 | Apple Inc. | Methods and systems for phonetic matching in digital assistant services |
US10657328B2 (en) | 2017-06-02 | 2020-05-19 | Apple Inc. | Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling |
US10445429B2 (en) | 2017-09-21 | 2019-10-15 | Apple Inc. | Natural language understanding using vocabularies with compressed serialized tries |
US10755051B2 (en) | 2017-09-29 | 2020-08-25 | Apple Inc. | Rule-based natural language processing |
US10636424B2 (en) | 2017-11-30 | 2020-04-28 | Apple Inc. | Multi-turn canned dialog |
US11295735B1 (en) * | 2017-12-13 | 2022-04-05 | Amazon Technologies, Inc. | Customizing voice-control for developer devices |
US10733982B2 (en) | 2018-01-08 | 2020-08-04 | Apple Inc. | Multi-directional dialog |
US11145291B2 (en) * | 2018-01-31 | 2021-10-12 | Microsoft Technology Licensing, Llc | Training natural language system with generated dialogues |
US10733375B2 (en) | 2018-01-31 | 2020-08-04 | Apple Inc. | Knowledge-based framework for improving natural language understanding |
US10861440B2 (en) * | 2018-02-05 | 2020-12-08 | Microsoft Technology Licensing, Llc | Utterance annotation user interface |
US10789959B2 (en) | 2018-03-02 | 2020-09-29 | Apple Inc. | Training speaker recognition models for digital assistants |
US10592604B2 (en) | 2018-03-12 | 2020-03-17 | Apple Inc. | Inverse text normalization for automatic speech recognition |
US11133001B2 (en) * | 2018-03-20 | 2021-09-28 | Microsoft Technology Licensing, Llc | Generating dialogue events for natural language system |
US20190295540A1 (en) * | 2018-03-23 | 2019-09-26 | Cirrus Logic International Semiconductor Ltd. | Voice trigger validator |
US10818288B2 (en) | 2018-03-26 | 2020-10-27 | Apple Inc. | Natural assistant interaction |
CN108376544B (zh) * | 2018-03-27 | 2021-10-15 | 京东方科技集团股份有限公司 | 一种信息处理方法、装置、设备及计算机可读存储介质 |
US10909331B2 (en) | 2018-03-30 | 2021-02-02 | Apple Inc. | Implicit identification of translation payload with neural machine translation |
US11145294B2 (en) | 2018-05-07 | 2021-10-12 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
US10984780B2 (en) | 2018-05-21 | 2021-04-20 | Apple Inc. | Global semantic word embeddings using bi-directional recurrent neural networks |
US10892996B2 (en) | 2018-06-01 | 2021-01-12 | Apple Inc. | Variable latency device coordination |
DK179822B1 (da) | 2018-06-01 | 2019-07-12 | Apple Inc. | Voice interaction at a primary device to access call functionality of a companion device |
DK180639B1 (en) | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
DK201870355A1 (en) | 2018-06-01 | 2019-12-16 | Apple Inc. | VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS |
US11386266B2 (en) | 2018-06-01 | 2022-07-12 | Apple Inc. | Text correction |
US10944859B2 (en) * | 2018-06-03 | 2021-03-09 | Apple Inc. | Accelerated task performance |
CN108881466B (zh) * | 2018-07-04 | 2020-06-26 | 百度在线网络技术(北京)有限公司 | 交互方法和装置 |
JP7159355B2 (ja) * | 2018-08-23 | 2022-10-24 | グーグル エルエルシー | マルチアシスタント環境の特性によるアシスタント応答性の規制 |
US10410639B1 (en) * | 2018-09-06 | 2019-09-10 | International Business Machines Corporation | Determining contextual relevance in multi-auditory scenarios |
US11010561B2 (en) | 2018-09-27 | 2021-05-18 | Apple Inc. | Sentiment prediction from textual data |
US10839159B2 (en) | 2018-09-28 | 2020-11-17 | Apple Inc. | Named entity normalization in a spoken dialog system |
US11170166B2 (en) | 2018-09-28 | 2021-11-09 | Apple Inc. | Neural typographical error modeling via generative adversarial networks |
US11462215B2 (en) | 2018-09-28 | 2022-10-04 | Apple Inc. | Multi-modal inputs for voice commands |
US10943185B1 (en) * | 2018-10-23 | 2021-03-09 | Bank Of America Corporation | Supervised machine-learning training platform with isolated update testing and bi-directional update propogation |
US11475898B2 (en) | 2018-10-26 | 2022-10-18 | Apple Inc. | Low-latency multi-speaker speech recognition |
US11062697B2 (en) * | 2018-10-29 | 2021-07-13 | International Business Machines Corporation | Speech-to-text training data based on interactive response data |
US11087749B2 (en) * | 2018-12-20 | 2021-08-10 | Spotify Ab | Systems and methods for improving fulfillment of media content related requests via utterance-based human-machine interfaces |
US11638059B2 (en) | 2019-01-04 | 2023-04-25 | Apple Inc. | Content playback on multiple devices |
CN109817210B (zh) * | 2019-02-12 | 2021-08-17 | 百度在线网络技术(北京)有限公司 | 语音写作方法、装置、终端和存储介质 |
US11741951B2 (en) * | 2019-02-22 | 2023-08-29 | Lenovo (Singapore) Pte. Ltd. | Context enabled voice commands |
US11348573B2 (en) | 2019-03-18 | 2022-05-31 | Apple Inc. | Multimodality in digital assistant systems |
DK201970509A1 (en) | 2019-05-06 | 2021-01-15 | Apple Inc | Spoken notifications |
US11423908B2 (en) | 2019-05-06 | 2022-08-23 | Apple Inc. | Interpreting spoken requests |
US11238868B2 (en) * | 2019-05-06 | 2022-02-01 | Google Llc | Initializing non-assistant background actions, via an automated assistant, while accessing a non-assistant application |
US11307752B2 (en) | 2019-05-06 | 2022-04-19 | Apple Inc. | User configurable task triggers |
US11475884B2 (en) | 2019-05-06 | 2022-10-18 | Apple Inc. | Reducing digital assistant latency when a language is incorrectly determined |
US11140099B2 (en) | 2019-05-21 | 2021-10-05 | Apple Inc. | Providing message response suggestions |
US11496600B2 (en) | 2019-05-31 | 2022-11-08 | Apple Inc. | Remote execution of machine-learned models |
DK180129B1 (en) | 2019-05-31 | 2020-06-02 | Apple Inc. | USER ACTIVITY SHORTCUT SUGGESTIONS |
US11289073B2 (en) | 2019-05-31 | 2022-03-29 | Apple Inc. | Device text to speech |
DK201970511A1 (en) | 2019-05-31 | 2021-02-15 | Apple Inc | Voice identification in digital assistant systems |
US11468890B2 (en) | 2019-06-01 | 2022-10-11 | Apple Inc. | Methods and user interfaces for voice-based control of electronic devices |
US11360641B2 (en) | 2019-06-01 | 2022-06-14 | Apple Inc. | Increasing the relevance of new available information |
US11461221B2 (en) * | 2019-06-05 | 2022-10-04 | Google Llc | Action validation for digital assistant-based applications |
WO2021056255A1 (en) | 2019-09-25 | 2021-04-01 | Apple Inc. | Text detection using global geometry estimators |
CN111354360A (zh) * | 2020-03-17 | 2020-06-30 | 北京百度网讯科技有限公司 | 语音交互处理方法、装置和电子设备 |
US11810578B2 (en) | 2020-05-11 | 2023-11-07 | Apple Inc. | Device arbitration for digital assistant-based intercom systems |
US11061543B1 (en) | 2020-05-11 | 2021-07-13 | Apple Inc. | Providing relevant data items based on context |
US11183193B1 (en) | 2020-05-11 | 2021-11-23 | Apple Inc. | Digital assistant hardware abstraction |
US11490204B2 (en) | 2020-07-20 | 2022-11-01 | Apple Inc. | Multi-device audio adjustment coordination |
US11438683B2 (en) | 2020-07-21 | 2022-09-06 | Apple Inc. | User identification using headphones |
US11558546B2 (en) | 2020-11-24 | 2023-01-17 | Google Llc | Conditional camera control via automated assistant commands |
CN113593544A (zh) * | 2021-06-11 | 2021-11-02 | 青岛海尔科技有限公司 | 设备的控制方法和装置、存储介质及电子装置 |
US11727068B2 (en) * | 2021-11-29 | 2023-08-15 | Salesforce, Inc. | Customizable intent driven application triggering system |
US20230274734A1 (en) * | 2022-01-04 | 2023-08-31 | Sap Se | Support for syntax analysis during processing instructions for execution |
US20230273943A1 (en) * | 2022-02-28 | 2023-08-31 | International Business Machines Corporation | Synchronizing a sensor network and an ontology |
Family Cites Families (84)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE69326431T2 (de) * | 1992-12-28 | 2000-02-03 | Toshiba Kawasaki Kk | Spracherkennungs-Schnittstellensystem, das als Fenstersystem und Sprach-Postsystem verwendbar ist |
CA2119397C (en) | 1993-03-19 | 2007-10-02 | Kim E.A. Silverman | Improved automated voice synthesis employing enhanced prosodic treatment of text, spelling of text and rate of annunciation |
US6125347A (en) * | 1993-09-29 | 2000-09-26 | L&H Applications Usa, Inc. | System for controlling multiple user application programs by spoken input |
US5748191A (en) | 1995-07-31 | 1998-05-05 | Microsoft Corporation | Method and system for creating voice commands using an automatically maintained log interactions performed by a user |
EP0980574B1 (en) | 1997-10-20 | 2004-03-10 | Koninklijke Philips Electronics N.V. | Pattern recognition enrolment in a distributed system |
US6263375B1 (en) | 1998-08-31 | 2001-07-17 | International Business Machines Corp. | Method for creating dictation macros |
US6192343B1 (en) * | 1998-12-17 | 2001-02-20 | International Business Machines Corporation | Speech command input recognition system for interactive computer display with term weighting means used in interpreting potential commands from relevant speech terms |
US6424357B1 (en) | 1999-03-05 | 2002-07-23 | Touch Controls, Inc. | Voice input system and method of using same |
DE69942663D1 (de) * | 1999-04-13 | 2010-09-23 | Sony Deutschland Gmbh | Zusammenfügen von Sprachschnittstellen zur gleichzeitigen Benützung von Vorrichtungen und Anwendungen |
US6374226B1 (en) * | 1999-08-06 | 2002-04-16 | Sun Microsystems, Inc. | System and method for interfacing speech recognition grammars to individual components of a computer program |
US6442522B1 (en) * | 1999-10-12 | 2002-08-27 | International Business Machines Corporation | Bi-directional natural language system for interfacing with multiple back-end applications |
US6748361B1 (en) | 1999-12-14 | 2004-06-08 | International Business Machines Corporation | Personal speech assistant supporting a dialog manager |
US7085723B2 (en) * | 2001-01-12 | 2006-08-01 | International Business Machines Corporation | System and method for determining utterance context in a multi-context speech application |
US20050234727A1 (en) * | 2001-07-03 | 2005-10-20 | Leo Chiu | Method and apparatus for adapting a voice extensible markup language-enabled voice system for natural speech recognition and system response |
US7167831B2 (en) * | 2002-02-04 | 2007-01-23 | Microsoft Corporation | Systems and methods for managing multiple grammars in a speech recognition system |
US7398209B2 (en) | 2002-06-03 | 2008-07-08 | Voicebox Technologies, Inc. | Systems and methods for responding to natural language speech utterance |
US7502737B2 (en) | 2002-06-24 | 2009-03-10 | Intel Corporation | Multi-pass recognition of spoken dialogue |
JP4107093B2 (ja) * | 2003-01-30 | 2008-06-25 | 株式会社日立製作所 | 対話型端末装置及び対話アプリケーション提供方法 |
US7013282B2 (en) | 2003-04-18 | 2006-03-14 | At&T Corp. | System and method for text-to-speech processing in a portable device |
US20080249779A1 (en) * | 2003-06-30 | 2008-10-09 | Marcus Hennecke | Speech dialog system |
US7363228B2 (en) | 2003-09-18 | 2008-04-22 | Interactive Intelligence, Inc. | Speech recognition system and method |
US7158779B2 (en) * | 2003-11-11 | 2007-01-02 | Microsoft Corporation | Sequential multimodal input |
US8942985B2 (en) * | 2004-11-16 | 2015-01-27 | Microsoft Corporation | Centralized method and system for clarifying voice commands |
JP3984988B2 (ja) | 2004-11-26 | 2007-10-03 | キヤノン株式会社 | ユーザインタフェース設計装置およびその制御方法 |
US8788271B2 (en) | 2004-12-22 | 2014-07-22 | Sap Aktiengesellschaft | Controlling user interfaces with contextual voice commands |
US7640160B2 (en) * | 2005-08-05 | 2009-12-29 | Voicebox Technologies, Inc. | Systems and methods for responding to natural language speech utterance |
US7949529B2 (en) | 2005-08-29 | 2011-05-24 | Voicebox Technologies, Inc. | Mobile systems and methods of supporting natural language human-machine interactions |
JP4260788B2 (ja) | 2005-10-20 | 2009-04-30 | 本田技研工業株式会社 | 音声認識機器制御装置 |
JP4878471B2 (ja) | 2005-11-02 | 2012-02-15 | キヤノン株式会社 | 情報処理装置およびその制御方法 |
US8301448B2 (en) * | 2006-03-29 | 2012-10-30 | Nuance Communications, Inc. | System and method for applying dynamic contextual grammars and language models to improve automatic speech recognition accuracy |
US7899673B2 (en) * | 2006-08-09 | 2011-03-01 | Microsoft Corporation | Automatic pruning of grammars in a multi-application speech recognition interface |
KR100873956B1 (ko) * | 2006-08-17 | 2008-12-15 | 삼성전자주식회사 | 에뮬레이션 시스템 |
US7881932B2 (en) * | 2006-10-02 | 2011-02-01 | Nuance Communications, Inc. | VoiceXML language extension for natively supporting voice enrolled grammars |
US20080114604A1 (en) | 2006-11-15 | 2008-05-15 | Motorola, Inc. | Method and system for a user interface using higher order commands |
US8099287B2 (en) * | 2006-12-05 | 2012-01-17 | Nuance Communications, Inc. | Automatically providing a user with substitutes for potentially ambiguous user-defined speech commands |
US7840409B2 (en) | 2007-02-27 | 2010-11-23 | Nuance Communications, Inc. | Ordering recognition results produced by an automatic speech recognition engine for a multimodal application |
US20090030691A1 (en) * | 2007-03-07 | 2009-01-29 | Cerra Joseph P | Using an unstructured language model associated with an application of a mobile communication facility |
US7877258B1 (en) | 2007-03-29 | 2011-01-25 | Google Inc. | Representing n-gram language models for compact storage and fast retrieval |
US8396713B2 (en) | 2007-04-30 | 2013-03-12 | Nuance Communications, Inc. | Method and system for using a statistical language model and an action classifier in parallel with grammar for better handling of out-of-grammar utterances |
US8165886B1 (en) | 2007-10-04 | 2012-04-24 | Great Northern Research LLC | Speech interface system and method for control and interaction with applications on a computing system |
US8219407B1 (en) * | 2007-12-27 | 2012-07-10 | Great Northern Research, LLC | Method for processing the output of a speech recognizer |
US8370160B2 (en) | 2007-12-31 | 2013-02-05 | Motorola Mobility Llc | Methods and apparatus for implementing distributed multi-modal applications |
US20090171663A1 (en) | 2008-01-02 | 2009-07-02 | International Business Machines Corporation | Reducing a size of a compiled speech recognition grammar |
US7917368B2 (en) | 2008-02-25 | 2011-03-29 | Mitsubishi Electric Research Laboratories, Inc. | Method for interacting with users of speech recognition systems |
US8676904B2 (en) | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
TWI420433B (zh) | 2009-02-27 | 2013-12-21 | Ind Tech Res Inst | 語音互動系統與方法 |
US10540976B2 (en) | 2009-06-05 | 2020-01-21 | Apple Inc. | Contextual voice commands |
US9684741B2 (en) | 2009-06-05 | 2017-06-20 | Microsoft Technology Licensing, Llc | Presenting search results according to query domains |
US20110099507A1 (en) | 2009-10-28 | 2011-04-28 | Google Inc. | Displaying a collection of interactive elements that trigger actions directed to an item |
US8868427B2 (en) | 2009-12-11 | 2014-10-21 | General Motors Llc | System and method for updating information in electronic calendars |
US8626511B2 (en) * | 2010-01-22 | 2014-01-07 | Google Inc. | Multi-dimensional disambiguation of voice commands |
US8515734B2 (en) | 2010-02-08 | 2013-08-20 | Adacel Systems, Inc. | Integrated language model, related systems and methods |
US8731939B1 (en) | 2010-08-06 | 2014-05-20 | Google Inc. | Routing queries based on carrier phrase registration |
US8682661B1 (en) | 2010-08-31 | 2014-03-25 | Google Inc. | Robust speech recognition |
DE102010040553A1 (de) * | 2010-09-10 | 2012-03-15 | Siemens Aktiengesellschaft | Spracherkennungsverfahren |
US20120078635A1 (en) | 2010-09-24 | 2012-03-29 | Apple Inc. | Voice control system |
KR101828273B1 (ko) | 2011-01-04 | 2018-02-14 | 삼성전자주식회사 | 결합기반의 음성명령 인식 장치 및 그 방법 |
US9082408B2 (en) | 2011-06-13 | 2015-07-14 | Mmodal Ip Llc | Speech recognition using loosely coupled components |
US9489375B2 (en) | 2011-06-19 | 2016-11-08 | Mmodal Ip Llc | Speech recognition using an operating system hooking component for context-aware recognition models |
US8762156B2 (en) * | 2011-09-28 | 2014-06-24 | Apple Inc. | Speech recognition repair using contextual information |
JP2012128440A (ja) * | 2012-02-06 | 2012-07-05 | Denso Corp | 音声対話装置 |
US20130219277A1 (en) * | 2012-02-21 | 2013-08-22 | Mobotap Inc. | Gesture and Voice Controlled Browser |
US20130238326A1 (en) | 2012-03-08 | 2013-09-12 | Lg Electronics Inc. | Apparatus and method for multiple device voice control |
EP2639792A1 (en) | 2012-03-16 | 2013-09-18 | France Télécom | Voice control of applications by associating user input with action-context idendifier pairs |
US9275411B2 (en) | 2012-05-23 | 2016-03-01 | Google Inc. | Customized voice action system |
US9489940B2 (en) | 2012-06-11 | 2016-11-08 | Nvoq Incorporated | Apparatus and methods to update a language model in a speech recognition system |
US8532675B1 (en) | 2012-06-27 | 2013-09-10 | Blackberry Limited | Mobile communication device user interface for manipulation of data items in a physical space |
US8965759B2 (en) | 2012-09-01 | 2015-02-24 | Sarah Hershenhorn | Digital voice memo transfer and processing |
US10042603B2 (en) | 2012-09-20 | 2018-08-07 | Samsung Electronics Co., Ltd. | Context aware service provision method and apparatus of user device |
KR20140039946A (ko) * | 2012-09-28 | 2014-04-02 | 삼성전자주식회사 | 영상처리장치 및 그 제어방법, 영상처리 시스템 |
KR20140089861A (ko) | 2013-01-07 | 2014-07-16 | 삼성전자주식회사 | 디스플레이 장치 및 그의 제어 방법 |
US9112984B2 (en) * | 2013-03-12 | 2015-08-18 | Nuance Communications, Inc. | Methods and apparatus for detecting a voice command |
US20140279232A1 (en) | 2013-03-14 | 2014-09-18 | Andrew Man-Hon Lau | System and method for an affinity capture, user feedback and affinity analysis |
US9292254B2 (en) | 2013-05-15 | 2016-03-22 | Maluuba Inc. | Interactive user interface for an intelligent assistant |
US9443507B2 (en) | 2013-07-15 | 2016-09-13 | GM Global Technology Operations LLC | System and method for controlling a speech recognition system |
US10095471B2 (en) * | 2013-09-20 | 2018-10-09 | Oracle International Corporation | Context aware voice interface for computing devices |
KR102155482B1 (ko) * | 2013-10-15 | 2020-09-14 | 삼성전자 주식회사 | 디스플레이장치 및 그 제어방법 |
US9697522B2 (en) | 2013-11-01 | 2017-07-04 | Plantronics, Inc. | Interactive device registration, setup and use |
US8849675B1 (en) * | 2013-12-18 | 2014-09-30 | Google Inc. | Suggested query constructor for voice actions |
US9582246B2 (en) | 2014-03-04 | 2017-02-28 | Microsoft Technology Licensing, Llc | Voice-command suggestions based on computer context |
US9639854B2 (en) | 2014-06-26 | 2017-05-02 | Nuance Communications, Inc. | Voice-controlled information exchange platform, such as for providing information to supplement advertising |
US9548066B2 (en) | 2014-08-11 | 2017-01-17 | Amazon Technologies, Inc. | Voice application architecture |
US9472196B1 (en) * | 2015-04-22 | 2016-10-18 | Google Inc. | Developer voice actions system |
US9922648B2 (en) * | 2016-03-01 | 2018-03-20 | Google Llc | Developer voice actions system |
-
2016
- 2016-03-01 US US15/057,453 patent/US9922648B2/en active Active
- 2016-12-19 GB GB1621570.9A patent/GB2547968A/en not_active Withdrawn
- 2016-12-23 WO PCT/US2016/068507 patent/WO2017151215A1/en unknown
- 2016-12-23 EP EP16826593.2A patent/EP3424045B1/en active Active
- 2016-12-23 JP JP2018522970A patent/JP6704450B2/ja active Active
- 2016-12-23 RU RU2018120514A patent/RU2704876C1/ru active
- 2016-12-28 CN CN201611235770.XA patent/CN107146606B/zh active Active
- 2016-12-28 CN CN202011125135.2A patent/CN113113014A/zh active Pending
- 2016-12-29 DE DE102016226302.1A patent/DE102016226302B4/de active Active
- 2016-12-29 DE DE202016107480.0U patent/DE202016107480U1/de active Active
Also Published As
Publication number | Publication date |
---|---|
DE202016107480U1 (de) | 2017-06-02 |
CN107146606B (zh) | 2020-11-10 |
EP3424045A1 (en) | 2019-01-09 |
CN107146606A (zh) | 2017-09-08 |
RU2704876C1 (ru) | 2019-10-31 |
CN113113014A (zh) | 2021-07-13 |
DE102016226302A1 (de) | 2017-09-07 |
GB2547968A (en) | 2017-09-06 |
JP2019512102A (ja) | 2019-05-09 |
EP3424045B1 (en) | 2020-09-23 |
DE102016226302B4 (de) | 2024-02-22 |
WO2017151215A1 (en) | 2017-09-08 |
US20170256256A1 (en) | 2017-09-07 |
US9922648B2 (en) | 2018-03-20 |
GB201621570D0 (en) | 2017-02-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6704450B2 (ja) | 開発者ボイスアクションシステム | |
US11929075B2 (en) | Voice action discoverability system | |
JP6873188B2 (ja) | 開発者音声アクションシステム | |
US10089982B2 (en) | Voice action biasing system | |
US20220414341A1 (en) | Intent addition for a chatbot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A529 | Written submission of copy of amendment under article 34 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A529 Effective date: 20180831 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190219 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180831 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190405 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190805 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191105 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200413 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200512 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6704450 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |