JP2020047061A - 電子機器および制御方法 - Google Patents
電子機器および制御方法 Download PDFInfo
- Publication number
- JP2020047061A JP2020047061A JP2018176127A JP2018176127A JP2020047061A JP 2020047061 A JP2020047061 A JP 2020047061A JP 2018176127 A JP2018176127 A JP 2018176127A JP 2018176127 A JP2018176127 A JP 2018176127A JP 2020047061 A JP2020047061 A JP 2020047061A
- Authority
- JP
- Japan
- Prior art keywords
- mode
- voice
- command
- commands
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 134
- 230000008569 process Effects 0.000 claims description 109
- 238000012545 processing Methods 0.000 abstract description 58
- 230000004044 response Effects 0.000 description 31
- 239000011521 glass Substances 0.000 description 15
- 210000003811 finger Anatomy 0.000 description 12
- 230000006870 function Effects 0.000 description 12
- 230000007704 transition Effects 0.000 description 12
- 230000008859 change Effects 0.000 description 9
- 230000005236 sound signal Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 7
- 210000001508 eye Anatomy 0.000 description 6
- 238000004590 computer program Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 210000005252 bulbus oculi Anatomy 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 201000004219 Meesmann corneal dystrophy Diseases 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000001816 cooling Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 210000004932 little finger Anatomy 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/32—Multiple recognisers used in sequence or in parallel; Score combination systems therefor, e.g. voting systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/088—Word spotting
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
まず、図1を参照して、一実施形態に係る電子機器を含む制御システム1の構成例を説明する。この電子機器はユーザが携行可能な電子機器であり、例えばモバイルエッジコンピューティングデバイス(MECD)を含むモバイルパーソナルコンピュータ(PC)や、スマートフォン、携帯電話機、PDA等の携帯情報端末として実現され得る。以下では、この電子機器がモバイルPC2として実現される場合を例示する。
図2はモバイルPC2の外観の一例を示す。モバイルPC2は片手で把持可能な小型PCであり、そのサイズは、幅が約10cm以下、高さが約18cm以下、厚さが2cm程度であり、重量は約300g程度と、小型で軽量である。このため、モバイルPC2は作業着のポケット、ベルトに装着されるホルスタ、あるいはショルダーケースに収納でき、ウェアラブルである。モバイルPC2は、CPUや半導体メモリ等の半導体チップやSSD(Solid State Disk)等のストレージデバイスを内蔵するが、ディスプレイと文字入力用のハードウェアキーボードは備えない。
例えば、
決定ボタン202eが1回押されると、項目の選択/項目の実行がなされ、
決定ボタン202eが長押しされると、終了または操作の取り消しがなされ、
アップボタン202aが1回押されると、カーソルが上に移動され、
アップボタン202aが長押しされると、起動中のアプリケーションの一覧が表示され、
ダウンボタン202cが1回押されると、カーソルが下に移動され、
ダウンボタン202cが長押しされると、クイックセッティングメニューが表示され、
レフトボタン202dが1回押されると、右のアイコンが選択され、
ライトボタン202bが1回押されると、左のアイコンが選択される。
指紋センサ204はモバイルPC2が起動された際の指紋認証のために使用される。
図4および図5を参照して、モバイルPC2に接続されるウェアラブルデバイス3の外観の一例を説明する。上述したように、ウェアラブルデバイス3はメガネフレーム142とウェアラブルデバイス本体4とを備える。
上述したように、ウェアラブルデバイス本体4はメガネフレーム142のテンプルに沿った側面部241と作業者の一方の眼球の視線上に位置する前面部242とからなる。側面部241に対する前面部242の角度は調節可能である。
例えば、
第3ボタン106が1回押されると、項目の選択/項目の実行がなされ(モバイルPC2では、決定ボタン202eの1回押しに相当)、
第3ボタン106が長押しされると、起動中のアプリケーションの一覧が表示され(モバイルPC2では、アップボタン202aの長押しに相当)、
第2ボタン104が1回押されると、ホーム画面に戻り、
第2ボタン104が長押しされると、クイックセッティングメニューが表示され(モバイルPC2では、ダウンボタン202cの長押しに相当)、
第1ボタン102が1回押されると、操作の取り消し(モバイルPC2では、決定ボタン202eの1回押しに相当、あるいはキーボードのEscキーと同様の動作)が実行される。
上下にドラッグされると、カーソルが上下に移動され、
前にフリックされると、左のアイコンが選択され(連続してスクロール)(モバイルPC2では、ライトボタン202bの1回押しに相当)、
後ろにフリックされると、右のアイコンが選択され(連続してスクロール)(モバイルPC2では、レフトボタン202dの1回押しに相当)、
前にドラッグされると、左のアイコンが選択され(1項目ずつスクロール)(モバイルPC2では、ライトボタン202bの1回押しに相当)、
後ろにドラッグされると、右のアイコンが選択され(1項目ずつスクロール)(モバイルPC2では、レフトボタン202dの1回押しに相当)る。
(A1)モード制御部54は、トリガーモードM1に設定された音声認識モードを、トリガーコマンド(すなわち音声操作開始を示す音声コマンド)が認識されたことに応じてシングルモードM2に切り替える。
(A2)モード制御部54は、シングルモードM2に設定された音声認識モードを、連続音声操作開始を示す音声コマンドが認識されたことに応じてマルチモードM3に切り替える。
(A3)モード制御部54は、シングルモードM2に設定された音声認識モードを、連続音声操作開始を示す音声コマンド以外の音声コマンドが認識されたことに応じて、あるいはタイムアウトに応じて、トリガーモードM1に切り替える。連続音声操作開始を示す音声コマンド以外の音声コマンドは、ホストアプリケーションプログラム308Cを操作するための音声コマンド(以下、ホスト操作コマンドとも称する)である。
(A4)モード制御部54は、マルチモードM3に設定された音声認識モードを、連続音声操作終了を示す音声コマンドが認識されたことに応じてトリガーモードM1に切り替える。
(A5)モード制御部54は、マルチモードM3に設定された音声認識モードを、連続音声操作終了を示す音声コマンド以外の音声コマンドが認識されている間、マルチモードM3に維持する。連続音声操作終了を示す音声コマンド以外の音声コマンドは、ホストアプリケーションプログラム308Cを操作するための音声コマンド(すなわちホスト操作コマンド)である。
・コマンドIDのフィールドに“コマンド1”が設定され、内容のフィールドに“シャッターを押す”が設定されたレコード2−1
・コマンドIDのフィールドに“コマンド2”が設定され、内容のフィールドに“ズームする”が設定されたレコード2−2
・コマンドIDのフィールドに“コマンド3”が設定され、内容のフィールドに“ズームアウトする”が設定されたレコード2−3
・コマンドIDのフィールドに“コマンド4”が設定され、内容のフィールドに“連続音声操作開始”が設定されたレコード2−4
・コマンドIDのフィールドに“コマンド1”が設定され、内容のフィールドに“シャッターを押す”が設定されたレコード3−1
・コマンドIDのフィールドに“コマンド2”が設定され、内容のフィールドに“ズームする”が設定されたレコード3−2
・コマンドIDのフィールドに“コマンド3”が設定され、内容のフィールドに“ズームアウトする”が設定されたレコード3−3
・コマンドIDのフィールドに“コマンド5”が設定され、内容のフィールドに“連続音声操作終了”が設定されたレコード3−4
音声認識が開始されたとき、トリガーモードM1である音声認識モードで音声入力が待ち受けられる。ユーザが「音声操作開始」と発話したことに応じて、音声認識モードはトリガーモードM1からシングルモードM2に遷移する。次にユーザが「ズームする」と発話したことに応じて、ホストアプリケーションプログラム308Cはカメラ116のズームインのための処理を実行し、音声認識モードはトリガーモードM1に戻る。
音声認識が開始されたとき、トリガーモードM1である音声認識モードで音声入力が待ち受けられる。ユーザが「音声操作開始」と発話したことに応じて、音声認識モードはトリガーモードM1からシングルモードM2に遷移する。次にユーザが「連続音声操作開始」と発話したことに応じて、音声認識モードはシングルモードM2からマルチモードM3に遷移する。
以上により、音声データからトリガーコマンドを認識できる。
以上により、音声データからシングルモードM2の音声コマンドを認識するか、シングルモードM2のタイムアウトを検出できる。
以上により、音声データからマルチモードM3の音声コマンドを認識できる。
第1実施形態では、トリガーコマンドが認識されたことに応じて、音声認識モードがトリガーモードM1からシングルモードM2に遷移する。これに対して第2実施形態では、トリガーコマンドM1が認識されたことに応じて、音声認識モードがトリガーモードM1からシングルモードM2とマルチモードM3のいずれかに遷移する。
(B1)モード制御部54は、トリガーモードM1に設定された音声認識モードを、音声操作開始を示すトリガーコマンドが認識されたことに応じてシングルモードM2に切り替える。
(B2)モード制御部54は、シングルモードM2に設定された音声認識モードを、ホストアプリケーションプログラム308Cを操作するための音声コマンド(すなわちホスト操作コマンド)が認識されたことに応じて、あるいはタイムアウトに応じて、トリガーモードM1に切り替える。
(B3)モード制御部54は、トリガーモードM1に設定された音声認識モードを、連続音声操作開始を示すトリガーコマンドが認識されたことに応じてマルチモードM3に切り替える。
(B4)モード制御部54は、マルチモードM3に設定された音声認識モードを、連続音声操作終了を示す音声コマンドが認識されたことに応じてトリガーモードM1に切り替える。
(B5)モード制御部54は、マルチモードM3に設定された音声認識モードを、連続音声操作終了を示す音声コマンド以外の音声コマンドが認識されている間、マルチモードM3に維持する。連続音声操作終了を示す音声コマンド以外の音声コマンドは、ホストアプリケーションプログラム308Cを操作するための音声コマンド(すなわちホスト操作コマンド)である。
・コマンドIDのフィールドに“トリガーコマンド1”が設定され、内容のフィールドに“音声操作開始”が設定されたレコード5−1
・コマンドIDのフィールドに“トリガーコマンド2”が設定され、内容のフィールドに“連続音声操作開始”が設定されたレコード5−2
・コマンドIDのフィールドに“コマンド1”が設定され、内容のフィールドに“シャッターを押す”が設定されたレコード6−1
・コマンドIDのフィールドに“コマンド2”が設定され、内容のフィールドに“ズームする”が設定されたレコード6−2
・コマンドIDのフィールドに“コマンド3”が設定され、内容のフィールドに“ズームアウトする”が設定されたレコード6−3
・コマンドIDのフィールドに“コマンド1”が設定され、内容のフィールドに“シャッターを押す”が設定されたレコード7−1
・コマンドIDのフィールドに“コマンド2”が設定され、内容のフィールドに“ズームする”が設定されたレコード7−2
・コマンドIDのフィールドに“コマンド3”が設定され、内容のフィールドに“ズームアウトする”が設定されたレコード7−3
・コマンドIDのフィールドに“コマンド4”が設定され、内容のフィールドに“連続音声操作終了”が設定されたレコード7−4
音声認識が開始されたとき、トリガーモードM1である音声認識モードで音声入力が待ち受けられる。ユーザが「音声操作開始」と発話したことに応じて、音声認識モードはトリガーモードM1からシングルモードM2に遷移する。次にユーザが「ズームする」と発話したことに応じて、ホストアプリケーションプログラム308Cはカメラ116のズームインのための処理を実行し、音声認識モードはトリガーモードM1に戻る。
音声認識が開始されたとき、トリガーモードM1である音声認識モードで音声入力が待ち受けられる。ユーザが「連続音声操作開始」と発話したことに応じて、音声認識モードはトリガーモードM1からマルチモードM3に遷移する。
Claims (10)
- ユーザが携行可能な電子機器であって、
当該電子機器を前記ユーザが装着可能なウェアラブル機器に有線または無線で接続する接続手段と、
前記ウェアラブル機器から、前記ユーザによる発話を集音することによって得られた音声データを取得する取得手段と、
音声認識モードが第1モードに設定された場合、前記音声データから1つ以上の第1コマンドの1つを認識する処理を実行し、前記音声認識モードが第2モードに設定された場合、前記音声データから複数の第2コマンドの1つを認識する処理を実行し、前記音声認識モードが第3モードに設定された場合、前記音声データから複数の第3コマンドの1つを認識する処理を繰り返し実行する音声認識手段とを具備する電子機器。 - 前記音声認識モードが初期状態として前記第1モードに設定された場合、前記音声データから認識された前記第1コマンドの1つに応じて、前記音声認識モードを前記第2モードと前記第3モードのいずれかに切り替えるモード制御手段をさらに具備する請求項1記載の電子機器。
- 前記モード制御手段は、
前記音声データから、前記第1コマンドの1つが認識された場合、前記音声認識モードを前記第1モードから前記第2モードに切り替え、
前記音声データから、前記複数の第2コマンドに含まれる連続音声操作の開始を示す第4コマンドが認識された場合、前記音声認識モードを前記第2モードから前記第3モードに切り替え、
前記音声データから、前記複数の第2コマンドの内、前記第4コマンド以外の第6コマンドが認識された場合、前記音声認識モードを前記第2モードから前記第1モードに切り替え、
前記音声データから、前記複数の第3コマンドに含まれる連続音声操作の終了を示す第5コマンドが認識された場合、前記音声認識モードを前記第3モードから前記第1モードに切り替え、
前記音声データから、前記複数の第3コマンドの内、前記第5コマンド以外の第7コマンドが認識された場合、前記音声認識モードを前記第3モードに維持する請求項2記載の電子機器。 - 前記モード制御手段は、
前記音声データから、前記1つ以上の第1コマンドに含まれる音声操作の開始を示す第8コマンドが認識された場合、前記音声認識モードを前記第1モードから前記第2モードに切り替え、
前記音声データから、前記複数の第2コマンドの1つが認識された場合、前記音声認識モードを前記第2モードから前記第1モードに切り替え、
前記音声データから、前記1つ以上の第1コマンドに含まれる連続音声操作の開始を示す第4コマンドが認識された場合、前記音声認識モードを前記第1モードから前記第3モードに切り替え、
前記音声データから、前記複数の第3コマンドに含まれる連続音声操作の終了を示す第5コマンドが認識された場合、前記音声認識モードを前記第3モードから前記第1モードに切り替え、
前記音声データから、前記複数の第3コマンドの内、前記第5コマンド以外の第7コマンドが認識された場合、前記音声認識モードを前記第3モードに維持する請求項2記載の電子機器。 - 前記音声認識手段は、
前記音声認識モードが前記第1モードに設定された場合、前記1つ以上の第1コマンドを音声認識するための第1辞書データを用いて、前記音声データから前記1つ以上の第1コマンドの1つを認識する処理を実行し、
前記音声認識モードが前記第2モードに設定された場合、前記複数の第2コマンドを音声認識するための第2辞書データを用いて、前記音声データから前記複数の第2コマンドの1つを認識する処理を実行し、
前記音声認識モードが第3モードに設定された場合、前記複数の第3コマンドを音声認識するための第3辞書データを用いて、前記音声データから前記複数の第3コマンドの1つを認識する処理を繰り返し実行する請求項1乃至請求項4のいずれか一項に記載の電子機器。 - 前記第1辞書データは、音声操作の開始を示す第8コマンドを音声認識するためのデータで構成され、
前記第2辞書データは、連続音声操作の開始を示す第4コマンドと、前記電子機器上で実行されるアプリケーションプログラムに対する操作のための1つ以上の第6コマンドとを音声認識するためのデータで構成され、
前記第3辞書データは、連続音声操作の終了を示す第5コマンドと、前記アプリケーションプログラムに対する操作のための前記1つ以上の第7コマンドとを音声認識するためのデータで構成される請求項5記載の電子機器。 - 前記第1辞書データは、音声操作の開始を示す第8コマンドと、連続音声操作の開始を示す第4コマンドとを音声認識するためのデータで構成され、
前記第2辞書データは、前記電子機器上で実行されるアプリケーションプログラムに対する操作のための1つ以上の第6コマンドを音声認識するためのデータで構成され、
前記第3辞書データは、連続音声操作の終了を示す第5コマンドと、前記アプリケーションプログラムに対する操作のための前記1つ以上の第7コマンドとを音声認識するためのデータで構成される請求項5記載の電子機器。 - 前記音声認識手段は、さらに、
前記音声データから、前記複数の第2コマンドの内、連続音声操作の開始を示す第4コマンド以外の第6コマンドが認識された場合、前記第6コマンドを示す情報を前記電子機器上で実行されているアプリケーションプログラムに送出し、
前記音声データから、前記複数の第3コマンドの内、連続音声操作の終了を示す第5コマンド以外の第7コマンドが認識された場合、前記第7コマンドを示す情報を前記アプリケーションプログラムに送出する請求項1記載の電子機器。 - 前記音声認識手段は、さらに、
前記音声データから、前記複数の第2コマンドの内の第6コマンドが認識された場合、前記第6コマンドを示す情報を前記電子機器上で実行されるアプリケーションプログラムに送出し、
前記音声データから、前記複数の第3コマンドの内、連続音声操作の終了を示す第5コマンド以外の第7コマンドが認識された場合、前記第7コマンドを示す情報を前記アプリケーションプログラムに送出する請求項1記載の電子機器。 - ユーザが携行可能な電子機器の制御方法であって、
当該電子機器を前記ユーザが装着可能なウェアラブル機器に有線または無線で接続し、
前記ウェアラブル機器から、前記ユーザによる発話を集音することによって得られた音声データを取得し、
音声認識モードが第1モードに設定された場合、前記音声データから1つ以上の第1コマンドの1つを認識する処理を実行し、前記音声認識モードが第2モードに設定された場合、前記音声データから複数の第2コマンドの1つを認識する処理を実行し、前記音声認識モードが第3モードに設定された場合、前記音声データから複数の第3コマンドの1つを認識する処理を繰り返し実行する制御方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018176127A JP2020047061A (ja) | 2018-09-20 | 2018-09-20 | 電子機器および制御方法 |
US16/396,541 US11211067B2 (en) | 2018-09-20 | 2019-04-26 | Electronic device and control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018176127A JP2020047061A (ja) | 2018-09-20 | 2018-09-20 | 電子機器および制御方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020047061A true JP2020047061A (ja) | 2020-03-26 |
Family
ID=69883490
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018176127A Pending JP2020047061A (ja) | 2018-09-20 | 2018-09-20 | 電子機器および制御方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11211067B2 (ja) |
JP (1) | JP2020047061A (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020047062A (ja) * | 2018-09-20 | 2020-03-26 | Dynabook株式会社 | 電子機器および制御方法 |
US11664031B2 (en) * | 2021-03-11 | 2023-05-30 | Apple Inc. | Multi-mode voice triggering for audio devices |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003202888A (ja) * | 2002-01-07 | 2003-07-18 | Toshiba Corp | 無線通信機能付きヘッドセットおよびこれを用いた音声処理システム |
US9531410B2 (en) * | 2013-03-15 | 2016-12-27 | Google Technology Holdings LLC | Method for envelope tracking multiple transmissions through a single power amplifier |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS61128330A (ja) | 1984-11-27 | 1986-06-16 | Nec Corp | 音声認識制御インタ−フエ−ス回路 |
JPS62127800A (ja) | 1985-11-29 | 1987-06-10 | 株式会社日立製作所 | 音声入力装置 |
JP5049934B2 (ja) | 2008-09-22 | 2012-10-17 | 株式会社東芝 | 対話文生成装置及び方法 |
US20110131040A1 (en) * | 2009-12-01 | 2011-06-02 | Honda Motor Co., Ltd | Multi-mode speech recognition |
JP6167605B2 (ja) | 2013-03-28 | 2017-07-26 | 株式会社デンソー | 音声認識システム |
US9530410B1 (en) * | 2013-04-09 | 2016-12-27 | Google Inc. | Multi-mode guard for voice commands |
JP6514475B2 (ja) | 2014-10-03 | 2019-05-15 | 株式会社Nttドコモ | 対話装置および対話方法 |
JP6673243B2 (ja) | 2017-02-02 | 2020-03-25 | トヨタ自動車株式会社 | 音声認識装置 |
US10373630B2 (en) * | 2017-03-31 | 2019-08-06 | Intel Corporation | Systems and methods for energy efficient and low power distributed automatic speech recognition on wearable devices |
-
2018
- 2018-09-20 JP JP2018176127A patent/JP2020047061A/ja active Pending
-
2019
- 2019-04-26 US US16/396,541 patent/US11211067B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003202888A (ja) * | 2002-01-07 | 2003-07-18 | Toshiba Corp | 無線通信機能付きヘッドセットおよびこれを用いた音声処理システム |
US9531410B2 (en) * | 2013-03-15 | 2016-12-27 | Google Technology Holdings LLC | Method for envelope tracking multiple transmissions through a single power amplifier |
Also Published As
Publication number | Publication date |
---|---|
US11211067B2 (en) | 2021-12-28 |
US20200098359A1 (en) | 2020-03-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10674056B2 (en) | Wearable apparatus and method for capturing image data using multiple image sensors | |
WO2017036035A1 (zh) | 屏幕控制方法及装置 | |
CN106031255B (zh) | 通信控制装置、通信控制方法及程序 | |
JP2017518691A (ja) | 画像の取り込みを支援するためにハプティックフィードバックを提供するためのシステムおよび方法 | |
CN107430856B (zh) | 信息处理系统和信息处理方法 | |
US11145304B2 (en) | Electronic device and control method | |
US11061565B2 (en) | Electronic device and control method | |
KR20210110068A (ko) | 제스처 인식 기반의 영상 편집 방법 및 이를 지원하는 전자 장치 | |
JP2020047061A (ja) | 電子機器および制御方法 | |
US20200098361A1 (en) | Electronic device, recognition method, and non-transitory computer-readable storage medium | |
KR102490561B1 (ko) | 이동 단말기 | |
US10852548B2 (en) | Electronic device, wearable device, and setting method | |
JP6504154B2 (ja) | ウェアラブル装置、および通信制御方法 | |
US20190236260A1 (en) | Electronic apparatus, control system, control method, and storage medium | |
US20190206199A1 (en) | Electronic edge computing device | |
JP6968689B2 (ja) | 電子機器、ウェアラブル機器及び表示制御方法 | |
US10552360B2 (en) | Electronic device, connection method, and storage medium | |
JP6064737B2 (ja) | 音声認識装置及び音声認識プログラム | |
JP2020046563A (ja) | 電子機器、音声認識方法及びプログラム | |
US11063822B2 (en) | Electronic apparatus and control method | |
US20190235651A1 (en) | Wearable device and operation method | |
KR102137511B1 (ko) | 헤드 마운트 디스플레이 장치 | |
KR20220080399A (ko) | 사용자 입력을 처리하는 전자 장치 및 방법 | |
KR20210017081A (ko) | 객체에 대응하는 그래픽 요소 표시 방법 및 장치 | |
CN113850724A (zh) | 一种信息提示方法和终端设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20181207 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210916 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220720 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220830 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230228 |