JP6569926B2 - 音声入力装置、翻訳装置、音声入力方法、及び音声入力プログラム - Google Patents
音声入力装置、翻訳装置、音声入力方法、及び音声入力プログラム Download PDFInfo
- Publication number
- JP6569926B2 JP6569926B2 JP2018534287A JP2018534287A JP6569926B2 JP 6569926 B2 JP6569926 B2 JP 6569926B2 JP 2018534287 A JP2018534287 A JP 2018534287A JP 2018534287 A JP2018534287 A JP 2018534287A JP 6569926 B2 JP6569926 B2 JP 6569926B2
- Authority
- JP
- Japan
- Prior art keywords
- voice
- control unit
- translation
- section
- speech
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/065—Adaptation
- G10L15/07—Adaptation to the speaker
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Signal Processing (AREA)
- Machine Translation (AREA)
- User Interface Of Digital Computer (AREA)
Description
以下、図1〜図8Cを用いて、実施の形態1を説明する。以下では、本開示にかかる音声入力装置及び音声入力方法を用いた翻訳装置を説明する。
[1−1−1.外観構成]
図1は、実施の形態1にかかる翻訳装置の外観を示す図である。図1に示す翻訳装置1は、例えばタブレットタイプの翻訳装置であり、言語が異なる2人のユーザの会話を翻訳する翻訳装置である。本実施の形態では、翻訳装置1が、英語を話すゲスト(旅行者)と、ゲストを案内し、日本語を話すホスト(案内者)とが翻訳装置1を介して対面で行う会話を翻訳することを想定して説明する。翻訳装置1は、マイク10と、スピーカ12と、ディスプレイ14と、タッチパネル16とを備える。
図2は、実施の形態1にかかる翻訳装置1の電気的な構成を示すブロック図である。図1に示す翻訳装置1は、インターネットのようなネットワーク2を介して音声認識サーバ3、翻訳サーバ4、及び、音声合成サーバ5とデータ通信を行う。
[1−2−1.動作の概要]
以上のように構成された翻訳装置1の動作の概要を説明する。翻訳装置1は、マイク10に入力される音声に応じたデジタル音声データを、ネットワーク2を介して音声認識サーバ3に送信する。このとき、音声認識サーバ3は、受信した音声データを音声認識して文字列の音声認識データを生成する。翻訳装置1は、音声認識の結果である文字列の音声認識データを、音声認識サーバ3からネットワーク2を介して受信し、ディスプレイ14に音声認識の結果を文字列として表示する。
以上のように構成された翻訳装置1の動作の詳細を、図4〜図8Cを用いて以下に説明する。以下では、ホストが発話する日本語の音声をゲストの言語である英語に翻訳する際に、ホスト本人が翻訳装置1のディスプレイ14に表示された発話アイコン14hを操作する一例について説明する。
図4は、実施の形態1にかかる翻訳装置1の制御部22による翻訳動作を示すフローチャートである。制御部22は、図1に示すように発話アイコン14h、14hg、14gをディスプレイ14に表示している。タッチパネル16におけるディスプレイ14の発話アイコン14hに対してホストによりタッチ操作が行われると、制御部22は、図4に示すように、ホストの音声を認識して文字列の音声認識データを生成する音声認識を行う(S1)。音声認識動作(音声入力動作)の詳細は後述する。
次に、上述した図4におけるステップS1の音声認識動作(本実施の形態の音声入力動作)の詳細を、図5を参照して説明する。図5は、実施の形態1にかかる翻訳装置1の音声認識装置(音声入力装置)100の制御部22による音声認識動作(音声入力動作)を示すフローチャートである。
次に、上述した図5におけるステップS40の音声区間の終了時点の決定動作について、図6〜図8Cを参照して説明する。
以上のように、本実施の形態において、音声認識装置(音声入力装置)100は、マイク10と、記憶部20と、タッチパネル16と、制御部22とを備える。マイク10は、音声を取得し、音声に応じた音声データを生成する。記憶部20は、マイク10からの音声データを記憶する。タッチパネル16は、ユーザにより操作される。制御部22は、記憶部20に記憶された音声データにおいて、タッチパネル16に対するユーザ操作に基づき音声認識を行う音声区間を決定する。そして、制御部22は、ユーザによるタッチパネル16に対するスライド操作(所定の操作の一例)を検知したときに、決定した音声区間を調整する。
実施の形態1にかかる翻訳装置1は、ユーザによる右スライド操作を検知したときに、音声区間の終了時点をキャンセルすることをユーザに確定させるための確定アイコン14Aを表示した。また、実施の形態1にかかる翻訳装置1は、ユーザによる左スライド操作を検知したときに、音声区間の終了時点を時間的に前へシフトさせる時間をユーザに選択させるための選択アイコン14B、14C、14Dを表示した。実施の形態1の変形例にかかる翻訳装置1は、ユーザによる右スライド操作を検知したときに、確定アイコン14Aを表示することなく、ユーザによる2回目のタッチ操作をキャンセルする。また、実施の形態1の変形例にかかる翻訳装置1は、ユーザによる左スライド操作を検知したときに、選択アイコン14B、14C、14Dを表示することなく、所定時間だけホストによる2回目のタッチ時刻を時間的に前へシフトさせる。
実施の形態1にかかる翻訳装置1は、音声区間の終了時点の調整完了後に、最終の音声認識結果を表示した。実施の形態2にかかる翻訳装置1は、音声区間の終了時点を調整する際に、スライド操作に応じた音声認識結果をリアルタイムで表示する。
図10A〜図10Dを用いて説明した音声認識動作における逐次表示のための音声認識データの取得動作を説明する。図11は、音声認識動作における音声認識結果の逐次表示のための音声認識データの取得動作を示すフローチャートである。図12は、逐次表示のための音声認識データの取得動作を説明するための図である。図13は、逐次表示のための音声認識データの一例を示す図である。
次に、本実施の形態2における音声認識動作(図4に示すフローチャートにおけるステップS1の動作)について説明する。特に本実施の形態では、記憶部20に記憶した逐次音声認識結果の音声認識データR0、R1、R2・・・Rnを用いた音声認識動作を説明する。図14は、実施の形態2にかかる翻訳装置1の音声認識装置(音声入力装置)100の制御部22による音声認識動作を示すフローチャートである。図14に示す処理は、図11に示す処理と並列に動作する。
次に、上述した図14におけるステップS40Aの音声区間の終了時点の決定動作について、図15及び図16A〜図16Cを参照して説明する。図15は、実施の形態2にかかる翻訳装置1の音声認識装置(音声入力装置)100の制御部22による音声区間の終了時点の決定動作を示すフローチャートである。図16A〜図16Cは、音声区間の終了時点の決定動作を説明するための図である。
実施の形態2にかかる翻訳装置1は、逐次音声認識を行い、音声区間の終了時点を調整する際にこれらの逐次音声認識の結果をリアルタイムで表示した。これに対して、実施の形態3にかかる翻訳装置1は、音声区間の終了時点を調整する際にその都度音声認識結果を取得し、その音声認識結果をリアルタイムで表示する。
上述した図14におけるステップS40Aの音声区間の終了時点の決定動作について、図17を参照して説明する。本実施の形態にかかる翻訳装置1は、実施の形態2で説明した音声認識装置100の動作において、図15のフローチャートに示す動作に代えて、図17のフローチャートに示す動作を行う。図17は、実施の形態3にかかる翻訳装置1の音声認識装置(音声入力装置)100の制御部22による音声区間の終了時点の決定動作を示すフローチャートである。
以上のように、本出願において開示する技術の例示として、実施の形態1〜3を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置き換え、付加、省略などを行った実施の形態にも適用可能である。また、上記実施の形態1〜3で説明した各構成要素を組み合わせて、新たな実施の形態とすることも可能である。そこで、以下、他の実施の形態を例示する。
2 ネットワーク
3 音声認識サーバ
4 翻訳サーバ
5 音声合成サーバ
10 マイク(入力部)
12 スピーカ(出力部)
14 ディスプレイ(表示部)
16 タッチパネル(操作部)
18 通信部
20 記憶部
22 制御部
14h,14g,14hg 発話アイコン
14A 確定アイコン
14B,14C,14D 選択アイコン
15h,15g 表示領域
100 音声認識装置(音声入力装置)
200 翻訳出力部
Claims (15)
- 音声を取得し、前記音声に応じた音声データを生成する入力部と、
前記入力部からの前記音声データを記憶する記憶部と、
ユーザにより操作されるタッチパネルと、
前記記憶部に記憶された前記音声データにおいて、前記タッチパネルに対するタッチ操作に基づき音声認識を行う音声区間を決定する制御部と、
を備え、
前記制御部は、ユーザによる前記タッチパネルに対するスライド操作を検知したときに、決定した前記音声区間を調整する、
音声入力装置。 - 前記記憶部により記憶される前記音声データの区間は、前記制御部により決定される前記音声区間よりも長い区間である、
請求項1に記載の音声入力装置。 - 前記制御部は、前記タッチ操作に基づき前記音声区間の開始時点を決定し、前記スライド操作を検知したときに、前記開始時点を調整する、
請求項1に記載の音声入力装置。 - 前記制御部は、
前記スライド操作の方向が所定方向である場合に、前記開始時点を前記タッチ操作の時刻よりも前に調整し、
前記スライド操作の方向が前記所定方向の反対方向である場合に、前記開始時点を前記タッチ操作の時刻よりも後に調整する、
請求項3に記載の音声入力装置。 - 前記制御部は、前記タッチ操作に基づき前記音声区間の終了時点を決定し、前記スライド操作を検知したときに、前記終了時点を調整する、
請求項1に記載の音声入力装置。 - 前記制御部は、
前記スライド操作の方向が所定方向である場合に、前記終了時点を前記タッチ操作の時刻よりも前に調整し、
前記スライド操作の方向が前記所定方向の反対方向である場合に、前記終了時点を前記タッチ操作の時刻よりも後に調整する、
請求項5に記載の音声入力装置。 - 前記制御部は、
前記スライド操作を検知したときに、前記終了時点の決定をキャンセルする、
請求項5に記載の音声入力装置。 - 表示部をさらに備え、
前記制御部は、前記スライド操作を検知したときに、前記音声区間を調整するための時間をユーザに選択させるためのアイコンを前記表示部に表示する、
請求項1に記載の音声入力装置。 - 表示部をさらに備え、
前記制御部は、前記スライド操作を検知したときに、前記音声区間の決定をキャンセルすることをユーザに確定させるためのアイコンを前記表示部に表示する、
請求項1に記載の音声入力装置。 - 表示部をさらに備え、
前記制御部は、前記音声データの音声認識結果を示す文字列を前記表示部に表示する、
請求項1に記載の音声入力装置。 - 前記制御部は、調整された前記音声区間に対応する前記文字列を前記表示部に表示する、
請求項10に記載の音声入力装置。 - 前記音声は、前記ユーザとは異なる他のユーザの音声である、
請求項1に記載の音声入力装置。 - 請求項1に記載の音声入力装置と、
前記音声入力装置によって調整された前記音声区間に対応する前記音声データの音声認識結果に基づく翻訳結果を出力する出力部と、
を備える翻訳装置。 - 入力される音声に応じて生成された音声データを記憶部に記憶するステップと、
前記記憶部に記憶された前記音声データにおいて、タッチパネルに対するタッチ操作に基づき音声認識を行う音声区間を決定するステップと、
を含み、
前記音声区間を決定するステップは、ユーザによる前記タッチパネルに対するスライド操作を検知したときに、決定した前記音声区間を調整することを含む、
音声入力方法。 - 請求項14に記載の音声入力方法をコンピュータに実行させるための音声入力プログラム。
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016160170 | 2016-08-17 | ||
| JP2016160170 | 2016-08-17 | ||
| PCT/JP2017/023009 WO2018034059A1 (ja) | 2016-08-17 | 2017-06-22 | 音声入力装置、翻訳装置、音声入力方法、及び音声入力プログラム |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JPWO2018034059A1 JPWO2018034059A1 (ja) | 2018-11-22 |
| JP6569926B2 true JP6569926B2 (ja) | 2019-09-04 |
Family
ID=61196657
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2018534287A Active JP6569926B2 (ja) | 2016-08-17 | 2017-06-22 | 音声入力装置、翻訳装置、音声入力方法、及び音声入力プログラム |
Country Status (3)
| Country | Link |
|---|---|
| US (1) | US10854200B2 (ja) |
| JP (1) | JP6569926B2 (ja) |
| WO (1) | WO2018034059A1 (ja) |
Families Citing this family (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US11079915B2 (en) * | 2016-05-03 | 2021-08-03 | Intelligent Platforms, Llc | System and method of using multiple touch inputs for controller interaction in industrial control systems |
| JP7330066B2 (ja) * | 2019-03-27 | 2023-08-21 | パナソニックホールディングス株式会社 | 音声認識装置、音声認識方法及びそのプログラム |
| JP6606697B1 (ja) * | 2019-05-24 | 2019-11-20 | 株式会社ナレッジフロー | 通話システム、及び通話プログラム |
| JP7109498B2 (ja) * | 2020-04-09 | 2022-07-29 | 励至 鈴木 | 音声入力装置 |
| JP7666054B2 (ja) * | 2021-03-24 | 2025-04-22 | 株式会社Jvcケンウッド | 翻訳通信システム |
| WO2025197100A1 (ja) * | 2024-03-22 | 2025-09-25 | ポケトーク株式会社 | 音声認識システム、音声認識方法及び情報記憶媒体 |
Family Cites Families (38)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH08146987A (ja) * | 1994-11-17 | 1996-06-07 | Canon Inc | 音声入力装置及びその制御方法 |
| JPH08185196A (ja) | 1994-12-28 | 1996-07-16 | Sony Corp | 音声区間検出装置 |
| US6353809B2 (en) * | 1997-06-06 | 2002-03-05 | Olympus Optical, Ltd. | Speech recognition with text generation from portions of voice data preselected by manual-input commands |
| FR2853126A1 (fr) * | 2003-03-25 | 2004-10-01 | France Telecom | Procede de reconnaissance de parole distribuee |
| JP2004294659A (ja) | 2003-03-26 | 2004-10-21 | Matsushita Electric Ind Co Ltd | 音声認識装置 |
| US7505163B2 (en) * | 2003-09-25 | 2009-03-17 | Ricoh Co., Ltd. | User interface for networked printer |
| JP2006091130A (ja) * | 2004-09-21 | 2006-04-06 | Nissan Motor Co Ltd | 音声認識装置および音声認識方法 |
| US20060247927A1 (en) * | 2005-04-29 | 2006-11-02 | Robbins Kenneth L | Controlling an output while receiving a user input |
| US8731914B2 (en) * | 2005-11-15 | 2014-05-20 | Nokia Corporation | System and method for winding audio content using a voice activity detection algorithm |
| US8756058B2 (en) * | 2006-02-23 | 2014-06-17 | Nec Corporation | Speech recognition system, speech recognition result output method, and speech recognition result output program |
| JP4786384B2 (ja) * | 2006-03-27 | 2011-10-05 | 株式会社東芝 | 音声処理装置、音声処理方法および音声処理プログラム |
| JP2008077601A (ja) * | 2006-09-25 | 2008-04-03 | Toshiba Corp | 機械翻訳装置、機械翻訳方法および機械翻訳プログラム |
| JP5075664B2 (ja) * | 2008-02-15 | 2012-11-21 | 株式会社東芝 | 音声対話装置及び支援方法 |
| JP2010054991A (ja) * | 2008-08-29 | 2010-03-11 | Yamaha Corp | 録音装置 |
| KR20210152028A (ko) * | 2008-11-10 | 2021-12-14 | 구글 엘엘씨 | 멀티센서 음성 검출 |
| US20130139057A1 (en) * | 2009-06-08 | 2013-05-30 | Jonathan A.L. Vlassopulos | Method and apparatus for audio remixing |
| JP5704428B2 (ja) * | 2009-11-18 | 2015-04-22 | 株式会社リコー | タッチパネル装置及びタッチパネル装置の制御方法 |
| KR101290145B1 (ko) * | 2011-05-31 | 2013-07-26 | 삼성전자주식회사 | 터치 스크린 제어 방법 및 장치, 컴퓨터에 의해 독출될 수 있는 기록 매체, 그리고 단말장치 |
| CN103650032A (zh) * | 2011-06-15 | 2014-03-19 | 骨声通信有限(以色列)有限公司 | 用于检测语音的系统、设备和方法 |
| US20130211826A1 (en) * | 2011-08-22 | 2013-08-15 | Claes-Fredrik Urban Mannby | Audio Signals as Buffered Streams of Audio Signals and Metadata |
| DE102012004327A1 (de) * | 2012-03-07 | 2013-09-12 | Mobotix Ag | Verfahren für die Parameterveränderung parametrierbarer Funktionen mittels Datenverarbeitungsgeräten |
| US9047873B2 (en) * | 2012-12-21 | 2015-06-02 | Draeger Safety, Inc. | Self contained breathing and communication apparatus |
| US8577422B1 (en) * | 2013-03-27 | 2013-11-05 | Open Invention Network, Llc | Wireless device gesture detection and operational control |
| US9462115B2 (en) * | 2013-04-04 | 2016-10-04 | James S. Rand | Unified communications system and method |
| US9503556B2 (en) * | 2013-06-18 | 2016-11-22 | Here Global B.V. | Handling voice calls |
| US9264824B2 (en) * | 2013-07-31 | 2016-02-16 | Starkey Laboratories, Inc. | Integration of hearing aids with smart glasses to improve intelligibility in noise |
| JP2015060332A (ja) * | 2013-09-18 | 2015-03-30 | 株式会社東芝 | 音声翻訳装置、音声翻訳方法およびプログラム |
| US9274673B2 (en) * | 2013-12-31 | 2016-03-01 | Google Inc. | Methods, systems, and media for rewinding media content based on detected audio events |
| US20160170970A1 (en) * | 2014-12-12 | 2016-06-16 | Microsoft Technology Licensing, Llc | Translation Control |
| US10579330B2 (en) * | 2015-05-13 | 2020-03-03 | Microsoft Technology Licensing, Llc | Automatic visual display of audibly presented options to increase user efficiency and interaction performance |
| US9792907B2 (en) * | 2015-11-24 | 2017-10-17 | Intel IP Corporation | Low resource key phrase detection for wake on voice |
| EP3185244B1 (en) * | 2015-12-22 | 2019-02-20 | Nxp B.V. | Voice activation system |
| US9972313B2 (en) * | 2016-03-01 | 2018-05-15 | Intel Corporation | Intermediate scoring and rejection loopback for improved key phrase detection |
| US20190095867A1 (en) * | 2016-03-09 | 2019-03-28 | Maxell, Ltd. | Portable information terminal and information processing method used in the same |
| US9832308B1 (en) * | 2016-05-12 | 2017-11-28 | Google Inc. | Caller preview data and call messages based on caller preview data |
| ES2806204T3 (es) * | 2016-06-15 | 2021-02-16 | Cerence Operating Co | Técnicas para reconomiento de voz para activación y sistemas y métodos relacionados |
| US10515292B2 (en) * | 2016-06-15 | 2019-12-24 | Massachusetts Institute Of Technology | Joint acoustic and visual processing |
| JP6739041B2 (ja) * | 2016-07-28 | 2020-08-12 | パナソニックIpマネジメント株式会社 | 音声モニタリングシステム及び音声モニタリング方法 |
-
2017
- 2017-06-22 JP JP2018534287A patent/JP6569926B2/ja active Active
- 2017-06-22 WO PCT/JP2017/023009 patent/WO2018034059A1/ja not_active Ceased
-
2018
- 2018-09-07 US US16/125,101 patent/US10854200B2/en active Active
Also Published As
| Publication number | Publication date |
|---|---|
| WO2018034059A1 (ja) | 2018-02-22 |
| US20190005958A1 (en) | 2019-01-03 |
| JPWO2018034059A1 (ja) | 2018-11-22 |
| US10854200B2 (en) | 2020-12-01 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6569926B2 (ja) | 音声入力装置、翻訳装置、音声入力方法、及び音声入力プログラム | |
| JP6635049B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
| JP6364629B2 (ja) | 翻訳装置および翻訳方法 | |
| US9570076B2 (en) | Method and system for voice recognition employing multiple voice-recognition techniques | |
| US10504502B2 (en) | Sound control device, sound control method, and sound control program | |
| KR20150127712A (ko) | 제스처들을 이용하여 프로세싱 모드들을 스위칭하기 위한 시스템들 및 방법들 | |
| JP6950708B2 (ja) | 情報処理装置、情報処理方法、および情報処理システム | |
| CN108307659A (zh) | 翻译装置的控制方法、翻译装置以及程序 | |
| JP2007010971A (ja) | 音声認識方法及び音声認識装置 | |
| WO2018105373A1 (ja) | 情報処理装置、情報処理方法、および情報処理システム | |
| WO2016152200A1 (ja) | 情報処理システムおよび情報処理方法 | |
| JP2010176543A (ja) | 翻訳装置、方法、及びプログラム | |
| JP2011248140A (ja) | 音声認識装置 | |
| JP7406874B2 (ja) | 電子機器、その制御方法、およびそのプログラム | |
| JP2020160431A (ja) | 音声認識装置、音声認識方法及びそのプログラム | |
| CN105139848A (zh) | 数据转换方法和装置 | |
| JP2019174784A (ja) | 音声翻訳装置、音声翻訳方法及びそのプログラム | |
| JP2020064151A (ja) | 再生システムおよびプログラム | |
| US20140297257A1 (en) | Motion sensor-based portable automatic interpretation apparatus and control method thereof | |
| CN105426154A (zh) | 一种语音输入控制的方法、装置及终端 | |
| JP2015172848A (ja) | 読唇入力装置、読唇入力方法及び読唇入力プログラム | |
| JP6392051B2 (ja) | 電子機器、方法およびプログラム | |
| JP6472823B2 (ja) | 信号処理装置、信号処理方法および属性付与装置 | |
| CN108986784B (zh) | 语音输出控制装置及语音输出控制方法 | |
| JP6483391B2 (ja) | 電子機器、方法およびプログラム |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180613 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180613 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190709 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190724 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6569926 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |