JP2015102667A - 電子機器 - Google Patents
電子機器 Download PDFInfo
- Publication number
- JP2015102667A JP2015102667A JP2013242907A JP2013242907A JP2015102667A JP 2015102667 A JP2015102667 A JP 2015102667A JP 2013242907 A JP2013242907 A JP 2013242907A JP 2013242907 A JP2013242907 A JP 2013242907A JP 2015102667 A JP2015102667 A JP 2015102667A
- Authority
- JP
- Japan
- Prior art keywords
- speaker
- processing unit
- utterance
- data
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は上記の点に鑑みてなされたものであり、本発明の目的は、同時に発話された内容のうち所望の発話内容に関する情報をユーザに容易に選択させることができる電子機器を提供することにある。
以下、図面を参照しながら本発明の第1の実施形態について説明する。
図1は、本実施形態に係る電子機器1の構成を示す概略ブロック図である。
電子機器1は、収音部11、タッチパネル12、及び制御部13を含んで構成される。
収音部11は、到来した音声を収録し、収録した音声を示す音声データを話者判別処理部132に出力する。収音部11は、音声による振動を電気信号に変換し、変換した電気信号を音声データとして生成するマイクロホン(例えば、エレクロレットコンデンサマイクロホン)を含んで構成される。収音部11は、複数のマイクロホンを備え、複数のチャネルの音声データを収録し、収録した音声データを制御部13に出力してもよい。
電子機器1の一面は、例えば、ほぼ矩形の形状を有し、片手で把持できる程度の大きさを有する。
ディスプレイ121は、制御部13から入力された表示データを視覚で認識可能に表示する。ディスプレイ121は、例えば、液晶表示パネル、有機EL(electroluminescence)表示パネルである。
タッチセンサ122は、操作物(例えば、ユーザの指)が接触した位置を検知することで操作入力を受け付け、検知した位置を示す操作データを生成し、生成した操作データを制御部13に出力する。タッチセンサ122は、例えば、静電容量センサを含んで構成される。ディスプレイ121がデータを表示する領域と、タッチセンサ122が位置を検出する領域の大部分は互いに重なり合っている。
音声認識データは、音声データに基づいて発話内容を認識する際に用いるデータである。音声認識データは、音響特徴量から音韻を特定するための音響モデルと、音韻から発話内容を示すテキストを特定するための言語モデルとからなる。音響モデル、言語モデルは、例えば、HMM(Hidden Markov Model、隠れマルコフモデル)である。
また、話者判別処理部132は、ある話者の話者別音声データと他の話者の話者別音声データとの間で、発話が重複している時間、つまり同時発話の有無を判定してもよい。話者判別処理部132は、同時発話の有無と同時発話している話者の組を示す同時発話データを生成し、生成した同時発話データを話者データと対応付けて音声認識処理部133に出力してもよい。
入力処理部134は、生成した表示データをディスプレイ121に出力する。これにより、入力処理部134は、ディスプレイ121に話者毎の発話内容を表示させる。
入力処理部134は、選択された話者の発話内容について、その発話内容を有効にするか否かの確認表示を含む確認表示データを生成し、生成した確認表示データをディスプレイ121に出力する。入力処理部134は、発話内容を有効にするか否かの確認表示について操作入力を受け付け可能に設定してもよい。また、確認表示データには、その話者の発話内容を継続して(その時点で入力された発話データが示す発話内容に限らない)有効にするか否かの確認表示が含まれてもよい。
また、その話者の発話内容を継続して有効にするか否かを示す確認表示を含む場合も、入力処理部134は、その話者の発話内容を継続して有効にするか否かが選択されたと同様に判定することができる。
入力処理部134は、選択された有効性に応じて、その発話内容を扱う。即ち、有効にすると選択された場合、入力処理部134は、有効にすると選択された発話内容を示す発話データについて、(i)アプリケーション処理部137に出力する。そして、(ii)アプリケーション処理部137でその発話データに係る処理が開始されたとき、入力処理部134は、ディスプレイ121に表示させているその発話内容を消去させる。
他方、無効にすると選択された場合、入力処理部134は、無効にすると選択された発話内容を示す発話データについて、(iii)消去し、(iv)ディスプレイ121に表示させているその発話内容を消去させる。
有効なものとして扱うとは、入力処理部134が、その発話データについて上述した(i)、(ii)を実行することを意味する。無効なものとして扱うとは、その発話データについて上述した(iii)、(iv)を実行することを意味する。
また、タイムアウト設定は、話者毎に独立に行われてもよいし、特定の話者について行われてもよいし、特定の話者(例えば、電子機器1の所持者以外の話者)以外の話者のグループについて共通して行われてもよい。
その話者の発話内容を継続して無効にすると選択された場合、入力処理部134は、次にその話者の発話内容を示す発話データが入力されたとき、その発話内容を無効なものとして扱う。
また、入力処理部134は、特定の話者(例えば、電子機器1の所持者)の発話内容を常に有効なものとして扱ってもよい。
次に、本実施形態に係る音声入力処理について説明する。次に説明する例では、電子機器1の所持者を主たる話者(主話者)とし、主に主話者以外の発話内容を示す発話データについての取り扱いについて説明する。ここで、主話者の発話内容を常に有効であるものとして扱い、他の話者の発話内容よりも優先させる。
図2は、本実施形態に係る音声入力処理を示すフローチャートである。
(ステップS101)話者判別処理部132は、収音部11から入力された音声データについて話者判別処理を行って、その音声を発話している話者を判別する。話者判別処理部132は、判別した話者を示す話者データを音声データと対応付けて音声認識処理部133に出力する。その後、ステップS102に進む。
(ステップS102)音声認識処理部133には、話者判別処理部132から入力された音声データについて音声認識処理を行って発話内容を認識し、認識した発話内容を示す発話データを生成する。音声認識処理部133は、音声データと対応付けて入力された話者データと生成した発話データとを対応付けて入力処理部134に出力する。その後、ステップS103に進む。
(ステップS104)入力処理部134は、表示データをディスプレイ121に出力してから予め定めた一定時間が経過したか否かを判定する。経過したと判定された場合(ステップS104 YES)、ステップS109に進む。経過していないと判定された場合(ステップS104 NO)、ステップS105に進む。
(ステップS106)入力処理部134は、選択された話者の発話内容について、その発話内容の有効性、つまり有効にするか否かの確認表示を含む確認表示データを生成し、生成した確認表示データをディスプレイ121に出力する。その後、ステップS107に進む。
(ステップS108)入力処理部134は、選択された有効性に応じて、その発話内容を扱う。即ち、有効にすると選択された場合、入力処理部134は、その発話内容を示す発話データをアプリケーション処理部137に出力する。無効にすると選択された場合、入力処理部134は、その発話内容を示す発話データを消去する。その後、図2に示す処理を終了する。
次に、図2に示す処理を実行したときに電子機器1のディスプレイ121に表示される画面の表示例について説明する。次の説明では、電子機器1においてブラウザの起動中に、発話により検索用のキーワードを入力する場合を例にとる。
図3は、本実施形態に係る表示例を示す図である。
図3(a)は、ステップS103により、話者毎の発話内容sp11、sp12が、話者によって異なる背景パターンで表示されていることを示す。発話内容sp11の背景パターンは点線による網掛けである。発話内容sp12の背景パターンは左下下がりの斜線による網掛けである。これにより発話内容毎の話者を容易に把握することができる。発話内容sp11は、主話者の発話内容「サファリパーク」を示す。発話内容sp12は、主話者以外の話者(例えば、小児)の発話内容「どこかに行くの」を示す。
図3(c)は、ステップS107において、確認表示e12が選択されたことに応じて、ステップS108において、発話内容sp12が無効なものと扱われ、発話内容sp12が消去されている。発話内容sp11「サファリパーク」は、引き続き表示されている。発話内容sp11が有効なものと扱われ、タイムアウト経過後に「サファリパーク」のみがキーワードとして検索に用いられる。
そのため、ある第1の話者が音声入力のために発声しているときに、他の第2の話者が発声したときでも、第1の話者は音声入力を中断することなく、第1の話者、第2の話者それぞれの発話内容を、有効とするか無効とするかを設定することができる。従って、第1の話者は、話者の設定をその都度変更する等の煩雑な操作を行うことなく、所望の発話内容、例えば、自己の発話内容や許可した話者の発話内容を選択し、選択した発話内容に係る動作を実行させることができる。
次に、本発明の第2の実施形態について説明する。上述と同一の構成については、同一の符号を付して説明を援用する。本実施形態に係る電子機器1のハードウェアの構成は、第1の実施形態に係る電子機器1と同様である。
但し、発話データについて、その発話内容の有効性についての設定が入力処理部134になされている場合、図2に示す音声入力処理のうち、ステップS105−S108を省略し、ステップS109を実行することができる。
図4に示す処理では、ステップS104において入力処理部134が、表示データをディスプレイ121に出力してから予め定めた一定時間が経過していないと判定された場合(ステップS104 NO)、ステップS104を繰り返す。
ここで、入力処理部134において、主話者の発話内容のみが有効と設定され、その他の話者の発話内容が無効と設定され、主話者、その他の話者が、それぞれ「サファリパーク」、「どこかに行くの」と発話した場合を仮定する。ステップS103では、図3(a)に示す表示がなされるが、図3(b)に示す確認表示がなされない。しかし、ステップS109では、主話者の発話「サファリパーク」のみが有効と扱われるので、図3(c)に示す表示がなされ、「サファリパーク」のみがタイムアウト経過後にキーワードとして検索に用いられる。
次に、本発明の第3の実施形態について説明する。上述と同一の構成については、同一の符号を付して説明を援用する。本実施形態に係る電子機器1のハードウェアの構成は、上述した実施形態に係る電子機器1と同様である。
但し、入力処理部134は、同時発話データが入力された場合、同時発話データが示す複数話者についての発話データに、その発話データが示す発話内容のテキストを話者間で共通する態様(モード)で表示することを指示するモードデータを付加する。入力処理部134は、モードデータを付加した発話データをディスプレイ121に出力させ、その発話データが示す発話内容のテキストをモードデータが示す態様でディスプレイ121に表示させる。共通する態様とは、例えば、文字の色、背景色、背景パターン、字体、装飾、等のいずれか、またはその組み合わせが共通であることを意味する。これにより、ユーザは、表示された発話内容が同時に発話されたことを直感的に認識することができる。
また、入力処理部134には、主話者以外の各話者(例えば、話者A、話者Bのそれぞれ)について、その発話内容を有効なものとして扱うか、無効なものとして扱うかについて設定しておく。
図5は、本実施形態に係る音声入力処理を示すフローチャートである。
図5に示す音声入力処理は、図2に示す音声入力処理において、ステップS103、S109に代えて、ステップS113、S119を有する。ステップS102が終了した後、ステップS113に進む。
(ステップS113)入力処理部134は、入力された同時発話データが示す複数話者について共通する態様で、発話データが示す発話内容を示すテキストをディスプレイ121に表示させる。その後、ステップS104に進む。
そして、ステップS104において、入力処理部134が、表示データをディスプレイ121に出力してから予め定めた一定時間が経過したと判定した後(ステップS104 YES)、ステップS119に進む。
(ステップS119)入力処理部134は、予め定めた話者毎の設定に応じた処理を実行する。ここで、発話内容を有効なものとして扱うと設定された話者の発話データについては、入力処理部134は、その発話データをアプリケーション処理部137に出力する。発話内容を無効なものとして扱うと設定された話者の発話データについては、入力処理部134は、その発話データを消去する。その後、図5に示す処理を終了する。
次に、図5に示す処理を実行したときにディスプレイ121に表示される画面の表示例について説明する。次の説明では、電子機器1においてブラウザの起動中に、発話により検索用のキーワードを入力する場合を例にとる。
図6は、本実施形態に係る表示例を示す図である。
図6(a)は、ステップS113により、話者毎の発話内容sp21、sp22、sp23が表示されていることを示す。ここで、発話内容sp21は実線の矩形で囲まれている。しかし、発話内容sp22、sp23が破線の矩形で囲まれている点で、表示態様が共通であり、その他の発話内容sp21よりも互いに近接して表示されている。発話内容sp22、sp23の背景パターンは、それぞれ左下下がりの斜線及び右下下がり斜線による網掛けが施されている。これにより、ユーザは、発話内容sp22、sp23が同時に発話されたものであって取り扱いが未確定であることを容易に把握することができる。
図6(c)は、ステップS107において、確認表示e11が選択されたことにより、ステップS108において、発話内容sp22が有効なものと扱われ、その表示態様が変更されている。ここで、発話内容sp22を示す「山口県」が実線で囲まれ、背景パターンも縦線の網掛けに変更されている。但し、発話内容sp23については、取り扱いが未確定であるため、表示態様が変更されていない。
図6(d)は、ステップS119において、発話内容sp21の「サファリパーク」、発話内容sp22の「山口県」が有効なものと扱われ、ともにキーワードとして検索に用いられることを示す。これに対し、発話内容sp23は、ステップS104において一定時間が経過したと判定されたことに応じて、ステップS119で、発話内容sp23の話者の発話内容が無効なものとして扱われたことにより、その表示が消去されている。
次に、本発明の第4の実施形態について説明する。上述と同一の構成については、同一の符号を付して説明を援用する。
図7は、本実施形態に係る電子機器2の構成を示す概略図である。
電子機器2は、電子機器1(図2)に撮像部24を含んで構成される。撮像部24は、例えば、ズームレンズ、イメージセンサ、及び電子シャッターを含んだカメラモジュールである。
そして、入力処理部134は、関連語句を示す表示データを操作入力が受け付け可能になるように生成し、生成した表示データをディスプレイ121に出力する。また、入力処理部134は、ディスプレイ121に表示させた関連語句のうち、操作により選択されたか否かを判定する。選択されたと判定された場合、入力処理部134は、選択された関連語句を有効なものとして扱う。ここで、入力処理部134は、関連語句を示す発話データをアプリケーション処理部137に出力し、アプリケーション処理部137にその発話データに係る処理を実行させる。
また、独立して発揮する機能の命令を示す関連語句(独立的関連語句)についてアプリケーション処理部137で処理が行われた後、入力処理部134は、関連語句のうち他の機能を補助する機能の命令を示すもの(補助的関連語句)を、無効なものとして扱ってもよい。独立的関連語句には、カメラに対する操作を例にとると、「撮影」がある。補助的関連語句には、例えば「撮影」に付随する「ズームイン」、「コントラストUP」がある。
次に、電子機器2のディスプレイ121に表示される画面の表示例について説明する。次の説明では撮像部24の動作を制御するデバイスドライバに対して、発話により命令を入力する場合を例にとる。語句データには、命令として用いられる語句が関連語句として格納され、抽出語句として関連語句、その関連語句との類義語、及びその関連語句を示唆もしくは連想する語句が含まれることを仮定する。
図8(a)には、2名の人物を被写体とする画像の下方に関連語句sp31、sp32が、話者によって異なる背景パターンで表示されていることを示す。関連語句sp31の「ズームイン」、sp32の「コントラストUP」は、それぞれ画像を拡大することを指示する命令、画像における明るい部分と暗い部分との明暗の差を増加することを指示する命令である。また、sp31及びsp32の背景パターンは、それぞれ点線及び左下下がりの実線の網掛けであって、互いに異なる。また、「ズームイン」は、主話者以外のある話者(話者A)の発話内容の「大きく写してね」から抽出された抽出語句「大きく」に対応する関連語句である。「コントラストUP」は、他の話者(話者B)の発話内容の「明るくていいね」から抽出された抽出語句「明るく」に対応する関連語句である。
図8(c)は、主話者が、例えば「シャッター」と発話して「撮影」することが指示された後、選択されなかった関連語句sp32の「コントラストUP」の表示が消去されたことを示す。「撮影」は、主話者の発話内容がそのまま抽出された抽出語句「シャッター」に対応する関連語句である。なお、話者Bの発話により発話データが入力されてから一定時間経過し、かつ話者Bの発話内容が無効なものとして扱うと設定されている場合に、入力処理部134は、話者Bの発話内容に基づく関連語句sp32を無効なものとして扱い、その表示を消去させてもよい。
そのため、発話内容それ自体に限らず、これに関する情報についても、設定をその都度変更する等の煩雑な操作を行うことなく、所望の発話内容に関する情報を選択し、選択した発話内容に関する情報に係る動作を実行させることができる。
(1)入力された音声データに基づいて話者を判別する話者判別処理部と、前記話者判別処理部が判別した話者毎の発話内容を認識する音声認識処理部と、前記音声認識処理部が認識した話者毎の発話内容に関する情報を表示部に表示させ、操作に基づいて前記表示させた情報が有効か否かを判定する入力処理部と、を備える電子機器。
(2)(1)の電子機器であって、前記入力処理部は、予め定めた主話者以外の話者の発話内容に関する情報が有効か否かを判定する。
(3)(2)の電子機器であって、前記入力処理部は、前記発話内容に関する情報を表示部に表示させてから予め定めた時間、操作がなかった場合、当該発話内容に関する情報に係る処理を話者毎に有効か否かを設定することができる。
(4)(2)又は(3)の電子機器であって、前記入力処理部は、複数の話者が同時に発話した場合、前記複数の話者に共通な態様で前記情報を前記表示部に表示させる。
(5)(1)から(4)のいずれかの電子機器であって、前記入力処理部は、前記表示部に表示させた情報のうち、無効と判定した情報の表示を消去させる。
(7)電子機器のコンピュータに、入力された音声データに基づいて話者を判別する話者判別処理手順、前記話者判別処理手順で判別した話者毎の発話内容を認識する音声認識処理手順、前記音声認識処理手順で認識した話者毎の発話内容に関する情報を表示部に表示させ、操作に基づいて前記表示させた情報が有効か否かを判定する入力処理手順、を実行させるための入力処理プログラム。
また、上述した実施形態における電子機器1、2の一部、または全部を、LSI(Large Scale Integration)等の集積回路として実現してもよい。電子機器1の各機能ブロックは個別にプロセッサ化してもよいし、一部、または全部を集積してプロセッサ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現してもよい。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いてもよい。
122…タッチセンサ、13…制御部、131…記憶部、132…話者判別処理部、
133…音声認識処理部、134…入力処理部、136…操作処理部、
137…アプリケーション処理部、24…撮像部
Claims (5)
- 入力された音声データに基づいて話者を判別する話者判別処理部と、
前記話者判別処理部が判別した話者毎の発話内容を認識する音声認識処理部と、
前記音声認識処理部が認識した話者毎の発話内容に関する情報を表示部に表示させ、
操作に基づいて前記表示させた情報が有効か否かを判定する入力処理部と、
を備える電子機器。 - 前記入力処理部は、予め定めた主話者以外の話者の発話内容に関する情報が有効か否かを判定する請求項1に記載の電子機器。
- 前記入力処理部は、前記発話内容に関する情報を表示部に表示させてから予め定めた時間、操作がなかった場合、当該発話内容に関する情報に係る処理を話者毎に有効か否かを設定することができる請求項2に記載の電子機器。
- 前記入力処理部は、複数の話者が同時に発話した場合、前記複数の話者に共通な態様で前記情報を前記表示部に表示させる請求項2又は請求項3に記載の電子機器。
- 前記入力処理部は、前記表示部に表示させた情報のうち、無効と判定した情報の表示を消去させる請求項1から請求項4のいずれかに記載の電子機器。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013242907A JP2015102667A (ja) | 2013-11-25 | 2013-11-25 | 電子機器 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013242907A JP2015102667A (ja) | 2013-11-25 | 2013-11-25 | 電子機器 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015102667A true JP2015102667A (ja) | 2015-06-04 |
Family
ID=53378406
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013242907A Pending JP2015102667A (ja) | 2013-11-25 | 2013-11-25 | 電子機器 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015102667A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111698378A (zh) * | 2019-03-15 | 2020-09-22 | 柯尼卡美能达株式会社 | 控制装置、图像形成系统以及记录介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10198393A (ja) * | 1997-01-08 | 1998-07-31 | Matsushita Electric Ind Co Ltd | 会話記録装置 |
JP2005350018A (ja) * | 2004-06-14 | 2005-12-22 | Honda Motor Co Ltd | 車載用電子制御装置 |
JP2006301223A (ja) * | 2005-04-20 | 2006-11-02 | Ascii Solutions Inc | 音声認識システム及び音声認識プログラム |
JP2008309856A (ja) * | 2007-06-12 | 2008-12-25 | Yamaha Corp | 音声認識装置及び会議システム |
JP2012059121A (ja) * | 2010-09-10 | 2012-03-22 | Softbank Mobile Corp | 眼鏡型表示装置 |
-
2013
- 2013-11-25 JP JP2013242907A patent/JP2015102667A/ja active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10198393A (ja) * | 1997-01-08 | 1998-07-31 | Matsushita Electric Ind Co Ltd | 会話記録装置 |
JP2005350018A (ja) * | 2004-06-14 | 2005-12-22 | Honda Motor Co Ltd | 車載用電子制御装置 |
JP2006301223A (ja) * | 2005-04-20 | 2006-11-02 | Ascii Solutions Inc | 音声認識システム及び音声認識プログラム |
JP2008309856A (ja) * | 2007-06-12 | 2008-12-25 | Yamaha Corp | 音声認識装置及び会議システム |
JP2012059121A (ja) * | 2010-09-10 | 2012-03-22 | Softbank Mobile Corp | 眼鏡型表示装置 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111698378A (zh) * | 2019-03-15 | 2020-09-22 | 柯尼卡美能达株式会社 | 控制装置、图像形成系统以及记录介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2349969C2 (ru) | Синхронное понимание семантических объектов, реализованное с помощью тэгов речевого приложения | |
KR101066741B1 (ko) | 컴퓨터 시스템과 동적으로 상호작용하기 위한 컴퓨터 구현 방법, 시스템, 및 컴퓨터 판독가능 기록 매체 | |
US10777193B2 (en) | System and device for selecting speech recognition model | |
US9129011B2 (en) | Mobile terminal and control method thereof | |
US7010490B2 (en) | Method, system, and apparatus for limiting available selections in a speech recognition system | |
KR102141116B1 (ko) | 음성 대화 서비스를 지원하는 인터페이스 장치 및 방법 | |
NZ732357A (en) | Headless task completion within digital personal assistants | |
JPWO2016103988A1 (ja) | 情報処理装置、情報処理方法およびプログラム | |
KR101545881B1 (ko) | 휴대 단말기의 입력 처리 장치 및 방법 | |
BR112015018905B1 (pt) | Método de operação de recurso de ativação por voz, mídia de armazenamento legível por computador e dispositivo eletrônico | |
JP6418820B2 (ja) | 情報処理装置、表示制御方法、及びコンピュータプログラム | |
JP2006048628A (ja) | マルチモーダル入力方法 | |
US20100178956A1 (en) | Method and apparatus for mobile voice recognition training | |
EP3422344B1 (en) | Electronic device for performing operation corresponding to voice input | |
JP7116088B2 (ja) | 音声情報処理方法、装置、プログラム及び記録媒体 | |
CN108538284A (zh) | 同声翻译结果的展现方法及装置、同声翻译方法及装置 | |
WO2021208531A1 (zh) | 一种语音处理方法、装置和电子设备 | |
FI128000B (en) | Speech recognition method and device based on a wake up word | |
WO2016103809A1 (ja) | 情報処理装置、情報処理方法およびプログラム | |
CN113223542B (zh) | 音频的转换方法、装置、存储介质及电子设备 | |
US20170301349A1 (en) | Speech recognition system | |
JP2015102667A (ja) | 電子機器 | |
CN105788590A (zh) | 语音识别方法及装置、移动终端 | |
CN109658933B (zh) | 一种语音识别解锁方法、移动终端及存储器 | |
US20070118381A1 (en) | Voice control methods |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20150520 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160923 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170907 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170926 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20180417 |