JP2014225796A - Electronic apparatus, control method and control program - Google Patents
Electronic apparatus, control method and control program Download PDFInfo
- Publication number
- JP2014225796A JP2014225796A JP2013104376A JP2013104376A JP2014225796A JP 2014225796 A JP2014225796 A JP 2014225796A JP 2013104376 A JP2013104376 A JP 2013104376A JP 2013104376 A JP2013104376 A JP 2013104376A JP 2014225796 A JP2014225796 A JP 2014225796A
- Authority
- JP
- Japan
- Prior art keywords
- voice
- input
- smartphone
- character string
- application
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本出願は、電子機器、制御方法、及び制御プログラムに関する。 The present application relates to an electronic device, a control method, and a control program.
タッチスクリーンを備えるタッチスクリーンデバイスが知られている。タッチスクリーンデバイスは、例えば、携帯電話、スマートフォン及びタブレットなどの電子機器を含むが、これらに限定されない。タッチスクリーンデバイスは、タッチスクリーンを介して指、ペン、又はスタイラスペンのジェスチャを検出する。タッチスクリーンデバイスは、検出したジェスチャに従って動作する。検出したジェスチャに従った動作の例は、例えば、特許文献1に記載されている。
Touch screen devices comprising a touch screen are known. Examples of touch screen devices include, but are not limited to, electronic devices such as mobile phones, smartphones, and tablets. The touch screen device detects a finger, pen, or stylus pen gesture via the touch screen. The touch screen device operates according to the detected gesture. An example of the operation according to the detected gesture is described in
タッチスクリーンデバイスの基本的な動作は、デバイスに搭載されるOS(Operating System)によって実現される。タッチスクリーンデバイスに搭載されるOSは、例えば、Android(登録商標)、BlackBerry(登録商標) OS、iOS、Symbian(登録商標) OS、及びWindows(登録商標) Phoneを含むが、これらに限定されない。 The basic operation of the touch screen device is realized by an OS (Operating System) installed in the device. Examples of the OS installed in the touch screen device include, but are not limited to, Android (registered trademark), BlackBerry (registered trademark) OS, iOS, Symbian (registered trademark) OS, and Windows (registered trademark) Phone.
近年、上記電子機器の中に、ジェスチャによる操作だけでなく、音声入力により操作を可能にする対話型のインタフェースを備えるものが普及しはじめている。これらの電子機器は、音声により、例えば、アプリケーションの起動、インターネット検索などの操作を実現する。 In recent years, among the above-mentioned electronic devices, those equipped with an interactive interface that enables operations not only by gestures but also by voice input have begun to become widespread. These electronic devices realize operations such as application activation and Internet search, for example, by voice.
対話型のインタフェースを備える電子機器には、対話型のインタフェースを介する処理に改善の余地がある。 An electronic device having an interactive interface has room for improvement in processing via the interactive interface.
1つの態様に係る電子機器は、マイクと、前記マイクを介して入力される音声に基づく音声制御を実行するコントローラとを有し、前記コントローラは、前記音声制御によって選択されるアプリケーションの入力フィールドに挿入する文字列の音声入力を、前記音声制御により終了させる。 An electronic device according to one aspect includes a microphone and a controller that performs voice control based on voice input through the microphone, and the controller is provided in an input field of an application selected by the voice control. The voice input of the character string to be inserted is terminated by the voice control.
1つの態様に係る制御方法は、マイクを有する電子機器を制御する制御方法であって、前記マイクを介して入力される音声に基づく音声制御を実行するステップと、前記音声制御によって選択されるアプリケーションの入力フィールドに挿入する文字列の音声入力を、前記音声制御により終了させるステップとを含む。 The control method which concerns on one aspect is a control method which controls the electronic device which has a microphone, Comprising: The step which performs the audio | voice control based on the audio | voice input via the said microphone, The application selected by the said audio | voice control Ending voice input of a character string to be inserted into the input field by the voice control.
1つの態様に係る制御プログラムは、マイクを有する電子機器に、前記マイクを介して入力される音声に基づく音声制御を実行するステップと、前記音声制御によって選択されるアプリケーションの入力フィールドに挿入する文字列の音声入力を、前記音声制御により終了させるステップとを実行させる。 A control program according to one aspect includes a step of executing voice control based on voice input through the microphone on an electronic device having a microphone, and a character to be inserted into an input field of an application selected by the voice control A step of ending the voice input of the row by the voice control.
本出願に係る電子機器、制御方法、及び制御プログラムを実施するための実施形態を、図面を参照しつつ詳細に説明する。以下では、電子機器の一例として、スマートフォンを取り上げて説明する。 Embodiments for carrying out an electronic device, a control method, and a control program according to the present application will be described in detail with reference to the drawings. Hereinafter, a smartphone will be described as an example of an electronic device.
(実施形態)
図1を参照しながら、実施形態に係るスマートフォン1の機能的な構成について説明する。図1は、実施形態に係るスマートフォンのブロック図である。以下の説明においては、同様の構成要素に同一の符号を付すことがある。重複する説明は省略することがある。
(Embodiment)
A functional configuration of the
図1に示すように、スマートフォン1は、タッチスクリーンディスプレイ2と、ボタン3と、照度センサ4と、近接センサ5と、通信ユニット6と、レシーバ7と、マイク8と、ストレージ9と、コントローラ10と、スピーカ11と、カメラ12と、姿勢検出ユニット15と、バイブレータ18とを備える。
As shown in FIG. 1, the
タッチスクリーンディスプレイ2は、ディスプレイ2Aと、タッチスクリーン2Bとを有する。ディスプレイ2A及びタッチスクリーン2Bは、例えば、重ねて配置されてもよいし、並べて配置されてもよいし、離して配置されてもよい。ディスプレイ2Aとタッチスクリーン2Bとが重ねて配置される場合、例えば、ディスプレイ2Aの1ないし複数の辺がタッチスクリーン2Bのいずれの辺とも沿っていなくてもよい。
The
ディスプレイ2Aは、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機ELディスプレイ(OELD:Organic Electro−Luminescence Display)、又は無機ELディスプレイ(IELD:Inorganic Electro−Luminescence Display)等の表示デバイスを備える。ディスプレイ2Aは、文字、画像、記号、及び図形等を表示する。ディスプレイ2Aが表示する文字、画像、記号、及び図形等を含む画面には、ロック画面と呼ばれる画面、及びホーム画面と呼ばれる画面が含まれる。ホーム画面は、デスクトップ、待受画面、アイドル画面又は標準画面と呼ばれることもある。
The
タッチスクリーン2Bは、タッチスクリーン2Bに対する指、ペン、又はスタイラスペン等の接触を検出する。タッチスクリーン2Bは、複数の指、ペン、又はスタイラスペン等(以下、単に「指」という)がタッチスクリーン2Bに接触した位置を検出することができる。タッチスクリーン2Bは、タッチスクリーン2B(タッチスクリーンディスプレイ2)に対する指の接触を、接触された場所のタッチスクリーンディスプレイ2上での位置とともに、コントローラ10に通知する。
The
タッチスクリーン2Bの検出方式は、静電容量方式、抵抗膜方式、表面弾性波方式(又は超音波方式)、赤外線方式、電磁誘導方式、及び荷重検出方式等の任意の方式でよい。以下の説明では、説明を簡単にするため、利用者はスマートフォン1を操作するために指を用いてタッチスクリーン2Bに接触するものと想定する。
The detection method of the
コントローラ10(スマートフォン1)は、タッチスクリーン2Bにより検出された接触、接触が検出された位置、接触が検出された位置の変化、接触が検出された間隔、及び接触が検出された回数の少なくとも1つに基づいて、ジェスチャの種別を判別する。ジェスチャは、指を用いて、タッチスクリーン2B(タッチスクリーンディスプレイ2)に対して行われる操作である。コントローラ10(スマートフォン1)が、タッチスクリーン2Bを介して判別するジェスチャには、例えば、タッチ、ロングタッチ、リリース、スワイプ、タップ、ダブルタップ、ロングタップ、ドラッグ、フリック、ピンチイン、及びピンチアウトが含まれるがこれらに限定されない。
The controller 10 (smart phone 1) has at least one of the contact detected by the
ボタン3は、利用者からの操作入力を受け付ける。ボタン3の数は、単数であっても、複数であってもよい。
The
照度センサ4は、スマートフォン1の周囲光の照度を検出する。照度は、光の強さ、明るさ、又は輝度を示す。照度センサ4は、例えば、ディスプレイ2の輝度の調整に用いられる。
The
近接センサ5は、近隣の物体の存在を非接触で検出する。近接センサ5は、磁界の変化又は超音波の反射波の帰還時間の変化等に基づいて物体の存在を検出する。近接センサ5は、例えば、ディスプレイ2が顔に近づけられたことを検出する。照度センサ4及び近接センサ5は、1つのセンサとして構成されていてもよい。照度センサ4は、近接センサとして用いられてもよい。
The
通信ユニット6は、無線により通信する。通信ユニット6によってサポートされる無線通信規格には、例えば、2G、3G、4G等のセルラーフォンの通信規格と、近距離無線の通信規格がある。セルラーフォンの通信規格としては、例えば、LTE(Long Term Evolution)、W−CDMA(Wideband Code Division Multiple Access)、WiMAX(Worldwide Interoperability for Microwave Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile Communications)、PHS(Personal Handy−phone System)等がある。近距離無線の通信規格としては、例えば、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、NFC(Near Field Communication)、WPAN(Wireless Personal Area Network)等がある。WPANの通信規格には、例えば、ZigBee(登録商標)がある。通信ユニット6は、上述した通信規格の1つ又は複数をサポートしていてもよい。
The
通信ユニット6は、GPS衛星からの所定の周波数帯の電波信号を受信し、受信した電波信号の復調処理を行って、処理後の信号をコントローラ10に送出する。スマートフォン1は、GPS衛星との通信機能を通信ユニット6から分散させて、通信ユニット6から独立した個別の通信部を設けてもよい。
The
レシーバ7は、音出力部である。レシーバ7は、コントローラ10から送信される音信号を音として出力する。レシーバ7は、例えば、通話時に相手の声を出力するために用いられる。マイク8は、音入力部である。マイク8は、利用者の音声等を音信号へ変換してコントローラ10へ送信する。
The
ストレージ9は、プログラム及びデータを記憶する。ストレージ9は、コントローラ10の処理結果を一時的に記憶する作業領域としても利用される。ストレージ9は、半導体記憶媒体、及び磁気記憶媒体等の任意の非一過的(non−transitory)な記憶媒体を含んでよい。ストレージ9は、複数の種類の記憶媒体を含んでよい。ストレージ9は、メモリカード、光ディスク、又は光磁気ディスク等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。ストレージ9は、RAM(Random Access Memory)等の一時的な記憶領域として利用される記憶デバイスを含んでよい。
The storage 9 stores programs and data. The storage 9 is also used as a work area for temporarily storing the processing result of the
ストレージ9に記憶されるプログラムには、フォアグランド又はバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラムとが含まれる。フォアグランドで実行されるアプリケーションは、例えば、ディスプレイ2に画面が表示される。制御プログラムには、例えば、OSが含まれる。アプリケーション及び制御プログラムは、通信ユニット6による無線通信又は非一過的な記憶媒体を介してストレージ9にインストールされてもよい。
The programs stored in the storage 9 include an application executed in the foreground or the background and a control program that supports the operation of the application. For example, an application executed in the foreground displays a screen on the
ストレージ9は、例えば、制御プログラム9A、通話アプリケーション9B、SMSアプリケーション9C、Eメールアプリケーション9D、メモ帳アプリケーション9E、動画アプリケーション9F、ブラウザアプリケーション9G、電話帳データ9Y及び設定データ9Zなどを記憶する。
The storage 9 stores, for example, a control program 9A, a call application 9B, an SMS application 9C, an
制御プログラム9Aは、スマートフォン1を稼働させるための各種制御に関する機能を提供する。制御プログラム9Aは、マイク8を介して入力される音声に基づく音声制御を実行する対話型のインタフェース機能を提供する。対話型のインタフェース機能には、対話型のインタフェース機能の実行中であることを示す実行画面をディスプレイ2Aに表示させる機能が含まれる。対話型のインタフェース機能には、マイク8により入力される音声を認識し、認識結果に応じて音声及び文字などで応答する機能が含まれる。
The control program 9A provides functions related to various controls for operating the
制御プログラム9Aは、ユーザにより入力される音声を認識し、認識結果に基づいて処理を実行する機能を提供する。この機能には、音声の認識に成功した場合に、ストレージ9に記憶されているアプリケーションの中から、認識結果に対応するアプリケーションを自動的に実行する機能が含まれる。 The control program 9A provides a function of recognizing voice input by the user and executing processing based on the recognition result. This function includes a function of automatically executing an application corresponding to the recognition result from the applications stored in the storage 9 when the speech recognition is successful.
制御プログラム9Aは、ユーザにより入力される音声を認識し、認識結果に基づいて処理を実行できない場合に、ストレージ9に記憶されているアプリケーションの一覧を表示する機能を提供する。認識結果に基づいて処理を実行できない場合には、例えば、音声の認識に失敗した場合、あるいは、ストレージ9に記憶されているアプリケーションの中から、認識結果に対応するアプリケーションを検出できないと判定した場合が含まれる。 The control program 9A provides a function of recognizing a voice input by the user and displaying a list of applications stored in the storage 9 when the process cannot be executed based on the recognition result. When the process cannot be executed based on the recognition result, for example, when the voice recognition fails or when it is determined that the application corresponding to the recognition result cannot be detected from the applications stored in the storage 9 Is included.
制御プログラム9Aは、対話型のインタフェース機能を介した音声制御によって選択されるアプリケーションの入力フィールドに挿入する文字列の音声入力を、音声制御により終了させるための機能を提供する。具体的には、制御プログラム9Aは、対話型インタフェースを介して音声入力される所定のキーワードを検出した場合、あるいは対話型インタフェースを介した音声の入力回数が閾値以上であると判定した場合に、音声制御により選択されるアプリケーションの入力フィールドに挿入する文字列の音声入力を終了するための機能を提供する。 The control program 9A provides a function for ending voice input of a character string to be inserted into an input field of an application selected by voice control via an interactive interface function by voice control. Specifically, when the control program 9A detects a predetermined keyword input by voice through the interactive interface or determines that the number of input voices through the interactive interface is greater than or equal to a threshold value, Provided is a function for terminating voice input of a character string to be inserted into an input field of an application selected by voice control.
例えば、制御プログラム9Aは、対話型インタフェースを介してEメールアプリケーション9Dが選択されている場合、Eメールアプリケーション9Dに関する音声制御をコントローラ10に開始させる。本実施形態において、Eメールアプリケーション9D及びメモ帳アプリケーション9Eが音声制御を実行すべきアプリケーションとして予め登録されているものとする。本実施形態において、Eメールアプリケーション9Dが音声制御に関する音声制御とは、Eメールアプリケーション9Dの本文のフィールドに対して挿入する文字列に対応する音声として複数回の音声入力を可能とする一方で、所定のキーワードの検出あるいは音声の入力回数により音声入力を終了させる制御に該当する。続いて、制御プログラム9Aは、Eメールアプリケーション9Dを所定のキーワードが検出されるまでの間、Eメールアプリケーション9Dの本文のフィールドに挿入すべき文字列として、音声入力される文字列をストレージ9の記憶領域に保存する処理をコントローラ10に実現させる。制御プログラム9Aは、所定のキーワードが入力されると、Eメールアプリケーション9Dの本文のフィールドに挿入する文字列の音声入力を終了する処理をコントローラ10に実現させる。あるいは、制御プログラム9Aは、Eメールアプリケーション9Dの本文のフィールドに挿入すべき文字列に対応する音声の入力を開始してから音声の入力回数が閾値以上となるまでの間、Eメールアプリケーション9Dの本文のフィールドに挿入すべき文字列として、音声入力される文字列をストレージ9の記憶領域に保存する処理をコントローラ10に実現させる。制御プログラム9Aは、音声の入力回数が閾値以上となると、Eメールアプリケーション9Dの本文のフィールドに挿入する文字列の音声入力を終了する処理をコントローラ10に実現させる。
For example, when the
制御プログラム9Aは、音声制御により音声入力を終了すると、音声制御により選択されたアプリケーションを起動し、起動したアプリケーションの入力フィールドに音声入力された文字列を挿入するための機能を提供する。 The control program 9A provides a function for starting an application selected by voice control when voice input is finished by voice control and inserting a character string input by voice into the input field of the started application.
例えば、制御プログラム9Aは、対話型インタフェースを介してEメールアプリケーション9Dが選択されている場合、上記音声制御により音声入力を終了すると、Eメールアプリケーション9Dを起動し、起動したEメールアプリケーション9Dの本文に、Eメールアプリケーション9Dの本文のフィールドに挿入する文字列すべき文字列としてストレージ9に保存しておいた文字列を挿入する。
For example, when the
その他、制御プログラム9Aは、通信ユニット6などを制御することによって、LTE(Long Term Evolution)、W−CDMA(Wideband Code Division Multiple Access)、WiMAX(Worldwide Interoperability for Microwave Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile Communications)、PHS(Personal Handy−phone System)などを用いた通信を実現させるための機能を提供する。
In addition, the control program 9A controls the
制御プログラム9Aは、通信ユニット6などを制御することによって、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、NFC(Near Field Communication)、WPAN(Wireless Personal Area Network)等を用いた近距離無線通信を実現させるための機能を提供する。
The control program 9A controls the
制御プログラム9Aは、例えば、通信ユニット6及びマイク8などを制御することによって、通話を実現させるための機能を提供する。
The control program 9A provides a function for realizing a call by controlling the
制御プログラム9Aにより提供される機能は、通話を実現させる場合、通話アプリケーション9B又はEメールアプリケーション9Dなど、ストレージ9に記憶される他のプログラムなどが提供する機能と組み合わせて利用されることがある。例えば、制御プログラム9Aにより提供される上記対話型のインタフェース機能と、制御プログラム9Aにより提供される他の機能とは、組み合わせて利用されることがある。制御プログラム9Aにより提供される各機能は、複数のプログラムモジュールに分割されていてもよいし、他のプログラムと結合されていてもよい。例えば、制御プログラム9Aにより提供される対話型のインタフェース機能は、他のモジュールに分割されていてもよい。
The functions provided by the control program 9A may be used in combination with functions provided by other programs stored in the storage 9, such as the call application 9B or the
通話アプリケーション9Bは、通話を実現するための機能を提供する。SMSアプリケーション9Cは、SMS(Short Message Service)として、所定の文字数以内のメールを送受信するための機能を提供する。Eメールアプリケーション9Dは、電子メールの作成、送信、受信、及び表示等のための電子メール機能を提供する。メモ帳アプリケーション9Eは、テキストデータの作成及び管理するためのテキストエディタ機能を提供する。動画アプリケーション9Fは、動画の再生などを行うための機能を提供する。ブラウザアプリケーション9Gは、ブラウジング機能を提供する。ストレージ9に記憶されるアプリケーションは一例に過ぎない。図1に示すもの以外に、ナビゲートアプリケーション、音楽プレイヤーアプリケーション、計算機アプリケーション、付箋アプリケーションなど、複数のアプリケーションが記憶されていてもよい。
The call application 9B provides a function for realizing a call. The SMS application 9C provides a function for sending and receiving mail within a predetermined number of characters as SMS (Short Message Service). The
電話帳データ9Yは、電話番号、メールアドレスなどの情報を含む。設定データ9Zは、スマートフォン1の動作に関連する各種の設定及び処理に関する情報を含む。例えば、設定データ9Zには、音声制御を終了するための閾値の情報が含まれる。その他、ストレージ9には、コントローラ10による処理により、マイク8を介して音声入力される文字列のデータが保存される。
The
コントローラ10は、演算処理装置である。演算処理装置は、例えば、CPU(Central Processing Unit)、SoC(System−on−a−chip)、MCU(Micro Control Unit)、及びFPGA(Field−Programmable Gate Array)を含むが、これらに限定されない。コントローラ10は、スマートフォン1の動作を統括的に制御して各種の機能を実現する。
The
具体的には、コントローラ10は、ストレージ9に記憶されているデータを必要に応じて参照しつつ、ストレージ9に記憶されているプログラムに含まれる命令を実行する。コントローラ10は、データ及び命令に応じて機能部を制御し、それによって各種機能を実現する。機能部は、例えば、ディスプレイ2、通信ユニット6、レシーバ7、マイク8、及びスピーカ11を含むが、これらに限定されない。コントローラ10は、検出部の検出結果に応じて、制御を変更することがある。検出部は、例えば、ボタン3、照度センサ4、近接センサ5、マイク8、カメラ12、姿勢検出ユニット15、及びタッチスクリーン21を含むが、これらに限定されない。
Specifically, the
コントローラ10は、制御プログラム9Aを実行することにより、対話型のインタフェースによる処理を実現する。例えば、コントローラ10は、対話型のインタフェース機能の実行中であることを示す実行画面をディスプレイ2Aに表示させる。例えば、コントローラ10は、マイク8により入力される音声を認識し、認識結果に応じて音声及び文字などで応答する。
The
コントローラ10は、制御プログラム9Aを実行することにより、ユーザにより入力される音声を認識し、認識結果に基づく処理を実現する。例えば、コントローラ10は、音声の認識に成功した場合に、ストレージ9に記憶されているアプリケーションの中から、認識結果に対応するアプリケーションを自動的に起動する。
The
コントローラ10は、制御プログラム9Aを実行することにより、ユーザにより入力される音声を認識し、認識結果に基づいて処理を実行できない場合に、ストレージ9に記憶されているアプリケーションの一覧を表示する処理を実現する。認識結果に基づいて処理を実行できない場合には、例えば、音声の認識に失敗した場合、または、ストレージ9に記憶されているアプリケーションの中から、認識結果に対応するアプリケーションを検出できないと判定した場合が含まれる。
The
コントローラ10は、制御プログラム9Aを実行することにより、対話型のインタフェース機能を介した音声制御によって選択されるアプリケーションの入力フィールドに挿入する文字列の音声入力を、音声制御により終了させる処理を実現する。具体的には、コントローラ10は、対話型インタフェースを介して音声入力される所定のキーワードを検出した場合、あるいは対話型インタフェースを介した音声の入力回数が閾値以上であると判定した場合に、音声制御により選択されるアプリケーションの入力フィールドに挿入する文字列の音声入力を終了する。
By executing the control program 9A, the
例えば、コントローラ10は、対話型インタフェースを介してEメールアプリケーション9Dが選択されている場合、Eメールアプリケーション9Dが音声制御に関する音声制御を開始する。本実施形態において、Eメールアプリケーション9D及びメモ帳アプリケーション9Eが音声制御を実行すべきアプリケーションとして予め登録されているものとする。本実施形態において、例えば、Eメールアプリケーション9Dが音声制御に関する音声制御とは、Eメールアプリケーション9Dの本文のフィールドに対して挿入する文字列に対応する音声として複数回の音声入力を可能とする一方で、所定のキーワードの検出あるいは音声の入力回数により音声入力を終了させる制御に該当する。続いて、コントローラ10は、所定のキーワードが検出されるまでの間、Eメールアプリケーション9Dの本文のフィールドに挿入すべき文字列として、音声入力される文字列をストレージ9の記憶領域に保存する。コントローラ10は、所定のキーワードが入力されると、Eメールアプリケーション9Dの本文のフィールドに挿入する文字列の音声入力を終了する。あるいは、コントローラ10は、Eメールアプリケーション9Dの本文のフィールドに挿入すべき文字列に対応する音声の入力を開始してから音声の入力回数が閾値以上となるまでの間、Eメールアプリケーション9Dの本文のフィールドに挿入すべき文字列として、音声入力される文字列をストレージ9の記憶領域に保存する。コントローラ10は、音声の入力回数が閾値以上となると、Eメールアプリケーション9Dの本文のフィールドに挿入する文字列の音声入力を終了する。
For example, when the
コントローラ10は、制御プログラム9Aを実行することにより、音声制御により音声入力を終了すると、音声制御により選択されたアプリケーションを起動し、起動したアプリケーションの入力フィールドに音声入力された文字列を挿入するための機能を提供する。
When the
例えば、コントローラ10は、対話型インタフェースを介してEメールアプリケーション9Dが選択されている場合、上記音声制御により音声入力を終了すると、Eメールアプリケーション9Dを起動し、起動したEメールアプリケーション9Dの本文に、Eメールアプリケーション9Dの本文のフィールドに挿入する文字列すべき文字列としてストレージ9に保存しておいた文字列を挿入する。
For example, when the
スピーカ11は、音出力部である。スピーカ11は、コントローラ10から送信される音信号を音として出力する。スピーカ11は、例えば、着信音及び音楽を出力するために用いられる。レシーバ7及びスピーカ11の一方が、他方の機能を兼ねてもよい。
The
カメラ12は、撮影した画像を電気信号へ変換する。カメラ12には、例えば、ディスプレイ2に面している物体を撮影するインカメラ、ディスプレイ2の反対側の面に面している物体を撮影するアウトカメラが含まれる。
The
姿勢検出ユニット15は、スマートフォン1の姿勢を検出する。姿勢検出ユニット15は、姿勢を検出するために、加速度センサ、方位センサ、及びジャイロスコープの少なくとも1つを備える。
The
バイブレータ18は、スマートフォン1の一部又は全体を振動させる。バイブレータ18は、振動を発生させるために、例えば、圧電素子、又は偏心モータなどを有する。バイブレータ18による振動は、着信等の各種のイベントを利用者に報知するために用いられる。
The
図1に示したスマートフォン1の機能構成は例であり、本発明の要旨を損なわない範囲において適宜変更してよい。
The functional configuration of the
図2〜図7を用いて、実施形態におけるスマートフォン1により実行される処理の一例について説明する。図2〜図7に登場するF1は、ユーザの指を示す。図2〜図7では、いわゆるロック画面がディスプレイ2Aに表示されている場合の処理の一例について説明するが、対話型のインタフェースを起動可能な状況であれば、同様の処理を実現できる。以下の説明において、“操作”と表記するものは、スマートフォン1(コントローラ10)が、タッチスクリーン2Bを介して、検出可能な任意のタッチジェスチャであってよい。
An example of processing executed by the
図2及び図3は、所定のキーワードの検出により、メールアプリケーション(例えば、Eメールアプリケーション9Dなど)の本文のフィールドへの音声入力を終了する場合の処理の一例を示す図である。
2 and 3 are diagrams illustrating an example of processing when voice input to a body field of a mail application (for example, the
図2に示すように、スマートフォン1は、ディスプレイ2Aにロック画面40を表示している。ロック画面40は、スマートフォン1がロック状態にある場合に表示される。スマートフォン1は、ディスプレイ2Aにロック画面40が表示されている場合、特定の操作を除いて、ユーザの操作を受け付けない。特定の操作には、例えば、ロック状態を解除するための操作、及び通知画面をディスプレイ2Aに表示させるための操作が含まれる。ロック状態には、単に、ユーザの操作を受け付けない状態だけでなく、セキュリティロック状態を含んでもよい。図2に示すように、ロック画面40には、対話型のインタフェースを起動させるためのアイコン40aが配置されている。
As shown in FIG. 2, the
図2に示すように、スマートフォン1は、タッチスクリーン2Bを介して、ロック画面40に配置されているアイコン40aに対する操作を検出すると(ステップS11)、ディスプレイ2Aに対話型のインタフェースの実行画面50を表示する(ステップS12)。このとき、スマートフォン1は、ステップS12に示すように、“ご用件をお話下さい。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(S−1)を実行画面50に表示する。
As shown in FIG. 2, when the
続いて、スマートフォン1は、マイク8により音声が入力されると、入力された音声の認識処理を実行する。認識に成功した場合、スマートフォン1は、認識結果に対応するアプリケーションがあるかを判定し、認識結果に対応するアプリケーションがある場合には、アプリケーションに関する音声制御を実行するかを判定する。スマートフォン1は、アプリケーションに関する音声制御を実行する場合には、ユーザに応答するとともに、アプリケーションに関する音声制御を開始する(ステップS13〜ステップS14)。
Subsequently, when a voice is input from the
具体的には、スマートフォン1は、マイク8を介して音声で入力される文字列を“特許一郎さんにメール”であると認識すると、ステップS13に示すように、認識した文字列に対応する吹き出しの画像(U−1)を実行画面50に表示する。続いて、スマートフォン1は、ストレージ9に記憶されているアプリケーションの中から、認識結果に対応するEメールアプリケーション9Dを検出し、Eメールアプリケーション9Dに関する音声制御を実行するものと判定する。続いて、スマートフォン1は、ステップS14に示すように、Eメールアプリケーション9Dの音声制御を開始し、その旨をユーザに報知するための画像50aを実行画面50に表示する。スマートフォン1は、ステップS14に示すように、“件名を教えてください。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(S−2)を実行画面50に表示する。
Specifically, when the
続いて、スマートフォン1は、マイク8により音声が入力されると、入力された音声の認識処理を実行する。認識に成功した場合、スマートフォン1は、認識結果を保存するとともに、ユーザに応答する(ステップS15〜ステップS16)。
Subsequently, when a voice is input from the
具体的には、スマートフォン1は、マイク8を介して音声で入力される文字列を“おはようございます。”であると認識すると、ステップS15に示すように、認識した文字列に対応する吹き出しの画像(U−2)を実行画面50に表示する。続いて、スマートフォン1は、認識した文字列を保存し、件名が未入力であった画像50aの件名に対応するフィールドに、認識した文字列が挿入された画像50bを表示する(ステップS16)。メールの件名を取得後、ステップS16に示すように、スマートフォン1は、“本文を教えてください。完了といえばメールアプリを起動します。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(S−3)を実行画面50に表示する。
Specifically, when the
続いて、スマートフォン1は、マイク8により音声が入力されると、入力された音声の認識処理を実行する。認識に成功した場合、スマートフォン1は、認識結果が音声入力の終了キーワードではないこと、あるいは音声の入力回数が閾値に到達していないことを条件として、認識結果を保存するとともに、ユーザに応答する(ステップS17〜ステップS18)。
Subsequently, when a voice is input from the
具体的には、スマートフォン1は、マイク8を介して音声で入力される文字列を“8時集合です。”であると認識すると、ステップS17に示すように、認識した文字列に対応する吹き出しの画像(U−3)を実行画面50に表示する。続いて、スマートフォン1は、認識した文字列を保存し、本文が未入力であった画像50bの本文に対応するフィールドに、認識した文字列が挿入された画像50cを表示する(ステップS18)。メールの本文に挿入する文字列を取得後、ステップS18に示すように、スマートフォン1は、再び、“本文を教えてください。完了といえばメールアプリを起動します。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(S−4)を実行画面50に表示する。
Specifically, when the
続いて、スマートフォン1は、マイク8により音声が入力されると、入力された音声の認識処理を実行する。認識に成功した場合、スマートフォン1は、認識結果が音声入力の終了キーワードではないこと、あるいは音声の入力回数が閾値に到達していないことを条件として、認識結果を保存するとともに、ユーザに応答する(ステップS19〜ステップS20)。
Subsequently, when a voice is input from the
具体的には、スマートフォン1は、マイク8を介して音声で入力される文字列を“みなさん、集合しました。”であると認識すると、ステップS19に示すように、認識した文字列に対応する吹き出しの画像(U−4)を実行画面50に表示する。続いて、スマートフォン1は、認識した文字列を保存し、画像50cの本文に対応するフィールドに、認識した文字列が挿入された画像50dを表示する(ステップS20)。メールの本文に挿入する文字列を再取得後、ステップS20に示すように、スマートフォン1は、再び、“本文を教えてください。完了といえばメールアプリを起動します。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(S−5)を実行画面50に表示する。
Specifically, when the
続いて、スマートフォン1は、マイク8により音声が入力されると、入力された音声の認識処理を実行する。認識に成功した場合、スマートフォン1は、認識結果が音声入力の終了キーワードであること、あるいは音声の入力回数が閾値以上であることを条件として、音声入力を終了し、アプリケーションを起動する(ステップS21〜ステップS22)。
Subsequently, when a voice is input from the
具体的には、スマートフォン1は、マイク8を介して音声で入力される文字列を、音声入力を終了させるキーワードである“完了”であると認識すると、ステップS21に示すように、認識した文字列に対応する吹き出しの画像を表示しない。続いて、スマートフォン1は、音声入力の終了を受け付けた旨をユーザに報知することを目的として“メールアプリを起動します。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(S−6)を実行画面50に表示する。スマートフォン1は、ステップS22に示すように、Eメールアプリケーション9Dを起動して、宛先、件名、及び本文のそれぞれに対応する文字列を挿入したメール作成画面60をディスプレイ2Aに表示する。
Specifically, when the
図4及び図5は、所定のキーワードの検出により、メールアプリケーション(例えば、Eメールアプリケーション9D)の本文のフィールドへの音声入力を終了する場合の処理の他の例を示す図である。
FIG. 4 and FIG. 5 are diagrams showing another example of processing when the voice input to the body field of the mail application (for example, the
図4に示すように、スマートフォン1は、タッチスクリーン2Bを介して、ロック画面40に配置されているアイコン40aに対する操作を検出すると(ステップS31)、ディスプレイ2Aに対話型のインタフェースの実行画面50を表示する(ステップS32)。このとき、スマートフォン1は、ステップS12に示すように、“ご用件をお話下さい。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(S−11)を実行画面50に表示する。
As illustrated in FIG. 4, when the
続いて、スマートフォン1は、マイク8により音声が入力されると、入力された音声の認識処理を実行する。認識に成功した場合、スマートフォン1は、認識結果に対応するアプリケーションがあるかを判定し、認識結果に対応するアプリケーションがある場合には、アプリケーションに関する音声制御を実行するかを判定する。スマートフォン1は、アプリケーションに関する音声制御を実行する場合には、ユーザに応答するとともに、アプリケーションに関する音声制御を開始する(ステップS33〜ステップS34)。
Subsequently, when a voice is input from the
具体的には、スマートフォン1は、マイク8を介して音声で入力される文字列を“特許一郎さんにメール”であると認識すると、ステップS33に示すように、認識した文字列に対応する吹き出しの画像(U−11)を実行画面50に表示する。続いて、スマートフォン1は、ストレージ9に記憶されているアプリケーションの中から、認識結果に対応するEメールアプリケーション9Dを検出し、Eメールアプリケーション9Dに関する音声制御を実行するものと判定する。続いて、スマートフォン1は、ステップS34に示すように、Eメールアプリケーション9Dの音声制御を開始し、その旨をユーザに報知するための画像50aを実行画面50に表示する。スマートフォン1は、ステップS34に示すように、“件名を教えてください。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(S−12)を実行画面50に表示する。
Specifically, when the
続いて、スマートフォン1は、マイク8により音声が入力されると、入力された音声の認識処理を実行する。認識に成功した場合、スマートフォン1は、認識結果を保存するとともに、ユーザに応答する(ステップS35〜ステップS36)。
Subsequently, when a voice is input from the
具体的には、スマートフォン1は、マイク8を介して音声で入力される文字列を“おはようございます。”であると認識すると、ステップS35に示すように、認識した文字列に対応する吹き出しの画像(U−12)を実行画面50に表示する。続いて、スマートフォン1は、認識した文字列を保存し、件名が未入力であった画像50aの件名に対応するフィールドに、認識した文字列が挿入された画像50bを表示する(ステップS36)。メールの件名を取得後、ステップS36に示すように、スマートフォン1は、“本文を教えてください。完了といえばメールアプリを起動します。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(S−13)を実行画面50に表示する。
Specifically, when the
続いて、スマートフォン1は、マイク8により音声が入力されると、入力された音声の認識処理を実行する。認識に成功した場合、スマートフォン1は、認識結果が音声入力の終了キーワードではないこと、あるいは音声の入力回数が閾値に到達していないことを条件として、認識結果を保存するとともに、ユーザに応答する(ステップS37〜ステップS38)。
Subsequently, when a voice is input from the
具体的には、スマートフォン1は、マイク8を介して音声で入力される文字列を“8時集合です。”であると認識すると、ステップS37に示すように、認識した文字列に対応する吹き出しの画像(U−13)を実行画面50に表示する。続いて、スマートフォン1は、認識した文字列を保存し、本文が未入力であった画像50bの本文に対応するフィールドに、認識した文字列が挿入された画像50cを表示する(ステップS38)。メールの本文に挿入する文字列を取得後、ステップS38に示すように、スマートフォン1は、再び、“本文を教えてください。完了といえばメールアプリを起動します。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(S−14)を実行画面50に表示する。
Specifically, when the
続いて、スマートフォン1は、マイク8により音声が入力されると、入力された音声の認識処理を実行する。認識に成功した場合、スマートフォン1は、認識結果が音声入力の終了キーワードではないこと、あるいは音声の入力回数が閾値に到達していないことを条件として、認識結果を保存するとともに、ユーザに応答する(ステップS39〜ステップS40)。
Subsequently, when a voice is input from the
具体的には、スマートフォン1は、マイク8を介して音声で入力される文字列を“管理。”であると認識すると、ステップS39に示すように、認識した文字列に対応する吹き出しの画像(U−14)を実行画面50に表示する。ステップS39において、例えば、ユーザが“完了”と音声入力したつもりであっても、スマートフォン1が“管理”と認識した場合には、そのまま処理が継続される。続いて、スマートフォン1は、認識した文字列を保存し、画像50cの本文に対応するフィールドに、認識した文字列が挿入された画像50dを表示する(ステップS40)。ステップS39でスマートフォン1により認識され、ステップS40で新たに表示された文字列は、音声入力によって削除することができない。メールの本文に挿入する文字列を再取得後、ステップS40に示すように、スマートフォン1は、再び、“本文を教えてください。完了といえばメールアプリを起動します。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(S−15)を実行画面50に表示する。
Specifically, when the
続いて、スマートフォン1は、マイク8により音声が入力されると、入力された音声の認識処理を実行する。認識に成功した場合、スマートフォン1は、認識結果が音声入力の終了キーワードであること、あるいは音声の入力回数が閾値以上であることを条件として、音声入力を終了し、アプリケーションを起動する(ステップS41〜ステップS42)。
Subsequently, when a voice is input from the
具体的には、スマートフォン1は、マイク8を介して音声で入力される文字列を、音声入力を終了させるキーワードである“完了”であると認識すると、認識した文字列に対応する吹き出しの画像を表示しない。続いて、スマートフォン1は、ステップS41に示すように、音声入力の終了を受け付けた旨をユーザに報知することを目的として“メールアプリを起動します。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(S−16)を実行画面50に表示する。スマートフォン1は、ステップS42に示すように、Eメールアプリケーション9Dを起動して、宛先、件名、及び本文のそれぞれに対応する文字列を挿入したメール作成画面60をディスプレイ2Aに表示する。
Specifically, when the
ステップS39に示すように、ユーザにより音声入力された文字列が終了キーワードとしてスマートフォン1により正しく認識しなかった場合であっても、ステップS42に示すように、ユーザにより音声入力された文字列が終了キーワードとしてスマートフォン1により正しく認識されたタイミングで、Eメールアプリケーション9Dの本文への音声入力が確実に終了する。
As shown in step S39, even if the character string input by the user is not correctly recognized by the
図6及び図7は、音声の入力回数が閾値以上である場合に、メールアプリケーション(例えば、Eメールアプリケーション9D)の本文のフィールドへの音声入力を終了する場合の処理の例を示す図である。
6 and 7 are diagrams illustrating an example of processing in the case where the voice input to the body field of the mail application (for example, the
図6に示すように、スマートフォン1は、タッチスクリーン2Bを介して、ロック画面40に配置されているアイコン40aに対する操作を検出すると(ステップS51)、ディスプレイ2Aに対話型のインタフェースの実行画面50を表示する(ステップS52)。このとき、スマートフォン1は、ステップS52に示すように、“ご用件をお話下さい。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(S−21)を実行画面50に表示する。
As shown in FIG. 6, when the
続いて、スマートフォン1は、マイク8により音声が入力されると、入力された音声の認識処理を実行する。認識に成功した場合、スマートフォン1は、認識結果に対応するアプリケーションがあるかを判定し、認識結果に対応するアプリケーションがある場合には、アプリケーションに関する音声制御を実行するかを判定する。スマートフォン1は、アプリケーションに関する音声制御を実行する場合には、ユーザに応答するとともに、アプリケーションに関する音声制御を開始する(ステップS53〜ステップS54)。
Subsequently, when a voice is input from the
具体的には、スマートフォン1は、マイク8を介して音声で入力される文字列を“特許一郎さんにメール”であると認識すると、ステップS53に示すように、認識した文字列に対応する吹き出しの画像(U−21)を実行画面50に表示する。続いて、スマートフォン1は、ストレージ9に記憶されているアプリケーションの中から、認識結果に対応するEメールアプリケーション9Dを検出し、Eメールアプリケーション9Dに関する音声制御を実行するものと判定する。続いて、スマートフォン1は、ステップS54に示すように、Eメールアプリケーション9Dの音声制御を開始し、その旨をユーザに報知するための画像50aを実行画面50に表示する。スマートフォン1は、ステップS54に示すように、“件名を教えてください。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(S−22)を実行画面50に表示する。
Specifically, when the
続いて、スマートフォン1は、マイク8により音声が入力されると、入力された音声の認識処理を実行する。認識に成功した場合、スマートフォン1は、認識結果を保存するとともに、ユーザに応答する(ステップS55〜ステップS56)。
Subsequently, when a voice is input from the
具体的には、スマートフォン1は、マイク8を介して音声で入力される文字列を“おはようございます。”であると認識すると、ステップS55に示すように、認識した文字列に対応する吹き出しの画像(U−22)を実行画面50に表示する。続いて、スマートフォン1は、認識した文字列を保存し、件名が未入力であった画像50aの件名に対応するフィールドに、認識した文字列が挿入された画像50bを表示する(ステップS56)。メールの件名を取得後、ステップS56に示すように、スマートフォン1は、“本文を教えてください。完了といえばメールアプリを起動します。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(S−23)を実行画面50に表示する。
Specifically, when the
続いて、スマートフォン1は、マイク8により音声が入力されると、入力された音声の認識処理を実行する。認識に成功した場合、スマートフォン1は、認識結果が音声入力の終了キーワードではないこと、あるいは音声の入力回数が閾値に到達していないことを条件として、認識結果を保存するとともに、ユーザに応答する(ステップS57〜ステップS58)。
Subsequently, when a voice is input from the
具体的には、スマートフォン1は、マイク8を介して音声で入力される文字列を“8時集合です。”であると認識すると、ステップS57に示すように、認識した文字列に対応する吹き出しの画像(U−23)を実行画面50に表示する。続いて、スマートフォン1は、認識した文字列を保存し、本文が未入力であった画像50bの本文に対応するフィールドに、認識した文字列が挿入された画像50cを表示する(ステップS58)。メールの本文に挿入する文字列を取得後、ステップS58に示すように、スマートフォン1は、再び、“本文を教えてください。完了といえばメールアプリを起動します。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(S−24)を実行画面50に表示する。
Specifically, when the
続いて、スマートフォン1は、マイク8により音声が入力されると、入力された音声の認識処理を実行する。認識に成功した場合、スマートフォン1は、認識結果が音声入力の終了キーワードではないこと、あるいは音声の入力回数が閾値に到達していないことを条件として、認識結果を保存するとともに、ユーザに応答する(ステップS59〜ステップS60)。
Subsequently, when a voice is input from the
具体的には、スマートフォン1は、マイク8を介して音声で入力される文字列を“管理。”であると認識すると、ステップS59に示すように、認識した文字列に対応する吹き出しの画像(U−24)を実行画面50に表示する。ステップS59において、例えば、ユーザが“完了”と音声入力したつもりであっても、スマートフォン1が“管理”と認識した場合には、そのまま処理が継続される。続いて、スマートフォン1は、認識した文字列を保存し、画像50cの本文に対応するフィールドに、認識した文字列が挿入された画像50dを表示する(ステップS60)。メールの本文に挿入する文字列を再取得後、ステップS60に示すように、スマートフォン1は、再び、“本文を教えてください。完了といえばメールアプリを起動します。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(S−25)を実行画面50に表示する。
Specifically, when the
続いて、スマートフォン1は、マイク8により音声が入力されると、入力された音声の認識処理を実行する。認識に成功した場合、スマートフォン1は、認識結果が音声入力の終了キーワードではないこと、あるいは音声の入力回数が閾値に到達していないことを条件として、認識結果を保存するとともに、ユーザに応答する(ステップS61〜ステップS62)。
Subsequently, when a voice is input from the
具体的には、スマートフォン1は、マイク8を介して音声で入力される文字列を“管理。”であると認識すると、ステップS61に示すように、認識した文字列に対応する吹き出しの画像(U−25)を実行画面50に表示する。ステップS61において、例えば、ユーザが“完了”と音声入力したつもりであっても、スマートフォン1が“管理”と認識した場合には、そのまま処理が継続される。続いて、スマートフォン1は、認識した文字列を保存し、画像50dの本文に対応するフィールドに、認識した文字列が挿入された画像50eを表示する(ステップS62)。メールの本文に挿入する文字列を再取得後、ステップS62に示すように、スマートフォン1は、再び、“本文を教えてください。完了といえばメールアプリを起動します。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(S−26)を実行画面50に表示する。
Specifically, when the
続いて、スマートフォン1は、マイク8により音声が入力されると、入力された音声の認識処理を実行する。認識に成功した場合、スマートフォン1は、認識結果が音声入力の終了キーワードではないこと、あるいは音声の入力回数が閾値に到達していないことを条件として、認識結果を保存するとともに、ユーザに応答する(ステップS63〜ステップS64)。
Subsequently, when a voice is input from the
具体的には、スマートフォン1は、マイク8を介して音声で入力される文字列を“管理。”であると認識すると、ステップS63に示すように、認識した文字列に対応する吹き出しの画像(U−26)を実行画面50に表示する。ステップS63において、例えば、ユーザが“完了”と音声入力したつもりであっても、スマートフォン1が“管理”と認識した場合には、そのまま処理が継続される。続いて、スマートフォン1は、認識した文字列を保存し、画像50eの本文に対応するフィールドに、認識した文字列が挿入された画像50fを表示する(ステップS64)。メールの本文に挿入する文字列を再取得後、ステップS64に示すように、スマートフォン1は、再び、“本文を教えてください。完了といえばメールアプリを起動します。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(S−27)を実行画面50に表示する。
Specifically, when the
続いて、スマートフォン1は、マイク8により音声が入力されると、入力された音声の認識処理を実行する。認識に成功した場合、スマートフォン1は、認識結果が音声入力の終了キーワードであること、あるいは音声の入力回数が閾値以上であることを条件として、音声入力を終了し、アプリケーションを起動する(ステップS65〜ステップS66)。
Subsequently, when a voice is input from the
具体的には、スマートフォン1は、マイク8を介して音声で入力される文字列を“管理”であると認識し、該当する文字列に対応した音声の入力により、音声の(累積)入力回数が閾値以上であると判定した場合には、認識した文字列に対応する吹き出しの画像を表示しない。続いて、スマートフォン1は、ステップS65に示すように、音声入力の終了を受け付けた旨をユーザに報知することを目的として“メールアプリを起動します。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(S−28)を実行画面50に表示する。スマートフォン1は、ステップS66に示すように、Eメールアプリケーション9Dを起動して、宛先、件名、及び本文のそれぞれに対応する文字列を挿入したメール作成画面60をディスプレイ2Aに表示する。ステップS66に示すように、ステップS59〜ステップS63におけるスマートフォン1の認識結果が誤りである場合であっても、認識結果に対応する各文字列(管理。)がメール作成画面60に挿入される。
Specifically, the
ステップS59〜ステップS63に示すように、ユーザにより音声入力された文字列が終了キーワードとしてスマートフォン1により何度も正しく認識されない場合であっても、ステップS66に示すように、ユーザによる音声の入力回数が閾値以上となったタイミングで、Eメールアプリケーション9Dの本文への音声入力が確実に終了する。
As shown in step S59 to step S63, even if the character string input by the user is not correctly recognized as the end keyword by the
図8及び図9を用いて、実施形態に係るスマートフォン1による処理手順の一例を説明する。図8及び図9は、実施形態に係るスマートフォン1による処理手順の一例を示すフローチャートである。図8及び図9に示す処理手順は、コントローラ10が、ストレージ9に記憶されている制御プログラム9Aなどを実行することによって実現される。
An example of a processing procedure performed by the
図8は、スマートフォン1により実行される音声制御の全体の流れを示す。図8に示すように、コントローラ10は、対話型のインタフェースの実行画面をディスプレイ2Aに表示させる(ステップS101)。コントローラ10は、例えば、タッチスクリーン2Bを介して、対話型のインタフェースを起動させるためのアイコン40aに対する操作を検出すると、対話型のインタフェースを起動し、インタフェースの実行画面50をディスプレイ2Aに表示させる(図2、4参照)。
FIG. 8 shows the overall flow of voice control executed by the
続いて、コントローラ10は、マイク8により入力される音声の音声データを取得すると(ステップS102)、音声データの認識処理を実行し、音声の認識に成功したかを判定する(ステップS103)。
Subsequently, when acquiring the voice data of the voice input from the microphone 8 (step S102), the
コントローラ10は、判定の結果、音声の認識に成功した場合には(ステップS103,Yes)、ストレージ9に記憶されているアプリケーションの中から、認識結果に対応するアプリケーションを検出できたかを判定する(ステップS104)。
As a result of the determination, if the speech has been successfully recognized (Yes in step S103), the
コントローラ10は、判定の結果、認識結果に対応するアプリケーションを検出できた場合には(ステップS104,Yes)、認識結果に対応するアプリケーションに関する音声制御を実行するかを判定する(ステップS105)。
If the
コントローラ10は、判定の結果、認識結果に対応するアプリケーションに関する音声制御を実行する場合には(ステップS105,Yes)、認識結果に対応するアプリケーションに関する音声制御を開始する(ステップS106)。
As a result of the determination, if the
アプリケーションに関する音声制御を終了すると、コントローラ10は、ステップS104で検出したアプリケーションを起動し、当該アプリケーションに対して、ステップS106における音声制御の結果を反映して(ステップS107)、図8に示す処理手順を終了する。例えば、コントローラ10は、Eメールアプリケーション9Dを起動し、対話型インタフェースを介して音声入力された件名及び本文の文字列のデータを、Eメールアプリケーション9Dにおける対応するフィールドへ挿入する。
When the voice control related to the application is finished, the
ステップS105において、コントローラ10は、認識結果に対応するアプリケーションに関する音声制御を実行しない場合には(ステップS105,No)、ステップS104で検出したアプリケーションを実行して(ステップS108)、図8に示す処理手順を終了する。
In step S105, if the
ステップS104において、コントローラ10は、判定の結果、認識結果に対応するアプリケーションを検出できない場合には(ステップS104,No)、そのまま図8に示す処理手順を終了する。このとき、コントローラ10は、ストレージ9に記憶されているアプリケーションの一覧をディスプレイ2Aに表示してもよい。
In step S104, when the
ステップS103において、コントローラ10は、判定の結果、音声の認識に失敗した場合には(ステップS103,No)、認識に失敗した回数が閾値を超えているかを判定する(ステップS109)。コントローラ10は、判定の結果、認識に失敗した回数が閾値を超えている場合には(S109,Yes)、そのまま図8に示す処理手順を終了する。これとは反対に、コントローラ10は、判定の結果、認識に失敗した回数が閾値を超えていない場合には(S109,No)、例えば、音声ガイダンス及び画像などにより、音声の再入力を要求し(ステップS110)、ステップS102の手順に移る。
In step S103, when the recognition fails as a result of the determination (step S103, No), the
図9は、アプリケーションに関する音声制御の流れを示す。図9は、図8に示すステップS106の手順に対応する。図9に示すように、コントローラ10は、上記図8のステップS105で音声制御を実行することを決定したアプリケーションに関して、音声の入力を要求し(ステップS201)、音声データを取得する(ステップS202)。例えば、コントローラ10は、Eメールアプリケーション9Dの本文に対応するフィールドに入力する文字列の音声入力を要求し、本文に入力する文字列に対応する音声を取得する。
FIG. 9 shows a flow of voice control related to the application. FIG. 9 corresponds to the procedure of step S106 shown in FIG. As shown in FIG. 9, the
続いて、コントローラ10は、S201の要求に応じて音声入力された音声データの認識処理を実行し、音声の認識に成功したかを判定する(ステップS203)。
Subsequently, the
コントローラ10は、判定の結果、音声の認識に成功した場合には(ステップS203,Yes)、認識結果に対応する音声が、音声入力の終了キーワードであるかを判定する(ステップS204)。コントローラ10は、例えば、認識結果に対応する音声が、“完了”であるかを判定する。
As a result of the determination, if the speech is successfully recognized (step S203, Yes), the
コントローラ10は、判定の結果、音声入力の終了キーワードではない場合には(ステップS204,No)、続いて、図9に示す処理手順を開始してからの音声の(累積)入力回数が閾値以上であるかを判定する(ステップS205)。 If the result of the determination is that the keyword is not the voice input end keyword (step S204, No), then, the number of voices (cumulative) input after starting the processing procedure shown in FIG. Is determined (step S205).
コントローラ10は、判定の結果、音声の入力回数が閾値以上ではない場合には(ステプS205,No)、図8の処理で検出したアプリケーションの入力フィールドに挿入する文字列のデータとして、ステップS202で取得した音声データを蓄積する。例えば、コントローラ10は、Eメールアプリケーション9Dの本文に対応するフィールドに入力する文字列のデータとして、ステップS202で取得した音声データを蓄積する。
If the result of determination is that the number of input voices is not greater than or equal to the threshold value (step S205, No), the
続いて、コントローラ10は、ステップS201の手順に戻り、図9に示す制御を継続する。
Subsequently, the
ステップS205において、コントローラ10は、判定の結果、図9に示す処理手順を開始してからの音声の(累積)入力回数が閾値以上である場合には(ステプS205,Yes)、図9に示す処理手順を終了する。
In step S205, if the result of determination is that the (accumulated) number of input voices since the start of the processing procedure shown in FIG. 9 is greater than or equal to the threshold (step S205, Yes), the
ステップS204において、コントローラ10は、認識結果に対応する音声が、音声入力の終了キーワードである場合には(ステップS204,Yes)、図9に示す処理手順を終了する。
In step S204, when the voice corresponding to the recognition result is the voice input end keyword (step S204, Yes), the
ステップS203において、コントローラ10は、判定の結果、音声の認識に成功しなかった場合には(ステップS203,No)、当該音声の入力を無効として、ステップS201の手順に戻り、音声の再入力を要求する。
In step S203, if the result of determination is that the voice has not been successfully recognized (No in step S203), the
図9に示す処理手順の順番は、図9に示す例に限定されない。図9に示す処理手順において、例えば、ステップS204の手順と、ステップS205の手順の順序が逆であってもよい。 The order of the processing procedures shown in FIG. 9 is not limited to the example shown in FIG. In the processing procedure illustrated in FIG. 9, for example, the order of the procedure of step S204 and the procedure of step S205 may be reversed.
上述してきたように、実施形態に係るスマートフォン1は、対話型インタフェースを介して音声により選択されるアプリケーションの入力フィールドに挿入する文字列の音声入力を、音声制御により終了させる。例えば、スマートフォン1は、Eメールアプリケーション9Dの本文に対応するフィールドに挿入する文字列の音声入力を、“完了”という終了キーワードを検出することにより終了することができる。あるいは、スマートフォン1は、Eメールアプリケーション9Dの本文に対応するフィールドに挿入する文字列の音声入力を、音声の入力回数が閾値(例えば、5回)以上となった場合に終了することができる。このように、本実施形態に係るスマートフォン1は、例えば、メールの本文など、比較的長めの文字列が入力される入力フィールドに対して複数回の音声入力を可能とする一方で、所定のキーワードの検出あるいは音声の入力回数により音声入力を終了させることを可能とする。すなわち、本実施形態に係るスマートフォン1は、対話型のインタフェースを介する音声制御のみによって、アプリケーションの所定の入力フィールドに対する長文の入力開始及び入力終了を実現でき、対話型のインタフェースを介する処理を改善することができる。
As described above, the
上記実施形態では、スマートフォン1が、音声の入力回数が5回と判定した場合に、Eメールアプリケーション9Dの本文に対応するフィールドに挿入する文字列の音声入力を終了させる例(図6及び図7)を説明したが、音声入力を終了させる回数は任意の回数を適用することができる。
In the above embodiment, when the
上記実施形態では、スマートフォン1が、対話型インタフェースを介した音声制御により、Eメールアプリケーション9Dの本文に対応するフィールドに挿入する文字列の音声入力を終了させる例を説明した。しかしながら、これに限定されるものではなく、メモ帳アプリケーション9Eに対する文字列の音声入力、スケジュールを管理するアプリケーションに対する文字列の音声入力など、文字列の音声入力を行うアプリケーション全般に対して、上記実施形態に係るスマートフォン1の処理(図2〜図9など)を適用できる。
In the above-described embodiment, an example has been described in which the
図5及び図7に示す例では、音声入力に対するスマートフォン1の認識結果がユーザの意図しないものである場合(誤りである場合)であっても、認識結果に対応する文字列(例えば、管理)がメール作成画面60に挿入される場合を説明した。しかしながら、これに限定されるものではなく、スマートフォン1は、音声入力された文字列の中に同音同義の文字列が複数連続する場合には、誤認識に係る文字列と判断して、アプリケーションを起動する際に、アプリケーションの入力フィールドに挿入しないようにしてもよい。あるいは、スマートフォン1は、終了キーワード(例えば、完了)に類似する文字列の一覧を予め備えておいて、音声入力された文字列の中に終了キーワードに類似する文字列がある場合には、アプリケーションを起動する際に、当該文字列をアプリケーションの入力フィールドに挿入しないようにしてもよい。
In the example shown in FIGS. 5 and 7, even when the recognition result of the
上記実施形態において、スマートフォン1は、音声入力に対する認識結果が、終了キーワードと同音意義(例えば、官僚など)であると判定した場合、音声入力を終了させるようにしてもよい。
In the embodiment described above, the
添付の請求項に係る技術を完全かつ明瞭に開示するために特徴的な実施形態に関し記載してきた。しかし、添付の請求項は、上記の実施形態に限定されるべきものでなく、本明細書に示した基礎的事項の範囲内で当該技術分野の当業者が創作しうるすべての変形例及び代替可能な構成により具現化されるべきである。 The characterizing embodiments have been described in order to fully and clearly disclose the technology according to the appended claims. However, the appended claims should not be limited to the above-described embodiments, but all modifications and alternatives that can be created by those skilled in the art within the scope of the basic matters shown in this specification. Should be embodied by a possible configuration.
例えば、図1に示した各プログラムは、複数のモジュールに分割されていてもよい。あるいは、図1に示した各プログラムは、他のプログラムと結合されていてもよい。 For example, each program shown in FIG. 1 may be divided into a plurality of modules. Alternatively, each program shown in FIG. 1 may be combined with another program.
上記の実施形態では、タッチスクリーンを備える装置の一例として、スマートフォンについて説明したが、添付の請求項に係る装置は、スマートフォンに限定されない。添付の請求項に係る装置は、スマートフォン以外の電子機器であってもよい。電子機器は、例えば、モバイルフォン、タブレット、携帯型パソコン、デジタルカメラ、メディアプレイヤ、電子書籍リーダ、ナビゲータ、及びゲーム機である。あるいは、添付の請求項に係る装置は、据え置き型の電子機器であってもよい。据え置き型の電子機器は、例えば、デスクトップパソコン、及びテレビ受像器である。 In the above embodiment, a smartphone has been described as an example of a device including a touch screen, but the device according to the appended claims is not limited to a smartphone. The device according to the appended claims may be an electronic device other than a smartphone. Electronic devices are, for example, mobile phones, tablets, portable personal computers, digital cameras, media players, electronic book readers, navigators, and game machines. Alternatively, the device according to the appended claims may be a stationary electronic device. The stationary electronic devices are, for example, a desktop personal computer and a television receiver.
1 スマートフォン
2 タッチスクリーンディスプレイ
2A ディスプレイ
2B タッチスクリーン
3 ボタン
4 照度センサ
5 近接センサ
6 通信ユニット
7 レシーバ
8 マイク
9 ストレージ
9A 制御プログラム
9B 通話アプリケーション
9C SMSアプリケーション
9D Eメールアプリケーション
9E メモ帳アプリケーション
9F 動画アプリケーション
9G ブラウザアプリケーション
9Y 電話帳データ
9Z 設定データ
10 コントローラ
11 スピーカ
12 カメラ
15 姿勢検出ユニット
18 バイブレータ
DESCRIPTION OF
Claims (4)
前記マイクを介して入力される音声に基づく音声制御を実行するコントローラと
を有し、
前記コントローラは、前記音声制御によって選択されるアプリケーションの入力フィールドに挿入する文字列の音声入力を、前記音声制御により終了させる電子機器。 With a microphone,
A controller that performs voice control based on voice input through the microphone;
The controller is an electronic device that terminates voice input of a character string to be inserted into an input field of an application selected by the voice control by the voice control.
前記マイクを介して入力される音声に基づく音声制御を実行するステップと、
前記音声制御によって選択されるアプリケーションの入力フィールドに挿入する文字列の音声入力を、前記音声制御により終了させるステップと
を含む制御方法。 A control method for controlling an electronic device having a microphone,
Performing voice control based on voice input via the microphone;
A step of terminating voice input of a character string to be inserted into an input field of an application selected by the voice control by the voice control.
前記マイクを介して入力される音声に基づく音声制御を実行するステップと、
前記音声制御によって選択されるアプリケーションの入力フィールドに挿入する文字列の音声入力を、前記音声制御により終了させるステップと
を実行させる制御プログラム。 To an electronic device with a microphone
Performing voice control based on voice input via the microphone;
And a step of ending the voice input of the character string to be inserted into the input field of the application selected by the voice control by the voice control.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013104376A JP2014225796A (en) | 2013-05-16 | 2013-05-16 | Electronic apparatus, control method and control program |
PCT/JP2014/062996 WO2014185503A1 (en) | 2013-05-16 | 2014-05-15 | Electronic device, control method, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013104376A JP2014225796A (en) | 2013-05-16 | 2013-05-16 | Electronic apparatus, control method and control program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014225796A true JP2014225796A (en) | 2014-12-04 |
Family
ID=52124161
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013104376A Pending JP2014225796A (en) | 2013-05-16 | 2013-05-16 | Electronic apparatus, control method and control program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014225796A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018164445A1 (en) * | 2017-03-06 | 2018-09-13 | Samsung Electronics Co., Ltd. | Electronic device and method for controlling application thereof |
WO2020032650A1 (en) * | 2018-08-08 | 2020-02-13 | Samsung Electronics Co., Ltd. | Speech recognition method and electronic device for supporting the same |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001075591A (en) * | 1999-09-03 | 2001-03-23 | Sony Corp | Information processor and method and program storage medium |
JP2007529831A (en) * | 2004-03-18 | 2007-10-25 | ソニー株式会社 | Voice interactive messaging method and apparatus |
-
2013
- 2013-05-16 JP JP2013104376A patent/JP2014225796A/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001075591A (en) * | 1999-09-03 | 2001-03-23 | Sony Corp | Information processor and method and program storage medium |
JP2007529831A (en) * | 2004-03-18 | 2007-10-25 | ソニー株式会社 | Voice interactive messaging method and apparatus |
Non-Patent Citations (1)
Title |
---|
JPN6014024340; 房野麻子: '万能秘書はどのサービス?--「Siri」「しゃべってコンシェル」「音声アシスト」を徹底比較 (2/3)' ITmedia Mobile , 20120810, アイティメディア株式会社 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018164445A1 (en) * | 2017-03-06 | 2018-09-13 | Samsung Electronics Co., Ltd. | Electronic device and method for controlling application thereof |
WO2020032650A1 (en) * | 2018-08-08 | 2020-02-13 | Samsung Electronics Co., Ltd. | Speech recognition method and electronic device for supporting the same |
CN112740322A (en) * | 2018-08-08 | 2021-04-30 | 三星电子株式会社 | Voice recognition method and electronic device supporting same |
US11308953B2 (en) | 2018-08-08 | 2022-04-19 | Samsung Electronics Co., Ltd. | Speech recognition method and electronic device for supporting the same |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6393021B2 (en) | Electronic device, control method, and control program | |
US9002337B2 (en) | Electronic device including multiple SIM cards and method thereof | |
JP6125811B2 (en) | Electronic device, control method, and control program | |
JP6133564B2 (en) | Electronic device, control method, and control program | |
JP6215128B2 (en) | Portable electronic device, control method and control program | |
JP2017195444A (en) | Portable electronic device, security control method, and security control program | |
US9681005B2 (en) | Mobile communication device and prompting method thereof | |
JP2014225796A (en) | Electronic apparatus, control method and control program | |
CN104391742B (en) | Optimizing application method and apparatus | |
JP6405024B1 (en) | Electronic device, control method, and control program | |
US20150363100A1 (en) | Mobile electronic device, control method, and storage medium | |
WO2014185503A1 (en) | Electronic device, control method, and recording medium | |
US20150229802A1 (en) | Electronic device, control method, and control program | |
JP2014068240A (en) | Electronic device, control method, and control program | |
JP6059256B2 (en) | Communication terminal and storage medium | |
JP2014225798A (en) | Electronic apparatus, control method and control program | |
JP5763117B2 (en) | Portable electronic device, control method and control program | |
JP6492149B1 (en) | Electronic device, control method and control program | |
JP6152334B2 (en) | Electronic device, control method, and control program | |
JP6399944B2 (en) | Electronic device, control method, and control program | |
JP6087685B2 (en) | Portable electronic device, control method and control program | |
JP2016197441A (en) | Electronic apparatus, control method, and control program | |
JP2016103105A (en) | Portable terminal and control method therefor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150428 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20150901 |