JP2014225796A - Electronic apparatus, control method and control program - Google Patents

Electronic apparatus, control method and control program Download PDF

Info

Publication number
JP2014225796A
JP2014225796A JP2013104376A JP2013104376A JP2014225796A JP 2014225796 A JP2014225796 A JP 2014225796A JP 2013104376 A JP2013104376 A JP 2013104376A JP 2013104376 A JP2013104376 A JP 2013104376A JP 2014225796 A JP2014225796 A JP 2014225796A
Authority
JP
Japan
Prior art keywords
voice
input
smartphone
character string
application
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013104376A
Other languages
Japanese (ja)
Inventor
友康 ▲高▼橋
友康 ▲高▼橋
Tomoyasu Takahashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2013104376A priority Critical patent/JP2014225796A/en
Priority to PCT/JP2014/062996 priority patent/WO2014185503A1/en
Publication of JP2014225796A publication Critical patent/JP2014225796A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To improve a processing executed via an interactive interface.SOLUTION: The electronic apparatus (for example, smartphone 1) includes: a mic; and a controller that performs a voice control based on the voice input through the mic. The controller terminates a voice input of a character string to be inserted in an input field of an application selected by the voice control through the voice control. That is, the electronic apparatus (for example, smartphone 1) starts and terminates to input of a large text in a predetermined input field of an application under a voice control via an interactive interface.

Description

本出願は、電子機器、制御方法、及び制御プログラムに関する。   The present application relates to an electronic device, a control method, and a control program.

タッチスクリーンを備えるタッチスクリーンデバイスが知られている。タッチスクリーンデバイスは、例えば、携帯電話、スマートフォン及びタブレットなどの電子機器を含むが、これらに限定されない。タッチスクリーンデバイスは、タッチスクリーンを介して指、ペン、又はスタイラスペンのジェスチャを検出する。タッチスクリーンデバイスは、検出したジェスチャに従って動作する。検出したジェスチャに従った動作の例は、例えば、特許文献1に記載されている。   Touch screen devices comprising a touch screen are known. Examples of touch screen devices include, but are not limited to, electronic devices such as mobile phones, smartphones, and tablets. The touch screen device detects a finger, pen, or stylus pen gesture via the touch screen. The touch screen device operates according to the detected gesture. An example of the operation according to the detected gesture is described in Patent Document 1, for example.

タッチスクリーンデバイスの基本的な動作は、デバイスに搭載されるOS(Operating System)によって実現される。タッチスクリーンデバイスに搭載されるOSは、例えば、Android(登録商標)、BlackBerry(登録商標) OS、iOS、Symbian(登録商標) OS、及びWindows(登録商標) Phoneを含むが、これらに限定されない。   The basic operation of the touch screen device is realized by an OS (Operating System) installed in the device. Examples of the OS installed in the touch screen device include, but are not limited to, Android (registered trademark), BlackBerry (registered trademark) OS, iOS, Symbian (registered trademark) OS, and Windows (registered trademark) Phone.

近年、上記電子機器の中に、ジェスチャによる操作だけでなく、音声入力により操作を可能にする対話型のインタフェースを備えるものが普及しはじめている。これらの電子機器は、音声により、例えば、アプリケーションの起動、インターネット検索などの操作を実現する。   In recent years, among the above-mentioned electronic devices, those equipped with an interactive interface that enables operations not only by gestures but also by voice input have begun to become widespread. These electronic devices realize operations such as application activation and Internet search, for example, by voice.

国際公開第2008/086302号International Publication No. 2008/086302

対話型のインタフェースを備える電子機器には、対話型のインタフェースを介する処理に改善の余地がある。   An electronic device having an interactive interface has room for improvement in processing via the interactive interface.

1つの態様に係る電子機器は、マイクと、前記マイクを介して入力される音声に基づく音声制御を実行するコントローラとを有し、前記コントローラは、前記音声制御によって選択されるアプリケーションの入力フィールドに挿入する文字列の音声入力を、前記音声制御により終了させる。   An electronic device according to one aspect includes a microphone and a controller that performs voice control based on voice input through the microphone, and the controller is provided in an input field of an application selected by the voice control. The voice input of the character string to be inserted is terminated by the voice control.

1つの態様に係る制御方法は、マイクを有する電子機器を制御する制御方法であって、前記マイクを介して入力される音声に基づく音声制御を実行するステップと、前記音声制御によって選択されるアプリケーションの入力フィールドに挿入する文字列の音声入力を、前記音声制御により終了させるステップとを含む。   The control method which concerns on one aspect is a control method which controls the electronic device which has a microphone, Comprising: The step which performs the audio | voice control based on the audio | voice input via the said microphone, The application selected by the said audio | voice control Ending voice input of a character string to be inserted into the input field by the voice control.

1つの態様に係る制御プログラムは、マイクを有する電子機器に、前記マイクを介して入力される音声に基づく音声制御を実行するステップと、前記音声制御によって選択されるアプリケーションの入力フィールドに挿入する文字列の音声入力を、前記音声制御により終了させるステップとを実行させる。   A control program according to one aspect includes a step of executing voice control based on voice input through the microphone on an electronic device having a microphone, and a character to be inserted into an input field of an application selected by the voice control A step of ending the voice input of the row by the voice control.

図1は、実施形態に係るスマートフォンのブロック図である。FIG. 1 is a block diagram of a smartphone according to the embodiment. 図2は、所定のキーワードの検出により、メールアプリケーションの本文のフィールドへの音声入力を終了する場合の処理の一例を示す図である。FIG. 2 is a diagram illustrating an example of processing in the case where voice input to the body field of the mail application is terminated by detection of a predetermined keyword. 図3は、所定のキーワードの検出により、メールアプリケーションの本文のフィールドへの音声入力を終了する場合の処理の一例を示す図である。FIG. 3 is a diagram illustrating an example of processing in the case where voice input to the body field of the mail application is terminated by detection of a predetermined keyword. 図4は、所定のキーワードの検出により、メールアプリケーションの本文のフィールドへの音声入力を終了する場合の処理の他の例を示す図である。FIG. 4 is a diagram illustrating another example of processing when the voice input to the body field of the mail application is terminated by detecting a predetermined keyword. 図5は、所定のキーワードの検出により、メールアプリケーションの本文のフィールドへの音声入力を終了する場合の処理の他の例を示す図である。FIG. 5 is a diagram illustrating another example of processing in the case where voice input to the body field of the mail application is terminated by detection of a predetermined keyword. 図6は、音声の入力回数が閾値以上である場合に、メールアプリケーションの本文のフィールドへの音声入力を終了する場合の処理の例を示す図である。FIG. 6 is a diagram illustrating an example of processing in the case where the voice input to the body field of the mail application is terminated when the number of voice inputs is equal to or greater than the threshold value. 図7は、音声の入力回数が閾値以上である場合に、メールアプリケーションの本文のフィールドへの音声入力を終了する場合の処理の例を示す図である。FIG. 7 is a diagram illustrating an example of processing in the case where the voice input to the body field of the mail application is terminated when the number of voice inputs is equal to or greater than the threshold. 図8は、実施形態に係るスマートフォンによる処理手順の一例を示すフローチャートである。FIG. 8 is a flowchart illustrating an example of a processing procedure performed by the smartphone according to the embodiment. 図9は、実施形態に係るスマートフォンによる処理手順の一例を示すフローチャートである。FIG. 9 is a flowchart illustrating an example of a processing procedure by the smartphone according to the embodiment.

本出願に係る電子機器、制御方法、及び制御プログラムを実施するための実施形態を、図面を参照しつつ詳細に説明する。以下では、電子機器の一例として、スマートフォンを取り上げて説明する。   Embodiments for carrying out an electronic device, a control method, and a control program according to the present application will be described in detail with reference to the drawings. Hereinafter, a smartphone will be described as an example of an electronic device.

(実施形態)
図1を参照しながら、実施形態に係るスマートフォン1の機能的な構成について説明する。図1は、実施形態に係るスマートフォンのブロック図である。以下の説明においては、同様の構成要素に同一の符号を付すことがある。重複する説明は省略することがある。
(Embodiment)
A functional configuration of the smartphone 1 according to the embodiment will be described with reference to FIG. FIG. 1 is a block diagram of a smartphone according to the embodiment. In the following description, the same code | symbol may be attached | subjected to the same component. A duplicate description may be omitted.

図1に示すように、スマートフォン1は、タッチスクリーンディスプレイ2と、ボタン3と、照度センサ4と、近接センサ5と、通信ユニット6と、レシーバ7と、マイク8と、ストレージ9と、コントローラ10と、スピーカ11と、カメラ12と、姿勢検出ユニット15と、バイブレータ18とを備える。   As shown in FIG. 1, the smartphone 1 includes a touch screen display 2, a button 3, an illuminance sensor 4, a proximity sensor 5, a communication unit 6, a receiver 7, a microphone 8, a storage 9, and a controller 10. A speaker 11, a camera 12, a posture detection unit 15, and a vibrator 18.

タッチスクリーンディスプレイ2は、ディスプレイ2Aと、タッチスクリーン2Bとを有する。ディスプレイ2A及びタッチスクリーン2Bは、例えば、重ねて配置されてもよいし、並べて配置されてもよいし、離して配置されてもよい。ディスプレイ2Aとタッチスクリーン2Bとが重ねて配置される場合、例えば、ディスプレイ2Aの1ないし複数の辺がタッチスクリーン2Bのいずれの辺とも沿っていなくてもよい。   The touch screen display 2 includes a display 2A and a touch screen 2B. The display 2 </ b> A and the touch screen 2 </ b> B may be arranged, for example, may be arranged side by side, or may be arranged apart from each other. When the display 2A and the touch screen 2B are arranged so as to overlap each other, for example, one or more sides of the display 2A may not be along any side of the touch screen 2B.

ディスプレイ2Aは、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機ELディスプレイ(OELD:Organic Electro−Luminescence Display)、又は無機ELディスプレイ(IELD:Inorganic Electro−Luminescence Display)等の表示デバイスを備える。ディスプレイ2Aは、文字、画像、記号、及び図形等を表示する。ディスプレイ2Aが表示する文字、画像、記号、及び図形等を含む画面には、ロック画面と呼ばれる画面、及びホーム画面と呼ばれる画面が含まれる。ホーム画面は、デスクトップ、待受画面、アイドル画面又は標準画面と呼ばれることもある。   The display 2A includes a liquid crystal display (LCD: Liquid Crystal Display), an organic EL display (OELD: Organic Electro-Luminescence Display), or an inorganic EL display (IELD: Inorganic Electro-Luminescence Display). The display 2A displays characters, images, symbols, graphics, and the like. Screens including characters, images, symbols, graphics, and the like displayed on the display 2A include a screen called a lock screen and a screen called a home screen. The home screen is sometimes called a desktop, a standby screen, an idle screen, or a standard screen.

タッチスクリーン2Bは、タッチスクリーン2Bに対する指、ペン、又はスタイラスペン等の接触を検出する。タッチスクリーン2Bは、複数の指、ペン、又はスタイラスペン等(以下、単に「指」という)がタッチスクリーン2Bに接触した位置を検出することができる。タッチスクリーン2Bは、タッチスクリーン2B(タッチスクリーンディスプレイ2)に対する指の接触を、接触された場所のタッチスクリーンディスプレイ2上での位置とともに、コントローラ10に通知する。   The touch screen 2B detects contact of a finger, a pen, a stylus pen, or the like with respect to the touch screen 2B. The touch screen 2B can detect a position where a plurality of fingers, a pen, a stylus pen or the like (hereinafter simply referred to as “finger”) contacts the touch screen 2B. The touch screen 2B notifies the controller 10 of the contact of the finger with the touch screen 2B (touch screen display 2) together with the position on the touch screen display 2 of the touched location.

タッチスクリーン2Bの検出方式は、静電容量方式、抵抗膜方式、表面弾性波方式(又は超音波方式)、赤外線方式、電磁誘導方式、及び荷重検出方式等の任意の方式でよい。以下の説明では、説明を簡単にするため、利用者はスマートフォン1を操作するために指を用いてタッチスクリーン2Bに接触するものと想定する。   The detection method of the touch screen 2B may be any method such as a capacitance method, a resistive film method, a surface acoustic wave method (or an ultrasonic method), an infrared method, an electromagnetic induction method, and a load detection method. In the following description, in order to simplify the description, it is assumed that the user uses the finger to touch the touch screen 2B in order to operate the smartphone 1.

コントローラ10(スマートフォン1)は、タッチスクリーン2Bにより検出された接触、接触が検出された位置、接触が検出された位置の変化、接触が検出された間隔、及び接触が検出された回数の少なくとも1つに基づいて、ジェスチャの種別を判別する。ジェスチャは、指を用いて、タッチスクリーン2B(タッチスクリーンディスプレイ2)に対して行われる操作である。コントローラ10(スマートフォン1)が、タッチスクリーン2Bを介して判別するジェスチャには、例えば、タッチ、ロングタッチ、リリース、スワイプ、タップ、ダブルタップ、ロングタップ、ドラッグ、フリック、ピンチイン、及びピンチアウトが含まれるがこれらに限定されない。   The controller 10 (smart phone 1) has at least one of the contact detected by the touch screen 2B, the position at which the contact is detected, the change in the position at which the contact is detected, the interval at which the contact is detected, and the number of times the contact is detected. The type of gesture is determined based on the one. The gesture is an operation performed on the touch screen 2B (touch screen display 2) using a finger. The gestures that the controller 10 (smart phone 1) determines via the touch screen 2B include, for example, touch, long touch, release, swipe, tap, double tap, long tap, drag, flick, pinch in, and pinch out. However, it is not limited to these.

ボタン3は、利用者からの操作入力を受け付ける。ボタン3の数は、単数であっても、複数であってもよい。   The button 3 receives an operation input from the user. The number of buttons 3 may be singular or plural.

照度センサ4は、スマートフォン1の周囲光の照度を検出する。照度は、光の強さ、明るさ、又は輝度を示す。照度センサ4は、例えば、ディスプレイ2の輝度の調整に用いられる。   The illuminance sensor 4 detects the illuminance of the ambient light of the smartphone 1. Illuminance indicates light intensity, brightness, or luminance. The illuminance sensor 4 is used for adjusting the luminance of the display 2, for example.

近接センサ5は、近隣の物体の存在を非接触で検出する。近接センサ5は、磁界の変化又は超音波の反射波の帰還時間の変化等に基づいて物体の存在を検出する。近接センサ5は、例えば、ディスプレイ2が顔に近づけられたことを検出する。照度センサ4及び近接センサ5は、1つのセンサとして構成されていてもよい。照度センサ4は、近接センサとして用いられてもよい。   The proximity sensor 5 detects the presence of a nearby object without contact. The proximity sensor 5 detects the presence of an object based on a change in a magnetic field or a change in a feedback time of an ultrasonic reflected wave. For example, the proximity sensor 5 detects that the display 2 is brought close to the face. The illuminance sensor 4 and the proximity sensor 5 may be configured as one sensor. The illuminance sensor 4 may be used as a proximity sensor.

通信ユニット6は、無線により通信する。通信ユニット6によってサポートされる無線通信規格には、例えば、2G、3G、4G等のセルラーフォンの通信規格と、近距離無線の通信規格がある。セルラーフォンの通信規格としては、例えば、LTE(Long Term Evolution)、W−CDMA(Wideband Code Division Multiple Access)、WiMAX(Worldwide Interoperability for Microwave Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile Communications)、PHS(Personal Handy−phone System)等がある。近距離無線の通信規格としては、例えば、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、NFC(Near Field Communication)、WPAN(Wireless Personal Area Network)等がある。WPANの通信規格には、例えば、ZigBee(登録商標)がある。通信ユニット6は、上述した通信規格の1つ又は複数をサポートしていてもよい。   The communication unit 6 communicates wirelessly. The wireless communication standards supported by the communication unit 6 include, for example, cellular phone communication standards such as 2G, 3G, and 4G, and short-range wireless communication standards. Cellular phone communication standards include, for example, LTE (Long Term Evolution), W-CDMA (Wideband Code Division Multiple Access), WiMAX (Worldwide PDA), WiMAX (Worldwide Interoperability Pc) ) (Global System for Mobile Communications), PHS (Personal Handy-phone System), and the like. Examples of short-range wireless communication standards include IEEE 802.11, Bluetooth (registered trademark), IrDA (Infrared Data Association), NFC (Near Field Communication), and WPAN (Wireless Personal Area Network). As a communication standard of WPAN, for example, there is ZigBee (registered trademark). The communication unit 6 may support one or more of the communication standards described above.

通信ユニット6は、GPS衛星からの所定の周波数帯の電波信号を受信し、受信した電波信号の復調処理を行って、処理後の信号をコントローラ10に送出する。スマートフォン1は、GPS衛星との通信機能を通信ユニット6から分散させて、通信ユニット6から独立した個別の通信部を設けてもよい。   The communication unit 6 receives a radio signal in a predetermined frequency band from a GPS satellite, demodulates the received radio signal, and sends the processed signal to the controller 10. The smartphone 1 may disperse the communication function with the GPS satellite from the communication unit 6 and provide an individual communication unit independent from the communication unit 6.

レシーバ7は、音出力部である。レシーバ7は、コントローラ10から送信される音信号を音として出力する。レシーバ7は、例えば、通話時に相手の声を出力するために用いられる。マイク8は、音入力部である。マイク8は、利用者の音声等を音信号へ変換してコントローラ10へ送信する。   The receiver 7 is a sound output unit. The receiver 7 outputs the sound signal transmitted from the controller 10 as sound. The receiver 7 is used, for example, to output the other party's voice during a call. The microphone 8 is a sound input unit. The microphone 8 converts the user's voice or the like into a sound signal and transmits the sound signal to the controller 10.

ストレージ9は、プログラム及びデータを記憶する。ストレージ9は、コントローラ10の処理結果を一時的に記憶する作業領域としても利用される。ストレージ9は、半導体記憶媒体、及び磁気記憶媒体等の任意の非一過的(non−transitory)な記憶媒体を含んでよい。ストレージ9は、複数の種類の記憶媒体を含んでよい。ストレージ9は、メモリカード、光ディスク、又は光磁気ディスク等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。ストレージ9は、RAM(Random Access Memory)等の一時的な記憶領域として利用される記憶デバイスを含んでよい。   The storage 9 stores programs and data. The storage 9 is also used as a work area for temporarily storing the processing result of the controller 10. The storage 9 may include any non-transitory storage medium such as a semiconductor storage medium and a magnetic storage medium. The storage 9 may include a plurality of types of storage media. The storage 9 may include a combination of a portable storage medium such as a memory card, an optical disk, or a magneto-optical disk and a storage medium reader. The storage 9 may include a storage device used as a temporary storage area such as a RAM (Random Access Memory).

ストレージ9に記憶されるプログラムには、フォアグランド又はバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラムとが含まれる。フォアグランドで実行されるアプリケーションは、例えば、ディスプレイ2に画面が表示される。制御プログラムには、例えば、OSが含まれる。アプリケーション及び制御プログラムは、通信ユニット6による無線通信又は非一過的な記憶媒体を介してストレージ9にインストールされてもよい。   The programs stored in the storage 9 include an application executed in the foreground or the background and a control program that supports the operation of the application. For example, an application executed in the foreground displays a screen on the display 2. The control program includes an OS, for example. The application and the control program may be installed in the storage 9 via wireless communication by the communication unit 6 or a non-transitory storage medium.

ストレージ9は、例えば、制御プログラム9A、通話アプリケーション9B、SMSアプリケーション9C、Eメールアプリケーション9D、メモ帳アプリケーション9E、動画アプリケーション9F、ブラウザアプリケーション9G、電話帳データ9Y及び設定データ9Zなどを記憶する。   The storage 9 stores, for example, a control program 9A, a call application 9B, an SMS application 9C, an email application 9D, a memo pad application 9E, a moving image application 9F, a browser application 9G, telephone book data 9Y, setting data 9Z, and the like.

制御プログラム9Aは、スマートフォン1を稼働させるための各種制御に関する機能を提供する。制御プログラム9Aは、マイク8を介して入力される音声に基づく音声制御を実行する対話型のインタフェース機能を提供する。対話型のインタフェース機能には、対話型のインタフェース機能の実行中であることを示す実行画面をディスプレイ2Aに表示させる機能が含まれる。対話型のインタフェース機能には、マイク8により入力される音声を認識し、認識結果に応じて音声及び文字などで応答する機能が含まれる。   The control program 9A provides functions related to various controls for operating the smartphone 1. The control program 9A provides an interactive interface function for executing voice control based on voice input via the microphone 8. The interactive interface function includes a function for causing the display 2A to display an execution screen indicating that the interactive interface function is being executed. The interactive interface function includes a function of recognizing a voice input by the microphone 8 and responding with a voice and characters according to the recognition result.

制御プログラム9Aは、ユーザにより入力される音声を認識し、認識結果に基づいて処理を実行する機能を提供する。この機能には、音声の認識に成功した場合に、ストレージ9に記憶されているアプリケーションの中から、認識結果に対応するアプリケーションを自動的に実行する機能が含まれる。   The control program 9A provides a function of recognizing voice input by the user and executing processing based on the recognition result. This function includes a function of automatically executing an application corresponding to the recognition result from the applications stored in the storage 9 when the speech recognition is successful.

制御プログラム9Aは、ユーザにより入力される音声を認識し、認識結果に基づいて処理を実行できない場合に、ストレージ9に記憶されているアプリケーションの一覧を表示する機能を提供する。認識結果に基づいて処理を実行できない場合には、例えば、音声の認識に失敗した場合、あるいは、ストレージ9に記憶されているアプリケーションの中から、認識結果に対応するアプリケーションを検出できないと判定した場合が含まれる。   The control program 9A provides a function of recognizing a voice input by the user and displaying a list of applications stored in the storage 9 when the process cannot be executed based on the recognition result. When the process cannot be executed based on the recognition result, for example, when the voice recognition fails or when it is determined that the application corresponding to the recognition result cannot be detected from the applications stored in the storage 9 Is included.

制御プログラム9Aは、対話型のインタフェース機能を介した音声制御によって選択されるアプリケーションの入力フィールドに挿入する文字列の音声入力を、音声制御により終了させるための機能を提供する。具体的には、制御プログラム9Aは、対話型インタフェースを介して音声入力される所定のキーワードを検出した場合、あるいは対話型インタフェースを介した音声の入力回数が閾値以上であると判定した場合に、音声制御により選択されるアプリケーションの入力フィールドに挿入する文字列の音声入力を終了するための機能を提供する。   The control program 9A provides a function for ending voice input of a character string to be inserted into an input field of an application selected by voice control via an interactive interface function by voice control. Specifically, when the control program 9A detects a predetermined keyword input by voice through the interactive interface or determines that the number of input voices through the interactive interface is greater than or equal to a threshold value, Provided is a function for terminating voice input of a character string to be inserted into an input field of an application selected by voice control.

例えば、制御プログラム9Aは、対話型インタフェースを介してEメールアプリケーション9Dが選択されている場合、Eメールアプリケーション9Dに関する音声制御をコントローラ10に開始させる。本実施形態において、Eメールアプリケーション9D及びメモ帳アプリケーション9Eが音声制御を実行すべきアプリケーションとして予め登録されているものとする。本実施形態において、Eメールアプリケーション9Dが音声制御に関する音声制御とは、Eメールアプリケーション9Dの本文のフィールドに対して挿入する文字列に対応する音声として複数回の音声入力を可能とする一方で、所定のキーワードの検出あるいは音声の入力回数により音声入力を終了させる制御に該当する。続いて、制御プログラム9Aは、Eメールアプリケーション9Dを所定のキーワードが検出されるまでの間、Eメールアプリケーション9Dの本文のフィールドに挿入すべき文字列として、音声入力される文字列をストレージ9の記憶領域に保存する処理をコントローラ10に実現させる。制御プログラム9Aは、所定のキーワードが入力されると、Eメールアプリケーション9Dの本文のフィールドに挿入する文字列の音声入力を終了する処理をコントローラ10に実現させる。あるいは、制御プログラム9Aは、Eメールアプリケーション9Dの本文のフィールドに挿入すべき文字列に対応する音声の入力を開始してから音声の入力回数が閾値以上となるまでの間、Eメールアプリケーション9Dの本文のフィールドに挿入すべき文字列として、音声入力される文字列をストレージ9の記憶領域に保存する処理をコントローラ10に実現させる。制御プログラム9Aは、音声の入力回数が閾値以上となると、Eメールアプリケーション9Dの本文のフィールドに挿入する文字列の音声入力を終了する処理をコントローラ10に実現させる。   For example, when the email application 9D is selected through the interactive interface, the control program 9A causes the controller 10 to start voice control related to the email application 9D. In the present embodiment, it is assumed that the e-mail application 9D and the memo pad application 9E are registered in advance as applications that should execute voice control. In the present embodiment, the voice control related to voice control by the email application 9D means that voice input can be performed multiple times as a voice corresponding to a character string to be inserted into the body field of the email application 9D. This corresponds to the control for terminating the voice input according to the detection of a predetermined keyword or the number of voice inputs. Subsequently, the control program 9A stores a character string inputted by voice as a character string to be inserted into the body field of the email application 9D until the predetermined keyword is detected in the email application 9D. The controller 10 is caused to realize processing to be stored in the storage area. When a predetermined keyword is input, the control program 9A causes the controller 10 to realize a process of ending the voice input of the character string to be inserted into the body field of the email application 9D. Alternatively, the control program 9A starts the input of the voice corresponding to the character string to be inserted into the body field of the email application 9D until the number of voice inputs reaches or exceeds the threshold value. As a character string to be inserted into the text field, the controller 10 is caused to realize a process of storing a character string input by voice in a storage area of the storage 9. The control program 9A causes the controller 10 to realize a process of ending the voice input of the character string to be inserted into the body field of the email application 9D when the number of voice inputs exceeds the threshold.

制御プログラム9Aは、音声制御により音声入力を終了すると、音声制御により選択されたアプリケーションを起動し、起動したアプリケーションの入力フィールドに音声入力された文字列を挿入するための機能を提供する。   The control program 9A provides a function for starting an application selected by voice control when voice input is finished by voice control and inserting a character string input by voice into the input field of the started application.

例えば、制御プログラム9Aは、対話型インタフェースを介してEメールアプリケーション9Dが選択されている場合、上記音声制御により音声入力を終了すると、Eメールアプリケーション9Dを起動し、起動したEメールアプリケーション9Dの本文に、Eメールアプリケーション9Dの本文のフィールドに挿入する文字列すべき文字列としてストレージ9に保存しておいた文字列を挿入する。   For example, when the e-mail application 9D is selected through the interactive interface, the control program 9A activates the e-mail application 9D when the voice input is terminated by the above-described voice control, and the text of the activated e-mail application 9D. The character string stored in the storage 9 is inserted as a character string to be inserted into the body field of the email application 9D.

その他、制御プログラム9Aは、通信ユニット6などを制御することによって、LTE(Long Term Evolution)、W−CDMA(Wideband Code Division Multiple Access)、WiMAX(Worldwide Interoperability for Microwave Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile Communications)、PHS(Personal Handy−phone System)などを用いた通信を実現させるための機能を提供する。   In addition, the control program 9A controls the communication unit 6 and the like, thereby enabling LTE (Long Term Evolution), W-CDMA (Wideband Code Division Multiple Access), WiMAX (Worldwide InterCirability). A function for realizing communication using Cellular, GSM (registered trademark) (Global System for Mobile Communications), PHS (Personal Handy-phone System), and the like is provided.

制御プログラム9Aは、通信ユニット6などを制御することによって、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、NFC(Near Field Communication)、WPAN(Wireless Personal Area Network)等を用いた近距離無線通信を実現させるための機能を提供する。   The control program 9A controls the communication unit 6 and the like, thereby using IEEE 802.11, Bluetooth (registered trademark), IrDA (Infrared Data Association), NFC (Near Field Communication), WPAN (Wireless Personal Network), and the like. A function for realizing near field communication is provided.

制御プログラム9Aは、例えば、通信ユニット6及びマイク8などを制御することによって、通話を実現させるための機能を提供する。   The control program 9A provides a function for realizing a call by controlling the communication unit 6 and the microphone 8, for example.

制御プログラム9Aにより提供される機能は、通話を実現させる場合、通話アプリケーション9B又はEメールアプリケーション9Dなど、ストレージ9に記憶される他のプログラムなどが提供する機能と組み合わせて利用されることがある。例えば、制御プログラム9Aにより提供される上記対話型のインタフェース機能と、制御プログラム9Aにより提供される他の機能とは、組み合わせて利用されることがある。制御プログラム9Aにより提供される各機能は、複数のプログラムモジュールに分割されていてもよいし、他のプログラムと結合されていてもよい。例えば、制御プログラム9Aにより提供される対話型のインタフェース機能は、他のモジュールに分割されていてもよい。   The functions provided by the control program 9A may be used in combination with functions provided by other programs stored in the storage 9, such as the call application 9B or the e-mail application 9D, when realizing a call. For example, the interactive interface function provided by the control program 9A and other functions provided by the control program 9A may be used in combination. Each function provided by the control program 9A may be divided into a plurality of program modules, or may be combined with other programs. For example, the interactive interface function provided by the control program 9A may be divided into other modules.

通話アプリケーション9Bは、通話を実現するための機能を提供する。SMSアプリケーション9Cは、SMS(Short Message Service)として、所定の文字数以内のメールを送受信するための機能を提供する。Eメールアプリケーション9Dは、電子メールの作成、送信、受信、及び表示等のための電子メール機能を提供する。メモ帳アプリケーション9Eは、テキストデータの作成及び管理するためのテキストエディタ機能を提供する。動画アプリケーション9Fは、動画の再生などを行うための機能を提供する。ブラウザアプリケーション9Gは、ブラウジング機能を提供する。ストレージ9に記憶されるアプリケーションは一例に過ぎない。図1に示すもの以外に、ナビゲートアプリケーション、音楽プレイヤーアプリケーション、計算機アプリケーション、付箋アプリケーションなど、複数のアプリケーションが記憶されていてもよい。   The call application 9B provides a function for realizing a call. The SMS application 9C provides a function for sending and receiving mail within a predetermined number of characters as SMS (Short Message Service). The email application 9D provides an email function for creating, sending, receiving, and displaying an email. The memo pad application 9E provides a text editor function for creating and managing text data. The moving image application 9F provides a function for reproducing a moving image. The browser application 9G provides a browsing function. The application stored in the storage 9 is only an example. In addition to the one shown in FIG. 1, a plurality of applications such as a navigation application, a music player application, a computer application, and a tag application may be stored.

電話帳データ9Yは、電話番号、メールアドレスなどの情報を含む。設定データ9Zは、スマートフォン1の動作に関連する各種の設定及び処理に関する情報を含む。例えば、設定データ9Zには、音声制御を終了するための閾値の情報が含まれる。その他、ストレージ9には、コントローラ10による処理により、マイク8を介して音声入力される文字列のデータが保存される。   The phone book data 9Y includes information such as a telephone number and a mail address. The setting data 9Z includes information regarding various settings and processes related to the operation of the smartphone 1. For example, the setting data 9Z includes threshold information for ending the voice control. In addition, the storage 9 stores character string data input by voice through the microphone 8 by processing by the controller 10.

コントローラ10は、演算処理装置である。演算処理装置は、例えば、CPU(Central Processing Unit)、SoC(System−on−a−chip)、MCU(Micro Control Unit)、及びFPGA(Field−Programmable Gate Array)を含むが、これらに限定されない。コントローラ10は、スマートフォン1の動作を統括的に制御して各種の機能を実現する。   The controller 10 is an arithmetic processing device. The arithmetic processing unit includes, for example, a CPU (Central Processing Unit), an SoC (System-on-a-chip), an MCU (Micro Control Unit), and an FPGA (Field-Programmable Gate Array), but is not limited thereto. The controller 10 controls various operations of the smartphone 1 to realize various functions.

具体的には、コントローラ10は、ストレージ9に記憶されているデータを必要に応じて参照しつつ、ストレージ9に記憶されているプログラムに含まれる命令を実行する。コントローラ10は、データ及び命令に応じて機能部を制御し、それによって各種機能を実現する。機能部は、例えば、ディスプレイ2、通信ユニット6、レシーバ7、マイク8、及びスピーカ11を含むが、これらに限定されない。コントローラ10は、検出部の検出結果に応じて、制御を変更することがある。検出部は、例えば、ボタン3、照度センサ4、近接センサ5、マイク8、カメラ12、姿勢検出ユニット15、及びタッチスクリーン21を含むが、これらに限定されない。   Specifically, the controller 10 executes instructions included in the program stored in the storage 9 while referring to the data stored in the storage 9 as necessary. The controller 10 controls the functional unit according to data and instructions, thereby realizing various functions. The functional unit includes, for example, the display 2, the communication unit 6, the receiver 7, the microphone 8, and the speaker 11, but is not limited thereto. The controller 10 may change the control according to the detection result of the detection unit. The detection unit includes, for example, the button 3, the illuminance sensor 4, the proximity sensor 5, the microphone 8, the camera 12, the posture detection unit 15, and the touch screen 21, but is not limited thereto.

コントローラ10は、制御プログラム9Aを実行することにより、対話型のインタフェースによる処理を実現する。例えば、コントローラ10は、対話型のインタフェース機能の実行中であることを示す実行画面をディスプレイ2Aに表示させる。例えば、コントローラ10は、マイク8により入力される音声を認識し、認識結果に応じて音声及び文字などで応答する。   The controller 10 realizes processing by an interactive interface by executing the control program 9A. For example, the controller 10 causes the display 2A to display an execution screen indicating that the interactive interface function is being executed. For example, the controller 10 recognizes the voice input by the microphone 8 and responds with voice and characters according to the recognition result.

コントローラ10は、制御プログラム9Aを実行することにより、ユーザにより入力される音声を認識し、認識結果に基づく処理を実現する。例えば、コントローラ10は、音声の認識に成功した場合に、ストレージ9に記憶されているアプリケーションの中から、認識結果に対応するアプリケーションを自動的に起動する。   The controller 10 recognizes the voice input by the user by executing the control program 9A, and realizes processing based on the recognition result. For example, when the recognition of the voice is successful, the controller 10 automatically activates an application corresponding to the recognition result from among the applications stored in the storage 9.

コントローラ10は、制御プログラム9Aを実行することにより、ユーザにより入力される音声を認識し、認識結果に基づいて処理を実行できない場合に、ストレージ9に記憶されているアプリケーションの一覧を表示する処理を実現する。認識結果に基づいて処理を実行できない場合には、例えば、音声の認識に失敗した場合、または、ストレージ9に記憶されているアプリケーションの中から、認識結果に対応するアプリケーションを検出できないと判定した場合が含まれる。   The controller 10 recognizes the voice input by the user by executing the control program 9A, and displays a list of applications stored in the storage 9 when the process cannot be executed based on the recognition result. Realize. When the process cannot be executed based on the recognition result, for example, when the voice recognition fails or when it is determined that the application corresponding to the recognition result cannot be detected from the applications stored in the storage 9 Is included.

コントローラ10は、制御プログラム9Aを実行することにより、対話型のインタフェース機能を介した音声制御によって選択されるアプリケーションの入力フィールドに挿入する文字列の音声入力を、音声制御により終了させる処理を実現する。具体的には、コントローラ10は、対話型インタフェースを介して音声入力される所定のキーワードを検出した場合、あるいは対話型インタフェースを介した音声の入力回数が閾値以上であると判定した場合に、音声制御により選択されるアプリケーションの入力フィールドに挿入する文字列の音声入力を終了する。   By executing the control program 9A, the controller 10 realizes a process for terminating the voice input of the character string to be inserted into the input field of the application selected by the voice control through the interactive interface function by the voice control. . Specifically, when the controller 10 detects a predetermined keyword input by voice through the interactive interface or determines that the number of input voices through the interactive interface is equal to or greater than a threshold, The voice input of the character string to be inserted into the input field of the application selected by the control is terminated.

例えば、コントローラ10は、対話型インタフェースを介してEメールアプリケーション9Dが選択されている場合、Eメールアプリケーション9Dが音声制御に関する音声制御を開始する。本実施形態において、Eメールアプリケーション9D及びメモ帳アプリケーション9Eが音声制御を実行すべきアプリケーションとして予め登録されているものとする。本実施形態において、例えば、Eメールアプリケーション9Dが音声制御に関する音声制御とは、Eメールアプリケーション9Dの本文のフィールドに対して挿入する文字列に対応する音声として複数回の音声入力を可能とする一方で、所定のキーワードの検出あるいは音声の入力回数により音声入力を終了させる制御に該当する。続いて、コントローラ10は、所定のキーワードが検出されるまでの間、Eメールアプリケーション9Dの本文のフィールドに挿入すべき文字列として、音声入力される文字列をストレージ9の記憶領域に保存する。コントローラ10は、所定のキーワードが入力されると、Eメールアプリケーション9Dの本文のフィールドに挿入する文字列の音声入力を終了する。あるいは、コントローラ10は、Eメールアプリケーション9Dの本文のフィールドに挿入すべき文字列に対応する音声の入力を開始してから音声の入力回数が閾値以上となるまでの間、Eメールアプリケーション9Dの本文のフィールドに挿入すべき文字列として、音声入力される文字列をストレージ9の記憶領域に保存する。コントローラ10は、音声の入力回数が閾値以上となると、Eメールアプリケーション9Dの本文のフィールドに挿入する文字列の音声入力を終了する。   For example, when the e-mail application 9D is selected via the interactive interface, the e-mail application 9D starts voice control related to voice control. In the present embodiment, it is assumed that the e-mail application 9D and the memo pad application 9E are registered in advance as applications that should execute voice control. In the present embodiment, for example, the voice control related to voice control by the email application 9D means that voice input can be performed multiple times as a voice corresponding to a character string to be inserted into the body field of the email application 9D. This corresponds to the control for terminating the voice input according to the detection of a predetermined keyword or the number of voice inputs. Subsequently, until the predetermined keyword is detected, the controller 10 saves the character string to be input as a character string to be inserted into the body field of the email application 9D in the storage area of the storage 9. When a predetermined keyword is input, the controller 10 ends the voice input of the character string to be inserted into the body field of the email application 9D. Alternatively, the controller 10 starts the text input corresponding to the character string to be inserted into the text field of the email application 9D until the number of voice input exceeds the threshold, and then the text of the email application 9D. As a character string to be inserted into this field, a character string inputted by voice is stored in the storage area of the storage 9. When the number of input voices exceeds the threshold, the controller 10 ends the voice input of the character string to be inserted into the body field of the email application 9D.

コントローラ10は、制御プログラム9Aを実行することにより、音声制御により音声入力を終了すると、音声制御により選択されたアプリケーションを起動し、起動したアプリケーションの入力フィールドに音声入力された文字列を挿入するための機能を提供する。   When the controller 10 executes the control program 9A and ends the voice input by voice control, the controller 10 starts the application selected by voice control and inserts the character string input by voice into the input field of the started application. Provides the functionality of

例えば、コントローラ10は、対話型インタフェースを介してEメールアプリケーション9Dが選択されている場合、上記音声制御により音声入力を終了すると、Eメールアプリケーション9Dを起動し、起動したEメールアプリケーション9Dの本文に、Eメールアプリケーション9Dの本文のフィールドに挿入する文字列すべき文字列としてストレージ9に保存しておいた文字列を挿入する。   For example, when the e-mail application 9D is selected via the interactive interface, the controller 10 activates the e-mail application 9D when the voice input is ended by the above-described voice control, and the body of the activated e-mail application 9D is displayed. The character string stored in the storage 9 is inserted as the character string to be inserted into the body field of the email application 9D.

スピーカ11は、音出力部である。スピーカ11は、コントローラ10から送信される音信号を音として出力する。スピーカ11は、例えば、着信音及び音楽を出力するために用いられる。レシーバ7及びスピーカ11の一方が、他方の機能を兼ねてもよい。   The speaker 11 is a sound output unit. The speaker 11 outputs the sound signal transmitted from the controller 10 as sound. The speaker 11 is used for outputting a ring tone and music, for example. One of the receiver 7 and the speaker 11 may also function as the other.

カメラ12は、撮影した画像を電気信号へ変換する。カメラ12には、例えば、ディスプレイ2に面している物体を撮影するインカメラ、ディスプレイ2の反対側の面に面している物体を撮影するアウトカメラが含まれる。   The camera 12 converts the captured image into an electrical signal. The camera 12 includes, for example, an in-camera that captures an object facing the display 2 and an out-camera that captures an object facing the opposite surface of the display 2.

姿勢検出ユニット15は、スマートフォン1の姿勢を検出する。姿勢検出ユニット15は、姿勢を検出するために、加速度センサ、方位センサ、及びジャイロスコープの少なくとも1つを備える。   The posture detection unit 15 detects the posture of the smartphone 1. The posture detection unit 15 includes at least one of an acceleration sensor, a direction sensor, and a gyroscope in order to detect the posture.

バイブレータ18は、スマートフォン1の一部又は全体を振動させる。バイブレータ18は、振動を発生させるために、例えば、圧電素子、又は偏心モータなどを有する。バイブレータ18による振動は、着信等の各種のイベントを利用者に報知するために用いられる。   The vibrator 18 vibrates a part or the whole of the smartphone 1. The vibrator 18 includes, for example, a piezoelectric element or an eccentric motor in order to generate vibration. The vibration by the vibrator 18 is used to notify the user of various events such as incoming calls.

図1に示したスマートフォン1の機能構成は例であり、本発明の要旨を損なわない範囲において適宜変更してよい。   The functional configuration of the smartphone 1 illustrated in FIG. 1 is an example, and may be appropriately changed within a range that does not impair the gist of the present invention.

図2〜図7を用いて、実施形態におけるスマートフォン1により実行される処理の一例について説明する。図2〜図7に登場するF1は、ユーザの指を示す。図2〜図7では、いわゆるロック画面がディスプレイ2Aに表示されている場合の処理の一例について説明するが、対話型のインタフェースを起動可能な状況であれば、同様の処理を実現できる。以下の説明において、“操作”と表記するものは、スマートフォン1(コントローラ10)が、タッチスクリーン2Bを介して、検出可能な任意のタッチジェスチャであってよい。   An example of processing executed by the smartphone 1 according to the embodiment will be described with reference to FIGS. F1 appearing in FIGS. 2 to 7 indicates a user's finger. 2 to 7, an example of processing when a so-called lock screen is displayed on the display 2 </ b> A will be described, but similar processing can be realized as long as an interactive interface can be activated. In the following description, what is described as “operation” may be any touch gesture that can be detected by the smartphone 1 (controller 10) via the touch screen 2B.

図2及び図3は、所定のキーワードの検出により、メールアプリケーション(例えば、Eメールアプリケーション9Dなど)の本文のフィールドへの音声入力を終了する場合の処理の一例を示す図である。   2 and 3 are diagrams illustrating an example of processing when voice input to a body field of a mail application (for example, the email application 9D) is terminated by detection of a predetermined keyword.

図2に示すように、スマートフォン1は、ディスプレイ2Aにロック画面40を表示している。ロック画面40は、スマートフォン1がロック状態にある場合に表示される。スマートフォン1は、ディスプレイ2Aにロック画面40が表示されている場合、特定の操作を除いて、ユーザの操作を受け付けない。特定の操作には、例えば、ロック状態を解除するための操作、及び通知画面をディスプレイ2Aに表示させるための操作が含まれる。ロック状態には、単に、ユーザの操作を受け付けない状態だけでなく、セキュリティロック状態を含んでもよい。図2に示すように、ロック画面40には、対話型のインタフェースを起動させるためのアイコン40aが配置されている。   As shown in FIG. 2, the smartphone 1 displays a lock screen 40 on the display 2A. The lock screen 40 is displayed when the smartphone 1 is in a locked state. When the lock screen 40 is displayed on the display 2 </ b> A, the smartphone 1 does not accept a user operation except for a specific operation. The specific operation includes, for example, an operation for releasing the lock state and an operation for displaying a notification screen on the display 2A. The lock state may include not only a state in which a user operation is not accepted but also a security lock state. As shown in FIG. 2, the lock screen 40 is provided with an icon 40a for starting an interactive interface.

図2に示すように、スマートフォン1は、タッチスクリーン2Bを介して、ロック画面40に配置されているアイコン40aに対する操作を検出すると(ステップS11)、ディスプレイ2Aに対話型のインタフェースの実行画面50を表示する(ステップS12)。このとき、スマートフォン1は、ステップS12に示すように、“ご用件をお話下さい。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(S−1)を実行画面50に表示する。   As shown in FIG. 2, when the smartphone 1 detects an operation on the icon 40a disposed on the lock screen 40 via the touch screen 2B (step S11), the smartphone 1 displays an interactive interface execution screen 50 on the display 2A. Display (step S12). At this time, as shown in step S12, the smartphone 1 outputs the voice guidance “Please tell me your business.” From the speaker 11 and displays the speech balloon image (S-1) corresponding to the voice guidance on the execution screen. 50.

続いて、スマートフォン1は、マイク8により音声が入力されると、入力された音声の認識処理を実行する。認識に成功した場合、スマートフォン1は、認識結果に対応するアプリケーションがあるかを判定し、認識結果に対応するアプリケーションがある場合には、アプリケーションに関する音声制御を実行するかを判定する。スマートフォン1は、アプリケーションに関する音声制御を実行する場合には、ユーザに応答するとともに、アプリケーションに関する音声制御を開始する(ステップS13〜ステップS14)。   Subsequently, when a voice is input from the microphone 8, the smartphone 1 executes a process for recognizing the input voice. When the recognition is successful, the smartphone 1 determines whether there is an application corresponding to the recognition result. When there is an application corresponding to the recognition result, the smartphone 1 determines whether to perform voice control related to the application. When the smartphone 1 executes voice control related to the application, the smartphone 1 responds to the user and starts voice control related to the application (steps S13 to S14).

具体的には、スマートフォン1は、マイク8を介して音声で入力される文字列を“特許一郎さんにメール”であると認識すると、ステップS13に示すように、認識した文字列に対応する吹き出しの画像(U−1)を実行画面50に表示する。続いて、スマートフォン1は、ストレージ9に記憶されているアプリケーションの中から、認識結果に対応するEメールアプリケーション9Dを検出し、Eメールアプリケーション9Dに関する音声制御を実行するものと判定する。続いて、スマートフォン1は、ステップS14に示すように、Eメールアプリケーション9Dの音声制御を開始し、その旨をユーザに報知するための画像50aを実行画面50に表示する。スマートフォン1は、ステップS14に示すように、“件名を教えてください。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(S−2)を実行画面50に表示する。   Specifically, when the smartphone 1 recognizes that the character string input by voice through the microphone 8 is “mail to Mr. Ichiro Patent”, a speech bubble corresponding to the recognized character string as shown in step S13. The image (U-1) is displayed on the execution screen 50. Subsequently, the smartphone 1 detects an e-mail application 9D corresponding to the recognition result from the applications stored in the storage 9, and determines that voice control related to the e-mail application 9D is executed. Subsequently, as shown in step S <b> 14, the smartphone 1 starts voice control of the email application 9 </ b> D, and displays an image 50 a for notifying the user on the execution screen 50. As shown in step S <b> 14, the smartphone 1 outputs a voice guidance “Please tell me the subject” from the speaker 11 and displays a speech balloon image (S-2) corresponding to the voice guidance on the execution screen 50. .

続いて、スマートフォン1は、マイク8により音声が入力されると、入力された音声の認識処理を実行する。認識に成功した場合、スマートフォン1は、認識結果を保存するとともに、ユーザに応答する(ステップS15〜ステップS16)。   Subsequently, when a voice is input from the microphone 8, the smartphone 1 executes a process for recognizing the input voice. When the recognition is successful, the smartphone 1 stores the recognition result and responds to the user (Steps S15 to S16).

具体的には、スマートフォン1は、マイク8を介して音声で入力される文字列を“おはようございます。”であると認識すると、ステップS15に示すように、認識した文字列に対応する吹き出しの画像(U−2)を実行画面50に表示する。続いて、スマートフォン1は、認識した文字列を保存し、件名が未入力であった画像50aの件名に対応するフィールドに、認識した文字列が挿入された画像50bを表示する(ステップS16)。メールの件名を取得後、ステップS16に示すように、スマートフォン1は、“本文を教えてください。完了といえばメールアプリを起動します。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(S−3)を実行画面50に表示する。   Specifically, when the smartphone 1 recognizes that the character string input by voice through the microphone 8 is “Good morning”, a speech balloon corresponding to the recognized character string is displayed as shown in step S15. The image (U-2) is displayed on the execution screen 50. Subsequently, the smartphone 1 stores the recognized character string, and displays the image 50b in which the recognized character string is inserted in the field corresponding to the subject of the image 50a in which the subject has not been input (step S16). After obtaining the subject of the mail, as shown in step S16, the smartphone 1 outputs a voice guidance from the speaker 11 “Please tell me the text. A corresponding balloon image (S-3) is displayed on the execution screen 50.

続いて、スマートフォン1は、マイク8により音声が入力されると、入力された音声の認識処理を実行する。認識に成功した場合、スマートフォン1は、認識結果が音声入力の終了キーワードではないこと、あるいは音声の入力回数が閾値に到達していないことを条件として、認識結果を保存するとともに、ユーザに応答する(ステップS17〜ステップS18)。   Subsequently, when a voice is input from the microphone 8, the smartphone 1 executes a process for recognizing the input voice. If the recognition is successful, the smartphone 1 saves the recognition result and responds to the user on the condition that the recognition result is not the end keyword of the voice input or that the number of times of voice input has not reached the threshold. (Step S17 to Step S18).

具体的には、スマートフォン1は、マイク8を介して音声で入力される文字列を“8時集合です。”であると認識すると、ステップS17に示すように、認識した文字列に対応する吹き出しの画像(U−3)を実行画面50に表示する。続いて、スマートフォン1は、認識した文字列を保存し、本文が未入力であった画像50bの本文に対応するフィールドに、認識した文字列が挿入された画像50cを表示する(ステップS18)。メールの本文に挿入する文字列を取得後、ステップS18に示すように、スマートフォン1は、再び、“本文を教えてください。完了といえばメールアプリを起動します。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(S−4)を実行画面50に表示する。   Specifically, when the smartphone 1 recognizes that the character string input by voice through the microphone 8 is “8 o'clock set”, a speech bubble corresponding to the recognized character string as shown in step S17. The image (U-3) is displayed on the execution screen 50. Subsequently, the smartphone 1 stores the recognized character string, and displays the image 50c in which the recognized character string is inserted in the field corresponding to the text of the image 50b in which the text has not been input (step S18). After obtaining the character string to be inserted into the body of the mail, as shown in step S18, the smartphone 1 again receives a voice guidance from the speaker 11 “Tell me the body. While outputting, the balloon image (S-4) corresponding to the voice guidance is displayed on the execution screen 50.

続いて、スマートフォン1は、マイク8により音声が入力されると、入力された音声の認識処理を実行する。認識に成功した場合、スマートフォン1は、認識結果が音声入力の終了キーワードではないこと、あるいは音声の入力回数が閾値に到達していないことを条件として、認識結果を保存するとともに、ユーザに応答する(ステップS19〜ステップS20)。   Subsequently, when a voice is input from the microphone 8, the smartphone 1 executes a process for recognizing the input voice. If the recognition is successful, the smartphone 1 saves the recognition result and responds to the user on the condition that the recognition result is not the end keyword of the voice input or that the number of times of voice input has not reached the threshold. (Step S19 to Step S20).

具体的には、スマートフォン1は、マイク8を介して音声で入力される文字列を“みなさん、集合しました。”であると認識すると、ステップS19に示すように、認識した文字列に対応する吹き出しの画像(U−4)を実行画面50に表示する。続いて、スマートフォン1は、認識した文字列を保存し、画像50cの本文に対応するフィールドに、認識した文字列が挿入された画像50dを表示する(ステップS20)。メールの本文に挿入する文字列を再取得後、ステップS20に示すように、スマートフォン1は、再び、“本文を教えてください。完了といえばメールアプリを起動します。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(S−5)を実行画面50に表示する。   Specifically, when the smartphone 1 recognizes that the character string input by voice through the microphone 8 is “Everyone gathered”, as shown in step S19, the smartphone 1 corresponds to the recognized character string. The balloon image (U-4) is displayed on the execution screen 50. Subsequently, the smartphone 1 stores the recognized character string, and displays the image 50d in which the recognized character string is inserted in the field corresponding to the text of the image 50c (step S20). After re-acquiring the character string to be inserted into the body of the mail, as shown in step S20, the smartphone 1 again receives a voice guidance “Please tell me the body. And an image of a balloon (S-5) corresponding to the voice guidance is displayed on the execution screen 50.

続いて、スマートフォン1は、マイク8により音声が入力されると、入力された音声の認識処理を実行する。認識に成功した場合、スマートフォン1は、認識結果が音声入力の終了キーワードであること、あるいは音声の入力回数が閾値以上であることを条件として、音声入力を終了し、アプリケーションを起動する(ステップS21〜ステップS22)。   Subsequently, when a voice is input from the microphone 8, the smartphone 1 executes a process for recognizing the input voice. If the recognition is successful, the smartphone 1 ends the voice input and starts the application on the condition that the recognition result is a voice input end keyword or that the number of voice inputs is equal to or greater than a threshold (step S21). -Step S22).

具体的には、スマートフォン1は、マイク8を介して音声で入力される文字列を、音声入力を終了させるキーワードである“完了”であると認識すると、ステップS21に示すように、認識した文字列に対応する吹き出しの画像を表示しない。続いて、スマートフォン1は、音声入力の終了を受け付けた旨をユーザに報知することを目的として“メールアプリを起動します。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(S−6)を実行画面50に表示する。スマートフォン1は、ステップS22に示すように、Eメールアプリケーション9Dを起動して、宛先、件名、及び本文のそれぞれに対応する文字列を挿入したメール作成画面60をディスプレイ2Aに表示する。   Specifically, when the smartphone 1 recognizes that the character string input by voice through the microphone 8 is “complete”, which is a keyword for terminating voice input, the recognized character is displayed as shown in step S21. Do not display balloon images corresponding to columns. Subsequently, the smartphone 1 outputs a voice guidance “starts the mail application” from the speaker 11 for the purpose of notifying the user that the end of the voice input has been accepted, and a balloon corresponding to the voice guidance. The image (S-6) is displayed on the execution screen 50. As shown in step S22, the smartphone 1 activates the e-mail application 9D and displays a mail creation screen 60 in which character strings corresponding to each of the destination, the subject, and the text are inserted on the display 2A.

図4及び図5は、所定のキーワードの検出により、メールアプリケーション(例えば、Eメールアプリケーション9D)の本文のフィールドへの音声入力を終了する場合の処理の他の例を示す図である。   FIG. 4 and FIG. 5 are diagrams showing another example of processing when the voice input to the body field of the mail application (for example, the email application 9D) is terminated by detecting a predetermined keyword.

図4に示すように、スマートフォン1は、タッチスクリーン2Bを介して、ロック画面40に配置されているアイコン40aに対する操作を検出すると(ステップS31)、ディスプレイ2Aに対話型のインタフェースの実行画面50を表示する(ステップS32)。このとき、スマートフォン1は、ステップS12に示すように、“ご用件をお話下さい。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(S−11)を実行画面50に表示する。   As illustrated in FIG. 4, when the smartphone 1 detects an operation on the icon 40a arranged on the lock screen 40 via the touch screen 2B (step S31), the smartphone 1 displays an interactive interface execution screen 50 on the display 2A. It is displayed (step S32). At this time, as shown in step S <b> 12, the smartphone 1 outputs a voice guidance “Please tell me your business.” From the speaker 11, and displays a speech balloon image (S-11) corresponding to the voice guidance on the execution screen. 50.

続いて、スマートフォン1は、マイク8により音声が入力されると、入力された音声の認識処理を実行する。認識に成功した場合、スマートフォン1は、認識結果に対応するアプリケーションがあるかを判定し、認識結果に対応するアプリケーションがある場合には、アプリケーションに関する音声制御を実行するかを判定する。スマートフォン1は、アプリケーションに関する音声制御を実行する場合には、ユーザに応答するとともに、アプリケーションに関する音声制御を開始する(ステップS33〜ステップS34)。   Subsequently, when a voice is input from the microphone 8, the smartphone 1 executes a process for recognizing the input voice. When the recognition is successful, the smartphone 1 determines whether there is an application corresponding to the recognition result. When there is an application corresponding to the recognition result, the smartphone 1 determines whether to perform voice control related to the application. When the smartphone 1 performs voice control related to the application, the smartphone 1 responds to the user and starts voice control related to the application (steps S33 to S34).

具体的には、スマートフォン1は、マイク8を介して音声で入力される文字列を“特許一郎さんにメール”であると認識すると、ステップS33に示すように、認識した文字列に対応する吹き出しの画像(U−11)を実行画面50に表示する。続いて、スマートフォン1は、ストレージ9に記憶されているアプリケーションの中から、認識結果に対応するEメールアプリケーション9Dを検出し、Eメールアプリケーション9Dに関する音声制御を実行するものと判定する。続いて、スマートフォン1は、ステップS34に示すように、Eメールアプリケーション9Dの音声制御を開始し、その旨をユーザに報知するための画像50aを実行画面50に表示する。スマートフォン1は、ステップS34に示すように、“件名を教えてください。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(S−12)を実行画面50に表示する。   Specifically, when the smartphone 1 recognizes that the character string input by voice through the microphone 8 is “Mail to Mr. Ichiro Patent”, a speech bubble corresponding to the recognized character string as shown in step S33. The image (U-11) is displayed on the execution screen 50. Subsequently, the smartphone 1 detects an e-mail application 9D corresponding to the recognition result from the applications stored in the storage 9, and determines that voice control related to the e-mail application 9D is executed. Subsequently, as shown in step S <b> 34, the smartphone 1 starts voice control of the email application 9 </ b> D and displays an image 50 a for notifying the user on the execution screen 50. As shown in step S <b> 34, the smartphone 1 outputs a voice guidance “Please tell me the subject.” From the speaker 11 and displays a speech balloon image (S-12) corresponding to the voice guidance on the execution screen 50. .

続いて、スマートフォン1は、マイク8により音声が入力されると、入力された音声の認識処理を実行する。認識に成功した場合、スマートフォン1は、認識結果を保存するとともに、ユーザに応答する(ステップS35〜ステップS36)。   Subsequently, when a voice is input from the microphone 8, the smartphone 1 executes a process for recognizing the input voice. When the recognition is successful, the smartphone 1 stores the recognition result and responds to the user (steps S35 to S36).

具体的には、スマートフォン1は、マイク8を介して音声で入力される文字列を“おはようございます。”であると認識すると、ステップS35に示すように、認識した文字列に対応する吹き出しの画像(U−12)を実行画面50に表示する。続いて、スマートフォン1は、認識した文字列を保存し、件名が未入力であった画像50aの件名に対応するフィールドに、認識した文字列が挿入された画像50bを表示する(ステップS36)。メールの件名を取得後、ステップS36に示すように、スマートフォン1は、“本文を教えてください。完了といえばメールアプリを起動します。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(S−13)を実行画面50に表示する。   Specifically, when the smartphone 1 recognizes that the character string input by voice through the microphone 8 is “Good morning”, a speech balloon corresponding to the recognized character string is displayed as shown in step S35. The image (U-12) is displayed on the execution screen 50. Subsequently, the smartphone 1 stores the recognized character string, and displays the image 50b in which the recognized character string is inserted in the field corresponding to the subject of the image 50a in which the subject has not been input (step S36). After obtaining the subject of the mail, as shown in step S36, the smartphone 1 outputs a voice guidance from the speaker 11 “Please tell me the text. The corresponding balloon image (S-13) is displayed on the execution screen 50.

続いて、スマートフォン1は、マイク8により音声が入力されると、入力された音声の認識処理を実行する。認識に成功した場合、スマートフォン1は、認識結果が音声入力の終了キーワードではないこと、あるいは音声の入力回数が閾値に到達していないことを条件として、認識結果を保存するとともに、ユーザに応答する(ステップS37〜ステップS38)。   Subsequently, when a voice is input from the microphone 8, the smartphone 1 executes a process for recognizing the input voice. If the recognition is successful, the smartphone 1 saves the recognition result and responds to the user on the condition that the recognition result is not the end keyword of the voice input or that the number of times of voice input has not reached the threshold. (Step S37 to Step S38).

具体的には、スマートフォン1は、マイク8を介して音声で入力される文字列を“8時集合です。”であると認識すると、ステップS37に示すように、認識した文字列に対応する吹き出しの画像(U−13)を実行画面50に表示する。続いて、スマートフォン1は、認識した文字列を保存し、本文が未入力であった画像50bの本文に対応するフィールドに、認識した文字列が挿入された画像50cを表示する(ステップS38)。メールの本文に挿入する文字列を取得後、ステップS38に示すように、スマートフォン1は、再び、“本文を教えてください。完了といえばメールアプリを起動します。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(S−14)を実行画面50に表示する。   Specifically, when the smartphone 1 recognizes that the character string input by voice through the microphone 8 is “8 o'clock set”, a speech bubble corresponding to the recognized character string as shown in step S37. The image (U-13) is displayed on the execution screen 50. Subsequently, the smartphone 1 stores the recognized character string, and displays the image 50c in which the recognized character string is inserted in the field corresponding to the text of the image 50b in which the text has not been input (step S38). After obtaining the character string to be inserted into the body of the mail, as shown in step S38, the smartphone 1 again receives a voice guidance from the speaker 11 “Tell me the body. While outputting, the balloon image (S-14) corresponding to the voice guidance is displayed on the execution screen 50.

続いて、スマートフォン1は、マイク8により音声が入力されると、入力された音声の認識処理を実行する。認識に成功した場合、スマートフォン1は、認識結果が音声入力の終了キーワードではないこと、あるいは音声の入力回数が閾値に到達していないことを条件として、認識結果を保存するとともに、ユーザに応答する(ステップS39〜ステップS40)。   Subsequently, when a voice is input from the microphone 8, the smartphone 1 executes a process for recognizing the input voice. If the recognition is successful, the smartphone 1 saves the recognition result and responds to the user on the condition that the recognition result is not the end keyword of the voice input or that the number of times of voice input has not reached the threshold. (Step S39 to Step S40).

具体的には、スマートフォン1は、マイク8を介して音声で入力される文字列を“管理。”であると認識すると、ステップS39に示すように、認識した文字列に対応する吹き出しの画像(U−14)を実行画面50に表示する。ステップS39において、例えば、ユーザが“完了”と音声入力したつもりであっても、スマートフォン1が“管理”と認識した場合には、そのまま処理が継続される。続いて、スマートフォン1は、認識した文字列を保存し、画像50cの本文に対応するフィールドに、認識した文字列が挿入された画像50dを表示する(ステップS40)。ステップS39でスマートフォン1により認識され、ステップS40で新たに表示された文字列は、音声入力によって削除することができない。メールの本文に挿入する文字列を再取得後、ステップS40に示すように、スマートフォン1は、再び、“本文を教えてください。完了といえばメールアプリを起動します。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(S−15)を実行画面50に表示する。   Specifically, when the smartphone 1 recognizes that the character string input by voice through the microphone 8 is “management.”, As shown in step S39, an image of a balloon corresponding to the recognized character string ( U-14) is displayed on the execution screen 50. In step S39, for example, even if the user intends to input “complete” by voice, if the smartphone 1 recognizes “management”, the process is continued as it is. Subsequently, the smartphone 1 stores the recognized character string, and displays the image 50d in which the recognized character string is inserted in the field corresponding to the text of the image 50c (step S40). The character string recognized by the smartphone 1 in step S39 and newly displayed in step S40 cannot be deleted by voice input. After re-acquiring the character string to be inserted into the body of the mail, as shown in step S40, the smartphone 1 once again receives the voice guidance “Tell me the body. , And a speech balloon image (S-15) corresponding to the voice guidance is displayed on the execution screen 50.

続いて、スマートフォン1は、マイク8により音声が入力されると、入力された音声の認識処理を実行する。認識に成功した場合、スマートフォン1は、認識結果が音声入力の終了キーワードであること、あるいは音声の入力回数が閾値以上であることを条件として、音声入力を終了し、アプリケーションを起動する(ステップS41〜ステップS42)。   Subsequently, when a voice is input from the microphone 8, the smartphone 1 executes a process for recognizing the input voice. If the recognition is successful, the smartphone 1 terminates the speech input and starts the application on the condition that the recognition result is an end keyword of speech input or the number of times of speech input is equal to or greater than a threshold value (step S41). -Step S42).

具体的には、スマートフォン1は、マイク8を介して音声で入力される文字列を、音声入力を終了させるキーワードである“完了”であると認識すると、認識した文字列に対応する吹き出しの画像を表示しない。続いて、スマートフォン1は、ステップS41に示すように、音声入力の終了を受け付けた旨をユーザに報知することを目的として“メールアプリを起動します。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(S−16)を実行画面50に表示する。スマートフォン1は、ステップS42に示すように、Eメールアプリケーション9Dを起動して、宛先、件名、及び本文のそれぞれに対応する文字列を挿入したメール作成画面60をディスプレイ2Aに表示する。   Specifically, when the smartphone 1 recognizes that a character string input by voice through the microphone 8 is “complete”, which is a keyword for ending voice input, an image of a speech bubble corresponding to the recognized character string Is not displayed. Subsequently, as shown in step S <b> 41, the smartphone 1 outputs a voice guidance “starting the mail application” from the speaker 11 for the purpose of notifying the user that the end of the voice input has been accepted. The balloon image (S-16) corresponding to the voice guidance is displayed on the execution screen 50. As shown in step S42, the smartphone 1 activates the e-mail application 9D and displays a mail creation screen 60 in which character strings corresponding to the destination, subject, and body are inserted on the display 2A.

ステップS39に示すように、ユーザにより音声入力された文字列が終了キーワードとしてスマートフォン1により正しく認識しなかった場合であっても、ステップS42に示すように、ユーザにより音声入力された文字列が終了キーワードとしてスマートフォン1により正しく認識されたタイミングで、Eメールアプリケーション9Dの本文への音声入力が確実に終了する。   As shown in step S39, even if the character string input by the user is not correctly recognized by the smartphone 1 as an end keyword, the character string input by the user is ended as shown in step S42. At the timing when the smartphone 1 correctly recognizes the keyword, the voice input to the text of the email application 9D is surely terminated.

図6及び図7は、音声の入力回数が閾値以上である場合に、メールアプリケーション(例えば、Eメールアプリケーション9D)の本文のフィールドへの音声入力を終了する場合の処理の例を示す図である。   6 and 7 are diagrams illustrating an example of processing in the case where the voice input to the body field of the mail application (for example, the email application 9D) is terminated when the number of voice inputs is equal to or greater than the threshold value. .

図6に示すように、スマートフォン1は、タッチスクリーン2Bを介して、ロック画面40に配置されているアイコン40aに対する操作を検出すると(ステップS51)、ディスプレイ2Aに対話型のインタフェースの実行画面50を表示する(ステップS52)。このとき、スマートフォン1は、ステップS52に示すように、“ご用件をお話下さい。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(S−21)を実行画面50に表示する。   As shown in FIG. 6, when the smartphone 1 detects an operation on the icon 40a arranged on the lock screen 40 via the touch screen 2B (step S51), the smartphone 1 displays an interactive interface execution screen 50 on the display 2A. Displayed (step S52). At this time, as shown in step S52, the smartphone 1 outputs the voice guidance “Please tell me your business.” From the speaker 11 and displays the speech balloon image (S-21) corresponding to the voice guidance on the execution screen. 50.

続いて、スマートフォン1は、マイク8により音声が入力されると、入力された音声の認識処理を実行する。認識に成功した場合、スマートフォン1は、認識結果に対応するアプリケーションがあるかを判定し、認識結果に対応するアプリケーションがある場合には、アプリケーションに関する音声制御を実行するかを判定する。スマートフォン1は、アプリケーションに関する音声制御を実行する場合には、ユーザに応答するとともに、アプリケーションに関する音声制御を開始する(ステップS53〜ステップS54)。   Subsequently, when a voice is input from the microphone 8, the smartphone 1 executes a process for recognizing the input voice. When the recognition is successful, the smartphone 1 determines whether there is an application corresponding to the recognition result. When there is an application corresponding to the recognition result, the smartphone 1 determines whether to perform voice control related to the application. When the smartphone 1 executes voice control related to the application, the smartphone 1 responds to the user and starts voice control related to the application (steps S53 to S54).

具体的には、スマートフォン1は、マイク8を介して音声で入力される文字列を“特許一郎さんにメール”であると認識すると、ステップS53に示すように、認識した文字列に対応する吹き出しの画像(U−21)を実行画面50に表示する。続いて、スマートフォン1は、ストレージ9に記憶されているアプリケーションの中から、認識結果に対応するEメールアプリケーション9Dを検出し、Eメールアプリケーション9Dに関する音声制御を実行するものと判定する。続いて、スマートフォン1は、ステップS54に示すように、Eメールアプリケーション9Dの音声制御を開始し、その旨をユーザに報知するための画像50aを実行画面50に表示する。スマートフォン1は、ステップS54に示すように、“件名を教えてください。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(S−22)を実行画面50に表示する。   Specifically, when the smartphone 1 recognizes that the character string input by voice through the microphone 8 is “Mail to Mr. Ichiro Patent”, a speech bubble corresponding to the recognized character string as shown in step S53. The image (U-21) is displayed on the execution screen 50. Subsequently, the smartphone 1 detects an e-mail application 9D corresponding to the recognition result from the applications stored in the storage 9, and determines that voice control related to the e-mail application 9D is executed. Subsequently, as shown in step S54, the smartphone 1 starts voice control of the email application 9D, and displays an image 50a for notifying the user on the execution screen 50. As shown in step S54, the smartphone 1 outputs the voice guidance “Please tell me the subject” from the speaker 11 and displays a speech balloon image (S-22) corresponding to the voice guidance on the execution screen 50. .

続いて、スマートフォン1は、マイク8により音声が入力されると、入力された音声の認識処理を実行する。認識に成功した場合、スマートフォン1は、認識結果を保存するとともに、ユーザに応答する(ステップS55〜ステップS56)。   Subsequently, when a voice is input from the microphone 8, the smartphone 1 executes a process for recognizing the input voice. When the recognition is successful, the smartphone 1 stores the recognition result and responds to the user (steps S55 to S56).

具体的には、スマートフォン1は、マイク8を介して音声で入力される文字列を“おはようございます。”であると認識すると、ステップS55に示すように、認識した文字列に対応する吹き出しの画像(U−22)を実行画面50に表示する。続いて、スマートフォン1は、認識した文字列を保存し、件名が未入力であった画像50aの件名に対応するフィールドに、認識した文字列が挿入された画像50bを表示する(ステップS56)。メールの件名を取得後、ステップS56に示すように、スマートフォン1は、“本文を教えてください。完了といえばメールアプリを起動します。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(S−23)を実行画面50に表示する。   Specifically, when the smartphone 1 recognizes that the character string input by voice through the microphone 8 is “Good morning”, a speech balloon corresponding to the recognized character string is displayed as shown in step S55. The image (U-22) is displayed on the execution screen 50. Subsequently, the smartphone 1 stores the recognized character string, and displays the image 50b in which the recognized character string is inserted in the field corresponding to the subject of the image 50a in which the subject has not been input (step S56). After obtaining the subject of the mail, as shown in step S56, the smartphone 1 outputs a voice guidance from the speaker 11 "Please tell me the text. The corresponding balloon image (S-23) is displayed on the execution screen 50.

続いて、スマートフォン1は、マイク8により音声が入力されると、入力された音声の認識処理を実行する。認識に成功した場合、スマートフォン1は、認識結果が音声入力の終了キーワードではないこと、あるいは音声の入力回数が閾値に到達していないことを条件として、認識結果を保存するとともに、ユーザに応答する(ステップS57〜ステップS58)。   Subsequently, when a voice is input from the microphone 8, the smartphone 1 executes a process for recognizing the input voice. If the recognition is successful, the smartphone 1 saves the recognition result and responds to the user on the condition that the recognition result is not the end keyword of the voice input or that the number of times of voice input has not reached the threshold. (Step S57 to Step S58).

具体的には、スマートフォン1は、マイク8を介して音声で入力される文字列を“8時集合です。”であると認識すると、ステップS57に示すように、認識した文字列に対応する吹き出しの画像(U−23)を実行画面50に表示する。続いて、スマートフォン1は、認識した文字列を保存し、本文が未入力であった画像50bの本文に対応するフィールドに、認識した文字列が挿入された画像50cを表示する(ステップS58)。メールの本文に挿入する文字列を取得後、ステップS58に示すように、スマートフォン1は、再び、“本文を教えてください。完了といえばメールアプリを起動します。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(S−24)を実行画面50に表示する。   Specifically, when the smartphone 1 recognizes that the character string input by voice through the microphone 8 is “8 o'clock set”, a speech bubble corresponding to the recognized character string as shown in step S57. The image (U-23) is displayed on the execution screen 50. Subsequently, the smartphone 1 stores the recognized character string, and displays the image 50c in which the recognized character string is inserted in the field corresponding to the text of the image 50b in which the text has not been input (step S58). After acquiring the character string to be inserted into the body of the mail, as shown in step S58, the smartphone 1 again receives a voice guidance from the speaker 11 “Tell me the body. While outputting, the balloon image (S-24) corresponding to the voice guidance is displayed on the execution screen 50.

続いて、スマートフォン1は、マイク8により音声が入力されると、入力された音声の認識処理を実行する。認識に成功した場合、スマートフォン1は、認識結果が音声入力の終了キーワードではないこと、あるいは音声の入力回数が閾値に到達していないことを条件として、認識結果を保存するとともに、ユーザに応答する(ステップS59〜ステップS60)。   Subsequently, when a voice is input from the microphone 8, the smartphone 1 executes a process for recognizing the input voice. If the recognition is successful, the smartphone 1 saves the recognition result and responds to the user on the condition that the recognition result is not the end keyword of the voice input or that the number of times of voice input has not reached the threshold. (Steps S59 to S60).

具体的には、スマートフォン1は、マイク8を介して音声で入力される文字列を“管理。”であると認識すると、ステップS59に示すように、認識した文字列に対応する吹き出しの画像(U−24)を実行画面50に表示する。ステップS59において、例えば、ユーザが“完了”と音声入力したつもりであっても、スマートフォン1が“管理”と認識した場合には、そのまま処理が継続される。続いて、スマートフォン1は、認識した文字列を保存し、画像50cの本文に対応するフィールドに、認識した文字列が挿入された画像50dを表示する(ステップS60)。メールの本文に挿入する文字列を再取得後、ステップS60に示すように、スマートフォン1は、再び、“本文を教えてください。完了といえばメールアプリを起動します。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(S−25)を実行画面50に表示する。   Specifically, when the smartphone 1 recognizes that the character string input by voice through the microphone 8 is “management.”, As shown in step S59, the image of the speech balloon corresponding to the recognized character string ( U-24) is displayed on the execution screen 50. In step S59, for example, even if the user intends to input “complete” by voice, when the smartphone 1 recognizes “management”, the process is continued as it is. Subsequently, the smartphone 1 stores the recognized character string, and displays the image 50d in which the recognized character string is inserted in the field corresponding to the text of the image 50c (step S60). After re-acquisition of the character string to be inserted into the body of the mail, as shown in step S60, the smartphone 1 again receives a voice guidance “Please tell me the body. , And a speech balloon image (S-25) corresponding to the voice guidance is displayed on the execution screen 50.

続いて、スマートフォン1は、マイク8により音声が入力されると、入力された音声の認識処理を実行する。認識に成功した場合、スマートフォン1は、認識結果が音声入力の終了キーワードではないこと、あるいは音声の入力回数が閾値に到達していないことを条件として、認識結果を保存するとともに、ユーザに応答する(ステップS61〜ステップS62)。   Subsequently, when a voice is input from the microphone 8, the smartphone 1 executes a process for recognizing the input voice. If the recognition is successful, the smartphone 1 saves the recognition result and responds to the user on the condition that the recognition result is not the end keyword of the voice input or that the number of times of voice input has not reached the threshold. (Steps S61 to S62).

具体的には、スマートフォン1は、マイク8を介して音声で入力される文字列を“管理。”であると認識すると、ステップS61に示すように、認識した文字列に対応する吹き出しの画像(U−25)を実行画面50に表示する。ステップS61において、例えば、ユーザが“完了”と音声入力したつもりであっても、スマートフォン1が“管理”と認識した場合には、そのまま処理が継続される。続いて、スマートフォン1は、認識した文字列を保存し、画像50dの本文に対応するフィールドに、認識した文字列が挿入された画像50eを表示する(ステップS62)。メールの本文に挿入する文字列を再取得後、ステップS62に示すように、スマートフォン1は、再び、“本文を教えてください。完了といえばメールアプリを起動します。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(S−26)を実行画面50に表示する。   Specifically, when the smartphone 1 recognizes that the character string input by voice through the microphone 8 is “management.”, As shown in step S61, an image of a balloon corresponding to the recognized character string ( U-25) is displayed on the execution screen 50. In step S61, for example, even if the user intends to input “complete” by voice, if the smartphone 1 recognizes “management”, the process is continued as it is. Subsequently, the smartphone 1 stores the recognized character string and displays the image 50e in which the recognized character string is inserted in the field corresponding to the text of the image 50d (step S62). After re-acquisition of the character string to be inserted into the body of the mail, as shown in step S62, the smartphone 1 once again receives the voice guidance “Tell me the body. And an image of a balloon (S-26) corresponding to the voice guidance is displayed on the execution screen 50.

続いて、スマートフォン1は、マイク8により音声が入力されると、入力された音声の認識処理を実行する。認識に成功した場合、スマートフォン1は、認識結果が音声入力の終了キーワードではないこと、あるいは音声の入力回数が閾値に到達していないことを条件として、認識結果を保存するとともに、ユーザに応答する(ステップS63〜ステップS64)。   Subsequently, when a voice is input from the microphone 8, the smartphone 1 executes a process for recognizing the input voice. If the recognition is successful, the smartphone 1 saves the recognition result and responds to the user on the condition that the recognition result is not the end keyword of the voice input or that the number of times of voice input has not reached the threshold. (Step S63 to Step S64).

具体的には、スマートフォン1は、マイク8を介して音声で入力される文字列を“管理。”であると認識すると、ステップS63に示すように、認識した文字列に対応する吹き出しの画像(U−26)を実行画面50に表示する。ステップS63において、例えば、ユーザが“完了”と音声入力したつもりであっても、スマートフォン1が“管理”と認識した場合には、そのまま処理が継続される。続いて、スマートフォン1は、認識した文字列を保存し、画像50eの本文に対応するフィールドに、認識した文字列が挿入された画像50fを表示する(ステップS64)。メールの本文に挿入する文字列を再取得後、ステップS64に示すように、スマートフォン1は、再び、“本文を教えてください。完了といえばメールアプリを起動します。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(S−27)を実行画面50に表示する。   Specifically, when the smartphone 1 recognizes that the character string input by voice via the microphone 8 is “management.”, As shown in step S63, an image of a balloon corresponding to the recognized character string ( U-26) is displayed on the execution screen 50. In step S63, for example, even if the user intends to input “complete” by voice, when the smartphone 1 recognizes “management”, the processing is continued as it is. Subsequently, the smartphone 1 stores the recognized character string and displays the image 50f in which the recognized character string is inserted in the field corresponding to the body of the image 50e (step S64). After re-acquiring the character string to be inserted into the body of the mail, as shown in step S64, the smartphone 1 again gives the voice guidance “Please tell me the body. And an image of a balloon (S-27) corresponding to the voice guidance is displayed on the execution screen 50.

続いて、スマートフォン1は、マイク8により音声が入力されると、入力された音声の認識処理を実行する。認識に成功した場合、スマートフォン1は、認識結果が音声入力の終了キーワードであること、あるいは音声の入力回数が閾値以上であることを条件として、音声入力を終了し、アプリケーションを起動する(ステップS65〜ステップS66)。   Subsequently, when a voice is input from the microphone 8, the smartphone 1 executes a process for recognizing the input voice. If the recognition is successful, the smartphone 1 ends the voice input and starts the application on the condition that the recognition result is a voice input end keyword or the number of times of voice input is equal to or greater than a threshold (step S65). -Step S66).

具体的には、スマートフォン1は、マイク8を介して音声で入力される文字列を“管理”であると認識し、該当する文字列に対応した音声の入力により、音声の(累積)入力回数が閾値以上であると判定した場合には、認識した文字列に対応する吹き出しの画像を表示しない。続いて、スマートフォン1は、ステップS65に示すように、音声入力の終了を受け付けた旨をユーザに報知することを目的として“メールアプリを起動します。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(S−28)を実行画面50に表示する。スマートフォン1は、ステップS66に示すように、Eメールアプリケーション9Dを起動して、宛先、件名、及び本文のそれぞれに対応する文字列を挿入したメール作成画面60をディスプレイ2Aに表示する。ステップS66に示すように、ステップS59〜ステップS63におけるスマートフォン1の認識結果が誤りである場合であっても、認識結果に対応する各文字列(管理。)がメール作成画面60に挿入される。   Specifically, the smartphone 1 recognizes that the character string input by voice through the microphone 8 is “management”, and the number of input (accumulation) of the voice by inputting the voice corresponding to the corresponding character string. Is determined to be greater than or equal to the threshold value, the balloon image corresponding to the recognized character string is not displayed. Subsequently, as shown in step S <b> 65, the smartphone 1 outputs a voice guidance “Starting the mail application” from the speaker 11 for the purpose of notifying the user that the end of the voice input has been accepted. The balloon image (S-28) corresponding to the voice guidance is displayed on the execution screen 50. As shown in step S66, the smartphone 1 activates the e-mail application 9D, and displays a mail creation screen 60 in which character strings corresponding to the destination, the subject, and the text are inserted on the display 2A. As shown in step S66, each character string (management) corresponding to the recognition result is inserted into the mail creation screen 60 even if the recognition result of the smartphone 1 in steps S59 to S63 is incorrect.

ステップS59〜ステップS63に示すように、ユーザにより音声入力された文字列が終了キーワードとしてスマートフォン1により何度も正しく認識されない場合であっても、ステップS66に示すように、ユーザによる音声の入力回数が閾値以上となったタイミングで、Eメールアプリケーション9Dの本文への音声入力が確実に終了する。   As shown in step S59 to step S63, even if the character string input by the user is not correctly recognized as the end keyword by the smartphone 1 many times, as shown in step S66, the number of times the user has input the voice. The voice input to the text of the e-mail application 9D surely ends at the timing when becomes equal to or greater than the threshold.

図8及び図9を用いて、実施形態に係るスマートフォン1による処理手順の一例を説明する。図8及び図9は、実施形態に係るスマートフォン1による処理手順の一例を示すフローチャートである。図8及び図9に示す処理手順は、コントローラ10が、ストレージ9に記憶されている制御プログラム9Aなどを実行することによって実現される。   An example of a processing procedure performed by the smartphone 1 according to the embodiment will be described with reference to FIGS. 8 and 9. FIG.8 and FIG.9 is a flowchart which shows an example of the process sequence by the smart phone 1 which concerns on embodiment. The processing procedures shown in FIGS. 8 and 9 are realized by the controller 10 executing the control program 9A stored in the storage 9.

図8は、スマートフォン1により実行される音声制御の全体の流れを示す。図8に示すように、コントローラ10は、対話型のインタフェースの実行画面をディスプレイ2Aに表示させる(ステップS101)。コントローラ10は、例えば、タッチスクリーン2Bを介して、対話型のインタフェースを起動させるためのアイコン40aに対する操作を検出すると、対話型のインタフェースを起動し、インタフェースの実行画面50をディスプレイ2Aに表示させる(図2、4参照)。   FIG. 8 shows the overall flow of voice control executed by the smartphone 1. As shown in FIG. 8, the controller 10 causes the display screen 2A to display an interactive interface execution screen (step S101). For example, when the controller 10 detects an operation on the icon 40a for activating the interactive interface via the touch screen 2B, the controller 10 activates the interactive interface and displays the interface execution screen 50 on the display 2A (see FIG. (See FIGS. 2 and 4).

続いて、コントローラ10は、マイク8により入力される音声の音声データを取得すると(ステップS102)、音声データの認識処理を実行し、音声の認識に成功したかを判定する(ステップS103)。   Subsequently, when acquiring the voice data of the voice input from the microphone 8 (step S102), the controller 10 executes a voice data recognition process to determine whether the voice has been successfully recognized (step S103).

コントローラ10は、判定の結果、音声の認識に成功した場合には(ステップS103,Yes)、ストレージ9に記憶されているアプリケーションの中から、認識結果に対応するアプリケーションを検出できたかを判定する(ステップS104)。   As a result of the determination, if the speech has been successfully recognized (Yes in step S103), the controller 10 determines whether an application corresponding to the recognition result has been detected from the applications stored in the storage 9 ( Step S104).

コントローラ10は、判定の結果、認識結果に対応するアプリケーションを検出できた場合には(ステップS104,Yes)、認識結果に対応するアプリケーションに関する音声制御を実行するかを判定する(ステップS105)。   If the controller 10 can detect an application corresponding to the recognition result as a result of the determination (step S104, Yes), the controller 10 determines whether to execute voice control related to the application corresponding to the recognition result (step S105).

コントローラ10は、判定の結果、認識結果に対応するアプリケーションに関する音声制御を実行する場合には(ステップS105,Yes)、認識結果に対応するアプリケーションに関する音声制御を開始する(ステップS106)。   As a result of the determination, if the controller 10 performs voice control related to the application corresponding to the recognition result (Yes in step S105), the controller 10 starts voice control related to the application corresponding to the recognition result (step S106).

アプリケーションに関する音声制御を終了すると、コントローラ10は、ステップS104で検出したアプリケーションを起動し、当該アプリケーションに対して、ステップS106における音声制御の結果を反映して(ステップS107)、図8に示す処理手順を終了する。例えば、コントローラ10は、Eメールアプリケーション9Dを起動し、対話型インタフェースを介して音声入力された件名及び本文の文字列のデータを、Eメールアプリケーション9Dにおける対応するフィールドへ挿入する。   When the voice control related to the application is finished, the controller 10 activates the application detected in step S104, reflects the result of the voice control in step S106 for the application (step S107), and the processing procedure shown in FIG. Exit. For example, the controller 10 activates the e-mail application 9D, and inserts the data of the subject and the text string of the text input through the interactive interface into the corresponding fields in the e-mail application 9D.

ステップS105において、コントローラ10は、認識結果に対応するアプリケーションに関する音声制御を実行しない場合には(ステップS105,No)、ステップS104で検出したアプリケーションを実行して(ステップS108)、図8に示す処理手順を終了する。   In step S105, if the controller 10 does not execute voice control related to the application corresponding to the recognition result (No in step S105), the controller 10 executes the application detected in step S104 (step S108), and performs the processing shown in FIG. End the procedure.

ステップS104において、コントローラ10は、判定の結果、認識結果に対応するアプリケーションを検出できない場合には(ステップS104,No)、そのまま図8に示す処理手順を終了する。このとき、コントローラ10は、ストレージ9に記憶されているアプリケーションの一覧をディスプレイ2Aに表示してもよい。   In step S104, when the controller 10 cannot detect an application corresponding to the recognition result as a result of the determination (step S104, No), the processing procedure shown in FIG. At this time, the controller 10 may display a list of applications stored in the storage 9 on the display 2A.

ステップS103において、コントローラ10は、判定の結果、音声の認識に失敗した場合には(ステップS103,No)、認識に失敗した回数が閾値を超えているかを判定する(ステップS109)。コントローラ10は、判定の結果、認識に失敗した回数が閾値を超えている場合には(S109,Yes)、そのまま図8に示す処理手順を終了する。これとは反対に、コントローラ10は、判定の結果、認識に失敗した回数が閾値を超えていない場合には(S109,No)、例えば、音声ガイダンス及び画像などにより、音声の再入力を要求し(ステップS110)、ステップS102の手順に移る。   In step S103, when the recognition fails as a result of the determination (step S103, No), the controller 10 determines whether or not the number of recognition failures exceeds a threshold (step S109). As a result of the determination, if the number of recognition failures exceeds the threshold (S109, Yes), the controller 10 ends the processing procedure shown in FIG. On the other hand, if the number of times of recognition failure does not exceed the threshold value as a result of the determination (S109, No), the controller 10 requests voice re-input by voice guidance and images, for example. (Step S110), the procedure proceeds to Step S102.

図9は、アプリケーションに関する音声制御の流れを示す。図9は、図8に示すステップS106の手順に対応する。図9に示すように、コントローラ10は、上記図8のステップS105で音声制御を実行することを決定したアプリケーションに関して、音声の入力を要求し(ステップS201)、音声データを取得する(ステップS202)。例えば、コントローラ10は、Eメールアプリケーション9Dの本文に対応するフィールドに入力する文字列の音声入力を要求し、本文に入力する文字列に対応する音声を取得する。   FIG. 9 shows a flow of voice control related to the application. FIG. 9 corresponds to the procedure of step S106 shown in FIG. As shown in FIG. 9, the controller 10 requests voice input for the application that has decided to execute voice control in step S <b> 105 of FIG. 8 (step S <b> 201), and acquires voice data (step S <b> 202). . For example, the controller 10 requests voice input of a character string to be input to a field corresponding to the text of the email application 9D, and acquires a voice corresponding to the character string input to the text.

続いて、コントローラ10は、S201の要求に応じて音声入力された音声データの認識処理を実行し、音声の認識に成功したかを判定する(ステップS203)。   Subsequently, the controller 10 executes speech data recognition processing in response to the request in S201, and determines whether or not the speech has been successfully recognized (step S203).

コントローラ10は、判定の結果、音声の認識に成功した場合には(ステップS203,Yes)、認識結果に対応する音声が、音声入力の終了キーワードであるかを判定する(ステップS204)。コントローラ10は、例えば、認識結果に対応する音声が、“完了”であるかを判定する。   As a result of the determination, if the speech is successfully recognized (step S203, Yes), the controller 10 determines whether or not the speech corresponding to the recognition result is a speech input end keyword (step S204). For example, the controller 10 determines whether or not the voice corresponding to the recognition result is “complete”.

コントローラ10は、判定の結果、音声入力の終了キーワードではない場合には(ステップS204,No)、続いて、図9に示す処理手順を開始してからの音声の(累積)入力回数が閾値以上であるかを判定する(ステップS205)。   If the result of the determination is that the keyword is not the voice input end keyword (step S204, No), then, the number of voices (cumulative) input after starting the processing procedure shown in FIG. Is determined (step S205).

コントローラ10は、判定の結果、音声の入力回数が閾値以上ではない場合には(ステプS205,No)、図8の処理で検出したアプリケーションの入力フィールドに挿入する文字列のデータとして、ステップS202で取得した音声データを蓄積する。例えば、コントローラ10は、Eメールアプリケーション9Dの本文に対応するフィールドに入力する文字列のデータとして、ステップS202で取得した音声データを蓄積する。   If the result of determination is that the number of input voices is not greater than or equal to the threshold value (step S205, No), the controller 10 obtains the character string data to be inserted into the input field of the application detected in the process of FIG. Accumulate the acquired audio data. For example, the controller 10 accumulates the voice data acquired in step S202 as character string data to be input to the field corresponding to the text of the email application 9D.

続いて、コントローラ10は、ステップS201の手順に戻り、図9に示す制御を継続する。   Subsequently, the controller 10 returns to the procedure of step S201 and continues the control shown in FIG.

ステップS205において、コントローラ10は、判定の結果、図9に示す処理手順を開始してからの音声の(累積)入力回数が閾値以上である場合には(ステプS205,Yes)、図9に示す処理手順を終了する。   In step S205, if the result of determination is that the (accumulated) number of input voices since the start of the processing procedure shown in FIG. 9 is greater than or equal to the threshold (step S205, Yes), the controller 10 shows in FIG. The processing procedure ends.

ステップS204において、コントローラ10は、認識結果に対応する音声が、音声入力の終了キーワードである場合には(ステップS204,Yes)、図9に示す処理手順を終了する。   In step S204, when the voice corresponding to the recognition result is the voice input end keyword (step S204, Yes), the controller 10 ends the processing procedure shown in FIG.

ステップS203において、コントローラ10は、判定の結果、音声の認識に成功しなかった場合には(ステップS203,No)、当該音声の入力を無効として、ステップS201の手順に戻り、音声の再入力を要求する。   In step S203, if the result of determination is that the voice has not been successfully recognized (No in step S203), the controller 10 invalidates the voice input, returns to the procedure in step S201, and re-inputs the voice. Request.

図9に示す処理手順の順番は、図9に示す例に限定されない。図9に示す処理手順において、例えば、ステップS204の手順と、ステップS205の手順の順序が逆であってもよい。   The order of the processing procedures shown in FIG. 9 is not limited to the example shown in FIG. In the processing procedure illustrated in FIG. 9, for example, the order of the procedure of step S204 and the procedure of step S205 may be reversed.

上述してきたように、実施形態に係るスマートフォン1は、対話型インタフェースを介して音声により選択されるアプリケーションの入力フィールドに挿入する文字列の音声入力を、音声制御により終了させる。例えば、スマートフォン1は、Eメールアプリケーション9Dの本文に対応するフィールドに挿入する文字列の音声入力を、“完了”という終了キーワードを検出することにより終了することができる。あるいは、スマートフォン1は、Eメールアプリケーション9Dの本文に対応するフィールドに挿入する文字列の音声入力を、音声の入力回数が閾値(例えば、5回)以上となった場合に終了することができる。このように、本実施形態に係るスマートフォン1は、例えば、メールの本文など、比較的長めの文字列が入力される入力フィールドに対して複数回の音声入力を可能とする一方で、所定のキーワードの検出あるいは音声の入力回数により音声入力を終了させることを可能とする。すなわち、本実施形態に係るスマートフォン1は、対話型のインタフェースを介する音声制御のみによって、アプリケーションの所定の入力フィールドに対する長文の入力開始及び入力終了を実現でき、対話型のインタフェースを介する処理を改善することができる。   As described above, the smartphone 1 according to the embodiment ends the voice input of the character string to be inserted into the input field of the application selected by voice through the interactive interface by voice control. For example, the smartphone 1 can end voice input of a character string to be inserted into a field corresponding to the text of the email application 9D by detecting an end keyword “complete”. Or the smart phone 1 can be complete | finished when the audio | voice input frequency becomes more than a threshold value (for example, 5 times), and the audio | voice input of the character string inserted in the field corresponding to the text of the email application 9D. As described above, the smartphone 1 according to the present embodiment enables a plurality of voice inputs to an input field in which a relatively long character string is input, for example, the body of an email. The voice input can be terminated by detecting the number of times or the number of times the voice is input. That is, the smartphone 1 according to the present embodiment can realize the start and end of input of a long sentence for a predetermined input field of the application only by voice control via the interactive interface, and improves processing via the interactive interface. be able to.

上記実施形態では、スマートフォン1が、音声の入力回数が5回と判定した場合に、Eメールアプリケーション9Dの本文に対応するフィールドに挿入する文字列の音声入力を終了させる例(図6及び図7)を説明したが、音声入力を終了させる回数は任意の回数を適用することができる。   In the above embodiment, when the smartphone 1 determines that the number of times of voice input is five, the voice input of the character string to be inserted into the field corresponding to the text of the email application 9D is terminated (FIGS. 6 and 7). However, any number of times can be applied to terminate the voice input.

上記実施形態では、スマートフォン1が、対話型インタフェースを介した音声制御により、Eメールアプリケーション9Dの本文に対応するフィールドに挿入する文字列の音声入力を終了させる例を説明した。しかしながら、これに限定されるものではなく、メモ帳アプリケーション9Eに対する文字列の音声入力、スケジュールを管理するアプリケーションに対する文字列の音声入力など、文字列の音声入力を行うアプリケーション全般に対して、上記実施形態に係るスマートフォン1の処理(図2〜図9など)を適用できる。   In the above-described embodiment, an example has been described in which the smartphone 1 terminates voice input of a character string to be inserted into a field corresponding to the text of the email application 9D by voice control via an interactive interface. However, the present invention is not limited to this, and the above-described implementation is generally performed for applications that perform voice input of character strings, such as voice input of character strings to the memo pad application 9E and voice input of character strings to the application that manages the schedule. The process (FIGS. 2-9, etc.) of the smart phone 1 which concerns on a form is applicable.

図5及び図7に示す例では、音声入力に対するスマートフォン1の認識結果がユーザの意図しないものである場合(誤りである場合)であっても、認識結果に対応する文字列(例えば、管理)がメール作成画面60に挿入される場合を説明した。しかしながら、これに限定されるものではなく、スマートフォン1は、音声入力された文字列の中に同音同義の文字列が複数連続する場合には、誤認識に係る文字列と判断して、アプリケーションを起動する際に、アプリケーションの入力フィールドに挿入しないようにしてもよい。あるいは、スマートフォン1は、終了キーワード(例えば、完了)に類似する文字列の一覧を予め備えておいて、音声入力された文字列の中に終了キーワードに類似する文字列がある場合には、アプリケーションを起動する際に、当該文字列をアプリケーションの入力フィールドに挿入しないようにしてもよい。   In the example shown in FIGS. 5 and 7, even when the recognition result of the smartphone 1 for voice input is not intended by the user (in the case of an error), the character string corresponding to the recognition result (for example, management) The case where is inserted into the mail creation screen 60 has been described. However, the present invention is not limited to this, and the smartphone 1 determines that it is a character string related to misrecognition when a plurality of synonymous character strings are consecutively included in a voice-input character string, When starting up, it may not be inserted into the input field of the application. Alternatively, the smartphone 1 includes a list of character strings similar to the end keyword (for example, completion) in advance, and if there is a character string similar to the end keyword in the character string input by voice, the application When starting up, the character string may not be inserted into the input field of the application.

上記実施形態において、スマートフォン1は、音声入力に対する認識結果が、終了キーワードと同音意義(例えば、官僚など)であると判定した場合、音声入力を終了させるようにしてもよい。   In the embodiment described above, the smartphone 1 may end the voice input when it is determined that the recognition result for the voice input is the same as the end keyword (for example, bureaucracy).

添付の請求項に係る技術を完全かつ明瞭に開示するために特徴的な実施形態に関し記載してきた。しかし、添付の請求項は、上記の実施形態に限定されるべきものでなく、本明細書に示した基礎的事項の範囲内で当該技術分野の当業者が創作しうるすべての変形例及び代替可能な構成により具現化されるべきである。   The characterizing embodiments have been described in order to fully and clearly disclose the technology according to the appended claims. However, the appended claims should not be limited to the above-described embodiments, but all modifications and alternatives that can be created by those skilled in the art within the scope of the basic matters shown in this specification. Should be embodied by a possible configuration.

例えば、図1に示した各プログラムは、複数のモジュールに分割されていてもよい。あるいは、図1に示した各プログラムは、他のプログラムと結合されていてもよい。   For example, each program shown in FIG. 1 may be divided into a plurality of modules. Alternatively, each program shown in FIG. 1 may be combined with another program.

上記の実施形態では、タッチスクリーンを備える装置の一例として、スマートフォンについて説明したが、添付の請求項に係る装置は、スマートフォンに限定されない。添付の請求項に係る装置は、スマートフォン以外の電子機器であってもよい。電子機器は、例えば、モバイルフォン、タブレット、携帯型パソコン、デジタルカメラ、メディアプレイヤ、電子書籍リーダ、ナビゲータ、及びゲーム機である。あるいは、添付の請求項に係る装置は、据え置き型の電子機器であってもよい。据え置き型の電子機器は、例えば、デスクトップパソコン、及びテレビ受像器である。   In the above embodiment, a smartphone has been described as an example of a device including a touch screen, but the device according to the appended claims is not limited to a smartphone. The device according to the appended claims may be an electronic device other than a smartphone. Electronic devices are, for example, mobile phones, tablets, portable personal computers, digital cameras, media players, electronic book readers, navigators, and game machines. Alternatively, the device according to the appended claims may be a stationary electronic device. The stationary electronic devices are, for example, a desktop personal computer and a television receiver.

1 スマートフォン
2 タッチスクリーンディスプレイ
2A ディスプレイ
2B タッチスクリーン
3 ボタン
4 照度センサ
5 近接センサ
6 通信ユニット
7 レシーバ
8 マイク
9 ストレージ
9A 制御プログラム
9B 通話アプリケーション
9C SMSアプリケーション
9D Eメールアプリケーション
9E メモ帳アプリケーション
9F 動画アプリケーション
9G ブラウザアプリケーション
9Y 電話帳データ
9Z 設定データ
10 コントローラ
11 スピーカ
12 カメラ
15 姿勢検出ユニット
18 バイブレータ
DESCRIPTION OF SYMBOLS 1 Smart phone 2 Touch screen display 2A Display 2B Touch screen 3 Button 4 Illuminance sensor 5 Proximity sensor 6 Communication unit 7 Receiver 8 Microphone 9 Storage 9A Control program 9B Call application 9C SMS application 9D E-mail application 9E Notepad application 9F Movie application 9G Browser Application 9Y Phonebook data 9Z Setting data 10 Controller 11 Speaker 12 Camera 15 Attitude detection unit 18 Vibrator

Claims (4)

マイクと、
前記マイクを介して入力される音声に基づく音声制御を実行するコントローラと
を有し、
前記コントローラは、前記音声制御によって選択されるアプリケーションの入力フィールドに挿入する文字列の音声入力を、前記音声制御により終了させる電子機器。
With a microphone,
A controller that performs voice control based on voice input through the microphone;
The controller is an electronic device that terminates voice input of a character string to be inserted into an input field of an application selected by the voice control by the voice control.
前記コントローラは、前記音声入力を終了すると、前記入力フィールドに前記文字列を挿入する請求項1に記載の電子機器。   The electronic device according to claim 1, wherein the controller inserts the character string into the input field when the voice input is completed. マイクを有する電子機器を制御する制御方法であって、
前記マイクを介して入力される音声に基づく音声制御を実行するステップと、
前記音声制御によって選択されるアプリケーションの入力フィールドに挿入する文字列の音声入力を、前記音声制御により終了させるステップと
を含む制御方法。
A control method for controlling an electronic device having a microphone,
Performing voice control based on voice input via the microphone;
A step of terminating voice input of a character string to be inserted into an input field of an application selected by the voice control by the voice control.
マイクを有する電子機器に、
前記マイクを介して入力される音声に基づく音声制御を実行するステップと、
前記音声制御によって選択されるアプリケーションの入力フィールドに挿入する文字列の音声入力を、前記音声制御により終了させるステップと
を実行させる制御プログラム。
To an electronic device with a microphone
Performing voice control based on voice input via the microphone;
And a step of ending the voice input of the character string to be inserted into the input field of the application selected by the voice control by the voice control.
JP2013104376A 2013-05-16 2013-05-16 Electronic apparatus, control method and control program Pending JP2014225796A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013104376A JP2014225796A (en) 2013-05-16 2013-05-16 Electronic apparatus, control method and control program
PCT/JP2014/062996 WO2014185503A1 (en) 2013-05-16 2014-05-15 Electronic device, control method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013104376A JP2014225796A (en) 2013-05-16 2013-05-16 Electronic apparatus, control method and control program

Publications (1)

Publication Number Publication Date
JP2014225796A true JP2014225796A (en) 2014-12-04

Family

ID=52124161

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013104376A Pending JP2014225796A (en) 2013-05-16 2013-05-16 Electronic apparatus, control method and control program

Country Status (1)

Country Link
JP (1) JP2014225796A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018164445A1 (en) * 2017-03-06 2018-09-13 Samsung Electronics Co., Ltd. Electronic device and method for controlling application thereof
WO2020032650A1 (en) * 2018-08-08 2020-02-13 Samsung Electronics Co., Ltd. Speech recognition method and electronic device for supporting the same

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001075591A (en) * 1999-09-03 2001-03-23 Sony Corp Information processor and method and program storage medium
JP2007529831A (en) * 2004-03-18 2007-10-25 ソニー株式会社 Voice interactive messaging method and apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001075591A (en) * 1999-09-03 2001-03-23 Sony Corp Information processor and method and program storage medium
JP2007529831A (en) * 2004-03-18 2007-10-25 ソニー株式会社 Voice interactive messaging method and apparatus

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6014024340; 房野麻子: '万能秘書はどのサービス?--「Siri」「しゃべってコンシェル」「音声アシスト」を徹底比較 (2/3)' ITmedia Mobile , 20120810, アイティメディア株式会社 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018164445A1 (en) * 2017-03-06 2018-09-13 Samsung Electronics Co., Ltd. Electronic device and method for controlling application thereof
WO2020032650A1 (en) * 2018-08-08 2020-02-13 Samsung Electronics Co., Ltd. Speech recognition method and electronic device for supporting the same
CN112740322A (en) * 2018-08-08 2021-04-30 三星电子株式会社 Voice recognition method and electronic device supporting same
US11308953B2 (en) 2018-08-08 2022-04-19 Samsung Electronics Co., Ltd. Speech recognition method and electronic device for supporting the same

Similar Documents

Publication Publication Date Title
JP6393021B2 (en) Electronic device, control method, and control program
US9002337B2 (en) Electronic device including multiple SIM cards and method thereof
JP6125811B2 (en) Electronic device, control method, and control program
JP6133564B2 (en) Electronic device, control method, and control program
JP6215128B2 (en) Portable electronic device, control method and control program
JP2017195444A (en) Portable electronic device, security control method, and security control program
US9681005B2 (en) Mobile communication device and prompting method thereof
JP2014225796A (en) Electronic apparatus, control method and control program
CN104391742B (en) Optimizing application method and apparatus
JP6405024B1 (en) Electronic device, control method, and control program
US20150363100A1 (en) Mobile electronic device, control method, and storage medium
WO2014185503A1 (en) Electronic device, control method, and recording medium
US20150229802A1 (en) Electronic device, control method, and control program
JP2014068240A (en) Electronic device, control method, and control program
JP6059256B2 (en) Communication terminal and storage medium
JP2014225798A (en) Electronic apparatus, control method and control program
JP5763117B2 (en) Portable electronic device, control method and control program
JP6492149B1 (en) Electronic device, control method and control program
JP6152334B2 (en) Electronic device, control method, and control program
JP6399944B2 (en) Electronic device, control method, and control program
JP6087685B2 (en) Portable electronic device, control method and control program
JP2016197441A (en) Electronic apparatus, control method, and control program
JP2016103105A (en) Portable terminal and control method therefor

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150428

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150901