WO2014185503A1 - 電子機器、制御方法、及び記録媒体 - Google Patents

電子機器、制御方法、及び記録媒体 Download PDF

Info

Publication number
WO2014185503A1
WO2014185503A1 PCT/JP2014/062996 JP2014062996W WO2014185503A1 WO 2014185503 A1 WO2014185503 A1 WO 2014185503A1 JP 2014062996 W JP2014062996 W JP 2014062996W WO 2014185503 A1 WO2014185503 A1 WO 2014185503A1
Authority
WO
WIPO (PCT)
Prior art keywords
voice
smartphone
input
character string
microphone
Prior art date
Application number
PCT/JP2014/062996
Other languages
English (en)
French (fr)
Inventor
友康 ▲高▼橋
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2013104418A external-priority patent/JP2014225798A/ja
Priority claimed from JP2013104376A external-priority patent/JP2014225796A/ja
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Publication of WO2014185503A1 publication Critical patent/WO2014185503A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M19/00Current supply arrangements for telephone systems
    • H04M19/02Current supply arrangements for telephone systems providing ringing current or supervisory tones, e.g. dialling tone or busy tone
    • H04M19/04Current supply arrangements for telephone systems providing ringing current or supervisory tones, e.g. dialling tone or busy tone the ringing-current being generated at the substations

Definitions

  • This application relates to an electronic device, a control method, and a recording medium.
  • a touch screen device equipped with a touch screen is known.
  • touch screen devices include, but are not limited to, electronic devices such as mobile phones, smartphones, and tablets.
  • the touch screen device detects a finger, pen, or stylus pen gesture via the touch screen.
  • the touch screen device operates according to the detected gesture.
  • An example of the operation according to the detected gesture is described in Patent Document 1, for example.
  • the basic operation of the touch screen device is realized by an OS (Operating System) installed in the device.
  • OS Operating System
  • Examples of the OS installed in the touch screen device include, but are not limited to, Android (registered trademark), BlackBerry (registered trademark) OS, iOS, Symbian (registered trademark) OS, and Windows (registered trademark) Phone.
  • An electronic device includes a microphone and a controller that performs voice control based on voice input through the microphone, and the controller is provided in an input field of an application selected by the voice control.
  • the voice input of the character string to be inserted is terminated by the voice control.
  • the control method which concerns on one aspect is a control method which controls the electronic device which has a microphone, Comprising: The step which performs the audio
  • a recording medium includes a step of executing voice control based on voice input through the microphone on an electronic device having a microphone, and a character to be inserted into an input field of an application selected by the voice control And a control program for executing the step of ending the voice input of the row by the voice control.
  • An electronic apparatus includes a microphone, a storage for storing telephone book data including data corresponding to a plurality of items, and a record corresponding to a character string input by voice through the microphone, A controller that extracts from the book data and notifies the items included in the extracted record.
  • a control method is a control method for controlling an electronic device having a microphone, which is inputted by voice from the storage for storing telephone book data including data corresponding to a plurality of items via the microphone. Extracting a record corresponding to the character string to be detected, and notifying an item included in the extracted record.
  • a recording medium is a record corresponding to a character string input by voice from a storage that stores telephone directory data including data corresponding to a plurality of items in an electronic device having a microphone. And a control program that executes a step of notifying an item included in the extracted record.
  • FIG. 1 is a block diagram of the smartphone according to the first embodiment.
  • FIG. 2 is a diagram illustrating an example of processing in the case where voice input to the body field of the mail application is terminated by detection of a predetermined keyword.
  • FIG. 3 is a diagram illustrating an example of processing in the case where voice input to the body field of the mail application is terminated by detection of a predetermined keyword.
  • FIG. 4 is a diagram illustrating another example of processing when the voice input to the body field of the mail application is terminated by detecting a predetermined keyword.
  • FIG. 5 is a diagram illustrating another example of processing in the case where voice input to the body field of the mail application is terminated by detection of a predetermined keyword.
  • FIG. 1 is a block diagram of the smartphone according to the first embodiment.
  • FIG. 2 is a diagram illustrating an example of processing in the case where voice input to the body field of the mail application is terminated by detection of a predetermined keyword.
  • FIG. 3 is a diagram illustrating an example of processing
  • FIG. 6 is a diagram illustrating an example of processing in the case where the voice input to the body field of the mail application is terminated when the number of voice inputs is equal to or greater than the threshold value.
  • FIG. 7 is a diagram illustrating an example of processing in the case where the voice input to the body field of the mail application is terminated when the number of voice inputs is equal to or greater than the threshold.
  • FIG. 8 is a flowchart illustrating an example of a processing procedure by the smartphone according to the first embodiment.
  • FIG. 9 is a flowchart illustrating an example of a processing procedure by the smartphone according to the first embodiment.
  • FIG. 10 is a block diagram of the smartphone according to the second embodiment.
  • FIG. 11 is a diagram illustrating an example of telephone directory data.
  • FIG. 12 is a diagram illustrating an example of a process for extracting a record corresponding to a character string input by voice via a microphone from telephone directory data and notifying an item included in the extracted record.
  • FIG. 13 is a diagram illustrating an example of processing for extracting a record corresponding to a character string input by voice through a microphone from the telephone directory data and notifying a small item included in the extracted record.
  • FIG. 14 is a diagram illustrating an example of processing in a case where a record corresponding to a character string input by voice through a microphone cannot be extracted from the phone book data.
  • FIG. 15 is a flowchart illustrating an example of a processing procedure of the smartphone according to the second embodiment.
  • FIG. 1 is a block diagram of a smartphone according to the embodiment.
  • symbol may be attached
  • the smartphone 1 includes a touch screen display 2, a button 3, an illuminance sensor 4, a proximity sensor 5, a communication unit 6, a receiver 7, a microphone 8, a storage 9, and a controller 10.
  • the touch screen display 2 has a display 2A and a touch screen 2B.
  • the display 2 ⁇ / b> A and the touch screen 2 ⁇ / b> B may be arranged, for example, may be arranged side by side, or may be arranged apart from each other.
  • the display 2A and the touch screen 2B are arranged so as to overlap each other, for example, one or more sides of the display 2A may not be along any side of the touch screen 2B.
  • the display 2A includes a liquid crystal display (LCD: Liquid Crystal Display), an organic EL display (OELD: Organic Electro-Luminescence Display), or an inorganic EL display (IELD: Inorganic Electro-Luminescence Display device).
  • LCD Liquid Crystal Display
  • OELD Organic Electro-Luminescence Display
  • IELD Inorganic Electro-Luminescence Display device
  • the display 2A displays characters, images, symbols, graphics, and the like. Screens including characters, images, symbols, graphics, and the like displayed on the display 2A include a screen called a lock screen and a screen called a home screen.
  • the home screen is sometimes called a desktop, a standby screen, an idle screen, or a standard screen.
  • the touch screen 2B detects contact of a finger, a pen, a stylus pen, or the like with the touch screen 2B.
  • the touch screen 2B can detect a position where a plurality of fingers, a pen, a stylus pen or the like (hereinafter simply referred to as “finger”) contacts the touch screen 2B.
  • the touch screen 2B notifies the controller 10 of the contact of the finger with the touch screen 2B (touch screen display 2) together with the position on the touch screen display 2 of the touched location.
  • the detection method of the touch screen 2B may be any method such as a capacitance method, a resistive film method, a surface acoustic wave method (or an ultrasonic method), an infrared method, an electromagnetic induction method, and a load detection method.
  • a capacitance method a resistive film method
  • a surface acoustic wave method or an ultrasonic method
  • an infrared method an electromagnetic induction method
  • an electromagnetic induction method an electromagnetic induction method
  • the controller 10 (smart phone 1) has at least one of the contact detected by the touch screen 2B, the position at which the contact is detected, the change in the position at which the contact is detected, the interval at which the contact is detected, and the number of times the contact is detected.
  • the type of gesture is determined based on the one.
  • the gesture is an operation performed on the touch screen 2B (touch screen display 2) using a finger.
  • the gestures that the controller 10 (smart phone 1) determines via the touch screen 2B include, for example, touch, long touch, release, swipe, tap, double tap, long tap, drag, flick, pinch in, and pinch out. However, it is not limited to these.
  • buttons 3 accepts operation input from the user.
  • the number of buttons 3 may be singular or plural.
  • the illuminance sensor 4 detects the illuminance of the ambient light of the smartphone 1. Illuminance indicates light intensity, brightness, or luminance. The illuminance sensor 4 is used for adjusting the luminance of the display 2A, for example.
  • the proximity sensor 5 detects the presence of a nearby object without contact.
  • the proximity sensor 5 detects the presence of an object based on a change in a magnetic field or a change in a feedback time of an ultrasonic reflected wave. For example, the proximity sensor 5 detects that the display 2A is brought close to the face.
  • the illuminance sensor 4 and the proximity sensor 5 may be configured as one sensor.
  • the illuminance sensor 4 may be used as a proximity sensor.
  • the communication unit 6 communicates wirelessly.
  • the wireless communication standards supported by the communication unit 6 include, for example, cellular phone communication standards such as 2G, 3G, and 4G, and short-range wireless communication standards.
  • Cellular phone communication standards include, for example, LTE (Long Term Evolution), W-CDMA (Wideband Code Division Multiple Access), WiMAX (Worldwide InteroperabilityCableP), WiMAX (Worldwide InteroperabilityCMIC). (Global System for Mobile Communications), PHS (Personal Handy-phone System), and the like.
  • Examples of short-range wireless communication standards include IEEE 802.11, Bluetooth (registered trademark), IrDA (Infrared Data Association), NFC (Near Field Communication), and WPAN (Wireless Personal Area Network).
  • As a communication standard of WPAN for example, there is ZigBee (registered trademark).
  • the communication unit 6 may support one or more of the communication standards described above.
  • the communication unit 6 receives a radio signal of a predetermined frequency band from a GPS satellite, demodulates the received radio signal, and sends the processed signal to the controller 10.
  • the smartphone 1 may disperse the communication function with the GPS satellite from the communication unit 6 and provide an individual communication unit independent from the communication unit 6.
  • the receiver 7 is a sound output unit.
  • the receiver 7 outputs the sound signal transmitted from the controller 10 as sound.
  • the receiver 7 is used, for example, to output the other party's voice during a call.
  • the microphone 8 is a sound input unit.
  • the microphone 8 converts the user's voice or the like into a sound signal and transmits the sound signal to the controller 10.
  • the storage 9 stores programs and data.
  • the storage 9 is also used as a work area for temporarily storing the processing result of the controller 10.
  • the storage 9 may include an arbitrary storage medium such as a semiconductor storage medium and a magnetic storage medium.
  • the storage 9 may include a plurality of types of storage media.
  • the storage 9 may include a combination of a portable storage medium such as a memory card, an optical disk, or a magneto-optical disk and a storage medium reader.
  • the storage 9 may include a storage device used as a temporary storage area such as a RAM (Random Access Memory).
  • the program stored in the storage 9 includes an application executed in the foreground or the background and a control program that supports the operation of the application.
  • An application executed in the foreground displays a screen on the display 2A, for example.
  • the control program includes an OS, for example.
  • the application and the control program may be installed in the storage 9 via wireless communication by the communication unit 6 or a non-transitory storage medium.
  • the storage 9 stores, for example, a control program 9A, a call application 9B, an SMS application 9C, an e-mail application 9D, a memo pad application 9E, a moving image application 9F, a browser application 9G, telephone book data 9Y, and setting data 9Z.
  • the control program 9A provides functions related to various controls for operating the smartphone 1.
  • the control program 9A provides an interactive interface function for executing voice control based on voice input via the microphone 8.
  • the interactive interface function includes a function for causing the display 2A to display an execution screen indicating that the interactive interface function is being executed.
  • the interactive interface function includes a function of recognizing a voice input by the microphone 8 and responding with a voice and characters according to the recognition result.
  • the control program 9A provides a function of recognizing voice input by the user and executing processing based on the recognition result.
  • This function includes a function of automatically executing an application corresponding to the recognition result from the applications stored in the storage 9 when the speech recognition is successful.
  • the control program 9A provides a function of recognizing a voice input by the user and displaying a list of applications stored in the storage 9 when the process cannot be executed based on the recognition result.
  • the process cannot be executed based on the recognition result for example, when the speech recognition fails or when it is determined that the application corresponding to the recognition result cannot be detected from the applications stored in the storage 9. Is included.
  • the control program 9A provides a function for terminating the voice input of the character string to be inserted into the input field of the application selected by the voice control through the interactive interface function by the voice control. Specifically, when the control program 9A detects a predetermined keyword input by voice through the interactive interface or determines that the number of input voices through the interactive interface is greater than or equal to a threshold value, Provided is a function for terminating voice input of a character string to be inserted into an input field of an application selected by voice control.
  • the control program 9A causes the controller 10 to start voice control related to the email application 9D.
  • the voice control related to the email application 9D means that a voice corresponding to a character string to be inserted into the body field of the email application 9D can be input multiple times while a predetermined keyword is used. This corresponds to the control for terminating the voice input according to the detection of the voice or the number of times of voice input.
  • the control program 9A saves the character string to be input as a character string to be inserted into the body field of the email application 9D in the storage area of the storage 9.
  • the processing is realized by the controller 10.
  • the control program 9A causes the controller 10 to realize a process of ending the voice input of the character string to be inserted into the body field of the email application 9D.
  • the control program 9A starts the input of the voice corresponding to the character string to be inserted into the body field of the email application 9D until the number of voice inputs reaches or exceeds the threshold value.
  • the controller 10 As a character string to be inserted into the text field, the controller 10 is caused to realize a process of storing a character string input by voice in a storage area of the storage 9.
  • the control program 9A causes the controller 10 to realize a process of ending the voice input of the character string to be inserted into the body field of the email application 9D when the number of voice inputs exceeds the threshold.
  • the control program 9A provides a function for starting the application selected by the voice control when the voice input is finished by the voice control and inserting the character string inputted by voice into the input field of the started application.
  • the control program 9A activates the e-mail application 9D when the voice input is terminated by the above-described voice control, and the text of the activated e-mail application 9D. Then, the character string stored in the storage 9 is inserted as the character string to be inserted into the body field of the email application 9D.
  • control program 9A controls the communication unit 6 and the like, thereby enabling LTE (Long Term Evolution), W-CDMA (Wideband Code Division Multiple Access), WiMAX (WorldwideInterPiralityC). Provides functions for realizing communication using Cellular, GSM (registered trademark) (Global System for Mobile Communications), PHS (Personal Handy-phone System), and the like.
  • LTE Long Term Evolution
  • W-CDMA Wideband Code Division Multiple Access
  • WiMAX Worldwide InterPiralityC
  • GSM Global System for Mobile Communications
  • PHS Personal Handy-phone System
  • the control program 9A uses IEEE 802.11, Bluetooth (registered trademark), IrDA (Infrared Data Association), NFC (Near Field Communication Network), WPAN (Wireless Personal Network), etc. by controlling the communication unit 6 and the like. A function for realizing near field communication is provided.
  • the control program 9A provides a function for realizing a call by controlling the communication unit 6 and the microphone 8, for example.
  • the functions provided by the control program 9A may be used in combination with functions provided by other programs stored in the storage 9, such as the call application 9B or the e-mail application 9D, when realizing a call.
  • the interactive interface function provided by the control program 9A and other functions provided by the control program 9A may be used in combination.
  • Each function provided by the control program 9A may be divided into a plurality of program modules, or may be combined with other programs.
  • the interactive interface function provided by the control program 9A may be divided into other modules.
  • the call application 9B provides a function for realizing a call.
  • the SMS application 9C provides a function for sending and receiving e-mails within a predetermined number of characters as SMS (Short Message Service).
  • the email application 9D provides an email function for creating, sending, receiving, and displaying an email.
  • the notepad application 9E provides a text editor function for creating and managing text data.
  • the moving image application 9F provides a function for reproducing a moving image.
  • the browser application 9G provides a browsing function.
  • the application stored in the storage 9 is only an example. In addition to the one shown in FIG. 1, a plurality of applications such as a navigation application, a music player application, a computer application, and a tag application may be stored.
  • the phone book data 9Y includes information such as a phone number and an e-mail address.
  • the setting data 9Z includes information regarding various settings and processes related to the operation of the smartphone 1. For example, the setting data 9Z includes threshold information for ending the voice control.
  • the storage 9 stores character string data input by voice through the microphone 8 by processing by the controller 10.
  • the controller 10 is an arithmetic processing unit.
  • the arithmetic processing unit includes, for example, a CPU (Central Processing Unit), an SoC (System-on-a-chip), an MCU (Micro Control Unit), and an FPGA (Field-Programmable Gate Array), but is not limited thereto.
  • the controller 10 controls various operations of the smartphone 1 to realize various functions.
  • the controller 10 executes instructions included in the program stored in the storage 9 while referring to the data stored in the storage 9 as necessary.
  • the controller 10 controls the functional unit according to data and instructions, thereby realizing various functions.
  • the functional unit includes, for example, the display 2A, the communication unit 6, the receiver 7, the microphone 8, and the speaker 11, but is not limited thereto.
  • the controller 10 may change the control according to the detection result of the detection unit.
  • the detection unit includes, for example, the button 3, the illuminance sensor 4, the proximity sensor 5, the microphone 8, the camera 12, the posture detection unit 15, and the touch screen 2B, but is not limited thereto.
  • the controller 10 realizes processing by an interactive interface by executing the control program 9A.
  • the controller 10 causes the display 2A to display an execution screen indicating that the interactive interface function is being executed.
  • the controller 10 recognizes the voice input by the microphone 8 and responds with voice and characters according to the recognition result.
  • the controller 10 recognizes the voice input by the user by executing the control program 9A, and realizes processing based on the recognition result. For example, when the recognition of the voice is successful, the controller 10 automatically activates an application corresponding to the recognition result from among the applications stored in the storage 9.
  • the controller 10 recognizes the voice input by the user by executing the control program 9A, and displays a list of applications stored in the storage 9 when the process cannot be executed based on the recognition result. Realize. As a case where the processing cannot be executed based on the recognition result, for example, when the speech recognition fails or when it is determined that the application corresponding to the recognition result cannot be detected from the applications stored in the storage 9 Is included.
  • the controller 10 realizes a process for terminating the voice input of the character string to be inserted into the input field of the application selected by the voice control through the interactive interface function by the voice control. . Specifically, when the controller 10 detects a predetermined keyword input by voice through the interactive interface or determines that the number of input voices through the interactive interface is equal to or greater than a threshold, The voice input of the character string to be inserted into the input field of the application selected by the control is terminated.
  • the controller 10 starts voice control related to the email application 9D.
  • the e-mail application 9D and the memo pad application 9E are registered in advance as applications that should execute voice control.
  • the voice control related to the email application 9D means that voice input can be performed a plurality of times as a voice corresponding to a character string to be inserted into a body field of the email application 9D. This corresponds to the control of terminating the voice input by detecting the keyword or the number of voice inputs.
  • the controller 10 saves the character string to be input as a character string to be inserted into the body field of the email application 9D in the storage area of the storage 9.
  • the controller 10 ends the voice input of the character string to be inserted into the body field of the email application 9D.
  • the controller 10 starts the text input corresponding to the character string to be inserted into the text field of the email application 9D until the number of voice input exceeds the threshold, and then the text of the email application 9D.
  • a character string to be inserted into this field a character string inputted by voice is stored in the storage area of the storage 9.
  • the controller 10 ends the voice input of the character string to be inserted into the body field of the email application 9D.
  • the controller 10 executes the control program 9A and ends the voice input by voice control, the controller 10 starts the application selected by voice control and inserts the character string input by voice into the input field of the started application.
  • the controller 10 activates the e-mail application 9D when the voice input is ended by the above-described voice control, and the body of the activated e-mail application 9D is displayed. Then, a character string stored in the storage 9 is inserted as a character string to be inserted into the body field of the email application 9D.
  • the speaker 11 is a sound output unit.
  • the speaker 11 outputs the sound signal transmitted from the controller 10 as sound.
  • the speaker 11 is used for outputting a ring tone and music, for example.
  • One of the receiver 7 and the speaker 11 may also function as the other.
  • the camera 12 converts the captured image into an electrical signal.
  • the camera 12 includes, for example, an in-camera that captures an object facing the display 2A, and an out-camera that captures an object facing the opposite surface of the display 2A.
  • the posture detection unit 15 detects the posture of the smartphone 1.
  • the posture detection unit 15 includes at least one of an acceleration sensor, a direction sensor, and a gyroscope in order to detect the posture.
  • the vibrator 18 vibrates a part or the whole of the smartphone 1.
  • the vibrator 18 includes, for example, a piezoelectric element or an eccentric motor in order to generate vibration.
  • the vibration by the vibrator 18 is used to notify the user of various events such as incoming calls.
  • the functional configuration of the smartphone 1 shown in FIG. 1 is an example, and may be changed as appropriate without departing from the gist of the present invention.
  • FIGS. F1 appearing in FIGS. 2 to 7 indicates a user's finger.
  • 2 to 7 illustrate an example of processing when a so-called lock screen is displayed on the display 2A.
  • similar processing can be realized as long as an interactive interface can be activated.
  • what is described as “operation” may be any touch gesture that can be detected by the smartphone 1 (controller 10) via the touch screen 2B.
  • FIG. 2 and FIG. 3 are diagrams showing an example of processing in the case where voice input to the text field of the mail application (for example, the email application 9D) is terminated by detection of a predetermined keyword.
  • the smartphone 1 displays a lock screen 40 on the display 2A.
  • the lock screen 40 is displayed when the smartphone 1 is in a locked state.
  • the smartphone 1 does not accept a user operation except for a specific operation.
  • the specific operation includes, for example, an operation for releasing the lock state and an operation for displaying a notification screen on the display 2A.
  • the lock state may include not only a state in which a user operation is not accepted but also a security lock state.
  • the lock screen 40 is provided with an icon 40a for starting an interactive interface.
  • step S11 when the smartphone 1 detects an operation on the icon 40a disposed on the lock screen 40 via the touch screen 2B (step S11), the smartphone 1 displays an interactive interface execution screen 50 on the display 2A. Display (step S12). At this time, as shown in step S12, the smartphone 1 outputs the voice guidance “Please tell us your business.” From the speaker 11 and displays the speech balloon image (S-1) corresponding to the voice guidance on the execution screen. 50.
  • the smartphone 1 executes a process for recognizing the input voice.
  • the smartphone 1 determines whether there is an application corresponding to the recognition result.
  • the smartphone 1 determines whether to perform voice control related to the application.
  • the smartphone 1 executes voice control related to the application, the smartphone 1 responds to the user and starts voice control related to the application (steps S13 to S14).
  • step S13 when the smartphone 1 recognizes that the character string input by voice through the microphone 8 is “mail to Mr. Ichiro Patent”, a speech bubble corresponding to the recognized character string as shown in step S13.
  • the image (U-1) is displayed on the execution screen 50.
  • the smartphone 1 detects an e-mail application 9D corresponding to the recognition result from the applications stored in the storage 9, and determines that voice control related to the e-mail application 9D is executed.
  • step S ⁇ b> 14 the smartphone 1 starts voice control of the email application 9 ⁇ / b> D, and displays an image 50 a for notifying the user on the execution screen 50.
  • step S ⁇ b> 14 the smartphone 1 outputs a voice guidance “Please tell me the subject” from the speaker 11 and displays a speech balloon image (S-2) corresponding to the voice guidance on the execution screen 50. .
  • the smartphone 1 executes a process for recognizing the input voice. If the recognition is successful, the smartphone 1 stores the recognition result and responds to the user (steps S15 to S16).
  • step S15 a speech balloon corresponding to the recognized character string is displayed as shown in step S15.
  • the image (U-2) is displayed on the execution screen 50.
  • the smartphone 1 stores the recognized character string, and displays the image 50b in which the recognized character string is inserted in the field corresponding to the subject of the image 50a in which the subject has not been input (step S16).
  • the smartphone 1 outputs a voice guidance from the speaker 11 “Please tell me the text.
  • the corresponding balloon image (S-3) is displayed on the execution screen 50.
  • the smartphone 1 executes a process for recognizing the input voice. If the recognition is successful, the smartphone 1 saves the recognition result and responds to the user on the condition that the recognition result is not the end keyword of the voice input or that the number of times of voice input has not reached the threshold. (Steps S17 to S18).
  • step S17 a speech bubble corresponding to the recognized character string as shown in step S17.
  • the image (U-3) is displayed on the execution screen 50.
  • the smartphone 1 stores the recognized character string, and displays the image 50c in which the recognized character string is inserted in the field corresponding to the text of the image 50b in which the text has not been input (step S18).
  • the smartphone 1 After obtaining the character string to be inserted into the body of the mail, as shown in step S18, the smartphone 1 again receives a voice guidance from the speaker 11 “Tell me the body.
  • a balloon image (S-4) corresponding to the voice guidance is displayed on the execution screen 50.
  • the smartphone 1 executes a process for recognizing the input voice. If the recognition is successful, the smartphone 1 saves the recognition result and responds to the user on the condition that the recognition result is not the end keyword of the voice input or that the number of times of voice input has not reached the threshold. (Step S19 to Step S20).
  • the smartphone 1 recognizes that the character string input by voice through the microphone 8 is “Everyone gathered”, as shown in step S19, the smartphone 1 corresponds to the recognized character string.
  • the balloon image (U-4) is displayed on the execution screen 50.
  • the smartphone 1 stores the recognized character string, and displays the image 50d in which the recognized character string is inserted in the field corresponding to the text of the image 50c (step S20).
  • the smartphone 1 After re-acquiring the character string to be inserted into the body of the mail, as shown in step S20, the smartphone 1 again receives a voice guidance “Please tell me the body. And an image of a balloon (S-5) corresponding to the voice guidance is displayed on the execution screen 50.
  • the smartphone 1 executes a process for recognizing the input voice. If the recognition is successful, the smartphone 1 ends the voice input and starts the application on the condition that the recognition result is a voice input end keyword or that the number of voice inputs is equal to or greater than a threshold (step S21). To Step S22).
  • the smartphone 1 when the smartphone 1 recognizes that the character string input by voice through the microphone 8 is “complete”, which is a keyword for terminating voice input, the recognized character is displayed as shown in step S21. Do not display balloon images corresponding to columns. Subsequently, the smartphone 1 outputs a voice guidance “starts the mail application” from the speaker 11 for the purpose of notifying the user that the end of the voice input has been accepted, and a balloon corresponding to the voice guidance.
  • the image (S-6) is displayed on the execution screen 50.
  • the smartphone 1 activates the e-mail application 9D and displays a mail creation screen 60A in which character strings corresponding to each of the destination, the subject, and the text are inserted on the display 2A.
  • FIGS. 4 and 5 are diagrams showing another example of processing in the case where voice input to the body field of the mail application (for example, email application 9D) is terminated by detection of a predetermined keyword.
  • voice input to the body field of the mail application for example, email application 9D
  • step S31 when the smartphone 1 detects an operation on the icon 40a arranged on the lock screen 40 via the touch screen 2B (step S31), the smartphone 1 displays an interactive interface execution screen 50 on the display 2A. It is displayed (step S32). At this time, as shown in step S32, the smartphone 1 outputs the voice guidance “Please tell us your business.” From the speaker 11 and displays the speech balloon image (S-11) corresponding to the voice guidance on the execution screen. 50.
  • the smartphone 1 executes a process for recognizing the input voice.
  • the smartphone 1 determines whether there is an application corresponding to the recognition result.
  • the smartphone 1 determines whether to perform voice control related to the application.
  • the smartphone 1 executes voice control related to the application, the smartphone 1 responds to the user and starts voice control related to the application (steps S33 to S34).
  • step S33 a speech bubble corresponding to the recognized character string as shown in step S33.
  • the image (U-11) is displayed on the execution screen 50.
  • the smartphone 1 detects an e-mail application 9D corresponding to the recognition result from the applications stored in the storage 9, and determines that voice control related to the e-mail application 9D is executed.
  • step S ⁇ b> 34 the smartphone 1 starts voice control of the email application 9 ⁇ / b> D and displays an image 50 a for notifying the user on the execution screen 50.
  • step S34 the smartphone 1 outputs a voice guidance “Please tell me the subject” from the speaker 11 and displays a speech balloon image (S-12) corresponding to the voice guidance on the execution screen 50. .
  • the smartphone 1 executes a process for recognizing the input voice. If the recognition is successful, the smartphone 1 stores the recognition result and responds to the user (steps S35 to S36).
  • step S35 a speech balloon corresponding to the recognized character string is displayed as shown in step S35.
  • the image (U-12) is displayed on the execution screen 50.
  • the smartphone 1 stores the recognized character string, and displays the image 50b in which the recognized character string is inserted in the field corresponding to the subject of the image 50a in which the subject has not been input (step S36).
  • the smartphone 1 outputs a voice guidance from the speaker 11 “Please tell me the text.
  • the corresponding balloon image (S-13) is displayed on the execution screen 50.
  • the smartphone 1 executes a process for recognizing the input voice. If the recognition is successful, the smartphone 1 saves the recognition result and responds to the user on the condition that the recognition result is not the end keyword of the voice input or that the number of times of voice input has not reached the threshold. (Step S37 to Step S38).
  • step S37 a speech bubble corresponding to the recognized character string as shown in step S37.
  • the image (U-13) is displayed on the execution screen 50.
  • the smartphone 1 stores the recognized character string, and displays the image 50c in which the recognized character string is inserted in the field corresponding to the text of the image 50b in which the text has not been input (step S38).
  • the smartphone 1 After obtaining the character string to be inserted into the body of the mail, as shown in step S38, the smartphone 1 again receives a voice guidance from the speaker 11 “Tell me the body.
  • a balloon image (S-14) corresponding to the voice guidance is displayed on the execution screen 50.
  • the smartphone 1 executes a process for recognizing the input voice. If the recognition is successful, the smartphone 1 saves the recognition result and responds to the user on the condition that the recognition result is not the end keyword of the voice input or that the number of times of voice input has not reached the threshold. (Steps S39 to S40).
  • step S39 an image of a balloon corresponding to the recognized character string ( U-14) is displayed on the execution screen 50.
  • the smartphone 1 stores the recognized character string, and displays the image 50d in which the recognized character string is inserted in the field corresponding to the text of the image 50c (step S40).
  • the character string recognized by the smartphone 1 in step S39 and newly displayed in step S40 cannot be deleted by voice input.
  • step S40 After re-acquiring the character string to be inserted into the body of the mail, as shown in step S40, the smartphone 1 once again receives the voice guidance “Tell me the body. And an image of a balloon (S-15) corresponding to the voice guidance is displayed on the execution screen 50.
  • the smartphone 1 executes a process for recognizing the input voice. If the recognition is successful, the smartphone 1 terminates the speech input and starts the application on the condition that the recognition result is an end keyword of speech input or the number of times of speech input is equal to or greater than a threshold value (step S41). To Step S42).
  • step S ⁇ b> 41 the smartphone 1 outputs a voice guidance “starting the mail application” from the speaker 11 for the purpose of notifying the user that the end of the voice input has been accepted.
  • the balloon image (S-16) corresponding to the voice guidance is displayed on the execution screen 50.
  • step S42 the smartphone 1 activates the e-mail application 9D and displays an e-mail creation screen 60A in which character strings corresponding to the destination, subject, and body are inserted on the display 2A.
  • step S39 even when the character string input by the user is not correctly recognized as the end keyword by the smartphone 1, the character string input by the user is ended as shown in step S42. At the timing when the smartphone 1 correctly recognizes the keyword, the voice input to the text of the email application 9D is surely terminated.
  • FIGS. 6 and 7 are diagrams illustrating an example of processing in the case where the voice input to the body field of the mail application (for example, the email application 9D) is terminated when the number of voice inputs is equal to or greater than the threshold value. .
  • step S51 when the smartphone 1 detects an operation on the icon 40a arranged on the lock screen 40 via the touch screen 2B (step S51), the smartphone 1 displays an interactive interface execution screen 50 on the display 2A. Displayed (step S52). At this time, as shown in step S52, the smartphone 1 outputs the voice guidance “Please tell us your business.” From the speaker 11 and displays the speech balloon image (S-21) corresponding to the voice guidance on the execution screen. 50.
  • the smartphone 1 executes a process for recognizing the input voice.
  • the smartphone 1 determines whether there is an application corresponding to the recognition result.
  • the smartphone 1 determines whether to perform voice control related to the application.
  • the smartphone 1 executes voice control related to the application, the smartphone 1 responds to the user and starts voice control related to the application (steps S53 to S54).
  • step S53 a speech bubble corresponding to the recognized character string as shown in step S53.
  • the image (U-21) is displayed on the execution screen 50.
  • the smartphone 1 detects an e-mail application 9D corresponding to the recognition result from the applications stored in the storage 9, and determines that voice control related to the e-mail application 9D is executed.
  • step S54 the smartphone 1 starts voice control of the email application 9D, and displays an image 50a for notifying the user on the execution screen 50.
  • step S54 the smartphone 1 outputs a voice guidance “Please tell me the subject” from the speaker 11 and displays a speech balloon image (S-22) corresponding to the voice guidance on the execution screen 50. .
  • the smartphone 1 executes a process for recognizing the input voice.
  • the smartphone 1 stores the recognition result and responds to the user (steps S55 to S56).
  • step S55 a speech balloon corresponding to the recognized character string is displayed as shown in step S55.
  • the image (U-22) is displayed on the execution screen 50.
  • the smartphone 1 stores the recognized character string, and displays the image 50b in which the recognized character string is inserted in the field corresponding to the subject of the image 50a in which the subject has not been input (step S56).
  • the smartphone 1 outputs a voice guidance from the speaker 11 "Please tell me the text.
  • the corresponding balloon image (S-23) is displayed on the execution screen 50.
  • Step S57 to Step S58 the smartphone 1 executes a process for recognizing the input voice. If the recognition is successful, the smartphone 1 saves the recognition result and responds to the user on the condition that the recognition result is not the end keyword of the voice input or that the number of times of voice input has not reached the threshold.
  • step S57 a speech bubble corresponding to the recognized character string as shown in step S57.
  • the image (U-23) is displayed on the execution screen 50.
  • the smartphone 1 stores the recognized character string, and displays the image 50c in which the recognized character string is inserted in the field corresponding to the text of the image 50b in which the text has not been input (step S58).
  • the smartphone 1 After acquiring the character string to be inserted into the body of the mail, as shown in step S58, the smartphone 1 again receives a voice guidance from the speaker 11 “Tell me the body. In addition to outputting, a balloon image (S-24) corresponding to the voice guidance is displayed on the execution screen 50.
  • the smartphone 1 executes a process for recognizing the input voice. If the recognition is successful, the smartphone 1 saves the recognition result and responds to the user on the condition that the recognition result is not the end keyword of the voice input or that the number of times of voice input has not reached the threshold. (Steps S59 to S60).
  • step S59 the image of the speech balloon corresponding to the recognized character string ( U-24) is displayed on the execution screen 50.
  • the smartphone 1 stores the recognized character string, and displays the image 50d in which the recognized character string is inserted in the field corresponding to the text of the image 50c (step S60).
  • step S60 the smartphone 1 again receives a voice guidance “Please tell me the body. , And a speech balloon image (S-25) corresponding to the voice guidance is displayed on the execution screen 50.
  • the smartphone 1 executes a process for recognizing the input voice. If the recognition is successful, the smartphone 1 saves the recognition result and responds to the user on the condition that the recognition result is not the end keyword of the voice input or that the number of times of voice input has not reached the threshold. (Steps S61 to S62).
  • step S61 an image of a balloon corresponding to the recognized character string ( U-25) is displayed on the execution screen 50.
  • the smartphone 1 stores the recognized character string and displays the image 50e in which the recognized character string is inserted in the field corresponding to the text of the image 50d (step S62).
  • step S62 the smartphone 1 once again receives the voice guidance “Tell me the body.
  • the speech balloon image (S-26) corresponding to the voice guidance is displayed on the execution screen 50.
  • the smartphone 1 executes a process for recognizing the input voice. If the recognition is successful, the smartphone 1 saves the recognition result and responds to the user on the condition that the recognition result is not the end keyword of the voice input or that the number of times of voice input has not reached the threshold. (Steps S63 to S64).
  • step S63 an image of a balloon corresponding to the recognized character string ( U-26) is displayed on the execution screen 50.
  • the smartphone 1 stores the recognized character string and displays the image 50f in which the recognized character string is inserted in the field corresponding to the body of the image 50e (step S64).
  • the smartphone 1 After re-acquiring the character string to be inserted into the body of the mail, as shown in step S64, the smartphone 1 again gives the voice guidance “Please tell me the body. And the speech balloon image (S-27) corresponding to the voice guidance is displayed on the execution screen 50.
  • the smartphone 1 executes a process for recognizing the input voice. If the recognition is successful, the smartphone 1 ends the voice input and starts the application on the condition that the recognition result is a voice input end keyword or the number of times of voice input is equal to or greater than a threshold (step S65). To Step S66).
  • the smartphone 1 recognizes that the character string input by voice through the microphone 8 is “management”, and the number of input (accumulation) of the voice by inputting the voice corresponding to the corresponding character string. Is determined to be greater than or equal to the threshold value, the balloon image corresponding to the recognized character string is not displayed. Subsequently, as shown in step S ⁇ b> 65, the smartphone 1 outputs a voice guidance “Starting the mail application” from the speaker 11 for the purpose of notifying the user that the end of the voice input has been accepted. The balloon image (S-28) corresponding to the voice guidance is displayed on the execution screen 50.
  • step S66 the smartphone 1 activates the e-mail application 9D and displays an e-mail creation screen 60A in which character strings corresponding to the destination, subject, and text are inserted on the display 2A.
  • step S66 even when the recognition result of the smartphone 1 in steps S59 to S63 is incorrect, each character string (management) corresponding to the recognition result is inserted into the mail creation screen 60A.
  • step S59 to step S63 even if the character string input by the user is not correctly recognized as the end keyword by the smartphone 1 many times, as shown in step S66, the number of times the user has input the voice.
  • the voice input to the text of the e-mail application 9D surely ends at the timing when becomes equal to or greater than the threshold.
  • FIG.8 and FIG.9 is a flowchart which shows an example of the process sequence by the smart phone 1 which concerns on embodiment.
  • the processing procedures shown in FIGS. 8 and 9 are realized by the controller 10 executing the control program 9A stored in the storage 9.
  • FIG. 8 shows the overall flow of voice control executed by the smartphone 1.
  • the controller 10 causes the display screen 2A to display an interactive interface execution screen (step S101).
  • the controller 10 detects an operation on the icon 40a for activating the interactive interface via the touch screen 2B
  • the controller 10 activates the interactive interface and displays the interface execution screen 50 on the display 2A (see FIG. (See FIGS. 2 and 4).
  • step S102 when the controller 10 acquires the voice data of the voice input by the microphone 8 (step S102), the controller 10 executes a voice data recognition process and determines whether the voice has been successfully recognized (step S103).
  • Step S104 determines whether an application corresponding to the recognition result has been detected from the applications stored in the storage 9 ( Step S104).
  • step S104 If the controller 10 can detect the application corresponding to the recognition result as a result of the determination (step S104, Yes), the controller 10 determines whether to execute voice control related to the application corresponding to the recognition result (step S105).
  • step S105 When the controller 10 executes the voice control related to the application corresponding to the recognition result as a result of the determination (step S105, Yes), the controller 10 starts the voice control related to the application corresponding to the recognition result (step S106).
  • the controller 10 activates the application detected in step S104, reflects the result of the voice control in step S106 for the application (step S107), and the processing procedure shown in FIG. Exit.
  • the controller 10 activates the e-mail application 9D, and inserts the data of the subject and the text string of the text input through the interactive interface into the corresponding fields in the e-mail application 9D.
  • step S105 if the controller 10 does not execute voice control related to the application corresponding to the recognition result (No in step S105), the controller 10 executes the application detected in step S104 (step S108), and performs the processing shown in FIG. End the procedure.
  • step S104 if the controller 10 cannot detect the application corresponding to the recognition result as a result of the determination (step S104, No), the processing procedure shown in FIG. At this time, the controller 10 may display a list of applications stored in the storage 9 on the display 2A.
  • step S103 if the controller 10 fails to recognize the speech as a result of the determination (step S103, No), the controller 10 determines whether or not the number of recognition failures exceeds a threshold (step S109). As a result of the determination, when the number of recognition failures exceeds the threshold (Yes in step S109), the controller 10 ends the processing procedure shown in FIG. On the other hand, if the number of times of recognition failure does not exceed the threshold value as a result of the determination (No in step S109), the controller 10 requests re-input of voice by, for example, voice guidance and images. (Step S110), the procedure proceeds to Step S102.
  • FIG. 9 shows the flow of voice control related to the application.
  • FIG. 9 corresponds to the procedure of step S106 shown in FIG.
  • the controller 10 requests voice input for the application that has decided to execute voice control in step S ⁇ b> 105 of FIG. 8 (step S ⁇ b> 201), and acquires voice data (step S ⁇ b> 202).
  • the controller 10 requests voice input of a character string to be input to a field corresponding to the text of the email application 9D, and acquires a voice corresponding to the character string input to the text.
  • the controller 10 executes a process for recognizing voice data inputted in response to the request in step S201, and determines whether or not the voice has been successfully recognized (step S203).
  • step S204 determines whether or not the voice corresponding to the recognition result is “complete”.
  • step S204 If the result of the determination is that the keyword is not the voice input end keyword (step S204, No), then, the number of voices (cumulative) input after starting the processing procedure shown in FIG. Is determined (step S205).
  • step S205 If the result of determination is that the number of input voices is not greater than or equal to the threshold value (step S205, No), the controller 10 obtains the character string data to be inserted into the input field of the application detected in the process of FIG.
  • the acquired voice data is accumulated (step S206). For example, the controller 10 accumulates the voice data acquired in step S202 as character string data to be input to the field corresponding to the text of the email application 9D.
  • controller 10 returns to the procedure of step S201 and continues the control shown in FIG.
  • step S205 If it is determined in step S205 that the number of input (accumulated) voices after the start of the processing procedure shown in FIG. 9 is greater than or equal to the threshold value (step S205, Yes), the controller 10 shows in FIG. The processing procedure ends.
  • step S204 when the voice corresponding to the recognition result is the voice input end keyword (step S204, Yes), the controller 10 ends the processing procedure shown in FIG.
  • step S203 if the result of determination is that the voice has not been successfully recognized (No in step S203), the controller 10 invalidates the voice input, returns to the procedure in step S201, and re-inputs the voice. Request.
  • the order of the processing procedure is not limited to the example shown in FIG. 9.
  • the order of the procedure in step S204 and the procedure in step S205 may be reversed.
  • the smartphone 1 ends the voice input of the character string to be inserted into the input field of the application selected by voice through the interactive interface by voice control.
  • the smartphone 1 can end voice input of a character string to be inserted into a field corresponding to the text of the email application 9D by detecting an end keyword “complete”.
  • the smart phone 1 can be complete
  • the smartphone 1 according to the present embodiment enables a plurality of voice inputs to an input field in which a relatively long character string is input, for example, the body of an email.
  • the voice input can be terminated by detecting the number of times or the number of times the voice is input. That is, the smartphone 1 according to the present embodiment can realize the start and end of input of a long sentence for a predetermined input field of the application only by voice control via the interactive interface, and improves processing via the interactive interface. be able to.
  • the smartphone 1 determines that the number of times of voice input is five, the voice input of the character string to be inserted into the field corresponding to the text of the email application 9D is terminated (FIGS. 6 and 7).
  • any number of times can be applied to terminate the voice input.
  • the smartphone 1 terminates the voice input of the character string to be inserted into the field corresponding to the text of the email application 9D by voice control via the interactive interface.
  • the present invention is not limited to this, and the smartphone 1 according to the embodiment described above can be applied to all applications that perform voice input of a character string to the memo pad application 9E, voice input of a character string to an application that manages a schedule, and the like. Processing (FIGS. 2-9, etc.) can be applied.
  • the character string corresponding to the recognition result (for example, management)
  • the smartphone 1 determines that it is a character string related to misrecognition when a plurality of synonymous character strings are consecutively included in a voice-input character string, When starting up, it may not be inserted into the input field of the application.
  • the smartphone 1 includes a list of character strings similar to the end keyword (for example, completion) in advance, and if there is a character string similar to the end keyword in the character string input by voice, the application When starting up, the character string may not be inserted into the input field of the application.
  • the smartphone 1 may end the voice input when it is determined that the recognition result with respect to the voice input is a synonym (for example, bureaucracy) with the end keyword.
  • a synonym for example, bureaucracy
  • each program shown in FIG. 1 may be divided into a plurality of modules.
  • each program shown in FIG. 1 may be combined with another program.
  • a smartphone has been described as an example of a device including a touch screen.
  • the device according to the appended claims is not limited to a smartphone, and may be an electronic device other than a smartphone.
  • Electronic devices are, for example, mobile phones, tablets, portable personal computers, digital cameras, media players, electronic book readers, navigators, and game machines.
  • the device according to the appended claims may be a stationary electronic device.
  • the stationary electronic devices are, for example, a desktop personal computer and a television receiver.
  • FIG. 10 is a block diagram of the smartphone 1 according to the second embodiment.
  • symbol may be attached
  • the smartphone 1 includes a touch screen display 2, a button 3, an illuminance sensor 4, a proximity sensor 5, a communication unit 6, a receiver 7, a microphone 8, a storage 9, and a controller 10.
  • the touch screen display 2 has a display 2A and a touch screen 2B.
  • the display 2 ⁇ / b> A and the touch screen 2 ⁇ / b> B may be arranged, for example, may be arranged side by side, or may be arranged apart from each other.
  • the display 2A and the touch screen 2B are arranged so as to overlap each other, for example, one or more sides of the display 2A may not be along any side of the touch screen 2B.
  • the display 2A includes a liquid crystal display (LCD: Liquid Crystal Display), an organic EL display (OELD: Organic Electro-Luminescence Display), or an inorganic EL display (IELD: Inorganic Electro-Luminescence Display device).
  • LCD Liquid Crystal Display
  • OELD Organic Electro-Luminescence Display
  • IELD Inorganic Electro-Luminescence Display device
  • the display 2A displays characters, images, symbols, graphics, and the like. Screens including characters, images, symbols, graphics, and the like displayed on the display 2A include a screen called a lock screen and a screen called a home screen.
  • the home screen is sometimes called a desktop, a standby screen, an idle screen, or a standard screen.
  • the touch screen 2B detects contact of a finger, a pen, a stylus pen, or the like with the touch screen 2B.
  • the touch screen 2B can detect a position where a plurality of fingers, a pen, a stylus pen or the like (hereinafter simply referred to as “finger”) contacts the touch screen 2B.
  • the touch screen 2B notifies the controller 10 of the contact of the finger with the touch screen 2B (touch screen display 2) together with the position on the touch screen display 2 of the touched location.
  • the detection method of the touch screen 2B may be any method such as a capacitance method, a resistive film method, a surface acoustic wave method (or an ultrasonic method), an infrared method, an electromagnetic induction method, and a load detection method.
  • a capacitance method a resistive film method
  • a surface acoustic wave method or an ultrasonic method
  • an infrared method an electromagnetic induction method
  • an electromagnetic induction method an electromagnetic induction method
  • the controller 10 (smart phone 1) has at least one of the contact detected by the touch screen 2B, the position at which the contact is detected, the change in the position at which the contact is detected, the interval at which the contact is detected, and the number of times the contact is detected.
  • the type of gesture is determined based on the one.
  • the gesture is an operation performed on the touch screen 2B (touch screen display 2) using a finger.
  • the gestures that the controller 10 (smart phone 1) determines via the touch screen 2B include, for example, touch, long touch, release, swipe, tap, double tap, long tap, drag, flick, pinch in, and pinch out. However, it is not limited to these.
  • buttons 3 accepts operation input from the user.
  • the number of buttons 3 may be singular or plural.
  • the illuminance sensor 4 detects the illuminance of the ambient light of the smartphone 1. Illuminance indicates light intensity, brightness, or luminance. The illuminance sensor 4 is used for adjusting the luminance of the display 2A, for example.
  • the proximity sensor 5 detects the presence of a nearby object without contact.
  • the proximity sensor 5 detects the presence of an object based on a change in a magnetic field or a change in a feedback time of an ultrasonic reflected wave. For example, the proximity sensor 5 detects that the display 2A is brought close to the face.
  • the illuminance sensor 4 and the proximity sensor 5 may be configured as one sensor.
  • the illuminance sensor 4 may be used as a proximity sensor.
  • the communication unit 6 communicates wirelessly.
  • the wireless communication standards supported by the communication unit 6 include, for example, cellular phone communication standards such as 2G, 3G, and 4G, and short-range wireless communication standards.
  • Cellular phone communication standards include, for example, LTE (Long Term Evolution), W-CDMA (Wideband Code Division Multiple Access), WiMAX (Worldwide InteroperabilityCableP), WiMAX (Worldwide InteroperabilityCMIC). (Global System for Mobile Communications), PHS (Personal Handy-phone System), and the like.
  • Examples of short-range wireless communication standards include IEEE 802.11, Bluetooth (registered trademark), IrDA (Infrared Data Association), NFC (Near Field Communication), and WPAN (Wireless Personal Area Network).
  • As a communication standard of WPAN for example, there is ZigBee (registered trademark).
  • the communication unit 6 may support one or more of the communication standards described above.
  • the communication unit 6 receives a radio signal in a predetermined frequency band from a GPS satellite, demodulates the received radio signal, and sends the processed signal to the controller 10.
  • the smartphone 1 may disperse the communication function with the GPS satellite from the communication unit 6 and provide an individual communication unit independent from the communication unit 6.
  • the receiver 7 is a sound output unit.
  • the receiver 7 outputs the sound signal transmitted from the controller 10 as sound.
  • the receiver 7 is used, for example, to output the other party's voice during a call.
  • the microphone 8 is a sound input unit.
  • the microphone 8 converts the user's voice or the like into a sound signal and transmits the sound signal to the controller 10.
  • the storage 9 stores programs and data.
  • the storage 9 is also used as a work area for temporarily storing the processing result of the controller 10.
  • the storage 9 may include an arbitrary storage medium such as a semiconductor storage medium and a magnetic storage medium.
  • the storage 9 may include a plurality of types of storage media.
  • the storage 9 may include a combination of a portable storage medium such as a memory card, an optical disk, or a magneto-optical disk and a storage medium reader.
  • the storage 9 may include a storage device used as a temporary storage area such as a RAM (Random Access Memory).
  • the program stored in the storage 9 includes an application executed in the foreground or the background and a control program that supports the operation of the application.
  • An application executed in the foreground displays a screen on the display 2A, for example.
  • the control program includes an OS, for example.
  • the application and the control program may be installed in the storage 9 via wireless communication by the communication unit 6 or a non-transitory storage medium.
  • the storage 9 stores, for example, a control program 9A, a call application 9B, an SMS application 9C, an e-mail application 9D, a memo pad application 9E, a moving image application 9F, a browser application 9G, telephone book data 9Y, and setting data 9Z.
  • the control program 9A provides functions related to various controls for operating the smartphone 1.
  • the control program 9A provides an interactive interface function.
  • the interactive interface function includes a function for causing the display 2A to display an execution screen indicating that the interactive interface function is being executed.
  • the interactive interface function includes a function of recognizing a voice input by the microphone 8 and responding with a voice and characters according to the recognition result.
  • the control program 9A provides a function of recognizing voice input by the user and executing processing based on the recognition result.
  • This function includes a function of automatically executing an application corresponding to the recognition result from the applications stored in the storage 9 when the speech recognition is successful.
  • the control program 9A provides a function of recognizing a voice input by the user and displaying a list of applications stored in the storage 9 when the process cannot be executed based on the recognition result.
  • the process cannot be executed based on the recognition result for example, when the speech recognition fails or when it is determined that the application corresponding to the recognition result cannot be detected from the applications stored in the storage 9 Is included.
  • the control program 9A provides a function for extracting a record corresponding to a character string input by voice through the microphone 8 from the telephone directory data 9Y and notifying an item included in the extracted record.
  • the control program 9A when there are a plurality of small items belonging to the items included in the record, the control program 9A includes a function for notifying the small items.
  • the control program 9A includes a function for notifying an item or a small item used to contact the target of the record through the own device (smart phone 1). Items used to contact the target of the record through the own device include a telephone number, a mail address, a URL, and the like.
  • the items are associated with various applications stored in the storage 9.
  • the small items used to contact the object of the record through the own device include items such as home, mobile phone, and company.
  • the small item is associated with an application associated with the item to which the small item belongs.
  • control program 9A controls the communication unit 6 and the like, thereby enabling LTE (Long Term Evolution), W-CDMA (Wideband Code Division Multiple Access), WiMAX (WorldwideInterPiralityC). Provides functions for realizing communication using Cellular, GSM (registered trademark) (Global System for Mobile Communications), PHS (Personal Handy-phone System), and the like.
  • LTE Long Term Evolution
  • W-CDMA Wideband Code Division Multiple Access
  • WiMAX Worldwide InterPiralityC
  • GSM Global System for Mobile Communications
  • PHS Personal Handy-phone System
  • the control program 9A uses IEEE 802.11, Bluetooth (registered trademark), IrDA (Infrared Data Association), NFC (Near Field Communication Network), WPAN (Wireless Personal Network), etc. by controlling the communication unit 6 and the like. A function for realizing near field communication is provided.
  • the control program 9A provides a function for realizing a call by controlling the communication unit 6 and the microphone 8, for example.
  • the functions provided by the control program 9A may be used in combination with functions provided by other programs stored in the storage 9, such as the call application 9B or the e-mail application 9D, when realizing a call.
  • the interactive interface function provided by the control program 9A and other functions provided by the control program 9A may be used in combination.
  • Each function provided by the control program 9A may be divided into a plurality of program modules, or may be combined with other programs.
  • the interactive interface function provided by the control program 9A may be divided into other modules.
  • the call application 9B provides a function for realizing a call.
  • the SMS application 9C provides a function for sending and receiving e-mails within a predetermined number of characters as SMS (Short Message Service).
  • the email application 9D provides an email function for creating, sending, receiving, and displaying an email.
  • the notepad application 9E provides a text editor function for creating and managing text data.
  • the moving image application 9F provides a function for reproducing a moving image.
  • the browser application 9G provides a browsing function.
  • the application stored in the storage 9 is only an example. In addition to the one shown in FIG. 10, a plurality of applications such as a navigation application, a music player application, a computer application, and a tag application may be stored.
  • the phone book data 9Y includes information such as a phone number and an e-mail address.
  • FIG. 11 is a diagram illustrating an example of the phone book data 9Y.
  • the phone book data 9Y includes items such as “name”, “phone number”, “mail address”, and “birthday”. In the items “phone number” and “mail address”, three sub-items “home”, “company”, and “mobile” belong respectively.
  • the phone book data 9Y mutually includes data corresponding to items such as “name”, “phone number”, “mail address”, “birthday”, and sub-items “home”, “company”, “mobile”. Configured in association. For example, as shown in FIG.
  • the data “patent Ichiro” corresponding to the item “name” includes data “aa-bbbb-cccc” corresponding to the small item “home” belonging to the item “phone number”.
  • -CCCC is associated.
  • the data “Patent Ichiro” corresponding to the item “name” includes data “ONE@jitaku.com” corresponding to the small item “home” belonging to the item “mail address”.
  • the setting data 9Z includes information on various settings and processes related to the operation of the smartphone 1.
  • the controller 10 is an arithmetic processing unit.
  • the arithmetic processing unit includes, for example, a CPU (Central Processing Unit), an SoC (System-on-a-chip), an MCU (Micro Control Unit), and an FPGA (Field-Programmable Gate Array), but is not limited thereto.
  • the controller 10 controls various operations of the smartphone 1 to realize various functions.
  • the controller 10 executes instructions included in the program stored in the storage 9 while referring to the data stored in the storage 9 as necessary.
  • the controller 10 controls the functional unit according to data and instructions, thereby realizing various functions.
  • the functional unit includes, for example, the display 2A, the communication unit 6, the microphone 8, and the speaker 11, but is not limited thereto.
  • the controller 10 may change the control according to the detection result of the detection unit.
  • the detection unit includes, for example, the touch screen 2B, the button 3, the illuminance sensor 4, the proximity sensor 5, the microphone 8, the camera 12, and the posture detection unit 15, but is not limited thereto.
  • the controller 10 realizes processing by an interactive interface by executing the control program 9A.
  • the controller 10 causes the display 2A to display an execution screen indicating that the interactive interface function is being executed.
  • the controller 10 recognizes the voice input by the microphone 8 and responds with voice and characters according to the recognition result.
  • the controller 10 recognizes the voice input by the user by executing the control program 9A, and realizes processing based on the recognition result. For example, when the recognition of the voice is successful, the controller 10 automatically activates an application corresponding to the recognition result from among the applications stored in the storage 9.
  • the controller 10 recognizes the voice input by the user by executing the control program 9A. If the process cannot be executed based on the recognition result, a process of displaying a list of applications stored in the storage 9 is realized. As a case where the processing cannot be executed based on the recognition result, for example, when the speech recognition fails or when it is determined that the application corresponding to the recognition result cannot be detected from the applications stored in the storage 9 Is included.
  • the controller 10 executes a control program 9A to extract a record corresponding to a character string input by voice from the microphone 8 from the telephone directory data 9Y and notify the items included in the extracted record To realize.
  • the controller 10 realizes a process for notifying the small item.
  • the controller 10 realizes a process for notifying an item or a small item used for contacting the target of the record through the own device (smart phone 1).
  • the speaker 11 is a sound output unit.
  • the speaker 11 outputs the sound signal transmitted from the controller 10 as sound.
  • the speaker 11 is used for outputting a ring tone and music, for example.
  • One of the receiver 7 and the speaker 11 may also function as the other.
  • the camera 12 converts the captured image into an electrical signal.
  • the camera 12 includes, for example, an in-camera that captures an object facing the display 2A, and an out-camera that captures an object facing the opposite surface of the display 2A.
  • the posture detection unit 15 detects the posture of the smartphone 1.
  • the posture detection unit 15 includes at least one of an acceleration sensor, a direction sensor, and a gyroscope in order to detect the posture.
  • the vibrator 18 vibrates a part or the whole of the smartphone 1.
  • the vibrator 18 includes, for example, a piezoelectric element or an eccentric motor in order to generate vibration.
  • the vibration by the vibrator 18 is used to notify the user of various events such as incoming calls.
  • the functional configuration of the smartphone 1 illustrated in FIG. 10 is an example, and may be changed as appropriate within a range that does not impair the gist of the present invention.
  • FIGS. 12 to 14 describe an example of processing when a so-called lock screen is displayed on the display 2A, but similar processing can be realized if the interactive interface can be activated.
  • operation may be any touch gesture that can be detected by the smartphone 1 (controller 10) via the touch screen 2B.
  • FIG. 12 is a diagram illustrating an example of a process for extracting a record corresponding to a character string input by voice via the microphone 8 from the phone book data 9Y and notifying an item included in the extracted record.
  • the smartphone 1 displays a lock screen 40 on the display 2A.
  • the lock screen 40 is displayed when the smartphone 1 is in a locked state.
  • the smartphone 1 does not accept a user operation except for a specific operation.
  • the specific operation includes, for example, an operation for releasing the lock state and an operation for displaying a notification screen on the display 2A.
  • the lock state may include not only a state in which a user operation is not accepted but also a security lock state.
  • the lock screen 40 is provided with an icon 40a for starting an interactive interface.
  • step S71 when the smartphone 1 detects an operation on the icon 40a arranged on the lock screen 40 via the touch screen 2B (step S71), the smartphone 1 displays an interactive interface execution screen 50 on the display 2A. It is displayed (step S72). At this time, as shown in step S12, the smartphone 1 outputs a voice guidance “Please tell us your business.” From the speaker 11 and displays a speech balloon image (O-1) corresponding to the voice guidance on the execution screen. 50.
  • the smartphone 1 executes a process for recognizing the input voice.
  • the smartphone 1 responds to the user and extracts a record corresponding to the character string input via the microphone 8 from the phone book data 9Y stored in the storage 9 and extracts it.
  • the items included in the recorded record are notified (steps S73 to S74).
  • step S73 when the smartphone 1 recognizes that the character string input by voice via the microphone 8 is “Patent Ichiro”, as shown in step S73, an image of a balloon corresponding to the recognized character string ( I-1) is displayed on the execution screen 50. Subsequently, the smartphone 1 searches for patent Ichiro from the data stored in the “name” item included in the phone book data 9Y. Subsequently, when the smartphone 1 detects the patent Ichiro, the smartphone 1 extracts a record corresponding to the patent Ichiro. For example, the extracted records include items such as “phone number”, “mail address”, “birthday”, and “home”, “company”, “mobile” belonging to “phone number” and “mail address”. And the data corresponding to each item.
  • the smartphone 1 uses items “phone number” and “items” used to contact the patent Ichiro who is the target of the record through the own device (smartphone 1) from the items included in the extracted record.
  • “Mail address” is notified by voice and image.
  • the smartphone 1 outputs a voice guidance “Your phone number and email address are registered in the phone book. What do you want to do?” From the speaker 11 and supports voice guidance.
  • the balloon image (O-2) to be displayed is displayed on the execution screen 50.
  • the smartphone 1 performs auxiliary notification using sound and images for prompting the user's action.
  • the smartphone 1 outputs a voice guidance “Please speak closer to the microphone” from the speaker 11 and displays a speech balloon image (O-3) corresponding to the voice guidance on the execution screen 50. To display.
  • the smartphone 1 executes a process for recognizing the input voice.
  • the smartphone 1 responds to the user, automatically activates the application corresponding to the recognition result, and displays the application screen on the display 2A (steps S75 to S77).
  • step S75 an image of a balloon corresponding to the recognized character string as shown in step S75. (I-2) is displayed on the execution screen 50. Subsequently, the smartphone 1 determines whether the mobile phone number data is included in the record corresponding to Patent Ichiro. As a result of the determination, if the mobile phone number is included, the smartphone 1 outputs the voice guidance “calling the mobile phone” from the speaker 11 and corresponds to the voice guidance as shown in step S76.
  • the balloon image (O-4) is displayed on the execution screen 50.
  • the smartphone 1 may output voice guidance indicating that the mobile phone number is not included. Or the smart phone 1 may output the voice guidance which requests
  • the smartphone 1 when the smartphone 1 recognizes that the character string input by voice through the microphone 8 is “Patent Ichiro”, the smartphone 1 extracts a record corresponding to the patent Ichiro. And the smart phone 1 is an item used in order to contact the patent Ichiro who is the object of the record through its own device (smart phone 1) from the items included in the extracted record, and “mail number” and “e-mail” "Address” is notified by voice and image. For example, the smartphone 1 outputs a voice guidance “A phone number and an e-mail address are registered in the phone book. What are you going to do?” From the speaker 11 and displays an image of a speech bubble corresponding to the voice guidance. 50.
  • the smart phone 1 can provide the specific information corresponding to the content of a user's audio
  • the smartphone 1 can determine an operation desired by the user based on the provided specific information. In this way, the smartphone 1 can improve processing via the interactive interface.
  • the smartphone 1 notifies the item used to contact the target of the record (Patent Ichiro) through its own device (smart phone 1) from the items included in the extracted record. Although described, it is not limited to this.
  • the smartphone 1 may notify all items included in the extracted record.
  • the smartphone 1 may also notify “birthday” that is not an item used to contact the target of the record through its own device (smartphone 1) from among the records corresponding to the extracted patent Ichiro. .
  • FIG. 13 is a diagram illustrating an example of a process for extracting a record corresponding to a character string input by voice via the microphone 8 from the telephone directory data 9Y and notifying a small item included in the extracted record.
  • step S81 when the smartphone 1 detects an operation on the icon 40a arranged on the lock screen 40 via the touch screen 2B (step S81), the smartphone 1 displays an interactive interface execution screen 50 on the display 2A. Displayed (step S82). At this time, as shown in step S82, the smartphone 1 outputs the voice guidance “Please tell us your business.” From the speaker 11 and displays the speech balloon image (O-1) corresponding to the voice guidance on the execution screen. 50.
  • the smartphone 1 executes a process for recognizing the input voice.
  • the smartphone 1 extracts a record corresponding to the character string input via the microphone 8 from the phone book data 9Y stored in the storage 9, and items included in the extracted record (Steps S83 to S84).
  • step S83 when the smartphone 1 recognizes that the character string input by voice through the microphone 8 is “Patent Ichiro”, as shown in step S83, an image of a balloon corresponding to the recognized character string ( I-1) is displayed on the execution screen 50. Subsequently, the smartphone 1 searches for patent Ichiro from the data stored in the “name” item included in the phone book data 9Y. Subsequently, when the smartphone 1 detects the patent Ichiro, the smartphone 1 extracts a record corresponding to the patent Ichiro. For example, the extracted records include items such as “phone number”, “mail address”, “birthday”, and “home”, “company”, “mobile” belonging to “phone number” and “mail address”. And the data corresponding to each item.
  • the smartphone 1 uses items “phone number” and “items” used to contact the patent Ichiro who is the target of the record through the own device (smartphone 1) from the items included in the extracted record.
  • the “mail address” is specified, and the “home”, “company”, and “mobile” sub-items belonging to the specified “phone number” and “mail address” items are notified by voice and image.
  • the smartphone 1 has a voice guidance “Your home / company / mobile phone number and home / company / mobile mail address are registered in the phone book. Is output from the speaker 11 and a speech balloon image (O-5) corresponding to the voice guidance is displayed on the execution screen 50.
  • the smartphone 1 performs auxiliary notification using sound and images for prompting the user's action. For example, as shown in step S84, the smartphone 1 outputs a voice guidance “Please approach the microphone” from the speaker 11 and displays a speech balloon image (O-3) corresponding to the voice guidance on the execution screen 50. To display.
  • the smartphone 1 executes a process for recognizing the input voice.
  • the smartphone 1 responds to the user, automatically activates an application corresponding to the recognition result, and displays the application screen on the display 2A (steps S85 to S87).
  • step S85 an image of a balloon corresponding to the recognized character string as shown in step S85. (I-3) is displayed on the execution screen 50.
  • step S86 the smartphone 1 outputs the voice guidance “Starting the mail application” from the speaker 11 and displays the speech balloon image (O-6) corresponding to the voice guidance on the execution screen. 50.
  • step S87 the smartphone 1 executes the email application 9D and displays the screen 80 of the email application 9D on the display 2A.
  • the smartphone 1 inserts the mail address of the cell phone of Patent Ichiro into the destination address in advance.
  • step S85 to step S87 when the smartphone 1 recognizes that the character string input by voice through the microphone 8 is, for example, “short mail on mobile phone”, the smartphone 1 executes the SMS application 9C, The screen of the SMS application 9C is displayed on the display 2A.
  • the smartphone 1 when the smartphone 1 recognizes that the character string input by voice through the microphone 8 is “Patent Ichiro”, the smartphone 1 extracts a record corresponding to the patent Ichiro. And the smart phone 1 is an item used in order to contact the patent Ichiro who is the object of the record through its own device (smart phone 1) from the items included in the extracted record, and “mail number” and “e-mail” The “address” is specified, and further, the sub-items “home”, “company”, and “mobile” belonging to the specified items of “phone number” and “mail address” are notified by voice and image.
  • the smartphone 1 outputs a voice guidance from the speaker 11 that “the home / company / mobile phone number and the home / company / mobile email address are registered in the phone book.
  • the balloon image corresponding to the voice guidance is displayed on the execution screen 50.
  • the smartphone 1 can provide more specific information corresponding to the content of the user's voice input via the interactive interface.
  • the smartphone 1 can determine an operation desired by the user based on the more specific information provided. In this way, the smartphone 1 can improve processing via the interactive interface.
  • FIG. 14 is a diagram showing an example of processing when a record corresponding to a character string input by voice via the microphone 8 cannot be extracted from the telephone directory data 9Y.
  • cooperation application cooperation application
  • FIG. 14 corresponds to an application stored in the storage 9 and can be executed via an interactive interface.
  • the smartphone 1 displays the lock screen 40 on the display 2A.
  • the smartphone 1 detects an operation on the icon 40a arranged on the lock screen 40 (step S91)
  • the smartphone 1 displays the interactive interface execution screen 50 on the display 2A (step S92).
  • the smartphone 1 outputs a voice guidance “Please tell us your business.” From the speaker 11 and displays a speech balloon image (O-1) corresponding to the voice guidance on the execution screen. 50.
  • the smartphone 1 executes a process for recognizing the input voice.
  • the smartphone 1 responds to the user, and when the record corresponding to the character string input via the microphone 8 cannot be extracted from the phone book data 9Y stored in the storage 9 Is determined to be an instruction to execute the cooperative application, and the process is executed (steps S93 to S94).
  • the smartphone 1 recognizes that the character string input by voice through the microphone 8 is “weather”, as shown in step S93, the speech balloon image (I) corresponding to the recognized character string is displayed. -4) is displayed on the execution screen 50. Subsequently, the smartphone 1 searches for weather from the data stored in the “name” item included in the phone book data 9Y. When the weather cannot be detected, the smartphone 1 subsequently searches for a cooperative application. If the cooperative application cannot be detected, for example, as shown in step S94, the smartphone 1 outputs a voice guidance “No cooperative application was found” from the speaker 11 and a balloon corresponding to the voice guidance. The image (O-7) is displayed on the execution screen 50.
  • the smartphone 1 displays a list of applications on the execution screen 50 as illustrated in step S94, for example.
  • the list of applications displayed on the execution screen 50 includes an icon A1 corresponding to the SMS application 9C, an icon A2 corresponding to the email application 9D, an icon A3 corresponding to the memo pad application 9E, and an icon A4 corresponding to the video application 9F. And an icon A5 corresponding to the browser application 9G.
  • the smartphone 1 detects an operation on the icon A3 corresponding to the memo pad application 9E via the touch screen 2B, the smartphone 1 activates the memo pad application 9E and displays the screen 90 of the memo pad application 9E on the display 2A. Displayed (steps S95 to S96).
  • FIG. 15 is a flowchart illustrating an example of a processing procedure of the smartphone according to the embodiment.
  • the processing procedure shown in FIG. 15 is realized by the controller 10 executing the control program 9A stored in the storage 9.
  • the controller 10 causes the display screen 2A to display an interactive interface execution screen (step S301). For example, when the controller 10 detects an operation on the icon 40a for activating the interactive interface via the touch screen 2B, the controller 10 activates the interactive interface and displays the interface execution screen 50 on the display 2A (see FIG. (See FIGS. 12 and 13).
  • step S302 when the controller 10 acquires the voice data of the voice input by the microphone 8 (step S302), the controller 10 executes a voice data recognition process and determines whether the voice has been successfully recognized (step S303).
  • Step S303 If the speech recognition is successful as a result of the determination (Yes in step S303), the controller 10 determines whether an application corresponding to the recognition result has been detected from the applications stored in the storage 9 ( Step S304).
  • step S304 If the controller 10 can detect the application corresponding to the recognition result as a result of the determination (step S304, Yes), the controller 10 starts up the corresponding application (step S305) and ends the processing procedure shown in FIG.
  • step S304 determines whether there is telephone book data corresponding to the recognition result (step S306). That is, the controller 10 searches whether the data corresponding to the recognition result is included in the phone book data 9Y.
  • the controller 10 extracts the corresponding record and notifies the item included in the extracted record (step S307).
  • the controller 10 notifies the item (telephone number, e-mail address, URL, etc.) used to contact the target of the record through its own device (smart phone 1), for example. .
  • the controller 10 includes, for example, a plurality of small items (home, mobile phone, company, etc.) in items (telephone number, e-mail address, URL, etc.) used to contact the target of the record through its own device (smart phone 1). If it belongs, the small items are notified.
  • the controller 10 requests voice input of an operation instruction (step S308), returns to the procedure of step S302, and acquires voice data to be input again.
  • step S306 if there is no phonebook data corresponding to the recognition result as a result of the determination (step S306, No), the controller 10 requests re-input of the voice (step S309) and follows the procedure of step S302. Return and re-input audio data.
  • step S303 when the recognition fails as a result of the determination (step S303, No), the controller 10 determines whether the number of failures exceeds the threshold (step S310).
  • step S310 If the number of failures exceeds the threshold as a result of the determination (step S310, Yes), the controller 10 displays a list of cooperative applications on the execution screen 50 (step S311). Subsequently, the controller 10 executes application processing in accordance with an operation on the list of cooperative applications (step S312), and ends the processing procedure illustrated in FIG.
  • Step S310 the controller 10 proceeds to the procedure of Step S309 and requests re-input of voice.
  • the order of the processing procedures shown in FIG. 15 is not limited to the example shown in FIG. In the processing procedure shown in FIG. 15, for example, the order of the procedure of step S304 and the procedure of step S306 may be reversed.
  • the processing procedure shown in FIG. 15 may not include all the processing procedures shown in FIG.
  • the procedure of step S310 may be omitted and the procedure of step S311 may be directly executed.
  • control program 9A and each application shown in FIG. 10 may be divided into a plurality of modules.
  • control program 9A shown in FIG. 10 may be combined with another program.
  • a smartphone has been described as an example of a device including a touch screen.
  • the device according to the appended claims is not limited to a smartphone, and may be an electronic device other than a smartphone.
  • Electronic devices are, for example, mobile phones, tablets, portable personal computers, digital cameras, media players, electronic book readers, navigators, and game machines.
  • the device according to the appended claims may be a stationary electronic device.
  • the stationary electronic devices are, for example, a desktop personal computer and a television receiver.
  • the interactive interface of the second embodiment responds to voice input by voice guidance and display display
  • an interface that responds by either one may be adopted.
  • the smartphone 1 may execute the application by voice input corresponding to the item name. Good. For example, if one of the small items of home, office, and mobile phone belongs to the phone number that is an item for making contact with the extracted record target, the smartphone 1 The voice application 9B is executed as it is.
  • an application can be activated by voice input.
  • the smartphone 1 when an application that is to be activated by voice input is already activated, the application is executed.
  • the smartphone 1 when the smartphone 1 (controller 10) activates the program (or application), the program stored in the storage 9 is newly read and the process is started, and the program is already read. And a case of newly starting the processing of the program being executed.
  • the smartphone 1 when the smartphone 1 (controller 10) executes the program, there are a case where the program is activated, a case where the suspended program is resumed, and a case where the process of the activated program is continued. included.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Telephone Function (AREA)

Abstract

 1つの態様において、電子機器(1)は、マイク(8)と、マイク(8)を介して入力される音声に基づく音声制御を実行するコントローラ(10)とを有し、コントローラ(10)は、音声制御によって選択されるアプリケーションの入力フィールドに挿入する文字列の音声入力を、音声制御により終了させる。すなわち、電子機器(1)は、対話型のインタフェースを介する音声制御のみによって、アプリケーションの所定の入力フィールドに対する長文の入力開始及び入力終了を実現する。

Description

電子機器、制御方法、及び記録媒体
 本出願は、電子機器、制御方法、及び記録媒体に関する。
 タッチスクリーンを備えるタッチスクリーンデバイスが知られている。タッチスクリーンデバイスは、例えば、携帯電話、スマートフォン及びタブレットなどの電子機器を含むが、これらに限定されない。タッチスクリーンデバイスは、タッチスクリーンを介して指、ペン、又はスタイラスペンのジェスチャを検出する。タッチスクリーンデバイスは、検出したジェスチャに従って動作する。検出したジェスチャに従った動作の例は、例えば、特許文献1に記載されている。
 タッチスクリーンデバイスの基本的な動作は、デバイスに搭載されるOS(Operating System)によって実現される。タッチスクリーンデバイスに搭載されるOSは、例えば、Android(登録商標)、BlackBerry(登録商標) OS、iOS、Symbian(登録商標) OS、及びWindows(登録商標) Phoneを含むが、これらに限定されない。
 近年、上記電子機器の中に、ジェスチャによる操作だけでなく、音声入力により操作を可能にする対話型のインタフェースを備えるものが普及しはじめている。これらの電子機器は、音声により、例えば、アプリケーションの起動、インターネット検索などの操作を実現する。
国際公開第2008/086302号
 しかしながら、対話型のインタフェースを備える電子機器において、対話型のインタフェースを介して、アプリケーションの起動、インターネット検索などの操作をするには、まだ改善の余地がある。
 1つの態様に係る電子機器は、マイクと、前記マイクを介して入力される音声に基づく音声制御を実行するコントローラとを有し、前記コントローラは、前記音声制御によって選択されるアプリケーションの入力フィールドに挿入する文字列の音声入力を、前記音声制御により終了させる。
 1つの態様に係る制御方法は、マイクを有する電子機器を制御する制御方法であって、前記マイクを介して入力される音声に基づく音声制御を実行するステップと、前記音声制御によって選択されるアプリケーションの入力フィールドに挿入する文字列の音声入力を、前記音声制御により終了させるステップとを含む。
 1つの態様に係る記録媒体は、マイクを有する電子機器に、前記マイクを介して入力される音声に基づく音声制御を実行するステップと、前記音声制御によって選択されるアプリケーションの入力フィールドに挿入する文字列の音声入力を、前記音声制御により終了させるステップとを実行させる制御プログラムを有する。
 他の態様に係る電子機器は、マイクと、複数の項目に対応するデータを含む電話帳データを記憶するストレージと、前記マイクを介して音声で入力される文字列に対応するレコードを、前記電話帳データから抽出し、抽出したレコードに含まれる項目を報知するコントローラとを有する。
 他の態様に係る制御方法は、マイクを有する電子機器を制御する制御方法であって、複数の項目に対応するデータを含む電話帳データを記憶するストレージから、前記マイクを介して音声で入力される文字列に対応するレコードを抽出するステップと、抽出したレコードに含まれる項目を報知するステップとを含む。
 他の態様に係る記録媒体は、マイクを有する電子機器に、複数の項目に対応するデータを含む電話帳データを記憶するストレージから、前記マイクを介して音声で入力される文字列に対応するレコードを抽出するステップと、抽出したレコードに含まれる項目を報知するステップとを実行させる制御プログラムを有する。
図1は、実施形態1に係るスマートフォンのブロック図である。 図2は、所定のキーワードの検出により、メールアプリケーションの本文のフィールドへの音声入力を終了する場合の処理の一例を示す図である。 図3は、所定のキーワードの検出により、メールアプリケーションの本文のフィールドへの音声入力を終了する場合の処理の一例を示す図である。 図4は、所定のキーワードの検出により、メールアプリケーションの本文のフィールドへの音声入力を終了する場合の処理の他の例を示す図である。 図5は、所定のキーワードの検出により、メールアプリケーションの本文のフィールドへの音声入力を終了する場合の処理の他の例を示す図である。 図6は、音声の入力回数が閾値以上である場合に、メールアプリケーションの本文のフィールドへの音声入力を終了する場合の処理の例を示す図である。 図7は、音声の入力回数が閾値以上である場合に、メールアプリケーションの本文のフィールドへの音声入力を終了する場合の処理の例を示す図である。 図8は、実施形態1に係るスマートフォンによる処理手順の一例を示すフローチャートである。 図9は、実施形態1に係るスマートフォンによる処理手順の一例を示すフローチャートである。 図10は、実施形態2に係るスマートフォンのブロック図である。 図11は、電話帳データの一例を示す図である。 図12は、マイクを介して音声で入力される文字列に対応するレコードを、電話帳データから抽出し、抽出したレコードに含まれる項目を報知する処理の一例を示す図である。 図13は、マイクを介して音声で入力される文字列に対応するレコードを、電話帳データから抽出し、抽出したレコードに含まれる小項目を報知する処理の一例を示す図である。 図14は、マイクを介して音声で入力される文字列に対応するレコードを、電話帳データから抽出できない場合の処理の一例を示す図である。 図15は、実施形態2に係るスマートフォンの処理手順の一例を示すフローチャートである。
 本出願に係る電子機器、制御方法、及び記録媒体が有する制御プログラムを実施するための実施形態を、図面を参照しつつ詳細に説明する。以下では、電子機器の一例として、スマートフォンを取り上げて説明する。
(実施形態1)
 図1を参照しながら、実施形態に係るスマートフォン1の機能的な構成について説明する。図1は、実施形態に係るスマートフォンのブロック図である。以下の説明においては、同様の構成要素に同一の符号を付すことがあり、重複する説明を省略することがある。
 図1に示すように、スマートフォン1は、タッチスクリーンディスプレイ2と、ボタン3と、照度センサ4と、近接センサ5と、通信ユニット6と、レシーバ7と、マイク8と、ストレージ9と、コントローラ10と、スピーカ11と、カメラ12と、姿勢検出ユニット15と、バイブレータ18とを備える。
 タッチスクリーンディスプレイ2は、ディスプレイ2Aと、タッチスクリーン2Bとを有する。ディスプレイ2A及びタッチスクリーン2Bは、例えば、重ねて配置されてもよいし、並べて配置されてもよいし、離して配置されてもよい。ディスプレイ2Aとタッチスクリーン2Bとが重ねて配置される場合、例えば、ディスプレイ2Aの1ないし複数の辺がタッチスクリーン2Bのいずれの辺とも沿っていなくてもよい。
 ディスプレイ2Aは、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機ELディスプレイ(OELD:Organic Electro-Luminescence Display)、又は無機ELディスプレイ(IELD:Inorganic Electro-Luminescence Display)等の表示デバイスを備える。ディスプレイ2Aは、文字、画像、記号、及び図形等を表示する。ディスプレイ2Aが表示する文字、画像、記号、及び図形等を含む画面には、ロック画面と呼ばれる画面、及びホーム画面と呼ばれる画面が含まれる。ホーム画面は、デスクトップ、待受画面、アイドル画面又は標準画面と呼ばれることもある。
 タッチスクリーン2Bは、タッチスクリーン2Bに対する指、ペン、又はスタイラスペン等の接触を検出する。タッチスクリーン2Bは、複数の指、ペン、又はスタイラスペン等(以下、単に「指」という)がタッチスクリーン2Bに接触した位置を検出することができる。タッチスクリーン2Bは、タッチスクリーン2B(タッチスクリーンディスプレイ2)に対する指の接触を、接触された場所のタッチスクリーンディスプレイ2上での位置とともに、コントローラ10に通知する。
 タッチスクリーン2Bの検出方式は、静電容量方式、抵抗膜方式、表面弾性波方式(又は超音波方式)、赤外線方式、電磁誘導方式、及び荷重検出方式等の任意の方式でよい。以下の説明では、説明を簡単にするため、利用者はスマートフォン1を操作するために指を用いてタッチスクリーン2Bに接触するものと想定する。
 コントローラ10(スマートフォン1)は、タッチスクリーン2Bにより検出された接触、接触が検出された位置、接触が検出された位置の変化、接触が検出された間隔、及び接触が検出された回数の少なくとも1つに基づいて、ジェスチャの種別を判別する。ジェスチャは、指を用いて、タッチスクリーン2B(タッチスクリーンディスプレイ2)に対して行われる操作である。コントローラ10(スマートフォン1)が、タッチスクリーン2Bを介して判別するジェスチャには、例えば、タッチ、ロングタッチ、リリース、スワイプ、タップ、ダブルタップ、ロングタップ、ドラッグ、フリック、ピンチイン、及びピンチアウトが含まれるがこれらに限定されない。
 ボタン3は、利用者からの操作入力を受け付ける。ボタン3の数は、単数であっても、複数であってもよい。
 照度センサ4は、スマートフォン1の周囲光の照度を検出する。照度は、光の強さ、明るさ、又は輝度を示す。照度センサ4は、例えば、ディスプレイ2Aの輝度の調整に用いられる。
 近接センサ5は、近隣の物体の存在を非接触で検出する。近接センサ5は、磁界の変化又は超音波の反射波の帰還時間の変化等に基づいて物体の存在を検出する。近接センサ5は、例えば、ディスプレイ2Aが顔に近づけられたことを検出する。照度センサ4及び近接センサ5は、1つのセンサとして構成されていてもよい。照度センサ4は、近接センサとして用いられてもよい。
 通信ユニット6は、無線により通信する。通信ユニット6によってサポートされる無線通信規格には、例えば、2G、3G、4G等のセルラーフォンの通信規格と、近距離無線の通信規格がある。セルラーフォンの通信規格としては、例えば、LTE(Long Term Evolution)、W-CDMA(Wideband Code Division Multiple Access)、WiMAX(Worldwide Interoperability for Microwave Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile Communications)、PHS(Personal Handy-phone System)等がある。近距離無線の通信規格としては、例えば、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、NFC(Near Field Communication)、WPAN(Wireless Personal Area Network)等がある。WPANの通信規格には、例えば、ZigBee(登録商標)がある。通信ユニット6は、上述した通信規格の1つ又は複数をサポートしていてもよい。
 通信ユニット6は、GPS衛星からの所定の周波数帯の電波信号を受信し、受信した電波信号の復調処理を行って、処理後の信号をコントローラ10に送出する。スマートフォン1は、GPS衛星との通信機能を通信ユニット6から分散させて、通信ユニット6から独立した個別の通信部を設けてもよい。
 レシーバ7は、音出力部である。レシーバ7は、コントローラ10から送信される音信号を音として出力する。レシーバ7は、例えば、通話時に相手の声を出力するために用いられる。マイク8は、音入力部である。マイク8は、利用者の音声等を音信号へ変換してコントローラ10へ送信する。
 ストレージ9は、プログラム及びデータを記憶する。ストレージ9は、コントローラ10の処理結果を一時的に記憶する作業領域としても利用される。ストレージ9は、半導体記憶媒体、及び磁気記憶媒体等の任意の記憶媒体を含んでよい。ストレージ9は、複数の種類の記憶媒体を含んでよい。ストレージ9は、メモリカード、光ディスク、又は光磁気ディスク等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。ストレージ9は、RAM(Random Access Memory)等の一時的な記憶領域として利用される記憶デバイスを含んでよい。
 ストレージ9に記憶されるプログラムには、フォアグランド又はバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラムとが含まれる。フォアグランドで実行されるアプリケーションは、例えば、ディスプレイ2Aに画面が表示される。制御プログラムには、例えば、OSが含まれる。アプリケーション及び制御プログラムは、通信ユニット6による無線通信又は非一過的な記憶媒体を介してストレージ9にインストールされてもよい。
 ストレージ9は、例えば、制御プログラム9A、通話アプリケーション9B、SMSアプリケーション9C、Eメールアプリケーション9D、メモ帳アプリケーション9E、動画アプリケーション9F、ブラウザアプリケーション9G、電話帳データ9Y及び設定データ9Zなどを記憶する。
 制御プログラム9Aは、スマートフォン1を稼働させるための各種制御に関する機能を提供する。制御プログラム9Aは、マイク8を介して入力される音声に基づく音声制御を実行する対話型のインタフェース機能を提供する。対話型のインタフェース機能には、対話型のインタフェース機能の実行中であることを示す実行画面をディスプレイ2Aに表示させる機能が含まれる。対話型のインタフェース機能には、マイク8により入力される音声を認識し、認識結果に応じて音声及び文字などで応答する機能が含まれる。
 制御プログラム9Aは、ユーザにより入力される音声を認識し、認識結果に基づいて処理を実行する機能を提供する。この機能には、音声の認識に成功した場合に、ストレージ9に記憶されているアプリケーションの中から、認識結果に対応するアプリケーションを自動的に実行する機能が含まれる。
 制御プログラム9Aは、ユーザにより入力される音声を認識し、認識結果に基づいて処理を実行できない場合に、ストレージ9に記憶されているアプリケーションの一覧を表示する機能を提供する。認識結果に基づいて処理を実行できない場合としては、例えば、音声の認識に失敗した場合、あるいは、ストレージ9に記憶されているアプリケーションの中から、認識結果に対応するアプリケーションを検出できないと判定した場合が含まれる。
 制御プログラム9Aは、対話型のインタフェース機能を介した音声制御によって選択されるアプリケーションの入力フィールドに挿入する文字列の音声入力を、音声制御により終了させるための機能を提供する。具体的には、制御プログラム9Aは、対話型インタフェースを介して音声入力される所定のキーワードを検出した場合、あるいは対話型インタフェースを介した音声の入力回数が閾値以上であると判定した場合に、音声制御により選択されるアプリケーションの入力フィールドに挿入する文字列の音声入力を終了するための機能を提供する。
 例えば、制御プログラム9Aは、対話型インタフェースを介してEメールアプリケーション9Dが選択されている場合、Eメールアプリケーション9Dに関する音声制御をコントローラ10に開始させる。本実施形態において、Eメールアプリケーション9D及びメモ帳アプリケーション9Eが音声制御を実行すべきアプリケーションとして予め登録されているものとする。本実施形態において、Eメールアプリケーション9Dに関する音声制御とは、Eメールアプリケーション9Dの本文のフィールドに対して挿入する文字列に対応する音声として複数回の音声入力を可能とする一方で、所定のキーワードの検出あるいは音声の入力回数により音声入力を終了させる制御に該当する。続いて、制御プログラム9Aは、所定のキーワードが検出されるまでの間、Eメールアプリケーション9Dの本文のフィールドに挿入すべき文字列として、音声入力される文字列をストレージ9の記憶領域に保存する処理をコントローラ10に実現させる。制御プログラム9Aは、所定のキーワードが入力されると、Eメールアプリケーション9Dの本文のフィールドに挿入する文字列の音声入力を終了する処理をコントローラ10に実現させる。あるいは、制御プログラム9Aは、Eメールアプリケーション9Dの本文のフィールドに挿入すべき文字列に対応する音声の入力を開始してから音声の入力回数が閾値以上となるまでの間、Eメールアプリケーション9Dの本文のフィールドに挿入すべき文字列として、音声入力される文字列をストレージ9の記憶領域に保存する処理をコントローラ10に実現させる。制御プログラム9Aは、音声の入力回数が閾値以上となると、Eメールアプリケーション9Dの本文のフィールドに挿入する文字列の音声入力を終了する処理をコントローラ10に実現させる。
 制御プログラム9Aは、音声制御により音声入力を終了すると、音声制御により選択されたアプリケーションを起動し、起動したアプリケーションの入力フィールドに音声入力された文字列を挿入するための機能を提供する。
 例えば、制御プログラム9Aは、対話型インタフェースを介してEメールアプリケーション9Dが選択されている場合、上記音声制御により音声入力を終了すると、Eメールアプリケーション9Dを起動し、起動したEメールアプリケーション9Dの本文に、Eメールアプリケーション9Dの本文のフィールドに挿入すべき文字列としてストレージ9に保存しておいた文字列を挿入する。
 その他、制御プログラム9Aは、通信ユニット6などを制御することによって、LTE(Long Term Evolution)、W-CDMA(Wideband Code Division Multiple Access)、WiMAX(Worldwide Interoperability for Microwave Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile Communications)、PHS(Personal Handy-phone System)などを用いた通信を実現させるための機能を提供する。
 制御プログラム9Aは、通信ユニット6などを制御することによって、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、NFC(Near Field Communication)、WPAN(Wireless Personal Area Network)等を用いた近距離無線通信を実現させるための機能を提供する。
 制御プログラム9Aは、例えば、通信ユニット6及びマイク8などを制御することによって、通話を実現させるための機能を提供する。
 制御プログラム9Aにより提供される機能は、通話を実現させる場合、通話アプリケーション9B又はEメールアプリケーション9Dなど、ストレージ9に記憶される他のプログラムなどが提供する機能と組み合わせて利用されることがある。例えば、制御プログラム9Aにより提供される上記対話型のインタフェース機能と、制御プログラム9Aにより提供される他の機能とは、組み合わせて利用されることがある。制御プログラム9Aにより提供される各機能は、複数のプログラムモジュールに分割されていてもよいし、他のプログラムと結合されていてもよい。例えば、制御プログラム9Aにより提供される対話型のインタフェース機能は、他のモジュールに分割されていてもよい。
 通話アプリケーション9Bは、通話を実現するための機能を提供する。SMSアプリケーション9Cは、SMS(Short Message Service)として、所定の文字数以内のメールを送受信するための機能を提供する。Eメールアプリケーション9Dは、電子メールの作成、送信、受信、及び表示等のための電子メール機能を提供する。メモ帳アプリケーション9Eは、テキストデータを作成及び管理するためのテキストエディタ機能を提供する。動画アプリケーション9Fは、動画の再生などを行うための機能を提供する。ブラウザアプリケーション9Gは、ブラウジング機能を提供する。ストレージ9に記憶されるアプリケーションは一例に過ぎない。図1に示すもの以外に、ナビゲートアプリケーション、音楽プレイヤーアプリケーション、計算機アプリケーション、付箋アプリケーションなど、複数のアプリケーションが記憶されていてもよい。
 電話帳データ9Yは、電話番号、メールアドレスなどの情報を含む。設定データ9Zは、スマートフォン1の動作に関連する各種の設定及び処理に関する情報を含む。例えば、設定データ9Zには、音声制御を終了するための閾値の情報が含まれる。その他、ストレージ9には、コントローラ10による処理により、マイク8を介して音声入力される文字列のデータが保存される。
 コントローラ10は、演算処理装置である。演算処理装置は、例えば、CPU(Central Processing Unit)、SoC(System-on-a-chip)、MCU(Micro Control Unit)、及びFPGA(Field-Programmable Gate Array)を含むが、これらに限定されない。コントローラ10は、スマートフォン1の動作を統括的に制御して各種の機能を実現する。
 具体的には、コントローラ10は、ストレージ9に記憶されているデータを必要に応じて参照しつつ、ストレージ9に記憶されているプログラムに含まれる命令を実行する。コントローラ10は、データ及び命令に応じて機能部を制御し、それによって各種機能を実現する。機能部は、例えば、ディスプレイ2A、通信ユニット6、レシーバ7、マイク8、及びスピーカ11を含むが、これらに限定されない。コントローラ10は、検出部の検出結果に応じて、制御を変更することがある。検出部は、例えば、ボタン3、照度センサ4、近接センサ5、マイク8、カメラ12、姿勢検出ユニット15、及びタッチスクリーン2Bを含むが、これらに限定されない。
 コントローラ10は、制御プログラム9Aを実行することにより、対話型のインタフェースによる処理を実現する。例えば、コントローラ10は、対話型のインタフェース機能の実行中であることを示す実行画面をディスプレイ2Aに表示させる。例えば、コントローラ10は、マイク8により入力される音声を認識し、認識結果に応じて音声及び文字などで応答する。
 コントローラ10は、制御プログラム9Aを実行することにより、ユーザにより入力される音声を認識し、認識結果に基づく処理を実現する。例えば、コントローラ10は、音声の認識に成功した場合に、ストレージ9に記憶されているアプリケーションの中から、認識結果に対応するアプリケーションを自動的に起動する。
 コントローラ10は、制御プログラム9Aを実行することにより、ユーザにより入力される音声を認識し、認識結果に基づいて処理を実行できない場合に、ストレージ9に記憶されているアプリケーションの一覧を表示する処理を実現する。認識結果に基づいて処理を実行できない場合としては、例えば、音声の認識に失敗した場合、または、ストレージ9に記憶されているアプリケーションの中から、認識結果に対応するアプリケーションを検出できないと判定した場合が含まれる。
 コントローラ10は、制御プログラム9Aを実行することにより、対話型のインタフェース機能を介した音声制御によって選択されるアプリケーションの入力フィールドに挿入する文字列の音声入力を、音声制御により終了させる処理を実現する。具体的には、コントローラ10は、対話型インタフェースを介して音声入力される所定のキーワードを検出した場合、あるいは対話型インタフェースを介した音声の入力回数が閾値以上であると判定した場合に、音声制御により選択されるアプリケーションの入力フィールドに挿入する文字列の音声入力を終了する。
 例えば、コントローラ10は、対話型インタフェースを介してEメールアプリケーション9Dが選択されている場合、Eメールアプリケーション9Dに関する音声制御を開始する。本実施形態において、Eメールアプリケーション9D及びメモ帳アプリケーション9Eが音声制御を実行すべきアプリケーションとして予め登録されているものとする。本実施形態において、例えば、Eメールアプリケーション9Dに関する音声制御とは、Eメールアプリケーション9Dの本文のフィールドに対して挿入する文字列に対応する音声として複数回の音声入力を可能とする一方で、所定のキーワードの検出あるいは音声の入力回数により音声入力を終了させる制御に該当する。続いて、コントローラ10は、所定のキーワードが検出されるまでの間、Eメールアプリケーション9Dの本文のフィールドに挿入すべき文字列として、音声入力される文字列をストレージ9の記憶領域に保存する。コントローラ10は、所定のキーワードが入力されると、Eメールアプリケーション9Dの本文のフィールドに挿入する文字列の音声入力を終了する。あるいは、コントローラ10は、Eメールアプリケーション9Dの本文のフィールドに挿入すべき文字列に対応する音声の入力を開始してから音声の入力回数が閾値以上となるまでの間、Eメールアプリケーション9Dの本文のフィールドに挿入すべき文字列として、音声入力される文字列をストレージ9の記憶領域に保存する。コントローラ10は、音声の入力回数が閾値以上となると、Eメールアプリケーション9Dの本文のフィールドに挿入する文字列の音声入力を終了する。
 コントローラ10は、制御プログラム9Aを実行することにより、音声制御により音声入力を終了すると、音声制御により選択されたアプリケーションを起動し、起動したアプリケーションの入力フィールドに音声入力された文字列を挿入するための機能を提供する。
 例えば、コントローラ10は、対話型インタフェースを介してEメールアプリケーション9Dが選択されている場合、上記音声制御により音声入力を終了すると、Eメールアプリケーション9Dを起動し、起動したEメールアプリケーション9Dの本文に、Eメールアプリケーション9Dの本文のフィールドに挿入すべき文字列としてストレージ9に保存しておいた文字列を挿入する。
 スピーカ11は、音出力部である。スピーカ11は、コントローラ10から送信される音信号を音として出力する。スピーカ11は、例えば、着信音及び音楽を出力するために用いられる。レシーバ7及びスピーカ11の一方が、他方の機能を兼ねてもよい。
 カメラ12は、撮影した画像を電気信号へ変換する。カメラ12には、例えば、ディスプレイ2Aに面している物体を撮影するインカメラ、ディスプレイ2Aの反対側の面に面している物体を撮影するアウトカメラが含まれる。
 姿勢検出ユニット15は、スマートフォン1の姿勢を検出する。姿勢検出ユニット15は、姿勢を検出するために、加速度センサ、方位センサ、及びジャイロスコープの少なくとも1つを備える。
 バイブレータ18は、スマートフォン1の一部又は全体を振動させる。バイブレータ18は、振動を発生させるために、例えば、圧電素子、又は偏心モータなどを有する。バイブレータ18による振動は、着信等の各種のイベントを利用者に報知するために用いられる。
 図1に示したスマートフォン1の機能構成は例であり、本発明の要旨を損なわない範囲において適宜変更してよい。
 図2~図7を用いて、実施形態におけるスマートフォン1により実行される処理の一例について説明する。図2~図7に登場するF1は、ユーザの指を示す。図2~図7では、いわゆるロック画面がディスプレイ2Aに表示されている場合の処理の一例について説明するが、対話型のインタフェースを起動可能な状況であれば、同様の処理を実現できる。以下の説明において、“操作”と表記するものは、スマートフォン1(コントローラ10)が、タッチスクリーン2Bを介して、検出可能な任意のタッチジェスチャであってよい。
 図2及び図3は、所定のキーワードの検出により、メールアプリケーション(例えば、Eメールアプリケーション9Dなど)の本文のフィールドへの音声入力を終了する場合の処理の一例を示す図である。
 図2に示すように、スマートフォン1は、ディスプレイ2Aにロック画面40を表示している。ロック画面40は、スマートフォン1がロック状態にある場合に表示される。スマートフォン1は、ディスプレイ2Aにロック画面40が表示されている場合、特定の操作を除いて、ユーザの操作を受け付けない。特定の操作には、例えば、ロック状態を解除するための操作、及び通知画面をディスプレイ2Aに表示させるための操作が含まれる。ロック状態には、単に、ユーザの操作を受け付けない状態だけでなく、セキュリティロック状態を含んでもよい。図2に示すように、ロック画面40には、対話型のインタフェースを起動させるためのアイコン40aが配置されている。
 図2に示すように、スマートフォン1は、タッチスクリーン2Bを介して、ロック画面40に配置されているアイコン40aに対する操作を検出すると(ステップS11)、ディスプレイ2Aに対話型のインタフェースの実行画面50を表示する(ステップS12)。このとき、スマートフォン1は、ステップS12に示すように、“ご用件をお話下さい。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(S-1)を実行画面50に表示する。
 続いて、スマートフォン1は、マイク8により音声が入力されると、入力された音声の認識処理を実行する。認識に成功した場合、スマートフォン1は、認識結果に対応するアプリケーションがあるかを判定し、認識結果に対応するアプリケーションがある場合には、アプリケーションに関する音声制御を実行するかを判定する。スマートフォン1は、アプリケーションに関する音声制御を実行する場合には、ユーザに応答するとともに、アプリケーションに関する音声制御を開始する(ステップS13~ステップS14)。
 具体的には、スマートフォン1は、マイク8を介して音声で入力される文字列を“特許一郎さんにメール”であると認識すると、ステップS13に示すように、認識した文字列に対応する吹き出しの画像(U-1)を実行画面50に表示する。続いて、スマートフォン1は、ストレージ9に記憶されているアプリケーションの中から、認識結果に対応するEメールアプリケーション9Dを検出し、Eメールアプリケーション9Dに関する音声制御を実行するものと判定する。続いて、スマートフォン1は、ステップS14に示すように、Eメールアプリケーション9Dの音声制御を開始し、その旨をユーザに報知するための画像50aを実行画面50に表示する。スマートフォン1は、ステップS14に示すように、“件名を教えてください。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(S-2)を実行画面50に表示する。
 続いて、スマートフォン1は、マイク8により音声が入力されると、入力された音声の認識処理を実行する。認識に成功した場合、スマートフォン1は、認識結果を保存するとともに、ユーザに応答する(ステップS15~ステップS16)。
 具体的には、スマートフォン1は、マイク8を介して音声で入力される文字列を“おはようございます。”であると認識すると、ステップS15に示すように、認識した文字列に対応する吹き出しの画像(U-2)を実行画面50に表示する。続いて、スマートフォン1は、認識した文字列を保存し、件名が未入力であった画像50aの件名に対応するフィールドに、認識した文字列が挿入された画像50bを表示する(ステップS16)。メールの件名を取得後、ステップS16に示すように、スマートフォン1は、“本文を教えてください。完了といえばメールアプリを起動します。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(S-3)を実行画面50に表示する。
 続いて、スマートフォン1は、マイク8により音声が入力されると、入力された音声の認識処理を実行する。認識に成功した場合、スマートフォン1は、認識結果が音声入力の終了キーワードではないこと、あるいは音声の入力回数が閾値に到達していないことを条件として、認識結果を保存するとともに、ユーザに応答する(ステップS17~ステップS18)。
 具体的には、スマートフォン1は、マイク8を介して音声で入力される文字列を“8時集合です。”であると認識すると、ステップS17に示すように、認識した文字列に対応する吹き出しの画像(U-3)を実行画面50に表示する。続いて、スマートフォン1は、認識した文字列を保存し、本文が未入力であった画像50bの本文に対応するフィールドに、認識した文字列が挿入された画像50cを表示する(ステップS18)。メールの本文に挿入する文字列を取得後、ステップS18に示すように、スマートフォン1は、再び、“本文を教えてください。完了といえばメールアプリを起動します。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(S-4)を実行画面50に表示する。
 続いて、スマートフォン1は、マイク8により音声が入力されると、入力された音声の認識処理を実行する。認識に成功した場合、スマートフォン1は、認識結果が音声入力の終了キーワードではないこと、あるいは音声の入力回数が閾値に到達していないことを条件として、認識結果を保存するとともに、ユーザに応答する(ステップS19~ステップS20)。
 具体的には、スマートフォン1は、マイク8を介して音声で入力される文字列を“みなさん、集合しました。”であると認識すると、ステップS19に示すように、認識した文字列に対応する吹き出しの画像(U-4)を実行画面50に表示する。続いて、スマートフォン1は、認識した文字列を保存し、画像50cの本文に対応するフィールドに、認識した文字列が挿入された画像50dを表示する(ステップS20)。メールの本文に挿入する文字列を再取得後、ステップS20に示すように、スマートフォン1は、再び、“本文を教えてください。完了といえばメールアプリを起動します。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(S-5)を実行画面50に表示する。
 続いて、スマートフォン1は、マイク8により音声が入力されると、入力された音声の認識処理を実行する。認識に成功した場合、スマートフォン1は、認識結果が音声入力の終了キーワードであること、あるいは音声の入力回数が閾値以上であることを条件として、音声入力を終了し、アプリケーションを起動する(ステップS21~ステップS22)。
 具体的には、スマートフォン1は、マイク8を介して音声で入力される文字列を、音声入力を終了させるキーワードである“完了”であると認識すると、ステップS21に示すように、認識した文字列に対応する吹き出しの画像を表示しない。続いて、スマートフォン1は、音声入力の終了を受け付けた旨をユーザに報知することを目的として“メールアプリを起動します。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(S-6)を実行画面50に表示する。スマートフォン1は、ステップS22に示すように、Eメールアプリケーション9Dを起動して、宛先、件名、及び本文のそれぞれに対応する文字列を挿入したメール作成画面60Aをディスプレイ2Aに表示する。
 図4及び図5は、所定のキーワードの検出により、メールアプリケーション(例えば、Eメールアプリケーション9D)の本文のフィールドへの音声入力を終了する場合の処理の他の例を示す図である。
 図4に示すように、スマートフォン1は、タッチスクリーン2Bを介して、ロック画面40に配置されているアイコン40aに対する操作を検出すると(ステップS31)、ディスプレイ2Aに対話型のインタフェースの実行画面50を表示する(ステップS32)。このとき、スマートフォン1は、ステップS32に示すように、“ご用件をお話下さい。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(S-11)を実行画面50に表示する。
 続いて、スマートフォン1は、マイク8により音声が入力されると、入力された音声の認識処理を実行する。認識に成功した場合、スマートフォン1は、認識結果に対応するアプリケーションがあるかを判定し、認識結果に対応するアプリケーションがある場合には、アプリケーションに関する音声制御を実行するかを判定する。スマートフォン1は、アプリケーションに関する音声制御を実行する場合には、ユーザに応答するとともに、アプリケーションに関する音声制御を開始する(ステップS33~ステップS34)。
 具体的には、スマートフォン1は、マイク8を介して音声で入力される文字列を“特許一郎さんにメール”であると認識すると、ステップS33に示すように、認識した文字列に対応する吹き出しの画像(U-11)を実行画面50に表示する。続いて、スマートフォン1は、ストレージ9に記憶されているアプリケーションの中から、認識結果に対応するEメールアプリケーション9Dを検出し、Eメールアプリケーション9Dに関する音声制御を実行するものと判定する。続いて、スマートフォン1は、ステップS34に示すように、Eメールアプリケーション9Dの音声制御を開始し、その旨をユーザに報知するための画像50aを実行画面50に表示する。スマートフォン1は、ステップS34に示すように、“件名を教えてください。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(S-12)を実行画面50に表示する。
 続いて、スマートフォン1は、マイク8により音声が入力されると、入力された音声の認識処理を実行する。認識に成功した場合、スマートフォン1は、認識結果を保存するとともに、ユーザに応答する(ステップS35~ステップS36)。
 具体的には、スマートフォン1は、マイク8を介して音声で入力される文字列を“おはようございます。”であると認識すると、ステップS35に示すように、認識した文字列に対応する吹き出しの画像(U-12)を実行画面50に表示する。続いて、スマートフォン1は、認識した文字列を保存し、件名が未入力であった画像50aの件名に対応するフィールドに、認識した文字列が挿入された画像50bを表示する(ステップS36)。メールの件名を取得後、ステップS36に示すように、スマートフォン1は、“本文を教えてください。完了といえばメールアプリを起動します。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(S-13)を実行画面50に表示する。
 続いて、スマートフォン1は、マイク8により音声が入力されると、入力された音声の認識処理を実行する。認識に成功した場合、スマートフォン1は、認識結果が音声入力の終了キーワードではないこと、あるいは音声の入力回数が閾値に到達していないことを条件として、認識結果を保存するとともに、ユーザに応答する(ステップS37~ステップS38)。
 具体的には、スマートフォン1は、マイク8を介して音声で入力される文字列を“8時集合です。”であると認識すると、ステップS37に示すように、認識した文字列に対応する吹き出しの画像(U-13)を実行画面50に表示する。続いて、スマートフォン1は、認識した文字列を保存し、本文が未入力であった画像50bの本文に対応するフィールドに、認識した文字列が挿入された画像50cを表示する(ステップS38)。メールの本文に挿入する文字列を取得後、ステップS38に示すように、スマートフォン1は、再び、“本文を教えてください。完了といえばメールアプリを起動します。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(S-14)を実行画面50に表示する。
 続いて、スマートフォン1は、マイク8により音声が入力されると、入力された音声の認識処理を実行する。認識に成功した場合、スマートフォン1は、認識結果が音声入力の終了キーワードではないこと、あるいは音声の入力回数が閾値に到達していないことを条件として、認識結果を保存するとともに、ユーザに応答する(ステップS39~ステップS40)。
 具体的には、スマートフォン1は、マイク8を介して音声で入力される文字列を“管理。”であると認識すると、ステップS39に示すように、認識した文字列に対応する吹き出しの画像(U-14)を実行画面50に表示する。ステップS39において、例えば、ユーザが“完了”と音声入力したつもりであっても、スマートフォン1が“管理”と認識した場合には、そのまま処理が継続される。続いて、スマートフォン1は、認識した文字列を保存し、画像50cの本文に対応するフィールドに、認識した文字列が挿入された画像50dを表示する(ステップS40)。ステップS39でスマートフォン1により認識され、ステップS40で新たに表示された文字列は、音声入力によって削除することができない。メールの本文に挿入する文字列を再取得後、ステップS40に示すように、スマートフォン1は、再び、“本文を教えてください。完了といえばメールアプリを起動します。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(S-15)を実行画面50に表示する。
 続いて、スマートフォン1は、マイク8により音声が入力されると、入力された音声の認識処理を実行する。認識に成功した場合、スマートフォン1は、認識結果が音声入力の終了キーワードであること、あるいは音声の入力回数が閾値以上であることを条件として、音声入力を終了し、アプリケーションを起動する(ステップS41~ステップS42)。
 具体的には、スマートフォン1は、マイク8を介して音声で入力される文字列を、音声入力を終了させるキーワードである“完了”であると認識すると、認識した文字列に対応する吹き出しの画像を表示しない。続いて、スマートフォン1は、ステップS41に示すように、音声入力の終了を受け付けた旨をユーザに報知することを目的として“メールアプリを起動します。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(S-16)を実行画面50に表示する。スマートフォン1は、ステップS42に示すように、Eメールアプリケーション9Dを起動して、宛先、件名、及び本文のそれぞれに対応する文字列を挿入したメール作成画面60Aをディスプレイ2Aに表示する。
 ステップS39に示すように、ユーザにより音声入力された文字列が終了キーワードとしてスマートフォン1により正しく認識されなかった場合であっても、ステップS42に示すように、ユーザにより音声入力された文字列が終了キーワードとしてスマートフォン1により正しく認識されたタイミングで、Eメールアプリケーション9Dの本文への音声入力が確実に終了する。
 図6及び図7は、音声の入力回数が閾値以上である場合に、メールアプリケーション(例えば、Eメールアプリケーション9D)の本文のフィールドへの音声入力を終了する場合の処理の例を示す図である。
 図6に示すように、スマートフォン1は、タッチスクリーン2Bを介して、ロック画面40に配置されているアイコン40aに対する操作を検出すると(ステップS51)、ディスプレイ2Aに対話型のインタフェースの実行画面50を表示する(ステップS52)。このとき、スマートフォン1は、ステップS52に示すように、“ご用件をお話下さい。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(S-21)を実行画面50に表示する。
 続いて、スマートフォン1は、マイク8により音声が入力されると、入力された音声の認識処理を実行する。認識に成功した場合、スマートフォン1は、認識結果に対応するアプリケーションがあるかを判定し、認識結果に対応するアプリケーションがある場合には、アプリケーションに関する音声制御を実行するかを判定する。スマートフォン1は、アプリケーションに関する音声制御を実行する場合には、ユーザに応答するとともに、アプリケーションに関する音声制御を開始する(ステップS53~ステップS54)。
 具体的には、スマートフォン1は、マイク8を介して音声で入力される文字列を“特許一郎さんにメール”であると認識すると、ステップS53に示すように、認識した文字列に対応する吹き出しの画像(U-21)を実行画面50に表示する。続いて、スマートフォン1は、ストレージ9に記憶されているアプリケーションの中から、認識結果に対応するEメールアプリケーション9Dを検出し、Eメールアプリケーション9Dに関する音声制御を実行するものと判定する。続いて、スマートフォン1は、ステップS54に示すように、Eメールアプリケーション9Dの音声制御を開始し、その旨をユーザに報知するための画像50aを実行画面50に表示する。スマートフォン1は、ステップS54に示すように、“件名を教えてください。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(S-22)を実行画面50に表示する。
 続いて、スマートフォン1は、マイク8により音声が入力されると、入力された音声の認識処理を実行する。認識に成功した場合、スマートフォン1は、認識結果を保存するとともに、ユーザに応答する(ステップS55~ステップS56)。
 具体的には、スマートフォン1は、マイク8を介して音声で入力される文字列を“おはようございます。”であると認識すると、ステップS55に示すように、認識した文字列に対応する吹き出しの画像(U-22)を実行画面50に表示する。続いて、スマートフォン1は、認識した文字列を保存し、件名が未入力であった画像50aの件名に対応するフィールドに、認識した文字列が挿入された画像50bを表示する(ステップS56)。メールの件名を取得後、ステップS56に示すように、スマートフォン1は、“本文を教えてください。完了といえばメールアプリを起動します。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(S-23)を実行画面50に表示する。
 続いて、スマートフォン1は、マイク8により音声が入力されると、入力された音声の認識処理を実行する。認識に成功した場合、スマートフォン1は、認識結果が音声入力の終了キーワードではないこと、あるいは音声の入力回数が閾値に到達していないことを条件として、認識結果を保存するとともに、ユーザに応答する(ステップS57~ステップS58)。
 具体的には、スマートフォン1は、マイク8を介して音声で入力される文字列を“8時集合です。”であると認識すると、ステップS57に示すように、認識した文字列に対応する吹き出しの画像(U-23)を実行画面50に表示する。続いて、スマートフォン1は、認識した文字列を保存し、本文が未入力であった画像50bの本文に対応するフィールドに、認識した文字列が挿入された画像50cを表示する(ステップS58)。メールの本文に挿入する文字列を取得後、ステップS58に示すように、スマートフォン1は、再び、“本文を教えてください。完了といえばメールアプリを起動します。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(S-24)を実行画面50に表示する。
 続いて、スマートフォン1は、マイク8により音声が入力されると、入力された音声の認識処理を実行する。認識に成功した場合、スマートフォン1は、認識結果が音声入力の終了キーワードではないこと、あるいは音声の入力回数が閾値に到達していないことを条件として、認識結果を保存するとともに、ユーザに応答する(ステップS59~ステップS60)。
 具体的には、スマートフォン1は、マイク8を介して音声で入力される文字列を“管理。”であると認識すると、ステップS59に示すように、認識した文字列に対応する吹き出しの画像(U-24)を実行画面50に表示する。ステップS59において、例えば、ユーザが“完了”と音声入力したつもりであっても、スマートフォン1が“管理”と認識した場合には、そのまま処理が継続される。続いて、スマートフォン1は、認識した文字列を保存し、画像50cの本文に対応するフィールドに、認識した文字列が挿入された画像50dを表示する(ステップS60)。メールの本文に挿入する文字列を再取得後、ステップS60に示すように、スマートフォン1は、再び、“本文を教えてください。完了といえばメールアプリを起動します。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(S-25)を実行画面50に表示する。
 続いて、スマートフォン1は、マイク8により音声が入力されると、入力された音声の認識処理を実行する。認識に成功した場合、スマートフォン1は、認識結果が音声入力の終了キーワードではないこと、あるいは音声の入力回数が閾値に到達していないことを条件として、認識結果を保存するとともに、ユーザに応答する(ステップS61~ステップS62)。
 具体的には、スマートフォン1は、マイク8を介して音声で入力される文字列を“管理。”であると認識すると、ステップS61に示すように、認識した文字列に対応する吹き出しの画像(U-25)を実行画面50に表示する。ステップS61において、例えば、ユーザが“完了”と音声入力したつもりであっても、スマートフォン1が“管理”と認識した場合には、そのまま処理が継続される。続いて、スマートフォン1は、認識した文字列を保存し、画像50dの本文に対応するフィールドに、認識した文字列が挿入された画像50eを表示する(ステップS62)。メールの本文に挿入する文字列を再取得後、ステップS62に示すように、スマートフォン1は、再び、“本文を教えてください。完了といえばメールアプリを起動します。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(S-26)を実行画面50に表示する。
 続いて、スマートフォン1は、マイク8により音声が入力されると、入力された音声の認識処理を実行する。認識に成功した場合、スマートフォン1は、認識結果が音声入力の終了キーワードではないこと、あるいは音声の入力回数が閾値に到達していないことを条件として、認識結果を保存するとともに、ユーザに応答する(ステップS63~ステップS64)。
 具体的には、スマートフォン1は、マイク8を介して音声で入力される文字列を“管理。”であると認識すると、ステップS63に示すように、認識した文字列に対応する吹き出しの画像(U-26)を実行画面50に表示する。ステップS63において、例えば、ユーザが“完了”と音声入力したつもりであっても、スマートフォン1が“管理”と認識した場合には、そのまま処理が継続される。続いて、スマートフォン1は、認識した文字列を保存し、画像50eの本文に対応するフィールドに、認識した文字列が挿入された画像50fを表示する(ステップS64)。メールの本文に挿入する文字列を再取得後、ステップS64に示すように、スマートフォン1は、再び、“本文を教えてください。完了といえばメールアプリを起動します。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(S-27)を実行画面50に表示する。
 続いて、スマートフォン1は、マイク8により音声が入力されると、入力された音声の認識処理を実行する。認識に成功した場合、スマートフォン1は、認識結果が音声入力の終了キーワードであること、あるいは音声の入力回数が閾値以上であることを条件として、音声入力を終了し、アプリケーションを起動する(ステップS65~ステップS66)。
 具体的には、スマートフォン1は、マイク8を介して音声で入力される文字列を“管理”であると認識し、該当する文字列に対応した音声の入力により、音声の(累積)入力回数が閾値以上であると判定した場合には、認識した文字列に対応する吹き出しの画像を表示しない。続いて、スマートフォン1は、ステップS65に示すように、音声入力の終了を受け付けた旨をユーザに報知することを目的として“メールアプリを起動します。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(S-28)を実行画面50に表示する。スマートフォン1は、ステップS66に示すように、Eメールアプリケーション9Dを起動して、宛先、件名、及び本文のそれぞれに対応する文字列を挿入したメール作成画面60Aをディスプレイ2Aに表示する。ステップS66に示すように、ステップS59~ステップS63におけるスマートフォン1の認識結果が誤りである場合であっても、認識結果に対応する各文字列(管理。)がメール作成画面60Aに挿入される。
 ステップS59~ステップS63に示すように、ユーザにより音声入力された文字列が終了キーワードとしてスマートフォン1により何度も正しく認識されない場合であっても、ステップS66に示すように、ユーザによる音声の入力回数が閾値以上となったタイミングで、Eメールアプリケーション9Dの本文への音声入力が確実に終了する。
 図8及び図9を用いて、実施形態に係るスマートフォン1による処理手順の一例を説明する。図8及び図9は、実施形態に係るスマートフォン1による処理手順の一例を示すフローチャートである。図8及び図9に示す処理手順は、コントローラ10が、ストレージ9に記憶されている制御プログラム9Aなどを実行することによって実現される。
 図8は、スマートフォン1により実行される音声制御の全体の流れを示す。図8に示すように、コントローラ10は、対話型のインタフェースの実行画面をディスプレイ2Aに表示させる(ステップS101)。コントローラ10は、例えば、タッチスクリーン2Bを介して、対話型のインタフェースを起動させるためのアイコン40aに対する操作を検出すると、対話型のインタフェースを起動し、インタフェースの実行画面50をディスプレイ2Aに表示させる(図2、4参照)。
 続いて、コントローラ10は、マイク8により入力される音声の音声データを取得すると(ステップS102)、音声データの認識処理を実行し、音声の認識に成功したかを判定する(ステップS103)。
 コントローラ10は、判定の結果、音声の認識に成功した場合には(ステップS103,Yes)、ストレージ9に記憶されているアプリケーションの中から、認識結果に対応するアプリケーションを検出できたかを判定する(ステップS104)。
 コントローラ10は、判定の結果、認識結果に対応するアプリケーションを検出できた場合には(ステップS104,Yes)、認識結果に対応するアプリケーションに関する音声制御を実行するかを判定する(ステップS105)。
 コントローラ10は、判定の結果、認識結果に対応するアプリケーションに関する音声制御を実行する場合には(ステップS105,Yes)、認識結果に対応するアプリケーションに関する音声制御を開始する(ステップS106)。
 アプリケーションに関する音声制御を終了すると、コントローラ10は、ステップS104で検出したアプリケーションを起動し、当該アプリケーションに対して、ステップS106における音声制御の結果を反映して(ステップS107)、図8に示す処理手順を終了する。例えば、コントローラ10は、Eメールアプリケーション9Dを起動し、対話型インタフェースを介して音声入力された件名及び本文の文字列のデータを、Eメールアプリケーション9Dにおける対応するフィールドへ挿入する。
 ステップS105において、コントローラ10は、認識結果に対応するアプリケーションに関する音声制御を実行しない場合には(ステップS105,No)、ステップS104で検出したアプリケーションを実行して(ステップS108)、図8に示す処理手順を終了する。
 ステップS104において、コントローラ10は、判定の結果、認識結果に対応するアプリケーションを検出できない場合には(ステップS104,No)、そのまま図8に示す処理手順を終了する。このとき、コントローラ10は、ストレージ9に記憶されているアプリケーションの一覧をディスプレイ2Aに表示してもよい。
 ステップS103において、コントローラ10は、判定の結果、音声の認識に失敗した場合には(ステップS103,No)、認識に失敗した回数が閾値を超えているかを判定する(ステップS109)。コントローラ10は、判定の結果、認識に失敗した回数が閾値を超えている場合には(ステップS109,Yes)、そのまま図8に示す処理手順を終了する。これとは反対に、コントローラ10は、判定の結果、認識に失敗した回数が閾値を超えていない場合には(ステップS109,No)、例えば、音声ガイダンス及び画像などにより、音声の再入力を要求し(ステップS110)、ステップS102の手順に移る。
 図9は、アプリケーションに関する音声制御の流れを示す。図9は、図8に示すステップS106の手順に対応する。図9に示すように、コントローラ10は、上記図8のステップS105で音声制御を実行することを決定したアプリケーションに関して、音声の入力を要求し(ステップS201)、音声データを取得する(ステップS202)。例えば、コントローラ10は、Eメールアプリケーション9Dの本文に対応するフィールドに入力する文字列の音声入力を要求し、本文に入力する文字列に対応する音声を取得する。
 続いて、コントローラ10は、ステップS201の要求に応じて音声入力された音声データの認識処理を実行し、音声の認識に成功したかを判定する(ステップS203)。
 コントローラ10は、判定の結果、音声の認識に成功した場合には(ステップS203,Yes)、認識結果に対応する音声が、音声入力の終了キーワードであるかを判定する(ステップS204)。コントローラ10は、例えば、認識結果に対応する音声が、“完了”であるかを判定する。
 コントローラ10は、判定の結果、音声入力の終了キーワードではない場合には(ステップS204,No)、続いて、図9に示す処理手順を開始してからの音声の(累積)入力回数が閾値以上であるかを判定する(ステップS205)。
 コントローラ10は、判定の結果、音声の入力回数が閾値以上ではない場合には(ステプS205,No)、図8の処理で検出したアプリケーションの入力フィールドに挿入する文字列のデータとして、ステップS202で取得した音声データを蓄積する(ステップS206)。例えば、コントローラ10は、Eメールアプリケーション9Dの本文に対応するフィールドに入力する文字列のデータとして、ステップS202で取得した音声データを蓄積する。
 続いて、コントローラ10は、ステップS201の手順に戻り、図9に示す制御を継続する。
 ステップS205において、コントローラ10は、判定の結果、図9に示す処理手順を開始してからの音声の(累積)入力回数が閾値以上である場合には(ステップS205,Yes)、図9に示す処理手順を終了する。
 ステップS204において、コントローラ10は、認識結果に対応する音声が、音声入力の終了キーワードである場合には(ステップS204,Yes)、図9に示す処理手順を終了する。
 ステップS203において、コントローラ10は、判定の結果、音声の認識に成功しなかった場合には(ステップS203,No)、当該音声の入力を無効として、ステップS201の手順に戻り、音声の再入力を要求する。
 処理手順の順番は、図9に示す例に限定されず、例えば、ステップS204の手順と、ステップS205の手順の順序が逆であってもよい。
 上述してきたように、実施形態に係るスマートフォン1は、対話型インタフェースを介して音声により選択されるアプリケーションの入力フィールドに挿入する文字列の音声入力を、音声制御により終了させる。例えば、スマートフォン1は、Eメールアプリケーション9Dの本文に対応するフィールドに挿入する文字列の音声入力を、“完了”という終了キーワードを検出することにより終了することができる。あるいは、スマートフォン1は、Eメールアプリケーション9Dの本文に対応するフィールドに挿入する文字列の音声入力を、音声の入力回数が閾値(例えば、5回)以上となった場合に終了することができる。このように、本実施形態に係るスマートフォン1は、例えば、メールの本文など、比較的長めの文字列が入力される入力フィールドに対して複数回の音声入力を可能とする一方で、所定のキーワードの検出あるいは音声の入力回数により音声入力を終了させることを可能とする。すなわち、本実施形態に係るスマートフォン1は、対話型のインタフェースを介する音声制御のみによって、アプリケーションの所定の入力フィールドに対する長文の入力開始及び入力終了を実現でき、対話型のインタフェースを介する処理を改善することができる。
 上記実施形態では、スマートフォン1が、音声の入力回数が5回と判定した場合に、Eメールアプリケーション9Dの本文に対応するフィールドに挿入する文字列の音声入力を終了させる例(図6及び図7)を説明したが、音声入力を終了させる回数は任意の回数を適用することができる。
 上記実施形態では、スマートフォン1が、対話型インタフェースを介した音声制御により、Eメールアプリケーション9Dの本文に対応するフィールドに挿入する文字列の音声入力を終了させる例を説明した。しかしながら、これに限定されるものではなく、メモ帳アプリケーション9Eに対する文字列の音声入力、スケジュールを管理するアプリケーションに対する文字列の音声入力などを行うアプリケーション全般に対して、上記実施形態に係るスマートフォン1の処理(図2~図9など)を適用できる。
 図5及び図7に示す例では、音声入力に対するスマートフォン1の認識結果がユーザの意図しないものである場合(誤りである場合)であっても、認識結果に対応する文字列(例えば、管理)がメール作成画面60Aに挿入される場合を説明した。しかしながら、これに限定されるものではなく、スマートフォン1は、音声入力された文字列の中に同音同義の文字列が複数連続する場合には、誤認識に係る文字列と判断して、アプリケーションを起動する際に、アプリケーションの入力フィールドに挿入しないようにしてもよい。あるいは、スマートフォン1は、終了キーワード(例えば、完了)に類似する文字列の一覧を予め備えておいて、音声入力された文字列の中に終了キーワードに類似する文字列がある場合には、アプリケーションを起動する際に、当該文字列をアプリケーションの入力フィールドに挿入しないようにしてもよい。
 上記実施形態1において、スマートフォン1は、音声入力に対する認識結果が、終了キーワードと同音異義(例えば、官僚など)であると判定した場合、音声入力を終了させるようにしてもよい。
 添付の請求項に係る技術を完全かつ明瞭に開示するために特徴的な実施形態に関し記載してきた。しかし、添付の請求項は、上記の実施形態に限定されるべきものでなく、本明細書に示した基礎的事項の範囲内で当該技術分野の当業者が創作しうるすべての変形例及び代替可能な構成により具現化されるべきである。
 例えば、図1に示した各プログラムは、複数のモジュールに分割されていてもよい。あるいは、図1に示した各プログラムは、他のプログラムと結合されていてもよい。
 上記の実施形態1では、タッチスクリーンを備える装置の一例として、スマートフォンについて説明したが、添付の請求項に係る装置は、スマートフォンに限定されず、スマートフォン以外の電子機器であってもよい。電子機器は、例えば、モバイルフォン、タブレット、携帯型パソコン、デジタルカメラ、メディアプレイヤ、電子書籍リーダ、ナビゲータ、及びゲーム機である。あるいは、添付の請求項に係る装置は、据え置き型の電子機器であってもよい。据え置き型の電子機器は、例えば、デスクトップパソコン、及びテレビ受像器である。
(実施形態2)
 図10を参照しながら、実施形態2に係るスマートフォン1の機能的な構成について説明する。図10は、実施形態2に係るスマートフォン1のブロック図である。以下の説明においては、同様の構成要素に同一の符号を付すことがあり、重複する説明を省略することがある。
 図10に示すように、スマートフォン1は、タッチスクリーンディスプレイ2と、ボタン3と、照度センサ4と、近接センサ5と、通信ユニット6と、レシーバ7と、マイク8と、ストレージ9と、コントローラ10と、スピーカ11と、カメラ12と、姿勢検出ユニット15と、バイブレータ18とを備える。
 タッチスクリーンディスプレイ2は、ディスプレイ2Aと、タッチスクリーン2Bとを有する。ディスプレイ2A及びタッチスクリーン2Bは、例えば、重ねて配置されてもよいし、並べて配置されてもよいし、離して配置されてもよい。ディスプレイ2Aとタッチスクリーン2Bとが重ねて配置される場合、例えば、ディスプレイ2Aの1ないし複数の辺がタッチスクリーン2Bのいずれの辺とも沿っていなくてもよい。
 ディスプレイ2Aは、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機ELディスプレイ(OELD:Organic Electro-Luminescence Display)、又は無機ELディスプレイ(IELD:Inorganic Electro-Luminescence Display)等の表示デバイスを備える。ディスプレイ2Aは、文字、画像、記号、及び図形等を表示する。ディスプレイ2Aが表示する文字、画像、記号、及び図形等を含む画面には、ロック画面と呼ばれる画面、及びホーム画面と呼ばれる画面が含まれる。ホーム画面は、デスクトップ、待受画面、アイドル画面又は標準画面と呼ばれることもある。
 タッチスクリーン2Bは、タッチスクリーン2Bに対する指、ペン、又はスタイラスペン等の接触を検出する。タッチスクリーン2Bは、複数の指、ペン、又はスタイラスペン等(以下、単に「指」という)がタッチスクリーン2Bに接触した位置を検出することができる。タッチスクリーン2Bは、タッチスクリーン2B(タッチスクリーンディスプレイ2)に対する指の接触を、接触された場所のタッチスクリーンディスプレイ2上での位置とともに、コントローラ10に通知する。
 タッチスクリーン2Bの検出方式は、静電容量方式、抵抗膜方式、表面弾性波方式(又は超音波方式)、赤外線方式、電磁誘導方式、及び荷重検出方式等の任意の方式でよい。以下の説明では、説明を簡単にするため、利用者はスマートフォン1を操作するために指を用いてタッチスクリーン2Bに接触するものと想定する。
 コントローラ10(スマートフォン1)は、タッチスクリーン2Bにより検出された接触、接触が検出された位置、接触が検出された位置の変化、接触が検出された間隔、及び接触が検出された回数の少なくとも1つに基づいて、ジェスチャの種別を判別する。ジェスチャは、指を用いて、タッチスクリーン2B(タッチスクリーンディスプレイ2)に対して行われる操作である。コントローラ10(スマートフォン1)が、タッチスクリーン2Bを介して判別するジェスチャには、例えば、タッチ、ロングタッチ、リリース、スワイプ、タップ、ダブルタップ、ロングタップ、ドラッグ、フリック、ピンチイン、及びピンチアウトが含まれるがこれらに限定されない。
 ボタン3は、利用者からの操作入力を受け付ける。ボタン3の数は、単数であっても、複数であってもよい。
 照度センサ4は、スマートフォン1の周囲光の照度を検出する。照度は、光の強さ、明るさ、又は輝度を示す。照度センサ4は、例えば、ディスプレイ2Aの輝度の調整に用いられる。
 近接センサ5は、近隣の物体の存在を非接触で検出する。近接センサ5は、磁界の変化又は超音波の反射波の帰還時間の変化等に基づいて物体の存在を検出する。近接センサ5は、例えば、ディスプレイ2Aが顔に近づけられたことを検出する。照度センサ4及び近接センサ5は、1つのセンサとして構成されていてもよい。照度センサ4は、近接センサとして用いられてもよい。
 通信ユニット6は、無線により通信する。通信ユニット6によってサポートされる無線通信規格には、例えば、2G、3G、4G等のセルラーフォンの通信規格と、近距離無線の通信規格がある。セルラーフォンの通信規格としては、例えば、LTE(Long Term Evolution)、W-CDMA(Wideband Code Division Multiple Access)、WiMAX(Worldwide Interoperability for Microwave Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile Communications)、PHS(Personal Handy-phone System)等がある。近距離無線の通信規格としては、例えば、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、NFC(Near Field Communication)、WPAN(Wireless Personal Area Network)等がある。WPANの通信規格には、例えば、ZigBee(登録商標)がある。通信ユニット6は、上述した通信規格の1つ又は複数をサポートしていてもよい。
 通信ユニット6は、GPS衛星からの所定の周波数帯の電波信号を受信し、受信した電波信号を復調処理して、処理後の信号をコントローラ10に送出する。スマートフォン1は、GPS衛星との通信機能を通信ユニット6から分散させて、通信ユニット6から独立した個別の通信部を設けてもよい。
 レシーバ7は、音出力部である。レシーバ7は、コントローラ10から送信される音信号を音として出力する。レシーバ7は、例えば、通話時に相手の声を出力するために用いられる。マイク8は、音入力部である。マイク8は、利用者の音声等を音信号へ変換してコントローラ10へ送信する。
 ストレージ9は、プログラム及びデータを記憶する。ストレージ9は、コントローラ10の処理結果を一時的に記憶する作業領域としても利用される。ストレージ9は、半導体記憶媒体、及び磁気記憶媒体等の任意の記憶媒体を含んでよい。ストレージ9は、複数の種類の記憶媒体を含んでよい。ストレージ9は、メモリカード、光ディスク、又は光磁気ディスク等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。ストレージ9は、RAM(Random Access Memory)等の一時的な記憶領域として利用される記憶デバイスを含んでよい。
 ストレージ9に記憶されるプログラムには、フォアグランド又はバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラムとが含まれる。フォアグランドで実行されるアプリケーションは、例えば、ディスプレイ2Aに画面が表示される。制御プログラムには、例えば、OSが含まれる。アプリケーション及び制御プログラムは、通信ユニット6による無線通信又は非一過的な記憶媒体を介してストレージ9にインストールされてもよい。
 ストレージ9は、例えば、制御プログラム9A、通話アプリケーション9B、SMSアプリケーション9C、Eメールアプリケーション9D、メモ帳アプリケーション9E、動画アプリケーション9F、ブラウザアプリケーション9G、電話帳データ9Y及び設定データ9Zなどを記憶する。
 制御プログラム9Aは、スマートフォン1を稼働させるための各種制御に関する機能を提供する。制御プログラム9Aは、対話型のインタフェース機能を提供する。対話型のインタフェース機能には、対話型のインタフェース機能の実行中であることを示す実行画面をディスプレイ2Aに表示させる機能が含まれる。対話型のインタフェース機能には、マイク8により入力される音声を認識し、認識結果に応じて音声及び文字などで応答する機能が含まれる。
 制御プログラム9Aは、ユーザにより入力される音声を認識し、認識結果に基づいて処理を実行する機能を提供する。この機能には、音声の認識に成功した場合に、ストレージ9に記憶されているアプリケーションの中から、認識結果に対応するアプリケーションを自動的に実行する機能が含まれる。
 制御プログラム9Aは、ユーザにより入力される音声を認識し、認識結果に基づいて処理を実行できない場合に、ストレージ9に記憶されているアプリケーションの一覧を表示する機能を提供する。認識結果に基づいて処理を実行できない場合には、例えば、音声の認識に失敗した場合、あるいは、ストレージ9に記憶されているアプリケーションの中から、認識結果に対応するアプリケーションを検出できないと判定した場合が含まれる。
 制御プログラム9Aは、マイク8を介して音声で入力される文字列に対応するレコードを、電話帳データ9Yから抽出し、抽出したレコードに含まれる項目を報知するための機能を提供する。この機能に関連して、制御プログラム9Aには、上記レコードに含まれる項目に属する複数の小項目がある場合には、当該小項目を報知する機能が含まれる。この機能に関連して、制御プログラム9Aには、自機(スマートフォン1)を通じて上記レコードの対象に接触を図るために用いられる項目又は小項目を報知する機能が含まれる。自機を通じて上記レコードの対象に接触を図るために用いられる項目には、電話番号、メールアドレス、URLなどが含まれる。項目は、ストレージ9に記憶されている種々のアプリケーションに対応付けられている。自機を通じて上記レコードの対象に接触を図るために用いられる小項目には、自宅、携帯、会社などの項目が含まれる。小項目は、当該小項目が属する項目が対応付けられているアプリケーションに対応付けられている。
 その他、制御プログラム9Aは、通信ユニット6などを制御することによって、LTE(Long Term Evolution)、W-CDMA(Wideband Code Division Multiple Access)、WiMAX(Worldwide Interoperability for Microwave Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile Communications)、PHS(Personal Handy-phone System)などを用いた通信を実現させるための機能を提供する。
 制御プログラム9Aは、通信ユニット6などを制御することによって、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、NFC(Near Field Communication)、WPAN(Wireless Personal Area Network)等を用いた近距離無線通信を実現させるための機能を提供する。
 制御プログラム9Aは、例えば、通信ユニット6及びマイク8などを制御することによって、通話を実現させるための機能を提供する。
 制御プログラム9Aにより提供される機能は、通話を実現させる場合、通話アプリケーション9B又はEメールアプリケーション9Dなど、ストレージ9に記憶される他のプログラムなどが提供する機能と組み合わせて利用されることがある。例えば、制御プログラム9Aにより提供される上記対話型のインタフェース機能と、制御プログラム9Aにより提供される他の機能とは、組み合わせて利用されることがある。制御プログラム9Aにより提供される各機能は、複数のプログラムモジュールに分割されていてもよいし、他のプログラムと結合されていてもよい。例えば、制御プログラム9Aにより提供される対話型のインタフェース機能は、他のモジュールに分割されていてもよい。
 通話アプリケーション9Bは、通話を実現するための機能を提供する。SMSアプリケーション9Cは、SMS(Short Message Service)として、所定の文字数以内のメールを送受信するための機能を提供する。Eメールアプリケーション9Dは、電子メールの作成、送信、受信、及び表示等のための電子メール機能を提供する。メモ帳アプリケーション9Eは、テキストデータを作成及び管理するためのテキストエディタ機能を提供する。動画アプリケーション9Fは、動画の再生などを行うための機能を提供する。ブラウザアプリケーション9Gは、ブラウジング機能を提供する。ストレージ9に記憶されるアプリケーションは一例に過ぎない。図10に示すもの以外に、ナビゲートアプリケーション、音楽プレイヤーアプリケーション、計算機アプリケーション、付箋アプリケーションなど、複数のアプリケーションが記憶されていてもよい。
 電話帳データ9Yは、電話番号、メールアドレスなどの情報を含む。図11は、電話帳データ9Yの一例を示す図である。図11に示すように、電話帳データ9Yは、「名前」、「電話番号」、「メールアドレス」、「誕生日」などの項目が含まれる。「電話番号」及び「メールアドレス」の項目には、「自宅」、「会社」、「携帯」の3つの小項目がそれぞれ属している。電話帳データ9Yは、「名前」、「電話番号」、「メールアドレス」、「誕生日」などの項目、及び「自宅」、「会社」、「携帯」の小項目に対応するデータを相互に関連付けて構成されている。例えば、図11に示すように、「名前」の項目に対応するデータ“特許一郎”には、「電話番号」の項目に属する小項目「自宅」に対応するデータ“aa-bbbb-cccc”と、同じく「電話番号」の項目に属する小項目「会社」に対応するデータ“dd-eeee-ffff”と、同じく「電話番号」の項目に属する小項目「携帯」に対応するデータ“0A0-BBBB-CCCC”とが関連付けられている。さらに、図11に示すように、「名前」の項目に対応するデータ“特許一郎”には、「メールアドレス」の項目に属する小項目「自宅」に対応するデータ“ONE@jitaku.com”と、同じく「メールアドレス」の項目に属する小項目「会社」に対応するデータ“ONE@kaisya.com”と、同じく「メールアドレス」の項目に属する小項目「携帯」に対応するデータ“ONE@keitai.com”とが関連付けられる。
 設定データ9Zは、スマートフォン1の動作に関連する各種の設定及び処理に関する情報を含む。
 コントローラ10は、演算処理装置である。演算処理装置は、例えば、CPU(Central Processing Unit)、SoC(System-on-a-chip)、MCU(Micro Control Unit)、及びFPGA(Field-Programmable Gate Array)を含むが、これらに限定されない。コントローラ10は、スマートフォン1の動作を統括的に制御して各種の機能を実現する。
 具体的には、コントローラ10は、ストレージ9に記憶されているデータを必要に応じて参照しつつ、ストレージ9に記憶されているプログラムに含まれる命令を実行する。コントローラ10は、データ及び命令に応じて機能部を制御し、それによって各種機能を実現する。機能部は、例えば、ディスプレイ2A、通信ユニット6、マイク8、及びスピーカ11を含むが、これらに限定されない。コントローラ10は、検出部の検出結果に応じて、制御を変更することがある。検出部は、例えば、タッチスクリーン2B、ボタン3、照度センサ4、近接センサ5、マイク8、カメラ12、及び姿勢検出ユニット15を含むが、これらに限定されない。
 コントローラ10は、制御プログラム9Aを実行することにより、対話型のインタフェースによる処理を実現する。例えば、コントローラ10は、対話型のインタフェース機能の実行中であることを示す実行画面をディスプレイ2Aに表示させる。例えば、コントローラ10は、マイク8により入力される音声を認識し、認識結果に応じて音声及び文字などで応答する。
 コントローラ10は、制御プログラム9Aを実行することにより、ユーザにより入力される音声を認識し、認識結果に基づく処理を実現する。例えば、コントローラ10は、音声の認識に成功した場合に、ストレージ9に記憶されているアプリケーションの中から、認識結果に対応するアプリケーションを自動的に起動する。
 コントローラ10は、制御プログラム9Aを実行することにより、ユーザにより入力される音声を認識するものである。この認識結果に基づいて処理を実行できない場合には、ストレージ9に記憶されているアプリケーションの一覧を表示する処理を実現する。認識結果に基づいて処理を実行できない場合としては、例えば、音声の認識に失敗した場合、または、ストレージ9に記憶されているアプリケーションの中から、認識結果に対応するアプリケーションを検出できないと判定した場合が含まれる。
 コントローラ10は、制御プログラム9Aを実行することにより、マイク8を介して音声で入力される文字列に対応するレコードを、電話帳データ9Yから抽出し、抽出したレコードに含まれる項目を報知する処理を実現する。コントローラ10は、抽出したレコードに含まれる項目に属する小項目がある場合には、小項目を報知する処理を実現する。コントローラ10は、自機(スマートフォン1)を通じて上記レコードの対象に接触を図るために用いられる項目又は小項目を報知する処理を実現する。
 スピーカ11は、音出力部である。スピーカ11は、コントローラ10から送信される音信号を音として出力する。スピーカ11は、例えば、着信音及び音楽を出力するために用いられる。レシーバ7及びスピーカ11の一方が、他方の機能を兼ねてもよい。
 カメラ12は、撮影した画像を電気信号へ変換する。カメラ12には、例えば、ディスプレイ2Aに面している物体を撮影するインカメラ、ディスプレイ2Aの反対側の面に面している物体を撮影するアウトカメラが含まれる。
 姿勢検出ユニット15は、スマートフォン1の姿勢を検出する。姿勢検出ユニット15は、姿勢を検出するために、加速度センサ、方位センサ、及びジャイロスコープの少なくとも1つを備える。
 バイブレータ18は、スマートフォン1の一部又は全体を振動させる。バイブレータ18は、振動を発生させるために、例えば、圧電素子、又は偏心モータなどを有する。バイブレータ18による振動は、着信等の各種のイベントを利用者に報知するために用いられる。
 図10に示したスマートフォン1の機能構成は例であり、本発明の要旨を損なわない範囲において適宜変更してよい。
 図12~図14を用いて、実施形態におけるスマートフォン1により実行される処理の一例について説明する。図12~図14に登場するF1は、ユーザの指を示す。図12~図14では、いわゆるロック画面がディスプレイ2Aに表示されている場合の処理の一例について説明するが、対話型のインタフェースを起動可能な状況であれば、同様の処理を実現できる。以下の説明において、“操作”と表記するものは、スマートフォン1(コントローラ10)が、タッチスクリーン2Bを介して、検出可能な任意のタッチジェスチャであってよい。
 図12は、マイク8を介して音声で入力される文字列に対応するレコードを、電話帳データ9Yから抽出し、抽出したレコードに含まれる項目を報知する処理の一例を示す図である。図12に示すように、スマートフォン1は、ディスプレイ2Aにロック画面40を表示している。ロック画面40は、スマートフォン1がロック状態にある場合に表示される。スマートフォン1は、ディスプレイ2Aにロック画面40が表示されている場合、特定の操作を除いて、ユーザの操作を受け付けない。特定の操作には、例えば、ロック状態を解除するための操作、及び通知画面をディスプレイ2Aに表示させるための操作が含まれる。ロック状態には、単に、ユーザの操作を受け付けない状態だけでなく、セキュリティロック状態を含んでもよい。図12に示すように、ロック画面40には、対話型のインタフェースを起動させるためのアイコン40aが配置されている。
 図12に示すように、スマートフォン1は、タッチスクリーン2Bを介して、ロック画面40に配置されているアイコン40aに対する操作を検出すると(ステップS71)、ディスプレイ2Aに対話型のインタフェースの実行画面50を表示する(ステップS72)。このとき、スマートフォン1は、ステップS12に示すように、“ご用件をお話下さい。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(O-1)を実行画面50に表示する。
 続いて、スマートフォン1は、マイク8により音声が入力されると、入力された音声の認識処理を実行する。認識に成功した場合、スマートフォン1は、ユーザに応答するとともに、マイク8を介して入力される文字列に対応するレコードを、ストレージ9に記憶されている電話帳データ9Yの中から抽出し、抽出したレコードに含まれる項目を報知する(ステップS73~ステップS74)。
 具体的には、スマートフォン1は、マイク8を介して音声で入力される文字列を“特許一郎”であると認識すると、ステップS73に示すように、認識した文字列に対応する吹き出しの画像(I-1)を実行画面50に表示する。続いて、スマートフォン1は、電話帳データ9Yに含まれる「名前」の項目に記憶されているデータの中から、特許一郎を検索する。続いて、スマートフォン1は、特許一郎を検出すると、特許一郎に対応するレコードを抽出する。例えば、抽出されるレコードには、「電話番号」、「メールアドレス」、「誕生日」などの項目と、「電話番号」及び「メールアドレス」に属する「自宅」、「会社」、「携帯」の小項目と、各項目に対応するデータとが含まれる。続いて、スマートフォン1は、抽出したレコードに含まれる項目の中から、自機(スマートフォン1)を通じてレコードの対象である特許一郎との接触を図るために用いられる項目である「電話番号」及び「メールアドレス」を音声及び画像により報知する。例えば、スマートフォン1は、ステップS74に示すように、“電話帳に電話番号、メールアドレスが登録されています。何をしますか?”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(O-2)を実行画面50に表示する。さらに、スマートフォン1は、ユーザの行動を促すための音声及び画像による補助的な報知を行う。例えば、スマートフォン1は、ステップS74に示すように、“マイクに近づいてお話下さい。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(O-3)を実行画面50に表示する。
 続いて、スマートフォン1は、マイク8により音声が入力されると、入力された音声の認識処理を実行する。認識に成功した場合、スマートフォン1は、ユーザに応答するとともに、認識結果に対応するアプリケーションを自動的に起動し、アプリケーションの画面をディスプレイ2Aに表示する(ステップS75~ステップS77)。
 具体的には、スマートフォン1は、マイク8を介して音声で入力される文字列を“携帯に電話”であると認識すると、ステップS75に示すように、認識した文字列に対応する吹き出しの画像(I-2)を実行画面50に表示する。続いて、スマートフォン1は、特許一郎に対応するレコードの中に携帯の電話番号のデータが含まれるかを判定する。判定の結果、携帯の電話番号が含まれる場合には、スマートフォン1は、ステップS76に示すように、“携帯に電話します。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(O-4)を実行画面50に表示する。一方、スマートフォン1は、特許一郎に対応するレコードの中に携帯の電話番号のデータが含まれていない場合、携帯の電話番号が含まれていない旨の音声ガイダンスを出力してもよい。あるいは、スマートフォン1は、携帯の電話番号が含まれていない旨の音声ガイダンスに加えて、その他の指示を要求する音声ガイダンスを出力してもよい。続いて、スマートフォン1は、ステップS77に示すように、通話アプリケーション9Bを実行して、特許一郎の携帯の電話番号に対して発信するとともに、通話アプリケーション9Bの画面70をディスプレイ2Aに表示する。
 図12に示す例では、スマートフォン1は、マイク8を介して音声で入力される文字列を“特許一郎”であると認識すると、特許一郎に対応するレコードを抽出する。そして、スマートフォン1は、抽出したレコードに含まれる項目の中から、自機(スマートフォン1)を通じてレコードの対象である特許一郎との接触を図るために用いられる項目である「電話番号」及び「メールアドレス」を音声及び画像により報知する。例えば、スマートフォン1は、“電話帳に電話番号、メールアドレスが登録されています。何をしますか?”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像を実行画面50に表示する。このようなことから、スマートフォン1は、対話型のインタフェースを介して、ユーザの音声入力の内容に対応する具体的な情報を提供することができる。スマートフォン1では、提供された具体的な情報に基づいてユーザが希望する動作を判断することができる。このようにして、スマートフォン1では、対話型のインタフェースを介する処理を改善することができる。
 図12に示す例では、スマートフォン1は、抽出したレコードに含まれる項目の中から、自機(スマートフォン1)を通じてレコードの対象(特許一郎)に接触を図るために用いられる項目を報知する例を説明したが、これには限定されない。スマートフォン1は、抽出したレコードに含まれる項目をもれなく報知してもよい。スマートフォン1は、抽出した特許一郎に対応するレコードの中から、例えば、自機(スマートフォン1)を通じてレコードの対象に接触を図るために用いられる項目ではない「誕生日」についても報知してもよい。
 図13は、マイク8を介して音声で入力される文字列に対応するレコードを、電話帳データ9Yから抽出し、抽出したレコードに含まれる小項目を報知する処理の一例を示す図である。
 図13に示すように、スマートフォン1は、タッチスクリーン2Bを介して、ロック画面40に配置されているアイコン40aに対する操作を検出すると(ステップS81)、ディスプレイ2Aに対話型のインタフェースの実行画面50を表示する(ステップS82)。このとき、スマートフォン1は、ステップS82に示すように、“ご用件をお話下さい。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(O-1)を実行画面50に表示する。
 続いて、スマートフォン1は、マイク8により音声が入力されると、入力された音声の認識処理を実行する。認識に成功した場合、スマートフォン1は、マイク8を介して入力される文字列に対応するレコードを、ストレージ9に記憶されている電話帳データ9Yの中から抽出し、抽出したレコードに含まれる項目を報知する(ステップS83~ステップS84)。
 具体的には、スマートフォン1は、マイク8を介して音声で入力される文字列を“特許一郎”であると認識すると、ステップS83に示すように、認識した文字列に対応する吹き出しの画像(I-1)を実行画面50に表示する。続いて、スマートフォン1は、電話帳データ9Yに含まれる「名前」の項目に記憶されているデータの中から、特許一郎を検索する。続いて、スマートフォン1は、特許一郎を検出すると、特許一郎に対応するレコードを抽出する。例えば、抽出されるレコードには、「電話番号」、「メールアドレス」、「誕生日」などの項目と、「電話番号」及び「メールアドレス」に属する「自宅」、「会社」、「携帯」の小項目と、各項目に対応するデータとが含まれる。続いて、スマートフォン1は、抽出したレコードに含まれる項目の中から、自機(スマートフォン1)を通じてレコードの対象である特許一郎との接触を図るために用いられる項目である「電話番号」及び「メールアドレス」を特定し、特定した「電話番号」及び「メールアドレス」の項目に属する「自宅」、「会社」、「携帯」の小項目を音声及び画像により報知する。例えば、スマートフォン1は、ステップS84に示すように、“電話帳に自宅・会社・携帯の電話番号、自宅・会社・携帯のメールアドレスが登録されています。何をしますか?”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(O-5)を実行画面50に表示する。さらに、スマートフォン1は、ユーザの行動を促すための音声及び画像による補助的な報知を行う。例えば、スマートフォン1は、ステップS84に示すように、“マイクに近づいてお話下さい。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(O-3)を実行画面50に表示する。
 続いて、スマートフォン1は、マイク8により音声が入力されると、入力された音声の認識処理を実行する。認識に成功した場合、スマートフォン1は、ユーザに応答するとともに、認識結果に対応するアプリケーションを自動的に起動し、アプリケーションの画面をディスプレイ2Aに表示する(ステップS85~ステップS87)。
 具体的には、スマートフォン1は、マイク8を介して音声で入力される文字列を“携帯にメール”であると認識すると、ステップS85に示すように、認識した文字列に対応する吹き出しの画像(I-3)を実行画面50に表示する。続いて、スマートフォン1は、ステップS86に示すように、“メールアプリを起動します。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(O-6)を実行画面50に表示する。続いて、スマートフォン1は、ステップS87に示すように、Eメールアプリケーション9Dを実行して、Eメールアプリケーション9Dの画面80をディスプレイ2Aに表示する。Eメールアプリケーション9Dを実行する際、スマートフォン1は、特許一郎の携帯のメールアドレスを宛先アドレスに予め挿入しておく。
 上記ステップS85~ステップS87において、スマートフォン1は、マイク8を介して音声で入力される文字列を、例えば“携帯にショートメール”であると認識した場合には、SMSアプリケーション9Cを実行して、SMSアプリケーション9Cの画面をディスプレイ2Aに表示する。
 図13に示す例では、スマートフォン1は、マイク8を介して音声で入力される文字列を“特許一郎”であると認識すると、特許一郎に対応するレコードを抽出する。そして、スマートフォン1は、抽出したレコードに含まれる項目の中から、自機(スマートフォン1)を通じてレコードの対象である特許一郎との接触を図るために用いられる項目である「電話番号」及び「メールアドレス」を特定し、さらには、特定した「電話番号」及び「メールアドレス」の項目に属する「自宅」、「会社」、「携帯」の小項目を音声及び画像により報知する。例えば、スマートフォン1は、“電話帳に自宅・会社・携帯の電話番号、自宅・会社・携帯のメールアドレスが登録されています。何をしますか?”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像を実行画面50に表示する。このようなことから、スマートフォン1は、対話型のインタフェースを介して、ユーザの音声入力の内容に対応するより具体的な情報を提供することができる。スマートフォン1では、提供されたより具体的な情報に基づいてユーザが希望する動作を判断することができる。このようにして、スマートフォン1では、対話型のインタフェースを介する処理を改善することができる。
 図14は、マイク8を介して音声で入力される文字列に対応するレコードを、電話帳データ9Yから抽出できない場合の処理の一例を示す図である。以下の説明において、“連携アプリケーション(連携アプリ)”と表記するものは、ストレージ9に記憶されているアプリケーションに該当し、対話型のインタフェースを介して実行することができる。
 図14に示すように、スマートフォン1は、ロック画面40をディスプレイ2Aに表示している。スマートフォン1は、ロック画面40に配置されているアイコン40aに対する操作を検出すると(ステップS91)、ディスプレイ2Aに対話型のインタフェースの実行画面50を表示する(ステップS92)。このとき、スマートフォン1は、ステップS92に示すように、“ご用件をお話下さい。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(O-1)を実行画面50に表示する。
 続いて、スマートフォン1は、マイク8により音声が入力されると、入力された音声の認識処理を実行する。認識に成功した場合、スマートフォン1は、ユーザに応答するとともに、ストレージ9に記憶されている電話帳データ9Yの中から、マイク8を介して入力される文字列に対応するレコードを抽出できない場合には、連携アプリケーションの実行指示であるものと判断して処理を実行する(ステップS93~ステップS94)。
 具体的には、スマートフォン1は、マイク8を介して音声で入力される文字列を“天気”であると認識すると、ステップS93に示すように、認識した文字列に対応する吹き出しの画像(I-4)を実行画面50に表示する。続いて、スマートフォン1は、電話帳データ9Yに含まれる「名前」の項目に記憶されているデータの中から、天気を検索する。天気を検出できなかった場合、スマートフォン1は、続いて、連携アプリケーションを検索する。連携アプリケーションも検出できなかった場合、スマートフォン1は、例えば、ステップS94に示すように、“連携アプリが見つかりませんでした。”という音声ガイダンスをスピーカ11から出力するとともに、音声ガイダンスに対応する吹き出しの画像(O-7)を実行画面50に表示する。さらに、スマートフォン1は、例えば、ステップS94に示すように、アプリケーションの一覧を実行画面50に表示する。実行画面50に表示されるアプリケーションの一覧には、SMSアプリケーション9Cに対応するアイコンA1、Eメールアプリケーション9Dに対応するアイコンA2、メモ帳アプリケーション9Eに対応するアイコンA3、動画アプリケーション9Fに対応するアイコンA4、及びブラウザアプリケーション9Gに対応するアイコンA5が表示される。
 続いて、スマートフォン1は、タッチスクリーン2Bを介して、例えば、メモ帳アプリケーション9Eに対応するアイコンA3に対する操作を検出すると、メモ帳アプリケーション9Eを起動し、メモ帳アプリケーション9Eの画面90をディスプレイ2Aに表示する(ステップS95~ステップS96)。
 図15を用いて、実施形態に係るスマートフォン1による処理手順の一例を説明する。図15は、実施形態に係るスマートフォンの処理手順の一例を示すフローチャートである。図15に示す処理手順は、コントローラ10が、ストレージ9に記憶されている制御プログラム9Aなどを実行することによって実現される。
 図15に示すように、コントローラ10は、対話型のインタフェースの実行画面をディスプレイ2Aに表示させる(ステップS301)。コントローラ10は、例えば、タッチスクリーン2Bを介して、対話型のインタフェースを起動させるためのアイコン40aに対する操作を検出すると、対話型のインタフェースを起動し、インタフェースの実行画面50をディスプレイ2Aに表示させる(図12、13参照)。
 続いて、コントローラ10は、マイク8により入力される音声の音声データを取得すると(ステップS302)、音声データの認識処理を実行し、音声の認識に成功したかを判定する(ステップS303)。
 コントローラ10は、判定の結果、音声の認識に成功した場合には(ステップS303,Yes)、ストレージ9に記憶されているアプリケーションの中から、認識結果に対応するアプリケーションを検出できたかを判定する(ステップS304)。
 コントローラ10は、判定の結果、認識結果に対応するアプリケーションを検出できた場合には(ステップS304、Yes)、対応するアプリケーションを起動し(ステップS305)、図15に示す処理手順を終了する。
 一方、コントローラ10は、判定の結果、認識結果に対応するアプリケーションを検出できない場合には(ステップS304,No)、認識結果に対応する電話帳データがあるかを判定する(ステップS306)。すなわち、コントローラ10は、認識結果に対応するデータが、電話帳データ9Yに含まれているかを検索する。
 コントローラ10は、判定の結果、認識結果に対応する電話帳データがある場合には(ステップS306,Yes)、該当のレコードを抽出し、抽出したレコードに含まれる項目を報知する(ステップS307)。コントローラ10は、抽出したレコードに含まれる項目を報知する際、例えば、自機(スマートフォン1)を通じてレコードの対象に接触を図るために用いられる項目(電話番号、メールアドレス、URLなど)を報知する。コントローラ10は、例えば、自機(スマートフォン1)を通じて上記レコードの対象に接触を図るために用いられる項目(電話番号、メールアドレス、URLなど)に複数の小項目(自宅、携帯、会社など)が属する場合には、小項目をそれぞれ報知する。
 続いて、コントローラ10は、動作指示の音声入力を要求して(ステップS308)、ステップS302の手順に戻り、再入力される音声データを取得する。
 ステップS306において、コントローラ10は、判定の結果、認識結果に対応する電話帳データがない場合には(ステップS306,No)、音声の再入力を要求して(ステップS309)、ステップS302の手順に戻り、再入力される音声データを取得する。
 ステップS303において、コントローラ10は、判定の結果、音声の認識に失敗した場合には(ステップS303,No)、失敗回数が閾値を超えているかを判定する(ステップS310)。
 コントローラ10は、判定の結果、失敗回数が閾値を超えている場合には(ステップS310,Yes)、連携アプリケーションの一覧を実行画面50に表示する(ステップS311)。続いて、コントローラ10は、連携アプリケーションの一覧に対する操作に応じて、アプリケーションの処理を実行し(ステップS312)、図15に示す処理手順を終了する。
 一方、コントローラ10は、判定の結果、失敗回数が閾値を超えていない場合には(ステップS310,No)、ステップS309の手順に移り、音声の再入力を要求する。
 図15に示す処理手順の順番は、図15に示す例に限定されない。図15に示す処理手順において、例えば、ステップS304の手順と、ステップS306の手順の順序が逆であってもよい。図15に示す処理手順は、図15に示す全ての処理手順を含んでいなくてもよい。例えば、ステップS310の手順を省略して、直接ステップS311の手順を実行してもよい。
 添付の請求項に係る技術を完全かつ明瞭に開示するために特徴的な実施形態に関し記載してきた。しかし、添付の請求項は、上記実施形態に限定されるべきものでなく、本明細書に示した基礎的事項の範囲内で当該技術分野の当業者が創作しうるすべての変形例及び代替可能な構成により具現化されるべきである。
 例えば、図10に示した制御プログラム9A及び各アプリケーションは、複数のモジュールに分割されていてもよい。あるいは、図10に示した制御プログラム9Aは、他のプログラムと結合されていてもよい。
 上記実施形態2では、タッチスクリーンを備える装置の一例として、スマートフォンについて説明したが、添付の請求項に係る装置は、スマートフォンに限定されず、スマートフォン以外の電子機器であってもよい。電子機器は、例えば、モバイルフォン、タブレット、携帯型パソコン、デジタルカメラ、メディアプレイヤ、電子書籍リーダ、ナビゲータ、及びゲーム機である。あるいは、添付の請求項に係る装置は、据え置き型の電子機器であってもよい。据え置き型の電子機器は、例えば、デスクトップパソコン、及びテレビ受像器である。
 上記実施形態2の対話型のインタフェースでは、音声入力に対して音声ガイダンスおよびディスプレイ表示によって応答しているが、いずれか一方によって応答するインタフェースを採用してもよい。上記の実施形態2において、スマートフォン1は、レコードの対象に接触を図るための項目に属する小項目が1つのみの場合には、項目名に対応する音声入力によりアプリケーションを実行するようにしてもよい。例えば、スマートフォン1は、抽出したレコードの対象に接触を図るための項目である電話番号に対して、自宅、会社および携帯のうちのいずれか1つの小項目が属している場合には、「電話」という音声入力により通話アプリケーション9Bをそのまま実行する。
 上記実施形態2の対話型のインタフェースでは、音声入力によってアプリケーションを起動することができる。このスマートフォン1では、音声入力によって起動することになったアプリケーションが既に起動している場合、当該アプリケーションを実行する。上記実施形態2において、スマートフォン1(コントローラ10)がプログラム(又は、アプリケーション)を起動する場合には、ストレージ9に記憶されているプログラムを新たに読み出してその処理を開始する場合と、既に読み出されているプログラムの処理を新たに開始する場合とが含まれる。上記実施形態2において、スマートフォン1(コントローラ10)がプログラムを実行する場合としては、プログラムを起動する場合と、中断中のプログラムを再開する場合と、起動済のプログラムの処理を継続する場合とが含まれる。
1 スマートフォン
2 タッチスクリーンディスプレイ
2A ディスプレイ
2B タッチスクリーン
3 ボタン
4 照度センサ
5 近接センサ
6 通信ユニット
7 レシーバ
8 マイク
9 ストレージ
9A 制御プログラム
9B 通話アプリケーション
9C SMSアプリケーション
9D Eメールアプリケーション
9E メモ帳アプリケーション
9F 動画アプリケーション
9G ブラウザアプリケーション
9Y 電話帳データ
9Z 設定データ
10 コントローラ
11 スピーカ
12 カメラ
15 姿勢検出ユニット
18 バイブレータ

Claims (10)

  1.  マイクと、
     前記マイクを介して入力される音声に基づく音声制御を実行するコントローラと
     を有し、
     前記コントローラは、前記音声制御によって選択されるアプリケーションの入力フィールドに挿入する文字列の音声入力を、前記音声制御により終了させる電子機器。
  2.  前記コントローラは、前記音声入力を終了すると、前記入力フィールドに前記文字列を挿入する請求項1に記載の電子機器。
  3.  マイクを有する電子機器を制御する制御方法であって、
     前記マイクを介して入力される音声に基づく音声制御を実行するステップと、
     前記音声制御によって選択されるアプリケーションの入力フィールドに挿入する文字列の音声入力を、前記音声制御により終了させるステップと
     を含む制御方法。
  4.  マイクを有する電子機器に、
     前記マイクを介して入力される音声に基づく音声制御を実行するステップと、
     前記音声制御によって選択されるアプリケーションの入力フィールドに挿入する文字列の音声入力を、前記音声制御により終了させるステップと
     を実行させる制御プログラムを有する記録媒体。
  5.  マイクと、
     複数の項目に対応するデータを含む電話帳データを記憶するストレージと、
     前記マイクを介して音声で入力される文字列に対応するレコードを、前記電話帳データから抽出し、抽出したレコードに含まれる項目を報知するコントローラと
     を有する電子機器。
  6.  前記コントローラは、自機を通じて前記レコードの対象に接触を図るために用いられる前記項目を報知する請求項5に記載の電子機器。
  7.  前記コントローラは、前記項目に属する複数の小項目がある場合に、当該小項目を報知する請求項5に記載の電子機器。
  8.  前記コントローラは、前記項目を報知した後に、報知した当該項目が前記マイクを介して音声で入力される文字列と一致すると、前記報知した項目を前記レコードに関する処理として受け付ける請求項5に記載の電子機器。
  9.  マイクを有する電子機器を制御する制御方法であって、
     複数の項目に対応するデータを含む電話帳データを記憶するストレージから、前記マイクを介して音声で入力される文字列に対応するレコードを抽出するステップと、
     抽出したレコードに含まれる項目を報知するステップと
     を含む制御方法。
  10.  マイクを有する電子機器に、
     複数の項目に対応するデータを含む電話帳データを記憶するストレージから、前記マイクを介して音声で入力される文字列に対応するレコードを抽出するステップと、
     抽出したレコードに含まれる項目を報知するステップと
     を実行させる制御プログラムを有する記録媒体。
PCT/JP2014/062996 2013-05-16 2014-05-15 電子機器、制御方法、及び記録媒体 WO2014185503A1 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2013-104418 2013-05-16
JP2013104418A JP2014225798A (ja) 2013-05-16 2013-05-16 電子機器、制御方法、及び制御プログラム
JP2013-104376 2013-05-16
JP2013104376A JP2014225796A (ja) 2013-05-16 2013-05-16 電子機器、制御方法、及び制御プログラム

Publications (1)

Publication Number Publication Date
WO2014185503A1 true WO2014185503A1 (ja) 2014-11-20

Family

ID=51898478

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/062996 WO2014185503A1 (ja) 2013-05-16 2014-05-15 電子機器、制御方法、及び記録媒体

Country Status (1)

Country Link
WO (1) WO2014185503A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001075591A (ja) * 1999-09-03 2001-03-23 Sony Corp 情報処理装置および方法、並びにプログラム格納媒体
JP2007529831A (ja) * 2004-03-18 2007-10-25 ソニー株式会社 音声対話型メッセージング方法及び装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001075591A (ja) * 1999-09-03 2001-03-23 Sony Corp 情報処理装置および方法、並びにプログラム格納媒体
JP2007529831A (ja) * 2004-03-18 2007-10-25 ソニー株式会社 音声対話型メッセージング方法及び装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"shnsk, iPhone 'Siri' to Dokomo 'Shabette Konsheru' o Taiketsu sasete mita (Taiketsu Doga Hen", GADGET TSUSHIN, 23 March 2012 (2012-03-23), Retrieved from the Internet <URL:http://getnews.jp/archives/175979> *
ASAKO FUSANO: "Banno Hisho wa Dono Service?", SIRI' 'SHABETTE KONSHERU' 'ONSEI ASSIST' O TETTEI HIKAKU (2/3, 10 August 2012 (2012-08-10), Retrieved from the Internet <URL:http://www.itmedia.co.jp/mobile/articles/1208/10/news0242.html> *

Similar Documents

Publication Publication Date Title
JP6393021B2 (ja) 電子機器、制御方法、及び制御プログラム
US9002337B2 (en) Electronic device including multiple SIM cards and method thereof
JP6125811B2 (ja) 電子機器、制御方法、及び制御プログラム
KR20200003134A (ko) 알림 처리 방법 및 전자 기기
CN104951335B (zh) 应用程序安装包的处理方法及装置
EP3540576A1 (en) Apparatus and method for detecting an input to a terminal
US20130315439A1 (en) Method for providing service using image recognition and electronic device thereof
JP6133564B2 (ja) 電子機器、制御方法、及び制御プログラム
JP6215128B2 (ja) 携帯電子機器、制御方法及び制御プログラム
CN104391742B (zh) 应用优化方法和装置
JP2014225796A (ja) 電子機器、制御方法、及び制御プログラム
WO2014185503A1 (ja) 電子機器、制御方法、及び記録媒体
KR20150137913A (ko) 전자 장치 및 애플리케이션 실행 방법
US20130174054A1 (en) Method And Apparatus For Inputting Schedule In Mobile Communication Terminal
US20150229802A1 (en) Electronic device, control method, and control program
US20150363100A1 (en) Mobile electronic device, control method, and storage medium
JP6405024B1 (ja) 電子機器、制御方法及び制御プログラム
JP2014225798A (ja) 電子機器、制御方法、及び制御プログラム
JP6059256B2 (ja) 通信端末及び記憶媒体
JP2014068240A (ja) 電子機器、制御方法、及び制御プログラム
US20120214551A1 (en) Apparatus and method for managing call notes in a wireless device
US9819791B2 (en) Mobile electronic device, control method, and control program
JP6152334B2 (ja) 電子機器、制御方法、及び制御プログラム
JP2016197441A (ja) 電子機器、制御方法、及び制御プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14797351

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14797351

Country of ref document: EP

Kind code of ref document: A1