WO2012017525A1 - 処理装置及びコマンド入力支援方法 - Google Patents

処理装置及びコマンド入力支援方法 Download PDF

Info

Publication number
WO2012017525A1
WO2012017525A1 PCT/JP2010/063172 JP2010063172W WO2012017525A1 WO 2012017525 A1 WO2012017525 A1 WO 2012017525A1 JP 2010063172 W JP2010063172 W JP 2010063172W WO 2012017525 A1 WO2012017525 A1 WO 2012017525A1
Authority
WO
WIPO (PCT)
Prior art keywords
command
unit
input
command input
input operation
Prior art date
Application number
PCT/JP2010/063172
Other languages
English (en)
French (fr)
Inventor
勝 梅澤
Original Assignee
パイオニア株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パイオニア株式会社 filed Critical パイオニア株式会社
Priority to PCT/JP2010/063172 priority Critical patent/WO2012017525A1/ja
Publication of WO2012017525A1 publication Critical patent/WO2012017525A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Definitions

  • the present invention relates to a processing device, a command input support method, a command input support program, and a recording medium on which the command input support program is recorded.
  • a switch for assisting the input operation is displayed on the display device when the user inputs voice.
  • the auxiliary function such as displaying a voice command list or displaying a voice input guidance is executed according to the selected switch to support voice command input.
  • the present invention has been made in view of the above circumstances, and provides a new processing device and a command input support method that can appropriately support command input operations in an auditory mode and a visual mode. Objective.
  • the present invention is a processing device that performs processing corresponding to an input command, and inputs a command by a command input operation in a predetermined mode that is at least one of an auditory mode and a visual mode.
  • An input unit including a first command input unit that performs the operation; a storage unit that stores information on recommended command input operations in the predetermined mode for each command that can be input using the first command input unit; Recommended command input when the command input using the first command input unit is performed by referring to the storage unit based on the input command when the command input using the first command input unit is performed.
  • An extraction unit for extracting operation information; and a recommended command input corresponding to the input command based on the extracted recommended command input operation information
  • a processing device comprising a; a presentation unit for presenting the work to the user.
  • an input unit including a first command input unit in which a command is input by a command input operation in a predetermined mode that is at least one of an auditory mode and a visual mode;
  • a storage unit that stores information on recommended command input operations in the predetermined mode for each command that can be input using one command input unit, and is used in a processing device that performs processing corresponding to the input command
  • a command input support method wherein when a command is input using the input unit, the storage unit is referred to based on the input command, and the input command is referred to as the first command input unit.
  • An extraction process for extracting information on recommended command input operations when inputting using the information; and, based on the extracted information on recommended command input operations,
  • a command input assist method comprising: a recommended command input operation corresponding to the serial commands entered presentation step and presenting to the user.
  • the present invention is a command input support program characterized by causing a calculation unit to execute the command input support method of the present invention.
  • the present invention is a recording medium in which the command input support program of the present invention is recorded so as to be readable by a calculation unit.
  • FIG. 1 shows a schematic configuration of a processing apparatus 700 according to an embodiment.
  • the processing device 700 includes an input unit 710, a storage unit 720, an extraction unit 730, a presentation unit 750, and a command execution unit 760.
  • the input unit 710 receives a command input from the user. Then, the input unit 710 sends the result of the command input to the extraction unit 730.
  • the input unit 710 includes a first command input unit 711 and a second command input unit 712.
  • the above-mentioned first command input unit 711 is an input unit for inputting a command by a command input operation in a predetermined mode that is at least one of an auditory mode and a visual mode.
  • the auditory manner can be set as “speech uttered by the user”.
  • the first command input unit 711 includes a sound collection device that collects the voice spoken by the user.
  • the visual manner can be “a gesture performed by the user” or “drawing of at least one predetermined shape graphic performed by the user”.
  • the first command input unit 711 includes an imaging device that captures a gesture performed by a user.
  • the first command input unit 711 includes a drawing input device such as a touch panel on which a drawing input operation is performed.
  • the “gesture performed by the user” includes the movement of the entire body of the user, the movement of the fingertip of the user, and the like.
  • the drawing input operation performed on the drawing input device may be performed with a touch pen or may be performed with a user's finger.
  • the second command input unit 712 is an input unit in which a definite command input is performed by at least one of a key input operation and a pointing input operation.
  • examples of the command input operation using the second command input unit 712 include a touch key operation on the touch panel.
  • the second command input unit 712 includes a touch panel device.
  • the “key input operation” includes a button operation and a switch operation for information input.
  • the input unit 710 configured as described above, when the first command input unit 711 is used, a command input operation is performed in a manner having individual differences according to the individuality of the user. On the other hand, when the second command input unit 712 is used, a command input operation that enables definite command input is performed regardless of the individuality of the user.
  • the drawing input device included in the second command input unit 712 is a touch panel device, and the first command input unit 711 and the second command input unit 712 are the same.
  • the touch panel device may be configured.
  • the touch panel device is provided with a drawing input space as a first command input unit 711 in which a user can input a command by performing “drawing a figure”, and the user touches (presses).
  • a touch key input space where a definite command input can be performed by an operation is provided as the second command input unit 712.
  • the storage unit 720 has a nonvolatile storage area.
  • the storage unit 720 can be accessed by the extraction unit 730.
  • the command and the first command input unit 711 that is regarded as an input operation of the command in a predetermined mode.
  • the command input operation variation and the “recommended command input operation” in a predetermined manner are stored in association with each other.
  • the predetermined mode is “voice”
  • the variation of the command input operation and the information of the recommended command input operation are utterance information.
  • the predetermined mode is “a gesture performed by the user”
  • the variation of the command input operation and the information of the recommended command input operation are gesture information.
  • the predetermined mode is “drawing a graphic performed by the user”
  • the variation of the command input operation and the information of the recommended command input operation are graphic information.
  • commands that can be input using the second command input unit 712 include all commands that can be input using the first command input unit 711 and cannot be input using the first command input unit 711. It also includes commands.
  • the extraction unit 730 receives a result of a command input operation using the input unit 710. Subsequently, the extraction unit 730 specifies a command corresponding to the command input operation.
  • the extraction unit 730 sends the specified command to the command execution unit 760. Further, the extraction unit 730 refers to the storage unit 720 based on the specified command, and extracts information on “recommended command input operation” when inputting the specified command using the first command input unit 711. To do. The extraction result by the extraction unit 730 is sent to the presentation unit 750.
  • the extraction unit 730 searches the storage unit 720 based on the result of the command input operation. Refer to and identify the input command. Then, the extraction unit 730 sends the specified command to the command execution unit 760 together with the fact that the command should be executed after receiving the presentation completion report from the presentation unit 750. Subsequently, the extraction unit 730 extracts “recommended command input operation” information when inputting a command specified using the first command input unit 711, and sends the extracted information to the presentation unit 750.
  • the extraction unit 730 does not execute the subsequent processing and waits for a new result of the command input operation. ing.
  • the extraction unit 730 upon receiving the result of the command input operation performed on the second command input unit 712 by the user, the extraction unit 730 specifies an input command corresponding to the command input operation. Subsequently, the extraction unit 730 refers to the storage unit 720 to determine whether the specified input command is a command that can be input using the first command input unit 711. If the result of this determination is negative, the extraction unit 730 sends the specified command to the command execution unit 760 together with the fact that the command should be executed immediately.
  • the extraction unit 730 receives the presentation end report from the presentation unit 750 and then executes the command, and sends the identified command to the command execution unit 760. Send to. Subsequently, the extraction unit 730 extracts “recommended command input operation” information when inputting a command specified using the first command input unit 711, and sends the extracted information to the presentation unit 750.
  • the presentation unit 750 receives information on a recommended command input operation that is an extraction result by the extraction unit 730. Then, the presentation unit 750 generates presentation information of “recommended command input operation” corresponding to the command input to the input unit 710 based on the extracted information of the recommended command input operation.
  • the presentation information can be voice data in which the utterance information is converted into voice and / or character string data in which the utterance information is converted into a character string.
  • the presentation information can be image data in which the gesture information is converted into an image.
  • the predetermined mode is “graphic drawing performed by the user”
  • the presentation information can be image data obtained by converting the graphic information into an image.
  • the presenting unit 750 presents a “recommended command input operation” corresponding to the command input to the input unit 710 to the user according to the presenting information.
  • the presentation unit 750 includes a voice output unit and / or an image display unit, and performs a recommended command input operation by at least one of voice output and character string display. Present to the user.
  • the presentation unit 750 includes an image display unit, and the user can perform a recommended command input operation by image display. To present.
  • the presentation unit 750 sends a presentation completion report to the command execution unit 760.
  • the command execution unit 760 receives the command sent from the extraction unit 730. If the command execution instruction is received together with the command, the command execution unit 760 immediately starts executing the process corresponding to the command. On the other hand, when the command execution unit 760 receives a command indicating that the command should be executed after receiving the presentation end report from the presentation unit 750 together with the command, the command execution unit 760 receives the presentation end report from the presentation unit 750. Later, execution of processing corresponding to the command is started.
  • the extraction process of the “recommended command input operation” information is started when the input unit 710 receives a command input from the user and sends the result of the command input operation to the extraction unit 730.
  • the extraction unit 730 When the user performs a command input operation on the first command input unit 711 in a predetermined mode which is at least one of an auditory mode and a visual mode, the extraction unit 730 refers to the storage unit 720. Then, the input command corresponding to the executed command input operation is specified. Then, the extraction unit 730 extracts recommended command input operation information corresponding to the specified input command based on the specified input command. Information on the recommended command input operation extracted in this way is sent to the presentation unit 750. In addition, the extraction unit 730 sends the specified command to the command execution unit 760 along with the fact that the command should be executed after receiving the presentation completion report from the presentation unit 750.
  • the extraction unit 730 When the user performs a definite command input operation on the second command input unit 712 by at least one of a key input operation and a pointing input operation, the extraction unit 730 causes the executed command input to be performed. The input command corresponding to the operation is specified. Then, the extraction unit 730 refers to the storage unit 720 based on the specified input command, and determines whether the specified input command is a command that can be input using the first command input unit 711. To do. If the result of this determination is negative, the extraction unit 730 sends the specified command to the command execution unit 760 together with the fact that the command should be executed immediately.
  • the extraction unit 730 extracts recommended command input operation information corresponding to the specified input command. Information on the recommended command input operation extracted in this way is sent to the presentation unit 750. In addition, the extraction unit 730 sends the specified command to the command execution unit 760 along with the fact that the command should be executed after receiving the presentation completion report from the presentation unit 750.
  • the presentation unit 750 When the presentation unit 750 receives the information of the recommended command input operation sent from the extraction unit 730, the “recommended command input operation” corresponding to the command input to the input unit 710 is presented to the user based on the information. To do.
  • the presentation unit 750 when the predetermined mode is “voice”, the presentation unit 750 generates voice data in which the utterance information is converted into voice and / or character string data in which the utterance information is converted into a character string.
  • Recommended command input information is presented to the user by at least one of output and character string display.
  • the presentation unit 750 when the predetermined mode is “gesture performed by the user”, the presentation unit 750 generates image data in which the gesture information is converted into an image, and presents the recommended command input information to the user through image display. Further, when the predetermined mode is “drawing of graphics performed by the user”, the presentation unit 750 generates image data in which the graphic information is converted into an image, and displays recommended command input information to the user through the image display. Present.
  • the command execution unit 760 starts executing the process corresponding to the command.
  • a command input is performed.
  • the result of the operation is sent to the extraction unit 730.
  • the extraction unit 730 refers to the storage unit 720, identifies an input command corresponding to the command input operation, and extracts recommended command input operation information corresponding to the identified input command.
  • the extraction unit 730 sends the specified command to the command execution unit 760 along with the fact that the command should be executed after receiving the presentation completion report from the presentation unit 750.
  • the presentation unit 750 presents a “recommended command input operation” corresponding to the command input to the first command input unit 711 to the user based on the information on the recommended command input operation. After the recommended command input operation is presented in this way, the command execution unit 760 starts executing the process corresponding to the command.
  • the extraction unit 730 when the user performs a definite command input operation on the second command input unit 712 by at least one of the key input operation and the pointing input operation, the extraction unit 730 causes the command input to be performed. Identify the input command corresponding to the operation. Then, the extraction unit 730 refers to the storage unit 720 based on the specified input command, and determines whether the specified input command is a command that can be input using the first command input unit 711. To do. If the result of this determination is negative, the extraction unit 730 sends the specified command to the command execution unit 760 together with the fact that the command should be executed immediately. Then, the command execution unit 760 that has received the specified command immediately starts processing corresponding to the command.
  • the extraction unit 730 extracts recommended command input operation information corresponding to the specified input command.
  • the extraction unit 730 sends the specified command to the command execution unit 760 along with the fact that the command should be executed after receiving the presentation completion report from the presentation unit 750.
  • the presentation unit 750 presents a “recommended command input operation” corresponding to the command input to the second command input unit 712 to the user based on the information on the recommended command input operation. After the recommended command input operation is presented in this way, the command execution unit 760 starts executing the process corresponding to the command.
  • a command input operation in a predetermined mode corresponding to a definite command input operation by at least one of a key input operation and a pointing input operation can be presented to the user.
  • the number of recommended command input operations presented by the presentation unit 750 is not limited. However, the presentation unit 750 presents recommended command input operations corresponding to the same command up to a predetermined number of times. May be performed. In this case, when the recommended command input operation is not presented by the presentation unit 750, the presentation unit 750 sends a presentation end report to the command execution unit 760.
  • the presentation unit 750 evaluates a difference between the command input operation performed using the first command input unit 711 and the recommended command input operation extracted by the extraction unit 730, and the evaluation If the result is larger than a predetermined threshold value, a recommended command input operation corresponding to the input command may be presented. Also in this case, when the recommended command input operation is not presented by the presentation unit 750, the presentation unit 750 sends a presentation end report to the command execution unit 760.
  • the extraction unit 730 executes the command specified together with the command execution after receiving the presentation completion report from the presentation unit 750 in order to execute the command after the presentation of the recommended command input operation.
  • the data is sent to the execution unit 760.
  • the recommended command input operation may be presented after the command execution, and the extraction unit 730 may send the specified command to the command execution unit 760 along with the command execution immediately. .
  • the extraction unit 730 extracts and extracts “recommended command input operation” information when the command specified by using the first command input unit 711 is input. The information is sent to the presentation unit 750.
  • the extraction unit 730 sends a specified command to the command execution unit 760 together with the effect that the command should be executed after receiving the presentation completion report from the presentation unit 750.
  • the extraction unit 730 may be sent to the command execution unit 760 together with the fact that the command should be executed immediately.
  • the processing apparatus 700 of the embodiment can be configured to include a computer as a calculation unit, and a part of the functions of the extraction unit 730 and the presentation unit 750 can be realized by executing a program.
  • These programs may be acquired in a form recorded on a portable recording medium such as a CD-ROM or DVD, or may be acquired in a form distributed via a network such as the Internet. Can do.
  • FIG. 2 shows a schematic configuration of an acoustic device 100A having a function as the processing device according to the first embodiment. Note that the acoustic device 100A is an aspect of the processing device 700 (see FIG. 1) of the above-described embodiment.
  • the acoustic device 100A includes a sound source unit 110, an input unit 120A as an input unit 710, a storage unit 130A as a storage unit 720, an extraction unit 730, and a part of a presentation unit 750. And a processing unit 190A.
  • the audio device 100 ⁇ / b> A includes a sound output unit 150 as a part of the presentation unit 750 and a display unit 160 as a part of the presentation unit 750.
  • the sound source unit 110 sends content information CTI such as a song title of the audio content to the processing unit 190A.
  • content information CTI such as a song title of the audio content
  • the sound source unit 110 receives the audio content reproduction command DVC from the processing unit 190A, the sound source unit 110 outputs the audio content data signal CTD for which reproduction is designated by the reproduction command DVC.
  • the audio content data signal CTD output from the sound source unit 110 in this way is sent to the processing unit 190A.
  • the input unit 120A includes a sound collection unit 121 as the first command input unit 711 and a touch panel unit 126 as the second command input unit 712.
  • the sound collection unit 121 is an input unit in which a command is input by a command input operation using “voice” which is an auditory mode.
  • the sound collection unit 121 includes a sound collection device 122, and collects a user's utterance by the sound collection device 122. Then, the sound collection unit 121 sends the sound collection result as sound collection data ASD to the processing unit 190A.
  • the touch panel unit 126 is an input unit in which a command is input by a touch key operation on the touch panel.
  • the touch panel unit 126 includes a touch panel device 127 and a drive circuit (not shown) that drives the touch panel device 127.
  • the touch panel device 127 is disposed on a display surface of a display device described later.
  • the drive circuit acquires data related to the position of the touch key operation performed on the touch panel device 127.
  • the result of the command input operation to the touch panel unit 126 is sent to the processing unit 190A as touch panel input data IPD.
  • the storage unit 130A is composed of a hard disk device or the like that is a nonvolatile storage device.
  • the storage unit 130A stores various data such as voice command information (ACI).
  • ACI voice command information
  • the storage unit 130A can be accessed by the processing unit 190A.
  • voice command information As shown in FIG. 3, for each basic command (TCMD) that can be input using the touch panel unit 126, speech information of “recommended voice command input operation” and voice The speech information of the variation of the voice command operation to the sound collection unit 121 regarded as the input operation is associated.
  • the utterance of the recommended voice command input operation of the command “tcmd_AAA” is “AAA”, “AAA”, “AAA”, “AAB”, “EFG”, etc. are prepared as utterance information of the voice command.
  • “AAA” and “AAA” have different ending accents.
  • “AAA” and “AAB” have different utterance words at the end.
  • “AAA” and “EFG” have the same meaning, but the utterances of the two are completely different.
  • the utterance “AAA” is “play” and the utterance “EFG” is “start”.
  • the voice command information includes commands that can be input using the touch panel unit 126 but cannot be operated using the sound collection unit 121, such as a command (tcmd_ZZZ). ing.
  • the sound output unit 150 includes a speaker, and outputs sound corresponding to the output sound signal AOS sent from the processing unit 190A.
  • the sound output unit 150 performs audio output of “recommended audio command input operation”, audio output of reproduced audio content, and the like under the control of the processing unit 190A.
  • the display unit 160 includes a display device such as a liquid crystal panel, and receives the output display signal IMD sent from the processing unit 190A. Then, the display unit 160 displays an image according to the output display signal IMD.
  • the display unit 160 performs text display of “recommended voice command input operation”, image display of operation guidance information, and the like under the control of the processing unit 190A.
  • the above processing unit 190A controls the entire sound device 100A.
  • the processing unit 190A includes a central processing unit (CPU) and its peripheral circuits. When the processing unit 190A executes various programs, some functions of the extraction unit 730 and the presentation unit 750 in the above-described embodiment are realized.
  • the processing unit 190A Upon receiving the sound collection data ASD sent from the sound collection unit 121, the processing unit 190A recognizes the user's utterance as a voice. Then, the processing unit 190A refers to the voice command information (ACI) in the storage unit 130A based on the result of the voice recognition, and specifies an input command. Subsequently, the processing unit 190A extracts the utterance information of the “recommended voice command input operation” in the case where voice input is performed using the sound pickup unit 121. The processing unit 190A receives content information CTI such as a song title of the audio content from the sound source unit 110 when a recording medium on which the audio content is recorded is inserted into the sound source unit 110.
  • ACI voice command information
  • the processing unit 190A based on the utterance information of the recommended voice command input operation and the content information CTI, the voice data and character string data of the “recommended voice command input operation” corresponding to the command input to the sound pickup unit 121. Is generated.
  • the processing unit 190A accesses the voice command information (ACI) in the storage unit 130A, and extracts “play” as the utterance information of the recommended voice command input operation. Further, the processing unit 190A extracts “XYZ (song title)” from the content information CTI. Then, the processing unit 190A combines “play” and “XYZ (song name)” to create “play, XYZ (song name)”. Is generated as voice data and character string data. The sound data generated in this way is sent to the sound output unit 150 as an output sound signal AOS. The generated character string data is sent to the display unit 160 as an output display signal IMD.
  • ACI voice command information
  • the processing unit 190A when the processing unit 190A receives the touch panel input data IPD sent from the touch panel unit 126, the processing unit 190A specifies an input command based on the input data IPD. Then, the processing unit 190A refers to the voice command information (ACI) in the storage unit 130A, and extracts speech information of “recommended voice command input operation” when voice input is performed using the sound pickup unit 121. Subsequently, the processing unit 190A obtains the voice data and the character string data of the “recommended voice command input operation” corresponding to the command input to the touch panel unit 126 based on the utterance information of the recommended voice command input operation and the touch panel input data IPD. Generate. The sound data generated in this way is sent to the sound output unit 150 as an output sound signal AOS. The generated character string data is sent to the display unit 160 as an output display signal IMD.
  • ACI voice command information
  • the processing unit 190A performs processing for generating presentation information of such recommended voice command input operation, and performs processing corresponding to the command input to the input unit 120A.
  • processing performed by the processing unit 190A includes, for example, audio content reproduction processing.
  • the processing unit 190A sends an audio content reproduction instruction DVC designated for reproduction to the sound source unit 110 when the audio content reproduction designation is received from the input unit 120A.
  • the processing unit 190A reads out the audio content data signal CTD corresponding to the audio content to be reproduced from the sound source unit 110, generates a digital sound data signal, performs a predetermined process, and outputs it to the sound output unit 150 An audio signal AOS is generated.
  • examples of processing corresponding to the command input to the input unit 120A performed by the processing unit 190A include equalizer processing, volume adjustment processing, and stop processing of the audio content being reproduced.
  • step S11 the processing unit 190A causes the user to perform a voice command input operation (hereinafter, “ It is determined whether or not “voice input operation” is performed. If the result of this determination is affirmative (step S11: Y), the processing unit 190A specifies the input command, and the process proceeds to step S14 described later.
  • a voice command input operation hereinafter, “ It is determined whether or not “voice input operation” is performed. If the result of this determination is affirmative (step S11: Y), the processing unit 190A specifies the input command, and the process proceeds to step S14 described later.
  • step S11 determines whether a touch key operation has been performed on touch panel unit 126 by the user. If the result of this determination is negative (step S12: N), the process returns to step S11. On the other hand, when the result of the determination in step S12 is affirmative (step S12: Y), the process proceeds to step S13.
  • step S13 the processing unit 190A identifies an input command corresponding to the touch key operation, refers to the voice command information (ACI) in the storage device 130A, and recommends a voice command input operation corresponding to the identified input command. It is determined whether there is any information. If the result of this determination is negative (step S13: N), the process proceeds to step S17 described later. For example, when the specified input command is “tcmd_ZZZ”, the result of the determination in step S13 is negative. On the other hand, if the result of the determination in step S13 is affirmative (step S13: Y), the process proceeds to step S14.
  • ACI voice command information
  • step S14 the processing unit 190A determines whether or not the recommended voice command input operation corresponding to the specified input command has been presented to the user a predetermined number of times or less. If the result of this determination is negative (step S14: N), the process proceeds to step S17. On the other hand, when the result of the determination in step S14 is affirmative (step S14: Y), the process proceeds to step S15.
  • step S15 the processing unit 190A generates presentation information for a recommended voice command input operation.
  • the processing unit 190A refers to the voice command information (ACI) in the storage unit 130A based on the specified input command, and inputs a recommended voice command corresponding to the specified input command. Extract the utterance information of the operation. Then, the processing unit 190A generates voice data and character string data as presentation information of “recommended voice command input operation” based on the information and the like.
  • ACI voice command information
  • step S16 the processing unit 190A sends the voice data as the output voice signal AOS to the sound output unit 150 and sends the character string data as the output display signal IMD to the display unit 160.
  • the recommended voice command input operation is voice-guided by the speaker of the sound output unit 150 and displayed as an image on the display device of the display unit 160.
  • step S17 the processing unit 190A starts processing corresponding to the input command. Thereafter, the process returns to step S11.
  • the processing unit 190A when a voice command input operation is performed on the sound collection unit 121 by the user, the processing unit 190A specifies a command corresponding to the command input operation. Then, referring to the voice command information (ACI) in the storage unit 130A, the utterance information of the recommended voice command input operation corresponding to the specified input command is extracted. Then, the processing unit 190A generates voice data and character string data of “recommended voice command input operation” based on the utterance information. The recommended voice command input operation thus generated is voice-guided by the sound output unit 150 and displayed on the display unit 160 as a character string.
  • ACI voice command information
  • a recommended voice command input operation corresponding to the input command can be presented to the user.
  • the processing unit 190A when a user performs a command input operation by touch key operation on the touch panel unit 126, the processing unit 190A specifies a command corresponding to the command input operation, and the storage unit 130A.
  • the utterance information of the recommended voice command input operation corresponding to the specified input command is extracted with reference to the voice command information (ACI).
  • the processing unit 190A generates voice data and character string data of “recommended voice command input operation” based on the utterance information.
  • the recommended voice command input operation thus generated is voice-guided by the sound output unit 150 and displayed on the display unit 160 as a character string.
  • FIG. 5 shows a schematic configuration of an acoustic device 100B having a function as a processing device according to the second embodiment.
  • the acoustic device 100B is an aspect of the processing device 700 according to the embodiment described above, similarly to the acoustic device 100A according to the first example.
  • the acoustic device 100B includes an input unit 120B instead of the input unit 120A, and a storage unit 130B instead of the storage unit 130A, compared to the acoustic device 100A of the first embodiment described above.
  • the difference is that it includes a processing unit 190B instead of the processing unit 190A.
  • the description will be given mainly focusing on these differences.
  • the input unit 120B is different from the input unit 120A described above in that it includes a photographing unit 123 as a first command input unit 711 instead of the sound collection unit 121.
  • the photographing unit 123 is an input unit in which a command is input by a command input operation using a “gesture” which is a visual aspect.
  • the gesture includes movement of the entire body of the user and movement of the fingertip of the user.
  • the imaging unit 123 includes an imaging device 124, and the imaging device 124 captures a user's gesture of the acoustic device 100B. Then, the photographing unit 123 sends the photographing result to the processing unit 190B as photographing data CSD.
  • the storage unit 130B includes a hard disk device that is a non-volatile storage device, as with the storage unit 130A described above.
  • the storage unit 130B stores various data such as gesture command information (JCI).
  • JCI gesture command information
  • the storage unit 130B can be accessed by the processing unit 190B.
  • the gesture command information (JCI) has the same configuration as the voice command information (ACI) described above. That is, in the gesture command information (JCI), for each command that can be input using the touch panel unit 126, the gesture information “recommended gesture command input operation” and the photographing unit 123 that is regarded as a gesture input operation are used. Gesture information of gesture command operation variations is associated. Note that the gesture command information (JCI) includes commands that can be input using the touch panel unit 126 but cannot perform gesture command operations using the photographing unit 123.
  • the above-described processing unit 190B performs overall control of the entire audio device 100B in the same manner as the above-described processing unit 190A.
  • the processing unit 190B includes a central processing unit (CPU) and its peripheral circuits. When the processing unit 190B executes various programs, some functions of the extraction unit 730 and the presentation unit 750 in the above-described embodiment are realized.
  • the processing unit 190B Upon receiving the shooting data CSD sent from the shooting unit 123, the processing unit 190B performs an analysis process on the data. Then, based on the result of the analysis process, the processing unit 190B refers to the gesture command information (JCI) in the storage unit 130B and specifies an input command. Subsequently, the processing unit 190B extracts gesture information of “recommended gesture command input operation” when a gesture is input using the photographing unit 123. Then, the processing unit 190B generates image data of “recommended gesture command input operation” corresponding to the command input to the photographing unit 123 based on the gesture information of the recommended gesture command input operation. The image data generated in this way is sent to the display unit 160 as an output display signal IMD.
  • JCI gesture command information
  • the processing unit 190B when the processing unit 190B receives the touch panel input data IPD sent from the touch panel unit 126, the processing unit 190B specifies an input command based on the input data IPD. Then, the processing unit 190B refers to the gesture command information (JCI) in the storage unit 130B, and extracts the gesture information of “recommended gesture command input operation” when inputting a gesture using the photographing unit 123. Subsequently, the processing unit 190B generates image data of “recommended gesture command input operation” corresponding to the command input to the touch panel unit 126 based on the gesture information of the recommended gesture command input operation. The image data generated in this way is sent to the display unit 160 as an output display signal IMD.
  • JCI gesture command information
  • processing unit 190B performs a process for generating the presentation information of the recommended gesture command input operation, and performs a process corresponding to the command input to the input unit 120B in the same manner as the processing unit 190A described above.
  • step S21 the processing unit 190B causes the user to perform a command input operation (hereinafter referred to as “gesture” with respect to the photographing unit 123). It is determined whether or not “input operation” is performed. If the result of this determination is affirmative (step S21: Y), the processing unit 190B specifies the input command, and the process proceeds to step S24 described later.
  • a command input operation hereinafter referred to as “gesture” with respect to the photographing unit 123. It is determined whether or not “input operation” is performed. If the result of this determination is affirmative (step S21: Y), the processing unit 190B specifies the input command, and the process proceeds to step S24 described later.
  • step S21: N when the result of the determination in step S21 is negative (step S21: N), the process proceeds to step S22.
  • step S22 as in step S12 in the first embodiment, the processing unit 190B determines whether a touch key operation has been performed on the touch panel unit 126 by the user. If the result of this determination is negative (step S22: N), the process returns to step S21. On the other hand, when the result of the determination in step S22 is affirmative (step S22: Y), the process proceeds to step S23.
  • step S23 the processing unit 190B specifies a command corresponding to the touch key operation, refers to the gesture command information (JCI) in the storage device 130B, and performs a recommended gesture command input operation corresponding to the specified input command. It is determined whether there is information. If the result of this determination is negative (step S23: N), the process proceeds to step S27 described later. On the other hand, when the result of the determination in step S23 is affirmative (step S23: Y), the process proceeds to step S24.
  • JCI gesture command information
  • step S24 the processing unit 190B determines whether or not the recommended gesture command input operation corresponding to the specified input command is presented to the user a predetermined number of times or less. If the result of this determination is negative (step S24: N), the process proceeds to step S27. On the other hand, when the result of the determination in step S24 is affirmative (step S24: Y), the process proceeds to step S25.
  • step S25 the processing unit 190B generates recommended gesture command input operation presentation information.
  • the processing unit 190B refers to the gesture command information (JCI) in the storage unit 130B based on the specified input command, and inputs a recommended gesture command corresponding to the specified input command. Extract gesture information for operations. Then, based on the information or the like, the processing unit 190B generates image data as presentation information of “recommended gesture command input operation”.
  • JCI gesture command information
  • step S26 the processing unit 190B sends the image data to the display unit 160 as an output display signal IMD.
  • the recommended gesture command input operation is displayed as an image on the display device of the display unit 160.
  • the process proceeds to step S27.
  • step S27 as in step S17 in the first embodiment, the processing unit 190B starts processing corresponding to the input command. Thereafter, the process returns to step S21.
  • the processing unit 190B when a user performs a command input operation with a gesture on the photographing unit 123, the processing unit 190B specifies a command corresponding to the command input operation, With reference to the gesture command information (JCI) in the storage unit 130B, the gesture information of the recommended gesture command input operation corresponding to the specified input command is extracted. Then, the processing unit 190B generates image data of “recommended gesture command input operation” based on the gesture information. The recommended voice command input operation generated in this way is displayed on the display unit 160 as an image.
  • JCI gesture command information
  • a recommended gesture command input operation corresponding to the input command can be presented to the user.
  • the processing unit 190B when a user performs a command input operation by touch key operation on the touch panel unit 126, the processing unit 190B specifies a command corresponding to the command input operation, and the storage unit 130B.
  • the utterance information of the recommended gesture command input operation corresponding to the specified input command is extracted with reference to the gesture command information (JCI).
  • the processing unit 190B generates image data of “recommended gesture command input operation” based on the gesture information.
  • the recommended voice command input operation generated in this way is displayed on the display unit 160 as an image.
  • the visual mode is “the gesture performed by the user”, but the visual mode is “the graphic performed by the user”. You may perform deformation
  • a drawing input space 201 that allows a user to input a command by performing “drawing a figure” using one touch panel device 200 is a first command.
  • the touch panel device When the visual aspect is “drawing a graphic performed by the user”, the touch panel device is divided into a drawing input space 201 and a touch key input space 202 as shown in FIG. It is not necessary that the entire touch panel device surface be a drawing input space and a touch key input space.
  • a drawing operation is performed based on a time during which the user's finger (or touch pen) continuously touches the touch panel device surface, a continuous change amount of the touch position, and the like. Or a touch key operation may be discriminated.
  • the touch panel unit having the touch panel device is provided as an input unit for performing definite command input by at least one of the key input operation and the pointing input operation.
  • the input unit through which a typical command is input may include a hard button, a switch, a slider, or the like, or may include a hard button, a switch, a slider, or the like in addition to the touch panel unit.
  • the speech information included in the voice command information in the first embodiment may be in a voice data format or a text format.
  • the voice data may be reproduced and voice guidance of recommended voice command information may be performed.
  • a TTS Text To Speech
  • a TTS Text To Speech
  • the utterance information of “recommended voice command input operation” for each basic command is stored in the storage unit, but a given vocabulary is further stored in the storage unit.
  • the vocabulary information may be stored.
  • the speech data and the character string data may be generated by synthesizing the utterance information and the vocabulary such as the song name in the vocabulary information.
  • the difference between the voice input operation performed using the sound pickup unit 121 and the recommended voice command input operation corresponding to the voice input operation is evaluated, and the result of the evaluation In the case where is larger than a predetermined threshold, presentation information of a recommended voice command input operation may be generated.
  • the difference between the gesture input operation performed using the photographing unit 123 and the recommended gesture command input operation corresponding to the gesture input operation is evaluated, and the result of the evaluation is a predetermined threshold value. If it is larger than this, the presentation information of the recommended gesture command input operation may be generated.
  • step S11 it is determined in step S11 whether or not a voice input operation has been performed by the user. However, the processing in step S11 is omitted when designated by the user. May be. In this case, since a recommended voice command input operation corresponding to the touch key operation is presented to the user, it is possible to learn a voice command for a new purchaser or the like of the processing apparatus.
  • step S14 it is determined in step S14 whether or not the recommended voice command input operation corresponding to the specified input command is presented to the user a predetermined number of times or less. Depending on the designation by the user, the processing in step S14 may be omitted. In this case, a recommended voice command input operation corresponding to the input command can be always presented to the user.
  • step S21 it is determined whether or not a gesture input operation has been performed by the user. However, the processing in step S21 is omitted when designated by the user. May be. In this case, since the recommended gesture command input operation corresponding to the touch key operation is presented to the user, it is possible to learn the gesture command for a new purchaser or the like of the processing apparatus.
  • step S24 it is determined whether or not the recommended gesture command input operation corresponding to the specified input command is presented to the user a predetermined number of times or less. Depending on the designation by the user, the processing in step S24 may be omitted. In this case, a recommended gesture command input operation corresponding to the input command can be always presented to the user.
  • the present invention is applied to an audio device.
  • the present invention can be applied to a navigation device, a television receiver installed in a home, and the like. is there.
  • a part of the functions of the extraction unit and the presentation unit is realized by execution of a program by a computer. You may make it comprise with the hardware which used LSI (Large

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 利用者により入力部710に対してコマンド入力操作が行われると、コマンド入力の結果が抽出部730へ送られる。抽出部730では、コマンド入力操作に対応するコマンドを特定し、記憶部720を参照して、特定されたコマンドに対応する視覚的態様及び聴覚的態様の少なくとも一方の所定態様での推奨コマンド入力操作の情報を抽出する。そして、提示部750が、推奨コマンド入力操作の情報に基づいて、入力部710に入力されたコマンドに対応する推奨コマンド入力操作を利用者に提示する。この結果、視覚的態様や聴覚的態様の所定態様でのコマンド入力操作を適切に支援することができる。

Description

処理装置及びコマンド入力支援方法
 本発明は、処理装置、コマンド入力支援方法、コマンド入力支援プログラム、及び、当該コマンド入力支援プログラムが記録された記録媒体に関する。
 従来から、様々な処理装置が、利用者に提供されている。こうした処理装置の中に、利用者が発話した音声を認識し、当該音声認識の結果に基づいて各種処理を実行するものがある。こうした音声によるコマンド入力を用いる処理装置を使用することにより、利用者による表示装置の視認回数やタッチキー操作等の手動操作の回数を大幅に減少させることが可能となる。このため、車両運転者による表示装置の視認や手動操作等により運転への影響が懸念される車載装置においては、多くの機種において、コマンド入力の方法として音声入力が用いられるようになっている。
 こうした音声認識の結果に基づく処理を行う技術の一例として、利用者による音声の入力時に、その入力操作を補助するスイッチを表示装置に表示する。そして、利用者により当該スイッチが選択されたときに、選択されたスイッチに応じて、音声コマンドリストの表示や音声入力に関するガイダンスの表示等の補助機能を実行し、音声によるコマンド入力を支援するものがある(特許文献1参照:以下、「従来例」と呼ぶ)。
特開2004-37998号公報
 上述した従来例の技術では、音声によるコマンド入力の支援を受けるためには、当該支援を受けるために定められているスイッチを操作しなければならない。また、従来例の技術では、音声コマンドリストを表示装置に表示することから、表示された音声コマンドの読み方、発音又はイントネーション(抑揚)が分らないときには、利用者に対して有効な音声コマンドの提示を行っているとは言い難い。また、音声コマンドリストを表示する方法では、利用者の発音の訛りが原因で正しく音声認識されていない場合に、利用者に対して有効な音声コマンドの提示を行っているとは言い難い。
 このため、音声入力等の所定態様でのコマンド入力操作の支援を受ける際に、特別なスイッチ操作のように利用者にとって面倒に感じられる操作を不要としつつ、所定態様でのコマンド入力操作の支援を有効に行うことのできる技術が待望されている。かかる要請に応えることが、本発明が解決すべき課題の一つとして挙げられる。
 本発明は、上記の事情を鑑みてなされたものであり、聴覚的態様や視覚的態様でのコマンド入力操作を適切に支援することができる新たな処理装置及びコマンド入力支援方法を提供することを目的とする。
 本発明は、第1の観点からすると、入力されたコマンドに対応した処理を行う処理装置であって、聴覚的態様及び視覚的態様の少なくとも一方である所定態様でのコマンド入力操作によりコマンドの入力が行われる第1コマンド入力部を含む入力部と;前記第1コマンド入力部を利用した入力可能なコマンドごとに、前記所定態様での推奨コマンド入力操作の情報を記憶する記憶部と;前記入力部を利用したコマンド入力がなされたとき、前記入力されたコマンドに基づいて前記記憶部を参照し、前記入力されたコマンドを、前記第1コマンド入力部を利用して入力する場合の推奨コマンド入力操作の情報を抽出する抽出部と;前記抽出された推奨コマンド入力操作の情報に基づいて、前記入力されたコマンドに対応する推奨コマンド入力操作を前記利用者へ提示する提示部と;を備える処理装置である。
 本発明は、第2の観点からすると、聴覚的態様及び視覚的態様の少なくとも一方である所定態様でのコマンド入力操作によりコマンドの入力が行われる第1コマンド入力部を含む入力部と;前記第1コマンド入力部を利用した入力可能なコマンドごとに、前記所定態様での推奨コマンド入力操作の情報を記憶する記憶部と;を備え、入力されたコマンドに対応した処理を行う処理装置において使用されるコマンド入力支援方法であって、前記入力部を利用したコマンド入力がなされたとき、前記入力されたコマンドに基づいて前記記憶部を参照し、前記入力されたコマンドを、前記第1コマンド入力部を利用して入力する場合の推奨コマンド入力操作の情報を抽出する抽出工程と;前記抽出された推奨コマンド入力操作の情報に基づいて、前記入力されたコマンドに対応する推奨コマンド入力操作を前記利用者へ提示する提示工程と;を備えるコマンド入力支援方法である。
 本発明は、第3の観点からすると、本発明のコマンド入力支援方法を演算部に実行させる、ことを特徴とするコマンド入力支援プログラムである。
 本発明は、第4の観点からすると、本発明のコマンド入力支援プログラムが、演算部により読み取り可能に記録されている、ことを特徴とする記録媒体である。
本発明の一実施形態に係る処理装置の構成を説明するためのブロック図である。 本発明の第1実施例に係る音響装置の構成を概略的に説明するためのブロック図である。 図2の音声コマンド情報(ACI)の内容を説明するための図である。 図2の音響装置による推奨音声コマンド入力操作の支援処理を説明するためのフローチャートである。 本発明の第2実施例に係る音響装置の構成を概略的に説明するためのブロック図である。 図5の音響装置による推奨ジェスチャコマンド入力操作の支援処理を説明するためのフローチャートである。 一変形例におけるタッチパネルデバイスにおける入力スペースの分割例を示す図である。
 以下、本発明の一実施形態を、図1を参照して説明する。なお、以下の説明においては、同一又は同等の要素には同一の符号を付し、重複する説明を省略する。
 [構成]
 図1には、一実施形態に係る処理装置700の概略的な構成が示されている。
 この図1に示されるように、処理装置700は、入力部710と、記憶部720と、抽出部730と、提示部750と、コマンド実行部760とを備えている。
 上記の入力部710は、利用者からのコマンド入力を受ける。そして、入力部710は、当該コマンド入力の結果を、抽出部730へ送る。本実施形態では、入力部710は、第1コマンド入力部711と、第2コマンド入力部712とを備えている。
 上記の第1コマンド入力部711は、聴覚的態様及び視覚的態様の少なくとも一方である所定態様でのコマンド入力操作により、コマンド入力が行われる入力部である。ここで、聴覚的態様でコマンド入力操作が行われる場合には、当該聴覚的態様を、「利用者が発話する音声」とすることができる。この場合には、第1コマンド入力部711は、利用者が発話した音声を収音する収音デバイスを備えるようにする。
 また、視覚的態様でコマンド入力操作が行われる場合には、当該視覚的態様を、「利用者が行うジェスチャ」又は「利用者が行う少なくとも1つの所定形状の図形の描画」とすることができる。ジェスチャによるコマンド入力方法を採用する場合には、第1コマンド入力部711は、利用者が行うジェスチャを撮影する撮影デバイスを備えるようにする。また、図形の描画によるコマンド入力方法を採用する場合には、第1コマンド入力部711は、描画入力操作が行われるタッチパネル等の描画入力デバイスを備えるようにする。なお、「利用者が行うジェスチャ」には、利用者の身体全体の動きや、利用者の指先の動き等が挙げられる。また、描画入力デバイスに対して行う描画入力操作は、タッチペンで行うようにしてもよいし、利用者の指で行うようにしてもよい。
 上記の第2コマンド入力部712では、キー入力操作及びポインティング入力操作の少なくとも一方により確定的なコマンド入力が行われる入力部である。ここで、第2コマンド入力部712を利用したコマンド入力操作としては、例えば、タッチパネルに対するタッチキー操作が挙げられる。この場合には、第2コマンド入力部712は、タッチパネルデバイスを備えるようにする。なお、「キー入力操作」には、情報入力用のボタン操作やスイッチ操作も含まるものとする。
 なお、上述のように構成されている入力部710では、第1コマンド入力部711を利用した場合には、利用者の個性に応じた個人差のある態様でのコマンド入力操作が行われる。一方、第2コマンド入力部712を利用した場合には、利用者の個性にかかわらず、確定的なコマンド入力が可能なコマンド入力操作が行われる。
 なお、「図形の描画」によるコマンド入力方法を採用する場合には、第2コマンド入力部712が備える描画入力デバイスをタッチパネルデバイスとし、第1コマンド入力部711及び第2コマンド入力部712は、同一のタッチパネルデバイスから構成されるようにしてもよい。この場合は、タッチパネルデバイスには、利用者が「図形の描画」を行うことによりコマンド入力ができるような描画入力スペースが第1コマンド入力部711として設けられ、利用者がタッチ(押す動作)する操作により確定的なコマンド入力ができるようなタッチキー入力スペースが第2コマンド入力部712として設けられる。
 上記の記憶部720は、不揮発性の記憶領域を有している。この記憶部720には、抽出部730がアクセス可能となっている。記憶部720の当該記憶領域には、第1コマンド入力部711を利用して入力可能なコマンドごとに、当該コマンドと、所定態様での当該コマンドの入力操作であるとみなす第1コマンド入力部711へのコマンド入力操作のバリエーションと、所定態様での「推奨コマンド入力操作」とが関連付けられて記憶されている。ここで、当該所定態様が「音声」である場合には、コマンド入力操作のバリエーション及び推奨コマンド入力操作の情報は、発話情報となっている。また、当該所定態様が、「利用者が行うジェスチャ」である場合には、コマンド入力操作のバリエーション及び推奨コマンド入力操作の情報は、ジェスチャ情報となっている。また、当該所定態様が、「利用者が行う図形の描画」である場合には、コマンド入力操作のバリエーション及び推奨コマンド入力操作の情報は、図形情報となっている。
 また、記憶部720の当該記憶領域には、第2コマンド入力部712を利用して入力可能なコマンドごとに、当該コマンドと、第1コマンド入力部711を利用した所定態様での当該コマンドの入力操作である「推奨コマンド入力操作」とが関連付けられて記憶されている。なお、第2コマンド入力部712を利用して入力可能なコマンドは、第1コマンド入力部711を利用して入力可能なコマンドの全てを含むとともに、第1コマンド入力部711を利用して入力できないコマンドも含んでいる。
 上記の抽出部730は、入力部710を利用したコマンド入力操作の結果を受ける。引き続き、抽出部730は、当該コマンド入力操作に対応するコマンドの特定を行う。
 そして、抽出部730は、特定されたコマンドをコマンド実行部760へ送る。また、抽出部730は、特定されたコマンドに基づいて記憶部720を参照し、第1コマンド入力部711を利用して特定されたコマンドを入力する場合の「推奨コマンド入力操作」の情報を抽出する。抽出部730による抽出結果は、提示部750へ送られる。
 ここで、利用者により第1コマンド入力部711に対して行われた所定態様でのコマンド入力操作の結果を受けると、抽出部730は、当該コマンド入力操作の結果に基づいて記憶部720内を参照して、入力コマンドの特定を行う。そして、抽出部730は、提示部750からの提示終了報告を受けた後にコマンド実行をすべき旨とともに、特定されたコマンドをコマンド実行部760へ送る。引き続き、抽出部730は、第1コマンド入力部711を利用して特定されたコマンドを入力する場合の「推奨コマンド入力操作」の情報を抽出し、抽出された情報を提示部750へ送る。
 なお、当該コマンド入力操作の結果に基づいてでは、入力コマンドの特定ができなかった場合には、抽出部730は、その後における処理を実行せず、新たなコマンド入力操作の結果を待つようになっている。
 また、利用者により第2コマンド入力部712に対して行われたコマンド入力操作の結果を受けると、抽出部730は、当該コマンド入力操作に対応する入力コマンドの特定を行う。引き続き、抽出部730は、記憶部720内を参照して、特定された入力コマンドが第1コマンド入力部711を利用して入力可能なコマンドであるか否かを判定する。そして、この判定の結果が否定的であった場合には、抽出部730は、直ちにコマンド実行をすべき旨とともに、特定されたコマンドをコマンド実行部760へ送る。
 一方、当該判定の結果が肯定的であった場合には、抽出部730は、提示部750からの提示終了報告を受けた後にコマンド実行をすべき旨とともに、特定されたコマンドをコマンド実行部760へ送る。引き続き、抽出部730は、第1コマンド入力部711を利用して特定されたコマンドを入力する場合の「推奨コマンド入力操作」の情報を抽出し、抽出された情報を提示部750へ送る。
 上記の提示部750は、抽出部730による抽出結果である推奨コマンド入力操作の情報を受ける。そして、提示部750は、抽出された推奨コマンド入力操作の情報に基づいて、入力部710に入力されたコマンドに対応する「推奨コマンド入力操作」の提示情報を生成する。ここで、所定態様が「音声」である場合には、当該提示情報は、発話情報を音声にした音声データ、及び/又は、発話情報を文字列にした文字列データとすることができる。また、所定態様が「利用者が行うジェスチャ」である場合には、当該提示情報は、ジェスチャ情報を画像にした画像データとすることができる。また、所定態様が「利用者が行う図形の描画」である場合には、当該提示情報は、図形情報を画像にした画像データとすることができる。
 引き続き、提示部750は、当該提示情報に従って、入力部710に入力されたコマンドに対応する「推奨コマンド入力操作」を利用者に提示する。ここで、所定態様が「音声」である場合には、提示部750は、音声出力部、及び/又は、画像表示部を備え、音声出力及び文字列表示の少なくとも一方により、推奨コマンド入力操作を利用者に提示する。
 また、所定態様が「利用者が行うジェスチャ」又は「利用者が行う図形の描画」である場合には、提示部750は、画像表示部を備え、画像表示により、推奨コマンド入力操作を利用者に提示する。
 こうして、利用者への推奨コマンド入力操作の提示が終了すると、提示部750は、提示終了報告をコマンド実行部760へ送る。
 上記のコマンド実行部760は、抽出部730から送られたコマンドを受ける。そして、当該コマンドとともに、直ちにコマンド実行をすべき旨の指定を受けた場合には、コマンド実行部760は、当該コマンドに対応する処理の実行を直ちに開始する。一方、当該コマンドとともに、提示部750からの提示終了報告を受けた後にコマンド実行をすべき旨の指定を受けた場合には、コマンド実行部760は、提示部750からの提示終了報告を受けた後に、当該コマンドに対応する処理の実行を開始する。
 [動作]
 上記のように構成された処理装置700において実行されるコマンド入力支援方法について、説明する。
 <推奨コマンド入力操作の情報の抽出処理>
 まず、処理装置700による「推奨コマンド入力操作」の情報の抽出処理について説明する。
 この「推奨コマンド入力操作」の情報の抽出処理は、入力部710が、利用者からのコマンド入力を受け、当該コマンド入力操作の結果を抽出部730へ送ることにより開始される。
 利用者により、第1コマンド入力部711に対して、聴覚的態様及び視覚的態様の少なくとも一方である所定態様でのコマンド入力操作が実行されると、抽出部730が、記憶部720内を参照して、当該実行されたコマンド入力操作に対応する入力コマンドの特定を行う。そして、抽出部730は、特定された入力コマンドに基づいて、当該特定された入力コマンドに対応する推奨コマンド入力操作の情報を抽出する。こうして抽出された推奨コマンド入力操作の情報は、提示部750へ送られる。また、抽出部730は、提示部750からの提示終了報告を受けた後にコマンド実行をすべき旨とともに、特定されたコマンドをコマンド実行部760へ送る。
 また、利用者により、第2コマンド入力部712に対して、キー入力操作及びポインティング入力操作の少なくとも一方により確定的なコマンド入力操作が実行されると、抽出部730が、当該実行されたコマンド入力操作に対応する入力コマンドの特定を行う。そして、抽出部730は、特定された入力コマンドに基づいて記憶部720内を参照し、特定された入力コマンドが第1コマンド入力部711を利用して入力可能なコマンドであるか否かを判定する。この判定の結果が否定的であった場合には、抽出部730は、直ちにコマンド実行をすべき旨とともに、特定されたコマンドをコマンド実行部760へ送る。
 一方、当該判定の結果が肯定的であった場合には、抽出部730は、特定された入力コマンドに対応する推奨コマンド入力操作の情報を抽出する。こうして抽出された推奨コマンド入力操作の情報は、提示部750へ送られる。また、抽出部730は、提示部750からの提示終了報告を受けた後にコマンド実行をすべき旨とともに、特定されたコマンドをコマンド実行部760へ送る。
 <推奨コマンド入力操作の提示処理>
 次に、「推奨コマンド入力操作」の提示処理について説明する。
 提示部750が、抽出部730から送られた推奨コマンド入力操作の情報を受けると、当該情報に基づいて、入力部710に入力されたコマンドに対応する「推奨コマンド入力操作」を利用者へ提示する。かかる提示処理に際して、所定態様が「音声」である場合には、提示部750は、発話情報を音声にした音声データ、及び/又は、発話情報を文字列にした文字列データを生成し、音声出力及び文字列表示の少なくとも一方により、推奨コマンド入力情報を利用者に提示する。
 また、所定態様が「利用者が行うジェスチャ」である場合には、提示部750は、ジェスチャ情報を画像にした画像データを生成し、画像表示により、推奨コマンド入力情報を利用者に提示する。さらに、所定態様が、「利用者が行う図形の描画」である場合には、提示部750は、図形情報を画像にした画像データを生成し、画像表示により、推奨コマンド入力情報を利用者に提示する。
 こうして推奨コマンド入力操作が提示された後に、コマンド実行部760が、コマンドに対応する処理の実行を開始する。
 以上説明したように、本実施形態では、利用者により第1コマンド入力部711に対して、聴覚的態様及び視覚的態様の少なくとも一方である所定態様でのコマンド入力操作が行われると、コマンド入力操作の結果が抽出部730へ送られる。抽出部730では、記憶部720を参照して、当該コマンド入力操作に対応する入力コマンドを特定し、特定された入力コマンドに対応する推奨コマンド入力操作の情報を抽出する。また、抽出部730は、提示部750からの提示終了報告を受けた後にコマンド実行をすべき旨とともに、特定されたコマンドをコマンド実行部760へ送る。引き続き、提示部750が、推奨コマンド入力操作の情報に基づいて、第1コマンド入力部711に入力されたコマンドに対応する「推奨コマンド入力操作」を利用者に提示する。こうして推奨コマンド入力操作が提示された後に、コマンド実行部760が、コマンドに対応する処理の実行を開始する。
 このように本実施形態では、利用者により第1コマンド入力部711に対して所定態様でのコマンド入力操作が行われた際に、第1コマンド入力部711に入力されたコマンドに対応する推奨コマンド入力操作を利用者に適切に提示することができる。
 また、本実施形態では、利用者により第2コマンド入力部712に対して、キー入力操作及びポインティング入力操作の少なくとも一方により確定的なコマンド入力操作が行われると、抽出部730が、当該コマンド入力操作に対応する入力コマンドを特定する。そして、抽出部730は、特定された入力コマンドに基づいて記憶部720内を参照し、特定された入力コマンドが第1コマンド入力部711を利用して入力可能なコマンドであるか否かを判定する。この判定の結果が否定的であった場合には、抽出部730は、直ちにコマンド実行をすべき旨とともに、特定されたコマンドをコマンド実行部760へ送る。そして、特定されたコマンドを受けたコマンド実行部760が、当該コマンドに対応する処理を直ちに開始する。
 一方、当該判定の結果が肯定的であった場合には、抽出部730は、特定された入力コマンドに対応する推奨コマンド入力操作の情報を抽出する。また、抽出部730は、提示部750からの提示終了報告を受けた後にコマンド実行をすべき旨とともに、特定されたコマンドをコマンド実行部760へ送る。引き続き、提示部750が、推奨コマンド入力操作の情報に基づいて、第2コマンド入力部712に入力されたコマンドに対応する「推奨コマンド入力操作」を利用者に提示する。こうして推奨コマンド入力操作が提示された後に、コマンド実行部760が、コマンドに対応する処理の実行を開始する。
 このため、本実施形態では、キー入力操作及びポインティング入力操作の少なくとも一方による確定的なコマンド入力操作に対応する所定態様でのコマンド入力操作を利用者に提示することができる。
 したがって、本発明の実施形態によれば、視覚的態様や聴覚的態様の所定態様でのコマンド入力操作を適切に支援することができる。
 なお、上記の実施形態では、提示部750による推奨コマンド入力操作の提示の回数に制限を設けなかったが、提示部750は、所定回数を限度として同一のコマンドに対応する推奨コマンド入力操作の提示を行うようにしてもよい。この場合には、提示部750による推奨コマンド入力操作の提示が行われないときには、提示部750が、提示終了報告をコマンド実行部760へ送る。
 また、提示部750が、第1コマンド入力部711を利用して行われたコマンド入力操作と、抽出部730により抽出された推奨コマンド入力操作との差異の評価を行うようにするとともに、当該評価の結果が所定閾値よりも大きな場合に、入力されたコマンドに対応する推奨コマンド入力操作の提示を行うようにしてもよい。この場合にも、提示部750による推奨コマンド入力操作の提示が行われないときには、提示部750が、提示終了報告をコマンド実行部760へ送る。
 また、上記の実施形態では、抽出部730は、推奨コマンド入力操作の提示後にコマンド実行すべく、提示部750からの提示終了報告を受けた後にコマンド実行をすべき旨とともに特定されたコマンドをコマンド実行部760へ送るようにした。これに対して、推奨コマンド入力操作の提示をコマンド実行の後に行うようにし、抽出部730は、直ちにコマンド実行をすべき旨とともに、特定されたコマンドをコマンド実行部760へ送るようにしてもよい。この場合には、コマンド実行が終了した後に、抽出部730が、第1コマンド入力部711を利用して特定されたコマンドを入力する場合の「推奨コマンド入力操作」の情報を抽出し、抽出された情報を提示部750へ送ることになる。
 また、上記の実施形態では、抽出部730は、提示部750からの提示終了報告を受けた後にコマンド実行をすべき旨とともに、特定されたコマンドをコマンド実行部760へ送るようにした。これに対して、推奨コマンド入力操作の提示にあたっての資源利用と、特定されたコマンドの実行にあたっての資源利用との間で、同一資源に対する利用の競合がおきない場合には、抽出部730が、直ちにコマンド実行をすべき旨とともに、特定されたコマンドを、コマンド実行部760へ送るようにしてもよい。
 また、実施形態の処理装置700を、演算部としてのコンピュータを備えて構成し、抽出部730及び提示部750の一部の機能を、プログラムを実行することにより実現するようにすることができる。これらのプログラムは、CD-ROM,DVD等の可搬型記録媒体に記録された形態で取得されるようにしてもよいし、インターネットなどのネットワークを介した配信の形態で取得されるようにすることができる。
 以下、本発明の音響装置の実施例を、図2~図6を参照して説明する。なお、以下の説明及び図面においては、同一又は同等の要素については同一の符号を付し、重複する説明を省略する。
 [第1実施例]
 まず、本発明の第1実施例を、図2~図4を主に参照して説明する。
 <構成>
 図2には、第1実施例に係る処理装置としての機能を有する音響装置100Aの概略的な構成が示されている。なお、音響装置100Aは、上述した一実施形態の処理装置700(図1参照)の一態様となっている。
 図2に示されるように、音響装置100Aは、音源部110と、入力部710としての入力部120Aと、記憶部720としての記憶部130Aと、抽出部730及び提示部750の一部としての処理部190Aとを備えている。また、音響装置100Aは、提示部750の一部としての音出力部150と、提示部750の一部としての表示部160とを備えている。
 上記の音源部110は、音声コンテンツが記録されたDVD(Digital Versatile Disk)等の記録媒体が挿入されると、音声コンテンツの曲名等のコンテンツ情報CTIを、処理部190Aへ送る。そして、音源部110は、処理部190Aから音声コンテンツの再生指令DVCを受けると、当該再生指令DVCにより再生指定がなされた音声コンテンツデータ信号CTDを出力する。こうして音源部110から出力された音声コンテンツデータ信号CTDは、処理部190Aへ送られる。
 上記の入力部120Aは、本第1実施例では、第1コマンド入力部711としての収音部121と、第2コマンド入力部712としてのタッチパネル部126とを備えている。
 上記の収音部121は、聴覚的態様である「音声」でのコマンド入力操作により、コマンド入力が行われる入力部である。収音部121は、収音デバイス122を備えて構成され、収音デバイス122により、利用者の発話を収音する。そして、収音部121は、収音結果を収音データASDとして、処理部190Aへ送る。
 上記のタッチパネル部126は、タッチパネルに対するタッチキー操作により、コマンド入力が行われる入力部である。タッチパネル部126は、タッチパネルデバイス127と、当該タッチパネルデバイス127を駆動する不図示の駆動回路等を備えて構成される。タッチパネルデバイス127は、後述する表示デバイスの表示面上に配設されている。駆動回路は、タッチパネルデバイス127に対して行われたタッチキー操作の位置に関するデータを取得する。タッチパネル部126へのコマンド入力操作の結果は、タッチパネル入力データIPDとして、処理部190Aへ向けて送られる。
 上記の記憶部130Aは、不揮発性の記憶装置であるハードディスク装置等から構成される。記憶部130Aは、音声コマンド情報(ACI)等の様々なデータを記憶する。この記憶部130Aには、処理部190Aがアクセスできるようになっている。
 上記の音声コマンド情報(ACI)では、図3に示されるように、タッチパネル部126を利用して入力可能な基本コマンド(TCMD)ごとに、「推奨音声コマンド入力操作」の発話情報、及び、音声入力操作であるとみなす収音部121への音声コマンド操作のバリエーションの発話情報が関連付けられている。例えば、コマンド「tcmd_AAA」の推奨音声コマンド入力操作の発話が『AAA』であるときには、音声コマンドの発話情報として「AAA」、「AAa」、「AAB」、「EFG」等が用意されている。ここで、「AAA」と「AAa」とは、語尾のアクセントが異なっているものとする。また、「AAA」と「AAB」とは、語尾の発話語が異なっているものとする。また、「AAA」と「EFG」とは同じ内容の意味であるが、両者の発話が全く異なっているものとする。なお、本第1実施例では、発話「AAA」は「プレイ」であり、発話「EFG」は「スタート」であるとする。
 また、音声コマンド情報(ACI)には、コマンド(tcmd_ZZZ)のように、タッチパネル部126を利用して入力可能であるが、収音部121を利用して音声コマンド操作を行えないコマンドも含まれている。
 上記の音出力部150は、スピーカを備えて構成され、処理部190Aから送られた出力音声信号AOSに対応する音声を出力する。この音出力部150は、処理部190Aによる制御のもとで、「推奨音声コマンド入力操作」の音声出力、再生した音声コンテンツの音声出力等を行う。
 上記の表示部160は、液晶パネル等の表示デバイスを備えて構成され、処理部190Aから送られた出力表示信号IMDを受ける。そして、表示部160は、出力表示信号IMDに従って、画像を表示する。この表示部160は、処理部190Aによる制御のもとで、「推奨音声コマンド入力操作」のテキスト表示、操作ガイダンス情報などの画像表示等を行う。
 上記の処理部190Aは、音響装置100Aの全体を統括制御する。この処理部190Aは、中央処理装置(CPU)及びその周辺回路を備えて構成されている。処理部190Aが様々なプログラムを実行することにより、上述した一実施形態における抽出部730及び提示部750の一部の機能が実現されるようになっている。
 この処理部190Aは、収音部121から送られた収音データASDを受けると、利用者の発話を音声認識する。そして、処理部190Aは、当該音声認識の結果に基づいて、記憶部130A内の音声コマンド情報(ACI)を参照し、入力コマンドの特定を行う。引き続き、処理部190Aは、収音部121を利用して音声入力する場合の「推奨音声コマンド入力操作」の発話情報を抽出する。また、処理部190Aは、音源部110に音声コンテンツを記録した記録媒体が挿入されたときに、音源部110から音声コンテンツの曲名等のコンテンツ情報CTIを受ける。そして、処理部190Aは、推奨音声コマンド入力操作の発話情報及びコンテンツ情報CTIに基づいて、収音部121に音声入力されたコマンドに対応する「推奨音声コマンド入力操作」の音声データ及び文字列データを生成する。
 例えば、利用者が、収音部121に向けて、『スタート、XYZ(曲名)。』と発話したとする。このとき、処理部190Aは、記憶部130A内の音声コマンド情報(ACI)にアクセスし、推奨音声コマンド入力操作の発話情報として『プレイ』を抽出する。また、処理部190Aは、『XYZ(曲名)』をコンテンツ情報CTIから抽出する。そして、処理部190Aは、『プレイ』と『XYZ(曲名)』とを合成して、『プレイ、XYZ(曲名)。』となる音声データ及び文字列データを生成する。こうして生成された音声データは、出力音声信号AOSとして音出力部150へ送られる。また、生成された文字列データは、出力表示信号IMDとして表示部160へ送られる。
 また、処理部190Aは、タッチパネル部126から送られたタッチパネル入力データIPDを受けると、当該入力データIPDに基づいて、入力コマンドの特定を行う。そして、処理部190Aは、記憶部130A内の音声コマンド情報(ACI)を参照して、収音部121を利用して音声入力する場合の「推奨音声コマンド入力操作」の発話情報を抽出する。引き続き、処理部190Aは、推奨音声コマンド入力操作の発話情報及びタッチパネル入力データIPDに基づいて、タッチパネル部126に入力されたコマンドに対応する「推奨音声コマンド入力操作」の音声データ及び文字列データを生成する。こうして生成された音声データは、出力音声信号AOSとして音出力部150へ送られる。また、生成された文字列データは、出力表示信号IMDとして表示部160へ送られる。
 処理部190Aは、こうした推奨音声コマンド入力操作の提示情報の生成処理を行うとともに、入力部120Aに入力されたコマンドに対応した処理を行う。処理部190Aが行うかかる処理としては、例えば、音声コンテンツの再生処理が挙げられる。音声コンテンツの再生処理を行う際には、処理部190Aは、入力部120Aから音声コンテンツの再生指定を受けた場合に、再生指定された音声コンテンツの再生指令DVCを音源部110へ送る。そして、処理部190Aは、再生すべき音声コンテンツに対応する音声コンテンツデータ信号CTDを音源部110から読み出して、デジタル音データ信号を生成し、所定の処理を施して、音出力部150へ送る出力音声信号AOSを生成する。
 また、処理部190Aが行う入力部120Aに入力されたコマンドに対応した処理としては、イコライザ処理、音量調整処理、再生している音声コンテンツの停止処理等が挙げられる。
 <動作>
 以上のようにして構成された音響装置100Aの動作について、推奨音声コマンド入力操作の支援処理に主に着目して説明する。
 かかる推奨音声コマンド入力操作の支援処理に際して、図4に示されるように、まず、ステップS11において、処理部190Aが、利用者により収音部121に対して音声でのコマンド入力操作(以下、「音声入力操作」とも記す)が行われたか否かを判定する。この判定の結果が肯定的であった場合(ステップS11:Y)には、処理部190Aが入力されたコマンドを特定し、処理は後述するステップS14へ進む。
 一方、ステップS11における判定の結果が否定的であった場合(ステップS11:N)には、処理はステップS12へ進む。ステップS12では、処理部190Aが、利用者によりタッチパネル部126に対してタッチキー操作が行われたか否かを判定する。この判定の結果が否定的であった場合(ステップS12:N)には、処理はステップS11へ戻る。一方、ステップS12における判定の結果が肯定的であった場合(ステップS12:Y)には、処理はステップS13へ進む。
 ステップS13では、処理部190Aが、タッチキー操作に対応する入力コマンドを特定し、記憶装置130A内の音声コマンド情報(ACI)を参照して、特定された入力コマンドに対応する推奨音声コマンド入力操作の情報があるか否かを判定する。この判定の結果が否定的であった場合(ステップS13:N)には、処理は後述するステップS17へ進む。例えば、特定された入力コマンドが、「tcmd_ZZZ」であるときには、ステップS13における判定の結果は否定的となる。一方、ステップS13における判定の結果が肯定的であった場合(ステップS13:Y)には、処理はステップS14へ進む。
 ステップS14では、処理部190Aが、特定された入力コマンドに対応する推奨音声コマンド入力操作の利用者への提示が、所定回数以下であるか否かを判定する。この判定の結果が否定的であった場合(ステップS14:N)には、処理はステップS17へ進む。一方、ステップS14における判定の結果が肯定的であった場合(ステップS14:Y)には、処理はステップS15へ進む。
 ステップS15では、処理部190Aが、推奨音声コマンド入力操作の提示情報を生成する。この提示情報の生成に際して、まず、処理部190Aが、特定された入力コマンドに基づいて記憶部130A内の音声コマンド情報(ACI)を参照し、当該特定された入力コマンドに対応する推奨音声コマンド入力操作の発話情報を抽出する。そして、処理部190Aは、当該情報等に基づいて、「推奨音声コマンド入力操作」の提示情報として、音声データ及び文字列データを生成する。
 引き続き、ステップS16において、処理部190Aが、音声データを出力音声信号AOSとして音出力部150へ送るとともに、文字列データを出力表示信号IMDとして表示部160へ送る。この結果、推奨音声コマンド入力操作が、音出力部150のスピーカにより音声案内されるとともに、表示部160の表示デバイスに画像表示される。この後、処理はステップS17へ進む。
 ステップS17では、処理部190Aが、入力されたコマンドに対応した処理を開始する。この後、処理はステップS11へ戻る。
 上記の処理が実行されることにより、推奨音声コマンド入力操作の支援処理が行われる。
 以上説明したように、本第1実施例では、利用者により収音部121に対して音声でのコマンド入力操作が行われると、処理部190Aが、当該コマンド入力操作に対応するコマンドを特定し、記憶部130A内の音声コマンド情報(ACI)を参照して、特定された入力コマンドに対応する推奨音声コマンド入力操作の発話情報を抽出する。そして、処理部190Aは、当該発話情報に基づき、「推奨音声コマンド入力操作」の音声データ及び文字列データを生成する。こうして生成された推奨音声コマンド入力操作が、音出力部150により音声案内されるとともに、表示部160に文字列表示される。
 このため、本第1実施例では、利用者により音声でのコマンド入力操作が行われた際に、入力されたコマンドに対応する推奨音声コマンド入力操作を利用者に提示することができる。
 また、本第1実施例では、利用者によりタッチパネル部126に対してタッチキー操作によりコマンド入力操作が行われると、処理部190Aが、当該コマンド入力操作に対応するコマンドを特定し、記憶部130A内の音声コマンド情報(ACI)を参照して、特定された入力コマンドに対応する推奨音声コマンド入力操作の発話情報を抽出する。そして、処理部190Aは、当該発話情報に基づき、「推奨音声コマンド入力操作」の音声データ及び文字列データを生成する。こうして生成された推奨音声コマンド入力操作が、音出力部150により音声案内されるとともに、表示部160に文字列表示される。
 このため、タッチキー操作に対応する利用者が覚えていない可能性のある推奨音声コマンド入力操作を利用者に提示することができる。
 したがって、本第1実施例によれば、音声でのコマンド入力操作を適切に支援することができる。
 [第2実施例]
 次に、本発明の第2実施例を、図5及び図6を主に参照して説明する。
 <構成>
 図5には、第2実施例に係る処理装置としての機能を有する音響装置100Bの概略的な構成が示されている。なお、音響装置100Bは、第1実施例に係る音響装置100Aと同様に、上述した一実施形態の処理装置700の一態様となっている。
 図5に示されるように、音響装置100Bは、上述した第1実施例の音響装置100Aと比べて、入力部120Aに代えて入力部120Bを備える点、記憶部130Aに代えて記憶部130Bを備える点、及び、処理部190Aに代えて処理部190Bを備える点が異なっている。以下、これらの相違点に主に着目して、説明を行う。
 上記の入力部120Bは、上述した入力部120Aと比べて、収音部121に代えて第1コマンド入力部711としての撮影部123を備える点が異なっている。
 上記の撮影部123は、視覚的態様である「ジェスチャ」でのコマンド入力操作により、コマンド入力が行われる入力部である。ここで、ジェスチャには、利用者の身体全体の動きや、利用者の指先の動きが挙げられる。撮影部123は、撮影デバイス124を備えて構成され、撮影デバイス124により、音響装置100Bの利用者のジェスチャを撮影する。そして、撮影部123は、撮影結果を撮影データCSDとして、処理部190Bへ送る。
 上記の記憶部130Bは、上述した記憶部130Aと同様に、不揮発性の記憶装置であるハードディスク装置等から構成される。この記憶部130Bは、ジェスチャコマンド情報(JCI)等の様々なデータを記憶する。この記憶部130Bには、処理部190Bがアクセスできるようになっている。
 上記のジェスチャコマンド情報(JCI)は、上述した音声コマンド情報(ACI)と同様の構成を有している。すなわち、ジェスチャコマンド情報(JCI)では、タッチパネル部126を利用して入力可能なコマンドごとに、「推奨ジェスチャコマンド入力操作」のジェスチャ情報、及び、ジェスチャ入力操作であるとみなす撮影部123を利用したジェスチャコマンド操作のバリエーションのジェスチャ情報が関連付けられている。なお、ジェスチャコマンド情報(JCI)には、タッチパネル部126を利用して入力可能であるが、撮影部123を利用してジェスチャコマンド操作を行えないコマンドも含まれている。
 上記の処理部190Bは、上述した処理部190Aと同様に、音響装置100Bの全体を統括制御する。この処理部190Bは、中央処理装置(CPU)及びその周辺回路を備えて構成されている。処理部190Bが様々なプログラムを実行することにより、上述した一実施形態における抽出部730及び提示部750の一部の機能が実現されるようになっている。
 この処理部190Bは、撮影部123から送られた撮影データCSDを受けると、当該データの解析処理を行う。そして、処理部190Bは、当該解析処理の結果に基づいて、記憶部130B内のジェスチャコマンド情報(JCI)を参照し、入力コマンドの特定を行う。引き続き、処理部190Bは、撮影部123を利用してジェスチャ入力する場合の「推奨ジェスチャコマンド入力操作」のジェスチャ情報を抽出する。そして、処理部190Bは、推奨ジェスチャコマンド入力操作のジェスチャ情報に基づいて、撮影部123にジェスチャ入力されたコマンドに対応する「推奨ジェスチャコマンド入力操作」の画像データを生成する。こうして生成された画像データは、出力表示信号IMDとして表示部160へ送られる。
 また、処理部190Bは、タッチパネル部126から送られたタッチパネル入力データIPDを受けると、当該入力データIPDに基づいて、入力コマンドの特定を行う。そして、処理部190Bは、記憶部130B内のジェスチャコマンド情報(JCI)を参照して、撮影部123を利用してジェスチャ入力する場合の「推奨ジェスチャコマンド入力操作」のジェスチャ情報を抽出する。引き続き、処理部190Bは、推奨ジェスチャコマンド入力操作のジェスチャ情報に基づいて、タッチパネル部126に入力されたコマンドに対応する「推奨ジェスチャコマンド入力操作」の画像データを生成する。こうして生成された画像データは、出力表示信号IMDとして表示部160へ送られる。
 また、処理部190Bは、こうした推奨ジェスチャコマンド入力操作の提示情報の生成処理を行うとともに、上述した処理部190Aと同様に、入力部120Bに入力されたコマンドに対応した処理を行う。
 <動作>
 以上のようにして構成された音響装置100Bの動作について、推奨ジェスチャコマンド入力操作の支援処理に主に着目して説明する。
 かかる推奨ジェスチャコマンド入力操作の支援処理に際して、図6に示されるように、まず、ステップS21において、処理部190Bが、利用者により撮影部123に対してジェスチャでのコマンド入力操作(以下、「ジェスチャ入力操作」とも記す)が行われたか否かを判定する。この判定の結果が肯定的であった場合(ステップS21:Y)には、処理部190Bが入力されたコマンドを特定し、処理は後述するステップS24へ進む。
 一方、ステップS21における判定の結果が否定的であった場合(ステップS21:N)には、処理はステップS22へ進む。ステップS22では、第1実施例におけるステップS12と同様に、処理部190Bが、利用者によりタッチパネル部126に対してタッチキー操作が行われたか否かを判定する。この判定の結果が否定的であった場合(ステップS22:N)には、処理はステップS21へ戻る。一方、ステップS22における判定の結果が肯定的であった場合(ステップS22:Y)には、処理はステップS23へ進む。
 ステップS23では、処理部190Bが、タッチキー操作に対応するコマンドを特定し、記憶装置130B内のジェスチャコマンド情報(JCI)を参照して、特定された入力コマンドに対応する推奨ジェスチャコマンド入力操作の情報があるか否かを判定する。この判定の結果が否定的であった場合(ステップS23:N)には、処理は後述するステップS27へ進む。一方、ステップS23における判定の結果が肯定的であった場合(ステップS23:Y)には、処理はステップS24へ進む。
 ステップS24では、処理部190Bが、特定された入力コマンドに対応する推奨ジェスチャコマンド入力操作の利用者への提示が、所定回数以下であるか否かを判定する。この判定の結果が否定的であった場合(ステップS24:N)には、処理はステップS27へ進む。一方、ステップS24における判定の結果が肯定的であった場合(ステップS24:Y)には、処理はステップS25へ進む。
 ステップS25では、処理部190Bが、推奨ジェスチャコマンド入力操作の提示情報を生成する。この提示情報の生成に際して、まず、処理部190Bが、特定された入力コマンドに基づいて記憶部130B内のジェスチャコマンド情報(JCI)を参照し、当該特定された入力コマンドに対応する推奨ジェスチャコマンド入力操作のジェスチャ情報を抽出する。そして、処理部190Bは、当該情報等に基づいて、「推奨ジェスチャコマンド入力操作」の提示情報として、画像データを生成する。
 引き続き、ステップS26において、処理部190Bが、画像データを出力表示信号IMDとして表示部160へ送る。この結果、推奨ジェスチャコマンド入力操作が、表示部160の表示デバイスに画像表示される。この後、処理はステップS27へ進む。
 ステップS27では、第1実施例におけるステップS17と同様に、処理部190Bが、入力されたコマンドに対応した処理を開始する。この後、処理はステップS21へ戻る。
 上記の処理が実行されることにより、推奨ジェスチャコマンド入力操作の支援処理が行われる。
 以上説明したように、本第2実施例では、利用者により撮影部123に対してジェスチャでのコマンド入力操作が行われると、処理部190Bが、当該コマンド入力操作に対応するコマンドを特定し、記憶部130B内のジェスチャコマンド情報(JCI)を参照して、特定された入力コマンドに対応する推奨ジェスチャコマンド入力操作のジェスチャ情報を抽出する。そして、処理部190Bは、当該ジェスチャ情報に基づき、「推奨ジェスチャコマンド入力操作」の画像データを生成する。こうして生成された推奨音声コマンド入力操作が、表示部160に画像表示される。
 このため、本第2実施例では、利用者によりジェスチャでのコマンド入力操作が行われた際に、入力されたコマンドに対応する推奨ジェスチャコマンド入力操作を利用者に提示することができる。
 また、本第2実施例では、利用者によりタッチパネル部126に対してタッチキー操作によりコマンド入力操作が行われると、処理部190Bが、当該コマンド入力操作に対応するコマンドを特定し、記憶部130B内のジェスチャコマンド情報(JCI)を参照して、特定された入力コマンドに対応する推奨ジェスチャコマンド入力操作の発話情報を抽出する。そして、処理部190Bは、当該ジェスチャ情報に基づき、「推奨ジェスチャコマンド入力操作」の画像データを生成する。こうして生成された推奨音声コマンド入力操作が、表示部160に画像表示される。
 このため、タッチキー操作に対応する利用者が覚えていない可能性のある推奨ジェスチャコマンド入力操作を利用者に提示することができる。
 したがって、本第2実施例によれば、ジェスチャでのコマンド入力操作を適切に支援することができる。
 [実施例の変形]
 本発明は、上記の実施例に限定されるものではなく、様々な変形が可能である。
 例えば、上記の第2実施例では、視覚的態様でコマンド入力操作が行われる一例として、当該視覚的態様を「利用者が行うジェスチャ」としたが、視覚的態様を「利用者が行う図形の描画」とする変形を行ってもよい。こうした変形に際しては、例えば、図7に示されるように、1台のタッチパネルデバイス200を用い、利用者が「図形の描画」を行うことによりコマンド入力ができるような描画入力スペース201が第1コマンド入力部711として設けられ、利用者がタッチ(押す動作)する操作により確定的なコマンド入力ができるようなタッチキー入力スペース202が第2コマンド入力部712として設けられる構成を採用することができる。
 また、視覚的態様を「利用者が行う図形の描画」とする場合には、タッチパネルデバイスは、図7に示されるように、描画入力スペース201とタッチキー入力スペース202とに分けて構成されている必要はなく、タッチパネルデバイス面全体を、描画入力スペース及びタッチキー入力スペースとする構成を採用することもできる。この場合には、利用者によるコマンド入力に際して、利用者の指(又は、タッチペン)がタッチパネルデバイス面に継続的にタッチしている時間、タッチ位置の連続的な変化量等に基づいて、描画操作であるか、タッチキー操作であるかを判別するようにすればよい。
 なお、視覚的態様を「利用者が行う図形の描画」とするこれらの変形例では、上述した第2実施形態における動作(図6参照)における「ジェスチャ」を「描画」に変更した動作を行うことにより、推奨描画コマンド入力操作の支援処理が行われることになる。
 また、上記の第1及び第2実施例では、キー入力操作及びポインティング入力操作の少なくとも一方により確定的なコマンド入力が行われる入力部としてタッチパネルデバイスを有するタッチパネル部を備えることとしたが、当該確定的なコマンド入力が行われる入力部としてはハードボタン、スイッチ、スライダ等を備えるものであってもよいし、タッチパネル部に加えてハードボタン、スイッチ、スライダ等を備えるものであってもよい。
 また、上記の第1実施例における音声コマンド情報に含まれる発話情報は、音声データ形式であってもよいし、テキスト形式であってもよい。ここで、発話情報が音声データである場合には、音声データを再生して推奨音声コマンド情報を音声案内するようにすればよい。また、発話情報がテキスト形式である場合には、TTS(Text To Speech)システムを採用して、テキスト形式の発話情報を読み上げて推奨音声コマンド情報を音声案内するようにすればよい。
 また、上記の第1実施例では、記憶部には、基本コマンドごとの「推奨音声コマンド入力操作」の発話情報が記憶されていることとしたが、記憶部内に、更に所与の語彙を記憶した語彙情報を記憶するようにしてもよい。この場合には、発話情報と語彙情報中の曲名等の語彙とを合成して、音声データや文字列データを生成するようにすればよい。
 また、上記の第1実施例において、収音部121を利用して行われた音声入力操作と、当該音声入力操作に対応する推奨音声コマンド入力操作との差異の評価を行い、当該評価の結果が所定閾値よりも大きな場合に、推奨音声コマンド入力操作の提示情報を生成するようにしてもよい。上記の第2実施例において、撮影部123を利用して行われたジェスチャ入力操作と、当該ジェスチャ入力操作に対応する推奨ジェスチャコマンド入力操作との差異の評価を行い、当該評価の結果が所定閾値よりも大きな場合に、推奨ジェスチャコマンド入力操作の提示情報を生成するようにしてもよい。
 また、上記の第1実施例では、ステップS11において、利用者により音声入力操作が行われたか否かを判定することとしたが、利用者に指定により、このステップS11の処理を省略するようにしてもよい。この場合には、タッチキー操作に対応する推奨音声コマンド入力操作を利用者に提示するため、処理装置の新規購入者等に対する音声コマンドの学習を図ることができる。また、上記の第1実施例では、ステップS14において、特定された入力コマンドに対応する推奨音声コマンド入力操作の利用者への提示が、所定回数以下であるか否かを判定することとしたが、利用者に指定により、このステップS14の処理を省略するようにしてもよい。この場合には、入力されたコマンドに対応する推奨音声コマンド入力操作を、利用者に常時、提示することができる。
 また、上記の第2実施例では、ステップS21において、利用者によりジェスチャ入力操作が行われたか否かを判定することとしたが、利用者に指定により、このステップS21の処理を省略するようにしてもよい。この場合には、タッチキー操作に対応する推奨ジェスチャコマンド入力操作を利用者に提示するため、処理装置の新規購入者等に対するジェスチャコマンドの学習を図ることができる。また、上記の第2実施例では、ステップS24において、特定された入力コマンドに対応する推奨ジェスチャコマンド入力操作の利用者への提示が、所定回数以下であるか否かを判定することとしたが、利用者に指定により、このステップS24の処理を省略するようにしてもよい。この場合には、入力されたコマンドに対応する推奨ジェスチャコマンド入力操作を、利用者に常時、提示することができる。
 また、上記の第1及び第2実施例では、入力部にコマンド入力操作が行われると、対応する推奨コマンド入力操作を利用者に提示することとしたが、利用者の指定により、当該推奨コマンド入力操作を提示しないようにすることもできる。
 また、上記の第1及び第2実施例では、本発明を音響装置に適用したが、ナビゲーション装置や家庭内等に設置されるテレビジョン受信装置等に本発明を適用することができることは勿論である。
 また、上記の第1及び第2実施例では、コンピュータによるプログラムの実行により、抽出部及び提示部の一部の機能を実現するようにしたが、これらの各部の全部又は一部を、専用のLSI(Large Scale Integrated circuit)等を用いたハードウェアにより構成するようにしてもよい。

Claims (12)

  1.  入力されたコマンドに対応した処理を行う処理装置であって、
     聴覚的態様及び視覚的態様の少なくとも一方である所定態様でのコマンド入力操作によりコマンドの入力が行われる第1コマンド入力部を含む入力部と;
     前記第1コマンド入力部を利用した入力可能なコマンドごとに、前記所定態様での推奨コマンド入力操作の情報を記憶する記憶部と;
     前記入力部を利用したコマンド入力がなされたとき、前記入力されたコマンドに基づいて前記記憶部を参照し、前記入力されたコマンドを、前記第1コマンド入力部を利用して入力する場合の推奨コマンド入力操作の情報を抽出する抽出部と;
     前記抽出された推奨コマンド入力操作の情報に基づいて、前記入力されたコマンドに対応する推奨コマンド入力操作を前記利用者へ提示する提示部と;
     を備える処理装置。
  2.  前記所定態様は、音声であり、
     前記第1コマンド入力部は、前記音声を収音する収音デバイスを備え、
     前記提示部は、音声出力及び文字列表示の少なくとも一方により、前記推奨コマンド入力操作を前記利用者へ提示する、
     ことを特徴とする請求項1に記載の処理装置。
  3.  前記所定態様は、前記利用者が行う少なくとも1つの所定形状の図形の描画であり、
     前記第1コマンド入力部は、描画入力操作が行われる描画入力デバイスを備え、
     前記提示部は、画像表示により、前記推奨コマンド入力操作を前記利用者へ提示する、
     ことを特徴とする請求項1に記載の処理装置。
  4.  前記所定態様は、前記利用者が行うジェスチャであり、
     前記第1コマンド入力部は、前記ジェスチャを撮影する撮影デバイスを備え、
     前記提示部は、画像表示により、前記推奨コマンド入力操作を前記利用者へ提示する、
     ことを特徴とする請求項1に記載の処理装置。
  5.  前記抽出部は、前記利用者により前記第1コマンド入力部に対して前記所定態様でのコマンド入力操作が実行され、前記実行されたコマンド入力操作に対応するコマンドが特定された場合、前記特定されたコマンドに基づいて前記記憶部を参照し、前記特定されたコマンドに対応する推奨コマンド入力操作の情報を抽出する、ことを特徴とする請求項1~4のいずれか一項に記載の処理装置。
  6.  前記入力部は、キー入力操作及びポインティング入力操作の少なくとも一方により確定的なコマンド入力が行われる第2コマンド入力部を更に備え、
     前記抽出部は、前記利用者により前記第2コマンド入力部に対してコマンド入力操作が実行され、前記実行されたコマンド入力操作に対応するコマンドが特定された場合、前記特定されたコマンドに基づいて前記記憶部を参照し、前記特定されたコマンドに対応する推奨コマンド入力操作の情報を抽出する、
     ことを特徴とする請求項1~5のいずれか一項に記載の処理装置。
  7.  前記第2コマンド入力部は、タッチパネルデバイスを備える、ことを特徴とする請求項6に記載の処理装置。
  8.  前記提示部は、前記第1コマンド入力部を利用して行われたコマンド入力操作と前記抽出された推奨コマンド入力操作との差異の評価を行い、前記評価の結果が所定閾値よりも大きな場合に、前記入力されたコマンドに対応する推奨コマンド入力操作の提示を行う、ことを特徴とする請求項1~7のいずれか一項に記載の処理装置。
  9.  前記提示部は、同一のコマンドに対応する推奨コマンド入力操作の提示を、所定回数を限度として行う、ことを特徴とする請求項1~8のいずれか一項に記載の処理装置。
  10.  聴覚的態様及び視覚的態様の少なくとも一方である所定態様でのコマンド入力操作によりコマンドの入力が行われる第1コマンド入力部を含む入力部と;前記第1コマンド入力部を利用した入力可能なコマンドごとに、前記所定態様での推奨コマンド入力操作の情報を記憶する記憶部と;を備え、入力されたコマンドに対応した処理を行う処理装置において使用されるコマンド入力支援方法であって、
     前記入力部を利用したコマンド入力がなされたとき、前記入力されたコマンドに基づいて前記記憶部を参照し、前記入力されたコマンドを、前記第1コマンド入力部を利用して入力する場合の推奨コマンド入力操作の情報を抽出する抽出工程と;
     前記抽出された推奨コマンド入力操作の情報に基づいて、前記入力されたコマンドに対応する推奨コマンド入力操作を前記利用者へ提示する提示工程と;
     を備えるコマンド入力支援方法。
  11.  請求項10に記載のコマンド入力支援方法を演算部に実行させる、ことを特徴とするコマンド入力支援プログラム。
  12.  請求項11に記載のコマンド入力支援プログラムが、演算部により読み取り可能に記録されている、ことを特徴とする記録媒体。
PCT/JP2010/063172 2010-08-04 2010-08-04 処理装置及びコマンド入力支援方法 WO2012017525A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2010/063172 WO2012017525A1 (ja) 2010-08-04 2010-08-04 処理装置及びコマンド入力支援方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2010/063172 WO2012017525A1 (ja) 2010-08-04 2010-08-04 処理装置及びコマンド入力支援方法

Publications (1)

Publication Number Publication Date
WO2012017525A1 true WO2012017525A1 (ja) 2012-02-09

Family

ID=45559057

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/063172 WO2012017525A1 (ja) 2010-08-04 2010-08-04 処理装置及びコマンド入力支援方法

Country Status (1)

Country Link
WO (1) WO2012017525A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015524110A (ja) * 2012-06-01 2015-08-20 マイクロソフト コーポレーション コンテキスト・ユーザー・インターフェース
US11487503B2 (en) 2015-09-28 2022-11-01 Baidu Online Network Technology (Beijing) Co., Ltd. Interactive control method and device for voice and video communications

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002304284A (ja) * 2001-04-05 2002-10-18 Tsubasa System Co Ltd ジョブ処理プログラムおよびプログラム作動方法
JP2002318597A (ja) * 2001-02-15 2002-10-31 Alpine Electronics Inc 音声入力案内方法及び装置
JP2004355629A (ja) * 2003-05-29 2004-12-16 Microsoft Corp 高度対話型インターフェースに対する理解同期意味オブジェクト
JP2008084172A (ja) * 2006-09-28 2008-04-10 Toshiba Corp 映像記録・再生装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002318597A (ja) * 2001-02-15 2002-10-31 Alpine Electronics Inc 音声入力案内方法及び装置
JP2002304284A (ja) * 2001-04-05 2002-10-18 Tsubasa System Co Ltd ジョブ処理プログラムおよびプログラム作動方法
JP2004355629A (ja) * 2003-05-29 2004-12-16 Microsoft Corp 高度対話型インターフェースに対する理解同期意味オブジェクト
JP2008084172A (ja) * 2006-09-28 2008-04-10 Toshiba Corp 映像記録・再生装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015524110A (ja) * 2012-06-01 2015-08-20 マイクロソフト コーポレーション コンテキスト・ユーザー・インターフェース
US9798457B2 (en) 2012-06-01 2017-10-24 Microsoft Technology Licensing, Llc Synchronization of media interactions using context
US10025478B2 (en) 2012-06-01 2018-07-17 Microsoft Technology Licensing, Llc Media-aware interface
US10248301B2 (en) 2012-06-01 2019-04-02 Microsoft Technology Licensing, Llc Contextual user interface
US11487503B2 (en) 2015-09-28 2022-11-01 Baidu Online Network Technology (Beijing) Co., Ltd. Interactive control method and device for voice and video communications

Similar Documents

Publication Publication Date Title
JP6463825B2 (ja) 多重話者音声認識修正システム
US10446155B2 (en) Voice recognition device
JP6044553B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6464411B2 (ja) 電子機器、方法及びプログラム
JP6150268B2 (ja) 単語登録装置及びそのためのコンピュータプログラム
JP5770770B2 (ja) 入力装置
JP2006201749A (ja) 音声による選択装置、及び選択方法
WO2007055233A1 (ja) 音声テキスト化システム、音声テキスト化方法および音声テキスト化用プログラム
JP6158179B2 (ja) 情報処理装置および情報処理方法
JP2016062357A (ja) 音声翻訳装置、方法およびプログラム
JP2014202848A (ja) テキスト生成装置、方法、及びプログラム
JP2008145693A (ja) 情報処理装置及び情報処理方法
WO2012017525A1 (ja) 処理装置及びコマンド入力支援方法
JP5986468B2 (ja) 表示制御装置、表示システム及び表示制御方法
JP4639094B2 (ja) 音声認識システム、音声認識装置及び音声認識プログラム
JP6641680B2 (ja) 音声出力装置、音声出力プログラムおよび音声出力方法
JP6022138B2 (ja) 情報提供システム
JP6499228B2 (ja) テキスト生成装置、方法、及びプログラム
JP7135372B2 (ja) 学習支援装置、学習支援方法およびプログラム
JP2012008375A (ja) 音声記録装置、そのデータ処理方法、およびプログラム
JP5818753B2 (ja) 音声対話システム及び音声対話方法
JP2017054064A (ja) 対話装置および対話プログラム
WO2020240958A1 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2019142447A1 (ja) 情報処理装置および情報処理方法
JP2009116107A (ja) 情報処理装置及び方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10855615

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10855615

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP