WO2019026313A1 - 情報処理装置、音声認識システム、及び、情報処理方法 - Google Patents

情報処理装置、音声認識システム、及び、情報処理方法 Download PDF

Info

Publication number
WO2019026313A1
WO2019026313A1 PCT/JP2018/003521 JP2018003521W WO2019026313A1 WO 2019026313 A1 WO2019026313 A1 WO 2019026313A1 JP 2018003521 W JP2018003521 W JP 2018003521W WO 2019026313 A1 WO2019026313 A1 WO 2019026313A1
Authority
WO
WIPO (PCT)
Prior art keywords
voice
control unit
activation word
vpa
word
Prior art date
Application number
PCT/JP2018/003521
Other languages
English (en)
French (fr)
Inventor
小塚 雅之
智輝 小川
美裕 森
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to US16/325,793 priority Critical patent/US11145311B2/en
Priority to CN201880003041.2A priority patent/CN109601017B/zh
Priority to BR112019002636A priority patent/BR112019002636A2/pt
Priority to EP18842080.6A priority patent/EP3663905B1/en
Priority to JP2018568454A priority patent/JP6928882B2/ja
Priority to SG11201901441QA priority patent/SG11201901441QA/en
Priority to MX2019001803A priority patent/MX2019001803A/es
Publication of WO2019026313A1 publication Critical patent/WO2019026313A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/162Interface to dedicated audio devices, e.g. audio drivers, interface to CODECs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/20Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/32Multiple recognisers used in sequence or in parallel; Score combination systems therefor, e.g. voting systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Definitions

  • the present disclosure relates to an information processing apparatus used for a speech recognition system.
  • Patent Document 1 discloses an information processing apparatus that predicts a user's speech when an activation word is detected.
  • the activation word for starting transmission of the voice signal from the information processing apparatus to the cloud server is, for example, previously provided by the provider providing the voice recognition service using the cloud server. It is prescribed.
  • the present disclosure provides an information processing apparatus capable of starting transmission of an audio signal to a speech recognition server other than a prescribed activation word.
  • An information processing apparatus includes: a voice acquisition unit configured to acquire a voice of a user; and the first activation word when the audio acquired by the voice acquisition unit is recognized as a first activation word A first control unit for outputting an audio signal corresponding to a second activation word different from the second activation word, and the audio acquisition unit when it is recognized that the audio signal output by the first control unit indicates the second activation word And a second control unit that performs start processing for starting transmission of the acquired voice signal of voice to the voice recognition server.
  • the information processing apparatus of the present disclosure can start transmission of the voice signal to the voice recognition server other than the defined activation word.
  • FIG. 1 is a diagram for explaining the function of the smart speaker.
  • FIG. 2 is a diagram for explaining control of a home appliance using a smart speaker.
  • FIG. 3 is a diagram showing the relationship between services and activation words.
  • FIG. 4 is a diagram for describing a case where a user uses a smartphone to call a service.
  • FIG. 5 is a block diagram showing the configuration of the speech recognition system according to the first embodiment.
  • FIG. 6 is a flowchart of the operation of the speech recognition system according to the first embodiment.
  • FIG. 7 is a diagram showing the relationship between the service and the activation word in the first embodiment.
  • FIG. 8 is a flowchart of the operation of the speech recognition system according to the second embodiment.
  • FIG. 9 is a diagram showing the relationship between a service and an activation word in the second embodiment.
  • FIG. 10 is a block diagram showing the configuration of the speech recognition system according to the third embodiment.
  • FIG. 11 is a flowchart of the operation of the speech recognition system according to the third embodiment.
  • FIG. 12 is a block diagram showing the configuration of the speech recognition system according to the fourth embodiment.
  • FIG. 13 is a flowchart of the operation of the speech recognition system according to the fourth embodiment.
  • FIG. 14 is a simplified block diagram showing the configuration of the speech recognition system according to the fifth embodiment.
  • FIG. 15 is a simplified block diagram showing the configuration of the speech recognition system according to the sixth embodiment.
  • VPA Virtual Personal Assistance
  • the smart speaker is a speaker that can be operated by the user by voice, and is a speaker mainly for receiving provision of a music streaming service. That is, the main function of the smart speaker is to play the music provided from the audio streaming service according to the user's voice.
  • FIG. 1 is a diagram for explaining the function of the smart speaker.
  • the main functions of the smart speaker 110 are realized as follows.
  • the voice signal of the voice of the user acquired by the smart speaker 110 is transmitted to the VPA cloud server 120.
  • the VPA cloud server 120 performs voice recognition processing on the received voice signal to transmit a command to the cloud server 131 which provides an audio streaming service, and the cloud server 131 transfers music to the smart speaker 110 based on the received command. .
  • Such a mechanism can be applied not only to the cloud server 131 providing the audio streaming service but also to other cloud servers included in the third party cloud server group 130. If the third party cloud I / F is provided to the VPA service provider by the service provider of the third party cloud server group 130, the user can provide the service provided by the third party cloud server group 130 from the smart speaker 110 like a smartphone. It becomes possible to use.
  • the user can receive provision of weather forecast information from the cloud server 132 that provides a weather forecast service by speaking "today's weather" to the smart speaker 110.
  • the smart speaker 110 outputs an audio such as “fine”.
  • the user if the user has a purchase history of the product of the user stored in the cloud server 133 that provides the e-commerce site, the user utters “same item bought” to the smart speaker 110 and the same product Can be purchased.
  • a variety of interactive functions through the smart speaker 110 can be realized by recording the user's voice, television voice, radio voice, etc. by the microphone provided in the smart speaker 110 placed in a house etc. It is realized by transferring to 120.
  • the VPA cloud server 120 converts an audio signal into text by a speech recognition function (ASR: automatic speech recognition) and machineizes text by a natural language processing function (NLP: natural language processing). Furthermore, the VPA cloud server 120 converts the machine language into a meaning that is in a specific context by the context understanding function, and finally converts the instruction content according to the information of each user by the personalized function.
  • the VPA cloud server 120 can call the third party cloud server group 130 by transmitting such an instruction content as a command.
  • FIG. 2 is a diagram for explaining control of a home appliance using the smart speaker 110. As shown in FIG.
  • the VPA cloud server 120 is connected to the home appliance control server 140, the air conditioner, lighting, security system, television or the like in the user's house can be voice-controlled.
  • an air conditioner group 150 including air conditioners a to d is illustrated as devices to be controlled.
  • the voice signal of this voice is transmitted to the VPA cloud server 120.
  • the VPA cloud server 120 converts the speech signal into text by the speech recognition function, and converts the speech signal into a machine language instructing setting of the outing mode by the natural language processing function.
  • the VPA cloud server 120 converts the machine language instructing setting of the going-out mode into a command to turn off the electric device in the user's home by the context understanding function, and the four air conditioners based on the user information by the personalized function. Convert to a command to turn off.
  • the four air conditioners a to d are turned off by the user uttering "Please go out, so please set”. That is, according to home appliance control using the VPA, functions more than turning off the individual air conditioners a to d by using the remote controller are realized.
  • the user may activate the VPA by operating a button provided on the smartphone or performing an operation such as touching an icon displayed on the smartphone. it can.
  • the VPA with the smart speaker 110 when using the VPA with the smart speaker 110, if the VPA is activated by operating the button provided on the smart speaker 110, the advantage of the smart speaker 110 capable of hands-free operation by voice can not be obtained. Therefore, when using the VPA with the smart speaker 110, it is desirable that activation of the VPA be performed by voice. For example, a configuration is conceivable in which the activation word is determined in advance and the VPA is activated by the recognition of the activation word by the VPA cloud server 120. The activation word may be called a wake word or the like.
  • the smart speaker 110 adopts a voice recognition configuration.
  • the voice signal of the sound acquired by the microphone with which the smart speaker 110 is provided after the VPA is activated is transferred to the VPA cloud server 120.
  • FIG. 3 is a diagram showing the relationship between services and activation words.
  • the activation word specified by the VPA service provider will be used. Assuming that the VPA service provider is company B, the activation word is, for example, "company B" or "Hey B company”.
  • the user can call the VPA provision service and the home appliance control service by uttering the function activation word and the command content to the smart speaker 110.
  • FIG. 4 is a diagram for describing a case where a user uses a smartphone to call a service. Therefore, the user recognizes that the world of the VPA provided service and the home appliance control service are different worlds, and thinks that there are two different service systems.
  • a user who recognizes that there are two service systems may purchase and use a VPA device such as the smart speaker 110 manufactured and sold by Company A.
  • a VPA device such as the smart speaker 110 manufactured and sold by Company A.
  • using the activation word specified by the VPA service provider is similar to the user performing an application using a smartphone. Therefore, the user feels natural and there is no sense of discomfort.
  • the user may misunderstand that the provider of the home appliance control service is not the company A but the VPA service provider (that is, the company B). If the home appliance control service is not provided due to a fault occurring in the home appliance control server 140, the user may consider it as a problem of the VPA service provider and may call the telephone consultation center of the VPA service provider. As described above, when the activation word specified by the VPA service provider is used, it is also a problem that the user (i.e., the person in charge of the service) may not understand the service provider.
  • the inventors have found the configuration of the smart speaker 110 capable of activating the speech recognition system other than the activation word specified by the VPA service provider.
  • the inventors have also found the configuration of a smart speaker 110 that can be connected to multiple VPA cloud servers.
  • FIG. 5 is a block diagram showing the configuration of the speech recognition system according to the first embodiment.
  • the voice recognition system 100 includes the smart speaker 110, the VPA cloud server 120, the third party cloud server group 130, the home appliance control server 140, and the air conditioner group 150.
  • the smart speaker 110 and the air conditioner group 150 are installed in a user's home or the like.
  • the speech signal of the speech acquired by the speech acquisition unit 11 of the smart speaker 110 is transmitted to the VPA cloud server 120, and speech recognition processing is performed.
  • the above-described activation word is subjected to speech recognition processing in the smart speaker 110.
  • the smart speaker 110, the VPA cloud server 120, and the home appliance control server 140 which constitute the speech recognition system 100 will be described in detail.
  • the smart speaker 110 includes an information processing apparatus 10 that transmits an audio signal to the VPA cloud server 120 as an audio user interface.
  • the information processing apparatus 10 includes a voice acquisition unit 11, a first control unit 12, a second control unit 13, a communication unit 14, a sound output unit 15, and a storage unit 16.
  • the voice acquisition unit 11 obtains the voice of the user.
  • the voice acquisition unit 11 is specifically a microphone.
  • the first control unit 12 is located between the voice acquisition unit 11 and the second control unit 13, acquires the voice signal of the user's voice from the voice acquisition unit 11, and constantly monitors the obtained user's voice. In other words, the first control unit 12 is located on the voice path from the voice acquisition unit 11 to the second control unit 13.
  • the first control unit 12 recognizes that the voice acquired by the voice acquisition unit 11 is the first activation word, an audio signal corresponding to the second activation word designated by the VPA service provider (that is, company B) Output
  • the first activation word is, for example, a hardware-specified activation word specified by a hardware provider (that is, company A that is the manufacturer / seller of the smart speaker 110), and is different from the second activation word.
  • the first control unit 12 converts the first activation word into the second activation word and outputs the second activation word to the second control unit 13. Thereby, even if the user utters the first activation word and the first activation word is acquired by the voice acquisition unit 11, the second control unit 13 recognizes that the second activation word is acquired.
  • the second control unit 13 that recognizes that the second activation word is acquired performs activation processing for turning on the VPA function according to the VPA SDK (Software Development Kit) provided by the VPA service provider as in the related art. That is, according to the first control unit 12, the second control unit 13 can perform the start process with the first start word.
  • VPA SDK Software Development Kit
  • the first control unit 12 when the first control unit 12 recognizes that the audio signal of the audio acquired by the audio acquisition unit 11 is the second activation word, the first control unit 12 generates the audio signal corresponding to the second activation word. Output.
  • the second control unit 13 can perform the activation process even if the sound acquired by the sound acquisition unit 11 is either the first activation word or the second activation word.
  • the first control unit 12 described above is realized by, for example, a microcomputer, but may be realized by a processor.
  • the second control unit 13 When the second control unit 13 recognizes that the audio signal output by the first control unit 12 indicates the second activation word, the second control unit 13 acquires the audio acquired by the audio acquisition unit 11 (more specifically, the audio acquisition unit 11 Start processing for starting transmission of the voice signal of the voice acquired by the VPA cloud server 120 to the VPA cloud server 120. Specifically, the second control unit 13 executes the VPA SDK stored in the storage unit 16.
  • the second control unit 13 is realized by, for example, a microcomputer, but may be realized by a processor.
  • the communication unit 14 transmits an audio signal to the communication unit 121 of the VPA cloud server 120 based on the control of the second control unit 13.
  • the communication unit 14 is a communication module.
  • the communication module is, in other words, a communication circuit.
  • the communication unit 14 may perform wired communication or wireless communication.
  • a relay device such as a broadband router and a communication network such as the Internet intervene between the communication unit 14 and the communication unit 121.
  • the sound output unit 15 outputs sound based on the control of the second control unit 13.
  • the sound output unit 15 outputs, for example, music transferred from the cloud server 131 providing the audio streaming service to the communication unit 14.
  • the sound output unit 15 is specifically a speaker.
  • the storage unit 16 is a storage device that stores a voice recognition program that the first control unit 12 executes to recognize the first activation word and the second activation word, and a VPA SDK that the second control unit 13 executes. is there.
  • the storage unit 16 may store audio data read out by the first control unit 12 to output an audio signal corresponding to the first activation word or the second activation word.
  • the storage unit 16 may be used as a buffer memory in which the voice acquired by the voice acquisition unit 11 is temporarily stored as voice data.
  • the storage unit 16 is realized by a semiconductor memory or the like.
  • the VPA cloud server 120 receives the voice signal of the voice acquired by the voice acquisition unit 11 after activation of the smart speaker 110 (after the VPA function is turned on), and performs voice recognition processing on the received voice signal.
  • the VPA cloud server 120 is an example of a speech recognition server.
  • the VPA cloud server 120 includes a communication unit 121, a VPA control unit 122, and a storage unit 123.
  • the communication unit 121 receives an audio signal transmitted by the communication unit 14 of the smart speaker 110.
  • the communication unit 121 also transmits a command to the third party cloud server group 130 or the home appliance control server 140 based on the control unit of the VPA control unit 122.
  • the communication unit 121 is a communication module.
  • the communication module is, in other words, a communication circuit.
  • the VPA control unit 122 performs voice recognition processing on the voice signal received by the communication unit 121, and causes the communication unit 121 to transmit a command obtained as a result of the voice recognition processing.
  • voice recognition processing a speech recognition function, a natural language processing function, a context understanding function, a personalized function, and the like are used.
  • the VPA control unit 122 is realized by, for example, a microcomputer, but may be realized by a processor.
  • the storage unit 123 is a storage device in which a voice recognition program and the like executed by the VPA control unit 122 to perform voice recognition processing are stored.
  • the storage unit 123 also stores a third party cloud I / F that is a program corresponding to various services provided by the third party cloud server group 130.
  • the storage unit 123 is realized by a semiconductor memory or the like.
  • the home appliance control server 140 receives a command from the VPA cloud server 120, and provides the home appliance control service to the user by controlling the air conditioner group 150 based on the received command.
  • the air conditioner group 150 is an example of a home appliance to be controlled, and the home appliance to be controlled may be a home appliance other than the air conditioner.
  • the home appliance control server 140 includes a communication unit 141, a home appliance control unit 142, and a storage unit 143.
  • the communication unit 141 receives the command transmitted by the communication unit 121 of the VPA cloud server 120. Further, the communication unit 141 transmits a control signal to the air conditioner group 150 based on the control unit of the home appliance control unit 142. Specifically, the communication unit 141 is a communication module.
  • the communication module is, in other words, a communication circuit.
  • the home appliance control unit 142 causes the communication unit 141 to transmit a control signal according to the command received by the communication unit 141.
  • the home appliance control unit 142 is realized by, for example, a microcomputer, but may be realized by a processor.
  • the storage unit 143 is a storage device in which a control program or the like for the home appliance control unit 142 to control the air conditioner group 150 is stored.
  • storage unit 143 is realized by a semiconductor memory or the like.
  • FIG. 6 is a flowchart of the operation of the speech recognition system 100.
  • the second control unit 13 of the smart speaker 110 performs an initialization process (S11).
  • the initialization process is performed, for example, when power supply to the smart speaker 110 is started.
  • the smart speaker 110 enters a standby state in which the first activation word and the second activation word can be recognized by the initialization process. In the standby state, the transmission of the audio signal to the VPA cloud server 120 is stopped.
  • the voice acquisition unit 11 obtains the voice of the user (S12).
  • the first control unit 12 performs speech signal speech recognition processing of the acquired speech, and determines whether the speech acquired by the speech acquisition unit 11 is the first activation word (S13).
  • the first activation word is, for example, a hardware-specified activation word specified by the hardware provider (that is, company A that is the manufacturer / seller of the smart speaker 110).
  • the first activation word is, for example, “A company”.
  • the second activation word is an activation word specified by the VPA service provider (that is, company B).
  • the second activation word is, for example, "company B", “Hey B company” or the like.
  • the first control unit 12 determines that the voice acquired by the voice acquisition unit 11 is not the first activation word (No in S13), the audio acquired by the voice acquisition unit 11 is the second activation word It is determined whether or not (S15).
  • the first control unit 12 determines that the voice acquired by the voice acquisition unit 11 is the second activation word (Yes in S15)
  • the first control unit 12 outputs the audio signal corresponding to the second activation word to the second control unit 13 To do (S16).
  • the first control unit 12 temporarily stores the voice signal of the voice acquired in step S12 in the storage unit 16, and outputs the stored voice signal to the second control unit 13.
  • audio data corresponding to the second activation word stored in advance in the storage unit 16 may be read out.
  • the first control unit 12 determines that the voice acquired by the voice acquisition unit 11 is not the second activation word (No in S15)
  • the standby state is continued, and the voice acquisition unit 11 performs voice acquisition ( S11).
  • audio signals of sounds other than the first activation word and the second activation word acquired by the audio acquisition unit 11 may be output to the second control unit 13 through the first control unit 12, or The output to the second control unit 13 may be stopped by the one control unit 12.
  • the activation process is a process for starting transmission of the voice signal of the voice acquired by the voice acquisition unit 11 to the VPA cloud server 120, and as a result, the VPA function is turned on.
  • the voice acquisition unit 11 continues to acquire voice even after the activation process (S18), and the second control unit 13 uses the communication unit 14 for the audio signal of the speech acquired by the voice acquisition unit 11 after the activation process. Then, it transmits to the VPA cloud server 120 in real time (S19).
  • the communication unit 121 of the VPA cloud server 120 receives an audio signal from the communication unit 14 and performs an audio recognition process on the acquired audio signal (S20). As a result, various services are provided to the user according to the voice acquired in step S18.
  • the first control unit 12 converts the first activation word into the second activation word and outputs the second activation word to the second control unit 13.
  • the second control unit 13 recognizes that the second activation word is acquired.
  • the second control unit 13 that recognizes that the second activation word has been acquired can perform activation processing for turning on the VPA function according to the VPA SDK provided by the VPA service provider as before, and can turn on the VPA function.
  • the VPA function can be turned on by the first activation word without modifying the VPA SDK.
  • FIG. 7 is a diagram showing the relationship between the service and the activation word in the first embodiment.
  • the word designated by company A that is, the first activation word
  • the word designated by company A that is, the first activation word
  • the user utters the second activation word when he / she wants to receive the VPA provision service, and utters the first activation word when he / she wants to receive the home appliance control service. It can also be done.
  • Such usage is similar to usage of the application in the smartphone 160 described with reference to FIG. 4, so it is considered that the user does not feel uncomfortable.
  • the activation word may be designated by the user, and for example, as shown in FIG. 7, the name of the user's pet may be used.
  • the storage unit 16 stores a voice recognition program for making the activation word a word designated by the user based on the voice of the user.
  • the user speaks “A company,” which is the first activation word, and activates the smart speaker 110. Speak "A company” as the start-up word, and further utter “outing mode” as the command content. In other words, it is necessary to speak "company A” twice.
  • FIG. 8 is a flowchart of the operation of such a speech recognition system 100. In the second embodiment described below, differences from the flowchart in FIG. 6 will mainly be described, and descriptions of the items already described may be omitted.
  • the function activation word is also described as a designated word.
  • the VPA cloud server 120 transmits a command to another server according to the result of speech recognition of the speech signal received from the smart speaker 110 (that is, the information processing apparatus 10) after the activation process.
  • the designated word is a word for designating the server to which this command is to be sent.
  • step S13 the first control unit 12 determines whether the voice acquired by the voice acquisition unit 11 is the first activation word (S13).
  • the first control unit 12 determines that the voice acquired by the voice acquisition unit 11 is the first activation word (Yes in S13)
  • the audio data corresponding to the second activation word stored in advance in the storage unit 16 Are read out (S14).
  • the first control unit 12 turns on the designated word transmission mode (S21). Specifically, the first control unit 12 sets, for example, a flag corresponding to the designated word transmission mode in the storage unit 16.
  • the first control unit 12 outputs an audio signal corresponding to the second activation word to the second control unit 13 (S16), and the second control unit 13 recognizes this as the second activation word.
  • the activation process is performed (S17).
  • the voice acquiring unit 11 continues to acquire voice even after the activation process (S18).
  • the first control unit 12 determines whether the designated word transmission mode is on (S22). Specifically, the first control unit 12 refers to the storage unit 16 to determine whether a flag corresponding to the designated word transmission mode is set.
  • the first control unit 12 determines that the designated word transmission mode is on (Yes in S22)
  • the first control unit 12 reads the audio data corresponding to the designated word stored in advance in the storage unit 16 and outputs the audio signal corresponding to the designated word. It is output to the second control unit 13. Then, the second control unit 13 causes the communication unit 14 to transmit an audio signal corresponding to the designated word to the VPA cloud server 120 (S23).
  • step S23 is omitted.
  • the second activation is performed.
  • An audio signal corresponding to the word is output (S16), and an audio signal corresponding to the designated word is output (S23).
  • the voice signal corresponding to the designated word is output although the user does not utter the designated word and the voice acquiring unit 11 does not acquire the voice corresponding to the designated word.
  • FIG. 9 is a diagram showing the relationship between a service and an activation word in the second embodiment.
  • the user utters the second activation word when he wishes to receive the VPA provision service, and utters the first activation word when he wants to receive the home appliance control service. It is useful when you do.
  • the designated word is, for example, "company A” which is the same as the first activation word. That is, the first control unit 12 outputs an audio signal corresponding to the first activation word as an audio signal corresponding to the designated word.
  • the designated word and the first activation word may be different. For example, based on FIG. 9, the first activation word may be "company A" and the designated word may be "television.”
  • the information processing device 10 may be mounted on a home appliance other than the smart speaker 110.
  • the information processing device 10 may be mounted on a washing machine.
  • FIG. 10 is a block diagram showing a configuration of the speech recognition system according to the third embodiment.
  • the voice recognition system 100a includes a washing machine 170, a VPA cloud server 120, a home appliance control server 140, and a washing machine group 180.
  • the washing machine 170 is installed in the user's house or the like, and is also included in the washing machine group 180.
  • the washing machine 170 includes the information processing apparatus 10 in addition to the washing control unit 20 for realizing the washing function. That is, the washing machine 170 is a home appliance corresponding to the VPA.
  • the washing machine 170 is, for example, a home appliance manufactured and sold by Company A.
  • the home appliance control server 140 transmits a completion message to the smartphone 160 of the user.
  • the home appliance control service related to the washing machine 170 is mainly received.
  • the third party cloud server group 130 is not included in the speech recognition system 100a. Therefore, using the second activation word (for example, “Company B” and “Hey B company”) designated by the VPA service provider as the activation word of the washing machine 170 manufactured and sold by Company A is not very good. It is natural.
  • FIG. 11 is a flowchart of the operation of such a speech recognition system 100a.
  • step S15 shown in the flowchart of FIG. 6 is omitted.
  • the voice acquisition unit 11 performs voice acquisition (S11).
  • the VPA function can be turned on by the first activation word, the VPA function can not be turned on by the second activation word.
  • the change of the activation word from the second activation word specified by the VPA service provider to the first activation word specified by the hardware provider is realized.
  • Embodiment 4 In the first to third embodiments, the information processing apparatus 10 is connectable to only one VPA cloud server 120, but the information processing apparatus 10 may be connectable to a plurality of VPA cloud servers.
  • FIG. 12 is a block diagram showing the configuration of a speech recognition system 100b according to the fourth embodiment.
  • the voice recognition system 100b includes the smart speaker 110b, the VPA cloud server 120b, the VPA cloud server 120c, the third party cloud server group 130, and the home appliance control server 140. , And an air conditioner group 150.
  • the smart speaker 110 b includes an information processing apparatus 10 b that transmits an audio signal to the VPA cloud server 120 b and the VPA cloud server 120 c as an audio user interface.
  • the information processing apparatus 10b includes a voice acquisition unit 11, a first control unit 12b, a second control unit 13b, a communication unit 14b, a sound output unit 15, and a storage unit 16b.
  • a voice acquisition unit 11 a first control unit 12b, a second control unit 13b, a communication unit 14b, a sound output unit 15, and a storage unit 16b.
  • the definitions of the first activation word and the second activation word are different from those of the first to third embodiments.
  • the first activation word is an activation word for connecting the smart speaker 110b to the VPA cloud server 120b
  • the second activation word is an activation for connecting the smart speaker 110b to the VPA cloud server 120c. It is a word.
  • the first control unit 12 b is located between the voice acquisition unit 11 and the second control unit 13 b, and constantly monitors the user's voice acquired by the voice acquisition unit 11. For example, when the voice acquired by the voice acquisition unit 11 is recognized as the first activation word, the first control unit 12 b outputs an audio signal corresponding to the first activation word to the second control unit 13 b. When the first control unit 12 b recognizes that the voice acquired by the voice acquisition unit 11 is the second activation word, the first control unit 12 b outputs an audio signal corresponding to the second activation word to the second control unit 13 b. For example, the first control unit 12 b temporarily stores the acquired voice signal of voice in the storage unit 16 b, and outputs the stored voice signal to the second control unit 13 b.
  • the first control unit 12 b is realized by, for example, a microcomputer, but may be realized by a processor.
  • the second control unit 13 b When the second control unit 13 b recognizes that the audio signal output by the first control unit 12 b is the first activation word, the second control unit 13 b transmits the audio signal of the audio acquired by the audio acquisition unit 11 to the VPA cloud server 120 b Start the first voice transmission process. Specifically, the second control unit 13b executes the VPA SDK-B stored in the storage unit 16b.
  • the VPA SDK-B is provided by a company B that provides speech recognition service using the VPA cloud server 120b.
  • the second control unit 13 b when the second control unit 13 b recognizes that the audio signal output by the first control unit 12 b is the second activation word, the second control unit 13 b transmits the audio signal acquired by the audio acquisition unit 11 to the VPA cloud server 120 c. Start a second voice transmission process. Specifically, the second control unit 13b executes the VPA SDK-C stored in the storage unit 16b.
  • the VPA SDK-C is provided by Company C that provides speech recognition service using the VPA cloud server 120c.
  • the second control unit 13 b is realized by, for example, a microcomputer, but may be realized by a processor.
  • the communication unit 14b transmits an audio signal to the VPA cloud server 120b under the control of the second control unit 13b during the first audio transmission process, and during the second audio transmission process, the communication unit 14b transmits the audio signal of the second control unit 13b.
  • An audio signal is transmitted to the VPA cloud server 120c based on the control.
  • the communication unit 14b is specifically a communication module.
  • the communication module is, in other words, a communication circuit.
  • the storage unit 16b is a voice recognition program that the first control unit 12b executes to recognize the first activation word and the second activation word, and VPA SDK-B and VPA SDK-C that the second control unit 13b executes. Is a storage device to be stored. Further, priority information to be described later is stored in the storage unit 16b.
  • the storage unit 16 b may be used as a buffer memory in which the audio signal of the audio acquired by the audio acquisition unit 11 is temporarily stored. Specifically, the storage unit 16b is realized by a semiconductor memory or the like.
  • the VPA cloud server 120b receives the voice signal of the voice acquired by the voice acquisition unit 11 during the first voice transmission process, and implements the VPA providing service by performing voice recognition processing on the received voice signal.
  • the VPA cloud server 120 b is an example of a first speech recognition server.
  • the specific configuration of the VPA cloud server 120 b is similar to that of the VPA cloud server 120.
  • the VPA cloud server 120c receives the audio signal of the voice acquired by the voice acquisition unit 11 during the second voice transmission processing, and implements the home appliance control service by performing voice recognition processing on the received voice signal.
  • the VPA cloud server 120c is an example of a second speech recognition server.
  • the specific configuration of the VPA cloud server 120c is similar to that of the VPA cloud server 120.
  • the smart speaker 110b (in other words, the information processing device 10b) can be connected to two VPA cloud servers.
  • Such a function of the information processing apparatus 10b is also described as an activation word search function.
  • the division of roles of the two VPA cloud servers is clarified.
  • the user may utter the first activation word if he wishes to receive the VPA provided service, and may utter the second activation word if he wishes to receive the home appliance control service. Therefore, the user is prevented from being confused by the activation word.
  • the speech recognition system 100b it may be considered that the user may want to switch to the other when one of the first speech transmission process and the second speech transmission process is being performed.
  • a word for switching voice transmission processing, a switching button for voice transmission processing, or the like is prepared.
  • the first control unit 12b may control switching from one of the first voice transmission process and the second voice transmission process to the other according to a predetermined priority.
  • FIG. 13 is a flowchart of the operation of such a speech recognition system 100b. Although it is determined in the flowchart of FIG. 13 whether or not to switch to the second voice transmission process during the first voice transmission process, it is also possible to determine whether to switch to the first voice transmission process during the second voice transmission process. The same operation is performed.
  • the second control unit 13b performs a first voice transmission process (S31).
  • the first voice transmission process is a process in which the voice signal of the voice acquired by the voice acquisition unit 11 is transmitted to the VPA cloud server 120b in real time.
  • the second control unit 13b starts the first sound transmission process when it recognizes that the sound signal output by the first control unit 12b indicates the first activation word.
  • the first control unit 12 b indicates that the voice signal of the voice acquired by the voice acquisition unit 11 during the first voice transmission process indicates a second activation word for causing the second control unit 13 b to start the second voice transmission process. It is determined whether or not (S32). When it is determined in step S32 that the audio signal indicates the second activation word (No in S33), the first audio transmission process is continued (S31).
  • step S32 when it is determined in step S32 that the audio signal indicates the second activation word (Yes in S33), that is, when the first control unit 12b recognizes that the audio is the second activation word, the first control The unit 12b makes a determination based on the priority (S34).
  • the priority is stored in advance in the storage unit 16b as priority information, and in step S34, the first control unit 12b refers to the priority information stored in the storage unit 16b.
  • the priority is set, for example, for each VPA cloud server to which the smart speaker 110b is connected (in other words, for each activation word). In this case, the first control unit 12b determines whether the first priority of the VPA cloud server 120b is lower than the second priority of the VPA cloud server 120c.
  • the audio signal corresponding to the second activation word is transmitted to the second control unit 13b.
  • Output S35
  • the second control unit 13b recognizes this as the second activation word, stops the first voice transmission process, and starts the second voice transmission process (S36).
  • the second voice transmission process is a process in which the voice signal of the voice acquired by the voice acquisition unit 11 is transmitted to the VPA cloud server 120c in real time.
  • the first control unit 12b determines that the priority of the VPA cloud server 120b is higher than the priority of the VPA cloud server 120c (No in S34), the second control of the audio signal corresponding to the second activation word is performed. It does not output to the part 13b. As a result, the first voice transmission process is continued (S31).
  • the second activation is performed based on the predetermined priority. It is determined whether an audio signal corresponding to a word is to be output to the second control unit 13b.
  • the voice recognition system 100b can switch the first voice transmission process to the second voice transmission process in consideration of the predetermined priority. If the voice recognition system 100b does not require the operation based on the priority as shown in FIG. 13, the first control unit 12b may be omitted. In this case, the second control unit 13 b acquires the audio signal directly from the audio acquisition unit 11.
  • the priority may be determined for each service provided to the user. Priorities may be defined, for example, for audio streaming services, weather forecasting services, e-commerce services, and home appliance control services.
  • the first control unit 12b determines that the first priority of the service provided as a result of the first voice transmission process is lower than the second priority of the service provided as a result of the second voice transmission process. (Yes in S34), an audio signal corresponding to the second activation word is output to the second control unit 13b (S35). In addition, when the priority of the first service is higher than the priority of the second service, the first control unit 12b does not output an audio signal corresponding to the second activation word to the second control unit 13b. As a result, the first voice transmission process is continued (S31).
  • the user may want to call the home appliance control service by the second voice transmission process and set the home appliance in the house to go out mode (power off). Conceivable.
  • the user may cancel the audio streaming service and receive provision of the home appliance control service by uttering the second activation word. Can. That is, the user can cancel the music playback, turn off the home appliance, and go out.
  • information indicating the service content transmitted from the third party cloud server group 130 or the like providing the service is received by the communication unit 14b as to what service the currently provided service is. Can be recognized. Such information is unnecessary when the service content and the VPA cloud server have a one-to-one relationship.
  • FIG. 14 is a simplified block diagram showing the configuration of a speech recognition system 100c according to the fifth embodiment.
  • the voice recognition system 100c includes a smart speaker 110, a television 190, a washing machine 170, a VPA cloud server 120b, a VPA cloud server 120c, a third party cloud server group 130, a home appliance control server 140, and an air conditioner group 150. And a home appliance control server 200, a television group 210, and a washing machine group 180.
  • the smart speaker 110, the television 190, and the washing machine 170 are home appliances manufactured and sold by the company A, and are installed in a user's home or the like.
  • the smart speaker 110 includes the information processing apparatus 10 having a start word conversion function.
  • the storage unit 16 included in the information processing apparatus 10 stores VPA SDK-B supplied from Company B, which is a VPA service provider that provides a voice recognition service using the VPA cloud server 120b. That is, the smart speaker 110 can be connected to the VPA cloud server 120b.
  • the television 190 includes an information processing apparatus 10 having a television function and an activation word conversion function.
  • the storage unit 16 included in the information processing apparatus 10 stores VPA SDK-C supplied from Company C, which is a VPA service provider that provides a voice recognition service using the VPA cloud server 120c. That is, the television 190 can be connected to the VPA cloud server 120c.
  • the washing machine 170 includes an information processing apparatus 10 having a washing function and an activation word conversion function.
  • the storage unit 16 included in the information processing apparatus 10 stores VPA SDK-C supplied from Company C, which is a VPA service provider that provides a voice recognition service using the VPA cloud server 120c. That is, the washing machine 170 can be connected to the VPA cloud server 120c.
  • the VPA cloud server 120 b is managed by the company B and can be connected to the third party cloud server group 130 and the home appliance control server 140.
  • the home appliance control server 140 has a function of controlling the air conditioner group 150, and is managed by the company A.
  • the VPA cloud server 120 c is managed by the company C and can be connected to the home appliance control server 140 and the home appliance control server 200.
  • the home appliance control server 200 has a function of controlling the television group 210 and a function of controlling the washing machine group 180, and is managed by the company A.
  • the user turns on the VPA function of the smart speaker 110.
  • the user In order to speak the activation word designated by company B and turn on the VPA function of the television 190 and the washing machine 170, it is necessary to speak the activation word designated by company C.
  • the user may unify the activation word for the smart speaker 110, the television 190, and the washing machine 170. it can.
  • the activation word may be unified to the activation word specified by company B, may be unified to the activation word specified by company C, or may be unified to other activation words.
  • FIG. 15 is a simplified block diagram showing the configuration of a speech recognition system 100d according to the sixth embodiment.
  • the voice recognition system 100d has a configuration in which the smart speaker 110 is replaced with a smart speaker 110b in the voice recognition system 100c.
  • the smart speaker 110b includes an information processing apparatus 10b having a function of connecting to a plurality of VPA cloud servers.
  • VPA SDK-B and VPA SDK-C are stored in the storage unit 16b of the information processing apparatus 10b. That is, the smart speaker 110b can be connected to the VPA cloud server 120b and the VPA cloud server 120c.
  • the user sets the activation word for the smart speaker 110, the television 190, and the washing machine 170 to an activation word specified by company B or an activation word specified by company C. It is possible to unify.
  • the information processing apparatus 10 recognizes that the voice acquired by the voice of the user and the voice acquired by the voice acquisition unit 11 are the first activation word
  • the first activation word The first control unit 12 outputs an audio signal corresponding to a second activation word different from the above, and the audio acquisition unit 11 recognizes that the audio signal output by the first control unit 12 indicates a second activation word.
  • the second control unit 13 is configured to perform start processing for starting transmission of the acquired voice signal of the voice to the VPA cloud server 120.
  • the VPA cloud server 120 is an example of a speech recognition server.
  • Such an information processing apparatus 10 can start transmission of voice to the VPA cloud server 120 by the first activation word other than the second activation word specified by the VPA service provider.
  • the activation word can be unified.
  • the first control unit 12 when the first control unit 12 recognizes that the voice acquired by the voice acquisition unit 11 is the second activation word, the first control unit 12 selects the audio signal corresponding to the second activation word as the second activation word. 2. Output to the control unit 13.
  • Such an information processing apparatus 10 can start transmission of voice to the VPA cloud server 120 by the first activation word other than the second activation word specified by the VPA service provider.
  • the first control unit 12 when the first control unit 12 recognizes that the voice acquired by the voice acquisition unit 11 is the second activation word, the first control unit 12 selects the audio signal corresponding to the second activation word as the second activation word. 2) Do not output to the control unit 13.
  • Such an information processing apparatus 10 can activate the speech recognition system 100a using only the first activation word among the first activation word and the second activation word.
  • the VPA cloud server 120 transmits a command to another server according to the result of speech recognition of the speech signal received from the information processing apparatus 10 after the activation processing.
  • the first control unit 12 recognizes that the voice acquired by the voice acquisition unit 11 is the first activation word
  • the first control unit 12 outputs an audio signal corresponding to the second activation word, and further designates the transmission destination of the command.
  • An audio signal corresponding to the designated word for output is output to the second control unit 13.
  • the user can omit the utterance of the designated word.
  • the first control unit 12 outputs, to the second control unit 13, an audio signal corresponding to the first activation word as an audio signal corresponding to the designated word.
  • the user can designate the transmission destination of the command by uttering the first activation word which should normally utter twice.
  • the speech recognition system 100 or the speech recognition system 100 a includes the information processing device 10 and the VPA cloud server 120.
  • Such speech recognition system 100 or speech recognition system 100a can start transmission of the speech signal to the VPA cloud server 120 by the first activation word other than the second activation word specified by the VPA service provider.
  • the audio corresponding to the second activation word different from the first activation word is output, and when it is recognized that the output audio signal indicates the second activation word, an activation process for starting transmission of the acquired audio signal of the audio to the VPA cloud server is performed.
  • Such an information processing method can start transmission of voice to the VPA cloud server 120 by the first activation word other than the second activation word specified by the VPA service provider.
  • the information processing apparatus 10 b when the information processing apparatus 10 b recognizes that the voice acquired by the voice acquisition unit 11 that acquires the voice of the user and the voice acquired by the voice acquisition unit 11 are the first activation word, Acquired by the audio acquisition unit 11 when it is recognized that the first control unit 12 b outputting an audio signal corresponding to the first activation word and the audio signal output by the first control unit 12 b indicate the first activation word And a second control unit 13b that starts a first voice transmission process of sending the voice signal of the voice to the VPA cloud server 120b.
  • the first control unit 12 b recognizes that the voice acquired by the voice acquisition unit 11 during the first voice transmission process is a second activation word for causing the second control unit 13 b to start the second voice transmission process.
  • the VPA cloud server 120b is an example of a first speech recognition server
  • the VPA cloud server 120c is an example of a second speech recognition server.
  • Such an information processing apparatus 10b can recognize both the first activation word and the second activation word, and can selectively transmit voice to the VPA cloud server 120b and the VPA cloud server 120c. Specifically, the information processing apparatus 10b can switch the first sound transmission process to the second sound transmission process in consideration of a predetermined priority.
  • the first control unit 12b performs second control of the audio signal corresponding to the second activation word based on the determination. It outputs to the part 13b.
  • Such an information processing apparatus 10 b can switch the first voice transmission process to the second voice transmission process based on the priority of the VPA cloud server.
  • the first control unit 12b performs a second control of the audio signal corresponding to the second activation word based on the determination. It does not output to the part 13b.
  • Such an information processing apparatus 10 b can continue the first voice transmission process based on the priority of the VPA cloud server.
  • the first control unit 12b performs the determination.
  • the voice signal corresponding to the second activation word is output to the second control unit 13 b based on
  • Such an information processing apparatus 10b can switch the first voice transmission process to the second voice transmission process based on the priority of the service.
  • the first control unit 12b performs the second control unit 13b on the basis of the above determination based on the audio signal corresponding to the second activation word. Do not output to
  • Such an information processing apparatus 10 b can continue the first voice transmission process based on the priority of the service.
  • the voice recognition system 100b further includes an information processing device 10b, a VPA cloud server 120b, and a VPA cloud server 120c.
  • Such a speech recognition system 100b can recognize both the first activation word and the second activation word, and can selectively transmit audio to the VPA cloud server 120b and the VPA cloud server 120c. Specifically, the speech recognition system 100b can switch the first speech transmission process to the second speech transmission process in consideration of a predetermined priority.
  • the voice of the user when the voice of the user is acquired and the acquired speech is recognized as the first activation word, an audio signal corresponding to the first activation word is output and output.
  • the first voice transmission process of transmitting the obtained voice signal of the voice to the VPA cloud server 120b is started, and the first voice transmission process is acquired during the first voice transmission process.
  • the selected voice is the second activation word for starting the second voice transmission process, it is determined whether to output the audio signal corresponding to the second activation word based on the predetermined priority.
  • the second voice transmission process is a process of sending the obtained voice voice signal to the VPA cloud server 120c different from the VPA cloud server 120b.
  • Such an information processing method can recognize both the first activation word and the second activation word, and can selectively transmit an audio signal to the VPA cloud server 120 b and the VPA cloud server 120 c. Specifically, the information processing method can switch the first sound transmission process to the second sound transmission process in consideration of a predetermined priority.
  • the comprehensive or specific aspects of the present disclosure may be realized by a device, a system, a method, an integrated circuit, a computer program, or a recording medium such as a computer readable CD-ROM, and the device, system, method. It may be realized by any combination of integrated circuit, computer program and recording medium.
  • the present disclosure may be realized as a program for causing a computer to execute the information processing method of the above embodiment, or realized as a computer readable non-transitory recording medium having such a program recorded thereon. It is also good.
  • another processing unit may execute the processing executed by a specific processing unit.
  • the order of the plurality of processes in the operation of the speech recognition system described in the above embodiment is an example.
  • the order of the plurality of processes may be changed, or the plurality of processes may be performed in parallel.
  • the components such as the first control unit and the second control unit may be realized by executing a software program suitable for the components.
  • Each component may be realized by a program execution unit such as a CPU or a processor reading and executing a software program recorded in a recording medium such as a hard disk or a semiconductor memory.
  • the first control unit and the second control unit may be realized as a single CPU or processor.
  • the components such as the first control unit and the second control unit may be realized by hardware.
  • the components such as the first control unit and the second control unit may be specifically realized by a circuit or an integrated circuit. These circuits may constitute one circuit as a whole or may be separate circuits. Each of these circuits may be a general-purpose circuit or a dedicated circuit.
  • the information processing apparatus of the present disclosure can start transmission of the voice signal to the voice recognition server other than the defined activation word.
  • the information processing apparatus of the present disclosure can unify activation words in a system in which services using a VPA device and a VPA cloud server are mixed.
  • the information processing apparatus of the present disclosure can contribute to the spread of VPA devices and the spread of services using a VPA cloud server by suppressing the user from feeling bothersome due to the mixture of activation words.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Telephonic Communication Services (AREA)
  • Telephone Function (AREA)
  • Computer And Data Communications (AREA)

Abstract

情報処理装置(10)は、ユーザの音声を取得する音声取得部(11)と、音声取得部(11)によって取得された音声が第一起動ワードであると認識した場合に、第一起動ワードと異なる第二起動ワードに対応する音声信号を出力する第一制御部(12)と、第一制御部(12)によって出力された音声信号が第二起動ワードを示すと認識した場合に、音声取得部(11)によって取得された音声の音声信号のVPAクラウドサーバ(120)への送信を開始するための起動処理を行う第二制御部(13)とを備える。

Description

情報処理装置、音声認識システム、及び、情報処理方法
 本開示は、音声認識システムに用いられる情報処理装置に関する。
 VPA(Virtual Personal Assistance)と呼ばれる、音声で機器を操作するサービスが普及し始めている。特許文献1には、起動ワードを検出した場合にユーザの発話を予測する情報処理装置が開示されている。
特開2017-138476号公報
 ところで、音声認識がクラウドサーバで行われる場合、情報処理装置からクラウドサーバへの音声信号の送信を開始するための起動ワードは、例えば、クラウドサーバを用いた音声認識サービスを提供する事業者によってあらかじめ規定される。
 本開示は、規定の起動ワード以外で音声認識サーバへの音声信号の送信を開始することができる情報処理装置を提供する。
 本開示の一態様に係る情報処理装置は、ユーザの音声を取得する音声取得部と、前記音声取得部によって取得された音声が第一起動ワードであると認識した場合に、前記第一起動ワードと異なる第二起動ワードに対応する音声信号を出力する第一制御部と、前記第一制御部によって出力された音声信号が前記第二起動ワードを示すと認識した場合に、前記音声取得部によって取得された音声の音声信号の音声認識サーバへの送信を開始するための起動処理を行う第二制御部とを備える。
 なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
 本開示の情報処理装置は、規定の起動ワード以外で音声認識サーバへの音声信号の送信を開始することができる。
図1は、スマートスピーカの機能を説明するための図である。 図2は、スマートスピーカを用いた家電の制御を説明するための図である。 図3は、サービスと起動ワードとの関係を示す図である。 図4は、ユーザがスマートフォンを使ってサービスを呼び出す場合を説明するための図である。 図5は、実施の形態1に係る音声認識システムの構成を示すブロック図である。 図6は、実施の形態1に係る音声認識システムの動作のフローチャートである。 図7は、実施の形態1における、サービスと起動ワードとの関係を示す図である。 図8は、実施の形態2に係る音声認識システムの動作のフローチャートである。 図9は、実施の形態2における、サービスと起動ワードとの関係を示す図である。 図10は、実施の形態3に係る音声認識システムの構成を示すブロック図である。 図11は、実施の形態3に係る音声認識システムの動作のフローチャートである。 図12は、実施の形態4に係る音声認識システムの構成を示すブロック図である。 図13は、実施の形態4に係る音声認識システムの動作のフローチャートである。 図14は、実施の形態5に係る音声認識システムの構成を示す簡易ブロック図である。 図15は、実施の形態6に係る音声認識システムの構成を示す簡易ブロック図である。
 (本開示の基礎となった知見)
 米国アマゾン(登録商標)社が提供するアレクサ(登録商標)、米国Google(登録商標)社が提供するGoogle Assistant(登録商標)、米国マイクロソフト(登録商標)社が提供するCortana(登録商標)等のいわゆるVPA(Virtual Personal Assistance)と呼ばれる、音声で機器を操作するサービスが普及し始めている。
 このようなサービスは、当初はスマートフォンまたはパーソナルコンピュータのアプリケーションとして提供されていたが、最近、スマートスピーカと呼ばれる単体の製品へのアプリケーションとしても提供されている。スマートスピーカは、ユーザが音声によって操作可能なスピーカであり、主として音楽ストリーミングサービスの提供を受けるためのスピーカである。つまり、スマートスピーカの主たる機能は、ユーザの音声に応じて、オーディオストリーミングサービスから提供される音楽を再生させることである。図1は、スマートスピーカの機能を説明するための図である。
 スマートスピーカ110の主たる機能は以下のように実現される。スマートスピーカ110が取得したユーザの音声の音声信号は、VPAクラウドサーバ120に送信される。VPAクラウドサーバ120は、受信した音声信号を音声認識処理してオーディオストリーミングサービスを提供するクラウドサーバ131に指令を送信し、クラウドサーバ131は、受信した指令に基づいてスマートスピーカ110に音楽を転送する。
 このような仕組みは、オーディオストリーミングサービスを提供するクラウドサーバ131のみならず、サードパーティクラウドサーバ群130に含まれる他のクラウドサーバにも適用できる。サードパーティクラウドサーバ群130のサービスプロバイダによってVPAサービスのプロバイダにサードパーティクラウドI/Fが提供されれば、ユーザは、スマートフォンと同様に、スマートスピーカ110からサードパーティクラウドサーバ群130が提供するサービスを利用することが可能になる。
 例えば、ユーザは、スマートスピーカ110に「今日の天気は」と発話することにより、天気予報サービスを提供するクラウドサーバ132から天気予報情報の提供を受けることができる。具体的には、スマートスピーカ110から「晴れです」といった音声が出力される。また、ユーザは、eコマースサイトを提供するクラウドサーバ133において、ユーザの商品の購入履歴が記憶されていれば、ユーザは、スマートスピーカ110に「同じ商品を買って」と発話することで同じ商品の購入を図ることができる。
 このようなスマートスピーカ110を通じた多様な対話機能は、住宅などに置かれたスマートスピーカ110が備えるマイクロフォンが、ユーザの音声、テレビの音声、及び、ラジオの音声などを録音して、VPAクラウドサーバ120に転送することによって実現される。VPAクラウドサーバ120は、音声認識機能(ASR: automatic speech recognition)によって音声信号をテキストに変換し、自然言語処理機能(NLP: natural language processing)によってテキストを機械語化する。VPAクラウドサーバ120は、さらに、コンテキスト理解機能によって機械語を特定のコンテキストにあった意味に変換し、最後にパーソナライズド機能によって各ユーザの情報に応じた指示内容に変換する。VPAクラウドサーバ120は、このような指示内容を指令として送信することにより、サードパーティクラウドサーバ群130を呼び出すことができる。
 また、スマートスピーカ110を用いれば、VPAクラウドサーバ120のVPAによって住宅内の家電を制御することもできる。図2は、スマートスピーカ110を用いた家電の制御を説明するための図である。
 図2に示されるように、VPAクラウドサーバ120が家電制御サーバ140に接続されれば、ユーザの住宅内のエアコン、照明、セキュリティシステム、または、テレビ等を音声によって制御することができる。
 図2では、制御対象の機器としてエアコンa~エアコンdを含むエアコン群150が例示されている。ユーザがスマートスピーカ110に対して「外出するので設定お願い」と発話すると、この音声の音声信号は、VPAクラウドサーバ120に送信される。VPAクラウドサーバ120は、音声認識機能によって音声信号をテキスト化し、自然言語処理機能によって外出モードの設定を指示する機械語に変換する。また、VPAクラウドサーバ120は、コンテキスト理解機能によって、外出モードの設定を指示する機械語をユーザの住宅内の電気機器をオフするコマンドに変換し、パーソライズド機能によって、ユーザ情報に基づき4台のエアコンをオフするコマンドに変換する。このように、VPAを利用した家電制御によれば、ユーザが「外出するので設定お願い」と発話することにより4台のエアコンa~dがオフされる。つまり、VPAを利用した家電制御によれば、個々のエアコンa~dをリモートコントローラの使用によってオフする以上の機能が実現される。 
 ところで、ユーザは、スマートフォンによってこのようなVPAを利用する場合は、スマートフォンが備えるボタンを操作するか、あるいは、スマートフォンに表示されたアイコンをタッチする等の操作を行うことでVPAを起動することができる。
 一方、スマートスピーカ110によってVPAを利用する場合に、スマートスピーカ110が備えるボタンの操作によってVPAを起動すると、音声によってハンズフリーで操作が可能なスマートスピーカ110の利点が得られない。このため、スマートスピーカ110によってVPAを利用する場合、VPAの起動は、音声によって行われることが望ましい。例えば、あらかじめ起動ワードが定められ、VPAクラウドサーバ120によって起動ワードが認識されることでVPAが起動される構成が考えられる。起動ワードは、ウェイクワード等と呼ばれる場合もある。
 しかしながら、このような構成では、スマートスピーカ110が備えるマイクロフォンを通じて音声信号が常にVPAクラウドサーバ120に転送される必要がある。そうすると、ユーザは自分のプライバシーが守られないことを懸念する。したがって、ユーザのプライバシーを考慮するとこのような構成を採用することは難しい。 
 そこで、起動ワードに関してはスマートスピーカ110において音声認識する構成が採用される。VPAが起動された後にスマートスピーカ110が備えるマイクロフォンによって取得される音声の音声信号は、VPAクラウドサーバ120に転送される。図3は、サービスと起動ワードとの関係を示す図である。
 図3に示されるように、現状、ユーザは、スマートスピーカ110を経由して、オーディオストリーミングサービス、天気予報サービス、及び、eコマースサイトなどのVPA提供サービス(家電制御サービス以外のサービス)を呼び出すときも、家電制御サービスを呼び出すときも、VPAサービスプロバイダが指定する起動ワードを使うことになる。VPAサービスプロバイダをB社とすると、起動ワードは、例えば、「B社」、「Hey B社」などである。
 VPAが起動された後には、ユーザは、機能起動ワード、及び、コマンド内容をスマートスピーカ110に対して発話することでVPA提供サービス及び家電制御サービスを呼び出すことができる。
 例えば、上述のエアコン群150の製造・販売を行うA社が家電制御サービスを提供している場合には、ユーザは、機能起動ワードとして「A社」と発話し、制御対象及び制御内容を指定するためのコマンド内容として「エアコン ON」と発話する。これにより、住宅内のエアコン群150の制御が可能となる。
 ところで、図4に示されるように、ユーザがスマートフォンを使う場合、VPA提供サービスを呼び出すために用いられるアプリケーションと、家電制御サービスを呼び出すために用いられるアプリケーションとは、通常異なる。図4は、ユーザがスマートフォンを使ってサービスを呼び出す場合を説明するための図である。このため、ユーザは、VPA提供サービスの世界と、家電制御サービスの世界とは別の世界であると認識し、2つの異なるサービス体系があると考える。
 このように2つのサービス体系があることを認識したユーザが、A社が製造・販売するスマートスピーカ110のようなVPA機器を購入し使用する場合がある。VPA提供サービスを呼び出す場合に、VPAサービスプロバイダが指定する起動ワードを使うことは、ユーザにとってスマートフォンを使ってアプリを実行することと同じような感覚である。このため、ユーザに違和感はなく自然である。
 しかしながら、家電制御サービスを呼び出す場合に、VPAサービスプロバイダが指定する起動ワードを使うと、ユーザに違和感を与えてしまう可能性がある。
 例えば、制御対象の家電機器、及び、VPA機器に製造・販売元のA社のロゴが付与されている場合、A社の家電機器を制御するために、VPAサービスプロバイダが指定する「B社」「Hey B社」などの起動ワードを発話することは不自然である。
 また、ユーザは、家電制御サービスの提供元がA社ではなく、VPAサービスプロバイダ(つまり、B社)であると勘違いしてしまう可能性もある。家電制御サーバ140において発生した障害により家電制御サービスが提供されなかった場合に、ユーザは、VPAサービスプロバイダの問題であると考え、VPAサービスプロバイダの電話相談窓口に電話する恐れがある。このように、VPAサービスプロバイダが指定する起動ワードが使用される場合には、ユーザにとってサービスの提供者(つまり、責任者)がわかりづらくなることも課題となる。
 そこで、発明者らは、VPAサービスプロバイダが指定する起動ワード以外で音声認識システムを起動することができるスマートスピーカ110の構成を見出した。また、発明者らは、複数のVPAクラウドサーバに接続することができるスマートスピーカ110の構成を見出した。
 以下、実施の形態について、図面を参照しながら具体的に説明する。なお、以下で説明する実施の形態は、いずれも包括的または具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
 なお、各図は模式図であり、必ずしも厳密に図示されたものではない。また、各図において、実質的に同一の構成に対しては同一の符号を付し、重複する説明は省略または簡略化される場合がある。
 (実施の形態1)
 [構成]
 以下、実施の形態1に係る音声認識システムの構成について説明する。図5は、実施の形態1に係る音声認識システムの構成を示すブロック図である。
 図5に示されるように、実施の形態1に係る音声認識システム100は、スマートスピーカ110と、VPAクラウドサーバ120と、サードパーティクラウドサーバ群130と、家電制御サーバ140と、エアコン群150とを備える。スマートスピーカ110及びエアコン群150は、ユーザの住宅などに設置されている。
 音声認識システム100においては、スマートスピーカ110の音声取得部11によって取得された音声の音声信号はVPAクラウドサーバ120に送信され、音声認識処理される。ただし、上述した起動ワードについては、スマートスピーカ110内で音声認識処理される。以下、音声認識システム100を構成するスマートスピーカ110、VPAクラウドサーバ120、及び、家電制御サーバ140について詳細に説明する。
 [スマートスピーカ]
 スマートスピーカ110は、音声ユーザインターフェースとして、VPAクラウドサーバ120へ音声信号を送信する情報処理装置10を備える。情報処理装置10は、音声取得部11と、第一制御部12と、第二制御部13と、通信部14と、出音部15と、記憶部16とを備える。
 音声取得部11は、ユーザの音声を取得する。音声取得部11は、具体的には、マイクロフォンである。
 第一制御部12は、音声取得部11と第二制御部13との間に位置し、音声取得部11からユーザの音声の音声信号を取得し、取得したユーザの音声を常時モニタする。言い換えれば、第一制御部12は、音声取得部11から第二制御部13への音声の経路上に位置する。第一制御部12は、音声取得部11によって取得された音声が第一起動ワードであると認識した場合に、VPAサービスプロバイダ(つまり、B社)が指定する第二起動ワードに対応する音声信号を出力する。ここで、第一起動ワードは、例えば、ハードウェアプロバイダ(つまり、スマートスピーカ110の製造・販売元のA社)が指定するハード指定起動ワードであり、第二起動ワードとは異なる。
 このように、第一制御部12は、第一起動ワードを第二起動ワードに変換して第二制御部13に出力する。これにより、ユーザが第一起動ワードを発話し、第一起動ワードが音声取得部11によって取得されても、第二制御部13は第二起動ワードが取得されたと認識する。第二起動ワードが取得されたと認識した第二制御部13は、従来通りVPAサービスプロバイダが提供するVPA SDK(Software Development Kit)に従ってVPA機能をONするための起動処理を行う。つまり、第一制御部12によれば、第二制御部13に第一起動ワードによって起動処理を行わせることができる。第一起動ワードとしてハード指定起動ワードが用いられる場合、このような第一制御部12の機能は、ハード指定起動ワード検索機能とも記載される。
 なお、実施の形態1では、第一制御部12は、音声取得部11によって取得された音声の音声信号が第二起動ワードであると認識した場合に、第二起動ワードに対応する音声信号を出力する。これにより、第二制御部13は、音声取得部11によって取得された音声が第一起動ワード及び第二起動ワードのどちらであっても起動処理を行うことができる。
 以上説明した第一制御部12は、例えば、マイクロコンピュータによって実現されるが、プロセッサによって実現されてもよい。
 第二制御部13は、第一制御部12によって出力された音声信号が第二起動ワードを示すと認識した場合に、音声取得部11によって取得された音声(より詳細には、音声取得部11によって取得された音声の音声信号)のVPAクラウドサーバ120への送信を開始するための起動処理を行う。第二制御部13は、具体的には、記憶部16に記憶されたVPA SDKを実行する。第二制御部13は、例えば、マイクロコンピュータによって実現されるが、プロセッサによって実現されてもよい。
 通信部14は、VPA機能がオンされた後、第二制御部13の制御に基づいて音声信号をVPAクラウドサーバ120の通信部121に送信する。通信部14は、具体的には、通信モジュールである。通信モジュールは、言い換えれば、通信回路である。通信部14は、有線通信を行ってもよいし、無線通信を行ってもよい。なお、図示されないが、通信部14と通信部121との間には、ブロードバンドルータなどの中継装置、及び、インターネットなどの通信ネットワークが介在する。
 出音部15は、第二制御部13の制御に基づいて出音する。出音部15は、例えば、オーディオストリーミングサービスを提供するクラウドサーバ131から通信部14に転送される音楽を出音する。出音部15は、具体的には、スピーカである。
 記憶部16は、第一制御部12が第一起動ワード及び第二起動ワードを認識するために実行する音声認識用プログラム、第二制御部13が実行するVPA SDKなどが記憶される記憶装置である。また、記憶部16には、第一制御部12が第一起動ワードまたは第二起動ワードに対応する音声信号を出力するために読み出す音声データが記憶されてもよい。記憶部16は、音声取得部11によって取得された音声が音声データとして一時的に記憶されるバッファメモリとして利用されてもよい。記憶部16は、具体的には、半導体メモリなどによって実現される。
 [VPAクラウドサーバ]
 VPAクラウドサーバ120は、スマートスピーカ110の起動後(VPA機能がオンした後)に音声取得部11によって取得された音声の音声信号を受信し、受信した音声信号を音声認識処理することにより、VPA提供サービスまたは家電制御サービスを実現する。VPAクラウドサーバ120は、音声認識サーバの一例である。VPAクラウドサーバ120は、通信部121と、VPA制御部122と、記憶部123とを備える。
 通信部121は、スマートスピーカ110の通信部14によって送信される音声信号を受信する。また、通信部121は、VPA制御部122の制御部に基づいて、サードパーティクラウドサーバ群130または家電制御サーバ140に指令を送信する。通信部121は、具体的には、通信モジュールである。通信モジュールは、言い換えれば、通信回路である。
 VPA制御部122は、通信部121によって受信された音声信号を音声認識処理し、音声認識処理の結果得られる指令を通信部121に送信させる。上述のように、音声認識処理においては、音声認識機能、自然言語処理機能、コンテキスト理解機能、及び、パーソナライズド機能などが用いられる。VPA制御部122は、例えば、マイクロコンピュータによって実現されるが、プロセッサによって実現されてもよい。
 記憶部123は、VPA制御部122が音声認識処理を行うために実行する音声認識用プログラムなどが記憶される記憶装置である。また、記憶部123には、サードパーティクラウドサーバ群130が提供する各種サービスに対応したプログラムであるサードパーティクラウドI/Fも記憶される。記憶部123は、具体的には、半導体メモリなどによって実現される。
 [家電制御サーバ]
 家電制御サーバ140は、VPAクラウドサーバ120から指令を受信し、受信した指令に基づいてエアコン群150を制御することにより家電制御サービスをユーザに提供する。なお、エアコン群150は、制御対象の家電機器の一例であり、制御対象の家電機器は、エアコン以外の家電機器であってもよい。家電制御サーバ140は、通信部141と、家電制御部142と、記憶部143とを備える。
 通信部141は、VPAクラウドサーバ120の通信部121によって送信される指令を受信する。また、通信部141は、家電制御部142の制御部に基づいて、エアコン群150に制御信号を送信する。通信部141は、具体的には、通信モジュールである。通信モジュールは、言い換えれば、通信回路である。
 家電制御部142は、通信部141によって受信された指令に応じた制御信号を通信部141に送信させる。家電制御部142は、例えば、マイクロコンピュータによって実現されるが、プロセッサによって実現されてもよい。
 記憶部143は、家電制御部142がエアコン群150を制御するための制御プログラムなどが記憶される記憶装置である。記憶部143は、具体的には、半導体メモリなどによって実現される。
 [動作]
 次に、音声認識システム100の動作について説明する。図6は、音声認識システム100の動作のフローチャートである。
 まず、スマートスピーカ110の第二制御部13は、初期化処理を行う(S11)。初期化処理は、例えば、スマートスピーカ110への給電が開始された際に行われる。スマートスピーカ110は、初期化処理によって第一起動ワード及び第二起動ワードの認識が可能な待機状態となる。なお、待機状態においては、VPAクラウドサーバ120への音声信号の送信は停止されている。
 次に、音声取得部11は、ユーザの音声を取得する(S12)。第一制御部12は、取得された音声の音声信号音声認識処理を行い、音声取得部11によって取得された音声が第一起動ワードであるか否かを判定する(S13)。上述のように、第一起動ワードは、例えば、ハードウェアプロバイダ(つまり、スマートスピーカ110の製造・販売元のA社)が指定するハード指定起動ワードである。第一起動ワードは、例えば、「A社」である。
 第一制御部12は、音声取得部11によって取得された音声が第一起動ワードであると判定した場合(S13でYes)、記憶部16にあらかじめ記憶された第二起動ワードに対応する音声データを読み出し(S14)、第二起動ワードに対応する音声信号を第二制御部13に出力する(S16)。第二起動ワードは、VPAサービスプロバイダ(つまり、B社)が指定する起動ワードである。第二起動ワードは、例えば、「B社」、「Hey B社」などである。
 一方、第一制御部12は、音声取得部11によって取得された音声が第一起動ワードでないと判定した場合(S13でNo)、音声取得部11によって取得された音声が第二起動ワードであるか否かを判定する(S15)。
 第一制御部12は、音声取得部11によって取得された音声が第二起動ワードであると判定した場合(S15でYes)、第二起動ワードに対応する音声信号を第二制御部13に出力する(S16)。なお、この場合、第一制御部12は、例えば、ステップS12において取得された音声の音声信号を一時的に記憶部16に記憶しておき、記憶された音声信号を第二制御部13に出力するが、ステップS14と同様に記憶部16にあらかじめ記憶された第二起動ワードに対応する音声データを読み出してもよい。第一制御部12は、音声取得部11によって取得された音声が第二起動ワードでないと判定した場合(S15でNo)、待機状態が継続され、音声取得部11による音声の取得が行われる(S11)。
 なお、待機状態において、音声取得部11によって取得された第一起動ワード及び第二起動ワード以外の音声の音声信号は第一制御部12を通じて第二制御部13に出力されてもよいし、第一制御部12によって第二制御部13への出力が停止されてもよい。
 第二制御部13は、第一制御部12によって第二起動ワードに対応する音声信号が出力されると(S16)、これを第二起動ワードであると認識し、起動処理を行う(S17)。起動処理は、音声取得部11によって取得された音声の音声信号のVPAクラウドサーバ120への送信を開始するための処理であり、この結果、VPA機能がオンされる。
 音声取得部11は、起動処理後も継続して音声を取得し(S18)、第二制御部13は、起動処理後に音声取得部11によって取得された音声の音声信号を、通信部14を用いてVPAクラウドサーバ120にリアルタイム送信する(S19)。
 VPAクラウドサーバ120の通信部121は、通信部14から音声信号を受信し、取得した音声信号に対して音声認識処理を行う(S20)。この結果、ステップS18において取得された音声応じて、ユーザに様々なサービスが提供される。
 以上説明したように、音声認識システム100においては、第一制御部12は、第一起動ワードを第二起動ワードに変換して第二制御部13に出力する。これにより、ユーザが第一起動ワードを発話し、第一起動ワードが音声取得部11によって取得されても、第二制御部13は第二起動ワードが取得されたと認識する。第二起動ワードが取得されたと認識した第二制御部13は、これまで通りVPAサービスプロバイダが提供するVPA SDKに従ってVPA機能をONするための起動処理を行い、VPA機能をオンすることができる。言い換えれば、第一制御部12によれば、VPA SDKを改変することなく、第一起動ワードによってVPA機能をオンすることができる。
 また、第一制御部12は、音声取得部11によって取得された音声が第二起動ワードであると認識した場合に、第二起動ワードに対応する音声信号を出力する。これにより、第二制御部13は、音声取得部11によって取得された音声が第一起動ワード及び第二起動ワードのどちらであっても起動処理を行い、VPA機能をオンすることができる。図7は、実施の形態1における、サービスと起動ワードとの関係を示す図である。図7に示されるように、実施の形態1では、VPAサービスプロバイダが指定する単語(つまり、第二起動ワード)に加えて、A社が指定する単語(つまり、第一起動ワード)が起動ワードとして追加される。
 このような構成においては、ユーザは、VPA提供サービスを受けたい場合には、第二起動ワードを発話し、家電制御サービスを受けたい場合には第一起動ワードを発話する、などの使い分けを行うこともできる。このような使い分けは、図4で説明したスマートフォン160におけるアプリケーションの使い分けに類似しているため、ユーザに違和感を与えにくいと考えられる。
 なお、起動ワードは、ユーザによって指定されてもよく、例えば、図7に示されるように、ユーザのペットの名前等が用いられてもよい。この場合、記憶部16には、ユーザの音声に基づいて起動ワードをユーザ指定の単語にするための音声認識プログラムが記憶される。
 (実施の形態2)
 ところで、図7に示されるように、ユーザは、例えば、エアコンに外出モードの動作を行わせるために、第一起動ワードである「A社」と発話してスマートスピーカ110を起動した後、機能起動ワードとして「A社」と発話し、さらに、コマンド内容として「外出モード」と発話する。つまり、「A社」を2度発話する必要がある。
 ここで、第一起動ワードが「A社」のような家電機器の製造・販売元の社名である場合、第一起動ワードの次に家電制御サービスを受けるための機能起動ワードが発話される可能性は高くなる。このような場合、第一制御部12は、音声取得部11によって取得された音声が第一起動ワードであると認識した場合に、第二起動ワードに対応する音声信号を出力するだけでなく、さらに、機能起動ワードに対応する音声信号を出力してもよい。図8は、このような音声認識システム100の動作のフローチャートである。以下の実施の形態2では、主として図6のフローチャートとの差分について説明が行われ、既出事項については説明が省略される場合がある。
 また、実施の形態2では、機能起動ワードは、指定ワードとも記載される。上述のようにVPAクラウドサーバ120は、起動処理の後にスマートスピーカ110(つまり、情報処理装置10)から受信した音声信号の音声認識結果に応じて他のサーバに指令を送信する。指定ワードは、この指令の送信先のサーバを指定するための単語である。
 実施の形態1と同様に、ステップS13において第一制御部12は、音声取得部11によって取得された音声が第一起動ワードであるか否かを判定する(S13)。第一制御部12は、音声取得部11によって取得された音声が第一起動ワードであると判定した場合(S13でYes)、記憶部16にあらかじめ記憶された第二起動ワードに対応する音声データを読み出す(S14)。そして、第一制御部12は、指定ワード送信モードをオンにする(S21)。第一制御部12は、具体的には、例えば、記憶部16内で指定ワード送信モードに対応するフラグを立てる。
 その後、第一制御部12は、第二起動ワードに対応する音声信号を第二制御部13に出力し(S16)、第二制御部13は、これを第二起動ワードであると認識し、起動処理を行う(S17)。
 音声取得部11は、起動処理後も継続して音声を取得する(S18)。ここで、第一制御部12は、指定ワード送信モードがオンであるか否かを判定する(S22)。第一制御部12は、具体的には、記憶部16を参照することにより、指定ワード送信モードに対応するフラグが立っているか否かを判定する。
 第一制御部12は、指定ワード送信モードがオンであると判定すると(S22でYes)、記憶部16にあらかじめ記憶された指定ワードに対応する音声データを読み出し、指定ワードに対応する音声信号を第二制御部13に出力する。そうすると、第二制御部13は、指定ワードに対応する音声信号を通信部14にVPAクラウドサーバ120へ送信させる(S23)。
 その後、第二制御部13は、起動処理後に音声取得部11によって取得された音声の音声信号を、通信部14に送信させる(S19)。第一制御部12によって指定ワード送信モードがオンでないと判定された場合には(S22でNo)、ステップS23は、省略される。
 以上説明したように、図8のフローチャートにおいては、第一制御部12は、音声取得部11によって取得された音声が第一起動ワードであると認識した場合に(S13でYes)、第二起動ワードに対応する音声信号を出力し(S16)、さらに、指定ワードに対応する音声信号を出力する(S23)。指定ワードに対応する音声信号は、ユーザが指定ワードを発話しておらず、音声取得部11が指定ワードに対応する音声を取得していないにもかかわらず出力される。
 これにより、ユーザは、指定ワードの発話を省略することができる。図9に示されるように、指定ワードとして「A社」に対応する音声信号が送信されれば、ユーザは、「A社」の発話を省略することができる。図9は、実施の形態2における、サービスと起動ワードとの関係を示す図である。
 このような指定ワードの自動送信は、ユーザが、VPA提供サービスを受けたい場合には第二起動ワードを発話し、家電制御サービスを受けたい場合には第一起動ワードを発話する、などの使い分けを行う場合に有用である。
 なお、指定ワードは、例えば、第一起動ワードと同一の「A社」である。つまり、第一制御部12は、指定ワードに対応する音声信号として、第一起動ワードに対応する音声信号を出力する。しかしながら、指定ワードと第一起動ワードは異なってもよい。例えば、図9に基づき、第一起動ワードが「A社」で、指定ワードが「テレビ」であってもよい。
 (実施の形態3)
 情報処理装置10は、スマートスピーカ110以外の家電機器に実装されてもよい。例えば、情報処理装置10は、洗濯機に実装されてもよい。図10は、このような実施の形態3に係る音声認識システムの構成を示すブロック図である。
 図10に示されるように、実施の形態3に係る音声認識システム100aは、洗濯機170と、VPAクラウドサーバ120と、家電制御サーバ140と、洗濯機群180とを備える。洗濯機170は、ユーザの住宅などに設置されており、洗濯機群180にも含まれる。
 洗濯機170は、洗濯機能を実現するための洗濯制御部20に加えて、情報処理装置10を備える。つまり、洗濯機170は、VPAに対応した家電機器である。洗濯機170は、例えば、A社によって製造・販売される家電機器である。
 ユーザは、例えば、洗濯機170の洗濯開始ボタンを押した後に、「洗濯が終ったら教えて」と発話する。そうすると、洗濯の完了後、家電制御サーバ140からユーザのスマートフォン160に完了メッセージが送信される。
 音声認識システム100aでは、主として洗濯機170に関連する家電制御サービスの提供を受けることが想定されている。このため、音声認識システム100aには、サードパーティクラウドサーバ群130は含まれていない。したがって、A社で製造・販売された洗濯機170の起動ワードとして、VPAサービスプロバイダが指定する第二起動ワード(例えば、「B社」「Hey B社」)が用いられることは、非常に不自然である。 
 そこで、音声認識システム100aにおいては、情報処理装置10の第一制御部12は、音声取得部11によって取得された音声が第二起動ワードであると認識した場合に、第二起動ワードに対応する音声信号を出力しない。つまり、第二起動ワードは、第一制御部12によってマスクされる。図11は、このような音声認識システム100aの動作のフローチャートである。
 図11のフローチャートにおいては、図6のフローチャートに示されるステップS15が省略されている。ステップS13において音声取得部11によって取得された音声が第一起動ワードでないと判定された場合(S13でNo)、待機状態が継続され、音声取得部11による音声の取得が行われる(S11)。
 つまり、音声認識システム100aにおいては、第一起動ワードによってVPA機能をオンすることができるが、第二起動ワードによってVPA機能をオンすることはできない。言い換えれば、音声認識システム100aにおいては、VPAサービスプロバイダが指定する第二起動ワードからハードウェアプロバイダの指定する第一起動ワードへの起動ワードの変更が実現されている。
 これにより、A社で製造・販売された洗濯機170の起動ワードとして、VPAサービスプロバイダが指定する第二起動ワードが用いられないため、ユーザに違和感を与えてしまうことが抑制される。
 (実施の形態4)
 上記実施の形態1~3では、情報処理装置10は、1つのVPAクラウドサーバ120にのみ接続可能であったが、情報処理装置10は、複数のVPAクラウドサーバに接続可能であってもよい。図12は、このような実施の形態4に係る音声認識システム100bの構成を示すブロック図である。
 図12に示されるように、実施の形態3に係る音声認識システム100bは、スマートスピーカ110bと、VPAクラウドサーバ120bと、VPAクラウドサーバ120cと、サードパーティクラウドサーバ群130と、家電制御サーバ140と、エアコン群150とを備える。
 スマートスピーカ110bは、音声ユーザインターフェースとして、VPAクラウドサーバ120b及びVPAクラウドサーバ120cへ音声信号を送信する情報処理装置10bを備える。情報処理装置10bは、音声取得部11と、第一制御部12bと、第二制御部13bと、通信部14bと、出音部15と、記憶部16bとを備える。以下、情報処理装置10bの情報処理装置10との相違点について説明する。
 なお、実施の形態4では、第一起動ワード及び第二起動ワードの定義が実施の形態1~3と異なる。実施の形態4では、第一起動ワードは、スマートスピーカ110bがVPAクラウドサーバ120bに接続するための起動ワードであり、第二起動ワードは、スマートスピーカ110bがVPAクラウドサーバ120cに接続するための起動ワードである。
 第一制御部12bは、音声取得部11と第二制御部13bとの間に位置し、音声取得部11によって取得されたユーザの音声を常時モニタする。第一制御部12bは、例えば、音声取得部11によって取得された音声が第一起動ワードであると認識した場合に、第一起動ワードに対応する音声信号を第二制御部13bに出力する。また、第一制御部12bは、音声取得部11によって取得された音声が第二起動ワードであると認識した場合に、第二起動ワードに対応する音声信号を第二制御部13bに出力する。第一制御部12bは、例えば、取得された音声の音声信号を一時的に記憶部16bに記憶しておき、記憶された音声信号を第二制御部13bに出力する。第一制御部12bは、例えば、マイクロコンピュータによって実現されるが、プロセッサによって実現されてもよい。
 第二制御部13bは、第一制御部12bによって出力された音声信号が第一起動ワードであると認識した場合に、音声取得部11によって取得された音声の音声信号をVPAクラウドサーバ120bへ送信する第一音声送信処理を開始する。第二制御部13bは、具体的には、記憶部16bに記憶されたVPA SDK-Bを実行する。VPA SDK-Bは、VPAクラウドサーバ120bを用いて音声認識サービスを提供するB社によって提供される。
 また、第二制御部13bは、第一制御部12bによって出力された音声信号が第二起動ワードであると認識した場合に、音声取得部11によって取得された音声信号をVPAクラウドサーバ120cへ送信する第二音声送信処理を開始する。第二制御部13bは、具体的には、記憶部16bに記憶されたVPA SDK-Cを実行する。VPA SDK-Cは、VPAクラウドサーバ120cを用いて音声認識サービスを提供するC社によって提供される。
 第二制御部13bは、例えば、マイクロコンピュータによって実現されるが、プロセッサによって実現されてもよい。
 通信部14bは、第一音声送信処理中には、第二制御部13bの制御に基づいて音声信号をVPAクラウドサーバ120bに送信し、第二音声送信処理中には、第二制御部13bの制御に基づいて音声信号をVPAクラウドサーバ120cに送信する。通信部14bは、具体的には、通信モジュールである。通信モジュールは、言い換えれば、通信回路である。
 記憶部16bは、第一制御部12bが第一起動ワード及び第二起動ワードを認識するために実行する音声認識用プログラム、第二制御部13bが実行するVPA SDK-B及びVPA SDK-Cなどが記憶される記憶装置である。また、記憶部16bには、後述する優先度情報が記憶される。記憶部16bは、音声取得部11によって取得された音声の音声信号が一時的に記憶されるバッファメモリとして利用されてもよい。記憶部16bは、具体的には、半導体メモリなどによって実現される。
 VPAクラウドサーバ120bは、第一音声送信処理中に音声取得部11によって取得された音声の音声信号を受信し、受信した音声信号を音声認識処理することにより、VPA提供サービスを実現する。VPAクラウドサーバ120bは、第一音声認識サーバの一例である。VPAクラウドサーバ120bの具体的構成は、VPAクラウドサーバ120と同様である。
 VPAクラウドサーバ120cは、第二音声送信処理中に音声取得部11によって取得された音声の音声信号を受信し、受信した音声信号を音声認識処理することにより、家電制御サービスを実現する。VPAクラウドサーバ120cは、第二音声認識サーバの一例である。VPAクラウドサーバ120cの具体的構成は、VPAクラウドサーバ120と同様である。
 このように、音声認識システム100bにおいては、スマートスピーカ110b(言い換えれば、情報処理装置10b)は、2つのVPAクラウドサーバに接続可能である。このような情報処理装置10bの機能は、起動ワード検索機能とも記載される。
 音声認識システム100bにおいて、2つのVPAクラウドサーバが互いに異なるサービスの提供に用いられれば、2つのVPAクラウドサーバの役割分担が明確化される。ユーザは、VPA提供サービスを受けたい場合には第一起動ワードを発話し、家電制御サービスを受けたい場合には第二起動ワードを発話すればよい。このため、ユーザが起動ワードによって混乱してしまうことが抑制される。 
 ところで、音声認識システム100bにおいては、ユーザが第一音声送信処理及び第二音声送信処理の一方が行われているときに他方に切り替えたい場合があると考えられる。このような場合、例えば、音声送信処理の切り替え用のワード、または、音声送信処理の切り替えボタン等が準備される。ここで、音声認識システム100bにおいては、第一制御部12bが所定の優先度によって第一音声送信処理及び第二音声送信処理の一方から他方への切り替えを制御してもよい。図13は、このような音声認識システム100bの動作のフローチャートである。なお、図13のフローチャートでは、第一音声送信処理中に第二音声送信処理に切り替えるか否かが判定されるが、第二音声送信処理中に第一音声送信処理に切り替えるか否かについても同様の動作となる。
 第二制御部13bは、第一音声送信処理を行う(S31)。第一音声送信処理は、音声取得部11によって取得された音声の音声信号がVPAクラウドサーバ120bにリアルタイム送信される処理である。上述のように、第二制御部13bは、第一制御部12bによって出力された音声信号が第一起動ワードを示すと認識した場合に、第一音声送信処理を開始する。
 第一制御部12bは、第一音声送信処理中に音声取得部11によって取得された音声の音声信号が、第二制御部13bに第二音声送信処理を開始させるための第二起動ワードを示すか否かを判定する(S32)。ステップS32において音声信号が第二起動ワードを示すと判定された場合(S33でNo)、第一音声送信処理が継続される(S31)。
 一方、ステップS32において音声信号が第二起動ワードを示すと判定された場合(S33でYes)、つまり、第一制御部12bによって音声が第二起動ワードであると認識された場合、第一制御部12bは優先度に基づく判定を行う(S34)。
 優先度は、優先度情報としてあらかじめ記憶部16bに記憶され、ステップS34において、第一制御部12bは記憶部16bに記憶された優先度情報を参照する。優先度は、例えば、スマートスピーカ110bの接続先のVPAクラウドサーバごと(言い換えれば、起動ワードごと)に定められる。この場合、第一制御部12bは、VPAクラウドサーバ120bの第一優先度がVPAクラウドサーバ120cの第二優先度よりも低いか否かを判定する。
 第一制御部12bは、VPAクラウドサーバ120bの優先度がVPAクラウドサーバ120cの優先度よりも低いと判定した場合(S34でYes)、第二起動ワードに対応する音声信号を第二制御部13bに出力する(S35)。第二制御部13bは、これを第二起動ワードであると認識し、第一音声送信処理を停止して第二音声送信処理を開始する(S36)。第二音声送信処理は、音声取得部11によって取得された音声の音声信号がVPAクラウドサーバ120cにリアルタイム送信される処理である。
 一方、第一制御部12bは、VPAクラウドサーバ120bの優先度がVPAクラウドサーバ120cの優先度よりも高いと判定した場合(S34でNo)、第二起動ワードに対応する音声信号を第二制御部13bに出力しない。この結果、第一音声送信処理が継続される(S31)。
 このように、第一制御部12bは、第一音声送信処理中に音声取得部11によって取得された音声が第二起動ワードであると認識した場合に、所定の優先度に基づいて第二起動ワードに対応する音声信号を第二制御部13bに出力するか否かの判定を行う。
 これにより、音声認識システム100bは、所定の優先度を考慮して第一音声送信処理を第二音声送信処理に切り替えることができる。なお、音声認識システム100bにおいて図13のような優先度に基づく動作が不要である場合には、第一制御部12bは省略されてもよい。この場合、第二制御部13bは、音声取得部11から直接音声信号を取得する。
 なお、優先度は、ユーザに提供されるサービスごとに定められてもよい。優先度は、例えば、オーディオストリーミングサービス、天気予報サービス、eコマースサービス、及び、家電制御サービスに対して定められてもよい。
 この場合、第一制御部12bは、第一音声送信処理の結果として提供されるサービスの第一優先度が第二音声送信処理の結果として提供されるサービスの第二優先度よりも低い場合に(S34でYes)、第二起動ワードに対応する音声信号を第二制御部13bに出力する(S35)。また、第一制御部12bは、第一サービスの優先度が第二サービスの優先度よりも高い場合に、第二起動ワードに対応する音声信号を第二制御部13bに出力しない。この結果、第一音声送信処理が継続される(S31)。
 例えば、第一音声送信処理の結果としてオーディオストリーミングサービスが提供されているときに、ユーザが第二音声送信処理によって家電制御サービスを呼び出して住宅内の家電を外出モード(電源オフ)にしたい場合が考えられる。このような場合、オーディオストリーミングサービスの優先度が家電制御サービスの優先度よりも低ければ、ユーザは第二起動ワードを発話することにより、オーディオストリーミングサービスをキャンセルして家電制御サービスの提供を受けることができる。つまり、ユーザは、音楽の再生をキャンセルして家電の電源をオフし、外出することができる。
 なお、現在提供されているサービスがどのようなサービスであるかは、例えば、サービスの提供元であるサードパーティクラウドサーバ群130等から送信されるサービス内容を示す情報が通信部14bによって受信されることで認識可能である。サービス内容とVPAクラウドサーバとが1対1の関係となる場合には、このような情報は不要となる。
 (実施の形態5)
 上記実施の形態1~3で説明された起動ワードの変換機能を有する情報処理装置10によれば、図14に示されるような複数のVPA機器が混在している音声認識システム100cにおいて、起動ワードを統一することができる。図14は、実施の形態5に係る音声認識システム100cの構成を示す簡易ブロック図である。
 音声認識システム100cは、スマートスピーカ110と、テレビ190と、洗濯機170と、VPAクラウドサーバ120bと、VPAクラウドサーバ120cと、サードパーティクラウドサーバ群130と、家電制御サーバ140と、エアコン群150と、家電制御サーバ200と、テレビ群210と、洗濯機群180とを備える。スマートスピーカ110、テレビ190、及び、洗濯機170は、A社によって製造・販売される家電機器であり、ユーザの住宅などに設置されている。
 スマートスピーカ110は、起動ワード変換機能を有する情報処理装置10を備える。この情報処理装置10が備える記憶部16には、VPAクラウドサーバ120bを用いて音声認識サービスを提供するVPAサービスプロバイダであるB社から供給されるVPA SDK-Bが記憶されている。つまり、スマートスピーカ110は、VPAクラウドサーバ120bに接続可能である。
 テレビ190は、テレビ機能と、起動ワード変換機能を有する情報処理装置10とを備える。この情報処理装置10が備える記憶部16には、VPAクラウドサーバ120cを用いて音声認識サービスを提供するVPAサービスプロバイダであるC社から供給されるVPA SDK-Cが記憶されている。つまり、テレビ190は、VPAクラウドサーバ120cに接続可能である。
 洗濯機170は、洗濯機能と、起動ワード変換機能を有する情報処理装置10とを備える。この情報処理装置10が備える記憶部16には、VPAクラウドサーバ120cを用いて音声認識サービスを提供するVPAサービスプロバイダであるC社から供給されるVPA SDK-Cが記憶されている。つまり、洗濯機170は、VPAクラウドサーバ120cに接続可能である。
 VPAクラウドサーバ120bは、B社によって管理され、サードパーティクラウドサーバ群130、及び、家電制御サーバ140に接続可能である。家電制御サーバ140は、エアコン群150を制御する機能を有し、A社によって管理される。
 VPAクラウドサーバ120cは、C社によって管理され、家電制御サーバ140、及び、家電制御サーバ200に接続可能である。家電制御サーバ200は、テレビ群210を制御する機能、及び、洗濯機群180を制御する機能を有し、A社によって管理される。
 このような音声認識システム100cにおいて、仮に、スマートスピーカ110、テレビ190、及び、洗濯機170に起動ワード変換機能が実装されていないとすると、ユーザは、スマートスピーカ110のVPA機能をオンする場合には、B社によって指定される起動ワードを発話し、テレビ190及び洗濯機170のVPA機能をオンする場合には、C社によって指定される起動ワードを発話する必要がある。
 これに対し、スマートスピーカ110、テレビ190、及び、洗濯機170に起動ワード変換機能が実装されれば、ユーザは、スマートスピーカ110、テレビ190、及び、洗濯機170に対する起動ワードを統一することができる。起動ワードは、B社によって指定される起動ワードに統一されてもよいし、C社によって指定される起動ワードに統一されてもよいし、その他の起動ワードに統一されてもよい。
 (実施の形態6)
 上記実施の形態4で説明された複数のVPAクラウドサーバへの接続機能を有する情報処理装置10bによれば、図15に示されるような複数のVPA機器が混在している音声認識システム100dにおいて、起動ワードを整理することができる。図15は、実施の形態6に係る音声認識システム100dの構成を示す簡易ブロック図である。
 音声認識システム100dは、音声認識システム100cにおいて、スマートスピーカ110がスマートスピーカ110bに置き換えられた構成を有する。
 スマートスピーカ110bは、複数のVPAクラウドサーバへの接続機能を有する情報処理装置10bを備える。この情報処理装置10bが備える記憶部16bには、VPA SDK-B、及び、VPA SDK-Cが記憶されている。つまり、スマートスピーカ110bは、VPAクラウドサーバ120b及びVPAクラウドサーバ120cに接続可能である。
 このような音声認識システム100dにおいても、ユーザは、スマートスピーカ110、テレビ190、及び、洗濯機170に対する起動ワードを、B社によって指定される起動ワード、または、C社によって指定される起動ワードに統一することが可能である。
 (実施の形態1~6のまとめ)
 以上説明したように、情報処理装置10は、ユーザの音声を取得する音声取得部11と、音声取得部11によって取得された音声が第一起動ワードであると認識した場合に、第一起動ワードと異なる第二起動ワードに対応する音声信号を出力する第一制御部12と、第一制御部12によって出力された音声信号が第二起動ワードを示すと認識した場合に、音声取得部11によって取得された音声の音声信号のVPAクラウドサーバ120への送信を開始するための起動処理を行う第二制御部13とを備える。VPAクラウドサーバ120は、音声認識サーバの一例である。
 このような情報処理装置10は、VPAサービスプロバイダが指定する第二起動ワード以外の第一起動ワードによってVPAクラウドサーバ120への音声の送信を開始することができる。また、実施の形態5または実施の形態6のように複数のVPA機器が混在する音声認識システム100cまたは音声認識システム100dにおいて、起動ワードの統一を図ることができる。
 また、上記実施の形態1においては、第一制御部12は、音声取得部11によって取得された音声が第二起動ワードであると認識した場合に、第二起動ワードに対応する音声信号を第二制御部13に出力する。
 このような情報処理装置10は、VPAサービスプロバイダが指定する第二起動ワード以外の第一起動ワードによってVPAクラウドサーバ120への音声の送信を開始することができる。
 また、上記実施の形態3においては、第一制御部12は、音声取得部11によって取得された音声が第二起動ワードであると認識した場合に、第二起動ワードに対応する音声信号を第二制御部13に出力しない。
 このような情報処理装置10は、第一起動ワード及び第二起動ワードのうち第一起動ワードのみによって音声認識システム100aを起動することができる。
 また、上記実施の形態2においては、VPAクラウドサーバ120は、起動処理の後に情報処理装置10から受信した音声信号の音声認識結果に応じて他のサーバに指令を送信する。第一制御部12は、音声取得部11によって取得された音声が第一起動ワードであると認識した場合に、第二起動ワードに対応する音声信号を出力し、さらに、指令の送信先を指定するための指定ワードに対応する音声信号を第二制御部13に出力する。
 これにより、ユーザは、指定ワードの発話を省略することができる。
 また、例えば、第一制御部12は、指定ワードに対応する音声信号として、第一起動ワードに対応する音声信号を第二制御部13に出力する。
 これにより、ユーザは、通常は2度発話すべき第一起動ワードを1度発話することで、指令の送信先を指定することができる。
 また、音声認識システム100または音声認識システム100aは、情報処理装置10と、VPAクラウドサーバ120とを備える。
 このような音声認識システム100または音声認識システム100aは、VPAサービスプロバイダが指定する第二起動ワード以外の第一起動ワードによってVPAクラウドサーバ120への音声信号の送信を開始することができる。
 また、コンピュータによって実行される情報処理方法は、ユーザの音声を取得し、取得された音声が第一起動ワードであると認識した場合に、第一起動ワードと異なる第二起動ワードに対応する音声信号を出力し、出力された音声信号が第二起動ワードを示す認識した場合に、取得された音声の音声信号のVPAクラウドサーバへの送信を開始するための起動処理を行う。
 このような情報処理方法は、VPAサービスプロバイダが指定する第二起動ワード以外の第一起動ワードによってVPAクラウドサーバ120への音声の送信を開始することができる。
 また、上記実施の形態4においては、情報処理装置10bは、ユーザの音声を取得する音声取得部11と、音声取得部11によって取得された音声が第一起動ワードであると認識した場合に、第一起動ワードに対応する音声信号を出力する第一制御部12bと、第一制御部12bによって出力された音声信号が第一起動ワードを示すと認識した場合に、音声取得部11によって取得された音声の音声信号をVPAクラウドサーバ120bへ送信する第一音声送信処理を開始する第二制御部13bとを備える。第一制御部12bは、第一音声送信処理中に音声取得部11によって取得された音声が、第二制御部13bに第二音声送信処理を開始させるための第二起動ワードであると認識した場合に、所定の優先度に基づいて第二起動ワードに対応する音声信号を第二制御部13bに出力するか否かの判定を行い、第二音声送信処理は、音声取得部11によって取得された音声の音声信号をVPAクラウドサーバ120bと異なるVPAクラウドサーバ120cへ送信する処理である。VPAクラウドサーバ120bは、第一音声認識サーバの一例であり、VPAクラウドサーバ120cは、第二音声認識サーバの一例である。
 このような情報処理装置10bは、第一起動ワード及び第二起動ワードの両方を認識し、VPAクラウドサーバ120b、及び、VPAクラウドサーバ120cに選択的に音声を送信することができる。具体的には、情報処理装置10bは、所定の優先度を考慮して第一音声送信処理を第二音声送信処理に切り替えることができる。
 また、例えば、第一制御部12bは、VPAクラウドサーバ120bの優先度がVPAクラウドサーバ120cの優先度よりも低い場合に、上記判定に基づいて第二起動ワードに対応する音声信号を第二制御部13bに出力する。
 このような情報処理装置10bは、VPAクラウドサーバの優先度に基づいて、第一音声送信処理を第二音声送信処理に切り替えることができる。
 また、例えば、第一制御部12bは、VPAクラウドサーバ120bの優先度がVPAクラウドサーバ120cの優先度よりも高い場合に、上記判定に基づいて第二起動ワードに対応する音声信号を第二制御部13bに出力しない。
 このような情報処理装置10bは、VPAクラウドサーバの優先度に基づいて、第一音声送信処理を継続することができる。
 また、例えば、第一制御部12bは、第一音声送信処理の結果として提供されるサービスの優先度が第二音声送信処理の結果として提供されるサービスの優先度よりも低い場合に、上記判定に基づいて第二起動ワードに対応する音声信号を第二制御部13bに出力する。
 このような情報処理装置10bは、サービスの優先度に基づいて、第一音声送信処理を第二音声送信処理に切り替えることができる。
 また、例えば、第一制御部12bは、第一サービスの優先度が第二サービスの優先度よりも高い場合に、上記判定に基づいて第二起動ワードに対応する音声信号を第二制御部13bに出力しない。
 このような情報処理装置10bは、サービスの優先度に基づいて、第一音声送信処理を継続することができる。
 また、音声認識システム100bは、情報処理装置10bと、VPAクラウドサーバ120bと、VPAクラウドサーバ120cとを備える。
 このような音声認識システム100bは、第一起動ワード及び第二起動ワードの両方を認識し、VPAクラウドサーバ120b、及び、VPAクラウドサーバ120cに選択的に音声を送信することができる。具体的には、音声認識システム100bは、所定の優先度を考慮して第一音声送信処理を第二音声送信処理に切り替えることができる。
 また、コンピュータによって実行される情報処理方法は、ユーザの音声を取得し、取得された音声が第一起動ワードであると認識した場合に、第一起動ワードに対応する音声信号を出力し、出力された音声信号が第一起動ワードを示すと認識した場合に、取得された音声の音声信号をVPAクラウドサーバ120bへ送信する第一音声送信処理を開始し、第一音声送信処理中に取得された音声が、第二音声送信処理を開始するための第二起動ワードであると認識した場合に、所定の優先度に基づいて第二起動ワードに対応する音声信号を出力するか否かを決定し、第二音声送信処理は、取得された音声の音声信号をVPAクラウドサーバ120bと異なるVPAクラウドサーバ120cへ送信する処理である。
 このような情報処理方法は、第一起動ワード及び第二起動ワードの両方を認識し、VPAクラウドサーバ120b、及び、VPAクラウドサーバ120cに選択的に音声信号を送信することができる。具体的には、情報処理方法は、所定の優先度を考慮して第一音声送信処理を第二音声送信処理に切り替えることができる。
 (その他の実施の形態)
 以上、実施の形態について説明したが、本開示は、上記実施の形態に限定されるものではない。
 例えば、本開示の包括的または具体的な態様は、装置、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、装置、システム、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。本開示は、上記実施の形態の情報処理方法をコンピュータに実行させるためのプログラムとして実現されてもよいし、このようなプログラムが記録されたコンピュータ読み取り可能な非一時的な記録媒体として実現されてもよい。
 また、上記実施の形態において、特定の処理部が実行する処理を別の処理部が実行してもよい。また、上記実施の形態において説明された音声認識システムの動作における複数の処理の順序は一例である。複数の処理の順序は、変更されてもよいし、複数の処理は、並行して実行されてもよい。
 また、上記実施の形態において、第一制御部及び第二制御部などの構成要素は、当該構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。第一制御部及び第二制御部は、単一のCPUまたはプロセッサとして実現されてもよい。
 また、第一制御部及び第二制御部などの構成要素は、ハードウェアによって実現されてもよい。第一制御部及び第二制御部などの構成要素は、具体的には、回路または集積回路によって実現されてもよい。これらの回路は、全体として1つの回路を構成してもよいし、それぞれ別々の回路でもよい。また、これらの回路は、それぞれ、汎用的な回路でもよいし、専用の回路でもよい。
 その他、各実施の形態に対して当業者が思いつく各種変形を施して得られる形態、または、本開示の趣旨を逸脱しない範囲で各実施の形態における構成要素及び機能を任意に組み合わせることで実現される形態も本開示に含まれる。
 本開示の情報処理装置は、規定の起動ワード以外で音声認識サーバへの音声信号の送信を開始することができる。例えば、本開示の情報処理装置は、VPA機器及びVPAクラウドサーバを用いたサービスが混在するシステムにおいて、起動ワードを統一することができる。本開示の情報処理装置は、起動ワードの混在によりユーザが煩わしさを感じることを抑制することで、VPA機器の普及、及び、VPAクラウドサーバを用いたサービスの普及に寄与することができる。
 10、10b 情報処理装置
 11 音声取得部
 12、12b 第一制御部
 13、13b 第二制御部
 14、14b、121、141 通信部
 15 出音部
 16、16b、123、143 記憶部
 20 洗濯制御部
 100、100a、100b、100c、100d 音声認識システム
 110、110b スマートスピーカ
 120、120b、120c VPAクラウドサーバ
 122 VPA制御部
 130 サードパーティクラウドサーバ群
 131、132、133 クラウドサーバ
 140、200 家電制御サーバ
 142 家電制御部
 150 エアコン群
 160 スマートフォン
 170 洗濯機
 180 洗濯機群
 190 テレビ
 210 テレビ群

Claims (7)

  1.  ユーザの音声を取得する音声取得部と、
     前記音声取得部によって取得された音声が第一起動ワードであると認識した場合に、前記第一起動ワードと異なる第二起動ワードに対応する音声信号を出力する第一制御部と、
     前記第一制御部によって出力された音声信号が前記第二起動ワードを示すと認識した場合に、前記音声取得部によって取得された音声の音声信号の音声認識サーバへの送信を開始するための起動処理を行う第二制御部とを備える
     情報処理装置。
  2.  前記第一制御部は、前記音声取得部によって取得された音声が前記第二起動ワードであると認識した場合に、前記第二起動ワードに対応する音声信号を前記第二制御部に出力する
     請求項1に記載の情報処理装置。
  3.  前記第一制御部は、前記音声取得部によって取得された音声が前記第二起動ワードであると認識した場合に、前記第二起動ワードに対応する音声信号を前記第二制御部に出力しない
     請求項1に記載の情報処理装置。
  4.  前記音声認識サーバは、前記起動処理の後に前記情報処理装置から受信した音声信号の音声認識結果に応じて他のサーバに指令を送信し、
     前記第一制御部は、前記音声取得部によって取得された前記音声が前記第一起動ワードであると認識した場合に、前記第二起動ワードに対応する音声信号を出力し、さらに、前記指令の送信先を指定するための指定ワードに対応する音声信号を前記第二制御部に出力する
     請求項1~3のいずれか1項に記載の情報処理装置。
  5.  前記第一制御部は、前記指定ワードに対応する音声信号として、前記第一起動ワードに対応する音声信号を前記第二制御部に出力する
     請求項4に記載の情報処理装置。
  6.  請求項1~5のいずれか1項に記載の情報処理装置と、
     前記音声認識サーバとを備える
     音声認識システム。
  7.  コンピュータによって実行される情報処理方法であって、
     ユーザの音声を取得し、
     取得された音声が第一起動ワードであると認識した場合に、前記第一起動ワードと異なる第二起動ワードに対応する音声信号を出力し、
     出力された音声信号が第二起動ワードを示すと認識した場合に、取得された音声の音声信号の音声認識サーバへの送信を開始するための起動処理を行う
     情報処理方法。
PCT/JP2018/003521 2017-08-02 2018-02-02 情報処理装置、音声認識システム、及び、情報処理方法 WO2019026313A1 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
US16/325,793 US11145311B2 (en) 2017-08-02 2018-02-02 Information processing apparatus that transmits a speech signal to a speech recognition server triggered by an activation word other than defined activation words, speech recognition system including the information processing apparatus, and information processing method
CN201880003041.2A CN109601017B (zh) 2017-08-02 2018-02-02 信息处理装置、声音识别系统及信息处理方法
BR112019002636A BR112019002636A2 (pt) 2017-08-02 2018-02-02 aparelho de processamento de informação, sistema de reconhecimento de fala e método de processamento de informação
EP18842080.6A EP3663905B1 (en) 2017-08-02 2018-02-02 Information processing device, speech recognition system, and information processing method
JP2018568454A JP6928882B2 (ja) 2017-08-02 2018-02-02 情報処理装置、音声認識システム、及び、情報処理方法
SG11201901441QA SG11201901441QA (en) 2017-08-02 2018-02-02 Information processing apparatus, speech recognition system, and information processing method
MX2019001803A MX2019001803A (es) 2017-08-02 2018-02-02 Aparato para procesamiento de informacion, sistema para reconocimiento de voz, y metodo para procesamiento de informacion.

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201762540415P 2017-08-02 2017-08-02
US62/540415 2017-08-02

Publications (1)

Publication Number Publication Date
WO2019026313A1 true WO2019026313A1 (ja) 2019-02-07

Family

ID=65232459

Family Applications (2)

Application Number Title Priority Date Filing Date
PCT/JP2018/003521 WO2019026313A1 (ja) 2017-08-02 2018-02-02 情報処理装置、音声認識システム、及び、情報処理方法
PCT/JP2018/003522 WO2019026314A1 (ja) 2017-08-02 2018-02-02 情報処理装置、音声認識システム、及び、情報処理方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/003522 WO2019026314A1 (ja) 2017-08-02 2018-02-02 情報処理装置、音声認識システム、及び、情報処理方法

Country Status (8)

Country Link
US (2) US10803872B2 (ja)
EP (2) EP3663906B1 (ja)
JP (2) JP6928882B2 (ja)
CN (2) CN109601016B (ja)
BR (2) BR112019002636A2 (ja)
MX (2) MX2019001803A (ja)
SG (2) SG11201901441QA (ja)
WO (2) WO2019026313A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020173388A (ja) * 2019-04-12 2020-10-22 三菱電機株式会社 音声入力装置、音声操作システム、音声操作方法及びプログラム
JP2020173441A (ja) * 2019-04-05 2020-10-22 三星電子株式会社Samsung Electronics Co.,Ltd. 音声認識方法及び装置
JP2020178177A (ja) * 2019-04-16 2020-10-29 シャープ株式会社 ネットワークシステム
JP2022013610A (ja) * 2020-06-30 2022-01-18 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド 音声インタラクション制御方法、装置、電子機器、記憶媒体及びシステム

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102498007B1 (ko) * 2018-01-08 2023-02-08 엘지전자 주식회사 음성인식을 이용한 세탁물 처리기기 제어시스템 및 동작방법
CN113574478A (zh) * 2019-03-22 2021-10-29 三菱重工制冷空调系统株式会社 控制装置、设备控制系统、控制方法及程序
CN110570859B (zh) * 2019-09-20 2022-05-27 Oppo广东移动通信有限公司 智能音箱控制方法、装置、系统及存储介质
JP7248564B2 (ja) * 2019-12-05 2023-03-29 Tvs Regza株式会社 情報処理装置及びプログラム
JP7264071B2 (ja) * 2020-01-23 2023-04-25 トヨタ自動車株式会社 情報処理システム、情報処理装置、及びプログラム
CN111353771A (zh) * 2020-02-19 2020-06-30 北京声智科技有限公司 一种远程控制支付的方法、装置、设备和介质
CN114726830A (zh) * 2020-12-18 2022-07-08 阿里巴巴集团控股有限公司 语音服务访问方法、系统和车辆

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015520409A (ja) * 2012-04-26 2015-07-16 ニュアンス コミュニケーションズ,インコーポレイテッド ユーザ定義可能な制約条件を有する省スペースの音声認識を構築する為の埋め込みシステム
WO2016063621A1 (ja) * 2014-10-24 2016-04-28 株式会社ソニー・コンピュータエンタテインメント 制御装置、制御方法、プログラム及び情報記憶媒体
JP2016531375A (ja) * 2013-09-20 2016-10-06 アマゾン テクノロジーズ インコーポレイテッド ローカルとリモートのスピーチ処理
JP2017117371A (ja) * 2015-12-25 2017-06-29 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 制御方法、制御装置およびプログラム
JP2017138476A (ja) 2016-02-03 2017-08-10 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005031758A (ja) * 2003-07-07 2005-02-03 Canon Inc 音声処理装置及び方法
KR100719776B1 (ko) * 2005-02-25 2007-05-18 에이디정보통신 주식회사 휴대형 코드인식 음성 합성출력장치
JP2009080183A (ja) * 2007-09-25 2009-04-16 Panasonic Electric Works Co Ltd 音声認識制御装置
JP5658641B2 (ja) * 2011-09-15 2015-01-28 株式会社Nttドコモ 端末装置、音声認識プログラム、音声認識方法および音声認識システム
US10381001B2 (en) * 2012-10-30 2019-08-13 Google Technology Holdings LLC Voice control user interface during low-power mode
JP2015011170A (ja) 2013-06-28 2015-01-19 株式会社ATR−Trek ローカルな音声認識を行なう音声認識クライアント装置
CN103383134B (zh) * 2013-08-06 2016-12-28 四川长虹电器股份有限公司 一种智能空调系统及空调控制方法
US9508345B1 (en) * 2013-09-24 2016-11-29 Knowles Electronics, Llc Continuous voice sensing
CN105280180A (zh) * 2014-06-11 2016-01-27 中兴通讯股份有限公司 一种终端控制方法、装置、语音控制装置及终端
JP2016095383A (ja) 2014-11-14 2016-05-26 株式会社ATR−Trek 音声認識クライアント装置及びサーバ型音声認識装置
TWI525532B (zh) * 2015-03-30 2016-03-11 Yu-Wei Chen Set the name of the person to wake up the name for voice manipulation
US9996316B2 (en) * 2015-09-28 2018-06-12 Amazon Technologies, Inc. Mediation of wakeword response for multiple devices
US10133612B2 (en) 2016-03-17 2018-11-20 Nuance Communications, Inc. Session processing interaction between two or more virtual assistants
US10115400B2 (en) * 2016-08-05 2018-10-30 Sonos, Inc. Multiple voice services
US10685656B2 (en) 2016-08-31 2020-06-16 Bose Corporation Accessing multiple virtual personal assistants (VPA) from a single device
US10437841B2 (en) * 2016-10-10 2019-10-08 Microsoft Technology Licensing, Llc Digital assistant extension automatic ranking and selection
US10127908B1 (en) * 2016-11-11 2018-11-13 Amazon Technologies, Inc. Connected accessory for a voice-controlled device
US10559309B2 (en) * 2016-12-22 2020-02-11 Google Llc Collaborative voice controlled devices
US11164570B2 (en) * 2017-01-17 2021-11-02 Ford Global Technologies, Llc Voice assistant tracking and activation
CA3155437C (en) * 2017-02-07 2024-01-09 Lutron Technology Company Llc Audio-based load control system
US10748531B2 (en) * 2017-04-13 2020-08-18 Harman International Industries, Incorporated Management layer for multiple intelligent personal assistant services
US20190013019A1 (en) * 2017-07-10 2019-01-10 Intel Corporation Speaker command and key phrase management for muli -virtual assistant systems

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015520409A (ja) * 2012-04-26 2015-07-16 ニュアンス コミュニケーションズ,インコーポレイテッド ユーザ定義可能な制約条件を有する省スペースの音声認識を構築する為の埋め込みシステム
JP2016531375A (ja) * 2013-09-20 2016-10-06 アマゾン テクノロジーズ インコーポレイテッド ローカルとリモートのスピーチ処理
WO2016063621A1 (ja) * 2014-10-24 2016-04-28 株式会社ソニー・コンピュータエンタテインメント 制御装置、制御方法、プログラム及び情報記憶媒体
JP2017117371A (ja) * 2015-12-25 2017-06-29 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 制御方法、制御装置およびプログラム
JP2017138476A (ja) 2016-02-03 2017-08-10 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020173441A (ja) * 2019-04-05 2020-10-22 三星電子株式会社Samsung Electronics Co.,Ltd. 音声認識方法及び装置
JP7291099B2 (ja) 2019-04-05 2023-06-14 三星電子株式会社 音声認識方法及び装置
JP2020173388A (ja) * 2019-04-12 2020-10-22 三菱電機株式会社 音声入力装置、音声操作システム、音声操作方法及びプログラム
JP7236919B2 (ja) 2019-04-12 2023-03-10 三菱電機株式会社 音声入力装置、音声操作システム、音声操作方法及びプログラム
JP2020178177A (ja) * 2019-04-16 2020-10-29 シャープ株式会社 ネットワークシステム
JP2022013610A (ja) * 2020-06-30 2022-01-18 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド 音声インタラクション制御方法、装置、電子機器、記憶媒体及びシステム
US11615784B2 (en) 2020-06-30 2023-03-28 Beijing Baidu Netcom Science And Technology Co., Ltd. Control method and control apparatus for speech interaction
JP7328265B2 (ja) 2020-06-30 2023-08-16 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド 音声インタラクション制御方法、装置、電子機器、記憶媒体及びシステム
US11823662B2 (en) 2020-06-30 2023-11-21 Beijing Baidu Netcom Science And Technology Co., Ltd. Control method and control apparatus for speech interaction, storage medium and system

Also Published As

Publication number Publication date
CN109601016A (zh) 2019-04-09
SG11201901441QA (en) 2019-03-28
MX2019001807A (es) 2019-06-06
CN109601016B (zh) 2023-07-28
JPWO2019026313A1 (ja) 2020-05-28
EP3663905A4 (en) 2020-06-17
MX2019001803A (es) 2019-07-04
BR112019002636A2 (pt) 2019-05-28
JP6928882B2 (ja) 2021-09-01
CN109601017B (zh) 2024-05-03
EP3663905B1 (en) 2020-12-09
US10803872B2 (en) 2020-10-13
EP3663906B1 (en) 2024-04-03
US20190187953A1 (en) 2019-06-20
EP3663905A1 (en) 2020-06-10
JPWO2019026314A1 (ja) 2020-06-18
EP3663906A4 (en) 2020-07-22
WO2019026314A1 (ja) 2019-02-07
CN109601017A (zh) 2019-04-09
BR112019002607A2 (pt) 2019-05-28
US11145311B2 (en) 2021-10-12
JP7033713B2 (ja) 2022-03-11
US20190214015A1 (en) 2019-07-11
EP3663906A1 (en) 2020-06-10
SG11201901419QA (en) 2019-03-28

Similar Documents

Publication Publication Date Title
JP6928882B2 (ja) 情報処理装置、音声認識システム、及び、情報処理方法
JP6942755B2 (ja) スマート音声機器間のインタラクション方法、装置、機器及び記憶媒体
US11250859B2 (en) Accessing multiple virtual personal assistants (VPA) from a single device
US10115396B2 (en) Content streaming system
US20190304448A1 (en) Audio playback device and voice control method thereof
US10055190B2 (en) Attribute-based audio channel arbitration
WO2014203495A1 (ja) 音声対話方法、及び機器
JP7311707B2 (ja) ヒューマンマシン対話処理方法
WO2020135773A1 (zh) 数据处理方法、装置及计算机可读存储介质
JP2014021493A (ja) 外部入力制御方法及びそれを適用した放送受信装置
JP2014182307A (ja) 音声認識システム、および発話システム
CN109600677A (zh) 数据传输方法及装置、存储介质、电子设备
CN116830559A (zh) 处理语音音频流中断的系统和方法
CN113760219A (zh) 信息处理方法和装置
WO2023237102A1 (zh) 一种连麦展示方法、装置、电子设备、计算机可读介质
KR102002872B1 (ko) 외부 디바이스를 통한 모바일 디바이스에서의 채팅 방법 및 시스템
JP2015002394A (ja) 情報処理装置及びコンピュータプログラム
JP2010271934A (ja) デバイス設定システム、デバイス設定方法及びデバイス設定プログラム
JP5973030B2 (ja) 音声認識システム、および音声処理装置
CN103747328A (zh) 电视系统、开机广告音频播放装置及方法
WO2022215284A1 (ja) 発話機器を制御する方法、サーバ、発話機器、およびプログラム
TWI466105B (zh) 音頻系統及音頻處理方法
CN117836754A (zh) 一种音频控制方法及显示设备
KR20090003429A (ko) 이동통신단말기의 어플리케이션 멀티태스킹 구동을 통한서비스확장방법
TWM346058U (en) Remote control with IP telephone function

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2018568454

Country of ref document: JP

Kind code of ref document: A

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112019002636

Country of ref document: BR

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18842080

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 112019002636

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20190208

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018842080

Country of ref document: EP

Effective date: 20200302