WO2019198132A1 - 音声認識デバイス、音声認識デバイスの連携システム、及び音声認識デバイスの連携方法 - Google Patents

音声認識デバイス、音声認識デバイスの連携システム、及び音声認識デバイスの連携方法 Download PDF

Info

Publication number
WO2019198132A1
WO2019198132A1 PCT/JP2018/014950 JP2018014950W WO2019198132A1 WO 2019198132 A1 WO2019198132 A1 WO 2019198132A1 JP 2018014950 W JP2018014950 W JP 2018014950W WO 2019198132 A1 WO2019198132 A1 WO 2019198132A1
Authority
WO
WIPO (PCT)
Prior art keywords
voice
recognition device
voice recognition
unit
data
Prior art date
Application number
PCT/JP2018/014950
Other languages
English (en)
French (fr)
Inventor
橋本 康宣
荒井 郁也
高清水 聡
吉澤 和彦
清水 宏
貞雄 鶴賀
川前 治
Original Assignee
マクセル株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by マクセル株式会社 filed Critical マクセル株式会社
Priority to JP2020512956A priority Critical patent/JP7179834B2/ja
Priority to PCT/JP2018/014950 priority patent/WO2019198132A1/ja
Priority to US17/044,385 priority patent/US11810567B2/en
Priority to CN201880092205.3A priority patent/CN111971647A/zh
Priority to EP18914323.3A priority patent/EP3779667A4/en
Publication of WO2019198132A1 publication Critical patent/WO2019198132A1/ja
Priority to JP2022183285A priority patent/JP2023025061A/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting

Definitions

  • the present invention relates to a voice recognition device, a voice recognition device linkage system, and a voice recognition device linkage method.
  • Patent Document 1 provides an example of a speech recognition technique “providing a method in which interpretation candidates obtained as a result of applying a speech recognition algorithm to speech input are presented in an integrated manner with reduced redundancy. Therefore, there is a description that “it is configured to present the user with an opportunity to select from among interpretation candidates and present these options without duplicate elements (summary excerpt)”.
  • Patent Document 2 also states that “as a function for managing the use of speech recognition models and data in an automatic speech recognition system, it can be tracked to predict when a user may use the system (summary). (Excerpt) ”.
  • the voice recognition device such as the above smart speaker is one in which a person in the vicinity of the device gives an instruction or the like by voice to the device and obtains a response. It is not disclosed to use in cooperation with.
  • a family shares the device in the living room and requests information such as weather forecasts, news, music, etc. on the Internet, it only outputs the corresponding content as a sound, For example, it is not assumed that any communication or cooperative operation is performed with another voice recognition device in a child's room. For this reason, a plurality of voice recognition devices cannot be used in cooperation with each other, and there is room for a new usage mode of the voice recognition device.
  • the present invention has been made in view of the above circumstances, and provides a voice recognition device capable of using a plurality of voice recognition devices in cooperation, a voice recognition device linkage system, and a voice recognition device linkage method. With the goal.
  • a voice recognition device that can use a plurality of voice recognition devices in cooperation, a voice recognition device linkage system, and a voice recognition device linkage method. Objects, configurations, and effects other than those described above will be clarified in the following embodiments.
  • Hardware configuration diagram of voice recognition device Functional block diagram of speech recognition device
  • zone about a person The figure which shows an example of the call priority data which recorded the call destination priority for every time slot
  • FIG. 1 is a hardware configuration diagram of a voice recognition device 1 according to the present embodiment.
  • the voice recognition device 1 may be a device dedicated to voice recognition, or may be an electronic device having a communication function that exists conventionally, such as a mobile phone terminal, a smartphone, a personal computer, a game machine, or the like. Further, the voice recognition device 1 may use a general communication function such as a wired LAN, a wireless LAN, a wireless communication of a mobile phone line, a proximity wireless communication such as Bluetooth (registered trademark), RFID, etc. as a communication function. One or a plurality of communication interfaces corresponding to these communication functions are provided.
  • the voice recognition device 1 includes a CPU 101, a memory 103, a wired LAN I / F 104 as an external interface, a wireless LAN I / F 105, a wireless communication I / F 106, a voice input unit 107 (for example, a microphone), and a voice output unit 108.
  • a speaker for example, a speaker
  • a display output unit 109 for example, a liquid crystal screen
  • the bus 102 may be connected to a person detection sensor I / F 110, a timer 111, an RTC 112, and a camera 113.
  • the memory 103 includes an internal memory 1031 composed of a volatile memory and a reference memory 1032 composed of a nonvolatile memory.
  • the person detection sensor I / F 110 is an I / F for externally attaching a person detection sensor regardless of the type such as a human sensor or a sound collection sensor.
  • FIG. 2 is a functional block diagram of the speech recognition device 1.
  • the voice recognition device 1 includes a voice processing engine 120.
  • the speech processing engine 120 mainly includes a speech processing unit 1201, a speech recognition unit 1202, a hot word detection unit 1203, a speech analysis unit 1204, and a feature extraction unit 1205.
  • the voice processing engine 120 reads out a voice processing program held in the reference memory 1032 and loads it into the internal memory 1031, and executes a process according to the voice processing program, thereby realizing the function of the voice processing engine 120. .
  • the voice recognition device 1 when a person speaks to the voice recognition device 1, the voice is captured by the voice input unit 107, and the voice (analog data) is converted into voice data composed of digital data.
  • the voice processing unit 1201 performs adjustment such as removal of ambient noise included in the voice data.
  • the voice recognition unit 1202 performs voice recognition processing for converting voice data into character string data.
  • the hot word detection unit 1203 determines whether the character string data is character string data including a predetermined word (hereinafter referred to as “hot word”) for requesting activation such as start of operation for the voice recognition device 1 and return from the standby state. judge.
  • FIG. 3A is a diagram illustrating an example of hot word data 150 stored in the reference memory 1032.
  • the hot word data 150 includes registered hot word 1501, type 1502 that defines the operation of the registered hot word 1501 for the voice recognition device 1, and device-specific information that identifies the voice recognition device 1 to be called using the registered hot word 1501. This is data associated with the specified call destination 1503.
  • the hot word detection unit 1203 detects a hot word based on whether the character string data is written in the hot word data 150.
  • the voice analysis unit 1204 interprets the content spoken to the voice recognition device 1, that is, determines response data and control commands corresponding to the character string data, outputs the response data from the voice output unit 108, and receives control commands. It outputs to CPU101 and makes CPU101 perform the process which audio
  • the voice recognition unit 1202 may be provided not in the voice recognition device 1 but in the external server 201 (see FIG. 4) connected to the voice recognition device 1, and the voice recognition processing may be executed by the external server 201. Thereby, the load of the voice recognition device 1 can be reduced. When voice recognition processing is executed by the voice recognition device 1, the amount of data communication with the external server 201 can be reduced.
  • the voice recognition device 1 in addition to a single operation like a conventional voice recognition device, the spoken voice is within a predetermined space such as a house or a building. Can be transferred to another voice recognition device 1 existing on a private communication network (hereinafter referred to as home LAN 210: see FIG. 4 as an example) and can have a conversation. Therefore, the hot word detection unit 1203 detects a hot word that is the beginning of the transition to the conversation mode for performing a conversation. Furthermore, the voice recognition device 1 includes a feature extraction unit 1205 that extracts voice and image features from a person who can participate in a conversation via the home LAN 210 and performs matching determination with registered data.
  • a feature extraction unit 1205 that extracts voice and image features from a person who can participate in a conversation via the home LAN 210 and performs matching determination with registered data.
  • FIG. 3B is a diagram showing an example of voice authentication data 160 stored in the reference memory 1032.
  • the voice authentication data 160 includes a speaker 1601 as information for uniquely identifying a person who can participate in a conversation via the home LAN 210, and a “master” having the authority to set speaker attributes such as the voice recognition device 1 and the communication network. ”Or“ general ”who does not have the setting authority and only has the authority to participate in the conversation in the home LAN 210, and the speaker template 1603 which indicates the characteristics of each individual voice. Associated data.
  • FIG. 4 is a diagram showing a cooperation system 100 using the voice recognition device 1, and shows an example of use in a home.
  • the home is used.
  • the present embodiment is not limited to a house, and the present embodiment can be applied to a space where specific people gather, such as an office or a classroom.
  • a first speech recognition device 1A, a second speech recognition device 1B, a third speech recognition device 1C, and a fourth speech recognition device 1D installed in each room 1, room 2, room 3, and room 4 in the house.
  • each of the first to fourth voice recognition devices 1A to 1D in each room is an access point or a wireless repeater installed in each of the rooms 2 to 4, respectively, the second AP 2032 to the fourth AP 2034.
  • Each of the first to fourth voice recognition devices 1A to 1D is connected to the external Internet 200 via the router 202.
  • the voice of the person A is captured by the voice input unit 107 of the first voice recognition device 1A and then activated by the hot word detection unit 1203. It is determined whether or not the first hot word signifies a request.
  • the hot word detection unit 1203 determines that the calling voice is the first hot word (S101 / Yes)
  • the voice response data of a predetermined fixed phrase such as “What is it for?” Is reproduced from the voice output unit 108. To do.
  • the hot word detection unit 1203 outputs the first hot word to the voice analysis unit 1204, and the voice analysis unit 1204 outputs an execution command to the normal mode execution unit 1406.
  • the normal mode is an operation mode in which all functions of the first speech recognition device 1A can be executed.
  • the hot word detection unit 1203 determines that it is not a hot word (S101 / No), the standby mode is maintained.
  • the hot word detection unit 1203 determines whether or not it is the second hot word (a hot word instructing a request to switch to the conversation mode) (S102).
  • the hot word detection unit 1203 determines that the word “B-kun!” Is the second hot word (S102). / Yes), the second hot word is output to the voice analysis unit 1204.
  • the hot word that starts the transition to the conversation mode is used as the name of a person existing in the house.
  • the present invention is not limited to this, and another fixed phrase such as “speak” or “connect” is used. Any word can be used.
  • the voice analysis unit 1204 analyzes that the second hot word is a request for switching to the conversation mode, and selects a control command necessary for the request (S103).
  • the conversation mode execution unit 1403 is activated and switches to the conversation mode (S104).
  • the command transmission unit 1402 of the first voice recognition device 1A calls the voice data “B-kun!” To the second to fourth voice recognition devices 1B to 1D via the communication control unit 1410 based on the voice transfer command. And a mode switching command and a voice reproduction command for switching to the conversation mode are transmitted to each of them. In addition, the command transmission unit 1402 of the first voice recognition device 1A starts measuring the elapsed time after transferring the call voice data to the second to fourth voice recognition devices 1B to 1D (S105).
  • Each of the second to fourth voice recognition devices 1B to 1D reproduces the voice “B-kun!” From the voice output unit 108 each having call voice data, and the conversation mode execution unit 1403 is activated to start a conversation. Switch to mode.
  • each of the second to fourth voice recognition devices 1B to 1D may reproduce the voice simultaneously, or from the second to fourth voice recognition devices 1B to 1D in a predetermined order. It is also possible to output sound.
  • the predetermined order may be, for example, the order in which voice recognition devices are installed, the order in which priorities are assigned for each room (see FIG. 14), or the like.
  • the second voice recognition device 1B takes in the voice data via the voice input unit 107, and the response voice.
  • the data is returned to the first voice recognition device 1A that is the calling source.
  • the second voice recognition device 1B and the person B are linked.
  • the association information that the person in the room 2 where the second voice recognition device 1B exists is the person B is also shared and registered in the first, third, and fourth voice recognition devices 1A, 1C, and 1D.
  • Fig. 6 shows an example of location estimation data.
  • the location estimation data (see FIG. 6) may be additionally written.
  • a specific identifier such as a Mac address of the device or a device assigned IP address in the home LAN 210 may be used.
  • registration requests are developed from the first speech recognition device 1A to other speech recognition devices in the home, that is, the second to fourth speech recognition devices 1B to 1D. It is held in the reference memory 1032 of the four voice recognition devices 1B to 1D. If the location estimation data is already stored in the reference memory 1032 in each of the first to fourth voice recognition devices 1A to 1D, the linking operation is not performed as already registered.
  • the registration of the person can be performed by extracting the name part included in the call voice of “B-kun!” In FIG. 2 on the voice processing engine 120 or the external server 201 and using it as name data. 2 ”voice recognition device 1B” can be associated.
  • the hot word registration method for determining switching to the conversation mode is performed when a voice recognition device is installed such as during initial setting or when new registration is set, as described later.
  • the command transmission unit 1402 of the first voice recognition device 1A performs second to fourth voice recognition.
  • a command for returning from the conversation mode to the standby mode is transmitted to the devices that have not responded among the devices 1B to 1D (S107).
  • the response with the first voice recognition device 1A The conversation mode of the device, for example, the second voice recognition device 1B is maintained (S108).
  • the conversation mode execution unit 1403 switches the voice to the voice input unit 107 of the first voice recognition device 1A after switching to the conversation mode in step S104, and the voice input unit of the second voice recognition device 1B in step S105.
  • the voice input to 107 is transmitted and received between the first voice recognition device 1A and the second voice recognition device 1B.
  • the device that has detected the hot word for example, the second speech recognition device 1B switches to the standby mode (S110) and transmits a command to switch to the standby mode to the first speech recognition device 1A (S107).
  • the first speech recognition device 1A is also switched to the standby mode, and the conversation mode ends.
  • step S102 If the second hot word is not detected in step S102 (S102 / No), the first speech recognition device 1A does not enter the conversation mode and maintains the normal mode (S111), and ends the process. .
  • the first voice recognition device 1A that performed the call first becomes the master device, and the second to fourth voice recognition devices 1B to 1D of the called person in the house 2
  • the present invention is not limited to this, and the second voice recognition device 1B that is called and responds may be the master.
  • the above example is an example of a call from the first speech recognition device 1A to the second speech recognition device 1B, but this procedure can be applied to all speech recognition devices existing in the house. The same can be done for a call from another voice recognition device to another voice recognition device.
  • the first to fourth voice recognition devices 1A to 1D use a wireless LAN for communication with each room, but can be connected by a wired LAN or a mobile phone line. . Furthermore, it is possible to change the communication mode to another interface only in the conversation mode. For example, a wireless LAN may be used in the normal mode, and another wireless system such as Bluetooth may be used in the conversation mode.
  • the command transmission unit 1402 of the first speech recognition device 1A uses the second voice associated with the person B registered in the location estimation data (FIG. 6). Communication with the recognition device 1B is established (a mode switching command is transmitted and communication is established by responding thereto), and voice data is sent to the second voice recognition device 1B.
  • the conversation mode execution unit 1403 can communicate voice data only between the first voice recognition device 1A and the second voice recognition device 1B, and enable a state in which the person A and the person B have a direct conversation. To do. This eliminates the need to send voice data to every voice recognition device in the house.
  • the conversation mode execution unit 1403 of the first voice recognition device 1A indicates that the conversation partner is absent. judge. Then, the communication mode execution unit 1403 restarts the communication channel with the other voice recognition devices in the house that have been closed until the command transmission unit 1402, that is, other voice recognition devices (third and fourth). Voice data is sent to the voice recognition devices 1C and 1D), and a response is awaited.
  • the first voice recognition device 1A starts communication with the fourth voice recognition device 1D and resumes the conversation.
  • the first speech recognition device 1A does not store the association information between the person B and the fourth speech recognition device 1D in the location estimation data 190 of the internal reference memory 1032 and temporarily moves the person B to another location. It may be considered that the user has moved, or the association information between the person B and the fourth speech recognition device 1D is created and given a priority order, and the association between the person B and the second speech recognition device 1B is ranked higher.
  • the priority order of the association between the person B and the fourth voice recognition device 1D may be set in the lower order, and the connection is made in the priority order and the presence or absence of a response is waited.
  • the voice data is sequentially sent to another voice recognition device in the house (in this example, the third voice recognition device 1C), and a response is waited for. Then, voice data is sent to the third voice recognition device 1C, a response is waited, and if there is no response from the voice recognition devices in all the rooms within a predetermined time, the first voice recognition device is regarded as having no response.
  • 1A makes a determination and responds to the person A who is the operator with a predetermined phrase such as “No response”.
  • the other voice recognition device instead of determining that the first voice recognition device 1A does not respond from the other voice recognition device as described above, the other voice recognition device confirms that there is no response voice from the person B within a predetermined time. By determining and returning the non-response information to the first voice recognition device 1A, the first voice recognition device 1A recognizes that there is no response, and gives a predetermined response voice such as “no response”. It may be output.
  • the predetermined response voice data may be stored in the memory 103 in advance, or may be stored on the external server 201 or the like on the Internet 200.
  • a person detection sensor I / F 110 of the voice recognition device 1 of FIG. 1 is connected to a person detection sensor such as an image sensor capable of confirming a person or a human sensor for determining the presence or absence of a person.
  • the call operation is performed based on the above.
  • the camera 113 built in the voice recognition device 1 may be used.
  • the second to second The presence or absence of a person is determined by the person detection sensor provided in each of the four voice recognition devices 1B to 1D, and in a room where it can be determined that there is no person, the voice recognition device installed in that place reports the absence notification to the first voice recognition device 1A
  • the command transmission unit 1402 receives the command.
  • the command transmission unit 1402 of the first voice recognition device 1A does not perform a call voice output to the voice recognition device that has transmitted the absence notification to the first voice recognition device 1A.
  • the command transmission unit 1402 of the first speech recognition device 1A transmits speech data to the speech recognition device that has transmitted the absence notification to the first speech recognition device 1A, and the speech recognition device that has received the speech data Play and call out. Subsequent operations can be performed in the same manner as in the above embodiments.
  • the above-mentioned person recognition determination may be performed by a generally used method.
  • the presence or absence of a person can be detected from the movement of the person sensed by a human sensor using an infrared sensor or the like.
  • the camera 113 may be used as a person detection sensor. Then, the face recognition unit 1404 may extract a human feature (for example, a face image) from an image taken by the camera 113 to determine the presence or absence of a person. Furthermore, face authentication data in which a face image and a person are associated may be collated with correspondence information with a person previously stored in the reference memory 1032 to determine whether the called person is in the room. . If the called person is captured by the camera 113 and can be determined to be in the room, the conversation between the person A and the person B becomes possible through communication connection between the first voice recognition device 1A and the second voice recognition device 1B.
  • a human feature for example, a face image
  • face authentication data in which a face image and a person are associated may be collated with correspondence information with a person previously stored in the reference memory 1032 to determine whether the called person is in the room. . If the called person is captured by the camera 113 and can be determined to be in the room, the conversation between the person A and the person B becomes
  • voice authentication data 160 (FIG. 3B) of a person living in the house is stored in advance in the reference memory 1032.
  • the feature extraction unit 1205 of the voice processing engine 120 creates a speaker template 1603 using a person's voiceprint, voice inflection, or frequency characteristics of the voice, and the first to fourth voice recognitions. It is generated by storing in advance as voice authentication data 160 in the reference memory 1032 of the devices 1A to 1D.
  • Voice authentication data 160 can be registered at the initial setting of each of the first to fourth voice recognition devices 1A to 1D.
  • the voice recognition unit 1405 of the first voice recognition device 1A compares the voice feature data of the person B registered in the voice authentication data 160 with the voice feature of the person who made the response, and they match. If so, it is determined as a person B, and the determination result is transferred to the command transmission unit 1402. In response to this, the command transmission unit 1402 transmits a command for shifting to the conversation mode to the second speech recognition device 1B.
  • the voice recognition unit 1405 determines that the voice characteristics do not match, the voice recognition unit 1405 determines that the person is not a person B.
  • the voice authentication data 160 is stored in advance in each of the first to fourth voice recognition devices 1A to 1D existing in each room as described above, and the voice that the person in each room responds calls the person A.
  • the voice authentication data 160 may be stored only in the reference memory 1032 of the first voice recognition device 1A serving as a specific master, It may be determined whether or not the voice characteristics match on the first voice recognition device 1A.
  • voice authentication data 160 is stored in a device such as a server installed in the home, and the voice data sent from each of the first to fourth voice recognition devices 1A to 1D is compared with the voice authentication data 160. Thus, the match / mismatch may be determined.
  • voice authentication data 160 may be stored on an external server installed outside the house, and voice characteristics may be compared.
  • the display output unit 109 provided in the first voice recognition device 1A on the calling side may display an alarm
  • a voice may be output from the output unit 108 such as “There is a response from an outsider” to prompt a warning.
  • FIG. 7 is a flowchart showing the flow of the first switching process between the normal mode and the conversation mode, and the conversation mode is set by default, contrary to the example of FIG.
  • the conversation mode execution unit 1403 is activated in a state where the main power is turned on, and the conversation mode waits for a call from the operator to another person. It becomes.
  • the operator issues a mode switching hot word, for example, “mode change” (S201 / Yes)
  • the mode switching unit 1401 switches to the normal mode (S202) and executes the normal mode.
  • the unit 1406 is activated (S203).
  • step S201 when a hot word for mode switching is not detected (S201 / No), the conversation mode execution unit 1403 maintains the conversation mode.
  • the normal mode execution unit 1406 maintains the normal mode while the return condition to the conversation mode is not satisfied (S204 / No).
  • the conversation mode execution unit 1403 When the return condition from the normal mode to the conversation mode is satisfied (S204 / Yes), the conversation mode execution unit 1403 is activated again to return to the conversation mode.
  • a return condition a hot word for return may be set, or it may be returned if there is no response from the operator during a predetermined time.
  • FIG. 8 is a flowchart showing the flow of the second switching process between the normal mode and the conversation mode.
  • the voice recognition device 1 first starts the voice input unit 107 and continues to monitor only the presence / absence of voice (S301 / No).
  • the hot word detection unit 1203 makes a first hot word or conversation in which the detected voice requests activation of the voice recognition device 1 (request for activation of the normal mode). It is determined whether the second hot word is a request for mode activation (S302). If it does not correspond to either the first hot word or the second hot word (S302 / No), the process returns to the voice detection process.
  • the normal mode execution unit 1406 is activated (S303). For example, when a nickname set to activate the speech recognition device 1 is called, the normal mode is processed thereafter.
  • the conversation mode execution unit 1403 is activated (S304). For example, when calling the name of a family member or a person in the house, the conversation mode is determined and the subsequent processing is performed.
  • the first hot word and the second hot word may be set in advance, or may be changed to a hot word suitable for the operator's ease of use after installation.
  • Hotword change settings can be implemented by installing dedicated application software for settings on a smartphone or PC.
  • the master operator 501 is determined in advance, and the first to fourth speech recognition devices 1A to 1D are instructed by the voice of the master operator 501 to change the hot word, or a master speech recognition device such as the first speech is recognized.
  • a change instruction may be issued from the recognition device 1A to a slave device existing in another house, for example, the second to fourth voice recognition devices 1B to 1D.
  • the hot word can be changed only when the voice is recognized as the voice of the master operator 501, thereby preventing the change easily.
  • a dedicated application for setting a smartphone or a personal computer is prepared and voice registration is performed.
  • the voice of the master operator 501 may be created in the voice feature data by the feature extraction unit 1205 in the voice processing engine 120 of the first voice recognition device 1A and registered in the reference memory 1032 or on a smartphone or a personal computer.
  • the voice authentication data 160 may be created and registered in the reference memory 1032.
  • the voice feature data is stored on the home server 601, and the voice feature and the voice that are called in cooperation with the server and the voice recognition device are stored. It is also possible to compare and confirm the characteristics of the voice of the data.
  • FIG. 9 is a conceptual diagram showing the first setting process at the time of new installation.
  • dedicated application software (initial setting application software) 410 is installed in an electronic device 401 such as a smartphone or a personal computer. Then, network connection settings with the router 202 in the home, device registration when the existing voice recognition device 1 is present, association data regarding the correspondence between the person in the home and the voice recognition device 1, the person in the family, etc. Voice authentication data 160 and the like are set.
  • connection settings between a newly installed voice recognition device and a communication device such as a wireless router in the house are set using the above-described smartphone or personal computer, or WPS (WiFi Protected Setup). The connection is set by using an automatic setting method such as
  • the correspondence between the person and the voice recognition device 1 is as follows.
  • the device mainly used by the person A is the first voice recognition device 1A
  • the device mainly used by the person B is the second voice recognition device 1B.
  • the association setting is performed on the application software such as the smartphone or the personal computer.
  • human voice authentication data 160 may be read out and shared by existing devices such as the third voice recognition device 1C, or may be managed on the electronic device described above. It is also possible to set.
  • FIG. 10 is a conceptual diagram showing the second setting process at the time of new installation
  • FIG. 11 is a flowchart showing the flow of the second setting process at the time of new installation.
  • the master operator 501 who has authority to set communication devices in the home performs connection setting for the new voice recognition device 1S by voice.
  • the master operator 501 starts speaking toward the new voice recognition device 1S, and the voice input unit 107 starts the connection setting process by accepting voice input, and starts measuring the timer 111 (S401).
  • the initial setting unit 1408 of the new voice recognition device 1S starts the initial setting process. Specifically, the initial setting unit 1408 transmits the voice data and initial setting request data of the master operator 501 to existing devices in the home, for example, the first to fourth voice recognition devices 1A to 1D and the home server 601. (S403). The above transmission processing is performed within a predetermined time (S404).
  • the reason why the transmission process is limited to a predetermined time is to reduce the possibility that the initial setting request data that is spread outside the home during transmission and the voice data of the master operator 501 are wiretapped.
  • the transmitted request data and voice data are received by the first to fourth voice recognition devices 1A to 1D already in the house (S403).
  • Each feature extraction unit 1205 of the first to fourth voice recognition devices 1A to 1D verifies whether the voice data transmitted based on the broadcast initial setting request data belongs to the master operator 501 ( S405).
  • the feature extraction unit 1205 includes a speaker template indicating the voice feature of the master operator 501 held in each reference memory 1032 of each of the first to fourth voice recognition devices 1A to 1D and the broadcast voice data. If the voice feature data is extracted and compared with each other and they match (S405 / OK), initial setting is executed for the new voice recognition device 1S (S406), and the connection setting process is terminated.
  • the initial setting is executed by the master voice recognition device that supervises all voice recognition devices in the house among the first to fourth voice recognition devices 1A to 1D.
  • the master voice recognition device for example, a device installed in a living room or the like (voice recognition device used relatively frequently by a household member) or a device first installed in the home plays a role. Or what the master operator 501 set as a master speech recognition device may be used.
  • the above-described voice data verification and initial setting of a newly connected device may be executed using the home server 601 in the home as a master device.
  • voice data is verified by the home server 601
  • the voice data and initial setting request data of the master operator 501 are received by the existing first to fourth voice recognition devices 1A to 1D and transferred to the home server 601. Or received by the home server 601 itself.
  • the home server 601 stores a voice template, which is voice feature data of the master operator 501, and verifies whether the voice features match. If they match, the home server 601 sends a new voice recognition device 1S.
  • various communication settings are instructed to enable connection to the home LAN 210.
  • the conversation system is a home conversation system using the voice recognition device 1 and further includes a home server device.
  • FIG. 12 is a diagram showing a schematic configuration of the cooperation system 100a of the voice recognition device 1 in the house in the second embodiment.
  • the home server 601 is provided on the home LAN 210.
  • voice authentication data 160 including voice data of a person existing in the house and voice feature points is held.
  • the home server 601 uses the voice data sent from each of the first to fourth voice recognition devices 1A to 1D and the data notifying the presence / absence of the person to recognize the person existing in the home from the first to fourth voice recognition. It always monitors which device of the devices 1A to 1D is located.
  • the first voice recognition device 1A that receives the call from person A is a voice recognition device (fourth voice) determined to be closer to person D from home server 601.
  • the information of the recognition device 1D) is acquired.
  • the voice data is sent only from the first voice recognition device 1A to the fourth voice recognition device 1D, and only with the voice recognition device near the person to be called without confirming the location of the conversation partner each time. It is possible to have a conversation.
  • each of the first to fourth voice recognition devices 1A to 1D grasps the occupancy status by the person detection sensor I / F 110 provided in its own device, and transmits the result to the home server 601. Therefore, the first voice recognition device 1A inquires the home server 601 which voice recognition device is detecting the person, so that the second voice recognition devices 1B and 4 in the room 2 and the room 4 The communication connection with the voice recognition device 1D is prioritized.
  • the home server 601 collects information such as the presence or absence of a person and the presence or absence of sound, so that it is possible to always grasp which person is in which room. In this way, it is possible to confirm the destination of the call data for the person D from the first voice recognition device 1A with the home server 601, and to send the call data to the fourth voice recognition device 1D in the room 4 where the person D is located. it can.
  • the home server 601 grasps the occupancy status by the person detection sensor provided in each of the first to fourth voice recognition devices 1A to 1D, but instead or in addition to this, Alternatively, use status data of each voice recognition device may be used.
  • FIG. 13 shows an example of usage status data 170 that records the usage status of person A for each time zone.
  • FIG. 14 shows an example of call priority data 180 for each time period for the person A determined based on the usage status data 170. Although not shown, similar data is created for other persons.
  • Usage status data 170 and call priority data 180 are stored in the reference memories 1032 of the first to fourth speech recognition devices 1A to 1D, respectively. For example, when a call is made to person A and the first voice recognition device 1A responds, each of the first to fourth voice recognition devices 1A to 1D uses the usage status data 170 stored in its own device and the call priority. The response record and the call priority are written in the rank data 180 and updated.
  • the first voice recognition device 1A broadcasts the updated usage status data 170 and call priority data 180 to the home LAN 210.
  • Each of the second to fourth speech recognition devices 1B to 1D uses the received updated usage status data 170 and the call priority data 180, and the usage status data 170 and the call stored in the reference memory 1032 of the own device.
  • the priority order data 180 is updated.
  • the command transmission unit 1402 of the fourth voice recognition device 1D refers to the call priority data 180, and among the first to third voice recognition devices 1A to 1C excluding its own device, the second voice is in descending order.
  • the recognition device 1B, the first speech recognition device 1A, and the third speech recognition device 1C are sequentially read.
  • the call priority data 180 may be changed not only by the usage status data 170 but also by user designation. For example, if it is known that the user is near a specific device during a certain time period, the call priority data 180 may be temporarily changed so that the priority of the device becomes first.
  • the home server 601 can also process the person A as absent.
  • the voice data can be transferred to a communication device such as a smartphone owned by the person D.
  • the call data is transmitted to the communication device along the information. Forward.
  • the person D When the call information reaches the communication device owned by the person D, the person D is notified by screen display, audio output, vibration, or the like.
  • a call can be started between the first voice recognition device 1A in the house and the communication device of the person B outside the house.
  • the home server 601 issues absence notification data to the first voice recognition device 1A, and the fact that the person D does not appear from the first voice recognition device 1A, for example, Performs a predetermined voice output as if "No response now".
  • a call is made from the first speech recognition device 1A to the other second to fourth speech recognition devices 1B to 1D
  • the call can be made from any of the second to fourth voice recognition devices 1B to 1D. Therefore, it is possible to call another voice recognition device from any voice recognition device in the house.
  • a plurality of voice recognition devices according to the present embodiment can be installed, and when newly installed, they can be added by the above installation method.
  • FIG. 15 shows an example in which the voice recognition device 1 and the mobile communication terminal 71 are connected by a dock 701.
  • the voice recognition device 1 further includes a dock 701.
  • the dock 701 includes a charge control interface 711 that charges the mobile communication terminal 71 and a communication control interface 712 that communicates via a connection terminal.
  • Specific functions can be realized by a USB (Universal Serial Bus), a wired connection at a specific mobile communication terminal interface, or a wireless charging function and a wireless communication function.
  • USB Universal Serial Bus
  • the mobile communication terminal 71 When the owner of the mobile communication terminal 71 makes a response such as “Please play”, “From whom?” Or “What is the content?”, The mobile communication terminal 71 is instructed to receive a call or transfer the content of the mail. Can be used to inform the name of the person to be notified, to act as a speakerphone for a telephone, or to output the contents of a mail as a voice message.
  • the owner of the mobile communication terminal 71 is not in the room, it is assumed that the mobile communication terminal 71 is in another place in the house from the presence / absence of a response within a predetermined time from the home server 601 shown in FIG.
  • the voice recognition device 1 determined to be closest to the current location of the owner is determined, and the incoming call notification is transferred to the voice recognition device 1. Based on the transferred incoming call notification, the same operation as the above call operation is performed.
  • the home server 601 uses the individual voice recognition devices 1 existing in the house and the voices spoken to the individual voice recognition devices 1 Even if it is determined which voice recognition device 1 the person in the house is near by using the feature extraction data, the sound picked up by each voice recognition device 1, the connection status between the dock 701 and the mobile communication terminal 71, etc. Good.
  • a device or a wearable device normally worn by the owner such as the mobile communication terminal 71 is sufficiently close to the voice recognition device 1 like the connection with the dock 701. If it is possible to communicate using short-range communication or if the camera 113 of the voice recognition device 1 can confirm that the terminal is in the same room, it is estimated that the terminal owner is in the room and the voice in the room A response such as raising the priority of the call to the recognition device 1 may be taken.
  • FIG. 16 is a flowchart showing the switching process to the answering machine mode.
  • a person in the house who is permitted to access the individual voice recognition device 1 issues a fifth hotword for switching to the answering machine mode, for example, “Let me answer!”.
  • the feature extraction unit 1205 of the speech recognition device that has detected the fifth hot word adds the voice authentication data 160 to the voice authentication data 160.
  • the voice characteristics of a person registered as a person permitted to access the home LAN are compared with the voice characteristics data extracted by the voice recognition device 1.
  • This determination method is possible by using a method as described in the above-described embodiments.
  • either the hot word confirmation or the access permission determination procedure may be performed first or later.
  • the command transmission unit 1402 transmits an instruction to shift to the answering machine mode to the home server 601 (S503).
  • the home server 601 When the home server 601 receives the instruction to shift to the answering machine mode, the home server 601 senses a sound of a predetermined volume or higher for all of the first to fourth voice recognition devices 1A to 1D in the home after a predetermined time has elapsed since the reception. In this case, in order to shift to the answering mode in which notification of abnormal sound occurrence is sent to the home server 601, an answering mode change instruction is issued (S504).
  • Each of the first to fourth voice recognition devices 1A to 1D is switched to the answering machine mode by the mode switching part 1401 provided in the own apparatus, and the answering machine mode execution part 1407 executes the processing of the answering machine mode (S505).
  • the feature extraction units of the first to fourth voice recognition devices 1A to 1D that have detected the voice 1205 compares the voice feature data of the person (family member) registered in the voice authentication data 160. When the detected voice matches the voice feature data registered in the voice authentication data 160 (S507 / Yes), the mode switching unit 1401 returns from the answering mode to the normal mode (S508).
  • step S507 if the voice data detected by the feature extraction unit 1205 determines that the voice feature data of the person (family member) registered in the voice authentication data 160 does not match (S507 / No), the mode switching unit 1401 uses the warning mode. (S509), the alert mode execution unit 1409 is activated.
  • the warning mode execution unit 1409 activates the camera 113 provided in each of the warning modes, for example, the first to fourth voice recognition devices 1A to 1D to record indoor image data, and the voice input unit 107 The recording process of the detected voice is executed. Further, the abnormality occurrence information may be transmitted to the home server 601. When the home server 601 receives the abnormality occurrence information, the home server 601 sends an alarm such as an e-mail to the mobile communication terminal 71 such as a mobile phone or a smart phone registered by a householder registered in advance.
  • the mobile communication terminal 71 such as a mobile phone or a smart phone registered by a householder registered in advance.
  • the householder who has received the alarm can also be connected to the home server 601.
  • the home server 601 receives the sound picked up by the voice input unit 107 of the voice recognition device 1 that has detected the abnormal sound as voice data, and sends the data to the householder. You can also check the status of your home by sending it directly to.
  • the mode switching unit 1401 detects the warning mode. Is canceled and the normal mode is restored (S508).
  • the voice recognition device 1 can be monitored alone. When operating alone, the voice recognition device 1 has a function executed by the home server 601. Alternatively, a cloud server or the like existing on the Internet may be used instead of the home server 601.
  • the in-home voice recognition device 1 is linked, and the warning mode is activated based on the presence / absence of voice input while the housekeeper is away and whether the voice feature is a registered voice. Can do.
  • the intrusion into the home is monitored using the voice recognition devices 1 installed in a plurality of rooms, and after an abnormality is detected, a warning mode is executed on the voice recognition devices 1 in the entire home to track the intruder. You can record actions and face images, and report to family members.
  • a warning sound or a warning sound can be output from the voice recognition device 1. If a warning sound, such as a siren, is registered, it can be replayed after detecting an abnormal sound, and a crime prevention effect can be expected.
  • a one-to-one call between voice recognition devices has been described.
  • the present invention is not limited to this, and a one-to-multiple or multi-to-multiple call mode is also possible.
  • the voice data of the person in the conversation mode is sent to a plurality of voice recognition devices.
  • home communication can be performed via a home network by using a plurality of voice recognition devices in cooperation.
  • voice recognition devices installed in other rooms or other places as if they were in the same room or the same place. You can communicate smoothly with others.
  • Speech recognition device 100 Cooperation system 100a: Cooperation system 101: CPU 102: Bus 103: Memory 104: Wired LAN I / F 105: Wireless LAN I / F 106: Wireless communication I / F 107: Audio input unit 108: Audio output unit 109: Display output unit 111: Timer 113: Camera

Abstract

複数の音声認識デバイスを連携して利用するために、音声認識デバイスは、音声入力部と、音声出力部と、他の音声認識デバイスとの間でデータの送受信を行う通信制御部と、他の音声認識デバイスに対して音声入力部から入力された音声データを送信し、他の音声認識デバイスから受信した音声データを音声出力部から出力する会話モード実行部と、音声入力部から入力された音声をテキストデータに変換する音声認識部と、テキストデータから会話モード実行部の起動を指示する会話起動ホットワードを検出するホットワード検出部と、他の音声認識デバイスに対して制御コマンドを送信するコマンド送信部と、を備える。ホットワード検出部が会話起動ホットワードを検出すると、コマンド送信部は、他の音声認識デバイスに対して当該他の音声認識デバイスに備えられた会話モード実行部を起動させる制御コマンドを送信する。

Description

音声認識デバイス、音声認識デバイスの連携システム、及び音声認識デバイスの連携方法
 本発明は、音声認識デバイス、音声認識デバイスの連携システム、及び音声認識デバイスの連携方法に関する。
 近年、発話者の発する音声内容を音声認識し、発話内容を解析することで、発話内容に則した応答を付属するスピーカーから音声出力する、所謂スマートスピーカー、あるいはAIスピーカーと呼ばれる音声認識技術及び人工知能技術を用いた音声認識デバイスが製品化されつつある。例えば、特許文献1には音声認識技術の一例として「発話入力に音声認識アルゴリズムを適用した結果得られた解釈候補が、冗長性を減少させて統合化された方法で提示される方法を提供するために、ユーザに解釈候補の中から選択する機会を提示し、重複要素なしでこれらの選択肢を提示するように構成される(要約抜粋)」との記載がある。また特許文献2には「自動音声認識システムにおける、音声認識モデル及びデータの使用を管理するための機能として、ユーザがいつシステムを利用する可能性があるかを予測するために追跡され得る(要約抜粋)」とする記載がある。
特開2013-68952号公報 特表2015-537258号公報
 上記のスマートスピーカー等の音声認識デバイスは、当該デバイスに対して当該デバイスの周辺にいる者が音声で指示等を与えることにより当該デバイスで処理し応答を得るものであるが、当該デバイスを複数個で連携して使用することについては開示していない。つまり、宅内での使用例としてはリビングで家族が当該デバイスを共有して天気予報、ニュース、音楽などのインターネット上に存する情報取得を要求すると、それに応じた内容を音声出力するだけで、リビング以外の例えば、子供部屋にある、更に別の音声認識デバイスとの間では何らのコミュニケーションや連携動作を行うことが想定されていない。このため、複数の音声認識デバイスを連携して使用することができず、音声認識デバイスの新たな利用態様について工夫の余地がある。
 本発明は上記実情に鑑みてなされたものであり、複数の音声認識デバイスを連携して利用することができる音声認識デバイス、音声認識デバイスの連携システム、及び音声認識デバイスの連携方法を提供することを目的とする。
 上記目的を達成するために、本発明は特許請求の範囲に記載の構成を有する。
 本発明によれば、複数の音声認識デバイスを連携して利用することができる音声認識デバイス、音声認識デバイスの連携システム、及び音声認識デバイスの連携方法を提供することができる。上記以外の目的・構成・効果は下記実施形態において明らかにされる。
本実施形態に係る音声認識デバイスのハードウェア構成図 音声認識デバイスの機能ブロック図 参照メモリに記憶されるホットワードデータの例を示す図 参照メモリに記憶される声認証データの例を示す図 音声認識デバイスを用いた連携システムを示す図 連携システムにおける第1の呼びかけ動作を示すフローチャート 所在推定データの一例を示す図 通常モード/会話モードの第1の切り替え処理の流れを示すフローチャート 通常モード/会話モードの第2の切り替え処理の流れを示すフローチャート 新規設置時の第1の設定処理について示す概念図 新規設置時の第2の設定処理について示す概念図 新規設置時の第2の設定処理の流れを示すフローチャート 第2実施形態における家屋内の音声認識デバイスの連携システムの概要構成を示す図 人物についての時間帯ごとの利用状況を記録した利用状況データの一例を示す図 人物についての時間帯ごとの呼び出し先優先順位を記録した呼び出し優先順位データの一例を示す図 音声認識デバイスと携帯通信端末とをドックで接続する例を示す図 留守番モードへの切替処理を示すフローチャート
 以下、本発明の実施形態の例を、図面を用いて説明する。なお、各種の図面において、同一の機能には同一の符号を付し、重複説明を省略する。
 <第1実施形態>
 図1は、本実施形態に係る音声認識デバイス1のハードウェア構成図である。音声認識デバイス1は、音声認識専用の装置であっても、携帯電話端末、スマートフォン、パーソナルコンピュータ、ゲーム機器、等のように従来から存する通信機能を有する電子機器であっても良い。また、音声認識デバイス1は、通信機能として、有線LAN、無線LAN、携帯電話回線の無線通信、Bluetooth(登録商標)、RFIDなどの近接無線、等の一般的な通信機能を用いてもよく、それら通信機能に対応する通信インタフェースを一つ、又は複数備える。
 具体的には、音声認識デバイス1は、CPU101、メモリ103、外部インターフェースとしての有線LANI/F104、無線LANI/F105、及び無線通信I/F106、音声入力部107(例えばマイク)、音声出力部108(例えばスピーカ)、表示出力部109(例えば液晶画面)がバス102を介して互いに接続される。またバス102には、人物検知センサI/F110、タイマー111、RTC112、カメラ113が接続されてもよい。
 メモリ103は、揮発性メモリからなる内部メモリ1031及び不揮発性メモリからなる参照メモリ1032を含む。
 人物検知センサI/F110は、例えば人感センサーや集音センサー等種類を問わず、人物検知センサを外付けするためのI/Fである。
 図2は、音声認識デバイス1の機能ブロック図である。
 音声認識デバイス1は、音声処理エンジン120を備える。音声処理エンジン120は、主に音声処理部1201、音声認識部1202、ホットワード検出部1203、音声解析部1204、及び特徴抽出部1205を含む。
 音声処理エンジン120は、CPU101が参照メモリ1032に保持される音声処理プログラムを読み出して内部メモリ1031にロードし、音声処理プログラムに沿った処理を実行することにより、音声処理エンジン120の機能が実現する。
 具体的には、音声認識デバイス1に向けて人が何か話しかけると、その声が音声入力部107で取り込まれ、声(アナログデータ)がデジタルデータからなる音声データに変換される。
 音声処理部1201は、音声データに含まれる周辺ノイズ除去等の調整等を行う。
 音声認識部1202は、音声データを文字列データへ変換する音声認識処理を行う。
 ホットワード検出部1203は、文字列データが音声認識デバイス1に対する動作の開始、待機状態からの復帰などの起動を求める所定の語句(以下「ホットワード」という)を含む文字列データであるかを判定する。
 図3Aは、参照メモリ1032に記憶されるホットワードデータ150の例を示す図である。ホットワードデータ150は、登録ホットワード1501と、その登録ホットワード1501の音声認識デバイス1に対する動作を規定した種別1502と、登録ホットワード1501を用いて呼びかける音声認識デバイス1を特定する機器固有情報が規定された呼びかけ先1503とが関連付けられたデータである。ホットワード検出部1203は、文字列データがホットワードデータ150に記載されているかを基にホットワードの検出を行う。
 音声解析部1204は、音声認識デバイス1に向けて話した内容の解釈、即ち文字列データに対応する応答データや制御コマンドを決定し、応答データを音声出力部108から出力したり、制御コマンドをCPU101へ出力し、音声データが示す処理をCPU101に実行させる。例えば、制御コマンドとして特定の音楽の再生コマンドがある。
 音声認識部1202は、音声認識デバイス1ではなく、音声認識デバイス1に接続された外部サーバ201(図4参照)に備え、音声認識処理を外部サーバ201で実行してもよい。これにより、音声認識デバイス1の負荷を減らすことができる。音声認識デバイス1で音声認識処理を実行する場合は、外部サーバ201とのデータ通信量を下げることができる。
 また第1実施形態に係る音声認識デバイス1に特徴的な機能として、従来の音声認識デバイスのように単独での動作のほかに、話しかけられた音声を家屋や建物内と言った所定の空間内に設置されるプライベートな通信ネットワーク(以下、宅内LAN210:図4参照を例示する)上に存する別の音声認識デバイス1へ転送して会話を行うことができる点がある。そのため、ホットワード検出部1203は、会話を行うための会話モードへと移行する端緒であるホットワードを検出する。更に、音声認識デバイス1は、宅内LAN210を介した会話に参加可能な人物から声や画像の特徴を抽出し、登録データとの一致判定を行う特徴抽出部1205を有する。
 図3Bは、参照メモリ1032に記憶される声認証データ160の例を示す図である。
 声認証データ160は、宅内LAN210を介した会話に参加可能な人物を固有に特定する情報としての話者1601と、話者の属性、例えば音声認識デバイス1や通信ネットワークの設定権限を有する「マスター」か、又は設定権限を有さず、宅内LAN210での会話への参加権限だけを有する「一般」か、を示す話者種別1602と、各個人の声の特徴を示す話者テンプレート1603とが関連付けられたデータである。
 図4は、音声認識デバイス1を用いた連携システム100を示す図であり、宅内で使用する場合の一例を示している。なお、この例では宅内としているが、家屋内に限定されるものではなく、事務所や教室などの特定の人たちが集まる空間でも本実施形態は適用可能である。
(第1の呼びかけ動作)
 図4で家屋内の各部屋1、部屋2、部屋3、部屋4にそれぞれ設置される第1音声認識デバイス1A、第2音声認識デバイス1B、第3音声認識デバイス1C、第4音声認識デバイス1Dは、図1の音声認識デバイス1と同一機能を有するものである。ここで、各部屋に存する第1~第4音声認識デバイス1A~1Dの其々は、部屋2~4の其々に設置されたアクセスポイント或いは無線中継器である第2AP2032~第4AP2034の其々を介して部屋1に設置してあるルーター202に接続される。そして、第1~第4音声認識デバイス1A~1Dの其々は、ルーター202を介して外部のインターネット200に接続されている。
 以下、図5の各ステップ順に沿って、連携システム100における第1の呼びかけ動作について説明する。本ステップの処理を開始するに当たり、第1~第4音声認識デバイス1A~1Dは、全て電源が入っており、音声入力部107及び音声処理エンジン120は起動しているものとする。この状態をスタンバイモードという。
 部屋1に居る人物Aが第1音声認識デバイス1Aに向けて呼びかけを行うと、人物Aの声は第1音声認識デバイス1Aの音声入力部107で取り込まれた後に、ホットワード検出部1203で起動要求を意味する第1ホットワードか否かの判定を行う。ホットワード検出部1203が呼びかけ音声は第1ホットワードであると判定すると(S101/Yes)、「何かご用でしょうか?」と言った所定の定型語句の音声応答データを音声出力部108から再生する。ホットワード検出部1203は、第1ホットワードを音声解析部1204へ出力し、音声解析部1204は通常モード実行部1406に対して実行命令を出力する。これにより、第1音声認識デバイス1Aは、通常モードに切り替わる。通常モードは、第1音声認識デバイス1Aが有する機能を全て実行可能な動作モードである。
 ホットワード検出部1203がホットワードではないと判定すると(S101/No)、スタンバイモードを維持する。
 次に人物Aが他の部屋にいる人物Bに向けて「B君!」と言う呼び掛けを発すると、その音声は音声入力部107を介して音声データとして取り込まれた後、音声処理エンジン120の音声処理部1201で周囲ノイズ除去等の調整を行った後にホットワード検出部1203で第2ホットワード(会話モードへの切替要求を指示するホットワード)か否かを判定する(S102)。
 「B君!」と言う呼び掛け音声データがホットワードとしてホットワードデータ150に予め登録されており、ホットワード検出部1203が「B君!」という語が第2ホットワードであると判定すると(S102/Yes)、音声解析部1204に第2ホットワードを出力する。本実施態様では、会話モードへ移行する端緒となるホットワードを宅内に存する人物の名前としているが、これに限るものではなく、別の定型フレーズ、例えば、「話す」とか「つなぐ」等と言った言葉でも何であっても良い。
 音声解析部1204は、第2ホットワードが会話モードへの切替要求であると解析し、それに必要な制御コマンドを選択する(S103)。本例では、第1~第4音声認識デバイス1A~1Dを会話モードへと切り替えるモード切替コマンド、及び「B君!」という音声データを第1音声認識デバイス1Aから第2~第4音声認識デバイス1B~1Dの其々に送信し、其々の音声出力部108から出力させる音声転送コマンド及び音声再生コマンドが該当する。
 第1音声認識デバイス1Aでも会話モード実行部1403が起動し、会話モードに切り替わる(S104)。
 第1音声認識デバイス1Aのコマンド送信部1402は、音声転送コマンドに基づいて通信制御部1410を介して第2~第4音声認識デバイス1B~1Dに対して「B君!」と言う呼び掛け音声データを転送し、かつ其々に対して会話モードに切替えるモード切替コマンド及び音声再生コマンドを送信する。また、第1音声認識デバイス1Aのコマンド送信部1402は、第2~第4音声認識デバイス1B~1Dに対して呼び掛け音声データを転送してからの経過時間の計測を開始する(S105)。
 第2~第4音声認識デバイス1B~1Dの其々は、呼びかけ音声データを其々が有する音声出力部108から「B君!」という音声を再生し、会話モード実行部1403が起動して会話モードに切り替わる。音声データの再生の順番については、第2~第4音声認識デバイス1B~1Dの其々が同時に音声再生することとしても良いし、所定の順番で第2~第4音声認識デバイス1B~1Dから音声出力することでも良い。この所定の順番としては、例えば、音声認識デバイスを設置した順番であったり、部屋ごとの優先順位を付けた順番であったり(図14参照)、等でも良い。
 部屋2にいる人物Bが応答し、例えば、「はい!」の様に呼びかけに応じた返答がなされると第2音声認識デバイス1Bが音声入力部107を介して音声データとして取り込み、当該応答音声データを呼びかけ元である第1音声認識デバイス1Aへ返送する。この際に、第2音声認識デバイス1Bと人物Bの紐づけが行われる。更に、第2音声認識デバイス1Bの存する部屋2に居る人物は人物Bであるとする紐づけ情報が、第1、第3、第4音声認識デバイス1A、1C、1Dにも共有登録される。
 図6に、所在推定データの一例を示す。
 人物Bと第2音声認識デバイス1Bとの紐づけ登録例として、第1音声認識デバイス1Aが上記応答音声データを受領すると、「人物B=第2音声認識デバイス1B」として参照メモリ1032にあらかじめ登録された所在推定データ(図6参照)に追記してもよい。宅内の第1~第4音声認識デバイス1A~1Dの識別は、機器のMacアドレスや宅内LAN210での機器割り当てIPアドレスなどの特定の識別子を使用すればよい。
 更に、上記の所在推定データは、第1音声認識デバイス1Aから宅内の他の音声認識デバイス、即ち第2~第4音声認識デバイス1B~1Dに対して登録要求が展開され、各第2~第4音声認識デバイス1B~1Dの参照メモリ1032に保持される。なお、上記所在推定データが各第1~第4音声認識デバイス1A~1D内の参照メモリ1032に既に保持されている場合は、既登録として紐づけ操作は行わない。人物の登録は、図2の「B君!」の呼びかけ音声中に含まれる名前の部分を音声処理エンジン120、あるいは外部サーバ201上で抽出して名前データとして用いると「人物Bの名前=第2音声認識デバイス1B」の対応付けが可能となる。
 なお、会話モードへの切り替えを判断するためのホットワードの登録方法については後述する方法で初期設定時等の音声認識デバイス設置時や新規登録設定時に行う。
 第1音声認識デバイス1Aのコマンド送信部1402は、タイマー111で計測した経過時間が応答の有無を判断するための待機時間閾値以上になった場合(S106/Yes)、第2~第4音声認識デバイス1B~1Dのうち応答がなかったデバイスに対して、会話モードからスタンバイモードに戻すコマンドを送信する(S107)。
 第2~第4音声認識デバイス1B~1Dのうちの少なくとも一つから音声データの応答があり時間閾値未満の経過時間で応答があった場合(S106/No)、第1音声認識デバイス1Aと応答があったデバイス、例えば第2音声認識デバイス1Bの会話モードを維持する(S108)。
 会話モード実行部1403は、ステップS104において会話モードに切り替えられてから後に、第1音声認識デバイス1Aの音声入力部107に入力された音声、及びステップS105において第2音声認識デバイス1Bの音声入力部107に入力された音声を第1音声認識デバイス1Aと第2音声認識デバイス1Bとの間で音声の送受信を行う。
 第1音声認識デバイス1Aと第2音声認識デバイス1Bのいずれか一方が、会話モードを終了させる第3ホットワードを検出すると(S109/Yes)、ホットワードを検出した機器、例えば第2音声認識デバイス1Bはスタンバイモードに切り替わる(S110)と共に、第1音声認識デバイス1Aに対してスタンバイモードへに切り替えるコマンドを送信する(S107)。これを受けて、第1音声認識デバイス1Aもスタンバイモードに切り替わり、会話モードが終了する。
 また、ステップS102において第2ホットワードを検出しなければ(S102/No)、第1音声認識デバイス1Aは、会話モードに移行することなく、通常モードを維持したまま(S111)、処理を終了する。
 上記例では紐づけ操作は最初に呼びかけを実施した方の第1音声認識デバイス1Aがマスター機器となって、家屋2内の呼びかけられた方の第2~第4音声認識デバイス1B~1Dの其々に対して制御指示を実施しているが、これに限るものでは無く、呼びかけられ応答した方の第2音声認識デバイス1Bがマスターとなってもよい。
 別の紐づけ手法としては、例えば宅内に初めて第4音声認識デバイス1Dを設置する際に、第4音声認識デバイス1Dの主たる使用者あるいは操作者が人物Dであることを登録しておくことで、設置直後に宅内LAN210を介して第1~第3音声認識デバイス1A~1Cへ紐づけデータを展開し、第1~第4音声認識デバイス1A~1D内の参照メモリ1032に「人物D=第4音声認識デバイス1D」として登録させることも可能である。
 上記例は第1音声認識デバイス1Aから第2音声認識デバイス1Bに向けての呼びかけの例であるが、この手順は宅内に存する全ての音声認識デバイスとの間に適用可能であり、上記例以外の音声認識デバイスから他の音声認識デバイスに対する呼びかけであっても同様にできる。
 また、上記例では、第1~第4音声認識デバイス1A~1Dは各部屋との通信に無線LANを利用しているが、有線LANによる接続でも、携帯電話回線を用いた接続でも可能である。更には、会話モード時だけ通信モードを別のインタフェースに代えることも可能である。例えば、通常モードでは無線LANを使用し、会話モードではBluetoothの様な別の無線システムを利用するといったことでも良い。
(第2の呼びかけ動作)
 上記の実施形態の様に、音声認識デバイス1と人物との紐づけが完了すると、以降に人物Aと人物Bが会話を行う際には、人物Aが使用する第1音声認識デバイス1Aと人物Bが使用する第2音声認識デバイス1B間の通信のみを開放し、上記以外の音声認識デバイス1との間の通信は閉じることで会話内容の秘匿性を高めることができる。
 例えば、2回目以降に人物Aが人物Bを呼ぶと、第1音声認識デバイス1Aのコマンド送信部1402は、所在推定データ(図6)に登録されている人物Bに紐づけられた第2音声認識デバイス1Bとの通信を確立(モード切替コマンドを送信し、それに応答することで通信が確立する)し、音声データを第2音声認識デバイス1Bに送付する。
 会話モード実行部1403は、これ以降、第1音声認識デバイス1Aと第2音声認識デバイス1Bとの間だけで音声データの通信を実施し、人物Aと人物Bとが直接会話する状態を可能とする。これにより、宅内のすべての音声認識デバイスに向けて、いちいち音声データを送付する必要はなくなる。
 この会話モード実行中に、例えば、呼びかけから所定時間内に人物Bからの応答としての音声データ受信がないと、第1音声認識デバイス1Aの会話モード実行部1403は、会話相手が不在となったと判定する。そして、会話モード実行部1403からコマンド送信部1402に対して、今まで通信を閉じていた家屋内の他の音声認識デバイスとの通信チャネルを再開、即ち他の音声認識デバイス(第3、第4音声認識デバイス1C、1D)に向けて音声データを送付して、応答を待つ。
 ここで、例えば、部屋4に存する第4音声認識デバイス1Dから応答があれば、第1音声認識デバイス1Aは、当該第4音声認識デバイス1Dとの間で通信を開始し、会話を再開する。この場合、第1音声認識デバイス1Aは内部の参照メモリ1032の所在推定データ190へ人物Bと第4音声認識デバイス1Dとの紐づけ情報を格納することは行わずに一時的に人物Bが他所へ移動したと看做すことでも良いし、あるいは人物Bと第4音声認識デバイス1Dの紐づけ情報を作成して優先順位を付し、人物Bと第2音声認識デバイス1Bの紐づけを上位、人物Bと第4音声認識デバイス1Dとの紐づけを下位に優先順を設定することでも良く、優先順に接続して応答の有無を待つことになる。
 更に、第4音声認識デバイス1Dからも応答が無ければ、順次、宅内に存する他の音声認識デバイス(本例では第3音声認識デバイス1C)に対して音声データを送付して、応答を待つ。そして、第3音声認識デバイス1Cに対して音声データを送付し応答を待ち、最終的に所定時間内にすべての部屋の音声認識デバイスから全く応答がない場合は、応答なしとして第1音声認識デバイス1Aが判定し、操作者である人物Aに対して、例えば「応答が有りませんでした。」等の所定のフレーズで返答を行う。あるいは、上記の様に第1音声認識デバイス1Aが他の音声認識デバイスから無応答であることを判定する代わりに、他の音声認識デバイスが所定時間内に人物Bからの応答音声が無いことを判定して、無応答情報を第1音声認識デバイス1Aへ戻すことで第1音声認識デバイス1Aは無応答であることを認識して「応答が有りませんでした。」等の所定の返答音声を出力することでも良い。
 なお、所定の返答音声データはメモリ103に予め格納しておいても良いし、インターネット200上の外部サーバ201等上に保持するものを用いることでも良い。
(第3の呼びかけ動作)
 本例では、図1の音声認識デバイス1の人物検知センサI/F110に、人物を確認可能な撮像センサー、あるいは人物の有無を判別する人感センサー等の人物検知センサーが接続され、その検知結果を基に呼びかけ動作を行う。また音声認識デバイス1に内蔵されたカメラ113を用いてもよい。
 例えば、人物Aからの呼びかけに応じて第1音声認識デバイス1Aが、各部屋に存する第2~第4音声認識デバイス1B~1Dに人物Aの呼びかけ音声データを送信する際に、第2~第4音声認識デバイス1B~1Dの其々に備えられた人物検知センサーで人の有無を判断し、無人と判断できる部屋ではその場所に設置される音声認識デバイスが不在通知を第1音声認識デバイス1Aへ戻し、コマンド送信部1402が受信する。
 そして、第1音声認識デバイス1Aのコマンド送信部1402は、不在通知を第1音声認識デバイス1Aに対して送信した音声認識デバイスへは呼びかけの音声出力を行わない。
 一方、第1音声認識デバイス1Aのコマンド送信部1402は、不在通知を第1音声認識デバイス1Aに対して送信した音声認識デバイスへは、音声データを送信し、音声データを受信した音声認識デバイスは、再生して呼びかけを行う。この後の動作は前記の各実施形態の場合と同様にできる。
 また、上記の人物の認識判定は、一般に用いられる方法で良い。赤外線センサー等を用いた人感センサーで感知された人物の動きから人物の有無を検出することが可能である。
 更には、人物検知センサーとしてカメラ113を用いてもよい。そして、顔認識部1404がカメラ113で撮られた画像から人の特徴(例えば顔画像)を抽出して人物の有無を判定してもよい。更に、顔画像と人物とを対応付けた顔認証データを予め参照メモリ1032に保持しておいた人物との対応情報とを照合し、呼びかけられた人物の在室の有無を判定してもよい。呼びかけられた人物がカメラ113で捉えられ在室と判断できれば、第1音声認識デバイス1Aと第2音声認識デバイス1Bとの通信接続により人物Aと人物Bとの会話が可能となる。
(第4の呼びかけ動作)
 別の実施態様では、図4の人物Aが人物Bに対して呼びかけを行い、人物B以外の者が返答した場合には、第1音声認識デバイス1Aと第2音声認識デバイス1B間の通信接続を確立せずに、再度の呼びかけを実施する。
 先ず、各部屋に設置される第1~第4音声認識デバイス1A~1Dの其々には、家屋内に居住する人物の声認証データ160(図3B)が参照メモリ1032に予め保持される。声認証データ160は、音声処理エンジン120の特徴抽出部1205で人物の声紋、音声の抑揚、あるいは声の持つ周波数特性等を利用して話者テンプレート1603を作成し、第1~第4音声認識デバイス1A~1Dの参照メモリ1032に声認証データ160として予め格納しておくことで生成される。
 声認証データ160は、第1~第4音声認識デバイス1A~1Dの其々の初期設定時に登録することができる。その上で、第1音声認識デバイス1Aの声認識部1405は、声認証データ160に登録された人物Bの声特徴データと返答を行った者の声の特徴とを比較して、一致していれば人物Bとして判定し、コマンド送信部1402へ判定結果を受け渡す。これを受けて、コマンド送信部1402は、第2音声認識デバイス1Bに対して会話モードに移行させるためのコマンドを送信する。
 もし、声認識部1405が声の特徴が一致していないと判断すると、人物Bではないとして処理する。
 声認証データ160は、上記の様に各部屋に存する全ての第1~第4音声認識デバイス1A~1Dの其々に予め格納し、それぞれの部屋にいる人物が応答する音声が人物Aの呼びかけで求められる人物Bの音声と合致しているかを比較することでも良いが、それに代えて、特定のマスターとなる第1音声認識デバイス1Aの参照メモリ1032にだけ声認証データ160を格納して、第1音声認識デバイス1A上で声の特徴が合致するか否かを判定しても良い。
 あるいは宅内に設置されるサーバ等の機器に声認証データ160を格納しておき、第1~第4音声認識デバイス1A~1Dの其々から送られてくる音声データと声認証データ160とを比較して一致/不一致を判定してもよい。
 更には、宅外に設置される外部サーバ上に声認証データ160を格納して、声の特徴を比較することでも良い。
 上記例の様に話者1601の声の特徴を判定することによって、家屋内に居住する家族以外の者や家族から許可されて会話に参加可能な者以外の部外者が会話に参加することを防ぎ、セキュリティーの向上を図ることができる。
 また、登録してある話者以外の声の特徴が検出された場合には、例えば、呼びかけを行う側の第1音声認識デバイス1Aに備わる表示出力部109にアラーム表示を行わせることや、音声出力部108から「部外者からの応答があります」と言うような音声出力を行って警告を促しても良い。
(通常モード/会話モードの切り替え1)
 図7は、通常モード/会話モードの第1の切り替え処理の流れを示すフローチャートであり、図5の例とは逆に会話モードがデフォルトで設定される。
 本例では、第1~第4音声認識デバイス1A~1Dを設置後、主電源が投入されている状態では会話モード実行部1403が起動し、操作者から他の人物への呼びかけを待つ会話モードとなる。この時に操作者からモード切替のホットワード、例えば「モードチェンジ」と言ったような所定の言葉が発せられると(S201/Yes)、モード切替部1401は通常モードに切り替え(S202)、通常モード実行部1406が起動する(S203)。
 ステップS201において、モード切替のホットワードが検出されない場合は(S201/No)、会話モード実行部1403により会話モードが維持される。
 通常モード実行部1406は、会話モードへの復帰条件が非充足となる間は(S204/No)、通常モードを維持する。
 通常モードから会話モードへの復帰条件が充足すると(S204/Yes)、再び会話モード実行部1403が起動し、会話モードへ復帰する。復帰条件として、復帰させるためのホットワードを設定しても良いし、所定時間の間に操作者からの応答が無ければ復帰する様にしても良い。
(通常モード/会話モードの切り替え2)
 図8は、通常モード/会話モードの第2の切り替え処理の流れを示すフローチャートである。
 本例では、音声認識デバイス1は、始めに音声入力部107が起動して音声の有無のみを監視し続ける(S301/No)。音声入力部107が音声を検出すると(S301/Yes)、ホットワード検出部1203が、検出した音声が音声認識デバイス1に対する起動を要求(通常モードの起動を要求)する第1ホットワード、又は会話モードの起動を要求する第2ホットワードであるかを判別する(S302)。第1ホットワード、又は第2ホットワードのいずれにも該当しなければ(S302/No)、音声検出処理に戻る。
 第1ホットワードが検出された場合(S302/第1ホットワード)、通常モード実行部1406が起動する(S303)。例えば、音声認識デバイス1を起動させるために設定されるニックネームを呼ばれた場合は、通常モードとして以降は処理する。
 また第2ホットワードが検出された場合(S302/第2ホットワード)、会話モード実行部1403が起動する(S304)。例えば、家族や宅内に居る人物の名前を呼ぶ場合は、会話モードと判別して以降の処理を行う。
 第1ホットワードや第2ホットワードは予め設定しておいても良いし、設置後に操作者の使い易さに合わせたホットワードに変更することでも良い。ホットワードの変更設定には、スマートフォンやパソコンに設定用の専用アプリケーションソフトウェアをインストールして実施することができる。あるいは、マスター操作者501を予め決めておき、マスター操作者501の声でホットワード変更を第1~第4音声認識デバイス1A~1Dに指示することでも、あるいはマスター音声認識デバイス、例えば第1音声認識デバイス1Aから他の宅内に存するスレーブデバイス、例えば第2~第4音声認識デバイス1B~1Dに向けて変更指示を発するようにしても良い。この際に、マスター操作者501の声であると認識した場合のみホットワード変更可能とすることで容易に変更されてしまうことを防止する。マスター操作者501の声の設定は、スマートフォンやパソコンの設定用専用アプリケーションを用意して、声の登録を行う。マスター操作者501の声は、第1音声認識デバイス1Aの音声処理エンジン120内の特徴抽出部1205で声特徴データを作成して参照メモリ1032に登録しても良いし、あるいはスマートフォンやパソコン上で声認証データ160を作成して参照メモリ1032に登録することでも良い。更には、宅内のネットワーク環境に繋がるホームサーバ601を有する場合は、声特徴データを当該ホームサーバ601上に格納して、該サーバと音声認識デバイスとで連携しながら呼びかけられた声の特徴と格納データの声の特徴とを比較確認することでも良い。
(新規設置時の設定1)
 図9は、新規設置時の第1の設定処理について示す概念図である。
 音声認識デバイス1を宅内に新たに設置する際には、スマートフォンやパソコンの様な電子機器401に専用のアプリケーションソフトウェア(初期設定用アプリケーションソフト)410をインストールする。そして、宅内のルーター202等とのネットワーク接続設定、既設の音声認識デバイス1が有る場合の機器登録、宅内の家族等の人物と音声認識デバイス1との対応関係に関する紐づけデータ、家族等の人物の声認証データ160等の設定を行う。この例では、新規に設置する音声認識デバイスと宅内に存する、例えば無線ルーターの様な通信機器との接続設定は上記のスマートフォンやパソコン等を使用して設定する方法、あるいはWPS(WiFi Protected Setup)の様な自動設定手法を用いることで接続設定を行う。
 また、上記の人物と音声認識デバイス1との対応関係としては、人物Aが主として使用するデバイスは第1音声認識デバイス1A、人物Bが主として使用するデバイスは第2音声認識デバイス1Bと言うように関連付けの設定を前記スマートフォンやパソコン等のアプリケーションソフトウェア上で行う。
 更に、人物の声認証データ160は既存のデバイス、例えば第3音声認識デバイス1Cに格納されているデータを読み出して、共有することでも良いし、上記の電子機器上で管理しておき、そのデータを設定することでも良い。
(新規設置時の設定2)
 図10は、新規設置時の第2の設定処理について示す概念図であり、図11は、新規設置時の第2の設定処理の流れを示すフローチャートである。
 この例では、宅内の通信機器の設定権限を有するマスター操作者501が音声によって新規音声認識デバイス1Sの接続設定を行う。
 まず、マスター操作者501が新規音声認識デバイス1Sに向けて発話を開始し、音声入力部107が音声の入力を受け付けることで接続設定処理を開始し、タイマー111の計測を開始する(S401)。
 新規音声認識デバイス1Sのホットワード検出部1203が初期設定のための第4ホットワードW501を検出すると(S402/OK)、新規音声認識デバイス1Sの初期設定部1408は、初期設定処理を開始する。具体的には、初期設定部1408は、マスター操作者501の音声データ及び初期設定要求データを宅内の既存のデバイス、例えば第1~第4音声認識デバイス1A~1Dやホームサーバ601に向けて送信する(S403)。以上までの送信処理を所定時間内に行う(S404)。
 送信処理を所定時間内に限定するのは、送信時に宅外等に拡散する初期設定要求データとマスター操作者501の音声データが盗聴される可能性を低減するためである。
 送信された前記要求データや音声データは、宅内に既にある第1~第4音声認識デバイス1A~1Dにて受信される(S403)。
 第1~第4音声認識デバイス1A~1Dの其々の特徴抽出部1205は、上記ブロードキャストされた初期設定要求データに基づき送信された音声データがマスター操作者501のものであるかを検証する(S405)。特徴抽出部1205は、第1~第4音声認識デバイス1A~1Dの其々の参照メモリ1032に保持されるマスター操作者501の音声特徴を示す話者テンプレートとブロードキャストされた音声データとの其々から声特徴データを抽出して比較し、一致すれば(S405/OK)新規音声認識デバイス1Sに対して初期設定を実行し(S406)、接続設定処理を終了する。
 ステップS402、S405において判定結果がNGの場合(S402/NG)、(S405/NG)も本処理を終了する。
 初期設定の実行は、第1~第4音声認識デバイス1A~1Dのうち、宅内ですべての音声認識デバイスを統括するマスター音声認識デバイスが行う。マスター音声認識デバイスは、例えば、宅内のリビング等に設置されるデバイス(家人により比較的高頻度で使用される音声認識デバイス)や、最初に宅内に設置されたデバイスがその役割を担う。あるいは、マスター操作者501がマスター音声認識デバイスとして設定したものでも良い。
 又は、宅内にあるホームサーバ601をマスター機器として、上記の音声データの検証や新規接続機器の初期設定を実行しても良い。ホームサーバ601で音声データの検証を実施する場合、マスター操作者501の音声データや初期設定要求データは、既設の第1~第4音声認識デバイス1A~1Dが受信してホームサーバ601へ転送する、あるいはホームサーバ601自体で受信する。そして、ホームサーバ601にはマスター操作者501の声特徴データである音声テンプレートを格納しておき、音声の特徴が一致するかの検証を行い、一致すればホームサーバ601から新規音声認識デバイス1Sに対して、宅内LAN210への接続を可能とする様に通信の各種設定を指示する。
<第2実施形態>
 本実施形態では、音声認識デバイス1を用いる宅内での会話システムで、更にホームサーバ機器を含むシステムから成る。図12は第2実施形態における家屋内の音声認識デバイス1の連携システム100aの概要構成を示す図である。
 図4との違いは、宅内LAN210上にホームサーバ601を有する点である。ホームサーバ601上には、宅内に存する人物の音声データや音声の特徴点を含む声認証データ160が保持してある。そして、ホームサーバ601は、第1~第4音声認識デバイス1A~1Dの其々から送られてくる音声データや人物の有無を通知するデータにより、宅内に存する人物が第1~第4音声認識デバイス1A~1Dのいずれの機器の付近に居るかを常に監視する。
 これにより、図12において人物Aから人物Dを呼び出す場合でも、人物Aの呼びかけを受け取る第1音声認識デバイス1Aは、ホームサーバ601から人物Dにもっと近いと判断される音声認識デバイス(第4音声認識デバイス1D)の情報を取得する。
 そして第1音声認識デバイス1Aから第4音声認識デバイス1Dに対してのみ音声データを送付し、会話相手の所在を都度、確認することなく、呼び出したい人物の近くにある音声認識デバイスとの間だけでの会話が可能となる。
 図12では、人が在室しているのは、部屋2の人物Bと部屋4にいる人物Dである。第1~第4音声認識デバイス1A~1Dの其々は、自機に備えられた人物検知センサI/F110で在室状況を把握し、その結果をホームサーバ601に送信する。よって、第1音声認識デバイス1Aは、ホームサーバ601に人物を検知している音声認識デバイスがどれであるかを問い合わせることにより、部屋2と部屋4とに存する第2音声認識デバイス1B及び第4音声認識デバイス1Dとの通信接続を優先する。
 更に、人物の有無や音声の有無等の情報をホームサーバ601が収集することにより、どの人物がどの部屋に居るかを常に把握することができる。この様にして、第1音声認識デバイス1Aから人物Dに対する呼びかけデータの送付先をホームサーバ601で確認し、人物Dのいる部屋4に存する第4音声認識デバイス1Dへ呼びかけデータを送付することができる。
 次に、第4音声認識デバイス1Dで再生する呼びかけに人物Dが応答することで、第1音声認識デバイス1Aと第4音声認識デバイス1Dとの間の通信接続が確立して、人物Aと人物Dとの間での会話が可能となる。
 なお、上記の例ではホームサーバ601は、第1~第4音声認識デバイス1A~1Dの其々に備わる人物検知センサーによる在室状況の把握を行っているが、これに代える、もしくは更に加えて、各音声認識デバイスの利用状況のデータを用いることでも良い。
 図13は、人物Aについての時間帯ごとの利用状況を記録した利用状況データ170の一例を示す。また図14は、利用状況データ170を基に決定した人物Aについての時間帯ごとの呼び出しの優先順位データ180の一例を示す。また図示しないが、他の人物に関しても同様のデータを作成するものとする。
 第1~第4音声認識デバイス1A~1Dの其々の参照メモリ1032には、利用状況データ170、呼び出し優先順位データ180が其々格納されている。例えば人物Aに対して呼びかけがされて第1音声認識デバイス1Aで応答すると、第1~第4音声認識デバイス1A~1Dの其々は、自機に格納された利用状況データ170、及び呼び出し優先順位データ180に応答実績及び呼び出し優先順位を書きこんで更新する。
 更に第1音声認識デバイス1Aは、更新された利用状況データ170及び呼び出し優先順位データ180を宅内LAN210にブロードキャスト送信する。第2~第4音声認識デバイス1B~1Dの其々は、受信した更新後の利用状況データ170及び呼び出し優先順位データ180を用いて自機の参照メモリ1032に記憶された利用状況データ170及び呼び出し優先順位データ180を更新する。
 この状態で、第4音声認識デバイス1Dから人物Bが人物Aを月曜日の7:00に呼びだしたとする。第4音声認識デバイス1Dのコマンド送信部1402は、呼び出し優先順位データ180を参照し、自機を除く第1~第3音声認識デバイス1A~1Cのうち、優先順位が高い順、即ち第2音声認識デバイス1B、第1音声認識デバイス1A、第3音声認識デバイス1Cの順に順次読み出す。
 なお、呼び出し優先順位データ180は、利用状況データ170だけによらず、ユーザの指定により変更してもよい。例えばある時間帯に特定のデバイスのそばにいることが分かっている場合は、一時的に呼び出し優先順位データ180を変更して、そのデバイスの優先順位を1位にしてもよい。
 また、例えば、第1利用状況データ170において、人物Aが第2音声認識デバイス1Bの利用頻度は土、日の20時から翌朝8時の間に頻繁に利用していることが把握できれば、その時間内であれば、人物Aは在室の可能性が高いと判断して会話モードでの接続を試みることができる。上記以外の時間帯ではホームサーバ601は人物Aが不在として処理することもできる。
(宅外との会話)
 上記例の場合で、もしも呼びかけられた人物Dが不在であると判断される場合、人物Dの所有するスマートフォン等の通信機器に音声データを転送することも可能である。
 この場合、人物Dと所有する通信機器のインターネットアドレス、回線情報、機器IDと言った機器情報がホームサーバ601の参照メモリ1032に登録しておくことで、当該情報に沿って通信機器に呼びかけデータを転送する。
 人物Dの所有する通信機器に呼びかけ情報が届くと画面表示、音声出力、振動等で人物Dに通知することになる。ここで、人物Dが応答することで宅内の第1音声認識デバイス1Aと宅外の人物Bが有する通信機器との間で通話が開始することもできる。
 もし、人物Dがこの段階でも呼びかけに応えなければ、ホームサーバ601から第1音声認識デバイス1Aに対して不在通知データを発し、第1音声認識デバイス1Aからは人物Dが出ないことを、例えば「只今、応答がありません」と言った様に所定の音声出力を行う。
 なお、以上に述べてきた実施形態では、第1音声認識デバイス1Aから他の第2~第4音声認識デバイス1B~1Dに対して呼びかけを行う例を示しているが、これに限るものではなく、第2~第4音声認識デバイス1B~1Dのいずれからでも呼びかけができる。従って、宅内に存するいずれかの音声認識デバイスからその他の音声認識デバイスを呼び出すことが可能である。また、本実施形態に係る音声認識デバイスは複数台の設置が可能であり、新たに設置する場合は、上記の設置手法によることで増設ができる。
 (宅外からの通知)
 図15は、音声認識デバイス1と携帯通信端末71とをドック701で接続する例を示す。
 音声認識デバイス1は、ドック701を更に備える。ドック701は、携帯通信端末71に対して充電を行う充電制御インタフェース711と、接続端子を介して通信する通信制御インタフェース712とを含む。具体的な機能としては、USB(Universal Serial Bus)や特定の携帯通信端末インタフェースでの有線接続、あるいはワイヤレス充電機能及び無線通信機能と言ったもので実現できる。
 携帯通信端末71に対して着信があった場合には、携帯通信端末71から通信制御インタフェース712を介して音声認識デバイス1に出力し、音声出力部108から「電話です。」や「メールです。」と言った着信通知音声を出力する。
 携帯通信端末71の所有者が「再生してください。」や「誰から?」や「内容は?」と言った応答を行うと、携帯通信端末71に対して受話指示やメール内容の転送指示を行い、通知相手の名前を知らせたり、電話のスピーカーフォンとして動作したり、メールであればメール内容を音声出力することができる。
 更に、携帯通信端末71の所有者が在室していない場合は、所定時間内での応答の有無から家屋内の別の場所にいるものとして図12に示すホームサーバ601から携帯通信端末71の所有者の現在の居場所に最も近いと判断される音声認識デバイス1を割り出し、当該音声認識デバイス1に対して着信通知を転送する。転送された着信通知に基づき、上記の呼び出し動作と同様の動作を行う。
 なお、携帯通信端末71の所有者の現在の居場所を認識する方法としては、ホームサーバ601で家屋内に存する個々の音声認識デバイス1の使用状況、個々の音声認識デバイス1に話しかけられた声の特徴抽出データ、個々の音声認識デバイス1が拾う音、ドック701と携帯通信端末71との接続状況等を用い、家屋内の人物が、どの音声認識デバイス1の近くに居るかを判定してもよい。
 更に、携帯通信端末71のように通常その所有者が身に着けているデバイス(ウエアラブルデバイスでも可)がドック701との接続のように音声認識デバイス1と十分に近くにいると判定できるような近距離通信を用いて通信できるか、音声認識デバイス1のカメラ113で同じ部屋にその端末があることを確認できる場合は、その部屋に端末所有者がいると推定して、その部屋にある音声認識デバイス1に対する呼びかけの優先順位を上げる等の対応をとってもよい。
<第3実施形態>
(留守宅の監視)
 第3実施形態は、図12に示した第2実施形態の構成を別の利用形態に適用したものであり、留守番モードに関するものである。図16は、留守番モードへの切替処理を示すフローチャートである。
 宅内の人物で個々の音声認識デバイス1へのアクセスを許可されている者が留守番モードに切り替えるための第5ホットワード、例えば「留守番宜しく!」と発する。第1~第4音声認識デバイス1A~1Dのいずれかが第5ホットワードを検出すると(S501/Yes)、第5ホットワードを検出した音声認識デバイスの特徴抽出部1205は、声認証データ160に宅内LANのアクセスを許可されている人物として登録された者の声の特徴と、当該音声認識デバイス1で抽出した声特徴データと比較判定する。
 この判定の仕方は、前述の各実施態様中でも述べている様な手法を用いることで可能である。また、ホットワードの確認とアクセス許可の判定の手順はどちらが先でも後でも良い。
 特徴抽出部1205が一致すると判定すると(S502/Yes)、コマンド送信部1402は、ホームサーバ601に留守番モードへの移行を指示を送信する(S503)。
 ホームサーバ601は、留守番モードへの移行指示を受信すると、受信してから所定時間経過後に宅内に在る第1~第4音声認識デバイス1A~1Dの全てに対して所定音量以上の音を感知した場合に、異常音発生の通知をホームサーバ601に送付する留守番モードへ移行させるべく、留守番モード移行指示を行う(S504)。
 第1~第4音声認識デバイス1A~1Dの其々は、自機に備えられたモード切替部1401により留守番モードに切り替え、留守番モード実行部1407が留守番モードの処理を実行する(S505)。
 少なくとも1台以上の第1~第4音声認識デバイス1A~1Dが留守番モード中に音声を検出すると(S506/Yes)、音声を検出した第1~第4音声認識デバイス1A~1Dの特徴抽出部1205は、声認証データ160に登録された者(家人)の声特徴データとの比較を行う。検出された音声が声認証データ160に登録された声特徴データと一致すると(S507/Yes)、モード切替部1401は留守番モードから通常モードへ復帰させる(S508)。
 ステップS507において、特徴抽出部1205が検出された音声データが声認証データ160に登録された者(家人)の声特徴データと一致しないと判定すると(S507/No)、モード切替部1401は警戒モードに切り替え(S509)、警戒モード実行部1409が起動する。
 警戒モード実行部1409は、警戒モード、例えば第1~第4音声認識デバイス1A~1Dの其々に備えらえたカメラ113を起動して室内の画像データの記録をしたり、音声入力部107が検知した音声の記録処理を実行する。また、ホームサーバ601に対して異常発生情報を送信してもよい。ホームサーバ601は、異常発生情報を受信すると予め登録してある家人の有する携帯電話やスマートフォン等の携帯通信端末71へメール等のアラームを送付する。
 アラームを受け取った家人は、ホームサーバ601と通信接続することもでき、ホームサーバ601は異常音を検知した音声認識デバイス1の音声入力部107が拾う音を音声データとして受け取り、当該データを家人宛てに直接送付することで宅内の状況を確認することもできる。
 警戒モードに実行中に、警戒モードの解除条件が充足、例えば帰宅した家人が発した通常モードへの復帰を指示する第1ホットワードを検出すると(S510/Yes)、モード切替部1401は警戒モードを解除し、通常モードに復帰させる(S508)。
 上記は複数の音声認識デバイス1を用いた例を示したが、音声認識デバイス1は単独でも監視動作が可能である。単独で動作する場合は、音声認識デバイス1がホームサーバ601で実行する機能を備えることになる。又は、ホームサーバ601に代えてインターネット上に存在するクラウドサーバ等を利用することでも良い。
 本実施形態によれば、宅内の音声認識デバイス1を連携させて、家人が留守の間の音声入力の有無と音声の特徴が登録済の音声か否かに基づいて、警戒モードを起動することができる。これにより、複数の部屋に設置された音声認識デバイス1を用いて宅内への侵入を監視し、異常を感知した後は宅内全体の音声認識デバイス1で警戒モードを実行し、侵入者の追跡や行動及び顔画像記録、また家人への通報が行える。
 また、上記の異常音を検出した場合には、警告音や警告音声を音声認識デバイス1から出力することも可能である。警告音としては、サイレンなど、音声としては「誰ですか」と言ったものを登録しておけば、異常音検知後に再生可能となり、防犯効果が期待できる。
 以上の実施態様においては、音声認識デバイス間の1対1の通話について説明しているが、これに限るものではなく、1対複数や複数対複数での通話モードも可能である。この場合、会話モードでの人物の音声データが複数の音声認識デバイスへ送付される。
 本実施形態によれば、複数の音声認識デバイスを連携して使用することで家庭内等のネットワークを介して宅内コミュニケーションを取ることができる。すなわち、他の部屋や他の場所に設置される音声認識デバイスとの間であたかも同じ部屋や同じ場所にいる者同士の様にコミュニケーションを取ることができるため、別の場所に存する音声認識デバイスを介して他者と円滑なコミュニケーションが図れる。
1      :音声認識デバイス
100    :連携システム
100a   :連携システム
101    :CPU
102    :バス
103    :メモリ
104    :有線LANI/F
105    :無線LANI/F
106    :無線通信I/F
107    :音声入力部
108    :音声出力部
109    :表示出力部
111    :タイマー
113    :カメラ
 

Claims (12)

  1.  音声認識デバイスであって、
     音声入力部と、
     音声出力部と、
     他の音声認識デバイスとの間でデータの送受信を行う通信制御部と、
     前記他の音声認識デバイスに対して前記音声入力部から入力された音声データを送信し、前記他の音声認識デバイスから受信した音声データを前記音声出力部から出力する会話モード実行部と、
     前記音声入力部から入力された音声をテキストデータに変換する音声認識部と、
     前記テキストデータから前記会話モード実行部の起動を指示する会話起動ホットワードを検出するホットワード検出部と、
     前記他の音声認識デバイスに対して制御コマンドを送信するコマンド送信部と、
     を備え、
     前記ホットワード検出部が前記会話起動ホットワードを検出すると、前記コマンド送信部は、前記他の音声認識デバイスに対して当該他の音声認識デバイスに備えられた会話モード実行部を起動させる制御コマンドを送信する、
     ことを特徴とする音声認識デバイス。
  2.  請求項1に記載の音声認識デバイスであって、
     前記ホットワード検出部が前記会話起動ホットワードを検出すると、前記コマンド送信部は、前記会話起動ホットワードが検出された音声データと当該音声データの再生コマンドを前記他の音声認識デバイスに送信する、
     ことを特徴とする音声認識デバイス。
  3.  請求項1に記載の音声認識デバイスであって、
     前記音声認識デバイスを用いた会話が許可された人物と当該人物の声特徴データとを紐づけた声認証データを記憶する記憶部と、
     前記入力される音声データの声特徴データを抽出し、当該声特徴データと前記声認証データとの一致を検出する特徴抽出部と、を更に備え、
     前記コマンド送信部は、前記特徴抽出部が前記声特徴データと前記声認証データとの一致を検出した場合に、前記他の音声認識デバイスに対して前記制御コマンドを送信する、
     ことを特徴とする音声認識デバイス。
  4.  請求項1に記載の音声認識デバイスであって、
     撮像部と、
     前記音声認識デバイスを用いた会話が許可された人物と当該人物の撮像画像とを紐づけた顔認証データを記憶する記憶部と、
     前記撮像部が撮像した撮像画像と、前記顔認証データとの一致を検出する特徴抽出部と、を更に備え、
     前記特徴抽出部が前記撮像画像と前記顔認証データとの一致を検出した場合に、前記コマンド送信部は、前記他の音声認識デバイスに対して前記制御コマンドを送信する、
     ことを特徴とする音声認識デバイス。
  5.  請求項1に記載の音声認識デバイスであって、
     前記コマンド送信部は、前記他の音声認識デバイスが人物の存在を検知したことを示す人物検知情報に基づき、前記人物検知情報を出力した前記他の音声認識デバイスに対して前記制御コマンドを送信する、
     ことを特徴とする音声認識デバイス。
  6.  請求項1に記載の音声認識デバイスであって、
     タイマーを更に備え、
     前記音声入力部は、特定の人物を呼び出す音声の入力を受け付け、
     前記コマンド送信部は、前記特定の人物を呼び出す音声及び当該音声を前記他の音声識別デバイスにおいて再生させる再生コマンドを前記他の音声認識デバイスに送信し、
     前記特定の人物を呼び出す音声及び前記再生コマンドを送信してからの経過時間を前記タイマーから取得し、
     前記経過時間が予め定められた待機時間以上になると、前記特定の人物からの応答メッセージが無いことを通知する応答メッセージを前記音声出力部から出力させる、
     ことを特徴とする音声認識デバイス。
  7.  請求項1に記載の音声認識デバイスであって、
     前記音声認識デバイスは、通信ネットワークを介して複数の他の音声認識デバイスに接続され、
     前記音声入力部は、特定の人物を呼び出す音声の入力を受け付け、
     前記コマンド送信部は、前記特定の人物を呼び出す音声及び当該音声を前記複数の他の音声識別デバイスの其々において再生させる再生コマンドを前記複数の他の音声認識デバイスの全てに対して送信し、
     前記通信制御部は、複数の他の音声認識デバイスの内の一つから、前記特定の人物からの応答メッセージを受信すると、当該応答メッセージを送信した他の音声認識デバイスとの通信は接続を維持し、残りの他の音声認識デバイスとの通信は切断する、
     ことを特徴とする音声認識デバイス。
  8.  請求項1に記載の音声認識デバイスであって、
     前記音声認識デバイスは、通信ネットワークを介して複数の他の音声認識デバイスに接続され、
     前記音声認識デバイスを用いた会話が許可された人物と当該人物の声特徴データとを紐づけた声認証データ、及び、前記会話が許可された人物と、当該人物が各音声認識デバイスからの応答回数とを関連付けた第1利用状況データを記憶する記憶部と、
     前記音声入力部から入力される音声データの声特徴データを抽出し、前記声認証データとの一致を検出する特徴抽出部と、を更に備え、
     前記音声入力部は、特定の人物を呼び出す音声の入力を受け付け、
     前記コマンド送信部は、前記特徴抽出部が前記声認証データとの一致を検出した人物が、前記第1利用状況データにおいて応答回数が高い順に従って、前記複数の他の音声認識デバイスの其々に対して前記制御コマンドを送信する、
     ことを特徴とする音声認識デバイス。
  9.  請求項1に記載の音声認識デバイスであって、
     前記音声認識デバイスは、通信ネットワークを介して複数の他の音声認識デバイスに接続され、
     時刻計測部と、
     前記音声認識デバイスから、前記複数の他の音声認識デバイスを呼びかける順序を時間帯に応じて定めた第2利用状況データを記憶する記憶部と、を更に備え、
     前記コマンド送信部は、前記会話起動ホットワードを検出した時刻を前記時刻計測部から取得し、前記第2利用状況データの前記時刻が含まれる時間帯に定められた呼びかけ優先順位に従って、前記複数の他の音声認識デバイスの其々に対して前記制御コマンドを送信する、
     ことを特徴とする音声認識デバイス。
  10.  請求項1に記載の音声認識デバイスであって、
     前記音声認識デバイスは、
     人感センサーと、
     前記人感センサーが人物を検知しているかを監視する留守番モード実行部と、
     前記音声認識デバイスを用いた会話が許可された人物と当該人物の声特徴データとを紐づけた声認証データを記憶する記憶部と、
     前記入力される音声データの声特徴データを抽出し、当該声特徴データと前記声認証データとの一致を検出する特徴抽出部と、を更に備え、
     前記ホットワード検出部は、前記留守番モード実行部の起動を指示する留守番ホットワードを更に検出し、
     前記留守番モード実行部の実行中に前記特徴抽出部が前記声特徴データと前記声認証データとの一致を検出すると、前記留守番モード実行部は停止する、
     ことを特徴とする音声認識デバイス。
  11.  第1音声認識デバイスと第2音声認識デバイスとを通信ネットワークで接続した音声認識デバイスの連携システムであって、
     前記第1音声認識デバイス及び前記第2音声認識デバイスの其々は、
     音声入力部と、
     音声出力部と、
     他の音声認識デバイスとの間でデータの送受信を行う通信制御部と、
     前記他の音声認識デバイスに対して前記音声入力部から入力された音声データを送信し、前記他の音声認識デバイスから受信した音声データを前記音声出力部から出力する会話モード実行部と、
     前記音声入力部から入力された音声をテキストデータに変換する音声認識部と、
     前記テキストデータから前記会話モード実行部の起動を指示する会話起動ホットワードを検出するホットワード検出部と、
     前記他の音声認識デバイスに対して制御コマンドを送信するコマンド送信部と、
     を備え、
     前記第1音声認識デバイスの前記ホットワード検出部が前記会話起動ホットワードを検出すると、前記コマンド送信部は、前記第2音声認識デバイスに対して当該第2音声認識デバイスの会話モード実行部を起動させる制御コマンドを送信し、
     前記第2音声認識デバイスは前記制御コマンドを受信し、前記第2音声認識デバイスに備えらえた前記会話モード実行部が起動する、
     ことを特徴とする音声認識デバイスの連携システム。
  12.  他の音声認識デバイスに通信ネットワークを介して接続された音声認識デバイスで実行される音声認識デバイスの連携方法であって、
     発話された音声の入力を受け付けるステップと、
     前記音声をテキストデータに変換するステップと、
     前記テキストデータから会話モードの起動を指示する会話起動ホットワードを検出するステップと、
     前記他の音声認識デバイスに対して、当該他の音声認識デバイスを会話モードに遷移させるための制御コマンドを送信するステップと、
     前記他の音声認識デバイスから受信した音声データを音声出力し、入力を受け付けた音声を前記他の音声認識デバイスに送信する会話モードを起動するステップと、
     を含むことを特徴とする音声認識デバイスの連携方法。
     
PCT/JP2018/014950 2018-04-09 2018-04-09 音声認識デバイス、音声認識デバイスの連携システム、及び音声認識デバイスの連携方法 WO2019198132A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2020512956A JP7179834B2 (ja) 2018-04-09 2018-04-09 音声認識デバイス、音声認識デバイスの連携システム、及び音声認識デバイスの連携方法
PCT/JP2018/014950 WO2019198132A1 (ja) 2018-04-09 2018-04-09 音声認識デバイス、音声認識デバイスの連携システム、及び音声認識デバイスの連携方法
US17/044,385 US11810567B2 (en) 2018-04-09 2018-04-09 Speech recognition device, speech-recognition-device coordination system, and speech-recognition-device coordination method
CN201880092205.3A CN111971647A (zh) 2018-04-09 2018-04-09 语音识别设备、语音识别设备的协作系统和语音识别设备的协作方法
EP18914323.3A EP3779667A4 (en) 2018-04-09 2018-04-09 SPEECH RECOGNITION DEVICE, COOPERATION SYSTEM FOR SPEECH RECOGNITION DEVICE AND COOPERATION METHOD FOR SPEECH RECOGNITION DEVICE
JP2022183285A JP2023025061A (ja) 2018-04-09 2022-11-16 音声認識デバイス及び音声認識デバイスの連携方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/014950 WO2019198132A1 (ja) 2018-04-09 2018-04-09 音声認識デバイス、音声認識デバイスの連携システム、及び音声認識デバイスの連携方法

Publications (1)

Publication Number Publication Date
WO2019198132A1 true WO2019198132A1 (ja) 2019-10-17

Family

ID=68163381

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/014950 WO2019198132A1 (ja) 2018-04-09 2018-04-09 音声認識デバイス、音声認識デバイスの連携システム、及び音声認識デバイスの連携方法

Country Status (5)

Country Link
US (1) US11810567B2 (ja)
EP (1) EP3779667A4 (ja)
JP (2) JP7179834B2 (ja)
CN (1) CN111971647A (ja)
WO (1) WO2019198132A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4044018A4 (en) * 2020-01-21 2022-12-21 Samsung Electronics Co., Ltd. DISPLAY DEVICE AND METHODS OF CONTROL THEREOF

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020085794A1 (en) * 2018-10-23 2020-04-30 Samsung Electronics Co., Ltd. Electronic device and method for controlling the same
KR20200052804A (ko) * 2018-10-23 2020-05-15 삼성전자주식회사 전자 장치 및 전자 장치의 제어 방법
US20190318742A1 (en) * 2019-06-26 2019-10-17 Intel Corporation Collaborative automatic speech recognition
US11468904B2 (en) * 2019-12-18 2022-10-11 Audio Analytic Ltd Computer apparatus and method implementing sound detection with an image capture system
KR20210098250A (ko) * 2020-01-31 2021-08-10 삼성전자주식회사 전자 장치 및 이의 제어 방법
JP2021177598A (ja) * 2020-05-08 2021-11-11 シャープ株式会社 音声処理システム、音声処理方法、及び音声処理プログラム
US11908468B2 (en) 2020-09-21 2024-02-20 Amazon Technologies, Inc. Dialog management for multiple users
US20220215835A1 (en) * 2021-01-06 2022-07-07 Comcast Cable Communications, Llc Evaluating user device activations
CN116229987B (zh) * 2022-12-13 2023-11-21 广东保伦电子股份有限公司 一种校园语音识别的方法、装置及存储介质

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008053989A (ja) * 2006-08-24 2008-03-06 Megachips System Solutions Inc ドアホンシステム
JP2008067310A (ja) * 2006-09-11 2008-03-21 Nishi Dentsu:Kk 集合建築物用セキュリティシステム
JP2008306620A (ja) * 2007-06-11 2008-12-18 Nakayo Telecommun Inc 相手認証機能を有するドアホンシステム及び相手判定方法
JP2010098598A (ja) * 2008-10-17 2010-04-30 Brother Ind Ltd ドアホン装置、ドアホン装置における各手段として機能させるためのプログラム、ドアホンシステム及びドアホン装置の情報処理方法
JP2013068952A (ja) 2011-09-20 2013-04-18 Apple Inc 音声認識結果の統合
JP2015156586A (ja) * 2014-02-20 2015-08-27 パナソニックIpマネジメント株式会社 通話装置、およびそれを用いた通話システム
JP2015537258A (ja) 2012-12-12 2015-12-24 アマゾン テクノロジーズ インコーポレーテッド 分散音声認識システムにおける音声モデル検索
JP2017143476A (ja) * 2016-02-12 2017-08-17 富士通株式会社 呼出音制御システム、呼出音制御方法、及び呼出音制御プログラム
JP2017163249A (ja) * 2016-03-08 2017-09-14 パナソニックIpマネジメント株式会社 通話方法およびそれを利用した通話システム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030020768A (ko) * 2001-09-04 2003-03-10 주식회사 케이티 음성인식을 이용한 개인전화번호부 데이터베이스 구축방법및 그를 이용한 개인전화번호부 음성자동연결서비스 방법
CN1248193C (zh) * 2001-09-27 2006-03-29 松下电器产业株式会社 会话装置、会话主机装置、会话子机装置、会话控制方法及会话控制程序
JP4237713B2 (ja) * 2005-02-07 2009-03-11 東芝テック株式会社 音声処理装置
KR20080096239A (ko) * 2007-04-27 2008-10-30 정장오 주방tv 및 홈네트워크시스템 및 가전기기를 음성으로제어하는 음성인식 네트워크주방tv시스템.
US9271111B2 (en) * 2012-12-14 2016-02-23 Amazon Technologies, Inc. Response endpoint selection
US9318107B1 (en) * 2014-10-09 2016-04-19 Google Inc. Hotword detection on multiple devices
CN105224850A (zh) * 2015-10-24 2016-01-06 北京进化者机器人科技有限公司 组合鉴权方法及智能交互系统
US10339957B1 (en) * 2016-12-20 2019-07-02 Amazon Technologies, Inc. Ending communications session based on presence data
US10735479B2 (en) * 2017-03-30 2020-08-04 Intel Corporation Methods, systems and apparatus to enable voice assistant device communication
US10083006B1 (en) * 2017-09-12 2018-09-25 Google Llc Intercom-style communication using multiple computing devices
US10706845B1 (en) * 2017-09-19 2020-07-07 Amazon Technologies, Inc. Communicating announcements
US11172001B1 (en) * 2019-03-26 2021-11-09 Amazon Technologies, Inc. Announcement in a communications session

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008053989A (ja) * 2006-08-24 2008-03-06 Megachips System Solutions Inc ドアホンシステム
JP2008067310A (ja) * 2006-09-11 2008-03-21 Nishi Dentsu:Kk 集合建築物用セキュリティシステム
JP2008306620A (ja) * 2007-06-11 2008-12-18 Nakayo Telecommun Inc 相手認証機能を有するドアホンシステム及び相手判定方法
JP2010098598A (ja) * 2008-10-17 2010-04-30 Brother Ind Ltd ドアホン装置、ドアホン装置における各手段として機能させるためのプログラム、ドアホンシステム及びドアホン装置の情報処理方法
JP2013068952A (ja) 2011-09-20 2013-04-18 Apple Inc 音声認識結果の統合
JP2015537258A (ja) 2012-12-12 2015-12-24 アマゾン テクノロジーズ インコーポレーテッド 分散音声認識システムにおける音声モデル検索
JP2015156586A (ja) * 2014-02-20 2015-08-27 パナソニックIpマネジメント株式会社 通話装置、およびそれを用いた通話システム
JP2017143476A (ja) * 2016-02-12 2017-08-17 富士通株式会社 呼出音制御システム、呼出音制御方法、及び呼出音制御プログラム
JP2017163249A (ja) * 2016-03-08 2017-09-14 パナソニックIpマネジメント株式会社 通話方法およびそれを利用した通話システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4044018A4 (en) * 2020-01-21 2022-12-21 Samsung Electronics Co., Ltd. DISPLAY DEVICE AND METHODS OF CONTROL THEREOF

Also Published As

Publication number Publication date
US20210104242A1 (en) 2021-04-08
EP3779667A1 (en) 2021-02-17
US11810567B2 (en) 2023-11-07
CN111971647A (zh) 2020-11-20
JP7179834B2 (ja) 2022-11-29
JP2023025061A (ja) 2023-02-21
JPWO2019198132A1 (ja) 2021-03-25
EP3779667A4 (en) 2022-02-23

Similar Documents

Publication Publication Date Title
WO2019198132A1 (ja) 音声認識デバイス、音声認識デバイスの連携システム、及び音声認識デバイスの連携方法
EP3258645B1 (en) Application method of communication terminal and smart home system
JP5656304B1 (ja) ホームセキュリティに用いられる監視カメラシステム
JP2002125059A (ja) 集合住宅用インターホンシステムおよび集合住宅用インターホンシステムの転送方法
JP3455971B2 (ja) 通信回線を用いた情報供給システム
KR100415018B1 (ko) 단일의 네트워크를 이용한 인터넷, 전자무인경비 및 홈오토메이션 시스템
JP2016100788A (ja) 通信システム及び通信システムにおける音源再生方法
CN111882711A (zh) 一种门锁控制方法及系统,存储介质、电子装置
JP2010016598A (ja) 防犯装置
US20240029738A1 (en) Speech recognition device, speech-recognition-device coordination system, and speech-recognition-device coordination method
KR20070023480A (ko) 무선통신기능을 가지는 보안 감지 단말기 및 그 방법과,그를 이용한 통합 보안서비스 제공 방법
CN111554282A (zh) 语音控制功能的开关方法、智能家居控制器及存储介质
JP6706338B2 (ja) 棟制御機およびインターホンシステム
JP4258233B2 (ja) 遠隔制御装置
JP2009124394A (ja) 携帯電話端末を利用した集合住宅用インターホンシステム
EP4117263A1 (en) Call method, terminal, and non-transitory computer-readable storage medium
KR102165377B1 (ko) 스마트폰을 이용한 비상시 원격 모니터링 방법
KR100923162B1 (ko) 듀얼 모드 방문자 서비스 제공 장치 및 그 방법
JP7176297B2 (ja) 情報処理装置、情報処理方法、プログラムおよび住戸端末
JP3498095B1 (ja) 通信回線を用いた情報供給システム
JP2016042716A (ja) 監視カメラシステム及び監視カメラシステムを利用した監視方法
JP2023154227A (ja) コミュニケーションシステム
KR20230089288A (ko) 로비 현관문 자동 제어 시스템
JP6643681B2 (ja) 通話システム、映像信号取得装置、及び通話装置
JP5887564B2 (ja) 監視カメラシステム及び監視カメラシステムにおける監視方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18914323

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020512956

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018914323

Country of ref document: EP

Effective date: 20201109