JP6748535B2 - Personal identification system - Google Patents

Personal identification system Download PDF

Info

Publication number
JP6748535B2
JP6748535B2 JP2016183757A JP2016183757A JP6748535B2 JP 6748535 B2 JP6748535 B2 JP 6748535B2 JP 2016183757 A JP2016183757 A JP 2016183757A JP 2016183757 A JP2016183757 A JP 2016183757A JP 6748535 B2 JP6748535 B2 JP 6748535B2
Authority
JP
Japan
Prior art keywords
sound data
call
room
information
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016183757A
Other languages
Japanese (ja)
Other versions
JP2018049098A (en
Inventor
星司 小畠
星司 小畠
井上 博之
博之 井上
昌太 高田
昌太 高田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daiwa House Industry Co Ltd
Original Assignee
Daiwa House Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daiwa House Industry Co Ltd filed Critical Daiwa House Industry Co Ltd
Priority to JP2016183757A priority Critical patent/JP6748535B2/en
Publication of JP2018049098A publication Critical patent/JP2018049098A/en
Application granted granted Critical
Publication of JP6748535B2 publication Critical patent/JP6748535B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、在室者を識別する個人識別システムの技術に関する。 TECHNICAL FIELD The present invention relates to a technique of an individual identification system for identifying a person in a room.

従来、在室者を識別する個人識別システムの技術は公知となっている。例えば、特許文献1に記載の如くである。 Conventionally, the technology of an individual identification system for identifying a person in the room has been publicly known. For example, it is as described in Patent Document 1.

特許文献1には、住人の生活支援を行うための宅内システムが記載されている。当該宅内システムにおいては、現在発話している住人を音声認識により特定し、特定された住人に適合した対話を当該住人に提示するように構成されている。 Patent Document 1 describes an in-home system for supporting the lives of residents. The in-home system is configured to identify the resident who is currently speaking by voice recognition and present a dialogue suitable for the identified resident to the resident.

しかしながら、特許文献1に記載の技術においては、一人で留守番をしている場合や、複数人いても会話がない場合等、発話が生じない場合には個人を識別することができないという問題があった。 However, the technique described in Patent Document 1 has a problem that an individual cannot be identified when no utterance occurs, such as when one person is answering an answering machine or when there are no conversations even if there are multiple people. It was

特開2006−276283号公報JP 2006-276283A

本発明は以上の如き状況に鑑みてなされたものであり、その解決しようとする課題は、発話を促すことにより個人を識別し易くすることができる個人識別システムを提供するものである。 The present invention has been made in view of the above circumstances, and a problem to be solved by the present invention is to provide an individual identification system capable of facilitating the utterance to easily identify an individual.

本発明の解決しようとする課題は以上の如くであり、次にこの課題を解決するための手段を説明する。 The problem to be solved by the present invention is as described above, and the means for solving this problem will be described below.

即ち、請求項1においては、建物の部屋内において発生する音データを取得する音データ取得部と、前記音データ取得部によって取得された音データを含む第一の情報に基づいて、在室者に対して呼びかけを実行する呼びかけ実行部と、前記音データ取得部によって取得された、前記呼びかけに対する前記在室者の返答を示す音データを含む第二の情報に基づいて、前記在室者を識別する在室者識別部と、を具備し、前記呼びかけ実行部は、前記第一の情報に含まれる音データの種類に応じて、実行する前記呼びかけの内容を変化させるものである。
That is, according to claim 1, the occupant in the room is based on the sound data acquisition unit that acquires the sound data generated in the room of the building and the first information including the sound data acquired by the sound data acquisition unit. Based on second information including sound data indicating a response of the person in the room to the call, which is acquired by the sound execution unit and a sound data acquisition unit. The occupant identification section for identifying the occupant is provided, and the call execution section changes the content of the call to be executed according to the type of sound data included in the first information .

請求項2においては、建物の部屋内において発生する音データを取得する音データ取得部と、前記音データ取得部によって取得された音データを含む第一の情報に基づいて、在室者に対して呼びかけを実行する呼びかけ実行部と、前記音データ取得部によって取得された、前記呼びかけに対する前記在室者の返答を示す音データを含む第二の情報に基づいて、前記在室者を識別する在室者識別部と、を具備し、前記音データ取得部は、複数の部屋それぞれに設置された音データ取得装置を含み、前記呼びかけ実行部は、前記第一の情報に含まれる音データがどの部屋の前記音データ取得装置で取得されたかに応じて、実行する前記呼びかけの内容を変化させるものである。 In claim 2, the sound data acquisition unit for acquiring sound data generated in the room of the building, and the first information including the sound data acquired by the sound data acquisition unit The occupant is identified based on the call execution unit that executes the call and the second information including the sound data that is acquired by the sound data acquisition unit and that indicates the response of the occupant to the call. An occupant identification unit, the sound data acquisition unit includes a sound data acquisition device installed in each of a plurality of rooms, the call execution unit, the sound data included in the first information The content of the call to be executed is changed according to which room the sound data acquisition device has acquired .

請求項3においては、建物の部屋内において発生する音データを取得する音データ取得部と、前記音データ取得部によって取得された音データを含む第一の情報に基づいて、在室者に対して呼びかけを実行する呼びかけ実行部と、前記音データ取得部によって取得された、前記呼びかけに対する前記在室者の返答を示す音データを含む第二の情報に基づいて、前記在室者を識別する在室者識別部と、識別対象者のスケジュール情報を取得するスケジュール情報取得部と、を具備し、前記第二の情報は、前記スケジュール情報に基づいて推定される前記在室者に関する情報を含むものである。 In claim 3, based on the sound data acquisition unit that acquires the sound data generated in the room of the building, and the first information including the sound data acquired by the sound data acquisition unit The occupant based on the call execution unit that executes the call and the second information including the sound data that is acquired by the sound data acquisition unit and that indicates the response of the occupant to the call. An occupant identification unit and a schedule information acquisition unit that acquires schedule information of an identification target person are provided, and the second information includes information about the occupant estimated based on the schedule information. It is a thing.

請求項4においては、建物の部屋内において発生する音データを取得する音データ取得部と、前記音データ取得部によって取得された音データを含む第一の情報に基づいて、在室者に対して呼びかけを実行する呼びかけ実行部と、前記音データ取得部によって取得された、前記呼びかけに対する前記在室者の返答を示す音データを含む第二の情報に基づいて、前記在室者を識別する在室者識別部と、識別対象者が前記建物内に進入したことを示す進入情報を取得する進入情報取得部と、を具備し、前記第二の情報は、前記進入情報に基づいて推定される前記在室者に関する情報を含むものである。 In claim 4, based on the sound data acquisition unit that acquires the sound data generated in the room of the building and the first information including the sound data acquired by the sound data acquisition unit, The occupant is identified based on the call execution unit that executes the call and the second information including the sound data that is acquired by the sound data acquisition unit and that indicates the response of the occupant to the call. An occupant identification unit and an entry information acquisition unit that obtains entry information indicating that an identification target person has entered the building, and the second information is estimated based on the entry information. The information about the occupants is included.

請求項5においては、前記部屋内に人がいることを検知する人検知部を具備し、前記第一の情報は、前記人検知部による検知結果に関する情報を含むものである。 According to a fifth aspect of the present invention, a person detecting unit for detecting the presence of a person in the room is provided, and the first information includes information regarding a detection result of the person detecting unit .

本発明の効果として、以下に示すような効果を奏する。 The effects of the present invention are as follows.

請求項1においては、呼びかけによって発話を促すことができ、これにより個人を識別し易くすることができる。また、呼びかけの内容を在室者が違和感無く返答可能なものとすることができる。 According to the first aspect of the present invention, it is possible to prompt the user to speak, so that the individual can be easily identified. In addition, the content of the call can be set so that the person present in the room can reply without any discomfort.

請求項2においては、呼びかけによって発話を促すことができ、これにより個人を識別し易くすることができる。また、呼びかけの内容を在室者が違和感無く返答可能なものとすることができる。 According to the second aspect, it is possible to prompt the utterance by calling, which makes it easy to identify the individual. In addition, the content of the call can be set so that the person present in the room can reply without any discomfort.

請求項3においては、呼びかけによって発話を促すことができ、これにより個人を識別し易くすることができる。また、在室者の識別の精度を向上させることができる。 According to the third aspect of the present invention, it is possible to prompt the utterance by calling, which makes it easy to identify the individual. In addition, the accuracy of identifying the person in the room can be improved .

請求項4においては、呼びかけによって発話を促すことができ、これにより個人を識別し易くすることができる。また、在室者の識別の精度を向上させることができる。 According to the fourth aspect, the utterance can be prompted by the call, and thus the individual can be easily identified. In addition, the accuracy of identifying the person in the room can be improved .

請求項5においては、適切に呼びかけを実行することができる。 In claim 5, the call can be appropriately executed .

本発明の一実施形態に係る個人識別システムの構成を示す図。The figure which shows the structure of the personal identification system which concerns on one Embodiment of this invention. 本発明の一実施形態に係る個人識別システムの制御に関するフローチャート。3 is a flowchart regarding control of the personal identification system according to the embodiment of the present invention. 呼びかけ及び呼びかけに対する返答の例を示す図。The figure which shows the example of a call and the response with respect to a call. 本発明の第二実施形態に係る個人識別システムの構成を示す図。The figure which shows the structure of the personal identification system which concerns on 2nd embodiment of this invention. 本発明の第三実施形態に係る個人識別システムの構成を示す図。The figure which shows the structure of the personal identification system which concerns on 3rd embodiment of this invention. 本発明の第三実施形態に係る個人識別システムの制御に関するフローチャート。The flowchart regarding control of the personal identification system which concerns on 3rd embodiment of this invention. 本発明の第三実施形態に係る個人識別システムの制御の別例に関するフローチャート。The flowchart regarding another example of control of the personal identification system which concerns on 3rd embodiment of this invention.

まず、図1を用いて、本発明の一実施形態に係る個人識別システム1の構成の概要について説明する。 First, the outline of the configuration of a personal identification system 1 according to an embodiment of the present invention will be described with reference to FIG.

個人識別システム1は、住宅等の建物の部屋内(室内)に人がいる場合に、この在室者を識別するものである。本実施形態において、個人識別システム1は、子供のいる家庭において用いられ、住宅の部屋(例えばリビング)内に人がいる場合に、この在室者が家族のうちの誰であるのかを判定する。個人識別システム1は、音データ取得部10、呼びかけ実行部20、人検知部30、利用者端末40及びサーバー100を具備する。 The personal identification system 1 identifies a person present in a room such as a house when a person is present in the room. In the present embodiment, the personal identification system 1 is used in a home with children, and when there is a person in a room (for example, a living room) of a house, it determines who this occupant is in the family. .. The personal identification system 1 includes a sound data acquisition unit 10, a call execution unit 20, a person detection unit 30, a user terminal 40, and a server 100.

音データ取得部10は、室内において発生する音データを取得するものである。音データ取得部10は、例えば、在室者によってなされた発話(会話や独り言等)の音声データを取得する。また、音データ取得部10は、例えば、在室者の足音、咳、いびき、笑い声の音データを取得する。また、音データ取得部10は、例えば、音楽、テレビ、テレビゲーム、携帯ゲームの音データを取得する。音データ取得部10はマイクロフォン11を有しており、当該マイクロフォン11を介して、音データ取得部10に室内の音データが入力される。マイクロフォン11は、室内の音を取得し易い任意の位置に設置され、例えば天井に設置される。 The sound data acquisition unit 10 acquires sound data generated indoors. The sound data acquisition unit 10 acquires, for example, voice data of an utterance (conversation, soliloquy, etc.) made by a person in the room. Further, the sound data acquisition unit 10 acquires, for example, sound data of footsteps, coughs, snoring, and laughter of a person in the room. Further, the sound data acquisition unit 10 acquires, for example, sound data of music, TV, video games, and mobile games. The sound data acquisition unit 10 has a microphone 11, and the sound data in the room is input to the sound data acquisition unit 10 via the microphone 11. The microphone 11 is installed at an arbitrary position where it is easy to acquire sound in the room, and is installed on, for example, the ceiling.

呼びかけ実行部20は、音声によって呼びかけを実行するものである。ここで、「呼びかけ」とは、在室者に対して音声データを提供することであって、当該音声データが在室者から何らかの返答が期待できるような内容のものをいう。呼びかけ実行部20はスピーカ21を有しており、当該スピーカ21を介して、呼びかけを行うための音声データ(以下、「呼びかけ音声データ」という)が出力される。スピーカ21は、呼びかけが在室者に聞こえ易い任意の位置に設置され、例えばテレビ台の上に設置される。在室者に対して呼びかけが行われることにより、在室者に発話を促すことができる。 The call execution unit 20 executes a call by voice. Here, the "call" is to provide voice data to a person in the room, and the content of the voice data is such that a reply from the person in the room can be expected. The call execution unit 20 has a speaker 21, and voice data for making a call (hereinafter referred to as “call voice data”) is output via the speaker 21. The speaker 21 is installed at an arbitrary position where a caller can easily hear the call, and is installed on, for example, a television stand. By calling the person in the room, the person in the room can be uttered.

人検知部30は、室内に人がいることを検知するものである。人検知部30としては、例えば人感センサや振動センサが用いられる。また、人検知部30は、室内にある設備機器のスイッチのオン/オフによって、室内に人がいることを検知するものであってもよい。また、人検知部30は、電力データ(電力の消費量)によって、室内に人がいることを検知するものであってもよい。この電力データは、例えばHEMS(Home Energy Management System)を利用して確認することができる。人検知部30は、室内に人がいることを検知した場合、その旨を示す人検知情報を後述する制御部130に送信する。 The person detection unit 30 detects that there is a person in the room. As the human detection unit 30, for example, a human sensor or a vibration sensor is used. Further, the human detection unit 30 may detect the presence of a person in the room by turning on/off a switch of equipment in the room. Further, the human detection unit 30 may detect the presence of a person in the room based on the power data (power consumption). This power data can be confirmed by using, for example, a HEMS (Home Energy Management System). When the person detection unit 30 detects that there is a person in the room, the person detection unit 30 transmits the person detection information indicating the fact to the control unit 130 described below.

利用者端末40は、個人識別システム1の利用者(識別結果を利用する者)が使用する端末である。利用者端末40としては、データを送受信可能な端末が用いられ、例えばパーソナルコンピュータや高機能携帯電話端末が用いられる。利用者端末40には、表示部40A及び入力部40Bが備えられる。 The user terminal 40 is a terminal used by a user of the personal identification system 1 (a person who uses the identification result). As the user terminal 40, a terminal capable of transmitting and receiving data is used, and for example, a personal computer or a highly functional mobile phone terminal is used. The user terminal 40 includes a display unit 40A and an input unit 40B.

表示部40Aは、画像や文字などから構成される表示データを表示する部分である。表示部40Aとしては、例えば液晶ディスプレイが用いられる。表示部40Aには、例えば在室者の識別結果が表示される。入力部40Bは、利用者が操作を行う部分である。入力部40Bとしては、例えばキーボードやタッチパネルが用いられる。利用者が入力部40Bを操作することにより、利用者端末40にデータ(家族のスケジュール情報等)が入力される。 The display section 40A is a section for displaying display data composed of images and characters. A liquid crystal display, for example, is used as the display unit 40A. The display unit 40A displays, for example, the identification result of the person in the room. The input unit 40B is a part operated by the user. A keyboard or a touch panel is used as the input unit 40B, for example. Data (family schedule information and the like) is input to the user terminal 40 by the user operating the input unit 40B.

サーバー100は、データの格納や分析等を行うものである。サーバー100は、音データ格納部110、データベース120、制御部130及び通知部140を具備する。 The server 100 stores and analyzes data. The server 100 includes a sound data storage unit 110, a database 120, a control unit 130, and a notification unit 140.

音データ格納部110は、音データ取得部10によって取得された音データを格納するものである。 The sound data storage unit 110 stores the sound data acquired by the sound data acquisition unit 10.

データベース120は、各種データを格納するものである。具体的には、データベース120には、家族の個人別の音声サンプルが予め格納されている。当該音声サンプルは、後述する制御部130によって在室者を識別するために用いられる。また、データベース120には、呼びかけ実行部20によって出力される呼びかけ音声データが予め格納されている。呼びかけ音声データは、予め録音されたもの(例えば母親の音声によるもの)であってもよいし、合成音声によるものであってもよい。データベース120には、複数の呼びかけ音声データが格納されており、各呼びかけ音声データはそれぞれテキスト情報(文章の内容)が異なっている。また、後述するように、各呼びかけ音声データは、音データ取得部10によって取得された音データの種類によって区分されている。 The database 120 stores various data. Specifically, the database 120 stores in advance voice samples of individual family members. The voice sample is used by the control unit 130, which will be described later, to identify the person in the room. Further, the call voice data output by the call executing unit 20 is stored in the database 120 in advance. The call voice data may be pre-recorded (for example, by the voice of the mother) or may be by synthetic voice. The database 120 stores a plurality of voice call data, and each voice call data has different text information (content of sentence). Further, as will be described later, each voice call data is classified according to the type of the sound data acquired by the sound data acquisition unit 10.

制御部130は、サーバー100の制御を行うものである。制御部130は、個人識別システム1において、特に2つの役割を担っている。一つは、呼びかけ実行部20に在室者への呼びかけを実行させることである。もう一つは、在室者を識別することである。制御部130は、室内において何らかの音が発生したとき(音データ取得部10が室内において発生した音データを取得したとき)、この音データに基づいて呼びかけ実行部20に呼びかけを実行させる。また、制御部130は、音声認識機能を有しており、音データ取得部10によって取得された在室者による発話の音声データと、予めデータベース120に記憶された家族の音声サンプルとを照合することで、在室者を識別する。 The control unit 130 controls the server 100. The control unit 130 particularly plays two roles in the personal identification system 1. One is to have the call execution unit 20 execute a call to the person in the room. The other is to identify the occupants. When some sound is generated in the room (when the sound data acquisition section 10 acquires the sound data generated in the room), the control section 130 causes the interrogation execution section 20 to perform an interrogation based on the sound data. Further, the control unit 130 has a voice recognition function, and collates the voice data of the utterance by the occupant acquired by the sound data acquisition unit 10 with the voice samples of the family stored in the database 120 in advance. Therefore, the person in the room is identified.

通知部140は、制御部130による在室者の識別結果を、利用者端末40に通知するものである。通知部140は、制御部130による制御によって通知を実行する。 The notification unit 140 notifies the user terminal 40 of the identification result of the person in the room by the control unit 130. The notification unit 140 executes the notification under the control of the control unit 130.

以下、図2を参照して、個人識別システム1の制御について説明する。なお、本実施形態及び後述する第二実施形態及び第三実施形態においては、父親、母親及び2人の子供(姉の花子と弟の太郎)から構成される家庭を想定し、このうち母親が個人識別システム1の利用者(在室者の識別結果を利用する者)であるものとして説明を行う。 Hereinafter, the control of the personal identification system 1 will be described with reference to FIG. In the present embodiment and the second and third embodiments to be described later, a family consisting of a father, a mother and two children (an older sister Hanako and a younger brother Taro) is assumed, and the mother is The description will be given assuming that the user is a user of the personal identification system 1 (a person who uses the identification result of the person in the room).

ステップS10において、制御部130は、人検知部30によって室内に人がいることが検知されたか否かを判定する。制御部130は、人検知部30から人が検知されたことを示す人検知情報を受信しているか否かによってこの判定を行う。 In step S10, the control unit 130 determines whether or not the person detection unit 30 has detected that a person is inside the room. The control unit 130 makes this determination depending on whether or not the person detection information indicating that a person has been detected is received from the person detection unit 30.

室内に人がいることが検知されていないと判定された場合(ステップS10で「NO」)、個人識別システム1は、最初のステップ(当該ステップS10)に処理を戻す。一方、室内に人がいることが検知されたと判定された場合(ステップS10で「YES」)、個人識別システム1は、ステップS20に進む。 When it is determined that the presence of a person in the room is not detected (“NO” in step S10), the personal identification system 1 returns the process to the first step (step S10). On the other hand, when it is determined that the presence of a person in the room is detected (“YES” in step S10), the personal identification system 1 proceeds to step S20.

ステップS20において、制御部130は、音データ取得部10が室内において発生した音データを取得したか否かを判定する。制御部130は、音データ格納部110に新たな音データ(取得したとの判定が未だなされていない音データ)が格納されているか否かによってこの判定を行う。 In step S20, the control unit 130 determines whether the sound data acquisition unit 10 has acquired the sound data generated in the room. The control unit 130 makes this determination depending on whether or not new sound data (sound data that has not yet been determined to have been acquired) is stored in the sound data storage unit 110.

音データが取得されていないと判定された場合(ステップS20で「NO」)、個人識別システム1は、最初のステップ(ステップS10)に処理を戻す。一方、音データが取得されたと判定された場合(ステップS20で「YES」)、個人識別システム1は、ステップS30に進む。 When it is determined that the sound data has not been acquired (“NO” in step S20), the personal identification system 1 returns the process to the first step (step S10). On the other hand, when it is determined that the sound data has been acquired (“YES” in step S20), the personal identification system 1 proceeds to step S30.

ステップS30において、制御部130は、音データ取得部10によって取得された音データが発話によるものであるか否かを判定する。制御部130は、音声認識機能によりこの判定を行う。 In step S30, the control unit 130 determines whether the sound data acquired by the sound data acquisition unit 10 is due to utterance. The control unit 130 makes this determination by the voice recognition function.

発話によるものであると判定された場合(ステップS30で「YES」)、個人識別システム1は、ステップS70に進む。一方、発話によるものでないと判定された場合(ステップS30で「NO」)、個人識別システム1は、ステップS40に進む。 When it is determined that it is due to the utterance (“YES” in step S30), the personal identification system 1 proceeds to step S70. On the other hand, when it is determined that it is not due to the utterance (“NO” in step S30), the personal identification system 1 proceeds to step S40.

ステップS40において、制御部130は、音データ取得部10によって取得された音データの種類を判定する。具体的には、制御部130は、取得された音データが何によるものであるのか(例えば在室者の咳によるものであるのか、テレビの音によるものであるのか)の判定を行う。制御部130は、音声認識機能によりこの判定を行う。制御部130は、この処理を行った後、ステップS50に移行する。 In step S40, the control unit 130 determines the type of sound data acquired by the sound data acquisition unit 10. Specifically, the control unit 130 determines what the acquired sound data is due to (for example, whether it is due to the cough of the person in the room or the sound from the television). The control unit 130 makes this determination by the voice recognition function. After performing this process, the control unit 130 proceeds to step S50.

ステップS50において、制御部130は、呼びかけ実行部20によって呼びかけを実行させる。具体的には、制御部130は、データベース120を参照し、ステップS40において判定した音データの種類に対応する呼びかけ音声データを選択する。そして、制御部130は、選択した呼びかけ音声データを、呼びかけ実行部20を介して出力させる。これにより、在室者に対して呼びかけが行われる。 In step S50, the control unit 130 causes the call executing unit 20 to execute the call. Specifically, the control unit 130 refers to the database 120 and selects the calling voice data corresponding to the type of the sound data determined in step S40. Then, the control unit 130 causes the selected call voice data to be output via the call execution unit 20. As a result, the person in the room is called.

ここで、図3を参照して、呼びかけの具体的な内容について説明する。ここでは、リビングに音データ取得部10(マイクロフォン11)及び呼びかけ実行部20(スピーカ21)が設置されているとして説明を行う。 Here, the specific content of the call will be described with reference to FIG. Here, it is assumed that the sound data acquisition unit 10 (microphone 11) and the call execution unit 20 (speaker 21) are installed in the living room.

音データ取得部10によって取得された音データが発話以外の音データであった場合、在室者を識別するのは困難である。ここで、取得された音データが在室者の足音であった場合、呼びかけ実行部20は、音声により「リビングで何してるのー?」、「お姉ちゃん?お兄ちゃん?」等の呼びかけを行う。また、取得された音データがテレビの音であった場合、呼びかけ実行部20は、音声により「何のテレビ番組見てるの?」等の呼びかけを行う。また、呼びかけ実行部20は、取得された音データが、在室者の咳、いびき、笑い声や、音楽、ゲームの音等であった場合、図3に示すように、各音データに関連した呼びかけを行う。呼びかけの内容は定型のものだけではなく、音データ格納部110に蓄積された過去の音データに基づいた内容としてもよい。例えば、制御部130は、音データ格納部110に蓄積された過去の音データからある音楽の再生回数を算出し、音データ取得部10が新たにこの音楽の音データを取得した場合には、算出した再生回数に基づいて「最近この曲よく聴いてるね。お気に入り?」等の呼びかけとすることができる。 When the sound data acquired by the sound data acquisition unit 10 is sound data other than the utterance, it is difficult to identify the person in the room. Here, when the acquired sound data is the footsteps of the person in the room, the call executing unit 20 makes a voice call such as "What are you doing in the living room?" To do. When the acquired sound data is a TV sound, the calling execution unit 20 makes a voice call such as "what TV program are you watching?" Further, when the acquired sound data is the cough, snoring, laughing voice, music, game sound, etc. of the person in the room, the call executing unit 20 relates each sound data as shown in FIG. Make a call. The content of the call is not limited to the fixed form, but may be the content based on the past sound data accumulated in the sound data storage unit 110. For example, the control unit 130 calculates the number of times of reproduction of certain music from the past sound data accumulated in the sound data storage unit 110, and when the sound data acquisition unit 10 newly acquires the sound data of this music, Based on the calculated number of times of playback, it is possible to make a call such as "I listen to this song a lot lately. Favorite?"

なお、音データ取得部10によって取得された音データが在室者による発話の音声データであった場合、当該音声データに基づいて在室者を識別することができるので、呼びかけは不要である(ステップS30及び後述するステップS70参照)。在室者が独り言を言った場合(例えば、図3に示すようにテレビにツッコミを入れた場合)には、この独り言の音声データによって在室者を識別することができる(後述するステップS70参照)。 If the sound data acquired by the sound data acquisition unit 10 is the voice data of the utterance by the person in the room, the person in the room can be identified based on the voice data, and thus no call is required ( See step S30 and step S70 described later). When the occupant speaks soliloquy (for example, when a tsukkomi is put on the TV as shown in FIG. 3), the occupant can be identified by the voice data of the soliloquy (see step S70 described later) ).

再び図2を参照する。制御部130は、この処理(ステップS50)を行った後、ステップS60に移行する。 Referring back to FIG. After performing this processing (step S50), the control unit 130 proceeds to step S60.

ステップS60において、制御部130は、ステップS50で行った呼びかけに対して在室者から返答があったか否かを判定する。制御部130は、音データ格納部110に新たな発話による音声データが格納されているか否かによってこの判定を行う。 In step S60, the control unit 130 determines whether or not there is a response from the person in the room to the call made in step S50. The control unit 130 makes this determination depending on whether or not the sound data storage unit 110 stores voice data for a new utterance.

ここで、再び図3を参照する。在室者は、呼びかけ実行部20による呼びかけに対して、何らかの返答をすることが期待される。例えば、在室者は、「リビングで何してるのー?」、「お姉ちゃん?お兄ちゃん?」との呼びかけに対して、「冷蔵庫の飲み物取りに来たー。」、「太郎だよー。」等の返答を行う。また、在室者は、「何のテレビ番組見てるの?」との呼びかけに対して、「○○っていうアニメ」等の返答を行う。その他、在室者は、ステップS50でなされた呼びかけに対して、図3に示すような返答を行う。 Here, FIG. 3 is referred to again. The occupant is expected to make some reply to the call by the call executing unit 20. For example, the people in the room responded to the calls "What are you doing in the living room?" and "Onee-chan? Onii-chan?", "I came to get a drink in the refrigerator." , Etc. In addition, the person present in the room responds to the call "What TV program are you watching?" In addition, the person present in the room replies to the call made in step S50 as shown in FIG.

再び図2を参照する。返答があったと判定された場合(ステップS60で「YES」)、個人識別システム1は、ステップS70に進む。一方、返答がなかったと判定された場合(ステップS60で「NO」)、個人識別システム1は、最初のステップ(ステップS10)に戻る。 Referring back to FIG. When it is determined that there is a reply (“YES” in step S60), the personal identification system 1 proceeds to step S70. On the other hand, when it is determined that there is no reply (“NO” in step S60), the personal identification system 1 returns to the first step (step S10).

ステップS70において、制御部130は、音データ取得部10によって取得された発話(返答)の音声データと、予めデータベース120に記憶された家族の音声サンプルとを照合する。そして、制御部130は、ステップS70の照合結果により在室者を識別する。制御部130は、ステップS70の照合結果が所定の基準(一致率)を満たす者を在室者と特定する。制御部130は、この処理を行った後、ステップS80に移行する。 In step S70, the control unit 130 compares the voice data of the utterance (response) acquired by the sound data acquisition unit 10 with the voice sample of the family stored in the database 120 in advance. Then, the control unit 130 identifies the person in the room based on the comparison result of step S70. The control unit 130 identifies a person who is in the room as a result of the collation result of step S70 satisfying a predetermined criterion (coincidence rate). After performing this processing, the control unit 130 proceeds to step S80.

ステップS80において、制御部130は、在室者が識別できたか否かを判定する。 In step S80, the control unit 130 determines whether the person in the room can be identified.

在室者を識別できた場合(ステップS80で「YES」)、個人識別システム1は、ステップS90に進む。一方、在室者を識別できなかった場合(ステップS80で「NO」)、個人識別システム1は、最初のステップ(ステップS10)に戻る。 When the person in the room can be identified (“YES” in step S80), the personal identification system 1 proceeds to step S90. On the other hand, when the person present in the room cannot be identified (“NO” in step S80), the personal identification system 1 returns to the first step (step S10).

ステップS90において、制御部130は、ステップS80の識別結果を利用者端末40に通知する。識別結果は、利用者端末40の表示部40Aに表示される。これにより、利用者は、部屋(リビング)に誰がいるのかを知ることができる。通知が完了すると、個人識別システム1の制御フローは終了する。 In step S90, the control unit 130 notifies the user terminal 40 of the identification result of step S80. The identification result is displayed on the display unit 40A of the user terminal 40. This allows the user to know who is in the room (living room). When the notification is completed, the control flow of the personal identification system 1 ends.

このように、本実施形態に係る個人識別システム1においては、子供が一人で留守番をしているとき等、在室者がいるにもかかわらず発話がない場合に、呼びかけ実行部20によって、室内で発生した何らかの音に基づいて在室者に対して呼びかけを行う。在室者がこの呼びかけに対して返答することにより、当該返答の音声データに基づいて在室者を識別することができる。すなわち、呼びかけによって発話を促すことができるので、自発的な発話がない場合でも、在室者を識別することができる。 As described above, in the personal identification system 1 according to the present embodiment, when there is no utterance despite the presence of a person in the room such as when the child is alone in the answering machine, the call execution unit 20 A call is made to the occupants based on some sound generated in. When the occupant responds to this call, the occupant can be identified based on the voice data of the response. That is, since the utterance can be prompted by the call, the person present in the room can be identified even if there is no spontaneous utterance.

また、呼びかけ実行部20は、音データ取得部10によって音データが取得された場合、音データの種類に対応した呼びかけを行う。例えば、在室者が咳をした場合には、呼びかけ実行部20は、「咳込んでたけど、調子悪いの?」等の咳と関連する内容の呼びかけを行う。このように、在室者の現在の状況に応じた呼びかけがなされるので、在室者に違和感を与えることがない。このため、在室者に返答させ易くすることができる。 In addition, when the sound data acquisition unit 10 acquires the sound data, the call execution unit 20 makes a call corresponding to the type of the sound data. For example, when the occupant in the room coughs, the call executing unit 20 makes a call for content related to the cough, such as "I was coughing, are you feeling sick?" In this way, since the call is made according to the present situation of the person in the room, the person in the room does not feel uncomfortable. For this reason, it is possible to make it easy to respond to the person in the room.

また、本実施形態に係る個人識別システム1においては、人検知部30によって室内に人がいることが検知された場合に呼びかけを行うので、在室者がいない状況で室内において音が発生したとき(例えば、電話がなったとき)に無駄に呼びかけを行ってしまうのを回避することができる。 Further, in the personal identification system 1 according to the present embodiment, a call is made when the person detection unit 30 detects that there is a person in the room, so when a sound is generated in the room in the absence of any person. It is possible to avoid making unnecessary calls (for example, when the telephone is answered).

以上の如く、本実施形態に係る個人識別システム1は、住宅(建物)の部屋内において発生する音データを取得する音データ取得部10と、前記音データ取得部10によって取得された音データを含む第一の情報に基づいて、在室者に対して呼びかけを実行する呼びかけ実行部20と、前記音データ取得部10によって取得された、前記呼びかけに対する前記在室者の返答を示す音データを含む第二の情報に基づいて、前記在室者を識別する制御部130(在室者識別部)と、を具備するものである。
このように構成することにより、呼びかけによって発話を促すことができ、これにより個人を識別し易くすることができる。
As described above, the personal identification system 1 according to the present embodiment includes the sound data acquisition unit 10 that acquires sound data generated in the room of the house (building) and the sound data acquired by the sound data acquisition unit 10. Based on the first information that includes the call execution unit 20 that executes a call to the occupant, and the sound data that is acquired by the sound data acquisition unit 10 and that indicates the response of the occupant to the call. A control unit 130 (in-room identification unit) for identifying the in-room person based on the second information included therein.
With such a configuration, it is possible to prompt the utterance by calling, and thus it is possible to easily identify the individual.

また、前記呼びかけ実行部20は、前記第一の情報に含まれる音データの種類に応じて、実行する前記呼びかけの内容を変化させるものである。
このように構成することにより、呼びかけの内容を在室者が違和感無く返答可能なものとすることができる。
Further, the call executing unit 20 changes the content of the call to be executed according to the type of sound data included in the first information.
With this configuration, it is possible for the person in the room to reply to the content of the call without feeling uncomfortable.

また、本実施形態に係る個人識別システム1は、前記部屋内に人がいることを検知する人検知部30を具備し、前記第一の情報は、前記人検知部30による検知結果に関する情報を含むものである。
このように構成することにより、適切に呼びかけを実行することができる。
In addition, the personal identification system 1 according to the present embodiment includes a person detection unit 30 that detects the presence of a person in the room, and the first information is information regarding the detection result by the person detection unit 30. It includes.
With such a configuration, the call can be appropriately executed.

なお、本実施形態に係る制御部130は、本発明に係る在室者識別部の一形態である。
また、本実施形態に係る音データ取得部10によって取得される発話以外の音データ、データベース120に格納された呼びかけ音声データ、及び人検知部30から制御部130へ送信される人検知情報は、本発明に係る第一の情報の一形態である。
また、本実施形態に係る音データ取得部10によって取得される発話の音データ、及びデータベース120に格納された家族の個人別の音声サンプルは、本発明に係る第二の情報の一形態である。
The control unit 130 according to the present embodiment is one form of the occupant identification unit according to the present invention.
Further, the sound data other than the utterance acquired by the sound data acquisition unit 10 according to the present embodiment, the call voice data stored in the database 120, and the person detection information transmitted from the person detection unit 30 to the control unit 130 are: It is one form of the first information according to the present invention.
Further, the sound data of the utterance acquired by the sound data acquisition unit 10 according to the present embodiment and the individual voice sample of the family stored in the database 120 are one form of the second information according to the present invention. ..

以上、本発明の一実施形態を説明したが、本発明は上記構成に限定されるものではなく、特許請求の範囲に記載された発明の範囲内で種々の変更が可能である。 Although one embodiment of the present invention has been described above, the present invention is not limited to the above-described configuration, and various modifications can be made within the scope of the invention described in the claims.

例えば、本実施形態においては、呼びかけ実行部20は、音声により在室者に呼びかけを行うものとしたが、呼びかけの形態はこれに限定されるものではなく、例えば文字情報を在室者に提示することによって呼びかけを行ってもよい。 For example, in the present embodiment, the calling execution unit 20 calls the occupant by voice, but the form of the calling is not limited to this and, for example, presents character information to the occupant. You may make a call by doing.

また、本実施形態においては、呼びかけ音声データは、データベース120に予め格納されたものとしたが、これに限定されるものではなく、例えば、利用者(母親)によって利用者端末40に入力されたテキストを音声化したものを出力するようにしてもよい。 Further, in the present embodiment, the call voice data is stored in the database 120 in advance, but the present invention is not limited to this. For example, the call voice data is input to the user terminal 40 by the user (mother). You may make it output what made the text into the voice.

また、本実施形態においては、呼びかけ実行部20は、音データ取得部10が発話以外の音データを取得した場合に呼びかけを行うものとしたが、発話の音声データを取得した場合にも呼びかけを行ってもよい。 In addition, in the present embodiment, the call executing unit 20 makes a call when the sound data acquisition unit 10 acquires sound data other than the utterance, but it also makes a call when the sound data of the utterance is acquired. You can go.

また、本実施形態においては、個人識別システム1は住宅で用いられるものとしたが、これに限定されるものではなく、任意の建物(オフィス等)で用いることもできる。 Further, in the present embodiment, the personal identification system 1 is used in a house, but the present invention is not limited to this, and the personal identification system 1 can be used in any building (office or the like).

また、本実施形態においては、発話の音声データとデータベース120に格納された音声サンプルとを照合することによって、在室者を識別するものとしたが(ステップS70参照)、これに限定されるものではなく、発話のテキスト情報から在室者を識別してもよい。例えば、「太郎だよー。」との返答のテキスト情報から在室者を弟と特定することができる。 Further, in the present embodiment, the occupant is identified by collating the voice data of the utterance with the voice sample stored in the database 120 (see step S70), but the present invention is not limited to this. Instead, the occupant may be identified from the text information of the utterance. For example, the person present in the room can be identified as the younger brother based on the text information of the reply "Taro is it."

次に、図4を用いて、本発明の第二実施形態に係る個人識別システム2の構成の概要について説明する。 Next, the outline of the configuration of the personal identification system 2 according to the second embodiment of the present invention will be described with reference to FIG.

第二実施形態に係る個人識別システム2が、第一実施形態に係る個人識別システム1と異なる主な点は、音データ取得部10が複数のマイクロフォン11を有し、呼びかけ実行部20が複数のスピーカ21を有する点である。よって以下では、第二実施形態に係る個人識別システム2のうち第一実施形態に係る個人識別システム1と同一の構成については、同一の符号を付して説明を省略する。 The main difference between the personal identification system 2 according to the second embodiment and the personal identification system 1 according to the first embodiment is that the sound data acquisition unit 10 has a plurality of microphones 11 and the call execution unit 20 has a plurality of units. The point is that the speaker 21 is provided. Therefore, in the following, of the personal identification system 2 according to the second embodiment, the same components as those of the personal identification system 1 according to the first embodiment are designated by the same reference numerals and description thereof will be omitted.

音データ取得部10は、2つのマイクロフォン11a・11bを有している。マイクロフォン11a・11bはそれぞれ、住宅の各部屋に設置される。第二実施形態においては、マイクロフォン11aはリビングに設置され、マイクロフォン11bは子供部屋に設置されている。 The sound data acquisition unit 10 has two microphones 11a and 11b. The microphones 11a and 11b are installed in each room of the house. In the second embodiment, the microphone 11a is installed in the living room, and the microphone 11b is installed in the child room.

呼びかけ実行部20は、2つのスピーカ21a・21bを有している。スピーカ21a・21bはそれぞれ、住宅の各部屋に設置される。第二実施形態においては、スピーカ21aはリビングに設置され、スピーカ21bは子供部屋に設置されている。スピーカ21aは同じくリビングに設置されたマイクロフォン11aと対応しており、マイクロフォン11aが音データを取得した場合は、スピーカ21aによって呼びかけを行う構成としている。また、スピーカ21bは同じく子供部屋に設置されたマイクロフォン11bと対応しており、マイクロフォン11bが音データを取得した場合は、スピーカ21bによって呼びかけを行う構成としている。 The call execution unit 20 has two speakers 21a and 21b. The speakers 21a and 21b are installed in each room of the house. In the second embodiment, the speaker 21a is installed in the living room and the speaker 21b is installed in the child room. The speaker 21a corresponds to the microphone 11a similarly installed in the living room. When the microphone 11a acquires sound data, the speaker 21a makes a call. The speaker 21b also corresponds to the microphone 11b also installed in the child's room, and when the microphone 11b acquires sound data, the speaker 21b makes a call.

制御部130は、リビングで何らかの音が発生したとき、マイクロフォン11aを介して取得された音データに基づいて呼びかけ実行部20に呼びかけを実行させる。ここでは、マイクロフォン11aには、リビング内の在室者の咳の音データが入力されたとする。制御部130は、マイクロフォン11aに入力された咳の音データに基づいて、スピーカ21aから呼びかけ音声データを出力する。 When some sound is generated in the living room, the control unit 130 causes the interrogation executing unit 20 to perform interrogation based on the sound data acquired via the microphone 11a. Here, it is assumed that the sound data of the cough of a person in the living room is input to the microphone 11a. The control unit 130 outputs calling voice data from the speaker 21a based on the cough sound data input to the microphone 11a.

また、制御部130は、子供部屋で何らかの音が発生したとき、マイクロフォン11bを介して取得された音データに基づいて呼びかけ実行部20に呼びかけを実行させる。ここでは、マイクロフォン11bには、子供部屋内の在室者の咳の音データが入力されたとする。制御部130は、マイクロフォン11bに入力された咳の音データに基づいて、スピーカ21bから呼びかけ音声データを出力する。 Moreover, when some sound is generated in the child's room, the control unit 130 causes the call executing unit 20 to execute the call based on the sound data acquired via the microphone 11b. Here, it is assumed that the sound data of the cough of a person in the child room is input to the microphone 11b. The control unit 130 outputs calling voice data from the speaker 21b based on the cough sound data input to the microphone 11b.

このとき、呼びかけ実行部20は、スピーカ21aによって出力される呼びかけ音声データと、スピーカ21bによって出力される呼びかけ音声データとを、互いに異なるテキスト情報を有するものとすることができる。例えば、リビングに父親がいることが多く、子供部屋に子供がいることが多い場合は、スピーカ21aからは父親に向けた内容や口調とし、スピーカ21bからは子供に向けた内容や口調とすることができる。これにより、在室者に違和感を与えることなく呼びかけを行う可能性を高めることができるため、在室者に返答させ易くすることができる。 At this time, the call executing unit 20 can make the call voice data output by the speaker 21a and the call voice data output by the speaker 21b have different text information. For example, when there are many fathers in the living room and often children in the children's room, the speaker 21a sets the content and tone for the father, and the speaker 21b sets the content and tone for the child. You can As a result, it is possible to increase the possibility of making a call without giving an uncomfortable feeling to the person in the room, so that it is possible to make the person in the room respond easily.

以上の如く、第二実施形態に係る個人識別システム2においては、前記音データ取得部10は、複数の部屋それぞれに設置されたマイクロフォン11(音データ取得装置)を含み、前記呼びかけ実行部20は、前記第一の情報に含まれる音データがどの部屋の前記マイクロフォン11で取得されたかに応じて、実行する前記呼びかけの内容を変化させるものである。
このように構成することにより、呼びかけの内容を在室者が違和感無く返答可能なものとすることができる。
As described above, in the personal identification system 2 according to the second embodiment, the sound data acquisition unit 10 includes the microphone 11 (sound data acquisition device) installed in each of the plurality of rooms, and the call execution unit 20 includes The content of the call to be executed is changed according to which room the microphone 11 has acquired the sound data included in the first information.
With this configuration, it is possible for the person in the room to reply to the content of the call without feeling uncomfortable.

なお、本実施形態に係るマイクロフォン11は、本発明に係る音データ取得装置の実施の一形態である。 The microphone 11 according to the present embodiment is an embodiment of the sound data acquisition device according to the present invention.

以上、本発明の第二実施形態を説明したが、本発明は上記構成に限定されるものではなく、特許請求の範囲に記載された発明の範囲内で種々の変更が可能である。 Although the second embodiment of the present invention has been described above, the present invention is not limited to the above-described configuration, and various modifications can be made within the scope of the invention described in the claims.

例えば、第二実施形態においては、マイクロフォン11及びスピーカ21が配置される数はそれぞれ2つとしたが、3つ以上であってもよい。 For example, in the second embodiment, the numbers of the microphones 11 and the speakers 21 arranged are two, respectively, but may be three or more.

次に、図5を用いて、本発明の第三実施形態に係る個人識別システム3の構成の概要について説明する。 Next, the outline of the configuration of the personal identification system 3 according to the third embodiment of the present invention will be described with reference to FIG.

第三実施形態に係る個人識別システム3が、第一実施形態に係る個人識別システム1と異なる主な点は、帰宅検知部50をさらに具備すると共に、サーバー100がスケジュール情報格納部150をさらに具備する点である。よって以下では、第三実施形態に係る個人識別システム3のうち第一実施形態に係る個人識別システム1と同一の構成については、同一の符号を付して説明を省略する。 The personal identification system 3 according to the third embodiment is different from the personal identification system 1 according to the first embodiment in that it further includes a return home detection unit 50, and the server 100 further includes a schedule information storage unit 150. It is a point to do. Therefore, in the following, of the personal identification system 3 according to the third embodiment, the same components as those of the personal identification system 1 according to the first embodiment are designated by the same reference numerals and description thereof will be omitted.

帰宅検知部50は、家族が帰宅したことを検知するものである。帰宅検知部50は、玄関ドアの開錠や開閉を検知することで、家族が帰宅したことを検知する。帰宅検知部50としては、例えば電子鍵が用いられる。帰宅検知部50は、家族の帰宅を検知すると共に、使用される電子鍵のID等によって帰宅者を識別する。帰宅検知部50は、帰宅を検知した場合、帰宅を検知したこと及び帰宅者の識別結果を示す帰宅情報を生成する。 The return-home detection unit 50 detects that the family has returned home. The return-to-home detection unit 50 detects that the family has returned home by detecting opening and closing of the entrance door. An electronic key, for example, is used as the return-home detection unit 50. The homecoming detection unit 50 detects the homecoming of the family and identifies the homecoming person by the ID of the electronic key used. When returning home is detected, the returning-home detecting unit 50 generates returning-home information indicating that the returning-home is detected and the identification result of the returning-home person.

スケジュール情報格納部150は、家族のスケジュール情報を格納するものである。スケジュール情報格納部150は、利用者端末40の入力部40Bによって入力されたスケジュール情報を格納する。スケジュール情報には、帰宅の時間や家を出発する時間等が含まれる。スケジュール情報は、個人別に管理されている。 The schedule information storage unit 150 stores family schedule information. The schedule information storage unit 150 stores the schedule information input by the input unit 40B of the user terminal 40. The schedule information includes the time to return home and the time to leave the house. The schedule information is managed for each individual.

次に、図6を参照して、個人識別システム3の制御について説明する。 Next, the control of the personal identification system 3 will be described with reference to FIG.

第三実施形態に係る個人識別システム3の制御が、第一実施形態に係る個人識別システム1の制御と異なる主な点は、ステップS11、ステップS12及びステップS61をさらに具備する点である。よって以下では、第三実施形態に係る個人識別システム3の制御のうち第一実施形態に係る個人識別システム1の制御と同一の処理については、同一の符号を付して説明を省略する。 The main difference between the control of the personal identification system 3 according to the third embodiment and the control of the personal identification system 1 according to the first embodiment is that step S11, step S12, and step S61 are further provided. Therefore, in the following description, of the controls of the personal identification system 3 according to the third embodiment, the same processes as those of the control of the personal identification system 1 according to the first embodiment are designated by the same reference numerals and description thereof will be omitted.

ステップS11において、制御部130は、スケジュール情報格納部150に格納された家族のスケジュール情報を取得する。制御部130は、この処理を行った後、ステップS12に移行する。 In step S11, the control unit 130 acquires the family schedule information stored in the schedule information storage unit 150. After performing this processing, the control unit 130 proceeds to step S12.

ステップS12において、制御部130は、帰宅検知部50によって生成された帰宅情報を取得する。制御部130は、この処理を行った後、ステップS20に移行する。 In step S12, the control unit 130 acquires the return-home information generated by the return-home detection unit 50. After performing this process, the control unit 130 proceeds to step S20.

ステップS20からステップS60までは第一実施形態と同様である。ステップS60において返答があったと判定された場合(ステップS60で「YES」)、個人識別システム3は、ステップS61に進む。 Steps S20 to S60 are the same as in the first embodiment. When it is determined in step S60 that there is a response (“YES” in step S60), the personal identification system 3 proceeds to step S61.

ステップS61において、制御部130は、ステップS11で取得したスケジュール情報及びステップS12で取得した帰宅情報に基づいて、在室者を推定する。制御部130は、この処理を行った後、ステップS70に移行する。 In step S61, the control unit 130 estimates the occupant based on the schedule information acquired in step S11 and the return home information acquired in step S12. After performing this process, the control unit 130 proceeds to step S70.

ステップS70において、制御部130は、予めデータベース120に記憶された家族の音声サンプルのうち、ステップS61で在室者と推定された者の音声サンプルを選択する。そして、制御部130は、音データ取得部10によって取得された発話(返答)の音声データと、選択した音声サンプルとを照合する。制御部130は、この処理を行った後、ステップS80に移行する。 In step S70, the control unit 130 selects, from the voice samples of the family stored in the database 120 in advance, the voice sample of the person estimated to be in the room in step S61. Then, the control unit 130 compares the voice data of the utterance (response) acquired by the sound data acquisition unit 10 with the selected voice sample. After performing this processing, the control unit 130 proceeds to step S80.

ステップS80からステップS90までは第一実施形態と同様である。識別結果の通知が完了すると、個人識別システム3の制御フローは終了する。 Steps S80 to S90 are the same as in the first embodiment. When the notification of the identification result is completed, the control flow of the personal identification system 3 ends.

このように、第三実施形態に係る個人識別システム3においては、スケジュール情報及び帰宅情報によって対象を絞りこんでから識別を行うので、識別の精度を向上させることができる。また、ステップS70における照合の対象を減らすことができるので、識別の処理を軽減することができる。 As described above, in the personal identification system 3 according to the third embodiment, the target is narrowed down based on the schedule information and the homecoming information, and then the identification is performed, so that the accuracy of the identification can be improved. Moreover, since the number of objects to be collated in step S70 can be reduced, the identification process can be reduced.

次に、図7を参照して、個人識別システム3の制御の別例について説明する。 Next, another example of control of the personal identification system 3 will be described with reference to FIG. 7.

ステップS10からステップS60までは図6に示す制御と同様である。ステップS60において返答があったと判定された場合(ステップS60で「YES」)、個人識別システム3は、ステップS70に進む。 Steps S10 to S60 are the same as the control shown in FIG. When it is determined in step S60 that there is a reply (“YES” in step S60), the personal identification system 3 proceeds to step S70.

ステップS70において、制御部130は、音データ取得部10によって取得された発話(返答)の音声データと、予めデータベース120に記憶された家族の音声サンプルとを照合する。制御部130は、この処理を行った後、ステップS80に移行する。 In step S70, the control unit 130 compares the voice data of the utterance (response) acquired by the sound data acquisition unit 10 with the voice sample of the family stored in the database 120 in advance. After performing this processing, the control unit 130 proceeds to step S80.

ステップS80において、制御部130は、ステップS70の照合結果により在室者を識別する。制御部130は、ステップS70の照合結果が所定の基準(一致率)を満たす者を在室者と特定する。また、制御部130は、在室者が識別できたか否かを判定する。 In step S80, the control unit 130 identifies the person in the room based on the comparison result in step S70. The control unit 130 identifies a person who is in the room as a result of the collation result of step S70 satisfying a predetermined criterion (matching rate). Further, the control unit 130 determines whether the person in the room can be identified.

在室者を識別できた場合(ステップS80で「YES」)、個人識別システム3は、ステップS90に進む。一方、在室者を識別できなかった場合(ステップS80で「NO」)、個人識別システム3は、ステップS81に進む。 When the person in the room can be identified (“YES” in step S80), the personal identification system 3 proceeds to step S90. On the other hand, when the person present in the room cannot be identified (“NO” in step S80), the personal identification system 3 proceeds to step S81.

ステップS81において、制御部130は、ステップS11で取得したスケジュール情報及びステップS12で取得した帰宅情報に基づいて、在室者を推定する。制御部130は、この処理を行った後、ステップS82に移行する。 In step S81, the control unit 130 estimates the occupant based on the schedule information acquired in step S11 and the return home information acquired in step S12. After performing this process, the control unit 130 proceeds to step S82.

ステップS82において、制御部130は、ステップS70の照合結果及びステップS81の推定結果に基づいて、在室者を識別する。具体的には、制御部130は、ステップS81で在室者と推定された者の中から、ステップS70の照合結果における一致率が最も高い者を在室者と特定する。制御部130は、この処理を行った後、ステップS90に移行する。 In step S82, the control unit 130 identifies the person in the room based on the comparison result of step S70 and the estimation result of step S81. Specifically, the control unit 130 identifies the person having the highest matching rate in the matching result of step S70 as the person in the room, out of the persons estimated to be the person in the room in step S81. After performing this process, the control unit 130 proceeds to step S90.

ステップS90において、制御部130は、ステップS80の識別結果を利用者端末40に通知する。通知が完了すると、個人識別システム3の制御フローは終了する。 In step S90, the control unit 130 notifies the user terminal 40 of the identification result of step S80. When the notification is completed, the control flow of the personal identification system 3 ends.

このように第三実施形態の別例に係る個人識別システム3においては、音声データの照合では在室者を明確に特定することができない場合でも、在室者を識別することができる。 As described above, in the personal identification system 3 according to the another example of the third embodiment, even if the person present in the room cannot be clearly identified by collating the voice data, the person present in the room can be identified.

以上の如く、第三実施形態に係る個人識別システム3は、家族(識別対象者)のスケジュール情報を取得するスケジュール情報格納部150(スケジュール情報取得部)を具備し、前記第二の情報は、前記スケジュール情報に基づいて推定される前記在室者に関する情報を含むものである。
このように構成することにより、在室者の識別の精度を向上させることができる。
As described above, the personal identification system 3 according to the third embodiment includes the schedule information storage unit 150 (schedule information acquisition unit) that acquires schedule information of a family (person to be identified), and the second information is The information includes information about the occupants estimated based on the schedule information.
With this configuration, it is possible to improve the accuracy of identifying the person in the room.

また、第三実施形態に係る個人識別システム3は、家族(識別対象者)が帰宅(前記住宅内に進入)したことを示す帰宅情報(進入情報)を取得する帰宅検知部50(進入情報取得部)を具備し、前記第二の情報は、前記帰宅情報に基づいて推定される前記在室者に関する情報を含むものである。
このように構成することにより、在室者の識別の精度を向上させることができる。
Further, the personal identification system 3 according to the third embodiment is a return-home detection unit 50 (entry information acquisition) that obtains return-home information (entry information) indicating that a family (person to be identified) has returned home (entered into the house). Section), and the second information includes information about the occupant estimated based on the return-home information.
With this configuration, it is possible to improve the accuracy of identifying the person in the room.

なお、第三実施形態に係るスケジュール情報格納部150は、本発明に係るスケジュール情報取得部の一形態である。
また、第三実施形態に係るスケジュール情報及び帰宅情報は、本発明に係る第二の情報の一形態である。
The schedule information storage unit 150 according to the third embodiment is one form of the schedule information acquisition unit according to the present invention.
In addition, the schedule information and the return home information according to the third embodiment are one form of the second information according to the present invention.

以上、本発明の第三実施形態を説明したが、本発明は上記構成に限定されるものではなく、特許請求の範囲に記載された発明の範囲内で種々の変更が可能である。 Although the third embodiment of the present invention has been described above, the present invention is not limited to the above-described configuration, and various modifications can be made within the scope of the invention described in the claims.

例えば、第三実施形態においては、ステップS20において音データが取得できない場合には、再び当該ステップS10に処理を戻すものとしたが、ステップS11で取得したスケジュール情報及びステップS12で取得した帰宅情報に基づいて在室者を推定し、在室者と推定される者に関連する呼びかけを行うようにしてもよい。 For example, in the third embodiment, if the sound data cannot be acquired in step S20, the process is returned to step S10 again. It is also possible to presume the person present in the room based on this and make a call relating to the person presumed to be the person present in the room.

1,2,3 個人識別システム
10 音データ取得部
11 マイクロフォン
20 呼びかけ実行部
30 人検知部
50 帰宅検知部
130 制御部
150 スケジュール情報格納部
1, 2 and 3 personal identification system 10 sound data acquisition unit 11 microphone 20 call execution unit 30 person detection unit 50 return home detection unit 130 control unit 150 schedule information storage unit

Claims (5)

建物の部屋内において発生する音データを取得する音データ取得部と、
前記音データ取得部によって取得された音データを含む第一の情報に基づいて、在室者に対して呼びかけを実行する呼びかけ実行部と、
前記音データ取得部によって取得された、前記呼びかけに対する前記在室者の返答を示す音データを含む第二の情報に基づいて、前記在室者を識別する在室者識別部と、
を具備し、
前記呼びかけ実行部は、
前記第一の情報に含まれる音データの種類に応じて、実行する前記呼びかけの内容を変化させる、
個人識別システム。
A sound data acquisition unit that acquires sound data generated in the room of the building,
Based on the first information including the sound data acquired by the sound data acquisition unit, a call execution unit that executes a call to the person in the room,
Based on the second information acquired by the sound data acquisition unit, the second information including the sound data indicating the response of the occupant to the call, the occupant identification unit for identifying the occupant,
Equipped with,
The call execution unit,
Changing the content of the call to be executed according to the type of sound data included in the first information,
Personal identification system.
建物の部屋内において発生する音データを取得する音データ取得部と、
前記音データ取得部によって取得された音データを含む第一の情報に基づいて、在室者に対して呼びかけを実行する呼びかけ実行部と、
前記音データ取得部によって取得された、前記呼びかけに対する前記在室者の返答を示す音データを含む第二の情報に基づいて、前記在室者を識別する在室者識別部と、
を具備し、
前記音データ取得部は、
複数の部屋それぞれに設置された音データ取得装置を含み、
前記呼びかけ実行部は、
前記第一の情報に含まれる音データがどの部屋の前記音データ取得装置で取得されたかに応じて、実行する前記呼びかけの内容を変化させる、
人識別システム。
A sound data acquisition unit that acquires sound data generated in the room of the building,
Based on the first information including the sound data acquired by the sound data acquisition unit, a call execution unit that executes a call to the person in the room,
Based on the second information acquired by the sound data acquisition unit, the second information including the sound data indicating the response of the occupant to the call, the occupant identification unit for identifying the occupant,
Equipped with,
The sound data acquisition unit,
Including sound data acquisition device installed in each of multiple rooms,
The call execution unit,
Changing the content of the call to be executed according to which room the sound data acquisition device has acquired the sound data included in the first information;
Personal identification system.
建物の部屋内において発生する音データを取得する音データ取得部と、
前記音データ取得部によって取得された音データを含む第一の情報に基づいて、在室者に対して呼びかけを実行する呼びかけ実行部と、
前記音データ取得部によって取得された、前記呼びかけに対する前記在室者の返答を示す音データを含む第二の情報に基づいて、前記在室者を識別する在室者識別部と、
識別対象者のスケジュール情報を取得するスケジュール情報取得部と、
を具備し、
前記第二の情報は、
前記スケジュール情報に基づいて推定される前記在室者に関する情報を含む、
人識別システム。
A sound data acquisition unit that acquires sound data generated in the room of the building,
Based on the first information including the sound data acquired by the sound data acquisition unit, a call execution unit that executes a call to the person in the room,
Based on the second information acquired by the sound data acquisition unit, the second information including the sound data indicating the response of the occupant to the call, the occupant identification unit for identifying the occupant,
A schedule information acquisition unit that acquires schedule information of the identification target person,
Equipped with,
The second information is
Including information about the occupant estimated based on the schedule information,
Personal identification system.
建物の部屋内において発生する音データを取得する音データ取得部と、
前記音データ取得部によって取得された音データを含む第一の情報に基づいて、在室者に対して呼びかけを実行する呼びかけ実行部と、
前記音データ取得部によって取得された、前記呼びかけに対する前記在室者の返答を示す音データを含む第二の情報に基づいて、前記在室者を識別する在室者識別部と、
識別対象者が前記建物内に進入したことを示す進入情報を取得する進入情報取得部と、
を具備し、
前記第二の情報は、
前記進入情報に基づいて推定される前記在室者に関する情報を含む、
人識別システム。
A sound data acquisition unit that acquires sound data generated in the room of the building,
Based on the first information including the sound data acquired by the sound data acquisition unit, a call execution unit that executes a call to the person in the room,
Based on the second information acquired by the sound data acquisition unit, the second information including the sound data indicating the response of the occupant to the call, the occupant identification unit for identifying the occupant,
An entry information acquisition unit that acquires entry information indicating that the identification target person has entered the building,
Equipped with,
The second information is
Including information about the occupant estimated based on the entry information,
Personal identification system.
前記部屋内に人がいることを検知する人検知部を具備し、
前記第一の情報は、
前記人検知部による検知結果に関する情報を含む、
請求項1から請求項4までのいずれか一項に記載の個人識別システム。
A person detection unit for detecting the presence of a person in the room,
The first information is
Including information about the detection result by the human detection unit,
The personal identification system according to any one of claims 1 to 4.
JP2016183757A 2016-09-21 2016-09-21 Personal identification system Active JP6748535B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016183757A JP6748535B2 (en) 2016-09-21 2016-09-21 Personal identification system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016183757A JP6748535B2 (en) 2016-09-21 2016-09-21 Personal identification system

Publications (2)

Publication Number Publication Date
JP2018049098A JP2018049098A (en) 2018-03-29
JP6748535B2 true JP6748535B2 (en) 2020-09-02

Family

ID=61767499

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016183757A Active JP6748535B2 (en) 2016-09-21 2016-09-21 Personal identification system

Country Status (1)

Country Link
JP (1) JP6748535B2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5936319B2 (en) * 1975-09-16 1984-09-03 名古屋電機工業 (株) security system
JPS63226800A (en) * 1987-03-16 1988-09-21 シャープ株式会社 Installation apparatus
JP2002027575A (en) * 1998-04-28 2002-01-25 Masanobu Kujirada Security device including stuffed toy
JP4169955B2 (en) * 2001-08-09 2008-10-22 富士通株式会社 Safety confirmation device and safety confirmation method
JP2016032501A (en) * 2014-07-31 2016-03-10 株式会社コンテック Nursing and care support device, and nursing and care support method

Also Published As

Publication number Publication date
JP2018049098A (en) 2018-03-29

Similar Documents

Publication Publication Date Title
KR101726945B1 (en) Reducing the need for manual start/end-pointing and trigger phrases
US20230141659A1 (en) Response endpoint selection
KR102314096B1 (en) Intercom-style communication using multiple computing devices
US9691199B1 (en) Remote access control
US10447864B1 (en) Remote access control
CN112313741A (en) Selective registration with an automated assistant
KR20160014297A (en) electronic device and control method thereof
WO2017141530A1 (en) Information processing device, information processing method and program
JP2008242318A (en) Apparatus, method and program detecting interaction
US11862153B1 (en) System for recognizing and responding to environmental noises
US20160328949A1 (en) Method for an Automated Distress Alert System with Speech Recognition
US20220131979A1 (en) Methods and systems for automatic queuing in conference calls
CN102984589A (en) Verbally communicating facially responsive television apparatus
JP2018174439A (en) Conference support system, conference support method, program of conference support apparatus, and program of terminal
US11340565B2 (en) Information processing apparatus, information processing method, and program
US20210225363A1 (en) Information processing device and information processing method
US10810973B2 (en) Information processing device and information processing method
JPWO2017175442A1 (en) Information processing apparatus and information processing method
JP6748535B2 (en) Personal identification system
WO2020021861A1 (en) Information processing device, information processing system, information processing method, and information processing program
KR20210057367A (en) Apparatus for Processing Data between Neighbors based on Artificial Intelligence and Method for Processing Data between Neighbors Using the Same
JP2008249893A (en) Speech response device and its method
US20220217442A1 (en) Method and device to generate suggested actions based on passive audio
US20230178075A1 (en) Methods and devices for preventing a sound activated response
WO2020017165A1 (en) Information processing device, information processing system, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190829

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200709

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200721

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200807

R150 Certificate of patent or registration of utility model

Ref document number: 6748535

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250