JP6748535B2 - Personal identification system - Google Patents
Personal identification system Download PDFInfo
- Publication number
- JP6748535B2 JP6748535B2 JP2016183757A JP2016183757A JP6748535B2 JP 6748535 B2 JP6748535 B2 JP 6748535B2 JP 2016183757 A JP2016183757 A JP 2016183757A JP 2016183757 A JP2016183757 A JP 2016183757A JP 6748535 B2 JP6748535 B2 JP 6748535B2
- Authority
- JP
- Japan
- Prior art keywords
- sound data
- call
- room
- information
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、在室者を識別する個人識別システムの技術に関する。 TECHNICAL FIELD The present invention relates to a technique of an individual identification system for identifying a person in a room.
従来、在室者を識別する個人識別システムの技術は公知となっている。例えば、特許文献1に記載の如くである。
Conventionally, the technology of an individual identification system for identifying a person in the room has been publicly known. For example, it is as described in
特許文献1には、住人の生活支援を行うための宅内システムが記載されている。当該宅内システムにおいては、現在発話している住人を音声認識により特定し、特定された住人に適合した対話を当該住人に提示するように構成されている。
しかしながら、特許文献1に記載の技術においては、一人で留守番をしている場合や、複数人いても会話がない場合等、発話が生じない場合には個人を識別することができないという問題があった。
However, the technique described in
本発明は以上の如き状況に鑑みてなされたものであり、その解決しようとする課題は、発話を促すことにより個人を識別し易くすることができる個人識別システムを提供するものである。 The present invention has been made in view of the above circumstances, and a problem to be solved by the present invention is to provide an individual identification system capable of facilitating the utterance to easily identify an individual.
本発明の解決しようとする課題は以上の如くであり、次にこの課題を解決するための手段を説明する。 The problem to be solved by the present invention is as described above, and the means for solving this problem will be described below.
即ち、請求項1においては、建物の部屋内において発生する音データを取得する音データ取得部と、前記音データ取得部によって取得された音データを含む第一の情報に基づいて、在室者に対して呼びかけを実行する呼びかけ実行部と、前記音データ取得部によって取得された、前記呼びかけに対する前記在室者の返答を示す音データを含む第二の情報に基づいて、前記在室者を識別する在室者識別部と、を具備し、前記呼びかけ実行部は、前記第一の情報に含まれる音データの種類に応じて、実行する前記呼びかけの内容を変化させるものである。
That is, according to
請求項2においては、建物の部屋内において発生する音データを取得する音データ取得部と、前記音データ取得部によって取得された音データを含む第一の情報に基づいて、在室者に対して呼びかけを実行する呼びかけ実行部と、前記音データ取得部によって取得された、前記呼びかけに対する前記在室者の返答を示す音データを含む第二の情報に基づいて、前記在室者を識別する在室者識別部と、を具備し、前記音データ取得部は、複数の部屋それぞれに設置された音データ取得装置を含み、前記呼びかけ実行部は、前記第一の情報に含まれる音データがどの部屋の前記音データ取得装置で取得されたかに応じて、実行する前記呼びかけの内容を変化させるものである。
In
請求項3においては、建物の部屋内において発生する音データを取得する音データ取得部と、前記音データ取得部によって取得された音データを含む第一の情報に基づいて、在室者に対して呼びかけを実行する呼びかけ実行部と、前記音データ取得部によって取得された、前記呼びかけに対する前記在室者の返答を示す音データを含む第二の情報に基づいて、前記在室者を識別する在室者識別部と、識別対象者のスケジュール情報を取得するスケジュール情報取得部と、を具備し、前記第二の情報は、前記スケジュール情報に基づいて推定される前記在室者に関する情報を含むものである。 In claim 3, based on the sound data acquisition unit that acquires the sound data generated in the room of the building, and the first information including the sound data acquired by the sound data acquisition unit The occupant based on the call execution unit that executes the call and the second information including the sound data that is acquired by the sound data acquisition unit and that indicates the response of the occupant to the call. An occupant identification unit and a schedule information acquisition unit that acquires schedule information of an identification target person are provided, and the second information includes information about the occupant estimated based on the schedule information. It is a thing.
請求項4においては、建物の部屋内において発生する音データを取得する音データ取得部と、前記音データ取得部によって取得された音データを含む第一の情報に基づいて、在室者に対して呼びかけを実行する呼びかけ実行部と、前記音データ取得部によって取得された、前記呼びかけに対する前記在室者の返答を示す音データを含む第二の情報に基づいて、前記在室者を識別する在室者識別部と、識別対象者が前記建物内に進入したことを示す進入情報を取得する進入情報取得部と、を具備し、前記第二の情報は、前記進入情報に基づいて推定される前記在室者に関する情報を含むものである。 In claim 4, based on the sound data acquisition unit that acquires the sound data generated in the room of the building and the first information including the sound data acquired by the sound data acquisition unit, The occupant is identified based on the call execution unit that executes the call and the second information including the sound data that is acquired by the sound data acquisition unit and that indicates the response of the occupant to the call. An occupant identification unit and an entry information acquisition unit that obtains entry information indicating that an identification target person has entered the building, and the second information is estimated based on the entry information. The information about the occupants is included.
請求項5においては、前記部屋内に人がいることを検知する人検知部を具備し、前記第一の情報は、前記人検知部による検知結果に関する情報を含むものである。 According to a fifth aspect of the present invention, a person detecting unit for detecting the presence of a person in the room is provided, and the first information includes information regarding a detection result of the person detecting unit .
本発明の効果として、以下に示すような効果を奏する。 The effects of the present invention are as follows.
請求項1においては、呼びかけによって発話を促すことができ、これにより個人を識別し易くすることができる。また、呼びかけの内容を在室者が違和感無く返答可能なものとすることができる。 According to the first aspect of the present invention, it is possible to prompt the user to speak, so that the individual can be easily identified. In addition, the content of the call can be set so that the person present in the room can reply without any discomfort.
請求項2においては、呼びかけによって発話を促すことができ、これにより個人を識別し易くすることができる。また、呼びかけの内容を在室者が違和感無く返答可能なものとすることができる。 According to the second aspect, it is possible to prompt the utterance by calling, which makes it easy to identify the individual. In addition, the content of the call can be set so that the person present in the room can reply without any discomfort.
請求項3においては、呼びかけによって発話を促すことができ、これにより個人を識別し易くすることができる。また、在室者の識別の精度を向上させることができる。 According to the third aspect of the present invention, it is possible to prompt the utterance by calling, which makes it easy to identify the individual. In addition, the accuracy of identifying the person in the room can be improved .
請求項4においては、呼びかけによって発話を促すことができ、これにより個人を識別し易くすることができる。また、在室者の識別の精度を向上させることができる。 According to the fourth aspect, the utterance can be prompted by the call, and thus the individual can be easily identified. In addition, the accuracy of identifying the person in the room can be improved .
請求項5においては、適切に呼びかけを実行することができる。 In claim 5, the call can be appropriately executed .
まず、図1を用いて、本発明の一実施形態に係る個人識別システム1の構成の概要について説明する。
First, the outline of the configuration of a
個人識別システム1は、住宅等の建物の部屋内(室内)に人がいる場合に、この在室者を識別するものである。本実施形態において、個人識別システム1は、子供のいる家庭において用いられ、住宅の部屋(例えばリビング)内に人がいる場合に、この在室者が家族のうちの誰であるのかを判定する。個人識別システム1は、音データ取得部10、呼びかけ実行部20、人検知部30、利用者端末40及びサーバー100を具備する。
The
音データ取得部10は、室内において発生する音データを取得するものである。音データ取得部10は、例えば、在室者によってなされた発話(会話や独り言等)の音声データを取得する。また、音データ取得部10は、例えば、在室者の足音、咳、いびき、笑い声の音データを取得する。また、音データ取得部10は、例えば、音楽、テレビ、テレビゲーム、携帯ゲームの音データを取得する。音データ取得部10はマイクロフォン11を有しており、当該マイクロフォン11を介して、音データ取得部10に室内の音データが入力される。マイクロフォン11は、室内の音を取得し易い任意の位置に設置され、例えば天井に設置される。
The sound
呼びかけ実行部20は、音声によって呼びかけを実行するものである。ここで、「呼びかけ」とは、在室者に対して音声データを提供することであって、当該音声データが在室者から何らかの返答が期待できるような内容のものをいう。呼びかけ実行部20はスピーカ21を有しており、当該スピーカ21を介して、呼びかけを行うための音声データ(以下、「呼びかけ音声データ」という)が出力される。スピーカ21は、呼びかけが在室者に聞こえ易い任意の位置に設置され、例えばテレビ台の上に設置される。在室者に対して呼びかけが行われることにより、在室者に発話を促すことができる。
The
人検知部30は、室内に人がいることを検知するものである。人検知部30としては、例えば人感センサや振動センサが用いられる。また、人検知部30は、室内にある設備機器のスイッチのオン/オフによって、室内に人がいることを検知するものであってもよい。また、人検知部30は、電力データ(電力の消費量)によって、室内に人がいることを検知するものであってもよい。この電力データは、例えばHEMS(Home Energy Management System)を利用して確認することができる。人検知部30は、室内に人がいることを検知した場合、その旨を示す人検知情報を後述する制御部130に送信する。
The
利用者端末40は、個人識別システム1の利用者(識別結果を利用する者)が使用する端末である。利用者端末40としては、データを送受信可能な端末が用いられ、例えばパーソナルコンピュータや高機能携帯電話端末が用いられる。利用者端末40には、表示部40A及び入力部40Bが備えられる。
The
表示部40Aは、画像や文字などから構成される表示データを表示する部分である。表示部40Aとしては、例えば液晶ディスプレイが用いられる。表示部40Aには、例えば在室者の識別結果が表示される。入力部40Bは、利用者が操作を行う部分である。入力部40Bとしては、例えばキーボードやタッチパネルが用いられる。利用者が入力部40Bを操作することにより、利用者端末40にデータ(家族のスケジュール情報等)が入力される。
The
サーバー100は、データの格納や分析等を行うものである。サーバー100は、音データ格納部110、データベース120、制御部130及び通知部140を具備する。
The
音データ格納部110は、音データ取得部10によって取得された音データを格納するものである。
The sound
データベース120は、各種データを格納するものである。具体的には、データベース120には、家族の個人別の音声サンプルが予め格納されている。当該音声サンプルは、後述する制御部130によって在室者を識別するために用いられる。また、データベース120には、呼びかけ実行部20によって出力される呼びかけ音声データが予め格納されている。呼びかけ音声データは、予め録音されたもの(例えば母親の音声によるもの)であってもよいし、合成音声によるものであってもよい。データベース120には、複数の呼びかけ音声データが格納されており、各呼びかけ音声データはそれぞれテキスト情報(文章の内容)が異なっている。また、後述するように、各呼びかけ音声データは、音データ取得部10によって取得された音データの種類によって区分されている。
The
制御部130は、サーバー100の制御を行うものである。制御部130は、個人識別システム1において、特に2つの役割を担っている。一つは、呼びかけ実行部20に在室者への呼びかけを実行させることである。もう一つは、在室者を識別することである。制御部130は、室内において何らかの音が発生したとき(音データ取得部10が室内において発生した音データを取得したとき)、この音データに基づいて呼びかけ実行部20に呼びかけを実行させる。また、制御部130は、音声認識機能を有しており、音データ取得部10によって取得された在室者による発話の音声データと、予めデータベース120に記憶された家族の音声サンプルとを照合することで、在室者を識別する。
The
通知部140は、制御部130による在室者の識別結果を、利用者端末40に通知するものである。通知部140は、制御部130による制御によって通知を実行する。
The
以下、図2を参照して、個人識別システム1の制御について説明する。なお、本実施形態及び後述する第二実施形態及び第三実施形態においては、父親、母親及び2人の子供(姉の花子と弟の太郎)から構成される家庭を想定し、このうち母親が個人識別システム1の利用者(在室者の識別結果を利用する者)であるものとして説明を行う。
Hereinafter, the control of the
ステップS10において、制御部130は、人検知部30によって室内に人がいることが検知されたか否かを判定する。制御部130は、人検知部30から人が検知されたことを示す人検知情報を受信しているか否かによってこの判定を行う。
In step S10, the
室内に人がいることが検知されていないと判定された場合(ステップS10で「NO」)、個人識別システム1は、最初のステップ(当該ステップS10)に処理を戻す。一方、室内に人がいることが検知されたと判定された場合(ステップS10で「YES」)、個人識別システム1は、ステップS20に進む。
When it is determined that the presence of a person in the room is not detected (“NO” in step S10), the
ステップS20において、制御部130は、音データ取得部10が室内において発生した音データを取得したか否かを判定する。制御部130は、音データ格納部110に新たな音データ(取得したとの判定が未だなされていない音データ)が格納されているか否かによってこの判定を行う。
In step S20, the
音データが取得されていないと判定された場合(ステップS20で「NO」)、個人識別システム1は、最初のステップ(ステップS10)に処理を戻す。一方、音データが取得されたと判定された場合(ステップS20で「YES」)、個人識別システム1は、ステップS30に進む。
When it is determined that the sound data has not been acquired (“NO” in step S20), the
ステップS30において、制御部130は、音データ取得部10によって取得された音データが発話によるものであるか否かを判定する。制御部130は、音声認識機能によりこの判定を行う。
In step S30, the
発話によるものであると判定された場合(ステップS30で「YES」)、個人識別システム1は、ステップS70に進む。一方、発話によるものでないと判定された場合(ステップS30で「NO」)、個人識別システム1は、ステップS40に進む。
When it is determined that it is due to the utterance (“YES” in step S30), the
ステップS40において、制御部130は、音データ取得部10によって取得された音データの種類を判定する。具体的には、制御部130は、取得された音データが何によるものであるのか(例えば在室者の咳によるものであるのか、テレビの音によるものであるのか)の判定を行う。制御部130は、音声認識機能によりこの判定を行う。制御部130は、この処理を行った後、ステップS50に移行する。
In step S40, the
ステップS50において、制御部130は、呼びかけ実行部20によって呼びかけを実行させる。具体的には、制御部130は、データベース120を参照し、ステップS40において判定した音データの種類に対応する呼びかけ音声データを選択する。そして、制御部130は、選択した呼びかけ音声データを、呼びかけ実行部20を介して出力させる。これにより、在室者に対して呼びかけが行われる。
In step S50, the
ここで、図3を参照して、呼びかけの具体的な内容について説明する。ここでは、リビングに音データ取得部10(マイクロフォン11)及び呼びかけ実行部20(スピーカ21)が設置されているとして説明を行う。 Here, the specific content of the call will be described with reference to FIG. Here, it is assumed that the sound data acquisition unit 10 (microphone 11) and the call execution unit 20 (speaker 21) are installed in the living room.
音データ取得部10によって取得された音データが発話以外の音データであった場合、在室者を識別するのは困難である。ここで、取得された音データが在室者の足音であった場合、呼びかけ実行部20は、音声により「リビングで何してるのー?」、「お姉ちゃん?お兄ちゃん?」等の呼びかけを行う。また、取得された音データがテレビの音であった場合、呼びかけ実行部20は、音声により「何のテレビ番組見てるの?」等の呼びかけを行う。また、呼びかけ実行部20は、取得された音データが、在室者の咳、いびき、笑い声や、音楽、ゲームの音等であった場合、図3に示すように、各音データに関連した呼びかけを行う。呼びかけの内容は定型のものだけではなく、音データ格納部110に蓄積された過去の音データに基づいた内容としてもよい。例えば、制御部130は、音データ格納部110に蓄積された過去の音データからある音楽の再生回数を算出し、音データ取得部10が新たにこの音楽の音データを取得した場合には、算出した再生回数に基づいて「最近この曲よく聴いてるね。お気に入り?」等の呼びかけとすることができる。
When the sound data acquired by the sound
なお、音データ取得部10によって取得された音データが在室者による発話の音声データであった場合、当該音声データに基づいて在室者を識別することができるので、呼びかけは不要である(ステップS30及び後述するステップS70参照)。在室者が独り言を言った場合(例えば、図3に示すようにテレビにツッコミを入れた場合)には、この独り言の音声データによって在室者を識別することができる(後述するステップS70参照)。
If the sound data acquired by the sound
再び図2を参照する。制御部130は、この処理(ステップS50)を行った後、ステップS60に移行する。
Referring back to FIG. After performing this processing (step S50), the
ステップS60において、制御部130は、ステップS50で行った呼びかけに対して在室者から返答があったか否かを判定する。制御部130は、音データ格納部110に新たな発話による音声データが格納されているか否かによってこの判定を行う。
In step S60, the
ここで、再び図3を参照する。在室者は、呼びかけ実行部20による呼びかけに対して、何らかの返答をすることが期待される。例えば、在室者は、「リビングで何してるのー?」、「お姉ちゃん?お兄ちゃん?」との呼びかけに対して、「冷蔵庫の飲み物取りに来たー。」、「太郎だよー。」等の返答を行う。また、在室者は、「何のテレビ番組見てるの?」との呼びかけに対して、「○○っていうアニメ」等の返答を行う。その他、在室者は、ステップS50でなされた呼びかけに対して、図3に示すような返答を行う。
Here, FIG. 3 is referred to again. The occupant is expected to make some reply to the call by the
再び図2を参照する。返答があったと判定された場合(ステップS60で「YES」)、個人識別システム1は、ステップS70に進む。一方、返答がなかったと判定された場合(ステップS60で「NO」)、個人識別システム1は、最初のステップ(ステップS10)に戻る。
Referring back to FIG. When it is determined that there is a reply (“YES” in step S60), the
ステップS70において、制御部130は、音データ取得部10によって取得された発話(返答)の音声データと、予めデータベース120に記憶された家族の音声サンプルとを照合する。そして、制御部130は、ステップS70の照合結果により在室者を識別する。制御部130は、ステップS70の照合結果が所定の基準(一致率)を満たす者を在室者と特定する。制御部130は、この処理を行った後、ステップS80に移行する。
In step S70, the
ステップS80において、制御部130は、在室者が識別できたか否かを判定する。
In step S80, the
在室者を識別できた場合(ステップS80で「YES」)、個人識別システム1は、ステップS90に進む。一方、在室者を識別できなかった場合(ステップS80で「NO」)、個人識別システム1は、最初のステップ(ステップS10)に戻る。
When the person in the room can be identified (“YES” in step S80), the
ステップS90において、制御部130は、ステップS80の識別結果を利用者端末40に通知する。識別結果は、利用者端末40の表示部40Aに表示される。これにより、利用者は、部屋(リビング)に誰がいるのかを知ることができる。通知が完了すると、個人識別システム1の制御フローは終了する。
In step S90, the
このように、本実施形態に係る個人識別システム1においては、子供が一人で留守番をしているとき等、在室者がいるにもかかわらず発話がない場合に、呼びかけ実行部20によって、室内で発生した何らかの音に基づいて在室者に対して呼びかけを行う。在室者がこの呼びかけに対して返答することにより、当該返答の音声データに基づいて在室者を識別することができる。すなわち、呼びかけによって発話を促すことができるので、自発的な発話がない場合でも、在室者を識別することができる。
As described above, in the
また、呼びかけ実行部20は、音データ取得部10によって音データが取得された場合、音データの種類に対応した呼びかけを行う。例えば、在室者が咳をした場合には、呼びかけ実行部20は、「咳込んでたけど、調子悪いの?」等の咳と関連する内容の呼びかけを行う。このように、在室者の現在の状況に応じた呼びかけがなされるので、在室者に違和感を与えることがない。このため、在室者に返答させ易くすることができる。
In addition, when the sound
また、本実施形態に係る個人識別システム1においては、人検知部30によって室内に人がいることが検知された場合に呼びかけを行うので、在室者がいない状況で室内において音が発生したとき(例えば、電話がなったとき)に無駄に呼びかけを行ってしまうのを回避することができる。
Further, in the
以上の如く、本実施形態に係る個人識別システム1は、住宅(建物)の部屋内において発生する音データを取得する音データ取得部10と、前記音データ取得部10によって取得された音データを含む第一の情報に基づいて、在室者に対して呼びかけを実行する呼びかけ実行部20と、前記音データ取得部10によって取得された、前記呼びかけに対する前記在室者の返答を示す音データを含む第二の情報に基づいて、前記在室者を識別する制御部130(在室者識別部)と、を具備するものである。
このように構成することにより、呼びかけによって発話を促すことができ、これにより個人を識別し易くすることができる。
As described above, the
With such a configuration, it is possible to prompt the utterance by calling, and thus it is possible to easily identify the individual.
また、前記呼びかけ実行部20は、前記第一の情報に含まれる音データの種類に応じて、実行する前記呼びかけの内容を変化させるものである。
このように構成することにより、呼びかけの内容を在室者が違和感無く返答可能なものとすることができる。
Further, the
With this configuration, it is possible for the person in the room to reply to the content of the call without feeling uncomfortable.
また、本実施形態に係る個人識別システム1は、前記部屋内に人がいることを検知する人検知部30を具備し、前記第一の情報は、前記人検知部30による検知結果に関する情報を含むものである。
このように構成することにより、適切に呼びかけを実行することができる。
In addition, the
With such a configuration, the call can be appropriately executed.
なお、本実施形態に係る制御部130は、本発明に係る在室者識別部の一形態である。
また、本実施形態に係る音データ取得部10によって取得される発話以外の音データ、データベース120に格納された呼びかけ音声データ、及び人検知部30から制御部130へ送信される人検知情報は、本発明に係る第一の情報の一形態である。
また、本実施形態に係る音データ取得部10によって取得される発話の音データ、及びデータベース120に格納された家族の個人別の音声サンプルは、本発明に係る第二の情報の一形態である。
The
Further, the sound data other than the utterance acquired by the sound
Further, the sound data of the utterance acquired by the sound
以上、本発明の一実施形態を説明したが、本発明は上記構成に限定されるものではなく、特許請求の範囲に記載された発明の範囲内で種々の変更が可能である。 Although one embodiment of the present invention has been described above, the present invention is not limited to the above-described configuration, and various modifications can be made within the scope of the invention described in the claims.
例えば、本実施形態においては、呼びかけ実行部20は、音声により在室者に呼びかけを行うものとしたが、呼びかけの形態はこれに限定されるものではなく、例えば文字情報を在室者に提示することによって呼びかけを行ってもよい。
For example, in the present embodiment, the calling
また、本実施形態においては、呼びかけ音声データは、データベース120に予め格納されたものとしたが、これに限定されるものではなく、例えば、利用者(母親)によって利用者端末40に入力されたテキストを音声化したものを出力するようにしてもよい。
Further, in the present embodiment, the call voice data is stored in the
また、本実施形態においては、呼びかけ実行部20は、音データ取得部10が発話以外の音データを取得した場合に呼びかけを行うものとしたが、発話の音声データを取得した場合にも呼びかけを行ってもよい。
In addition, in the present embodiment, the
また、本実施形態においては、個人識別システム1は住宅で用いられるものとしたが、これに限定されるものではなく、任意の建物(オフィス等)で用いることもできる。
Further, in the present embodiment, the
また、本実施形態においては、発話の音声データとデータベース120に格納された音声サンプルとを照合することによって、在室者を識別するものとしたが(ステップS70参照)、これに限定されるものではなく、発話のテキスト情報から在室者を識別してもよい。例えば、「太郎だよー。」との返答のテキスト情報から在室者を弟と特定することができる。 Further, in the present embodiment, the occupant is identified by collating the voice data of the utterance with the voice sample stored in the database 120 (see step S70), but the present invention is not limited to this. Instead, the occupant may be identified from the text information of the utterance. For example, the person present in the room can be identified as the younger brother based on the text information of the reply "Taro is it."
次に、図4を用いて、本発明の第二実施形態に係る個人識別システム2の構成の概要について説明する。
Next, the outline of the configuration of the
第二実施形態に係る個人識別システム2が、第一実施形態に係る個人識別システム1と異なる主な点は、音データ取得部10が複数のマイクロフォン11を有し、呼びかけ実行部20が複数のスピーカ21を有する点である。よって以下では、第二実施形態に係る個人識別システム2のうち第一実施形態に係る個人識別システム1と同一の構成については、同一の符号を付して説明を省略する。
The main difference between the
音データ取得部10は、2つのマイクロフォン11a・11bを有している。マイクロフォン11a・11bはそれぞれ、住宅の各部屋に設置される。第二実施形態においては、マイクロフォン11aはリビングに設置され、マイクロフォン11bは子供部屋に設置されている。
The sound
呼びかけ実行部20は、2つのスピーカ21a・21bを有している。スピーカ21a・21bはそれぞれ、住宅の各部屋に設置される。第二実施形態においては、スピーカ21aはリビングに設置され、スピーカ21bは子供部屋に設置されている。スピーカ21aは同じくリビングに設置されたマイクロフォン11aと対応しており、マイクロフォン11aが音データを取得した場合は、スピーカ21aによって呼びかけを行う構成としている。また、スピーカ21bは同じく子供部屋に設置されたマイクロフォン11bと対応しており、マイクロフォン11bが音データを取得した場合は、スピーカ21bによって呼びかけを行う構成としている。
The
制御部130は、リビングで何らかの音が発生したとき、マイクロフォン11aを介して取得された音データに基づいて呼びかけ実行部20に呼びかけを実行させる。ここでは、マイクロフォン11aには、リビング内の在室者の咳の音データが入力されたとする。制御部130は、マイクロフォン11aに入力された咳の音データに基づいて、スピーカ21aから呼びかけ音声データを出力する。
When some sound is generated in the living room, the
また、制御部130は、子供部屋で何らかの音が発生したとき、マイクロフォン11bを介して取得された音データに基づいて呼びかけ実行部20に呼びかけを実行させる。ここでは、マイクロフォン11bには、子供部屋内の在室者の咳の音データが入力されたとする。制御部130は、マイクロフォン11bに入力された咳の音データに基づいて、スピーカ21bから呼びかけ音声データを出力する。
Moreover, when some sound is generated in the child's room, the
このとき、呼びかけ実行部20は、スピーカ21aによって出力される呼びかけ音声データと、スピーカ21bによって出力される呼びかけ音声データとを、互いに異なるテキスト情報を有するものとすることができる。例えば、リビングに父親がいることが多く、子供部屋に子供がいることが多い場合は、スピーカ21aからは父親に向けた内容や口調とし、スピーカ21bからは子供に向けた内容や口調とすることができる。これにより、在室者に違和感を与えることなく呼びかけを行う可能性を高めることができるため、在室者に返答させ易くすることができる。
At this time, the
以上の如く、第二実施形態に係る個人識別システム2においては、前記音データ取得部10は、複数の部屋それぞれに設置されたマイクロフォン11(音データ取得装置)を含み、前記呼びかけ実行部20は、前記第一の情報に含まれる音データがどの部屋の前記マイクロフォン11で取得されたかに応じて、実行する前記呼びかけの内容を変化させるものである。
このように構成することにより、呼びかけの内容を在室者が違和感無く返答可能なものとすることができる。
As described above, in the
With this configuration, it is possible for the person in the room to reply to the content of the call without feeling uncomfortable.
なお、本実施形態に係るマイクロフォン11は、本発明に係る音データ取得装置の実施の一形態である。
The
以上、本発明の第二実施形態を説明したが、本発明は上記構成に限定されるものではなく、特許請求の範囲に記載された発明の範囲内で種々の変更が可能である。 Although the second embodiment of the present invention has been described above, the present invention is not limited to the above-described configuration, and various modifications can be made within the scope of the invention described in the claims.
例えば、第二実施形態においては、マイクロフォン11及びスピーカ21が配置される数はそれぞれ2つとしたが、3つ以上であってもよい。
For example, in the second embodiment, the numbers of the
次に、図5を用いて、本発明の第三実施形態に係る個人識別システム3の構成の概要について説明する。 Next, the outline of the configuration of the personal identification system 3 according to the third embodiment of the present invention will be described with reference to FIG.
第三実施形態に係る個人識別システム3が、第一実施形態に係る個人識別システム1と異なる主な点は、帰宅検知部50をさらに具備すると共に、サーバー100がスケジュール情報格納部150をさらに具備する点である。よって以下では、第三実施形態に係る個人識別システム3のうち第一実施形態に係る個人識別システム1と同一の構成については、同一の符号を付して説明を省略する。
The personal identification system 3 according to the third embodiment is different from the
帰宅検知部50は、家族が帰宅したことを検知するものである。帰宅検知部50は、玄関ドアの開錠や開閉を検知することで、家族が帰宅したことを検知する。帰宅検知部50としては、例えば電子鍵が用いられる。帰宅検知部50は、家族の帰宅を検知すると共に、使用される電子鍵のID等によって帰宅者を識別する。帰宅検知部50は、帰宅を検知した場合、帰宅を検知したこと及び帰宅者の識別結果を示す帰宅情報を生成する。
The return-
スケジュール情報格納部150は、家族のスケジュール情報を格納するものである。スケジュール情報格納部150は、利用者端末40の入力部40Bによって入力されたスケジュール情報を格納する。スケジュール情報には、帰宅の時間や家を出発する時間等が含まれる。スケジュール情報は、個人別に管理されている。
The schedule
次に、図6を参照して、個人識別システム3の制御について説明する。 Next, the control of the personal identification system 3 will be described with reference to FIG.
第三実施形態に係る個人識別システム3の制御が、第一実施形態に係る個人識別システム1の制御と異なる主な点は、ステップS11、ステップS12及びステップS61をさらに具備する点である。よって以下では、第三実施形態に係る個人識別システム3の制御のうち第一実施形態に係る個人識別システム1の制御と同一の処理については、同一の符号を付して説明を省略する。
The main difference between the control of the personal identification system 3 according to the third embodiment and the control of the
ステップS11において、制御部130は、スケジュール情報格納部150に格納された家族のスケジュール情報を取得する。制御部130は、この処理を行った後、ステップS12に移行する。
In step S11, the
ステップS12において、制御部130は、帰宅検知部50によって生成された帰宅情報を取得する。制御部130は、この処理を行った後、ステップS20に移行する。
In step S12, the
ステップS20からステップS60までは第一実施形態と同様である。ステップS60において返答があったと判定された場合(ステップS60で「YES」)、個人識別システム3は、ステップS61に進む。 Steps S20 to S60 are the same as in the first embodiment. When it is determined in step S60 that there is a response (“YES” in step S60), the personal identification system 3 proceeds to step S61.
ステップS61において、制御部130は、ステップS11で取得したスケジュール情報及びステップS12で取得した帰宅情報に基づいて、在室者を推定する。制御部130は、この処理を行った後、ステップS70に移行する。
In step S61, the
ステップS70において、制御部130は、予めデータベース120に記憶された家族の音声サンプルのうち、ステップS61で在室者と推定された者の音声サンプルを選択する。そして、制御部130は、音データ取得部10によって取得された発話(返答)の音声データと、選択した音声サンプルとを照合する。制御部130は、この処理を行った後、ステップS80に移行する。
In step S70, the
ステップS80からステップS90までは第一実施形態と同様である。識別結果の通知が完了すると、個人識別システム3の制御フローは終了する。 Steps S80 to S90 are the same as in the first embodiment. When the notification of the identification result is completed, the control flow of the personal identification system 3 ends.
このように、第三実施形態に係る個人識別システム3においては、スケジュール情報及び帰宅情報によって対象を絞りこんでから識別を行うので、識別の精度を向上させることができる。また、ステップS70における照合の対象を減らすことができるので、識別の処理を軽減することができる。 As described above, in the personal identification system 3 according to the third embodiment, the target is narrowed down based on the schedule information and the homecoming information, and then the identification is performed, so that the accuracy of the identification can be improved. Moreover, since the number of objects to be collated in step S70 can be reduced, the identification process can be reduced.
次に、図7を参照して、個人識別システム3の制御の別例について説明する。 Next, another example of control of the personal identification system 3 will be described with reference to FIG. 7.
ステップS10からステップS60までは図6に示す制御と同様である。ステップS60において返答があったと判定された場合(ステップS60で「YES」)、個人識別システム3は、ステップS70に進む。 Steps S10 to S60 are the same as the control shown in FIG. When it is determined in step S60 that there is a reply (“YES” in step S60), the personal identification system 3 proceeds to step S70.
ステップS70において、制御部130は、音データ取得部10によって取得された発話(返答)の音声データと、予めデータベース120に記憶された家族の音声サンプルとを照合する。制御部130は、この処理を行った後、ステップS80に移行する。
In step S70, the
ステップS80において、制御部130は、ステップS70の照合結果により在室者を識別する。制御部130は、ステップS70の照合結果が所定の基準(一致率)を満たす者を在室者と特定する。また、制御部130は、在室者が識別できたか否かを判定する。
In step S80, the
在室者を識別できた場合(ステップS80で「YES」)、個人識別システム3は、ステップS90に進む。一方、在室者を識別できなかった場合(ステップS80で「NO」)、個人識別システム3は、ステップS81に進む。 When the person in the room can be identified (“YES” in step S80), the personal identification system 3 proceeds to step S90. On the other hand, when the person present in the room cannot be identified (“NO” in step S80), the personal identification system 3 proceeds to step S81.
ステップS81において、制御部130は、ステップS11で取得したスケジュール情報及びステップS12で取得した帰宅情報に基づいて、在室者を推定する。制御部130は、この処理を行った後、ステップS82に移行する。
In step S81, the
ステップS82において、制御部130は、ステップS70の照合結果及びステップS81の推定結果に基づいて、在室者を識別する。具体的には、制御部130は、ステップS81で在室者と推定された者の中から、ステップS70の照合結果における一致率が最も高い者を在室者と特定する。制御部130は、この処理を行った後、ステップS90に移行する。
In step S82, the
ステップS90において、制御部130は、ステップS80の識別結果を利用者端末40に通知する。通知が完了すると、個人識別システム3の制御フローは終了する。
In step S90, the
このように第三実施形態の別例に係る個人識別システム3においては、音声データの照合では在室者を明確に特定することができない場合でも、在室者を識別することができる。 As described above, in the personal identification system 3 according to the another example of the third embodiment, even if the person present in the room cannot be clearly identified by collating the voice data, the person present in the room can be identified.
以上の如く、第三実施形態に係る個人識別システム3は、家族(識別対象者)のスケジュール情報を取得するスケジュール情報格納部150(スケジュール情報取得部)を具備し、前記第二の情報は、前記スケジュール情報に基づいて推定される前記在室者に関する情報を含むものである。
このように構成することにより、在室者の識別の精度を向上させることができる。
As described above, the personal identification system 3 according to the third embodiment includes the schedule information storage unit 150 (schedule information acquisition unit) that acquires schedule information of a family (person to be identified), and the second information is The information includes information about the occupants estimated based on the schedule information.
With this configuration, it is possible to improve the accuracy of identifying the person in the room.
また、第三実施形態に係る個人識別システム3は、家族(識別対象者)が帰宅(前記住宅内に進入)したことを示す帰宅情報(進入情報)を取得する帰宅検知部50(進入情報取得部)を具備し、前記第二の情報は、前記帰宅情報に基づいて推定される前記在室者に関する情報を含むものである。
このように構成することにより、在室者の識別の精度を向上させることができる。
Further, the personal identification system 3 according to the third embodiment is a return-home detection unit 50 (entry information acquisition) that obtains return-home information (entry information) indicating that a family (person to be identified) has returned home (entered into the house). Section), and the second information includes information about the occupant estimated based on the return-home information.
With this configuration, it is possible to improve the accuracy of identifying the person in the room.
なお、第三実施形態に係るスケジュール情報格納部150は、本発明に係るスケジュール情報取得部の一形態である。
また、第三実施形態に係るスケジュール情報及び帰宅情報は、本発明に係る第二の情報の一形態である。
The schedule
In addition, the schedule information and the return home information according to the third embodiment are one form of the second information according to the present invention.
以上、本発明の第三実施形態を説明したが、本発明は上記構成に限定されるものではなく、特許請求の範囲に記載された発明の範囲内で種々の変更が可能である。 Although the third embodiment of the present invention has been described above, the present invention is not limited to the above-described configuration, and various modifications can be made within the scope of the invention described in the claims.
例えば、第三実施形態においては、ステップS20において音データが取得できない場合には、再び当該ステップS10に処理を戻すものとしたが、ステップS11で取得したスケジュール情報及びステップS12で取得した帰宅情報に基づいて在室者を推定し、在室者と推定される者に関連する呼びかけを行うようにしてもよい。 For example, in the third embodiment, if the sound data cannot be acquired in step S20, the process is returned to step S10 again. It is also possible to presume the person present in the room based on this and make a call relating to the person presumed to be the person present in the room.
1,2,3 個人識別システム
10 音データ取得部
11 マイクロフォン
20 呼びかけ実行部
30 人検知部
50 帰宅検知部
130 制御部
150 スケジュール情報格納部
1, 2 and 3
Claims (5)
前記音データ取得部によって取得された音データを含む第一の情報に基づいて、在室者に対して呼びかけを実行する呼びかけ実行部と、
前記音データ取得部によって取得された、前記呼びかけに対する前記在室者の返答を示す音データを含む第二の情報に基づいて、前記在室者を識別する在室者識別部と、
を具備し、
前記呼びかけ実行部は、
前記第一の情報に含まれる音データの種類に応じて、実行する前記呼びかけの内容を変化させる、
個人識別システム。 A sound data acquisition unit that acquires sound data generated in the room of the building,
Based on the first information including the sound data acquired by the sound data acquisition unit, a call execution unit that executes a call to the person in the room,
Based on the second information acquired by the sound data acquisition unit, the second information including the sound data indicating the response of the occupant to the call, the occupant identification unit for identifying the occupant,
Equipped with,
The call execution unit,
Changing the content of the call to be executed according to the type of sound data included in the first information,
Personal identification system.
前記音データ取得部によって取得された音データを含む第一の情報に基づいて、在室者に対して呼びかけを実行する呼びかけ実行部と、
前記音データ取得部によって取得された、前記呼びかけに対する前記在室者の返答を示す音データを含む第二の情報に基づいて、前記在室者を識別する在室者識別部と、
を具備し、
前記音データ取得部は、
複数の部屋それぞれに設置された音データ取得装置を含み、
前記呼びかけ実行部は、
前記第一の情報に含まれる音データがどの部屋の前記音データ取得装置で取得されたかに応じて、実行する前記呼びかけの内容を変化させる、
個人識別システム。 A sound data acquisition unit that acquires sound data generated in the room of the building,
Based on the first information including the sound data acquired by the sound data acquisition unit, a call execution unit that executes a call to the person in the room,
Based on the second information acquired by the sound data acquisition unit, the second information including the sound data indicating the response of the occupant to the call, the occupant identification unit for identifying the occupant,
Equipped with,
The sound data acquisition unit,
Including sound data acquisition device installed in each of multiple rooms,
The call execution unit,
Changing the content of the call to be executed according to which room the sound data acquisition device has acquired the sound data included in the first information;
Personal identification system.
前記音データ取得部によって取得された音データを含む第一の情報に基づいて、在室者に対して呼びかけを実行する呼びかけ実行部と、
前記音データ取得部によって取得された、前記呼びかけに対する前記在室者の返答を示す音データを含む第二の情報に基づいて、前記在室者を識別する在室者識別部と、
識別対象者のスケジュール情報を取得するスケジュール情報取得部と、
を具備し、
前記第二の情報は、
前記スケジュール情報に基づいて推定される前記在室者に関する情報を含む、
個人識別システム。 A sound data acquisition unit that acquires sound data generated in the room of the building,
Based on the first information including the sound data acquired by the sound data acquisition unit, a call execution unit that executes a call to the person in the room,
Based on the second information acquired by the sound data acquisition unit, the second information including the sound data indicating the response of the occupant to the call, the occupant identification unit for identifying the occupant,
A schedule information acquisition unit that acquires schedule information of the identification target person,
Equipped with,
The second information is
Including information about the occupant estimated based on the schedule information,
Personal identification system.
前記音データ取得部によって取得された音データを含む第一の情報に基づいて、在室者に対して呼びかけを実行する呼びかけ実行部と、
前記音データ取得部によって取得された、前記呼びかけに対する前記在室者の返答を示す音データを含む第二の情報に基づいて、前記在室者を識別する在室者識別部と、
識別対象者が前記建物内に進入したことを示す進入情報を取得する進入情報取得部と、
を具備し、
前記第二の情報は、
前記進入情報に基づいて推定される前記在室者に関する情報を含む、
個人識別システム。 A sound data acquisition unit that acquires sound data generated in the room of the building,
Based on the first information including the sound data acquired by the sound data acquisition unit, a call execution unit that executes a call to the person in the room,
Based on the second information acquired by the sound data acquisition unit, the second information including the sound data indicating the response of the occupant to the call, the occupant identification unit for identifying the occupant,
An entry information acquisition unit that acquires entry information indicating that the identification target person has entered the building,
Equipped with,
The second information is
Including information about the occupant estimated based on the entry information,
Personal identification system.
前記第一の情報は、
前記人検知部による検知結果に関する情報を含む、
請求項1から請求項4までのいずれか一項に記載の個人識別システム。 A person detection unit for detecting the presence of a person in the room,
The first information is
Including information about the detection result by the human detection unit,
The personal identification system according to any one of claims 1 to 4.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016183757A JP6748535B2 (en) | 2016-09-21 | 2016-09-21 | Personal identification system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016183757A JP6748535B2 (en) | 2016-09-21 | 2016-09-21 | Personal identification system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018049098A JP2018049098A (en) | 2018-03-29 |
JP6748535B2 true JP6748535B2 (en) | 2020-09-02 |
Family
ID=61767499
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016183757A Active JP6748535B2 (en) | 2016-09-21 | 2016-09-21 | Personal identification system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6748535B2 (en) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5936319B2 (en) * | 1975-09-16 | 1984-09-03 | 名古屋電機工業 (株) | security system |
JPS63226800A (en) * | 1987-03-16 | 1988-09-21 | シャープ株式会社 | Installation apparatus |
JP2002027575A (en) * | 1998-04-28 | 2002-01-25 | Masanobu Kujirada | Security device including stuffed toy |
JP4169955B2 (en) * | 2001-08-09 | 2008-10-22 | 富士通株式会社 | Safety confirmation device and safety confirmation method |
JP2016032501A (en) * | 2014-07-31 | 2016-03-10 | 株式会社コンテック | Nursing and care support device, and nursing and care support method |
-
2016
- 2016-09-21 JP JP2016183757A patent/JP6748535B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018049098A (en) | 2018-03-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101726945B1 (en) | Reducing the need for manual start/end-pointing and trigger phrases | |
US20230141659A1 (en) | Response endpoint selection | |
KR102314096B1 (en) | Intercom-style communication using multiple computing devices | |
US9691199B1 (en) | Remote access control | |
US10447864B1 (en) | Remote access control | |
CN112313741A (en) | Selective registration with an automated assistant | |
KR20160014297A (en) | electronic device and control method thereof | |
WO2017141530A1 (en) | Information processing device, information processing method and program | |
JP2008242318A (en) | Apparatus, method and program detecting interaction | |
US11862153B1 (en) | System for recognizing and responding to environmental noises | |
US20160328949A1 (en) | Method for an Automated Distress Alert System with Speech Recognition | |
US20220131979A1 (en) | Methods and systems for automatic queuing in conference calls | |
CN102984589A (en) | Verbally communicating facially responsive television apparatus | |
JP2018174439A (en) | Conference support system, conference support method, program of conference support apparatus, and program of terminal | |
US11340565B2 (en) | Information processing apparatus, information processing method, and program | |
US20210225363A1 (en) | Information processing device and information processing method | |
US10810973B2 (en) | Information processing device and information processing method | |
JPWO2017175442A1 (en) | Information processing apparatus and information processing method | |
JP6748535B2 (en) | Personal identification system | |
WO2020021861A1 (en) | Information processing device, information processing system, information processing method, and information processing program | |
KR20210057367A (en) | Apparatus for Processing Data between Neighbors based on Artificial Intelligence and Method for Processing Data between Neighbors Using the Same | |
JP2008249893A (en) | Speech response device and its method | |
US20220217442A1 (en) | Method and device to generate suggested actions based on passive audio | |
US20230178075A1 (en) | Methods and devices for preventing a sound activated response | |
WO2020017165A1 (en) | Information processing device, information processing system, information processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190829 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200423 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200526 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200709 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200721 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200807 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6748535 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |