JP2018049098A - 個人識別システム - Google Patents

個人識別システム Download PDF

Info

Publication number
JP2018049098A
JP2018049098A JP2016183757A JP2016183757A JP2018049098A JP 2018049098 A JP2018049098 A JP 2018049098A JP 2016183757 A JP2016183757 A JP 2016183757A JP 2016183757 A JP2016183757 A JP 2016183757A JP 2018049098 A JP2018049098 A JP 2018049098A
Authority
JP
Japan
Prior art keywords
sound data
call
information
identification system
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016183757A
Other languages
English (en)
Other versions
JP6748535B2 (ja
Inventor
星司 小畠
Seiji Kobatake
星司 小畠
井上 博之
Hiroyuki Inoue
博之 井上
昌太 高田
Shota Takada
昌太 高田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daiwa House Industry Co Ltd
Original Assignee
Daiwa House Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daiwa House Industry Co Ltd filed Critical Daiwa House Industry Co Ltd
Priority to JP2016183757A priority Critical patent/JP6748535B2/ja
Publication of JP2018049098A publication Critical patent/JP2018049098A/ja
Application granted granted Critical
Publication of JP6748535B2 publication Critical patent/JP6748535B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Telephonic Communication Services (AREA)

Abstract

【課題】発話を促すことにより個人を識別し易くすることができる個人識別システムを提供する。【解決手段】住宅の部屋内において発生する音データを取得する音データ取得部10と、音データ取得部10によって取得された音データを含む第一の情報に基づいて、在室者に対して呼びかけを実行する呼びかけ実行部20と、音データ取得部10によって取得された、前記呼びかけに対する前記在室者の返答を示す音データを含む第二の情報に基づいて、前記在室者を識別する制御部130と、を具備する。【選択図】図1

Description

本発明は、在室者を識別する個人識別システムの技術に関する。
従来、在室者を識別する個人識別システムの技術は公知となっている。例えば、特許文献1に記載の如くである。
特許文献1には、住人の生活支援を行うための宅内システムが記載されている。当該宅内システムにおいては、現在発話している住人を音声認識により特定し、特定された住人に適合した対話を当該住人に提示するように構成されている。
しかしながら、特許文献1に記載の技術においては、一人で留守番をしている場合や、複数人いても会話がない場合等、発話が生じない場合には個人を識別することができないという問題があった。
特開2006−276283号公報
本発明は以上の如き状況に鑑みてなされたものであり、その解決しようとする課題は、発話を促すことにより個人を識別し易くすることができる個人識別システムを提供するものである。
本発明の解決しようとする課題は以上の如くであり、次にこの課題を解決するための手段を説明する。
即ち、請求項1においては、建物の部屋内において発生する音データを取得する音データ取得部と、前記音データ取得部によって取得された音データを含む第一の情報に基づいて、在室者に対して呼びかけを実行する呼びかけ実行部と、前記音データ取得部によって取得された、前記呼びかけに対する前記在室者の返答を示す音データを含む第二の情報に基づいて、前記在室者を識別する在室者識別部と、を具備するものである。
請求項2においては、前記呼びかけ実行部は、前記第一の情報に含まれる音データの種類に応じて、実行する前記呼びかけの内容を変化させるものである。
請求項3においては、前記音データ取得部は、複数の部屋それぞれに設置された音データ取得装置を含み、前記呼びかけ実行部は、前記第一の情報に含まれる音データがどの部屋の前記音データ取得装置で取得されたかに応じて、実行する前記呼びかけの内容を変化させるものである。
請求項4においては、前記部屋内に人がいることを検知する人検知部を具備し、前記第一の情報は、前記人検知部による検知結果に関する情報を含むものである。
請求項5においては、識別対象者のスケジュール情報を取得するスケジュール情報取得部を具備し、前記第二の情報は、前記スケジュール情報に基づいて推定される前記在室者に関する情報を含むものである。
請求項6においては、識別対象者が前記建物内に進入したことを示す進入情報を取得する進入情報取得部を具備し、前記第二の情報は、前記進入情報に基づいて推定される前記在室者に関する情報を含むものである。
本発明の効果として、以下に示すような効果を奏する。
請求項1においては、呼びかけによって発話を促すことができ、これにより個人を識別し易くすることができる。
請求項2においては、呼びかけの内容を在室者が違和感無く返答可能なものとすることができる。
請求項3においては、呼びかけの内容を在室者が違和感無く返答可能なものとすることができる。
請求項4においては、適切に呼びかけを実行することができる。
請求項5においては、在室者の識別の精度を向上させることができる。
請求項6においては、在室者の識別の精度を向上させることができる。
本発明の一実施形態に係る個人識別システムの構成を示す図。 本発明の一実施形態に係る個人識別システムの制御に関するフローチャート。 呼びかけ及び呼びかけに対する返答の例を示す図。 本発明の第二実施形態に係る個人識別システムの構成を示す図。 本発明の第三実施形態に係る個人識別システムの構成を示す図。 本発明の第三実施形態に係る個人識別システムの制御に関するフローチャート。 本発明の第三実施形態に係る個人識別システムの制御の別例に関するフローチャート。
まず、図1を用いて、本発明の一実施形態に係る個人識別システム1の構成の概要について説明する。
個人識別システム1は、住宅等の建物の部屋内(室内)に人がいる場合に、この在室者を識別するものである。本実施形態において、個人識別システム1は、子供のいる家庭において用いられ、住宅の部屋(例えばリビング)内に人がいる場合に、この在室者が家族のうちの誰であるのかを判定する。個人識別システム1は、音データ取得部10、呼びかけ実行部20、人検知部30、利用者端末40及びサーバー100を具備する。
音データ取得部10は、室内において発生する音データを取得するものである。音データ取得部10は、例えば、在室者によってなされた発話(会話や独り言等)の音声データを取得する。また、音データ取得部10は、例えば、在室者の足音、咳、いびき、笑い声の音データを取得する。また、音データ取得部10は、例えば、音楽、テレビ、テレビゲーム、携帯ゲームの音データを取得する。音データ取得部10はマイクロフォン11を有しており、当該マイクロフォン11を介して、音データ取得部10に室内の音データが入力される。マイクロフォン11は、室内の音を取得し易い任意の位置に設置され、例えば天井に設置される。
呼びかけ実行部20は、音声によって呼びかけを実行するものである。ここで、「呼びかけ」とは、在室者に対して音声データを提供することであって、当該音声データが在室者から何らかの返答が期待できるような内容のものをいう。呼びかけ実行部20はスピーカ21を有しており、当該スピーカ21を介して、呼びかけを行うための音声データ(以下、「呼びかけ音声データ」という)が出力される。スピーカ21は、呼びかけが在室者に聞こえ易い任意の位置に設置され、例えばテレビ台の上に設置される。在室者に対して呼びかけが行われることにより、在室者に発話を促すことができる。
人検知部30は、室内に人がいることを検知するものである。人検知部30としては、例えば人感センサや振動センサが用いられる。また、人検知部30は、室内にある設備機器のスイッチのオン/オフによって、室内に人がいることを検知するものであってもよい。また、人検知部30は、電力データ(電力の消費量)によって、室内に人がいることを検知するものであってもよい。この電力データは、例えばHEMS(Home Energy Management System)を利用して確認することができる。人検知部30は、室内に人がいることを検知した場合、その旨を示す人検知情報を後述する制御部130に送信する。
利用者端末40は、個人識別システム1の利用者(識別結果を利用する者)が使用する端末である。利用者端末40としては、データを送受信可能な端末が用いられ、例えばパーソナルコンピュータや高機能携帯電話端末が用いられる。利用者端末40には、表示部40A及び入力部40Bが備えられる。
表示部40Aは、画像や文字などから構成される表示データを表示する部分である。表示部40Aとしては、例えば液晶ディスプレイが用いられる。表示部40Aには、例えば在室者の識別結果が表示される。入力部40Bは、利用者が操作を行う部分である。入力部40Bとしては、例えばキーボードやタッチパネルが用いられる。利用者が入力部40Bを操作することにより、利用者端末40にデータ(家族のスケジュール情報等)が入力される。
サーバー100は、データの格納や分析等を行うものである。サーバー100は、音データ格納部110、データベース120、制御部130及び通知部140を具備する。
音データ格納部110は、音データ取得部10によって取得された音データを格納するものである。
データベース120は、各種データを格納するものである。具体的には、データベース120には、家族の個人別の音声サンプルが予め格納されている。当該音声サンプルは、後述する制御部130によって在室者を識別するために用いられる。また、データベース120には、呼びかけ実行部20によって出力される呼びかけ音声データが予め格納されている。呼びかけ音声データは、予め録音されたもの(例えば母親の音声によるもの)であってもよいし、合成音声によるものであってもよい。データベース120には、複数の呼びかけ音声データが格納されており、各呼びかけ音声データはそれぞれテキスト情報(文章の内容)が異なっている。また、後述するように、各呼びかけ音声データは、音データ取得部10によって取得された音データの種類によって区分されている。
制御部130は、サーバー100の制御を行うものである。制御部130は、個人識別システム1において、特に2つの役割を担っている。一つは、呼びかけ実行部20に在室者への呼びかけを実行させることである。もう一つは、在室者を識別することである。制御部130は、室内において何らかの音が発生したとき(音データ取得部10が室内において発生した音データを取得したとき)、この音データに基づいて呼びかけ実行部20に呼びかけを実行させる。また、制御部130は、音声認識機能を有しており、音データ取得部10によって取得された在室者による発話の音声データと、予めデータベース120に記憶された家族の音声サンプルとを照合することで、在室者を識別する。
通知部140は、制御部130による在室者の識別結果を、利用者端末40に通知するものである。通知部140は、制御部130による制御によって通知を実行する。
以下、図2を参照して、個人識別システム1の制御について説明する。なお、本実施形態及び後述する第二実施形態及び第三実施形態においては、父親、母親及び2人の子供(姉の花子と弟の太郎)から構成される家庭を想定し、このうち母親が個人識別システム1の利用者(在室者の識別結果を利用する者)であるものとして説明を行う。
ステップS10において、制御部130は、人検知部30によって室内に人がいることが検知されたか否かを判定する。制御部130は、人検知部30から人が検知されたことを示す人検知情報を受信しているか否かによってこの判定を行う。
室内に人がいることが検知されていないと判定された場合(ステップS10で「NO」)、個人識別システム1は、最初のステップ(当該ステップS10)に処理を戻す。一方、室内に人がいることが検知されたと判定された場合(ステップS10で「YES」)、個人識別システム1は、ステップS20に進む。
ステップS20において、制御部130は、音データ取得部10が室内において発生した音データを取得したか否かを判定する。制御部130は、音データ格納部110に新たな音データ(取得したとの判定が未だなされていない音データ)が格納されているか否かによってこの判定を行う。
音データが取得されていないと判定された場合(ステップS20で「NO」)、個人識別システム1は、最初のステップ(ステップS10)に処理を戻す。一方、音データが取得されたと判定された場合(ステップS20で「YES」)、個人識別システム1は、ステップS30に進む。
ステップS30において、制御部130は、音データ取得部10によって取得された音データが発話によるものであるか否かを判定する。制御部130は、音声認識機能によりこの判定を行う。
発話によるものであると判定された場合(ステップS30で「YES」)、個人識別システム1は、ステップS70に進む。一方、発話によるものでないと判定された場合(ステップS30で「NO」)、個人識別システム1は、ステップS40に進む。
ステップS40において、制御部130は、音データ取得部10によって取得された音データの種類を判定する。具体的には、制御部130は、取得された音データが何によるものであるのか(例えば在室者の咳によるものであるのか、テレビの音によるものであるのか)の判定を行う。制御部130は、音声認識機能によりこの判定を行う。制御部130は、この処理を行った後、ステップS50に移行する。
ステップS50において、制御部130は、呼びかけ実行部20によって呼びかけを実行させる。具体的には、制御部130は、データベース120を参照し、ステップS40において判定した音データの種類に対応する呼びかけ音声データを選択する。そして、制御部130は、選択した呼びかけ音声データを、呼びかけ実行部20を介して出力させる。これにより、在室者に対して呼びかけが行われる。
ここで、図3を参照して、呼びかけの具体的な内容について説明する。ここでは、リビングに音データ取得部10(マイクロフォン11)及び呼びかけ実行部20(スピーカ21)が設置されているとして説明を行う。
音データ取得部10によって取得された音データが発話以外の音データであった場合、在室者を識別するのは困難である。ここで、取得された音データが在室者の足音であった場合、呼びかけ実行部20は、音声により「リビングで何してるのー?」、「お姉ちゃん?お兄ちゃん?」等の呼びかけを行う。また、取得された音データがテレビの音であった場合、呼びかけ実行部20は、音声により「何のテレビ番組見てるの?」等の呼びかけを行う。また、呼びかけ実行部20は、取得された音データが、在室者の咳、いびき、笑い声や、音楽、ゲームの音等であった場合、図3に示すように、各音データに関連した呼びかけを行う。呼びかけの内容は定型のものだけではなく、音データ格納部110に蓄積された過去の音データに基づいた内容としてもよい。例えば、制御部130は、音データ格納部110に蓄積された過去の音データからある音楽の再生回数を算出し、音データ取得部10が新たにこの音楽の音データを取得した場合には、算出した再生回数に基づいて「最近この曲よく聴いてるね。お気に入り?」等の呼びかけとすることができる。
なお、音データ取得部10によって取得された音データが在室者による発話の音声データであった場合、当該音声データに基づいて在室者を識別することができるので、呼びかけは不要である(ステップS30及び後述するステップS70参照)。在室者が独り言を言った場合(例えば、図3に示すようにテレビにツッコミを入れた場合)には、この独り言の音声データによって在室者を識別することができる(後述するステップS70参照)。
再び図2を参照する。制御部130は、この処理(ステップS50)を行った後、ステップS60に移行する。
ステップS60において、制御部130は、ステップS50で行った呼びかけに対して在室者から返答があったか否かを判定する。制御部130は、音データ格納部110に新たな発話による音声データが格納されているか否かによってこの判定を行う。
ここで、再び図3を参照する。在室者は、呼びかけ実行部20による呼びかけに対して、何らかの返答をすることが期待される。例えば、在室者は、「リビングで何してるのー?」、「お姉ちゃん?お兄ちゃん?」との呼びかけに対して、「冷蔵庫の飲み物取りに来たー。」、「太郎だよー。」等の返答を行う。また、在室者は、「何のテレビ番組見てるの?」との呼びかけに対して、「○○っていうアニメ」等の返答を行う。その他、在室者は、ステップS50でなされた呼びかけに対して、図3に示すような返答を行う。
再び図2を参照する。返答があったと判定された場合(ステップS60で「YES」)、個人識別システム1は、ステップS70に進む。一方、返答がなかったと判定された場合(ステップS60で「NO」)、個人識別システム1は、最初のステップ(ステップS10)に戻る。
ステップS70において、制御部130は、音データ取得部10によって取得された発話(返答)の音声データと、予めデータベース120に記憶された家族の音声サンプルとを照合する。そして、制御部130は、ステップS70の照合結果により在室者を識別する。制御部130は、ステップS70の照合結果が所定の基準(一致率)を満たす者を在室者と特定する。制御部130は、この処理を行った後、ステップS80に移行する。
ステップS80において、制御部130は、在室者が識別できたか否かを判定する。
在室者を識別できた場合(ステップS80で「YES」)、個人識別システム1は、ステップS90に進む。一方、在室者を識別できなかった場合(ステップS80で「NO」)、個人識別システム1は、最初のステップ(ステップS10)に戻る。
ステップS90において、制御部130は、ステップS80の識別結果を利用者端末40に通知する。識別結果は、利用者端末40の表示部40Aに表示される。これにより、利用者は、部屋(リビング)に誰がいるのかを知ることができる。通知が完了すると、個人識別システム1の制御フローは終了する。
このように、本実施形態に係る個人識別システム1においては、子供が一人で留守番をしているとき等、在室者がいるにもかかわらず発話がない場合に、呼びかけ実行部20によって、室内で発生した何らかの音に基づいて在室者に対して呼びかけを行う。在室者がこの呼びかけに対して返答することにより、当該返答の音声データに基づいて在室者を識別することができる。すなわち、呼びかけによって発話を促すことができるので、自発的な発話がない場合でも、在室者を識別することができる。
また、呼びかけ実行部20は、音データ取得部10によって音データが取得された場合、音データの種類に対応した呼びかけを行う。例えば、在室者が咳をした場合には、呼びかけ実行部20は、「咳込んでたけど、調子悪いの?」等の咳と関連する内容の呼びかけを行う。このように、在室者の現在の状況に応じた呼びかけがなされるので、在室者に違和感を与えることがない。このため、在室者に返答させ易くすることができる。
また、本実施形態に係る個人識別システム1においては、人検知部30によって室内に人がいることが検知された場合に呼びかけを行うので、在室者がいない状況で室内において音が発生したとき(例えば、電話がなったとき)に無駄に呼びかけを行ってしまうのを回避することができる。
以上の如く、本実施形態に係る個人識別システム1は、住宅(建物)の部屋内において発生する音データを取得する音データ取得部10と、前記音データ取得部10によって取得された音データを含む第一の情報に基づいて、在室者に対して呼びかけを実行する呼びかけ実行部20と、前記音データ取得部10によって取得された、前記呼びかけに対する前記在室者の返答を示す音データを含む第二の情報に基づいて、前記在室者を識別する制御部130(在室者識別部)と、を具備するものである。
このように構成することにより、呼びかけによって発話を促すことができ、これにより個人を識別し易くすることができる。
また、前記呼びかけ実行部20は、前記第一の情報に含まれる音データの種類に応じて、実行する前記呼びかけの内容を変化させるものである。
このように構成することにより、呼びかけの内容を在室者が違和感無く返答可能なものとすることができる。
また、本実施形態に係る個人識別システム1は、前記部屋内に人がいることを検知する人検知部30を具備し、前記第一の情報は、前記人検知部30による検知結果に関する情報を含むものである。
このように構成することにより、適切に呼びかけを実行することができる。
なお、本実施形態に係る制御部130は、本発明に係る在室者識別部の一形態である。
また、本実施形態に係る音データ取得部10によって取得される発話以外の音データ、データベース120に格納された呼びかけ音声データ、及び人検知部30から制御部130へ送信される人検知情報は、本発明に係る第一の情報の一形態である。
また、本実施形態に係る音データ取得部10によって取得される発話の音データ、及びデータベース120に格納された家族の個人別の音声サンプルは、本発明に係る第二の情報の一形態である。
以上、本発明の一実施形態を説明したが、本発明は上記構成に限定されるものではなく、特許請求の範囲に記載された発明の範囲内で種々の変更が可能である。
例えば、本実施形態においては、呼びかけ実行部20は、音声により在室者に呼びかけを行うものとしたが、呼びかけの形態はこれに限定されるものではなく、例えば文字情報を在室者に提示することによって呼びかけを行ってもよい。
また、本実施形態においては、呼びかけ音声データは、データベース120に予め格納されたものとしたが、これに限定されるものではなく、例えば、利用者(母親)によって利用者端末40に入力されたテキストを音声化したものを出力するようにしてもよい。
また、本実施形態においては、呼びかけ実行部20は、音データ取得部10が発話以外の音データを取得した場合に呼びかけを行うものとしたが、発話の音声データを取得した場合にも呼びかけを行ってもよい。
また、本実施形態においては、個人識別システム1は住宅で用いられるものとしたが、これに限定されるものではなく、任意の建物(オフィス等)で用いることもできる。
また、本実施形態においては、発話の音声データとデータベース120に格納された音声サンプルとを照合することによって、在室者を識別するものとしたが(ステップS70参照)、これに限定されるものではなく、発話のテキスト情報から在室者を識別してもよい。例えば、「太郎だよー。」との返答のテキスト情報から在室者を弟と特定することができる。
次に、図4を用いて、本発明の第二実施形態に係る個人識別システム2の構成の概要について説明する。
第二実施形態に係る個人識別システム2が、第一実施形態に係る個人識別システム1と異なる主な点は、音データ取得部10が複数のマイクロフォン11を有し、呼びかけ実行部20が複数のスピーカ21を有する点である。よって以下では、第二実施形態に係る個人識別システム2のうち第一実施形態に係る個人識別システム1と同一の構成については、同一の符号を付して説明を省略する。
音データ取得部10は、2つのマイクロフォン11a・11bを有している。マイクロフォン11a・11bはそれぞれ、住宅の各部屋に設置される。第二実施形態においては、マイクロフォン11aはリビングに設置され、マイクロフォン11bは子供部屋に設置されている。
呼びかけ実行部20は、2つのスピーカ21a・21bを有している。スピーカ21a・21bはそれぞれ、住宅の各部屋に設置される。第二実施形態においては、スピーカ21aはリビングに設置され、スピーカ21bは子供部屋に設置されている。スピーカ21aは同じくリビングに設置されたマイクロフォン11aと対応しており、マイクロフォン11aが音データを取得した場合は、スピーカ21aによって呼びかけを行う構成としている。また、スピーカ21bは同じく子供部屋に設置されたマイクロフォン11bと対応しており、マイクロフォン11bが音データを取得した場合は、スピーカ21bによって呼びかけを行う構成としている。
制御部130は、リビングで何らかの音が発生したとき、マイクロフォン11aを介して取得された音データに基づいて呼びかけ実行部20に呼びかけを実行させる。ここでは、マイクロフォン11aには、リビング内の在室者の咳の音データが入力されたとする。制御部130は、マイクロフォン11aに入力された咳の音データに基づいて、スピーカ21aから呼びかけ音声データを出力する。
また、制御部130は、子供部屋で何らかの音が発生したとき、マイクロフォン11bを介して取得された音データに基づいて呼びかけ実行部20に呼びかけを実行させる。ここでは、マイクロフォン11bには、子供部屋内の在室者の咳の音データが入力されたとする。制御部130は、マイクロフォン11bに入力された咳の音データに基づいて、スピーカ21bから呼びかけ音声データを出力する。
このとき、呼びかけ実行部20は、スピーカ21aによって出力される呼びかけ音声データと、スピーカ21bによって出力される呼びかけ音声データとを、互いに異なるテキスト情報を有するものとすることができる。例えば、リビングに父親がいることが多く、子供部屋に子供がいることが多い場合は、スピーカ21aからは父親に向けた内容や口調とし、スピーカ21bからは子供に向けた内容や口調とすることができる。これにより、在室者に違和感を与えることなく呼びかけを行う可能性を高めることができるため、在室者に返答させ易くすることができる。
以上の如く、第二実施形態に係る個人識別システム2においては、前記音データ取得部10は、複数の部屋それぞれに設置されたマイクロフォン11(音データ取得装置)を含み、前記呼びかけ実行部20は、前記第一の情報に含まれる音データがどの部屋の前記マイクロフォン11で取得されたかに応じて、実行する前記呼びかけの内容を変化させるものである。
このように構成することにより、呼びかけの内容を在室者が違和感無く返答可能なものとすることができる。
なお、本実施形態に係るマイクロフォン11は、本発明に係る音データ取得装置の実施の一形態である。
以上、本発明の第二実施形態を説明したが、本発明は上記構成に限定されるものではなく、特許請求の範囲に記載された発明の範囲内で種々の変更が可能である。
例えば、第二実施形態においては、マイクロフォン11及びスピーカ21が配置される数はそれぞれ2つとしたが、3つ以上であってもよい。
次に、図5を用いて、本発明の第三実施形態に係る個人識別システム3の構成の概要について説明する。
第三実施形態に係る個人識別システム3が、第一実施形態に係る個人識別システム1と異なる主な点は、帰宅検知部50をさらに具備すると共に、サーバー100がスケジュール情報格納部150をさらに具備する点である。よって以下では、第三実施形態に係る個人識別システム3のうち第一実施形態に係る個人識別システム1と同一の構成については、同一の符号を付して説明を省略する。
帰宅検知部50は、家族が帰宅したことを検知するものである。帰宅検知部50は、玄関ドアの開錠や開閉を検知することで、家族が帰宅したことを検知する。帰宅検知部50としては、例えば電子鍵が用いられる。帰宅検知部50は、家族の帰宅を検知すると共に、使用される電子鍵のID等によって帰宅者を識別する。帰宅検知部50は、帰宅を検知した場合、帰宅を検知したこと及び帰宅者の識別結果を示す帰宅情報を生成する。
スケジュール情報格納部150は、家族のスケジュール情報を格納するものである。スケジュール情報格納部150は、利用者端末40の入力部40Bによって入力されたスケジュール情報を格納する。スケジュール情報には、帰宅の時間や家を出発する時間等が含まれる。スケジュール情報は、個人別に管理されている。
次に、図6を参照して、個人識別システム3の制御について説明する。
第三実施形態に係る個人識別システム3の制御が、第一実施形態に係る個人識別システム1の制御と異なる主な点は、ステップS11、ステップS12及びステップS61をさらに具備する点である。よって以下では、第三実施形態に係る個人識別システム3の制御のうち第一実施形態に係る個人識別システム1の制御と同一の処理については、同一の符号を付して説明を省略する。
ステップS11において、制御部130は、スケジュール情報格納部150に格納された家族のスケジュール情報を取得する。制御部130は、この処理を行った後、ステップS12に移行する。
ステップS12において、制御部130は、帰宅検知部50によって生成された帰宅情報を取得する。制御部130は、この処理を行った後、ステップS20に移行する。
ステップS20からステップS60までは第一実施形態と同様である。ステップS60において返答があったと判定された場合(ステップS60で「YES」)、個人識別システム3は、ステップS61に進む。
ステップS61において、制御部130は、ステップS11で取得したスケジュール情報及びステップS12で取得した帰宅情報に基づいて、在室者を推定する。制御部130は、この処理を行った後、ステップS70に移行する。
ステップS70において、制御部130は、予めデータベース120に記憶された家族の音声サンプルのうち、ステップS61で在室者と推定された者の音声サンプルを選択する。そして、制御部130は、音データ取得部10によって取得された発話(返答)の音声データと、選択した音声サンプルとを照合する。制御部130は、この処理を行った後、ステップS80に移行する。
ステップS80からステップS90までは第一実施形態と同様である。識別結果の通知が完了すると、個人識別システム3の制御フローは終了する。
このように、第三実施形態に係る個人識別システム3においては、スケジュール情報及び帰宅情報によって対象を絞りこんでから識別を行うので、識別の精度を向上させることができる。また、ステップS70における照合の対象を減らすことができるので、識別の処理を軽減することができる。
次に、図7を参照して、個人識別システム3の制御の別例について説明する。
ステップS10からステップS60までは図6に示す制御と同様である。ステップS60において返答があったと判定された場合(ステップS60で「YES」)、個人識別システム3は、ステップS70に進む。
ステップS70において、制御部130は、音データ取得部10によって取得された発話(返答)の音声データと、予めデータベース120に記憶された家族の音声サンプルとを照合する。制御部130は、この処理を行った後、ステップS80に移行する。
ステップS80において、制御部130は、ステップS70の照合結果により在室者を識別する。制御部130は、ステップS70の照合結果が所定の基準(一致率)を満たす者を在室者と特定する。また、制御部130は、在室者が識別できたか否かを判定する。
在室者を識別できた場合(ステップS80で「YES」)、個人識別システム3は、ステップS90に進む。一方、在室者を識別できなかった場合(ステップS80で「NO」)、個人識別システム3は、ステップS81に進む。
ステップS81において、制御部130は、ステップS11で取得したスケジュール情報及びステップS12で取得した帰宅情報に基づいて、在室者を推定する。制御部130は、この処理を行った後、ステップS82に移行する。
ステップS82において、制御部130は、ステップS70の照合結果及びステップS81の推定結果に基づいて、在室者を識別する。具体的には、制御部130は、ステップS81で在室者と推定された者の中から、ステップS70の照合結果における一致率が最も高い者を在室者と特定する。制御部130は、この処理を行った後、ステップS90に移行する。
ステップS90において、制御部130は、ステップS80の識別結果を利用者端末40に通知する。通知が完了すると、個人識別システム3の制御フローは終了する。
このように第三実施形態の別例に係る個人識別システム3においては、音声データの照合では在室者を明確に特定することができない場合でも、在室者を識別することができる。
以上の如く、第三実施形態に係る個人識別システム3は、家族(識別対象者)のスケジュール情報を取得するスケジュール情報格納部150(スケジュール情報取得部)を具備し、前記第二の情報は、前記スケジュール情報に基づいて推定される前記在室者に関する情報を含むものである。
このように構成することにより、在室者の識別の精度を向上させることができる。
また、第三実施形態に係る個人識別システム3は、家族(識別対象者)が帰宅(前記住宅内に進入)したことを示す帰宅情報(進入情報)を取得する帰宅検知部50(進入情報取得部)を具備し、前記第二の情報は、前記帰宅情報に基づいて推定される前記在室者に関する情報を含むものである。
このように構成することにより、在室者の識別の精度を向上させることができる。
なお、第三実施形態に係るスケジュール情報格納部150は、本発明に係るスケジュール情報取得部の一形態である。
また、第三実施形態に係るスケジュール情報及び帰宅情報は、本発明に係る第二の情報の一形態である。
以上、本発明の第三実施形態を説明したが、本発明は上記構成に限定されるものではなく、特許請求の範囲に記載された発明の範囲内で種々の変更が可能である。
例えば、第三実施形態においては、ステップS20において音データが取得できない場合には、再び当該ステップS10に処理を戻すものとしたが、ステップS11で取得したスケジュール情報及びステップS12で取得した帰宅情報に基づいて在室者を推定し、在室者と推定される者に関連する呼びかけを行うようにしてもよい。
1,2,3 個人識別システム
10 音データ取得部
11 マイクロフォン
20 呼びかけ実行部
30 人検知部
50 帰宅検知部
130 制御部
150 スケジュール情報格納部

Claims (6)

  1. 建物の部屋内において発生する音データを取得する音データ取得部と、
    前記音データ取得部によって取得された音データを含む第一の情報に基づいて、在室者に対して呼びかけを実行する呼びかけ実行部と、
    前記音データ取得部によって取得された、前記呼びかけに対する前記在室者の返答を示す音データを含む第二の情報に基づいて、前記在室者を識別する在室者識別部と、
    を具備する、
    個人識別システム。
  2. 前記呼びかけ実行部は、
    前記第一の情報に含まれる音データの種類に応じて、実行する前記呼びかけの内容を変化させる、
    請求項1に記載の個人識別システム。
  3. 前記音データ取得部は、
    複数の部屋それぞれに設置された音データ取得装置を含み、
    前記呼びかけ実行部は、
    前記第一の情報に含まれる音データがどの部屋の前記音データ取得装置で取得されたかに応じて、実行する前記呼びかけの内容を変化させる、
    請求項1又は請求項2に記載の個人識別システム。
  4. 前記部屋内に人がいることを検知する人検知部を具備し、
    前記第一の情報は、
    前記人検知部による検知結果に関する情報を含む、
    請求項1から請求項3までのいずれか一項に記載の個人識別システム。
  5. 識別対象者のスケジュール情報を取得するスケジュール情報取得部を具備し、
    前記第二の情報は、
    前記スケジュール情報に基づいて推定される前記在室者に関する情報を含む、
    請求項1から請求項4までのいずれか一項に記載の個人識別システム。
  6. 識別対象者が前記建物内に進入したことを示す進入情報を取得する進入情報取得部を具備し、
    前記第二の情報は、
    前記進入情報に基づいて推定される前記在室者に関する情報を含む、
    請求項1から請求項5までのいずれか一項に記載の個人識別システム。
JP2016183757A 2016-09-21 2016-09-21 個人識別システム Active JP6748535B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016183757A JP6748535B2 (ja) 2016-09-21 2016-09-21 個人識別システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016183757A JP6748535B2 (ja) 2016-09-21 2016-09-21 個人識別システム

Publications (2)

Publication Number Publication Date
JP2018049098A true JP2018049098A (ja) 2018-03-29
JP6748535B2 JP6748535B2 (ja) 2020-09-02

Family

ID=61767499

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016183757A Active JP6748535B2 (ja) 2016-09-21 2016-09-21 個人識別システム

Country Status (1)

Country Link
JP (1) JP6748535B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5235598A (en) * 1975-09-16 1977-03-18 Nagoya Denki Kogyo Kk Guarding system
JPS63226800A (ja) * 1987-03-16 1988-09-21 シャープ株式会社 据付機器
JP2002027575A (ja) * 1998-04-28 2002-01-25 Masanobu Kujirada 縫いぐるみを含むセキュリティ装置
JP2003058973A (ja) * 2001-08-09 2003-02-28 Fujitsu Ltd 安否確認装置及び安否確認方法
JP2016032501A (ja) * 2014-07-31 2016-03-10 株式会社コンテック 看護・介護支援装置および看護・介護支援方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5235598A (en) * 1975-09-16 1977-03-18 Nagoya Denki Kogyo Kk Guarding system
JPS63226800A (ja) * 1987-03-16 1988-09-21 シャープ株式会社 据付機器
JP2002027575A (ja) * 1998-04-28 2002-01-25 Masanobu Kujirada 縫いぐるみを含むセキュリティ装置
JP2003058973A (ja) * 2001-08-09 2003-02-28 Fujitsu Ltd 安否確認装置及び安否確認方法
JP2016032501A (ja) * 2014-07-31 2016-03-10 株式会社コンテック 看護・介護支援装置および看護・介護支援方法

Also Published As

Publication number Publication date
JP6748535B2 (ja) 2020-09-02

Similar Documents

Publication Publication Date Title
KR102314096B1 (ko) 다수의 컴퓨팅 장치를 이용한 인터콤 스타일 통신
KR101726945B1 (ko) 수동 시작/종료 포인팅 및 트리거 구문들에 대한 필요성의 저감
US11133027B1 (en) Context driven device arbitration
US9691199B1 (en) Remote access control
US10320780B2 (en) Shared secret voice authentication
TWI644307B (zh) 用於操作一虛擬助理之方法,電腦可讀儲存媒體,及系統
US11212393B2 (en) Remote access control
CN111512365A (zh) 对多个家庭装置进行控制的方法和系统
JP2020525850A (ja) 方法、電子装置、家庭用機器ネットワークおよび記憶媒体
JP2019091472A (ja) 発語トリガを常時リッスンするための動的閾値
WO2017141530A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US20160328949A1 (en) Method for an Automated Distress Alert System with Speech Recognition
US11862153B1 (en) System for recognizing and responding to environmental noises
JP2017203967A (ja) 音声出力制御装置、電子機器、および音声出力制御装置の制御方法
US20210225363A1 (en) Information processing device and information processing method
US11233490B2 (en) Context based volume adaptation by voice assistant devices
JP2006264859A (ja) エレベータの情報提供装置
JPWO2017175442A1 (ja) 情報処理装置、および情報処理方法
US10810973B2 (en) Information processing device and information processing method
US9148501B2 (en) Systems and methods for hands-off control of a mobile communication device
WO2020202862A1 (ja) 応答生成装置及び応答生成方法
JP6748535B2 (ja) 個人識別システム
WO2020021861A1 (ja) 情報処理装置、情報処理システム、情報処理方法及び情報処理プログラム
JP2021124567A (ja) 推定システム、及び、推定方法
US20220217442A1 (en) Method and device to generate suggested actions based on passive audio

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190829

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200709

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200721

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200807

R150 Certificate of patent or registration of utility model

Ref document number: 6748535

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250