JP2004295798A - Security system - Google Patents

Security system Download PDF

Info

Publication number
JP2004295798A
JP2004295798A JP2003090397A JP2003090397A JP2004295798A JP 2004295798 A JP2004295798 A JP 2004295798A JP 2003090397 A JP2003090397 A JP 2003090397A JP 2003090397 A JP2003090397 A JP 2003090397A JP 2004295798 A JP2004295798 A JP 2004295798A
Authority
JP
Japan
Prior art keywords
moving object
human
security system
unit
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003090397A
Other languages
Japanese (ja)
Inventor
Nobuhiro Sakakibara
暢宏 榊原
Norihiro Kasano
範博 笠野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JAPAN BEST RESCUE SYSTEM KK
OCEAN NETWORK CO Ltd
Original Assignee
JAPAN BEST RESCUE SYSTEM KK
OCEAN NETWORK CO Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JAPAN BEST RESCUE SYSTEM KK, OCEAN NETWORK CO Ltd filed Critical JAPAN BEST RESCUE SYSTEM KK
Priority to JP2003090397A priority Critical patent/JP2004295798A/en
Publication of JP2004295798A publication Critical patent/JP2004295798A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Burglar Alarm Systems (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a low cost security system which can decide whether a photographed moving object is an intruder accurately and actuate a notifying means, only if the object is an intruder. <P>SOLUTION: The security system is composed of a monitoring camera 51 takes photographs of a moving object and outputs it as animation data; a frame stripping off means 54 inputs the animation data and divide it into frame images with a certain time interval; a conversion means 58 decides whether two frame images separated in turn have any change on the image by pixel and transforms the frame image into numerical string data, on the basis of determined results; a code-generating means 59 generates geometrical codes, corresponding to a shape profile of the moving object, on the basis of the numerical string data, a deciding means 63 decides whether the moving object is a human being, on the basis of the geometrical codes; and an notification control means. The notification control means actuates a notifying means, when the moving object is decided as being a human being. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、警備システムに関し、特に、カメラ等の撮像手段によって侵入者を検出することが可能な警備システムに関するものである。
【0002】
【従来の技術】
従来、不審者の侵入を防止する警備システムとして、監視カメラを内蔵し、撮像した画像データを基に不審者(侵入者)を検出するシステムが知られている。具体的には、撮像手段により背景のみを撮像して記憶させるとともに、記憶された背景画像データと監視用の画像データとの差分を取得し、その差分画像データを基に、侵入者の有無を認識するものである。そして、侵入者が認識されると、報知手段を作動させ侵入者を威嚇すると共に、電話回線を通して警備会社や管理会社の基地局に通報するようになっている。
【0003】
以上の従来技術は、当業者において当然として行われているものであり、出願人は、この従来技術が記載された文献を知見していない。
【0004】
【発明が解決しようとする課題】
しかし、従来の警備システムでは、監視カメラによって動作可能な移動物が検出されても、それが侵入者(人間)であるのか、それとも犬や猫等の動物であるのかを判別することが困難であった。つまり、人間や動物は、その動きによって輪郭が随時変化するため、誤って認識される恐れがあった。特に、監視カメラに対して、移動物の距離は常に変化することから、撮像される移動物の大きさが不定となり、侵入者の判別が一層困難となっていた。このため、室内で犬や猫等のペットを飼っている住宅においては、居住者が外出する際、ペットを連れて外出したり、サークルやクレイトの中にペットを入れて室内を動き回らないようにする等の対策が必要であった。つまり、ペットを室内に放置したまま外出することができないため、極めて使い勝手の悪いシステムとなっていた。
【0005】
そこで、本発明は、上記の実情に鑑み、撮像された移動物が侵入者であるか否かを正確に判別し、侵入者である場合にのみ報知手段を作動させることが可能な警備システムを提供するものである。
【0006】
【課題を解決するための手段】
第一発明の警備システムは、移動物を撮像してその動画データを出力する撮像手段と、前記動画データを基に、前記移動物の輪郭形状に対応する形状データを生成する形状データ生成手段と、生成された前記形状データを基に、前記移動物が人間か否かを判別する判別手段と、該判別手段によって前記移動物が人間であると判別された場合、報知手段を作動させる報知制御手段とを具備するものである。
【0007】
この発明によれば、監視カメラ等の撮像手段により撮像された動画データを基に、移動物の輪郭形状に対応する形状データが生成される。判別手段では、生成された移動物の形状データを、予め設定された人間の形状データと比較することにより、移動物が人間かそれ以外の移動物(例えばペット)であるかを判別する。判別手段により移動物が人間すなわち侵入者であると判別された場合には、報知制御手段によって報知手段を作動させる。なお、報知手段としては、侵入者を威嚇するための音発生手段や光発生手段、及び通信ネットワーク等を通して警備会社や管理会社の基地局に通報する通報手段等を例示することができる。一方、移動物が検出された場合でも、それが人間ではないと判別された場合には、報知手段を作動させない。このため、例えばペット等を室内に放置したまま外出しても、報知手段の誤作動が防止される。
【0008】
第二発明の警備システムは、移動物を撮像してその動画データを出力する撮像手段と、前記動画データを入力して所定の時間間隔のフレーム画像に分離するフレーム分離手段と、順に分離された二つのフレーム画像について、画像の変化の有無を画素毎または予め分割された小領域毎に判定し、判定結果を基に前記フレーム画像を数値列データに変換する変換手段と、前記数値列データを基に、前記移動物の輪郭形状に対応する形状データを生成するデータ生成手段と、前記形状データを基に前記移動物が人間か否かを判別する判別手段と、該判別手段によって前記移動物が人間であると判別された場合、報知手段を作動させる報知制御手段とを具備するものである。
【0009】
この発明によれば、動画データはフレーム分離手段によってフレーム分離され、そのフレーム画像を基本に以降の認識処理が行われる。なお、このときのフレーム分離の時間間隔は、認識すべき動作の速さや、認識の精度及び処理能力に応じて適宜設定される。
【0010】
変更手段では、二つのフレーム画像における画像の変化が、画素毎または予め分割された小領域毎に判定されるとともに、その判定結果に基づく数値が与えられる。例えば、変化があると判定された場合は「1」を出力し、変化がないと判定された場合は「0」を出力する。このようにして、フレーム画像が数値列データに変更される。その後、データ生成手段により、この数値列データを基に移動物の輪郭形状に対応する形状データが生成される。判別手段では、生成された移動物の形状データを、予め設定された人間の形状データと比較することにより、移動物が人間か、それ以外の移動物(例えばペット)であるかを判別する。
【0011】
判別手段により移動物が人間すなわち侵入者であると判別された場合には、報知制御手段によって報知手段を作動させる。一方、移動物が検出された場合でも、それが人間ではないと判別された場合には、報知手段を作動させない。このため、例えばペット等を室内に放置したまま外出しても、報知手段の誤作動が防止される。
【0012】
ところで、前記第一発明または前記第二発明において、「前記判別手段は、前記移動物全体の輪郭形状が縦長か横長かを判定し、縦長の場合には前記移動物が人間であり、横長の場合には前記移動物が人間以外の移動物であると判別する縦横比判別手段を有する」構成とすることができる。
【0013】
この構成によれば、移動物全体の輪郭形状について、縦長か横長かが判定され、それが縦長の場合には、起立姿勢で動く移動物、すなわち人間であると判別される。一方、輪郭形状が横長の場合には、横伏姿勢で動く移動物、すなわち犬や猫等の動物であると判別される。
【0014】
また、前記第一発明及び前記第二発明において、「前記判別手段は、生成された前記形状データを基に、被写体に含まれる体の部位を特定する部位特定手段と、特定された部位の形状に応じて前記移動物が人間か否かを判別する部位判別手段とを有する」構成とすることができる。
【0015】
この構成によれば、形状データ生成手段によって生成された形状データを基に、被写体に含まれる体の部位が特定される。つまり、頭部、胴部、及び足部等、各部位の輪郭形状を表す形状データが予め記憶されており、生成された形状データと記憶された形状データとを照合させることにより、生成された形状データがどの部位を表す形状データであるのかが特定される。そして、その特定された部位の詳細な輪郭形状や他の部位との関連等に応じて、検出された移動物が人間かそれ以外の移動物であるかを判別する。
【0016】
ここで、具体的な判別手段としては、以下の判別部を例示することができる。
(1)特定された部位が「足部」付近に相当する場合、「足の関節の成り立ち」に基づいて判別する関節判別部。
(2)特定された部位が「頭部」付近に相当する場合、「胴部に対する頭部の位置」に基づいて判別する頭部判別部。
(3)特定された部位が「頭部」付近に相当する場合、「頭部に対する肩幅の広さ」に基づいて判別する肩幅判別部。
(4)特定された部位が「尻部」付近に相当する場合、「尻尾の存在」に基づいて判別する尻尾判別部。
【0017】
ここで、(1)は、移動物の側方を撮像した際に有効となる手段であり、犬等の足部と人間の足部とでは関節の成り立ちが異なることから、関節付近の形状を判定することにより、人間かそれ以外の移動物かを判別する。(2)は、移動物の側方を撮像した際に有効となる手段であり、頭部が胴部の上方に位置する人間に対し、犬等の動物では頭部が胴部の前方(または斜め上方)に位置することから、胴部に対する頭部の位置を判定することにより人間かそれ以外の移動物かを判別する。(3)は、移動物の正面または背面を撮像した際に有効となる手段であり、人間とそれ以外の移動物では肩幅(胴幅)の広さが異なることから、頭部に対する肩幅の広さを判定することにより人間かそれ以外の移動物かを判別する。なお、頭部を基準として判別することにより、撮像手段と移動物との距離にかかわらず、すなわち検出される移動物の大きさにかかわらず、肩幅(胴幅)の広さを相対的に認識することが可能になる。(4)は、移動物の側方を撮像した際に有効となる手段であり、人間には犬等のように尻尾を有しないことから、尻尾の有無を判定することにより、人間かそれ以外の移動物かを判別する。
【0018】
【発明の実施の形態】
以下、本発明の一実施形態である警備システムについて、図1乃至図7に基づき説明する。図1は警備システム全体の構成を示す説明図であり、図2は警備システムにおける警備装置の機能的構成を示すブロック図であり、図3は警備システムにおけるサーバーと第一情報端末装置との機能的構成を示すブロック図である。また、図4は画像認識手段の機能的構成を示すブロック図であり、図5及び図6は画像認識方法を説明するための説明図であり、図7は画像認識手段における処理の流れを示すフローチャートである。
【0019】
本実施形態の警備システムは、不審者(侵入者)による窃盗等の犯罪を防止するとともに、日常生活における居住者の安全性を向上するシステムである。図1に示すように、警備システム1は、コンピュータからなるサーバー2と、居住者宅に設置された複数の警備装置4と、居住者が所持する第一情報端末装置6a、居住者が所持する第二情報端末装置6b、及び緊急情報通知者となる友人や肉親等が所持する第三情報端末装置6cとを備えている。なお、サーバー2と警備装置4とは、パケット通信方式を利用したネットワーク3を介して無線通信線NLによって結ばれており、サーバー2と第一情報端末装置6a、第二情報端末装置6b、及び第三情報端末装置6cとは、インターネット等の広域ネットワーク5を介して通信線Lによって結ばれている。
【0020】
ここで、サーバー2及び警備装置4間は、状態情報及び緊急情報等の通信情報TDを送受信するために、パケット通信方式のネットワーク3を利用している。パケット通信方式とは、データを小さなまとまりに分割して、一つ一つ送受信する通信方式のことである。パケット通信では、二地点間の通信において、途中の回線が他の通信データによって占有されることが無くなるため、サーバー2及び警備装置4間で、確実に通信情報TDを送受信することができる。
【0021】
また、サーバー2と第一情報端末装置6a、第二情報端末装置6b、及び第三情報端末装置6cとの間は、通信回線網の発達及び情報端末装置(例えば携帯電話)の普及を考慮して、インターネット等のネットワーク5を利用している。これにより、広範に渡っての情報配信が可能となるため、居住者または緊急情報通知者に通信情報TDを確実に通知することができる。
【0022】
警備装置4は、居住者宅に設置されて屋内の異常を検知するとともに、異常を検知した際の屋内の状態に関する状態情報や、居住者の体調が悪化した際等に緊急状態を知らせる緊急情報等の通信情報TDをサーバー2に送信するものであり、図2に示すように、警備装置4の中核を成す装置本体7と、居住者が操作を行うためのリモコン8と、出入り口、窓、及び室内等に設置される複数の外部センサ9とを備えている。
【0023】
装置本体7は、機能的構成として、受信手段10及び送信手段11によって、サーバー2と送受信を行う通信制御手段12と、リモコン8及び外部センサ9からの各種無線信号を受信する信号受信手段13と、外部センサ9、または装置本体7に内蔵される内部センサ14が異常を検知したときに発信する検知信号を認識し、検知信号に基づいて状態情報を作成する検知信号認識手段15と、状態情報を送信手段11を介して出力する状態情報出力手段16とを備えている。また、装置本体7には、監視カメラ51、及びこの監視カメラ51から出力される動画データを基に侵入者を認識する画像認識手段52が内蔵されている。なお、画像認識手段52の詳細については後述する。
【0024】
また、装置本体7は、警告メッセージの音声データが記憶された音声記憶手段18と、検知信号認識手段15によって生成された状態情報に基づいて、スピーカー19による警告メッセージの発声、及びサイレン20の鳴動の制御を行う音声制御手段21と、後述する発生指示KDを認識して音声制御手段21を作動させる作動手段22とを備えている。これにより、外部センサ9または内部センサ14が異常を検知した場合、または監視カメラ51から出力される動画データに基づいて侵入者が認識された場合には、スピーカー19からは警告メッセージが発声されるとともに、サイレン20が鳴動するため、屋内に侵入した侵入者を威嚇して即座に退出を促し、窃盗等の犯罪を未然に防止することができる。ここで、スピーカー19及びサイレン20が本発明の報知手段に相当し、音声制御手段21が本発明の報知制御手段に相当する。
【0025】
なお、装置本体7は、家庭用電源を主電源として稼動するようになっているが、バッテリー等の予備電源(図示しない)を内蔵しているため、警告メッセージの発声中に、侵入者によってコンセントが抜かれても、停止することなく警告メッセージを発声して侵入者を威嚇することが可能である。
【0026】
さらに、装置本体7は、緊急スイッチ23が押圧されたこと、リモコン8に設けられた所定のスイッチが一定時間継続して押圧されたこと、または防水リモコン(図示しない)の緊急スイッチが押圧されたこと、の少なくともいずれか一つの操作を認識し、緊急信号に基づいて緊急情報を作成する緊急信号認識手段24と、緊急情報を、送信手段11を介して出力する緊急情報出力手段25とを備えている。緊急情報は、サーバー2を介して、居住者の友人または肉親(緊急情報通知者)の第三情報端末装置6cに通知されるため、一人暮しや老人世帯の居住態様に好適である。
【0027】
リモコン8は、居住者が操作して、装置本体7の作動及びモードの設定等を入力するためのものであり、さらに機能的構成として、アラーム音を発生させる警告手段(図示しない)を有している。
【0028】
次に、警備システム1におけるサーバー2について説明する。図3に示すように、サーバー2は、各種情報をネットワーク3,5を介して受信し、これに応じた処理を行うものであり、管理会社が利用可能な状態に設置されている。ハード構成としては、いずれも図示しないが、汎用のコンピュータと同様、主記憶装置、演算装置、及び制御装置から構成される中央処理装置(CPU)と、キーボードやマウス等、情報を直接入力するための入力装置と、コンピュータの中で処理された情報を取出すディスプレイ等の出力装置と、データの送受信を行うモデム等の通信手段とを備えている。
【0029】
サーバー2は、機能的構成として、受信手段26及び送信手段27によって、複数の警備装置4と送受信を行う第一通信制御手段28と、受信手段29及び送信手段30によって、第一情報端末装置6a、第二情報端末装置6b、及び第三情報端末装置6cと送受信を行う第二通信制御手段31と、居住者データJDが記憶された記憶手段32とを備えている。居住者データJDは、居住者に関する個人情報が格納されたものであり、居住者の情報端末装置のメールアドレスM1や、居住者に係る緊急情報通知者のメールアドレスM2等が、関連付けて格納されている。
【0030】
また、サーバー2は、警備装置4の状態情報出力手段16から出力された状態情報を認識する状態情報認識手段33と、状態情報認識手段33が認識した状態情報及び記憶手段32に記憶された居住者データJDに基づいて、状態情報を通知する第二情報端末装置6bを特定する状態情報特定手段34と、緊急情報出力手段25から出力された緊急情報を認識する緊急情報認識手段35と、緊急情報認識手段35が認識した緊急情報及び居住者データJDに基づいて、緊急情報を通知する第三情報端末装置6cを特定する緊急情報特定手段36と、状態情報特定手段34及び緊急情報特定手段36によって特定された第二情報端末装置6b及び第三情報端末装置6cに、状態情報及び緊急情報を電子メールとして発信する電子メール発信手段37と、第一情報端末装置6aから出力された発生指示KD(詳細は後述する)を認識する発生指示認識手段38と、発生指示認識手段38が認識した発生指示KD及び居住者データJDに基づいて、警備装置4の作動手段22に発生指示KDを通知する発生指示通知手段39とを備えている。
【0031】
サーバー2を管理する管理会社では、サーバー2が状態情報を認識すると、まず状態情報を出力した警備装置4が設置されている居住者宅に電話をかけ、居住者宅の状況を確認する。その後、必要に応じ、居住者宅に警備員等を急行させる。また、サーバー2が緊急情報を認識した場合は、その後、第三情報端末装置6cによって電子メールを開封したか否かを検出し、所定時間(例えば10分)経過しても電子メールが開封されない場合には、第三情報端末装置6cの所有者である肉親等に電話で連絡を取ったり、介抱者等を急行させて居住者を介抱したりする。また、症状が重い場合には救急車の手配を行っている。これにより、体調が悪化した居住者は、肉親等に連絡が取れない場合でも、即座に救助を受けることができるようになっている。
【0032】
なお、サーバー2から第二情報端末装置6bに通知される状態情報、及びサーバー2から第三情報端末装置6cに通知される緊急情報は、電子メールによって配信されるため、特定の端末装置を要するものではなく、携帯電話等のように広く一般に利用されている情報端末装置を利用して、状態情報及び緊急情報を受信することが可能である。また、電子メールは、一旦送信されれば、情報端末装置側で操作をしない限り消去されることがないため、居住者に状態情報を確実に認識させ、緊急情報通知者に緊急情報を確実に認識させることが可能である。
【0033】
次に、警備システム1における第一情報端末装置6a、第二情報端末装置6b、及び第三情報端末装置6cについて説明する。第一情報端末装置6a、第二情報端末装置6b、及び第三情報端末装置6cは、携帯電話等の同種の情報端末装置であり、居住者に操作されて発生指示KDを出力するものが第一情報端末装置6aとして機能し、警備装置4から出力される状態情報がサーバー2から通知されるものが第二情報端末装置6bとして機能し、警備装置4から出力される緊急情報がサーバー2から通知されるものが第三情報端末装置6cとして機能している。
【0034】
なお、本実施例では、第一情報端末装置6a、第二情報端末装置6b、及び第三情報端末装置6cは、略同様の機能的構成を有するため、第一情報端末装置6aの構成を代表して説明する。第一情報端末装置6aは、受信手段40及び送信手段41によって、サーバー2と送受信を行う通信制御手段42と、サーバー2から送信された電子メールを記憶する記憶手段43と、記憶手段43に記憶された電子メールを、液晶画面等の表示手段44に表示させる表示制御手段45と、テンキーや機能指示スイッチ等からなる操作手段46と、装置本体7の音声制御手段21を作動させて警告メッセージを発声させる発生指示KDを出力する発生指示出力手段47とを備えている。
【0035】
ところで、本実施形態の警備システム1は、特徴的な構成として画像認識手段52を備えている。この画像認識手段52は、CDDカメラ等の監視カメラ51(本発明の撮像手段に相当)から出力される動画データを基に移動物を検出するとともに、その移動物が人間(侵入者)か、人間以外の移動物(例えばペット)かを判別する機能を有している。詳細には、図4に示すように、機能的構成として、フレーム分離手段54、変換手段58、コード生成手段59、及び判別手段63を備えている。フレーム分離手段54は、監視カメラ51から動画データを入力して所定の時間間隔(例えば0.1秒毎)に分離されたフレーム画像(静止画)を生成するものである。分離されたフレーム画像は、記憶装置55の画像記憶部56に記憶される。ここで、画像記憶部56に記憶するのは、最新のフレーム画像が分離された時点で、前回のフレーム画像と比較するためである。
【0036】
変換手段58は、所定の時間間隔で分離された最新のフレーム画像と前回のフレーム画像とを、画像記憶部56から読出し、画像の変化の有無を画素毎に判定する変化判定手段60を有し、この判定結果を基にフレーム画像を数値列データに変換するものである。さらに詳しく説明すると、変化判定手段60は、画素毎に検出される変化量を予め定められたしきい値と比較して、変化量がしきい値よりも大きい画素を、動画素(動きのある画素)として抽出する。これにより、被写体の中から動きのある部分のみを抽出することができる。つまり、被写体に対して、動きのない背景と、動きのある移動物とを分離することが可能になる。そこで、変換手段58では、例えば動画素に対して「1」を出力し、静止画素に対して「0」を出力し、その後、この数値を所定の順序に並べることにより、移動物に関する数値列データを作成する。
【0037】
コード生成手段59は、変換手段58によって生成された数値列データを基に、移動物の輪郭形状に対応する形状コードを生成するものであり、座標検出手段61と線分算出手段62とを有している。座標検出手段61は、移動物の輪郭形状を構成する曲線に対して複数の特徴点を求め、その座標を検出するものである。例えば図5(a)に示すように、抽出された移動物の形状が人間の上半身の場合には、その輪郭形状を構成する複数の曲線における頂点T1,T2,T3……Tnを特徴点として設定する。この特徴点を結ぶことにより、輪郭形状を簡略化した多角形、すなわち、図5(b)に示すように、直線のみからなる図形が形成される。線分算出手段62は、各特徴点を結ぶ線分の長さB,C,D……と、隣接する線分同士の内角b,c,d……とを算出し、各線分の長さ及び内角の組合せからなる形状コード(例えばBbCcDd……)を生成し出力する。ここで、形状コードが本発明の形状データに相当し、コード生成手段59が本発明のデータ生成手段に相当する。
【0038】
図4に示す判別手段63は、コード生成手段59によって生成された形状コードを基に、移動物が人間(侵入者)であるか、それとも犬等のペットであるかを判別するものであり、ここには、縦横比判別手段64と、部位特定手段65と、部位判別手段66とが備えられている。まず縦横比判別手段64は、移動物全体の輪郭形状が縦長か横長かを判定し、縦長の場合には移動物が人間であり、横長の場合には移動物が人間以外の移動物であると判別する。これは図6に示すように、人間Hは起立姿勢で動くことが多く、犬や猫等の動物Aは横伏姿勢で動くことが多いことから、この姿勢の違いを利用して人間か否かを判別するものである。
【0039】
一方、部位特定手段66は、コード生成手段59によって生成された形状コードを基に、被写体に含まれる体の部位を特定するものである。記憶装置55のコード記憶部57には、頭部、胴部、及び足部等、体の各部位における輪郭形状を表す形状コードが予め記憶されており、生成された形状コードとコード記憶部57に記憶された形状コードとを照合させることにより、生成された形状コードがどの部位を表す形状コードであるのかを特定する。例えば、形状コードとして、細長く鉛直方向に延びる形状のコードが生成された場合には、足部を示す形状コードであると特定する。
【0040】
部位判別手段66は、部位特定手段65によって特定された部位に応じて、検出された移動物が人間か否かの判別を行うものである。具体的な判別としては、足部に関する関節判別部67、頭部に関する頭部判別部68、肩部に関する肩幅判別部69、及び尻部に関する尻尾判別部70を例示することができる。
【0041】
関節判別部67は、部位特定手段65によって特定された部位が「足部」付近に相当する場合、「足の関節の成り立ち」に基づいて判別する。これは、図6に示すように、人間Hの足は、膝部を中心として大腿骨71と脛骨72とが上下方向に延び、曲げる動作によって「く」の字形となるのに対し、犬等の動物Aの足は、飛節を中心として脛骨73と中足骨74とが正面上下方向に延出された逆「く」の字形の形状になっていることから、これらの形状の違いを利用して判別するものである。つまり、進行方向(移動方向)に対し、生成された形状データが「く」の字状であれば人間H(侵入者)であると判別し、一方、形状データが逆「く」の字状であれば、犬等の動物Aであると判別する。なお、この判別は、監視カメラ51に対し移動物が左右方向に横切った場合、すなわち移動物の側面を撮像した場合に有効となる。
【0042】
頭部判別部68は、部位特定手段65によって特定された部位が「頭部」付近に相当する場合、「胴部に対する頭部の位置」に基づいて判別する。これは、図6に示すように、移動物を側面から見た場合、人間Hの頭は胴部の上方に位置するのに対し、犬等の動物Aの頭は胴部の斜め上方に位置することから、これらの相対位置の違いを利用して判別するものである。つまり、移動物の大きさが殆ど変わらない場合、すなわち監視カメラ51に対し移動物が左右方向に横切った場合において、頭部が胴部の上方に位置している場合には、人間H(侵入者)であると判別し、一方、頭部が胴部の斜め上方または前方に位置している場合には犬等の動物Aであると判別する。
【0043】
肩幅判別部69は、部位特定手段65によって特定された部位が「肩部及び頭部」付近に相当する場合、「頭部に対する肩幅の広さ」に基づいて判別する。これは、移動物の正面または背面を見た場合、人間Hは肩幅(胴部の横幅)が広いのに対し、犬等の動物Aは胴部の横幅が狭いことから、この幅の違いを利用して判別するものである。つまり、移動物の大きさが変化する場合、すなわち監視カメラ51に対して遠近方向に移動する場合において、頭部に対する肩幅が所定の比率よりも大きいときには、その移動物は人間H(侵入者)であると判別し、一方、所定の比率よりも小さいときには犬等の動物Aであると判別する。
【0044】
尻尾判別部70は、部位特定手段65によって特定された部位が「尻部」付近に相当する場合、「尻尾の存在」に基づいて判別する。これは、人間Hには犬のような尻尾を有しないことから、この違いを利用して判別するものである。つまり、尻部付近に細長い紐状の形状が認識された場合には犬等の動物Aであると判別する。
【0045】
なお、人間Hと動物Aとの判別は上記の方法に限定されるものではなく、例えば腕の位置や全体の大きさ等、人間Hと動物Aとを区別できる形状または姿勢であれば、その違いを利用して判別することが可能である。
【0046】
ところで、本実施形態では、フレーム画像における変化の有無、すなわち所定時間間隔で分離されるフレーム画像の差分に基づいて移動物を抽出するため、揺れ動くカーテンや洗濯物が、移動物として認識される可能性がある。しかし、本発明によれば、人間の特徴的部位に応じて人間か否かを判別するため、カーテンや洗濯物が風にふかれても報知手段を作動させることはない。
【0047】
また、地震により警備装置4またはそれに内蔵された監視カメラ51が揺動した場合には、フレーム画像全体が動画素と判別され、背景自体が移動物と認識される可能性がある。しかし、この場合、移動物の輪郭形状は画面全体の形状となり、人間の輪郭とは明らかに異なることから、それが人間と判別されることはない。
【0048】
次に、本実施形態の警備システム1における画像処理の流れについて、図7に示すフローチャートに基づき説明する。まず、フレーム分離工程(ステップS1)において動画データがフレーム画像に分離され、そのフレーム画像を基本に以降の認識処理が行われる。なお、このときのフレーム分離の時間間隔は、認識すべき動作の速さや、認識の精度及び処理能力に応じて適宜設定される。分離されたフレーム画像は画像記憶部56に記憶される(ステップS2)。
【0049】
続いて順次分離されるフレーム画像に対して変化の有無を画素毎に判定する(ステップS3)とともに、変化の有無を数値列データに変換する(ステップS4)。そして、数値列データから移動物の輪郭形状における特徴点を抽出しその座標を検出する(ステップS5)とともに、各特徴点を結ぶ線分の長さ及び内角を検出し(ステップS6)、それを基に形状コードを生成する(ステップS7)。
【0050】
その後、移動物の外観形状を示す形状コードを基に、移動物が人間(侵入者)か否かを前述の方法で判別し(ステップS8)、侵入者と認定された場合、すなわち、少なくとも一つの判別手段において人間と判別された場合には(ステップS9においてYES)、報知手段を作動させる(ステップS10)。具体的には、状態情報出力手段16によってサーバー2に通報するとともに、スピーカー19及びサイレン20を鳴動させる。
【0051】
このように、上記の警備システム1では、撮像された移動物が侵入者であるか否かを正確に判別することができ、侵入者である場合にのみ報知手段を作動させることができる。このため、ペットを連れて外出したり、サークルやクレイトの中にペットを入れて室内を動き回らないようにする等の対策が不要となり、使い勝手を大きく向上させることができる。また、誤検知に伴い警備員等を急行させていた従来の体制を改善でき、警備会社の負担を軽減することが可能になる。
【0052】
また、上記の警備システム1では、複数の判別手段を組合せることにより、侵入者の監視に対する信頼度を向上させている。特に、人間の特徴的部位に応じた複数の判別部を有することから、例えば、侵入者が犬の着ぐるみを着用して侵入した場合でも、確実に侵入者と判別することができる。
【0053】
さらに、上記の警備システム1では、膨大な情報を有する動画データを効率的に処理することによって、認識処理の対象データ量を少なくすることができる。これにより、汎用のコンピュータによるリアルタイムな処理が可能となり、比較的安価な警備装置4を多くの利用者に提供することが可能になる。
【0054】
以上、本発明について好適な実施形態を挙げて説明したが、本発明はこの実施形態に限定されるものではなく、以下に示すように、本発明の要旨を逸脱しない範囲において、種々の改良及び設計の変更が可能である。
【0055】
すなわち、上記の警備システム1では、フレーム画像についての変化の有無を、画素毎に判定するものを示したが、フレーム画像を複数の小領域に分割する領域分割手段を備え、フレーム画像についての変化の有無を分割された小領域毎に判定するようにしてもよい。フレーム画像の分割数は、フレーム画像の総画素数よりもはるかに低く設定されるため、この領域分割により処理の簡略化を図ることが可能になる。
【0056】
上記の警備システム1における画像認識手段52では、形状データとして、線分の長さ及び内角を所定の順序で並べて生成した形状コードを示したが、所定の演算によって算出される数値データを、移動物の輪郭形状に対応する形状データとして生成するようにしてもよい。
【0057】
上記の警備システム1では、画像認識手段52を居住者宅の警備装置4内に設けるものを示したが、画像認識手段52をサーバー2内に設けるようにしてもよい。これによると、警備装置4からサーバー2に動画データが送信され、サーバー2において人物か否かが判別される。そして、人物と判別された場合には、サーバー2から警備装置4にスピーカー19及びサイレン20を鳴動させるための信号が送信される。したがって、画像認識手段52が共用され、警備装置4の構成が簡略化されるとともに、システム全体を一層安価に構築することが可能になる。
【0058】
【発明の効果】
本発明によれば、移動物の輪郭形状に対応する形状データを生成するとともに、その形状データを解析することによって人間か否かを判別することから、撮像された移動物が侵入者であるか否かを正確に判別することができる。このため、警備システムの信頼性を向上させることができる。さらに、膨大な情報を有する動画データを効率的に処理することによって、認識処理の対象データ量を少なくすることができる。これにより、汎用のコンピュータによるリアルタイムな処理が可能となり、比較的安価な警備システムを多くの利用者に提供することが可能になる。
【図面の簡単な説明】
【図1】本発明の一実施形態である警備システム全体の構成を示す説明図である。
【図2】警備システムにおける警備装置の機能的構成を示すブロック図である。
【図3】警備システムにおけるサーバーと第一情報端末装置との機能的構成を示すブロック図である。
【図4】警備システムにおける画像認識手段の機能的構成を示すブロックである。
【図5】画像認識方法を説明するための説明図である。
【図6】人間と動物(犬)との輪郭形状の違いを説明するための説明図である。
【図7】画像認識手段における処理の流れを示すフローチャートである。
【符号の説明】
1 警備システム
19 スピーカー(報知手段)
20 サイレン(報知手段)
21 音声制御手段(報知制御手段)
51 監視カメラ(撮像手段)
54 フレーム分離手段
58 変換手段
59 コード生成手段(データ生成手段)
63 判別手段
64 縦横比判別手段
65 部位特定手段
66 部位判別手段
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a security system, and more particularly, to a security system capable of detecting an intruder by an imaging unit such as a camera.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, as a security system for preventing a suspicious person from invading, a system that incorporates a monitoring camera and detects a suspicious person (intruder) based on captured image data is known. Specifically, only the background is imaged and stored by the imaging means, and the difference between the stored background image data and the monitoring image data is acquired. Based on the difference image data, the presence or absence of an intruder is determined. Recognize. When the intruder is recognized, the informing means is activated to intimidate the intruder, and is reported to a base station of a security company or a management company through a telephone line.
[0003]
The above prior art is naturally performed by those skilled in the art, and the applicant does not know the document describing this prior art.
[0004]
[Problems to be solved by the invention]
However, in a conventional security system, even if an operable moving object is detected by a surveillance camera, it is difficult to determine whether it is an intruder (human) or an animal such as a dog or a cat. there were. In other words, humans and animals may be erroneously recognized because their contours change as needed due to their movements. In particular, since the distance of the moving object with respect to the surveillance camera always changes, the size of the moving object to be imaged becomes indefinite, making it more difficult to distinguish an intruder. For this reason, in a house where pets such as dogs and cats are kept indoors, when residents go out, do not go out with their pets or put pets in circles or crates and move around indoors And other measures were required. That is, since the pet cannot be left out of the room while being left indoors, the system is extremely inconvenient.
[0005]
In view of the above circumstances, the present invention provides a security system capable of accurately determining whether or not a captured moving object is an intruder, and operating the notification means only when the intruder is an intruder. To provide.
[0006]
[Means for Solving the Problems]
The security system according to the first invention includes an imaging unit that captures an image of a moving object and outputs moving image data thereof, and a shape data generating unit that generates shape data corresponding to a contour shape of the moving object based on the moving image data. Based on the generated shape data, determining means for determining whether or not the moving object is a human, and a notification control for operating a notifying means when the determining means determines that the moving object is a human. Means.
[0007]
According to the present invention, shape data corresponding to a contour shape of a moving object is generated based on moving image data captured by an imaging unit such as a monitoring camera. The determining means determines whether the moving object is a human or another moving object (for example, a pet) by comparing the generated shape data of the moving object with preset human shape data. When the determining means determines that the moving object is a human being, that is, an intruder, the notification control means activates the notification means. Examples of the notifying means include a sound generating means and a light generating means for intimidating an intruder, and a notifying means for notifying a base station of a security company or a management company through a communication network or the like. On the other hand, even when a moving object is detected, if it is determined that the moving object is not a human, the notification unit is not operated. For this reason, even if a pet or the like is left indoors and goes out, malfunction of the notification means is prevented.
[0008]
A security system according to a second aspect of the present invention includes: an imaging unit that captures an image of a moving object and outputs moving image data thereof; a frame separating unit that receives the moving image data and separates the image into frame images at predetermined time intervals; For two frame images, a conversion unit that determines the presence or absence of an image change for each pixel or for each small area divided in advance, and converts the frame image into numerical sequence data based on the determination result. Data generating means for generating shape data corresponding to the contour shape of the moving object, determining means for determining whether the moving object is a human based on the shape data, and the moving object by the determining means. And a notification control unit that activates the notification unit when it is determined that the user is a human.
[0009]
According to the present invention, the moving image data is separated into frames by the frame separating means, and the subsequent recognition processing is performed based on the frame image. The time interval of the frame separation at this time is appropriately set according to the speed of the operation to be recognized, the accuracy of the recognition, and the processing capability.
[0010]
In the changing means, a change in the image between the two frame images is determined for each pixel or for each small region divided in advance, and a numerical value based on the determination result is given. For example, when it is determined that there is a change, “1” is output, and when it is determined that there is no change, “0” is output. In this way, the frame image is changed to the numerical sequence data. After that, the data generating means generates shape data corresponding to the contour shape of the moving object based on the numerical value sequence data. The determining means determines whether the moving object is a human or another moving object (for example, a pet) by comparing the generated shape data of the moving object with preset human shape data.
[0011]
When the determining means determines that the moving object is a human being, that is, an intruder, the notification control means activates the notification means. On the other hand, even when a moving object is detected, if it is determined that the moving object is not a human, the notification unit is not operated. For this reason, even if a pet or the like is left indoors and goes out, malfunction of the notification means is prevented.
[0012]
By the way, in the first invention or the second invention, "the determination means determines whether the contour shape of the entire moving object is vertically long or horizontally long. In this case, there is provided an aspect ratio determining means for determining that the moving object is a non-human moving object. "
[0013]
According to this configuration, it is determined whether the outline shape of the entire moving object is vertically long or horizontally long, and if it is vertically long, it is determined that the moving object moves in an upright posture, that is, a human. On the other hand, when the contour shape is horizontally long, it is determined that the moving object moves in the prone posture, that is, an animal such as a dog or a cat.
[0014]
Also, in the first invention and the second invention, "the determining means is a part specifying means for specifying a body part included in the subject based on the generated shape data, and a shape of the specified part And a part determining means for determining whether the moving object is a human or not in accordance with the moving object.
[0015]
According to this configuration, the body part included in the subject is specified based on the shape data generated by the shape data generating unit. In other words, the shape data representing the contour shape of each part such as the head, the torso, and the foot is stored in advance, and the shape data generated by comparing the generated shape data with the stored shape data. It is specified which part the shape data represents. Then, it is determined whether the detected moving object is a human or another moving object in accordance with the detailed contour shape of the specified part and the relation with other parts.
[0016]
Here, the following determination unit can be exemplified as a specific determination unit.
(1) A joint discriminating unit that discriminates based on “the formation of the joint of the foot” when the specified part corresponds to the vicinity of the “foot”.
(2) A head determining unit that determines based on “the position of the head with respect to the torso” when the specified part corresponds to the vicinity of the “head”.
(3) A shoulder width determining unit that determines based on “the width of the shoulder width relative to the head” when the specified part corresponds to the vicinity of the “head”.
(4) A tail discriminating unit that discriminates based on “the presence of a tail” when the specified part corresponds to the vicinity of the “tail”.
[0017]
Here, (1) is a means that is effective when the side of the moving object is imaged. Since the joints are different between the feet of a dog or the like and the feet of a human, the shape near the joint is changed. By making the determination, it is determined whether the object is a human or another moving object. The means (2) is effective when an image of the side of a moving object is taken. For a human whose head is located above the torso, an animal such as a dog has a head in front of the torso (or (Obliquely above), the position of the head relative to the torso is determined to determine whether the object is a human or other moving object. (3) is a means that is effective when the front or back of the moving object is imaged. Since the width of the shoulder width (torso width) differs between a human and other moving objects, the width of the shoulder width relative to the head is large. Then, it is determined whether the object is a human or a moving object other than the human. Note that, by making a determination based on the head, regardless of the distance between the imaging means and the moving object, that is, regardless of the size of the detected moving object, the width of the shoulder width (body width) is relatively recognized. It becomes possible to do. (4) is a means that is effective when an image of the side of a moving object is taken. Since a human does not have a tail like a dog or the like, the presence or absence of the tail is determined by determining whether or not the human has a tail. Is a moving object.
[0018]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, a security system according to an embodiment of the present invention will be described with reference to FIGS. 1 is an explanatory diagram showing the configuration of the entire security system, FIG. 2 is a block diagram showing the functional configuration of a security device in the security system, and FIG. 3 is a function of the server and the first information terminal device in the security system. FIG. 2 is a block diagram showing a typical configuration. FIG. 4 is a block diagram showing a functional configuration of the image recognizing means. FIGS. 5 and 6 are explanatory diagrams for explaining an image recognizing method. FIG. 7 shows a flow of processing in the image recognizing means. It is a flowchart.
[0019]
The security system of the present embodiment is a system that prevents crimes such as theft by suspicious persons (intruders) and improves the safety of residents in daily life. As shown in FIG. 1, the security system 1 includes a server 2 composed of a computer, a plurality of security devices 4 installed in a resident's house, a first information terminal device 6 a owned by the resident, and possessed by the resident. It is provided with a second information terminal device 6b and a third information terminal device 6c possessed by a friend, immediate family, etc. who is a notifier of emergency information. The server 2 and the security device 4 are connected by a wireless communication line NL via a network 3 using a packet communication method, and the server 2 and the first information terminal device 6a, the second information terminal device 6b, and The third information terminal device 6c is connected by a communication line L via a wide area network 5 such as the Internet.
[0020]
Here, the packet communication network 3 is used between the server 2 and the security device 4 to transmit and receive communication information TD such as status information and emergency information. The packet communication system is a communication system in which data is divided into small units and transmitted and received one by one. In the packet communication, in the communication between the two points, the line on the way is not occupied by other communication data, so that the communication information TD can be reliably transmitted and received between the server 2 and the security device 4.
[0021]
In addition, between the server 2 and the first information terminal device 6a, the second information terminal device 6b, and the third information terminal device 6c, in consideration of the development of communication network and the spread of information terminal devices (for example, mobile phones). Therefore, a network 5 such as the Internet is used. As a result, information can be distributed over a wide area, so that the resident or the emergency information notifier can be reliably notified of the communication information TD.
[0022]
The security device 4 is installed at a resident's house to detect indoor abnormalities, and also to provide state information on the indoor state when the abnormalities are detected and emergency information to notify an emergency state when the resident's physical condition deteriorates. The communication information TD is transmitted to the server 2 as shown in FIG. 2. As shown in FIG. 2, a device main body 7 which forms the core of the security device 4, a remote controller 8 for occupants to operate, a doorway, a window, And a plurality of external sensors 9 installed in a room or the like.
[0023]
The apparatus main body 7 has, as a functional configuration, a communication control unit 12 for transmitting and receiving to and from the server 2 by the receiving unit 10 and the transmitting unit 11, a signal receiving unit 13 for receiving various wireless signals from the remote controller 8 and the external sensor 9, Detection signal recognizing means 15 for recognizing a detection signal transmitted when the external sensor 9 or the internal sensor 14 incorporated in the apparatus main body 7 detects an abnormality, and generating state information based on the detection signal; And status information output means 16 for outputting the information via the transmission means 11. Further, the apparatus main body 7 has a built-in monitoring camera 51 and an image recognition means 52 for recognizing an intruder based on moving image data output from the monitoring camera 51. The details of the image recognition means 52 will be described later.
[0024]
Further, the apparatus main body 7 utters a warning message by the speaker 19 and sounds the siren 20 based on the sound storage means 18 in which the sound data of the warning message is stored and the state information generated by the detection signal recognition means 15. And an operating means 22 for recognizing a generation instruction KD, which will be described later, and operating the voice control means 21. Accordingly, when the external sensor 9 or the internal sensor 14 detects an abnormality, or when an intruder is recognized based on moving image data output from the monitoring camera 51, a warning message is issued from the speaker 19. At the same time, since the siren 20 rings, the intruder who has entered the room is intimidated and promptly evacuated, and crimes such as theft can be prevented. Here, the speaker 19 and the siren 20 correspond to the notification means of the present invention, and the voice control means 21 corresponds to the notification control means of the present invention.
[0025]
The main unit 7 is operated using a household power supply as a main power supply. However, since a backup power supply (not shown) such as a battery is built in, the intruder can output the power while the warning message is being issued. Even if it is removed, it is possible to intimidate the intruder by issuing a warning message without stopping.
[0026]
Further, in the apparatus main body 7, the emergency switch 23 is pressed, the predetermined switch provided on the remote controller 8 is continuously pressed for a certain period of time, or the emergency switch of the waterproof remote control (not shown) is pressed. An emergency signal recognizing means 24 for recognizing at least one of the operations and generating emergency information based on the emergency signal, and an emergency information output means 25 for outputting the emergency information via the transmitting means 11. ing. Since the emergency information is notified to the third information terminal device 6c of a friend or immediate family member (emergency information notifier) of the resident via the server 2, the emergency information is suitable for living alone or living in an elderly household.
[0027]
The remote controller 8 is operated by the resident to input the operation of the apparatus main body 7 and the setting of the mode, and the like. The remote controller 8 further includes a warning unit (not shown) for generating an alarm sound as a functional configuration. ing.
[0028]
Next, the server 2 in the security system 1 will be described. As shown in FIG. 3, the server 2 receives various types of information via the networks 3 and 5, and performs processing in accordance with the information, and is installed in a state where the management company can use it. Although not shown, the hardware configuration is similar to that of a general-purpose computer, but is used to directly input information such as a central processing unit (CPU) including a main storage device, an arithmetic device, and a control device, and a keyboard and a mouse. , An output device such as a display for taking out information processed in the computer, and a communication means such as a modem for transmitting / receiving data.
[0029]
The server 2 has, as a functional configuration, a first information control device 28a that performs transmission and reception with a plurality of security devices 4 by a receiving unit 26 and a transmitting unit 27, and a first information terminal device 6a by a receiving unit 29 and a transmitting unit 30. , A second communication control means 31 for transmitting and receiving to and from the second information terminal device 6b and the third information terminal device 6c, and a storage means 32 for storing resident data JD. The resident data JD stores personal information about the resident, and stores therein the e-mail address M1 of the resident's information terminal device, the e-mail address M2 of the emergency information notifier of the resident, and the like in association with each other. ing.
[0030]
Further, the server 2 includes a state information recognizing unit 33 that recognizes the state information output from the state information output unit 16 of the security device 4, and the state information recognized by the state information recognizing unit 33 and the residence stored in the storage unit 32. State information specifying means 34 for specifying the second information terminal device 6b for notifying the state information based on the user data JD, emergency information recognizing means 35 for recognizing the emergency information output from the emergency information output means 25, Based on the emergency information and the resident data JD recognized by the information recognizing means 35, the emergency information specifying means 36 for specifying the third information terminal device 6c for notifying the emergency information, the state information specifying means 34 and the emergency information specifying means 36 Sending means for sending status information and emergency information as email to the second information terminal device 6b and the third information terminal device 6c specified by 7, generation instruction recognition means 38 for recognizing the generation instruction KD (details will be described later) output from the first information terminal device 6a, and the generation instruction KD recognized by the generation instruction recognition means 38 and the resident data JD. And a generation instruction notifying unit 39 for notifying the operation unit 22 of the security device 4 of the generation instruction KD.
[0031]
When the server 2 recognizes the state information, the management company that manages the server 2 first calls the resident's house where the security device 4 that has output the state information is installed, and checks the state of the resident's house. Then, if necessary, a security guard or the like is rushed to the resident's house. Further, when the server 2 recognizes the emergency information, the third information terminal device 6c thereafter detects whether or not the e-mail is opened, and the e-mail is not opened even after a predetermined time (for example, 10 minutes) elapses. In this case, a contact is made with the immediate family or the like who is the owner of the third information terminal device 6c by telephone, or a caretaker or the like is rushed to support the resident. If the condition is severe, an ambulance is arranged. As a result, a resident whose physical condition has deteriorated can be immediately rescued even if he / she cannot contact his or her immediate family.
[0032]
The status information notified from the server 2 to the second information terminal device 6b and the emergency information notified from the server 2 to the third information terminal device 6c are distributed by e-mail, and require a specific terminal device. Instead, it is possible to receive status information and emergency information using an information terminal device that is widely used, such as a mobile phone. In addition, once an e-mail is sent, it will not be erased unless it is operated on the information terminal device side. It is possible to recognize.
[0033]
Next, the first information terminal device 6a, the second information terminal device 6b, and the third information terminal device 6c in the security system 1 will be described. The first information terminal device 6a, the second information terminal device 6b, and the third information terminal device 6c are the same type of information terminal device such as a mobile phone, and the one that outputs a generation instruction KD when operated by a resident is described. One that functions as one information terminal device 6a, and that the status information output from the security device 4 is notified from the server 2 functions as the second information terminal device 6b, and that the emergency information output from the security device 4 is transmitted from the server 2 What is notified functions as the third information terminal device 6c.
[0034]
In this embodiment, since the first information terminal device 6a, the second information terminal device 6b, and the third information terminal device 6c have substantially the same functional configuration, the configuration of the first information terminal device 6a is representative. Will be explained. The first information terminal device 6a includes a communication control unit 42 for transmitting and receiving to and from the server 2 by the receiving unit 40 and the transmitting unit 41; a storage unit 43 for storing the e-mail transmitted from the server 2; A display control means 45 for displaying the received e-mail on a display means 44 such as a liquid crystal screen, an operation means 46 including ten keys and function instruction switches, and a voice control means 21 of the apparatus main body 7 to activate a warning message. And a generation instruction output means 47 for outputting a generation instruction KD for producing an utterance.
[0035]
Meanwhile, the security system 1 of the present embodiment includes an image recognition unit 52 as a characteristic configuration. The image recognition means 52 detects a moving object based on moving image data output from a surveillance camera 51 such as a CDD camera (corresponding to the imaging means of the present invention), and determines whether the moving object is a human (intruder). It has a function of determining whether it is a non-human moving object (for example, a pet). More specifically, as shown in FIG. 4, a functional configuration includes a frame separating unit 54, a converting unit 58, a code generating unit 59, and a determining unit 63. The frame separating unit 54 receives moving image data from the monitoring camera 51 and generates frame images (still images) separated at predetermined time intervals (for example, every 0.1 second). The separated frame image is stored in the image storage unit 56 of the storage device 55. Here, the reason why the image is stored in the image storage unit 56 is to compare with the previous frame image when the latest frame image is separated.
[0036]
The conversion unit 58 has a change determination unit 60 that reads the latest frame image and the previous frame image separated at a predetermined time interval from the image storage unit 56 and determines whether or not there is a change in the image for each pixel. The frame image is converted into numerical sequence data based on the determination result. More specifically, the change determination unit 60 compares the amount of change detected for each pixel with a predetermined threshold value, and determines a pixel whose change amount is larger than the threshold value as a moving pixel (moving pixel). Pixel). As a result, only a moving part can be extracted from the subject. That is, it is possible to separate the background with no movement and the moving object with movement from the subject. Therefore, the conversion means 58 outputs, for example, “1” for a moving pixel and “0” for a still pixel, and then arranges the numerical values in a predetermined order to obtain a numerical value sequence for a moving object. Create data.
[0037]
The code generation means 59 generates a shape code corresponding to the contour shape of the moving object based on the numerical sequence data generated by the conversion means 58, and has a coordinate detection means 61 and a line segment calculation means 62. are doing. The coordinate detecting means 61 obtains a plurality of characteristic points for a curve constituting the contour shape of the moving object, and detects the coordinates. For example, as shown in FIG. 5A, when the shape of the extracted moving object is a human upper body, vertices T1, T2, T3,... Tn of a plurality of curves constituting the contour shape are set as feature points. Set. By connecting these feature points, a polygon having a simplified outline shape, that is, a figure consisting of only straight lines as shown in FIG. 5B is formed. The line segment calculating means 62 calculates the lengths B, C, D,... Of the line segments connecting the feature points, and the interior angles b, c, d,. , And a shape code (for example, BbCcDd...) Composed of a combination of an inner angle and an inner angle. Here, the shape code corresponds to the shape data of the present invention, and the code generating means 59 corresponds to the data generating means of the present invention.
[0038]
The determination means 63 shown in FIG. 4 determines whether the moving object is a human (intruder) or a pet such as a dog based on the shape code generated by the code generation means 59. Here, an aspect ratio determining means 64, a part specifying means 65, and a part determining means 66 are provided. First, the aspect ratio determining means 64 determines whether the contour shape of the entire moving object is vertically long or horizontally long. If the object is vertically long, the moving object is a human, and if it is horizontally long, the moving object is a non-human moving object. Is determined. This is because, as shown in FIG. 6, the human H often moves in a standing posture, and the animal A such as a dog or a cat often moves in a prone posture. Is determined.
[0039]
On the other hand, the part specifying means 66 specifies a body part included in the subject based on the shape code generated by the code generating means 59. In the code storage unit 57 of the storage device 55, a shape code representing the contour shape of each part of the body such as the head, the torso, and the foot is stored in advance, and the generated shape code and the code storage unit 57 are stored. By comparing the generated shape code with a shape code stored in the form code, the generated shape code is identified as a shape code representing a portion. For example, when a shape code that is elongated and extends in the vertical direction is generated, the shape code is identified as a shape code indicating a foot.
[0040]
The part determining means 66 determines whether or not the detected moving object is a human according to the part specified by the part specifying means 65. Specific examples of the discrimination include a joint discrimination unit 67 for the foot, a head discrimination unit 68 for the head, a shoulder width discrimination unit 69 for the shoulder, and a tail discrimination unit 70 for the buttocks.
[0041]
When the part specified by the part specifying unit 65 corresponds to the vicinity of the “foot”, the joint determining unit 67 determines based on “the formation of the joint of the foot”. This is because, as shown in FIG. 6, the leg of the human H has the “U” shape due to the bending operation of the femur 71 and the tibia 72 extending up and down around the knee, whereas the dog H Since the foot of the animal A has an inverted "C" shape in which the tibia 73 and the metatarsal 74 extend in the vertical direction from the front, the difference between these shapes is considered. It is determined by using the information. In other words, if the generated shape data is in the shape of a “ku” in the traveling direction (moving direction), it is determined that the person is a human H (intruder). If so, it is determined that the animal is an animal A such as a dog. This determination is effective when the moving object crosses the monitoring camera 51 in the left-right direction, that is, when the side surface of the moving object is imaged.
[0042]
When the part specified by the part specifying unit 65 corresponds to the vicinity of the “head”, the head determination unit 68 determines based on “the position of the head with respect to the trunk”. As shown in FIG. 6, when the moving object is viewed from the side, the head of the human H is located above the torso, whereas the head of the animal A such as a dog is located obliquely above the torso. Therefore, the determination is made using the difference between these relative positions. That is, when the size of the moving object hardly changes, that is, when the moving object crosses the surveillance camera 51 in the left-right direction and the head is positioned above the trunk, the human H (invading On the other hand, if the head is positioned diagonally above or in front of the torso, it is determined to be an animal A such as a dog.
[0043]
When the part specified by the part specifying means 65 corresponds to the vicinity of the “shoulder and head”, the shoulder width determination unit 69 determines based on “the width of the shoulder width relative to the head”. This is because when looking at the front or back of the moving object, the human H has a wide shoulder width (width of the torso), whereas the animal A such as a dog has a narrow width of the torso. It is determined by using the information. In other words, when the size of the moving object changes, that is, when the moving object moves in the distance direction with respect to the monitoring camera 51, and the shoulder width with respect to the head is larger than the predetermined ratio, the moving object is a human H (intruder). On the other hand, when the ratio is smaller than the predetermined ratio, it is determined that the animal is an animal A such as a dog.
[0044]
When the part specified by the part specifying unit 65 corresponds to the vicinity of the “tail”, the tail determination unit 70 determines based on “the presence of the tail”. Since the human H does not have a tail like a dog, it is determined using this difference. That is, when an elongated cord-like shape is recognized near the buttocks, the animal is determined to be an animal A such as a dog.
[0045]
Note that the discrimination between the human H and the animal A is not limited to the above method. For example, any shape or posture that can distinguish the human H and the animal A, such as the position of the arm or the overall size, is used. It is possible to determine using the difference.
[0046]
By the way, in this embodiment, since the moving object is extracted based on the presence or absence of a change in the frame image, that is, the difference between the frame images separated at a predetermined time interval, a swinging curtain or laundry may be recognized as the moving object. There is. However, according to the present invention, since it is determined whether or not a person is a person according to a characteristic part of the person, the notification means is not activated even if the curtain or the laundry is blown by the wind.
[0047]
When the security device 4 or the monitoring camera 51 built in the security device 4 swings due to an earthquake, the entire frame image is determined to be a moving pixel, and the background itself may be recognized as a moving object. However, in this case, the outline shape of the moving object becomes the shape of the entire screen and is clearly different from the outline of a human, so that it is not discriminated as a human.
[0048]
Next, the flow of image processing in the security system 1 of the present embodiment will be described with reference to the flowchart shown in FIG. First, moving image data is separated into frame images in a frame separation step (step S1), and subsequent recognition processing is performed based on the frame images. The time interval of the frame separation at this time is appropriately set according to the speed of the operation to be recognized, the accuracy of the recognition, and the processing capability. The separated frame image is stored in the image storage unit 56 (Step S2).
[0049]
Subsequently, the presence / absence of a change is determined for each pixel of the sequentially separated frame images (step S3), and the presence / absence of the change is converted into numerical sequence data (step S4). Then, feature points in the contour shape of the moving object are extracted from the numerical value sequence data and their coordinates are detected (step S5), and the length and interior angle of the line connecting each feature point are detected (step S6). A shape code is generated based on the shape code (step S7).
[0050]
Thereafter, based on the shape code indicating the appearance shape of the moving object, it is determined whether or not the moving object is a human (intruder) by the above-described method (step S8). If it is determined by one of the determination means that the person is a human (YES in step S9), the notification means is activated (step S10). Specifically, the state information output means 16 notifies the server 2 and sounds the speaker 19 and the siren 20.
[0051]
As described above, in the security system 1 described above, it is possible to accurately determine whether the captured moving object is an intruder, and to activate the notification unit only when the intruder is an intruder. For this reason, it is not necessary to take any measures such as taking the pet out of the room or putting the pet in a circle or clay so as not to move around the room, and the usability can be greatly improved. Further, the conventional system in which security personnel and the like are rushed due to erroneous detection can be improved, and the burden on security companies can be reduced.
[0052]
In the security system 1, the reliability of monitoring an intruder is improved by combining a plurality of determination means. In particular, since it has a plurality of discriminating units corresponding to the characteristic portions of a human, even if, for example, an intruder wears a dog's costume and invades, it can be reliably identified as an intruder.
[0053]
Further, in the security system 1 described above, the amount of data to be subjected to recognition processing can be reduced by efficiently processing moving image data having a large amount of information. As a result, real-time processing can be performed by a general-purpose computer, and a relatively inexpensive security device 4 can be provided to many users.
[0054]
As described above, the present invention has been described with reference to the preferred embodiments. However, the present invention is not limited to these embodiments, and various improvements and modifications can be made without departing from the scope of the present invention as described below. Design changes are possible.
[0055]
That is, in the security system 1 described above, the presence / absence of a change in the frame image is determined for each pixel. However, the security system 1 includes an area dividing unit that divides the frame image into a plurality of small areas. May be determined for each divided small area. Since the number of divisions of the frame image is set to be much lower than the total number of pixels of the frame image, it is possible to simplify the processing by this region division.
[0056]
In the image recognizing means 52 in the security system 1 described above, as the shape data, the shape code generated by arranging the lengths of the line segments and the interior angles in a predetermined order is shown, but the numerical data calculated by the predetermined calculation is moved. It may be generated as shape data corresponding to the contour shape of an object.
[0057]
In the security system 1 described above, the image recognition means 52 is provided in the security device 4 at the resident's house. However, the image recognition means 52 may be provided in the server 2. According to this, the moving image data is transmitted from the security device 4 to the server 2, and the server 2 determines whether or not the person is a person. When the person is determined to be a person, a signal for sounding the speaker 19 and the siren 20 is transmitted from the server 2 to the security device 4. Therefore, the image recognition means 52 is shared, the configuration of the security device 4 is simplified, and the entire system can be constructed at a lower cost.
[0058]
【The invention's effect】
According to the present invention, since the shape data corresponding to the contour shape of the moving object is generated, and the shape data is analyzed to determine whether the moving object is a human, whether the captured moving object is an intruder is determined. It can be accurately determined whether or not. For this reason, the reliability of the security system can be improved. Furthermore, by efficiently processing moving image data having a huge amount of information, the amount of target data for recognition processing can be reduced. As a result, real-time processing can be performed by a general-purpose computer, and a relatively inexpensive security system can be provided to many users.
[Brief description of the drawings]
FIG. 1 is an explanatory diagram showing a configuration of an entire security system according to an embodiment of the present invention.
FIG. 2 is a block diagram showing a functional configuration of a security device in the security system.
FIG. 3 is a block diagram showing a functional configuration of a server and a first information terminal device in the security system.
FIG. 4 is a block diagram illustrating a functional configuration of an image recognition unit in the security system.
FIG. 5 is an explanatory diagram for explaining an image recognition method.
FIG. 6 is an explanatory diagram for explaining a difference in contour between a human and an animal (dog).
FIG. 7 is a flowchart showing a flow of processing in an image recognition unit.
[Explanation of symbols]
1 Security system
19 Speaker (reporting means)
20 siren (reporting means)
21 sound control means (notification control means)
51 surveillance camera (imaging means)
54 Frame separation means
58 Conversion means
59 Code generation means (data generation means)
63 determination means
64 aspect ratio determination means
65 Site identification means
66 Part identification means

Claims (8)

移動物を撮像してその動画データを出力する撮像手段と、
前記動画データを基に、前記移動物の輪郭形状に対応する形状データを生成する形状データ生成手段と、
生成された前記形状データを基に、前記移動物が人間か否かを判別する判別手段と、
該判別手段によって前記移動物が人間であると判別された場合、報知手段を作動させる報知制御手段と
を具備することを特徴とする警備システム。
Imaging means for imaging a moving object and outputting the moving image data,
Based on the video data, shape data generating means for generating shape data corresponding to the contour shape of the moving object,
A determination unit configured to determine whether the moving object is a human based on the generated shape data;
A security system comprising: a notification control unit that operates a notification unit when the moving object is determined to be a human by the determination unit.
移動物を撮像してその動画データを出力する撮像手段と、
前記動画データを入力して所定の時間間隔のフレーム画像に分離するフレーム分離手段と、
順に分離された二つのフレーム画像について、画像の変化の有無を画素毎または予め分割された小領域毎に判定し、判定結果を基に前記フレーム画像を数値列データに変換する変換手段と、
前記数値列データを基に、前記移動物の輪郭形状に対応する形状データを生成するデータ生成手段と、
前記形状データを基に前記移動物が人間か否かを判別する判別手段と、
該判別手段によって前記移動物が人間であると判別された場合、報知手段を作動させる報知制御手段と
を具備することを特徴とする警備システム。
Imaging means for imaging a moving object and outputting the moving image data,
Frame separating means for inputting the moving image data and separating the moving image data into frame images at predetermined time intervals,
For two frame images separated in order, a conversion unit that determines the presence or absence of a change in the image for each pixel or for each small region divided in advance, and converts the frame image into numerical sequence data based on the determination result.
Data generation means for generating shape data corresponding to the contour shape of the moving object based on the numerical sequence data,
Determining means for determining whether the moving object is a human based on the shape data,
A security system comprising: a notification control unit that operates a notification unit when the moving object is determined to be a human by the determination unit.
前記判別手段は、前記移動物全体の輪郭形状が縦長か横長かを判定し、縦長の場合には前記移動物が人間であり、横長の場合には前記移動物が人間以外の移動物であると判別する縦横比判別手段を有することを特徴とする請求項1または請求項2に記載の警備システム。The determining means determines whether the outline shape of the entire moving object is vertically long or horizontally long.If the outline is vertically long, the moving object is a human, and if it is horizontally long, the moving object is a non-human moving object. 3. The security system according to claim 1, further comprising an aspect ratio determination unit configured to determine the security ratio. 前記判別手段は、生成された前記形状データを基に、被写体に含まれる体の部位を特定する部位特定手段と、特定された部位の形状に応じて前記移動物が人間か否かを判別する部位判別手段とを有することを特徴とする請求項1乃至請求項3のいずれか一つに記載の警備システム。The determining means determines, based on the generated shape data, a part specifying means for specifying a body part included in the subject, and whether or not the moving object is a human according to the shape of the specified part. The security system according to any one of claims 1 to 3, further comprising a part determining unit. 前記部位判別手段は、前記部位特定手段によって特定された部位が「足部」付近に相当する場合、「足の関節の成り立ち」に基づいて判別する関節判別部を有することを特徴とする請求項4に記載の警備システム。The said part discrimination means has a joint discrimination part which discriminate | determines based on "the formation of a joint of a foot", when the part specified by the said part specification means corresponds to the vicinity of "foot". 4. The security system according to 4. 前記部位判別手段は、前記部位特定手段によって特定された部位が「頭部」付近に相当する場合、「胴部に対する頭部の位置」に基づいて判別する頭部判別部を有することを特徴とする請求項4または請求項5に記載の警備システム。The site determining unit includes a head determining unit that determines based on the “position of the head with respect to the torso” when the site specified by the site specifying unit corresponds to the vicinity of the “head”. The security system according to claim 4 or claim 5, wherein 前記部位判別手段は、前記部位特定手段によって特定された部位が「頭部」付近に相当する場合、「頭部に対する肩幅の広さ」に基づいて判別する肩幅判別部を有することを特徴とする請求項4乃至請求項6のいずれか一つに記載の警備システム。The site determination unit includes a shoulder width determination unit configured to determine based on the “width of the shoulder width with respect to the head” when the region identified by the region identification unit corresponds to the vicinity of the “head”. The security system according to any one of claims 4 to 6. 前記部位判別手段は、前記部位特定手段によって特定された部位が「尻部」付近に相当する場合、「尻尾の存在」に基づいて判別する尻尾判別部を有することを特徴とする請求項4乃至請求項7のいずれか一つに記載の警備システム。The said part discriminating means has a tail discriminating part which discriminates based on "the presence of a tail" when the part specified by the part specifying means corresponds to the vicinity of "tail". The security system according to claim 7.
JP2003090397A 2003-03-28 2003-03-28 Security system Pending JP2004295798A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003090397A JP2004295798A (en) 2003-03-28 2003-03-28 Security system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003090397A JP2004295798A (en) 2003-03-28 2003-03-28 Security system

Publications (1)

Publication Number Publication Date
JP2004295798A true JP2004295798A (en) 2004-10-21

Family

ID=33404035

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003090397A Pending JP2004295798A (en) 2003-03-28 2003-03-28 Security system

Country Status (1)

Country Link
JP (1) JP2004295798A (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006256373A (en) * 2005-03-15 2006-09-28 Toyota Motor Corp Remote control device
JP2009295018A (en) * 2008-06-06 2009-12-17 Honda Motor Co Ltd Vehicle periphery monitoring device
WO2010007718A1 (en) * 2008-07-15 2010-01-21 本田技研工業株式会社 Vehicle vicinity monitoring device
JP2010049635A (en) * 2008-08-25 2010-03-04 Honda Motor Co Ltd Vehicle surroundings monitoring device
JP2010092429A (en) * 2008-10-10 2010-04-22 Honda Motor Co Ltd Vehicle surrounding monitoring device
US7949151B2 (en) 2006-05-19 2011-05-24 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US7956890B2 (en) * 2004-09-17 2011-06-07 Proximex Corporation Adaptive multi-modal integrated biometric identification detection and surveillance systems
US7982748B2 (en) 2006-05-19 2011-07-19 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
JP2012043140A (en) * 2010-08-18 2012-03-01 Fujifilm Corp Web page browsing system and relay server
US9544563B1 (en) 2007-03-23 2017-01-10 Proximex Corporation Multi-video navigation system
US9544496B1 (en) 2007-03-23 2017-01-10 Proximex Corporation Multi-video navigation
JP2017537357A (en) * 2015-10-28 2017-12-14 小米科技有限責任公司Xiaomi Inc. Alarm method and device
CN110648510A (en) * 2013-10-14 2020-01-03 康郭德亚洲私人有限公司 Mobile control unit, facility management system, mobile unit control system, facility management method, and mobile unit control method
JP2020516911A (en) * 2017-04-10 2020-06-11 ビーイーエー エス.エー.Bea S.A. Sensor for automatic door control
CN112748700A (en) * 2020-12-18 2021-05-04 深圳市显控科技股份有限公司 Numerical control code generation method and device, electronic equipment and storage medium
CN113096337A (en) * 2021-04-08 2021-07-09 中国人民解放军军事科学院国防工程研究院工程防护研究所 Moving target identification processing method for complex background and intelligent security system

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7956890B2 (en) * 2004-09-17 2011-06-07 Proximex Corporation Adaptive multi-modal integrated biometric identification detection and surveillance systems
US20110228094A1 (en) * 2004-09-17 2011-09-22 Ken Prayoon Cheng Adaptive multi-modal integrated biometric identification detection and surveillance systems
JP4604776B2 (en) * 2005-03-15 2011-01-05 トヨタ自動車株式会社 Remote control device
JP2006256373A (en) * 2005-03-15 2006-09-28 Toyota Motor Corp Remote control device
US7949151B2 (en) 2006-05-19 2011-05-24 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US7982748B2 (en) 2006-05-19 2011-07-19 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US9544496B1 (en) 2007-03-23 2017-01-10 Proximex Corporation Multi-video navigation
US9544563B1 (en) 2007-03-23 2017-01-10 Proximex Corporation Multi-video navigation system
US10326940B2 (en) 2007-03-23 2019-06-18 Proximex Corporation Multi-video navigation system
US10484611B2 (en) 2007-03-23 2019-11-19 Sensormatic Electronics, LLC Multi-video navigation
JP2009295018A (en) * 2008-06-06 2009-12-17 Honda Motor Co Ltd Vehicle periphery monitoring device
WO2010007718A1 (en) * 2008-07-15 2010-01-21 本田技研工業株式会社 Vehicle vicinity monitoring device
US8174578B2 (en) 2008-07-15 2012-05-08 Honda Motor Co., Ltd. Vehicle periphery monitoring device
CN102099842A (en) * 2008-07-15 2011-06-15 本田技研工业株式会社 Vehicle vicinity monitoring device
JP4644273B2 (en) * 2008-07-15 2011-03-02 本田技研工業株式会社 Vehicle periphery monitoring device
JP2010026601A (en) * 2008-07-15 2010-02-04 Honda Motor Co Ltd Vehicle periphery monitoring device
JP2010049635A (en) * 2008-08-25 2010-03-04 Honda Motor Co Ltd Vehicle surroundings monitoring device
JP2010092429A (en) * 2008-10-10 2010-04-22 Honda Motor Co Ltd Vehicle surrounding monitoring device
JP2012043140A (en) * 2010-08-18 2012-03-01 Fujifilm Corp Web page browsing system and relay server
CN110648510A (en) * 2013-10-14 2020-01-03 康郭德亚洲私人有限公司 Mobile control unit, facility management system, mobile unit control system, facility management method, and mobile unit control method
JP2017537357A (en) * 2015-10-28 2017-12-14 小米科技有限責任公司Xiaomi Inc. Alarm method and device
US10147288B2 (en) 2015-10-28 2018-12-04 Xiaomi Inc. Alarm method and device
JP2020516911A (en) * 2017-04-10 2020-06-11 ビーイーエー エス.エー.Bea S.A. Sensor for automatic door control
JP7229560B2 (en) 2017-04-10 2023-02-28 ビーイーエー エス.エー. Sensor for automatic door control
US12038508B2 (en) 2017-04-10 2024-07-16 Bea Sa Sensor for controlling an automatic door
CN112748700A (en) * 2020-12-18 2021-05-04 深圳市显控科技股份有限公司 Numerical control code generation method and device, electronic equipment and storage medium
CN113096337A (en) * 2021-04-08 2021-07-09 中国人民解放军军事科学院国防工程研究院工程防护研究所 Moving target identification processing method for complex background and intelligent security system

Similar Documents

Publication Publication Date Title
JP2004295798A (en) Security system
US7106885B2 (en) Method and apparatus for subject physical position and security determination
EP1782406B1 (en) Monitoring devices
US20170193306A1 (en) Wearable Camera Activated Security Accessory
JP2004531800A (en) Automated system for monitoring persons requiring monitoring and their caretakers
JP6115692B1 (en) Behavior detecting device, method and program, and monitored person monitoring device
CN113348493B (en) Intelligent monitoring system for swimming pool
JP5047361B2 (en) Monitoring system
KR102580434B1 (en) Dangerous situation detection device and dangerous situation detection method
CN114267153B (en) Household safety monitoring management system
US9613510B2 (en) Apparatus and method for rapid human detection with pet immunity
JP6142975B1 (en) Monitored person monitoring apparatus and method, and monitored person monitoring system
JP2019091233A (en) Notification control system, notification control method, and program
TWI588785B (en) Non-contact monitoring system and method thereof
KR102647328B1 (en) Edge-type surveillance camera AI abnormal situation detection and control device and method
WO2016126481A1 (en) System to determine events in a space
JP7137155B2 (en) Monitored Person Monitoring Support System, Monitored Person Monitoring Support Method and Program
US20240153109A1 (en) Image based tracking system
WO2023164782A1 (en) Harm prevention monitoring system and method
JP2011175597A (en) Security system
CN116189238B (en) Human shape detection and identification fall detection method based on neural network
KR20100007050A (en) Behavior pattern recognition device and its method
JP5863293B2 (en) Security system
Valarmathi et al. Design and Implementation of Secured Contactless Doorbell using IOT
JP2010177934A (en) Intercom system for apartment house and intercom system