JP6655727B2 - 監視システム - Google Patents
監視システム Download PDFInfo
- Publication number
- JP6655727B2 JP6655727B2 JP2018542032A JP2018542032A JP6655727B2 JP 6655727 B2 JP6655727 B2 JP 6655727B2 JP 2018542032 A JP2018542032 A JP 2018542032A JP 2018542032 A JP2018542032 A JP 2018542032A JP 6655727 B2 JP6655727 B2 JP 6655727B2
- Authority
- JP
- Japan
- Prior art keywords
- walking
- person
- image processing
- arm
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012544 monitoring process Methods 0.000 title claims description 38
- 238000012545 processing Methods 0.000 claims description 95
- 238000000034 method Methods 0.000 claims description 52
- 230000033001 locomotion Effects 0.000 claims description 45
- 230000008569 process Effects 0.000 claims description 35
- 230000036544 posture Effects 0.000 claims description 20
- 239000000126 substance Substances 0.000 claims description 20
- 210000003128 head Anatomy 0.000 description 40
- 238000001514 detection method Methods 0.000 description 37
- 238000004364 calculation method Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 230000009471 action Effects 0.000 description 5
- 238000003708 edge detection Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 239000000284 extract Substances 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000012790 confirmation Methods 0.000 description 3
- 210000000887 face Anatomy 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 208000032041 Hearing impaired Diseases 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000003066 decision tree Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000003628 erosive effect Effects 0.000 description 1
- 239000000383 hazardous chemical Substances 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000011895 specific detection Methods 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B25/00—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Emergency Management (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Emergency Alarm Devices (AREA)
- Alarm Systems (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Description
スマートフォン(以下「スマホ」と呼ぶ)の普及と利便性によって、スマホを見ながら、または操作しながら歩く人が多くなっている。このような行為を「ながら歩き」と呼ぶ。
「ながら歩き」によって、歩行中の接触事故や、駅のホームからの転落事故が増加している。
「ながら歩き」について図10を参照しながら説明する。図10は、ながら歩きの様子を示す図である。
図10に示すように、「ながら歩き」は、携帯電話機、電子端末(スマホを含む)、書籍を見ながら前方不注意の状態で歩く動作のことである。図10では、スマホを注視して歩行している様子を示している。スマホを見ながらの歩行を「歩きスマホ」と呼ぶ。
尚、関連する先行技術として、特開2015−133003号公報「歩行者用アラームサーバ及び携帯端末装置」(清水建設株式会社)[特許文献1]、国際公開番号WO2015/093330A1号公報「認識データ伝送装置」(シャープ株式会社)[特許文献2]がある。
また、特許文献2では、単に撮影画像から人物の特徴点を抽出する技術を示したものとなっている。
非特許文献1も、歩きスマホを認識する技術が記載されている。
本発明の実施の形態に係る監視システムは、昼間においては複数の可視光カメラを用いて、撮影した複数の映像データから検出した人物の移動速度と移動方向、頭の傾き、腕が前方にあって固定されているか否かの情報を統合して「ながら歩き」を判定し、夜間においては複数の赤外線カメラを用いて、撮影した複数の映像データから人体パーツ識別と姿勢推定により頭の傾き度合いを検出し、検出した人物の移動速度と移動方向、腕が前方にあって固定されているか否かの情報を統合して「ながら歩き」を判定し、「ながら歩き」の人物の進行方向が、事前登録した危険領域、危険物に向かっている場合に、警報するものであり、これにより「ながら歩き」に対して効果的に警報を行うことができるものである。
本発明の実施の形態に係る監視システムについて図1を参照しながら説明する。図1は、本発明の実施の形態に係る監視システムの構成概略図である。
本発明の実施の形態に係る監視システム(本監視システム)は、図1に示すように、画像処理装置1と、監視センター装置2と、複数のカメラ3と、ネットワーク4とから基本的に構成されている。
また、画像処理装置1は、監視センター装置2に接続している。
また、監視センター装置2は、図示していないが、撮影現場で音声出力するためのスピーカ(音声出力装置)に接続している。スピーカは、カメラ3の撮影エリアに応じて複数設置されている方が、警報をより的確に個別に行うことができるので効果的である。
尚、画像処理装置1と、監視センター装置2とを一体の装置で構成してもよい。
本監視システムの各部について具体的に説明する。
[画像処理装置1]
画像処理装置1は、ネットワーク4から伝送される映像データ(画像データ)を受信して入力する画像入力部11と、入力された画像データの画像処理を行う画像処理部12と、必要に応じて画像データ等を記憶する記憶部13と、画像処理された画像データを監視センター装置2に出力する画像出力部14とを基本的に有している。
画像処理部12は、危険領域、危険物の事前登録のために、監視センター装置2の制御部22からの指示が入力されるようになっている。
尚、画像処理装置1における処理動作の詳細は後述する。
監視センター装置2は、画像処理装置1の画像出力部14からの画像データを入力する画像入力部21と、装置内の制御を行う制御部22と、必要な情報を記憶する記憶部23と、画像等を表示する表示部(モニタ)24と、制御部22に対して必要な指示を入力する入力部25と、音声入力を行うマイク等の音声入力部26と、音声データを外部の音声出力装置(スピーカ)に出力する音声出力部27とを基本的に有している。
尚、監視センター装置2における処理動作の詳細は後述する。
カメラ3は、監視エリアに複数台設置され、撮影された映像データがネットワーク4を介して画像処理装置1に送信される。
各カメラ3には、固有のID(識別子)が付与され、送信される映像データにそのIDが付与されて画像処理装置1に送信される。画像処理装置1では、当該IDによってどのカメラ3で撮影された映像データであるのかを判別している。
また、カメラ3には、昼間用として可視光カメラと、夜間用として赤外線カメラがある。
ネットワーク4は、複数のカメラ3から同時に映像データを伝送できる容量があるネットワークである。通常は、専用回線の社内ネットワークであるが、インターネットを用いてもよい。
本監視システムの処理動作を説明する前に、カメラで撮影した映像データから人物の「ながら歩き」を判定する方法を説明する。
尚、カメラが可視光カメラの場合と(遠)赤外線カメラの場合では、人物の検出方法が異なる。
特許文献2の場合、撮影された映像データから検出対象の人物の歩行速度が一定であり、頭の傾き度合いが閾値以下、腕のエッジが体の前面にあるとの情報を統合して、「ながら歩き」を検出している。しかしながら、検出対象の人物の服装によっては、体前面のエッジが腕なのか服の柄なのかを判定するのが難しく、また、「ながら歩き」をする人物は常に下を向いていると定義しているが、不定期に前方を確認してスマホを見るという動作を繰り返すことがあり、「ながら歩き」を判定するのが難しい。
本監視システムにおける「ながら歩き」を判定する方法について図2、図3を参照しながら説明する。図2は、腕の動き情報を利用した腕の固定判定の説明図である。
「ながら歩き」をしている人物は、片手又は両手がスマホにより進行方向(前方)に固定されているため、歩行時に腕を振る動作がない。そこで、本監視システムの画像処理装置1では、図2に示すように、映像データから正面又は背面における人(実線の四角い枠)を検出した後に、体の左右の動き(腕の動き)情報(点線の2つの四角い枠)を検出する。
これにより「ながら歩き」の可能性があることになる。
また、図3は、前方確認とスマホ注視を繰り返す動作の判定の説明図である。
図3に示すように、スマホを見るという動作に対しては、人の側面において時系列に頭の動きを捉えることで、「ながら歩き」を判定できる。具体的には、目、鼻、口などの顔パーツを検出して、顔の向きに基づいて下を向いていると判定する。
つまり、検出対象者の頭の傾き度合いを一定時間保持しておき、長い時間下を向いていて、不定期に短い時間で前を向いていると識別できる場合には、スマホの注視と前方確認を繰り返しているものとして「ながら歩き」と判定できる。
可視光カメラでは、夜間や暗い場所では検出精度が低下する恐れがある。例えば、夜間の工事現場において作業員を監視し、設計図や電子端末を確認しながら歩いている状態に警告できれば、工事現場での重大事故を防げる可能性がある。そこで、暗い場所でも人物を検出できる赤外線カメラを使用する。
しかしながら、赤外線カメラは、可視光カメラとは異なり、色情報はなく人物の詳細なエッジを判断することは難しいため、可視光カメラの場合の画像処理をそのまま適用することはできない。
図4(a)には、可視光カメラで撮影したイメージ図を、図4(b)には、赤外線カメラで撮影したイメージ図を示している。図4は、カメラの種類によるイメージ図の違いを示す図である。
赤外線カメラを用いる場合、検出対象者の服装にかかわらず腕のエッジは検出できるため、検出されたエッジから腕の位置と腕の部分の動きを測定し、腕の位置と腕の動きの大小により腕が前方で固定されているか否かの判定は可能である。また、対象者の検出が容易であるため歩行速度の検出も容易である。
赤外線カメラの場合、頭の傾き度合いの検出については、顔のパーツが捉えられなくなるため困難である。そこで、図5に示すような方法によって姿勢を推定し、頭の傾き度合いを判定する。図5は、人体パーツ識別による姿勢推定の流れを示す図である。
映像データから人を側面から検出した後に、図5に示すように、人体パーツを特徴量により検出し、各パーツの中心点を抽出してその中心点を結線することで人体の骨組みを作成する。この骨組みから対象人物の姿勢を推定する。
可視光カメラと赤外線カメラでは、下向きの姿勢を判定する処理が特に異なっている。
次に、危険領域と危険物の事前登録について図6を参照しながら説明する。図6は、危険領域と危険物の事前登録と警告例を示す図である。
図6(a)に示すように、監視エリアの映像データに対して、画像処理装置1で、事前に危険領域と危険物を設定しておく。具体的には、監視センター装置2の表示部24に映像データを表示させ、入力部25によって危険領域と危険物を特定し、画像処理装置1の記憶部13に設定して記憶させておく。
例えば、図6(b)に示すように、自動音声で、危険領域に近づく場合は、「進入禁止エリアです」と警告し、危険物に近づく場合には、「衝突の危険があります」と警告するものである。
次に、本監視システムの動作について図1を参照しながら説明する。
監視対象のエリアには複数の可視光カメラ3、赤外線カメラ3が設置されており、それらカメラ3で撮影された映像データがネットワーク4を介して画像処理装置2に伝送される。
尚、画像処理装置1の画像処理部12は、入力された映像データを、画像出力部14を介して全て監視センター装置2に出力してもよいが、その場合に、「ながら歩き」の映像データを識別できる情報を付与して出力する。
更に、制御部22は、当該「ながら歩き」の映像データに基づいて「ながら歩き」の対象者に向けて自動音声でその行為を停止するよう警報を発する。
それでも「ながら歩き」が止まない場合には、音声入力部(マイク)26からの肉声が音声出力部27から外部のスピーカに出力される。
尚、本監視システムにおいて、画像処理装置1が直接スピーカに警報を発するようにしてもよい。
そして、画像処理部12では、危険領域、危険物に「ながら歩き」の人物が近づいたと判定した場合に、音声出力部27に自動音声を出力し、警報を発生させるようにすることができる。
つまり、画像処理装置1又は監視センター装置2が、カメラ3に対応した指向性スピーカを対応付けて記憶しており、「ながら歩き」を検出したカメラ3に対応するスピーカに警報を出力する。
次に、画像処理部12における「ながら歩き」検出処理について図7を参照しながら説明する。図7は、ながら歩き検出のフローチャートである。
図7に示すように、画像処理部12は、「ながら歩き」の検出を常時実施し、「ながら歩き」を検出した際には、監視センター装置2の表示部(モニタ)24への表示とアラーム発報を実施する。
更に、「ながら歩き」か否かを判定し(S4)、「ながら歩き」でないと判定した場合(Noの場合)には、アラームを停止して(S5)、処理S1に戻る。
「ながら歩き」と判定した場合(Yesの場合)には、警告処理(S6)を行い、処理S1に戻る。
また、警告処理(S6)では、監視センター装置2の表示部24に警報を表示してマイクからの肉声での警報を促すものである。これにより、「ながら歩き」の人物に肉声で注意でき、また、現場の警備員が対処することになる。
次に、可視光カメラを用いて、「ながら歩き」の検出を行う画像処理(図7の画像処理モード)について図8を参照しながら説明する。図8は、可視光カメラの場合のながら歩き検出フローチャートである。
図8に示すように、まず、画像処理部12は、カメラ映像から局所領域の特徴量を抽出し、学習した識別器(識別器については後述する)で判定を行うなどして人検出を行う(S11)。人物が検出されない場合には、処理S11を繰り返す。識別器は、人である確からしさ以外にも、撮影向き(姿勢)に関する情報を出力しうる。
局所領域の処理では、まず、検出した人物を時系列に追跡することで、移動速度と移動方向を算出する(S12)。
そして、検出した人物の前面のエッジ情報を検出し(S13)、体の左右の腕領域から動き情報を算出する(S14)。図2に示したように、腕領域において所定量以上のエッジがあり左右どちらか又は両方のエッジの動きが小さい場合、腕を固定している何かを持っている可能性が高く、特にエッジから検出した腕の先端が胸又は顔に近い位置に相当する場合、前面で固定して何かを持っていると判定する。
統合した情報の内、複数又は1つが「ながら歩き」の特徴と一致する場合、画像処理部12は、アラームを発報することになる。
尚、「ながら歩き」を複数人について判定した場合は、各人物について警告してもよいし、まとめて警告してもよい。
次に、赤外線カメラを用いて、「ながら歩き」の検出を行う画像処理(図7の画像処理モード)について図9を参照しながら説明する。図9は、赤外線カメラの場合のながら歩き検出フローチャートである。
図9に示すように、処理S21から処理S23の途中までは可視光カメラを用いる場合と同様である。
更に、人体パーツを識別し、姿勢推定を行う。具体的には、人体パーツを表わす直線等の両端点、若しくは中心点座標及び角度に基づいて、人体らしい形になるようにそれらを連結し、人体の骨組みを作成する。図5の例では、体(動体)の軸(首と、体の中心点を結ぶ線分)と、頭の軸(首と、頭の中心点を結ぶ線分)のなす角度を算出する。この角度が前方に傾いている場合、首のパーツが頭で隠れて検出されない場合、または、首のパーツが隠れて小さい場合には、下を向いていると判定する。
統合した情報の内、複数又は1つが「ながら歩き」の特徴と一致する場合、画像処理部12は、アラームを発報することになる。
尚、「ながら歩き」を複数人について判定した場合は、各人物について警告してもよいし、まとめて警告してもよい。
次に、人検出、移動速度と移動方向の算出、腕のエッジ算出、腕の動き量の算出、頭の傾き度合いの算出等に関する各処理について具体的に説明する。
[人検出]
人検出は、局所領域における特徴抽出と事前に学習した識別器を用いて実現する。特徴量には、HOG(Histogram of Oriented Gradients)特徴量などエッジの勾配ヒストグラムを使用する方法などを用いることができる。学習には、教師あり学習を実行するための機械学習メタアルゴリズムの一種で、多くの場合、分布に従って弱い分類器に繰り返し学習させ、それを最終的な強い分類器の一部とするBoostingなどの教師有り学習を用いることができる。
オンライン処理では、画角内を局所領域で走査し、特徴量を算出し識別器に入力する。このとき、人として判定された領域に対して、ながら歩きか否かの判定処理を実施する。
対象人物の移動速度と移動方向の算出は、人検出により検出された領域をトラッキング技術で追跡することで求める。トラッキングには、テンプレートマッチングやアクティブ探索などの手法を用いることができる。トラッキングにより人を追跡し、追跡領域の中心点が1フレームあたり何ピクセル移動したかにより移動速度を算出できる。
腕のエッジが体の前面にあるかの判定は、まず人検出領域においてエッジ検出をする。エッジ検出にはcanny法やソーベルフィルタをかけることで実現できる。
canny法は、Gaussianフィルタで画像を平滑化し、平滑化された画像の微分を計算し、微分した結果から勾配の大きさと方向の計算し、Non maximum Suppression処理をし、Hysteresis Threshold処理をして、エッジ検出を行う。
ソーベル(sobel)フィルタは、空間1次微分を計算し、輪郭を検出するフィルタである。
人検出領域は1つの人影を含んでいると仮定すると、所定の人体モデルに基づき、制約付きで線分や楕円の検出を行うことができる。例えば頭部は、局所領域内の上寄りの位置で、局所領域に比例する所定のサイズを有するものとして、探索され得る。首の位置は、頭部を楕円として検出する方法では、頭の長軸と体の軸の交点として定義できる。頭部を検出しない方法では、人影エッジの最上点を頭頂部として、頭と体(動体)の合計長さを適当な比率で分割することで、体軸上の首位置を推定する。首の角度は、様々な方法で算出でき、例えば首位置から最も遠い頭部エッジへ伸びる半直線が、体軸となす角度としても算出されうる。
尚、エッジ検出の方法に依らず、背景差分等で抽出した人物のシルエット(2値画像)に対して、モフォロジー演算の一種である浸食を繰り返し施して細線化する、スケルトン処理を用いてもよい。
腕の動き量は、人検出領域において腕領域とする領域を左右に定義し、それぞれ左右の腕領域において動き情報を算出することで求める。動き情報には、算出した特徴点のフレーム間のベクトルから求めるオプティカルフローなどを用いることができる。
オプティカルフローは、デジタル画像中の物体の動きを「ベクトル」で表したもので、主に移動物体の検出や、その動作の解析などによく用いられる。
人検出領域中の左右の腕領域において、動き情報が小さいときは腕を振っておらず何かを持って固定されていると判断できる。
動き量の算出は、オプティカルフロー法に限定されず、動きを検出する周知のあらゆる技術が用いられうる。
可視光カメラを用いて頭の傾き度合いを求める際は、人検出領域の中から顔検出を行い、顔のパーツの位置で顔方向を算出する。
顔検出にはHaar-like検出器などを用いることができる。
赤外線カメラを用いて頭の傾き度合いを求める際は、上述したように人検出領域の中から人体パーツ識別を行い、各パーツの中心点を抽出し、その中心点をつなぎ合わせた人体の骨組みを作成することで姿勢を推定して算出する。
Randam Forestは、機械学習のアルゴリズムであって、分類、回帰、クラスタリングに用いられ、決定木を弱学習器とする集団学習アルゴリズムであり、ランダムサンプリングされたトレーニングデータによって学習した多数の決定木を使用する。
体パーツと首パーツの中心点と頭パーツの中心点の角度が前方に傾いていれば下を向いていると判定できる。また、人体パーツ識別をしたときに首パーツの識別数が少ないときは、下を向いたことにより首が隠れている判定することができる。
監視カメラの画角内に侵入すると危険な領域や衝突すると危険な物体が存在する場合、事前にその物体を登録することができる。インタフェース画面では、対象領域をマウスで囲むように選択することで登録が完了する。ながら歩きを検出し、進行方向に登録領域がある場合は警告を発報することができる。
本監視システムによれば、画像処理装置1が、カメラ3が可視光カメラである場合に、複数のカメラの映像データから人物を検出して当該人物の移動速度と移動方向を検出し、人物における体の左右の動きを検出して腕が前方で固定されているか否かを判定し、顔の向きによって下を向いていると判定し、一定期間に人物の腕が前方で固定され、断続的に前向きと下向きの姿勢が繰り返される場合に「ながら歩き」と判定し、「ながら歩き」と判定した場合にスピーカに警報を出力するようにしているので、「ながら歩き」を的確に検出して警報できる効果がある。
Claims (3)
- 監視エリアにおいて複数のカメラとスピーカを備え、当該エリア内でスマートフォンの画面を見ながら歩行する「ながら歩き」を検出して警報する監視システムであって、
前記カメラに接続し、前記カメラで撮影された映像データを入力して前記「ながら歩き」を検出する画像処理を行う画像処理装置を備え、
当該画像処理装置は、前記カメラが可視光カメラである場合に、複数の前記カメラの映像データから人物を検出して当該人物の移動速度と移動方向を検出する処理と、前記人物における体の左右の動きを検出して腕が前方で固定されているか否かを判定する処理と、顔の向きによって下を向いていると判定する処理と、一定期間に前記人物の腕が前方で固定され、断続的に前向きと下向きの姿勢が繰り返される場合に「ながら歩き」と判定する処理と、「ながら歩き」と判定した場合に前記スピーカに警報を出力する処理とを実行することを特徴とする監視システム。 - 監視エリアにおいて複数のカメラとスピーカを備え、当該エリア内でスマートフォンの画面を見ながら歩行する「ながら歩き」を検出して警報する監視システムであって、
前記カメラに接続し、前記カメラで撮影された映像データを入力して前記「ながら歩き」を検出する画像処理を行う画像処理装置を備え、
当該画像処理装置は、前記カメラが赤外線カメラである場合に、複数の前記カメラの映像データから人物を検出して当該人物の移動速度と移動方向を検出する処理と、前記人物における腕のエッジを検出して腕の動きから腕が前方で固定されているか否かを判定する処理と、前記人物の人体のパーツを検出して当該人体のパーツの中心点を抽出し、当該中心点を結線して体と首の結線と首と頭の結線による角度が前方に傾いている場合に、下を向いていると判定する処理と、一定期間に前記人物の腕が前方で固定され、断続的に前向きと下向きの姿勢が繰り返される場合に「ながら歩き」と判定する処理と、「ながら歩き」と判定した場合に前記スピーカに警報を出力する処理とを実行することを特徴とする監視システム。 - 画像処理装置は、監視エリアの映像データに対して事前に危険領域又は危険物を設定しておき、「ながら歩き」と判定した人物が前記危険領域又は前記危険物の方向に向かっている場合に、スピーカに前記危険領域又は前記危険物があることを警報する処理を実行することを特徴とする請求項1又は2記載の監視システム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016189173 | 2016-09-28 | ||
JP2016189173 | 2016-09-28 | ||
PCT/JP2017/031596 WO2018061616A1 (ja) | 2016-09-28 | 2017-09-01 | 監視システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018061616A1 JPWO2018061616A1 (ja) | 2019-07-18 |
JP6655727B2 true JP6655727B2 (ja) | 2020-02-26 |
Family
ID=61759607
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018542032A Active JP6655727B2 (ja) | 2016-09-28 | 2017-09-01 | 監視システム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6655727B2 (ja) |
WO (1) | WO2018061616A1 (ja) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11514703B2 (en) * | 2018-08-07 | 2022-11-29 | Canon Kabushiki Kaisha | Detection device and control method of the same |
JP7204421B2 (ja) * | 2018-10-25 | 2023-01-16 | キヤノン株式会社 | 検知装置およびその制御方法 |
JP7492226B2 (ja) * | 2018-12-13 | 2024-05-29 | 成典 田中 | 移動物追跡装置 |
CN109840917B (zh) * | 2019-01-29 | 2021-01-26 | 北京市商汤科技开发有限公司 | 图像处理方法及装置、网络训练方法及装置 |
KR102021441B1 (ko) * | 2019-05-17 | 2019-11-04 | 정태웅 | 인공지능을 이용한 영상 기반의 실시간 침입 감지 방법 및 감시카메라 |
CN111325141B (zh) * | 2020-02-18 | 2024-03-26 | 上海商汤临港智能科技有限公司 | 交互关系识别方法、装置、设备及存储介质 |
KR102412270B1 (ko) * | 2020-03-13 | 2022-06-24 | (주)아이센 | 실내 인명사고 감지 시스템 |
JP7364148B2 (ja) * | 2020-03-16 | 2023-10-18 | 公立大学法人会津大学 | 野生動物警報システム及び野生動物警報方法 |
JP2021163260A (ja) * | 2020-03-31 | 2021-10-11 | 株式会社小松製作所 | 検出システムおよび検出方法 |
US20230306833A1 (en) * | 2020-09-14 | 2023-09-28 | Konica Minolta, Inc. | Safety monitoring device, safety monitoring method, and program |
CN112634561A (zh) * | 2020-12-15 | 2021-04-09 | 中标慧安信息技术股份有限公司 | 基于图像识别的安全报警方法和系统 |
CN113112722B (zh) * | 2021-03-03 | 2023-03-24 | 杭州海康威视数字技术股份有限公司 | 一种事件检测方法、装置、系统及设备 |
CN114390252B (zh) * | 2021-12-29 | 2023-06-20 | 北京科技大学 | 基于5g近红外夜视智能分析的安全监测方法及系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015228131A (ja) * | 2014-05-30 | 2015-12-17 | 東芝テック株式会社 | 情報処理装置および報知システム |
-
2017
- 2017-09-01 WO PCT/JP2017/031596 patent/WO2018061616A1/ja active Application Filing
- 2017-09-01 JP JP2018542032A patent/JP6655727B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
WO2018061616A1 (ja) | 2018-04-05 |
JPWO2018061616A1 (ja) | 2019-07-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6655727B2 (ja) | 監視システム | |
CN110419048B (zh) | 用于标识所定义的对象的系统 | |
US11282389B2 (en) | Pedestrian detection for vehicle driving assistance | |
US10949657B2 (en) | Person's behavior monitoring device and person's behavior monitoring system | |
US10042031B2 (en) | Method and system for detecting that an object of interest has re-entered a field of view of an imaging device | |
US20180365839A1 (en) | Systems and methods for initialization of target object in a tracking system | |
US20230351757A1 (en) | Information processing apparatus, control method, and program | |
WO2019097595A1 (ja) | 車外コミュニケーション装置、車外コミュニケーション方法、情報処理装置、及び車外コミュニケーションプログラム | |
EP2629241A1 (en) | Control of a wearable device | |
US12094252B2 (en) | Occlusion-aware prediction of human behavior | |
Nar et al. | Abnormal activity detection for bank ATM surveillance | |
JP2010191793A (ja) | 警告表示装置及び警告表示方法 | |
KR102185859B1 (ko) | 객체 추적 장치 및 방법 | |
CN111160220B (zh) | 一种基于深度学习的包裹检测方法、装置、存储介质 | |
CN110582781A (zh) | 视线追踪系统及方法 | |
JP5718632B2 (ja) | 部位認識装置、部位認識方法、及び部位認識プログラム | |
CN116259002A (zh) | 一种基于视频的人体危险行为分析方法 | |
CN110580708B (zh) | 一种快速移动检测方法、装置及电子设备 | |
CN112149527A (zh) | 一种可穿戴设备检测方法、装置、电子设备及存储介质 | |
CN108647600B (zh) | 人脸识别方法、设备及计算机可读存储介质 | |
Montazeri et al. | Eye detection in digital images: challenges and solutions | |
JP6022625B2 (ja) | 部位認識装置、部位認識方法、及び部位認識プログラム | |
JP2021005333A (ja) | 医療用装身器具の自己抜去監視システム及び医療用装身器具の自己抜去監視方法 | |
KR101876543B1 (ko) | 탑뷰 영상 기반 인체 포즈 추정 장치 및 방법 | |
JP6621127B1 (ja) | 医療用装身器具の自己抜去監視システム及び医療用装身器具の自己抜去監視方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190218 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200130 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200203 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6655727 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |