JP5626099B2 - 歩行者検出装置 - Google Patents

歩行者検出装置 Download PDF

Info

Publication number
JP5626099B2
JP5626099B2 JP2011097387A JP2011097387A JP5626099B2 JP 5626099 B2 JP5626099 B2 JP 5626099B2 JP 2011097387 A JP2011097387 A JP 2011097387A JP 2011097387 A JP2011097387 A JP 2011097387A JP 5626099 B2 JP5626099 B2 JP 5626099B2
Authority
JP
Japan
Prior art keywords
image
pedestrian
monitoring area
foreign object
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011097387A
Other languages
English (en)
Other versions
JP2012230494A (ja
Inventor
秀行 関
秀行 関
大介 植田
大介 植田
Original Assignee
サクサ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by サクサ株式会社 filed Critical サクサ株式会社
Priority to JP2011097387A priority Critical patent/JP5626099B2/ja
Publication of JP2012230494A publication Critical patent/JP2012230494A/ja
Application granted granted Critical
Publication of JP5626099B2 publication Critical patent/JP5626099B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Burglar Alarm Systems (AREA)

Description

本発明は、画像処理技術を用いて歩行者を検出する装置に関する。
従来、画像処理技術を用いて歩行者を検出する装置として、監視エリアをカメラで撮影して取得した動画像の最新のフレームと以前に取得したフレームとのフレーム間差分を求めることによって監視エリア内の移動物体を検出し、この移動物体が横方向に移動する場合に歩行者と判定するようにした歩行者検出装置がある(特許文献1参照)。
しかしながら、上記従来の歩行者検出装置では、フレーム間差分によって検出される移動物体が歩行者であるとは限らないため、歩行者以外の物体を誤って歩行者と判定してしまうおそれがある。
特開平7−200986号公報
本発明は、このような問題を解決するためになされたものであり、その目的は、監視エリアを所定時間毎に撮影して取得した画像を処理して、監視エリア内の歩行者を検出するときの検出精度を高めることである。
本発明の歩行者検出装置は、監視エリアを所定時間毎に撮影して取得した撮影画像と、予め取得しておいた当該監視エリアの背景画像との差分である背景差分画像を基に、前記監視エリア内の異物に対応する異物画像を検出する異物画像検出部と、異なる時刻に取得した前記撮影画像間の差異を基に、前記監視エリア内の移動物体に対応する移動物体画像を検出する移動物体画像検出部と、前記異物画像と、前記移動物体画像との差分を基に、前記異物における静止領域に対応する静止領域画像を抽出する静止領域画像抽出部と、異なる時刻に抽出された隣り合う静止領域画像間の距離又は抽出時間差の少なくとも一方と、予め設定した歩幅又は歩行周期の少なくとも一方とに基づいて、前記監視エリア内の歩行者を検出する歩行者検出部とを有する歩行者検出装置である。
本発明によれば、監視エリアを所定時間毎に撮影して取得した画像を処理して、監視エリア内の歩行者を検出するときの検出精度を高めることができる。
本発明の実施形態の歩行者検出システムによる歩行者検出の概要を説明するための図である。 本発明の第1の実施形態の歩行者検出システムのブロック図である。 本発明の第1の実施形態の歩行者検出システムの動作を示すフローチャートである。 本発明の第2の実施形態の歩行者検出システムのブロック図である。 本発明の第2の実施形態の歩行者検出システムの動作を示すフローチャートである。
以下、本発明の実施形態について図面を参照して説明する。
[歩行者検出処理の概要]
本発明の実施形態は、画像処理の内容が異なる第1の実施形態及び第2の実施形態からなる。まず二つの実施形態に共通な事項である歩行者検出処理の概要について、図1を用いて説明する。なお、本発明において、歩行者とは、徒歩により任意の速度で移動する人を意味する。即ち、歩く人だけでなく走る人も含む。
ここで、図1Aは、監視エリア100内を一人の歩行者101が矢印102に示す方向に移動している様子を示している。このとき、歩行者101の足の動きに注目すると、片足ずつ交互に動き、かつ交互に静止することが判る。図では、領域103、104、及び105が静止状態の足を含んでいる。歩行者が一定の歩幅かつ一定の歩行速度(歩行周期)で移動した場合、領域103、104、105内で静止している部分(以下、静止部分)の下端の中心間距離は歩幅に一致し、領域103、104、105内の静止部分の発生周期は歩行周期に一致することになる。
そこで、本発明の実施形態では、画像処理技術を用いて、領域103、104、105内の静止部分を検出し、さらに静止部分の下端の中心間距離及び静止部分の発生周期を算出し、それらを予め設定しておいた歩幅(例えば80cm)又は歩行周期(例えば0.6秒)と比較し、例えばそれぞれが一致するか又は誤差が閾値以下の場合に、歩行者が存在すると判定することで、監視エリア100内の歩行者を検出する。
領域103、104、105内の静止部分の検出は以下の手順により行う。
まず、監視エリア100をカメラにより撮影して取得した撮影画像、及び予め取得しておいた監視エリア100の背景画像との差分である背景差分画像を求める。ここで、撮影画像は、所定時間(1/15秒、1/30秒等)毎のフレーム画像からなる動画像である。これにより、図1Bに示すように、撮影画像200内の異物画像201を検出することができる。なお、ここでは、便宜上、図1Aにおける歩行者101が右端の位置のみの画像を異物画像として図示した。
次に、撮影画像間のフレーム間差分やオプティカルフローを算出することで、図1Cに示すように、移動物体画像202を検出する。ここで、検出された移動物体画像202は、異物画像201から、領域105内の静止部分に対応する画像を除いた画像である。
次いで、異物画像201から移動物体画像202を減算することで、異物画像201における静止領域に対応する静止領域画像を抽出する。これにより、図1Dに示すように、異物画像201における移動物体画像202に対応する部分の画像203が消え、領域105内の静止部分である足に対応する静止領域画像204が現れる。
以上、便宜上、図1Aの領域105内の静止部分を検出する手順を説明した。領域103、104内の静止部分も同様に検出することができる。
[第1の実施形態の構成]
図2は、本発明の第1の実施形態の歩行者検出システムのブロック図である。
この歩行者検出システムは、監視エリアを撮影して画像を取得するカメラ1と、カメラ1で取得された画像を処理するとともに、処理結果を基に歩行者を検出する制御部2と、制御部2に接続された画像表示部3及び警報出力部4を備えている。制御部2が本発明に係る歩行者検出装置に対応する。
カメラ1は、監視エリアを撮影して、監視エリアの画像を取得する。監視エリアは、ユーザによる設定操作に基づいて制御部が設定する。画像のフレームレート(1秒当たりのフレーム数)は、検出対象となる歩行者の歩行速度に応じて設定する。普通の速度で歩く人が対象であれば例えば15fps(frames per second)、走る人を対象に含めるのであれば例えば30fps程度にする。また、画像は、カラー画像とすることも出来るが、本実施形態では可視光又は赤外線(夜間は赤外線のみ可)の輝度画像とした。
制御部2は、図示しないCPU(Central Processing Unit)、ROM(Read Only Memory)、及びRAM(Random Access Memory)を内蔵しており、ROMに記憶されているプログラムやデータをCPUがRAMをワークエリアとして実行することにより実現される機能として、画像入力部21、背景差分処理部22、フレーム間差分処理部23、静止領域抽出部24、歩行者らしさ尤度演算部25、及び歩行者判定部26を備えている。また、ROMには、歩行者らしさ尤度演算部25が尤度演算を行うときに参照するデータを記憶する尤度演算用データ記憶部27、及び歩行者判定部26が歩行者判定を行うときに参照するデータを記憶する歩行者判定用データ記憶部28が設けられている。
画像入力部21は、カメラ1で取得された監視エリアの撮影画像を、カメラ1のフレームレートで取り込む。これにより、制御部2内のRAM内の画像メモリエリアに、フレームレートで撮影画像が書き込まれる。
背景差分処理部22は、画像入力部21により取り込まれた撮影画像と、予め取り込んでおいた監視エリアの背景画像との差分を演算して、背景差分画像を生成する。これにより、背景画像と撮影画像との差異に対応する画像が異物画像として検出される。
フレーム間差分処理部23は、画像入力部21により取り込まれた撮影画像間のフレーム間差分、即ちフレームレートに対応する時間だけ異なる時刻に取得された撮影画像の差分を演算する。これにより、隣接フレームの撮影画像間で変化した部分が移動物体画像として検出される。
静止領域抽出部24は、背景差分処理部22で検出された異物画像と、フレーム間差分処理部23で検出された移動物体画像との差分を演算する。これにより、背景差分処理部22で検出された異物画像のうち、フレーム間差分処理部23で検出された移動物体画像に含まれていない部分、換言すれば、異物画像のうち、静止している領域である静止領域画像が抽出される。
制御部2は、静止領域抽出部24により抽出された静止領域画像の中心位置の座標データを生成し、制御部2内の図示しない時計部が生成した時刻情報に関連付けて、RAMに書き込む。ここで、静止領域画像の中心位置座標データについては、まず監視エリアの撮影画像の画像平面上のX−Y座標データを算出し、次にROMに記憶しておいた位置座標変換テーブル(図示せず)を参照して監視エリアの実際の三次元位置座標データに変換し、変換後の位置座標データをRAMに書き込む。
歩行者らしさ尤度演算部25は、今回書き込まれた静止領域画像の中心位置座標データと、前回書き込まれた静止領域画像の中心位置座標データと、尤度演算用データ記憶部27に記憶されているデータとを用いて、異物画像に対応する異物の歩行者らしさの尤度を演算する。
即ち、例えば、尤度演算用データ記憶部27に、歩行者の歩幅データ、ゆっくり歩くから小走りの範囲の歩行周期データ、静止領域の中心位置の移動量と歩幅データの一致具合と静止領域の発生周期と歩行周期データの一致具合とを重み付ける係数データを記憶しておく。歩行者らしさ尤度演算部25は、RAMに書き込まれた静止領域画像の中心位置座標データと歩幅データとの一致具合、静止領域画像の発生周期と歩行周期データの一致具合を算出し、それらを重み付けすることで、歩行者らしさの尤度を演算する。この尤度は、静止領域画像の中心位置座標データ及び発生時刻データが書き込まれる毎に算出される。
歩行者判定部26は、歩行者らしさ尤度演算部25により算出された歩行者らしさの尤度と、歩行者判定用データ記憶部28に記憶されている規定値との差異が閾値以内の場合に、監視エリアに歩行者が存在するとの判定を行い、警報出力部4に対してアラーム信号を送出する。
画像表示部3は、液晶ディスプレイなどからなり、静止領域抽出部24により抽出された静止領域画像を背景画像に重ねて表示する。警報出力部4は、歩行者判定部26からのアラーム信号に基づいて、可聴音や可視光からなる警報を出力する。
[第1の実施形態の動作]
図3は、本発明の第1の実施形態の歩行者検出システムにおける制御部2の動作を示すフローチャートである。以下、図1乃至図3を用いて、本発明の第1の実施形態の歩行者検出システムの動作について説明する。
まず画像入力部21がカメラ1により取得された監視エリアの画像を入力する(ステップS1)。次に背景差分処理部22が、画像入力部21により入力された画像と、予め取得しておいた監視エリアの背景画像との背景差分処理を行い(ステップS2)、さらに背景差分2値化処理を行う(ステップS3)。これにより、背景差分画像が生成される。
次に制御部2は、監視エリアに異物が有るか否かを判断する(ステップS4)。ここで、ステップS3で2値化処理された画像において、レベルが“1”となる領域(背景画像と撮影画像とに差がある領域)が有る場合、その領域を異物と判断する。図1Aの監視エリア100を撮影した画像を入力した場合、図1Bの異物画像201が検出され、異物が有ると判断される。
異物が有ると判断した場合は(ステップS4:Yes)、フレーム間差分処理部23が、画像入力部21により入力された画像に対して、フレーム間差分処理を行い(ステップS6)、さらにフレーム間差分2値化処理を行う(ステップS7)。これにより、図1Cの移動物体画像202が検出される。
次に、静止領域抽出部24が、背景差分処理部22で検出された異物画像(ステップS3の背景差分2値化の結果)と、フレーム間差分処理部23で検出された移動物体画像(ステップS7のフレーム間差分2値化の結果)との差分を基に、異物における静止領域に対する静止領域画像を抽出する(ステップS8)。これにより、図1Dの静止領域画像204が抽出される。
次に制御部2は、ステップS8で抽出された静止領域画像が新たな静止領域に対応するか否かを判断する(ステップS9)。ここで、新たな静止領域に対応するか否かは、今回抽出した静止領域画像と、前回抽出した静止領域画像の画像平面上のX−Y座標データが一致していなければ新たな静止領域に対応すると判断し、一致していれば新たな静止領域に対応しないと判断する。新たな静止領域に対応すると判断した場合は(ステップS9:Yes)、静止領域画像の中心位置座標データ及び現在時刻データをRAMに書き込み、保存する(ステップS10)。
次いで歩行者らしさ尤度演算部25は、RAMに保存されている静止領域画像の中心位置座標データと、尤度演算用データ部27に記憶されている尤度演算用データを用いて、歩行者らしさの尤度を演算する(ステップS11)。
次に歩行者判定部26は、歩行者らしさ尤度演算部25で算出された歩行者らしさの尤度と、歩行者判定用データ記憶部28に記憶されているデータを用いて、背景差分処理部22で検出された異物画像に対応する異物が歩行者か否かを判断する(ステップS12)。そして、歩行者であると判断した場合は(ステップS12:Yes)、警報出力部4に対してアラーム信号を送出する(ステップS13)。
一方、歩行者ではないと判断した場合は(ステップS12:No)、ステップS1に移行して、次のフレームの画像を入力する。また、ステップS9で、静止領域画像が新たな静止領域に対応するものではないと判断した場合も(ステップS9:No)、ステップS1に移行して、次のフレームの画像を入力する。ステップS4で、監視エリアに異物が無いと判断した場合は(ステップS4:No)、入力画像により背景画像を更新してから(ステップS5)、ステップS1に移行して、次のフレームの画像を入力する。
このように本発明の第1の実施形態の歩行者検出システムによれば、監視エリアの背景差分画像を基に検出した異物画像と、フレーム間差分画像を基に検出した移動物体画像との差分を基に異物画像中の静止領域画像を抽出し、異なる時刻に抽出された隣り合う静止領域画像の下端の中心間の距離及び抽出時間差と、予め設定した歩幅及び歩行周期とに基づいて、監視エリア内の歩行者を検出する。従って、歩行者以外の移動物体を誤って歩行者として検出する可能性が低くなり、検出精度が高くなる。このため、警報出力部4から誤報が出力される可能性を低減することができる。また、異物の無いときの入力画像により背景画像を更新するので、監視エリアの明るさなどの変化に対して、自動的に背景画像を追随させることができる。
[第2の実施形態の構成]
図4は、本発明の第2の実施形態の歩行者検出システムのブロック図である。この図において、図2(第1の実施形態)と同一又は対応するブロックには図2と同じ参照符号を付した。
第2の実施形態は、第1の実施形態におけるフレーム間差分処理部23に代えてオプティカルフロー処理部29を設け、オプティカルフロー処理部29により移動物体画像を検出することが特徴であり、その他の部分の構成と機能は第1の実施形態と同じである。そこで、以下の第2の実施形態に関する説明は、主としてオプティカルフロー処理部29に関して行う。
オプティカルフロー処理部29は、画像入力部21により入力された画像のオプティカルフローを求めることで、監視エリアの移動物体画像を検出し、その結果を静止領域抽出部24に送出する。
オプティカルフローとは、フレーム画像、即ち時間的に連続する画像列における画像内の各点(画素)の速度ベクトルの分布である。速度ベクトルとは、単位時間当たりの移動ベクトル(移動方向、移動距離)である。
フレーム画像中の各点の移動ベクトルを求める方法には、大別して、フレーム画像間で対応点を探索して求める照合法と、各点の輝度の空間的及び時間的な勾配の関係を用いる時空間勾配法がある。これらの詳細については、例えば「末松良一、山田宏尚著『画像処理工学』、pp.190-193、(株)コロナ社、2000年10月26日発行」に記載されているように周知であるため、ここでは説明しない。
オプティカルフローにより移動物体画像の検出は、フレーム間差分法では検出が困難な人通りの多い場所を監視エリアとした場合でも、ある程度正確な検出結果が得られる。
[第2の実施形態の動作]
図5は、本発明の第2の実施形態の歩行者検出システムにおける制御部2の動作を示すフローチャートである。この図において、図3(第1の実施形態)と同じステップには図3と同じ参照符号(ステップ番号)を付した。
以下、図1、図4及び図5を用いて、本発明の第2の実施形態の歩行者検出システムの動作について、主として、第1の実施形態と異なる部分であるオプティカルフローに関して説明する。
図5に示すように、画像入力部21がカメラ1から画像を入力するステップ(ステップS1)から監視エリアに異物が無いとの判断結果(ステップS4:No)に応じて、背景画像を更新するステップ(ステップS5)までは第1の実施形態と同じである。
監視エリアに異物が有ると判断した場合は(ステップS4:Yes)、オプティカルフロー処理部29がオプティカルフロー処理を実行して、監視エリア内に存在する移動物体に対応する移動物体画像を検出する(ステップS61)。
次に、静止領域抽出部24が、背景差分処理部22で検出された異物画像(ステップS3の背景差分2値化の結果)と、オプティカルフロー処理部29で検出された移動物体画像との差分を基に、異物における静止領域に対応する画像を抽出する(ステップS71)。以後のステップは第1の実施形態と同じである。
このように本発明の第2の実施形態の歩行者検出システムによれば、オプティカルフローを検出することで移動物体画像を検出するので、人通りの多い場所を監視エリアとした場合の歩行者検出精度を高めることができる。
なお、本発明について例えば下記(1)〜(2)のような変形が可能である。
(1)領域103、104、105内の静止部分の下端の中心間距離又は静止部分の発生周期のいずれか一方と、歩行者の歩幅データ又は歩行周期のいずれか一方を基に、歩行者であるか否かの判定を行う。
(2)異物全体の移動量、例えば図1Cの移動物体画像202の重心の移動量を算出し、その値が歩幅の半分程度に対応する場合、二人連れの歩行と判定する。同様にして、大凡の人数把握を行う。
1…カメラ、2…制御部、3…画像表示部、4…警報出力部、21…画像入力部、22…背景差分処理部、23…フレーム間差分処理部、24…静止領域抽出部、25…歩行者らしさ尤度演算部、26…歩行者判定部、27…尤度演算用データ記憶部、28…歩行者判定用データ記憶部、29…オプティカルフロー処理部、201…異物画像、202…移動物体画像、204…静止領域画像。

Claims (3)

  1. 監視エリアを所定時間毎に撮影して取得した撮影画像と、予め取得しておいた当該監視エリアの背景画像との差分である背景差分画像を基に、前記監視エリア内の異物に対応する異物画像を検出する異物画像検出部と、
    異なる時刻に取得した前記撮影画像間の差異を基に、前記監視エリア内の移動物体に対応する移動物体画像を検出する移動物体画像検出部と、
    前記異物画像と、前記移動物体画像との差分を基に、前記異物における静止領域に対応する静止領域画像を抽出する静止領域画像抽出部と、
    異なる時刻に抽出された隣り合う静止領域画像間の距離又は抽出時間差の少なくとも一方と、予め設定した歩幅又は歩行周期の少なくとも一方とに基づいて、前記監視エリア内の歩行者を検出する歩行者検出部と
    を有する歩行者検出装置。
  2. 請求項1に記載された歩行者検出装置において、
    前記異物画像検出部は、異物画像を検出していないときの前記撮影画像により、前記背景画像を更新する背景画像更新部を有し、
    前記歩行者検出部は、前記静止領域画像の撮影画像平面上の位置を算出する位置算出部と、異なる時刻に抽出された隣り合う静止領域画像に対応する前記監視エリアの実空間内の静止領域の間の距離を、予め取得しておいた撮影画像平面上の位置と前記実空間内の位置との対応関係を示す情報を用いて算出する距離算出部と、前記算出された距離が予め設定された歩幅と対応するか否かに基づいて、前記監視エリア内の歩行者の存否を判定する歩行者判定部と
    を有する歩行者検出装置。
  3. 請求項2に記載された歩行者検出装置において、
    前記歩行者判定部は、異なる時刻に抽出された隣り合う静止領域画像間の抽出時間差が予め設定された歩行周期に対応するか否かを併用して、前記監視エリア内の歩行者の存否を判定する歩行者検出装置。
JP2011097387A 2011-04-25 2011-04-25 歩行者検出装置 Active JP5626099B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011097387A JP5626099B2 (ja) 2011-04-25 2011-04-25 歩行者検出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011097387A JP5626099B2 (ja) 2011-04-25 2011-04-25 歩行者検出装置

Publications (2)

Publication Number Publication Date
JP2012230494A JP2012230494A (ja) 2012-11-22
JP5626099B2 true JP5626099B2 (ja) 2014-11-19

Family

ID=47432002

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011097387A Active JP5626099B2 (ja) 2011-04-25 2011-04-25 歩行者検出装置

Country Status (1)

Country Link
JP (1) JP5626099B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5811934B2 (ja) * 2011-09-09 2015-11-11 三菱電機株式会社 滞留度検出装置及び乗客コンベア
CN103279742B (zh) * 2013-05-24 2016-08-10 中国科学院自动化研究所 一种基于多任务模型的多分辨率行人检测方法及其装置
JP6246508B2 (ja) * 2013-06-25 2017-12-13 グローリー株式会社 動体画像抽出方法及び動体画像抽出装置
KR102037229B1 (ko) * 2013-08-01 2019-10-29 한국전자통신연구원 걸음걸이 정보를 이용하여 사람을 검출하기 위한 장치 및 그 방법
CN104036258A (zh) * 2014-06-25 2014-09-10 武汉大学 一种基于稀疏表示处理低分辨率下的行人检测方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3462754B2 (ja) * 1998-05-21 2003-11-05 日本マイクロシステムズ株式会社 監視装置
JP2002345784A (ja) * 2001-05-22 2002-12-03 Hitachi Kiden Kogyo Ltd 足跡分析装置
JP2005074075A (ja) * 2003-09-02 2005-03-24 Matsushita Electric Works Ltd 歩行周期計測装置、周期画像取得装置、移動体輪郭の圧縮処理装置、移動体識別システム
JP5154461B2 (ja) * 2009-01-27 2013-02-27 セコム株式会社 移動物体追跡装置

Also Published As

Publication number Publication date
JP2012230494A (ja) 2012-11-22

Similar Documents

Publication Publication Date Title
JP4966820B2 (ja) 混雑推定装置および方法
JP5576937B2 (ja) 車両の周辺監視装置
JP4173902B2 (ja) 車両周辺監視装置
JP5626099B2 (ja) 歩行者検出装置
JP2008217602A (ja) 不審行動検知システム及び方法
JP2010257377A (ja) 車両周辺監視装置
CN111241913A (zh) 一种检测人员摔倒的方法、装置及系统
KR101921610B1 (ko) 촬영영상으로부터 객체를 감시하기 위한 장치 및 방법
JP5530530B2 (ja) 車両の周辺監視装置
CN111160220B (zh) 一种基于深度学习的包裹检测方法、装置、存储介质
JP4094604B2 (ja) 車両周辺監視装置
US20210090611A1 (en) Information processing apparatus, control method, and program
JP2012128877A (ja) 不審行動検知システム及び方法
JP4425852B2 (ja) 車両周辺監視装置
CN112597903B (zh) 基于步幅测量的电力人员安全状态智能识别方法及介质
JP6405606B2 (ja) 画像処理装置、画像処理方法、および画像処理プログラム
JP6527183B2 (ja) 放置物検出装置
KR101275243B1 (ko) 차량 영상 검지 시스템 및 그 방법
KR20180013149A (ko) 밀렵 환경 감시 장치
JP3970876B2 (ja) 車両周辺監視装置
KR101355206B1 (ko) 영상분석을 이용한 출입 계수시스템 및 그 방법
KR101704471B1 (ko) 낙상 검출 장치 및 그 방법
KR102407202B1 (ko) 지능형 영상 분석 장치 및 방법
JP2013073311A (ja) 対象物種別判定装置
KR20140143918A (ko) 영상의 전경과 배경을 분리하여 전경영상을 검출하는 방법 및 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140828

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140902

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140915

R150 Certificate of patent or registration of utility model

Ref document number: 5626099

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150