JP2015046126A - 車両検知装置 - Google Patents
車両検知装置 Download PDFInfo
- Publication number
- JP2015046126A JP2015046126A JP2013178244A JP2013178244A JP2015046126A JP 2015046126 A JP2015046126 A JP 2015046126A JP 2013178244 A JP2013178244 A JP 2013178244A JP 2013178244 A JP2013178244 A JP 2013178244A JP 2015046126 A JP2015046126 A JP 2015046126A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- data
- detection device
- detection unit
- vehicle detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Traffic Control Systems (AREA)
Abstract
【解決手段】実施形態の車両検知装置は、車両候補オブジェクト検出部と、車両検知部を有する。車両候補オブジェクト検出部は、複数の計測点のデータについて、所定の座標系における計測点間の距離に基づいて、車両の候補となるオブジェクトを検出する。車両検知部は、前記車両候補オブジェクト検出部により検出されたオブジェクトに関して、前記所定の座標系における所定の方向の前記オブジェクトの長さに基づいて、車両のオブジェクトを検知する。
【選択図】図1
Description
以下、実施形態1の車両情報処理システム1を図面を参照して説明する。
図1は、実施形態1の車両検知装置13を適用した車両情報処理システム1の構成を示す概要図である。
車両情報処理システム1は、ステレオカメラ11、ETC(Electronic Toll Collection)システム12および車両検知装置13を備える。
なお、料金所では、車線内の車両52の位置を適切に把握するために、1車線あたり例えば3〜4箇所にステレオカメラ11および車両検知装置13を設置してもよい。この場合、車両検知装置13は、複数のステレオカメラ11に共通化されてもよい。
なお、他の手法によって、ステレオカメラ11、ETCシステム12および車両検知装置13が同期して動作すれば、すなわち、ステレオカメラ11の撮像画像(画像データ)の撮像時刻をETCシステム12および車両検知装置13が認識することができれば、必ずしも、撮像画像はタイムコードを含まなくてもよい。
車両検知装置13は、表示部101、ユーザインターフェース102、ネットワークインターフェース103、記憶部104および制御部105を備える。
表示部101は、LCD(Liquid Crystal Display)等を用いたディスプレイ装置であり、車両検知装置13の運用状況を始めとする種々な情報を表示する。
ユーザインターフェース102は、キーボード、マウス、タッチパネル等のように、ユーザから指示を受け付けるインターフェースである。
ネットワークインターフェース103は、LAN(Local Area Network)等のネットワークを通じて、ステレオカメラ11およびETCシステム12と通信するインターフェースである。
制御データとしては、例えば、立体の形状を表す複数の部品データ(例えば、牽引棒の形状パターン、車軸の円形部分の形状データ、人物の一部の形状データ)などが用いられる。すなわち、記憶部104は、複数の部品データを予め記憶する。なお、牽引棒の形状パターンは、例えば、車両の進行方向に沿って長辺を有する長方形を示す形状パターンの如き、牽引棒の典型的な形状パターンを示す情報である。牽引棒の形状パターンは、近接した2台の車両と、被牽引車を牽引棒で牽引する1台の車両と、を区別する場合に記憶される。このため、牽引棒の形状パターンは、これらの両者を区別しない場合には省略することが可能である。
制御部105は、ステレオカメラ11により得られた各々の撮像画像から視差を求め、ステレオカメラ11のカメラ視野21内(撮像領域内)の物体との距離のデータ(距離データ)を計算する。また、制御部105は、予めステレオカメラ11により取得される背景距離のデータ(背景距離データ)と計算された距離データとの差分により、カメラ視野21内の物体の存在を確認し、その位置関係を時刻毎に記録し、物体の移動方向を判定して、車両52の入出を検知する。なお、制御部105は、入出車両の検知に加え、実空間上における通過時刻(ETCシステム12の通信エリア22の通過時刻)を予測する機能を有してもよい。
(f1)各々の撮像画像について、車両の上下方向へのエッジ強調を行うエッジ強調機能。
(f2)エッジ強調された各々の撮像画像間の視差データを画素毎に計測する視差データ計測機能。
(f3)基準画像内および参照画像内の注目画素を含む小領域内の画素値の分散を求め、その結果により不要な視差データを棄却する視差データ棄却機能。つまり、分散が大きい方が信頼できることから、分散が所定の閾値より小さいデータを捨てる機能。
(f4)上記した視差データからステレオカメラ11と撮像対象との間の距離を示す距離データを画素毎に求め、この距離データを画素毎に有する距離画像を作成する距離データ計測・距離画像作成機能(距離データ計測機能および距離画像作成機能)。
(f5)車両52の進行方向に距離画像を分割して複数の基準区間を形成し、複数の基準区間のそれぞれで、予め車両52のない状態で計測される背景距離データと距離データ計測機能で指定車両の入出時に時刻毎に計測される距離データとの差分を求めることで、基準区間毎に差分を時刻毎に求め、基準区間毎に差分を所定の閾値と比較することで、車両52の有無を時刻毎に状態判定する状態判定機能。
(f6)時刻毎の状態判定の結果を保持し、その履歴に基づいて車両52の先頭、側面および後端の流れ、あるいは車両52の後端、側面および先頭の流れを監視することで、車両52の遷移方向を判定し、その判定結果に基づいて車両の入出を検知する車両検知機能。
まず、車両検知装置13は、撮像画像入力ステップにて、ステレオカメラ11で撮像(撮影)された撮像画像(一方が基準画像、他方が参照画像)を入力する(ステップST1)。車両検知装置13は、平行等位化処理ステップにて、入力された撮像画像の平行等位化および歪み補正を行い(ステップST2)、輝度補正処理ステップにて、平行等位化およい歪み補正が行われた撮像画像の輝度補正(ステップST3)を行う。車両検知装置13は、画像特徴抽出処理ステップにて、各々の撮像画像について、輝度補正が行われた撮像画像に対して制御部105の機能(f1)により車両の上下方向へのエッジ強調を行う(ステップST4)。
実際には、図4に示すように、物体(例えば、車、背景)をステレオカメラ11で撮像すると、物体上の同一点は、それぞれのカメラ11a,11bの撮像画像内で異なる位置に見える。この位置のズレを視差と呼び、画素毎に得られる視差に基づいて、ステレオカメラ11から物体までの距離を算出する。
なお、図4には、基準面201や、車幅の例や、道路幅の例を示してある。
車両検知装置13は、基準区間変化量判定ステップにて、作成した距離画像を、車両の進行方向における進入側(入場側)に位置する基準区間aの距離画像と、車両の退出側(出場側)に位置する基準区間bの距離画像と、基準区間aおよび基準区間bとの間に位置する基準区間cの距離画像とに分割する。
図5の例では、車両の進入側から退出側に向かって、距離画像が9個の単位区間A1〜A9に分割されている。そして、車両の進入側にある3個の単位区間A1〜A3を基準区間aと設定してあり、それに続く中央の3個の単位区間A4〜A6を基準区間cと設定してあり、それに続く車両の退出側にある3個の単位区間A7〜A9を基準区間bと設定してある。
車両検知装置13は、状態判定ステップにて、制御部105の機能(f5)により判定された基準区間a、bおよびcの各変化量の判定結果(オン/オフの状態の判定結果)に基づいて、状態の番号(状態番号)を決定する(ステップST9)。
図6の表に示すように、本実施形態では、例えば、基準区間a、bおよびcがいずれもオフ状態である場合には状態番号をS0(車両なし)とし、基準区間aのみがオン状態である場合には状態番号をS1(車両先頭)とし、基準区間bのみがオン状態である場合には状態番号をS2(車両後端)とし、基準区間cのみがオフ状態である場合には状態番号をS4(後続車両先端および先行車両後端)とし、その他の状態である場合には状態番号をS3(車両側面)とする。
図7は、車両が前進通過する場合の状態番号の遷移を示す図である。
図7には、状態番号の遷移(例えば、車両の前進時の遷移)と対応させて、基準区間aにおけるオン(ON)とオフ(OFF)の状態の特性501の一例と、基準区間bにおけるオン(ON)とオフ(OFF)の状態の特性502の一例を示してある。
図8は、車両が前進通過する場合の車両の存在位置と状態番号との関係を示す関係図である。
図8には、状態番号の遷移(例えば、車両の前進時の遷移)と対応させて、基準区間a、c、bに対応する区間B1、B2、B3について、車両の画像の様子の一例を示してある。
ここでは前進通過について説明したが、後進通過についても同様である。すなわち、車両検知装置13は、逆方向についても同様に、“S0→S2→S3→S1→S0”という状態番号の遷移である場合に、後進通過であると判定する。
以下において、主に軽自動車より小型の物体による誤検知を低減させることを図る構成および動作について、詳しく説明する。
図9は、実施形態1のカメラ座標系から基準座標系への座標変換を示す図である。
図9に示すように、カメラ11a〜11b(ステレオカメラ11)を基準とした座標系(カメラ座標系)として、原点Oc、互いに直交する座標軸Xc、Yc、Zcをとる。カメラ11a〜11bから得られた撮像画像に基づく距離データは、カメラ座標系における座標値で表される。
また、図9に示すように、道路上における基準とする世界座標系を定義する。本実施形態では、世界座標系として、カメラ11a〜11b(ステレオカメラ11)が設置されている道路面の端を原点Owとし、道路面における道路幅の方向に軸Xwをとし、車両52の進行方向に軸Ywをとり、道路面に対して法線方向に軸Zwをとる。
図3に示される状態判定ステップ(ステップST9)において、車両検知装置13は、図10に示される処理を行う。
図10は、実施形態1の車両以外の種別を判定する処理の流れを示すフローチャートである。
まず、車両検知装置13は、計測点について、カメラ座標系から基準座標系への座標変換を行う(ステップST101)。
Pw=R・Pc+T ・・(1)
ここで、代表的なクラスタリング手法として、Nearest Neighbor Algorithm(NN法)や、K−Nearest Neighbor Algorithm(K−NN法)や、K−Mean Algorithm(K平均法)などがあり、用いることができる。
なお、非車両オブジェクトは、本実施形態において車両としては検知の対象としない物体であり、例えば、一般的に車両と呼ばれるものが含まれていてもよい。
図11は、実施形態1の車両検知装置13の制御部105の構成例を示すブロック図である。
制御部105は、距離データ計測部1001、座標変換部1002、車両候補点検出部1003、車両候補オブジェクト検出部1004、車両検知部1005を備える。
距離データ計測部1001が、センサにより監視エリア内の物体との距離を計測する。座標変換部1002が、センサを起点とした距離データに基づいて、当該距離データを基準座標系における3次元空間上の計測点データへ変換する。車両候補点検出部1003が、基準座標系の任意の1軸において予め設定した範囲内の値を有する計測点データを車両候補点として検出する。車両候補オブジェクト検出部1004が、車両候補点となる複数の計測点データから基準座標系での計測点間の距離に基づいて1つのオブジェクト(車両候補オブジェクト)として検出する。車両検知部1005が、車両候補オブジェクトに関して、基準座標系における任意の1つの軸の方向のオブジェクトの長さに基づいて、車両と車両以外のオブジェクトを判別する。したがって、車両以外の物体による誤検知を低減することができる。
また、車両検知装置13において、座標変換部1002が、所定の監視エリア(例えば、カメラ視野21)における物体に関して得られた複数の計測点の距離データを、道路に対応する前記所定の座標系における3次元空間上の距離データへ変換し、車両候補オブジェクト検出部1004は、複数の計測点のデータとして、座標変換部1002による変換により得られた距離データを用いる。
以下、実施形態2の車両情報処理システム1を説明する。本実施形態では、実施形態1とは異なる点について詳細に説明し、実施形態1と同様な点については詳しい説明を省略する。車両検知装置13において、各種の処理は、制御部105により制御されて行われる。
具体的には、予め計算機上に記憶したオブジェクトの形状および構造のモデルを基に、オブジェクトに様々な位置、姿勢をとらせ、仮想的にオブジェクトを2次元平面上に投影し、シルエットを得る。このシルエットと、実際に計測したオブジェクトのシルエットとの一致度を比較し、最も一致した位置、姿勢をそのときのオブジェクトの位置、姿勢として出力する。
本実施形態に係る車両情報処理システム1では、車両検知装置13において、次のような処理を行う。
車両検知部1005は、車両候補オブジェクトに関して、基準座標系における任意の2つの軸からなる平面に車両候補オブジェクトを構成する車両候補点の3次元座標を正射影し、車両候補オブジェクトの正射影した点群に関して射影平面の2つの軸の方向の大きさに基づいて、車両種別と自動二輪車、自転車、人などを判別する。したがって、車両の種別を精度よく判別することができる。
また、車両検知部1005は、サイズを基に判別した車両以外のオブジェクトに関して、予め記憶した自動二輪車、自転車、人などの3次元座標点群からなる種別モデルと、センサにより得られた複数の車両候補点との間で対応点探索を行い、対応点間の距離が最小となる種別を判別することで、小型車両候補の種別を判定する。したがって、小型車両の種別を精度よく判別することができる。
以下、実施形態3の車両情報処理システム1を説明する。本実施形態では、実施形態1とは異なる点について詳細に説明し、実施形態1と同様な点については詳しい説明を省略する。車両検知装置13において、各種の処理は、制御部105により制御されて行われる。
本実施形態に係る車両情報処理システム1では、車両検知装置13において、次のような処理を行う。
距離データ計測部1001は、カメラ映像を用いた手法を使用する。車両検知部1005は、サイズを基に判別した車両以外のオブジェクトに関して、当該オブジェクトに対応するカメラ画像上の領域を求め、予め記憶した自動二輪車、自転車、人などの種別画像との画像特徴量に関する比較を行い、画像特徴量の一致度が最大となる種別を判別することで、小型車両候補の種別を判定する。したがって、小型車両の種別を精度よく判別することができる。
以下、実施形態4の車両情報処理システム1を説明する。本実施形態では、実施形態1〜3とは異なる点について詳細に説明し、実施形態1〜3と同様な点については詳しい説明を省略する。車両検知装置13において、各種の処理は、制御部105により制御されて行われる。
ここで、車両検知装置13は、通過軌跡のパターンに基づいて、例えば、オブジェクトが、監視エリア(例えば、カメラ視野21)内で行き来したり、車線幅方向に移動したりする場合には、そのオブジェクトは人であると判別することができる。このように人であると判別する条件は、予め車両検知装置13に設定される。
本実施形態に係る車両情報処理システム1では、車両検知装置13において、次のような処理を行う。
車両検知部1005は、サイズを基に判別した車両以外のオブジェクトに関して、複数の時間で得られるオブジェクトの間の対応付けを行って追跡し、オブジェクトの通過軌跡に基づいて自動二輪車、自転車、人などの種別を判別することで、小型車両候補の種別を判定する。したがって、小型車両の種別を精度よく判別することができる。
以下、実施形態5の車両情報処理システム1を説明する。本実施形態では、実施形態1〜3とは異なる点について詳細に説明し、実施形態1〜3と同様な点については詳しい説明を省略する。車両検知装置13において、各種の処理は、制御部105により制御されて行われる。
そして、本実施形態では、車両検知装置13は、同一のオブジェクトのシルエット等の形状の変化を分析し、形状の変化が大きい場合には、人の歩行による形状の変化であると判定し、対象のオブジェクトは人であると判別することができる。一つの単純な例としては、射影平面への2次元シルエットにおける各軸上での最大値と最小値の差の比率(例えば、複数の軸間での比率)を取り、この比率の変化が所定の閾値以上である場合にオブジェクトは人であると判別することができる。
本実施形態に係る車両情報処理システム1では、車両検知装置13において、次のような処理を行う。
車両検知部1005は、サイズを基に判別した車両以外のオブジェクトに関して、複数の時間で得られるオブジェクトの間の対応付けを行って追跡し、同一のオブジェクトの時間による形状変化情報に基づいて自動二輪車、自転車、人などの種別を判別することで、小型車両候補の種別を判定する。したがって、小型車両の種別を精度よく判別することができる。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、DVD(Digital Versatile Disk)等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
また、上記のプログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記のプログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、上記のプログラムは、前述した機能をコンピュータシステムに既に記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
Claims (5)
- 複数の計測点のデータについて、所定の座標系における計測点間の距離に基づいて、車両の候補となるオブジェクトを検出する車両候補オブジェクト検出部と、
前記車両候補オブジェクト検出部により検出されたオブジェクトに関して、前記所定の座標系における所定の方向の前記オブジェクトの長さに基づいて、車両のオブジェクトを検知する車両検知部と、
を有する車両検知装置。 - 所定の監視エリアにおける物体に関して得られた複数の計測点の距離データを、道路に対応する前記所定の座標系における3次元空間上の距離データへ変換する座標変換部を有し、
前記車両候補オブジェクト検出部は、前記複数の計測点のデータとして、前記座標変換部による変換により得られた距離データを用いる、
請求項1に記載の車両検知装置。 - 前記車両検知部は、前記車両候補オブジェクト検出部により検出されたオブジェクトに関するデータと予め定められた種別毎のモデルのデータとを比較した結果に基づいて、前記オブジェクトの種別を判別する、
請求項1または請求項2のいずれか1項に記載の車両検知装置。 - 前記車両検知部は、前記車両候補オブジェクト検出部により検出されたオブジェクトに関するデータから得られる画像特徴量と予め定められた種別毎のモデルの画像特徴量とを比較した結果に基づいて、前記オブジェクトの種別を判別する、
請求項1から請求項3のいずれか1項に記載の車両検知装置。 - 前記車両検知部は、前記車両候補オブジェクト検出部により検出されたオブジェクトに関するデータから得られる前記オブジェクトの時間的な変化のデータに基づいて、前記オブジェクトの種別を判別する、
請求項1から請求項4のいずれか1項に記載の車両検知装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013178244A JP2015046126A (ja) | 2013-08-29 | 2013-08-29 | 車両検知装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013178244A JP2015046126A (ja) | 2013-08-29 | 2013-08-29 | 車両検知装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015046126A true JP2015046126A (ja) | 2015-03-12 |
Family
ID=52671547
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013178244A Pending JP2015046126A (ja) | 2013-08-29 | 2013-08-29 | 車両検知装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015046126A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017041214A (ja) * | 2015-08-21 | 2017-02-23 | 日本信号株式会社 | 車種判別装置 |
JP2019064456A (ja) * | 2017-09-29 | 2019-04-25 | 日本信号株式会社 | 物体通過検知装置 |
JP2020017240A (ja) * | 2018-07-29 | 2020-01-30 | 株式会社コンピュータシステム研究所 | 監視支援装置、監視支援プログラム、および記憶媒体 |
JP7514772B2 (ja) | 2021-01-21 | 2024-07-11 | 日本信号株式会社 | 移動ベクトル検出装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0933232A (ja) * | 1995-05-18 | 1997-02-07 | Omron Corp | 物体観測方法およびその方法を用いた物体観測装置、ならびにこの装置を用いた交通流計測装置および駐車場観測装置 |
JPH09297849A (ja) * | 1996-05-08 | 1997-11-18 | Matsushita Electric Ind Co Ltd | 車両検出装置 |
JP2001256485A (ja) * | 2000-03-14 | 2001-09-21 | Hitachi Ltd | 車種判別システム |
JP2012216022A (ja) * | 2011-03-31 | 2012-11-08 | Mitsubishi Heavy Ind Ltd | 特徴領域抽出装置、特徴領域抽出方法、及びプログラム |
JP2012221456A (ja) * | 2011-04-14 | 2012-11-12 | Toyota Central R&D Labs Inc | 対象物識別装置及びプログラム |
-
2013
- 2013-08-29 JP JP2013178244A patent/JP2015046126A/ja active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0933232A (ja) * | 1995-05-18 | 1997-02-07 | Omron Corp | 物体観測方法およびその方法を用いた物体観測装置、ならびにこの装置を用いた交通流計測装置および駐車場観測装置 |
JPH09297849A (ja) * | 1996-05-08 | 1997-11-18 | Matsushita Electric Ind Co Ltd | 車両検出装置 |
JP2001256485A (ja) * | 2000-03-14 | 2001-09-21 | Hitachi Ltd | 車種判別システム |
JP2012216022A (ja) * | 2011-03-31 | 2012-11-08 | Mitsubishi Heavy Ind Ltd | 特徴領域抽出装置、特徴領域抽出方法、及びプログラム |
JP2012221456A (ja) * | 2011-04-14 | 2012-11-12 | Toyota Central R&D Labs Inc | 対象物識別装置及びプログラム |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017041214A (ja) * | 2015-08-21 | 2017-02-23 | 日本信号株式会社 | 車種判別装置 |
JP2019064456A (ja) * | 2017-09-29 | 2019-04-25 | 日本信号株式会社 | 物体通過検知装置 |
JP7053207B2 (ja) | 2017-09-29 | 2022-04-12 | 日本信号株式会社 | 物体通過検知装置 |
JP2020017240A (ja) * | 2018-07-29 | 2020-01-30 | 株式会社コンピュータシステム研究所 | 監視支援装置、監視支援プログラム、および記憶媒体 |
JP7284951B2 (ja) | 2018-07-29 | 2023-06-01 | 株式会社コンピュータシステム研究所 | 監視支援装置、監視支援プログラム、および記憶媒体 |
JP7514772B2 (ja) | 2021-01-21 | 2024-07-11 | 日本信号株式会社 | 移動ベクトル検出装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CA2958832C (en) | Method and axle-counting device for contact-free axle counting of a vehicle and axle-counting system for road traffic | |
CN109074651B (zh) | 移动体的周围环境识别装置 | |
Sina et al. | Vehicle counting and speed measurement using headlight detection | |
US8798314B2 (en) | Detection of vehicles in images of a night time scene | |
US9685079B2 (en) | Short-time stopping detection from red light camera evidentiary photos | |
JP5867273B2 (ja) | 接近物体検知装置、接近物体検知方法及び接近物体検知用コンピュータプログラム | |
US9363483B2 (en) | Method for available parking distance estimation via vehicle side detection | |
WO2016129403A1 (ja) | 物体検知装置 | |
JP6453490B2 (ja) | 路面反射を認識し評価するための方法及び装置 | |
JP6226368B2 (ja) | 車両監視装置、および車両監視方法 | |
JP2018516799A5 (ja) | ||
Li et al. | Robust vehicle tracking for urban traffic videos at intersections | |
KR20150029551A (ko) | 도착 레인으로 합병되는 이동 아이템의 출발 레인을 결정 | |
JP2015046126A (ja) | 車両検知装置 | |
Stec et al. | Using time-of-flight sensors for people counting applications | |
KR101089029B1 (ko) | 광류를 이용한 방범용 차량 감지 시스템 | |
Suryakala et al. | Vision based vehicle/pedestrian detection in traffic surveillance system | |
Santos et al. | Car recognition based on back lights and rear view features | |
JP6431271B2 (ja) | 車両検知及び車両番号認識装置 | |
TW201536609A (zh) | 障礙物偵測裝置 | |
Nam et al. | Pedestrian detection system based on stereo vision for mobile robot | |
JP2009048225A (ja) | 車両認識装置及び車両認識方法 | |
KR102656252B1 (ko) | 단속 정확성을 높인 무인 교통 단속시스템 | |
Shirazi et al. | Vision-based pedestrian monitoring at intersections including behavior & crossing count | |
Kataoka et al. | Symmetrical Judgment and Improvement of CoHOG Feature Descriptor for Pedestrian Detection. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160308 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170104 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170704 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20170911 Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20170911 |