JP2021086467A - 交通量計測装置 - Google Patents

交通量計測装置 Download PDF

Info

Publication number
JP2021086467A
JP2021086467A JP2019215973A JP2019215973A JP2021086467A JP 2021086467 A JP2021086467 A JP 2021086467A JP 2019215973 A JP2019215973 A JP 2019215973A JP 2019215973 A JP2019215973 A JP 2019215973A JP 2021086467 A JP2021086467 A JP 2021086467A
Authority
JP
Japan
Prior art keywords
vehicle
image
passing
estimation
program
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019215973A
Other languages
English (en)
Other versions
JP6891253B2 (ja
Inventor
龍一 今井
Ryuichi Imai
龍一 今井
雄平 山本
Yuhei Yamamoto
雄平 山本
田中 成典
Shigenori Tanaka
成典 田中
匡哉 中原
Masaya NAKAHARA
匡哉 中原
光貴 中畑
Koki Nakahata
光貴 中畑
精久 高野
Kiyohisa Takano
精久 高野
亮 山中
Akira Yamanaka
亮 山中
庄治 大月
Shoji Otsuki
庄治 大月
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intelligent Style Co Ltd
Original Assignee
Intelligent Style Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intelligent Style Co Ltd filed Critical Intelligent Style Co Ltd
Priority to JP2019215973A priority Critical patent/JP6891253B2/ja
Publication of JP2021086467A publication Critical patent/JP2021086467A/ja
Application granted granted Critical
Publication of JP6891253B2 publication Critical patent/JP6891253B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】 信頼性の高い交通量計測装置を提供する。【解決手段】 撮像部50は、道路など自動車が通行する箇所を撮像するように設置され、連続撮像画像(動画)を出力する。車両認識手段52は、連続撮像画像の各静止画に含まれる車両を認識し、当該車両をバウンダリーボックス60で囲って出力する車両通過判断手段54は、上記認識した車両のバウンダリーボックス60が、連続撮影画像において自動車の移動軌跡と交わるように設定された通過線62を跨ぐかどうかを判断し、車両が通過したかどうかを判断する。車両通過判断手段54によって通過した車両を判断し、その数を計数することで交通量の計測を行うことができる。通過線62とバウンダリーボックス60を用いて通過の有無を判断しているので、精度良く自動車の通過を判断することができる。【選択図】 図1

Description

この発明は、撮像した画像から、自動車などの移動量を計測する装置に関するものである。
交通量の調査においては、調査員が車両の通過台数の計測を行うようにしている。このような交通量調査を自動化するためのシステムが提案されている。たとえば、特許文献1には、カメラによって自動車の動きを撮像し、その撮像画像に基づいて、車両の通過台数を計測するシステムが開示されている。
このシステムによれば、調査員を配置することなく交通量調査を行うことができ、コスト低減や大規模調査における人員確保の問題を解消することができる。
特許5656547
しかしながら、画像に基づいて交通調査を行うシステムにおいては、車両の通過台数を正確に把握することが容易ではなかった。このため、自動化したシステムによる交通量調査の信頼性が低下するおそれがあった。この点、特許文献1においても、画像に基づいて車両の通過台数をどのように計数するのかについて、具体的な記述はなされていない。
この発明は上記のような問題点を解決して、信頼性の高い交通量計測装置を提供することを目的とする。
この発明の独立して適用可能な特徴を以下に列挙する。
(1)(2)この発明に係る交通量計測装置は、車両の通行する所定のエリアを固定的に撮像して連続撮像画像を出力する撮像部と、前記連続撮像画像に含まれる車両を認識し、車両領域を設定する車両認識手段と、前記所定のエリアの撮像画像において設定された通過線に基づいて、前記連続撮像画像において、前記車両領域が当該通過線を跨いだことを検出して車両の通過を判断する車両通過判断手段とを備えている。
したがって、車両の通過を正確に判断して交通量を計測することができる。
(3)この発明に係る交通量計測装置は、前記通過線は2つ設定されており、前記車両通過判断手段は、車両領域が前記2つの通過線の双方に交差したことにより、車両の通過であると判断することを特徴としている。
したがって、より正確に通過判定を行うことができる。
(4)この発明に係る交通量計測装置は、通過線は、車両の移動方向の手前から第1通過線、第2通過線の2つ設定されており、前記車両通過判断手段は、車両領域が第1通過線に交差した後、第2通過線に交差した場合に、車両の通過であると判断することを特徴としている。
したがって、通過方向も考慮して計数を行うことができる。
(5)この発明に係る交通量計測装置は、車両通過判断手段は、前記車両領域の重心位置が第1通過線を通過したかどうかによって交差したかどうかを判断し、前記車両領域の上辺または底辺が第2通過線を通過したかどうかによって交差したかどうかを判断することを特徴としている。
したがって、より正確に通過の有無を判断することができる。
(6)この発明に係る交通量計測装置は、車両認識手段によって認識された車両の車両画像を抽出する車両画像抽出手段と、抽出された車両画像を受けて、当該画像中の車両の前後のタイヤ、側面を含む部位領域を抽出する部位抽出手段と、前記抽出された複数の部位領域の関係に基づいて、大型車か小型車かを推定する大小推定手段とを備え、前記車両通過判断手段は、前記大小推定手段の推定結果に基づいて、大型車、小型車を区別して、車両通過数を計数することを特徴としている。
したがって、大型車小型車を区別して計数することができる。
(7)この発明に係る交通量計測装置は、大小推定手段は、複数の撮像画像についての大型車か小型車かの判断を統合して、最終的な大型車か小型車かの判断を行うことを特徴としている。
したがって、より正確に推定を行うことができる。
(8)この発明に係る交通量計測装置は、部位抽出手段は、車両の前後のタイヤと側面に代えて、あるいは加えて、フロントガラス、リアガラスまたはナンバープレートを含む部位領域も抽出することを特徴としている。
したがって、これら領域に基づいて、大型小型の推定を行うことができる。
(9)この発明に係る交通量計測装置は、大小推定手段は、前記抽出された車両画像も推定の根拠に用いることを特徴としている。
したがって、より正確に推定を行うことができる。
(10)この発明に係る交通量計測装置は、大小推定手段が、前記抽出された車両画像の枠をカメラからの距離に応じて正規化した時の枠の大きさも推定の根拠に用いることを特徴としている。
したがって、より正確に推定を行うことができる。
(11)この発明に係る交通量計測装置は、大小推定手段が、前記抽出された車両画像をカメラからの距離に応じて正規化した時の車両画像における車両の占める領域面積も推定の根拠に用いることを特徴としている。
したがって、より正確に推定を行うことができる。
(12)この発明に係る交通量計測装置は、車両認識手段が、少なくとも乗用車、バス、トラックの車種を判断するものであり、大小推定手段は、前記車種ごとに分けて大小推定を行うことを特徴としている。
したがって、より正確に推定を行うことができる。
「車両認識手段」は、実施形態においては、ステップS204がこれに対応する。
「車両通過判断手段」は、実施形態においては、ステップS223〜S238がこれに対応する。
「大小推定手段」は、少なくとも大型車であるか小型車であるかの区別を行うものであり、車種の判断をおこなうものも含む概念である。実施形態においては、ステップS12がこれに対応する。
「プログラム」とは、CPUにより直接実行可能なプログラムだけでなく、ソース形式のプログラム、圧縮処理がされたプログラム、暗号化されたプログラム等を含む概念である。
この発明の一実施形態による交通量計測装置の機能構成図である。 交通量計測装置のハードウエア構成である。 交通量計測プログラムのフローチャートである。 交通量計測プログラムのフローチャートである。 撮像画像と車両を認識したバウンダリーボックスである。 学習のためのデータを示す図である。 車両認識のための学習処理のフローチャートである。 認識画像における車両通過判断処理を示す図である、 交差点での通過車両判断を示す図である。 通過量計測を信号機の制御に用いたシステム例である。 この発明の第2の実施形態による交通量計測装置の機能構成図である。 車推定プログラムのフローチャートである。 撮像画像と車両認識画像と部位推定画像の例である。 車両認識のための学習処理のフローチャートである。 学習のためのデータを示す図である。 車両を切り出した画像の例である。 部位推定のための学習処理のフローチャートである。 部位推定のための学習データを示す図である。 大小推定のための学習処理のフローチャートである。 学習のためのデータを示す図である。 車種の修正のためのテーブルである。 第3の実施形態による交通量計測装置の機能構成である。 ゲートの外観を示す図である。 ハードウエア構成を示す図である。 制御プログラムのフローチャートである。
1.第1の実施形態
1.1機能構成
図1に、この発明の一実施形態による交通量計測装置の機能構成を示す。撮像部50は、道路など自動車が通行する箇所を撮像するように設置され、連続撮像画像(動画)を出力する。車両認識手段52は、連続撮像画像の各静止画に含まれる車両を認識し、当該車両をバウンダリーボックス60で囲って出力する。車両認識手段4は、たとえば、車両の画像にて学習させた推論手段によって構築することができる。
車両通過判断手段54は、上記認識した車両のバウンダリーボックス60が、連続撮影画像において自動車の移動軌跡と交わるように設定された通過線62を跨ぐかどうかを判断し、車両が通過したかどうかを判断する。
車両通過判断手段54によって通過した車両を判断し、その数を計数することで交通量の計測を行うことができる。通過線62とバウンダリーボックス60を用いて通過の有無を判断しているので、精度良く自動車の通過を判断することができる。
1.2ハードウエア構成
図2に、交通量計測装置のハードウエア構成を示す。CPU30には、メモリ32、ディスプレイ34、カメラ2、ハードディスク36、DVD−ROMドライブ38、キーボード/マウス40、通信回路42が接続されている。
通信回路42は、インターネットに接続するためのものである。ハードディスク36には、オペレーティングシステム44、交通量計測プログラム46が記録されている。交通量計測プログラム46は、オペレーティングシステム44と協働してその機能を発揮するものである。
これらプログラムは、DVD−ROM48に記録されていたものを、DVD−ROMドライブ38を介して、ハードディスク36にインストールしたものである。
1.3交通量計測処理
図3、図4に、交通量計測プログラム46のフォローチャートを示す。CPU30は、カメラ2による撮像画像を取得し、ハードディスク36に記録する。この実施形態では、動画として撮像を行っている。図5Aに、撮像画像の例を示す。この実施形態では、電柱や街頭の上にカメラ2を設けて、上方からの固定的なアングルにて撮像を行っている。
CPU30は、ハードディスク36に記録された撮像画像の1フレームを取得する(ステップS202)。この実施形態では、撮像画像が記録されるとリアルタイムでこれを読み出して処理を行うようにしている。しかし、撮像画像を一旦記録しておき、後に、交通量計測処理を行うようにしてもよい。
CPU30は、取得した1フレームの撮像画像に含まれる車両を認識し、図5Bに示すように、当該車両が内接されるバウンダリーボックス(矩形領域)を生成する(ステップS204)。この実施形態では、かかる認識処理のために学習済みの推論モデル(例えばディープラーニングによる機械学習のモデル)を用いている。
この実施形態においては、学習処理は、図2のコンピュータを用いて行うようにしている。もちろん、他のコンピュータを用いてもよい。
学習処理において、まず、図6Aに示すような車両の含まれる画像データを多数用意して、ハードディスク36に記録する。できれば、いろいろな車種、背景による画像が多数あることが好ましい。
この時、車両を撮像するアングルは、できるだけ実際に運用する場合のアングルに近いものであることが好ましい。たとえば、図4Aに示すようなアングルにて撮像して運用を行うのであれば、これに近いアングルであることが好ましい。
それぞれの画像データ(オリジナル画像データ)を、ディスプレイ34に表示する。ユーザは、画像を見ながら、キーボード/マウス40を操作して、図6Bに示すように車両部分を矩形(バウンダリーボックス)で囲う。
これにより、図6Cに示すように、バウンダリーボックスの左上座標、右下座標(二次元画像中の座標)が記録された解析データと、オリジナル画像データとが対応付けられてハードディスク36に記録される。
上記の処理を、全てのオリジナル画像について行う。これにより、多数の学習データが、ハードディスク36に記録されることになる。
図7に、車両認識のために、推定モデル(ディープラーニング)を学習する処理のフローチャートを示す。
CPU30は、ハードディスク36からオリジナル画像を取得する(ステップS52)。たとえば、図6Aに示すようなオリジナル画像を読み出す。次に、CPU30は、オリジナル画像について、学習済みの推定モデル(ディープラーニング)により、車両認識を行ってバウンダリーボックスを生成する(ステップS54)。
次に、CPU30は、オリジナル画像に対応づけて記録されている解析データ(図6C)を読み出す(ステップS58)。続いて、CPU30は、図6Cの解析データを教師データとし、車両認識の結果に基づいて、ステップS54における推定のためのパラメータを学習する(ステップS60)。
以上のようにして、学習済みの推論モデルが生成される。なお、最初は、未学習の推論モデルあるいは学習不足の推論モデルであるが、上記の処理を繰り返すことで、十分に学習済みの推論モデルを得ることができる。
なお、この実施形態では、車両の前方からの写真だけでなく、後方や側面からの写真も学習データとして用いるようにしている。したがって、いずれの方向にて撮像された車両であっても推論を行うことができるような推論モデルを生成できる。運用時に前方など特定の方向からの車両だけを判断すればよいのであれば、前方のなど特定の方向だけからの写真に基づいて学習データを作成すればよい。
なお、学習済みの推論モデルとして、YOLOなどのプログラムを用いてもよい。また、YOLOなどのプログラムを追加学習して用いるようにしてもよい。
図3のステップS204においては、CPU30は、このようにして生成された推論モデルを用いて、撮像された画像(図5A)に写し出された車両を認識し、図5Bに示すようにバウンダリーボックスにて囲う。
次に、CPU30は、図5Bのように認識された各バウンダリーボックスに、車両IDを付与する(ステップS206〜S216)。ここで、車両IDとは、撮像画像中に写し出された車両を特定するためのIDである。この実施形形態では、異なるフレームの画像であっても、同一の車両に対しては同一の車両IDを付すようにしている。以下、車両IDの付与を詳細に説明する。
CPU30は、撮像画像中の車両のバウンダリーボックスの一つを対象バウンダリーボックスとして選択する(ステップS208)。CPU30は、このバウンダリーボックスにおける車両と類似する車両が、前のフレームにおいて画面上の車両進行方向について逆(後)方向の位置にあったかどうかを判断する(ステップS210)。あれば、先のフレームにおいて当該車両に与えられている車両IDを引き継いで、今回のフレームの当該車両に与える(ステップS212)。なければ、当該車両は初めて撮像されたものであると判断し、当該車両に新たな車両IDを付す(ステップS214)。
なお、ノイズ画像などにより、前のフレームにおいて登場しているにも拘わらず、類似している車両がないと判断されることがある。この場合に、新たな車両IDを付すことは妥当ではない。そこで、この実施形態では、図5Aの線200を完全に超えたバウンダリーボックスについては、必ず前のフレームにおいて同一車両が登場しているものとして処理を行うようにしている。具体的には、1フレームの間に車両が移動する平均的距離を考慮して、前のフレームにおいて当該位置に存在する車両を同一の車両であるとする。
CPU30は、一つのバウンダリーボックスについて以上の処理を行うと、次のバウンダリーボックスについて同様の処理を行う。これを、全てのバウンダリーボックスについて行うことで、1フレームの撮像画像のすべてのバウンダリーボックスについて車両IDを与えることができる。
たとえば、図8Aに示すように、1フレームの撮像画像の全てのバウンダリーボックス(車両画像は省略している)について車両ID(C1〜C4)が与えられたものとする。
CPU30は、このうちの一つのバウンダリーボックスに着目する(ステップS220)。たとえば、車両ID=C4のバウンダリーボックスに着目したとする。CPU30は、バウンダリーボックスC4の重心と底辺の中心点の位置の算出する(ステップS222)。図においては、これを点にて示している。
CPU30は、このバウンダリーボックスC4が、第1通過線62aを通過したかどうかを判断する(ステップS224)。ここで、第1通過線62aは、操作者が撮像画像をディスプレイ34に表示しながら、キーボード/マウス40によって予め設定されたものである。第2通過線62bも同様である。
第1通過線62aは、車両の通過方向において、第2通過線62bよりも上流に設けるようにしている。
この実施形態では、CPU30は、1)バウンダリーボックスの重心が第1通過線62aよりも下流側にあること、および、2)1つ前のフレームにおいて、同じ車両IDのバウンダリーボックスの重心が第1通過線62aより上流側にあることの2つの条件が満たされた時、第1通過線62aを通過したと判断する。
図8Aにおいて、バウンダリーボックスC4は、第1通過線62aより上流側にあるので、第1通過線62aを通過したとは判断されない。
したがって、第1通過フラグは降りたままであるので(第1通過フラグは初期状態において降りている)、ステップS228を経て、バウンダリーボックスC4についての処理が終了する。
CPU30は、上記と同じようにして、他のバウンダリーボックスC1、C2、C3についてもステップS218〜S236の処理を行う。全ての対象車両IDについての処理を終えると、CPU30は、ハードディスク36から次のフレームの撮像画像を取得する(ステップS202)。
取得した撮像画像について車両を認識し、バウンダリーボックスを生成する(ステップS204)。さらに、これらのバウンダリーボックスに対して、車両IDを付す(ステップS206〜S216)。この状態を図8Bに示す。
続いて、このフレーム中の各バウンダリーボックスに対し、第1通過線62a、第2通過線62bを通過したかどうかの判断を行う。たとえば、バウンダリーボックスC4は、その重心が第1通過線62aより下流側にあり、1フレーム前の画像(図8A)では、第1通過線62aより上流側にあった。したがって、CPU30は、バウンダリーボックスC4が第1通過線62aを通過したと判断し、第1通過フラグ62aを立てる(ステップS226)。
続いて、CPU30は、バウンダリーボックスC4の底辺中心点が第2通過線62bを通過したかどうか判断する(ステップS230)。CPU30は、1)バウンダリーボックスの底辺中心点が第2通過線62bよりも下流側にあること、および、2)1つ前のフレームにおいて、同じ車両IDのバウンダリーボックスの底辺中心点が第2通過線62bより上流側にあることの2つの条件が満たされた時、第2通過線62bを通過したと判断する。
図8Bの状態においては、バウンダリーボックスC4の底辺中心点は、第2通過線62bより上流にあるので、第2通過線62bを通過していないと判断される。
したがって、第2通過フラグは降りたままであるので(第2通過フラグは初期状態において降りている)、ステップS230を経て、バウンダリーボックスC4についての処理が終了する。
CPU30は、上記と同じようにして、他のバウンダリーボックスC1、C2、C3についてもステップS218〜S236の処理を行う。全ての対象車両IDについての処理を終えると、CPU30は、ハードディスク36から次のフレームの撮像画像を取得する(ステップS202)。
このようにして、図8C、図8D、図8E、図8Fのフレーム画像について、順次処理が行われる。バウンダリーボックスC4は、図8Fのフレーム画像において、第2通過線62bを通過する。したがって、CPU30は、ステップS230からS232に進み、第2通過フラグを立てる。
これにより、第1通過フラグ、第2通過フラグの双方が立ったので、CPU30は、バウンダリーボックスC4について、通過車両であると判断する(ステップS238)。そして、通過台数をインクリメントして計数し記録する。
なお、このようにして通過が確認されて計数されたバウンダリーボックスC4の車両は、その後の処理対象とする必要はないので、ステップS218〜S236の処理の対象となる処理対象車両から外す。
なお、この実施形形態では、反対車線の車両などで、第2通過線62bを先に通過し、第1通過線62aを後に通過した車両は、通過車両であると計数しないようにしている。
以上のようにして、第1通過線62aを通過した後、第2通過線62bを通過した車両について、通過車両として計数を行うことができる。
1.4その他
(1)上記実施形態においては、第1通過線62aを通過した後、第2通過線62bを通過した車両について、通過車両として計数を行うようにしている。しかし、第2通過線62bを通過した後、第1通過線62aを通過した車両について、反対方向の通過車両として計数を行うようにしてもよい。
(2)上記実施形態では、第1通過線62aについては重心、第2通過線62bについては底辺中心点によって通過の有無を判断している。しかし、双方とも、重心または底辺中心線を用いて判断してもよい。また、上辺中心点などバウンダリーボックスの他の点を用いてもよい。
(3)上記実施形態では、2つの通過線を用いて通過を判断している。しかし、3つ以上の通過線を用い、これらを順に通過した場合に、通過したものと判断するようにしてもよい。また、1つの通過線のみを設け、この通過線を通過したことにより、車両が通過したものと判断するようにしてもよい。この場合、時系列のフレームにおける車両の位置から、いずれの方向に通過したかを判断するようにしてもよい。
(4)上記実施形態では、一方向に車両が移動する車道についての交通量を計測している。しかし、図9に示すように交差点を撮像画像とし、交差点の入口(出口)において通過線62a〜62hを設け、通過方向も含めて計数すれば、交差点の通行量を詳細に把握することができる。
これにより、図9のIからIV、IからVI、IからVIII、IからII(Uターン)など(II以下についても同様)、いずれの方向から来ていずれの方向に進んだかを計数することができる。
この計数データに基づいて、図10に示すような信号制御システムを構築することができる。交通量計測装置にて計測した交差点の通行量(たとえば、30分前の通行量)に基づいて、信号制御装置が、信号の青の時間、赤の時間、青矢印の時間などを制御する。交通量計測装置が信号制御装置を兼ねていてもよい。
たとえば、信号制御装置は、IからVIへの車両通過量とVからIIへの車両通量との合計値と、IIIからVIIIへの車両通過量とVIIからIVへの車両通過量との合計値を比較し、その比率に応じて、信号機250(256)の青の時間と信号機252(254)の青の時間の比率を制御する。また、IからVIへの車両通行量とIからIVへの車両通行量との比率に応じて、信号機250の青の時間と青矢印の時間の比率を制御する。
また、交差点に入る手前の道路において通行量を計数して、将来の交差点における通過量を予測し、これに基づいて信号機を制御するようにしてもよい。
(6)上記実施形態によって計数した車両通過量を、交差点における右折レーンの長さの設計のために用いることができる。たとえば、図10の交差点において、IからIVへの車両通行量に基づいて、Iに設ける右折レーンの長さを算出することができる。
たとえば、このような交差点における交通量情報をサーバ装置に記録しておき、端末装置にインストールされた道路設計ソフトウェアにてこの情報を取得し、これに基づいて右折レーンの長さを提案して設計者に提示するようにしてもよい。
(7)上記実施形態によって計数した車両通行量に基づいて、累積の道路通行量がしきい値を超えたら、道路補修時期である旨のワーニングを出力するようにしてもよい。
(8)上記実施形態およびその変形例は、その本質に反しない限り他の実施形態変形例と組み合わせて実施可能である。
2.第2の実施形態
2.1機能構成
図11に、この発明の一実施形態による交通量計測装置の機能構成を示す。この実施形態では、大型車、小型車などの区別を行い、それぞれについて交通量を計測するようにしている。
撮像部50、車両認識手段52、車両通過判断手段54は、第1の実施形態と同様である。
車両画像抽出手段6は、車両認識手段52によって認識された車両部分の画像(バウンダリーボックス)を抽出する。部位抽出手段8は、当該車両画像中の、前後のタイヤ、正面、側面、上面などの部位領域を抽出する。この部位抽出手段8は、部位を特定して学習させた推論手段によって構築することができる。
大小推定手段10は、上記抽出された複数の部位領域の関係に基づいて、大型車であるか小型車であるかを推定する。この大小推定手段10は、大型車、小型車につき、複数の部位領域の関係を特定して学習させた推論手段によって構築することができる。
以上のようにして大型車、小型車を推定することができる。車両通過判断手段54は、大小推定手段10の推定結果と併せて、大型車、小型車ごとに通過量を計数する。
2.2ハードウエア構成
交通量計測装置のハードウエア構成は、図2と同様である。
2.3交通量計測処理
この実施形態による交通量計測処理のうち、通過台数を計測する部分については第1の実施形態と同様である。ただし、この実施形態では、通過した車両が大型であるか小型であるかを判断し、それぞれについて通過台数を集計するようにしている。
図12に、大型であるか小型であるかを推計する車推定処理の部分のフローチャートを示す。図4のステップS236が終了すると、図12の処理が実行される。
カメラ2による撮像画像を、図13Aに示す。CPU30は、この撮像画像に含まれる車両を認識し車種を推定する(ステップS4)。この実施形態では、かかる推定処理のために学習済みの推論モデル(例えばディープラーニングによる機械学習のモデル)を用いている。
この実施形態においては、学習処理は、図2のコンピュータを用いて行うようにしている。もちろん、他のコンピュータを用いてもよい。
まず、図15Aに示すような車両の含まれる画像データを多数用意して、ハードディスク36に記録する。できれば、いろいろな車種、背景による画像が多数あることが好ましい。
この時、車両を撮像するアングルは、できるだけ実際に運用する場合のアングルに近いものであることが好ましい。たとえば、図13Aに示すようなアングルにて撮像して運用を行うのであれば、これに近いアングルであることが好ましい。
それぞれの画像データ(オリジナル画像データ)を、ディスプレイ34に表示する。、ユーザは、画像を見ながら、キーボード/マウス40を操作して、図15Bに示すように車両部分を矩形(バウンダリーボックス)で囲い、当該車両の車種を入力する
これにより、図15Cに示すように、バウンダリーボックスの左上座標、右下座標(二次元画像中の座標)および車種が記録された解析データと、オリジナル画像データとが対応付けられてハードディスク36に記録される。この実施形態では、車種として、乗用車、貨物車、バスを区別するようにしている。上記の処理を、全てのオリジナル画像について行う。これにより、多数の学習データが、ハードディスク36に記録されることになる。
図14に、車両認識と車種推定のために、推定モデル(ディープラーニング)を学習する処理のフローチャートを示す。
CPU30は、ハードディスク36からオリジナル画像を取得する(ステップS52)。たとえば、図15Aに示すようなオリジナル画像を読み出す。次に、CPU30は、オリジナル画像について、学習済みの推定モデル(ディープラーニング)により、車両認識と車種推定を行う(ステップS54、S56)。
次に、CPU30は、オリジナル画像に対応づけて記録されている解析データ(図6C)を読み出す(ステップS58)。続いて、CPU30は、図15Cの解析データを教師データとし、車両認識と車両推定の結果に基づいて、ステップS54、S56における推定のためのパラメータを学習する(ステップS60)。
以上のようにして、学習済みの推論モデルが生成される。なお、最初は、未学習の推論モデルあるいは学習不足の推論モデルであるが、上記の処理を繰り返すことで、十分に学習済みの推論モデルを得ることができる。
なお、この実施形態では、車両の前方からの写真だけでなく、後方や側面からの写真も学習データとして用いるようにしている。したがって、いずれの方向にて撮像された車両であっても推論を行うことができるような推論モデルを生成できる。運用時に前方など特定の方向からの車両だけを判断すればよいのであれば、前方のなど特定の方向だけからの写真に基づいて学習データを作成すればよい。
なお、学習済みの推論モデルとして、YOLOなどのプログラムを用いてもよい。また、YOLOなどのプログラムを追加学習して用いるようにしてもよい。
図12のステップS4においては、CPU30は、このようにして生成された推論モデルを用いて、撮像された画像(図13A)に写し出された車両をバウンダリーボックスにて囲い、車種を推定する。
図13Bに、車両が認識されバウンダリーボックスにて囲われた画像を示す。また、図示していないが、各バウンダリーボックスに対応付けて推定した車種が記録される(図15Cのような形式にて記録される)。
続いて、CPU30は、バウンダリーボックスに基づいて、それぞれの車両の画像を切り出す(ステップS8)。切り出した車両画像の例を、図16に示す。
CPU30は、車両画像に基づいて、当該車両の部位推定を行う(ステップS10)。なお、車両との距離によって切り出した画像の大きさが異なっている。そこで、この実施形態では距離に応じて異なる大きさとなっている車両画像を、統一した大きさに変換(正規化)してから推定を行うようにしている。たとえば、車両画像の横幅(バウンダリーボックスの横幅)を定められた幅となるように、車両画像全体を均等に拡大縮小する。
この実施形態では、かかる推定処理のために学習済みの推論モデル(例えばディープラーニングによる機械学習のモデル)を用いている。
この実施形態においては、学習処理は、図2のコンピュータを用いて行うようにしている。もちろん、他のコンピュータを用いてもよい。
図17に、学習処理のフローチャートを示す。この実施形態では、セマンティック・セグメンテーションによる推定処理を行うSegNet(https://qiita.com/uni-3/items/a62daa5a03a02f5fa46dにて入手可能)を、ディープラーニングのエンジンとして用いた。
まず、図18Aに示すような自動車の含まれる画像データを多数用意して、ハードディスク36に記録する。できれば、いろいろな車種、いろいろな背景による画像が多数あることが好ましい。
それぞれの画像データ(オリジナル画像データ)を、ディスプレイ34に表示し、操作者が画像をみながら、マウス40を操作して、前ナンバープレート、後ナンバープレート、前タイヤ、後タイヤ、左タイヤ、右タイヤ、正面、フロントガラス、左側面、右側面、背面、リアガラス、上面および背景(自動車以外の部分)を、それぞれ異なる色でラベル付けする。ラベル画像の例を図9Bに示す。生成されたラベル画像データは、オリジナルの画像データに対応付けて、ハードディスク36に記録される。
以上のようにして、オリジナル画像データとこれに対応するラベル画像データが、多数、ハードディスク36に記録されることとなる。
まず、CPU30は、ハードディスク36からオリジナル画像データを取得する(ステップS62)。たとえば、図18Aのようなオリジナル画像を読みだす。次に、CPU30は、オリジナル画像について、学習済みのセマンティック・セグメンテーションにより、前ナンバープレート、後ナンバープレート、前タイヤ、後タイヤ、左タイヤ、右タイヤ、正面、フロントガラス、左側面、右側面、背面、リアガラス、上面の各部位を推定する(ステップS64)。推定結果の画像を、図18Cに示す。図18Cに示すように、各部位ごとに異なる色が付された画像となっている。
この実施形態では、オリジナル画像に対して、プーリングおよび畳み込みを繰り返し、さらに、アップサンプリングと畳み込みを繰り返すことで推定結果の画像を得るようにしている。
次に、CPU30は、オリジナル画像に対応してハードディスク36に記録されているラベル画像を読みだす(ステップS66)。たとえば、図18Bのようなラベル画像が読みだされる。
続いて、CPU30は、図18Bのラベル画像を教師データとし、図18Cの推定結果画像に基づいて、ステップS64における推定のためのパラメータを学習する(ステップS68)。
全てのオリジナル画像・ラベル画像に基づいて学習を行うと、CPU30は、学習処理を終了する(ステップS60、S70)。なお、最初は、未学習の推論モデルあるいは学習不足の推論モデルであるが、上記の処理を繰り返すことで、十分に学習済みの推論モデルを得ることができる。
なお、上記実施形態では、車両一台ごとの画像に基づいて学習を行っている。しかし、複数の車両が撮像された画像に基づいて学習を行ってもよい。
図12のステップS10において、CPU30は、上記のようにして学習された推定モデルを用い、一つの車両の部位領域を推定する(ステップS10)。これにより、図13Cに示すように、自動車の各部位が推定される。この実施形態では、各部位ごとに領域分けされた(色彩、濃度などにより区別する)部位推定画像を出力するようにしている。
図13Cに部位推定画像の例を示す。この例の場合、前面、前ナンバープレート、フロントガラス、左側面、上面、左前タイヤ、左後タイヤが認識されている。
次に、CPU30は、上記の部位推定画像とステップS4にて推定した車種とに基づいて、大型車・小型車の推定を行う(ステップS12)。
前述のように、この実施形態では、ステップS3において、乗用車、貨物車、バスの車種を得ている。しかし、貨物車の中には、小型貨物車(小型トラック)と普通貨物車(普通トラック)が含まれており、これらを区別するために、大型・小型の推定を行う。前者が小型であり、後者が大型である。
また、乗用車の中には、ワゴン車やマイクロバスのように、その形状から大型車であるバスと誤って認識されることもある。そこで、この実施形態では、これらを区別するために、大型・小型の推定を行う。前者が小型であり、後者が大型である。
以上のように、大型・小型の区別を行うことにより、道路交通センサスなどに用いられている分類である、乗用車(小型車)、小型貨物車(小型車)、バス(大型車)、普通貨物車(大型車)を得ることができる。
この実施形態では、大型・小型の推定処理のために学習済みの推論モデル(例えばディープラーニングによる機械学習のモデル)を用いている。
この実施形態においては、学習処理は、図2のコンピュータを用いて行うようにしている。もちろん、他のコンピュータを用いてもよい。
図19に、学習処理のフローチャートを示す。まず、図20に示すような部位推定画像データを多数用意して、ハードディスク36に記録する。できれば、いろいろな車種による画像が多数あることが好ましい。
それぞれの部位推定画像を、ディスプレイ34に表示し、操作者が画像をみながら、キーボード/マウス40を操作して、大型車・小型車の区別を入力する。なお、部位推定画像だけでは判別が難しい場合があるので、オリジナル画像も合わせて表示する。上述のように、乗用車(マイクロバス、ワゴン車を含む)や小型貨物車であれば小型車とし、バス、普通貨物車であれば大型車とする。この大型車・小型車の区別は、部位推定画像に対応付けて、ハードディスク36に記録される。
以上のようにして、部位推定画像とこれに対応する大型車・小型車の区別が、多数ハードディスク36に記録されることとなる。
まず、CPU30は、ハードディスク36から部位推定画像を取得する(ステップS82)。たとえば、図20Aのような部位推定画像を読みだす。次に、CPU30は、部位推定画像について、学習済みの推定エンジンにより、大型・小型の推定を行う(ステップS84)。
次に、CPU30は、部位推定画像に対応してハードディスク36に記録されている大型・小型の区別を読みだす(ステップS66)。
続いて、CPU30は、読み出した大型・小型の区別を教師データとし、ステップS84における推定結果に基づいて、ステップS84における推定のためのパラメータを学習する(ステップS88)。
全ての部位推定画像に基づいて学習を行うと、CPU30は、学習処理を終了する(ステップS80、S90)。なお、最初は、未学習の推論モデルあるいは学習不足の推論モデルであるが、上記の処理を繰り返すことで、十分に学習済みの推論モデルを得ることができる。
なお、この推定が機能している理由は、大型車と小型車とによって、外形形状が類似していたとしても、フロントガラスの占める割合や前後のタイヤ間隔などが異なるためであると思われる。
なお、上記実施形態では、車両一台ごとの画像に基づいて学習を行っている。しかし、複数の車両が撮像された画像に基づいて学習を行ってもよい。
図12のステップS12において、CPU30は、上記のようにして学習された推定モデルを用い、部位推定画像に基づいて大型・小型の推定を行う。次に、CPU30は、この大型・小型の推定結果に基づいて、ステップS4における車種推定を修正する(ステップS14)。
ステップS4では、乗用車、貨物車、バスの車種推定を行っていた。この実施形態では、ステップS14において、図21に示すように、大型・小型の推定に基づいて、車種推定を正確なものに修正している。
CPU30は、上記推定結果を、車両IDに対応づけて記録する(ステップS18)。
CPU30は、上記の推定を、車両の数だけ繰り返す(ステップS6、S22)。これにより、カメラによって撮像された画像に写し出された各車両について、車種の推定を行うことができる。
次に、CPU30は、次の撮像画像を取り込み(ステップS202)、通過計数処理を行い、上記と同様にして、各車両の車種推定を行い、その結果を車両IDに対応づけて記録する(ステップS4〜S22)。
以上を繰り返すと、車両の移動により、撮像されなくなるものがでてくる。当該車両IDについて、記録さた修正された車種推定結果(複数個ある)を統合して、最終的な車種推定結果を得て、当該最終的な車種推定結果を当該車両(車両ID)に対応づけて記録する(ステップS24)。たとえば、複数ある車種推定結果のうち、最も多い車種推定結果を、最終的な車種推定結果とする。したがって、車種推定結果に基づいて、車種ごとの通過量を計数することができる。
以上のようにして、リアルタイムに撮像を行いながら正確に車種を判断することができる。また、車種ごとに通行量を計数することができる。
2.4その他
(1)上記実施形態では、ステップS14において、部位推定画像に基づいて大型・小型の推定を行っている。しかし、ステップS8で抽出した車両画像(正規化したものが好ましい)も含めて推定に用いるようにしてもよい。
(2)上記実施形態では、車両画像の大きさを正規化した後、推定を行うようにしている。しかし、正規化せずに推定を行うようにしてもよい。
(3)上記実施形態では、まず、車種を推定してから、大型・小型の推定を行って、修正し最終的な車種を得ている。しかし、ステップS4において、車両の部位推定画像を用いて、最終的な車種の推定を一度に行ってもよい。
(4)上記実施形態では、リアルタイムに車種の推定を行っている。しかし、記録済みの撮像画像に基づいて上記の処理を行って、車種の推定を行うようにしてもよい。この場合、カメラ2によって撮像した画像を可搬性記録媒体に記録し、これをハードディスク36に読み込んで処理を行うようにしてもよい。
(5)上記実施形態では、部位推定画像として、前面、前ナンバープレート、側面、タイヤ、フロントガラスなどの部位領域を明らかにしたものを用いている。しかし、大型車と小型車において、全体の大きさが分かる部位と、フロントガラスやタイヤ間隔やナンバープレートの大きさが分かるような部位を含む部位推定画像を用いることができる。たとえば、少なくとも、フロントガラスといずれかの側面を含む部位推定画像を用いてもよい。また、少なくとも、いずれかの前タイヤと後タイヤといずれかの側面を含む部位推定画像を用いてもよい。
(6)上記実施形態では、全ての車両についての共通した学習済み推論モデルを構築して、大型車・小型車の推定をしている。しかし、ステップS4において推定した車種ごとに学習済み推論モデルを構築し、車種ごとに大型車・小型車の推定をしてもよい。また、車種の判定を行うようにしてもよい。
(7)上記実施形態では部位推定画像に基づいて大型車・小型車の推論を行っている。しかし、これに代えて、あるいはこれに加えて、車両画像を正規化した時のバウンダリーボックス枠の大きさや車両が専有する面積などを推論の根拠として用いるようにしてもよい。
(8)上記実施形態では、いろいろな方向に移動する車両を撮像している。しかし、カメラ設置の際に、一方にのみ移動する車(向かってくる車のみ等)だけが撮像されるように設定すれば、推定処理が容易となり精度も向上する。
(9)上記実施形態では、同一の車両に対する複数の車両画像に基づいて、大型小型の判断を行っている。しかし、一枚の画像に基づいてこれを行うようにしてもよい。
(10)上記実施形態およびその変形例は、その本質に反しない限り他の実施形態変形例と組み合わせて実施可能である。
3.第3の実施形態
3.1機能構成
図13に、この発明の一実施形態による入場管理システムの機能ブロック図を示す。撮像部2は、たとえば、施設などの駐車場入口に設けられ、入口ゲートに近づく車両を撮像する。車種推定計数手段100は、たとえば、第1の実施形態にて説明した手法によって、撮像画像に基づいて車種を推定し、車種ごとに通過車両数を計数するものである。ゲート制御手段150は、当該推定された車種に基づいて、ゲートの開閉を制御するものである。たとえば、大型車と小型車によって、大型車のための駐車場へのゲート、小型車のための駐車場へのゲートを開けるかを制御する。
3.2システム構成と動作
図23に、入場管理システムの入場ゲートの外観を示す。小型車用ゲート120と大型車用ゲート140が設けられている。カメラ2は、これらのゲートに進入しようとする車両を撮像する。
図24に、ハードウエア構成を示す。コンピュータ160は、第1の実施形態における図2の構成と同様のものである。ただし、CPU30は、ゲート120、140の開閉を制御するゲート制御部180に対して、指令を与えることができるようになっている。
図25に、制御プログラムのフローチャートを示す。CPU30は、ステップS110において、カメラ2によって撮像した画像を取得する。撮像画像において車両が認識されなければ、ステップS110を繰り返す。
車両が認識されると、CPU30は、第1の実施形態にて説明した処理により、車種(大型・小型)の推定を行う(ステップS114)。大型であると推定した場合、CPU30は、大型用ゲート140を開くようゲート制御部180に指示する(ステップS116)。また、小型であると推定した場合、CPU30は、小型用ゲート120を開くようゲート制御部180に指示する(ステップS116)。
ゲートを開いた後、通過検出のセンサ(図示せず)からの出力を受けると、CPU30は、ゲートを閉じる(ステップS118)。
以上のようにして、自動的に大型小型を判定して、行き先のゲートを選択して開閉することができる。また、入場した大型車、小型車の数を計数しているので、大型車用のエリアまたは小型車用のエリアが満車になったことを表示器(図示せず)によって表示することができる。
3.3その他
(1)上記実施形態では、駐車場について説明したが、ドライブスルーサファリなどその他の施設についても同様に適用することができる。また、上記では、大型・小型の判断に基づいてゲートを選択的に開閉しているが、より細かい車種分けに応じてゲートを選択的に開閉するようにしてもよい。
また、所定の車種に応じて(あるいは大型・小型に応じて)、ゲートを開けるかどうかを判断するようにしてもよい。たとえば、小型車専用の橋であれば、その入口で大型車に対してはゲートを開けないように制御することができる。
(2)上記実施形態では、ゲートの開閉を制御する場合について説明した。しかし、車種推定(大型小型の推定を含む)に応じて、駐車料金や施設利用料金を算出するようにしてもよい。高速道路などの入り口において利用することができる。
(3)上記実施形態およびその変形例は、その本質に反しない限り他の実施形態や変形例と組み合わせて実施可能である。

Claims (12)

  1. 車両の通行する所定のエリアを固定的に撮像して連続撮像画像を出力する撮像部と、
    前記連続撮像画像に含まれる車両を認識し、車両領域を設定する車両認識手段と、
    前記所定のエリアの撮像画像において設定された通過線に基づいて、前記連続撮像画像において、前記車両領域が当該通過線を跨いだことを検出して車両の通過を判断する車両通過判断手段と、
    を備えた交通量計測装置。
  2. 交通量計測装置をコンピュータによって実現するための交通量計測プログラムであって、コンピュータを、
    車両の通行する所定のエリアを固定的に撮像した連続撮像画像に含まれる車両を認識し、車両領域を設定する車両認識手段と、
    前記所定のエリアの撮像画像において車両の移動方向と交差するように設定された通過線に基づいて、前記連続撮像画像において、前記車両領域が当該通過線を跨いだことを検出して車両の通過を判断する車両通過判断手段として機能させるための交通量計測プログラム。
  3. 請求項1の装置または請求項2のプログラムにおいて、
    前記通過線は2つ設定されており、
    前記車両通過判断手段は、車両領域が前記2つの通過線の双方に交差したことにより、車両の通過であると判断することを特徴とする装置またはプログラム。
  4. 請求項1〜3のいずれかの装置またはプログラムにおいて、
    前記通過線は、車両の移動方向の手前から第1通過線、第2通過線の2つ設定されており、
    前記車両通過判断手段は、車両領域が第1通過線に交差した後、第2通過線に交差した場合に、車両の通過であると判断することを特徴とする装置またはプログラム。
  5. 請求項4の装置またはプログラムにおいて、
    前記車両通過判断手段は、前記車両領域の重心位置が第1通過線を通過したかどうかによって交差したかどうかを判断し、前記車両領域の上辺または底辺が第2通過線を通過したかどうかによって交差したかどうかを判断することを特徴とする装置またはプログラム。
  6. 請求項1〜5のいずれかの装置またはプログラムにおいて、
    車両認識手段によって認識された車両の車両画像を抽出する車両画像抽出手段と、
    抽出された車両画像を受けて、当該画像中の車両の前後のタイヤ、側面を含む部位領域を抽出する部位抽出手段と、
    前記抽出された複数の部位領域の関係に基づいて、大型車か小型車かを推定する大小推定手段とを備え、
    前記車両通過判断手段は、前記大小推定手段の推定結果に基づいて、大型車、小型車を区別して、車両通過数を計数することを特徴とする装置またはプログラム。
  7. 請求項6の装置またはプログラムにおいて、
    大小推定手段は、複数の撮像画像についての大型車か小型車かの判断を統合して、最終的な大型車か小型車かの判断を行うことを特徴とする装置またはプログラム。
  8. 請求項6または7のいずれかの装置またはプログラムにおいて、
    前記部位抽出手段は、車両の前後のタイヤと側面に代えて、あるいは加えて、フロントガラス、リアガラスまたはナンバープレートを含む部位領域も抽出することを特徴とする装置またはプログラム。
  9. 請求項6〜8のいずれかの装置またはプログラムにおいて、
    前記大小推定手段は、前記抽出された車両画像も推定の根拠に用いることを特徴とする装置またはプログラム。
  10. 請求項6〜9のいずれかの装置またはプログラムにおいて、
    前記大小推定手段は、前記抽出された車両画像の枠をカメラからの距離に応じて正規化した時の枠の大きさも推定の根拠に用いることを特徴とする装置またはプログラム。
  11. 請求項6〜10のいずれかの装置またはプログラムにおいて、
    前記大小推定手段は、前記抽出された車両画像をカメラからの距離に応じて正規化した時の車両画像における車両の占める領域面積も推定の根拠に用いることを特徴とする装置またはプログラム。
  12. 請求項6〜11のいずれかの装置またはプログラムにおいて、
    前記車両認識手段は、少なくとも乗用車、バス、トラックの車種を判断するものであり、
    前記大小推定手段は、前記車種ごとに分けて大小推定を行うことを特徴とする装置またはプログラム。




JP2019215973A 2019-11-29 2019-11-29 交通量計測装置 Active JP6891253B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019215973A JP6891253B2 (ja) 2019-11-29 2019-11-29 交通量計測装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019215973A JP6891253B2 (ja) 2019-11-29 2019-11-29 交通量計測装置

Publications (2)

Publication Number Publication Date
JP2021086467A true JP2021086467A (ja) 2021-06-03
JP6891253B2 JP6891253B2 (ja) 2021-06-18

Family

ID=76087817

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019215973A Active JP6891253B2 (ja) 2019-11-29 2019-11-29 交通量計測装置

Country Status (1)

Country Link
JP (1) JP6891253B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023053447A (ja) * 2021-10-01 2023-04-13 株式会社ヒスコム 自動販売機システム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05325092A (ja) * 1992-05-20 1993-12-10 Mitsubishi Heavy Ind Ltd 車両感知装置
JPH10154292A (ja) * 1996-05-15 1998-06-09 Hitachi Ltd 交通流監視装置
JP2018190082A (ja) * 2017-04-28 2018-11-29 株式会社東芝 車種判別装置、車種判別方法、および車種判別システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05325092A (ja) * 1992-05-20 1993-12-10 Mitsubishi Heavy Ind Ltd 車両感知装置
JPH10154292A (ja) * 1996-05-15 1998-06-09 Hitachi Ltd 交通流監視装置
JP2018190082A (ja) * 2017-04-28 2018-11-29 株式会社東芝 車種判別装置、車種判別方法、および車種判別システム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023053447A (ja) * 2021-10-01 2023-04-13 株式会社ヒスコム 自動販売機システム
JP7297325B2 (ja) 2021-10-01 2023-06-26 株式会社ヒスコム 自動販売機システム

Also Published As

Publication number Publication date
JP6891253B2 (ja) 2021-06-18

Similar Documents

Publication Publication Date Title
US11840239B2 (en) Multiple exposure event determination
Hsieh et al. Automatic traffic surveillance system for vehicle tracking and classification
CN104537841B (zh) 无牌车辆违章检测方法及其检测系统
US8744132B2 (en) Video-based method for detecting parking boundary violations
US8737690B2 (en) Video-based method for parking angle violation detection
WO2017125063A1 (zh) 违规车辆处理方法及装置
CN104778444A (zh) 道路场景下车辆图像的表观特征分析方法
CN105488453A (zh) 一种基于图像处理的驾驶员未系安全带检测识别方法
WO2020098506A1 (zh) 路口状态检测方法、装置、电子设备及车辆
JP6678552B2 (ja) 車種判別装置および車種判別方法
CN106600955A (zh) 检测交通状态的方法、装置和电子设备
Sangnoree et al. Thermal-image processing and statistical analysis for vehicle category in nighttime traffic
JP6891253B2 (ja) 交通量計測装置
JP7277511B2 (ja) 車推定装置
JP3541774B2 (ja) 車種判別システム
WO2023071874A1 (zh) 道路救援工作节点确定方法、装置及电子设备、存储介质
CN115359438A (zh) 一种基于计算机视觉的车辆加塞的检测方法、系统和装置
CN112686136B (zh) 一种对象检测方法、装置及系统
CN113128264B (zh) 一种车辆区域确定方法、装置及电子设备
Lu et al. A vision-based system for the prevention of car collisions at night
CN113487878A (zh) 一种机动车违章压线行驶检测方法及系统
JP2022163387A (ja) 車推定装置
KR20220014118A (ko) 적재 불량 트럭 단속 시스템
CN114141022A (zh) 应急车道占用行为检测方法、装置、电子设备及存储介质
TWI828368B (zh) 用於偵測航空器於停機坪的行為的方法與其系統

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200424

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200424

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200430

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200602

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200817

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201013

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210526

R150 Certificate of patent or registration of utility model

Ref document number: 6891253

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350