JP7412326B2 - Parking lot management device - Google Patents
Parking lot management device Download PDFInfo
- Publication number
- JP7412326B2 JP7412326B2 JP2020218394A JP2020218394A JP7412326B2 JP 7412326 B2 JP7412326 B2 JP 7412326B2 JP 2020218394 A JP2020218394 A JP 2020218394A JP 2020218394 A JP2020218394 A JP 2020218394A JP 7412326 B2 JP7412326 B2 JP 7412326B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- parking lot
- parking
- vehicles
- management device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003860 storage Methods 0.000 claims description 38
- 238000003384 imaging method Methods 0.000 claims description 19
- 230000010365 information processing Effects 0.000 claims description 7
- 230000000903 blocking effect Effects 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 27
- 238000013135 deep learning Methods 0.000 description 21
- 238000012545 processing Methods 0.000 description 14
- 238000001514 detection method Methods 0.000 description 13
- 238000005516 engineering process Methods 0.000 description 8
- 238000000034 method Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 241000282412 Homo Species 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 3
- 230000008921 facial expression Effects 0.000 description 3
- 238000012423 maintenance Methods 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 241000282472 Canis lupus familiaris Species 0.000 description 1
- 241000282326 Felis catus Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
Images
Landscapes
- Traffic Control Systems (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Description
本願は、駐車場管理装置に関するものである。 The present application relates to a parking lot management device .
AI(Artificial Intelligence)の機械的学習(ディープラーニング)を使用して、予め定めた対象物を二次元の画像から抽出することが行われている。例えば、監視カメラによって撮影された駐車場の映像によって、駐車枠に車両が駐車しているか否かを判別するためにAIを使用することが提案されている。 Machine learning (deep learning) of AI (Artificial Intelligence) is used to extract predetermined objects from two-dimensional images. For example, it has been proposed to use AI to determine whether a vehicle is parked in a parking slot based on images of a parking lot captured by a surveillance camera.
駐車場における駐車スペースの利用状況を検知するシステムとして、駐車場の監視ビデオカメラによる撮影画像から、駐車スペースの画像の検出を行い、駐車スペースの画像が空き駐車スペースの特徴を満足するかを判断することによって、空き駐車スペースを検出することが提案されている(特許文献1)。 As a system that detects the usage status of parking spaces in parking lots, it detects images of parking spaces from images captured by parking lot surveillance video cameras, and determines whether the images of parking spaces satisfy the characteristics of empty parking spaces. It has been proposed to detect vacant parking spaces by doing so (Patent Document 1).
特許文献1に示されているように、対象物(空きスペース)を予め定めて、画像からその対象物の状態を判別するには、それぞれの駐車スペースに対応するカメラによって撮影された画像が必要である。そのため、高い位置にカメラを設置するか、数多くのカメラを設けることが必要である。
As shown in
本願は、カメラを必要とするが、カメラの位置および数量の制約の影響を受けることの少ない駐車場管理装置を提供することを目的としている。 An object of the present application is to provide a parking lot management device that requires cameras but is less affected by restrictions on the location and number of cameras .
本願の駐車場管理装置は、画像情報を取得する撮像装置、車両の特徴部分の情報を記憶する第1の記憶装置、前記撮像装置によって取得された前記画像情報を蓄積する第2の記憶装置、および前記第2の記憶装置の前記画像情報を複数の領域に分割し、分割されたそれぞれの前記領域の画像情報と前記第1の記憶装置に記憶されている前記車両の特徴部分の情報とによって前記画像情報に前記車両が含まれていることを判別する情報処理装置を備えた物体識別装置を駐車場の管理装置として備え、前記物体識別装置による識別領域に遮蔽物によって遮蔽されて車両の存在が不明の場合に、前記第2の記憶装置に蓄積されている前記画像情報を遡及して前記遮蔽物の後ろに前記車両が存在するか否かを確認するようにしたことを特徴とする。
The parking lot management device of the present application includes an imaging device that acquires image information, a first storage device that stores information on characteristic parts of a vehicle, a second storage device that stores the image information acquired by the imaging device, The image information in the second storage device is divided into a plurality of regions, and the image information in each of the divided regions and the information on the characteristic part of the vehicle stored in the first storage device are used. An object identification device equipped with an information processing device that determines that the vehicle is included in the image information is provided as a parking lot management device, and the presence of a vehicle blocked by a shielding object is provided in an identification area by the object identification device. is unknown, the image information stored in the second storage device is retrospectively checked to confirm whether or not the vehicle is behind the shielding object.
本願の駐車場管理装置によれば、カメラの位置および数量の制約を受けることの少ない駐車場の管理装置を得ることができる。 According to the parking lot management device of the present application, it is possible to obtain a parking lot management device that is less subject to restrictions on the position and number of cameras.
以下、本願に係る物体識別装置、それを用いた駐車場管理装置、および車両管理装置の実施の形態について図面を用いて説明する。なお、各図において同一または相当する部分については、各々同一符号を付して、重複する説明を省略する。 Embodiments of an object identification device, a parking lot management device using the same, and a vehicle management device according to the present application will be described below with reference to the drawings. Note that the same or corresponding parts in each figure are designated by the same reference numerals, and redundant explanation will be omitted.
実施の形態1.
図1は、本願の実施の形態1の物体識別装置を示す概略的な構成図である。
図1に示すように、実施の形態1の物体識別装置100は、画像情報を取得する撮像装置1、識別対象物の特徴部分の情報を記憶する第1の記憶装置2、撮像装置1によって取得された画像情報を蓄積する第2の記憶装置3、および第2の記憶装置3の画像情報を複数の領域に分割し、分割されたそれぞれの領域の画像情報と第1の記憶装置2に記憶されている識別対象物の特徴部分の情報とによって画像情報に識別対象物が含まれているかを判別する情報処理装置4を備えている。
FIG. 1 is a schematic configuration diagram showing an object identification device according to
As shown in FIG. 1, an
そして情報処理装置4による判別結果に基づいて撮像装置1によって取得された被写体が識別対象物であるかどうかを識別装置5において識別する。この識別装置5における識別結果は表示装置6において表示される。
識別対象物は、識別対象物設定部7において設定される。第1の記憶装置2に記憶されている識別対象物の特徴部分は、識別対象物の教師データを用いてディープラーニングの手法による画像認識によって生成される。すなわち、第1の記憶装置2に記憶されている特徴部分の情報は、教師データと類似物データとの比較の学習によって得られたもので、識別対象物設定部7において予め設定された識別対象物について、教師データ作成部8において、ディープラーニングに使用される教師データが作成され、類似物データが類似物データ作成部9において作成される。
Based on the determination result by the information processing device 4, the
The identification target object is set in the identification target
教師データは、識別対象物の正面図、側面図および三次元構造体の画像の描画パラメータを変化させて取得される識別対象物の外観形状の情報である。類似物データは、識別対象物の外観形状に類似する異なる構造体の外観形状の情報である。そして、教師データ作成部8において作成された教師データを、類似物データ作成部9において作成された類似物データによって、識別対象物が、他の類似物に対してどのようなところが類似しているのか、またどのようなところが識別できる特徴部分となるのかということを学習処理装置10において学習を重ねて習得する。学習処理装置10において習得した識別対象物の特徴部分の情報は第1の記憶装置2に記憶される。
The teacher data is information about the external shape of the object to be identified, which is obtained by changing the drawing parameters of the front view, side view, and image of the three-dimensional structure of the object. The similar object data is information about the external shape of a different structure that is similar to the external shape of the identification target object. Then, using the teacher data created in the teacher
すなわち、学習処理手段11は、識別対象物設定部7、教師データ作成部8、類似物データ作成部9、および学習処理装置10を備えている。そして、対象物識別手段12は、第1の記憶装置2、第2の記憶装置3、情報処理装置4、および識別装置5を備えている。
That is, the learning processing means 11 includes an identification target
なお、学習処理手段11および対象物識別手段12は、ハードウエアの一例を図2に示すように、プロセッサ200と記憶装置201から構成される。記憶装置は図示していないが、ランダムアクセスメモリ等の揮発性記憶装置と、フラッシュメモリ等の不揮発性の補助記憶装置とを具備する。また、フラッシュメモリの代わりにハードディスクの補助記憶装置を具備してもよい。プロセッサ200は、記憶装置201から入力されたプログラムを実行する。この場合、補助記憶装置から揮発性記憶装置を介してプロセッサ200にプログラムが入力される。また、プロセッサ200は、演算結果等のデータを記憶装置201の揮発性記憶装置に出力してもよいし、揮発性記憶装置を介して補助記憶装置にデータを保存してもよい。
Note that the learning processing means 11 and the object identification means 12 are constituted by a
ここで、識別対象物とは、カメラなどの撮像装置1によって取得される画像の中から識別したい物を意味している。識別対象物としては、特に制限されるものではなく、目的に応じて適宜設定することができる。例えば、駐車場の画像(映像)に含まれる小型車両、大型車両、特定の車種の車両、特定の地域名のナンバープレート、施設に流入する人物、男女、大人、子供、動物など、人間の視覚によって検知できる物体が挙げられる。
Here, the object to be identified means an object to be identified from an image acquired by the
教師データとは、教師ありディープラーニングにおいて用いられる「入力データ」と「正解ラベル」のペアである。ここで、入力データを多数のパラメータを有するニューラルネットワークに入力することでディープラーニング学習を実施し、推論ラベルと正解ラベルとの差の更新を繰り返すことによって、正解の頻度を高める。また、ここでは、識別対象物の全体像による判断ではなく、識別対象物の外観の一部を認識することによって画像の中に識別対象物が含まれていることを識別する。 Training data is a pair of "input data" and "correct label" used in supervised deep learning. Here, deep learning learning is performed by inputting input data to a neural network having a large number of parameters, and the frequency of correct answers is increased by repeatedly updating the difference between the inference label and the correct answer label. Furthermore, here, the presence of an identification target in an image is identified by recognizing a part of the appearance of the identification target, rather than making a determination based on the entire image of the identification target.
そのために、撮像装置1によって取得した画像情報を複数の領域に分割して、複数の分割されたそれぞれの領域の画像情報に識別対象物の特徴部分が含まれているかどうかを判定している。これは、例えば、駐車場において管理人が、目視して小型車両の台数を確認する場合のように、識別対象物が小型車両であって、ほんの僅か表れている車体の一部を確認して計数するのと同じ機能を画像認識によって果たすものである。
画像認識は、画像データの画像内容を分析して、その形状および外観を認識する技術である。ここでは、画像認識として、画像データから識別対象物と想定する輪郭を抽出して、画像の背景から分離した上で、その識別対象物と想定したものが何であるかを分析する。
For this purpose, the image information acquired by the
Image recognition is a technology that analyzes the image content of image data to recognize its shape and appearance. Here, image recognition is performed by extracting the outline of an object to be identified from image data, separating it from the background of the image, and then analyzing what is assumed to be the object to be identified.
次に、ディープラーニングによる識別対象物の検出について説明する。
ここで使用するのは1段階の物体検出手法を用いるアルゴリズムである。このアルゴリズムによって物体を検出するステップは次のとおりである。まず、撮像装置1によって取得した画像を予め定めたサイズのグリッド(例えば等サイズのグリッド領域)に分割する。分割したグリッドの領域に、事前に定義した形状の、グリッドの中心を中心位置とするバウンディングボックスを、事前に設定した数だけ予測する。それぞれの予測には、クラス確立と物体信頼度(その領域に物体を含んでいるか、あるいは背景のみか)を関連付けする。
次に、高い物体信頼度およびクラス確率が関連付けられたバウンディングボックスを選択する。最も高いクラス確率を持つ物体クラスが、その物体のカテゴリー(クラス)となる。そして、スコアが高いデフォルトボックスのみを抽出する。次に、クラスごとにデフォルトボックスの重なり率を計算し、重なり率が高い場合には、スコアの低いデフォルトボックスを除去する。そして、物体の位置を表すバウンディングボックスを出力する。
Next, detection of an identification target using deep learning will be described.
What is used here is an algorithm that uses a one-step object detection method. The steps for detecting an object by this algorithm are as follows. First, an image acquired by the
Next, select bounding boxes that are associated with high object confidence and class probabilities. The object class with the highest class probability becomes the category (class) of that object. Then, only default boxes with high scores are extracted. Next, the overlap rate of default boxes is calculated for each class, and if the overlap rate is high, default boxes with low scores are removed. Then, a bounding box representing the position of the object is output.
実施の形態2.
次に、物体識別装置を駐車場管理装置に適用する場合について説明する。
図3は、物体識別装置を用いた駐車場管理装置の構成とフローを示す説明図である。
図3に示すように、駐車場管理装置201に使用する場合には、識別対象物として、複数種類の車両を設定する。例えば、普通自動車、トラック、バス、バイク、自転車等を識別対象物として設定する。そして、撮像装置1(カメラ)によって、予め定められた時間間隔で駐車場の撮影を行う(ステップS200)。エッジコンピュータ202によって、図1に示した学習処理手段11と対象物識別手段12との機能を果たす。
Embodiment 2.
Next, a case will be described in which the object identification device is applied to a parking lot management device.
FIG. 3 is an explanatory diagram showing the configuration and flow of a parking lot management device using an object identification device.
As shown in FIG. 3, when used in the parking
すなわち、カメラ画像の取得(ステップS210)を行ない、物体検出のために、バウンディングボックスの予測を行う(ステップS220)。画像認識を行い、物体(普通自動車、トラック、バス、バイク、自転車)として識別の信頼度の高いもの選択する(ステップS230)。予め設定した閾値より高い信頼度の物体を処理対象とする(ステップS240)。そして、処理対象としての識別対象物の台数をカウントする(ステップS250)。ここでの車両の台数のカウントは、実施の形態1において説明しているように、物体識別装置による識別、すなわち第2の記憶装置に記憶された画像情報を複数の領域に分割し、分割されたそれぞれの前記領域の画像情報と第1の記憶装置に記憶されている識別対象物の特徴部分の情報とによって前記画像情報に前記識別対象物が含まれているかどうかを判別するものである。
That is, a camera image is acquired (step S210), and a bounding box is predicted for object detection (step S220). Image recognition is performed and objects (regular cars, trucks, buses, motorcycles, bicycles) with high identification reliability are selected (step S230). Objects whose reliability is higher than a preset threshold are targeted for processing (step S240). Then, the number of identification objects to be processed is counted (step S250). As described in
駐車場の状態として、満車、空車、混雑の判定を行う(ステップS260)。判定結果は、表示盤に満車、空車、混雑の表示を行う(ステップS270)。また、クラウドサーバによってホームページに満車、空車、混雑の表示を行う(ステップS280)。また、台数のカウント結果については、車種別、時間帯別の集計を行う(ステップS290)。
なお、ステップS240において、識別の信頼度の高いものを処理対象とするように示した。これは、管理人が駐車場の予め定められた場所(監視場所)に立って、駐車場を視認している状態と同じ様に、管理人と対象物との間に、別の車両が存在することによって対象物が全く確認できないことが生じる。すなわち、対象物(車両)と撮像装置との間にトラックが存在することによって対象物が存在するにも関わらず、カウントしない場合が生じる。
It is determined whether the parking lot is full, empty, or crowded (step S260). The determination result is displayed on the display panel as full, empty, or crowded (step S270). Further, the cloud server displays on the home page whether the vehicle is full, vacant, or crowded (step S280). Furthermore, the results of counting the number of vehicles are aggregated by vehicle type and time zone (step S290).
In addition, in step S240, it is shown that those with high identification reliability are to be processed. This is similar to the situation where the parking lot manager stands at a predetermined location (monitoring location) and visually checks the parking lot, but there is another vehicle between the parking lot and the object. As a result, the object may not be visible at all. That is, due to the presence of a truck between the object (vehicle) and the imaging device, there may be cases where the object is not counted even though the object is present.
このように遮蔽物が存在する場合、人間(管理人)が視認しているのであれば、その遮蔽物が移動するまで、隠れた対象物を見ることができない。しかし、実施の形態2の駐車場管理装置においては、撮像装置1によって、駐車場の予め定められた領域の画像を取得するように設定されているので、その駐車場の領域に遮蔽物が入ってきた場合には特別な管理を行う。
When a shield exists in this way, if a person (caretaker) is viewing the object, he or she will not be able to see the hidden object until the shield moves. However, in the parking lot management device of Embodiment 2, the
すなわち、図4は、遮蔽物と識別対象物との関係を示す説明図である。図4(a)は、トラック20によって識別対象物の車両30が完全に隠されている状態を表している。図4(b)は、識別対象物の車両30が駐車している後に遮蔽物となるトラック20が駐車しようとしている状態を表している。図4(c)は、遮蔽物であるトラック20が駐車するときにはその遮蔽される領域には車両30が駐車されていない状態を表している。図4(d)は、遮蔽物とされるトラック20によって遮蔽されている領域に車両30を駐車しようとしている状態を表している。
That is, FIG. 4 is an explanatory diagram showing the relationship between the shielding object and the identification target object. FIG. 4A shows a state in which the
この図4(a)に示すように、識別対象物とされる車両30の一部分も確認できない場合がある。駐車場を確認した時点においては、遮蔽物となるトラック20が駐車しているため、遮蔽された領域に車両30が既に存在しているのか、車両30が存在していないのかは不明である。
As shown in FIG. 4(a), there are cases where even a portion of the
図4(a)に示すように遮蔽物によって識別対象物の存在が不明と判断される領域が存在する場合には、図5に示すように処理する。すなわち、図5は、遮蔽物によって、識別対象物である車両の存在が不明の場合の車両台数のカウントの処理手順を示すフロー図である。
駐車場の管理において、車両の出入りの状態は、画像情報として第2の記憶装置3に保存されているので、この保存されている画像情報を使用して、識別対象物としての車両の存在を確認する。
As shown in FIG. 4A, if there is an area where the existence of the object to be identified is determined to be unknown due to a blocking object, processing is performed as shown in FIG. That is, FIG. 5 is a flowchart showing a processing procedure for counting the number of vehicles when the presence of a vehicle that is an object to be identified is unknown due to a blocking object.
In parking lot management, the state of vehicles entering and exiting is stored as image information in the
まず、図5に示すように車両が完全に遮蔽されている可能性があるか否を判断する(ステップS10)。駐車場に駐車されている車両が何らかの方法で確認される場合(部分的に突出している等のように輪郭の一部が確認されるような場合)には、遮蔽されている領域が無いとして、確認した車両数で集計する(ステップS11)ことによって処理は完了する。車両が完全に遮蔽されている可能性がある場合には、遮蔽物によって隠れるよりも前の画像情報を確認する(ステップS12)。そして、遮蔽物が存在する以前に車両が駐車されていたかを確認する(ステップS13)。 First, as shown in FIG. 5, it is determined whether there is a possibility that the vehicle is completely shielded (step S10). If a vehicle parked in a parking lot can be confirmed in some way (for example, if a part of its outline is confirmed, such as partially protruding), it is assumed that there is no occluded area. , the process is completed by counting the number of confirmed vehicles (step S11). If there is a possibility that the vehicle is completely shielded, image information before the vehicle is hidden by the shielding object is checked (step S12). Then, it is checked whether the vehicle was parked before the obstruction existed (step S13).
遮蔽物が入った後に既に存在していた車両が出て行った情報があるか否かを把握する。遮蔽物が存在するよりも前に駐車していない場合には、遮蔽物が存在した後に遮蔽物の後方(遮蔽物によって遮蔽されている領域)に駐車された車両があるのかを確認する(ステップS14)。要するに遮蔽されている領域に車両が駐車されたのであれば、車両数を加算する(ステップS15)。
そして遮蔽物の後方に車両が存在していないことが継続している場合には、車両数の増減は無いとする(ステップ16)。
To ascertain whether there is any information that a vehicle that was already present left after the shield entered. If no vehicle is parked before the shield exists, check whether there is a vehicle parked behind the shield (in the area covered by the shield) after the shield exists (step S14). In short, if a vehicle is parked in the shielded area, the number of vehicles is added (step S15).
If there continues to be no vehicle behind the shield, it is determined that there is no increase or decrease in the number of vehicles (step 16).
また、遮蔽物が存在する以前から遮蔽領域に車両が存在していたのであれば、隠れていた車両数を加算する(ステップS17)。さらに、車両が存在していたという画像情報よりも後に、遮蔽物の後方に存在していた車両が移動しているか否かを確認する(ステップS18)。そして、計数後に車両が移動しているのであれば、車両数を減算する(ステップS19)。さらに車両が移動した後に新たな車両が駐車したかについてはステップS14によって確認することになる。
以上の手順のように、遮蔽物が存在している場合であっても、駐車場を管理している時間の画像情報が第2の記憶装置に保管されるので、画像情報の時間を戻して再生することによって遮蔽物の後ろに車両が駐車されているか否かを正確に把握することができる。
Furthermore, if a vehicle was present in the shielded area before the existence of the shielding object, the number of hidden vehicles is added (step S17). Furthermore, it is confirmed whether the vehicle that was present behind the shielding object has moved after the image information indicating that the vehicle was present (step S18). If the vehicle is moving after counting, the number of vehicles is subtracted (step S19). Further, it is checked in step S14 whether a new vehicle has been parked after the vehicle has moved.
As shown in the above procedure, even if there is an obstruction, the image information of the time when the parking lot was managed is stored in the second storage device, so the image information can be returned to the time. By reproducing the information, it is possible to accurately determine whether the vehicle is parked behind the shield.
実施の形態2の駐車場管理装置においては、特徴部分の部分的な情報から識別対象物の存在を推定する。また、識別対象物の全体を遮蔽する遮蔽物が存在する場合には、遮蔽物の存在前後の画像情報によって確認することによって識別対象物の存在を確認することができる。すなわち、識別対象物が存在する可能性のある駐車場の監視対象の領域について、過去の画像情報を確認し、その確認状況の記録を残すことによって、人間の管理ではできなかった、管理情報を得ることができ、より確実な管理を実現することができる。 In the parking lot management device of Embodiment 2, the presence of an identification target is estimated from partial information of a characteristic part. Furthermore, if there is a shielding object that blocks the entire object to be identified, the existence of the object to be identified can be confirmed by confirming the image information before and after the existence of the shielding object. In other words, by checking past image information for areas to be monitored in parking lots where there is a possibility that objects to be identified may exist, and by keeping a record of the checking status, it is possible to obtain management information that could not be managed by humans. This allows for more reliable management.
さらに、この実施の形態2においては、日中だけでなく、夜、雪、雨などの天候の悪い状況でも車両の検出を可能にする。すなわち、クラスタリングによる車両検出技術では、日中の映像が鮮明な時間帯では車両の検出は安定しているが、夜、雪、雨など、天候の悪い状況では検出精度が安定しない。これに対して、ディープラーニングの物体検出技術を活用し、予め、夜、雪、雨時の画像でトレーニングする事によって車両の検出を安定して行うことができる。夜間、および雪、雨の悪天候時も安定して車両の検出を可能になることで、安定したサービスの提供が可能になる。 Furthermore, in the second embodiment, it is possible to detect a vehicle not only during the day but also at night and under bad weather conditions such as snow and rain. In other words, with vehicle detection technology using clustering, vehicle detection is stable during daytime hours when images are clear, but detection accuracy is unstable at night and in bad weather conditions such as snow and rain. In contrast, by using deep learning object detection technology and training with images from night, snow, and rain, it is possible to stably detect vehicles. By making it possible to stably detect vehicles at night and during bad weather such as snow and rain, it is possible to provide stable services.
実施の形態3.
次に、物体識別装置を駐車場管理装置に適用する場合であって、駐車場の利用者の属性を集計する場合について説明する。
図6は、物体識別装置を用いた駐車場管理装置の構成とフローを示す説明図である。
実施の形態2(図3)においては識別対象物を車両としていたが、この実施の形態3では、識別対象物を人およびペットとして、駐車場に設置している満車・空車を検知するための撮像装置の画像情報を使用して、施設に流入する人の属性を把握することによって、マーケティング、施設の混み具合の発信に活用するものである。ここでは、ディープラーニングによる物体認識技術を活用し、人を検出することにより、施設に流入する人数をカウントする。また、性別(男/女)、年齢、ペットを検出することもできる。さらに、人間の表情から、感情を読み取ることもできるものである。
Next, a case will be described in which the object identification device is applied to a parking lot management device and the attributes of parking lot users are totaled.
FIG. 6 is an explanatory diagram showing the configuration and flow of a parking lot management device using an object identification device.
In the second embodiment (FIG. 3), the objects to be identified were vehicles, but in this third embodiment, the objects to be identified are people and pets, and a system for detecting whether a car is full or empty in a parking lot is used. By using the image information from the imaging device to understand the attributes of people entering the facility, it is used for marketing and to communicate information on how crowded the facility is. Here, we use object recognition technology based on deep learning to detect people and count the number of people entering the facility. It is also possible to detect gender (male/female), age, and pet. Furthermore, it is also possible to read emotions from people's facial expressions.
この実施の形態3では、ステップS330として、実施の形態2のスッテプS230の中に、識別する物体として、人を含めている。そして、画像の切り出しに「人」を設定(ステップS350)。そしてディープラーニングによる画像認識として、性別、年齢、表情の判別を実行して(ステップS351)、取得した性別、年齢、表情のデータをカウントする(ステップS352)。並行して、犬および猫の数量をカウントする(ステップS360)。そして、クラウドサーバにおいてデータを集計(ステップS370)し、ホームページに施設の混雑状況の表示を行う(ステップS380)。また、時間帯、曜日、祝祭日、天候等毎に情報を分類し、施設の利用者と販売実績との関係の分析を行う(ステップS390)。この分析結果に基づいて販売する商品構成に反映させることができる(ステップS391)。 In this third embodiment, in step S330, a person is included as an object to be identified in step S230 of the second embodiment. Then, "person" is set for image cropping (step S350). Then, as image recognition using deep learning, discrimination of gender, age, and facial expression is performed (step S351), and the acquired data of gender, age, and facial expression are counted (step S352). In parallel, the number of dogs and cats is counted (step S360). Then, the cloud server aggregates the data (step S370), and displays the congestion status of the facility on the homepage (step S380). Furthermore, the information is classified by time of day, day of the week, public holidays, weather, etc., and the relationship between facility users and sales performance is analyzed (step S390). Based on this analysis result, it can be reflected in the product configuration to be sold (step S391).
上述のように、時間帯、曜日、祝祭日、天候など毎に情報を分類し、販売実績を分析することにより、売店の品揃え、食堂のメニューを、訪れるお客さまに応じた商品構成にし、売上向上に役立てることができる。さらに、売店の混雑状況を表示することにより、混み具合を発信でき、サービスエリアの利用者の満足度向上につなげることができる。 As mentioned above, by classifying information by time of day, day of the week, holidays, weather, etc. and analyzing sales results, we can adjust the product lineup at the store and the menu at the cafeteria to suit the customers who visit, and increase sales. It can be used to improve. Furthermore, by displaying the congestion status of the shop, it is possible to communicate the congestion level, which can lead to improved user satisfaction in the service area.
実施の形態4.
次に、物体識別装置を駐車場管理装置に適用する場合であって、ナンバープレートの地域名および車種から、需要予測を行う場合について説明する。
図7は、物体識別装置を用いた駐車場管理装置の構成とフローを示す説明図である。
この実施の形態4では、施設の利用者の車両のナンバープレートの地域名をディープラーニングの画像認識で読み取り集計する。また、ディープラーニングにより車種(普通車、トラック、バス)を認識し、地域名と車種の集計から客層を判断し、駐車場のある商業施設での需要予測を行う。
Embodiment 4.
Next, a case will be described in which the object identification device is applied to a parking lot management device, and demand is predicted based on the region name and vehicle type of the license plate.
FIG. 7 is an explanatory diagram showing the configuration and flow of a parking lot management device using an object identification device.
In this fourth embodiment, the region names on the license plates of the vehicles of users of the facility are read and tallied using deep learning image recognition. In addition, it uses deep learning to recognize vehicle types (regular cars, trucks, buses), determines customer demographics based on area names and vehicle types, and predicts demand at commercial facilities with parking lots.
実施の形態2(図3)においては識別対象物を車両としていたが、この実施の形態4では、識別対象物をナンバープレートとして、駐車場に設置している満車・空車を検知するための撮像装置の画像情報を使用して、施設に流入する車両のナンバープレートの持つデータ(地域名および車種)を集計することによって、商業施設の需要を予測し、販売する商品およびサービスを需要にあったものにすることで、売上向上とサービス向上につなげるものである。 In the second embodiment (FIG. 3), the object to be identified is a vehicle, but in this fourth embodiment, the object to be identified is a license plate, and images are taken to detect whether a car is full or empty in a parking lot. By using the device's image information to aggregate the data (region name and vehicle type) of the license plates of vehicles entering the facility, we can predict the demand for commercial facilities and tailor the products and services we sell to meet the demand. This will lead to increased sales and improved services.
この実施の形態4では、ステップS430として、実施の形態2のスッテプS230の中に、識別する物体として、ナンバープレートを含めている。そして、画像の切り出しに「ナンバープレート」を設定(ステップS450)。そしてディープラーニングによる画像認識として、文字、数字の判別を実行して(ステップS451)、取得したナンバープレートのデータをカウントする(ステップS452)。そして、クラウドサーバにおいてデータを集計している(ステップS490)。 In this fourth embodiment, a license plate is included as an object to be identified in step S230 of the second embodiment as step S430. Then, "license plate" is set for image cutting (step S450). Then, as image recognition using deep learning, characters and numbers are discriminated (step S451), and the acquired license plate data is counted (step S452). Then, the data is aggregated in the cloud server (step S490).
実施の形態5.
次に、物体識別装置を駐車場管理装置に適用する場合であって、駐車場のレイアウト(車両の駐車スペースのレイアウト)に応じて満車・空車の情報の検出を可能にする場合について説明する。
図8は、物体識別装置を用いた駐車場管理装置の構成とフローを示す説明図である。
この実施の形態5では、大型車のスペースに普通車を複数台止めるなど運用の違いにより、台数だけでは駐車場の満車/空車の判断が出来ない場合に、ディープラーニングによる物体認識により普通車、大型車、二輪車を分類し、大型車の駐車スペースに普通車が止まっている場合でも、別の普通車を止めるスペースがある場合は、空車ありと判断することで、駐車スペースの効率的な利用を可能にするものである。
Next, a case will be described in which the object identification device is applied to a parking lot management device, where information on whether the parking lot is full or empty can be detected according to the layout of the parking lot (the layout of parking spaces for vehicles).
FIG. 8 is an explanatory diagram showing the configuration and flow of a parking lot management device using an object identification device.
In this fifth embodiment, when it is not possible to judge whether a parking lot is full or empty based on the number of vehicles alone due to differences in operation, such as parking multiple regular cars in a space reserved for large cars, object recognition using deep learning is used to detect regular cars, Efficient use of parking space by classifying large vehicles and motorcycles and determining that there is a vacant space even if a regular vehicle is parked in the parking space of a large vehicle, if there is space for another regular vehicle. This is what makes it possible.
同様に車両スペースに二輪車が複数止められることがあるため、大型車または普通車の駐車スペースに二輪車が止まっている場合も、普通車を止める空スペースがあるかで判断するようにする。また、駐車スペース外の場所に車両を駐車している場合は、空車のカウントを減らさないようにし、「駐車スペース外の駐車」としてカウントすることで、不適切な駐車スペースへの駐車があることを認識できるようにする。
さらに、駐車場所を複数のグループに分類する分類境界を作成し、任意に変更できるようにすることによって効率的な利用を可能にするものである。
Similarly, multiple motorcycles may be parked in a vehicle space, so if a motorcycle is parked in a parking space for a large vehicle or a regular vehicle, the decision should be made based on whether there is an empty space to park a regular vehicle. In addition, if a vehicle is parked outside a parking space, the empty vehicle count should not be reduced, and by counting it as "parking outside a parking space", it is possible to prevent parking in an inappropriate parking space. be able to recognize it.
Furthermore, by creating classification boundaries that classify parking locations into multiple groups and allowing them to be changed arbitrarily, efficient use is made possible.
実施の形態2(図3)においては識別対象物を車両としていたが、この実施の形態5では、識別対象物を普通自動車、トラック、バス、バイク、自転車として、普通車、大型車、二輪車に分けて判定することによって、不適切な駐車を認識できるようにしている。 In the second embodiment (FIG. 3), the object to be identified is a vehicle, but in the fifth embodiment, the object to be identified is an ordinary car, a truck, a bus, a motorcycle, or a bicycle, and the object is an ordinary car, a large vehicle, or a two-wheeled vehicle. By making separate judgments, inappropriate parking can be recognized.
この実施の形態5では、ステップS530として、実施の形態2のスッテプS230の中に、識別する物体として、普通自動車、トラック、バス、バイク、自転車というように区分して集計できるように構成している。そして、満車・空車・混雑の判定を行い、車種ごとの適正駐車位置が使用されているか否かを判断して、不適切なエリアに駐車している車両を認識する(ステップS550)。そして、その結果を、表示盤に表示することによって不適切な駐車に対する注意を喚起するようにしている(ステップS570)。また、クラウドサーバにおいて、ホームページに満車・空車・混雑の情報を表示するようにしている(ステップS580).また車両数のカウントに基づいて様々なデータを集計している(ステップS590)。 In this fifth embodiment, in step S530, in step S230 of the second embodiment, the objects to be identified are classified into ordinary cars, trucks, buses, motorcycles, and bicycles and are configured to be aggregated. There is. Then, it is determined whether the vehicle is full, vacant, or crowded, and it is determined whether the appropriate parking position for each vehicle type is being used, and vehicles parked in inappropriate areas are recognized (step S550). The results are then displayed on the display panel to draw attention to inappropriate parking (step S570). Additionally, the cloud server displays information on full, empty, and congestion information on the home page (step S580). Furthermore, various data are compiled based on the count of the number of vehicles (step S590).
実施の形態6.
次に、物体識別装置を駐車場管理装置に適用する場合であって、車両を車種ごとに認識することによって、パーキングエリアの駐車枠に限らずに、最適な車両割当てを算定する場合について説明する。
この構成とフローは、実施の形態5と同様である。この実施の形態6では、大型と普通車・小型車両の駐車エリアが分割されている駐車場で、小型・普通車のパーキングエリアが混雑しているが、大型車両のパーキングエリアが空いている時間帯に、大型車両のエリアに小型・普通車両を駐車させる場合の対応を示すものである。すなわち、大型車両の駐車エリアに小型車両を駐車する場合は、2台駐車が可能であるが、従来の車両検出方法では、大型車両エリアに小型車両が駐車しているかの判別が難しい。そこで、ディープラーニングによる車両検出を行うことにより、大型・普通車・小型・二輪を分けて認識を行うものである。
Embodiment 6.
Next, we will explain the case where the object identification device is applied to a parking lot management device, and by recognizing vehicles by car type, the optimal vehicle allocation is calculated not only for parking slots in the parking area. .
This configuration and flow are the same as in the fifth embodiment. In this sixth embodiment, in a parking lot where the parking areas for large and ordinary/small vehicles are divided, the parking area for small/normal cars is crowded, but the parking area for large vehicles is empty. This section shows what to do when a small or regular vehicle is parked in an area reserved for large vehicles. That is, when a small vehicle is parked in a parking area for a large vehicle, two vehicles can be parked, but with conventional vehicle detection methods, it is difficult to determine whether a small vehicle is parked in the large vehicle area. Therefore, by performing vehicle detection using deep learning, it is possible to recognize large vehicles, regular vehicles, small vehicles, and two-wheeled vehicles separately.
これにより、大型車両の駐車エリアに何台の小型車両が駐車していて、あと何台駐車できるのかを判定することができる。さらに、時間帯、曜日、天候により、大型車両、普通車両、小型車両がどこに何台駐車していて、どれくらい混雑しているのか分析することにより、より効率的な駐車場の割合を算定することができる。
大型・普通車・小型・二輪などの車格毎の駐車場の占有場所をあらかじめ設定しておき、実際に停車されている車格と比較する事により、占有違反を検出して通報すること可能である。
大型/小型/普通/2輪を仕分けして判定することにより、駐車場混み具合をより高精度に実施する事を可能にする。さらに、時間帯、曜日、天候別の駐車場の利用状況を分析する事により、駐車場の改善計画の立案に有効である。
This makes it possible to determine how many small vehicles are parked in the parking area for large vehicles and how many more can be parked. Furthermore, by analyzing how many large vehicles, regular vehicles, and small vehicles are parked where and how crowded they are, depending on the time of day, day of the week, and weather, we can calculate more efficient parking ratios. Can be done.
It is possible to detect and report occupancy violations by setting in advance the parking lot occupancy locations for each vehicle class, such as large, regular, small, and two-wheeled vehicles, and comparing them with the vehicle class that is actually parked. It is.
By classifying and determining large/small/normal/two-wheeled vehicles, it is possible to determine parking lot congestion with higher accuracy. Furthermore, by analyzing the usage status of parking lots by time of day, day of the week, and weather, it is effective in formulating parking lot improvement plans.
実施の形態7.
次に、物体識別装置を駐車場管理装置に適用する場合であって、身障者用駐車帯の空き状況把握を可能にする場合について説明する。
図9は、物体識別装置を用いた駐車場管理装置の構成とフローを示す説明図である。この実施の形態7では、身障者用駐車帯の空き状況が駐車位置に行くまでわからないという問題に対応するものである。
Next, a case will be described in which the object identification device is applied to a parking lot management device, and it is possible to grasp the availability of parking zones for people with disabilities.
FIG. 9 is an explanatory diagram showing the configuration and flow of a parking lot management device using an object identification device.
駐車場には、身障者用の駐車エリアがあるが、入退出カウント方式の駐車場満空監視システムでは、各車両の駐車位置が把握できていない。そこで、ディープラーニングによる車両検出を行うことにより、身体障害者用の駐車スペースが空いているのか満車なのかを判定することができる。それによって、駐車場入り口の表示盤またはWEBなどの配信手段を活用し、利用者、警備員、保守員に対して通知する事を実現することを可能にするものである。 The parking lot has a parking area for people with disabilities, but the parking lot occupancy monitoring system, which counts entry and exit, does not know where each vehicle is parked. Therefore, by performing vehicle detection using deep learning, it is possible to determine whether a parking space for the physically disabled is vacant or full. This makes it possible to notify users, security guards, and maintenance personnel by using a display board at the parking lot entrance or a distribution means such as the Web.
身障者用駐車スペースに駐車することが出来るか、あらかじめ判断することが出来るため、利便性が向上する。
この実施の形態7では、満車・空車・混雑の判定において、身障者用駐車エリアの満車・空車を判別する(ステップS351)ことによって、駐車場の表示盤に身障者用駐車エリアの満車・空車の状態を表示する(ステップS670)。
Convenience is improved because it can be determined in advance whether the vehicle can be parked in a parking space for the handicapped.
In the seventh embodiment, in determining whether the parking area is full, empty, or crowded, the parking area is displayed as full or empty by determining whether the parking area for the disabled is full or empty (step S351). is displayed (step S670).
実施の形態8.
次に、物体識別装置を駐車場管理装置に適用する場合であって、駐車場の混み具合を外部に配信するために画像加工をリアルタイムで実施する場合について説明する。
図10は、物体識別装置を用いた駐車場管理装置の構成とフローを示す説明図である。
この実施の形態8では、駐車場に関する情報を外部に配信する場合に、そこに含まれている個人情報および肖像権を尊重するための適切な処置を施す場合について説明する。
Next, a case will be described in which the object identification device is applied to a parking lot management device, and image processing is performed in real time in order to transmit information about the congestion level of the parking lot to the outside.
FIG. 10 is an explanatory diagram showing the configuration and flow of a parking lot management device using an object identification device.
In this eighth embodiment, a case will be described in which, when distributing information regarding parking lots to the outside, appropriate measures are taken to respect personal information and portrait rights contained therein.
駐車場の混み具合を確認する為には、インターネットを使用してリアルタイムで画像を確認する事が行われる。しかし、カメラで撮像した映像では、車両および車両ナンバー、人の顔の映像が鮮明に写ることにより個人情報および肖像権を尊重する必要がある。
そのため、映像をそのまま配信することはできない。これに対応するため、ディープラーニングによる物体検知により、車両のナンバープレート、映像中の人物の顔、特徴部分を検出し、その部分にのみ自動的にモザイクまたはぼかしを施すことによって不鮮明にする。
In order to check how crowded a parking lot is, images are checked in real time using the Internet. However, since images captured by cameras clearly show images of vehicles, vehicle numbers, and people's faces, it is necessary to respect personal information and portrait rights.
Therefore, the video cannot be distributed as is. To address this, the system uses object detection using deep learning to detect vehicle license plates, people's faces, and other characteristic areas in the video, and then automatically mosaics or blurs only those areas to make them unclear.
または、人間を認識して画像から削除する処理をリアルタイムで実施することで、インターネット上に公開できる映像に加工する。
このため、予測したバウンディングボックスから、検知したい物体(人間、ナンバープレート)として信頼度の高いものを選択することで分類(ステップS730)し、表示に使用する情報の中の、人間、ナンバープレートへのモザイク処理を施す(ステップS750)。そして、クラウドサーバにおいて、モザイク処理された画像をインターネット上でリアルタイムに公開する(ステップS780)。
Alternatively, by performing processing to recognize and remove humans from images in real time, the images can be processed into videos that can be published on the Internet.
Therefore, from the predicted bounding boxes, the object to be detected (human, license plate) is classified by selecting it with high reliability (step S730), and the object (human, license plate) that is to be detected is classified (step S730). A mosaic process is performed (step S750). Then, in the cloud server, the mosaic-processed image is published on the Internet in real time (step S780).
実施の形態9.
次に、物体識別装置を駐車場管理装置に適用する場合であって、駐車場の指定位置以外での駐車車両および通路を逆走する車両を検出することによって事故を未然に防ぐものである。
図11は、物体識別装置を用いた駐車場管理装置の構成とフローを示す説明図である。
この実施の形態9では、駐車場内では、駐車場所でないところに車両を停止することおよび決められた方向に走行しない車両によって事故が発生する場合がある。
Next, the object identification device is applied to a parking lot management device to prevent accidents by detecting parked vehicles at locations other than designated locations in the parking lot and vehicles driving in the wrong direction in the aisle.
FIG. 11 is an explanatory diagram showing the configuration and flow of a parking lot management device using an object identification device.
In this
この実施の形態9においては、ディープラーニングの物体検出技術によって、通行路及び、誘導路に停車している車両を検出することにより、車両が駐車場以外の通行路、誘導路に不正に停車していないかを検出することができる。さらに、あらかじめ設定しておいた通路および誘導路の進行方向と車両の進行方向とを比較する事により、逆走車の検出を行う場合について説明する。 In this ninth embodiment, by detecting vehicles parked on traffic roads and taxiways using deep learning object detection technology, vehicles are prevented from illegally stopping on traffic roads and taxiways other than parking lots. It is possible to detect whether the Furthermore, a case will be described in which a wrong-way vehicle is detected by comparing the traveling direction of a preset path and guideway with the traveling direction of the vehicle.
図11に示すようにエッジコンピュータ202内において駐車場内にある車両、出入りする車両について車両に走行方向の判定を行う(スッテプS850)。車両の走行方向と走行車線との関係から逆相を検知する(ステップS851)。そして、表示盤に逆走車両の情報を対象の車両および周辺の車両に通知する(ステップS870)。また、警備室においては、逆走車両の情報を保守・警備員に通知する(ステップS880)。これによって、不正駐車、逆走車両の情報を、対象車両、周辺車両、保守・警備員へ通知することで、事故を未然に防ぐ事ができる。
As shown in FIG. 11, the
実施の形態10.
次に、物体識別装置を駐車場管理装置に適用する場合であって、駐車場に入ろうとする車両の列を検出して、駐車場の外の車列の情報を提供するものである。
図12は、物体識別装置を用いた駐車場管理装置の構成とフローを示す説明図である。
この実施の形態10では、駐車場内だけでなく、駐車場外の車列をカメラで監視し、駐車場内が満車状態になったときに、駐車場外の車列監視用カメラの映像を外部配信し、インターネット上で閲覧できるようにしたものである。
Next, the object identification device is applied to a parking lot management device, in which a line of vehicles attempting to enter a parking lot is detected and information on a line of vehicles outside the parking lot is provided.
FIG. 12 is an explanatory diagram showing the configuration and flow of a parking lot management device using an object identification device.
In
図12に示すように、撮像装置1(カメラ)は、入庫待ち車両を撮影する(ステップS900)。エッジコンピュータ202の内部においては、満車、空車、混雑の判定を行い、入庫末の車両の有無を表示する(ステップS950)。また、入庫待ちの車両をカウントする(ステップS960)。そして、表示盤において満車、空車、混雑状況を表示し、待ち車両の有無について表示する(ステップS970)。またクラウドサーバにおいて、ホームページに満車、空車、混雑の情報および待ち車両の有無について表示する(ステップS980)。またデータを収集する(ステップS980)。
これによって、駐車場に入ろうとする車両に駐車場の状況を伝えることができる。
As shown in FIG. 12, the imaging device 1 (camera) photographs a vehicle waiting to enter the warehouse (step S900). Inside the
This allows vehicles attempting to enter the parking lot to be informed of the parking lot situation.
実施の形態11.
次に、物体識別装置を駐車場管理装置に適用する場合であって、駐車場が立体駐車場のように複数の領域に分かれている駐車場において、複数の駐車エリアのそれぞれについて満車状態、空車状態の程度を通知することによって、混雑の集中を防ぐものである。
図13は、物体識別装置を用いた駐車場管理装置の構成とフローを示す説明図である。
Next, when applying the object identification device to a parking lot management device, in a parking lot where the parking lot is divided into multiple areas such as a multi-story parking lot, each of the multiple parking areas is full or empty. By notifying the extent of the situation, congestion can be prevented.
FIG. 13 is an explanatory diagram showing the configuration and flow of a parking lot management device using an object identification device.
この実施の形態11では、複数の駐車エリア(複数のフロア)毎の満車・空車・混雑の状態を判定する(ステップS1050)。フロアごとの車両数をカウント(ステップS1060)し、表示盤においてフロア毎の満車・空車・混雑の状態を表示(ステップS1070、クラウドサーバにおいて、ホームページにフロア毎の満車・空車・混雑の状態を表示(ステップS1080)する。また、フロア毎のデータを集計(ステップS1090)する。
これによって、表示盤の満車率を見ることで、駐車スペースに対して車両が少ないフロアおよび駐車場がわかるため、1つのフロアおよび駐車場が混雑することを解消させることができる。
In this
As a result, by looking at the fullness rate on the display panel, it is possible to know which floors and parking lots have fewer vehicles compared to the parking spaces, so it is possible to eliminate congestion on one floor or parking lot.
実施の形態12.
この実施の形態は、物体識別装置を駐車場管理装置に適用して、駐車場の利用状況の情報を得るという目的を達成するものである。
この実施の形態12では、駐車場の駐車枠の上に駐車している車両の画像情報に基づいて、車両が使用している駐車枠を判定する。この判定のために、物体識別装置では、実施の形態1において説明したように、ディープラーニングによって、車両を識別対象物として認識できる機能を持つ。また、併せて、駐車場の駐車枠の領域を細分化した座標を設定し、駐車枠内に収まっているのかあるいは駐車枠を出た状態で駐車されているのかの判断ができるように設定されている。この判断は、駐車枠を表す座標系と車両の外観情報による学習を繰り返すことによって、学習し、判断の信頼度を向上させることが可能である。
This embodiment applies an object identification device to a parking lot management device to achieve the purpose of obtaining information on the usage status of a parking lot.
In this twelfth embodiment, a parking frame used by a vehicle is determined based on image information of a vehicle parked above a parking frame in a parking lot. For this determination, the object identification device has a function of recognizing a vehicle as an object to be identified using deep learning, as described in the first embodiment. In addition, coordinates are set that subdivide the area of the parking slot in the parking lot, so that it can be determined whether the vehicle is parked within the parking slot or outside the parking slot. ing. This judgment can be learned by repeating learning based on the coordinate system representing the parking space and the vehicle appearance information, and the reliability of the judgment can be improved.
図14は、物体認識装置を用いた駐車場管理装置の構成フローを示す説明図である。
図14に示すように、撮像装置1(カメラ)は、駐車場を撮影する。この撮影によって、駐車場の駐車枠および利用している車両を撮影する(ステップS200)。エッジコンピュータ202の内部においては、ディープラーニングによる駐車枠の使用の予測を重ねることによって、検知した車両が所定の駐車枠に駐車しているという信頼度を予測する(ステップS1000)。駐車枠を車両が使用しているとの予測の信頼度が、予め定めた閾値よりも高い場合に、駐車枠に車両が駐車されていると判定する(ステップS1010)。また、このエッジコンピュータ202では駐車枠に関係するデータを取得するために最適な撮像装置1(カメラ)の高さ、設置角度(俯角)を求める(ステップS1020)ことが行われる。
そして、表示盤において停止車両の有無を表示(ステップS1170)し、クラウドサーバにおいて、ホームページに停止車両の有無を表示する(ステップS1180)。また駐車場管理者に車両枠に停止している車両の情報を通知する(ステップS1030)。
FIG. 14 is an explanatory diagram showing a configuration flow of a parking lot management device using an object recognition device.
As shown in FIG. 14, the imaging device 1 (camera) photographs a parking lot. Through this photographing, the parking slot in the parking lot and the vehicle being used are photographed (step S200). Inside the
Then, the presence or absence of a stopped vehicle is displayed on the display panel (step S1170), and the presence or absence of a stopped vehicle is displayed on the cloud server's home page (step S1180). Additionally, information on vehicles stopped in the vehicle slots is notified to the parking lot manager (step S1030).
実施の形態13.
物体識別装置を車両管理装置に適用する場合であって、道路上の映像をディープラーニング(深層学習)の物体検出技術によって停止車両の有無を判定処理することで、人間が検出するよりも早く、停止車両を検出する事を可能にするものである。
図15は、物体識別装置を用いた車両管理装置の構成とフローを示す説明図である。
この実施の形態12では、道路上の状況をカメラで監視し、車両の外観あるいは輪郭の一部によって車両を検出するもので、実施の形態1のディープラーニングの技術によって停車中の車両を検出するものである。
Embodiment 13.
When applying an object identification device to a vehicle management device, by processing images on the road to determine the presence or absence of stopped vehicles using deep learning object detection technology, it is possible to detect objects faster than humans can. This makes it possible to detect stopped vehicles.
FIG. 15 is an explanatory diagram showing the configuration and flow of a vehicle management device using an object identification device.
In this twelfth embodiment, the situation on the road is monitored with a camera, and vehicles are detected based on the appearance or part of the outline of the vehicle, and stopped vehicles are detected using the deep learning technology of the first embodiment. It is something.
図15に示すように、撮像装置1(カメラ)は、道路上を撮影する(ステップS1100)。エッジコンピュータ202の内部においては、満車、空車、混雑の判定を行い、道路上を走行する車両の進行方向および速度を判定する(ステップS1150)。また、周辺車両との速度差を考慮して、停止している車両の有無を判定する(ステップS1160)。そして、表示盤において停止車両の有無を表示(ステップS1170)し、クラウドサーバにおいて、ホームページに停止車両の有無を表示する(ステップS1180)。また道路管理者に停止車両の情報を通知する(ステップS1190)。
これによって、停止車両発生から、道路管理者が駆け付けるまでの時間を短くすることで、追突事故発生を抑制することができる。
As shown in FIG. 15, the imaging device 1 (camera) photographs the road (step S1100). Inside the
As a result, the occurrence of rear-end collisions can be suppressed by shortening the time from the occurrence of a stopped vehicle to the arrival of a road administrator.
本願は、様々な例示的な実施の形態及び実施例が記載されているが、1つ、または複数の実施の形態に記載された様々な特徴、態様、及び機能は特定の実施の形態の適用に限られるのではなく、単独で、または様々な組み合わせで実施の形態に適用可能である。
従って、例示されていない無数の変形例が、本願明細書に開示される技術の範囲内において想定される。例えば、少なくとも1つの構成要素を変形する場合、追加する場合または省略する場合、さらには、少なくとも1つの構成要素を抽出し、他の実施の形態の構成要素と組み合わせる場合が含まれるものとする。
Although this application describes various exemplary embodiments and examples, various features, aspects, and functions described in one or more embodiments may be applicable to a particular embodiment. The present invention is not limited to, and can be applied to the embodiments alone or in various combinations.
Accordingly, countless variations not illustrated are envisioned within the scope of the technology disclosed herein. For example, this includes cases where at least one component is modified, added, or omitted, and cases where at least one component is extracted and combined with components of other embodiments.
1 撮像装置、2 第1の記憶装置、3 第2の記憶装置、4 情報処理装置、5 識別装置、6 表示装置、7 識別対象物設定部、8 教師データ作成部、9 類似物データ作成部、10 学習処理装置、11 学習処理手段、12 対象物識別手段、20 トラック、30 車両、100 物体識別装置、200 プロセッサ、201 記憶装置、202 エッジコンピュータ 1 Imaging device, 2 First storage device, 3 Second storage device, 4 Information processing device, 5 Identification device, 6 Display device, 7 Identification target object setting section, 8 Teacher data creation section, 9 Similar data creation section , 10 learning processing device, 11 learning processing means, 12 object identification means, 20 truck, 30 vehicle, 100 object identification device, 200 processor, 201 storage device, 202 edge computer
Claims (1)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020218394A JP7412326B2 (en) | 2020-12-28 | 2020-12-28 | Parking lot management device |
JP2023218996A JP2024028321A (en) | 2020-12-28 | 2023-12-26 | Parking lot management apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020218394A JP7412326B2 (en) | 2020-12-28 | 2020-12-28 | Parking lot management device |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023218996A Division JP2024028321A (en) | 2020-12-28 | 2023-12-26 | Parking lot management apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022103642A JP2022103642A (en) | 2022-07-08 |
JP7412326B2 true JP7412326B2 (en) | 2024-01-12 |
Family
ID=82279520
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020218394A Active JP7412326B2 (en) | 2020-12-28 | 2020-12-28 | Parking lot management device |
JP2023218996A Pending JP2024028321A (en) | 2020-12-28 | 2023-12-26 | Parking lot management apparatus |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023218996A Pending JP2024028321A (en) | 2020-12-28 | 2023-12-26 | Parking lot management apparatus |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP7412326B2 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019164694A (en) | 2018-03-20 | 2019-09-26 | 株式会社プロロジス | Vehicle facility monitoring system |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08287258A (en) * | 1995-04-19 | 1996-11-01 | Fuji Xerox Co Ltd | Color image recognition device |
-
2020
- 2020-12-28 JP JP2020218394A patent/JP7412326B2/en active Active
-
2023
- 2023-12-26 JP JP2023218996A patent/JP2024028321A/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019164694A (en) | 2018-03-20 | 2019-09-26 | 株式会社プロロジス | Vehicle facility monitoring system |
Also Published As
Publication number | Publication date |
---|---|
JP2024028321A (en) | 2024-03-04 |
JP2022103642A (en) | 2022-07-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109784162B (en) | Pedestrian behavior recognition and trajectory tracking method | |
US8744132B2 (en) | Video-based method for detecting parking boundary violations | |
WO2020087743A1 (en) | Non-motor vehicle traffic violation supervision method and apparatus and electronic device | |
US9317752B2 (en) | Method for detecting large size and passenger vehicles from fixed cameras | |
US11244171B2 (en) | Video-based system for automated detection of double parking violations | |
US9940633B2 (en) | System and method for video-based detection of drive-arounds in a retail setting | |
Bonnin et al. | Pedestrian crossing prediction using multiple context-based models | |
US10552687B2 (en) | Visual monitoring of queues using auxillary devices | |
WO2020052436A1 (en) | Vehicle overload alarming method and apparatus, electronic device, and storage medium | |
US20150310365A1 (en) | System and method for video-based detection of goods received event in a vehicular drive-thru | |
US20130266187A1 (en) | Video-based method for parking angle violation detection | |
CN109326124A (en) | A kind of urban environment based on machine vision parks cars Activity recognition system | |
KR102289181B1 (en) | System, apparatus and method for vision based parking management | |
KR20030032003A (en) | Smart parking advisor | |
KR102122850B1 (en) | Solution for analysis road and recognition vehicle license plate employing deep-learning | |
US10262328B2 (en) | System and method for video-based detection of drive-offs and walk-offs in vehicular and pedestrian queues | |
Abdel-Aty et al. | Using closed-circuit television cameras to analyze traffic safety at intersections based on vehicle key points detection | |
KR102289182B1 (en) | System, apparatus and method for vision based parking management | |
Mehboob et al. | Trajectory based vehicle counting and anomalous event visualization in smart cities | |
WO2019151995A1 (en) | Motion planning for autonomous point-of-sale vehicles | |
US11727580B2 (en) | Method and system for gathering information of an object moving in an area of interest | |
Ravish et al. | Intelligent traffic violation detection | |
JP7412326B2 (en) | Parking lot management device | |
CN115713745A (en) | Obstacle detection method, electronic device, and storage medium | |
JP7445441B2 (en) | Parking lot control system, parking lot control method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220907 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230714 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230725 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230913 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231017 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231121 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231205 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231226 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7412326 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |