JP7412326B2 - Parking lot management device - Google Patents

Parking lot management device Download PDF

Info

Publication number
JP7412326B2
JP7412326B2 JP2020218394A JP2020218394A JP7412326B2 JP 7412326 B2 JP7412326 B2 JP 7412326B2 JP 2020218394 A JP2020218394 A JP 2020218394A JP 2020218394 A JP2020218394 A JP 2020218394A JP 7412326 B2 JP7412326 B2 JP 7412326B2
Authority
JP
Japan
Prior art keywords
vehicle
parking lot
parking
vehicles
management device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020218394A
Other languages
Japanese (ja)
Other versions
JP2022103642A (en
Inventor
紀彦 鳥居
修 吉村
憲司 尾嵜
明輝 山下
Original Assignee
西菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 西菱電機株式会社 filed Critical 西菱電機株式会社
Priority to JP2020218394A priority Critical patent/JP7412326B2/en
Publication of JP2022103642A publication Critical patent/JP2022103642A/en
Priority to JP2023218996A priority patent/JP2024028321A/en
Application granted granted Critical
Publication of JP7412326B2 publication Critical patent/JP7412326B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

本願は、駐車場管理装置に関するものである。 The present application relates to a parking lot management device .

AI(Artificial Intelligence)の機械的学習(ディープラーニング)を使用して、予め定めた対象物を二次元の画像から抽出することが行われている。例えば、監視カメラによって撮影された駐車場の映像によって、駐車枠に車両が駐車しているか否かを判別するためにAIを使用することが提案されている。 Machine learning (deep learning) of AI (Artificial Intelligence) is used to extract predetermined objects from two-dimensional images. For example, it has been proposed to use AI to determine whether a vehicle is parked in a parking slot based on images of a parking lot captured by a surveillance camera.

駐車場における駐車スペースの利用状況を検知するシステムとして、駐車場の監視ビデオカメラによる撮影画像から、駐車スペースの画像の検出を行い、駐車スペースの画像が空き駐車スペースの特徴を満足するかを判断することによって、空き駐車スペースを検出することが提案されている(特許文献1)。 As a system that detects the usage status of parking spaces in parking lots, it detects images of parking spaces from images captured by parking lot surveillance video cameras, and determines whether the images of parking spaces satisfy the characteristics of empty parking spaces. It has been proposed to detect vacant parking spaces by doing so (Patent Document 1).

特開2017-84364号公報Japanese Patent Application Publication No. 2017-84364

特許文献1に示されているように、対象物(空きスペース)を予め定めて、画像からその対象物の状態を判別するには、それぞれの駐車スペースに対応するカメラによって撮影された画像が必要である。そのため、高い位置にカメラを設置するか、数多くのカメラを設けることが必要である。 As shown in Patent Document 1, in order to predetermine a target object (empty space) and determine the state of the target object from the image, images taken by a camera corresponding to each parking space are required. It is. Therefore, it is necessary to install the camera at a high position or to provide a large number of cameras.

本願は、カメラを必要とするが、カメラの位置および数量の制約の影響を受けることの少ない駐車場管理装置を提供することを目的としている。 An object of the present application is to provide a parking lot management device that requires cameras but is less affected by restrictions on the location and number of cameras .

本願の駐車場管理装置は、画像情報を取得する撮像装置、車両の特徴部分の情報を記憶する第1の記憶装置、前記撮像装置によって取得された前記画像情報を蓄積する第2の記憶装置、および前記第2の記憶装置の前記画像情報を複数の領域に分割し、分割されたそれぞれの前記領域の画像情報と前記第1の記憶装置に記憶されている前記車両の特徴部分の情報とによって前記画像情報に前記車両が含まれていることを判別する情報処理装置を備えた物体識別装置を駐車場の管理装置として備え、前記物体識別装置による識別領域に遮蔽物によって遮蔽されて車両の存在が不明の場合に、前記第2の記憶装置に蓄積されている前記画像情報を遡及して前記遮蔽物の後ろに前記車両が存在するか否かを確認するようにしたことを特徴とする。

The parking lot management device of the present application includes an imaging device that acquires image information, a first storage device that stores information on characteristic parts of a vehicle, a second storage device that stores the image information acquired by the imaging device, The image information in the second storage device is divided into a plurality of regions, and the image information in each of the divided regions and the information on the characteristic part of the vehicle stored in the first storage device are used. An object identification device equipped with an information processing device that determines that the vehicle is included in the image information is provided as a parking lot management device, and the presence of a vehicle blocked by a shielding object is provided in an identification area by the object identification device. is unknown, the image information stored in the second storage device is retrospectively checked to confirm whether or not the vehicle is behind the shielding object.

本願の駐車場管理装置によれば、カメラの位置および数量の制約を受けることの少ない駐車場の管理装置を得ることができる。 According to the parking lot management device of the present application, it is possible to obtain a parking lot management device that is less subject to restrictions on the position and number of cameras.

実施の形態1の物体識別装置を示す概略的な構成図である。1 is a schematic configuration diagram showing an object identification device according to a first embodiment; FIG. 実施の形態に係るブロック図を実現するハードウエア構成図である。FIG. 2 is a hardware configuration diagram that implements a block diagram according to an embodiment. 実施の形態2のフローを示す説明図である。FIG. 7 is an explanatory diagram showing a flow of Embodiment 2; 遮蔽物と識別対象物との関係を示す説明図である。It is an explanatory view showing the relationship between a shielding object and an identification target object. 遮蔽物によって、車両の存在が不明の場合の車両台数のカウントの処理手順を示すフロー図である。FIG. 3 is a flowchart showing a procedure for counting the number of vehicles when the presence of vehicles is unknown due to an obstruction. 実施の形態3の駐車場管理装置のフローを示す説明図である。FIG. 7 is an explanatory diagram showing a flow of the parking lot management device according to the third embodiment. 実施の形態4の駐車場管理装置のフローを示す説明図である。FIG. 7 is an explanatory diagram showing a flow of the parking lot management device according to the fourth embodiment. 実施の形態5の駐車場管理装置のフローを示す説明図である。FIG. 7 is an explanatory diagram showing a flow of the parking lot management device according to the fifth embodiment. 実施の形態7の駐車場管理装置のフローを示す説明図である。FIG. 12 is an explanatory diagram showing a flow of the parking lot management device according to the seventh embodiment. 実施の形態8の駐車場管理装置のフローを示す説明図である。It is an explanatory diagram showing a flow of a parking lot management device of Embodiment 8. 実施の形態9の駐車場管理装置のフローを示す説明図である。FIG. 12 is an explanatory diagram showing a flow of the parking lot management device according to the ninth embodiment. 実施の形態10の駐車場管理装置のフローを示す説明図である。FIG. 12 is an explanatory diagram showing a flow of the parking lot management device according to Embodiment 10; 実施の形態11の駐車場管理装置のフローを示す説明図である。FIG. 12 is an explanatory diagram showing a flow of the parking lot management device according to the eleventh embodiment. 実施の形態12の駐車場管理装置のフローを示す説明図である。FIG. 12 is an explanatory diagram showing the flow of the parking lot management device according to the twelfth embodiment. 実施の形態13の車両管理装置のフローを示す説明図である。FIG. 12 is an explanatory diagram showing a flow of a vehicle management device according to a thirteenth embodiment.

以下、本願に係る物体識別装置、それを用いた駐車場管理装置、および車両管理装置の実施の形態について図面を用いて説明する。なお、各図において同一または相当する部分については、各々同一符号を付して、重複する説明を省略する。 Embodiments of an object identification device, a parking lot management device using the same, and a vehicle management device according to the present application will be described below with reference to the drawings. Note that the same or corresponding parts in each figure are designated by the same reference numerals, and redundant explanation will be omitted.

実施の形態1.
図1は、本願の実施の形態1の物体識別装置を示す概略的な構成図である。
図1に示すように、実施の形態1の物体識別装置100は、画像情報を取得する撮像装置1、識別対象物の特徴部分の情報を記憶する第1の記憶装置2、撮像装置1によって取得された画像情報を蓄積する第2の記憶装置3、および第2の記憶装置3の画像情報を複数の領域に分割し、分割されたそれぞれの領域の画像情報と第1の記憶装置2に記憶されている識別対象物の特徴部分の情報とによって画像情報に識別対象物が含まれているかを判別する情報処理装置4を備えている。
Embodiment 1.
FIG. 1 is a schematic configuration diagram showing an object identification device according to Embodiment 1 of the present application.
As shown in FIG. 1, an object identification device 100 according to the first embodiment includes an imaging device 1 that acquires image information, a first storage device 2 that stores information on characteristic parts of an object to be identified, and an object identification device 1 that acquires image information using the imaging device 1. A second storage device 3 that stores the image information that has been created, and a second storage device 3 that divides the image information in the second storage device 3 into a plurality of areas and stores the image information of each divided area and the first storage device 2. The information processing apparatus 4 is equipped with an information processing device 4 that determines whether the image information includes an identification target object based on information on the characteristic portion of the identification target object.

そして情報処理装置4による判別結果に基づいて撮像装置1によって取得された被写体が識別対象物であるかどうかを識別装置5において識別する。この識別装置5における識別結果は表示装置6において表示される。
識別対象物は、識別対象物設定部7において設定される。第1の記憶装置2に記憶されている識別対象物の特徴部分は、識別対象物の教師データを用いてディープラーニングの手法による画像認識によって生成される。すなわち、第1の記憶装置2に記憶されている特徴部分の情報は、教師データと類似物データとの比較の学習によって得られたもので、識別対象物設定部7において予め設定された識別対象物について、教師データ作成部8において、ディープラーニングに使用される教師データが作成され、類似物データが類似物データ作成部9において作成される。
Based on the determination result by the information processing device 4, the identification device 5 identifies whether the subject acquired by the imaging device 1 is an object to be identified. The identification result of the identification device 5 is displayed on the display device 6.
The identification target object is set in the identification target object setting section 7. The characteristic portion of the object to be identified stored in the first storage device 2 is generated by image recognition using a deep learning technique using training data of the object to be identified. That is, the information on the characteristic part stored in the first storage device 2 is obtained by learning the comparison between the teacher data and the similar data, and is based on the identification object set in advance in the identification object setting section 7. Regarding objects, a teacher data creating section 8 creates training data used for deep learning, and a similar object data creating section 9 creates similar object data.

教師データは、識別対象物の正面図、側面図および三次元構造体の画像の描画パラメータを変化させて取得される識別対象物の外観形状の情報である。類似物データは、識別対象物の外観形状に類似する異なる構造体の外観形状の情報である。そして、教師データ作成部8において作成された教師データを、類似物データ作成部9において作成された類似物データによって、識別対象物が、他の類似物に対してどのようなところが類似しているのか、またどのようなところが識別できる特徴部分となるのかということを学習処理装置10において学習を重ねて習得する。学習処理装置10において習得した識別対象物の特徴部分の情報は第1の記憶装置2に記憶される。 The teacher data is information about the external shape of the object to be identified, which is obtained by changing the drawing parameters of the front view, side view, and image of the three-dimensional structure of the object. The similar object data is information about the external shape of a different structure that is similar to the external shape of the identification target object. Then, using the teacher data created in the teacher data creation section 8 and the similar data created in the similar object data creation section 9, it is determined in what ways the object to be identified is similar to other similar objects. The learning processing device 10 repeatedly learns what features are distinguishable and what features are distinguishable. The information on the characteristic parts of the object to be identified that has been learned in the learning processing device 10 is stored in the first storage device 2 .

すなわち、学習処理手段11は、識別対象物設定部7、教師データ作成部8、類似物データ作成部9、および学習処理装置10を備えている。そして、対象物識別手段12は、第1の記憶装置2、第2の記憶装置3、情報処理装置4、および識別装置5を備えている。 That is, the learning processing means 11 includes an identification target object setting section 7, a teacher data creation section 8, a similar data creation section 9, and a learning processing device 10. The object identification means 12 includes a first storage device 2 , a second storage device 3 , an information processing device 4 , and an identification device 5 .

なお、学習処理手段11および対象物識別手段12は、ハードウエアの一例を図2に示すように、プロセッサ200と記憶装置201から構成される。記憶装置は図示していないが、ランダムアクセスメモリ等の揮発性記憶装置と、フラッシュメモリ等の不揮発性の補助記憶装置とを具備する。また、フラッシュメモリの代わりにハードディスクの補助記憶装置を具備してもよい。プロセッサ200は、記憶装置201から入力されたプログラムを実行する。この場合、補助記憶装置から揮発性記憶装置を介してプロセッサ200にプログラムが入力される。また、プロセッサ200は、演算結果等のデータを記憶装置201の揮発性記憶装置に出力してもよいし、揮発性記憶装置を介して補助記憶装置にデータを保存してもよい。 Note that the learning processing means 11 and the object identification means 12 are constituted by a processor 200 and a storage device 201, as an example of hardware is shown in FIG. Although the storage device is not shown, it includes a volatile storage device such as a random access memory, and a nonvolatile auxiliary storage device such as a flash memory. Further, an auxiliary storage device such as a hard disk may be provided instead of the flash memory. Processor 200 executes a program input from storage device 201. In this case, the program is input from the auxiliary storage device to the processor 200 via the volatile storage device. Further, the processor 200 may output data such as calculation results to a volatile storage device of the storage device 201, or may store data in an auxiliary storage device via the volatile storage device.

ここで、識別対象物とは、カメラなどの撮像装置1によって取得される画像の中から識別したい物を意味している。識別対象物としては、特に制限されるものではなく、目的に応じて適宜設定することができる。例えば、駐車場の画像(映像)に含まれる小型車両、大型車両、特定の車種の車両、特定の地域名のナンバープレート、施設に流入する人物、男女、大人、子供、動物など、人間の視覚によって検知できる物体が挙げられる。 Here, the object to be identified means an object to be identified from an image acquired by the imaging device 1 such as a camera. The object to be identified is not particularly limited, and can be set as appropriate depending on the purpose. For example, human visual perception includes small vehicles, large vehicles, specific types of vehicles, license plates with specific area names, people entering the facility, men and women, adults, children, animals, etc. included in images (videos) of parking lots. Examples include objects that can be detected by

教師データとは、教師ありディープラーニングにおいて用いられる「入力データ」と「正解ラベル」のペアである。ここで、入力データを多数のパラメータを有するニューラルネットワークに入力することでディープラーニング学習を実施し、推論ラベルと正解ラベルとの差の更新を繰り返すことによって、正解の頻度を高める。また、ここでは、識別対象物の全体像による判断ではなく、識別対象物の外観の一部を認識することによって画像の中に識別対象物が含まれていることを識別する。 Training data is a pair of "input data" and "correct label" used in supervised deep learning. Here, deep learning learning is performed by inputting input data to a neural network having a large number of parameters, and the frequency of correct answers is increased by repeatedly updating the difference between the inference label and the correct answer label. Furthermore, here, the presence of an identification target in an image is identified by recognizing a part of the appearance of the identification target, rather than making a determination based on the entire image of the identification target.

そのために、撮像装置1によって取得した画像情報を複数の領域に分割して、複数の分割されたそれぞれの領域の画像情報に識別対象物の特徴部分が含まれているかどうかを判定している。これは、例えば、駐車場において管理人が、目視して小型車両の台数を確認する場合のように、識別対象物が小型車両であって、ほんの僅か表れている車体の一部を確認して計数するのと同じ機能を画像認識によって果たすものである。
画像認識は、画像データの画像内容を分析して、その形状および外観を認識する技術である。ここでは、画像認識として、画像データから識別対象物と想定する輪郭を抽出して、画像の背景から分離した上で、その識別対象物と想定したものが何であるかを分析する。
For this purpose, the image information acquired by the imaging device 1 is divided into a plurality of regions, and it is determined whether the image information of each of the plurality of divided regions includes a characteristic part of the object to be identified. For example, when a manager visually checks the number of small vehicles in a parking lot, the object to be identified is a small vehicle and only a small part of the vehicle body is visible. It performs the same function as counting using image recognition.
Image recognition is a technology that analyzes the image content of image data to recognize its shape and appearance. Here, image recognition is performed by extracting the outline of an object to be identified from image data, separating it from the background of the image, and then analyzing what is assumed to be the object to be identified.

次に、ディープラーニングによる識別対象物の検出について説明する。
ここで使用するのは1段階の物体検出手法を用いるアルゴリズムである。このアルゴリズムによって物体を検出するステップは次のとおりである。まず、撮像装置1によって取得した画像を予め定めたサイズのグリッド(例えば等サイズのグリッド領域)に分割する。分割したグリッドの領域に、事前に定義した形状の、グリッドの中心を中心位置とするバウンディングボックスを、事前に設定した数だけ予測する。それぞれの予測には、クラス確立と物体信頼度(その領域に物体を含んでいるか、あるいは背景のみか)を関連付けする。
次に、高い物体信頼度およびクラス確率が関連付けられたバウンディングボックスを選択する。最も高いクラス確率を持つ物体クラスが、その物体のカテゴリー(クラス)となる。そして、スコアが高いデフォルトボックスのみを抽出する。次に、クラスごとにデフォルトボックスの重なり率を計算し、重なり率が高い場合には、スコアの低いデフォルトボックスを除去する。そして、物体の位置を表すバウンディングボックスを出力する。
Next, detection of an identification target using deep learning will be described.
What is used here is an algorithm that uses a one-step object detection method. The steps for detecting an object by this algorithm are as follows. First, an image acquired by the imaging device 1 is divided into grids of a predetermined size (for example, grid areas of equal size). A preset number of bounding boxes with a predefined shape centered at the center of the grid are predicted in the divided grid area. Each prediction is associated with class establishment and object confidence (whether the region contains an object or only the background).
Next, select bounding boxes that are associated with high object confidence and class probabilities. The object class with the highest class probability becomes the category (class) of that object. Then, only default boxes with high scores are extracted. Next, the overlap rate of default boxes is calculated for each class, and if the overlap rate is high, default boxes with low scores are removed. Then, a bounding box representing the position of the object is output.

実施の形態2.
次に、物体識別装置を駐車場管理装置に適用する場合について説明する。
図3は、物体識別装置を用いた駐車場管理装置の構成とフローを示す説明図である。
図3に示すように、駐車場管理装置201に使用する場合には、識別対象物として、複数種類の車両を設定する。例えば、普通自動車、トラック、バス、バイク、自転車等を識別対象物として設定する。そして、撮像装置1(カメラ)によって、予め定められた時間間隔で駐車場の撮影を行う(ステップS200)。エッジコンピュータ202によって、図1に示した学習処理手段11と対象物識別手段12との機能を果たす。
Embodiment 2.
Next, a case will be described in which the object identification device is applied to a parking lot management device.
FIG. 3 is an explanatory diagram showing the configuration and flow of a parking lot management device using an object identification device.
As shown in FIG. 3, when used in the parking lot management device 201, multiple types of vehicles are set as objects to be identified. For example, ordinary cars, trucks, buses, motorcycles, bicycles, etc. are set as objects to be identified. Then, the imaging device 1 (camera) photographs the parking lot at predetermined time intervals (step S200). The edge computer 202 performs the functions of the learning processing means 11 and the object identification means 12 shown in FIG.

すなわち、カメラ画像の取得(ステップS210)を行ない、物体検出のために、バウンディングボックスの予測を行う(ステップS220)。画像認識を行い、物体(普通自動車、トラック、バス、バイク、自転車)として識別の信頼度の高いもの選択する(ステップS230)。予め設定した閾値より高い信頼度の物体を処理対象とする(ステップS240)。そして、処理対象としての識別対象物の台数をカウントする(ステップS250)。ここでの車両の台数のカウントは、実施の形態1において説明しているように、物体識別装置による識別、すなわち第2の記憶装置に記憶された画像情報を複数の領域に分割し、分割されたそれぞれの前記領域の画像情報と第1の記憶装置に記憶されている識別対象物の特徴部分の情報とによって前記画像情報に前記識別対象物が含まれているかどうかを判別するものである。 That is, a camera image is acquired (step S210), and a bounding box is predicted for object detection (step S220). Image recognition is performed and objects (regular cars, trucks, buses, motorcycles, bicycles) with high identification reliability are selected (step S230). Objects whose reliability is higher than a preset threshold are targeted for processing (step S240). Then, the number of identification objects to be processed is counted (step S250). As described in Embodiment 1, the counting of the number of vehicles here is carried out by the identification by the object identification device, that is, by dividing the image information stored in the second storage device into a plurality of regions. It is determined whether or not the image information includes the object to be identified based on the image information of each of the areas and the information on the characteristic part of the object stored in the first storage device.

駐車場の状態として、満車、空車、混雑の判定を行う(ステップS260)。判定結果は、表示盤に満車、空車、混雑の表示を行う(ステップS270)。また、クラウドサーバによってホームページに満車、空車、混雑の表示を行う(ステップS280)。また、台数のカウント結果については、車種別、時間帯別の集計を行う(ステップS290)。
なお、ステップS240において、識別の信頼度の高いものを処理対象とするように示した。これは、管理人が駐車場の予め定められた場所(監視場所)に立って、駐車場を視認している状態と同じ様に、管理人と対象物との間に、別の車両が存在することによって対象物が全く確認できないことが生じる。すなわち、対象物(車両)と撮像装置との間にトラックが存在することによって対象物が存在するにも関わらず、カウントしない場合が生じる。
It is determined whether the parking lot is full, empty, or crowded (step S260). The determination result is displayed on the display panel as full, empty, or crowded (step S270). Further, the cloud server displays on the home page whether the vehicle is full, vacant, or crowded (step S280). Furthermore, the results of counting the number of vehicles are aggregated by vehicle type and time zone (step S290).
In addition, in step S240, it is shown that those with high identification reliability are to be processed. This is similar to the situation where the parking lot manager stands at a predetermined location (monitoring location) and visually checks the parking lot, but there is another vehicle between the parking lot and the object. As a result, the object may not be visible at all. That is, due to the presence of a truck between the object (vehicle) and the imaging device, there may be cases where the object is not counted even though the object is present.

このように遮蔽物が存在する場合、人間(管理人)が視認しているのであれば、その遮蔽物が移動するまで、隠れた対象物を見ることができない。しかし、実施の形態2の駐車場管理装置においては、撮像装置1によって、駐車場の予め定められた領域の画像を取得するように設定されているので、その駐車場の領域に遮蔽物が入ってきた場合には特別な管理を行う。 When a shield exists in this way, if a person (caretaker) is viewing the object, he or she will not be able to see the hidden object until the shield moves. However, in the parking lot management device of Embodiment 2, the imaging device 1 is set to acquire images of a predetermined area of the parking lot. If this happens, special management will be applied.

すなわち、図4は、遮蔽物と識別対象物との関係を示す説明図である。図4(a)は、トラック20によって識別対象物の車両30が完全に隠されている状態を表している。図4(b)は、識別対象物の車両30が駐車している後に遮蔽物となるトラック20が駐車しようとしている状態を表している。図4(c)は、遮蔽物であるトラック20が駐車するときにはその遮蔽される領域には車両30が駐車されていない状態を表している。図4(d)は、遮蔽物とされるトラック20によって遮蔽されている領域に車両30を駐車しようとしている状態を表している。 That is, FIG. 4 is an explanatory diagram showing the relationship between the shielding object and the identification target object. FIG. 4A shows a state in which the vehicle 30 to be identified is completely hidden by the truck 20. FIG. 4B shows a state in which the truck 20 serving as a shield is about to park after the vehicle 30 to be identified is parked. FIG. 4C shows a state in which when the truck 20 serving as a shield is parked, no vehicle 30 is parked in the shielded area. FIG. 4(d) shows a state in which the vehicle 30 is about to be parked in an area that is blocked by the truck 20 that is a blocking object.

この図4(a)に示すように、識別対象物とされる車両30の一部分も確認できない場合がある。駐車場を確認した時点においては、遮蔽物となるトラック20が駐車しているため、遮蔽された領域に車両30が既に存在しているのか、車両30が存在していないのかは不明である。 As shown in FIG. 4(a), there are cases where even a portion of the vehicle 30 that is the object to be identified cannot be confirmed. At the time of checking the parking lot, since the truck 20 serving as a shield is parked, it is unclear whether the vehicle 30 already exists in the shielded area or whether the vehicle 30 does not exist.

図4(a)に示すように遮蔽物によって識別対象物の存在が不明と判断される領域が存在する場合には、図5に示すように処理する。すなわち、図5は、遮蔽物によって、識別対象物である車両の存在が不明の場合の車両台数のカウントの処理手順を示すフロー図である。
駐車場の管理において、車両の出入りの状態は、画像情報として第2の記憶装置3に保存されているので、この保存されている画像情報を使用して、識別対象物としての車両の存在を確認する。
As shown in FIG. 4A, if there is an area where the existence of the object to be identified is determined to be unknown due to a blocking object, processing is performed as shown in FIG. That is, FIG. 5 is a flowchart showing a processing procedure for counting the number of vehicles when the presence of a vehicle that is an object to be identified is unknown due to a blocking object.
In parking lot management, the state of vehicles entering and exiting is stored as image information in the second storage device 3, so this stored image information is used to identify the presence of vehicles as objects to be identified. confirm.

まず、図5に示すように車両が完全に遮蔽されている可能性があるか否を判断する(ステップS10)。駐車場に駐車されている車両が何らかの方法で確認される場合(部分的に突出している等のように輪郭の一部が確認されるような場合)には、遮蔽されている領域が無いとして、確認した車両数で集計する(ステップS11)ことによって処理は完了する。車両が完全に遮蔽されている可能性がある場合には、遮蔽物によって隠れるよりも前の画像情報を確認する(ステップS12)。そして、遮蔽物が存在する以前に車両が駐車されていたかを確認する(ステップS13)。 First, as shown in FIG. 5, it is determined whether there is a possibility that the vehicle is completely shielded (step S10). If a vehicle parked in a parking lot can be confirmed in some way (for example, if a part of its outline is confirmed, such as partially protruding), it is assumed that there is no occluded area. , the process is completed by counting the number of confirmed vehicles (step S11). If there is a possibility that the vehicle is completely shielded, image information before the vehicle is hidden by the shielding object is checked (step S12). Then, it is checked whether the vehicle was parked before the obstruction existed (step S13).

遮蔽物が入った後に既に存在していた車両が出て行った情報があるか否かを把握する。遮蔽物が存在するよりも前に駐車していない場合には、遮蔽物が存在した後に遮蔽物の後方(遮蔽物によって遮蔽されている領域)に駐車された車両があるのかを確認する(ステップS14)。要するに遮蔽されている領域に車両が駐車されたのであれば、車両数を加算する(ステップS15)。
そして遮蔽物の後方に車両が存在していないことが継続している場合には、車両数の増減は無いとする(ステップ16)。
To ascertain whether there is any information that a vehicle that was already present left after the shield entered. If no vehicle is parked before the shield exists, check whether there is a vehicle parked behind the shield (in the area covered by the shield) after the shield exists (step S14). In short, if a vehicle is parked in the shielded area, the number of vehicles is added (step S15).
If there continues to be no vehicle behind the shield, it is determined that there is no increase or decrease in the number of vehicles (step 16).

また、遮蔽物が存在する以前から遮蔽領域に車両が存在していたのであれば、隠れていた車両数を加算する(ステップS17)。さらに、車両が存在していたという画像情報よりも後に、遮蔽物の後方に存在していた車両が移動しているか否かを確認する(ステップS18)。そして、計数後に車両が移動しているのであれば、車両数を減算する(ステップS19)。さらに車両が移動した後に新たな車両が駐車したかについてはステップS14によって確認することになる。
以上の手順のように、遮蔽物が存在している場合であっても、駐車場を管理している時間の画像情報が第2の記憶装置に保管されるので、画像情報の時間を戻して再生することによって遮蔽物の後ろに車両が駐車されているか否かを正確に把握することができる。
Furthermore, if a vehicle was present in the shielded area before the existence of the shielding object, the number of hidden vehicles is added (step S17). Furthermore, it is confirmed whether the vehicle that was present behind the shielding object has moved after the image information indicating that the vehicle was present (step S18). If the vehicle is moving after counting, the number of vehicles is subtracted (step S19). Further, it is checked in step S14 whether a new vehicle has been parked after the vehicle has moved.
As shown in the above procedure, even if there is an obstruction, the image information of the time when the parking lot was managed is stored in the second storage device, so the image information can be returned to the time. By reproducing the information, it is possible to accurately determine whether the vehicle is parked behind the shield.

実施の形態2の駐車場管理装置においては、特徴部分の部分的な情報から識別対象物の存在を推定する。また、識別対象物の全体を遮蔽する遮蔽物が存在する場合には、遮蔽物の存在前後の画像情報によって確認することによって識別対象物の存在を確認することができる。すなわち、識別対象物が存在する可能性のある駐車場の監視対象の領域について、過去の画像情報を確認し、その確認状況の記録を残すことによって、人間の管理ではできなかった、管理情報を得ることができ、より確実な管理を実現することができる。 In the parking lot management device of Embodiment 2, the presence of an identification target is estimated from partial information of a characteristic part. Furthermore, if there is a shielding object that blocks the entire object to be identified, the existence of the object to be identified can be confirmed by confirming the image information before and after the existence of the shielding object. In other words, by checking past image information for areas to be monitored in parking lots where there is a possibility that objects to be identified may exist, and by keeping a record of the checking status, it is possible to obtain management information that could not be managed by humans. This allows for more reliable management.

さらに、この実施の形態2においては、日中だけでなく、夜、雪、雨などの天候の悪い状況でも車両の検出を可能にする。すなわち、クラスタリングによる車両検出技術では、日中の映像が鮮明な時間帯では車両の検出は安定しているが、夜、雪、雨など、天候の悪い状況では検出精度が安定しない。これに対して、ディープラーニングの物体検出技術を活用し、予め、夜、雪、雨時の画像でトレーニングする事によって車両の検出を安定して行うことができる。夜間、および雪、雨の悪天候時も安定して車両の検出を可能になることで、安定したサービスの提供が可能になる。 Furthermore, in the second embodiment, it is possible to detect a vehicle not only during the day but also at night and under bad weather conditions such as snow and rain. In other words, with vehicle detection technology using clustering, vehicle detection is stable during daytime hours when images are clear, but detection accuracy is unstable at night and in bad weather conditions such as snow and rain. In contrast, by using deep learning object detection technology and training with images from night, snow, and rain, it is possible to stably detect vehicles. By making it possible to stably detect vehicles at night and during bad weather such as snow and rain, it is possible to provide stable services.

実施の形態3.
次に、物体識別装置を駐車場管理装置に適用する場合であって、駐車場の利用者の属性を集計する場合について説明する。
図6は、物体識別装置を用いた駐車場管理装置の構成とフローを示す説明図である。
実施の形態2(図3)においては識別対象物を車両としていたが、この実施の形態3では、識別対象物を人およびペットとして、駐車場に設置している満車・空車を検知するための撮像装置の画像情報を使用して、施設に流入する人の属性を把握することによって、マーケティング、施設の混み具合の発信に活用するものである。ここでは、ディープラーニングによる物体認識技術を活用し、人を検出することにより、施設に流入する人数をカウントする。また、性別(男/女)、年齢、ペットを検出することもできる。さらに、人間の表情から、感情を読み取ることもできるものである。
Embodiment 3.
Next, a case will be described in which the object identification device is applied to a parking lot management device and the attributes of parking lot users are totaled.
FIG. 6 is an explanatory diagram showing the configuration and flow of a parking lot management device using an object identification device.
In the second embodiment (FIG. 3), the objects to be identified were vehicles, but in this third embodiment, the objects to be identified are people and pets, and a system for detecting whether a car is full or empty in a parking lot is used. By using the image information from the imaging device to understand the attributes of people entering the facility, it is used for marketing and to communicate information on how crowded the facility is. Here, we use object recognition technology based on deep learning to detect people and count the number of people entering the facility. It is also possible to detect gender (male/female), age, and pet. Furthermore, it is also possible to read emotions from people's facial expressions.

この実施の形態3では、ステップS330として、実施の形態2のスッテプS230の中に、識別する物体として、人を含めている。そして、画像の切り出しに「人」を設定(ステップS350)。そしてディープラーニングによる画像認識として、性別、年齢、表情の判別を実行して(ステップS351)、取得した性別、年齢、表情のデータをカウントする(ステップS352)。並行して、犬および猫の数量をカウントする(ステップS360)。そして、クラウドサーバにおいてデータを集計(ステップS370)し、ホームページに施設の混雑状況の表示を行う(ステップS380)。また、時間帯、曜日、祝祭日、天候等毎に情報を分類し、施設の利用者と販売実績との関係の分析を行う(ステップS390)。この分析結果に基づいて販売する商品構成に反映させることができる(ステップS391)。 In this third embodiment, in step S330, a person is included as an object to be identified in step S230 of the second embodiment. Then, "person" is set for image cropping (step S350). Then, as image recognition using deep learning, discrimination of gender, age, and facial expression is performed (step S351), and the acquired data of gender, age, and facial expression are counted (step S352). In parallel, the number of dogs and cats is counted (step S360). Then, the cloud server aggregates the data (step S370), and displays the congestion status of the facility on the homepage (step S380). Furthermore, the information is classified by time of day, day of the week, public holidays, weather, etc., and the relationship between facility users and sales performance is analyzed (step S390). Based on this analysis result, it can be reflected in the product configuration to be sold (step S391).

上述のように、時間帯、曜日、祝祭日、天候など毎に情報を分類し、販売実績を分析することにより、売店の品揃え、食堂のメニューを、訪れるお客さまに応じた商品構成にし、売上向上に役立てることができる。さらに、売店の混雑状況を表示することにより、混み具合を発信でき、サービスエリアの利用者の満足度向上につなげることができる。 As mentioned above, by classifying information by time of day, day of the week, holidays, weather, etc. and analyzing sales results, we can adjust the product lineup at the store and the menu at the cafeteria to suit the customers who visit, and increase sales. It can be used to improve. Furthermore, by displaying the congestion status of the shop, it is possible to communicate the congestion level, which can lead to improved user satisfaction in the service area.

実施の形態4.
次に、物体識別装置を駐車場管理装置に適用する場合であって、ナンバープレートの地域名および車種から、需要予測を行う場合について説明する。
図7は、物体識別装置を用いた駐車場管理装置の構成とフローを示す説明図である。
この実施の形態4では、施設の利用者の車両のナンバープレートの地域名をディープラーニングの画像認識で読み取り集計する。また、ディープラーニングにより車種(普通車、トラック、バス)を認識し、地域名と車種の集計から客層を判断し、駐車場のある商業施設での需要予測を行う。
Embodiment 4.
Next, a case will be described in which the object identification device is applied to a parking lot management device, and demand is predicted based on the region name and vehicle type of the license plate.
FIG. 7 is an explanatory diagram showing the configuration and flow of a parking lot management device using an object identification device.
In this fourth embodiment, the region names on the license plates of the vehicles of users of the facility are read and tallied using deep learning image recognition. In addition, it uses deep learning to recognize vehicle types (regular cars, trucks, buses), determines customer demographics based on area names and vehicle types, and predicts demand at commercial facilities with parking lots.

実施の形態2(図3)においては識別対象物を車両としていたが、この実施の形態4では、識別対象物をナンバープレートとして、駐車場に設置している満車・空車を検知するための撮像装置の画像情報を使用して、施設に流入する車両のナンバープレートの持つデータ(地域名および車種)を集計することによって、商業施設の需要を予測し、販売する商品およびサービスを需要にあったものにすることで、売上向上とサービス向上につなげるものである。 In the second embodiment (FIG. 3), the object to be identified is a vehicle, but in this fourth embodiment, the object to be identified is a license plate, and images are taken to detect whether a car is full or empty in a parking lot. By using the device's image information to aggregate the data (region name and vehicle type) of the license plates of vehicles entering the facility, we can predict the demand for commercial facilities and tailor the products and services we sell to meet the demand. This will lead to increased sales and improved services.

この実施の形態4では、ステップS430として、実施の形態2のスッテプS230の中に、識別する物体として、ナンバープレートを含めている。そして、画像の切り出しに「ナンバープレート」を設定(ステップS450)。そしてディープラーニングによる画像認識として、文字、数字の判別を実行して(ステップS451)、取得したナンバープレートのデータをカウントする(ステップS452)。そして、クラウドサーバにおいてデータを集計している(ステップS490)。 In this fourth embodiment, a license plate is included as an object to be identified in step S230 of the second embodiment as step S430. Then, "license plate" is set for image cutting (step S450). Then, as image recognition using deep learning, characters and numbers are discriminated (step S451), and the acquired license plate data is counted (step S452). Then, the data is aggregated in the cloud server (step S490).

実施の形態5.
次に、物体識別装置を駐車場管理装置に適用する場合であって、駐車場のレイアウト(車両の駐車スペースのレイアウト)に応じて満車・空車の情報の検出を可能にする場合について説明する。
図8は、物体識別装置を用いた駐車場管理装置の構成とフローを示す説明図である。
この実施の形態5では、大型車のスペースに普通車を複数台止めるなど運用の違いにより、台数だけでは駐車場の満車/空車の判断が出来ない場合に、ディープラーニングによる物体認識により普通車、大型車、二輪車を分類し、大型車の駐車スペースに普通車が止まっている場合でも、別の普通車を止めるスペースがある場合は、空車ありと判断することで、駐車スペースの効率的な利用を可能にするものである。
Embodiment 5.
Next, a case will be described in which the object identification device is applied to a parking lot management device, where information on whether the parking lot is full or empty can be detected according to the layout of the parking lot (the layout of parking spaces for vehicles).
FIG. 8 is an explanatory diagram showing the configuration and flow of a parking lot management device using an object identification device.
In this fifth embodiment, when it is not possible to judge whether a parking lot is full or empty based on the number of vehicles alone due to differences in operation, such as parking multiple regular cars in a space reserved for large cars, object recognition using deep learning is used to detect regular cars, Efficient use of parking space by classifying large vehicles and motorcycles and determining that there is a vacant space even if a regular vehicle is parked in the parking space of a large vehicle, if there is space for another regular vehicle. This is what makes it possible.

同様に車両スペースに二輪車が複数止められることがあるため、大型車または普通車の駐車スペースに二輪車が止まっている場合も、普通車を止める空スペースがあるかで判断するようにする。また、駐車スペース外の場所に車両を駐車している場合は、空車のカウントを減らさないようにし、「駐車スペース外の駐車」としてカウントすることで、不適切な駐車スペースへの駐車があることを認識できるようにする。
さらに、駐車場所を複数のグループに分類する分類境界を作成し、任意に変更できるようにすることによって効率的な利用を可能にするものである。
Similarly, multiple motorcycles may be parked in a vehicle space, so if a motorcycle is parked in a parking space for a large vehicle or a regular vehicle, the decision should be made based on whether there is an empty space to park a regular vehicle. In addition, if a vehicle is parked outside a parking space, the empty vehicle count should not be reduced, and by counting it as "parking outside a parking space", it is possible to prevent parking in an inappropriate parking space. be able to recognize it.
Furthermore, by creating classification boundaries that classify parking locations into multiple groups and allowing them to be changed arbitrarily, efficient use is made possible.

実施の形態2(図3)においては識別対象物を車両としていたが、この実施の形態5では、識別対象物を普通自動車、トラック、バス、バイク、自転車として、普通車、大型車、二輪車に分けて判定することによって、不適切な駐車を認識できるようにしている。 In the second embodiment (FIG. 3), the object to be identified is a vehicle, but in the fifth embodiment, the object to be identified is an ordinary car, a truck, a bus, a motorcycle, or a bicycle, and the object is an ordinary car, a large vehicle, or a two-wheeled vehicle. By making separate judgments, inappropriate parking can be recognized.

この実施の形態5では、ステップS530として、実施の形態2のスッテプS230の中に、識別する物体として、普通自動車、トラック、バス、バイク、自転車というように区分して集計できるように構成している。そして、満車・空車・混雑の判定を行い、車種ごとの適正駐車位置が使用されているか否かを判断して、不適切なエリアに駐車している車両を認識する(ステップS550)。そして、その結果を、表示盤に表示することによって不適切な駐車に対する注意を喚起するようにしている(ステップS570)。また、クラウドサーバにおいて、ホームページに満車・空車・混雑の情報を表示するようにしている(ステップS580).また車両数のカウントに基づいて様々なデータを集計している(ステップS590)。 In this fifth embodiment, in step S530, in step S230 of the second embodiment, the objects to be identified are classified into ordinary cars, trucks, buses, motorcycles, and bicycles and are configured to be aggregated. There is. Then, it is determined whether the vehicle is full, vacant, or crowded, and it is determined whether the appropriate parking position for each vehicle type is being used, and vehicles parked in inappropriate areas are recognized (step S550). The results are then displayed on the display panel to draw attention to inappropriate parking (step S570). Additionally, the cloud server displays information on full, empty, and congestion information on the home page (step S580). Furthermore, various data are compiled based on the count of the number of vehicles (step S590).

実施の形態6.
次に、物体識別装置を駐車場管理装置に適用する場合であって、車両を車種ごとに認識することによって、パーキングエリアの駐車枠に限らずに、最適な車両割当てを算定する場合について説明する。
この構成とフローは、実施の形態5と同様である。この実施の形態6では、大型と普通車・小型車両の駐車エリアが分割されている駐車場で、小型・普通車のパーキングエリアが混雑しているが、大型車両のパーキングエリアが空いている時間帯に、大型車両のエリアに小型・普通車両を駐車させる場合の対応を示すものである。すなわち、大型車両の駐車エリアに小型車両を駐車する場合は、2台駐車が可能であるが、従来の車両検出方法では、大型車両エリアに小型車両が駐車しているかの判別が難しい。そこで、ディープラーニングによる車両検出を行うことにより、大型・普通車・小型・二輪を分けて認識を行うものである。
Embodiment 6.
Next, we will explain the case where the object identification device is applied to a parking lot management device, and by recognizing vehicles by car type, the optimal vehicle allocation is calculated not only for parking slots in the parking area. .
This configuration and flow are the same as in the fifth embodiment. In this sixth embodiment, in a parking lot where the parking areas for large and ordinary/small vehicles are divided, the parking area for small/normal cars is crowded, but the parking area for large vehicles is empty. This section shows what to do when a small or regular vehicle is parked in an area reserved for large vehicles. That is, when a small vehicle is parked in a parking area for a large vehicle, two vehicles can be parked, but with conventional vehicle detection methods, it is difficult to determine whether a small vehicle is parked in the large vehicle area. Therefore, by performing vehicle detection using deep learning, it is possible to recognize large vehicles, regular vehicles, small vehicles, and two-wheeled vehicles separately.

これにより、大型車両の駐車エリアに何台の小型車両が駐車していて、あと何台駐車できるのかを判定することができる。さらに、時間帯、曜日、天候により、大型車両、普通車両、小型車両がどこに何台駐車していて、どれくらい混雑しているのか分析することにより、より効率的な駐車場の割合を算定することができる。
大型・普通車・小型・二輪などの車格毎の駐車場の占有場所をあらかじめ設定しておき、実際に停車されている車格と比較する事により、占有違反を検出して通報すること可能である。
大型/小型/普通/2輪を仕分けして判定することにより、駐車場混み具合をより高精度に実施する事を可能にする。さらに、時間帯、曜日、天候別の駐車場の利用状況を分析する事により、駐車場の改善計画の立案に有効である。
This makes it possible to determine how many small vehicles are parked in the parking area for large vehicles and how many more can be parked. Furthermore, by analyzing how many large vehicles, regular vehicles, and small vehicles are parked where and how crowded they are, depending on the time of day, day of the week, and weather, we can calculate more efficient parking ratios. Can be done.
It is possible to detect and report occupancy violations by setting in advance the parking lot occupancy locations for each vehicle class, such as large, regular, small, and two-wheeled vehicles, and comparing them with the vehicle class that is actually parked. It is.
By classifying and determining large/small/normal/two-wheeled vehicles, it is possible to determine parking lot congestion with higher accuracy. Furthermore, by analyzing the usage status of parking lots by time of day, day of the week, and weather, it is effective in formulating parking lot improvement plans.

実施の形態7.
次に、物体識別装置を駐車場管理装置に適用する場合であって、身障者用駐車帯の空き状況把握を可能にする場合について説明する。
図9は、物体識別装置を用いた駐車場管理装置の構成とフローを示す説明図である。この実施の形態7では、身障者用駐車帯の空き状況が駐車位置に行くまでわからないという問題に対応するものである。
Embodiment 7.
Next, a case will be described in which the object identification device is applied to a parking lot management device, and it is possible to grasp the availability of parking zones for people with disabilities.
FIG. 9 is an explanatory diagram showing the configuration and flow of a parking lot management device using an object identification device. Embodiment 7 is intended to deal with the problem that the availability of parking zones for disabled people is not known until the driver arrives at the parking location.

駐車場には、身障者用の駐車エリアがあるが、入退出カウント方式の駐車場満空監視システムでは、各車両の駐車位置が把握できていない。そこで、ディープラーニングによる車両検出を行うことにより、身体障害者用の駐車スペースが空いているのか満車なのかを判定することができる。それによって、駐車場入り口の表示盤またはWEBなどの配信手段を活用し、利用者、警備員、保守員に対して通知する事を実現することを可能にするものである。 The parking lot has a parking area for people with disabilities, but the parking lot occupancy monitoring system, which counts entry and exit, does not know where each vehicle is parked. Therefore, by performing vehicle detection using deep learning, it is possible to determine whether a parking space for the physically disabled is vacant or full. This makes it possible to notify users, security guards, and maintenance personnel by using a display board at the parking lot entrance or a distribution means such as the Web.

身障者用駐車スペースに駐車することが出来るか、あらかじめ判断することが出来るため、利便性が向上する。
この実施の形態7では、満車・空車・混雑の判定において、身障者用駐車エリアの満車・空車を判別する(ステップS351)ことによって、駐車場の表示盤に身障者用駐車エリアの満車・空車の状態を表示する(ステップS670)。
Convenience is improved because it can be determined in advance whether the vehicle can be parked in a parking space for the handicapped.
In the seventh embodiment, in determining whether the parking area is full, empty, or crowded, the parking area is displayed as full or empty by determining whether the parking area for the disabled is full or empty (step S351). is displayed (step S670).

実施の形態8.
次に、物体識別装置を駐車場管理装置に適用する場合であって、駐車場の混み具合を外部に配信するために画像加工をリアルタイムで実施する場合について説明する。
図10は、物体識別装置を用いた駐車場管理装置の構成とフローを示す説明図である。
この実施の形態8では、駐車場に関する情報を外部に配信する場合に、そこに含まれている個人情報および肖像権を尊重するための適切な処置を施す場合について説明する。
Embodiment 8.
Next, a case will be described in which the object identification device is applied to a parking lot management device, and image processing is performed in real time in order to transmit information about the congestion level of the parking lot to the outside.
FIG. 10 is an explanatory diagram showing the configuration and flow of a parking lot management device using an object identification device.
In this eighth embodiment, a case will be described in which, when distributing information regarding parking lots to the outside, appropriate measures are taken to respect personal information and portrait rights contained therein.

駐車場の混み具合を確認する為には、インターネットを使用してリアルタイムで画像を確認する事が行われる。しかし、カメラで撮像した映像では、車両および車両ナンバー、人の顔の映像が鮮明に写ることにより個人情報および肖像権を尊重する必要がある。
そのため、映像をそのまま配信することはできない。これに対応するため、ディープラーニングによる物体検知により、車両のナンバープレート、映像中の人物の顔、特徴部分を検出し、その部分にのみ自動的にモザイクまたはぼかしを施すことによって不鮮明にする。
In order to check how crowded a parking lot is, images are checked in real time using the Internet. However, since images captured by cameras clearly show images of vehicles, vehicle numbers, and people's faces, it is necessary to respect personal information and portrait rights.
Therefore, the video cannot be distributed as is. To address this, the system uses object detection using deep learning to detect vehicle license plates, people's faces, and other characteristic areas in the video, and then automatically mosaics or blurs only those areas to make them unclear.

または、人間を認識して画像から削除する処理をリアルタイムで実施することで、インターネット上に公開できる映像に加工する。
このため、予測したバウンディングボックスから、検知したい物体(人間、ナンバープレート)として信頼度の高いものを選択することで分類(ステップS730)し、表示に使用する情報の中の、人間、ナンバープレートへのモザイク処理を施す(ステップS750)。そして、クラウドサーバにおいて、モザイク処理された画像をインターネット上でリアルタイムに公開する(ステップS780)。
Alternatively, by performing processing to recognize and remove humans from images in real time, the images can be processed into videos that can be published on the Internet.
Therefore, from the predicted bounding boxes, the object to be detected (human, license plate) is classified by selecting it with high reliability (step S730), and the object (human, license plate) that is to be detected is classified (step S730). A mosaic process is performed (step S750). Then, in the cloud server, the mosaic-processed image is published on the Internet in real time (step S780).

実施の形態9.
次に、物体識別装置を駐車場管理装置に適用する場合であって、駐車場の指定位置以外での駐車車両および通路を逆走する車両を検出することによって事故を未然に防ぐものである。
図11は、物体識別装置を用いた駐車場管理装置の構成とフローを示す説明図である。
この実施の形態9では、駐車場内では、駐車場所でないところに車両を停止することおよび決められた方向に走行しない車両によって事故が発生する場合がある。
Embodiment 9.
Next, the object identification device is applied to a parking lot management device to prevent accidents by detecting parked vehicles at locations other than designated locations in the parking lot and vehicles driving in the wrong direction in the aisle.
FIG. 11 is an explanatory diagram showing the configuration and flow of a parking lot management device using an object identification device.
In this embodiment 9, an accident may occur in a parking lot due to a vehicle being stopped in a place other than a parking spot and a vehicle not traveling in a determined direction.

この実施の形態9においては、ディープラーニングの物体検出技術によって、通行路及び、誘導路に停車している車両を検出することにより、車両が駐車場以外の通行路、誘導路に不正に停車していないかを検出することができる。さらに、あらかじめ設定しておいた通路および誘導路の進行方向と車両の進行方向とを比較する事により、逆走車の検出を行う場合について説明する。 In this ninth embodiment, by detecting vehicles parked on traffic roads and taxiways using deep learning object detection technology, vehicles are prevented from illegally stopping on traffic roads and taxiways other than parking lots. It is possible to detect whether the Furthermore, a case will be described in which a wrong-way vehicle is detected by comparing the traveling direction of a preset path and guideway with the traveling direction of the vehicle.

図11に示すようにエッジコンピュータ202内において駐車場内にある車両、出入りする車両について車両に走行方向の判定を行う(スッテプS850)。車両の走行方向と走行車線との関係から逆相を検知する(ステップS851)。そして、表示盤に逆走車両の情報を対象の車両および周辺の車両に通知する(ステップS870)。また、警備室においては、逆走車両の情報を保守・警備員に通知する(ステップS880)。これによって、不正駐車、逆走車両の情報を、対象車両、周辺車両、保守・警備員へ通知することで、事故を未然に防ぐ事ができる。 As shown in FIG. 11, the edge computer 202 determines the driving direction of the vehicles in the parking lot and the vehicles entering and exiting the parking lot (step S850). A reverse phase is detected from the relationship between the vehicle's travel direction and the travel lane (step S851). Then, information about the wrong-way vehicle is notified to the target vehicle and surrounding vehicles on the display panel (step S870). Further, in the security room, information about the wrong-way vehicle is notified to the maintenance/security guard (step S880). This makes it possible to prevent accidents by notifying the target vehicle, surrounding vehicles, and maintenance/security personnel of information about illegally parked vehicles and vehicles driving the wrong way.

実施の形態10.
次に、物体識別装置を駐車場管理装置に適用する場合であって、駐車場に入ろうとする車両の列を検出して、駐車場の外の車列の情報を提供するものである。
図12は、物体識別装置を用いた駐車場管理装置の構成とフローを示す説明図である。
この実施の形態10では、駐車場内だけでなく、駐車場外の車列をカメラで監視し、駐車場内が満車状態になったときに、駐車場外の車列監視用カメラの映像を外部配信し、インターネット上で閲覧できるようにしたものである。
Embodiment 10.
Next, the object identification device is applied to a parking lot management device, in which a line of vehicles attempting to enter a parking lot is detected and information on a line of vehicles outside the parking lot is provided.
FIG. 12 is an explanatory diagram showing the configuration and flow of a parking lot management device using an object identification device.
In Embodiment 10, not only the inside of the parking lot but also the line of vehicles outside the parking lot is monitored by a camera, and when the inside of the parking lot is full, the image of the camera for monitoring the line of cars outside the parking lot is distributed to the outside, It is made available for viewing on the Internet.

図12に示すように、撮像装置1(カメラ)は、入庫待ち車両を撮影する(ステップS900)。エッジコンピュータ202の内部においては、満車、空車、混雑の判定を行い、入庫末の車両の有無を表示する(ステップS950)。また、入庫待ちの車両をカウントする(ステップS960)。そして、表示盤において満車、空車、混雑状況を表示し、待ち車両の有無について表示する(ステップS970)。またクラウドサーバにおいて、ホームページに満車、空車、混雑の情報および待ち車両の有無について表示する(ステップS980)。またデータを収集する(ステップS980)。
これによって、駐車場に入ろうとする車両に駐車場の状況を伝えることができる。
As shown in FIG. 12, the imaging device 1 (camera) photographs a vehicle waiting to enter the warehouse (step S900). Inside the edge computer 202, it is determined whether the vehicle is full, empty, or crowded, and the presence or absence of the last vehicle in the warehouse is displayed (step S950). In addition, the number of vehicles waiting to enter the warehouse is counted (step S960). Then, the display panel displays whether the vehicle is full, vacant, or crowded, and whether or not there are waiting vehicles (step S970). In addition, the cloud server displays information on fullness, vacancy, congestion, and the presence or absence of waiting vehicles on the homepage (step S980). Data is also collected (step S980).
This allows vehicles attempting to enter the parking lot to be informed of the parking lot situation.

実施の形態11.
次に、物体識別装置を駐車場管理装置に適用する場合であって、駐車場が立体駐車場のように複数の領域に分かれている駐車場において、複数の駐車エリアのそれぞれについて満車状態、空車状態の程度を通知することによって、混雑の集中を防ぐものである。
図13は、物体識別装置を用いた駐車場管理装置の構成とフローを示す説明図である。
Embodiment 11.
Next, when applying the object identification device to a parking lot management device, in a parking lot where the parking lot is divided into multiple areas such as a multi-story parking lot, each of the multiple parking areas is full or empty. By notifying the extent of the situation, congestion can be prevented.
FIG. 13 is an explanatory diagram showing the configuration and flow of a parking lot management device using an object identification device.

この実施の形態11では、複数の駐車エリア(複数のフロア)毎の満車・空車・混雑の状態を判定する(ステップS1050)。フロアごとの車両数をカウント(ステップS1060)し、表示盤においてフロア毎の満車・空車・混雑の状態を表示(ステップS1070、クラウドサーバにおいて、ホームページにフロア毎の満車・空車・混雑の状態を表示(ステップS1080)する。また、フロア毎のデータを集計(ステップS1090)する。
これによって、表示盤の満車率を見ることで、駐車スペースに対して車両が少ないフロアおよび駐車場がわかるため、1つのフロアおよび駐車場が混雑することを解消させることができる。
In this Embodiment 11, the state of fullness, vacancy, and congestion for each of a plurality of parking areas (a plurality of floors) is determined (step S1050). The number of vehicles on each floor is counted (step S1060), and the state of fullness, vacancy, and congestion on each floor is displayed on the display panel (step S1070, the cloud server displays the state of fullness, vacancy, and congestion on each floor on the homepage. (Step S1080).Furthermore, data for each floor is aggregated (Step S1090).
As a result, by looking at the fullness rate on the display panel, it is possible to know which floors and parking lots have fewer vehicles compared to the parking spaces, so it is possible to eliminate congestion on one floor or parking lot.

実施の形態12.
この実施の形態は、物体識別装置を駐車場管理装置に適用して、駐車場の利用状況の情報を得るという目的を達成するものである。
この実施の形態12では、駐車場の駐車枠の上に駐車している車両の画像情報に基づいて、車両が使用している駐車枠を判定する。この判定のために、物体識別装置では、実施の形態1において説明したように、ディープラーニングによって、車両を識別対象物として認識できる機能を持つ。また、併せて、駐車場の駐車枠の領域を細分化した座標を設定し、駐車枠内に収まっているのかあるいは駐車枠を出た状態で駐車されているのかの判断ができるように設定されている。この判断は、駐車枠を表す座標系と車両の外観情報による学習を繰り返すことによって、学習し、判断の信頼度を向上させることが可能である。
Embodiment 12.
This embodiment applies an object identification device to a parking lot management device to achieve the purpose of obtaining information on the usage status of a parking lot.
In this twelfth embodiment, a parking frame used by a vehicle is determined based on image information of a vehicle parked above a parking frame in a parking lot. For this determination, the object identification device has a function of recognizing a vehicle as an object to be identified using deep learning, as described in the first embodiment. In addition, coordinates are set that subdivide the area of the parking slot in the parking lot, so that it can be determined whether the vehicle is parked within the parking slot or outside the parking slot. ing. This judgment can be learned by repeating learning based on the coordinate system representing the parking space and the vehicle appearance information, and the reliability of the judgment can be improved.

図14は、物体認識装置を用いた駐車場管理装置の構成フローを示す説明図である。
図14に示すように、撮像装置1(カメラ)は、駐車場を撮影する。この撮影によって、駐車場の駐車枠および利用している車両を撮影する(ステップS200)。エッジコンピュータ202の内部においては、ディープラーニングによる駐車枠の使用の予測を重ねることによって、検知した車両が所定の駐車枠に駐車しているという信頼度を予測する(ステップS1000)。駐車枠を車両が使用しているとの予測の信頼度が、予め定めた閾値よりも高い場合に、駐車枠に車両が駐車されていると判定する(ステップS1010)。また、このエッジコンピュータ202では駐車枠に関係するデータを取得するために最適な撮像装置1(カメラ)の高さ、設置角度(俯角)を求める(ステップS1020)ことが行われる。
そして、表示盤において停止車両の有無を表示(ステップS1170)し、クラウドサーバにおいて、ホームページに停止車両の有無を表示する(ステップS1180)。また駐車場管理者に車両枠に停止している車両の情報を通知する(ステップS1030)。
FIG. 14 is an explanatory diagram showing a configuration flow of a parking lot management device using an object recognition device.
As shown in FIG. 14, the imaging device 1 (camera) photographs a parking lot. Through this photographing, the parking slot in the parking lot and the vehicle being used are photographed (step S200). Inside the edge computer 202, the degree of confidence that the detected vehicle is parked in a predetermined parking space is predicted by overlapping predictions of parking space usage using deep learning (step S1000). When the reliability of prediction that a vehicle is using the parking slot is higher than a predetermined threshold, it is determined that a vehicle is parked in the parking slot (step S1010). In addition, the edge computer 202 calculates the optimal height and installation angle (depression angle) of the imaging device 1 (camera) in order to obtain data related to the parking slot (step S1020).
Then, the presence or absence of a stopped vehicle is displayed on the display panel (step S1170), and the presence or absence of a stopped vehicle is displayed on the cloud server's home page (step S1180). Additionally, information on vehicles stopped in the vehicle slots is notified to the parking lot manager (step S1030).

実施の形態13.
物体識別装置を車両管理装置に適用する場合であって、道路上の映像をディープラーニング(深層学習)の物体検出技術によって停止車両の有無を判定処理することで、人間が検出するよりも早く、停止車両を検出する事を可能にするものである。
図15は、物体識別装置を用いた車両管理装置の構成とフローを示す説明図である。
この実施の形態12では、道路上の状況をカメラで監視し、車両の外観あるいは輪郭の一部によって車両を検出するもので、実施の形態1のディープラーニングの技術によって停車中の車両を検出するものである。
Embodiment 13.
When applying an object identification device to a vehicle management device, by processing images on the road to determine the presence or absence of stopped vehicles using deep learning object detection technology, it is possible to detect objects faster than humans can. This makes it possible to detect stopped vehicles.
FIG. 15 is an explanatory diagram showing the configuration and flow of a vehicle management device using an object identification device.
In this twelfth embodiment, the situation on the road is monitored with a camera, and vehicles are detected based on the appearance or part of the outline of the vehicle, and stopped vehicles are detected using the deep learning technology of the first embodiment. It is something.

図15に示すように、撮像装置1(カメラ)は、道路上を撮影する(ステップS1100)。エッジコンピュータ202の内部においては、満車、空車、混雑の判定を行い、道路上を走行する車両の進行方向および速度を判定する(ステップS1150)。また、周辺車両との速度差を考慮して、停止している車両の有無を判定する(ステップS1160)。そして、表示盤において停止車両の有無を表示(ステップS1170)し、クラウドサーバにおいて、ホームページに停止車両の有無を表示する(ステップS1180)。また道路管理者に停止車両の情報を通知する(ステップS1190)。
これによって、停止車両発生から、道路管理者が駆け付けるまでの時間を短くすることで、追突事故発生を抑制することができる。
As shown in FIG. 15, the imaging device 1 (camera) photographs the road (step S1100). Inside the edge computer 202, it is determined whether the vehicle is full, empty, or congested, and the direction and speed of vehicles traveling on the road are determined (step S1150). Furthermore, the presence or absence of a stopped vehicle is determined in consideration of the speed difference with surrounding vehicles (step S1160). Then, the presence or absence of a stopped vehicle is displayed on the display panel (step S1170), and the presence or absence of a stopped vehicle is displayed on the cloud server's home page (step S1180). Also, the information on the stopped vehicle is notified to the road administrator (step S1190).
As a result, the occurrence of rear-end collisions can be suppressed by shortening the time from the occurrence of a stopped vehicle to the arrival of a road administrator.

本願は、様々な例示的な実施の形態及び実施例が記載されているが、1つ、または複数の実施の形態に記載された様々な特徴、態様、及び機能は特定の実施の形態の適用に限られるのではなく、単独で、または様々な組み合わせで実施の形態に適用可能である。
従って、例示されていない無数の変形例が、本願明細書に開示される技術の範囲内において想定される。例えば、少なくとも1つの構成要素を変形する場合、追加する場合または省略する場合、さらには、少なくとも1つの構成要素を抽出し、他の実施の形態の構成要素と組み合わせる場合が含まれるものとする。
Although this application describes various exemplary embodiments and examples, various features, aspects, and functions described in one or more embodiments may be applicable to a particular embodiment. The present invention is not limited to, and can be applied to the embodiments alone or in various combinations.
Accordingly, countless variations not illustrated are envisioned within the scope of the technology disclosed herein. For example, this includes cases where at least one component is modified, added, or omitted, and cases where at least one component is extracted and combined with components of other embodiments.

1 撮像装置、2 第1の記憶装置、3 第2の記憶装置、4 情報処理装置、5 識別装置、6 表示装置、7 識別対象物設定部、8 教師データ作成部、9 類似物データ作成部、10 学習処理装置、11 学習処理手段、12 対象物識別手段、20 トラック、30 車両、100 物体識別装置、200 プロセッサ、201 記憶装置、202 エッジコンピュータ 1 Imaging device, 2 First storage device, 3 Second storage device, 4 Information processing device, 5 Identification device, 6 Display device, 7 Identification target object setting section, 8 Teacher data creation section, 9 Similar data creation section , 10 learning processing device, 11 learning processing means, 12 object identification means, 20 truck, 30 vehicle, 100 object identification device, 200 processor, 201 storage device, 202 edge computer

Claims (1)

画像情報を取得する撮像装置、車両の特徴部分の情報を記憶する第1の記憶装置、前記撮像装置によって取得された前記画像情報を蓄積する第2の記憶装置、および前記第2の記憶装置の前記画像情報を複数の領域に分割し、分割されたそれぞれの前記領域の画像情報と前記第1の記憶装置に記憶されている前記車両の特徴部分の情報とによって前記画像情報に前記車両が含まれていることを判別する情報処理装置を備えた物体識別装置を駐車場の管理装置として備え、前記物体識別装置による識別領域に遮蔽物によって遮蔽されて車両の存在が不明の場合に、前記第2の記憶装置に蓄積されている前記画像情報を遡及して前記遮蔽物の後ろに前記車両が存在するか否かを確認するようにしたことを特徴とする駐車場管理装置。 an imaging device that acquires image information; a first storage device that stores information on characteristic parts of the vehicle; a second storage device that stores the image information acquired by the imaging device; The image information is divided into a plurality of regions, and the vehicle is included in the image information based on the image information of each of the divided regions and the information of the characteristic part of the vehicle stored in the first storage device. An object identification device equipped with an information processing device for determining whether a vehicle is present as a parking lot management device is provided as a parking lot management device, and when the presence of a vehicle is unknown because it is obscured by a blocking object in an identification area by the object identification device, 2. A parking lot management device characterized in that the image information stored in the storage device No. 2 is retrospectively checked to confirm whether or not the vehicle exists behind the shielding object.
JP2020218394A 2020-12-28 2020-12-28 Parking lot management device Active JP7412326B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020218394A JP7412326B2 (en) 2020-12-28 2020-12-28 Parking lot management device
JP2023218996A JP2024028321A (en) 2020-12-28 2023-12-26 Parking lot management apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020218394A JP7412326B2 (en) 2020-12-28 2020-12-28 Parking lot management device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023218996A Division JP2024028321A (en) 2020-12-28 2023-12-26 Parking lot management apparatus

Publications (2)

Publication Number Publication Date
JP2022103642A JP2022103642A (en) 2022-07-08
JP7412326B2 true JP7412326B2 (en) 2024-01-12

Family

ID=82279520

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020218394A Active JP7412326B2 (en) 2020-12-28 2020-12-28 Parking lot management device
JP2023218996A Pending JP2024028321A (en) 2020-12-28 2023-12-26 Parking lot management apparatus

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023218996A Pending JP2024028321A (en) 2020-12-28 2023-12-26 Parking lot management apparatus

Country Status (1)

Country Link
JP (2) JP7412326B2 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019164694A (en) 2018-03-20 2019-09-26 株式会社プロロジス Vehicle facility monitoring system

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08287258A (en) * 1995-04-19 1996-11-01 Fuji Xerox Co Ltd Color image recognition device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019164694A (en) 2018-03-20 2019-09-26 株式会社プロロジス Vehicle facility monitoring system

Also Published As

Publication number Publication date
JP2024028321A (en) 2024-03-04
JP2022103642A (en) 2022-07-08

Similar Documents

Publication Publication Date Title
CN109784162B (en) Pedestrian behavior recognition and trajectory tracking method
US8744132B2 (en) Video-based method for detecting parking boundary violations
WO2020087743A1 (en) Non-motor vehicle traffic violation supervision method and apparatus and electronic device
US9317752B2 (en) Method for detecting large size and passenger vehicles from fixed cameras
US11244171B2 (en) Video-based system for automated detection of double parking violations
US9940633B2 (en) System and method for video-based detection of drive-arounds in a retail setting
Bonnin et al. Pedestrian crossing prediction using multiple context-based models
US10552687B2 (en) Visual monitoring of queues using auxillary devices
WO2020052436A1 (en) Vehicle overload alarming method and apparatus, electronic device, and storage medium
US20150310365A1 (en) System and method for video-based detection of goods received event in a vehicular drive-thru
US20130266187A1 (en) Video-based method for parking angle violation detection
CN109326124A (en) A kind of urban environment based on machine vision parks cars Activity recognition system
KR102289181B1 (en) System, apparatus and method for vision based parking management
KR20030032003A (en) Smart parking advisor
KR102122850B1 (en) Solution for analysis road and recognition vehicle license plate employing deep-learning
US10262328B2 (en) System and method for video-based detection of drive-offs and walk-offs in vehicular and pedestrian queues
Abdel-Aty et al. Using closed-circuit television cameras to analyze traffic safety at intersections based on vehicle key points detection
KR102289182B1 (en) System, apparatus and method for vision based parking management
Mehboob et al. Trajectory based vehicle counting and anomalous event visualization in smart cities
WO2019151995A1 (en) Motion planning for autonomous point-of-sale vehicles
US11727580B2 (en) Method and system for gathering information of an object moving in an area of interest
Ravish et al. Intelligent traffic violation detection
JP7412326B2 (en) Parking lot management device
CN115713745A (en) Obstacle detection method, electronic device, and storage medium
JP7445441B2 (en) Parking lot control system, parking lot control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220907

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230714

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230913

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231226

R150 Certificate of patent or registration of utility model

Ref document number: 7412326

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150