JP2023047584A - Location management system and location management method - Google Patents
Location management system and location management method Download PDFInfo
- Publication number
- JP2023047584A JP2023047584A JP2021156567A JP2021156567A JP2023047584A JP 2023047584 A JP2023047584 A JP 2023047584A JP 2021156567 A JP2021156567 A JP 2021156567A JP 2021156567 A JP2021156567 A JP 2021156567A JP 2023047584 A JP2023047584 A JP 2023047584A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- information
- moving object
- position information
- feature information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000007726 management method Methods 0.000 title claims description 53
- 238000000605 extraction Methods 0.000 claims abstract description 18
- 239000000284 extract Substances 0.000 claims abstract description 15
- 238000001514 detection method Methods 0.000 claims description 14
- 239000003086 colorant Substances 0.000 claims description 10
- 238000012545 processing Methods 0.000 description 34
- 238000000034 method Methods 0.000 description 25
- 238000010586 diagram Methods 0.000 description 18
- 230000008569 process Effects 0.000 description 12
- 238000006243 chemical reaction Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 238000005259 measurement Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 6
- 230000000052 comparative effect Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000005401 electroluminescence Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Landscapes
- Navigation (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明の実施形態は、位置管理システム、および、位置管理方法に関する。 TECHNICAL FIELD Embodiments of the present invention relate to a location management system and a location management method.
近年、例えば、MaaS(Mobility as a Service)に用いるダイナミックマップを実現するためには、車両などの移動物体に関する正確な位置情報の計測や管理が必要である。そして、車両の位置情報を得る場合には、例えば、GPS(Global Positioning System)よりもGNSS(Global Navigation Satellite System:全球測位衛星システム)を利用したほうが、高精度な位置情報を得ることができる。 In recent years, for example, in order to realize a dynamic map used for MaaS (Mobility as a Service), it is necessary to measure and manage accurate position information regarding moving objects such as vehicles. When obtaining vehicle position information, for example, GNSS (Global Navigation Satellite System) can be used rather than GPS (Global Positioning System) to obtain highly accurate position information.
しかし、GNSSを利用したとしても、例えば、高い建物が林立しているエリアでは位置情報の誤差が大きくなるなどの問題がある。したがって、高度な自動運転などを実現するには、位置計測誤差を低減する必要があり、解決策として、例えば、車両に高精度測位装置を搭載する手法がある。 However, even if GNSS is used, there is a problem that, for example, errors in position information increase in areas where tall buildings stand side by side. Therefore, in order to realize advanced automatic driving, it is necessary to reduce position measurement errors.
しかしながら、上述の高精度測位装置は高価であるという問題がある。 However, there is a problem that the high-precision positioning device described above is expensive.
そこで、本発明が解決しようとする課題は、物体の高精度な位置情報を低コストで得ることができる位置管理システム、および、位置管理方法を提供することである。 Therefore, the problem to be solved by the present invention is to provide a position management system and a position management method capable of obtaining highly accurate position information of an object at low cost.
実施形態の位置管理システムは、移動物体が移動する所定の領域を撮影する定置カメラから撮影画像を取得する撮影画像取得部と、前記撮影画像から前記移動物体を検出する検出部と、前記定置カメラによる撮影画像の各部分に対して予め実位置情報が対応付けられている位置対応情報に基づいて、前記撮影画像に写っている前記移動物体の実位置情報を特定する特定部と、前記所定の領域を移動している前記移動物体から、GPSまたはGNSSに基づく前記移動物体の位置情報を取得する位置情報取得部と、前記移動物体または外部装置から、前記移動物体に関する所定の特徴情報を取得する特徴情報取得部と、前記撮影画像から前記移動物体の前記所定の特徴情報を抽出する抽出部と、前記特定部によって特定された前記実位置情報と、前記位置情報取得部によって取得された前記位置情報と、前記特徴情報取得部によって取得された前記所定の特徴情報と、前記抽出部によって抽出された前記所定の特徴情報と、に基づいて、前記撮影画像に写っている前記移動物体と、前記位置情報取得部によって取得された前記位置情報を送信した前記移動物体と、を対応付ける制御部と、を備える。 A position management system according to an embodiment includes a captured image acquisition unit that acquires a captured image from a fixed camera that captures a predetermined area in which a moving object moves, a detection unit that detects the moving object from the captured image, and the fixed camera. a specifying unit for specifying the real position information of the moving object appearing in the photographed image based on the position correspondence information in which the real position information is associated in advance with each part of the photographed image; A position information acquisition unit that acquires position information of the moving object based on GPS or GNSS from the moving object moving in an area, and acquires predetermined feature information about the moving object from the moving object or an external device. a feature information acquiring unit; an extracting unit that extracts the predetermined feature information of the moving object from the captured image; the actual position information specified by the specifying unit; and the position acquired by the position information acquiring unit. information, the predetermined feature information acquired by the feature information acquisition unit, and the predetermined feature information extracted by the extraction unit, the moving object appearing in the captured image, the and a control unit that associates the moving object that transmitted the position information acquired by the position information acquisition unit.
以下、本発明の位置管理システム、および、位置管理方法の実施形態について、図面を参照して説明する。以下では、移動物体として、車両を例にとって説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of a position management system and a position management method of the present invention will be described with reference to the drawings. A vehicle will be described below as an example of a moving object.
まず、図1を参照して、実施形態と比較例(従来技術)の大まかな相違点について説明する。
図1は、実施形態と比較例(従来技術)の大まかな相違点を説明するための模式図である。比較例(従来技術)では、車両に搭載する高精度測位装置による位置情報を用いてダイナミックマップを作成する場合を想定する。この場合、車両が走行する全エリアで車両の高精度な位置情報が得られるが、高精度測位装置が高価であるという問題がある。
First, with reference to FIG. 1, the rough differences between the embodiment and the comparative example (prior art) will be described.
FIG. 1 is a schematic diagram for explaining rough differences between the embodiment and a comparative example (conventional technology). In a comparative example (conventional technology), it is assumed that a dynamic map is created using position information from a high-precision positioning device mounted on a vehicle. In this case, highly accurate position information of the vehicle can be obtained in the entire area in which the vehicle travels, but there is a problem that the highly accurate positioning device is expensive.
一方、本実施形態では、以下で説明する提案モデルによる位置情報を用いてダイナミックマップを作成する場合を想定する。提案モデルでは、道路を2種類のエリアに分類し、車両の位置計測精度のレベル分けを行う。1つは、交差点のように高精度な位置計測が必要なエリアであり、提案モデルの適用対象である。もう1つは、直線道路などの高精度な位置計測が不要なエリアであり、提案モデルの適用対象外で、個々の車両が有するGPSセンサの位置情報を用いる。この手法によれば、高精度な位置計測エリアにおいて、低コストで車両の高精度な位置情報を得ることができる。以下、詳述する。 On the other hand, in the present embodiment, it is assumed that a dynamic map is created using position information based on the proposed model described below. In the proposed model, roads are classified into two types of areas, and the level of vehicle positioning accuracy is divided. One is an area such as an intersection that requires high-precision position measurement, and is an application target of the proposed model. The other is an area such as a straight road that does not require high-precision position measurement, and the proposed model is not applicable, and the position information of the GPS sensor possessed by each vehicle is used. According to this technique, it is possible to obtain highly accurate vehicle position information at low cost in a highly accurate position measurement area. Details will be described below.
図2は、実施形態の位置管理システムSの全体構成図である。位置管理システムSは、位置管理サーバ1と、PC(Personal Computer)2と、定置カメラ3と、地図管理サーバ4(管理サーバ)と、を備える。
FIG. 2 is an overall configuration diagram of the location management system S of the embodiment. The location management system S includes a location management server 1, a PC (Personal Computer) 2, a
定置カメラ3は、車両5(以下、符号なしで「車両」とも称する。)が移動する所定の領域(例えば、道路の交差点等)を撮影する。より具体的には、定置カメラ3は、例えば、道路の主要な場所の高い位置に設置され、上方から道路を見下ろす画角となっている。この定置カメラ3の視野の範囲が、高精度な位計測測エリアとなる。また、定置カメラ3は道路の各所に設置され、1つの定置カメラ3に対して1つのPC2が設置される。
The
ここで、図3を参照して、実施形態のPC2による処理の概要について説明する。
図3は、実施形態のPC2による処理の概要を説明するための図である。図3(a)は、定置カメラ3によって得られる画像(以下、定置カメラ画像とも称する。)の例である。
Here, with reference to FIG. 3, an overview of the processing by the
FIG. 3 is a diagram for explaining an outline of processing by the
図3(a)のように、PC2は、定置カメラ画像から車両を検出する。図3(b)では、検出された車両が矩形で囲まれている。そして、PC2は、検出した車両について、位置情報を特定する。図3(c)では、ワイヤーフレームの手法を用いて、車両に適用したワイヤーフレームLにおける底面の中心位置P10を車両の位置情報として特定していることを模式的に示している。
As shown in FIG. 3(a), the
図2に戻って、PC2は、処理部21と、記憶部22と、入力部23と、表示部24と、通信部25と、を備える。
Returning to FIG. 2 , the
記憶部22は、HDD(Hard Disk Drive)やSSD(Solid State Drive)などの記憶装置であり、各種情報を記憶する。記憶部22は、例えば、位置DB(Data Base)221(位置対応情報)と、変換テーブル222(位置対応情報)と、第1車両情報223と、車種判別用テーブル224と、を記憶する。
The
位置DB221は、定置カメラ画像と衛星画像(または航空画像。俯瞰画像の例)の対応関係を定義したDBである。ここで、図4を参照して、実施形態における定置カメラ画像と衛星画像の対応関係について説明する。
The
図4は、実施形態における定置カメラ画像と衛星画像の対応関係を説明するための図である。位置DB221では、車両5の移動可能範囲について、図4(a)に示す定置カメラ画像における各画素と、図4(b)に示す衛星画像における各画素と、が対応付けられている。したがって、この位置DB221を参照することで、定置カメラ画像における画素に対応する衛星画像における画素を特定することができる。また、この位置DB221は、定置カメラ画像と衛星画像の間の複数組の対応点の座標を元に生成した射影変換行列によって実現してもよい。
FIG. 4 is a diagram for explaining the correspondence relationship between the stationary camera image and the satellite image in the embodiment. In the
図2に戻って、変換テーブル222は、衛星画像の画素の座標と、衛星画像の位置情報と、が対応付けられたテーブルである。ここで、図5を参照して、実施形態の変換テーブル222について説明する。 Returning to FIG. 2, the conversion table 222 is a table in which the coordinates of the pixels of the satellite image and the position information of the satellite image are associated with each other. Here, the conversion table 222 of the embodiment will be described with reference to FIG.
図5は、実施形態の変換テーブル222を示す図である。変換テーブル222では、衛星画像の画素の座標(X座標、Y座標)と、衛星画像の高精度な位置情報(緯度、経度、標高)と、が対応付けられている。 FIG. 5 is a diagram showing the conversion table 222 of the embodiment. In the conversion table 222, the coordinates (X coordinate, Y coordinate) of the pixels of the satellite image are associated with highly accurate position information (latitude, longitude, altitude) of the satellite image.
図2に戻って、第1車両情報223は、定置カメラ画像に基づいて検出された車両の情報である。第1車両情報223は、例えば、以下の(1)~(11)の情報を含む。
(1)撮影日時
(2)定置カメラ画像のフレーム番号
(3)車両を囲む矩形の代表点(例えば、左上と右下)の座標
(4)ワイヤーフレームの底面中心座標
(5)車種(普通車/トラック/バス等)
(6)車体色情報(例えば、RGB(Red,Green,Blue)ヒストグラム)
(7)追跡ID(Identifier)(時系列の車両追跡時)
(8)位置情報(緯度、経度、標高)
(9)車両の向き
(10)走行方向(進行方向)
(11)走行している車線情報
Returning to FIG. 2, the
(1) Shooting date and time (2) Frame number of stationary camera image (3) Coordinates of representative points (for example, upper left and lower right) of rectangle surrounding vehicle (4) Bottom center coordinates of wire frame (5) Vehicle type (ordinary vehicle) / truck / bus etc.)
(6) Body color information (for example, RGB (Red, Green, Blue) histogram)
(7) Tracking ID (Identifier) (when tracking vehicles in chronological order)
(8) Location information (latitude, longitude, altitude)
(9) Direction of vehicle (10) Driving direction (advancing direction)
(11) Driving lane information
なお、(1)~(11)のうち、(1)、(2)は定置カメラ画像から得られる。(3)~(11)は、処理部21の処理によって得られる。
Among (1) to (11), (1) and (2) are obtained from the stationary camera image. (3) to (11) are obtained by the processing of the
処理部21は、PC2の全体の動作を制御し、PC2が有する各種の機能を実現する。処理部21は、例えば、CPU(Central Processing Unit)と、ROM(Read Only Memory)と、RAM(Random Access Memory)と、を備える。CPUは、PC2の動作を統括的に制御する。ROMは、各種プログラムやデータを記憶する記憶媒体である。RAMは、各種プログラムを一時的に記憶したり、各種データを書き換えたりするための記憶媒体である。CPUは、RAMをワークエリア(作業領域)としてROM、記憶部22等に格納されたプログラムを実行する。処理部21は、機能部として、取得部211と、検出部212と、特定部213と、抽出部214と、制御部215と、を備える。
The
取得部211は、外部装置(例えば、定置カメラ3、位置管理サーバ1等)から各種情報を取得する。取得部211は、例えば、定置カメラ3から撮影画像を取得する撮影画像取得部として機能する。
The acquisition unit 211 acquires various types of information from an external device (eg, the
検出部212は、DNN(Deep Neural Network)などの手法に基づいて、定置カメラ画像から車両を検出する。 A detection unit 212 detects a vehicle from a stationary camera image based on a technique such as DNN (Deep Neural Network).
特定部213は、例えば、位置DB221と変換テーブル222に基づいて、定置カメラ画像に写っている車両に適用したワイヤーフレームの底面の中心位置と対応する衛星画像における位置に基づいて、車両の実位置情報を特定する。
For example, based on the
抽出部214は、撮影画像から車両の所定の特徴情報を抽出する。所定の特徴情報は、例えば、車両の種類を示す車種情報である。その場合、抽出部214は、撮影画像から車両の車種情報を抽出する。抽出部214は、撮影画像から車両の車種情報を抽出する場合に、撮影画像に写っている車両5の姿勢を推定し、姿勢に基づいて車両を直方体のワイヤーフレームで表現し、ワイヤーフレームに基づいて外観特徴、車幅、車長、車高を算出する。そして、抽出部214は、算出した外観特徴、車幅、車長、車高と、予め外観特徴、車幅、車長、車高と車種情報が対応付けられている車種判別用テーブル224(車種対応情報)と、に基づいて、車両の車種情報を抽出する。
The extraction unit 214 extracts predetermined characteristic information of the vehicle from the captured image. The predetermined feature information is, for example, vehicle type information indicating the type of vehicle. In that case, the extraction unit 214 extracts vehicle type information from the captured image. When extracting the vehicle type information from the captured image, the extraction unit 214 estimates the orientation of the
ここで、図6、図7等を用いて、車種判定等について説明する。まず、図3(c)と図6を参照して、車高の算出法の例について説明する。 Here, vehicle type determination and the like will be described with reference to FIGS. 6, 7, and the like. First, an example of a vehicle height calculation method will be described with reference to FIGS. 3(c) and 6. FIG.
図6は、実施形態における車高の算出法の例を説明するための図である。ワイヤーフレームの底面の角の4点(図3(c)のP1~P4)の座標を地図へ射影変換する。次に、射影変換後の4点のGPS座標を求め、座標の差を距離に変換することで、車幅(P1とP3の間の長さ)と車長(P1とP2の間の長さ)を算出する。例えば、同じ車両の複数の撮影画像のそれぞれのワイヤーフレームに対してこれらの処理を繰り返し、平均を求める。 FIG. 6 is a diagram for explaining an example of a vehicle height calculation method according to the embodiment. The coordinates of the four points (P1 to P4 in FIG. 3(c)) at the corners of the bottom surface of the wire frame are projectively transformed onto the map. Next, by calculating the GPS coordinates of the four points after projective transformation and converting the difference in coordinates into a distance, the vehicle width (the length between P1 and P3) and the vehicle length (the length between P1 and P2) ) is calculated. For example, these processes are repeated for each wire frame of a plurality of captured images of the same vehicle, and an average is obtained.
次に、車高の算出法について説明する。まず、ワイヤーフレームの底面における車長の両端であるP1とP2を選択する。 Next, a method for calculating the vehicle height will be described. First, P1 and P2, which are both ends of the vehicle length at the bottom of the wire frame, are selected.
次に、ワイヤーフレームにおける車高の両端であるP1とP1hを選択する。
次に、P1の画面x座標よりもNピクセルだけ左の座標をP1a(x1-N,y1)とする。
また、P1の画面x座標よりもNピクセルだけ右の座標をP1b(x1+N,y1)とする。
Next, P1 and P1h, which are both ends of the vehicle height in the wire frame, are selected.
Next, let P1a (x1−N, y1) be the coordinate that is N pixels to the left of the screen x coordinate of P1.
Also, let P1b (x1+N, y1) be the coordinate that is N pixels to the right of the screen x coordinate of P1.
同様に、P2の画面x座標よりもNピクセルだけ左の座標をP2a(x2-N,y2)とする。
また、P1の画面x座標よりもNピクセルだけ右の座標をP2b(x2+N,y2)とする。
Similarly, let P2a (x2-N, y2) be the coordinate that is N pixels to the left of the screen x-coordinate of P2.
Also, let P2b (x2+N, y2) be the coordinate that is N pixels to the right of the screen x coordinate of P1.
次に、P1aとP1bの画面座標を射影変換し、緯度と経度を算出する。
次に、車幅と車長の算出値と画像上の画素数の関係から、画素間の概略の長さ(画面上の位置によって異なる点も考慮。)を算出できるため、その値を用いてP1aとP1bの間の距離1を求める。P1に関して、x座標のピクセル間の距離11は、距離1÷2Nで算出できる。
Next, the screen coordinates of P1a and P1b are projectively transformed to calculate the latitude and longitude.
Next, from the relationship between the calculated values for the vehicle width and length and the number of pixels on the image, it is possible to calculate the approximate length between pixels (considering that it varies depending on the position on the screen), so that value can be used. Determine the distance 1 between P1a and P1b. For P1, the distance 11 between the x-coordinate pixels can be calculated as the distance 1÷2N.
同様に、P2に関して、x座標のピクセル間の距離12は、(P2aとP2bの間の距離2)÷2Nで算出できる。
Similarly, for P2, the
車高は、(距離11と距離12の平均)×(P1のy座標-P1hのy座標)(図6の距離D)となる。また、図6に示すように、定置カメラ3の画角α(画面のy座標によって変動)による補正を、次の式に基づいて行う。
実際の車高H=距離D÷cos(画角α)
The vehicle height is (average of distance 11 and distance 12)×(y coordinate of P1−y coordinate of P1h) (distance D in FIG. 6). Further, as shown in FIG. 6, correction based on the angle of view α of the stationary camera 3 (varying according to the y-coordinate of the screen) is performed based on the following equation.
Actual vehicle height H = distance D ÷ cos (angle of view α)
次に、図7を参照して、実施形態における車種判別用テーブル224の例について説明する。
図7は、実施形態における車種判別用テーブル224の例を示す図である。情報(21)と情報(22)を用いて、定置カメラ3から検出した車両の車種を推定する。
Next, an example of the vehicle type determination table 224 in the embodiment will be described with reference to FIG.
FIG. 7 is a diagram showing an example of the vehicle type discrimination table 224 in the embodiment. Using the information (21) and the information (22), the vehicle type of the vehicle detected by the fixed
情報(21)は、DL/DNNを用いた外観特徴に基づく車種分類である。情報(22)は、ワイヤーフレームを用いた車両寸法計測の結果に基づく車幅、車長、車高の情報である。情報(21)だけでは、外観が類似しているがサイズが異なる車両を区別することは困難である。しかし、さらに情報(22)を用いることで、そのような区別が可能になる。 Information (21) is a vehicle type classification based on appearance features using DL/DNN. Information (22) is information on vehicle width, vehicle length, and vehicle height based on the result of vehicle dimension measurement using a wire frame. With information (21) alone, it is difficult to distinguish vehicles that are similar in appearance but differ in size. However, with the additional information (22) such a distinction is possible.
また、車種ごとの車幅、車長、車高の情報は、事前に定義しておく。これにより、車種判別用テーブル224と情報(21)と情報(22)を用いて、車種の高精度な推定が可能となる。 In addition, information on vehicle width, vehicle length, and vehicle height for each vehicle type is defined in advance. As a result, the vehicle type can be estimated with high accuracy using the vehicle type identification table 224, the information (21), and the information (22).
なお、この手法で判定結果が不安定になる場合、例えば、情報(21)よりも情報(22)を優先する。また、情報(22)における車幅、車長、車高の計測値のいずれかが、車種判別用テーブル224で定義されている各車種の標準寸法の範囲に収まらない場合、例えば、3つの計測値と標準寸法の誤差が一番小さい車種を選択する。 Note that if this method makes the determination result unstable, for example, the information (22) is prioritized over the information (21). Also, if any of the vehicle width, vehicle length, and vehicle height measurement values in the information (22) does not fall within the range of standard dimensions for each vehicle type defined in the vehicle type identification table 224, for example, three measurements Select the car model with the smallest error between the value and the standard dimension.
図2に戻って、抽出部214は、例えば、撮影画像から車両5の車体色情報を抽出する。抽出部214は、撮影画像から車両5の車体色情報を抽出する場合に、撮影画像に写っている車両5の姿勢を推定し、姿勢に基づいて車両を直方体のワイヤーフレームで表現し、ワイヤーフレームの内部の車両5の部分の画像であるクロップ画像に基づいて、色情報をクラスタリングすることで車体色情報として代表2色を抽出する。
Returning to FIG. 2, the extraction unit 214 extracts body color information of the
ここで、図8を参照して、実施形態における車体色(車両5の色)判定法の例について説明する。
図8は、実施形態における車体色判定法の例を説明するための図である。以下の処理(31)~(35)によって、車体色を判定する。
Here, with reference to FIG. 8, an example of the body color (color of the vehicle 5) determination method in the embodiment will be described.
FIG. 8 is a diagram for explaining an example of the vehicle body color determination method in the embodiment. The body color is determined by the following processes (31) to (35).
まず、処理(31)において、撮影画像におけるワイヤーフレームの内部の車両5の部分の画像であるクロップ画像を抽出する。
First, in processing (31), a cropped image, which is an image of the portion of the
次に、処理(32)において、クロップ画像からクラスタリング手法を用いて色情報を取得する。つまり、クロップ画像内には、明るさや色みが微妙に異なる複数種類の色が含まれるため、クラスタリングによって類似した色を一塊にすることで、5色~7色にまとめて色情報を抽出する。 Next, in process (32), color information is obtained from the cropped image using a clustering method. In other words, since the cropped image contains multiple types of colors with slightly different brightness and color, by clustering similar colors together, 5 to 7 colors are collected and color information is extracted. .
次に、処理(33)において、色情報をヒストグラムで表現する(正規化してもよい)。
次に、処理(34)において、車両のタイヤの黒成分を取り除く。例えば、車体が黒色の場合、黒成分の一定割合(例えば10%)を取り除く。
Next, in process (33), the color information is represented by a histogram (may be normalized).
Next, in process (34), the black component of the vehicle tires is removed. For example, if the body is black, a certain percentage (eg 10%) of the black component is removed.
次に、処理(35)において、色ヒストグラムに基づいて、車体色を代表2色で表現する。例えば、色ヒストグラムで最頻値の色を本体色とし、色ヒストグラムで頻度が2番目の色や車両を特徴づける色(周囲車両にはない色)などを補助色とする。なお、本体色と補助色を区別しないで代表2色としてもよい。 Next, in process (35), the body color is represented by two representative colors based on the color histogram. For example, the color with the most frequent value in the color histogram is set as the main color, and the color with the second highest frequency in the color histogram or the color that characterizes the vehicle (color that is not found in surrounding vehicles) is set as the auxiliary color. Note that two representative colors may be used without distinguishing between the main color and the auxiliary color.
このようにして、車体色を判定できる。なお、車の向きにより、ガラス部分の光の反射の具合などによって車体色の判定結果が変わる可能性があるので、例えば、複数フレームの画像を用いて判定した結果の多数決をとればよいが、これに限定されない。 In this way, the body color can be determined. Note that, depending on the orientation of the car and the degree of reflection of light on the glass, the result of determining the body color may change. It is not limited to this.
次に、図9を参照して、実施形態における車体色判定結果の例について説明する。
図9は、実施形態における車体色判定結果の例を示す図である。左に示す撮影画像に対して、車体色判定を行った。撮影画像から検出した6台の車両に関して、本体色として、上から順に白、青、黒、青、黒、緑と判定することができた。
Next, with reference to FIG. 9, an example of the vehicle body color determination result in the embodiment will be described.
FIG. 9 is a diagram showing an example of body color determination results in the embodiment. Body color determination was performed on the photographed image shown on the left. The body colors of the six vehicles detected from the captured images were determined to be white, blue, black, blue, black, and green in order from the top.
図2に戻って、抽出部214は、例えば、時系列に複数の撮影画像から車両の進行方向情報を抽出する。
また、抽出部214は、例えば、撮影画像から車両が走行する車線情報を抽出する。
Returning to FIG. 2, the extracting unit 214 extracts traveling direction information of the vehicle from a plurality of captured images in time series, for example.
The extraction unit 214 also extracts, for example, lane information along which the vehicle travels from the captured image.
制御部215は、各種情報処理を実行する。また、制御部215は、上述の(3)~(11)のうち、特定部213と抽出部214によって生成されない情報を適宜生成する。 The control unit 215 executes various types of information processing. Further, the control unit 215 appropriately generates information that is not generated by the identifying unit 213 and the extracting unit 214 among the above (3) to (11).
入力部23は、PC2に対するユーザの操作を受け付ける。入力部23は、例えば、キーボード、マウス等の入力装置である。
The
表示部24は、各種情報を表示する。表示部24は、例えば、液晶表示装置(LCD(Liquid Crystal Display))、有機EL(Electro-Luminescence)表示装置等である。
The
通信部25は、外部装置(例えば、定置カメラ3、位置管理サーバ1等)と通信を行うための通信インタフェースである。
The
次に、位置管理サーバ1について説明する。位置管理サーバ1は、コンピュータ装置であり、処理部11と、記憶部12と、入力部13と、表示部14と、通信部15と、を備える。
Next, the location management server 1 will be explained. The location management server 1 is a computer device and includes a processing section 11 , a
記憶部12は、HDDやSSDなどの記憶装置であり、各種情報を記憶する。記憶部12は、例えば、第1車両情報121と、第2車両情報122と、対応情報123と、を記憶する。
The
第1車両情報121は、PC2における第1車両情報223と同様である。
The
第2車両情報122は、車両5における第2車両情報51と同様である。第2車両情報51は、例えば、以下の(16)~(18)の情報を含む。
(16)GPS日時
(17)GPS位置情報(緯度、経度、標高)
(18)ETC登録情報(車載機番号、登録番号/車両番号、牽引装置有無情報など)
The
(16) GPS date and time (17) GPS location information (latitude, longitude, altitude)
(18) ETC registration information (in-vehicle device number, registration number/vehicle number, traction device presence/absence information, etc.)
対応情報123は、同一の車両5について、第1車両情報121と第2車両情報122を対応付けた情報である。
The
処理部11は、位置管理サーバ1の全体の動作を制御し、位置管理サーバ1が有する各種の機能を実現する。処理部11は、例えば、CPUと、ROMと、RAMと、を備える。CPUは、位置管理サーバ1の動作を統括的に制御する。ROMは、各種プログラムやデータを記憶する記憶媒体である。RAMは、各種プログラムを一時的に記憶したり、各種データを書き換えたりするための記憶媒体である。CPUは、RAMをワークエリア(作業領域)としてROM、記憶部12等に格納されたプログラムを実行する。処理部11は、機能部として、取得部111と、制御部112と、を備える。
The processing unit 11 controls the overall operation of the location management server 1 and implements various functions of the location management server 1 . The processing unit 11 includes, for example, a CPU, a ROM, and a RAM. The CPU comprehensively controls the operation of the location management server 1 . The ROM is a storage medium that stores various programs and data. RAM is a storage medium for temporarily storing various programs and rewriting various data. The CPU uses the RAM as a work area and executes programs stored in the ROM, the
取得部111は、外部装置(例えば、PC2、地図管理サーバ4等)から各種情報を取得する。取得部111は、例えば、PC2から第1車両情報223を取得して、記憶部12に第1車両情報121として保存する。また、取得部111は、例えば、車両5から第2車両情報51を取得して、記憶部12に第2車両情報122として保存する。
Acquisition unit 111 acquires various types of information from an external device (eg,
また、取得部111は、所定の領域を移動している車両5から、GPSまたはGNSSに基づく車両5の位置情報を取得する位置情報取得部として機能する。
The acquisition unit 111 also functions as a position information acquisition unit that acquires position information of the
また、取得部111は、車両5または外部装置6から、車両5に関する所定の特徴情報(車種情報、車体色情報、進行方向情報、車線情報など)を取得する特徴情報取得部として機能する。外部装置6は、特徴情報を管理するコンピュータ装置である。
The acquisition unit 111 also functions as a feature information acquisition unit that acquires predetermined feature information (vehicle type information, body color information, traveling direction information, lane information, etc.) regarding the
制御部112は、各種情報処理を実行する。制御部112は、例えば、車両5の実位置情報と、位置情報取得部(取得部111)によって取得された位置情報と、特徴情報取得部(取得部111)によって取得された所定の特徴情報と、抽出部214によって抽出された所定の特徴情報と、に基づいて、撮影画像に写っている車両5と、位置情報取得部(取得部111)によって取得された位置情報を送信した車両5と、を対応付ける。対応付けた情報は、対応情報123に格納される。
The control unit 112 executes various types of information processing. The control unit 112, for example, acquires the actual position information of the
制御部112は、上述の対応付けを行った後に、例えば、第1車両情報121における「(8)位置情報(緯度、経度、標高)」等の情報を地図管理サーバ4に送信する。これにより、地図管理サーバ4は、高精度な「(8)位置情報(緯度、経度、標高)」を補助情報として用いてダイナミックマップ41を更新することができる。
After performing the above-described association, the control unit 112 transmits information such as “(8) position information (latitude, longitude, altitude)” in the
また、制御部112は、例えば、第1車両情報121における「(8)位置情報(緯度、経度、標高)」等の情報を、該当する車両5に送信する。これにより、車両5は、高精度な「(8)位置情報(緯度、経度、標高)」を活用することができる。
Also, the control unit 112 transmits information such as “(8) position information (latitude, longitude, altitude)” in the
入力部13は、位置管理サーバ1に対するユーザの操作を受け付ける。入力部13は、例えば、キーボード、マウス等の入力装置である。
The
表示部14は、各種情報を表示する。表示部14は、例えば、液晶表示装置(LCD)、有機EL表示装置等である。
The
通信部15は、外部装置(例えば、PC2、地図管理サーバ4等)と通信を行うための通信インタフェースである。
The
次に、図10を参照して、実施形態のPC2による処理について説明する。
図10は、実施形態のPC2による処理を示すフローチャートである。
まず、ステップS1において、取得部211は、定置カメラ3から定置カメラ画像を取得する。
Next, referring to FIG. 10, processing by the
FIG. 10 is a flow chart showing processing by the
First, in step S<b>1 , the acquisition unit 211 acquires a stationary camera image from the
次に、ステップS2において、検出部212は、DNNなどの手法に基づいて、定置カメラ画像に写っている車両5(移動物体)を検出する。 Next, in step S2, the detection unit 212 detects the vehicle 5 (moving object) captured in the stationary camera image based on a technique such as DNN.
次に、ステップS3において、特定部213は、車両5(移動物体)の位置情報を特定する。ここで、図11を参照して、図10のステップS3の処理の詳細について説明する。 Next, in step S3, the identification unit 213 identifies the position information of the vehicle 5 (moving object). Details of the process of step S3 in FIG. 10 will now be described with reference to FIG.
図11は、図10のステップS3の処理の詳細を示すフローチャートである。
ステップS31において、特定部213は、位置DB221を参照して、定置カメラ画像を衛星画像に座標変換する(図4)。
FIG. 11 is a flow chart showing details of the processing in step S3 of FIG.
In step S31, the specifying unit 213 refers to the
次に、ステップS32において、特定部213は、衛星画像における車両5(移動物体)に適用したワイヤーフレームの底面中心座標を算出する(図3(c))。次に、ステップS33において、特定部213は、変換テーブル222を参照して、衛星画像における車両の底面中心座標を位置情報(緯度、経度、標高)に変換する。 Next, in step S32, the specifying unit 213 calculates bottom center coordinates of the wire frame applied to the vehicle 5 (moving object) in the satellite image (FIG. 3(c)). Next, in step S33, the identification unit 213 refers to the conversion table 222 and converts the bottom center coordinates of the vehicle in the satellite image into position information (latitude, longitude, altitude).
図10に戻って、ステップS3の後、ステップS4において、制御部215は、第1車両情報223を生成する。次に、ステップS5において、制御部215は、第1車両情報223を位置管理サーバ1に送信する。
Returning to FIG. 10, after step S3, the control unit 215 generates the
次に、図12を参照して、実施形態の位置管理サーバ1による処理について説明する。
図12は、実施形態の位置管理サーバ1による処理を示すフローチャートである。
まず、ステップS41において、取得部111は、PC2から第1車両情報223を取得して、記憶部12に第1車両情報121として保存する。
Next, processing by the location management server 1 of the embodiment will be described with reference to FIG. 12 .
FIG. 12 is a flowchart showing processing by the location management server 1 of the embodiment.
First, in step S<b>41 , the acquisition unit 111 acquires the
次に、ステップS42において、取得部111は、車両5から第2車両情報51を取得して、記憶部12に第2車両情報122として保存する。
Next, in step S<b>42 , the acquisition unit 111 acquires the second vehicle information 51 from the
次に、ステップS43において、制御部112は、同一の車両5について、第1車両情報121と第2車両情報122の対応付けを行い、処理結果を、記憶部12に対応情報123として保存する。ここで、図13を参照して、図12のステップS43の処理の詳細について説明する。
Next, in step S<b>43 , the control unit 112 associates the
図13は、図12のステップS43の処理の詳細を示すフローチャートである。
ステップS431において、制御部112は、位置(車線を含む)で絞り込む。例えば、第1車両情報121の(8)位置情報(緯度、経度、標高)と第2車両情報122の(17)GPS位置情報を用いて対応付けを行う。この対応付けは、地図座標系(緯度、経度)の位置情報を用いて行うが、(17)GPS位置情報の精度が悪かったり、道路には複数台の車両5が存在したりすることにより、難しい場合がある。
FIG. 13 is a flow chart showing the details of the processing in step S43 of FIG.
In step S431, the control unit 112 narrows down by position (including lane). For example, (8) positional information (latitude, longitude, altitude) of the
次に、ステップS432において、制御部112は、車両5の進行方向や速度で絞り込む。進行方向については、例えば、直進車同士や左折車同士で対応付ける。次に、ステップS433において、制御部112は、車種、車体色で絞り込む。車体色については、例えば、代表2色を用いて対応付ける。
Next, in step S<b>432 , the control unit 112 narrows down according to the traveling direction and speed of the
なお、ステップS431~S433の処理の順番等はこれに限定されない。例えば、ステップS432とステップS433の順番を逆にしてもよいし、あるいは、ステップS431~S433の一巡目の処理で対応付けが成功しなければ、さらに二巡目の処理を行ってもよい。また、絞り込むための各要素を順番に使用するのではなく、同時に並行して使用してもよいし、絞り込める確率が高い要素を優先的に使用してもよい。また、車両5を1台ずつではなく、3,4台程度でまとめて対応付けしてもよい。
Note that the order of the processing of steps S431 to S433 is not limited to this. For example, the order of steps S432 and S433 may be reversed, or if the matching is not successful in the first round of processing of steps S431 to S433, the second round of processing may be performed. In addition, instead of using the elements for narrowing down in order, they may be used concurrently, or elements with a high probability of narrowing down may be preferentially used. In addition, the
図12に戻って、ステップS43の後、ステップS44において、制御部112は、第1車両情報121における「(8)位置情報(緯度、経度、標高)」等の情報を地図管理サーバ4に送信する。
Returning to FIG. 12, in step S44 after step S43, the control unit 112 transmits information such as "(8) position information (latitude, longitude, altitude)" in the
次に、ステップS45において、制御部112は、第1車両情報121における「(8)位置情報(緯度、経度、標高)」等の情報を、該当する車両5に送信する。
Next, in step S<b>45 , the control unit 112 transmits information such as “(8) position information (latitude, longitude, altitude)” in the
次に、図14を参照して、実施形態の位置管理サーバ1による他の処理について説明する。
図14は、実施形態の位置管理サーバ1による他の処理を示すフローチャートである。第1車両情報121に基づいて認識される車両の数と、第2車両情報122に基づいて認識される車両の数が異なる場合が考えられる。ここでは、第2車両情報122に基づいて認識される車両の数は正しいと仮定する。
Next, other processing by the location management server 1 of the embodiment will be described with reference to FIG. 14 .
FIG. 14 is a flow chart showing another process by the location management server 1 of the embodiment. The number of vehicles recognized based on the
その場合、夜間や悪天候などの悪条件によって、定置カメラ画像に基づく車両の検出精度が低下することがある。具体的には、道路を走行する車両の台数に対して、定置カメラ画像から検出される車両矩形数が少なかったり多かったりすることが考えられる。 In that case, the vehicle detection accuracy based on the stationary camera image may deteriorate due to adverse conditions such as nighttime or bad weather. Specifically, it is conceivable that the number of vehicle rectangles detected from the stationary camera image may be smaller or larger than the number of vehicles traveling on the road.
車両矩形数が少ない場合は、車両検出の条件が厳しすぎる場合である。また、車両矩形数が多い場合は、車両検出の条件が緩すぎる場合である。そこで、図14の処理を行う。 If the number of vehicle rectangles is small, the conditions for vehicle detection are too strict. Further, when the number of vehicle rectangles is large, the condition for vehicle detection is too loose. Therefore, the processing of FIG. 14 is performed.
まず、ステップS51において、制御部112は、第2車両情報122を用いて、車両の数である第2車両数(N2)を算出する。
First, in step S51, the control unit 112 uses the
次に、ステップS52において、制御部112は、第1車両情報121を用いて、車両の数である第1車両数(N1)を算出する。
Next, in step S52, the control unit 112 uses the
次に、ステップS53において、制御部112は、(N2-N1)が第1閾値(例えば3~5程度など)よりも多いか否かを判定し、Yesの場合はステップS54に進み、Noの場合はステップS55に進む。 Next, in step S53, the control unit 112 determines whether or not (N2-N1) is greater than a first threshold value (for example, about 3 to 5). If so, the process proceeds to step S55.
ステップS54において、制御部112は、N1が増えるように、PC2の検出部212が定置カメラ画像による車両検出に用いるDNNにおける辞書切替(昼夜別モデルの切替、天候別モデルの切替等)やパラメータ調整を行う。ステップS54の後、ステップS52に戻る。 In step S54, the control unit 112 switches dictionaries (switching between day and night models, switching between weather models, etc.) and adjusts parameters in the DNN used by the detection unit 212 of the PC2 for vehicle detection using stationary camera images so that N1 increases. I do. After step S54, the process returns to step S52.
ステップS55において、制御部112は、(N1-N2)が第2閾値(例えば3~5程度など)よりも多いか否かを判定し、Yesの場合はステップS56に進み、Noの場合は処理を終了する。 In step S55, the control unit 112 determines whether or not (N1-N2) is greater than a second threshold value (for example, about 3 to 5). If Yes, proceed to step S56. exit.
ステップS56において、制御部112は、N1が減るように、PC2の検出部212が定置カメラ画像による車両検出に用いるDNNにおける辞書切替やパラメータ調整を行う。ステップS56の後、ステップS52に戻る。このようにして、必要に応じて辞書切替やパラメータ調整を行うことで、N1とN2の数を近づけ、車両の位置情報の特定を適切に行うことができる。 In step S56, the control unit 112 performs dictionary switching and parameter adjustment in the DNN used by the detection unit 212 of the PC2 for vehicle detection using a fixed camera image so as to reduce N1. After step S56, the process returns to step S52. In this way, by switching dictionaries and adjusting parameters as necessary, the numbers of N1 and N2 can be brought close to each other, and the position information of the vehicle can be specified appropriately.
このようにして、本実施形態の位置管理システムSによれば、定置カメラ画像から特定された車両の位置情報と、車両から取得したGPS位置情報と、に加えて、所定の特徴情報(車種情報、車体色情報、進行方向情報、車線情報など)を用いることで、移動物体(車両)の高精度な位置情報を低コストで得ることができる。 In this way, according to the position management system S of the present embodiment, in addition to the vehicle position information specified from the fixed camera image and the GPS position information acquired from the vehicle, predetermined characteristic information (vehicle type information , body color information, traveling direction information, lane information, etc.), highly accurate position information of a moving object (vehicle) can be obtained at low cost.
また、車種情報を用いる場合は、図7で説明した手法を用いることで、高精度な対応付けを行うことができる。 Also, when vehicle type information is used, highly accurate association can be performed by using the method described with reference to FIG.
また、車体色情報を用いる場合は、図8で説明した手法を用いることで、高精度な対応付けを行うことができる。 Further, when body color information is used, highly accurate association can be performed by using the method described with reference to FIG. 8 .
また、車両の位置情報を地図管理サーバ4に送信することで、地図管理サーバ4は、この高精度な位置情報を補助情報として用いてダイナミックマップ41を適切に更新することができる。 Further, by transmitting the vehicle position information to the map management server 4, the map management server 4 can appropriately update the dynamic map 41 using this highly accurate position information as auxiliary information.
また、車両の位置情報を該当する車両5に送信することで、車両5は、この高精度な位置情報を自律走行(自動運転等)等に有効活用することができる。
In addition, by transmitting the position information of the vehicle to the
実施形態の位置管理サーバ1、PC2で実行されるプログラムは、上述した各機能部を含むモジュール構成となっており、実際のハードウェアとしてはCPU(プロセッサ)が上記ROMから当該プログラムを読み出して実行することにより上記各機能部が主記憶装置上にロードされ、主記憶装置上に生成されるようになっている。
The program executed by the location management server 1 and the
当該プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD-ROM、フレキシブルディスク、CD-R、DVD等のコンピュータで読み取り可能な記録媒体に記録されて提供される。 The program is recorded in a computer-readable recording medium such as a CD-ROM, a flexible disk, a CD-R, and a DVD as an installable or executable file.
また、当該プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、当該プログラムをインターネット等のネットワーク経由で提供または配布するように構成しても良い。また、当該プログラムを、ROM等に予め組み込んで提供するように構成しても良い。 Alternatively, the program may be stored in a computer connected to a network such as the Internet, and provided by being downloaded via the network. Also, the program may be configured to be provided or distributed via a network such as the Internet. Alternatively, the program may be configured to be pre-installed in a ROM or the like and provided.
以上、本発明の実施形態を説明したが、上記実施形態はあくまで例であって、発明の範囲を限定することは意図していない。上記実施形態は、様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。上記実施形態は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although the embodiment of the present invention has been described above, the above embodiment is merely an example and is not intended to limit the scope of the invention. The above embodiments can be implemented in various forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. The above embodiments are included in the scope and gist of the invention, and are included in the scope of the invention described in the claims and equivalents thereof.
例えば、移動物体は、車両に限定されず、ほかに、例えば、工場内の移動体(運搬車。移動ロボット等)などの他の移動物体であってもよい。 For example, the moving object is not limited to a vehicle, and may be another moving object such as a moving object (transportation vehicle, mobile robot, etc.) in a factory.
また、位置管理サーバ1とPC2の機能は、1つのコンピュータ装置によって実現してもよいし、あるいは、3つ以上のコンピュータ装置によって実現してもよい。
Also, the functions of the location management server 1 and the
また、定置カメラ画像に歪みがある場合は、画像中の横断歩道の白線が直線になるようになどして画像補正してもよい。また、衛星画像について、歪みがある場合は同様にして画像補正してもよい。 Also, if the stationary camera image is distorted, the image may be corrected by, for example, straightening the white lines of the pedestrian crossing in the image. Also, if the satellite image is distorted, the image may be corrected in the same manner.
また、第2車両情報は、GPSではなくGNSS等の他の手法により生成してもよい。 Also, the second vehicle information may be generated by other methods such as GNSS instead of GPS.
また、1つの撮影エリアに対して、定置カメラ3を複数設置し、複数の定置カメラ画像を用いてもよい。
Also, a plurality of fixed
1…位置管理サーバ、2…PC、3…定置カメラ、4…地図管理サーバ、5…車両、11…処理部、12…記憶部、13…入力部、14…表示部、15…通信部、21…処理部、22…記憶部、23…入力部、24…表示部、25…通信部、41…ダイナミックマップ、51…第2車両情報、111…取得部、112制御部、121…第1車両情報、122…第2車両情報、123…対応情報、211…取得部、212…検出部、213…特定部、214…抽出部、215…制御部、221…位置DB、222…変換テーブル、223…第1車両情報、224…車種判別用テーブル、S…位置管理システム
DESCRIPTION OF SYMBOLS 1...
Claims (9)
前記撮影画像から前記移動物体を検出する検出部と、
前記定置カメラによる撮影画像の各部分に対して予め実位置情報が対応付けられている位置対応情報に基づいて、前記撮影画像に写っている前記移動物体の実位置情報を特定する特定部と、
前記所定の領域を移動している前記移動物体から、GPS(Global Positioning System)またはGNSS(Global Navigation Satellite System)に基づく前記移動物体の位置情報を取得する位置情報取得部と、
前記移動物体または外部装置から、前記移動物体に関する所定の特徴情報を取得する特徴情報取得部と、
前記撮影画像から前記移動物体の前記所定の特徴情報を抽出する抽出部と、
前記特定部によって特定された前記実位置情報と、前記位置情報取得部によって取得された前記位置情報と、前記特徴情報取得部によって取得された前記所定の特徴情報と、前記抽出部によって抽出された前記所定の特徴情報と、に基づいて、前記撮影画像に写っている前記移動物体と、前記位置情報取得部によって取得された前記位置情報を送信した前記移動物体と、を対応付ける制御部と、
を備える位置管理システム。 a captured image acquisition unit configured to acquire a captured image from a stationary camera that captures a predetermined area in which a moving object moves;
a detection unit that detects the moving object from the captured image;
a specifying unit that specifies the real position information of the moving object appearing in the photographed image based on position correspondence information in which real position information is associated in advance with each part of the photographed image by the stationary camera;
a position information acquisition unit that acquires position information of the moving object based on GPS (Global Positioning System) or GNSS (Global Navigation Satellite System) from the moving object moving in the predetermined area;
a feature information acquisition unit that acquires predetermined feature information about the moving object from the moving object or an external device;
an extraction unit that extracts the predetermined feature information of the moving object from the captured image;
The actual position information specified by the specifying unit, the position information acquired by the position information acquisition unit, the predetermined feature information acquired by the feature information acquisition unit, and the a control unit that associates the moving object appearing in the captured image with the moving object that transmitted the position information acquired by the position information acquisition unit, based on the predetermined feature information;
location management system.
前記所定の特徴情報は、前記車両の種類を示す車種情報であり、
前記特徴情報取得部は、前記車両または前記外部装置から、前記車両に関する所定の特徴情報として前記車種情報を取得し、
前記抽出部は、前記撮影画像から前記車両の前記車種情報を抽出する、請求項1に記載の位置管理システム。 the moving object is a vehicle,
The predetermined characteristic information is vehicle type information indicating the type of the vehicle,
The feature information acquisition unit acquires the vehicle type information as predetermined feature information about the vehicle from the vehicle or the external device,
2. The position management system according to claim 1, wherein said extraction unit extracts said vehicle type information of said vehicle from said photographed image.
前記撮影画像に写っている前記車両の姿勢を推定し、前記姿勢に基づいて前記車両を直方体のワイヤーフレームで表現し、前記ワイヤーフレームに基づいて外観特徴、車幅、車長、車高を算出し、算出した前記外観特徴、前記車幅、前記車長、前記車高と、予め外観特徴、車幅、車長、車高と車種情報が対応付けられている車種対応情報と、に基づいて、前記車両の前記車種情報を抽出する、請求項2に記載の位置管理システム。 When extracting the vehicle type information of the vehicle from the captured image, the extraction unit
Estimating the attitude of the vehicle in the captured image, representing the vehicle in a rectangular parallelepiped wire frame based on the attitude, and calculating exterior features, vehicle width, vehicle length, and vehicle height based on the wire frame. Then, based on the calculated exterior features, the vehicle width, the vehicle length, and the vehicle height, and the vehicle type correspondence information in which the exterior features, the vehicle width, the vehicle length, the vehicle height, and the vehicle type information are associated in advance. 3. The position management system according to claim 2, wherein said vehicle type information of said vehicle is extracted.
前記所定の特徴情報は、車体色情報であり、
前記特徴情報取得部は、前記車両または前記外部装置から、前記車両に関する所定の特徴情報として前記車体色情報を取得し、
前記抽出部は、前記撮影画像から前記車両の前記車体色情報を抽出する、請求項1に記載の位置管理システム。 the moving object is a vehicle,
The predetermined characteristic information is vehicle body color information,
The feature information acquisition unit acquires the vehicle body color information as predetermined feature information about the vehicle from the vehicle or the external device,
2. The position management system according to claim 1, wherein said extraction unit extracts said vehicle body color information of said vehicle from said photographed image.
前記撮影画像に写っている前記車両の姿勢を推定し、前記姿勢に基づいて前記車両を直方体のワイヤーフレームで表現し、前記ワイヤーフレームの内部の前記車両の部分の画像であるクロップ画像に基づいて、色情報をクラスタリングすることで前記車体色情報として代表2色を抽出し、
前記特徴情報取得部は、前記車両または前記外部装置から、前記車両に関する前記車体色情報として代表2色を取得する、請求項4に記載の位置管理システム。 When extracting the vehicle body color information of the vehicle from the captured image, the extraction unit
estimating the posture of the vehicle appearing in the photographed image, expressing the vehicle in a rectangular parallelepiped wire frame based on the posture, and based on a cropped image that is an image of the portion of the vehicle inside the wire frame; , extracting two representative colors as the vehicle body color information by clustering the color information,
5. The position management system according to claim 4, wherein said characteristic information acquisition unit acquires two representative colors as said vehicle body color information relating to said vehicle from said vehicle or said external device.
前記所定の特徴情報は、前記車両の進行方向情報であり、
前記特徴情報取得部は、前記車両から、前記車両に関する所定の特徴情報として前記進行方向情報を取得し、
前記抽出部は、時系列に複数の前記撮影画像から前記車両の前記進行方向情報を抽出する、請求項1に記載の位置管理システム。 the moving object is a vehicle,
The predetermined characteristic information is traveling direction information of the vehicle,
The feature information acquisition unit acquires the traveling direction information from the vehicle as predetermined feature information about the vehicle,
2. The position management system according to claim 1, wherein said extraction unit extracts said traveling direction information of said vehicle from said plurality of photographed images in time series.
前記所定の特徴情報は、前記車両が走行する車線情報であり、
前記特徴情報取得部は、前記車両から、前記車両に関する所定の特徴情報として前記車両が走行する前記車線情報を取得し、
前記抽出部は、前記撮影画像から前記車両が走行する前記車線情報を抽出する、請求項1に記載の位置管理システム。 the moving object is a vehicle,
The predetermined feature information is lane information on which the vehicle travels,
The feature information acquisition unit acquires, from the vehicle, the lane information on which the vehicle travels as predetermined feature information about the vehicle,
2. The position management system according to claim 1, wherein said extraction unit extracts said lane information along which said vehicle travels from said photographed image.
前記撮影画像から前記移動物体を検出する検出ステップと、
前記定置カメラによる撮影画像の各部分に対して予め実位置情報が対応付けられている位置対応情報に基づいて、前記撮影画像に写っている前記移動物体の実位置情報を特定する特定ステップと、
前記所定の領域を移動している前記移動物体から、GPSまたはGNSSに基づく前記移動物体の位置情報を取得する位置情報取得ステップと、
前記移動物体または外部装置から、前記移動物体に関する所定の特徴情報を取得する特徴情報取得ステップと、
前記撮影画像から前記移動物体の前記所定の特徴情報を抽出する抽出ステップと、
前記特定ステップによって特定された前記実位置情報と、前記位置情報取得ステップによって取得された前記位置情報と、前記特徴情報取得ステップによって取得された前記所定の特徴情報と、前記抽出ステップによって抽出された前記所定の特徴情報と、に基づいて、前記撮影画像に写っている前記移動物体と、前記位置情報取得ステップによって取得された前記位置情報を送信した前記移動物体と、を対応付ける制御ステップと、
を含む位置管理方法。
a photographed image obtaining step of obtaining a photographed image from a stationary camera that photographs a predetermined area in which the moving object moves;
a detection step of detecting the moving object from the captured image;
a specifying step of specifying the real position information of the moving object appearing in the photographed image based on position correspondence information in which real position information is associated in advance with each part of the photographed image by the stationary camera;
a position information obtaining step of obtaining position information of the moving object based on GPS or GNSS from the moving object moving in the predetermined area;
a feature information acquiring step of acquiring predetermined feature information about the moving object from the moving object or an external device;
an extracting step of extracting the predetermined feature information of the moving object from the captured image;
The actual position information specified by the specifying step, the position information acquired by the position information acquiring step, the predetermined feature information acquired by the feature information acquiring step, and the extracted by the extracting step a control step of associating the moving object appearing in the captured image with the moving object that transmitted the position information acquired by the position information acquiring step, based on the predetermined characteristic information;
location management methods, including;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021156567A JP2023047584A (en) | 2021-09-27 | 2021-09-27 | Location management system and location management method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021156567A JP2023047584A (en) | 2021-09-27 | 2021-09-27 | Location management system and location management method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023047584A true JP2023047584A (en) | 2023-04-06 |
Family
ID=85779432
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021156567A Pending JP2023047584A (en) | 2021-09-27 | 2021-09-27 | Location management system and location management method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023047584A (en) |
-
2021
- 2021-09-27 JP JP2021156567A patent/JP2023047584A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11270131B2 (en) | Map points-of-change detection device | |
CN105512646B (en) | A kind of data processing method, device and terminal | |
JP6241422B2 (en) | Driving support device, driving support method, and recording medium for storing driving support program | |
US11408740B2 (en) | Map data update apparatus, map data update method, and computer readable medium | |
JP5747549B2 (en) | Signal detector and program | |
KR101261409B1 (en) | System for recognizing road markings of image | |
CN113989450B (en) | Image processing method, device, electronic equipment and medium | |
WO2022078074A1 (en) | Method and system for detecting position relation between vehicle and lane line, and storage medium | |
JP2018124787A (en) | Information processing device, data managing device, data managing system, method, and program | |
CN112435300A (en) | Positioning method and device | |
JP6278791B2 (en) | Vehicle position detection device, vehicle position detection method, vehicle position detection computer program, and vehicle position detection system | |
TW201528220A (en) | Apparatus and method for vehicle positioning | |
JP6278790B2 (en) | Vehicle position detection device, vehicle position detection method, vehicle position detection computer program, and vehicle position detection system | |
KR101255461B1 (en) | Position Measuring Method for street facility | |
JP4762026B2 (en) | Road sign database construction device | |
CN115235493A (en) | Method and device for automatic driving positioning based on vector map | |
JP2009217832A (en) | Method and device for automatically recognizing road sign in video image, and storage medium which stores program of road sign automatic recognition | |
US11780444B2 (en) | Driving assistance apparatus and image processing method | |
US20230245323A1 (en) | Object tracking device, object tracking method, and storage medium | |
JP2023047584A (en) | Location management system and location management method | |
CN107844749B (en) | Road surface detection method and device, electronic device and storage medium | |
WO2020194570A1 (en) | Sign position identification system and program | |
WO2022133986A1 (en) | Accuracy estimation method and system | |
JP7467299B2 (en) | Location management system, location identification device, and location identification method | |
CN113643374A (en) | Multi-view camera calibration method, device, equipment and medium based on road characteristics |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240613 |