JP2023047584A - Location management system and location management method - Google Patents

Location management system and location management method Download PDF

Info

Publication number
JP2023047584A
JP2023047584A JP2021156567A JP2021156567A JP2023047584A JP 2023047584 A JP2023047584 A JP 2023047584A JP 2021156567 A JP2021156567 A JP 2021156567A JP 2021156567 A JP2021156567 A JP 2021156567A JP 2023047584 A JP2023047584 A JP 2023047584A
Authority
JP
Japan
Prior art keywords
vehicle
information
moving object
position information
feature information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021156567A
Other languages
Japanese (ja)
Inventor
美彦 鈴木
Yoshihiko Suzuki
泰浩 青木
Yasuhiro Aoki
泰弘 竹林
Yasuhiro Takebayashi
浩 堺
Hiroshi Sakai
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Infrastructure Systems and Solutions Corp filed Critical Toshiba Corp
Priority to JP2021156567A priority Critical patent/JP2023047584A/en
Publication of JP2023047584A publication Critical patent/JP2023047584A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Navigation (AREA)

Abstract

To obtain highly accurate position information of a moving object at a low cost.SOLUTION: A position management system according to an embodiment acquires a photographed image from a stationary camera, detects a moving object from the photographed image, and specifies actual position information of the moving object in the photographed image on the basis of position correspondence information in which the actual position information is associated in advance with each part of the photographed image. Also, the position management system acquires position information of the moving object based on GPS or GNSS from the moving object, acquires predetermined feature information about the moving object from the moving object or an external device, and extracts predetermined feature information of the moving object from the photographed image. Also, the position management system associates the moving object appearing in the photographed image with a moving object that transmitted the position information acquired by a position information acquisition unit on the basis of the actual position information specified by a specifying unit, the position information acquired by the position information acquisition unit, the predetermined feature information acquired by a feature information acquisition unit, and the predetermined feature information extracted by an extraction unit.SELECTED DRAWING: Figure 12

Description

本発明の実施形態は、位置管理システム、および、位置管理方法に関する。 TECHNICAL FIELD Embodiments of the present invention relate to a location management system and a location management method.

近年、例えば、MaaS(Mobility as a Service)に用いるダイナミックマップを実現するためには、車両などの移動物体に関する正確な位置情報の計測や管理が必要である。そして、車両の位置情報を得る場合には、例えば、GPS(Global Positioning System)よりもGNSS(Global Navigation Satellite System:全球測位衛星システム)を利用したほうが、高精度な位置情報を得ることができる。 In recent years, for example, in order to realize a dynamic map used for MaaS (Mobility as a Service), it is necessary to measure and manage accurate position information regarding moving objects such as vehicles. When obtaining vehicle position information, for example, GNSS (Global Navigation Satellite System) can be used rather than GPS (Global Positioning System) to obtain highly accurate position information.

しかし、GNSSを利用したとしても、例えば、高い建物が林立しているエリアでは位置情報の誤差が大きくなるなどの問題がある。したがって、高度な自動運転などを実現するには、位置計測誤差を低減する必要があり、解決策として、例えば、車両に高精度測位装置を搭載する手法がある。 However, even if GNSS is used, there is a problem that, for example, errors in position information increase in areas where tall buildings stand side by side. Therefore, in order to realize advanced automatic driving, it is necessary to reduce position measurement errors.

特開2018-32433号公報JP 2018-32433 A 特開2018-81252号公報JP 2018-81252 A 特開2020-30362号公報Japanese Patent Application Laid-Open No. 2020-30362

しかしながら、上述の高精度測位装置は高価であるという問題がある。 However, there is a problem that the high-precision positioning device described above is expensive.

そこで、本発明が解決しようとする課題は、物体の高精度な位置情報を低コストで得ることができる位置管理システム、および、位置管理方法を提供することである。 Therefore, the problem to be solved by the present invention is to provide a position management system and a position management method capable of obtaining highly accurate position information of an object at low cost.

実施形態の位置管理システムは、移動物体が移動する所定の領域を撮影する定置カメラから撮影画像を取得する撮影画像取得部と、前記撮影画像から前記移動物体を検出する検出部と、前記定置カメラによる撮影画像の各部分に対して予め実位置情報が対応付けられている位置対応情報に基づいて、前記撮影画像に写っている前記移動物体の実位置情報を特定する特定部と、前記所定の領域を移動している前記移動物体から、GPSまたはGNSSに基づく前記移動物体の位置情報を取得する位置情報取得部と、前記移動物体または外部装置から、前記移動物体に関する所定の特徴情報を取得する特徴情報取得部と、前記撮影画像から前記移動物体の前記所定の特徴情報を抽出する抽出部と、前記特定部によって特定された前記実位置情報と、前記位置情報取得部によって取得された前記位置情報と、前記特徴情報取得部によって取得された前記所定の特徴情報と、前記抽出部によって抽出された前記所定の特徴情報と、に基づいて、前記撮影画像に写っている前記移動物体と、前記位置情報取得部によって取得された前記位置情報を送信した前記移動物体と、を対応付ける制御部と、を備える。 A position management system according to an embodiment includes a captured image acquisition unit that acquires a captured image from a fixed camera that captures a predetermined area in which a moving object moves, a detection unit that detects the moving object from the captured image, and the fixed camera. a specifying unit for specifying the real position information of the moving object appearing in the photographed image based on the position correspondence information in which the real position information is associated in advance with each part of the photographed image; A position information acquisition unit that acquires position information of the moving object based on GPS or GNSS from the moving object moving in an area, and acquires predetermined feature information about the moving object from the moving object or an external device. a feature information acquiring unit; an extracting unit that extracts the predetermined feature information of the moving object from the captured image; the actual position information specified by the specifying unit; and the position acquired by the position information acquiring unit. information, the predetermined feature information acquired by the feature information acquisition unit, and the predetermined feature information extracted by the extraction unit, the moving object appearing in the captured image, the and a control unit that associates the moving object that transmitted the position information acquired by the position information acquisition unit.

図1は、実施形態と比較例の大まかな相違点を説明するための模式図である。FIG. 1 is a schematic diagram for explaining rough differences between the embodiment and the comparative example. 図2は、実施形態の位置管理システムの全体構成図である。FIG. 2 is an overall configuration diagram of the location management system of the embodiment. 図3は、実施形態のPCによる処理の概要を説明するための図である。FIG. 3 is a diagram for explaining an outline of processing by a PC according to the embodiment; 図4は、実施形態における定置カメラ画像と衛星画像の対応関係を説明するための図である。FIG. 4 is a diagram for explaining the correspondence relationship between the stationary camera image and the satellite image in the embodiment. 図5は、実施形態の変換テーブルを示す図である。FIG. 5 is a diagram showing a conversion table according to the embodiment. 図6は、実施形態における車高の算出法の例を説明するための図である。FIG. 6 is a diagram for explaining an example of a vehicle height calculation method according to the embodiment. 図7は、実施形態における車種判別用テーブルの例を示す図である。FIG. 7 is a diagram showing an example of a vehicle type discrimination table in the embodiment. 図8は、実施形態における車体色判定法の例を説明するための図である。FIG. 8 is a diagram for explaining an example of the vehicle body color determination method in the embodiment. 図9は、実施形態における車体色判定結果の例を示す図である。FIG. 9 is a diagram showing an example of body color determination results in the embodiment. 図10は、実施形態のPCによる処理を示すフローチャートである。FIG. 10 is a flow chart showing processing by the PC of the embodiment. 図11は、図10のステップS3の処理の詳細を示すフローチャートである。FIG. 11 is a flow chart showing details of the processing in step S3 of FIG. 図12は、実施形態の位置管理サーバによる処理を示すフローチャートである。FIG. 12 is a flowchart illustrating processing by the location management server according to the embodiment; 図13は、図12のステップS43の処理の詳細を示すフローチャートである。FIG. 13 is a flow chart showing the details of the processing in step S43 of FIG. 図14は、実施形態の位置管理サーバによる他の処理を示すフローチャートである。FIG. 14 is a flowchart illustrating another process by the location management server of the embodiment;

以下、本発明の位置管理システム、および、位置管理方法の実施形態について、図面を参照して説明する。以下では、移動物体として、車両を例にとって説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of a position management system and a position management method of the present invention will be described with reference to the drawings. A vehicle will be described below as an example of a moving object.

まず、図1を参照して、実施形態と比較例(従来技術)の大まかな相違点について説明する。
図1は、実施形態と比較例(従来技術)の大まかな相違点を説明するための模式図である。比較例(従来技術)では、車両に搭載する高精度測位装置による位置情報を用いてダイナミックマップを作成する場合を想定する。この場合、車両が走行する全エリアで車両の高精度な位置情報が得られるが、高精度測位装置が高価であるという問題がある。
First, with reference to FIG. 1, the rough differences between the embodiment and the comparative example (prior art) will be described.
FIG. 1 is a schematic diagram for explaining rough differences between the embodiment and a comparative example (conventional technology). In a comparative example (conventional technology), it is assumed that a dynamic map is created using position information from a high-precision positioning device mounted on a vehicle. In this case, highly accurate position information of the vehicle can be obtained in the entire area in which the vehicle travels, but there is a problem that the highly accurate positioning device is expensive.

一方、本実施形態では、以下で説明する提案モデルによる位置情報を用いてダイナミックマップを作成する場合を想定する。提案モデルでは、道路を2種類のエリアに分類し、車両の位置計測精度のレベル分けを行う。1つは、交差点のように高精度な位置計測が必要なエリアであり、提案モデルの適用対象である。もう1つは、直線道路などの高精度な位置計測が不要なエリアであり、提案モデルの適用対象外で、個々の車両が有するGPSセンサの位置情報を用いる。この手法によれば、高精度な位置計測エリアにおいて、低コストで車両の高精度な位置情報を得ることができる。以下、詳述する。 On the other hand, in the present embodiment, it is assumed that a dynamic map is created using position information based on the proposed model described below. In the proposed model, roads are classified into two types of areas, and the level of vehicle positioning accuracy is divided. One is an area such as an intersection that requires high-precision position measurement, and is an application target of the proposed model. The other is an area such as a straight road that does not require high-precision position measurement, and the proposed model is not applicable, and the position information of the GPS sensor possessed by each vehicle is used. According to this technique, it is possible to obtain highly accurate vehicle position information at low cost in a highly accurate position measurement area. Details will be described below.

図2は、実施形態の位置管理システムSの全体構成図である。位置管理システムSは、位置管理サーバ1と、PC(Personal Computer)2と、定置カメラ3と、地図管理サーバ4(管理サーバ)と、を備える。 FIG. 2 is an overall configuration diagram of the location management system S of the embodiment. The location management system S includes a location management server 1, a PC (Personal Computer) 2, a stationary camera 3, and a map management server 4 (management server).

定置カメラ3は、車両5(以下、符号なしで「車両」とも称する。)が移動する所定の領域(例えば、道路の交差点等)を撮影する。より具体的には、定置カメラ3は、例えば、道路の主要な場所の高い位置に設置され、上方から道路を見下ろす画角となっている。この定置カメラ3の視野の範囲が、高精度な位計測測エリアとなる。また、定置カメラ3は道路の各所に設置され、1つの定置カメラ3に対して1つのPC2が設置される。 The stationary camera 3 photographs a predetermined area (for example, an intersection of roads, etc.) in which a vehicle 5 (hereinafter also referred to as "vehicle" without reference numeral) moves. More specifically, the stationary camera 3 is installed, for example, at a high position in a major location on the road, and has an angle of view that looks down on the road from above. The range of the field of view of the stationary camera 3 becomes a highly accurate position measurement area. In addition, fixed cameras 3 are installed at various places on the road, and one PC 2 is installed for one fixed camera 3 .

ここで、図3を参照して、実施形態のPC2による処理の概要について説明する。
図3は、実施形態のPC2による処理の概要を説明するための図である。図3(a)は、定置カメラ3によって得られる画像(以下、定置カメラ画像とも称する。)の例である。
Here, with reference to FIG. 3, an overview of the processing by the PC 2 of the embodiment will be described.
FIG. 3 is a diagram for explaining an outline of processing by the PC 2 of the embodiment. FIG. 3A is an example of an image obtained by the stationary camera 3 (hereinafter also referred to as a stationary camera image).

図3(a)のように、PC2は、定置カメラ画像から車両を検出する。図3(b)では、検出された車両が矩形で囲まれている。そして、PC2は、検出した車両について、位置情報を特定する。図3(c)では、ワイヤーフレームの手法を用いて、車両に適用したワイヤーフレームLにおける底面の中心位置P10を車両の位置情報として特定していることを模式的に示している。 As shown in FIG. 3(a), the PC 2 detects the vehicle from the stationary camera image. In FIG. 3(b), the detected vehicle is surrounded by a rectangle. Then, the PC 2 identifies position information of the detected vehicle. FIG. 3C schematically shows that the center position P10 of the bottom surface of the wire frame L applied to the vehicle is specified as the vehicle position information using the wire frame method.

図2に戻って、PC2は、処理部21と、記憶部22と、入力部23と、表示部24と、通信部25と、を備える。 Returning to FIG. 2 , the PC 2 includes a processing section 21 , a storage section 22 , an input section 23 , a display section 24 and a communication section 25 .

記憶部22は、HDD(Hard Disk Drive)やSSD(Solid State Drive)などの記憶装置であり、各種情報を記憶する。記憶部22は、例えば、位置DB(Data Base)221(位置対応情報)と、変換テーブル222(位置対応情報)と、第1車両情報223と、車種判別用テーブル224と、を記憶する。 The storage unit 22 is a storage device such as a HDD (Hard Disk Drive) or an SSD (Solid State Drive), and stores various information. The storage unit 22 stores, for example, a position DB (Data Base) 221 (position correspondence information), a conversion table 222 (position correspondence information), first vehicle information 223, and a vehicle type discrimination table 224 .

位置DB221は、定置カメラ画像と衛星画像(または航空画像。俯瞰画像の例)の対応関係を定義したDBである。ここで、図4を参照して、実施形態における定置カメラ画像と衛星画像の対応関係について説明する。 The position DB 221 is a DB that defines a correspondence relationship between a fixed camera image and a satellite image (or an aerial image, an example of a bird's-eye view image). Here, with reference to FIG. 4, the correspondence relationship between the stationary camera image and the satellite image in the embodiment will be described.

図4は、実施形態における定置カメラ画像と衛星画像の対応関係を説明するための図である。位置DB221では、車両5の移動可能範囲について、図4(a)に示す定置カメラ画像における各画素と、図4(b)に示す衛星画像における各画素と、が対応付けられている。したがって、この位置DB221を参照することで、定置カメラ画像における画素に対応する衛星画像における画素を特定することができる。また、この位置DB221は、定置カメラ画像と衛星画像の間の複数組の対応点の座標を元に生成した射影変換行列によって実現してもよい。 FIG. 4 is a diagram for explaining the correspondence relationship between the stationary camera image and the satellite image in the embodiment. In the position DB 221, each pixel in the stationary camera image shown in FIG. 4(a) is associated with each pixel in the satellite image shown in FIG. 4(b) for the movable range of the vehicle 5. FIG. Therefore, by referring to the position DB 221, it is possible to specify the pixels in the satellite image corresponding to the pixels in the stationary camera image. Also, the position DB 221 may be realized by a projective transformation matrix generated based on a plurality of sets of coordinates of corresponding points between the stationary camera image and the satellite image.

図2に戻って、変換テーブル222は、衛星画像の画素の座標と、衛星画像の位置情報と、が対応付けられたテーブルである。ここで、図5を参照して、実施形態の変換テーブル222について説明する。 Returning to FIG. 2, the conversion table 222 is a table in which the coordinates of the pixels of the satellite image and the position information of the satellite image are associated with each other. Here, the conversion table 222 of the embodiment will be described with reference to FIG.

図5は、実施形態の変換テーブル222を示す図である。変換テーブル222では、衛星画像の画素の座標(X座標、Y座標)と、衛星画像の高精度な位置情報(緯度、経度、標高)と、が対応付けられている。 FIG. 5 is a diagram showing the conversion table 222 of the embodiment. In the conversion table 222, the coordinates (X coordinate, Y coordinate) of the pixels of the satellite image are associated with highly accurate position information (latitude, longitude, altitude) of the satellite image.

図2に戻って、第1車両情報223は、定置カメラ画像に基づいて検出された車両の情報である。第1車両情報223は、例えば、以下の(1)~(11)の情報を含む。
(1)撮影日時
(2)定置カメラ画像のフレーム番号
(3)車両を囲む矩形の代表点(例えば、左上と右下)の座標
(4)ワイヤーフレームの底面中心座標
(5)車種(普通車/トラック/バス等)
(6)車体色情報(例えば、RGB(Red,Green,Blue)ヒストグラム)
(7)追跡ID(Identifier)(時系列の車両追跡時)
(8)位置情報(緯度、経度、標高)
(9)車両の向き
(10)走行方向(進行方向)
(11)走行している車線情報
Returning to FIG. 2, the first vehicle information 223 is vehicle information detected based on the stationary camera image. The first vehicle information 223 includes, for example, information (1) to (11) below.
(1) Shooting date and time (2) Frame number of stationary camera image (3) Coordinates of representative points (for example, upper left and lower right) of rectangle surrounding vehicle (4) Bottom center coordinates of wire frame (5) Vehicle type (ordinary vehicle) / truck / bus etc.)
(6) Body color information (for example, RGB (Red, Green, Blue) histogram)
(7) Tracking ID (Identifier) (when tracking vehicles in chronological order)
(8) Location information (latitude, longitude, altitude)
(9) Direction of vehicle (10) Driving direction (advancing direction)
(11) Driving lane information

なお、(1)~(11)のうち、(1)、(2)は定置カメラ画像から得られる。(3)~(11)は、処理部21の処理によって得られる。 Among (1) to (11), (1) and (2) are obtained from the stationary camera image. (3) to (11) are obtained by the processing of the processing unit 21. FIG.

処理部21は、PC2の全体の動作を制御し、PC2が有する各種の機能を実現する。処理部21は、例えば、CPU(Central Processing Unit)と、ROM(Read Only Memory)と、RAM(Random Access Memory)と、を備える。CPUは、PC2の動作を統括的に制御する。ROMは、各種プログラムやデータを記憶する記憶媒体である。RAMは、各種プログラムを一時的に記憶したり、各種データを書き換えたりするための記憶媒体である。CPUは、RAMをワークエリア(作業領域)としてROM、記憶部22等に格納されたプログラムを実行する。処理部21は、機能部として、取得部211と、検出部212と、特定部213と、抽出部214と、制御部215と、を備える。 The processing unit 21 controls the overall operation of the PC 2 and implements various functions of the PC 2 . The processing unit 21 includes, for example, a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory). The CPU comprehensively controls the operation of the PC2. The ROM is a storage medium that stores various programs and data. RAM is a storage medium for temporarily storing various programs and rewriting various data. The CPU uses the RAM as a work area (working area) to execute programs stored in the ROM, the storage unit 22, and the like. The processing unit 21 includes an acquisition unit 211, a detection unit 212, an identification unit 213, an extraction unit 214, and a control unit 215 as functional units.

取得部211は、外部装置(例えば、定置カメラ3、位置管理サーバ1等)から各種情報を取得する。取得部211は、例えば、定置カメラ3から撮影画像を取得する撮影画像取得部として機能する。 The acquisition unit 211 acquires various types of information from an external device (eg, the stationary camera 3, the position management server 1, etc.). The acquisition unit 211 functions as a captured image acquisition unit that acquires a captured image from the stationary camera 3, for example.

検出部212は、DNN(Deep Neural Network)などの手法に基づいて、定置カメラ画像から車両を検出する。 A detection unit 212 detects a vehicle from a stationary camera image based on a technique such as DNN (Deep Neural Network).

特定部213は、例えば、位置DB221と変換テーブル222に基づいて、定置カメラ画像に写っている車両に適用したワイヤーフレームの底面の中心位置と対応する衛星画像における位置に基づいて、車両の実位置情報を特定する。 For example, based on the position DB 221 and the conversion table 222, the identification unit 213 determines the actual position of the vehicle based on the center position of the bottom surface of the wire frame applied to the vehicle captured in the stationary camera image and the corresponding position in the satellite image. Identify information.

抽出部214は、撮影画像から車両の所定の特徴情報を抽出する。所定の特徴情報は、例えば、車両の種類を示す車種情報である。その場合、抽出部214は、撮影画像から車両の車種情報を抽出する。抽出部214は、撮影画像から車両の車種情報を抽出する場合に、撮影画像に写っている車両5の姿勢を推定し、姿勢に基づいて車両を直方体のワイヤーフレームで表現し、ワイヤーフレームに基づいて外観特徴、車幅、車長、車高を算出する。そして、抽出部214は、算出した外観特徴、車幅、車長、車高と、予め外観特徴、車幅、車長、車高と車種情報が対応付けられている車種判別用テーブル224(車種対応情報)と、に基づいて、車両の車種情報を抽出する。 The extraction unit 214 extracts predetermined characteristic information of the vehicle from the captured image. The predetermined feature information is, for example, vehicle type information indicating the type of vehicle. In that case, the extraction unit 214 extracts vehicle type information from the captured image. When extracting the vehicle type information from the captured image, the extraction unit 214 estimates the orientation of the vehicle 5 in the captured image, expresses the vehicle with a rectangular parallelepiped wire frame based on the orientation, and extracts the vehicle type information from the captured image. to calculate the appearance characteristics, vehicle width, vehicle length, and vehicle height. Then, the extracting unit 214 extracts the vehicle type discrimination table 224 (vehicle type) in which the calculated external features, vehicle width, vehicle length, vehicle height, and vehicle type information are associated in advance with the external features, vehicle width, vehicle length, vehicle height, and vehicle type information. Correspondence information), and vehicle type information is extracted.

ここで、図6、図7等を用いて、車種判定等について説明する。まず、図3(c)と図6を参照して、車高の算出法の例について説明する。 Here, vehicle type determination and the like will be described with reference to FIGS. 6, 7, and the like. First, an example of a vehicle height calculation method will be described with reference to FIGS. 3(c) and 6. FIG.

図6は、実施形態における車高の算出法の例を説明するための図である。ワイヤーフレームの底面の角の4点(図3(c)のP1~P4)の座標を地図へ射影変換する。次に、射影変換後の4点のGPS座標を求め、座標の差を距離に変換することで、車幅(P1とP3の間の長さ)と車長(P1とP2の間の長さ)を算出する。例えば、同じ車両の複数の撮影画像のそれぞれのワイヤーフレームに対してこれらの処理を繰り返し、平均を求める。 FIG. 6 is a diagram for explaining an example of a vehicle height calculation method according to the embodiment. The coordinates of the four points (P1 to P4 in FIG. 3(c)) at the corners of the bottom surface of the wire frame are projectively transformed onto the map. Next, by calculating the GPS coordinates of the four points after projective transformation and converting the difference in coordinates into a distance, the vehicle width (the length between P1 and P3) and the vehicle length (the length between P1 and P2) ) is calculated. For example, these processes are repeated for each wire frame of a plurality of captured images of the same vehicle, and an average is obtained.

次に、車高の算出法について説明する。まず、ワイヤーフレームの底面における車長の両端であるP1とP2を選択する。 Next, a method for calculating the vehicle height will be described. First, P1 and P2, which are both ends of the vehicle length at the bottom of the wire frame, are selected.

次に、ワイヤーフレームにおける車高の両端であるP1とP1hを選択する。
次に、P1の画面x座標よりもNピクセルだけ左の座標をP1a(x1-N,y1)とする。
また、P1の画面x座標よりもNピクセルだけ右の座標をP1b(x1+N,y1)とする。
Next, P1 and P1h, which are both ends of the vehicle height in the wire frame, are selected.
Next, let P1a (x1−N, y1) be the coordinate that is N pixels to the left of the screen x coordinate of P1.
Also, let P1b (x1+N, y1) be the coordinate that is N pixels to the right of the screen x coordinate of P1.

同様に、P2の画面x座標よりもNピクセルだけ左の座標をP2a(x2-N,y2)とする。
また、P1の画面x座標よりもNピクセルだけ右の座標をP2b(x2+N,y2)とする。
Similarly, let P2a (x2-N, y2) be the coordinate that is N pixels to the left of the screen x-coordinate of P2.
Also, let P2b (x2+N, y2) be the coordinate that is N pixels to the right of the screen x coordinate of P1.

次に、P1aとP1bの画面座標を射影変換し、緯度と経度を算出する。
次に、車幅と車長の算出値と画像上の画素数の関係から、画素間の概略の長さ(画面上の位置によって異なる点も考慮。)を算出できるため、その値を用いてP1aとP1bの間の距離1を求める。P1に関して、x座標のピクセル間の距離11は、距離1÷2Nで算出できる。
Next, the screen coordinates of P1a and P1b are projectively transformed to calculate the latitude and longitude.
Next, from the relationship between the calculated values for the vehicle width and length and the number of pixels on the image, it is possible to calculate the approximate length between pixels (considering that it varies depending on the position on the screen), so that value can be used. Determine the distance 1 between P1a and P1b. For P1, the distance 11 between the x-coordinate pixels can be calculated as the distance 1÷2N.

同様に、P2に関して、x座標のピクセル間の距離12は、(P2aとP2bの間の距離2)÷2Nで算出できる。 Similarly, for P2, the distance 12 between the x-coordinate pixels can be calculated by (distance 2 between P2a and P2b)/2N.

車高は、(距離11と距離12の平均)×(P1のy座標-P1hのy座標)(図6の距離D)となる。また、図6に示すように、定置カメラ3の画角α(画面のy座標によって変動)による補正を、次の式に基づいて行う。
実際の車高H=距離D÷cos(画角α)
The vehicle height is (average of distance 11 and distance 12)×(y coordinate of P1−y coordinate of P1h) (distance D in FIG. 6). Further, as shown in FIG. 6, correction based on the angle of view α of the stationary camera 3 (varying according to the y-coordinate of the screen) is performed based on the following equation.
Actual vehicle height H = distance D ÷ cos (angle of view α)

次に、図7を参照して、実施形態における車種判別用テーブル224の例について説明する。
図7は、実施形態における車種判別用テーブル224の例を示す図である。情報(21)と情報(22)を用いて、定置カメラ3から検出した車両の車種を推定する。
Next, an example of the vehicle type determination table 224 in the embodiment will be described with reference to FIG.
FIG. 7 is a diagram showing an example of the vehicle type discrimination table 224 in the embodiment. Using the information (21) and the information (22), the vehicle type of the vehicle detected by the fixed camera 3 is estimated.

情報(21)は、DL/DNNを用いた外観特徴に基づく車種分類である。情報(22)は、ワイヤーフレームを用いた車両寸法計測の結果に基づく車幅、車長、車高の情報である。情報(21)だけでは、外観が類似しているがサイズが異なる車両を区別することは困難である。しかし、さらに情報(22)を用いることで、そのような区別が可能になる。 Information (21) is a vehicle type classification based on appearance features using DL/DNN. Information (22) is information on vehicle width, vehicle length, and vehicle height based on the result of vehicle dimension measurement using a wire frame. With information (21) alone, it is difficult to distinguish vehicles that are similar in appearance but differ in size. However, with the additional information (22) such a distinction is possible.

また、車種ごとの車幅、車長、車高の情報は、事前に定義しておく。これにより、車種判別用テーブル224と情報(21)と情報(22)を用いて、車種の高精度な推定が可能となる。 In addition, information on vehicle width, vehicle length, and vehicle height for each vehicle type is defined in advance. As a result, the vehicle type can be estimated with high accuracy using the vehicle type identification table 224, the information (21), and the information (22).

なお、この手法で判定結果が不安定になる場合、例えば、情報(21)よりも情報(22)を優先する。また、情報(22)における車幅、車長、車高の計測値のいずれかが、車種判別用テーブル224で定義されている各車種の標準寸法の範囲に収まらない場合、例えば、3つの計測値と標準寸法の誤差が一番小さい車種を選択する。 Note that if this method makes the determination result unstable, for example, the information (22) is prioritized over the information (21). Also, if any of the vehicle width, vehicle length, and vehicle height measurement values in the information (22) does not fall within the range of standard dimensions for each vehicle type defined in the vehicle type identification table 224, for example, three measurements Select the car model with the smallest error between the value and the standard dimension.

図2に戻って、抽出部214は、例えば、撮影画像から車両5の車体色情報を抽出する。抽出部214は、撮影画像から車両5の車体色情報を抽出する場合に、撮影画像に写っている車両5の姿勢を推定し、姿勢に基づいて車両を直方体のワイヤーフレームで表現し、ワイヤーフレームの内部の車両5の部分の画像であるクロップ画像に基づいて、色情報をクラスタリングすることで車体色情報として代表2色を抽出する。 Returning to FIG. 2, the extraction unit 214 extracts body color information of the vehicle 5 from the captured image, for example. When extracting the body color information of the vehicle 5 from the captured image, the extraction unit 214 estimates the posture of the vehicle 5 captured in the captured image, expresses the vehicle with a rectangular parallelepiped wire frame based on the posture, and extracts the vehicle body color information from the captured image. Two representative colors are extracted as vehicle body color information by clustering the color information based on the cropped image which is the image of the portion of the vehicle 5 inside.

ここで、図8を参照して、実施形態における車体色(車両5の色)判定法の例について説明する。
図8は、実施形態における車体色判定法の例を説明するための図である。以下の処理(31)~(35)によって、車体色を判定する。
Here, with reference to FIG. 8, an example of the body color (color of the vehicle 5) determination method in the embodiment will be described.
FIG. 8 is a diagram for explaining an example of the vehicle body color determination method in the embodiment. The body color is determined by the following processes (31) to (35).

まず、処理(31)において、撮影画像におけるワイヤーフレームの内部の車両5の部分の画像であるクロップ画像を抽出する。 First, in processing (31), a cropped image, which is an image of the portion of the vehicle 5 inside the wire frame in the captured image, is extracted.

次に、処理(32)において、クロップ画像からクラスタリング手法を用いて色情報を取得する。つまり、クロップ画像内には、明るさや色みが微妙に異なる複数種類の色が含まれるため、クラスタリングによって類似した色を一塊にすることで、5色~7色にまとめて色情報を抽出する。 Next, in process (32), color information is obtained from the cropped image using a clustering method. In other words, since the cropped image contains multiple types of colors with slightly different brightness and color, by clustering similar colors together, 5 to 7 colors are collected and color information is extracted. .

次に、処理(33)において、色情報をヒストグラムで表現する(正規化してもよい)。
次に、処理(34)において、車両のタイヤの黒成分を取り除く。例えば、車体が黒色の場合、黒成分の一定割合(例えば10%)を取り除く。
Next, in process (33), the color information is represented by a histogram (may be normalized).
Next, in process (34), the black component of the vehicle tires is removed. For example, if the body is black, a certain percentage (eg 10%) of the black component is removed.

次に、処理(35)において、色ヒストグラムに基づいて、車体色を代表2色で表現する。例えば、色ヒストグラムで最頻値の色を本体色とし、色ヒストグラムで頻度が2番目の色や車両を特徴づける色(周囲車両にはない色)などを補助色とする。なお、本体色と補助色を区別しないで代表2色としてもよい。 Next, in process (35), the body color is represented by two representative colors based on the color histogram. For example, the color with the most frequent value in the color histogram is set as the main color, and the color with the second highest frequency in the color histogram or the color that characterizes the vehicle (color that is not found in surrounding vehicles) is set as the auxiliary color. Note that two representative colors may be used without distinguishing between the main color and the auxiliary color.

このようにして、車体色を判定できる。なお、車の向きにより、ガラス部分の光の反射の具合などによって車体色の判定結果が変わる可能性があるので、例えば、複数フレームの画像を用いて判定した結果の多数決をとればよいが、これに限定されない。 In this way, the body color can be determined. Note that, depending on the orientation of the car and the degree of reflection of light on the glass, the result of determining the body color may change. It is not limited to this.

次に、図9を参照して、実施形態における車体色判定結果の例について説明する。
図9は、実施形態における車体色判定結果の例を示す図である。左に示す撮影画像に対して、車体色判定を行った。撮影画像から検出した6台の車両に関して、本体色として、上から順に白、青、黒、青、黒、緑と判定することができた。
Next, with reference to FIG. 9, an example of the vehicle body color determination result in the embodiment will be described.
FIG. 9 is a diagram showing an example of body color determination results in the embodiment. Body color determination was performed on the photographed image shown on the left. The body colors of the six vehicles detected from the captured images were determined to be white, blue, black, blue, black, and green in order from the top.

図2に戻って、抽出部214は、例えば、時系列に複数の撮影画像から車両の進行方向情報を抽出する。
また、抽出部214は、例えば、撮影画像から車両が走行する車線情報を抽出する。
Returning to FIG. 2, the extracting unit 214 extracts traveling direction information of the vehicle from a plurality of captured images in time series, for example.
The extraction unit 214 also extracts, for example, lane information along which the vehicle travels from the captured image.

制御部215は、各種情報処理を実行する。また、制御部215は、上述の(3)~(11)のうち、特定部213と抽出部214によって生成されない情報を適宜生成する。 The control unit 215 executes various types of information processing. Further, the control unit 215 appropriately generates information that is not generated by the identifying unit 213 and the extracting unit 214 among the above (3) to (11).

入力部23は、PC2に対するユーザの操作を受け付ける。入力部23は、例えば、キーボード、マウス等の入力装置である。 The input unit 23 receives user's operations on the PC 2 . The input unit 23 is, for example, an input device such as a keyboard and a mouse.

表示部24は、各種情報を表示する。表示部24は、例えば、液晶表示装置(LCD(Liquid Crystal Display))、有機EL(Electro-Luminescence)表示装置等である。 The display unit 24 displays various information. The display unit 24 is, for example, a liquid crystal display (LCD), an organic EL (Electro-Luminescence) display, or the like.

通信部25は、外部装置(例えば、定置カメラ3、位置管理サーバ1等)と通信を行うための通信インタフェースである。 The communication unit 25 is a communication interface for communicating with external devices (eg, the stationary camera 3, the position management server 1, etc.).

次に、位置管理サーバ1について説明する。位置管理サーバ1は、コンピュータ装置であり、処理部11と、記憶部12と、入力部13と、表示部14と、通信部15と、を備える。 Next, the location management server 1 will be explained. The location management server 1 is a computer device and includes a processing section 11 , a storage section 12 , an input section 13 , a display section 14 and a communication section 15 .

記憶部12は、HDDやSSDなどの記憶装置であり、各種情報を記憶する。記憶部12は、例えば、第1車両情報121と、第2車両情報122と、対応情報123と、を記憶する。 The storage unit 12 is a storage device such as an HDD or SSD, and stores various information. The storage unit 12 stores first vehicle information 121, second vehicle information 122, and correspondence information 123, for example.

第1車両情報121は、PC2における第1車両情報223と同様である。 The first vehicle information 121 is the same as the first vehicle information 223 in PC2.

第2車両情報122は、車両5における第2車両情報51と同様である。第2車両情報51は、例えば、以下の(16)~(18)の情報を含む。
(16)GPS日時
(17)GPS位置情報(緯度、経度、標高)
(18)ETC登録情報(車載機番号、登録番号/車両番号、牽引装置有無情報など)
The second vehicle information 122 is the same as the second vehicle information 51 of the vehicle 5 . The second vehicle information 51 includes, for example, information (16) to (18) below.
(16) GPS date and time (17) GPS location information (latitude, longitude, altitude)
(18) ETC registration information (in-vehicle device number, registration number/vehicle number, traction device presence/absence information, etc.)

対応情報123は、同一の車両5について、第1車両情報121と第2車両情報122を対応付けた情報である。 The correspondence information 123 is information in which the first vehicle information 121 and the second vehicle information 122 are associated with each other for the same vehicle 5 .

処理部11は、位置管理サーバ1の全体の動作を制御し、位置管理サーバ1が有する各種の機能を実現する。処理部11は、例えば、CPUと、ROMと、RAMと、を備える。CPUは、位置管理サーバ1の動作を統括的に制御する。ROMは、各種プログラムやデータを記憶する記憶媒体である。RAMは、各種プログラムを一時的に記憶したり、各種データを書き換えたりするための記憶媒体である。CPUは、RAMをワークエリア(作業領域)としてROM、記憶部12等に格納されたプログラムを実行する。処理部11は、機能部として、取得部111と、制御部112と、を備える。 The processing unit 11 controls the overall operation of the location management server 1 and implements various functions of the location management server 1 . The processing unit 11 includes, for example, a CPU, a ROM, and a RAM. The CPU comprehensively controls the operation of the location management server 1 . The ROM is a storage medium that stores various programs and data. RAM is a storage medium for temporarily storing various programs and rewriting various data. The CPU uses the RAM as a work area and executes programs stored in the ROM, the storage unit 12, and the like. The processing unit 11 includes an acquisition unit 111 and a control unit 112 as functional units.

取得部111は、外部装置(例えば、PC2、地図管理サーバ4等)から各種情報を取得する。取得部111は、例えば、PC2から第1車両情報223を取得して、記憶部12に第1車両情報121として保存する。また、取得部111は、例えば、車両5から第2車両情報51を取得して、記憶部12に第2車両情報122として保存する。 Acquisition unit 111 acquires various types of information from an external device (eg, PC 2, map management server 4, etc.). For example, the acquisition unit 111 acquires the first vehicle information 223 from the PC 2 and stores the first vehicle information 223 in the storage unit 12 as the first vehicle information 121 . Further, the acquisition unit 111 acquires the second vehicle information 51 from the vehicle 5 and stores it as the second vehicle information 122 in the storage unit 12, for example.

また、取得部111は、所定の領域を移動している車両5から、GPSまたはGNSSに基づく車両5の位置情報を取得する位置情報取得部として機能する。 The acquisition unit 111 also functions as a position information acquisition unit that acquires position information of the vehicle 5 based on GPS or GNSS from the vehicle 5 moving in a predetermined area.

また、取得部111は、車両5または外部装置6から、車両5に関する所定の特徴情報(車種情報、車体色情報、進行方向情報、車線情報など)を取得する特徴情報取得部として機能する。外部装置6は、特徴情報を管理するコンピュータ装置である。 The acquisition unit 111 also functions as a feature information acquisition unit that acquires predetermined feature information (vehicle type information, body color information, traveling direction information, lane information, etc.) regarding the vehicle 5 from the vehicle 5 or the external device 6 . The external device 6 is a computer device that manages feature information.

制御部112は、各種情報処理を実行する。制御部112は、例えば、車両5の実位置情報と、位置情報取得部(取得部111)によって取得された位置情報と、特徴情報取得部(取得部111)によって取得された所定の特徴情報と、抽出部214によって抽出された所定の特徴情報と、に基づいて、撮影画像に写っている車両5と、位置情報取得部(取得部111)によって取得された位置情報を送信した車両5と、を対応付ける。対応付けた情報は、対応情報123に格納される。 The control unit 112 executes various types of information processing. The control unit 112, for example, acquires the actual position information of the vehicle 5, the position information acquired by the position information acquisition unit (acquisition unit 111), and the predetermined feature information acquired by the feature information acquisition unit (acquisition unit 111). , the predetermined feature information extracted by the extraction unit 214, the vehicle 5 appearing in the captured image, the vehicle 5 that transmitted the position information acquired by the position information acquisition unit (acquisition unit 111), correspond. The associated information is stored in the correspondence information 123 .

制御部112は、上述の対応付けを行った後に、例えば、第1車両情報121における「(8)位置情報(緯度、経度、標高)」等の情報を地図管理サーバ4に送信する。これにより、地図管理サーバ4は、高精度な「(8)位置情報(緯度、経度、標高)」を補助情報として用いてダイナミックマップ41を更新することができる。 After performing the above-described association, the control unit 112 transmits information such as “(8) position information (latitude, longitude, altitude)” in the first vehicle information 121 to the map management server 4 . As a result, the map management server 4 can update the dynamic map 41 using highly accurate "(8) position information (latitude, longitude, altitude)" as auxiliary information.

また、制御部112は、例えば、第1車両情報121における「(8)位置情報(緯度、経度、標高)」等の情報を、該当する車両5に送信する。これにより、車両5は、高精度な「(8)位置情報(緯度、経度、標高)」を活用することができる。 Also, the control unit 112 transmits information such as “(8) position information (latitude, longitude, altitude)” in the first vehicle information 121 to the corresponding vehicle 5 . Thereby, the vehicle 5 can utilize highly accurate "(8) position information (latitude, longitude, altitude)".

入力部13は、位置管理サーバ1に対するユーザの操作を受け付ける。入力部13は、例えば、キーボード、マウス等の入力装置である。 The input unit 13 receives a user's operation on the location management server 1 . The input unit 13 is, for example, an input device such as a keyboard and a mouse.

表示部14は、各種情報を表示する。表示部14は、例えば、液晶表示装置(LCD)、有機EL表示装置等である。 The display unit 14 displays various information. The display unit 14 is, for example, a liquid crystal display (LCD), an organic EL display, or the like.

通信部15は、外部装置(例えば、PC2、地図管理サーバ4等)と通信を行うための通信インタフェースである。 The communication unit 15 is a communication interface for communicating with an external device (for example, the PC 2, the map management server 4, etc.).

次に、図10を参照して、実施形態のPC2による処理について説明する。
図10は、実施形態のPC2による処理を示すフローチャートである。
まず、ステップS1において、取得部211は、定置カメラ3から定置カメラ画像を取得する。
Next, referring to FIG. 10, processing by the PC 2 of the embodiment will be described.
FIG. 10 is a flow chart showing processing by the PC 2 of the embodiment.
First, in step S<b>1 , the acquisition unit 211 acquires a stationary camera image from the stationary camera 3 .

次に、ステップS2において、検出部212は、DNNなどの手法に基づいて、定置カメラ画像に写っている車両5(移動物体)を検出する。 Next, in step S2, the detection unit 212 detects the vehicle 5 (moving object) captured in the stationary camera image based on a technique such as DNN.

次に、ステップS3において、特定部213は、車両5(移動物体)の位置情報を特定する。ここで、図11を参照して、図10のステップS3の処理の詳細について説明する。 Next, in step S3, the identification unit 213 identifies the position information of the vehicle 5 (moving object). Details of the process of step S3 in FIG. 10 will now be described with reference to FIG.

図11は、図10のステップS3の処理の詳細を示すフローチャートである。
ステップS31において、特定部213は、位置DB221を参照して、定置カメラ画像を衛星画像に座標変換する(図4)。
FIG. 11 is a flow chart showing details of the processing in step S3 of FIG.
In step S31, the specifying unit 213 refers to the position DB 221 and performs coordinate transformation of the stationary camera image into a satellite image (FIG. 4).

次に、ステップS32において、特定部213は、衛星画像における車両5(移動物体)に適用したワイヤーフレームの底面中心座標を算出する(図3(c))。次に、ステップS33において、特定部213は、変換テーブル222を参照して、衛星画像における車両の底面中心座標を位置情報(緯度、経度、標高)に変換する。 Next, in step S32, the specifying unit 213 calculates bottom center coordinates of the wire frame applied to the vehicle 5 (moving object) in the satellite image (FIG. 3(c)). Next, in step S33, the identification unit 213 refers to the conversion table 222 and converts the bottom center coordinates of the vehicle in the satellite image into position information (latitude, longitude, altitude).

図10に戻って、ステップS3の後、ステップS4において、制御部215は、第1車両情報223を生成する。次に、ステップS5において、制御部215は、第1車両情報223を位置管理サーバ1に送信する。 Returning to FIG. 10, after step S3, the control unit 215 generates the first vehicle information 223 in step S4. Next, in step S<b>5 , the control section 215 transmits the first vehicle information 223 to the position management server 1 .

次に、図12を参照して、実施形態の位置管理サーバ1による処理について説明する。
図12は、実施形態の位置管理サーバ1による処理を示すフローチャートである。
まず、ステップS41において、取得部111は、PC2から第1車両情報223を取得して、記憶部12に第1車両情報121として保存する。
Next, processing by the location management server 1 of the embodiment will be described with reference to FIG. 12 .
FIG. 12 is a flowchart showing processing by the location management server 1 of the embodiment.
First, in step S<b>41 , the acquisition unit 111 acquires the first vehicle information 223 from the PC 2 and stores it in the storage unit 12 as the first vehicle information 121 .

次に、ステップS42において、取得部111は、車両5から第2車両情報51を取得して、記憶部12に第2車両情報122として保存する。 Next, in step S<b>42 , the acquisition unit 111 acquires the second vehicle information 51 from the vehicle 5 and stores it in the storage unit 12 as the second vehicle information 122 .

次に、ステップS43において、制御部112は、同一の車両5について、第1車両情報121と第2車両情報122の対応付けを行い、処理結果を、記憶部12に対応情報123として保存する。ここで、図13を参照して、図12のステップS43の処理の詳細について説明する。 Next, in step S<b>43 , the control unit 112 associates the first vehicle information 121 and the second vehicle information 122 with respect to the same vehicle 5 and stores the processing result in the storage unit 12 as the correspondence information 123 . Details of the processing in step S43 of FIG. 12 will now be described with reference to FIG.

図13は、図12のステップS43の処理の詳細を示すフローチャートである。
ステップS431において、制御部112は、位置(車線を含む)で絞り込む。例えば、第1車両情報121の(8)位置情報(緯度、経度、標高)と第2車両情報122の(17)GPS位置情報を用いて対応付けを行う。この対応付けは、地図座標系(緯度、経度)の位置情報を用いて行うが、(17)GPS位置情報の精度が悪かったり、道路には複数台の車両5が存在したりすることにより、難しい場合がある。
FIG. 13 is a flow chart showing the details of the processing in step S43 of FIG.
In step S431, the control unit 112 narrows down by position (including lane). For example, (8) positional information (latitude, longitude, altitude) of the first vehicle information 121 and (17) GPS positional information of the second vehicle information 122 are used to associate them. This association is performed using location information in a map coordinate system (latitude and longitude). It can be difficult.

次に、ステップS432において、制御部112は、車両5の進行方向や速度で絞り込む。進行方向については、例えば、直進車同士や左折車同士で対応付ける。次に、ステップS433において、制御部112は、車種、車体色で絞り込む。車体色については、例えば、代表2色を用いて対応付ける。 Next, in step S<b>432 , the control unit 112 narrows down according to the traveling direction and speed of the vehicle 5 . As for the direction of travel, for example, cars that go straight or cars that turn left are associated with each other. Next, in step S433, the control unit 112 narrows down by vehicle type and body color. As for the body color, for example, two representative colors are used to associate the body color.

なお、ステップS431~S433の処理の順番等はこれに限定されない。例えば、ステップS432とステップS433の順番を逆にしてもよいし、あるいは、ステップS431~S433の一巡目の処理で対応付けが成功しなければ、さらに二巡目の処理を行ってもよい。また、絞り込むための各要素を順番に使用するのではなく、同時に並行して使用してもよいし、絞り込める確率が高い要素を優先的に使用してもよい。また、車両5を1台ずつではなく、3,4台程度でまとめて対応付けしてもよい。 Note that the order of the processing of steps S431 to S433 is not limited to this. For example, the order of steps S432 and S433 may be reversed, or if the matching is not successful in the first round of processing of steps S431 to S433, the second round of processing may be performed. In addition, instead of using the elements for narrowing down in order, they may be used concurrently, or elements with a high probability of narrowing down may be preferentially used. In addition, the vehicles 5 may be associated not one by one, but three or four vehicles collectively.

図12に戻って、ステップS43の後、ステップS44において、制御部112は、第1車両情報121における「(8)位置情報(緯度、経度、標高)」等の情報を地図管理サーバ4に送信する。 Returning to FIG. 12, in step S44 after step S43, the control unit 112 transmits information such as "(8) position information (latitude, longitude, altitude)" in the first vehicle information 121 to the map management server 4. do.

次に、ステップS45において、制御部112は、第1車両情報121における「(8)位置情報(緯度、経度、標高)」等の情報を、該当する車両5に送信する。 Next, in step S<b>45 , the control unit 112 transmits information such as “(8) position information (latitude, longitude, altitude)” in the first vehicle information 121 to the corresponding vehicle 5 .

次に、図14を参照して、実施形態の位置管理サーバ1による他の処理について説明する。
図14は、実施形態の位置管理サーバ1による他の処理を示すフローチャートである。第1車両情報121に基づいて認識される車両の数と、第2車両情報122に基づいて認識される車両の数が異なる場合が考えられる。ここでは、第2車両情報122に基づいて認識される車両の数は正しいと仮定する。
Next, other processing by the location management server 1 of the embodiment will be described with reference to FIG. 14 .
FIG. 14 is a flow chart showing another process by the location management server 1 of the embodiment. The number of vehicles recognized based on the first vehicle information 121 and the number of vehicles recognized based on the second vehicle information 122 may differ. Here, it is assumed that the number of vehicles recognized based on the second vehicle information 122 is correct.

その場合、夜間や悪天候などの悪条件によって、定置カメラ画像に基づく車両の検出精度が低下することがある。具体的には、道路を走行する車両の台数に対して、定置カメラ画像から検出される車両矩形数が少なかったり多かったりすることが考えられる。 In that case, the vehicle detection accuracy based on the stationary camera image may deteriorate due to adverse conditions such as nighttime or bad weather. Specifically, it is conceivable that the number of vehicle rectangles detected from the stationary camera image may be smaller or larger than the number of vehicles traveling on the road.

車両矩形数が少ない場合は、車両検出の条件が厳しすぎる場合である。また、車両矩形数が多い場合は、車両検出の条件が緩すぎる場合である。そこで、図14の処理を行う。 If the number of vehicle rectangles is small, the conditions for vehicle detection are too strict. Further, when the number of vehicle rectangles is large, the condition for vehicle detection is too loose. Therefore, the processing of FIG. 14 is performed.

まず、ステップS51において、制御部112は、第2車両情報122を用いて、車両の数である第2車両数(N2)を算出する。 First, in step S51, the control unit 112 uses the second vehicle information 122 to calculate the second number of vehicles (N2), which is the number of vehicles.

次に、ステップS52において、制御部112は、第1車両情報121を用いて、車両の数である第1車両数(N1)を算出する。 Next, in step S52, the control unit 112 uses the first vehicle information 121 to calculate the first number of vehicles (N1), which is the number of vehicles.

次に、ステップS53において、制御部112は、(N2-N1)が第1閾値(例えば3~5程度など)よりも多いか否かを判定し、Yesの場合はステップS54に進み、Noの場合はステップS55に進む。 Next, in step S53, the control unit 112 determines whether or not (N2-N1) is greater than a first threshold value (for example, about 3 to 5). If so, the process proceeds to step S55.

ステップS54において、制御部112は、N1が増えるように、PC2の検出部212が定置カメラ画像による車両検出に用いるDNNにおける辞書切替(昼夜別モデルの切替、天候別モデルの切替等)やパラメータ調整を行う。ステップS54の後、ステップS52に戻る。 In step S54, the control unit 112 switches dictionaries (switching between day and night models, switching between weather models, etc.) and adjusts parameters in the DNN used by the detection unit 212 of the PC2 for vehicle detection using stationary camera images so that N1 increases. I do. After step S54, the process returns to step S52.

ステップS55において、制御部112は、(N1-N2)が第2閾値(例えば3~5程度など)よりも多いか否かを判定し、Yesの場合はステップS56に進み、Noの場合は処理を終了する。 In step S55, the control unit 112 determines whether or not (N1-N2) is greater than a second threshold value (for example, about 3 to 5). If Yes, proceed to step S56. exit.

ステップS56において、制御部112は、N1が減るように、PC2の検出部212が定置カメラ画像による車両検出に用いるDNNにおける辞書切替やパラメータ調整を行う。ステップS56の後、ステップS52に戻る。このようにして、必要に応じて辞書切替やパラメータ調整を行うことで、N1とN2の数を近づけ、車両の位置情報の特定を適切に行うことができる。 In step S56, the control unit 112 performs dictionary switching and parameter adjustment in the DNN used by the detection unit 212 of the PC2 for vehicle detection using a fixed camera image so as to reduce N1. After step S56, the process returns to step S52. In this way, by switching dictionaries and adjusting parameters as necessary, the numbers of N1 and N2 can be brought close to each other, and the position information of the vehicle can be specified appropriately.

このようにして、本実施形態の位置管理システムSによれば、定置カメラ画像から特定された車両の位置情報と、車両から取得したGPS位置情報と、に加えて、所定の特徴情報(車種情報、車体色情報、進行方向情報、車線情報など)を用いることで、移動物体(車両)の高精度な位置情報を低コストで得ることができる。 In this way, according to the position management system S of the present embodiment, in addition to the vehicle position information specified from the fixed camera image and the GPS position information acquired from the vehicle, predetermined characteristic information (vehicle type information , body color information, traveling direction information, lane information, etc.), highly accurate position information of a moving object (vehicle) can be obtained at low cost.

また、車種情報を用いる場合は、図7で説明した手法を用いることで、高精度な対応付けを行うことができる。 Also, when vehicle type information is used, highly accurate association can be performed by using the method described with reference to FIG.

また、車体色情報を用いる場合は、図8で説明した手法を用いることで、高精度な対応付けを行うことができる。 Further, when body color information is used, highly accurate association can be performed by using the method described with reference to FIG. 8 .

また、車両の位置情報を地図管理サーバ4に送信することで、地図管理サーバ4は、この高精度な位置情報を補助情報として用いてダイナミックマップ41を適切に更新することができる。 Further, by transmitting the vehicle position information to the map management server 4, the map management server 4 can appropriately update the dynamic map 41 using this highly accurate position information as auxiliary information.

また、車両の位置情報を該当する車両5に送信することで、車両5は、この高精度な位置情報を自律走行(自動運転等)等に有効活用することができる。 In addition, by transmitting the position information of the vehicle to the corresponding vehicle 5, the vehicle 5 can effectively utilize this highly accurate position information for autonomous driving (such as automatic driving).

実施形態の位置管理サーバ1、PC2で実行されるプログラムは、上述した各機能部を含むモジュール構成となっており、実際のハードウェアとしてはCPU(プロセッサ)が上記ROMから当該プログラムを読み出して実行することにより上記各機能部が主記憶装置上にロードされ、主記憶装置上に生成されるようになっている。 The program executed by the location management server 1 and the PC 2 of the embodiment has a module configuration including each functional unit described above, and as actual hardware, a CPU (processor) reads the program from the ROM and executes By doing so, each functional unit is loaded onto the main storage device and generated on the main storage device.

当該プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD-ROM、フレキシブルディスク、CD-R、DVD等のコンピュータで読み取り可能な記録媒体に記録されて提供される。 The program is recorded in a computer-readable recording medium such as a CD-ROM, a flexible disk, a CD-R, and a DVD as an installable or executable file.

また、当該プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、当該プログラムをインターネット等のネットワーク経由で提供または配布するように構成しても良い。また、当該プログラムを、ROM等に予め組み込んで提供するように構成しても良い。 Alternatively, the program may be stored in a computer connected to a network such as the Internet, and provided by being downloaded via the network. Also, the program may be configured to be provided or distributed via a network such as the Internet. Alternatively, the program may be configured to be pre-installed in a ROM or the like and provided.

以上、本発明の実施形態を説明したが、上記実施形態はあくまで例であって、発明の範囲を限定することは意図していない。上記実施形態は、様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。上記実施形態は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although the embodiment of the present invention has been described above, the above embodiment is merely an example and is not intended to limit the scope of the invention. The above embodiments can be implemented in various forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. The above embodiments are included in the scope and gist of the invention, and are included in the scope of the invention described in the claims and equivalents thereof.

例えば、移動物体は、車両に限定されず、ほかに、例えば、工場内の移動体(運搬車。移動ロボット等)などの他の移動物体であってもよい。 For example, the moving object is not limited to a vehicle, and may be another moving object such as a moving object (transportation vehicle, mobile robot, etc.) in a factory.

また、位置管理サーバ1とPC2の機能は、1つのコンピュータ装置によって実現してもよいし、あるいは、3つ以上のコンピュータ装置によって実現してもよい。 Also, the functions of the location management server 1 and the PC 2 may be realized by one computer device, or may be realized by three or more computer devices.

また、定置カメラ画像に歪みがある場合は、画像中の横断歩道の白線が直線になるようになどして画像補正してもよい。また、衛星画像について、歪みがある場合は同様にして画像補正してもよい。 Also, if the stationary camera image is distorted, the image may be corrected by, for example, straightening the white lines of the pedestrian crossing in the image. Also, if the satellite image is distorted, the image may be corrected in the same manner.

また、第2車両情報は、GPSではなくGNSS等の他の手法により生成してもよい。 Also, the second vehicle information may be generated by other methods such as GNSS instead of GPS.

また、1つの撮影エリアに対して、定置カメラ3を複数設置し、複数の定置カメラ画像を用いてもよい。 Also, a plurality of fixed cameras 3 may be installed for one photographing area, and a plurality of fixed camera images may be used.

1…位置管理サーバ、2…PC、3…定置カメラ、4…地図管理サーバ、5…車両、11…処理部、12…記憶部、13…入力部、14…表示部、15…通信部、21…処理部、22…記憶部、23…入力部、24…表示部、25…通信部、41…ダイナミックマップ、51…第2車両情報、111…取得部、112制御部、121…第1車両情報、122…第2車両情報、123…対応情報、211…取得部、212…検出部、213…特定部、214…抽出部、215…制御部、221…位置DB、222…変換テーブル、223…第1車両情報、224…車種判別用テーブル、S…位置管理システム DESCRIPTION OF SYMBOLS 1... Position management server 2... PC 3... Stationary camera 4... Map management server 5... Vehicle 11... Processing part 12... Storage part 13... Input part 14... Display part 15... Communication part, 21 processing unit 22 storage unit 23 input unit 24 display unit 25 communication unit 41 dynamic map 51 second vehicle information 111 acquisition unit 112 control unit 121 first Vehicle information 122 Second vehicle information 123 Corresponding information 211 Acquisition unit 212 Detection unit 213 Identification unit 214 Extraction unit 215 Control unit 221 Position DB 222 Conversion table 223... First vehicle information, 224... Vehicle type identification table, S... Position management system

Claims (9)

移動物体が移動する所定の領域を撮影する定置カメラから撮影画像を取得する撮影画像取得部と、
前記撮影画像から前記移動物体を検出する検出部と、
前記定置カメラによる撮影画像の各部分に対して予め実位置情報が対応付けられている位置対応情報に基づいて、前記撮影画像に写っている前記移動物体の実位置情報を特定する特定部と、
前記所定の領域を移動している前記移動物体から、GPS(Global Positioning System)またはGNSS(Global Navigation Satellite System)に基づく前記移動物体の位置情報を取得する位置情報取得部と、
前記移動物体または外部装置から、前記移動物体に関する所定の特徴情報を取得する特徴情報取得部と、
前記撮影画像から前記移動物体の前記所定の特徴情報を抽出する抽出部と、
前記特定部によって特定された前記実位置情報と、前記位置情報取得部によって取得された前記位置情報と、前記特徴情報取得部によって取得された前記所定の特徴情報と、前記抽出部によって抽出された前記所定の特徴情報と、に基づいて、前記撮影画像に写っている前記移動物体と、前記位置情報取得部によって取得された前記位置情報を送信した前記移動物体と、を対応付ける制御部と、
を備える位置管理システム。
a captured image acquisition unit configured to acquire a captured image from a stationary camera that captures a predetermined area in which a moving object moves;
a detection unit that detects the moving object from the captured image;
a specifying unit that specifies the real position information of the moving object appearing in the photographed image based on position correspondence information in which real position information is associated in advance with each part of the photographed image by the stationary camera;
a position information acquisition unit that acquires position information of the moving object based on GPS (Global Positioning System) or GNSS (Global Navigation Satellite System) from the moving object moving in the predetermined area;
a feature information acquisition unit that acquires predetermined feature information about the moving object from the moving object or an external device;
an extraction unit that extracts the predetermined feature information of the moving object from the captured image;
The actual position information specified by the specifying unit, the position information acquired by the position information acquisition unit, the predetermined feature information acquired by the feature information acquisition unit, and the a control unit that associates the moving object appearing in the captured image with the moving object that transmitted the position information acquired by the position information acquisition unit, based on the predetermined feature information;
location management system.
前記移動物体は、車両であり、
前記所定の特徴情報は、前記車両の種類を示す車種情報であり、
前記特徴情報取得部は、前記車両または前記外部装置から、前記車両に関する所定の特徴情報として前記車種情報を取得し、
前記抽出部は、前記撮影画像から前記車両の前記車種情報を抽出する、請求項1に記載の位置管理システム。
the moving object is a vehicle,
The predetermined characteristic information is vehicle type information indicating the type of the vehicle,
The feature information acquisition unit acquires the vehicle type information as predetermined feature information about the vehicle from the vehicle or the external device,
2. The position management system according to claim 1, wherein said extraction unit extracts said vehicle type information of said vehicle from said photographed image.
前記抽出部は、前記撮影画像から前記車両の前記車種情報を抽出する場合に、
前記撮影画像に写っている前記車両の姿勢を推定し、前記姿勢に基づいて前記車両を直方体のワイヤーフレームで表現し、前記ワイヤーフレームに基づいて外観特徴、車幅、車長、車高を算出し、算出した前記外観特徴、前記車幅、前記車長、前記車高と、予め外観特徴、車幅、車長、車高と車種情報が対応付けられている車種対応情報と、に基づいて、前記車両の前記車種情報を抽出する、請求項2に記載の位置管理システム。
When extracting the vehicle type information of the vehicle from the captured image, the extraction unit
Estimating the attitude of the vehicle in the captured image, representing the vehicle in a rectangular parallelepiped wire frame based on the attitude, and calculating exterior features, vehicle width, vehicle length, and vehicle height based on the wire frame. Then, based on the calculated exterior features, the vehicle width, the vehicle length, and the vehicle height, and the vehicle type correspondence information in which the exterior features, the vehicle width, the vehicle length, the vehicle height, and the vehicle type information are associated in advance. 3. The position management system according to claim 2, wherein said vehicle type information of said vehicle is extracted.
前記移動物体は、車両であり、
前記所定の特徴情報は、車体色情報であり、
前記特徴情報取得部は、前記車両または前記外部装置から、前記車両に関する所定の特徴情報として前記車体色情報を取得し、
前記抽出部は、前記撮影画像から前記車両の前記車体色情報を抽出する、請求項1に記載の位置管理システム。
the moving object is a vehicle,
The predetermined characteristic information is vehicle body color information,
The feature information acquisition unit acquires the vehicle body color information as predetermined feature information about the vehicle from the vehicle or the external device,
2. The position management system according to claim 1, wherein said extraction unit extracts said vehicle body color information of said vehicle from said photographed image.
前記抽出部は、前記撮影画像から前記車両の前記車体色情報を抽出する場合に、
前記撮影画像に写っている前記車両の姿勢を推定し、前記姿勢に基づいて前記車両を直方体のワイヤーフレームで表現し、前記ワイヤーフレームの内部の前記車両の部分の画像であるクロップ画像に基づいて、色情報をクラスタリングすることで前記車体色情報として代表2色を抽出し、
前記特徴情報取得部は、前記車両または前記外部装置から、前記車両に関する前記車体色情報として代表2色を取得する、請求項4に記載の位置管理システム。
When extracting the vehicle body color information of the vehicle from the captured image, the extraction unit
estimating the posture of the vehicle appearing in the photographed image, expressing the vehicle in a rectangular parallelepiped wire frame based on the posture, and based on a cropped image that is an image of the portion of the vehicle inside the wire frame; , extracting two representative colors as the vehicle body color information by clustering the color information,
5. The position management system according to claim 4, wherein said characteristic information acquisition unit acquires two representative colors as said vehicle body color information relating to said vehicle from said vehicle or said external device.
前記移動物体は、車両であり、
前記所定の特徴情報は、前記車両の進行方向情報であり、
前記特徴情報取得部は、前記車両から、前記車両に関する所定の特徴情報として前記進行方向情報を取得し、
前記抽出部は、時系列に複数の前記撮影画像から前記車両の前記進行方向情報を抽出する、請求項1に記載の位置管理システム。
the moving object is a vehicle,
The predetermined characteristic information is traveling direction information of the vehicle,
The feature information acquisition unit acquires the traveling direction information from the vehicle as predetermined feature information about the vehicle,
2. The position management system according to claim 1, wherein said extraction unit extracts said traveling direction information of said vehicle from said plurality of photographed images in time series.
前記移動物体は、車両であり、
前記所定の特徴情報は、前記車両が走行する車線情報であり、
前記特徴情報取得部は、前記車両から、前記車両に関する所定の特徴情報として前記車両が走行する前記車線情報を取得し、
前記抽出部は、前記撮影画像から前記車両が走行する前記車線情報を抽出する、請求項1に記載の位置管理システム。
the moving object is a vehicle,
The predetermined feature information is lane information on which the vehicle travels,
The feature information acquisition unit acquires, from the vehicle, the lane information on which the vehicle travels as predetermined feature information about the vehicle,
2. The position management system according to claim 1, wherein said extraction unit extracts said lane information along which said vehicle travels from said photographed image.
前記制御部は、前記移動物体の位置情報を、前記移動物体、および/または、ダイナミックマップの管理サーバに送信する、請求項1に記載の位置管理システム。 2. The position management system according to claim 1, wherein said control unit transmits position information of said moving object to a management server of said moving object and/or a dynamic map. 移動物体が移動する所定の領域を撮影する定置カメラから撮影画像を取得する撮影画像取得ステップと、
前記撮影画像から前記移動物体を検出する検出ステップと、
前記定置カメラによる撮影画像の各部分に対して予め実位置情報が対応付けられている位置対応情報に基づいて、前記撮影画像に写っている前記移動物体の実位置情報を特定する特定ステップと、
前記所定の領域を移動している前記移動物体から、GPSまたはGNSSに基づく前記移動物体の位置情報を取得する位置情報取得ステップと、
前記移動物体または外部装置から、前記移動物体に関する所定の特徴情報を取得する特徴情報取得ステップと、
前記撮影画像から前記移動物体の前記所定の特徴情報を抽出する抽出ステップと、
前記特定ステップによって特定された前記実位置情報と、前記位置情報取得ステップによって取得された前記位置情報と、前記特徴情報取得ステップによって取得された前記所定の特徴情報と、前記抽出ステップによって抽出された前記所定の特徴情報と、に基づいて、前記撮影画像に写っている前記移動物体と、前記位置情報取得ステップによって取得された前記位置情報を送信した前記移動物体と、を対応付ける制御ステップと、
を含む位置管理方法。

a photographed image obtaining step of obtaining a photographed image from a stationary camera that photographs a predetermined area in which the moving object moves;
a detection step of detecting the moving object from the captured image;
a specifying step of specifying the real position information of the moving object appearing in the photographed image based on position correspondence information in which real position information is associated in advance with each part of the photographed image by the stationary camera;
a position information obtaining step of obtaining position information of the moving object based on GPS or GNSS from the moving object moving in the predetermined area;
a feature information acquiring step of acquiring predetermined feature information about the moving object from the moving object or an external device;
an extracting step of extracting the predetermined feature information of the moving object from the captured image;
The actual position information specified by the specifying step, the position information acquired by the position information acquiring step, the predetermined feature information acquired by the feature information acquiring step, and the extracted by the extracting step a control step of associating the moving object appearing in the captured image with the moving object that transmitted the position information acquired by the position information acquiring step, based on the predetermined characteristic information;
location management methods, including;

JP2021156567A 2021-09-27 2021-09-27 Location management system and location management method Pending JP2023047584A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021156567A JP2023047584A (en) 2021-09-27 2021-09-27 Location management system and location management method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021156567A JP2023047584A (en) 2021-09-27 2021-09-27 Location management system and location management method

Publications (1)

Publication Number Publication Date
JP2023047584A true JP2023047584A (en) 2023-04-06

Family

ID=85779432

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021156567A Pending JP2023047584A (en) 2021-09-27 2021-09-27 Location management system and location management method

Country Status (1)

Country Link
JP (1) JP2023047584A (en)

Similar Documents

Publication Publication Date Title
US11270131B2 (en) Map points-of-change detection device
JP6241422B2 (en) Driving support device, driving support method, and recording medium for storing driving support program
US11408740B2 (en) Map data update apparatus, map data update method, and computer readable medium
JP5747549B2 (en) Signal detector and program
KR101261409B1 (en) System for recognizing road markings of image
US11625851B2 (en) Geographic object detection apparatus and geographic object detection method
JP2018124787A (en) Information processing device, data managing device, data managing system, method, and program
WO2022078074A1 (en) Method and system for detecting position relation between vehicle and lane line, and storage medium
JP6278791B2 (en) Vehicle position detection device, vehicle position detection method, vehicle position detection computer program, and vehicle position detection system
CN112435300A (en) Positioning method and device
KR101255461B1 (en) Position Measuring Method for street facility
JP6278790B2 (en) Vehicle position detection device, vehicle position detection method, vehicle position detection computer program, and vehicle position detection system
JP4762026B2 (en) Road sign database construction device
JP2010226652A (en) Image processing apparatus, image processing method, and computer program
US20230245323A1 (en) Object tracking device, object tracking method, and storage medium
JP6916975B2 (en) Sign positioning system and program
JP2023047584A (en) Location management system and location management method
US20220404170A1 (en) Apparatus, method, and computer program for updating map
CN107844749B (en) Road surface detection method and device, electronic device and storage medium
CN115235493A (en) Method and device for automatic driving positioning based on vector map
WO2022133986A1 (en) Accuracy estimation method and system
JP7467299B2 (en) Location management system, location identification device, and location identification method
US11780444B2 (en) Driving assistance apparatus and image processing method
CN113643374A (en) Multi-view camera calibration method, device, equipment and medium based on road characteristics
JP6992344B2 (en) Landmark selection method and landmark selection device